PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Maxwell - GM1xx (H1/2014) / GM2xx (H2/2014)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 [30] 31 32 33

Ailuros
2015-03-11, 09:49:16
Pascal wird doch wahrscheinlich auch zuerst als Performancechip kommen und der dürfte primär in den Geforcemarkt gehen.

Sagt wer?

Der Big Dog ist ein ganz anderes Szenario, da es für ihn andere und wichtigere Absatzmärkte gibt, dort würde ich keine Schätzung riskieren. GP200 (wenn er denn so heißt) kann schnell kommen, denn im HPC Markt lebt ja noch GK210 weiter und bei den Preisen kann man mit Yields arbeiten, die für den Massenmarkt völlig untragbar wären.

GM200 taugt für mich nur als Indikator für GP204.

...und was sollen sie mit all den Maxwell shrinks anrichten? :rolleyes: Man braucht wirklich keine Glaskugel um ein paar millimeter weiterdenken zu koennen, unter der Vorraussetzung dass man manche Sachen auch wirklich verfolgt.

Dawn on Titan
2015-03-11, 09:58:34
Maxwell Shrinks?? Das höre ich zum ersten Mal.

Ailuros
2015-03-11, 10:19:05
Maxwell Shrinks?? Das höre ich zum ersten Mal.

Sie wurden schon seit einer Ewigkeit erwaehnt. Alles unter 16FF (welches den Umschwung theoretisch auf 14nm Samsung eher als unwahrscheinlich klingen laesst).

1. Pascal hat stacked RAM und dieser wird primaer zuerst im high end benutzt werden weil dort dank HPC erstmal extravagante Bandbreite notwendiger sind und weil stacked RAM fuer den Anfang verdammt teuer sein wird.

2. Ich hab zumindest 3 oder 4 Mal im thread hier schon erwaehnt dass Pascal nur minimale Aenderungen in den ALUs haben wird im Vergleich zu Maxwell, welches wohl darauf deutet dass das meiste an Leistungszusatz vom kleineren Prozess kommen wird.

Sonst wenn IHVs mit stacked RAM nur so herumschmeissen koennten warum auch nicht gleich stacked RAM fuer den Parker SoC fuer ULP SoC :rolleyes:

Dawn on Titan
2015-03-11, 10:23:59
Ich bin davon ausgegangen, dass Pascal nur beim Top-Dog stacked-RAM haben wird. Hatte mich gerade aber mit dem Prozess vertan und meinte 16FF und nicht 14.

Ailuros
2015-03-11, 10:32:28
Ich bin davon ausgegangen, dass Pascal nur beim Top-Dog stacked-RAM haben wird. Hatte mich gerade aber mit dem Prozess vertan und meinte 16FF und nicht 14.

Da Pascal anscheinend keine besonderen architektur-bedingten Aenderungen mit sich bringen wird, macht es auch mehr Sinn die existierenden Maxwell cores auf 16FF zu schrumpfen. Es ist ja nicht gerade so dass es irgendwelche perf/W Wunder von AMD geben wird sondern eher leicht neu geschminkte Hawaii und co cores unterhalb Fiji.

Dawn on Titan
2015-03-11, 10:34:48
Ich bin halt davon ausgegangen, dass man die trotzdem Pascal nennen wird.

Sunrise
2015-03-11, 11:02:52
NV benötigt gegen Knights Landing etwas und das kann nur ein fetter Pascal liefern, der nicht nur min. auf 16FF kommt, sondern auch mit nochmals gesteigerter Effizienz, deutlich mehr Bandbreite und ein paar wichtigen neuen "Spielereien", die im HPC benötigt werden. Knights Landing kommt sehr bald, spätestens irgendwann H2/2015. NV wird hier möglichst schnell liefern müssen, was auch kein Problem sein sollte, wenn TSMC hier nicht weiter verzögert. Aber sicher nicht Anfang 2016.

Ebenso mit Knights Hill, der auf 10nm kommt, auch hier benötigt NV relativ schnell nach Pascal schon Volta, also frühestens irgendwann 2017.

Für GP204 muss NV deutlich weniger Geschütze auffahren, da allein der Fertigungsvorteil und min. Maxwell-Architektur völlig ausreichen um schneller als GM200 zu sein und um den Kunden erneut zur Kasse zu bitten.

boxleitnerb
2015-03-11, 11:10:21
Da Pascal anscheinend keine besonderen architektur-bedingten Aenderungen mit sich bringen wird, macht es auch mehr Sinn die existierenden Maxwell cores auf 16FF zu schrumpfen. Es ist ja nicht gerade so dass es irgendwelche perf/W Wunder von AMD geben wird sondern eher leicht neu geschminkte Hawaii und co cores unterhalb Fiji.

Ist Fiji kein Perf/W Wunder? Ich würde meinen, dass man bei der Effizienz GM204/200 zuminest recht nahe kommt.

M4xw0lf
2015-03-11, 11:12:12
Ist Fiji kein Perf/W Wunder? Ich würde meinen, dass man bei der Effizienz GM204/200 zuminest recht nahe kommt.
Was NV aber ja nicht unter Zugzwang im Sinne von größeren Architekturänderungen bringen würde. Widerspräche Ailuros' Aussage also nicht, wenn Fiji Maxwell-ähnlich effizient würde.

Sunrise
2015-03-11, 11:13:47
Ist Fiji kein Perf/W Wunder? Ich würde meinen, dass man bei der Effizienz GM204/200 zuminest recht nahe kommt.
Das muss AMD erstmal beweisen. Nur rein durch HBM und evtl. leicht angepasster Tonga-Architektur wird dein Fiji kein Perf/W-Wunder.

Wenn AMD nämlich einfach nur einen Brute-Force-Ansatz baut, dann spart man durch HBM zwar ein, aber benötigt auch genügend Durchsatz bzw. Einheiten um Maxwell generell gefährlich werden zu können. Und das wird bei GM200 im Vollausbau recht schwierig werden.

Ailuros
2015-03-11, 11:17:30
Ist Fiji kein Perf/W Wunder? Ich würde meinen, dass man bei der Effizienz GM204/200 zuminest recht nahe kommt.

Recht nahe kommen heisst nicht Gleichstand und schon gar nicht dass man besser da steht; ergo kein Grund zur Unruhe ;)

Sonst sollte sich IMHO eher Bermuda gegen GM200 messen; egal was zum Henker das erste am Ende ist wenn ich schon von hybrider Kuehlung hoere klingt es nicht nach einem Verbrauchs-schlager.

Coda
2015-03-11, 11:58:10
Ist Fiji kein Perf/W Wunder? Ich würde meinen, dass man bei der Effizienz GM204/200 zuminest recht nahe kommt.
Das ist doch reine Spekulation, es gibt keine Benchmarks.

HBM wird aber schon einiges bringen. Ich weiß aus der Praxis, dass vieles immer noch an der Bandbreite hängt.

Edgecrusher86
2015-03-11, 12:24:48
Meine Infos decken sich nicht mit so hohen Prozentualen im Durchschnitt; Vorsicht mit synthetischen benchmark Resultaten wie 3dfurz.

Ja, die die Skalierung der GPUs - auch gerade MGPU - ist schon außergewöhnlich dort - das stimmt. Zumindest sollte mit entsprechend GPU-Offset Richtung GTX 980 Max-Boost im GPU-Limit auch um die 40% oder etwas Mehrleistung zu dieser möglich sein - stock wohl doch eher nicht.

Stimmt, GF110 oder GK104 waren im 3DM auch deutlich schneller, sprich optimiert, gegenüber Praxisanwendungen. ;)

Gut, dann lass es zwischen 20 - 30% bei einer stock X sein und entsprechend mehr mit oben erwähnten Offset - das reicht mir zum Kauf x2 völlig aus - später dann in Kombination mit dem ASUS 4K IPS G-SYNC. :biggrin:

Eventuell ist man auch bei den Minimum-fps etwas stärker unterwegs.
Mal sehen, was der nächste Dienstag so für Infos bringt. :)

Alles in allem ist man auch mit entsprechenden Abzügen mit Werkstaktraten verdammt flott unterwegs, gerade auch in Kombination mit der Energieeffizienz. Für weiterhin 28nm ist das schon erstaunlich - da möchte ich gar nicht wissen, wie viele SMM man der GPU spendiert hätte, wäre sie schon in 16FF erschienen. :)

boxleitnerb
2015-03-11, 13:21:37
Da schließe ich mich an. 2x Titan X und der Asus Monitor :biggrin:
Es sei denn, AMD grätscht noch dazwischen, aber lange halte ich es nicht mehr aus :freak:

Edgecrusher86
2015-03-11, 14:22:57
Oops, die Aussage mit 25 - 30% von PCGH stimmt doch - die bezieht sich ja auf die Gigabyte G1 Gaming, die aber bald mit 1,4 GHz Max-Boost und im Mittel 28xW Verbrauch läuft - auch nicht so ganz glücklich der Vergleich, wenn sich das mit den 230W default PT bestätigt. ;)

Grestorn
2015-03-11, 14:32:54
Ist spannend wie weit sich die Titan X mit einer Wakü übertakten lässt... Wenn man auch in die Regionen einer 980 kommt, dann muss die ja abgehen wie Schmitz' Katze.

Rente
2015-03-11, 14:35:19
Ist spannend wie weit sich die Titan X mit einer Wakü übertakten lässt... Wenn man auch in die Regionen einer 980 kommt, dann muss die ja abgehen wie Schmitz' Katze.
Darauf hoffe ich auch, das war ja schon bei GK110 vorteilhaft, bei GM200 darf der Vorteil aber gerne noch größer werden.

john carmack
2015-03-11, 14:52:34
der leistungsunterschied von der 680 auf die TitanX ist schon gewaltig - obwohl beide in 28nm produziert werden.

Da sieht mal mal was mit vielen optimierungen alles möglich ist - auch wenn man eigentlich die "Ur-Titan" mit der bald erscheinenden TitanX vergleichen sollte.

Hübie
2015-03-11, 15:06:40
Aus diversen Gründen bezweifle ich arg dass man 1,4-1,5 GHz erreicht. 1,2-1,3 sollten da eher das Maximale sein was man heraus holen kann.
Da lasse ich mich auch gern drauf festnageln. GM200 wird dennoch nVidias 4k-Chip. So wie GM206 2k und GM204 3,5k...
Man kann mit dem richtigen Marketing einem Eskimo nen Kühlschrank verkaufen ;D

Godmode
2015-03-11, 15:36:51
Aus diversen Gründen bezweifle ich arg dass man 1,4-1,5 GHz erreicht. 1,2-1,3 sollten da eher das Maximale sein was man heraus holen kann.


Was für Gründe sollen das sein? Wenn man dem Ding die Drossel rausnimmt, sollten 1,4 GHz schon möglich sein. Wie hoch war der Unterschied in den Taktraten zwischen GK104 und GK110?

boxleitnerb
2015-03-11, 15:58:42
Welche diversen Gründe? Packdichte? Powertarget? Letzteres lässt sich hoffentlich per Mod aushebeln. Meine Titans konnte ich auf knapp 1200 MHz bringen, das waren ggü. dem normalen Boost-Takt 20% und ggü. dem Basistakt satte 43%.

Ailuros
2015-03-11, 16:00:25
Das ist doch reine Spekulation, es gibt keine Benchmarks.
HBM wird aber schon einiges bringen. Ich weiß aus der Praxis, dass vieles immer noch an der Bandbreite hängt.

Der wesentlichste Vorteil von HBM ist, dass es sehr hohe Bandbreiten bei relativ geringem Verbrauch liefern kann. Allein schon diese Tatsache reicht mir um die Geruechte ueber Fiji zu glauben.

Skysnake
2015-03-11, 16:20:00
http://www.hardwareluxx.de/index.php/fotostrecken/news-galerien/eigene-bilder-zur-nvidia-geforce-gtx-titan-x/nvidia-gtx-titan-x-060f60c25.html

Titan X ohne Backplane. Da muss wohl gespart werden :ugly:

Godmode
2015-03-11, 16:22:07
http://www.hardwareluxx.de/index.php/fotostrecken/news-galerien/eigene-bilder-zur-nvidia-geforce-gtx-titan-x/nvidia-gtx-titan-x-060f60c25.html

Titan X ohne Backplane. Da muss wohl gespart werden :ugly:

Ich sah die Karte schon mit Backplate, muss also nichts heißen.

Btw. das Kühlermaterial sieht aus wie die Styroporsteine in alten Filmen. ;D

Loeschzwerg
2015-03-11, 16:25:34
Ob die Backplane auch wirklich einen Nutzen abseits der Optik hat? :freak:

Skysnake
2015-03-11, 16:26:25
Naja, THG hat offensichtlich wie die anderen Redaktionen auch die Retail Karte. Wenn da keiner drauf ist, würde ich auch keinen erwarten.

Godmode
2015-03-11, 16:27:05
Ob die Backplane auch wirklich einen Nutzen abseits der Optik hat? :freak:

Ja schon, man verletzt die Rückseite der Karte nicht so leicht.

Naja, THG hat offensichtlich wie die anderen Redaktionen auch die Retail Karte. Wenn da keiner drauf ist, würde ich auch keinen erwarten.

Ich glaube ich habe mich verguckt.

Screemer
2015-03-11, 16:27:51
Ob die Backplane auch wirklich einen Nutzen abseits der Optik hat? :freak:
wenn man sich den "neuen" arctic (http://geizhals.at/p/0346/1070346/1070346-13.jpg)ansieht, dann denke ich schon, dass eine ordentliche bp ziemlich temperatur abführen kann. da gibt schlicht gar keine kühler auf der seite der gpu. nicht mal vrm-kühler :ugly:

mironicus
2015-03-11, 16:34:34
Wann gibt es Reviiews?

Loeschzwerg
2015-03-11, 16:34:42
wenn man sich den "neuen" arctic (http://geizhals.at/p/0346/1070346/1070346-13.jpg)ansieht, dann denke ich schon, dass eine ordentliche bp ziemlich temperatur abführen kann. da gibt schlicht gar keine kühler auf der seite der gpu. nicht mal vrm-kühler :ugly:

Will ich nicht abstreiten, aber sowas wird NV sicher nicht bringen ;)

Hier die BP der GTX 980:
https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_980/images/cooler4.jpg

Das Ding ist schlichtweg irrelevant.

@Godmode: Ein DAU-Schutz quasi ;D Definitiv kein Argument, dann eher noch der Optik oder der Stabilität wegen ^^

Skysnake
2015-03-11, 16:34:55
Ich glaube ich habe mich verguckt.
Äh... ich meine Hardwareluxx natürlich ;D

Sunrise
2015-03-11, 17:33:58
Da steckt sicher auch ein gewisses Eigeninteresse dahinter, NV will ja mit der Referenz auch SLI-Kunden "glücklich" machen. Wenn man da so einen Arctic verbauen würde, dann wäre das zwar super genial für die Single-GPU-Kunden (wie mich), aber kontraproduktiv für Multi-GPU-Setups (Platz- und evtl. sogar Kühlungsprobleme durch Stauung). Und NV will ja möglichst viel davon verkaufen, da gehts nur ums Geld.

Mal von der Lautstärke abgesehen, ist der Kühler aber sicher immernoch einer der besten der letzten Jahrzehnte, vor allem was Exhaust-Blower angeht.

Mit Wakü und der wieder größeren Die-Fläche von GM200 sollte das Ding aber wieder sehr gut kühlbar sein, was natürlich ein Vorteil der High-End-Karten ist. AMD würde also auch bei Fiji gut daran tun, dass Ding ordentlich groß zu machen (28nm sollte nichtmehr die Welt kosten) und nicht wieder wie bei Hawaii, alles dicht zu packen, deutlich unter 500mm² zu bleiben und das Ding dann sehr schwer kühlbar zu machen.

Godmode
2015-03-11, 17:34:59
Will ich nicht abstreiten, aber sowas wird NV sicher nicht bringen ;)

Hier die BP der GTX 980:
https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_980/images/cooler4.jpg

Das Ding ist schlichtweg irrelevant.

@Godmode: Ein DAU-Schutz quasi ;D Definitiv kein Argument, dann eher noch der Optik oder der Stabilität wegen ^^

Es kann immer mal was passieren. Ich fand die Backplate bei meine 980ern nicht schlecht.



Mit Wakü und der wieder größeren Die-Fläche von GM200 sollte das Ding aber wieder sehr gut kühlbar sein, was natürlich ein Vorteil der High-End-Karten ist.

Genau darum hab ich EKWB gerade vorhin ein Email geschrieben, ob sie GM200 Kühler zeitnah zu Vorstellung vorstellen werden.

boxleitnerb
2015-03-11, 17:40:54
Genau darum hab ich EKWB gerade vorhin ein Email geschrieben, ob sie GM200 Kühler zeitnah zu Vorstellung vorstellen werden.

Postest du die Antwort dann bitte hier im Forum? :)

Edgecrusher86
2015-03-11, 17:41:59
Im Forum von ChipHell (http://www.chiphell.com/forum.php?mod=viewthread&tid=1248979&page=3#pid27959321) gab es auch noch ein Update:

http://abload.de/img/gtx-titan-x-chiphell-3njf3.pnghttp://abload.de/img/gtx-titan-x-chiphell-yvjzi.png
http://abload.de/img/gtx-titan-x-chiphell-pzk85.pnghttp://abload.de/img/gtx-titan-x-chiphell-s2job.png

Entnommen bei LinusTechTips (http://abload.de/img/gtx-titan-x-chiphell-s2job.png) - der China-Server ist immer so lahm, vor allem, was Downloads an belangt. :D

Der FireStrike Extreme Score stimmt mehr oder weniger mit dem von Videocardz überein -> 33% auf 980 hier, 36% dort.

P.S.: Hier noch ein nettes Foto (https://fbcdn-sphotos-g-a.akamaihd.net/hphotos-ak-xfp1/v/t1.0-9/11061333_10152929152663381_2240885193039410722_n.jpg?oh=af4454abbad93f7e3c368975 0c52b941&oe=5588DC2A&__gda__=1433920079_1e1454bcce1b86325692405e853cfe8d), dass mir verlinkt wurde. :D

Sunrise
2015-03-11, 17:46:51
Passt genau, also wie schon besprochen, +35%. Mehr geht dann per OC.

Godmode
2015-03-11, 17:53:56
Postest du die Antwort dann bitte hier im Forum? :)

Sicher doch. Ich erwarte aber eh keine richtige Anwort, die stehen sicher schon unter NDA.

Im Forum von ChipHell (http://www.chiphell.com/forum.php?mod=viewthread&tid=1248979&page=3#pid27959321) gab es auch noch ein Update:

http://abload.de/img/gtx-titan-x-chiphell-3njf3.pnghttp://abload.de/img/gtx-titan-x-chiphell-yvjzi.png
http://abload.de/img/gtx-titan-x-chiphell-pzk85.pnghttp://abload.de/img/gtx-titan-x-chiphell-s2job.png

Entnommen bei LinusTechTips (http://abload.de/img/gtx-titan-x-chiphell-s2job.png) - der China-Server ist immer so lahm, vor allem, was Downloads an belangt. :D

Der FireStrike Extreme Score stimmt mehr oder weniger mit dem von Videocardz überein -> 33% auf 980 hier, 36% dort.

P.S.: Hier noch ein nettes Foto (https://fbcdn-sphotos-g-a.akamaihd.net/hphotos-ak-xfp1/v/t1.0-9/11061333_10152929152663381_2240885193039410722_n.jpg?oh=af4454abbad93f7e3c368975 0c52b941&oe=5588DC2A&__gda__=1433920079_1e1454bcce1b86325692405e853cfe8d), dass mir verlinkt wurde. :D

250 W heißt, wir haben noch viel Spielraum nach oben :) Wakü+Modbios und die Titan X, ist gut.

Troyan
2015-03-11, 18:12:22
P.S.: Hier noch ein nettes Foto (https://fbcdn-sphotos-g-a.akamaihd.net/hphotos-ak-xfp1/v/t1.0-9/11061333_10152929152663381_2240885193039410722_n.jpg?oh=af4454abbad93f7e3c368975 0c52b941&oe=5588DC2A&__gda__=1433920079_1e1454bcce1b86325692405e853cfe8d), dass mir verlinkt wurde. :D

Doch Retail-Verpackung. Schick, schick.

fondness
2015-03-11, 18:13:28
Hm, könnte spannend werden wenn die alten Leaks auch stimmen:

http://abload.de/img/gtx-titan-x-chiphell-yvjzi.png http://s16.postimg.org/rxjor2tf9/chiphell_fiji_380x_3dmfse.png (http://postimage.org/)

Godmode
2015-03-11, 18:33:29
Hm, könnte spannend werden wenn die alten Leaks auch stimmen:

http://abload.de/img/gtx-titan-x-chiphell-yvjzi.png http://s16.postimg.org/rxjor2tf9/chiphell_fiji_380x_3dmfse.png (http://postimage.org/)

Ich hoffe AMD lässt sich nicht zu lange Zeit...

dildo4u
2015-03-11, 18:36:44
So viel GPU Power und 4GB,das wird kein Druck auf NV's Preise ausüben.Ich Rätzel immer noch für wen die neue AMD sein soll.

Undertaker
2015-03-11, 18:40:24
Es wird wohl damit stehen und fallen, wie oft und schnell der 390X die 4 GB ausgehen. Wie ist da der letzte Stand zu 8GB-Varianten? Bei 30-40% Mehrleistung zu einer GTX 980 sind beide Karten ja für entsprechende höhere Auflösungen und AA-Settings prädestiniert. Könnte gut sein, dass die die 390X durch ihre Bandbreite bei WQHD leichte Vorteile hat, dafür aber bei 3K/4K plötzlich einbricht.

Schnoesel
2015-03-11, 18:42:56
Nun es gibt keine Standn bei Fiji zu gar nichts. Das ist ja das faszinierende.

fondness
2015-03-11, 18:49:47
Nvidia hat jedenfalls nicht aus Langeweile DP bei GM200 kurzfristig gestrichen.

Godmode
2015-03-11, 18:57:20
Nvidia hat jedenfalls nicht aus Langeweile DP bei GM200 kurzfristig gestrichen.

Das muss vor Ewigkeiten gestrichen worden sein. Ich finde es sehr bemerkenswert, wie weit AMD und Nvidia in die Zukunft planen können. Die müssen ja 3 Jahre im Vorhinein wissen, welche Prozesse, Speichertechnologien es gibt und auch was die Konkurrenz in 3 Jahren vorstellen könnte.

dargo
2015-03-11, 18:58:25
So viel GPU Power und 4GB,das wird kein Druck auf NV's Preise ausüben.Ich Rätzel immer noch für wen die neue AMD sein soll.
Interessantes Argument. Noch vor kurzem waren die verkrüppelten 3,5GB deiner GTX970 kein Problem. :rolleyes:

dildo4u
2015-03-11, 19:02:50
Interessantes Argument. Noch vor kurzem waren die verkrüppelten 3,5GB deiner GTX970 kein Problem. :rolleyes:
Die Karten haben genug Power für 4k im Gegensatz zur 970 was für ein Unsinniger Vergleich und natürlich sind die 3.5Gb kein Problem da ich die Karte für 1080p nutze.So bald man alle NV Technologien nutzt kommt man bei 1080p schnell ins GPU Limit.Die Titan bräuchte keine 12 aber mit Sicherheit 8GB um ihre Leistung vernünftig zu nutzen,das gleiche gilt für die AMD wenn die Werte oben stimmen.

fondness
2015-03-11, 19:03:08
Das muss vor Ewigkeiten gestrichen worden sein. Ich finde es sehr bemerkenswert, wie weit AMD und Nvidia in die Zukunft planen können. Die müssen ja 3 Jahre im Vorhinein wissen, welche Prozesse, Speichertechnologien es gibt und auch was die Konkurrenz in 3 Jahren vorstellen könnte.

GPU-Zyklen sind bei weitem nicht so lange wie CPU-Zyklen.
Das wurde wohl relativ kurzfristig gestrichen: Noch im März 2013 sprach der NV CEO von DP GLOPs/W:

http://s27.postimg.org/bg48k73wj/GPURoadmap_678x452.jpg (http://postimage.org/)

Ein Jahr später im März 2014, ebenfalls zur GTC wurde die Skala der Roadmap plötzlich still und heimlich in SGEMM/W (Single Precision General Matrix Multiplication) umgeändert:

http://s14.postimg.org/udrdzxxoh/Pascal_Roadmap_575px.jpg (http://postimage.org/)

Irgendwann zwischen März 2013 und März 2014 wurde also DP bei GM200 gestrichen und Pascal eingefügt. Im übrigen wurde bei Maxwell auch das "Unified Virtual Memory" gestrichen, etwas das AMD bereits seit der ersten GCN-Generation beherrscht.

Ailuros
2015-03-11, 19:18:07
Passt genau, also wie schon besprochen, +35%. Mehr geht dann per OC.

Kommt wohl auf die Aufwahl der benchmarks an, aber ueber 30% sind es sicher vor der 980; daemlicher Zufall dass es fast keine 980er mit default Frequenzen gibt.

Troyan
2015-03-11, 19:20:47
Die Einteilung in den Folien ist exakt identisch. Das sagt nichts aus.

fondness
2015-03-11, 19:24:14
Die Einteilung in den Folien ist exakt identisch. Das sagt nichts aus.

Die Skala wurde bei der zweiten Folie auch normalisiert. Die Skala stellt man wohl kaum willkürlich um, NV hatte bis dahin stets mit DP GFLOPS/W argumentiert, plötzlich wurde es geändert, viele rätselten warum. Als dann heraus kam das GM200 keine hohe DP-Leistung haben würde, war klar warum.

dargo
2015-03-11, 19:26:16
Die Karten haben genug Power für 4k...
Völliger Quatsch. Weder Fiji noch Titan X haben genug Power für 4k, bei CF/SLI schon eher. Das sind höchstens Karten die bei über 90% der Spiele die 60fps bei 2560x1440 halten können.

Undertaker
2015-03-11, 19:27:17
Interessantes Argument. Noch vor kurzem waren die verkrüppelten 3,5GB deiner GTX970 kein Problem. :rolleyes:

390X und Titan X sind (ohne Speichermangel) wohl mehr als 50 Prozent schneller als die GTX 970, 4 GB statt 3,5 GB sind aber nur 14 Prozent mehr Speicher. Wenn man bei der GTX 970 ein Problem mit der Speichermenge sieht, dann bei der 390X zwangsläufig noch sehr viel mehr.

Troyan
2015-03-11, 19:27:44
Bis auf Pascal haben alle Karten die gleiche "Leistung". Ich sehe nicht, wie man basierend auf dieser Folie Aussagen zur DP-Leistung machen kann.

Ailuros
2015-03-11, 19:31:14
Bis auf Pascal haben alle Karten die gleiche "Leistung". Ich sehe nicht, wie man basierend auf dieser Folie Aussagen zur DP-Leistung machen kann.

Wenn Maxwell bei irgendwo 12 GFLOPs/W DP liegt dann wird wohl keine GPU der Familie nur eine handvoll von Watts verbrauchen. Selbstverstaendlich kann man es herauslesen da Teslas normalerweise eine TDP zwischen 225 und 235W haben.

Pascal duerfte bei zumindest 4.5 TFLOPs DP liegen wenn sich ihre Projektion der roadmap voll materialisiert.

Godmode
2015-03-11, 19:31:14
GPU-Zyklen sind bei weitem nicht so lange wie CPU-Zyklen.
Das wurde wohl relativ kurzfristig gestrichen: Noch im März 2013 sprach der NV CEO von DP GLOPs/W:

http://s27.postimg.org/bg48k73wj/GPURoadmap_678x452.jpg (http://postimage.org/)

Ein Jahr später im März 2014, ebenfalls zur GTC wurde die Skala der Roadmap plötzlich still und heimlich in SGEMM/W (Single Precision General Matrix Multiplication) umgeändert:

http://s14.postimg.org/udrdzxxoh/Pascal_Roadmap_575px.jpg (http://postimage.org/)

Irgendwann zwischen März 2013 und März 2014 wurde also DP bei GM200 gestrichen und Pascal eingefügt. Im übrigen wurde bei Maxwell auch das "Unified Virtual Memory" gestrichen, etwas das AMD bereits seit der ersten GCN-Generation beherrscht.

Ok, damit kann man natürlich den Zeithorizont halbwegs gut erklären.

dargo
2015-03-11, 19:33:14
390X und Titan X sind (ohne Speichermangel) wohl mehr als 50 Prozent schneller als die GTX 970, 4 GB statt 3,5 GB sind aber nur 14 Prozent mehr Speicher. Wenn man bei der GTX 970 ein Problem mit der Speichermenge sieht, dann bei der 390X zwangsläufig noch sehr viel mehr.
Das ist eine Milchmädchenrechnung.

Von 1080p auf 1440p bedeutet ~78% mehr Pixel zu berechnen. Dafür brauchst du grob 60-70% mehr Rohleistung. Der Speicherbedarf steigt aber gewiss nicht 1:1 mit.

Ailuros
2015-03-11, 19:36:31
Das ist eine Milchmädchenrechnung.

Von 1080p auf 1440p bedeutet ~78% mehr Pixel zu berechnen. Dafür brauchst du grob 60-70% mehr Rohleistung. Der Speicherbedarf steigt aber gewiss nicht 1:1 mit.

Speichermengen und Bandbreite steigen ziemlich linear je nach der Anzahl der SMMs von GM107 bis auf GM204; man muss nur einsehen dass auf GM107 2GB nichts sehenswertes bringen.

Hübie
2015-03-11, 19:41:39
@Godmode: Bezüglich Takt ist das nur meine Einschätzung. Ein Grund is Stromdichte (->Induktion) und auch clock Distribution. Bei GK110(b) waren 1200-1250 oberer Durchschnitt. Ich weiß dass es K1nKongs gibt, nur sind die hart selektiert und die RMA-Quote will ich nicht wissen.
Es würde mich stark wundern wenn 1500 gingen. Der GM204 schafft dies selten und noch seltener stabil. Wir können uns in zwei Wochen gern unterhalten, wobei deine Wakü wohl länger brauchen wird.

Edit: @boxleitnerb: Auch mal wieder aktiv? :biggrin: Wenn Titan classic 1200 schafft sind das aber nur 13 Cluster und auch nur L2, crossbar und dispatcher. ALUs laufen auf nen anderen Takt, wobei die natürlich mitgehen wenn der reftakt erhöht wird. Glaube 7 Taktdomänen waren im Kepler verbaut wobei GPC, SMX etc separat gesteuert werden (allein wegen gating wohl).

Undertaker
2015-03-11, 19:42:32
Das ist eine Milchmädchenrechnung.

Von 1080p auf 1440p bedeutet ~78% mehr Pixel zu berechnen. Dafür brauchst du grob 60-70% mehr Rohleistung. Der Speicherbedarf steigt aber gewiss nicht 1:1 mit.

Wir reden hier immerhin von einem Missverhältnis von vielleicht 4:1 bzgl. der Zuwächse von Rechenleistung und Speichermenge (>50% zu 14%). Der Speicherbedarf steigt sicherlich nicht nur 1/4 so schnell wie der Bedarf an Rechenleistung.

Wenn die GTX 970 vielleicht in 5 Prozent aller Fälle in gerade noch spielbaren Settings ins Speicherlimit rutscht, könnten das bei einer 390X womöglich 10 oder 20 Prozent sein.

Edit: Wenn man übrigens eh auf höhere fps-Raten aus ist (da zähle ich mich dazu), mag das noch immer kein Problem sein. Es ist nur sehr interessant zu beobachten, wer bei der GTX 970 kräftig auf diesen Punkt eingeschlagen hat, dies jetzt aber vollkommen ausklammert.

M4xw0lf
2015-03-11, 19:51:00
Diese Diskussion ist dann sinnvoll, wenn 4GB für Fiji gesichert sind. Vorher nicht.

Hübie
2015-03-11, 19:53:46
Du kannst mit Bandbreite auch einiges abfedern. Ist nur umständlich. Siehe XBONE und Maxwell.

Schnoesel
2015-03-11, 19:53:56
1. 4 GB bei Fiji wird die Karte nur mäßig interessant machen. (sollte es so kommen)

2. Weder Titan X noch Fiji werden für 4K wohl ausreichend sein (leider), aber es wären wohl die perfekten Karten für 1440p.

Es ist nur sehr interessant zu beobachten, wer bei der GTX 970 kräftig auf diesen Punkt eingeschlagen hat, dies jetzt aber vollkommen ausklammert.

Es wir ebenfalls interessant zu beobachten sein, wer das bei der GTX 970 kleingeredet hat und nun den 12GB Speicher in den Himmel lobt :D

dargo
2015-03-11, 19:58:46
Wir reden hier immerhin von einem Missverhältnis von vielleicht 4:1 bzgl. der Zuwächse von Rechenleistung und Speichermenge (>50% zu 14%). Der Speicherbedarf steigt sicherlich nicht nur 1/4 so schnell wie der Bedarf an Rechenleistung.

Nicht?

Dann schau dir das anhand von bsw. Dying Light an. 1600p sind übrigens +97% Pixel.
51365
http://gamegpu.ru/action-/-fps-/-tps/dying-light-test-gpu.html


Edit: Wenn man übrigens eh auf höhere fps-Raten aus ist (da zähle ich mich dazu), mag das noch immer kein Problem sein. Es ist nur sehr interessant zu beobachten, wer bei der GTX 970 kräftig auf diesen Punkt eingeschlagen hat, dies jetzt aber vollkommen ausklammert.
Das Problem der GTX970 ist nicht nur die Einschränkung @3,5GB sondern das völlig verhunzte Design welches besondere Treiberpflege braucht. Neuerdings kommen schon Patches (FC4) die eine Sonderregelung für die GTX970 liefern und gleichzeitig dadurch andere Karten benachteiligt werden. So weit sind wir schon.

Godmode
2015-03-11, 20:05:17
@Godmode: Bezüglich Takt ist das nur meine Einschätzung. Ein Grund is Stromdichte (->Induktion) und auch clock Distribution. Bei GK110(b) waren 1200-1250 oberer Durchschnitt. Ich weiß dass es K1nKongs gibt, nur sind die hart selektiert und die RMA-Quote will ich nicht wissen.
Es würde mich stark wundern wenn 1500 gingen. Der GM204 schafft dies selten und noch seltener stabil. Wir können uns in zwei Wochen gern unterhalten, wobei deine Wakü wohl länger brauchen wird.


Wenn 1400 gehen bin ich zufrieden. Meine GTX 980 schaffen auch nur 1450 wirklich gamestable.

Undertaker
2015-03-11, 20:06:18
Nicht?

Dann schau dir das anhand von bsw. Dying Light an. 1600p sind übrigens +97% Pixel.
51365

Es geht doch nicht ausschließlich um höhere Auflösungen sondern auch höhere AA-Settings sowie Detaileinstellungen. Da steigt der Speicherbedarf wesentlich schneller an.

http://abload.de/img/tesv_vrambpu5i.png (http://abload.de/image.php?img=tesv_vrambpu5i.png)
http://abload.de/img/image004tzs81.png (http://abload.de/image.php?img=image004tzs81.png)
http://www.tomshardware.com/reviews/graphics-card-myths,3694-5.html


Das Problem der GTX970 ist nicht nur die Einschränkung @3,5GB sondern das völlig verhunzte Design welches besondere Treiberpflege braucht. Neuerdings kommen schon Patches (FC4) die eine Sonderregelung für die GTX970 liefern und gleichzeitig dadurch andere Karten benachteiligt werden. So weit sind wir schon.

Die Probleme bei der GTX 970 treten ausschließlich in Settings auf, die >3,5 GB belegen. Bei einer 390X zusätzliche 500 MB zu verbraten, ohne das die Framerate unter die der GTX 970 fällt, dürfte bei dem Ausmaß an zusätzlicher Rechenleistung ein leichtes sein. Die 12 GB der Titan X sind idR sicherlich Overkill, aber 4 GB halte ich in dieser Leistungsklasse für arg knapp (und eben auch knapper als 3,5 GB bei einer erheblich langsameren 970).

dargo
2015-03-11, 20:08:23
1. 4 GB bei Fiji wird die Karte nur mäßig interessant machen. (sollte es so kommen)

Sehe ich nicht so. Die 390X wird im Vergleich zur 390 non X eh ein schlechteres P/L liefern (ähnlich wie anfangs Hawaii XT vs. Hawaii Pro). Mich interessiert da viel mehr also der kleinere Bruder der nicht viel langsamer ist aber einiges günstiger. Letztendlich entscheidet nämlich auch der Preis ob so eine Karte attraktiv ist oder nicht.

w0mbat
2015-03-11, 20:12:49
del

dargo
2015-03-11, 20:13:52
Es geht doch nicht ausschließlich um höhere Auflösungen sondern auch höhere AA-Settings sowie Detaileinstellungen. Da steigt der Speicherbedarf wesentlich schneller an.

Was für AA Settings? Du willst mir doch nicht ersthaft mit dem steinalten MSAA kommen oder (vorallem wo NV jetzt auch noch mit MFAA trommelt)? MSAA ist außerhalb von Forward(+) so gut wie tot da völlig ineffizient mit fragwürdiger Glättung. Daran sollte man sich langsam gewöhnen. Die Zukunft heißt temporales Post-AA. Zumindest solange die Spiele DR verwenden.

Rampage 2
2015-03-11, 20:18:59
390X und Titan X sind (ohne Speichermangel) wohl mehr als 50 Prozent schneller als die GTX 970, 4 GB statt 3,5 GB sind aber nur 14 Prozent mehr Speicher. Wenn man bei der GTX 970 ein Problem mit der Speichermenge sieht, dann bei der 390X zwangsläufig noch sehr viel mehr.

Bei der 970 ist das aber kein klassisches VRAM-Problem mehr, sondern ein Problem der Speicherbandbreite bei mehr als 3,5GB Daten - dieses Problem haben weder die 980 noch Fiji und nichtmal meine GTX 770 (4GB)!

Überhaupt ist es das Sinnvollste eine GTX 980 & eine Titan Black bei verschiedenen Spielen (und verschiedenen Settings - 1080p, 1440p, 1600p, 4K oder 4xDS) bei maximalen Grafiksettings und 4xSGSAA + 16x HQ-AF zu testen. SGSSAA natürlich nur dann, wenn nicht 4K als Auflösung oder 4xDS ausgewählt ist;)

Und wenn dann bei der 980 bei einem nicht geringen Prozentsatz der getesteten Spiele tatsächlich Nachladeruckler oder starke Performanceeinbrüche (versus Titan Black!) entstehen, dann können wir über 4GB< VRAM diskutieren...

Ich bin sicher, meine 770 wird mit ihren 4GB VRAM auch die nächsten Jahre für 1080p @ 4xDS oder stattdessen 2160p (ohne AA) ausreichen - zumindest für 80-90% der Spiele:smile:

Alles oberhalb 6GB ist definitiv Overkill...

R2

Undertaker
2015-03-11, 20:19:16
Was für AA Settings? Du willst mir doch nicht ersthaft mit dem steinalten MSAA kommen oder (vorallem wo NV jetzt auch noch mit MFAA trommelt)? MSAA ist außerhalb von Forward(+) so gut wie tot da völlig ineffizient mit fragwürdiger Glättung. Daran sollte man sich langsam gewöhnen. Die Zukunft heißt temporales Post-AA.

Und das braucht etwa keinen Mehrspeicher? Wenn man effizientere AA-Modi nutzt, wird man dort halt entsprechend höhere Stufen als bei MSAA auswählen. Und höhere Grafik-Settings brauchen ebenso mehr Speicher.

Lustig ist übrigens auch, das sämtliche Tests mit der GTX 970 zur Fehlersuche ebenfalls mit MSAA gefahren wurden. Diese allgemeine Doppelzüngigkeit nervt doch... :(

@Rampage: Ich hoffe zumindest, dass es bei der 390X ebenso ausführliche Tests mit Schwerpunkt maximaler Speicherauslastung samt Beobachtung der Frametimes gibt. Und ich würde schon jetzt darauf wetten, das man dabei mehr Fälle in spielbaren Settings als bei der GTX 970 findet. Wer setzt dagegen? ;)

aufkrawall
2015-03-11, 20:20:49
Stimmt so nicht, CoD und CoH2 bieten kein MSAA an und sind betroffen.

dargo
2015-03-11, 20:26:12
Und das braucht etwa keinen Mehrspeicher?
Nein... nicht das ich wüsste. Und wenn doch dann verschwindend gering.

Undertaker
2015-03-11, 20:30:41
Nein... nicht das ich wüsste. Und wenn doch dann verschwindend gering.

Gut, wenn dem so ist, dann bitte auch bei der GTX 970 alle Fälle mit MSAA streichen. In anderen Fällen wie CoH 2 und CoD die Settings so weit anheben, dass GTX 970 und 390X bei etwa gleicher Framerate landen und schauen, welche die saubereren Frametimes bzw. höheren min-fps abliefert. Wie gesagt: Bei einer derart höheren Rechenleistung sind die 500 MB mehr im Nu verballert.

Godmode
2015-03-11, 20:36:47
Alles oberhalb 6GB ist definitiv Overkill...

R2

Ich hab es schon 100mal gesagt, sage es aber auch gerne noch einmal. Für Single-GPU ist es momentan Overkill, für SLI sicher nicht. Viele die eine Titan kaufen, kaufen meistens gleich zwei, daher macht das mit 12 GB schon Sinn. Hätte das Ding jetzt nur 6 GB und würde 999 Euro kosten, käme ich mir schon verarscht vor. Und du glaubst doch nicht ehrlich, dass sie die Titan mit 6 GB billiger verkaufen würde, Nvidia? Es wird schon noch irgend ein Salvage Teil aka 980 Ti oder so kommen, aber erst etwas später.

In 1-2 Jahren kann die Sache mit dem Speicherverbrauch schon wieder ganz anders aussehen und plötzlich gibts Spiele die mehr als 6 GB brauchen. 1-2 Jahre ist normalerweise der typische Zyklus für eine Highend-GPU.

Rampage 2
2015-03-11, 20:59:43
Und du glaubst doch nicht ehrlich, dass sie die Titan mit 6 GB billiger verkaufen würde, Nvidia? Es wird schon noch irgend ein Salvage Teil aka 980 Ti oder so kommen, aber erst etwas später.


NV wird es (mindestens) 200€ billiger anbieten müssen (also 700-800€), damit es *überhaupt* gekauft wird - 6GB weniger VRAM als das Topmodell für 1000€ und trotzdem nur 100€ billiger!? Wer da noch zuschlägt, dem ist echt nicht mehr zu helfen:freak:

Sollte es so kommen, gehe ich von 800€ aus (Vollausbau, 6GB VRAM) - billiger darf es NV wahrscheinlich nicht anbieten, weil sich dann das 12GB-Modell nicht so gut verkaufen würde...

Aber ja, mit SLI da hast du Recht - aber wer spielt denn Heute noch (ernsthaft) mit SLI oder CF:confused: Oder ist das Problem mit den Mikrorucklern schon gelöst? :eek:

R2

Nightspider
2015-03-11, 21:00:18
Selbst mit 4GB dürfte Fiji in den meisten Spielen dank HBM und der Architektur in 4K VOR GM200 liegen zu einem wahrscheinlich geringeren Preis.

Wenn ich jetzt also SingleGPU User mir Fiji holen will ist mir doch latte was in einem Jahr ist. in 12 Monaten gibts vielleicht schon 16FF Karten mit HBM2.

Der Abstand zwischen dieser Generation und der nächsten könnte so gering sein wie sehr lange nicht mehr.

Abgesehen davon gab es doch Gerüchte das unter Mantle und Vulkan der VRAM bei Crossfire von beiden Karten für vers. Daten genutzt werden kann und man bei 2*4GB eventuell effektiv 6GB hätte.

Wenn ich sehe das manchmal noch eine total veraltete 290X vor einer GTX980 liegt in 4K greif ich doch nicht zur Titan X wegen der hohen Menge an VRAM.

Falls Fiji 10-20% vor GM200 liegt in 4K greif ich doch tausend mal eher zu Fiji. Denn viel länger als 10 Monate wird die Karte wahrscheinlich sowieso nicht im Rechner bleiben und bis dahin kann man Games die >4GB ohne Mods fressen an einer Hand abzählen.
Da schalte ich eben mal nur Not von Ultra auf Very High und hab trotzdem mehr unterm Strich.
(Lieber mehr Leistung als die letzten 5% Optik zu erreichen)

Zumal AMD eine 8GB Variante nachschieben würde sobald die ersten HBM2 Cubes vom Stapel laufen (eventuell Herbst 2015). Damit könnte Nvidia eventuell nur temporär vorne liegen unter extremen Settings.

Ailuros
2015-03-11, 21:00:30
In 1-2 Jahren kann die Sache mit dem Speicherverbrauch schon wieder ganz anders aussehen und plötzlich gibts Spiele die mehr als 6 GB brauchen. 1-2 Jahre ist normalerweise der typische Zyklus für eine Highend-GPU.

Es war einmal vor etlichen Jahren wo es einen jaehrlichen Zyklus fuer high end GPUs gab.

Grestorn
2015-03-11, 21:01:54
Was sollen die machen, denen 4 GB zu wenig ist? 12 GB ist sicher zu viel, 6 wären ok, 8 aus meiner Sicht gut.

Vernünftig wäre es, mit dem Kauf zu warten, bis eine GM200 mit 6 GB erscheint. Dass die kommen wird, ist sehr wahrscheinlich. Aber 6 GB ist auch wieder nur "ok". Eine 8 GB Karte ist mit einem 384bit Bus nicht wahrscheinlich.

Eine Titan X für 1000€ wären gar nicht so uninteressant. Aber ich fürchte, dass der Preis angesichts des Eurokurses und aus der Erfahrung mit den Vorgängern eher 1500€ oder höher sein wird.

Ailuros
2015-03-11, 21:07:24
Selbst mit 4GB dürfte Fiji in den meisten Spielen dank HBM und der Architektur in 4K VOR GM200 liegen zu einem wahrscheinlich geringeren Preis.

GM200 wird nicht nur Titan X ausstatten; bis AMD ihre top dogs ausrollt hat NV noch genug Zeit etwas an der Titan Kuh zu melken. Ja AMD's top dog wird etwas vor GM200 liegen aber nicht mit geringerem Verbrauch und das mit dem Preis steht auch frei zur Debatte denn HBM ist alles andere als billig. Es ist natuerlich nicht so dass AMD's kommende Loesungen schlecht sein werden, aber ich hab das Gefuehl dass sich viele zu viel dafuer versprechen. Leistung kommt nie umsonst in 3D und schon gar nicht beim gleichen ausgelutschtem Herstellungsprozess.

M4xw0lf
2015-03-11, 21:14:05
Ja AMD's top dog wird vor GM200 liegen
:eek:
Echt? :upara:

Nightspider
2015-03-11, 21:14:55
HBM wird wohl kaum so teuer sein das man damit in ähnliche Regionen kommt wie mit der Titan X. Nicht mit 8GB und erst recht nicht mit 4GB.
Wenn AMD klug ist streuen sie vor dem Titan X Release wenigstens ein paar Gerüchte. In jedem Fall wird NV höchstens 3 Monate Vorsprung haben und ob da gleich alle auf den NV Zug aufspringen ist fraglich, gerade bei dem angepeilten Preis von 1000-1300 Euro.

Und wenn HBM1 nicht von AMD genommen wird bleiben die Hersteller darauf sitzen. Zumal AMD mit daran gearbeitet hat seit Anfang an und da sicherlich auch einen gewissen Bonus hat.
Und besteht HBM nicht aus billigem DRAM? Da ist das stapeln doch das teuerste dran.

:eek:
Echt? :upara:

In 4K mit Sicherheit. Da liegt ja selbst die alte R9 290X schon oft vor der GTX980.

Godmode
2015-03-11, 21:22:24
Aber ja, mit SLI da hast du Recht - aber wer spielt denn Heute noch (ernsthaft) mit SLI oder CF:confused: Oder ist das Problem mit den Mikrorucklern schon gelöst? :eek:
R2

Benutze SLI seit der Geforce GTX 570 und es funktioniert ganz gut. Mikroruckler sind IMHO bei SLI mit zwei Karten nicht wirklich ein Problem.

Es war einmal vor etlichen Jahren wo es einen jaehrlichen Zyklus fuer high end GPUs gab.

Naja, Zeiten ändern sich...


Vernünftig wäre es, mit dem Kauf zu warten, bis eine GM200 mit 6 GB erscheint. Dass die kommen wird, ist sehr wahrscheinlich. Aber 6 GB ist auch wieder nur "ok". Eine 8 GB Karte ist mit einem 384bit Bus nicht wahrscheinlich.

Eine Titan X für 1000€ wären gar nicht so uninteressant. Aber ich fürchte, dass der Preis angesichts des Eurokurses und aus der Erfahrung mit den Vorgängern eher 1500€ oder höher sein wird.

Sorry aber mit 1500 Euro verkleinern sie das Marktsegment nochmal ganz ordentlich. Für 1500 Euro würde ich keine Titans mehr kaufen, irgendwann ist auch Schluss.

GM200 wird nicht nur Titan X ausstatten; bis AMD ihre top dogs ausrollt hat NV noch genug Zeit etwas an der Titan Kuh zu melken. Ja AMD's top dog wird etwas vor GM200 liegen aber nicht mit geringerem Verbrauch und das mit dem Preis steht auch frei zur Debatte denn HBM ist alles andere als billig. Es ist natuerlich nicht so dass AMD's kommende Loesungen schlecht sein werden, aber ich hab das Gefuehl dass sich viele zu viel dafuer versprechen. Leistung kommt nie umsonst in 3D und schon gar nicht beim gleichen ausgelutschtem Herstellungsprozess.

Darum werde ich wohl auch warten, bis AMD vorstellt. Das kann sich nur positiv auf die Preise auswirken.

Grestorn
2015-03-11, 21:29:00
Sorry aber mit 1500 Euro verkleinern sie das Marktsegment nochmal ganz ordentlich. Für 1500 Euro würde ich keine Titans mehr kaufen, irgendwann ist auch Schluss.

Klar. Aber lieber einen zu hohen Preis erwarten und dann positiv überrascht werden als umgekehrt.

Wenn sie den selben Preis wie bei der Titan 1 ansetzen, also $1000, dann wird der Europreis inkl. MwSt sicher nicht unter €1200 sein.

Orbmu2k
2015-03-11, 21:37:57
Klar. Aber lieber einen zu hohen Preis erwarten und dann positiv überrascht werden als umgekehrt.

Wenn sie den selben Preis wie bei der Titan 1 ansetzen, also $1000, dann wird der Europreis inkl. MwSt sicher nicht unter €1200 sein.

Naja die Titan Classic war glaube ab 939€ erhältlich bei 999$ UVP, ich gehe mal von 1050€ aus beim aktuellen Kurs wenn der Preis gleich bleibt.

Grestorn
2015-03-11, 21:49:10
Naja die Titan Classic war glaube ab 939€ erhältlich bei 999$ UVP, ich gehe mal von 1050€ aus beim aktuellen Kurs wenn der Preis gleich bleibt.

Dein Wort in nVidia's Ohr :)

Troyan
2015-03-11, 22:15:03
Bei Guru3D gibt es mehr Bilder aus Paris:
http://www.guru3d.com/news-story/new-geforce-gtx-titan-x-photos,2.html

Vielleicht gibt es ja ein paar Überraschungen abseits der Karte.

InsaneDruid
2015-03-11, 22:56:03
Stimmt so nicht, CoD und CoH2 bieten kein MSAA an und sind betroffen.

Natürlich. Mittleres Level bei Coh2 ist MSAA und so gut wie alle Coh1 Levels sind MSAA

Ailuros
2015-03-12, 06:29:35
HBM wird wohl kaum so teuer sein das man damit in ähnliche Regionen kommt wie mit der Titan X. Nicht mit 8GB und erst recht nicht mit 4GB.

TitanX ist ein premium Produkt fuer sehr wenige. AMD hat nichts dagegen zu konkurrieren und NV wird wohl nicht so bloed sein und damit gegen AMD's top dog konkurrieren. Die 780er SKUs hatten auch keinen $999 MSRP. AMD's top dog wird auf jeden Fall keinen GTX970 MSRP haben, falls das zumindest hilft.

Wenn AMD klug ist streuen sie vor dem Titan X Release wenigstens ein paar Gerüchte.

Ich beiss mir lieber auf die Zunge bevor ich mehr dazu sage: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10550451&postcount=2930

In jedem Fall wird NV höchstens 3 Monate Vorsprung haben und ob da gleich alle auf den NV Zug aufspringen ist fraglich, gerade bei dem angepeilten Preis von 1000-1300 Euro.

Seit wann waeren Titans je Massenprodukte? Die paar hardcore fans die sie immer gekauft haben werden es jetzt auch kaufen. Ausser Du glaubst natuerlich dass NV vorhat Millionen von dem Ding zu verkaufen.

Dawn on Titan
2015-03-12, 06:59:20
4GB HBM sind sicher ausreichend. VRAM ist doch nicht so wichtig, sagt NV.

Godmode
2015-03-12, 09:52:58
Postest du die Antwort dann bitte hier im Forum? :)

Ist gerade in der Testphase und wird in zwei Wochen kaufbar sein. :wink:

BlacKi
2015-03-12, 11:11:48
Falls Fiji 10-20% vor GM200 liegt in 4K greif ich doch tausend mal eher zu Fiji. Denn viel länger als 10 Monate wird die Karte wahrscheinlich sowieso nicht im Rechner bleiben und bis dahin kann man Games die >4GB ohne Mods fressen an einer Hand abzählen.
Da schalte ich eben mal nur Not von Ultra auf Very High und hab trotzdem mehr unterm Strich.

1. wegen 10M kauf ich mir keine extra karte, es sei denn meine würde gerade abrauchen.
2. solche sprüche, mit runterdrehen waren bei eine 300€ karte verpönt und bei der enthusiast karte für 700€+ wieder legetim?

4GB HBM sind sicher ausreichend. VRAM ist doch nicht so wichtig, sagt NV.

die 6gb werden jetzt schon in 4k vollgemacht, wie kann man ernsthaft behaupten das dann 4gb schon irgendwie reichen werden.

desweiteren, wie stellt ihr euch das vor? zwischen 285 und 280 liegen ca. 20w stromersparnis bei gleicher leistung.

wieviel soll die karte denn schneller sein bei knapp 300w gegenüber der 290x? 50%? nicht ernsthaft...

M4xw0lf
2015-03-12, 11:29:41
wieviel soll die karte denn schneller sein bei knapp 300w gegenüber der 290x? 50%? nicht ernsthaft...
Hmm doch. Sowas in der Art.

Schnoesel
2015-03-12, 12:09:06
Musste verstehen. Effizienz kann nur Nvidia nicht AMD, weil AMD is ja zu doof für. Siehe HD 5870 und GTX 480 oh wait... Diese geistigen Ergüsse hier, Wahnsinn.

Nightspider
2015-03-12, 12:15:47
2. solche sprüche, mit runterdrehen waren bei eine 300€ karte verpönt und bei der enthusiast karte für 700€+ wieder legetim?

Und? Bei Shadow of Mordor mussten auch 99% der Spieler die Texturen eine Stufe runterstellen oder gar 2 Stufen und das selbst mit einer highend GTX780ti.

Und wenn man dafür mehr Leistung bekommt ziehe ich die Leistung vor. Lieber ein flüssigeres Spiel als ein ruckelndes mit minimalst besserer Optik. Und wenn sowieso genug Leistung vorhanden ist kann man die in andere Bildverbesserer stecken.

Ganz zu schweigen davon das unter Mantle und Vulkan sogar ein geringerer VRAM Verbrauch erreicht werden kann.

von Richthofen
2015-03-12, 13:08:58
Ganz zu schweigen davon das unter Mantle und Vulkan sogar ein geringerer VRAM Verbrauch erreicht werden kann.

Mantle verbraucht meist etwas mehr VRAM wie in Thief 2014 (UE3) oder BF4 zu sehen. In Dragon Age:Inquisition nach einem früheren Patch hingegen gleichviel.

Dural
2015-03-12, 13:13:51
hast du das etwa noch nicht mitbekommen? AMD hat dank HBM quasi 8GB Speicher auch wenn es nur 4GB sind.

Nightspider
2015-03-12, 13:34:00
Mantle verbraucht meist etwas mehr VRAM wie in Thief 2014 (UE3) oder BF4 zu sehen. In Dragon Age:Inquisition nach einem früheren Patch hingegen gleichviel.

Deswegen schrieb ich ja auch "kann". BF4 war das allererste Spiel mit Mantle und taugt als Argument nicht sehr. Andere Entwickler haben viel mehr Zeit für Mantle zu optimieren.
Bei Dragon Age hat der Entwickler mit einem Patch nachträglich unter Mantle den VRAM Bedarf gesenkt und Coda hat hier im Forum auch mal bestätigt das man unter Mantle VRAM Sparen kann, bei richtiger Programmierung.

M4xw0lf
2015-03-12, 14:04:24
Richtig. Es liegt nicht an Mantle, sondern in der Hand des Entwicklers, wie viel RAM gebraucht wird (dürfte bei DX12 und Vulkan genau das gleiche sein).

Thunderburne
2015-03-12, 16:07:34
Bin gespannt ob NV noch vor der 390X den Vollausbau mit 6GB bringt oder danach.
Der Prozess in 28Nm scheint ja gut zu laufen.
September wollte ich kaufen vielleicht klapt es ja .

Godmode
2015-03-12, 16:32:40
Bin gespannt ob NV noch vor der 390X den Vollausbau mit 6GB bringt oder danach.
Der Prozess in 28Nm scheint ja gut zu laufen.
September wollte ich kaufen vielleicht klapt es ja .

Wenn ich NV wäre, würde ich die 6 GB Version um 1-2 SMX beschneiden und das dann als 980 Ti verkaufen. Wenn GM200 auf der Ti voll ist, kauft ja wieder keiner die Titan.

Undertaker
2015-03-12, 17:30:30
Das könnte allerdings auch von der 390X abhängen. Wenn ein beschnittener GM200 nicht mehr mindestens auf dem Niveau selbiger liegt, senkt das den möglichen Verkaufspreis doch erheblich.

Thunderburne
2015-03-12, 19:10:40
Wenn ich NV wäre, würde ich die 6 GB Version um 1-2 SMX beschneiden und das dann als 980 Ti verkaufen. Wenn GM200 auf der Ti voll ist, kauft ja wieder keiner die Titan.
Wenn es so kommen sollte wird anders herum auch von meiner Seite ein Schuh daraus und ich kaufe nicht.

-=Popeye=-
2015-03-12, 20:33:11
Die Frage ist: Warum sollten sie das tun? Bei der 780Ti @ Custom und Titan Black hat der Vollausbau doch beide Käuferschichten befriedigt.

dildo4u
2015-03-12, 21:24:32
http://abload.de/img/gm200_smallv7u95.png

http://pctuning.tyden.cz/component/content/article/1-aktualni-zpravy/33665-geforce-gtx-titan-x-1-ghz-35-procent-nad-gtx-980

Schaffe89
2015-03-12, 21:30:50
Ich finde es ehrlichgesagt ne schlechte Idee, dass Nvidia den Chip vor AMD bringt.
AMD kann so die Taktraten mit einer Wasserkühlung ohnehin sehr flexibel bestimmen.

Die r9 390x müsste bei 1000mhz Takt prinzipiell 50% vor einer r9 290x liegen, was ziemlich genau auf dem Niveau einer TitanX sein müsste.
Braucht AMD also noch ein paar % dann takten sie die Karte halt mit 1050 mhz. Spielraum ist dank H2O ja wohl ausreichend da.

hasebaer
2015-03-12, 21:41:26
AMD hat doch schon zwei Betriebsarten, "Sweetspot / Normal" aka "Quiet" und "Alles was geht, scheiß egal wie laut" aka "Über", wozu da warten...?!
Nvidia sucht sich seinen Sweetspot / Normal und überlässt seinen AIBs noch ein paar OC MHz damit diese nicht völlig gleichgeschaltet darstehen.

Nakai
2015-03-12, 21:45:24
http://abload.de/img/gm200_smallv7u95.png

http://pctuning.tyden.cz/component/content/article/1-aktualni-zpravy/33665-geforce-gtx-titan-x-1-ghz-35-procent-nad-gtx-980

Naja, nix Neues...:)

Kleinerer Sprung als GK104 auf GK110, mehr war ja einfach nicht drin, dank Diesize-Limit.

-=Popeye=-
2015-03-12, 21:50:44
Dumm nur das AMD ne WaKü braucht um mit nV gleich zu ziehen oder zu überholen.

dildo4u
2015-03-12, 21:51:39
Ich finde es ehrlichgesagt ne schlechte Idee, dass Nvidia den Chip vor AMD bringt.
AMD kann so die Taktraten mit einer Wasserkühlung ohnehin sehr flexibel bestimmen.

Die r9 390x müsste bei 1000mhz Takt prinzipiell 50% vor einer r9 290x liegen, was ziemlich genau auf dem Niveau einer TitanX sein müsste.
Braucht AMD also noch ein paar % dann takten sie die Karte halt mit 1050 mhz. Spielraum ist dank H2O ja wohl ausreichend da.
Die AMD ist keine Konkurrenz zur Titan X siehe hier,die 4GB Karte versagt schon bei 4XMSAA.

https://youtu.be/okOKH_0E5iU

Oder Meinst du die "Masse" kauft 1000€ Karte um in 1080p zu zocken.

redfirediablo
2015-03-12, 22:51:00
Naja, die 4GB werden schon der Hautptschwachpunkt der 390X werden und man kann darauf wetten das NV ordentlich das Speicherthema rauf und runter reiten wird bei der eigenen "Berichterstattung"

Nichtdestotrotz finde ich es amüsant das nur die "High Quality" Fans scheinbar hier vertreten sind (4K, Texturmods, Downsampling).

Es soll auch Personen gegeben die auf "High FPS" zusammen mit einem 144Hz Monitor stehen ;) und dafür dürfte die 390X natürlich eine super Karte werden.

-=Popeye=-
2015-03-12, 23:08:00
Hä? Man kann heute schon mit beiden Herstellern egal welche Auflösung 144Hz @ VSync fahren.

BlacKi
2015-03-12, 23:54:19
Hä? Man kann heute schon mit beiden Herstellern egal welche Auflösung 144Hz @ VSync fahren.
aber die leistung fehlt oft um 144hz mit AA und 4k zu fahren.

wir reden hier von einer enthusiastenkarte mit 4gb, für mehr als ein paar monate, als ob amd innerhalb der nächsten 18 monate eine neue enthusiastenkarte bringen wird. früher oder später muss es eigentlich eine 8gb karte geben, 4gb ist bei der leistung nichtmehr zeitgemäß.

Dimitri Mayakovsky
2015-03-13, 09:19:15
Es soll auch Personen gegeben die auf "High FPS" zusammen mit einem 144Hz Monitor stehen ;) und dafür dürfte die 390X natürlich eine super Karte werden.
Ich nutze bei EgoShootern nur noch 120Hz, aber warum sollte die 980 dafür keine super Karte sein?

Undertaker
2015-03-13, 09:23:42
Mit einer 390X hätte man dann die Reserven, die 120/144 fps auch in anspruchsvolleren Spielen oder höheren Settings zu erzielen.

Ich sehe das ähnlich wie redfirediablo: Die 390X eher als high-fps-Karte (ähnlich wie z.B. die GTX 970 mit ihren eff. 3,5 GB, natürlich auf einem anderen Leistungsniveau) und die Titan eher für ultra-hohe Qualitätssettings.

Ailuros
2015-03-13, 09:29:43
Ich weiss nicht wie oft Gipsel schon ausfuehrlich im AMD thread erklaert hat dass es keine technische Limitierungen fuer die Speichermenge auf deren top dog gibt. Der Bloedsinn mit der 4GB "Speicher-limitierung" beharrt immer noch :eek:

Dimitri Mayakovsky
2015-03-13, 09:36:28
Ich sehe das ähnlich wie redfirediablo: Die 390X eher als high-fps-Karte (ähnlich wie z.B. die GTX 970 mit ihren eff. 3,5 GB, natürlich auf einem anderen Leistungsniveau) und die Titan eher für ultra-hohe Qualitätssettings.
Echt? Es gibt weder von der einen Karte, noch der anderen Karte irgendwelche verlässlichen Benches, aber solche Theorien werden aufgestellt?

Sorry, aber das ist doch pure Glaskugel. Es kann gerade passieren, dass die 390 bei hohen FPS schnell ihr PT erreicht und drosselt. Dann ist das Szenario das völlige Gegenteil.

Ich weiss nicht wie oft Gipsel schon ausfuehrlich im AMD thread erklaert hat dass es keine technische Limitierungen fuer die Speichermenge auf deren top dog gibt.
Naja, es ist keine technische Limitierung, sondern eine zeitliche Limitierung, solange sie keine größeren HBM-Stacks erhalten.

Botcruscher
2015-03-13, 09:39:46
Es gib keine Limitierung. Es gibt ein Blatt mit Spezifikationen über ein Produkt. Seit dem denkt jeder das gilt für alle.

Ailuros
2015-03-13, 09:40:06
Νur kommt das Zeug nicht erst ab Juni wie schon seit einiger Zeit projeziert wegen HBM sondern aus anderen Gruenden. Was sich dabei jeglicher moechtegern online-"Redakteur" zusammendichtet ist ein anderes Kapitel.

Es gib keine Limitierung. Es gibt ein Blatt mit Spezifikationen über ein Produkt. Seit dem denkt jeder das gilt für alle.

Es ist auch der durchschnittliche Leser nicht daran schuld wenn jede Furzseite im Netz jeglichen Scheiss auftischt ohne ein klein bisschen ueber's berichtete Thema zu forschen. Im besten Fall ist es Kaffeeklatsch-Material oder ehlendige Abschreiberei von weiss der Geier meistens wo.

Hübie
2015-03-13, 09:42:43
Die Gründe sind auch irgendwie nicht wichtig. Ist nur ungünstig wenn man wirklich erst im Juni startet.

Dimitri Mayakovsky
2015-03-13, 09:44:46
Es ist auch der durchschnittliche Leser nicht daran schuld wenn jede Furzseite im Netz jeglichen Scheiss auftischt
Doch, einfach nicht lesen.

Aber das ist hier off topic :)

Ailuros
2015-03-13, 09:48:16
Doch, einfach nicht lesen.

Aber das ist hier off topic :)

Geht nicht; denn der durchschnittliche Leser wird leider eher auf trash tabloid Seiten stossen.

Undertaker
2015-03-13, 09:49:33
Echt? Es gibt weder von der einen Karte, noch der anderen Karte irgendwelche verlässlichen Benches, aber solche Theorien werden aufgestellt?

Sorry, aber das ist doch pure Glaskugel. Es kann gerade passieren, dass die 390 bei hohen FPS schnell ihr PT erreicht und drosselt. Dann ist das Szenario das völlige Gegenteil.

Klar bleibt es Spekualtion, aber wenn bisherige Leaks Recht behalten, ist die Grundperformance beider Karten wohl relativ ähnlich. Ob es dann doch +-10 Prozent für die eine oder andere Karten werden, halte ich für die Gesamtbetrachtung nicht wirklich relevant. Ebenso gehe ich persönlich stark davon aus, dass die 390X a) billiger wird und b) als 4 GB Modell in noch spielbaren High-Quality-Settings ab und an von der Speichermenge limitiert wird – und daraus ergibt sich für mich obiger Schluss.

Ailuros
2015-03-13, 09:51:49
AMD's top dog ist um etwas schneller als NV's top dog, der erste hat NICHT nur 4GB Speicher und verbraucht trotz HBM etwas mehr als der zweite; das ist zumindest was sich im Hintergrund herumspricht.

....und ueberhaupt was soll der daemliche Vergleich mit allem Titan? AMD hat keine vergleichbaren premium Produkte. Bis zum Zeitpunkt wo AMD's top dog ankommt, hat NV genug Zeit die erste Titan-Kuh zu melken und veroeffentlicht dan logischerweise ihre 780/780Ti Nachfolger auf GM200 basierend welches dann erst wirkliches Vergleichsmaterial zu AMD's enthusiast Loesung sein wird.

M4xw0lf
2015-03-13, 10:00:53
AMD's top dog ist um etwas schneller als NV's top dog, der erste hat NICHT nur 4GB Speicher und verbraucht trotz HBM etwas mehr als der zweite; das ist zumindest was sich im Hintergrund herumspricht.
:popcorn:
Wenn das Ding jetzt nur auch mal erscheinen würde :rolleyes:

Undertaker
2015-03-13, 10:02:50
AMD's top dog ist um etwas schneller als NV's top dog, der erste hat NICHT nur 4GB Speicher

Irgendwann sicherlich, aber vom Start weg ein 8-GB-Modell? Das wäre jedenfalls überraschend.

Sunrise
2015-03-13, 10:06:55
...als ob amd innerhalb der nächsten 18 monate eine neue enthusiastenkarte bringen wird. früher oder später muss es eigentlich eine 8gb karte geben, 4gb ist bei der leistung nichtmehr zeitgemäß.
Sollte machbar sein, denn Fiji bringt wohl fast alles, die nächste Generation kannst du shrinken bzw. nochmal erweitern und hast trotzdem deutlich weniger Fläche die du benötigst. Das würde als solide Basis auch vollkommen reichen, weil Pascal wohl auch nicht viel mehr werden wird.

Schnoesel
2015-03-13, 10:13:55
Ist doch völlig Banane über ungelegte Eier zu diskutieren, aber ich gebe auch mal meinen Senf dazu.

Eine 4GB Karte von AMD ist sicherlich etwas entäuschend aber ich sehe das nicht so negativ, denn es wird sicherlich nicht viel Leute geben die bereit sind ca. 1000€ auf den Tisch zu legen. Insofern wird die AMD auch mit 4GB interessant sein, für diejenigen denen die Titan X zu teuer ist. Alternative wäre hier dann nur die GTX 980 die auch nur 4GB hat dabei wahrscheinlich nicht an die Performance von Fiji herankommt.

Die Frage ist dann wieder wann kommt Nvidia mit einer Volkstitan. Das Spiel der Classic Titan diese eine halbes Jahr als Top Dog zu halten wird diesmal nicht funktionieren wenn AMD zeitnah Fiji bringt.

Ich für meinen Teil kaufe mir eher Fiji als 1000€ für ne Titan auf den Tisch zu legen auch wenn Fiji nur 4GB haben sollte und damit nicht ideal ist für das was ich eigentlich vorhatte.

fondness
2015-03-13, 10:15:52
Interessant zu sehen wie schnell sich hier die Meinungen einiger ändern, die noch vor Monaten AMD als völlig chancenlos ggü. GM200 gesehen haben.^^

Undertaker
2015-03-13, 10:18:31
Insofern wird die AMD auch mit 4GB interessant sein, für diejenigen denen die Titan X zu teuer ist. Alternative wäre hier dann nur die GTX 980 die auch nur 4GB hat dabei wahrscheinlich nicht an die Performance von Fiji herankommt.

Letzteres steht außer Frage, die GTX 980 ist kein Konkurrent für Fiji im Vollausbau. Wenn AMD die 390X bei vielleicht 500 bis 600 Euro platzieren sollte, muss die GTX 980 sicher unter 400 Euro fallen um attraktiv zu bleiben.

fondness
2015-03-13, 10:19:33
....und ueberhaupt was soll der daemliche Vergleich mit allem Titan? AMD hat keine vergleichbaren premium Produkte. Bis zum Zeitpunkt wo AMD's top dog ankommt, hat NV genug Zeit die erste Titan-Kuh zu melken und veroeffentlicht dan logischerweise ihre 780/780Ti Nachfolger auf GM200 basierend welches dann erst wirkliches Vergleichsmaterial zu AMD's enthusiast Loesung sein wird.

Eine TITAN muss auch eine deutlichen Mehrwert bieten, sonst ist sie IMO uninteressant. Ich sehe nicht wie NV diesen Mehrwert bieten soll, nur der doppelte Speicher ist ein bisschen wenig und gegen Fiji wird man auch in die Vollen gehen müssen im niedrigeren Preissegment. Aber vermutlich ist es NV egal, sie wollen einfach aus Prestigegründen eine Karte um 1K anbieten und ein paar Käufer findet man immer.

robbitop
2015-03-13, 10:21:18
Wenn R390X schneller sein soll als GM200:

- deutlich mehr als 4096 SPs (bei gleichem Takt benötigt es ca. 4500 SPs wenn man noch bei der Effizienz von GCN 1.2 ist)
- erhöhte Effizienz (analog zu Maxwell)
- deutlich mehr Takt (rund 12 % mehr Takt bei gleicher Leistung)
- eine Mischung?

fondness
2015-03-13, 10:25:07
(bei gleichem Takt benötigt es ca. 4500 SPs wenn man noch bei der Effizienz von GCN 1.2 ist)

Benötigt es nicht mal annähernd. Ein Hawaii@1Ghz liegt doch heute bereits auf GM204@~1,2Ghz-Niveau (Turbo-Takt), zumindest ab 4K. Und die Lowres-Schwäche wurde mit GCN1.2 deutlich geschmälert.

dildo4u
2015-03-13, 10:34:11
Open CL Benches der Titan X

http://videocardz.com/55081/nvidia-geforce-gtx-titan-x-opencl-performance-leaks-out

Schnoesel
2015-03-13, 10:39:52
Na warum in dem Bench wohl ne FirePro W9100 fehlt ;-) gut is auch ne Profi Karte

Dural
2015-03-13, 10:41:35
Ein voller GM200 auf der X, WAS für eine Überraschung :freak:

Es war so klar.

Dimitri Mayakovsky
2015-03-13, 10:45:23
Na warum in dem Bench wohl ne FirePro W9100 fehlt ;-) gut is auch ne Profi Karte
Weil auch die zu langsam ist:

https://compubench.com/device.jsp?benchmark=compu20&os=Windows&api=cl&D=AMD+FirePro+W9100+%28FireGL+V%29&testgroup=overall

Aber das wäre jetzt natürlich zu schwer gewesen, vorher mal nachzuschauen, statt dessen suggerieren wir mal, dass die AMD-Karte schneller wäre :rolleyes:

Sunrise
2015-03-13, 10:45:53
Naja, es ist keine technische Limitierung, sondern eine zeitliche Limitierung, solange sie keine größeren HBM-Stacks erhalten.
Was auch immer der springende Punkt ist und war.

Ob in einer Spec theoretisch 32Gb oder sonstwas steht, ist schön, aber doch völlig irrelevant für die Entscheidung, ob etwas produziert wird (gibt es überhaupt Nachfrage?) und vor allem, ob es früh genug für Produkt X produziert werden kann.

Wichtig ist hierbei doch, ob AMD die Stacks für 8GB von Hynix überhaupt sourcen kann. Wenn Hynix das "technisch" schonmal kann und es sowohl von AMD als zwingend angefordert als auch dann von Hynix mit Abnahmemenge Y (großes Y) bestätigt wurde, dann werden sie das sicher auch so machen.

Dadurch hätte AMD jedenfalls sehr gute Möglichkeiten, Fiji gegen GM200 zu positionieren. NV kontert dann mit mehr Speicher, was aber die wenigsten interessieren sollte.

Dann erübrigt sich auch alles weitere, weil dann hat man Flexibilität bis nach unten zur 980 und zwischen Titan X und einer Salvage-GM200.

Ailuros
2015-03-13, 10:49:01
Eine TITAN muss auch eine deutlichen Mehrwert bieten, sonst ist sie IMO uninteressant. Ich sehe nicht wie NV diesen Mehrwert bieten soll, nur der doppelte Speicher ist ein bisschen wenig und gegen Fiji wird man auch in die Vollen gehen müssen im niedrigeren Preissegment. Aber vermutlich ist es NV egal, sie wollen einfach aus Prestigegründen eine Karte um 1K anbieten und ein paar Käufer findet man immer.

Die paar Kaeufer gibt es immer; es ist auch nicht so dass sich NV je vorgestellt dass sie Millionen davon verkaufen. Sonst ist der Mehrwert ausserhalb vom Speicher schon da gegenueber den existierenden Produkten schon mit Aussnahme von DP. Im Vergleich zu dem 295X2 oder sogar Titan Z Quark ist die Titan X eine um einiges bessere Investition.

robbitop
2015-03-13, 10:50:17
Benötigt es nicht mal annähernd. Ein Hawaii@1Ghz liegt doch heute bereits auf GM204@~1,2Ghz-Niveau (Turbo-Takt), zumindest ab 4K. Und die Lowres-Schwäche wurde mit GCN1.2 deutlich geschmälert.
Ich habe nochmal nachgeschaut. Ist ja erstaunlich, wie nahe Hawaii rankommt, wenn 4K im Spiel ist. Dann scheint ja doch irgendwo im Design noch ein Bottleneck zu sein.

Tonga war IIRC eigentlich jetzt nicht so viel besser in dieser Hinsicht (ausgehend von Tahiti).

M4xw0lf
2015-03-13, 10:52:47
Ich habe nochmal nachgeschaut. Ist ja erstaunlich, wie nahe Hawaii rankommt, wenn 4K im Spiel ist. Dann scheint ja doch irgendwo im Design noch ein Bottleneck zu sein.

Tonga war IIRC eigentlich jetzt nicht so viel besser in dieser Hinsicht (ausgehend von Tahiti).

In Extremfällen legt Tonga aber 20-30% auf Tahiti drauf pro Takt. (Bioshock Infinite war da so ein Kandidat.)

Sunrise
2015-03-13, 11:02:42
Wenn R390X schneller sein soll als GM200:

- deutlich mehr als 4096 SPs (bei gleichem Takt benötigt es ca. 4500 SPs wenn man noch bei der Effizienz von GCN 1.2 ist)
- erhöhte Effizienz (analog zu Maxwell)
- deutlich mehr Takt (rund 12 % mehr Takt bei gleicher Leistung)
- eine Mischung?
Wenn man das wohl unsäglich fette 512bit Interface von Hawaii mit allem was dafür nötig ist entschlacken kann, dann sollte man das Ding so aufbohren können, dass man aus HBM in mehrerlei Hinsicht einen Nutzen zieht.

Wenn du durch den ausgereiften 28nm-Prozess dann noch hohe Takte anlegen kannst, und du das auch durch die größere Chipfläche besser kühlen kannst, dann sollte das zu machen sein.

Es ist aber äußerst fraglich, ob Fiji das mit simpler Luftkühlung und im Endeffekt geringem Verbrauch schaffen kann.

Wenn AMD das aber beides einigermaßen im Griff hat dann wäre der Punkt Effizienz etwas zu vernachlässigen, weil Fiji dann wohl für sämtliche Anwendungen den höheren Durchsatz hätte (man sollte vor allem nicht vergessen, dass selbst Maxwell bei ordentlich Last schluckt ohne Ende, gerade hier sieht man ja, wo die "Intelligenz" beim Chipdesign zugenommen hat, nämlich bei nicht oder nur teilweise ausgelasteten Einheiten). Gerade auch in den höheren Auflösungen sollte GCN da Vorteile haben, vor allem bei dieser abartigen Bandbreitenreserve.

Wäre schön, wenn da endlich mal was Handfesteres leaken würde.

Dural
2015-03-13, 11:06:04
nur so kurz zur Info, ich kann mich gar nicht mehr daran erinnern wann AMD in höheren Auflösung nicht zugelegt hat, das ist schon seit Jahren bei ihren GPUs so.

Dawn on Titan
2015-03-13, 11:13:35
Wobei da wahrscheinlich das Speicherinterface hilft, wobei ich mich immer noch frage ob ich das nun als positive oder negative Entscheidung von AMD werten soll. Einen Vorteil in Auflösungen die während der Verkaufsdauer des Chips sehr selten sind und bei denen die GPU sowieso nur selten wirklich flüssige FPS erreicht, ist doch irgendwie auch nur ein theoretischer Vorteil auf dem Papier.

Undertaker
2015-03-13, 11:14:46
Bei Fiji mit 8 GB könnte das ein Pluspunkt sein. ;)

Raff
2015-03-13, 11:16:47
In Extremfällen legt Tonga aber 20-30% auf Tahiti drauf pro Takt. (Bioshock Infinite war da so ein Kandidat.)

Das ist übrigens mit neuen Treibern passé, die Differenz zwischen R9 280 und 285 ist in Bayershock nun kaum der Rede wert. Spontan fallen mir noch Sniper Elite 3 ein, dessen Tessellation Tahiti anscheinend zum Verhängnis wird, und, ganz neu, Raven's Cry (http://www.pcgameshardware.de/Ravens-Cry-PC-237022/Specials/Test-Benchmarks-Patch-3-1152456/) - hier zieht die 285 OC in niedrigen Auflösungen sogar eine 280X OC ab.

MfG,
Raff

M4xw0lf
2015-03-13, 11:18:47
Das ist übrigens mit neuen Treibern passé, die Differenz zwischen R9 280 und 285 ist in Bayershock nun kaum der Rede wert. Spontan fallen mir noch Sniper Elite 3 ein, dessen Tessellation Tahiti anscheinend zum Verhängnis wird, und, ganz neu, Raven's Cry (http://www.pcgameshardware.de/Ravens-Cry-PC-237022/Specials/Test-Benchmarks-Patch-3-1152456/) - hier zieht die 285 OC in niedrigen Auflösungen sogar eine 280X OC ab.

MfG,
Raff
Huh? Schräg. Auf nix kann man sich verlassen :|

fondness
2015-03-13, 11:19:31
Wobei da wahrscheinlich das Speicherinterface hilft, wobei ich mich immer noch frage ob ich das nun als positive oder negative Entscheidung von AMD werten soll. Einen Vorteil in Auflösungen die während der Verkaufsdauer des Chips sehr selten sind und bei denen die GPU sowieso nur selten wirklich flüssige FPS erreicht, ist doch irgendwie auch nur ein theoretischer Vorteil auf dem Papier.

Einen Fiji kauft man sich sicher nicht um in Full-HD zu zocken, da langweilt sich der Chip höchstens und dafür reicht auch was kleineres. Von daher wird natürlich das Augenmerk auf hohen Auflösungen liegen, ganz blöd ist AMDs Marketing ja auch nicht.

Raff
2015-03-13, 11:22:46
Huh? Schräg. Auf nix kann man sich verlassen :|

Ich habe mich letztens auch gewundert. Offenbar haben die Treiberverbesserungen zuerst Tonga, dann Hawaii und am Ende auch Tahiti erreicht.

MfG,
Raff

BlacKi
2015-03-13, 12:06:15
Wenn R390X schneller sein soll als GM200:

- deutlich mehr als 4096 SPs (bei gleichem Takt benötigt es ca. 4500 SPs wenn man noch bei der Effizienz von GCN 1.2 ist)
- erhöhte Effizienz (analog zu Maxwell)
- deutlich mehr Takt (rund 12 % mehr Takt bei gleicher Leistung)
- eine Mischung?

bei 20% mehr verbrauch gegenüber der 290x (250w vs 300w) plus effizienzvorteil gegenüber der 290x von 15% komme ich auf 35% gegenüber der 290x. eben aber nur wenn der verbrauch wirklich bei 300w liegen sollte.

Leo hat das beim erscheinen von maxwell so gesagt, das der effizienzvorteil den man bei maxwell gegenüber nicht jedesmal so erwarten darf innerhalb derselben fertigungsstruktur. und tonga konnte die effizienz gegenüber tahiti hauptsächlich nur steigern weil man ein kleineres SI benutzt hat.

so oder so ich glaube nicht an 50% mehr leistung, im besten fall sinds wohl 40%, das reicht nicht um die titanx hinter sich zu lassen, aber wohl aufzuschließen.

Dawn on Titan
2015-03-13, 12:16:17
Einen Fiji kauft man sich sicher nicht um in Full-HD zu zocken, da langweilt sich der Chip höchstens und dafür reicht auch was kleineres. Von daher wird natürlich das Augenmerk auf hohen Auflösungen liegen, ganz blöd ist AMDs Marketing ja auch nicht.

Ich sprach von der 290/290X.

Nakai
2015-03-13, 12:49:59
Das ist übrigens mit neuen Treibern passé, die Differenz zwischen R9 280 und 285 ist in Bayershock nun kaum der Rede wert. Spontan fallen mir noch Sniper Elite 3 ein, dessen Tessellation Tahiti anscheinend zum Verhängnis wird, und, ganz neu, Raven's Cry (http://www.pcgameshardware.de/Ravens-Cry-PC-237022/Specials/Test-Benchmarks-Patch-3-1152456/) - hier zieht die 285 OC in niedrigen Auflösungen sogar eine 280X OC ab.

MfG,
Raff

Ich denke, das wird in Zukunft der Normalfall sein, dass eine R9 285 eine R9 280X abzieht. Tonga hat ein dramatisch besseres Frontend. Meistens machen doch Speicherbandbreite, Speichervolumen und Rohleistung Tonga einen Strich durch die Rechnung. Tonga-Full mit 4GB und höheren Taktraten sollte schon an Hawaii PRO rankommen. Fiji wird selbige Verbesserungen bekommen, was ziemlich fett ist.

Dass dahingehend Treiberanpassungen notwendig sind, kann ich mir sogar vorstellen, auch in Hinblick auf Fiji.

Dural
2015-03-13, 12:56:04
Das sage ich ja auch schon seit Monaten das Tonga XT Hawaii Pro ersetzten wird.

Als Hawaii XT Ersatz kommt Fiji Pro und oben halt noch Fiji XT

Hawaii wird eingestellt, oder noch wenige Stück Zahlen im Profibereich oder in irgend einer Sortiments Lücke verkauft.

Agent117
2015-03-13, 14:25:01
Die Lücke zwischen Tonga und Fijii ist aber größer, als dass man mit beiden Chips das obere Segment komplett abdecken könnte.

Doppelte Rohleistung und mehr als doppelt soviel Speicherbandbreite.

Eine GTX 970 wird man mit Tonga nicht erreichen (Ok da ist noch die secret sauce auf dem chip von der keiner weiß was sie bringt)
Fijii Pro sollte hingegen mind. 10% über der GTX 980 landen und wird vmtl. zum gleichen Preis wie die 980 angeboten.


Die GTX 970 kann man nur (bedingt) sinnvoll mit Hawaii bekämpfen, unter deutlich schlechterer Effizientz und aufwendigem 512Bit PCB. So ganz toll ist das nicht. Ich erwarte von AMD jedoch maximal noch einen neuen Chip als Ersatz für Pitcairn mit 1024SP und 128Bit.

Dawn on Titan
2015-03-13, 14:45:40
Tonga XT für 270 Euro
Fiji Pro für 430 Euro
Fiji XT für 650-700 Euro

Funktioniert.

hasebaer
2015-03-13, 14:49:29
AMD's top dog ist um etwas schneller als NV's top dog, der erste hat NICHT nur 4GB Speicher und verbraucht trotz HBM etwas mehr als der zweite; das ist zumindest was sich im Hintergrund herumspricht.


Und der Hintergrund kommt aus AMDs Ecke?
Oder von Jemanden der tatsächlich auch schon beide Karten vorab testen konnte?

Und wenn letzteres zutrifft, mit welchem Bench-Parkour?

Troyan
2015-03-13, 14:56:01
Schneller als nVidia's Top Dog? Dann musste die Karte mindesten 70% auf die 290X draufpacken.
Eine GTX980 schafft bei 10% geringerem Strom gerade mal 80% zur GTX680 und ist dabei 30% größer.

Schnoesel
2015-03-13, 15:06:08
Kommt wohl eher darauf an von welcher Auflösung man ausgeht. R9 290X ist in 4K kaum langsamer als die GTX980 und die letzten Gerüchte der Titan X besagen +30% -35% Vorsprung gegenüber der GTX 980.

Also ja könnte im Bereich des Möglichen sein muss aber nicht. Zudem steht die Frage nach dem VRAM der AMD noch im Raum. Es bleibt spannend.

Ailuros
2015-03-13, 16:35:16
Und der Hintergrund kommt aus AMDs Ecke?
Oder von Jemanden der tatsächlich auch schon beide Karten vorab testen konnte?

Und wenn letzteres zutrifft, mit welchem Bench-Parkour?

Gipsel schleppt es immer noch in seiner Unterschrift herum: http://www.forum-3dcenter.org/vbulletin/member.php?u=6896

:biggrin:

Sonst chiphell neue kunterbunte Diagramme: http://www.chiphell.com/thread-1253102-1-1.html

Im Durchschnitt bei 22 Gott-weiss-welche Spielen um 35% schneller als eine GTX980 (auch nicht bei default Frequenzen). Am interessanten ist der Verbrauchs-graph.

Schneller als nVidia's Top Dog? Dann musste die Karte mindesten 70% auf die 290X draufpacken.
Eine GTX980 schafft bei 10% geringerem Strom gerade mal 80% zur GTX680 und ist dabei 30% größer.

Fiji hat vergleichbare die area mit GM200.

Agent117
2015-03-13, 16:40:16
Tonga XT für 270 Euro
Fiji Pro für 430 Euro
Fiji XT für 650-700 Euro

Funktioniert.

Man wird aber mit Tonga XT Hawaii Pro nicht erreichen, da werden schon 10-15% fehlen. Und eine 290 bekam man bereits für 250 Euro.

Die 430 für Fiji Pro wären ggü. der langsameren GTX 980 ein Kampfpreis, kann nur hoffen dass das so kommt.
Wenn nicht hätte man von Tonga XT zu Fiji Pro schon eine Lücke von 250 Euro und 50% Performance.

Edit: Ok falscher Thread hier eigentlich

Godmode
2015-03-13, 16:44:01
Gipsel schleppt es immer noch in seiner Unterschrift herum: http://www.forum-3dcenter.org/vbulletin/member.php?u=6896

:biggrin:

Sonst chiphell neue kunterbunte Diagramme: http://www.chiphell.com/thread-1253102-1-1.html

Im Durchschnitt bei 22 Gott-weiss-welche Spielen um 35% schneller als eine GTX980 (auch nicht bei default Frequenzen). Am interessanten ist der Verbrauchs-graph.



Fiji hat vergleichbare die area mit GM200.

Das heißt für mich, das GM200 noch einiges an Reserven nach oben hat, oder?

Ailuros
2015-03-13, 16:47:12
Das heißt für mich, das GM200 noch einiges an Reserven nach oben hat, oder?

Mit hybrider Kuehlung dann schon. Ein jeglicher Titan ist fuer unseres Klima hier eine ziemlich beschissene Idee, eben weil man im Sommer oefters jegliche boost Frequenz schnell vergessen kann.

Godmode
2015-03-13, 16:55:57
Mit hybrider Kuehlung dann schon. Ein jeglicher Titan ist fuer unseres Klima hier eine ziemlich beschissene Idee, eben weil man im Sommer oefters jegliche boost Frequenz schnell vergessen kann.

Ich kühle seit den 980ern mit Wasser.

Wenn Fiji nur etwas schneller ist als GM200, aber dafür mehr Strom verbraucht, sieht es wieder nicht so gut aus für AMD. Man müsste schon deutlich schneller sein um 50W zu rechtfertigen.

aufkrawall
2015-03-13, 16:57:18
Mit WK, 8GB und wesentlich niedrigerem Preis müsste man imho gar nichts rechtfertigen. ;)

Ailuros
2015-03-13, 16:58:30
Ich kühle seit den 980ern mit Wasser.

Wenn Fiji nur etwas schneller ist als GM200, aber dafür mehr Strom verbraucht, sieht es wieder nicht so gut aus für AMD. Man müsste schon deutlich schneller sein um 50W zu rechtfertigen.

Τja kann durchaus sein dass noch einiges an Potential rate mal wo hocken koennte; wenn es Juni wird haben sie noch genug Zeit.

Mit WK, 8GB und wesentlich niedrigerem Preis müsste man imho gar nichts rechtfertigen. ;)

Mit einem niedrigerem Preis im Vergleich zu was? Titan konkurriert nicht wirklich mit dem Ding.

fondness
2015-03-13, 16:58:54
Man muss ohnehin mal brauchbare Messungen abwarten. Tatsache ist aber auch das man in der Serienfertigung für zB 5% mehr Leistung deutlich mehr als 5% mehr Strom benötigt. Und zumindest in 4K gehen sicher noch ein paar zusätzliche Prozent mit 8GB.

Godmode
2015-03-13, 16:59:24
Mit WK, 8GB und wesentlich niedrigerem Preis müsste man imho gar nichts rechtfertigen. ;)

Ja wenn es so kommt, würde ich diese Karte natürlich einer Titan um 999 vorziehen. Würde sowieso gerne mal ins AMD Lager wechseln.

Τja kann durchaus sein dass noch einiges an Potential rate mal wo hocken koennte; wenn es Juni wird haben sie noch genug Zeit.

Geht es um Treiberoptimierungen? HBM dürfte sich ja gänzlich anders verhalten als ein GDDR5 Interface.

aufkrawall
2015-03-13, 17:02:37
Ja wenn es so kommt, würde ich diese Karte natürlich einer Titan um 999 vorziehen. Würde sowieso gerne mal ins AMD Lager wechseln.
Würde ich auch so machen.
Es stört mich nur, dass man die prerendered frames nicht so gut wie bei NV begrenzen kann. Es funktioniert per RadeonPro (der einfach Registry-Einträge erstellt, die es mittlerweile so gar nicht mehr gibt) definitiv nicht in jedem Spiel oder vielleicht auch nur bei D3D9.
Input Lag ist doof.

Mit DX12/Vulkan natürlich egal, aber so weit sind wir ja leider noch nicht. Kleinigkeiten können auch nerven.

fondness
2015-03-13, 17:05:19
Mit einem niedrigerem Preis im Vergleich zu was? Titan konkurriert nicht wirklich mit dem Ding.

Der Konkurrent wird kaum schneller sein als eine TITAN X.

Man müsste schon deutlich schneller sein um 50W zu rechtfertigen.

Ich komme auf 33W in dem einen getesteten Spiel, zu dem es leider keine Leistungswerte gibt.

dargo
2015-03-13, 17:07:45
Sonst chiphell neue kunterbunte Diagramme: http://www.chiphell.com/thread-1253102-1-1.html

Im Durchschnitt bei 22 Gott-weiss-welche Spielen um 35% schneller als eine GTX980 (auch nicht bei default Frequenzen). Am interessanten ist der Verbrauchs-graph.

Hmm... 50% schneller als Hawaii XT bei gleichen Verbrauch? Klingt nicht übel wenn die Diagramme stimmen. :)

Ailuros
2015-03-13, 17:20:06
Der Konkurrent wird kaum schneller sein als eine TITAN X.

Titan ist NV's hw und wird nicht an vendors weitergereicht; wenn NV Uebertaktungen auf mainstream GM200 SKUs erlaubt, dann darfst Du Gift drauf nehmen dass sie nicht auf so bescheidenen Frequenzen bleiben werden.

Ich komme auf 33W in dem einen getesteten Spiel, zu dem es leider keine Leistungswerte gibt.

Wenn Du irgendwelches hypothetisches Material hast dass im Gegensatz eine gleiche Effizienz fuer AMD's top dog zeigt dann schiess gerne damit los; sonst sind es knapp 13%, wobei alle GPUs leicht uebertaktet sind ergo kann NV den Titan X auch im 6+8pin board form factor halten wenn sie es wollen. Bogen nach oben.

Hübie
2015-03-13, 17:38:18
Oder die Vendors überlegen sich wieder so ein Müll wie Gigabyte X-D Ich wusste nicht ob ich lachen oder weinen soll als ich Titan mit custom cooler sah :biggrin:

fondness
2015-03-13, 17:45:13
Titan ist NV's hw und wird nicht an vendors weitergereicht; wenn NV Uebertaktungen auf mainstream GM200 SKUs erlaubt, dann darfst Du Gift drauf nehmen dass sie nicht auf so bescheidenen Frequenzen bleiben werden.


Übertakten kann man alle Karten.


Wenn Du irgendwelches hypothetisches Material hast dass im Gegensatz eine gleiche Effizienz fuer AMD's top dog zeigt dann schiess gerne damit los; sonst sind es knapp 13%, wobei alle GPUs leicht uebertaktet sind ergo kann NV den Titan X auch im 6+8pin board form factor halten wenn sie es wollen. Bogen nach oben.

Wie du schon selbst sagtest, Fiji ist nicht ohne Grund noch drei Monate weg....ganz davon abgesehen glaube ich nicht das es einem Enthusiasten auf 30W mehr oder weniger ankommt, gerade wenn er womöglich eine 4K-Monitor hat und jedes fps benötigt.

Dural
2015-03-13, 17:48:33
Die AMD aber selten so gut wie die von NV :wink: und ich kann dir versichern, sollte die Karte wirklich mit WaKü kommen wird das AMD ziemlich sicher auch zum teil über den Takt ausnützen.

Dawn on Titan
2015-03-13, 17:49:34
Schneller als Titan X bei 290X Verbrauch - absolut geil. Sollte sich wie geschnitten Brot verkaufen.

Hübie
2015-03-13, 17:53:41
Wie kommst du darauf Dawn of Titan? Du musst in die Köpfe eindringen. Das Produkt ist dann nur Mittel zum Zweck. Allerdings wünsche ich es mir wirklich. Vor allem weil ich auf-/umrüsten möchte.

fondness
2015-03-13, 17:57:53
Wie kommst du darauf Dawn of Titan? Du musst in die Köpfe eindringen. Das Produkt ist dann nur Mittel zum Zweck. Allerdings wünsche ich es mir wirklich. Vor allem weil ich auf-/umrüsten möchte.

Richtig, am Ende kommt es auf Nuancen an...und nein ein TITAN-Kühler kann keine 250W leise weg kühlen.

Blediator16
2015-03-13, 18:05:31
Woher kommen denn die ganzen Verbrauchswerte? Von Chiphell? Welch ein Zufall muss das sein, dass jemand bei Chiphell alle neuen Karten gleichzeitig mit funktionierenden Treibern da hat?

Hübie
2015-03-13, 19:11:34
Glaub das waren unterschiedliche leaker... Und, oh Wunder, die meistens leaks kommen über AIB Vendors. Ich behaupte mal dass die meisten gar nicht wissen wieviel Unternehmen an einer Entwicklung und Vermarktung beteiligt sind.

aufkrawall
2015-03-13, 19:14:26
Übertakten kann man alle Karten.

Bei Hawaii geht rekordverdächtig wenig.
Die Wahrscheinlichkeit ist bei Fiji für so was auch nicht gering, wenn wieder 1/2 DP dabei ist.

hasebaer
2015-03-13, 19:39:39
Die 1/2 DP Ratio ist vielleicht nicht der Punkt, eher schon, dass man trotz einer Hybrid-Kühlung und damit guten Temps von unter 70°C,
trotzdem immernoch ca.290W hat, wo doch bisher Grafikchips erst ab 80°C, verbrauchsmässig ineffektiv werden. Also man ist am Limit.

GM200 in Form der Titan X plus einem stärkeren Nachrüst-Luftkühler a la Morpheus, MK-26, Peter 2 oder AC Accelero Xtreme IV hat da dann immernoch die besseren Karten am ende wieder überall schneller zusein.

Aber wirklich sexy ist für mich weder der Ausblick auf Titan X noch auf AMDs Topdog.

Mir würde ja GM200 Vollausbau mit 6GB VRAM reichen, dazu gleich mit einer brauchbaren Luftkühlung ab Werk.

aufkrawall
2015-03-13, 19:50:08
Den Stromverbrauch seh ich eher wegen der begrenzten Käuferschicht mit passendem PSU kritisch, nicht unbedingt wegen der Kühlbarkeit.
Die Asus 780 Ti DC2 hat eine Default-TDP von 300W und der Kühler kann den großen Chip auch noch bis an die 400W recht gut kühlen. Sollte für WK ein Klacks sein. Mit passendem PSU sollte also noch was gehen bei Fiji.
Außer, der Stromverbrauch ist so hoch, weil man den Takt schon ans Limit für WK gebracht hat, gar mit relativ hohen Spannungen.

Ailuros
2015-03-13, 20:05:04
Übertakten kann man alle Karten.

Es sind auch alle im chart uebertaktet.


Wie du schon selbst sagtest, Fiji ist nicht ohne Grund noch drei Monate weg....

Nur hat der Daemlichkeit zu Liebe Maxwell so manche Monate Vorsprung und sie haben auch genug Personal dafuer.

..ganz davon abgesehen glaube ich nicht das es einem Enthusiasten auf 30W mehr oder weniger ankommt, gerade wenn er womöglich eine 4K-Monitor hat und jedes fps benötigt.

Das daemliche Maerchen erzaehlt AMD PR/marketing der Welt schon seit langem und es nichts anderes als eine Ausrede. Verkauft denn AMD mehr 290-er als die gruenen 970/980er? Wenn AMD ihren vorigen Marktanteil nicht bald wieder einholt entwickelt sich fuer die Gruenen bald ein quasi Monopol.

fondness
2015-03-13, 20:09:05
GM200 in Form der Titan X plus einem stärkeren Nachrüst-Luftkühler ala Morpheus, MK-26, Peter 2 oder AC Accelero Xtreme IV hat da dann immernoch die besseren Karten, am ende wieder überall schneller zusein.


Um das zu beurteile sollte man Tests abwarten...aber selbst wenn es so wäre sind ein paar Prozent Mehrleistung hier oder da wohl nicht das Entscheidende oder was man merken würde. Ob das verwendete Fiji dort überhaupt schon den Hybrid-Kühler verbaut hatte ist auch nicht sicher. Geschweige denn wie zuverlässig die Werte sind.

Hübie
2015-03-13, 20:16:23
Das stünde gegen alle Regeln beim Validierungsprozess. Also Luft ist immer. Wie man bei Hawaii sieht gelten die Regeln aber nicht zwangsläufig.

Dawn on Titan
2015-03-13, 21:47:17
Wie kommst du darauf Dawn of Titan? Du musst in die Köpfe eindringen. Das Produkt ist dann nur Mittel zum Zweck. Allerdings wünsche ich es mir wirklich. Vor allem weil ich auf-/umrüsten möchte.

Wenn AMD den Referenzkühler nicht völlig versaut, dann denke ich dass 40-50W in dem Segment keinen Rolle spielen, wenn Leistung und Features stimmen.

Das Problem ist halt, dass AMD bisher einen ziemlich guten Track Record hat wenn es ums Versauen von Refrenzkühlern geht. Und ich traue den halt zu, dass man die GPU unter Wasser setzt und die SpaWas mit billigen Alublechen versieht und dann den Lüfter auf der Karte drehen lassen muss.

Bei NV bin ich mir sicher, dass sie die Titan bei max. ~3,5Sone einpendeln werden.

Das Hauptproblem ist aber, dass AMD wahrscheinlich weniger Geld für die aufwändigere Karte mit dem teureren Kühler nehmen kann.

Mancko
2015-03-13, 22:30:22
Das Hauptproblem ist aber, dass AMD wahrscheinlich weniger Geld für die aufwändigere Karte mit dem teureren Kühler nehmen kann.

Das wird mit ziemlicher Sicherheit der Fall sein. Inbesondere bei der Etage darunter mit der 980 bin ich gespannt. Die ist eigentlich unverschämt günstig zu fertigen von der 960 ganz zu schweigen.

fondness
2015-03-13, 22:54:33
Scheiß egal die Verkaufszahlen müssen stimmen. Ob die Marge jetzt 10% niedriger ist spielt dabei die geringste Rolle. NV hat jahrelang teils doppelt so große Chips gegen AMD stellen müssen und es war auch kein Problem.

Pentium M
2015-03-13, 23:13:51
Wenn AMD den Referenzkühler nicht völlig versaut, dann denke ich dass 40-50W in dem Segment keinen Rolle spielen, wenn Leistung und Features stimmen.

Das Problem ist halt, dass AMD bisher einen ziemlich guten Track Record hat wenn es ums Versauen von Refrenzkühlern geht. Und ich traue den halt zu, dass man die GPU unter Wasser setzt und die SpaWas mit billigen Alublechen versieht und dann den Lüfter auf der Karte drehen lassen muss.

Bei NV bin ich mir sicher, dass sie die Titan bei max. ~3,5Sone einpendeln werden.

Das Hauptproblem ist aber, dass AMD wahrscheinlich weniger Geld für die aufwändigere Karte mit dem teureren Kühler nehmen kann.

Amd sollte es doch hinbekommen das Power Management von Carrizo (AVFS- Adaptive Voltage and Frequency Scaling) auf Fiji zu übertragen.

aufkrawall
2015-03-13, 23:16:16
Gibts belastbare Zahlen, wie viel das bringen kann?

Pentium M
2015-03-13, 23:25:31
Keine Ahnung bei GPUs aber bei Kepler vrs. AMD wars ja genauso.Nvidia legt vor mit Boost und feinerem Power Management was folgt ist Bonaire (Acht statt vier Power States).

aufkrawall
2015-03-13, 23:55:17
Der Stromverbrauch bei Maxwell ist aber auch niedriger, wenn die GPU nicht warten muss und mit vollem Takt läuft.
Als Laie würde ich annehmen, dass dies tiefgreifende Veränderungen in der kompletten GPU-Logik erfordert.

Pentium M
2015-03-14, 00:13:18
Ich finde das der grösste Teil der Effizienz von Maxwell vom Power Management kommt(Tegra,K1).

Mir persönlich tun eigentlich nur die Netzteile leid.(vermehrtes Fiepen bei Maxwell) http://www.yoops.de/dt-WSCK.jpg (http://www.yoops.de/pt-WSCK.html)

aufkrawall
2015-03-14, 00:20:55
Ok, das trägt in der Form sicher auch dazu bei.
Bei einer MSI 980 Gaming hatte hier allerdings nichts im NT oder auf der Karte gefiept.

von Richthofen
2015-03-14, 00:25:17
Gibt es eine Vermutung um was es sich bei der 3GB Maxwell-Karte im Chart (GTX 9**) handeln könnte?
http://www.chiphell.com/thread-1253102-1-1.html

Rente
2015-03-14, 00:51:38
Davon mal ab das u.U. alles auf Chiphell einfach Unsinn ist: GM204-Salvage für die GTX960 Ti (mit 192-Bit-Speicherinterface).

Da jetzt aber 4GB-Modelle der 960 angekündigt sind ergibt ein solches Modell aus meiner Sicht relativ wenig Sinn. Ein 6GB-Modell würde darüber hinaus im Hinblick auf die 970 auch nicht so recht passen, außer man ordnet sie anders ein sobald GM200-Salvage kommt und ersetzt die 970 durch die 980 (also so wie bei der GTX770 als GK110 kam).

Das Portfolio würden dann quasi so aussehen (in meiner Vorstellung):

GTX1050 2GB/4GB (Rebrand GTX960)
GTX1060 3GB/6GB (GM204-Salvage, 192-Bit, 6GB später)
GTX1060 Ti 4GB (Rebrand GTX970)
GTX1070 4GB/8GB (Rebrand GTX980, 8GB später)
GTX1080 6GB/12GB (GM200-Salvage, 12GB später)
GTX1080 Ti 6GB (GM200-Vollausbau, kommt später)
Titan X 12GB

So würde das Chiphell-Diagramm aus meiner Sicht halbwegs passen.

Agent117
2015-03-14, 01:05:14
Gibt es eine Vermutung um was es sich bei der 3GB Maxwell-Karte im Chart (GTX 9**) handeln könnte?
http://www.chiphell.com/thread-1253102-1-1.html

Müsste die Konkurenz zu Tonga XT sein auf GM204 Basis.
Dann wie die GTX 760 je nach Defekt auf dem Chip mit 3 oder 4-fach Frontend.
Das macht dann vlt noch Sinn, die ohne hin schon stark beschnittene GTX 970 noch weiter zu beschneiden.
Bei GM 206 glaube ich nicht an mehr als 1024SPs und mehr als 128Bit, der wäre somit zu langsam.

von Richthofen
2015-03-14, 01:27:30
Mglw. gar ein bereits im Mobile-Bereich verwendeter Salvage-Chip oder eben wirklich gleich der 970er Chip mit seinem 192er Interface. Passt dann gleich die RAM Anbindung perfekt.

Schon interessant, wie die Chinesen da gleich mal vier unveröffentlichte Produkte beider IHVs zur Hand haben.

Coda
2015-03-14, 08:30:52
Deswegen schrieb ich ja auch "kann". BF4 war das allererste Spiel mit Mantle und taugt als Argument nicht sehr. Andere Entwickler haben viel mehr Zeit für Mantle zu optimieren.
Bei Dragon Age hat der Entwickler mit einem Patch nachträglich unter Mantle den VRAM Bedarf gesenkt und Coda hat hier im Forum auch mal bestätigt das man unter Mantle VRAM Sparen kann, bei richtiger Programmierung.
Daran kann ich mich nicht erinnern. Ein wenig VRAM sparen wäre aber plausibel.

dargo
2015-03-14, 08:37:04
Daran kann ich mich nicht erinnern.
Warst auch nicht du sondern Gipsel damals. :)

AnarchX
2015-03-14, 09:05:01
Davon mal ab das u.U. alles auf Chiphell einfach Unsinn ist: GM204-Salvage für die GTX960 Ti (mit 192-Bit-Speicherinterface).

Da jetzt aber 4GB-Modelle der 960 angekündigt sind ergibt ein solches Modell aus meiner Sicht relativ wenig Sinn.
Von der 750 Ti gibt es auch 4GiB Modelle. Und in der Vergangenheit konnte man <=770er mit 4GiB kaufen, wo NV selbst die 780 Ti auf 3GiB limitierte.

Was sich hinter der Karte verbirgt, wird interessant sein. +20% sind wohl nicht nur +64-Bit SI die in GM206 schlummern könnten.
Schlussendlich sollte man wohl trotz allem nicht einen 5+5 Aufbau bei GM206 ausschließen.

Ailuros
2015-03-14, 12:59:23
Ich finde das der grösste Teil der Effizienz von Maxwell vom Power Management kommt(Tegra,K1).

Mir persönlich tun eigentlich nur die Netzteile leid.(vermehrtes Fiepen bei Maxwell) http://www.yoops.de/dt-WSCK.jpg (http://www.yoops.de/pt-WSCK.html)

Nein.

BlacKi
2015-03-14, 13:51:43
Nein.

um das zu ergänzen:

ich hab meinen 2600k übertaktet mit meiner gtx970 auch schon an 300w netzteilen betrieben, es gab keine derartigen abstürze. meine 970 hat ein powertarget von 160w und die 980 von 165w.

akutell betreibe ich meine 970 mit einem alten tagan 380w netzteil mit OC und es macht keinerlei geräusche auch kein aufdrehen drehen lüfter, auch die spannungen sehen sauber aus.

was maxwell nun so effizient macht weiß ich nicht, aber es geht nicht auf die netzteile.

blaidd
2015-03-14, 14:00:46
Deswegen schrieb ich ja auch "kann". BF4 war das allererste Spiel mit Mantle und taugt als Argument nicht sehr. Andere Entwickler haben viel mehr Zeit für Mantle zu optimieren.
Bei Dragon Age hat der Entwickler mit einem Patch nachträglich unter Mantle den VRAM Bedarf gesenkt und Coda hat hier im Forum auch mal bestätigt das man unter Mantle VRAM Sparen kann, bei richtiger Programmierung.

Coda ist dahingehend unschuldig, wenn ich mich recht erinnere. Außerdem war die Diskussion meiner Erinnerung nach recht theoretisch. Aber es gibt Entwickleraussagen, die eine bessere Speicherauslastung bescheinigen: Rebellion hat einen entsprechenden Blog (http://www.rebellion.co.uk/blog/2014/10/2/mantle-comes-to-sniper-elite-3). Ich weiß allerdings nicht, inwieweit das von AMD beeinflusst wurde.

Ich finde das der grösste Teil der Effizienz von Maxwell vom Power Management kommt(Tegra,K1).

Mir persönlich tun eigentlich nur die Netzteile leid.(vermehrtes Fiepen bei Maxwell) http://www.yoops.de/dt-WSCK.jpg (http://www.yoops.de/pt-WSCK.html)

Das hat Nvidia auch selbst gesagt (http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Nvidia-Game-24-1136638/). Ist ja auch ein logischer und sinnvoller Schritt. Das diese ganze Boosterei für Lastspitzen sorgen kann, sollte auch einleuchtend sein. Aus werbewirksamer Perspektive gesehen, ist Boost außerdem eine herrliche Erfindung. Nebeneffekte sind außerdem unauffällig und teils soweit verkettet, dass sie nicht mit der GPU assoziiert werden.

blaidd
2015-03-14, 14:16:37
Doppelpost. Sorry.

Ailuros
2015-03-14, 15:53:14
Coda ist dahingehend unschuldig, wenn ich mich recht erinnere. Außerdem war die Diskussion meiner Erinnerung nach recht theoretisch. Aber es gibt Entwickleraussagen, die eine bessere Speicherauslastung bescheinigen: Rebellion hat einen entsprechenden Blog (http://www.rebellion.co.uk/blog/2014/10/2/mantle-comes-to-sniper-elite-3). Ich weiß allerdings nicht, inwieweit das von AMD beeinflusst wurde.

Hier ein paar Entwickler Aussagen: http://www.eurogamer.net/articles/digitalfoundry-2015-nvidia-geforce-gtx-970-revisited


Das hat Nvidia auch selbst gesagt (http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Nvidia-Game-24-1136638/). Ist ja auch ein logischer und sinnvoller Schritt. Das diese ganze Boosterei für Lastspitzen sorgen kann, sollte auch einleuchtend sein. Aus werbewirksamer Perspektive gesehen, ist Boost außerdem eine herrliche Erfindung. Nebeneffekte sind außerdem unauffällig und teils soweit verkettet, dass sie nicht mit der GPU assoziiert werden.

Ich wuerde mal liebend gerne eine ausfuehrliche technische Erklaerung lesen die die These erstmal erklaert. Es ist eben leider nicht so dass wenn jemand etwas aussagt alle auch wirklich das richtige verstehen, aber wenn es schon sein muss aus dem obrigen link:

Ja, da wir mit Tegra besonders viel über Effizienz lernen konnten, erlaubte uns dies, Maxwell besonders sparsam und gleichzeitig besonders leistungsfähig zu gestalten. Euch ist vielleicht schon aufgefallen, dass sich die Architektur der Maxwell-GPUs von den früheren Geforce-Grafikkarten unterscheidet. Wir können nun die Rechenwerke viel genauer ansteuern. Je nachdem, wie viel Leistung benötigt wird, können wir einzelne Kerne zu- oder abschalten, die restlichen aktiven werden dann deutlich besser ausgelastet, teils in Bereichen von 99-100 %. Wird die Leistung nicht benötigt, schalten wir die nicht benötigten Rechenwerke einfach ab.

Es heisst power gating und es hat mit Echtzeit 3D nichts zu tun auch auf einem ULP SoC. Die Gewinne vom obrigen sieht man im desktop bzw. idle status der GPU und damit hat eigentlich AMD angefangen und nicht NV.

Ausserhalb vom obrigen ist DVFS wie es in der ULP Welt angewendet wird eine Schnappsidee fuer den desktop eben weil ein PC nicht mit Batterien betrieben wird. Wenn das obrige immer noch nicht reicht das obrige richtig zu verstehen und weiter solche Bumsthesen aufrecht zu halten kann man auch nicht wirklich weiterhelfen.

um das zu ergänzen:

ich hab meinen 2600k übertaktet mit meiner gtx970 auch schon an 300w netzteilen betrieben, es gab keine derartigen abstürze. meine 970 hat ein powertarget von 160w und die 980 von 165w.

akutell betreibe ich meine 970 mit einem alten tagan 380w netzteil mit OC und es macht keinerlei geräusche auch kein aufdrehen drehen lüfter, auch die spannungen sehen sauber aus.

was maxwell nun so effizient macht weiß ich nicht, aber es geht nicht auf die netzteile.

Die Erweiterungen der Architektur im Vergleich zu Kepler wurden ausfuehrlich besprochen und genug offizielle Dokumentation dafuer gab es auch. Fuer den geschichtlichen Wert wurden die "boost" Frequenzen fuer die GTX680 "erfunden" als sich NVIDIA entschied den GK104 um ein paar Wochen zu verzoegen um das Ganze hoeher anzulegen und es direkt gegen die 7900-er zu stellen die es damals schon gab. In der ULP SoC Welt gibt es zwar auch "boost" Frequenzen auf GPUs und auch auf CPUs aber wenn werden diese auch nur meistens in benchmarks angelegt. Auf einer desktop GPU wenn es die Temperaturen erlauben sollten laeuft eine solche GPU dann durchgehend auf boost Frequenzen so lange die Temperaturen sich auch nicht aendern. Alles was oben gemeint ist ist dynamische Taktraten die aber auch AMD in ihren GPUs anwendet und ach oh Wunder sie hatten keinen Tegra um es ihnen "beizubringen" :rolleyes:

Hübie
2015-03-14, 18:26:46
Hahahaa. Bumsthesen. Word of the month! :biggrin:

Verglichen mit den Mechanismen auf einer CPU sind GPUs diesbezüglich gerade in den 90ern angekommen.

Kriton
2015-03-14, 19:32:08
ich hab meinen 2600k übertaktet mit meiner gtx970 auch schon an 300w netzteilen betrieben, es gab keine derartigen abstürze. meine 970 hat ein powertarget von 160w und die 980 von 165w.

Das sind die Referenzwerte, oder? Die Customs haben doch (teilweise) deutlich höhere Werte.

Sunrise
2015-03-15, 02:42:32
Scheint so als hätte deadmau5 (ja, der Musiker) in seiner Video-Workstation zwei neue Freunde (2x M6000):
https://instagram.com/p/0Ip5wMOx6n/

Hübie
2015-03-15, 03:23:52
Ich kenne zwar keinen Musiker mit diesem Namen aber wer eine Red Rocket hat und sich daneben zwei M6000 reinknallt hat schon was richtig gemacht. Ist der Wert eines kleinen Gebrauchtwagens ;D

Godmode
2015-03-15, 10:44:39
Scheint so als hätte deadmau5 (ja, der Musiker) in seiner Video-Workstation zwei neue Freunde (2x M6000):
https://instagram.com/p/0Ip5wMOx6n/

Die gibts doch noch gar nicht offiziell zu kaufen? :confused: Wie kommen die Leute immer an sowas ran?

AnarchX
2015-03-15, 11:32:59
Das ist ein werbewirksamer Promi, der wohl mit den Karten beschenkt wurde. Vielleicht hat er ja auch einen GTC-Auftritt.

BlacKi
2015-03-15, 12:02:30
Das sind die Referenzwerte, oder? Die Customs haben doch (teilweise) deutlich höhere Werte.

naja, wie hoch der spitzenverbrauch ist liegt am takt. offiziell sinds bei der 970 145w, aber die meisten haben ein standard powertarget von 160w. bei der 980 sind 165w referenz, die vorher verlinkte kurve zeigte eine referenz 980 mit 165w. mir gings eher nur darum, das man kein 500w netzteil benötigt (wie vom hersteller vorgeschrieben) um eine maxwell karte sicher zu betreiben. ein gutes 350w netzteil reicht selbst für eine normale 980, ohne das die gemessenen lastspitzen auswirkungen hätten.

Kartenlehrling
2015-03-15, 12:09:28
Die werden bei Nvidia gedacht haben " HEY ... der kann noch mehr Elektroschrott gebrauchen"
(https://www.youtube.com/watch?v=oTFpMYhRbkQ)

Sunrise
2015-03-15, 12:23:17
Die werden bei Nvidia gedacht haben " HEY ... der kann noch mehr Elektroschrott gebrauchen"
(https://www.youtube.com/watch?v=oTFpMYhRbkQ)
Geil, Castlevania Mucke vom NES 😀

Kriton
2015-03-15, 15:04:19
naja, wie hoch der spitzenverbrauch ist liegt am takt. offiziell sinds bei der 970 145w, aber die meisten haben ein standard powertarget von 160w. bei der 980 sind 165w referenz, die vorher verlinkte kurve zeigte eine referenz 980 mit 165w. mir gings eher nur darum, das man kein 500w netzteil benötigt (wie vom hersteller vorgeschrieben) um eine maxwell karte sicher zu betreiben. ein gutes 350w netzteil reicht selbst für eine normale 980, ohne das die gemessenen lastspitzen auswirkungen hätten.

Ich meine das hier:

http://www.3dcenter.org/news/nachtraege-zu-geforce-gtx-970-980-reale-taktraten-und-power-limits

Die 970 customs haben bis zu 250 Watt powerlimit. Und es gibt ja praktisch keine Referenz 970 (1? Oder war das eine 970 auf 980er Referenzplatine?).

Das ist nicht schlimm. Mir geht es nur um das (geschickte) Marketing, dass mit der geringen TDP der (theoretischen) Referenz hausieren geht. Manchmal habe ich das Gefühl, die Leute argumentieren gedanklich mit der referenz-TDP, aber der Leistung der übertakteten Customs.

HarryHirsch
2015-03-15, 15:07:00
Ich meine das hier:

http://www.3dcenter.org/news/nachtraege-zu-geforce-gtx-970-980-reale-taktraten-und-power-limits

Die 970 customs haben bis zu 250 Watt powerlimit. Und es gibt ja praktisch keine Referenz 970 (1? Oder war das eine 970 auf 980er Referenzplatine?).

Das ist nicht schlimm. Mir geht es nur um das (geschickte) Marketing, dass mit der geringen TDP der (theoretischen) Referenz hausieren geht. Manchmal habe ich das Gefühl, die Leute argumentieren gedanklich mit der referenz-TDP, aber der Leistung der übertakteten Customs.

das ist kein gefühl sondern tatsache.

Knuddelbearli
2015-03-15, 15:39:16
jup

aufkrawall
2015-03-15, 15:44:17
Die Leistung sinkt in den meisten üblichen Spiele-Szenarien kaum ab, wenn das PT bei hohen OC-Taktraten begrenzt.
Bei UT4 hatte ich hier ~3% Verlust gemssen bei 180 vs. 225W TDP.

Ailuros
2015-03-16, 06:28:31
naja, wie hoch der spitzenverbrauch ist liegt am takt. offiziell sinds bei der 970 145w, aber die meisten haben ein standard powertarget von 160w. bei der 980 sind 165w referenz, die vorher verlinkte kurve zeigte eine referenz 980 mit 165w. mir gings eher nur darum, das man kein 500w netzteil benötigt (wie vom hersteller vorgeschrieben) um eine maxwell karte sicher zu betreiben. ein gutes 350w netzteil reicht selbst für eine normale 980, ohne das die gemessenen lastspitzen auswirkungen hätten.

Damit hier der Leser nichts falsches versteht: man sollte sich schon im Grund auf die Vorschlaege der Hersteller halten denn jegliche Werte sind nicht frei erfunden.

Dass Maxwell effizient ist, ist nichts Neues; dafuer braucht man aber weder zu ueber- oder zu unter-treiben ;)

Ich meine das hier:

http://www.3dcenter.org/news/nachtraege-zu-geforce-gtx-970-980-reale-taktraten-und-power-limits

Die 970 customs haben bis zu 250 Watt powerlimit. Und es gibt ja praktisch keine Referenz 970 (1? Oder war das eine 970 auf 980er Referenzplatine?).

Das ist nicht schlimm. Mir geht es nur um das (geschickte) Marketing, dass mit der geringen TDP der (theoretischen) Referenz hausieren geht. Manchmal habe ich das Gefühl, die Leute argumentieren gedanklich mit der referenz-TDP, aber der Leistung der übertakteten Customs.

Siehe letzten Satz oben; von da ab sind es halt "Bumsthesen" da die Beschreibung manche doch zu amuesieren scheint :P

dildo4u
2015-03-17, 17:15:33
GPU Technology Conference 2015 Stream

http://www.ustream.tv/channel/gpu-technology-conference-2015

HarryHirsch
2015-03-17, 17:21:13
ich kann das gefappe auf den kurzen bis hier hören. nach deep lerning kommt brain washed?

Thunder99
2015-03-17, 17:21:17
Bis jetzt langweilig (first Part)

Unicous
2015-03-17, 17:22:23
Danke für den Link.


Aber um ehrlich zu sein... ich schlafe gerade ein. Auto-Gelaber und bis jetzt eine super langweilige Rede. Ich hoffe da kommt mal irgendwas Spannendes (und ich meine nicht die TitanX:P).


Gääääääähn.

https://twitter.com/ryanshrout/status/577868747307798529


Jensen erzählt uns gleich wie der Die aus eine riesigen Siliziumingot gefräst wurde und solange poliert, bis er glänzt. Dieses RumgeApple.:rolleyes:

Thunder99
2015-03-17, 17:32:49
Titan X vorgestellt und erklärt warum sie X (hightest SP Power) heißt und es eine Z (highest DP Power) gibt :ugly:

M4xw0lf
2015-03-17, 17:42:35
Dieses RumgeApple.:rolleyes:
Rumge-i-er vielmehr :freak:

Unicous
2015-03-17, 17:50:45
Er hats einfach nicht drauf. Bei Tim Cook schläft man ja schon ein, wenn er ganz außer sich vor Freude und voller Vitalität die Geschäftszahlen etc. runterrattert. Aber dieser Vortrag ist echt stinke-langweilig. Geschrieben und vorgetragen (keine Ahnung ob er es selbst geschrieben hat, ich glaube eher nicht:wink:).

Unicous
2015-03-17, 17:55:58
Wurde das schon gepostet? (Im TitanX Thread z.B.?)

http://pic.yupoo.com/ztwss/EvBScKUb/j5zF3.jpg

601mm²? Voll fett Mami.

Blediator16
2015-03-17, 18:01:41
Wenn man DP streicht und den Chip aufbläht, was soll es sein ausser Bruteforce?

Mancko
2015-03-17, 18:03:21
Er hats einfach nicht drauf. Bei Tim Cook schläft man ja schon ein, wenn er ganz außer sich vor Freude und voller Vitalität die Geschäftszahlen etc. runterrattert. Aber dieser Vortrag ist echt stinke-langweilig. Geschrieben und vorgetragen (keine Ahnung ob er es selbst geschrieben hat, ich glaube eher nicht:wink:).

Der hat extrem viel drauf und um Längen mehr als Du. Wenn der nichts drauf hätte, wäre Nvidia nicht da wo sie heute stehen und der nicht mehr CEO. Über all die Jahre seit der Gründung ist er CEO geblieben und ist so geblieben wie man ihn kennt und sich auch kein Stück zu Schade mal mit den Großen anzulegen. Wieviele CEOs hat diese jämmerliche Konkurrenz in dem gleichen Zeitraum gleich nochmal verschlissen? Wie viele Konkurrenzunternehmen sind in dem Geschäftsfeld übrig geblieben? Wie sehe es mit der übrig gebliebenen Konkurrenz aus, wenn es kein Geld von außen mehr gibt? Da gehen wir lieber gar nicht erst drauf ein.

Unicous
2015-03-17, 18:07:56
Oh je, wie peinlich, ein Jensen fanboy.;D

Er hat es nicht drauf... Reden zu schwingen, ich habe nichts über seine CEO-Fähigkeiten gesagt, Freund Blase.

Sobald Mike? oder so auf die Bühne gekommen ist habe ich wieder Interesse entwickelt, weil er offensichtlich wusste wovon er redet und nicht im Trüben gefischt hat.:wink:



p.s.

Lern du erstmal Longboardfahren.

aufkrawall
2015-03-17, 18:09:51
Er hat als Vortragsredner nicht viel drauf, eher überstrahlt sein messianisches Ego einfach alles. Solche Typen sind wirklich rar gesäht.

Was natürlich nicht heißt, dass die Redner auf anderen Veranstaltungen nicht noch schlechter sein können.

-/\-CruNcher-/\-
2015-03-17, 18:27:08
Schon krass das AMD demnächst alles das releasen wird was er mit Pascal da ankündigt ;)

fondness
2015-03-17, 18:32:53
Volta ist nach 2018 gerückt...

2x Perf/Watt mit Pascal hört sich beim Sprung von 28nm auf 14nm plus HBM jetzt auch nicht super amazing an...

Unicous
2015-03-17, 18:35:48
Mixed Precision (keine Angaben zu DP*soundsfishy*) HGEMM

Dreichfache Bandbreite, Angabe in "Stream GB/s".

x mal x mal x mal =yx

Oh Mann ey, diese Apple-Scheiße ist so anstrengend. Ich dachte es heißt Graphics Technology Conference und nicht Graphics Marketing Conference.

Edit:
PPB (Ping Pong Baby) stiehlt JHH die Show.

Ravenhearth
2015-03-17, 20:11:29
12:40PM EDT - GTX Titan X: $999

12:40PM EDT - (The crowd takes a second to start applauding)


:freak:;D

Achja, Reviews sind da.

Skysnake
2015-03-17, 20:29:05
Fazit:
Gameing->Hui
GPGPU (DP)->Pfui

Und das für 1k$/€. Da fragt man sich schon, wie man das eigentlich rechtfertigen will. Das letzte mal wurde ja die GPGPU-DP-Sau durchs Dorf getrieben. Da geht dieses mal ja wohl eher schlecht...

Ich finde es dabei auch ziemlich lustig, das auf z.B. CB gerade mal ein Nebensatz dazu abgegeben wird, das GM200 einfach nicht mehr kann als 1/32 DP:SP.

Hätte mir da mehr kritische Betrachtung gewünscht. Vor allem halt, weil nVidia bei der Titan schon hart darauf rumgeritten ist. Aber so ist hals nVidia/Huang. Man dreht sein Fähnen so, wie es gerade am Besten passt...

Für den ganzen HPC-Bereich siehts damit dann aber wirklich so düster aus, wie befürchtet. Da wird sich die Branche ziemlich umschauen, wie man plötzlich als Depp vom Dienst dasteht, wenn einen der "nette" Vendor-lock Hersteller im Regen stehen lässt....

Jetzt muss nur noch Intel mal KNL launchen, und AMD die FirePros auf Fiji basis zeitnah bringen. Das würde nVidia richtig wehtun. Das wird man so schnell nicht vergessen, selbst wenn die Kooperation mit IBM und Mellanox gut werden sollte. Ein Makel wird haften bleiben.

EDIT:
Ich schmeis mich btw. gerade weg.


2014 hieß es noch, dass Pascal auch Unified (Virtual) Memory unterstützen solle. Diese Neuerung verschwand in diesem Jahr unkommentiert von der Roadmap. (http://www.heise.de/newsticker/meldung/Nvidia-High-End-Grafikkarte-GeForce-GTX-Titan-X-fuer-1000-Dollar-2577791.html)

Und wieder mal so ne Aktion, wo Sie auf die Kacke gehauen haben wie noch etwas, und schon sehr früh auf die Mängel hingewiesen wurde....

maguumo
2015-03-17, 20:36:01
Wurde nicht auch darüber gemutmaßt das AMD bei Fiji ebenfalls die DP Leistung zusammengestrichen haben könnte?

Dural
2015-03-17, 20:41:10
Schon krass das AMD demnächst alles das releasen wird was er mit Pascal da ankündigt ;)

2x perf/watt gegenüber maxwell? ok das will ich mal sehen! ;)

Mandalore
2015-03-17, 22:14:54
2x perf/watt gegenüber maxwell? ok das will ich mal sehen! ;)


Du weißt ganz genau was er meint, und es stimmt.

TurricanM3
2015-03-17, 22:35:31
Ich finde die Karte macht einen sehr guten Eindruck. Wer maximale Leistung will, der hat keine Alternative. :smile:

Fazit:
Gameing->Hui
GPGPU (DP)->Pfui

Und das für 1k$/€. Da fragt man sich schon, wie man das eigentlich rechtfertigen will.


Wer soll sich hier bitte für was rechtfertigen?

aufkrawall
2015-03-17, 22:40:26
DP interessiert doch wirklich niemanden hier, der spielt.
Wär wahrscheinlich beinahe unbrauchbar als Gaming-Karte damit im Vergleich zur 980.

Mancko
2015-03-17, 22:41:44
Oh je, wie peinlich, ein Jensen fanboy.;D


Ne kein Fanboy sondern jemand der Respekt vor der Leistung speziell von dieser Person hat.


Er hat es nicht drauf... Reden zu schwingen, ich habe nichts über seine CEO-Fähigkeiten gesagt, Freund Blase.


Das sehe ich anders. Ich habe schon viele Auftritte von ihm gesehen und da gibt es auch richtig gute. War das hier einer der besten? Eher nicht. Liegt aber auch ein wenig an der Target Audience und am Thema. So viel gab es nicht zu berichten dieses mal. Nvidia wird sich kaum die GTC nach dem Fahrplan ihrer Roadmaps legen. Und nicht jede Rede von ihm ist bis ins kleinste Detail vorbereitet soviel mal dazu. Manche Dinge müssen auch mal instant gehen. Ich habe selber eine Firma und bin auch nicht auf jeden Sales oder Messe Termin top vorbereitet. Manchmal gibts der Kalender einfach nicht her und dann muss improvisiert werden. Manchmal geht es besser und manchmal schlechter. In jedem Fall geht bei ihm fast immer alles besser als bei der lächerlich blassen Konkurrenz mit Außnahme von Jerry Sanders.

Skysnake
2015-03-17, 22:42:32
Ach aber bei der Ur-Titan war es so ein AWESOME-Feature :rolleyes:

Ich liebe solche Sinneswandel mit neuen Generationen.... :facepalm:

Mancko
2015-03-17, 22:49:26
Fazit:
Gameing->Hui
GPGPU (DP)->Pfui
Hätte mir da mehr kritische Betrachtung gewünscht. Vor allem halt, weil nVidia bei der Titan schon hart darauf rumgeritten ist. Aber so ist hals nVidia/Huang. Man dreht sein Fähnen so, wie es gerade am Besten passt...


Natürlich und das ist eben auch einer unter vielen Faktoren der ein erfolgreiches von einem chronisch erfolglosen Unternehmen unterscheidet. Man muss immer Optimismus ausstrahlen, von sich und seinen Produkten überzeugt und ein guter Sales Mann sein. Wenn man im Zweifel ist, dann ist man trotzdem Optimist und spielt auf Zeit. Beides kann Nvidia hervorragend.


Für den ganzen HPC-Bereich siehts damit dann aber wirklich so düster aus, wie befürchtet. Da wird sich die Branche ziemlich umschauen, wie man plötzlich als Depp vom Dienst dasteht, wenn einen der "nette" Vendor-lock Hersteller im Regen stehen lässt....

Der nette Hersteller kann auch jederzeit noch mal ein nettes kleines Update des GK210 bringen. Ich sage nicht das es so ist aber ich würde es auch nicht ausschließen. Ich habe schon vor 2 Jahren gesagt, dass früher oder später die Produktlinien auseinander laufen werden. Nvidia hat die Finanzen das auch zu machen. AMD nicht.


Jetzt muss nur noch Intel mal KNL launchen, und AMD die FirePros auf Fiji basis zeitnah bringen. Das würde nVidia richtig wehtun. Das wird man so schnell nicht vergessen, selbst wenn die Kooperation mit IBM und Mellanox gut werden sollte. Ein Makel wird haften bleiben.

Du hättest gern das ein Makel haften bleibt sagen wir es mal so :) Ob das so ist wird sich mal erst noch zeigen. Bis jetzt ist einzig und allein AMD unter Druck und zwar an allen Fronten und es haftet der ecklige Makel des ewigen Verlierers an dem Unternehmen.

dildo4u
2015-03-17, 22:52:44
Fazit:
Gameing->Hui
GPGPU (DP)->Pfui

Und das für 1k$/€. Da fragt man sich schon, wie man das eigentlich rechtfertigen will.
Rechnet sich wenn man Benches gegen ein 980 SLI sieht,was sich derbe spike's in den Frametimes erlaubt weil der Speicher ausgeht.

Einfach rechts auf die Rote Linie achten mit Abstand am saubersten.
https://youtu.be/CpmuXd52Ce0

Beides würde 1000€ kosten.

StefanV
2015-03-17, 23:03:40
Ich versteh nicht, warum hier nicht generell 2 Einheiten zu einer 'DP Einheit' zusammen geschaltet werden, wie es bei anderen Dingen der Fall ist...

Unicous
2015-03-17, 23:03:41
Ne kein Fanboy sondern jemand der Respekt vor der Leistung speziell von dieser Person hat.



Das sehe ich anders. Ich habe schon viele Auftritte von ihm gesehen und da gibt es auch richtig gute. War das hier einer der besten? Eher nicht. Liegt aber auch ein wenig an der Target Audience und am Thema. So viel gab es nicht zu berichten dieses mal. Nvidia wird sich kaum die GTC nach dem Fahrplan ihrer Roadmaps legen. Und nicht jede Rede von ihm ist bis ins kleinste Detail vorbereitet soviel mal dazu. Manche Dinge müssen auch mal instant gehen. Ich habe selber eine Firma und bin auch nicht auf jeden Sales oder Messe Termin top vorbereitet. Manchmal gibts der Kalender einfach nicht her und dann muss improvisiert werden. Manchmal geht es besser und manchmal schlechter. In jedem Fall geht bei ihm fast immer alles besser als bei der lächerlich blassen Konkurrenz mit Außnahme von Jerry Sanders.

Blabla. Respekt, blabla. Der Typ ist Vorstand (und Mitgründer) eines Multi-Milliarden-Dollar-Unternehmens und wäre gerne so ein Guru wie Steve Jobs es war. Dass es bei AMD nur Hemden als CEOs gab die die Fresse nicht aufbekommen haben oder im Gegenteil nach außen hin nur Scheiße labern ist doch völlig nebensächlich (und die Lederjacke hilft da auch nur ansatzweise ein schärferes Profil aufzubauen). Wenn man über 20 Jahre das Unternehmen führt muss man immer up to date sein, jede einzelne Präsentation zu 100% meistern können und dahinterstehen können. Das macht er aber nicht.
Dass du ihm diese "kleinen Fehler" verzeihst, ehrt dich ja sehr, aber ist mE sehr traumtänzerisch.

Das Fachpublikum oder die target audience sind zu einem großen Teil auch Fach-Journalisten, die darüber berichten und wenn die sich langweilen ist das kein gutes Zeichen. Und wenn man dann auch noch den Brei vom letzten Jahr aufbereitet (falls es keiner mitbekommen hat, letztes Jahr hieß das buzz word noch machine learning und man hat 2015 eigentlich den gleichen Scheiß vorgestellt, nur heißt es jetzt Deep Learning und ist eigentlich "nur" ein Unterbegriff).

Das Relativieren macht es daher nicht besser. Wenn er so wie Steve Jobs und Johnny Ive sein will muss er jedes Mal 100% geben und nicht hier und da mal.

Schnitzl
2015-03-19, 21:23:54
hallo,
ich weiss nicht, ob das hier richtig ist - aber rein spekulativ:
Ist es möglich dass eine TitanX Salvage (z.B. GTX980Ti) 700% 3DCenter Performance erreicht?

Die TitanX ist mit 750% eingestuft.

AnarchX
2015-03-19, 21:41:09
hallo,
ich weiss nicht, ob das hier richtig ist - aber rein spekulativ:
Ist es möglich dass eine TitanX Salvage (z.B. GTX980Ti) 700% 3DCenter Performance erreicht?

Die TitanX ist mit 750% eingestuft.

Bei 21 spekulierten SMM müsste da höher geboostet werden als bei der X.