PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6


Seiten : 1 2 3 [4] 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48

dildo4u
2018-05-08, 06:55:55
Da wurden einfach die Clocks der HPC Karten übernommen.Der Chip ist aber deutlich kleiner.

Edgecrusher86
2018-05-08, 12:56:54
Niemals bekommt eine "1180" weniger als 1607 MHz Baseclock, eher ein wenig mehr mehr. Der typische NV Boost dürfte auch bei wenigstens 175x MHz liegen. Würde dann um die 12,5 TF/s FP32 entsprechen.

14 Gbps G6 dürfte auch das Minimum zum Launch für eine (Performance @) Highendkarte darstellen. Wären 448 GB/s in diesem Fall. Die erste Turing TITAN würde dann dementsprechend bei 672 GB/s liegen. Aber das würde nicht zu der Aussage von SKHynix mit der 2018er Highendkarte an einem 384-bit SI samt 768 GB/s, also 16 Gbps passen. Ich kann mir schwer vorstellen dass es sich dort zum Beispiel um VEGA 12 handeln soll. Navi ist auch noch in weiter Ferne.

Die 104 Top SKU hatte auch immer den identisch getakteten VRAM wie die erste TITAN der jeweiligen Serie, das muss auch bedacht werden.

Mit 12 Gbps kann man Niemanden beeindrucken, so etwas könnte höchstens bei einer "1170" Verwendung finden. Insofern bleibt das dort bei TPU eine spekulative Placeholder-Page mit Quadro GV100 Taktraten wie unten zu lesen ist.

Der_Korken
2018-05-08, 13:03:19
Niemals bekommt eine "1180" weniger als 1607 MHz Baseclock, eher ein wenig mehr mehr. Der typische NV Boost dürfte auch bei wenigstens 175x MHz liegen. Würde dann um die 12,5 TF/s FP32 entsprechen.

Ein Grund für einen niedrigen Takt könnte höchstens sein, dass Nvidia partout die bekannten TDP-Grenze von 180W für das xx80er Modell einhalten will. Wenn GT104 40% mehr Recheneinheiten hat, muss man allein dieses Upgrade erstmal in das vorhandene TDP-Korsett zwängen - und zwar durch Architekturverbesserungen, Fertigung soll ja mehr oder weniger gleich bleiben. Für mehr Takt bleibt da vielleicht kein Spielraum. Da können sich die Partner austoben.

dildo4u
2018-05-08, 13:15:01
Dort steht ja das sie sich nicht an 180 TDP hält und 6 und 8 Pin hat.

Mangel76
2018-05-08, 13:35:34
Dort steht ja das sie sich nicht an 180 TDP hält und 6 und 8 Pin hat.

Diskutiert ihr jetzt echt die dort angegebenen Werte? Was ist an
This is a placeholder page. Details will be added as they become available.
nicht zu verstehen? Das ist ein reiner Platzhalter. "GV104" :freak:

Blediator16
2018-05-08, 14:55:19
Absolut jeden release könnte man meinen das wäre der erste release der Leute, den sie mitbekommen inkl. dieser placeholder Tabellen von der Seite :D

horn 12
2018-05-09, 19:44:28
https://videocardz.com/newz/nvidia-teases-ultimate-gaming-experience-at-gtc-taiwan

Hübie
2018-05-10, 09:41:26
Ich habe den ersten Beitrag einmal gepflegt. Habt ihr noch Anmerkungen? Raus damit! :D

AffenJack
2018-05-10, 09:56:55
Ich habe den ersten Beitrag einmal gepflegt. Habt ihr noch Anmerkungen? Raus damit! :D

Ich halte alle deine Hardwarespekulationen für teilweise falsch. GT104 Variante 3 dürfte in meinen Augen am nächsten an der Wahrheit dran sein, aber es werden eher 4 rasterizer und nicht 7. Damit hat man die gleiche Konfiguration wie Volta, was am wahrscheinlichsten ist. Maxwell hat 4SM per Rasterizer, Pascal hat 5 SMs per Rasterizer, Volta 7 SMs (wenn man 128SP zählt). Da der Content heutzutage immer shaderlastiger wird, macht es keinen Sinn die Rasterizerleistung so massiv zu steigern. Turing wird nicht plötzlich auf 4 runter gehen.

HOT
2018-05-10, 10:14:34
Die ALUs könnten FP16 für RTX können. Reine FP32 ALUs werden das mMn nicht mehr sein.

Thunder99
2018-05-10, 10:21:07
Das Verhältnis zwischen den Einheiten sollte aber passen. Ansonsten gibt es einen R200 Derivate bzw besteht die Gefahr dazu

Hübie
2018-05-10, 11:51:53
Ich halte alle deine Hardwarespekulationen für teilweise falsch. GT104 Variante 3 dürfte in meinen Augen am nächsten an der Wahrheit dran sein, aber es werden eher 4 rasterizer und nicht 7. Damit hat man die gleiche Konfiguration wie Volta, was am wahrscheinlichsten ist. Maxwell hat 4SM per Rasterizer, Pascal hat 5 SMs per Rasterizer, Volta 7 SMs (wenn man 128SP zählt). Da der Content heutzutage immer shaderlastiger wird, macht es keinen Sinn die Rasterizerleistung so massiv zu steigern. Turing wird nicht plötzlich auf 4 runter gehen.

Kann ich noch mit einbauen. Von den Spekulationen muss zwangsläufig der Großteil falsch sein, sonst wäre es ja Präzision statt Spekulation. :D
Mein Gedanke war, dass man mit Maxwell und Pascal weniger SPs für gleich viel oder mehr Performance benötigte (Auslastung/Takt). Diese Möglichkeit will ich ja nicht kategorisch ausschließen. Wer weiß denn wie viel die aktuellen Chips vom theoretischen Maximum der TFLOPs tatsächlich ausreizen (im Mittel der Spiele halt, kein cherry picking).
Weiterer Gedanke: Mehr 4k-content = mehr vertices / tesselation expands. Daher mehr rasterizing (Granularität ums plump zu sagen).

Später schau ich mir das an. Jetzt erst mal etwas fleißig sein und dann Wetter genießen.

Allen Vätern einen schönen Vatertag. :smile:

BoMbY
2018-05-10, 13:14:19
Aus China:

https://i.imgur.com/SbdcWCgl.jpg

https://i.imgur.com/J51doGU.jpg

https://i.imgur.com/Tz8Idfs.png

https://i.imgur.com/yb7x5t2.jpg

https://i.imgur.com/YZkzQ1hl.jpg

Keine Ahnung ob Fake oder nicht. China halt ...

Von hier:

http://tieba.baidu.com/p/5689594451
https://item.taobao.com/item.htm?id=569133208642

Gefunden über Twitter:

https://twitter.com/momomo_us/status/993839496637497344

=Floi=
2018-05-10, 13:55:07
10700 SPs :facepalm:

Troyan
2018-05-10, 13:56:50
Fake. Aber die 1337 GTexel sind cool. :cool:

Tesseract
2018-05-10, 14:04:34
die tabelle hört sich sehr plausibel an, der gpu-z shot ist natürlich völliger unsinn.

Hübie
2018-05-10, 14:24:24
Du meinst die mittlere Tabelle? Ja dachte ich mir auch. Hab das mal so in Beitrag #1 übernommen. :smile: Zumindest nehmen Gerüchte damit etwas Fahrt auf. Kann ja so verkehrt nicht sein.

fulgore1101
2018-05-10, 16:27:08
Gamestar hat von 2 Karten Herstellern erfahren, dass die neuen Nvidia Karten wahrscheinlich im August kommen: https://www.gamestar.de/artikel/geforce-gtx-1180-hinweise-auf-release-verwirrung-um-vermeintliche-daten,3329470.html

Daredevil
2018-05-10, 16:34:41
Das mit den Bildern hatten wir doch scho einmal.

Das Bild könnte aber auch haargenau hier raus stammen.
https://cdn.wccftech.com/wp-content/uploads/2018/04/NVIDIA-GeForce-1180.jpg
https://www.hartware.de/wp-content/uploads/2017/03/GTX-1080-Ti.jpeg

Aber wenn Nvidia natürlich das gleiche 3D Modell nimmt, dann habe ich nichts gesagt. :>

fulgore1101
2018-05-11, 01:04:58
Ich bin gespannt wie die Preise jetzt in kurzer Zeit drastisch fallen wenn im August die neuen Nvidia Karten kommen. :)

Leonidas
2018-05-11, 10:19:51
Leo hatte mal irgendwas von 700 mm^2 als das absolut mögliche Maximum angegeben...



Für einen Belichtungsvorgang. Beim GV100 nimmt man einfach 2 Belichtungsvorgänge für die dicken 815mm². Aber das dürfte es im Consumer-Segment sicher nicht geben.

AffenJack
2018-05-11, 10:23:35
Für einen Belichtungsvorgang. Beim GV100 nimmt man einfach 2 Belichtungsvorgänge für die dicken 815mm². Aber das dürfte es im Consumer-Segment sicher nicht geben.

Nein, nur für den Interposer nimmt man 2 Belichtungen vor. GV100 ist wohl genau am reticle limit von tsmc. Das wurde wohl über die letzten Jahre erhöht.

Adam D.
2018-05-11, 12:00:54
Ich bin gespannt wie die Preise jetzt in kurzer Zeit drastisch fallen wenn im August die neuen Nvidia Karten kommen. :)
Ich bin mir nicht so sicher, ob sich da so viel tun wird, ehrlich gesagt. Ich schätze mal, dass die Turing-FE bei 699€ (1180) bzw. 599€ (1170) liegen werden, dann senkt man die Preise von Pascal etwas und steht immer noch ganz gut da (1080Ti mal ausgenommen, die mal wieder einen schweren Stand haben wird).

Our sources were unable to confirm any new GeForce graphics card at Computex or GTC, only new custom models of existing SKUs.
Wir haben ja noch nicht genug Customs von Pascal, wir brauchen zwei Jahre nach Release noch mehr. Unglaublich, wie die eine 314mm2-Karte ausschlachten (können) :freak:

Hübie
2018-05-11, 13:53:50
Als Pascal kam, gingen einige 980 Ti für unter 300,-€ im Hardwareluxx weg. :D Ich selber muss aber auf den nächsten big chip setzen, da GP102 schnell den Status erreicht den meine 980 Ti jetzt nach drei Jahren hat...

PHuV
2018-05-11, 14:10:44
Ich bin mir nicht so sicher, ob sich da so viel tun wird, ehrlich gesagt. Ich schätze mal, dass die Turing-FE bei 699€ (1180) bzw. 599€ (1170) liegen werden
Und ich sage, unter 799 € wird das nix.

Adam D.
2018-05-11, 14:35:13
Und ich sage, unter 799 € wird das nix.
Und wer soll die Karten dann kaufen?

Kriton
2018-05-11, 14:44:28
Dieselben Lemminge wie die letzten Male...:weg:

Godmode
2018-05-11, 15:06:41
Wenn beim Mining jetzt vermehrt FPGAs und ASICs eingesetzt werden, könnte sich das positiv auf die Preise auswirken.

Daredevil
2018-05-11, 15:09:35
Und wer soll die Karten dann kaufen?
Glaubst du also, dass wenn aktuell ne GTX1080 Karte für 550-600€ erfolgreich den Ladentisch wechselt, eine Nachfolger Generation mit 20% mehr Performance für 500€, also den "normalen" 1080 Preis angeboten wird, oder was? Das lässt sich Nvidia doch nicht nehmen... vor allen in der Situation, wo man aktuell quasi kaum Konkurrenz hat.
Einzig und allein ein Refresh wäre m.M. für den gleichen Preis +/- sinnvoll, da man ja schon beim herstellen unter Umständen kosten gespart hat.

Wir sollte mal ne Umfrage in nem Thread machen, sonst dreht sich hier der Preis immer hin und her. ^^

Adam D.
2018-05-11, 15:21:27
Glaubst du also, dass wenn aktuell ne GTX1080 Karte für 550-600€ erfolgreich den Ladentisch wechselt, eine Nachfolger Generation mit 20% mehr Performance für 500€, also den "normalen" 1080 Preis angeboten wird, oder was? Das lässt sich Nvidia doch nicht nehmen... vor allen in der Situation, wo man aktuell quasi kaum Konkurrenz hat.
Einzig und allein ein Refresh wäre m.M. für den gleichen Preis +/- sinnvoll, da man ja schon beim herstellen unter Umständen kosten gespart hat.

Wir sollte mal ne Umfrage in nem Thread machen, sonst dreht sich hier der Preis immer hin und her. ^^
Davor war es doch auch nicht so, dass mit jedem Refresh/jeder neuen Generation einfach gesagt wurde: Bringt 50% Mehrperformance, verlange ich 50% mehr. So läuft das doch auf Dauer nicht. Die Karten werden bestimmt nicht verschenkt, aber wenn die 1180 bei 799€ starten soll, dann kostet die Ti 999€ - da kann es noch so viele Lemminge geben, irgendwann ist doch der Punkt erreicht, wo die Dinger nicht mehr verkauft werden.

PS: Ich rede hier aus Gamer-Sicht, das angebliche Kerngeschäft von Nvidia.

PS2: Wenn ich sehe, wie Nvidia jetzt ihre Marketing-Kampagne startet, dann ist doch klar, dass die auf Massen von GPUs sitzen, die nicht abgesetzt werden.

AffenJack
2018-05-11, 15:37:04
Glaubst du also, dass wenn aktuell ne GTX1080 Karte für 550-600€ erfolgreich den Ladentisch wechselt, eine Nachfolger Generation mit 20% mehr Performance für 500€, also den "normalen" 1080 Preis angeboten wird, oder was? Das lässt sich Nvidia doch nicht nehmen... vor allen in der Situation, wo man aktuell quasi kaum Konkurrenz hat.
Einzig und allein ein Refresh wäre m.M. für den gleichen Preis +/- sinnvoll, da man ja schon beim herstellen unter Umständen kosten gespart hat.

Wir sollte mal ne Umfrage in nem Thread machen, sonst dreht sich hier der Preis immer hin und her. ^^

Das gleiche Gerede gibts doch jede Gen bei Nv, langsam wirds alt. Ne 980TI wird niemals 650$ kosten, 1080Ti wird mindestens 899$ usw. Dabei ist Nvs Preisstrategie doch nun echt nicht schwer zu durchschauen. Man erhöht jede Gen langsam den Preis in 50$ Schritten. GTX980 war zu Release 550$, GTX1080 599/699, 1180 mit hoher Wahrscheinlichkeit im 649$/749$. Dadurch, dass der Preis jede Gen leicht steigt, springen die alten Käufer nicht ab, weil sie denken, ach die 50$ sind auch egal. Ne starke Preiserhöhung würde dagegen die Kundschaft deutlich verringern.

Daredevil
2018-05-11, 15:37:39
Früher war aber eben anders.
Heute kauft eben nicht nur ein Gamer so eine Karte, sondern eben auch jemand, der sie für andere Zwecke nutzt. Für den Zweck zählt Preis/Stromverbrauch/Leistung und wenn man eine 20% schnellere 1080 mit DDR6 für "nur" 599€ raushaut, dann wirst du mit Sicherheit dieses Jahr keine dieser Karten mehr bekommen und wenn, dann wird der Preis auf 800€+ ansteigen.

Denn diese Karte würde vermutlich nicht nur bei Nvidias Mining Kompetenzen Punkten, sondern würde ebenfalls AMD Vega für den Bereich komplett obsolet machen.
Es sei denn, Nvidia überlegt sich gut, wie sie diesen Durst stillen wollen. Denn der Durst killt die Karten Preise, egal ob Pascal oder Turing.

Wenn so eine Karte wie oben beschrieben rauskommen würde, würde selbst ich mir bei Release locker 10 Karten kaufen und mich schnell von meinen vier 1080ti Karten trennen.
Erstmal um meinen eigenen Bedarf zu stillen und dann 4 Karten in 4-5 Monaten für einen großen Aufpreis weiter zu verkaufen.
Hier gehts nicht mehr nur um romantisch schöne FPS und 4k Gaming, Grafikkarten sind ein großes Business geworden und zwar nicht nur für groß, sondern auch für klein.

Aber es wäre natürlich ziemlich toll, wenn Nvidia einfach unmenschlich viel produziert und die den Markt mit den Karten regelrecht zuscheißen. :redface:
Oder sie splitten diese Segmente auf, indem sie auch für den kleinen Mann Mining Karten produzieren und die Anreize schaffen.

@AffenJack
Dieses Preisgefüge wie es immer war, ist aktuell aber nicht anzubringen.
Eine 980ti ist heute quasi genauso viel Wert wie eine GTX1070, obwohl gleich schnell und Last Gen.
Das war vor dem Mining Boom noch komplett anders, da hat eine GTX1070 ~400€ gekostet und eine gebrauchte 980ti bekam man für unter 300€.

Vielleicht bietet Nvidia die Karten bei sich ja zu Normalpreisen an, dann werden sie aber dieses Jahr nicht mehr zu bekommen sein und sind dauer ausverkauft.
Die Händler werden dann nun einmal wieder draufschlagen.

=Floi=
2018-05-11, 15:48:49
50$ wurden die karten pro generation im schnitt teurer. Das hatten wir schon vor 20 seiten.
ehrlich gesagt sind die 50$ das geringere übel, wenn es die karten auch gibt und wenn sie abliefern. Wenn die preise wieder absurd steigen, dann sind solche preisempfehlungen eh egal.


Ne starke Preiserhöhung würde dagegen die Kundschaft deutlich verringern.

günstiger werden die chips/karten sicherlich auch nicht. :rolleyes:

Emil_i_Lönneberga
2018-05-11, 16:28:34
In der Releasewoche wird das Referenzdesign einmal pro Versandadresse zur UVP auf nvidia.de/graphics-cards/geforce/turingl/buy angeboten. Wer unbedingt eine Karte abgreifen möchte, greift hier zu und baut die Karte auf einen Wasserkühler/Morpheus/Arctic Accelero um. Wer unbedingt eine Turing möchte, bekommt also eine.

https://geizhals.de/raijintek-morpheus-ii-0r100006-a1683049.html?hloc=at&hloc=de

https://geizhals.de/arctic-accelero-xtreme-iv-dcaco-v800001-gba01-a1070346.html?hloc=at&hloc=de

https://geizhals.de/arctic-accelero-xtreme-iii-dcaco-v15g400-bl-a769176.html?hloc=at&hloc=de

https://geizhals.de/arctic-accelero-twin-turbo-iii-dcaco-v820001-gba01-a1091629.html?hloc=at&hloc=de

https://geizhals.de/arctic-accelero-twin-turbo-ii-dcaco-v540000-bl-a654532.html?hloc=at&hloc=de

Danach gehen die Preise auf dem freien Markt dank Mining durch die Decke. Wer Wochen danach auf günstige Customdesigns wartet, hat halt Pech gehabt.

S'Lebe isch koin Ponyhof.

Daredevil
2018-05-11, 16:30:56
Bei Vega hat ja auch nicht jeder für 400/500€ zugegriffen und später dann rumgeheult. Geiz ist halt geil. :D

Wenn Nvidia aber so handelt, wäre das ja ganz fein.

Fragman
2018-05-11, 17:01:17
amd kann das nur recht sein.
die hohen vega preise aufgrund von fehlentscheidungen kann man weiter fahren, vielleicht sogar als fe2.0 fuer gamer. preislich wirds im gleichen bereich liegen. die fans von beiden haben was sie wollen und alle sind gluecklich, Ende... :D

Leonidas
2018-05-12, 06:42:57
Nein, nur für den Interposer nimmt man 2 Belichtungen vor. GV100 ist wohl genau am reticle limit von tsmc. Das wurde wohl über die letzten Jahre erhöht.


Danke für die Korrektur.

Inhaltlich: Wahnsinn, das TSMC nun sogar bis 815mm² kann ...

PS: Für GT102 sind viel mehr als 600mm² dennoch kaum wirtschaftlich. NV will weiterhin bestmögliche Gewinnzahlen vorweisen ...

=Floi=
2018-05-12, 09:32:10
600mm2 ist bei der masse und zu dem preis (auch wenn es nicht wenig geld ist) eh sportlich, wenn man sich da bei der cpu konkurrenz umschaut.

mich würde interessieren, ob es noch andere chips von TSMC gibt, welche ~800mm2 besitzen und ob diese der grund für die anhebung des limits waren. Das macht man ja nicht zum spass und irgendwer musste ja der initiator dafür sein.
Das thema fasziniert mich nämlich auch sehr.

Fliwatut
2018-05-13, 18:59:28
Bei Vega hat ja auch nicht jeder für 400/500€ zugegriffen und später dann rumgeheult.
Zu dem Preis waren aber kaum Karten verfügbar, ich hab leider keine bekommen.

Thunder99
2018-05-13, 19:10:17
600mm2 ist bei der masse und zu dem preis (auch wenn es nicht wenig geld ist) eh sportlich, wenn man sich da bei der cpu konkurrenz umschaut.

mich würde interessieren, ob es noch andere chips von TSMC gibt, welche ~800mm2 besitzen und ob diese der grund für die anhebung des limits waren. Das macht man ja nicht zum spass und irgendwer musste ja der initiator dafür sein.
Das thema fasziniert mich nämlich auch sehr.
Vielleicht hat es TSMC auch interessiert und mit Nvidia einen Abnehmer gefunden :).

Hübie
2018-05-14, 11:51:25
Iirc gab es schon FPGAs mit dieser Größe. Intels Altera Stratix 10 sind auch irgendwas um die 650 mm² gewesen wenn ich mich recht entsinne. Über 800 machbare Quadratmillimeter hätte ich aber selbst nicht gedacht. Das ist wirklich "bleeding edge". ;D

Setsul
2018-05-15, 17:19:16
Stratix 10 ist aber Intel 14+. Intel hatte noch nie Problemen mit großen Dies. 700mm² sind kein Problem, Knight's corner war sogar noch größer wenn ich mich richtig erinnere. Bei IBM war das ähnlich.

Soweit ich weiß war das reticle limit eigentlich nie das Problem. 25mmx50mm oder irgendwas in der Größenordnung. Aber Back End sprich Packaging usw. ging nur bis 25x25. Bei Fiji ging sogar noch der Interposer gerade so mit einer Belichtung.
Aber das schöne ist ja für HBM und Interposer ist das Back End sowieso völlig anders, also sobald man 2 Belichtungen für den Interposer macht kann man den Die ohne Probleme kräftig aufblasen.
Das mit den 2 Belichtungen muss natürlich erstmal funktionieren.

Generell wenn man sowieso Sonderwünsche beim Packaging hat oder bereit ist dafür zu zahlen kann man vieles machen. Oracle und Fujitsu haben da auch schon recht große Sachen bei TSMC fertigen lassen. Der SPARC64 XII hat knapp 800mm² oder so und ein paar von den Mx sind auch deutlich über 625 (25x25).

Tesseract
2018-05-15, 18:46:42
ganz knapp unter 700mm² hatte intel beim itanium sogar schon 2010.

StefanV
2018-05-15, 21:09:41
ganz knapp unter 700mm² hatte intel beim itanium sogar schon 2010.
Beckton nicht vergessen -> 8 Core Nehalem für LGA1567.

https://en.wikipedia.org/wiki/Xeon#6500/7500-series_"Beckton"

vinacis_vivids
2018-05-15, 22:20:13
GloFo kann auch ~700mm² mit 14nm:
https://en.wikipedia.org/wiki/IBM_z14_(microprocessor)

Ist eine Frage der Rentabilität.

Hübie
2018-05-16, 07:14:49
Volta dürfte mit Release der DGX-Station beginnend rentabel sein. Nicht die eigentliche Größe, sondern Packdichte, Verbrauch (Leakage) und erreichbare Taktraten beeindrucken bei GV100 (mich zumindest). Ich will gar nicht die Defektrate wissen. Das Ding wird sicher 5-10% Redundanz haben (kumuliert, also 1,05% ALUs, 1% Caches, 1% Register etc). Ich denke sonst ist das gar nicht tragbar.

Igor TH
2018-05-16, 20:20:51
So, mal ein kleiner Spekulatius von mir:
Nvidia GeForce GTX 2080, 1180 oder was wir über Turing (nicht) wissen (http://www.tomshardware.de/nvidia-gtx-2080-1180-turing,news-259297.html)

Und wir üben bitte wieder zwischen den Zeilen zu lesen ;)

Fliwatut
2018-05-16, 21:58:49
Und wann kommt die Titan Xt? :biggrin:

N0rG
2018-05-16, 22:28:13
Na da bin ich mal gespannt ob die neue Karte die 1080ti bei jeweils maximalem OC überholt.

Sunrise
2018-05-16, 23:06:40
So, mal ein kleiner Spekulatius von mir:
Nvidia GeForce GTX 2080, 1180 oder was wir über Turing (nicht) wissen (http://www.tomshardware.de/nvidia-gtx-2080-1180-turing,news-259297.html)

Und wir üben bitte wieder zwischen den Zeilen zu lesen ;)
Sehr schöne Zusammenfassung mit aktuellen Fakten ohne viel Blabla, hoffentlich bleibst du uns noch lange erhalten!

=Floi=
2018-05-16, 23:14:28
konnte die 1070er und 1080er auch.
Architekturverbesserungen schlagen bei solchen vergleichen immer voll durch.


GloFo kann auch ~700mm² mit 14nm:
https://en.wikipedia.org/wiki/IBM_z14_(microprocessor)

Ist eine Frage der Rentabilität.


toller post :top:



So, mal ein kleiner Spekulatius von mir:
Nvidia GeForce GTX 2080, 1180 oder was wir über Turing (nicht) wissen (http://www.tomshardware.de/nvidia-gtx-2080-1180-turing,news-259297.html)

Und wir üben bitte wieder zwischen den Zeilen zu lesen ;)

so augenöffnend fand ich den artikel jetzt nicht. :rolleyes:
Hätte eher technische vermutungen oder etwas anderes erwartet. Für den laien imho schon zu komplex.

Linmoum
2018-05-16, 23:19:52
Pascal hat aber auch massiv beim Takt zugelegt. Fraglich, ob mit Turing ähnliches der Fall sein wird.

Hübie
2018-05-17, 00:13:30
Daraus schlussfolgere ich, dass Turing jetzt langsam anlaufen muss, wenn man August einhalten will. September dann customs. Klingt alles schlüssig und indirekt klingt es nach 3584 SPs für die top tier 104-SKU. Analog dazu müsste man dann bei ~4600 und einem gesunden Taktplus die überladene GV100-SKU abribben.

Rampage 2
2018-05-17, 04:20:13
Na da bin ich mal gespannt ob die neue Karte die 1080ti bei jeweils maximalem OC überholt.

Etwas höherer OC-Takt (~ 2.2 GHz) und 10-20% höhere IPC bei gleicher Anzahl von Shadern (3584 SPs) würden ausreichen, um die TXp um 15-20% zu überholen:)

R2

Edit: Unklar ist, ob die 2080 gleich 16GB oder doch nur 12GB (8x 1,5GB sind bei GDDR5X/GDDR6 möglich) VRAM haben wird - man will ja bestimmt auch 1080Ti-Besitzer erneut abmelken; und um diese zu einem Upgrade zu motivieren, ist mehr VRAM genauso wichtig (oder gar wichtiger) wie höhere Leistung...

vinacis_vivids
2018-05-17, 04:25:55
Pascal hat gegenüber Maxwell 0% IPC zugelegt. Woher sollen plötzlich 10-20% herkommen?

Rampage 2
2018-05-17, 04:44:25
Pascal hat gegenüber Maxwell 0% IPC zugelegt. Woher sollen plötzlich 10-20% herkommen?

1.) Das glaube ich nicht. AFAIR waren es bei Pascal auch 10-20% höhere Effizienz pro Recheneinheit. Wenigstens ein paar Prozent mehr als bei Maxwell werden es garantiert sein:P

2.) Reden wir hier von Turing (ursprünglich wurde ja Volta als NextGen-Architektur für Gaming angenommen - und da waren größere Architekturänderungen schon immer Diskussionsgegenstand). Nachdem Pascal ja eher "Maxwell on Steroids" war, sollte bei Turing wieder die Zeit reif sein für größere Architektursprünge - irgendwo muss Nvidia die Mehrleistung ja herbekommen, zumal sie jetzt mit Turing erneut eine Generation mit 16nm++ ("12nm" ist ja nur ein optimierter 16FF+ Prozess) für die nächsten 1-2 Jahre aussitzen müssen; also nicht allzu weit in die Breite gehen können mit der Einheitenanzahl...

R2

Hübie
2018-05-17, 07:55:04
Pascal ist pro Takt grundlegend genauso schnell wie Maxwell. Da hat er schon recht. Es gibt sicher ein paar spezielle Fälle wo Pascal schneller ist, aber Kirschen herauspicken wollen wir nicht.

Adam D.
2018-05-17, 08:06:09
Wenn man Igor folgt, ist ja schon anzunehmen, dass alleine die kolportierte 1170 bei über 500$ UVP startet (typische 50$ Erhöhung von Nvidia + massive Kostensteigerung durch GDDR6). Ich bin jetzt einfach mal so naiv und glaube, dass man da leistungstechnisch schon einiges zeigen muss, um irgendjemanden zum Kauf ermutigen zu können.

HOT
2018-05-17, 09:09:55
Bei Turing würd ich mal von gesteigerter Leistungsaufnahme ausgehen, also mindestens 200W für GT104 und ~260W für GT102 für die Founders Editions. Man wird einfach sicher stellen wollen, dass das Teil deutlich schneller ist als Pascal.

Dural
2018-05-17, 09:13:21
Nein, die 250Watt TDP sind seit Jahren gesetzt.

Und überhaupt, NV wird diese Jahr Null 0,0 Konkurrenz haben, wieso sollten sie nur eine Sekunde daran denken das PT rauf zusetzten? Den eine höhere PT kostet in der Herstellung automatisch auch immer mehr!

BlacKi
2018-05-17, 10:07:33
Pascal ist pro Takt grundlegend genauso schnell wie Maxwell. Da hat er schon recht. Es gibt sicher ein paar spezielle Fälle wo Pascal schneller ist, aber Kirschen herauspicken wollen wir nicht.
da sieht man aber auch das die IPC kein kritischer faktor sein muss um die performance zu bewerten. die architektur wird schon eine ganz anders aufgebaut sein, sonst wären die taktraten garnicht möglich. die sind nicht nur dem 16nm prozess zu verdanken wie vl manche meinen.

Nein, die 250Watt TDP sind seit Jahren gesetzt.

Und überhaupt, NV wird diese Jahr Null 0,0 Konkurrenz haben, wieso sollten sie nur eine Sekunde daran denken das PT rauf zusetzten? Den eine höhere PT kostet in der Herstellung automatisch auch immer mehr!
wenn man alles über den haufen schmeißt und garkeinen gt102 mehr plant, dann könnte ich mir vorstellen nur einen gt104 mit zuerst geringerer tdp (165w)und dann im refresh mit gesteigerter tdp (250w) und ordentlich mehr takt erneut zu releasen. das wäre billiger als gt102 aufzulegen, denn man hat ja noch Ampere für die profis.

ist aber alles spekulatius, erwarte ich auch so nicht, aber vieles wäre möglich dank aufspaltung zwischen turing und ampere.

AffenJack
2018-05-17, 11:07:42
Wenn man Igor folgt, ist ja schon anzunehmen, dass alleine die kolportierte 1170 bei über 500$ UVP startet (typische 50$ Erhöhung von Nvidia + massive Kostensteigerung durch GDDR6). Ich bin jetzt einfach mal so naiv und glaube, dass man da leistungstechnisch schon einiges zeigen muss, um irgendjemanden zum Kauf ermutigen zu können.

Bei 8 Gb wird die Kostensteigerung schon nicht so groß sein gegenüber GDDR5X. Aber für die 1180 würde ich 16 Gb erwarten. Das wird teuer. Gamersnexus hatte grobe Preisangaben für den Ram und da waren 8GB schon bei 80$. Die Verdopplung davon wird beim Endkundenpreis bei über 100$ Mehrkosten enden. Ich kann mir vorstellen, dass wir deshalb ne 1180 mit 8GB und 16GB sehen werden. 8Gb für 650$ und 16Gb für 750$.

maximus_hertus
2018-05-17, 11:13:58
Aktuell kosten 16 GB GDDR5 rund 4-5(!!) mal so viel wie 8 GB zum Pascal Launch. (Rund 200 USD zu damals rund 40-50 USD).

Ich halte daher 16 GB für unter 999 USD für utopisch.

BlacKi
2018-05-17, 11:29:28
Aktuell kosten 16 GB GDDR5 rund 4-5(!!) mal so viel wie 8 GB zum Pascal Launch. (Rund 200 USD zu damals rund 40-50 USD).

Ich halte daher 16 GB für unter 999 USD für utopisch.
nv ist groß abnehmer und hat andere preise wie kleiner firmen da draussen. deshalb halte ich preisvergleiche für nicht aussagekräftig.

ich glaube sogar, das diese festen preise der großabnehmer der grund dafür sind das die kleinen hersteller mehr zahlen müssen. beispiel:

früher hatten sich die großabnehmer 60% der produktion abgesichert mit verträgen, das heißt 40% für den freien verkauf, viel zu viel, deshalb gehen die preise runter.

jetzt sichern sich die großen firmen 95% der produktion, ergo ist alles was für die kleinen übrig bleibt viel zu wenig und die preise gehen durch die decke.

dabei zahlen die mit den festen abnahme kapazitäten die niedrigsten preise.
so ungefähr stelle ich mir das vor.

Bucklew
2018-05-17, 11:32:35
Finde ja spannend, dass bei NVIDIA - trotz mehr als zwei Jahren Entwicklungszeit - im Vorfeld immer nie ein Fortschritt angenommen wird. Dabei ist der Vorsprung von NVIDIA heute größer denn je. Was gar nicht sein könnte, wenn Sie keine Fortschritte machen würden.

NVIDIA wird, wenn man sich mal die letzten Chipgenerationen anschaut, inzwischen mehrere Entwicklungs"teams" für die Chips haben, die sich auf die verschiedenen Bereiche der Entwicklung konzentrieren. Die einen verbessern die Architektur (Maxwell), die anderen optimieren die vorhandene Architektur auf den Fertigungsprozeß (Pascal).

Nachdem nun das zweite "Team" Pascal aus Maxwell weiter entwickelt hat und da zu einem Großteil aus einer Optimierung des Chips auf dem physikalischen Level viel Leistung aus einer massiven Verbesserung der Perf/Watt raus geholt hat (sonst wären die Taktraten von Pascal gar nicht möglich gewesen, geschweige denn bei dem PowerBudget!), wird sich nun für den Nachfolger - egal ob Ampere oder Turing - nun wohl das "erste" Team wieder dran gemacht haben und nun die Architektur massiv verbessert haben, bei nur marginalen Änderungen auf der physikalischen Chipebene.

Dass da von gewissen Trollenr Seite auf der IPC rumgeritten wird, wird erstmal schon gar nicht Pascal gerechnet und sagt auch gar nichts über den Pascal-Nachfolger aus.

Fakt ist, dass NVIDIA sehr gute Karten in der Hand hat:
Vorteile in Sachen Chipfläche, aktuell muss die Konkurrenz da mehr als 50% mehr Chipfläche für die gleiche Perf aufbieten - sie können locker 20, 30 oder gar mehr Prozent größer werden, ohne einen Wettbewerbsnachteil zu erlangen
Vorteile in Sachen Perf/Watt, hier ist die Konkurrenz auch gut 50-60% über einem vergleichbaren Pascal-Chip
Keine Notwendigkeit für teuren und schwierig zu produzierenden HBM-Speicher - wobei Sie genug Erfahrung mit GP100/GV100 gesammelt haben, um da dennoch sobald notwendig im Consumerbereich umschwenken zu können

Also ich sehe da kein Problem, nach mehr als zwei Jahren Entwicklungszeit mit einem 20-30% größeren Chip als GP104 anzutreten, der durch Optimierungen in der Architektur unterm Strich locker 20% oder gar mehr vor dem GP102 landen wird.

Pascal hat gegenüber Maxwell 0% IPC zugelegt. Woher sollen plötzlich 10-20% herkommen?
Suggestivfragen sind ja toll, halt nur blöd, wenn Sie die eigene Ahnungslosigkeit belegen:
https://forums.anandtech.com/threads/two-misconceptions-about-ipc-and-gpus.2476552/

HOT
2018-05-17, 11:41:06
Wo solls denn herkommen? Du brauchst halt die Rechenleistung und damit entsprechend FP32-Einheiten. Für RTX brauchst du sogar noch mehr. Ich seh das einfach nirgendwo - gibt halt keine Zauberei. Das geht doch gar nicht darum ob man denen das nicht zutraut. Fakt ist aber, dass sich die Fertigung kaum ändert und dass entsprechende Rechenleistung abgerufen werden muss. Volta hat ja schon gezeigt, dass 12nm durchaus was bringt und den Sweetspot etwas anhebt, was die "50% mehr Shaderleisung pro TDP" ermöglicht (was pures Marketing war und nicht mal ansatzweise der Realität entspricht), aber mehr wirds eben auch bei Turing nicht. Wenn das klappen soll, muss ganz einfach der Chip größer sein und näher am Sweetspot betrieben werden. Beides wird von 12nm begünstigt. Das wird schon für 30-40% mehr Rechenleistung sorgen. Aber eben auch nur im Optimalfall, nicht bis an die Kotzgrenze übertaktet.

Kann natürlich auch sein, dass NV wirklich keinen GT102 plant und mit GT104 alle Register ziehen will bis 250W TDP. Als Titan kann dann ja wieder 7nm-Ampere herhalten. Würde auf jeden Fall erklären, warum man das Teil nur GTX1180 nennen möchte, würde sich ja dan quasi ins 1000er Namensschema einfügen als Refresh quasi.

Daredevil
2018-05-17, 11:54:40
Bei Pascal ist ja noch viel sinnvoller Takt Spielraum nach oben, so ist das ja nicht.
Wenn man 10-15% Performance durch Architekturverbesserungen hin bekommt, den Verbrauch ein wenig optimiert und dabei den Takt noch weiter anhebt( 2Ghz sind OC Werte, keine Stock Werte...! ), kann man da bei einem 1080 Nachfolger noch gute 20-30% kompromisslos rausquetschen und ihn vielleicht ja mit der gleichen TPD befeuern, die funktioniert ja aktuell ganz gut, auch mit den Founders Edition Kühlern.
Mit stromsparenden GDDR6 ( Falls überhaupt nötig?! ) reizt du den maximalen Takt noch weiter raus, weil die Karte mehr Saft dafür hat im Power Limit.

So hast du ein relativ geringes Risiko und maximales gemelke, never change a winning "mehrere Gewinnrekorde in Folge" Chain :D

Bucklew
2018-05-17, 11:59:15
Wenn Volta auf Pascal schon +50% Rechenleistung bei identischer TDP liefert, warum sollte bei GeForce da nur 20-30% raus kommen, zu mal noch ein Jahr mehr Entwicklung drin steckt?

Der gleiche Perf-Sprung wie bei GP100 auf GV100 und der G?104 würde den GP102 locker schlagen, bei identischer Leistungsaufnahme zu GTX1080.

Daredevil
2018-05-17, 12:04:06
Solange ich mich entsinnen kann, gab es doch zwei Gerüchte, ob Turing einfach ein optimierter Pascal Refresh ist, oder wirklich schon auf der neuen Volta Architektur basiert. Gab es da schon klarheit?
Da wir hier spekulieren und ich darauf spekuliere, dass Nvidia nicht etwas komplett neues ( Volta basierend ) bringt, spekuliere ich auf die 20-30% und würde mich drüber freuen für Nvidia.

Falls es "Volta" werden sollte mit GDDR6 und +50% Leistung bei gleichem UVP und TPD, spekuliere ich nämlich eine Verfügbarkeit erst ab 2019/2020 zu den Preisen und eine harte Zeit für den Gaming Markt, weil der Handel die Preise exorbitant in die höhe treiben würde. :(
Deswegen sehe ich nicht den Sinn in der Secret Sauce, wenn beides fürs gleiche hervorragend verkauft werden kann. Nvidia macht Rekordgewinne schließlich schon bei der Pascal Generation.

BlacKi
2018-05-17, 12:05:09
vergleiche mit volta sind schwierig,zu viele unterschiede.


Falls es Volta werden sollte mit GDDR6 und +50% Leistung bei gleichem UVP und TPD, spekuliere ich nämlich eine Verfügbarkeit erst ab 2019/2020 zu den Preisen und eine harte Zeit für den Gaming Markt, weil der Handel die Preise exorbitant in die höhe treiben würde. :(
Deswegen sehe ich nicht den Sinn in der Secret Sauce, wenn beides fürs gleiche hervorragend verkauft werden kann.
die uvp und der nv shop gehen nicht nach dem markt preis. ich halte die 750$ für realistisch bei 50-60% mehr performance ggü. der 1080. der freie markt dagegen wird bestimmt 1000€ gerade am start verlangen. wenn man auf wakü geht einfach im nv shop kaufen und dann kann man den markt mit seinen preisen umgehen.

TobiWahnKenobi
2018-05-17, 12:20:18
süß.. fast schon naiv bei einer karte die als nachfolger für die 1070/1080
gedacht ist, auf 16GiB zu spekulieren. das hat nichtmal (m)eine titan v für über 3000 euro.

eine hypothetische Ti hat dann wieviel? 24 oder gar 32? never, nicht bei Nvidia.


(..)

mfg
tobi

Daredevil
2018-05-17, 12:20:22
@BlacKi
Deswegen habe ich ja auch explizit den Nvidia Shop erwähnt, weil der eben die UVP "Basis" Preise einhält für den kleinen Mann, während der Handel dort noch seine ( aktuell ) großzügige Marge drauflegt. Aber selbst die Verfügbarkeit konnte Nvidia bei Pascal Karten in letzter Zeit auch nur bedingt halten. ( Bei Maximal einer Karte Pro Kunde! )

Wenn man jetzt mal rein das simple Gebot des Angebots und der Nachfrage berücksichtigt, wäre der Wunschdenken ( von manchen ) vom gleichen Preis bei deutlich höherer Performance in einer Zeit, wo Karten hundertfach irgendwo bestellt werden, recht naiv. Oder ich habe zuwenig Phantasie. ^^

gbm31
2018-05-17, 12:29:49
Die Frage ist wirklich wer ausser sie selbst Nvidia dazu treiben soll, jetzt mit einer neuen Architektur rauszukommen...

- die Konkurrenz schliesst selbst mit 50% mehr TDP nicht an die aktuelle "alte" Generation auf
- der Markt ist nicht übersättigt
- die Preise sind stabil

=Floi=
2018-05-17, 12:34:42
Dass da von gewisser Seite auf der IPC rumgeritten wird,

http://vrworld.com/2016/05/10/pascal-secrets-nvidia-geforce-gtx-1080/

da hat er aber recht. Die IPC sank tatsächlich. :eek: :freak:


eine neue architektur könne sinn ergeben, um bei GPGPU stärker zu sein.
Es gab ja immer einen bestimmten rythmus. Bei den damaligen planungen dürfte amd noch stärker eingeschätzt worden sein und auch intel mit der knights serie auf dem zettel stehen.

BigKid
2018-05-17, 12:44:35
Die Frage ist wirklich wer ausser sie selbst Nvidia dazu treiben soll, jetzt mit einer neuen Architektur rauszukommen...

- die Konkurrenz schliesst selbst mit 50% mehr TDP nicht an die aktuelle "alte" Generation auf
- der Markt ist nicht übersättigt
- die Preise sind stabil

In den meisten Ländern dürfte der Mining Boom und die Nachfrage massiv gesunken sein. Ich denke der Markt ist gerade dort übersättigt...
Zum einen gibt es massig gebrauchte am Markt und die zahlungskräftige Kundschaft ist eingedeckt...
Wenn man also weiterhin neue Karten verkaufen will muss was neues her...
Meine Sicht (Speku ohne Faktencheck)...

Hübie
2018-05-17, 13:55:15
süß.. fast schon naiv bei einer karte die als nachfolger für die 1070/1080
gedacht ist, auf 16GiB zu spekulieren. das hat nichtmal (m)eine titan v für über 3000 euro.

eine hypothetische Ti hat dann wieviel? 24 oder gar 32? never, nicht bei Nvidia.


(..)

mfg
tobi

Titan Z vergessen? ;D Warten wir ab.

TobiWahnKenobi
2018-05-17, 14:19:18
stimmt, das war auch ein heckenpfirsich.


(..)

mfg
tobi

Daredevil
2018-05-17, 14:31:56
In den meisten Ländern dürfte der Mining Boom und die Nachfrage massiv gesunken sein. Ich denke der Markt ist gerade dort übersättigt...
Zum einen gibt es massig gebrauchte am Markt und die zahlungskräftige Kundschaft ist eingedeckt...
Wenn man also weiterhin neue Karten verkaufen will muss was neues her...
Meine Sicht (Speku ohne Faktencheck)...
Wenn GDDR6 kommt und wenn es ein Knaller wird bei Speicherintensiven Algorithmen ähnlich HBM2 bei der TitanV ( Mehr als doppelt so schnell wie GDDR5 in EtHash ), kann sich so ein Boom schnell wieder entzünden, siehe Vega und HBM2. Da ist es dem Miner auch egal, ob du den Speicher auf einer Lowend oder Highend Karte gebaut hast, wenn es doppelt soviel leistet wie eine 1080, wird auch doppelt soviel bezahlt.
Wobei der Boom schon im Januar abgenommen hat und im März seinen Tiefstand gefunden hat, seit dem geht es ja wieder bergauf.

Nvidia hat es wahrlich nicht leicht. Sie werden so oder so ein gutes Produkt auf den Markt bringen und Millionen verkaufen, müssen aber den Spagat zwischen entzürnten Gamern finden und gleichzeitig auch die Kasse klingeln lassen beim Mining. Mal schauen, wie sie das lösen. ^^

AffenJack
2018-05-17, 15:01:33
Wenn GDDR6 kommt und wenn es ein Knaller wird bei Speicherintensiven Algorithmen ähnlich HBM2 bei der TitanV ( Mehr als doppelt so schnell wie GDDR5 in EtHash ), kann sich so ein Boom schnell wieder entzünden, siehe Vega und HBM2. Da ist es dem Miner auch egal, ob du den Speicher auf einer Lowend oder Highend Karte gebaut hast, wenn es doppelt soviel leistet wie eine 1080, wird auch doppelt soviel bezahlt.
Wobei der Boom schon im Januar abgenommen hat und im März seinen Tiefstand gefunden hat, seit dem geht es ja wieder bergauf.

Nvidia hat es wahrlich nicht leicht. Sie werden so oder so ein gutes Produkt auf den Markt bringen und Millionen verkaufen, müssen aber den Spagat zwischen entzürnten Gamern finden und gleichzeitig auch die Kasse klingeln lassen beim Mining. Mal schauen, wie sie das lösen. ^^

Oder Mining interessiert kein Schwein mehr, weil es zu unlukrativ geworden ist durch Casper. Eine Vorraussage ist da unmöglich zu treffen. Casper wird Grafikkarten massiv aus Ethereum in Richtung anderer Coins treiben und könnte den Markt erstmal deutlich abkühlen.

Daredevil
2018-05-17, 15:09:52
Ethereum ist ja aber nun auch nicht der einzige profitable Coin mit ETHash Algorithmus und schon gar nicht der einzige, der sehr Speicherintensiv ist. Und bei Nvidia muss er auch gar nicht Speicherintensiv sein, wenn die Rohperformance bei gleichem Verbrauch ebenfalls wächst.
Auch wenn sich das ganze weg vom Hardware Mining bewegt, glaube ich nicht, dass es dieses Jahr schon soweit sein wird.
Aber das driftet wieder ab. ^^

Ein Vollausbau wie bei den Ti Karten kommt meist immer ein paar Monate später, oder?

N0rG
2018-05-17, 16:24:56
so 6 bis 9 Monate waren es bisher immer.

Hübie
2018-05-17, 16:36:07
Wobei es in der letzten Runde ja auch kein Vollausbau war. Betrachtet man die Marktplatzierungen technisch bekommt man eh Kopfschmerzen bei NV... :redface:

Daredevil
2018-05-17, 16:47:29
Ja, da haste recht. :redface:
Ich meinte mit Vollausbau halt nicht die Titan, sondern das dickste GTX Pferd. :D

scully1234
2018-05-17, 19:07:49
Die Frage ist wirklich wer ausser sie selbst Nvidia dazu treiben soll, jetzt mit einer neuen Architektur rauszukommen...


gibts noch Marktanteile da draußen die noch nicht annektiert sind?


dann hast du deine Antwort, warum neue Produkte gut fürs Geschäft sind

Zudem wenn man schon kontinuierlich R&D Ausgaben hat, dann lässt man die Früchte daraus doch nicht verschimmeln im Schrank, bis der Mitbewerber seine Früchte auch sonnengereift auf den Markt werfen kann, sondern verkauft dann wenn noch keine Konkurrenz vorhanden ist

Hübie
2018-05-17, 19:35:27
Man wird sich auch im Mining Sektor was einfallen lassen, ohne dass es zu Interferenzen kommt, dessen bin ich mir sicher. Sei es eine Firmware-Sperre bei Geforce-Karten oder eben auch dedizierte Referenzdesigns für diesen Markt mit cost-down-Optimierungen, fehlendem Display-out und rudimentärer Kühlung um es preislich attraktiver gestalten zu können. Einige IHV machten ja schon den Anfang und NV hat dem keinen Riegel vorgeschoben.

Thunder99
2018-05-17, 19:37:42
Und ansonsten die Aktionäre nvidia die Hölle heiß machen ;)

gbm31
2018-05-17, 19:56:28
gibts noch Marktanteile da draußen die noch nicht annektiert sind?


dann hast du deine Antwort, warum neue Produkte gut fürs Geschäft sind

Zudem wenn man schon kontinuierlich R&D Ausgaben hat, dann lässt man die Früchte daraus doch nicht verschimmeln im Schrank, bis der Mitbewerber seine Früchte auch sonnengereift auf den Markt werfen kann, sondern verkauft dann wenn noch keine Konkurrenz vorhanden ist


Also in den Bereichen wo ich tätig bin tut man das (leider) nicht ohne Not - da wird die Kuh gemolken...

scully1234
2018-05-17, 20:03:48
Das macht aus mehrerlei Hinsicht keinen Sinn

Marktanteile

Investoren

Aktienkurs

Alles wird positiv beeinflusst durch den Release neuer Produkte

Jetzt sich ins gemachte Nest zu setzen u den lieben Gott nen guten Man sein lassen,und der Boomerang kommt zurück, wenn der Mitbewerber aufschließt

Dann erst anzufangen das Produkt zu verkaufen, wenn es Druck gibt von der Gegenseite, und die Monate vorher herzuschenken, wo man schalten u walten kann, wie man möchte ist absurd

Die Kuh kann ich auch mit neuem Sachen melken ,und das noch viel besser wie mit ollen Kamellen , denn so neutralisiere ich die Konkurrenz gänzlich ,die jetzt eh schon abgeschlagen ist

BlacKi
2018-05-17, 22:21:54
Also in den Bereichen wo ich tätig bin tut man das (leider) nicht ohne Not - da wird die Kuh gemolken...
sry, aber wenn die performance nicht passt, wechselt keiner. ergo verdient nv diese generation lang weniger. die wollen mein geld darauf kannst du dich verlassen.

Hübie
2018-05-19, 16:45:49
Also in den Bereichen wo ich tätig bin tut man das (leider) nicht ohne Not - da wird die Kuh gemolken...

Das Konzept bzw. die Management-Strategie des Boston-I-Portfolios findet in der Halbleiterindustrie keine Anwendung, da es kaum Produkte über einen langen Zeitraum gibt und man cash cows nicht stetig definieren kann. Marktsegment über 10 Jahre betrachtet mag man es anwenden können, aber es ergibt keinen Sinn bzw. liefert keinen Informationswert.
Es waren nicht immer die 60er-SKUs die Cash Cows und wo soll man Titan einordnen, wenn man nicht unterscheiden kann ob Gamer/SemiPro/Pro eingekauft hat (etc.)?

Halbleiter müssen immer die Innovation kostendeckend über einen kurzen Zeitraum bringen. Produkte wie ein Tempo-Taschentuch mit Duft XY z.B. lebt gerne mal 10 Jahre+ am Markt. Innovation und Langlebigkeit sind gegeben. Aber bei GPUs? Neee. Wenn der Preis für die x04 SKU steigt plant man weniger Absatz bei der Stückzahl und so wie ich das sehe, setzt man immer mehr Stück mit mehr Marge ab.

AffenJack
2018-05-19, 16:59:11
Expreview meldet, dass so schnell nix erscheint. Siehe: https://translate.google.com/translate?sl=auto&tl=en&js=y&prev=_t&hl=de&ie=UTF-8&u=www.expreview.com%2F61432.html&edit-text=

Ich tendiere dazu Ihnen mehr zu glauben als Igor. Das passt zu den Infos aus dem B3d von Erinyes. Dieser war bisher immer extrem zuverlässig und wenn Nvidia im April erst Silizium bekommen hat, dann ist Juli einfach zu früh. Ich glaube da auch eher, dass wir bis ~ September warten müssen.

Troyan
2018-05-19, 17:09:43
Und pcgamesn berichtet, dass nVidia ihnen mitgeteilt habe, dass Gamescom für nVidia "big" werde:

For our part we've spoken to folk at Nvidia who have claimed that Gamescom is going to be a really big deal for them this year, with nothing exciting happening around either Computex or E3.
https://www.pcgamesn.com/nvidia-gtx-1180-release-date-specifications

horn 12
2018-05-19, 17:48:04
Nun, reche Vorstellung Ende Juni, Anfang Juli und erste Karten im August!

AffenJack
2018-05-19, 17:58:10
Und pcgamesn berichtet, dass nVidia ihnen mitgeteilt habe, dass Gamescom für nVidia "big" werde:

https://www.pcgamesn.com/nvidia-gtx-1180-release-date-specifications

Würde durchaus nicht einem Launch im September widersprechen. Präsentation Pascal war am Anfang Mai, Mitte Mai Tests, Ende Mai Verkauf. Bei Turing könnte ich mir dann vorstellen Präsentation Mitte August auf einem eigenen Event, Gamescom um RTX und Turing stark zu promoten, dann Tests und Anfang September der Launch.

horn 12
2018-05-19, 18:19:30
Bis dahin hat AMD die Pixelshader Treiber im Griff und steht wiederum viel besser dar.
Man ist wohl bei was dran...

=Floi=
2018-05-19, 18:22:50
Bis dahin hat AMD die Pixelshader Treiber im Griff und steht wiederum viel besser dar.
Man ist wohl bei was dran...

träum weiter ;D

Du gibst den horn treiber wohl nie auf. Vorn Fiji redet auch keiner mehr.



Bis gespannt, ob am desktop von NV FP16 nochmal aufgegriffen wird. Im mobile beich gab es viel tam tam und am desktop nichts.

BlacKi
2018-05-19, 18:31:18
Und pcgamesn berichtet, dass nVidia ihnen mitgeteilt habe, dass Gamescom für nVidia "big" werde:

https://www.pcgamesn.com/nvidia-gtx-1180-release-date-specifications
vl ist damit nur BFGD gemeint, mir ist es schwer gefallen im text zwischen vermutung und echten infos zu unterscheiden.

Sunrise
2018-05-19, 22:30:44
Bis dahin hat AMD die Pixelshader Treiber im Griff und steht wiederum viel besser dar.
Man ist wohl bei was dran...
Jap, der geheime Treiber kommt im September! :eek:

Nur leider kommt da NV mit neuer HW...sowas...

Hübie
2018-05-20, 04:39:37
Es dauert immer ein wenig bis auch der letzte begriffen hat, dass NVIDIA, AMD schon 1,5 Jahre voraus ist. Vega liegt oftmals nur auf Maxwell-Niveau in punkto Perf/W (okay schon besser, aber nicht so viel mehr, wenn man bedenkt wie alt Maxwell ist).

Igor TH
2018-05-20, 08:54:53
Es gab ja auch die gleichen Quellen, die vollmundig den April für Ampere vermeldeten und mich dafür geprügelt haben, weil ich den Juli bereits im Februar (https://wccftech.com/rumor-nvidia-turing-gaming-gpus-launching-in-july-to-replace-pascal-geforce-lineup-ampere-to-succeed-volta-in-hpc/) vermutete und auch Turing statt Ampere schrieb. ;)

Die Unterlagen, die die Boardparter jeweils von NV bekommen, sollten Anfang Februar kommen (darauf basierte ja auch die Annahme mit den April in der GTC/GDC) und wurden ziemlich kurz vor knapp dann doch auf den Mai verschoben. Jeder, der etwas rechnen kann, der weiß, dass man im Schnitt 3 Monate drauflegen kann, bis die FE dann kommt. Die Produktionsabläufe und auch den Validierungsprozess des Green Light Programmes habe ich ja in meiner News auch beschrieben. Ich hätte übrigens von mir aus gar nichts mehr dazu geschrieben, weil ich es langweilig fand, mich ständig zu wiederholen. Die Amis haben mich aber solange gelöchert, bis ich es dann doch getan habe. Eigentlich habe ich aktuell nämlich wichtigere Dinge vor, während denen monatlich die Reichweiten wegbrechen. :)

Und es wäre dann auch das erste Mal, dass die Quadros vor den Consumer Karten-kämen, denn die Pro-Teile kommen mit Sicherheit zur Siggraph. Sonst hätte NV sicher auch kaum angefragt, ob ich im August Zeit hätte. Und insgesamt drei Boardpartner nannten mir August/September für ihre Customs. Man muss halt nicht nur die zum Schweigen verdonnerte PR fragen ;)

horn 12
2018-05-20, 09:07:29
Vega trägt auch viel Ballast mit sich, nicht wie Geforce GP 104
Wenn man sich anschaut wo überall Vega eingesetzt wird war dies wohl aus AMD Sicht vollkommen die Richtige Entscheidung
auch wenn die Performance bis dato nicht überwältigend ist, war.

Igor TH
2018-05-20, 09:28:21
AMD hat wohl auch versucht, sich mit Vega vor allem ein großes Stück Kuchen von der AI-/ML-Torte abzuschneiden, weil man dort ja auch am meisten Kohle scheffeln kann. Nur dass die MI25 nie so eingeschlagen ist, wie Raja es sich wohl erträumt haben mag. Und was dann als Consumer-Karte draus geworden ist, das wissen wir ja. :)

horn 12
2018-05-20, 09:33:38
Nun, lieber Igor von deinen angesprochenen ca. 5000 Stück pro Hersteller sind wir wohl weit entfernt.
Es sind aktuell "massig Karten" lieferbar, oftmals 50 bis 70 Stück auf Lager pro Shop
und dennoch verbleiben die RX Vega´s wie Halde auf Lager da der Preis nicht runter geht,- und jene welche eine Vega wollten wohl schon eine haben,- ALLE andere warten auf NV Turing.

HOT
2018-05-20, 10:12:22
Es dauert immer ein wenig bis auch der letzte begriffen hat, dass NVIDIA, AMD schon 1,5 Jahre voraus ist. Vega liegt oftmals nur auf Maxwell-Niveau in punkto Perf/W (okay schon besser, aber nicht so viel mehr, wenn man bedenkt wie alt Maxwell ist).
Äpfel und Birnen eben. Voraus ist da niemand so wirklich. NV war in Sachen Softwareentwicklung meilenweit voraus, das ist aber langsam aufgeholt. AMD braucht schlicht ne neue Basis-Architektur.

TobiWahnKenobi
2018-05-20, 10:42:34
wenn es so schlicht ist, dann los.. *thumbsup*



(..)

mfg
tobi

Digidi
2018-05-20, 10:43:35
AMD hat wohl auch versucht, sich mit Vega vor allem ein großes Stück Kuchen von der AI-/ML-Torte abzuschneiden, weil man dort ja auch am meisten Kohle scheffeln kann. Nur dass die MI25 nie so eingeschlagen ist, wie Raja es sich wohl erträumt haben mag. Und was dann als Consumer-Karte draus geworden ist, das wissen wir ja. :)

Was ist denn aus den Komsumerkarten geworden?

Igor TH
2018-05-20, 10:58:52
@horn 12:
Das war letztes Jahr, schon vergessen? Und nur mal an Rande: es sind auch jetzt nun nicht so viel mehr geworden, nur dass mittlerweile fast nur noch die AMD-Exklusiven bedient werden. Für die reicht es bei den aktuellen Preisen. Von dem, was AMD mal als Package-Preis kalkuliert hatte, ist man Dank HMB2 eh meilenweit entfernt. Die Referenz sollte die Boardpartner mal etwas über 100 USD im EK fürs Umlabeln kosten. AMD wäre schön doof, solche Verträge zu verlängern :D

@Digidi:
Exakt das, was hier in den einschlägigen Threads auf zig Seiten zu lesen ist. Die dort verlinken Reviews mal inkludiert. Das muss man nicht kommentieren, weil es zig andere schon getan haben. :)

Godmode
2018-05-20, 11:01:55
Nun, lieber Igor von deinen angesprochenen ca. 5000 Stück pro Hersteller sind wir wohl weit entfernt.
Es sind aktuell "massig Karten" lieferbar, oftmals 50 bis 70 Stück auf Lager pro Shop
und dennoch verbleiben die RX Vega´s wie Halde auf Lager da der Preis nicht runter geht,- und jene welche eine Vega wollten wohl schon eine haben,- ALLE andere warten auf NV Turing.

Die Preise sind aber immer noch sehr hoch. Ich habe letztes Jahr für eine GTX 1070 ~400€ bezahlt, jetzt sind wir doch noch deutlich darüber. Oder liegt das einfach am gestiegenen Preis für GDDR5(x)?

HOT
2018-05-20, 11:04:00
Sind doch dank des Anstiegs des Dollarkurses seit letztem Jahr wieder fast auf dem 400€-Niveau. Der Dollaranstieg hat die höheren Speicher- und Chippreise bei Grafikkarten quasi aufgefangen für Europa.

Igor TH
2018-05-20, 11:05:35
Nur mal als Erinnerung:
Es ist nicht der Vega-Thread. Nur mal so nebenbei angemerkt.

Botcruscher
2018-05-20, 11:07:28
Wie soll der Anstieg des Dollar im einem Euroland bitte irgendwas auffangen? Mining, China-Gaming, Speicherkartell... sucht euch was aus.

HOT
2018-05-20, 11:15:20
Hardware wird in Dollar gehandelt.

maximus_hertus
2018-05-20, 11:18:56
Sind doch dank des Anstiegs des Dollarkurses seit letztem Jahr wieder fast auf dem 400€-Niveau. Der Dollaranstieg hat die höheren Speicher- und Chippreise bei Grafikkarten quasi aufgefangen für Europa.

Steigender US Dollar = höhere Hardware Preise bei uns. Im Prinzip wird da nichts aufgefangen, sondern beide Effekte müssen addiert werden: Steigender USD Kurs plus steigende Speicherpreise = viel höhere Grafikkarten Preise.

Beispiel Rechnung:
1 Euro = 1,30 USD. Produkt A kostet 100 USD. Ergo sind dann 76,92 Euro fällig.
1 Euro = 1,20 USD. Produkt A kostet 100 USD => Jetzt sind wir bei 83,33 Euro.
1 Euro = 1,20 USD, jedoch wird Produkt A durch höhere Speicherpreise teurer und kostet nun 120 USD => wir landen bei 100 Euro.


Wenn der USD an Wert verlieren(!) würde, könnte er steigende Speicherpreise auffangen.
1 Euro = 1,56 USD (statt vorher 1,30), Produkt A kostet 120 statt 100 USD durch die höheren Speicherpreise => wir sind wieder bei 76,92 Euro. 20% teurerers Produkt wird durch einen 20% schwächeren USD aufgefangen.

Adam D.
2018-05-20, 11:32:24
Äpfel und Birnen eben. Voraus ist da niemand so wirklich. NV war in Sachen Softwareentwicklung meilenweit voraus, das ist aber langsam aufgeholt. AMD braucht schlicht ne neue Basis-Architektur.
Ehm, also wenn wir wie Hübie von Perf/W sprechen, wo ist da niemand meilenweit voraus? In der Preisklasse spielt Perf/W IMO zwar keine besonders kaufentscheidende Rolle, aber der Unterschied ist trotzdem abartig.

aufkrawall
2018-05-20, 11:36:01
Auf dem PC hat Nvidia natürlich dort einen großen Vorteil, in Konsolen mit niedrigeren Taktraten und sehr gezielter LL-Optimierung aber nicht unbedingt.

Botcruscher
2018-05-20, 11:56:38
Perf/W spielt eine absolut entscheidende Rolle in jeder Preisklasse. Da hängt am Ende immer die Leistung und dann der gesamte Rattenschwanz bis zum Preis dran. Es ist auch der Punkt warum bei angeblich vergleichbaren Karten NV gekauft wird.

Bei den Konsolen ist es eigentlich noch wichtiger. Die sind viel Preis-sensitiver, Kühlung/Stromversorgung der letzte Mist und leise soll es im Wohnzimmer auch noch irgendwie sein. Ohne X86 sieht NV hier aber eh kein Land.

pixeljetstream
2018-05-20, 12:12:22
so richtig leise ist meine PS4Pro auch nicht ;)
Bin mal gespannt wann/ob Xavier in Jetsons auftaucht und was die Leute damit dann so basteln. Und ja ohne x86 glaube ich sind non-mobile Konsolen auf lange Sicht in AMDs Hand, es sei denn Intel schafft nun wirklich was. Dank exisitierendem cross-licensing können sie auch relativ bequem mehr wichtige AMDler abwerben ohne dass die Leute nen allzu starken Maulkorb haben. Durchaus möglich dass es der Radeon Gruppe dann geht wie bei Apple/Imagination. Hängt alles davon ab wieviel Geld AMD noch hat um das zu verhindern, bzw. Intel gewollt ist auszugeben. Spannende Zeit für die zwei Firmen.

Kriton
2018-05-20, 12:19:27
Perf/W spielt eine absolut entscheidende Rolle in jeder Preisklasse. Da hängt am Ende immer die Leistung und dann der gesamte Rattenschwanz bis zum Preis dran. Es ist auch der Punkt warum bei angeblich vergleichbaren Karten NV gekauft wird.

Das glaube ich nicht. Auch als ATI/AMD die besseren Karten hatte, hat Nvidia mehr verkauft. Die Marke ist stärker. Unabhängig von den technischen Daten.

Botcruscher
2018-05-20, 12:38:00
Das war zum letzten mal beim ersten Thermi gegen die 5xxx irgendwie der Fall. Der war trotz der Hitze aber wie üblich schneller während die 5xxx kaum verfügbar waren.
NV ist und bleibt Marktführer mit ihren Highend-Chips. Die Mainstreamstrategie von AMD ist schon vor Jahren gescheitert. Der absolute Todesstoß war der extra Performancechip. Da wird AMD ohne Änderungen nie wieder Land sehen. Einzig um GDDR6 ist es im Moment irgendwie zu ruhig. Bei den Gewinnen scheinen die Hersteller aber scheinbar auch ohne Marketing auskommen zu können. Mal sehen ob die Miner am lautesten jubeln.

HOT
2018-05-20, 12:39:44
Perf/W spielt eine absolut entscheidende Rolle in jeder Preisklasse. Da hängt am Ende immer die Leistung und dann der gesamte Rattenschwanz bis zum Preis dran. Es ist auch der Punkt warum bei angeblich vergleichbaren Karten NV gekauft wird.

Bei den Konsolen ist es eigentlich noch wichtiger. Die sind viel Preis-sensitiver, Kühlung/Stromversorgung der letzte Mist und leise soll es im Wohnzimmer auch noch irgendwie sein. Ohne X86 sieht NV hier aber eh kein Land.
Unsinn. Perf/W spielt bei Notebooks und Konsolen eine Rolle, im Desktop-PC aber nur eine untergeordnete. Wenn man jetzt mal von Extremen absieht ist es dem Käufer ziemlich egal, ob das Teil jetzt 150 oder 250W braucht.

Das glaube ich nicht. Auch als ATI/AMD die besseren Karten hatte, hat Nvidia mehr verkauft. Die Marke ist stärker. Unabhängig von den technischen Daten.

Das ist definitiv so und das bricht erst auf, wenn AMD den PC-Markt auf eine schöne Durststrecke mit schön hohen Monopolpreisen mit wenig Fortschritten schicken würde, wie bei BD damals. Oder man bietet langfristig das bessere Produkt, was schwierig wird.

Das war zum letzten mal beim ersten Thermi gegen die 5xxx irgendwie der Fall. Der war trotz der Hitze aber wie üblich schneller während die 5xxx kaum verfügbar waren.
NV ist und bleibt Marktführer mit ihren Highend-Chips. Die Mainstreamstrategie von AMD ist schon vor Jahren gescheitert. Der absolute Todesstoß war der extra Performancechip. Da wird AMD ohne Änderungen nie wieder Land sehen. Einzig um GDDR6 ist es im Moment irgendwie zu ruhig. Bei den Gewinnen scheinen die Hersteller aber scheinbar auch ohne Marketing auskommen zu können. Mal sehen ob die Miner am lautesten jubeln.

Mach da nicht so ein Drama daraus. Eine neue µArchitektur kann alles ändern, siehe Zen und mit Zen meine ich Zen2, denn erst der ist fertigungstechnisch auf Augenhöhe mit Intel.

aufkrawall
2018-05-20, 12:46:55
Bei den Konsolen ist es eigentlich noch wichtiger. Die sind viel Preis-sensitiver, Kühlung/Stromversorgung der letzte Mist und leise soll es im Wohnzimmer auch noch irgendwie sein. Ohne X86 sieht NV hier aber eh kein Land.
Da sieht NV sowieso kein Land (zumindest Pre-Volta), weil schon auf dem PC mit gescheiter LL-Programmierung wie in W2 Vega fast auf 1080 Ti Niveau ist. Bei niedrigen Taktraten schrumpft der Effizienz-Vorsprung von NV weiter und auf den Konsolen ist eh noch hardwarenähere Programmierung möglich (zumindest bei Sony). Ich bezweifle stark, dass Teams, die GCN auf den Konsolen optimal auslasten können, Pascal mit seinen komischen Hardware-Limits haben wollten.

Botcruscher
2018-05-20, 12:53:29
Du kannst dir das ja gerne einreden. Polaris ist gegen die 1060 einfach nur untergegangen. Mal sehen wie er gegen eine 2060 mit 128bit GDDR6 und dann fast doppelter Effizienz schlägt.
Ich bezweifle stark, dass Teams, die GCN auf den Konsolen optimal auslasten können, Pascal mit seinen komischen Hardware-Limits haben wollten.
Auslastung bedeutet aber auch noch mehr Verbrauch. Bei den Konsolen zählt doch nur der Aufwand für die Programmierung. Wir werden auf dem PC auf jeden Fall keine Sprünge mehr für Vega sehen. Pascal wird NV durch Raytracing eh tot bekommen. Da deutet sich die absichtlich Produktalterung doch schon an. Das Marketing wird den kaum vorhanden Mehrwert schon verkaufen. Dann bekommen wir endlich Qualität wie in Crysis 2. Endlich realistisch beleuchtete Merkelpoller... In drei Monaten wird hier alles voll mit Raytracing sein. Mal sehen welcher Test uns das so hässlich und übertrieben zeigen kann wie Haven bei der letzten Dorfsau.

aufkrawall
2018-05-20, 12:57:56
Irgendwie scheinst du nicht zu verstehen dass PC != Konsolen sind. "Untergehen" ist bei 480 vs 1060 eh eine unsinnige Übertreibung, sofern es nicht um Notebooks geht.

Kriton
2018-05-20, 13:27:21
Du kannst dir das ja gerne einreden. Polaris ist gegen die 1060 einfach nur untergegangen. Mal sehen wie er gegen eine 2060 mit 128bit GDDR6 und dann fast doppelter Effizienz schlägt.

Du kannst eine HW nicht ohne die SW bewerten. Unterschiedliche Architekturen erfordern unterschiedliche Optimierungen, haben unterschiedliche bottle necks. Nvidia hat sicher (auch) den Vorteil, dass die PC-Spiele oftmals auf ihre HW-Architektur(en) besser optimiert sind.
Die Unreal-Engine z.B. hat seit Jahren eine gewisse Nvidia-Lastigkeit.

Hübie
2018-05-20, 16:05:43
Äpfel und Birnen eben. Voraus ist da niemand so wirklich. NV war in Sachen Softwareentwicklung meilenweit voraus, das ist aber langsam aufgeholt. AMD braucht schlicht ne neue Basis-Architektur.

Beides IHV von GPUs. Was ist Apfel und Birne? :facepalm: Es dauert. Aber irgendwann begreifst du es auch.

HOT
2018-05-20, 17:23:51
Beides IHV von GPUs. Was ist Apfel und Birne? :facepalm: Es dauert. Aber irgendwann begreifst du es auch.
Nein du begreifst es nicht. Natürlich vergleichst du Äpfel mit Birnen. Warum wurde hier schon mehrfach erklärt.

Hübie
2018-05-20, 17:29:42
Ok. Und jetzt lies noch mal. Ich schrieb

[...]dass NVIDIA, AMD schon 1,5 Jahre voraus ist

Man, man, man. Beides Unternehmen von GPUs, Softwarestack und Treiber. Also wo ist der Apfel und wo die Birne? Erkläre es doch bitte.

BlacKi
2018-05-20, 18:07:57
Unsinn. Perf/W spielt bei Notebooks und Konsolen eine Rolle, im Desktop-PC aber nur eine untergeordnete. Wenn man jetzt mal von Extremen absieht ist es dem Käufer ziemlich egal, ob das Teil jetzt 150 oder 250W braucht.


oder wie einfach lassen sich denn 400-500w gpu kühlen, um an eine 250-300w 1080ti heranzureichen? natürlich sind da grenzen, also spielt es sehr wohl eine rolle. zudem hat amd immer seine chips resteverwertet. da war es komplett krank, wenn eine alte amd 300w + karte, gegen was aktuelles von nv mit 120w antreten musste.


Mach da nicht so ein Drama daraus. Eine neue µArchitektur kann alles ändern, siehe Zen und mit Zen meine ich Zen2, denn erst der ist fertigungstechnisch auf Augenhöhe mit Intel.
das szenario würde erst mit dem durchsetzen von LL engines kommen, wir warten darauf schon so lange. der "erfolg" von zen liegt auch zum teil an dem fail von bulldozer. nach wie vor liegt amd takttechnisch und damit auch performancetechnisch deutlich hinter intel. lass dich da durch die komischen gpu limit werte nicht irritieren die mittlerweile standard geworden sind.

fondness
2018-05-20, 18:10:17
Und ja ohne x86 glaube ich sind non-mobile Konsolen auf lange Sicht in AMDs Hand, es sei denn Intel schafft nun wirklich was.

Das hat wohl sehr viel weniger mit x86 zu tun als mit einer konkurrenzfähigen CPU-Architektur, die nvidia einfach nicht hatte und auch aktuell nicht hat. x86 ist per se kein Vorteil auf einer geschlossenen Plattform wie einer Konsole.

pixeljetstream
2018-05-20, 18:21:02
Mach da nicht so ein Drama daraus. Eine neue µArchitektur kann alles ändern, siehe Zen und mit Zen meine ich Zen2, denn erst der ist fertigungstechnisch auf Augenhöhe mit Intel.

Imo unterschätzt Du die Kosten und Komplexität die das ganze am Ende technisch zum Erfolg werden lassen. Darüberhinaus die Kosten im Markt damit Geld zu verdienen. Du brauchst auch sehr erfahrene Leute die das "mal eben" designen ;) Wieviel Topleute hat AMD da noch? Mr. Zen ist doch schon ne Weile weg. Neben Intel haben Apple und Google auch ordentliche Geldkoffer. Es geht ja nicht nur ums Gehalt sondern auch dass die Leute das Gefühl haben ordentlich arbeiten zu können. Die ganze Infrastruktur drum herum.
Natürlich ist alles nur mit Wasser kochen, aber all diese anderen Faktoren zu ignorieren finde ich unrealistisch. Es sei denn Du glaubst natürlich die Leute sind einfach so viel besser als die in den anderen Firmen, produzieren nie Bugs und brauchen den ganzen Kram nicht ;)
Ich hab ein paar Chipgenerationen hier mit gemacht, ich habe nicht den Eindruck, dass es leichter oder weniger aufwendig wird.

Hübie
2018-05-20, 18:53:11
Das hat wohl sehr viel weniger mit x86 zu tun als mit einer konkurrenzfähigen CPU-Architektur, die nvidia einfach nicht hatte und auch aktuell nicht hat. x86 ist per se kein Vorteil auf einer geschlossenen Plattform wie einer Konsole.

Wobei es der Spieleindustrie geholfen hat. Einfachere Portierungen und somit mehr Absatz. Es wäre schade und überraschend, wenn die next gen consoles keine x86 instructions mehr hätten. Wobei man sich im Kern mal mit der Frage beschäftigen sollte, was x86 heutzutage eigentlich noch alles ist. Ich weiß es gar nicht, um ehrlich zu sein. Da wird vermutlich um einige wenige Kernelemente ein ganzer Komplex drum gesponnen und als x86 wahrgenommen / vermarktet.

scully1234
2018-05-20, 23:29:11
Das hat wohl sehr viel weniger mit x86 zu tun als mit einer konkurrenzfähigen CPU-Architektur, die nvidia einfach nicht hatte und auch aktuell nicht hat. x86 ist per se kein Vorteil auf einer geschlossenen Plattform wie einer Konsole.

Das erzähle mal bitte Nintendo mit der Switch;D

Oder den Infotainment Systemen der Audi u Mercedes Benz Flotten

Oder den Systemen für den autonomen Fahrbetrieb

Ein Nvidia oder anderweitig konstruierter ARM Prozessor reicht vielleicht in Zukunft auch für Windows vollkommen für alle Belange, ein Grund warum Intel da mit Microsoft z.B ziemlich auf Kriegsfuß steht,weil ihnen die Fälle davon schwimmen wenn das eintritt

gravitationsfeld
2018-05-20, 23:36:09
Die Nintendo Switch CPUs sind ARM Cortex A57, kein NVIDIA-Design.

Da sieht NV sowieso kein Land (zumindest Pre-Volta), weil schon auf dem PC mit gescheiter LL-Programmierung wie in W2 Vega fast auf 1080 Ti Niveau ist. Bei niedrigen Taktraten schrumpft der Effizienz-Vorsprung von NV weiter und auf den Konsolen ist eh noch hardwarenähere Programmierung möglich (zumindest bei Sony). Ich bezweifle stark, dass Teams, die GCN auf den Konsolen optimal auslasten können, Pascal mit seinen komischen Hardware-Limits haben wollten.
Ich jedenfalls nicht. Und es stimmt tatsaechlich, dass GCN auf den Konsolen viel mehr Leistung pro FLOPs liefert als am PC. Gibt diverse Gruende dafuer, die nicht so ganz einfach zu loesen sind.

Die Xbox One X ist locker GTX-1080-Niveau.

scully1234
2018-05-20, 23:40:27
Eigentor. Die Nintendo Switch CPUs sind ARM Cortex A57, kein NVIDIA-Design.


Nix Eigentor er sprach von konkurrenzfähigen CPUs

Und da gibt es auch Weiterentwicklungen von Nvidia auf ARM Basis, die diesen Status Quo schon überschritten haben ,den die Switch mit dem Tegra dort liefern

gravitationsfeld
2018-05-20, 23:42:16
Nein, eben nicht. Es gibt Denver, aber bisher kam nix dabei rueber das konkurenzfaehig ist. Codemorphing ist einfach eine Schnappsidee. Und die Cortex-Chips sind Zen jedenfalls deutlich unterlegen.

Die einzigen ARM-Designs die wirklich was taugen sind die von Apple, und da wird nix lizensiert.

scully1234
2018-05-20, 23:44:03
Bin mal gespannt wann/ob Xavier in Jetsons auftaucht und was die Leute damit dann so basteln.

Das war denke ich dezent genug, er hätte es auch deutlicher rüber bringen können, denn es gibt ja bereits Verträge für diese Platformen

Und das Nintendo nach deren Erfolg mit dem antiquierten Tegra ,jetzt nicht zwangsläufig auf einen anderen Anbieter wechseln muss, wenn der GPU Part gekoppelt mit Jetsons and beyond... potent u sparsam genug ist, sollte auch nicht ganz von der Hand zu weißen sein

Zumal die CPU ansich ,so oder so immer mehr in den Hintergrund gerät ,als reine Fütterungsmaschine für die immer flexibleren GPUs

gravitationsfeld
2018-05-20, 23:44:31
:rolleyes:

"Put up, or shut up". Zukunftsmusik ist nicht womit man jetzt Design-Wins bekommt.

Zumal die CPU ansich ,so oder so immer mehr in den Hintergrund gerät ,als reine Fütterungsmaschine für die immer flexibleren GPUs
Erstens nein und zweitens hat sich an der "Flexibilitaet" seit G80 praktisch nichts getan bis auf indirekt draw/dispatches.

scully1234
2018-05-20, 23:59:30
:rolleyes:

"Put up, or shut up". Zukunftsmusik ist nicht womit man jetzt Design-Wins bekommt.
.

Die Design Wins sind aber schon real für Jetsons u Parker, nix was man wegdiskutieren müsste, es sei denn man stelle die deutsche Automobilbranche u nicht nur diese ,als inkompetent da ,nicht entscheiden zu können welche Plattform geeignet ist,und welche nicht

Und was Nintendo bei der nächsten Konsole veranlasst ,werden wir sehen

Die Chancen stehen jedenfalls nicht schlecht ,das hier ein modifizierter Jetsons mit Turing GPU??? zur engeren Wahl steht, nach deren Erfolg mit der Switch

pixeljetstream
2018-05-21, 00:22:44
Wie gesagt, ich glaube nicht dass AMD durch NV die Konsolen verlieren wird. MS und Sony haben ja auch ihre Extras on top und damit investiert. Was immer später kommt sollte viele Gemeinsamkeiten haben um einen Umstieg so billig wie möglich zu machen.

Ein Tegra wird nicht gegen etwas wie Zen ne Chance haben. Imo spielt x86 schon eine Rolle. Aber wie gravitationsfeld meint nur Apple hat bei ARM was sehr starkes.

Xavier bezog sich auf die perf/watt Aussage des vorherigen Post von wegen was man mit wenig Takt und low-level machen kann, dazu bräuchte es halt nen Jetson mit aktueller GPU um hier Daten zu haben.

@scully, der Xavier für Automotive/Robotics hat aber schon nen anderen Fokus als nen purpose-built Konsolen SoC. Soviel zutrauen muss man da an MS/Sony auch haben, dass die Ahnung haben was man am Design selbst verändert. Die Industrie profitiert ja gerade am Anfang davon, dass sie nicht jeder für sich nen soc designen müssen. Viel billiger etwas fertiges zu holen. Apple müsste da auch irgendwann was zeigen, das wird dann auch Spaß, was die Milliarden von denen an Hardware hinzaubern.
Darum finde ich es ja immer so lächerlich wenn manche davon reden dass NV keinen Konkurrenzdruck hätte.

AffenJack
2018-05-21, 01:39:46
Nein, eben nicht. Es gibt Denver, aber bisher kam nix dabei rueber das konkurenzfaehig ist. Codemorphing ist einfach eine Schnappsidee. Und die Cortex-Chips sind Zen jedenfalls deutlich unterlegen.

Die einzigen ARM-Designs die wirklich was taugen sind die von Apple, und da wird nix lizensiert.

Im Moment hast du Jaguar, davon ausgehend könntest du auch mit ARM Cortex nen Riesensprung hinlegen. Bau nen 16 Core A75 und du wirst wahrscheinlich gar nicht so weit weg von einem Zen 8 Kerner landen. Was den Teilen an IPC fehlt, machen dann eben die echten Kerne zum guten Teil weg. Zen wird auch eher etwas tiefer getaktet werden um den Verbrauch für Konsolen zu senken, so dass da auch keine so großen Unterschiede vorhanden wären. Eine vielleicht 20% schnellere Zencpu würde bei der Leistungssteigerung zur aktuellen Gen einfach nicht mehr so wichtig sein, wenn der Rest stimmt. Aber es wird niemand von X86 weggehen wollen.

=Floi=
2018-05-21, 05:35:07
Die Industrie profitiert ja gerade am Anfang davon, dass sie nicht jeder für sich nen soc designen müssen. Viel billiger etwas fertiges zu holen.


gerade deswegen frage ich mich, wie es im automotive bereich längerfristig weitergehen wird. Ich sehe nichts, was NV hier längerfristig unersetzlich machen würde und die software macht irgendwann auch ein dritter.

P/Watt im auto mehr egal. (hauptsache mobile HW)
Preis bei NV immer zu hoch.
GPU nicht so wichtig
Image Processing sollten auch andere können.

edit

https://de.wikipedia.org/wiki/Zen_(Mikroarchitektur)#Ryzen_3
gibt 35 und 65watt modelle die echt gut abgehen.
kommt ryzen in die nächsten konsolen, gibt es einen gigantischen sprung bei der CPU.

reaperrr
2018-05-21, 07:54:16
Im Moment hast du Jaguar, davon ausgehend könntest du auch mit ARM Cortex nen Riesensprung hinlegen. Bau nen 16 Core A75 und du wirst wahrscheinlich gar nicht so weit weg von einem Zen 8 Kerner landen.
Nein, denn der limitierende Faktor auf den derzeitigen Konsolen ist die schwache ST-Leistung, nicht die MT-Leistung.
Du kannst einfach nicht jede Aufgabe auf mehrere Threads verteilen, und für manche dieser Aufgaben sind auch die 2,3 GHz + beschleunigter L2-Cache der XB1X einfach zu wenig, um Ruckler komplett vermeiden und ein paar ausgefallenere Dinge machen zu können. Wir bekommen die Abstriche, die in einigen Spielen gemacht werden, nur nicht mit, weil die Dinge die mit schnellerer CPU möglich wären nie bei uns ankommen.

Selbst der RavenRidge-CCX @ 2,3 GHz mit aktivem SMT wäre vermutlich doppelt so schnell in ST und immer noch etwas schneller in MT-Performance (weil kurze Lastspitzen durch die höhere IPC geringere Auswirkungen haben).
Zwei RR-CCX mit deaktiviertem SMT würden bei gleichem Takt in beiden Disziplinen Kreise um die aktuellen Konsolen ziehen.

Lightning
2018-05-21, 08:18:57
Ich jedenfalls nicht. Und es stimmt tatsaechlich, dass GCN auf den Konsolen viel mehr Leistung pro FLOPs liefert als am PC. Gibt diverse Gruende dafuer, die nicht so ganz einfach zu loesen sind.

Die Xbox One X ist locker GTX-1080-Niveau.

Könntest du die Gründe dafür zumindest kurz anreißen, oder gibt es eine Quelle, wo das schonmal ausgeführt wurde? Fände ich interessant.
Und: Gilt das auch für die (niedrigere) Speicherbandbreite?

pixeljetstream
2018-05-21, 08:27:56
@Floi, der Preis ist ja Angebot/Nachfrage, da gibt es kein "zu hoch". Die GPU und der sw-stack machen im Moment den Unterschied, da zu sagen es spielt keine Rolle ist imo nicht passend. Ich stimme dir aber zu, dass grundsätzlich langfristig wo ein Markt sich auftut andere erfolgreich mitspielen werden. Deswegen sehe ich es auch nicht als Selbstläufer für NV. Aber nur weil es im Prinzip jeder kann, muss dennoch die Infrastruktur, Expertise etc. erstmal woher kommen. NV darf halt nicht still stehen, aber diese Gefahr sehe ich auch nicht.
Noch ist in dem ganzen genug Dynamik, dass es keine Vereinfachung ala Mediatek gibt. Solange das Problem "schwer" ist, sieht es gut für NV, Intel und Apple aus.

Troyan
2018-05-21, 08:41:49
Die Xbox One X ist locker GTX-1080-Niveau.

Lmao - logo. 6 TFLOPs gegen 8,5 TFLOPS.

Fragman
2018-05-21, 09:54:19
Ich jedenfalls nicht. Und es stimmt tatsaechlich, dass GCN auf den Konsolen viel mehr Leistung pro FLOPs liefert als am PC. Gibt diverse Gruende dafuer, die nicht so ganz einfach zu loesen sind.



das koennte man dann auch negativ fuer amd next auf dem pc sehen.
wenn amd wieder die konsolen beliefert, mit navi/whatever, geht man vielleicht denselben weg, da es fuer konsolen ja sehr gut funktioniert?
und auf dem pc hat man dann wieder derselben mist wie schon mit vega?

Hübie
2018-05-21, 10:07:05
Lmao - logo. 6 TFLOPs gegen 8,5 TFLOPS.

Gelten die nicht für CPU+GPU bei der XOX?
Wenn dem so ist schlussfolgere ich daraus, dass wir am PC immer noch verarscht werden und man 25-35% Potenzial aufgrund des mangelhaften Softwarestacks nicht nutzen kann. :redface:
Eine andere Erklärung könnte ich mir als Laie sonst nicht geben.

Kriton
2018-05-21, 12:06:09
Im Moment hast du Jaguar, davon ausgehend könntest du auch mit ARM Cortex nen Riesensprung hinlegen. Bau nen 16 Core A75 und du wirst wahrscheinlich gar nicht so weit weg von einem Zen 8 Kerner landen. Was den Teilen an IPC fehlt, machen dann eben die echten Kerne zum guten Teil weg. Zen wird auch eher etwas tiefer getaktet werden um den Verbrauch für Konsolen zu senken, so dass da auch keine so großen Unterschiede vorhanden wären. Eine vielleicht 20% schnellere Zencpu würde bei der Leistungssteigerung zur aktuellen Gen einfach nicht mehr so wichtig sein, wenn der Rest stimmt. Aber es wird niemand von X86 weggehen wollen.

Das ist doch kein Argument. Du nimmst einen alten Chip von AMD und vergleichst mit einem aktuellen von ARM/Nvidia, blendest aber gleichzeitig den aktuellen Chip von AMD aus um dann zu sagen ARM/Nvidia ist konkurrenzfähig.:freak:

Womit ich nicht sagen will, wie das in der Realität aussieht (davon verstehe ich letztlich zu wenig), sondern nur, dass das Argument keines ist.

gnomi
2018-05-21, 12:14:16
@ GPU Vergleich
Die GPU in der X ist gut, aber imho sicher nicht 1080 Niveau.
Eher 1060 bis 1070 je nach Umsetzung, oder? :confused:
Man sieht jedenfalls bei vielen Spielen folgendes.
Die Auflösung geht zwar sehr hoch und oft gibt es mal 1800P nativ, aber eben nur bei mittleren PC Details und recht konstanten 30 fps. (nicht alles dient dabei schätze ich der CPU Entlastung, da sind auch viele andere Features qualitativ reduziert)
Es wäre natürlich interessant, wie das dann mit Freesync Monitoren kombiniert mit Software, die Performance Modi anbieten, so aussieht.
Aber ich würde schon sagen, dass die Konsole ein gutes I7 mit 1080 Gespann bislang ganz klar noch nicht überholt.
Selbst AMD VEGA ist nicht unbedingt schneller als eine gute 1080...

=Floi=
2018-05-21, 15:34:50
Gelten die nicht für CPU+GPU bei der XOX?
Wenn dem so ist schlussfolgere ich daraus, dass wir am PC immer noch verarscht werden und man 25-35% Potenzial aufgrund des mangelhaften Softwarestacks nicht nutzen kann. :redface:


meine 780ti stemmt 6,6 Tflop und ankommen tun davon sicher 50% weniger. Darauf kann man im grunde schon lange nicht mehr wirklich gehen.

AMDoderNvidia
2018-05-21, 21:54:15
Wie wahrscheinlich ist es denn nun, dass Turing im 10nm Prozess von TSMC gefertigt wird?

Und warum gibt es keine Leaks zur Performance und den Specs der Turing-Chips? :confused: :rolleyes: :freak: :biggrin:

gravitationsfeld
2018-05-21, 22:13:42
Weil NVIDIA nicht leakt.

AMDoderNvidia
2018-05-21, 22:16:49
Das ist doch kein Argument. Grundsätzlich möchte keine Firma, dass vorab Infos an die Öffentlichkeit kommen. Und trotzdem passiert es, weil Leute von intern (!) halt Infos nach außen tragen... oder Benchmark-Ergebnisse "aus Versehen" in öffentliche Listen hochgeladen werden.

gravitationsfeld
2018-05-21, 22:18:57
Nein, es ist ein Argument. NVIDIA ist extrem viel strikter was Informationsfluss angeht als jede andere Firma (sei es AMD, Intel oder sonstwer) mit der ich interagiert habe.

Sunrise
2018-05-21, 22:59:55
Unsinn. Perf/W spielt bei Notebooks und Konsolen eine Rolle, im Desktop-PC aber nur eine untergeordnete. Wenn man jetzt mal von Extremen absieht ist es dem Käufer ziemlich egal, ob das Teil jetzt 150 oder 250W braucht.
Darum geht es doch garnicht...wir reden hier von einer Architektur die inherent (am PC-Desktop) extrem mehr leistet und dabei noch sehr stromsparend ist, was bei NV mehrere Gründe hat. Das beeinflusst durch die Bank weg alles, sowohl extrem sparsame Architektur-Konfigurationen als auch bis ans Limit getriebene Experimente, die noch kühlbar sind. Aufgrund der bei NV extrem guten Prozess-Arbeit bei TSMC und den extrem hohen Taktraten und dass du dabei keine Atomkraftwerkskühlung relativ zu AMD benötigst, die da nichtmal annähernd in die Nähe kommen.

Zusätzlich kann man die HW von der SW nicht trennen und hier hat bereits Kriton schon sehr schön beschrieben, dass NV und z.B. die Unreal Engine schon immer aufgrund Sweeneys persönliche Nähe zu Ihnen ordentliche Vorteile hat. Auch die Video Encoder und Decoder waren bei NV stetig mehrere Generationen besser (viel effizienter und deutlich mehr Features), das holt AMD überhaupt erst jetzt auf, sie rennen aber stetig hinterher.

Wenn eine Architektur 100% stromsparender bei identischer Leistung ist, dann sind das mehrere Prozess-Nodes Unterschied die niemand auffangen kann, erst Recht nicht wenn NV hier ständig bei TSMC als erster anklopft. Insofern ist es ziemlich kurzsichtig, diesen Vorteil nur auf bestimmte Segmente begrenzen zu wollen. Das fängt beim kleinsten und sparsamsten Chip an (Xavier) und geht bis High-End Pascal/Volta bzw. zukünftig Touring oder wie auch immer weiter.

AMD hatte vor Jahren immer noch sehr gute Treiberarbeit investiert und dann NVs Karten, die vorher nicht geschlagen werden konnten wieder eingeholt, aber bei VEGA? Den sollte man lieber schneller als später einstampfen und wirklich nur noch High-End (als Hawaii-Ersatz) bedienen, das Ding ist wahrscheinlich selbst auf 7nm nicht gegen NVs demnächst erscheinende Generation gewachsen, und das mit einem Prozess-Nachteil.

Perf/W ist echt total unwichtig...

aufkrawall
2018-05-21, 23:17:34
Was ist denn "100% stromsparender"? Wir wollen mal nicht gleich übertreiben, ja?
Ein vernünftiger Bereich für eine 1060 sind ~100W und für eine 580 ~160W. Macht 60% Mehrverbrauch von AMD bei vergleichbarer DX11-Performance. Das ist doch schon übel genug und bedarf keiner seltsamer Superlative wie "100%"...

Sunrise
2018-05-21, 23:25:03
Was ist denn "100% stromsparender"? Wir wollen mal nicht gleich übertreiben, ja?
Ein vernünftiger Bereich für eine 1060 sind ~100W und für eine 580 ~160W. Macht 60% Mehrverbrauch von AMD bei vergleichbarer DX11-Performance. Das ist doch schon übel genug und bedarf keiner seltsamer Superlative wie "100%"...
Das wurde vor einigen Seiten von Adam D. gepostet. (https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=63408&d=1526808720)

Ich möchte jetzt eigentlich keine Erbsen zählen...wer das wegredet hat einen extremen Bias (nicht du bist gemeint).

Troyan
2018-05-21, 23:25:53
160W? Das war der Stromverbrauch der Referenz RX460...
Stromverbrauch der RX580 liegt zwischen 180W bis 220W: https://www.hardware.fr/articles/961-7/consommation-efficacite-energetique.html

Das sind bis zu 100W mehr also im Grunde fast eine komplette GTX1060...

aufkrawall
2018-05-21, 23:34:09
Ja klar, 160W für eine 460. Deshalb läuft hier eine XT 560 auch konstant mit 1,2GHz bei ~80W erlaubter Gesamtaufnahme. Wo manche Leute leben...

reaperrr
2018-05-22, 00:14:36
Ja klar, 160W für eine 460. Deshalb läuft hier eine XT 560 auch konstant mit 1,2GHz bei ~80W erlaubter Gesamtaufnahme. Wo manche Leute leben...
Er wird wohl RX480 gemeint haben, deren Real-Verbrauch bei knapp ~165W lag.

aufkrawall
2018-05-22, 00:30:24
Er wird wohl RX480 gemeint haben, deren Real-Verbrauch bei knapp ~165W lag.
Dann widerspricht er mir ja nicht, denn da bekommt man die 580s mit geringfügiger Taktabsenkung auch hin.
Troyan nimmt natürlich für AMD den Worstcase, er kann halt nicht anders.

Grendizer
2018-05-22, 07:57:01
Dann widerspricht er mir ja nicht, denn da bekommt man die 580s mit geringfügiger Taktabsenkung auch hin.
Troyan nimmt natürlich für AMD den Worstcase, er kann halt nicht anders.

Ist ja nicht so, das nvidia nicht auch uv kann. Irgendwo müssen wir uns halt einigen was wir nutzen. Die Werkseinstellungen oder uv einstellungen. Nur glaube ich, das wir dann noch einen größeren Unterschied haben werden.

robbitop
2018-05-22, 08:16:15
AMD betreibt die Radeons schon lange in schlechten Betriebsbereichen. Einfach weil man seit einer Weile jedes Mal ein bisschen zu langsam ist. Dann wird mit der Brechstange die Leistung über den Takt geholt. Das sagt über die mArch nichts aus. Wenn man beide mArchs in ihrem Sweetspot betreibt, sinkt der Perf/W Unterschied.
Aber Perf/Transistor und Perf/Bandbreite sind im Moment auf dem PC außerhalb von Doom/Wolfenstein wirklich besorgniserregend bei AMD. Im Prinzip holt man mit GP102 ähnlicher Bandbreite und Transistorzahl nur GP104 Leistung.
Das wird sicherlich nicht immer so bleiben. Dank Zen wird man sicherlich wieder mehr Budget für RnD haben. Aber bis das Auswirkungen zeigt, wird es IMO noch etwas dauern.

Bucklew
2018-05-22, 09:09:17
Dann wird mit der Brechstange die Leistung über den Takt geholt. Das sagt über die mArch nichts aus. Wenn man beide mArchs in ihrem Sweetspot betreibt, sinkt der Perf/W Unterschied.
Wäre die Architektur besser, müsste man die Karten nicht bis zur Kotzgrenze hochtakten, um mit den Pascal-Chips mithalten zu können.

HOT
2018-05-22, 09:09:21
robbitop
Richtig. Daher bleibt die Aussage nonsens. Den Desktop-Käufer interessiert Perf/W wenig, die anderen bekommen nicht ganz so gute Perf/W wie von NV im PC-Markt, aber eben billiger und weit weit entfernt von doppelt so gut, das ist purer BS.
Wie Polaris22, der ist durchaus konkurrenzfähig bei Perf/W und das ist ein Polaris.

Die Radeons sind in hohen Taktbereichen einfach schlechter als die Geforces. Das liegt zum einen an 14LPP (siehe GP107/8) und zum anderen muss AMD da tatsächlich was nachholen, weshalb man ja jetzt die GPU-Teams mit den CPU-Teams für 7nm connected hat. Man versucht jetzt endlich den besten Takt herauszuholen. Mal sehen ob das gelingt.

Wäre die Architektur besser, müsste man die Karten nicht bis zur Kotzgrenze hochtakten, um mit den Pascal-Chips mithalten zu können.
Das mit der schlechteren Taktbarkeit hat wohl eher was mit Chip-/Maskendesign zu tun. Die CUs müssen halt effizienter werden bei hohen Taktraten. Und nach TSMC gehen wär auch nicht ganz unwichtig. Hier hat NV seit Maxwell einfach alles richtig gemacht und AMD hat seit Tahiti eben nichts gemacht. Die Vega-CUs hat man eben nur fetter gemacht und verhindert, dass sie sich noch schlechter takten lassen.

Bucklew
2018-05-22, 09:14:36
Den Desktop-Käufer interessiert Perf/W wenig
Da sagen die Käufer was anderes:
https://www.3dcenter.org/dateien/abbildungen/Add-in-Board-GPU-Market-Share-2002-to-Q4-2017.png

Man betrachte die Marktverschiebung, die mit Pascal-Release eingetreten ist. Trotz der doch angeblich so überteuerten Karten :eek:

Das mit der schlechteren Taktbarkeit hat wohl eher was mit Chip-/Maskendesign zu tun.
AMD kriegt es nicht gebacken ihre Rohleistung auf die Straße zu kriegen. Das was du ansprichst führt die Situation nur von "schlecht" zu "katastrophal".

Wo bleiben denn die 12-13 TFlops von Vega, wenn die Karte auf dem Niveau einer 9 TFlops GTX1080 liegt? Und selbst wenn man absolutes Cherrypicking betreibt und nur die zwei, drei AMD-Vorzeigetitel wählt, liegt man auf dem Niveau einer 1080Ti mit 11 TFlops. Besser, aber immer noch nicht auf Augenhöhe.

Daredevil
2018-05-22, 09:27:54
Sagst du da nicht was völlig gegenteiliges?
Ich sehe da gerade AMD seit 3/15 in einem Aufwärtstrend und Nvidia in genau gegen gesetztem.

Bucklew
2018-05-22, 09:34:51
Sagst du da nicht was völlig gegenteiliges?
Ich sehe da gerade AMD seit 3/15 in einem Aufwärtstrend und Nvidia in genau gegen gesetztem.
Die Miner retten AMD natürlich den Arsch, zu Zeiten von Maxwell, gab es die Effekte so noch gar nicht.

Nicht ohne Grund steht NVIDIA bei Steam immer noch bei 75%.

Mangel76
2018-05-22, 09:39:16
Wo bleiben denn die 12-13 TFlops von Vega, wenn die Karte auf dem Niveau einer 9 TFlops GTX1080 liegt? Und selbst wenn man absolutes Cherrypicking betreibt und nur die zwei, drei AMD-Vorzeigetitel wählt, liegt man auf dem Niveau einer 1080Ti mit 11 TFlops. Besser, aber immer noch nicht auf Augenhöhe.

Das kann man aber auch anders herum sehen: VEGA ist konkurrenzfähig wenn die Software passt. Könnte es vielleicht sein, dass in der Breite eher auf NVIDIA optimiert wird aufgrund des höheren Marktanteils?

Und die nicht vorhandene aber proklamierte Marktverschiebung durch die überteuerten Pascal-Chips ist natürlich nur auf Miner zurückzuführen. Immer wieder erstaunlich, wie sich Leute drehen und wenden können, nur damit etwas ins eigene Weltbild passt.

Bucklew
2018-05-22, 09:57:28
Das kann man aber auch anders herum sehen: VEGA ist konkurrenzfähig wenn die Software passt. Könnte es vielleicht sein, dass in der Breite eher auf NVIDIA optimiert wird aufgrund des höheren Marktanteils?
Na dann zeig mir doch mal den Benchmark (im GPU-Limit ;)), bei dem Vega 20% vor einer 1080Ti liegt ;D

Und die nicht vorhandene aber proklamierte Marktverschiebung durch die überteuerten Pascal-Chips ist natürlich nur auf Miner zurückzuführen. Immer wieder erstaunlich, wie sich Leute drehen und wenden können, nur damit etwas ins eigene Weltbild passt.
Die angeblich nicht vorhandene Marktverschiebung kannst du sehr gut in der Steam Statistik sehen:
https://store.steampowered.com/hwsurvey/videocard/

Schau mal wo die ach so überteuerten Pascal-Chips stehen :rolleyes:

Daredevil
2018-05-22, 10:04:42
Die Miner retten AMD natürlich den Arsch, zu Zeiten von Maxwell, gab es die Effekte so noch gar nicht.

Nicht ohne Grund steht NVIDIA bei Steam immer noch bei 75%.
Ja was denn nun? :D
Du hast den Market Share gepostet, wo AMD Aktuell seit 3 Jahren stetig zunimmt, jetzt schmeißt du mit den Steam Charts umher.

Beim Market Share ist übrigens völlig egal, wer die Karten kauft, solange sie gekauft werden. Eine Grafikkarte gekauft von einem Gamer ist nicht wertvoller als eine Grafikkarte gekauft von einem Miner.

Der Market Share steigt seit 2015 an mit AMDs ineffizienten Gammelkarten, ob du willst oder nicht. Irgendwas scheint AMD da wohl doch besser zu als vorher. ^^

Bucklew
2018-05-22, 10:08:37
Ja was denn nun? :D
Du hast den Market Share gepostet, wo AMD Aktuell seit 3 Jahren stetig zunimmt, jetzt schmeißt du mit den Steam Charts umher.
Ich habe einen MarktShare gepostet, bei dem mit Release einer deutlich besseren Perf/Watt Generation, der MarketShare sich von 60/40 auf 80/20 ändert und sich bis heute nicht zurück geändert hat.

Beim Market Share ist übrigens völlig egal, wer die Karten kauft, solange sie gekauft werden. Eine Grafikkarte gekauft von einem Gamer ist nicht wertvoller als eine Grafikkarte gekauft von einem Miner.
Ignoriere bitte nicht den Kontext:
Den Desktop-Käufer interessiert Perf/W wenig
Geht sehr wohl darum, ob die Karte von Gamern oder nicht von Gamern gekauft wird.

Der Market Share steigt seit 2015 an mit AMDs ineffizienten Gammelkarten, ob du willst oder nicht. ^^
Ja, hat nur leider null mit dem Kontext und meiner Behauptung zu tun :freak:

Steam ist natürlich nochmal eine ganz andere Sache.
Nö :up:

Damit können wir die Marktanteile dann auch mal sein lassen, hier geht es um Turing.

Gemerkt hat ja jetzt hoffentlich jeder, dass Perf/Watt für den Desktopkäufer ein wichtiger Faktor ist.

Daredevil
2018-05-22, 10:13:10
Ja, das denke ich auch, dass dem Kunden aus unseren Breitengraden wichtig ist.
Wenn man ein mehrfaches für LED Lampen ausgibt, dann trägt man auch die Verantwortung bei den Grafikkarten.
Wenn dem nicht so wäre, würde ja auch jeder seine CPU/GPU hier zum erbrechen dauerhaft übertakten, das machen ja auch eher nur wenige.

Mich hat nur das Bild mit dem Kommentar irritiert, den Kontext habe ich tatsächlich übersehen, sorry. :D

Bucklew
2018-05-22, 10:23:35
:up:

Ist eben nicht so einfach die passenden Zahlen zu finden.

Jupiter
2018-05-22, 10:38:28
Die Xbox One X ist locker GTX-1080-Niveau.

Unwahrscheinlich. Wenn Mass Effect: Andromeda verglichen wird, hat die PlayStation 4 Pro eine niedrigere Auflösung (Checkerboarding 1800p), viel schlechtere Grafik und 24fps im Gegensatz zu einer GTX 1080 mit 1512p bei 60fps und weitaus höheren Grafikeinstellungen. Die GTX 1080 ist da um Faktor >2 schneller als die Pro. Wenn ich die Performance vergleiche, ist die Xbox One X je nach Spiel meist zwischen GTX 1060 und GTX 1070 einzuordnen. Nur bei Spielen welche auf AMD-Hardware ausgelegt sind, könnte die Xbox One X an eine GTX 1080 kommen. Andererseits können Spiele auch für Nvidia-Hardware gemacht sein. Die kann eine Xbox One X unterhalb von GTX 1060er Performance kommen. In Alien: Isolation schafft jede GPU 60fps bei 1080p, während die Konsolen nur 30fps und niedrigere Grafik haben.

In Battlefront 2 oder Battlefield 1 kommt die Xbox One X auch nie an eine GTX 1080 heran.

maximus_hertus
2018-05-22, 10:57:48
Unwahrscheinlich. Wenn Mass Effect: Andromeda verglichen wird, hat die PlayStation 4 Pro eine niedrigere Auflösung (Checkerboarding 1800p), viel schlechtere Grafik und 24fps im Gegensatz zu einer GTX 1080 mit 1512p bei 60fps und weitaus höheren Grafikeinstellungen. Die GTX 1080 ist da um Faktor >2 schneller als die Pro. Wenn ich die Performance vergleiche ist die Xbox One X je nach Spiel meist zwischen GTX 1060 und GTX 1070 einzuordnen.

Xbox One X ist nicht auf GTX 1080 Niveau weiil die PS4 Pro viel schlechter ist? Ernsthaft? Das ist dein "Vergleich"?

Assassins Creed Origins läuft auf einer 1080 in 4K mit knapp / rund 30 fps. Auf der Xbox One X sind es 30 fps, jedoch nicht ganz (durchgängig) 4K, im Schnitt rund 1800p. Ergo liegt die 1080 vorne, jedoch is der Vorsprung nicht gerade groß. Die PS4 Pro liegt da übrigens meilenweit zurück, selbst in 1440p werden die 30 fps nicht immer gehalten.

Nosferatu1
2018-05-22, 11:11:11
Ist das ein Witz? Xbox one x ist auf rx 580 nievau sogar leicht darunter, es ist nur eine apu. Von der schwachen Cpu fang ich gar nicht erst an.

Edit: wtf mit 1080 vergleichen ...dachte das ist ein Pc Forum wo leute ahnung haben.....Konsole tricksen bis zum geht nicht mehr ich konnte Origins mit 50-55fps zocken in 4k komisch was stell AA auf Niedrig fertig. Von den alggemein höheren settings fange ich auch nicht an. Konsolen tricksen seit je her nichts besonders ist das gleiche wie ein pc nur mit anderem OS.

Rx580 schafft genauso das was die xbox one x auch schafft nur das eben NATIV ist also eben schneller.

maximus_hertus
2018-05-22, 11:27:38
Warum ist das APU-Design für dich ein Problem? Stichwort tricksen: Auch auf dem PC ist nicht die "komplette Grafik" konstant. Z.B. können die Texturen dynamisch "schwächeln". Von miesen Frametimes auf AMD Karten in der PC Version will ich gar nicht erst reden.

Der Punkt ist, dass der Unterschied von GCN @ Konsole zur 1080 (wesentlich) geringer ist als von GCN @ PC zur 1080. Nicht mehr, aber auch nicht weniger.

Nosferatu1
2018-05-22, 11:31:53
Diese Trickserei kannst du absolut nicht vergleichen. Bei der Konsole läuft alles auf tricksen ALLES. Was auch logisch ist anbetracht der specs kann ja nicht mal 1080p in 60 fps darstellen mit Ultra Konstant natürlich.

Warum fängst du jeztz mit frametimes an? LOL komplett aus der Luft gegriffen weis nicht mal was für ein spiel.

Xbox one x = rx580/1060 at best.

https://www.youtube.com/watch?v=dGa_7Ds13Ls

Tesseract
2018-05-22, 11:35:52
Assassins Creed Origins läuft auf einer 1080 in 4K mit knapp / rund 30 fps. Auf der Xbox One X sind es 30 fps, jedoch nicht ganz (durchgängig) 4K, im Schnitt rund 1800p. Ergo liegt die 1080 vorne, jedoch is der Vorsprung nicht gerade groß.

ACO läuft auf einer 1080Ti auf ~1800p mit allem auf ultra auf etwa 60-65fps, eine 1080 müsste also so im bereich 40-45 liegen und das wären grob 133-150% der xbonex.

Nosferatu1
2018-05-22, 11:38:20
Richtig. Wenn man AA auf NIEDRIG stellt bekommt man 10fps boost warum auch immer. Schätze TAA Renderskalierung merke keinen Unterschied zu AA HIGH bis auf 10 fps verlust.

Bucklew
2018-05-22, 11:54:19
Der Punkt ist, dass der Unterschied von GCN @ Konsole zur 1080 (wesentlich) geringer ist als von GCN @ PC zur 1080. Nicht mehr, aber auch nicht weniger.
Der Vergleich hinkt aber nicht nur, der hat nicht mal mehr Beine.

maximus_hertus
2018-05-22, 12:19:27
Der Vergleich hinkt aber nicht nur, der hat nicht mal mehr Beine.

Warum?

Am Ende des Tages ist doch der "Output" wichtig. Eine Xbox One X hat einen wesentlich besseren Output (zB in AC:O) als jede GCN PC Lösung. Nicht aufgrund besserer Hardware, das ist klar.

Aber was habe ich von einer tollen Hardware / Rohleistung, wenn ich diese nicht auf die Strasse bekomme? Eine 1080 @ Konsole wäre quasi Next-Gen, keine Frage. Da würden PS4 Pro und Xbox One X sehr alt aussehen.

Aktuell ist es aber halt so, dass eine 1080 (nicht Ti) @ PC keine wesentlichen bzw. dramatischen Vorteile zur Xbox One X hat. Das war bei Maxwell vs Vanilla-PS4/Xbox noch anders.

Eine Grafikkarte / Chip ist halt nur so gut wie die Software, die die LEistung auf die Strasse bringt.

Nosferatu1
2018-05-22, 12:43:58
Also ich habe 100% Gpu auslastung in Origins........wenn nicht gerade cpu limit anschlägt. :) Software nutzt hardware bis zum erbrechen aus. Gerade in 4k.

Bucklew
2018-05-22, 13:30:27
Warum?
Da gibt es zig Gründe. Das Betriebssystem auf einer Konsole ist (oder sollte zumindest) schon mal deutlich schlanker sein, als auf einem PC, der ja noch zig Millionen anderen Möglichkeiten der Nutzung hat. Daneben kann dort viel hardware-näher entwickelt werden, als bei einem PC, wo das Spiel eben auch mit der Last-Gen, wie der noch gar nicht erhältlichen Next-Gen Konsole funktionieren sollte. Es kann viele Detailanpassungen geben, wie z.B. die Prozeßpriorität der Spiele-Threads.

Kurz: Der Vergleich ist ziemlicher Humbug und im Grunde auch sinnlos. Hätte eine PS4 (oder XBox) einen NVIDIA-Chip verbaut, wäre dieser auch deutlich besser optimiert, als auf dem PC. Die Aussagekraft ist daher quasi null.

Mangel76
2018-05-22, 13:53:54
Da gibt es zig Gründe. Das Betriebssystem auf einer Konsole ist (oder sollte zumindest) schon mal deutlich schlanker sein, als auf einem PC, der ja noch zig Millionen anderen Möglichkeiten der Nutzung hat. Daneben kann dort viel hardware-näher entwickelt werden, als bei einem PC, wo das Spiel eben auch mit der Last-Gen, wie der noch gar nicht erhältlichen Next-Gen Konsole funktionieren sollte. Es kann viele Detailanpassungen geben, wie z.B. die Prozeßpriorität der Spiele-Threads.

Kurz: Der Vergleich ist ziemlicher Humbug und im Grunde auch sinnlos. Hätte eine PS4 (oder XBox) einen NVIDIA-Chip verbaut, wäre dieser auch deutlich besser optimiert, als auf dem PC. Die Aussagekraft ist daher quasi null.

Damit hast du so ziemlich genau das bestätigt, was Maximus_Hertus gesagt hat. Wenn hardwarenah für GCN programmiert wird, holt man deutlich mehr Leistung aus der GPU als auf einem Windowssystem mit Treiber- und DX11-Gedöns. Nichts anderes haben er und gravitationsfeld gesagt. Woran das nun liegt, ob an schlechtem AMD-Treiber oder fehlender GCN-Optimierung, ist ein völlig anderes Thema.

maximus_hertus
2018-05-22, 13:57:42
Da gibt es zig Gründe. Das Betriebssystem auf einer Konsole ist (oder sollte zumindest) schon mal deutlich schlanker sein, als auf einem PC, der ja noch zig Millionen anderen Möglichkeiten der Nutzung hat. Daneben kann dort viel hardware-näher entwickelt werden, als bei einem PC, wo das Spiel eben auch mit der Last-Gen, wie der noch gar nicht erhältlichen Next-Gen Konsole funktionieren sollte. Es kann viele Detailanpassungen geben, wie z.B. die Prozeßpriorität der Spiele-Threads.

Kurz: Der Vergleich ist ziemlicher Humbug und im Grunde auch sinnlos. Hätte eine PS4 (oder XBox) einen NVIDIA-Chip verbaut, wäre dieser auch deutlich besser optimiert, als auf dem PC. Die Aussagekraft ist daher quasi null.

Genau das habe ich doch geschrieben....

Ich zitiere mich mal selbst:

Eine 1080 @ Konsole wäre quasi Next-Gen, keine Frage. Da würden PS4 Pro und Xbox One X sehr alt aussehen.

Allerdings dürfte der Sprung PC => Konsole bei nV wohl kleiner ausfallen als bei AMD, da die nVs auf dem PC besser ihre Leistung auf die Straße bekommen. Da es aber keine (High End) Pascal in einer Konsole gibt, ist es eh müßig.

Vor allem ist es Off-Topic ;)

Bucklew
2018-05-22, 14:04:32
Damit hast du so ziemlich genau das bestätigt, was Maximus_Hertus gesagt hat. Wenn hardwarenah für GCN eine beliebige Hardware programmiert wird, holt man deutlich mehr Leistung aus der GPU als auf einem Windowssystem mit Treiber- und DX11-Gedöns.
Fixed that for you.

Das ist eben eine total blödsinnige Diskussion. Es gibt keinerlei Mehrwert dadurch.

Nosferatu1
2018-05-22, 14:31:07
LOL

Hübie
2018-05-22, 19:17:20
Xbox One X ist nicht auf GTX 1080 Niveau weiil die PS4 Pro viel schlechter ist? Ernsthaft? Das ist dein "Vergleich"?

Assassins Creed Origins läuft auf einer 1080 in 4K mit knapp / rund 30 fps. Auf der Xbox One X sind es 30 fps, jedoch nicht ganz (durchgängig) 4K, im Schnitt rund 1800p. Ergo liegt die 1080 vorne, jedoch is der Vorsprung nicht gerade groß. Die PS4 Pro liegt da übrigens meilenweit zurück, selbst in 1440p werden die 30 fps nicht immer gehalten.

Hast du auch den optimierten Detailgrad mit bedacht? Auch wenn ich gravitationsfeld's Wissen schätze, bezweifel ich dass eine XOX an einen GP104 heran reicht. Es sei denn man programmiert eher "für" die eine µArch (GCN hat eben weniger Beschränkungen und ist detaillierter dokumentiert). Das soll jetzt nicht so herüber kommen dass man von AMD geschmiert wurde, sondern, dass man NV rules einfach nicht immer berücksichtigen will. Vor ein paar monaten postet gravitationsfeld ja mal eine kleine Liste mit dem Vergleich von einigen Hardware-Resources. Ich als Laie weiß zwar nicht wofür die im Detail sind, aber sie beschränken jedenfalls. Der ein oder andere erinnert sich.

Ich bitte nun die "üblichen Verdächtigen" sich der Thematik und nicht den Emotionen zu widmen. Danke.
Bisher wissen wir vom einen, dass was im Sommer kommen soll (THG) und vom anderen dass nix im Juli kommen soll (EXP). Also August für beides: Ref-Modell und Customs vom Start weg. Macht für mich Sinn, da die back to school season A) Notebook und B) Upgrade Seasons sind - OK und weil ich da Burzeltag habe. :smile:

aufkrawall
2018-05-22, 19:34:47
Ist die Frage, ob die maximale Perf/W dann wirklich noch so auschlaggebend ist, wenn man bei MS und Sony den Eindruck hätte, man muss dem NV-Gott für jede Information oder Sonderwunsch ein Menschenopfer darbieten.

dildo4u
2018-05-22, 19:44:03
Die One X schafft z.b echtes 4k in Far Cry 5.Man kann es nicht eins zu eins mit der 580 vergleichen,da der SOC mehr Bandbreite hat.
AMD ist effizient genug wenn der Chip Breit und der Takt niedrig ist,genau das mach AMD in der One X.Der Chip ist breiter als die 580 Taktet aber weniger.

Nosferatu1
2018-05-22, 20:10:56
Danke dildo! (nichts was ich unter normalen umständen sagen würde :D aber naja)

robbitop
2018-05-22, 21:35:47
Naja @idtech ist GCN so leistungsfähig wie nirgends sonst. Ggf ist auch eine Prise Optimismus dabei. Aber zumindest wird man dort auf vergleichbare Performance pro FLOP kommen wie Pascal.

Hübie
2018-05-23, 00:26:56
Ist die Frage, ob die maximale Perf/W dann wirklich noch so auschlaggebend ist, wenn man bei MS und Sony den Eindruck hätte, man muss dem NV-Gott für jede Information oder Sonderwunsch ein Menschenopfer darbieten.

Ich finde, dass man an der XOX ganz gut sehen kann, wie ausbaufähig die Geschichte ist. Nehmen wir mal die Titan Xm gegen die XOX:

Modell|GFLOPs|Verbrauch|GFLOPs/W|Quelle
Titan Xm|6604|240|~28|Wiki
1070|6463|147|~44|Wiki
PS4Pro|4200|155|~27|Anandtech
XOX|6000|172|~35|Eurogamer

Mit der PS4P war man gleich auf und mit der XOX zog man dann an Maxwell vorbei. Ist zwar etwas Plump, da wir hier ein SoC gegen eine GPU antreten, lassen, aber so steht NV nicht noch schlechter da. ;D So grob sollte man aber schon erkennen, dass es nicht am Prozess liegt, wie manch einer behauptet. Es ist der Softwarestack und die ungenutzte Hardware auf dem PC die nicht gut skaliert und Perf/W kaputt macht.
Das ist zumindest meine Schlussfolgerung aus den Daten. :smile:

(XOX ist iirc irgendwo Polaris+ bis Vega-)

Kriton
2018-05-23, 00:57:59
Mich irritiert, dass (angeblich/möglicherweise) eine neue Generation kommen soll, aber Nvidia vorher noch eine "neue" 1050 mit 3 GB-Speicher bringt.
Unter Marketinggesichtspunkten ist die doch dann (als alte Generation) bald veraltet (unabhängig von der Sinnhaftigkeit - eine mangelnde technische Sinnhaftigkeit würde IMHO sogar eher ein stärkeres Marketing benötigen, weswegen die Generationsthematik erst recht relevant wäre).
Ich sage dies im Bewusstsein, dass eine 1150 nicht gerade die erste neue Karte der neuen Generation wäre, aber dennoch frage ich mich, ob das nicht darauf hindeutet, dass es doch noch länger (nächstes Jahr) dauert bis eine neue Gen kommt.

Tesseract
2018-05-23, 02:37:20
Ich finde, dass man an der XOX ganz gut sehen kann, wie ausbaufähig die Geschichte ist. Nehmen wir mal die Titan Xm gegen die XOX:

Modell|GFLOPs|Verbrauch|GFLOPs/W|Quelle
Titan Xm|6604|240|~28|Wiki
1070|6463|147|~44|Wiki
PS4Pro|4200|155|~27|Anandtech
XOX|6000|172|~35|Eurogamer

die vereinfachte GFLOP-formel für die aktuellen architekturen ist cores*2*tatsächlich_anliegende_GHz, was eher so richtung ~3072*2*1.150=7066 GFLOPs für die Xm und ~1920*2*1.93=7411 GFLOPs für die 1070 geht wenn die karten das powertarget erreichen und nicht wie die FE aus temperaturgründen throttlen was natürlich auch zu einem verbrauch unterhalb der TDP führt. außerdem läuft pascal wie fast alle desktopkarten an der takt-voltage-kotzgrenze. nimmt man vom takt ~10% weg geht es schnell richtung ~60-70 GFLOPs/W.

das ganze zeigt eher, dass alle architekturen deutlich ineffizienter werden wenn man sie ans maximum prügelt als irgendwas anderes.

gravitationsfeld
2018-05-23, 05:19:17
Hast du auch den optimierten Detailgrad mit bedacht? Auch wenn ich gravitationsfeld's Wissen schätze, bezweifel ich dass eine XOX an einen GP104 heran reicht. Es sei denn man programmiert eher "für" die eine µArch (GCN hat eben weniger Beschränkungen und ist detaillierter dokumentiert). Das soll jetzt nicht so herüber kommen dass man von AMD geschmiert wurde, sondern, dass man NV rules einfach nicht immer berücksichtigen will. Vor ein paar monaten postet gravitationsfeld ja mal eine kleine Liste mit dem Vergleich von einigen Hardware-Resources. Ich als Laie weiß zwar nicht wofür die im Detail sind, aber sie beschränken jedenfalls. Der ein oder andere erinnert sich.
Async compute bringt viel auf GCN. Wenn man das einsetzt und die Xbox One X 100% voll bekommt sind die Chips durchaus vergleichbar.

Rohleistung hat nicht viel zu sagen. Man muss zwischen passes immer wieder die Pipeline leeren wenn man Abhaengigkeiten hat, und da gibt's auf Pascal kein Gegenmittel.

Naja @idtech ist GCN so leistungsfähig wie nirgends sonst. Ggf ist auch eine Prise Optimismus dabei. Aber zumindest wird man dort auf vergleichbare Performance pro FLOP kommen wie Pascal.
Mehr. Ist wirklich absurd, wenn man sich die PC-Zahlen anschaut, aber wenn man die Stellschrauben im Scheduling handoptimiert, dann ist GCN ueberlegen. Das macht halt nicht jeder. Und es hat auch nicht jeder den Anspruch, wirklich das letzte raus zu holen. Sieht man ja daran, dass die meisten Titel gerade mal so mit 30 FPS laufen. DICE ist da wahrscheinlich aehnlich gut darin.

Der AMD-Rasterizer hat halt auch wirklich seine Zicken. Es ist im Prinzip ein Unding, dass man da selber CS-Culling laufen lassen muss um es zu beheben.

Ich seh auf der Xbox-One-X wirklich teilweise bessere Frame-Times als auf einer GTX 1080. Und das nicht "weil NVIDIA nicht optimiert ist".

Uebrigens, bevor jemand jammert: Auf die Konsolen optimieren bringt auch dem PC-Gamer was, weil wenn's nicht auf der Xbox One (non X) laeuft, dann muessen halt Sachen rausgeschmissen werden. Und nein, da gibt's kein Extra-Bier fuer den PC - bis auf Sachen die man einfach skalieren kann.

Hübie
2018-05-23, 07:01:24
Was ist mit Pascal's beworbenem preemption feature? Soll doch genau dafür sein: Pipeline leeren, Ergebnisse zwischenspeichern, anderen Task performen, vorherigen Task wieder aufnehmen und glücklich sein (:D). Kann man das überhaupt anstossen oder ist dies einem Automatismus unterlegen?
Ich weiß ja, dass eng mit AMD&NV zusammen gearbeitet wurde um aus beiden Welten das beste heraus zu holen. ;)

mboeller
2018-05-23, 07:33:35
Ich finde, dass man an der XOX ganz gut sehen kann, wie ausbaufähig die Geschichte ist. Nehmen wir mal die Titan Xm gegen die XOX:

Modell|GFLOPs|Verbrauch|GFLOPs/W|Quelle
Titan Xm|6604|240|~28|Wiki
1070|6463|147|~44|Wiki
PS4Pro|4200|155|~27|Anandtech
XOX|6000|172|~35|Eurogamer



witzig, du vergleichst also wirklich den Verbrauch einer Einzelkomponente (GPU) mit dem Verbrauch einer ganzen Konsole bzw. eines ganzen Computers.;D

gravitationsfeld
2018-05-23, 07:46:42
Was ist mit Pascal's beworbenem preemption feature? Soll doch genau dafür sein
Async Compute bringt nur in sehr begrenzten Faellen was auf Pascal und selbst wenn es funktioniert ist es lange nicht so effektiv. Kann ja jeder nachmessen. Details sind NDA.

Es ist durchaus beeindruckend, wie gut das schon bei GCN 1.0 funktioniert. Die Hardware ist ja 6 Jahre alt.

Hübie
2018-05-23, 08:02:41
witzig, du vergleichst also wirklich den Verbrauch einer Einzelkomponente (GPU) mit dem Verbrauch einer ganzen Konsole bzw. eines ganzen Computers.;D

Zitiere doch bitte alles. Dann stellst du fest, dass ich es bereits festgestellt habe.

@gravitatiosnfeld: War ja klar, dass NV da mal wieder Nebelschwaden verbreitet. Aber gut. Es ist deren Recht dies zu tun.

Nosferatu1
2018-05-23, 08:44:58
Mich irritiert, dass (angeblich/möglicherweise) eine neue Generation kommen soll, aber Nvidia vorher noch eine "neue" 1050 mit 3 GB-Speicher bringt.
Unter Marketinggesichtspunkten ist die doch dann (als alte Generation) bald veraltet (unabhängig von der Sinnhaftigkeit - eine mangelnde technische Sinnhaftigkeit würde IMHO sogar eher ein stärkeres Marketing benötigen, weswegen die Generationsthematik erst recht relevant wäre).
Ich sage dies im Bewusstsein, dass eine 1150 nicht gerade die erste neue Karte der neuen Generation wäre, aber dennoch frage ich mich, ob das nicht darauf hindeutet, dass es doch noch länger (nächstes Jahr) dauert bis eine neue Gen kommt.
Pascal lager räumen teildefekter 1050ti verscherbelns die lassen keinen Cent auf der Strasse. Die 1070ti sind doch auch nur teildefekte 1080iger. Nvidia ist verdammt clever das muss man ihnen lassen! Immer perfektes timing,perfektes marketing,und sehr gute Produkte da kann man auch mal das Arschloch sein ohne gross schaden zu nehmen. Leider. Immerhin zahlt man für 104 er chips high end preis ob du es wahrhaben willst oder nicht.;D

Bucklew
2018-05-23, 08:58:56
Async Compute bringt nur in sehr begrenzten Faellen was auf Pascal und selbst wenn es funktioniert ist es lange nicht so effektiv. Kann ja jeder nachmessen. Details sind NDA.
Logisch, Pascal (wie auch die Generationen vorher von NVIDIA) bekommt seine Rohleistung ziemlich gut auf die Straße, selbst mit einer perfekten ASync Compute Implementierung, bliebe da schlicht nicht viel Möglichkeit zur Leistungssteigerung übrig.

Die Leistung für ASync muss ja auch irgendwo da sein, ergo brach liegende Leistung ohne die Nutzung von ASync.

Es ist durchaus beeindruckend, wie gut das schon bei GCN 1.0 funktioniert. Die Hardware ist ja 6 Jahre alt.
Sogar deutlich besser, als später bei Polaris und Vega. Eben weniger ungenutzte Shaderleistung. Je besser Async Compute läuft, desto schlechter die <=DX11 Performance.

Adam D.
2018-05-23, 08:59:06
Pascal lager räumen teildefekter 1050ti verscherbelns die lassen keinen Cent auf der Strasse. Die 1070ti sind doch auch nur teildefekte 1080iger. Nvidia ist verdammt clever das muss man ihnen lassen! Immer perfektes timing,perfektes marketing,und sehr gute Produkte da kann man auch mal das Arschloch sein ohne gross schaden zu nehmen. Leider. Immerhin zahlt man für 104 er chips high end preis ob du es wahrhaben willst oder nicht.;D
Exakt, teildefekte GP104 werden jetzt ja auch als GTX1060 verkauft, NV räumt grad gut auf - alles Indizien, die für Igors Zeitplan sprechen.

pixeljetstream
2018-05-23, 09:59:08
Bucklew, bei der dx11 Aussage stimme ich dir zu. Aber auch Pascal würde wegen der von gravitationsfeld angesprochenen Abhängigkeitsgeschichte profitieren. Wenn es nur 5-10% wären. Alles was dich über 30/60/90Hz hievt ist mitzunehmen.

Für alle gilt jedes Produkt ist das beste was in dem Zeitrahmen passte und die Anforderung vom Markt (die jeder individuell einschätzt) erfüllt. Nicht das beste was man theoretisch in der Lage ist zu bauen.

Das Problem bei GCN war nicht die Technik an sich (sieht man ja an den für Konsolen exklusiv Titeln) sondern die Entwicklung des gesamten Marktes (die damalige Dominanz von dx11 bzw. GL).
Hätte Larrabee geliefert wäre dir Compute/Entwickler-zentrische Rechnung vielleicht aufgegangen, weil dann zwei Hersteller die APIs in die Richtung gepusht hätten...
Evtl hat man auch unterschätzt dass MS nicht direkt Interesse hatte die PC API der Konsole anzugleichen.
NV war konservativer und hat halt in anderes investiert und versucht jenseits der verlorenen Konsolen Wachstum zu finden... AMD hat das verpasst.

Bucklew
2018-05-23, 10:19:51
Bucklew, bei der dx11 Aussage stimme ich dir zu. Aber auch Pascal würde wegen der von gravitationsfeld angesprochenen Abhängigkeitsgeschichte profitieren. Wenn es nur 5-10% wären. Alles was dich über 30/60/90Hz hievt ist mitzunehmen.
Ich nehme lieber +5% überall, als +10% mit der Nutzung von ASync Compute.

Das sind die Szenarien, über die wir reden. NVIDIA soll sehr gerne schauen, dass die Karten mit ASync Compute nicht langsamer werden (einfach, um es den Entwicklern zu ermöglichen nur einen Renderpfad zu haben), aber alles andere können sie meinetwegen auch dadurch lösen, dass einfach der Chip generell schneller wird, egal ob mit oder ohne ASync Compute.

AMDoderNvidia
2018-05-23, 10:43:15
Der AMD-Rasterizer hat halt auch wirklich seine Zicken. Es ist im Prinzip ein Unding, dass man da selber CS-Culling laufen lassen muss um es zu beheben.

Was ist denn CS-Culling? Manuell programmiertes Culling in einem Compute-Shader?

An welcher Stelle während des Renderings würde man das denn machen?

Ich bin immer wieder erstaunt, wie gut die Jungs von Dice die Frostbite-Engine hinbekommen haben. Die performt unglaublich gut und würde mir wünschen, dass auch andere Entwicklerstudios so optimieren würden. Aber woruaf ich hinauswill: Selbst mit bester Optimierung und super-effizientem Culling kommt man auf AMD-Hardware nicht an die Performance hin, wie sie Nvidia seit Maxwell out-of-the-box liefert, oder?

HOT
2018-05-23, 11:02:17
Wie war das? Pascal kann GFX und Compute nicht gleichzeitig in einer SM rechnen? Das wird der größte Pferdefuß sein. Die Architektur ist eben nicht dafür gemacht. Der ist sehr schnell entweder mit Compute oder mit GFX aber eben nicht in Mischform. GCN ist von Anfang an dafür vorgesehen gewesen. Auf den Konsolen bekommt man so eben eine 100%-Auslastung hin, auf dem PC klappt das aufgrund der DX11-Basis nicht so gut. id Tech6 zeigt ja, dass es auch anders geht.

Tesseract
2018-05-23, 11:45:25
Logisch, Pascal (wie auch die Generationen vorher von NVIDIA) bekommt seine Rohleistung ziemlich gut auf die Straße, selbst mit einer perfekten ASync Compute Implementierung, bliebe da schlicht nicht viel Möglichkeit zur Leistungssteigerung übrig.

so funktioniert das nicht. wenn ein task am speicher und einer an den ALUs hängt braucht man AC um alles auszulasten. eine architektur kann nicht so effizient sein dass sie rechnungen am speicher oder speicherzugriffe auf den ALUs macht.

Bucklew
2018-05-23, 11:58:21
so funktioniert das nicht. wenn ein task am speicher und einer an den ALUs hängt braucht man AC um alles auszulasten. eine architektur kann nicht so effizient sein dass sie rechnungen am speicher oder speicherzugriffe auf den ALUs macht.
Wie sollen denn die ALUs ausgelastet werden ohne Speicherzugriffe? :confused:

NVIDIA schafft es ja offensichtlich sehr gut, mit reiner Grafikberechnung auch schon vor DX12 die GPU sehr gut auszulasten.

Tesseract
2018-05-23, 12:02:48
Wie sollen denn die ALUs ausgelastet werden ohne Speicherzugriffe? :confused:

hat keiner gesagt. man kann durchaus die ALUs auslasten wärend sich der speicher auf <20% auslastung langweilt und umgekehrt - je nach algorithmus.

Bucklew
2018-05-23, 12:05:16
hat keiner gesagt. man kann durchaus die ALUs auslasten wärend sich der speicher auf <20% auslastung langweilt und umgekehrt - je nach algorithmus.
Welcher "Algorithmus" soll das bei Grafikberechnungen sein?

Tesseract
2018-05-23, 12:15:35
das zeichnen einer skybox ist ein typisches beispiel wo ALUs kaum was zu tun haben wärend z.B. lichtberechnungen in vielen fällen eher ALU-bound sein werden.

HOT
2018-05-23, 12:17:54
[...]
NVIDIA schafft es ja offensichtlich sehr gut, mit reiner Grafikberechnung auch schon vor DX12 die GPU sehr gut auszulasten.
Im Windows DX11-Rahmen (und das schließt alle bisherigen DX12-Renderer mit ein) ja. Dafür ist Pascal besser geeignet als GCN. Ist dennoch kein Vergleich mit den Konsolen.

Bucklew
2018-05-23, 12:18:25
das zeichnen einer skybox ist ein typisches beispiel wo ALUs kaum was zu tun haben wärend z.B. lichtberechnungen in vielen fällen eher ALU-bound sein werden.
Und wie häufig siehst du nur eine Skybox? :rolleyes:

Es macht wenig Sinn über völlig theoretische Fälle zu diskutieren. In 99,999999% der Fällen gibt es deinen Fall eben schlicht nicht, die Perf von NVIDIA zeigt es doch. Ob es wirklich sinnvoll ist, für die restlichen 0,0000001% der Fälle +10% raus zu holen statt 5% bei den anderen 99,999999% - das halte ich eben für ziemlich fragwürdig.

iuno
2018-05-23, 12:23:24
Im Windows DX11-Rahmen (und das schließt alle bisherigen DX12-Renderer mit ein) ja.
Ich sehe jetzt aber auch nicht, wo Nvidia mit OpenGL, d3d12 oder Vulkan besonders lahm sein soll. Du suggerierst, dass Nvidia was zu verlieren hat, es ist aber eher so, dass AMD viel mehr zu gewinnen hat.

Und wie häufig siehst du nur eine Skybox? :rolleyes:
Es geht nicht darum, was man "nur" sieht, sondern dass z.B. die Skybox auch jeden Frame neu gezeichnet wird und waehrenddessen man auch gleichzeitig was sinnvolleres machen kann als zu warten. Das trifft z.B. insbesondere auch auf shadow maps zu, das Beispiel passt wohl besser. Da kommst du auch nicht auf die Idee, dass man (als Spieler) aus Sicht der Lichter Objekte anstarrt, aber es wird halt trotzdem die ganze Zeit gemacht.

Tesseract
2018-05-23, 12:33:34
Und wie häufig siehst du nur eine Skybox? :rolleyes:

selten und genau das ist der punkt: wenn du nur eine skybox siehst bringt dir AC nix, wenn du die skybox gleichzeitig mit der restlichen szene renderst und das ganze intelligent schedulst kannst du mit AC die auslastung erhöhen.

HOT
2018-05-23, 12:35:48
Ich sehe jetzt aber auch nicht, wo Nvidia mit OpenGL, d3d12 oder Vulkan besonders lahm sein soll. Du suggerierst, dass Nvidia was zu verlieren hat, es ist aber eher so, dass AMD viel mehr zu gewinnen hat.


Ich suggeriere gar nix. Nv gewinnt halt kaum dadurch, das ist alles. Dafür ist man schon jetzt gut ausgelastet.

Bucklew
2018-05-23, 13:13:09
Es geht nicht darum, was man "nur" sieht, sondern dass z.B. die Skybox auch jeden Frame neu gezeichnet wird und waehrenddessen man auch gleichzeitig was sinnvolleres machen kann als zu warten. Das trifft z.B. insbesondere auch auf shadow maps zu, das Beispiel passt wohl besser. Da kommst du auch nicht auf die Idee, dass man (als Spieler) aus Sicht der Lichter Objekte anstarrt, aber es wird halt trotzdem die ganze Zeit gemacht.
selten und genau das ist der punkt: wenn du nur eine skybox siehst bringt dir AC nix, wenn du die skybox gleichzeitig mit der restlichen szene renderst und das ganze intelligent schedulst kannst du mit AC die auslastung erhöhen.
Gleiche Antwort: Wenn ich ASync Compute in einer Szene nutzen könnte, warum schaue ich nicht lieber, dass mein Chip sowieso etwas Anderes in der gleichen Zeit zu tun hat? So macht es eben NVIDIA.

Jupiter
2018-05-23, 13:29:35
Bei Battlefront 2 ist die Xbox One X klar langsamer als eine GTX 1080. Wenn ich die gleichen Grafikeinstellungen nehme, bräuchte ich nie nur 1800p für die gleiche Performance. Meist reicht es für UHD selbst auf Endor. Tesselation, Schatten, Objektdichte, LODs und Reflexionen sind auf der Xbox One X deutlich schlechter: https://www.youtube.com/watch?v=BE72jzVHph8

5,19 Millionen Bildpunkte < 8,3 Millionen Bildpunkte.

Dabei optimiert Dice mit am besten. Kein Anderer kann solch dichte Waldregionen bei 60fps auf den Konsolen vorweisen.

Und nein, da gibt's kein Extra-Bier fuer den PC - bis auf Sachen die man einfach skalieren kann.

Wildlands sieht auf der Konsole ganz anders als am PC aus. Solch einen großen Grafikunterschied sah ich in dieser Konsolengeneration noch nicht. Das ist ähnlich wie der Unterschied von Crysis 3 am PC zur PlayStation 3. Manche machen sich halt doch die Mühe.

Nosferatu1
2018-05-23, 13:46:01
Ubisoft hat sich echt gebessert muss man sagen obwohl wildlands grauenhaft optimiert ist. Bei origins passt es wieder. :)

Tesseract
2018-05-23, 14:02:57
Gleiche Antwort: Wenn ich ASync Compute in einer Szene nutzen könnte, warum schaue ich nicht lieber, dass mein Chip sowieso etwas Anderes in der gleichen Zeit zu tun hat? So macht es eben NVIDIA.

was soll das heißen? "schauen, dass der chip etwas anderes in der gleichen zeit zu tun hat" ist genau das was man mit AC effizient und flexibel machen kann wärend man ohne AC ständig irgendwo auf was warten muss weil irgendeine queue zu schnell oder nicht schnell genug fertig geworden ist. wenn alle queues das gleiche bottleneck haben ist pascal da deutlich besser als maxwell aber wenn verschiedene queues verschiedenen resources brauchen wird man in der realität nie den auslastungsgrad von AC erreichen.

Bucklew
2018-05-23, 14:12:27
was soll das heißen? "schauen, dass der chip etwas anderes in der gleichen zeit zu tun hat" ist genau das was man mit AC effizient und flexibel machen kann
Aber eben nichts in Bezug auf die eigentlich gewünschte Grafikberechnung. Nicht ohne Grund schafft es AMD ja auch nicht trotz 20-50% mehr Rechenleistung an NVIDIA vorbei zu kommen.

Und wenn man mal als Prämisse annimmt, dass beide IHV ungefähr gleich viel Shaderleistung für ihre Grafik brauchen, dann kann man eben durchaus mal die Frage stellen, ob die kleine Leistungssteigerung durch Async Compute wirklich die Notwendigkeit von 20-50% mehr Rechenleistung rechtfertigt. Immerhin können die gesparten Shader anderweitig verplant werden, sei es durch andere Hardwareeinheiten oder eben durch weglassen und Einsparen von Leistungsaufnahme.

Tesseract
2018-05-23, 14:18:44
wie viel man aus der theoretischen leistung raus holt hängt von einem ganzen haufen verschiedener faktoren ab, AC ist nur einer davon. pascal mit AC hätte potenziell einen höheren auslastungsgrad als pascal ohne AC, vollkommen unabhängig davon was AMD macht.

HOT
2018-05-23, 14:23:14
Ubisoft hat sich echt gebessert muss man sagen obwohl wildlands grauenhaft optimiert ist. Bei origins passt es wieder. :)
Grad Origins hätte LL sehr gut gestanden, noch besseres Multithreading und für Radeons wär Async Compute ein echter Bonus gewesen. Das hätte ein echter next-Gen-Titel werden können. Na ja, mal Odyssey abwarten. Realistischerweise muss man aber echt das Ende von Windows7 abwarten, damit DX12 sich flächendeckend durchsetzt. Mit den next-Gen-Konsolen kommen dann auch echte next-Gen-Titel. Dann schwadroniert niemand mehr über DX11 und Win7 her.

Bucklew
2018-05-23, 14:36:22
wie viel man aus der theoretischen leistung raus holt hängt von einem ganzen haufen verschiedener faktoren ab, AC ist nur einer davon. pascal mit AC hätte potenziell einen höheren auslastungsgrad als pascal ohne AC, vollkommen unabhängig davon was AMD macht.
Das wäre erstmal zu belegen. Und dann stellt sich eben die Frage, wie hoch erstmal schon der Aufwand für die entsprechende Entwicklung ist, also wie kompliziert und teuer, und dann natürlich der Aufwand schlussendlich in Hardware, also Transistoren oder Leistungsaufnahme.

ASync Compute ist mitnichten der heilige Gral.

HOT
2018-05-23, 14:40:41
Nein das ist Evolution. Gibt eben erst passende Hardware (GCN), dann passende Software (Konsolen) und später ist es dann standard (Turing und der Tod von Win7). Man muss das ähnlich betrachten wie Multithreading.

Mancko
2018-05-23, 14:46:47
Am Ende muss man einfach sagen hat Nvidia die Priorität auf andere Dinge gelegt, unter anderem seit Maxwell auf das Verwerfen von Teilen der Szene die eh nicht sichtbar sind. AMD hat sich halt auf andere Dinge wie AC konzentriert. Rückblickend betrachtet lag hier Nvidia einfach gold richtig. Ihr Ansatz hat es ihnen erlaubt GPUs mit vergleichbarer Leistung aber erheblich weniger Hardware Aufwand zu bringen. Nvidia's Produkte sind seit dem entstehen der Tegra Sparte und insbesondere seit Fermi gnadenlos auf das Optimum aus Kosten und Nutzen ausgerichtet. Das ist einfach ein erheblicher Wettbewerbsvorteil. Da bringen dir auch irgendwelche Leuchtturmthemen nichts wo man auf Dritte angewiesen ist. Nvidia's Design Entscheidungen haben sofort gegriffen und primär haben sie alles in eigener Hand. Das Endresultat sieht man an den Geschäftszahlen. Locker der Dreifache Umsatz mit GPUs als AMD und eine fast doppelt so hohe Marge. Von den eingefahrenen Gewinnen ganz zu schweigen.

Ich kenne kaum ein Unternehmen in der Branche das so gnadenlos und effektiv auf Erfolg getrimmt ist und zwar auch immer so, dass zu gegebener Zeit sich wieder Nachfolgeprodukte mit entsprechenden Differenzierungsfaktoren zu Vorgängern findet. Das ist einfach brilliant. Da wird nix dem Zufall überlassen und so verwundert es auch nicht, dass der CEO immer noch der gleiche ist während sowohl AMD wie auch Intel und andere CEOs haben kommen und gehen sehen.

Bucklew
2018-05-23, 14:48:46
Das Gegenteil ist der Fall. Während die alten GCN-Karten noch mit mehr als 10% von ASync profitiert haben (z.B. FuryX), ging es mit Polaris schon auf 5% oder so runter. Je besser AMD das Frontend auslasten kann, desto weniger bringt auch ASync.

Daher bezweifele ich auch, dass ASync bei NVIDIA viel nutzen kann. Dafür wird deren Shaderauslastung grundsätzlich schon zu hoch sein.

Hübie
2018-05-23, 14:49:55
Also in Entwicklerkreisen hieß es schon es sei zu aufwändig um in den meisten Projekten wirtschaftlich zu sein (im b3d aufgeschnappt). Das gilt aber eher generell für maximales Performance optimizing am PC. Auf Konsolen ist es deutlich einfacher zu optimieren und da kann man Async für GCN 3.x flächendeckend implementieren. In wie weit es Unterschiede zwischen den GCN-Iterationen gibt können anwesende Entwickler besser nennen als ich es je könnte. ;)

Tesseract
2018-05-23, 15:33:40
ASync Compute ist mitnichten der heilige Gral.

die meisten effizienzsteigernden features bringen nur ein paar prozent. natürlich ist es kein schalter den man umlegt und plötzlich +200% performance hat, aber es ist aus API-sicht die logische weiterentwicklung und aus hardwaresicht gehe ich auch davon aus, dass der performancevorteil größer ist als die transistorinvestition, auch bei nvidia. große teile es backends bekommen davon nicht mal was mit. man muss halt beim design von anfang an darauf rücksicht nehmen ähnlich wie bei SMT was bei maxwell/pascal offenslichtlich noch nicht der fall war. ich gehe definitiv davon aus, dass nvidia AC in zukunft auch implementiert wenn das paradigma von der planung bis zur serienfertigung durch den entwicklungszyklus gewandert ist.

gravitationsfeld
2018-05-23, 17:05:32
Sogar deutlich besser, als später bei Polaris und Vega. Eben weniger ungenutzte Shaderleistung. Je besser Async Compute läuft, desto schlechter die <=DX11 Performance.
Nein. Async compute auf Windows ist ein Clusterfuck. Sobald man irgend was synchronisieren muss zwischen Queues hat man Bubbles weil der Kernel sich einmischt. Die größeren Chips haben prinzipbedingt mehr idle time.

Auf den Konsolen bringt selbst die primitivste Async-Optimierung (Post process überlagern mit nächsten Frame) locker 20%.

Da kann der Treiber nicht viel machen, das muss MS fixen und das zieht sich. Vor allem müssen dann auch erst mal alle auf das neuste Win-10-Update.

Und ich find's auch mal wieder bezeichnend wie hier die NVidia-Garde anrennt und meine Aussagen relativiert. Wann hast du das letzte Mal ein PS4 perf capture analysiert?

=Floi=
2018-05-23, 17:13:50
@manko
weil man wohl auch wesentlich stärkeren gegenwind fürchtete.
Intel kam damals mit der knights serie und AMD war damals eine echt brutaler gegner.
Spinnt man das weiter wäre der markt viel rauher als heute.

Hätte vega GDDR5X und ein brauchbares frontend, man wäre wohl locker auf augenhöhe der 1080t/Titan zu einem annehmbaren produktionspreis.

aufkrawall
2018-05-23, 17:17:34
Nein. Async compute auf Windows ist ein Clusterfuck. Sobald man irgend was synchronisieren muss zwischen Queues hat man Bubbles weil der Kernel sich einmischt.
Gibts unter Linux vergleichbare Probleme?

Bucklew
2018-05-23, 17:18:56
die meisten effizienzsteigernden features bringen nur ein paar prozent. natürlich ist es kein schalter den man umlegt und plötzlich +200% performance hat, aber es ist aus API-sicht die logische weiterentwicklung und aus hardwaresicht gehe ich auch davon aus, dass der performancevorteil größer ist als die transistorinvestition, auch bei nvidia.
Das ist aber nur ein Aspekt. Angesichts der schleichenden Verbreitung von ASync Compute - und dem Fakt, dass mitnichten 100% der Engines davon profitieren können - ist eine allgemeine Optimierung, wie von mir genannt, sicherlich der bessere/effizientere Weg, zumindest für NVIDIA.

Für AMD mit massig brach liegender Shaderleistung mag das anders sein.

Nein. Async compute auf Windows ist ein Clusterfuck. Sobald man irgend was synchronisieren muss zwischen Queues hat man Bubbles weil der Kernel sich einmischt. Die größeren Chips haben prinzipbedingt mehr idle time.
Tja, die Verbreitung von ASync ist eben nicht ohne Grunde so schwach. Aber hey, als ich das mal vor einiger Zeit im Kontext DX11/DX12 angedeutet habe, wurde ich gerade von dir ja dumm von der Seite angelabert.

Nun - huch - ist ASync dann ja doch nicht so der "mal kurz einbauen und 20% Perf abstauben". Wer hätte das gedacht? :rolleyes:

Auf den Konsolen bringt selbst die primitivste Async-Optimierung (Post process überlagern mit nächsten Frame) locker 20%.
Das wundert mich nicht, hat aber wenig mit dem Grundproblem zu tun. Die Konsolen haben ja ziemlich frühe GCN-Implementierungen, die eben viel Spielraum für ASync Compute haben. Das gilt aber weder für die heutigen Polaris- noch Vega-Chips. Klar, die haben ein bessere Frontend, können ihre Shader besser auslasten, somit gibt es da auch weniger Spielraum für große Sprünge.

Und ich find's auch mal wieder bezeichnend wie hier die NVidia-Garde anrennt und meine Aussagen relativiert. Wann hast du das letzte Mal ein PS4 perf capture analysiert?
Ich find's bezeichnend, dass dir mal wieder nur ad hominem übrig bleibt :up:

Hätte vega GDDR5X und ein brauchbares frontend, man wäre wohl locker auf augenhöhe der 1080t/Titan zu einem annehmbaren produktionspreis.
Vega mit GDDR5X läge bei 400W Leistungsaufnahme :rolleyes:

Oder - bei heutiger Leistungsaufnahme - unterhalb von 1070 Leistung.

Tesseract
2018-05-23, 18:11:11
Das ist aber nur ein Aspekt. Angesichts der schleichenden Verbreitung von ASync Compute - und dem Fakt, dass mitnichten 100% der Engines davon profitieren können - ist eine allgemeine Optimierung, wie von mir genannt, sicherlich der bessere/effizientere Weg, zumindest für NVIDIA.

jede hinreichend komplexe engine sollte davon profitieren können und die komplexität nimmt zu, nicht ab. außerem gibt es kein dilemma zwischen AC und "allgemeinen optimierungen", was auch immer das sein soll. in jeden neuen chip fließen unzählige kleine optimierungen ein und AC wird früher oder später eine davon sein.

Bucklew
2018-05-23, 18:32:16
jede hinreichend komplexe engine sollte davon profitieren können und die komplexität nimmt zu, nicht ab.
Da sagen selbst viele Verfechter von ASync Compute (die es auch schon in "komplexen" Engines implementiert haben) das Gegenteil.

jaußerem gibt es kein dilemma zwischen AC und "allgemeinen optimierungen", was auch immer das sein soll.
Aber selbstverständlich. Nennt sich "begrenzte Ressourcen". Weder AMD noch NVIDIA haben unendlich viel Geld oder Ingenieure. Ergo wird sich immer wieder der Konflikt zwischen ASync Compute und sonstigen Implementierungen ergeben.

Und ja, ich vertrete eben den Punkt, dass es sinnvoller ist, für 99,9999% der Spiele zu optimieren, als für 0,0001%. ´

in jeden neuen chip fließen unzählige kleine optimierungen ein und AC wird früher oder später eine davon sein.
Ich denke nicht, dass wir bei NVIDIA viele Sprünge durch ASync Compute sehen werden. Die paar Prozente schneller, als langsamer bei Pascal reichen auch, mehr muss nicht sein. Die "Stärke" von AMD und die tollen Steigerungsraten durch ASync Compute waren immer auch eine klare DX11-Schwäche. Da sind wir wieder beim letzten Satz aus dem Absatz drüber.

edit: Ach, sparen wir uns doch die Reaktion auf kleine Würstchen mit Geltungsdrang.

aufkrawall
2018-05-23, 18:47:08
Gibts unter Linux vergleichbare Probleme?
Hier heißt es:
The GEM design approach has resulted in a memory manager that doesn’t provide full coverage of all (or even all common) use cases in its userspace or kernel API. GEM exposes a set of standard memory-related operations to userspace and a set of helper functions to drivers, and let drivers implement hardware-specific operations with their own private API.
https://www.kernel.org/doc/html/v4.16/gpu/drm-mm.html#the-graphics-execution-manager-gem
Dürfte wohl vieles direkt vom amdgpu-Kerneltreiber gemacht werden.

Bucklew, deinen Müll kannst du zukünftig auch häufiger in der Tonne lassen.

Tesseract
2018-05-23, 19:09:17
Da sagen selbst viele Verfechter von ASync Compute (die es auch schon in "komplexen" Engines implementiert haben) das Gegenteil.
wer sagt das in welchem zusammenhang?

Aber selbstverständlich. Nennt sich "begrenzte Ressourcen". Weder AMD noch NVIDIA haben unendlich viel Geld oder Ingenieure. Ergo wird sich immer wieder der Konflikt zwischen ASync Compute und sonstigen Implementierungen ergeben.
wenn man der meinung ist der performancegewinn rechtfertigt chipfläche/verbrauch/etc. wird es früher oder später im design landen. in modernen architekturen wird um jedes prozent gekämpft, die lassen auf lange sicht sicher kein potenzial brach liegen und wenn so ein feature es nicht in die nächste iteration schafft dann in eine spätere. deine ursprüngliche behauptung war, dass das feature zu wenig bringt, nicht, dass der zeitplan zu knapp ist oder ähnliches.

Und ja, ich vertrete eben den Punkt, dass es sinnvoller ist, für 99,9999% der Spiele zu optimieren, als für 0,0001%.

das ist kein punkt, das ist frei erfundene zahlen aus dem hintern ziehen. du weißt doch nicht mal was deine "allgemeinen optimierungen" überhaupt sein sollen.

Ich denke nicht, dass wir bei NVIDIA viele Sprünge durch ASync Compute sehen werden.
kannst du tun. ich denke schon. die zukunft wird zeigen wer recht hatte.

AffenJack
2018-05-23, 19:22:12
die meisten effizienzsteigernden features bringen nur ein paar prozent. natürlich ist es kein schalter den man umlegt und plötzlich +200% performance hat, aber es ist aus API-sicht die logische weiterentwicklung und aus hardwaresicht gehe ich auch davon aus, dass der performancevorteil größer ist als die transistorinvestition, auch bei nvidia. große teile es backends bekommen davon nicht mal was mit. man muss halt beim design von anfang an darauf rücksicht nehmen ähnlich wie bei SMT was bei maxwell/pascal offenslichtlich noch nicht der fall war. ich gehe definitiv davon aus, dass nvidia AC in zukunft auch implementiert wenn das paradigma von der planung bis zur serienfertigung durch den entwicklungszyklus gewandert ist.

Die Frage ist, inwiefern effizienzsteigernd. Die effizienz einer Architektur ist schön, aber was wenn die Implementierung von starken Async Möglichkeiten die Energieeffizienz der Architektur deutlich runter treibt und am Ende ein Minus da steht. Andrew Lauritzen (Früher Intel GPU Entwickler, jetzt Dice) war damals eher gegen Async und fand das Feature ziemlich unsinvoll. Wenn ich mich recht erinnere ging es auch darum, dass die Implementierung davon mehr Perf/W kostet, als man dadurch gewinnen kann.

Hübie
2018-05-23, 19:38:36
Jede Wette der Troll ist sofort Feuer und Flamme fuer Async Compute, sollte Turing es gescheit implementieren.

Das ist doch das schöne: Wir haben es schriftlich. :biggrin: Die "Garde" feiert sicher wenn's in Turing+ kommt. Dann ist's der heilige Grahl.

Aber aktuell verfolgt man mit RTX ja eh einen völlig anderen Weg, der sich wohl auch nur mühsam und langsam entwickeln sowie durchsetzen wird. So richtig einen Vorteil erkennt man als User nicht.

gravitationsfeld
2018-05-23, 19:43:05
Die Frage ist, inwiefern effizienzsteigernd. Die effizienz einer Architektur ist schön, aber was wenn die Implementierung von starken Async Möglichkeiten die Energieeffizienz der Architektur deutlich runter treibt und am Ende ein Minus da steht. Andrew Lauritzen (Früher Intel GPU Entwickler, jetzt Dice) war damals eher gegen Async und fand das Feature ziemlich unsinvoll. Wenn ich mich recht erinnere ging es auch darum, dass die Implementierung davon mehr Perf/W kostet, als man dadurch gewinnen kann.
Andrew hat manchmal sehr komische Ansichten. Unter anderem kam da mal, dass man Skinning auf CPU machen sollte, weil es "effizienter" ist :rolleyes:.

Und wenn es um Effizienz geht sollte Intel erst Mal die einfachen Hausaufgaben machen, bevor sie so kommentieren.

Bucklew
2018-05-23, 20:05:31
wer sagt das in welchem zusammenhang?
Lies mal im Beyond3D mit. Ich werds dir jetzt nicht raussuchen, das ist mir zu mühselig, lies die entsprechenden Threads. AffenJack hat offensichtlich auch einen Teil gelesen.

wenn man der meinung ist der performancegewinn rechtfertigt chipfläche/verbrauch/etc. wird es früher oder später im design landen. in modernen architekturen wird um jedes prozent gekämpft, die lassen auf lange sicht sicher kein potenzial brach liegen und wenn so ein feature es nicht in die nächste iteration schafft dann in eine spätere. deine ursprüngliche behauptung war, dass das feature zu wenig bringt, nicht, dass der zeitplan zu knapp ist oder ähnliches.
[x] Du hast immer noch nicht verstanden, was ich schrieb.

Lies nochmal was ich schrieb, speziell in Richtung endlicher Ressourcen. Dann wirst du schnell merken, warum ich ASync Compute nicht für den heiligen Gral halte und warum ich es für unrealistisch halte dass wir in Zukunft zweistellige Prozentzuwächse durch diese Feature sehen werden.

das ist kein punkt, das ist frei erfundene zahlen aus dem hintern ziehen. du weißt doch nicht mal was deine "allgemeinen optimierungen" überhaupt sein sollen.
Die sind sogar noch extrem freundlich für ASync Compute. Wen interessiert denn, in der Masse der Spiele, die paar Spiele mit ASync Compute?

kannst du tun. ich denke schon. die zukunft wird zeigen wer recht hatte.
Das sieht man heute bereits, wenn man mal die Augen aufmacht :up:

Andrew hat manchmal sehr komische Ansichten. Unter anderem kam da mal, dass man Skinning auf CPU machen sollte, weil es "effizienter" ist :rolleyes:

Und wenn es um Effizienz geht sollte Intel erst Mal die einfachen Hausaufgaben machen, bevor sie so kommentieren.
Wenn man keine Argumente hat, dann muss man wieder mal ad hominem gehen und dann sogar Leute unter der Gürtellinie attackieren, die sich hier gar nicht wehren können. "dick move" nennt man das. Passt wunderbar. :up:

Schön, wie einige armen Würstchen hier wieder ihre Weltsicht indirekt erläutern, indem Sie unterstellen, dass technische Ansichten und Argumente nur IHV abhängig sind ;D

gravitationsfeld
2018-05-23, 20:07:54
Das Argument ist, dass ich es in der Praxis gemessen habe. Andrew hat zu der Zeit als er das von sich gegeben hat, bei Intel gearbeitet und sicher nicht an GCN-Konsolen-Spielen optimiert. Und die CPU-Skinning Aussagen und der Async-Kram ist halt nachweislich falsch. Da ist nichts "ad hominem" daran.

Frag ihn mal heute danach, jetzt hat er die Zahlen bei DICE vor sich. Da wirst du sicher ein anderes Lied hoeren.

Auch heutige Pascal-Chips wuerden locker 10-20% durch gescheites Async rausholen koennen. Die ALUs sind bei weitem nicht so gut ausgelastet wie du denkst. Amdahl's Law ist ziemlich brutal bei GPUs.

Bucklew
2018-05-23, 20:19:15
Nicht jeder hat die Meinung, die ihm sein Arbeitgeber aufdiktiert. Da stehst du ziemlich alleine da.

Natürlich könnte NVIDIA 10-20% mit ASync Compute erzielen, das streitet niemand, weder ich noch Andrew, ab. Unser Punkt - den du offensichtlich nicht verstanden hast vor lauter Rumgekreische - ist, dass die endlichen Entwicklungs- wie Hardwareressourcen (Chipfläche, Leistungsaufnahem etc.) besser woanders hin wandern, wo sie eben mehr als diese 10-20% raus holen können. Und zwar nicht nur bei den 5 Spielen mit ASync Compute, sondern bei fast allen Spielen.

Aber um unsere Aussagen wirklich mal verstehen zu können, da müsste man natürlich auch mal mehr damit beschäftigt sein zu lesen und zu verstehen, als den großen Schreihals raus zu kehren :rolleyes:

AffenJack
2018-05-23, 20:37:00
Das Argument ist, dass ich es in der Praxis gemessen habe. Andrew hat zu der Zeit als er das von sich gegeben hat, bei Intel gearbeitet und sicher nicht an GCN-Konsolen-Spielen optimiert. Und die CPU-Skinning Aussagen und der Async-Kram ist halt nachweislich falsch. Da ist nichts "ad hominem" daran.

Frag ihn mal heute danach, jetzt hat er die Zahlen bei DICE vor sich. Da wirst du sicher ein anderes Lied hoeren.

Auch heutige Pascal-Chips wuerden locker 10-20% durch gescheites Async rausholen koennen. Die ALUs sind bei weitem nicht so gut ausgelastet wie du denkst. Amdahl's Law ist ziemlich brutal bei GPUs.

Ich habe bei GCN keine Zweifel, dass es der Fall ist. Die Frage ist eher, ob es für jede Architektur der Fall ist oder bei manchen vielleicht ein zu starker Umbau dafür nötig ist, der eben in Relation zuviele Transistoren kostet. So habe ich Andrew da auch verstanden. Das finde ich schweirig einzuschätzen.

Es gibt doch auch irgendein feature, was nur auf Intel anständig schnell läuft? Geometrieshader? Bin nicht mehr sicher. Aber da muss es ja auch Gründe für geben, wieso AMD und Nvidia das nicht so performant implementieren. Oder Tesselation, da hatte Nvidia eine hohe Leistung, aber für AMD hat die Verbesserung der Tessleistung vielleicht eher ein gutes Stück Perf/W gekostet, weil man gezwungen war langsam nachzuziehen.

Bei Nvidia hat man doch auch bei Computeworkloads gesehen, dass ein guter Teil der guten Effizienz auch davon kommt, dass Nvidia bei nicht vollausgelasteten ALUs Strom spart. Wenn Nvidia durch Async nun die ALUs komplett auslastet, aber der Stromverbrauch äquivalent steigt, sowie etwas Stromverbrauch durch die Async Fähigkeiten hinzu kommt, endet das bei Ihnen vielleicht in einem Nullsummenspiel. Kann in gewisser Weise, eine nicht volle Auslastung nicht auch ein Teil des Designs sein?

Bei dir auf der Konsole ist natürlich max. Auslastung das wichtigste. Aber wenn Perf/W der Maßstab ist, dann kann es vielleicht sinnvoll sein, die Auslastung nicht zu übertreiben.

Tesseract
2018-05-23, 21:18:47
Wenn Nvidia durch Async nun die ALUs komplett auslastet, aber der Stromverbrauch äquivalent steigt, sowie etwas Stromverbrauch durch die Async Fähigkeiten hinzu kommt, endet das bei Ihnen vielleicht in einem Nullsummenspiel. Kann in gewisser Weise, eine nicht volle Auslastung nicht auch ein Teil des Designs sein?

die frage ist wie sich das ganze auf die chipgröße auswirkt. fast der gesamte chip ist entweder ALUs oder infrastruktur um ALUs beschäftigt zu halten, die fläche ist das was man bezahlt und auslastung dementsprechend verdammt viel wert. ein chip der bei gleicher fläche z.B. 20% mehr durchsatz erreicht oder bei gleichem durchsatz demenstprechend kleiner hat einen signifikanten vorteil, egal ob man diesen vorteil nun in performance/watt (über takt und spannung) oder performance/€ überträgt.

wie gesagt: die frage ist ob die neu investierten transistoren den höheren auslastungsrad rechtfertigen und meiner einschätzung sollte das definitiv der fall sein.

Fliwatut
2018-05-23, 21:19:23
Ich will hier wilde Gerüchte lesen und mich von völlig übertriebenen Benchmarks hypen lassen :biggrin:

Ganon
2018-05-23, 21:34:15
Geht's denn ab jetzt bitte etwas gesitteter? Wenn man als Nicht-Teilnehmer der Diskussion hier gerade frisch rein kam, könnte man echt meinen man sei hier im Kindergarten angekommen. Bitte zurück zum Thema und nicht darüber streiten wer hier KnowHow-Technisch den Längsten hat.