PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6


Seiten : 1 [2] 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48

pixeljetstream
2018-03-18, 11:49:16
Wenn das Thema so wichtig wäre, würde es in den schon existierenden Threads die genau dafür sind, diskutiert werden. Ist es scheinbar nicht und wird dann immer nur für kurze Sticheleien in anderen Threads genutzt.

Troyan
2018-03-18, 11:56:58
Am Ende ist das System Kapitalismus verantwortlich für geschlossene Systeme. Jeder will von seiner Arbeit leben. Gleichzeitig bedeutet es jedoch auch Fortschritt und Weiterentwicklung.

Deswegen ist das ganze auch eine sinnlose Debatte. Spieleentwickler geben ihren Source-Code auch nicht frei. Microsoft auch nicht. Bei Linux kauft man sich Support von Firmen, weil es ohne kaum noch geht. Wikipedia benötigt Spenden, um sein System am Leben zu erhalten.

Überall werden finanzielle Mittel gebraucht.

scully1234
2018-03-18, 12:02:55
Viel wichtiger ist doch das eine Firma ihr geistiges Eigentum schützt, und einige nicht damit klar kommen, das andere Firmen die keinen Finger gerührt haben um gewisse Techniken umzusetzen, dann profitieren wollen wie ein Kaiser.

Es wäre ja schon ein Vorteil wenn das ganze scheinheillig quelloffene Zeugs mal so supported würde, wie das was es nur mit viel Manpower u Fleiß auf proprietären Weg soweit geschafft hat.

Aber danach siehts in dem Lager mal überhaupt nicht aus, aber ständig einfordern ,das der der sich hinter seine Techniken klemmt, das ganze einfach mal so verteilt, und wir uns nen Haufen Arbeit u Stress einsparen können.
proberitäre Techniken .

was für ein Ding:eek:

Digidi
2018-03-18, 12:15:21
@Scully1234
Geistiges Eigentum kann man nicht nur durch Proberitäre Technik schützen. Dafür gibt es ja Patente.

Wie weit man es geschafft hat wird du nie erfahren mit proberitärer Technik. Vielleicht wäre noch viel mehr möglich. Zurzeit sieht es einfach nur so aus als ob man die Konkurrenz mit überzogenen Features versucht das leben schwer zu machen. Und die überzogene Tesselation ist fakt.

@Pixeljetstream
Erklär dich doch dann mal warum alle GPUs die Nvidia rausbringt überschüssige Tesselation Einheiten hat und jedes Spiel was Gameworks beinhaltet total Übertesseliert ist? Natürlich möchtest du auch das dieses Thema im Fachforum verschwindet denn dir ist es anscheinend Unangenehm das es in einem der Hauptthreads auftaucht, aber genau hier gehört es her denn die Hardware braucht immer Software das es läuft.

Um mal wieder den Bogen zu Turing zu Spannen. Ich bin mal gespannt welche Funktionseinheiten sie Diesmal einbauen. Wahrscheinlich nichts mit Tesselation das ist ja jetzt aufgeflogen.

Es ist eigentlich Geniale geschäftsidee von Huang sich die Softwareschmieden Untertan zu machen. Dann bringt man Karten raus die total Abwegige Features haben und lässt die Spieleentwickler darauf hin optimieren indem man sie dabei massiv Supportet (und damit finanziell Entlastet). Da die Konkurrenz nicht weiß welches Feature Nvidia diesmal wieder überflüssig verbaut hat sind sie gegen die optimierungen Machtlos.

AMD hat es erst in lezter Zeit hinbekommen dagegen zu aggieren. Deshalb gibt es jetzt auch einen Tessfaktor der da heißt AMD optimiert.

pixeljetstream
2018-03-18, 12:20:00
@scully, Ich würde fast sagen dass eher die Arbeit als das geistige Eigentum hier geschützt wird. Patente kümmern sich eher um das IP. Nvidia Research oder diverse Siggraph/GDC presentationen zeigen ja meist die Algorithmen und grundsätzliche Techniken. Aber es macht halt Arbeit sowas zum Produkt zu führen. Wie Troyan meinte wirklich Erfahrung mit genau dieser Entwicklung hat ja kaum jemand der Leute die hier darüber debattieren.

Das gleiche beim Chipdesign um es Mal wieder on topic zu bringen. Aussagen wie streichen von einer Generation oder refresh etc. zeigen dass die Personen sich auch leider in keinster Weise Mühe machen ein bisschen sich einzulesen wie die Entwucklungsprozesse sind, wie die Industrie verflechtet ist. Oft klingt es so also wären das drei Typen die in der Garage was zusammenbasteln... Was mich wundert weil wir alle sind ja Teil größerer Strukturen. Warum soll nun für den Hersteller plötzlich alles einfach sein losgelöst vom Rest.

Troyan
2018-03-18, 12:22:52
Höre endlich auf deine AMD-Propaganda hier zu verbreiten. Der Grund, warum nVidia "überflüssige Tesselation Einheiten" verbaut, liegt an der skalierbaren Architektur, die es seit Fermi erlaubt. Hier wird eine technische Revolution, die selbst 8 Jahre nach der Veröffentlichung weiterhin einmalig ist, als Lächerlichkeit hingestellt.

Aber man sieht, wie diese perverse Masche hier funktioniert: Der offene Standard DX11 hat diese technische Errungenschaft notwendig gemacht und jetzt wird die Firma angefeindet, die DX11-Tessellation als umsetzbar gemacht hat.

Im Grunde ist dein Posting wirklich unglaublich, einfach nur dreist und voller Hetze.

aufkrawall
2018-03-18, 12:26:10
Komischerweise war Nvidia viel offener, als die Konkurrenz im Spiele-Sektor noch härter war. So viel zum "notwendigen Schutz" (aber nicht, dass ich Digidis Unsinns-Beispiele ansonsten gutheißen würde)...

Digidi
2018-03-18, 12:29:35
Komischerweise war Nvidia viel offener, als die Konkurrenz im Spiele-Sektor noch härter war. So viel zum "notwendigen Schutz" (aber nicht, dass ich Digidis Unsinns-Beispiele ansonsten gutheißen würde)...

Wieso ist das Unisnnn was ich poste? Nur weil ich eine andere Meinung habe. Ich habe auf dem Finanzsektor schon so unglaubliche Dinge miterlebt dagegen wirkt Gameworks wie ein Kinderklacks. Es ist einfach das logisch naheligende.

So lässt sich dein Kommentar ja auch logisch erklären. Als es noch harte Konkurrenz gab hätte sich kein Spieleentwickler getraut einfach mal so 50% Marktanteil auszuschließen. Gameworks hätte so kaum einen Fuß in die Tür bekommen. Solche Techniken werden erst dann Interessant wenn man große Marktanteile hat so etwas 65-70% und dann wirken die wie ein Brandbeschleuniger.

Troyan
2018-03-18, 12:31:20
Wann denn? Ende 2010 HAWX2 hat Terrain-Tessellation verwendet. Grundlagen dafür kamen u.A. aus dem alten DX11 Dev-Kit, der den Source-Code beinhaltete. Tja und wer hat sich daran gestört? Richtig AMD. Offen, geschlossene, so what? Probleme entstehen aus der fehlenden Konkurrenzfähigkeit.

Anonsten war 3D Vision von anfang zugedongelt und Cuda auch.

/edit: Physx ab 2008 nicht vergessen. Gedongelt an Cuda.

scully1234
2018-03-18, 12:38:17
Komischerweise war Nvidia viel offener, als die Konkurrenz im Spiele-Sektor noch härter war. So viel zum "notwendigen Schutz" (aber nicht, dass ich Digidis Unsinns-Beispiele ansonsten gutheißen würde)...


Viel offener als Nvidia noch ein reiner Chiplieferant war mit Treiberambitionen


Aber als man anfing ganze Plattformen aus dem Nichts zu entwickeln ,waren die alle Eigentum u abgesichert gegen fremden Zugriff

Völlig legitim ,denn sonst hätte sich irgendwer huckepack, die gleiche Vorteile verschafft, der keinen "Schweiss" in die Entwicklung gesteckt hat

Man blieb dann aber auch am Ball, und ließ es nicht schleifen, genau das hat Gameworks,Cuda u Co zum Erfolg verholfen, in der Industrie
@scully, Ich würde fast sagen dass eher die Arbeit als das geistige Eigentum hier geschützt wird.

Das eine bedingt ja das andere:)
wie das was es nur mit viel Manpower u Fleiß auf proprietären Weg soweit geschafft hat

pixeljetstream
2018-03-18, 12:49:12
@Digidi
Was Troyan, sagte. Mit DX11 kam Tessellation in die API, und wenn mich nicht alles täuscht war das ja auch ein Thema was AMD selbst schon vorher konnte. NV hat daraufhin ein skalierbares Geometrie front-end entwickelt und dieses damals auch detailiert beschrieben:
http://www.highperformancegraphics.org/previous/www_2010/media/Hot3D/HPG2010_Hot3D_NVIDIA.pdf
Imo hatte AMD einen anderen Fokus und setzte mehr auf compute, und ein paar andere gute Features und gewannen damit die Konsolen. Damals drohte ja auch noch Intel mit Larrabee, was sicherlich auch Einfluss auf diese Design Entscheidung hatte. Immer vor Augen halten dass der Designprozess der Chips Jahre voraus ist.

Was Du suggerierst, dass man hier zu viele Einheiten hat, stimmt einfach nicht, man hat eben eine skalierbare Lösung entwickelt, und AMD lange Zeit nicht. Im Vega dokument https://radeon.com/_downloads/vega-whitepaper-11.6.17.pdf wirst Du auf Seite 7 finden, dass sie beschrieben dass nun der Chip auch Geometrie Daten im L2 hinterlegen kann und damit der Geometrie Durchsatz erhöht wird. Der L2 ist der einzige Cache der cross chip funktioniert und damit beschreiben sie die Art von Lösung die NV seit Fermi hatte.

Da das Architekturdesign sich in vielen Märkten schlagen muss (Gaming, Auto, Professional, Datacenter etc.) und Fläche das kostbarste überhaupt ist, gibt es hier keine geplante Verschwendung. Das wäre schlicht Geldverschwendung.
Da aber niemand weiß was am Ende wirklich kommt, wird natürlich versucht sein Investment zu schützen. AMD konnte sein Async Compute nicht zur Geltung bringen jenseits der Konsolen also machten sie mit Mantle Druck. Genauso wie sie zum Vega Launch FP16 intrinsics bewerben wohlwissentlich dass NV diese nicht hat.
Das ist ja auch alles okay so, es ist ja ein Wettbewerb zwischen zwei Herstellern, die von ihren technischen Lösungen profitieren wollen.
Die Lösungen die man entwickelt, zielen ja auf echte Probleme im Markt ab, die Art der Lösung unterscheidet sich halt einfach. So wie zig Hersteller unterschiedliche Detaillösungen beim Motorbau haben, so ist das hier genauso.
Am Ende richtet der Markt was er für sinnvoll hält. Und wenn er bereit ist für die eine Lösung mehr zu bezahlen, als für die andere, so ist sie per Definition "wertvoller".

Troyan
2018-03-18, 12:59:22
Und vergessen wir nicht die Aussage von AMDs Richard Huddy, der "Tessellation" nach der Fermi-Präsentation ende 2009 noch als DAS bedeutendeste Feature von DX11 benannt hatte:
(1) The positive mention of DX11 is a rarity in recent communications from NVIDIA - except perhaps in their messaging that 'DirectX 11 doesn't matter'. For example I don't remember Jensen or others mentioning tessellation (they biggest of the new hardware features) from the stage at GTC. In fact if reports are to be trusted only one game was shown on stage during the whole conference - hardly what I would call treating gaming as a priority!
http://hexus.net/tech/news/graphics/20952-amd-nvidia-lock-horns-graphics-supremacy/

Es zeigt, wie schnell eine Funktion einer API in Ungnade fallen kann, wenn die fehlende Konkurrenzfähigkeit zum Problem wird.

Daher ist es auch fundamental falsch solche Probleme nicht anzuprangern und Besserungen zu verlangen. Aber AMD kam 8 Jahre und einer neuen Konsolengeneration damit durch. Mal sehen, wie es mit Raytracing und den neuen GPUs aussehen wird.

Mancko
2018-03-18, 13:08:41
@Scully1234
Geistiges Eigentum kann man nicht nur durch Proberitäre Technik schützen. Dafür gibt es ja Patente.


Du argumentierst gerade für umfangreiche Softwarepatente die dann ja großzügig gewährt werden müssten.

Mancko
2018-03-18, 13:10:41
Daher ist es auch fundamental falsch solche Probleme nicht anzuprangern und Besserungen zu verlangen. Aber AMD kam 8 Jahre und einer neuen Konsolengeneration damit durch. Mal sehen, wie es mit Raytracing und den neuen GPUs aussehen wird.

Na so richtig durch kamen sie damit nicht. Ihr Marktanteil nach Umsatz und insbesondere Gewinnmarge ist lächerlich klein zu Nvidia. Der Markt hat also durchaus die Dinge honoriert die Nvidia so die letzten Jahre gebracht hat. Am Ende ist das Statement der Kunden hier eindeutig.

pixeljetstream
2018-03-18, 13:24:05
@scully1234 und @aufkrawall, das stimmt zum Teil. Ich denke es gibt immer noch viel "echten open-source" von NVIDIA und publikationen von nvresearch etc. NV hatte auch früher schon nen Schwung closed source software (gerade im professionellen Bereich). Man sah davon halt als Aussenstehender nicht so viel, heute werden die Projekte und damit die Marke viel stärker in die Öffentlichkeit gezogen.

Imo liegt das daran, dass das bloße Hardwarehersteller dasein keine rosige Zukunft hat. Siehe Imagination, und auch die finanzielle Lage von AMD. Natürlich gibt es viele kleiner Hardwarefirmen die auch gute Lösungen machen, aber das ist dann halt eher volumen, als high-end.

Die langfristig erfolgreichsten Firmen in dem Sektor bieten eben Lösungen an die jenseits der Hardware sind. Und das rechtzeitig zu erkennen ist das was imo AMD komplett versemmelt hat, und da hilft das open-source Zeugs jetzt auch nicht weiter. Es ist ohne Zweifel für Entwickler nett, aber es passt eben nicht ganz zu dem wie der Markt funktioniert.

pixeljetstream
2018-03-18, 13:32:47
Richard Huddy
der war bei nvidia, amd, intel, amd (seit Ende 2016 nicht mehr), aktuell Samsung

aufkrawall
2018-03-18, 13:37:45
AMD hat in der Vergangenheit viele Fehler gemacht, allerdings gibt es jetzt mit ROCm immerhin eine klare Richtung. Intel hat ja jüngst etwas ganz ähnliches veröffentlicht, offenbar rechnet man sich da Chancen aus.
Ein ganzes technisch solides Open Source-Ökosystem wächst ja nicht über Nacht. Nvidia kann sich da in der Linux-Welt etwa einen schlanken Fuß machen mit ihrem Blob-Treiber, aber vielleicht rächt sich das eines Tages.

Edit: Das dachte man von LL-APIs ja auch. Stimmt auch teilweise, lässt aber noch auf sich warten.

=Floi=
2018-03-18, 13:44:23
X

wennst schon wieder mit dem nv gehate und tesselationsbullshit anfängst, dann erkläre uns doch mal warum ATI das frontend nicht umbaut und dadurch mehr kleine shaderblöcke verarbeiten kann?
Fiji ist sogar taktbereinigt schneller als vega. Wo soll bei vega der fortschritt sein? Das frontend ist längst veraltet und das liegt nicht an NV. Tesselation wird imho viel zu wenig verwendet. Mir fällt auch ehrlich gesagt nur witcher 3 ein, wo es stärker gut genutzt wurde. Den richtigen durchbruch mit perfekten rundungen haben wir imho noch lange nicht. Liegt auch an den konsolen.
Warum steigert amd dann nicht einfach die tesselationsleistung? Was hindert sie daran, doppelt so viel leistung wie nv zu verbauen?


ich hätte gerne eine antwort auf die zwei fragen, warum amd die tesselationsleistung nicht stärker angleicht und warum amd nicht endlich das frontend aufbohrt/überarbeitet?

scully1234
2018-03-18, 13:47:14
Nvidia kann sich da in der Linux-Welt etwa einen schlanken Fuß machen mit ihrem Blob-Treiber, aber vielleicht rächt sich das eines Tages.


Der Chefstratege Linus ist da aber auch nicht gerade seriös geblieben bei etwaiger Kommunikation #Stinkefinger #f...you, vielleicht wäre vieles etwas unkomplizierter gelöst worden ,wenn man nicht in diesen Tonfall Geschäftspartner diskreditiert hätte damals?

Es sagt schon ein altes Sprichwort: "wie man in den Wald ruft..."

pixeljetstream
2018-03-18, 13:50:37
Daher ist es auch fundamental falsch solche Probleme nicht anzuprangern und Besserungen zu verlangen. Aber AMD kam 8 Jahre und einer neuen Konsolengeneration damit durch.

Konkurrenz ist immer gut, unterschiedliche Lösungsansätze werden im Markt erprobt. NV ist ja auch nicht frei von Baustellen. Bei beiden Herstellern ist der Chip ja nur das was bis zu nem Stichtag fertig sein musste, nicht das was man bauen könnte. Und damit nochmal der Hinweis wie wichtig es ist neue Lösungen zu bringen, man kann sich in der high tech Industrie nicht zurücklehnen.

Es sagt schon ein altes Sprichwort: "wie man in den Wald ruft..."

Der ist ja kein Geschäftspartner, imo hat sowas keine Auswirkungen, am Ende ist's ne Kosten/Nutzen Rechnung. Ist es "billiger" das IP mit dem blob zu schützen, oder nicht. Was wollen die zahlenden Hardwarekunden die Linux einsetzen. Sehr oft will die Industrie auch eine Supportleistung, und sie sind ja keine Lämmer die zur Schlachtbank laufen, die wissen und rechnen ihrerseits genauso mit wie hinderlich proprietäre Lösungen sind gegenüber wieviel es ihrem eigenen Produkt nutzt.

aufkrawall
2018-03-18, 14:02:34
Der Chefstratege Linus ist da aber auch nicht gerade seriös geblieben bei etwaiger Kommunikation #Stinkefinger #f...you, vielleicht wäre vieles etwas unkomplizierter gelöst worden ,wenn man nicht in diesen Tonfall Geschäftspartner diskreditiert hätte damals?

Es sagt schon ein altes Sprichwort: "wie man in den Wald ruft..."
Du hast ein ziemlich krudes Bild davon, wie Linux funktioniert. Torvalds ist kein "Stratege", außer, dass er viele Leitlinien vorgibt und durchsetzt. Er hat auch keine "Geschäftspartner", Kohle gibts von einer Foundation. In die zahlen Firmen ein, die sich was von Linux versprechen. Die haben eine Stimme, können aber auch nicht einfach irgendwas bestimmen. Die Strategie, wie Linux genutzt wird, obliegt jeder Firma selbst. Wenn sie versuchen, irgendwelchen fragwürdigen Krempel zu mainlinen, handeln sie sich halt eine Abfuhr ein. So geschehen bei AMDs Display Stack, der jetzt aber in bereinigter Form drin ist, und offenbar haben alle dadurch gewonnen...

Digidi
2018-03-18, 14:02:37
wennst schon wieder mit dem nv gehate und tesselationsbullshit anfängst, dann erkläre uns doch mal warum ATI das frontend nicht umbaut und dadurch mehr kleine shaderblöcke verarbeiten kann?
Fiji ist sogar taktbereinigt schneller als vega. Wo soll bei vega der fortschritt sein? Das frontend ist längst veraltet und das liegt nicht an NV. Tesselation wird imho viel zu wenig verwendet. Mir fällt auch ehrlich gesagt nur witcher 3 ein, wo es stärker gut genutzt wurde. Den richtigen durchbruch mit perfekten rundungen haben wir imho noch lange nicht. Liegt auch an den konsolen.
Warum steigert amd dann nicht einfach die tesselationsleistung? Was hindert sie daran, doppelt so viel leistung wie nv zu verbauen?


ich hätte gerne eine antwort auf die zwei fragen, warum amd die tesselationsleistung nicht stärker angleicht und warum amd nicht endlich das frontend aufbohrt/überarbeitet?

Der Fortschritt ist in Features die bei den Entwicklern keinerlei Beachtung finden weil AMD zu klein ist.

AMD hat doch das Frontend aufgebohrt. Genau da ziehlt der der NGG Fast Path und Primitive Shaders drauf ab. Man wollte es sogar selbst umsetzen, das ist eine Herkulesaufgabe und ist daran gescheitert, da müssen die Entwickler mitziehen sonst ist das zu viel für ein Unternehmen wie AMD. Das Interesse bei Entwicklern da mit zu ziehen kannst du Dir ja vorstellen wenn AMD nur 20% Markanteil hat.

Wieso soll AMD einen Chip auf Tesselation auflegen wenn die Leistung für Tesselation doch schon langt. Gegenfrage, wieso so viel Tesselieren das die Polygonen kleiner sind als ein Pixel? Das macht keinen Sinn.

scully1234
2018-03-18, 14:06:59
Du hast ein ziemlich krudes Bild davon, wie Linux funktioniert. ...

Ich habe nicht von dem Vertriebsmodell gesprochen, sondern etwaige Gründe angesprochen, warum es eventuell mit dem Treiber so schleppend verläuft

In dem Fokus sehe ich für ihn Nvidia schon als "Geschäftspartner" Supporter was auch immer, den man seriöser Weiße eben nicht so anspricht, ganz egal welchen Groll er da nun mitschleppte

Möglicherweise hat eben genau dieses grobschlächtige zu eben genau dieser Situation geführt???

aufkrawall
2018-03-18, 14:17:17
Ich habe nicht von dem Vertriebsmodell gesprochen, sondern etwaige Gründe angesprochen, warum es eventuell mit dem Treiber so schleppend verläuft

Da läuft nichts schleppend. Der von Nvidia ist ein fetter closed source Binary-Blob in einer Welt aus lauter kleinteiligen open source Komponenten. Das hat Nvidia so entschieden und wollen es auch nicht ändern. Vorteil ist, dass man sofort die volle Performance liefern kann. Nachteile sind alle möglichen Bugs, Inkompatibilitäten und Black Boxes für Entwickler (bei Cuda wahrscheinlich weniger).
Torvalds dreht eigentlich auch nur auf, wenn ihm etwas arg missfällt. Davon lässt sich keine Firma mit Geschäftsinteressen abschrecken.

pixeljetstream
2018-03-18, 14:35:40
Das Interesse bei Entwicklern da mit zu ziehen kannst du Dir ja vorstellen wenn AMD nur 20% Markanteil hat.

Hast Du eine belegbare Aussage dafür, dass die Entwickler nicht mitziehen würden? Einige Spielentwickler sprachen ja auch ihren Unmut über NV öffentlich aus was tools & doku anging und vielen gefiel ja auch die Richtung die mit Mantle eingschlagen wurde, die fp16 intrinsics hat man ja auch rausgebracht. De facto gibt es einfach keine details über dieses Feature, es müsste ja mindestens in ihrere open-source doku beschrieben sein... AMD könnte genauso das Feature nun stark öffentlich pushen um Entwickler zu gewinnen und sich, sagen wir für die nächste Konsolenrunde gut zu positionieren, wo sie immer noch gut dabei sind im Verhältnis zu NV. Es ist ja ihre Entscheidung gewesen, es vor Release überhaupt zu bewerben und das Feature ist ja nicht erst mit dem Launch vom Himmel gefallen.
Denke einfach nicht so schwarz weiß über die beiden Firmen, die Geld verdienen wollen, dann musst Du Dir auch nicht irgendwas konstruieren woran der andere Schuld ist ;)

Troyan
2018-03-18, 14:41:08
Konkurrenz ist immer gut, unterschiedliche Lösungsansätze werden im Markt erprobt. NV ist ja auch nicht frei von Baustellen. Bei beiden Herstellern ist der Chip ja nur das was bis zu nem Stichtag fertig sein musste, nicht das was man bauen könnte. Und damit nochmal der Hinweis wie wichtig es ist neue Lösungen zu bringen, man kann sich in der high tech Industrie nicht zurücklehnen.

Das Thema "Front-End Entwicklung" bei AMD war doch mit den neuen Konsolen erledigt. Sie könnten es also aussitzen.

Das Thema Raytracing wird zeigen, ob sich Technologien im PC-Spiele-Markt durchsetzen werden, die nicht auf den aktuellen Konsolen nutzbar sind.

dargo
2018-03-18, 14:42:25
Ich weiß gar nicht was dieses Rumgeeier mit der Tessellation wieder soll? Vor Polaris waren sehr hohe Faktoren sicherlich auf GCN ein Problem. Seit Polaris und spätestens Vega steht AMD Nvidia bei Tessellation im nichts nach.
https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/4/#diagramm-tessellation-rise-of-the-tomb-raider

Bei RotTR verliert Vega mit Tessellation sogar weniger als GP104. P20 und GP104 ist dann Gleichstand was den Verlust angeht.


Fiji ist sogar taktbereinigt schneller als vega.
Was ist das denn wieder für ein Bullshit?! :facepalm:

scully1234
2018-03-18, 14:44:04
Um dann mal wieder auf Turing zu kommen, bin ich gespannt wie die Adaptation der Raytracing Geschichte, auf dem "abgespeckten"??? Chip bewerkstelligt wird,in genannten Beispiel Metro,oder ob das erstmal eine "Volta only Tensor Core" Geschichte bleibt

Digidi
2018-03-18, 14:45:54
Hast Du eine belegbare Aussage dafür, dass die Entwickler nicht mitziehen würden? Einige Spielentwickler sprachen ja auch ihren Unmut über NV öffentlich aus was tools & doku anging und vielen gefiel ja auch die Richtung die mit Mantle eingschlagen wurde. De facto gibt es einfach keine details über dieses Feature, es müsste ja mindestens in ihrere open-source doku beschrieben sein...
Denke einfach nicht so schwarz weiß über die beiden Firmen, die Geld verdienen wollen, dann musst Du Dir auch nicht irgendwas konstruieren ;)
AMD könnte genauso das Feature nun stark pushen um Entwickler zu gewinnen und sich, sagen wir für die nächste Konsolenrunde gut zu positionieren, wo sie immer noch gut dabei sind im Verhältnis zu NV.

Am Ende muss das Produkt an den Man gebracht werden und da zählen dann die nackten Zahlen. Meistens Entscheidet das noch nicht mal mehr eien Person. Da spuckt dann SAP oder irgend eine andere Buchhaltungssoftware raus das es sich nicht lohnt. Ist der Markt zu klein und muss aber verhätnismäßig viel Aufwand reinstecken um den Markt zu erobern wird man es meistens sein lassen.

Das ist simple Wirtschaftslehre hat man im BWL Studium im ersten Semester.

pixeljetstream
2018-03-18, 15:07:20
Nach der Logik hätten sie es dann aber erst gar nicht enwickeln müssen, weil Geldverschwendung, bzw. beworben haben sie es ja auch noch... Aber Du bist echt ausdauernd kreativ darin immer den nächsten Schauplatz aufzumachen.

Digidi
2018-03-18, 15:13:06
Nach der Logik hätten sie es dann aber erst gar nicht enwickeln müssen, weil Geldverschwendung, bzw. beworben haben sie es ja auch...
AMD hat sich das auch anderster vorgestellt. Anscheinend war es dann doch nicht so leicht oder hat andere Prioritäten gesetzt. Man Sieht es ja an der Aussage des AMD Entwicklers das es ja mal geplant war. Und was soll AMD denn sonst machen? Anpassen auf Nvidia geht nicht weil sie nicht wissen wie das genau Läuft also versucht man weiterhin Features in den Chip zu Integrieren und Hofft das irgend wann mal jemand darauf auf springt.

AMD muss weiter Entwickeln sonst gehen sie bald ganz Baden. Die Spieleentwickler müssen es bloß nicht annehmen wenn es Ihnen keine Vorteil bringt.

Thunder99
2018-03-18, 16:37:01
Ich weiß gar nicht was dieses Rumgeeier mit der Tessellation wieder soll? Vor Polaris waren sehr hohe Faktoren sicherlich auf GCN ein Problem. Seit Polaris und spätestens Vega steht AMD Nvidia bei Tessellation im nichts nach.
https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/4/#diagramm-tessellation-rise-of-the-tomb-raider

Bei RotTR verliert Vega mit Tessellation sogar weniger als GP104. P20 und GP104 ist dann Gleichstand was den Verlust angeht.


Was ist das denn wieder für ein Bullshit?! :facepalm:
Leider kein Bullshit, da es darauf ankommt. Im Schnitt ist Vega schneller, aber es gibt Fälle wo Fiji vorne ist.

Wenn Turing so spät kommt halte ich wie schon mal geschrieben 7nm wahrscheinlicher als 12nm. Ansonsten gibt es keinen so großen Performance Sprung. Spekuliere +40% zur 1080Ti FE bei 12nm und bei 7nm +60%

pixeljetstream
2018-03-18, 17:43:42
AMD hat sich das auch anderster vorgestellt.
...
AMD muss weiter Entwickeln sonst gehen sie bald ganz Baden. Die Spieleentwickler müssen es bloß nicht annehmen wenn es Ihnen keine Vorteil bringt.

Der Aussage kann ich zustimmen, das davor klang teilweise sehr widersprüchlich dazu.
Mal sehen was die Firmen diese Woche so zeigen.

Hübie
2018-03-18, 18:20:21
Wie beurteilst du denn die Reife von den aktuellen und kommende Prozesse? Weißt du da mehr, worüber du öffentlich sprechen darfst? TSMC ist in der Regel GloFo voraus und ich wüsste jetzt nicht, weshalb sich das plötzlich ändert.
Kommen 10 nm in Betracht? Was man so hört / liest spricht dagegen. Könnte 7 nm in Q3/'18 reif für große ASICs sein?

dargo
2018-03-18, 18:21:49
Leider kein Bullshit, da es darauf ankommt. Im Schnitt ist Vega schneller, aber es gibt Fälle wo Fiji vorne ist.

Die wären? Und komm mir nicht mit irgendwelchen alten Zeug zum Release. Wenn schon dann was halbwegs Aktuelles.

Hübie
2018-03-18, 18:25:09
Könnt ihr euren Vega und Fiji Kram in den entsprechenden Threads besprechen, bevor das hier eskaliert? :smile: Auch wenn mich das interessiert wollen wir uns hier auf Turing konzentrieren.

Digidi
2018-03-18, 18:41:41
Der Aussage kann ich zustimmen, das davor klang teilweise sehr widersprüchlich dazu.
Mal sehen was die Firmen diese Woche so zeigen.
Du verdrehst meine Aussagen. Hauptanteil tragen die Entwickler und im gewissen maße auch Nvidia. AMD tut seit Jahren das beste nur macht Nvidia mit Ihren ganzen Entwicklerunterstütungen es für die Entwickler total unatraktiv überhaupt noch etwas von AMD anzufassen. 100% Markanteil wir kommen und das wird noch schneller gehen. Würde mich nicht wundern wenn es gheime Abmachungen gibt wie: Ihr last AMD fallen dafür ersetzen wir euren verlust durch das Doppelte in Entwicklerunterstütung. Win Win für Beide und ich wette Sobald Nvidia bei 90% Marktanteil ist lässt man Gameworks sterben.

Das Mining spielt Huang in die Karten. Ich rechne mit 800 Euro für die GTX 2080 non TI

vinacis_vivids
2018-03-18, 18:49:34
Stand jetzt sind die 5120SP von Nvidia 15% schneller als 4096SP von AMD im LL-API-4k. 25% mehr Shader schlagen nicht so gut durch, es wurde in der Abraktionstiefe bei Nvidia nicht weiter ausgebaut, sondern lediglich am Treiber (für Steinzeit-API) und Gameworks-Extensions.
https://abload.de/img/screenshot-2017-12-1623k76.png
Gehts, richtung CPU, herrscht gleichstand.
https://abload.de/img/screenshot-2017-12-160nusz.png

Und das ist ohne Vega spezifisches support.

Mancko
2018-03-18, 19:24:20
Win Win für Beide und ich wette Sobald Nvidia bei 90% Marktanteil ist lässt man Gameworks sterben.


Wieso sollten sie Gameworks sterben lassen? Das macht doch überhaupt keinen Sinn. Selbst bei totaler Überlegenheit gegenüber dem direkten Konkurrenten macht Gameworks Sinn, denn M$ ist viel zu behäbig was neue Grafiktechnologien in DirectX angeht und hat durch seine Konsolte auch kein großes gesteigertes Interesse, dass der PC komplett davon rennt. Gameworks ist m.E. die ganz simple Antwort auf die Konsolen. Nvidia hat nichts davon, wenn es ausschließlich portierte Spiele mit mittelmäßigen Grafikanforderungen gibt. Selbst wenn es keine Konkurrenz gäbe hätten sie ein sehr hohes Interesse daran, dass neue Gamingsoftware die Hardwareanforderungen stetig wachsen lässt. Und da eben alle anderen offensichtlich da nicht ganz so fokussiert darauf sind macht es Nvidia eben mit Gameworks selber. Netter Nebeneffekt ist natürlich die bessere Positionierung gegenüber der Konkurrenz. Hauptnutzen ist aber deutlich aufgebohrte Grafik und die gesteigerten Hardwareanforderungen die den Kunden dazu bringt neue Hardware zu kaufen und nicht auf der alten weiter zu sitzen.



Das Mining spielt Huang in die Karten. Ich rechne mit 800 Euro für die GTX 2080 non TI

Huang bzw. Nvidia gehen von einer sinkenden Mining Nachfrage aus und werden weiter versuchen die Nachfrage mit separaten Produkten zu bedienen. Nvidia profitiert aktuell vom Mining ganz gut. Am meißten im Verhältnis zur Leistung profitiert aber AMD. Ohne Mining wäre das Versagen bei Vega noch viel krasser zu Tage getreten als es das derzeit tut, denn im Gamingsegment ist man hier einfach an keiner Stelle konkurrenzfähig, insbesondere nicht beim Kosten / ASP Vergleich.

Hübie
2018-03-18, 20:03:27
Stand jetzt sind die 5120SP von Nvidia 15% schneller als 4096SP von AMD im LL-API-4k. 25% mehr Shader schlagen nicht so gut durch, es wurde in der Abraktionstiefe bei Nvidia nicht weiter ausgebaut, sondern lediglich am Treiber (für Steinzeit-API) und Gameworks-Extensions.
https://abload.de/img/screenshot-2017-12-1623k76.png
Gehts, richtung CPU, herrscht gleichstand.
https://abload.de/img/screenshot-2017-12-160nusz.png

Und das ist ohne Vega spezifisches support.

Das stimmt natürlich so erst mal nicht. Du kannst ja nicht ein Spiel heran ziehen und dann von der Ausnahme auf die Regel schließen.

Zwischen 20 und 80% Leistungszuwachs kommt alles vor.

Beispiel:
TITAN V 12GB, Average FPS Comparisons
Titan Xp 12GB GTX 1080 Ti 11GB GTX 1080 8GB Vega 64 Liquid 8GB
Dirt Rally 2560x1440 6% 14% 64% 51%
3840x2160 15% 21% 82% 76%
Fallout 4 2560x1440 9% 18% 58% 53%
3840x2160 20% 50% 82% 76%
GTA V 2560x1440 -1% 0% 2% 28%
3840x2160 4% 15% 58% 97%
Hellblade 2560x1440 38% 55% 97% 103%
3840x2160 29% 41% 88% 77%
Hitman 2560x1440 -32% -32% -18% -23%
3840x2160 14% 17% 50% 45%
RoTR 2560x1440 8% 15% 63% 51%
3840x2160 13% 19% 64% 53%
Sniper Elite 4 2560x1440 22% 39% 81% 113%
3840x2160 16% 33% 84% 88%
The Witcher 3 2560x1440 18% 26% 72% 72%
3840x2160 23% 28% 81% 81%
Ergebnis Mittelwert 13% 22% 63% 65%
Median 15% 20% 68% 74%

Quelle (https://www.pcper.com/reviews/Graphics-Cards/NVIDIA-TITAN-V-Review-Part-1-Gaming)

Edit: Mal noch Werte von AMD-freundlicheren Titeln:
Quelle TITAN V 12GB, Average FPS Comparisons
Titan X 12GB GTX 1080 Ti 11GB GTX 1080 8GB RX Vega 64 8GB
Far Cry Primal 2560x1440 18% 13% 32% 32%
3840x2160 22% 17% 42% 42%
The Division 2560x1440 27% 14% 39% 37%
3840x2160 23% 18% 28% 41%
Talos Principle 2560x1440 NA NA NA NA
3840x2160 26% 18% 45% 107%
Doom 2560x1440 34% 23% 37% 21%
3840x2160 28% 19% 47% 24%
SW:Bf II * 2560x1440 NA 8% 35% 46%
3840x2160 NA 27% 64% 69%
CoD: WW II * 2560x1440 NA 6% 29% 56%
3840x2160 NA 12% 40% 62%
PUBG * 2560x1440 NA 9% 24% 81%
3840x2160 NA 14% 44% 106%
Wf II: NC * 2560x1440 NA 14% 36% 25%
3840x2160 NA 26% 56% 56%
Ergebnis Mittelwert 25% 16% 40% 54%
Median 26% 14% 39% 46%


Quelle (www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/45199-nvidia-titan-v-volta-architektur-im-gaming-test.html)

Die mit * gekennzeichneten 1080 (Ti) sind custom boards und wurden via Faktor 0,93 korrigiert, da durch OC 7% mehr Leistung im Schnitt über beide Auflösungen erreicht werden.


Edit2: Der Grund warum ich das poste ist auch, die Spekulation mit den 4608 ALUs mal etwas zu untermauern, da Titan V schon ganz gut die Skalierung projiziert. Ohne compute-Balast und mit ein paar weiteren Optimierungen in der Pipeline unter der Haube dürfte da der zu erwartende Zuwachs bei 40-60% je nach Spiel und Auflösung hinter stehen. Titan V taktet ja nun auch relativ niedrig: 1706-1740 im Luxx-Test und meistens um 1600 MHz im PCPer-Test.

pixeljetstream
2018-03-18, 21:06:35
@Mancko dazu kommt ein nicht unwesentlicher Teil von GameWorks ist der Gewinn des Wertes der Marke. Der Endkunde sieht, der Hersteller engagiert sich sichtlich im Bereich PC Gaming. GPUOpen richtet sich an Entwickler, aber nicht an den Endkunden.

@Hübie, hätte das mit der Statistik sein lassen, weil das kommt bei v_v doch eh nicht an und die Gefahr ist doch nur dass es dann immer weiter eskaliert mit Zahlenschlacht, am Ende ist doch alles die Verschwörung ;)
Die Konsolen und Titel wie Doom/Wolf zeigen dass ihre Architektur auch ihre Stärken hat, und die gilt es halt dann von der Konkurrenz auch zu schlagen, und dann packt der andere woanders wieder was aus usw. Selbst wenn AMD finanziell die Luft ausgeht, die Leute die das Zeug gebaut haben, sind ja dann vermutlich einfach bei anderen Firmen bzw. der Rest wird falls relevant geschluckt von wem der das Geld hat. Ich rechne eigentlich fest damit das man von Apple technologisch noch nicht alles gesehen hat.

Zu deiner vorherigen Frage, ein AI programm namens Skynet hat uns vorgerechnet es wäre sehr lukrativ ne eigene Fab und Roboterfabrik an einem geheimen Standort zu bauen.

scully1234
2018-03-18, 22:01:49
Zu deiner vorherigen Frage, ein AI programm namens Skynet hat uns vorgerechnet es wäre sehr lukrativ ne eigene Fab und Roboterfabrik an einem geheimen Standort zu bauen.


https://pics.me.me/what-did-you-say-didntouite-get-that-17624594.png

Edgecrusher86
2018-03-18, 22:07:41
Man sollte natürlich auch bedenken, dass das CPU-Limit eine Rolle spielt bei den V Reviews - wenn ich so sehe, dass ein 3,3 GHz 5960X oder ein ~3,7-3,9 GHz 1950X alles andere als optimal bei so einer starken Karte sind. Dazu sind auch viele Titel nicht maximiert in den Settings, damit die kleinen Karten auch anständige fps schaffen bzw. halt auch immer AMD gegen getestet werden kann.
Sehr schade, dass das nicht mit einem 5GHz+ 8700K getestet wurde und maxed out. Bei GW Titeln dann halt nur gegen andere NV. Fallout 4 etwa ist mit Debris und HBAO+ eine ganz andere Hausnummer für 4K. GP102 SGPU ist da überfordert, konstant flüssige fps zu liefern (es schwankt immer so zwischen grob 30-60 fps)! ;)

Hier etwa sieht es schon besser gegenüber der Xp aus - leider wurden auch nicht alle Titel maximiert:
https://www.youtube.com/watch?v=hm1lz2QyIak&t=138s
FHD hätte er sich sparen können. :D
Oft 30%+ auf Xp in 4K bei niedrigeren Taktraten. In WQHD ist der Vorsprung teils marginal, es limitiert also selbst der 4,7 GHz i9-7960X des Öfteren. ;)

Digidi
2018-03-18, 22:25:43
https://pics.me.me/what-did-you-say-didntouite-get-that-17624594.png

Noch nie was von Terminator gehört? Ich glaube er spielt auf Verschwörungstheorie an.

scully1234
2018-03-18, 22:27:53
Ich weiß worauf er anspielt, das Bild war eher humoristischer Natur, ich nehme an das er das auch so aufgefasst hat

pixeljetstream
2018-03-18, 22:41:10
Eigentlich meinte ich die Geschichte mit dem Fertigungsprozess, aber war wohl fail.

scully1234
2018-03-18, 22:42:18
ne ne passt schon Hübies Charme war wohl nicht ganz ausreichend für bessere Infos mmmpf=)

Hübie
2018-03-19, 03:57:54
Na ja es kann immer mal sein, dass Infos durchsickern und man selber nur der Bote ist. Don't shoot the messenger. :D Jensen's Truppe überrascht halt immer wieder, daher will ich weder den 10- und noch 7-nm-Prozess kategorisch ausschließen. In 12 nm wäre es halt ne teure Geschichte und hat dieses mal vielleicht nicht den Vorteil bedeutend weniger ALUs und signifikant höheren Takt anzusetzen. Wir erinnern uns: Mit 2048 Maxwell-ALUs und 20(?)% mehr Takt erreichte man mehr als mit 2880 Kepler ALUs (980<->Titan Black). Dann erreichte man mit 1920 ALUs und 40% mehr Takt die Leistung von 2816 Maxwell ALUs (1070<->980 Ti).

In 12 nm rechne ich zumindest nicht mit einem großen Taktsprung. Die Pipeline kann man sicher umstrukturieren und mehr heraus holen wenn man Lösung XY parat hat.

Rancor
2018-03-19, 08:25:22
Niemanden der NV Kunden interessiert die Low Level Geschichte, solange NV in DX 11 liefert. Wann raffst du das eigentlich endlich mal? Geh lieber wieder Diagramme fälschen...

dargo
2018-03-19, 08:52:12
Niemanden der NV Kunden interessiert die Low Level Geschichte, solange NV in DX 11 liefert.
Stimmt... denn jeder NV-Kunde hat einen i7-8700K @5,xGhz. X-D

Rancor
2018-03-19, 10:36:58
Stimmt... denn jeder NV-Kunde hat einen i7-8700K @5,xGhz. X-D

:rolleyes:

Nenn mir einen einzigen hier im Forum der auf Grund der Low Level Performance zu AMD gewechselt ist, weil Nvidia ihm da zu schwach war.

Oder der sich dachte:"Hmm, also mein NV Karte performt ja unter LL nicht so gut. Ja und dann ist meine CPU natürlich auch zu schwach für das Spiel, weil meine NV Karte eben nix kann unter LL. Na gut, dann kaufe ich mir jetzt eben eine AMD Karte, weil die ja so gut in LL ist, der Rest intressiert mich überhaupt nicht "

Einen einzigen User nur. Der deshalb von Pascal zu Vega wechselte.

Es ist den Leuten einfach nicht wichtig genug, wann versteht ihr das denn endlich mal.

Und es macht auch keinen Sinn, ständig darauf rumzureiten. Seit Mantle wird die Sau hier durchs Forum getrieben..

Die nächste NV Architektur wird unter LL ebenfalls nicht sonderlich schneller sein, wie unter High Level. Davon ist auszugehen, wenn man von Volta extrapoliert. Es ist aber auch absolut nicht notwendig, solange die µArch unter DX 11 optimal ausgelastet werden kann.
Wer LL Performance möchte oder ne Schwache CPU hat, der kauft sich eben ne AMD GPU, wenn ihm die NV Performance da nicht reicht. Wo ist das Problem?
Es gibt für beide Anwendungsfälle die entsprechenden Karten.

Du findest es toll, das du den ganzen Tag Doom und Wolfenstein mit 200 / 300 FPS spielen kannst. Anderen ist das vllt nicht so wichtig. Akzeptiert es doch.

Oder kannst du es nicht ertragen und möchtest die Leute vor ihren fatalen Fehlkäufen schützen, wenn Sie sich eine NV Karte kaufen, weil irgendwann in ferner Zukunft LL dann wirklich mal im Mainstream angekommen ist und es dann sein könnte, das die NV Karten dann overall 10 oder 20% langsamer sind, als die AMD Pendants? OMG wir werden alle sterben. :rolleyes:

Ich raff einfach nicht, was das soll.

Hübie
2018-03-19, 10:56:11
Ich fürchte dass die Betrachtung hier verkehrt ist. NV hat keine LL-Schwäche, da die Performance der Karten untereinander gut mit der Rechenpower skaliert. AMD's µArch kann hier einfach stärker ausgelastet werden, da deren Lösungen eben hier angesprochen werden (shader intrinsics, RPM aka FP16, Async Compute und was da noch alles sein mag). Wenn etwas schwach ist, dann AMD unter D3D11, wobei Vega hier ja kontinuierlich aufholt. Der letzte Treiber bestätigte dies laut Benchmarks. Ich sehe ansonsten keine Schwächen. Auch nicht bei Tesselation. Es wird immer wieder mal das ein oder andere Spiel geben, dass bei Veröffentlichung auf Vendor XY besser läuft. Mit eins, zwei Treibern ist aber auch das meistens Geschichte.

@pixeljetstream: Du hattest Recht. Zwecklos mit dieser Person objektiv zu diskutieren. Und ja bereits R600 konnte Tesselation per OGL. wurde aber bis zur HD 5870 nicht wirklich angepriesen.

Troyan
2018-03-19, 10:58:59
Viel lustiger ist, dass Titanfall 2 genauso gut aussieht wie Wolfenstein 2 und besser auf nVidia-Hardware läuft. Soviel dazu, wenn jemand hier von "Steinzeit-API" spricht, wenn ein modifizierter DX9-Renderer mehr aus der Hardware holt als sogenannte "Experten".

Ist auch vollkommen belanglos hier. Am Ende zählt Grafik und da hat id seit Jahren nichts mehr zu melden mit ihrer "Konsole First" Ansichten.

Rancor
2018-03-19, 11:00:21
Ich fürchte dass die Betrachtung hier verkehrt ist. NV hat keine LL-Schwäche, da die Performance der Karten untereinander gut mit der Rechenpower skaliert. AMD's µArch kann hier einfach stärker ausgelastet werden, da deren Lösungen eben hier angesprochen werden (shader intrinsics, RPM aka FP16, Async Compute und was da noch alles sein mag). Wenn etwas schwach ist, dann AMD unter D3D11, wobei Vega hier ja kontinuierlich aufholt. Der letzte Treiber bestätigte dies laut Benchmarks. Ich sehe ansonsten keine Schwächen. Auch nicht bei Tesselation. Es wird immer wieder mal das ein oder andere Spiel geben, dass bei Veröffentlichung auf Vendor XY besser läuft. Mit eins, zwei Treibern ist aber auch das meistens Geschichte.

@pixeljetstream: Du hattest Recht. Zwecklos mit dieser Person objektiv zu diskutieren. Und ja bereits R600 konnte Tesselation per OGL. wurde aber bis zur HD 5870 nicht wirklich angepriesen.

NV hat LL nicht nötig, um die µ Architektur auszulasten. Die Reduzierung der DrawCalls nimmt man aber auch als NV Kunde gerne mit, wenn es dann mehr Leistung bringt und die GPU nicht wie in 99% der Fälle ehh vorher limitiert.

Viel lustiger ist, dass Titanfall 2 genauso gut aussieht wie Wolfenstein 2 und besser auf nVidia-Hardware läuft. Soviel dazu, wenn jemand hier von "Steinzeit-API" spricht, wenn ein modifizierter DX9-Renderer mehr aus der Hardware holt als sogenannte "Experten".

Ist auch vollkommen belanglos hier. Am Ende zählt Grafik und da hat id seit Jahren nichts mehr zu melden mit ihrer "Konsole First" Ansichten.

Würde ich pauschal nicht sagen. Es kommt eben auf die persönlichen Präferenzen an. Wenn man hauptsächlich Spiele mit der ID Tech oder einer gescheiten LL Engine spielt, dann macht es schon Sinn sich ne AMD Karte zu holen.

BoMbY
2018-03-19, 11:12:35
Schon wieder dein Herstellerbias on Tour?

Ja, die Neutralität in Person hat gesprochen ...


Und die offene Bibliothek von AMD trägt wenig zum Kontext bei, da man wenigstens einen groben Vergleich zwischen den Lösungen stellen sollte.
Oder soll einfach jeder mal ein Stück offene Software in die Runde werfen und Vergleiche bezüglich Qualität, Umsetzung und Möglichkeiten ignorieren und sich fragen wieso es proprietäres Zeug auf den Markt gibt?

Das was NVidia da präsentiert ist die GameMurks-Lösung für etwas das schon seit Ewigkeiten existiert, und nur ein weiter Versuch die Monopolbildung durch Sabotage der Konkurrenz voran zu treiben. Man kann nur hoffen das die FTC deren Treiben bald mit einer Milliardenstrafe ein Ende bereitet.

Troyan
2018-03-19, 17:14:23
Die Überschrift bringt es auf dem Punkt:
NVIDIA announces exclusive features for GPUs that don't exist
https://www.engadget.com/2018/03/19/nvidia-rtx-ray-casting-gameworks-volta-api/?utm_source=dlvr.it&utm_medium=facebook

Es startet also der "Osborne"-Effekt für Pascal. Imo kann es nicht mehr lange dauern bis die neuen GPUs kommen.

scully1234
2018-03-19, 17:26:27
gabs oder gibts da die Woche einen Stream vom Event?

Troyan
2018-03-19, 17:32:43
Nein. Nächste Woche Dienstag gibt es die Keynote von der GTC.

scully1234
2018-03-19, 17:35:54
danke:up:

Edit:

weil ichs gerade wieder lese

RTX is compatible with DXR, Microsoft's new ray tracing API for DirectX

Wozu die Kooperation mit MS?, "nur" für das Win 10 OS würde mir das bei Microsoft für ne neue API nicht genug sein,die Tragweite ist sicher weiter gesteckt,sodas MS davon mehr partizipiert

Ist das vielleicht schon ein Fingerzeig auf eine neue Konsolengeneration, die mit neuen Featureset u neuer GPU daher kommt?

vinacis_vivids
2018-03-19, 17:47:04
Bei den min Werten sind die Nvidia-Karten sogar 100-300% schneller. :eek:

Das sind keine 99% min ft.

N0Thing
2018-03-19, 17:55:58
Die Überschrift bringt es auf dem Punkt:
NVIDIA announces exclusive features for GPUs that don't exist
https://www.engadget.com/2018/03/19/nvidia-rtx-ray-casting-gameworks-volta-api/?utm_source=dlvr.it&utm_medium=facebook

Es startet also der "Osborne"-Effekt für Pascal. Imo kann es nicht mehr lange dauern bis die neuen GPUs kommen.

Mal sehen, wann die exklusiven Features auch den älteren GPUs zugänglich gemacht werden. Aus dem gleichen Artikel:

RTX is compatible with DXR, Microsoft's new ray tracing API for DirectX. To be clear, DXR and RTX will support older graphics cards; it's only the special GameWorks features that will be locked to "Volta and future generation GPU architectures."


E:\
Das sind keine 99% min ft.

Bis die gleiche Seite diese anbietet, muss man eben damit arbeiten, was sie anbieten. Ich hab mir die Quelle ja nicht ausgesucht. Und Min.-FPS von 7 sind nun einmal doppelt oder dreimal so kacke wie Min.-FPS von 15 oder 21. Ist aber eh offtopic.

AffenJack
2018-03-19, 18:17:25
Mal sehen, wann die exklusiven Features auch den älteren GPUs zugänglich gemacht werden. Aus dem gleichen Artikel:


Die exklusiven Features sind exklusiv, da wird nix älteren GPUs zugänglich gemacht. DirectX Raytracing funzt mit den älteren GPUs.

DirectX Raytracing |Planned Support
Vendor |Support
AMD |Indeterminate - Driver Due Soon
NVIDIA Volta | Hardware + Software (RTX)
NVIDIA Pre-Volta | Software
https://www.anandtech.com/show/12547/expanding-directx-12-microsoft-announces-directx-raytracing

Zumindest bei Nv wird es vor Volta aber alles über Software, also Compute laufen. Amd ist noch unklar. Volta dagegen hat irgendwelche Hardware zur Raytracingbeschleunigung, die es deutlich schneller macht.

NVIDIA stated that real time ray tracing with RTX on Volta would be “integer multiples faster” than with DXR on older hardware.
https://www.anandtech.com/show/12546/nvidia-unveils-rtx-technology-real-time-ray-tracing-acceleration-for-volta-gpus-and-later

scully1234
2018-03-19, 18:19:47
Mal sehen, wann die exklusiven Features auch den älteren GPUs zugänglich gemacht werden. Aus dem gleichen Artikel:



Wenn das über Einheiten läuft (es wird expilzit Volta u danach genannt),die Pascal u davor nicht besitzt, wohl gar nicht


Bitte lasst V_V in seinem Glauben damit hier Ruhe ist, oder wenns zu viel wird melden
Volta dagegen hat irgendwelche Hardware zur Raytracingbeschleunigung, die es deutlich schneller macht.


Sind das nicht die Tensor Units auf die Optix AI zurück greift?

N0Thing
2018-03-19, 18:28:06
Naja, gab ja schon einige Effekte, wo es am Anfang hieß, die seien nur mit Nvidia-Hardware XY möglich und ein paar Jahre später laufen die gleichen Sachen sogar auf AMD-Hardware. Es steht ja nirgendwo, dass Volta-Hardware technisch notwendig sei, sondern nur, dass es auf Grund der Leistung auf Volta besser läuft.

Ich freue mich auf jeden Fall, dass in dem Bereich zum einen Fortschritt stattfindet und zum anderen über eine API, die allen Herstellern offen steht.

AffenJack
2018-03-19, 18:28:58
Sind das nicht die Tensor Units auf die Optix AI zurück greift?

TCs wurden für das Denoising genannt, soweit ich das verstehe. Aber ob das das einzige ist, wer weiß. Groß Infos neben der Ankündigung gabs ja nicht.

Rancor
2018-03-19, 18:31:15
Möglicherweise werden die Tensor Cores dafür benutzt?

Hübie
2018-03-19, 18:35:04
Microsoft bietet eine breite Plattform an und hat eigene Lösungen für AR. Das liegt doch auf der Hand. ;)
Iirc entwickelt man ja eh schon länger an einer API für RT / PT. Warum dies allerdings nicht unter dem DirectX Label gehandelt wird weiß man nicht. Spielt auch keine Rolle. Ob dies the next big thing wird muss sich halt zeigen.
Versuche mit Path- oder Raytracing gab es mWn schon in Crysis 1.

scully1234
2018-03-19, 18:35:55
Naja, gab ja schon einige Effekte, wo es am Anfang hieß, die seien nur mit Nvidia-Hardware XY möglich und ein paar Jahre später laufen die gleichen Sachen sogar auf AMD-Hardware. Es steht ja nirgendwo, dass Volta-Hardware technisch notwendig sei, sondern nur, dass es auf Grund der Leistung auf Volta besser läuft.
.

gewiss ,aber um eben das Resultat von Realtime zu erreichen, wirds wohl nicht unter den neuen GPUs möglich sein

Raytracing gabs mit Optix ja schon auf Shader Units, nur das Bildrauschen hat man bisher nicht performant genug "gekillt"

N0Thing
2018-03-19, 18:40:13
MWarum dies allerdings nicht unter dem DirectX Label gehandelt wird weiß man nicht.

:confused:

DirectX Raytracing --> DXR

Hübie
2018-03-19, 18:46:41
Ach so das hab ich wohl verpasst. :D Danke für die Klarstellung. Die Tensor Cores werden ziemlich sicher mit genutzt, da der denoise Algorithmus eben Matrixmultiplikation mit Addition ist. Das Prinzip ist also eher 'best guess' durch Iterationen und das Ergebnis kann sich sehen lassen.

scully1234
2018-03-19, 18:50:14
da der denoise Algorithmus eben Matrixmultiplikation mit Addition ist. .

eigentlich müsste Turing dann auch Tensor Cores verpflanzt bekommen, und weniger abgespeckt sein wie noch Pascal

Screemer
2018-03-19, 18:53:10
Hieß es nicht mal Gaming Volta/Turing hätte keine tensor cores?

scully1234
2018-03-19, 18:55:32
dann müsste aber eine andere Adaption her ,um das Bildrauschen eben so schnell zu eliminieren bei Turing

Hübie
2018-03-19, 19:08:13
Hieß es nicht mal Gaming Volta/Turing hätte keine tensor cores?

Hatte das Thema mal angeschnitten und einige hier meinten, dass es durchaus Sinn ergäbe wenn man AI Algorithmen einsetzt (eben nicht für die KI von NPC sondern für Grafik wie edge detection usw.).
Allein vom Namen Turing würde ich so etwas ableiten.

Edit: Da es sich hier ja nicht um training sondern inference handelt kommen doch nur Tensor Cores in Frage oder???

Troyan
2018-03-19, 19:12:39
Ja, weil es eben am effizientesten ist. Ich habe hier auch nicht verstanden, wieso die Tensor-Cores nicht unterstützt werden sollten. Recheneinheiten sind heutzutage spottbillig. GV100 ist 33% größer und hat 36% mehr Ausführungseinheiten (+ alles andere) gegenüber GP100 - inkl. TensorCores.

Da die TensorCores in die vorhandene Infrastruktur eingebunden sind, sind sie von der Fläche kaum relevant.

dildo4u
2018-03-19, 19:17:25
Microsoft bietet eine breite Plattform an und hat eigene Lösungen für AR. Das liegt doch auf der Hand. ;)
Iirc entwickelt man ja eh schon länger an einer API für RT / PT. Warum dies allerdings nicht unter dem DirectX Label gehandelt wird weiß man nicht. Spielt auch keine Rolle. Ob dies the next big thing wird muss sich halt zeigen.
Versuche mit Path- oder Raytracing gab es mWn schon in Crysis 1.
Der näste Sprung kommt mit den neuen Konsolen,alles was jetzt für den PC kommt wird mit einzelnen Ray Traced Effekten nachgerüstet.(Schatten,AO etc)
Sony hingegen kann jetzt Anfangen PS5 Games mit der Technik im Kopf zu entwickeln.

Troyan
2018-03-19, 19:22:18
Das impliziert, dass AMD genauso weit wäre wie nVidia. Da man von denen heute nichts hört, scheint dies wohl nicht so zu sein. Vielleicht ein Grund, warum es dieses Jahr keine neuen GPUs geben werde...

Hübie
2018-03-19, 19:23:23
Ich denke es ist sich jeder einig, dass nur Innovationen voran treiben. Die Schrittweite bestimmt jedoch das Risiko und es kann immer mal nach hinten losgehen. Dieser Schritt könnte sehr groß werden, wenn es genug Entwickler mit machen. Oder eben sehr klein und in der Senke verschwinden, wenn der Markt es nicht akzeptiert. Dass es secret sauce gibt war aber klar. :D

Thunder99
2018-03-19, 20:09:01
Könnte mir vorstellen wenn es Nvidia exklusiv ist so gut adaptiert wird wie GPU PhysX

Troyan
2018-03-19, 20:11:11
Es ist nicht nVidia-Exklusiv. Die API läuft überall. Nur die Umsetzung auf Volta+ wird durch dedizierte Hardware "deutlich" beschleunigt.

Digidi
2018-03-19, 20:33:35
Es ist nicht nVidia-Exklusiv. Die API läuft überall. Nur die Umsetzung auf Volta+ wird durch dedizierte Hardware "deutlich" beschleunigt.
Ich glaube das stimmt nicht. Das ist eine API erweiterung Seitens Nvidia die auf einem Algorithmus beruht die man per AI Training gefunden hat.

Emil_i_Lönneberga
2018-03-19, 20:42:02
@Rancor
Nvidia muss in DX11 nachbessern:
https://abload.de/img/pugbdx1112p0z.png

Mal schauen ob der Pascal-Nachfolger da an die Vega56 rankommt.

Ein Glück für Vega, dass Pascal & Volta mit angezogener Handbremse unterwegs sind:

62830

Mal schauen ob der Vega-Nachfolger an Nvidia herankommt.

Die übertaktete, wassergekühlte Titan V kommt im 3DMark Firestrike Ultra dann sogar bis auf 1000 Punkte an zwei Radeon RX Vega 64 im Crossfire-Verbund heran.

http://www.pcgameshardware.de/Titan-V-Grafikkarte-267012/News/Auf-ueber-2-GHz-stabil-gemoddet-1246681/

Troyan
2018-03-19, 20:48:48
Ich glaube das stimmt nicht. Das ist eine API erweiterung Seitens Nvidia die auf einem Algorithmus beruht die man per AI Training gefunden hat.

Nope. Der Denoiser ist Bestandteil des Gameworks SDK. DXR und RTX sind die Grundlagen und RTX wird durch DXR unterstützt.

/edit: Microsofts DirectML erhält FP16 Unterstützung und läuft damit auf V100 3,2x schneller als mit FP32: https://blogs.msdn.microsoft.com/directx/2018/03/19/gaming-with-windows-ml/

Imo ein weiteres Zeichen, dass Tensor-Cores auch bei den Consumer Produkten zum Einsatz kommen.

Hübie
2018-03-19, 21:20:04
Ja, weil es eben am effizientesten ist. Ich habe hier auch nicht verstanden, wieso die Tensor-Cores nicht unterstützt werden sollten. Recheneinheiten sind heutzutage spottbillig. GV100 ist 33% größer und hat 36% mehr Ausführungseinheiten (+ alles andere) gegenüber GP100 - inkl. TensorCores.

Da die TensorCores in die vorhandene Infrastruktur eingebunden sind, sind sie von der Fläche kaum relevant.

Wie pixeljetstream bereite sagte ist alles stets ein trade-off was man nun rein nimmt, was nicht und was setzt man in Software um. Bei unbekannten Technologien bzw. noch nicht verwendeten / angewendeten ist es schwierig zu beurteilen wo die Entwicklung hin geht. NVIDIA hatte da bisher eigentlich ein gutes Gespür und treibt die Entwicklung ja auch aktiv mit voran, was die Unsicherheit etwas bremst. Aufzwingen kann man so etwas jedoch langfristig nicht.

Digidi
2018-03-19, 21:27:10
Wieso sollten sie Gameworks sterben lassen? Das macht doch überhaupt keinen Sinn. Selbst bei totaler Überlegenheit gegenüber dem direkten Konkurrenten macht Gameworks Sinn, denn M$ ist viel zu behäbig was neue Grafiktechnologien in DirectX angeht und hat durch seine Konsolte auch kein großes gesteigertes Interesse, dass der PC komplett davon rennt. Gameworks ist m.E. die ganz simple Antwort auf die Konsolen. Nvidia hat nichts davon, wenn es ausschließlich portierte Spiele mit mittelmäßigen Grafikanforderungen gibt. Selbst wenn es keine Konkurrenz gäbe hätten sie ein sehr hohes Interesse daran, dass neue Gamingsoftware die Hardwareanforderungen stetig wachsen lässt. Und da eben alle anderen offensichtlich da nicht ganz so fokussiert darauf sind macht es Nvidia eben mit Gameworks selber. Netter Nebeneffekt ist natürlich die bessere Positionierung gegenüber der Konkurrenz. Hauptnutzen ist aber deutlich aufgebohrte Grafik und die gesteigerten Hardwareanforderungen die den Kunden dazu bringt neue Hardware zu kaufen und nicht auf der alten weiter zu sitzen.




Huang bzw. Nvidia gehen von einer sinkenden Mining Nachfrage aus und werden weiter versuchen die Nachfrage mit separaten Produkten zu bedienen. Nvidia profitiert aktuell vom Mining ganz gut. Am meißten im Verhältnis zur Leistung profitiert aber AMD. Ohne Mining wäre das Versagen bei Vega noch viel krasser zu Tage getreten als es das derzeit tut, denn im Gamingsegment ist man hier einfach an keiner Stelle konkurrenzfähig, insbesondere nicht beim Kosten / ASP Vergleich.

Wenn es keine Konkurrenz mehr gibt rückt die eigene Gewinnmaximierung in den Fordergrund. Gameworks ist rlative teuer, das wird man als erstes abtrennen. Wieso auch nicht man hat ja keine Konkurrenz mehr um sie mit solchen Methoden in die Knie zuzwingen und die Entwickler müssen dann eh nur noch rücksicht auf Nvidia nehmen.

Du glaubst doch wohl nicht das die hohen GPU Preise Huang nicht in die Karten spielt?

Troyan
2018-03-19, 21:34:35
Wie pixeljetstream bereite sagte ist alles stets ein trade-off was man nun rein nimmt, was nicht und was setzt man in Software um. Bei unbekannten Technologien bzw. noch nicht verwendeten / angewendeten ist es schwierig zu beurteilen wo die Entwicklung hin geht. NVIDIA hatte da bisher eigentlich ein gutes Gespür und treibt die Entwicklung ja auch aktiv mit voran, was die Unsicherheit etwas bremst. Aufzwingen kann man so etwas jedoch langfristig nicht.

Der einzige Trade-Off bei TensorCores ist Fläche. Und dieser wird immer günstiger, umso mehr Anwendungsfälle es gibt. Mit DXR und DML werden zwei Standards umgesetzt, die durch TensorCores profitieren können.

Troyan
2018-03-19, 22:41:43
Wow, vergleichen wir jetzt 700W gegen 250W? Man, das ist wirklich Fortschritt bei AMD.

basix
2018-03-19, 22:44:32
Edit: Da es sich hier ja nicht um training sondern inference handelt kommen doch nur Tensor Cores in Frage oder???

Ist nicht INT8 für Inference ausreichend und Training läuft auf 16bit FP? INT8 sollte nochmals deutlich energieffizienter sein und vor allem weniger Chipfläche und Energie verbrauchen. Die Google TPU hat nämlich 256x256 8bit MMUs ;)

Ist nur die Frage, ob man die 16 bit Präzision braucht oder nicht....INT8 wäre aus Nvidia Sicht sowieso nochmals eine gute Idee, da Pascal sehr weit verbreitet ist und Quad-Rate INT8 unterstützt. Soweit ich weiss können das sogar Kepler und Maxwell. Evtl. braucht es aber CUDA dazu, mit dem Raytracing Gameworks Plugin oder besser direkt über DRX könnte man das aber freischalten.

Ist es nicht auch so, dass INT parallel mit FP ausgeführt werden kann? Oder gilt das nur für GP100 / GV100?

Troyan
2018-03-20, 00:26:35
INT8 ist nicht genug für Inference. Und für Training reicht auch FP16 nicht durchgängig aus. TensorCore löst das Training-Problem. Bei Inference muss man abwarten.

Bei Volta lassen sich mehrere Ausführungseinheiten parallel verwenden.

Locuza
2018-03-20, 08:13:08
Ja, die Neutralität in Person hat gesprochen ...

Als ob du von deinem miserablen Standpunkt aus die Freiheit genießen würdest mir in der Hinsicht eine Befangenheit zu unterstellen.


Das was NVidia da präsentiert ist die GameMurks-Lösung für etwas das schon seit Ewigkeiten existiert, und nur ein weiter Versuch die Monopolbildung durch Sabotage der Konkurrenz voran zu treiben. Man kann nur hoffen das die FTC deren Treiben bald mit einer Milliardenstrafe ein Ende bereitet.
Ich kann mich nicht daran erinnern das Nvidia damit geworben hat RayTracing und entsprechende Prinzipien gerade erst erfunden zu haben.
Sie präsentieren ihre technologische Entwicklung und bisher fällt Nvidias Aktivität in dem Bezug in keinen Bereich, der eine Regulierung nötig machen würde, egal wie fieberhaft du davon träumen tust.

BigKid
2018-03-20, 09:55:15
Auch wenn mich jetzt einige gleich Steinigen :)
Mich interessiert auch die Mining Leistung... Ich kann mir nicht vorstellen, dass eine Firma Zeit und Geld Investiert um potentielle Kunden LOSZUWERDEN...
Speziell bei NVidia nicht...

Und auch wenn ich in erster Linie ein Gamer bin - die Idee die Karte durch Mining zu refinanzieren ist für mich auf jeden Fall interessant...

Gibt es dazu schon Spekulatius ?

Rancor
2018-03-20, 10:26:17
Nein gibts nicht und ich hoffe auch das sie richtiger Dreck fürs Mining wird :P

Daredevil
2018-03-20, 10:41:53
@BigKid
ZU GDDR6 gibts noch keine Ergebnisse, wie das bei verschiedenen Algorithmen performt, aber die TitanV hat ja ein wenig rausblicken lassen, dass die Effizienz durch HBM2 gut gesteigert werden konnte im Vergleich zu Pascal. Wenn man das als Indiz für die neue Generation nimmt, könnte da was feines bei raus kommen. Aber das ist halt immer noch Spekulatius. :)

@rancor
Höre ich da ein mimi? :D

BlacKi
2018-03-20, 10:46:35
mit ner 1070 wäre ich zurzeit auch ganz schön angepisst. wenn sich das mit dem minen nicht legt, bin ich in 1-2 jahren spätestens auch angeschmiert.

Rancor
2018-03-20, 11:04:18
Vor allem mit einer 1070 und WQHD.. Es ist schon grenzwertig, aber dank G-Sync gehts noch halbwegs. ^^ :D Aber es wird mit der Zeit eher schlechter als besser ^^

AffenJack
2018-03-20, 11:07:26
mit ner 1070 wäre ich zurzeit auch ganz schön angepisst. wenn sich das mit dem minen nicht legt, bin ich in 1-2 jahren spätestens auch angeschmiert.

Ne Phase von 3,4 Monaten übersteht man auch so. Pech hat man nur richtig, wenn die Karte den Geist aufgibt. Im Dezember konntest die Karten zu akzeptablen Preisen kaufen. Danach war Ebbe, aber wenn die Cryptos nicht demnächst wieder hoch gehen, dann normalisieren sich die Preise bald auch halbwegs. Gerade schmeißen schon viele Miner ihre Karten bei Ebay usw auf den Markt.

BlacKi
2018-03-20, 11:51:43
wenn die neue 2080/2070 kommt und beim mining nochmals eine schippe obendrauf legt, dann glaube ich nicht daran das nvidia genug karten vorproduziert hat um einen engpass durch miner zu verhindern. vl werden die gebrauchtkarten etwas billiger, aber das wars auch schon. das einzigste wäre eben die FE. ich hätte mir niemals denken können das die FE interessant werden könnte. aber wegen den max 2st. pro customer, könnten die fe karten der geheimtip werden.

bin gespannt ob es nicht doch anders kommt.

N0rG
2018-03-20, 12:17:44
Lohnt sich mining bei den deutschen Strompreisen eigentlich zur Zeit?

Daredevil
2018-03-20, 12:32:20
Neee, auf keinen Fall. ^^

scully1234
2018-03-20, 13:20:25
Lohnt sich mining bei den deutschen Strompreisen eigentlich zur Zeit?

anders gefragt lohnt sich Mining bei den Umweld u Resourcenproblemen die wir jetzt schon haben auf der Welt überhaupt ?

Muss auf Gedeih u Verderb der Planet geplündert werden, nur weil ein paar illustre Gestalten das Finanzsystem neu erfinden wollen?

Das halbe Klientel hinter dem Zeug ist sowieso maffiöser Natur, und glaubt den eigenen Staat u andere bescheißen zu können damit

Es vergeht ja kaum eine Woche in der nicht mal wieder negativ Schlagzeilen kommen über den Stuss

Hoffentlich hat Turing eine in Hardware gegossene u nur von NVIDIA patchbare Mustererkennung gegen den Kram bereit!

BigKid
2018-03-20, 13:45:16
anders gefragt lohnt sich Mining bei den Umweld u Resourcenproblemen die wir jetzt schon haben auf der Welt überhaupt ?

Muss auf Gedeih u Verderb der Planet geplündert werden, nur weil ein paar illustre Gestalten das Finanzsystem neu erfinden wollen?

Das halbe Klientel hinter dem Zeug ist sowieso maffiöser Natur, und glaubt den eigenen Staat u andere bescheißen zu können damit

Es vergeht ja kaum eine Woche in der nicht mal wieder negativ Schlagzeilen kommen über den Stuss

Hoffentlich hat Turing eine in Hardware gegossene u nur von NVIDIA patchbare Mustererkennung gegen den Kram bereit!
Deinen persönlichen Hals gegen Cryptos mal raus gelassen...
Warum SOLLTE Nvidia auch nur eine Müde Mark in Forschung mit dem Ziel stecken potentielle Käufer abzuschrecken ?!?

Adam D.
2018-03-20, 14:26:31
Deinen persönlichen Hals gegen Cryptos mal raus gelassen...
Warum SOLLTE Nvidia auch nur eine Müde Mark in Forschung mit dem Ziel stecken potentielle Käufer abzuschrecken ?!?
Weil der Markt extrem schwer einzuschätzen ist und große Risiken bereithält. Abseits davon: irgendwann orientiert sich die langfristige Stammkundschaft - nämlich Gamer - um. Das kann sich Nvidia gar nicht leisten, da können die Miner noch so viel kaufen. Softwareseitig die Mining-Performance kaputt zu machen, dürfte zudem weder besonders anspruchsvoll noch teuer sein.

AMD profitiert aktuell noch eher davon, weil sie sowieso unterproportional bei PC-Gamern vertreten sind, zumindest wenn man diesen ganzen semi-brauchbaren Statistiken à la Steam glauben kann. Aber auch die müssen sich irgendwann Gedanken ums Kerngeschäft machen.

Troyan
2018-03-20, 14:34:21
AMD existiert im Gaming-Markt doch rein nur noch wegen den Konsolen. Die haben kein Problem mit Mining, da GPUs nur ein Nebengeschäft sind.

nVidia dagegen benötigt den PC-Markt, um genug Stückzahlen für die anderen Märkte zu haben.

scully1234
2018-03-20, 14:35:52
Zudem hängen bei den Gamern auch noch andere Geschäftszweige mit dran , wie Monitor u Peripheriehersteller, die auch überleben wollen, ist der Markt dort erstmal zusammengebrochen wegen dem sinnlosen Kram, macht aus der Wüste so schnell keiner mehr was

Und so ein instabiler Markt, wo dann plötzlich mal 1000 von Karten Beil geboten werden wenn der Quatsch kollabiert kann auch nicht im Interesse der Hersteller sein

aufkrawall
2018-03-20, 15:02:12
Die Realität ist aber wie sie ist, deal with it.

dargo
2018-03-20, 15:23:20
anders gefragt lohnt sich Mining bei den Umweld u Resourcenproblemen die wir jetzt schon haben auf der Welt überhaupt ?

Du könntest mal die Welt retten indem du mit dem Gaming aufhörst. Was hälst du davon? Ich hätte noch einen besseren Vorschlag... eine Stafsteuer für jeden Gamer. Und je mehr Grafikkarten der Gamer verwendet umso höher sollte diese Strafsteuer ausfallen. Sprich... SLI/CF User sollen richtig bluten. Für letzteres ist es allerdings schon praktisch zu spät. SLI/CF ist ja quasi tot.

Hübie
2018-03-20, 15:43:41
Deinen persönlichen Hals gegen Cryptos mal raus gelassen...
Warum SOLLTE Nvidia auch nur eine Müde Mark in Forschung mit dem Ziel stecken potentielle Käufer abzuschrecken ?!?

Zwei Stichworte: Konsumentenrente und Marktsegmentierung.
Konsumenten von Mining-Karten sind grundsätzlich bereit mehr für einen Chip zu bezahlen, als Gamer. Um bei beiden maximalen Profit abzuschöpfen, muss der Hersteller Produkte so differenzieren, dass für beide die optimale Preis-Absatz-Funktion erreicht wird.

Marktsegmentierung dient einerseits den Analysen von Absatzzahlen woraus man Prognosen und somit Budgetierung präzise(r) errechnet (z.B. Produktionskapazität oder gar eigenes R&D). Andererseits dient es dem Kunden, denn kein Gamer kann eine Mining-Karte verwenden, umgekehrt wäre es also ratsam für alle drei Parteien Gamer-Karten dem Mining zu verwehren um deren Kaufkraft nicht zu verlieren - vorausgesetzt es gibt genug Produktionskapazität und jede Mining-Karte wird auch mittelfristig verkauft.

maximus_hertus
2018-03-20, 15:51:00
anders gefragt lohnt sich Gaming bei den Umweld u Resourcenproblemen die wir jetzt schon haben auf der Welt überhaupt ?

Muss auf Gedeih u Verderb der Planet geplündert werden, nur weil ein paar illustre Gestalten Spiel und Spaß neu erfinden wollen?

Das halbe Klientel hinter dem Zeug ist sowieso gewaltsamer Natur, und glaubt den eigenen Staat u andere bescheißen zu können damit

Es vergeht ja kaum eine Woche in der nicht mal wieder negativ Schlagzeilen kommen über den Stuss (School-Shootings, Killerspiele)

Hoffentlich hat Turing eine in Hardware gegossene u nur von NVIDIA patchbare Mustererkennung gegen den Killerspiele-Kram bereit!

+1 :D

by the way, jeder Gamer kann sich eine GTX 1080 Ti / 1080 / 1070 etc. kaufen, wenn er möchte. Die Karten sind verfügbar. Wer Qualität haben möchte, muss halt in die Tasche greifen. Die Zeiten der (Billig)karten ist vorbei und kommt auch nicht so schnell wieder.

N0Thing
2018-03-20, 15:56:24
Wer Qualität haben möchte, muss halt in die Tasche greifen. Die Zeiten der (Billig)karten ist vorbei und kommt auch nicht so schnell wieder.

An der Qualität hat sich durch die Miner nichts geändert. Nur der Preis.

Blediator16
2018-03-20, 16:01:52
Herrlich wie sich jetzt über den Preis aufgeregt wird ;D

Hübie
2018-03-20, 16:03:11
Na ja eine Karte hat beim Gaming auch nur einen Wirkungsgrad von 2% wenn man es physisch betrachtet. Mental - tja das kann von 0-100% alles sein. :D
Es ist jedoch so, dass das eine für den Konsumenten ein Fass ohne Boden ist und die Industrien ankurbelt (von Soft-, über Hardware bis hin zu Möbeln und Accessoires), während das andere Volkswirtschaften schädigen kann: Man stelle sich vor jeder hätte eine universelle Gelddruckmaschine im Keller um letztendlich in USD/EUR zu tauschen. Hm. Zudem wird kein Miner Merchandising, Gaming-Chairs und hochwertige Peripherie kaufen. Auch keine Events veranstalten etc... Von daher verstehe ich scully1234 seine Position und Meinung.

Aus der Sicht eine Haushaltes: Jeder Haushalt ist bestrebt mit minimalem Einsatz maximale Wirkung zu erreichen (Wirtschaftlichkeitsprinzip). Mining entspricht diesem sehr gut und bringt einige sicher zu Wohlstand (kenne keine Zahlen und Fakten). Was dem gegenübersteht wissen wir ja nicht (wieviel Personen verhelfen einer zu Wohlstand? Oder wie groß ist der Anstieg - so dieser denn existiert - der Umweltbelastung durch Mining?). Wer möchte nicht seine Grafikkarte gerne gratis haben??? ;);)

Loeschzwerg
2018-03-20, 17:34:40
Aktuell kann man von 12nm ausgehen, wobei Leonidas auch Argumente pro 10nm gebracht hat


Habe das Thema (Fertigungstechnologien) jetzt nicht genauer verfolgt, aber nachdem die Konkurrenz dieses Jahr keine neuen Consumer Produkte zu bieten hat (siehe Folie (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11654619&postcount=13210)), warum sollte man noch gleich auf 12nm gehen?
NV kann in meinen Augen auch 2018 noch voll mit Pascal durchfahren, für eine 12nm GPU besteht doch gar kein Zwang.
Ich würde eine entsprechende Serie gegen Navi erwarten, mit ähnlichem Niveau bei der Fertigung.

scully1234
2018-03-20, 17:55:05
Du könntest mal die Welt retten indem du mit dem Gaming aufhörst. Was hälst du davon? .

Ich weiß gerade nicht wie du hier auf Gaming kommst ,um den Schlunz zu relativieren.
1 bist du selber Gamer also hallo guten Tag Doppelmoral:up:

Wenn dann müsstest du mit deinem Vega Backofen als erster das daddeln einstellen, bevor du Leuten vorschlägst das zu tun, die nur eine Pascal Karte haben:tongue:

und 2. was viel wichtiger ist,spielt kein Gamer der noch bei Trost ist 24/7 mit der Karte auf Anschlag, und hat normalerweiße auch nicht mehrere davon laufen, so wie die Mining Mafia

Du vergleichst hier ein brennendes Streichholz, mit nem Waldbrand um letzteres zu relativieren,das ist dir schon klar:freak:

Von der Ausfallrate der Hardware beim Mining sprechen wir da lieber auch erstmal gar nicht, denn dann wird die Gaming Gegenüberstellung noch lachhafter wie sie schon beim eigentlichen Stromverbrauch ist

Troyan
2018-03-20, 17:57:56
Habe das Thema (Fertigungstechnologien) jetzt nicht genauer verfolgt, aber nachdem die Konkurrenz dieses Jahr keine neuen Consumer Produkte zu bieten hat (siehe Folie (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11654619&postcount=13210)), warum sollte man noch gleich auf 12nm gehen?
NV kann in meinen Augen auch 2018 noch voll mit Pascal durchfahren, für eine 12nm GPU besteht doch gar kein Zwang.
Ich würde eine entsprechende Serie gegen Navi erwarten, mit ähnlichem Niveau bei der Fertigung.

Mit der Ankündigung von RTX hat sich das Thema erledigt. Um DXR zu pushen, muss es Hardware geben. Und eine 3000€ Karte reicht dafür nicht. Die Ablösung steht bevor und das eher früher als später.

Außerdem hat nVidia mit RTX eben Pascal abgewertet. Wer kauft heute noch, wenn er weiß, dass die neue Hardware in dem Punkt Raytracing viel besser sein wird?

dargo
2018-03-20, 18:20:37
Ich weiß gerade nicht wie du hier auf Gaming kommst ,um den Schlunz zu relativieren.
1 bist du selber Gamer also hallo guten Tag Doppelmoral:up:

Welche Doppelmoral? Ich verteufle die Miner nicht im Gegensatz zu dir!


Wenn dann müsstest du mit deinem Vega Backofen als erster das daddeln einstellen, bevor du Leuten vorschlägst das zu tun, die nur eine Pascal Karte haben:tongue:

Du hast schon mal besser getrollt. Meine Vega ist genauso ein "Backofen" wie jede Custom GTX1080. In einigen Fällen sogar wie eine Referenz GTX 1070-1080, was den Stromverbrauch angeht. ;) Die Leistung ist immer noch dabei knapp über Vega LCE. Schon erstaunlich, dass es bei dir noch nicht angekommen ist.

aufkrawall
2018-03-20, 18:31:25
Welche Doppelmoral? Ich verteufle die Miner nicht im Gegensatz zu dir!

Wie kann man es nicht gut finden, wenn der Markt für Gamer leer gekauft wird? :confused:

scully1234
2018-03-20, 18:33:23
Welche Doppelmoral? Ich verteufle die Miner nicht im Gegensatz zu dir!


Wer mit so einem Scheinargumenten daher kommt, um Gamer zu diskreditieren die nun wahrlich bei weitem nicht in der selben Liga spielen, wie die Miner mit ihrer hoch 10 Ressourcenverschwendung, der muss unter Berücksichtigung seines Hobbys bestenfalls nem Irrtum unterliegen, anderenfalls ist es wie schon gesagt Doppelmoral das ist fakt:D

Oder du bist einfach angesprungen wie ein Westmoped ,als du scully1234 gehört hast, und hast über dein "Argument" gar nicht nachgedacht könnte auch sein:D

Die Hintergründe weißt nur du...

dargo
2018-03-20, 18:54:47
Wie kann man es nicht gut finden, wenn der Markt für Gamer leer gekauft wird? :confused:
Du hast da glaube ich was missverstanden. Wenn es einen Mangel an Grafikkarten für den Gamer durch Miner oder was auch immer gibt haben die IHVs den Markt komplett falsch eingeschätzt. Aktuell sehe ich keinen Mangel an Grafikkarten für Gamer, nur überhöhte Preise. Was sicherlich auch die Folge der Fehleinschätzung ist (hohe Nachfrage, zu wenig Produktion). Man sollte dabei aber auch nicht die höheren Speicherpreise vergessen. Wenn man schon die Miner für die hohen Grafikkartenpreise verantwortlich machen will dann kann man genauso jeden Smartphone Besitzer verteufeln.
https://www.winboard.org/artikel-news/7980-dram-speicherpreise-werden-weiter-ansteigen-update.html

scully1234
2018-03-20, 19:00:12
Du hast da glaube ich was missverstanden. Wenn es einen Mangel an Grafikkarten für den Gamer durch Miner oder was auch immer gibt haben die IHVs den Markt komplett falsch eingeschätzt.


Nein haben sie nicht dargo ,denn der Bumerang kommt zurück wenn der Miningmarkt kollabiert, und dann stehen beide plötzlich mit ner Überproduktion dar, die sie Aufgrund der Flutung mit gebrauchten Karten nicht mehr los bekommen

Die Situation kommt sowieso eines guten Tages,nur wenn die jetzt die Produktion auch noch weiter hoch ziehen,dann wird der Crash um so kostenintensiver


Das ist russisches Roulette mit einem Markt ,der einfach nicht stabil genug ist solche Risiken zu fahren

rentex
2018-03-20, 19:06:22
@dargo: Da hast du Recht. Nur die Miner „bereichern“ sich duch extreme Ressourcenverschwendung, nur um den schnöden Mammon willen. Im Gegensatz zu Gamern, die weniger Ressourcen für ihr Hobby verbrauchen. Am Ende gibt es nen Haufen Schrott und einige Millionen Tonnen CO2, nur um durch Kursschwankungen, nen einigermaßen bescheidenen Gewinn zu erzielen. Selten, das ein Gamer seine Graka am Ende seiner Gebrauchszeit wegschmeissen muss (Weiterverkauf). Was das Thema Smartphone und Speicherpreise angeht bin ich der Meinung, das die Industrie der Schuldige ist. Wer um Himmelswillen braucht mehr als 4 GB Arbeitsspeicher im Smartphone? Ganz wenige!

dargo
2018-03-20, 19:06:42
Jetzt rate mal wozu eine Überproduktion führt? Richtig... zu sinkenden Preisen. Das ist doch genau das was du willst für die Gamer. Sollte es kurzfristig zum Kollaps beim Mining kommen spricht nichts dagegen die Produktion wieder runter zu fahren. Ist dies nicht möglich ist die ganze Produktion einfach nicht flexibel genug.

scully1234
2018-03-20, 19:10:03
Sowas fährst du nicht mal eben schnell hoch in der Mittagspause, das braucht Zeit, und das braucht auch wieder Zeit ums runter zu fahren/Personal abzubauen,Fertigungsstrassen zu schließen ec pp

Der Crash beim Mining kann von heute auf morgen kommen, und dann sind das bei den Firmen mal schnell millionen Verluste, bis die wieder eingependelt haben,solch ein Risiko nimmt keiner der beiden auf sich,nur um jetzt mal ne schnelle Mark mehr zu machen

dargo
2018-03-20, 19:13:44
Tja... wenn man nicht flexibel genug ist bleibt nur das.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11654521&postcount=355

Hübie
2018-03-20, 19:45:14
Also ich denke, dass dargo (bzw. Wir alle!) viel zu wenig Ahnung von taktischer Geschäftsführung hat (haben) um da eine qualifizierte Aussage zu tätigen. Daher sollte man nachsichtig sein (nichts für ungut;)).
Das ist logistisch nicht mal eben so hauruck-artig zu stemmen, denn wer konnte eine so krasse Nachfrage vorhersehen? Was ist mit Garantie & Gewährleistung? Was ist mit Kannibalismus durch gebrauchte Modelle und intransparente Märkte? Jensen sagte dass die nur schätzen können wie viele Karten fürs Mining benutzt werden (Geforce, Quadro & Tesla, neben den dedizierten Lösungen der AiB Vendor). Hast du das auf drei, vier Jahre gesehen berücksichtigt, dargo? Ich verteufel Miner auch nicht (sind ja Menschen wie du und ich). Gutheißen kann man das System aber aus vielerlei Hinsicht eben nicht (das Bankensystem jedoch in der Form auch nicht - ist hier jedoch OT).
Ich bin mir ziemlich sicher dass NVIDIA ein ureigenes Interesse pflegt Geforce, Quadro und Tesla von Mining zu trennen. Da lasse ich mich drauf festnageln. ;);)

TheAntitheist
2018-03-20, 20:07:56
Jetzt rate mal wozu eine Überproduktion führt? Richtig... zu sinkenden Preisen. Das ist doch genau das was du willst für die Gamer. Sollte es kurzfristig zum Kollaps beim Mining kommen spricht nichts dagegen die Produktion wieder runter zu fahren. Ist dies nicht möglich ist die ganze Produktion einfach nicht flexibel genug.
das klingt alles so als ob du hier zum ersten mal im Forum aktiv bist.
Du solltest genau wissen was die "Bestellungen" der Wafer vor Ewigkeiten getätigt worden sind, zweitens kannst du nicht mal eben so die Bestellungen ändern, dafür musst du dann auch Strafen zahlen...

Troyan
2018-03-20, 20:17:56
Außerdem kann die Nachfrage überhaupt nicht bedient werden. Solange Mining profitabel ist, wird jede Karte sofort abgekauft. Das ist ein Fass ohne Boden.

dargo
2018-03-20, 20:36:37
Du solltest genau wissen was die "Bestellungen" der Wafer vor Ewigkeiten getätigt worden sind, zweitens kannst du nicht mal eben so die Bestellungen ändern, dafür musst du dann auch Strafen zahlen...
Mit unflexibel meine ich natürlich nicht ausschließlich die IHVs sondern alle Bereiche die daran hängen um das Endprodukt zu liefern. Das gesamte Konzept ist einfach zu träge für stärkere Marktschwankungen.

Außerdem kann die Nachfrage überhaupt nicht bedient werden. Solange Mining profitabel ist, wird jede Karte sofort abgekauft. Das ist ein Fass ohne Boden.
Das klingt bei dir gerade so, als ob es was schlimmes wäre für die IHVs und allen die an der Produktion/Verkauf der Grafikkarte X beteiligt sind Geld zu verdienen. :freak:

horn 12
2018-03-22, 00:46:32
Wo bitte ich @Nakai
und wie sieht er die Position und Performance zu Ampere
und welches Verfahren denkt er wird Verwendung finden...

Hübie
2018-03-22, 01:30:47
Du bist im Turing-Thread... Und deine Grammatik gibt mal wieder Rätsel auf. :rolleyes:

Mit unflexibel meine ich natürlich nicht ausschließlich die IHVs sondern alle Bereiche die daran hängen um das Endprodukt zu liefern. Das gesamte Konzept ist einfach zu träge für stärkere Marktschwankungen.

Korrekt. Und es ließe sich nicht wirtschaftlich ändern. NVIDIA müsste dann ein Alu-Werk sowie PCB-Fabrik und Chip-Fabrik halten. Nicht zu sprechen von Lüfter, sämtlichen SMD-Bauteilen etc.
Was soll die Aussage also? :| Hast Du schon mal ein Projekt geleitet?

BigKid
2018-03-22, 22:11:14
vorausgesetzt es gibt genug Produktionskapazität
Und genau da scheint es ja zu hapern...
Vermutliche Gründe: Knappheit an Speicherchips undd evtl. hat man es auch nicht kommen sehen und nicht genügend und nicht kange genug Kapazität in den Fabs reserviert...
Der Rest klingt schluessig - die Frage ist nur: Hat sich an der Situation was geändert?
Wenn man nur eine bestimmte Menge Karten liefern kann - riskiert man dann eine hälfte an nen Markt zu binden von dem man nicht weiss wie lange er hält - und wenn abet dieser Markt für hohe Marge sorgt - will msn dann drauf verzichten - wenn man doch einfach nur auch abwarten und nix tun kann?
Zuletzt: Zeig mir mal ein Börsen-Orientiertes Unternehmen bei dem die Entscheider noch mehr als ein Jahr vorrausdenken... die denken zT nur noch bis zum Ende des Quartals...

Cubitus
2018-03-22, 23:05:24
Sagen wir es mal so, wenn dann endlich die Karten im 3-4 Quartal kommen sollten, werden die Gamer so aus gehungert sein, dass die Kundschaft auch 800-1000 Euro für ne 2080 GTX liegen lässt.

Man hat sich ja "langsam" an die Preise gewöhnt, zwar nix gekauft, aber man meint den besseren Deal zu machen da in diesem Fall die 900-1000 Euro für 50-xx % mehr Leistung zur 1080TI ja dann wieder fair wären :freak:
Eventuell hat man dann noch den überteuerten Volta im Kopf und fühlt sich zusätzlich weiter bestätigt. Wahnsinn ich bekomme krasses High End für "ein Drittel" des Preises. ;D

In Zeiten wo 1000 Euro für neue Smartphones gelohnt werden, who cares, solche Summen scheinen ja normal zu sein.
High-End-Technik Kram ist eben teuer. ;(

Nvidia weiß ganz genau wie sie die "Gamer" an den Eiern packen ;)
Miner hin oder her, eher spielt die Situation Nvidia zusätzlich in die Hände.
Der pöse Miner, der Südenbock^^

Und Nvidia ist dank schwächelnde AMD GPUs auch nicht im Zugzwang.

Ich halte die Produktionsfaktoren (Verknappung, Fertigungsprozess etc) eher für vorgeschoben und fadenscheinig.
Wenn es schnell gehen muss kommt der Papiertiger kurz vorbei.
Aber dieser benötigt eben ein Preisschild ;)

Parallel versucht die Bildschirmindustrie mit 4K+HDR@34+21:9 Format zu locken.
Jedenfalls alles was sich unter 1440p und 144hz befindet kann man eh vergessen! Wie FullHD@60 Hz etwa, pfff langweilig!
In 1080p hab ich bei Kingdom Come ja über 100FPS maxxed out:eek: Sieht aber total shice aus.

Ohne Witz wenns mit den Kartenpreisen noch krasser den Berg hoch geht, überlege ich ernsthaft wieder auf 1080p bzw max 1440p zu gehen! :uponder:
Eventuell mit 27 Zoll und dann wie es Tovalds so schön ausdrückte :ufinger: Nvidia etc..

Rampage 2
2018-03-22, 23:55:39
Ich habe mehrere Male hier im Forum gelesen, dass die 1080Ti/TXP/TXp die erste "wirklich" 4K-taugliche GPU sei (also leistungsmäßig, da die 1080/GP104 dafür zu schwach sei) - was ist daraus jetzt geworden? Ist sie das nicht mehr?

R2

pixeljetstream
2018-03-23, 00:12:07
Off-topic...

Rampage 2
2018-03-23, 00:32:45
Off-topic...

Nein, ist es nicht - weil GT104 sicherlich nicht viel schneller als GP102 sein wird, sondern mehr oder weniger in der selben Leistungsklasse (5-10% vor TXp oder Gleichstand). Dementsprechend kann man über die 4K-Tauglichkeit von GT104 diskutieren...

R2

Platos
2018-03-23, 01:05:03
Also 60FPS sind schwer mit einer 1080 Ti zu erreichen auf 4K, wenn man nicht gerade die Details sehr stark zurückschraubt. AAA Rollenspiele vorausgesetzt.

pixeljetstream
2018-03-23, 05:59:40
Okay R2 war mir nicht ersichtlich, dass Du darauf hinaus willst.

Imo wird die Anforderung durch Effekte sich mit erhöhen, so dass 4k immer ne Herausforderung je nach Titel bleibt.

Andererseits fand ich bereits bei Maxwell z.b cool welch große Qualitätssteigerung man durch down sampling in vielen (klein bisschen älteren) Titeln erreichen konnte. So gesehen gibt's sicherlich insgesamt mehr Spiele, die 4k abkönnen. Aber das neueste wird ja immer am Limit des Machbaren definiert, von daher ist so ne Aussage Ansichtssache.

Thunder99
2018-03-23, 07:57:02
Es gibt keine echte 4K Karte sondern Karten die zum Release 4K mit allen Details darstellen können. Später müssen halt die Details reduziert werden um die Ziel Framerate zu schaffen. Immer bezogen auf die neusten AAA Spiele (oder vergleichbare)

Mortalvision
2018-03-23, 08:11:00
Im normalen dx 11/12 1080Ti = 2080. Sobald die Tensor-Cores genutzt werden, hat letztere 30-50% Vorsprung. Wie und wann, weiß ich natürlich nicht (Raytracing ist da sicher ein Extrembeispiel)

HOT
2018-03-23, 09:37:33
Ich hab diese Faszination für 4k nie verstanden ... wenn man normale Monitorgrößen verwendet ist doch 4k auf FHD downgesampled die bessere Lösung oder nicht? Da reicht dann DP1.2 und echt gute FHD-Monitore gibts auch viele.

tm0975
2018-03-23, 10:08:40
4k bei 27" sind um welten besser als FHD egal auf welcher größe. ich würde nie wieder zurück auf FHD gehen wollen.

Botcruscher
2018-03-23, 10:17:36
wenn man normale Monitorgrößen verwendet ist doch 4k auf FHD downgesampled die bessere Lösung oder nicht?

Auflösung ist gleich Informationsgehalt. Du kannst das Bild noch so extrem zermatschen, an der Mauer kommst du nicht vorbei. Spätestens bei einem Pixel ist immer Schluss. Vegetation, Kanten und Stromleitungen - Spiele sind voll mit dem Extremfall für UHD(oder höher). Darunter saufen dir einfach die Details ab und das Flimmern ist, egal mit wie viel AA, unerträglich.
UHD = Ultra Details
FHD = Medium

Der übliche Vergleich mit dem Schiff den ich hier bestimmt schon hundert mal verlinkt habe: klick (http://www.gamestar.de/artikel/the-witcher-3-extrem-4k-3d-vision-und-surround-gaming-ausprobiert,3086180.html)

Nein, ist es nicht - weil GT104 sicherlich nicht viel schneller als GP102 sein wird, sondern mehr oder weniger in der selben Leistungsklasse (5-10% vor TXp oder Gleichstand). Dementsprechend kann man über die 4K-Tauglichkeit von GT104 diskutieren...

Die Diskussion lohnt eigentlich seit der 290X nicht. Du kannst darüber nachdenken welches Spiel nicht in UHD läuft, weil die bei weitem klare Minderheit und es dann entsprechend in FHD auf dem UHD Monitor spielen. Das sieht ohne Fliegengitter noch immer hundert mal besser aus. Nie wieder Monitore unter 150dpi!

Auf der anderen Seite geben sich die Hersteller ja extrem Mühe Leistung einfach zu verbrennen. Raytracing in Echtzeit kann man nicht anders beschreiben.

Mr.Magic
2018-03-23, 10:44:21
Ich hab diese Faszination für 4k nie verstanden ... wenn man normale Monitorgrößen verwendet ist doch 4k auf FHD downgesampled die bessere Lösung oder nicht? Da reicht dann DP1.2 und echt gute FHD-Monitore gibts auch viele.

Ich verwende momentan einen 24" Monitor mit 1440p (~50cm Abstand)*. Das ist zwar beim Standbild fein genug, hilft aber nicht gegen Flimmern. Leider taugt AA in modernen Spielen häufig nicht wirklich. Damit man das los wird, müsste man auf 5K rauf, aber meine alte GTX 1080 schafft idR gerade so 80-90FPS in 1440p. Um den 165Hz Monitor, mit meinen Präferenzen, voll auszufahren, bräuchte es eine Karte mit mindestens der vierfachen Rechenleistung.

*55" 4K+ direkt an der Wand wäre mir lieber (~150cm Abstand).

Hübie
2018-03-23, 11:27:08
Das sind alles schwammige Aussagen, da auf der einen Seite der abnehmende Grenznutzen steht und auf der anderen Seite eben die Erwartungshaltung an Kompromisslosigkeit existiert.
Oft sehen Spiele in UHD @High besser aus als WQHD @Ultra. FHD ist was für high fps gamer (CS:GO, PUBG @Low, LoL usw.). Also definiere 4k-Karte. Ich kann selbst mit meiner 980 Ti in 4k zocken, wenn ich bereit bin die Regler zu bedienen. Mit einer 1080 Ti würde ich zwischen 40 & 60% mehr Leistung erwarten. Ich spiele jedoch nur Singleplayer Games...
Ein BF1 Spieler würde es anders sehen als ich. Einer der PUBG @Ultra zocken muss ebenso (das Spiel ist ein Performance-Alptraum).

GT104, oder wie auch immer der Codename ist, würde theoretisch in 4k Ultra bei 1080 Ti +25% heraus kommen.

@Cubi: Darüber gibt es ein höchst interessantes Buch: "Zur Kasse, Schnäppchen!: Warum wir immer mehr kaufen, als wir wollen" von Prof. Dr. Schneider und Prof. Dr. Hennig. Darin wird eine Studie des M.I.T. erwähnt, die beweisen konnte, dass hohe Preise unser Schmerzzentrum im Gehirn aktivieren. ;D Hahahaa... Mit der Zeit tut es aber eben nicht mehr weh und sobald diese Grenze signifikant unterschritten wurde verkehrt sich das Gefühl ins Gegenteil (je nach subjektivem Empfinden und Preisspanne). Verrückt, aber du hast das gut beobachtet.

HOT
2018-03-23, 13:42:34
Es tut mir leid, ich kenn UHD als Spielegrafik und es haut mich überhaupt nicht vom Hocker. Da ist mir ein flimmerfreies Bild 1000 mal lieber.

Thunder99
2018-03-23, 14:00:55
Wer SGSSAA noch kennt hat weiß was gute Grafik ist. Man hat da auch nicht das Problem der fehlenden Skalierung des Menüs wie bei höheren Auflösung ;).
Ich weiß aber das die modernen Engins es nicht mehr können. Da hilft in der Tat nur UHD oder mehr.

24p
2018-03-23, 14:17:39
Mich würde hier auf 27" FHD mit DS nicht vom Hocker hauen. Flimmerarm, ja. Dafür aber auch unscharf und mit Fliegengitter.
4K nativ sieht da besser aus. Es flimmert auch weniger als FHD, dazu reicht bei hoher DPI auch popeliges Post-AA aus. Bei LowDPI muss man gleich wieder das beste vom besten beim AA nutzen, da man sonst Augenkrebs bekommt.

Jupiter
2018-03-23, 14:20:42
Ohne TAA flimmert das Bild immer extrem. Gerade wenn es viele Specular Highlints gibt da würde auch kein 10k super aussehen. Die Qualität des AAs ist auf jeden Fall deutlich wichtiger als die Auflösung in Form von Bildpunkten.

Hübie
2018-03-23, 14:32:00
Warum kommt ihr mit so einer schwachsinnigen Argumentation? Nur Kantenflimmern wird von Auflösung erschlagen, mehr nicht - und warum schließt eine hohe Auflösung doch gleich AA aus, ist mir entgangen? :|

24p
2018-03-23, 14:38:16
Ohne TAA flimmert das Bild immer extrem. Gerade wenn es viele Specular Highlints gibt da würde auch kein 10k super aussehen. Die Qualität des AAs ist auf jeden Fall deutlich wichtiger als die Auflösung in Form von Bildpunkten.


Nö. Wenn die Auflösung von sich aus schon sehr hoch ist, dann ist die Quali des AA wesentlich weniger wichtig. Ich sehe es hier jeden Tag am Monitor beim Witcher. FHD@SSAA ist zwar schön still gewesen, aber unscharf plus Fliegengitter des Monitors. Dank 4K reicht das billige (und nicht perfekte) InGame-AA.

Hübie
2018-03-23, 15:03:29
Oft reicht sogar das Treiber FXAA... TSAA wie in idtech 6 ist imo unerreicht wenn's um Perf/BQ geht. Mit 4k+SMAA/FXAA erreicht man häufig jedoch ein qualitativ hochwertiges Bild.
GP102 ist schon ein 4k Chip, jedoch nicht uneingeschränkt für sämtlichen optischen Schnick-Schnack der teilweise mit einer Lupe gesucht werden muss. ;) Ähnliches oder Gleiches erwarte ich von Turing im Performance-Segment.

Tesseract
2018-03-23, 15:13:25
temporales AA mit supersamplingkomponenten kann subjektiv schon sehr nah an klassisches SSAA kommen wenn die fps hoch genug sind und das quasi "gratis".

24p
2018-03-23, 15:29:12
Oft reicht sogar das Treiber FXAA... TSAA wie in idtech 6 ist imo unerreicht wenn's um Perf/BQ geht. Mit 4k+SMAA/FXAA erreicht man häufig jedoch ein qualitativ hochwertiges Bild.
GP102 ist schon ein 4k Chip, jedoch nicht uneingeschränkt für sämtlichen optischen Schnick-Schnack der teilweise mit einer Lupe gesucht werden muss. ;) Ähnliches oder Gleiches erwarte ich von Turing im Performance-Segment.


Jop, das ist ja das tolle. Früher, mit LowDPI, konnte man gleich sehen, wo die Unterschiede beim AA liegen. Abtastmuster, gammakorrektes AA usw - da man die Pixeltreppen einfach erkannt hat machte das einen deutlichen Unterschied und man benötigte bei 4xAA ein seht gutes Abtastmuster und eine optimale Darstellung der Zwischenstufen. Mit HighDPI ist das mehr oder weniger wurscht, da man die Pixeltreppen eh kaum erkennen kann.

Jupiter
2018-03-23, 15:54:46
temporales AA mit supersamplingkomponenten kann subjektiv schon sehr nah an klassisches SSAA kommen wenn die fps hoch genug sind und das quasi "gratis".

Ja, insbesondere in The Division nachdem sie das TAA verbesserten. Ohne TAA kann habe ich oft keine Motivation, Videospiele zu spielen. Das flimmert dann in UHD oder 5k noch mehr als in 1080p mit TAA.

Nö. Wenn die Auflösung von sich aus schon sehr hoch ist, dann ist die Quali des AA wesentlich weniger wichtig. Ich sehe es hier jeden Tag am Monitor beim Witcher. FHD@SSAA ist zwar schön still gewesen, aber unscharf plus Fliegengitter des Monitors. Dank 4K reicht das billige (und nicht perfekte) InGame-AA.

So weit ich weiß hat Witcher III kein gutes AA und es flimmert immer massiv, egal welche Auflösung.

24p
2018-03-23, 15:56:28
Nö. Bei HighDPI ist es eben nicht mehr so wichtig.

Jupiter
2018-03-23, 15:58:13
Für mich sieht es ohne gutes TAA/TSSAA usw. in Echtzeit immer gamey aus. Egal welche Auflösung oder DPI.

24p
2018-03-23, 16:00:11
Für mich nicht. Und dass du da bei hoher DPI keinen Unterschied siehst nehme ich dir nicht ab.

scully1234
2018-03-23, 17:49:05
Es gibt keine echte 4K Karte sondern Karten die zum Release 4K mit allen Details darstellen können. Später müssen halt die Details reduziert werden um die Ziel Framerate zu schaffen. Immer bezogen auf die neusten AAA Spiele (oder vergleichbare)

Der Vorteil von Raytracing, wenns dafür erst mal langt mit entsprechenden Bounces, ists der Goldstandard

Cubitus
2018-03-23, 18:41:37
@Cubi: Darüber gibt es ein höchst interessantes Buch: "Zur Kasse, Schnäppchen!: Warum wir immer mehr kaufen, als wir wollen" von Prof. Dr. Schneider und Prof. Dr. Hennig. Darin wird eine Studie des M.I.T. erwähnt, die beweisen konnte, dass hohe Preise unser Schmerzzentrum im Gehirn aktivieren. ;D Hahahaa... Mit der Zeit tut es aber eben nicht mehr weh und sobald diese Grenze signifikant unterschritten wurde verkehrt sich das Gefühl ins Gegenteil (je nach subjektivem Empfinden und Preisspanne). Verrückt, aber du hast das gut beobachtet.

Danke für den Buchtipp :);)

Hübie
2018-03-23, 18:54:42
Für mich sieht es ohne gutes TAA/TSSAA usw. in Echtzeit immer gamey aus. Egal welche Auflösung oder DPI.

Es gibt einen Schärferegler. Witcher 3 hat ein paar Texturen die zu hochfrequent sind, da kannst du nur zermatschen oder diese ersetzen. Für dein restliches Statement hätte ich sonst gerne Beweise. Vergiss dabei nicht dass ich hier einen 4k Screen mit 150 dpi habe. ;);) Spielen tue ich dennoch in WQHD auf meinem G-Sync Panel. G-Sync > alles (imo).

vinacis_vivids
2018-03-23, 19:12:53
GSync hat kein LFC und ist überflüssig proprietär.

aufkrawall
2018-03-23, 19:29:46
GSync hat kein LFC
Gsync hat immer LFC. Bevor du wieder irgendwelche Slides in Übergröße postest, solltest du sie vorher btw. auch mal kapieren.

Rampage 2
2018-03-23, 20:30:48
Es gibt keine echte 4K Karte sondern Karten die zum Release 4K mit allen Details darstellen können. Später müssen halt die Details reduziert werden um die Ziel Framerate zu schaffen. Immer bezogen auf die neusten AAA Spiele (oder vergleichbare)

Dann sollten die Monitor-Hersteller mal ernsthaft darüber nachdenken 4K-Monitore mit Interpolation herzustellen, ohne dass das Bild dadurch zu Matsch wird, wenn der User auf eine Nicht-native Auflösung runterschaltet...

R2

Hübie
2018-03-23, 21:13:55
Dann solltest du dir mal ASUS Vivid Pixel ansehen und dann noch mal urteilen. ;)

@vinacis_vivids: Mach dich doch nicht noch lächerlicher. Natürlich hat G-Sync die gleiche Lösung für das Problem der Frequenzbandbreite - und das schon seit Release. :rolleyes:

Rampage 2
2018-03-23, 22:26:40
Dann solltest du dir mal ASUS Vivid Pixel ansehen und dann noch mal urteilen. ;)


Ich konnte im Netz nicht viele Erfahrungsberichte dazu finden - laut pcmonitors.info bringt es nicht wirklich was (getestetes Gerät: ASUS PB279Q), wenn eine niedrigere nicht-native Auflösung angesteuert wird.

AFAIR soll es das Interpolations-Problem bei OLED-Panels nicht geben - ist das korrekt? Trifft das auch für Laser-Displays (z.B. Laser-TV) zu?

R2

Hübie
2018-03-23, 23:01:52
Ich kenne die Technologie hinter Laser Display nicht. OLEDs haben das Problem sicher auch, aber deutlich weniger wahrnehmbar. Praktische Erfahrungen mit großen OLEDs und Upsampling habe ich jedoch nicht vorzuweisen.

Von ASUS Vivid Pixel kann ich dir berichten dass ich kaum Unterschiede zwischen nativen WQHD und VP 50% in diversen Titeln sehen konnte. Das ist im Grunde ein Schärfefilter der offenbar bei 25% nearest neighbour (bilinear?) filtert und bei 50% definitiv, weil sichtbar, auf einen anderen Algorithmus wechselt (gaussian? Lanczos [okay eher nicht]?). Ich war selber sehr erstaunt und dies war der Grund weshalb ich den 28" 4k behalten habe. Es mag sein, dass unterschiedliche Panel und Modelle andere Ergebnisse liefern können, aber vom PB287Q kann ich nur schwärmen. ;)

basix
2018-03-25, 11:35:52
G-Sync / Freesync will ich definitiv nicht mehr missen. Letztens zu Benchzwecken deaktiviert und ich war ziemlich erschrocken auch bei 80-100 fps so starkes Tearing zu sehen. Gefühlt war das ein sehr grosser Unterschied. Mehr Auflösung / DPI hätte ich aber definitiv gerne. Vor allem neuere Spiele neigen aufgrund der Postprocessing Effekte zur Unschärfe, um etwaiges Aliasing oder Flimmern zu unterbinden. Da hilft aber höhere Auflösung. Da auch höhere FPS je nach Implementation die Postprocessing-Qualität erhöht, würde ich gerne doppelte 1080 Ti Leistung haben. Der grosse Turing erfüllt mir vielleicht diesen Wunsch ;)

Platos
2018-03-25, 17:21:55
Doppelte 1080 Ti Leistung ist aber schon sehr, sehr optmistisch :biggrin: Aber die hätte ich auch gerne.

Digidi
2018-03-25, 18:52:04
Doppelte 1080 Ti Leistung ist aber schon sehr, sehr optmistisch :biggrin: Aber die hätte ich auch gerne.
Das wird von Nvidia bestimmt hingefakte die doppelte Leistung. Man macht jetzt einfach Tensor Cores rein und mit Gameworks nutz man dann die neuen Tensor Cors wo dann die alten Karten gegenüber dann total alt aussehen weil sie keine Tensor Cores haben.

Hübie
2018-03-25, 19:46:47
https://abload.de/img/o-rly-owl2zyw9.jpg (http://abload.de/image.php?img=o-rly-owl2zyw9.jpg)

Ja genau, weil man das ja auch auf alten Karten dann viel effizienter und schneller könnte, wenn man wollte - NICHT! Man könnte auch die selbe BQ mit den alten erreichen - oh wait. NICHT!

Rampage 2
2018-03-25, 19:48:16
Die GTC 2018 soll eigentlich heute schon beginnen, oder? Glaubt ihr, dass in den nächsten Tagen auch einige Worte zu Ampere/Turing gesprochen werden - ganz ignorieren kann Nvidia das Thema nicht...

R2

Digidi
2018-03-25, 20:02:16
https://media.giphy.com/media/bz7Lkscqm6mrK/source.gif

Ja genau, weil man das ja auch auf alten Karten dann viel effizienter und schneller könnte, wenn man wollte - NICHT! Man könnte auch die selbe BQ mit den alten erreichen - oh wait. NICHT!
Auf alten Karten könnte man es ja emulieren ;)

Du hast es nicht Verstanden wie Gameworks funktioniert. Bei jeder neuen Kartengeneration baut Nvidia wieder eine Einheit übermäßig ein, was die Karten vorher nicht hatten und nutzt es dann exzessiv. Befor den Tensor Cores war es Tessellation.

Hübie
2018-03-25, 21:49:37
Ach ja? Was genau soll das denn sein? Du hast nicht verstanden wie Raytracing funktioniert. Du machst dich ständig lächerlich, wirklich. Klar kannst das "emulieren", aber das hat nix mit Echtzeitgrafik zu tun, wenn das Ergebnis so sein soll wie in den Demos. Wurde mehrfach gesagt.

Digidi
2018-03-25, 22:41:18
Ach ja? Was genau soll das denn sein? Du hast nicht verstanden wie Raytracing funktioniert. Du machst dich ständig lächerlich, wirklich. Klar kannst das "emulieren", aber das hat nix mit Echtzeitgrafik zu tun, wenn das Ergebnis so sein soll wie in den Demos. Wurde mehrfach gesagt.
Ach ja dann erklär du doch mal wie Ray Tracing funktioniert. Wenn du weist was Ray Tracing mit Tensor Cores zu tun hat können wir gerne weiterreden.

Tensor Cores werden mal wieder genau so gehypte wie Tessellation. Bis man dann mal Hardware hatte bis das richtig lief gingen gut 5 Jahre ins land. Crysis läuft ja heute noch richtig schlecht auf jedweder Hardware. Die erste Demo von Metro zeigt es ja. Da bleibt nicht viel übrig vom Ray Tracing Hype und das wird wahrscheinlich nur gut auf Turing laufen.

MilesEdgeworth
2018-03-25, 23:22:13
Ach ja dann erklär du doch mal wie Ray Tracing funktioniert. Wenn du weist was Ray Tracing mit Tensor Cores zu tun hat können wir gerne weiterreden.


Hier würde ich mich einklinken. In diesem Artikel (https://www.scratchapixel.com/lessons/3d-basic-rendering/ray-tracing-overview) wird jedenfalls das Raytracing selbst erklärt.

Achtung Halbwissen:

Wenn ich mich richtig erinnere (ich meine etwas hier im Forum gelesen zu haben), können die Tensor-Cores verwendet werden, um mit vergleichsweise hoher Performance Filteroperationen (etwa einen Gauß-Filter zur Rauschunterdrückung) durchzuführen. Die Tensor-Cores ermöglichen das effiziente Berechnen der dabei anstehenden Matrix Multiplikationen.

Halbwissen zu Ende.

Im Moment habe ich leider nicht viel Zeit selbst zu recherchieren (Prüfungsstress), sollte aber jemand ein paar interessante Artikel kennen, die sich mit den Problematiken des Raytracing auseinandersetzen, würde ich mich über Links/Infos freuen! :)

iuno
2018-03-25, 23:43:25
Auf dem einen Video von der GDC ist ganz schoen zu sehen, wie die einzelnen Effekte mit den wohl momentan machbaren (?) 1-2 ray Samples pro Pixel rauschen und wie es dann eben mit dem denoiser (der auf den tensor cores laeuft) aussieht.

https://www.youtube.com/watch?v=tjf-1BxpR9c

Digidi
2018-03-26, 00:12:37
Interessant ist wie Nvidia den Denoiser trainiert hat und ob für jede Spieleengine ein neues Training erforderlich ist.

Auch interessant wäre zu wissen ob es eine todpunkt gibt bei dem weiteres Training des Denoiser nicht mehr lohnt.

Hübie
2018-03-26, 01:28:14
Ach ja dann erklär du doch mal wie Ray Tracing funktioniert. Wenn du weist was Ray Tracing mit Tensor Cores zu tun hat können wir gerne weiterreden.

Tensor Cores werden mal wieder genau so gehypte wie Tessellation. Bis man dann mal Hardware hatte bis das richtig lief gingen gut 5 Jahre ins land. Crysis läuft ja heute noch richtig schlecht auf jedweder Hardware. Die erste Demo von Metro zeigt es ja. Da bleibt nicht viel übrig vom Ray Tracing Hype und das wird wahrscheinlich nur gut auf Turing laufen.

Das wurde dir mehrfach im anderen Thread beantwortet. Für RT selber braucht man auch keine Tensor Cores, aber für die Gameworks-Lösung mit RTX und dem Entrauschalgorithmus. Das bekommst du anders nicht performant hin. Wo ist dein Problem, dass was Neues verbaut wird (Kaufanreiz)? Deiner Logik nach dürfte ja nie was an der Hardware geändert werden. Wenn AMD was einführt schreist du juhu, wenn NVIDIA was einführt ist es gefaked oder wie? :facepalm:
Das Training dürfte irgendwann nicht mehr viel bringen (abnehmender Grenznutzen) und da das Schema (der Abtast-/Such-Algorithmus) immer gleich ist muss man nicht jede Engine neu trainieren. Da kann ich mich aber täuschen. Da die Performance auch noch lange nicht reichen wird, sehen wir lange Zeit eben einen mix aus prebaked, Echtzeit, gerastert, tesseliert und bestrahlt. Was zählt ist imo das Ergebnis.

@MilesEdgeworth: Korrekt. Viel Erfolg für die Prüfungen, ich bin letzte Woche durch. :smile: :up:

Die GTC 2018 soll eigentlich heute schon beginnen, oder? Glaubt ihr, dass in den nächsten Tagen auch einige Worte zu Ampere/Turing gesprochen werden - ganz ignorieren kann Nvidia das Thema nicht...

R2

Du wirst etwas erfahren und iirc beginnt die GTC erst am 29.3. um 8:00 PT.

y33H@
2018-03-26, 02:14:03
Jensens Keynote ist am 27ten um 9am PT ... und bis dahin gilt das NDA :P

pixeljetstream
2018-03-26, 02:49:27
@MilesEdgeworth, nur dass der Filter komplizierter ist und ein neutrales Netzwerk nutzt und nicht nur sowas wie Gauß macht.

MilesEdgeworth
2018-03-26, 08:54:10
@Hübie: Danke, Du Glücklicher! :ugly:

@pixeljetstream:
Dann habe ich das richtig verstanden, danke! (Der Gauss Filter sollte auch nur ein Beispiel sein)
Bisher ist mir aber nicht klar geworden, was die Ursache des Rauschens beim Raytracing ist. Kommt es zu einer Unterabtastung und damit zu Aliasing oder wird das Rauschen durch die begrenzte Rechengenauigkeit hervorgerufen (etwa bei der Berechnung der Schnittpunkte)?

pixeljetstream
2018-03-26, 09:33:34
Im dx12 thread würde es gerade erklärt. Ja Unterabtastung, nur ein Strahl pro Pixel wo man für globale Effekte ja normalerweise tausende aufakkumuliert.

MilesEdgeworth
2018-03-26, 11:44:46
Hab den Post gefunden, klasse! Vielen Dank :)

Falls jemand zu faul zum Suchen ist: Post von RLZ im Direct X 12 Thread (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11656996#post11656996)

Börk
2018-03-26, 20:44:41
@Hübie: Danke, Du Glücklicher! :ugly:

@pixeljetstream:
Dann habe ich das richtig verstanden, danke! (Der Gauss Filter sollte auch nur ein Beispiel sein)
Bisher ist mir aber nicht klar geworden, was die Ursache des Rauschens beim Raytracing ist. Kommt es zu einer Unterabtastung und damit zu Aliasing oder wird das Rauschen durch die begrenzte Rechengenauigkeit hervorgerufen (etwa bei der Berechnung der Schnittpunkte)?
Das Rauschen entsteht dadurch, dass durch die vielen möglichen Lichtpfade die Wahrscheinlichkeit eine Lichtquelle zu treffen recht gering ist. Je nach Komplexität der Lichtsituation ist dabei das Rauschen sehr stark. Der Entrauschungsfilter hat dabei gelernt wie die typischen Rauschmuster je nach Oberfläche aussehen und kann so aus weniger samples schätzen wie die Tatsächliche Lichtverteilung aussah.

Das ganze funktioniert bei homogenen Flächen, bei denen benachbarte Pixel ähnlich aussehen sehr gut (wie im Video zu sehen). Bei texturierten Flächen wird man mit 1-2spp nicht weit kommen und es sind eher 50spp und mehr notwending. Aber bei Spielen werden dann die Künstler eben kaum texturierte Flächen einsetzen, die gleichtzeit stark reflektiv sind.

Das tolle an der Technik ist aber das sie praktisch beliebig skaliert. Leute mit einer tollen Grafikkarte werden eben in Zukunft mehr samples verwenden und damit detailiertere und rauschärmere Effekte haben. Leute mit schwacher Grafikkarte müssen dann mit etwas Rauschen und weniger akkuraten Schatten/Reflektionen leben, was vielen kaum auffallen wird.

RLZ
2018-03-26, 23:27:31
Das Rauschen entsteht dadurch, dass durch die vielen möglichen Lichtpfade die Wahrscheinlichkeit eine Lichtquelle zu treffen recht gering ist.
Das wäre unbiased Pathtracing. Auf die Idee wird im Echtzeitrendering so schnell keiner kommen...

Börk
2018-03-27, 07:58:53
Das wäre unbiased Pathtracing. Auf die Idee wird im Echtzeitrendering so schnell keiner kommen...
Ja du hast schon recht, ich hatte versucht nur ein anschauliches Beispiel zu finden. Im Endeffekt entsteht das Rauschen durch eine Unterabtastung entweder der BRDF (Reflektionen), Umgebungsgeometrie (AO) und Lichtquellenfläche (Schatten). Das vorher genannte Beispiel stimmt dann nur wenn man die GI voll sampled (muss aber nicht unbiased sein).

Unbiased Pathtracing wird früher oder später aber auch kommen (www.otoy.com) und wird imho sogar den größeren Sprung darstellen, da hier ganz viel Arbeit von Artists eingespart werden kann.

MilesEdgeworth
2018-03-27, 09:08:05
@Börk: Vielen Dank für die ausführliche Erklärung! :)

AffenJack
2018-03-27, 09:48:25
Nvidia hat auf der GTC schon jetzt ein paar wenige Details mehr zu den Next Gen AI Gpus fallen lassen:

https://car.watch.impress.co.jp/img/car/docs/1113/746/006_o.jpg
https://car.watch.impress.co.jp/docs/event_repo/gtc2018/1113746.html

Neu ist dabei eigentlich nur die Bandbreite der GPUs und das diese GPU Nvlink beherrscht. 384 Bit heißt 192Bit Interface mit 16Gbps Speicher, also wohl sowas GT/A106 artiges. Dieser Chip macht allerdings 130 Tensor Flow Ops (Volta im Vergleich 120 TOPS im Big chip). Allerdings macht V100 die 120 TOPS mit Fp16. Xavier und wohl auch dieser Chip machen nur INT8 TOPs. Daher sollten die Tensor-Cores deutlich kleiner sein.

Ich denke dazu werden wir heute abend bei der Keynote mehr hören. Zu den Gamingchips gibts ja wohl erstmal nix mehr.

Troyan
2018-03-27, 10:23:46
Mit GDDR6 handelt es sich ja schon um die Gaming-Chips. Außer nVidia trennt wirklich DL und HPC.

AffenJack
2018-03-27, 10:28:45
Es wäre keine wirkliche trennung von DL und HPC. Der große Chip würde bestimmt auch in der nächsten Gen beides können. Aber V100 ist einfach zu teuer um ihn z.B. in Autos oder ähnlichem zu verbauen. Man braucht einen Chip der billiger ist und für Inferencing verbaut werden kann. Deshalb auch die geringere Genauigkeit der Tensor Cores, da diese nicht für Training gemacht sind.

Troyan
2018-03-27, 10:33:14
GP10x hatten auch INT16/INT8 Berechnungen.

AffenJack
2018-03-27, 10:45:14
Jo und die nächsten Chips kriegen bestimmt auch TCs, wegen Raytracing. Trotzdem lohnt es sich ab bestimmten Marktgrößen einen speziellen Chip zu bauen. Das Ding könnte einfach mehr TCs, Nvlink und noch nicht Gamingrelevantes Zeug haben, was für Gaming nur Balast wäre.

Allerdings habe ich die Stromverbrauchsangaben für Drive Pegasus vergessen. Daher muss der Chip ~200-220 Watt ziehen. Da wirds dann schon etwas merkwürdig. 192 Bit Speicherinterface, aber so hoher Verbrauch?

Troyan
2018-03-27, 12:09:03
Es ist jedoch ein Unterschied, ob die Consumer-Chips um bestimmte Funktionalitäten erweitert werden oder nVidia wirklich einen Extra-DL-Chip entwickelt hat.

robbitop
2018-03-27, 12:49:08
Die Frage ist, wann RT eine signifikante Marktdurchdringung bei Spielen hat, so dass es sich lohnt, signifikant mehr Fläche zu investieren (die man sonst auch für mehr reguläre Ausführungseinheiten nutzen könnte). Hat mit Tesselation ja auch sehr lange gedauert, eh das große Verbreitung fand.

Troyan
2018-03-27, 12:55:05
Tessellation war 6 Monate nach Einführung von DX11 gelöst. Der Rest ist Sache der Entwickler.

Hübie
2018-03-27, 13:18:52
Es gibt ja noch mehr Anwendungsfelder für AI abseits des Denoiser für RT. Ich hatte hier mal ein paar nette Links bekommen, aber kann jetzt nicht nachsehen wo die sind. RLZ weiß da sicherlich auch n bissl was. ;)

robbitop
2018-03-27, 13:41:42
Tessellation war 6 Monate nach Einführung von DX11 gelöst. Der Rest ist Sache der Entwickler.

Technisch ja. Aber Marktrelevanz ist ja nicht unwichtig eh man Transistoren dafür investiert. Die Frage ist ob das nur die neuste Sau ist, die durchs Dorf getrieben wird oder wirklich einen breiten Mehrwert pro FLOP bringt...

IMO ist es eine gute Strategie erst wesentlich Transistoren zu investieren wenn es voll genutzt wird. Ist aber auch nur meine Meinung (siehe DX9 SM3, Tesselation, AC etcpp)

Troyan
2018-03-27, 13:46:02
Das ist doch unsinnig. Neue Hardware ist notwendig, dass Entwicklungen starten können. Die Marktdurchsetzung erfolgt in der zweiten Generation.
Tessellation ist seit 8 Jahren gelöst. Das es nicht eingesetzt wird, liegt doch einzig an den Konsolen und deren Hardware.

Raytracing in Form von DXR wird zeigen, ob der PC endlich als eigenständige Plattform wahrgenommen wird.

mironicus
2018-03-27, 14:08:17
Wieviel Grafikspeicher wird die neue Generation wohl haben? 12 GB? 16 GB?

Ravenhearth
2018-03-27, 14:40:47
NVIDIA's next-gen: GTX 11 series, not the GTX 20 series (https://www.tweaktown.com/news/61326/nvidias-next-gen-gtx-11-series-20/index.html)

Locuza
2018-03-27, 15:06:57
Das ist doch unsinnig. Neue Hardware ist notwendig, dass Entwicklungen starten können. Die Marktdurchsetzung erfolgt in der zweiten Generation.
Tessellation ist seit 8 Jahren gelöst. Das es nicht eingesetzt wird, liegt doch einzig an den Konsolen und deren Hardware.

Raytracing in Form von DXR wird zeigen, ob der PC endlich als eigenständige Plattform wahrgenommen wird.
Die aktuelle Spezifikation von Tessellation unter den APIs ist in der Praxis größtenteils nutzlos und daran ändert auch die bessere Performance von einem Vendor im Vergleich zu einem anderem nur wenig.
https://twitter.com/andrewlauritzen/status/650468532619051008 (https://twitter.com/aras_p/status/758623547237564416)

Was soll DXR an der Wahrnehmung der PC-Versionen ändern?
Die Basis wird auch in Zukunft für alle gleich ausfallen und Sonderentwicklungen und Settings genießt der PC seit immer.

PHuV
2018-03-27, 15:45:01
NVIDIA's next-gen: GTX 11 series, not the GTX 20 series (https://www.tweaktown.com/news/61326/nvidias-next-gen-gtx-11-series-20/index.html)
Haha, ich lag richtig.

Ravenhearth
2018-03-27, 15:49:59
Vorausgesetzt die Meldung stimmt, sowas GTX 1185 klingt doch einfach nur scheiße :freak:

Adam D.
2018-03-27, 15:58:03
Die Namensgebung allein ist schon kein besonders gutes Indiz für eine große Weiterentwicklung. Wie scheiße klingt 1180 denn?

Naja, muss ja erstmal stimmen.

Troyan
2018-03-27, 15:59:57
GTX1080 ist doch genauso schlecht. Sehe da jetzt keinen Unterschied zu GTX1180...

x-force
2018-03-27, 16:01:06
solange es keine 0815 wird ;)
ich gehe weiter von der üblichen leistungssteigerung aus.

Ravenhearth
2018-03-27, 16:03:59
GTX1080 ist doch genauso schlecht. Sehe da jetzt keinen Unterschied zu GTX1180...
Der Sprung 1080 -> 1180 sieht halt nicht nach neuer Generation aus, sondern nach Refresh. Halt 1.1 statt 2.0 ;) Normalerweise steht die erste Zahl immer für die Gen, und nicht die ersten beiden.

Troyan
2018-03-27, 16:09:01
Der Sprung 1080 -> 1180 sieht halt nicht nach neuer Generation aus, sondern nach Refresh. Halt 1.1 statt 2.0 ;) Normalerweise steht die erste Zahl immer für die Gen, und nicht die ersten beiden.

Ja, aber der Sprung von GTX0980 auf GTX1080 war auch nur an der zweiten Stelle. :P

Hübie
2018-03-27, 16:17:01
Wer sagt dass es Zahlen sein müssen? :D Aber ja: 1080 hat mich wegen der Assoziation zur Fliegengitterauflösung schon arg gestört. Aber was Namen angeht war NVIDIA noch nie so richtig logisch (AMD erst recht nicht X-D).

Ich mag es eher wie z.B. BMW: 1er, 2er, 3er, 4er, 5er, 6er, 7er und 8er Reihe. Alle stehen für ein Marktsegment. Dann die Parallelität zu den X-Modellen. Fertig. So weißt du immer was du da bekommst. Aber gut ist ein anderes Thema und eigentlich nicht wirklich wichtig für das Produkt, nur für die Vermarktung.

Ravenhearth
2018-03-27, 16:18:53
Ja, aber der Sprung von GTX0980 auf GTX1080 war auch nur an der zweiten Stelle. :P
wat

AffenJack
2018-03-27, 16:30:20
Es wurde von 9 zu 10 weiter gezählt, wo ist nun das Problem, wenn man von 10 zu 11 weiterzählt?
Mal davon abgesehen ist es Tweaktown, da kann man die Diskussion gleich sein lassen, so zuverlässig wie die sind :wink:

Dural
2018-03-27, 16:34:53
an 1180/1185 kann ich nicht so recht glauben. Vor allem wie soll das weiter gehen? 1280, 1380, 1480, 1580 :confused:

Da macht 2080, 3080, 4080, 5080 schon mehr sinn.

Palpatin
2018-03-27, 16:37:01
Ich mag es eher wie z.B. BMW: 1er, 2er, 3er, 4er, 5er, 6er, 7er und 8er Reihe. Alle stehen für ein Marktsegment. Dann die Parallelität zu den X-Modellen. Fertig. So weißt du immer was du da bekommst.
Außer du kaufst nen i3 :D.

AffenJack
2018-03-27, 16:38:02
an 1180/1185 kann ich nicht so recht glauben. Vor allem wie soll das weiter gehen? 1280, 1380, 1480, 1580 :confused:

Da macht 2080, 3080, 4080, 5080 schon mehr sinn.

An die 85 glaube ich auch nicht, aber 1180, 1280, 1380. Möglich. Die 1080 ist in Nvs Marketing die 10 Series, dann eben 11, 12, 13 Series. Bis 12 Series klingt das gut, ab 13 schon etwas schlechter, aber bis 20 noch in Ordnung, erst 21 klingt schlecht, aber dann kann man ja irgendwie wechseln.

Linmoum
2018-03-27, 17:05:41
Wenn ich zwischen 11XX, 12XX etc. und 20XX, 30XX etc. wählen müsste, würde die Entscheidung klar auf letzteres fallen. Allerdings halb so wild im Vergleich zu XX75 oder XX85. Ich halte es für ausgeschlossen, dass Nvidia das Namensschema so verunstalten wird. Das wäre schon richtig schlecht.

BlacKi
2018-03-27, 17:20:42
1080 ti find ich noch schlimmer. zum glück kommts auf den namen nicht an.

x-force
2018-03-27, 17:48:43
So weißt du immer was du da bekommst.

das soll doch gerade möglichst verschleiert werden.

Thunder99
2018-03-27, 19:06:35
Die haben die Marke schon versaut, mit GTX bis ab zur 1050. Früher war das eine GT oder GTS ;)

Godmode
2018-03-27, 19:21:41
solange es keine 0815 wird ;)
ich gehe weiter von der üblichen leistungssteigerung aus.

Solange die Hashrate stimmt können sie das Ding auch Titan Bohlen nennen. :wink:

BoMbY
2018-03-27, 20:38:29
Ja, wird bestimmt wieder ein total spannendes "AI something, something ..." *tumbleweed* ... auf der der GTC von der Lederjacke.

Ich hätte Hellseher werden sollen:

https://i.imgur.com/w2ipzW7.jpg

Daredevil
2018-03-27, 21:04:11
Huawei hat den Nachfolger des P10 P20 genannt und nicht P11, weil ihnen das zu sehr an 9/11 ran kommt.
Ob Nvidia auch so denkt und sich jetzt nicht unbedingt eine 1180 raus haut? :<
Eine 1160 sieht halt auch so aus.... Speku Ende. :D

Adam D.
2018-03-28, 11:10:47
Ich hätte Hellseher werden sollen:

https://i.imgur.com/w2ipzW7.jpg
Stolz hast du dich gegen alle anderslautenden Gerüchte durchgesetzt, Glückwunsch :freak:

dildo4u
2018-03-28, 12:14:23
SK Hynix nennt 3 Monate bis zur Massenproduktion von GDDR6.Passt zu den Q3 Gerüchten.

https://youtu.be/s65jU3r6iUI

AlphaNUSS
2018-03-28, 12:18:06
Samsung und Micron produzieren schon seit Januar. Kann also gut sein, dass die Karten wieder im Mai kommen.

dildo4u
2018-03-28, 12:24:25
Da kommt zu 100% nix im Mai der aktuelle Markt lässt das gar nicht zu.
NV wird selbst wenn sie drei Vram Hersteller haben Probleme mit der Launch Stückzahl haben.

AffenJack
2018-03-28, 13:06:18
Samsung und Micron produzieren schon seit Januar. Kann also gut sein, dass die Karten wieder im Mai kommen.

Hynix aber nur die kleinen 8 Gb Chips. Ich würde das Datum eher für die 16 Gb Chips sehen, da war nämlich noch unklar, wann von Hynix was kommt.

Godmode
2018-03-28, 14:29:58
Da kommt zu 100% nix im Mai der aktuelle Markt lässt das gar nicht zu.
NV wird selbst wenn sie drei Vram Hersteller haben Probleme mit der Launch Stückzahl haben.

Der Markt lässt das nicht zu? :confused:

dildo4u
2018-03-28, 14:56:35
NV hat schon Probleme genug Karten mit GDDR5 zu liefern 1070 Ti liegen bei 600€.(Sollte ohne Mining bei 450 liegen) https://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/GeForce+GTX+fuer+Gaming/GTX+1070+Ti.html
Ich glaube nicht daran das sie eine 2080 bei 800€ launchen,es sei denn die Näste Titan kommt für 1500€.

Adam D.
2018-03-28, 15:28:07
NV hat schon Probleme genug Karten mit GDDR5 zu liefern 1070 Ti liegen bei 600€.(Sollte ohne Mining bei 450 liegen) https://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/GeForce+GTX+fuer+Gaming/GTX+1070+Ti.html
Ich glaube nicht daran das sie eine 2080 bei 800€ launchen,es sei denn die Näste Titan kommt für 1500€.
Hä? Die Zusammenhänge erschließen sich mir überhaupt nicht. A) Können sie liefern, zu den Preisen kauft's nur niemand. B) Muss Nvidia den UVP der neuen Karten ja nicht so ansetzen, dass total verzerrte Marktpreise der vorherigen Generation überboten werden.

Tarkin
2018-03-28, 15:58:19
https://pbs.twimg.com/media/DZYRpubVQAAJwmM.jpg:large

also sieht eher nicht so aus, als ob sich das in Q3 noch ausgeht wenn der Tape Out von Turing erst dieser Tage erfolgen soll...

und das Zeug wird dann auch nicht 7nm sein, sondern 12nm (höchstwahrscheinlich)

Weiters glaube ich kaum, dass wir Steigerungen von 30% bis 40% sehen werden wie hier einige halluzinieren. Wie soll das gehen?

nVidia kocht auch nur mit Wasser.

Ich wage mal einen Blick in die Zukunft....

Es kommt was gegen Ende des Jahres (Nov) mit irgendwelchen zusätzlichen Ray Tracing Features womit man sich von der aktuellen Generation abhebt um den geringen Performance-Zuwachs etwas zu kaschieren welcher sich aus dem 12nm Prozess automatisch ergibt. Trotzdem werden die Karten 50% teurer sein als die alte Generation.

Das gibt dann hoffentlich auch AMD etwas Zeit wieder aufzuholen. 7nm ist jedenfalls bei beiden eine 2019er Geschichte. Eventuell schafft es ja AMD sogar heuer noch mit einer "Vega 2.0" Instinct Karte in 7nm VOR nVidia auf den Markt.

robbitop
2018-03-28, 16:02:14
Signifikante Steigerungen sind durch das Produkt aus höheren Taktraten des 12 nm Prozesses (~10%), größerer Fläche (+~100sqmm) und Verbesserungen der mArch sicherlich möglich. Sicherlich ähnlich wie bei Maxwell zu Kepler

Linmoum
2018-03-28, 16:18:44
Die Frage ist eher, was sich jetzt noch lohnt. 7nm steht 2019 in den Startlöchern und Q3 2018 ist da für neue Produkte noch in 12nm ziemlich spät. Da kann man dann wahrscheinlich sogar noch ins Q4 hineingehen was Customs und Verfügbarkeit angeht. Vor allem bei der aktuellen Marktsituation, die u.U. auch dann noch andauert.

Vielleicht spart man sich auch ein komplettes Lineup und es gibt maximal einen GT104 noch in 12nm.

AffenJack
2018-03-28, 16:21:53
Erinyes Definition von tapeout ist etwas falsch. In der Regel wird dabei vom Überreichen an die Foundry geredet. Das ist schon passiert. Was er meint ist das erste Silizium, was man zurück kriegt. Das sollte also Anfang April passieren. Wenn alles klappt ist Ende Q3 schon möglich in einem alten und ausgereiften Prozess. Aber allzu sicher sollte man sich da nicht sein. Erklärt immerhin auch, wieso wir noch nix hören. Das Ding ist wirklich noch richtig weit weg.

@Linmoum

Wir wissen nicht, wie weit 7nm wirklich ist. Ich würde da vor H2 19 mit keinen Consumerprodukten rechnen, also weder AMD noch Nvidia. Ich geh auch nicht von einem vollen Lineup in 12nm aus, ich denke aber an GT102-GT106. Dann 7nm mit den kleinen einführen. (Außerhalb des HPC Big Dies der wohl Ampere heißt)

Troyan
2018-03-28, 16:29:43
7nm ist weit weg und wird am Anfang doch sowieso von Apple und Co. weggenommen. 12nm ist wie früher 28nm. Die Architektur von Volta ist alleine 50% effizienter und mit GDDR6 benötigt man auch kein breiteres Interface.

50% Mehrleistung macht aus dem Nachfolger der GTX1060 einen Vega56 Konkurrenten.

Linmoum
2018-03-28, 16:39:55
Wie weit 7nm weg ist kannst du nicht beurteilen, insofern bleiben wir einfach mal bei der aktuellen Gerüchtelage. Also 7nm für 2019.

@Linmoum

Wir wissen nicht, wie weit 7nm wirklich ist. Ich würde da vor H2 19 mit keinen Consumerprodukten rechnen, also weder AMD noch Nvidia. Ich geh auch nicht von einem vollen Lineup in 12nm aus, ich denke aber an GT102-GT106. Dann 7nm mit den kleinen einführen. (Außerhalb des HPC Big Dies der wohl Ampere heißt)
Ich halte (frühestens) Q3 2019 auch für eher realistisch, aber selbst dann sehe ich keinen Platz für einen potentiellen GT102. Wann will man den denn bringen? Bleibt ja im Prinzip nur direkt vom Start weg, ein monatelanger Abstand seit dem Release von GT104 lohnt sich dann doch kaum noch.

robbitop
2018-03-28, 16:53:55
AMD wird Q1/2 2019 wahrscheinlich mit Ryzen 3000 ihr erstes 7 nm Produkt vorstellen. 7 nm GF. War TSMC nicht sogar noch 1Q schneller im DUV Prozess?
Andererseits setzen idr erstmal die relativ kleinen mobile SoCs auf neue Prozesse eh sie reif genug für GPUs sind.

Wenn das tape out schon erfolgt ist und man sehr bald das erste Silizium bekommt, würde das in der Tat für 12 nm sprechen.

AffenJack
2018-03-28, 17:37:46
Ich halte (frühestens) Q3 2019 auch für eher realistisch, aber selbst dann sehe ich keinen Platz für einen potentiellen GT102. Wann will man den denn bringen? Bleibt ja im Prinzip nur direkt vom Start weg, ein monatelanger Abstand seit dem Release von GT104 lohnt sich dann doch kaum noch.

GT102 dürfte gleich zum Start kommen, ja. Also zumindest als Titan. Als TI dann so 3 Monate später. Ich glaube nicht, dass wir groß mehr als 40% Leistungssteigerung diese Gen sehen werden, dann wird GT104 aber nur etwas schneller als GP102. Das bringt niemand zum Aufrüsten. Daher muss der große frühzeitig kommen. Außerdem machen die Tonnen an Tensor Cores, die in der GPU von Pegasus drin stecken, nur bei GT102 einen Sinn.

Tarkin
2018-03-28, 20:55:24
Signifikante Steigerungen sind durch das Produkt aus höheren Taktraten des 12 nm Prozesses (~10%), größerer Fläche (+~100sqmm) und Verbesserungen der mArch sicherlich möglich. Sicherlich ähnlich wie bei Maxwell zu Pascal.

Verstehe ich dich richtig? Du erwartest von Pascal (16nm) auf Turing (12nm) eine ähnliche Steigerung wie von Maxwell (28nm) auf Pascal (16nm)?

Sorry, aber das ist unrealistisch selbst wenn nVidia die Die Size erhöht.

Dir ist schon klar, dass zwischen Maxwell und Pascal gut 70% Unterschied ist?

NEVER EVER wird eine 1180 oder 2080 oder wie auch immer, um 70% schneller sein als eine 1080.

Der Unterschied wird höchstens 20% betragen IMO. Mehr ist da nicht drinnen vor allem da die 12nm ja eigentlich auch nur ein Marketingname eines etwas verbesserten 16nm Prozesses ist.

Rampage 2
2018-03-29, 08:15:49
Signifikante Steigerungen sind durch das Produkt aus höheren Taktraten des 12 nm Prozesses (~10%), größerer Fläche (+~100sqmm) und Verbesserungen der mArch sicherlich möglich. Sicherlich ähnlich wie bei Maxwell zu Pascal.

Aber nicht für GT102 - seit Kepler ist es so, dass das OC-Potential der 102er Chips 5-10% niedriger ist als bei den 104er Chips. Eine 1080 (GP104) kann man ohne Mühe auf 2,1 GHz bringen - bei 1080Ti und TXp (GP102) sind es eher ~ 2 GHz (irgendwo zwischen 1,95 und 2,05 GHz). Also mindestens 5% weniger Takt. Wenn GT104 also maximal 2,2-2,3 GHz schafft, dann schafft GT102 "nur" noch 2,1GHz.

Deswegen muss NV auch an der Architektur feilen (10-20%) und die Zahl der Ausführungseinheiten signifikant erhöhen - ich denke, die 5376 SPs von GV100 werden wir auch bei GT102 oder GA102 zu sehen bekommen. 50% mehr Recheneinheiten als bei GT104 minus 5-10% weniger OC-Potential und GT102 wäre immer noch ~ 40% schneller als GT104.

Im Vergleich zu Pascal bedeutet das: (angenommen GT104 vs. GP104)

40% mehr Recheneinheiten + 10% mehr Takt + ~ 15% durch Architekturverbesserungen = 70-75% schneller als GTX 1080

Dann könnte 12nm dann tatsächlich ausreichen...

R2

N0rG
2018-03-29, 10:40:42
Dann würde die Karte aber 350W ziehen. Aber möglich wäre es.

mironicus
2018-03-29, 10:50:09
NVidia hat es doch gar nicht nötig, sich irgendwie zu beeilen. Es gibt keine Konkurrenz.

robbitop
2018-03-29, 10:51:10
Verstehe ich dich richtig? Du erwartest von Pascal (16nm) auf Turing (12nm) eine ähnliche Steigerung wie von Maxwell (28nm) auf Pascal (16nm)?

Sorry, aber das ist unrealistisch selbst wenn nVidia die Die Size erhöht.

Dir ist schon klar, dass zwischen Maxwell und Pascal gut 70% Unterschied ist?

NEVER EVER wird eine 1180 oder 2080 oder wie auch immer, um 70% schneller sein als eine 1080.

Der Unterschied wird höchstens 20% betragen IMO. Mehr ist da nicht drinnen vor allem da die 12nm ja eigentlich auch nur ein Marketingname eines etwas verbesserten 16nm Prozesses ist.
Ich meinte Kepler - vertippt... Sonst würde die Analogie keinen Sinn machen.

@R2

Taktsteigerung ist relativ zu verstehen. 10% Mehrtakt durch 12 nm designunabhängig. GT104 hat ggf 10% mehr Takt als GP104 und GT102 als GP102.

basix
2018-03-29, 10:52:15
Dann würde die Karte aber 350W ziehen. Aber möglich wäre es.

Was bleibt dann von den +50% effizienteren Shadern übrig? ;)

Bei +20-30% lohnt sich doch der Aufwand gar nicht. Dann kann man gleich bis 7nm warten. Entweder es wird mehr in 10/12nm oder es wird 7nm.

AffenJack
2018-03-29, 11:14:23
Ich meinte Kepler - vertippt... Sonst würde die Analogie keinen Sinn machen.

@R2

Taktsteigerung ist relativ zu verstehen. 10% Mehrtakt durch 12 nm designunabhängig. GT104 hat ggf 10% mehr Takt als GP104 und GT102 als GP102.

Ich zweifle an 10% mehr Takt bei 12nm. Es deutet bisher nichts darauf, dass sich die taktbarkeit ändert. Ich erwarte da keine Änderung. Man wird schon den Verbrauch durch eine größere Chipfläche kompensieren müssen.

Was bleibt dann von den +50% effizienteren Shadern übrig? ;)

Bei +20-30% lohnt sich doch der Aufwand gar nicht. Dann kann man gleich bis 7nm warten. Entweder es wird mehr in 10/12nm oder es wird 7nm.

Deswegen sage ich 40% :biggrin:. An groß mehr glaube ich aber auch nicht. Titan V zeigt schon gut wo es hingeht. Bei PCGH (4k) 25% schneller als ne 1080TI. 5% mehr noch durch mehr Takt als die TV, 5% durch schnelleren Speicher, da TV ja beschnitten ist und 5% durch optimierte Treiber. Sindwa bei 40%. 2tes Verkaufsargument wird dann die Raytracingleistung. Während die 1080Ti dies nicht zuschalten kann oder dabei sehr langsam ist, werden die Tensor Cores dies in deutlich besserer Geschwindigkeit ermöglichen.

7nm kannste ausschließen, nach den Äußerungen von Erinyes. Erinyes äußert sich eher selten, aber wenn er sowas postet, ist es immer richtig. Nur bei Spekulationen von ihm liegt er mal falsch, aber dann schreibt er anders.

robbitop
2018-03-29, 11:19:32
Pinnacle Ridge kann grob 10% höher takten. IMO ist das eine Indikation. Die Foundrys geben iirc auch 10% an.
Ist natürlich auch abhängig vom gewünschten thermischen Betriebspunkt und sicherlich aus den kritischen Pfaden im Design.

AffenJack
2018-03-29, 11:32:30
Pinnacle Ridge kann grob 10% höher takten. IMO ist das eine Indikation. Die Foundrys geben iirc auch 10% an.
Ist natürlich auch abhängig bom gewünschten thermischen Betriebspunkt und sicherlich aus den kritischen Pfaden im Design.

Single-Core, was durch 10% höhere TDP erkauft wurde bzw teilweise im mittleren Bereich. Genauso wird der 12nm Prozess auch sein. Im mittleren taktbereich verbessert sich die Taktbarkeit. Nach oben hin wird sich nix groß ändern. Schon da im Thread ging mir das Loggedudel um sonstwie hohe Taktraten aufn Senkel. Es wird da keine Unterschiede geben. Bei PR haben sich nicht mal dei Diegrößen verändert, während Nv hier mit größeren Dies ankommen wird.

Zu dem Glauben an 70% Steigerung von einigen, weil man es mit Maxwell im gleichen Prozess auch geschafft hat. Nein, hat man nicht. Maxwell war am Anfang 50% schneller als Kepler. Erst mit Speicherlimitierung, neueren Spielen verschob sich das in dei Richtung 70%. Alles über 50% für die nächste Gen ist daher für mich auch Träumerei. Mit Raytracing, mehr Shaderlast/DX12 oder so kann sich das später dann weiter verschieben.

Schnäppchenjäger
2018-03-29, 11:39:10
Lustige Leute sind hier mance.. 7nm.. im Ernst??!!?
7nm werden wir frühestens 2020 sehen... das ist ein riesiger Unterschied zu den jetzigen 16nm. So schnell kommt das nicht, außerdem würde das Leute vom Kauf von 10-12nm abhalten.
Turing wird in 12nm kommen, da bin ich mir sehhhr sicher. Mit winziger Wahrscheinlichkeit sind es 10nm.

Tarkin
2018-03-29, 11:40:21
Ich meinte Kepler - vertippt... Sonst würde die Analogie keinen Sinn machen.

@R2

Taktsteigerung ist relativ zu verstehen. 10% Mehrtakt durch 12 nm designunabhängig. GT104 hat ggf 10% mehr Takt als GP104 und GT102 als GP102.

25% mehr... ja vielleicht.... aber ich glaubs nicht. Pascal ist schon extrem effizient. Irgendwann werden die Zugewinne immer kleiner ... siehe Intel. Und was furchbar neues ggü Pascal wird Turing schätze ich nicht sein.

mein Tip: +15%. Damit würde sich nVidia die eigene Top-Karte in Form der TI und Titan nicht kannibalisieren. ... für die ist dann 7nm in H1 2019 reserviert.

robbitop
2018-03-29, 11:56:11
+25% erwarte ich durch die Flächensteigerung. 5% durch den Shrink. Sind grob 30% mehr Transistoren und damit mehr Leistung. Wenn man dann auch noch 10% höher taktet (ich rede jetzt nicht vom maximalen OC Takt sondern vom real anliegenden Turbotakt) sind es schon fast 45 %. 10-15% mehr taktnormierte Leistung sind auch nicht unrealistisch. Sind fast 60%.
1.1 x 1.05 x 1.25 x 1.1

Gerade was Perf/W angeht soll die Nachfolge mArch besser sein, so dass diese 50-60% bei ähnlicher TDP wie Pascal nicht unrealistisch sind.
Irgendwo bei +40...60% wird es sicher sein.

IMO wird die 1180 die 1080ti (jeweils referenzkarte) einholen oder leicht (~10%) überholen. Sie 1180ti entsprechend 40-60% schneller sein als die 1080ti.

Für 15% macht man keine neue GPU mit neuer mArch.

Troyan
2018-03-29, 12:01:26
GV100 hat 44% mehr (theoretische) Rechenleistung als GP100. Es werden rund 50% gegenüber Pascal alleine durch die Volta-Architektur.

robbitop
2018-03-29, 12:07:36
Ja naja. Die Volta mArch ist sparsamer (pro flop in Games). (in Compute dreht das Ding noch viel mehr auf - ich weiss) Man kann 50% mehr Ausführungseinheiten bei ähnlicher Leistung (@Gaming) verbauen. Die Mehrleistung (@Gaming der Titan V (außerhalb von Compute /AC) kommt durch die Erhöhung der Einheitenanzahl.

Genau das wird IMO auch bei Turing greifen. Man kann mehr Transistoren bei gleicher Leistungsaufnahme verbauen.

Ich erwarte zusätzlich noch ein wenig mehr takt- und einheitennormierte Leistung.