PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 [16] 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48

dildo4u
2018-08-16, 12:37:45
12 Tflops sind konservativ.Die GTX 1080 hat 9 Tflops,die Titan Xp 12 macht +33%.
12 zu 16 Tflops,wäre genau diese 33%,2080 zur nästen Titan.

dargo
2018-08-16, 12:38:19
Ah ok. Danke. Wobei Dice und id leider nicht der Maßstab sein dürften. Beide haben die besten Leute der Industrie und stecken eine ganze Menge Aufwand in die Optimierung des Shadercodes.

Ich möchte nicht zu sehr ins OT gehen. Aber Wolf 2 kommt von MachineGames. Demnächst scheint es auch eine Kooperation mit Ubisoft bei Assassin’s Creed Odyssey zu geben.
https://www.mindfactory.de/Highlights/AMD_Radeon_Raise_The_Game_Bundle/Badge/163x80_badge_AMD_Radeon_Raise_The_Game_Bundle

Mal sehen ob dahinter mehr als nur Marketinggeblubber steckt. :)

Dural
2018-08-16, 12:40:09
12 Tflops sind konservativ.Die GTX 1080 hat 9 Tflops,die Titan Xp 12 macht +33%.
12 zu 16 Tflops,wäre genau diese 33%,2080 zur nästen Titan.

Jep, ich rechne stark mit gp102 leistung für den gt104.

Käsetoast
2018-08-16, 12:42:39
Warum wird immer gemeckert, wenn unerwartet einen technische Innovation erscheint? NV ist leider führend und hätte es eigentlich gar nicht nötig, so einen Change zu bringen.
Ich finde das und ähnliche Kommentare dieser Art gehen ein wenig am Kern der Sache vorbei. Es geht hier meiner Meinung nach doch überhaupt nicht darum, dass es cool ist das Nvidia so einen "Change" für uns Gamer bringt. Das RT in Spielen ist doch nur ein nice to have Effekt bzw ein nettes Nebenprodukt. Nvidia geht es darum die CAD und Vfx Industrie für sich zu gewinnen und die Chancen dass das klappt stehen in meinen Augen extrem gut was nochmal gepusht wird durch AMD die bei den GPUs schwächeln und Intel die bei den CPUs schwächeln. Nvidia wird da riesig Asche machen mit dem ganzen Profi Zeug. Es ist einfach nur praktisch, dass wir Gamer da auch von profitieren - mehr nicht. Ich kann daher nicht verstehen wie einige Nvidia hier eine Art Fail zu unterstellen versuchen. Ja, wir werden in Spielen auf Jahre hinaus nicht wirklich viel von Raytracing haben außer in Ausnahmefällen. Ganz genau wie es bei dem Nutzen von einem SM3 oder DX11 auch war. Auf lange Sicht könnte da was echt schönes bei rum kommen. Wer sich hier beschwert und lieber mehr Fläche für den Rasterizer Part des Chips für mehr 4k Performance hätte, den kann man grundsätzlich zwar verstehen, aber der blendet aus wie viel Asche Nvidia im Profi Segment damit machen wird, durch den die Features dann an uns Gamer weitergereicht werden...

Nvidia macht da in meinen Augen alles richtig. Geradezu auf dem Weg zu einem GPU Support Monopol im Vfx Bereich (als ob man die Software in zweiter Instanz auch noch an AMD anpassen würde - Nvidia ist da jetzt Markt Standard und fertig also ganz ähnlich wie es da mit Cuda gelaufen ist). Immerhin scheint die Gaming Performance ja auch ihr 30 - 40% Upgrade zu kriegen also geht man ja nicht völlig leer aus...

Wie RT sich entwickelt wird auf jeden Fall spannend - ich habe allerdings Bedenken, dass einiges da zu Nvidia lastig wird, also zu viel Monopol Charakter hat...

Linmoum
2018-08-16, 12:50:11
Jep, ich rechne stark mit gp102 leistung für den gt104.
Passt ja auch. Die potentiell nur 8GB wären dann aber ein deutlicher Abturner.

Menace
2018-08-16, 13:03:30
Nvidia macht da in meinen Augen alles richtig. Geradezu auf dem Weg zu einem GPU Support Monopol im Vfx Bereich (als ob man die Software in zweiter Instanz auch noch an AMD anpassen würde - Nvidia ist da jetzt Markt Standard und fertig also ganz ähnlich wie es da mit Cuda gelaufen ist).

Du sprichst da aber wohl nur aus der Sicht von nVidia; von Kunden wohl kaum. Ich bin froh, dass meine Software (z.B. RAW-Konverter C1) dann doch auf Standards setzen, die alle (intel, AMD, nvidia) unterstützen. Für mich macht ein Unternehmer alles falsch, die quasi ein Monopol haben und dann "Standards" setzen. Siehe den Blödsinn bei Adobe und deren "Standards" in itpc/exif/XMP die alle Naselang wechseln und dann mal Metadaten nicht mehr von anderen Software richtig auszulesen oder zu schreiben ist. Als Kunde verzichte ich dann gerne auf diese Art von Standardsetzer.

Käsetoast
2018-08-16, 13:17:05
Du sprichst da aber wohl nur aus der Sicht von nVidia; von Kunden wohl kaum.
Muss man differenzieren denke ich. Grundsätzlich bin ich da komplett bei dir. Im Wesentlichen ist NVIDIA aber halt ein gewinnorientiertes Unternehmen und gerade dabei einen komplett neuen Markt für sich zu eröffnen. Daran ist grundsätzlich ja nichts verkehrt und für den Kunden hat das ja auch Vorteile wie das man dank NVIDIA dann schneller und kostengünstiger rendern kann. Man erobert hier also neue Märkte und liefert gleichzeitig ein Feature, das auch in der Spielebranche von Interesse ist auch wenn es kein Gamechanger ist wie in der Rendering Branche...

Wie ich aber schon schrieb sehe ich da genau wie du das "Wie?" kritisch. Es bleibt zwar noch abzuwarten, aber ich sehe es so, dass da wieder alles mehr oder weniger proprietär auf NVIDIA abgestimmt wird und ein außenstehender Konkurrent wie AMD kaum eine Chance haben wird da nennenswert den Fuß in die Türe zu kriegen weil selbst wenn eine richtig gute Hardware käme mangelt es an der nötigen Softwareunterstützung. Leider ist nämlich davon auszugehen, dass NVIDIA da ihr eigenes Süppchen à la CUDA oder G-Sync kochen wird. Alles in der GPU Rendering Branche wird jetzt eben darauf ausgelegt wie NVIDIAs RT Cores arbeiten und wie NVIDIAs GPUs funktionieren. Das man dabei gleichzeitig allgemeingültige APIs entwickelt, die grundsätzlich jeder gleich effizient nutzen kann, halte ich für unwahrscheinlich - auch wenn es hier und da sicherlich APIs etc. geben wird die auch AMD nutzen könnte - so werden die alle rund um die bestehende NVIDIA Funktionalität gestrickt sein, so dass es eben nahezu unmöglich sein dürfte den Klassenprimus im neu erschlossenen Markt zu entthronen oder lediglich nennenswerte Konkurrenz zu bilden, solange NVIDIA sich keine groben Schnitzer leistet...

Troyan
2018-08-16, 13:22:11
Warum ist Raytracing in Spielen kein Gamechanger?! Das ist doch irrsinnig.

Wir haben zig verschiedene AO-Implementierungen in Spielen. Sogar drei verschiedene pro Spiel - siehe Tomb Raider. Mit Raytracing gibt es genau eine. Das selbe gilt doch auch für Schatten und Co.

Es macht in Zukunft keinen Sinn viel Geld mehr in "optimierte" Hacks zu investieren, wenn die Lösung per Raytracing praktikabel ist. Dann gibt es eine Rasterizing-Lösung, die billig ist und eine mit RT.

Das ist im Grunde die Definition von "Game Changing".


Wie ich aber schon schrieb sehe ich da genau wie du das "Wie?" kritisch. Es bleibt zwar noch abzuwarten, aber ich sehe es so, dass da wieder alles mehr oder weniger proprietär auf NVIDIA abgestimmt wird und ein außenstehender Konkurrent wie AMD kaum eine Chance haben wird da nennenswert den Fuß in die Türe zu kriegen weil selbst wenn eine richtig gute Hardware käme mangelt es an der nötigen Softwareunterstützung. Leider ist nämlich davon auszugehen, dass NVIDIA da ihr eigenes Süppchen à la CUDA oder G-Sync kochen wird. Alles in der GPU Rendering Branche wird jetzt eben darauf ausgelegt wie NVIDIAs RT Cores arbeiten und wie NVIDIAs GPUs funktionieren. Das man dabei gleichzeitig allgemeingültige APIs entwickelt, die grundsätzlich jeder gleich effizient nutzen kann, halte ich für unwahrscheinlich - auch wenn es hier und da sicherlich APIs etc. geben wird die auch AMD nutzen könnte - so werden die alle rund um die bestehende NVIDIA Funktionalität gestrickt sein, so dass es eben nahezu unmöglich sein dürfte den Klassenprimus im neu erschlossenen Markt zu entthronen oder lediglich nennenswerte Konkurrenz zu bilden, solange NVIDIA sich keine groben Schnitzer leistet...

Genauso wie DX11-Tessellation ist DXR (+Vulkan) ein abstrahierter Standard. Wenn AMD natürlich wieder ein Jahrzehnt benötigt, um per Hardware konkurrenzfähig zu sein, hat dies nichts mit Monopol oder sonst was zu tun. Vielleicht wird es auch mal an der Zeit eine innovative Firma wie nVidia, die mit besserer Hardware auf den Markt erscheint, zu loben.

Käsetoast
2018-08-16, 13:25:32
Welches Spiel kann ich dieses Jahr denn kaufen, das ohne Raytracing nicht funktioniert, oder zumindest extrem davon profitiert? Keines - deswegen ist RT derzeit kein Gamechanger. Dass es in einigen Jahren dann aufblühen bzw. die Gaming Branche bereichern wird daran wurde ja nicht gezweifelt bzw. ja sogar genau das gesagt...

In der Rendering Branche ist es aber so, dass du quasi JETZT (EDIT: bzw. genau genommen wenn sie dann von Dell, HP etc. angeboten wird aber das steht ja schon in den Startlöchern) schon mal eine Renderfarm in Auftrag geben kannst die dir wenn sie dann geliefert wird eklatante Vorteile liefert (die NVIDIA Präsentation hat die entsprechenden Beispiele ja gebracht wie mit einem Bruchteil des Budgets derzeitiger Lösungen eine bedeutend bessere Leistung erzielt werden kann)...

Das ist halt der Unterschied. RT kommt in erster Linie wegen dem professionellem Rendering - nicht primär für Gamer...

Troyan
2018-08-16, 13:28:06
Und welche Spiele könntest du in zwei Jahren kaufen, wenn niemand heute Standards wie DXR und Hardware wie Turing forciert?

Irrsinniges Argument. Der Cut kommt, wenn Raytracing für Echtzeit praktikabel ist. nVidia scheint es heute schon zu erreichen.

Außerdem geht es bei Turing ja nicht alleine nur um Raytracing. Die TensorCores können ja auch für Spiele verwendet werden. Wir werden sehen, wie gut DLAA im Einsatz sein wird.

robbitop
2018-08-16, 13:34:28
Ich möchte nicht zu sehr ins OT gehen. Aber Wolf 2 kommt von MachineGames. Demnächst scheint es auch eine Kooperation mit Ubisoft bei Assassin’s Creed Odyssey zu geben.
https://www.mindfactory.de/Highlights/AMD_Radeon_Raise_The_Game_Bundle/Badge/163x80_badge_AMD_Radeon_Raise_The_Game_Bundle

Mal sehen ob dahinter mehr als nur Marketinggeblubber steckt. :)
Die Engine und sicher eine ganze Menge Support kommen aber von id. :)

Menace
2018-08-16, 13:34:53
Es bleibt zwar noch abzuwarten, aber ich sehe es so, dass da wieder alles mehr oder weniger proprietär auf NVIDIA abgestimmt wird und ein außenstehender Konkurrent wie AMD kaum eine Chance haben wird da nennenswert den Fuß in die Türe zu kriegen weil selbst wenn eine richtig gute Hardware käme mangelt es an der nötigen Softwareunterstützung. Leider ist nämlich davon auszugehen, dass NVIDIA da ihr eigenes Süppchen à la CUDA oder G-Sync kochen wird.

Ich begrüße den Schritt von nVidia sehr. Kommt es aber so, wie Du befürchtest, dann kauft ruhig weiter nvidia. Ich verzichte dann wieder (wobei mich G-Sync/Freesync nicht wirklich interessiert). Bin zu alt um in solchen Fällen proprietären Zeugs abhängig zu machen (sofern es alternativen gibt).

Käsetoast
2018-08-16, 13:45:58
@Troyan:
Naja - bei Raytracing in Echtzeit wäre ich vorsichtig. Das funktioniert derzeit nur bei kleinen Szenen wie ein Räumchen das dargestellt wird. Komplett auf RT in realen Spielszenarien und Auflösungen umzustellen halte ich mit der derzeitigen RT Performance für nicht sinnvoll. Also etwa ein Skyrim mit Weitsicht etc. mit starkem Fokus auf RT Nutzung. Außerdem bilden leider die Konsolen immer noch den gemeinsamen Nenner - die heutige Grafikqualität fordert eben ein Budget das nur durch großen Absatz erreichbar ist und da kann man die Konsolenspieler nicht außen vorlassen bzw. in vielen Genres sind die ja sogar die Hauptzielgruppe...

Auch wenn AMDs Navi der ja wohl in die kommenden Konsolen wandern wird da theortisch sicher auch einige Compute Mechaniken für Raytracing nutzen kann, wird man von RT in Konsolen außer für einige wenige Effekte wohl nicht viel sehen in den nächsten Jahren. Deswegen glaube ich halt, dass wir noch Jahre brauchen werden bis da eine größere Durchdringung von RT stattfindet bzw. wir werden auch noch deutlich mehr Leistung als die derzeitigen 10 Gigarays brauchen um auch aufwendige Szenen mit viel Content und Weitsicht mit RT Hilfe zu rendern...

Wobei dabei wohl stets ein Rasterizing-Raytracing-Hybrid-Modell zum Einsatz kommen wird. Vollständiges Raytracing von allem wird wohl noch auf Jahrzehnte hinaus kaum nutzbar sein - dafür fehlt es an Rechenpower...

Außerdem sollte man nochmal im Hinterkopf behalten, dass NVIDIA jetzt Raytracing nicht erfunden hat. Standards wie DXR kommen ja nicht aus dem Nichts und gerade Intel buttert ja schon seit Jahren Geld in die Raytracing Forschung - man erinnere sich an die zahlreichen Raytracing Umsetzungen der id Engine bzw. von Quake und Doom (Computerbase hatte da immer schöne Artikel zu). Bei Spielen bin ich da so gesehen recht optimistisch, dass durch diverse Standards und APIs eine Umgebung erreicht wird, wo Konkurrenz möglich ist. Bei der professionellen Software sehe ich das kritischer. Ich sehe das ja heute schon immer mal wieder, dass wenn es für irgendeine Berechnungssoftware eine GPU Beschleunigung gibt, dann ist das sehr oft CUDA only. Wobei ich da inzwischen manchmal auch was von OpenCL lese, also hat sich da ggf. im großen Ganzen was gebessert, aber da fehlt mir die Übersicht. So habe ich halt die Befürchtung, dass man auch bei einem Renderman sowas lesen wird wie "Wir unterstützen GPU Beschleunigung powered by Quadro RTX!". Ich sehe das als Problem. Das soll keine Häme für NVIDIA sein die für ihre Leistungen ohne Zweifel zu loben sind. Das mit dem Monopolcharakter ist aber einfach total bescheiden und zu sagen "Ja hätte AMD doch einfach was Besseres bringen müssen!" erzeugt da höchstens ein müdes Level weil man sagen, dass selbst wenn das so war (und das war mehr als einmal der Fall sowohl was CPUs als auch GPUs angeht), so wurde es halt trotzdem nur zögernd gekauft und so fehlt es einem da an langem Atem auch mal schlechtere Entwicklungen wegzustecken (die NVIDIA mit Thermi & Co ja durchaus auch hatte). Wobei man inzwischen AMD und NVIDIA vielleicht auch gar nicht mehr richtig vergleichen kann. NVIDIA ist ziemlich GPU only während AMD noch CPUs und den Semi-Custom-Bereich mitschleppt den NVIDIA in der Form nicht als Klotz am Bein hat. Ist halt alles irgendwie nicht so einfach, aber einer Monopolbildung sollte man immer misstrauisch gegenübertreten...

Platos
2018-08-16, 13:52:55
Frage: Ich habe die Präsentationen nicht mitgeschaut, aber in welchen Auflösugnen wurden diese Raytracing-Demos denn eigentlich gerendert? Und welche Framerate?

@Troyan: Es wird eher Zeit, dass ein 3. Konkurrent (Intel) endlich in den Markt einsteigt und (hoffentlich) mal etwas nvdida "aufmischt" (über längere Sicht, natürlich nicht in der 1. Gen). Bessere Preise wären auch was, wobei nvidida doch immer "ein bisschen" was an Mehrperfomance liefert, nur eben lassen sie es sich auch bezahlen.

Bucklew
2018-08-16, 13:59:24
@Troyan: Es wird eher Zeit, dass ein 3. Konkurrent (Intel) endlich in den Markt einsteigt und (hoffentlich) mal etwas nvdida "aufmischt" (über längere Sicht, natürlich nicht in der 1. Gen). Bessere Preise wären auch was, wobei nvidida doch immer "ein bisschen" was an Mehrperfomance liefert, nur eben lassen sie es sich auch bezahlen.
Wo genau muss NVIDIA aufgemischt werden?

Sie haben ja nun ziemlich eindeutig gezeigt, dass sie mitnichten die Entwicklung einstellen oder drosseln, sondern im Gegenteil sogar ohne Konkurrenz durch AMD richtige Innovationen abliefern.

Platos
2018-08-16, 14:01:21
Hast du überhaupt gelesen, was ich geschrieben habe ? Genau das sage ich doch, nur liefern sie das ganze nicht so günstig, wie sie es würden, wenn Konkurrenz da wäre.

Bucklew
2018-08-16, 14:02:44
Hast du überhaupt gelesen, was ich geschrieben habe ? Genau das sage ich doch, nur liefern sie das ganze nicht so günstig, wie sie es würden, wenn Konkurrenz da wäre.
Was kostet die neue GeForce denn? Nenne doch mal bitte den Europreis.

Käsetoast
2018-08-16, 14:04:18
@Bucklew:
NVIDIA muss aufgemischt werden um keinen Monopolstatus zu kriegen. Jetzt wo AMD leider ihre Ressourcen in Richtung CPU abzieht steht NVIDIA ziemlich alleine da. Das Intel kommt ist zwar schön, aber inwiefern die den Knowhowrückstand aufholen können weiß ich nicht. Ich hoffe das wird nicht so ein Schnellschuss wie die ganzen "Knight" Karten mit ihren etlichen Mini-x86 Cores drauf. Da war Raytracing ja schon mal ein Thema für, aber so richtig überzeugend war's am Ende halt nicht und dann wurde alles eingestampft...

Troyan
2018-08-16, 14:04:25
Frage: Ich habe die Präsentationen nicht mitgeschaut, aber in welchen Auflösugnen wurden diese Raytracing-Demos denn eigentlich gerendert? Und welche Framerate?

Die Star Wars Demo läuft in 1080p+ mit 23FPS. Pica Pica läuft auf GV100 mit in 1080p@60FPS (sollte auf RTX6000 erheblich schneller sein).


@Troyan: Es wird eher Zeit, dass ein 3. Konkurrent (Intel) endlich in den Markt einsteigt und (hoffentlich) mal etwas nvdida "aufmischt" (über längere Sicht, natürlich nicht in der 1. Gen). Bessere Preise wären auch was, wobei nvidida doch immer "ein bisschen" was an Mehrperfomance liefert, nur eben lassen sie es sich auch bezahlen.

Naja. nVidia wird mit RT104 einen 500mm^2 Die für 600€+- verkaufen. Das klingt jetzt nicht überteuert... Ist der selbe Preis, den auch GT200 mit 570mm^2 vor 10 Jahre hatte...

dildo4u
2018-08-16, 14:05:46
NV baut wesentlich schlauer für den Mainstream User,es gibt auch bei den neuen Karten kein HBM2 was dem User nix bringt außer höhere Preise.

Bucklew
2018-08-16, 14:10:24
NVIDIA muss aufgemischt werden um keinen Monopolstatus zu kriegen. Jetzt wo AMD leider ihre Ressourcen in Richtung CPU abzieht steht NVIDIA ziemlich alleine da.
Na und?

Das Entwicklungstempo ist heute höher, als noch vor 5 oder 10 Jahren. Das ist doch offensichtlich.

Käsetoast
2018-08-16, 14:10:33
NV baut wesentlich schlauer für den Mainstream User,es gibt auch bei den neuen Karten kein HBM2 was dem User nix bringt außer höhere Preise.
Das hat aber mit schlauer nun wirklich nichts zu tun. AMD musste halt auf Jahre hinaus planen. Dann verzögerte sich HBM, dann wurde es teurer, dann blieb auch HBM2 hinter den ursprünglichen Erwartungen. AMD hat spekuliert und ist damit auf die Schnauze gefallen. Die Absicht HBM zu nutzen war deshalb aber nicht dumm. Nur lief da so ziemlich alles schief was schief gehen konnte was jedoch alles außerhalb von AMDs Einfluss war. Das sind halt Risiken der Branche. Genauso wie Intel derzeit kolossal bei der Fertigungstechnik versagt, nachdem sie jahrelang einen oft "alien technology" genannten Vorsprung hatten...

Na und?

Das Entwicklungstempo ist heute höher, als noch vor 5 oder 10 Jahren. Das ist doch offensichtlich.
Was hat das mit dem Thema Monopol zu tun? Außerdem würde ich eher sagen, dass der Entwicklungsaufwand heute höher ist als vor 10 Jahren und da hat eine Firma wie AMD die nicht nur mehrgleisig fährt sondern soviel Umsatz macht wie ihre Konkurrenten Gewinn es halt schwer. Das ist keine Kritik an NVIDIA aber es hat einfach nur Nachteile wenn die sich zum Monopol entwickeln. Das kann keiner wollen...

Freestaler
2018-08-16, 14:15:40
Die Aussagen, dass die mangelnde konkurrenz Technologie fördert, ist entgegen aller anderen Ansätze der ökonomie. Und auch hier vermutlich doch nicht korrekt. Den Raytracing bei Games ist meiner Meinung ökönomische wiederverwendung der bereits bezahlten rescourcen im Marktkampf der Professionellen lösungen. Nicht das fehlen der Gamer AMD Lösung, sondern die Marktpositionierung und bevorstehender Konkurrenz im Professionellen ( ua. Intel, bei AI/KI noch einige andere) Bereich ist der Grund für die weiterentwicklung und innovation.

PHuV
2018-08-16, 14:16:59
Das RT in Spielen ist doch nur ein nice to have Effekt bzw ein nettes Nebenprodukt. Nvidia geht es darum die CAD und Vfx Industrie für sich zu gewinnen und die Chancen dass das klappt stehen in meinen Augen extrem gut was nochmal gepusht wird durch AMD die bei den GPUs schwächeln und Intel die bei den CPUs schwächeln. Nvidia wird da riesig Asche machen mit dem ganzen Profi Zeug. Es ist einfach nur praktisch, dass wir Gamer da auch von profitieren - mehr nicht. Ich kann daher nicht verstehen wie einige Nvidia hier eine Art Fail zu unterstellen versuchen.
(y)

Und ich wette, die Industrie für CAD und CGI wird das Zeugs Nvidia aus den Händen reißen, gerade wo Zeit=Geld ist, z.B. Filmproduktionen etc. Wenn das so passiert, so wie Du sagst, ist das zwar für uns Gamer nicht das Keyfeature, wir werden davon aber ganz schnell und gut als Nebenprodukt profitieren.

Käsetoast
2018-08-16, 14:17:47
Die Aussagen, dass die mangelnde konkurrenz Technologie fördert, ist entgegen aller anderen Ansätze der ökonomie. Und auch hier vermutlich noch nicht korrekt. Den Raytracing bei Games ist meiner Meinung ökönomische wiederverwendung der bereits bezahlten rescourcen im Marktkampf der Professionellen lösungen. Nicht das fehlen der Gamer AMD Lösung, sondern die Marktpositionierung und bevorstehender Konkurrenz im Professionellen ( ua. Intel, bei AI/KI noch einige andere) Bereich ist der Grund für die weiterentwicklung und innovation.
Exakt! Das sehe ich genauso!

Bucklew
2018-08-16, 14:20:03
Was hat das mit dem Thema Monopol zu tun? Außerdem würde ich eher sagen, dass der Entwicklungsaufwand heute höher ist als vor 10 Jahren und da hat eine Firma wie AMD die nicht nur mehrgleisig fährt sondern soviel Umsatz macht wie ihre Konkurrenten Gewinn es halt schwer. Das ist keine Kritik an NVIDIA aber es hat einfach nur Nachteile wenn die sich zum Monopol entwickeln. Das kann keiner wollen...
Nenne doch bitte mal einen praktischen Nachteil, der heutigen Situation.

Trotz Monopol hat NVIDIA die besseren Grafikkarten zum günstigeren Preis. Vega war - angesichts dessen, was die Karten boten - schweineteuer. Nun kommt NVIDIA auch noch mit HW-Raytracing und DL-Einheiten im Chip und ihr heult immer noch rum, die würden ja die Entwicklung einbremsen.

Das ist doch einfach Blödsinn.

Troyan
2018-08-16, 14:21:30
Fortschritt entsteht auch, um "Race to the Bottom" entkommen zu können. Huang hat es doch mal so schön ausgedrückt: Hätte nVidia keine Pixel/Vertex-Shader erfunden, hätte am Ende jeder GPUs mit Fix-Function Blöcke bauen können.

Das ist doch auch der Grund, wieso AMD so wenig "Fix Function" Operationen in Spielen will. Recheneinheiten sind spottbillig und kann von jeder Firma eingebaut werden. Das hilft denen gegenüber nVidia. Je aufwendiger Funktionen in GPUs umgesetzt werden müssen (Front-End, Raytracing), umso schlechter steht AMD natürlich dar.

dildo4u
2018-08-16, 14:22:05
Das hat aber mit schlauer nun wirklich nichts zu tun. AMD musste halt auf Jahre hinaus planen. Dann verzögerte sich HBM, dann wurde es teurer, dann blieb auch HBM2 hinter den ursprünglichen Erwartungen. AMD hat spekuliert und ist damit auf die Schnauze gefallen. Die Absicht HBM zu nutzen war deshalb aber nicht dumm. Nur lief da so ziemlich alles schief was schief gehen konnte was jedoch alles außerhalb von AMDs Einfluss war. Das sind halt Risiken der Branche. Genauso wie Intel derzeit kolossal bei der Fertigungstechnik versagt, nachdem sie jahrelang einen oft "alien technology" genannten Vorsprung hatten...

Nvidia hatte die selben Infos wie AMD und entschieden das nur 3000€+ Karten HBM2 bekommen.Das ist schlauer.
Und HBM2 war nur minimal langsamer als geplant,die neue Workstation Vega hat endlich Ram den sie ursprünglich haben sollte,das hebt sie aber gerade mal auf Fury X Level.Einer GPU von 2015.

MiamiNice
2018-08-16, 14:24:13
@Bucklew:
NVIDIA muss aufgemischt werden um keinen Monopolstatus zu kriegen. Jetzt wo AMD leider ihre Ressourcen in Richtung CPU abzieht steht NVIDIA ziemlich alleine da. Das Intel kommt ist zwar schön, aber inwiefern die den Knowhowrückstand aufholen können weiß ich nicht. Ich hoffe das wird nicht so ein Schnellschuss wie die ganzen "Knight" Karten mit ihren etlichen Mini-x86 Cores drauf. Da war Raytracing ja schon mal ein Thema für, aber so richtig überzeugend war's am Ende halt nicht und dann wurde alles eingestampft...

Ich denke je weiter RT fortschreitet desto mehr werden die Karten neu gemischt. Intel wird zum Zug kommen, wir werden ein Revival von MGPU sehen (kaum was lässt sich besser parallelisieren als RT Berechnungen), AMD wird auch zum Zug kommen. Ich denke allerdings das sich Intel und NV den Markt aufteilen werden und AMD immer weiter an Bedeutung verliert (Intel und NV haben schon zu viel geforscht und AMD ist bekanntlich eher träger').

Wie gut brauchbar ist der RT Ansatz eigentlich für VR?



Trotz Monopol hat NVIDIA die besseren Grafikkarten zum günstigeren Preis. Vega war - angesichts dessen, was die Karten boten - schweineteuer. Nun kommt NVIDIA auch noch mit HW-Raytracing und DL-Einheiten im Chip und ihr heult immer noch rum, die würden ja die Entwicklung einbremsen.

Das ist doch einfach Blödsinn.

Das kann man eher AMD vorwerfen. Bulldozer any1?

Bucklew
2018-08-16, 14:27:39
Nvidia hatte die selben Infos wie AMD und entschieden das nur 3000€+ Karten HBM2 bekommen.Das ist schlauer.
Da gibt es mehr als einen Grund, warum NVIDIA das kann.

a) Die Effizienzsteigerungen auf Chipseite, um das PowerBudget für GDDR zu haben (Vega mit GDDR wäre ein absolutes Desaster)
b) Die Kompression auf dem Speicherbus, um mit weniger Bandbreite auszukommen
c) Der TBR, der den Punkten a) und b) hilft

Alles das ermöglicht es NVIDIA, auch mit deutlich mehr (Grafik-)Leistung als AMD bei der 1080Ti immer noch auf GDDR5x zu setzen.

wir werden ein Revival von MGPU sehen (kaum was lässt sich besser parallelisieren als RT Berechnungen)
Könnte man nicht sogar die zwei Blöcke in zwei Chips auf einer Karte packen? Also eine traditionelle GPU, wie bisher und daneben eine spezielle RT-GPU als CoProzessor.

Wäre halt die Frage, wie groß die Bandbreite zwischen diesen zwei Chips sein müsste. Aber per NVLink sollte das doch gehen?

Das kann man eher AMD vorwerfen. Bulldozer any1?
Komischerweise ist AMD vor solcher Kritik irgendwie sicher. Selbst wenn man zu Release von Vega über die UVP gelogen hat (https://wccftech.com/amds-rx-vega-64s-499-price-tag-was-a-launch-only-introductory-offer/).

Linmoum
2018-08-16, 14:32:12
Das kann man eher AMD vorwerfen. Bulldozer any1?
Nvidias tolle DX12-Leistungen any1? Das hätte der bisherigen Verbreitung (und ggf. Umsetzung) sicherlich keinen Abbruch getan, wo es doch für DXR sowieso Voraussetzung ist. ;)

Käsetoast
2018-08-16, 14:33:11
Nenne doch bitte mal einen praktischen Nachteil, der heutigen Situation.

Trotz Monopol hat NVIDIA die besseren Grafikkarten zum günstigeren Preis. Vega war - angesichts dessen, was die Karten boten - schweineteuer. Nun kommt NVIDIA auch noch mit HW-Raytracing und DL-Einheiten im Chip und ihr heult immer noch rum, die würden ja die Entwicklung einbremsen.

Das ist doch einfach Blödsinn.
Also ich kann eher deinen Standpunkt nicht nachvollziehen. Warum ist Vega denn so teuer? Er ist einfach relativ groß und HBM ist schweineteuer. Warum HBM so teuer ist werde ich hier jetzt nicht darlegen - da ist aufgrund der Gesamtsituation so und da hat AMD schlichtweg null Einfluss drauf. Da wurde so gesehen auf's falsche Pferd gesetzt aber nachher ist man immer schlauer...

Was ist denn das andere Problem? Vega heizt halt stark wegen der notwendigen Größe für die gebotene Leistung und kriegt dabei noch nicht mal die Rohleistung gut umgesetzt in Spielen. Das liegt zum einen daran, dass Vega so ein Mischmasch aus Compute und Gaming ist - in vielen Anwendungsbereichen kann aus der Rohleistung der Vega eben doch was gemacht werden und entsprechende GeForce Pendants werden zersägt von der Leistung her. Spielen nutzt viel von dieser Rohleistung aber nicht, weil sie nicht auf die Straße gebracht werden kann. Über Gründe kann man jetzt streiten. Treiber, Architektur, was auch immer...

Du möchtest einen praktischen Nachweis hören und verweist dabei auf Vega? Vega ist doch dein praktischer Nachweis. Das AMD die Vega Entwicklung auf Sparflamme gehalten hat um Ryzen zu pushen ist inzwischen doch eigentlich allgemein anerkannt. Mit mehr Aufwand hätte man den Verbrauch senken, die Leistung steigern können. War nicht drin - da fehlen AMD Ressourcen. Warum fehlen AMD Ressourcen? Weil sie ein gutes Produkt nicht in Geld umsetzen konnten - sowohl bei CPUs wie auch bei GPUs. Wenig Geld weil beim Marktführer gekauft wird (sei es Intel oder NVIDIA) = wenig Ressoucen. Wenig Ressourcen = schlechtes Produkt = wir brauchen mehr Fläche für gleiche Leistung = hoher Preis. Dazu noch HBM Fehlentscheidung = ein Produkt das so wie es jetzt verkauft wird relativ wenig Gewinn abwirft und trotz des aus AMDs Sicht günstigen Preises immer noch am Markt gemessen zu teuer ist...

Du fragst nach den Nachteilen der Situation? Die sind doch schon heute deutlich sichtbar und werden noch schlimmer werden mit stärkerem NVIDIA Monopol. Alternativ guck doch mal in die CPU Sparte wo AMD ein Glücksfall ereilt. Jetzt wo Ryzen da ist gibt es plötzlich CPUs mit mehr Leistung für im Vergleich Schnapperpreise. Schau dir gerade mal an was AMDs Epycs so bieten und zu welchem Preis. Plötzlich kriegt man da mehr für weniger seit Intel sich nicht mehr auf dem eigenen Kram ausruhen kann...

Nvidia hatte die selben Infos wie AMD und entschieden das nur 3000€+ Karten HBM2 bekommen.Das ist schlauer.
Und HBM2 war nur minimal langsamer als geplant,die neue Workstation Vega hat endlich Ram den sie ursprünglich haben sollte,das hebt sie aber gerade mal auf Fury X Level.Einer GPU von 2015.
Hast du dir aber mal die HBM2 Preise und Produktionskapazitäten angesehen? Das Zeug ist arschteuer und kaum verfügbar. Einer der Hauptgründe warum Vega so teuer ist...

Und die Entscheidung von NVIDIA war nicht schlauer. Nur rückblickend halt. Wäre HBM2 günstig und gut wäre HBM die bessere Wahl gewesen. Ist sie nur nicht geworden...

Was ansonsten die Vega Leistung angeht trifft da wieder das (zu) geringe AMD Budget zu, die ihre CPU Sparte pushen wollten / mussten. Eben mit ein Resultat der Monopolproblematik...

MiamiNice
2018-08-16, 14:39:25
Könnte man nicht sogar die zwei Blöcke in zwei Chips auf einer Karte packen? Also eine traditionelle GPU, wie bisher und daneben eine spezielle RT-GPU als CoProzessor.


Ich vermute man könnte für RT ähnliches wie den AMD Ryzen Ansatz verwenden. Also viele kleine, günstige herzustellende, Cores zusammen auf einer Karte mittelprächtig miteinander verbunden. Laut dem was ich über RT weiß, sollte das gehen. Dafür müssen die Spiele aber erstmal komplett auf RT umschenken, da vergeht sicher noch einiges an Zeit.

Troyan
2018-08-16, 14:40:08
Wie gut brauchbar ist der RT Ansatz eigentlich für VR?
?

VR Audio wird per Raytracing gemacht. VR Audio2 kommt nächste Woche mit der Vorstellung der Gaming-Karten - beschleunigt über RT Core.

dargo
2018-08-16, 14:43:00
Also ich kann eher deinen Standpunkt nicht nachvollziehen. Warum ist Vega denn so teuer?
Was habt ihr eigentlich mit eurem "teuer"? Hier haben offenbar manche den Markt immer noch nicht verstanden... Angebot und Nachfrage! Die Miner haben den gesamten Gamingmarkt quasi durcheinander geworfen. Dadurch wurde nicht nur Vega teurer. Für den Gamer sicherlich keine schöne Situation. Für AMD sicherlich keine schlechte Situation, schließlich wurde man die produzierten Grafikkarten ruck zuck los. Die offizielle UVP ist immer noch 399$ für RX56 und 499$ für RX64. Den Rest regelt der Markt wie man aktuell auch nach dem Abklingen vom Miningboom sieht.

Platos
2018-08-16, 14:43:10
Was kostet die neue GeForce denn? Nenne doch mal bitte den Europreis.

Natürlich weiss das niemand. Ich denke, du verstehst schon, dass die Preise ohne gute Konkurrenz höher sind. Niemals habe ich was von behauptet, dass nvidida keine guten Produkte liefert bzw. der Fortschritt von Gen. zu Gen. nicht gut wäre. Nur eben das P/L steigt nicht so, wie es die absolute Leistung tut. Die Karten werden besser, aber der Preis wird ein bisschen höher.

Fazit: Ohne Konkurrenz gibts höhere Preise. Die Argumentation, dass es bei nviddia billiger als bei AMD ist, widerlegt das nicht. Wäre AMD eine Konkurenz, dann wären die Preise in beiden Lagern günstiger.

Die Star Wars Demo läuft in 1080p+ mit 23FPS. Pica Pica läuft auf GV100 mit in 1080p@60FPS (sollte auf RTX6000 erheblich schneller sein).




Ok, und die Star Wars Demo lief mit der GV 100 oder auf einer der neuen Quadros ? (sorry, habs nicht mitverfolgt) Weil ich mit einem 4K Monitor kann davon dann (in absehbarer Zeit) nicht sonderlich Profitieren (Ausser 5 FPS oder so).

Ich denke je weiter RT fortschreitet desto mehr werden die Karten neu gemischt. Intel wird zum Zug kommen, wir werden ein Revival von MGPU sehen (kaum was lässt sich besser parallelisieren als RT Berechnungen), AMD wird auch zum Zug kommen. Ich denke allerdings das sich Intel und NV den Markt aufteilen werden und AMD immer weiter an Bedeutung verliert (Intel und NV haben schon zu viel geforscht und AMD ist bekanntlich eher träger').





Naja, wenn Intel ja 2020 kommt, ist hald die Frage, was sie bringen. Wenn/Falls RT wirklich ein Kaufgrund wird in ~2021 (auch wenn es nur 2-3 AAA Titel sind), dann hat Intel nochmal zusätzlich einen Nachteil. Sie müssen ja jetzt schon technologisch aufholen. Und ich denke nicht, das AMD ganz abstirbt, wenn Intel gut liefern Kann. Weil AMD kann bis zur GTX 1060 Perfomance eigentlich ganz gut liefern (wären da nicht so hohe Preise wegen Mining gewesen). Und auch bis zur GTX 1070, wären die Preise mangels Verfügbarkeit nicht so hoch gewesen. Das Reicht eigentlich, um im Markt präsent zu sein.

Bucklew
2018-08-16, 14:43:43
Du möchtest einen praktischen Nachweis hören und verweist dabei auf Vega? Vega ist doch dein praktischer Nachweis. Das AMD die Vega Entwicklung auf Sparflamme gehalten hat um Ryzen zu pushen ist inzwischen doch eigentlich allgemein anerkannt.
Das ist aber AMDs Problem.

Was hat NVIDIA damit zu tun? Nichts.

Und die Entscheidung von NVIDIA war nicht schlauer. Nur rückblickend halt. Wäre HBM2 günstig und gut wäre HBM die bessere Wahl gewesen. Ist sie nur nicht geworden...
Die Entscheidung war schlau, weil NVIDIA bewusst war, dass HBM im Consumerbereich erstmal ne richtig blöde Idee ist.

Natürlich weiss das niemand.
Na dann warte doch vielleicht erstmal ab :ugly:

Fazit: Ohne Konkurrenz gibts höhere Preise. Die Argumentation, dass es bei nviddia billiger als bei AMD ist, widerlegt das nicht. Wäre AMD eine Konkurenz, dann wären die Preise in beiden Lagern günstiger.
Wo war denn Vega für 599US$ eine preisgünstige Alternative?

Die offizielle UVP ist immer noch 399$ für RX56 und 499$ für RX64.
Das war doch gelogen, wie bereits belegt:
https://wccftech.com/amds-rx-vega-64s-499-price-tag-was-a-launch-only-introductory-offer/

Platos
2018-08-16, 14:47:55
Wo war denn Vega für 599US$ eine preisgünstige Alternative?

[/URL]

WTF ?? Wo rede ich von Alternative? Ich habe gesagt, mit Konkurrenz wären die Preise günstiger. Ich habe nie was davon gesagt, bei AMD wäre die gleiche Leistung günstiger zu haben.

@ Dargo: Offiziell oder nicht, hat nichts zu bedeuten, wenn die Preise damals weit weg davon waren. Pech ist das eher, ändert aber nichts an der Situation für alel Kunden, die nicht auf Mining setzen.

Edit: Abgesehen davon: Woher die Annahme, dass es bei Vega den Minern geschuldet war? Gibts da auch Fakten, die belegen, dass da grosse Stückzahlen an Miner gingen? Mangel an Stückzahlen wäre da genau so gut möglich.

Bucklew
2018-08-16, 14:50:36
WTF ?? Wo rede ich von Alternative? Ich habe gesagt, mit Konkurrenz wären die Preise günstiger. Ich habe nie was davon gesagt, bei AMD wäre die gleiche Leistung günstiger zu haben.
Nochmal: Die Konkurrenz ruft höhere Preise auf, als NVIDIA.

Wo ist da bitte der Vorteil von Konkurrenz? Erläutere das doch mal bitte.

MiamiNice
2018-08-16, 14:53:33
WTF ?? Wo rede ich von Alternative? Ich habe gesagt, mit Konkurrenz wären die Preise günstiger. Ich habe nie was davon gesagt, bei AMD wäre die gleiche Leistung günstiger zu haben.


Vielleicht wären die Karten vom AMD ähnlich teuer? So lange man nicht weiß was die Karten kosten (Research, Herstellung etc.) ist die Aussage doch nur -> Glaskugel.
Hat Intel sich großartig preislich bewegt wegen Ryzen?

Platos
2018-08-16, 14:55:00
Oh mein Gott, komm, stell dich nicht blöder an, als du bist. AMD zählt nicht mehr als Konkurrenz im Grafikakrtenmarkt atm. Ich rede (logischerweise) von einem richtigen (starken) konkurrenten.

(Was ich btw. auch mind. einmal erwähnt habe).

Ich zitiere mich mal selbst: "Ich denke, du verstehst schon, dass die Preise ohne gute Konkurrenz höher sind"

Vielleicht wären die Karten vom AMD ähnlich teuer? So lange man nicht weiß was die Karten kosten (Research, Herstellung etc.) ist die Aussage doch nur -> Glaskugel.
Hat Intel sich großartig preislich bewegt wegen Ryzen?

Ähh ja, hat Intel ? Sieh dir doch mal die Preise an. Früher 4 Core für das Geld, was heute ein 6 Core kostet. Also ja, hat sich geändert.

Und nein, ist keine Glaskugel. Das ist simple Marktwirtschaft (sofern's keine Kartelle gibt)

Käsetoast
2018-08-16, 14:55:05
Das ist aber AMDs Problem.

Was hat NVIDIA damit zu tun? Nichts.
Hä? :confused:
Also entweder reden wir total aneinander vorbei oder ich verstehe deine Ansichten da überhaupt nicht. Leute kaufen auch dann immer noch vermehrt ein Produkt von Intel / NVIDIA wenn AMD was besseres hat. Natürlich zwingt NVIDIA die Leute da nicht zu, aber das ist nunmal faktisch so. Im Falle von AMD ist das halt der Grund warum es denen einfach an finanziellen Mitteln mangelt (und Sachen wie die Strafzahlung von Intel wegen unlauterem Wettbewerb war ja auch ein Witz gegenüber den Einnahmen, die denen tatsächlich entgangen sind bzw. gegenüber dem langfristigen Schaden durch die schwächere Stellung am Markt und im Kopf der Kunden die ja mit den Strafzahlungen nicht aus den Köpfen gelöscht wurde)...

Deswegen haben wir in letzter Zeit nur noch bedingt überzeugende AMD GPUs. Wenn du das nicht sehen kannst weiß ich auch nicht was ich dazu noch sagen soll...

Die Entscheidung war schlau, weil NVIDIA bewusst war, dass HBM im Consumerbereich erstmal ne richtig blöde Idee ist.
Also so ist das doch auch wieder verzerrend dargestellt. Das war eine Entscheidung, die über wie viele Jahre im Voraus getroffen werden musste? So einige. Da konnte auch ein NVIDIA schlichtweg nicht bewusst sein was eine blöde Idee ist und was nicht. Weil wenn dem so wäre hätte ich von denen gerne eine Vorhersage für den Eurojackpot in 5 Jahren und dann setze ich mich zur Ruhe...

Sorry, aber NVIDIA konnte nicht wissen was das mit HBM für Probleme geben wird, weil das schlichtweg niemand wusste, weil man das nicht wissen konnte. Nicht mal mit Raytracing betriebener Glaskugel... ;D

Ich kann dir aber auch anders herum ein Argument bieten: Warum war HBM für AMD so wichtig? Weil sie die Bandbreite brauchten. Was war da mit ein Grund dafür? Sie hatten eben nicht so weit fortgeschrittene Komprimierungs- und Recheneinsparungstechniken wie NVIDIA. Jetzt darfst du dreimal raten was mit dafür verantwortlich war, dass man auf diesen Gebieten so stark zurückhängt... :D

Dural
2018-08-16, 14:58:37
Ihr immer mit eurem AMD, AMD muss mal schauen das es ihre GPU Abteilung in ein paar Jahren überhaupt noch gibt. ;)

Intel ist schon kräftig die Werbetrommel für GPUs ab 2020 am rühren. :rolleyes:

Es könnte ab 2020 sehr interessant werden, leider ist das Game für NV ziemlich unfair da sie keine CPUs haben und Intel dies in der Vergangenheit massiv bekämpft hat (keine x86 Lizenz) und es ihnen nur so recht ist das NV keine CPUs hat.

Gut ab 2020 könnten ARM auch schon wirklich viel Leistung haben.


@Käsetoast
Klar wusste das NV, es wusste jeder, auch AMD! AMD musste aber HBM bringen wegen denn Defizite in ihrer Architektur und weil es natürlich interessant ist für ihre SoC, so einfach ist es ;)

Käsetoast
2018-08-16, 15:02:56
Intel ist schon kräftig die Werbetrommel für GPUs ab 2020 am rühren. :rolleyes:
Aber weißt du denn auch schon, ob die damit überhaupt in den Gaming Markt gehen? :tongue:

Das könnte auch nur Konkurrenz für den Quadro RTX Bereich werden und wie gesagt bleibt es abzuwarten ob selbst ein Riese wie Intel einen Jahrzehntsrückstand in GPU Know How als Newcomer einfach mal so eben wettmachen kann. Da zweifel ich nämlich noch dran. Auch wenn die sich Leute von AMD & Co ins Boot holen...

@Käsetoast
Klar wusste das NV, es wusste jeder, auch AMD! AMD musste aber HBM bringen wegen denn Defizite in ihrer Architektur und weil es natürlich interessant ist für ihre SoC, so einfach ist es ;)
Also jeder wusste, dass HBM sich hoffunngslos verzögert, völlig überteuert produziert werden würde und das ganze durch eine Speicherkrise dann zu absurden Preisen bei minimaler Produktionsmengen noch auf die Spitze getrieben wird? Tut mir leid - das ist unglaubwürdig. Mit einem der Punkte hätte man vielleicht rechnen können - aber mit allen drei? Wenn das alles so offensichtlich wäre, hätten nicht nur AMD sondern auch die Speicherhersteller ganz anders agiert...

Warum für AMD HBM so nützlich ist da stimmen wir aber ja überein und gerade bei den APUs sehe ich da immer noch einen gigantischen Vorteil für AMD. APUs mit HBM als Speicher für die Grafikeinheit würde einfach mal sämtliche unteren Mittelklasse Grafikkarten überflüssig machen...

dargo
2018-08-16, 15:05:44
Intel ist schon kräftig die Werbetrommel für GPUs ab 2020 am rühren. :rolleyes:

Es könnte ab 2020 sehr interessant werden, leider ist das Game für NV ziemlich unfair da sie keine CPUs haben und Intel dies in der Vergangenheit massiv bekämpft hat (keine x86 Lizenz) und es ihnen nur so recht ist das NV keine CPUs hat.

Warum sollte das Intel interessieren? ;) Vielleicht gibts in 10-15 Jahren kein Nvidia mehr. Stichwort APUs. :D

Dural
2018-08-16, 15:07:04
Wie so verkauft NV und AMD Gaming Chips? Weil sie es können ;)

Wie so sollte man eine komplette GPU Architektur entwickeln und diese dann zb. nur in die Server zu schmeissen? Es macht schlicht keinen sinn, und man wird schauen das man mit den GPUs alle Bereiche möglichst gut abdecken kann.

@Käsetoast
Jeder wusste das HBM für Gaming Produkte am Anfang schlicht zu teuer ist, NV hat das vor Jahren schon in einer Präsentation gesagt!

MiamiNice
2018-08-16, 15:11:38
Ähh ja, hat Intel ? Sieh dir doch mal die Preise an. Früher 4 Core für das Geld, was heute ein 6 Core kostet. Also ja, hat sich geändert.

Und nein, ist keine Glaskugel. Das ist simple Marktwirtschaft (sofern's keine Kartelle gibt)

Da hast Du recht allerdings sind die Preise für die Modellreihen ziemlich gleich geblieben. Ein 9900k wird wahrscheinlich 450€ kosten und zu Release mit Deppenaufschlag um 500€. Das sind genau die Preise die Intel immer nimmt. Klar gibt es jetzt 4 Kerne mehr zu dem Preis, das ist aber dem normalen Fortschritt geschuldet den es die letzten 10 Jahre aufgrund von Bulli nicht gegeben hat.
Das Preisgefüge an sich hat sich kaum geändert, trotz Konkurrenz.

Troyan
2018-08-16, 15:11:56
Ok, und die Star Wars Demo lief mit der GV 100 oder auf einer der neuen Quadros ? (sorry, habs nicht mitverfolgt) Weil ich mit einem 4K Monitor kann davon dann (in absehbarer Zeit) nicht sonderlich Profitieren (Ausser 5 FPS oder so).


Die Star Wars Demo läuft mit einer Turing Karte.

Käsetoast
2018-08-16, 15:13:53
Wie so sollte man eine komplette GPU Architektur entwickeln und diese dann zb. nur in die Server zu schmeissen? Es macht schlicht keinen sinn, und man wird schauen das man mit den GPUs alle Bereiche möglichst gut abdecken kann.
Vielleicht mal anders herum gesagt: Wenn du an Computer in allen Formen und Größen denkst würdest du jemals auch nur Ansatzweise auf die Idee kommen irgendwo mal eine Via CPU zu verbauen? Die gibt es schließlich immer noch, auch wenn die sehr speziell geworden sind...

Gerade bei so Consumer Hardware hat man es als Newcomer schwer. Nun hat Intel zwar schon einen großen Namen, aber ich glaube der große Wurf würde ihnen bei Consumer Grafikkarten nicht blühen. Ich denke die werden in erster Instanz den Weg gehen, den NVIDIA jetzt gerade mit RTX einschlägt was eben auch den Vorteil hat, dass dort richtig Geld zu machen ist. An Consumer Grafikkarten glaube ich wenn dann erst sehr viel später wenn man sich im Profi Bereich einen Namen gemacht hat - bis dahin will man sich sicher so viele Dies wie möglich im Profi Segment versilbern lassen...

@Käsetoast
Jeder wusste das HBM für Gaming Produkte am Anfang schlicht zu teuer ist, NV hat das vor Jahren schon in einer Präsentation gesagt!
Und alle Karten von AMD nutzen jetzt ausschließlich HBM? Nicht vergessen Vega ist AMDs Profi Computing Chip, der eben auch für's Gaming verwurstet wurde, dort aber eben alles andere als brilliert. Das klang jetzt eben so als würde AMD nur noch HBM für alles benutzen was so ja nicht stimmt. Es fehlte halt das Geld für einen anderen Chip oder einen Vega mit GDDR Controller, was aber wohl aus Verbrauchssicht eine Katastrophe gewesen wäre...

Dural
2018-08-16, 15:14:30
Noch Fragen? ;)

https://twitter.com/IntelGraphics?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1029792940648 878080&ref_url=https%3A%2F%2Fwww.computerbase.de%2F2018-06%2Fintel-erste-diskrete-gpu-2020%2F

Platos
2018-08-16, 15:21:32
Da hast Du recht allerdings sind die Preise für die Modellreihen ziemlich gleich geblieben. Ein 9900k wird wahrscheinlich 450€ kosten und zu Release mit Deppenaufschlag um 500€. Das sind genau die Preise die Intel immer nimmt. Klar gibt es jetzt 4 Kerne mehr zu dem Preis, das ist aber dem normalen Fortschritt geschuldet den es die letzten 10 Jahre aufgrund von Bulli nicht gegeben hat.
Das Preisgefüge an sich hat sich kaum geändert, trotz Konkurrenz.

Die Modellreihen sind ja nur Namen. Es geht um das P/L.

Aber an dem Punkt kann man nur noch spekulieren. Das Intel 6 Cores "frewillig" (auch ohne Zen) bei Coffe lake gebracht hätte, bezweifle ich. Kann ich/man aber nicht beweisen, das selbe gilt aber natürlich für den anderen Fall. Und Dinge wie Skylake X beweisen doch, dass diese hohe Anzahl an Kernen nicht schon seit laaangem geplant waren für diesen Zeitpunkt.

Aber das ist jetzt alles OT langsam

Die Star Wars Demo läuft mit einer Turing Karte.

Ja eben, lol. An 4K @60 FPS muss man dann ja nicht einmal denken in den nächsten 2-3 Generationen. Wobei man muss es ja auch nicht so "hochwertig" machen. Gibt dann natürlich sicher auch Einstellungsmöglichkeiten von Low zu Ultra ect.

Käsetoast
2018-08-16, 15:28:33
Wobei man muss es ja auch nicht so "hochwertig" machen. Gibt dann natürlich sicher auch Einstellungsmöglichkeiten von Low zu Ultra ect.
Die Fragestellung finde ich eigentlich ganz interessant: Inwiefern lässt sich bei Raytracing die Qualität / der Aufwand reduzieren für mehr Leistung? Ich glaube fast das geht nur sehr begrenzt, weil im Prinzip läuft der Effekt entweder gut oder einfach nicht. Außer an der Anzahl der Rays lässt sich an der Qualität aber ja gar nichts regeln (evtl. noch Anzahl der Bounces aber das hat dann ja eine ähnliche Auswirkung) und ich denke wenn man die Zahl der Rays einfach runtersetzt bekommt man nur noch Flächen die Rauschen wie ein Schneerauschen-Störbild beim analogen Fernsehen... ;)

So kann man mit RT die Qualität vielleicht gar nicht mehr runter setzen für mehr Leistung, weil man dann kein qualitativ schlechteres Bild kriegt, sondern ein "fehlerhaftes" Bild das total rauscht oder ansonsten einfach eine fehlerhafte Darstellung hat...

EinName
2018-08-16, 15:33:51
...Könnte man nicht sogar die zwei Blöcke in zwei Chips auf einer Karte packen? Also eine traditionelle GPU, wie bisher und daneben eine spezielle RT-GPU als CoProzessor.

Wäre halt die Frage, wie groß die Bandbreite zwischen diesen zwei Chips sein müsste. Aber per NVLink sollte das doch gehen?
...

Die Idee finde ich interessant. Wäre zwar wie ein PhysX-karten Revivial, würde aber Sinn machen wenn es technologisch irgendwie geht. Eine Karte mit viel normaler Rechenpower für WQHD/UHD und eine Karte nur voller RT Cores. Kennt jemand das Zeug gut genug um die Möglichkeit bewerten zu können?

Bucklew
2018-08-16, 15:40:26
Oh mein Gott, komm, stell dich nicht blöder an, als du bist. AMD zählt nicht mehr als Konkurrenz im Grafikakrtenmarkt atm. Ich rede (logischerweise) von einem richtigen (starken) konkurrenten.
Der Einzige, der sich blöd anstellt, bist gerade offensichtlich du.

Warum sollte AMD nicht als Konkurrenz zählen? Sie sind nun mal Konkurrent und eigentlich (!) müssten Sie eine Karte wie z.B. Vega deutlich günstiger anbieten. Statt dessen machen sie die aber teurer.

Dann sollte man nicht mehr vom Preistreiber NVIDIA sprechen, sondern eher vom Preistreiber AMD.

Und es zeigt eben, dass Konkurrenz mitnichten den Preis senkt.

Also entweder reden wir total aneinander vorbei oder ich verstehe deine Ansichten da überhaupt nicht. Leute kaufen auch dann immer noch vermehrt ein Produkt von Intel / NVIDIA wenn AMD was besseres hat. Natürlich zwingt NVIDIA die Leute da nicht zu, aber das ist nunmal faktisch so.
Wann hatte AMD denn mal was Besseres als NVIDIA?

Und komm bitte nicht mit "Wenn man Punkt X, Y und Z ignoriert, dann war AMD da fast auf Augenhöhe". Ich meine, dass das Produkt INSGESAMT besser war, als was NVIDIA im Petto hatte.

Da darfst du sehr lange suchen.

Deswegen haben wir in letzter Zeit nur noch bedingt überzeugende AMD GPUs. Wenn du das nicht sehen kannst weiß ich auch nicht was ich dazu noch sagen soll...
Dann sollte man sich also an AMD wenden, warum die es nicht hinkriegen Konkurrenzfähige Produkte auf den Markt bringen. Und nicht über NVIDIA, die genau das tun: Neue, überzeugende Produkte auf den Markt bringen.

Sorry, aber NVIDIA konnte nicht wissen was das mit HBM für Probleme geben wird, weil das schlichtweg niemand wusste, weil man das nicht wissen konnte. Nicht mal mit Raytracing betriebener Glaskugel...
Ich denke jeder in der Industrie konnte sich dieses Problem ausmalen. Ein solche radikaler Schritt ist immer mit einem hohen Preis verbunden und es sind ja nicht nur GPUs, die HBM nutzen können. Man konkurriert auch mit vielen margenträchtigen Produkten, die viel höhere Preise zahlen können, z.B. FPGAs.

Ich kann dir aber auch anders herum ein Argument bieten: Warum war HBM für AMD so wichtig? Weil sie die Bandbreite brauchten. Was war da mit ein Grund dafür? Sie hatten eben nicht so weit fortgeschrittene Komprimierungs- und Recheneinsparungstechniken wie NVIDIA. Jetzt darfst du dreimal raten was mit dafür verantwortlich war, dass man auf diesen Gebieten so stark zurückhängt...
Der fehlende Tegra :)

Und Anderem deshalb, weil man vor einiger Zeit die komplette Mobilesparte auf Qualcomm verticket hat.

Das sind eben diese ganzen großspurigen AMD-Managementfehler, weswegen man da nie die Nummer 1 sein wird. Man schießt sich ständig selbst ins Knie.

Aber nochmal: Das ist nicht die Schuld von NVIDIA, dass sich AMD blöd anstellt.

Die Fragestellung finde ich eigentlich ganz interessant: Inwiefern lässt sich bei Raytracing die Qualität / der Aufwand reduzieren für mehr Leistung?
Lässt sich genauso reduzieren wie überall. Man kann die Menge der Rays reduzieren, man kann die Anzahl der Bounces reduzieren und natürlich auch diverse andere Abbruchbedingungen. Ein Strahl, der z.B. nur noch 1% Leuchtkraft hat nachdem er reflektiert wurde, muss sicherlich nicht unbedingt weiter verfolgt werden.

MiamiNice
2018-08-16, 15:41:20
Die Idee finde ich interessant. Wäre zwar wie ein PhysX-karten Revivial, würde aber Sinn machen wenn es technologisch irgendwie geht. Eine Karte mit viel normaler Rechenpower für WQHD/UHD und eine Karte nur voller RT Cores. Kennt jemand das Zeug gut genug um die Möglichkeit bewerten zu können?

Ich habe zumindest gelesen das unter RT das Bild dynamisch auf RT Cores aufgeteilt werden kann, wenn wir später bei RT only sind. Selbst die Anbindung der einzelnen Cores untereinander soll nicht so wichtig sein, da jeder Bildausschnitt autark berechnet werden kann. Also ist es wohl durchaus sinnvoll später eine Menge kleiner RT Cores auf eine Karte zu packen (Produktionskosten siehe Ryzen). Reicht die Karte nicht -> kauft man eine zweite, dritte, vierte, fünfte ... - kein Problem da RT Berechnungen quasi perfekt parallelisierbar sind.
Der Witz soll sogar sein das man Karten mit beispielsweise 32, 64, 128 RT Cores bunt mischen können wird. Das Bild wird dann dynamisch über die Anzahl der Cores verteilt/zerteilt und berechnet.

Man korrigiere mich wenn ich falsch liege.

So könnte es dann mal in ferner Zukunft aussehen.

Platos
2018-08-16, 15:43:12
@ Käsetoast. Hmm, ja das könnte durchaus sein, da bin ich aber überfragt. Aber vlt. nicht man dieses Rauschen ja (in geringem) Masse dann in Kauf. Der Unterschied zwischen low und ultra ist dann vlt. einfach eher gering, aber keine Ahnung, müsste sich mal jemand äussern, der da mehr Wissen hat (als ich).
Die Texturen auf Low sehen doch auch grottenschlecht aus. Ich würde das auch schon als Bildfehler bezeichnen;D Und das Rauschen kann man ja dann der Auflösung anpassen. Ich weiss ja nicht, aber ganz wenig auf einer Auflösugn von "nur" FullHD wäre ja vlt. gar nicht bemerkbar.

Oder vlt. in Form von renderdistance ???
Der Einzige, der sich blöd anstellt, bist gerade offensichtlich du.

Warum sollte AMD nicht als Konkurrenz zählen? Sie sind nun mal Konkurrent und eigentlich (!) müssten Sie eine Karte wie z.B. Vega deutlich günstiger anbieten. Statt dessen machen sie die aber teurer.

Dann sollte man nicht mehr vom Preistreiber NVIDIA sprechen, sondern eher vom Preistreiber AMD.

Und es zeigt eben, dass Konkurrenz mitnichten den Preis senkt.




An dieser Stelle erwähne ich genau noch einmal, dass ich hier von guter Konkurrenz spreche. Also ein "würdiger" Gegner. Somti habe ich dir das schon zum 3. Mal gesagt. Wenn du das nicht verstehen willst (du verstehst es nämlich schon), dann endet die Diskussion hier für mich.

MasterElwood
2018-08-16, 15:43:35
Also ein Bild in 1080pRT hochskaliert auf 4K wird immer noch 10x besser aussehen als ein normales 2160p - noch dazu wo ja bei RT quasi perfektes AA eingebaut ist.

Kartenlehrling
2018-08-16, 15:45:08
Auf der Game Developers Conference hat Epic zusammen mit Nvidia und ILMxLAB zum ersten Mal Echtzeit-Raytracing mit der Unreal Engine 4 demonstriert.
Die experimentelle Reflections-Demo nutzt Star-Wars-Charaktere von The Force Awakens und The Last Jedi.
Berechnet wird die Techdemo von Volta-GPUs (genauer: über die Nvidia DGX Station mit 4x Tesla V100) über RTX bzw. DXR. I



Auf GDC Messe haben sie die Zukunft gezeigt mit "heutiger" Technik ... 4x Tesla V100, also 4x 5000€ und
keine 6 Monate später präsentieren sie eine RTX 6000 die diese Leistung "annährend schaft,
für einen viel viel geringeren Preis.
Das war Marketingtechnisch ganz grosses Kino, besser kann man Werbung nicht schreiben,
fehlt nur der Colatransportfahrer der eine Pepsi trinkt und es als das besser Getränk bezeichnet. :tongue:

Witzig ist das sie das schon zum zweiten mal abziehen, bei der Square Enix Tech-Demo WITCH CHAPTER 0 und nun bei Starwars Epic.

Bucklew
2018-08-16, 15:46:08
Ich habe zumindest gelesen das unter RT das Bild dynamisch auf RT Cores aufgeteilt werden kann, wenn wir später bei RT only sind. Selbst die Anbindung der einzelnen Cores untereinander soll nicht so wichtig sein, da jeder Bildausschnitt autark berechnet werden kann. Also ist es wohl durchaus sinnvoll später eine Menge kleiner RT Cores auf eine Karte zu packen (Produktionskosten siehe Ryzen). Reicht die Karte nicht -> kauft man eine zweite, dritte, vierte, fünfte ...
Der Witz soll sogar sein das man Karten mit beispielsweise 32, 64, 128 RT Cores bunt mischen können wird. Das Bild wird dann dynamisch über die Anzahl der Cores verteilt und berechnet.
Man müsste eben nur ein Protokoll haben, um die aus einem Bildabschnitt heraus tretenden Strahlen an den passenden Core, der den neuen Bildabschnitt berechnet, weiter geben zu können.

Das sollte aber relativ sparsam in Sachen Bandbreite vonstatten gehen.

Käsetoast
2018-08-16, 15:48:58
Wann hatte AMD denn mal was Besseres als NVIDIA?
Da fällt dir wirklich nichts ein? Nichtmal Zustände wie zu Zeiten von NVIDIAs unsäglicher FX5000er Serie? Radeon 9800?

Lässt sich genauso reduzieren wie überall. Man kann die Menge der Rays reduzieren, man kann die Anzahl der Bounces reduzieren und natürlich auch diverse andere Abbruchbedingungen. Ein Strahl, der z.B. nur noch 1% Leuchtkraft hat nachdem er reflektiert wurde, muss sicherlich nicht unbedingt weiter verfolgt werden.
Ich meine ich habe selber schon mit Sachen wie Truespace, Lightwave, Blende & Co hantiert und wenn man da zu wenig reinsteckt wird das so grieselig, dass es einfach hässlich wird. Bei so einer Echtzeitdarstellung mit zig Frames pro Sekunde stelle ich mir das halt so vor, dass die Fläschen dann auch noch Denoising rauschen wie Hölle oder Reflektionen halt wie beim alten Z-Buffer-Fighting flackern wie irre weil mal wird die eine Fläche noch reflektiert, im nächsten Frame fällt da vielleicht wieder was unter den Tisch. Ich glaube nicht, dass das so einfach geht wie mal den Detailgrad einer Textur runterdrehen, sondern dass das schnell in Bereiche führt die einem in den Augen weh tun und extrem auffällig und störend sind. Aber ich kenne da eben nur die statische Rendering Seite - wäre mal interessant wie sich das beim Realtime mit Bewegtbildern auswirkt...

Platos
2018-08-16, 15:49:20
Ich habe zumindest gelesen das unter RT das Bild dynamisch auf RT Cores aufgeteilt werden kann, wenn wir später bei RT only sind. Selbst die Anbindung der einzelnen Cores untereinander soll nicht so wichtig sein, da jeder Bildausschnitt autark berechnet werden kann. Also ist es wohl durchaus sinnvoll später eine Menge kleiner RT Cores auf eine Karte zu packen (Produktionskosten siehe Ryzen). Reicht die Karte nicht -> kauft man eine zweite, dritte, vierte, fünfte ... - kein Problem da RT Berechnungen quasi perfekt parallelisierbar sind.
Der Witz soll sogar sein das man Karten mit beispielsweise 32, 64, 128 RT Cores bunt mischen können wird. Das Bild wird dann dynamisch über die Anzahl der Cores verteilt/zerteilt und berechnet.

Man korrigiere mich wenn ich falsch liege.

So könnte es dann mal in ferner Zukunft aussehen.

Wenn das so möglich ist, wäre ich dem nicht abgeneigt. Dann kann man die Leistung, die man eben haben will (fast) beliebig bekommen (Die Anzahl Steckplätze limiteren natürlich).

Wenn das dann vernünftig paralellisierbar ist. Die jetztige mGPU Situation würde ich z.B nicht gerade als funktionierend bezüglich frametimes bezeichnen (eig. war sie das noch nie) :biggrin:

Also ein Bild in 1080pRT hochskaliert auf 4K wird immer noch 10x besser aussehen als ein normales 2160p - noch dazu wo ja bei RT quasi perfektes AA eingebaut ist.

Naja, da will ich zuerst einmal ein Gameplayvideo sehen. Ich habe da vlt. ganz andere Ansprüche. Es gibt hier ja genügend Leute, die der Meinung sind, dass 4K völlig unnötig ist und man auch gar kein AA mehr braucht. Aber da bin ich dann eher der " ich will 8K mit AA"-Typ. Also mal sehen, ob das für mich auch gilt :D

Rampage 2
2018-08-16, 16:00:05
Es kann durchaus sein, dass die Geforcevarianten nicht den Vollausbau bekommen. Wäre ja nicht das erste Mal.

Darum geht es nicht; es geht darum ob der Gaming-GT102-Vollausbau anders angeordnet sein könnte, als der Vollausbau des HPC-Pendants. Etwa so (Beispiel Volta):

HPC-GV100 Vollausbau: 5376 SPs (7 SMX pro GPC, 42 SMs a 128 SPs pro SM)

fiktiver Gaming-GV102 Vollausbau: 6144 SPs (8 SMX pro GPC, 48 SMs a 128 SPs pro SM)


Inzwischen ist durch das Die Foto ja geklärt, dass der Vollausbau von GT102 4608 SPs hat.

siehe Beispiel oben;)



Pascal holt halt schon verdammt viel aus der Rohleistung. Eine deutliche Steigerung wie bei Maxwell ggü Kepler wird schwierig. Gesetz des sinkenden Grenzertrags. Ich würde eher auf 5-10% mehr Performance pro Rohleistung tippen mit Tendenz zu mehr in 2019/20.
Aber man hat mehr Einheiten und ggf. auch etwas mehr Takt.


Unabhängig davon wieviel Nutzen die Architekturverbesserungen letztendlich bringen, ist aber doch sicher wahrscheinlich, dass Turing/Volta mit deutlich größeren Architekturveränderungen einhergehen wird? Pascal war ja nur ein Zwischenschieber und brachte kaum Arch-Veränderungen ggü. Maxwell...


Ich habe keine Angaben zu den ROPs. So schnell werden ROPs aber nicht zum Flaschenhals, da sie die viele Dinge in sehr wenigen Taktzyklen schaffen. Die Berechnung von Quads in modernen Shaderpipelines sind schnell bei mehreren 100ern oder 1000en Takten.
Ich gehe mal davon aus, dass NV Turing ähnlich gut ausbalanciert, wie seine Vorgänger. Also ohne echte gravierende Flaschenhälse.


Mag sein, dass aktuelle NV-GPUs genug ROP-Power haben. Aber müsste/sollte der ROP-Throughput nicht analog/proportional mit der Bandbreite steigen? Wenn also die Bandbreite um n% erhöht wird, dann auch die ROP-Leistung ebenso um n% erhöht werden sollte...


Der Grundtakt bei Turing ist höher als bei Pascal IIRC. Kann also gut sein, dass man 5-10% mehr Takt erreicht.
GV100 erzielte trotz 12 nm und neuer mArch keine höheren Taktraten als GP102. Aber die Stichprobengröße war ja auch recht klein.
Also irgendwo zwischen 0-10% wird es sicherlich sein... IMO. Reine Spekulation.

GV100 war ja aber auch ein Monster-Chip, noch größer als GT102, noch mehr Fläche und für HPC-Anforderungen zugeschnitten - und trotzdem schafft die Titan V bis zu 2GHz Chiptakt.

Ich finde, dass bei Turing die Sache etwas anders aussieht - GT102 ist kleiner als GV100 und da bei Turing relativ zu Pascal die Anzahl der Einheiten nur wenig ansteigt, muss man naturgemäß die erwünschte Performance über den Takt rausholen... (oder über die Architektur - aber da lässt sich ja immer weniger rausholen...)

R2

Bucklew
2018-08-16, 16:00:59
Da fällt dir wirklich nichts ein? Nichtmal Zustände wie zu Zeiten von NVIDIAs unsäglicher FX5000er Serie? Radeon 9800?
Herrje, das ist jetzt wie lange her? 15 Jahre?

Als Reaktion hatte übrigens AMD einen höheren Markanteil als NVIDIA:
https://www.3dcenter.org/dateien/abbildungen/Add-in-Board-GPU-Market-Share-2002-to-Q4-2017.png

Es geht also sehr wohl. AMD müsste eben nur liefern. Was sie nicht tun.

Aber ich kenne da eben nur die statische Rendering Seite - wäre mal interessant wie sich das beim Realtime mit Bewegtbildern auswirkt...
Es hat eben seinen Grund, warum man bisher - außer in TechDemos - kein Raytracing hat.

Langsam hat man aber die Rechenleistung, um das zu liefern. Es wird auf jeden Fall spannend in den nächsten Jahren. Das ist sicher :up:

MasterElwood
2018-08-16, 16:13:20
Naja, da will ich zuerst einmal ein Gameplayvideo sehen. Ich habe da vlt. ganz andere Ansprüche. Es gibt hier ja genügend Leute, die der Meinung sind, dass 4K völlig unnötig ist und man auch gar kein AA mehr braucht. Aber da bin ich dann eher der " ich will 8K mit AA"-Typ. Also mal sehen, ob das für mich auch gilt :D

Hey - ich bin der ERSTE der schreit "mehr Auflösung"! Desswegen hab ich auch einen 40" 4K Monitor :-)

Aber man muss auch eingestehen dass heutzutage hochskalieren wirklich sehr sehr gut funktionieren KANN (bestes Beispiel: Sony TVs mit den X1 Pro und ultimate Prozessoren.)

KANN. Wird nur im PC Bereich viel zu Stiefmütterlich behandelt...

Käsetoast
2018-08-16, 16:26:44
Herrje, das ist jetzt wie lange her? 15 Jahre?

Als Reaktion hatte übrigens AMD einen höheren Markanteil als NVIDIA:
https://www.3dcenter.org/dateien/abbildungen/Add-in-Board-GPU-Market-Share-2002-to-Q4-2017.png

Es geht also sehr wohl. AMD müsste eben nur liefern. Was sie nicht tun.

Haben sie zwischenzeitlich auch getan:
https://www.computerbase.de/2012-09/test-nvidia-geforce-gtx-660/5/

Auf Augenhöhe mit NVIDIA bzw. beim Topmodell gleicht der Leistungsvorsprung der GTX 680 dem Preisunterschied und im MidRange Bereich bietet die 7870 mehr Leistung bei geringerem Preis. Rundum tolle Karten. Wie man deinem Diagramm entnehmen kann blieb der Marktanteil aber schlechter als zu Zeiten der aufgewärmten HD6000er Serie. Gutes Produkt, Verkauf schlechter als beim Vorgängerprodukt das nicht so gut darstand wie die 7000er Serie...

Was folgte war halt die Bulldozer Ära und dementsprechend dann auch die Stagnation von GCN wobei die R9 2xxer Serie nochmal ein guter Refresh war. Danach merkte man halt das sich nicht mehr allzu viel tat - AMD musste halt auf Sparflamme arbeiten...

Aber auch abseits davon gibt es noch Beispiele wo AMD voll auf Augenhöhe oder teils besser war, aber der Mensch ist halt ein Gewohnheitstier. Im Technologiesektor ist das eben ein Problem weil man ja ständig Geld für Know How nachbuttern muss und hat man einmal den Anschluss verloren sieht es recht düster aus...

PHuV
2018-08-16, 16:33:03
Was mich mal interessieren würde, wie flexibel die Tensor Einheiten überhaupt sind? Wenn ich das richtig verstehe, sind das an sich nichts weiter als entsprechend fähige Matrizen-Muliplizierer usw. D.h., klar, Deep Learing, KI-Anwendungen und Mustererkennungen, um beispielsweise Bilder zu rekonstruieren oder verbessern:

https://www.turn-on.de/tech/news/nvidia-ki-software-kann-bilder-taeuschend-echt-rekonstruieren-373098
https://www.turn-on.de/tech/news/nvidia-ki-kann-bildrauschen-und-wasserzeichen-aus-fotos-entfernen-397415

Kann man das auch dann für Miniung und Co. verwenden?

Wer und was braucht eigentlich INT4-Format, was neu dazugekommen ist? :confused:

Chris Lux
2018-08-16, 16:36:17
...noch dazu wo ja bei RT quasi perfektes AA eingebaut ist.
Tell me more... ;)

Platos
2018-08-16, 16:39:07
Hey - ich bin der ERSTE der schreit "mehr Auflösung"! Desswegen hab ich auch einen 40" 4K Monitor :-)

Aber man muss auch eingestehen dass heutzutage hochskalieren wirklich sehr sehr gut funktionieren KANN (bestes Beispiel: Sony TVs mit den X1 Pro und ultimate Prozessoren.)

KANN. Wird nur im PC Bereich viel zu Stiefmütterlich behandelt...

Ja, mein nächster TV wird vlt. auch von Sony sein. Aber Hauptsache es ist gestochen scharf, dann bin ich dabei.

pixeljetstream
2018-08-16, 16:39:11
Phuv, beim inferencing reicht zum Teil sehr niedrige Präzision aus.

PHuV
2018-08-16, 16:42:52
Ah, das was, danke.

aufkrawall
2018-08-16, 16:43:14
Aber man muss auch eingestehen dass heutzutage hochskalieren wirklich sehr sehr gut funktionieren KANN (bestes Beispiel: Sony TVs mit den X1 Pro und ultimate Prozessoren.)

Wird in Zukunft auch noch sehr viel besser aussehen, sobald man komplexere via NN trainierte Algorithmen in kleine ASICs eingebaut bekommt.
Solche Algorithmen sind die eigentliche Revolution, an deren Anfang wir stehen.

Hübie
2018-08-16, 16:43:59
Darum geht es nicht; es geht darum ob der Gaming-GT102-Vollausbau anders angeordnet sein könnte, als der Vollausbau des HPC-Pendants. Etwa so (Beispiel Volta):

HPC-GV100 Vollausbau: 5376 SPs (7 SMX pro GPC, 42 SMs a 128 SPs pro SM)

fiktiver Gaming-GV102 Vollausbau: 6144 SPs (8 SMX pro GPC, 48 SMs a 128 SPs pro SM)

Wenn ich raten müsste, würde ich sagen, dass Ampére 7nm mit 6144 ALUs + secret sauce wird. Design und Masken etc. sind extrem kostspielig, weshalb eine andere Anordnung bzw. große Veränderung für einen Chip keinen ökonomischen Vorteil ergäbe. Deshalb skaliert man ganze Familien, wobei Volta da aktuell allein auf weiter Flur steht (was deine These begünstigt).

Mag sein, dass aktuelle NV-GPUs genug ROP-Power haben. Aber müsste/sollte der ROP-Throughput nicht analog/proportional mit der Bandbreite steigen? Wenn also die Bandbreite um n% erhöht wird, dann auch die ROP-Leistung ebenso um n% erhöht werden sollte...

Gute Frage. Ich würde annehmen, dass die ROPs seit längerem keinerlei limitierender Faktor sind, da diese Pixelinformationen schreiben, aber (so glaube ich zumindest) bei Compute-Aufgaben ebenso wenig wie Textursampler gebraucht werden. Aber das können unsere Fachleute hier sicher beantworten. :smile:


GV100 war ja aber auch ein Monster-Chip, noch größer als GT102, noch mehr Fläche und für HPC-Anforderungen zugeschnitten - und trotzdem schafft die Titan V bis zu 2GHz Chiptakt.

Was übrigens Jensen zweite Falschaussage war (von wegen Turing sei der größte Chip, den die je kreiert haben :rolleyes:).

Ich finde, dass bei Turing die Sache etwas anders aussieht - GT102 ist kleiner als GV100 und da bei Turing relativ zu Pascal die Anzahl der Einheiten nur wenig ansteigt, muss man naturgemäß die erwünschte Performance über den Takt rausholen... (oder über die Architektur - aber da lässt sich ja immer weniger rausholen...)

R2

Architekturdetails kommen, wenn überhaupt, erst später. Es gibt jedoch viel mehr Wege als den Takt durch moderne Prozesse zu erhöhen. Zum Beispiel Nullen gar nicht 'schalten' also nur Einsen werden geschrieben - > weniger Verbrauch = mehr Spielraum für den Takt. Rückgewinnung des Elektronenfluss, gegenseitige leakage die ausgenutzt wird, direkter Austausch von Daten über GPCs hinweg, load balancing und weiß der Geier was da aus dem R&D einfließen wird (einfach mal so aufgezählt, ohne Anspruch auf Vollständigkeit / Korrektheit :D).

Troyan
2018-08-16, 16:44:34
Das hat doch nVidia schon angekündigt mit deren NGX SDK. Upscaling kommt also auch für Gamer.

Dural
2018-08-16, 16:54:05
Herrje, das ist jetzt wie lange her? 15 Jahre?

Als Reaktion hatte übrigens AMD einen höheren Markanteil als NVIDIA:

Es geht also sehr wohl. AMD müsste eben nur liefern. Was sie nicht tun.


Das war nicht AMD, sondern ATI ;)

crux2005
2018-08-16, 16:57:06
Ja, ich haue Dich: Mehr als 3072 SE sind nicht drin.

Hast wohl recht. Wobei 24 TCP schon arg wenig sind wie ich finde. Kann mir auch nicht Vorstellen das die Karten noch höher Takten. :P

Screemer
2018-08-16, 17:05:56
Liegt vielleicht auch daran, dass von den gleichen Leuten die RT jetzt als unwichtig erachten, jedes klitzekleine Vegafeature als die Erlösung überhaupt gehypt wurde.

lustig ist, dass der der am lautesten gegen "platzverschwendung" für rt gewettert hat einer der größten nv-fans hier im board ist. der nice typ aus florida. hat man ja auch auf den letzten seiten wieder gesehen. niemand aus dem "amd-lager" erachtet rt als unwichtig.

aufkrawall
2018-08-16, 17:07:14
Bei einer bestimmten Person würd ich all mein Geld aufs Gegenteil verwetten. :cool:

Edit: Dieses "Lagerdenken" ist btw. unendlich peinlich. Versuchen, ohne ständig tendenziösen Mist neutral zu bleiben, ist wohl ne Nummer zu hoch für viele hier...

Godmode
2018-08-16, 17:18:18
Was mich mal interessieren würde, wie flexibel die Tensor Einheiten überhaupt sind? Wenn ich das richtig verstehe, sind das an sich nichts weiter als entsprechend fähige Matrizen-Muliplizierer usw. D.h., klar, Deep Learing, KI-Anwendungen und Mustererkennungen, um beispielsweise Bilder zu rekonstruieren oder verbessern:

https://www.turn-on.de/tech/news/nvidia-ki-software-kann-bilder-taeuschend-echt-rekonstruieren-373098
https://www.turn-on.de/tech/news/nvidia-ki-kann-bildrauschen-und-wasserzeichen-aus-fotos-entfernen-397415

Kann man das auch dann für Miniung und Co. verwenden?

Wer und was braucht eigentlich INT4-Format, was neu dazugekommen ist? :confused:

Für Mining kann man sie leider nicht gebrauchen, da sie nur mit FP16 bzw. FP32 rechnen können.

Siehe: https://devblogs.nvidia.com/programming-tensor-cores-cuda-9/

Raff
2018-08-16, 17:20:30
Hast wohl recht. Wobei 24 TCP schon arg wenig sind wie ich finde. Kann mir auch nicht Vorstellen das die Karten noch höher Takten. :P

Vielleicht sehen wir erstmals eine "2 GHz Edition". Die erste "GHz Edition" kam von AMD – Zeit, dass auch mal Nvidia ein Taktrennen gewinnt. Intel und AMD haben's ja auch jeweils geschafft. ;)

MfG,
Raff

Screemer
2018-08-16, 17:20:46
Bei einer bestimmten Person würd ich all mein Geld aufs Gegenteil verwetten. :cool:

Edit: Dieses "Lagerdenken" ist btw. unendlich peinlich. Versuchen, ohne ständig tendenziösen Mist neutral zu bleiben, ist wohl ne Nummer zu hoch für viele hier...
vv ist da doch ne ganz eigene spezies.

crux2005
2018-08-16, 17:35:13
Vielleicht sehen wir erstmals eine "2 GHz Edition". Die erste "GHz Edition" kam von AMD – Zeit, dass auch mal Nvidia ein Taktrennen gewinnt. Intel und AMD haben's ja auch jeweils geschafft. ;)

MfG,
Raff

Habe schon mit 2105 MHz gerechnet. :freak:

Ex3cut3r
2018-08-16, 17:37:21
Vielleicht sehen wir erstmals eine "2 GHz Edition". Die erste "GHz Edition" kam von AMD – Zeit, dass auch mal Nvidia ein Taktrennen gewinnt. Intel und AMD haben's ja auch jeweils geschafft. ;)

MfG,
Raff
Da weiß einer wohl schon mehr. ;)

2,4 GHz sollten mit OC ja diesmal möglich sein. :naughty:

Bucklew
2018-08-16, 17:39:33
Haben sie zwischenzeitlich auch getan:
https://www.computerbase.de/2012-09/test-nvidia-geforce-gtx-660/5/

Auf Augenhöhe mit NVIDIA bzw. beim Topmodell gleicht der Leistungsvorsprung der GTX 680 dem Preisunterschied und im MidRange Bereich bietet die 7870 mehr Leistung bei geringerem Preis. Rundum tolle Karten.
"Rundum"?

Schau doch mal ein paar Seiten weiter:
https://www.computerbase.de/2012-09/test-nvidia-geforce-gtx-660/11/

Lautheit: GTX660: 43,5 dB, HD7870: 53 dB.

Die AMD-Karte war also locker 8x so laut, wie die GTX660.

Nein, die AMD Karte war einfach zu laut. Das war der Dealbreaker.

Wie man deinem Diagramm entnehmen kann blieb der Marktanteil aber schlechter als zu Zeiten der aufgewärmten HD6000er Serie. Gutes Produkt, Verkauf schlechter als beim Vorgängerprodukt das nicht so gut darstand wie die 7000er Serie...
Mit der 7000er Serie begann sich NVIDIA allmählich von AMD abzuheben, weil man verstanden hatte, dass der Kunde keine Staubsauger will. Seitdem zieht man die Effizienzschiene konsequent durch und fährt damit sehr gut. Und kann sogar auf extrem teure Technologien wie eben HBM verzichten.

Raff
2018-08-16, 17:40:10
Da weiß einer wohl schon mehr. ;)

2,4 GHz sollten mit OC ja diesmal möglich sein. :naughty:

Ich weiß nix. Ehrlich. Bitte nicht out-of-context zitieren. :biggrin:

Neues Wissen gibt's voraussichtlich kommende Woche, bis dahin ist Jensens Selbstbeweihräucherung der Quell allen Wissens.

MfG,
Raff

AffenJack
2018-08-16, 17:40:28
Angebliche Infos zum RT Core von reddit:
Yubo Zhang, Pony.ai Staff Engineer, former Nvidia Senior GPU Architect

About RT core: https://www.zhihu.com/question/290167656/answer/470311731

(Google Translation)

The RT core essentially adds a dedicated pipeline (ASIC) to the SM to calculate the ray and triangle intersection. It can access the BVH and configure some L0 buffers to reduce the delay of BVH and triangle data access. The request is made by SM. The instruction is issued, and the result is returned to the SM's local register. The interleaved instruction and other arithmetic or memory io instructions can be concurrent. Because it is an ASIC-specific circuit logic, performance/mm2 can be increased by an order of magnitude compared to the use of shader code for intersection calculation. Although I have left the NV, I was involved in the design of the Turing architecture. I was responsible for variable rate coloring. I am excited to see the release now.
https://www.reddit.com/r/nvidia/comments/97qogl/former_nvidia_gpu_architect_what_is_rt_core_in/

w0mbat
2018-08-16, 17:54:22
Lautheit: GTX660: 43,5 dB, HD7870: 53 dB.

Die AMD-Karte war also locker 8x so laut, wie die GTX660.

Nein, die AMD Karte war einfach zu laut. Das war der Dealbreaker.


Sorry, aber es gab sehr leise Partnerkarten, bitte erfinde doch keine Fakten hier. Die HD7870 war einer GTX660 in jeder Hinsicht überlegen.


Mit der 7000er Serie begann sich NVIDIA allmählich von AMD abzuheben, weil man verstanden hatte, dass der Kunde keine Staubsauger will. Seitdem zieht man die Effizienzschiene konsequent durch und fährt damit sehr gut. Und kann sogar auf extrem teure Technologien wie eben HBM verzichten.

Die HD7000er Serie war Nvidia so haushoch überlegen, das war nicht mehr witzig. Nur habe die Lemminige eben grün gekauft, weil sie nichts anderes kennen.

Die HD 7000er waren noch besser als Nvidias nachfolge Gen :eek:

Bucklew
2018-08-16, 18:10:58
Sorry, aber es gab sehr leise Partnerkarten, bitte erfinde doch keine Fakten hier. Die HD7870 war einer GTX660 in jeder Hinsicht überlegen.
Bitte nicht bei mir beschweren, ich habe nur auf den Link reagiert.

Die HD7000er Serie war Nvidia so haushoch überlegen, das war nicht mehr witzig. Nur habe die Lemminige eben grün gekauft, weil sie nichts anderes kennen.

Die HD 7000er waren noch besser als Nvidias nachfolge Gen :eek:
Herrje, was soll dieser Geschichtsrevisionismus bitte?

Gern mal das Fazit von Anandtech zu GeForce 600 vs. HD 7000:
To that extent this is a very different launch – the GTX 680 is faster, less power hungry, and quieter than the Radeon HD 7970. NVIDIA has landed the technical trifecta, and to top it off they’ve priced it comfortably below the competition.
https://www.anandtech.com/show/5699/nvidia-geforce-gtx-680-review/20

Was bringt euch das, dermaßen vehement die Vergangenheit schön zu lügen? :rolleyes:

dildo4u
2018-08-16, 18:14:08
Ich fänds ideal wenn wir zwei SKU bekommen 8 GB für 650€ und 16 für 750,nicht jeder wird sich in näster Zeit ein 4k TFT kaufen.
Leute die jetzt ein 1440p,144Hhz Modelle gekauft haben werden eher in 2 Jahren ne neue Karte als neuen Monitor kaufen.

Tesseract
2018-08-16, 18:20:16
Die HD7000er Serie war Nvidia so haushoch überlegen, das war nicht mehr witzig.

die hardware war überlegen, aber die treiber waren so grottenschlecht dass sie die performance ewig nicht auf die straße gebracht haben. für jemanden der die hardware wirklich zum spielen verwenden wollte - und zwar nicht erst in 1-4 jahren sondern jetzt und nicht nur für 1-2 optimierte vorzeigetitel sondern alles mögliche - war der release eher enttäuschend, vor allem wenn man bedenkt was das ding am papier konnte.

Käsetoast
2018-08-16, 18:29:49
@Bucklew:
Du willst hier jetzt also postulieren, dass die 7000er Serie sich nicht besser verkauft hat weil der Referenzkühler zu laut war? Jetzt so ganz im Ernst? War dann auch die GTX 680 indiskutabel schlecht, weil die war unter Last ja auch so laut...

Tut mir leid, aber an der Stelle steige ich aus weil wer 2012 noch 1-Slot Referenzkühler gekauft hat ist selber Schuld. Ich selber habe seinerzeit eine Sapphire 7850 gekauft und die war eine der leisesten Karten am Markt (bin da nämlich ein wenig empfindlich was die Lautstärke angeht)...

die hardware war überlegen, aber die treiber waren so grottenschlecht dass sie die performance ewig nicht auf die straße gebracht haben. für jemanden der die hardware wirklich zum spielen verwenden wollte - und zwar nicht erst in 1-4 jahren sondern jetzt und nicht nur für 1-2 optimierte vorzeigetitel sondern alles mögliche - war der release eher enttäuschend, vor allem wenn man bedenkt was das ding am papier konnte.
Naja in den Tests war sie auf Augenhöhe mit den NVIDIAs und das sie im Vergleich dann sogar noch schneller wurden ist doch nett. Ich weiß auch nicht was da "grottenschlecht" gewesen sein soll - ich hatte nie Probleme mit den Treibern und mir sind auch keine Bluescreen-Arien oder ähnliches bekannt...

Ex3cut3r
2018-08-16, 18:34:32
die hardware war überlegen, aber die treiber waren so grottenschlecht dass sie die performance ewig nicht auf die straße gebracht haben. für jemanden der die hardware wirklich zum spielen verwenden wollte - und zwar nicht erst in 1-4 jahren sondern jetzt und nicht nur für 1-2 optimierte vorzeigetitel sondern alles mögliche - war der release eher enttäuschend, vor allem wenn man bedenkt was das ding am papier konnte.

Ein PapierTiger ist ja nix neues bei AMD, siehe FuryX siehe Vega 64.

Tesseract
2018-08-16, 19:07:20
Naja in den Tests war sie auf Augenhöhe mit den NVIDIAs und das sie im Vergleich dann sogar noch schneller wurden ist doch nett. Ich weiß auch nicht was da "grottenschlecht" gewesen sein soll - ich hatte nie Probleme mit den Treibern und mir sind auch keine Bluescreen-Arien oder ähnliches bekannt...

"augenhöhe" ist sehr großzügig. sie war zwar in manchen titel schneller und in manchen langsamer, die langsameren titel waren aber viel zu oft die populären spiele in die sehr viele leute sehr viele stunden investiert haben und das "schneller werden" war anfangs auch eher ein fixen der problemkinder als generelle performancesteigerungen. wirklich durch die bank zugelegt hat GCN gegenüber kepler erst jahre später wo viele der karten schon längst wieder ausgetauscht waren.

aufkrawall
2018-08-16, 19:10:48
AMD hat bei den Treibern aber nach meinem Eindruck jetzt recht gut aufgeholt, zumindest die Qualität in Spielen allgemein scheint zu stimmen.
Bei Vega scheint eher problematisch, aus dem Teil überhaupt genug Performance rauszukitzeln (siehe die deutlich schlechtere Linux-Performance im Vergleich zu Polaris).

Ex3cut3r
2018-08-16, 19:14:17
Was auch logisch ist, irgendwo muss sich das auszahlen, die Basis für die PS4 und XBONE zu stellen.

Screemer
2018-08-16, 19:25:57
https://www.anandtech.com/show/5699/nvidia-geforce-gtx-680-review/20

Was bringt euch das, dermaßen vehement die Vergangenheit schön zu lügen? :rolleyes:
frag ich mich auch:
Mit der Radeon HD 7970 GHz Edition hat es AMD somit geschafft, ein knapp besseres Gesamtpaket als die GeForce GTX 680 abzuliefern (solange ein anderes Kühlsystem verbaut wird), was sicherlich in einem niedrigeren Preis für letztere resultieren wird.:ugly:

ach was mach ich denn schon wieder?

MiamiNice
2018-08-16, 19:30:11
lustig ist, dass der der am lautesten gegen "platzverschwendung" für rt gewettert hat einer der größten nv-fans hier im board ist. der nice typ aus florida. hat man ja auch auf den letzten seiten wieder gesehen. niemand aus dem "amd-lager" erachtet rt als unwichtig.

Der Nice Typ erachtet RT auch nicht als unwichtig, sondern es kommt imo einen Release zu früh. Wenn allerdings die geleakten Benches der letzten Tage stimmen, revidiere ich die Platzverschwendung und feiere die GPU Götter bei NV wie eh und jeh. Wobei ich vermute das die gezeigte Power nur in Verbindung mit einem neuartigen AA Modi abgerufen werden kann. Werden wir wohl bald erfahren.

Bucklew
2018-08-16, 19:30:51
Du willst hier jetzt also postulieren, dass die 7000er Serie sich nicht besser verkauft hat weil der Referenzkühler zu laut war? Jetzt so ganz im Ernst? War dann auch die GTX 680 indiskutabel schlecht, weil die war unter Last ja auch so laut...
Warum flamst du mich an, ich habe dir nur ein Review verlinkt ;D

Beschwere dich bei allen Seiten, die alle unabhängig voneinander sagen, dass die 600er Serie in allen Punkten der 7000er überlegen ist.

Naja in den Tests war sie auf Augenhöhe mit den NVIDIAs und das sie im Vergleich dann sogar noch schneller wurden ist doch nett.
Hast du dir das Zitat überhaupt durchgelesen? ;D

Screemer
2018-08-16, 19:35:24
@miaminice: hoffentlich kam das nicht falsch bei dir an. ich hatte dich schon verstanden. hätte vielleicht noch ein "frühzeitig" einfügen sollen. wie gesagt denke ich, dass RT niemanden kallt lässt. die frage ich ob es derzeit sinnvoll ist oder nicht. da gibt's halt den einen und den anderen standpunkt.


Beschwere dich bei allen Seiten, die alle unabhängig voneinander sagen, dass die 600er Serie in allen Punkten der 7000er überlegen ist.

bawahahaha :comfort:

prinz_valium
2018-08-16, 19:47:52
Ich bin auf jeden Fall gespannt.
So ungewiss war es schon lange nicht mehr bei einer neuen Grafikkarten Generation was uns erwartet.

Alles möglich zwischen meh und OMG meiner Meinung Nach.
Persönlich wäre meh für mich besser, weil ich letzte Generation zugeschlagen habe, aber ein wirklicher Sprung wäre für die Allgemeinheit natürlich wünschenswert.

Wir werden sehen.
4 Tage noch.

dargo
2018-08-16, 19:58:26
AMD hat bei den Treibern aber nach meinem Eindruck jetzt recht gut aufgeholt, zumindest die Qualität in Spielen allgemein scheint zu stimmen.
Bei Vega scheint eher problematisch, aus dem Teil überhaupt genug Performance rauszukitzeln (siehe die deutlich schlechtere Linux-Performance im Vergleich zu Polaris).
Mal kurz überschlagen...

laut dem jüngsten Test der CB liegt Vega im Schnitt von 21 Spielen 65% vor RX580 8GB in 1440p (4k kann ich leider nicht vergleichen, dort fehlt die RX580).
https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-fps-2560-1440

Schauen wir uns mal jetzt die rohen Daten an.

RX580 = 6,36 TFLOPs (mit 1380Mhz gerechnet)
RX Vega64 = 11,06 TFLOPs (mit 1350Mhz gerechnet)

Ergibt +74% mehr TFLOPs. Hier kann es durchaus zu leichten Verschiebungen kommen, denn ich kenne nicht die genauen Taktraten der beiden GPUs im Schnitt. Wenn ich meine Karte mit den Daten der Referenz RX Vega64 füttere kommen die 1,35Ghz schon ganz gut hin. Zumindest in Spielen die Vega einigermaßen gut fordern. Bei Witcher 3 sind es sogar noch einiges weniger. Wären dann 10,21 TFLOPs.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11770438&postcount=3738

Und wenn eine Referenz Vega ins TT-Limit läuft können die Taktraten noch etwas tiefer ausfallen. Auch sollte man dabei bedenken, dass die Vega in 1440p hier und da schon ins leichte CPU-Limit fallen kann während die Chance bei der RX580 deutlich geringer dafür ist. Sieht man auch ganz gut am Vergleich GTX1070 vs. GTX1080TI. In 1440p +54%, in 4k +61%.

PS: ich beziehe mich hierbei natürlich auf Windows. Linux dürfte hier die wenigsten interessieren.

aufkrawall
2018-08-16, 20:03:55
Gegenüber einem ans Limit geprügelten Polaris skaliert ein gedrosselter Vega nicht einmal linear, trotz des massiv aufgeblähten Chips - Danke für die Bestätigung...

dargo
2018-08-16, 20:17:52
Gegenüber einem ans Limit geprügelten Polaris skaliert ein gedrosselter Vega nicht einmal linear, trotz des massiv aufgeblähten Chips - Danke für die Bestätigung...
Löl? Jetzt ist für dich wieder die Die-Size ausschlaggebend oder wie darf ich diesen Satz verstehen? Kein Problem, nur warum kritisierst du das nicht auch bei Nvidia?

GP106 = 200mm²
GP102 = 471mm² (+135%)

Letzteres ist bei CB in 1440p "nur" 114% schneller. Wenn man die reinen TFLOPs betrachtet sieht es noch etwas schlechter aus.

GP106 = 4,74 TFLOPs (1850Mhz)
GP102 = 11,63 TFLOPs (1622Mhz) (+145%)

Slipknot79
2018-08-16, 20:20:20
Bei einem Lambo störts natürlich auch, dass der Hubraum zu groß ist. :redface: :rolleyes:

Hübie
2018-08-16, 20:20:31
Können die Herrschaften dass nicht im Vega-Thread weiter ausbreiten? Hier ist es jedenfalls off topic, vor allem wenn man nicht mal Kaufinteresse heuchelt... :rolleyes:

Bucklew
2018-08-16, 20:37:01
...
ach was mach ich denn schon wieder?
Spannend, wie schnell CB dann zitiert wird, wenn das Fazit stimmt :D

Sonst heißts ja das Gegenteil von dir (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11730368&highlight=Computerbase#post11730368).

Löl? Jetzt ist für dich wieder die Die-Size ausschlaggebend oder wie darf ich diesen Satz verstehen? Kein Problem, nur warum kritisierst du das nicht auch bei Nvidia?

GP106 = 200mm²
GP102 = 471mm² (+135%)

Letzteres ist bei CB in 1440p "nur" 114% schneller.
Endlich wieder Chipcomparison by dargo, da haben wir lange drauf gewartet (s. Sig) ;D

"Nur" 114% schneller.

Mal ein kurzer Blick auf die Leistungsaufnahme:

GP106 = 120W
GP102 = 250W (+108%)

Das heißt angesichts der Leistungsaufnahme - die für die GP102 Leistung entscheidend ist - ist das Scaling der Grafikleistung sogar überproportional verglichen mit der Leistungsaufnahme :up:

Danke für den üblichen Lacher, dargo ;)

Aber was solltest du auch wissen, was ein "Sweetspot" ist :ugly:

Screemer
2018-08-16, 20:43:44
Spannend, wie schnell CB dann zitiert wird, wenn das Fazit stimmt :D

Sonst heißts ja das Gegenteil von dir (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11730368&highlight=Computerbase#post11730368).

da völlig ot:
völlig anderes thema, völlig andere bewertung. von dir kam doch "alle seiten". ich kann dir gern noch mehr deiner alle seiten raus suchen. du machst dich hier genau so wie im async-thread wirklich zum totalen kasper. ganz ehrlich bin ichs müde. ich klicke wirklich zu oft auf "beitrag anzeigen", denn bisher hatte ich die hoffnung nicht verloren, dass du zumindest einmal was sinnvolles beizutragen hast. die hoffnung begrab ich nun endgültig.

Kriton
2018-08-16, 20:45:20
Spannend, wie schnell CB dann zitiert wird, wenn das Fazit stimmt :D

Sonst heißts ja das Gegenteil von dir (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11730368&highlight=Computerbase#post11730368).


Ein inhaltliches Argument hast Du offenbar nicht. Aber Du argumentierst ja auch nicht, sondern reagierst ja nur, oder postest Links, ohne eigene Aussagen treffen zu wollen (die widerlegt werden (können))...:rolleyes:

Bucklew
2018-08-16, 20:48:59
Ein inhaltliches Argument hast Du offenbar nicht.
Was will ich da noch widerlegen? Wer die ganze rumposaunt, wie Scheiße CB ist und dann deren Fazit zitiert - ohne Link natürlich! - der hat sich inhaltlich schon selbst blamiert.

Warum sollte man sich inhaltlich mit auseinander setzen? Wenn man den entscheidenden Part von CB zitiert, der zeigt, dass auch CB die Karte mitnichte besser als die GeForce 600 einschätzt, wird doch das nächste Fazit gepostet.

Troyan
2018-08-16, 20:58:00
Man, Leute vergleichen hier wirklich GCN 1.0 mit Kepler 1.0? Lmao. Wie man nur so lange in der Vergangenheit leben kann, unglaublich.


Mal wieder Ontopic: Kleine Geschichte von einem nVidia-Mann, der zur Keynote-Zeit in einem Talk über Raytracing gesprochen hat: https://twitter.com/CasualEffects/status/1030125727625048064

Kriegsgeier
2018-08-16, 21:06:24
Also nach der Präsentation sage ich folgendes vorraus:

Wenn Turing draußen ist will keiner mehr Pascal haben!

RayTracing is the King!!!

Danke Leederjacke!

Dural
2018-08-16, 21:24:16
Da muss turing nicht mal rt haben, nach zwei jahren wird eine neue generation von nv doch so wie so ein selbst läufer...

Bambuslooter
2018-08-16, 21:32:11
Sehe das wie Dural.
Leute wie ich die keine Graka besitzen (defekt oder Neubau) wollen was Neues kaufen.
Altschrott wie Pascal oder Failvega will doch keiner.

Das nun eine neue Generation ansteht mit RT ist an sich umso spannender.
Leider wird das Thema hier unglaublich aufgebläht von Bucklew und AMD Fans.

Hoffentlich gibt es bald Infos zwecks VR.
Mit USB C und VirtualLink erwarte ich einiges, da die nextGen HMD's draufsetzen.
Vielleicht wirken sich Tensor und RT Core zusätzlich auf die VR Leistung aus?

Laut den letzten Info Happen scheint die 2080ti diesmal nicht so spät zu kommen.
Freut mich sehr, dass ich für viel Geld auch mehr geboten bekomme als nur die Performance Klasse ala 1080 für 700€.

Troyan
2018-08-16, 22:41:52
nVidia hat ihre Zahlen veröffentlichen und Aussicht für Q3 sagt: Gross Marge geht runter. Zeichen dafür, dass Turing günstiger wird als erwartet.

Screemer
2018-08-16, 22:45:34
Oder in der Herstellung schleicht teurer da es nur einen Chip bis runter zur 2070 gibt und alles mit salvage bedient wird was nicht rtx 8000/ti/Titan heißt. Bin schon sehr gespannt auf Montag, denn bisher hab ich keine offizielle Aussage gelesen, dass rtx 5000 zb auf gt104 basieren würde.

dargo
2018-08-16, 22:47:15
nVidia hat ihre Zahlen veröffentlichen und Aussicht für Q3 sagt: Gross Marge geht runter. Zeichen dafür, dass Turing günstiger wird als erwartet.
Interessant was du da alles von ableitest. Warum eigentlich nicht die logische Folge von größeren Dies und teurerem Speicher?

Sunrise
2018-08-16, 22:49:57
nVidia hat ihre Zahlen veröffentlichen und Aussicht für Q3 sagt: Gross Marge geht runter. Zeichen dafür, dass Turing günstiger wird als erwartet.
Jetzt ist nur noch die Frage, was erwartet wird...

Da die 1080 schon extrem teuer war relativ zur Die size, erwarte ich keine höheren Preise bei 1070/1080. Allerdings sollte eine Ti (max. $999 US), aber erst Recht eine Titan auch wieder bis zu $1500 US kosten.

Troyan
2018-08-16, 22:52:29
Der Die ist rund 63% größer und GDDR6 wird wohl auch einiges kosten. Da die Marge runter geht, werden die Preise wohl auf den heutigen Pascal-Niveau liegen.

Linmoum
2018-08-16, 22:56:04
nVidia hat ihre Zahlen veröffentlichen und Aussicht für Q3 sagt: Gross Marge geht runter. Zeichen dafür, dass Turing günstiger wird als erwartet.
Die Gross Margin geht nicht nur in Q3 runter, sie ist bereits schon im abgelaufenen Q2 ggü. Q1 gesunken. Und das hat(te) nichts mit Turing zu tun.

ntldr
2018-08-16, 23:00:11
GDDR6 war doch preislich in etwa auf einem Niveau mit GDDR5. Somit sollte sich doch bzgl. der Speicherpreise für NV da nichts groß ändern, da für Pascal ähnlich viel wie für Turing gezahlt werden muss (sofern wir von weiterhin 8GB ausgehen).

horn 12
2018-08-16, 23:02:00
Gar Igor, Format C wurde links liegengelassen bei seinen offenen Fragen gestern auf der Siggraph
und die Quadros laufen weiter, jene mit Pascal GPU

Rechne außer dem Haupt-Pusher Ray Tracing
und
Sehr hohen Taktraten kommt da wenig bis kaum etwas von Nvidia

Mancko
2018-08-16, 23:09:06
nVidia hat ihre Zahlen veröffentlichen und Aussicht für Q3 sagt: Gross Marge geht runter. Zeichen dafür, dass Turing günstiger wird als erwartet.

Glaube eher, dass sich das kurzfristig durch den endenden Mining Boom ergibt und weniger aus Turring, denn in Professional Visualization können sie damit saftig zulangen. Davon ab ist das natürlich bei den Margen auch eher marginal. Die liegen bei satt über 60% was eh eine Luxussituation ist.

Dural
2018-08-16, 23:17:10
Naja so teuer wird turing auch nicht werden, erstens dürften die 8gb gddr6 nicht wahnisinnig viel kosten und der 12n prozess dürfte ziemlich rund und preiswert sein. Zweitens wird nv grosses interesse haben das turing unter die leute kommt, stückzahlen erhält man nicht mit hohen preise.

Ich würde turing so stellen wie maxwell, leicht darüber.

Troyan
2018-08-16, 23:19:37
500mm^2 sind keine 400mm^2 von Maxwell. nVidia geht hier wirklich "All In".

Raff
2018-08-16, 23:26:14
Nebenbei bemerkt: Nvidia wird mit an Sicherheit grenzender Wahrscheinlichkeit auf der Gamescom eine Raytracing-Version von Betafield 5 zeigen. Die aktuell laufende, zweite Alpha gibt bei den Renderer-Infos explizit "Raytrace: Off" aus. Na, wer da nicht auf Turing kommt. :naughty: Leider habe ich keine Titan V da, um zu schauen, wie das Spiel darauf reagiert, aber die hat ja auch keine mighty RT Cores.

MfG,
Raff

horn 12
2018-08-16, 23:30:38
Das kommt wohl davon, da Ihnen Metro Exodus einen Strich durch die Rechnung gemacht hat und mal schnell Ray Tracing in BF5 implementieren ...

prinz_valium
2018-08-16, 23:31:52
nVidia hat ihre Zahlen veröffentlichen und Aussicht für Q3 sagt: Gross Marge geht runter. Zeichen dafür, dass Turing günstiger wird als erwartet.

Nö. Neuer Produkt launch wirkt sich immer negativ auf die gross margin aus.
Und es kann auch einfach nur ein großer teurer chip sein mit schlechterer marge.

Dural
2018-08-16, 23:32:38
500mm^2 sind keine 400mm^2 von Maxwell. nVidia geht hier wirklich "All In".

Jo bisschen grösser, habe ja gesagt leicht über maxwell. Die 980 hat 549.- $ gekostet, da machen wir 599.- $ für die 2080.

Troyan
2018-08-16, 23:34:11
500mm^2 ist jedoch G80, GT200 und Fermi Niveau. Das es überhaupt noch etwas über GT104 gibt, ist eigentlich ein Absurdität sondersgleichen...

Ex3cut3r
2018-08-16, 23:37:16
Nebenbei bemerkt: Nvidia wird mit an Sicherheit grenzender Wahrscheinlichkeit auf der Gamescom eine Raytracing-Version von Betafield 5 zeigen. Die aktuell laufende, zweite Alpha gibt bei den Renderer-Infos explizit "Raytrace: Off" aus. Na, wer da nicht auf Turing kommt. :naughty: Leider habe ich keine Titan V da, um zu schauen, wie das Spiel darauf reagiert, aber die hat ja auch keine mighty RT Cores.

MfG,
Raff

Extrem Fett. :naughty: :up:

Obwohl ich bei einem MP Spiel eher auf die FPS achte, sprich alles LOW außer Texturen und Weitsicht. Aber für den SP und ab und zu mal an RT im MP ergötzen, reicht es wohl. ;D

Troyan
2018-08-16, 23:37:22
"Gamer community is exciting about our Turing GPUs...". Hey, wird wohl doch Turing für Gamer werden.

Dural
2018-08-16, 23:37:23
500mm^2 ist jedoch G80, GT200 und Fermi Niveau. Das es überhaupt noch etwas über GT104 gibt, ist eigentlich ein Absurdität sondersgleichen...

Gt102 wird sicher nur abgespeckt in die geforce serie kommen, aber 750mm2 ist schon eine hausnummer.

crux2005
2018-08-16, 23:39:03
Dann wird evtl. auch Shadow of the Tomb Raider und AC: Competizione RTX Unterschtützen oder per Update bekommen. Beides GameWorks Spiele und sie wurden auch im Anfangsvideo von der Turing Presentation gezeigt (so wie BF V).

basix
2018-08-16, 23:39:59
500mm2 für RTX 2080 bei etwa vergleichbarer Leistung wie GP102. Wenn Nvidia die Preise hinsichtlich Perf/$ nicht zu sehr stutzt, hätte man gar nicht so gross Margenverlust. GDDR6 ist nämlich im Vergleich zu GDDR5X nur unwesentlich teurer, vielleicht 10%.

Troyan
2018-08-16, 23:40:06
Gt102 wird sicher nur abgespeckt in die geforce serie kommen, aber 750mm2 ist schon eine hausnummer.

Umso stärker muss Turing sein als die "Rohdaten" es hergeben. Ansonsten kann man kaum die Chips beschneiden. Wir reden hier ja erstmal nur über 33% mehr FP32 Rechenleistung gegenüber Pascal.

dildo4u
2018-08-16, 23:46:57
Das kommt wohl davon, da Ihnen Metro Exodus einen Strich durch die Rechnung gemacht hat und mal schnell Ray Tracing in BF5 implementieren ...

Das wurde nicht mal schnell implementiert,EA hat schon Anfang 2018 Titan V Karten bekommen um mit RT zu Experimentieren.

https://twitter.com/repi/status/959439233382518784

reaperrr
2018-08-16, 23:48:26
Jo bisschen grösser, habe ja gesagt leicht über maxwell. Die 980 hat 549.- $ gekostet, da machen wir 599.- $ für die 2080.
Ob der Nvidia-exklusive 12FFN pro Wafer so günstig ist wie damals 28nm wage ich zu bezweifeln, und selbst wenn sind 25% mehr Fläche/Chip ca. 25% weniger Chips/Wafer, dazu evtl. auch noch höhere Defektrate (vielleicht nicht pro mm², aber eben pro Chip).
Vor allem ca. 60% teurer als GP104 herzustellen, selbst wenn die 12FFN-Waferpreise kaum höher sein sollten.

Und die Speicherpreise pro GB sind heute ca. doppelt so hoch wie 2016.

599$ hat schon die 1080 gekostet, ich tippe eher auf 649-699$ für die 2080. Ist schließlich fast so teuer in der Herstellung wie eine 1080Ti.

Ex3cut3r
2018-08-16, 23:56:50
Dann wird evtl. auch Shadow of the Tomb Raider und AC: Competizione RTX Unterschtützen oder per Update bekommen. Beides GameWorks Spiele und sie wurden auch im Anfangsvideo von der Turing Presentation gezeigt (so wie BF V).

Jo, gute Beobachtung, hier sieht man es.

jY28N0kv7Pk

Ab Minute 2:59

dargo
2018-08-17, 00:03:40
Cool... darf ich das dann schon als ne Bestätigung für zwei weitere DX12 Games sehen? :naughty:

Mancko
2018-08-17, 00:04:28
Nö. Neuer Produkt launch wirkt sich immer negativ auf die gross margin aus.
Und es kann auch einfach nur ein großer teurer chip sein mit schlechterer marge.

Liegt eher wie von mir eingangs schon gesagt an Mining. Hat Colette Kress eben im Call auch bestätigt, dass über die letzten Quartale die ohnehin schon hohen Margen durch Mining nochmal zusätzlich nach oben getrieben wurden und sich das Ganze jetzt wieder normalisiert.

Linmoum
2018-08-17, 00:10:41
Liegt eher wie von mir eingangs schon gesagt an Mining. Hat Colette Kress eben im Call auch bestätigt, dass über die letzten Quartale die ohnehin schon hohen Margen durch Mining nochmal zusätzlich nach oben getrieben wurden und sich das Ganze jetzt wieder normalisiert.
In Q2 war's sicherlich verständlich, das aufs Mining zurückzuführen. Der Anteil war mit 18 Mio. Dollar in Q2 lächerlich gering und deswegen wird der Faktor Mining zu vernachlässigen sein, warum man auch für Q3 mit einem erneuten Rückgang der Gross Margin rechnet.

Troyan
2018-08-17, 00:14:33
"There are multiple SKUs of Turing - we can scale one architecture over the whole plattform all the time".

Mancko
2018-08-17, 00:22:29
In Q2 war's sicherlich verständlich, das aufs Mining zurückzuführen. Der Anteil war mit 18 Mio. Dollar in Q2 lächerlich gering und deswegen wird der Faktor Mining zu vernachlässigen sein, warum man auch für Q3 mit einem erneuten Rückgang der Gross Margin rechnet.

Nein weil da noch Inventory rumliegen wird und Nvidia mit Sicherheit den Mining Rückgang und die noch rumfliegenden GPUs dazu Accounting technisch über mehrere Quartale verteilen wird. Sie hat ganz klar gesagt, dass Mining der primäre Grund ist warum die Margen sich wieder normalisieren werden. Wir sollten hier auch nicht übertreiben. Wir reden hier von Margen von 64,5% im Vorquartal mit dem absoluten Mining Höhepunkt bei Nvidia und 58,4% in dem Quartal davor. Jetzt reden wir im gerade abgelaufenen Quartal von 63,3% und einer Guidance von 62,6 bis 62,8% für das kommende Quartal. Also bitte Kirche im Dorf lassen. Das ist immer noch exorbitant hoch. Normal wäre eher zwischen 55 und 60%.

Troyan
2018-08-17, 00:40:07
https://pbs.twimg.com/media/DkwTUvbVAAAeLr0.jpg:large
https://twitter.com/beforthegame

Ex3cut3r
2018-08-17, 01:03:21
Intressanter Twitter Account, scheint ein Fake zu sein.

Bambuslooter
2018-08-17, 01:11:46
Dann wird evtl. auch Shadow of the Tomb Raider und AC: Competizione RTX Unterschtützen oder per Update bekommen. Beides GameWorks Spiele und sie wurden auch im Anfangsvideo von der Turing Presentation gezeigt (so wie BF V).

Ein Link oder Zeitstempel wäre nett.
Bin bei AC:Competizione bald mehr involviert und plane ja die 2080ti zu kaufen :3

Cool... darf ich das dann schon als ne Bestätigung für zwei weitere DX12 Games sehen? :naughty:
Stefano von Kunos (ACC) hat die Arbeit an Vulkan/DX12 - UE4 länger schon bestätigt. Auf Vulkan wurde jedoch sich mehr focussiert (gut so).
Die brauchen für die Rennsimulation sowieso die CPU Entlastung, weil die super im Limit hängen dank der AI+realen Physik.

N0Thing
2018-08-17, 01:14:36
Ein Link oder Zeitstempel wäre nett.
Bin bei AC:Competizione bald mehr involviert und plane ja die 2080ti zu kaufen :3

Ab Minute 2:59.

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11771216#post11771216

Leonidas
2018-08-17, 04:58:47
AMD musste halt auf Jahre hinaus planen. Dann verzögerte sich HBM, dann wurde es teurer, dann blieb auch HBM2 hinter den ursprünglichen Erwartungen. AMD hat spekuliert und ist damit auf die Schnauze gefallen. Die Absicht HBM zu nutzen war deshalb aber nicht dumm. Nur lief da so ziemlich alles schief was schief gehen konnte was jedoch alles außerhalb von AMDs Einfluss war. Das sind halt Risiken der Branche.


Man kann es sogar noch weiter spinnen: Jetzt, bei 48 GB für eine Quadro RTX 8000, hätte NV sicherlich auch lieber (funktionierenden) HBM. Dort stappelt man den Speicher und kann fix große Speichermengen erreichen. Bei GDDR braucht man extrem viele Plätze auf der Platine. Selbst diese 48 GB sind ja schon wieder Ende Gelände, weil mehr als 24 Plätze gibt es kaum und dafür wurden trotzdem schon die neuesten 2-GB-Chips verwendet. Da hätte man sicherlich lieber schon 4-GB-Chips gehabt. HBM wäre - sofern es sich wie geplant entwickelt hätte - da einfacher gewesen.

Bösewicht
2018-08-17, 05:25:34
mit RT in einem game könnte ja im nachhinein die rechengenauigkeit via update leicht angepasst werden oder auch die einstellungen viel variabler gestaltet werden.
Ist das erst mal im spiel integriert könnte die genauigkeit auch jahre später ohne großen aufwand für neuere karten nach oben gesetzt werden.

schätze ich das richtig ein könnte mir gut vorstellen das das so sein wird.

pilzsammler2002
2018-08-17, 07:24:31
Nebenbei bemerkt: Nvidia wird mit an Sicherheit grenzender Wahrscheinlichkeit auf der Gamescom eine Raytracing-Version von Betafield 5 zeigen. Die aktuell laufende, zweite Alpha gibt bei den Renderer-Infos explizit "Raytrace: Off" aus. Na, wer da nicht auf Turing kommt. :naughty: Leider habe ich keine Titan V da, um zu schauen, wie das Spiel darauf reagiert, aber die hat ja auch keine mighty RT Cores.

MfG,
Raff

Hatte Vega bzw AMD nicht in der Alpha recht gute performance?
Kann das dann ein Grund sein weil man auf Tesselation und das Rendering (tbr) verzichtet hat zugunsten Raytracings?

mczak
2018-08-17, 07:29:24
Man kann es sogar noch weiter spinnen: Jetzt, bei 48 GB für eine Quadro RTX 8000, hätte NV sicherlich auch lieber (funktionierenden) HBM. Dort stappelt man den Speicher und kann fix große Speichermengen erreichen. Bei GDDR braucht man extrem viele Plätze auf der Platine. Selbst diese 48 GB sind ja schon wieder Ende Gelände, weil mehr als 24 Plätze gibt es kaum und dafür wurden trotzdem schon die neuesten 2-GB-Chips verwendet. Da hätte man sicherlich lieber schon 4-GB-Chips gehabt. HBM wäre - sofern es sich wie geplant entwickelt hätte - da einfacher gewesen.
So einfach scheint mir das auch nicht zu sein. Die jetzige Generation (HBM2) war doch nie mit mehr als 8-Hi und 8gbit pro Die geplant, mit 4 Stacks (und mehr will wahrscheinlich wirklich niemand verwenden) gibt das eben nur 32GB. Klar "HBM3" sollte dann 16gbit Chips verwenden, da geht dann das doppelte, aber auf der Roadmap war das noch nie auch nur in der Nähe von 2018.

Rancor
2018-08-17, 08:02:57
Nebenbei bemerkt: Nvidia wird mit an Sicherheit grenzender Wahrscheinlichkeit auf der Gamescom eine Raytracing-Version von Betafield 5 zeigen. Die aktuell laufende, zweite Alpha gibt bei den Renderer-Infos explizit "Raytrace: Off" aus. Na, wer da nicht auf Turing kommt. :naughty: Leider habe ich keine Titan V da, um zu schauen, wie das Spiel darauf reagiert, aber die hat ja auch keine mighty RT Cores.

MfG,
Raff

Dann wäre dann wohl das erste AAA Game, welches Raytracing nutzt. Schneller als gedacht ^^
2080 ich heiße dich Willkommen im meinem Rechner =)

HOT
2018-08-17, 08:12:29
So einfach scheint mir das auch nicht zu sein. Die jetzige Generation (HBM2) war doch nie mit mehr als 8-Hi und 8gbit pro Die geplant, mit 4 Stacks (und mehr will wahrscheinlich wirklich niemand verwenden) gibt das eben nur 32GB. Klar "HBM3" sollte dann 16gbit Chips verwenden, da geht dann das doppelte, aber auf der Roadmap war das noch nie auch nur in der Nähe von 2018.
Dann machst halt 2 Stapel mehr, wo ist das Problem...

dargo
2018-08-17, 08:16:38
Stefano von Kunos (ACC) hat die Arbeit an Vulkan/DX12 - UE4 länger schon bestätigt. Auf Vulkan wurde jedoch sich mehr focussiert (gut so).
Die brauchen für die Rennsimulation sowieso die CPU Entlastung, weil die super im Limit hängen dank der AI+realen Physik.
Hast du dazu eine Quelle? :)

Edit:
Habs gefunden.
https://www.youtube.com/watch?v=K8HXB-7Ts8Y&t=1696s

Locuza
2018-08-17, 08:36:42
Dann machst halt 2 Stapel mehr, wo ist das Problem...
Du meinst ein 6144-Bit Interface?
Das würde einen zwingen andere Dimensionen beim Interposer zu benötigen und möglicherweise das Chip-Layout selber zu verformen.

So sieht ein NEC-Chip mit 6 HBM-Stacks aus:
https://upload.wikimedia.org/wikipedia/commons/9/9a/NEC-SX-10-03.jpg

Und dann hätte man am Ende auch nur 48GB.

Godmode
2018-08-17, 08:39:37
Du meinst ein 6144-Bit Interface?
Das würde einen zwingen andere Dimensionen beim Interposer zu benötigen und möglicherweise das Chip-Layout selber zu verformen.

So sieht ein NEC-Chip mit 6 HBM-Stacks aus:
https://upload.wikimedia.org/wikipedia/commons/9/9a/NEC-SX-10-03.jpg

Und dann hätte man am Ende auch nur 48GB.

Man könnte ja auch einfach zwei Interposer verwenden, dann müsste der Chip nicht so länglich werden.

Locuza
2018-08-17, 08:45:54
Klingt für mich nicht einfacher, als ein 384-Bit GDDR6-Interface im Clamshell-Modus mit 48GB Speicher.

mironicus
2018-08-17, 08:51:41
Das alte Spiel wiederholt sich wieder, wie damals schon bei Physix. Es gibt in ein paar Games einen zusätzlichen NVidia-Modus (mit Raytracing), der dann aber die Performance stark sinken lässt und dann werden manche verleitet sich die teuerste neueste Karte zu holen, um noch spielbare Frameraten erhalten zu können.

Dural
2018-08-17, 09:03:40
Mit dem unterschied das PhysX damals nicht in MS DX drin war wie jetzt RT ;)

Übrigens PhysX war eine Nette Spielerei, ich hatte zu der Zeit immer eine Karte nur für PhysX drin.

TobiWahnKenobi
2018-08-17, 09:10:53
danke dural :)

so komme ich noch zu mighty RT cores ohne titan V ausrangieren zu müssen. 2080 wird primärkarte und TV bleibt als physXbeschleuniger im rechner.

addieren sich dann die tensorcores?? :) :)

-> endlich wieder geldverbrennen.. early adopter halt :P

muss RT auf der primären karte unterstützt werden oder kann man auch eine GPU als dedizierte RT GPU nutzen?



(..)

mfg
tobi

Triniter
2018-08-17, 09:16:19
danke dural :)

so komme ich noch zu mighty RT cores ohne titan V ausrangieren zu müssen. 2080 wird primärkarte und TV bleibt als physXbeschleuniger im rechner.

addieren sich dann die tensorcores?? :) :)

-> endlich wieder geldverbrennen.. early adopter halt :P



(..)

mfg
tobi
Du im Zweifelsfall kauf ich dir die TV für paar € fufzig ab, mehr isse dann eh nimmer wert :biggrin:

Bambuslooter
2018-08-17, 09:23:28
Hast du dazu eine Quelle? :)

Edit:
Habs gefunden.
https://www.youtube.com/watch?v=K8HXB-7Ts8Y&t=1696s

Ja sorry, war schon zu müde zum Suchen.
Hier bitte:
https://www.assettocorsa.net/forum/index.php?threads/physics-differences-ac-acc.49142/page-11#post-978863
Du brauchst einen Account dort, um es zu sehen.

Hier als Bild:
https://i.gyazo.com/64012c3e25988ba7cd2e715243a0c61b.png
https://i.gyazo.com/022d4d819880d94974e9281fcbb7c997.png

Zwecks Raytracing und Turing habe ich direkt mal ein Thema dort erstellt.
Mal sehen was rauskommt.
Falls jemand das selbst nachlesen will:
https://www.assettocorsa.net/forum/index.php?threads/assetto-corsa-competizione-raytracing-confirmed.50506/

MasterElwood
2018-08-17, 09:33:00
Tell me more... ;)

Damit wollte ich sagen dass das neue AI basierte AA ja schon in den neuen Karten in Hardware eingebaut ist - und es sofort auf die RT Bilder angewandt werden kann.

Ich glaub nicht mehr an einen Zufall dass es gerade jetzt gekommen ist weil halt die Cores da sind. Ich denke NV hat es extra entwickelt um ein gutes und performantes AA fürs RT zu haben - und dass man es auch für traditionelle Grafik nehmen kann ist nur ein positiver Nebeneffekt - aber ned mehr.

horn 12
2018-08-17, 10:14:28
https://videocardz.com/77362/nordichardware-nvidia-geforce-rtx-2080-preorders-to-go-live-on-monday


GTX 2080 Vorbestellbar
und Montag der Release Tag
GTX 2080 TI Später

Radeonfreak
2018-08-17, 10:19:04
TI wieviel später wäre doch mal eine Aussage. :frown:

Bucklew
2018-08-17, 10:35:32
Schon mal die Kreditkarte rauskramen ;D

Dural
2018-08-17, 10:45:04
Raff hört sich aber nicht so an als ob die schon Karten hätten (Leider keine Titan V da...) ;)

Ich wäre mir nicht so sicher ob wir am Montag schon Tests sehen werden. :rolleyes:

r3ptil3
2018-08-17, 10:46:10
Auf die Raytraycing-Ergebnisse bin ich mal äusserst gespannt.

Frage mich gerade wo die Leistung einer 2080 TI einzuordnen ist, wenn die 2080 schon über der TitanV-Niveau sein soll.

Troyan
2018-08-17, 10:49:34
Es gibt keine Tests am Montag. Montag ist Präsentation. Tests wird es wahrscheinlich zwei Wochen später geben.

robbitop
2018-08-17, 10:53:09
Bei Pascal hat es ~7-8 Monate gedauert (zwischen der ersten Titan X Pascal und der 1080 ti). IIRC waren weitere 5 Monate zwischen Quadro (GP100) und Titan X (GP102).
Wenn es wieder genauso läuft, sehen wir erst nächsten Sommer eine 1080 ti und erst Ende des Jahres eine Titan GT102.
Aber es kann auch ganz anders laufen... :)

Kriegsgeier
2018-08-17, 10:56:04
Angeblich werden die Karten am Montag bei den Testern ankommen!

Wahnsinn wieviele 1080tis auf Ebaykleinanzeigen angeboten werden...

Daredevil
2018-08-17, 11:00:34
AMD spielt das Raytracing Spiel auch mit. :D
https://twitter.com/RadeonPro/status/1030182408941961218
https://twitter.com/RadeonPro/status/1029789959115485184

Linmoum
2018-08-17, 11:04:34
Klar, sitzen doch mit Microsoft alle in einem Boot. Die Frage ist doch eigentlich nur, ob es bereits mit Navi eine HW-Lösung geben wird, oder erst mit der Gen danach.

robbitop
2018-08-17, 11:06:48
Angeblich werden die Karten am Montag bei den Testern ankommen!

Wahnsinn wieviele 1080tis auf Ebaykleinanzeigen angeboten werden...
Ich tippe immernoch darauf, dass GT104 für GP102 Besitzer eher ein Sidegrade mit leichtem Plus ist. Wie bei den Gens davor auch. GT102 wäre für die eigentlich interessanter.

y33H@
2018-08-17, 11:14:17
Angeblich werden die Karten am Montag bei den Testern ankommen!Ohne Treiber wertlos.

Raff
2018-08-17, 11:15:45
Ohne Treiber wertlos.

Der kommt dann bestimmt 2-3 Tage vor NDA-Fall. An einem Freitag. :ugly:

MfG,
Raff

P.S: Nicht jede scheinbare Info für voll nehmen.

Linmoum
2018-08-17, 11:19:51
Ich tippe immernoch darauf, dass GT104 für GP102 Besitzer eher ein Sidegrade mit leichtem Plus ist. Wie bei den Gens davor auch. GT102 wäre für die eigentlich interessanter.
Bei leichtem Plus? Das wäre für GP102-Besitzer doch eher ein Downgrad, weil sehr wahrscheinlich 3GB weniger vorhanden sind.

Vielleicht erinnern sich die Leute aber auch an Pascal und denken, dass es genauso ablaufen wird und die 2080 auch diesmal deutlich schneller als die 1080ti sein wird.

Oder aber man will direkt auf die 2080ti wechseln, was ich dann doch eher für wahrscheinlicher halten würde. Ist dann nur die Frage, wann die kommt.

BlacKi
2018-08-17, 11:21:59
P.S: Nicht jede scheinbare Info für voll nehmen.
damit ist wohl der 8gb fake gemeint:biggrin:

yamo
2018-08-17, 11:25:58
https://videocardz.com/77362/nordichardware-nvidia-geforce-rtx-2080-preorders-to-go-live-on-monday


GTX 2080 Vorbestellbar
und Montag der Release Tag
GTX 2080 TI Später

Wurde die News überarbeitet? ->"Rumors also suggest that we might see RTX 2080 Ti graphics card as well."

Das wäre mal sehr geil. Bei der Ti würde ich sofort schwach werden. Kommt eh wieder unter Wasser. Die dort spekulierten UVP sind (für heutige Verhältnisse) ja noch im Rahmen:freak:
Schätze dennoch, es werden ~750 € für die 2080 FE fällig.

Hübie
2018-08-17, 11:27:18
Klar, sitzen doch mit Microsoft alle in einem Boot. Die Frage ist doch eigentlich nur, ob es bereits mit Navi eine HW-Lösung geben wird, oder erst mit der Gen danach.

Eben. So einen ASIC einzubetten ist nicht mal eben so gemacht, und den überhaupt zu entwerfen ebenso wenig.

Ich tippe immernoch darauf, dass GT104 für GP102 Besitzer eher ein Sidegrade mit leichtem Plus ist. Wie bei den Gens davor auch. GT102 wäre für die eigentlich interessanter.

Denke ich auch. Auch was Speicher angeht. :D

Kriton
2018-08-17, 11:27:26
AMD spielt das Raytracing Spiel auch mit. :D
https://twitter.com/RadeonPro/status/1030182408941961218
https://twitter.com/RadeonPro/status/1029789959115485184

Wir sind hier ein "bisschen" OT, aber ich frage mich, ob das nicht "nur" über die compute units gemacht wird. Flexibel genug dafür sind sie doch, oder? Wäre unter Performancegesichtspunkten aber doch sicher Meilen von dedizierten HW-Lösungen wie bei Nvidia entfernt?

Hübie
2018-08-17, 11:28:29
Ganz genau so sieht es aus. Siehe der Vergleich mit Titan xP.

Bucklew
2018-08-17, 11:30:09
Wir sind hier ein "bisschen" OT, aber ich frage mich, ob das nicht "nur" über die compute units gemacht wird. Flexibel genug dafür sind sie doch, oder? Wäre unter Performancegesichtspunkten aber doch sicher Meilen von dedizierten HW-Lösungen wie bei Nvidia entfernt?
Jo, Turing wird da Kreise drum drehen.

Daredevil
2018-08-17, 11:31:18
Wir sind hier ein "bisschen" OT, aber ich frage mich, ob das nicht "nur" über die compute units gemacht wird. Flexibel genug dafür sind sie doch, oder? Wäre unter Performancegesichtspunkten aber doch sicher Meilen von dedizierten HW-Lösungen wie bei Nvidia entfernt?
In dem Sinne schon OT, weil es natürlich ne AMD News ist. Aber trotzdem erfreulich, dass AMD ebenso an dieser Technik arbeitet.
Vega alleine ist ja schon durchaus ein Compute Biest, dafür weniger ein Gaming Sternchen, vielleicht kann man da mit HBM2 und der massiven Cache Performance mehr rausholen als im Vergleich zu Pascal.
Aber das ist nun wirklich OT. :D

Hübie
2018-08-17, 11:32:25
Die nächste Konsolengen wird es ebenfalls nutzen, also...

Sven77
2018-08-17, 11:32:52
Und wenn man schon was rausholt, uninteressant da niemand diesen ProRender benutzt

Troyan
2018-08-17, 11:35:45
Die nächste Konsolengen wird es ebenfalls nutzen, also...

So wie Tessellation? ;D

Ziemlicher Unsinn anzunehmen, dass die nächste KonsolenGen es nutzen würde. Das R&D ist viel zu hoch für Sony und Microsoft, um die Entwicklung für AMD zu bezahlen.

Da kommt das Standard-Zeug rein, das dank 7nm eben 2x schneller als eine Xbox One X ist. Das wird ziemlich lustig werden, wenn Konsolen beim Erscheinen schon komplett veraltet sind.

dargo
2018-08-17, 11:35:52
Die nächste Konsolengen wird es ebenfalls nutzen, also...
Quelle?

dildo4u
2018-08-17, 11:38:33
Das sieht für mich genau so wie bei NV aus,jetzt bringt AMD Karten für die Entwickler und als nästes für die User.Vorteil die Workstation Vega kostet keine 3000€ was gut für kleinere Entwickler ist.

MiamiNice
2018-08-17, 11:40:04
Schon mal die Kreditkarte rauskramen ;D

Hab die Karten immer griffbereit ;D
Das wird noch ein teures Jahr.
9900K + Board + 32GB 4000er Ram + RTX 2080 TI + WaKü Blocks
Sieht so nach Richtung 2,5K aus :freak:
Ist ja bald Weihnachten, lol ;D

Das sieht für mich genau so wie bei NV aus,jetzt bringt AMD Karten für die Entwickler und als nästes für die User.Vorteil die Workstation Vega kostet keine 3000€ was gut für kleinere Entwickler ist.

Amd, Amd, Amd, Threadtitel check, mhh.
Wir brauchen imo dringend auch ein paar grüne und blaue Mods.


----


Was haltet Ihr eigentlich von der Idee das NV einen neuen AI basierten AA Ansatz bringt der die Leistung der Tensor Cores auch für Gamer nutzbar macht? Würde imo gut zu den gespaltenen Gerüchten der letzten Tage passen. Der Chip hat traditionell gesehen um 30% mehr Power, wie man durch den Anstieg der Einheiten und der Speicherbandbreite errechnen kann. Schaltet man das neue AA dazu, übernehmen die Tensor Cores das AA, die normalen Cores brechen nicht ein -> dadurch die enormen Zuwächse die teils in den Leaks zu sehen sind.

dargo
2018-08-17, 11:58:08
Was haltet Ihr eigentlich von der Idee das NV einen neuen AI basierten AA Ansatz bringt der die Leistung der Tensor Cores auch für Gamer nutzbar macht? Würde imo gut zu den gespaltenen Gerüchten der letzten Tage passen. Der Chip hat traditionell gesehen um 30% mehr Power, wie man durch den Anstieg der Einheiten und der Speicherbandbreite errechnen kann. Schaltet man das neue AA dazu, übernehmen die Tensor Cores das AA, die normalen Cores brechen nicht ein -> dadurch die enormen Zuwächse die teils in den Leaks zu sehen sind.
Von welchen AA-Einbrüchen sprichst du überhaupt? In den letzten Jahren hat sich temporales AA durchgesetzt (MSAA findet nur noch bei Forward(+) Verwendung). Und das ist fast "for free". Was willst du hier also gravierend beschleunigen?

MiamiNice
2018-08-17, 12:09:53
Irgendein Post Processing welches optisch das Bild massiv aufwertet. Vielleicht vergleichbar mit mittleren bis hohen Supersampling Modi. Läuft vielleicht auf den AI Cores oder den RT Cores oder beiden zusammen. Entlastet die normalen Einheiten.
Ist nur eine fixe Idee ohne tiefere Gedanken dazu. Ich vermute das NV die 30% DIE Fläche irgendwie für den Gamer nutzbar macht, auch in "normalen" Games. Von NV erwartet ich so eine Lösung, weil es irgendwie logisch klingt (technische Machbarkeit, keine Ahnung).

Chris Lux
2018-08-17, 12:12:49
Irgendein Post Processing welches optisch das Bild massiv aufwertet. Vielleicht vergleichbar mit mittleren bis hohen Supersampling Modi. Läuft vielleicht auf den AI Cores oder den RT Cores oder beiden zusammen. Entlastet die normalen Einheiten.
Ist nur eine fixe Idee ohne tiefere Gedanken dazu. Ich vermute das NV die 30% DIE Fläche irgendwie für den Gamer nutzbar macht, auch in "normalen" Games. Von NV erwartet ich so eine Lösung, weil es irgendwie logisch klingt (technische Machbarkeit, keine Ahnung).
Trenn dich mal von der Wahnvorstellung 30% Die-Fläche.

Daredevil
2018-08-17, 12:13:23
Wenn du Tensor Cores und "for free" beschreibst, werden die mit Luft und Liebe angetrieben? :D
Vielleicht bekommt man ja ein AA hin, welches keine Leistung mehr kostet, aber die Tensor Cores verbrauchen Strom und "for free" ist da dann leider gar nichts. Wie viel das auch immer sein wird, falls es so kommt.

MiamiNice
2018-08-17, 12:20:43
Trenn dich mal von der Wahnvorstellung 30% Die-Fläche.

OK

Wenn du Tensor Cores und "for free" beschreibst, werden die mit Luft und Liebe angetrieben? :D
Vielleicht bekommt man ja ein AA hin, welches keine Leistung mehr kostet, aber die Tensor Cores verbrauchen Strom und "for free" ist da dann leider gar nichts. Wie viel das auch immer sein wird, falls es so kommt.

For free in Bezug auf die Leistung der non RT und Tensor Cores. Der Verbrauch steht für mich auf einem anderen (uninteressanten) Blatt.

PHuV
2018-08-17, 12:25:16
Wahnsinn wieviele 1080tis auf Ebaykleinanzeigen angeboten werden...
Zu absoluten Mondpreisen. :rolleyes:

Daredevil
2018-08-17, 12:28:30
For free in Bezug auf die Leistung der non RT und Tensor Cores. Der Verbrauch steht für mich auf einem anderen (uninteressanten) Blatt.
Es muss zumindest irgendwie im Mehrverbrauch konkurrieren mit dem erhöhen des PowerTargets, weil sonst ist das ganze ziemlich Sinnlos ab einem bestimmten Punkt, weil letzteres nicht nur die AA Performance, sondern Overall anhebt. Verbrauch ist da schon ein wichtiger Teil.

horn 12
2018-08-17, 12:31:56
https://wccftech.com/nvidia-gtx-2060-5gb-3dmark-score-allegedly-leaks-its-very-fast/

Sollte dies echt die 2060 sein, zwar nur 5 GB aber da hätte AMD ein Problem
oder ist dies nur Full HD

reaperrr
2018-08-17, 12:38:47
Trenn dich mal von der Wahnvorstellung 30% Die-Fläche.
Warum Wahnvorstellung?

Wenn GT104 wirklich nur 20% mehr SM als GP104 hat und trotzdem bei ~500mm² liegt, kommt das mit den 30% (~150mm²) für die zusätzlichen Rasterizer, Tensor- und RT-Cores schon ungefähr hin.

y33H@
2018-08-17, 13:20:15
Vielleicht sind die SMs größer ... zudem mehr L1/L2.

Bucklew
2018-08-17, 13:20:23
https://wccftech.com/nvidia-gtx-2060-5gb-3dmark-score-allegedly-leaks-its-very-fast/

Sollte dies echt die 2060 sein, zwar nur 5 GB aber da hätte AMD ein Problem
oder ist dies nur Full HD
Und was wurden wir hier ausgelacht, als wir für die nächste Generation eine x60er Karte auf Vega-Niveau bei 50% der Leistungsaufnahme prophezeit hatten ;D

Felis silvestris
2018-08-17, 13:21:16
https://wccftech.com/nvidia-gtx-2060-5gb-3dmark-score-allegedly-leaks-its-very-fast/

Sollte dies echt die 2060 sein, zwar nur 5 GB aber da hätte AMD ein Problem
oder ist dies nur Full HD

Zunächst machen mich nur 5 GByte skeptisch, wenn ein GPU wirklich die Perfomance einer 1080 hätte bräuchte sie auch den RAM um ihr Potential zu entfalten. Und warum sollte der Nachfolger weniger Speicher als der Vorgänger GTX1060 haben welche schon wegen den 6 GByte RAM im Vergleich zur Konkurrenz (RX580 hat 8GByte) kritisiert wurde? Entweder ist das Fake oder wurde halt in irgendwelchen Settings gebencht die für diese Karte passen...

Und was wurden wir hier ausgelacht, als wir für die nächste Generation eine x60er Karte auf Vega-Niveau bei 50% der Leistungsaufnahme prophezeit hatten ;D

Bei der Leistungsaufnahme wäre ich noch zurückhaltend weil es eher so scheint das Turing etwas mehr verbrauchen wird als Pascal (gut ist ja auch mehr drin). Vega64 Performance ist sicher möglich auch wenn ich eher auf 1070TI Niveau spekuliere. Aber dann bitte mind. 8 GByte RAM bitte!

aufkrawall
2018-08-17, 13:23:24
Imho unvorstellbar, dass NV die Leistung erhöht und die Menge des VRAMs verringert. Es dürfte noch irgendeine Überraschung geben.

Bösewicht
2018-08-17, 13:31:34
Und was wurden wir hier ausgelacht, als wir für die nächste Generation eine x60er Karte auf Vega-Niveau bei 50% der Leistungsaufnahme prophezeit hatten ;D
án die kleine vega wird die bestimmt an der ein oder anderen stelle mal min. kratzen aber die 5gb sind doch wieder nur troll futter.
4 und 8 gb wird es hoffentlich sein

Linmoum
2018-08-17, 13:34:44
Und was wurden wir hier ausgelacht, als wir für die nächste Generation eine x60er Karte auf Vega-Niveau bei 50% der Leistungsaufnahme prophezeit hatten ;D
Interessant, wem man glaubt, wenn es ins Weltbild passt. Wie der "2080 WITH TITAN V PERFORMANCE"-Leak von wtftech. Große Fresse bis festgestellt wurde, dass deren Leak der angeblichen Titan V Performance in der Realität sogar hinter einer 1080ti lag. Aber gut. Ich mach mir die Welt...

Und 5GB erhöhen die Glaubwürdigkeit natürlich auch noch. ;D;D

MiamiNice
2018-08-17, 13:37:09
Imho unvorstellbar, dass NV die Leistung erhöht und die Menge des VRAMs verringert. Es dürfte noch irgendeine Überraschung geben.

Warum? Man muss bedenken in welchem Segment die 2060 zuhause ist. Mit fast 1080 Power ist man da ausreichend bedient, da kommen die 5GB Ram imo gerade recht. Es ist die Mittelklasse, da soll keiner über 1080P spielen. Der mangelnde RAM würde der Karte die passende Grenze setzen.
Will man mehr als FHD -> High End.

BlacKi
2018-08-17, 13:38:23
Zunächst machen mich nur 5 GByte skeptisch, wenn ein GPU wirklich die Perfomance einer 1080 hätte bräuchte sie auch den RAM um ihr Potential zu entfalten. Und warum sollte der Nachfolger weniger Speicher als der Vorgänger GTX1060 haben welche schon wegen den 6 GByte RAM im Vergleich zur Konkurrenz (RX580 hat 8GByte) kritisiert wurde? Entweder ist das Fake oder wurde halt in irgendwelchen Settings gebencht die für diese Karte passen...
die 1060 3gb hat auch "zuviel" leistung für 3gb. damit wäre die speichermenge zwar nicht verdoppelt, aber von 3gb auf 5gb ist immernoch ein sprung.

Troyan
2018-08-17, 13:39:24
Die GTX1080 hat 8GB. Eine Karte, die genauso schnell ist, macht mit 5GB keinen Sinn. Es macht null Sinn Die-Size zu verplempern, wenn die Leistung aufgrund des geringen Speichers nicht erreicht wird.

aufkrawall
2018-08-17, 13:41:28
Der mangelnde RAM würde der Karte die passende Grenze setzen.
Will man mehr als FHD -> High End.
Niemand bei Verstand kauft für 300€ eine neue Karte, um zunehmend mit Matschtexturen in 1080p zu spielen.

BlacKi
2018-08-17, 13:41:32
Die GTX1080 hat 8GB. Eine Karte, die genauso schnell ist, macht mit 5GB keinen Sinn. Es macht null Sinn Die-Size zu verplempern, wenn die Leistung aufgrund des geringen Speichers nicht erreicht wird.
jo, aber trotzdem gab es die 1060 mit 3gb.

MiamiNice
2018-08-17, 13:42:01
Zum erreichen der Leistung ist imho die Bandbreite wichtig, nicht die Menge. Die Menge gibt nur wie wie viele oder wie hoch aufgelöste Texturen in den Speicher passen. Mehr als 4GB Speicher braucht man doch heute nicht unter FHD. Mehr als FHD und hohe AA Modi welche den Speicherverbrauch treiben - ist doch eher Sache der High End Pixelschubser und nicht der Mittelklasse.
Oder liege ich da verkehrt?

Niemand bei Verstand kauft für 300€ eine neue Karte, um zunehmend mit Matschtexturen in 1080p zu spielen.

Niemand aus dem 3DC ... ja. Aber sonst? Ich denke schon.

RLZ
2018-08-17, 13:42:28
Gleiche Speichergröße wäre sehr seltsam. Das würde abzüglich des Speichers für die RT Beschleunigerstrukturen eine ziemliche Reduktion gegenüber dem Vorgänger ergeben.

monstar-x
2018-08-17, 13:43:11
Zu absoluten Mondpreisen. :rolleyes:
Über die Preise wirst du dich noch freuen.
Unter 850€ wirst du im September keine 2080 kaufen könne, da bin ich mir sehr sicher.

Troyan
2018-08-17, 13:43:14
jo, aber trotzdem gab es die 1060 mit 3gb.

Die Karte kostete $199 oder so. 5Gb machen nur Sinn, wenn die Karte ebenfalls $199 kosten würde.

Davon abgesehen, wäre nach oben ja nur 1GB mehr Platz bei 192bit vorhanden... Außer der Nachfolger der GTX1060 erhält dann 10GB. :freak:

Kriegsgeier
2018-08-17, 13:45:05
2080ti wird wohl 999$ kosten

Ich glaube diesmal wirft NVIDA alle 4 Grakas auf den Markt:
2060
2070
2080
Und
2080ti

Troyan
2018-08-17, 13:46:21
Videocardz hat Leaks von MSI für RTX2080 und RTX2080TI: https://videocardz.com/newz/exclusive-msi-geforce-rtx-2080-ti-gaming-x-trio-pictured

monstar-x
2018-08-17, 13:47:49
Videocardz hat Leaks von MSI für RTX2080 und RTX2080TI: https://videocardz.com/newz/exclusive-msi-geforce-rtx-2080-ti-gaming-x-trio-pictured


Wenn das stimmt, 8 GB GDDR6 ;D;D;D
Glaube aber eher an ein Fake.

aufkrawall
2018-08-17, 13:49:21
Oder liege ich da verkehrt?
Ja, weil es eine große Spannweite bei der benötigten Mengen zwischen den Spielen gibt. RotTR, Mirror's Edge, Final Fantasy... Die Fresser sind teilweise schon über zwei Jahre alt und es kommen weiterhin neue.

Troyan
2018-08-17, 13:50:49
6GB reichen nichtmal für 4 Jahre alte Call of Duty Spiele. Wie soll da eine Karte mit 5GB und GTX1080 Leistung bitte die Rohleistung auf die Strecke bringen?

Vor Allem da durch mehr Leistung auch die Leute sich bessere Monitore kaufen...

BlacKi
2018-08-17, 13:51:28
Die Karte kostete $199 oder so. 5Gb machen nur Sinn, wenn die Karte ebenfalls $199 kosten würde.

Davon abgesehen, wäre nach oben ja nur 1GB mehr Platz bei 192bit vorhanden... Außer der Nachfolger der GTX1060 erhält dann 10GB. :freak:
vlleicht etwas mehr, aber so um den dreh, ja. 10gb rtx 2060 dann für 350$ oder so.

Cubitus
2018-08-17, 13:51:43
Vielleicht werden dann alle Modelle gleichzeitig raus gehauen, wäre nice. :biggrin:

2080ti wird wohl 999$ kosten

Ich glaube diesmal wirft NVIDA alle 4 Grakas auf den Markt:
2060
2070
2080
Und
2080ti

Die Titan nicht vergessen ;)

Mortalvision
2018-08-17, 13:52:31
Steht doch dtwuf: 11GB für 2080Ti. Glaube aber auch, eher ein Fake. Die Verpackung hat viel Photoshop gesehen..

pilzsammler2002
2018-08-17, 13:52:46
6GB reichen nichtmal für 4 Jahre alte Call of Duty Spiele. Wie soll da eine Karte mit 5GB und GTX1080 Leistung bitte die Rohleistung auf die Strecke bringen?

Vor Allem da durch mehr Leistung auch die Leute sich bessere Monitore kaufen...
Texturen etc. runter stellen?
Wenn du Ultra only willst musste halt zur größten greifen :freak:

MiamiNice
2018-08-17, 13:54:51
Vielleicht soll die 2060 die Power gar nicht dermaßen auf die Straße bringen sondern ein Angebot für preisbewusste FHD Spieler sein. Wie gesagt es ist nur die schnöde Mittelklasse. Da kaufen sich die Leute i.d.R. auch keine Monitore über 120€ ... Montag wissen wir alle mehr.

Texturen etc. runter stellen?
Wenn du Ultra only willst musste halt zur größten greifen :freak:

So sehe ich das auch. Mittelklasse war noch nie da um alle Regler nach rechts zu ziehen. Sondern für leute die nicht ganz so viel Geld investieren wollen aber trotzdem Spaß haben möchten. Das kann man imho auch auf einer 2060 mit 5GB an einem FHD Moni ohne G-Sync bei 60Hz.

Linmoum
2018-08-17, 13:55:15
Weil man 5GB in FHD nicht vollbekommt?

Raff
2018-08-17, 13:59:27
Weil man 5GB in FHD nicht vollbekommt?

Logen kriegt man die voll und dann hat man Probleme (Matsch, Ruckeln oder Ruckelmatsch). Rise of the Tomb Raider, Wolfenstein 2, Mirror's Edge Catalyst, CoD WW2 und CoD BO4 (Beta) fallen mir aus dem Stand ein.

MfG,
Raff

Dural
2018-08-17, 13:59:39
falls es einen GT106 gibt, wird dieser sicher wider nur 192Bit haben! So mit sind nur 3/6/12GB möglich, oder man speckt das SI halt ab. Der GT106 Die dürfte auch recht gross sein...

Und überhaupt, gegen ein 1060 3GB Nachfolger mit 5GB spricht doch nichts?

Troyan
2018-08-17, 13:59:53
Vielleicht soll die 2060 die Power gar nicht dermaßen auf die Straße bringen sondern ein Angebot für preisbewusste FHD Spieler sein. Wie gesagt es ist nur die schnöde Mittelklasse. Da kaufen sich die Leute i.d.R. auch keine Monitore über 120€ ... Montag wissen wir alle mehr.



So sehe ich das auch. Mittelklasse war noch nie da um alle Regler nach rechts zu ziehen. Sondern für leute die nicht ganz so viel Geld investieren wollen aber trotzdem Spaß haben möchten. Das kann man imho auch auf einer 2060 mit 5GB an einem FHD Moni ohne G-Sync bei 60Hz.

Deswegen hat die GTX1060 6GB gehabt? :freak:
Sparmaßnahmen werden nie gut ankommen. Vor Allem, wenn die Leute merken, dass sie zwar genug Rechenleistung für alles haben, aber aufgrund des Speichers ausgebremst werden.

AffenJack
2018-08-17, 14:01:24
falls es einen GT106 gibt, wird dieser sicher wider nur 192Bit haben! So mit sind nur 3/6/12GB möglich, oder man speckt das SI halt ab.

5 GB halte ich durchaus möglich für die Cut-Down 2060. Da würde es Sinn machen. Aber ja, der Vollausbau wird bestimmt 6 GB.

Linmoum
2018-08-17, 14:02:37
Logen kriegt man die voll und dann hat man Probleme (Matsch, Ruckeln oder Ruckelmatsch). Rise of the Tomb Raider, Wolfenstein 2, Mirror's Edge Catalyst, CoD WW2 und CoD BO4 (Beta) fallen mir aus dem Stand ein.

MfG,
Raff
Deswegen ja. Er sprach davon, dass so eine Karte dann ja eher was für preisbewusste FHD-Spieler wäre. ;) Das ergibt nämlich keinen Sinn, weil auch die die nur 5GB merken würden.

Aber ich halte es eh für absurd, dass Nvidia die Speichermenge reduziert.

Raff
2018-08-17, 14:04:03
Vielleicht ist das der Nachfolger der GTX 1030 3GB. 5 GiB sind durchaus okay, aber nichts, was man ohne Bauchschmerz für die Zukunft empfehlen kann. Das zusätzliche GiB ist gegenüber 4 GiB auf jeden Fall sinnvoll, besser wäre jedoch eine Zwischenstufe wie 7. :ugly:

MfG,
Raff

Dural
2018-08-17, 14:04:09
Reduziert? 1060 3GB übersehen?

2080 bekommt ja auch nur 8GB...

Felis silvestris
2018-08-17, 14:04:15
jo, aber trotzdem gab es die 1060 mit 3gb.
Gibts immer noch, die ist aber nicht nur beim RAM abgespeckt, auch bei den SPUs AFAIK. Soll halt die Lücke zwischen 1050TI und 1060 6GB füllen. Aber für Nextgen ist meiner bescheidenen Meinung nach alles unter 8GByte zuwenig.

Troyan
2018-08-17, 14:08:23
Die wohl möglich gleichbleibende Speichermenge ist dann mit ein Grund, wieso nVidia zeitnah RT102 auf den Markt bringt: Die ganzen 8GB User sollen ja auch irgendwo hin aufrüsten.

Ex3cut3r
2018-08-17, 14:10:13
Imho unvorstellbar, dass NV die Leistung erhöht und die Menge des VRAMs verringert. Es dürfte noch irgendeine Überraschung geben.

Ja erscheint mir auch unlogisch, vlt. gibt ja zwei Versionen, eine mit 8GB eine mit 16GB?

Mit 8GB only und die eine Graka sogar mit 5GB only? Sind das doch imo die kommenenden Speicher Krüppels.

Dural
2018-08-17, 14:11:16
Das und vor allem die kosten der grossen Dies müssen ja auch irgend wie rein kommen. Da macht es nicht viel Sinn 16 + 24GB zu verbauen, wäre übrigens Sinnlos viel.

Linmoum
2018-08-17, 14:12:21
Reduziert? 1060 3GB übersehen?
Nö, ich sehe die 1060 6GB. Oder was soll das sonst sein, wenn Nvidia jetzt eine 2060 mit 5GB bringt, obwohl es eine 1060 mit 6GB gibt? Zumal die 3GB nicht nur beim Speicher beschnitten war.

Bösewicht
2018-08-17, 14:12:26
falls es einen GT106 gibt, wird dieser sicher wider nur 192Bit haben! So mit sind nur 3/6/12GB möglich, oder man speckt das SI halt ab. Der GT106 Die dürfte auch recht gross sein...

Und überhaupt, gegen ein 1060 3GB Nachfolger mit 5GB spricht doch nichts?
macht tzwar sinn aber warum sollte nvidia eine 5 und 6 karte bringen bei so kleinen unterschied würde ich mich ehr dann nur noch für eine entscheiden.

nur ob ein update ohne mehr speicher 1050/60 kunden reicht hm finde ich aus marketing sicht zu wenig.

Dural
2018-08-17, 14:14:53
Ich glaube die sind ganz froh wenn sie den Chip bisschen deaktivieren können. ;)

Die Chips sind richtig gross für ihre klasse! Aber warten wir mal ab, kann genau so gut Fake sein.

MiamiNice
2018-08-17, 14:18:16
Das NV demnächst RAM Upgrades per NVLink anbietet ist ausgeschlossen, oder? :freak:

Dural
2018-08-17, 14:19:00
Nein aber mit 7nm ;)

Thunderburne
2018-08-17, 14:23:36
Her mit der Ti.

Ex3cut3r
2018-08-17, 14:23:52
Ich werde eine RTX 2080 Custom holen, egal ob 8GB, hätte zwar lieber 16GB, aber die wird es wohl nicht geben, aber ein komisches Gefühl bleibt, meine alte 1070er hatte schon 8GB, und die sind bei ROTTR in 3440x1440 voll, Deus Ex waren 6GB belegt, ME:C waren 5,5GB Voll, und GTA5 mit Mods nimmt auch schon 6GB ein. Ich finde 8GB einfach nur schwach ende 2018. Eine 290X rls. 2014 hatte schon 8GB. :usad:

Dural
2018-08-17, 14:26:51
Die 290X kam mit 4GB ;) Vega hat übrigens auch nur 8GB, die Fury nur 4GB.

aufkrawall
2018-08-17, 14:28:24
Hawaii gabs in limitierter Stückzahl mit 8GB bei der 200er Reihe, mit der 300er 2015 dann standardmäßig.

Adam D.
2018-08-17, 14:29:05
https://videocardz.com/newz/exclusive-msi-geforce-rtx-2080-ti-gaming-x-trio-pictured

Anscheinend steht die 2080 Ti tatsächlich in den Startlöchern.

Edit: Wurde letzte Seite schon gepostet, sorry.

Ex3cut3r
2018-08-17, 14:29:58
https://videocardz.com/newz/exclusive-msi-geforce-rtx-2080-ti-gaming-x-trio-pictured

Anscheinend steht die 2080 Ti tatsächlich in den Startlöchern.

Ja dann scheiß auf die RTX 2080, gibt mir die Ti! :biggrin:

https://uploads.disquscdn.com/images/03f3d1af12ef9fe291c698c10cbf313e1967c32d5d179c6dd0e74e4fbf9f55fe.jpg

Fake?

Troyan
2018-08-17, 14:32:05
Leak der (Referenz-)Karte? https://www.chiphell.com/thread-1900870-1-1.html

AffenJack
2018-08-17, 14:34:15
Wo bleiben unsere Pixelzähler? Wie groß ist der Chip? 500mm² wie erwartet?

horn 12
2018-08-17, 14:34:34
Nun, bis Heute Abend sollte man die Performance langsam kennen
Die Leaks lassen sich nicht mehr vermeiden,- oder werden gar offiziell erlaubt.

firefly83
2018-08-17, 14:34:45
Wie hoch ist wohl die Chance darauf, dass Nvidia den NVLink Connector auf den Comsumerboards freischaltet und man sich seine 8GB Karte mit einer zweiten auf 16GB erweitern kann... :cool: