Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)
Sunrise
2020-09-12, 01:38:04
Na dann:
Erst kommt der mittlere Chip mit 16GB, 256 SI.
Big Navi kommt erst Frühjahr nächsten Jahres in 5nm.
N5P soll ja vorgezogen worden sein.
HOT in disguise? ;)
Linmoum
2020-09-12, 01:52:31
Nachdem jetzt schon mit wilden Cachegrößen angefangen wird zu spekulieren, ist alles erlaubt und nichts mehr verrückt. :D
Es kommt ja leider auch kaum was. Keine zwei Monate bis Karten (nur N21 oder gleich ein zweiter Chip?) gekauft werden können und das einzige, was man bisher quasi sicher weiß, sind die 80CU und ein paar andere Sachen durch Treibereinträge beim großen Chip. Ich glaube, so kurz vor einer neuen GPU-Generation gab es schon lange nicht mehr so wenig "handfeste(re)s".
Badesalz
2020-09-12, 02:17:57
Könnt ihr jetzt echt nicht anhand von dem was NV
a) davor mit den Preisen von Turing gemacht hat
b) jetzt mit dem Preis, der Art der GPU und dem Stromfressenden GDDR6X, auf einer 3080
wirklich nicht einschätzen wo NV den BigNavi sieht?
Angeblich haben sie ja stets bessere Infos dazu als der Rest der Welt ;)
Redneck
2020-09-12, 08:50:59
Vielleicht kommt das "leadership in Graphics" und "breakthrough in gaming" auch woanders her und ist eher angelehnt an den neuen Konsolen wo ein Schwerpunkt der schnelle Datentransfer von SSD in den grafik/Arbeitsspeicher liegt.
mironicus
2020-09-12, 08:53:11
Angenommen, die Info mit den 128 MB Cache stimmt. Was würde eigentlich so ein großer Cache bringen, vielleicht weniger Mikroruckler in Games? :D
Anderer Vorteil vom Cache... man braucht nur 256 Bit-Anbindung beim Top Dog.
Anderer Vorteil vom Cache... der Chip wird größer und die Kühlung erleichtert, wie schon bei Zen 2.
Der Cache ist BS. Was sollte das bringen? Den Framebuffercache hat beispielsweise die XBox noch, wurde aber danach abgeschafft, weil kacke.
Na dann:
Erst kommt der mittlere Chip mit 16GB, 256 SI.
Big Navi kommt erst Frühjahr nächsten Jahres in 5nm.
N5P soll ja vorgezogen worden sein.
Wenn dann ist das eher unwahrscheinlich. Dann würde man eher sagen, dass N31 näher ist als man denkt und noch mal einen draufsetzt in 5nm.
N22 -> 256Bit
N21 -> 384Bit
und beide in 7nm sollte klar sein.
https://www.youtube.com/watch?v=SxtfNcm45xk&ab_channel=Moore%27sLawIsDead
Ein paar Infos zu Ampere und Navi. Es wird sich wohl "lohnen" eine Founders Edition zu kaufen.
Cyberfries
2020-09-12, 09:26:20
evtl. einfach keinen Bock mehr sich die teilweise echt absurden Diskussionen hier im Thread derzeit anzutun. :P
Kann ich stellenweise verstehen, wenn es sich nur im Kreis dreht. In anderen Foren wird da auch hart durchgegriffen.
z.B. Die potenzielle Quelle Bondrewd ist versiegt, weil er zu oft nur mit Einzeilern geantwortet hat -> 2 Monate gesperrt.
Andererseits wird es aber definitiv nicht besser, wenn man sich alle zwei Seiten mit einem "Scheiß-Diskussion hier" meldet.
Könnt ihr jetzt echt nicht anhand von dem was NV .... gemaht hat
Aber aber .... mir wird hier ständig erzählt, dass die Hersteller ihre Entscheidungen völlig unabhängig voneinander treffen?
Entwicklung der GPUs - AMD reagiert in den Köpfen der Leute nur auf nVidia, alle ihre Chips werden/wurden offensichtlich an nVidia ausgerichte, eigene Ziele hat man nichtt.
Roadmaps - entweder AMD kommt kurz vor oder besser zeitgleich zu nVidia, oder sie sind offenbar schon wieder zu spät dran
Dazu wollte ich noch sagen, dass "zu spät" in meinen Augen eher zu spät im Jahr ist.
Mit Vorstellung Ende Oktober, Marktstart irgendwann im November und Verfügbarkeit vlt. 2021 verschläft man die Holiday Season.
Das wäre ein kapitaler Fehler - unabhängig von der Konkurrenz - den man den Produktplanern vorwerfen kann.
Anderer Vorteil vom Cache... man braucht nur 256 Bit-Anbindung beim Top Dog.
Anderer Vorteil vom Cache... der Chip wird größer und die Kühlung erleichtert, wie schon bei Zen 2.
Um den Bandbreitennachteil abfedern zu können, sind die 128mb wieder viel zu wenig.
Größerer Chip? Das mag eine Rolle spielen beim Schritt von 60 auf 80mm² bei Zen2, aber nicht bei 340-430mm².
Die Radeon VII mit 331mm² und 300Watt war auch kühlbar, Problem war da der miese Kühler.
WENN ein sehr großer Cache Bandbreitenprobleme abfedern könnte, dann hätten doch die Konsolen auch darauf gesetzt
statt solch merkwürdige und kompromissbehaftete Speicheranbindungen bei der xBox zu verbauen.
Dagegen sprechen auch die von Locuza angesprochenen 16 Cache Tiles, gleich viele wie bei N10 aber vrmtl doppelt so groß.
Mehr Cache bremst die Geschwindigkeit.
Berniyh
2020-09-12, 09:39:13
Andererseits wird es aber definitiv nicht besser, wenn man sich alle zwei Seiten mit einem "Scheiß-Diskussion hier" meldet.
Ja, hast recht. ;)
https://www.youtube.com/watch?v=SxtfNcm45xk&ab_channel=Moore%27sLawIsDead
Schreib doch bitte wenigstens noch was dazu, also Inhalt und ob es wirklich was neues ist oder nicht.
Edit: das Video kann man sich wirklich sparen. Nix an Info (bzgl. RDNA2), fast nur Labern um den heißen Brei.
Er erwartet 3080 Performance oder knapp drunter bei besserer Effizienz als Ampere.
rentex
2020-09-12, 09:39:44
@Cyberfries AMD ist leider überhaupt zu spät dran. Ob man jetzt das Weihnachtsgeschäft verpennt, spielt dann keine überragende Rolle.
Mangel76
2020-09-12, 09:52:19
@Cyberfries AMD ist leider überhaupt zu spät dran. Ob man jetzt das Weihnachtsgeschäft verpennt, spielt dann keine überragende Rolle.
Klar, es werden ja nur Grakas in den ersten 2 Wochen nach Launch verkauft und die Hersteller müssen dann mit den Einnahmen 2 Jahre bis zum nächsten überleben. Zudem bleibt abzuwarten, wie die Verfügbarkeit überhaupt aussieht.
Gipsel
2020-09-12, 10:10:16
Den Framebuffercache hat beispielsweise die XBox noch, wurde aber danach abgeschafft, weil kacke.Das ist kein Cache.
Badesalz
2020-09-12, 11:28:27
Aber aber .... mir wird hier ständig erzählt, dass die Hersteller ihre Entscheidungen völlig unabhängig voneinander treffen?Und du hast dich noch nicht getraut das als lächerlich abzutun? Oder wo ist das Prob? Soll ich das für dich hier mal machen? ;)
w0mbat
2020-09-12, 11:31:05
@Cyberfries AMD ist leider überhaupt zu spät dran. Ob man jetzt das Weihnachtsgeschäft verpennt, spielt dann keine überragende Rolle.
So ein Quatsch, aber dass du ein Troll bist sieht man ja an deinem Avatar :freak:
BlacKi
2020-09-12, 11:33:04
So ein Quatsch, aber dass du ein Troll bist sieht man ja an deinem Avatar :freak:
was die customs angeht wird er recht haben. und die guten customs brauchen dann nochmals ein paar monate extra.
Badesalz
2020-09-12, 11:35:20
was die customs angeht wird er recht haben. und die guten customs brauchen dann nochmals ein paar monate extra.Seit wann das denn?
BiG OnE
2020-09-12, 11:43:28
Ist bei AMD ein Gottesgesetz.
BlacKi
2020-09-12, 11:54:25
Seit wann das denn?
siehe 5700xt. da kamen die ersten customs erst über einen monat später. und über 2 monate später erst die guten. wie zb. die Radeon NITRO+ RX 5700 XT.
erlgrey
2020-09-12, 11:56:05
Hab diesmal überlegt deswegen einfach eine Referenzkarte zu nehmen und einfach einen Kühler nachzurüsten.
Wäre jedenfalls anfangs bei der Vega sogar günstiger gewesen.
Leonidas
2020-09-12, 11:56:43
Ein Twitterer namens 3DCenter.org (kennt den jemand?)
Wie ernsthaft ist die Frage gemeint?
Sofern ernsthaft: Natürlich schreib ich das. Ist doch mit offiziellem Logo und korrekter URL.
Badesalz
2020-09-12, 12:00:30
Ich greif das mal nicht bis zu der X1900 oder noch eher zurück... Daher: Eine RX480 MSI GamingX war mein ich ab dem 07.2016 zu haben. Ab wann war die überhaupt erhältlich?
@BlacKi
Und das macht das gleich zum Gesetz bei AMD? :|
Cyberfries
2020-09-12, 12:20:37
Oder wo ist das Prob?
Ich hab mich da bisher rausgehalten, weil sinnlose Diskussion. An der Stelle wars aber ne gute Überleitung.
Wie ernsthaft ist die Frage gemeint?
War natürlich nicht ernst gemeint. War nur überrascht an der Stelle über den Namen zu stolpern.
Und das macht das gleich zum Gesetz bei AMD?
Für N21 ist nur Referenz zu Beginn ziemlich wahrscheinlich. Hab ich jetzt schon an mehreren Stellen gelesen.
Die Partner haben wohl noch nichts. Scheinbar auch ein Grund dafür, dass es so wenig Leaks gibt.
Leonidas
2020-09-12, 12:36:09
War natürlich nicht ernst gemeint. War nur überrascht an der Stelle über den Namen zu stolpern.
Klaro.
Nachdem sich alle relevanten Leaker bei Twitter herumtreiben, mische ich halt ein wenig mit. Muss ja zwangsläufig sowieso das mitlesen, aber ein bisschen mitschreiben schadet nicht.
Flinx
2020-09-12, 12:55:12
Schätze mal...N22 ...
https://twitter.com/_rogame/status/1304611381040353290/photo/1
rentex
2020-09-12, 12:58:59
So ein Quatsch, aber dass du ein Troll bist sieht man ja an deinem Avatar :freak:
Genau ;D Mit nem AMD Sys...kannst dich gleich in die 3DC Forums Peinlichkeiten einreihen...
Sieht aus als würde der exakt auf 3070-Niveau landen. Ist ja auch ähnliche Speicherbandbreite.
BoMbY
2020-09-12, 13:04:58
Das Patent welches vor Kurzem veröffentlicht wurde bezieht sich auf einen neuen Last Level Cache und GPUs, inklusive der Option 3D-stacked Speicher auf dem GPU-Die dafür zu nutzen:
Cache for storing regions of data (https://www.freepatentsonline.com/20200183848.pdf)
BlacKi
2020-09-12, 13:25:27
Schätze mal...N22 ...
https://twitter.com/_rogame/status/1304611381040353290/photo/1
18% schneller als 5700xt, also zwischen 2080 und 2080super.
https://www.ashesofthesingularity.com/benchmark#/benchmark-result/5d1c5e61-8a3f-4ca3-8e67-a3b5692295e9
ob das die r7 ist? könnte auch n22 sein
https://www.ashesofthesingularity.com/benchmark#/benchmark-result/f50a5086-0720-4a62-87db-b3c91fe238b9
mironicus
2020-09-12, 13:46:26
18% schneller als 5700xt, also zwischen 2080 und 2080super.
https://www.ashesofthesingularity.com/benchmark#/benchmark-result/5d1c5e61-8a3f-4ca3-8e67-a3b5692295e9
Spricht für 52-56 CU.
BlacKi
2020-09-12, 13:54:31
Spricht für 52-56 CU.
eher 47cu^^
ich glaub eher das man 40cu hat mit besserer ipc und etwas mehr takt. aber wie gesagt, keine ahnung ob das wirklich rdna2 ist.
mironicus
2020-09-12, 13:55:21
Hier stand Blödsinn.
Gipsel
2020-09-12, 14:01:29
Spricht für 52-56 CU.
zwischen 30% und 40% mehr Einheiten zu den 40CUs der 5700XT, vermutlich doch höherer Takt (nach den Konsolen zu urteilen grob +15%) und angeblich noch IPC-Verbesserungen und dann kommen +18% Performance raus?
Bestimmt nicht.
mboeller
2020-09-12, 14:05:25
Mythos;12422305']Aus dem neusten RedGamingTech Video:
- 128MB Infinity Cache auf der GPU
die werden doch nicht...
128MB reicht für 4x 4K/UHD (32bit)
mironicus
2020-09-12, 14:07:07
zwischen 30% und 40% mehr Einheiten zu den 40CUs der 5700XT, vermutlich doch höherer Takt (nach den Konsolen zu urteilen grob +15%) und angeblich noch IPC-Verbesserungen und dann kommen +18% Performance raus?
Bestimmt nicht.
Hast natürlich vollkommen recht.
Dann ist das wohl eher N23, der kleinste Chip der die 5700XT ersetzen könnte mit 36/40 CU.
N21 sollte doppelt so schnell sein.
mboeller
2020-09-12, 14:07:30
Schätze mal...N22 ...
https://twitter.com/_rogame/status/1304611381040353290/photo/1
könnte die neue Mobile GPU sein
Locuza
2020-09-12, 14:26:03
[...]
edit: Ich habe darauf gehofft, der schreibt das hier noch selbst rein, ist doch hier auch angemeldet?
Mittlerweile sind aber auch schon 6h rum.
Häufig ist es für mich schon Beschäftigung genug auf einer Plattform Dinge auszuführen und die Diskussionen dort zu verfolgen.
Nebenbei "drängen" auch Videos die ich gerne fertig stellen würde, entsprechend bin ich selektiver aktiv, als z.B. früher.
Ich bin aber auch nur ein Laie und habe keine geheimen Quellen, entsprechend sind meine Ausführungen auch nicht vom besonderem Interesse.
Wenn ich wirklich etwas Interessantes hätte, würde ich es schon posten.
[...]
WENN ein sehr großer Cache Bandbreitenprobleme abfedern könnte, dann hätten doch die Konsolen auch darauf gesetzt
statt solch merkwürdige und kompromissbehaftete Speicheranbindungen bei der xBox zu verbauen.
Dagegen sprechen auch die von Locuza angesprochenen 16 Cache Tiles, gleich viele wie bei N10 aber vrmtl doppelt so groß.
Mehr Cache bremst die Geschwindigkeit.
Der "Infinity-Cache" wäre dann vermutlich übergeordnet der L3$.
Zum einem wäre die Motivation dahinter schon nachvollziehbar.
Die PHYs für die Speichersysteme skalieren wenig bis gar nicht im Vergleich mit einem neuem Prozess, SRAM-Dichte und Logik dagegen stark.
Man könnte sich also schon eine Lösung überlegen, wo man anstatt die Fläche für breite PHYs zu verwenden, stattdessen es mit SRAM vollknallt.
Die gute SRAM-Dichte hat es bei AMD auch möglich gemacht mehrere SRAM-Buffer zu verdoppeln und auch den L3$ von 8 auf 16MB pro CCX zu vergrößern, ohne das die Chipfläche explodiert ist.
Allerdings wurde für 5 oder 3nm eine geringe SRAM-Skalierung angegeben, dass Verhältnis kippt in naher Zukunft vielleicht erneut und Logic-Heavy designs werden attraktiver.
Ich bin gar nicht in der Position Orakel bei Navi21 zu spielen, entsprechend lass ich mich persönlich da wohl oder übel überraschen.
In Bezug auf die aktuelle Lage und den vorherigen Herangehensweisen würde 2048-Bit HBM2 am Besten passen, aber nach Ampere's 128 FP32 ALU design, sieht man das Überraschungen immer noch dabei sein können.
Der_Korken
2020-09-12, 15:40:49
Die Bandbreite von HBM2 würde allerdings nicht sehr üppig ausfallen, wenn tatsächlich nur 2,4Gbps verfügbar sind, wie hier laut irgendeinem Gerücht mal gemutmaßt wurde. 615GB/s wäre weniger als 14Gbps GDDR6 und 384bit und nur knapp 40% mehr als N10.
mboeller
2020-09-12, 16:11:00
wenn BigNavi wirklich nur ein 256bit Interface hätte müsste sich BigNavi mit 14Gbps GDDR6 zufrieden geben. Nur diese Version ist bei Samsung und Micron laut Webseite als 16Gb Chip verfügbar. 16Gbps Chips sind bei Micron unter "sampling" geführt und bei Samsung nicht zu finden.
256bit + 14Gbps wären magere 448GB/sec
Das macht es für mich noch unwahrscheinlicher, dass BigNavi wirklich mit 16GB kommt. Also entweder 12GB/384bit oder 24GB/384bit sollten die Gerüchte die gegen ein 512bit Interface sprechen wirklich stimmen.
12Gb Chips findet man auch nirgends. Schade. Wären 18GB bei 384bit
Flinx
2020-09-12, 16:26:05
https://twitter.com/_rogame/status/1304611381040353290/photo/1
ALs DX11 Benchmark durchgeführt....
gibt es da noch Unterschiede zu DX12????
...finde nur das...
https://www.youtube.com/watch?v=ARbSXl7MChQ
BoMbY
2020-09-12, 17:47:47
Am Ende kommt Navi21 vermutlich mit 8 GB HBM2 als Cache für 16 GB GDDR6, hat also insgesamt 24 GB und alle haben irgendwie Recht ... :freak:
Oddzz
2020-09-12, 17:49:18
ALs DX11 Benchmark durchgeführt....
gibt es da noch Unterschiede zu DX12????
...finde nur das...
Kannst dir hier (https://www.ashesofthesingularity.com/benchmark#/?filters=%7B%22gpu%22%3Anull,%22cpu%22%3A%22Intel%28R%29%20Core%28TM%29%20i9-9900K%20CPU%20%40%203.60GHz%22,%22api%22%3A%22DirectX%2011%22,%22preset%22%3A%22 Crazy_4k%22,%22resolution%22%3A%223840%20x%202160%22,%22offset%22%3A0,%22search% 22%3Anull,%22personaId%22%3Anull,%22sort%22%3A%22score%22,%22direction%22%3A%22d esc%22,%22benchmarkVersionId%22%3A5491,%22useVersionInequality%22%3Atrue%7D)was raussuchen vom Leaderboard.
PS: Ich seh gerade, daß der User AMD_Orlando (https://www.ashesofthesingularity.com/benchmark#/?filters=%7B%22gpu%22%3A%22%22,%22cpu%22%3A%22%22,%22api%22%3A%22%22,%22preset%2 2%3A%22%22,%22resolution%22%3A%22%22,%22offset%22%3A0,%22search%22%3Anull,%22per sonaId%22%3A%2298ea07c4-fb8b-43de-aea8-a538eedb0a2e%22,%22sort%22%3A%22date%22,%22direction%22%3A%22desc%22,%22benchmar kVersionId%22%3A5491,%22useVersionInequality%22%3Atrue%7D) dort einen ganzen Schwung an Tests gemacht hat in der letzten Zeit.
Berniyh
2020-09-12, 17:52:43
Am Ende kommt Navi21 vermutlich mit 8 GB HBM2 als Cache für 16 GB GDDR6, hat also insgesamt 24 GB und alle haben irgendwie Recht ... :freak:
Das wäre an Absurdität nicht mehr zu überbieten.
mczak
2020-09-12, 18:06:46
wenn BigNavi wirklich nur ein 256bit Interface hätte müsste sich BigNavi mit 14Gbps GDDR6 zufrieden geben. Nur diese Version ist bei Samsung und Micron laut Webseite als 16Gb Chip verfügbar. 16Gbps Chips sind bei Micron unter "sampling" geführt und bei Samsung nicht zu finden.
Auch Samsung hat 16Gb gddr6 Chips mit 16Gbps als Sampling geführt.
Die könnten theoretisch durchaus rechtzeitig lieferbar sein wenn AMD da einen Deal mit einem der Hersteller hat. Auch Micron gddr6x sind bloss Sampling...
Ich halte allerdings ein 256bit SI für Big Navi auch für unwahrscheinlich.
reaperrr
2020-09-12, 18:09:07
Hast natürlich vollkommen recht.
Dann ist das wohl eher N23, der kleinste Chip der die 5700XT ersetzen könnte mit 36/40 CU.
N21 sollte doppelt so schnell sein.
Skaliert der AotS Benchmark überhaupt linear mit Einheiten/Takt?
Die Vergleichsbeispiele von rogame sehen eine stock 2080Ti nur 36,6% vor einer 2070, und die unbekannte Radeon nahezu gleichauf mit der 2080Ti.
Das passt sehr wohl zu einer 56CU-GPU.
mboeller
2020-09-12, 18:24:04
Auch Samsung hat 16Gb gddr6 Chips mit 16Gbps als Sampling geführt.
Upps, stimmt. da hab ich wohl falsch gesucht
Skaliert der AotS Benchmark überhaupt linear mit Einheiten/Takt?
Die Vergleichsbeispiele von rogame sehen eine stock 2080Ti nur 36,6% vor einer 2070, und die unbekannte Radeon nahezu gleichauf mit der 2080Ti.
Das passt sehr wohl zu einer 56CU-GPU.
Vielleicht ist es auch ne 6700XT, sprich 40CUs mit 2.3g Takt bei 225W
Dafür spricht auch das einzige Bild welches wir von N2x haben. Ich denke N21+22 sollten fertig sein N23 hängt gerade noch auf nem Testboard. 16GB für N23? Warum nicht, wenn das Ding performt!
Ravenhearth
2020-09-12, 19:38:40
Wenn die 40CU-Version schon 225W verbraucht, wo liegt dann N21? Bei 450W? :freak:
Weiß nicht, aber passt zu 100%. Laut AMD 50% P/W. Man nehme ne 5700XT + 50% und huch: Wir sind bei ner 2080TI. Zumal die 50% von V64 auf ne XT extrem tief gestapelt waren. Bei CB kommt hier N10 im Vgl. zu GCN um glatte 80% besser weg! Somit könnte es auch sein, dass es lediglich 185W sind
Daredevil
2020-09-12, 19:54:17
Ja easy.
Also 5700XT +50% Perf/W und dann prügeln wir das noch auf 400w hoch.
Dann komme ich in Death Stranding 4K nicht auf 57fps, sondern 202fps.
Passt.
Ja easy.
Also 5700XT +50% Perf/W und dann prügeln wir das noch auf 400w hoch.
Dann komme ich in Death Stranding 4K nicht auf 57fps, sondern 202fps.
Passt.
Diese Aussage ist dumm wie unnötig. Halte dich doch bitte an Fakten.
[MK2]Mythos
2020-09-12, 19:56:55
Wenn die 40CU-Version schon 225W verbraucht, wo liegt dann N21? Bei 450W? :freak:
Das hieße dann ja, dass ein 80CU Navi mit 450W 100% schneller als ne 2080Ti wäre. Ich glaube so hoch müssen wir nicht greifen.
Also ich sehe die 6900XTX deutlich vor ner 3090 mit ebenfalls 350W
Hübie
2020-09-12, 20:02:34
Dann putz doch deine Glaskugel mal ordentlich. Ich würde mich schwer wundern, wenn die 3090 von AMD unter Feuer genommen werden könnte... Zauberei gibt's bei Harry Potter.
Mythos;12423139']Das hieße dann ja, dass ein 80CU Navi mit 450W 100% schneller als ne 2080Ti wäre. Ich glaube so hoch müssen wir nicht greifen.
https://memegenerator.net/img/instances/84226410.jpg
Fände ich gut, wenn AMD bei ihrem Spitzenmodell auch den Stromverbrauch ignoriert. Bei den Modellen untendrunter können sie aber ruhig etwas sparsamer sein als Nvidia.
Ravenhearth
2020-09-12, 20:09:15
Wenn sich die RTX 3080 allerdings tatsächlich nur 30% von der 2080 Ti absetzen kann, wie es die letzten Benchmarks nahelegen, hat AMD gute Chancen wenigstens diese zu übertreffen. Damit wäre die 3080 nämlich ziemlich genau bei 2.0x der RX 5700 XT, und 80 CUs mit mehr Takt und IPC sollten da locker rankommen.
Ich denke so viel gehört da nicht dazu. Zudem habe ich meine Glaskugel heute unseren Bambinis zur Verfügung gestellt und leider ist se auf dem Asphalt der Zuschauerränge zersprungen.
Rechne doch bitte mal nach und wer sagt, dass NV der Gegner ist?
Zergra
2020-09-12, 20:21:36
Ich denke so viel gehört da nicht dazu. Zudem habe ich meine Glaskugel heute unseren Bambinis zur Verfügung gestellt und leider ist se auf dem Asphalt der Zuschauerränge zersprungen.
Rechne doch bitte mal nach und wer sagt, dass NV der Gegner ist?
Womit den rechnen ? Wer sagt den das der Chip keine 52-56CUs hat ? Die 40 sind doch auch eher Wunschdenken.
Einfach mal die Erwartungen eine Stufe herunterschrauben, dann kommt man der Wahrheit näher und kann ggf. sogar noch positiv überrascht werden.....:rolleyes:
Meinst du wirklich die Namensgebung war willkürlich?
6700-3070
6800-3080
6900-3090
Ravenhearth
2020-09-12, 20:28:18
5700 (XT) konkurrierten preislich mit 2060 (Super) ;)
Außerdem sind 6700/6800/6900 zwar wahrscheinlich, aber zum aktuellen Zeitpunkt trotzdem nur geraten. Vielleicht ist N21 6800, N22 ist 6700 und N23 ist 6600.
Womit den rechnen ? Wer sagt den das der Chip keine 52-56CUs hat ? Die 40 sind doch auch eher Wunschdenken.
Einfach mal die Erwartungen eine Stufe herunterschrauben, dann kommt man der Wahrheit näher und kann ggf. sogar noch positiv überrascht werden.....:rolleyes:
Die 40CUs für ne 6700XT sind imo fix!
5700 (XT) konkurrierten preislich mit 2060 (Super) ;)
Und die 6700XT mit 16GB wird’s für 499€ geben. Die XL@36CUs mit 8GB für 399€
nordic_pegasus
2020-09-12, 20:38:56
Wenn sich die RTX 3080 allerdings tatsächlich nur 30% von der 2080 Ti absetzen kann, wie es die letzten Benchmarks nahelegen, hat AMD gute Chancen wenigstens diese zu übertreffen. Damit wäre die 3080 nämlich ziemlich genau bei 2.0x der RX 5700 XT, und 80 CUs mit mehr Takt und IPC sollten da locker rankommen.
die 3080 und 3090 sind gleiches Silizium mit 20% deaktivierten Einheiten dazwischen. Also kann auch nur im besten Fall 20% Performance dazwischen liegen, was das Preisgefälle der beiden Nvidia Karten einfach nur lächerlich macht. Zumal die 3080 dank 10GB wieder die VRAM-Obzoleszens-Bombe bekommt.
Wenn jetzt AMD wirklich irgendwas zwischen diese beide Karten schleusen könnte mit einer sinnvollen Menge VRAM (16GB), wäre das vielleicht 10% vor der einen und 10% hinter der anderen Karten. Aus dem Stand nach so langer Zeit ohne High-End-Karte kann ich nicht verstehen, wie man hier von "nur" sprechen bzw. spekulieren kann. Das wäre wirklich meisterlich von AMD.
die 3080 und 3090 sind gleiches Silizium mit 20% deaktivierten Einheiten dazwischen. Also kann auch nur im besten Fall 20% Performance dazwischen liegen, was das Preisgefälle der beiden Nvidia Karten einfach nur lächerlich macht. Zumal die 3080 dank 10GB wieder die VRAM-Obzoleszens-Bombe bekommt.
Wenn jetzt AMD wirklich irgendwas zwischen diese beide Karten schleusen könnte mit einer sinnvollen Menge VRAM (16GB), wäre das vielleicht 10% vor der einen und 10% hinter der anderen Karten. Aus dem Stand nach so langer Zeit ohne High-End-Karte kann ich nicht verstehen, wie man hier von "nur" sprechen bzw. spekulieren kann. Das wäre wirklich meisterlich von AMD.
Danke! Wo ist eigentlich Gipsel? Ich denke er könnte einordnen wie weit ich daneben liege.
Ravenhearth
2020-09-12, 20:55:41
Ich denke sehr weit :tongue: Es ist vollkommen unwahrscheinlich, dass die Variante mit 40 CUs 50% schneller als die 5700 XT wird und die 3070 erreicht. Das ist die Aufgabe von N22.
Daredevil
2020-09-12, 20:57:23
Diese Aussage ist dumm wie unnötig. Halte dich doch bitte an Fakten.
Dann nehmen wir uns ja nichts. ^^
Ich denke sehr weit :tongue: Es ist vollkommen unwahrscheinlich, dass die Variante mit 40 CUs 50% schneller als die 5700 XT wird und die 3070 erreicht. Das ist die Aufgabe von N22.
Warum 50% p/W sind ausgehend von ner 5700XT nun mal 2080TI Performance!
Warum 50% p/W sind ausgehend von ner 5700XT nun mal 2080TI Performance!
Du rechnest an jeder Stelle den Optimalfall nach AMD Marketing mit perfekter Skalierung ein.
Sowas führt mit 100% Wahrscheinlichkeit zu einer massiven Enttäuschung.
Ich will AMD nicht mal absprechen, dass sie an die 3090 rankommen. Die Preisklasse ist bei Nvidia scheinbar wirklich nicht sehr stark in dieser Generation. Aber du wünschst dir ja herbei, dass sie regelrecht von AMD zerstört wird. Ein "Ich denke so viel gehört da nicht dazu." ist komplett daneben. Nvidia hat im Gegensatz zu Intel nicht die letzten 5 Jahre halbtot auf dem Boden gelegen.
Du rechnest an jeder Stelle den Optimalfall nach AMD Marketing mit perfekter Skalierung ein.
Sowas führt mit 100% Wahrscheinlichkeit zu einer massiven Enttäuschung.
Ich will AMD nicht mal absprechen, dass sie an die 3090 rankommen. Die Preisklasse ist bei Nvidia scheinbar wirklich nicht sehr stark in dieser Generation. Aber du wünschst dir ja herbei, dass sie regelrecht von AMD zerstört wird. Ein "Ich denke so viel gehört da nicht dazu." ist komplett daneben. Nvidia hat im Gegensatz zu Intel nicht die letzten 5 Jahre halbtot auf dem Boden gelegen.
Ich habe bereits zuvor gepostet, dass die 50% im Vergleich GCN RDNA extrem tief gestapelt waren.
Aber die Wahrheit liegt auf dem Tisch. Von daher abwarten
Ich habe bereits zuvor gepostet, dass die 50% im Vergleich GCN RDNA extrem tief gestapelt waren.
Ein +50%/Watt ist halt fast eine Nullaussage. Irgendwas kann man immer passend zusammenrechnen. Sieht man ja auch bei Nvidia an der 1,9 fachen Effizienz, die zwar eine valide Effizenzrechnung ist, aber halt unbrauchbar für den Usecase.
Zergra
2020-09-12, 21:20:30
Warum 50% p/W sind ausgehend von ner 5700XT nun mal 2080TI Performance!
So einfach geht das nicht, die Frage ist eben in welchem Fall die 50% eben auftreten. Kann sich also auf den großen Chip bei wenig Takt im Vergleich zur 5700XT mit viel Takt beziehen.
Am Ende wissen wir gar nix....
So einfach geht das nicht, die Frage ist eben in welchem Fall die 50% eben auftreten. Kann sich also auf den großen Chip bei wenig Takt im Vergleich zur 5700XT mit viel Takt beziehen.
Am Ende wissen wir gar nix....
Eben - in diesem Thread tappen alle im Dunkeln. RDNA2 kann der Bigwin sein, auch mit 450W, wenn Intel 500W kolportiert hat, oder aber nen Fail. Lasst uns einfach warten, was am 28.10 kommt
Aber 3080 Performance wäre für mich nen Fail für den Dicken
BlacKi
2020-09-12, 22:24:33
Ein +50%/Watt ist halt fast eine Nullaussage. Irgendwas kann man immer passend zusammenrechnen. Sieht man ja auch bei Nvidia an der 1,9 fachen Effizienz, die zwar eine valide Effizenzrechnung ist, aber halt unbrauchbar für den Usecase.
+1
unter perfekten bedingungen kann man die +50% sicher finden. eine garantie, das es auf zum release auf big navi zutrifft gibt es nicht. vorallendingen wenn man nichtmal das letztendliche PT feststeht und die +50% schon vor ewigkeiten versprochen wurde, als big navi noch noch auf den zeichenbrettern war. 1+1 und so...
+1
unter perfekten bedingungen kann man die +50% sicher finden. eine garantie, das es auf zum release auf big navi zutrifft gibt es nicht. vorallendingen wenn man nichtmal das letztendliche PT feststeht und die +50% schon vor ewigkeiten versprochen wurde, als big navi noch noch auf den zeichenbrettern war. 1+1 und so...
Also bitte, okay es mag beim DX11 Krempel nicht greifen, naja wir werden sehen. Obwohl wenn ich mir den Aots Benchmark anschaue greift es auch in DX11
Ravenhearth
2020-09-12, 23:28:13
Warum 50% p/W sind ausgehend von ner 5700XT nun mal 2080TI Performance!
Ja, aber nicht bei der gleichen Anzahl an CUs. AMD hat nirgendwo +50% Leistung pro CU versprochen, sondern allgemein 50% mehr Energieeffizienz. Die lassen sich auch durch 40 CUs mit 5700XT Performance bei 150W erreichen. Oder mit 56 CUs und etwas mehr Takt (+50% Perf) bei 225W. Oder...
[MK2]Mythos
2020-09-12, 23:32:46
Also ich finde die RTX3080 schon ziemlich optimal, was die Leistung angeht, wenn AMD eine Karte anbietet, die ähnlich schnell ist, im besten Fall weniger verbraucht und dabei sogar 12 oder 16GB Ram hat, ist doch vermutlich jeder, bis auf die ganz harten Fanboys, zufrieden. Ich wäre es jedenfalls und würde sofort einschlagen.
-=Popeye=-
2020-09-13, 00:09:51
AMD’s Next-Gen Radeon RX 6000 Series ‘RDNA 2’ Graphics Cards Alleged Benchmarks Leak Out, As Fast As A Stock RTX 2080 Ti (https://wccftech.com/amd-next-gen-radeon-rx-6000-series-rdna-2-graphics-cards-benchmarks-leak/)
Haha... weit gefehlt.
https://www.ashesofthesingularity.com/benchmark#/?filters=%7B%22gpu%22%3A%22NVIDIA%20GeForce%20GTX%201080%20Ti%22,%22cpu%22%3Anul l,%22api%22%3A%22DirectX%2011%22,%22preset%22%3A%22Crazy_4k%22,%22resolution%22% 3A%223840%20x%202160%22,%22offset%22%3A0,%22search%22%3Anull,%22personaId%22%3An ull,%22sort%22%3A%22score%22,%22direction%22%3A%22desc%22,%22benchmarkVersionId% 22%3A5491,%22useVersionInequality%22%3Atrue%7D
[MK2]Mythos
2020-09-13, 00:11:41
AMD’s Next-Gen Radeon RX 6000 Series ‘RDNA 2’ Graphics Cards Alleged Benchmarks Leak Out, As Fast As A Stock RTX 2080 Ti (https://wccftech.com/amd-next-gen-radeon-rx-6000-series-rdna-2-graphics-cards-benchmarks-leak/)
Haha... weit gefehlt.
https://www.ashesofthesingularity.com/benchmark#/?filters=%7B%22gpu%22%3A%22NVIDIA%20GeForce%20GTX%201080%20Ti%22,%22cpu%22%3Anul l,%22api%22%3A%22DirectX%2011%22,%22preset%22%3A%22Crazy_4k%22,%22resolution%22% 3A%223840%20x%202160%22,%22offset%22%3A0,%22search%22%3Anull,%22personaId%22%3An ull,%22sort%22%3A%22score%22,%22direction%22%3A%22desc%22,%22benchmarkVersionId% 22%3A5491,%22useVersionInequality%22%3Atrue%7D
Wow, danke! Scheiß Fakerei.
-=Popeye=-
2020-09-13, 00:38:42
Was meinst du mit Fake?
[MK2]Mythos
2020-09-13, 00:44:04
Was meinst du mit Fake?
Ich hatte den Screen jetzt auf den ersten Blick so verstanden, dass die "AMD Radeon Graphics" Ergebnisse in Wirklichkeit 1080Ti Ergebnisse waren?
-=Popeye=-
2020-09-13, 00:57:15
Sind es im Grunde genommen auch, im Artikel wird aber suggeriert es wäre 2080 Ti Performanz. Was es de facto aber nicht ist.
reaperrr
2020-09-13, 01:03:18
Warum 50% p/W sind ausgehend von ner 5700XT nun mal 2080TI Performance!
Schon, aber 50% mehr Perf/W heißt - gerade wenn sich der Prozess nur minimal verbessert - eigentlich NIE 50% mehr Takt bei gleichem Verbrauch, sondern so gut wie immer mehr Einheiten + mehr IPC je Einheit bei ca. gleichbleibendem oder leicht sinkendem Verbrauch. Die letzte Ausnahme war Pascal, aber das war auch ein FullNode-Shrink von 28nm auf 16FF+ (vergleichbar mit einem Sprung von 14nm direkt auf N7P/+).
Um die 5700 XT mit Navi10-Specs um 50% zu schlagen, bräuchte man außerdem nicht nur 2,3 GHz, sondern wahrscheinlich eher 2,5+ GHz. Das geben selbst die modernsten Prozesse bei einer GPU der Größe nicht her. ~15,5 Mrd. Transistoren @ 1,9 GHz @ 1,0V werden eine vielfach bessere Effizienz haben, als ~11 Mrd. Transistoren @ 2,5 GHz @ 1,4V hätten (wenn letzteres technisch überhaupt ginge).
RedGamingTech hat in dem Video mit den aktuellsten RDNA2-Gerüchten auch erwähnt, dass Mark Cerny (Chef-Entwickler der PS5) bei der Vorstellung der Technik erwähnt hat, dass nicht viel mehr als die 2,23 GHz Turbo drin war, weil die CUs bei noch mehr Takt wohl anfangen Rechenfehler zu produzieren. Da scheint dann selbst mit mehr Spannung nicht mehr viel zu gehen, auch nicht mit RDNA2 in N7e.
Langer Rede kurzer Sinn: 50% mehr Perf/W (bzw. 60%, wenn RedGamingTech recht behält) setzt sich wahrscheinlich ca. so zusammen:
~3-5% durch weiter optimierten Prozess/bessere Ausbeute
~10% durch erhöhte IPC ohne negative Auswirkungen auf Verbrauch
~37-45% dadurch, dass man den durchschnittlichen Verbrauch je CU bei gleichem Takt so weit senken konnte, dass man jetzt 40% mehr CUs verbauen und den Durchschnitts-Takt noch leicht erhöhen kann, ohne dass der Verbrauch ggü. N10 steigt (bezogen auf Navi22 mit 56 CUs).
Badesalz
2020-09-13, 07:23:22
Das Patent welches vor Kurzem veröffentlicht wurde bezieht sich auf einen neuen Last Level Cache und GPUs, inklusive der Option 3D-stacked Speicher auf dem GPU-Die dafür zu nutzenIrgendwas hab ich da also schon was geahnt ;) Auch wenn ich gleich den kompletten Vram so kommen sah =)
Aber 3080 Performance wäre für mich nen Fail für den DickenWarum? Wenn sie auch noch das Netzteil dafür nicht quälen wären sie damit direkt näher dran als jemals davor und falls sie das beibehalten können, wären sie beim nächsten Mal endlich gleich auf.
Ohne, daß NV sich einmal so langmachen muss wie Intel und man glücklicherweise genau mit dem dafür richtigen Produkt zum idelaen Zeitpunkt da ist :rolleyes: Die GPUs müssen sich bis jetzt und dagegen Gen für Gen alles selbst erkämpfen.
Eigentlich also wäre der technische Verdienst größer als bei Ryzen. Richtig? :tongue:
robbitop
2020-09-13, 09:09:14
Am Ende stellt sich IMO folgende Fragen:
1.) Will AMD denn überhaupt beim Top Dog konkurrieren?
1a.) ökonomischer Erfolg
Ein Top Dog ist ziemlich teuer und war zuletzt für AMD eigentlich nie wirklich ökonomisch attraktiv.
Der letzte Top Dog war Fijii. Der war gegen GM102 gestellt. (Vega war ja nur gegen GP104 gestellt). AMD hat damit einfach wenig gute Erfahrungen gemacht.
1b.) Fokus und RnD
Es kostet ja auch eine Menge Fokus und RnD - Dinge, die bei AMD zwar im Wachstum sind aber immer noch ein knappes Gut. Trotz Underdog Status tanzt man auf etlichen Hochzeiten gleichzeitig -
gegen die Top Unternehmen im Wettbewerb. Mainstream CPUs, APUs, Konsolen, Gaming GPUs (RDNA), HEDT, Server/HPC CPUs, Compute GPUs (CDNA).
1c.) Opportunität
Dazu können sie mit jedem mm² N7/N7P Silizium über Epyc wesentlich mehr Geld verdienen als mit GPUs. Und die Top Dog GPUs kosten nunmal ordentlich Waferkapazität.
Mit Midrange/Performance GPUs hat man bessere Erfahrungen (aus ökonomischer Sicht) gemacht.
2.) Hat AMD Ampere unterschätzt? Das ging uns am Ende ja fast allen so. Die FPU Verdopplung hat IMO praktisch keiner kommen sehen.
3.) Die 3080 ist dieses mal kein 104 (was seit Kepler in 2012 Tradition ist), sondern ein 102. Sie ist also übermäßig stark ausgebaut für eine Karte aus dem Performance Segment.
IMO täte AMD nicht so schlecht daran, ein Produkt zu haben, was gegen die 3080 gut aussieht.
Die 3090 - IMO ist es nicht unwahrscheinlich, dass diese Spitzenreiter bleibt.
Die 3080 sollte, nach dem was wir bis dato an Daten haben grob 2x so schnell wie die 5700XT sein. Ich komme sogar auf Faktor 2,1..2,2.
Eine Verdopplung der Ausführungseinheiten skaliert bei GPUs fast nie 1:1 in Leistung. Auch kann es noch weitere Bottlenecks geben (Bandbreite, Geometrieleistung, Auslastung, ROPs, Texturfüllrate, Rasterleistung etc). Der etwas höhere Takt und die etwas höhere IPC kommen bei dieser Skalierung schon größtenteils unter die Räder. Sofern der tatsächliche Takt überhaupt out of the box höher sein sollte. Gerade Top Dogs werden aus thermischen Gründen ja gern mal ein wenig an die Leine gelegt.
Wenn man an die 3080 herankäme, wäre das schon eine sehr gute Leistung. Die 3090 sehe ich noch nicht fallen.
Auch die Aussagen zu einem 256 bit SI lassen die Hoffnungen nicht all zu groß werden. AMD kann nicht zaubern - und NV hat eine ganze Menge Gehirnschmalz und Iterationen in ihre Kompression gesteckt. Diese auf einmal um >50% in einer Iteration zu schlagen, erscheint vor dem Hintergrund des Gesetz des sinkenden Grenzertrags unwahrscheinlich.
Ich lasse mich gern überraschen - aber ggf. sollte man die Erwartungen ein wenig anpassen.
Für uns Endkunden wäre es super, wenn AMD bis zur 3090 erfolgreich konkurriert. Das P/L wird dann besser.
Aber NV ist nicht Intel - NV hat eigentlich immer weiter ihr RnD Budget gesteigert (das kann man auf allen Aktienplattformen nachvollziehen).
Also das AMD Ampere unterschätzt hat ist sicher Unsinn, dafür ist Ampere bei Weitem nicht stark genug und auch dass AMD sich den 2080Ti als Top-Produkt ausgesucht hat ist ganz großer Unsinn, wenn man von "halo product" redet.
Ich würd diesen ganzen Mist ignorieren und warten, bis da Fakten kommen.
Ampere ist eben nicht besonders stark. Wir waren alle geschockt ob der großen Zahlen bei Jensens Präsentation, aber es war eben wieder pures Marketing und letztendlich bleibt da eben wenig von hängen. Letztendlich entscheidet ja vor allem Perf/W und hier ist Ampere alles aber nicht gut. Wenn AMD das besser macht landet man automatisch auf dem Niveau der großen Ampere-Chips.
18% per Performance als N10 sieht für micht sogar eher wie ein 40CU-RDNA2-Chip aus i.Ü., denn deutlich mehr Takt + mehr IPC dürften genau das bringen.
robbitop
2020-09-13, 11:11:53
Also das AMD Ampere unterschätzt hat ist sicher Unsinn, dafür ist Ampere bei Weitem nicht stark genug
Gemessen am letzten Sprung von Turing ist der Sprung größer. Der 3080 vs 2080 Vergleich ist natürlich schön verzerrt, um die Masse hinter's Licht zu führen. Denn die 2080 hat relativ zur 2080 ti wesentlich weniger Ausführungseinheiten als die 3080 zur 3090. Entsprechend ist der sinnvolle uArch Vergleich 2080 ti vs 3090. Da bleiben aber, wenn ich das Verhältnis normiere immer noch gute 50-60% für die 3090 vs 2080 ti.
Turing brachte ggü Pascal 35-40%.
Die Steigerung der SMs von Ampere ließ zumindest das nicht erkennen im Vorhinein. Die FPUs sind vermutlich aktuell kein Flaschenhals in Ampere sondern eben ein anderer (je nach Workload in Games). Dennoch hilft es mit relativ wenig Transistoreinsatz relativ viel Mehrleistung herauszuholen. Erinnert mich ein wenig an R520->R580.
und auch dass AMD sich den 2080Ti als Top-Produkt ausgesucht hat ist ganz großer Unsinn, wenn man von "halo product" redet.
1. Habe ich nie behauptet und wäre auch blauäugig von AMD, das last gen Modell des Wettbewerbers als Referenz anzusetzen in einem Zeitraum bei dem deren Next Gen Modell schon am Markt sein wird
2. "Halo Produkt": das geistert wie "Big Navi" und "Geforce Killer" durch's Internet. Aber niemand weiß, ob das bei AMD auch intern so gesagt wurde. Kann gut sein, dass sich das jemand aus den Fingern gesogen hat und von den Youtube (Möchtegern) "Leakern"so verbreitet wurde. Es kann auch gut sein, dass AMD Navi 21 von vorn herein nie für das Enthusiast Segment entwickelt hat sondern nur für das Performance Segment. 256 bit (sofern das stimmt) sprechen nämlich eine andere Sprache.
Ich würd diesen ganzen Mist ignorieren und warten, bis da Fakten kommen.
So sehe ich das auch. IMO wirken die letzten Informationsstände doch sehr inkonsistent und auch hier und da mal etwas auffällig "bunt". 128 MiB Cache.
Ggf. streut AMD auch Fehlinformationen um intern herauszufinden, wer Interna nicht für sich behalten kann. Oder man streut diese, um möglichst lange alle dritten Parteien im Unklaren zu lassen.
Ampere ist eben nicht besonders stark. Wir waren alle geschockt ob der großen Zahlen bei Jensens Präsentation, aber es war eben wieder pures Marketing und letztendlich bleibt da eben wenig von hängen.
Siehe oben. Gemessen an Turings Sprung und gemessen an der Steigerung der SMs (die ja schon relativ lange bekannt war), ist der Sprung relativ groß.
Pascal's Sprung war aber noch größer. 980ti -> 1080 ti +75%
https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/#abschnitt_ultrahdbenchmarks_in_3840__2160_4k
1080ti -> 2080 ti 35%
https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/3/
Die 3090 -> 2080 ti sehen aktuell nach 50-60% aus.
Es ist mehr als Turing und weniger als Pascal. Die 3080 vs 2080 hat die Sache etwas verzerrt - war aber ein Apfel Birne Vergleich.
Letztendlich entscheidet ja vor allem Perf/W und hier ist Ampere alles aber nicht gut.
Wer sagt, dass Perf/W entscheidet? Es ist eine Metrik.
Ich tippe darauf, dass folgende Metriken aber interessanter für die Massen sind:
1.) Performance
2.) Preis
3.) Lautstärke (mittels sehr gutem Kühler, kriegt man die auch bei hoher Leistungsaufnahme runter).
Aber um auf Perf/W zurückzukommen:
Die 3090 hat eine 40% höhere TDP als die 2080 ti - jedoch ist die Performancedifferenz wahrscheinlich etwas höher. Das dürfte eher in Richtung 50-60% gehen. Insofern ist die 3090 energieeffizienter als die 2080 ti. Wenn auch nicht mehr so viel übrig bleibt. Interessanter werden die kleinen Varianten sein. GA104 vs TU104 und 106 vs 106. Denn die sind idR nicht so hoch geprügelt. Betriebspunkte haben schnell mal einen größeren Einfluss auf die Energieeffizienz als die uArch und/oder der Fertigungsprozess.
Wenn AMD das besser macht landet man automatisch auf dem Niveau der großen Ampere-Chips.
Es muss sich erstmal zeigen, ob AMD das besser macht (wäre gut für den Markt! :up:) und ob AMD überhaupt einen Enthusiast Segment Chip launcht (ebenfalls gut für den Markt!) oder nur einen Performance Segment chipt..
18% per Performance als N10 sieht für micht sogar eher wie ein 40CU-RDNA2-Chip aus i.Ü., denn deutlich mehr Takt + mehr IPC dürften genau das bringen.
Ja die +18% würde ich auch erstmal ignorieren. Das sieht IMO wirklich nicht so aus, als wäre das der stärkste Navi 2x.
Ich bleibe gespannt - sehe aber die Wahrscheinlichkeit für einen 3070 und 3080 Gegner höher als für einen 3090 Gegner. (im Sinne von gleichstark +/-10%)
robbi, das stimmt einfach nicht. Wenn NV damals Turing schon 350W eingeräumt hätte, hätte man auch hier einen "60%"-Sprung hinbekommen. Die sinds aber nicht mal. Die 3090 ist nur 15% schneller als die 3080, mehr kann das gar nicht sein. Die 3080 ist lt. leaks grad mal 30% über der 2080Ti, die 3090 wird dann 50% drüber sein, das aber mit 100W (!!) mehr Verbrauch. Der Sprung ist nur scheinbar groß.
Armaq
2020-09-13, 11:19:10
Wie kommst du auf 50-60% für 3090 zu 2080Ti. Die Differenz nach Rohdaten sind gerade mal 20% bei 3080 zu 3090 und die Benchmarks haben ca. 25% 3080 vs. 2080Ti gezeigt.
Das macht also im Optimalfall 45% und ist somit genau gleich ggü. der Vorgänger-Generation. Nvidia hat einfach mega geschicktes Marketing gemacht und Vergleiche angestellt, die eigentlich unzulässig sind (DLSS reinmischen und unterschieben etc.).
Und jetzt kommt ein dicker Brocken:
TDP 1080Ti
250W
https://www.techpowerup.com/gpu-specs/geforce-gtx-1080-ti.c2877
TDP 2080Ti
250W
https://www.techpowerup.com/gpu-specs/geforce-rtx-2080-ti.c3305
TDP 3090
350W
https://www.techpowerup.com/gpu-specs/geforce-rtx-3090.c3622
robbi, das stimmt einfach nicht. Wenn NV damals Turing schon 350W eingeräumt hätte, hätte man auch hier einen "60%"-Sprung hinbekommen. Die sinds aber nicht mal. Die 3090 ist nur 15% schneller als die 3080, mehr kann das gar nicht sein. Die 3080 ist lt. leaks grad mal 30% über der 2080Ti, die 3090 wird dann 50% drüber sein, das aber mit 100W (!!) mehr Verbrauch. Der Sprung ist nur scheinbar groß.
What he said.
Badesalz
2020-09-13, 11:21:59
Ich muss ebenfalls zugeben, daß die verfreakten Nerds - gegenüber den Nerds - in den Diskussionen wirklich nur nerven.
Die Ausgeburt von 3090 ist nur dafür da um weiterhin einen TopDog zu haben. Für den Endkunden ist sie gegenüber der 3080 wirtschaftlich der letzte Schwachsinn. Es sei denn Wirtschaftlichkeit ist kein Apekt. Auch nichts dagegen an der Stelle, aber außerhalb dieser Randgruppe ist es eben wie es ist. 3090 ist eine Titan.
Die 3080 macht dagegen G6X zu schaffen. Da ist die gebotene Leistung fürs Geld imho attraktiv, aber die 350W TBP sind widerum schwachsinnig. Zu 102 und GDDR6X auf einer 3080 sah man sich imho genötigt.
Eine Titan als Spielegraka zu bringen und eine 80er ab Werk am Anschlag zu fahren - mit einem geradezu so schockierend attraktiven Preis, daß man eher an eine Quersubventionierung glaubt =) - bedeutet für mich, daß BigNavi gut sein wird.
Gut nicht im Sinne von irgendwelchen Kronen oder Blumentöpfen, aber so nah war AMD an NV wohl noch nie. Und das ist nicht nur für vermeindliche AMD-Fanboys eine gute Sache, sondern auch für alle die den Preis der 3080 gut finden. Sonst würde das Ding 3080ti heißen und 999€ kosten.
Nvidia hat einfach mega geschicktes Marketing gemacht und Vergleiche angestelltSo gut kann das nicht gewesen sein. Sonst würde man nicht darüber sprechen nicht so klar sprechen noch bevor die Karten zu haben sind. "Mega geschickt" ist, wenn man es merkt, nachdem die 14 Tage Rückgaberecht abgelaufen sind ;)
dildo4u
2020-09-13, 11:25:28
robbi, das stimmt einfach nicht. Wenn NV damals Turing schon 350W eingeräumt hätte, hätte man auch hier einen "60%"-Sprung hinbekommen. Die sinds aber nicht mal. Die 3090 ist nur 15% schneller als die 3080, mehr kann das gar nicht sein. Die 3080 ist lt. leaks grad mal 30% über der 2080Ti, die 3090 wird dann 50% drüber sein, das aber mit 100W (!!) mehr Verbrauch. Der Sprung ist nur scheinbar groß.
Klar bekommt man schlechte Werte hin wenn man DX11 Games bencht, das selbe Argument bekommste doch sonst von AMD Seite vorgehalten das diese Games nix taugen.
Je mächtiger die GPU so eher sind sie auf DX12 oder Vulkan angewiesen.
Das wird genau so AMDs High-End betreffen.
Die 3080 hat absurde Werte 8800 in Timespy Extreme das sind über 100% zu 5700XT die um 4000 liegt.
https://videocardz.com/newz/nvidia-geforce-rtx-3080-synthetic-and-gaming-performance-leaked
https://bit-tech.net/reviews/tech/graphics/sapphire-radeon-rx-5700-xt-nitro-review/3/
why_me
2020-09-13, 11:27:53
2. "Halo Produkt": das geistert wie "Big Navi" und "Geforce Killer" durch's Internet. Aber niemand weiß, ob das bei AMD auch intern so gesagt wurde. Kann gut sein, dass sich das jemand aus den Fingern gesogen hat und von den Youtube (Möchtegern) "Leakern"so verbreitet wurde. Es kann auch gut sein, dass AMD Navi 21 von vorn herein nie für das Enthusiast Segment entwickelt hat sondern nur für das Performance Segment. 256 bit (sofern das stimmt) sprechen nämlich eine andere Sprache.
"Nvidia killer" kam meines Wissens von AMD intern, "Big Navi" von der Community.
"Halo product" kommt vom CFO David Kumar, also nicht aus den fingern gezogen:
“there’s a lot of excitement for Navi 2, or what our fans have dubbed as the Big Navi“, which led him to say “Big Navi is a halo product” and “enthusiasts love to buy the best, and we are certainly working on giving them the best”.
https://videocardz.com/newz/amd-big-navi-to-arrive-before-next-generation-consoles
Ob und wie das mit den 256 bit stimmt, würde ich einfach mal abwarten, wir wissen noch so gut wie nichts über RDNA2.
robbitop
2020-09-13, 11:28:14
robbi, das stimmt einfach nicht. Wenn NV damals Turing schon 350W eingeräumt hätte, hätte man auch hier einen "60%"-Sprung hinbekommen.
Hätte, hätte, Fahrradkette. Out of the box zählt nunmal.
Und ob die 2080ti mit 350W nochmal die nötigen 20-25% draufgelegt hätte? Zweifelhaft. Denn Leistungsaufnahme zur Frequenz wird ab einem bestimmten Punkt relativ schlecht.
Die sinds aber nicht mal. Die 3090 ist nur 15% schneller als die 3080, mehr kann das gar nicht sein.
Die 3090 hat 20% mehr Ausführungseinheiten. Also können es 20% sein.
Die 3080 ist lt. leaks grad mal 30% über der 2080Ti, die 3090 wird dann 50% drüber sein, das aber mit 100W (!!) mehr Verbrauch. Der Sprung ist nur scheinbar groß.
1,3 x 1,2 -> komme ich auf +56%.
Man kann auch anders herum extrapolieren. Digital Foundry Video 3080 vs 2080. Da waren es 60-80%. (Extrembeispiele sogar bei +96% laut dem Video). Ich nehme als Mittelwert dann 70%.
Die 2080 ti ist 27% schneller als die 2080.
Die 3090 sollte rund 20 % schneller als die 3080 sein.
1,7 : 1,27 x 1,2 = 1,60. Also 60%.
@Armaq
siehe oben.
Ravenhearth
2020-09-13, 11:30:46
Gemessen am letzten Sprung von Turing ist der Sprung größer. Der 3080 vs 2080 Vergleich ist natürlich schön verzerrt, um die Masse hinter's Licht zu führen. Denn die 2080 hat relativ zur 2080 ti wesentlich weniger Ausführungseinheiten als die 3080 zur 3090. Entsprechend ist der sinnvolle uArch Vergleich 2080 ti vs 3090.
Naja, die Aussage von Nvidia war ja nicht auf die uArch bezogen, sondern auf den Preis. Man bekommt die 3080 halt zum alten Preis der 2080, mit 80% mehr Leistung oder so. Dass Nvidia dafür den GA102 heranziehen muss, kann dem Kunden ja egal sein.
2. "Halo Produkt": das geistert wie "Big Navi" und "Geforce Killer" durch's Internet. Aber niemand weiß, ob das bei AMD auch intern so gesagt wurde. Kann gut sein, dass sich das jemand aus den Fingern gesogen hat und von den Youtube (Möchtegern) "Leakern"so verbreitet wurde.
Die Aussage kam direkt von AMD:
"Big Navi is a halo product," Kumar goes on to say, "enthusiasts love to buy the best, and we are certainly working on giving them the best."
https://www.guru3d.com/news-story/amd-claims-that-big-navi-will-be-their-halo-productreleased-in-september.html
Badesalz
2020-09-13, 11:31:09
Man kann auch anders herum extrapolieren. Digital Foundry Video 3080 vs 2080. Da waren es 60-80%. (Extrembeispiele sogar bei +96% laut dem Video). Ich nehme als Mittelwert dann 70%.Warum wird darüber immernoch geredet? DF wurde vorgeschrieben welche Spiele sie nehmen dürfen. Ergo, ist das pures cherry picking gewesen und ergibt keinen auch nur groben Schnitt.
Hauwech
2020-09-13, 11:31:31
...
2. "Halo Produkt": das geistert wie "Big Navi" und "Geforce Killer" durch's Internet. Aber niemand weiß, ob das bei AMD auch intern so gesagt wurde. Kann gut sein, dass sich das jemand aus den Fingern gesogen hat und von den Youtube (Möchtegern) "Leakern"so verbreitet wurde.
...
"Halo product" kam von Devinder Kumar auf einer Tech-Konferenz der Bank of America im Mai? Juni? oder so im Zusammenhang mit "Big Navi". Bis auf ihn, hat nach außen hin niemand sonst den Begriff halo product für "Big Navi" benutzt.
Hauwech
2020-09-13, 11:32:46
Warum wird darüber immenroch geredet? DF wurde vorgeschrieben welche Spiele sie nehmen dürfen. Ergo, ist das pures cherry picking gewesen und ergibt keinen auch nur groben Schnitt.
Als wenn cherry picking sonst keiner machen würde. Wenn sich DF dafür "verkauft", selbst schuld.
robbitop
2020-09-13, 11:33:43
"Nvidia killer" kam meines Wissens von AMD intern, "Big Navi" von der Community.
"Halo product" kommt vom CFO David Kumar, also nicht aus den fingern gezogen:
https://videocardz.com/newz/amd-big-navi-to-arrive-before-next-generation-consoles
Ob und wie das mit den 256 bit stimmt, würde ich einfach mal abwarten, wir wissen noch so gut wie nichts über RDNA2.
Interessant. Aber wäre nicht das erste Mal, dass Einzelpersonen bei AMD den Mund ziemlich voll nehmen.
Erstmal liefern. Und das hat AMD im Enthusiast Bereich seit R580 IMO nicht mehr in der Art gemacht, dass man es als Erfolg bezeichnen könnte.
Ich hoffe aber inständig, dass sich das ändert.
----------
@Badesalz
Ein Top Dog ist für sich gesehen wirtschaftlich irrelevant. Der Halo Effekt ist jedoch nicht abzustreiten. Denn das stärkt die gesamte Marke, was dann auch auf die Massenprodukte im unteren Bereich abfärbt. Das macht NV schon sehr sehr gut.
Aber der Markt braucht ganz klar wieder mehr Balance, wenn es attraktiv für uns Endkunden sein soll.
rentex
2020-09-13, 11:38:14
Da braucht es nicht mal 14 Tage. Am 16.09. werden die Reviews erscheinen, Tags darauf startet der Verkauf der 3080. Da kann man vorger schon abschätzen ob es was wird und wer weiterhin an ein Wunder seitens AND glaubt....
robbitop
2020-09-13, 11:40:41
Naja, die Aussage von Nvidia war ja nicht auf die uArch bezogen, sondern auf den Preis. Man bekommt die 3080 halt zum alten Preis der 2080, mit 80% mehr Leistung oder so. Dass Nvidia dafür den GA102 heranziehen muss, kann dem Kunden ja egal sein.
Ja das stimmt allerdings für den Endkunden.
Die Aussage kam direkt von AMD:
https://www.guru3d.com/news-story/amd-claims-that-big-navi-will-be-their-halo-productreleased-in-september.html
Danke :)
Warum wird darüber immernoch geredet? DF wurde vorgeschrieben welche Spiele sie nehmen dürfen. Ergo, ist das pures cherry picking gewesen und ergibt keinen auch nur groben Schnitt.
Das stimmt - den Test muss man noch mit Vorsicht genießen. Allerdings sind die getesteten Spiele jetzt auch nicht so abwegig und undivers (oder aber auch vorher auffällig gewesen als NV optimiert - und keines davon ist brandneu [und insofern auf Ampere optimiert]):
Borderlands 3
Shadow of the Tombraider
Battlefield 5
Control
Quake 2 RTX (OK das ist sicherlich eine Kirsche)
Metro Exodus
Doom Ethernal
Wolfenstein 2
Ein Großteil taucht auch in den meisten Spieleparcours der meisten Redaktionen auf. So extrem cherry picked sieht das jetzt für mich nicht aus. DF ist IMO auch eher für Integrität bekannt. Ja: Reviews abwarten. Grob abschätzen kann man es aber IMO jetzt auch schon. Wir haben ja schon einiges an Performancedaten.
mironicus
2020-09-13, 11:41:33
"Halo product" kam von Devinder Kumar auf einer Tech-Konferenz der Bank of America im Mai? Juni? oder so im Zusammenhang mit "Big Navi". Bis auf ihn, hat nach außen hin niemand sonst den Begriff halo product für "Big Navi" benutzt.
Doch! Lisa Su selbst nahm auch das Wort "Halo Product" in den Mund. :cool:
Und auch Worte wie "disruptiv" und "4K-Gaming", "Enthusiast".
SKYNET
2020-09-13, 11:46:08
wie wäre es wenn man einfach mal die tests zu ampere abwartet... ich denke wenn man die 3080 auf 250W limitiert, ist der vorsprung auf einmal sehr gering zu turing 2080Ti(<10%)... und daran wird AMD sich messen müssen, an nix anderen... meine 1080Ti ist auch 20% schneller als ne FE, verbraucht dabei aber 70% mehr :freak:
Hauwech
2020-09-13, 11:48:44
Doch! Lisa Su selbst nahm auch das Wort "Halo Product" in den Mund. :cool:
Und auch Worte wie "disruptiv" und "4K-Gaming", "Enthusiast".
Ok, dann braucht man sich um Navi 2x ja keine weiteren Gedanken machen wenn er alles aus dem Weg räumt. Damit sind die ganzen Spekulationen, egal wie abenteuerlich ja hinfällig und der Thread kann somit geschlossen werden. :up:
robbitop
2020-09-13, 11:49:09
wie wäre es wenn man einfach mal die tests zu ampere abwartet... ich denke wenn man die 3080 auf 250W limitiert, ist der vorsprung auf einmal sehr gering zu turing 2080Ti(<10%)... und daran wird AMD sich messen müssen, an nix anderen... meine 1080Ti ist auch 20% schneller als ne FE, verbraucht dabei aber 70% mehr :freak:
AMD wird sich an out of the box Produkten messen müssen. So wie es die entsprechende Redaktion testet. Gegen die 3070, 3080 und 3090.
Eine Drosselung des TDP Wertes ist so nieschig, dass das kaum eine Redaktion testen wird. Hat dann wohl nur akademische Relevanz - aber keine Marktrelevanz.
Ok, dann braucht man sich um Navi 2x ja keine weiteren Gedanken machen wenn er alles aus dem Weg räumt. Damit sind die ganzen Spekulationen, egal wie abenteuerlich ja hinfällig und der Thread kann somit geschlossen werden. :up:
X-D
Wie gesagt: auf Worte kann man IMO nichts geben. Erstmal muss man liefern.
Was wurde von AMD nicht alles schon über die GPUs vorher verkündet. Overclocker's Dream und Leadership und poor Volta usw.
Neurosphere
2020-09-13, 11:55:39
Jetzt mal ganz ehrlich, man weiß bislang sogut wie nichts bei auf die Gerüchte mit den 80 CU und was man aus den Konsolendaten versuchen kann rauszulesen.
Das NV da jetzt eine überproportional Potente Gen vorgestellt hat sehe ich nicht. 50% kann man normalerweise von Gen zu Gen als Performanceanstieg sehen und mehr sieht man bei Ampere im Mittel auch nicht. Durch die veränderte Arch liegen ihr manche Szenarien besser als andere, das hat sich ja schon gezeigt.
Was sich wirklich geändert hat ist die Lage der 3080, die im eigenen Portfolio nach oben gerutscht ist. Von ihr ausgehend sieht es natürlich nach einem größeren Sprung aus als wirklich vorhanden ist, thats it.
Perf./Watt ist man unter den 50% da hier ja deutlich angezogen werden musste. Ob das nun am Chip selbst oder am Ram liegt ist erstmal relativ egal.
Wir werden am 16. nun Tests sehen wo zumindest die 3080 zeigen kann was geht, aber die Arch sollte man eher an der 3090 messen, wann auch immer es da Reviews geben wird.
Ob AMD das schlagen können wird muss sich zeigen, möglich ist aber erstmal alles. Es kann sein das AMD mehr einen Nachfolger der 5700 XT plant, damit ist man ja auch recht gut gefahren, oder aber was performanteres.
Fraglich ist halt was sich wirtschaftlich mehr lohnt. Vom Marketing her ist ein Produkt an der Spitze wohl immer positiv und färbt auf alles darunter ab.
Badesalz
2020-09-13, 11:56:47
Als wenn cherry picking sonst keiner machen würde. Wenn sich DF dafür "verkauft", selbst schuld.Mir ging es nicht darum wer sich für Klicks prostituiert, sondern warum 3DC soetwas beachten sollte...
@Badesalz
Ein Top Dog ist für sich gesehen wirtschaftlich irrelevant. Der Halo Effekt ist jedoch nicht abzustreiten. Denn das stärkt die gesamte Marke, was dann auch auf die Massenprodukte im unteren Bereich abfärbt. Das macht NV schon sehr sehr gut.Ich wäre mir da nicht so sicher, ob das nicht zum größten Teil nur herbeigeredet wird. Finte in der Finte, mit der das Marketing, marketing für Marketing macht :usweet:
Die meiste Karte der letzten Zeit die ich den HW weniger bedarften Zockern im Umfeld verbaut habe, war eine 1660S. Die waren und sind alle begeistert und haben allesamt keine Ahnung, daß da Turing drin steckt und das irgendetwas mit für sie finanziell unerreichbaren 2000ern zu tun hat.
Das zu dem Glaube ans "Abfärben" in dem Segment wo das Vieh den meisten Mist macht. NV überzeugte bisher da wo sie wirtschaftlich am erfolgreichsten sind, durch Leistung und Sorglosigkeit beim Nutzen (und halt annehmbaren Preis) und nicht, weil sie z.B. auch eine 1080Ti oder 2080Ti hatten. Oder jetzt, weil es eine 3090 gibt.
In den Zockerforen wird die imho Fehlinterpretation aber nur zu gerne von Zockernerds gepusht, weil diese oft den Topdog auch haben wollen. Oder wenigstens seine nächstkleinere Iteration. Für die ist es wichtig, daß es sowas wie die 2080Ti oder die 3090 eben gibt :wink: Real beeinflusst das den wirtschaftlichsten Teil des Markte IMHO aber nur gering.
Wer hat sich je einen Audi A4 gekauft, weil es den A8L gibt?
edit:
Ich hab noch garnicht nachgeschaut, ob DF auch klar angibt mit welchen Einstellungen sie die Spiele getestet haben. Es werden schon die gleichen sein, aber auch damit kann man rumtricksen bzw. das vorgegeben bekommen, wenn man die Kundschaft manipulieren will.
mironicus
2020-09-13, 11:57:02
Marketing ist nicht AMDs Stärke. NVidia war souverän und hat einfach nur mit den eigenen Vorgänger-Karten verglichen und die Konkurrenz nicht mal erwähnt.
Intel ist momentan auch schwach beim Marketing. Bei der letzten Tiger Lake-Vorstellung konnte man sehen wie traumatisiert sie vom 4800u sind. :D
robbitop
2020-09-13, 12:04:55
Ich wäre mir da nicht so sicher, ob das nicht zum größten Teil nur herbeigeredet wird. Finte in der Finte, mit der das Marketing, marketing für Marketing macht :usweet:
Die meiste Karte der letzten zeit die ich den HW weniger bedarften Zockern im Umfeld verbaut habe, war eine 1660S. Die waren und sind alle begeistert und haben allesamt keine Ahnung, daß da Turing drin steckt und das irgendetwas mit für sie finanziell unerreichbaren 2000er zu tun hat.
Das zu dem Glaube ans "Abfärben" in dem Segment wo das Vieh den meisten Mist macht. NV überzeugte bisher da wo sie wirtschaftlich am erfolgreichsten sind, durch Leistung und Sorglosigkeit beim Nutzen und nicht, weil sie z.B. auch eine 1080Ti oder 2080Ti hatten. Oder jetzt, weil es eine 3090 gibt.
Bekanntenkreis ist statisch idR nicht repräsentativ. NV, Intel und AMD würden das nicht tun, wenn es nicht funktionieren würde. Das beschränkt sich ja nicht nur auf PC Hardware. Das kann man bei fast allen Consumerprodukten sehen.
In den Zockerforen wird die Fehlinterpretation imho nur gerne von Nerds gepusht, weil diese oft den Topdog auch haben wollen. Für die ist es wichtig, daß es sowas wie die 2080Ti oder die 3090 eben gibt :wink: Real beinflusst das den wirtschaftlichsten Teil des Markte IMHO aber nur gering.
Foren sind IMO auch nicht relevant (wie du es ja auch beschreibst). Aber Meinungsmultiplikatoren sind es nunmal. Zeitschriften, Online Redaktionen, Youtube Videos, die Meinung der Elektronikhändler etc.
Man schaue sich mal die Verkäufe von Polaris ggü GP106 an oder Navi 10/14 ggü TU106 und 116.
NV verkauft bei gleich guten Produkten (oder sogar bei leicht schlechteren Produkten) deutlich mehr.
Die Bekanntheit und Stärke einer Marke sind schnell zu unterschätzen.
unl34shed
2020-09-13, 12:10:07
X-D
Wie gesagt: auf Worte kann man IMO nichts geben. Erstmal muss man liefern.
Ja super, dann könne wir den Thread ja zu machen
Was wurde von AMD nicht alles schon über die GPUs vorher verkündet. Overclocker's Dream und Leadership und poor Volta usw.
Leadership ist bei den Amis normal, da ist man immer der Beste, zweiter geht einfach gar nicht.
Unter dem Poor Volta stand auch noch etwas mehr, was man durchaus auf interne Probleme bei der Architektur beziehen könnte. Vielleicht hat es erst Turing gebraucht um das zu fixen? :confused:
pixeljetstream
2020-09-13, 12:10:12
50% kann man normalerweise von Gen zu Gen als Performanceanstieg sehen
Das zu erreichen ist aber immer schwerer im Vergleich zu früher.
robbitop
2020-09-13, 12:13:36
Ja super, dann könne wir den Thread ja zu machen
Worte im Sinne von Versprechen der IHVs im Vorfeld. ;)
Das sollte aber auch im Kontext erkennbar gewesen sein...
Leadership ist bei den Amis normal, da ist man immer der Beste, zweiter geht einfach gar nicht.
Völlig OK - dann muss man das aber auch abliefern. Oder wenn man es nicht kann oder will, halt den Mund halten. ;)
Spielt am Ende keine Rolle. Will sagen: es spielt keine Rolle, was ein IHV vor dem Launch sagt. Zählen tut am Ende nur das Produkt.
Wenn Ankündigung und Ablieferung konsistent für mehrere Generationen zueinander passen, kann man IMO auch den Worten ein wenig mehr vertrauen. ;)
Badesalz
2020-09-13, 12:16:52
Bekanntenkreis ist statisch idR nicht repräsentativ.Lässt sich selbstverstädnlich mit gestandenen Zahlen gut kontern. Die wären? Nur Verkauszahlen beweisen das leider nicht.
Wenn man Armeen an Fanboys um sich scharen kann - wobei man das ohne Frage nur hinbekommt, wenn man auch liefert - dann ist der Einfluss solcher (Multiplikatoren) natürlich beachtlich. Daß diese den Markt beeinflussen, das muss man halt zugeben. Stimmt schon. Grad diese werden allerdings nicht vom Marketing beeinflusst (außer jetzt den YT-Prostituierten). Fans kennen sich halt auch besser aus. Die steigen tiefer ein als PR-Folien erlauben. Sie werden daher eher doch von Ingenieuren produziert als vom Marketng.
NV, Intel und AMD würden das nicht tun, wenn es nicht funktionieren würde.Jetzt wird gefählrich :tongue: aber ich habs halt immernoch nicht wieder gefunden... Ich suche immernoch den Link bei fefe zu der prof. Studie (!) die er mal verlinkt hat, wo es klar hervorging wie wenig Bannerwerbung bringt und wo ein Unternehmen gar erstmal testweise drauf verzichtet hat und der Rückgang am Umsatz dadurch viel weniger war als sie für solches Marketing ausgegeben haben.
Und? Haben wir seitdem weniger Werbebanner im Netz? Die interne Macht des Marketings ist nicht zu unterschätzen. Zu allermeist bestehen diese Abteilungen aus sehr redegewandtem kreativen Volk. Sie wirken für ihren Wohl auf gleiche Weise extern wie intern...
why_me
2020-09-13, 12:22:39
Marketing ist nicht AMDs Stärke. NVidia war souverän und hat einfach nur mit den eigenen Vorgänger-Karten verglichen und die Konkurrenz nicht mal erwähnt.
Im nachhinein betrachtet, war die ganze Ampere Präsentation ein schlechter Witz. Große Zahlen, mit komischen Vergleichen (z.B. HW-RT vs SW-RT, Perf/W, sparse Tensor, 2x RT ist nur ray-triangle!? etc.).
Das einzige überraschende waren die doppelten FP32 ALUs, aber genauer betrachtet fallen die zusätzlichen Int-ALus "weg" und es bleibt am Ende nur, große Zahlen und mehr oder weniger nichts dahinter.
Fragman
2020-09-13, 12:28:01
Die 3080 stellt man ja auch gegen die 2080 und nicht die TI, dafür ist die 3090 da, auch wenn die dank dem viel größeren Speicher eine post TI mit höherem Preis ist.
Und ja, wer vor 2 Jahren eine TI zu dem Preis gekauft hat, der schaut heute auch eher auf die 3090, weil das der neue Top Dog ist. Diese Käufer werden wohl weniger sidegraden, haben sie das denn jemals gemacht?
robbitop
2020-09-13, 12:30:12
Lässt sich selbstverstädnlich mit gestandenen Zahlen gut kontern. die wären?
Das gilt in der Statistik generell.
Jetzt wird gefählrich :tongue: aber ich habs noch nicht wieder gefunden... Ich suche immernoch den Link bei fefe zu der prof. Studie (!) die er mal verlinkt hat, wo es klar hervorging wie wenig Bannerwerbung bringt und wo ein Unternehmer gar testweise drauf verzichtet hat und der Rückgang im Umsatz dadurch viel weniger war als sie für solches Marketing ausgegeben haben.
Und? Haben wir dadurch weniger Werbebanner im Netz?
Ob das nun unbedingt mit Haloprodukten gleichzusetzen ist?
Das gibt es in so ziemlich allen Consumerbranchen - in so ziemlich allen Branchen. Da werden Unsummen dafür ausgegeben. Sicherlich arbeiten da Armeenweise Profis, die das besser einschätzen können und sich beruflich nur mit diesem Thema (Marketing - Produktmix - Marktanalyse - Konsumentenverhalten) befassen.
Dazu kommt, dass so ziemlich jedes Unternehmen das Ziel hat, die Gewinne zu maximieren. Geld in etwas zu investieren, was keinen Gewinn bringt, würde wohl relativ schnell entdeckt und eliminiert werden.
Das zu bestreiten ist 1.) nicht Sinn dieses Threads und 2.) genau so sinnvoll wie Axiome zu hinterfragen.
Ich kann dieses Axiom nicht beweisen und habe auch gar keine Muße dazu. Bin mir aber 100% sicher, dass wenn es nicht so wäre, würden Unternehmen sich anders verhalten. Das ist ja nun kein GPU exklusiver Effekt.
unl34shed
2020-09-13, 12:33:07
Das zu erreichen ist aber immer schwerer im Vergleich zu früher.
Naja, laut manchen hier war es im Vorfeld ein Full Node Shrink und dadurch hätte ja schon alleine fast die doppelte Perf/W bei rumkommen müssen ;D
Worte im Sinne von Versprechen der IHVs im Vorfeld. ;)
Das sollte aber auch im Kontext erkennbar gewesen sein...
Naja, wenn ein CEO und CFO so etwas vor Investoren sagen, sollte man es schon etwas höher bewerten können, als wenn es betrunken in einer Bar geschieht. Da gibt es entsprechende Regeln, die greifen, wenn man die Investoren täuscht.
Badesalz
2020-09-13, 12:36:53
Geld in etwas zu investieren, was keinen Gewinn bringt, würde wohl relativ schnell entdeckt und eliminiert werden.Das ist nicht die Geschichte einer jeder Industrie. Selbst wenn du mit dem Rest Recht haben solltest, DAS stimmt auf keinen Fall ;)
Ok. Zurück zum eigentlichen Topic. Ich nehme den Rückzieher an.
@unl34shed
Ah was... Wenn man das so sagt, reicht es ja, daß man in irgendeinem Teil des Marktes wo ein GPU-Part existiert, Halo und Leadership wird. Das könnte man schon mit RDNA2 APUs foliengerecht herausarbiten ;)
robbitop
2020-09-13, 12:39:37
Naja, laut manchen hier war es im Vorfeld ein Full Node Shrink und dadurch hätte ja schon alleine fast die doppelte Perf/W bei rumkommen müssen ;D
Shrinks sind leider nicht mehr das was sie mal waren.
Naja, wenn ein CEO und CFO so etwas vor Investoren sagen, sollte man es schon etwas höher bewerten können, als wenn es betrunken in einer Bar geschieht. Da gibt es entsprechende Regeln, die greifen, wenn man die Investoren täuscht.
Da gibt es offenbar ja genug Spielraum, sofern man nicht spezifisch genug ist. Was schade ist.
IMO gibt das Thema nun auch nicht mehr viel für die Diskussion her: AMD Repräsentative haben seit einigen Jahren viel Wind um kommende Produkte gemacht. Mehr Wind als nötig. So, dass man darauf IMO nicht viel geben muss.
pixeljetstream
2020-09-13, 12:41:56
Das leadership würde ich nicht so bewerten, wie mehrere schrieben das ist so typische Floskel. Und man kann ja immer sagen man beliefert die leistungsstärksten Konsolen. IMO kann man den Wortgebrauch nicht ankreiden.
robbitop
2020-09-13, 12:49:59
Das ist nicht die geschichte einer jeder Industrie. Selbst wenn du mit dem Rest Recht haben solltest, DAS stimmt auf keinen Fall ;)
In Unternehmen, die stets ihre Marge maximieren, stimmt das schon. Schaue dir das Margenwachstum von NV an. Die wissen was sie da tun.
Das kann man auf viele Consumerbranchen anwenden. Man suche in gewünschter Branche mit Massenprodukten dort die Unternehmen heraus, die seit 10+ Jahren ihre Gewinne stärker als ihre Umsätze gesteigert haben. Da gibt es fast immer Halo Produkte, die sich in viel kleineren Stückzahlen verkaufen als die Massenprodukte. Und in denen gibt es stets und ständig Cost Out um die Kosten zu senken.
Das leadership würde ich nicht so bewerten, wie mehrere schrieben das ist so typische Floskel. Und man kann ja immer sagen man beliefert die leistungsstärksten Konsolen. IMO kann man den Wortgebrauch nicht ankreiden.
Mir geht es nicht darum, etwas "anzukreiden". Sondern nur darum, dass man erstmal abliefern muss. ;)
Neurosphere
2020-09-13, 12:51:23
Das zu erreichen ist aber immer schwerer im Vergleich zu früher.
Das ist richtig, deshalb wird bei Ampere wird das ganze über die hohe Leistungsaufnahme erkauft. Wäre man bei 250 Watt geblieben wie Pascal und Turing sähe das ganze wohl wesentlich schlechter aus. Natürlich spielt da auch Samsungs 8nm mit rein.
Ich glaube jedenfalls nicht das AMD bei Perf./Watt schlechter dastehen wird als NV mit Ampere.
mironicus
2020-09-13, 12:55:15
Das ist richtig, deshalb wird bei Ampere wird das ganze über die hohe Leistungsaufnahme erkauft. Wäre man bei 250 Watt geblieben wie Pascal und Turing sähe das ganze wohl wesentlich schlechter aus.
Meine Wette: Bei einer Begrenzung von Ampere auf 250 Watt schmilzt der Vorsprung auf Turing auf vielleicht 10-15%. Deshalb sage ich ja den Testern: Vergleicht eine 3080/3090 mit einer 2080 Ti und mit 250 Watt Begrenzung. Dann sehen wir, wie effizient Ampere wirklich ist.
Daredevil
2020-09-13, 12:55:28
Das ist richtig, deshalb wird bei Ampere wird das ganze über die hohe Leistungsaufnahme erkauft. Wäre man bei 250 Watt geblieben wie Pascal und Turing sähe das ganze wohl wesentlich schlechter aus. Natürlich spielt da auch Samsungs 8nm mit rein.
Ich glaube jedenfalls nicht das AMD bei Perf./Watt schlechter dastehen wird als NV mit Ampere.
Wenn Perf./Watt das einzige ist, was dir wichtig ist, kauf dir ne Switch.
Einer hoher Verbrauch ist immer scheiße, eine niedrige Performance aber ebenso. Das weiß AMD als auch Nvidia, deswegen wird geprügelt, was das Zeug hält.
Badesalz
2020-09-13, 13:03:23
Natürlich spielt da auch Samsungs 8nm mit rein.Das hab ich schon mehr als nur 1x angefragt, weil das dauernd einfach so behauptet wird. Ist das wirklich so? Sind die 8nm so unwesentlich besser als die 12nm beim Turing? Wer hat das wann und wo sachlich beschrieben? (ich rede noch nichtmal von "bewiesen")
Achtung: Dabei geht es eben NICHT um Vergleiche mit den 7nm von TSMC.
Wenn Perf./Watt das einzige ist, was dir wichtig ist, [...]Du hast das jetzt so verstanden, daß er damit genau das sagen wollte? :| Dann kann er seine Texte auch gleich in Sanskrit posten...
robbitop
2020-09-13, 13:06:18
Das lässt sich schwer beweisen, wenn man nicht den gleichen Chip auf beiden Prozessen hat, um den zu vergleichen. Damit es wirklich korrekt wäre: mit einer ordentlichen Stichprobengröße und beim jeweils gleichen Betriebspunkt.
Neurosphere
2020-09-13, 13:17:08
Meine Wette: Bei einer Begrenzung von Ampere auf 250 Watt schmilzt der Vorsprung auf Turing auf vielleicht 10-15%. Deshalb sage ich ja den Testern: Vergleicht eine 3080/3090 mit einer 2080 Ti und mit 250 Watt Begrenzung. Dann sehen wir, wie effizient Ampere wirklich ist.
So weit aus dem Fenster würde ich mich nicht lehnen, aber es sieht so aus als würde NV Ampere über dem Sweetspot betreiben. Wenn alles nur am Ram liegen würde, sollte der Unterschied in der TDP bei 3080 zu 3090 wohl größer sein als die 30 Watt die bisher rumschwirren.
Wenn Perf./Watt das einzige ist, was dir wichtig ist, kauf dir ne Switch.
Einer hoher Verbrauch ist immer scheiße, eine niedrige Performance aber ebenso. Das weiß AMD als auch Nvidia, deswegen wird geprügelt, was das Zeug hält.
Es geht darum einen Vergleich zwischen Architekturen zu finden und Perf./Watt ist nunmal ein guter Indikator.
Das hab ich schon mehr als nur 1x angefragt, weil das dauernd einfach so behauptet wird. Ist das wirklich so? Sind die 8nm so unwesentlich besser als die 12nm beim Turing? Wer hat das wann und wo sachlich beschrieben? (ich rede noch nichtmal von "bewiesen")
Achtung: Dabei geht es eben NICHT um Vergleiche mit den 7nm von TSMC.
Mehr als Gerüchte wird man dazu wohl nicht finden. Wenn dann wird über sowas nur hinter vorgehaltener Hand gesprochen es sei denn du hast zwei Produkte mit gleichem Aufbau die man direkt vergleichen könnte. Man müsste also versuchen einen teilweise deaktivierten A100 gegen einen GA102 antreten zu lassen um zu wissen was Sache ist.
Intel ist momentan auch schwach beim Marketing. Bei der letzten Tiger Lake-Vorstellung konnte man sehen wie traumatisiert sie vom 4800u sind. :D
Sobald man die die Konkurrenz bei sowas referenziert wirds immer cheesey und die Vergleiche sind irgendwo zurechtgebogen.
Intel scheint aber wirklich traumatisiert.
https://abload.de/img/intelu7j71.jpg
Wie gesagt: auf Worte kann man IMO nichts geben. Erstmal muss man liefern.
Was wurde von AMD nicht alles schon über die GPUs vorher verkündet. Overclocker's Dream und Leadership und poor Volta usw.
AMD/AMD Fans kündigt halt gefühlt mit fast jeder Generationen einen Nvidia Killer an und liefert quasi nie.
Das ist die selben Kategorie wie die jährlichen iPhone/iPad Killer.
AMD ist sicher in der Lage auch mal wieder nach vorne zu kommen. Der Abstand ist nicht so gigantisch. Aber erstmal müssen sie wenigstens ein einziges Mal ihr Versprechen einhalten, damit man ihnen sowas wieder abkauft.
Im nachhinein betrachtet, war die ganze Ampere Präsentation ein schlechter Witz. Große Zahlen, mit komischen Vergleichen (z.B. HW-RT vs SW-RT, Perf/W, sparse Tensor, 2x RT ist nur ray-triangle!? etc.).
Ok. Selbst wenn 2xRT "nur" doppelt so viele Ray-Triangle Tests sind, erklär mir mal bitte wo da das Problem liegt?
Das gleiche bitte nochmal für Sparse Tensor.
robbitop
2020-09-13, 13:19:59
@RLZ
Genau das meinte ich damit. :)
Armaq
2020-09-13, 13:21:17
Wenn Perf./Watt das einzige ist, was dir wichtig ist, kauf dir ne Switch.
Einer hoher Verbrauch ist immer scheiße, eine niedrige Performance aber ebenso. Das weiß AMD als auch Nvidia, deswegen wird geprügelt, was das Zeug hält.
Du betreibst deine 2080Ti doch auch mit Limits, wie ich auch. Also klar, die Grundperformance ist gut, aber d.h. nicht die Karten müssen ausgepresst werden.
@RLZ
Genau das meinte ich damit. :)
Ein Zitat ist ja nicht nur für eine Contra Meinung ;)
Ich wollte dir nur nochmal zustimmen. :biggrin:
w0mbat
2020-09-13, 13:27:13
AMD/AMD Fans kündigt halt gefühlt mit fast jeder Generationen einen Nvidia Killer an und liefert quasi nie.
Das ist die selben Kategorie wie die jährlichen iPhone/iPad Killer.
AMD ist sicher in der Lage auch mal wieder nach vorne zu kommen. Der Abstand ist nicht so gigantisch. Aber erstmal müssen sie wenigstens ein einziges Mal ihr Versprechen einhalten, damit man ihnen sowas wieder abkauft.
Haben hier alle Navi10 vergessen, oder was? AMD hat letztes Jahr gut gezeigt, dass sie liefern können. 2060 und 2070 wurden deutlich übertroffen und auch gegen 2060S/2070S sieht es gut aus. Dazu ein kleinerer Chip und sogar eine bessere Effizienz.
Daredevil
2020-09-13, 13:29:04
Du betreibst deine 2080Ti doch auch mit Limits, wie ich auch. Also klar, die Grundperformance ist gut, aber d.h. nicht die Karten müssen ausgepresst werden.
Ja, mit einer fetten Karte hat man aber immer selber in der Hand, was man tun möchte.
100fps - 300w Verbrauch
50fps - 100w Verbrauch
Welche Karte hast du lieber im Gehäuse?
Die mit 3w/FPS, oder die mit 2w/FPS?
Erstere wirst du effizienter betreiben können als die Zweite, die Zweite wirst du aber nie so hoch prügeln können, dass sie die erste erreicht.
Stock Settings sind Bullshit, wir sind hier im 3DCenter und nicht im Gameboy Forum.
Erst wenn eine Karte schneller ist und sich DANN auf Perf/Watt fokussiert, dann ist das sehr nett. Vorher nicht.
AMD muss also erst zeigen, dass sie schneller sein können UND sparsamer, nicht einfach nur sparsamer mit weniger Performance.
Weil mit Sparsamkeit bekomme die Leute ihr Problem, z.B. 4K60 nicht gelöst.
robbitop
2020-09-13, 13:32:49
Haben hier alle Navi10 vergessen, oder was? AMD hat letztes Jahr gut gezeigt, dass sie liefern können. 2060 und 2070 wurden deutlich übertroffen und auch gegen 2060S/2070S sieht es gut aus. Dazu ein kleinerer Chip und sogar eine bessere Effizienz.
N10 war sehr gut. Und es zweifelt auch niemand die uArch von N2x an. Die wird schon gut werden. N10 war ja kein Zufallsprodukt. Sondern lediglich, ob AMD auch eine so hoch skalierte Ausbaustufe liefert, um es mit dem Top Dog von NV aufnehmen zu können. Nämlich der 3090.
Stock Settings sind Bullshit, wir sind hier im 3DCenter und nicht im Gameboy Forum.
Erst wenn eine Karte schneller ist und sich DANN auf Perf/Watt fokussiert, dann ist das sehr nett. Vorher nicht.
Ist schon für die Diskussion interessant. Aber eben nicht relevant für den Massenmarkt. Da zählt nur out of the box. :)
Birdman
2020-09-13, 13:38:59
Haben hier alle Navi10 vergessen, oder was? AMD hat letztes Jahr gut gezeigt, dass sie liefern können. 2060 und 2070 wurden deutlich übertroffen und auch gegen 2060S/2070S sieht es gut aus. Dazu ein kleinerer Chip und sogar eine bessere Effizienz.
2060S/2070S sind effizienter und schneller als 5700/5700XT
Ja, der Vorsprung von Turing ist in beiden Disziplinen marginal, aber wie AMD Fanboys daraus wieder ein schneller und effizienter für Navi10 drehen, ist lustig und vor allem sehr bezeichnend für diese Klientel.
Daredevil
2020-09-13, 13:40:14
Ich meine, schaut man sich z.B. diese beiden Karten an. ( AMD vs. Nvidia ist völlig irrelevant )
Sapphire Pulse Radeon RX 5700 XT
225w
ASUS ROG Strix GeForce RTX 2070 SUPER
215w
Warum zum Himmel ist eine fortschrittliche 7nm Karte unter oder meinetwegen auch gleichauf wie eine gammlige 12nm Karte?
AMD hat ja nicht nur Äffchen im Labor angestellt, die Bananen essen, sondern auch Entwickler, die eine Menge drauf haben.
Navi1 ist anscheinend stark hochgeprügelt, sonst müsste man doch nicht so einen Verbrauch fahren?!
Da ist es ja dann auch kein Wunder, dass man 50% Perf/Watt verspricht, wenn die jetzige Generation am Limit hängt. AMD muss halt Performance rausquetschen und das ist völlig okay, sonst würde das halt niemand kaufen.
Kleine Chips, hoher Takt, günstig aber heiß ist immerhin besser als große Chips, hoher Takt, teuer und heiß.
PS: Die Nitro+ fährt mit 265W (Sapphire) auf. ( Das sind 2080ti Ref Werte ) Perf/Watt war genau wo? ^^ Navi2 kann nur besser werden und die 50% glaube ich sofort, aber nicht in Verbindung mit großen Leistungssprüngen über 50%. No way.
w0mbat
2020-09-13, 13:50:22
2060S/2070S sind effizienter und schneller als 5700/5700XT
Ja, der Vorsprung von Turing ist in beiden Disziplinen marginal, aber wie AMD Fanboys daraus wieder ein schneller und effizienter für Navi10 drehen, ist lustig und vor allem sehr bezeichnend für diese Klientel.
Merkste selber, oder? Die 5700 XT war als Konkurrenz zur 2070/2060S gedacht.
Und hier noch 2070 vs 5700 XT mit gleichem Takt: https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/4/
https://i.imgur.com/Qevc9N4.png
N10 war sehr gut. Und es zweifelt auch niemand die uArch von N2x an. Die wird schon gut werden. N10 war ja kein Zufallsprodukt. Sondern lediglich, ob AMD auch eine so hoch skalierte Ausbaustufe liefert, um es mit dem Top Dog von NV aufnehmen zu können.
Nichtmal das würde AMD absprechen.
Aber Gleichstand wäre immer noch != Killer
Merkste selber, oder?
Benchmarks in den letzten Wochen der Generation sind nicht mehr ganz so relevant. ;)
Was hängen bleibt sind die Launchbenchmarks.
Neben den Benchmarks zählen halt auch immer noch Features und der Ruf der Marke. Da hat man es als Underdog nicht immer so einfach.
Digidi
2020-09-13, 13:55:50
Falls AMD bis auf 10% an eine 3090 rankommt sie dann die Karte für 799 verkaufen und die 3090 alt aussehen lassen.
Die Preise von Nvidia müssen runter, sonst stehen wir bei der 4080 dann Preise von 1000 Dollar und für die 4090 2000 Dollar.
Das wollte mir damals bei der 1080ti auch keiner glauben jetzt haben wir den salat und alle reden sich schön ein das die 3090 die Titan ist lol......
Die meisten hier lassen sich vom Marketing so an der Nase rumführen. Die 3090 ist eigentlich die 3080ti....
P.S. ich hoffe für die Tests auch mal auf Low Level Benchmarks. Es gibt einige hier draußen die FPS Spiele zocken und die ganzen Shader gedöns ausschalten um maximale FPS zu bekommen. Hier könnte dann AMD mit seinen Rasterizern und Rops überlegen sein...
Nightspider
2020-09-13, 14:03:45
Aber NV ist nicht Intel - NV hat eigentlich immer weiter ihr RnD Budget gesteigert (das kann man auf allen Aktienplattformen nachvollziehen).
Kann man da eigentlich isoliert betrachten wie viel RnD Budget für Grafikkarten drauf ging?
Viel Geld wird ja auch in die HPC und Automotive Sparten geflossen sein. In den letzten Jahren vielleicht sogar der größere Anteil.
w0mbat
2020-09-13, 14:05:51
Ich glaube die Frage ist einfach, was die RTG für ein Budget hat und was man sich damit "traut". RDNA1 gibt es ja nur bis Navi10, also im "mainstream". Die RTG hat mit RDNA1 einfach keinen "Big Navi" gebastelt, aus welchen Gründen auch immer.
Mit RDNA2 wird es jetzt einen "big" chip geben.
mboeller
2020-09-13, 14:15:28
mal was anderes ...
mich lassen die 128MB Cache nicht los.
Bei ZEN2 wären 128MB extrem groß, basierend auf den Die-shots
TSMC gibt selbst 0,027µm² pro SRAM bit-cell an, allerdings für den HD-Prozess und nicht für den HP-Prozess.
128MB sind 8 x 128 x 1024 x 1024 bit, also 1.073 Mrd bit
0,027 µm² x 1.073 x 10^9 /1000² = 29mm²
Das wäre sehr klein, vor allem im Vergleich zum L3 Cache bei ZEN2. Wo liegt der Fehler, abgesehen davon, dass der Wert nur für den HD und nicht für den HP Prozess gilt.
Fragman
2020-09-13, 14:23:13
Falls AMD bis auf 10% an eine 3090 rankommt sie dann die Karte für 799 verkaufen und die 3090 alt aussehen lassen.
Ziel sollte die 3080 sein, denn die kostet 700Euro.
Nv hätte die 3090 nicht so released, wenn AMD dort landen könnte.
Die 3090 würd ich aus den Diskussionen raus lassen, die ist zu weit weg.
Die Preise von Nvidia müssen runter, sonst stehen wir bei der 4080 dann Preise von 1000 Dollar und für die 4090 2000 Dollar.
Mit ab 700 kostet die 3080 soviel wie die Karten vor 2 Jahren.
Spekulieren kann man daraus 2 Dinge, AMD liefert ähnliche Leistung zu ähnlichem Preis. AMD liefert weniger Performance, dafür mehr Speicher. Beides wäre nach den letzten Jahren schon recht gut.
Möglich ist natürlich auch das die 3080 so designed wurde, weil sich nv das leisten kann, ohne zu wissen was AMD macht. Daran glaub ich aber nicht.
Ravenhearth
2020-09-13, 14:28:34
Möglich ist natürlich auch das die 3080 so designed wurde, weil sich nv das leisten kann, ohne zu wissen was AMD macht. Daran glaub ich aber nicht.
Ich auch nicht. Man hat ja sogar den ursprünglich geplanten GA103 mit 60 SMs gestrichen, um ihn durch GA102 mit 68 aktiven SMs zu ersetzen. Das tut man nicht ohne Not.
unl34shed
2020-09-13, 14:34:49
Das wäre sehr klein, vor allem im Vergleich zum L3 Cache bei ZEN2. Wo liegt der Fehler, abgesehen davon, dass der Wert nur für den HD und nicht für den HP Prozess gilt.
Es fehlt Kontrolllogik, die Leitungen zwischen den Zellen etc.
Das ist auch nur die kleinst mögliche Speicherzelle, bei mehr Performance dürften sie denke ich größer ausfallen.
Der_Korken
2020-09-13, 14:38:58
128MB sind 8 x 128 x 1024 x 1024 bit, also 1.073 Mrd bit
0,027 µm² x 1.073 x 10^9 /1000² = 29mm²
Das wäre sehr klein, vor allem im Vergleich zum L3 Cache bei ZEN2. Wo liegt der Fehler, abgesehen davon, dass der Wert nur für den HD und nicht für den HP Prozess gilt.
Sowas ähnliches habe ich mich auch schon mal gefragt. Bei den GPUs ist es noch viel extremer: Bei N10 sind die 4MB L2$ schon geschätzt 10mm² groß, was ja nochmal ein viel schlechteres Verhältnis ist als die 32MB L3$ mit ~35mm² auf einem Matisse-Die. Man darf sicherlich die Tags und die Ansteuerungslogik nicht unterschätzen, vor allem wenn man parallel lesen/schreiben können muss, um auf die nötige Bandbreite zu kommen.
Ich frage mich, ob an einer neuen Cache-Strategie vielleicht doch was dran ist. Die meisten, die einfach irgendwelche falschen Specs leaken, schrauben einfach die Einheitenzahl und den Takt nach oben oder schmeißen irgendwelche VRAM-Größen in den Raum, die überhaupt nicht zum SI passen. Ein 128MB großer Cache (das Wort "Infinity Cache" macht es tatschlich wieder etwas albern, weil das nach einem Buzzwort-Namen klingt) und auch die Verdreifachung des L1$ klingen aber schon sehr spezifisch. Und falls das tatsächlich was bringt, ist es auch nicht doof fehlende Bandbreite zu kompensieren, denn die Lücke bezüglich Packdichte und Effizienz zwischen Logik und IO wird immer größer werden. Eventuell wurde mit N7(e) der Punkt erreicht, an dem ein fetter Cache mehr bringt als ein oder zwei weitere SI-Channels mit allem was dranhängt.
why_me
2020-09-13, 14:42:09
Ok. Selbst wenn 2xRT "nur" doppelt so viele Ray-Triangle Tests sind, erklär mir mal bitte wo da das Problem liegt?
Das gleiche bitte nochmal für Sparse Tensor.
Ray Triangle ist nur der letzte Schritt in der BHV, da bleibt also nicht 2x übrig, wie im Nvidia Video angedeutet.
Das selbe bei sparse tensor, das ist ein Sonderfall, den Turing noch nicht kann. Ohne sparse, ist Ampere pro SM gleich schnell wie Turing...
Wie bereits geschrieben, die ganze Präsentation war voll von großen Zahlen aus fragwürdigen vergleichen, was davon übrig bleibt, naja, werden wir in ein Paar Tagen sehen...
Ist aber der falsche Thread hier, sorry.
BoMbY
2020-09-13, 14:50:40
Der Name "Infinity Cache" würde zum "Infinity Fabric" passen, und wäre sicher nicht dümmer als der "Gaming Cache" bei den AM4-CPUs.
Ray Triangle ist nur der letzte Schritt in der BHV, da bleibt also nicht 2x übrig, wie im Nvidia Video angedeutet.
Ich weiß wie ein BVH funktioniert. Aber ich sehe dein Problem nicht. Nvidia baut den in den allermeisten Fällen selbst und kann selbst dafür sorgen, dass die Auslastung passt.
Das selbe bei sparse tensor, das ist ein Sonderfall, den Turing noch nicht kann.
Es ist aber kein Sonderfall, sondern bis zu einem gewissen Grad der Regelfall
OgrEGT
2020-09-13, 15:56:57
So weit aus dem Fenster würde ich mich nicht lehnen, aber es sieht so aus als würde NV Ampere über dem Sweetspot betreiben. Wenn alles nur am Ram liegen würde, sollte der Unterschied in der TDP bei 3080 zu 3090 wohl größer sein als die 30 Watt die bisher rumschwirren.
Ich würde den Sweetspot als den Punkt definieren, bis zu dem die Leistung mit der Leistungsaufnahme skaliert und ab dem Punkt mehr Leistung nur noch durch überproportional mehr an Leistungsaufnahme erreicht werden kann, Perf/W also sinkt. Also der Scheitelpunkt der Perf/W über W Kurve.
Schlussendlich werden die Reviews zeigen wo der Sweetspot liegen wird.
Nvidia hatte im Interview mit PC-Welt gesagt, dass die Leisung von Ampere bis 350W gut skaliert. vlt liegt der Sweetspot einfach höher als bei den Vorgängern...
7gSg8fkSVm4
Daredevil
2020-09-13, 16:09:53
Ich würde den Sweetspot als den Punkt definieren, bis zu dem die Leistung mit der Leistungsaufnahme skaliert und ab dem Punkt mehr Leistung nur noch durch überproportional mehr an Leistungsaufnahme erreicht werden kann, Perf/W also sinkt. Also der Scheitelpunkt der Perf/W über W Kurve.
Schlussendlich werden die Reviews zeigen wo der Sweetspot liegen wird.
Neee, sowas bilden keine Reviews ab.
Beispiel https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12051507#post12051507
Radeon 5700XT ( Ref )
Verbrauch|Taktrate|Spannung|Score|HotSpot Temp|RPM|Punkte pro Watt| Anmerkung
87w | 1200Mhz| 750mv| 4883pts | 87°C | 813rpm | 56|
89w | 1300Mhz | 750mv | 5225pts | 87°C | 853rpm| 58|
93w | 1400mhz | 750mv | 5560pts| 87°C| 901rpm|60| Sweet Spot
108w | 1500mhz | 800mv | 5895pts | 78°C | 1280rpm| 55 | Ab hier an hörbarer Lärmpegel
117w | 1600mhz| 824mv | 6202pts| 82°C | 1281rpm | 53|
131w | 1700mhz| 875mv | 6519pts | 86°C| 1375rpm | 49|
148w| 1800mhz | 931mv | 6831pts | 88°C| 1693rpm | 46 | Ab hier an störender Lärmpegel
170w| 1850mhz| 1000mv | 7095pts| 91°C| 2100rpm | 41 | (Ab hier an fönt sich meine Freundin damit die Haare
180w |~1800Mhz |1056mv |6974pts| 94°C| 2100rpm | 38 | Stock Werte
213w| 1900mhz | 1081mv | 7366pts | 107°C | 2113rpm| 35|
Radeon VII
ASIC Verbrauch|Takt|Spannung|Score| Watt pro Punkte Punkte pro Watt |Lüfter RPM
75w |1200mhz |725mv |5505pts | 73 |900rpm|
90w |1300mhz| 777mv |5924pts | 65 | 900rpm|
102w| 1400mhz| 805mv| 6326pts | 62 |1120rpm
115w| 1500mhz |851mv| 6682pts | 58 | 1450rpm
148w |1600mhz| 900mv |7039pts | 47 |1750rpm ( Ab hier an hörbarer Lärmpegel )
180w |1700mhz| 950mv |7389pts | 41 |2331rpm ( Ab hier an störender Lärmpegel )
191w| 1800mhz |978mv| 7702pts | 40 |2733rpm
219w |1900mhz| 1052mv| 7959pts | 36 |2900rpm
240w |1750mhz |1110mv |7599pts| 31 | 2900rpm ( Stock )
>
Die 5700XT hat ihren Sweetspot bei 1400Mhz, die VII bei <1200Mhz. ( TU102 ist bei 1500Mhz )
Deswegen ist die VII dort auch bei niedrigerem Verbrauch schneller.
Hast du das schon einmal im Review gesehen? ^^
OgrEGT
2020-09-13, 16:16:58
Neee, sowas bilden keine Reviews ab.
...
Hast du das schon einmal im Review gesehen? ^^
Stimmt ^^
Das wäre doch etwas das sich die Redakteure die sich hier so tummeln mal mitnehmen könnten :up:
Daredevil
2020-09-13, 16:26:25
Um das aber mal in Zahlen zu schreiben.
In Sup4K bei 1200Mhz hat die VII eine um 20% höherer Perf/Watt als ne 5700XT.
Diese Angabe ist aber totaler Käse, da niemand seine Leistung auf Polaris Niveau senkt. Aber "so einfach" kann man die Perf/Watt frisieren. Natürlich ist die VII hier die schlechtere Karte, da an der Leistungsspitze die Karte deutlich abfällt.
Bei hohen Taktraten ist die 5700XT um ~10% vorne. ( Macht ja auch Sinn, Navi ist Gaming und Vega Compute )
Perf/Watt ist also pro Taktrate natürlich immer eine andere, deswegen ist die Reine Angabe ohne Takt und Verbrauch ohne sinn.
Vergleich zu einer "Sweetspot 2080ti"
5700XT: 60 Punkte pro Watt ( 5530pts )
VII: 73 Punkte pro Watt ( 5505pts )
2080TI: 88 Punkte pro Watt ( 10200pts )
Die Größe einer 2080TI, also potentiell BigNavi Leistung, kann jetzt auch schon ~+50% PerfWatt liefern, nur in einer anderen Farbe.
OgrEGT
2020-09-13, 16:34:27
Ja und man schaut sich auch Perf/W über Perf in einem bestimmten Bereich an, der bspw. für einen persönlich im Gaming wichtig ist, nach Auflösung minFPS etc.
unl34shed
2020-09-13, 16:38:54
Schlussendlich werden die Reviews zeigen wo der Sweetspot liegen wird.
Nvidia hatte im Interview mit PC-Welt gesagt, dass die Leisung von Ampere bis 350W gut skaliert. vlt liegt der Sweetspot einfach höher als bei den Vorgängern...
https://youtu.be/7gSg8fkSVm4
Was ein Schwachsinns Video, gerade der Teil zur Perf/W :eek:
[MK2]Mythos
2020-09-13, 16:49:11
Was ein Schwachsinns Video, gerade der Teil zur Perf/W :eek:
Jep, pures Marketingebrabbel und der Interviewer fragt kein einziges mal kritisch nach, sondern lässt sich schön belabern. Hab mich beim Zusehen auch aufgeregt. Aber Leute wie Dural geilen sich halt dran auf, die Marketingmärchen von Lederjacke nochmal von jemand anders zu hören. ;)
Daredevil
2020-09-13, 16:51:41
Nvidia nutzt es als Marketing, AMD als Treiber Feature. Ja mei, ist halt beides quatsch. :D
OgrEGT
2020-09-13, 16:56:29
Was ein Schwachsinns Video, gerade der Teil zur Perf/W :eek:
Immerhin ist es ein Nvidia Mitarbeiter vom Tech Marketing und wenn er sagt, dass die Leistung bis 350W gut skaliert, sollte das zumindest nicht gänzlich falsch sein...
Edit:
Das ist was ich meinte, was man in einem Review auch mal beleuchten sollte, und v.a. dass die verschiedenen Karten bei best. Settings auch nach fester Leistungsaufnahme verglichen werden (200W, 250W, 300W und jetzt vlt. auch 350W)...
Ich denke für den einen oder anderen ist es interessant zu wissen, welche Karte bei best. Leistungsaufnahme die beste Performance hat und nicht nur Performance alleine. Für andere mag das das wichtigste sein, diese Tests sind ja aber ohnehin in den Reviews vertreten.
aufkrawall
2020-09-13, 17:14:30
Immerhin ist es ein Nvidia Mitarbeiter vom Tech Marketing und wenn er sagt, dass die Leistung bis 350W gut skaliert, sollte das zumindest nicht gänzlich falsch sein...
Darauf deutet jedenfalls die niedrige Spannung von <1V für ~1,9GHz in dem "Leak"-Screenshot imho hin.
robbitop
2020-09-13, 17:46:09
Ray Triangle ist nur der letzte Schritt in der BHV, da bleibt also nicht 2x übrig, wie im Nvidia Video angedeutet.
Das selbe bei sparse tensor, das ist ein Sonderfall, den Turing noch nicht kann. Ohne sparse, ist Ampere pro SM gleich schnell wie Turing...
Wie bereits geschrieben, die ganze Präsentation war voll von großen Zahlen aus fragwürdigen vergleichen, was davon übrig bleibt, naja, werden wir in ein Paar Tagen sehen...
Ist aber der falsche Thread hier, sorry.
IIRC waren A100s TC ohne sparsed 4x so schnell wie Turings und GA102s 2x so schnell.
davidzo
2020-09-13, 17:56:20
Was ein Schwachsinns Video, gerade der Teil zur Perf/W :eek:
Ja, damit Energieefizienz erklären zu wollen ist hanebüchen.
Aber der Teil zum Prozess von Samsung stimmt wohl. Lederjacke hatte ja schon vor ein paar Monaten mal gesagt dass man unzufrieden mit dem Samsung Prozess ist und nächstes mal wieder dual sourcen will. Damit wenigstens nicht alle Chips schief gehen. Man kann ja vieles über Positionierung (102 in der x080 serie statt 104), Speicher (gddr6x), Power, Taktraten, Kühlung und auch neue Steppings und prozessoptimierungen etc. geradebiegen, aber eben nicht alles. Ist halt doch besser wenn man nicht alle Eier in einen Korb legt und im Zweifelsfalle nur in einem Marktbereich etwas Marge aufopfern muss. Ein bisschen Überlagerung der verschiedenen Chipklassen ist bei nvidias breit aufgestelltem Lineup ja sowieso möglich, insofern wären unterschiedliche prozesse wirklich gar nicht schlecht zur Risikominimierung.
Zu dem Zeitpunkt hatte man wahrscheinlich A0 Silicon und hat festgestellt dass man damit unter Samsungs Prozess mit diesem Monster Chip von GA102 nicht einmal die Taktraten von Turing erreichen kann. Klar, die Mehrleistung sollte ohne hin von den 50% mehr Transistoren kommen, aber wenn man in ein paar Teilbereichen gegenüber TU102 sogar hinten liegt wäre das doch peinlich. Nun haben die gescholtenen Samsung Ingenieure dann wohl geantwortet: Ja wir können den Prozess noch finetunen, aber was wollt ihr denn nun, mehr Takt oder weniger Verbrauch, wir können nicht in beide richtungen gleichzeitig optimieren.
Irgendwann dann muss die Entscheidung gefallen sein den Prozess eben auf höhere Ströme zu optimieren, zumindest für TU102. Es kann sein dass da AMDs vollmundige "nvidia-killer" gerüchte eine Rolle gespielt haben, oder aber viel eher eine nvidia-eigene Abteilung die getreu dem redneck-motto "von nichts kommt nichts" eine kompromisslose Ausrichtung auf Leistung forderte und sich damit letztendlich durchgesetzt hat.
Das müssen jetzt keine großen Masken-Änderungen gewesen sein, aber minimale Anpassungen, mehr so wie AMD bei der XT-serie an Prozessoren vorgenommen hat, können schon dafür gesorgt haben dass auch bei einem so großen Chip konsistent höhere Taktraten bei herum kommen.
In dem Zusammenhang macht die Darstellung von Lars Weinand schon Sinn und erleuchtet ein bisschen wie es zu 350W im Desktop kommen konnte.
Cyberfries
2020-09-13, 18:49:52
Häufig ist es für mich schon Beschäftigung genug auf einer Plattform Dinge auszuführen und die Diskussionen dort zu verfolgen.
Ich bin aber auch nur ein Laie und habe keine geheimen Quellen, entsprechend sind meine Ausführungen auch nicht vom besonderem Interesse.
Ich wollte dich auch keineswegs dazu drängen, hier parallel zu schreiben, wollte dir nur nicht die Schau stehlen
indem ich deine Erkenntnisse hier reinschreibe bevor du selbst dazu die Gelegenheit hast.
Denn ein neuer Betrachtungswinkel zu bekannten Informationen, den bisher noch keiner gesehen hat ist durchaus von Interesse.
Der "Infinity-Cache" wäre dann vermutlich übergeordnet der L3$.
....
Die gute SRAM-Dichte hat es bei AMD auch möglich gemacht mehrere SRAM-Buffer zu verdoppeln und auch den L3$ von 8 auf 16MB pro CCX zu vergrößern, ohne das die Chipfläche explodiert ist.
Stimmt natürlich, guter Einwand. Trotzdem geht bei Zen mehr als die Hälfte eines CCX für Cache drauf.
Du hast zuletzt auf Twitter den Platzbedarf für reinen Cache (basierend auf Zen2-Dimensionen) auf ca. 73mm² beziffert,
mit allem was sonst noch dazu gehört müssten wir eher mit dem Doppelten rechnen.
Mit diesem Cache und einer 80CU-GPU mit 256bit Speicherinterface bekommt man dann die spekulierten 505mm² voll.
Das passt dann aber nicht mehr zum Ausgangspunkt der Cache-Diskussion:
Dem Engineering Board mit 8 Speichersteinen und 320-360mm² Chipfläche.
rogame's configuration table from AMD's driver mentions 16 L2$ Tiles.... With 16 it couldn't be a 384-Bit Interface.
Nochmal dazu: Bisher wurde der L2$ mit den Speicherinterfaces verknüpft, bei N10 also jedem L2$-Tile ein 16bit-Interface zugeordnet.
Ist es denkbar, den L2$ von den Interfaces zu lösen und stattdessen den Shader Engines zuzuordnen?
In den Folien zu RDNA1 wird der L2$ mit 0-7 durchnummeriert, jede Zahl zweimal. Ist da der L2$ einer SE zugeordnet
oder kann jede SE auf jede L2$-Partition zugreifen? In ersterem Fall wäre die SE-zu-L2$-Zuordnung kein großer Schritt mehr.
Auffallend ist, dass sowohl AMD als auch nVidia mit RDNA/Ampere die ROPs von den Interfaces gelöst haben
und stattdessen den SEs / GPCs zugeordnet.
why_me
2020-09-13, 19:36:16
IIRC waren A100s TC ohne sparsed 4x so schnell wie Turings und GA102s 2x so schnell.
Sie sind auch bei GA102 doppelt so schnell, nur wurden die TC in GA102 auch pro SM halbiert -> gleiche Leistung bei normalen Tensor Operationen, bis zu doppelte Leistung bei sparsed.
Es wird aber so getan, als wäre GA102 bei Tensor Operationen immer doppelt so schnell gegenüber Turing, weil dieser kein sparse unterstützt...
Neee, sowas bilden keine Reviews ab.
Beispiel https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12051507#post12051507
Radeon 5700XT ( Ref )
Verbrauch|Taktrate|Spannung|Score|HotSpot Temp|RPM|Punkte pro Watt| Anmerkung
87w | 1200Mhz| 750mv| 4883pts | 87°C | 813rpm | 56|
89w | 1300Mhz | 750mv | 5225pts | 87°C | 853rpm| 58|
93w | 1400mhz | 750mv | 5560pts| 87°C| 901rpm|60| Sweet Spot
108w | 1500mhz | 800mv | 5895pts | 78°C | 1280rpm| 55 | Ab hier an hörbarer Lärmpegel
117w | 1600mhz| 824mv | 6202pts| 82°C | 1281rpm | 53|
131w | 1700mhz| 875mv | 6519pts | 86°C| 1375rpm | 49|
148w| 1800mhz | 931mv | 6831pts | 88°C| 1693rpm | 46 | Ab hier an störender Lärmpegel
170w| 1850mhz| 1000mv | 7095pts| 91°C| 2100rpm | 41 | (Ab hier an fönt sich meine Freundin damit die Haare
180w |~1800Mhz |1056mv |6974pts| 94°C| 2100rpm | 38 | Stock Werte
213w| 1900mhz | 1081mv | 7366pts | 107°C | 2113rpm| 35|
Radeon VII
ASIC Verbrauch|Takt|Spannung|Score| Watt pro Punkte Punkte pro Watt |Lüfter RPM
75w |1200mhz |725mv |5505pts | 73 |900rpm|
90w |1300mhz| 777mv |5924pts | 65 | 900rpm|
102w| 1400mhz| 805mv| 6326pts | 62 |1120rpm
115w| 1500mhz |851mv| 6682pts | 58 | 1450rpm
148w |1600mhz| 900mv |7039pts | 47 |1750rpm ( Ab hier an hörbarer Lärmpegel )
180w |1700mhz| 950mv |7389pts | 41 |2331rpm ( Ab hier an störender Lärmpegel )
191w| 1800mhz |978mv| 7702pts | 40 |2733rpm
219w |1900mhz| 1052mv| 7959pts | 36 |2900rpm
240w |1750mhz |1110mv |7599pts| 31 | 2900rpm ( Stock )
>
Die 5700XT hat ihren Sweetspot bei 1400Mhz, die VII bei <1200Mhz. ( TU102 ist bei 1500Mhz )
Deswegen ist die VII dort auch bei niedrigerem Verbrauch schneller.
Hast du das schon einmal im Review gesehen? ^^
Deine Tabelle ist quatsch. Nimm meinen N10 bei 1.125V bei richtigen 2.16G (Eingestellt sind also 2.25g), dann hast du ne ASIC-Power von 200-max. 240w und ne Performance über einer 2080s. Ziehen dürfte sich die Karte eigentlich 320W! Damit mache ich auch in 4K jede VII platt. Es kommt halt auch immer auf die Asic Quality an ...
unl34shed
2020-09-13, 19:41:32
Nochmal dazu: Bisher wurde der L2$ mit den Speicherinterfaces verknüpft, bei N10 also jedem L2$-Tile ein 16bit-Interface zugeordnet.
Ist es denkbar, den L2$ von den Interfaces zu lösen und stattdessen den Shader Engines zuzuordnen?
In den Folien zu RDNA1 wird der L2$ mit 0-7 durchnummeriert, jede Zahl zweimal. Ist da der L2$ einer SE zugeordnet
oder kann jede SE auf jede L2$-Partition zugreifen? In ersterem Fall wäre die SE-zu-L2$-Zuordnung kein großer Schritt mehr.
Auffallend ist, dass sowohl AMD als auch nVidia mit RDNA/Ampere die ROPs von den Interfaces gelöst haben
und stattdessen den SEs / GPCs zugeordnet.
Die Idee des L2 ist ja, dass man Daten zwischen den SEs direkt austauschen kann, ohne einen teuren (Energie) Speicherzugriff dafür zu nutzen. Bei N10 hat man dann sogar den L1 pro SE eingeführt. Also wäre ein L2 pro SE doppelt gemoppelt.
https://static.techspot.com/articles-info/1874/images/2019-07-21-image-4-j.webp
Die Idee des L2 ist ja, dass man Daten zwischen den SEs direkt austauschen kann, ohne einen teuren (Energie) Speicherzugriff dafür zu nutzen. Bei N10 hat man dann sogar den L1 pro SE eingeführt. Also wäre ein L2 pro SE doppelt gemoppelt.
https://static.techspot.com/articles-info/1874/images/2019-07-21-image-4-j.webp
Läuft die Geschichte synchron zum Takt ab?
Locuza
2020-09-13, 19:46:06
@Cyberfries
1.) Natürlich fühle ich mich zu nichts gedrängt. :D
Ich habe auch gar keine Probleme damit, wenn jemand Bilder von mir oder meine Ausführungen kopiert und teilt, wenn jemand damit was anfangen liebend gerne.
Das einzige Problem was ich teilweise habe ist das manch einer den Eindruck bekommen könnte, dass meine Ausführungen einen besonderen Stellenwert haben und ich irgendeine Art Autorität darstelle.
2.) Aus Zeitgründen habe ich keinen fiktiven N21 basierend auf den XSX SoC gemalt, aber dass mit dem Flächenverbrauch für 128MB kam mir sofort extrem vor.
Man steht da auch vor mehreren Problemen.
Die Chipgröße bläht sich stark auf und übertrifft den Flächenverbrauch selbst von einem 512-Bit GDDR6-PHY und die Waferpreise müssen ja auch bezahlt werden.
Ein Pluspunkt wäre die vermeintlich bessere Energieeffizienz, aber wirklich überzeugend klingt das nicht.
Denkt man sich eine Lösung ähnlich wie bei Haswell aus, also den Cache auf dem Package als Chiplet, dann wäre das auch teuer und auch etwas weniger effizient.
Gestapelt hätte thermische Herausforderungen und ebenso würde das zu hohen Preisen führen.
Klingt für mich insgesamt nicht sonderlich glaubwürdig.
Und zum Board mit 320-360mm² würde es logischerweise dann auch nicht passen.
3.) Bezüglich L2$ <-> Memory-Channel-Verbindugen weiß Gipsel gut darüber Bescheid.
ROPs, L2$ und Memory-Controller hat man gerne zusammen, da die logisch gesehen auch direkt anknüpfen und man alle mit geringer Latenz verschalten kann.
Decoupling ist aber auf jeden Fall möglich, siehe Xbox One X:
https://scr3.golem.de/screenshots/1708/Microsoft-Xbox-One-X-Scorpio-Engine-Hot-Chips-29/Microsoft-Xbox-One-X-Scorpio-Engine-Hot-Chips-29-03.png
Dort gibt es 8 L2$ Tiles (2MB) die an 4 Memory-Controller-Instanzen angebunden sind, welche sich um 12 GDDR5-Channel kümmern (384-Bit Interface).
Aufgrund dessen habe ich auch vermutet das die Xbox Series X vielleicht bei 4MB bleibt, dass hätte möglicherweise bei der Kompatibilität geholfen, aber die XSX hat 20 L2$ Tiles (5MB) passend zu 20 GDDR6 Channels (20x16-Bit = 320-Bit).
Zumindest seit Tahiti waren die ROPs bei AMD nicht direkt an die Speichercontroller angebunden, es gab noch eine Verbindung dazwischen.
Ich weiß nicht, ob sich das mit GCN5 geändert hat, da dort die ROPs direkt an die L2$-Ebene verbunden worden sind.
Bei RDNA ist aber offensichtlich losgelöst, ebenso bei Ampere und auch Xe von Intel.
Stretcher
2020-09-13, 20:07:55
Haben hier alle Navi10 vergessen, oder was? AMD hat letztes Jahr gut gezeigt, dass sie liefern können.
Sie haben geliefert, allerdings nur im Desktop Bereich, nicht im Notebookbereich.
2060 und 2070 wurden deutlich übertroffen und auch gegen 2060S/2070S sieht es gut aus. Dazu ein kleinerer Chip und sogar eine bessere Effizienz.
Die RTX 2070 hat man etwa um 5% übertroffen, bei etwas schlechterer Effizienz und veraltetem Featureset, aber insgesamt stand man ganz gut da. Marktanteile konnte man dennoch nicht viel holen. Zum Ende der Generation hat Nvidia seine Featuresets besser genutzt und und in Szene setzen können.
Ein kleinerer Chip in 7nm ist keine Kunst und eine bessere Effizienz gab es auf Seiten AMD nie, da spielt dir deine selektive Wahrnehmung wohl einen Streich.;D
AMD hat es geschafft auf Augenhöhe zu agieren (Effizienz). Aktiviert man DLSS ist die Nvidia Effizienz ungeschlagen (https://www.igorslab.de/mit-nvidia-und-dlss-2-0-auf-dem-oeko-trip-stromsparen-gegen-den-trend-geht-naemlich-auch/2/).
Badesalz
2020-09-13, 21:17:08
Mehr als Gerüchte wird man dazu wohl nicht finden.Ah? Hast du denn wenigstens die zu Hand? Bzw. sonst könnte man auch einfach aufhören das ins Feld zu führen, wenn es keine Infos dazu gibt.
In dem Zusammenhang macht die Darstellung von Lars Weinand schon Sinn und erleuchtet ein bisschen wie es zu 350W im Desktop kommen konnte.Wie auch immer gut oder schlecht man sie erklärt: Die Zahl bleibt so wie sie eben ist. Wie auch immer ausgeartetes Geseier ändert nichts daran.
Daredevil
2020-09-13, 21:44:01
Deine Tabelle ist quatsch. Nimm meinen N10 bei 1.125V bei richtigen 2.16G (Eingestellt sind also 2.25g), dann hast du ne ASIC-Power von 200-max. 240w und ne Performance über einer 2080s. Ziehen dürfte sich die Karte eigentlich 320W! Damit mache ich auch in 4K jede VII platt. Es kommt halt auch immer auf die Asic Quality an ...
Ganz große Klasse. Deine Karte ist bei 200-240w ASIC schneller als ne 5700xt mit 213w Gesamtverbrauch.
Was hat dein Post für einen Wert?
Ändert übrigens nichts daran, dass ne 5700XT massiv auf Takt und mit der Brechstange gebaut wurde, du sagst es ja selbst.
w0mbat
2020-09-13, 22:20:28
Aktiviert man DLSS ist die Nvidia Effizienz ungeschlagen (https://www.igorslab.de/mit-nvidia-und-dlss-2-0-auf-dem-oeko-trip-stromsparen-gegen-den-trend-geht-naemlich-auch/2/).
Jupp, mit upscaling und schlechter BQ ist Nvidia vorne, klasse :freak:
Meine 5700 XT @720p low schlägt eine 2080 Ti @4K ultra. Nimm das Nvidia!!!!
mr coffee
2020-09-13, 22:23:04
Mit der Aussage wäre ich vorsichtig, da es Fälle gibt da sieht DLSS besser aus als nativ...
w0mbat
2020-09-13, 22:44:21
Ja klar, sieht man auch :ugly:
SKYNET
2020-09-14, 00:11:16
Mit der Aussage wäre ich vorsichtig, da es Fälle gibt da sieht DLSS besser aus als nativ...
was meinst du? nen überschärftes bild oder die artefakte?
sorry, als u.A. grafiker bekomme ich wenn ich DLSS sehe nur das kotzen, da sieht garnix besser aus... ist wie "oh das klingt aber gut" --> badewannenabstimmung bei lautsprechern/kopfhörern... als produzent und DJ stellen sich mir da die nackenhaare auf... nur weil was schlechter gemacht ist, heisst es nicht das es besser ist, aber man kann sich ja auch scheisse unterm schuh irgendwie schönreden "bringt glück" oder so... :freak:
Shaft
2020-09-14, 00:38:14
An die experten, gibt es schon einschätzungen der rt fähigkeiten, leistung?
[MK2]Mythos
2020-09-14, 00:56:25
An die experten, gibt es schon einschätzungen der rt fähigkeiten, leistung?
Bin zwar kein Experte, aber Nein. Es gibt nur wilde Spekulationen. Weil niemand etwas weiß.
mr coffee
2020-09-14, 08:04:20
was meinst du? nen überschärftes bild oder die artefakte?
Sorry dann täusche ich mich wohl, ich hab das nicht so verfolgt und live noch nie gesehen, dachte jedoch dass digital foundry für death stranding das festgestellt hat.
Dino-Fossil
2020-09-14, 08:16:11
Wenn DLSS "besser aussieht als nativ", dann vermutlich weil es etwas tut, dass wir als ästhetisch und/oder "besser" empfinden, z.B. eben nachschärfen oder Kontraste erhöhen.
Allerdings könnte man darüber streiten, ob das "objektiv besser" ist, wenn a) der Entwickler des Spiels eine andere Ästhetik angestrebt hat und b) letztlich die Software hinter DLSS anfängt auf der Grundlage von eigentlich unzureichenden Daten zu interpretieren, wie das Bild ihrer Meinung nach aussehen sollte.
Es bleibt ein - gut gemachtes - Fake, das auf eine bestimmte optisch-ästhetische Wirkung hin optimiert ist, die nicht unbedingt der jeweiligen originalen Intention vollständig Rechnung trägt.
Allerdings könnte das unterm Strich bei vielen doch als subjektiv "besser" empfunden werden, wenn z.B. hohe Schärfe und Kontrast bevorzugt werden.
Gute Einschätzung. Aber ich denke, dass M$ das ebenfalls so machen wird.
basix
2020-09-14, 08:46:35
Wenn DLSS "besser aussieht als nativ", dann vermutlich weil es etwas tut, dass wir als ästhetisch und/oder "besser" empfinden, z.B. eben nachschärfen oder Kontraste erhöhen.
Allerdings könnte man darüber streiten, ob das "objektiv besser" ist, wenn a) der Entwickler des Spiels eine andere Ästhetik angestrebt hat und b) letztlich die Software hinter DLSS anfängt auf der Grundlage von eigentlich unzureichenden Daten zu interpretieren, wie das Bild ihrer Meinung nach aussehen sollte.
Es bleibt ein - gut gemachtes - Fake, das auf eine bestimmte optisch-ästhetische Wirkung hin optimiert ist, die nicht unbedingt der jeweiligen originalen Intention vollständig Rechnung trägt.
Allerdings könnte das unterm Strich bei vielen doch als subjektiv "besser" empfunden werden, wenn z.B. hohe Schärfe und Kontrast bevorzugt werden.
Full Ack.
Als eines der grössten Nachteile der modernen Spiele sehe ich die hohe Unschärfe an. Diese wird mit TAA oftmals erst bei 4K sehr gering (wo nicht viele Leute spielen). Mit DLSS wird diese Unschärfe praktisch komplett aufgehoben (Control ist etwas überschärft, aber es sieht deutlich besser aus als nativ). Ausserdem sind filigrane und/oder weit entfernte Objekte deutlich weniger Flimmeranfällig (=temporal stabil). Alleine diese zwei Vorteile machen DLSS zu einem Gewinn. Natürlich ist DLSS nicht perfekt und zum Teil gibt es noch Artefakte und Darstellungsfehler (siehe Partikel in Death Stranding). Aber Der Leistungsgewinn verglichen mit den optisch wahrnehmbaren Vorteilen/Nachteilen führt zu einem relativ deutlichen Nettogewinn für DLSS.
Das ist meine Meinung und wohl auch die vieler anderer. Wenn das Grafikpuristen anders sehen, OK.
Spannend wird jetzt, was MS, Sony und AMD machen.
BoMbY
2020-09-14, 08:48:20
Mit der Aussage wäre ich vorsichtig, da es Fälle gibt da sieht DLSS besser aus als nativ...
Da das schon rein logisch betrachtet vollkommen unmöglich ist darf man das getrost als Einbildung, Marketing und andere Tricks einordnen.
Es ist deutlich Wahrscheinlicher dass die native Auflösung absichtlich schlechter dargestellt wird, als dass Upsampling bessere Ergebnisse erzielt.
OgrEGT
2020-09-14, 08:56:16
Zu DLSS egal ob von NV oder AMD... einfach unvoreingenommen rangehen und ausprobieren... und bei Nichtgefallen frei nach Peter Lustig einfach "Abschalten" :)
https://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Big-Navi-zwei-unterschiedliche-GPUs-1357983/
Ich fang mal mit nem neuen Gedankenspiel an. Die bisherigen Sachen passten einfach nicht zusammen. Big Navi besteht aus 2 Chips, N22 und N21.
N21 wird auf 3 Desktop-Produkte verteilt:
N21: 80CUs, 2,2GHz, max. 300W, KI-Einheit, 384Bit, großer LL$, alles 16Gbps GDDR6, 505mm², bis 120% besser als N10XT
3 Produkte:
XT: 80 + 24GB
XL: 72 + 24GB
XS: 60 + 16GB
N22: 40CUs, 2,3GHz, max. 180W, KI-Einheit, 256Bit, LL$, alles 14Gpbs GDDR6, ca. 350mm², bis 20% besser als N10XT
2 Produkte:
XT: 40 + 16GB
XL: 32 + 16GB
(N23 -> 24CUs, N24 -> 12 CUs)
Dampf
2020-09-14, 08:58:01
Sorry dann täusche ich mich wohl, ich hab das nicht so verfolgt und live noch nie gesehen, dachte jedoch dass digital foundry für death stranding das festgestellt hat.
Die trollen nur. Gibt genug Beweise, dass es zum Teil besser aussieht als nativ von vielen unterschiedlichen Seiten (DF, Computerbase, PCGH, Toms Hardware und mehr)
Ist ja auch logisch schließlich wurde die KI mit 16K feed trainiert, was weit über 4K ist.
Einfach selbst überzeugen:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12409012#post12409012
https://imgsli.com/MjA5NTg/0/1 (hier kann man auch ohne AA auswählen, also das reine 1440p Bild, für die Klickfaulen hier: https://imgsli.com/MjA5NTg/0/2 )
https://www.pcgameshardware.de/commoncfm/comparison/clickSwitch.cfm?id=159818 https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Mechwarrior-5-DLSS-Test-Control-DLSS-Test-1346257/2/
Es ist bei weitem mehr als Schärfe. Es fügt Details hinzu, die in der nativen Auflösung nicht da sind, es rekonstruiert.
BTW da wir hier im Navi Thread sind... AMD wird sicherlich irgendwann mal eine Alternative liefern.
nordic_pegasus
2020-09-14, 09:05:30
bx8RwwPNHKM
irgendwo in der Mitte deutet er an, dass der 80CU/384bit Chip vielleicht gecancelt wurde und wir stattdessen Anfang 2021 einen BiggestNavi mit HBM als "AMD Titan" bekommen könnten.
MasterElwood
2020-09-14, 09:11:31
Da das schon rein logisch betrachtet vollkommen unmöglich ist darf man das getrost als Einbildung, Marketing und andere Tricks einordnen.
Ahhh... Nope. DLSS 2.0 verwendet zum Berechnen des Frames auch die letzten Frames - hat als Berechnungsgrundlage also sogar MEHR Pixel - obwohl die Grundlage eine niedrigere Auflösung hat.
Mehr Pixel Grundlage = mehr Informationen zum Arbeiten. Dein "unmöglich" ist also rein dadurch schon BS. Der Rest von deinem Post zeigt dass du DLSS von der Funktionsweise nicht mal grundlegend verstanden hast. Lies/schau mal bissi Grundlage bevor du hier mitredest...
Wenn DLSS "besser aussieht als nativ", dann vermutlich weil es etwas tut, dass wir als ästhetisch und/oder "besser" empfinden, z.B. eben nachschärfen oder Kontraste erhöhen.
Allerdings könnte man darüber streiten, ob das "objektiv besser" ist, wenn a) der Entwickler des Spiels eine andere Ästhetik angestrebt hat und b) letztlich die Software hinter DLSS anfängt auf der Grundlage von eigentlich unzureichenden Daten zu interpretieren, wie das Bild ihrer Meinung nach aussehen sollte.
Es bleibt ein - gut gemachtes - Fake, das auf eine bestimmte optisch-ästhetische Wirkung hin optimiert ist, die nicht unbedingt der jeweiligen originalen Intention vollständig Rechnung trägt.
Allerdings könnte das unterm Strich bei vielen doch als subjektiv "besser" empfunden werden, wenn z.B. hohe Schärfe und Kontrast bevorzugt werden.
Gut das "Problem" beschrieben :up:
Das trifft bei mir auch teilweise bei RT Spiegelungen zu...
Es wirkt für mich oft unnatürlich "glänzig" :(
(da existiert manchmal scheinbar "kein" Staub/Schmutz bei RTX :freak:)
M.f.G. JVC
BoMbY
2020-09-14, 09:13:59
Es ist Bullshit. Es ist vollkommen unmöglich bessere Ergebnisse durch Raten von Bildinhalten zu erhalten als diese komplett zu erstellen. Wie gesagt wahrscheinlicher ist dass man Absichtlich bei höheren Auflösungen Filter einbaut, oder weg lässt, um das Bild schlechter zu machen.
MasterElwood
2020-09-14, 09:17:58
Wenn DLSS "besser aussieht als nativ", dann vermutlich weil es etwas tut, dass wir als ästhetisch und/oder "besser" empfinden, z.B. eben nachschärfen oder Kontraste erhöhen.
Allerdings könnte man darüber streiten, ob das "objektiv besser" ist, wenn a) der Entwickler des Spiels eine andere Ästhetik angestrebt hat und b) letztlich die Software hinter DLSS anfängt auf der Grundlage von eigentlich unzureichenden Daten zu interpretieren, wie das Bild ihrer Meinung nach aussehen sollte.
Es bleibt ein - gut gemachtes - Fake, das auf eine bestimmte optisch-ästhetische Wirkung hin optimiert ist, die nicht unbedingt der jeweiligen originalen Intention vollständig Rechnung trägt.
Allerdings könnte das unterm Strich bei vielen doch als subjektiv "besser" empfunden werden, wenn z.B. hohe Schärfe und Kontrast bevorzugt werden.
Was du schreibst macht keinen Sinn. Die "Ästhetik" eines Spieles KANN an so etwas nicht hängen, da die Auflösung/Monitorgrösse/AA Methode bei JEDEM User unterschiedlich ist.
Dampf
2020-09-14, 09:18:11
Es ist Bullshit. Es ist vollkommen unmöglich bessere Ergebnisse durch Raten von Bildinhalten zu erhalten als diese komplett zu erstellen. Wie gesagt wahrscheinlicher ist dass man Absichtlich bei höheren Auflösungen Filter einbaut, oder weg lässt, um das Bild schlechter zu machen.
Guck dir doch einfach mal die Vergleiche an, die ich gepostet hab. Da ist sogar ein Bild Vergleich dabei ohne irgendwelches AA oder Filter was die Qualität schlechter machen kann. :rolleyes:
Ja es ist möglich und wenn du dich mit der Technik beschäfigt hättest, würdest du das auch wissen. https://www.forum-3dcenter.org/vbulletin/showthread.php?t=600122 Ich hab hier extra beschrieben, wie es funktioniert.
robbitop
2020-09-14, 09:18:16
Da das schon rein logisch betrachtet vollkommen unmöglich ist darf man das getrost als Einbildung, Marketing und andere Tricks einordnen.
Es ist deutlich Wahrscheinlicher dass die native Auflösung absichtlich schlechter dargestellt wird, als dass Upsampling bessere Ergebnisse erzielt.
Du vergisst die temporale Komponente. Da ist eine ganze Menge an zusätzlicher Information temporal vorhanden, die genutzt werden kann, wenn pro Frame die Sampleposition verschoben wird. Daraus lässt sich eine viel höhere spatiale Auflösung rekonsruieren. Das hat mit „raten“ - wie es noch bei DLSS 1.0 war, nichts mehr zu tun.
Die Crux war immer das Clamping, wodurch es in Bewegung zu Unschärfe kam. Das kann das NN viel besser. Insofern ist es aus Sicht der Informationsbasis schon möglich, dass es besser aussehen kann.
Ergebnisse hängen aber im Moment massiv von der Implementierung ab.
Complicated
2020-09-14, 09:19:51
Also je mehr ältere Frames ich zum berechnen habe, desto mehr Pixel - ist das die Logik? 5x FHD Frames ergibt dann bessere BQ und 10x alte frames noch besser? Äääähmm...
Dino-Fossil hat es auf den Punkt gebracht. Das Bild sieht anders aus. Nicht zwingend besser.
MasterElwood
2020-09-14, 09:29:34
Es ist Bullshit. Es ist vollkommen unmöglich bessere Ergebnisse durch Raten von Bildinhalten zu erhalten als diese komplett zu erstellen.
Es ist eben nicht "RATEN" :facepalm:
Es ist eben nur eine komplett andere Art von Berechnung - die viele Leute nicht verstehen (wollen) - weil sie gehen ihr Weltbild verstößt.
Techno-Amish: was nicht sein darf, KANN nicht sein - Beweise hin oder her :-)))
Was du schreibst macht keinen Sinn.
Vergiss einfach mal "Fakten" und "Theorie", und lass etwas Gefühl und Geschmack zu :smile:
Ebenso muss man nicht jedem seine Vorlieben/Neigungen mit so einer hohlen Phrase absprechen...
(muss alles was andere machen, denn für dich unbedingt sinn ergeben?)
Gusta und Ohrfeign san numoi verschiedn :wink:
Und mea hod a ned gsogt.
M.f.G. JVC
robbitop
2020-09-14, 09:55:22
Also je mehr ältere Frames ich zum berechnen habe, desto mehr Pixel - ist das die Logik? 5x FHD Frames ergibt dann bessere BQ und 10x alte frames noch besser? Äääähmm...
Dino-Fossil hat es auf den Punkt gebracht. Das Bild sieht anders aus. Nicht zwingend besser.
Das hat natürlich alles seine Grenzen. Hängt sicherlich auch stark von der Grundauflösung und der Framerate ab.
Die Ergebnisse von DLSS 2.0 sind in den aller besten Fällen allerdings schon erstaunlich. In Bezug auf Details und temporale Stabilität.
Die Konsostenz der Ergebnisse variieren noch etwas, weil das Verfahren noch ziemlich neu ist und die Güte der Implementierung sehr unterschiedlich ist. Die Konsistenz word sicherlich zunehmend besser werden.
Artefakte haben häufig noch den Grund, dass einzelne Objekte keine motion vectors haben (was aber für dlss benötigt wird). Oder aber auch die Überschärfung in Control liegt halt an einem vom developer fest eingestellten Parameter für die Schärfe im dlss PP. Der Schärferegler soll in zukünftigen Iterationen aber exponiert werden.
Man sieht, dort wo es gut implementiert wurde (ja das ist im Moment etwas wie cherry picking), was für ein Potenzial vorhanden ist.
Die Implementierung muss noch konsostenter und besser werden. Und auch beim NN und dem Inferencing sind sicherlich noch Potenzial vorhanden für steigende Rechenleistung. Im Prinzip ist diese Anwendung noch ganz am Amfang.
Die temporale Rekonstruktion funktioniert eben aufgrund der Motion Vectors und dem NN für das Clamping erstmalig erstaunlich gut. Im Prinzip ist es temporales Supersampling done right.
Ich tippe aber auch darauf, dass nach der Rekonstruktion des Bildes noch eine Art Post Processing des hochgesampleten Bildes gibt bevor es zurück an die Gameengine gegeben wird.
w0mbat
2020-09-14, 10:01:15
Können wir jetzt bitte nicht auch noch den Navi-Thread zum "Nvidia-Fans-verreidigen-DLSS-mit-Kirschenpflücken-Bildern"-Thread machen?
Es gibt nen eigenen DLSS thread, das hat hier nichts zu suchen!
y33H@
2020-09-14, 10:01:29
Vergiss einfach mal "Fakten" und "Theorie", und lass etwas Gefühl und Geschmack zu.Computer Grafik ist halt Mathe und nicht "Esoterik" :freak:
Das trifft bei mir auch teilweise bei RT Spiegelungen zu ... e s wirkt für mich oft unnatürlich "glänzig" (da existiert manchmal scheinbar "kein" Staub/Schmutz bei RTX)Da war ohne RT kein Staub (Roughness) drauf und mit dann eben auch nicht. Dafür kann die Spiegelung ja nichts ^^
w0mbat
2020-09-14, 10:03:56
Computer Grafik ist halt Mathe und nicht "Esoterik" :freak:
Ich glaube du überschätzt den durchschnittlichen Programmierer. Die sind oft selbst überrascht, dass etwas funktioniert :biggrin:
why_me
2020-09-14, 10:07:22
Die trollen nur. Gibt genug Beweise, dass es zum Teil besser aussieht als nativ....
Ich finde dieses besser als nativ einfach falsch, es wird immer gegen ein unscharfes TAA verglichen. Das TAA fällt aber bei den meisten Aussagen weg.
Also kann man nicht einfach nur besser als TAA oder schärfer als TAA sagen? Da würden sich vermutlich auch deutlich weniger darüber aufregen :wink:
Ich tippe aber auch darauf, dass nach der Rekonstruktion des Bildes noch eine Art Post Processing des hochgesampleten Bildes gibt bevor es zurück an die Gameengine gegeben wird.
Ja. Da wurde ja bei letztens bei der RTX/DLSS Präsentation für die UE4 auch erwähnt, dass sie da noch ihre Probleme haben die Parametrisierung konsistent zu halten über mehrere Version, da sich die Gewichtung der NN Outputs mit jedem neuen Netz ändert.
Bei der ganzen Betrachtung mit DLSS würde ich vielleicht einen Schritt weiter gehen, da das NN sicher nicht mit einem Bildbegriff arbeitet wie die Gamer, die vor ihrem geistigen Auge einen Bildschirm sehen.
Das Rendering erzeugt im Endeffekt pro Frame (dank Z-Buffer) eine Punktwolke aus Renderingsamples. Wenn man nun die letzten Frames dabei nimmt, überlagert man mehrere Punktewolken, deren Samples aber noch mehr Daten beinhalten (Alter, passende Kameraposition, ...). Bei DLSS wird nun ein Netz antrainiert, um aus dem gesamten Datensatz ein einzelnes, lückenloses 2D Bild zu rendern. Je mehr Daten ich in die Samples reinstecke, umso korrekter kann das fertige Bild berechnet werden.
Im Grunde findet momentan eine Entkoppelung der Rendering-Sample-Generierung und der endgültigen Bildgenerierung statt. DLSS 2.0 macht das ganze noch mit linearer Sampleverteilung pro Frame. Variable Shading Rate führt da eine nichtlineare Verteilung der Samples ein, hat aber noch viele Constraints. DeepFovea geht dann noch einen Schritt weiter und lockert die Constraints. Wir werden in Zukunft immer mehr dazu übergehen Samples an den interessanten Stellen zu generieren und den Rest zu inferieren.
Armaq
2020-09-14, 10:29:37
Es gab auch einige Andeutungen, dass AMD ein sehr ähnliches Thema einführt. Die Zugewinne von Detailmenge und Performance sind einfach zu groß.
basix
2020-09-14, 10:31:24
Ich finde dieses besser als nativ einfach falsch, es wird immer gegen ein unscharfes TAA verglichen. Das TAA fällt aber bei den meisten Aussagen weg.
Also kann man nicht einfach nur besser als TAA oder schärfer als TAA sagen? Da würden sich vermutlich auch deutlich weniger darüber aufregen :wink:
Ohne TAA flimmert es oft einfach extrem stark. Also ist "nativ" ohne Bildberuhigung oftmals unbrauchbar.
Es gab auch einige Andeutungen, dass AMD ein sehr ähnliches Thema einführt. Die Zugewinne von Detailmenge und Performance sind einfach zu groß.
Andeutungen ist wohl übertrieben. Die meisten hier wünschen sich das, rein aus Konkurrenzsituationssicht. Einzig die Aussage "AMD takes DLSS seriously" schwirrte mal vor kurzem rum.
pixeljetstream
2020-09-14, 10:34:00
Wenn wir Pre integrierte Lösungen Mal aussen vor lassen ist anti aliasing immer das Resultat dynamisch mehrere Samples zu vermischen.
Die Samples können wir entweder durch örtliche feinere Auflösung (sub pixel wie bei msaa, supersampling/downsampling etc.) gewinnen.
Oder temporal in dem Samples aus vorherigen Frames mit aktuellen vermischt werden (TAA Varianten, aber auch checkerboard).
Fast alle modernen Titel machen letzteres weil es die Latenzen geringer hält (mehr FPS), sonst bedeutet es schlicht mehr Berechnungen pro frame
Das schwierige ist bei der Rekonstruktion die Ausreißer zu glätten, ghosting etc.
Das macht DLSS 2 besonders gut, und kann deswegen den Ansatz steigern in dem durch den jitter/Auflösungsreduktion zusätzlich die Anzahl der Samples verringert wird.
Es ist eine Evolution aus Checkerboard und TAA und das neurale Netz hilft die Artefakte dieser Techniken zu unterdrücken.
Es ist eben nicht "RATEN" :facepalm:
Es ist eben nur eine komplett andere Art von Berechnung - die viele Leute nicht verstehen (wollen) - weil sie gehen ihr Weltbild verstößt.
Techno-Amish: was nicht sein darf, KANN nicht sein - Beweise hin oder her :-)))
Das ist BS, das hat nix mit Weltbild zu tun. Das Bild wird natürlich berechnet, aber eben doch spekulativ, es werden Informationen errechnet, wo keine sind. Es ist ein sehr gutes Upscaling aber es ist ein Upscaling.
Nichtdestotrotz ist das die Zukunft. Es wird eben immer schwieriger die Rechenleistung auf die Strasse zu bringen, also braucht man Verfahren, die diese Rechenleistung freisetzen. Das wird ja auch dazu führen, dass wir uns hier auf einen entsprechenden Microsoft-Ansatz freuen dürfen, der diese Technik ebenfalls anwenden wird. In 2 Jahren ist das absoluter Standard, da werden nur noch Puristen mit nativer Auflösung spielen.
robbitop
2020-09-14, 10:37:38
@basix
Sowas ist halt nicht von heute auf morgen aufgebaut. Dazu braucht es eine ganze Memge Research und Know How im Bereich AI. Ein Thema, bei dem NV vorab schon lange stark investiert hat. Aber AMD hat mit Sony und MS ja starke Partner. Ggf kann man da gemeinsam was auf die Beine stellen.
Damit es am Ende dann auch ähnlich gut und ähnlich schnell funktionieren soll, kommt man aber an FPUs, die schnell in Matrix Operationen sind, nicht vorbei.
Prozessor? Nein, das läuft dann eh über die Grafikkarte. Sowohl die Konsolen als auch RDNA2 werden entsprechende Hardware mitbringen. NV hat die ja schon. Ich denke eher, Prozessoren werden genau das eben nicht mehr brauchen, weil die Grafikchips das in Zukunft alle können werden.
Cyberfries
2020-09-14, 10:40:53
Bei N10 hat man dann sogar den L1 pro SE eingeführt. Also wäre ein L2 pro SE doppelt gemoppelt.
Richtig, danke. L0$ je WGP, L1$ je Shader Array und dann noch der L2$.
Bei N10 ist der L2$ in zwei Blöcken à 8 Tiles (je #0-7), direkt daneben dann die Mem-Controller.
Wenn ich Daten austausche zwischen den einzelnen L2-Tiles und anderen Komponenten muss ich immer über die Fabric.
Ob ich jetzt zwei L2$-Blöcke habe oder vier, ist das noch ein großer Unterschied?
Dort gibt es 8 L2$ Tiles (2MB) die an 4 Memory-Controller-Instanzen angebunden sind, welche sich um 12 GDDR5-Channel kümmern
Danke. Erstaunlich wie sehr sich die Qualität der Folien hier weiterentwickelt hat.
Der Aufwand der Speicheranbindung scheint deutlich höher zu sein - sofern bei den Series X Folien nicht getrickst wird.
Dabei findet ja keine Kommunikation zu anderen Bereichen über den L2$ statt, stattdessen über MCC, MCT & XBAR.
Und das in 12x256bit (N10 16x32bit).
Ich fang mal mit nem neuen Gedankenspiel an.
N21: 80CUs .... 384Bit .... 505mm²
N22: 40CUs .... 256Bit .... ca. 350mm²
Würde man bei einem 40CU-N22 noch von Big Navi sprechen? Der Sprung von N22 zu N21 ist auch etwas groß.
Ich glaube eher an 56CUs (2x2x7x2) oder 48CUs (2x2x6x2) an 2 SEs mit Außenseiterchancen für 3SEs (3x2x4x2=48, 3x2x5x2=60).
irgendwo in der Mitte deutet er an, dass der 80CU/384bit Chip vielleicht gecancelt wurde und wir stattdessen Anfang 2021 einen BiggestNavi mit HBM als "AMD Titan" bekommen könnten.
Logisch. Wir stellen N21 zwei Monate vor Marktstart ein und entwickeln dafür innerhalb eines halben Jahres eine neue Grafikkarte.
Nie und nimmer.
Können wir jetzt bitte nicht auch noch den Navi-Thread zum "Nvidia-Fans-verreidigen-DLSS-mit-Kirschenpflücken-Bildern"-Thread machen?
Das hier.
BlacKi
2020-09-14, 10:41:13
Was du schreibst macht keinen Sinn. Die "Ästhetik" eines Spieles KANN an so etwas nicht hängen, da die Auflösung/Monitorgrösse/AA Methode bei JEDEM User unterschiedlich ist.
wenn dino recht hätte, dann würde dlss ultra performance einfach nur 100% scheiße aussehen, selbst performance liefert aber schöne scharfe hochaufgelöste bilder. was er beschreibt trifft eigentlich auf RIS zu.
[...]
Würde man bei einem 40CU-N22 noch von Big Navi sprechen? Der Sprung von N22 zu N21 ist auch etwas groß.
Ich glaube eher an 56CUs (2x2x7x2) oder 48CUs (2x2x6x2) an 2 SEs mit Außenseiterchancen für 3SEs (3x2x4x2=48, 3x2x5x2=60).
[...]
Offenbar bezeichnet man die beiden Produkte des Releases als "big Navi". Ich denke, das ist nur falsch verstanden worden.
56CUs ergibt einfach keinen Sinn, wenn der Große noch weiter herunterskaliert werden soll und auch noch der Speicher beschnitten werden soll. Wo soll der denn hin? Man wird 60 oder 64CUs mit 256Bit (oder 320Bit) paaren bei AMD, da ist kein Platz mehr für was etwas dazwischen.
40CUs -> 20% schnller als N10 (aus dem Leak)
6xCUs -> 60% schnlller als N10 (N21 stark-salvage)
mit dem großen Cache würde man ja Bandbreite einsparen wollen. Wichtig für AMD ist, dass N22 billig zu produzieren ist.
robbitop
2020-09-14, 10:45:32
, es werden Informationen errechnet, wo keine sind. Es ist ein sehr gutes Upscaling aber es ist ein Upscaling.
.
Du hast dlss 2.0 nicht verstanden.
Logisch. Wir stellen N21 zwei Monate vor Marktstart ein und entwickeln dafür innerhalb eines halben Jahres eine neue Grafikkarte.
Nie und nimmer.
Für N21XL wurde HBM für Apple doch bereits bestätigt?!
Daher halte ich es nicht für ganz unwahrscheinlich.
Daredevil
2020-09-14, 10:49:12
Für was bei Apple soll das denn bestätigt sein?
Was soll denn deine Dual 7NM VII beerben können?
Einzig eine Dual Big Navi. :)
Bestätigt ist da nur was, wenn was vorgestellt wird.
BlacKi
2020-09-14, 10:53:18
Du hast dlss 2.0 nicht verstanden.
er hat auch nicht verstanden das man dazu extra einheiten benötigt wie zb. die tensor cores.
vl kommt sowas ja mit rdna3
Cyberfries
2020-09-14, 10:55:05
56CUs ergibt einfach keinen Sinn, wenn der Große noch weiter herunterskaliert werden soll und auch noch der Speicher beschnitten werden soll.
40CUs -> 20% schnller als N10 (aus dem Leak)
Die Spekulation zu einer N21-256bit-Variante kamen ja durch das Eng Board auf.
Das passt dann aber nicht mehr zu deinen Chipgrößen, wenn du von 360mm² für N22 ausgehst.
Der Leak ist doch bereits als Fake enttarnt worden, oder?
Für N21XL wurde HBM für Apple doch bereits bestätigt?!
Wo? Spielst du auf die _rogame Device IDs an? Dann hast du dich verlesen.
er hat auch nicht verstanden das man dazu extra einheiten benötigt wie zb. die tensor cores.
vl kommt sowas ja mit rdna3
Ich hab das sehr wohl verstanden.
[...]
Es ist eine Evolution aus Checkerboard und TAA und das neurale Netz hilft die Artefakte dieser Techniken zu unterdrücken.
Dampf
2020-09-14, 10:58:09
Prozessor? Nein, das läuft dann eh über die Grafikkarte. Sowohl die Konsolen als auch RDNA2 werden entsprechende Hardware mitbringen. NV hat die ja schon. Ich denke eher, Prozessoren werden genau das eben nicht mehr brauchen, weil die Grafikchips das in Zukunft alle können werden.
Was meinst du damit?
RDNA2 kann INT Operationen auf den Shaderkernen durchführen. Das Problem ist halt nur, dass das DNN dann Rechenleistung von den Shader-Kernen wegnimmt, die man eigentlich für die Grafik eher bräuchte.
Und dann ist da ja noch die Rohleistung: Eine 2060 hat zum Beispiel durch die Tensor Cores die doppelte INT8 Leistung einer Series X, obwohl letztere deutlich mehr Roh-Leistung bietet. Und wenn man NSight anwirft kann man sehen, dass die ganze Leistung dieser TCs in einem Abschnitt kurz für DLSS gebraucht wird.
Eine Series X hat beispielsweise 57 INT8 TOPS. 4K DLSS kostet auf einer 2060 mit 110 INT8 TOPS rund 2.5ms. Rein von der Rechenleistung würde es auf der Series X rund 5ms kosten. Das würde sich immer noch lohnen.
Problem ist aber, dass um die 5ms zu erreichen, die Series X ihre ganze Rechenleistung für eine kurze Zeit nur für das Ausführen dieses DNNs opfern müsste (also keine Leistung mehr für die eigentliche Grafik hätte und die Gesamtkosten in ms würden demnach in diesem Moment deutlich in die Höhe gehen). Auf der 2060 kommen diese 110 INT8 TOPS hingegen von den Tensor Cores und die Shader Cores können ihrer Arbeit nachgehen.
Ganz kostenlos arbeiten die TCs aber auch nicht, da auch sie Bandbreite und Power-Budget benötigen, unter anderem deshalb hat DLSS ja auch diese Fixkosten. Aber halt deutlich, deutlich schneller als die Shader-Cores.
Was kann man also tun? Nun, es ist immer noch möglich. Man müsste die Komplexität des DNN einfach stark reduzieren. Also so ein DNN in der Qualität von DLSS halte ich für unrealistisch auf dieser Hardware.
Aber man könnte Checkerboarding mit Machine Learning unterstützen und durchaus auch gute Ergebnisse erzielen.
Hoffen wir mal, dass RDNA3 den Weg der AI-Beschleuniger geht, dann ist DLSS möglich, in Kooperation mit Microsoft.
Sowohl RDNA2 als auch die Konsolen sollen Einheiten für KI-Berechnungen bekommen. Bisher ist aber nichts genaues darüber bekannt. Da sollte man wirklich erst mal abwarten, was uns da wirklich abgeboten wird, auch abseits der Konsolen.
RDNA3 soll stärkere Konzentration auf RT bekommen.
Dampf
2020-09-14, 11:09:20
Sowohl RDNA2 als auch die Konsolen sollen Einheiten für KI-Berechnungen bekommen. Bisher ist aber nichts genaues darüber bekannt. Da sollte man wirklich erst mal abwarten, was uns da wirklich abgeboten wird.
RDNA3 soll stärkere Konzentration auf RT bekommen.
Hast du dafür eine Quelle? Ich berufe mich auf diesen Artikel:
Die RDNA-2-Architektur der Series X hat kein Tensor-Core-Äquivalent, aber Microsoft und AMD haben sich eine eigene, effiziente Lösung ausgedacht, basierend auf den Standard Shader Cores.
https://www.eurogamer.de/articles/2020-03-16-die-kompletten-spezifikationen-der-xbox-series-x-wie-leistungsfaehig-ist-die-next-gen-konsole
Trotzdem hoffe ich, dass AMD doch noch was getan hat. Die Daten sprechen sogar dafür. Mal sehen...
Series X hat 12.1 TFLOPs FP32 Leistung. In FP16 wären das 24,2 TFLOPs. In INT8 wären das dann 48,4 INT8 TOPS.
Microsoft hat aber eine Leistung von 57 INT8 TOPs angegeben. Also, woher kommen die 8,6 INT TOPS? Von den Shader Cores jedenfalls nicht, da wurde also tatsächlich irgendwas gemacht.
Die Spekulation zu einer N21-256bit-Variante kamen ja durch das Eng Board auf.
Das passt dann aber nicht mehr zu deinen Chipgrößen, wenn du von 360mm² für N22 ausgehst.
Der Leak ist doch bereits als Fake enttarnt worden, oder?
Wo? Spielst du auf die _rogame Device IDs an? Dann hast du dich verlesen.
Ah, okay
Brillus
2020-09-14, 11:21:56
er hat auch nicht verstanden das man dazu extra einheiten benötigt wie zb. die tensor cores.
vl kommt sowas ja mit rdna3
Braucht man nicht die machen es nur schneller. Gibt nichts wad Tensor cores machen das die normale ALU nicht auch kann.
mboeller
2020-09-14, 11:22:57
Hast du dafür eine Quelle? Ich berufe mich auf diesen Artikel:
https://www.eurogamer.de/articles/2020-03-16-die-kompletten-spezifikationen-der-xbox-series-x-wie-leistungsfaehig-ist-die-next-gen-konsole
Trotzdem hoffe ich, dass AMD doch noch was getan hat. Die Daten sprechen sogar dafür. Mal sehen...
Series X hat 12.1 TFLOPs FP32 Leistung. In FP16 wären das 24,2 TFLOPs. In INT8 wären das dann 48,4 INT8 TOPS.
Microsoft hat aber eine Leistung von 57 INT8 TOPs angegeben. Also, woher kommen die 8,6 INT TOPS? Von den Shader Cores jedenfalls nicht, da wurde also tatsächlich irgendwas gemacht.
IMHO:
eigentlich hat jede SIMD eine eigene Scalar-Einheit dabei.
Bei 52 x 64 SIMD sind das bei 1825MHz 6 TOPS, und zwar 32bit
robbitop
2020-09-14, 11:31:36
Braucht man nicht die machen es nur schneller. Gibt nichts wad Tensor cores machen das die normale ALU nicht auch kann.
Naja damit es was bringt, muss es sehr schnell passieren, ansonsten dauert ja die Berechnung jedes Frames länger. Frameratenvorteil geht deutlich in die Knie. Und dazu kostet es auch die Art Leistung, die für die reguläre Bildberechnung benötigt wird. Der ganze Vorteil (bzw zumindest ein geoßer Teil) geht ohne dedizierte FPUs mit besonders schneller Matrixoperation einfach verloren.
Gipsel
2020-09-14, 11:58:57
er hat auch nicht verstanden das man dazu extra einheiten benötigt wie zb. die tensor cores.Braucht man nicht. Hilft maximal der Performance, wenn die ALUs schon am Anschlag sind. Das kannst Du im Prinzip wie jedes TAA auch als PP-Filter auf den ALUs laufen lassen. Je nach Implementation helfen dann auch die kleineren Datenformate (runter auf 4bit, also 8 Ops pro ALU pro Takt [falls da noch ein Accumulate bei ist, eventuell sogar noch das Doppelte]), die ja z.B. für die XBSX bestätigt sind. Falls das reicht, ist man gar nicht soo weit weg von den Tensorcores (sprich, falls int4 reicht und für Inference reicht ja angeblich oft auch weniger).
Edit:
Also im RDNA-Whitepaper spricht man von 4bit dot products (und accumulate zu einem 32bit integer), was dann 16 Ops pro ALu pro Takt wären. Für einen hypothetischen 80CU 2GHz Chip addiert sich das zu 163,8 TOPS. Die RTX3080 kann ja wohl 238 FP16 flops oder 476 TOPs (int8). Je nachdem, wie lange das pro Frame benötigt, bleibt vielleicht ein Vorprung für nV, aber das muß noch nicht mal ein besonders großer sein. Wenn es z.B. auf 1ms vs. 2,5ms pro Frame hinausläuft, und ohne das lägen beide exakt gleichauf bei 15ms frametime, liegt nV dann bei insgesamt 16ms (66fps), die AMD-Lösung bei 17,5ms (57fps). Das heißt aus dem Faktor ~2,5 bei den TOPS werden ~15% bei der Framerate. Nicht nichts, aber es sieht schon mal erheblich besser aus, als man sonst vermuten könnte. Hauptstolperstein dürfte sein, entsprechenden Algorithmen und NNs zu den Spielentwicklern zu pushen, damit die das einbauen können.
basix
2020-09-14, 12:03:42
Genau. Und da die Shader-Alus deutlich flexibler sind, ist ein qualitativ ähnlich gutes DNN vieleicht nicht 2.5x langsamer sondern evtl. auch nur 2.0x. Es wird wohl ein Nettovorteil für Nvidia bleiben, aber je nach Implementierung des DNN muss der nicht sehr gross sein.
Hatte die PS4 Pro nicht spezielle HW für Checkerboard-Rendering integriert? Sowas könnte ja auch RDNA2 bringen, einfach Checkerboard-Next oder etwas DNN basiertes.
pixeljetstream
2020-09-14, 12:06:37
Ich hab das sehr wohl verstanden.
Warum formulierst du es dann mit upscaling? Oder errechnen von Informationen wo keine sind, wenn diese temporal vorhanden sind? Kombiniert mit dem widersprechen entsteht der Eindruck halt.
Dampf
2020-09-14, 12:12:13
Hatte die PS4 Pro nicht spezielle HW für Checkerboard-Rendering integriert? Sowas könnte ja auch RDNA2 bringen, einfach Checkerboard-Next oder etwas DNN basiertes.
Ja, Checkerboarding ist eigentlich schon ziemlich gut. Wenn man das mit ML kombiniert könnte man durchaus gute Ergebnisse zu guten Preisen erzielen. Hier ein Vergleich zwischen CB und DLSS:
https://www.youtube.com/watch?v=9ggro8CyZK4
Ist auf jeden Fall upscaling bzw FidelityFX weit überlegen.
Complicated
2020-09-14, 12:13:13
Nur wenn AMDs Postprocessing diese 15% wieder abfängt, dann hat Nvidia halt auch keinen Vorteil mehr. AMD hat dafür noch weitere Ressourcen in Hardware parat.
Denn die Qualität von RIS finde ich oft besser als DLSS - nicht nur ich:
https://www.techspot.com/article/1873-radeon-image-sharpening-vs-nvidia-dlss/
In the best cases, DLSS is as good as sharpened 1800p for large elements and close textures. But DLSS still suffers from the ‘oil painting’ effect we mentioned in our initial investigation, which looks bad in some environments, and suffers from detail loss especially for rocks and foliage. The way it ‘thickens’ really fine details like tree branches or wires also degrades the DLSS image in our opinion. Overall, sharpened 1800p gets a lot closer to native 4K than DLSS, at least in Metro.
[...]
It’s also clear that Radeon Image Sharpening is a superior equivalent to Nvidia’s DLSS, often by a considerable margin. With both techniques performing at the same frame rate, RIS delivered a clearer, sharper image with fewer artifacts. In our previous DLSS analysis we had stated a simple image sharpening filter would probably work better than DLSS with a lower performance cost, and it turns out AMD has proven us right by implementing exactly that.
Dampf
2020-09-14, 12:18:11
Nur wenn AMDs Postprocessing diese 15% wieder abfängt, dann hat Nvidia halt auch keinen Vorteil mehr. AMD hat dafür noch weitere Ressourcen in Hardware parat.
Denn die Qualität von RIS finde ich oft besser als DLSS - nicht nur ich:
https://www.techspot.com/article/1873-radeon-image-sharpening-vs-nvidia-dlss/
Das ist das alte DLSS, was wirklich verbesserungsbedürftig war.
Das neue DLSS 2.0 in Control (seit März), Wolfenstein Youngblood, DeliverUsTheMoon, Bright Memory, Mechwarriors 5 und in kommenden Spielen sieht deutlich besser aus als RIS bzw FidelityFX, da es eben nicht nur sharpening is sondern neue Details hinzufügt. Einfach mal in meinen DLSS Thread gucken.
BlacKi
2020-09-14, 12:18:24
Nur wenn AMDs Postprocessing diese 15% wieder abfängt, dann hat Nvidia halt auch keinen Vorteil mehr. AMD hat dafür noch weitere Ressourcen in Hardware parat.
Denn die Qualität von RIS finde ich oft besser als DLSS - nicht nur ich:
https://www.techspot.com/article/1873-radeon-image-sharpening-vs-nvidia-dlss/
schau mal aufs datum... es hat seinen grund warum nv 2.0 gebracht hat.
Warum formulierst du es dann mit upscaling? Oder errechnen von Informationen wo keine sind, wenn diese temporal vorhanden sind? Kombiniert mit dem widersprechen entsteht der Eindruck halt.
Na weil Checkboardrendering der "Nachfolger" von Upscaling ist. Es werden eben nach wie vor 1080p Informationen (oder andere) verwendet, aber eben nicht mehr überall.
Und es sind eben nicht die vollen Informationen, sondern vielmehr andere Informationen für UHD vorhanden, sonst bräuchte man keine Artefakte entfernen, die man durch die temporale Komponente erzeugt ;).
Leute ich zweifel nicht am Ergebnis, aber diese Korentenkackerei hilft keinem. Es ist einfach ein Fakt, dass man hier einspart und den BQ-Verlust hinterher intelligent ausgleichen muss, darauf läuft zwangsläufig hinaus.
mboeller
2020-09-14, 12:30:20
Genau. Und da die Shader-Alus deutlich flexibler sind, ist ein qualitativ ähnlich gutes DNN vieleicht nicht 2.5x langsamer sondern evtl. auch nur 2.0x. Es wird wohl ein Nettovorteil für Nvidia bleiben, aber je nach Implementierung des DNN muss der nicht sehr gross sein.
Hatte die PS4 Pro nicht spezielle HW für Checkerboard-Rendering integriert? Sowas könnte ja auch RDNA2 bringen, einfach Checkerboard-Next oder etwas DNN basiertes.
so wie das hier? https://creativecoding.soe.ucsc.edu/QW-Net/
Die verwenden INT4, INT8 und FP32 (siehe Table1)
Ist aber extrem aufwendig. Wenn ich mich nicht verrechnet habe braucht es 170GFlops für 4K ... pro Bild! Also ca. 10 TFlops für 60fps
Wurde auf Beyond3D diskutiert.
Gipsel
2020-09-14, 13:48:06
so wie das hier? https://creativecoding.soe.ucsc.edu/QW-Net/
Die verwenden INT4, INT8 und FP32 (siehe Table1)
Ist aber extrem aufwendig. Wenn ich mich nicht verrechnet habe braucht es 170GFlops für 4K ... pro Bild! Also ca. 10 TFlops für 60fps
Wurde auf Beyond3D diskutiert.Da stehen auch gemessenen Zeiten (auf einer Titan RTX) dran. Die von mir genannten Zeitdauern (~1ms pro Frame) sind offenbar durchaus realistisch (bzw. mit neueren high end GPUs und erhöhter Performance sogar überschätzt, insbesondere bei Nutzung kleinerer Datenformate). Die benötigen für ihren Algorithmus bei Nutzung von TensorRT offenbar 1,03ms pro Frame mit FP16 und 0,61ms pro Frame mit int8 oder mit ihrem Custom-Shader 0,29ms mit int8 oder nur 0,14ms mit int4.
=> INT4 geht offenbar dafür durchaus, die Qualität leidet (zumindest in den gezeigten Beispielen) nicht wesentlich und der Overhead ist ziemlich gering (insbesondere mit den kleinen Datenformaten).
mironicus
2020-09-14, 13:59:06
Es gibt eine Spekulation vom Youtuber Coreteks, wonach
Navi 21, 256 Bit, 16 GB GDDR6, 2080 Ti + 15% = Radeon 6700 XT sein soll.
BR70xbcwB6U
Leute ich zweifel nicht am Ergebnis, aber diese Korentenkackerei hilft keinem. Es ist einfach ein Fakt, dass man hier einspart und den BQ-Verlust hinterher intelligent ausgleichen muss, darauf läuft zwangsläufig hinaus.
Das ist auch falsch. Auch als Mensch vergisst man nicht was man in letzten Moment wusste. Ohne temporale Ansätze sind Rendering Pipelines wie Menschen mit 60 kompletten Gedächtnisverlusten pro Sekunde. Nicht sehr effizient ;)
Complicated
2020-09-14, 14:21:03
schau mal aufs datum... es hat seinen grund warum nv 2.0 gebracht hat.
Nun das mag sein, doch das neue DLSS muss sich dennoch mit diesen verfügbaren Alternativen messen - auch bei RDNA2. Der Vergleich mit nativ 4K ist hier irreführend und zeigt nicht was Alternativ möglich ist. Mir fehlt noch ein Vergleich mit eben dem alten RIS und DLSS 2.0 und dann mit den neuen Features wenn RDNA2 verfügbar ist um hier eine vernünftige Beurteilung durchzuführen. Viele Wege führen nach Rom.
Berniyh
2020-09-14, 14:25:36
Es gibt eine Spekulation vom Youtuber Coreteks, wonach
Navi 21, 256 Bit, 16 GB GDDR6, 2080 Ti + 15% = Radeon 6700 XT sein soll.
https://youtu.be/BR70xbcwB6U
Das müsste wenn dann Navi 22 (oder 23) sein.
Ich gehe schwer davon aus, dass es sich hierbei um die GPU auf dem Testboard handelt. Also N23, imo. Aber die Performance aber wohl eher Ti-15%
davidzo
2020-09-14, 16:42:43
Es gibt eine Spekulation vom Youtuber Coreteks, wonach
Navi 21, 256 Bit, 16 GB GDDR6, 2080 Ti + 15% = Radeon 6700 XT sein soll.
https://youtu.be/BR70xbcwB6U
Ziemlich unrealistisch was er da zusammen reimt. Die ersten RDNA2 GPU sind bereits lange angekündigt, hat er das schon vergessen? Die PS5 und die XBSX brauchen beide bei 36 und 52 CUs schon 450gb/s plus um das auf die Straße zu bringen.
80 CU an 256bit GDDR6 ist weniger als die Hälfte von dem was der PS5 pro CU/Tflop zur Verfügung steht. Das wäre eine gänzlich andere Architektur. Bisher deutet nichts darauf hin dass RDNA2 getrennte Architekturen mit einem "magischen cache" für PC und für Konsolen nicht auflegt. Wieso hätten Sony und Microsoft das nicht ebenfalls genommen, ist das breite SI doch einer der Haupt-Kostentreiber bei den Konsolen?
Eine der wenigen Aussagen die wir vom AMD zu Navi haben ist "disrupt the 4K gaming market" - das passt wenig zu einer GPU die ein großes mehr an Rechenleistung hat, aber stark an der Bandbreite hängt (die skaliert unterhalb von 4K viel besser).
Ein vorhandenes HBM Interface in Navi21 neben GDDR6 ist genau so unrealistisch wie ein zweiter Chip mit HBM2 für Apple unter derselben Bezeichnung wie Navi21.
Und wenn AMD eine Profi GPU mit HBM nehmen würde um im Highend mit der 3090 zu konkurrieren wäre das am ehesten wohl Arcturus. Der hat 128CU und ein HBM2 Interface. Wollte sich AMD diese Hintertür offen halten hätte man eine Displayunit in Arcturus verbaut. Würde Apple eine Highend GPU mit HBM2 für die Macs haben wollen und man hätte einen compute chip mit 128CUs und einen gaming chip mit 80 zur Auswahl würde Apple jeden tag der Woche den compute chip nehmen. Denen ist Gaming ziemlich egal, hauptsache scrubbing in final cut ist schneller und Metal kann die vielen kerne auslasten.
Ich rechne noch mit der einen oder anderen Überraschung. AMD kann erstaunlich gut dichthalten in den letzten Jahren und hat die Kunst gelernt die Gerüchte sehr genau zu steuern, wenn man sie nicht sogar selbst in die Welt setzt (Zen3 ipc uplift).
Bis wenige Tage vor dem RDNA1 Launch haben wir noch fest mit einer weiteren GCN Evolutionsstufe gerechnet. 64CU waren praktisch festgeschrieben, ebenso war HBM für Navi im Highend sehr wahrscheinlich. Es kam dann alles anders, nur performance, 40CU, GDDR6, PCIe4. Ich würde nicht ausschließen dass AMD auch diesmal noch einige Überraschungen parat hat. Btw, in der Vergangenheit hat AMD die Referenzboards der top dogs immer selber gemacht und an die Boardpartner geliefert, bzw. von sehr nahen partnern wie sapphire herstellen lassen die gut dichthalten konnten. Es könnte gut sein dass die Partner vorerst nur Navi22 zum spielen bekommen haben, der chip in AMDs traditionell starkem performance segment, von dem man sich bei den AIBs auch die meisten Absatzzahlen erhofft.
Armaq
2020-09-14, 17:22:32
Ziemlich unrealistisch was er da zusammen reimt. Die ersten RDNA2 GPU sind bereits lange angekündigt, hat er das schon vergessen? Die PS5 und die XBSX brauchen beide bei 36 und 52 CUs schon 450gb/s plus um das auf die Straße zu bringen.
80 CU an 256bit GDDR6 ist weniger als die Hälfte von dem was der PS5 pro CU/Tflop zur Verfügung steht. Das wäre eine gänzlich andere Architektur. Bisher deutet nichts darauf hin dass RDNA2 getrennte Architekturen mit einem "magischen cache" für PC und für Konsolen nicht auflegt. Wieso hätten Sony und Microsoft das nicht ebenfalls genommen, ist das breite SI doch einer der Haupt-Kostentreiber bei den Konsolen?
Eine der wenigen Aussagen die wir vom AMD zu Navi haben ist "disrupt the 4K gaming market" - das passt wenig zu einer GPU die ein großes mehr an Rechenleistung hat, aber stark an der Bandbreite hängt (die skaliert unterhalb von 4K viel besser).
Ein vorhandenes HBM Interface in Navi21 neben GDDR6 ist genau so unrealistisch wie ein zweiter Chip mit HBM2 für Apple unter derselben Bezeichnung wie Navi21.
Und wenn AMD eine Profi GPU mit HBM nehmen würde um im Highend mit der 3090 zu konkurrieren wäre das am ehesten wohl Arcturus. Der hat 128CU und ein HBM2 Interface. Wollte sich AMD diese Hintertür offen halten hätte man eine Displayunit in Arcturus verbaut. Würde Apple eine Highend GPU mit HBM2 für die Macs haben wollen und man hätte einen compute chip mit 128CUs und einen gaming chip mit 80 zur Auswahl würde Apple jeden tag der Woche den compute chip nehmen. Denen ist Gaming ziemlich egal, hauptsache scrubbing in final cut ist schneller und Metal kann die vielen kerne auslasten.
Ich rechne noch mit der einen oder anderen Überraschung. AMD kann erstaunlich gut dichthalten in den letzten Jahren und hat die Kunst gelernt die Gerüchte sehr genau zu steuern, wenn man sie nicht sogar selbst in die Welt setzt (Zen3 ipc uplift).
Bis wenige Tage vor dem RDNA1 Launch haben wir noch fest mit einer weiteren GCN Evolutionsstufe gerechnet. 64CU waren praktisch festgeschrieben, ebenso war HBM für Navi im Highend sehr wahrscheinlich. Es kam dann alles anders, nur performance, 40CU, GDDR6, PCIe4. Ich würde nicht ausschließen dass AMD auch diesmal noch einige Überraschungen parat hat. Btw, in der Vergangenheit hat AMD die Referenzboards der top dogs immer selber gemacht und an die Boardpartner geliefert, bzw. von sehr nahen partnern wie sapphire herstellen lassen die gut dichthalten konnten. Es könnte gut sein dass die Partner vorerst nur Navi22 zum spielen bekommen haben, der chip in AMDs traditionell starkem performance segment, von dem man sich bei den AIBs auch die meisten Absatzzahlen erhofft.
Das klingt nach einer echten Möglichkeit. Partnern die Masse zu überlassen und selbst via Sapphire eine HighEnd Variante zu bedienen - not. Die Partner würden ausflippen. Ansonsten find ich deinen Gedankengang aber gut.
Ziemlich unrealistisch was er da zusammen reimt. Die ersten RDNA2 GPU sind bereits lange angekündigt, hat er das schon vergessen? Die PS5 und die XBSX brauchen beide bei 36 und 52 CUs schon 450gb/s plus um das auf die Straße zu bringen.
80 CU an 256bit GDDR6 ist weniger als die Hälfte von dem was der PS5 pro CU/Tflop zur Verfügung steht. Das wäre eine gänzlich andere Architektur. Bisher deutet nichts darauf hin dass RDNA2 getrennte Architekturen mit einem "magischen cache" für PC und für Konsolen nicht auflegt. Wieso hätten Sony und Microsoft das nicht ebenfalls genommen, ist das breite SI doch einer der Haupt-Kostentreiber bei den Konsolen?
Eine der wenigen Aussagen die wir vom AMD zu Navi haben ist "disrupt the 4K gaming market" - das passt wenig zu einer GPU die ein großes mehr an Rechenleistung hat, aber stark an der Bandbreite hängt (die skaliert unterhalb von 4K viel besser).
Ein vorhandenes HBM Interface in Navi21 neben GDDR6 ist genau so unrealistisch wie ein zweiter Chip mit HBM2 für Apple unter derselben Bezeichnung wie Navi21.
Und wenn AMD eine Profi GPU mit HBM nehmen würde um im Highend mit der 3090 zu konkurrieren wäre das am ehesten wohl Arcturus. Der hat 128CU und ein HBM2 Interface. Wollte sich AMD diese Hintertür offen halten hätte man eine Displayunit in Arcturus verbaut. Würde Apple eine Highend GPU mit HBM2 für die Macs haben wollen und man hätte einen compute chip mit 128CUs und einen gaming chip mit 80 zur Auswahl würde Apple jeden tag der Woche den compute chip nehmen. Denen ist Gaming ziemlich egal, hauptsache scrubbing in final cut ist schneller und Metal kann die vielen kerne auslasten.
Ich rechne noch mit der einen oder anderen Überraschung. AMD kann erstaunlich gut dichthalten in den letzten Jahren und hat die Kunst gelernt die Gerüchte sehr genau zu steuern, wenn man sie nicht sogar selbst in die Welt setzt (Zen3 ipc uplift).
Bis wenige Tage vor dem RDNA1 Launch haben wir noch fest mit einer weiteren GCN Evolutionsstufe gerechnet. 64CU waren praktisch festgeschrieben, ebenso war HBM für Navi im Highend sehr wahrscheinlich. Es kam dann alles anders, nur performance, 40CU, GDDR6, PCIe4. Ich würde nicht ausschließen dass AMD auch diesmal noch einige Überraschungen parat hat. Btw, in der Vergangenheit hat AMD die Referenzboards der top dogs immer selber gemacht und an die Boardpartner geliefert, bzw. von sehr nahen partnern wie sapphire herstellen lassen die gut dichthalten konnten. Es könnte gut sein dass die Partner vorerst nur Navi22 zum spielen bekommen haben, der chip in AMDs traditionell starkem performance segment, von dem man sich bei den AIBs auch die meisten Absatzzahlen erhofft.
Der erste Leak hieß eigentlich N23 = NV Killer! Vielleicht hat sich diesbezüglich nie etwas geändert und N21 ist schlicht und ergreifend nur 6700XT und XL :confused:
Berniyh
2020-09-14, 17:43:15
Der erste Leak hieß eigentlich N23 = NV Killer! Vielleicht hat sich diesbezüglich nie etwas geändert und N21 ist schlicht und ergreifend nur 6700XT und XL :confused:
War das mit Navi 23 = Nvidia Killer jemals auch nur annähernd handfest?
Mir kam das eher immer wie Spekulation von Leo vor, in der Annahme AMD würde eine gestört große Karte bauen, nachdem die "normalen" Chips vom Band gelaufen waren.
davidzo
2020-09-14, 17:44:23
Das klingt nach einer echten Möglichkeit. Partnern die Masse zu überlassen und selbst via Sapphire eine HighEnd Variante zu bedienen - not. Die Partner würden ausflippen. Ansonsten find ich deinen Gedankengang aber gut.
Ja begeistert wären die sicher nicht, aber wenn das die time to market verkürzt, wieso dann nicht? Das wurde schon ein paar mal so gemacht, sowohl von nvidia als auch von AMD. Meistens durften die AIBs aber noch eigene Sticker drauf kleben und einen Karton designen damit das dann über ihre vertriebskanäle geht.
Der erste Leak hieß eigentlich N23 = NV Killer! Vielleicht hat sich diesbezüglich nie etwas geändert und N21 ist schlicht und ergreifend nur 6700XT und XL :confused:
Stimmt, da war ja was. Haben wir denn überhaupt irgendwelche Leaks zu N23? Also irgendwas welches die bisherige midrange- Einordnung bestätigt?
Zu Navy Flounders hat man ja was gehört, das ist wohl eher N22 zuzuordnen, unter anderem dass man weniger VCE Einheiten als sienna cichlid hat und kein xGMI, ansonsten aber ähnlich wie sienna cichlid.
Das erste mal las ich davon auf guru3d. Vielleicht kann man auf die Linuxeinträge ganz einfach scheißen (sry für die Wortwahl), denn die sind auch ratzfatz wieder geändert.
Nur so zur Anmerkung: NV selbst rechnet für den Bigfish 2080Ti+50%!
Cyberfries
2020-09-14, 17:55:10
Das klingt nach einer echten Möglichkeit....- not. Die Partner würden ausflippen.
Das N21 zuerst nur als Referenz erscheint ist aber mWn immer noch der aktuelle Stand der Gerüchteküche.
Deshalb auch die teils widersprechenden Gerüchte, Partner wissen angeblich mehr von N22 als N21.
Der erste Leak hieß eigentlich N23 = NV Killer
Jein. Als N23 das erste Mal erwähnt wurde, wurde dieser zwar von RedGamingTech als nVidia Killer beziffert,
doch schon bald ins Einstiegssegment eingeordnet, wo N23 bisher auch geblieben ist.
-----
Der spekulierte Zeitplan ist N21 im November, nur als Referenz. N22 wenige Wochen später und vom Start weg mit Partnern.
N23 dann Anfang 2021. Sollte dies zutreffen, würde ich N23 keinem in den nächsten Wochen aufploppenden Gerücht zuordnen.
Und zu Coreteks.... 80CUs an 256bit: BS, 64CUs an 256bit: immernoch BS.
Seine Aussage zu breitflächiger Verwirrung unter Partnern und Leakern: Jo, Zustimmung.
Berniyh
2020-09-14, 17:57:29
Zu Navi 23 (und 24) wissen wir bislang nicht wirklich was. Prinzipiell könnten die größer oder kleiner als 21 und 22 sein.
Da Big Navi aber dieses Jahr noch kommen soll und da bislang nur Navi 21 und 22 in den Treibern aufgetaucht und, da Navi 21 der größere der beiden ist ist es praktisch klar, dass Navi 21 Big Navi ist.
Das passt einfach gut mit den bisherigen Erfahrungen zur Treiberpolitik von AMD zusammen.
Theoretisch wäre es schon möglich, dass mit Navi 23 oder 24 noch ein größerer Chip kommt, aber halt nicht mehr dieses Jahr.
Das erste mal las ich davon auf guru3d. Vielleicht kann man auf die Linuxeinträge ganz einfach scheißen (sry für die Wortwahl), denn die sind auch ratzfatz wieder geändert.
Das stimmt schon, aber wenn raus kommt, dass AMD gezielt fehlerhafte Patches für den Linux Kernel eingereicht hat, dann gibt das richtig Ärger an der Stelle. Da kann man sich mittelfristig so einiges verbauen.
Es war ja auch so schon schwierig genug für AMD das ganze DC Zeug in den Kernel zu bringen.
Und einen immensen Shitstorm gäbe es wohl noch oben drauf.
Daher kann ich mir das nicht wirklich vorstellen.
Klar, dem einen oder anderen Fuzzy im Management juckt es bei sowas sicherlich in den Fingern um die Konkurrenz zu täuschen, aber die entsprechenden Leute die sich dann darum kümmern werden das hoffentlich schon zu verhindern wissen.
Das N21 zuerst nur als Referenz erscheint ist aber mWn immer noch der aktuelle Stand der Gerüchteküche.
Deshalb auch die teils widersprechenden Gerüchte, Partner wissen angeblich mehr von N22 als N21.
Jein. Als N23 das erste Mal erwähnt wurde, wurde dieser zwar von RedGamingTech als nVidia Killer beziffert,
doch schon bei der nächsten Erwähnung ins Einstiegssegment eingeordnet, wo N23 bisher auch geblieben ist.
-----
Der spekulierte Zeitplan ist N21 im November, nur als Referenz. N22 wenige Wochen später und vom Start weg mit Partnern.
N23 dann Anfang 2021. Sollte dies zutreffen, würde ich N23 keinem in den nächsten Wochen aufploppenden Gerücht zuordnen.
Und zu Coreteks.... 80CUs an 256bit: BS, 64CUs an 256bit: immernoch BS.
Seine Aussage zu breitflächiger Verwirrung unter Partnern und Leakern: Jo, Zustimmung.
Es wäre mir neu, dass diese Behauptung von RGT kam. Und vielleicht kommt der BN erst im neuen Jahr!
Was wäre denn, wenn der XBX-Chip auf N21 aufbaut und der PS5-Chip auf N24? Wie war das hier im Thread: nix genaues weiß man nicht
Cyberfries
2020-09-14, 18:00:32
Es wäre mir neu, dass diese Behauptung von RGT kam.
Ich zieh mir das ja nicht aus dem Arsch, sondern recherchiere nochmal vor jeder Behauptung meinerseits.
Kann ich nur empfehlen
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-89-august-2019
edit zum edit:
Was wäre denn, wenn der XBX-Chip auf N21 aufbaut und der PS5-Chip auf N24? Wie war das hier im Thread: nix genaues weiß man nicht
Sofern die Linux-Einträge nicht lügen und nicht völlig missverstanden wurden,
wissen wir dass N21 mit 80CUs kommt. Also nein.
Ich zieh mir das ja nicht aus dem Arsch, sondern recherchiere nochmal vor jeder Behauptung meinerseits.
Kann ich nur empfehlen
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-89-august-2019
Das habe ich auch nicht behauptet. Wenn du recht haben solltest, alles gut, vor allem gut für deine Rosette
Sorry für den derben Scherz, aber deine Aussage war ne Steilvorlage
Was aber wenn es nicht nur 80CUs sein sollten. Man sieht schlüssige Tabellen, aufgrund Tatsachen die trotzdem unbekannt sind. Das Einzige was ich meine zu sehen ist, dass da jemand mit nem Testboard die Taktraten auslotet. Und das Ding ist definitiv ne 6700
BiG OnE
2020-09-14, 18:15:32
Nur so zur Anmerkung: NV selbst rechnet für den Bigfish 2080Ti+50%!
Wo steht das?
rentex
2020-09-14, 18:16:13
NV Killer...wann wurde das nochmal behauptet?
Ohne zu wissen wie Ampere ausfällt? Also ein Spruch wie "Poor Volta"...:rolleyes:
Cyberfries
2020-09-14, 18:24:32
NV Killer...wann wurde das nochmal behauptet?
Ohne zu wissen wie Ampere ausfällt? Also ein Spruch wie "Poor Volta"...:rolleyes:
Quelle ist drei Posts weiter oben.... und nicht AMD!
----
Vor einer halben Stunde von Avery78 auf Twitter:
Speculation: 6700XT @ $549 | Perf lil better than a 3070, 20-25% less than a RTX3080 but 10-15% less 3070Ti.
6700 @ $449 | Perf lil better than a 3060Ti (10%) just about 2080Ti level
The 67 naming is what I am thinking they could be called. 68/69 may have been cut or delayed.
Keine Ahnung ob der Kerl zuviel Coreteks geschaut hat oder andere Quellen nutzt.
Er spricht von einer 6700XT zwischen 3080 und 3070Ti
sowie einer 6700 zwischen 3060Ti und 3070, also etwa auf 2080Ti Niveau.
Die 6800 und 6900 Serie könnten gestrichen worden sein, er nennt das alles aber nur ein Gerücht.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.