Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)
und jede wette das es genug titel gibt, die sagen "öhm, wo ist die bandbreite? nene, nix bandbreite = nix mehr frames"... bandbreite ist durch nix zu ersetzen als durch noch mehr bandbreite :cool:
oder Kompression
nordic_pegasus
2020-09-07, 14:17:18
sorry, falls das schon gepostet wurde. Ich habe mich gerade schlapp gelacht, als ich das bei Google in meinem Newsfeed gefunden hatte...
https://www.tomshardware.com/news/big-navi-big-wheels-amd-sells-mountain-bikes-now
Vielleicht habe wir das alle mit BigNavi ganz falsch verstanden.
erlgrey
2020-09-07, 14:38:56
shipping leider nur in US, das mit den orangen Reifen hätte ich genommen.
Berniyh
2020-09-07, 14:40:11
Denen ist auch echt nix zu peinlich.:facepalm:
(die Bikes sind btw Schrott, das ist komplett rausgeworfenes Geld. Die Dinger bekommt man – mit anderem Dekor – hier auch in praktisch jedem Baumarkt.)
mboeller
2020-09-07, 15:03:11
ich habe mal ein wenig rumgesucht zu RT per TMUs und den öminösen zusätzlichen 12TFlops der XBoxsX
Trilinear filtern erfordert anscheinend 7Muls+12adds
also aufgerundet 8 MACs (+ "ein paar Adds"), was 16 Flops sind
1825MHz x 52 x 4 TMUs x 16 = ~6TFlops (das ist aber "fixed function" und nicht Teil vom Pixelshader)
Da würde also ein Faktor 2 fehlen
Vielleicht hat ja AMD die TMU's für RT ein wenig aufgebohrt damit RT besser darauf läuft?
erlgrey
2020-09-07, 15:05:38
das ist auch nix was gefahren werden will, das hängt man sich als rarität an die wand. :D
pixeljetstream
2020-09-07, 15:07:10
Trilinaeres Filtern hat aber nix mit RT zu tun. IMO musst du dir die Instruktionen für ray/triangle und ray/box Intersections angucken, das sind ja die Angaben die MS machte und das ist was sie dann in hw gegossen haben.
ich habe mal ein wenig rumgesucht zu RT per TMUs und den öminösen zusätzlichen 12TFlops der XBoxsX
Trilinear filtern erfordert anscheinend 7Muls+12adds
also aufgerundet 8 MACs (+ "ein paar Adds"), was 16 Flops sind
1825MHz x 52 x 4 TMUs x 16 = ~6TFlops (das ist aber "fixed function" und nicht Teil vom Pixelshader)
Da würde also ein Faktor 2 fehlen
Vielleicht hat ja AMD die TMU's für RT ein wenig aufgebohrt damit RT besser darauf läuft?
1. Ich glaube TMUs brauchen normalerweise zwei Takte für Trilinear. Bilinear wird aber in einem Takt gemacht.
2.Du interpolierst normalerweise 4 Kanäle (RGBA), je Kanal z.B. durch 3 Lerps. Je Lerp ist 1 sub, 1mul, 1 add.
Ohne Optimierung: 4(Kanal) × 3(Lerps) × 3 ops = 36ops.
3. Vergleichbar ist das nicht sonderlich, da Filtern oft nur schnell mit kleinerer Genauigkeit ist. RT muss eigentlich mit FP32 laufen. Zudem brauchst du bei Ray-Triangle eine Division, das ist sehr aufwendig verglichen mit mul und add. (flop ist nicht gleich flop)
Das wirklich nette daran es in TMUs zu implementieren ist, dass es aus Shader sicht nicht anders als ein Texture Fetch ist und TMUs sind eigentlich sehr optimiert mit langsamen memory-fetches umzugehen (sprich: alle ALU sind auf Durchsatz/Transistor optimiert statt auf Latenz, weil das langsammste eh die Speicherlatenz ist). Traversieren von Bäumen, sobald sie nicht in den Cache passen, ist "all about memory Latency".
BoMbY
2020-09-07, 17:11:47
Aus dem AMD Patent (https://www.freepatentsonline.com/20190197761.pdf):
These operations are very memory bandwidth intensive and have high occurrences of random accesses. For example, each ray may fetch over 24 different 64 byte nodes.
In general, a texture processor receives an instruction from the shader unit that includes ray data and BVH node pointer information. The texture processor fetches the BVH node data from memory using, for example, 16 double word (DW) block loads. The texture processor performs four ray-box intersections and children sorting for box nodes and 1 ray-triangle intersection for triangle nodes. The intersection results are returned to the shader unit.
The ray intersection engine looks at the data for the BVH node and determines whether it needs to do ray-box intersection or ray-triangle intersection testing. The ray intersection engine configures its ALUs or compute units accordingly and passes the ray data and BVH node data through the configured internal ALUs or compute units to calculate the intersection results. Based on the results of the intersection testing, a state machine determines how the shader unit should advance its internal stack (traversal stack) and traverse the BVH tree. The state machine can be fixed function or programmable. The intersection testing results and/or a list of node pointers which need to be traversed next (in the order they need to be traversed) are returned to the shader unit using the texture data return path. The shader unit reviews the results of the intersection and the indications received to decide how to traverse to the next node in the BVH tree.
In addition, by utilizing the texture processor infrastructure, large buffers for ray storage and BVH caching are eliminated that are typically required in a hardware raytracing solution as the existing VGPRs and texture cache can be used in its place, which substantially saves area and complexity of the hardware solution.
Und in dem Patent steht wie es ohne Divider geht: https://www.freepatentsonline.com/20200193684.pdf
Liest sich alles ganz toll. Ein Leak gab es ja mal, dass RT in RDNA2 praktisch for free wäre. Nur was im Endeffekt bei rumkommt und man nun immer mehr über das Chiplet-Design aka RDNA3 in 5nm ließt, verheißt für mich nichts Gutes. Ich denke 3080 Performance-10% kommen bei RDNA2 raus, aber nicht weil es der Chip nicht kann, sondern weil man den Kopf einzieht
Complicated
2020-09-07, 19:10:09
Dein Posting beinhaltet weder irgendwelche Fakten, noch irgend etwas technisches.
Was das mit dem Kopf einziehen zu bedeuten hat ist auch unklar. Kein Inhalt.
Dein Posting beinhaltet weder irgendwelche Fakten, noch irgend etwas technisches.
Was das mit dem Kopf einziehen zu bedeuten hat ist auch unklar. Kein Inhalt.
Dann hast du meinen Post nicht verstanden
Man beschränkt BN auf 250-275W (AMD Kühler ahoi), Speicheranbindung: Ich erwarte das Schlimmste! Warum keine 350W mit 16GB HBM2 und weg von dem heißen GDDR6(x)? Man könnte mit ner 80CU GPU so nah an ner 3090 sein, was man bekommen wird ist ein Kompromiss-Hauptsache billig.
Complicated
2020-09-07, 19:16:48
Da es ohne Fakten und technischen Inhalt ist, gibt es da nichts zu verstehen.
Orakel kann jeder interpretieren wie er will. Substanzlos und lediglich Stimmungsmache
Was ich mir gewünscht hätte: 96CUs, 16GB HBM2, wie kolportiert RT for free bei weit mehr als 2G GPU Clock up to 375W!
Was wahrscheinlich kommen wird: 80CUs, 16GB GDDR6 @ 15.5g bei 256-Bit SI. Taktet so um die 2 G bei 275W
Was raus kommt, ist eine GPU 2080TI+20% Ganz klasse
Wobei aufgrund der Bandbreite in 4K nimmer viel von den 20% übrig bleibt. Dann mag man zwar noch immer schneller sein als ne 3070, aber imo trotzdem alles enttäuschend
Okay, für 549€ gekauft. Mehr können se aber ohne DLSS nicht erwarten
Complicated
2020-09-07, 19:55:54
Immer noch hast du keine Fakten, machst dir aber eine Meinung.
"Wunsch" gegen "Gerücht" das wohl weit weg von der realen Leistung sein wird.
Allein das 256-bit Si zeigt, wie wenig du sogar die Gerüchte verfolgst und verstehst.
"RT for free" hast du dir selber zusammengereimt, woraus auch immer.
Und das beschweren über einen imaginären Chip machst du hier schon seitenlang.
w0mbat
2020-09-07, 20:01:18
"Speku-Foum"
Klar gibt es hier nur Gerüchte, sonst wäre es in nem review Faden.
Immer noch hast du keine Fakten, machst dir aber eine Meinung.
"Wunsch" gegen "Gerücht" das wohl weit weg von der realen Leistung sein wird.
Allein das 256-bit Si zeigt, wie wenig du sogar die Gerüchte verfolgst und verstehst.
"RT for free" hast du dir selber zusammengereimt, woraus auch immer.
Und das beschweren über einen imaginären Chip machst du hier schon seitenlang.
Laut neuesten Gerüchten wird es kein 512-Bit bei BN geben, wohl aber 16GB. Was bleibt viel übrig?
RT praktisch for free gab es in nem früheren Leak! Da wurde gar nix zusammengereimt.
nordic_pegasus
2020-09-07, 20:10:13
Laut neuesten Gerüchten wird es kein 512-Bit bei BN geben, wohl aber 16GB. Was bleibt viel übrig?
RT praktisch for free gab es in nem früheren Leak! Da wurde gar nix zusammengereimt.
s5T1uAEbMuE
Navi21 = 80 CU und 384bit, 24GB GDDR6
Navi22 = 60 CU und 256bit, 16GB GDDR6
Jeweils knapp hinter den 3070 und 3080 Pendants bei deutlich geringerer TDP, mehr Speicher und besseren Preisen. Die HBM-Variante soll exklusiv in Data-Center gehen. Ich vermisse das angeteaserte Halo-Produkt.
Dino-Fossil
2020-09-07, 20:14:55
Navi21 = 80 CU und 384bit, 24GB GDDR6
Navi22 = 60 CU und 256bit, 16GB GDDR6
Jeweils knapp hinter den 3070 und 3080 Pendants bei deutlich geringerer TDP, mehr Speicher und besseren Preisen. Die HBM-Variante soll exklusiv in Data-Center gehen. Ich vermisse das angeteaserte Halo-Produkt.
Wenn das so käme, wäre das Halo-Produkt vermutlich daran gescheitert, dass man Ampere unterschätzt hat - oder nVidias Willen, die TDP in dieser Generation so massiv anzuheben.
Aber wenn der Rest stimmt, trotzdem unter Umständen ein rundes Produkt, zumal im wichtigeren Marktsegment als die 3090.
Complicated
2020-09-07, 20:16:54
"Speku-Foum"
Klar gibt es hier nur Gerüchte, sonst wäre es in nem review Faden.
Es ist kein spekulieren wenn man ständig etwas erfindet und dann ein negatives Urteil darüber abgibt, bevor überhaupt ES irgendwo aufgetaucht sind. Zumal das zusammenphantasierte auch nicht die Gerüchteküche wiedergibt.
Linmoum
2020-09-07, 20:18:39
Moore's Law ist irgendwo kann man nach seinem DLSS3.0-Gefasel getrost ignorieren.
HBM oder 512-bit. 24GiB sind sinnlos, 12GiB zu wenig. Letzteres zumindest für das absolute Flaggschiff. Das weiß auch AMD.
Ich dachte N22 wäre ne 64 (XT) CU und die XL 56-60 CU?
Vielleicht haben se Kimi whatever komplett hinters Licht geführt und schlagen (hoffentlich) groß auf. Man stelle sich ne GPU vor, 3090+10% bei 999€.
Ob Lisa so viel Eier hat?
Complicated
2020-09-07, 20:24:00
oder nVidias Willen, die TDP in dieser Generation so massiv anzuheben.
Oder den Zwang, da man bei gleicher TDP Gefahr läuft die schnellste GPU nicht mehr stellen zu können. Kann man so oder so rhetorisch aufbereiten ;)
Linmoum
2020-09-07, 20:24:41
N21 hat 80CU, da passt ein N22 mit 64CU überhaupt nicht rein. Viel zu nah beieinander und da sind noch nicht etwaige Salvages von ersterem mit einbezogen. Die machen das ganze erst recht obsolet.
XSX-Größenordnung dürfte realistisch sein.
Ich sehe wie immer die max. Konsolenvariante als xx70 an, nur mit weniger Takt. Ich denke die 52 CUs sind für ne 6700 gesetzt
Complicated
2020-09-07, 20:35:35
https://youtu.be/s5T1uAEbMuE
Navi21 = 80 CU und 384bit, 24GB GDDR6
Navi22 = 60 CU und 256bit, 16GB GDDR6
Jeweils knapp hinter den 3070 und 3080 Pendants bei deutlich geringerer TDP, mehr Speicher und besseren Preisen. Die HBM-Variante soll exklusiv in Data-Center gehen. Ich vermisse das angeteaserte Halo-Produkt.
Der rechnet einfach Dinge die nicht stimmen. Er sagt es würde wohl ein 8GB und ein 16GB N22 geben und dass eine N22 mit 16GB GDDR6 die selbe Bandbreite hat wie eine RTX 3080 (verdoppelt vom 8GB-Modell). Die 60CU N22 soll demnach dann so schnell wie die 3080 werden können. Und er hat auch noch ein paar andere Fehlschlüsse mit drin.
Cyberfries
2020-09-07, 20:41:41
Was wahrscheinlich kommen wird: 80CUs, 16GB GDDR6 @ 15.5g bei 256-Bit SI. Taktet so um die 2 G bei 275W
Laut neuesten Gerüchten wird es kein 512-Bit bei BN geben, wohl aber 16GB. Was bleibt viel übrig?
Ich dachte N22 wäre ne 64 (XT) CU und die XL 56-60 CU?
Vielleicht haben se Kimi whatever komplett hinters Licht geführt
Wo kommt das her?
Und sag jetzt nicht ich soll selber suchen.
Bei kopite7kimi war ich gerade nochmal und ich habe selbst zuletzt hier aktuelle Gerüchte gepostet.
Wo nimmst du also diesen Stuss her?
Fällt dir nicht auf, dass das vorne und hinten nicht zusammenpasst?
Ich denke die 52 CUs sind für ne 6700 gesetzt
52CUs für nen Vollausbau geht wegen der Aufteilung in SEs, SHs und WGPs nicht wirklich.
RT praktisch for free gab es in nem früheren Leak! Da wurde gar nix zusammengereimt.
Raytracing ist nicht kostenlos, bei AMD eher besonders teuer da eine WGP nur RT oder texturieren kann. Entweder oder.
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-19-august-2020
edit: Antwort an unterhalb:
Möglich?
N21 ist hart an der Grenze bei der Speicherbandbreite. Das Speicherinterface noch weiter zu beschneiden würde ich ausschließen.
N21 salvage mit 72CU sollte also ebenfalls 384bit haben, aber wahrscheinlich nur 12GB.
N21 80CU 384bit 24GB, 285W
[-]N21 72CU 320bit 20GB, Salvage[/-]
N21 72CU 384bit 12GB, Salvage
N22 56CU 256bit 16GB
N22 52CU 256bit 16GB, Salvage
Möglich?
Edit: Macht Sinn @ Cyber
Complicated
2020-09-07, 20:59:27
Raytracing ist nicht kostenlos, bei AMD eher besonders teuer da eine WGP nur RT oder texturieren kann. Entweder oder.
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-19-august-2020
Das ist nicht richtig. Die RT<->Tex ist sogar granular auf Dual-CU Ebene. Siehe die gleiche Diskussion hier schon:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=601842&highlight=Ray&page=2
https://cdn.mos.cms.futurecdn.net/fqvK7bgMNGxQdNKNnHKZHQ-2560-80.jpg
Ein WGP besteht aus 2 CUs, wie abgebildet bei der Xbox. Jede CU kann unabhängig txt oder Ray verarbeiten. Wie auch an 2 Txt/Ray Einheiten pro WGP (jeweils für eine CU) zu sehen ist. Für jede CU 4x Txt oder 4x Ray.
Edit - übrigens noch Danke für das richtigstellen bei der Anzahl der CUs. :up:
Die xBox hat 56CUs physisch und 52 aktiviert.
2SE mit je 2 Arrays mit je 7WGP.
Akkarin
2020-09-07, 21:39:10
"Speku-Foum"
Klar gibt es hier nur Gerüchte, sonst wäre es in nem review Faden.
Naja es gibt bei Spekulationen durchaus unterschiede. Man kann auf Insider vertrauen die einen guten track record haben. Man kann open source Quellen durchsuchen. Man kann Aufgrund von technischen Grundlagen Schätzungen anstellen.
Oder man zieht sich halt Sachen aus der Nase (/zitiert Personen die sich das offensichtlicherweise auch aus der Nase gezogen haben) und verteidigt sich damit dass es eh nur ein Speku Forum ist. Das ist aber dann doch sehr Nihilistisch.
Aber BTT: Wie ist die TMU am Cache und Speicher angebunden ? AIUI sind die ROPs ja bspw sehr nach am Speicher. Nun braucht AMD ja mehr Shaderleistung als NV für RT weil weniger auf Spezialeinheiten ausgelagert ist, aber wie siehts mit dem Speichersystem für RT aus ?
basix
2020-09-07, 21:49:33
Aber BTT: Wie ist die TMU am Cache und Speicher angebunden ? AIUI sind die ROPs ja bspw sehr nach am Speicher. Nun braucht AMD ja mehr Shaderleistung als NV für RT weil weniger auf Spezialeinheiten ausgelagert ist, aber wie siehts mit dem Speichersystem für RT aus ?
TMUs sind sehr breit angebunden, nämlich direkt am L0 (und somit auch am L1 und L2). Siehe Blockdiagramme im RDNA1 White Paper (https://www.amd.com/system/files/documents/rdna-whitepaper.pdf), S.14 und S.17. Zwischen den SIMD Units liegt dann noch der LDS. Besser an den Speicher angebunden geht eigentlich nicht.
Edit:
Wie viele Shader AMD dann wirklich braucht, sehen wir dann. Mark Cerny hat irgendwo gesagt, dass 40% Auslastung der GPU schon ziemlich gut sei. Dort hätte es also noch Luft. Und das Texture Mapping findet eventuell auch nicht zeitgleich zum Raytracing statt.
Edit 2:
Stimmen die Chipgrössen von 240, 340 und 427/505mm2, sollte der mittlere Chip eher 64 CUs haben, wenn die 256b Busbreite stimmen. Die XBSX hat neben 56 CUs noch 8 Zen Kerne und ein 320b Interface bei 360mm2. Ich glaube aber eher, es werden 256b, 384b und 2x HBM sowie 36, 56 und 80 CU. Dann kann man relativ günstigen 14 Gb/s GDDR6 für die zwei kleineren Chips verwenden und hätte mit 8GB und 12GB eingermassen anständige Speichermengen für dieses Segment. Ich meine, der kleinste Chip wird etwa so schnell wie eine 2070S sein und der mittlere Chip wohl etwas überhalb einer 2080 Ti rauskommen. Und der grösste Chip wird irgendwo in die Nähe der 3080 kommen. Da passen 8, 12 und 16 GB einfach optimal rein.
Digidi
2020-09-07, 22:00:23
Bei 80 Cus wäre ich dann bei 20.480 FP32 Operationen wenn jede CU256 kann??? Bzw. 10.240 Operationen falls das oben 2 CUs wären im Bild.
Wieviel hat denn da Nvidia?
Berniyh
2020-09-07, 22:28:19
https://youtu.be/s5T1uAEbMuE
Navi21 = 80 CU und 384bit, 24GB GDDR6
Navi22 = 60 CU und 256bit, 16GB GDDR6
Jeweils knapp hinter den 3070 und 3080 Pendants bei deutlich geringerer TDP, mehr Speicher und besseren Preisen. Die HBM-Variante soll exklusiv in Data-Center gehen. Ich vermisse das angeteaserte Halo-Produkt.
hm, klingt alles irgendwie arg wirr sein Gelaber da.
Macht eigentlich auch nur Sinn, wenn man davon ausgeht, dass Navi 24 = Navi 21 + HBM2.
Dafür aber wäre Navi 24 viel zu weit weg.
Beide Speicherinterfaces in Navi 21 machen auch keinen Sinn, das wäre ja schlicht verschwendete Fläche.
Abgesehen davon bezweifle ich, dass Navi 21 so viel in Datacenters zum Einsatz kommen wird. Dafür hat man ja eigentlich eher Arcturus und zudem unterstützt rocm bis heute noch nicht wirklich brauchbar Navi.
SKYNET
2020-09-07, 23:42:30
sorry, falls das schon gepostet wurde. Ich habe mich gerade schlapp gelacht, als ich das bei Google in meinem Newsfeed gefunden hatte...
https://www.tomshardware.com/news/big-navi-big-wheels-amd-sells-mountain-bikes-now
Vielleicht habe wir das alle mit BigNavi ganz falsch verstanden.
omg, das ist billigster plunder... und da steht AMD drauf... :frown:
Complicated
2020-09-08, 00:40:43
Als ob die T-Shirts, Kaffeetassen und Mousepads höherwertiger wären, die da als Merch angeboten werden. Das ist der Fanshop, Leute.
mironicus
2020-09-08, 09:24:02
Bei Computerbase meldet man Zweifel an über die Gerüchte, dass Big Navi nur mit der 3070 mithalten könnte. Man geht eher davon aus, daß der kleinere RDNA2-Chip damit gemeint ist.
https://www.computerbase.de/2020-09/amd-big-navi-zehn-kern-zen-3/
disap.ed
2020-09-08, 09:27:44
N21 80CU 384bit 24GB @ 16Gbit/s (768 GByte/s), 285W
[-]N21 72CU 320bit 20GB, Salvage[/-] @ 16Gbit/s (640 GByte/s)
N21 64CU 384bit 12GB, Salvage @ 14Gbit/s (560 GByte/s)
N22 56CU 256bit 16GB @ 16Gbit/s (512 GByte/s)
N22 52CU 256bit 16GB @ 14Gbit/s (448 GByte/s), Salvage
Möglich?
So könnte ich mir das auch vorstellen.
mironicus
2020-09-08, 09:30:53
Vielleicht macht es AMD wie NVidia und stapelt etwas tiefer und bietet einen günstigeren Big Navi mit nur 12 Gigabyte Speicher an.
Wo kommt das her?
Und sag jetzt nicht ich soll selber suchen.
Bei kopite7kimi war ich gerade nochmal und ich habe selbst zuletzt hier aktuelle Gerüchte gepostet.
Wo nimmst du also diesen Stuss her?
Fällt dir nicht auf, dass das vorne und hinten nicht zusammenpasst?
52CUs für nen Vollausbau geht wegen der Aufteilung in SEs, SHs und WGPs nicht wirklich.
Raytracing ist nicht kostenlos, bei AMD eher besonders teuer da eine WGP nur RT oder texturieren kann. Entweder oder.
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-19-august-2020
edit: Antwort an unterhalb:
N21 ist hart an der Grenze bei der Speicherbandbreite. Das Speicherinterface noch weiter zu beschneiden würde ich ausschließen.
N21 salvage mit 72CU sollte also ebenfalls 384bit haben, aber wahrscheinlich nur 12GB.
Kam von Rogame:
1/2
> RDNA2 is a step up in both Efficiency & IPC over RDNA1
> Anyone thinking 80CU Navi21 will be competing with 48SM GA104 is insane
Navi21 vs GA102
Navi22 vs GA104
Navi23 vs GA106
Bei Computerbase meldet man Zweifel an über die Gerüchte, dass Big Navi nur mit der 3070 mithalten könnte. Man geht eher davon aus, daß der kleinere RDNA2-Chip damit gemeint ist.
https://www.computerbase.de/2020-09/amd-big-navi-zehn-kern-zen-3/
Jo das war offensicherlicher BS. Die Aussage ist eh bescheuert, weil noch keiner die 3070-Performance mit ihrem Krüppelspeicher kennt.
Wenn man nur ein 384Bit Interface bieten kann/will, wird sicherlich Samsungs 18GT/s-GDDR6, der ja schon seit Beginn der GDDR6-Produktion verfügbar ist und dann nimmt man sicherlich 16Gb-Chips, denn die gibts ja für GDDR6 ohne X schon seit Beginn. 12GB scheidet gänzlich aus, das machen die nicht für den Großen.
https://www.computerbase.de/2018-01/samsung-gddr6-18gbps/
Da kann man schon wieder BS-Gerüchte aussortieren ;).
Rancor
2020-09-08, 09:58:21
Also 3080 Leistung mit 16 GB wäre schon ne feine Sache. Darunter bitte nicht, sonst muss man wieder zum Team Grün greifen. ( natürlich nur bei einer 20 GB 3080 )
Cyberfries
2020-09-08, 10:26:16
Das ist nicht richtig. Die RT<->Tex ist sogar granular auf Dual-CU Ebene.
Besten Dank. Das verschiebt dann das Problem eine Ebene nach unten, "Free Raytracing" ist das ganz und gar nicht.
Kam von Rogame:
Danke.
Passt zu deinen apokalyptischen Äußerungen aber nicht, er schreibt ja selbst, dass nur 3070-Niveau kaum sein kann.
wird sicherlich Samsungs 18GT/s-GDDR6, der ja schon seit Beginn .... verfügbar ist
Sicher dass es den schon gibt? 864Gbps wäre mir auch lieber, aber ich glaube da an ein Missverständnis, im englischen wird teilweise auch geschrieben:
"Samsung says they perform at up to 18 Gbps" was ich als "geplant" deuten würde und nicht als bereits in Produktion.
Die Samsung-Webseite nennt auch nur 12/14/16Gbps und "Industry's highest speed of up to 768GB/s".
So könnte ich mir das auch vorstellen.
Deine 560GB/s sind sehr niedrig, das würde ich ausschließen. AMD ist auch nicht bekannt dafür an Speicher zu sparen.
Zu N22 ist eben noch gar nichts bekannt, gibt nur Vermutungen über bis zu 16GB und Gerüchte zu ca.3070-Leistung.
Bei der Konfiguration ist mit 48/56/60CUs und 64/72/96ROPs noch alles möglich.
davidzo
2020-09-08, 10:27:19
Knapp unter der 10gb 3080 wäre auch okay, so wie die 5700xt vs 2070Super. Dafür gäbe es ja den Mehrspeicher und die bessere Energieefizienz (275W).
Im Prinzip haben wir hier wieder eine "Super" Situation, wo nvidia also in Reaktion auf AMD ihre Modelle übertaktet und dabei die Energieeffizienz flöten geht, nur dass diesmal der Ausgangspunkt schon nicht mehr effizienter als RDNA ist und es auch keine "non super" Modelle gibt.
Zudem werden sich die Partner die 20GB Modelle bezahlen lassen, den Speicher gibts sicher nicht umsonst.
Es könnte also gut zu einem Schlagabtausch zwischen big navi und 3080 bei 649$ und 699$ kommen, wo die 3080 insgesamt zwar marginal vorn liegt, mit Energieverbrauch, Kühlergröße, Speichermenge aber trotzdem das schlechtere Angebot darstellt. Die 3080 20GB liegt dann preislich 100$ drüber und hat gegenüber navi mit 16GB dann ein sehr schlechtes P/L.
Ein nicht unbeträchtlicher Anteil der Gamer wird auch nur zur Navi Karte greifen können, da die 3080 mit tripleslot und 320W unmöglich in ein Small form factor Gehäuse passt. Und die SFF Bewegung ist zwar nicht der mainstream, aber die würde ich jetzt nicht als unwichtige Randgruppe abstempeln, die sind eigentlich ziemlich Zahlungskräftig.
basix
2020-09-08, 10:28:18
So könnte ich mir das auch vorstellen.
Japp. Ist in sich stimmig und man kann immer noch 8 oder 12 GByte "Budget Versionen" rausbringen (siehe Polaris mit 4 GByte).
Ein Fehler hat sich noch eingeschlichen: N21 64CU 384bit 12GB, Salvage @ 12Gbit/s (576 GByte/s) wäre passender
Bei Computerbase meldet man Zweifel an über die Gerüchte, dass Big Navi nur mit der 3070 mithalten könnte. Man geht eher davon aus, daß der kleinere RDNA2-Chip damit gemeint ist.
https://www.computerbase.de/2020-09/amd-big-navi-zehn-kern-zen-3/
52-56 CU vs. 46 SM bei identischer oder gar höherer Bandbreite und vermutlich deutlich mehr Takt. Wenn das nicht reicht, um die 3070 in Games ohne DLSS und RTX zu schlagen oder zumindest gleichzuziehen, dann weiss ich ja auch nicht. RTX wird eine Wundertüte sein, das sehen wir dann beim Launch. mMn fehlt einfach noch ein DLSS Konterpart, dann ist man bei Performance als auch Features +/- auf Augenhöhe.
Danke.
Passt zu deinen apokalyptischen Äußerungen aber nicht, er schreibt ja selbst, dass nur 3070-Niveau kaum sein kann.
Nichts anderes habe ich behauptet. :rolleyes:
Eigentlich sieht es ja so aus: Wenn irgendetwas an den von den von AMD kolportierten 50% stimmen sollte, dann reichen bereits 40CUs bei 225W aus, um mit einer 3070 ~gleichzuziehen.
Und zwecks RT: https://www.drcommodore.it/2020/06/18/amd-rx-6900xt-leak-prezzo/
[...]
Sicher dass es den schon gibt? 864Gbps wäre mir auch lieber, aber ich glaube da an ein Missverständnis, im englischen wird teilweise auch geschrieben:
"Samsung says they perform at up to 18 Gbps" was ich als "geplant" deuten würde und nicht als bereits in Produktion.
Die Samsung-Webseite nennt auch nur 12/14/16Gbps und "Industry's highest speed of up to 768GB/s".
[...]
Ja nu, es gab ja auch keine Nachfrage danach und die 16Gbps gibts ja auch nur wegen der 2080 Super. Wenn man keine Nachfrage hat produziert man auch nichts und das eigentliche Problem bei der Sache ist auch die Qualität des PCB. Für 18GT-RAM brauchst du schon entsprechend gute PCBs, siehe die PCBs der 3080/90. Es ist aber ziemlich klar, dass, wenn AMD 18GT-RAM haben möchte, die den auch bei Samsung bekommen werden. Wenn AMD jedoch nicht bereit ist, die PCBs dafür anzubieten, dann eher nicht.
Das Gerücht bleibt damit aber BS, da Samsung ja von Anfang an in der Lage war GDDR6 mit 18GT zu fertigen. Da ist einfach wieder was falsch interpretiert worden mMn. Die eigentliche Schwierigkeit wird darin bestehen, ob die Partner wie TUL in der Lage sind, 18GT-RAM auch nutzen zu können.
Eine 6900XT mit 18GT/s-RAM würde ja bandbreitentechnisch über der 3080 und unter der 3090 landen. Ich denke, das Leistungspotenzial könnte genau das auch widerspiegeln.
Complicated
2020-09-08, 12:33:31
Und zwecks RT: https://www.drcommodore.it/2020/06/18/amd-rx-6900xt-leak-prezzo/
Da steht nichts von "RT for free" - da steht "Realtime Raytracing" und ein Leistungsunterschied von ca. 5-9% in den selektierten Titeln.
Und das nur sofern man glauben möchte, diese Folien stammen tatsächlich von AMD.
Dazu schreibt die gamestar schon im Juni:
https://www.gamestar.de/artikel/amd-radeon-rx-6900-xt-fake-leak-wahr,3359029.html
Vor wenigen Tagen machte ein angeblicher Leak zu AMDs Radeon RX 6900 XT Big Navi im Netz die Runde (via AdoredTV (https://adoredtv.com/breaking-down-the-6900xt-leak-its-a-fake-and-heres-why/)). Sehr schnell war allerdings klar, dass es sich dabei um einen Fake handelt.
[...]
Die Kollegen von AdoredTV (https://adoredtv.com/breaking-down-the-6900xt-leak-its-a-fake-and-heres-why/) haben sich die angeblich offiziellen Folien genauer angesehen. Dabei stellten sie zweifelsfrei fest, dass es sich um eine Collage aus einer Radeon RX 5700 (Platinen-Layout ist identisch) samt dem Radiator der Radeon RX Vega 64 Liquid Cooled handelt.
Dass das Bild der abgebildetes Karte nicht der Realität entspricht, sollte klar sein. Wenn die Folien gefälscht sind, dann sorry!
Akkarin
2020-09-08, 12:53:42
Kann das Raytracing Zeug eigentlich auch so gut Kompromiert werden wie andere Dinge oder wird hier eher rohe Bandbreite gebraucht ?
Zergra
2020-09-08, 13:19:28
https://www.tweaktown.com/news/73241/amd-radeon-rx-6900-xt-big-navi-costs-999-in-these-leaked-slides/index.html
Das ist doch alter Käse
Irgendwo ist es doch witzig: Man weiß nichts über das Ding, AMD beglückwunscht den vorerst ärgsten Rivalen (gab es so etwas schon mal?) und bleibt sehr ruhig. Ausgehend von N10 kann ich mir beim besten Willen keinen Fail vorstellen. Es gibt auch keinen Hype-Train, manchmal könnte man meinen die N2x-Generation ist ein Geist.
Ich für meinen Teil halte die von CB gezogene Prognose am schlüssigsten.
Soweit ich weiß, gehört es zum guten Ton der Konkurrenz zum gelungenen Start einer neuen Architektur zu gratulieren. Das ist eher normal und ich würde daraus nichts ableiten.
AMD hat aber ein Eisen im Feuer.
Daredevil
2020-09-08, 18:16:41
Schon alleine der Name "BigNavi" erschafft einen Hype, da er bedeutet, dass AMD sich in eine Liga voran wagt, wo sie seit langem nicht mehr gewesen sind, bei der Performance Krone.
Und wenn von AMD dann selbst von einem "Halo Product", also einem Prestige Produkt gesprochen wird, sind die Erwartungen nicht weniger hoch.
Und du bist übrigens einer davon, der diesen Hype mächtig hier vorran tritt mit z.B. solchen "Aussagen", die schlicht Spekulationen sind:
N10 war First-Gen. Und der Vergleich mit GCN verbietet sich. N2x tritt hier bedeutend breiter auf. Fette ALUs, RT, vermutlich gnadenloser Takt in einem Vergleich zum Konkurrenten fortschrittlichen Prozess. So oder so, das Ding rockt
Habe ich in der Form, vor allem öffentlicher Natur, nie vernommen! Und deine Ableitung lehnt sich an was?
Hm mal überlegen, ob der 80CU-Chip überhaupt das "Halo-Product" ist. Vielleicht hat auch N22 80CUs :freak:..
Ein Halo-Product muss eigentlich erhaben sein, das geht eigentlich nur mit HBM und 96CUs+, bei heftigem Stromverbrauch versteht sich.
Wenn man das mal zusammenspinnt, auch was man von der XBox weiß, könnte man das so basteln:
- N31 -> Holla die Waldfee :D (5nm ach-du-scheisse-Prozess)
- N21 -> irgendwas unbekanntes krankes (500+ mm²)
- N22 -> 80/72 CUs, 384Bit 16GT GDDR6 (400+ mm²)
- N23 -> 56/48 CUs, 256Bit 16GT GDDR6 (300+ mm²)
- N24 -> 32CUs, 192Bit 16GT GDDR6 (200+ mm²)
- N14 (bekannt)
- P12 (bekannt)
Schon alleine der Name "BigNavi" erschafft einen Hype, da er bedeutet, dass AMD sich in eine Liga voran wagt, wo sie seit langem nicht mehr gewesen sind, bei der Performance Krone.
Und wenn von AMD dann selbst von einem "Halo Product", also einem Prestige Produkt gesprochen wird, sind die Erwartungen nicht weniger hoch.
Und du bist übrigens einer davon, der diesen Hype mächtig hier vorran tritt mit solchen Aussagen, meistens außerhalb dieses Threads:
Man tut was man kann - Scherz.
Aber: Halo-Produkt-warum machen wir uns dann Sorgen über die Performance einer 3080? Zumal die 3080 ja ca. 30% im Schnitt über ner 2080TI rauskommt. Das ist ziemlich exakt 2xN10 ohne Verbesserungen
SKYNET
2020-09-08, 18:25:54
würd ja lachen, wenn AMD das ding nicht schon im chiplet design bringt, und so beliebig viele CUs rauszaubern kann ;D
BoMbY
2020-09-08, 18:27:58
Kann das Raytracing Zeug eigentlich auch so gut Kompromiert werden wie andere Dinge oder wird hier eher rohe Bandbreite gebraucht ?
Die beste "Komprimierung" für den RT-Prozess die derzeit bekannt ist dürfte wohl der BVH-Baum (https://en.wikipedia.org/wiki/Bounding_volume_hierarchy) sein.
https://mobile.twitter.com/NVIDIAGeForce/status/1148242629940789248
Erster Treffer Google. Nur als Beispiel, hab sowas schon oft gelesen in der Vergangenheit. Da wird auch Kuchen geschickt etc.
Ich sehe das in der Branche eher als normal an, mal hat ein Mitbewerber das bessere Produkt, mal ein anderer. Was zählt ist die langfristige Strategie. BigNavi ist aber keine Erfindung von AMD, die haben den intern Nvidia-Killer genannt. Daher bestimmt der Hype.
würd ja lachen, wenn AMD das ding nicht schon im chiplet design bringt, und so beliebig viele CUs rauszaubern kann ;D
Wäre witzig, aber das Chiplet-Design kommt erst wenn der 5nm Prozess steht! Von daher...
@iamm
Was willst du mit deiner Aussage ausdrücken?
Daredevil
2020-09-08, 18:33:59
Man tut was man kann - Scherz.
Aber: Halo-Produkt-warum machen wir uns dann Sorgen über die Performance einer 3080? Zumal die 3080 ja ca. 30% im Schnitt über ner 2080TI rauskommt. Das ist ziemlich exakt 2xN10 ohne Verbesserungen
Ich mache mir da keine Sorgen, wenn BigNavi 2080ti Leistung bzw. 10-30% mehr drauflegt für einen attraktiven Preis, dann ist sicherlich kein AMD User enttäuscht.
AMD hat auf der Pressekonferenz gesagt, dass sie auch für 4K User eine Lösung anbieten möchten und so eine Leistung, also die der 3080 wäre genau diese, mehr braucht es erstmal nicht. Es gibt aktuell keine "Mainstream Probleme", die gelöst werden müssen. Nvidia macht das zwar mit "8K Gaming", das lassen die sich aber fürstlich bezahlen.
Wenn AMD nun das ganze effektiv herstellt und für einen Preispunkt anbieten kann, der sehr attraktiv ist, gibt es nichts, was einen enttäuschen kann.
Wenn man aber von einer "Really-Big-Navi" ausgeht, die 999€ kostet und eine 3090 spielend hinter sich lässt, wird es vielleicht schwierig, das ohne Hype und Emotionen zu begründen. Zumindest hat das noch niemand getan, kann ja auch keiner, weil niemand ne Ahnung über AMDs RT Anbindung hat. ( Falls das wichtig ist, ich würde schätzen ja )
Vielleicht sollte man sich einfach von "BigNavi" und der Krone trennen, dann flacht das ganze gehype auch mal ein wenig ab und man kann gesund auf AMDs Arbeit blicken.
Iscaran
2020-09-08, 18:36:10
Die neuen AotS Benchmarks lassen Ampere deutlich schlechter scheinen als aufgrund der enormen "verdoppelten" Shaderzahlen gedacht. Aber genau das dürfte zeigen, daß man die Auslastung eben bei weitem nicht so hochkriegt.
Dasselbe Problem hatte in gewissem Sinne GCN damals. Enorme Shaderzahlen aber die Leistung "verpuffte" weil die Software diese nicht ordentlich ansprechen konnte und das Hardwarescheduling hier nicht "gut genug" war den Rest zu erledigen.
Nehmen wir die AoTs Zahlen mal als denkbar hin:
Also mit Ampere 3080 bei ca +30% gegenüber 2080 Ti in Games dürfte die 3090 auch nicht wie kolportiert bei +90-100% gegenüber 2080 Ti liegen.
=> Wird wohl eher auf +50-60% rauslaufen. Die Mehrleistung der "verdoppelten" Shader zu lasten des INT-Durchsatzes schlägt halt nur in speziellen Sachen durch. Nicht umsonst hat nVidia bislang auch nur DLSS und Raytracing-Performance Benchmarks "geteasert"
Entsprechend sehe ich RDNA2 mit 80 CUs durchaus in einem 3080 bis 3090 Level performen. Vielleicht nicht in RT-exklusiven Sachen, aber sehr wohl in "normalen" Games.
Die Frage ist eher ob es wirklich nur 80 CUs ...im BigNavi aka N21
Und wenn AMD die Packdichte erhöht, weil der 7nm Prozess nun deutlich reifer ist?
Radeon VII -> 39 MT/mm² (330 mm²/HBM) 09.01.2019
Navi 10 -> 40 MT/mm² (250 mm²/GDDR) 07.07.2019
Ampere GA100 -> 60 MT/mm² (826 mm²/HBM) 12.05.2020
...
Schau ich mit den 360 mm² (ca. 40 MT/mm²) großen Xbox SoC an und rechne ca. 100mm² für CPU+zugehörigen Uncore raus, den ein GPU nicht benötigt, dann kommt man schnell auf über 100 CUs für einen 505 mm² Chip der nur GPU beinhaltet. Wenn die Packdichte 20-40% erhöht werden kann (Ampere-Packdichte wären +50%)
Was das ganze wohl behindert und auch AMD gebremst hat ist der Stromverbrauch. Nur RDNA2 soll da ja +50% Effizienz erhalten. Also wenn AMD alles in den Stromverbrauch steckt, ...
Also in 300W könnten durchaus 112 CUs werkeln mit einem 384-Bit SI (12 GB GDDR6 768 GB/s) oder mit HBM (16 GB HBM2e ca. 780-840 GB/s mit 2 Stacks).
Interessante Punkte - die potentielle denkbare Erhöhung der Packdichte hatte ich mir auch mal angeschaut- Schon 15-20% mehr Packdichte würden hier enorm was bringen und deine Zahlen deuten ja an das hier eigentlich noch deutlich mehr Potential drin ist.
Der XBox Chip sind 56 (52 aktiv), das sieht für mich nach einem 2*28 Lineup aus (bzw. 2x2x14 da die WGPs immer 2 CUs sind).
Nähme ich mal simpel an man würde das hochskalieren in Form von "Chiplets" in dem man die Array Zahl erhöht wären die nächsten Logischen Stufen 3*28 und 4*28
Also 84 (davon dann evtl. 78 aktiv, analog zum XBox chip pro Cluster 1 WGP deaktiviert wäre um die Ausbeute zu optimieren) und 112 (davon 104 aktiv).
Passend zu einem Chiplet-Artigen Ansatz würden dann auch die SIs mitskalieren
56 CUs sind an 256bit, 84 CUs wären dann eben 384. 112 käme mit 512 Bit (bzw. HBM ?)
Der Xbox chip packt die 56 CUs ja in cs 250 mm^2...dann gibt es da ja noch die Gerüchte um 360, 427 bzw 505 mm^2 große Chips.
Ich denke 360 mm^2 könnte ein 84 CUs Chip sein, und 427 EDIT meinte 505 mm^2 könnte dann durchaus schon ein 112 CU Chip sein, vorausgesetzt man hat die Packdichte wirklich deutlicher erhöht als nur 15%.
Mit +40% Packdichte und 112 CUs hab ich überschlagen könnte man ein 4x14x2 (siehe Blaue Einträge)
Beim großen Navi wäre das Fast eine Punktlandung in der DieSize 505.4 mm^2 berechnet bei 505 mm^2 Gerücht.
amdfanuwe
2020-09-08, 18:41:38
BigNavi ist aber keine Erfindung von AMD, die haben den intern Nvidia-Killer genannt. Daher bestimmt der Hype.
Ein Nvidia Killer muß nicht unbeding schnell sein, reicht auch billig. Wenn Nvidia die Gewinnmargen genommen werden fehlt denen bald das Geld für zunehmend teurere Neuentwicklungen.
Die neuen AotS Benchmarks lassen Ampere deutlich schlechter scheinen als aufgrund der enormen "verdoppelten" Shaderzahlen gedacht. Aber genau das dürfte zeigen, daß man die Auslastung eben bei weitem nicht so hochkriegt.
Dasselbe Problem hatte in gewissem Sinne GCN damals. Enorme Shaderzahlen aber die Leistung "verpuffte" weil die Software diese nicht ordentlich ansprechen konnte und das Hardwarescheduling hier nicht "gut genug" war den Rest zu erledigen.
Nehmen wir die AoTs Zahlen mal als denkbar hin:
Also mit Ampere 3080 bei ca +30% gegenüber 2080 Ti in Games dürfte die 3090 auch nicht wie kolportiert bei +90-100% gegenüber 2080 Ti liegen.
=> Wird wohl eher auf +50-60% rauslaufen. Die Mehrleistung der "verdoppelten" Shader zu lasten des INT-Durchsatzes schlägt halt nur in speziellen Sachen durch. Nicht umsonst hat nVidia bislang auch nur DLSS und Raytracing-Performance Benchmarks "geteasert"
Entsprechend sehe ich RDNA2 mit 80 CUs durchaus in einem 3080 bis 3090 Level performen. Vielleicht nicht in RT-exklusiven Sachen, aber sehr wohl in "normalen" Games.
Die Frage ist eher ob es wirklich nur 80 CUs ...im BigNavi aka N21
Interessante Punkte - die potentielle denkbare Erhöhung der Packdichte hatte ich mir auch mal angeschaut- Schon 15-20% mehr Packdichte würden hier enorm was bringen und deine Zahlen deuten ja an das hier eigentlich noch deutlich mehr Potential drin ist.
Der XBox Chip sind 56 (52 aktiv), das sieht für mich nach einem 2*28 Lineup aus (bzw. 2x2x14 da die WGPs immer 2 CUs sind).
Nähme ich mal simpel an man würde das hochskalieren in Form von "Chiplets" in dem man die Array Zahl erhöht wären die nächsten Logischen Stufen 3*28 und 4*28
Also 84 (davon dann evtl. 78 aktiv, analog zum XBox chip pro Cluster 1 WGP deaktiviert wäre um die Ausbeute zu optimieren) und 112 (davon 104 aktiv).
Passend zu einem Chiplet-Artigen Ansatz würden dann auch die SIs mitskalieren
56 CUs sind an 256bit, 84 CUs wären dann eben 384. 112 käme mit 512 Bit (bzw. HBM ?)
Der Xbox chip packt die 56 CUs ja in cs 250 mm^2...dann gibt es da ja noch die Gerüchte um 360, 427 bzw 505 mm^2 große Chips.
Ich denke 360 mm^2 könnte ein 84 CUs Chip sein, und 427 EDIT meinte 505 mm^2 könnte dann durchaus schon ein 112 CU Chip sein, vorausgesetzt man hat die Packdichte wirklich deutlicher erhöht als nur 15%.
Mit +40% Packdichte und 112 CUs hab ich überschlagen könnte man ein 4x14x2 (siehe Blaue Einträge)
Beim großen Navi wäre das Fast eine Punktlandung in der DieSize 505.4 mm^2 berechnet bei 505 mm^2 Gerücht.
Sehr guter Beitrag! Wäre ein Chiplet-Design in hochoptimierten 7nm möglich? Wie hoch wäre die Leistungsaufnahme?
Richtig, Navi1 war mMn das bessere Produkt bis 450Euro und drunter. Da hat man Nvidia Anteile abgenommen. Nun verschiebt sich das auch in den Highend Bereich. Man will auch dort konkurrenzfähig sein, was ich für realistisch halte.
@gedi: War nur zur Veranschaulichung das man nicht zuviel in eine Gratulation hinein interpretieren sollte.
Sehr guter Beitrag! Wäre ein Chiplet-Design in hochoptimierten 7nm möglich? Wie hoch wäre die Leistungsaufnahme?
Es gibt ein Gerücht das bisher keine Navi2 GPU über 285 Watt ging. Xbox Series X soll 130-140W verbrauchen bei 52 CU plus Zen Cores und IO. Je nach Takt wären die 285W max für 104 CU realistisch?
Richtig, Navi1 war mMn das bessere Produkt bis 450Euro und drunter. Da hat man Nvidia Anteile abgenommen. Nun verschiebt sich das auch in den Highend Bereich. Man will auch dort konkurrenzfähig sein, was ich für realistisch halte.
@gedi: War nur zur Veranschaulichung das man nicht zuviel in eine Gratulation hinein interpretieren sollte.
Das erste was ich gedacht habe war, oje habt ihr es wieder verbockt. Aber wenn man das Wenige was man glaubt zu wissen zusammenführt, braucht es eigentlich nicht viel um ne 3090 im Schnitt in die Grenzen zu weisen.
Und ja, so ein Chiplet-Design (wie von Igor bereits vor nem Jahr kolportiert), wäre das Halo-Produkt
Daredevil
2020-09-08, 19:05:51
Hmmmm wieso eigentlich kein 5nm?
Also wieso sollte AMD den Schritt gehen, dass 7nm zu "schlecht" ist für ihre Produkte ( Navi1 ), aber "7nm+" nun die perfekte Wahl ist?
Apple hat im Herbst 2018 den ersten 7nm SoC rausgehauen für ihre iPhones, AMD im Frühjahr die Radeon VII. Wenn Apple diesen Monat ihre 5nm SoCs raus haut, kann AMD dann nicht auch ihr 5nm gedöns auf den Markt werfen?
Es gibt ein Gerücht das bisher keine Navi2 GPU über 285 Watt ging. Xbox Series X soll 130-140W verbrauchen bei 52 CU plus Zen Cores und IO. Je nach Takt wären die 285W max für 104 CU realistisch?
Ja, das hilft dir aber nichts, wenn du nicht weißt, was eine CU leistet.
56CU mit 2.2Ghz in ner Konsole klingt für mich erstmal nicht danach, dass das fette Einheiten sind, sondern eher winzig kleine.
Für mich wäre ein Haloprodukt auch eine GPU auf ~3080er Niveau mit mehr Speicher und weniger Verbrauch für weniger Geld.
1500+ für eine Gaming GPU sind schon sehr Nische.
Und man darf nicht vergessen, aus einem großen GPU Die könnte man auch mehrere kleine Zen 3 Chiplets machen, welche dann insgesamt mehr Profit abwerfen werden. Hier muss man abwägen was Sinn macht.
Ja, das hilft dir aber nichts, wenn du nicht weißt, was eine CU leistet.
56CU mit 2.2Ghz in ner Konsole klingt für mich erstmal nicht danach, dass das fette Einheiten sind, sondern eher winzig kleine.
Das weiß momentan wohl nur AMD. 5nm halte ich noch nicht für realistisch. Das wurde vor Jahren geplant, da konnte man noch nicht davon ausgehen, dass die Prozesse so gut laufen werden. Vielleicht wirklich nur als Machbarkeitsstudie in sehr geringer Dosis. Das werden wir mMn aber erst in RDNA3 sehen.
why_me
2020-09-08, 19:12:40
Es gibt ein Gerücht das bisher keine Navi2 GPU über 285 Watt ging. Xbox Series X soll 130-140W verbrauchen bei 52 CU plus Zen Cores und IO. Je nach Takt wären die 285W max für 104 CU realistisch?
Die 140W sind sehr sicher GPU only, da kommt noch der rest die GDDR, CPU, SSD, USB etc. oben drauf.
GPU + RAM sollten sich eher im Bereich von 180W bewegen, was immer noch ein sehr guter Wert ist.
Hast du ein Link zu den 285W? Prinzipiell kann es je nach Powertarget mehr oder weniger sein, aber da irgendwelche CU Zahlen oder ähnliches hinein zu interpretieren lohnt nicht. Je nach takt passen da auch 500 CUs rein...
Wäre ein Chiplet-Design in hochoptimierten 7nm möglich? Wie hoch wäre die Leistungsaufnahme?
Der Prozess spielt für Chiplet-Designs eine untergeorndete Rolle, entscheidend ist die Verbindung zwischen den Chips und wie groß man eine GPU effektiv bauen kann (Verbrauch und mm²).
Unmöglich ist es nicht, AMD hat theoretisch alles Entwickelt, was dafür notwendig ist. Interconnect, Interposer (sogar etwas wie EMIB) und ich denke auch, dass RDNA mit Chiplets im Hinterkopf entwickelt wurde. Fände es interessant, wenn Chiplets mit Navi2x kommen würden, aber ich glaube nicht wirklich daran.
Zergra
2020-09-08, 19:16:13
Richtig, Navi1 war mMn das bessere Produkt bis 450Euro und drunter. Da hat man Nvidia Anteile abgenommen. Nun verschiebt sich das auch in den Highend Bereich. Man will auch dort konkurrenzfähig sein, was ich für realistisch halte.
@gedi: War nur zur Veranschaulichung das man nicht zuviel in eine Gratulation hinein interpretieren sollte.
Vllt. war es das, aber NV hat seinen Marktanteil trotzdem ausgebaut
Die 140W sind sehr sicher GPU only, da kommt noch der rest die GDDR, CPU, SSD, USB etc. oben drauf.
GPU + RAM sollten sich eher im Bereich von 180W bewegen, was immer noch ein sehr guter Wert ist.
Hast du ein Link zu den 285W? Prinzipiell kann es je nach Powertarget mehr oder weniger sein, aber da irgendwelche CU Zahlen oder ähnliches hinein zu interpretieren lohnt nicht. Je nach takt passen da auch 500 CUs rein...
Der Prozess spielt für Chiplet-Designs eine untergeorndete Rolle, entscheidend ist die Verbindung zwischen den Chips und wie groß man eine GPU effektiv bauen kann (Verbrauch und mm²).
Unmöglich ist es nicht, AMD hat theoretisch alles Entwickelt, was dafür notwendig ist. Interconnect, Interposer (sogar etwas wie EMIB) und ich denke auch, dass RDNA mit Chiplets im Hinterkopf entwickelt wurde. Fände es interessant, wenn Chiplets mit Navi2x kommen würden, aber ich glaube nicht wirklich daran.
Sorry für die DAU-Frage: Interposer? Wäre damit HBM gesetzt?
why_me
2020-09-08, 19:24:25
Sorry für die DAU-Frage: Interposer? Wäre damit HBM gesetzt?
Nicht zwingend, der Interposer ist eher notwendig um den Verbrauch der schnellen Datenverbindung zwischen den Chiplets gering zu halten.
Auch interessant wäre ein Aktiver-Interposer mit Speicherinterface, L2 Cache und Display Ansteuerung und darauf die Chiplets mit den CUs. Aber davon sind wir denke ich noch etwas entfernt.
Langlay
2020-09-08, 19:24:35
Sorry für die DAU-Frage: Interposer? Wäre damit HBM gesetzt?
Gesetzt nicht, allerdings würden die Mehrkosten (deutlich) geringer Ausfallen da der Chip sowieso ein Interposer hat und man für HBM2 dann wahrscheinlich nur einen etwas grösseren Interposer brauchen würde.
Gesetzt nicht, allerdings würden die Mehrkosten (deutlich) geringer Ausfallen da der Chip sowieso ein Interposer hat und man für HBM2 dann wahrscheinlich nur einen etwas grösseren Interposer brauchen würde.
Danke für die Aufklärung!
Vllt. war es das, aber NV hat seinen Marktanteil trotzdem ausgebaut
Klar, ob eine Strategie funktioniert sieht man erst hinterher. Würde sagen die Treiber haben Navi bis Februar zurück gehalten. Seitdem hatte ich keine Probleme mehr. Und mit Covid konnte niemand rechnen.
Iscaran
2020-09-08, 19:37:19
Ich glaube nicht dass RDNA 2 schon ein komplettes "Chiplet" Design ist.
Aber ich könnte mir schon vorstellen, daß man hier vielleicht schon teile davon "testet" in dem man die "monolithische" GPU quasi in mehrere Bereiche unterteilt.
Beim Belichten/Fertigen könnte man dann z.B. durch mehrfaches nebeneinanderlegen von ein und derselben 28 CU Maske dann die Chiplet-Fertigung "Proben".
Aber egal. So oder so. AMD hat gesagt der Prozess für RDNA2 ist NICHT mehr 7nm wie für Navi1 sondern irgendwas N7+ oder N7P etc.
Allein aufgrund dieser Aussage würde ich schon denken daß man die Packdichte erhöht hat. Wenn man zudem alles auf "Strom sparen" auslegt statt auf Performance. Kriegt man die +50% P/W wohl auch hin.
Ausgehend von Vega bzw. Navi und der Packdichte und im Vergleich mit Ampere, das in vermutlich 8nm Samsung Fertigung daherkommt - müsste RDNA2 eigentlich schon nochmal deutlich in Packdichte zulegen können.
Daher 505 mm^2 für 112 CUs durchaus denkbar. Und der 360 (bzw. vielleicht 380 mm^2) Chip wären dann 84.
Wiseman
2020-09-08, 19:38:45
Also Event-Termin und Product-Availability stehen laut Bondrewd fest:
Yeah, it is early October for the event and mid-late October for product availability.
Bondrewd postet auf Beyond3d im Minutentakt. Guter Mann ;D .
DrFreaK666
2020-09-08, 19:44:36
Richtig, Navi1 war mMn das bessere Produkt bis 450Euro und drunter. Da hat man Nvidia Anteile abgenommen...
LOL? https://www.computerbase.de/2020-08/diskrete-grafikkarten-nvidia-amd-marktanteil/
Linmoum
2020-09-08, 19:47:35
Also Event-Termin und Product-Availability stehen laut Bondrewd fest:
Yeah, it is early October for the event and mid-late October for product availability.
Bondrewd postet auf Beyond3d im Minutentakt. Guter Mann ;D .Wobei man dafür nicht sehr viel Fantasie braucht. Die Series S kommt am 10.11 und Big Navi launcht vorher. Spätestens Ende Oktober ist naheliegend.
Ich denke am 3.10 ist es soweit
Daredevil
2020-09-08, 19:53:06
Ich denke am 3.10 ist es soweit
Man macht kein Presse Event, wenn die Presse Wochenende hat. ^^
Linmoum
2020-09-08, 19:55:23
Die Presse kann auch zwei Tage vorher schon alle Infos kriegen und die Artikel werden dann um X Uhr zur/nach der Präsentation freigeschaltet. Das ist nun wahrlich kein Hindernis.
Davon ab war der Zen2/Navi-Launch auch an einem Sonntag.
LOL? https://www.computerbase.de/2020-08/diskrete-grafikkarten-nvidia-amd-marktanteil/
Lass doch bitte diesen Scheiß aussen vor. Ansonsten benche ich gerne unter Wasser gegen jede 2070s, 2080 und 2080s bei 240W Asic.
Man macht kein Presse Event, wenn die Presse Wochenende hat. ^^
Ich weiß, aber wir werden sehen
LOL? https://www.computerbase.de/2020-08/diskrete-grafikkarten-nvidia-amd-marktanteil/
https://www.3dcenter.org/dateien/abbildungen/Mindfactory-Graphics-Card-Sales-2Q-2020.png
Navi1 hat sich schon ganz gut verkauft, das Nvidia insgesamt mehr umgesetzt hat, da gibt es noch andere Gründe. Siehe Intel, die haben zuletzt auch noch gut Umsatz gemacht, aber keiner würde heute behaupten sie haben die besseren CPUs.
Bis auf die drei Leute die ihren 10900k Kauf verteidigen müssen.
DrFreaK666
2020-09-08, 20:09:57
Lass doch bitte diesen Scheiß aussen vor. Ansonsten benche ich gerne unter Wasser gegen jede 2070s, 2080 und 2080s bei 240W Asic.
Wie bitte? Was hat das mit dem Marktanteil zu tun?
DrFreaK666
2020-09-08, 20:13:33
https://www.3dcenter.org/dateien/abbildungen/Mindfactory-Graphics-Card-Sales-2Q-2020.png
Navi1 hat sich schon ganz gut verkauft, das Nvidia insgesamt mehr umgesetzt hat, da gibt es noch andere Gründe...
Ich denke dass AMD in Deutschland relativ stark ist, zumindest wenn man sich diese Grafik anschaut
https://m.3dcenter.org/dateien/abbildungen/Mindfactory-Consumer-Graphics-Card-Sales-Q1-2020-by-Cards.png
weltweit sieht das jedoch anders aus
Wie bitte? Was hat das mit dem Marktanteil zu tun?
Generell sind die Verkaufszahlen im Highend Bereich ein Witz wenn man sich Marktanteile anguckt.
https://store.steampowered.com/hwsurvey/videocard/
Hier treibt sich eben eine andere Zielgruppe rum.
weltweit sieht das jedoch anders aus
Glaube ich gar nicht mal. Viele kaufen Notebooks, da gibt es fast nur Nvidia GTX, das ist ein riesiger Markt. Und auch Desktop zahlen viele nicht mehr als 250 Euro. Gerade die Esports Fraktion, LoL, Fortnite, Overwatch etc.
Nvidia hat einen guten Ruf und gute Produkte, da ist es schwierig ein Umdenken herbei zu führen. Siehe Intel, im CPU Bereich hat sich AMD in den letzten jahren bestimmt 85% Desktopanteil erarbeitet. Es baut so gut wie niemand mehr Intel Systeme. Zen 3 wird das nochmal verstärken und Navi2 wird mMn den Umbruch im Grafikbereich weiter einleiten und AMD auch hier mehr Marktanteile verschaffen.
Cyberfries
2020-09-08, 20:58:53
Tschu-Tschuuh, der Hype-Train rollt. Ich drück mal ein bisschen auf die Bremse.
würd ja lachen, wenn AMD das ding nicht schon im chiplet design bringt, und so beliebig viele CUs rauszaubern kann ;D
Beliebig viel geht nicht, die Interposer-Größe ist begrenzt und der Stromverbrauch ebenfalls.
Erster Treffer Google.
CPU != GPU, nVidia hat auch schon für die Kombination AMD CPU mit nVidia GPU geworben.
Ein Nvidia Killer muß nicht unbeding schnell sein, reicht auch billig.
Wie wunderbar billig funktioniert hat man die letzten Jahre ja gesehen.
Sowohl bei CPUs als auch GPUs ist AMD durch billige Bulldozer und Vegas bei rund 80% Marktanteil und nVidia kurz vor Konkurs.
Das AMD klar gesagt und gezeigt hat, dass sie teurer werden wollen ignorieren wir einfach mal.
Der XBox Chip sind 56 (52 aktiv), das sieht für mich nach einem 2*28 Lineup aus (bzw. 2x2x14 da die WGPs immer 2 CUs sind).
....das hochskalieren .... Array Zahl .... Also 84 .... und 112
Schöner Gedanke. Leider sind die 80CUs in einer 4x2x5x2 (oder 4x2x10) durch Linux-Einträge und mehrere Leaks zu 99% sicher.
Die xBox kennen wir auch, damit haben wir einen Anhaltspunkt für die Packdichte.
Mehr als dort würde ich nicht erwarten, allein um nicht enttäuscht zu werden,
Interposer? Wäre damit HBM gesetzt?
Auch hier muss ich direkt einen Riegel vorschieben, angeblich verzichtet AMD auf einen Interposer.
Damit also weder Chiplet, noch HBM.
Yeah, it is early October for the event and mid-late October for product availability.
Wenn man sich so ein bisschen im Faden einliest - das ist mehr Spekulation seinerseits.
Deutschland ist auch amd land
Stimmt, die Ursache würde ich aber nicht im Geld suchen. Der Deutsche wirft einiges an Geld in seinen Rechenknecht.
Gibt eben eine alteingessessene Fanbase und eine Ex-AMD-Foundry in Dresden.
Berniyh
2020-09-09, 00:31:35
Schöner Gedanke. Leider sind die 80CUs in einer 4x2x5x2 (oder 4x2x10) durch Linux-Einträge und mehrere Leaks zu 99% sicher.
Link?
Auch hier muss ich direkt einen Riegel vorschieben, angeblich verzichtet AMD auf einen Interposer.
Das ist ein Gerücht, muss also nun wirklich nicht stimmen. Zumal dieses Gerücht eines derer war die aus den ominösen östlichen Foren stammten.
Die können uns im Prinzip alles erzählen, da kann keiner überprüfen was Schwachsinn ist und was halbwegs stimmt.
Beim Thema Chiplets stimme ich aber zu, das wird mit Navi 2x zu 99% nicht passieren.
Es gibt ein wesentliches Argument dagegen: wir wissen von 4(!) Navi 2x Chips die in Planung sind.
Bei Chiplets braucht man aber nur einen, bzw. evtl. 2.
Linmoum
2020-09-09, 04:57:49
https://mobile.twitter.com/AzorFrank/status/1303492877989879810
Hype over 9000. ;D
Adam D.
2020-09-09, 06:57:38
https://mobile.twitter.com/AzorFrank/status/1303492877989879810
Hype over 9000. ;D
Ich würde den mal vorsichtshalber unter 900 belassen. Egal was AMD zeigt, niemand hat aktuell irgendeinen Plan von Big Navi - es wird noch dauern, bis da was Kaufbares auftaucht :(
https://videocardz.com/newz/amd-frank-azor-teases-something-to-come-out-tomorrow
mironicus
2020-09-09, 07:05:41
AMD konnte bis jetzt alles genüßlich unter den Berg halten, kein Leak oder irgendwas bis zum heutigen Tag.
Wenn sie jetzt irgendwelche eigenen Benchmarksgraphen zeigen, dann wohl nur mit Bezug zur RTX 2080 Ti. Alles unter +50% wäre enttäuschend. :D
[MK2]Mythos
2020-09-09, 07:08:20
Mal zur Klarstellung, er hat das heute Nacht, 2 Uhr deutscher Zeit getwittert. Also bei ihm war noch Dienstag. Sehen wir also heute Abend was?
BiG OnE
2020-09-09, 07:13:48
@mironicus
Ja, ganz bestimmt genüßlich und die Leute draußen im Lande machen sich Gedanken, welche Karte aus der 3000er Reihe von NVidia sie sich holen, weil sie von AMDs nichts hören.
Spasstiger
2020-09-09, 07:18:10
Natürlich wird sich AMD bei der Ankündigung direkt gegen die RTX-3000-Serie positionieren, Samples sind auch schon im Umlauf, so dass AMD sich die günstigsten Benchmarks für den Vergleich cherrypicken kann.
Aber so wie Nvidia vorgelegt hat, wird es AMD schätzungsweise nicht gelingen, an der Spitze anzugreifen.
Meine Prognose ist, dass man versucht, ein Gegenangebot zur RTX 3080 darzustellen.
[MK2]Mythos
2020-09-09, 07:23:41
Natürlich wird sich AMD bei der Ankündigung direkt gegen die RTX-3000-Serie positionieren, Samples sind auch schon im Umlauf, so dass AMD sich die günstigsten Benchmarks für den Vergleich cherrypicken kann.
Aber so wie Nvidia vorgelegt hat, wird es AMD schätzungsweise nicht gelingen, an der Spitze anzugreifen.
Nö, wie soll AMD denn an ne nv Karte kommen? Die werden sich sicherlich gegen ne 2080ti positionieren.
dargo
2020-09-09, 08:02:58
Genug Angriffsfläche hat ja Lederjacke geboten... 8GB und 10GB. :ulol:
btw.
An die 2080TI dürfte schon alleine der kleinere Chip mit 56CUs und ~2Ghz kommen. Wenn die 52CUs der XBSX mit 1825Mhz takten wird man am Desktop etwas mehr Takt anlegen. Zumindest war das bisher immer so üblich da die Konsolen ein kleineres Powerbudget haben.
PS: mit 2GHz und 56CUs ist AMD bei 14,3TFLOPs. Ich gehe auch davon aus, dass ein RDNA2 TFLOP etwas mehr Performance liefert als ein RDNA1 TFLOP.
w0mbat
2020-09-09, 08:33:03
Mythos;12418893']Nö, wie soll AMD denn an ne nv Karte kommen? Die werden sich sicherlich gegen ne 2080ti positionieren.
Genau, wie sollte AMD an so ne Karte kommen? Unmöglich... :freak:
mironicus
2020-09-09, 08:36:24
Vielleicht gibt es heute wieder ein Video von Digital Foundry... exklusiv mit Big Navi vs RTX 3080. :D
EDIT Angeblich soll heute auch der PS5-Launchtermin und Preis bekanntgegeben werden.
Genau, wie sollte AMD an so ne Karte kommen? Unmöglich... :freak:
Sie werden sicherlich keine eigenen Benchmarks der 3000er Serie zeigen, weil das NDA dafür noch nicht gefallen ist.
Aber natürlich haben sie die Karten, haben intern gemessen, könnten das mit Nvidias Präsentation abgleichen - wie sehr hat Nvidia evtl. geschummelt oder sich vorteilhafte Szenarien raus gesucht, und werden dann die Zahlen in der Präsentation mit eigenen Benchmarks vergleichen. Das könnte ich mir vorstellen.
dargo
2020-09-09, 08:49:26
EDIT Angeblich soll heute auch der PS5-Launchtermin und Preis bekanntgegeben werden.
Beim Preis der PS5 erwarte ich jetzt keine Überraschungen nachdem Microsoft beide Konsolen bepreist hat. Ich tippe einfach auf 399$ für die PS5.
Meines Erachtens wird heute ein Renderbild von BN zu erhaschen sein. Angaben zu Specs, Performance usw. wird es wohl kaum geben.
Beim Preis der PS5 erwarte ich jetzt keine Überraschungen nachdem Microsoft beide Konsolen bepreist hat. Ich tippe einfach auf 399$ für die PS5.
Unrealistisch. Sony geht eher davon weg Hardware zu subventionieren.
Teaserbilder oder Video plus Vorstellung vor dem 17. September und Launch nächsten Monat. So könnte man Nvidia das Wasser abgraben.
ChaosTM
2020-09-09, 08:58:01
ot..
dargo
2020-09-09, 09:13:41
Unrealistisch. Sony geht eher davon weg Hardware zu subventionieren.
Wer sagt denn, dass es bei 399$ was zu subventionieren gibt?
y33H@
2020-09-09, 09:17:03
Genau, wie sollte AMD an so ne Karte kommen? Unmöglich ... :freak:Was sehe ich denn da in meinem Postfach :tongue:
mironicus
2020-09-09, 09:32:35
AMD sollte/muß auch überzeugen mit ihrem Produkt, denn sonst wird nach der Ankündigung der Bedarf nach Ampere-Karten noch größer werden.
[MK2]Mythos
2020-09-09, 09:38:06
Eine Ankündigung der Ankündigung wäre momentan doch etwas sehr lame. NV dominiert zur Zeit die Presse, da kommt man mit nem kleinen Teaser nicht weit.
Dampf
2020-09-09, 09:39:17
Genug Angriffsfläche hat ja Lederjacke geboten... 8GB und 10GB. :ulol:
Ja, man wird definitiv den Weg gehen und mit VRAM versuchen, einen Pluspunkt zu erhaschen.
Dumm nur, dass Nvidia schon darauf vorbereitet ist (16 GB und 20 GB) da hat AMD wohl keinen Vorteil mehr.
IMO sollten sie einfach den VRAM der Konkurrenz anpassen und dafür die Preise von NVidia gnadenlos unterbieten. Also eine 6700XT mit 8 GB VRAM, die ähnliche Leistung zu einer 3070 bietet, aber dafür nur 350€ kostet. Das wäre ein Preishammer. Da kann man auch das fehlen von DLSS, Gen 2 Raytracing, die ganzen NVidia Features, die schlechteren Treiber und geringere AI Beschleunigung verschmerzen.
Wegen oben genannten Punkten und unter der Voraussicht, dass sich da nichts großartig verbessern wird, wäre eine 450-500€ 6700XT nicht gerade der Knüller, auch nicht mit 12 GB. Preis Leistung war schon immer AMDs Stärke, das hat nun mehr Relevanz denn je!
Die mögliche Ankündigung könnte vielleicht auch dafür sorgen, daß sich noch unsichere Kunden den Kauf einer Ampere-Karte bestätigen lassen können...
Das Argument ist eher schwach, denn wenn AMD auf einen Teaser, eine Ankündigung verzichtet, läuft es schließlich auch darauf hinaus. AMD muss eigentlich einen Zug machen, die eigenen Stärken herausstellen, selbst wenn man im Schnitt möglicherweise unterlegen ist.
https://twitter.com/ohvince_/status/1303493692221722624?s=21
w0mbat
2020-09-09, 09:48:18
Ja, man wird definitiv den Weg gehen und mit VRAM versuchen, einen Pluspunkt zu erhaschen.
Dumm nur, dass Nvidia schon darauf vorbereitet ist (16 GB und 20 GB) da hat AMD wohl keinen Vorteil mehr.
IMO sollten sie einfach den VRAM der Konkurrenz anpassen und dafür die Preise von NVidia gnadenlos unterbieten. Also eine 6700XT mit 8 GB VRAM, die ähnliche Leistung zu einer 3070 bietet, aber dafür nur 350€ kostet. Das wäre ein Preishammer. Da kann man auch das fehlen von DLSS, Gen 2 Raytracing, die ganzen NVidia Features, die schlechteren Treiber und geringere AI Beschleunigung verschmerzen.
Wegen oben genannten Punkten und unter der Voraussicht, dass sich da nichts großartig verbessern wird, wäre eine 450-500€ 6700XT nicht gerade der Knüller, auch nicht mit 12 GB. Preis Leistung war schon immer AMDs Stärke, das hat nun mehr Relevanz denn je!
Ich glaub du hast das was verwechselt, RDNA2 hat schon gen3 RT, ein BQ verschlimmbesserer braucht man nicht, die Treiber sind besser und AI hat es auch. Hier sogar schon gen4.
dargo
2020-09-09, 09:49:05
Also eine 6700XT mit 8 GB VRAM, die ähnliche Leistung zu einer 3070 bietet, aber dafür nur 350€ kostet. Das wäre ein Preishammer.
Ja... wäre, aber die Marge wäre auch der Hammer. Im negativen Sinne. Man sollte schon realistisch bleiben. Sofern die 6700XT sich mit der 3070 kloppt würde ich eher 449$ für die 8GB Version erwarten. 399$ wäre schon der Hammer. Eine 6700XT 16GB für 499$, das wäre der richtige Hammer. ;) Was mir eher mehr Sorgen macht ist die Verfügbarkeit der Customs in 2020. Ob das noch was wird? Wenn die erst Anfang 2021 kommen wäre das schon etwas blöd. Aber vielleicht sind die Custom Kühler der 3070 von bsw. MSI, Gigabyte, ASUS etc. kompatibel zu Navi 22. Dann müsste es theoretisch schneller gehen. Wenn die AIBs für Radeon eigene Kühler entwerfen müssen dauerts länger.
masked__rider
2020-09-09, 10:01:28
https://twitter.com/ohvince_/status/1303493692221722624?s=21
Das wurde heute um 2:38 Uhr gepostet. Demnach müsste dann morgen etwas kommen, wenn denn überhaupt...
unl34shed
2020-09-09, 10:13:37
Gen 2 Raytracing
So viel besser ist das doch gar nicht geworden als gen1...
Cyberfries
2020-09-09, 10:16:02
Zumal dieses Gerücht eines derer war die aus den ominösen östlichen Foren stammten
Darüber wurde auch hier berichtet, ab Seite 446 und in den News hier:
https://www.3dcenter.org/news/amds-navi-21-rdna2-grafikchip-tritt-tatsaechlich-mit-80-shader-clustern
Zum Interposer-Verzicht hat sich auch Bondrewd geäußert, der hier zuletzt öfters genannt wurde.
Abgesehen davon, wie du gesagt hast, Chiplets wären wirklich eine Überraschung
Das wurde heute um 2:38 Uhr gepostet.
Für eine Navi-Ankündigung wäre das ziemlich mager. Da muss schon mindestens ein Countdown auf die Webseite.
Videocardz glaubt an PS5-Preise. Mehr würde ich mal nicht erwarten.
Wenn die AIBs für Radeon eigene Kühler entwerfen müssen dauerts länger.
Angeblich kommt die N21 zu Beginn nur als Referenz, N22 dagegen direkt mit Partnern.
Preislich würde ich eine ähnliche Lage wie bei N10 erwarten:
Die 5700 war etwas langsamer als die 2060S aber 50€ billiger, die 5700XT war 9% schneller und gleich teuer.
robbitop
2020-09-09, 10:23:41
Was macht diesen „bondrewd“ eigentlich zu einer Authorität in dem Thema? Arbeitet er bei AMD oder einem Partner? Hat er einen besonders guten Track Record in der Vergangenheit zu seinen Vorhersagen und was entsprechend eingetreten ist? Oder ist er einfach nur ein besonders mitteilungsbedürftiger Spekulant? Warum dient er hier immer wieder als Referenz? Würde es gern verstehen, welchen Hintergrund das hat.
Korvaun
2020-09-09, 10:24:11
Ja... wäre, aber die Marge wäre auch der Hammer. Im negativen Sinne. Man sollte schon realistisch bleiben. Sofern die 6700XT sich mit der 3070 kloppt würde ich eher 449$ für die 8GB Version erwarten. 399$ wäre schon der Hammer. Eine 6700XT 16GB für 499$, das wäre der richtige Hammer. ;) Was mir eher mehr Sorgen macht ist die Verfügbarkeit der Customs in 2020. Ob das noch was wird? Wenn die erst Anfang 2021 kommen wäre das schon etwas blöd. Aber vielleicht sind die Custom Kühler der 3070 von bsw. MSI, Gigabyte, ASUS etc. kompatibel zu Navi 22. Dann müsste es theoretisch schneller gehen. Wenn die AIBs für Radeon eigene Kühler entwerfen müssen dauerts länger.
449.- 8GB / 549.- 16GB bei ähnlicher Leistung wäre sehr gut. 16GB Version vielleicht etwas höher getaktet als Sahnehäubchen...
Complicated
2020-09-09, 10:31:46
Warum dient er hier immer wieder als Referenz? Würde es gern verstehen, welchen Hintergrund das hat.
Ich auch :rolleyes:
Cyberfries
2020-09-09, 10:36:28
besonders mitteilungsbedürftiger Spekulant?
Das hier.
Er behauptet an einer mobilen Umsetzung zu arbeiten (N22 @90w), also Notebook-Hersteller.
Zu Renoir hat er am 16.Dez 8 Kerne angekündigt, ungefähr zeitgleich also mit rogame, als wir noch von 6 Kernen ausgingen.
Im Februar sprach er bereits von zwei großen Navi-Chips und hat HBM entschieden abgelehnt.
Und die Aussage, dass N21 & N22 - Daten vertauscht wurden, die wir jetzt auch bei Computerbase und co lesen durften, habe ich zuerst bei ihm gesehen.
Wie vertrauenswürdig er ist? Keine Ahnung.
dargo
2020-09-09, 10:49:34
Angeblich kommt die N21 zu Beginn nur als Referenz, N22 dagegen direkt mit Partnern.
Ah... ok, das wäre schon mal gut für N22.
mironicus
2020-09-09, 11:00:43
Dann wird wohl N22 (mit 8 und 16 GB) die günstige Mainstream-Karte die die 3070 und 3080 verhauen soll. :)
Berniyh
2020-09-09, 11:10:07
Darüber wurde auch hier berichtet, ab Seite 446 und in den News hier:
https://www.3dcenter.org/news/amds-navi-21-rdna2-grafikchip-tritt-tatsaechlich-mit-80-shader-clustern
Zum Interposer-Verzicht hat sich auch Bondrewd geäußert, der hier zuletzt öfters genannt wurde.
Ja, ich kenne das Gerücht und weiß, dass das hier auch breit getreten wurde.
Tue mir da trotzdem schwer mit einer vernünftigen Einschätzung.
Ravenhearth
2020-09-09, 11:11:55
Dann wird wohl N22 (mit 8 und 16 GB) die günstige Mainstream-Karte die die 3070 und 3080 verhauen soll. :)
Nur die 3070, nicht die 3080.
Dann wird wohl N22 (mit 8 und 16 GB) die günstige Mainstream-Karte die die 3070 und 3080 verhauen soll. :)
6800XL = 52CUs/225W @8GB -> RTX 3070
6800XT = 56CUs/275W @16GB -> RTX 3080
Preispunkte: 449$ und 599$
Rancor
2020-09-09, 11:22:53
Wäre trotzdem mal nice wenn AMD mal mit etwas handfestem um die Ecke kommen würde. Die überlassen Nvidia ja sonst vollständig die PR.
Zergra
2020-09-09, 11:24:45
6800XL = 52CUs/225W @8GB -> RTX 3070
6800XT = 56CUs/275W @16GB -> RTX 3080
Preispunkte: 449$ und 599$
Das passt niemals, dafür ist der unterschied zwischen der 3070 und 3080 viel zu groß.
46? vs 68SMs.
[MK2]Mythos
2020-09-09, 11:28:46
Big Navi legt sich mit 3080 an. Alles andere ist Wunschdenken.
Wann gibts die ersten unabhängigen Reviews zur 3000er-Serie - ab 17.09?
dargo
2020-09-09, 11:29:59
6800XL = 52CUs/225W @8GB -> RTX 3070
6800XT = 56CUs/275W @16GB -> RTX 3080
Preispunkte: 449$ und 599$
Das ist kompletter Unsinn. Die 275+W sind für BigNavi vorgesehen.
Gipsel
2020-09-09, 11:30:44
Zu Renoir hat er am 16.Dez 8 Kerne angekündigt, ungefähr zeitgleich also mit rogame, als wir noch von 6 Kernen ausgingen.Wer ging denn von 6 Kernen aus? Die acht Kerne für Renoir sind spätestens seit Mitte 2019 im Gespräch. Im Dezember 2019 wurden die doch schon vorgestellt.
Das passt niemals, dafür ist der unterschied zwischen der 3070 und 3080 viel zu groß.
46? vs 68SMs.
56!
bei 225W habe ich bei den kolportierten 50% bereits 1.3-1.4-fache 2080Ti-Leistung. 50W drauf und ich bin im Bereich einer 3080.
Das ist kompletter Unsinn. Die 275+W sind für BigNavi vorgesehen.
Abwarten - aber wenn die 6800XT der Konkurrent zur 3080 ist, dann darf das Ding auch gerne 275W ziehen. Der Konkurrent braucht derer 320.
dargo
2020-09-09, 11:40:31
Abwarten - aber wenn die 6800XT der Konkurrent zur 3080 ist, dann darf das Ding auch gerne 275W ziehen. Der Konkurrent braucht derer 320.
Und was darf dann die 80CU Graka ziehen? 400W? :freak: AMD sollte langsam von ihren heiß und hungrig Image runter wenn sich die Gelegenheit bietet. Ich hoffe echt die keulen RDNA2 nicht wieder wie Vega. Das "Keulen" können die gerne den AIBs für ihre OC-Versionen überlassen. Plus 10-15% Performance bei +40-50% Power muss bei der Referenz wirklich nicht sein.
Cyberfries
2020-09-09, 11:41:56
Wer ging denn von 6 Kernen aus?
https://www.3dcenter.org/news/amds-renoir-apu-der-ryzen-4000-uhg-serien-bringt-wohl-gleich-8-cpu-kerne-mit
Bislang war zu AMDs Renoir-APU Gerüchte-weise bekannt, das AMD hiermit nächstes Jahr Sechskern-Prozessoren ins Mobile-Segment bringen will – das es nun gleich bis zu 8 CPU-Kerne sein sollen, überrascht da etwas.
6800XT = 56CUs -> RTX 3080
Navi-CUs waren zwar noch ziemlich ähnlich zu Turing-SM, doch bei Ampere kann man das nicht mehr einfach gleichsetzen.
Die theoretische Verdopplung klappt zwar nicht, doch selbst nur 20% mehr FP32-Einheiten genutzt werden könnten,
käme die 3070 auf 3533 AlUs gegenüber den spekulierten 3584 für N22. (Milchmädchenrechnung!)
Keine Ahnung, vermutlich reichen 350W.
Es würde mich doch stark wundern, wenn N1x CUs mit N2x CUs vergleichbar wären und AMD hier gar nichts verändert hätte.
Abwarten -
Dann tu das auch mal und poste nicht ständig "an den Haaren herbei gezogenes".
Es steht zwar jedem ne "Glaskugel" zu, aber Bitte nicht jede Seite aufs Neue.
Danke :smile:
M.f.G. JVC
Dann tu das auch mal und poste nicht ständig "an den Haaren herbei gezogenes".
Es steht zwar jedem ne "Glaskugel" zu, aber bitte nicht jede Seite aufs Neue.
Danke :smile:
M.f.G. JVC
Wenn ich genervt haben sollte - sorry
robbitop
2020-09-09, 11:48:00
Aufgrund der CCX waren 6 Kerne im Vollausbau eh unwahrscheinlich. Weiterhin war IMO recht wahrscheinlich, dass 4C in 2020 etwas wenig sind. 8C war für jeden mit ein wenig Verstand und Weitsicht die Option, die für Renoir am wahrscheinlichsten war.
Zergra
2020-09-09, 11:48:21
56!
bei 225W habe ich bei den kolportierten 50% bereits 1.3-1.4-fache 2080Ti-Leistung. 50W drauf und ich bin im Bereich einer 3080.
Nein ich mein die Differenz zwischen deiner Aufstellung.
Du sagst bei AMD 52 vs 56, der Unterschied ist zu gering.
Das sind vllt 10%
Zwischen der 3070 und 3080 liegen eher 30-40%.
dildo4u
2020-09-09, 11:49:41
Ich stimme Gedi zu 16GB passen zu 600€ gegen eine 3070 mit 16GB, die 16GB sind nicht for Free was Verbrauch angeht.
225 vs 275 passt mit 8GB mehr Ram und höherem Takt AMD lässt das Top Modell nie Effizient laufen.
Und damit wären sie immer noch weit unter der 3080 nur wird das mit dem großen Chip passieren.
Gipsel
2020-09-09, 11:52:03
https://www.3dcenter.org/news/amds-renoir-apu-der-ryzen-4000-uhg-serien-bringt-wohl-gleich-8-cpu-kerne-mitNa mit dem CCX-Aufbau (wo auch seit Mitte 2019 bekannt ist, daß das erst mit Zen3 von 4 auf auf 8 Kerne hochgeht) waren 6 Kerne schon immer extrem unwahrscheinlich ;). P3DNow hat wenn ich mich richtig erinnere die 8 Kerne schon im August erwähnt.
Aber ist ja im Prinzip hier auch egal.
Ich stimme Gedi zu 16GB passen zu 600€ gegen eine 3070 mit 16GB, die 16GB sind nicht for Free was Verbrauch angeht.
225 vs 275 passt mit 8GB mehr Ram und höherem Takt AMD lässt das Top Modell nie Effizient laufen.
Ja, 16Gb passen auf jeden fall zu ~600.-
Aber wieso du das "Top Modell" von AMD mit der 3070 vergleichst... :confused:
M.f.G. JVC
Nein ich mein die Differenz zwischen deiner Aufstellung.
Du sagst bei AMD 52 vs 56, der Unterschied ist zu gering.
Das sind vllt 10%
Zwischen der 3070 und 3080 liegen eher 30-40%.
10% hier, 10% da und deutlich weniger Takt. Vielleicht liegen auch nur 200W an. Naja, bin erstmal raus. Sollte mal wieder was arbeiten.
Ravenhearth
2020-09-09, 11:55:30
del
why_me
2020-09-09, 11:56:14
56!
bei 225W habe ich bei den kolportierten 50% bereits 1.3-1.4-fache 2080Ti-Leistung. 50W drauf und ich bin im Bereich einer 3080.
Ich glaube hier bringst du etwas durcheinander.
Die 5700XT hat 225W + 50% Perf/W -> 2080ti Leistung @ 225W, mit wie vielen CUs das erreicht wird, ist erst einmal egal.
Es bräuchte 300W, bei 50% Perf/W, um die doppelte 5700XT Leistung zu haben und damit wäre man dann in der Region einer 3080
Navi-CUs waren zwar noch ziemlich ähnlich zu Turing-SM, doch bei Ampere kann man das nicht mehr einfach gleichsetzen.
Die theoretische Verdopplung klappt zwar nicht, doch selbst nur 20% mehr FP32-Einheiten genutzt werden könnten,
käme die 3070 auf 3533 AlUs gegenüber den spekulierten 3584 für N22. (Milchmädchenrechnung!)
RDNA1 ist in etwa so schnell wie Turing pro CU/SM. Bei Ampere fallen die zusätzlichen INT Alus weg, bzw können sie nicht mehr zusätzlich genutzt werden. Gehen wir von den ca 30% Int operationen von Nvidia aus, folgt daraus, dass eine RDNA1 CU = 0,7 Ampere SMs in Spielen entsprechen sollte, da die zusätzlichen FP ALUs nicht voll durchschlagen. Bzw anders rum Ampere SMs 40% schneller sind.
Ist eigentlich gesichert, dass RDNA2 CUs auch nur 64 Shader haben? Klar Konsolen haben nur 64, aber das muss ja nicht für die Desktop karten stimmen.
dargo
2020-09-09, 11:57:24
Ich stimme Gedi zu 16GB passen zu 600€ gegen eine 3070 mit 16GB, die 16GB sind nicht for Free was Verbrauch angeht.
Was soll das denn deiner Meinung nach ausmachen? Verbraucht eine 8GB RX 5500XT spürbar mehr als eine 4GB RX 5500XT beim gleichen Powerlimit der GPU? Zudem könnte N22 bei 16GB dennoch 8 Chips abbekommen. Bei GDDR6 sind 2GB Chips verfügbar.
Edit:
Bei CB sind es magere 2 Wattchen Unterschied mit 14Gbps GDDR6.
https://www.computerbase.de/2019-12/amd-radeon-rx-5500-xt-test/3/#abschnitt_messung_der_leistungsaufnahme
Hauwech
2020-09-09, 11:59:26
Was macht diesen „bondrewd“ eigentlich zu einer Authorität in dem Thema? Arbeitet er bei AMD oder einem Partner? Hat er einen besonders guten Track Record in der Vergangenheit zu seinen Vorhersagen und was entsprechend eingetreten ist? Oder ist er einfach nur ein besonders mitteilungsbedürftiger Spekulant? Warum dient er hier immer wieder als Referenz? Würde es gern verstehen, welchen Hintergrund das hat.
Laut AffenJack der da schon seit Jahren mitliest, hat sich der Typ bis jetzt noch nie mit besonderen Quellen hervorgetan.
Linmoum
2020-09-09, 12:01:34
Quellen sind bei sowas irrelevant. Die erfährt man von kimi ja auch nicht. Ob er ein Schwätzer ist oder nicht, wird man demnächst sehen.
dildo4u
2020-09-09, 12:07:47
Was soll das denn deiner Meinung nach ausmachen? Verbraucht eine 8GB RX 5500XT spürbar mehr als eine 4GB RX 5500XT beim gleichen Powerlimit der GPU? Zudem könnte N22 bei 16GB dennoch 8 Chips abbekommen. Bei GDDR6 sind 2GB Chips verfügbar.
Edit:
Bei CB sind es magere 2 Wattchen Unterschied mit 14Gbps GDDR6.
https://www.computerbase.de/2019-12/amd-radeon-rx-5500-xt-test/3/#abschnitt_messung_der_leistungsaufnahme
Ich denke nicht das AMD mit GDDR6 vs GDDR6X konkuriert aber wir werden sehen, braucht der neue Speicher nicht deutlich mehr Strom?
Kommt halt komplett drauf an ob das Ziel ist die 3070 zu schlagen oder mit der 3080 gleich zu ziehen.
Linmoum
2020-09-09, 12:11:30
Das Ziel war nie 2080Ti-Leistung, lol.
dildo4u
2020-09-09, 12:13:37
Zwischen der 3070 und 3080 ist diesmal halt massig Luft daher passt das Ziel 20% schneller als 2080 Ti und es wäre unter der 3080.
Das wäre immer noch Bombe Performance per Watt wenn sie nur von 225 5700XT zu 275 für Big Navi gehen.
Hasenpfote
2020-09-09, 12:18:46
"The sun'll come out
Tomorrow
So ya gotta hang on
'Til tomorrow
Come what may
Tomorrow, tomorrow!
I love ya tomorrow!
You're always
A day
Away!"
@AzorFrank
Chief Architect of Gaming Solutions & Marketing at @AMD
. Co-founder of @Alienware
. Boater, gamer, currently playing Overwatch, RON & Fortnite
Linmoum
2020-09-09, 12:19:44
Guten Morgen. :)
Redneck
2020-09-09, 12:25:18
Das Ziel war nie 2080Ti-Leistung, lol.
exakt
Redneck
2020-09-09, 12:35:00
Zwischen der 3070 und 3080 ist diesmal halt massig Luft daher passt das Ziel 20% schneller als 2080 Ti und es wäre unter der 3080.
Das wäre immer noch Bombe Performance per Watt wenn sie nur von 225 5700XT zu 275 für Big Navi gehen.
20% größer als 2080 TI ist doch viel zu konservativ.
Das macht keinen Sinn, wenn man das Ziel formuliert im Enthusiasten Segment etwas anbieten zu wollen bei der kommenden Generation , das dann mit der next Gen vom Marktführer verglichen werden wird (vom NV Killer möchte ich gar nicht erst sprechen, da ich nicht verifizieren kann, ob das tatsächlich so von AMD kam oder nur dumme Gerüchte waren).
Wenn die Zielrichtung von Lisa Su stimmt, das ganz oben mitgemischt werden soll, dann muß man das intern auch als Target festlegen und dahingehend entwerfen. Die technische Basis hat man mit den Konsolenchips ja. Jetzt muß man sehen, wie viel davon entnommen und wie viel man hinzu setzen kann... Doppelter Chip .. ja/nein.. welches power target wird anvisiert, etc
dargo
2020-09-09, 12:36:09
Ich denke nicht das AMD mit GDDR6 vs GDDR6X konkuriert aber wir werden sehen, braucht der neue Speicher nicht deutlich mehr Strom?
Womit denn sonst? :freak: GDDR6X ist exklusiv für Nvidia. Nvidias GDDR6X bringt halt bei der 3080 dank 320Bit SI nicht so viel. Mit 16Gbps GDDR6 kommt AMD mit 384Bit trotzdem leicht schneller bei der Bandbreite raus als Nvidia mit ihren 19Gbps GDDR6X.
Tarkin
2020-09-09, 12:40:52
Was macht diesen „bondrewd“ eigentlich zu einer Authorität in dem Thema? Arbeitet er bei AMD oder einem Partner? Hat er einen besonders guten Track Record in der Vergangenheit zu seinen Vorhersagen und was entsprechend eingetreten ist? Oder ist er einfach nur ein besonders mitteilungsbedürftiger Spekulant? Warum dient er hier immer wieder als Referenz? Würde es gern verstehen, welchen Hintergrund das hat.
Einkäufer bei einem Boardpartner
mironicus
2020-09-09, 12:47:58
Einkäufer bei einem Boardpartner
Wenn das so ist und nach einem anderen Gerücht N22 von Anfang als Customversion erscheint, dann ist es genau dieser kleinere Chip der hier mit den kolportierten 499/549 Dollar als 3070-Konkurrent gemeint ist.
nonharderware
2020-09-09, 13:24:12
OFFTOPIC:
@AzorFrank
Chief Architect of Gaming Solutions & Marketing at @AMD
. Co-founder of @Alienware
. Boater, gamer, currently playing Overwatch, RON & Fortnite
Bin ich der einzige, dem solche kryptischen Meldungen allgemein nerven?
Ich meine was soll da? Entweder ich schreibe Klartext, dass ich etwas zum Zeitpunkt X ankündige oder ich lasse es.
TOPIC:
Ich würde mich freuen, wenn Big Navi der 3090 Konkurrenz macht und man dies bitte auch vor dem 24. September klarstellen könnte; dann hätte ich wenigstens die Wahl.
Sonst bleibe ich bei der 3090.
gbm31
2020-09-09, 13:26:21
...
Sonst bleibe ich bei der 3090.
Nach der Drohung MUSS AMD ja reagieren...
:rolleyes:
nonharderware
2020-09-09, 13:32:11
Nach der Drohung MUSS AMD ja reagieren...
:rolleyes:
Ja, das wäre ja auch wirklich fein und worauf ich hoffe.
Ich bin Leistungsopportunist - wer das Produkt herstellt ist mir shiceegal.
Und so im Berich "10% langsamer als die 3090" plus entsprechend vorhandenem Speicher, würde ich AMD kaufen.
gbm31
2020-09-09, 13:38:30
Und wer setzt dir die Pistole auf die Brust, sofort kaufen zu müssen?
Ist es so schwer, zu warten, bis die Karten auf dem Markt und verfügbar sind, die Preise sich stabilisiert haben, und die guten Reviews (nicht die Launch-Alibi-Reviews) vorliegen?
Bei jedem Release das gleiche Theater...
mironicus
2020-09-09, 13:41:24
Und so im Berich "10% langsamer als die 3090" plus entsprechend vorhandenem Speicher, würde ich AMD kaufen.
Und 75 Watt weniger Verbrauch wäre auch nett. :biggrin:
nonharderware
2020-09-09, 13:45:04
Und wer setzt dir die Pistole auf die Brust, sofort kaufen zu müssen?
Ist es so schwer, zu warten, bis die Karten auf dem Markt und verfügbar sind, die Preise sich stabilisiert haben, und die guten Reviews (nicht die Launch-Alibi-Reviews) vorliegen?
Bei jedem Release das gleiche Theater...
Würde mich jemand mit einer Waffe bedrohen, würde ich die Perso, sofern möglich, entwaffnen oder mich in Sicherheit bringen und danach die zuständigen Behörden informieren - sofern ich dazu noch in der Lage bin.
Dies ist zum Glück bei diesem anstehenden Hardware-Upgrade nicht der Fall.
War es bisher auch nie.
Zu dem "Wieso": Weil ich es kann und weil ich es will.
Und 75 Watt weniger Verbrauch wäre auch nett. :biggrin:
Ja - wäre nett, aber ich nehme alles bis 420 Watt gerne.
mboeller
2020-09-09, 13:45:14
Einkäufer bei einem Boardpartner
Boardpartner? Ich hätte auf einen Notebook-Hersteller getippt, da er anscheinend über die Mobile-GPUs wesentlich mehr weiß als über die Desktop-Karten. Die Mobile-GPUs scheinen ihn auch massiv beeindruckt zu haben.
gbm31
2020-09-09, 13:47:13
blabla
Zu dem "Wieso": Weil ich es kann und weil ich es will.
Dann kauf' und heul nicht.
Hisn hat seine schon bestellt.
nonharderware
2020-09-09, 13:48:55
Dann kauf' und heul nicht.
Hisn hat seine schon bestellt.
Wieso denkst du, dass ich heule?
Machst du dir etwa Sorgen um mich? Das ist sehr nett von dir, aber wirklich nicht notwendig.
LasterCluster
2020-09-09, 13:54:52
Ich würde mich freuen, wenn Big Navi der 3090 Konkurrenz macht und man dies bitte auch vor dem 24. September klarstellen könnte; dann hätte ich wenigstens die Wahl.
Der Preispunkt der 3090 sagt doch ganz klar, dass sie konkurrenzlos bleiben wird. Der Preispunkt der 3080, dass es Konkurrenz geben wird. MMn ist das alles keine (Pseudo)-Wissenschaft mehr. Big Navi wird knapp hinter der 3080 landen. Dafür hat Nvidia die 300+ Watt mobilisiert.
nonharderware
2020-09-09, 13:56:59
Der Preispunkt der 3090 sagt doch ganz klar, dass sie konkurrenzlos bleiben wird. Der Preispunkt der 3080, dass es Konkurrenz geben wird. MMn ist das alles keine (Pseudo)-Wissenschaft mehr. Big Navi wird knapp hinter der 3080 landen. Dafür hat Nvidia die 300+ Watt mobilisiert.
Ich gebe die Hoffnung noch nicht auf, dass Big Navi besser abschneidet...
LasterCluster
2020-09-09, 14:08:28
Ich gebe die Hoffnung noch nicht auf, dass Big Navi besser abschneidet...
Dann müsste AMD einen unglaublichen Stunt hingelegt haben. Was die Leute für BN gehalten haben war nur N22 und N21 kommt mit ~100CU und HBM. Möglich wärs theoretisch, aber im Grunde wohl nur n feuchter roter Traum.
Palpatin
2020-09-09, 14:27:20
Ganz ehrlich, im Schnitt so 5-10 % unter 3080, teils gleich auf, bei besserer Perf/Watt und 16GB wäre mir bis ca. 800€ Wert, wenn RT Leistung passt.
Daredevil
2020-09-09, 14:28:33
Ganz ehrlich, im Schnitt so 5-10 % unter 3080, teils gleich auf, bei besserer Perf/Watt und 16GB wäre mir bis ca. 800€ Wert, wenn RT Leistung passt.
Dann kannste auch das Power Limit auf 90% senken, haste das gleiche :C
Brillus
2020-09-09, 14:32:41
Dann kannste auch das Power Limit auf 90% senken, haste das gleiche :C
Keine 16GB
Der Preispunkt der 3090 sagt doch ganz klar, dass sie konkurrenzlos bleiben wird. Der Preispunkt der 3080, dass es Konkurrenz geben wird. MMn ist das alles keine (Pseudo)-Wissenschaft mehr. Big Navi wird knapp hinter der 3080 landen. Dafür hat Nvidia die 300+ Watt mobilisiert.
Nicht, wenn NV lediglich um die scheinbare Performance von N22 wusste.
Zudem spricht AMD vom Enthusiast-Segment, was ne 3080 für mich nicht ist!
Egal wie es kommt, es wird Zeit, dass AMD die Hosen wenigstens teilweise runterlässt.
Adam D.
2020-09-09, 15:31:35
Nicht, wenn NV lediglich um die scheinbare Performance von N22 wusste.
Zudem spricht AMD vom Enthusiast-Segment, was ne 3080 für mich nicht ist!
Egal wie es kommt, es wird Zeit, dass AMD die Hosen wenigstens teilweise runterlässt.
Von Enthusiast hat AMD AFAIK nie gesprochen, sondern in die Richtung von "disrupt the 4k gaming segment." Das kann alles Mögliche heißen. Wenn NV die 3090 mit 8K bewirbt, lässt das ja durchaus die Interpretation zu, dass man die 3080 anpeilt.
Berniyh
2020-09-09, 16:00:38
Ich kann ja sehr gut verstehen, dass man gerne zu den Features, Ausstattung etc. der kommenden Grafikkarten diskutiert, aber sich seitenlang über die mutmaßliche Performance verschiedener Grafikkarten zu unterhalten, wenn es dazu keine Belastbaren Daten gibt (auf Navi-Seite sogar gar keine) ist doch irgendwie müßig und im Grunde Zeitverschwendung.
Festhalten kann man da höchstens, dass Nvidia offensichtlich nicht glaubt, dass Big Navi sich mit der 3090 anlegen kann, sonst gäbe es kein so großes Gap im Preis zwischen der 3080 und 3090.
Wer also unbedingt die schnellste Karte haben will, koste es was es wolle, der soll sich die 3090 kaufen und gut ist …
Ehrlich gesagt gibt es aber eine Sache die Nvidia implementiert hat und die mich persönlich mehr interessiert als ob Big Navi nun X% schneller ist als eine 3080 oder nicht und zwar AV1 Decoding.
Ich hoffe mal, dass AMD das ebenfalls umsetzt, wäre in meinen Augen ein wichtiger Schritt, da der Codec in Zukunft immer häufiger eingesetzt werden wird (auf Youtube z.B. auch jetzt schon).
Aber ok, das scheint auch wieder nur mich zu interessieren. Oder zumindest diskutiert da sonst niemand drüber …
Naja morgen gibt es hoffentlich was Handfestes, bis dahin hat sich jeder prognostisch ausgetobt.
r3ptil3
2020-09-09, 16:12:48
Wenn AMD versprochen hat dass das Halo-Produkt noch vor den Konsolen rauskommt, dann müsste diese doch im Oktober rauskommen oder irre ich mich da?
unl34shed
2020-09-09, 16:13:01
Festhalten kann man da höchstens, dass Nvidia offensichtlich nicht glaubt, dass Big Navi sich mit der 3090 anlegen kann, sonst gäbe es kein so großes Gap im Preis zwischen der 3080 und 3090.
Wer also unbedingt die schnellste Karte haben will, koste es was es wolle, der soll sich die 3090 kaufen und gut ist …
Selbst dagegen könnte man argumentieren, dass es keine Titan oder 3080Ti mehr ist, wobei das auch an den fehlenden 2GB GDDR6X Chips liegen kann.
Berniyh
2020-09-09, 16:13:19
Wenn AMD versprochen hat dass das Halo-Produkt noch vor den Konsolen rauskommt
Hat AMD das?
r3ptil3
2020-09-09, 16:18:16
Hat AMD das?
Ja:
"AMDs CFO hat bestätigt, dass die neuen Radeons auf Basis von RDNA 2 noch vor den neuen Konsolen kommen werden."
https://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Big-Navi-Neue-Radeons-mit-RDNA-2-kommen-vor-den-Konsolen-1351508/
w0mbat
2020-09-09, 16:23:06
Kommt jetzt heute noch was, oder war das wieder eine Finte a la "poor Volta"?
r3ptil3
2020-09-09, 16:24:51
Kommt jetzt heute noch was, oder war das wieder eine Finte a la "poor Volta"?
Der lächerliche Tweet schlägt halt Wellen, aber ich lese da nichts von Big Navi.
Eher denke ich kommt was zu den Konsolen, aber lasse mich gerne überraschen.
Linmoum
2020-09-09, 16:25:03
Kommt jetzt heute noch was, oder war das wieder eine Finte a la "poor Volta"?Es ist 7:25 Uhr in Kalifornien. Morgens.
nairune
2020-09-09, 16:25:06
In Kalifornien isses früh morgens...
dargo
2020-09-09, 16:26:55
Diese Ungeduld mancher ist echt krankhaft.
Der_Korken
2020-09-09, 16:29:46
Wahrscheinlich ist diese tolle Ankündigung eh nur irgendein nichtssagender Teaser oder die nächste kryptische, verstecke Botschaft ;D
w0mbat
2020-09-09, 16:30:14
Die NDAs fallen trotzdem meist um 15 Uhr deutscher Zeit, ich finde die Reaktionen auf meine Frage eher krankhaft.
Die NDAs fallen trotzdem meist um 15 Uhr deutscher Zeit
Dann hätte es Leaks gegeben. Wenn überhaupt kommt nur was von AMD direkt. Ich erwarte da aber wenig konkretes...
dildo4u
2020-09-09, 16:33:04
XBox ist eine größere Sache in den USA das könnte das Gehypte sein.
Linmoum
2020-09-09, 16:40:33
Die NDAs fallen trotzdem meist um 15 Uhr deutscher Zeit, ich finde die Reaktionen auf meine Frage eher krankhaft.Und NDAs gibt es immer und überall? Für NV Vorstellung am 01.09. gab es auch keines. Einfach, weil sie vorher nichts rausgerückt haben. Ganz normal.
Davon ab war deine Frage jetzt auch... Naja. Einfach mal Urzeiten im Hinterkopf behalten, bevor man mit irgendwelchem Uralt-Raja-Marketing pöbelt.
XBox ist eine größere Sache in den USA das könnte das Gehypte sein.
Höchstwahrscheinlich - und durch bewusst vage gehaltene Tweets Navi nochmal ins Gespräch gebracht
davidzo
2020-09-09, 16:46:43
XBox ist eine größere Sache in den USA das könnte das Gehypte sein.
Halte das auch für sehr wahrscheinlich dass er die XBSS meinte. Er ist ja VO of "Gaming", da fällt das semi custom gaming wohl auch noch ein bisschen in seinen Bereich.
Eine echte Ankündigung des RDNA2 Launchevents wäre nicht so flapsig um 2:00 Nachts über die Lippen gekommen.
Nee, scheiß auf die Xbox. :D
Vorstellung in den nächsten 24 Stunden per Video, Tests der Reviewer Ende September, Karten im Oktober. Warum nicht.
AMD wird vor dem 14./17. vorstellen. Alles andere wäre marketingtechnisch sau dumm.
Linmoum
2020-09-09, 16:51:02
Xbox ist Microsoft und nicht AMD, das hat dahingehend Null miteinander zu tun. MS informiert AMD doch nicht darüber, wann sie irgendwelche Infos zu ihrer Konsole bekanntgeben.
Genauso wenig wird man umfassende Specs bekommen. Aber man kann ja auch anderes anteasern.
Complicated
2020-09-09, 16:55:13
Kommt jetzt heute noch was, oder war das wieder eine Finte a la "poor Volta"?
Das kommt daher, wenn ein Songtext wörtlich übersetzt wird. "Tomorrow" ist in dem Song sinnbildlich "in Zukunft" und nicht "morgen".
"World of tomorrow" als Film z.B
Ein in US jedem bekannter Song aus dem Musical "Annie"
https://www.youtube.com/watch?v=5PzL8aL6jtI
Ein Meme....
Er schrieb:
"The sun'll come out
Tomorrow
So ya gotta hang on
'Til tomorrow
Come what may
Tomorrow, tomorrow!
I love ya tomorrow!
You're always
A day
Away!"
Die Zukunft ist immer einen Tag entfernt
Wer sich so alles trollen lässt ;)
DrFreaK666
2020-09-09, 17:03:10
Wenn AMD versprochen hat dass das Halo-Produkt noch vor den Konsolen rauskommt, dann müsste diese doch im Oktober rauskommen oder irre ich mich da?
Nicht unbedingt. Wenn die Konsolen frühestens am 10.11 erscheinen, dann ist der 9.11 auch davor ;)
Nun ja, wenn du glaubst das der Chief Architect of Gaming Solutions & Marketing at @AMD abends einfach so einen Hirnfurz ablässt um zu trollen...
Junge, Junge...
Complicated
2020-09-09, 17:07:17
Ja:
"AMDs CFO hat bestätigt, dass die neuen Radeons auf Basis von RDNA 2 noch vor den neuen Konsolen kommen werden."
https://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Big-Navi-Neue-Radeons-mit-RDNA-2-kommen-vor-den-Konsolen-1351508/
https://www.windowscentral.com/xbox-series-x-and-xbox-series-s-release-date-and-price-finally-revealed
Microsoft has officially confirmed (https://www.youtube.com/watch?v=KHLfCFMKxPg&ab_channel=Xbox) our November 10, 2020 launch date at the end of the Xbox Series S launch trailer, which you can view below.
Microsoft has officially confirmed (https://www.windowscentral.com/xbox-series-x-xbox-series-s-preorders-september-22) our previous leak on the Xbox Series X price, clocking in at $499. Additionally, pre-orders will open on September 22, ahead of the November 10 launch.
Und auch hier haben wir nun eine weitere Eingrenzung, offizieller Relesetermin der Xbox S:
https://www.youtube.com/watch?v=KHLfCFMKxPg&ab_channel=Xbox
Die Vorstellung der Xbox wird am 22.09 stattfinden.
Also wird Big Navi zwischen 22.09. und 10.11 erscheinen. Möglicherweise noch vor dem 22.09. angekündigt, was wohl direkt in die Nähe der RTX 3xxx Launchtermine rücken wird am 17.09-24.09
AMD schickt die Konsolen ins Rennen anstatt Big Navi um die Presseaufmerksamkeit zu belegen.
Was sehe ich denn da in meinem Postfach :tongue:
Heute morgen btw, passend zum Tweet.
Complicated
2020-09-09, 17:09:17
Nun ja, wenn du glaubst das der Chief Architect of Gaming Solutions & Marketing at @AMD abends einfach so einen Hirnfurz ablässt um zu trollen...
Junge, Junge...
Der Xbox-Launchtermin wurde bekannt gegeben....
w0mbat
2020-09-09, 17:10:15
Was sehe ich denn da in meinem Postfach :tongue:
Hallo, I bims, dein Bruder AMD.
Heute morgen btw, passend zum Tweet.
Eine RTX? Das war die Antwort auf die Frage, wie AMD an Nvidia GPUs kommt. Nämlich so wie y33h@
Ist der fürs Microsoft Marketing zuständig? Konsolen gegen Nvidia, ja genau. Hör dich mal um hier wieviel eine Konsole und keine neue GPU kaufen werden.
Eine RTX? Das war die Antwort auf die Frage, wie AMD an Nvidia GPUs kommt. Nämlich so wie y33h@
Nee, das war auf den Tweet und AMD bezogen. Schön subtil. Da wette ich ne Tüte Gummibärchen! *nomnom*
Linmoum
2020-09-09, 17:13:20
Der Xbox-Launchtermin wurde bekannt gegeben....Ja, und das weiß er genau woher, wann Microsoft das offiziell verkündet? Das ist Microsofts Ding genau wie das von Sony. AMD hat damit rein gar nichts zu tun.
Ist der fürs Microsoft Marketing zuständig?
Das ist nicht irgendeine Kiddiekonsole die da kommt. Das ist AMDs Einstieg in Raytracing für die große Masse. Und mit dem aggressiven Pricing der S Konsole in die wirklich große Masse. Quasi aus dem Stand, während Nvidias RTX eher kein Massenprodukt war.
monitorhero
2020-09-09, 17:16:41
Ui bei dem Preis spekuliere ich, dass Microsoft den Preis unter die PS5 gedrückt hat, auch wenn sie dabei Verluste machen. Es wurde ja 599$ spekuliert. Bei der verbauten Hardware müssen sie das Geld woanders wieder reinholen. Riskant, da Xbox selten mit Exklusivtiteln glänzen kann im Vergleich zu Sony.
[MK2]Mythos
2020-09-09, 17:19:16
Also ich halte es auch für möglich dass es um die XBOX ging. Aber das wäre wirklich ein extremst dummer PR-Stunt und würde zurecht wieder negative Presse erzeugen. Eigentlich schätze ich AMDs Marketingabteilung nach Rajas Abgang schlauer ein.
Complicated
2020-09-09, 17:19:20
Ja, und das weiß er genau woher, wann Microsoft das offiziell verkündet? Das ist Microsofts Ding genau wie das von Sony. AMD hat damit rein gar nichts zu tun.
Das ist jetzt nicht dein Ernst , oder? ;D
https://www.golem.de/news/frank-azor-alienware-chef-wechselt-nach-21-jahren-zu-amd-1907-142580.html
Bei AMD ist Azor dem ebenfalls neu ernannten Chef im Bereich Computing and Graphics Business Group Dr. Sandeep Chennakeshu (https://www.amd.com/en/corporate/leadership-sandeep-chennakeshu) unterstellt. Als Chief Architect of Gaming Solutions wird er wohl vermutlich die Gaming-Strategie und Produktauslegung von AMD und Partnerschaften mit OEMs - etwa auch Alienware - beeinflussen. Ganz klar ist seine Rolle allerdings noch nicht definiert worden.
Das ist nicht irgendeine Kiddiekonsole die da kommt. Das ist AMDs Einstieg in Raytracing für die große Masse. Und mit dem aggressiven Pricing der S Konsole in die wirklich große Masse. Quasi aus dem Stand, während Nvidias RTX eher kein Massenprodukt war.
Und wen interessiert das im Desktopbereich, in einem Enthusiastenforum? Richtig, niemanden.
Sehe immer noch nicht warum AMD da Werbung machen sollte, wenn bei ihnen selbst der wichtigste GPU Start seit ~zehn Jahren ansteht.
Natürlich kann ich mich irren, aber AMD muss vorm 17. vorstellen.
Linmoum
2020-09-09, 17:26:45
Das ist jetzt nicht dein Ernst , oder? ;D
https://www.golem.de/news/frank-azor-alienware-chef-wechselt-nach-21-jahren-zu-amd-1907-142580.htmlNichtssagender Link. Wer glaubt, dass MS und Sony AMD jeden Tag stecken, an denne sie irgendwas bekanntgeben... Gibt's so viel Naivität überhaupt?
[MK2]Mythos
2020-09-09, 17:27:08
Und wen interessiert das im Desktopbereich, in einem Enthusiastenforum? Richtig, niemanden.
Sehe immer noch nicht warum AMD da Werbung machen sollte, wenn bei ihnen selbst der wichtigste GPU Start seit ~zehn Jahren ansteht.
Natürlich kann ich mich irren, aber AMD muss vorm 17. vorstellen.
Eben. Und einen solchen kündigt man doch etwas eher an, damit sich die entsprechenden Zielgruppen den Termin freihalten und mithypen können. So ein Event kündigt man doch nicht am vorherigen Abend an, oder?
Nach der anfänglichen Freude und dem Reveal der Xbox Erscheinung heute, bin ich jedenfalls ziemlich skeptisch.
Von Enthusiast hat AMD AFAIK nie gesprochen, sondern in die Richtung von "disrupt the 4k gaming segment." Das kann alles Mögliche heißen. Wenn NV die 3090 mit 8K bewirbt, lässt das ja durchaus die Interpretation zu, dass man die 3080 anpeilt.
Ach ja? https://www.google.de/amp/s/wccftech.com/amd-radeon-rx-big-navi-enthusiast-graphics-card-16-gb-vram-q4-2020-launch-rumor/amp/
Zumal, was sind denn 8k bei NV wert? DLSS ahoi
Complicated
2020-09-09, 17:28:50
Nichtssagender Link. Wer glaubt, dass MS und Sony AMD jeden Tag stecken, an denne sie irgendwas bekanntgeben... Gibt's so viel Naivität überhaupt?
Also dass AMD nicht über den Launchtermin informiert ist als Hersteller des SoCs glaubst du doch selber nicht. Muss ich dir jetzt erklären was ein Koordinator für OEMs macht? Ich kann dir versprechen der hat eine Einladung bekommen die nicht 5 min. zuvor verschickt wurde als Tweet.
DrFreaK666
2020-09-09, 17:38:30
Ist der fürs Microsoft Marketing zuständig? Konsolen gegen Nvidia, ja genau. Hör dich mal um hier wieviel eine Konsole und keine neue GPU kaufen werden...
Hör dich mal um wieviele Weltweit eine Konsole kaufen werden und keine GPU.
Der Tweet war nicht für das 3DC-Forum ;)
Mythos;12419584']Eben. Und einen solchen kündigt man doch etwas eher an, damit sich die entsprechenden Zielgruppen den Termin freihalten und mithypen können. So ein Event kündigt man doch nicht am vorherigen Abend an, oder?
Wie war das mit Nvidias Präsentation? Die wurde doch auch nicht Ewigkeiten vorher angekündigt, oder? Ich meine da gabs auch mehr Gerüchte. Korrigier mich gerne.
Ich sage ja nur, AMD wird vorstellen, demnächst. Wenn man es nicht wörtlich nehmen möchte. Das Fortnite AMD Easter Egg, angeblich soll es noch etwas geben, was noch nicht gefunden wurde. Spricht alles für eine baldige Vorstellung.
Hör dich mal um wieviele Weltweit eine Konsole kaufen werden und keine GPU.
Der Tweet war nicht für das 3DC-Forum ;)
Ich gebs auf, glaubt gerne weiter, das AMDs Marketing Mensch Konsolenwerbung macht.
Complicated
2020-09-09, 17:40:57
Es geht nur darum die Presse mit RDNA2 zu beschäftigen im Zuge der ganzen Deepdives der Konsolen.
Wie war das mit Nvidias Präsentation? Die wurde doch auch nicht Ewigkeiten vorher angekündigt, oder? Ich meine da gabs auch mehr Gerüchte. Korrigier mich gerne.Nvidia hat 21 Tage zuvor die Ankündigung geteasert.
Ich sage ja nur, AMD wird vorstellen, demnächst. Wenn man ea nicht wörtlich nehmen möchte. Das Fortnite AMD Easter Egg, angebluch soll es noch etwas geben, was noch nicht gefunden wurde. Spricht alles für eine baldige Vorstellung.Ich werte das mal als zurückrudern :-)
Nvidia hat 21 Tage zuvor die Ankündigung geteasert.
Ich werte das mal als zurückrudern :-)
Danke, nunja Nvidia hat damit praktisch den Zeitrahmen vorgegeben.
Ich bleibe dabei, AMD stellt vor dem 17. vor. Alles andere wäre Blödsinn. Vielleicht wartet man bis zum 14. und kann dann mit den 3000ern vergleichen.
Ich bleibe dabei, AMD stellt vor dem 17. vor. Alles andere wäre Blödsinn. Vielleicht wartet man bis zum 14. und kann dann mit den 3000ern vergleichen.Ich glaube auch, dass vorher was kommt. Nur eben nicht heute bzw. morgen. Und falls doch, freue ich mich umso mehr :-)
DrFreaK666
2020-09-09, 17:54:26
...Ich gebs auf, glaubt gerne weiter, das AMDs Marketing Mensch Konsolenwerbung macht.
Verdient AMD kein Geld mit den Konsolen? Je mehr verkauft werden, desto mehr verdient AMD.
Kann natürlich auch sein dass MS rein zufällig heute den Preis bekanntgegeben hat
Adam D.
2020-09-09, 18:03:53
Ach ja? https://www.google.de/amp/s/wccftech.com/amd-radeon-rx-big-navi-enthusiast-graphics-card-16-gb-vram-q4-2020-launch-rumor/amp/
Zumal, was sind denn 8k bei NV wert? DLSS ahoi
In dem Link steht nicht eine einzige offizielle Aussage von AMD drin. Was soll ich damit jetzt anfangen?
Das ist genau das Problem, die Leute saugen sich jetzt schon wieder irgendein Zeugs aus den Fingern, um an Ende ihre Enttäuschung schon fein auszubreiten. Wer glaubt, dass AMD jetzt mal eben so einen Konkurrenten zur 3090 hervorzaubert, wird genau das sein: enttäuscht.
BoMbY
2020-09-09, 18:05:38
Es könnte auf jeden Fall nicht schaden jetzt mal einen ordentlichen Teaser mit ein paar Eckwerten rauszuhauen (CUs, TDP, etc.).
mironicus
2020-09-09, 18:07:56
Bin gespannt ob Lisa Su auch eine Lederjacke trägt. Das wäre imho ihr Job die neuen Karten vorzustellen.
@Adam
Kann es sein, dass du der englischen Sprache nicht mächtig bist?
Die Aussage kam von David Kumar (CFO AMD) selbst.
Zumal wenn se die 52CU-GPU mit 150W bereits als 4K bezeichnen?! Wenn es das Ding als Grafikkarte geben würde, dann wäre sie selbst unter Windows nicht sehr weit von ner 2080Ti entfernt, wenn überhaupt
Troyan
2020-09-09, 18:09:18
28. Oktober: https://twitter.com/Radeon/status/1303726639013036033?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1303726 639013036033%7Ctwgr%5Eshare_3&ref_url=https%3A%2F%2Fs9e.github.io%2Fiframe%2F2%2Ftwitter.min.html1303726639013 036033
Birdman
2020-09-09, 18:09:54
Ich bleibe dabei, AMD stellt vor dem 17. vor. Alles andere wäre Blödsinn. Vielleicht wartet man bis zum 14. und kann dann mit den 3000ern vergleichen.
Was sollte man da vergleichen können? :confused:
Am 17. kommen handfeste Tests von sich im Verkauf befindlichen GPUs der Firma nVidia.
Was soll da irgendeine Ankündigung von AMD bzgl. einem hypotetischen Produkt der Zukunft also bewirken oder verändern?
Die Tester hätten trotzdem nichts reelles zu vergleichen und damit würde es für diese auch keinen Sinn machen, BN überhaupt zu erwähnen oder irgendwie zu berücksichtigen.
Wenn, dann müsste AMD jetzt die Infos raushauen und man könnte so dann Marketinggeblubber und Hochstaplerei gegen Marketinggeblubber und Hochstaplerei vergleichen.
mironicus
2020-09-09, 18:13:40
28.10.2020 RDNA2
https://twitter.com/AMDGaming/status/1303726683976069123
Complicated
2020-09-09, 18:13:45
RDNA2 als Brand für alle AMD-Radeon-Produkte im Vordergrund. Die Launchtermine und Release Dates sind ab dem 28.09. bis Jahresende voll mit AMD-Produktlaunches. Da kommt auch noch Zen3.
Zen 3 Infos am 8.10.2020.
https://twitter.com/AMDGaming/status/1303726683976069123
Antwort an @Radeon
October 28? If I don’t learn more by September 17 I won’t bother learning about it at all
Adam Gray @AdamGray_95
Yep
Argh, der Kommentar zum Tweet trifft den Nagel auf den Kopf. Keine Info vor dem 17. ist nicht gut.
Korvaun
2020-09-09, 18:19:49
Hmmm.. 8.10. ZEN3 Vorstellung, 28.10. RDNA2 Vorstellung... kommt mir sehr spät vor... anders herum wäre es besser ;)
So kann nV gemütlich über 1 Monat RTX3k unangefochten verkaufen. Da werden wohl einige nicht so lange auf Infos warten können...
[MK2]Mythos
2020-09-09, 18:20:11
28. Oktober: https://twitter.com/Radeon/status/1303726639013036033?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1303726 639013036033%7Ctwgr%5Eshare_3&ref_url=https%3A%2F%2Fs9e.github.io%2Fiframe%2F2%2Ftwitter.min.html1303726639013 036033
Wie befürchtet. Ziemlicher fail.
28. Oktober: https://twitter.com/Radeon/status/1303726639013036033?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1303726 639013036033%7Ctwgr%5Eshare_3&ref_url=https%3A%2F%2Fs9e.github.io%2Fiframe%2F2%2Ftwitter.min.html1303726639013 036033
Das ist enttäuschend
dildo4u
2020-09-09, 18:23:41
Ist doch gut dann müssen sie direkt gegen Ampere Benchen.
Complicated
2020-09-09, 18:24:25
Ja weil AMD lieber 1000 Big Navi verkauft als 1 Mio Konsolen in den 4 Wochen. Also manch einer hat wirklich Scheuklappen auf. (PS4 verkauft sich 2 Mio. mal im Monat zum Ende des Zyklus und die PS5 wird auch noch vor Big Navi kommen)
AlterSack
2020-09-09, 18:26:49
https://flic.kr/s/aHsmNXw5HG
Was zeigen die Bilder? ..NV-Firmenzentrale? :lol:
Was sollte man da vergleichen können? :confused:
Am 17. kommen handfeste Tests von sich im Verkauf befindlichen GPUs der Firma nVidia.
Was soll da irgendeine Ankündigung von AMD bzgl. einem hypotetischen Produkt der Zukunft also bewirken oder verändern?
Die Tester hätten trotzdem nichts reelles zu vergleichen und damit würde es für diese auch keinen Sinn machen, BN überhaupt zu erwähnen oder irgendwie zu berücksichtigen.
Wenn, dann müsste AMD jetzt die Infos raushauen und man könnte so dann Marketinggeblubber und Hochstaplerei gegen Marketinggeblubber und Hochstaplerei vergleichen.
Am 14. kommen die Tests zur 3080, 3090. Damit hätte AMD ein paar Tage um die eigenen Produkte im Vergleich zuteasern. Was wäre daran Hochstapelei?
Hat sich nun aber erledigt.
Ja weil AMD lieber 1000 Big Navi verkauft als 1 Mio Konsolen in den 4 Wochen. Also manch einer hat wirklich Scheuklappen auf. (PS4 verkauft sich 2 Mio. mal im Monat zum Ende des Zyklus und die PS5 wird auch noch vor Big Navi kommen)
Sehe ich ähnlich: Die versauen sich das ganze Geschäft. Dann weiß ich glaub was morgen kommt, nämlich dass jede 5600XT mit 14g Vram rauskommt. Die Mail habe ich nämlich heute erhalten
mironicus
2020-09-09, 18:32:33
https://twitter.com/i/status/1303726639013036033
Kleiner Trailer. Offiziell wird das die RX6000-Reihe.
Ja weil AMD lieber 1000 Big Navi verkauft als 1 Mio Konsolen in den 4 Wochen. Also manch einer hat wirklich Scheuklappen auf. (PS4 verkauft sich 2 Mio. mal im Monat zum Ende des Zyklus und die PS5 wird auch noch vor Big Navi kommen)
Die Konsolen kommen im November raus, am 10. und evtl. 13., was will man da vorher verkaufen?!?
Jetzt einen Teaser und der ein oder andere kauft evtl. doch keine Nvidia. Die Chance lässt man komplett ungenutzt. Wenn sich AMD das leisten kann...
Und zum drölften Mal, BN soll vor den Konsolen kommen.
w0mbat
2020-09-09, 18:33:37
Geil, genau das was wir hören wollten! Es wird ein heißer Oktober :D
Totale AMD Dominanz?
A new era of leadership performance across computing and graphics is coming. Join us on October 8 and October 28 to learn more about the big things on the horizon for PC gaming.
Damit sollte klar sein, dass eine 3090 keine Chance hat!
unl34shed
2020-09-09, 18:35:13
Jetzt einen Teaser und der ein oder andere kauft evtl. doch keine Nvidia. Die Chance lässt man komplett ungenutzt. Wenn sich AMD das leisten kann...
Ist ja nicht so, dass jetzt vor dem 28. nicht doch noch etwas aus versehen in einer Benchmark Datenbank auftauchen kann.
Complicated
2020-09-09, 18:37:54
Dann weiß ich glaub was morgen kommt, nämlich dass jede 5600XT mit 14g Vram rauskommt. Die Mail habe ich nämlich heute erhalten
Oh man..die gibt es schon lange. Du hast die Händler Email, die als letzte Infos erhalten voller Verkaufsmarketing. Wie jeder Mediamarktverkäufer. Google mal "5600XT mit 14g" und findest die Karten überall zu kaufen
Ist ja nicht so, dass jetzt vor dem 28. nicht doch noch etwas aus versehen in einer Benchmark Datenbank auftauchen kann.
Na klar, ich hätte es trotzdem anders gemacht. Für mich wirkt das jetzt zweierlei, entweder hat AMD dick was in der Hose und scheißt komplett auf Nvidia - oder man zieht den Zen 3 Launch vor, damit dieser den RDNA2 Launch positiv überstrahlt.
Es bleibt spannend.
Oh man..die gibt es schon lange. Du hast die Händler Email, die als letzte Infos erhalten voller Verkaufsmarketing. Wie jeder Mediamarktverkäufer. Google mal "5600XT mit 14g" und findest die Karten überall zu kaufen
Die kam von AMD direkt
r3ptil3
2020-09-09, 18:41:29
Keine Infos, keine Vorschau, noch sonst was vor dem Release der Nv 30xx Serie.
Schade, dann wird defintiv eine 3080 geholt.
Eine kurzes Preview mit ein paar 3D Mark Werten usw. wäre das was ich erhofft habe.
Weiss nicht was die sich dabei denken. Die Performance von Big Navi wird ja auch im Oktober gleich sein. In dem Fall aber nichts da, was man gerne jetzt schon den Kunden zeigen möchte.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.