PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 22. Oktober 2020


Leonidas
2020-10-23, 09:58:55
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-22-oktober-2020

Iscaran
2020-10-23, 10:46:04
Ein Twitter-Posting von Patrick Schur bringt ein wenig Klarheit in der Frage der Taktraten der kommenden Navi-21-Karten, wo bislang von unter 2 GHz auf bis zu 2.4 GHz eine ziemlich breite Spanne an möglichen Taktraten in der Gerücheküche steht. Laut dem Tweet sollen die meisten Hersteller-Karten bei einem real erreichten Takt unter Spielen von rund um 2.2 GHz herauskommen, einige Karten dann 2.3 GHz erreichen und die stark werksübertakteten Modelle sogar 2.4 GHz schaffen (wobei man den originalen Wortlaut auch als "manuell übertakteten Herstellerkarten" auslegen könnte).

Im Spekuthread hat doch Patrick genauer eingegrenzt, daß er mit den 2.2, 2.3, 2.4 GHz jeweils die typischen "GameClocks" meint und nicht die maximum Boost clock der bei den Customs wohl bis 2577 MHz definiert ist - aber eben auch nicht mehr erreicht wird (bei Last).

Gast
2020-10-23, 11:14:09
Wie oft eigentlich noch, Navi21 XT ist nicht zwischen 3080 und 3070 sondern 3090 und 3080 (rasterization). Somit würde eine 3075 die Navi21XL kontern.
Es sollte doch an dieser Stelle klar sein welchen Quellen man trauen kann und welchen nicht. Auch > 300Watt verbrauch fürs Referenz Design der 6800XT sind Murks. Denkt doch einfach mal logisch mit. Ampere ist bei weitem nicht so ein guter Wurf wie es gerne dargestellt wird, wenn man bedenkt das der größte Die sich gerade mal um 30% vom TU102 absetzten kann.

Grafikspachtel
2020-10-23, 11:19:40
Wieso zweifeln alle die Taktraten an, wenn die nächste Playstation die auch hinbekommt? -> 36 CU RDNA2 @ ≤2.23 GHz (≤10,3 TFlops)
Bei Vega war bei 1500MHz Schluss.
AMD hinkte die ganze Zeit beim Takt hinterher.
RDNA1 schaffte immerhin 1800MHz.

Pascal und Turing waren schon lange dort und ließen sich auch an die 2GHz-Grenze prügeln.

JVC
2020-10-23, 11:24:27
"You will definitely have fun with these Cards."
:up: freu mich darauf :smile:

M.f.G. JVC

Gast
2020-10-23, 13:03:56
Im Zusammenhang mit der aktuellen Lieferschwäche der Ampere-Grafikkarte ergibt sich vielleicht ein Ansatz darüber, wenn man hierzu den GDDR6X-Speicher von GeForce RTX 3080 & 3090 als Übeltäter klassifiziert

Nicht nur.

Wen die Ausbeute vom GA102 selbst für die 3800 zu schlecht ist, macht eine weitere abgespeckte Karte genauso sinn.

Tigerfox
2020-10-23, 14:50:22
Also eine GA102-Variante mit 52 SM und 320Bit ist ja mal gerade so minimal wie möglich über einem GA104-Vollausbau (48 SM und 256Bit), dass es für NV wirtschaftlich ziemlich übel ist. 4 SM machen normalerweise so gut wie garnichts aus, dass hätte man auch mit etwas höherem Takt kompensieren können, der beim GA104 ggü dem fetten GA102 eigentlich möglich sein sollte.

10GB dürften gesetzt sein, wenn man schon die 3080 20GB streicht. Es würde eigentlich keinen Sinn machen, nicht auf GDDR6X zu setzen, weil man sonst auch wirklich einen deutlich günstigeren GA104 mit ähnlicher Speicherbandbreite hätte nehmen können (256Bit hat mit 17,5GHz soviel wie 320Bit mit 14Ghz, bzw. mit 20GHz soviel wie mit 16GHz). Oder ist GDDR6X so teuer, dass ein GA102 mit GDDR6 billiger ist als ein G104 mit GDDR6X?

Immerhin kann NV diese Karte vielleicht auf den günstigen GA103 umstellen, wenn der verfügbar ist. In jedem Fall dürfte diese Karte, wenn das Gerücht zutrifft, zeigen, dass BigNavi NV irgendwo kalt erwischt hat und nach den geleakten Benchmarks nicht so, dass NV, wie damals bei der 1070Ti, nur mal eben ein weiteres Modell aus dem Ärmel schüttelt, um AMDs Topmodell zu düpieren, sondern um in den Preisbereichen darunter eine Antwort zu haben.

Es wird auf jeden Fall sehr interessant nächste Woche. Ich kann mir allerdings gut vorstellen, dass BigNavi für viele das bessere Gesamtpaket sein wird. Selbst wenn z.B. das Topmodell etwas teurer und schneller als eine 3080 10GB wäre, wie der geleakte 3D-Mark-Bench impliziert, wären für viele 16GB ein Argument, ebenso bei den nächstkleineren Varianten vs. GA102-150 und 3070. Da hat NV wohl die Kritik der Käufer schon in der letzten Generation zu sehr ignoriert.

Dass AMD es anscheinend irgendwie schafft, mit 256Bit und GDDR6 eine Performance zu erreichen, die 320Bit und GDDR6X überflügelt, finde ich sehr positiv, weil es eine Innovation ist, die ein aktuelles Problem sinnvoll angeht. Der Bedarf an Speicherbandbreite scheint schneller zu steigen als die Entwicklung nachkommt, obwohl man da bei NV ordentlich gegensteuert (seit Pascal jede Generation eine neue Art von Speicher, Topmodelle mit 320-352Bit). GDDR6X hat gezeigt, dass man da langsam an Grenzen stösst.

EDIT: OK, hatte mich verlesen, auf TPU steht was von 58 SM, das wäre dann natürlich schon einiges mehr, als der GA104 bieten (20% mehr!) kann und sicher mehr, als man über den Takt kompensieren kann. Wenn das Produkt GDDR6X hätte, wäre man aber genauso nah an der 3080, wie diese an der 3090 sitzt. Wäre ein guter Kauf, macht aber die 3070 uninteressanter (oder günstiger?).

Gast
2020-10-23, 16:26:47
Kleiner Fehler: GA1012 soll vermutlich GA102 sein ;)

MiamiNice
2020-10-23, 16:27:49
wären für viele 16GB ein Argument

Irgendwie bezweifel ich das wenn man sich die ganzen Boys anschaut die eine 10GB Krüppel Ampere Karte angeschafft haben. Dann noch ein Blick auf die Zahlen von z.b. Proshop, wie viele diesen Rotz kaufen ... Speicher scheint die Masse nicht zu jucken. Es muss nur NV auf der Packung stehen und es muss günstig sein.

Komische Welt :freak:

morbidmorgis
2020-10-23, 17:11:52
Spekulation: Eventuell beziehen sich die Angaben von VideoCardz und Coreteks auf die Referenzmodelle, während sich Patrick Schur ganz offensichtlich auf Karten von AIBs bezieht. Paul von RedGamingTech hatte ja bereits mal angedeutet, dass möglicherweise die Referenzkarten ein bisschen schwächer auftreten könnten um AIBs mit besseren OC-Möglichkeiten glücklich zu machen.

Ich könnte mir zumindest gut vorstellen, dass AIBs generell (bei NVIDIA wie auch bei AMD) in letzter Zeit unglücklich darüber sind, wenn ihre Karten nur so 3-5% schneller herauskommen als die Referenzmodelle. Vielleicht schenkt AMD ihnen ja mal Gehör.

iamthebear
2020-10-23, 20:59:46
Wie oft eigentlich noch, Navi21 XT ist nicht zwischen 3080 und 3070 sondern 3090 und 3080 (rasterization). Somit würde eine 3075 die Navi21XL kontern.
Es sollte doch an dieser Stelle klar sein welchen Quellen man trauen kann und welchen nicht. Auch > 300Watt verbrauch fürs Referenz Design der 6800XT sind Murks. Denkt doch einfach mal logisch mit. Ampere ist bei weitem nicht so ein guter Wurf wie es gerne dargestellt wird, wenn man bedenkt das der größte Die sich gerade mal um 30% vom TU102 absetzten kann.

Wo die neuen AMD Karten nun wirklich liegen weiß im Moment wohl nur AMD.

Mag sein, dass die AMD Karten in native 4K ein paar fps mehr zusammen bringen, dafür sind sie mit aktiviertem DLSS hoffnungslos hinten. Ausnahmen sind nur Frameraten über 120fps wo die Tensor Kerne nicht mehr mitkommen aber dort ist es sowieso schon egal.

Was den Energieverbrauch angeht:
Bitte nicht die Wattangaben von Nvidia mit denen von AMD vergleichen. Nvidia rechnet die ganze Karte, AMD nur GPU + Speicher zusammen. igor hat die geleaketen 250W mal grob hochgerechnet und kommt hier auch genauso auf 320W.

Die 3090 ist in den computerbase Benches 45% schneller als die 2080 Ti unter 4K obwohl sie nur 52% mehr Transistoren hat. Das skaliert doch ziemlich vernünftig.

Das Problem sind eigentlich nur die überzogenen Wunschvorstellungen einiger Käufer kombiniert mit den irreführenden nm Angaben der Fertiger.

Nicht nur.

Wen die Ausbeute vom GA102 selbst für die 3800 zu schlecht ist, macht eine weitere abgespeckte Karte genauso sinn.

Bei der 3080 liegen doch schon 20% brach. Ich glaube eher, dass sich langfristig eine Menge Chips sammeln wo weniger als 20% defekt sind weil so viele 3090 werden sich kaum verkaufen lassen.
Das ist ja kein experimentieller 5nm Prozess. Den 10nm Prozess von Samsung gibt es ja bereits seit Jahren. Die 8nm sind vergleich bar mit den 14nm++++++++ von Intel.

Wenn eine 3075 kommt, dann wird es vermutlich GA103 sein.
Es gibt aber Gerüchte, dass Nvidia die ganze 3000er Serie sowieso mit Ende des Jahres einstampft und in Q1 2021 mit TSMC 7nm neu auflegt (bedeutet ca. 65MTrans/mm² statt 45 also ein Half Node)

Irgendwie bezweifel ich das wenn man sich die ganzen Boys anschaut die eine 10GB Krüppel Ampere Karte angeschafft haben. Dann noch ein Blick auf die Zahlen von z.b. Proshop, wie viele diesen Rotz kaufen ... Speicher scheint die Masse nicht zu jucken. Es muss nur NV auf der Packung stehen und es muss günstig sein.

Komische Welt :freak:

Derzeit gibt es keine Spiele, die nennenswert von mehr als 10GB profitieren und das nichtmal auf Ultra Settings unter 4K. Klar wären 20GB (oder zumindest 16) nett aber wenn ich in 1-2 Jahren mal bei den Texturen von Ultra auf Sehr hoch zurückgehen muss ist das echt nicht das Ende der Welt.

Tigerfox
2020-10-23, 21:23:37
Wenn ich PCGH glauben darf, dann schalten bestimmte Spiele bei der 3080 einfach die Texturauflösung eine Stufe runter. Klar kann man so in Benchmarks keinen Nachteil mehr erkennen.

Ist auch logisch, dass es nicht mehr so läuft, dass bei zu wenig Speicher die framerate in unspielbare Bereiche abdriftet, sondern stattdessen eigenständig die Details reduziert werden. Die bisherigen 6GB-Karten hatten ja gegen die nächstschnellere 8GB-Karte auch in solchen Fällen immer nur einen deutlicheren Abstand als mit mäßigeren Settings, aber keinen Totalausfall.

6/8/11GB seit zwei Generationen, da kann ich mir ausrechnen, dass es nun in der dritten langsam zu wenig wird, v.a. wenn die neuen Konsolen die Latte wieder höher hängen. Bisher gab es immer alle zwei Generationen eine Erhöhung, früher sogar jede, zumindest bei einigen Modellen. 4GB hat sich nichtmal eine Generation als Standard gehalten, weil es davor schon zwei Generationen Option war.

Gast
2020-10-23, 21:42:54
Mag sein, dass die AMD Karten in native 4K ein paar fps mehr zusammen bringen, dafür sind sie mit aktiviertem DLSS hoffnungslos hinten. Ausnahmen sind nur Frameraten über 120fps wo die Tensor Kerne nicht mehr mitkommen aber dort ist es sowieso schon egal.

Nun mal ehrlich: wenn "Biggest"Navi in 4k und UltraSettings 60+ fps liefert... wen interessiert dann noch DLSS? Oder merkst du echt den Unterschied zwischen 75 und 85 fps? Merken, nicht messen, wohlgemerkt! :)


Was den Energieverbrauch angeht:
Bitte nicht die Wattangaben von Nvidia mit denen von AMD vergleichen. Nvidia rechnet die ganze Karte, AMD nur GPU + Speicher zusammen. igor hat die geleaketen 250W mal grob hochgerechnet und kommt hier auch genauso auf 320W.

Richtig. Und nun schaue ich mir eine 3080/10 an und dann den BiggestNavi/16, etwa gleiche Leistungsklasse und gleicher Wattage aber mit unterschiedlichem, sprich: zukunftsichererem Speicher, und dann wird AMD gekauft.

... aber wenn ich in 1-2 Jahren mal bei den Texturen von Ultra auf Sehr hoch zurückgehen muss ist das echt nicht das Ende der Welt.

Na wenn du das sagst... :)

Ferenzo
2020-10-24, 08:29:44
Ich freu mich wirklich auf den Schlagabtausch, AMD scheint immerhin mal nicht 30% von der Leistungspitze weg zu sein und schon kann Nvidia seine 80er Klasse nicht für 800 EUR an den Käufer bringen (die 20GB vielleicht?). Leider wird es wohl auch bei AMD am Anfang wieder leere Lager geben.
Irgendwie tun alle Hersteller immer total überrascht, wie viel die Kunden nun kaufen, in Wirklichkeit sind die wöchentlichen Produktionsmengen doch auf längere Sicht festgelegt und der Peak beim Start wird halt in Kauf genommen.
Presse ala keine Karte mehr auf Lager sehen einfach imposanter aus.

nonharderware
2020-10-24, 10:38:00
Hallo,

sagt mal hab ich etwas übersehen oder wurde diese Meldung von Igor bishger nicht erwähnt?


The large RX 6900XT will be AMD exclusive according to AMD's own statements ("This card will be (for now) AMD exclusive. #amd #bignavi #leak #navi #navi21 #navi21xt #news #performance #power #radeon #rx6000 #rx6800XT #rx6900XT #Specs #tsb https://bit.ly/3m9VPQS


Quelle:
https://twitter.com/IgorWallossek/status/1318828025379758082

Leonidas
2020-10-24, 12:59:03
Kleiner Fehler: GA1012 soll vermutlich GA102 sein ;)


In jedem Fall. Gefixt.






Hallo,
sagt mal hab ich etwas übersehen oder wurde diese Meldung von Igor bishger nicht erwähnt?
Quelle:
https://twitter.com/IgorWallossek/status/1318828025379758082



Tatsächlich. Haben andere zwar auch berichtet, aber keiner derart schön zitierfähig.

iamthebear
2020-10-24, 14:50:50
Nun mal ehrlich: wenn "Biggest"Navi in 4k und UltraSettings 60+ fps liefert... wen interessiert dann noch DLSS? Oder merkst du echt den Unterschied zwischen 75 und 85 fps? Merken, nicht messen, wohlgemerkt! :)

DLSS ist bei unterstützten Spielen ein gratis Leistungsschub von bis zu 100%. Mag sein, dass das bei aktuellen Spielen noch nicht notwendig ist aber in 1 Jahr wird das schon komplett anders aussehen.

Richtig. Und nun schaue ich mir eine 3080/10 an und dann den BiggestNavi/16, etwa gleiche Leistungsklasse und gleicher Wattage aber mit unterschiedlichem, sprich: zukunftsichererem Speicher, und dann wird AMD gekauft.

Big Navi unterstützt kein DLSS. Was soll daran zukunfstsicher sein? In 3 Jahren kannst du auf 1080p zurückstellen. Was nützen dir 16GB an Speicher, wenn die Spiele die diesen benötigen dann sowieso nur mehr mit 30fps laufen. Ja klar sind 16GB nett aber wie man dafür fast 100% mehr Leistung und durch DLSS in so gut wie allen AAA Spielen opfern kann verstehe ich echt nicht.
Wenn AMD DLSS unterstützen würde UND mehr Speicher hätte zum gleich Preis, dann würde ich es mir überlegen, ob ich mir das Treiberchaos noch einmal antun will aber so ist für mich die Entscheidung ziemlich klar.
Obwohl ich wahrscheinlich wahrscheinlich gleich bis Q1 warten werde, ob Nvidia tatsätzlich einen 7nm Refresh bringt. So elig habe ich es nicht und im Moment ist ja sowieso nichts lieferbar.

Linmoum
2020-10-24, 15:25:02
Big Navi unterstützt kein DLSS.
Du weißt, dass AMD nichts vergleichbares haben wird? Da bin ich jetzt aber neugierig.

Ansonsten ist mehr Speicher natürlich immer vorzuziehen bei ansonsten gefühlt 1,5% der Spiele, die DLSS überhaupt nur unterstützen.

Gast
2020-10-24, 16:19:05
Du weißt, dass AMD nichts vergleichbares haben wird? Da bin ich jetzt aber neugierig.

Wenn man sieht wie lange es gedauert hat bis DLSS richtig gut geworden ist, ist selbst wenn mit big Navi was vergleichbares vorgestellt werden sollte das Ergebnis frühestens bei der Refreshgeneration erwähnenswert.

JVC
2020-10-24, 17:24:52
Ich bin skeptisch bezüglich des Bleibens von DLSS...
Ist doch nur was zu tun für die eigentlich überflüssigen "Profi Funktionen"(Tensor kerne).
Außerdem setzt sich etwas so proprietäres nur selten durch ;)

Ein neuer Standard von dem Alle profitieren wäre natürlich toll!
Aber so etwas strebt NV denke ich eher weniger an...

M.f.G. JVC

Gast
2020-10-24, 19:06:39
Ist doch nur was zu tun für die eigentlich überflüssigen "Profi Funktionen"(Tensor kerne).

Die Tensor-Kerne sind auch so nicht überflüssig.
Die übernehmen FP16 in doppelter Geschwindigkeit auch in "normalen" Shadern, und da die Tensor-Kerne extra sind, können diese FP16 parallel zu FP32/INT32 abarbeiten.