PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 1./2. Mai 2022


Leonidas
2022-05-03, 08:09:44
Link zur News:
https://www.3dcenter.org/news/news-des-12-mai-2022

Gast
2022-05-03, 08:55:13
"dass die Ada-Architektur generell leistungsfähiger ausfallen soll, als es ein simpler "Ampere-Refresh" (nach höheren Taktraten und mehr Hardware-Einheiten) sein würde"
Wäre ja auch etwas komisch gewesen, wenn Ada nur ein Refresh mit mehr Einheiten/Takt wäre. Schließlich hat NVidia ja Hardware Entwickler, die auch was zu tun brauchen. Insofern war das schon vorher klar, dass es nicht ein simpler Refresh sein wird.
Aktuell wirkt das Ganze deutlich stimmiger als die früheren Gerüchte: AMD ist merklich langsamer (FP32 Rechenleistung), dafür aber auch sparsamer. Bin gespannt, was dann tatsächlich dabei rum kommt und wie die Verbrauche tatsächlich liegen. Hätte gerne Ersatz für meine Nano, aber mehr als 250W will ich nicht haben.

madshi
2022-05-03, 09:54:58
Irgendwie fühlt sich das wie ein Deja-Vu an für mich: Bei Ampere/RDNA2 war die ursprüngliche Gerüchte-Lage auch eher positiver in Richtung AMD and negativer in Richtung Nvidia. Und letztendlich kam dann AMD etwas schlechter als erwartet raus und Nvidia etwas besser als erwartet. Das waren keine weltbewegenden Unterschiede, aber soweit ich mich erinnere, war die Tendenz doch so, daß RDNA2 etwas schlechter war als die Gerüchte es erwartet hatten, und Ampere etwas besser.

Es würde mich nicht wundern, wenn es diese Generation ähnlich werden würde: Nämlich daß RDNA3 zwar immer noch sehr gut, aber vielleicht nicht ganz so überragend sein wird, wie die Gerüchte es im Moment sagen. Und daß Nvidia vielleicht noch die eine oder andere Überraschung im Ärmel hat, wie bei Ampere z.B. die unerwartete FP32 Verdoppelung, an die eigentlich (trotz eines früheren Gerüchts) bis zum tatsächlichen Release niemand wirklich geglaubt hatte.

Von daher könnte ich mir durchaus vorstellen, daß bis zu Navi32 hoch AMD und Nvidia absolut gleichwertig sein werden, mit vielleicht etwas höherem Stromverbrauch bei Nvidia. Vielleicht wird Navi31 dann doch klar die Spitze bilden (aber halt auch erst in 2023 irgendwann). Aber ich denke, daß die aktuelle Gerüchte-Lage vielleicht etwas zu pessimistisch in Sachen Nvidia ist.

Irgendwie macht es auch wenig Sinn für mich, daß der Schritt von Samsung 8-10nm hin zu TSMC (4-)5nm kaum etwas bringen soll. Das *kann* eigentlich nicht so wenig bringen, wie die Gerüchte teilweise im Moment zu sagen scheinen. Und bei AMD soll es einen riesigen Sprung geben - auch in Sachen Effizienz - bei einem deutlich kleineren Prozeß-Schritt (von 7nm hin zu 5-6nm)?

Dazu kommt auch noch, daß AMD scheinbar immer eine Zeit braucht, um die Treiber für neuere GPU-Generation auf volle Speed zu kriegen, während Nvidia oft schon zum Release den Großteil der Performance liefern kann. So ist es bei AMD oft so, daß in den ersten 3-6 Monaten nach Release neue Treiber-Versionen deutliche Performance-Sprünge bringen, während sich bei Nvidia nach dem Release nicht mehr so viel tut.

Anyway, let's wait and see.

Auf jeden Fall beide Daumen hoch für AMD :up::up: die richtig Bewegung in den Markt bringen und Nvidia ordentlich Dampf unter dem Allerwertesten machen!!! Ich will gar nicht wissen, was Nvidia gemacht hätte, wenn es RNDA3 nicht gäbe. Vielleicht wären sie sogar bei Samsung geblieben, mit einem simplen Ampere "Super" Refresh mit leicht höheren Taktraten? Oder vielleicht hätten sie Ampere bei TSMC 7nm oder maximal 6nm neu aufgelegt, mit 0 Architektur-Verbesserungen?

Gast
2022-05-03, 09:58:37
Was hat Knappheit an _zusätzlichen_ Belichtern usw. damit zu tun? Bis so eine Fabrik läuft, dauert es etliche Jahre. Alles was man seit letztem Jahr _über_ Plan angestoßen hat, wird eh erst ausspucken, wenn die Krise vorbei sein soll.

2024 ist keine neue oder pessimistische Angabe. ABF soll bis 2026 knapp bleiben. Da die Schätzung wohl nicht berücksichtigt hat, dass die Maschinen fehlen, um die zusätzliche Fabriken zu bauen, könnte es sogar länger dauern.

Die Frage ist, wie intel auch sagt, ob der Bedarf jetzt nicht doch stärker wieder sinkt.

WedgeAntilles
2022-05-03, 10:11:13
Auf jeden Fall beide Daumen hoch für AMD :up::up: die richtig Bewegung in den Markt bringen und Nvidia ordentlich Dampf unter dem Allerwertesten machen!!! Ich will gar nicht wissen, was Nvidia gemacht hätte, wenn es RNDA3 nicht gäbe. Vielleicht wären sie sogar bei Samsung geblieben, mit einem simplen Ampere "Super" Refresh mit leicht höheren Taktraten? Oder vielleicht hätten sie Ampere bei TSMC 7nm oder maximal 6nm neu aufgelegt, mit 0 Architektur-Verbesserungen?

Vor allem hat AMD mit der "Cache-Strategie" sowohl bei GPUs als auch bei CPUs glaube ich ein verdammt gutes Mittel für Performancesteigerungen gefunden.
Das war wirklich clever und ich gehe davon aus, dass das auch bei Intel und Nvidia Einzug halten wird (und somit am Ende auch Käufern dieser Firmen was bringt).
Ich denke Intel und Nvidia hatten die Möglichkeiten des Caches unterschätzt - bei Nvidia sieht man ja auch jetzt schon, dass die Cache-Größe bei Lovelace deutlich steigen wird.

Ohne AMD wäre das eher nicht passiert denke ich.
Die Techniker von AMD haben verdammt viel drauf.


Das Lovelace mit RDNA3 mithalten können wird, ist für mich logisch.
Nvidias neue Generation ist in den Gerüchten schlecht, durstig, teuer? Alles gut, das sind sie immer.
Ich würde mir erst Sorgen machen, wenn es heißt Nvidias nächste Generation wäre toll :biggrin:

Platos
2022-05-03, 11:11:42
Vermutlich war es bisher einfach günstiger, keine (solchen) Caches zu bauen für die Grafikchips. Bisher gabs einfach immer mehr Bandbreite durch neue GDDR Specs usw. Aber das ist jetzt langsam nicht mehr der Fall und HBM ist teuer. Deswegen lohnt sich das jetzt, aber vorher halt eben nicht.

Bei den CPUs würde ich sagen, ist es ähnlich. Da war es einfach billiger, mit mehr Kernen oder IPC zu punkten. Und mehr Cache ist mit 5nm oder so hald einfach billiger unzusetzten, wie es noch mit 14/16nm war oder mit 22/28nm.

maximus_hertus
2022-05-03, 11:32:28
Und letztendlich kam dann AMD etwas schlechter als erwartet raus und Nvidia etwas besser als erwartet.

Das wird auch bei RDNA4 vs nVidia Gegenstück gelten und auch bei RDNA5 usw.


Bei AMD ist immer der Hypetrain viel viel viel viel zu optimistisch. AMD kann gar ncihts dafür, dass die Gerüchteküche jedes Jahr, immer und immer wieder, viel zu optimistisch, ja fast Größenwahnsinnig ist.


Lustigerweise merkt es kaum einer und die meisten lassen sich Jahr für Jahr "verarschen" und glauben an den Hypetrain und befeuern ihn sogar mit teils aberwitzigen, noch optimistischeren Aussagen.


Die aktuelle Gerüchteküche ist da sehr eindeutig: nVidia wird das klar(!) schnellste Produkt haben. An der spitze wird unangefochten die 4090 oder wie auch immer die heißen wird, thronen.

AMD scheint wohl wieder gute Chips zu haben, mit denen man nVidia alles abverlangt. Sogar mehr als das, wen man sich die Stromverbräuche anschaut, die es geben soll.

Jedoch: selbst 1000W Verbrauch sind den meisten völlig egal, so lange der Balken am längsten ist. Vielleicht nicht in Deutschland, aber Weltweit gesehen.


Wenn AMD z.B. 10% langsamer ist, aber 25-33% weniger Strom verbraucht, wäre ich super happy. Am Ende würde ich nur mit Bauchschmerzen eine Karte mit (deutlich) über 300W TDP verbauen.

Linmoum
2022-05-03, 11:46:43
Laut welcher Gerüchteküche wird Nvidia denn das klar (!) schnellste Produkt haben? Jetzt sag nicht, du leitest das von den angeblichen 100 TFLOPs ab. ;D

Davon ab war es bei RDNA2 vs. Ampere zuletzt genau gegenteilig im Voraus, da wurde Ampere in den Himmel gelobt und man war der Meinung (insb. Dann nach dem Launch), dass AMD da kaum mithalten können wird. Es kam anders, wie wir wissen.

Ich bleibe dabei, dass durch den MCM-Approach nächste Gen AMD die (Rasterizer-)Leistungskrone innehaben wird. Alles andere wird man sehen.

Gast
2022-05-03, 11:52:11
Das war wirklich clever und ich gehe davon aus,


Ohne jetzt AMD zu nahe treten zu wollen, so wahnsinnig "clever" ist daran nichts. Jeder der Chips designt kann mit Simulationen sehr gut vorhersagen was welche Cachegröße genau bringt.

Die Cleverness ist hier viel mehr in der Fertigung zu suchen, deren Packdichte es ermöglicht hat solche Caches wirtschaftlich zu fertigen.


Ohne AMD wäre das eher nicht passiert denke ich.


Wie gesagt was Caches können ist schon lange bekannt, was relativ neu ist, dass derartige Caches auch realistisch umsetzbar sind, und nachdem der Fertigungsfortschritt auch vor Intel/NV nicht halt macht ist es natürlich absehbar, dass wir auch hier ähnliches sehen werden, ganz unabhängig von AMD.


Die Techniker von AMD haben verdammt viel drauf.


Das sicher.

maximus_hertus
2022-05-03, 11:55:19
Laut welcher Gerüchteküche wird Nvidia denn das klar (!) schnellste Produkt haben?

Historisch gesehen hat nVidia immer alles überdehnt, um den längsten zu haben. Die 600W und mehr sprechen auch dafür, dass man auf alles "scheißt", solange der Balken stimmt.
Die TFlops lassen mich erstmal komplett kalt, da sie erstmal (alleine für sich) nicht viel aussagen.

Ich denke, dass AMD hier einen besonnereren Weg einschlägt und die Wattagen zumindest einigermaßen im Zaun lässt. Evtl. müssen sie es durch das MCM auch.

Und mittlerweile ist DLSS ein echter Faktor geworden plus RT. In beiden ist nVidia (deutlich) vorne, da muss AMD erstmal aufholen.


Ergo sehe ich, dass nVidia, ähnlich wie bamals bei der GTX 480 (nur dieses mal gefühlt schlimmer) einen Pyrrhussieg einfährt und AMD die Chance hat, das rundere Produkt zu liefern. Aber was am Ende passieren wird, wird man abwarten müssen.


Noch ein Wort zu "klar" schneller => 10% Leistungsdifferenz ist jetzt nchts, was besonders spürbar wäre, aber für Balkenjäger ist das dann doch ein "klarer" Unterschied bzw. Vorsprung. Ist leider bescheuert, aber so ist das.

madshi
2022-05-03, 12:00:26
Ich würde mir erst Sorgen machen, wenn es heißt Nvidias nächste Generation wäre toll :biggrin:
Haha!

Die aktuelle Gerüchteküche ist da sehr eindeutig: nVidia wird das klar(!) schnellste Produkt haben. An der spitze wird unangefochten die 4090 oder wie auch immer die heißen wird, thronen.
Also den Vergleich 4090 vs Navi32 sollte die 4090 gewinnen. Aber ich denke schon, daß Navi31 eigentlich die Nase vorne haben sollte, weil ja mehrere Chips verbaut werden, die in der Gesamtfläche dann doch deutlich größer als AD102 sein sollten. Da sollte sich irgendwann die deutlich größere Chipfläche durchsetzen, oder nicht? Hab aber jetzt gerade die voraussichtlichen Chipflächen von AD102 vs Navi32 vs Navi31 nicht im Kopf. Hat da jemand aktuelle Schätzungen?

Navi31 kommt aber wohl auch erst im Frühjahr 2023 raus, also wird Nvidia wohl bis dahin erstmal das schnellste Produkt haben, würde ich jetzt erwarten. Gegen Navi31 könnte Nvidia aber Probleme kriegen. Aber mal sehen...

Jedoch: selbst 1000W Verbrauch sind den meisten völlig egal, so lange der Balken am längsten ist. Vielleicht nicht in Deutschland, aber Weltweit gesehen.
Was ich so gehört habe, springen in manchen Ländern gerne mal die Sicherungen raus, wenn Du über 900 Watt (für den kompletten PC) gehst. Ich denke nicht, daß da weltweit viel mehr als 600 Watt für die GPU möglich ist. In Deutschland halten das die Sicherungen vielleicht noch aus, aber weltweit eher nicht, denke ich. Aber bin jetzt auch kein Experte, was die Haus-Elektrik in anderen Ländern betrifft...

Gast
2022-05-03, 12:02:57
Jo klar, Nvidia hat man eben noch eine komplett neue Arch innerhalb von 12 monaten geplant und umgesetzt. Ada war nie nur ein Ampere refresh, sondern von vorneherein als Sidegrade konzipiert, bevor mit Hopper das wirkliche upgrade in Technik and Arch kommt. Nur hat man nicht damit gerechnet das AMD nach einem starkem RND2 direkt mit einem noch stärkeren RDN3 um die Ecke kommt. Deshalb gibts jetzt diese absurden Leistungszuwächse auf kosten der Effizienz. Frühere Leaks sahen den Vollausbau von ADA 70-80% vor dem Vollausbau von Ampere bei ähnlichem Stromverbrauch, während es bei AMD 100-150% waren.
Nvidia hat nix an der Arch geändert, sie haben einfach nur dafür gesorgt das sie noch mehr Strom auf die GPU klatschen können um mit AMD mitzuhalten.

madshi
2022-05-03, 12:03:47
Davon ab war es bei RDNA2 vs. Ampere zuletzt genau gegenteilig im Voraus, da wurde Ampere in den Himmel gelobt und man war der Meinung (insb. Dann nach dem Launch), dass AMD da kaum mithalten können wird. Es kam anders, wie wir wissen.
Das hab ich komplett andersrum in Erinnerung - zumindest was die Gerüchte-Situation vor dem Release angeht vs die Situation direkt nach dem Release.

Du hast aber insoweit Recht, daß direkt nach dem Release Ampere sehr gehypt wurde wegen der FP32 Verdopplung, was sich dann in der Realität als längst nicht so doll bewiesen hat wie die Specs es vermuten ließen.

Geldmann3
2022-05-03, 12:10:05
Die aktuelle Gerüchteküche ist da sehr eindeutig: nVidia wird das klar(!) schnellste Produkt haben. An der spitze wird unangefochten die 4090 oder wie auch immer die heißen wird, thronen.

Da wäre ich mir ja nicht so sicher.

Ich vermute, Nvidia hatte nach Ampere ursprünglich tatsächlich nur einen relativ kleinen Sprung geplant.
Man wäre bei Samsung geblieben und hätte einfach nur die Schnitzer in der Architektur ausgebügelt, die Ampere heruntergezogen haben.
Ampere war bereits kein riesiger Sprung und der Nachfolger wäre es noch weniger geworden.
Vielleicht +35% Performance. //Ja ich weiß, das ist lächerlich wenig.

Doch dann hat man RDNA2 abgewartet und geschaut, was AMD so aufbietet.
RDNA2 war in Nvidias Augen zwar gefährlich gut, aber nicht schnell genug, als dass man alles ausfahren musste.
So wurden z.b. die RTX 3080 20 GB und RTX 3070 16 GB wieder zurückgezogen, obwohl die AIBs offensichtlich bereits auf diese Karten vorbereitet waren.
Doch Nvidia brauchte sie schlicht nicht.

Eins wurde Nvidia mit RDNA2 dann jedoch wahrscheinlich langsam klar.
,,Samsung is not going to cut it"

Also bemühte man sich darum, doch wieder einen sehr viel teureren Weg mit TSMC zu gehen, um in der nächsten Generation nicht völlig abgehängt zu werden.
So hat man sich dann widerwillig aber gezwungenermaßen teuer bei TSMC eingekauft und musste Samsung zurücklassen/enttäuschen.
Eine richtige Portierung der Architektur war nicht wirklich notwendig, da bereits vor 2 Jahren eine TSMC und Samsung Version von Ampere vorlag.
Nvidia ist bereits mit Ampere zweigleisig gefahren.
In diesem Moment erhöhte sich meine Prognose dann vor etwa einem Jahr auf +60% Performance.
Obwohl sich sogar in diesem Moment bereits langsam herauskristallisierte, dass RDNA3 wahrscheinlich schneller wird.

Nach etwas internem rumbling hat man sich dann wahrscheinlich dafür entschieden, Ampere 2 aka Lovelace auf Stereoide zu setzen, denn man möchte die Krone nicht vom Kopf gerissen und kaputt getrampelt bekommen.
Daher kamen dann die Gerüchte mit Hopper Features in Lovelace und 600 Watt Leistungsaufnahme.
Ja, und nun prognostiziere ich seit einem halben Jahr etwa +85% für Lovelace.
Eben, ja, das Ding wurde hochgeprügelt.
Doch kommt man damit an RDNA3 heran?
Vermutlich schon, doch schlägt man damit auch RDNA3?
Fraglich..

WedgeAntilles
2022-05-03, 12:23:36
Vermutlich war es bisher einfach günstiger, keine (solchen) Caches zu bauen für die Grafikchips. Bisher gabs einfach immer mehr Bandbreite durch neue GDDR Specs usw. Aber das ist jetzt langsam nicht mehr der Fall und HBM ist teuer. Deswegen lohnt sich das jetzt, aber vorher halt eben nicht.


Möglich, aber man darf generell nicht vergessen, dass überall eine gewisse "Betriebsblindheit" herrscht.
Das hat auch nichts mit Dummheit oder Unfähigkeit oder sonstwas zu tun.
Es genügt, wenn die "Chefs" von Cache sich eher nicht so viel versprechen, dann wird in diese Richtung wenig getan.
Und wenn man bequem in Führung ist, denkt man sowieso seltener um ein, zwei Ecken.
Das AMD da von weiter hinten sich eher überlegt hat: "Ok, wir müssen was tun, was ist denn ein Weg der vielleicht noch eher unterentwickelt ist?" und dann auf den Cache kam erscheint mir gut möglich.

Dass das jetzt noch mit den Kosten gut skaliert ist sicherlich eine gute Konstellation - aber ich denke schon, dass wir ohne AMD beim Cache noch ein Stück weiter weg wären. (Intel zum Vergleich hat ja auch bis heute nichts wie den 5800X3D - eine "Gaming" CPU.)

Natürlich reine Spekulation von mir.

Blediator16
2022-05-03, 12:27:07
Irgendwie fühlt sich das wie ein Deja-Vu an für mich: Bei Ampere/RDNA2 war die ursprüngliche Gerüchte-Lage auch eher positiver in Richtung AMD and negativer in Richtung Nvidia. Und letztendlich kam dann AMD etwas schlechter als erwartet raus und Nvidia etwas besser als erwartet.

Nein nein und nochmals nein. Kann sich denn keiner erinnern? Der Nodesprung für Nvidia war noch da, den sie mitnehmen konnten während AMD bereits auf 7nm war. Es wurde gesagt, dass es überhaupt nicht sein kann, dass AMD die Effizient noch steigern kann und NV AMDs Karten komplett zerbersten werden.

madshi
2022-05-03, 12:48:04
Nein nein und nochmals nein. Kann sich denn keiner erinnern? Der Nodesprung für Nvidia war noch da, den sie mitnehmen konnten während AMD bereits auf 7nm war. Es wurde gesagt, dass es überhaupt nicht sein kann, dass AMD die Effizient noch steigern kann und NV AMDs Karten komplett zerbersten werden.
Ok, dann wühlen wir doch mal in den Archiven. Hier war eines der zuverlässigeren Gerüchte über Ampere vs RDNA2 vor Release:

https://www.3dcenter.org/news/geruechtekueche-aktuelle-performance-projektionen-sehen-nvidias-ampere-ga102-und-amds-big-navi-

Das Gerücht wurde von 3DCenter am 21. Juli 2020 gepostet. Da haben die Gerüchte grob einen Gleichstand von RDNA2 vs Ampere vorher gesagt. Und bei Release der 6900XT hatten wir dann am 15. Dezember 2020 dies:

https://www.3dcenter.org/artikel/launch-analyse-amd-radeon-rx-6900-xt/launch-analyse-amd-radeon-rx-6900-xt-seite-2

Dort sehen wir 10% Performance-Vorteil der 3090 gegenüber 6900XT bei 4K, und satten 47,5% Performance-Vorteil der 3090 gegenüber 6900XT bei Raytracing.

Ok, ich weiß die aktuellen Vergleichszahlen von 3090 vs 6900XT nicht, ich vermute, daß AMD aufgeholt hat (AMD braucht ja immer eine Weile, um die Treiber auf volle Speed zu kriegen). Aber es ist schon so, daß die Gerüchte einen Gleichstand vorher gesagt hatten, daß bei Release Nvidia aber vorne lag. Bei Raytracing überaus deutlich. Und DLSS kam ja noch oben drauf, wo AMD zu der Zeit nichts entgegen zu setzen hatte.

Geldmann3
2022-05-03, 12:48:14
Kommt wohl darauf an, wo man damals hingehört hat.

Was ich aber noch weiß ist, dass man bei der schnellsten RDNA2 Karte lange nur mit etwas mehr Performance gerechnet hat, als eine RTX 2080 Ti. Was ja gerade einmal die RTX 3070 geschlagen hätte. RDNA2 wurde daher wohl eher lange Zeit unterschätzt. Ein paar Monate vor Launch kamen dann verrückte Gerüchte auf und man sah Nvidia erstmals gefährdet. Da wurde RDNA2 von einigen also überschätzt. Teilweise wurde von einem ziemlichen Sieg, gegen die RTX 3090 gesprochen. Wobei ich diese Herleitungen nie nachvollziehen konnte. :freak:

Mich hat RDNA2 eher positiv überrascht.

Bei Vega war es beispielsweise völlig anders, Vega wurde eindeutig überschätzt. Sollte die GTX 1080 Ti schlagen, war dann aber mehr als 1/3 langsamer. Bei RDNA2 war es lange Zeit eher umgekehrt.

Beim 3D-Center-Forum hatte ich in der letzten Generation oft das Gefühl, dass man relativ realistisch blieb.
Während viele Quellen fröhlich den Chu-Chu-Train fahren ließen ,,80% schneller als die letzte Generation blub blub blub blub", hat man sich hier rational an den technischen Grundlagen orientiert.

madshi
2022-05-03, 13:00:22
Kommt wohl darauf an, wo man damals hingehört hat.

Was ich aber noch weiß ist, dass man bei der schnellsten RDNA2 Karte lange nur mit etwas mehr Performance gerechnet hat, als eine RTX 2080 Ti. Was ja gerade einmal die RTX 3070 geschlagen hätte. RDNA2 wurde daher wohl eher lange Zeit unterschätzt. Ein paar Monate vor Launch kamen dann verrückte Gerüchte auf und man sah Nvidia erstmals gefährdet. Da wurde RDNA2 von einigen also überschätzt. Teilweise wurde von einem ziemlichen Sieg, gegen die RTX 3090 gesprochen. Wobei ich diese Herleitungen nie nachvollziehen konnte. :freak:
Da hast Du ein besseres Gedächtnis als ich. Ich kann mich an die genauen Details gar nicht mehr erinnern, sondern nur, daß ich den Gerüchten nach RDNA2 etwas besser eingeschätzt hatte als es wirklich war, und Ampere etwas schlechter als es wirklich war. Ich vermute, daß ich die früheren Gerüchte, die RDNA2 unterschätzt hatten, gar nicht mitgekriegt hatte...

Gast
2022-05-03, 13:32:15
Das wird auch bei RDNA4 vs nVidia Gegenstück gelten und auch bei RDNA5 usw.


Bei AMD ist immer der Hypetrain viel viel viel viel zu optimistisch. AMD kann gar ncihts dafür, dass die Gerüchteküche jedes Jahr, immer und immer wieder, viel zu optimistisch, ja fast Größenwahnsinnig ist.
Naja, ist vielleicht auch ein genialer Zug von NVidia:
Man streut Gerüchte AMD wäre super und die eigenen Karten schlecht. Das Weckt natürlich Erwartungen. Und wenn die Karten dann kommen, ist NVidia dann doch sparsamer als gedacht und/oder schneller als gedacht, AMD nicht so viel sparsamer aber langsamer... Und schon sind die Käufer von AMD enttäuscht, und von NVidia begeistert. AMD wird seine nicht gelaunchten Karten sicher nicht hypen.

Gast
2022-05-03, 13:56:42
Ok, dann wühlen wir doch mal in den Archiven. Hier war eines der zuverlässigeren Gerüchte über Ampere vs RDNA2 vor Release:

https://www.3dcenter.org/news/geruechtekueche-aktuelle-performance-projektionen-sehen-nvidias-ampere-ga102-und-amds-big-navi-

Das Gerücht wurde von 3DCenter am 21. Juli 2020 gepostet. Da haben die Gerüchte grob einen Gleichstand von RDNA2 vs Ampere vorher gesagt.
Dann lies dir das doch noch mal durch:
"40% mehr Rasterization-Performance unter 4K" --> Stimmt grob
"RayTracing-Performance soll keinen großen Performance-Verlust mehr produzieren" --> Naja, in welchem Spiel ist RT On gleich schnell als RT off?
"voller Chip trägt 5376 Shader-Einheiten" Stimmt nicht, hat letztendlich doppelt so hohe FP32.
Also NVidia wurde da sicher nicht zu schlecht geschätzt. Von RT@AMD wird da sowieso nichts gesagt, das war auch klar, dass das nicht so toll sein wird.
Und dazu dann das hier:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-20-oktober-2020
Angeblich hat Navi21 320W, also Gleichstand mit der 3080. Ist halt so falsch. Mit mehr zeitlichem Abstand zum Launch war AMD's Verbrauch noch höher geschätzt (da keine bessere Fertigung im Vergleich zum Vorgänger).
Hier schätzt man, AMD wird die 3080 in speziellen Szenarien erreichen (aber wohl eher nicht im Durchschnitt):
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-2425-september-2020
In Rasterizing würde wohl niemand behaupten, eine 6900XT ist langsamer als eine 3080, oder? RT, siehe oben: Da war schon immer klar, das AMD langsamer sein wird, das hat man entsprechend nie erwähnt/betrachtet.
Hier schätzt man sogar BigNavi nur auf "zwischen 3070 und 3080":
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-14-september-2020

Ergo: Gerüchte sind halt immer nur Gerüchte, da ist so viel Schätzung und so mit drin. Die schlagen damit gerne mal in die eine oder andere Richtung aus.

Leonidas
2022-05-03, 14:23:56
Die aktuelle Gerüchteküche ist da sehr eindeutig: nVidia wird das klar(!) schnellste Produkt haben. An der spitze wird unangefochten die 4090 oder wie auch immer die heißen wird, thronen.

Da lese ich aber deutlich was anderes: Da heisst es, dass N31 derart konzipiert wird, dass NV das unmöglich einholen kann. Das bedeutet nicht, dass es nicht am Ende knapp werden könnte - aber NV klar vorn ist das sicher nicht.

WedgeAntilles
2022-05-03, 14:31:30
Da hast Du ein besseres Gedächtnis als ich. Ich kann mich an die genauen Details gar nicht mehr erinnern, sondern nur, daß ich den Gerüchten nach RDNA2 etwas besser eingeschätzt hatte als es wirklich war, und Ampere etwas schlechter als es wirklich war. Ich vermute, daß ich die früheren Gerüchte, die RDNA2 unterschätzt hatten, gar nicht mitgekriegt hatte...

Bei Ampere hieß es zeitweise, die würden kaum schneller werden, dafür aber mehr saufen. Also sogar eine Verschlechterung gegenüber Turing.
Gleichzeitig würden die Karten preislich deutlich nach oben gehen.
Ach ja, und der Release würde deutlich nach AMD kommen.

Der Samsung Prozess wäre so grottig, dass die Effizienz von Ampere miserabel sei.


Ich zitiere da mal etwas, das ich geschrieben hatte:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12332148&highlight=ampere#post12332148

2020-06-09, 13:06:03
"Wenn man all die Gerüchte der letzten Wochen mal zusammenfasst bringt Nvidia also:

- Eine Ampere Generation die kaum schneller als die 2xxx Generation ist
- eine Ampere Generation, die im Bereich 3060, 3070 und 3080 die gleiche Ram-Bestückung wie die 2xxx Generation hat
- +100 Watt mehr verbraucht als Turing
- erst im Laufe von 2021 erscheint
- preislich mindestens auf dem Niveau von Turing ist


Zusammengefasst:
Langsam, teuer, spät, extrem energiehungrig, wenig Ram

Ja, klingt glaubwürdig...

Ich lehne mich jetzt mal ganz weit aus dem Fenster und vermute, dass einige dieser Gerüchte / Leaks wohl nicht ganz stimmen werden. "

Das war Juni, also ziemlich der Zeitraum wo wir jetzt auch sind.
Klar, dass das jetzt natürlich manche Leute hier nicht mehr wahrhaben wollen und verleugnen.

Legendenkiller
2022-05-03, 15:11:49
Die besten Grafikkarten 2023 sind die lieferbaren ;-)

Lehdro
2022-05-03, 15:37:24
- Eine Ampere Generation die kaum schneller als die 2xxx Generation ist
- eine Ampere Generation, die im Bereich 3060, 3070 und 3080 die gleiche Ram-Bestückung wie die 2xxx Generation hat
- +100 Watt mehr verbraucht als Turing
- erst im Laufe von 2021 erscheint
- preislich mindestens auf dem Niveau von Turing ist

Ich bin mal böse und picke mal genau die Sachen raus die Stimmen wenn man sie dahinmassiert:

- die 3060 ist kaum schneller als die 2060 Super / 2060 12 GiB
- die 3090 TI verbaucht weitaus mehr als +100W gegenüber der Turing RTX, die 3090 ziemlich genau +100W auf die 2080 Ti
- die 3070 hat 8 GiB, genau wie die 2070/Super (die 2060 12 GiB wie die 3060 :freak: )
- viele Karten sind tatsächlich erst 2021/22 erschienen, sogar der Großteil (3050, 3060, 3070 Ti, 3080 12 GiB, 3080 Ti und 3090 Ti)
- das preisliche Niveau von allem was nach dem initialen Lineup kam stimmt auch nicht mit Turing/ altem Ampere überein

Bitte nicht zu ernst nehmen ;D

KodeX
2022-05-03, 15:38:37
Ok, dann wühlen wir doch mal in den Archiven. Hier war eines der zuverlässigeren Gerüchte über Ampere vs RDNA2 vor Release:

https://www.3dcenter.org/news/geruechtekueche-aktuelle-performance-projektionen-sehen-nvidias-ampere-ga102-und-amds-big-navi-

Das Gerücht wurde von 3DCenter am 21. Juli 2020 gepostet. Da haben die Gerüchte grob einen Gleichstand von RDNA2 vs Ampere vorher gesagt.

In der News, die du verlinkt hast, steht für Big Navi eine Performance-Projektion von 300 bis 350 Prozent (4K-Performance-Index). Wirft man einen Blick auf den 3DCenter-Performance-Index (https://www.3dcenter.org/artikel/fullhd-ultrahd-performance-ueberblick-2012-bis-2022), sieht man die Big-Navi-Karten bei 372, 348, 322 und 278 Prozent. Wo ist denn hier die Übertreibung? Ich finde schon, dass sich N21 und GA102 auf demselben Niveau befinden.

Nazar
2022-05-03, 15:47:47
Irgendwie fühlt sich das wie ein Deja-Vu an für mich: Bei Ampere/RDNA2 war die ursprüngliche Gerüchte-Lage auch eher positiver in Richtung AMD and negativer in Richtung Nvidia. Und letztendlich kam dann AMD etwas schlechter als erwartet raus und Nvidia etwas besser als erwartet. Das waren keine weltbewegenden Unterschiede, aber soweit ich mich erinnere, war die Tendenz doch so, daß RDNA2 etwas schlechter war als die Gerüchte es erwartet hatten, und Ampere etwas besser.

Es würde mich nicht wundern, wenn es diese Generation ähnlich werden würde: Nämlich daß RDNA3 zwar immer noch sehr gut, aber vielleicht nicht ganz so überragend sein wird, wie die Gerüchte es im Moment sagen. Und daß Nvidia vielleicht noch die eine oder andere Überraschung im Ärmel hat, wie bei Ampere z.B. die unerwartete FP32 Verdoppelung, an die eigentlich (trotz eines früheren Gerüchts) bis zum tatsächlichen Release niemand wirklich geglaubt hatte.

Von daher könnte ich mir durchaus vorstellen, daß bis zu Navi32 hoch AMD und Nvidia absolut gleichwertig sein werden, mit vielleicht etwas höherem Stromverbrauch bei Nvidia. Vielleicht wird Navi31 dann doch klar die Spitze bilden (aber halt auch erst in 2023 irgendwann). Aber ich denke, daß die aktuelle Gerüchte-Lage vielleicht etwas zu pessimistisch in Sachen Nvidia ist.

Irgendwie macht es auch wenig Sinn für mich, daß der Schritt von Samsung 8-10nm hin zu TSMC (4-)5nm kaum etwas bringen soll. Das *kann* eigentlich nicht so wenig bringen, wie die Gerüchte teilweise im Moment zu sagen scheinen. Und bei AMD soll es einen riesigen Sprung geben - auch in Sachen Effizienz - bei einem deutlich kleineren Prozeß-Schritt (von 7nm hin zu 5-6nm)?

Dazu kommt auch noch, daß AMD scheinbar immer eine Zeit braucht, um die Treiber für neuere GPU-Generation auf volle Speed zu kriegen, während Nvidia oft schon zum Release den Großteil der Performance liefern kann. So ist es bei AMD oft so, daß in den ersten 3-6 Monaten nach Release neue Treiber-Versionen deutliche Performance-Sprünge bringen, während sich bei Nvidia nach dem Release nicht mehr so viel tut.

Anyway, let's wait and see.

Auf jeden Fall beide Daumen hoch für AMD :up::up: die richtig Bewegung in den Markt bringen und Nvidia ordentlich Dampf unter dem Allerwertesten machen!!! Ich will gar nicht wissen, was Nvidia gemacht hätte, wenn es RNDA3 nicht gäbe. Vielleicht wären sie sogar bei Samsung geblieben, mit einem simplen Ampere "Super" Refresh mit leicht höheren Taktraten? Oder vielleicht hätten sie Ampere bei TSMC 7nm oder maximal 6nm neu aufgelegt, mit 0 Architektur-Verbesserungen?

Hmm? Hast du ein paar Links zu diesen damaligen Gerüchten?
Das, was ich lesen konnte und kann, entspricht genau dem Gegenteil von deiner Aussage.
nVidia wurde mit mindestens 50% in der Spitze bis 75% an Mehrleistung vermutet. Alles andere wäre undenkbar gewesen und auch der Verbrauch, welcher kursierte, waren weit unter 350 Watt für das Spitzenprodukt (3080).
Bei AMD vermutete man eher, dass sie nur mit viel Glück überhaupt in die Nähe der Leistung einer nV GPU kommen könnten.
Aber ich kann mi haj irren, und es war genauso wie du es geschrieben hast, nur dann möchte ich das auch lesen dürfen. Mir hilft Google da derzeit nicht weiter.
Das, was ich finde, entspricht nur dem, was jetzt gerade Fakt ist und da schneidet RDNA2 sogar besser ab, als es AMD selber vorhergesagt hatte.
https://www.notebookcheck.net/AMD-RDNA-2-New-rumors-allege-50-better-performance-than-RDNA-1-with-no-added-power-consumption.450435.0.html

WedgeAntilles
2022-05-03, 16:23:31
Ich bin mal böse und picke mal genau die Sachen raus die Stimmen wenn man sie dahinmassiert:

- die 3060 ist kaum schneller als die 2060 Super / 2060 12 GiB
- die 3090 TI verbaucht weitaus mehr als +100W gegenüber der Turing RTX, die 3090 ziemlich genau +100W auf die 2080 Ti
- die 3070 hat 8 GiB, genau wie die 2070/Super (die 2060 12 GiB wie die 3060 :freak: )
- viele Karten sind tatsächlich erst 2021/22 erschienen, sogar der Großteil (3050, 3060, 3070 Ti, 3080 12 GiB, 3080 Ti und 3090 Ti)
- das preisliche Niveau von allem was nach dem initialen Lineup kam stimmt auch nicht mit Turing/ altem Ampere überein

Bitte nicht zu ernst nehmen ;D

Du hast da ja völlig recht - ein paar der Dinge trafen ein.
Nur halt nicht in der Kombination :)

madshi
2022-05-03, 17:24:30
Ergo: Gerüchte sind halt immer nur Gerüchte, da ist so viel Schätzung und so mit drin. Die schlagen damit gerne mal in die eine oder andere Richtung aus.
Stimmt.

In der News, die du verlinkt hast, steht für Big Navi eine Performance-Projektion von 300 bis 350 Prozent (4K-Performance-Index). Wirft man einen Blick auf den 3DCenter-Performance-Index (https://www.3dcenter.org/artikel/fullhd-ultrahd-performance-ueberblick-2012-bis-2022), sieht man die Big-Navi-Karten bei 372, 348, 322 und 278 Prozent. Wo ist denn hier die Übertreibung? Ich finde schon, dass sich N21 und GA102 auf demselben Niveau befinden.
Naja, ich hab jetzt einfach nur das eine Gerücht verglichen mit dem 3DCenter Release-Bericht der 6900XT, und das Gerücht sagte Gleichstand voraus, während der Release-Bericht die 3090 vorne gesehen hat. Heißt also, daß der Release-Bericht Nvidia positiver gesehen hat als dieses eine Gerücht. Allerdings hat sich das Bild wohl inzwischen wegen verbesserter AMD-Treiber wieder in Richtung AMD verschoben. Ist also alles eine Frage, welche Gerüchte von welchem Datum man mit welchen Stand während oder nach dem Release vergleicht. <seufz> Also keine einfache Sache...

Hmm? Hast du ein paar Links zu diesen damaligen Gerüchten?
Scheinbar gab es "falsche" Gerüchte in beide Richtungen, sowohl was RDNA2 als auch Ampere betrifft. Siehe einige der Kommentare von anderen Usern weiter oben. Aber schau Dir doch z.B. mal den Kommentar von WedgeAntilles vom Juni 2020 an: Da faßt er die Gerüchte der letzten Wochen vor dem Juni 2020 zusammen in einer Weise, die für Ampere damals sehr negativ aussah.

Anyway, vielleicht stimmt meine Erinnerung da auch nicht wirklich, oder ich hab nur manche Gerüchte behalten und andere vergessen. Hab jetzt auch nicht die Lust, stundenlang alte Berichte zu studieren. Also von daher ziehe ich meine Aussagen in diesem Thread sicherheitshalber zurück... ;D

Rabiata
2022-05-03, 21:45:36
Haha!
Was ich so gehört habe, springen in manchen Ländern gerne mal die Sicherungen raus, wenn Du über 900 Watt (für den kompletten PC) gehst. Ich denke nicht, daß da weltweit viel mehr als 600 Watt für die GPU möglich ist. In Deutschland halten das die Sicherungen vielleicht noch aus, aber weltweit eher nicht, denke ich. Aber bin jetzt auch kein Experte, was die Haus-Elektrik in anderen Ländern betrifft...
Das sind die extrem hohen Einschaltströme. Hier in meinem Elternhaus haben wir 16A Sicherungsautomaten, das reicht rechnerisch für 3680 W.
Aber die Auslösecharakteristik (https://de.wikipedia.org/wiki/Leitungsschutzschalter#Ausl%C3%B6secharakteristik) spielt auch eine Rolle, und einer der PCs hier hat ein preiswertes 450W Netzteil, das beim Eischalten ab und zu die Sicherung raus springen ließ.

Was wir damals verbaut hatten, war Charakteristik "H". Laut Wikipedia schaltet der Kurzschlußauslöser irgendwo zwischen 2 x Nennstrom und 3x Nennstrom ab. In dem Fall irgendwo zwischen 32 und 48A.

Ich habe dann auf Charakteristik "B" umgestellt (was heute üblich ist), jetzt ist Ruhe. Da haben wir 3-5 x Nennstrom für den Kurzschlußauslöser, also 48 bis 80A.

iamthebear
2022-05-03, 23:30:31
Das mit den Sicherungen ist ein reine Ami Problem. In den USA haben die Haushalte nur 120V was bei 15A Sicherungen dann eben nur 1800W ergeben. Wenn dann im selben Raum noch ein paar andere Dinge wie Fernseher, Konsole, Beleuchtung etc. dran hängen, dann kann ich mir gut vorstellen, dass bei 1000W PCs gelegentlich mal das Licht ausgeht.

madshi
2022-05-03, 23:46:42
Yep, MLID hat berichtet, daß bei ihm bei ca ~900W gerne mal die Sicherungen fliegen. Von daher denke ich, daß Nvidia nicht wirklich groß über 600W hinaus gehen kann. Zumindest in den USA würde das vielen Consumern Schwierigkeiten machen - denn die CPU verbrät ja auch nochmal was. Und User, die sich eine 4090 kaufen, werden sicher auch keine stromsparende CPU benutzen.

iamthebear
2022-05-04, 00:21:37
Ich habe mir einmal überlegt was die neue GPU Generation für die tatsächlichen Frameraten bedeutet wenn man RT und 8K einmal außen vor lässt.

Angenommen Navi33 hat wirklich die Performance einer 6900 XT
Und Navi31 hat die 3 fachen WGP also theoretisch die 3 fache Rohleistung.

Das ist ziemlich genau dasselbe Verhältnis wie wenn man die 3060 (28 SM) mit der 3090 Ti (84 SM) vergleich.

Als Referenz habe ich das Review vom Techpowerup hergenommen. Diese haben auch die durchschnittliche Framerate über den gesamten Testparkour berechnet:
https://www.techpowerup.com/review/nvidia-geforce-rtx-3090-ti-founders-edition/31.html

Unter 4K sieht die 3090 Ti gegen die 3060 immer noch sehr beeindruckend aus:
3060: 41.7fps
3090 Ti: 101.7 fps
Da kommen wir immerhin noch auf eine reale fps Steigerung von 2.44x. Das ist zwar nicht mehr so viel wie die theoretischen 3x aber immer noch mehr als brauchbar.

Nur was wird wohl passieren wenn wir die Performance noch einmal 3x erhöhen? Dann wird das Ganze ja deutlich CPU limitierter, denn die CPU steigt ja nicht mit.

Hier habe ich mir die Werte unter 1080 angesehen.

3060: 96.5fps
3090 Ti: 177.9fps
Also 1.84x

Ich schließe daraus folgendes:
Die 3060 hat unter 1080p ca. 100fps und wenn ich die theoretische Performance 3x erhöhe kommen gerade mal 84% mehr fps raus.

Die 3090 bzw. 6900 XT haben unter 4K auch um die 100fps.
Wenn man also die Performance der 3090 bzw. 6900 XT um 3x erhöht, dann wird man unter 4K vermutlich ein relativ ähnliches Bild sehen.

Ist das Ganze vielleicht nur ein Nvidia Problem?

Spielen wir das Ganze einmal mit einer 6600 vs. 6900 XT durch. Die haben ein TFlop Verhältnis von ca. 2.6x:

4K
6900 XT: 87.6fps

1080p:
6600: 93.2fps
6900 XT: 173.2fps
1.86x

Also bleibt da auch nicht allzu viel übrig.

Was man jedoch sieht ist, dass Nvidia mit 3x anscheinend etwas mehr Rohleistung benötigt für denselben Effekt während AMD schon 2.6x reichen.

Interessante Sache:
MLID hat in seinen Videos die 2.5x und höher immer bestritten und immer von ca. 80-100% an realer Gamingperformance gesprochen wobei Nvidia etwas hinterher hinkt trotz 600W. Das dürfte sich mit der Rechnung wieder ganz gut decken.

Leonidas
2022-05-04, 04:32:20
Das hat was. Für 3mal mehr Rohpower werden möglicherweise Limits sichtbar, die wir jetzt übersehen können: CPU-Power (selbst unter 4K), Speicher-System, eventuell sogar Windows/DX.

Gast
2022-05-04, 07:19:15
Was ich so gehört habe, springen in manchen Ländern gerne mal die Sicherungen raus, wenn Du über 900 Watt (für den kompletten PC) gehst. Ich denke nicht, daß da weltweit viel mehr als 600 Watt für die GPU möglich ist. In Deutschland halten das die Sicherungen vielleicht noch aus, aber weltweit eher nicht, denke ich.Hatten wir schon öfter im Forum.
Aus meiner Erfahrung geht es um Einschaltstrom. Da hilft Sicherung mit anderer Charakteristik. Siehe https://de.wikipedia.org/wiki/Leitungsschutzschalter#Allgemeines letzter Absatz. Bitte nicht selber machen. Danke. (Gibt natürlich auch Zähler der Schrebergarten-Laube mit 10A und sowas.) Entsprechende USV. Usw. Das Problem ist ja nicht neu und tritt auch intern auf. Z.B. verzögertes, gestaffeltes Anlaufen der HDDs, weil die für mehr als 0,X Sek deutlich höheren Strom ziehen. Das erwarte ich übrigens auch vom 12VHPWR in ATX3.0. Da gibt es bis zur Aushandlung auch nur begrenzt Saft. Ich mag ATX3.0 jetzt schon. Eigentlich brauchen wir aber auch andere Mainboards (siehe BTX) und der 12pin-Nvidida ist jetzt eher Bürde denn Steigbügel.
Ich behaupte zudem, dass 'in den Ländern' das Problem allgemein bekannt ist und wie man damit umgeht. Lange her, da hat mir wer von seinem Haus in UK erzählt und für deutsche Verhältnisse war die Elektrik gruselig.

Gast
2022-05-04, 08:57:20
Was man jedoch sieht ist, dass Nvidia mit 3x anscheinend etwas mehr Rohleistung benötigt für denselben Effekt während AMD schon 2.6x reichen.
Weil Ampere (zumindest die größeren Chips) auch nur so wirklich unter 4k glänzen kann. Bei niedrigeren Auflösungen kann Ampere die hohe FP32 Leistung nicht wirklich nutzen (auch im Vergleich zu Turing nicht, da wird der Abstand auch kleiner).
Ampere hat ja auch erheblich mehr FP32 als Turing (3090 hat grob 2,66x FP32 als die 2080TI), schafft damit grob 45% mehr FPS. Ähnlich dürfte es dann bei 4090 oder 7900XT auch laufen. Ich vermute, die Rechenleistung liegt da immer mehr brach und kann nicht sinnvoll genutzt werden (vgl. Vega). Das ist für AMD eigentlich eher von Vorteil, weil die freie Rechenleistung für RT brauchen können (läuft bei denen ja teilweise über Shader und wenn die nichts zu tun haben, kann man mehr RT berechnen). Bei NVidia hilft dann nur mehr Auflösung, um die Rechenleistung wieder zu nutzen. Aber vielleicht findet NVidia ja eine Stellschraube, um auch bei niedrigeren Auflösungen die Rechenleistung in mehr FPS umzusetzen.

Gast
2022-05-04, 10:13:03
GPU-Leistung kann man nie genug haben.

Klar kann man nicht immer schneller sein, aber man kann immer mehr machen und da gibt es noch mehr als genug zu machen bevor die Qualitätsverbesserungen nicht mehr relevant werden.

3x Performance reicht nicht mal um die heutige 1080p Performance unter 4k zu erreichen.

Raytracing muss mangels Leistung (und damit nicht unbedingt der Raytracing Leistung selbst, sondern jene der Folgeoperationen die erst durch das Raytracing entstehen) immer noch sehr sparsam eingesetzt werden.

Spiele sehen in VR gefühlt immer noch 10+ Jahre alt aus, weil die Qualität dermaßen zurückgeschraubt werden muss um die notwendigen Frameraten zu erreichen. Dabei ist bei den bisherigen "Mainstream" Headsets auch noch sehr viel Potential bei den Headsets selbst die Auflösung signifikant zu erhöhen, mindestens 4k pro Auge sollten das schon sein.

Also 3x Leistung wäre zwar ein schöner Sprung, aber ist immer noch viiiiiiiiiieeeel zu wenig um auch nur ansatzweise sagen zu können, wir haben eh genug.

Gast
2022-05-04, 11:42:10
Weil Ampere (zumindest die größeren Chips) auch nur so wirklich unter 4k glänzen kann. Bei niedrigeren Auflösungen kann Ampere die hohe FP32 Leistung nicht wirklich nutzen (auch im Vergleich zu Turing nicht, da wird der Abstand auch kleiner).


Nein, der Abstand zwischen unterschiedlich schnellen Grafikkarten wird kleiner, der zwischen Ampere und Turing bleibt quasi unverändert.
Auf die Idee kommt man nur wenn man die falschen Karten, also langsame Turing mit schnellen Ampere-Karten vergleicht.

Das ist aber nur der normale Effekt, dass sich schnellere Karten bei höheren Auflösungen eben besser absetzten können.

Vergleicht man dagegen gleich schnelle Ampere und Turing Karten sieht man keine wesentlichen Unterschiede in verschiedenen Auflösungen.


Ich vermute, die Rechenleistung liegt da immer mehr brach und kann nicht sinnvoll genutzt werden (vgl. Vega).


Die Rechenleistung liegt nicht bei Ampere brach, sondern bei Turing, weil Turing in den meisten Fällen seine ganze INT-Leistung gar nicht nutzen kann.
Ampere ist besser ausgelastet, weil flexibel zwischen INT und FP32 gewechselt werden kann.


Das ist für AMD eigentlich eher von Vorteil, weil die freie Rechenleistung für RT brauchen können (läuft bei denen ja teilweise über Shader und wenn die nichts zu tun haben, kann man mehr RT berechnen).


Bei Raytracing läuft immer viel über Shader, egal bei wem. Shader starten das Tracing und Hits/Misses wiederum Shader.
Deshalb wird es auch nie Raytracing "for free" geben, egal wie viel und wie stark die dedizierte Intersection Hardware ist, weil das Ergebnis jeder Intersection ist wiederum ein Shader der FP32 braucht, und es braucht genauso Shader die erst das Raytracing starten.


Das Verhältnis "FLOPS" zu realer Performance wird sich mit der nächsten Generation vermutlich wieder deutlich ändern.

AMD wird nun ähnlich wie Nvidia die SIMDs pro CU verdoppeln, womit davon auszugehen ist, dass man für die selbe Performance wie bei RDNA2 mehr FLOPs benötigen wird.

Bei Nvidia ist davon auszugehen, dass man das Register-Bottleneck entschärfen wird, und damit die Performance/FLOP gegenüber Ampere wieder steigen wird, ohne das Niveau von Turing zu erreichen.

Wobei gegenüber Turing der Vergleich der FLOPs eben unzureichend ist, man müsste TOPS vergleichen, und dann hat Ampere deutlich mehr Performance/TOP gegenüber Turing.

Performanceprognosen aufgrund reiner TFLOP Zahlen für die nächste Generation sind auf jeden Fall reine Raterei und entbehren jeder Grundlage.

Gast
2022-05-04, 18:09:07
Wo bleiben eigentlich die ganzen Kritiker die in den letzten Jahren Tabellen zusammengetragen habe wo Youtuber XY falsche Leaks produziert hätte und Twitter Leaker AB sonst viel weniger "Fake Leaks" produziert hätte.

Für meinen Geschmack ist das was da als Korrekturen getwittert werden muss jedenfalls etwas zu viel des Guten.

Wir täten gut daran uns auf die voraussichtlichen Release-Termine zu konzentrieren und alles was bis 2 Monate vorher über Technische Features noch getwitter wird völlig zu ignorieren. Kann man ja nicht mehr ernst nehmen das ganze Gezwitscher ;D

iamthebear
2022-05-04, 21:50:44
Weil Ampere (zumindest die größeren Chips) auch nur so wirklich unter 4k glänzen kann. Bei niedrigeren Auflösungen kann Ampere die hohe FP32 Leistung nicht wirklich nutzen (auch im Vergleich zu Turing nicht, da wird der Abstand auch kleiner).

Das hat relativ wenig mit Ampere als Architektur zu tun, sondern ist generell bei allen GPUs so, dass die Framerate bei höheren Auflösungen mehr mit der GPU skaliert und mit niedrigeren Auflösungen mehr mit der CPU.

Ampere hat ja auch erheblich mehr FP32 als Turing (3090 hat grob 2,66x FP32 als die 2080TI), schafft damit grob 45% mehr FPS. Ähnlich dürfte es dann bei 4090 oder 7900XT auch laufen. Ich vermute, die Rechenleistung liegt da immer mehr brach und kann nicht sinnvoll genutzt werden (vgl. Vega).

Es wurden die FP32 Einheiten nicht einfach so verdoppelt.
Turing hat 64 FP32 + 64 INT Einheiten, die auch beide gleichzeitig genutzt werden können.
Ampere hat 128 FP32 Einheiten aber die müssen INT Operationen mitmachen

Bei 25% INT Anteil sieht das so aus:
Turing: 64 FP32 Einheiten machen FP, die INT Einheiten kümmern sich um INT
Ampere: 96FP32 Einheiten machen FP, 32 FP Einheiten sind mit INT beschäftigt

Also sind es keine 2x Performance sondern nur 1.5x.

Und siehe da: Eine 3070 mit 46 SMs ist fast genauso schnell wie eine 2080 Ti mit 68 SMs (48% mehr).

Was stimmt ist dass von der 3070 auf die 3080 gewisse Dinge nicht mitskaliert wurden z.B. ROPs/TMUs aber das ist Die spezifisch und lässt sich kaum auf die gesamte Architektur umlegen.

Das macht auch Sinn, da 3080 aufwärts 4K Karten sind und 3060 Ti/3070 nur 1440p Karten.

3x Performance reicht nicht mal um die heutige 1080p Performance unter 4k zu erreichen.

Wenn du nur einen 1080p Monitor und nicht planst etwas größeres zu kaufen lohnt es sich dann z.B. eine 6900 XT zu kaufen wenn diese deutlich teurer ist als z.B. eine 6700 XT? Ich würde einmal sagen in den meisten Fällen nein. Und genauso wird es den 4K Käufern mit den neuen Spitzenmodellen gehen wenn keine 5K/8K Anschaffung in absehbarer Zeit ansteht. Da kaufe ich lieber eine Midrangekarte und dafür in 2 Generationen wieder eine neue.

Man kann natürlich argumentieren, dass es ja noch RT gibt und dieses ja immer wichtiger wird.
Nur dann die Frage: Wenn das das entscheidende Kriterium ist, dann kaufe ich sicher keine AMD Karte, denn die werden hier gegen Nvidia immer noch kein Land sehen.

Spiele sehen in VR gefühlt immer noch 10+ Jahre alt aus, weil die Qualität dermaßen zurückgeschraubt werden muss um die notwendigen Frameraten zu erreichen. Dabei ist bei den bisherigen "Mainstream" Headsets auch noch sehr viel Potential bei den Headsets selbst die Auflösung signifikant zu erhöhen, mindestens 4k pro Auge sollten das schon sein.

Das ist glaube ich eher ein Spezialfall. Ich habe das anders gelöst: 65" Fernseher einen halben Meter vor der Nase. Das hat denselben Effekt nur ohne dass mir bei niedrigen Frameraten schlecht wird. Aber 4K Native wäre schon nett, denn die Pixel sind auch so noch groß genug.

Also 3x Leistung wäre zwar ein schöner Sprung, aber ist immer noch viiiiiiiiiieeeel zu wenig um auch nur ansatzweise sagen zu können, wir haben eh genug.

"eh genug" vielleicht nicht aber genug für die Standardfälle und Spezialfälle muss man dann auch speziell benchmarken z.B. wer hat die bessere RT Performance, wer hat Features wie DLDSR, wer unterstützt VR Brillen besser usw.

Für meinen Geschmack ist das was da als Korrekturen getwittert werden muss jedenfalls etwas zu viel des Guten.

Was erwartest du denn? Dass du 1 Jahr vorher schon ein fertiges Datenblatt bekommst?
Wenn etwas bei Nvidia/AMD in Planung ist, dann wird es eben berichtet. Wenn sich am Plan etwas ändert, dann ist es eben so. Ist ja nicht so, dass man jetzt schon die Anzahlung für die Vorbestellung überweisen müsste. Aber es ist gut zu wissen was wahrscheinlich kommen wird, dass ich z.B. nicht jetzt eine 3080 um 1000 Euro hole wenn ein halbes Jahr später deutlich mehr kommt.
Umgekehrt hätte ich früher über Turing/Ampere Bescheid gewusst hätte ich nicht ein halbes Jahr darauf gewartet um mir dann erst eine 1070 Ti zum 2 Jahre alten UVP zu holen.

Wir täten gut daran uns auf die voraussichtlichen Release-Termine zu konzentrieren und alles was bis 2 Monate vorher über Technische Features noch getwitter wird völlig zu ignorieren. Kann man ja nicht mehr ernst nehmen das ganze Gezwitscher ;D

Und was sollen wir dann die nächsten 4 Monate machen? Irgendwie muss ich mich ja unterhalten und über neue GPUs zu spekulieren macht aktuell mehr Spaß als diese dann tatsächlich zu verwenden.

Leonidas
2022-05-05, 04:24:23
Und was sollen wir dann die nächsten 4 Monate machen? Irgendwie muss ich mich ja unterhalten und über neue GPUs zu spekulieren macht aktuell mehr Spaß als diese dann tatsächlich zu verwenden.

:up:

Davon abgesehen sollte man den Fall der niedrigeren Navi 3X Specs nun nicht überbewerten. Ampere-Specs waren Mai 2019 bekannt, mit Release September 2020. Ada-Specs (zumindest AD102) gab es auch schon im Dezember 2020, Relase ist Herbst 2022. Manche von den Leakern haben tatsächlich handfeste Sachen - und dies lange vor Release.

Gast
2022-05-05, 07:17:14
Wo bleiben eigentlich die ganzen Kritiker die in den letzten Jahren Tabellen zusammengetragen habe wo Youtuber XY falsche Leaks produziert hätte und Twitter Leaker AB sonst viel weniger "Fake Leaks" produziert hätte.Mir egal. Ist nur noch reines Entertainment.

Das Verhältnis "FLOPS" zu realer Performance wird sich mit der nächsten Generation vermutlich wieder deutlich ändern."DEutlich"? Unwahrscheinlich, trotz MCM bzw. 'Verbesserungen'. Und ich habe nirgends gelesen, dass AMD 'INT _oder_ FP' einbauen würde oder Nvidia es aufgibt.

GPU-Leistung kann man nie genug haben.
Das ist Quatsch bzw. gilt nur unter Ignoranz der Nebenwirkungen. Klar hätte ich gern 500 statt 50PS - bei gleicher TCO, Platzverbrauch, etc.

Gast
2022-05-09, 10:34:55
Und genauso wird es den 4K Käufern mit den neuen Spitzenmodellen gehen wenn keine 5K/8K Anschaffung in absehbarer Zeit ansteht. Da kaufe ich lieber eine Midrangekarte und dafür in 2 Generationen wieder eine neue.



Was willst du mit midrange auf einem 4k Monitor?


Das ist glaube ich eher ein Spezialfall. Ich habe das anders gelöst: 65" Fernseher einen halben Meter vor der Nase. Das hat denselben Effekt nur ohne dass mir bei niedrigen Frameraten schlecht wird. Aber 4K Native wäre schon nett, denn die Pixel sind auch so noch groß genug.


Ich hab beides, und das ist nicht mal ansatzweise vergleichbar. Der Unterschied, sich tatsächlich in einer 3D-Welt zu bewegen, anstatt nur ein 3D-Bild vor sich herzuschieben ist dermaßen riesig, dass trotz aller Kompromisse VR dermaßen viel besser ist, dass sich jeder Vergleich verbietet.