Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Spezifikationen zu AMDs Navi 33 deuten erheblichen Stromverbrauchs-...


Leonidas
2022-04-12, 13:22:05
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-spezifikationen-zu-amds-navi-33-deuten-erheblichen-stromverbrauchs-vorteil

Troyan
2022-04-12, 13:47:45
Mal eine ehrliche Frage: Das das alles erstunken und erlogen ist, tangiert dich nicht? Wenn eine Navi33 also bis zu 230W verbrauchen könnte, wie genau soll AMD also bei der 3x Leistung von Navi31 bei <=500W liegen?

nVidias AD104 soll bei 400W liegen, aber ein gleichwertiges AMD Produkt auf einem erheblich schlechteren Prozess bei 230W? Interessiert dich das wirklich nicht?

Gast
2022-04-12, 13:48:21
Ich kann mir nicht vorstellen, dass die 6700XT 12GB hat, der "Nachfolger" aber nur 8GB. Vielleicht gibt es 8 und 16GB Varianten und der User kann wählen.
Der Chip dürfte ja auch im Notebook landen (als Topmodell, da die Desktop Variante ja schon bis 180W herunter kommen soll), da müsste er auf jeden Fall mindestens 12GB bieten, denn die bietet ja schon das aktuelle Topmodell von AMD im Mobile Bereich. Die Zahl muss da mindestens gleich bleiben.

FrozenPie
2022-04-12, 13:59:38
Mal eine ehrliche Frage: Das das alles erstunken und erlogen ist, tangiert dich nicht? Wenn eine Navi33 also bis zu 230W verbrauchen könnte, wie genau soll AMD also bei der 3x Leistung von Navi31 bei <=500W liegen?
Ich weiß jetzt nicht wo das Problem liegt?

Navi 33:
- 4096 Shader
- 230W TDP

Navi 31:
- 15360 Shader
- 500W TDP

Navi 31 hat fast die vierfache Anzahl an Shadern gegenüber Navi 33. Diese takten zwar wegen der nur etwas mehr als doppelt so hohen Leistungsaufnahme niedriger, aber im Verhältnis ist eine fast dreifache Leistung bei etwas mehr als doppelter Leistungsaufnahme durch die 3.75 mal mehr Shader theoretisch durchaus möglich, wenn auch wahrscheinlich nur in Optimalfällen zu erreichen.

dildo4u
2022-04-12, 14:01:13
Die 3060 hat schlechter Performance per Watt als die 3060 Ti, kleiners Interface kompensiert mit mher Vram Takt.(Dito 4060?)
Die AMD Karte setzt wieder auf den Cache auf dem Chip um das zu umgehen.
Die bessere Fertigung des Chips hilft dir nix wenn der Rest der Karte verschwenderisch ist.

Gast
2022-04-12, 14:02:50
Mal eine ehrliche Frage: Das das alles erstunken und erlogen ist, tangiert dich nicht? Wenn eine Navi33 also bis zu 230W verbrauchen könnte, wie genau soll AMD also bei der 3x Leistung von Navi31 bei <=500W liegen?

nVidias AD104 soll bei 400W liegen, aber ein gleichwertiges AMD Produkt auf einem erheblich schlechteren Prozess bei 230W? Interessiert dich das wirklich nicht?
Ich würde mal den Prozess außen vor lassen (kann ja auch Fake sein, dass AMD N6 nutzt, für N32 und N31 wird auch N5 genutzt), aber wenn N33 schon 230W braucht, müsste ja schon N32 bei grob 400W liegen (etwas weniger Takt, daher 60W weniger trotz grob doppelter FLOPS). Und das ist ja der Konkurrent zu AD104.
N31 ist noch mal grob 50% größer, taktet dafür noch mal deutlich niedriger. Daher müsste die wohl auch mindestens bei grob 500W heraus kommen (50% größer wären 600W, niedrigerer Takt reduziert dann vielleicht auf 500W). Weniger sollte man von AMD nicht erwarten.
Und da bei NVidia ja das Topmodell Richtung 600W gehen soll, dürften die kleineren Modelle auch schnell im Bereich oder unter der AMD Chips sein. Im Endeffekt würde ich nicht viel Unterschied beim Verbrauch erwarten, nur NVidia's Topmodell wird vielleicht einfach zum Sichern des Vorsprungs übertrieben viel brauchen.

Linmoum
2022-04-12, 14:06:18
Mal eine ehrliche Frage: Das das alles erstunken und erlogen ist, tangiert dich nicht? Wenn eine Navi33 also bis zu 230W verbrauchen könnte, wie genau soll AMD also bei der 3x Leistung von Navi31 bei <=500W liegen?

nVidias AD104 soll bei 400W liegen, aber ein gleichwertiges AMD Produkt auf einem erheblich schlechteren Prozess bei 230W? Interessiert dich das wirklich nicht?
[ ] Du verstehst, wie GPUs funktionieren und wie sich diverse Faktoren (breitere Chips, niedrigerer Takt, mehr Cache) auf die Effizienz auswirken.
[x] Du verstehst nicht, wie GPUs funktionieren und wie sich diverse Faktoren (breitere Chips, niedrigerer Takt, mehr Cache) auf die Effizienz auswirken.

6700XT: 215W = 100% Performance
6900XT: 300W = 150% Performance

Ist ja nach deiner Logik schlicht unmöglich, die 6900XT müsste bei >320W liegen. Nuff said.

Troyan
2022-04-12, 14:06:56
Die Chiplets hätten die doppelten Ausführungseinheiten auf 5nm. Alleine durch den Transistorenaufwand von ~2x steigt der Stromverbrauch massiv an, da 5nm kaum noch zur besseren Effizienz beiträgt. Navi31 hätte gegenüber Navi33 also >4x mehr Transistoren, soll aber nur 2,2x mehr Strom benötigen. Das wird nicht mit 15% Taktreduzierung erreicht.

Gleichzeitig soll nVidia auf 5nm deutlich ineffizenter sein, trotzdem die mit Ampere auf 8nm 15% effizienter sind. Da müsste doch irgendwann mal sich selbst gefragt werden, ob so ein Quatsch wirklich realistisch ist.

[ ] Du verstehst, wie GPUs funktionieren und wie sich diverse Faktoren (breitere Chips, niedrigerer Takt, mehr Cache) auf die Effizienz auswirken.
[x] Du verstehst nicht, wie GPUs funktionieren und wie sich diverse Faktoren (breitere Chips, niedrigerer Takt, mehr Cache) auf die Effizienz auswirken.

6700XT: 215W = 100% Performance
6900XT: 300W = 150% Performance

Ist ja nach deiner Logik schlicht unmöglich, die 6900XT müsste bei >320W liegen. Nuff said.

Beeindruckend, die 6900XT ist 50% schneller bei 40% mehr Stromverbrauch.

dildo4u
2022-04-12, 14:10:40
Wer sagt denn das die Dual GPU Modell den selben Takt fährt wie eine Single Die Modell?Bei Ryzen wurde der Basis Takt des 16 Core Modell auch reduziert gegenüber 5800X um im selben TDP zu bleiben.

Gast
2022-04-12, 14:29:31
Was mich an diesen Gerüchten immer stört, Nvidia soll trotz des riesigen Sprungs von 10nm++ auf 5nm im Prinzip nichts an Effizienz gewinnen, klar viel schneller aber auch viel mehr Verbrauch.

Und umgekehrt soll AMD plötzlich den heiligen Gral der Effizienz gefunden kann, obwohl man aktuell trotz massiven Fertigungsvorteiles nur im selben Bereich wie Nvidia liegt.

Also irgendwas muss da faul sein, entweder ist Nvidia massiv schneller als bisher erwartet, oder aber die kolportierten Verbrauchswerte stimmen hinten und vorne nicht.

WedgeAntilles
2022-04-12, 14:31:37
Mal eine ehrliche Frage: Das das alles erstunken und erlogen ist, tangiert dich nicht? Wenn eine Navi33 also bis zu 230W verbrauchen könnte, wie genau soll AMD also bei der 3x Leistung von Navi31 bei <=500W liegen?

nVidias AD104 soll bei 400W liegen, aber ein gleichwertiges AMD Produkt auf einem erheblich schlechteren Prozess bei 230W? Interessiert dich das wirklich nicht?

Wir haben also bei AMD eine 230W Karte, gleich schnell wird (bzw. in seinem letzten Video stellt er sogar noch in den Raum, dass AMD auch 20% schneller sein könnte...), als Nvidias 4070 bei 400W.

Und wir reden hier nicht über irgendwelche Wunderwaffen aka MCM.
Nein, es geht um den "normalen" GraKa-Chip.

Gleichzeitig wird es natürlich auch noch billiger bei AMD.

Ich meine mir ist schon klar, dass AMD Fans bei solchen feuchten Träumen nen Ständer bekommen, aber irgendwie sollte bei einem auch nur halbwegs normalem Menschen dann doch mal der Realitätssinn einsetzen und man sich fragen:
Moment, das scheint doch nicht ganz plausibel zu sein.

Wie Nvidia überhaupt noch existieren kann ist wenn bei AMD ja offenbar Gott persönlich die GraKas baut ist wirklich merkwürdig.

Legendenkiller
2022-04-12, 14:31:47
Die Navi 3x Power Angaben sind die nur für den GPU-Chip oder wirklich für die ganze Karte?

nairune
2022-04-12, 14:35:46
Beeindruckend, die 6900XT ist 50% schneller bei 40% mehr Stromverbrauch.

Betriebspunkte...
Man kann die 6900XT auch mit +40% Leistung und +0% Strom im Vergleich zur 6700XT betreiben.

Meridian12
2022-04-12, 14:42:21
Das ist mir dann doch zuviel Spekulation und Raterei.

Anhand dieser Daten hätte man mit gleicher Chance auch einen Würfel benutzen können um ein Ergebnis mit gleich hoher Chance auf die Wahrheit am Ende benutzen können.

Lehdro
2022-04-12, 14:48:05
Ich bezweifle dass sich N33 so einfach mit AD104 anlegen kann. Vielleicht mit einer Salvageversion, aber bestimmt nicht mit dem Vollausbau.

Zudem gehe ich davon aus das N33 mit 8 GiB (um nach unten hin den Markt abzugrasen) und 16 GiB (als real deal) kommen wird. Die Karte könnte damit quasi Polaris 10 reborn sein.

Gast
2022-04-12, 15:01:39
Die Tabelle ist aber schon seltsam. Nvidia soll fürs gleiche Segment idR erheblich mehr TFlops brauchen als AMD? Passt nicht. So gar nicht.

Ernsthaft, je näher die neuen Chips rücken, desto wayne werden mir die Kekse.

Ahnungsloser Passant
2022-04-12, 15:04:52
Die Nvidia Karten sind so ineffizient, weil Nvidia mit der Brechstange das letzte bisschen Performance herausholen will. Die Ampere Karten können auch anders wie es in den News bei der 3090 Ti@ 300W gestern zu sehen gab. 32,6% weniger Strom kosten nur 10,3% an Performance. Das Gerät ist damit bei gleicher Leistung 25% Effizienter als eine 3080Ti. Nvidia entscheidet sich aber ganz bewusst gegen die Effizienz und für maximale Leistung. Wenn AMD entscheidet die Karten nicht ganz so hoch zu prügeln, dann ist eine deutlich gesteigerte Effizienz doch automatisch gegeben. Nvidia könnte vermutlich genauso effizient sein, wenn sie es denn wollen. Im Augenblick deutet halt alles darauf hin, dass sie weiterhin nicht wollen.

Linmoum
2022-04-12, 15:15:48
Ich bezweifle dass sich N33 so einfach mit AD104 anlegen kann. Vielleicht mit einer Salvageversion, aber bestimmt nicht mit dem Vollausbau.AD104 hat nur 60 SM im Vollaubau (vs. N33 mit wohl 64 CU). Das dürfte IMO relativ ausgeglichen werden.

Gast Ritis
2022-04-12, 15:25:07
Wir haben also bei AMD eine 230W Karte, gleich schnell wird (bzw. in seinem letzten Video stellt er sogar noch in den Raum, dass AMD auch 20% schneller sein könnte...), als Nvidias 4070 bei 400W.

Wer sagt/schreibt den solch einen Unsinn, dass Nvidia für die 70er Klasse 400W verbraten würde. ;D
Wenn da irgend etwas dran sein sollte dann war das doch höchstens ein Test-Sample an der Takt-Grenze ohne jegliche Relevanz für den Retail-Markt.

Zumindest MLID erwartete die 4060 bei ähnlichem Verbrauch wie ein N33 Modell, nur dass er N33 10-20% mehr Leistung zutraut. Eine 4070 wäre in solch einer Speku auch noch im 300W Bereich, MLID hat das Anfang März die 4070 zwischen 250-350W verortet, allerdings mit 16 GB.

Falls das 128bit SI von N33 korrekt wäre kann man dort nur noch auf 1.5GB GDDR6 Chips oder 2GB GDDR6 Chips hoffen.
8GB sind die neue Einstiegsklasse wie eine Xb Series S. Alles mit weniger darf man nicht ernsthaft 4K Gaming-GPU nennen. Midrange sollte doch mindestens so viel VRAM mitbringen, wie in den Konsolen für Entwickler bereitsteht, man geht von 12-14GB aus, bzw. 10-12 GB Framebuffer für den GPU lastigen Teil.

Gratzner
2022-04-12, 15:35:21
Was mich an diesen Gerüchten immer stört, Nvidia soll trotz des riesigen Sprungs von 10nm++ auf 5nm im Prinzip nichts an Effizienz gewinnen, klar viel schneller aber auch viel mehr Verbrauch.

Und umgekehrt soll AMD plötzlich den heiligen Gral der Effizienz gefunden kann, obwohl man aktuell trotz massiven Fertigungsvorteiles nur im selben Bereich wie Nvidia liegt.

Also irgendwas muss da faul sein, entweder ist Nvidia massiv schneller als bisher erwartet, oder aber die kolportierten Verbrauchswerte stimmen hinten und vorne nicht.

Dieses Argument gab es schonmal vor den Releases von RDNA2 vs. Ampere.

Da hieß es auch:
- weil RDNA1 etwas weniger effizient als Turing ist (ohne DLSS oder Raytracing) (siehe [ComputerBase (https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/3/#abschnitt_die_energieeffizienz_als_performance_pro_watt)]) und
- RDNA2 denselben Fertigungsnode beibehalten (TSMC 7nm) während Ampere ein (half)Node-Sprung macht (TSMC 12nm zu 8nm Samsung),
wird es quasi gar nicht anders möglich sein, als das Ampere RDNA2 Effizienzmäßig komplett zerstört.

Aus der Vorhersage, Ampere muss RDNA2 komplett zerstören in Sachen Effizienz, selbst ohne DLSS und Raytracing -es geht ja quasi gar nicht anders- ist in der Praxis ein grober Effizienzgleichstand geworden (siehe ComputerBase (https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/4/#abschnitt_energieeffizienz_in_fps_pro_watt))

Gast
2022-04-12, 15:36:57
Die Chiplets hätten die doppelten Ausführungseinheiten auf 5nm. Alleine durch den Transistorenaufwand von ~2x steigt der Stromverbrauch massiv an, da 5nm kaum noch zur besseren Effizienz beiträgt. Navi31 hätte gegenüber Navi33 also >4x mehr Transistoren, soll aber nur 2,2x mehr Strom benötigen. Das wird nicht mit 15% Taktreduzierung erreicht.
Gleichzeitig soll nVidia auf 5nm deutlich ineffizenter sein, trotzdem die mit Ampere auf 8nm 15% effizienter sind. Da müsste doch irgendwann mal sich selbst gefragt werden, ob so ein Quatsch wirklich realistisch ist.
Wo genau ist NVidia's Ampere denn 15% effizienter als AMD's RDNA2? In RT, aber in Rasterizing eher nicht.
Und schau dir mal zum Vergleich die Verbrauchsskalierung von Ryzen an. Bei Anandtech gibt's da schöne Tabellen, wo man gut sehen kann, wie sich das mit Takt und Verbrauch so verhält. Da machen 200MHz mehr mal eben eine Verdoppelung beim Verbrauch aus. Ist also immer nur eine Frage, wo man gerade mit dem Takt ist, das kann schon deutlich Effizienz bringen. Muss aber natürlich nicht. Ist halt die Frage, wie AMD und NVidia heran gehen. Aber unter 500W wird glaube ich AMDs Topmodell auch nicht sein. Kann aber durchaus sein, dass AMD mit über 500W einfach Probleme mit dem Kühler oder der Stromversorgung bekommt und kaum Mehrleistung erreicht, weshalb man sich auf etwas weniger als NVidia einstellt.
Wir haben also bei AMD eine 230W Karte, gleich schnell wird (bzw. in seinem letzten Video stellt er sogar noch in den Raum, dass AMD auch 20% schneller sein könnte...), als Nvidias 4070 bei 400W.
Deine AMD Hate Posts sind schon echt manchmal "legendär". Hättest du dir das Video mal angeschaut, dann hättest du gesehen, dass Navi33 gegen die 4060 antritt, nicht gegen die 4070. Du brauchst dir also keine Sorgen machen und kannst dir das Fakten verdrehen sparen. Hier noch mal zum mitlesen: "RDNA 3 is impressive, even on 6nm...I leak Navi 33, and explain why the RTX 4060 is in trouble."
Die 4070 tritt also offensichtlich gegen Navi 32 an, welcher auch bei ca. 400W liegen wird. Hast dich also ganz um sonst aufgeregt.

Gast
2022-04-12, 15:42:57
Die Navi 3x Power Angaben sind die nur für den GPU-Chip oder wirklich für die ganze Karte?
AMD gibt in der Regel GPU & RAM an, NVidia die gesamte Karte. Aber vor Ampere und RDNA2 waren die Gerüchte ja auch immer, dass NVidia etwas mehr verbrauchen soll, was sich im Endeffekt bestätigt hat.

Lehdro
2022-04-12, 15:44:33
AD104 hat nur 60 SM im Vollaubau (vs. N33 mit wohl 64 CU). Das dürfte IMO relativ ausgeglichen werden.
Mag sein das die Zahlen das so hergeben.

Allerdings sind das weder "Ampere SM" noch werden sie mit Ampere Taktraten (excl. 3090 Ti) laufen. Würde mich stark wundern wenn der Unterschied zwischen den SM vs. CU noch einmal so stark zu AMDs Gunsten ausfällt in der Leistungsfähigkeit wie bei Ampere vs RDNA2. Bei RDNA2 vs. 3 können wir das für die CUs grob abschätzen, irgendwo bei um die 25% muss der Gewinn aus IPC und Takt liegen gegenüber RDNA2 (gemäß dem Fall das N33 ~ 6900XT). Das ganze dann bei einem kleinen Nodeshrink: 7nm -> 6nm.
Ich traue NV erneut einen stärkeren SM Umbau zu (Ampere ist hier effizienztechnisch eher, naja, eine Luftpumpe was TFlops -> FPS angeht), ebenfalls gekoppelt mit dem Wechsel von 8nm auf 5nm. Da geht schon etwas. Selbst wenn NV nur dieselben 25% pro SM rausholt (Takt + IPC) wie AMD das pro CU schafft, so sind heute 80 Ampere SMs (=3080 Ti) doch gleichschnell wie die 80 hochtaktenden RDNA2 CUs (=6900XT). Nur hat NV halt noch eine Node mehr zum "springen" und erstmals den Bonus des größeren Caches gegenüber Ampere, AMD hatte das schon mit RDNA2 mitgenommen. Vielleicht hilft das auch "nur" beim besseren füttern des SMs, um ein Leerlaufen wie bei Ampere zu verhindern, who knows.

amdfanuwe
2022-04-12, 15:51:02
Schau ich mir in der Tabelle die FP32 und damit die erwarteten Flops an, ist N33 eher der Gegenpart zu AD106.
Ebenso N22S -> AD107.

Nvidia wirds ja wohl mal schaffen die Flops auch auf die Straße zu bringen.

Leonidas
2022-04-12, 16:18:54
Mal eine ehrliche Frage: Das das alles erstunken und erlogen ist, tangiert dich nicht? Wenn eine Navi33 also bis zu 230W verbrauchen könnte, wie genau soll AMD also bei der 3x Leistung von Navi31 bei <=500W liegen?

N33 ist 6nm, N31 ist 5nm - noch dazu MCM mit besonders vielen FP32, die man dann vermutlich nicht ganz so extrem taktet. Das passt also locker, auch wenn N31 noch weniger Watt hat.



nVidias AD104 soll bei 400W liegen, aber ein gleichwertiges AMD Produkt auf einem erheblich schlechteren Prozess bei 230W? Interessiert dich das wirklich nicht?

Ob AD104 bei 400W liegt, habe ich nicht gesagt. Dies könnte passieren, aber ich denke es kommt doch bei weniger heraus. Noch hoffe ich, dass die ganze Extrem-Watt-Angaben zu Ada nicht so herauskommen wie derzeit genannt.



Die Tabelle ist aber schon seltsam. Nvidia soll fürs gleiche Segment idR erheblich mehr TFlops brauchen als AMD? Passt nicht. So gar nicht.

Sehe ich genauso. Deswegen habe ich ja bereits (im Spec-Artikel zu Ada/RDNA2) vorhergesagt, das in einigen Konstellationen mal der eine oder andere klar vorn liegen wird. Die Chips gehen also wohl ins (grob!) selbe Segment, haben aber dennoch teilweise deutlich voneinander abweichende Performance-Punkte.

Im konkreten Fall dürfte eher AD104/Salvage gegen Navi 33/Vollausbau stehen.

GerryB
2022-04-12, 16:28:05
bei Ampere haben die massig TFlops ja nix gebracht, da war RDNA2 deutlich effizienter in der Ausnutzung der Rohpower

obs bei ADA hinsichtlich FP16+INT in Games besser gelöst ist, wird man sehen
(ein Game besteht halt net nur aus FP32)

btw.
ne 6700xt vs 6900 in der Effizienz zu vgl. ist auch net zielführend, weil die 6700xt deutlich über Sweetspot getaktet ist
man schaue mal bei CB in den Test der 6800S@80W
und
bei kleinen vs. großen Chips sollte man auch mal genauer hinschauen, wieviel W dann Cache+SOC+Vram so nehmen bzw.
wieviel prozentual der Core selbst nimmt (Cache ist in den W vom Core enthalten in HWinfo)

H0fn43rrchen
2022-04-12, 16:29:36
Ich sehe da ein Problem beim PCIe-Bus. Nur 8 Lanes ist gerade bei GPUs dieser Preiskategorie u.U. ein Problem, denn es dürfte vor allem beim Personen Interesse wecken, die den Unterbau weniger oft wechseln und bei der kolportierten Performance könnten 8 Lanes bei einem PCIe-3-Interface zu Performanceeinbußen führen. 16x PCIe 4 wäre meiner Ansicht die sinnvollere Lösung.

konkretor
2022-04-12, 16:46:10
Dazu kommen bei der ganzen Geschichte noch Verfügbarkeit und Preis.

Es hat sich ja gezeigt Karten für 1000 € werden locker gekauft ohne mit der Wimper zu zucken.
Aktuell gibt es gerade eine kleine schwemme an gebrauchten HighEnd Karten.

Gast
2022-04-12, 16:46:46
Was sind denn das für von - bis-Angaben?
360-460mm² und 180-230 W.
Beim Kauf der Milchpackung auch mit 1 - 1,5 l überraschen lassen.
Nur am herum raten der Lümmel. ;)

Die Navi 31 GPUs werden im neuen Fertigungsverfahren, neu aufgelegte rdna2 GPUs (Navi21) - so hies es doch, oder?
Wer rdna3 möchte muss zu Navi 32/31 greifen?


So schlecht/gar nicht wie die Videospiele für den PC wieder seit einiger Zeit optimiert werden, und kommende massiv steigende Anforderungen (UE 5 sieht mega schick aus + Raytracing), wird Navi33 dann eine tolle 500 € Grafikkarte für 1080p.
:) :) :)

Nur zu Gast
2022-04-12, 16:52:58
Was man bei der ganzen Effizienz-Debatte (Anzahl Ausführungseinheiten vs. Takt) nicht vergessen sollte: Alles was man öffentlich nachstellen kann (3090 TI auf 300 W, RX 6700 XT gegen mobile-varianten des Chips) sind immer nur Vergleiche des Betriebspunktes vom fertigen Silizium.*
Wenn ein GPU-Hersteller aber von vornherein niedrigere Taktraten plant, dann können für ein "breit, aber langsam" Design auch von vornherein langsamere (=sparsamere) Logikzellen verwendet werden. Und/oder die Betriebsspannung schon im Default ohne UV niedriger liegen. Dadurch könnte mehr Effizient gewonnen werden als jetzt schon abzusehen ist.

Ganz abgesehen davon glaube ich aber auch nicht, dass AMD auch mit MCM bei der Effizienz weit vorne liegen wird. Zum Einen sollen die NVidia Karten ja auch mehr Cache bekommen wenn ich mich recht erinnere (was bei RDNA2 sicherlich massiv zur Effizient beigetragen hat) und zum Anderen ist auch die Kommunikation zwischen den Dies bei AMD nicht umsonst. Mehr als +-15% Effizientvortel für den einen oder anderen Hersteller würden mich überraschen.

*Das gilt nicht sollten AMD und NVidia extra Dies für die mobile-Varianten auflegen, was durchaus möglich ist.

Gast
2022-04-12, 18:17:13
Aus der Vorhersage, Ampere muss RDNA2 komplett zerstören in Sachen Effizienz, selbst ohne DLSS und Raytracing -es geht ja quasi gar nicht anders- ist in der Praxis ein grober Effizienzgleichstand geworden (siehe ComputerBase (https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/4/#abschnitt_energieeffizienz_in_fps_pro_watt))

Hä, wer hat das jemals behauptet?
AMD hat immer noch einen deutlichen Fertigungsvorsprung, und praktisch keinen in der Effizienz.

Ich denke jeder hat erwartet, dass AMD die Effizienz der Architektur verbessern kann und so ist es auch gekommen.

Gerade dieser vergleich zeigt es dass AMD in der nächsten Generation unmöglich Nvidia so abziehen kann wie es die Gerüchte vorhersagen.

Selbst wenn man zwischen RDNA2 und RDNA3 einen ähnlichen Effizienzsprung in der Architektur hinlegt wie zwischen RDNA1 und RDNA2, was sportlich aber machbar erscheint, und Nvidia bei der Architektur 0 zulegt reicht alleine die Fertigung aus damit wieder beide annähernd gleich auf sind.

Dass AMD bei der Effizienz 50% vorne liegt wie hier ja manche vorhersagen ginge sich nur aus wenn sich Nvidia deutlich verschlechtern würde.

Vor allem ist es aber sportlich für AMD überhaupt den Effizienzsprung von RDNA2 zu wiederholen, weil man mit dem IF-Cache die low hanging fruits schon abgeholt hat. Es gibt einfach keinen Punkt mehr an dem man derart viel herausholen kann. Also müssen es die Summe der einzelnen Verbesserungen erreichen, dass man überhaupt einen derartigen Sprung hinlegen kann, was sicher möglich ist, aber wie schon erwähnt bei weitem nicht ausreicht um nur das auszugleichen was Nvidia durch die Fertigung gewinnt.

Platos
2022-04-12, 18:28:15
Was mich an diesen Gerüchten immer stört, Nvidia soll trotz des riesigen Sprungs von 10nm++ auf 5nm im Prinzip nichts an Effizienz gewinnen, klar viel schneller aber auch viel mehr Verbrauch.

Und umgekehrt soll AMD plötzlich den heiligen Gral der Effizienz gefunden kann, obwohl man aktuell trotz massiven Fertigungsvorteiles nur im selben Bereich wie Nvidia liegt.

Also irgendwas muss da faul sein, entweder ist Nvidia massiv schneller als bisher erwartet, oder aber die kolportierten Verbrauchswerte stimmen hinten und vorne nicht.

Natürlich wird AMD nicht 20% schneller, weniger Verbrauch haben und auch noch günstiger sein :D

Es ist immer das selbe Spielchen mit der Gerüchteküche. Zuerst kommen 600W und jetzt das... Ich könnte genau so gut einen Twitter-Acc. aufmachen, irgend nen Stuss reden und dann würden es hier so viele glauben :D Scheiss egal, wie hoch die Erfolgsquote ist. Das interessiert niemand. Man erinnert sich nicht drann...

Aber abgesehen davon: Die Karte kann noch so gut sein, 6900XT Perfomance und 8GB ;D Und 8 PCI-E Lanes finde ich auch nicht gut. Für Leute mit PCI-E 3.0 ein No-Go.

Wenn nvidia diese Gen. wirklich bessere Speicheraustattung hat, wie AMD, dann lach ich mich schlapp :D Aber wie gesagt, Mores Law is dead ist ein Witzvogel. Den sollte man nicht ernst nehmen. Hat schon bei Ampere die Frage nach nem AMD "Leak" aufgeworfen, ob nvidia in ernsthaften Schwierigkeiten sein könnte. Ein wahrer Click-Baiter eben. Und der Typ hat doch genau 0 Information. Die Flächen und Stromangaben sind so ungenau, der hat sich das vermutlich alles aus den Fingern gesaugt.

Gast
2022-04-12, 18:41:41
AMD hatte bei RDNA2 das Design bereinigt, wenn RDNA3 Mainstream ein weiteres Stepping dessen wird, war das klar. Das wirkt im feineren Fertigungsverfahren um so deutlicher. Da scheint TSMC und AMD meilenweit vor Samsung zu liegen.

NVidia wir haben ein Problem...6900xt Performance bei 200w. Wooh. Her damit wenn es wirklich stimmt.

WedgeAntilles
2022-04-12, 19:14:19
Deine AMD Hate Posts sind schon echt manchmal "legendär". Hättest du dir das Video mal angeschaut, dann hättest du gesehen, dass Navi33 gegen die 4060 antritt, nicht gegen die 4070. Du brauchst dir also keine Sorgen machen und kannst dir das Fakten verdrehen sparen. Hier noch mal zum mitlesen: "RDNA 3 is impressive, even on 6nm...I leak Navi 33, and explain why the RTX 4060 is in trouble."
Die 4070 tritt also offensichtlich gegen Navi 32 an, welcher auch bei ca. 400W liegen wird. Hast dich also ganz um sonst aufgeregt.

Trolliges Kerlchen.
Im Lovelace Thread ist die Meinung der Mehrheit, dass die 4070 am ehesten AD104 mit 12GB Ram wird.

Und zu Moores Law:
https://www.youtube.com/watch?v=4pmW0zTJN6c
1:46:00 da spielt er mit Möglichkeiten, unter anderem einer 8GB 7700XT die eine 4070 schlägt.

Also höre du doch bitte auf mir "AMD Hate" zu unterstellen.
Ja ich weiß, das ist Mode - wenn man nix substantielles beizutragen hat beschimpft man den anderen eben als Hater.
Witzig, gerade heute habe ich ja zwei positive Posts zum 5800X-3D geschrieben.
Wenn AMD Müll macht (6500XT) schreibe ich das.
Wenn AMD etwas Gutes bringt (5800X 3D) schreibe ich das.

Aber das passt nicht in dein Weltbild, also darf es natürlich nicht sein.
Und in Zukunft melde dich an wenn du mich ansprichst - das gebietet die Höflichkeit.
Schade, dass dir deine Eltern das nicht beigebracht haben.
Naja, da fehlt ja auch noch diverses andere, da ist Höflichkeit vermutlich das geringste deiner Probleme.
Mit Glück bist du noch sehr jung und sie haben noch Zeit das versäumte nachzuholen.

Lehdro
2022-04-12, 19:24:37
Hat schon bei Ampere die Frage nach nem AMD "Leak" aufgeworfen, ob nvidia in ernsthaften Schwierigkeiten sein könnte. E
Meanwhile:
Aber dennoch, kann ein simpler 128MB Cache das Bandbreitenproblem einfach so lösen? Kann ich mir irgendwie nicht vorstellen.
Wer lag richtiger? :redface:

Imo war RDNA2 mehr als nur Warnschuss vor NVs Bug.

Gast Ritis
2022-04-12, 19:47:03
Und zu Moores Law:
https://www.youtube.com/watch?v=4pmW0zTJN6c
1:46:00 da spielt er mit Möglichkeiten, unter anderem einer 8GB 7700XT die eine 4070 schlägt.

Hä? Das war doch seine Antithese warum ein N33 kein 7700XT sein könnte, er meinte "das wäre nur möglich wenn die mit 8GB die 4070 schlagen würde"
Deshalb sagt er doch kurz zuvor er glaubt dass N33 als 7600XT vermarktet wird - also 4060 Kontrahent.
Korrekter Konjunktiv ist heutzutage weder im Deutschen noch im Englischen besonders üblich. Man muss schon beachten was er eigentlich sagen wollte.

Troyan
2022-04-12, 20:21:07
N33 ist 6nm, N31 ist 5nm - noch dazu MCM mit besonders vielen FP32, die man dann vermutlich nicht ganz so extrem taktet. Das passt also locker, auch wenn N31 noch weniger Watt hat.

Lovelace ist 5nm, Ampere 8nm. Laut dir keine Effizienzverbesserung. Aber AMD auf 5nm gegen 7nm soll deutlich besser sein. Merkst du den Widerspruch nicht? :confused:

Ob AD104 bei 400W liegt, habe ich nicht gesagt. Dies könnte passieren, aber ich denke es kommt doch bei weniger heraus. Noch hoffe ich, dass die ganze Extrem-Watt-Angaben zu Ada nicht so herauskommen wie derzeit genannt.

Du zitierst doch die Tweets. Ergo veröffentlichst du solche Aussagen, dass AD104 bei 400W läge und somit ineffizienter wäre als Ampere, gleichzeitig aber Navi33 auf dem selben Prozess ~22% effizienter als Navi21.

Denniss
2022-04-12, 20:22:16
180-230W kann auch TDP-TBP sein also GPU+RAM vs ganze Karte

Platos
2022-04-12, 20:29:31
Meanwhile:

Wer lag richtiger? :redface:

Imo war RDNA2 mehr als nur Warnschuss vor NVs Bug.

Bist du jetzt ernsthaft diesen alten Post ausgraben gegangen oder was ?

Und wer lag richtiger? Inwiefern spielt das eine Rolle? Ob ich richtig oder falsch lag, ändert an der Richtigkeit seiner Aussage genau 0.

Und was war denn RDNA2 deiner Meinung nach? Ampere Vernichter :D ? Nein, sie waren weit darunter. Kein DLSS, keine brauchbare RT Perfomance und beim Rest etwa gleich auf. Manchmal mehr Speicher, manchmal weniger.

Dovregubben
2022-04-12, 22:02:58
MLID lebt davon Untergänge und Vernichter vorherzusagen und mit unglaublich hässlichen Folien im Verschwörungstheoretiker-Look "seriös" aussehen zu lassen. Argumentieren tut er auf dem Level von Wahrsagern. Er findet aber ja offensichtlich seine Zielgruppe.

iamthebear
2022-04-12, 22:24:13
Mal eine ehrliche Frage: Das das alles erstunken und erlogen ist, tangiert dich nicht? Wenn eine Navi33 also bis zu 230W verbrauchen könnte, wie genau soll AMD also bei der 3x Leistung von Navi31 bei <=500W liegen?

1.) Navi31 wird großteils in 5nm gefertigt. Das alleine bedeutet schon mal 30% weniger Verbrauch.
2.) Navi33 ist mit ca. 3GHZ deutlich höher getaktet als Navi31 mit 2.5GHz.

nVidias AD104 soll bei 400W liegen, aber ein gleichwertiges AMD Produkt auf einem erheblich schlechteren Prozess bei 230W? Interessiert dich das wirklich nicht?

Die 400W für AD104 waren ein Aprilscherz von kopite.

AD104 ist ca. 40% von AD102. Das ist ca. dasselbe Verhältnis wie die 3060 Ti zur 3090 Ti.
Wenn die 4090 Ti 600W zieht, dann ist der Top AD104 Die ca. auf 250W.

Ich kann mir nicht vorstellen, dass die 6700XT 12GB hat, der "Nachfolger" aber nur 8GB. Vielleicht gibt es 8 und 16GB Varianten und der User kann wählen.
Der Chip dürfte ja auch im Notebook landen (als Topmodell, da die Desktop Variante ja schon bis 180W herunter kommen soll), da müsste er auf jeden Fall mindestens 12GB bieten, denn die bietet ja schon das aktuelle Topmodell von AMD im Mobile Bereich. Die Zahl muss da mindestens gleich bleiben.

Und AMD hat die 12GB der 6700 XT auch bitter bereut bei VRAM Preis von bis zu 15$/GB. Oder mit anderen Worten: Eine 6900 XT mit 8GB wäre billiger gewesen als eine 6700 XT mit 12GB. Was sich wohl in einem normalen Markt besser verkaufen wird...

Ich würde mal den Prozess außen vor lassen (kann ja auch Fake sein, dass AMD N6 nutzt, für N32 und N31 wird auch N5 genutzt), aber wenn N33 schon 230W braucht, müsste ja schon N32 bei grob 400W liegen (etwas weniger Takt, daher 60W weniger trotz grob doppelter FLOPS). Und das ist ja der Konkurrent zu AD104.

Die 5nm vs. 6nm sind relativ sicher. Wenn du das anzweifelst kannst du auch gleich anzweifeln, dass es Navi32 überhaupt geben wird.
N6 hat meines Wissens nach nur Density Verbesserungen gegenüber von N7P aber nicht weniger Verbrauch. N5P ist 30% sparsamer als N7P. Auch die Taktraten von Navi32 sind niedriger. Ich würde also eher mit 300W für Navi32 rechnen.

Und nein AD104 ist kein Navi32 Konkurrent. AD104 ist ca. das, was bei Ampere GA106 war. Selbst AD103 wird nicht ausreichen.

Es dürfte grob so aussehen:
Navi31: 2.5x
AD102: 2.2x
Navi32: 1.8x
AD103: 1.3x
Navi33: 1x
AD104: 0.9x
Navi22: 0.55x
AD106: 0.55x
Navi23: 0.4x
AD107: 0.37x

Dieses Argument gab es schonmal vor den Releases von RDNA2 vs. Ampere.

Da hieß es auch:
- weil RDNA1 etwas weniger effizient als Turing ist (ohne DLSS oder Raytracing) (siehe [ComputerBase (https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/3/#abschnitt_die_energieeffizienz_als_performance_pro_watt)]) und
- RDNA2 denselben Fertigungsnode beibehalten (TSMC 7nm) während Ampere ein (half)Node-Sprung macht (TSMC 12nm zu 8nm Samsung),
wird es quasi gar nicht anders möglich sein, als das Ampere RDNA2 Effizienzmäßig komplett zerstört.

Ich denke das hatte mehrere Gründe:
.) AMD ist auch von N7 auf N7P umgestiegen was auch ca. 10% Energieeinsparung bedeutet hat.
.) Turing war relativ gemütlich getaktet besonders die 2080 Ti. Bei Ampere sah das schon ganz anders aus. Anhand der Scaling Benchmarks sieht man gut, dass z.B. eine 3090 auch wunderbar mit 300W gelaufen wäre ohne viel zu verlieren.
.) GDDR6X hat den Energieverbrauch deutlich erhöht (siehe 3070 vs. 3070 Ti) während AMD seinen Energiebedarf mit dem Infinity Cache gesenkt hat.
Bei Lovelace ist eigentlich das Gegenteil zu erwarten: Da setzt Nvidia erstmals größere Mengen an Cache ein während AMD bei den 128MB verbleibt (von Navi21 zu Navi33).

Um ehrlich zu sein:
Ich wüsste nicht was an Lovelace unbedingt 600W bzw. 4.16W/SM benötigen würde wenn eine 3090 mit 300W bzw. 3.65W/SM in Samsung 8nm wunderbar läuft.
Entweder sind die Leaks falsch und Lovelace ist deutlich größer als nur die +70% SMs und Caches oder die 600W entstehen nur durch maßloses sinnloses Hochtreiben noch viel schlimmer als die 3090 Ti.

Lehdro
2022-04-12, 22:38:08
Bist du jetzt ernsthaft diesen alten Post ausgraben gegangen oder was ?
Nee,es sind aber genau solche Aussagen die manchmal hängen bleiben :smile:

Und wer lag richtiger? Inwiefern spielt das eine Rolle? Ob ich richtig oder falsch lag, ändert an der Richtigkeit seiner Aussage genau 0.
RDNA2 hat NV auf jeden Fall mehr Kopfschmerzen bereitet als alles was Jahre davor kam. Die "guten" Preise für Ampere kamen ja nicht vom guten Herzen Jensens. ;)

Und was war denn RDNA2 deiner Meinung nach? Ampere Vernichter :D ?
Sicher nicht, aber definitiv mehr als NV wollte, wie man an der Reaktion gesehen hat. Ohne Miningkrise wäre da sicher einiges anders verlaufen.

ChaosTM
2022-04-12, 22:40:44
Die extremen Stromverbräuche die NV anstrebt sagen schon einiges aus.
Mein Gefühl sagt mir dass dass Schadensbegrenzung ist. Warum würde man sonst sowas dummes anstreben.. ?

Lisas Firma scheint diesmal den deutlich besseren Ansatz zu haben..

Converible
2022-04-12, 23:28:45
PCIE 5.0 x8 ist eindeutig der falsche Weg. AMD hat ja noch keine einzige PCIe 5.0 CPU auf dem Markt und wenn welche im Herbst kommen, dann werden das auch wieder erst mal CPUs über 299 Euro sein....

PCIE 4.0 x16 wäre sinniger gewesen, insbesondere bei nur 8 GB VRAM.

Aber gut, dann gibt es für den Core i5 12400 mit PCIe 5.0 ein weiteres Argument mehr als für den Ryzen 5 5600 mit "nur" PCIe 4.0.

Vom "nagelneuen" Ryzen 5 5500 mit nur PCIe 3.0 brauchen wir gar nicht erst reden...

Platos
2022-04-13, 00:02:24
@Lehdro: Ja, RDNA2 war die beste Generation seit Ewigkeiten.

Legendenkiller
2022-04-13, 07:30:43
Die extremen Stromverbräuche die NV anstrebt sagen schon einiges aus.
Mein Gefühl sagt mir dass dass Schadensbegrenzung ist. Warum würde man sonst sowas dummes anstreben.. ?

Lisas Firma scheint diesmal den deutlich besseren Ansatz zu haben..

Das war ja bisher nicht dumm, sondern hoch Profitabel.
Und die letzen 6 Jahre haben Nvidia 2 Sachen klar gezeigt.

1. maximale Leistung lässt sich zum maximalen Preis verkaufen
2. die ausufernden Verbräuche waren (bisher) nicht negativ kaufentscheident

Solagen die Kunden mehr Wert auf maximale Leistung legen als auf Effizienz wird Nvidia weiter maximale Leistung anbieten.

PS: ich hoffe ja mal das jetzt wirklich die Schmerzgrenze erreicht wird... allerdings dacht ich auch bei den 320W einer 3080 schon, das kauft keiner mehr.
Zum Schluss ist Strom einfach noch zu billig, als das die Leute sich von 300,400 oder 600W für eine GRaka abschrecken lassen.

Im Moment haben ja viele noch Bestandsverträge mit ~30cent / kWh. Das böse erwachen kommt aber für viele im laufe des Jahres, wenn ihre Jahresrechnung kommt und sie die neuen Strompreis von 45-70cent / kWh bekommen.

Und selbst dann fange viele nicht an Strom zu sparen, sondern maulen nur rum unf bezahlen einfach mehr.

Gast
2022-04-13, 08:18:50
Und AMD hat die 12GB der 6700 XT auch bitter bereut bei VRAM Preis von bis zu 15$/GB. Oder mit anderen Worten: Eine 6900 XT mit 8GB wäre billiger gewesen als eine 6700 XT mit 12GB. Was sich wohl in einem normalen Markt besser verkaufen wird...
Meinst du damit, dass die zusätzlichen 4GB preislich mehr ausmachen, als der größere Chip? Kann ich mir nicht wirklich vorstellen.

Gast
2022-04-13, 08:53:00
Die 5nm vs. 6nm sind relativ sicher. Wenn du das anzweifelst kannst du auch gleich anzweifeln, dass es Navi32 überhaupt geben wird.
N6 hat meines Wissens nach nur Density Verbesserungen gegenüber von N7P aber nicht weniger Verbrauch. N5P ist 30% sparsamer als N7P. Auch die Taktraten von Navi32 sind niedriger. Ich würde also eher mit 300W für Navi32 rechnen.

Und nein AD104 ist kein Navi32 Konkurrent. AD104 ist ca. das, was bei Ampere GA106 war. Selbst AD103 wird nicht ausreichen.

Es dürfte grob so aussehen:
Navi31: 2.5x
AD102: 2.2x
Navi32: 1.8x
AD103: 1.3x
Navi33: 1x
AD104: 0.9x
Navi22: 0.55x
AD106: 0.55x
Navi23: 0.4x
AD107: 0.37x
Bezüglich N5 und N6 hatte ich ja geschrieben: N5 wird bei AMD auch im Einsatz sein, nur eben für Navi31/32. Und das mit den Chip Namen ist ja auch immer gerne mal Schall und Rauch, bis zum Launch kann es da sicher noch Verschiebungen geben (war bei Ampere ja auch so, da hat GA103 ja auch viele verwirrt).
Aber was ich nicht so ganz verstehe ist die Tabelle. Was soll z.B. die 2,5x bei Navi31 aussagen? FP32 kann es nicht sein, denn da wird AD102 sicher schneller sein mit mehr FP32 Einheiten und vermutlich kaum weniger Takt. Das würde ja auch erklären, warum AD102 mehr als Navi31 braucht.
Auch den Verbrauch von Navi32 finde ich mit deinen 300W schon sehr optimistisch. Klar, N5 ist etwas sparsamer, aber bei der Anzahl an Shadern kann man kaum auf 300W kommen, da müsste man im Takt wohl unter 2GHz. N5 ist nämlich entweder sparsamer, oder schneller als N7, aber nicht sparsamer und schneller. Und im Vergleich zu Navi 21 müsste man deiner Theorie nach mehr als doppelt so viele Shader mit höherem Takt fahren, ohne dabei mehr zu verbrauchen. Das geht mit dem Wechsel von N7 auf N5 alleine nicht. Da müsste man schon noch an vielen anderen Stellen in die Trickkiste greifen.
Und schließlich sagst du selber ja auch aus, dass Ada bei der Effizienz deutliche Verbesserungen bringen müsste, während du das bei Navi 3x nicht siehst. Daher passen die 300W eben nicht.
Kleine Korrektur noch: die 3090 hat 350W und AD102 kann natürlich auch deutlich höher Takten, was den Verbrauch natürlich auch treiben kann. Entsprechend ist es durchaus möglich, dass ein Ada Shader mehr verbraucht als ein Amperer Shader, kommt halt einfach drauf an, wie NVidia den Chip auslegt.

Gast
2022-04-13, 09:12:07
Trolliges Kerlchen.
Im Lovelace Thread ist die Meinung der Mehrheit, dass die 4070 am ehesten AD104 mit 12GB Ram wird.
Spricht ja auch nichts dagegen, aber im Video war halt der Vergleich zwischen Navi33 und einer 4060 und nicht der 4070. Insofern hast du dich einfach um sonst aufgeregt, zumindest bei dem Video.

Gast
2022-04-13, 11:20:22
PCIE 5.0 x8 ist eindeutig der falsche Weg. AMD hat ja noch keine einzige PCIe 5.0 CPU auf dem Markt und wenn welche im Herbst kommen, dann werden das auch wieder erst mal CPUs über 299 Euro sein....

Macht nix, 8x PCIe4.0 sind auch weitaus ausreichend. Problematisch ist eher, dass auch PCIe4.0 im Mainstream eher schlecht verbreitet ist.

Leonidas
2022-04-13, 12:35:58
Navi33: 1x
AD104: 0.9x


Ich sehe AD104 mehr als deutlich vor Navi 33. Sieh Dir die TFlops an: AMD 23-25 vs. NV 35-40. Sofern AMD in dieser Situation einen Gleichstand herausbekommt, müsste man an der Leistungsspitze AD102 mit Abstand +33% weit überflügeln.

why_me
2022-04-13, 13:44:45
Ich sehe AD104 mehr als deutlich vor Navi 33. Sieh Dir die TFlops an: AMD 23-25 vs. NV 35-40. Sofern AMD in dieser Situation einen Gleichstand herausbekommt, müsste man an der Leistungsspitze AD102 mit Abstand +33% weit überflügeln.

Ist doch bei einer 6900 XT vs 3090 nicht anders. 23 zu 35 TFLOPs und dennoch sind beide bei non RT games ca. gleich schnell, mal die eine, mal die andere vorne.

Linmoum
2022-04-13, 14:46:35
Ja, Nvidias Marketingflops finden überall ihren Anklang. Haben nur mit der Realität nichts zu tun. Double FP32 ist zwar schön, wenn da das in Spielen aber keine Relevanz hat, bringt mir das herzlich wenig.

Leonidas
2022-04-13, 14:53:08
Ist doch bei einer 6900 XT vs 3090 nicht anders. 23 zu 35 TFLOPs und dennoch sind beide bei non RT games ca. gleich schnell, mal die eine, mal die andere vorne.

Wie gesagt: Hält das bei RDNA3 zu Ada, dann müsste N31 AD102 massiv überflügeln. Wovon bislang nichts berichtet wird.

Ich gehe davon aus, dass sich die TFlops-Effektivität beider Architekturen wieder annähern wird. Womit der große TFlops-Vorteil von AD104 durchschlagen dürfte.

Gast
2022-04-13, 19:46:00
Ich gehe davon aus, dass sich die TFlops-Effektivität beider Architekturen wieder annähern wird. Womit der große TFlops-Vorteil von AD104 durchschlagen dürfte.

Ich geh mal aus, dass Nvidia das Registerfile verdoppeln wird, damit sollte die "Teraflop-Effizienz" wieder nahe bei Turing liegen.

Gast
2022-04-13, 22:19:35
Ich sehe AD104 mehr als deutlich vor Navi 33. Sieh Dir die TFlops an: AMD 23-25 vs. NV 35-40. Sofern AMD in dieser Situation einen Gleichstand herausbekommt, müsste man an der Leistungsspitze AD102 mit Abstand +33% weit überflügeln.

Was willst du denn ständig mit deinem TFlops Gefasel bewirken, das ist doch seit Jahren nur ein Buzzword. Spiele und Spieleengine gehen zuweilen ziemlich unterschiedlich mit den Leistungsreserven um, dass kann man an so theoretischen Größen wie TFlops überhaupt nicht festmachen. Früher waren es Füllraten heute sind es TFlops, den Quatsch haben sich die Marketingabteilungen ausgedacht, um den Leuten irgendwelche Größen zu verkaufen die unter Spielen überhaupt keine Relevanz haben, aber stetig wachsen. Vor allem geht es unter Spielen um Ausnutzung und Ressourcenverwertung in Echtzeit, da spielt TFlops als Grösse für Gleitkomma überhaupt keine Rolle. Mein Gott und ihr wollt eine Expertenseite sein und dann wird hier so ein Dummfug geschrieben. Vor allem zählt unter Spielen wie hoch die Komplexität der Codebasis ausfällt und wie hardwarenah man programmieren kann. So einen Schwachsinn wie TFlops braucht es dafür nicht. Für das Quantum an Mehrperformance kann TFlops also kaum ein Indikator sei, wie es schon Füllraten nicht waren und auch keine Speicherbandbreite perse und all diese Buzzwords, wenn es um abrufbare und vor allem nutzbare Leistung geht.

Trennt euch von solchen Begriffen bei Vergleichen, weil sie in dem Fall als Begründung hilflos wirken und eher laienhaft klingen.

Leonidas
2022-04-14, 04:32:02
Es gibt sicherlich viele Buzzwörter. TFlops gehört nicht wirklich dazu. Es wird teilweise als solches genutzt, aber die Aussagekraft der dahinterstehenden Physik sollte man nicht versuchen zu bestreiten.

Dass man nicht jedes TFlops auf die Straße bringt bzw. dass es da große Unterschiede gibt, wird damit nicht bestritten. Nur ganz ohne Bedeutung ist der Begriff nun wirklich nicht. In diesem Punkt schießt Du deutlich über das Ziel hinaus.

Troyan
2022-04-14, 12:37:00
Ist doch bei einer 6900 XT vs 3090 nicht anders. 23 zu 35 TFLOPs und dennoch sind beide bei non RT games ca. gleich schnell, mal die eine, mal die andere vorne.

Also ich sehe 6MB gegen 4MB+128MB Cache und trotzdem ist die 3090 doppelt so schnell. Da sieht man mal, was richtiger Cache gegen Fake-Cache ausrichten kann.

Gast
2022-04-14, 13:20:24
3090 und 6900XT sind ungefähr gleich schnell. Die 3090 ist einfach nur teurer wegen dem größeren Speicher und Nvidia`s Marketingkosten.

Die fp32 Tflop/s Daten bei der 3090 sind natürlich fake, weil sie nicht unter allem Umständen erreicht werden können, sondern nur in theoretischen Spezialfällen. Den gleichen bzw. ähnlichen Fake hat Nvidia schon versucht bei fp64 double precision zu verkaufen.

Die fp32 Tflop/s bei der RX6900XT sind echte fp32, die nicht nur theoretisch, sondern auch praktisch erreicht werden.

Leider ist das Niveau auf 3dc sehr gesunken was die technische Berichterstattung angeht. Es liegt wohl daran, dass 3dc seit Jahren technisch keine eigenen Artikel mehr verfasst, sondern nur noch abschreibt und kopiert.

Die größte Leistung auf der Straße was Tflop/s fp32 + fp16 angeht, sieht man an der Sony PS5 mit ~ 10 Tflop/s. Nvidia braucht dafür 20 Tflop/s bei der 3070Ti.

Technisch kann man sehen, dass die Tfop/s fp32 bei RDNA 2.0 etwa doppelt so schnell sind wie Tflop/s fp32 bei Ampere.

Gast
2022-04-14, 14:45:10
Es gibt sicherlich viele Buzzwörter. TFlops gehört nicht wirklich dazu.
Jein. Nvidia hat das doch gemacht. Keine zusätzlichen Einheiten, sondern man/die Anwendung konnte/musste entweder-oder entscheiden. In Realität kam dann viel weniger an fps-Steigerung raus als Nvidida per TFlops suggeriert hatte.

why_me
2022-04-14, 14:59:37
Also ich sehe 6MB gegen 4MB+128MB Cache und trotzdem ist die 3090 doppelt so schnell. Da sieht man mal, was richtiger Cache gegen Fake-Cache ausrichten kann.

Dann geh mal zum augenarzt, da scheint irgendwas an deinen Augen nicht zu stimmen ;).

Troyan
2022-04-14, 15:07:26
Die fp32 Tflop/s Daten bei der 3090 sind natürlich fake, weil sie nicht unter allem Umständen erreicht werden können, sondern nur in theoretischen Spezialfällen. Den gleichen bzw. ähnlichen Fake hat Nvidia schon versucht bei fp64 double precision zu verkaufen.

Die fp32 Tflop/s bei der RX6900XT sind echte fp32, die nicht nur theoretisch, sondern auch praktisch erreicht werden.

Da eine RDNA2 CU nur Integer oder FP32 Berechnungen ausführen kann, wie genau kann AMD also "echte FP32" haben? :freak:


Leider ist das Niveau auf 3dc sehr gesunken was die technische Berichterstattung angeht. Es liegt wohl daran, dass 3dc seit Jahren technisch keine eigenen Artikel mehr verfasst, sondern nur noch abschreibt und kopiert.

Danke, dass du das ganze nochmal auf den Punkt bringst.

Dann geh mal zum augenarzt, da scheint irgendwas an deinen Augen nicht zu stimmen ;).

Also lügt AMD? Naja, vielleicht kannst du ja es an deine Marketingabteilung weitergeben: https://www.amd.com/de/technologies/rdna-2

why_me
2022-04-14, 15:14:37
Also lügt AMD? Naja, vielleicht kannst du ja es an deine Marketingabteilung weitergeben: https://www.amd.com/de/technologies/rdna-2

Wo steht da etwas zur leistung der 3090 :confused:
Was ist meine Marketing Abteilung :confused:

Nett gemeinter Rat, lass ducg bitte mal untersuchen, bei dir scheint etwas nicht zu stimmen.

Troyan
2022-04-14, 15:30:21
Einfach nochmal alles lesen. Ist nicht schlimm, wenn Leute dich mit Sarkasmus bloßstellen:

Ist doch bei einer 6900 XT vs 3090 nicht anders. 23 zu 35 TFLOPs und dennoch sind beide bei non RT games ca. gleich schnell, mal die eine, mal die andere vorne.

Also ich sehe 6MB gegen 4MB+128MB Cache und trotzdem ist die 3090 doppelt so schnell. Da sieht man mal, was richtiger Cache gegen Fake-Cache ausrichten kann.

Immerhin bewirbt AMD ja mit den angeblichen Zahlen ihr Produkt gegen die Konkurrenz:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=79034&stc=1&d=1649942992

Daher eben auch meine Bitte an dich.

Gast
2022-04-14, 15:53:23
Immerhin bewirbt AMD ja mit den angeblichen Zahlen ihr Produkt gegen die Konkurrenz:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=79034&stc=1&d=1649942992




Ist nur ein kompletter Blödsinn, mehr Cache führt nicht zu mehr Bandbreite, sondern dazu dass weniger Bandbreite benötigt wird.

Und noch falscher wird die ganze Rechnung, weil man bei der Konkurrenz einfach die physische Bandbreite angibt. Selbst wenn man sich mit dem Cache irgendeine fiktive Bandbreite schönrechnet, müsste man das auch bei den anderen GPUs machen, schließlich haben die auch Caches, die dann ihre fiktive Bandbreite erhöhen würden. Klar bei weitem nicht in dem Ausmaß wie es der riesige IF-Cache bei AMD macht, aber eben auch nicht mit dem Faktor 0.

why_me
2022-04-14, 16:15:29
Nur weil du jetzt deine wirre Behauptung jetzt als Sarkasmus bezeichnest, macht es das nicht besser. Das ist nur ein jämmerlicher Versuch deinerseits, dich heraus zu winden.
Das ist nur wirres Zeug, das du da durcheinander wirst und versuchts damit irgendwie, irgendetwas zu beweisen... Auch keine Ahnung, wo/wie du mich hier bloßgestellt haben solltest. :confused:

Dein ursprünglicher Post war "wirres Geschwafel über Cache ... "3090 doppelt so schnell" ... wirres Geschwafel über "Fake-Cache", was auch immer das ist.
Wo die 3090 angeblich doppelt so schnell sein soll (non RT gaming), kannst du auch nicht Zeigen.

Und was diese Unterstellung mit Marketingabteilung soll, hab ich auch keine Ahnung.

Und jetzt wirfst du noch mit Bandbreiten Angaben um dich, was willst du damit zeigen? :confused:

Bist halt nur ein kleiner Troll, ohne Ahnung, der wild mit Zahlen um sich wirft, ohne sie zu verstehen. Gut, werde ich mir für die Zukunft merken...

Leonidas
2022-04-14, 17:34:22
Jein. Nvidia hat das doch gemacht. Keine zusätzlichen Einheiten, sondern man/die Anwendung konnte/musste entweder-oder entscheiden. In Realität kam dann viel weniger an fps-Steigerung raus als Nvidida per TFlops suggeriert hatte.

Das mit "keine zusätzlichen Einheiten" ist nicht korrekt. Die vorherigen INT32-Einheiten können nun auch FP32. Das ist ein deutlicher Unterschied, was auch Transistoren kostet.

Das deutlich weniger herauskommt als bei regulär doppelt so viel FP32, stimmt natürlich.

Gast
2022-04-14, 20:14:03
Das mit "keine zusätzlichen Einheiten" ist nicht korrekt. Die vorherigen INT32-Einheiten können nun auch FP32. Das ist ein deutlicher Unterschied, was auch Transistoren kostet.OK, ok, ok. SO genau habe ich es zugegeben an der Stelle nicht genommen. Fake war es trotzdem. Oder was man heute Marketing statt Propaganda nennt.

Leonidas
2022-04-15, 05:00:58
Fake ist etwas, was real nicht da ist. Die 128 FP32 sind da - und können sogar genutzt werden. Das man sie nicht AUSnutzt, weil zuerst andere Dinge limitieren, sagt nicht das sie "Fake" wären. Dafür sind andere Begriffe da - "Fake" trifft hier nicht zu.

Platos
2022-04-15, 10:22:13
OK, ok, ok. SO genau habe ich es zugegeben an der Stelle nicht genommen. Fake war es trotzdem. Oder was man heute Marketing statt Propaganda nennt.

Propaganda :D Du solltest nochmals nachschlagen, was das Wort bedeutet.