PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 4. Mai 2022


Leonidas
2022-05-05, 08:28:45
Link zur News:
https://www.3dcenter.org/news/news-des-4-mai-2022

Geldmann3
2022-05-05, 08:35:09
Wird interessant zu sehen, was PCIe 5.0 an Performance bringen wird, auch, wenn der Vergleich höchst akademisch sein wird. Mehr als 4% im Schnitt kann ich mir kaum vorstellen. Doch ich bin gespannt, ob einige Games noch deutlich messbar darauf reagieren. Bei AMD kann PCIe 5.0 langfristig mehr Sinn machen, da die bei den kleineren Karten ja gerne mal Lanes beschneiden.

Sollte Navi 33 also z.b. nur mit 8 Lanes daherkommen, hat man hier noch immer die volle PCIe 4.0 Bandbreite bei RX 6950 XT Performance.

Leonidas
2022-05-05, 08:46:47
Navi 33 kommt ja auch mit nur 8 Lanes (lt. MLID).

Gast
2022-05-05, 10:05:57
Wie kommst du eigentlich ständig darauf das PCIe 5.0 mehr Energie verbraucht? Bei gleicher Bandbreite wie 4.0 braucht es die Hälfte des Phy. Das verbraucht doch nicht mehr, sondern weniger.

Wenn AMD bei Navi31 mit MCM kommt, bleibt ihnen doch kaum was anderes übrig, da die Chiplets mit einem Interconnect verbunden werden das darauf aufbaut, die ASICS und Hosts auf gleicher Ebene über PCIe 5.0 Standard kommunizieren, GPU versus CPU, I/O versus CPU usw.. Das geht doch gar nicht anders.

NVidias Gescbrubbel Interface 4.0 aber Leistungsaufnahme über 12v ala 5.0 ist besser? Das ist wieder typisch NVidia. Mischhybrider altbackenenmr Mist mit ihrem proprietären Müll um sich Standards selbst zu erfinden.

PCIe 5.0 braucht für das Phy und deren Datenrate nicht mehr Energie, es braucht bei gleicher Bandbreite weniger, nicht nur Energie sondern auch physisch. Man braucht für PCIe 4.0 Bandbreite gerade das halbe Phy. Wie soll denn das mehr verbrauchen? Das Leistungsandmforderungprofil ist doch gar nicht gestiegen, es liegt auch energetisch bei der Versorgung über PCIe weiter bei 75w und ist physisch bei doppelter Datenrate deutlich effizienter.

Platos
2022-05-05, 10:55:16
Ich würde sagen PCI-E 5.0 ergibt genau gar kein Vorteil.

maximus_hertus
2022-05-05, 10:59:42
Ich würde sagen PCI-E 5.0 ergibt genau gar kein Vorteil.

this.

Außer bei Karten mit einer x4 Anbindung, da würde ich schon erwarten, einen Vorsprung durch 5.0 zu sehen.

Aroas
2022-05-05, 11:02:13
Was hat Lenovo denn da für ein sinnloses Notebookmodell erdacht?
Als Endkunde kaufe ich doch solch einen "P" Prozessor bzw. ein damit ausgestattetes Gerät unter anderem deshalb, weil ich eben nicht die aufs absolute Maximum hochgezüchteten CPU Modelle haben will, die massiv Strom verbrauchen.
Wenn dann aber die Einstellungen für diese CPU vom Gerätehersteller so gesetzt werden, dass ich eben einen derben Stromschlucker bekomme, dann fühle ich mich doch belogen und betrogen.

Gibts denn echt keinen Hersteller mehr, der das Zeug mal so konfiguriert, wie es eigentlich angedacht ist, statt ständig vorn und hinten zu bescheissen?

Gast
2022-05-05, 12:00:56
Link zur News:
https://www.3dcenter.org/news/news-des-4-mai-2022
Kann mal mal sehen was PCGH da für einen "Nonsens" vermisst. Selbst UL hält andere Werte vor!

https://benchmarks.ul.com/de/hardware/gpu/AMD+Radeon+6900+XT+review

Da kommt man dann mit einer 3090ti die 450W und mehr verpulvert! Eine XTXH schafft jetzt schon 22000 Graphics Score und OC Varianten (stark werksübertaktete???) schaffen mit dem richtigen Unterbau über 27000! Sonst würde unter UL nicht so ein Durchschnittswert herauskommen. Bei Customkarten handelt es sich nunmal nicht um Refrenzen und wenn AMD einfach den Takt anhebt, weil es die Fertigung zulässt, kommt sowas raus. Die Partner lassen es zu! Was macht denn Nvidia beim GA102 alias 3090ti? - genauso sinnlos drauf einprügeln! AMD hat bei der Effizienz von RDNA2 viel mehr Spielraum. Wie du siehst schaffen die jetzt schon unter Luft 22500 Points und TSMC dürfte die Fertigung vorangebracht haben.

https://www.hardwareluxx.de/community/threads/radeon-rx-6000-3dmark-time-spy-rangliste.1294520/

Besser wäre, man beschäftigt sich vorher einfach mal mit dem Thema über das man schreibst, als seinen "persönlichen Schnellschuss-Spekualtius" als Fakt in den Äther zu entlassen. Kann man von professioneller Presse, als die man sich hier verkauft - einfach erwarten.

Nvidia bringt ja kein Refrenzdesign der 3090ti oder 3080 12G damit erst gar nicht vergleichen kann!

Legendenkiller
2022-05-05, 12:45:50
Wie kommst du eigentlich ständig darauf das PCIe 5.0 mehr Energie verbraucht? Bei gleicher Bandbreite wie 4.0 braucht es die Hälfte des Phy. Das verbraucht doch nicht mehr, sondern weniger.

Wenn AMD bei Navi31 mit MCM kommt, bleibt ihnen doch kaum was anderes übrig, da die Chiplets mit einem Interconnect verbunden werden das darauf aufbaut, die ASICS und Hosts auf gleicher Ebene über PCIe 5.0 Standard kommunizieren, GPU versus CPU, I/O versus CPU usw.. Das geht doch gar nicht anders.

NVidias Gescbrubbel Interface 4.0 aber Leistungsaufnahme über 12v ala 5.0 ist besser? Das ist wieder typisch NVidia. Mischhybrider altbackenenmr Mist mit ihrem proprietären Müll um sich Standards selbst zu erfinden.

PCIe 5.0 braucht für das Phy und deren Datenrate nicht mehr Energie, es braucht bei gleicher Bandbreite weniger, nicht nur Energie sondern auch physisch. Man braucht für PCIe 4.0 Bandbreite gerade das halbe Phy. Wie soll denn das mehr verbrauchen? Das Leistungsandmforderungprofil ist doch gar nicht gestiegen, es liegt auch energetisch bei der Versorgung über PCIe weiter bei 75w und ist physisch bei doppelter Datenrate deutlich effizienter.

Der Verluste in Kupfer steigen expotentiell bei linear steigenden Frequenzen.

Also 8x PCI5 verbraucht sicher mehr als 16x PCI 4 obwohl sie die selber Übertragsbandbreite haben.
Wenn es nicht durch anderweitige Maßnamen kompensiert wird. w.z.b. kürzere Verbindungen , niedriegere nötige Signal/rauschabstand ...
Was immer auch mit gemacht wird ... wird aber immer schwerer. Das Signal ist jetzt schon eine Rauschen aus den man mit viel Aufwand wieder eine Signal rekonstruiert.

Wird halt langsam Zeit auf optische Übertragung zu gehen. Oder auf 32 Lanes. Beides ist Teuer.

Nur zu Gast
2022-05-05, 13:12:19
Vielleicht ist PCI5 auch drin, damit der gleiche Die auch im professionellen Umfeld eingesetzt werden kann - da gibt es "zu viel Bandbreite" eher nicht. Bei AMDs MCM Ansätzen sehe ich immer auch eine Synergie über verschiedene Geschäftsbereiche hinweg.

Leonidas
2022-05-05, 13:19:54
https://benchmarks.ul.com/de/hardware/gpu/AMD+Radeon+6900+XT+review
Da kommt man dann mit einer 3090ti die 450W und mehr verpulvert! Eine XTXH schafft jetzt schon 22000 Graphics Score und OC Varianten (stark werksübertaktete???) schaffen mit dem richtigen Unterbau über 27000!

Nicht die 22k stehen in Frage. Sondern die +20% laut WCCF.



Nvidia bringt ja kein Refrenzdesign der 3090ti oder 3080 12G damit erst gar nicht vergleichen kann!

Es gibt sehr wohl eine Founders Edition zur 3090 Ti.

Gast
2022-05-05, 13:51:59
Wie kommst du eigentlich ständig darauf das PCIe 5.0 mehr Energie verbraucht?
Gegenfrage: Warum hat AlderLake P nur PCIe4, wenn PCIe5 nicht mehr Energie kostet?

Gast
2022-05-05, 14:09:29
Was hat Lenovo denn da für ein sinnloses Notebookmodell erdacht?
Als Endkunde kaufe ich doch solch einen "P" Prozessor bzw. ein damit ausgestattetes Gerät unter anderem deshalb, weil ich eben nicht die aufs absolute Maximum hochgezüchteten CPU Modelle haben will, die massiv Strom verbrauchen.
Wenn dann aber die Einstellungen für diese CPU vom Gerätehersteller so gesetzt werden, dass ich eben einen derben Stromschlucker bekomme, dann fühle ich mich doch belogen und betrogen.

Gibts denn echt keinen Hersteller mehr, der das Zeug mal so konfiguriert, wie es eigentlich angedacht ist, statt ständig vorn und hinten zu bescheissen?
Naja, Lenovo hat nur das PL1 erhöht. Die 64W PL2 sind für die P Modelle Default. Wenn Lenovo also meint, ihre Kühlung reicht auch für die 38W PL1, dann ist das halt so. Und offensichtlich ist das von Intel ja auch erlaubt, sonst könnte man den Wert nicht erhöhen.

Gast
2022-05-05, 14:13:30
Vermutlich werden die günstigeren Boards auch weiterhin kein 5.0 anbieten, weil das zu teuer wird.
Das Problem ist also nicht 31 - dafür wird man eh vierstellig bezahlen müssen, sondern 33 mit x8. Auf 4.0 womöglich limitierend.

Wie das mit Stromverbrauch bei gleicher Bandbreite ist, konnte ich nicht herausfinden. Es stehen sich Takt und 'Optimierungen beim Stromverbrauch' gegenüber.

Wenn der I/O-Teil auch bei den Instinct Verwendung finden soll, ist 5.0 aber sicher Pflicht.

Lehdro
2022-05-05, 14:21:31
Zu PCIe 5.0 werfe ich einfach mal das Stichwort Direct Storage in den Raum. Kann sein dass das bei entsprechenden Extremfällen durchaus relevant werden kann.

Gast
2022-05-05, 14:22:09
Nicht die 22k stehen in Frage. Sondern die +20% laut WCCF.
Die 20% kommen doch von den 22k der 6950XT und den dazu angegebenen 18k der 6900XT.
Insofern sind die Hinweise, dass die 22k realistisch sind ja eigentlich Kritik an WCCF, weil wohl deren Wert der 6900XT deutlich zu niedrig ist.

Leonidas
2022-05-05, 15:32:24
Insofern sind die Hinweise, dass die 22k realistisch sind ja eigentlich Kritik an WCCF, weil wohl deren Wert der 6900XT deutlich zu niedrig ist.

Korrekt.

gastello
2022-05-05, 15:47:25
@Legendenkiller
Die Lanes sind kürzer, da steigt nichts. Die Steigerung wird über Codierungen der Bitraten in Gigatransfers pro sec erreicht, wobei die reale Bandbreite geringer ausfällt. Dabei ist der Speed per Lane gemeint! Dafür reicht Kupfer vollkommen. Für's Spielen derzeit eher irrrelevant. Da sind die Vorteile eher gering.

@Leonidas
WCCF Tech schreiben "Graphic Score" (oben rechts über der Tabelle). Es gibt einmal den Time Spy Score und separat den Time Spy Graphic Score. Das muss man einzeln behandeln. Bitte genauer lesen.

Siehe: .../timespy+graphics+score+performance+preset/...

Die Graphics Score liegt immer höher als das Gesamtergebnis, wobei man dort aufgrund der internen Verrechnung des Benchmarks noch aufpassen muss (GPU und CPU Umrechnungsformel). Die 6950 liegt also dem Ergebnis nach ca. 1200-1400 Punkte höher (wie man es sehen will, ausgehend von 20400 oder 20800 Punkte Graphics Score), das ist gut möglich bei den Steigerungen in Prozent die AMD angibt. Zudem wird der Time Spy in WQHD ausgeführt (Standard mit angepasster AF Stufe und Tesselationsfaktoren), was AMD bei RDNA2 entgegen kommen dürfte (siehe Treibereinstellung=AMD optimiert). Interessanter wäre es tatsächlich in Time Spy Extrem gewesen.

Ich behaupte mal, eine 6950xt ist genauso nutzlos wie eine 3090ti (man bekäme beides mit einer 6900xt und 3090 hin), geht nur um den Längsten, Balken und weil man es kann. Früher hat man den Spielern sowas aus der Fertigung umsonst mitgegeben, heute muss jedes Quentchen Mehrleistung explitzit bezahlt werden. Egal ob bei nVidia oder AMD, wobei man damit die Preise oben hält. Das würde ich persönlich viel kritischer betrachten, als es die Presse derzeit tut. Schon komisch das es immer passiert, wenn die Lieferbarkeit gerade gut ist und die Preise fallen.

Leonidas
2022-05-05, 19:21:46
@Leonidas
WCCF Tech schreiben "Graphic Score" (oben rechts über der Tabelle). Es gibt einmal den Time Spy Score und separat den Time Spy Graphic Score. Das muss man einzeln behandeln. Bitte genauer lesen.

Ich habe mich allein auf den GPU bzw. Graphics-Score konzentriert. Dies wird in meiner Tabelle auch derart dokumentiert. Ich sehe derzeit nicht, wo da ein Fehler sein soll.

-=Popeye=-
2022-05-05, 20:12:31
Die angegebenen 22k GS für die 6950XT sehen auch plausibel aus: siehe (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12996391#post12996391)... aber die 18k für die 6900XT sind mit aktuellen Treibern zu wenig.

Auch wenn ich mich wiederhole, diesen Refresh hätte AMD sich sparen können.

Gast
2022-05-05, 20:25:09
Das Problem ist dass dies alles veraltete Angaben sind. Habe grade meine 6800 gebenchmarkt, angegeben wird sie mit 14750 Points in vielen anfänglichen Tests. Sie schafft aber tatsächlich über 16000 Graphics Score. Nicht übertaktet. Schon die alten 6900 haben mit Erhöhung des Powertargets um 10-15% um 21500 geschafft. Wenn die Karte so wie vermutet mit knapp 330-350W kommt und der Speicher auf 18gbps erhöht wurde, schafft sie das locker. Da muss nichts massiv übertaktet sein. Diese Karten schaffen noch mehr. Kann man auf 3dmark auch nachschauen. Ampere hat da ein Auslastungsproblem, weil das Tensor/RT Gedöns nicht helfen kann sondern nur Ballast ist. Die 6950 wird die 3090ti daher deutlich schlagen. Egal wie man da noch darauf einprügelt hat AMD wegen der Effizienz von RDNA2 deutlich mehr Spielraum, am Limit mehr Leistung abzurufen. Da rächt sich das Einschlagen auf Ampere. Damit ist die teuerste Karte am Markt nicht die Schnellste, absolut peinlich. Mehr wollte AMD vermutlich nicht.

Rabiata
2022-05-05, 22:07:30
Wenn AMD bei Navi31 mit MCM kommt, bleibt ihnen doch kaum was anderes übrig, da die Chiplets mit einem Interconnect verbunden werden das darauf aufbaut, die ASICS und Hosts auf gleicher Ebene über PCIe 5.0 Standard kommunizieren, GPU versus CPU, I/O versus CPU usw.. Das geht doch gar nicht anders.
Der Interconnect zwischen den Chiplets muß nicht dem PCIe Standard entsprechen. Den muß nur der I/O Chip nach außen können.

Zen beispielsweise verwendet intern "Infinity Fabric (https://en.wikipedia.org/wiki/Infinity_Fabric#Infinity_Fabric)" zur Datenübertragung zwischen den Chiplets. Die Taktfrequenz des IF ist an die Taktfrequenz des Hauptspeichers gekoppelt. Das paßt so von vornherein nicht in die PCIe Spec.

WedgeAntilles
2022-05-05, 23:54:37
Damit ist die teuerste Karte am Markt nicht die Schnellste, absolut peinlich.
Keine Ahnung was du hast, aber mit Nvidias Flaggschiff kann man wenigstens alle Spiele mit Max zocken.
Bei der 6950XT wirst du - wie bei allen GraKas von AMD - Raytracing deaktiveren oder zumindest runterschrauben müssen wenn du Spiele wie Cyberpunk auf WQHD oder gar 4K zocken willst.

Wenn etwas peinlich ist, dann eine Karte für über 1000 Euro anzubieten, bei der du nach der Installation als erstes die Regler in einem Spiel bedienen musst weil die Karte nicht stark genug dafür ist.

Aber ja, bei Spielen wo du eh schon zig hundert Frames hast, hast du bei AMD vielleicht noch mal 10% mehr.
Nur: Wo ist der Unterschied?

Während es sehr wohl einen Unterschied macht ob ich bei RT Spielen beispielsweise 50 Frames oder 80 Frames habe.

DSD512
2022-05-06, 01:48:15
Keine Ahnung was du hast, aber mit Nvidias Flaggschiff kann man wenigstens alle Spiele mit Max zocken.
Bei der 6950XT wirst du - wie bei allen GraKas von AMD - Raytracing deaktiveren oder zumindest runterschrauben müssen wenn du Spiele wie Cyberpunk auf WQHD oder gar 4K zocken willst.

Wenn etwas peinlich ist, dann eine Karte für über 1000 Euro anzubieten, bei der du nach der Installation als erstes die Regler in einem Spiel bedienen musst weil die Karte nicht stark genug dafür ist.

Aber ja, bei Spielen wo du eh schon zig hundert Frames hast, hast du bei AMD vielleicht noch mal 10% mehr.
Nur: Wo ist der Unterschied?

Während es sehr wohl einen Unterschied macht ob ich bei RT Spielen beispielsweise 50 Frames oder 80 Frames habe.

Gähn ... wenn ich nun mit meiner 3080 CP mit RT in 3440x1440 zocken will, hab ich auch nur knapp 60fps oder drunter. Für optimalen Spielegenuß dann ohne RT.

RT ist in der aktuellen Graka--Generation fürn Popo.

Gast
2022-05-06, 07:42:34
Ich würde sagen PCI-E 5.0 ergibt genau gar kein Vorteil.

unsinn. bei oi-lastigen szenarien ist das gold wert.

https://www.highpoint-tech.com/ssd7500-series-overview

Gast
2022-05-06, 08:24:29
Keine Ahnung was du hast, aber mit Nvidias Flaggschiff kann man wenigstens alle Spiele mit Max zocken.
Kostet dafür aber auch das doppelte und verbraucht 50% mehr. Dazu dann noch ein neues Gehäuse und Netzteil, weil die alten jeweils mit Abwärme und Verbrauch überfordert sind. Sorry, aber die 3090TI ist einfach lächerlich. Vor allem, weil in nem halben Jahr NVidia selbst das Ding demontieren wird hinsichtlich (RT-)Leistung oder Verbrauch. Das ist (genau wie AMD's 50er Refresh) einfach nur sinnlos.

Gast
2022-05-06, 09:48:48
unsinn. bei oi-lastigen szenarien ist das gold wert.

https://www.highpoint-tech.com/ssd7500-series-overview
Unsinn. Ich gleich mehrerer Hinsicht.

Gast
2022-05-06, 09:49:34
Hier schreiben wieder Leute die nie eine AMD Karte im Rechner hatten, sie nie in ihrem Rechner haben werden und damit auch gar nicht wissen was die leisten, einschließlich Leonidas. Aber selbst FUD verbreiten.

Eine stinknormale 6900xt schafft seit Ewigkeiten über 20000 Punkte im Time Spy, dazu hat man in der Vergangeheit zig mal den 3dmark updatet.

Klar kann man deshalb auf einer 6900xt nicht alles auf max spielen, sie hat ja nicht mehr Speicher als eine 3080 oder 3080ti die auch noch mehr gekostet haben und teilweise kosten.

24 Gib Vram braucht kein Mensch derzeit. Das zeigt einfach wie bescheuert Nvidia die Ressourcen über Ampere bezüglich der Vram Ausstattung verteilt. Eine 3080 mit mit 10 GiB auskommen und rennt alle Nase lang schon ab WQHD in ein Speicherlimit bei max Details.

Das ist natürlich besser...was sonst? Hab ehrlich gesagt auch nicht mehr erwartet. Dabei haben die 6800 und 6800xt gleichviel Vram wie das Spitzenmodell. Taugt aber alles nicht nicht.:freak:

Was ein Kindergarten hier! Das bei der Pcgh IMMER Nvidia vorne ist, ist doch nicht neu. Daher lese ich diesen Quark dort, erst gar nicht mehr. Kaufe die Zeitschrift nicht mehr, bin aus dem Forum weg, denn da sitzen die schlimmsten Nvidia Ultras whatever was jede normale Diskussion dort unmöglich macht.

Hardwareluxx und Computerbase kriegen das besser hin und da sehen die Benchmarks anhand deren Testpakurs auch anders aus. Auf Hardwareluxx gibt es sogar die besten OC Threads zu AMD Hardware, mit vielen guten Hinweisen zur Hardware und das seit Jahren. Freundlich und hilfsbereit.

Bei mir ist die Pcgh daher schon seit ewig keine Referenz mehr, wenn es um AMD Hardware geht. Die versorgen vor allem ihr eigenes Klientel mit Infos, von denen kauft keiner AMD GPUs im Bereich Highend oder Enthusiast. Selbst die Redakteure nicht. Ich halte deren Reviews daher nicht für aussagekräftig. AMD hat bei jeder Gen nach Launch noch über Optimierungen im Nachgang zugelegt, das ist eigentlich schon historisch für die.

WedgeAntilles
2022-05-06, 10:33:14
Kostet dafür aber auch das doppelte und verbraucht 50% mehr. Dazu dann noch ein neues Gehäuse und Netzteil, weil die alten jeweils mit Abwärme und Verbrauch überfordert sind. Sorry, aber die 3090TI ist einfach lächerlich. Vor allem, weil in nem halben Jahr NVidia selbst das Ding demontieren wird hinsichtlich (RT-)Leistung oder Verbrauch. Das ist (genau wie AMD's 50er Refresh) einfach nur sinnlos.
Du hast ja völlig recht - das ist aber nicht das Thema gewesen.
Es ging um die Aussage, dass die teuerste Karte nicht die schnellste sei.
Was eben so pauschal falsch ist. Mit einer 3090 und 3090TI kannst du alles auf Max zocken, mit der 6950XT nicht.

Es ging eben NICHT um die Frage, ob Produkt A sinnvoller als Produkt B ist, Produkt A einen Aufpreis wert ist oder nicht.

Das eine 3090TI ein in meinen Augen blödsinniges Produkt ist, das ich persönlich nie kaufen würde steht auf einem anderen Blatt.
(Ich finde auch eine 3070TI völlig idiotisch, auch die würde ich nie kaufen - aber auch das ist ein anderes Thema.)

Platos
2022-05-06, 10:37:55
Wobei das früher auch schon anders war. Mit einer 1080Ti hat man (wenn ich mich richtig erinnere) damals einen höheren Takt erreicht (ohne Wasserkühlung). Weil die Titanen ja (soweit ich weiss) nie mehr wie ne Foundersedition gekriegt haben. Die Kühulung war also bei denen nicht so gut.

(Erst später kam dann nochmals ne andere Titan, die ein bisschen schneller war). Mit Ampere war aber von Anfang an die 3090 schneller, wie ne 3080.

Gast
2022-05-10, 12:51:29
Was eben so pauschal falsch ist. Mit einer 3090 und 3090TI kannst du alles auf Max zocken, mit der 6950XT nicht.



Mit einer 3090(Ti) kann ich nicht alles auf Max in 8k zocken.

Was ja auch kein Problem ist, ich würde es begrüßen wenn die Spielehersteller endlich mal wieder Spiele bringen würden die erst mit Hardware ein paar Generationen später ausgereizt werden kann.

Dieses "ich muss alle Regler auf max drehen" ist doch krankhaft.