Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)
Warum ? Die meisten 4k Monitore liefern nur 60 fps. Dafür reicht auch eine 6800.... nur die wenigsten werden 4k mit 120 hz haben. Und dafür reichen dann weder 3090 noch 6900XT.
Dann werde ich diese Generation auslassen :D
F5.Nuh
2020-10-31, 14:16:51
Uiuiui da hat sich das warten gelohnt. Wann kommt den jetzt was raus :freak:
Zen 3 ab 5.11.?
Und die Grafikkarten?
Bin am überlegen ob sich der Aufpreis von der 6800 auf die 6800xt lohnt...
Adam D.
2020-10-31, 14:23:23
Uiuiui da hat sich das warten gelohnt. Wann kommt den jetzt was raus :freak:
Zen 3 ab 5.11.?
Und die Grafikkarten?
Bin am überlegen ob sich der Aufpreis von der 6800 auf die 6800xt lohnt...
Naja, es wird auf die Straßenpreise ankommen, aber wenn AMDs Angaben stimmen und du kriegst im Schnitt 15-20% mehr Performance für einen äquivalenten Aufpreis, sieht das nach einem verdammt guten Deal aus...
Hakim
2020-10-31, 14:49:23
Mich würden mal leaks von etwas anderem spielen interessieren als den Standard Kandidaten um zu sehen ob die Cache Lösung immer und überall funktioniert
davidzo
2020-10-31, 15:32:29
Uiuiui da hat sich das warten gelohnt. Wann kommt den jetzt was raus :freak:
Zen 3 ab 5.11.?
Und die Grafikkarten?
Bin am überlegen ob sich der Aufpreis von der 6800 auf die 6800xt lohnt...
Am 18.11.
Ja, es sieht tatsächlich so aus als wenn es bei dieser generation für 70€ / 10% Aufpreis auch tatsächlich 10% mehr Leistung gibt.
Insofern sind 6800 und 6800xt beides Gute Deals, was XT sehr interessant macht, da sie ohne den üblichen Highend-Aufschlag daher kommt. Andererseits kann man mit OC aus der 6800 sicher mehr herausholen als aus der XT. Und da die Speicherbandbreite gleich zu sein scheint ist die LE vielleicht sogar die ideale Karte für 4K60, wo die XT und 6900 ohnehin eingebremst werden.
dargo
2020-10-31, 15:33:14
https://wccftech.com/amd-radeon-rx-6800-rdna-2-graphics-card-ray-tracing-dxr-benchmarks-leak-out/
Verstehe ich das richtig? RX 6800 21% schneller in SotTR mit RT als die RTX 3070? Ich dachte N21 wäre voll lahm mit RT? :ulol:
ChaosTM
2020-10-31, 15:42:10
Wenn jetzt noch ein vollwertiger DLSS ersatz kommt, implodiere hier wohl einige.
CompuJoe
2020-10-31, 15:49:48
Wenn jetzt noch ein vollwertiger DLSS ersatz kommt, implodiere hier wohl einige.
Ich vermute das wird noch nen bissel dauern, AMD arbeitet doch soweit ich weiß mit MS zusammen an etwas ebenbürtigen oder?
Was mich auch noch interessieren würde, PCIe 3.0 vs. PCIe 4.0 bei der neuen Reihe.
Grendizer
2020-10-31, 15:49:53
Das sieht ja langsam fast zu gut aus ... ich habe schon einen fettes Kreuz für den 18. im Kalender....
und dann ab dem 24. Shadowlands in 4k mit RT :freak:
Redneck
2020-10-31, 15:52:44
Wenn jetzt noch ein vollwertiger DLSS ersatz kommt, implodiere hier wohl einige.
Dann kommen sie mit GSYNC, oder das die Grünen wertstabiler sind, oder oder..
Ist schnuppe.. In den letzten Jahren gab es auch nicht viele Gründe, die für AMD GFX gesprochen haben und dennoch wurden sie gekauft. Jetzt hat sich das Blatt wohl gewendet und manche kommen aus ihrem ideologisch selbstgegrabenen Loch nicht heraus. Selber Schuld..
ChaosTM
2020-10-31, 15:55:51
Cuda .. das lass ich mir ja noch einreden, wenn man "Semi-Profi" ist. K.a. was und ob AMD was hat.
Grendizer
2020-10-31, 15:58:31
Cuda .. das lass ich mir ja noch einreden, wenn man "Semi-Profi" ist. K.a. was und ob AMD was hat.
nur OpenCL und das ist zumindest in Blender und Lightroom deutlich langsamer.
Savay
2020-10-31, 16:09:00
Eher Henne Ei Problem.
Cuda gehört im Interesse des Marktes eigentlich genau wie GSync in die Versenkung oder als sekundäre API in die 2. Reihe
Nen weiteren goldenen Käfig wie ihn Apple hat braucht's eigentlich nicht.
Davon abgesehen weiß ich noch nicht so Recht was man speziell in LR mit der GPU will abseits des GUI.
Dieser obskure Demosaicer kann es nicht sein, der ist einfach ein Witz von der Usability und der Effektivität.
horn 12
2020-10-31, 16:16:11
Nun, AMD hypt immer stückchenweise um nicht abflachen zu können und die Neugierde immer größer werden zu lassen.
So erzeugt man eine Immense Aufmerksamkeit und wenn der Launch nicht noch verpatzt wird,- hat man dieses Mal mehr als nur Alles optimal gelöst!
Fragman
2020-10-31, 16:19:10
Cuda gehört im Interesse des Marktes
Darum kümmert sich aber keiner, auch nicht AMD.
Das muss man nach all den Jahren leider eingestehen. Entweder ist der Markt zu klein oder es würde AMD zuviel Geld kosten oder was auch immer sie davon abhält Gas zu geben. Apple geht ja auch seinen eigenen Weg, das dürfte insgesamt nicht helfen.
Daredevil
2020-10-31, 16:21:42
Dann kommen sie mit GSYNC, oder das die Grünen wertstabiler sind, oder oder..
Der große Vorteil von Gsync ist im Grunde nur noch, dass man Gsync auch auf Freesync Monitoren nutzen kann. Ob man sowas als "Vorteil" nutzen kann, ist allerdings fraglich. :D
Gilt wenn überhaupt nur für welche, die nur einen GSync Monitor haben, das Grab hat sich aber jeder selbst geschaufelt.
Wenn ne vergleichbare AMD Karte mehr leistet als ne Nvidia Karte und mit DLSS nur minimal weniger, braucht es auch nicht unbedingt sofort ein äquivalent, weil man der Konkurrenz voraus ist.
DLSS ist ein großer Vorteil, generell mehr Dampf ist ein noch größerer.
Savay
2020-10-31, 16:23:02
Zumindest was ML angeht gibt's ja auch andere APIs.
Und hängt auch von den Entwicklern ab. Wenn die halt zu über 80% auf nV HW sitzen wird halt dafür optimiert.
Klar könnte AMD da mehr investieren, nur bringt das ohne entsprechenden Marktanteil auch leider wenig.
Gibt ja auch durchaus entsprechende Beispiele von Entwicklern die primär neutrale APIs nutzen. Mit cuda lässt sich aber halt auch gut werben weil es auch als Marke verstanden wird.
mironicus
2020-10-31, 16:23:14
Jetzt müßte es noch ein Firmwareupdate geben, um die 6800XT zur 6900XT freizuschalten... :D
ChaosTM
2020-10-31, 16:25:09
Ist nicht ausgeschlossen wenn der Yield entsprechend hoch ist und AMD nicht mit dem Laser drüberfährt..
dargo
2020-10-31, 16:25:52
Jetzt müßte es noch ein Firmwareupdate geben, um die 6800XT zur 6900XT freizuschalten... :D
Und was genau erwartest du dir davon wenn die CUs per Lasecut deaktiviert sind?
Hakim
2020-10-31, 16:26:06
6800xt zu 6900xt ist doch langweilig, 6800 zu 6900xt :). Wobei der 6800 preislich echt zu nah am 6800xt ist
aufkrawall
2020-10-31, 16:30:41
Darum kümmert sich aber keiner, auch nicht AMD.
Stimmt nicht, AMD sponsert Vulkan in Blender und LibreOffice.
F5.Nuh
2020-10-31, 16:35:30
Jetzt müßte es noch ein Firmwareupdate geben, um die 6800XT zur 6900XT freizuschalten... :D
Die guten alten Zeiten :ulove:
kleeBa
2020-10-31, 16:35:57
Wenn jetzt noch ein vollwertiger DLSS ersatz kommt, implodiere hier wohl einige.
DLSS 2.0 ist tatsächlich was Feines, das hat Nvidia in den letzten Jahre wirklich gut weiterentwickelt.
Das kann man auch mal so stehen lassen. :)
Glaube nicht das der AMD/MS Gegenentwurf gleich aus dem Stand heraus auf dem gleichen Level ist.
Muss er ja auch nicht, hier wird es halt mit der Zeit besser.
ChaosTM
2020-10-31, 16:36:55
9800Se @ 9800.. 2x FPS for free
Iscaran
2020-10-31, 16:40:12
FHD zu 4K ist die vierfache Menge an Pixeln :) nicht die doppelte
Ja stimmt. So was hatte ich noch im Hinterkopf. Aber generell ist die Skalierung ja auch nicht 1:1 nur aufgrund der Pixelzahl sondern afaik etwas besser.
Raytracing kann besser skalieren wenn die Hauptlast per Pixel ist. Also sowas wie path tracing wo es keine Shadowmaps etc. mehr gibt.
Man hat zwar auch einen Szenen abhängigen Aufwand, die bvhs updaten, dieser muss aber nur einmal passieren und skaliert eigentlich auch Recht gut.
Danke für die Erläuterung. Dennoch müsste es aber einen "besseren" Skaling-Effekt geben je mehr RT eingebaut wird.
Solange wir aber hybrid unterwegs sind profitiert man davon noch nicht so ganz, auch weil man die Hardware ja noch nicht vollends in eine Richtung bauen kann.
Gibts da evtl. schon Benches mit aktuellen RT-Karten und Titeln ?
Mich würde grad wirklich interessieren wie so die Skalierung läuft mit mehr Auflösung 1x bei RT und 1x Raster (z.B. FHD, WQHD, 4k)
Stretcher
2020-10-31, 16:51:42
Du kommst in den "Saal", stemmst die Fäuste in die Seiten und Brüllst: "AMD sind Lügner und wer das nicht glaubt ist ein Fanboy!"
Wo soll ich denn sowas gesagt haben? Du ziehst dir das jetzt komplett aus dem Kreuz, was mich weiterhin bestätigt. Getroffene Hunde bellen sag ich da nur.:smile:
Anschließend erklärst du, das jeder Widerspruch zu deiner Aussage dieselbe bestätigst und das die anderen alle keine Ahnung haben.
Argumentation = 0,0 :freak:
Du kannst ja die AMD Werte mit den Werten der 3DC Analyse vergleichen und feststellen, dass die Werte nicht taugen.
Entweder halbwegs genaue Werte, oder gar nix, Abweichungen von fast 10% sind eben too much um diesen Glauben zu schenken.
Das verstehen die AMD Boys eben nicht, genauso würden es Nvidia Boys nicht verstehen, wenn die gerade gehyped sind.
Ich hab dafür Verständnis.
Junge... willst du dich schon wieder hier blamieren? RDNA2 hat keine 4k Schwäche! Ampere hat eine 1080p/1440p Schwäche, wenn man es als Schwäche bezeichnen will.
Beides, Big Navi hat eine 4K Schwäche und Ampere eine 4K Stärke.
Vergleiche die Werte doch mit der 2080Ti.
Iscaran
2020-10-31, 17:01:05
Ah hier hab ich noch eine alte Analyse von mir selbst gefunden.
Damals noch Far Cry5.
Performance skaliert in etwa mit Wurzel(Pixelzahlen-Verhältnis-Auflösung B(hoch)/A(niedrig))
Also:
FHD = 2073600 Pixel
WQHD = 3686400 Pixel
4k = 8294400 Pixel
WQHD / FHD = 1.8
Wurzel(1.8) = ~1.3
ca 30% Performance Mehrperformance nötig FHD => WQHD
Entsprechend FHD => 4k = Wurzel(4) = 2 => 100% FPS loss
Zumindest galt das für Far Cry 5 und andere Games die ich damals mal dahingehend gecheckt habe.
Natürlich ist das nur eine grobe Skalierungsrechnung. Die Werte können im Detail natürlich gut und gern +- 10% abweichen.
Würde mich interessieren ob das für RT immer noch so ähnlich skaliert.
ChaosTM
2020-10-31, 17:05:02
5k+ Benchmarks werden uns zeigen, wie gut oder bescheiden Infini bei ganz hohen Auflösungen arbeitet. Momentan ist alles speku..
Linmoum
2020-10-31, 17:08:08
Wo soll ich denn sowas gesagt haben? Du ziehst dir das jetzt komplett aus dem Kreuz, was mich weiterhin bestätigt. Getroffene Hunde bellen sag ich da nur.:smile:Du bellst gerade extrem laut.
Du kannst ja die AMD Werte mit den Werten der 3DC Analyse vergleichen und feststellen, dass die Werte nicht taugen.
Entweder halbwegs genaue Werte, oder gar nix, Abweichungen von fast 10% sind eben too much um diesen Glauben zu schenken.
SotTR (UHD) 2080Ti zu 3090:
AMD: +41%
CB: +40%
Borderlands 3 (UHD) 2080Ti zu 3090:
PCGH: +68%
AMD: +53%
CB: +36%
CoD MW (UHD) 2080Ti zu 3090:
AMD +48%
PCGH +47%
CB: +44%
RE3 (UHD) 2080Ti zu 3090:
PCGH: +69%
AMD: +49%
CB: +49%
Ist CB jetzt bei BL3 und PCGH bei RE3 unseriös? Bin auf die fundierte Antwort gespannt. Deiner Logik folgend ist das so weil Abweichungen in einer solchen Form nicht existieren können. Wobei, mit logischem Denken lässt sich das erklären. Also auch, warum bei der Launch-Analyse zur 3090 hier die Ergebnisse der Seiten von +41% bis +55% von 2080Ti auf 3090 schwanken. Und da sind noch nicht einmal Einzelbetrachtungen von Spielen bei, die deutlich sinnvoller in dem Fall wären.
Beides, Big Navi hat eine 4K Schwäche und Ampere eine 4K Stärke.
Vergleiche die Werte doch mit der 2080Ti.
:facepalm:
Der_Korken
2020-10-31, 17:09:20
Damals noch Far Cry5.
Performance skaliert in etwa mit Wurzel(Pixelzahlen-Verhältnis-Auflösung B(hoch)/A(niedrig))
Also:
FHD = 2073600 Pixel
WQHD = 3686400 Pixel
4k = 8294400 Pixel
WQHD / FHD = 1.8
Wurzel(1.8) = ~1.3
ca 30% Performance Mehrperformance nötig FHD => WQHD
Entsprechend FHD => 4k = Wurzel(4) = 2 => 100% FPS loss
Hast du dabei bedacht, dass CB bei 4K nur das Hoch-Preset verwendet hat statt des Ultra-Presets ;)?
https://www.computerbase.de/2018-03/far-cry-5-benchmark-test/2/#abschnitt_die_benchmarkszene_im_detail
Savay
2020-10-31, 17:17:47
:facepalm:
Schrödingers GPU.
Sowohl zu langsam als auch zu schnell.
Mythos;12481172']Also fast auf Ampere Niveau wenn ich das richtig deute. Passt doch. Damit kann man locker leben. Ich möchte dann bitte jetzt bestellen. Danke. :biggrin:
Was wieso? Auch wenn ich jetzt den "Leaks" nicht traue liegt doch die 6800 (nonXT) dort 21% über der 3070.
DLSS aus versteht sich - wenn AMD wirklich noch mit sowas wie DLSS um die Ecke kommt sieht NV wohl ziemlich als aus (Das Tal der Tränen wird auf jedenfall tief). Wenn nicht dann wird es wohl ewige Fanboy Grabenkämpfe geben mit AMD ist schneller vs aber mit DLSS ist NV schneller ;D
Karümel
2020-10-31, 17:27:00
Wann wird eigentlich die "kleine Navi" vorgestellt, Januar?
Berniyh
2020-10-31, 17:55:02
Wann wird eigentlich die "kleine Navi" vorgestellt, Januar?
Du meinst den mittleren? Also Navi 22?
Ja, wahrscheinlich im Januar. Navi 23 wohl gegen Ende Q1.
horn 12
2020-10-31, 18:04:03
Wäre dies bitte ein Geeignetes Gehäuse für Big Navi 6800XT
Mit 3 Unteren Lüftern und eben auch 1x Heck und 3 Deckel Lüftern.
NT ist vorne verbaut!
https://www.bpm-power.com/it/online/componenti-pc/case-pc/jonsbo-u5-midi-tower-b1691109?referralToken=8b0dce5e20969c3657892e882ef64148
Ist nun eben wieder verfügbar seit etlichen Monaten.
RT=Sargnagel?
Eine Frage: Könnte man nicht den USB-Port ganz einfach im Geräte-Manager deaktivieren, um ganz einfach Strom zu sparen, oder mehr Headroom beim OCen zu haben?
Ich denke 25W sind jetzt nicht so wahnsinnig wenig und wenn man das Ding eh nicht braucht..
Savay
2020-10-31, 18:17:24
Nein. Für Navi muss das NT nach oben. ;)
Hakim
2020-10-31, 18:19:57
Solange du nichts angeschlossen hast wird doch bestimmt das volle PT für rest verwendet
why_me
2020-10-31, 18:21:35
Eine Frage: Könnte man nicht den USB-Port ganz einfach im Geräte-Manager deaktivieren, um ganz einfach Strom zu sparen, oder mehr Headroom beim OCen zu haben?
Ich denke 25W sind jetzt nicht so wahnsinnig wenig und wenn man das Ding eh nicht braucht..
Ist die Frage, wie das bei BN gelöst wurde. Theoretisch könnte man die 12V für den USB Port auch vor dem Shunt abgreifen, da die 27W nicht auf der GPU verheizt werden und somit nicht zur TDP beitragen.
Dadurch würde der USB Port nicht ins PT fallen. Aber kommt halt drauf an, wie es gelöst wurde.
Solange du nichts angeschlossen hast wird doch bestimmt das volle PT für rest verwendet
Macht Sinn :)
nairune
2020-10-31, 18:24:26
Warum sollte der USB zum Powerlimit zählen?
Der ganze Klimbim (Lüfter, LEDs, Wandlerverluste) auf der Karte wird schon immer nicht eingerechnet und limitiert daher auch nicht die GPU. Würde mich doch sehr überraschen, wenn der USB-C selbst bei Verwendung reinzählen würde.
uweskw
2020-10-31, 18:25:06
Was meint ihr?
Vorbestellen weil die Preise mal wieder steigen wg. schlechter Lieferbarkeit?
Oder: bis Jan 2021 warten, da es seit langem mal wieder eine ernstzunehmende Konkurrenzsituation für fallende Preise sorgen wird?
greetz
US
Complicated
2020-10-31, 18:25:48
Also wie viel Mehrverbrauch habt ihr denn in euren Systemen für die 6 nicht belegten USB-Ports an denen nichts angeschlossen ist? Könntet ihr mal damit in einen anderen Thread umziehen um die Basics eines PC-Systems zu diskutieren? Ein Non-issue, wie schon mehrfach hier geschrieben wurde.
Grendizer
2020-10-31, 18:27:05
Ich werde direkt kaufen. Ich denke das eher Bewegung nach oben sein wird.
masked__rider
2020-10-31, 18:32:47
Bei gegebener Verfügbarkeit werde ich auch gleich kaufen, außer man ist deutlich von der UVP der Referenzkarten entfernt.
Ist bei mir aber auch eher dem Umstand geschuldet, dass ich kurz vor 3080 Release die 1070 verkauft habe, und dann keine 3080 lieferbar war und ist. Im Nachhinein bin ich aber froh darüber, die 10GB waren mir schon ein Dorn im Auge.
Hakim
2020-10-31, 18:36:01
Fallende Preise würde ich derzeit und die kommenden Monate nicht erwarten, sehr starke Nachfrage, viele wollen upgraden und Arbeiten derzeit von Zuhause aus, lockdowns, bald Weihnachten, CP 2077, viel Zeit zum Spielen
Ich werde direkt kaufen. Ich denke das eher Bewegung nach oben sein wird.
Sehe ich ähnlich, nur weiß ich nicht wann ich bestellen soll ;(. Am 18. oder am 8. :redface:
Sardaukar.nsn
2020-10-31, 18:48:41
Wenn man es kann, wieso nicht.
6800 XT + 5900X sehe ich momentan als die perfekte Kombination.
Rein für Gaming sollte der 5800x das Maß der Dinge sein, da auf dessen Basis auch jede neue Engine für die neue Konsolen Generation zurück greift.
Btw. für den Preis einer RTX 3090 bekommt man eine RX 6800XT, einen 5800X und ein B550 Board. :eek:
Rein für Gaming sollte der 5800x das Maß der Dinge sein, da auf dessen Basis auch jede neue Engine für die neue Konsolen Generation zurück greift.
Btw. für den Preis einer RTX 3090 bekommt man eine RX 6800XT, einen 5800X und ein B550 Board. :eek:
Falsch, dafür bekommst du ne 6900+Board+5900x. Eine relativ billige Custom-3090 ist verfügbar bei NB-Billiger für ~1900€
Edit: :) https://youtu.be/7Mdr6Nyljao
pixeljetstream
2020-10-31, 20:33:10
Mich würde grad wirklich interessieren wie so die Skalierung läuft mit mehr Auflösung 1x bei RT und 1x Raster (z.B. FHD, WQHD, 4k)
Das ist alles extrem content abhängig, Komplexität des shadings, welche Effekte wie umgesetzt sind.
Die akademischen Vergleiche sind nur die Basisverfahren um den ersten pixel von der Kamera zu erzeugen.
Das ist alles extrem content abhängig, Komplexität des shadings, welche Effekte wie umgesetzt sind. Ich kann darauf mehr eingehen in nem passenden thread, aber hier ist’s off topic
Verläuft die Geschichte nicht linear?
Zudem: Ich hatte ja kurz ne 3080 drin (welche mir den PCIe verblasen hat - OMG), es ist für sich keine schlechte Karte, allerdings stellt sie für mich absolut keinen Mehrwert zu einer 2080TI dar. Sie ist etwas schneller als ne TI mit 2.2G, wobei das „etwas“ schon übertrieben ist. OC-Headroom gleich 0 (selbst unter Wasser waren lediglich grandiose ~50Mhz drin, also dauerhaft über 2g. Verbrauch mit dem Strix-VBios jenseits von Gut und Böse!
SKYNET
2020-10-31, 21:14:29
Warum sollte der USB zum Powerlimit zählen?
Der ganze Klimbim (Lüfter, LEDs, Wandlerverluste) auf der Karte wird schon immer nicht eingerechnet und limitiert daher auch nicht die GPU. Würde mich doch sehr überraschen, wenn der USB-C selbst bei Verwendung reinzählen würde.
ehhhmmm, also zumindest bei NV fliesst das mit ins PT... umbau auf wasser lässt sich ja nicht nur wegen potentiell niedrigerer temps besser takten, sondern weinfach weil GPU und speicher mehr saft bekommen können... je nach weihnachtsbaumkühler und lüftern können das schnell mal >20W sein
ehhhmmm, also zumindest bei NV fliesst das mit ins PT... umbau auf wasser lässt sich ja nicht nur wegen potentiell niedrigerer temps besser takten, sondern weinfach weil GPU und speicher mehr saft bekommen können... je nach weihnachtsbaumkühler und lüftern können das schnell mal >20W sein
Okay muss ich dann doch selbst probieren. Hatte ich auch bei Turing auch nie deaktiviert - die Idee kam mir nur vorher..:
Redneck
2020-10-31, 21:52:29
Was wieso? Auch wenn ich jetzt den "Leaks" nicht traue liegt doch die 6800 (nonXT) dort 21% über der 3070.
DLSS aus versteht sich - wenn AMD wirklich noch mit sowas wie DLSS um die Ecke kommt sieht NV wohl ziemlich als aus (Das Tal der Tränen wird auf jedenfall tief). Wenn nicht dann wird es wohl ewige Fanboy Grabenkämpfe geben mit AMD ist schneller vs aber mit DLSS ist NV schneller ;D
dann heißt es halt "ja .. natives 4K ist halt langsamer als Fake 4K..."
und was sagt man zu titeln, in denen DLSS gar nicht vorhanden ist/geht ?
Redneck
2020-10-31, 21:56:01
Was meint ihr?
Vorbestellen weil die Preise mal wieder steigen wg. schlechter Lieferbarkeit?
Oder: bis Jan 2021 warten, da es seit langem mal wieder eine ernstzunehmende Konkurrenzsituation für fallende Preise sorgen wird?
greetz
US
die Liefersituation wird auch durch Corona beeinflußt und das werden wir leider so schnell nicht los ..
Denke daher werden die Preise kurzfristig nicht sinken (ausser by NV.. die werden sonst ihre gerade produzierten nicht mehr los)
Hakim
2020-10-31, 21:57:54
dann heißt es halt "ja .. natives 4K ist halt langsamer als Fake 4K..."
und was sagt man zu titeln, in denen DLSS gar nicht vorhanden ist/geht ?
Bei der Letzten Prognose zu Titeln die RT und/oder DLSS unterstützen werden waren die Kreuze bei DLSS sogar mehr.
Brillus
2020-10-31, 22:05:08
ehhhmmm, also zumindest bei NV fliesst das mit ins PT... umbau auf wasser lässt sich ja nicht nur wegen potentiell niedrigerer temps besser takten, sondern weinfach weil GPU und speicher mehr saft bekommen können... je nach weihnachtsbaumkühler und lüftern können das schnell mal >20W sein
Ja stimmt hatte da mal einen Artikel gelsen weiß aber nichtmehr wo ist wirklich so das bei NV Gesamtverbrauch der Karte limitiert wird und bei AMD Chip+Speicher.
ehhhmmm, also zumindest bei NV fliesst das mit ins PT... umbau auf wasser lässt sich ja nicht nur wegen potentiell niedrigerer temps besser takten, sondern weinfach weil GPU und speicher mehr saft bekommen können... je nach weihnachtsbaumkühler und lüftern können das schnell mal >20W sein
TBP=TBP, sprich hier ist sowohl als auch Ende Gelände.
BTW. fände ich es echt mal sehr cool, Jensen in einer „echten“ Wolljacke aka Aldi zu sehen.
Denniss
2020-10-31, 22:27:05
Ja stimmt hatte da mal einen Artikel gelsen weiß aber nichtmehr wo ist wirklich so das bei NV Gesamtverbrauch der Karte limitiert wird und bei AMD Chip+Speicher.Bei Igorslab vielleicht? Nvidia überwacht halt den gesamten 12V-Stromfluß der Karte und neuerdings wohl auch das Hintertürchen mit den 3,3V vom PCIe-Slot.
Iscaran
2020-10-31, 22:37:20
Hast du dabei bedacht, dass CB bei 4K nur das Hoch-Preset verwendet hat statt des Ultra-Presets ;)?
https://www.computerbase.de/2018-03/far-cry-5-benchmark-test/2/#abschnitt_die_benchmarkszene_im_detail
Hmmm. Danke für den Hinweis :-).
Nope. Das macht das ganze etwas hinfällig.
Gibts denn irgendwo mal ein paar Vergleichswerte über 3 Auflösungen bei gleichen Settings ?
FHD zu WQHD passt aber sehr gut mit den 30% Aufschlag +- :-).
Bei Igorslab vielleicht? Nvidia überwacht halt den gesamten 12V-Stromfluß der Karte und neuerdings wohl auch das Hintertürchen mit den 3,3V vom PCIe-Slot.
Und dir ist schon klar, das wir hier ne Performance sehen, welche auf nem Beta-Treiber beruht?
Zudem 3.x V für den Port? Aus welchem Jahrhundert bist du denn?
Screemer
2020-10-31, 22:50:25
Auf dem pcie liegen 12 und 3,3v und die Karte kann beides nutzen. Letzteres reicht nach spec für 9,9W. Liegt auf pin8 an.
Komisch-auf Arbeit konnte ich den Port nur mit 1.5V ansprechen und ebend nicht überfahren.
Okay verläuft aufrund des Access etwas anders - naja Trotzdem! Mep, sorry zwecks Blödsinn welchen ein meiner Personen gepostet hat. Ich bin nu raus
Screemer
2020-10-31, 22:57:44
3,3v steht in den Specs.
https://www.google.com/url?sa=t&source=web&rct=j&url=http://read.pudn.com/downloads166/ebook/758109/PCI_Express_CEM_1.1.pdf&ved=2ahUKEwjzwYWC6d_sAhUhMewKHWnIDAMQFjANegQIBhAC&usg=AOvVaw0yatrUi3cbYvWAtU1eZn7d
Seite 35 und 53.
3,3v steht in den Specs.
https://www.google.com/url?sa=t&source=web&rct=j&url=http://read.pudn.com/downloads166/ebook/758109/PCI_Express_CEM_1.1.pdf&ved=2ahUKEwjzwYWC6d_sAhUhMewKHWnIDAMQFjANegQIBhAC&usg=AOvVaw0yatrUi3cbYvWAtU1eZn7d
Seite 35 und 53.
Mag sein, ich kann nur damit handeln was mir auf Arbeit vorgegeben wird, sorry
Ex3cut3r
2020-11-01, 01:11:20
Sry Leutz, aber das ist zu geil. Als Deutscher stelle ich immer den Ton aus.
hOC-lSVlF9s
nairune
2020-11-01, 03:06:58
ehhhmmm, also zumindest bei NV fliesst das mit ins PT...
Die Karten sind aber nicht von NV und bei AMD läuft das anders... Seit Jahren schon.
Daredevil
2020-11-01, 03:24:02
5k+ Benchmarks werden uns zeigen, wie gut oder bescheiden Infini bei ganz hohen Auflösungen arbeitet. Momentan ist alles speku..
Selbst wenn RDNA2 in 4k+ schwächeln sollte oder die Leistungskurve abflacht, ist das nebensächlich, weil AMD mit ihrem Inf Cache ein riesen Problem gelöst hat, wo Nvidia sich die Zähne ausbeißt ( GDDR6X ).
Also wenn das stimmt, was AMD uns berichtet, da gehe ich jetzt mal von aus,
Hakim
2020-11-01, 03:32:47
Ich hoffe auch das der Cache keine Probleme hat. Das der Turbolader kein turboloch hat oder anfahrschwäche :). Interessant wären auch über einen längeren Zeitraum die frametimes zu prüfen
Stretcher
2020-11-01, 07:34:48
Der Cache macht Probleme und spiked, schauen wir mal ob noch 2020 ein Treiber kommt der das fixed.
dargo
2020-11-01, 07:54:22
Der Cache macht Probleme und spiked, schauen wir mal ob noch 2020 ein Treiber kommt der das fixed.
Du meinst so wie der L3 der CPUs spiked. :ulol: So langsam disqualifizierst du dich selbst.
BigBangBacket
2020-11-01, 08:05:32
Der Cache macht Probleme und spiked, schauen wir mal ob noch 2020 ein Treiber kommt der das fixed.
Wo wird sowas eigentlich immer hergenommen? Wird jetzt soviel Banthapoodoo wie möglich an die Wand geworfen, in der Hoffnung das was kleben bleibt? 🤔
BigKid
2020-11-01, 08:09:31
Wie lange dauerts üblicherweise bis AMD dann mit den mobile Versionen kommt?
Ein Asus G14 mit Navi (und somit speedshift, ner (noch) effizienteren GPU...
Hmmmm... Lecker...
Der Cache macht Probleme und spiked, schauen wir mal ob noch 2020 ein Treiber kommt der das fixed.
Noch so ein Insider der Hardware schon vor Release hat. 3dcenter is on 🔥 lately.
BigKid
2020-11-01, 08:13:19
Der Cache macht Probleme und spiked, schauen wir mal ob noch 2020 ein Treiber kommt der das fixed.
Sorry aber mir fehlt jedes Verständnis für dieses Rummgetrolle im „anderen Lager“. Das ist einfach nur kindisch und unreif. Wenn du Quellen hast: Leg sie auf den Tisch - wenn es Vermutungen sind dann schreibs nicht als Fakten - und Begründe.
Warum es hier überhaupt Lager gibt verstehe ich nicht. Was ohne Konkurrenz passiert haben und Intel und NV jetzt die letzten Jahre deutlich gezeigt! Also selbst als Nvidi Fan muss man sich eigentlich freuen dass AMD zurück ist...
Berniyh
2020-11-01, 08:17:15
Wie lange dauerts üblicherweise bis AMD dann mit den mobile Versionen kommt?
Ein Asus G14 mit Navi (und somit speedshift, ner (noch) effizienteren GPU...
Hmmmm... Lecker...
Wie viele Notebooks gibt es denn mit Navi 1x bislang?
Laut geizhals 4 Stück (Dell G5 15 SE 5505 und MSI A3DD, A3DDK und A4DDR).
Also mach dir mal keine zu großen Hoffnungen auf Notebooks mit Navi 2x in absehbarer Zeit …
BigKid
2020-11-01, 08:23:24
Wie viele Notebooks gibt es denn mit Navi 1x bislang?
Laut geizhals 4 Stück (Dell G5 15 SE 5505 und MSI A3DD, A3DDK und A4DDR).
Also mach dir mal keine zu großen Hoffnungen auf Notebooks mit Navi 2x in absehbarer Zeit …
Wieviele Gaming oder Edelnotebooks gab es denn mit AMD überhaupt bis Zen2?
Und bisher war NV einfach noch etwas effizienter und halt einfach NV.
Und dann ist da noch DLSS was man im Notebook wo die TDP einfach sehr limitiert wirklich als Joker sehen kann...
Ich glaube aber dass die Bereitschaft bei den Herstellern nun langsam da wäre...
Brillus
2020-11-01, 08:30:43
Wieviele Gaming oder Edelnotebooks gab es denn mit AMD überhaupt bis Zen2?
Und bisher war NV einfach noch etwas effizienter und halt einfach NV.
Und dann ist da noch DLSS was man im Notebook wo die TDP einfach sehr limitiert wirklich als Joker sehen kann...
Ich glaube aber dass die Bereitschaft bei den Herstellern nun langsam da wäre...
Ich gehe davon aus das es erst mit nächstem Jahr kommt N21 sehe ich nicht in Notebooks. Mein Tip is CES 2021 werden nächste APU und mobile RDNA2 ( Gerüchte N23) vorgestellt und dann Ende Feb oder März gibts die ersten Geräte.
Berniyh
2020-11-01, 08:40:53
Wieviele Gaming oder Edelnotebooks gab es denn mit AMD überhaupt bis Zen2?
Und bisher war NV einfach noch etwas effizienter und halt einfach NV.
Und dann ist da noch DLSS was man im Notebook wo die TDP einfach sehr limitiert wirklich als Joker sehen kann...
Ich glaube aber dass die Bereitschaft bei den Herstellern nun langsam da wäre...
Das mag schon sein, aber es sind halt nur Vermutungen deinerseits.
Tatsache ist wir wissen derzeit noch nicht mal, ob es mobile Versionen von Navi2x geben wird.
Es liegt sehr nahe, da ja auch Navi 10, 12 und 14 ihren Weg in diverse mobile Produkte gefunden haben (Navi 12 sogar ausschließlich, wenn auch exklusiv für Apple), aber die Faktenlage ist dünn.
Prinzipiell vermuten ja einige (darunter ich), dass sich hinter Navi 23 ein auf mobile Anwendung optimierter Chip verbirgt und der in etwa Ende Q1 aufschlagen sollte, aber selbst dann dauert es bei Notebooks ja typischerweise noch eine ganze Weile bis die Dinger käuflich sind.
mironicus
2020-11-01, 08:42:59
Und mit der mobilen Navi2-Grafik wird AMD auch eine echte Alternative zu den diskreten NVidia-GPUs, da gibt sehr viel Marktanteile abzugrasen. Die Preise für Gaming-Laptops dürfte auch hier deutlich fallen.
Wieviele Gaming oder Edelnotebooks gab es denn mit AMD überhaupt bis Zen2?
Und bisher war NV einfach noch etwas effizienter und halt einfach NV.
Und dann ist da noch DLSS was man im Notebook wo die TDP einfach sehr limitiert wirklich als Joker sehen kann...
Ich glaube aber dass die Bereitschaft bei den Herstellern nun langsam da wäre...
Was ein Blödsinn du schreibst. Neu wäre es mir, dass eine NV-Karte mit DLSS auf einmal wesentlich höher taktet, nur weil sie mit DLSS 30% weniger Strom vergeudet?!
BigKid
2020-11-01, 09:03:38
Was ein Blödsinn du schreibst. Neu wäre es mir, dass eine NV-Karte mit DLSS auf einmal wesentlich höher taktet, nur weil sie mit DLSS 30% weniger Strom vergeudet?!
Es gibt dazu mittlerweile genug Infos...
Stichwort: Framelimiter + DLSS = weniger Stromverbrauch -
deine Bereitschaft eine Aussage im Kontext zu sehen scheint auf jeden Fall kleiner als dein Beisreflex - es ging um Mobile und dort limitiert dich die TDP so früh - da brauchts nichmal nen Framelimiter - da gehts darum mit dem gegebenen Budget in spielbare FPS Regionen zu kommen - ich hab nix von hochtakten gesagt oder ? Wäre auch Kontraproduktiv...
Und abseits des kleinen Exkurs zu DLSS gings mir darum dass ich mich auf die ersten Notebooks mit den neuen AMD GPUs freue den bei Gaming Notebooks hatte NV quasi Monopol...
https://www.youtube.com/watch?v=sq15977ka00&feature=emb_rel_end
Linmoum
2020-11-01, 12:27:42
Zum Thema Ray Tracing scheint es von AMD vor dem Launch noch mehr zu geben.
Q: Frank we need some questions answered about ray tracing and upsampling the raw power is phenomenal and I’m happy for ur team and as team red pc owner but is there gonna be availability
A: Those answers will come between now and our availability dates. Please stay tuned. Thank you for your support and interest.
https://mobile.twitter.com/AzorFrank/status/1321808969283870721
Ex3cut3r
2020-11-01, 14:47:01
Mir ehrlich gesagt piep egal. Ich war ein early Adapter von Turing vor 2 Jahren. Im September 18 eine 2080 gekauft, umstieg von einer 1070, für 3440x1440. Und seitdem habe ich vlt. in 2-3 Spielen RT überhaupt einschalten können. Der Performance Verlust war leider jedes mal riesig. RT ist ein Gimmick, mehr nicht. Kann ich im Gegensatz zu mehr VRAM gerne drauf verzichten. Es wäre wohl wieder eine Geforce geworden, wenn diese mit mindestens 12GB gekommen wäre, so aber nicht.
EDIT: Kann mir mal einer sagen, ob VSR mit 21:9 auf AMD funktioniert? Bei DSR gehts rauf auf 6880x2880.
EDIT 2: https://www.amd.com/de/technologies/vsr Seriously? Was soll der Quatsch denn? :redface: Wenn ich 16GB VRAM habe und die Leistung auch, will ich schon öfters mal 5160x2160 @ 3440x1440 fahren AMD, so wie Nvidia mir das seit Anfang von DSR bietet. Also so, wird das auch nix. ;D
Hakim
2020-11-01, 14:54:55
Wie sieht es eigentlich bezüglich nvenc ähnliches auf AMD aus? Hat AMD mal diesbezüglich was für die Zukunft in Aussicht gestellt?
Savay
2020-11-01, 15:07:19
Ist die Frage ernst gemeint!? HW Encoder sind schon seit 10 Jahren ein Ding.
dargo
2020-11-01, 15:10:34
EDIT: Kann mir mal einer sagen, ob VSR mit 21:9 auf AMD funktioniert? Bei DSR gehts rauf auf 6880x2880.
EDIT 2: https://www.amd.com/de/technologies/vsr Seriously? Was soll der Quatsch denn? :redface: Wenn ich 16GB VRAM habe und die Leistung auch, will ich schon öfters mal 5160x2160 @ 3440x1440 fahren AMD, so wie Nvidia mir das seit Anfang von DSR bietet. Also so, wird das auch nix. ;D
Schon mal auf die Grafikkarten dort geschaut? ;)
Zu 21:9 kann ich dir nichts sagen, nur 16:9 und 2560x1440 als Basis mit RDNA1.
https://abload.de/img/vsratkrd.jpg
Ex3cut3r
2020-11-01, 15:14:55
Hmm ok. Danke. Mit diesem CRU Tool kann man ja manuelle Auflösungen eintragen richtig? Ist es möglich dort auch DS Auflösungen einzutragen? Grad mal im Nvidia CP DSR deaktviert, und per klassischer Methode DS eingestellt, mein Monitor kann tatsächlich alle Auflösungen die ich brauche aus so darstellen. 4300x1800 = 25% mehr als Nativ. 5160x2160, 6880x2880. D.h. also, das ich bei AMD mit dem Tool das auch hinkriegen sollte. :uponder:
https://abload.de/img/unbenanntc4kh0.png
Achill
2020-11-01, 15:19:32
[..]
EDIT 2: https://www.amd.com/de/technologies/vsr Seriously? Was soll der Quatsch denn? :redface: Wenn ich 16GB VRAM habe und die Leistung auch, will ich schon öfters mal 5160x2160 @ 3440x1440 fahren AMD, so wie Nvidia mir das seit Anfang von DSR bietet. Also so, wird das auch nix. ;D
Das ist veraltet, das VSR von AMD richtet sich (bisher) nach dem HW-Scaler/Output der jeweiligen Karte. Mit einer VII (DisplayPort 1.4) kann als VSR für UHD dann 5760x3240@60Hz oder 7680×4320@30Hz eingestellt werden - sofern der Monitor diese Refresh-Rates unterstützt bzw. per CRU hinzugefügt wurde, leider nicht optimal ...
--
Edit: Zu klassischen DS via Monitor, dies ist genauso durch die Bandbreite der Schittstelle beschränkt, der HW-Scaler bietet m.E. im Vergleich die bessere Qualität.
Ex3cut3r
2020-11-01, 15:23:48
Ok. Danke. Naja, ich werde es ausprobieren, wenn es nicht geht, geht BN zurück. Da habe 16GB VRAM und die Leistung, dann will auch mal 5160x2160 öfters probieren. Bei Nvidia geht alles, bis rauf auf 6880x2880. Nur da habe A den VRAM nicht, und B die Leistung. ;D
Thunder99
2020-11-01, 15:41:23
Oder es ist sehr teuer ;D (3090)
DeadMeat
2020-11-01, 15:44:26
Ok. Danke. Naja, ich werde es ausprobieren, wenn es nicht geht, geht BN zurück. Da habe 16GB VRAM und die Leistung, dann will auch mal 5160x2160 öfters probieren. Bei Nvidia geht alles, bis rauf auf 6880x2880. Nur da habe A den VRAM nicht, und B die Leistung. ;D
Ohne irgendwelche CRU/Reg fummel Einstellungen geht sogar meiner Vega 56 mit 21:9 Monitor 5160x2160 mit 75Hz (mehr kann der alte Monitor nicht) direkt per vsr.
Ich glaube da sollte es mit BN eher nur besser werden.
nairune
2020-11-01, 15:48:33
EDIT 2: https://www.amd.com/de/technologies/vsr Seriously? Was soll der Quatsch denn? :redface: Wenn ich 16GB VRAM habe und die Leistung auch, will ich schon öfters mal 5160x2160 @ 3440x1440 fahren AMD, so wie Nvidia mir das seit Anfang von DSR bietet. Also so, wird das auch nix. ;D
Mal ganz entspannt bleiben, das funktioniert ootb:
https://i.imgur.com/GzrXn7N.jpg
Edgecrusher86
2020-11-01, 15:58:20
EDIT: Kann mir mal einer sagen, ob VSR mit 21:9 auf AMD funktioniert? Bei DSR gehts rauf auf 6880x2880.
EDIT 2: https://www.amd.com/de/technologies/vsr Seriously? Was soll der Quatsch denn? :redface: Wenn ich 16GB VRAM habe und die Leistung auch, will ich schon öfters mal 5160x2160 @ 3440x1440 fahren AMD, so wie Nvidia mir das seit Anfang von DSR bietet. Also so, wird das auch nix. ;D
Das ist mir auch schon negativ unter Vega aufgefallen - erst stand in den Release-Notes "21:9 Support" - und dann hab ich ziemlich dumm aus der Wäsche geschaut, als ich 3840 und 5120 16:9 zur Auswahl hatte. :rolleyes:
Dann hätte man es besser gleich weggelassen. ^^
Offiziell geht bei NV 4.00x DSR - inoffiziell auch 16.00x DSR per Slider oder 20.25x DSR (4,5 x 4,5) händisch (. + Nachkommastellen bearbeiten) - Orbmu2k sei dank. Wir sprechen hier von 15360 x 6480 übrigens [99,5 MP!]. :D
https://s12.directupload.net/images/201101/7l4hj858.jpg
https://s12.directupload.net/images/201101/temp/umzwm6px.jpg (https://www.directupload.net/file/d/5989/umzwm6px_jpg.htm)
https://s12.directupload.net/images/201101/temp/3y2m2r3n.jpg (https://www.directupload.net/file/d/5989/3y2m2r3n_jpg.htm)
Mal mit Mad Max einen älteren Schinken gewählt, wo es kein Standbild mit maximalen Details gibt. :freak:
Nicht dass man es bräuchte, aber wenn genug VRAM vorhanden ist, wird auch ab und an mal sinnfrei extrem gebencht. ;)
Also zumindest 5160 und 6880 dürfte AMD auch in Zukunft für 21:9 anbieten und auch entsprechendes für 32:9.
E: Stimmt - das Seitenverhältnis ist nicht exakt bei 5120 x 2160.
Ex3cut3r
2020-11-01, 16:03:24
Gut, nairune Screenshot sieht ja schon mal ganz gut aus. Nur fehlt da 6880x2880 für noch ältere Games, aber gut. Das ist ja schonmal fein. AMD bekommt bei mir die Chance. Ansonsten 2 Wochen FAG. Und alte 2080 wieder rein.
EDIT: Nein, das ist die falsche Auflösung. Bei 3440x1440 brauche ich 5160x2160 und nicht 5120x2160. Dann hätte ich ja links und rechts, mini schwarze Balken. Ich seh schon, muss mir selbst ein Bild davon machen.
EDIT 2: "DeadMeat" Aussage sieht aber positiv aus.
TwoBeers
2020-11-01, 16:23:06
EDIT: Nein, das ist die falsche Auflösung. Bei 3440x1440 brauche ich 5160x2160 und nicht 5120x2160. Dann hätte ich ja links und rechts, mini schwarze Balken. Ich seh schon, muss mir selbst ein Bild davon machen.
Also ich habe auch 3440x1440 und mit VSR bekomme ich in Windows, aber auch z.B. in SoTR das:
https://abload.de/img/sotrmwjf5.png
Habe jetzt mal geschaut, laut Wikipedia sind das auch die richtigen 21:9 Auflösungen:
List of ultrawide "21:9" monitor resolutions Common name Technical name Aspect ratio Resolution
WFHD ultrawide 1080 64∶27 211⁄3∶9 2.370 2560 × 1080
WQHD ultrawide 1440 43∶18 211⁄2∶9 2.38 3440 × 1440
WQHD+ ultrawide 1600 12∶5 213⁄5∶9 2.4 3840 × 1600
WUHD ultrawide 2160 64∶27 211⁄3∶9 2.370 5120 × 2160
UW 5K ultrawide 2400 12∶5 213⁄5∶9 2.4 5760 × 2400
https://en.wikipedia.org/wiki/Ultrawide_formats
Ex3cut3r
2020-11-01, 16:25:24
Ja, 5120x2160 ist leider falsch. Damit hast du Links und Rechts schwarze Minibalken ^^
Du brauchst 5160x2160 damit die verschwinden. Und 6880x2880 scheint AMD gar nicht anzubieten. Naja, einen Tod muss ich wohl sterben, obwohl das nach so einer langen Zeit, unschön ist.
Trotzdem vielen Dank für deine Mühe!
TwoBeers
2020-11-01, 16:28:53
Ja, 5120x2160 ist leider falsch. Damit hast du Links und Rechts schwarze Minibalken ^^
Du brauchst 5160x2160 damit die verschwinden. Und 6880x2880 scheint AMD gar nicht anzubieten. Naja, einen Tod muss ich wohl sterben, obwohl das nach so einer langen Zeit, unschön ist.
Trotzdem vielen Dank für deine Mühe!
Wie gesagt, 5160x2160 gibt es "offiziell" gar nicht.
Edgecrusher86
2020-11-01, 16:34:59
5160 x 2160 ist halt NV DSR @ 21:9 und auf Basis 3440 x 1440 nativ -> 1,5 x 1,5 (2,25x).
Ex3cut3r
2020-11-01, 16:35:26
Wie gesagt, 5160x2160 gibt es "offiziell" gar nicht.
3440:1440 = 2,38
5160:2160 = 2,38
5120:2160 = 2,37 = Falsches Seitenverhältniss für einen 3440x1440 Monitor
Ist egal, ob es das gibt oder nicht. Mit 5120x2160 hast du Links und Rechts kleine Schwarze Balken. Erst 5160x2160 lösen das Problem. Und DSR macht das automatisch alles richtig. Indem er 5160x2160 und 6880x2880 anbietet. AMD Lösung ist falsch, und die große Auflösung fehlt komplett.
DeadMeat
2020-11-01, 16:37:33
Ich muss mich da auch korrigieren, es ist wirklich 5120x2160 hier, also 21:9 WUHD. Sry.
TwoBeers
2020-11-01, 16:46:46
AMD Lösung ist falsch, und die große Auflösung fehlt komplett.
Falsch wahrscheinlich nicht, da sie sich an die offiziellen Vorgaben halten. Aber nVidia macht das da auf alle Fälle besser mit dem "Workaround" und dem richtigen Seitenverhältnis.
Ich hab's gerade mal ausprobiert, der Balken ist echt klein, jetzt nicht sooo das Problem, find ich.:freak:
aufkrawall
2020-11-01, 17:27:11
Das letzte Mal sah hier 4x VSR bescheiden aus mit Polaris, weil unscharf vs. DSR mit 0% Blur-Stärke.
Ist mir aber völlig wumpe, DS ist eh hakelig und nervig. Hatte ich mit Nvidia gar nicht mehr aktiviert...
Ex3cut3r
2020-11-01, 17:31:42
Wie gesagt, bin bereit einen Tod zu sterben. Für mehr VRAM und Rohleistung zur meiner jetzigen 2080. Was DSR angeht, kann ich Krawall nicht bestätigen, lief über Jahr immer fantastisch und wenn die Leistung und VRAM hatte, könnte man Spiele sehr schön damit auffrischen. Nvidia ist mir mit ihren VRAM Geiz diesmal keine Option und die 3090 ist mir zu teuer, bin nicht bereit einen Kleinwagen Preis für eine GPU zu zahlen.
nairune
2020-11-01, 18:07:18
Ich habe es nur einmal verwendet: GTA V, da die Kantenglättung da so Rotze ist. Sah gut aus mMn.
Bringt ans Seitenverhältnis anpassen nichts? Alternativ kann im Treiber doch die gewünschte Auflösung hinzugefügt werden!
dargo
2020-11-01, 19:41:36
Die ersten Trolle sind schon fleißig. ;D
https://www.youtube.com/watch?v=frpMnX_Dnug
https://www.youtube.com/watch?v=_TBbc1HcPYs
Achill
2020-11-01, 19:44:06
3440:1440 = 2,38
5160:2160 = 2,38
5120:2160 = 2,37 = Falsches Seitenverhältniss für einen 3440x1440 Monitor
Ist egal, ob es das gibt oder nicht. Mit 5120x2160 hast du Links und Rechts kleine Schwarze Balken. Erst 5160x2160 lösen das Problem. Und DSR macht das automatisch alles richtig. Indem er 5160x2160 und 6880x2880 anbietet. AMD Lösung ist falsch, und die große Auflösung fehlt komplett.
Das sollte noch immer funktionieren: VSR / Zusätzliche Auflösungen (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=564951) ... jedenfalls tat es dies bei mir vor ~1/2 Jahr bei mir (bin ich zumindest der Meinung).
Iscaran
2020-11-01, 19:54:24
Hast du dabei bedacht, dass CB bei 4K nur das Hoch-Preset verwendet hat statt des Ultra-Presets ;)?
https://www.computerbase.de/2018-03/far-cry-5-benchmark-test/2/#abschnitt_die_benchmarkszene_im_detail
So habe mal ein wenig gesucht und diese Benchmarkserie von PCGH gefunden:
https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/Tests/Test-Review-Founders-Edition-1357408/4/
Basierend auf diesen 17 Games habe ich 3 unterschiedliche "Resolution/Performance" Scalings durchprobiert.
1.) Lineares Performance Skaling mit der Pixelzahl
2.) Performance skaliert mit Wurzel-Pixelverhältnis
3.) Dem Mittelwert aus beiden Ansätzen.
In der Tabelle sind Werte <1 Anzeichen dafür dass die Performance NICHT so stark einbricht wie durch den Performance-Skaling Ansatz vermutet.
Werte >1 zeigen, der Einbruch IST größer als geschätzt.
Bsp. Anno 1800: 2560x1440 3440x1440 3840x2160
FPS@RTX3080 96.2 81.5 53.2
=> Verhältnis FPS 1 1.18 1.81
Für eine Performance-Skaling gemäß 1.) würden wir Werte von 1 1.18 und 2.25 erwarten.
Wir finden aber 1, 1.18 und 1.81.
=> 1.81 = ca 80% von 2.25
Man verliert also nur ca 80% soviel Leistung wie wenn man annimmt die Leistung skaliere Linear mit der Pixelanzahl.
Analog wenn ich diese Beispiel mit der Idee 2.) durchziehe:
Annahme die Performance fällt mit der Wurzel aus (3840x2160/2560x1440)
Wurzel (Hohe Auflösung/ niedriger Auflösung)
Dann erwarte ich also 1, 1.16, 1.50
Man findet aber wie schon gesagt 1, 1.18 und 1.81
Demnach ist 1.18/1.16 = 1.02 und 1.81/1.50 = 1.21
Für den Schritt 2560x1440 zu 3440x1440 liegt man bis auf 2% ÜBERSCHÄTZUNG UNTERSCHÄTZUNG des Performance-Drops richtig.
Für 2560 => 4k aber liegt man schon um 21% zu HOCH NIEDRIG in der Abschätzung des Performance-Drops.
Interessanterweise ergibt genau der Mittelwert aus beiden Ansätzen einen nahezu PERFEKTE Vorhersage für die 2-Skalierungsschritte
2560x1440 =>3440x1440 => 3840x2160
Im konkreten Fall Anno1800 ergeben sich die Faktoren
1 0.95 1.00
Man ÜBERSCHÄTZT also den Drop für den Ersten schritt etwas um -5% (= man würde nur 95% der tatäschlich laut Benchmark gefundenen Performance erwarten), aber man trifft den zweiten Schritt "perfekt" mit 1.00.
Ergebnis also über alle 17 Games:
Rechnet man nur mit Pixelzahl die Performance hoch ÜBERSCHÄTZT man den Performance-Einbruch
Rechnat man mit der Wurzel aus dem Verhältnis von Pixelzahl Hohe Auflösung zu Niedriger Auflösung UNTERSCHÄTZT man den Performance-Verlauf.
Nimmt man den Mittelwert aus beiden liegt man +-4% richtig im Mittel.
Allerdings hab ich mal auch nach API ausgewertet und dort gibt es auffällige deutlichere Abweichungen.
DX12 Games sind ein Paradebeispiel für die Effekte von Perfomance-Abschätzung nach 1.) und 2.) mit 1.) wird der Drop fast immer ÜBERSCHÄTZT und mit höhere Auflösung umso deutlicher als bei niedriger Auflösung.
Wohingegen Methode 2.) in DX12 Games nahezu exakt den umgekehrten Trend zeigt. Man UNTERSCHÄTZT den tatsächlichen Performance-Drop und zwar umso mehr je größere der Auflösungssprung ist.
Interessanterweise ergibt der Mittelwert aus beiden einen nahezu perfekten Ansatz um die Performance-Drops "vorherzusagen".
Wens interessiert kann sich ja in die Excel-Tabelle einlesen.
Ex3cut3r
2020-11-01, 21:02:03
Das sollte noch immer funktionieren: VSR / Zusätzliche Auflösungen (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=564951) ... jedenfalls tat es dies bei mir vor ~1/2 Jahr bei mir (bin ich zumindest der Meinung).
:up: Vielen Dank.
Wiseman
2020-11-01, 23:42:22
Die ersten Trolle sind schon fleißig. ;D
https://www.youtube.com/watch?v=frpMnX_Dnug
https://www.youtube.com/watch?v=_TBbc1HcPYs
Es ist immer wieder erstaunlich, wie Youtuber an Karten kommen, die es noch gar nicht gibt. Wie machen die das bloß? ;D
Folgerichtig wird der obere Troll in den Kommentaren gefragt, ob er auch schon Benchmarks zu RTX 4080 vs 7800XT zeigen könne. ;D
ChaosTM
2020-11-02, 07:23:31
Fps mäßig fast ein Paarlaufen zwischen 3080 und 6800 bei den meisten Spielen. NV dürfte doch ziemlich genau Bescheid gewusst haben wie schnell Navi wird .. ;)
basix
2020-11-02, 07:47:57
Glaube ich nicht. Sie haben es vermutet. +50% Perf/W ausgehend von einer 5700 XT und 300W entsprechen fast exakt der Performance einer 3080 FE.
Eher hat AMD die neuen Karten noch etwas nach oben geprügelt um nicht 5% langsamer zu sein. Leaks sprachen alle von 270-280W und nicht 300W. Deswegen liegen sie gleich auf.
Interessant wäre es geworden, wenn AMD nur +40% Perf/W angekündigt hätte ;)
DK999
2020-11-02, 09:57:27
Ich hoffe AMD wird ein kleines Spielebundle mit raus hauen, Watch Dogs Legion zur neuen Karte wäre schon was Feines :3
dildo4u
2020-11-02, 10:29:32
Ich hoffe AMD wird ein kleines Spielebundle mit raus hauen, Watch Dogs Legion zur neuen Karte wäre schon was Feines :3
Watch Dogs ist ein Nvidia Titel und wurde schon mit Ampere gebündelt.
AMD Promotet gerade Dirt 5,Godfall und das neue WOW Addon.
Schnitzl
2020-11-02, 10:56:12
Hallo,
wie schätzt ihr die Chance ein bei der Vorstellung am 18.11. einen Teaser oder gar Infos zu der 6700 oder 6700XT zu bekommen?
WedgeAntilles
2020-11-02, 11:05:36
Hallo,
wie schätzt ihr die Chance ein bei der Vorstellung am 18.11. einen Teaser oder gar Infos zu der 6700 oder 6700XT zu bekommen?
Ich würde tippen nicht am gleichen Tag.
Begündung: Da "verwässert" man seinen Start.
Wenn man zu viele Karten auf einmal zeigt, geht der Fokus etwas verloren.
Da AMD bereits sehr attraktive Karten hat - und eine langsamere Karte eh "unsexy" ist (auch wenn sie am Ende für die Masse des Marktes wichtiger ist, da diese Karten einfach günstiger sind und die Mehrheit halt nicht 500 Euro aufwärst ausgibt) - wäre mein Tipp, dass eher etwas später (oder auch früher) über die 6700/6700XT berichtet wird.
Ist natürlich von mir reine Spekulation, aber wenn man "Luxus" vorstellt, bringt man in der gleichen Veranstaltung nicht unbedingt noch ein Produkt fürs "normale Volk" zur Sprache.
Passt einfach nicht wirklich zusammen marketingtechnisch.
maximus_hertus
2020-11-02, 11:31:16
Hallo,
wie schätzt ihr die Chance ein bei der Vorstellung am 18.11. einen Teaser oder gar Infos zu der 6700 oder 6700XT zu bekommen?
Quasi 0 Chancen. Es ist ja keine Keynote, sondern "nur" die Launch-Reviews von Big Navi.
Wenn überhaupt, könnte es eine temporäre Preissenkung bei den 5700er Karten (alle Varianten) geben, je nachdem, wie voll die LAger sind. Aber selbst das gebe ich nur eine Außenseiterchance.
DK999
2020-11-02, 11:32:02
Hallo,
wie schätzt ihr die Chance ein bei der Vorstellung am 18.11. einen Teaser oder gar Infos zu der 6700 oder 6700XT zu bekommen?
Denke auch, da wird was am Tag darauf oder so kommen, aber nicht zum Launch der großen Karten. Nvidia wartet ja ebenfalls noch mit der Ankündigung der kleineren Karten unterhalb der 3070. Da wird AMD sich sicher auch nicht die Butter vom Brot nehmen lassen, nachdem sie Nvidia jetzt anscheinend ordentlich erwischt haben.
Watch Dogs ist ein Nvidia Titel und wurde schon mit Ampere gebündelt.
AMD Promotet gerade Dirt 5,Godfall und das neue WOW Addon.
Du hast Farcry6 vergessen ;).
dildo4u
2020-11-02, 11:36:53
Bewusst das wurde gerade verschoben kein Plan wann es kommt nur mal als Hinweis.
https://www.gamepro.de/artikel/far-cry-6-kommt-spaeter,3363434.html
Mr.Scott
2020-11-02, 11:49:54
Hallo,
an was arbeitet denn AMD jetzt aktuell gerade, wenn wir den Blick nur auf die neuen 6000er Karten werfen?
(Alles andere, wie CPUs, RDNA3, Chipsets.... mal außen vor gelassen)
Die neuen Navi Chips sind ja vom Design her (schon länger) fertig.
Auch für die kleineren 6700/6600er Chips ist das Design wohl schon fertig, kann ich mir vorstellen?!
Die Partner wie Sapphire und TSMC sind wohl wie wild am Karten bauen/Chips fertigen für den Kunden.
Kann mir vorstellen, daß im Bereich 6000er GPUs noch Treiber programmiert werden und Software und BIOS Fehler gefixt werden.
Marketing evtl noch, für den Release Termin.
Fällt euch noch etwas ein?
basix
2020-11-02, 12:00:05
RT Performance, sonstige Performance Optimierungen für Launch Reviews, Support für bestehende DXR Games, Super Resolution, SKU Definition für die kleineren Chips, SW und Treiber für Professionals (Rendering, OpenCL), ...
Schnitzl
2020-11-02, 13:13:27
danke für die Antworten!
interessante Situation, nVidia kann nicht liefern und AMD stellt keine Karten für mein Preisbereich (Watt-Bereich) vor.
Ne 5700XT wäre mir zu wenig Mehrleistung zur 1070, außerdem ists die "Vorgänger-Generation" :freak:
Viele dürften auf so was wie die 6700er warten.
Ich denke die wird mit 12Gb ~200Watt für die Meisten sehr interessant werden.
M.f.G. JVC
dr.denton
2020-11-02, 13:55:53
danke für die Antworten!
interessante Situation, nVidia kann nicht liefern und AMD stellt keine Karten für mein Preisbereich (Watt-Bereich) vor.
Ne 5700XT wäre mir zu wenig Mehrleistung zur 1070, außerdem ists die "Vorgänger-Generation" :freak:
Ich bin gerade ganz froh, dass die kleineren N2x Karten noch dauern. Um so länger ist mir meine RX570 noch gut genug und ich werd nicht wieder konsumgeil :freak:
Wenn ich nicht 100% Mehrleistung für das gleiche Geld bei geringerem Verbrauch bekomme, ist diese Generation sowieso durch für mich. Aber schön, von AMD wieder mal richtige Konkurrenz zu sehen! Erinnert mich an RV770, irgendwie.
Mr.Scott
2020-11-02, 13:59:37
Eine 6500/6600 für meinen alten Intel 4 Kerner würde mich auch noch interessieren.
Sollte dann so auch einem GTX780 Leistungs Niveau sein.
Seht ihr ein Release einer 6500/6600 nächstes Jahr 2021?
Seht ihr ein Release einer 6500/6600 nächstes Jahr 2021?
Davon kann man ausgehen. (bis zum Sommer sollte AMD fertig sein)
AMD kann ja 1 Generation nicht "über 3 Jahre verteilt" veröffentlichen ^^
M.f.G. JVC
basix
2020-11-02, 14:13:25
Viele dürften auf so was wie die 6700er warten.
Ich denke die wird mit 12Gb ~200Watt für die Meisten sehr interessant werden.
M.f.G. JVC
Ich vermute, die 6700 XT wird knapp unter der 3070/2080 Ti landen bei 200-220W. Preislich wird sie aber wohl etwas höher als die 5700 XT angesiedelt sein ;)
"Radeon RX 6800"
"Für 579 Dollar (wahrscheinlich 499 bis 550 Euro) UVP bekommt man eine starke Karte."
Die 6700(XT) 12Gb muss daher merklich günstiger raus kommen.
(-4Gb, nur der 40CU Chip anstelle vom großen 80CU, weniger Verbrauch = günstigerer Aufbau...)
Ich würde die kleine 6700 12Gb sogar knapp unter 400.- vermuten/erhoffen...
M.f.G. JVC
Complicated
2020-11-02, 14:55:40
Die RX 5700XT hatte $449,- als Listenpreis. Unter 400,- ist da eher nicht drin für den Nachfolger bei dem Sprung in der Performance und mehr Speicher.
Edit: Ach ja, und der anschließende Preisdrop war immer noch (419,- €) $399,- zum Release.
Die RX 5700XT hatte $449,- als Listenpreis. Unter 400,- ist da eher nicht drin für den Nachfolger bei dem Sprung in der Performance und mehr Speicher.
Edit: Ach ja, und der anschließende Preisdrop war immer noch (419,- €) $399,- zum Release.
Was fürm Sprung in der Performance? Viel mehr wie 30-40% wird es nicht sein. Und 30-50% sind übliche Sprünge. Also unter 399 glaube ich zwar auch nicht, aber viel teurer dürfte es wohl nicht werden. Kaum jemand gibt mehr als 300€ für Grafikkarten aus.
Die 5700er werden vielleicht als 6600/6500 umgelabeled und für gut 200€ verkauft.
Complicated
2020-11-02, 15:19:04
Da die günstigste RX 68xx bei $579,- anfängt, ist $499,- (RX 6700 XT) bzw $449-429,- (RX 6700) zu erwarten. Das beläßt die RX 5700 (XT) in der Leistungsklasse darunter bis in Q1/2021 der Rest des Portfolios kommt. Das wäre meine Spekulation.
stinki
2020-11-02, 15:28:20
Ich tippe auf $449 für 6700 XT 12GB und dann $349-$379 für 6700 10GB und darunter dann erst einmal die alten 5700XT/5600XT Karten mit 8/6GB. Die werden dann wahrscheinlich später mit Navi23 ersetzt. Und Navi14 bleibt erst einmal als Einsteigerlösung im Portfolio.
DrFreaK666
2020-11-02, 15:43:28
Ich tippe auf $449 für 6700 XT 12GB und dann $349-$379 für 6700 10GB und darunter dann erst einmal die alten 5700XT/5600XT Karten mit 8/6GB. Die werden dann wahrscheinlich später mit Navi23 ersetzt. Und Navi14 bleibt erst einmal als Einsteigerlösung im Portfolio.
Wieso sollte die 6700 10GB haben? Weil es NV so macht? Wie bei der 6800 wird die 6700 sehr wahrscheinlich die gleiche Speichermenge wie die 6700XT haben
Hakim
2020-11-02, 16:15:23
Hier stand Mist
Gibt bei AMD im Retail keine kastrieren Speicherinterfaces, N21 hat das wieder mal bewiesen. Wenn die das machen, denn in einem OEM oder Sonderprodukt.
stinki
2020-11-02, 16:20:18
Gibt bei AMD im Retail keine kastrieren Speicherinterfaces, N21 hat das wieder mal bewiesen. Wenn die das machen, denn in einem OEM oder Sonderprodukt.
Und was ist dann die 5600XT???
Und was ist dann die 5600XT???
Eine Ausnahme, die die Regel bestätigt. Es fehlt ein Chip zwischen N14 und N10, der musste substituiert werden.
maximus_hertus
2020-11-02, 16:24:59
"Radeon RX 6800"
"Für 579 Dollar (wahrscheinlich 499 bis 550 Euro) UVP bekommt man eine starke Karte."
Wie kommt man auf diese Idee? Bestcase sind 579 Euro, mit Tendenz in Richtung 599 Euro.
stinki
2020-11-02, 16:26:37
Eine Ausnahme, die die Regel bestätigt.
Oder einen Strategiewechsel einläutet ;)
Der_Korken
2020-11-02, 16:26:51
Wenn die 6700XT wirklich irgendwo zwischen 2080S und 2080Ti rauskommt, wäre die 6800XT gute 50% schneller, wie man es auch anhand der CUs erwarten würde. Da wären selbst 449$ bei fps/$ schon etwas schlechter als die 6800er. Daher würde ich tatsächlich auf 399$ bei der 6700XT tippen. Meinetwegen auch 419$. Die 5700XT fällt entweder stark im Preis oder wird einfach durch N23-basierte Produkte ersetzt.
Oder einen Strategiewechsel einläutet ;)
N21 beweist das Gegenteil. Die 6700-Serie hat 12GB, find dich damit ab. Zumal ja auch absehbar ist, dass N23 128Bit hat und mit 8GB kommen wird.
Der_Korken
Es war stets von sehr hohen Taktraten bei N22 die Rede. Ich würd eher vermuten, dass man da bis zu 220W+ TBP draufgibt und das Produkt möglichst hoch platziert, um möglichst viel Geld dafür verlangen zu können. N23 ersetzt dann N10 vollständig - mit 128Bit und 8GB, das wird dann die 6600-Serie. Man wird sich hier sicherlich auf 150W beschränken um die PCBs so billig wie mögich zu halten.
Cyberfries
2020-11-02, 16:43:39
Um der 3070 nahe zu kommen, müsste Game Clock im Bereich 2,7GHz liegen - nie und nimmer.
@2,2-2,4 GHz -> 2080S +/- 5%
Die 3060ti soll auch in dem Bereich kommen, an der wird man sich orientieren - auch preislich.
Da muss man nicht versuchen Vergleiche im eigenen Portfolio zu ziehen, nur der Gegner zählt.
@HOT
Die eiserne Regel des vollen SI hat AMD mit der 5600xt und der 5300 abgeschrieben.
Eine Schwalbe macht noch keinen Sommer, doch zwei.... Trotzdem gebe ich dir Recht: 10GB kommt nicht.
Um der 3070 nahe zu kommen, müsste Game Clock im Bereich 2,7GHz liegen - nie und nimmer.
@2,2-2,4 GHz -> 2080S +/- 5%
Die 3060ti soll auch in dem Bereich kommen, an der wird man sich orientieren - auch preislich.
Da muss man nicht versuchen Vergleiche im eigenen Portfolio zu ziehen, nur der Gegner zählt.
Seh ich auch so, dass man die 3070 nicht erreichen wird.
@HOT
Die eiserne Regel des vollen SI hat AMD mit der 5600xt und der 5300 abgeschrieben.
Eine Schwalbe macht noch keinen Sommer, doch zwei.... Trotzdem gebe ich dir Recht: 10GB kommt nicht.
Das liegt wie gesagt an den Produktzwischenschritten mangels Chips. Das ist bei N2x nicht mehr nötig. Im low-End-Bereich gab es immer wieder mal Teildeaktivierungen auf 64Bit, die hab ich selbstredend nicht mitgezählt. Das hat auch nichts mit defekten Chips zu tun, sondern mit Produktdiversität, genau wie bei der 5600 i.Ü., das ist das unumgebare Hardwarelimit und der Punkt, der die 5700 interessanter macht bei dennoch hoher Leistung. Und man spart 2 Speicherchips, die man nicht bezahlen muss ;).
fondness
2020-11-02, 16:57:25
Fps mäßig fast ein Paarlaufen zwischen 3080 und 6800 bei den meisten Spielen. NV dürfte doch ziemlich genau Bescheid gewusst haben wie schnell Navi wird .. ;)
Ich hab das am Anfang auch geglaubt, sehe das aber mittlerweile anders. NV wollte die Karten sicher so platzieren, dass man vor AMD liegt und nicht maximal gleichauf. Von daher hat man sich zweifelsohne verschätzt.
ChaosTM
2020-11-02, 17:00:09
Man hat rausgequetscht was geht und gehofft ;)
Complicated
2020-11-02, 17:10:58
Um der 3070 nahe zu kommen, müsste Game Clock im Bereich 2,7GHz liegen - nie und nimmer.
Wie hast du das berechnet? Die 3070 ist 40% vor der RX 5700XT @1,86 GHz. +40%= 2,6 GHZ auf der alten RDNA-Architektur bei selben 40CU.
(Ich habe einfach den ersten Googletreffer für die Benches genommen:
https://www.pcgameshardware.de/Geforce-RTX-3070-Grafikkarte-276747/Tests/vs-2080-Ti-Release-Benchmark-Review-Preis-1359987/2/#a4)
Nehme ich 20% IPC Verbesserung bei RDNA2 an (ich habe gerade keine Zahl wieviel N21 an IPC Verbesserung hat), liegt die RX 6700 XT mit 2,23 GHz (+20%) vor der RTX 3070. (weil die IPC zusätzlich mit skaliert mit den 20% Takt) - gerne die Rechnung korrigieren mit der tatsächlichen IPC-Verbesserung von RDNA2.
Cyberfries
2020-11-02, 17:23:36
Wie hast du das berechnet?
3dc-4k-Index und theo. Leistung. Ausgehend von 6800xt mit ca. 325pp (wie 3080) und 18,57 TFlops.
40CUs @2,7GHz sind 13,82 TFlops
-> 74% von 18,57, also auch 74% von 325pp, ergibt 242pp (2080ti 247pp).
40CUs @2,3GHz sind 11,78 TFlops
-> 63% von 18,57, also auch 63% von 325pp, ergibt 206pp (2080s 205pp).
Mit der 6800xt als Ausgangspunkt ist dank gleicher Architektur die IPC gleich und TFlops sind vergleichbar.
Bleibt nur Skalierung als unbekannter Faktor.
Der_Korken
2020-11-02, 17:37:41
Wie hast du das berechnet? Die 3070 ist 40% vor der RX 5700XT @1,86 GHz. +40%= 2,6 GHZ auf der alten RDNA-Architektur bei selben 40CU.
(Ich habe einfach den ersten Googletreffer für die Benches genommen:
https://www.pcgameshardware.de/Geforce-RTX-3070-Grafikkarte-276747/Tests/vs-2080-Ti-Release-Benchmark-Review-Preis-1359987/2/#a4)
Nehme ich 20% IPC Verbesserung bei RDNA2 an (ich habe gerade keine Zahl wieviel N21 an IPC Verbesserung hat), liegt die RX 6700 XT mit 2,23 GHz (+20%) vor der RTX 3070. (weil die IPC zusätzlich mit skaliert mit den 20% Takt) - gerne die Rechnung korrigieren mit der tatsächlichen IPC-Verbesserung von RDNA2.
Die Rechnung kann so imho nicht aufgehen. Bei 20% IPC-Verbesserung und gut 20% mehr Game Clock, den z.B. die 6800XT hat, wären das 45% mehr Leistung pro CU, also ca. so viel wie die 3070 in dem von dir verlinkten Performance-Index vor der 5700XT ist. Wenn man die 6800XT auf ca. 2,1fache 5700XT-Leistung schtzt, müssten 2,1/1,45 = 1,45 = 45% mehr Leistung aus dem breiteren Chip kommen. Für 80% mehr CUs inkl. doppelt so vielen SHs und RBs (Rasterizer weiß man ja noch nicht so genau) wäre das imho schon relativ mau. Bedenke dass 2,1x im Kontext des PCGH-Links schon sehr optimistisch ist, denn dort ist die 3080 "nur" 86% schneller als die 5700XT. Ich würde die 20% IPC daher erstmal stark anzweifeln, sondern eher auf <10% tippen. Entsprechend käme die 6700XT dann auch >=10% unterhalb der 3070 raus.
Complicated
2020-11-02, 17:37:52
Der Umkehrschluß, dass RDNA und RDNA2 demnach die selbe IPC haben, zeigt mir wie schlecht der 3DC-4K-Index als Datenbasis für solche Berechnungen geeignet ist. Dein Weg eliminiert zwar einerseits, dass du die IPC berücksichtigen musst, doch zeigen die PCGH-Benchmarks die ich verlinkt habe, dass die selbe Rechnung mit 3070 und RX 5700 gemacht leider nicht zu dem real gemessenen Ergebnis führt. Ich glaube da sind einfach ein paar Rundungen/Durchschnitte/Gewichtungen zu viel in diesem Index. Da wird auch nicht berücksichtigt wie wieviel von den theoretischen 3070 TFLOPs hier zum tragen kommen.
@Korken: Ich habe bei meinem Direktlink die falsche Auflösung verlinkt. Da muss 4K noch ausgewählt werden.
Berniyh
2020-11-02, 17:48:49
Der IPC Gain war glaube ich tatsächlich eher im einstelligen % Bereich verortet worden.
Cyberfries
2020-11-02, 17:55:14
Der 3DC-Index, Computerbase (https://www.computerbase.de/2020-10/nvidia-geforce-rtx-3070-test/2/#abschnitt_benchmarks_in_3840__2160) und Techpowerup (https://www.techpowerup.com/review/nvidia-geforce-rtx-3070-founders-edition/35.html) stimmen nahezu überein.
Von der 5700xt zur 3070 ca. 50% und ca.100% zur 3080. Ich würde den Fehler bei der PCGH-Gewichtung suchen.
Dass zwischen 6800xt mit 18,57 TFlops und 5700xt mit 8,97 TFlops etwa der Faktor 2 liegt,
deutet an, dass es bei der IPC nicht wirklich vorwärts ging. (TFlops @ Game Clock)
Der_Korken
2020-11-02, 17:59:15
Mit der 6800xt als Ausgangspunkt ist dank gleicher Architektur die IPC gleich und TFlops sind vergleichbar.
Bleibt nur Skalierung als unbekannter Faktor.
"nur" :D
Das ist eine relativ große Unbekannte, denn du musst nicht nur beachten, dass größere Chips generell nicht 1:1 skalieren, sondern dass die 6800XT nur ein Salvage ist, der zwar 8 CUs weniger hat, aber alles andere immer noch voll vorhanden. Die 6800XT hat also schon so eine minimal höhere IPC als die 6900XT, weil einfach pro CU mehr restliche Ressourcen da sind.
@Korken: Ich habe bei meinem Direktlink die falsche Auflösung verlinkt. Da muss 4K noch ausgewählt werden.
Kann es sein, dass du nicht unten beim Index geguckt hast, sondern nur beim obersten Bench von Anno? Beim Index gibt es nämlich keine Auflösung, sondern da wird alles irgendwie verrechnet. Die 3070 setzt sich durch 4K eher noch ein paar Prozent mehr von der 5700XT ab, wenn ich mal stichprobenartig durch die anderen Benches gehe.
Aber letztlich auch nicht so wichtig. Ich halte die 20% IPC wie gesagt für viel zu hoch gegriffen, da das die Skalierung von 6800XT gegenüber N22(XT) sehr schlecht aussehen lässt, wenn man für ersteren mal 3080+5% ansetzt.
ChaosTM
2020-11-02, 18:00:51
IPC also eher gleich, dafür Verbrauch stark gesunken. Effizienzgewinn 60+% ?..
basix
2020-11-02, 18:10:08
Die IPC wird schon gestiegen sein. Doppelte CUs skalieren aber nicht perfekt doppelt, das muss man in der Rechnung berücksichtigen. Deswegen sollte man für IPC Vergleiche möglichst gleich grosse Chips nehmen. D.h. ein besseres Bild zur IPC werden wir erst mit N22 sehen oder AMD spezifiziert die IPC konkret irgendwo.
3dc-4k-Index und theo. Leistung. Ausgehend von 6800xt mit ca. 325pp (wie 3080) und 18,57 TFlops.
40CUs @2,7GHz sind 13,82 TFlops
-> 74% von 18,57, also auch 74% von 325pp, ergibt 242pp (2080ti 247pp).
40CUs @2,3GHz sind 11,78 TFlops
-> 63% von 18,57, also auch 63% von 325pp, ergibt 206pp (2080s 205pp).
Mit der 6800xt als Ausgangspunkt ist dank gleicher Architektur die IPC gleich und TFlops sind vergleichbar.
Bleibt nur Skalierung als unbekannter Faktor.
Mit 2.3G bist du selbst mit N10 über deiner "Prognose". Von daher :rolleyes:
Complicated
2020-11-02, 19:06:12
Ich halte die 20% IPC wie gesagt für viel zu hoch gegriffen, da das die Skalierung von 6800XT gegenüber N22(XT) sehr schlecht aussehen lässt, wenn man für ersteren mal 3080+5% ansetzt.Ich hatte das ja geschrieben, dass ich die 20% willkürlich nur wegen dem Rechenweg und der 2,2 GHZ (Konsolen, daher realistsich) lediglich als Ausgangspunkt nehme. Ist die IPC tatsächlich lediglich einstellig oder max 10% gestiegen, kann man entsprechend die GHz hoch fahren bis das Powerbudget eben für 40CUs erschöpft ist (ich denke hier wird AMD auch mehr Spielraum haben als bei N21).
Diese Reserven von RDNA2 sind hier ebenfalls noch vorhanden in dieser Rechnung. Es wird wohl irgendwo in der Mitte von alle dem ausbalanciert werden. Eigentlich muss man sich zuerst die Frage stellen wie weit AMD bei den RX 67xx das Powertarget aufdrehen kann (3070@220W TDP) und wie der Takt damit skaliert. Die RX 5700 XT hat 225W TDP und RDNA2 +64% Effizienz beim größten N21 mit einem Sweetspot der relativ hoch taktet gegenüber RDNA1
Iscaran
2020-11-02, 19:40:14
Ich hatte mir mal vor ein paar Tagen schon die Mühe gemacht den 3Dc-Index in einen Kalkulator zu kloppen um die Gflops/%-Punkt je nach Architektur zu betrachten.
Vielleicht könnt ihr ja bei eurer Diskussion damit was anfangen. GGf. müsst ihr halt die Taktraten der Chips anpassen. Ich habe mich stupide nach den Wikipedia Angabe zu BaseClock und Boost-clock orientiert.
Bei Ampere gibts dann noch die "Double-Float"-Anteilszeit die man kalkulieren muss.
Viel Spass beim rechnen :-)
EDIT: Achso - rot markierte Einträge in den Index-Spalten sind via Formeln geschätzt und keine Messwerte !
Cyberfries
2020-11-02, 19:59:32
Das ist eine relativ große Unbekannte,....
Die 6800XT hat also schon so eine minimal höhere IPC als die 6900XT, weil einfach pro CU mehr restliche Ressourcen da sind.
Irgendeinen Tod muss man sterben. Ich versuch mich eben mal wieder als den-Hype-Train-bremsende-Kraft.
Und wenn die 6800xt besser da steht als die 6900xt, passt sie ja auch besser zum Vergleich, oder?
Mit 2.3G bist du selbst mit N10 über deiner "Prognose". Von daher :rolleyes:
Ich kenn da nur den Bericht von Igor dazu. Da war die 2,3GHz 5700xt immer noch knapp hinter der 2080FE.
Von daher würde ich meine "Prognose" nicht als völlig abwegig einschätzen, dass eine 6700xt etwa bei der 2080FE landet.
Lass es meinetwegen ein paar Punkte mehr sein, aber 3070? Glaube ich nicht dran.
Ich hatte mir mal vor ein paar Tagen schon die Mühe gemacht den 3Dc-Index in einen Kalkulator zu kloppen um die Gflops/%-Punkt je nach Architektur zu betrachten.
Habs nur kurz überflogen, aber da passen einige Punkte nicht.
Die 2080ti ist z.B. bei 247% (https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-3090/launch-analyse-nvidia-geforce-rtx-3090-seite-2), die 3070 war in den Tests die ich gelesen habe gleich schnell oder schneller.
Was willst du eig mit "Index vs Base Clock" zeigen?
Interessant ist nur der Durchschnitt, nur weil du mit dem Basistakt rechnest, wird die Karte ja nicht schneller.
Screemer
2020-11-02, 20:04:16
Man sieht dadurch wie gut Karten mit Takt skalieren. Das muss nicht immer 1:1 sein.
Iscaran
2020-11-02, 20:24:51
Habs nur kurz überflogen, aber da passen einige Punkte nicht.
Die 2080ti ist z.B. bei 247% (https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-3090/launch-analyse-nvidia-geforce-rtx-3090-seite-2), die 3070 war in den Tests die ich gelesen habe gleich schnell oder schneller.
Ich habe nur die Werte vom 3DC-Index eingetragen...wenn die ermittelten Indexwerte nicht passen musst du Leonidas fragen ^^
Was willst du eig mit "Index vs Base Clock" zeigen?
Interessant ist nur der Durchschnitt, nur weil du mit dem Basistakt rechnest, wird die Karte ja nicht schneller.
Die Spalte ist nur eine der optionalen Spalten mit denen ich z.B. die Navi2x Performance geschätzt habe auf Basis der vorhandenen 3DC-Werte.
Habe 2 Rechenmethoden benutzt 1x eben vs "base clock" und 1x vs Boost-Clock berechnete TFlops werte.
Screemer
2020-11-02, 20:30:21
Warum macht man aus sowas eigentlich kein offenen spreadsheet z.b. bei google? Da könnte das jeder einsehen ohne sich was runter zu laden?
Iscaran
2020-11-02, 21:27:50
@Screemer:
Mach doch einfach :).
Die IPC wird allein schon aufgrund des Caches deutlich höher sein.
Iscaran
2020-11-02, 21:31:30
Die IPC wird allein schon aufgrund des Caches deutlich höher sein.
Hmm - bin mir nicht sicher. Vielleicht macht der Cache auch nur den Effekt, dass 80 CUs eben fast Linear skalieren.
also dass 40 CUs => 80 CUs mit +100% performance einhergeht (außerdem spart der Cache eben massiv SI-Bandbreite ein um die 80 CUs auch mit Daten zu füttern.
Aber die IPC = Floats / Takt (vereinfacht) ist davon evtl. nicht betroffen.
Oh das glaub ich aber doch, denn es kann ja erheblich schneller geladen und gespeichert werden. Die Einheiten werden einfach weniger lange warten müssen, als wenn man nur Speicherlatenz hätte. Voraussetzung ist natürlich, dass der Cache wirklich schneller ist, aber Broadwell zeigt ja auch schon, dass es schneller wird, selbst denn die Latenz nicht sonderlich viel besser ist als Speicher.
Zergra
2020-11-02, 21:37:03
In den ersten RDNA2 Folien war auch nur von "IPC Improvements" die Rede.
In der ganzen Vorstellung in der letzten Woche war nirgends die Rede von einer IPC Verbesserung. AMD ist halt einen anderen Weg gegangen, Verbrauch gesenkt, durch weniger Bandbreite, mehr Takt und genug CUs.
Da wird sich nicht viel getan haben, <10% passen da wohl ganz gut.
Spielt doch überhaupt keine Rolle. N22 mit mehr Takt und weniger Verbrauch wäre doch der optimale N10 Nachfolger, wenn interessiert da die IPC ?
Der ganze Chip ist eigentlich wie Zen3: Überall die Latenzen soweit wie möglich denken, um soviel Rechenleistung wie möglich in jeder Lebenslage zur Verfügung zu stellen. Die Verschlankung des Desings hilft zusätzlich höhere Takte zu erreichen, was wiederum die Latenz senkt, was wiederum die IPC erhöht. Wenn man N10 betrachtet bleibt die IPC-Erhöhung aber nahezu vollständig in der Skalierung hängen, was aber für einen effizienteren N22 sprechen würde, da da Skalierung weniger ein Problem ist, GA104 (gut schlechter Vergleich, da GA104 erheblich weniger Pipelinetiefe hat als GA102)?
Wie dem auch sei, die schlagen mit einem 21TFLOPs-Chip die 3080. Das ist effizient.
Iscaran
2020-11-02, 22:00:58
@HOT:
Erkläre mal genauer was du unter "IPC" verstehst. Ich glaube sonst reden wir aneinander vorbei.
Für mich sind das "Instruction per cycle".
Für mich sieht es so aus als ob bei RDNA2 die "IPC" relativ zu RDNA nahezu gleich ist, was der Cache aber bringt ist eine massive Reduktion im Bedarf an Speicherbandbreite um den DOPPELTE so breiten Chip mit Daten zu füttern.
UND man hat offenbar keine Verluste bei der Skalierung von 40 CUs auf 80 CUs.
Bei Vega hat eine Verdoppeln der CUs ja bestenfalls 50% Mehrleistung gebracht. Bei RDNA sinds nun nahezu 100%...also praktisch linear.
Fragt sich wie lange dieser "Trend" der Linearität in der Skalierung halten würde. 160 CUs ? 300 CUs ? Oder ist bei 80 CUs eigentlich schon "Schluss" (und warum ist das so?).
Iscaran
2020-11-02, 22:01:34
Wie dem auch sei, die schlagen mit einem 21TFLOPs-Chip die 3080. Das ist effizient.
Wieviele TFlops hat denn die 3080 bei dir ?
BoMbY
2020-11-02, 22:18:29
@HOT:
Erkläre mal genauer was du unter "IPC" verstehst. Ich glaube sonst reden wir aneinander vorbei.
[...]
In der Regel spricht man bei IPC-Betrachtung wohl vom Gesamtsystem. Denn je besser der Cache bzw. die Speicheranbindung ist, desto schneller können die Instruktionen abgearbeitet werden, wenn das System nicht erst darauf warten muss dass die Daten nachgeliefert werden. Das lässt sich von Außen gar nicht mehr trennen, ob jetzt die Instruktionen besser verarbeitet werden, oder nur weniger auf Daten warten müssen.
askibo
2020-11-02, 22:35:47
ppLFctc0iMU
Brillus
2020-11-02, 22:42:35
Für mich sieht es so aus als ob bei RDNA2 die "IPC" relativ zu RDNA nahezu gleich ist, was der Cache aber bringt ist eine massive Reduktion im Bedarf an Speicherbandbreite um den DOPPELTE so breiten Chip mit Daten zu füttern.
UND man hat offenbar keine Verluste bei der Skalierung von 40 CUs auf 80 CUs.
Kann man nicht sagen bevor man nicht die 40Cu Variante kennt. RDNA2 kann gleiche IPC habe, oder auch bessere aber eine nichtlineare Skalierung mit den Einheiten.
Irgendeinen Tod muss man sterben. Ich versuch mich eben mal wieder als den-Hype-Train-bremsende-Kraft.
Und wenn die 6800xt besser da steht als die 6900xt, passt sie ja auch besser zum Vergleich, oder?
Ich kenn da nur den Bericht von Igor dazu. Da war die 2,3GHz 5700xt immer noch knapp hinter der 2080FE.
Von daher würde ich meine "Prognose" nicht als völlig abwegig einschätzen, dass eine 6700xt etwa bei der 2080FE landet.
Lass es meinetwegen ein paar Punkte mehr sein, aber 3070? Glaube ich nicht dran.
Habs nur kurz überflogen, aber da passen einige Punkte nicht.
Die 2080ti ist z.B. bei 247% (https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-3090/launch-analyse-nvidia-geforce-rtx-3090-seite-2), die 3070 war in den Tests die ich gelesen habe gleich schnell oder schneller.
Was willst du eig mit "Index vs Base Clock" zeigen?
Interessant ist nur der Durchschnitt, nur weil du mit dem Basistakt rechnest, wird die Karte ja nicht schneller.
Igor lag real bei etwas über 2.2G, zudem hat er den Vram nicht übertaktet.
Zwecks der IPC: AMD hat selbst 6-9% kommuniziert, würde mich doch schwer wundern, wenn es mehr wäre ...
Linmoum
2020-11-02, 23:04:10
Zwecks der IPC: AMD hat selbst 6-9% kommuniziertDir kann man auch dreißigmal sagen, dass AMD nie konkretes hat verlauten lassen und du bleibst trotzdem beim Gegenteil. :freak: Sie haben nicht einmal letzte Woche was zur IPC gesagt. Bevor das Architektur-NDA nicht fällt, wird es auch nichts offizielles geben.
Ravenhearth
2020-11-03, 00:30:24
Die IPC der CUs scheint sich nicht geändert zu haben, eine höhere IPC insgesamt lässt sich momentan nur auf den Infinity Cache zurückführen. Anandtech schreiben z.B.
more energy-efficient CUs, higher frequencies at the same power levels, and an increase in real-world perf-per-clock/IPC thanks to the Infinity Cache. [...]
Furthermore, according to AMD the cache improves the amount of real-world work achieved per clock cycle on the GPU, presumably by allowing the GPU to more quickly fetch data rather than having to wait around for it to come in from VRAM.
Tobalt
2020-11-03, 06:48:32
Hat Amd eine Ankündigung gemacht, wann sie ihr Super Resolution nachreichen wollen?
horn 12
2020-11-03, 07:07:02
Dezember 20 bis Jannuar 2021
Sardaukar.nsn
2020-11-03, 08:11:25
https://youtu.be/ppLFctc0iMU
Uses 12GB of VRAM... 😱 Wird den 3080 Ownern nicht gefallen.
Ansonsten mit VRS und DirectX Raytracing technisch ganz interessant. Spielerisch ein Mix aus Dark Souls und Diablo?
Adam D.
2020-11-03, 08:23:11
Dezember 20 bis Jannuar 2021
Das ist natürlich, in Ermangelung offizieller Infos und Horns typischem Vorgehen, komplett aus dem Hinterteil gezogen.
TheGood
2020-11-03, 09:08:44
@HOT:
UND man hat offenbar keine Verluste bei der Skalierung von 40 CUs auf 80 CUs.
DAS ist mir auch schon aufgefallen, die 8 CUS mehr auf der 6900 bringen durchaus das was man erwarten kann. Das ist schon erstaunlich. Allerdings müssen das echte unabhängige Benchmarks erst noch bestätigen.
DK999
2020-11-03, 09:15:42
Glaubt ihr, warten könnte sich hier endlich auch mal lohnen, weil ein Preiskampf zwischen AMD und Nvidia die Preise in beiden Lagern mal etwas nach unten drückt?
Meine 980 Ti pfeift zwar aus dem letzten Loch, aber wenn ich 100€ an einer 6800 XT sparen kann, warte ich gern ein paar Wochen auf eine Preisschlacht :3
dildo4u
2020-11-03, 09:17:39
Natürlich nicht jeder Sitzt zu Hause und kann kein Urlaub machen vor 2021 wird es nicht genug Karten geben.
ChaosTM
2020-11-03, 09:18:53
Glaubt ihr, warten könnte sich hier endlich auch mal lohnen, weil ein Preiskampf zwischen AMD und Nvidia die Preise in beiden Lagern mal etwas nach unten drückt?
Meine 980 Ti pfeift zwar aus dem letzten Loch, aber wenn ich 100€ an einer 6800 XT sparen kann, warte ich gern ein paar Wochen auf eine Preisschlacht :3
Preisschlacht wir es keine geben. AMD will jetzt mal Geld verdienen.
Zergra
2020-11-03, 09:19:49
Den wird es wohl erst bei ausreichender Verfügbarkeit geben und selbst dann würde ich da nicht viel erwarten.
Ich denke die Karten werden in den ersten 2-3 Monaten deutlich über UVP verkauft, 750-850€ für eine 6800XT und 650-750€ für eine non XT.
Wer da auf geringere Preise hofft muss wohl sehr lange warten. Irgendwann wird es mit Sicherheit günstiger....
Marodeur
2020-11-03, 09:25:45
Evtl ein kurzes Black Friday aufflackern das sofort ausverkauft ist. Dann ist eh Vorweihnachtszeit, das Weihnachtsgeld muss raus (Wär bei mir ja auch der Fall ;D)
Thunder99
2020-11-03, 09:51:39
Beim Speicher erinnert es mich an die HD7970 :D. Endlich wieder gute Konkurrenz.
Skalierungstest werden sicher einziges über die Effizienz verraten. Einzig etwas bitter sind die 300W :(. Besser als Nvidia aber nicht gut
basix
2020-11-03, 09:54:27
Ich denke, die 6800 XT sollte sich relativ leicht auf 250W drosseln lassen, ohne allzu viel wenn überhaupt Leistungsverlust zu haben (UV + OC).
Brillus
2020-11-03, 09:58:59
Glaubt ihr, warten könnte sich hier endlich auch mal lohnen, weil ein Preiskampf zwischen AMD und Nvidia die Preise in beiden Lagern mal etwas nach unten drückt?
Meine 980 Ti pfeift zwar aus dem letzten Loch, aber wenn ich 100€ an einer 6800 XT sparen kann, warte ich gern ein paar Wochen auf eine Preisschlacht :3
Solange NV Lieferprobleme hat sicher nicht und Verfügbarkeit bei AMD wissen wir nicht. Vor Q2 2021 würde ich da keine größern Preisanpassingen erwarten. Lederjacke hat ja schon zugegen das die Lieferprobleme bis in 2021 rein gehen.
Zergra
2020-11-03, 10:01:53
Ich denke, die 6800 XT sollte sich relativ leicht auf 250W drosseln lassen, ohne allzu viel wenn überhaupt Leistungsverlust zu haben (UV + OC).
Dachte eher auf 350-400Watt mit Wasser ? :)
basix
2020-11-03, 10:11:34
Wie du magst, wäre nicht mein Ding ;)
Thunder99
2020-11-03, 10:18:21
High End mit 550W Netzteil, muss gehen ;) :)
r3ptil3
2020-11-03, 11:15:02
6800 und 6800 XT
https://i.ibb.co/pvZ21K6/6800.png
Tobalt
2020-11-03, 11:25:46
Das ist natürlich, in Ermangelung offizieller Infos und Horns typischem Vorgehen, komplett aus dem Hinterteil gezogen.
D.h., dass es keine Ankündigung zum Zeitrahmen gab ? Hmm das lässt idT nicht auf einen baldigen Release schließen.
davidzo
2020-11-03, 11:28:35
6800 und 6800 XT
https://i.ibb.co/pvZ21K6/6800.png
Macht Sinn. Immerhin ist neben dem Radeon Schriftzug also doch noch ein passabler Luftauslass. Auf den Renderings und Fotos sah es bisher so aus als wäre das da praktisch zu, was gerade in der mitte der karte erheblich den airflow reduziert.
Erstaunlich finde ich dass die Lamellenpakete ca. 1cm über dem Board erst anfangen. Man sieht die Fin Stacking Verbinder am Ende jeder Lamelle mit dem das Fin Paket auf eine etwa 2mm starke schwarzgrau beschichtete Grundplatte gelötet ist. Die Dazu gehörigen Fin Stacking Verbinder auf der gegenüberliegenden Seite hatte man ja schon in Fotos gesehen, das sind zwei Streifen die unterhalb der Lüfter verlaufen und dadurch etwas airflow kosten.
Das Lamellenpaket liegt beinahe um eine Dicke des 8Pin Anschlusses vom PCB entfernt. Das spricht für eine ungewöhnlich dicke Vaporchamber oder sehr dicke Heatpipes die dadrunter liegen, vermutlich umrandet von einem aluminiumrahmen der über das ganze Board geht und die GDDR Module und VRMs abdeckt.
aufkrawall
2020-11-03, 11:42:30
Luft wird durch die vertikalen Lamellen von unten nach oben angesaugt? Würde dann zum Abtransport Lüfter unterm Gehäusedeckel voraussetzen, was imho sowieso üblicherweise am besten wäre.
Dschounz
2020-11-03, 11:56:14
Apropro Kühlung/Kühlleistung:
Weiß jemand, ob der VirtualLink (USB-C) Anschluss mit seiner PowerDelivery-Leistung von 27 Watt auch bei AMD in der TBP von 300W enthalten ist??
Wenn inkludiert, wären es ja effektiv "nur" 273W ;), die abzuführen wären....der VirtualLink-Anschluss ist ja ohnehin für die Hose, da abgekündigt bzw. nicht nutzbar.
Mr.Scott
2020-11-03, 12:02:18
Glaubt ihr, warten könnte sich hier endlich auch mal lohnen, weil ein Preiskampf zwischen AMD und Nvidia die Preise in beiden Lagern mal etwas nach unten drückt?
Meine 980 Ti pfeift zwar aus dem letzten Loch, aber wenn ich 100€ an einer 6800 XT sparen kann, warte ich gern ein paar Wochen auf eine Preisschlacht :3
Preisschlacht wir es keine geben. AMD will jetzt mal Geld verdienen.
@DK999
Geduld wird sehr oft belohnt! Aber dieses Jahr und vor allem vor Weihnachten, würde ich nicht darauf wetten.
Ab Jan. könnte sich das schon sehr ändern. mMn.
...ergibt sich immer nach Angebot und Nachfrage.
Pauschal ausschließen würde ich das jetzt nicht.
Außerdem... wer weiß?
Die Chancen stehen für einen AMD Fail nicht gerade hoch, aber es kann sein, dass AMD mal wieder enttäuschen wird.
Wäre ja nicht das erste Mal. :freak:
Ich persönlich hoffe es nicht, da ich auch einen gesunden Wettbewerb sehr schätze und auch auf eine 6xxx Karte schiele. :smile:
Sunrise
2020-11-03, 12:17:00
Ein Preiskampf ist unwahrscheinlich. Vielmehr will sich vor allem NV mit neuen Modellen/SKUs abgrenzen, soweit das aktuell möglich ist. Irgendwann in der Zukunft kommen vor allem bei NV die Refreshes mit mehr Speicher, auch dann wird es keinen Preiskampf geben. Danach kommt wieder AMD, wenn man möchte könnte man hier sicher schon Ende 2021 mit RDNA3 loslegen, zumindest sieht es bzgl. N31 ja sehr gut aus.
Das was AMD mit RDNA2 liefert ist sehr stark und die Preise sind IMHO sehr gut gesetzt, nur N22/N23 wird da leider aktuell noch schmerzlich vermisst, um die Masse zu erreichen.
dargo
2020-11-03, 12:22:15
Das was AMD mit RDNA2 liefert ist sehr stark und die Preise sind IMHO sehr gut gesetzt, nur N22/N23 wird da leider aktuell noch schmerzlich vermisst, um die Masse zu erreichen.
Solange die Konkurrenz auch nichts liefern kann halb so wild.
CompuJoe
2020-11-03, 12:46:47
Weiß einer ob man über dem USB-C eine Adapter auf Display Port betreiben kann? Benötige nämlich 3 + HDMI.
Wird doch bestimmt customs mit 3x DP geben.
Grendizer
2020-11-03, 12:54:46
Weiß einer ob man über dem USB-C eine Adapter auf Display Port betreiben kann? Benötige nämlich 3 + HDMI.
Scheint es zu geben:
https://www.amazon.de/AKKKGOO-Displayport-Kabel-Adapterkabel-Kompatibel-Chromebook/dp/B08DRJHD8L/ref=sr_1_1_sspa?__mk_de_DE=%C3%85M%C3%85%C5%BD%C3%95%C3%91&crid=2J1G31KZLARK3&dchild=1&keywords=adapter+usb+c+auf+displayport&qid=1604404445&sprefix=adapter+usb+c+auf+dis%2Celectronics%2C157&sr=8-1-spons&psc=1&spLa=ZW5jcnlwdGVkUXVhbGlmaWVyPUE1RExPRUlBQUszUUUmZW5jcnlwdGVkSWQ9QTAwMTYxODQxODV LNlJIRElZUkdSJmVuY3J5cHRlZEFkSWQ9QTAxODAxMjUzVTBUMjA5RzM0RlpGJndpZGdldE5hbWU9c3B fYXRmJmFjdGlvbj1jbGlja1JlZGlyZWN0JmRvTm90TG9nQ2xpY2s9dHJ1ZQ==
Hammer des Thor
2020-11-03, 13:24:55
Wegen dem USB-C: Heise hat geschrieben, dass man da auch externe SSD anschliessen kann. Dann müsste da ja nen USB-Controller eingebaut sein. Welcher: 3.1 gen 1 superspeed oder gen 2 superspeed plus?
SkankHunt
2020-11-03, 13:28:33
https://youtu.be/ppLFctc0iMU
Jup, 12GB Vram ist echt eine Ansage. Ist aber auch eines der ersten "only" Next-Gen Games.
Die Min Specs sind nicht zu verachten. Wird sicherlich in nächster Zeit ganz lustig werden.
Mal sehen wie sich die Graka (6800XT) noch übertakten lässt :)
Berniyh
2020-11-03, 13:34:35
Weiß einer ob man über dem USB-C eine Adapter auf Display Port betreiben kann? Benötige nämlich 3 + HDMI.
Ja, das sollte gehen.
Dschounz
2020-11-03, 13:36:19
Wegen dem USB-C: Heise hat geschrieben, dass man da auch externe SSD anschliessen kann. Dann müsste da ja nen USB-Controller eingebaut sein. Welcher: 3.1 gen 1 superspeed oder gen 2 superspeed plus?
3.1 Gen 2 wird unterstützt
https://www.golem.de/news/virtual-link-ausprobiert-geforce-rtx-laedt-smartphone-oder-uebertraegt-ssd-daten-1809-136791.html
Noch mal die Frage: 27W in der TBP bei AMD?
CompuJoe
2020-11-03, 13:40:24
Vielen dank, die ersten customs die so zu sehen waren hatten auch nur 2 + 1
TwoBeers
2020-11-03, 13:42:20
Noch mal die Frage: 27W in der TBP bei AMD?
So wie ich das bisher hier gelesen habe sind nur Chip + Speicher in der TBP.
Kühlung und USB-C sind extra.
kurze Frage: Wie lang "brauchen" eigentlich die üblichen Verdächtigen bis Vorstellung der Custom Designs? Ich schaue in Richtung Sapphire und sehe noch keine :| ^^ (ich weiß, es ist Dienstag ...)
Piefkee
2020-11-03, 13:58:34
3.1 Gen 2 wird unterstützt
https://www.golem.de/news/virtual-link-ausprobiert-geforce-rtx-laedt-smartphone-oder-uebertraegt-ssd-daten-1809-136791.html
Noch mal die Frage: 27W in der TBP bei AMD?
"Normalerweise" ist bei der "Total Board Power" als inkludiert. Auch der USB-C.
@Lyka
Custom Modelle sollen schon wenige Wochen(2-3) nach dem Start kommen...
Habe ich so gehört... glaube beim Igor...
https://www.sapphiretech.com/en/consumer/21305-01-20g-radeon-rx-6800-16g-gddr6
Ich warte bis ~Februar, hab ja mit der 1080Ti 11Gb eigentlich keinen stress :)
M.f.G. JVC
TwoBeers
2020-11-03, 14:06:50
"Normalerweise" ist bei der "Total Board Power" als inkludiert. Auch der USB-C.
Das ist bei NV so, bei AMD ist es wohl anders. Jedenfalls hab ich das hier schon ein paar mal gelesen.
nairune
2020-11-03, 14:12:13
Das ist bei NV so, bei AMD ist es wohl anders. Jedenfalls hab ich das hier schon ein paar mal gelesen.
Da ging es um das Powerlimit, nicht alles durcheinanderbringen...
Es ist nicht bekannt, ob AMD den USB da (TBP) mitgezählt hat oder nicht. Ich würde mal nicht davon ausgehen (ließe sie ja viel schlechter dastehen durch 27W mehr), aber mehr als raten kann man da nicht.
Piefkee
2020-11-03, 14:16:48
Das ist bei NV so, bei AMD ist es wohl anders. Jedenfalls hab ich das hier schon ein paar mal gelesen.
Nein, bei AMD heist das ganze TGP „ total graphic power“. Das entspricht dem Chip+Speicher
Bei TBP ist alles dabei.. Lüfter,Vram etc
Bei USB-C ? Keine Ahnung
DK999
2020-11-03, 14:19:08
Mich interessiert eher, wann die Custom WaKü Blöcke alle kommen. Bis auf EKWB hat da niemand was verlauten lassen und deren Premium-Aufschläge bin ich nicht bereit zu zahlen >_>
Bastelt sich Igor da wieder ein eigenes Design? :D
Redneck
2020-11-03, 14:21:53
Jup, 12GB Vram ist echt eine Ansage. Ist aber auch eines der ersten "only" Next-Gen Games.
Die Min Specs sind nicht zu verachten. Wird sicherlich in nächster Zeit ganz lustig werden.
Mal sehen wie sich die Graka (6800XT) noch übertakten lässt :)
recommended werden 5700xt und eine 1080ti .. wobei beide keine Raytracing beherrschen. komisch..
Mich interessiert eher, wann die Custom WaKü Blöcke alle kommen. Bis auf EKWB hat da niemand was verlauten lassen und deren Premium-Aufschläge bin ich nicht bereit zu zahlen >_>
Bastelt sich Igor da wieder ein eigenes Design? :D
Watercool und Aqua Computer werden wohl Blöcke liefern. Watercool frühestens im Dezember/Januar, bei Aqua Computer hab ich noch kein Datum mitbekommen.
recommended werden 5700xt und eine 1080ti .. wobei beide keine Raytracing beherrschen. komisch..
Schwierig etwas zu empfehlen was noch nicht auf dem Markt ist.
nordic_pegasus
2020-11-03, 14:46:36
Watercool und Aqua Computer werden wohl Blöcke liefern. Watercool frühestens im Dezember/Januar, bei Aqua Computer hab ich noch kein Datum mitbekommen.
hoffentlich ist das Referenz-PCB der 6800XT/6900XT identisch. Dann haben die Hersteller ein bisschen Vorsprung, bevor die 6900XT in den Handel kommt.
Piefkee
2020-11-03, 14:54:11
hoffentlich ist das Referenz-PCB der 6800XT/6900XT identisch. Dann haben die Hersteller ein bisschen Vorsprung, bevor die 6900XT in den Handel kommt.
Ich denke 6800, 6800XT und 6900XT nutzen das selbe PCBA (oder sehr ähnliches). Alle haben die selbe VRAM anbindung
amdfanuwe
2020-11-03, 15:18:39
Es ist nicht bekannt, ob AMD den USB da (TBP) mitgezählt hat oder nicht. Ich würde mal nicht davon ausgehen (ließe sie ja viel schlechter dastehen durch 27W mehr), aber mehr als raten kann man da nicht.
Wieso sollten die 27W, die USB 3.0 liefern kann, sich auf die TBP auswirken?
Wenn ein Verbraucher angeschlossen ist, der das zieht, dann entsteht die Wärme beim Verbraucher und nicht auf dem Board.
Der USB Chip selbst und die Buchse brauchen doch keine 27W, eher ein paar mW.
Dschounz
2020-11-03, 15:29:07
Wieso sollten die 27W, die USB 3.0 liefern kann, sich auf die TBP auswirken?
Wenn ein Verbraucher angeschlossen ist, der das zieht, dann entsteht die Wärme beim Verbraucher und nicht auf dem Board.
Der USB Chip selbst und die Buchse brauchen doch keine 27W, eher ein paar mW.
Nach AMD-Lesart:
TDP = Thermal Design Power => Wieviel Abwärme wird produziert und muss weggeschafft werden.
TGP = Total Graphics Power => Wieviel Leistung verbrauchen GPU und Speicher.
TBP = Total Board Power => Wieviel Leistung benötigt die gesamte Karte.
Also bei der TBP ist die Frage nach den 27W berechtigt, da es nicht um Abwärme, sondern um die in die Karte gespeiste Leistung geht.
Ex3cut3r
2020-11-03, 15:30:05
Kann es kaum abwarten. :biggrin:
https://abload.de/img/psbphcjruvojuq.png
Berniyh
2020-11-03, 15:45:54
Wieso sollten die 27W, die USB 3.0 liefern kann, sich auf die TBP auswirken?
Wenn ein Verbraucher angeschlossen ist, der das zieht, dann entsteht die Wärme beim Verbraucher und nicht auf dem Board.
Der USB Chip selbst und die Buchse brauchen doch keine 27W, eher ein paar mW.
Und die benötigte Leistung dafür kommt aus dem Nichts, oder wie? :freak:
Complicated
2020-11-03, 16:01:58
Nach AMD-Lesart:
TDP = Thermal Design Power => Wieviel Abwärme wird produziert und muss weggeschafft werden.
TGP = Total Graphics Power => Wieviel Leistung verbrauchen GPU und Speicher.
TBP = Total Board Power => Wieviel Leistung benötigt die gesamte Karte.
Also bei der TBP ist die Frage nach den 27W berechtigt, da es nicht um Abwärme, sondern um die in die Karte gespeiste Leistung geht.
Und die benötigte Leistung dafür kommt aus dem Nichts, oder wie? :freak:
Leute - Benennt es einmal so wie es korrekt benannt wir: Verlustleistung (Wärmewandlung).
Wo entsteht die? Beim Verbraucher. Wo ist der bei USB? Netzteil und Endgerät - dazwischen gibt es lediglich an den Kontakten/Stecker thermische Verluste (die wir ja alle nicht einbeziehen weil recht klein). Die 27W können daher nicht auf dem GPU-Board zur Verlustleistung gezählt/gemessen werden.
Analog den UCB-C Ports auf dem Mainboard wird das ganz sicher nicht auf die CPU TDP/Verbrauch mit gerechnet oder dort gemessen.
arcanum
2020-11-03, 16:43:48
Leute - Benennt es einmal so wie es korrekt benannt wir: Verlustleistung (Wärmewandlung).
Wo entsteht die? Beim Verbraucher. Wo ist der bei USB? Netzteil und Endgerät - dazwischen gibt es lediglich an den Kontakten/Stecker thermische Verluste (die wir ja alle nicht einbeziehen weil recht klein). Die 27W können daher nicht auf dem GPU-Board zur Verlustleistung gezählt/gemessen werden.
Analog den UCB-C Ports auf dem Mainboard wird das ganz sicher nicht auf die CPU TDP/Verbrauch mit gerechnet oder dort gemessen.
und was wenn sonstige verbraucher auf/an der karte hypothetisch 100 watt ziehen? dann zieht die karte doch wohl 300+100 = 400 watt aus 2x 8fach pci-e und sockel oder werden die 100 watt auf magische art und weise aus anderer quelle gespeist?
Dschounz
2020-11-03, 16:46:28
Leute - Benennt es einmal so wie es korrekt benannt wir: Verlustleistung (Wärmewandlung).
Wo entsteht die? Beim Verbraucher. Wo ist der bei USB? Netzteil und Endgerät - dazwischen gibt es lediglich an den Kontakten/Stecker thermische Verluste (die wir ja alle nicht einbeziehen weil recht klein). Die 27W können daher nicht auf dem GPU-Board zur Verlustleistung gezählt/gemessen werden.
Analog den UCB-C Ports auf dem Mainboard wird das ganz sicher nicht auf die CPU TDP/Verbrauch mit gerechnet oder dort gemessen.
Meinen Post gelesen.... ;)
TGP, TBP geben eben nicht die Abwärme, sondern die eingespeiste Leistung an...und da der USB-C am Anschlussfeld der Karte liegt, muss die Leistung auch in und durch die Karte.
Guck dir mal Igors Reviews an, insbesondere die Messungen zur Leistung.
Complicated
2020-11-03, 17:00:59
Nur wird das eben nicht dort angegeben wo du gelistet hast.
Powerdelivery != Powerconsume
Und verlinke mal bitte wo Igor USB-Stromverbrauch (Watt) an der GPU gemessen hat.
@arcanum
Bitte, wenn man etwas nicht versteht und das dann "magisch" nennt, wird es nicht besser. So magisch wie dein USB-Hub der 4x mal solche USB-C durchleitet und dennoch keine 100W verbraucht? Oder wie dein 3-fach-Schükostecker, der demnächst 3 Lüfter bekommt?
amdfanuwe
2020-11-03, 17:03:22
Meinen Post gelesen.... ;)
Ja, danke.
Zergra
2020-11-03, 17:22:09
Meinen Post gelesen.... ;)
TGP, TBP geben eben nicht die Abwärme, sondern die eingespeiste Leistung an...und da der USB-C am Anschlussfeld der Karte liegt, muss die Leistung auch in und durch die Karte.
Guck dir mal Igors Reviews an, insbesondere die Messungen zur Leistung.
Doch am Ende sind es auch alles Wärmeabgaben, den etwas anderes entsteht nicht.
Hakim
2020-11-03, 17:34:14
Wird eigentlich das PT beim Rage Mode angehoben?
dildo4u
2020-11-03, 17:35:41
Wird eigentlich das PT beim Rage Mode angehoben?
Ja das ist das einzige was er macht.
https://youtu.be/mp7xv-JrvYk?t=707
Brillus
2020-11-03, 17:37:30
Leute - Benennt es einmal so wie es korrekt benannt wir: Verlustleistung (Wärmewandlung).
Wo entsteht die? Beim Verbraucher. Wo ist der bei USB? Netzteil und Endgerät - dazwischen gibt es lediglich an den Kontakten/Stecker thermische Verluste (die wir ja alle nicht einbeziehen weil recht klein). Die 27W können daher nicht auf dem GPU-Board zur Verlustleistung gezählt/gemessen werden.
Analog den UCB-C Ports auf dem Mainboard wird das ganz sicher nicht auf die CPU TDP/Verbrauch mit gerechnet oder dort gemessen.
Nur bei TBP macht die Übersetzung von Power in Leistung keinen Sinn, sondern da ist eher die Übersetzung mit Energie zu nehmen. Der gesamt Energiebedarf des Boards, und klar kommt da der USB-C Anschluss dazu.
Brillus
2020-11-03, 17:41:47
Doch am Ende sind es auch alles Wärmeabgaben, den etwas anderes entsteht nicht.
Steck einen USB-Ventilator in die Büchse und deine Aussage stimmt so nichtmehr. Oder wenn du es ganz genau machen willst, hol einen USB-Raktenwerfen udn stell ihn so hin das die höher aufkommen wie du sie losgeschossen hast.
Complicated
2020-11-03, 17:49:39
Wie mißt man Energiebedarf? Und wenn der Strom nach aussen geleitet wird an eine SSD, warum kommt das zur TBP dazu? An welchem Bauteil der GPU (Chip, Speicher, Elkos) entsteht der Verbrauch?
Ein Strommessgeärt an der Steckdose vom Netzteil misst dir den Systemverbrauch ebenso wie deinen Lüfter. Doch sicherlich nicht auf der CPU oder der GPU.
Mangel76
2020-11-03, 18:08:44
Wie mißt man Energiebedarf? Und wenn der Strom nach aussen geleitet wird an eine SSD, warum kommt das zur TBP dazu? An welchem Bauteil der GPU (Chip, Speicher, Elkos) entsteht der Verbrauch?
Ein Strommessgeärt an der Steckdose vom Netzteil misst dir den Systemverbrauch ebenso wie deinen Lüfter. Doch sicherlich nicht auf der CPU oder der GPU.
Irgendwo muss der Strom ja herkommen, auch wenn er nur durchgeleitet wird. TBP würde ich eher als das Maximum für die Stromversorgung der Karte betrachten und dafür ist es egal, ob der auf der Karte oder erst dahinter verbraucht wird.
Complicated
2020-11-03, 18:11:29
Nochmal: Wo kommt der Strom für deinen TV an der 3-Fach-Steckdose her? Und wo kannst du ihn messen und wieviel TBP muss die 3-fach Steckdose haben, damit du noch deine PS5 daran anschließen kannst? Denkst du ich komm da mit 2 Lüftern klar?
Mangel76
2020-11-03, 18:20:01
Nochmal: Wo kommt der Strom für deinen TV an der 3-Fach-Steckdose her? Und wo kannst du ihn messen und wieviel TBP muss die 3-fach Steckdose haben, damit du noch deine PS5 daran anschließen kannst? Denkst du ich komm da mit 2 Lüftern klar?
Was soll denn diese Frage? Wenn du etwas an die PS5 anschließt erhöht sich auch der Verbrauch an der Steckdose. Wenn du damit das Netzteil überlastest, funktioniert es halt auch nicht. Und wenn du etwas an die Graka anschließt und der Gesamtverbrauch höher ist als das, was das Netzteil der Graka zur Verfügung stellen kann, dann funktioniert das genauso wenig. Du kannst ja mal versuchen 3 2000 Watt Föne an einen Dreifachverteiler zu stecken, der nur für 3500 Watt gedacht ist. Mal sehen wie lange das funktioniert.
woodsdog
2020-11-03, 18:37:18
Was soll denn diese Frage? Wenn du etwas an die PS5 anschließt erhöht sich auch der Verbrauch an der Steckdose. Wenn du damit das Netzteil überlastest, funktioniert es halt auch nicht. Und wenn du etwas an die Graka anschließt und der Gesamtverbrauch höher ist als das, was das Netzteil der Graka zur Verfügung stellen kann, dann funktioniert das genauso wenig. Du kannst ja mal versuchen 3 2000 Watt Föne an einen Dreifachverteiler zu stecken, der nur für 3500 Watt gedacht ist. Mal sehen wie lange das funktioniert.
Das geht erstaunllich lange gut xD
Ich hatte letzten Winter den Fall, dass die Kolleginnen insgesammt 3 Heizlüfter mit zusammen 6KW über 2 3er Steckdosen verlängert an einer Wandsteckdose hatten. Ging von Morgens gegen 10 bis ca 13 Uhr gut. Dann flog die Sicherung.
Die 3er Dosen sahen noch gut aus aber die Wandsteckdose war ordentlich nach unten weg geschmolzen.
Complicated
2020-11-03, 18:40:42
Und du denkst das Überlasten eines Netzteils kann eine höhere TBP der GPU verhindern. Wie ändert sich die TBP wenn ich anstatt 2x 8-PIN an die GPU 3x8-PIN verbaue und sonst alles identisch ist? Ich bin mal raus aus dem Thema.
Savay
2020-11-03, 18:47:59
Worüber streitet ihr?
Die Angaben der Hersteller sind eh nur durchschnittliche Bemessungsgrößen für Dauerlasten.
Wenn ihr wissen wollt was die Karten im Extremfall mit allem Drum und Dran und Zip und Zap ziehen wird Igor das sicher mal detailliert genug ausmessen.
Noch etwas zu warten ist da hilfreicher als hier zu orakeln.
Die Netzteile interessieren sich mittlerweile wohl eh eher für die kurzen Peaks die die Dinger durch die Boostmechanismen auf die Rails hauen!
Langlay
2020-11-03, 18:50:34
Das geht erstaunllich lange gut xD
Ich hatte letzten Winter den Fall, dass die Kolleginnen insgesammt 3 Heizlüfter mit zusammen 6KW über 2 3er Steckdosen verlängert an einer Wandsteckdose hatten. Ging von Morgens gegen 10 bis ca 13 Uhr gut. Dann flog die Sicherung.
Die 3er Dosen sahen noch gut aus aber die Wandsteckdose war ordentlich nach unten weg geschmolzen.
Dort hätte normalweise sofort die Sicherung kommen müssen. 99% Steckdosen in den Häusern sind mit maximal 16A abgesicht. Also 16Ax240V= 3840W.
In älteren Häuser findet man dann noch öfters Kabel die nur mit 10A abgesichert dort ist dann bei 2400W Schluss.
Savay
2020-11-03, 18:57:38
Die Schukosteckdosen sind gar nicht für längere hohe Dauerlast mit 16A ausgelegt. Das ist das Problem...die haben eigentlich eine Bemessungsstromgrenze von max. 8-10A für "Dauerlasten". ;)
woodsdog
2020-11-03, 18:59:45
Dort hätte normalweise sofort die Sicherung kommen müssen. 99% Kabel in den Häusern sind mit maximal 16A abgesicht. Also 16Ax240V= 3840W.
In älteren Häuser findet man dann noch öfters Kabel die nur mit 10A abgesichert dort ist dann bei 2400W Schluss.
Nö, so funktionieren Sicherungen IMO nicht.
Bei einem Kurzen kommen die Automaten natürlich sofort weil die Leistung von 0 auf Gleich durch die Decke knallt. Bei solchen vergleichsweise geringen Überlasten von 200-300% werden hingegen "nur" die Kabel und vorallem die Übergänge (die Steckdose) warm -> heiß -> kokelt weg.
So entstehen ja unter anderem auch Brände bei "Überlastung".
So zumindest mein Amateur-Verständniss von der Materie.
@Savay
Ja so hab ich das auch verstenden. 3500ish Watt kurzzeitig (Wasserkocher time?) OK aber dauerlast eher so 2,5KW. Deswegen sind die ganzen Ladeziegel von E-Autos ja in der Regel auch bei 10ish Ampere abgesichert und nicht 16.
Mangel76
2020-11-03, 19:02:06
Und du denkst das Überlasten eines Netzteils kann eine höhere TBP der GPU verhindern. Wie ändert sich die TBP wenn ich anstatt 2x 8-PIN an die GPU 3x8-PIN verbaue und sonst alles identisch ist? Ich bin mal raus aus dem Thema.
Wieso haben sich alle über Polaris aufgeregt? Weil die RX 480 mehr aus dem PCIe gezogen hat als spezifiziert sind. Das gleiche kann dir bei einer Graka auch passieren, wenn du zusätzliche Verbraucher dran hängst. Bei 27 Watt wird wohl nicht viel passieren, denn es sind immer genügend Reserven eingeplant. Aber theoretisch dürfte ich an eine RX 3090 keinen Verbraucher mit 27 Watt hängen, denn dann hätte ich 350W von der Graka plus 27W vom Verbraucher, also zusammen 377W, was knapp mehr ist als 2 8-Pol+PCIe zusammen liefern. (nur als theoretisches Beispiel!)
woodsdog
2020-11-03, 19:05:59
Wieso haben sich alle über Polaris aufgeregt? Weil die RX 480 mehr aus dem PCIe gezogen hat als spezifiziert sind. Das gleiche kann dir bei einer Graka auch passieren, wenn du zusätzliche Verbraucher dran hängst. Bei 27 Watt wird wohl nicht viel passieren, denn es sind immer genügend Reserven eingeplant. Aber theoretisch dürfte ich an eine RX 3090 keinen Verbraucher mit 27 Watt hängen, denn dann hätte ich 350W von der Graka plus 27W vom Verbraucher, also zusammen 377W, was knapp mehr ist als 2 8-Pol+PCIe zusammen liefern. (nur als theoretisches Beispiel!)
NV's TBP inkludiert ALLES inkl LED bling bling Lüfter und eben ggf auch den USB-C. AMD wird man sehen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.