Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)
lowkres
2020-11-09, 16:53:23
Hab echt angst bekommen als ich 850W auf der Sapphire Seite gelesen habe. Habe mir erst vor 1 Woche ein 750W Netzteil von Be-quiet bestellt. Aber denke das es funktionieren sollte. Der 5600X hat ja dazu auch eine geringe TDP. :)
patrickschur
2020-11-09, 17:04:01
Es geht hier nicht um Werte die aus irgendeinem vBIOS augelesen wurden. Mir liegen auch Logs vor. Dort hat die Strix beispielsweise auf bis zu 2,55 GHz geboostet und der durchschnittliche Takt lag bei 2,2-2,3 GHz.
Natürlich sollte man diese Zahlen mit vorsichtig genießen, schließlich könnte der Treiber auch einfach falsche Taktraten zurückgeben. Dafür liegen die Taktraten aber zu sehr nah am maximalen möglichen (laut vBIOS). So oder so, ich glaube die Karten wird man sehr gut übertakten können. Wenn Sapphire schon ein 850 W Netzteil empfiehlt. Da steht uns sicherlich ein heißer Winter vor der Tür. :)
Complicated
2020-11-09, 17:16:58
Interessant, dass der USB-C nicht als Display-Ausgang gelistet ist. Kein DP over UCB-C? Das fände ich schade, wenn es nur ein SSD-Anschluß wäre.
Edit: Tatsächlich ist es ein DP mehr anstatt des USB-C? Verglichen mit der Referenz. (Da steht Display-Output dabei)
https://www.amd.com/de/products/graphics/amd-radeon-rx-6800
Interessant, dass der USB-C nicht als Display-Ausgang gelistet ist. Kein DP over UCB-C? Das fände ich schade, wenn es nur ein SSD-Anschluß wäre.
Edit: Tatsächlich ist es ein DP mehr anstatt des USB-C? Verglichen mit der Referenz. (Da steht Display-Output dabei)
https://www.amd.com/de/products/graphics/amd-radeon-rx-6800
Die Toxic Non-XT hat keinen USB-C, die XT schon ;)
Nazar
2020-11-09, 18:58:33
Da kommt es AFAIK auf die Heatpipe selber an, manche können in jeder Lage Arbeiten (Kapillarwirkung), andere brauchen die Schwerkraft, damit die Kühlflüssigkeit zurück zum Hotspot gelangt.
https://i1.wp.com/www.radianheatsinks.com/wp-content/uploads/2016/11/wick.png?fit=598%2C383&ssl=1
Heatpipes sind ja nicht zu jeder Seite gleich lang, deswegen kann die Orientierung schon eine Rolle spielen.
Heatpipe: Flüssigkeit verdampft, wird abgekühlt, wird wieder flüssig und geht wieder zum Kern, richtig?
Hänge ich die Karte so auf:
Sammelt sich die Wärme oben und der "warme Dampf" erreicht nicht den unteren Teil der Karte?
https://abload.de/img/external-content.duckwqj81.jpg
Hänge ich die Karte so auf:
Kann der "warme Dampf" in den größeren Heatsink wandern und somit kann der schneller wieder verflüssigt werden.
https://abload.de/img/external-content.duckmekce.jpg
Ideal wäre dann aber vermutlich horizontal, weil somit der komplette Kühler genutzt werden kann. Macht das Sinn? Funktionieren so Heatpipes? :D
@Nazar
Hol dir halt irgendwas mit Vapor Chamber, dann wird des schon klappen.
Meine VII hatten so keine Probleme mit der Temp, egal wie rum sie hingen. ( Sie hingen schon in jeder Richtung ^^ )
So eine Toxic bietet sich doch an, wenn sie ne VC hat, oder halt ne WaKü aka Eiswolf.
Vielen Dank euch beiden. Man lernt nie aus. :wink:
An meine WaKü wird sie auf jeden Fall angeschlossen. Ich lasse aber die Karte gerne 1 Woche mit normalen Kühler laufen, um nach Auffälligkeiten zu schauen. Ist dann alles in Ordnung, dann baue ich um.
Nochmals danke euch beiden! :up:
Daredevil
2020-11-09, 19:03:17
Ehrlich gesagt habe ich mir auch noch nie über sowas Gedanken gemacht. War jetzt auch nur ne Theorie, klingt für mich aber erstmal recht plausibel.
BigBangBacket
2020-11-09, 19:25:32
Die SE hat wieder einen USB C
https://www.sapphiretech.com/en/consumer/nitro-radeon-rx-6800-xt-se-16g-gddr6
TwoBeers
2020-11-09, 19:40:58
Die SE hat wieder einen USB C
https://www.sapphiretech.com/en/consumer/nitro-radeon-rx-6800-xt-se-16g-gddr6
Und zusätzlich ARGB oder noch irgendwas?
Wie Daredevil bereits vermutet hat :( https://videocardz.com/newz/amd-radeon-rx-6800-allegedly-1-5x-faster-than-geforce-rtx-3090-in-cryptocurrency-mining
Hübie
2020-11-09, 20:03:44
Mal doof gefragt: Ist Sapphire immer noch so ein Billigheimer oder sind die mittlerweile kaufbar? Ich lese leider selten was über deren PCB-Güte. Sonst kauf ich halt wieder ne ASUS, aber ich befürchte, dass es die nicht zum Release zu kaufen geben wird.
Wo liegt eigentlich der Unterschied von Nitro+ zu Pulse. Sehen leicht anders aus, aber sonst erkenne ich keine Unterscheidungsmerkmale.
Vermutlich werde ich meinen neuen Rechner eh nicht vor Dezember basteln können, aber haben beruhigt ja bekanntermaßen. ;D
Linmoum
2020-11-09, 20:07:45
Wie kommst du auf "immer noch"? Sapphire ist bei AMD quasi immer Referenz von der Qualität her.
TwoBeers
2020-11-09, 20:21:59
Wollte ich auch gerade sagen. Und generell, seit Navi gibt es doch gar nicht mehr so richtig schlechte Karten.
RNDA2 Referenz (inkl. Sapphire und Powercolor) ist total ok und die Customs die darauf aufbauen wahrscheinlich auch nicht anders. Fast alle brauchen 3 Slots und 3 Lüfter, da ist der Unterschied zu customs sehr gering.
Dann gibt es immer noch die "richtigen" customs von Asus, Gigabyte, MSI und auch Sapphire, aber so einen riesen Unterschied machen die auch nicht. Ein bisschen mehr MHz und TDP, meistens lauter, manchmal leiser.
Ich würde im Moment eh zu dem greifen was als erstes verfügbar ist, richtig "schlechte" Karten gibt es da glaube nich nicht.
Und lieber eine 6800Xt jetzt haben als erst Ende Januar. ;)
Die kann man dann immer noch später mit einer WaKü aufrüsten und weiter übertakten.
Berniyh
2020-11-09, 20:35:14
Mal doof gefragt: Ist Sapphire immer noch so ein Billigheimer oder sind die mittlerweile kaufbar? Ich lese leider selten was über deren PCB-Güte. Sonst kauf ich halt wieder ne ASUS, aber ich befürchte, dass es die nicht zum Release zu kaufen geben wird.
Ähm ist es nicht eher ASUS die Schrott zu Premiumpreisen verkaufen?
Zumindest mein X570-E wird mein erstes und letztes ASUS Board sein und bleiben, da das Kühlerdesign undurchdacht und total für die Tonne ist.
Ich kaufe Sapphire durchgehend seit ca. 2004 oder 2005 ... ich fand ihre letzten Grafikkarten durch aus teurer als die Konkurrenz (was natürlich nicht bedeutet, sie seien Billigheimer ...)
SKYNET
2020-11-09, 20:45:52
Mal doof gefragt: Ist Sapphire immer noch so ein Billigheimer oder sind die mittlerweile kaufbar? Ich lese leider selten was über deren PCB-Güte. Sonst kauf ich halt wieder ne ASUS, aber ich befürchte, dass es die nicht zum Release zu kaufen geben wird.
Wo liegt eigentlich der Unterschied von Nitro+ zu Pulse. Sehen leicht anders aus, aber sonst erkenne ich keine Unterscheidungsmerkmale.
Vermutlich werde ich meinen neuen Rechner eh nicht vor Dezember basteln können, aber haben beruhigt ja bekanntermaßen. ;D
ist nen witz oder?
sapphire und PC sind die beiden einzigen hersteller wo man bei ATI / AMD immer ohne einen gedanken zu verschwenden zugreifen konnte/kann... im gegensatz zu asus, die auf AMD basis nahezu jedes design verkackt haben, und auch auf NV ziemlich oft in die scheisse gegriffen haben bei den kühlern.
Denniss
2020-11-09, 20:48:41
Wie kommst du auf "immer noch"? Sapphire ist bei AMD quasi immer Referenz von der Qualität her.Und Asus ist eher am anderen Ende zu suchen.
Wiseman
2020-11-09, 20:49:39
Sapphire hat nun die Nitro+ vorgestellt
Gestern die Pulse
also die Nitro ist jetzt auf der Seite
https://www.sapphiretech.com/de-de/consumer/nitro-radeon-rx-6800-xt-16g-gddr6
die Pulse auch
https://www.sapphiretech.com/de-de/consumer/pulse-radeon-rx-6800-xt-16g-gddr6
Release (gelesen): 18.11.
Leider keine Taktzahlen
Wo hast du das mit dem Release am 18.11. gelesen?
Falls das Gerücht von Videocardz betreffs Mining stimmt, wäre es äußerst wichtig, dass die Custom Karten von Sapphire (Pulse und Nitro+) bereits am 18.11 oder meinetwegen kurz darauf erhältlich wären. Ansonsten besteht die Gefahr, dass diese depperten Energieverschwender die Preise für Grafikkarten erneut in absurde Höhen treiben und zugleich vernünftige Bürger verarschen dürfen, indem diese viele Monate warten müssen, bis sie zu einem zwar weiterhin überzogenen, aber einigermaßen akzeptablen Preis so eine Custom Karte erwerben können. Mir erging es schon mal so, nämlich mit der Vega56 Pulse.
horn 12
2020-11-09, 20:56:10
Nachdem einschlägigen Twitter-Leaker kopite7kimi4virgil soll heute irgendwas kommen. RT-Performence? :cool:
Tweet von gestern: "I will say RIP RTX 3080 tomorrow. We should see the leak of 6800XT tomorrow."
https://twitter.com/kopite7kimi/status/1325373085952868352
Nun, dacht da kommt heute etwas
Oder sollte es die Sapphire Vorstellung nur gewesen sein?
Cyberfries
2020-11-09, 20:57:41
Zu Sapphire: Stimmt da war mal was - die hatten doch mal einen echt schlechten Ruf?
Aber sicher schon 10-15 Jahre her, gefühlt.
Nun, dacht da kommt heute etwas
Oder sollte es die Sapphire Vorstellung nur gewesen sein?
Jo, sollte es das gewesen sein wäre das etwas mager,
da hab ich mehr erwartet nach dem von verschiedenen Seiten angerührten Hype.
Nochmal eine Äußerung von Yuko Yoshida (https://twitter.com/KittyYYuko/status/1325814262749564928) zur Größe von N21:
Sienna Cichlid (Navi 21)
519.8 mm2
26.8 B
Wo hast du das mit dem Release am 18.11. gelesen?
Facebook-Kommentar :freak:
und der hats vermutlich von hier https://www.hexus.net/tech/news/graphics/146683-sapphire-radeon-rx-6800-xt-nitro-teaser-shared/
Was aber sicher nur daran liegt, dass AMD die Referenzdesigns wohl am 18.11.20 veröffentlicht ...
mironicus
2020-11-09, 21:26:48
Ne, das darf doch nicht war sein, daß schon die kleinste RX 6800 die RTX 3090 deutlich beim Mining schlägt. Die Karten werden wir wohl für 6 Monate nicht kaufen können.
r3ptil3
2020-11-09, 21:34:16
@Hübie
Siehe Sapphire Nitro+ 5700 XT
Darf als Referenz der Customs gesehen werden:
https://i.ibb.co/2Kh0C3S/OC.png
https://i.ibb.co/vXhzJBK/Temp.png
Die Powercolor hat aber bei der 5700 XT auch überrascht und war (korrigiert mich wenn ich falsch liege) in Sachen Kühldesign ebenbürtig, wenn nicht sogar besser in Sachen VRAM Kühlung.
Wiseman
2020-11-09, 21:34:41
Mal doof gefragt: Ist Sapphire immer noch so ein Billigheimer oder sind die mittlerweile kaufbar? Ich lese leider selten was über deren PCB-Güte. Sonst kauf ich halt wieder ne ASUS, aber ich befürchte, dass es die nicht zum Release zu kaufen geben wird.
Wo liegt eigentlich der Unterschied von Nitro+ zu Pulse. Sehen leicht anders aus, aber sonst erkenne ich keine Unterscheidungsmerkmale.
Vermutlich werde ich meinen neuen Rechner eh nicht vor Dezember basteln können, aber haben beruhigt ja bekanntermaßen. ;D
Du hast eigenen Angaben zufolge 10 Jahre lang keine ATi/AMD Karten gekauft. Verständlich, dass du nicht mehr auf dem Laufenden bist.
Ich wäre der Letzte, der dir eine bestimmte Marke aufschwatzen würde. Aber die Tatsache, dass ich seit mindestens 6 Grafikkarten-Generationen hintereinander mich für Sapphire entschied, dürfte schon ein Indiz dafür sein, dass Sapphire gute Karten baut. Ich war jedenfalls immer damit zufrieden. Und natürlich hatte ich mich Generation für Generation vor dem Kauf intensiv mit den anderen Marken beschäftigt. Meine Entscheidung fiel jedesmal pro Sapphire aus und ich hatte hinterher stets das Gefühl, die richtige Entscheidung getroffen zu haben.
Der Unterschied zwischen Pulse und Nitro+ ist schnell erklärt. Die Nitro+ ist immer die leistungsstärkere Custom Karte. Details zur aktuellen 6800-Serie für eine bessere Leistungseinschätzung hat Sapphire noch nicht bekanntgegeben. Einzige Ausnahme sind die Netzteil-Empfehlungen für die Pulse und die Nitro+. Für die Pulse empfiehlt Sapphire ein 750 Watt Netzteil und für die Nitro+ ein 850 Watt Netzteil.
Langlay
2020-11-09, 21:36:33
Die Red Devil waren von Powercolor bis jetzt immer ziemlich gut. Also ich hätte schon gerne ne 6800XT Red Devil oder Nitro für meine Frau welche von beiden ist mir eigentlich ladde.
SKYNET
2020-11-09, 21:49:55
Die Red Devil waren von Powercolor bis jetzt immer ziemlich gut. Also ich hätte schon gerne ne 6800XT Red Devil oder Nitro für meine Frau welche von beiden ist mir eigentlich ladde.
6800XT für die frau? mehr isse dir nicht wert? na warte mal wenn sie das liest ;D:freak:
Langlay
2020-11-09, 21:51:52
6800XT für die frau? mehr isse dir nicht wert? na warte mal wenn sie das liest ;D:freak:
Sie weiss das, ist von na 5700 ja auch ein nettes Upgrade und 1440p reicht auch die 6800XT gut aus.
Wiseman
2020-11-09, 21:52:36
Facebook-Kommentar :freak:
und der hats vermutlich von hier https://www.hexus.net/tech/news/graphics/146683-sapphire-radeon-rx-6800-xt-nitro-teaser-shared/
Was aber sicher nur daran liegt, dass AMD die Referenzdesigns wohl am 18.11.20 veröffentlicht ...
Meine Befürchtung wird damit bestätigt, der 18.11. Termin bezieht sich leider nur auf den Release Termin der Referenzkarten.
Bleibt nur zu hoffen, dass an dem anderen Videocardz-Geschwätz von der Verfügbarkeit von Custom Karten etwa eine Woche nach Release der Referenzkarten ein bisschen Wahrheitsgehalt dran ist. Wie schon mal hier erwähnt, ich wär ja schon zufrieden, wenn es im Laufe des Monats Dezember Custom Karten gäbe. Ein bisschen optimistisch stimmt mich der Umstand, dass Sapphire jetzt schon ziemlich viele, wenn auch nicht alle Details zu den Pulse und Nitro+ Karten bekanntgegeben hat. Das hatte bei den letzten beiden Generationen viel länger gedauert.
SKYNET
2020-11-09, 22:14:09
Sie weiss das, ist von na 5700 ja auch ein nettes Upgrade und 1440p reicht auch die 6800XT gut aus.
naja, in anbetracht das selbst ne 3090 mit RT on, keine 60fps mit nativ 1080p durchweg liefern kann, ne gewagte these :wink:
y33H@
2020-11-09, 22:32:33
Nochmal eine Äußerung von Yuko Yoshida (https://twitter.com/KittyYYuko/status/1325814262749564928) zur Größe von N21.Immer wieder spannend wer wann auf was (auch) Zugriff hat.
horn 12
2020-11-09, 22:43:18
https://twitter.com/Bullsh1t_buster/status/1325829616573935616?s=19
Dementi zur Mining Performance
Ca. Radeon VII Level
ob und was dabei wirklich wahr ist sei mal dahingestellt.
ja, wollte den Link auch gerade posten :O
Daredevil
2020-11-09, 23:29:18
Sag ich doch (:
Ergebnisse kann es aber auch hier nicht geben.
Weder ein gut noch schlecht ist messbar, wenn es noch keine optimierte Software für die Karten gibt und ETH Mining ist nicht der einzige Algorithmus.
Man könnte doch so ein Gerücht via Twitter verbreiten, dass AMD das Minen in den ersten Treibern sperrt. Gamers first...
[MK2]Mythos
2020-11-10, 07:51:49
Das müsste horn machen. Der wird doch gerne mal international zitiert.
Eldoran
2020-11-10, 07:56:56
Es ist nicht zu erwarten, dass Mining besonders gut läuft. Die Wirkung eines Cache basiert darauf, dass es normalerweise relativ gut prognostizierbare/wiederholte Datenzugriffe gibt.
Genau das will man beim Design eines Miningalgorithmus eigentlich vermeiden. Das wäre ein Fehler im Proof of Work.
soLofox
2020-11-10, 08:26:16
Mythos;12493427']Das müsste horn machen. Der wird doch gerne mal international zitiert.
Wohl eher italnational. :freak:
Hübie
2020-11-10, 08:55:33
Du hast eigenen Angaben zufolge 10 Jahre lang keine ATi/AMD Karten gekauft. Verständlich, dass du nicht mehr auf dem Laufenden bist.
Ich wäre der Letzte, der dir eine bestimmte Marke aufschwatzen würde. Aber die Tatsache, dass ich seit mindestens 6 Grafikkarten-Generationen hintereinander mich für Sapphire entschied, dürfte schon ein Indiz dafür sein, dass Sapphire gute Karten baut. Ich war jedenfalls immer damit zufrieden. Und natürlich hatte ich mich Generation für Generation vor dem Kauf intensiv mit den anderen Marken beschäftigt. Meine Entscheidung fiel jedesmal pro Sapphire aus und ich hatte hinterher stets das Gefühl, die richtige Entscheidung getroffen zu haben.
Der Unterschied zwischen Pulse und Nitro+ ist schnell erklärt. Die Nitro+ ist immer die leistungsstärkere Custom Karte. Details zur aktuellen 6800-Serie für eine bessere Leistungseinschätzung hat Sapphire noch nicht bekanntgegeben. Einzige Ausnahme sind die Netzteil-Empfehlungen für die Pulse und die Nitro+. Für die Pulse empfiehlt Sapphire ein 750 Watt Netzteil und für die Nitro+ ein 850 Watt Netzteil.
Danke für die Antwort. Ich habe meine 980 Ti seit August 2015 im Einsatz und wäre das PCB nicht so mega gut, würde die sicher nicht so lange bei 1418 MHz halten. Mir ist PCB und Regelkreis wichtig, da ich eh auf Wakü umbaue. Damals waren Powercolor und Sapphire halt Billigheimer. Wieviel Layer haben die AMD Karten überhaupt und gibt es Hersteller die auf mehr Kupfer setzen?
Asus ist für mich die Referenz, wenn wir von Prestige-Produkten wie die K1ngp1n absehen. :D
Der_Korken
2020-11-10, 09:12:47
Danke für die Antwort. Ich habe meine 980 Ti seit August 2015 im Einsatz und wäre das PCB nicht so mega gut, würde die sicher nicht so lange bei 1418 MHz halten. Mir ist PCB und Regelkreis wichtig, da ich eh auf Wakü umbaue. Damals waren Powercolor und Sapphire halt Billigheimer. Wieviel Layer haben die AMD Karten überhaupt und gibt es Hersteller die auf mehr Kupfer setzen?
Asus ist für mich die Referenz, wenn wir von Prestige-Produkten wie die K1ngp1n absehen. :D
Für deine Anforderungen könnte Asus schon relativ gut sein. Die klotzen öfter mal mit völlig überdimensionierten Bauteilen, wie z.B. bei besagter 5700XT, die von den VRMs afaik auch mit 400W laufen könnte. Das Problem bei Asus ist eher, dass die oft völlig undurchdachten Müll zusammenschustern. Bei der 5700 Strix war der Kühler nicht richtig festgeschraubt, bei der TUF wurde der VRAM nicht gekühlt und brutzelte mit >105°C vor sich hin, bei der V64 Strix wurden afaik die VRMs nicht gekühlt, weil die einfach den Kühler von der 1080Ti auf die Vega draufgesetzt haben. Dazu teilweise unsinnige Lüfterkurven, mit voller Drehzahl versuchen die GPU bei 60°C zu halten ... und so weiter. Das machen Sapphire und Powercolor imho wesentlich besser. Da hat man das Gefühl, dass die ihre eigene Karten auch mal eingebaut und getestet haben. Zur Platinenqualität ist es aber schwer Infos zu finden. Eventuell untersucht buildzoid sowas irgendwann mal, aber das kann dauern, weil das Publikum für solche Spezialtests nicht gro ist.
Cyberfries
2020-11-10, 09:50:02
Bei der 5700 war die Referenz ziemlich hochwertig, gibt eine gelungene Analyse von GamersNexus.
https://www.youtube.com/watch?v=auPYG89MmM4&t=1s
Ob das bei der 6800/6900 ähnlich ist? Werden wir erst bei der Vorstellung sehen.
Zu Bullsh1t_Busters Behauptung einer schlechten Mining-Performance (https://twitter.com/Bullsh1t_buster/status/1325832461549404160).
Navi10: 448GB/s hashrate: 40-50
Vega20: 1024GB/s hashrate: 90-100
Navi21: 512GB/s hashrate:
you get the meth here
Infinity Cache is too smol to have any impact.
Wenn das die einzige Basis für seine Aussage ist, dann steht diese auf wackligen Füßen.
Gab auch Leute (mich eingeschlossen), die davon ausgingen dass der Inf. Cache zu klein fürs zocken ist.
Jetzt wirbt AMD mit effektiv 1664GB/s Bandbreite, wenn das durchschlägt ...
Complicated
2020-11-10, 10:55:59
Wenn es nichts zu cachen gibt bleiben 256-Bit Speicherinterface als Limit zum Speicher.
BlacKi
2020-11-10, 11:23:03
ich bezweifle das man die ganze blockchain im cache haben muss. aber vl täusche ich mich da, und es hat nichts mit der blockchain zu tun.
r3ptil3
2020-11-10, 11:33:59
Für deine Anforderungen könnte Asus schon relativ gut sein. Die klotzen öfter mal mit völlig überdimensionierten Bauteilen, wie z.B. bei besagter 5700XT, die von den VRMs afaik auch mit 400W laufen könnte. Das Problem bei Asus ist eher, dass die oft völlig undurchdachten Müll zusammenschustern. Bei der 5700 Strix war der Kühler nicht richtig festgeschraubt, bei der TUF wurde der VRAM nicht gekühlt und brutzelte mit >105°C vor sich hin, bei der V64 Strix wurden afaik die VRMs nicht gekühlt, weil die einfach den Kühler von der 1080Ti auf die Vega draufgesetzt haben. Dazu teilweise unsinnige Lüfterkurven, mit voller Drehzahl versuchen die GPU bei 60°C zu halten ... und so weiter. Das machen Sapphire und Powercolor imho wesentlich besser. Da hat man das Gefühl, dass die ihre eigene Karten auch mal eingebaut und getestet haben. Zur Platinenqualität ist es aber schwer Infos zu finden. Eventuell untersucht buildzoid sowas irgendwann mal, aber das kann dauern, weil das Publikum für solche Spezialtests nicht gro ist.
Gut zusammengefasst, den Anpressdruck wollte ASUS ja generell erhöhen, wenn ich das richtig in Erinnerung habe.
Als ich die 6800 XT Strix (Luftkühlung) sah, musste ich mich aber genau das selbe wieder fragen. Wenn man sich die Meldung unten anschaut (Turbo Mode mit 95°) und die Temperaturen der RTX 3080 Strix als Basis nimmt, dann könnte man fast meinen, dass es wieder in die gleich Richtung geht.
https://www.pcgameshardware.de/Radeon-RX-6800-XT-Grafikkarte-276951/News/Asus-ROG-Strix-Turbo-Mode-95-Grad-1361370/
Ich tippe weiterhin auf Sapphire und ggf. Powercolor als Referenz. Die MSI könnte auch interessant werden.
dargo
2020-11-10, 11:38:04
Das war kein ASUS Bios sondern eins von Asrock. ;) So entstehen dann schnell bullshit Gerüchte. :tongue:
Eldoran
2020-11-10, 11:56:34
Bei der 5700 war die Referenz ziemlich hochwertig, gibt eine gelungene Analyse von GamersNexus.
https://www.youtube.com/watch?v=auPYG89MmM4&t=1s
Ob das bei der 6800/6900 ähnlich ist? Werden wir erst bei der Vorstellung sehen.
Zu Bullsh1t_Busters Behauptung einer schlechten Mining-Performance (https://twitter.com/Bullsh1t_buster/status/1325832461549404160).
Wenn das die einzige Basis für seine Aussage ist, dann steht diese auf wackligen Füßen.
Gab auch Leute (mich eingeschlossen), die davon ausgingen dass der Inf. Cache zu klein fürs zocken ist.
Jetzt wirbt AMD mit effektiv 1664GB/s Bandbreite, wenn das durchschlägt ...
Normale 3D Anwendungen haben in etwa normale Zugriffsmuster mit haufenweise wiederverwendeten Daten. Die Daten liegen auch in grösseren Blöcken vor. Da funktionieren die üblichen Caching und Prefetching Strategien.
Wenn beim Mining der Algorithmus schlecht für ASIC sein soll (ASIC mit relativ viel SRAM gibt es schon seit Jahren), muss das aktive Set relativ gross sein - deutlich größer als der Cache. Wenn das ganze vorhersehbare Zugriffsmuster hätte, wäre das eine direkt ausnutzbare Schwachstelle im Algorithmus (also ein Punkt an dem man entweder die Komplexität der Berechnung direkt senken kann oder mit einem ASIC deutlich beschleunigen). Das ganze sind im Prinzip Adresszugriffe aus einem guten Pseudozufallsgenerator.
Complicated
2020-11-10, 12:10:59
falscher Thread - bitte löschen :)
nairune
2020-11-10, 12:15:09
Als ich die 6800 XT Strix (Luftkühlung) sah, musste ich mich aber genau das selbe wieder fragen. Wenn man sich die Meldung unten anschaut (Turbo Mode mit 95°) und die Temperaturen der RTX 3080 Strix als Basis nimmt, dann könnte man fast meinen, dass es wieder in die gleich Richtung geht.
Diese Limits gelten für den Hotspot-Sensor und standen schon bei Navi 10 auf 95°C. Bzw. 92°C bei meiner Pulse.
Das ist also völlig normal und lässt auf nichts schließen.
dargo
2020-11-10, 12:59:09
Das kommt noch hinzu. Das was bei AMD als 95°C beim Hotspot heißt ist bei Nvidia irgendwas im Bereich von 70-75°C bei der GPU.
Edit:
Wobei diese 20-25°C Delta mit Vorsicht zu genießen sind. Da müssen wir die ersten Tests abwarten. Mit Navi10 ist das nicht mehr vergleichbar da Navi21 wesentlich größer ist. So als Beispiel... bei 150W liegt bei mir Delta bei ca. 9-10°C. Bei 180W sind es um die 12-14°C Delta und bei 200W dann 15-17°C.
Emil_i_Lönneberga
2020-11-10, 17:57:02
Gibts nen Grund dafür, dass die 6900xt einen anderen Wasserkühler braucht?
Doch größere Unterschiede? Und woraus bestehen diese wohl?
Scheint so zu sein. Abbildungen von der Unterseite fehlen leider, dann könnte man die Kontaktstellen des jeweiligen Kühlers zu den PCB Komponenten vergleichen. Solange es zwischen den PCBs nur geringfügige Unterschiede gibt, versuchen die Hersteller von Fullcover Blöcken normalerweise aus Kostengründen den Kühler soweit anzupassen, dass er mit möglichst vielen PCB Varianten kompatibel ist.
Beim Kühler für die 6800 wird über den Metalleinsatz im Acryldeckel das Kühlmittel zu den Wandlern rechts geleitet. Das ist eine gängie Methode und immer dann nötig, wenn man trotz hoher PCB Bauteile die Materialstärke des Kupfers und Acryl bei hohen Stückzahlen möglichst gering halten will. Ein Beispiel an dem Bykski 3080 Kühler für die Gaming X Trio:
https://ezmodding.com/media/image/product/1827/lg/msi-gaming-x-trio-3080~4.jpg
https://ezmodding.com/media/image/product/1827/lg/msi-gaming-x-trio-3080.jpg
Links gibt es beim Kühler für die 6800 auch eine quadratische Aussparung mit Dichtungsring, die anscheinend hohen PCB Bauteilen geschuldet ist. ...
Die Vermutung zum PCB & Kühler hat sich bestätigt:
https://videocardz.com/newz/bykski-reveals-water-blocks-for-amd-radeon-rx-6900-xt-and-rx-6800-xt
DrFreaK666
2020-11-10, 18:11:25
Weiss man schon wann es Reviews geben wird?
Zergra
2020-11-10, 18:14:01
Die 6800XT dürfte dann wie die 6900XT sein? Haben ja beide 2,5Slot.
Linmoum
2020-11-10, 18:20:55
Die Vermutung zum PCB & Kühler hat sich bestätigt:
https://videocardz.com/newz/bykski-reveals-water-blocks-for-amd-radeon-rx-6900-xt-and-rx-6800-xtWie kommt VCZ auf die 6800XT? Alles was ich von Bykski sehe ist 6900XT vs. 6800. Ob 6900XT und 6800XT auch unterschiedliche PCB haben, ist dadurch nicht klar. Das wäre die interessantere Frage gewesen.
Neurosphere
2020-11-10, 20:12:36
Bisschen was zu RT
https://videocardz.com/newz/amd-radeon-rx-6000-ray-tracing-performance-goal-is-1440p-resolution
Zergra
2020-11-10, 20:28:48
Wie kommt VCZ auf die 6800XT? Alles was ich von Bykski sehe ist 6900XT vs. 6800. Ob 6900XT und 6800XT auch unterschiedliche PCB haben, ist dadurch nicht klar. Das wäre die interessantere Frage gewesen.
Ich denke die 6800XT und die 6900XT sind identisch. Beide haben den gleichen Kühler. Die Stückzahlen der 6900XT dürften auch gering sein, dafür ein extra PCB Auflegen ergibt keinen Sinn.
SKYNET
2020-11-10, 20:34:21
Bei der 5700 war die Referenz ziemlich hochwertig, gibt eine gelungene Analyse von GamersNexus.
https://www.youtube.com/watch?v=auPYG89MmM4&t=1s
Ob das bei der 6800/6900 ähnlich ist? Werden wir erst bei der Vorstellung sehen.
Zu Bullsh1t_Busters Behauptung einer schlechten Mining-Performance (https://twitter.com/Bullsh1t_buster/status/1325832461549404160).
Wenn das die einzige Basis für seine Aussage ist, dann steht diese auf wackligen Füßen.
Gab auch Leute (mich eingeschlossen), die davon ausgingen dass der Inf. Cache zu klein fürs zocken ist.
Jetzt wirbt AMD mit effektiv 1664GB/s Bandbreite, wenn das durchschlägt ...
die AMD referenzkarten waren immer overbuild, schau dir mal igors analyse zur VII an... das ding ist nen monster von sachen PCB und bestückung, war auch schon bei der V56 und V64 so
horn 12
2020-11-10, 21:07:41
https://www.sapphiretech.com/en/consumer/nitro-radeon-rx-6800-xt-16g-gddr6
Abmessungen, Bilder und alles aber nur noch keine Taktraten!
Wiseman
2020-11-10, 22:53:35
Bisschen was zu RT
https://videocardz.com/newz/amd-radeon-rx-6000-ray-tracing-performance-goal-is-1440p-resolution
Danke. Nice finding.
AMD hat doch angekündigt, noch vor dem 18.11. ein paar weitere Details zu AMDs Raytracing zu veröffentlichen. Nun, hier sind schon mal zwei Statements aus einem Interview mit AMD-Mann Eric Bergman:
Eric Bergman: And our goal was at 1440p [resolution], to have a great ray-tracing experience. And that was kind of the performance level that we targeted. Now it depends on particular games and everybody’s systems and so on, but I think you’ll find that we have very good ray-tracing performance overall. And the game support will be strong as we go through 2021, because again, we get that great leverage. It’s just built in: You support ray tracing on Microsoft or Sony [consoles], you’re supporting AMD on the PC side as well.
Eric Bergman: We don’t have a lot of details that we want to talk about. So we called [our solution] FSR — FidelityFX Super Resolution. But we are committed to getting that feature implemented, and we’re working with ISVs at this point. I’ll just say AMD’s approach on these types of technologies is to make sure we have broad platform support, and not require proprietary solutions [to be supported by] the ISVs. And that’s the approach that we’re taking. So as we go through next year, you’ll get a lot more details on it.
Emil_i_Lönneberga
2020-11-10, 23:42:42
Wie kommt VCZ auf die 6800XT? Alles was ich von Bykski sehe ist 6900XT vs. 6800. Ob 6900XT und 6800XT auch unterschiedliche PCB haben, ist dadurch nicht klar. Das wäre die interessantere Frage gewesen.
Bykski direct store:
Für AMD Radeon RX6800
https://m.de.aliexpress.com/item/1005001709586294.html?spm=a2g0n.search-amp.list.1005001709586294&aff_trace_key=&aff_platform=msite&m_page_id=1674amp-CxetuvomUMs2E81Pvyar-g1605047980752&browser_id=3aada840322547969deee37718cb450c&is_c=Y
Für AMD Radeon RX6900XT RX6800XT
https://m.de.aliexpress.com/item/1005001709536789.html?spm=a2g0n.search-amp.list.1005001709536789&aff_trace_key=&aff_platform=msite&m_page_id=1674amp-CxetuvomUMs2E81Pvyar-g1605047980752&browser_id=3aada840322547969deee37718cb450c&is_c=Y
nonharderware
2020-11-11, 00:15:25
Hat jemand eine Ahnung um wie viel Uhr am 18. November die 6800 (XT) starten?
:confused:
w0mbat
2020-11-11, 00:20:37
15 Uhr
[MK2]Mythos
2020-11-11, 00:23:30
15 Uhr
Aber nur für die Doofen, die darauf warten, dass die Karten "normal" im Shop erscheinen. :freak:
nonharderware
2020-11-11, 00:26:54
Danke!
Mortalvision
2020-11-11, 00:59:48
Wir könnten ja im Grafikkartenpreise Thread ein paar Links sammeln. Geizhals war beim Ryzen 3 Launch recht schwach besetzt von der Datenmenge her!
SKYNET
2020-11-11, 01:01:29
Wir könnten ja im Grafikkartenpreise Thread ein paar Links sammeln. Geizhals war beim Ryzen 3 Launch recht schwach besetzt von der Datenmenge her!
ryzen 3?
https://geizhals.de/?cat=cpuamdam4&xf=16689_24%7E820_AM4#gh_filterbox
horn 12
2020-11-11, 02:56:48
Igor hat die 6800/ XT wohl schon erhalten, auf dem Tisch liegen
so wie im letzten Video in den letzten Sekunden gesagt wird.
https://www.youtube.com/watch?v=-4e9HQRuwu4&feature=emb_logo
Grendizer
2020-11-11, 05:36:35
Ich bin mir das nicht so sicher ... die noch gar keiner kennt ... kann das nicht auch die 3080 Ti sein ?
horn 12
2020-11-11, 07:00:20
Ja, da kannst Recht haben... obwohl ... Hmmm
Ist nicht am 16.ten Release von CDNA Arcturus, denke dann ist es diese Karte!
Sardaukar.nsn
2020-11-11, 07:01:57
Ich bin mir das nicht so sicher ... die noch gar keiner kennt ... kann das nicht auch die 3080 Ti sein ?
Er sagte aber auch das er unbedingt sein AGESA Update richtig ans laufen bringen will. Ich denke mal es geht im um das Zusammenspiel von Ryzen 5000 und Radeon 6000 inkl SAM uzw. würde mich zumindest sehr interessieren.
Die Ti kommt doch frühstens im Januar, klar wird das BN sein. Nächste Woche ist doch schon der 18.
Grendizer
2020-11-11, 08:08:37
Die Ti kommt doch frühstens im Januar, klar wird das BN sein. Nächste Woche ist doch schon der 18.
die kennt man aber doch :confused:
basix
2020-11-11, 08:10:20
6990 XTX Dual GPU :D
2x60CUs bei 1.6G, 350W und naja, wahrscheinlich meh.
basix
2020-11-11, 09:07:54
2x60CUs bei 1.6G, 350W und naja, wahrscheinlich meh.
Damit könnte man sich faktisch Null von der 6900XT absetzen. Eher 72 CUs und 1.7 GHz, das liegt bei 350W noch drin bei etwas selektierten Chips ;) Und es wäre OCers Dream2 ;D
Für irgendwas müssen die xGMI Links ja gut sein ;)
Iscaran
2020-11-11, 09:28:52
Danke. Nice finding.
Eric Bergman: And our goal was at 1440p [resolution], to have a great ray-tracing experience. And that was kind of the performance level that we targeted. Now it depends on particular games and everybody’s systems and so on, but I think you’ll find that we have very good ray-tracing performance overall. And the game support will be strong as we go through 2021, because again, we get that great leverage. It’s just built in: You support ray tracing on Microsoft or Sony [consoles], you’re supporting AMD on the PC side as well.
Klingt für mich danach als ob die 6800 in 1440 p mind. 30 FPS in Raytracing auf die Strasse bringt (in aktuellen Titeln) ? Das dürfte eigentlich mind. 2080 Ti Niveau sein ?
Eine 6900 XT wäre dann nochmal deutlich drüber (+50% ?)
Eric Bergman: We don’t have a lot of details that we want to talk about. So we called [our solution] FSR — FidelityFX Super Resolution. But we are committed to getting that feature implemented, and we’re working with ISVs at this point. I’ll just say AMD’s approach on these types of technologies is to make sure we have broad platform support, and not require proprietary solutions [to be supported by] the ISVs. And that’s the approach that we’re taking. So as we go through next year, you’ll get a lot more details on it.
OK - jetzt hat das Kind einen Namen: FSR :-) Bin gespannt wie es ist wenn AMD es bringt. Hoffe mit dem großen Dezember Treiber Jahres-Update.
Zergra
2020-11-11, 09:39:31
OK - jetzt hat das Kind einen Namen: FSR :-) Bin gespannt wie es ist wenn AMD es bringt. Hoffe mit dem großen Dezember Treiber Jahres-Update.
Ich denke dann wäre man da am 28.10 genauer drauf eingegangen. Das ganze dürfte sich noch ein paar Monate länger hinziehen.
Iscaran
2020-11-11, 11:13:39
Wie schnell ist denn der Software Fallback bei AMDs Raytracing ?
https://www.dsogaming.com/news/amd-discusses-rdna-2-rx-6000-series-gpus-ray-tracing-and-super-resolution-features/
Ganz unten schreibt DSO: "“New to the AMD RDNA 2 compute unit is the implementation of a high-performance ray tracing acceleration architecture known as the Ray Accelerator,” a description reads. “The Ray Accelerator is specialized hardware that handles the intersection of rays providing an order of magnitude increase in intersection performance compared to a software implementation.” via AMD (https://www.amd.com/en/technologies/rdna-2)."
Also wenn wir jetzt wissen dass die Software-Emulation hier z.b. 5 FPS in FHD schafft @5700XT. Und die neue Hardware-Ray Accelerator basierte (wobei 1 RA in jedem CU enthalten ist) mind. ca 10x schneller ist ("order of magnitude").
Dann wäre also bei 80 CUs und x10 mit 100FPS in FHD zu rechnen...
EDIT: Ah AMD gibt es in den Footnotes an: "Measured by AMD engineering labs 8/17/2020 on an AMD RDNA 2 based graphics card, using the Procedural Geometry sample application from Microsoft’s DXR SDK, the AMD RDNA 2 based graphics card gets up to 13.8x speedup (471 FPS) using HW based raytracing vs using the Software DXR fallback layer (34 FPS) at the same clocks. Performance may vary. RX-571"
Die Diskussion hatten wir doch schon weiter zurückliegend ?
Gibt es denn Infos über z.B. 2080 Ti oder RTX 3080 Performance im Software DXR-Fallback layer bzw. mit und ohne fallback ?
Complicated
2020-11-11, 11:19:48
Das wäre interessant zu sehen und zu vergleichen.
Iscaran
2020-11-11, 11:28:16
Ah hier hab ich was gefunden von Videocardz:
https://videocardz.com/newz/amd-ray-accelerator-appear-to-be-slower-than-nvidia-rt-core-in-this-dxr-ray-tracing-benchmark
RTX 3090 749 FPS 82 SM 328 TC = 2.28 FPS/TC oder 9.13 FPS / SM
RTX 3080 630 FPS 68 SM 272 TC = 2.32 FPS/TC oder 9.26 FPS / SM
Taktraten RTX 3090 vs 3080 sind ja fast identisch AFAIK (1710 vs 1695 Boost clock) ?
AMD 471 FPS - Allerdings wissen wir nicht WELCHE RDNA2 GPU hier gebenched wurde (in den Footnotes von AMD steht es AFAIK nicht drin)
Videocardz interpretiert die 471 FPS als von einer 6800 XT stammend mit 72 CUs.
Es gibt aber so wie ich das sehe diese 3 Möglichkeiten:
471 FPS @ 80 CU / RA = 5.888 FPS / RA
471 FPS @ 72 CU / RA = 6.542 FPS / RA
471 FPS @ 60 CU / RA = 7.850 FPS / RA
Und den Takt sollten wir auch nicht unterschlagen. Aber den wissen wir noch nicht so genau.
Ich persönlich würde ja eher vermuten dass die 471 FPS mit der 60 CU RDNA gemessen wurden... immer schön tief stapeln ist ja bei RDNA2 bei AMD die Devise gewesen nur um dann die Bombe platzen zu lassen :-).
Also WENN 471 FPS @60 CU:
Dann wären das ca 565 FPS @ 72 CU und 628 FPS @ 80 CU (+- Taktdifferenzen)
EDIT: Ich tippe daher auf 471FPS @60 CU...dann ist man in RT mit der 6900 XT auf Augenhöhe zu einer RTX 3080...das passt zur generellen RDNA2 Marschroute.
arcanum
2020-11-11, 11:31:25
OK - jetzt hat das Kind einen Namen: FSR :-) Bin gespannt wie es ist wenn AMD es bringt. Hoffe mit dem großen Dezember Treiber Jahres-Update.
hört sich im zitierten text eher so an, als ob es irgendwann nächstes jahr kommt:
And that’s the approach that we’re taking. So as we go through next year, you’ll get a lot more details on it.
Emil_i_Lönneberga
2020-11-11, 12:44:52
Die EK Kits sind auch schon verschickt worden (RX6800 Gravur auf der Innenseite der Backplate). Damit sollte es am 18.-20. auch gleich Wakü Testberichte geben.
https://m.youtube.com/watch?v=WNDVIKQaT0w
Linmoum
2020-11-11, 14:33:18
Ich will keine Testberichte, ich will einen am 18.11. vor mir liegen haben. ;D
WedgeAntilles
2020-11-11, 14:33:34
hört sich im zitierten text eher so an, als ob es irgendwann nächstes jahr kommt:
Strenggenommen nicht mal das. Er sagt nur, dass wir im Laufe des nächsten Jahres viel mehr Infos darüber bekommen.
Rein semantisch bedeutet das nicht, dass es überhaupt nächstes Jahr kommt.
Infos ungleich Release.
Natürlich darf man nicht jedes Wort auf die Goldwage legen, aber ich würde sagen nach diesem Zitat ist frühestens im 2. Quartal 2021 damit zu rechnen.
Eher noch mal deutlich später.
Zergra
2020-11-11, 14:45:45
Wer auf Testberichte wartet geht doch eh leer aus :D
Blediator16
2020-11-11, 14:50:01
Strenggenommen nicht mal das. Er sagt nur, dass wir im Laufe des nächsten Jahres viel mehr Infos darüber bekommen.
Rein semantisch bedeutet das nicht, dass es überhaupt nächstes Jahr kommt.
Infos ungleich Release.
Natürlich darf man nicht jedes Wort auf die Goldwage legen, aber ich würde sagen nach diesem Zitat ist frühestens im 2. Quartal 2021 damit zu rechnen.
Eher noch mal deutlich später.
Wenn deine Prognose BN max. 3070 eingetroffen wäre, dann würde ich deiner pessimistischen Meinung mit FXSR ja zustimmen, tat es aber nicht.
Sie werden sich maximal ein Jahr damit Zeit lassen können allerdings wird es denke ich nicht so lange dauern da AMD in den Konsolen ist und diese das sicher auch einsetzen werden in welcher Form auch immer.
WedgeAntilles
2020-11-11, 15:03:42
Wenn deine Prognose BN max. 3070 eingetroffen wäre, dann würde ich deiner pessimistischen Meinung mit FXSR ja zustimmen, tat es aber nicht.
Sie werden sich maximal ein Jahr damit Zeit lassen können allerdings wird es denke ich nicht so lange dauern da AMD in den Konsolen ist und diese das sicher auch einsetzen werden in welcher Form auch immer.
? Deine Prognose trifft doch dann mit meiner recht gut zusammen?
Du sagst: Maximal 1 Jahr.
Das wäre dann November 2021. Deiner Prognose nach eher etwas früher.
Ich sage frühestens 2. Quartal 2021, eher deutlich später - was dann 3. oder 4. Quartal z.B. wäre.
Also ziemlich genau das, was du sagst?
Ich sagte nur, dass man aus dem Absatz eben - rein vom Wording her - nicht mal definitiv sagen kann, dass es 2021 kommt.
Das ist faktisch richtig, aber ich habe ja auch gesagt, dass man da jetzt nicht jedes Wort auf die Goldwage legen sollte. Daher ja auch meine Prognose für 2021.
Die Leistung von BigNavi habe ich IIRC übrigens nicht prognostiziert.
Ich habe prognostiziert, dass RT bei BigNavi schlecht sein wird.
Diese Prognose war aber voraussichtlich falsch, da hast du recht.
Edit: Und ja, ich habe im Sommer prognostiziert, dass BN kommerziell ein Reinfall wird - da DLSS + RT marketingtechnisch zu stark sein werden und BigNavi da kein Land sieht.
Diese Prognose wird aller Voraussicht nach natürlich ein völliger Reinfall sein.
Keine Diskussion, da werde ich wohl völlig falsch gelegen habe.
Habe ich kein Problem damit zuzugeben :)
Iscaran
2020-11-11, 15:46:09
Die Konsolen haben doch RT quasi JETZT...ich denke nicht dass es wesentlich länger dauern wird.
Der Treiber dazu und alles muss schon längst in Arbeit sein...
Es würde gut zu AMDs Taktik der letzten Jahre passen, wenn sie so ein Feature im Dezember Treiber Release raushauen.
2015 kam Crimson mit Freesync
2017 kam Crimson Relive mit weiteren Features
2019 kam Adrenalin
2021 kommt.... Ruby Ray mit RT + FSR :-).
Es war immer zum Jahreswechsel /Dezember bzw. Januar.
Complicated
2020-11-11, 16:19:54
Edit: Und ja, ich habe im Sommer prognostiziert, dass BN kommerziell ein Reinfall wird - da DLSS + RT marketingtechnisch zu stark sein werden und BigNavi da kein Land sieht.
DLSS+RT wie es Nvidia macht sind schon wieder dabei den Weg von PhysX und Gsync zu gehen - von Industriestandards eingeholt und wohl auch bald überholt.
Je mehr Spiele raus kommen, desto klarer wird wie schlecht das Bild anschließend aussieht und beleuchtet ist.
WedgeAntilles
2020-11-11, 16:52:22
DLSS+RT wie es Nvidia macht sind schon wieder dabei den Weg von PhysX und Gsync zu gehen - von Industriestandards eingeholt und wohl auch bald überholt.
Je mehr Spiele raus kommen, desto klarer wird wie schlecht das Bild anschließend aussieht und beleuchtet ist.
Nicht vergessen, ich habe gesagt: Aus Marketinggründen.
Marketing ungleich Fakten.
Auf die 16bit vs 32bit Diskussion vor 20 Jahren habe ich ja schon mehrfach verwiesen.
Da gewann Nvidia durch ihr 32bit Feature, was die Konkurrenz nicht hatte.
Das die Konkurrenz bei 16bit gleich gut aussah wie Nvidia bei 32bit? (Und dabei dann auch schneller war?) Egal.
Marketingtechnisch hat das 32bit das Rennen gemacht.
Und so wie z.B. bei Cyberpunk ständig auf RT verwiesen wurde habe ich einfach das Gefühl, dass für viele: "Tolles Bild = RT" und damit: Ohne RT = schlechtes Bild - gesehen wird.
Unabhängig ob das stimmt oder nicht.
Da BigNavi aber bei RT voraussichtlich kein Debakel abliefern wird (und Ampere bei RT schwächer ist als vermutet) dürfte der Unterschied zwischen Ampere und BN da nicht so gigantisch sein.
Besser wird die 3080 wohl etwas sein, aber halt im überschaubaren Bereich.
Im Sommer dachte ich, dass da sehr große Unterschiede in der Performance sein werden.
Complicated
2020-11-11, 17:39:35
Nicht vergessen, ich habe gesagt: Aus Marketinggründen.
Marketing ungleich Fakten.
Ich sagte ja, das selbe wie PhysX und Gsync.
patrickschur
2020-11-11, 17:42:57
Ich will keine Testberichte, ich will einen am 18.11. vor mir liegen haben. ;D
Dann musst du ihn dir ausdrucken :freak:
dargo
2020-11-11, 17:49:41
Kann man die Papier-Edition schon kaufen? :D
patrickschur
2020-11-11, 17:55:17
Ich meinte die Testberichte. Er hat davon gesprochen, dass er einen haben will. :D
Berniyh
2020-11-11, 19:25:28
Kann man die Papier-Edition schon kaufen? :D
das ist dann ja der sogenannte Paper Launch. ;)
bloodflash
2020-11-11, 19:33:53
Cyberpunk
Cyberpunk, Cyberpunk, Cyberpunk
Ich kann es nicht mehr hören! Das Spiel erscheint für die alten Konsolen und ist von den empfohlenen Specs noch mit CPUs und GPUs aus 2017 gut spielbar.
Und selbst wenn man auf einer RX570 auf 1080p irgendeinen Regler leicht von Insane auf High stellen muss, ist es immer noch ein grafisch beeindruckendes Spiel, dass aber durch Spielspass überzeugen muss und nicht durch RTX in 4K mit minimum 30FPS.
Dann kommen nämlich die Drei bis Sieben 120Hz-VRR-Spieler, die sich verarscht fühlen, weil das 3000,-EUR Gaming-Rig mit 75"-HDMI2.1-Monster-TV Artefakte in Level 2 zeigt - wenn man ganz genau hinschaut. Und dann ruckelt es auch noch, weil 60Hz eigentlich das Minimum sein sollte...
https://www.techpowerup.com/274522/xfx-teases-amd-rx-6800-xt-rx-6800-graphics-cards
https://twitter.com/_rogame/status/1326545900605300751
Sunrise
2020-11-11, 21:19:34
...Auf die 16bit vs 32bit Diskussion vor 20 Jahren habe ich ja schon mehrfach verwiesen.
Da gewann Nvidia durch ihr 32bit Feature, was die Konkurrenz nicht hatte.
Das die Konkurrenz bei 16bit gleich gut aussah wie Nvidia bei 32bit? (Und dabei dann auch schneller war?) Egal.
Marketingtechnisch hat das 32bit das Rennen gemacht.
Das ist ein eher schlechter Vergleich, denn 32bit war keine NV-exklusive “Technologie”, die Industrie bewegte sich eben in diese Richtung...zweitens war NV bei 32bit-Rendering eben auch in hoher Auflösung verdammt schnell (ich hatte eine Geforce 256 DDR)... das waren einfach Fakten, die damals viele Gamer von den geliebten 3dfx-Beschleunigern wechseln ließen, mich eingeschlossen.
RT ist generell eine Richtung, aber wenn RT schlecht umgesetzt ist und optisch einfach nur überall draufgeklatscht wird, kann einem RTX reichlich egal sein. Dennoch ist RT natürlich wichtig, aber Standards sind es ebenso.
dr.denton
2020-11-11, 23:25:19
Das ist ein eher schlechter Vergleich, denn 32bit war keine NV-exklusive “Technologie”, die Industrie bewegte sich eben in diese Richtung...zweitens war NV bei 32bit-Rendering eben auch in hoher Auflösung verdammt schnell (ich hatte eine Geforce 256 DDR)... das waren einfach Fakten, die damals viele Gamer von den geliebten 3dfx-Beschleunigern wechseln ließen, mich eingeschlossen.
[...]
Ich dachte, der Raumpilot hätte sich da eher auf Voodoo 3 und TNT2 bezogen. Damals konnte 3Dfx intern 24bit Farbtiefe und in 16bit ausgeben, Nvidia konnte zwar 32bit, hatte aber viel zu wenig Bandbreite dafür.
Dass die GF DDR ein Meilenstein war, darüber müssen wir nicht streiten ;)
Dural
2020-11-11, 23:27:53
RT ist die zukunft, in einem jahr wird doch praktisch jedes spiel RT haben. Eine gute RT leistung ist aktuell so ziemlich das wichtigste, ob man in 1080p 10% mehr oder weniger fps ohne RT hat ist doch völlig belanglos, wichtig ist was man in 4k und oder mit RT hat.
Der cache könnte auch RT in nidrigen auflösung recht pushen, aber wer kauft sich so teure karten um in 1080p oder so zu zocken. Umso mehr ich mir gedanken um den cache mache, umso mehr denke ich das da noch das eint oder andere problem auftauchen wird.
Daredevil
2020-11-11, 23:41:03
Klickbaaaait!
https://abload.de/img/unbenannt9mkph.png
9JsXgu2xbUQ
horn 12
2020-11-12, 03:26:18
CPU und GPU Temperatur/ sowie Auslastung
und AMD Logo auf Backplate?
Sieht Klasse aus!
Alles schön und gut, nur wohin entweicht die warme Luft?
dargo
2020-11-12, 06:36:22
An die Umgebung.
;)
horn 12
2020-11-12, 06:39:27
Ja, Slotblende komplett geschlossen mit Radeon Logo
und die ganze Abwärme wirklich wie erahnt im Gehäuse diesesmal bei Navi 21 im Referenz Design.
OgrEGT
2020-11-12, 06:47:36
CPU und GPU Temperatur/ sowie Auslastung
und AMD Logo auf Backplate?
Sieht Klasse aus!
Ja das machen die aber mit einem zusätzlichen Mini Beamer mit dem das auf die Backplate projiziert wird. Das ist nicht ootb...
horn 12
2020-11-12, 06:54:57
Ok, ist ja ein AMD Case
Dies hatte ich nicht gesehen beim schnellen Hingucken.
Dachte dies kann mna an / ausstellen und der Projektor oben am Deckel (das Graue Kästchen.)
Sorry Jungs!
OgrEGT
2020-11-12, 07:13:28
Ist ein RIF6 Projektor...
basix
2020-11-12, 08:29:11
Die Idee mit dem Projektor finde ich aber klasse. Habe ich so noch nie gesehen.
WedgeAntilles
2020-11-12, 09:57:28
Das ist ein eher schlechter Vergleich, denn 32bit war keine NV-exklusive “Technologie”, die Industrie bewegte sich eben in diese Richtung...zweitens war NV bei 32bit-Rendering eben auch in hoher Auflösung verdammt schnell (ich hatte eine Geforce 256 DDR)... das waren einfach Fakten, die damals viele Gamer von den geliebten 3dfx-Beschleunigern wechseln ließen, mich eingeschlossen.
.
Uh, Geforce, das ist schon etwas später^^
Ne, es ging mir um die TNT bzw. TNT2 vs Voodoo.
Ich erinnere mich da noch recht gut dran, weil ich mir damals die TNT hatte und ein Freund die Voodoo.
Da sah man z.B. bei Unreal Tournament sehr schön den Unterschied.
16bit sah bei der Nvidia Karte einfach schlechter aus.
32bit sah dann ähnlich gut aus, war aber langsamer.
Aber gelesen hat man überall vom viel besseren Bild dank 32bit.
Ja, das Bild mit 32bit war besser. Verglichen mit dem 16bit der Nvidia Karte.
Es war aber nicht besser verglichen mit dem 16bit der Voodoo.
Später dann, ab Geforce, waren die Nvidia Karten glaube ich technisch insgesamt überlegen.
Aber bei den TNT Karten eben noch nicht.
Dennoch verkauften sich die TNT Karten deutlich besser. Und die marktbeherrschende Stellung nahm ihren anfang. Das war natürlich vor der großen Internet / Forenzeit, daher kann ich es nicht 100% sicher sagen - aber wenn mein Freundeskreis auch nur ein bisschen ein Indikator war, dann war es schlicht das gute Marketing von Nvidia, das die marktbeherrschende Stellung von Nvidia einleitete.
Aber genug Ausflüge in die Vergangenheit und ins OffTopic, sorry :)
[MK2]Mythos
2020-11-12, 10:44:16
Uh, Geforce, das ist schon etwas später^^
Ne, es ging mir um die TNT bzw. TNT2 vs Voodoo.
Ich erinnere mich da noch recht gut dran, weil ich mir damals die TNT hatte und ein Freund die Voodoo.
Da sah man z.B. bei Unreal Tournament sehr schön den Unterschied.
16bit sah bei der Nvidia Karte einfach schlechter aus.
32bit sah dann ähnlich gut aus, war aber langsamer.
Aber gelesen hat man überall vom viel besseren Bild dank 32bit.
Ja, das Bild mit 32bit war besser. Verglichen mit dem 16bit der Nvidia Karte.
Es war aber nicht besser verglichen mit dem 16bit der Voodoo.
Später dann, ab Geforce, waren die Nvidia Karten glaube ich technisch insgesamt überlegen.
Aber bei den TNT Karten eben noch nicht.
Dennoch verkauften sich die TNT Karten deutlich besser. Und die marktbeherrschende Stellung nahm ihren anfang. Das war natürlich vor der großen Internet / Forenzeit, daher kann ich es nicht 100% sicher sagen - aber wenn mein Freundeskreis auch nur ein bisschen ein Indikator war, dann war es schlicht das gute Marketing von Nvidia, das die marktbeherrschende Stellung von Nvidia einleitete.
Aber genug Ausflüge in die Vergangenheit und ins OffTopic, sorry :)
Die TNT kam nach der Voodoo2 und war eigentlich der erste richtig gute 2D/3D Beschleuniger. Der 3dfx Konter mit der Voodoo Banshee krankte an massiven Treiberproblemen. Großer Vorteil ab da war halt, dass es keine "Bastelllösung" mit zwei Karten mehr war.
ChaosTM
2020-11-12, 10:46:48
Die Riva 128 war die erste brauchbare Karte abseits von 3DFX. Noch vor der TNT. ;)
[MK2]Mythos
2020-11-12, 10:48:17
Die Riva 128 war die erste brauchbare Karte abseits von 3DFX. Noch vor der TNT. ;)
Ansichtssache. :P
ChaosTM
2020-11-12, 10:52:28
Ich hab die geliebt. Quake 2 ging mit gigantischen 960x720. Bei der V2 war bei 800x600 Schluss bis ich mir eine 2. V2 kaufte :)
Die TNT war dann natürlich besser. 1024x786. Das selbe wie V2 SLI..
robbitop
2020-11-12, 11:00:41
Die TNT war eigentlich nur ein aufgebohrter Riva 128. Aber die Performance war halt ein gutes Stück besser. Wirklich deutlich besser als 3DFX wurde NV aber erst mit der NV10 - der Geforce 256.
ChaosTM
2020-11-12, 11:03:06
V2 SLI hat mir bis zur Gforce2 treue Dienste geleistet. Die 128/TNT war nur selten bei Spielen im Einsatz.
gbm31
2020-11-12, 11:48:50
Ich hab damals mein Voodoo2 Gespann erst mit einer GF2 MX ersetzt. Und dann mit einer GF2 Pro 64MB(!)
Mich hat irgendwann echt das Grün-lila bei Partikeln/Rauch uund so in 16bit gestört.
basix
2020-11-12, 12:25:50
Ich glaube der Thread derailed gerade etwas :D BTT Please
gbm31
2020-11-12, 13:18:30
Okay: Wann kann ich wo eine Sapphire 6800XT Nitro+ kaufen?
:D
[MK2]Mythos
2020-11-12, 13:23:13
Okay: Wann kann ich wo eine Sapphire 6800XT Nitro+ kaufen?
:D
Willst du nicht auf WaKü umbauen?
Redneck
2020-11-12, 13:26:57
Mich würde ehrlich gesagt zuerst einmal interessieren, welche Preise sie im EUR Raum aufrufen wollen. Ob sie 1:1 machen oder doch MwSt und Umrechnungskurs mit in Ihre Kalk einfliessen lassen.
arcanum
2020-11-12, 13:45:22
Mich würde ehrlich gesagt zuerst einmal interessieren, welche Preise sie im EUR Raum aufrufen wollen. Ob sie 1:1 machen oder doch MwSt und Umrechnungskurs mit in Ihre Kalk einfliessen lassen.
zwischen umrechnungskurs und steuer liegen aktuell 2%, dürfte sich also nicht merklich von einer 1:1 umrechnung unterscheiden. ausgehend von zen3 erwarte ich eher 10-20€ aufschlag gegenüber der $-uvp, sofern man schnell genug bestellen kann.
[MK2]Mythos
2020-11-12, 13:52:15
Mich würde ehrlich gesagt zuerst einmal interessieren, welche Preise sie im EUR Raum aufrufen wollen. Ob sie 1:1 machen oder doch MwSt und Umrechnungskurs mit in Ihre Kalk einfliessen lassen.
Ich glaube damit gehörst du einer Minderheit an. Ein paar Euro mehr oder weniger sind doch wirklich scheißegal. Problematisch wirds erst, wenn die Händler die Preise erhöhen weil die Nachfrage das Angebot überrollt.
Redneck
2020-11-12, 13:56:00
Mythos;12496129']Ich glaube damit gehörst du einer Minderheit an. Ein paar Euro mehr oder weniger sind doch wirklich scheißegal. Problematisch wirds erst, wenn die Händler die Preise erhöhen weil die Nachfrage das Angebot überrollt.
kann sein.. bei mir trübt sich die Freude an einem Produkt ein, wenn ich immer dran denken muß, das ich übers Ohr gehauen wurde. Verdirbt mir den Spaß.
Meint Ihr es macht Sinn, direkt über die AMD Seite zu kaufen ?
nordic_pegasus
2020-11-12, 14:03:35
Meint Ihr es macht Sinn, direkt über die AMD Seite zu kaufen ?
wenn das AMD ähnlich "gut" hinbekommt wie bei Ryzen 5000, dann wirst Du wohl wochenlang nur "out of stock" im AMD-Shop lesen. Da würde ich mich lieber in eine Warteschlage bei einem Händler einreihen statt über unabsehbare Zeit die Homepage von AMD zu aktualisieren.
gbm31
2020-11-12, 14:15:01
Mythos;12496087']Willst du nicht auf WaKü umbauen?
Hab meine WaKü wieder abgebaut, mir ging der WeihmacherSchmotz auf den Wecker.
Außerdem hat beim Wechsel der Verbau des Morpheus gut geklappt und meine T-Junction ist trotz 250W Peak für die GPU bei max. 90° und die Karte damit gut aushaltbar mit den Noctuas selbst bei Vollast wie TD2.
Der Scythe Fuma 2 langweilt sich eh bei max. 800rpm...
Kann wer aus seiner Erfahrung kurz schildern, wie AMD in der Vergangenheit (also bei rdna1) bei den Referenzdesigns aufgestellt war?
Oder auch: Wer von euch will warum versuchen eine Referenzkarte zu kaufen anstatt auf eine Customkarte zu warten?
Bin selbst etwas unsicher, habe aber auch keine Erfahrung mit AMD-Karten und erst recht nicht mit GPU-Launches.
Grendizer
2020-11-12, 14:59:29
Kann wer aus seiner Erfahrung kurz schildern, wie AMD in der Vergangenheit (also bei rdna1) bei den Referenzdesigns aufgestellt war?
Oder auch: Wer von euch will warum versuchen eine Referenzkarte zu kaufen anstatt auf eine Customkarte zu warten?
Bin selbst etwas unsicher, habe aber auch keine Erfahrung mit AMD-Karten und erst recht nicht mit GPU-Launches.
Ist doch egal .. kaufen, 14 Tage in Ruhe testen und dann
a) behalten, weil sie macht, was sie soll
b) Widerruf = sicher
c) bei Ebay reinsetzten und evtl auf etwas Gewinn hoffen
Nur zaudern darf man nicht, weil man dann keine Chance hat was zu bekommen
Daredevil
2020-11-12, 15:02:33
Die Ref wird sicherlich keine Silent Karte, da sie leicht ist und wir bislang noch keine Heatpipes gesehen haben. Das ist einfach nur ein "billiger" , dafür großer Alu Block.
Wenn man sich bei ~250w so auf 2000rpm trifft, wäre das schon gut unter Last, ich fürchte es wird ein wenig mehr.
Screemer
2020-11-12, 15:05:22
Die Ref wird sicherlich keine Silent Karte, da sie leicht ist und wir bislang noch keine Heatpipes gesehen haben. Das ist einfach nur ein "billiger" , dafür großer Alu Block.
Wenn man sich bei ~250w so auf 2000rpm trifft, wäre das schon gut unter Last, ich fürchte es wird ein wenig mehr.
Na klar. Wir sicher ungefähr so billig wie bei der VII. Alles nur billigstes Alu.
https://www-hardwareluxx-de.cdn.ampproject.org/i/s/www.hardwareluxx.de/images/cdn01/E94C37B4286E48BEAA41F7C31CBFE106/img/9F2FB01AC4DF4C0B8AA97B20CFC0CC2C/AMD-RadeonVII-21_9F2FB01AC4DF4C0B8AA97B20CFC0CC2C.jpg
https://www.hardwareluxx.de/images/cdn01/E94C37B4286E48BEAA41F7C31CBFE106/img/D7F3F56A2C1647D59639DC42F8D19BAC/AMD-RadeonVII-22_D7F3F56A2C1647D59639DC42F8D19BAC.jpg
erlgrey
2020-11-12, 15:06:26
so ein unsinn, wir haben ja bereits das bios gesehen, acoustic target war 1700 rpm und in slides 37db soweit ich mich erinnern kann, das ist wirklich nicht wild.
wenn du keine heatpipes siehst, wird eine vacuum chamber der grund sein und nicht ein "billiger" großer alublock.
bin mir ziemlich sicher, dass man mit leichten tweaks die ref karte auf ein gutes geräusch und performanceniveau bringt.
Ich werd ziemlich sicher eine Ref nehmen weil:
- Kühler vermutlich mit paar tweaks gut genug
- deutlich günstiger (ich geh davon aus, dass sich bei der preisdifferenz uvp ref zu aftermarket partnerkarten _locker_ ein anderer kühler ausginge
- ggf. beim nächsten upgrade sowieso custom wak rein kommt.
[MK2]Mythos
2020-11-12, 15:10:03
Kauft ruhig alle die besseren Customs. Ich brauche die Referenz. ;)
Screemer
2020-11-12, 15:12:40
Mythos;12496224']Kauft ruhig alle die besseren Customs. Ich brauche die Referenz. ;)
Word!
Ich hab die neuen ryzens ja jetzt erst Mal ausgelassen und werd auch bei der 6800xt zuschlagen. Da der bykski schon bestellt ist kommt auch erst Mal gar nix anderes in Frage.
Meine 980ti mit block bezahlt quasi den neuen Block und 50€ der Karte.
Sollte sich doch noch ein bios für mein x370 einfinden, dann kommt nächstes Jahr noch ein 5800(x) dazu. Wenn nicht gibt's halt mit zen4 dann den Plattformwechsel.
Olliver
2020-11-12, 15:15:15
Kann wer aus seiner Erfahrung kurz schildern, wie AMD in der Vergangenheit (also bei rdna1) bei den Referenzdesigns aufgestellt war?
Oder auch: Wer von euch will warum versuchen eine Referenzkarte zu kaufen anstatt auf eine Customkarte zu warten?
Bin selbst etwas unsicher, habe aber auch keine Erfahrung mit AMD-Karten und erst recht nicht mit GPU-Launches.
Ich würde mir gerne eine 6900XT kaufen, Referenz, weil es erst mal nur diese geben wird und weil ich Designhorror und Plastik vermeiden möchte.
Vom Material, Design und Verarbeitung war der Vega VII Kühler sehr gut, kein Plastik.
Lautstärke ist LAUT, ich hoffe daher das der kommende Referenzkühler deutlich leistungsfähiger sein wird.
Hakim
2020-11-12, 15:31:49
RX6950??
https://cdn.videocardz.com/1/2020/11/Sapphire-Radeon-RX-6000-Series.png
Natürlich kommt es nicht, bevor einige jetzt ausflippen:)
Linmoum
2020-11-12, 15:34:05
Sapphire hat schon letztes Jahr 5950, 5900 etc. registrieren lassen. Das sind dann trotzdem keine Produkte, sondern einfach nur gesicherte Bezeichnungen vorsichtshalber.
Hakim
2020-11-12, 15:35:55
Jo, genau so wird es sein denke ich
Hübie
2020-11-12, 15:54:35
Word!
Ich hab die neuen ryzens ja jetzt erst Mal ausgelassen und werd auch bei der 6800xt zuschlagen. Da der bykski schon bestellt ist kommt auch erst Mal gar nix anderes in Frage.
Meine 980ti mit block bezahlt quasi den neuen Block und 50€ der Karte.
Sollte sich doch noch ein bios für mein x370 einfinden, dann kommt nächstes Jahr noch ein 5800(x) dazu. Wenn nicht gibt's halt mit zen4 dann den Plattformwechsel.
Könnte geschrieben haben :D Allerdings habe ich schon alles außer CPU und Graka hier liegen. Wakü mit Mora3 baue ich Anfang 2021 ein. Erst mal so wie jetzt lassen: Fractal Design Kelvin 360 für die CPU und custom 280er Radi für die GPU. Meine 980 Ti hat ja auch um die 300 Watt und wird selbst im Sommer nicht heißer als 70°C.:cool:
Nächstes Jahr dann Mora3 mit 9 eLoops (liegt alles hier) und dann höchstwahrscheinlich EKWB Blöcke für CPU & GPU.
Gibt's Langzeitberichte von Byksi (oder wie die heißen)? Hab mal aufgeschnappt dass der Kleber nicht so toll ist...
Bambuslooter
2020-11-12, 16:07:17
Der cache könnte auch RT in nidrigen auflösung recht pushen, aber wer kauft sich so teure karten um in 1080p oder so zu zocken. Umso mehr ich mir gedanken um den cache mache, umso mehr denke ich das da noch das eint oder andere problem auftauchen wird.
Das mit dem Cache muss sich erst in den vielen Tests beweisen.
Deine Aussage mit FHD find ich süß.
Schau doch mal wo jetzt die GTX 1080 so lungert in den neuesten Titeln ohne RT.
Da wurde von euch Gurus schon verbreitet, dass sei keine FHD Karte mehr.
Jetzt wo die CPU Leistung wieder größere Sprünge hinlegen wird...
Ich werde mir wohl die 6800XT neben einem Ryzen 5X00X zulegen und das für FHD 144Hz. Das ist in der 3DCenter Blase lustigerweise immernoch unvorstellbar.
Aber solange in 4k keine ordentlichen Frames möglich sind, kann ich gerne drauf verzichten.
Redneck
2020-11-12, 16:19:01
Kann wer aus seiner Erfahrung kurz schildern, wie AMD in der Vergangenheit (also bei rdna1) bei den Referenzdesigns aufgestellt war?
Oder auch: Wer von euch will warum versuchen eine Referenzkarte zu kaufen anstatt auf eine Customkarte zu warten?
Bin selbst etwas unsicher, habe aber auch keine Erfahrung mit AMD-Karten und erst recht nicht mit GPU-Launches.
Referenz : zwar keine Erfahrung damit aber ich habe hier noch eine Kraken X62 samt G12 herumliegen und bilde mir ein, das der G12 Adapter eher auf Referenz passen wird ohne rum-gemodde. Wird dann wahrscheinlich auch günstiger als die customs sein.
Iscaran
2020-11-12, 16:41:29
Wir hatten doch hier mal noch vor Release über die ROP-Zahl von RDNA2 spekuliert anhand der Treibereinträge von Reddit.
Damals kam IIRC/AFAIK heraus, daß die ROPs verdoppelt wurden von RDNA1 => RDNA2...
Schaut euch mal DAS an: https://translate.googleusercontent.com/translate_c?client=tw-ob&depth=1&hl=de&ie=UTF8&pto=aue&rurl=translate.google.com&sl=ja&sp=nmt4&tl=de&u=https://www.coelacanth-dream.com/posts/2020/11/10/what-is-rbplus/&usg=ALkJrhixyo7i4rzo-o4DK0mlBHAoZ7UiFQ
Evtl. ist die Zahl der ROPs bzw. der Renderbackends (RBs) in RDNA2 gar nicht doppelt...sondern einfach nur der Durchsatz verdoppelt. Dank RB+ Treiberfeature.
horn 12
2020-11-12, 16:46:03
Nitro+ 6800/ 6800XT dreht der Mittlere Lüfter in die Andere Richtung
Bei der Sapphire Pulse 6800/XT aber der letzte hintere Lüfter entgegen dem Luftstrom.
Zudem alle 3 Lüfter ragen ca. 4 - 5 cm über die Platinen hervor.
Ähnlich der Vega 64 Nitro+
Wie sind denn die Referenzdesignes in Sachen PCB einzuordnen? Ist da ein gutes VRM drauf?
Bzw... kocht da trotzdem jeder IHV sein Süppchen oder sind die tatsächlich auch in Sachen Bauteilen identisch?
Ich würde auch ne Wasserkühler drauf schrauebn, daher ist der Kühler egal.
Adam D.
2020-11-12, 17:49:38
Wie sind denn die Referenzdesignes in Sachen PCB einzuordnen? Ist da ein gutes VRM drauf?
Bzw... kocht da trotzdem jeder IHV sein Süppchen oder sind die tatsächlich auch in Sachen Bauteilen identisch?
Ich würde auch ne Wasserkühler drauf schrauebn, daher ist der Kühler egal.
Da wir mit 6800er-Serie ein neues Ref-Design kriegen, sind die Fragen aktuell einfach nicht zu beantworten. Wird man in einer Woche sehen. Ich hoffe einfach mal, dass sich AMD damit nicht die Blöße gibt.
Linmoum
2020-11-12, 18:08:06
AMDs Referenz-PCB ist quasi immer Overkill. Wenn du mit Wasser kühlen willst, kannst du bedenkenlos zugreifen.
Hübie
2020-11-12, 18:19:20
War mir gar nicht bekannt, dass die so gut sind. AMD hat lange keine konkurrenzfähige GPU mehr designed. Erst mit der 5700XT hatte man mal wieder ein heißes Eisen im Feuer. :D Die 6800XT hat mich jetzt schon gehyped.
Jensen kann sich mit seinen 10 GB für 800 Euro gehackt legen. ;D
[MK2]Mythos
2020-11-12, 18:20:15
Ein bisschen neues Marketing:
notjVDiZgn8
Complicated
2020-11-12, 18:48:32
Ich musste das jetzt googeln - er hat wirklich "Schmetterling 2.0 Engine" gesagt :biggrin:;D
Langlay
2020-11-12, 19:00:00
Wie sind denn die Referenzdesignes in Sachen PCB einzuordnen? Ist da ein gutes VRM drauf?
Bzw... kocht da trotzdem jeder IHV sein Süppchen oder sind die tatsächlich auch in Sachen Bauteilen identisch?
Die Referenzkarten waren immer baugleich. Nur die Aufkleber unterscheiden sind. Und von den VRM Komponenten her waren die Referenz besser als die meisten Customkarten. Also normalerweise ist VRM aber AMD Referenzkarten immer overengineered.
Lustiger Funfact auf der Radeon VII war die VRM um 2 Phasen abgespeckt im gleich zur MI60 und immernoch overkill.
Wenn wenn man eh auf Wasserkühlung umbaut, konnte man bis jetzt immer ruhigen Gewissens die Referenzkarte kaufen.
patrickschur
2020-11-12, 19:15:29
OneRaichu bestätigt, dass sich die 6800 XT auf 2.5+ GHz übertakten lässt.
6800XT is very well.
It can OC to 2.5+Ghz and perf close to 3090...
Quelle: https://twitter.com/OneRaichu/status/1326931152821604352
[MK2]Mythos
2020-11-12, 19:30:11
OneRaichu bestätigt, dass sich die 6800 XT auf 2.5+ GHz übertakten lässt.
Quelle: https://twitter.com/OneRaichu/status/1326931152821604352
Die Frage ist ja, ob die 6900XT diese Taktraten auch packt. Dann legt die ja nochmal ~10% drauf
Linmoum
2020-11-12, 19:32:50
Naja, Shader skalieren nicht linear. Lass es am Ende die Hälfte sein, Bandbreite ist ja dieselbe. Aber mit 2.5+GHz und Mem OC gibt das gegenüber Stock noch mal ein ordentliches Leistungsplus. Da lohnt sich Wakü endlich.
Screemer
2020-11-12, 19:36:48
OneRaichu bestätigt, dass sich die 6800 XT auf 2.5+ GHz übertakten lässt.
Quelle: https://twitter.com/OneRaichu/status/1326931152821604352
hoffentlich bekomm ich am 18ten eine ab. wenn nicht muss ich weinen. hoffentlich gibt's nicht wieder irgendwo links über die eine stunde vor verkaufstart alles abgefarmed wird. vielleicht sollten wir hier solche links auch sammeln sobald sie auftauchen.
Mortalvision
2020-11-12, 19:38:12
RX6950??
https://cdn.videocardz.com/1/2020/11/Sapphire-Radeon-RX-6000-Series.png
Natürlich kommt es nicht, bevor einige jetzt ausflippen:)
Die 6950 gibt es nicht bald, sondern schon lange zu kaufen :freak:
https://www.mindfactory.de/product_info.php/2GB-Sapphire-Radeon-HD-6950-Aktiv-PCIe-2-1-x16--Retail-_743233.html
Merkt man daran, dass da Radeon statt RTX/ oder 6xx0 X/XT/XTX steht :cop:
[MK2]Mythos
2020-11-12, 19:39:38
hoffentlich bekomm ich am 18ten eine ab. wenn nicht muss ich weinen. hoffentlich gibt's nicht wieder irgendwo links über die eine stunde vor verkaufstart alles abgefarmed wird. vielleicht sollten wir hier solche links auch sammeln sobald sie auftauchen.
Sag ich ja. Vielleicht dann auch rechtzeitig in einem neuen Faden damit es übersichtlich bleibt.
Screemer
2020-11-12, 19:51:35
Mythos;12496600']Sag ich ja. Vielleicht dann auch rechtzeitig in einem neuen Faden damit es übersichtlich bleibt.
wäre ich absolut dafür. im luxx gab's wohl zum start von ryzen 5000 links zu diversen shops. haben aber hier wohl die wenigsten mitbekommen, wenn sie nicht 24/7 unzählige foren durchlurken.
[MK2]Mythos
2020-11-12, 20:22:27
Ich war mal so frei und habe schonmal einen Thread eröffnet. :D
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=603218
Mortalvision
2020-11-12, 20:24:02
Danke für den Service, es wäre auch der Grafikkartenpreise Thread möglich gewesen ;)
Hübie
2020-11-12, 20:35:23
hoffentlich bekomm ich am 18ten eine ab. wenn nicht muss ich weinen. hoffentlich gibt's nicht wieder irgendwo links über die eine stunde vor verkaufstart alles abgefarmed wird. vielleicht sollten wir hier solche links auch sammeln sobald sie auftauchen.
Wo wurden die denn verbreitet? Fand es bei Ryzen echt dramatisch :D :D
searched4u
2020-11-12, 20:44:21
Kurze Frage, es bleibt aber dabei das die Custom Versionen der 6800XT NICHT am 18.11. kaufbar sein werden, oder sehe ich das falsch?
Screemer
2020-11-12, 20:51:36
Wo wurden die denn verbreitet? Fand es bei Ryzen echt dramatisch :D :D
kein plan. wurde im review thread mal angesprochen. wirklich danach gesucht hatte ich dann nicht da ich erst mal bei x370 und zen+ bleibe.
Neurosphere
2020-11-12, 22:11:53
OneRaichu bestätigt, dass sich die 6800 XT auf 2.5+ GHz übertakten lässt.
Quelle: https://twitter.com/OneRaichu/status/1326931152821604352
Wenn sie dabei aber nur knapp an eine 3090 rankommt ist das nur im ersten Moment positiv. Eine 3080 schafft das auch und die 6800 XT soll ja vor der 3080 liegen. Ich hätte mir bei dem engen Abstand schon bald etwas mehr gewünscht.
Sieht also so aus als wäre RDNA2 kein überflieger bei OC.
TwoBeers
2020-11-12, 23:27:12
Kurze Frage, es bleibt aber dabei das die Custom Versionen der 6800XT NICHT am 18.11. kaufbar sein werden, oder sehe ich das falsch?
So sieht es im Moment aus, ja.
horn 12
2020-11-13, 00:00:26
Ja, oder spätestens 25 bis 27 November bei anderen Custom Karten.
Die Premium Mitbewerber kommen in etwa zeitglich!
Megamember
2020-11-13, 00:42:04
Kaufbar lol. Gibt doch wieder denselben Quatsch wie bei Ampere und Zen 3, jede Wette.
SentinelBorg
2020-11-13, 00:49:41
Wie ich erwartet habe:
https://twitter.com/GamersNexus/status/1327006795253084161?s=20
From NVIDIA, re:SAM: “The capability for resizable BAR is part of the PCI Express spec. NVIDIA hardware supports this functionality and will enable it on Ampere GPUs through future software updates. We have it working internally and are seeing similar performance results."
SentinelBorg
2020-11-13, 02:24:53
Kaufbar lol. Gibt doch wieder denselben Quatsch wie bei Ampere und Zen 3, jede Wette.
Vielleicht sogar schlimmer, so wie die Teile mit dem riesen Cache beim Minen abgehen dürften.
Hakim
2020-11-13, 03:03:26
Wie sich doch die Zeiten ändern :), jetzt will NV ihre Version tatsächlich auf beiden Plattformen anbieten und AMD bietet es Exklusiv für zen3 + 5er Mobo Reihe an. Ich hab so eine Vermutung, kurz nachdem NV es bringen sollte, wird AMD die Exklusivität sein lassen (gut für alle).
Mangel76
2020-11-13, 07:32:06
Wie sich doch die Zeiten ändern :), jetzt will NV ihre Version tatsächlich auf beiden Plattformen anbieten und AMD bietet es Exklusiv für zen3 + 5er Mobo Reihe an. Ich hab so eine Vermutung, kurz nachdem NV es bringen sollte, wird AMD die Exklusivität sein lassen (gut für alle).
Aber exklusiv für neue Produkte, hier Ampere, da Zen3 und Navi2. Wo ist also der Unterschied?
Neue Features als Kaufanreiz für neue Produkte sind doch nichts besonderes?
The mining perf of 6800 XT is a bit higher than 5700 XT, much lower than RTX 3080.
Is that a good news?
https://twitter.com/kopite7kimi/status/1327125321422868480
:cool:
robbitop
2020-11-13, 08:46:21
Wie sich doch die Zeiten ändern :), jetzt will NV ihre Version tatsächlich auf beiden Plattformen anbieten und AMD bietet es Exklusiv für zen3 + 5er Mobo Reihe an. Ich hab so eine Vermutung, kurz nachdem NV es bringen sollte, wird AMD die Exklusivität sein lassen (gut für alle).
Man hätte doch sogar eine gute Ausrede: Es gibt noch keine Intel Desktop CPUs mit PCIe 4.0. Logisch, dass das Feature Ryzen exklusiv ist :D
https://twitter.com/kopite7kimi/status/1327125321422868480
:cool:
Dafür wurde der Chip ja auch nicht gebaut. Da wird man mit CDNA viel besser bedient werden für sowas. Für Gamer ist das natürlich ne gute Nachricht. Dennoch wird die Verfügbarkeit knapp werden, AMDs Referenzdesigns werden ja schon traditionell immer sehr knapp gehalten in der Produktion. Die Masse der Karten wird man erst mit Custom-Designs sehen, wobei natürlich zu bedenken ist, dass sich auch die ganzen potenziellen Geforce-Käufer bedienen werden, die sonst nicht zu AMD gegriffen hätten. Da NV den GA102-Markt ja offenbar bis März trocken hält, also bis auch GA103 verfügbar wird, werden viele nicht so lange warten wollen.
Man hätte doch sogar eine gute Ausrede: Es gibt noch keine Intel Desktop CPUs mit PCIe 4.0. Logisch, dass das Feature Ryzen exklusiv ist :D
Das wird auch so sein. Man wird eben Ryzen 3k, 5k oder RKL dafür brauchen mMn. AMD hat derzeit Ryzen3k noch ausgesperrt, aber das wird nur 1-2 AGESA-Versionen so sein mMn.
Adam D.
2020-11-13, 09:44:21
Dafür wurde der Chip ja auch nicht gebaut. Da wird man mit CDNA viel besser bedient werden für sowas. Für Gamer ist das natürlich ne gute Nachricht. Dennoch wird die Verfügbarkeit knapp werden, AMDs Referenzdesigns werden ja schon traditionell immer sehr knapp gehalten in der Produktion. Die Masse der Karten wird man erst mit Custom-Designs sehen, wobei natürlich zu bedenken ist, dass sich auch die ganzen potenziellen Geforce-Käufer bedienen werden, die sonst nicht zu AMD gegriffen hätten.
Das ist halt tatsächlich die Frage, zu welchem Maß das eintreten wird. Auch wenn das bestimmt nicht alles glaubwürdige Quellen sind, sieht es inzwischen ja doch danach aus, dass man wieder wie ein Idiot F5 drücken muss für 30 Minuten in der Hoffnung, überhaupt irgendwie nur eine Chance auf eine Karte zu erhaschen. Wenn dazu dann auch noch eine unversorgte bzw. frustrierte NV-Käuferschicht dazu kommt, sieht es düster aus.
Man hätte doch sogar eine gute Ausrede: Es gibt noch keine Intel Desktop CPUs mit PCIe 4.0. Logisch, dass das Feature Ryzen exklusiv ist :D
GamersNexus schreibt doch auch:
Further info: does not require PCIe Gen4
https://twitter.com/GamersNexus/status/1327011614365798400
Die Frage ist, ob die CPU für das Feature Hardware Support braucht und vielleicht deswegen Zen 2 nicht unterstützt wird.
rentex
2020-11-13, 09:53:28
https://www.igorslab.de/b550-oder-x570-neuer-ryzen-und-das-hoffen-auf-die-radeon-6800-xt-warum-viele-ihr-windows-wohl-neu-installieren-muessen/
GamersNexus schreibt doch auch:
Die Frage ist, ob die CPU für das Feature Hardware Support braucht und vielleicht deswegen Zen 2 nicht unterstützt wird.
Zen2 hat das gleiche IOD, also wohl kaum...
why_me
2020-11-13, 10:14:57
https://www.igorslab.de/b550-oder-x570-neuer-ryzen-und-das-hoffen-auf-die-radeon-6800-xt-warum-viele-ihr-windows-wohl-neu-installieren-muessen/
Komisch geschriebener Artikel, erklärt zwar schön, was das Problem ist, aber irgendwie ist die Reihenfolge falsch herum und dann hört er 1 Punkt zu früh auf.
Aber interessant ist aus den Kommentaren:
Die Konvertierung, ohne Windows Neuinstallation, lässt sich auch einfach innerhalb kurzer Zeit im laufenden Betrieb via Eingabeaufforderung (als Admin starten) durchführen, habe ich selbst vor ca. einem Jahr gemacht:
mbr2gpt /validate /allowFullOS
und wenn erfolgreich abgeschlossen:
mbr2gpt /convert /allowFullOS
Also wohl halb so schlimm das Ganze.
OneRaichu bestätigt, dass sich die 6800 XT auf 2.5+ GHz übertakten lässt.
Quelle: https://twitter.com/OneRaichu/status/1326931152821604352
:up: Ich halte es für möglich, das die 6800 XT +Max-OC die 3090 schlägt :ulol:
"The mining perf of 6800 XT is a bit higher than 5700 XT, much lower than RTX 3080.
Is that a good news?"
https://twitter.com/kopite7kimi/status/1327125321422868480
:cool:
Das sind wirklich beruhigende News :smile:
M.f.G. JVC
Daredevil
2020-11-13, 10:30:18
The mining perf of 6800 XT is a bit higher than 5700 XT, much lower than RTX 3080.
Is that a good news?
Aber auch hier, Mining besteht nicht nur aus ETH, wo Bandbreite wichtig ist.
Es gibt noch viele andere Methoden und wenn die Karten das gut können, dann sind die hier natürlich auch Karten gefragt.
ProgPoW wie z.B. bei GRIN bzw. BEAM sind haben Bock auf Rechenleistung und nicht nur Bandbreite.
Aktuelle Rewards für die 2080ti, welche ebenfalls wenig Bandbreite hat, dafür viel Rechenleistung, da ist ETH auch nicht Ontop.
https://abload.de/img/unbenannt5ojma.png
Die Frage ist erst beantwortet, wenn wir eine Reihe von Tests gemacht haben und nicht nur auf ETH schauen.
Und selbst hier muss das Programm auch erstmal optimiert werden für den Cache, das ist ebenso möglich.
Eine 1080ti hat z.B. ein Jahr nach Release des Miner ca. 40% Leistung draufgelegt, weil im Nachhinein noch viel optimiert wurde.
Complicated
2020-11-13, 12:18:21
Man hätte doch sogar eine gute Ausrede: Es gibt noch keine Intel Desktop CPUs mit PCIe 4.0. Logisch, dass das Feature Ryzen exklusiv ist :D
Das wird auch so sein. Man wird eben Ryzen 3k, 5k oder RKL dafür brauchen mMn. AMD hat derzeit Ryzen3k noch ausgesperrt, aber das wird nur 1-2 AGESA-Versionen so sein mMn.
Wenn Nvidia wirklich PCI 3.0 mit supported, wird AMD diesen Weg nicht gehen können.
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/54629-nvidia-will-smart-access-memory-ebenfalls-umsetzen.html
Der Resizeable BAR Support ist allerdings nicht auf eine bestimmte Plattform oder PCI-Express 4.0 beschränkt. Bereits in den Spezifikationen zu PCI-Express 3.0 ist der Resizeable BAR Support enthalten. Allerdings muss die Plattform validiert sein und dies ist auch der Grund, warum AMD Smart Access Memory auf die Ryzen-5000-Prozessoren und Radeon-RX-6000-Serie beschränkt.
Das validieren wird für AMD einfacher sein (Ich denke sie werden Nvidia in jedem Fall validieren für Ihre Systeme wo auch eigene GPUs laufen) und bei Intel muß man sehen ob sie da aufspringen - dann gehen aber auch beide (AMD+NV) wenn es von Intel validiert wird. Ich kann mir vorstellen Intel arbeitet da schon dran. "Lustig" wäre es, wenn Intel wegen seiner Sicherheitslücken das ganze nicht validieren kann.
Komisch geschriebener Artikel, erklärt zwar schön, was das Problem ist, aber irgendwie ist die Reihenfolge falsch herum und dann hört er 1 Punkt zu früh auf.
Aber interessant ist aus den Kommentaren:
Also wohl halb so schlimm das Ganze.
Jo hab ich letztens auch mal angewendet wegen Übertrag eines vorhandenen OS auf ne m.2 ;). Ging supi. Es wird allerdings empfohlen vorher die Daten zu sichern für den 1% der Fälle in denen sowas schiefgeht, denn die Partitionstabellen neu schreiben ist schon sehr basic ;).
Complicated
du brauchst ne BIOS-Option dafür. Geht also eh nur bei BIOSsen, die das auch unterstützen.
:up: Ich halte es für möglich, das die 6800 XT +Max-OC die 3090 schlägt :ulol:
M.f.G. JVC
Das Ergebnis entspricht dem was übertaktet würde - ~10% OC und ~10% mehr Leistung. Da es sich wohl sehr sicher um Samsung-Vram handelt und der vermutlich noch nicht OCed war, liegt hier je nach Game auch noch Performance brach!
SentinelBorg
2020-11-13, 15:01:33
Man hätte doch sogar eine gute Ausrede: Es gibt noch keine Intel Desktop CPUs mit PCIe 4.0. Logisch, dass das Feature Ryzen exklusiv ist :D
Nah, das ganze hat 0 was mit PCIe 4.0 zu tun. Gehen tut das technisch seit Ewigkeiten, solange ein 64 Bit OS vorliegt und das EFI BIOS korrekt seinen Job tut.
Ich wette Intel kommt auch bald um die Ecke mit "das können wir doch auch".
So wie ich das sehe, hat bei AMD das Marketing einfach was gesucht, womit sie jetzt AMD + AMD als Vorteil verkaufen können und den Entwicklern ist halt diese Sache eingefallen, die schon länger ginge, aber halt wegen potentieller Problemchen doch noch nicht gemacht wurde. Jetzt wo AMD ja den ganzen Stack von CPU und BIOS über PCIe Root und GPU kontrolliert und vor allem validieren kann, geht das für sie natürlich einfacher als für andere.
Wie gesagt, Nvidia macht das bei Tesla Karten, Intel bei Xeon Phi auch schon seit geraumer Zeit im Server Bereich.
Complicated
2020-11-13, 15:04:35
Es könnte aber gut sein, dass PCIe 3.0 diese Performance-Vorteile noch nicht bietet auf Intels Consumer-Boards. Nur weil es funktioniert muß noch nichts dabei raus kommen (Overhead/Bandbreite/Sicherheitslücken (Mitigationen dafür)/IOMMU/Chipsatz/Speicherzugriff/Cachestruktur (inklusiv vs. exklusiv))
Das selbe könnte auch für AMDs pre-AM4/pre-5000-CPUs gelten.
SentinelBorg
2020-11-13, 15:08:22
Es könnte aber gut sein, dass PCIe 3.0 diese Performance-Vorteile noch nicht bietet auf Intels Consumer-Boards. Nur weil es funktioniert muß noch nichts dabei raus kommen (Overhead/Bandbreite/Sicherheitslücken (Mitigationen dafür)/IOMMU/Chipsatz/Speicherzugriff/Cachestruktur (inklusiv vs. exklusiv))
Denke ich nicht. Der Performance-Vorteil kommt ja primär dadurch, dass der GPU Treiber und die GPU MMU sich jeweils den ganzen Aufwand mit dem Ein- und Ausblenden von Speicherbereichen in den 256 MB BAR sparen können. Es wird also quasi einfach nur eine Abstraktionsebene entfernt bzw. verdünnt. Mit PCIe Bandbreiten usw. hat das eigentlich nichts zu tun.
Brillus
2020-11-13, 17:20:18
Nah, das ganze hat 0 was mit PCIe 4.0 zu tun. Gehen tut das technisch seit Ewigkeiten, solange ein 64 Bit OS vorliegt und das EFI BIOS korrekt seinen Job tut.
Ich wette Intel kommt auch bald um die Ecke mit "das können wir doch auch".
So wie ich das sehe, hat bei AMD das Marketing einfach was gesucht, womit sie jetzt AMD + AMD als Vorteil verkaufen können und den Entwicklern ist halt diese Sache eingefallen, die schon länger ginge, aber halt wegen potentieller Problemchen doch noch nicht gemacht wurde. Jetzt wo AMD ja den ganzen Stack von CPU und BIOS über PCIe Root und GPU kontrolliert und vor allem validieren kann, geht das für sie natürlich einfacher als für andere.
Wie gesagt, Nvidia macht das bei Tesla Karten, Intel bei Xeon Phi auch schon seit geraumer Zeit im Server Bereich.
Länger ging ist relativ, zumindest unter Windows erst seit Juli. (Unter Linux ~2 Jahre)
SentinelBorg
2020-11-13, 17:32:42
Länger ging ist relativ, zumindest unter Windows erst seit Juli. (Unter Linux ~2 Jahre)
Juli? Inwiefern? Resizable BAR Artikel von Microsoft ist von 2017, einfach nur Large BAR sollte seit 64 Bit Windows gehen.
Brillus
2020-11-13, 18:30:22
Juli? Inwiefern? Resizable BAR Artikel von Microsoft ist von 2017, einfach nur Large BAR sollte seit 64 Bit Windows gehen.
Also ich hatte im Kopf irgendwo gelsen zu haben das Windows den Support dafür erst seit dem Juli Update hat. Finds aber auch ncihtmehr.
SentinelBorg
2020-11-13, 18:38:02
Also ich hatte im Kopf irgendwo gelsen zu haben das Windows den Support dafür erst seit dem Juli Update hat. Finds aber auch ncihtmehr.
Ich glaub du verwechselst das mit dem GPU Hardware Scheduler im 2004 Update. Das ist aber was anderes.
BoMbY
2020-11-13, 21:19:19
Das sollte seit WDDM v2 möglich sein:
https://docs.microsoft.com/en-us/windows-hardware/drivers/display/resizable-bar-support
Linmoum
2020-11-13, 22:06:53
https://pbs.twimg.com/media/Emu2GmWW8AAAymh?format=jpg&name=900x900
https://twitter.com/i/web/status/1327355421426937856
Damn. Die Dinger scheinen wirklich extrem abzugehen. Nur 208W avg GPU power (nein, das ist nicht tbp bevor damit jemand anfängt. Trotzdem beeindruckend bei >=2.5GHz und 60CU).
Screemer
2020-11-13, 22:19:08
60°C avg.
http://www.reactiongifs.com/r/hnb.gif
M4xw0lf
2020-11-13, 22:22:28
60°C avg.
http://www.reactiongifs.com/r/hnb.gif
Referenzdesign, sagt er weiter unten. Nice
Linmoum
2020-11-13, 22:24:22
60°C avg.
http://www.reactiongifs.com/r/hnb.gif
Naja, das muss nix heißen. Pascal sollte ja damals auch...
https://i.gyazo.com/c8a0d0d382086ae619555232dd2c876c.png
Mit 100% Fan Speed kriegst du alles kalt bzw. kühler. ;D
Screemer
2020-11-13, 22:24:39
vielleicht will ja einer meinen waküblock :ugly:
mboeller
2020-11-13, 22:27:12
https://www.amd.com/de/products/graphics/amd-radeon-rx-6800
Boost-Frequenz Bis zu 2105 MHz
>400MHz mehr ...
2532MHz / 2105MHz = +20,2% :freak:
edit:
https://images.anandtech.com/doci/16202/RX6800_28.jpg
Iscaran
2020-11-13, 22:33:05
Resizable BAR wurde prinzipiell mit WDDM 2.0 im April 2017 zu Windows hinzugefügt.
ABER AFAIK gab es da noch Bugs in der Implementation weshalb das Feature erst mit WDDM 2.7 "aktiv" wurde (das war July 2020).
Ich kann den Link dazu aber gerade nicht mehr finden.
Unabhängig davon: Auch in Linux geht das wohl erst seit ca 2017 "korrekt"
Davor gab es nämlich auch Probleme:
https://patchwork.kernel.org/project/linux-pci/patch/5662C61F.50303@amd.com/
Hier ist ausserdem interessante Info zu finden:
https://forums.guru3d.com/threads/amds-smart-access-memory-nvidia-equivalent-possible.435010/
Vorraussetzung, dass das alles funktioniert ist ein 64bit fähiger Controller...und zwar IM PCIe-Bus.
Ratet mal ab welche Spezifikationsversion das "Vorgabe" ist... :-) genau PCIe v4.
Zwar haben manche PCIe v3 Boards (z.T. auch schon ältere) so einen, aber eben nicht alle.
Deswegen wird ein >4GB Address space mapping für viele ältere Boards nicht gehen.
https://forums.guru3d.com/threads/amds-smart-access-memory-nvidia-equivalent-possible.435010/#post-5850892
AFAIK the only requirement is MMIO and a PCIE4.0+ controller
almost no pcie 3 controllers support 64bit tagging or addressing to my knowledge, though Resizable bar was first promoted for Gen 2.0 mostly for server and workstation packages.
Das Feature selbst wurde schon 2008 in der PCIe v2.0 definiert. Einsatzzweck Server.
https://composter.com.ua/documents/ECN_Resizable_BAR.pdf
HarryHirsch
2020-11-13, 22:33:50
Nice
Linmoum
2020-11-13, 22:35:49
https://www.amd.com/de/products/graphics/amd-radeon-rx-6800
>400MHz mehr ...
2532MHz / 2105MHz = +20,2% :freak:
Boost ist aber auch nur Boost. Da die >2.5GHz in der Messung auch realer Takt sind, solltest du den Game Clock als Vergleich nehmen.
1815MHz -> 2532MHz = +39,5%. Dazu noch Mem OC. Läuft. Natürlich skaliert da nix 1:1, aber wenn da auch nur die Hälfte von ankommt... Wahrscheinlich dürfte das aber ein Stück mehr werden.
Screemer
2020-11-13, 22:42:35
Zwar haben manche PCIe v3 Boards (z.T. auch schon ältere) so einen, aber eben nicht alle.
Deswegen wird ein >4GB Address space mapping für viele ältere Boards nicht gehen.
da der pcie-controller für die meisten lanes bei ryzen ja im iod liegt und der zumindest zwsichen zen2 und zen3 identisch ist, sollt das auch mit zen2 kein problem sein. sonst braucht's da nach meinem vertständnis nichts dafür. lasse mich aber gerne eines besseren belehren.
mboeller
2020-11-13, 22:43:52
1815MHz -> 2532MHz = +39,5%.
umso schlimmer
SKYNET
2020-11-13, 23:17:41
freu mich auf die reviews unter dem "overclocking" abschnitt... :ulol: "die 6800 lässt sich um 40% GPU und 20% speicher übertakten, dies resultiert in einer mehrleistung von durchschnittlich 32%" --> kick ass the 3090 ;D
Benutzername
2020-11-13, 23:25:05
Resizable BAR wurde prinzipiell mit WDDM 2.0 im April 2017 zu Windows hinzugefügt.
ABER AFAIK gab es da noch Bugs in der Implementation weshalb das Feature erst mit WDDM 2.7 "aktiv" wurde (das war July 2020).
Ich kann den Link dazu aber gerade nicht mehr finden.
Unabhängig davon: Auch in Linux geht das wohl erst seit ca 2017 "korrekt"
Davor gab es nämlich auch Probleme:
https://patchwork.kernel.org/project/linux-pci/patch/5662C61F.50303@amd.com/
Hier ist ausserdem interessante Info zu finden:
https://forums.guru3d.com/threads/amds-smart-access-memory-nvidia-equivalent-possible.435010/
Vorraussetzung das das alles funktioniert ist ein 64bit fähiger Controller...und zwar IM PCIe-Bus.
Ratet mal ab welche Specificationsversion das "Vorgabe" ist...:-) genau PCIe v4.
Zwar haben manche PCIe v3 Boards (z.T. auch schon ältere) so einen, aber eben nicht alle.
Deswegen wird ein >4GB Address space mapping für viele ältere Boards nicht gehen.
https://forums.guru3d.com/threads/amds-smart-access-memory-nvidia-equivalent-possible.435010/#post-5850892
Das Feature selbst wurde schon 2008 in der PCIe v2.0 definiert. Einsatzzweck Server.
https://composter.com.ua/documents/ECN_Resizable_BAR.pdf
Spiel, Satz und Sieg für die chinesisch LGA1366 Recycling-Mobos. :D
Gut, AMD scheint ja alles außer Zen3 und B/X5?0 Mobos auszusperren. Aber wieso? Wenn es halt da ist, dann wird das mapping benutzt, wenn nicht, dann nicht. Muss Ich mal gucken welche meiner Mobos hier so einen Controller haben.
Iscaran
2020-11-13, 23:33:37
Gut, AMD scheint ja alles außer Zen3 und B/X5?0 Mobos auszusperren. Aber wieso? Wenn es halt da ist, dann wird das mapping benutzt, wenn nicht, dann nicht. Muss Ich mal gucken welche meiner Mobos hier so einen Controller haben.
Ich vermute mal AMD wird wissen warum das mit älteren ihrer Chipsätze nicht funktioniert. Vielleicht weil AMD eben in seinen PCIe v3 Chipsätzen eben genau noch KEINEN solchen Controller verbaut hat.
Zen2 @5xx Chipsatz kann ich mir ja noch vorstellen, denke die CPU selbst müsste ja 64bit mapping können.
Wie gesagt - ich bin was das betrifft auch nur ein Laie und hab mich eben heute Abend ein wenig mit google beschäftigt und dabei versucht OHNE zu lesen von 100 seitigen Specs, die z.T. hinter einer Paywall liegen irgendwas zum "Was braucht man eigentlich damit resizable BAR funktioniert" herauszufinden.
Wer sich mehr mit PCIe und memory mapping etc. auskennt kann vielleicht ausgehend davon noch mehr details beisteuern.
Benutzername
2020-11-13, 23:52:28
Ich vermute mal AMD wird wissen warum das mit älteren ihrer Chipsätze nicht funktioniert. Vielleicht weil AMD eben in seinen PCIe v3 Chipsätzen eben genau noch KEINEN solchen Controller verbaut hat.
Zen2 @5xx Chipsatz kann ich mir ja noch vorstellen, denke die CPU selbst müsste ja 64bit mapping können.
Wie gesagt - ich bin was das betrifft auch nur ein Laie und hab mich eben heute Abend ein wenig mit google beschäftigt und dabei versucht OHNE zu lesen von 100 seitigen Specs, die z.T. hinter einer Paywall liegen irgendwas zum "Was braucht man eigentlich damit resizable BAR funktioniert" herauszufinden.
Wer sich mehr mit PCIe und memory mapping etc. auskennt kann vielleicht ausgehend davon noch mehr details beisteuern.
Aber ein Teil der PCIe Lanes bei Ryzen kommen ja aus der CPU und der I/O Chip da drin ist ja derselbe bei Zen2 wie 3, sollte damit also funktionieren Theopraktisch. Also im direkt an die CPU angebundenen slot sollte das egal sein. naja, wir werden sehen, wie und wo das geht oder eben nicht.
Igor hat heute auch was zum Thema geschrieben: https://www.igorslab.de/b550-oder-x570-neuer-ryzen-und-das-hoffen-auf-die-radeon-6800-xt-warum-viele-ihr-windows-wohl-neu-installieren-muessen/
UEFI boot braucht man auch statt Legacy BIOS.
Wundert mich eigentlich, daß AMD erst jetzt damit um die Ecke kommt. mehr als 4GB VRAM verbaut man bei AMD ja schon länger.
-=Popeye=-
2020-11-13, 23:55:02
https://pbs.twimg.com/media/Emu2GmWW8AAAymh?format=jpg&name=900x900
https://twitter.com/i/web/status/1327355421426937856
Damn. Die Dinger scheinen wirklich extrem abzugehen. Nur 208W avg GPU power (nein, das ist nicht tbp bevor damit jemand anfängt. Trotzdem beeindruckend bei >=2.5GHz und 60CU).
Viel interessanter wird sein was hinten bei raus kommt. Wenn AMD nur ansatzweise das liefern kann was bisher gezeigt wurde, wird dies ein Fest für meinen GPU-only-MoRa3 und die erste AMD-GPU seit Jahren.
Iscaran
2020-11-14, 00:00:22
A
UEFI boot braucht man auch statt Legacy BIOS.
Wundert mich eigentlich, daß AMD erst jetzt damit um die Ecke kommt. mehr als 4GB VRAM verbaut man bei AMD ja schon länger.
Ja - das ist auch so ein Punkt der mir nicht ganz klar ist warum.
Hat aber vermutlich auch damit zu tun, daß es im Legacy Modus irgendwie halt doch alles noch "32 bit" ist oder so...
Man braucht sozusagen ein "echtes" voll 64bit System ohne 32 bit Altlasten oder sowas in der Art ?
Igor schreibt auch was in der Art dazu, aber auf eine mir nicht ganz verständliche Weise.
EDIT: Vermutlich könnte man hier etwas finden was weiterhilft: http://xillybus.com/tutorials/pci-express-tlp-pcie-primer-tutorial-guide-1
Ist mir aber heute schon zu spät das durchzugehen und ist auch EXTREM Technisch (auch wenn das Ding "Tutorial" heisst).
Linmoum
2020-11-14, 00:02:52
Viel interessanter wird sein was hinten bei raus kommt. Wenn AMD nur ansatzweise das liefern kann was bisher gezeigt wurde, wird dies ein Fest für meinen GPU-only-MoRa3 und die erste AMD-GPU seit Jahren.Selbst wenn die 6800XT @Stock ein Stück langsamer als die 3080 ist, kann man sich denken, wohin die Reise mit >=2.5GHz dann hingeht. Takt bleibt Takt, egal ob AMD oder Nvidia. Und da bist du gegenüber dem Game Clock (2015MHz) ja schon gut und gerne bei +25%. Ohne den Speicher, den du ja für mehr Performance auch noch übertakten kannst. Da kommt dann keine 3080 mehr hinterher und auch für die 3090 wäre das kein Vergnügen.
TwoBeers
2020-11-14, 00:10:22
Trotzdem wäre ich da auch erstmal vorsichtig mit >2.5GHz. Wenn wir 3080 Niveau erreichen, sind glaube ich alle erstmal zufrieden .. außer nVidia. :freak:
Wir wissen ja auch nicht was da für eine Last anlag.
Aber macht natürlich Vorfreude auf UV, OC und rumbasteln. :D
nairune
2020-11-14, 00:12:47
An der GPU-Power sieht man doch schon, dass die Karte im Taktlimit hängt. Bei 2.5 GHz und so wenig Strom wird das bestimmt nicht die Regel sein... Nachher ist das Forza Horizon 4 oder sowas.
Complicated
2020-11-14, 00:23:53
EDIT: Vermutlich könnte man hier etwas finden was weiterhilft: http://xillybus.com/tutorials/pci-express-tlp-pcie-primer-tutorial-guide-1
Ist mir aber heute schon zu spät das durchzugehen und ist auch EXTREM Technisch (auch wenn das Ding "Tutorial" heisst).
Dieser Absatz ist relevant:
32 vs. 64 bit addressing
As mentioned above, the address given in read and write requests can be either 32 or 64 bits wide, making the header either 3 or 4 DWs long. However section 2.2.4.1 in the PCIe spec states that the 4 DW header format must be used only when necessary:
For Addresses below 4 GB, Requesters must use the 32-bit format. The behavior of the receiver is not specified if a 64-bit format request addressing below 4 GB (i.e., with the upper 32 bits of address all 0) is received.
In reality, it's extremely rare that any peripheral's register is mapped over the 4 GB range, and quite rare that DMA buffers are mapped over the lower 1 GB. As a result, read and write TLPs with 64 bit addressing are practically unused.
Almost all real-life root complexes accept TLPs with 64 bit addressing even if it points below 4 GB. This allows testing outgoing 64-bit addressing packets when designing a peripheral. As for testing ingoing packets of the same sort, there's probably no simple way.
I/O Requests
The PCIe bus supports I/O operations only for the sake of backward compatibility, and strongly recommends not to use I/O TLPs in new designs. One of the reasons is that both read and write requests in I/O space are non-Posted, so the Requester is forced to wait for a completion on write operations as well. Another issue is that I/O operations only take 32-bit addresses, while the PCIe spec endorses 64-bit support in general.
SentinelBorg
2020-11-14, 00:29:40
Ich vermute mal AMD wird wissen warum das mit älteren ihrer Chipsätze nicht funktioniert. Vielleicht weil AMD eben in seinen PCIe v3 Chipsätzen eben genau noch KEINEN solchen Controller verbaut hat.
Zen2 @5xx Chipsatz kann ich mir ja noch vorstellen, denke die CPU selbst müsste ja 64bit mapping können.
Wie gesagt - ich bin was das betrifft auch nur ein Laie und hab mich eben heute Abend ein wenig mit google beschäftigt und dabei versucht OHNE zu lesen von 100 seitigen Specs, die z.T. hinter einer Paywall liegen irgendwas zum "Was braucht man eigentlich damit resizable BAR funktioniert" herauszufinden.
Wer sich mehr mit PCIe und memory mapping etc. auskennt kann vielleicht ausgehend davon noch mehr details beisteuern.
Danke für die zusätzlichen Infos, das hilft die Situation weiter zu beleuchten.
Es kann natürlich gut sein, dass es nicht mit älteren Chipsätzen geht, weil egal ob die CPU es nun kann, alle PCIe Controller nunmal im gleichen Adressraum existieren. Sprich sobald ein Root Controller (der im Chipsatz) es nicht kann, muss es abgeschalten werden. Daraus folgt natürlich auch die Frage, was ist mit anderen PCIe Geräten, vor allem jenen die zukünftig auch direkt mit der GPU kommunizieren sollen, wie eine NVME SSD im Zuge von Direct Storage. Wobei das vielleicht egal ist, weil der PCIe Root wie ein Switch dazwischen hängt.
-=Popeye=-
2020-11-14, 00:35:39
Eben... wenn Stock quasi Gleichstand herrscht sind alle zufrieden.
Das mit OC bei Ampere nicht wirklich viel geht ist ja bekannt, es sei denn man packt die 500W PT Keule aus. Naja...
aufkrawall
2020-11-14, 00:49:00
Hoffentlich kommen jetzt nicht zig Leute auf die Idee, Above 4G Decoding im Uefi einzuschalten, um dann irgendeinen Müll bei der CPU-Performance zusammen zu testen. :freak:
SKYNET
2020-11-14, 01:26:51
Ich vermute mal AMD wird wissen warum das mit älteren ihrer Chipsätze nicht funktioniert. Vielleicht weil AMD eben in seinen PCIe v3 Chipsätzen eben genau noch KEINEN solchen Controller verbaut hat.
Zen2 @5xx Chipsatz kann ich mir ja noch vorstellen, denke die CPU selbst müsste ja 64bit mapping können.
Wie gesagt - ich bin was das betrifft auch nur ein Laie und hab mich eben heute Abend ein wenig mit google beschäftigt und dabei versucht OHNE zu lesen von 100 seitigen Specs, die z.T. hinter einer Paywall liegen irgendwas zum "Was braucht man eigentlich damit resizable BAR funktioniert" herauszufinden.
Wer sich mehr mit PCIe und memory mapping etc. auskennt kann vielleicht ausgehend davon noch mehr details beisteuern.
alle boards ohne controller(also die meisten ATX bretter) sollten kein problem haben, da GPU direkt mit der CPU kommuniziert, ohne umwege... bei meinem itx brett sähe das schon anders aus, dafür kann ich meinen 16x port mit riser splitten und SLI/CF fahren wenn ich will(2x 8x mode)
horn 12
2020-11-14, 04:08:51
AMD macht es einem nicht einfach!
Würden die Reviews 1 bis 2 Tage früher kommen könnte man besser entscheiden.
Customs eine Woche+ später, auch deren Testberichte
und ist mal nicht schnell,- dann steht man mit leeren Händen/ Ohne GPU da.
Ausser die Lieferungen werden enorm ?
Bestellt man eine 6800XT und sieht dass die 6800 dann mit OC fast an die XT rankommt
zudem auch für viele Enduser wichtig Nur 2 Slot Design
und zwar 20% weniger CU, dafür wohl etwas Kühler, dann könnte die 6800 zum Kassenschlager werden,- obwohl nur 70 Euro Billiger.
Etwas wird sich AMD DA SCHON GEDACHT haben:
60 CU und hohe OC Eigenschaften
72 CU schnell und immer noch gut Taktbar
80 CU Vollausbau und wirklich teuer
Rechne eine 6800 kommt taktbereinigt so auf maximale gute 10% Minderleistung als eine XT auch wenn man die XT übertaktet.
Also was Bestellen am Mittwoch:
6800 - 6800XT oder auf Customs warten und hoffen eine zu bekommen.
OCmylife
2020-11-14, 06:48:54
AMD macht es einem nicht einfach!
Würden die Reviews 1 bis 2 Tage früher kommen könnte man besser entscheiden.
Customs eine Woche+ später, auch deren Testberichte
und ist mal nicht schnell,- dann steht man mit leeren Händen/ Ohne GPU da.
Ausser die Lieferungen werden enorm ?
Bestellt man eine 6800XT und sieht dass die 6800 dann mit OC fast an die XT rankommt
zudem auch für viele Enduser wichtig Nur 2 Slot Design
und zwar 20% weniger CU, dafür wohl etwas Kühler, dann könnte die 6800 zum Kassenschlager werden,- obwohl nur 70 Euro Billiger.
Etwas wird sich AMD DA SCHON GEDACHT haben:
60 CU und hohe OC Eigenschaften
72 CU schnell und immer noch gut Taktbar
80 CU Vollausbau und wirklich teuer
Rechne eine 6800 kommt taktbereinigt so auf maximale gute 10% Minderleistung als eine XT auch wenn man die XT übertaktet.
Also was Bestellen am Mittwoch:
6800 - 6800XT oder auf Customs warten und hoffen eine zu bekommen.
Sollten die Reviews 1-2 Tage vor Release erscheinen, wird es sicher noch schwieriger eine Karte zu einem vernünftigem Preis zu bekommen. Von daher pokere ich doch lieber mit der tatsächlichen Performance und dem Treiber. :-)
Sardaukar.nsn
2020-11-14, 07:05:56
Viel interessanter wird sein was hinten bei raus kommt. Wenn AMD nur ansatzweise das liefern kann was bisher gezeigt wurde, wird dies ein Fest für meinen GPU-only-MoRa3 und die erste AMD-GPU seit Jahren.
Ich denke wir werden auch sehr zeitnah BigNavi Wakü Benchmarks sehen.
Woher bekomme ich so eine Lootbox? :eek:
WNDVIKQaT0w
Skysnake
2020-11-14, 07:51:29
Leute ihr habt schon gelesen was ich vor mich Seiten geschrieben habe...
Ihr kennt euch nicht aus fragt nach Infos von Leuten die sich auskennen, bekommt erste Hand Infos und ignoriert die dann einfach gekonnt...
Sorry euch ist da echt nicht mehr zu helfen :thumbs_down:
Hübie
2020-11-14, 08:48:21
Leute was wollt ihr eigentlich mit den BARs. Das habe ich schon vor 8 Jahren gemacht...
Der ganze Mist hat schon nen Bart bis zum Boden. Windows wa/ist da halt ziemlich desaströs. Zudem steckt die Tücke im Detail. Man braucht schnell PCIe Atomics damit das gut nutzbar ist.
Ich Sag's mal so, beschäftigt euch mal mit RDMA und PGAS sowie one sind comminucation über Infiniband. Das ist Asbach uralt und man kann ein PCIe device auch transparent betreibe. Obwohl es nicht mal im System steckt sondern hinter Netzwerkkarten...
Dank Hotel Swap Fähigkeit kann dann das dann sogar zur Laufzeit hinzufügen oder wegnehmen.
Es gibt soooo viele Techniken seit sehr langer Zeit. Es wird halt nur noch genutzt weil die Tücke im Detail steckt und es echt Arbeit ist das ans laufen zu bekommen unter Linux. Was glaubt ihr wie das unter Windows aussieht....
Also daher würde ich erstmal die Füße stillhalten bezüglich nem Vendor log
Für so Sachen muss der Support von der CPU über BIOS über OS über GPU Treiber bis hin zur GPU an sich halt überall gegeben sein. Das man sich da im eigenen Haus mit einfacher tut sollte klar sein.
Das heißt aber nicht, das Sie sich da gegen Andere sperren. Wie soll das auch gehen wenn es Standardkonform ist?
Und wenn es special souce ist, dann ist das halt so. Hat bisher doch auch keine Sau bei Intel und NVIDIA interessiert....
Das ist schon alles ziemlich verligen
Abgesehen von jeder Menge Schreibfehlern sehe ich hier kaum verwertbare Infos. :uponder:
Nur das mit Atomics ist neu. Der Grund warum es jetzt mit Ryzen 5000 und RX 6000 kommt ist wahrscheinlich, dass AMD den product stack soweit kontrolliert, dass nur noch Microsoft "instruiert" werden muss.
Skysnake
2020-11-14, 11:03:36
Nochmal, das ganze hat nen Bart bis dort hinaus.
Was halt gegeben sein muss ist ein Support von der Hardware, bios, OS und Treiber.
Dann kannst auch mit 64 bit Bars arbeiten.
An sich hindert dich auch erstmal keiner daran nen eigenen device Treiber zu schreiben.
Wenn die Hardware das kann kann man es machen wenn der Rest auch passt.
Ist genau der gleiche Rotz wie die Hotplug Fähigkeit von PCIe.
Im Consumerbereich wird das halt beschnitten, aber meist kann die Hardware das.
Da ist jetzt überhaupt nichts besonderes dran, weil seit zich Jahren vorhandene Standards verwendet werden um das zu implementieren.
Nvidias GPUdirect(2) nutzt die 64 Bit bars schon seit ner Ewigkeit.... ob da jetzt der NIC oder die CPU rein schreibt ist total Jacke wie Hose.
Wenn du aus dem User Space das machen willst musst du halt Schutzfunktionen bereitstellen damit nicht jeder User alles lesen und schreiben kann, aber sonst?
Das tut alles ohne Probleme seit zich Jahren. Das größte Problem sind die device Treiber die halt die unterschiedlichen Bereiche richtig mappen müssen und das man halt weiß wo was ist.
So lange aber alle Stellen die benötige Funktion in Hardware haben, was eigentlich immer der Fall sein sollte, ist es nur noch Fleisarbeit für die Treiberentwickler.
Wenn aber z.b. keine 64 Bars gehen dann wars das halt direkt.
Zossel
2020-11-14, 11:22:49
Nochmal, das ganze hat nen Bart bis dort hinaus.
Funzt das eigentlich wenn man seine GPU via IOMMU unter Linux an eine Windows-VM durchreicht?
SkankHunt
2020-11-14, 13:30:26
Igor (https://www.youtube.com/post/Ugz5bv5YFZ_LAMJ2lfZ4AaABCQ?ocd=1) Hat mit dem Pic schon gut gespoliert/suggeriert.
Igor: " Nicht zu viel hineininterpretieren... oder doch? Wer weiß.."
Die 6800/6800XT sind wohl besser als ihre Nvidia Konkurrenz
Adam D.
2020-11-14, 13:44:30
Igor (https://www.youtube.com/post/Ugz5bv5YFZ_LAMJ2lfZ4AaABCQ?ocd=1) Hat mit dem Pic schon gut gespoliert/suggeriert.
Igor: " Nicht zu viel hineininterpretieren... oder doch? Wer weiß.."
Die 6800/6800XT sind wohl besser als ihre Nvidia Konkurrenz
Joa, die Bildsprache ist eindeutig ;D
So langsam könnte mal irgendwo ein Leak herkommen, der brauchbar ist :frown:
Skysnake
2020-11-14, 13:49:50
Funzt das eigentlich wenn man seine GPU via IOMMU unter Linux an eine Windows-VM durchreicht?
Weiß gerade nicht was du meinst. VM ist für mich im Allgemeinen aber auch des Teufels...
Soweit mir bekannt hat man im Allgemeinen zwei Möglichkeiten.
Passthrough und damit exklusives device Handling in der VM
Oder halt SRIOV. Da wird die Initialisierung meines Wissens nach fast komplett vom Host gemacht und dann nur noch ein virtuelles device in die VM gereicht.
Das muss aber die VM als auch der Treiber supporten. Ob damit ein 64/32 bit Mix möglich ist??? Keine Ahnung. Kommt am Ende wohl auf den Hypervisor drauf an.
Ich hatte auch nen PCIE device am PCIe Subsystem von Linux vorbei betrieben....
Da kann man sehr sehr sehr viel Schindluder treiben wenn man will. Ich musste da teilweise auch Kenntnis über das Mapping zwischen den Hardware Adressen an verschiedenen Stellen haben. Da bekommt man schnell nen Knoten im Kopf wenn je nachdem wer gerade auf Daten zugreift ne andere Adresse benutzt wurde. Ich meine bei mir waren es am Ende 3-5 verschiedene Mappings.... wobei nicht jeder alles gesehen hat....
BlacKi
2020-11-14, 13:50:56
So langsam könnte mal irgendwo ein Leak herkommen, der brauchbar ist :frown:
vermutlich werden wir immernoch fragen haben wenn das NDA gefallen ist. daher ist dieses fiebern eigentlich unnötig. die ungefähre performance kann man schon einschätzen.
-/\-CruNcher-/\-
2020-11-14, 13:54:06
AMD macht es einem nicht einfach!
Würden die Reviews 1 bis 2 Tage früher kommen könnte man besser entscheiden.
Customs eine Woche+ später, auch deren Testberichte
und ist mal nicht schnell,- dann steht man mit leeren Händen/ Ohne GPU da.
Ausser die Lieferungen werden enorm ?
Bestellt man eine 6800XT und sieht dass die 6800 dann mit OC fast an die XT rankommt
zudem auch für viele Enduser wichtig Nur 2 Slot Design
und zwar 20% weniger CU, dafür wohl etwas Kühler, dann könnte die 6800 zum Kassenschlager werden,- obwohl nur 70 Euro Billiger.
Etwas wird sich AMD DA SCHON GEDACHT haben:
60 CU und hohe OC Eigenschaften
72 CU schnell und immer noch gut Taktbar
80 CU Vollausbau und wirklich teuer
Rechne eine 6800 kommt taktbereinigt so auf maximale gute 10% Minderleistung als eine XT auch wenn man die XT übertaktet.
Also was Bestellen am Mittwoch:
6800 - 6800XT oder auf Customs warten und hoffen eine zu bekommen.
Liegt deine Prio nicht auf das Visuelle Limit RT und Performance enhancing is die Diskussion eh auf deutsch gesagt scheiss egal geworden für diese Generation in diesem Preisberreich.
Allerdings glaube ich immernoch nicht das die XT der Effizienz sweetspot ist und die 3070 wird extreme schwer zu schlagen selbst mit AMDs jetzigem 7N Vorteil von der 3070 Super/TI die Q1 raus gesalvaged wird ganz zu schweigen.
Wenn ich sehe wie Igor schon reagiert zu dem ganzen Marketing gehype kann man sich schon denken wo das Ergebnis landen wird ;)
12 RAs mehr RT Performance die werden es wohl auch nicht kippen so viel mehr Visuell zu verändern bei stabiliem 30/60 Hybrid Performance Console Port target.
Und wie gesagt wir sind sogar noch fair und ignorieren DLSS (Balance/Quality) mal komplett wobei das auf seiten Nvidias als Performance boost einfach bewusst unausweichlich ist in der ganzen Ampere Gamer balance und sie egal mit welcher Karte aus ihrem Lineup immer einen tick noch vor AMD boosten und das immer mit weniger Verbrauch, wie Skysnake schon sagte SAM ist schon jetzt irellevant Nvidia hat den support schon lange die wichtigsten umbauten stehen schon seit WinHEC 2006 fest.
Es dauert halt nur alles etwas bis es End Consumer erreicht ;)
PS: Der Witzfaktor zu diesen Launches war nie besser nur Termi war vergleichbar :D
https://www.youtube.com/watch?v=aeo6nmwqGWg
Linmoum
2020-11-14, 14:44:50
Nach kurzer Rücksprache mit den Entwicklern von CapFrameX konnten weitere interessante Details zu Navi 21 in Erfahrung gebracht werden. Ganz offensichtlich skalieren die neuen GPUs auf Basis der RDNA-2-Architektur sehr gut mit mehr Takt. So gaben die beiden Community-Mitglieder zu Protokoll, dass „13 Prozent mehr Takt zu ca. 10 Prozent mehr Leistung führen“.https://www.computerbase.de/2020-11/amd-radeon-rx-6800-overclocking/#update-2020-11-14T14:39
Wie schon erwähnt wäre man gegenüber dem Game Clock der 6800 mit 2532MHz bei allein fast +40% Takt. Das wäre schon krank, wenn da wirklich 25-30% durch OC an Performancegewinn möglich ist.
patrickschur
2020-11-14, 15:07:57
So langsam könnte mal irgendwo ein Leak herkommen, der brauchbar ist :frown:
Ab wann ist ein Leak für dich brauchbar?
erlgrey
2020-11-14, 15:13:41
vielleicht meint er einen Direktlink vorab zu einem 6800 (xt) artikel und exakte uhrzeit wann er zum kauf freigeschaltet wird.
Redneck
2020-11-14, 15:14:17
Ab wann ist ein Leak für dich brauchbar?
1 Tag vor NDA Ende.. Ansonsten wird das Warten ja unerträglich ;D
-/\-CruNcher-/\-
2020-11-14, 15:14:24
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-overclocking/#update-2020-11-14T14:39
Wie schon erwähnt wäre man gegenüber dem Game Clock der 6800 mit 2532MHz bei allein fast +40% Takt. Das wäre schon krank, wenn da wirklich 25-30% durch OC an Performancegewinn möglich ist.
Igor hat ja Fermi Setup Möglichkeit 95°C mit Turbo Mode schon gespoilert bei dem Winzling und seine Folgen ;)
Hat mich gleich an 4800U ohne heatsink errinert ;)
https://www.youtube.com/watch?v=mDHuurdr67A
Complicated
2020-11-14, 15:21:03
Mich würde mal interessieren ob irgend jemand durch die Leaks der letzten 3 Monate tatsächlich irgendwie profitiert hat, also verglichen mit es hätte überhaupt keine Leaks gegeben und die Informationen wären immer zum offiziellen Termin bekannt geworden. Wann ja würde mich da ein Beispiel interessiere, das bei Navi 2x in diesem Thread verlinkt ist. (Ich verzichte hier jetzt absichtlich auf die Gegenprobe wie viel Müll geschrieben wurde in diesem Thread der nicht eingetroffen ist)
Mit profitieren meine ich im Sinne dieses Spekulationsthreads, dass eine Spekulation bestätigt wurde oder eine neue Richtung bekam. Neue Erkenntnisse die dem Thread genutzt haben.
Adam D.
2020-11-14, 15:29:55
Ab wann ist ein Leak für dich brauchbar?
Ich hätte mich präziser ausdrücken sollen. Hatte gerade was zu RT gelesen, darauf war mein Kommentar bezogen. Abseits von RT kann man IMO ja schon ziemlich genau sehen, wo die Reise hingeht :cool:
-/\-CruNcher-/\-
2020-11-14, 15:39:25
Man hats auf beiden seiten versucht aber die Konsolen haben jetzt sogut wie ziemlich alles platt gemacht als neuer Standard.
Und zum letzten run der 5700 XT optimization war schon absehbar wohin die Reise hin geht für AMD das überraschenste war der Infinity Cache workaround um nochmal eine zusätzliche Effizienzsteigerung zu erreichen (da fragt man sich ob Nvidia das mit berrechnen konnte so geheim dieses mini projekt in sich gehalten wurde auch wenn es teils in der Roadmap vielleicht ersichtlich war durch die Annäherung an Zen und der nächsten Level Fusion mit RDNA2) und was dort noch optimierbar machbar sein wird vor allem concurent wenn man cache misses effizient verhindert.
Am meisten würde ich mal sagen haben die Youtuber von Leaks profetiert die täglich was zu berrichten hatten und viele sich als Master leaker versuchen zu etablieren und Nvidia sowie AMD schön ihr leak spiel mit gespielt haben ;)
Dont forget to Subscribe ;)
Nvidia hält sich immernoch an der Spitze in allen mixed Application Workloads combined und AMD konnte ihr Ökosystem noch nicht beträchtlich erweitern wie man sich das gegen Nvidia gewünscht hätte auch wenn der Chip und das workaround grandios ist der ISV support hinkt immernoch der Abdeckung und Effizienz Nvidias hinterher und die transition komplett auf Vulkan und DX12 da wird noch einige Zeit ins Land laufen Application wide gegen Nvidias langjährige Ökosystem Investitionen und aufgebaute Dominanz.
Wobei die Tendenz das vor allem Nvidias Linux Dominanz schneller wegbricht schon langsam deutlich sichtbarer wird.
Und selbst durch Nvidias Finanziele Unterstützung brechen einige unter dem Optimierungstress für alle vor allem in dieser transition zeit zusammen und delay delay delay ist die Folge ;)
Allerdings werden auch seit Windows 10 sehr viele Nvidia Probleme mit WDDM Optimierung sichtbar und extreme viele Probleme mussten gefixed werden bis hin zu temporär eigenen WDDM paths.
r3ptil3
2020-11-14, 16:21:16
Das OC klingt ja übertrieben gut, ich erinnere zumindest daran, dass auch bei der R9 Fury X seitens AMD selber sogar von "Overlockers dream" geredet wurde, real war da mit OC rein gar nichts drin, aber will das natürlich keinesfalls gleichsetzen mit BigNavi, nur daran erinnern, falls wieder eine unheimliche Erwartungshaltung kreiert wird.
Achja: Ich würde keinem dazu raten seine RTX 3000 verfrüht zu verkaufen, sofern denn das jemand vor hat (wird sich bestimmt der eine oder andere überlegt haben). Sobald innerhalb von 0.5 Sekunden wieder der gesamte Bestand am 18.11 verkauft ist, wird man sich danach dann um jede Karte (AMD und NV) prügeln (erhöhter Kaufzwang).
Ich vermute sogar, dass nach dem Release von BigNavi, die Gebrauchtmarktpreise der RTX 3000 Serie nochmals steigen werden.
Linmoum
2020-11-14, 16:23:59
Das OC klingt ja übertrieben gut, ich erinnere zumindest daran, dass auch bei der R9 Fury X seitens AMD selber sogar von "Overlockers dream" geredet wurde, real war da mit OC rein gar nichts drin, aber will das natürlich keinesfalls gleichsetzen mit BigNavi, nur daran erinnern, falls wieder eine unheimliche Erwartungshaltung kreiert wird.
Der Vergleich hinkt aber, da das ja damals eben eine im Vorfeld von AMD nicht zu verifizierende Aussage war.
Jetzt kommt es natürlich darauf an, welche Quelle(n) man als glaubwürdig erachtet, aber dass 2.5GHz möglich sind hat man jetzt schon mehrfach von verschiedenen Leuten gehört, die in irgendeiner Form Kontakt mit Karten haben/hatten.
Korvaun
2020-11-14, 16:26:56
Wenn das "OC-geleake" alles auch nur ansatzweise der Wahrheit entspricht und die Stock-Performance wirklich so wird wie von AMD gezeigt dann sollte klar sein das zum Launch alle erhältlichen Karten innerhalb von Minuten ausverkauft sein werden. Wer viel Glück hat bekommt vielleicht diese Jahr noch eine ab ;)
r3ptil3
2020-11-14, 16:30:16
Wenn das "OC-geleake" alles auch nur ansatzweise der Wahrheit entspricht auch total falsch wäre und die Stock-Performance wirklich so wird wie von AMD gezeigt dann sollte klar sein das zum Launch alle erhältlichen Karten innerhalb von Minuten ausverkauft sein werden. Wer viel Glück hat bekommt vielleicht diese Jahr noch eine ab ;)
Ich war so frech und habe es mal "ergänzt". :freak:
Die Karten werden 100%ig, egal ob mit oder ohne OC-Fähigkeiten, innerhalb von Minuten restlos ausverkauft sein, durchgehend und überall.
Nazar
2020-11-14, 16:41:56
Das OC klingt ja übertrieben gut, ich erinnere zumindest daran, dass auch bei der R9 Fury X seitens AMD selber sogar von "Overlockers dream" geredet wurde, real war da mit OC rein gar nichts drin, aber will das natürlich keinesfalls gleichsetzen mit BigNavi, nur daran erinnern, falls wieder eine unheimliche Erwartungshaltung kreiert wird.
Achja: Ich würde keinem dazu raten seine RTX 3000 verfrüht zu verkaufen, sofern denn das jemand vor hat (wird sich bestimmt der eine oder andere überlegt haben). Sobald innerhalb von 0.5 Sekunden wieder der gesamte Bestand am 18.11 verkauft ist, wird man sich danach dann um jede Karte (AMD und NV) prügeln (erhöhter Kaufzwang).
Ich vermute sogar, dass nach dem Release von BigNavi, die Gebrauchtmarktpreise der RTX 3000 Serie nochmals steigen werden.
Nun, das sind vollkommen unterschiedliche Voraussetzungen.
Damals war es eine Aussage, die alleine auf der von AMD beruhte.
Die Leaker heutzutage haben derzeit eine sehr hohe Trefferquote bewiesen.
Im Prinzip hat fast alles bis auf den Prozentpunkt gestimmt, was die Leaker zur Ampere Serie verlauten ließen. Egal ob es um die Wattzahlen, die Leistungsunterschiede oder das Aussehen der Kühler ging.
Ebenso war es auch bei Big Navi.
Warum nun ausgerechnet jetzt beim OC diese Leaker kompletten BS erzählen sollten, erschließt sich mir nicht. Die Wahrscheinlichkeit zeigt eine eindeutige Tendenz in Richtung, dass das stimmen wird.
Adam D.
2020-11-14, 16:47:28
Navi 21 skaliert sehr gut mit mehr Takt
Nach kurzer Rücksprache mit den Entwicklern von CapFrameX konnten weitere interessante Details zu Navi 21 in Erfahrung gebracht werden. Ganz offensichtlich skalieren die neuen GPUs auf Basis der RDNA-2-Architektur sehr gut mit mehr Takt. So gaben die beiden Community-Mitglieder zu Protokoll, dass „13 Prozent mehr Takt zu ca. 10 Prozent mehr Leistung führen“.
50 Watt mehr müssen eingeplant werden
Zudem wiesen „ZeroStrat“ und „Taxxor“ noch einmal darauf hin, dass das getestete Referenzmodell der Radeon RX 6800 neben dem starken Overclocking auf durchschnittlich mehr als 2,5 GHz auch mit Undervolting betrieben wurde. Im Hinblick auf die TBP („Total Board Power“) der Grafikkarte müssten auch noch einmal 50 Watt mehr an Verbrauch eingeplant werden.
Die Leistungsaufnahme der auf 2,5 GHz übertakteten Radeon RX 6800 dürfte somit bei durchschnittlich 250 bis 260 Watt und bei 300 bis 320 Watt in der Spitze gelegen haben.
AMD selbst gibt die kleinste Grafikkarte der Radeon-RX-6000-Serie mit 250 Watt TBP bei 1.815 MHz Game- und 2.105 MHz Boost-Takt an.
Noice!
Nazar
2020-11-14, 16:53:05
!!Wenn!! das stimmen sollte, dann wischt die 6800XT selbst mit der 3090 den Boden, wenn es nur um die RZ Performance geht und die 6900XT wäre der neue Performance Leader.
Ich bin gespannt.
fondness
2020-11-14, 16:55:43
Was habt ihr erwartet? Das lead Design Team von Zen saß da dran um custom libs für navi2 zu entwickeln die hohe Taktraten bei niedriger Leistungsaufnahme erlauben. Auch der Cache scheint ja von Zen übernommen worden zu sein. Zum ersten Mal sieht man hier also bei AMD auch synagieeffekte zwischen CPU und gpu Team, vielleicht ist erst jetzt die ati Übernahme vollständig abgeschlossen.
dargo
2020-11-14, 17:00:53
Was habt ihr erwartet? Das lead Design Team von Zen saß da dran um custom libs für navi2 zu entwickeln die hohe Taktraten bei niedriger Leistungsaufnahme erlauben.
Was ist schief gelaufen? Oder sind neuerdings 300+W niedrige Leistungsaufnahme? :freak:
Linmoum
2020-11-14, 17:02:01
Für >=2500MHz definitiv.
Was ist schief gelaufen? Oder sind neuerdings 300+W niedrige Leistungsaufnahme? :freak:
Ich gehe davon aus, dass weder ein MPT installiert war, noch dass sich CFX bisher intensiv mit der Karte beschäftigt hat. Aber ~260W im Schnitt für ~35% mehr Takt - gibt schlimmeres :smile:
Darüber hinaus gibt CFX an, dass Navi sehr gut mit dem Takt skaliert: 13% mehr Takt = 10% mehr Performance.
fondness
2020-11-14, 17:09:50
Was ist schief gelaufen? Oder sind neuerdings 300+W niedrige Leistungsaufnahme? :freak:
Alles ist relativ im Leben. In relation zur Leistung ja.
Complicated
2020-11-14, 17:10:44
Technisch gesehen sicherlich. Doch die Kritik von mehr als 300W Verbrauch bleibt die selbe unabhängig von 2,5 Ghz. Oder gibt es einen Punkt der nicht mehr valide ist ab 2,5 Ghz?
dargo
2020-11-14, 17:11:25
Ich gehe davon aus, dass weder ein MPT installiert war, noch dass sich CFX bisher intensiv mit der Karte beschäftigt hat. Aber ~260W im Schnitt für ~35% mehr Takt - gibt schlimmeres :smile:
Na klar... die Karte liefert vs. Referenz bei +10W 35% mehr Takt. :facepalm: Lese nochmal die Infos.
Für >=2500MHz definitiv.
Frequenzen sind nur Mittel zum Zweck. Wenn sich neuerdings 300+W als Standard etabliert finde ich diese Entwicklung gar nicht gut. Klar... dich als Wakü User wird das wenig jucken.
Darüber hinaus gibt CFX an, dass Navi sehr gut mit dem Takt skaliert: 13% mehr Takt = 10% mehr Performance.
Nichts Neues, wissen wir von Patrick schon lange.
-/\-CruNcher-/\-
2020-11-14, 17:35:01
Ich gehe mal stark davon aus das CapFrameX garnicht das effiziente equipment hat um das genau bestimmen zu können und ihre resolution sehr eingeschränkt ist.
Nvidia ist ja nicht ohne Grund den Schritt gegangen die Celeb Reviewer diesmal mit ihrem eigenen DIY Hardware Mess System auszurüsten was vorausichtlich teils jetzt auch bei den AMD Messungen zum Einsatz kommen wird und noch sehr interessant wird ;)
mboeller
2020-11-14, 17:39:27
Was ist schief gelaufen? Oder sind neuerdings 300+W niedrige Leistungsaufnahme? :freak:
du beschwerst dich ernsthaft wegen der Leistungsaufnahme einer massiv übertakteten Grafikkarte... <facepalm>
Adam D.
2020-11-14, 17:41:55
du beschwerst dich ernsthaft wegen der Leistungsaufnahme einer massiv übertakteten Grafikkarte... <facepalm>
Was hier schon wieder in Aussagen zusammengemixt wird :ulol: Das ist eine Aussage zur allgemeinen Entwicklung, die weder vor Ampere noch vor RDNA2 Halt macht. Das ist völlig unabhängig davon, ob eine übertaktete 6800 in die Regionen vorstößt. Bei 6800XT und 6900XT wird es definitiv bei >=300W rauskommen.
/Locutus oB
2020-11-14, 17:58:21
300 watt finde ich auch nicht schön, aber irgendwo muss Energie für Leistung auch herkommen. es steht jedem frei sich eine 200 watt karte zu kaufen..
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.