Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: AMD stellt die Radeon RX 9060 XT für eine Auslieferung am 5. Juni vor
Leonidas
2025-05-21, 10:49:45
Link zur News:
https://www.3dcenter.org/news/amd-stellt-die-radeon-rx-9060-xt-fuer-eine-auslieferung-am-5-juni-vor
Mira Bellenbaum
2025-05-21, 11:50:46
Ich werde mir die 5060 holen. Denke die wird wesentlich schneller werden. Die Tests haben mich überzeugt. Für 300€ ist sie meine.
Also ich finde den Vergleich RX9600XT 16 GB vs. RTX 5060 TI 8 nachvollziehbar, da ja auch der Preis passend ist.
Damit zeigt man doch wunderbar, dass die 16-GB-Karte besser ist und das bei gleichem/ähnlichen Preis.
Gegen die RTX 5060 TI 16 GB wird man dann die RX9700 GRE aufstellen.
Ich werde mir die 5060 holen. Denke die wird wesentlich schneller werden. Die Tests haben mich überzeugt. Für 300€ ist sie meine.
Ich hoffe, dass du das nicht ernst meinst. Falls doch: Warte besser noch ein paar Stunden (die Karte kostet eh mehr als 300 Euro) und lies dir dann den ersten vollumfassenden Test durch. :)
MfG
Raff
Dafür hätte man allerdings auf die Radeon RX 9060 XT 8GB verzichten bzw. an diese Stelle des Portfolios eine (hypothetische) "Radeon RX 9060 16GB" stellen müssen.
Radeon RX 9060 16GB wäre natürlich aufgrund der beidseitigen Speicherbestückung der Platine aber gleichem Chip teurer als die 9060 XT 8GB in der Fertigung.
AMD hätte aber seine RX 7600 XT (16GB), die noch den billigen N33-Chip in der günstigen 6nm Fertigung nutzt, unter 290 Euro senken können. Das wäre für einige interessanter für so 600 Euro-Rechner, als diese 9060 XT 8GB für 315 Euro. Aber gut, so überlässt man das Feld der Intel B580 und RTX 3060 12 GB.
Blase
2025-05-21, 12:41:42
Vergleichen eine 16 GB Karte mit der 8 GB Karte der Konkurrenz :freak:
Naja, sind halt beides Marketing Spezialisten. Da schmunzelst du dir einfach einen drauf ;D
Ich werde mir die 5060 holen. Denke die wird wesentlich schneller werden. Die Tests haben mich überzeugt. Für 300€ ist sie meine.
Viel Spaß :tongue:
C0_4aCiORzE
MfG Blase
lilgefo~
2025-05-21, 12:58:51
Direkt 2 vom 1 Posting Troll getriggert. ;D
Direkt 2 vom 1 Posting Troll getriggert. ;D
Service für stille Mitleser. Aber ich mag den Namen.
MfG
Raff
Exxtreme
2025-05-21, 13:12:54
Ich werde mir die 5060 holen. Denke die wird wesentlich schneller werden. Die Tests haben mich überzeugt. Für 300€ ist sie meine.
Sie wird wahrscheinlich deutlich mehr als 300 EUR kosten. Auf Geizhals ist sie ab 319 EUR gelistet:
https://geizhals.de/?cat=gra16_512&xf=132_8192%7E9816_03+05+18+-+RTX+5060
Shink
2025-05-21, 13:20:55
Vergleichen eine 16 GB Karte mit der 8 GB Karte der Konkurrenz :freak:
Naja, sind halt beides Marketing Spezialisten.
Ist doch ein alter Hut bei AMD - haben sie schon bei Polaris gemacht. (kA ob früher auch schon.)
Ich finde die Entscheidung zu PCIe 5.0x16 spannend. Vielleicht stören die 8GB VRAM damit ja gar nicht mehr.:freak:
Ne, im Ernst: Von PCIe 4.0 x8 auf PCIe 5.0 x16 sind 4x so viel Bandbreite. Was das im VRAM-Mangel genau heißt, wäre mal ein spannender Test. Bei einer Karte mit genug Speicher bringt das kaum was aber eine Einstiegskarte mit wenig VRAM und maximaler PCIe-Bandbreite gab's schon länger nicht mehr.
Ich finde die Entscheidung zu PCIe 5.0x16 spannend. Vielleicht stören die 8GB VRAM damit ja gar nicht mehr.:freak:
Ich habe allein dieses Jahr zahlreiche Speichergrenzfälle (https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/8-vs-16-GByte-Speicher-Test-RTX-4060-Ti-1467834/) gesehen, bei denen eine RTX 3070 (×16 4.0) immer dann eine RTX 4060 Ti 8GB (×8 4.0) besonders abzieht, wenn der VRAM platzt. Auf jeden Fall hilft es. Und anscheinend war der Die gerade groß genug, dass das Sinn ergab. :)
MfG
Raff
Birdman
2025-05-21, 13:30:35
Ne, im Ernst: Von PCIe 4.0 x8 auf PCIe 5.0 x16 sind 4x so viel Bandbreite. Was das im VRAM-Mangel genau heißt, wäre mal ein spannender Test. Bei einer Karte mit genug Speicher bringt das kaum was aber eine Einstiegskarte mit wenig VRAM und maximaler PCIe-Bandbreite gab's schon länger nicht mehr.
In der Praxis werden solche Einsteigerkarten aber kaum in PCIe 5.0 Systemen verbaut, sondern in älteren PCIe 4.0/3.0 Kisten.
Aber doppelt so viel Bandbreite wie bei einer x8 Karte ist auf jeden Fall immer vorhanden und das ist sicher ein nicht zu verachtender Vorteil.
Leonidas
2025-05-21, 13:56:43
Ich werde mir die 5060 holen. Denke die wird wesentlich schneller werden. Die Tests haben mich überzeugt. Für 300€ ist sie meine.
Bot/Clickworker-Detection: 100%.
PS: Seid ihr sicher, das ihr irgendjemand mit dieser Kindersprache überzeugt?
Lehdro
2025-05-21, 14:08:50
Dass es nun tatsächlich eine x16 Anbindung ist überrascht mich positiv, man scheint ja doch lernfähig zu sein bei AMD.
Womit wir dann auch wieder beim negativen Teil sind: Wo ist das Problem die 9600 XT 8 GiB einfach nur 9060 zu nennen? Und die dann, analog zur damaligen RX 470, freizustellen ob 8 GiB oder 16 Gib?
Für den Cutdown hat man dann immer noch eine 9050 XT in petto als Namen.
basix
2025-05-21, 14:16:55
Ja PCIe x16 überrascht mich auch. Evtl. erhalten wir die Auflösung, wenn wir noch Media / Display Engines etc. kennen. Falls die auch gleich wie bei N48 sind, hat man N48 einfach in der Mitte durchgesäbelt.
Das würde auch Sinn ergeben, da man bei AMD auch Chiplets bei GPUs diskutiert hat. Dann wäre PCIe + Multimedia = MID (multimedia Die); 128bit + 50% command processor = GPU Die. N48 hat den GPU-Teil einfach doppelt. Man würde somit ein paar designtechnische Überbleibsel einer Chiplet-Architektur erkennen. Und fürs Chip-Design wäre sowas auch effizienzter, da grosse Teile des Designs für beide GPUs verwendet werden können.
"Schätzungsweise diese 2 Watt kann man für die vier mehr Speicherchips einrechnen, welche das 16-GB-Modell mitbringt."
Das stimmt so nicht wirklich. Ein Speicherchip GDDR6 hat 2-5W, bei dem Takt vermutlich so um die 3W (da vermutlich relativ moderne Chips aber relativ hoher Takt). Das macht also dann grob 12W mehr für den VRam.
basix
2025-05-21, 14:44:14
https://youtu.be/C0_4aCiORzE
MfG Blase
Der Test zeigt sehr deutlich, dass Spiele bei Medium-Settings auf <8GByte getrimmt sind. Da gehen inkl. DLSS-Q/B oftmals auch 1440p. Aber hohe Einstellungen sind selbst bei 1080p zu viel (wobei die 5060 Ti genug schnell für das wäre).
Doch genau da liegt die Krux:
8GB ist das Optimierungsziel von gestern und vermutlich nicht von heute und sicher nicht übermorgen. Und für sowas soll man noch 320 Euro zahlen? mMn schlechte Investition (ausser man ist sich sicher, das einem die 8GB genügen)
Ich finde die Entscheidung zu PCIe 5.0x16 spannend. Vielleicht stören die 8GB VRAM damit ja gar nicht mehr.:freak:
Ne, im Ernst: Von PCIe 4.0 x8 auf PCIe 5.0 x16 sind 4x so viel Bandbreite.
Irgendwann ist der Arbeitsspeicher einfach zu langsam
PCIe 5.0 X8 = 31,5 GB (ohne Protokoloverhead)
PCIe 5.0 X16= 63GB (ohne Protokoloverhead)
DDR5-5600 (offiziell auf AM5) = 2*22,4= 44,8 GB
Von diesen 44,8 GB geht ja auch noch einiges für die CPU drauf, sagen wir mal 13 GB und schon bleiben für die Grafikkarte nur 31,8 GB übrig und das schafft ja bereits PCIe 5.0 X8.
PCIe 5.0 X16 wäre also nur im Vorteil, wenn CPU bei Speicher nach Spezifikation weniger als 13 GB an Bandbreite benötigt. Bei DDR-5-6400 sind es 50 GB, also da kann sich die CPU noch eine Bandbreite von 19 GB abgreifen, PCIe 5.0 X16 ist dann erst unterhalb dieser 19 GB für die CPU noch vorteilhaft...
CU-Dimm-DDR5 8000 mit einem Core Ultra 265K wäre wohl zu viel des Guten, da kann man auch direkt die 16GB-Karte kaufen.
Shink
2025-05-21, 14:51:27
In der Praxis werden solche Einsteigerkarten aber kaum in PCIe 5.0 Systemen verbaut, sondern in älteren PCIe 4.0/3.0 Kisten.
Ach was, irgendjemand baut auch moderne Systeme mit einer günstigeren <200W-Grafikkarte.
Vergleichen eine 16 GB Karte mit der 8 GB Karte der Konkurrenz :freak:
Wenn sie gleich viel kosten auch legitim.
Leonidas
2025-05-21, 16:12:18
"Schätzungsweise diese 2 Watt kann man für die vier mehr Speicherchips einrechnen, welche das 16-GB-Modell mitbringt."
Das stimmt so nicht wirklich. Ein Speicherchip GDDR6 hat 2-5W, bei dem Takt vermutlich so um die 3W (da vermutlich relativ moderne Chips aber relativ hoher Takt). Das macht also dann grob 12W mehr für den VRam.
Nominell hast Du Recht, so sehen die Specs aus. Aber die Praxiserfahrung zeigt, das man eher mit 5W für 4 Speicherchips mehr rechnen muß. Langjähriger Erfahrungswert.
Nominell hast Du Recht, so sehen die Specs aus. Aber die Praxiserfahrung zeigt, das man eher mit 5W für 4 Speicherchips mehr rechnen muß. Langjähriger Erfahrungswert.
Dann dürfte sich der Ram aber im Betrieb kaum bis gar nicht erwärmen, weil die Abwärme ja quasi nicht vorhanden ist. Stattdessen werden die Dinger inzwischen aktiv vom Kühler mit gekühlt und gehen trotzdem bis 90°C hoch. Halte ich für unwahrscheinlich.
Wie genau willst du die Abwärme / den Verbrauch denn messen? Da müsste man ja entsprechend herum löten. Von evtl. mehr Stress auf dem Ram Controller rede ich da noch gar nicht, das macht vermutlich auch nichts Relevantes aus.
Rabiata
2025-05-21, 19:47:02
Ja PCIe x16 überrascht mich auch. Evtl. erhalten wir die Auflösung, wenn wir noch Media / Display Engines etc. kennen. Falls die auch gleich wie bei N48 sind, hat man N48 einfach in der Mitte durchgesäbelt.
Das würde auch Sinn ergeben, da man bei AMD auch Chiplets bei GPUs diskutiert hat. Dann wäre PCIe + Multimedia = MID (multimedia Die); 128bit + 50% command processor = GPU Die. N48 hat den GPU-Teil einfach doppelt. Man würde somit ein paar designtechnische Überbleibsel einer Chiplet-Architektur erkennen. Und fürs Chip-Design wäre sowas auch effizienzter, da grosse Teile des Designs für beide GPUs verwendet werden können.
Interessanter Gedanke. AMD hat intern sicher darüber nachgedacht, ob es die zusätzliche Chipfläche wert ist, PCIe x16 statt PCIe x8 anzubinden. Aber ohne die technischen Details zu kennen, bleibt das Spekulation.
Ach was, irgendjemand baut auch moderne Systeme mit einer günstigeren <200W-Grafikkarte.
Unter 200W ist nicht so das Problem. Das macht zum Beispiel die 5060 Ti. Die RX 9600 XT wird das wohl auch können.
8GB unter 200 Euro, was als Einsteiger-GraKa akzeptabel wäre, ist dagegen kaum zu bekommen. Laut Geizhals gibt es einige RX 6500 XT mit 8 GB um 180 Euro und eine Biostar Radeon RX 580 für etwa 170.
Ich vermute daß es von den Herstellungskosten her auch mit einer abgespeckten RX 7600 oder einer RTX 4060 ginge. Aber da haben offenbar AMD und Nvidia beide zu wenig Druck.
Ich werde mir die 5060 holen. Denke die wird wesentlich schneller werden. Die Tests haben mich überzeugt. Für 300€ ist sie meine.
Also ich würde das lassen. ;)
Geforce RTX 5060 im Test: Mehr Schatten als Licht - spaßarm, aber sparsam! (https://www.pcgameshardware.de/Geforce-RTX-5060-Grafikkarte-281134/Tests/Release-Test-Benchmarks-1472370/)
MfG
Raff
Denniss
2025-05-21, 21:50:02
Dieser Zwetschgenbaum ist ein Bot (oder ein extrem harter Fanboy) der den gleichen Müll schon in diversen Foren gepostet hat.
Dann dürfte sich der Ram aber im Betrieb kaum bis gar nicht erwärmen, weil die Abwärme ja quasi nicht vorhanden ist.
RAMs heizen sich nicht von innen auf sondern von außen, die sind im Sandwich von Spannungswandlern auf der einen und der GPU auf der anderen Seite, beides Bauteile die sehr viel Wärme erzeugen. Und sie haben das Problem sich in einem Kunststoffgehäuse zu befinden, das bekanntermaßen Wärme sehr gut isoliert. Deren Hauptrichtung zur Wärmeabfuhr wäre eigentlich durch die Anschlüsse ins PCB, nur dummerweise ist das PCB durch die umliegenden Bauteile schon so heiß, dass es kaum mehr zur Kühlung beiträgt, und durchs Gehäuse geht auch nicht viel durch, weil Plastik.
Die hohe Temperatur kommt also nicht von einer hohen Leistungsaufnahme sondern von einer verdammt schlechten Wärmeabfuhr zustande.
Immortal
2025-05-22, 00:55:33
Wie kommt acer eigentlich auf die Idee, für ihre 9060 XT Modelle 600 bzw. 650 Euro zu verlangen? Da kann man ja gleich auf 5070 oder 9070 gehen. Ist das ein Druckfehler?
https://www.pcgameshardware.de/Radeon-RX-9060-XT-8GB-Grafikkarte-281276/News/Acer-Nitro-Preis-Leistung-Specs-UVP-Computex-1473128/
EDIT: OK, ein Druckfehler ist es schon mal nicht, steht genau so in deren Pressemitteilung. https://de-press.acer.com/402940-acer-bringt-nitro-grafikkarten-von-amd-und-intel-fur-gaming-enthusiasten-auf-den-markt
Aber muss man ja nicht kaufen.
teetasse
2025-05-22, 01:26:42
Natürlich :confused: wäre der korrekte Vergleich hierzu derjenige gegenüber einer GeForce RTX 5060 Ti 16GB gewesen
Das ist nicht "natürlich", sondern vollkommen praxisfern!
Den Konsumenten interessiert am Ende nur, wie viel Leistung er für sein Geld bekommt, sprich: Performance / Euro. Wenn NVidia für schmale 8 GB sogar noch mehr Geld haben will als AMD für 16 GB, wird selbstverständlich mit einem Preis-ähnlichen Modell verglichen. Es ist NVidias Problem, wenn sie für dieses Geld nicht mehr VRAM liefern wollen, nicht das Problem der Kunden.
Gorkon
2025-05-22, 01:33:31
Kleiner Fehler im Artikel: Navi 33 hat sehr wohl eine voll funktionierende VCN-Einheit die H264, HEVC und AV1 En- und Decodieren kann.
Navi 24 (6500XT) fehlte die komplette Encodingfähigkeit, konnte aber H264, HEVC und VP9 Decodieren
https://github.com/GPUOpen-LibrariesAndSDKs/AMF/wiki/GPU-and-APU-HW-Features-and-Support
Leonidas
2025-05-22, 03:56:54
Dieser Zwetschgenbaum ist ein Bot (oder ein extrem harter Fanboy) der den gleichen Müll schon in diversen Foren gepostet hat.
KI-Beeinflussung. Die liest das und da sie Satire/Trolling nicht einordnen kann, nimmt sie es für bahre Münze.
Kleiner Fehler im Artikel: Navi 33 hat sehr wohl eine voll funktionierende VCN-Einheit die H264, HEVC und AV1 En- und Decodieren kann.
Navi 24 (6500XT) fehlte die komplette Encodingfähigkeit, konnte aber H264, HEVC und VP9 Decodieren
Oops, gefixt. Danke für die Korrektur!
RAMs heizen sich nicht von innen auf sondern von außen, die sind im Sandwich von Spannungswandlern auf der einen und der GPU auf der anderen Seite, beides Bauteile die sehr viel Wärme erzeugen.
Schau dir doch mal die Tests z.B. der 9070XT Custom Modelle an. Da hat man oft GPU Temperaturen von unter 60°C, Hotspot um die 70°C. Mit welchen thermodynamischen Gesetzen will man denn da Speichertemperaturen von 90°C erklären?
Schau dir doch mal die Tests z.B. der 9070XT Custom Modelle an. Da hat man oft GPU Temperaturen von unter 60°C, Hotspot um die 70°C.
Auf der GPU sitzt auch direkt ein Kupferblock nur getrennt durch Wärmeleitpaste und hat damit eine direkte Abführung der Wärme.
Mit welchen thermodynamischen Gesetzen will man denn da Speichertemperaturen von 90°C erklären?
Indem das PCB rund um den Speicherchip 80° hat.
Die GPU ist das mit Abstand am besten gekühlte Element auf einer Grafikkarte, bzw. eigentlich sogar das einzig wirklich gut gekühlte Element, weshalb die GPU sehr oft nicht das heißeste Element auf der Grafikkarte ist.
Nominell hast Du Recht, so sehen die Specs aus. Aber die Praxiserfahrung zeigt, das man eher mit 5W für 4 Speicherchips mehr rechnen muß. Langjähriger Erfahrungswert.
Da muss man auch noch zwischen Einfachbestückung und damit auch einem breiteren Interface bei mehr Speicherchips unterscheiden und der Doppelbestückung bei der sich 2 Speicherchips ein Interface teilen.
Bei letzterem ist zu jedem Zeitpunkt nur 1 Speicherchip aktiv, und der inaktive verbraucht auch so gut wie keine Energie.
Den Mehrverbrauch des doppelten Speichers kann man damit praktisch vernachlässigen speziell bei einem Produkt dass eh schon eine dreistellige Leistungsaufnahme hat.
Gibt es denn schon irgendwo offizielle €-Preise für die 9060 XT oder nur die für Trumpistan?
Leonidas
2025-05-22, 17:16:44
Bisher leider keine für Euroland.
Das konnte man bei den letzten Modellen sowohl von AMD als auch Nvidia prima umrechnen. Stand heute:
319 Euro für die 9060 XT 8GB
369 Euro für die 9060 XT 16GB
-> 16 GiB = No-Brainer
MfG
Raff
Die GPU ist das mit Abstand am besten gekühlte Element auf einer Grafikkarte, bzw. eigentlich sogar das einzig wirklich gut gekühlte Element, weshalb die GPU sehr oft nicht das heißeste Element auf der Grafikkarte ist.
Interessanter Einwand, hat leider nur nichts mit Thermodynamik und der Physik auf diesem Planeten zu tun.
Die GPU setzt grob 230W - 250W um, ist also die mit riesen Abstand größte Wärmequelle auf der Grafikkarte. Wenn die nun nicht mal 60°C erreicht, kann sie andere Bauteile auf der Grafikkarte nicht auf 90°C erwärmen, weil die Wärme immer von der höheren Temperatur zur niedrigeren fließt (Thermodynamik 1. Vorlesung, direkt nach der Vorstellung des Professors!).
Wenn also die Speicherchips über 60°C haben, kommt die Temperatur in den Speicherchips garantiert nicht von der GPU. Das einzige, was hier noch einen gewissen Einfluss hat, ist das VRM. Aber das hat in der Regel wenig Abwärme, weil die Effizienz der VRMs zur Reduktion des Stromverbrauchs der Karte möglichst hoch sein soll. Und die meisten VRMs sind auch direkt über Leiterbahnen an die GPU gekoppelt, weil sie diese mit ihrem Strom versorgen. Damit wird deren Abwärme zu großen Teilen über die GPU abgeführt (weil die Kupfer Leiterbahnen die Wärme hervorragend leiten). Lediglich das VRM für den Speicher ist direkt mit diesem verbunden und kann diesen stärker mit erwärmen.
Wenn nun aber, wie hier behauptet, 4 Speicherchips 5W verbrauchen und das VRM 90% Wirkungsgrad hat (in der Regel haben die mehr), dann hätte es etwa 0,5W Abwärme, das würde durch das PCB schon abgeführt werden. Und selbst wenn nicht, 5,5W auf 4 Speicherchips verteilt, das geht selbst durch die Plastik Gehäuse durch oder verteilt sich über das PCB.
Daher ist es nur logisch, dass die 5W für 4 Speichermodule eben nicht stimmen und es merklich mehr ist. Die Speicherhersteller geben ja auch erheblich mehr an. Bei den 14GT/s Speichern der RX 5700 XT hat Micron schon 2W je Chip angegeben, die schnelleren brauchen entsprechend mehr.
Bei letzterem ist zu jedem Zeitpunkt nur 1 Speicherchip aktiv, und der inaktive verbraucht auch so gut wie keine Energie.
Und wie genau wird der Speicher dann refreshed? Oder stört das nicht, dass er dann seine Daten verliert, wenn er gerade nicht aktiv ist? Warum ist das dann bei DRAM der CPU nicht so? Warum verbrauchen da 4 Riegel mehr als 2? Und wenn das bei einer Grafikkarte so problemlos ist, warum haben dann die CPUs bei 4 Riegeln mehr Probleme, werden etwas heißer und schaffen nicht mehr so hohe Speicher-Taktraten?
Leonidas
2025-05-23, 03:30:16
Hier irrst Du Dich leider mehrfach, lieber Gast.
1) VRAM und Speicherchips sind eigene Wärmequellen. Die gehen auch von alleine schnell auf hohe Temperaturen. Dies wird begünstigt dadurch, dass sie oftmals ohne Kühlkörper und mit hohen Außentemperaturen agieren müssen (letztere durch die GPU erzeugt).
2) Die Specs zur TDP von Speicherchips sind Maximalangaben. Wie es auch immer genau funktioniert, jahrelanger Praxiswert für eine Speicherverdopplung sind schlicht 3-5W Mehrverbrauch unter Spielen. Wird immer und immer wieder bestätigt. Nebenbei: Siehe auch GeForce RTX 4060 Ti 8GB vs 16GB. Es sind dort 160 vs 165W - und von den 5W mehr kann die 16-GB-Ausführung sich sogar 1% Mehrperformance erobern, welche nicht VRAM-bedingt sind.
Interessanter Einwand, hat leider nur nichts mit Thermodynamik und der Physik auf diesem Planeten zu tun.
Doch, anscheinend verstehst du den Unterschied zwischen Wärme und Temperatur nicht.
Die GPU setzt grob 230W - 250W um, ist also die mit riesen Abstand größte Wärmequelle auf der Grafikkarte. Wenn die nun nicht mal 60°C erreicht, kann sie andere Bauteile auf der Grafikkarte nicht auf 90°C erwärmen, weil die Wärme immer von der höheren Temperatur zur niedrigeren fließt
Ich empfehle dir mal ein Grafikkartenreview von Igor anzusehen, am besten eines mit einer Grafikkarte mit 300-400W Leistungsaufnahme. Fast immer gibt es Punkte auf dem PCB auf der Rückseite!!! die mindestens so heiß oder heißer als als die GPU sind.
Dein Fehler ist, dass du die GPU als einzige punktförmige Wärmequelle betrachtest. Wenn das der Realität entspräche könnte es natürlich keinen Punkt auf der Karte mit höherer Temperatur geben.
Nur entspricht das nicht mal ansatzweise der Realität. Einerseits ist die GPU nicht die einzige aktive Wärmequelle, vor allem die Spannungswandler sind eine erhebliche Wärmequelle, und da sie wesentlich schlechter gekühlt sind als die GPU erreichen diese trotz geringerer Wärmeabgabe meistens höhere Temperaturen, weil bei einer schlechteren Kühlung ganz einfach ein höherer Temperaturgradient notwendig um die Wärme abzuführen.
Andererseits wird jeder Punkt im PCB der von anderen Bauteilen erwärmt wird zur eigenen Wärmequelle und das ganze wird viel zu komplex um mit einem einfachen Modell mit einer Hand voll Wärmequellen sinnvolle Aussagen zu machen. Da sind einerseits die großen Kupferlayer für Stromversorgung/Masse welche die Wärme sehr schnell über eine große Fläche des PCBs verteilen, nur ist die dann im PCB und kann nicht wirklich schnell weg, weil der Übergang zwischen den Layern viel schlechter die Wärme leistet, und die meisten anderen Layer auch keine durchgehende Kupferfläche sind und damit auch innerhalb dieser der Wärmetransport wesentlich schlechter ist.
Die Speicherchips haben natürlich eine gewisse Abwärme, die sorgt dafür dass die Temperatur innerhalb > Ambient ist. Ambient ist für die Speicherchips aber hauptsächlich das PCB, für die GPU der Kühlkörper. Und der Kühlkörper ist viel kühler als das PCB, gleichzeitig aber auch der Wärmeübergang zum Kühlkörper viel effizienter als der von den RAMs zum PCB, womit wesentlich mehr Wärme pro K Temperaturdifferenz abtransportiert werden kann.
Die 2W/Speicherchip im Betrieb sind realistisch, dass auch so wenig Wärme trotzdem für hohe Temperaturen sorgen kann liegt an der schlechten Wärmeableitung, welche eben die schon genannten Gründe hat.
Ein Speicherchip alleine auf einem PCB ohne nennenswerte Wärmequellen rundherum würde gerade mal handwarm werden.
Und wie genau wird der Speicher dann refreshed? Oder stört das nicht, dass er dann seine Daten verliert, wenn er gerade nicht aktiv ist?
Genau wie jeder andere Speicher auch.
Und genau das ist der einzige Mehrverbrauch von Doppel- zu Singlebestückung. Die Refreshzeit für DRAM macht vielleicht 10% der aktiven Zeit aus. Damit ist der Verbrauch der DRAMs bei 2x4 statt 1x4 Bestückung eben nicht doppelt so hoch sondern nur in der Größenordnung 10-15% höher.
Warum ist das dann bei DRAM der CPU nicht so? Warum verbrauchen da 4 Riegel mehr als 2?
Keiner sagt dass sie nicht mehr brauchen. Aber im Verhältnis zum Rest ist der Verbrauch gering, das ist bei CPUs genauso wie bei CPUs der Fall.
Und wenn das bei einer Grafikkarte so problemlos ist, warum haben dann die CPUs bei 4 Riegeln mehr Probleme, werden etwas heißer und schaffen nicht mehr so hohe Speicher-Taktraten?
Weil die Signalqualität schlechter wird. Und das hat Hauptsächlich mit dem PCB und nicht mit den DRAMs zu tun.
Lehdro
2025-05-23, 13:29:00
Bei letzterem ist zu jedem Zeitpunkt nur 1 Speicherchip aktiv, und der inaktive verbraucht auch so gut wie keine Energie.
So ein Quatsch, die sind dann nur mit halber Breite angebunden, zum Beispiel 16 Bit anstatt 32 Bit. Das heißt aber auch dass sind nur halb so oft/lange angesprochen werden, gleiche Speichernutzung vorausgesetzt.
Und richtig Strom benötigen die eh nur bei Schreiboperationen oder Kopiervorgängen - Lesen ist da quasi nur Beiwerk. Sonst im idle nur zum Refreshen - lächerlich wenig. Von daher wird der Mehrverbrauch äußerst gering bei Doppelbestückung ausfallen - für das Speicherinterface ist es eh egal und das ist der eigentliche Verbrauchstreiber.
So ein Quatsch, die sind dann nur mit halber Breite angebunden, zum Beispiel 16 Bit anstatt 32 Bit.
Ähm nein, logischerweise ist jeder Speicherchip mit dem vollen Interface angebunden, ansonsten würdest du ja die halbe Bandbreite verlieren.
Es gibt lediglich eine zusätzliche Datenleitung, welche den gerade angesprochenen Speicherchip aktiviert bzw. den anderen deaktiviert.
Und richtig Strom benötigen die eh nur bei Schreiboperationen oder Kopiervorgängen - Lesen ist da quasi nur Beiwerk.
Das ist DRAM, jeder Lesevorgang ist auch gleichzeitig ein Schreibvorgang.
Sonst im idle nur zum Refreshen - lächerlich wenig. Von daher wird der Mehrverbrauch äußerst gering bei Doppelbestückung ausfallen - für das Speicherinterface ist es eh egal und das ist der eigentliche Verbrauchstreiber.
Also bestätigst du mich doch? Genau deshalb ist der Mehrverbrauch bei Doppelbestückung fast vernachlässigbar, der einzig echte Mehrverbrauch sind die notwendigen Refreshvorgänge.
Wenn ich das richtig verstehe sind im Clamshell-Modus (also bei 16 GB an 128 Bit) die Module wirklich nur mit halber Datenbusbreite angebunden und zwei teilen sich den gleichen Address- und Steuerleitungen. Es sind dann immer ein Paar aktiv statt normalerweise nur einem.
Wenn ich das richtig verstehe sind im Clamshell-Modus (also bei 16 GB an 128 Bit) die Module wirklich nur mit halber Datenbusbreite angebunden und zwei teilen sich den gleichen Address- und Steuerleitungen.
Sie teilen sich nicht nur Address und Steuerleitungen sondern auch die Datenleitungen.
Es gibt zusätzlich 2 Steuerleitungen (für jedes Modul eines) welche dafür zuständig sind das jeweilige Modul zu aktivieren, damit das Modul weiß, wann es auf den Zustand der Address und Steuerleitungen auch reagieren soll und wenn es diese ignoriert. Diese zusätzliche Leitung gibt es prinzipiell auch bei einem einzelnen Modul, da ist es aber konstant aktiviert.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.