PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 25. März 2022


Leonidas
2022-03-26, 08:03:50
Link zur News:
https://www.3dcenter.org/news/news-des-25-maerz-2022

Gast
2022-03-26, 09:42:14
Aber es sorgt natürlich Wildwuchs vor, wenn feste Standards auch für diese Grenzbereiche definiert sind. Gleichfalls bekommen die Netzteil-Hersteller eine klare Maßgabe an die Hand, wie jene ihre PCIe-5.0-Netzteile auszulegen haben – was Stromversorgungs-Problemen in der Zukunft vorbeugen sollte.

In erster Linie sorgt es dafür, dass Netzteilhersteller keine übereifrigen Schutzmechanismen einbauen dürfen.

Hjalmar
2022-03-26, 09:55:02
Junge, Junge. Wenn man sich so den Kühler anschaut..... RTX 3090TI - Der Wahnsinn hat einen Namen xD

iamthebear
2022-03-26, 11:21:22
Also bezogen auf die nächste Generation könnte ich mit den 450W ja noch leben. Dann stelle ich das Power Limit einfach runter und zocke mit 10% weniger Performance, was bei einer 4080 wahrscheinlich immer noch schnell genug ist.
3.5 Slot Kühler sind aber echt Mist. Damit wird ja in der Regel der 2. PCIe 16x Slot verdeckt. Wie soll ich dann den RAID Controller einbauen?

Leonidas
2022-03-26, 11:37:01
An der Stelle wird aus "technischer Fortschritt" dann "Übertreibung".

Gast
2022-03-26, 13:17:12
Alle RTX 3000er Karten schaffen 21 GBs VRAM-Geschwindigkeit. Ich hatte 2 RTX 3090 (ASUS TUF und Manli), eine RTX 3070 FE und aktuell habe ich eine RTX 3080 Ti (PNY). Das ist auch kein Wunder, da die GDDR6X-Speicherchips schon immer für diese Geschwindigkeit spezifiziert waren. Nvidia hat den Speicher jedoch wegen der hohen Temperatur gedrosselt auf maximal 19,5 GBs. Der Speicher macht schon 3-5% der Mehrleistung aus.
OC halte ich bei der derzeitigen Generation für kompletten Unsinn (außer für Benchmarks natürlich), die Leistungsaufnahme explodiert.

Thomas Gräf
2022-03-26, 13:50:25
Also bezogen auf die nächste Generation könnte ich mit den 450W ja noch leben. Dann stelle ich das Power Limit einfach runter und zocke mit 10% weniger Performance, was bei einer 4080 wahrscheinlich immer noch schnell genug ist.
3.5 Slot Kühler sind aber echt Mist. Damit wird ja in der Regel der 2. PCIe 16x Slot verdeckt. Wie soll ich dann den RAID Controller einbauen?

Es gibt ne elegante Möglichkeit aus solch 3090 wieder fast eine 1 Slot Karte zu machen.
Gerade für dieses Top End Teil wär das sogar "Pflicht". ;)

Rabiata
2022-03-26, 13:54:13
Die Wortwahl "Treiber" zur Aushandlung des höheren Grafikkarten-Stromverbrauchs bei entsprechenden Netzteilen ist vielleicht zu stark verkürzt, da mittels Treibern keine Stromlimitierung denkbar erscheint – dafür sind schnell schaltende Hardware-Bauteile auf der Grafikkarte notwendig. Allerdings ist der Treiber der einzige, welcher das Vorhandsein dieser Schaltungen dem Netzteil zurückmelden kann – womit dann Netzteil-seitig eine höhere Leistungsaufnahme freigegeben wird.
Das geht auch ohne Softwarelösung. Der Hersteller des Netzteils kann eine kurzfristige Überlastreserve auch ohne Datentransfer einbauen. Das Netzteil kann dann für kurze Zeit eine vorgegebene Mehrleistung liefern, z.B. 200% der Nennleistung für eine Sekunde. Analog zu PL1/PL2 bei Intel CPUs. Generell ist es kein Problem, wenn das Netzteil mehr liefern kann als verbraucht wird.

Umgekehrt ist es tatsächlich ein Problem, und da könnte eine Softwarelösung sinnvoll sein: Das Netzteil teilt CPU und GPU mit, was es kann, und die Hardware geht mit den Verbrauch runter wenn es knapp wird. Zum Beispiel durch Selbst-Untertakten. Nvidia hat bei Problemen mit RTX 3080/3090 auch schon mal das GraKa-BIOS geändert um die Verbrauchs-Spikes weniger aggressiv zu machen.
Es gibt ne elegante Möglichkeit aus solch 3090 wieder fast eine 1 Slot Karte zu machen.
Gerade für dieses Top End Teil wär das sogar "Pflicht". ;)
Da ist dann aber immer noch der dicke Kühler im Weg -> Verbrauch gesenkt, andere PCI-Slots immer noch blockiert ;) Oder hab ich da was falsch verstanden?

Denniss
2022-03-26, 14:03:38
Gibt es im neuen ATX-Stecker nicht die Sense-Pins mit denen sich Grafikkarte und Netzteil quasi auf die verfügbare Leistung verständigen?
Gibt's ja im alten 6+2 auch schon

Leonidas
2022-03-26, 14:14:24
Ja, das ist aber separat. Die 2 extra Pins teilen dem Netzteil mit, was der Stecker grundsätzlich kann. Aber die Infos, dass alles normalgerecht ist und somit mehr als 375W in der Maximal-Konfig möglich ist, kommt extra.

iamthebear
2022-03-26, 14:35:33
Solche Spezifikationen sind natürlich sinnvoll damit man sein Netzteil nicht doppelt überdimensionieren muss damit es bei kurzen Spannungsspitzen nicht sofort aussteigt.

Was ich allerdings als ziemlichen Schwachsinn empfine ist die Lösung mit dem "Treiber".
Wenn man zwischen 375W und 600W Modus unterscheiden will dann soll man doch bitte einfach eine Leitung kurzschließen aber aktuell wird das Ganze wieder sinnlos verkompliziert.
Falls die 600W wirklich nur durch elden Grafiktreiber ermöglicht werden können wenn das OS bereits läuft dann ist das der falsche Ansatz. Das schließt alle zukünftigen nicht GPU Geräte sofort aus wenn diese die Leistung bereits beim Booten benötigen z.B. Storagesysteme. Heute ist das vielleicht noch kein großes Thema aber in 10-20 Jahren sieht das vielleicht schon ganz anders aus.

Korvaun
2022-03-26, 14:54:30
Das ist wohl der "Preis" des sehr engen Performance-Rennens zwischen AMD/nV. Wer der Schnellste sein will muss alles nutzen, inklusive Verbrauch hochprügeln bis über die Kotzgrenze hinaus... wäre alles kein Problem wenn das nur die Top-Karten betreffen würde. Leider ziehen aber auch alle kleineren Karten im Verbrauch mit an :(

Thomas Gräf
2022-03-26, 15:20:57
...
Da ist dann aber immer noch der dicke Kühler im Weg -> Verbrauch gesenkt, andere PCI-Slots immer noch blockiert ;) Oder hab ich da was falsch verstanden?

Naja ein FullCover Wakü Block is so 2 bis max 3cm dick.

Gast
2022-03-26, 15:26:58
An der Stelle wird aus "technischer Fortschritt" dann "Übertreibung".

Sehr richtig erkannt, das was viele Hersteller (nicht nur Hardware) in letzter Zeit entwickeln sind keine Produkte, sondern es sind Intelligenztests.

Nach den Motto: Wie dumm sind die "Milchkühe" wirklich?
300W, 400W, 600W Verbrauch alles kein Problem, kein technischer Fortschritt .... alles kein Problem?!?!


Entwicklung zwischen 2016 (1050Ti) und 2022 (3050):

GTX3050 = 2 x 1050Ti (gilt für die Leistung und Verbrauch)


Entwicklung zwischen 2012 (650Ti) und 2016 (1050Ti):

Verbrauch:
1050Ti = 650Ti

Leistung:
1050Ti = 2 x 650 Ti


Das muss man sich auf der Zunge zergehen lassen: man hat 6 Jahre lang "geforscht" und alles was dabei raus kam ist: doppelte Leistung = doppelter Verbrauch.

Gast
2022-03-26, 15:54:47
Ich finde das alles sehr geil und eine gute Entwicklung, mit dem steigendem Verbrauch, nun bei Enthusiasten-Grafikkarten bis 400 - 450 W, neuen Kabeln/Steckern.
Das sorgt alles für bessere und optimierte Kühllösungen, von denen auch die Grafikkarten mit weniger Verbrauch profitieren.

Stromverbrauch kann jeder selber limitieren; 20 - 50 % runter und schon sind es wieder gesamt 300 W, aber nur 5 - 15 % langsamer.
Custom Grafikkarten die 30 % mehr verbrauchen und nur 5 - 10 % schneller sind, standen schon IMMER zum Verkauf; wer es kaufen wollte hat es getan.

Über dies alles zu meckern ist wie sich künstlich über Staatsfernsehen/-medien, RTL 2 psyop/agitpop Gehinrwäsche mit Dieter Bohlen aufzuregen. Lustiger Zeitvertreib, wie in der Kneipe was zum Tratschen.

Wird eine gesamt 450 W Grafikkarte 10 % über der "Kotzgrenze" betrieben, heißt dies immer noch dass diese gebaut wurde um bei 400 W effizient ihren Dienst zu verrichten.
Solange Grafikkarten etc. jede Generation in Metrik FPS/Watt immer besser werden, ist das Meckern also unnütz. Und genau das tun diese.
Ob nun rtx 3080 320 W verbraucht, und demnächst rtx 4070 320 W, ist egal; sind nur Namen.

Die Menschen die jene Hardware entwickeln und Grafikkartentreiber anbieten machen ihre Sache sehr gut.
Das Problem im PC-Desktopbereich, warum es so absurd viel Leistung benötigt, obwohl die Konsolen immer deutlich effizienter sind, liegt anderswo
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12960120#post12960120

Da sollte sich alle Konsumeten erst an die Nase fassen, die Scheiß Zentralisierung des Konsums/Umsatzes unterlassen, und aufhören GaaS, free to play fokussiert mit Abhängigkeits- und Suchtelementen, Miktrotransaktionen, You'll own nothing Online-DRM-Scheiß + Miktrotransaktionen wie GT7 etc. unterstützen.
Dann läuft vllt. auch der Elden Ring Nachfolger nicht mit 60 fps, sondern gut optimiert mit 100 fps.
Dann reicht auch eine rtx 3060, anstatt rtx 3080.
;)

Thomas Gräf
2022-03-26, 16:20:39
Schon sehr interessant dieser Vergleich. Auch vom Zeitrahmen her.
Da is nV wohl in die gleiche Bredouille geraten wie Intel.

iamthebear
2022-03-26, 18:29:28
1.) Diese Performance/Watt Vergleiche sind sinnlos wenn man nicht entweder bei derselben Performance oder beim selben Takt vergleicht, da Verlustleistung nicht linear mit dem Takt skaliert. Eine RTX 3050 wird viel weniger als eine 1050 Ti verbrauchen wenn man sie mit den halben Taktraten betreibt und eine 1050 Ti wird wenn man sie auf die Verlustleistung einer 3050 hochtaktet deutlich weniger Leistung haben.
Auch wenn man größere Karten wie z.B. eine 1070 vergleicht wird man feststellen, dass diese bei selber Performance deutlich mehr verbraucht.

Dass die Entwicklung langsamer geht als früher ist klar. Moores Law ist einfach ziemlich am Ende.

Und ja natürlich treiben Nvidia und AMD ihre Karten deutlich höher als es sein müsste aber erstens verlangt es der Markt so und zweitens kann sich sowieso jeder der es nicht will das Powerlimit runter stellen.

2.) Ich muss zugeben 10% mehr als eine Referenz 3090 sind für die 3090 Ti echt nicht berauschend.
450W AIB Modelle (z.B. Suprim X) sind schon 6% schneller. 4% für das ganze Binning, 2 Shader mehr und höheren Speichertakt sind jetzt nicht besonders viel.

Wenn man diese Generation unbedingt noch kaufen will: Der beste Deal bleiben weiterhin die 3080 oder 6800 XT.

Gastein
2022-03-26, 18:43:46
Muhaha… bei AMD gabs wenigstens ne AIO Wakü bei deren Exzessen. ;D

Seí“s drum. Das Ding ist eh für ne Hand voll Reviiew Tester vorbehalten.

Thomas Gräf
2022-03-26, 22:09:59
Neenee ich hatte die Aio von AMD damals. Das war ein Notnagel mehr nich.
Solch TopEnd Karte muss erstmal unter Lukü laufen können, erst dann kannste mit FullCover Wakü was erreichen wo man sagen könnte hey das is gut.

Aber wie Du schon sagst, diese 3090ti wird ne Reviewer Karte sein.

Nightspider
2022-03-26, 22:20:04
Ich hätte es gut gefunden wenn AMD mit einer 6900 Green gekontert hätte mit -5% Speed und -25% Leistungsaufnahme.

GerryB
2022-03-26, 23:19:06
Ne 6950@337,5W ist sogar mit unverändertem Kühler drin und nur 2x 8pin.
Muss man erstmal abwarten wieviel von den theor. mooore W dann der schnellere Vram+SOC zusätzlich wegnimmt.
aber
Mehr als 7,5W werdens net sein, ... somit bleiben der GPU selbst dann 30W mehr ggü. der 6900, falls die
gewünschte Range tatsächlich 450W x0,75 gewählt würde.

Die 6950 wird dann wohl ein mue über der LC rauskommen. (nuuur extra gebinnte Chips ?)
(vermutlich GFX+Fclk+Vram-Takt ein mue höher bei ähnlichem Verbrauch)

Gast
2022-03-26, 23:39:40
Muhaha… bei AMD gabs wenigstens ne AIO Wakü bei deren Exzessen. ;D


Die schlechter sind als die gezeigten Luftkühlungen.

Gast
2022-03-27, 01:38:53
Mich tangiert dieser Schwachsinn von Nvidia einfach nicht mehr, der Nächste Ampere alias GA102! Wieviel von dem Müll will man noch auf den Markt werfen. 3080, 308012g, 3080ti, 3090, 3090ti, was soll dieser Blödsinn!!!!! Bringt am Besten noch ne 3080ti 24g. Sonst fühlt die sich so allein.

Wenn man sieht was die dafür, für einen Aufwand betreiben und AMD einfach seine 6900 binnt, fragt man sich was dieser Schwachsinn soll. Die müssen die Hosen vor RTG mächtig voll haben. Ich denke die 3090 ist eh die schnellste Karte? Wozu braucht man dann noch eine 3090ti, die Leute auf steigende Preise bei Ada vorbereiten? Aber wer kauft überhaupt in diesen Preisregionen, doch nicht mal 5%! Die Miner brauchen diesen instabilen Quark nicht. Und Gamer? Geben die tatsächlich für 8% Mehrleistung 500 oder 1000 Euro, bzw. doppelt so viel mehr aus? Die sind doch nicht mehr ganz klar im Kopf. So aufgeblasene Designs interessieren Pro Kunden auch nicht, die wollen keinen Stromgenerator neben dem PC stehen haben.

Ich denke sie sind die Marktführer, 80 zu 20 Marktanteil? Wieso für jedes Derivat ein Gegenderivat? Wer kauft Ferraries? Die Allgemeinheit? In dem Bereich tut Nvidia gar nichts. Gääähhhnnn...können sie sich an den Hut stecken diesen Schwachsinn. Nischenprodukte ohne Ende, weil man sich vermutlich mit GA102 die Wände tapizieren kann und diesen ganzen Berg bis zur nächsten Gen nicht mehr los wird. Da erfinde ich noch zig Produkte um dem Käufer ständig vorzugaukeln, er kauft was neues. Ich zumindest würde keinen GA102 mehr kaufen, wenn als bald die neue Gen erscheint. Wen interessiert dieser Hardwareschrott noch. Wer so lange gewartet hat, kanns die letzten paar Monate auch noch! Die Leute haben derzeit was ganz anderes im Kopf als Grafikkarten, denen wird mit Wegfall der Coronabeschränkungen gerade das frühere Leben wieder zurückgegeben, Hardware interessiert daher gerade niemanden! Wahrscheinlich cheken die das bei NVidia nicht, genauso wenig wie ihre Preisgestaltung an der Basis.

Das wird immer lächerlicher...Ver*rsche pur.

GerryB
2022-03-27, 07:08:47
Die schlechter sind als die gezeigten Luftkühlungen.
Hää?

Die AiO+Cooler der Strixx ist net schlecht, die kühlt auch den Vram bei der 6800xt/6900 mit.
(und die Pumpe geht von der Lautstärke her)

btw.
Man darf auch net vergessen, das die Wärmeableitfläche bei AMD deutlich kleiner ist.

edit: auch die AMD-AiO von der LC kann ganz schön Was ab (siehe Anhang)
52° GPU-Edge im TS-Bench bei Apollo mit deutlich mooore W ggü. Stock, ... da muss ne 3090Ti@OCen mit 600W erst mal rankommen.
... mit Eiswolf 2 gehts dann noch 11°C runter, ... trotz etwas mehr W

Gast
2022-03-27, 09:59:42
Hää?

Die AiO+Cooler der Strixx ist net schlecht, die kühlt auch den Vram bei der 6800xt/6900 mit.
(und die Pumpe geht von der Lautstärke her)


Strixx ist kein AMD Produkt, das sind die diversen LC-Editionen mancher Karten.


btw.
Man darf auch net vergessen, das die Wärmeableitfläche bei AMD deutlich kleiner ist.


Genau das ist der Punkt warum die Wasserkühlungen in der Form nur Show sind.

Wasser ist nicht per se besser, der große Vorteil von Wasserkühlungen sind die Entkoppelung von Wärmeaufnahme und Wärmeabgabe, und damit der Möglichkeit die Fläche der Wärmeabgabe quasi beliebig zu skalieren ohne von den geometrischen Gegebenheiten der Wärmequelle abhängig zu sein.

Wenn man statt dem hier gezeigten Luftkühler eine Wasserkühlung mit 120er Radiator einsetzt ist das einfach nur Show um zu zeigen, schau wir haben Wasser.

Zumindest ein 240er Radiator ist notwendig um mit dem hier gezeigten Kühlkörper in etwa gleichzuziehen, wenn man aber einen nennenswerten Vorteil haben will sollte es eher in die Richtung 360er gehen.

Eine Ausnahme wäre noch wenn man die Radiatoren außerhalb des Gehäuses platzieren würde, wenn man kühle Raumluft statt warmer Gehäuseluft für die Kühlung verwendet, hätte man schon mit deutlich kleineren Ausmaßen deutliche Vorteile.

Bisher sind AIOs dafür aber nicht vorgesehen, weil man die Verschlauchung dafür erst an Ort und Stelle machen müsste, wobei es denkbar wäre, dass man die Schläuche direkt über die IO-Blende nach außen führt. Mir ist allerdings keine derartige Lösung bekannt.

Ein eindeutiges Zeichen dass die AIO Schwachsinn ist, ist es wenn man trotzdem noch einen Lüfter direkt an der Karte benötigt. Bei einer vernünftigen Wasserkühlung sollte das nicht notwendig sein.

Gast
2022-03-27, 10:55:29
Ich verstehe es ehrlich gesagt auch nicht mehr, noch ein GA102. Das was NV hier supportet schafft doch jede 3090 Custom. Nun macht man das offiziell.

5x GA102 in einer Gen, naja früher hat man zumindest gewusst warum man soviel zahlt. Man hatte das absolute Highend. Highend sind nur noch die Preise, da scheint kein 3nde absehbar. Titan/Titane ist absolut ausgehöhlt, vor allem wenn Mittelklasse teilweise schon 1k kostet.

Bin auch nicht mehr bereit das noch mitzumachen. Das Problem von Ampere, eben untenrum eher zu schwächeln (1080p), beseitigt auch eine 3090ti nicht. Genau da spielt AMD seine Vorteile aus, wo geringe Auflösungen eben den Großteil des Wettbewerbs ausmachen. Hat NV scheinbar bis heute nicht kapiert, machten sie früher aber genauso. Weder eine 308012g noch die 3080ti oder eine 3090ti braucht es wirklich. Dazu noch LHR oder non LHR da sieht mittlerweile kaum noch einer durch und bewegen sich alle Karte in ei em Fenster von 10% Mehrleistung. Was soll das?

Die sollen endlich eine 3070ti16G für annehmbare Preise bringen. Dann könnte man zumindest die 1070 Fraktion bedienen.

GerryB
2022-03-27, 17:58:17
Strixx ist kein AMD Produkt, das sind die diversen LC-Editionen mancher Karten....

Das ist ja ein totaler Quark. (NV baut auch keine eigenen AiO-Editionen.)
Dem Käufer ist egal, Wer Was baut.


Ein eindeutiges Zeichen dass die AIO Schwachsinn ist, ist es wenn man trotzdem noch einen Lüfter direkt an der Karte benötigt. Bei einer vernünftigen Wasserkühlung sollte das nicht notwendig sein.

Why not!?
300W abzgl. 60W an der Graka diekt sind nur 240W per AiO.
Der Lüfter auf der Graka kühlt die Spawas ausreichend und die Backplate nimmt auch noch nen Teil.
Warum sollte man die 60W sinnlos per Schlauch irgendwo hinschaffen.

Wem die Größe/Lautstärke des AiO-Radi net reicht, der kann ja erstmal Push+Pull in Betracht ziehen, ... natürlich mit kalter Luft von Außen.

btw.
Die seeehr kleine AiO bei AMD scheint aber seit FuryX+Vega64 zu funzen.
Es ist ein Unterschied, ob man mit 240er Radi 30°C oder mit 120er 60°C Wassertemp. hat.
Am Ende zählt nur die abgeführte Wärmemenge.

Gast
2022-03-27, 18:54:18
Das ist ja ein totaler Quark. (NV baut auch keine eigenen AiO-Editionen.)
Dem Käufer ist egal, Wer Was baut.


Aber AMD gibt die eigenen LC-Editions in Auftrag.

Sinnvoller dimensionierte AOIs von Kartenherstellern für AMD und NV, das hat aber nichts mit AMD und NV zu tun.


Why not!?


Weil ich, wenn ich schon eine Kühlung mit Ablaufdatum anschaffe ich deutliche Vorteile gegenüber den besten Luftkühlungen haben will, und nicht nur etwas annähernd gleich gutes.

Daher deutlich geringere Temperaturen Richtung 40° für deutlich höhere Taktraten, kombiniert mit deutlich geringerer Lautstärke.

Mit den AIOs der LC Editionen komm ich immer noch nicht deutlich unter 60°, was und bin damit nicht leiser als eine entsprechend Dimensionierte Luftkühlung, muss Zero-Fan aufgeben und hab ein inhärentes Ablaufdatum und damit mehr Nachteile als eine vernünftig dimensionierte Luftkühlung und keine nennenswerten Vorteile.

Das vernünftigste wäre überhaupt derartige Karten einfach mit vormontiertem Wasserblock zu verkaufen, den man dann in die vorhandene Wasserkühlung integriert.