Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 6. Juli 2022
Leonidas
2022-07-07, 08:19:31
Link zur News:
https://www.3dcenter.org/news/news-des-6-juli-2022
konkretor
2022-07-07, 08:55:25
https://www.pcgameshardware.de/Intel-Arc-Grafikkarte-267650/Videos/e-schrott-rant-gtx-1630-rx-6400-arc-a380-1398556/
Ich hab nach der Hälfte ausgemacht.
So lange es ein Verkäufermarkt ist/war , haben die Hersteller genau das gemacht was immer passiert in so einem Markt. Die Qualität und Features werden auf ein Minimum reduziert. Der Kunde kauft ja so oder so. Der Markt regelt das.
Der Markt hat gezeigt 1000 € für eine mal 400 € Karte sind ohne Probleme machbar.
Aktuell muss die Nachfrage immer noch sehr hoch sein.
Eine 3050 ist immer noch nicht unter 300 € gerutscht.
GrimReaper85
2022-07-07, 09:24:50
Ich bin sehr überrascht von 3080 10GB Undervolt-Ergebnissen, nur 220W und -6 %. Mit meiner Suprim X 3080 12GB verliere ich 9% auf meine primäre Unterspannung von 775 mV. Und es verbraucht 250-290W. Der niedrigste Wert, den ich erreichen kann, bevor der Speicher auf 5000 MHz abfällt, ist 743 mV, immer noch 250W.
Aufgrund dieses hohen Verbrauchs konnte ich nicht anders, als RX 6800 für 630€ zu kaufen. Mein Ziel sind 160W und immer noch fast 3080 775 mV Leistung.
Ich habe auch über 4080 420W und 4090 450W Undervolting nachgedacht, aber jetzt glaube ich nicht, dass Sie 250W erreichen können. Zumindest nicht, indem man nur 10-15% Leistung einbüßt. Ich könnte mich aber irren, ich kann immer noch auf die Veröffentlichung warten und einige Undervolting-Ergebnisse. Der Preis wird auch ein großer Faktor sein, da die Geschwindigkeit so stark reduziert wird, 800€ sind kein Problem, aber 2000€ sind es nicht wert für starke Unterspannungen.
Ich denke, ich habe mit RX 6800 vorerst eine gute Wahl getroffen, ich kann ruhig bis Juli 2023 warten, bis alle Karten jetzt veröffentlicht werden.
Die Eonordnung ist doch ziemlich einfach, einen 4070 die soviel wie einen 3080ti oder mehr leistet und hätte 12GiB Vram hätte, würde den Großteil der überteurten Karten wie eine 4080 oder 4090 komplett obsolet machen. Die würden wahrscheinlich nur 1-2% kaufen.
So wird man nun gezwungen eine 16 oder 24GiB Karte zu kaufen weil die 10GiB der 4070 wohl nicht für alles reichen. Ist ja heute schon bei 3080 so.
Man will also hauptsächlich überteuertes Zeug verkaufen. 16GiB oder 24GiB haben dabei absolut keinen Nutzen für Gamer, 12 GiB schon. Das weiß Nvidia ganz genau.
Aber, ich kaufe eh keine Mittelklasse bei 300w und noch mehr Verbrauch, können sie gerne behalten. Alles darunter wird vermutlich weniger VRAM haben und ist eigentlich IT Schrott. Hoffe AMD bringt eine 7700 oder 7750 mit 12 GiB zum moderaten Preis und angemessenem Verbrauch. Sollte zumindest für 2-4K Session reichen. 12GiB müssen einfach sein, da sieht man mal wie scheißegal Nvidia die Ansprüche der Gamer sind.
Legendenkiller
2022-07-07, 09:51:37
Bei Undervolting musst du auch beim Ram was machen.
Zumindest wenn du mehr als 10% weniger verbrauch erreichen möchtst.
Speziel der GDDR6X ist ein echter Stromfresser.
Im einfachsten Fall machst du das auch nicht über die Spannung sondern schlicht über die Begrenzung der TPD.
Also einfach TPD Regler auf z.b. 220W und Ram -500mhz und dann die Grafikkarte einfach machen lassen.
In Spielen verliehst du dann zwar 10% oder mehr Max FPS ... was aber egal ist, weil die Min FPS garnicht oder viel weniger Sinken. Und -15% 3dMark Punkte sind ja egal, weil rein akademisch.
Selber in die Spannungen eingreifen kann mehr bringen aber nur wenn man an allen Stellschrauben zusammen dreht. (TPD, Spannung, Ram) Dazu muss man aber viel Zeit und fingerspitzengefühl mitbringen.
Und aufpassen, NVidia zeigt immer die Verbrauch der ganzen Karte an also mit Ram und alles.
AMD zeigt nur die GPU an. Das ist nur schwer direkt vergleichbar.
Aroas
2022-07-07, 10:01:43
Die 10 GB bei der 4070 gibts doch nur, damit NVidia etwas später eine 4070Ti mit 12GB oder 16GB nachschieben kann.
Gleiches Spiel wie bei der 3000er Serie.
GerryB
2022-07-07, 10:12:01
AMD zeigt nur die GPU an. Das ist nur schwer direkt vergleichbar.
Ich staune jedes Mal, wie uninformiert manche Leute sind, die denken, Ihren Senf dazu geben zu müssen.
AMD zeigt Core+Cache+SOC+Vram als TGP an.(der Cache ist bei Core enthalten)
... hinzu kommen dann Lüfter, Spawa-Verluste und Board-Kleinkram
Summe TGP+Rest = TBP
Die offizielle TBP wird in ordentlichen Reviews auch genannt.
(die paar W bei den Lüftern werden nach m.E. oft überschätzt, weil PWM im Alltag@24/7-Fps-Limit sparsam sein kann, ...
die Spawa-Verluste sollten net größer als 8% sein, außer bei extrem OCten Custom-Modellen mit zu schwachen VRM´s
und vollkommen unzureichender Kühlung, was bei IL zu Diskussionen führte bei der 6950 trio, die extrem schlecht vs. 6950 Pure
abschneidet)
Wem die Anzeige TGP net gefällt, kann das Overlay von CFX benutzen und sich ne grobe TBP anzeigen lassen.
CFX hat ne simple Methode/Grobschätzung implementiert die für ne RX 6800XT passt: TGP x1,15 + 5W = TBP sim
Leonidas
2022-07-07, 14:22:35
AMD zeigt Core+Cache+SOC+Vram als TGP an.(der Cache ist bei Core enthalten)
... hinzu kommen dann Lüfter, Spawa-Verluste und Board-Kleinkram
Summe TGP+Rest = TBP
Unterschätzte bitte nicht die Differenz. Bei den größeren Karten sind dies durchaus 40-50W. Alle Werte hier einsehbar:
https://www.3dcenter.org/artikel/stromverbrauchs-ueberblick-fuer-directx-1112-grafikkarten
Blase
2022-07-07, 15:38:19
...Man will also hauptsächlich überteuertes Zeug verkaufen. 16GiB oder 24GiB haben dabei absolut keinen Nutzen für Gamer, 12 GiB schon. Das weiß Nvidia ganz genau....
Also 10 GB sind unzureichend, 12 GB genau richtig und 16 GB haben keinen Nutzen... also das nenne ich mal dicht beieinander :freak:
Du musst heute unverändert schon ziemlich "picky" sein, um die 10 GB der 3080 nachweislich an die Grenzen zu bringen. Eine 4070 wird, wenn auch sicherlich deutlich stärker als die 3080, sicherlich dennoch nicht den Anspruch haben, eine "4k-Karte" zu sein. Entsprechend sollte es mich wundern, grade bei nVidia, wenn die 10 GB bei einer 4070 unterhalb "4K" hier wirklich nennenswert ins Gewicht fallen. Versteh mich richtig - klar ist "mehr" viel cooler. Aber auch wenn letztlich in manchen Szenarien knapp auf Kante genäht, wird das dennoch in weit über 90 Prozent der Fälle niemanden tangieren...
MfG Blase
Die 4070 wird schneller als eine 3090/3090ti und soll für 4k nicht reichen? Nvidia bewirkt solche Karten für 8K!!!!
Immerhin spricht man dann von 2,5x 2080ti Leistung. Schreibt doch bitte nicht so einen Quatsch ins Forum, weil das nicht in euer Weltbild passt. Ja die 10gb der 3080 limitieren.
Die 4070 wird darüber also einfach massiv limitiert, um die teureren Karten verkaufen zu können, wenn sie denn jemals kommen. 2 GB machen da einen merkbaren Unterschied aus und zukünftig wird das noch fossiert.
Dann kauft solche Speicherkrüppel für 1000$, damit Nvidia 2 Jahre später Argumente hat euch wieder einen Speicherkrüppelkarte für 1000$ zu verkaufen. Nehme die grüne Verblödung ihren Lauf.
GerryB
2022-07-07, 19:10:47
Unterschätzte bitte nicht die Differenz. Bei den größeren Karten sind dies durchaus 40-50W. Alle Werte hier einsehbar:
https://www.3dcenter.org/artikel/stromverbrauchs-ueberblick-fuer-directx-1112-grafikkarten
Das zeigt ja auch die Messung von Taxxor.(CFX)
Er vergleicht 255W asic mit PCAT-Messung und der TBPsim, ... = 295W bzw. 297W TBP
297-255=>40
Ne größere Custom kommt dann z.Bsp. mit 350x1,15+5=407,5W(passt gut für 2x8pin)
407,5-350=>50
Also die TBPsim von CFX ist schon net schlecht.
Blöd wirds nur wenn zu kleine Spawas verbaut sind, die dann noch zu heiß werden und die SpawaEffizienz total abkackt.
... wie bei der 6950 trio, die nur die Phasen/Spawas der 6900 hat und net die guten Spawas von der SuprimX !!!
Dagegen die 6950 Pure hat ausreichend Phasen/Spawas + Kühlung =effizienter. (unter h2o wirds dann noch besser)
Im Anhang mal ne CFX-Messung von Zerostrat:
Grün = PCAT
Blau = TBP sim
passt ganz gut im Verlauf
Die Spitzen bei Grün werden sowohl bei NV als auch AMD dann geglättet und
nur ein Mittelwert als Verbrauch angegeben, der sehr gut mit Blau korreliert.
Unterschätzte bitte nicht die Differenz. Bei den größeren Karten sind dies durchaus 40-50W.
Es ist ganz egal, wie groß oder klein der "Rest" ist. Die Aussage, AMD zeigt nur die GPU ist schlicht und ergreifend einfach falsch, denn bei AMD ist eben auch unter Anderem der Ram mit drin, der bei NVidia noch explizit erwähnt wurde.
Und eine Verbrauchsmessung per Shunts (wie bei NVidia) garantiert auch nicht immer ein perfektes Ergebnis. Schon kleinste Schwankungen im Shunt-Widerstand verursachen massive Abweichungen in der Messung, da ist also die Qualität wichtig. Wenn man bedenkt, welche "Qualität" Karten um 1500-2000€ so haben, würde ich mich da nicht zu sehr drauf verlassen.
Und so mancher Boardpartner ist ja schon in der Vergangenheit "kreativ" geworden und hat gewisse Messschaltungen umgangen. 1-2 VRMs an den Shunts vorbei direkt versorgen könnte von NVidia definierte Limits aushebeln und dafür sorgen, dass die Karte ein paar % vor der Konkurrenz landet. Schon hat jeder Board Partner durchaus einen Anreiz, so was zu machen. Das fällt ja eh nur auf, wenn man den Verbrauch der Karte tatsächlich misst, was heutzutage nicht mehr alle "Reviews" machen. Viele verlassen sich da einfach auf die von der Software gemeldeten Werte. Wenn man's nicht übertreibt, kommt man als Partner damit also vermutlich sogar durch, ohne dass es einer merkt.
Legendenkiller
2022-07-08, 09:49:06
Ich staune jedes Mal, wie uninformiert manche Leute sind, die denken, Ihren Senf dazu geben zu müssen.
Sagte er und macht es aber auch nicht besser ...
Ok Ram lag ich falsch, sorry.
Nvidia zeigt da alles an, bei AMD sind Sachen nicht mit trinne und müssen geschätzt und dazu addiert werden. Bei einer 6800XT sind das mindestens 40W die bei normalen Softwaretools nicht mit angezeigt werden.
Ich habs einfach oft gesehen das Leute bei einer 6800XT / 6900 die 225W sehen und dann sagen ha AMD ist viel sparsamer als Nvidia .. .die 3080 brauch ja 290W ...
Und habe gesagt das die angezeigen Werte nicht direkt vergleichbar sind.
Es sind typischerweise 20-30% mehr als die angezeigte TGP, das ist nicht vernachlässigbar und auch nicht pauschal abschätzbar.
GerryB
2022-07-08, 10:34:20
Das Review bei CB ist doch eindeutig, es werden TGP und TBP genannt.(siehe #7)
Da brauchts keine Verschwörungstheorien, das AMD irgendwas verschweigt.
(die NT-Empfehlungen sind auch net geschönt)
btw.
Rein aus technischer Sicht ist für den Arbitrator nur der eff. Wert nach den Spawas interessant, um den Takt entspr. Watt und Volt steuern zu können.
Also wozu sollte AMD noch den Input-Wert vor Spawas auslesen müssen?
Werte vor Spawas ist eher vollkommen unwichtiges Marketinggeschwurbel.
Das Review bei CB ist doch eindeutig, es werden TGP und TBP genannt.(siehe #7)
Da brauchts keine Verschwörungstheorien, das AMD irgendwas verschweigt.
btw.
Rein aus technischer Sicht ist für den Arbitrator nur der eff. Wert nach den Spawas interessant, um den Takt entspr. Watt und Volt steuern zu können.
Also wozu sollte AMD noch den Input-Wert vor Spawas auslesen müssen?
12 pin pcie5 power connector? Da muss die Karte an die psu direkt den vollen Verbrauch, nicht nur was am soc ankommt bereitstellen....
GerryB
2022-07-08, 12:34:54
SOC ist der Speichercontroller, meist = 2 Phasen.
Der Core hat dann 11 oder mehr Phasen zusätzlich, je nach Modell, ... in Zukunft.
Der Vram hat auch eigene kleine Spawas.
Ob AMD wg. PCiE5 extra was messen muss oder nur am konkreten Refmodell ne PCAT-Messung macht, um
TGP+Rest = TBP und Spitzen abzuschätzen, das wird man net hier im Forum klären können müssen.
(dafür gibts Profis wie Igor, der <20ms Intervalle untersucht, die NV auch bloß net messen könnte)
Lehdro
2022-07-08, 15:21:23
Ich bin sehr überrascht von 3080 10GB Undervolt-Ergebnissen, nur 220W und -6 %. Mit meiner Suprim X 3080 12GB verliere ich 9% auf meine primäre Unterspannung von 775 mV. Und es verbraucht 250-290W.
Liegt wohl daran das zum Testen ein Szenario gewählt wurde, dass die NV Karte nicht in die 100% TDP treibt (301W vs 320W). Sowas kann schon eine Menge ausmachen. Für solche Tests sind Szenarien Pflicht die die GPU an das absolute Limit bringen, im Idealfall auch noch welche die die Taktraten maximal absenken (https://www.computerbase.de/2020-09/geforce-rtx-3080-test/2/#abschnitt_die_taktraten_unter_last), das kann im Extremfall eben auch mal 10% Takt kosten, trotz selbem Verbrauchs. Also GPU-limitiert und Power-limitiert.
Generell ist der Test von hartware Murks, da zu viele Handwerksfehler und Unwägbarkeiten verbaut.
Also wozu sollte AMD noch den Input-Wert vor Spawas auslesen müssen?
Weil die Effizienz der Spannungswandler erheblich schwankt.
Unter anderem deshalb profitieren Nvidia Karten enorm von Wasserkühlungen, da damit die Effizienz der Spannungswandler deutlich steigt und damit mehr vom Powerbudget für die GPU zur Verfügung steht.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.