Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 8. September 2022


Leonidas
2022-09-09, 10:00:20
Link zur News:
https://www.3dcenter.org/news/news-des-8-september-2022

Gast
2022-09-09, 10:08:52
"Leider haben wir uns da einigermaßen mitreißen lassen davon, dass keiner jene ziemlich neue Quelle angezweifelt hat. Generell wäre es besser gewesen, mehr auf die "bewährten" Leaker wie 'Kopite7kimi' oder 'Greymon55' zu setzen – welche auch nicht alles korrekt vorhersagen können, aber wenigstens nicht bewußt Fakes in die Welt setzen. Denn leider läßt sich der abschließende Hinweis von 'QbitLeaks' in Richtung von "mehr Fakt-Checking" im Fall von Nachrichten über noch nicht releaste Hardware nicht wirklich umsetzen"

Kein Grund sich zu schämen.
Der Typ ist ein Idiot, der offensichtlich auch nicht begreift was Fake / Faktencheck bedeutet.
Wollte er etwas aufzeigen, hätte er Werte nehmen müssen die absurd und offensichtlich falsch sind. (Wäre ich böse, würde ich jetzt sagen: So wie die angeblichen Stromverbräuche der 4070, 4080 und 4090 die die "trustworthy" leaker vor ein paar Monaten brachten...)
Wären diese Zahlen übernommen worden hätte er mit Fug und Recht sagen können: Leute, prüft Zahlen die herumgeworfen werden. Zumindest auf Plausibilität.

Die gefakten Zahlen von ihm hingegen sind plausibel - und werden teilweise auch so (oder sehr ähnlich) erreicht werden, da bin ich sicher. Warum soll eine 4090 bei bestimmten Spielen mit RT bitte nicht +100% liefern?
Es würde mich sehr wundern, wenn es nicht zumindest ein paar Beispiele geben wird, bei denen das hinkommt.

Und wie du ja schon richtig sagt - Fakten checken kann Nvidia selber. Sonst keiner, nicht bei nicht-releasten Produkten.

Was für ein Schwachkopf.

Midnight-3DC
2022-09-09, 10:43:53
Ich finde auch es ist in Ordnung Gerüchte zu posten sofern sie explizit als solche gekennzeichnet werden (was ja der Fall war) und generell plausibel erscheinen. In letzterem Punkt hast du vermutlich doch einen Vorteil (und damit eine gewisse Verantwortung) gegenüber Gelegenheitslesern, die das vielleicht nicht so gut abschätzen können. Aber auch das war ja bei den gegebenen Fakes wohl der Fall. In diesem Sinne - bitte die gute Berichterstattung so weiterführen und immer transparent damit umgehen, wenn sich eine Meldung im Nachhinein als falsch herausstellt.

GerryB
2022-09-09, 11:24:18
Schließlich gibt es neben dem genauen Performance-Punkt der Radeon RX 6700 non-XT auch noch zu klären, ob jene tatsächlich einen Stromverbrauchs-Vorteil gegenüber der größeren Radeon RX 6700 XT mit sich bringt

Vermutlich erst soo richtig, wenn man Hand anlegt, ... dann aber machts nen großen Unterschied.
(theoretisch hätte Sapphire/AMD die Werksvoreinstellung schon anders machen können/sollen, ist ja im Prinzip net groß anders als bei
6800xt vs. nonXT, wo man ne ganz andere Arbeitskurve und die nonXT obenrum deutlich gecappt hat)

https://www.youtube.com/watch?v=3YUuwucce4s
(im WM auf 1040mV setzen und man braucht tatsächlich deutlich weniger Watt, ... dürfte im Schnappschuss TGP-Watts sein, d.h.
die 137W TGP wären dann ca. 163W TBP)

Leonidas
2022-09-09, 11:51:23
Schade das die Leute es nie schaffen, sich GPU-Z mal komplett über alle Reiter anzusehen. Die echte TGP wird dort auch angegeben, sogar ausgelesen aus dem BIOS und nicht aus einer Datenbank entnommen.

GerryB
2022-09-09, 12:01:33
Bei den AMD Grakas kann GPU-Z nur dumb dasselbe wie das AMD-Overlay, sprich TGP.
total graphics power = Core+SOC+Vram (x)

TBP ist etwas mehr = total board power und net bei GPU-Z verfügbar.
(CFX hats als TBPsim drin und seine Schätzung mal vs PCAT-messung vgl.)


(x) die Bezeichnung in GPU-Z = GPU Chip Powerdraw ist nach m.E. noch dämlicher gewählt, weil
oft Außenstehende denken Das wäre nur der Chip vom Core. (ohne SOC+Vram)
Das führt dann zu übertriebenen Ideen wieviel mehr das ganze Board braucht.

Platos
2022-09-09, 12:21:23
was jener nachfolgend auch zugibt bzw. als "soziales Experiment" ausgibt

Egal obs nun eine Ausrede ist oder wirklich so "geplant" war, es zeigt tatsächlich, dass man als Twitterer/Youtuber im Grunde alles erzählen kann und es geglaubt wird (ich meine nicht von Leonidas, sondern generell).

Fazit: Egal von wo die Quelle kommt, wenn es kein bekannter "Leaker" ist, der auch eine entsprechend hohe Trefferquote ausweist, sollte man ihn als potentiellen Fake einstufen bzw. die Information erstmal mit Vorsicht geniessen.

Leonidas
2022-09-09, 13:26:37
Bei den AMD Grakas kann GPU-Z nur dumb dasselbe wie das AMD-Overlay, sprich TGP.
total graphics power = Core+SOC+Vram (x)

Das reicht ja, mehr gibt es auch nicht auszulesen. Diesen Wert sollten die Reviewer endlich mal per Standard angeben - gerade bei werksübertakteten Karten!

gastello
2022-09-09, 16:31:07
Hat damit nichts zu tun, jedenfalls nicht direkt. Nvidia Beyond ist ein neuerlich programmierbares CPU/GPU Cache-Coherence-Protokoll (Coherent CXL-Link, nicht merh NV Link), insbesondere im Zusammenspiel mit 3-rd party CPUs (ARM). Denke nicht, dass dies für Lovelace tatsächlich relevant ist. Wurde im August Ausgewählten bereits erläutert. Es geht also tatsächlich um ein Interconnect, nicht Lovelace direkt.

Gast
2022-09-09, 18:11:34
https://www.youtube.com/watch?v=3YUuwucce4s
(im WM auf 1040mV setzen und man braucht tatsächlich deutlich weniger Watt, ... dürfte im Schnappschuss TGP-Watts sein, d.h.


Logisch, was anderes lässt sich bei AMD nicht auslesen.


die 137W TGP wären dann ca. 163W TBP)

Das lässt sich nicht vorhersagen schon gar nicht in dieser Genauigkeit, die komplette Boardpower muss bei AMD an der Hardware gemessen werden, je nach eingesetzten Komponenten kann sich die Boardpower erheblich unterscheiden, selbst bei identisch eingestellter Graphics Power.

Und schlussendlich hängt diese auch erheblich von den Betriebsbedingungen ab, eine bessere Kühlung der Spannungswandler hat großen Einfluss auf deren Effizienz und damit die Gesamtleistungsaufnahme der Grafikkarte.

Leonidas
2022-09-10, 05:23:05
Nvidia Beyond

Ok. Aber hier soll es um "GeForce Beyond" gehen. Eine (viel) bessere Chance somit.

Gast
2022-09-10, 08:49:32
Ist lediglich für Enthusiasten interessant, weil es NVidia miitlerweile selbst so ankündigt. Bedeutet teuer, viel Strom, heiss, riesig und oft komplett übertriebene Hardwaredaten, was die Masse kaum interessieren wird. Das die 4090 ein reines Haloprodukt wird und der Rest eher, mal wieder auf Niveau der vorhergehenden Gen umher oxidiert, diesmal wohl mit noch höheren Verbrauch oder auf gleichen Niveau, 350w und mehr, ist schon halbwegs bekannt.

Anscheinend will man die Marge wieder steigern, untenrum interessiert NVidia nun wohl nicht mehr, da soll man dann doch bitteschön den alten Ampereschrott kaufen.

CXL ist wie gastello schreibt, eher für Hopper und Grace wichtig. SLI ist tot, also wozu eine Att NV Link für Lovelace? Für mich eher sowas wie AMDs Vega Cache Modell auf Basis von Arbeitsspeicher, wobei NVidia dabei immer mehr Rechenleistung auf die CPU auslagern um schneller zu werden. Das führt insgesamt zu einer höheren Systemauslastung aber auch höherem Verbrauch des Gesamtsystem, vermutlich auf Basis von PCIe 5.0, RAM und schellen SSDs. Letztlich spart es NVidia Vram in Form von Gddr6x ein, weil der zZ schweineteuer ist und kaschiert die anhaltende Vramausstattungsschwäche von NVidia. Schön von AMD geklaut.


Nutzt also nur, wenn man komplett neuste Hardware sein Eigen nennt, Mondpreise dafür inklusive.

Nein Danke. Nix Neues, nur tolle Namen...relevant für wohl 1% der Spielerschaft die als Enthusiasten gewillt sind, da mitzugehen. NVidias 4090 geht mir komplett am Hintern vorbei, genauso wie mir eine 3090 oder 3090ti komplett am Hintern vorbei geht. Sie machen es wie die Autoindustrie, nur noch massiv verteuerte Produkte als Art Luxusgüter bei starker Verknappung anderer Angebote, damit man weiter an der Preisschraube drehen kann um die Verluste zu begrenzen, daher ist anzunehmen sie überschwemmen den Markt mit 4090 igern. Ich gehe von 2000€ aufwärts dafür aus. Dafür interessiert sich vermutlich nicht mal 1%. Selbst Enthusiasten geht da irgendwann die Luft aus, bei dem was noch auf uns zukommt sowieso.

Könnt ihr behalten, vor allem nix dazugelernt...

Platos
2022-09-10, 09:51:11
Es ist noch nix gelauncht. Warte doch mal ab, meine Güte...

Übrigens war SLI& Crossfire noch nie lebendig. Die Percentile waren da schon immer schlecht. Overall hat das nur bei sehr wenigen Spielen die Percentile stark erhöht (70%+).

Und wenn man sich bei SLI mit +50% zufrieden gibt, kann man sich ja solche Monster wie ne 4090 kaufen.