PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 3. April 2020


Leonidas
2020-04-04, 10:24:25
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-3-april-2020

Platos
2020-04-04, 15:18:02
Bezüglich PS5: Mal angenommen, es ist so, wie beschrieben im Artikel: Dann kann man doch diese Funktion weniger als ein "Boost" sondern vom Effekt her wie SMT sehen. Wichtig: Ich meine vom Effekt (Endergebnis) und nicht von der Funktionsweise.

Schlussendlich erhöht ja SMT die Auslastung der (CPU) Kerne. Bei Sony scheints dann so, dass diese Funktion auch die Auslastung der GPU bzw. der CPU erhöht. Nur hald nicht, indem sie mehr machen können, sondern indem, dass eines der beiden weniger macht (und somit wie eine CPU mit SMT (viel) weniger "Wartezeit" hat). Das ist doch eig. der selbe Effekt (Endresultat) aber völlig anders erreicht.

Balanciert man also die CPU und GPU gut aus, kann man so beide viel besser auslasten und kann so eig. mehr pro TFLOP rauskriegen. (naja, andere Flaschenhälse, wodurch GPU und CPU warten müssen jetzt mal ausgeblendet).

So stelle ich mir das zumindest vor bzw. hört sich das so an, was Cerny so erzählt.

Gast
2020-04-04, 15:55:20
Bezüglich PS5: Mal angenommen, es ist so, wie beschrieben im Artikel: Dann kann man doch diese Funktion weniger als ein "Boost" sondern vom Effekt her wie SMT sehen. Wichtig: Ich meine vom Effekt (Endergebnis) und nicht von der Funktionsweise.

Der Boost funktioniert wie die meisten Boostfunktionen, mit Powerlimit.

Allerdings sollte, zumindest laut Artikel, die Kühlung ausreichend überdimensioniert sein, um auch im Worstcase unterhalb des Temperaturlimits zu bleiben, wenn du einen schlechten DIE erwischt hast wird dann vermutlich deine PS5 einfach lauter sein wie die vom Nachbarn, und das Powerlimit ist kein real gemessenes Limit, sondern ein fiktiver modellierter SoC.

Real muss dann natürlich in der realen Hardware ausreichend Reserven bei der Stromversorgung und Kühlung vorhanden sein, falls der Realverbrauch höher als der des fiktiven SoCs ist, bzw. beim berechneten fiktiven Verbrauch ist schon ausreichend Reserve drinnen.

Auch scheint es einen Mindestverbrauch zu geben der jeweils CPU und GPU zusteht, damit bei großer Auslastung des einen nicht der jeweilige andere Part "verhungert".

Im Prinzip hat man also ein variables Powerbudget, das man zwischen CPU und GPU verschieben kann.

Wenn man bedenkt dass auf Desktop-PCs die CPUs mit 8 Kernen und mehr bei Spielen in der Regel nur 1/2 bis 2/3 ihrer eigentlichen TDP verbrauchen, könnte hier real gerade am Anfang durchaus der Fall sein, dass beide Parts größtenteils am Limit arbeiten können, insbesondere wenn es sich um Ports der alten Generation handelt, weil was auf einer Jaguar CPU ausreichend schnell läuft wird für einen Zen2 sicher ganz schnell langweilig, selbst wenn man beispielsweise die FPS verdoppelt.

Wenn Spiele anfangen die neue Hardware besser auszunutzen könnte es dann soweit sein, dass die realen Frequenzen anfangen zu sinken, das aber reproduzierbar, da eben nicht der reale Verbrauch herangezogen wird, sondern nur der fiktive errechnete Verbrauch.

Gast
2020-04-05, 03:06:38
Die 1650 mit GDDR6 soll kein Konkurrenz zur 570 sein obwohl sie nur die Hälfte an Strom verbraucht bei kleinem Performance Nachteil ?

75 gegen 150w sind in der Klasse Welten .

Leonidas
2020-04-05, 04:37:21
In der Klasse geht es zuerst nach dem Preis. Erst danach kommen die weiteren Faktoren ins Spiel. Und preislich kann mit hängen und würgen die 1650GDDR5 mithalten, zu allerdings beachtbar kleinerer Performance. Wenn die 1650GDDR6 nun preislich noch was drauflegt, dann wird das nix.

JVC
2020-04-05, 10:11:26
"...auch unter schlechten Bedingungen jederzeit hohe Taktraten anzubieten"
Na da bin ich mal gespannt ob die PS5 die 2,23Ghz länger halten kann.

Anscheinend schafft RDNA2 ziemlich hohe Taktraten... schon mal ein gutes Zeichen :)

M.f.G. JVC

Gast
2020-04-05, 10:49:32
In der Klasse geht es zuerst nach dem Preis. Erst danach kommen die weiteren Faktoren ins Spiel. Und preislich kann mir hängen und würgen die 1650GDDR5 mithalten, zu allerdings beachtbar kleinerer Performance. Wenn die 1650GDDR6 nun preislich noch was drauflegt, dann wird das nix.

Sehe ich anders 75w weniger im Gehäuse sind mir die paar euro wert . Wenn pur um die Leistung geht gibts mit den 8 GB 580 er brauchbarere Karten.

Berniyh
2020-04-05, 11:34:52
Damit bist du aber eher die Ausnahme.

Leonidas
2020-04-05, 11:56:28
Haha ... mir persönlich auch! Aber nach meinen persönlichen Vorlieben geht es im Rahmen eine solchen Berichterstattung natürlich nicht.

Rabiata
2020-04-05, 13:35:37
Sehe ich anders 75w weniger im Gehäuse sind mir die paar euro wert . Wenn pur um die Leistung geht gibts mit den 8 GB 580 er brauchbarere Karten.
Oder wenn der Preis weniger wichtig ist, die RX 5500 XT 8GB. Teurer als die 580, aber auch deutlich sparsamer. Insgesamt sind wir da aber schon eine Klasse höher in der Leistung verglichen zu den GTX 1650-Varianten aus den Artikel.

Platos
2020-04-05, 15:56:31
Der Boost funktioniert wie die meisten Boostfunktionen, mit Powerlimit.

Allerdings sollte, zumindest laut Artikel, die Kühlung ausreichend überdimensioniert sein, um auch im Worstcase unterhalb des Temperaturlimits zu bleiben, wenn du einen schlechten DIE erwischt hast wird dann vermutlich deine PS5 einfach lauter sein wie die vom Nachbarn, und das Powerlimit ist kein real gemessenes Limit, sondern ein fiktiver modellierter SoC.

Real muss dann natürlich in der realen Hardware ausreichend Reserven bei der Stromversorgung und Kühlung vorhanden sein, falls der Realverbrauch höher als der des fiktiven SoCs ist, bzw. beim berechneten fiktiven Verbrauch ist schon ausreichend Reserve drinnen.

Auch scheint es einen Mindestverbrauch zu geben der jeweils CPU und GPU zusteht, damit bei großer Auslastung des einen nicht der jeweilige andere Part "verhungert".

Im Prinzip hat man also ein variables Powerbudget, das man zwischen CPU und GPU verschieben kann.

Wenn man bedenkt dass auf Desktop-PCs die CPUs mit 8 Kernen und mehr bei Spielen in der Regel nur 1/2 bis 2/3 ihrer eigentlichen TDP verbrauchen, könnte hier real gerade am Anfang durchaus der Fall sein, dass beide Parts größtenteils am Limit arbeiten können, insbesondere wenn es sich um Ports der alten Generation handelt, weil was auf einer Jaguar CPU ausreichend schnell läuft wird für einen Zen2 sicher ganz schnell langweilig, selbst wenn man beispielsweise die FPS verdoppelt.

Wenn Spiele anfangen die neue Hardware besser auszunutzen könnte es dann soweit sein, dass die realen Frequenzen anfangen zu sinken, das aber reproduzierbar, da eben nicht der reale Verbrauch herangezogen wird, sondern nur der fiktive errechnete Verbrauch.

Am PC boosted die CPU aber unabhängig von der GPU. Ergo taktet die CPU einfach hoch, wenn's sie's kann und nicht, wenn sie's es sollte. Das selbe gilt für die GPU. Es ist also kein Stück aufeinander abgespielt, aber genau dadurch gewinnt man ja die Effizienz (hauptsächlich).

Schlussendlich läuft das darauf hinaus, dass die CPU und GPU besser ausgelastet werden. Allerdings frage ich mich, was die Entwickler dafür machen müssen bzw. ob hier der Aufwand hoch ist, um die Funktion wirklich gut ausnutzen zu können.

Auf jeden Fall ist das nicht ein übliches Boostverhalten, das Sony sich noch kurz aus dem Ärmel geschüttelt hat.

Gast
2020-04-05, 16:58:14
Am PC boosted die CPU aber unabhängig von der GPU. Ergo taktet die CPU einfach hoch, wenn's sie's kann und nicht, wenn sie's es sollte. Das selbe gilt für die GPU. Es ist also kein Stück aufeinander abgespielt, aber genau dadurch gewinnt man ja die Effizienz (hauptsächlich).


Am Desktop nicht, und bei getrennten Chips in einem großen Gehäuse würde das auch kaum Sinn machen.

Bei Notebooks gibt es durchaus ähnliches, bei einigen wird hier je nach aktueller Auslastung das Powerlimit zwischen GPU und CPU verändert, wobei das "in Software" passiert und damit ziemlich sicher deutlich weniger effizient als bei einer darauf ausgelegten Hardware.


Schlussendlich läuft das darauf hinaus, dass die CPU und GPU besser ausgelastet werden. Allerdings frage ich mich, was die Entwickler dafür machen müssen bzw. ob hier der Aufwand hoch ist, um die Funktion wirklich gut ausnutzen zu können.


Die Entwickler müssen gar nichts machen. Dadurch dass als Regelgröße nicht tatsächlich gemessene Werte sondern fiktiv errechnete Werte verwendet werden, schreibt der Entwickler seinen Code und bekommt daraus eine reproduzierbare Performance der Konsole.

Das Ziel des Entwicklers ist es ja nicht, dass möglichst hohe reale Taktraten anliegen, sondern er hat ein Zeitbudget für jeden Frame, und wenn er damit auskommt ist ihm die reale Taktrate ziemlich egal.

Im Zweifelsfall wären niedrige reale Taktraten sogar eine Auszeichnung für den/die Entwickler, weil das im Endeffekt bedeutet, dass diese die Hardware gut ausnutzen.
In der realen Entwicklung ist das eben nur nicht immer möglich, und in diesem Fall kann durch die Verteilung des Powerbudgets mehr Leistung freigeschaltet werden, dort wo sie dringender benötigt wird.

Wobei die Frage ist, ob das im Endeffekt wirklich so viel ausmacht.

Wenn wir jetzt mal fiktiv von einem Powerbudget von 250W für den gesamten SoC ausgehen.
Dann nehmen wir einfach mal an, dass davon "normal" 50W für die CPU, 50W für IO+ Sonstiges und die übrigen 150W für die GPU gebraucht werden.

Dann nehmen wir an, dass Spiele, so wie es aktuell real ist, hauptsächlich GPU-Limitiert sind.

Dann braucht die CPU vielleicht real nur 30 von ihren 50W, also können wir das GPU-Budget auf 170W erhöhen.

Wir bekommen also gerade mal 13,3% mehr Power für die GPU.

Laut Cerny ist die Skalierung in etwa, dass 10% mehr Takt 27% mehr Leistung benötigt. Bei dieser Skalierung würden wir also gerade mal 5% mehr Performance bekommen, das macht jetzt also keinen nennenswerten Unterschied mehr.

Interessanter wäre es eventuell in die andere Richtung, wenn die GPU gerade nichts zu tun hat ist natürlich viel mehr vom Powerbudget frei, das man in Richtung CPU schieben kann.
Damit könnte man beispielsweise Ladevorgänge, oder ähnliches, in denen die GPU nichts zu tun hat, beschleunigen.

Problem ist allerdings, dass die CPU ja mit maximal 3,5GHz läuft. Zen2 ist bei 3,5GHz noch sehr effizient und braucht da nicht großartig viel Strom, wenn wir jetzt da vielleicht 50W von der GPU Richtung CPU schieben könnten bringt es nichts, weil die CPU eh schon auf dem maximalen Takt läuft.

Dieser müsste eher in die Richtung 4-4,2GHz liegen, dann könnte man die kurzzeitigen 50W extra auch verwerten.

Legendenkiller
2020-04-06, 08:36:37
spätestens bei der Super sind die 4Gbyte Ram ein schlechter Scherz.

Hab vor 1 Jahr meine 1050TI verkauft weil die 4 Gbyte ständig randvoll waren. Und die hatte nur 360% HP Perf..

Auch das wäre ein Grund der 570 den Vorzug zu geben.
Solche Grakas werden eher von Gelegenheitspielern gekauft und für ein paar Stunden pro Monat ist die Volllastleistung der Graka egal.

Edit: IMO finde ich es etwas belustigend das hier auf einmal der Stromverbrauch diskutiert wird. Wenn hier im Forum über eine neue 2080/3080, TI, Titan oder so gesprochen wird spielt Stromverbrauch nieeeeee eine Rolle. Und da geht es um mehr als +75W *augenroll*

Crazy_Borg
2020-04-06, 12:52:03
Mir fehlt jetzt auch irgendwie der Sinn dieser Karte.
Wozu? Von der Mehrleistung hat der Nutzer ja nicht viel, schon gar nicht wenn er durch einen höheren Verkaufspreis erzielt werden muss.
Und immer nur noch 4GB Speicher. Da steckt doch der echte Flaschenhals. Auch wenn in der Leistungsklasse vielleicht nicht sonderlich sinnvoll.
Macht das Portfolio wieder ein Stück unübersichtlicher, typisch.

Denniss
2020-04-06, 14:30:55
Die 1650 ist halt das Maximum was ohne Extrastrom möglich ist. Bei sowas war schon immer ein Luxusaufschalg drauf, siehe Preise der vorherigen 1050.
Im Vergleich zu anderen Karten ist die natürlich massiv zu teuer aber da Spezialfall = Spezialpreis

Gast
2020-04-06, 15:20:05
Mir fehlt jetzt auch irgendwie der Sinn dieser Karte.
Wozu?


Wahrscheinlich dürfte wirklich was dran sein, dass GDDR6 langfristig günstiger als GDDR5 ist wenn die Produktionsvolumina von GDDR6 GDDR5 übersteigen.

Und das dürfte jetzt langsam der Fall sein, wenn zu Jahresende die neuen Konsolen kommen die massiv GDDR6 brauchen werden.

Leonidas
2020-04-06, 17:08:07
Es ist ja letztlich auch 3000 MHz GDDR6 gegen 4000 MHz GDDR5. Letzterer war immer etwas teuer, weil höchste offizielle Taktstufe, ersterer ist faktisch der Abfall aus der GDDR6-Produktion.

Crazy_Borg
2020-04-09, 08:43:30
Ah, also quasi eine "verbesserte Rezeptur" seitens nVidia damit sie Produktionskosten sparen.
OK, ergibt Sinn. Danke!

@Denniss
Ich halte generell die Preise der unteren Leistungsklassen für brachial überteuert.
Da ist die 1650 kein wirklicher Ausreisser.
Was selbst für 3 Jahre alte GT 1030 Karten noch ausgegeben werden muss ist Wahnsinn.

Denniss
2020-04-09, 11:10:08
die RX550 mit 2 oder 4GB ist auch sehr teuer - "Deppenaufschlag" halt für die Office-PC-Aufrüster. Die günstigste RX550 ist wohl die Doppeldeppenversion einer Pulse mit nur noch 64Bit Speicheranbindung, preislich dafür aber nahe der 1030 (oder leicht günstiger).
Die Oberdeppenversion der 1030 mit DDR4 ist wohl zum Glück EOL - weit langsamer als die GDDR5-Version aber nie wirklich günstiger gewesen.