PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 22. April 2021


Leonidas
2021-04-23, 09:33:28
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-22-april-2021

Platos
2021-04-23, 10:40:29
Leonidas, da du ja sonst so wenig zu tun hast (ironie), habe ich mir gedacht, ich könnte dir einmal einen Vorschlag für einen zusätzlichen Index geben ;D

Und das wäre folgendes: Eigentlich genau das selbe wie der FHD-& UHD Perfomanceindex, nur mit dem Unterschied, dass es eben kein reiner Leistungsindex ist sondern eben ein Preis-Leistungs Index.

Ich weiss, ich weiss, das ist schwierig, da dieser schwierig praxisnah zu halten ist, gerade jetzt mit diesen verrückten Strassenpreisen. Mein Vorschlag wäre, dass du in diesem hypothetischen Index die Listenpreise verwenden würdest, es sei denn, die Strassenpreise weichen erheblich ab, dann kannst du die jeweiligen Grafikkarten (mit einem Vermerk) ja unter den Strassenpreisen in den Index nehmen oder aber gar einfach gar nicht erst aufnehmen (bzw. erst später). Oder du machst 2 mal einen Index, aber ich denke, das wäre noch dreister vorzuschlagen, wie überhaupt einen :biggrin:

Das wäre zumindest ein Vorschlag von mir. Warum schlage ich das gerade jetzt vor? Mir fällt in deiner Grafik in der News auf, dass z.B die 2070S für den Laien oder den unaufmerksamen/noch etwas müden Leser gut aussieht. Da steht nunmal bei der 2070S 164%, das hört sich doch gut an? Nur... was ist 100% ? Jeder der weiss, wie hoch der Listenpreis der 3070 ist, müsste wissen, dass die 2070S in deiner Tabelle eigentlich ein ziemlich schlechtes P/L hat. Sieht aber grafisch nach viel aus.

Deswegen dachte ich da an einen Index. Ich weiss, es ist schwierig, gerade wenn Modelle im Strassenpreis deutlich höher/niedriger sind, wie im Listenpreis. Aber vlt. fällt dir da ja was ein. Ich könnte mir auch nochmals etwas überlegen. Du könntest z.B im Index nur ältere Generationen aufnehmen und die jeweils neueste oder die jeweils zwei neuesten Generationen nur mit so einer Tabelle (wie in dieser News) ergänzen (auf der selben Webseite wie der Index dann ist). Eben dann mit Strassenpreisen (gut angemerkt). Und wenn jeweils eine neue Generation raus kommt, wird die alte Generation dann in den Index "verewigt" (mittels den dann herrschenden Strassenpreisen oder Listenpreise). Ich weiss, es ist schwierig sowas zu machen.


Und da ich so dreist bin, habe ich gleich noch einen zweiten Vorschlag;D:freak:

Das selbe Spiel mit Perfomance pro Watt. Das hingegen dürfte einfacher sein, solange man sich da an Referenzmodelle haltet (was du ja immer tust). Es gibt natürlich auch hier die Möglichkeit, dass ein Modell sehr "hochgezücktet" wurde (Sagen wir die Vega64) und evtl. mit super-duper Untervolting/Untertakten deutlich besser dastehen würde, aber es geht dann ja quasi um den "Auslieferungszustand", eben unter nvidia/AMD Specs (Das tut es ja schliesslich beim regulären Perfomanceindex auch).

Leonidas
2021-04-23, 11:57:53
Moment. Diese Indexe sind doch aber hier notiert:
https://www.3dcenter.org/artikel/grafikkarten-marktueberblick-april-2021/grafikkarten-marktueberblick-april-2021-seite-2

Und es lohnt nicht, die dauerhaft zu machen, weil sich die Preise ständig ändern. Der Vorteil des Performance-Index ist, dass jener selten geändert wird und für Altzeugs dann nie wieder.

Gast
2021-04-23, 13:06:28
Schaut mal welche Preise fuer RX 570/580/590 und RX 470/480 aufgerufen werden. Der Stromverbrauch liegt bei den Karten irgendwo bei ~150W fuer ~24MH/s. Kartenpreise ueber 300€.

Ausserdem ist ETH nicht das einzige was nur mit GPUs guten Durchsatz macht. Also selbst wenn man die aktuellen Karten auf die haelfte drosselt und diese trotzdem 300W verbraten, ist das immer noch auf Augenhoehe:

~ 60 MH/s bei 300W mit 3080Ti ca. 999 Euro (Listenpreis)
~ 50 MH/s bei 300W mit 2x RX 580 ca. 650 Euro (Strassenpreis)
~ 75 MH/s bei 450W mit 3x RX 580 ca. 975 Euro (Strassenpreis)

Aber wie gesagt, ETH ist ja nur einer unter vielen. Wenn man 120MH/s bei ~300W bekommt, dann wird es genuegend geben die es fuer andere Coins kaufen.

Lohnen tut sich das freilich nicht. Jedenfalls nicht im kleinen Massstab. Wer hier also 300 Euro und mehr fuer ne alte RX 580 ausgibt weil er glaubt damit ordentlich Asche machen zu koennen, der hat den Schuss nicht mehr gehoert :D Anders natuerlich sieht es aus wenn man seine Daddel GPU nebenbei laufen lassen kann und Mama die Stromrechnung bezahlt. Ich mine mit meiner RX 590 nebenbei aus Spass an der Sache. Bin aber echt am ueberlegen die Karte nicht fuer die 300+ zu verticken. Mache dann nur durch die Karte 170 Euro Gewinn und ziehe nem Idioten das Geld aus der Tasche :D

Platos
2021-04-23, 13:34:58
Ja, aber dieser bildet immer nur die jetzige Marktsituation ab. Ich als potentieller Käufer bin ja generell eher daran interessiert, wie viel mehr Leistung eine bestimmte Grafikkarte pro Dollar macht im Vergleich zu meiner Grafikkarte.

Daraus ist z.B nicht ablesbar, wie gut die aktuelle Situation ist. Aber ja ich weiss, es ist sehr schwierig.

Aber dann bleibt wohl nur die Frage nach einem Index bezüglich Leistung pro Watt übrig. Das müsste doch (rein theoretisch) dann ähnlich gut machbar sein, wie der Perfomanceindex. Denn die Watt-Menge ändert sich ja nicht. Aber ich weiss, man muss natürlich Zeit dafür haben.

Gast
2021-04-23, 14:14:18
Im Artikel wird erwähnt, dass eine 3080Ti mit Mining-Bremse bei 278W und rund 65MH/s unrentable gegenüber einer 3070 mit 62MH/s bei 117W sei.

Liegt da nicht ein Denkfehler vor?
Die 3080Ti wird unter Throttling-Bedingungen und rund 50% Last ja wohl nicht 268W verbrauchen sondern vermutlich eben auch eher so unter 150W und ist daher kaum unattraktiver bezüglich Stromverbrauch als die 3070. Da die einmaligen Anschaffungskosten die Miner eher nicht abschreckt sondern eher die laufenden Betriebskosten (Stromverbrauch) wäre die 3080Ti mit Mining-Bremse ja kaum weniger attraktiv als die ungebremste 3070 und den Minern dürfte es egal sein was sie bekommen.

Die Überlegung würde nur aufgehen wenn die 3080Ti selbst bei aktiver Drosselung die volle Leistung brauchen würde. Dafür müsste nVidia aber absichtlich Last erzeugen und die Cores auslasten um Energie zu verschwenden.

Vielleicht kann hier jemand genaueres dazu sagen.

Lehdro
2021-04-23, 15:48:04
Schaut mal welche Preise fuer RX 570/580/590 und RX 470/480 aufgerufen werden. Der Stromverbrauch liegt bei den Karten irgendwo bei ~150W fuer ~24MH/s. Kartenpreise ueber 300€.

Ausserdem ist ETH nicht das einzige was nur mit GPUs guten Durchsatz macht. Also selbst wenn man die aktuellen Karten auf die haelfte drosselt und diese trotzdem 300W verbraten, ist das immer noch auf Augenhoehe:

~ 60 MH/s bei 300W mit 3080Ti ca. 999 Euro (Listenpreis)
~ 50 MH/s bei 300W mit 2x RX 580 ca. 650 Euro (Strassenpreis)
~ 75 MH/s bei 450W mit 3x RX 580 ca. 975 Euro (Strassenpreis)

Aber wie gesagt, ETH ist ja nur einer unter vielen. Wenn man 120MH/s bei ~300W bekommt, dann wird es genuegend geben die es fuer andere Coins kaufen.

Lohnen tut sich das freilich nicht. Jedenfalls nicht im kleinen Massstab. Wer hier also 300 Euro und mehr fuer ne alte RX 580 ausgibt weil er glaubt damit ordentlich Asche machen zu koennen, der hat den Schuss nicht mehr gehoert :D Anders natuerlich sieht es aus wenn man seine Daddel GPU nebenbei laufen lassen kann und Mama die Stromrechnung bezahlt. Ich mine mit meiner RX 590 nebenbei aus Spass an der Sache. Bin aber echt am ueberlegen die Karte nicht fuer die 300+ zu verticken. Mache dann nur durch die Karte 170 Euro Gewinn und ziehe nem Idioten das Geld aus der Tasche :D
Eine halbwegs optimierte RX480/580 macht übrigens eher 30MH/s+ für knapp 130W. Das dreht das ganze noch einmal deutlich. Es bleibt zwar Schwachsinn derzeit extra Karten fürs Mining in Deutschlang zu kaufen, es sei denn man kriegt den Strom quasi umsonst, aber das hält die Leute ja nicht davon ab.

JVC
2021-04-23, 18:34:09
Der Vorteil des Performance-Index ist, dass jener selten geändert wird und für Altzeugs dann nie wieder.
Moment ^^ Sehe nur ich da einen Widerspruch ?
Das kann doch kein Vorteil sein, höchstens vom arbeitsaufwandtechnischem Sinn her gesehen... zustimm :freak:
:ubeer:

M.f.G. JVC

Platos
2021-04-23, 20:53:08
Er muss selten geändert werden. Das war wohl gemeint.

Leonidas
2021-04-24, 05:02:56
Die 3080Ti wird unter Throttling-Bedingungen und rund 50% Last ja wohl nicht 268W verbrauchen sondern vermutlich eben auch eher so unter 150W und ist daher kaum unattraktiver bezüglich Stromverbrauch als die 3070.

Das ist eine Überlegung wert. Aber bisher war nix davon zu hören, das unter Miningbremse die Karten weniger verbrauchen. Es wird da IMO nur das Speicherinterface angegriffen, was der kleinere Verbraucher ist.

Aber theoretisch könnte man damit die Rechenleistung weiter drosseln, wenn man mit Miningbremse arbeitet - und dann sinkt der Stromverbrauch wirklich.




Er muss selten geändert werden. Das war wohl gemeint.

Wäre wohl die bessere Formulierung gewesen.

Gast
2021-04-24, 10:29:28
Das ist eine Überlegung wert. Aber bisher war nix davon zu hören, das unter Miningbremse die Karten weniger verbrauchen. Es wird da IMO nur das Speicherinterface angegriffen, was der kleinere Verbraucher ist.


Das macht aber irgendwie keinen Sinn. Wenn das Speicherinterface künstlich limitiert wird um die Hashrate zu senken und auf der GPU nichts anderes läuft als diese Hash-Berechnungen, dann können schlicht die Cores nicht ausgelastet werden und dann sinkt automatisch der Stromverbrauch. Ausser nVidia würde dann irgendwie jede Kalkulation doppelt ausführen und somit ineffizient gestalten. Kann ich mir aber nicht so recht vorstellen.

Somit dürfte es Minern wohl egal sein ob sie eine 3070 oder 3080Ti zum annährend gleichen Preis und für die gleiche Hashrate kaufen. Selbst wenn die 3080Ti teurer wäre aber dann (gedrosselt) genau so viel zum gleichen Stomverbrauch leistet dürfte das den Minern egal sein und somit auch nicht zur besseren Lieferbarkeit beitragen.

Aber eventuell gibt es ja bald mal einen Kurssturz, dann hört das automatisch wieder auf.

Leonidas
2021-04-24, 10:44:43
Das macht aber irgendwie keinen Sinn. Wenn das Speicherinterface künstlich limitiert wird um die Hashrate zu senken und auf der GPU nichts anderes läuft als diese Hash-Berechnungen, dann können schlicht die Cores nicht ausgelastet werden und dann sinkt automatisch der Stromverbrauch.

Sollte - ja. Rein praktisch hab ich davon noch nix gehört. Aber eventuell kann man das auf der 3060 auch nicht sehen und die 3080Ti ist ein neues Spiel (wo diese These funktioniert).