PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 2./3. November 2019


Leonidas
2019-11-04, 07:43:52
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-23-november-2019

Gast
2019-11-04, 10:16:52
Nach 1070 ist das Absinken von Preis und Verlustleistung vergleichsweise mäßig.

Und jetzt die gleiche Grafik mit Preis statt Leistung als "Fixpunkt". Mindestens genauso lange zurückreichend, damit man besser sieht, was Nvidia macht.

pilzsammler2002
2019-11-04, 10:51:56
Ich hoffe AMD bringt für die Presse auch mal eine total überteuerte Karte raus...
Damit man später sagen kann, jetzt gibt es aber die gleiche Performance für nen Bruchteil :D

Sop kommt es mir immer mit den Titan Karten vor :/

Die 1660 Super ist für mich uninteressant da die 1660ti nichtmal nen Jahr alt ist... (22. Feb. 2019) :freak:

Thomas555
2019-11-04, 13:00:25
Die GTX 1660 Super hat die 7,7-fache Leistung die für Full HD benötigt wird.
Somit reicht mir auch eine kleine Karte um alles auf Max zu zocken.
Wie schnell die Karten heute doch sind!

Redirion
2019-11-04, 13:12:09
Ich hoffe AMD bringt für die Presse auch mal eine total überteuerte Karte raus...
Damit man später sagen kann, jetzt gibt es aber die gleiche Performance für nen Bruchteil :D

Sop kommt es mir immer mit den Titan Karten vor :/

ich hab so auch mal gedacht. Bis mir dann bewusst wurde, dass die Titans oder jetzt die 2080 Ti effektiver Ersatz für damaliges SLI / Dual GPU-Karten ist. Statt zweier Grafikkarten gibt es nun halt eine Monster-GPU für vergleichbares Geld. Sogesehen sind diese Karten sogar der bessere Nachfolger zum ausgestorbenen SLI.

Leonidas
2019-11-04, 13:12:43
Die GTX 1660 Super hat die 7,7-fache Leistung die für Full HD benötigt wird.


... wurde. Im Jahr 2012.

Redirion
2019-11-04, 13:18:26
... wurde. Im Jahr 2012.
vielleicht wird es dann mal Zeit für ein neues Setzen des Index? Beispielsweise zur Angleichung an den UHD-Index auf das Jahr 2015?

Da wäre es dann ja vermutlich Radeon R9 285 und Nvidia Geforce GTX 960.

Thomas555
2019-11-04, 13:20:59
... wurde. Im Jahr 2012.

Pass es doch mal an, damit es verständlich für alle wird.
2012 in Sachen IT ist eine laaaange Zeit.
770% für Full HD kapiert keiner von den Einsteigern, welche GPU dann reicht.

Ich wünsche mir eine Definition: Welche Referenz-Karte im Schnitt wieviel fps (Durchschnitt, minimal fps, maximale...) bei welchen Einstellungen liefert. Wenn man sowas machen will, muss man die Liste eben alle 2-3 Jahre überarbeiten. Hab ich bei mir auch schon 2x gemacht. Zudem unter jeden GPU-Test ein Hinweis auf diese Definition :wink:

Leonidas
2019-11-04, 14:08:08
vielleicht wird es dann mal Zeit für ein neues Setzen des Index? Beispielsweise zur Angleichung an den UHD-Index auf das Jahr 2015?



Wozu? Niemand hat jemals gesagt, das der Index-Wert 100% bedeutet, das man damit FullHD spielen kann. Das war im Jahr 2012 mal ein Nebeneffekt, aber nie so gedacht. Das ganze ist eine reine Verrechnungsgröße.


Ich verstehe Eure Intention, aus dem Index etwas praktisches ablesen zu wollen. Dafür gedacht war es aber nie. Zudem ändert sich das natürlich auch mit der Zeit. Man kann natürlich trotzdem eine Aussage treffen, in welchem Wertekorridor eine Spielbarkeit für FullHD liegt. Ich denke darüber nach.

Platos
2019-11-04, 14:31:48
Der Sinn des Index ist aber der Vergleich zu anderen Karten und kein "Spielbar-Index". Ändern sich ständig die Zahlen, dann ist dieser Vergleich fürn Popo.

Ich finde es auch Sinnlos, eine Spielbar-Definition einzuführen. Die einen sagen dann 30 FPS bei niedrigen Details und die anderen 60 bei High Details.

Abgesehen davon, dass der Index spätestens alle 2 Jahre aktualisiert werden müsste, weil 2 Jahre später eben 100% nicht mehr 100% wären. Und deswegen halte ich das für Kontraproduktiv. Die Liste kann, wenn man Karten vergleichen können soll, nicht gleichzeitig ein "Spielbar-Index" sein.

Und was soll aus alten Artikeln werden? Soll er dann alle Zahlen anpassen oder (realistischer) wir können dann ständig von verschiedenen Indices lesen und man verliert erst recht den Überblick. Das wäre der Tod dieses Index.

Man kann natürlich mal alle 10 Jahre den Index neu aufsetzen, aber einen "Spielbar-Index" ist das m.M.n nicht und soll/kann es auch nicht werden.

Dino-Fossil
2019-11-04, 14:50:04
Wie wäre es, wenn man jährlich einen "Leitwert" angibt, der als grobe Richtlinie fungiert.
Z.B.: um 2019 in FullHD @high (nicht ultra) bei 60fps zocken zu können, sind im Durchschnitt 600% nötig.
2017 wären es dann vielleicht 450% gewesen, 2020 könnten es vielleicht 650% sein.

Blase
2019-11-04, 15:11:51
Klar, wenn man sich die Tabelle anschaut und die Gegenüberstellung der Titan X zur 1660 Super sieht, öffnet das schon die Augen. Selbe Performance bei gleichzeitig halbiertem Verbrauch und mehr als geviertelten Preis... sieht erst einmal gut aus.

Ich teile hier deine Einschätzung, dass im 3DCenter einfach zu viele Enthusiasten rumhängen, die zwar die Titan X bzw. die 980 Ti anno 2015 noch aufmerksam verfolgt haben, aber eben Ende 2019 eine ganz andere Leitung sehen wollen - bzw. eine 1660 Super einfach unterhalb der Wahrnehmungsschwelle rangiert. Dazu dann ein Refresh des Refreshs mit unverändert 6 GB und die geneigte Leserschaft rümpft die Nase.

Wozu? Niemand hat jemals gesagt, das der Index-Wert 100% bedeutet, das man damit FullHD spielen kann. Das war im Jahr 2012 mal ein Nebeneffekt, aber nie so gedacht. Das ganze ist eine reine Verrechnungsgröße [...]

Verstehe ich - trotzdem hat der Gedanke einer allgemeinen Übersicht etwas, aus der man klare Rückschlüsse bezüglich der Leistungsstärke einer Karte / Generation bezogen auf das eigene Anforderungsprofil schließen kann.

Bezogen auf den Index kann ich ja "lediglich" verschiedene Karten / Generationen miteinander vergleichen (was gut ist!) - aber ich weiß eben trotzdem (noch) nicht, wo ich denn mit meiner Wahl dann tatsächlich landen würde, bzw. was mit der Karte möglich wäre bezüglich Auflösung / FPS / Details.

Aber ja, das dürfte in Summe ein ganzes Stück Arbeit werden, welche auch wiederkehrend hinterfragt werden muss. Was im Schnitt für die Spiele anno 2019 gilt, mag für Siele anno 2020 / 2021 schon länger nicht mehr gelten.

Wo eine Grafikkarte "X" erstmalig noch für "FullHD @60+ FPS @MAX" im Schnitt aller Spiele gut gerüstet war, ist sie später vielleicht nur noch eine Empfehlung für "FullHD @30 FPS"...

MfG Blase

Leonidas
2019-11-04, 15:52:39
Wie wäre es, wenn man jährlich einen "Leitwert" angibt, der als grobe Richtlinie fungiert.
Z.B.: um 2019 in FullHD @high (nicht ultra) bei 60fps zocken zu können, sind im Durchschnitt 600% nötig.
2017 wären es dann vielleicht 450% gewesen, 2020 könnten es vielleicht 650% sein.


Es wäre eine Überlegung, so etwas in einem Grafikkarten-Überblick anzugeben. Die gelten immer nur für den Zeitpunkt X, da kann man dan pro Überblick auch immer eine neue Einordnung abgeben.

Thomas555
2019-11-04, 18:11:49
Wie wäre es, wenn man jährlich einen "Leitwert" angibt, der als grobe Richtlinie fungiert.
Z.B.: um 2019 in FullHD @high (nicht ultra) bei 60fps zocken zu können, sind im Durchschnitt 600% nötig.
2017 wären es dann vielleicht 450% gewesen, 2020 könnten es vielleicht 650% sein.

Genau darum geht es mir!

@ Leo: Damit hättest du kaum Mehrarbeit

Gast
2019-11-04, 19:17:55
Abgesehen davon, dass der Index spätestens alle 2 Jahre aktualisiert werden müsste, weil 2 Jahre später eben 100% nicht mehr 100% wären. Und deswegen halte ich das für Kontraproduktiv. Die Liste kann, wenn man Karten vergleichen können soll, nicht gleichzeitig ein "Spielbar-Index" sein.

Das Problem ist vielmehr, dass die alten Karten nicht mehr mitgetestet werden, und damit der Basiswert mit hoher Wahrscheinlichkeit nicht mehr stimmt, da alte Karten in der Regel mit der Zeit relativ deutlich langsamer werden.

In Wirklichkeit müssten die heutigen 700% Karten ziemlich sicher schon deutlich über 1000% sein.

Leonidas
2019-11-04, 20:13:16
Wenn im nächsten Graka-Marktüberblick kein so ein Absatz kommt, erinnere man mich bitte daran.

Denniss
2019-11-05, 00:52:03
Vielleicht kannst du diese 100% auf eine andere/neuere Grafikkarte normalisieren und von da aus die anderen Karten neu berechnen/extrapolieren. Z.B. 1060 6GiB oder RX580 8GiB als neue 100%.

Leonidas
2019-11-05, 05:10:49
Wie vorstehend schon dargelegt wurde, ist dies eine schlechte Idee. Es verwässtert die ansonsten sehr eindeutigen Werte des Index.

Platos
2019-11-05, 09:21:50
Das mit den 60FPS @ FullHD finde ich ne vernünftige Lösung. Am besten (meine Meinung) erstellst du dann aber keine Begriffe wie "Spielbare Grafikkarte" sondern sagst einfach nur, damit kann man etwa 60FPS @ FHD erwarten plus minus.

Was dann Spielbar ist, kann ja dann jeder selbst definieren.

Edit: Du darfst das natürlich gerne auch für 4K 60FPS machen:D

Platos
2019-11-05, 09:33:15
Das Problem ist vielmehr, dass die alten Karten nicht mehr mitgetestet werden, und damit der Basiswert mit hoher Wahrscheinlichkeit nicht mehr stimmt, da alte Karten in der Regel mit der Zeit relativ deutlich langsamer werden.

In Wirklichkeit müssten die heutigen 700% Karten ziemlich sicher schon deutlich über 1000% sein.

Es gibt sicherlich Unterschiede. Ob die so gross sind, ist dann schon reine Spekulation. Ich meinte, es gab mal in der Vergangenheit Korrekturen im 1-stelligen Prozentbereich, weil ein paar ältere Karten neu getestet wurden. (Ich glaube, das waren damals 2-4 Jahre alte Karten, weiss es aber nicht mehr genau)


Aber ja, Perfekt ist es wohl nie, das liegt dann aber nicht an Leonidas' Arbeit sondern an den Redaktionen, die Testen. Der Aufwand wäre natürlich gigantisch, nach z.B 5 Jahren alle GPUs nochmals zu testen.

Popeljoe
2019-11-05, 09:45:42
Aber ja, Perfekt ist es wohl nie, das liegt dann aber nicht an Leonidas' Arbeit sondern an den Redaktionen, die Testen. Der Aufwand wäre natürlich gigantisch, nach z.B 5 Jahren alle GPUs nochmals zu testen.
Sieht man auch z.B. an den CPU und GPU Vergleichen bei Anand, da wird mittlerweile nach Erscheinungsjahr unterschieden und einen Vergleich zwischen einer GPU von 2015 und 2019 kriegt man nur im Ausnahmefall noch hin.
Insofern ist das für Leo schlichtweg nicht machbar.

Thomas555
2019-11-05, 16:14:55
Eine perfekte Tabelle gibt es nicht.
Die meisten interessiert es nicht, ob 5 oder 10 Jahre alte Karten getestet werden.
Es geht den Leuten um neue Karten, welche sie kaufen wollen.
Man vergleich meist 3-Gens miteinander und das wars.

Ein aktueller Hinweis wie:
- RX 580 für Full HD @ 60fps Ø
- Radeon VII für Full HD @ 120fps Ø
sollte nicht schwierig sein und ist kein wirklicher Aufwand.

Popeljoe
2019-11-05, 16:45:11
Eine perfekte Tabelle gibt es nicht.
Die meisten interessiert es nicht, ob 5 oder 10 Jahre alte Karten getestet werden.
Es geht den Leuten um neue Karten, welche sie kaufen wollen.
Man vergleich meist 3-Gens miteinander und das wars.

Ein aktueller Hinweis wie:
- RX 580 für Full HD @ 60fps Ø
- Radeon VII für Full HD @ 120fps Ø
sollte nicht schwierig sein und ist kein wirklicher Aufwand.
Das wäre zu billig und ich glaube nicht, dass das Leos Ansprüchen genügt.

Thomas555
2019-11-05, 18:28:10
Das soll ja auch nur zusätzlich sein, wenn Leo keine Arbeit haben will.

Gast
2019-11-05, 18:59:15
Es gibt sicherlich Unterschiede. Ob die so gross sind, ist dann schon reine Spekulation.

Alleine dadurch, dass älteren Generationen mit der Zeit der VRAM ausgeht müssen die Unterschiede massiv werden.

Leonidas
2019-11-06, 03:09:16
Genau deswegen sind Vergleich oberhalb von 4-5 Jahren auch sinnbefreit. Der mit der Geschichte mitgehende Index ist da genau richtig - er vergleicht die Performance zur Nutzungszeit, nicht in der Theorie nach einem Dutzend Jahren.

Generell habe ich das Thema nun im Blickfeld und überlege mir was. Ich hab das persönlich nie aus der Sicht betrachtet, verstehe nun aber dieserart Blick drauf.

Gast
2019-11-06, 11:28:51
Es wird überall mit Gewalt, wenn auch nachvollziehbarer Weise, auf einen einzigen Wert konzentriert. Ein 2. für UHD. Das kann nicht genau sein.
Selbst wenn irgendwann mal "100% = spielbar" gegolten hätte (was nicht der Fall war), ist dem nicht mehr so. Selbst 500% sind mit allen Reglern am Anschlag nicht mehr zwangsläufig genug für 1080/60. Von der Definition 'spielbar' mal ganz ab.
Niemand wird eine GTX960 mit Setting spielen, die eine RX570/8GB grad so eben mit 60Hz schafft. Und genau da liegt das Problem der an sich sinnvollen Komprimierung auf einen Wert. Spätestens wenn es massive Leistungsunterschiede gibt. Da bringt auch eine Grundsatzdiskussion nichts. U.a. weil die Standpunkte unvereinbar sind. Genau deshalb gibt es immerhin zusätzich den UHD-Wert.
Im Beispiel GTX960 vs RX570/8GB könnte man auch Setting abfragen, bei dem die 960 'spielbar' ist und schauen, was die 570 an fps oben drauf legt.
Ist die Spanne zu groß (HD5750 vs RTX2080Ti oder sowas) , dreht die eine Karte Däumchen oder die andere ist bei 5 statt 50fps. Beides fern des realen Einsatzes.
Ich sehe nicht, dass man das auflösen könnte. Außer - in ähnlichen Leistungsspektrum - durch individuelle 1vs1-Test.

Morgenlicht
2019-11-06, 19:29:29
Ich finde die Einordnung von diesem FullHD/UHD-Index genial! Ich für meinen Teil sehe in diesen Werten einen einfachen nachvollziehbaren Rundum-Vergleich!

Eine Aufsplittung nach FullHD@60/120fps ist enorm abhängig von den gewählten Optionen im Spiel.....die Hardware-Anforderungen variieren von Spiel zu Spiel....die CPU muss auch stimmen ;)

Berniyh
2019-11-06, 19:44:33
Genau deswegen sind Vergleich oberhalb von 4-5 Jahren auch sinnbefreit. Der mit der Geschichte mitgehende Index ist da genau richtig - er vergleicht die Performance zur Nutzungszeit, nicht in der Theorie nach einem Dutzend Jahren.

Generell habe ich das Thema nun im Blickfeld und überlege mir was. Ich hab das persönlich nie aus der Sicht betrachtet, verstehe nun aber dieserart Blick drauf.
Ich persönlich würde von dem auflösungsbezogenen Ranking ehrlich gesagt weg gehen und stattdessen ein jahres-basiertes Ranking aufziehen, wie es ja schon vorgeschlagen wurde.
Dabei würde ich allerdings eben nicht wieder die Auflösung als Referenz wählen, sondern schlicht eine Grafikkarte als "Performance"-Norm wählen.
Möglichst eben eine aus dem Mainstream Bereich, also aktuell z.B. eine 1660, welche dann die 100% definiert.
Nächstes Jahr dann eben die 1660 Super o.ä.

Wenn man will könnte man es sogar so umsetzen wie das in den Benchmarks von Computer Base gemacht wird, wo der User seine Referenz selbst wählen kann.
Hat halt den Nachteil, dass man es in Artikeln schlechter referenzieren kann, da die Werte nicht fix sind.

Leonidas
2019-11-07, 03:51:32
Und das ist der Vorteil der fixen Werte: Sie ändern sich nicht, man kann ganz easy extreme Quervergleiche ziehen.

GeForce 8800 GTX gegen GeForce RTX 2080 Ti FE?
~85% vs. 1450%

Morgenlicht
2019-11-07, 12:28:47
GeForce 8800 GTX gegen GeForce RTX 2080 Ti FE?
~85% vs. 1450%:up: :up: :up: .... Diese Verhältnis erhält man auch, wenn man sich mühsam durch Webseiten quält, wo jemand tatsächlich einen Vergleichstest gewagt hat, in dem diese Grafikkarten gegeneinander angetreten sind :smile:

Berniyh
2019-11-07, 20:01:05
Und das ist der Vorteil der fixen Werte: Sie ändern sich nicht, man kann ganz easy extreme Quervergleiche ziehen.

GeForce 8800 GTX gegen GeForce RTX 2080 Ti FE?
~85% vs. 1450%
Könnte man bei meiner Variante (mit fixer Referenz) ja auch machen.
Nur, dass in dem Fall die 8800 GTX immer weiter abrutschen würde. Ist ja letztendlich nur eine Reskalierung.
Der Vergleich (bei 1660 als Basis) wäre dann eben:
8800 GTX 12% vs 2080 Ti FE 210%.

Wobei man der Einfachheit halber wahrscheinlich Karten unter 20% unter "ferner liefen" zusammenpacken würde.

Platos
2019-11-08, 17:31:55
Ich denke, er macht es nicht und die Argumente warum, sind ja nun auch schon mehrfach erwähnt worden.

Wenn sich die Werte ändern, ist es nicht fix.