PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Sinken die Performance-Steigerungen pro nVidia-Generation?


Leonidas
2017-09-19, 08:58:58
Link zur News:
https://www.3dcenter.org/news/sinken-die-performance-steigerungen-pro-nvidia-generation

Gast
2017-09-19, 09:21:31
Dieser Artikel wurde gesponsert von Nvidia. Man merkt das 3dcenter sehr pro Nvidia ist.
Bei der Überschrift dachte ich noch, das es um einen Artikel geht bei dem die alte Nvidia Karten mit fortschreitenden Generation an Leistung verlieren.
Aber die Informationssysteme eine neue Generation mal mehr mal weniger zulegt ist so interessant wie die Aussage das es nachts draußen dunkel ist.
Ich glaube ich lese mal den original Artikel.

Calypso
2017-09-19, 09:29:33
einfach, weil ein gewisser Preisrahmen eingehalten werden muß bzw. weitere Preissteigerungen nur noch in limitiertem Umfang als marktgängig anzusehen sind. Aber dies bleibt natürlich eine Zukunftsprognose, die konkret jetzt noch nicht eingesetzt hat.


also ich kann nicht sagen, dass dies eine Zukunftsprognose wäre. Ich habe auf grund der geringen Mehrleistung oder viel höheren Preisen schon seit Jahren keine neue Grafikkarte mehr gekauft. Für 200 Euro bekommt man nix mehr, mit dem zum Kaufzeitpunkt aktuelle Titel voll spielen kann. und 350-400 Euro ist einfach mal fast das doppelte des Preises. Aber ist auch nicht schlimm, so kosten die Spiele, die ich ich nur spielen kan, dann auch nur meist weniger als 5 Euro. Ergo doppelt gespart!

HOT
2017-09-19, 09:50:39
Wirklich interessant wird das Diagramm erst dann, wenn man die TDP mit einarbeitet.

CD-LABS
2017-09-19, 09:58:18
Wirklich interessant wird das Diagramm erst dann, wenn man die TDP mit einarbeitet.
Ja, denn dann stehen die Gewinne bis hin zur 8800 doch in einem ganz anderen (Zwie-) Licht dar...

maximus_hertus
2017-09-19, 09:58:32
Das kann man so oder so sehen. Wenn nV eine neue Generation ausruft, dann müssen sie damit leben, dass man dieses als Vergleich heranzieht.

Man hätte ja z.B. die GTX 980 als 70er verkaufen können und die Ti als 80er. Im Prinzip gibt es imo 3 Möglichkeiten zu vergleichen:

- jede Gen die Karte zu einem Preis von x Euro
- jede Gen die gleiche Bezeichnung (also immer x80er, wie im Artikel)
- jede Gen die absolute Topkarte, egal wie lange der Release dauerte.

Bei Fermi dann die 580 und nicht die 480. Bei Kepler die Titan Black und nicht die Titan.


Gefühlt gibt es seit Maxwell 2.0 eine "Sandy-Bridge"-Situation. Eine GTX 970 lag 2014 bei rund 300 Euro. Heute, 3 Jahre später, gibt es eine GTX 1060 zu dem Preis. Minimal schneller, 6 statt 4 GiB, 120 statt 145W. Es sieht auch nicht so aus, als ob sich das in den kommenden Monaten ändern wird.
Noch schlimer ist es bei AMD: Die R9 290(X) ist immer noch eine der schnellsten AMD Karten. Grob die Performance der 480/580, Release warjedoch schon 2013.

Es geht vorwärts, aber nur in neue, größere Preisregionen.

Ferenzo
2017-09-19, 10:22:26
Ich empfand den Artikel als sachlich, weniger Pro Nvidia, nun ja.
Die TDP mit einzubeziehen, ist der beste Vorschlag (vor allem wenn man herstellerintern vergleicht)!
"Gefühlt" wird alles teuerer, wovon Grafikkarten keine Ausnahme bilden. Ich hatte jetzt auch nicht herausfinden können, ob die Preise in der Grafik inflationsbereinigt waren. Das wäre noch eine nette Info.
Nvidia fährt seit einigen Quartalen "brutale" Gewinne, also wird schon was dran sein an den hohen Preisen, aber solange wir die echten Produktionskosten nicht herausbekommen, können wir spekulieren bis es die entsprechenden Plätzchen im Laden gibt (oh ist schon wieder so weit :eek:).

BlacKi
2017-09-19, 10:41:47
Wirklich interessant wird das Diagramm erst dann, wenn man die TDP mit einarbeitet.
intererssant bestimmt.
interessant wäre aber auch die chipfläche pro leistungsteigerung. daran hat iwie keiner gedacht.
oder gar die leistungssteigerung pro watt. die daten wären dazu schon da.

im ursprünglichen artikel wird einfach irgnoriert, das ein umgelabelter chip nichts neues ist, deshalb kann man ihn und sollte ihn raus halten. FFS...

wenn man dann die nackten zahlen sieht, dann erkennt man das die chip generationen seit kepler stetig zuwachsen um 60%. so genau, das dahinter ein ziel oder schema zu sehen ist. ergo wird volta ebenfalls 60% drauflegen auf pascal. genau wie bei maxwell (fehlender neuer fertigungsprozess) wird das diesesmal nicht so einfach. aber entweder geht man in der chipfläche massiv nach oben, oder die alten tdp werden über board geworfen oder beides. just IMO.

Gast
2017-09-19, 11:37:39
*Generationen* interessiert doch eh nur die Leute, die immer das aktuellste brauchen oder keine Ahnung haben. (Rein auf Leistung bezogen nicht auf Features)

Meine Meinung: Leistungsdifferenz gegen Releasedatumdifferenz auftragen. Also die zeitliche Ableitung der Leistung.

Dazu dann drei Graphen: 1x jeweils die Top Karte, einmal die 200€+Inflation Karte, einmal die Karte bei gegebenem Verbrauch.

Gast
2017-09-19, 11:42:53
Ist halt 'ne Ableitung.
Prinzipiell ja nicht falsch, aber da gibt es sinnvolleres.
Z.B. X = Zeit und Y= Performance. Ein Geodreieck anlegen kann wohl jeder. Gern inkl. Refreshs, und sowohl xx80(Ti) und Titan und natürlich AMD im Vergleich und gern übern Tellerrand auch CPUs zum Vergleich.
Bei den CPUs lamentiert 3DC ja schon lange über mangelnden Zuwachs bei der Performance.
Und dann könnte man noch Performance pro Euro einwerfen. Mit oder ohne Wechselkurs und Inflation :-)
Nvidia hat beinahe den Status von intel erreicht und kann sich fette Preise leisten, weil AMD nur hinterherhechelt.
Andere im Thread erwähnte Punkte sind hingegen 99% aller Endkunden ziemlich schnuppe.

Gast
2017-09-19, 11:44:13
also ich kann nicht sagen, dass dies eine Zukunftsprognose wäre. Ich habe auf grund der geringen Mehrleistung oder viel höheren Preisen schon seit Jahren keine neue Grafikkarte mehr gekauft. Für 200 Euro bekommt man nix mehr, mit dem zum Kaufzeitpunkt aktuelle Titel voll spielen kann. und 350-400 Euro ist einfach mal fast das doppelte des Preises. Aber ist auch nicht schlimm, so kosten die Spiele, die ich ich nur spielen kan, dann auch nur meist weniger als 5 Euro. Ergo doppelt gespart!

Geht mir genauso, wobei meine Geforce 670 damals auch schon um die 400€ gekostet hat, aber damals stand nur die 680 und 690 drüber. Heute fühlt sich die 70er an wie untere Midrange an und kostet trotzdem mehr .. nein danke.

Wenn man die AAA-Blockbuster auslässt spielt es sich aber immer noch im 60-100fps Bereich also kein Problem, ich hoffe nur sie hält noch bis sich der Markt eines Tages wieder "normalisiert".

Achill
2017-09-19, 12:13:27
Ich frage mich jetzt wirklich, ob ihr die zwei Video geschaut habt.

Es passiert eine Betrachtung der Inflation sowie der Chipfläche sowie der Strukturbreite.

@Leo - die Betrachtung ist doch was man mit der neuen Generation an Performance dazu bekommt und was der jeweilige Preispunkt war.

@HOT - ja man könnte auch eine Perf/W Betrachtung machen, aber dies ist dann eine andere. Außerdem denke ich, ist die Datenbasis schlechter ist, da bei früheren Tests noch nicht so detailliert auf den Verbrauch geachtet wurde (meist nur Gesamtsystem) - soweit ich mich noch erinnere.

Teil 1
_j6TiSdKT0A

Teil 2
Jd1bp9eSfwo

aths
2017-09-19, 12:43:48
Wenn man die Technikgenerationen vergleichen möchte, muss man natürlich die Karten auseinanderhalten und kann nicht nach xx80 gehen.

Allerdings, wenn Nvidia wieder mal mit verwirrenden Namen aufwartet, ist es aus meiner Sicht ein durchaus möglicher Ansatz, die Karten nach ihren Namen zu beurteilen. Fällt das Ergebnis für Nvidia schlechter aus – selbst schuld, man hätte auch vernünftige Modellnummern nutzen können.

nikk
2017-09-19, 12:44:49
Dies bedingt einfach die Fertigungstechnologie, welche zwar rein technologisch immer noch ganz gut voranschreitet, dafür aber immer teurer wird


Die innerhalb eines Jahres verdoppelten Gewinne und Profitraten bei Nvidia zeigen, dass es daran (allein) nicht liegen kann.
https://www.3dcenter.org/news/nvidia-geschaeftsergebnisse-q22017-die-rekorde-purzeln-weiter
https://ycharts.com/companies/NVDA/profit_margin
https://www.youtube.com/watch?v=Jd1bp9eSfwo&t=20m30s

BlacKi
2017-09-19, 12:57:05
Die innerhalb eines Jahres verdoppelten Gewinne und Profitraten bei Nvidia zeigen, dass es daran (allein) nicht liegen kann.
https://www.3dcenter.org/news/nvidia-geschaeftsergebnisse-q22017-die-rekorde-purzeln-weiter
https://ycharts.com/companies/NVDA/profit_margin
https://www.youtube.com/watch?v=Jd1bp9eSfwo&t=20m30s
die gewinne kommen nicht hauptsächlich aus dem gaming markt. würde man die 1080 für 250€ anbieten gäbe es bald keine konkurenz mehr. man muss das also durchaus differnziert betrachten.

MrSpadge
2017-09-19, 13:05:24
Die Grundaussage "GPUs sind schon recht ausgereift und die Fortschritte verlangsamen sich" kann man mit Sicherheit auch bei AMD wiederfinden. Und bei Intel, auch wenn dort nicht so klar ist, ob sie es überhaupt noch versuchen.

MrS

5CH4CHT3L
2017-09-19, 13:31:30
Man müsste die x-Achse zu einer Zeiteinteilung machen und den Fortschritt als Fortschritt / Jahr notieren, das könnte sicherlich anschaulicher werden.
AMD mit zu shen wäre natürlich auch gut :)

Leonidas
2017-09-19, 13:47:18
Dieser Artikel wurde gesponsert von Nvidia.


Ich möchte wirklich gern all diejenigen sehen, die sich in ihr Messer stürzen (müssen), wenn die Unwahrheit dieser Aussage eines Tages belegt werden wird.

TightNX
2017-09-19, 13:55:54
Dies senkt vor allem das Potential zukünftig weiter steigender Endverbraucher-Preise, denn Midrange-Grafikkarten für 400-500 Euro wären einfach nicht mehr so gut absetzbar.
Ähhh, doch. Genau darum ging es ja. Die "80er" sind längst Midrange. 1080-Launch: $699/$599 MSRP, aktuell ab 500 Euro. Totaler Ladenhüter. Nicht.

Platos
2017-09-19, 14:21:39
Eigentlich müsste man die Perfomance/Dollar berechnen und nicht xx80 vergleichen. Bestes Beispiel ist die 980 vs 1080. Kosten nicht gleich viel, also sind sie auch nicht vergleichbar (also Listenpreise zu Release).

Das blöde ist dann natürlich noch die Geldentwertung. Aber einfach xx80 zu vergleichen bringt einfach gaaar nichts. Nicht einmal ein bisschen was im groben. Nvidia könnte nächstes Jahr auch eine 2080 rausbringen, mit der doppelten Leistung der 1080, die aber 1000 Kostet. Dann kann man auch nichts vergleichen.

Also man müsste die Leistung/realem Geldwert messen. Dann muss man sich noch für eine Währung entscheiden. Das ist aber ne schwierige Sache. Am besten müsste man das ganze mit einer Währung machen, die eben möglichst wenig an Wert verloren hat. Der Euro ist da natürlich die schlechteste Wahl :D

Edit: Aber das die Leistungssprünge (irgendwann) abnehmen, ist eigentlich klar. Das muss man nichtmal untersuchen. Das ist immer so, das ist beim Auto so, das ist beim Spitzensportler so, das ist bei Hardware so... immer.

nikk
2017-09-19, 14:28:43
die gewinne kommen nicht hauptsächlich aus dem gaming markt. würde man die 1080 für 250€ anbieten gäbe es bald keine konkurenz mehr. man muss das also durchaus differnziert betrachten.

Du baust Strohmänner. Dass in den kleineren Märkten die Gewinne ebenfalls gestiegen sind, ändert nichts an den gestiegenen Gewinnen im dominanten Gaming-Sektor. Gaming ist nach wie vor der mit Abstand größte Markt und der dortige Umsatz ist viel stärker gestiegen als die verkauften Stückzahlen, d.h. Nvidia verdient mehr pro verkaufter GPU. Data center usw. benutzen übrigens die gleichen Fertigungstechnologien und sind damit mindestens genauso stark von Kostensteigerungen betroffen. Die Melk-Kuh Gamer finanziert Nvidia die Expansion auf andere Märkte.

Lehdro
2017-09-19, 15:01:06
Ähhh, doch. Genau darum ging es ja. Die "80er" sind längst Midrange. 1080-Launch: $699/$599 MSRP, aktuell ab 500 Euro. Totaler Ladenhüter. Nicht.
Ich glaube du hast den Begriff Midrange nicht verstanden. Zum erscheinen der 1080 war eher sowas wie GTX 970 Midrange. Eben weil die 1080 das Maß aller Dinge darstellte.

Lowend ist 1030 bis 1050, Midrange wäre 1050Ti - 1060, 1070 + 1080 sind Oberklasse und 1080Ti und drüber sind HighEnd.
Zwischen 80 € (1030) und 720 € (1080TI) liegt genau in der Mitte die Midrange, aka um die 250-350€. Genau wie bei der Performance, da liegt die 1060 genau bei der Hälfte von der 1050 ausgehend zur 1080 TI.

Und kommt mir jetzt nicht mit Codenamen von Chips, einzig allein entscheidend über die Einordnung in die Midrange ist der Preis und die Performance, ob da GP104, 102 oder 106 stehen ist egal.

Das war übrigens früher auch nicht anders, schauen wir mal bei der uralten Geforce 6:
6800 GT + Ultra = HighEnd
6800 = Oberklasse
6600 GT + 6800 LE = Midrange (Mittig in Preis und Performance)
6400 + 6600 = Low End

Das einzige was sich geändert hat ist:
a) höheres Preisniveau in ALLEN Bereichen
b) Zwei Chips mehr für die ganze Produktpalette (statt 3 sind es es nun 5)

Gast
2017-09-19, 15:39:23
Den Typ von AdoredTV kann man doch nicht ernst nehmen. Maximal mit Halbwissen, manchmal mit nicht einmal mit diesem und komplett ahnungslos, ist er ein glühender AMD-Fanboy und nimmermüder Nivdia-Hater. Wenn man es mal braucht kann man sich seine Videos mal zum fremdschämen anschauen, aber mehr bieten diese nicht.

FlashBFE
2017-09-19, 15:50:36
Man hätte den Artikel noch weiter treiben können, denn die originale Grafik war eh schon nicht sauber:

Warum werden gegen Ende alle Refreshes ausgewertet, aber ganz am Anfang fehlen GeForce 256 (SDR), GF2 (die erste, die GTS war ja selbst schon ein Refresh) und GF2 Ultra (die damals preislich mit Abstand teuerste Karte in langer Zeit)?

Es ist einfach Blödsinn, ein Diagramm über Marketing-Namen zu erstellen, denn die sind Schall und Rauch.

Gast
2017-09-19, 16:18:35
Die hohen Preise sind doch keine NVIDIA merkmale, sie sind eher ein zeichen das die Konkurenz pennt und nicht leifern kann oder aber Absprachen vorliegen :
Meine NEU gekauften GFX 3DFX/Nvidia/ATi/AMD Karten mit jeweiligen Kaufpreis chronologisch:

MIRO 3D Vodoo 1 6 mb Vram 350 DM
Maxi Gamer TNT 2 16 GB 450 DM
9700pro 420€
1900XT 520€ (die XTX war noch teurer )
Gainward HD4870 1GB 250€
Gainward GTX 460 1 GB 230€ ( sidegrade 4870 verstorben keine Rückerstattung )
HD7970 545€ ( Ersatz für VRAM kränkelnde GTX 460 keine Rückerstattung )
EVGA GTX1080 FTW 720€ (die Vega 64 Ref kosten schon 600 da werden die vergleichbaren customs wie die FTW auch bei 700€ landen und damit im bereich der billigen 1080Tis)

Klar gibts hier und da Schwankungen aber nen allgemein hohes Preislevel gabs schon früher . der Gewinn von NVIDIA ist nicht allein auf die Marge zurückzuführen sondern gekoppelt mit dem hohen Marktanteil erst möglich.

Irgendwas muss die Firma richtig machen bzw. die Konkurenz falsch wenn ihre Produkte vom Kunden so bevorzugt werden.
Für mich persönlich war es das prinzipiele nicht mehr vorhanden sein von vergleichbaren Produkten das mich nach mehreren ATi/AMD wieder zu NVIDIA greifen ließ. Wenn ich solch eine Lücke in meinem Portfolio lasse ist es natürlich nicht verwunderlich das mein Marktanteil einbricht.

Ich kann hier auch kein gute oder böse Firma verhalten erkennen. wer die ensprechenden Produkte hatte hat schon immer ensprechenden Preise genommen.

FX55/57 für knapp nen 1000er
GTX8800 600euro
TITAN 1000er
TITAN XP 1300
Intel Extrem CPUs der Core series bis zu 1500
Threadripper 1000er

Jede Firma macht das geht ja ums Geld verdienen.

Ferenzo
2017-09-19, 17:34:45
Die hohen Preise sind doch keine NVIDIA merkmale..................


Du hast die Preise alle noch gefunden? Respekt :cool:

Noch kurz auf das Thema Gewinn vs. Preisanstieg eingehend. So ziemlich jede große erfolgreiche Firma verdient sich momentan eine extrem goldene Nase (schaut mal auf den Dax, etc. die Börsenwelt). Steuerspartricks, Lohndumping und Verlagerungen und was weiß ich nicht alles könnten( ich wiederhole: könnten) auch bei Nvidia nicht unerheblich zum "Gewinn" beitragen. Just my 2 Cents

Gast
2017-09-19, 18:21:14
Beide Grafiken ergeben keinen Sinn. Weder die xx80 noch die "bearbeitete Version".

Die Krux an der Sache ist die weitere Aufspaltung des Segments durch mehr Chips mit einer deutlichen Preisanpassung nach oben. Letzteres ist der Entscheidende Punkt. Da ist die Sammlung in Grafikforum mit den jährlichen Steigerungen bei 150 und 300€ deutlich aussagekräftiger. Schön wenn die Chipgeneration noch schneller wird - aber nicht mehr bezahlbar ist!

Der Mainstream ist ja inzwischen bei 400€ für Restchips angekommen. 28nm hat da auch seinen Anteil dran. Wer die Preis+Leistungssteigerung nicht gepeilt hat war das (Miss)Management von AMD. Der irrige Versuch 970er Leistung zum 970er Preis in der 14nm Generation zuverkaufen. Wer Leistung wollte konnte da nur nach oben zu NV ausweichen. Der Vega-Fail knüpft derweil ja wunderbar an.

Technisch wäre noch die Entwicklung mm²/€ für die Chips interessant.

IchoTolot
2017-09-19, 19:03:49
AdoredTV? Ernsthaft? Der Kanal ist pro allem was AMD bringt und sucht Fehler bei jedem anderen.

Korvaun
2017-09-19, 19:08:14
nV orientiert sich einfach an Apple/Samsung&Co. Die Top-Riege der Smartphones kostet an die 1000€ und hat einen knallharten jährlichen Produktzyklus, wird aber trotzdem IMMER WIEDER aufs neue dutzende Millionen mal verkauft.
Neue Grafikkarten für 500-700€ alle 1,5 bis 2 Jahre sind geradezu lächerlich. Da ist noch viel Potential nach oben, aber die Marke muss natürlich auch entsprechend hip sein. nV ist auf dem besten Weg dahin ;)

Lehdro
2017-09-19, 21:01:42
Neue Grafikkarten für 500-700€ alle 1,5 bis 2 Jahre sind geradezu lächerlich.
Früher war es fast zwangsweise jedes Jahr für 500€, sehe da nicht den Unterschied. Der Preis passt sich der Zeitdifferenz an...

Mal ganz davon abgesehen das man heute mit ner 7970 zb noch vernünftig zocken kann, versuch das mal auf die "guten alten" Zeiten zurück zu projizieren.

Schaffe89
2017-09-19, 21:45:52
Bei der Überschrift dachte ich noch, das es um einen Artikel geht bei dem die alte Nvidia Karten mit fortschreitenden Generation an Leistung verlieren.


Wie schon mehrfach von Onlineredaktionen aufgezeigt wurde ist das falsch.
Nvidia hat ihren Rythmus mehr oder weniger beibehalten und AMD ist weit abgefallen. Bei AMD hielten sich die Performancegewinne der letzten Generationen stark in Grenzen.

Redirion
2017-09-19, 23:01:46
Die editierte Grafik sieht dann wesentlich freundlicher für nVidia aus, zeigt aber natürlich auch weniger Grafikkarten-Generationen an. Denn genau hier liegt der Hund begraben: Es gab zuletzt bei nVidia nicht wirklich kleinere Performance-Steigerungen pro neuer Grafikchip-Generation – dafür kamen neue Chip-Generationen nicht mehr so häufig wie noch in den Anfangsjahren der 3D-Grafikkarten, wurde die Zwischenräume von nVidia gern mittels Refresh-Generationen überbrückt.

AdoredTV geht in dem Video genau darauf ein, was er unter Generation versteht. Nämlich das große jährliche Release von neuen Grafikkarten. Ob das nun ein Refresh ist oder ein Salvage-Chip wie z.B. beim 780 und 980 oder Non-High-End-Chip 1080 und kritisiert korrekterweise, dasss Nvidia früher statt des Salvage-Chips gleich den vollen Chip releast hätte. Das wäre ja auch durchaus möglich gewesen. Zumal der Nachfolger des Refreshes dann auch psychologisch so wirkt, als würde man gleich zwei Generationen überspringen, wenn man vom Vorgänger des vorherigen Refreshs kommt. Und so betrachtet, stimmt die Kurve von AdoredTV. Die Leute haben bei neueren Generationen plötzlich weniger Leistungsgewinn als vorher, weil Nvidia den vollen Chipausbau zurückhält und erst später den Vollausbau als "neues Modell" präsentiert.

BlacKi
2017-09-19, 23:27:53
AdoredTV geht in dem Video genau darauf ein, was er unter Generation versteht. Nämlich das große jährliche Release von neuen Grafikkarten. Ob das nun ein Refresh ist oder ein Salvage-Chip wie z.B. beim 780 und 980 oder Non-High-End-Chip 1080 und kritisiert korrekterweise, dasss Nvidia früher statt des Salvage-Chips gleich den vollen Chip releast hätte. Das wäre ja auch durchaus möglich gewesen. Zumal der Nachfolger des Refreshes dann auch psychologisch so wirkt, als würde man gleich zwei Generationen überspringen, wenn man vom Vorgänger des vorherigen Refreshs kommt. Und so betrachtet, stimmt die Kurve von AdoredTV. Die Leute haben bei neueren Generationen plötzlich weniger Leistungsgewinn als vorher, weil Nvidia den vollen Chipausbau zurückhält und erst später den Vollausbau als "neues Modell" präsentiert.
sry, aber das ist quatsch. von anfang bis ende. bei der konkurenz werden und wurden die karten 2-3 mal durchgekaut bis ersatz kam, genau wie bei NV. warum manchmal nicht der full chip released wird kann auch fertigungstechnische oder stückzahlgründe haben. wenn ein refresh kam, dann mit angepasstem preis und namen, das war schon immer so, ist doch auch ok so.

OBrian
2017-09-20, 01:16:36
Das Problem ist nicht irgendein Bias von irgendwem, sondern die Herangehensweise. Man darf nicht auf das Marketing hereinfallen und das "Topmodell" oder irgendein vom Hersteller definiertes Segment (alles mit einer 8?) betrachten. Man muß es stattdessen streng vom Kunden aus betrachten. Der hat Geld und will dafür Leistung haben.

Also muß man für die Studie einen bestimmten Kaufbetrag ansetzen, dieser muß normalisiert werden, d.h. Inflation und ggf. Wechselkursschwankungen (je nachdem ob man die Situation in einem Land oder weltweit betrachen möchte) müssen rausgerechnet werden. Und dann muß man vierteljährlich einkaufen gehen, d. h. die sagen wir 500 normalisierten US-Dollar ausgeben für GPU(s) und schauen, wieviele Flops man dafür kriegt. Oder wieviele FPS. Was dann wieder einen standardisierten Benchmarkparcour erfordern würde, z.B. "die 20 meistverkauften Spiele bei ihren Standardsettings in der Auflösung, die die meisten Benutzer aktuell fahren, Ergebnisse gewichtet nach Marktanteil der Spiele". Und das Ganze muß man dann über viele Jahre exakt gleich machen.

Wenn man das nicht macht, sind die Ergebnisse falsch, und zwar ohne daß man weiß, wie falsch und in welche Richtung, somit also wertlos. Wenn man das aber genau so mit Akribie macht, wird man vom Aufwand vollkommen wahnsinnig.

Und letztlich ist ja die Frage, was einem sowas bringt. Die Hersteller bieten deswegen ja nichts anderes an, man kann so oder so nur kaufen, was da ist.

Wichtiger ist eher bei den üblichen Benchmarkreviews, daß mit alten Karten verglichen wird (mit aktuellen Treibern). Dann kann sich jeder einfach eine Grenze setzen, ab der er eine neue Karte kauft (z.B. +50 oder +100% Performance zum gleichen Preis), und wenn sich der Zeitrahmen eben verschiebt, bis diese Bedingung erfüllt wird, dann ist es eben so. Und wer einfach hibbelig wird, weil er unbedingt was Neues braucht, der gründet sein Kaufverhalten auch nicht auf solche Studien.

Leonidas
2017-09-20, 05:34:32
AdoredTV geht in dem Video genau darauf ein, was er unter Generation versteht. Nämlich das große jährliche Release von neuen Grafikkarten.


Diese willkürliche Festlegung funkioniert nur nicht so wie gedacht. Die zeitlichen Abstände der Generationen sind sehr verschieden. Zudem steuert NV zuletzt eher einen Kurs "eine neue Generation aller zwei Jahre" an. Das steigert die Kurve, wenn man es immer nur "pro Generation" ansieht, real ist die Entwicklung aber verlangsamt.

Alle die einen echten zeitbasierten Graph sehen wollen, haben wohl letztlich Recht.

Calypso
2017-09-20, 10:22:36
Eigentlich müsste man die Perfomance/Dollar berechnen und nicht xx80 vergleichen. Bestes Beispiel ist die 980 vs 1080. Kosten nicht gleich viel, also sind sie auch nicht vergleichbar (also Listenpreise zu Release).

Ich finde schon, dass 980 vs 1080 vergleichbar ist, genau wie 480, 580 etc. Ich meine, nvidia hat ja das Namenschema selbst so gelegt, dass eben die 1080 den Nachfolger der 980 suggeriert. Also kann man (und sollte man) auch dies vergleichen. Wie gesagt, nvidia hat das Namenssschema festgelegt.

Dass sie zum Beispiel von der 560 zur 660 das Namensschema gegenüber des Chips(grö0e) geändert haben, hat dann eben zur Folge, dass der Leistungsgewinn geringer geworden ist. Wie gesagt, nvidia hat das Namensschema vergeben und sollte eben dann auch dafür paar drauf kriegen. Und dann sollten die Redaktionen auch nicht anfangen zu sagen, "ach aber hier gibts jetzt eine Titan, also vergleichen wir hier den größten und damals war es nur eine x80, dann vergleichen wir es eben damit." Das ist meiner Meinung nach der falsche Ansatz.

Was man noch vergleichen kann ist, wieviel Leistung erreicht eine x60 Karte gegenüber der zugehörigen x80 Karte. Also 560 zu 580 wie 1060 zu 1080. Und ich glaube, da sind die Leistungszuwächs eim Midrange noch wesentlich geringer als im Highhend...

BlacKi
2017-09-20, 10:50:33
Dass sie zum Beispiel von der 560 zur 660 das Namensschema gegenüber des Chips(grö0e) geändert haben, hat dann eben zur Folge, dass der Leistungsgewinn geringer geworden ist. Wie gesagt, nvidia hat das Namensschema vergeben und sollte eben dann auch dafür paar drauf kriegen. Und dann sollten die Redaktionen auch nicht anfangen zu sagen, "ach aber hier gibts jetzt eine Titan, also vergleichen wir hier den größten und damals war es nur eine x80, dann vergleichen wir es eben damit." Das ist meiner Meinung nach der falsche Ansatz.

Was man noch vergleichen kann ist, wieviel Leistung erreicht eine x60 Karte gegenüber der zugehörigen x80 Karte. Also 560 zu 580 wie 1060 zu 1080. Und ich glaube, da sind die Leistungszuwächs eim Midrange noch wesentlich geringer als im Highhend...
welche 560 meinst du? :biggrin: früher war eben nicht alles besser. es gab die 560 und die ti jeweils mit gf110 und 114. der eine chip war +500mm² der andere +300mm². modellnamen sind sowieso schall und rauch. wer versucht sich daran zu orientieren wird nicht weit kommen.

wenn ich wissen wollte welche leistungssteigerung in den letzten jahren gewonnen wurden und wo die reise bei nv hingeht, dann würde ich nach dem schema des grafikprozessors des des gp104, gm204, gk104, und vl noch gf114. jeweils wurden ca 60% performance draufgelegt.

das ist alles dieselbe performance klasse gewesen auch wenn jene mehrere release mitgemacht haben. generation finde ich das falsche wort, die gtx 680 und die 770 sind dieselbe generation.

G3cko
2017-09-20, 14:03:40
Mann sollte weder nach Namen noch nach Verbrauch gehen, sondern nach dem Preis. Am Ende interessiert doch nur wie viel mehrperformance am Ende bei ähnlichem Preispunkt rauspringt.

Nach Chipfläche könnte man gehen, aber seit dem die Fertigungsprozesse länger genutzt werden auch nicht mehr vergleichbar. Ein 600mm2 zu Beginn eines neuen Prozesses ist für den Massenmarkt schlicht nicht (mehr) bezahlbar. Die Titan ist also nichts anderes als ein Aufschlag bis die yield akzeptabel ist. Wenn Nvidia aus der Titan eine ti mach, kommt auch AMD mit einem ähnlich großen Chip. Zufall? eher nicht.

Verbrauch könnte man machen aber auch nicht immer sinnvoll. ZB wenn das Produkt deutlich effizienter ist als das der Konkurrenz muss man auch nicht das Budget ausfahren.

Interessant sind solche Werte schon aber am wichtigsten ist und bleibt der Preis in USD.

Lehdro
2017-09-20, 15:09:18
wenn ein refresh kam, dann mit angepasstem preis und namen, das war schon immer so, ist doch auch ok so.
Nein, einfach nein.

aktuelle Beispiele: GTX 1080 Refresh + GTX 1060 Refresh

BlacKi
2017-09-20, 23:11:51
Nein, einfach nein.

aktuelle Beispiele: GTX 1080 Refresh + GTX 1060 Refresh
bullshit, das ist doch kein refresh? das sind sonderkarten (soweit ich weis) nur von den boardpartnern, die die erlaubnis von NV haben schnelleren speicher zu verwenden. evga taktet sogar nur den langsamen speicher hoch, ist das nun auch ein 1080 refresh?

Lehdro
2017-09-20, 23:57:38
bullshit, das ist doch kein refresh? das sind sonderkarten (soweit ich weis) nur von den boardpartnern, die die erlaubnis von NV haben schnelleren speicher zu verwenden.
Wenn du so argumentierst gab es nie einen Refresh von irgendwas, sondern nur immer "Sonderkarten". Sehr hörig von dir :cool:

Wer das anbietet ist doch sogar relativ wurscht, wenn es doch von NV höchstoffiziell (https://www.geforce.com/whats-new/articles/nvidia-geforce-gtx-1080-11gbps-gddr5x) angekündigt und beworben (https://www.geforce.com/whats-new/articles/geforce-gtx-1080-11gbps-gtx-1060-9gbps-custom-graphics-card-roundup) worden ist.

BlacKi
2017-09-21, 00:11:46
alles klar.

Platos
2017-09-21, 22:59:33
Ich finde schon, dass 980 vs 1080 vergleichbar ist, genau wie 480, 580 etc. Ich meine, nvidia hat ja das Namenschema selbst so gelegt, dass eben die 1080 den Nachfolger der 980 suggeriert. Also kann man (und sollte man) auch dies vergleichen.

Man sollte also nach Marketing-Namen vergleichen und nicht nach Preis-Leistung ? Das kannst du ruhig machen, aber man will schliesslich wissen, wie viel Leistung man für das selbe Geld X Jahren später bekomme.

Genau das ist doch eine Absicht von Marketing-Namen, dass man diese vergleicht und nicht mit dem Preis. Wenn du die GTX 1080 auf den Preis von der 980 runter rechnest (beide bei Marktstart), dann hat die 1080 dann auf einmal 15% weniger Mehrleistung. Sie hätte ja auch die Preise gleich gestalten können und noch eine GTX 1080 Ti bringen (und die jetzige 1080Ti als 1090 oder so). Haben sie aber nicht gemacht, warum ? Weil dann der "Nachfolger" nicht mehr so eine extrem grosse Mehrleistung gehabt hätte.

Platos
2017-09-21, 23:13:08
Diese willkürliche Festlegung funkioniert nur nicht so wie gedacht. Die zeitlichen Abstände der Generationen sind sehr verschieden. Zudem steuert NV zuletzt eher einen Kurs "eine neue Generation aller zwei Jahre" an. Das steigert die Kurve, wenn man es immer nur "pro Generation" ansieht, real ist die Entwicklung aber verlangsamt.

Alle die einen echten zeitbasierten Graph sehen wollen, haben wohl letztlich Recht.

Es gibt zwar erst nach 2 Jahren eine neue Generation, aber auch nur de jure und nicht de facto.

De facto hat Nvidia zumindest im Top-Segment eine neue Generation herausgebracht, und zwar die GTX 1080 Ti und die GTX 1080. Die GTX 1080 TI (fast) zum Preis der GTX 1080 (also sozusagen der Nachfolger derer) und die GTX 1080 "erneut" (war ja schon auf dem Markt), aber mit deutlich niedrigerem Preis. Man kann das preislich auch als Nachfolger der GTX 1070 sehen (welche zum Start ein bisschen günstiger als die GTX 1080 im April war).

Also im Grunde hat Nvidia schon eine neue Generation herausgebracht bzw. einfach die Preise gesenkt, was schlussendlich für den Kunden den selben Effekt hat, wie eine neue Generation (Mehr Leistung zum selben Preis, jetzt einfach gleiche Leistung für weniger Geld, das ist nur anders herum gedacht). Dazu hat nvidia sich noch die ganze Arbeit für die Entwicklung einer neue Generation gespart.

Das ganze hat aber nur bei der 1080 stattgefunden, die anderen Karten haben ja keinen Preisrutsch bekommen in dem Masse. Das macht dafür dann alles darunter in der Preis-Leistung ziemlich unattraktiv (vor allem die 1070)

Petr
2017-09-26, 18:52:27
Please, add manufacturing process size to the cards in graphs.