PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Stillstand im Grafikkarten-Markt?


Tobalt
2015-01-02, 14:17:28
es heißt ja, dass sich GPUs wegen parallelisierbarkeit noch prima weiter entwickeln im gegensatz zu CPUs..

Nunja. Vor etwas mehr als zwei Jahren (Ende 2012) habe ich mir eine 1Ghz HD7850 gekauft. Die Karte war damals ein ziemlicher Preis Leistungsknüller. Sie lag wohl gleichauf oder knapp unter der GTX 660.

sie hat nun leider immer mehr problemchen und möchte ersetzt werden, aber es hat sich gar nichts getan.. Für das Geld von 140 Euro bekomme ich heute nicht mehr Performance als damals (also vielleicht 10%)

:freak:

Wieso? Bei den Topkarten gibt es doch regelmäßig schnellere Modelle.. Wieso rutschen da die Preise nicht in diesem wichtigen Performance Segment ?

dargo
2015-01-02, 14:41:54
Das liegt an den immer teureren, kleineren Fertigungsverfahren. Die Effizienz der GPUs nimmt auch ständig zu. Eine Leistungsverdoppelung kannst du mittlerweile in einem Abstand von 3-3,5 Jahren zu einem ähnlichen Preis erwarten. Vor paar Jahren ging das noch mit 1-1,5 Jahren. Momentan dürftest du mit dieser Karte deine Leistung verdoppeln.
http://geizhals.at/de/asus-r9290-dc2oc-4gd5-directcu-ii-oc-90yv05f0-m0na00-a1054782.html

Allerdings für effektiv 230€ und keine 140€. Verwunderlich ist das dennoch nicht wenn selbst deine Karte in 28nm gefertigt wurde.

Pirx
2015-01-02, 14:53:29
Was für Problemchen macht denn die Karte? Nicht, daß du unnötig Geld verschleuderst...

In 2015 sollte sich schon noch einiges tun insofern halte ich den jetzigen Zeitpunkt für einen Grafikkartenneukauf nicht für besonders günstig.

Lyka
2015-01-02, 14:59:54
Es wäre halt super, wenn man durch die Fertigungsverfahren irgendwelche großen Vorteile hätte... um meine 7870 rauszuhauen, müsste ich auch um die 300 Euro ausgeben, um tatsächliche Sprünge zu erwarten

rudl
2015-01-02, 15:37:43
Sei doch froh dass deine Karte auch 2 Jahre nach dem Kauf noch halbwegs aktuell ist und nach wie for die Meisten Spiele problemlos laufen ;)
außerdem war die Karte beim release eher richtung 250€

Lyka
2015-01-02, 15:40:32
außer Spiele, die 3 GB und mehr V RAM brauchen, ich muss FC4 in Low spielen :eek: :D

blackbox
2015-01-02, 16:08:51
Ich denke, der Grund liegt im fehlendem Wettbewerb. Und im Kartell von Nvidia und AMD.

Tobalt
2015-01-02, 16:19:13
@ Pirx:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=555598
Die freezes weiten sich schleichend nun auf andere Titel aus. Treten teils auch bei höheren oder niedrigeren Temps auf.

@Lyka:

Sehe das ähnlich. Meine Karte hat gar nur 1 GB. Ich spiele aber in FullHD und eher langsamere Titel, da ich kein schnelles Display habe. Bin idr cpu limitiert mit meinem core 2 Duo :-D

Ich würde die Karte ja auch gern behalten, bis zum nächsten Generalupdate (schätzungsweise Skylake vierkern). Aber leider sehe ich mich schon jetzt zum Upgrade gezwungen. GM206 warte ich aber noch ab.

@ blackbox: Gerade zwischen diesen beiden herrschte doch immer ein angenehmer Preiskampf, da es eben sowas wie Fertigungsmonopole nicht gibt.

Bleibt also das Fazit, dass der Pitcairn Chip einfach schon sehr früh das Optimum aus der Fertigung rausgeholt hat und bis zu neuen Fertigungen mehr Leistung auch mehr kostet.

:frown: Die GTX960 wird sich nvidia sicher auch vergolden lassen.

blackbox
2015-01-02, 16:24:24
Da irrst du dich.
Es gab vor 5-6 Jahren schon mal eine Verurteilung wegen Preisabsprachen. Die Strafe war aber winzig.
Und Preiskampf? Wann gab es den mal wirklich?

Aber man muss kein Träumer sein, es ist genau wie bei den Prozessoren: bei nur je 2 Herstellern bieten Absprachen sich geradezu an. Und in beiden Bereichen sind die Preise hoch, die Innovationen gering.

FeuerHoden
2015-01-02, 16:30:00
Aber man muss kein Träumer sein, es ist genau wie bei den Prozessoren: bei nur je 2 Herstellern bieten Absprachen sich geradezu an. Und in beiden Bereichen sind die Preise hoch, die Innovationen gering.

ja genau, AMD und Intel haben sich 10 Jahre lang abgesprochen. :rolleyes:

blackbox
2015-01-02, 16:34:51
Wovon träumst du nachts?
Ja, Absprachen in irgendeiner Form. Und wenns nur indirekt ist. Intel könnte mit seiner Marktmacht ohne Probleme AMD auslöschen. Tun sie aber nicht, denn dann wären sie Monopolist im Bereich der Desktop- und Serverprozessoren. So wird uns immer noch Wettbewerb vorgegaukelt, wo nicht wirklich einer ist.

dargo
2015-01-02, 16:40:23
Sehe das ähnlich. Meine Karte hat gar nur 1 GB. Ich spiele aber in FullHD und eher langsamere Titel, da ich kein schnelles Display habe. Bin idr cpu limitiert mit meinem core 2 Duo :-D

Bei einem C2D lohnt eh kein Grakaupgrade. Da muss du auch die Plattform wechseln.

Leonidas
2015-01-02, 16:42:18
Wenn AMD und NV clever sind, sprechen sie sich auch ab. Nicht konkret, aber in dem Sinne, daß man sich nicht dort wehtut, wo es absolut unnötig ist. Auch nicht so, daß Absprachen bindend wären. Läuft wohl eher ähnlich wie bei konkurrierenden Mafia-Clans: Manchmal halten die Vereinbarungen, manchmal gibt es Krieg.

Wenn AMD und NV sich nicht absprechen, verlieren beide durch den mörderischen Preiskampf nur. Und wenn wir am Ende nur noch mit einem Grafikchip-Entwickler dastehen, dann gute Nacht.

Dicker Igel
2015-01-02, 16:48:02
außer Spiele, die 3 GB und mehr V RAM brauchen, ich muss FC4 in Low spielen :eek: :D
Krass, FC3 rennt aber mit hohen Settings?

Tobalt
2015-01-02, 18:04:03
Sehe das ähnlich. Meine Karte hat gar nur 1 GB. Ich spiele aber in FullHD und eher langsamere Titel, da ich kein schnelles Display habe. Bin idr cpu limitiert mit meinem core 2 Duo :-D

Ich würde die Karte ja auch gern behalten, bis zum nächsten Generalupdate (schätzungsweise Skylake vierkern). Aber leider sehe ich mich schon jetzt zum Upgrade gezwungen. GM206 warte ich aber noch ab.

Bei einem C2D lohnt eh kein Grakaupgrade. Da muss du auch die Plattform wechseln.

selektives zitieren ist hilfreich.

@ topic:

ich fande schon dass im graka bereich gute Konkurrenz herrschte, solange die Markanteile ~ 50:50 waren. da konnte kein marktsegment stiefmüterlich behandelt werden. Scheinbar fehlt aber jetzt AMD die puste um die wohl relativ teuren chips *noch* billiger zu verkaufen. Der vorhandene preisvorteil gegenüber nv reicht nicht aus um marktanteile zu gewinnen und nV zu preisreaktionen zu zwingen.

Wäre das eine absprache, sähe die nicht gut für AMD aus.

Knuddelbearli
2015-01-02, 18:38:41
Gibt ziemlich sicher keine Absprachen dafür sind die Marktanteile einfach zu einseitig.

Bei 30:70 für NV, ohne das AMD einen extremen Knüller über mehrere Jahre hat ( um auch OEMs zu überzeugen ), braucht keine Absprache

und Intel mit 87:13 bei gleichzeitig zu 80% besseren Produkten sowieso nicht

Der Sandmann
2015-01-02, 19:00:01
Gibt ziemlich sicher keine Absprachen dafür sind die Marktanteile einfach zu einseitig.

Bei 30:70 für NV, ohne das AMD einen extremen Knüller über mehrere Jahre hat ( um auch OEMs zu überzeugen ), braucht keine Absprache

und Intel mit 87:13 bei gleichzeitig zu 80% besseren Produkten sowieso nicht

Wo hast du den 30:70 Marktanteil (im Vergleich zu AMD) zugunsten von nv her?

Szudri
2015-01-02, 19:18:31
Wo hast du den 30:70 Marktanteil (im Vergleich zu AMD) zugunsten von nv her?

Steam hat derzeit (wenn man nur NV/AMD Betrachtet) bei Grakas: 63,5/35,5 für NV, bei CPU sinds 75/25 für Intel. NV und Intel könnten mit Sicherheit 1 Jahr kleine Preise machen um AMD dauerhaft aus dem Weg zu räumen.

Hier noch was: http://hexus.net/tech/news/graphics/78209-nvidia-pulls-away-amd-graphics-card-market-share/ da werden die 70/30 herkommen.

digidoctor
2015-01-02, 21:30:41
Das ist alles Jammern auf hohem Niveau. Es war noch nie so billig, sich einen richtig schnellen Rechner zu kaufen. Durch den geringen Preisverfall bekommt man für die Vorjahreshardware noch richtig Asche. Das war früher anders. D.h. man muss nur relativ wenig drauf legen und ist immer ganz vorne dabei. Sowas wie 1000 Euro CPUs und Tri-SLI mal außen vor.

Lyka
2015-01-02, 21:33:42
wieviel bezahlst du für eine notwendige 3/4 GB Vram-Karte? Und ja, es gibt Spiele, die brauchen das schon...

dargo
2015-01-02, 21:46:26
170-230€.

aths
2015-01-02, 22:20:57
Wenn AMD und NV clever sind, sprechen sie sich auch ab. Nicht konkret, aber in dem Sinne, daß man sich nicht dort wehtut, wo es absolut unnötig ist. Auch nicht so, daß Absprachen bindend wären. Läuft wohl eher ähnlich wie bei konkurrierenden Mafia-Clans: Manchmal halten die Vereinbarungen, manchmal gibt es Krieg.

Wenn AMD und NV sich nicht absprechen, verlieren beide durch den mörderischen Preiskampf nur. Und wenn wir am Ende nur noch mit einem Grafikchip-Entwickler dastehen, dann gute Nacht.
War der 970-er Preispunkt keine Kampfansage?

CyLord
2015-01-02, 22:28:19
Wegen Preisabsprachen gab es schon Probleme wegen ATi+nVidia. Das kam dann auf, als ATi durch AMD übernommen worden ist. Das ist verboten.

Kriton
2015-01-02, 23:41:28
War der 970-er Preispunkt keine Kampfansage?

Nur wenn Du die überzogenen Preise der 680 zugrunde legst und vergisst, dass es eigentlich ein Performance-Chip ist.

-/\-CruNcher-/\-
2015-01-03, 05:34:20
@ Pirx:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=555598
Die freezes weiten sich schleichend nun auf andere Titel aus. Treten teils auch bei höheren oder niedrigeren Temps auf.

@Lyka:

Sehe das ähnlich. Meine Karte hat gar nur 1 GB. Ich spiele aber in FullHD und eher langsamere Titel, da ich kein schnelles Display habe. Bin idr cpu limitiert mit meinem core 2 Duo :-D

Ich würde die Karte ja auch gern behalten, bis zum nächsten Generalupdate (schätzungsweise Skylake vierkern). Aber leider sehe ich mich schon jetzt zum Upgrade gezwungen. GM206 warte ich aber noch ab.

@ blackbox: Gerade zwischen diesen beiden herrschte doch immer ein angenehmer Preiskampf, da es eben sowas wie Fertigungsmonopole nicht gibt.

Bleibt also das Fazit, dass der Pitcairn Chip einfach schon sehr früh das Optimum aus der Fertigung rausgeholt hat und bis zu neuen Fertigungen mehr Leistung auch mehr kostet.

:frown: Die GTX960 wird sich nvidia sicher auch vergolden lassen.

So dermasen interessant ist sie seit dem Angriff mit der GTX 970 nicht mehr würde ich mal behaupten

Wenn du dir Performance Daten anschaust ist ein 60 FPS target mit hoher CS komplexität zumindestens unter DX11 ziemlich ausgeschlossen.

Die GTX 970 bekommt da gerade die kurve

Mark3Dfx
2015-01-03, 08:09:27
wieviel bezahlst du für eine notwendige 3/4 GB Vram-Karte? Und ja, es gibt Spiele, die brauchen das schon...

Wenn ich den Erlös meiner alten GTX 460 in der Bucht mit einrechne hat
hat mich das Upgrade auf eine "alte" 7970GE/280X mit 3 GB VRAM genau 100€ gekostet. ;D

P.S.
Gruß an dargo :wink:

HOT
2015-01-03, 08:37:05
Da irrst du dich.
Es gab vor 5-6 Jahren schon mal eine Verurteilung wegen Preisabsprachen. Die Strafe war aber winzig.
Und Preiskampf? Wann gab es den mal wirklich?

Aber man muss kein Träumer sein, es ist genau wie bei den Prozessoren: bei nur je 2 Herstellern bieten Absprachen sich geradezu an. Und in beiden Bereichen sind die Preise hoch, die Innovationen gering.
Jo das stimmt. Oligopole sind nicht wesentlich besser als Monopole. Vielfalt gibts aber fast nirgendwo. Das System der "heilenden" Konkurrenz funktioniert einfach nicht.

Coda
2015-01-03, 10:53:50
Ich denke, der Grund liegt im fehlendem Wettbewerb. Und im Kartell von Nvidia und AMD.
Nein, der Grund liegt wirklich primär bei der Chip-Fertigung. Die neuen Prozesse brauchen immer länger und der Preis pro Transistor wird nicht mehr kleiner, selbst wenn der Chip weniger Fläche braucht. Zudem ist der Stromverbrauch durch Leckströme schon länger ein Problem.

Man kann nicht magisch schnellere GPUs bauen.

Mancko
2015-01-03, 13:26:45
Nur wenn Du die überzogenen Preise der 680 zugrunde legst und vergisst, dass es eigentlich ein Performance-Chip ist.

Die Prozesse werden immer komplizierter und auch teurer. Zusätzlich dazu sinken die Gesamtstückzahlen für dedizidierte GPUs. Logischerweise muss alleine deshalb der Kunde mehr bezahlen. Die Situation heute ist nicht mehr vergleichbar mit vor ein paar Jahren. GPUs unterliegen definitiv einer Kostensteigerung durch die o.g. zwei Punkte. Demzufolge muss der Verbraucher auch mehr bezahlen.

Lyka
2015-01-03, 13:29:56
Geld ausgeben, um Geschwindigkeitstechnisch ein Status Quo und trotzdem mehr Stromverbrauch zu haben :|

Dawn on Titan
2015-01-03, 13:39:47
Wenn man die gleiche Foundry im gleichen Prozess nutzen muss, dann ergibt sich wenig Konkurrenz.

aths
2015-01-03, 14:16:45
Nur wenn Du die überzogenen Preise der 680 zugrunde legst und vergisst, dass es eigentlich ein Performance-Chip ist.
Als die 970 releast wurde, war die 680 gar nicht mehr im Angebot.

Genauso wie ein als Highend gedachter Chip aufgrund unerwarteter Konkurrenz im Preis sinken muss (ATI HD 2900, NV GTX 280 einige Wochen nach dem Launch – Kunden einiger Hersteller / Händler bekamen nach dem Kauf der 260 oder 280 noch einen kleinen Rabatt!) kann ein als Performance-Klasse gedachter Chip den momentanen Highend-Punkt eines Marktes bedecken.

Natürlich war es nicht so dass die merkten "Hoppala, unser Performance-Chip übertrifft im Moment ja Highend", das wussten die vorher und versuchen, innerhalb derselben GPU-Generation zwei mal die Highend-Lorbeeren abzugreifen. Gleichzeitig bleibt mehr Zeit für die Optimierung des großen Chips, zudem hat man dann schon die Erfahrungen mit einem kleineren Chip. 970/980 ist auch nicht der erst Maxwell, mit der 750 sammelte NV wahrscheinlich schon einige Erfahrungen mit der neuen Architektur.

Innerhalb derselben Generation einen zweiten Chip nachzuschieben ist bei Nvidia Standard. (TNT - TNT2, GeForce 256 - GeForce 2, GeForce 3 - GeForce 4, 5800 - 5900, usw.)

Deswegen würde man beim Release von TNT oder GeForce 3 auch nicht von einem Performance-Chip sprechen.

AYAlf
2015-01-03, 14:34:17
Wir können alle hoffen, dass es jetzt noch mal einen mächtigen Sprung im
Gamingbereich gibt was Grafikkarten angeht. 4k bzw. 5k Gaming sei Dank! Vorher hat es keinen Sinn gemacht große Sprünge zu machen, da die Konsolen die Grafikpracht in Spielen diktieren. Und wie wir alle wissen sind die so genannten "NextGen" Konsolen eher schwach auf der Brust was CPU und GPU und RAM Power angeht.
Der neue Marketing Gag 4k kommt da der TV, Monitor und Grafikbranche gerade recht um mal was neues zu kreieren. Stillstand ist der Tod, lang lebe der Kapitalismus!

MasterElwood
2015-01-03, 14:41:22
War der 970-er Preispunkt keine Kampfansage?

Für MICH war ers :eek:

Hatte ein 660er - und wollte eigentlich eine günstige 770er oder warten auf die 960er.

Aber hab jetzt eine 970er - und meinen Performance Index damit glatt verdoppelt ;D

Allerdings hab ich eine Xeon E3-1230 V2 - und HIER tut sich ÜBERHAUPT nix in Sachen möglicher Aufrüstung was sich auszahlt! :mad:

Ich bin der Meinung, der "Stillstand im CPU Markt" ist deutlich gravierender!!!

MasterElwood
2015-01-03, 14:50:43
Wir können alle hoffen, dass es jetzt noch mal einen mächtigen Sprung im
Gamingbereich gibt was Grafikkarten angeht. 4k bzw. 5k Gaming sei Dank! Vorher hat es keinen Sinn gemacht große Sprünge zu machen, da die Konsolen die Grafikpracht in Spielen diktieren. Und wie wir alle wissen sind die so genannten "NextGen" Konsolen eher schwach auf der Brust was CPU und GPU und RAM Power angeht.
Der neue Marketing Gag 4k kommt da der TV, Monitor und Grafikbranche gerade recht um mal was neues zu kreieren. Stillstand ist der Tod, lang lebe der Kapitalismus!

VR wird die treibende Kraft der GraKa Industrie. Ich hab eine Gear VR - und Leute ich sag euch: hier kommt was auf uns zu was 99.99% der Leute noch nicht mal im Dunst ahnen! Seit Tagen spiel ich lieber Casual Demos in VR - als IRGENDWAS am PC. Weils SOOO viel geiler ist! Und die CV1 bringt dann "normale" Games mit diesem Eindruck!

Ich wette - dass praktisch JEDER Gamer, der mal eine CV1 probiert hat, diese einfach haben MUSS! Und VR frisst GPU Leistung ohne Ende. Der Segen der GraKa Industrie...

Kriton
2015-01-03, 15:16:43
Die Prozesse werden immer komplizierter und auch teurer. Zusätzlich dazu sinken die Gesamtstückzahlen für dedizidierte GPUs. Logischerweise muss alleine deshalb der Kunde mehr bezahlen. Die Situation heute ist nicht mehr vergleichbar mit vor ein paar Jahren. GPUs unterliegen definitiv einer Kostensteigerung durch die o.g. zwei Punkte. Demzufolge muss der Verbraucher auch mehr bezahlen.

Schau Dir noch mal die Gewinnentwicklung von Nvidia an, dann reden wir noch einmal.

Lyka
2015-01-03, 15:18:20
damit werden aber höherwertige Spiele für Normal-User unspielbar oder Sie steigen auf Konsolen um.

Kriton
2015-01-03, 15:18:53
Als die 970 releast wurde, war die 680 gar nicht mehr im Angebot.

Das ist mir schon klar. Ich will darauf hinaus, dass die 970 niedrig im Preis wirkt, weil die Chips vorher überzogen teuer waren.


Deswegen würde man beim Release von TNT oder GeForce 3 auch nicht von einem Performance-Chip sprechen.

Die Diskussion gab es ja schon ein paar Mal im Forum. Ich würde sagen wir stimmen überein, dass wir hier nicht übereinstimmen.

Mancko
2015-01-03, 15:34:56
Schau Dir noch mal die Gewinnentwicklung von Nvidia an, dann reden wir noch einmal.

Die Gewinne sind nicht höher als sie es vor Jahren auch schon mal waren. Gemessen am Umsatz waren es ca. 14% in Q3 FY2015. Das halte ich für gesund aber nicht übertrieben hoch.

Eins ist doch klar. Es kann ja nicht sein, dass Unternehmen ihre Produkte zum Selbstkostenpreis anbieten. Nur weil AMD ständig um die schwarze 0 oder in den roten Zahlen herumpendelt, ist das kein Indikator für vernünftige Preisbildung. Das hat seine eigenen Gründe und ist keinesfalls der Maßstab. Ein gesundes Unternehmen muss auch ordentliche Gewinne erwirtschaften und 14% halte ich in der Branche mit den Risiken und Schwankungen für absolut nicht übertrieben.

Schnoesel
2015-01-03, 16:00:56
Soweit mir bekannt macht die Grafiksparte AMDs Gewinn. Nur der Rest halt nicht. Und ja auch ich denke, dass Titan und Co. andere Karten günstig erscheinen lassen. Super Entwicklung ... nicht.

Mancko
2015-01-03, 16:09:30
Soweit mir bekannt macht die Grafiksparte AMDs Gewinn. Nur der Rest halt nicht. Und ja auch ich denke, dass Titan und Co. andere Karten günstig erscheinen lassen. Super Entwicklung ... nicht.

Kaum bis gar nicht. Da die Umsätze von AMDs Grafiksparte zurückgehen, wird dort auch zunehmend weniger Geld erwirtschaftet. Wenn die 20 Mio gemacht haben im letzten Quartal, dann wäre das schon ein Highlight. Haben sie aber mit Sicherheit nicht mehr, denn die gesamte PC Sparte war im Minus. In der Vergangenheit hats oft noch gerreicht die CPU Verluste auszugleichen. Das einzige was momentan dort schwarze Zahlen schreibt ist die Konsolen Sparte. AMD ist sowieso nicht vergleichbar. Die sind ein Ebenbild eines erfolglosen Unternehmens und mit Sicherheit nicht der Maßstab.

Summa sumarum bleibts einfach dabei, dass die Kosten pro dedizidiertem GPU DIE steigen. Zum einen wegen teurerer und komplexerer Prozesse und zum anderen wegen rückläufiger Stückzahlen. Also muss der liebe Verbraucher eben auch akzeptieren, dass er mehr bezahlen muss.

Schnoesel
2015-01-03, 16:16:11
Ich bezweifle dass der 28nm Prozess so teuer war dass es den Preis einer Titan, Titan Black, oder noch besser Titan Z rechtfertigt. Nvidia testet die Grenzen aus und das sehr erfolgreich. Das ist einer der Hauptgründe für mich warum es teurer wurde. Seit wievielen Jahren sind wir nun bei 28nm?

Sicher spielt die teuerer werdende Fertigung hier mit rein aber sicher nicht in dem Ausmaß und nicht bei der jetzigen Generation (sollte diese ebenfalls noch in 28nm erscheinen).

dargo
2015-01-03, 16:35:23
Summa sumarum bleibts einfach dabei, dass die Kosten pro dedizidiertem GPU DIE steigen. Zum einen wegen teurerer und komplexerer Prozesse und zum anderen wegen rückläufiger Stückzahlen. Also muss der liebe Verbraucher eben auch akzeptieren, dass er mehr bezahlen muss.
Muss er das? Der Verbraucher sitzt am längeren Hebel. Er kann die Produkte genauso im Regal stehen lassen.

Lyka
2015-01-03, 16:41:18
dann muss er aber auch auf aktuelle Spiele verzichten, nicht nur auf die entsprechende Hardware

z.B. Ubisoft wird eher nicht sagen, dass Sie die nächsten Spiele weniger Hardware-hungrig machen, weil weniger Leute kaufen

dargo
2015-01-03, 16:44:48
dann muss er aber auch auf aktuelle Spiele verzichten, nicht nur auf die entsprechende Hardware

Quark, der Zeitpunkt des Kaufs ist entscheidend. Du kannst mir doch nicht ernsthaft erzählen, dass aktuell 230€ für eine R9 290 non X (OC) zu teuer ist. Man sollte schon realistisch bleiben. 300€ für eine GTX970 sind imho auch nicht zu viel. Alles darüber ist natürlich vom P/L mies.

Edit:
Es gab übrigens vor nicht allzulanger Zeit den Abverkauf von Tahiti. Da gabs dann eine HD7970 für 119€.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10316411&postcount=1797

Wer da nicht zuschlägt ist selber schuld.

Tobalt
2015-01-03, 17:10:58
Darum geht es hier ja auch gar nicht.

Dass in anbetracht der Prozesse und der tatsächlich sehr hoehn Leistung diese Preise in Ordnung gehen, sehe ich schon.

Mein Problem ist, dass es seit Einführung der 28 nm Pitcairns im Performance segment keinerlei weiterentwicklung bei P/L gab. Bei den Topkarten aber schon.

exxo
2015-01-03, 17:40:17
230€ für eine R9 290 finde ich jetzt nicht übertrieben sondern eher fair.


Btw. brauchen sich die Hersteller in einem Oligopol gar nicht Absprechen. Es reicht in die Preisliste des Mitbewerbers zu schauen.

Mancko
2015-01-03, 19:09:13
Muss er das? Der Verbraucher sitzt am längeren Hebel. Er kann die Produkte genauso im Regal stehen lassen.

Das wird ihm langfristig nichts nützen. Unternehmen die kein Geld verdienen sind eben irgendwann auch die längste Zeit Unternehmen gewesen. Er kommt letztendlich nicht um den Umstand herum, dass die Kosten pro GPU DIE steigen. Dann wird er sie eben auch bezahlen müssen oder er übt sich halt in Verzicht. Das heißt dann eben auch weniger Leistung akzeptieren oder aber für gewisse Zeit auf den gewohnten Spielspass verzichten um später das gleiche Produkt günstiger erwerben zu können.

In Summe bezweifel ich, dass sich die übliche Kundschaft im Verzicht übt. Wenn ich sehe wie schnell die Leute alle 2 Jahre 600 Euro für ein SmartPhone hinlatzen, das kaum mehr kann als der Vorgänger, dann werden viele eben auch steigende GPU Preise akzeptieren. Die letzte Generation hat bereits gezeigt, dass dem so ist.

Kriton
2015-01-03, 19:21:42
Die Gewinne sind nicht höher als sie es vor Jahren auch schon mal waren. Gemessen am Umsatz waren es ca. 14% in Q3 FY2015. Das halte ich für gesund aber nicht übertrieben hoch.

Eins ist doch klar. Es kann ja nicht sein, dass Unternehmen ihre Produkte zum Selbstkostenpreis anbieten. Nur weil AMD ständig um die schwarze 0 oder in den roten Zahlen herumpendelt, ist das kein Indikator für vernünftige Preisbildung. Das hat seine eigenen Gründe und ist keinesfalls der Maßstab. Ein gesundes Unternehmen muss auch ordentliche Gewinne erwirtschaften und 14% halte ich in der Branche mit den Risiken und Schwankungen für absolut nicht übertrieben.

Dann rechne mal die Quersubventionierung für Tegra raus. Es geht mir auch nicht um die Frage ob Nvidia Geld verdienen soll oder nicht, aber wen man allein wegen des 28nm Prozesses glaubt, dass die Karten so deutlich teurer sein müssen, dann hat Nvidia mir ihren überzogenen Preisen ja alles richtig gemacht...:rolleyes:

dargo
2015-01-03, 19:28:40
In Summe bezweifel ich, dass sich die übliche Kundschaft im Verzicht übt. Wenn ich sehe wie schnell die Leute alle 2 Jahre 600 Euro für ein SmartPhone hinlatzen, das kaum mehr kann als der Vorgänger, dann werden viele eben auch steigende GPU Preise akzeptieren. Die letzte Generation hat bereits gezeigt, dass dem so ist.
Was ist denn deine Quelle? Wenn ich mir die Top 10 Grafikkarten bei GH immer anschaue liegt der Preis im Schnitt bei ~300€. Ein paar Freaks die 500+€ für Grafikkarten ausgeben wird es immer geben. Die Anzahl zur Masse ist aber verschwindend gering. Die überzogenen Preise bei Nvidia hatten mich damals auch zum Wechsel zu AMD bewegt.

Mancko
2015-01-03, 19:55:55
Dann rechne mal die Quersubventionierung für Tegra raus. Es geht mir auch nicht um die Frage ob Nvidia Geld verdienen soll oder nicht, aber wen man allein wegen des 28nm Prozesses glaubt, dass die Karten so deutlich teurer sein müssen, dann hat Nvidia mir ihren überzogenen Preisen ja alles richtig gemacht...:rolleyes:

Nein nicht nur wegen des Prozesses sondern zusätzlich wegen rückläufiger Stückzahlen. Du musst schon alles lesen was ich sage und nicht nur einen Teil.
Das notwendige R&D muss immer mehr auf geringere Stückzahlen umgelegt werden und das R&D wird nunmal nicht kleiner werden. Hinzu kommen kompliziertere Prozesse und zudem extrem hohe Nachfrage durch die ganzen SoC Hersteller auf den neuen Prozessen. Das treibt nun mal die Kosten und damit den Preis.

Mancko
2015-01-03, 19:58:53
Was ist denn deine Quelle? Wenn ich mir die Top 10 Grafikkarten bei GH immer anschaue liegt der Preis im Schnitt bei ~300€. Ein paar Freaks die 500+€ für Grafikkarten ausgeben wird es immer geben. Die Anzahl zur Masse ist aber verschwindend gering. Die überzogenen Preise bei Nvidia hatten mich damals auch zum Wechsel zu AMD bewegt.

AMD wird auch nicht ewig aggressiv anbieten können. Die müssen auch endlich mal Geld verdienen. Bisher vernichtet das Unternehmen nur Geld und genutzt hat ihnen das gegen Kepler gar nichts. Sie haben Profite abgegeben, sie haben Marktanteile abgegeben und noch viel schlimmer sie haben im Verhältnis zur Konkurrenz ordentlich Umsatz abgegeben. Verteilt nach Umsätzen hat AMD bei dedizidierten GPUs allenfalls noch einen Marktanteil von 30% -> Tendenz fallend. Irgendwann werden auch die vor der Frage stehen ob das so weiter geht. Ich vermute die werden mit der kommenden Generation die Preise ebenfalls anheben. Denen bleibt auch gar nichts anderes mehr übrig und hoffentlich findet sich nicht wieder irgendein Idiot der denen Geld gibt. Das verzerrt den Markt und das Wahrnehmungsvermögen einiger GPU Kiddies hier und in anderen Foren. Am Ende des Tages muss der Endkunde für die Kosten aufkommen und nicht irgendwer anderes.

Lyka
2015-01-03, 20:20:21
man kann nur hoffen und vermutlich gehen die Firmen davon aus, dass integrierte Grafiklösungen langfristig viel erfolgreicher werden

Thomas Gräf
2015-01-03, 20:24:39
Was jetzt?...keiner soll mehr AMD Grakas kaufen weil die Firma nur Geld vernichtet und in 2 jahren gibts sowieso nur noch Intel iGPU's??

aths
2015-01-04, 00:50:23
Das ist mir schon klar. Ich will darauf hinaus, dass die 970 niedrig im Preis wirkt, weil die Chips vorher überzogen teuer waren.Woran macht man sowas fest?

Die Diskussion gab es ja schon ein paar Mal im Forum. Ich würde sagen wir stimmen überein, dass wir hier nicht übereinstimmen.Das ist aber eine Sache, die im Grunde objektiv beantwortbar ist. Das heißt, eine hat Recht, einer hat Unrecht.

Wenn ich Unrecht habe, will ich es auch wissen.

Thomas Gräf
2015-01-04, 01:19:56
@aths...was hier die Quintessenz ist, man zahlt auch schon ab 300 euro einen Enthusiasten Aufschlag. Soo und die eine Bude macht wohl was draus, und die andere verbrennt die Kohle.
Naja kennt man auch von Formel1 Teams, oder Fussballvereinen usw...

aufkrawall
2015-01-04, 02:18:51
GK110 war lange außer Konkurrenz und im Gegensatz zur 480 nicht kaputt.
Vorher hatty AMD mit Cypress Druck gemacht. Könnte diesmal wieder mit Fiji/Bermuda passieren, also womöglich Licht am Ende des Tunnels.
Bis dahin kann man mit der 290 zufrieden sein, drunter siehts aber wahrlich recht mau aus.

=Floi=
2015-01-04, 03:02:21
ist der transistor auf dauer wirklich noch teurer, im vergleich zu dessen größerem vorgänger, wenn das gesamte volumen der XXnm produktion dank dem mobile sektor erheblich ansteigt?
ich denke auch bei der automation wird sich erheblich mehr getan haben als noch vor 10 jahren. man wird heute auf einer fertigungsstraße relativ einfach auf einen anderen chip umbauen können.

Brillus
2015-01-04, 04:28:51
ist der transistor auf dauer wirklich noch teurer, im vergleich zu dessen größerem vorgänger, wenn das gesamte volumen der XXnm produktion dank dem mobile sektor erheblich ansteigt?
ich denke auch bei der automation wird sich erheblich mehr getan haben als noch vor 10 jahren. man wird heute auf einer fertigungsstraße relativ einfach auf einen anderen chip umbauen können.

Zum ersten Teil, ohne es jetzt 100% genau zu wissen kann man schon davon ausgehen das es erstmals so stimmt einfach weil Käufer wie auch Hersteller sich darin einig sind.

Wo cih mir nicht ganz sicher bin ist halt wieviel der Transistorkosten umgelegte Kosten für Maschinen und Entwicklung sind, da haben sich da müssten die Kosten so um den Faktor 2-3 bestiegen sein.

Aber auch haben sich die Arbeitsschritte erhöht, aktuell sidn wir bei doppelter Belichtung, ich glaub schon beim nächsten Prozess will Intel auf 3-fach Belichtung wechseln. Dann kommen noch höhere Anforderungen an Reinheit etc dabei.

Mit dem Umbauen bin ich mri nciht ganz sicher was du meinst, nach meinem Wssen ist das teure wenn ein neuer Chips kommt die Masken zu erstellen, wechseln zwischen Masken wnn man sie hat sollte relativ einfach gehen.

Mr. Lolman
2015-01-04, 11:42:53
Ein bisschen scbizophren wirkts ja schon was manche hier schreiben. Einerseit verschleudert AMD angeblich ihre Grafikkarten, andererseits kauft sich ja doch fast jeder hier dann die von NV.

Die 3DCenter Umfrage DSR vs VSR war auch tendenziös, denn dem Aspekt, dass 2560 (als quasi höchste Auflösung wo SingleGPU mit neueren Spielen noch akzeptable Performance bringt), auf 1920 bei der AMD Lösung (die übrigens auch schon seit Ewigkeiten mit simplen Regtweak freischaltbar war) nicht nur schärfer ist, sondern auch flimmerärmer, konnte man dort nichtmal in Form einer passenden Antwortmöglichkeit Rechnung tragen. (Was nutzt mir ein 8 Gang DSG mit Sportmodus vom Hersteller X, wenn die schnöde Wandlerautomatik vom Hersteller Y im Alltag einfach geschmeidiger läuft). Auch seh ich bei AMD keinen 60 seitigen Thread über Mikroruckelproblematik bei SingleGPU Konfigurationen, und die ganze NV Inspectorgeschichte mit AA-Bits hat sich auch schon mehr als überholt. Was bleibt? PhysX und Gameworks. Und deswegen zahlt man einerseits gerne den Aufpreis und meint gleichzeitig dass AMD andererseits ihre GPUs verschleudert!?

aufkrawall
2015-01-04, 11:46:57
Auch seh ich bei AMD keinen 60 seitigen Thread über Mikroruckelproblematik bei SingleGPU Konfigurationen

Bravo, jetzt wirds aber objektiv...


Was bleibt? PhysX und Gameworks. Und deswegen zahlt man einerseits gerne den Aufpreis und meint gleichzeitig dass AMD andererseits ihre GPUs verschleudert!?
Die 50% bessere Effizienz ist natürlich keiner Erwähnung würdig. :freak:

Raff
2015-01-04, 11:48:02
AA-Bits sind übrigens keineswegs übeholt, die Zigtausend DX9-Spiele, welche man mit SGSSAA aufblasen kann, verschwinden ja nicht einfach. ;)

MfG,
Raff

aufkrawall
2015-01-04, 11:52:07
Sagen wir mal so, es ist schon klar unwichtiger geworden.

Man muss aber auch einfach mal sehen, dass eine 970 schneller als eine 290 und eine 980 schneller als eine 290X ist.
AMD hat jetzt keinen VRAM-Vorteil mehr. Ist klar, dass sich bei der Effizienz dann alles auf Maxwell 2 stürzt (gegen den man ja auch nicht mehr mit fehlendem D3D 11.2 argumentieren kann).

Mr. Lolman
2015-01-04, 11:55:44
Ja weil ja alle andauernd alte Spiele spielen, die die zufälligerweise nicht auch schon bei AMD mit SGSSAA laufen würden... :rolleyes:

Der Durchschnittsuser hat doch nichtmal die Zeit alle Neuerscheinungen anzuspielen, geschweige denn durchzuspielen. Und wenn man echt mal ein altes Spiel anwirft was echt kein SGSSAA haben sollte, tuts zur Not auch VSR + MLAA (schonmal getestet?).

BTW: Ihr schreibt ja selbst, dass ihr kaum Zeit habt, euch tiefergehend mit der Materie auseinanderzusetzen - zumindest war das der Grund, dass in eurer Redaktion niemand den HQ-AF Bug bei NV bemerkt haben will.

EDIT: Die OC 970 die PCGH in den Benchmarks testet, brauchen doch mehr als eine 980. Da ist nix mehr mit guter Effizienz. Ums Spulenpfeifen ists ja auch ziemlich ruhig geworden. Aber eher weil das Thema schon ausgelutscht ist, oder?

Raff
2015-01-04, 11:59:42
Ja weil ja alle andauernd alte Spiele spielen, die die zufälligerweise nicht auch schon bei AMD mit SGSSAA laufen würden... :rolleyes:

Der Durchschnittsuser hat doch nichtmal die Zeit alle Neuerscheinungen anzuspielen, geschweige denn Durchzuspielen. Und wenn man echt mal ein altes Spiel anwirft was echt kein SGSSAA haben sollte, tuts zur Not auch VSR + MLAA (schonmal getestet?).

BTW: Ihr schreibt ja selbst, dass ihr kaum Zeit habt, euch tiefergehend mit der Materie auseinanderzusetzen - zumindest war das der Grund, dass in eurer Redaktion niemand den HQ-AF Bug bei NV bemerkt haben will.

Dich dürfte die PCGH 02/2015 (ab kommendem Mittwoch im Handel) interessieren, dort gibt's ein elfseitiges BQ-Special, das alle aktuellen Erkenntnisse zu AF/DSR/VSR/SGSSAA/Postfiltern zusammenfasst. :)

MfG,
Raff

aufkrawall
2015-01-04, 12:00:21
Erzähl doch keinen Stuss. Welchen algo nutzt denn VSR, damit es mit Faktoren <4x nicht flimmert?
Wahrscheinlicher dürfte sein, dass CB einfach Mist getestet hat. Es ist technisch nicht zu erklären....

Edit: Zum Thema SGSSAA bei AMD D3D9 erzwingen, wieder mal aktuell... :
http://forums.guru3d.com/showthread.php?t=394837
Qualität ist beschissen.

Mr. Lolman
2015-01-04, 12:06:00
Erzähl doch keinen Stuss. Welchen algo nutzt denn VSR, damit es mit Faktoren <4x nicht flimmert?
Wahrscheinlicher dürfte sein, dass CB einfach Mist getestet hat. Es ist technisch nicht zu erklären....

Keine Ahnung. Jedenfalls nicht Nearest Neighbour + Gauss (was imo ohnehin ziemlich dumm ist)

dargo
2015-01-04, 12:07:05
AA-Bits sind übrigens keineswegs übeholt, die Zigtausend DX9-Spiele, welche man mit SGSSAA aufblasen kann, verschwinden ja nicht einfach. ;)

MfG,
Raff
Das mag für manche gelten die gerne noch Uraltschinken spielen. Ich gehe da mit der Zeit mit. Und nüchtern betrachtet bleibt bei DX11.x nur die bessere Nutzung der CPU (wobei ich diese auf keinen Fall runterspielen möchte, finde das sehr wichtig). Wobei man hier wieder differenzieren muss. Die großen Vorteile gibts nur bei Titeln die sich NV auch explizit anschaut. Außerhalb von den sogenannten AAA Spielen könnte es schwierig werden. Hat sich das irgend jemand mal angeschaut? Zusätzlich ist es von großen Vorteil wenn man eine 8-Thread-CPU oder mehr hat. In dem Fall kann NV die Treiberlast besser verteilen. GPU-PhysX juckt mich nicht, Gameworks erst recht nicht und Downsampling finde ich eh nur bis max. 2880x1620 sinnvoll. Das liegt aber auch daran, dass ich nur aktuelle Games spiele.

aufkrawall
2015-01-04, 12:11:03
Keine Ahnung. Jedenfalls nicht Nearest Neighbour + Gauss (was imo ohnehin ziemlich dumm ist)
Bilinear (wird wohl sein, was AMD derzeit nutzt) ist <4x zwar schärfer als nn + gauß, flimmert dafür aber.
Bei 4x ist es bei NV bilinear.

Beides nicht toll, aber bei NV bekommt man das Flimmern garantiert weg und muss, wenn die Pixeldichte es hergibt, mit dem Matsch auch nicht leben (Lumasharpen oder Schärfen am Monitor).
Ich könnte mit 1440p 75Hz VSR wahrscheinlich gar nicht nutzen? ;)

Mr. Lolman
2015-01-04, 12:12:28
Edit: Zum Thema SGSSAA bei AMD D3D9 erzwingen, wieder mal aktuell... :
http://forums.guru3d.com/showthread.php?t=394837
Qualität ist beschissen.

Achja, wiedermal die alte Leier des Gammakorrekten AA bei der UE. Evtl solten wir uns mal den neuen Lösungen bei NV zuwenden. Wars TXAA oder MFAA was nicht nur nicht glättet, sondern zusätziches Dithering ins Bild bringt? Ist mir jetzt ehrlich gesagt auch wurscht. Ich fahr jetzt mal mit der Seilbahn auf den Zuckerhut in Rio und trink oben auf euch ein kühles Cerveja. Saúde!

aufkrawall
2015-01-04, 12:14:41
Oh man, du willst einfach nur trollen...

Mancko
2015-01-04, 12:30:40
Was jetzt?...keiner soll mehr AMD Grakas kaufen weil die Firma nur Geld vernichtet und in 2 jahren gibts sowieso nur noch Intel iGPU's??

Nein die Leute sollen ruhig AMD Grakas kaufen. Aber AMD soll keiner mehr Geld leihen, damit die Kunden eben auch für die tatsächlichen Kosten + etwas Profit aufkommen. Ich halt nichts davon, wenn ein signifikanter Teil der noch nicht arbeitenden oder noch in Ausbildung befindlichen Kundschaft glaubt, das alles umsonst ist. Nichts ist im Leben umsonst und so gut wie alles, Consumerprodukte jedenfalls devinitiv, muss am Ende einen Profit abwerfen.

M4xw0lf
2015-01-04, 12:36:06
In dem Guru-Thread sind jedenfalls 90% ahnungslose NV-Fanboys unterwegs. "AMD'S AA =/= SGSSAA" "SGSSAA is a better form of AA than AMD's SSAA" "1080p60 with 4xSGSSAA on only a GTX 760 probably isn't going to happen. You are more than welcome to try just downsampling with the likes of GeDoSaTo". :facepalm:

aufkrawall
2015-01-04, 12:41:35
Ist so verallgemeinert natürlich falsch, im Thread war da aber auf forciertes AA bezogen. Wenn bei AMD an allen Ecken und Kanten (Vorsicht, Redewendung) das AA aussetzt, kann man natürlich schwerlich von echtem SGSSAA sprechen. Das hat alles zu glätten.

Ich will jetzt aber auch gar nicht wieder ellenlang darüber reden, die AA-Form ist relativ tot.
Bald gibts hoffentlich gescheites VSR/4k-Monitore und SMAA 2xT-Inject für alle APIs, dann hat sich das auch erledigt.

Kriton
2015-01-04, 15:06:08
Nein nicht nur wegen des Prozesses sondern zusätzlich wegen rückläufiger Stückzahlen. Du musst schon alles lesen was ich sage und nicht nur einen Teil.
Das notwendige R&D muss immer mehr auf geringere Stückzahlen umgelegt werden und das R&D wird nunmal nicht kleiner werden. Hinzu kommen kompliziertere Prozesse und zudem extrem hohe Nachfrage durch die ganzen SoC Hersteller auf den neuen Prozessen. Das treibt nun mal die Kosten und damit den Preis.

Beim R&D bin ich prinzipiell bei Dir. Insoweit SoC Hersteller neue Prozesse nachfragen und dadurch der Preis steigt müssten wir mit Blick auf die neuen Prozesse jenseits von 28nm aber eigentlich eine Senkung der Preise (nicht der Kosten) für 28nm sehen.
Und wie du einerseits argumentieren kannst, dass höhere Nachfrage (SoC) steigende Kosten bedeuten, aber gleichzeitig sinkende Stückzahlen auch höhere Kosten bedeuten bleibt wohl Dein Geheimnis. Natürlich steigt der Pro-Stück-Anteil der Fixkosten, aber nach Deiner Argumentation habe ich egal wie sich die Nachfrage darstellt immer steigende Kosten...
28nm ist IMHO so ausgereift und verfügbar, dass man dort sicher keine höheren Kosten mit rechtfertigen kann. Nvidia hat nur erfolgreich verkauft, dass wir für die jeweils verfügbare Leistung mehr zahlen müssen als dies früher der Fall gewesen ist. Chuzpe, Nvidia.

Kriton
2015-01-04, 15:11:06
Woran macht man sowas fest?

Das hängt an der nachfolgenden Frage.


Das ist aber eine Sache, die im Grunde objektiv beantwortbar ist. Das heißt, eine hat Recht, einer hat Unrecht.

Wenn ich Unrecht habe, will ich es auch wissen.

Ich denke nicht, dass dies objektiv beantwortbar ist. Man kann die Einordnung eines Chips (Mainstream, Performance, High-End, Enthusiast) sicher auf unterschiedlichen Ansätzen vornehmen. Nichts anderes tun wir. Du gehst von der Leistung aus (wobei hier die Frage der Referenz zu stellen wäre), ich von der Größe des Chips.

Kriton
2015-01-04, 15:13:49
Zum ersten Teil, ohne es jetzt 100% genau zu wissen kann man schon davon ausgehen das es erstmals so stimmt einfach weil Käufer wie auch Hersteller sich darin einig sind.


Ohne dies im Ergebnis bestreiten zu wollen ist dies kein valides Argument. Beispielsweise könnten die Käufer auch einfach auf das geschickte Marketing der Hersteller hereingefallen sein. In der Psychologie kennt man es durchaus, das Dinge für wahr empfunden werden wenn sie nur oft genug wiederholt werden. Dies gilt selbst dann, wenn man es eigentlich besser weiß.

Kriton
2015-01-04, 15:19:36
Nein die Leute sollen ruhig AMD Grakas kaufen. Aber AMD soll keiner mehr Geld leihen, damit die Kunden eben auch für die tatsächlichen Kosten + etwas Profit aufkommen. Ich halt nichts davon, wenn ein signifikanter Teil der noch nicht arbeitenden oder noch in Ausbildung befindlichen Kundschaft glaubt, das alles umsonst ist. Nichts ist im Leben umsonst und so gut wie alles, Consumerprodukte jedenfalls devinitiv, muss am Ende einen Profit abwerfen.

Hervorragender Diskussionsstil. Einfach "die Anderen" pauschal verunglimpfen, dann muss man sich inhaltlich auch nicht mit deren Argumenten auseinandersetzen. Da Du mir im übrigen vorgeworfen hast (in dem genannten Zusammenhang auch zu recht), dass ich nicht alles von der berücksichtigt habe: Ich warte noch auf eine Antwort bzgl. der Gewinnentwicklung von Nvidia unter Aussparung von Tegra.

Mr. Lolman
2015-01-04, 22:08:31
Oh man, du willst einfach nur trollen...

Nö. Das hab ich schon ernst gemeint. :cool:


http://abload.de/img/3dcenterdrsg6.jpg (http://abload.de/image.php?img=3dcenterdrsg6.jpg)

woodsdog
2015-01-04, 22:45:32
Nö. Das hab ich schon ernst gemeint. :cool:


hahahah! wie geil! :biggrin:
pwnd!

aufkrawall
2015-01-04, 22:48:22
Bestimmt.

Mancko
2015-01-04, 23:01:06
Hervorragender Diskussionsstil. Einfach "die Anderen" pauschal verunglimpfen, dann muss man sich inhaltlich auch nicht mit deren Argumenten auseinandersetzen. Da Du mir im übrigen vorgeworfen hast (in dem genannten Zusammenhang auch zu recht), dass ich nicht alles von der berücksichtigt habe: Ich warte noch auf eine Antwort bzgl. der Gewinnentwicklung von Nvidia unter Aussparung von Tegra.

Warum sollte man Tegra aussparen? Die Forschung die dort reingesteckt wird, wird in Teilen ebenfalls im GPU Segment wiederverwendet, insbesondere der ganze Kram zum Absenken des durchschnittlichen Energiebedarfs. Insofern ist ein Teil des Tegra R&Ds durchaus auch für das GPU Segment hilfreich. Im übrigen ist völlig klar, dass der GPU Kunde auch Themen mitbezahlen muss, die langfristig das Überleben oder das Wachstum der Firma in andere Bereiche sichern. Unternehmen die am Ende nur noch schrumpfen oder keine Asche mehr einfahren sind eben - unter normalen Bedingungen - irgendwann auch mal die längste Zeit Unternehmen gewesen.

Im übrigen ist es nicht möglich Tegra Profittechnisch herauszurechnen. Es gibt dazu keine Zahlen. Lediglich die Umsätze sind einsehbar. Waren 166 Mill. in Q3 FY2015. Da Nvidia bei Tegra etwas auf die Kostenbremse getreten ist, gehe ich davon aus, dass sie bei 200 Mill im Quartal, spätestens kostendeckend arbeiten. Ist aber eine reine Vermutung oder ein Bauchgefühl ausgehend von ursprünglichen Aussagen seitens Nvidia. Belastbares gibt es dazu nicht.

Am Ende des Tages bleibts dabei. Die Rendite die Nvidia einfährt ist keineswegs überzogen. Sie ist nicht schlecht aber auch nicht extrem groß wie bei Apple & Co. Insofern alles im grünen Bereich und kein Grund für den Verbraucher zu meckern.

Mancko
2015-01-04, 23:13:19
Beim R&D bin ich prinzipiell bei Dir. Insoweit SoC Hersteller neue Prozesse nachfragen und dadurch der Preis steigt müssten wir mit Blick auf die neuen Prozesse jenseits von 28nm aber eigentlich eine Senkung der Preise (nicht der Kosten) für 28nm sehen.


Nein eben nicht.
Erstens weil heutige 28nm Produkte bei einem ausgereiften 28nm Prozess eben auch bereits das R&D für die Produkte auf den Folgeprozessen signifikant vorfinanzieren müssen. Sprich beim Kauf von Performance und Mainstreamkarten wird die High End Karte von morgen mitfinanziert. Und das notwendige R&D und die Risiken steigen stetig.

Zweitens ist auch auf 28nm noch genügend Nachfrage vorhanden. Früher gab es abseits der GPUs, CPUs und Mainboard Chipsätze kaum zusätzliche Konkurrenz auf den Prozessen. Heute schon. Sprich die Nachfrage nach Fertigungskapazität ist definitiv erheblich gestiegen und das eben vergleichbar auch bei bewährten Prozessen. Die Kapazitäten werden zwar auch ausgebaut aber in Summe wird es teurer. Ein ausgereifter Prozess heute ist teurer als ein ausgereifter Prozess vor 5 Jahren.

Drittens muss mehr R&D alleine dafür aufgewendet werden, dass aus bewährten Prozessen mehr herausgeholt werden muss als früher.
Früher gabs eine Generation auf einem Prozess und für die nächste Gen hat man einfach den Großteil des Leistungssprungs aus dem Umstand generiert, dass man fast die Doppelte Anzahl an Transistoren unterbringen konnte. Das geht heute so nicht mehr. AMD als auch Nvidia müssen deutlich kreativer werden als noch vor Jahren. Die Leistungssprünge zwischen den Generation werden zwar auch kleiner aber in Summe steigt halt einfach der Aufwand. Warst früher auf 130nm bist danach einfach auf 90nm hats mehr Logik unterbracht und die Sache war gegessen. Heute musst Du bereits spührbare Mehrleistung aus dem gleichen Prozess herausholen, obwohl du ihn innerhalb einer Gen schon fast ausgereizt hast.

Viertens, Guess what: Autos werden auch immer teurer und das erheblich. Mein A5 hat 60.000 gekostet. Der A4 wäre nur knapp drunter gewesen. Ich kann mich noch erinnern, dass der erste A4 bei einem zahlenmäßig etwas geringeren Betrag lag - allerdings in DM! Klar ist die Ausstattung heute üppiger als damals. Ist bei GPUs aber eben auch nicht anders. Mehr Features, mehr Aufwand = Kosten. So einfach isses obs dem Kunden passt oder nicht. Aber wenns danach geht, dann müsste immer alles umsonst sein und zwar solange, bis man selber mal bei einer Firma abhängig beschäftigt ist und die Kundschaft dort dann möchte, das alles umsonst ist :)

aths
2015-01-04, 23:55:36
Das hängt an der nachfolgenden Frage.

Ich denke nicht, dass dies objektiv beantwortbar ist. Man kann die Einordnung eines Chips (Mainstream, Performance, High-End, Enthusiast) sicher auf unterschiedlichen Ansätzen vornehmen. Nichts anderes tun wir. Du gehst von der Leistung aus (wobei hier die Frage der Referenz zu stellen wäre), ich von der Größe des Chips.
Dein Ansatz scheint zu sein (bitte berichtige alles was falsch dargestellt ist) dass du die Chipgröße als relevantes Kostenmerkmal siehst. Hohe Kosten zu haben bedeutet in der Regel, geringe Stückzahlen. Daraus wiederum folgt, dass es sich nur bei hoher Marge lohnt. Man legt große Chips nur für High-End auf.

Die Frage ist, ob im Umkehrschluss folgt, dass mittlere Chips kein High-End sein können. Macht ein Shrink des Fertigungsprozesses eine ehemalige Highend-Karte zu einer Performance-Karte, weil sie jetzt kostengünstiger zu produzieren ist?

Nicht alles, was teuer in der Herstellung ist, ist auch echtes Highend. Geforce 5800 Ultra oder Radeon HD 2900 wurden als Highend entwickelt, sind dort aber gescheitert. Würdest du sagen "Das ist trotzdem Highend, man betrachte den Kostenpunkt von Entwicklung und Produktion"?

Ich ginge so weit mit, dass es je nach Marktsituation unterschiedlich teure Highend-Karten gibt. Manchmal kostet das aktuelle Single-GPU-Highend-Modell 600 Euro aufwärts. Im Moment sind wir bei lediglich 500 Euro aufwärts. Die Produktentwicklung stagniert, früher waren 50-70% echte Mehrleistung bei einer neuen Generation drin, jetzt sind es nur magere 10%. Wir können auch davon ausgehen, dass die Herstellungskosten der 980 nicht so hoch sind wie die einiger früherer Spitzenmodelle, es gab früher Highend das im Vergleich deutlich mehr klotzte als die 980 und wir können erwarten, dass später auch mal wieder geklotzt wird.

Wäre es sinnvoller, die verfügbaren Karten als Blackbox gegeneinander antreten zu lassen, oder fändest du es sinnvoller, zu sagen "Moment, wollen wir doch erst mal sehen ob es wirklich Highend ist" und die Karte aufschrauben um die GPU-Größe zu messen?

Dass Nvidia, so oder so, im Moment wahrscheinlich ordentlich verdient mit dem GM204, kann uns auf Dauer natürlich nicht gefallen.

aths
2015-01-05, 00:41:25
Ohne dies im Ergebnis bestreiten zu wollen ist dies kein valides Argument. Beispielsweise könnten die Käufer auch einfach auf das geschickte Marketing der Hersteller hereingefallen sein. In der Psychologie kennt man es durchaus, das Dinge für wahr empfunden werden wenn sie nur oft genug wiederholt werden. Dies gilt selbst dann, wenn man es eigentlich besser weiß.
Gegen Marketing-Einfluss brauchen wir ordentlichen Journalismus. Den gibt es leider viel zu selten. Leo schaltet noch den Kopf ein, bevor er Angaben des Herstellers übernimmt. HT4U und auch CB testen noch viel selbst. PCGH stellt auch mal vergleichsweise kritische Fragen. Ansonsten haben wir in Deutschland fast nur noch Jubelperser.

Leonidas
2015-01-05, 01:54:50
Und dabei sind wir in D IMO noch gesegnet. Im englischsprachigem Raum gibt es zwar durchaus Korophäen, aber kritisches Nachfragen ist eine faktisch unbekannte Disziplin.

Kriton
2015-01-05, 02:41:06
So einfach isses obs dem Kunden passt oder nicht. Aber wenns danach geht, dann müsste immer alles umsonst sein und zwar solange, bis man selber mal bei einer Firma abhängig beschäftigt ist und die Kundschaft dort dann möchte, das alles umsonst ist :)

Um es kurz zu machen: Ich teile einige (nicht alle) Deiner Argumente, bin aber dennoch nicht Deiner Auffassung.
Vielleicht gehe ich auch noch mal dezidierter auf Deine Aussage ein (wobei ich momentan nicht das Gefühl habe einer von uns beiden würde sich bewegen), aber da Du diesen Punkt schon zum 2. Mal bringst (und auch wenn ich ihn eigentlich als illegitim in der Diskussion finde, weil es kein Argument ist, sondern lediglich ein argumentum ad personam darstellt): Ich bin schon ein paar Jahre dabei mein Geld zu verdienen.

Kriton
2015-01-05, 02:51:46
Dein Ansatz scheint zu sein (bitte berichtige alles was falsch dargestellt ist) dass du die Chipgröße als relevantes Kostenmerkmal siehst. Hohe Kosten zu haben bedeutet in der Regel, geringe Stückzahlen. Daraus wiederum folgt, dass es sich nur bei hoher Marge lohnt. Man legt große Chips nur für High-End auf.

Ja.


Die Frage ist, ob im Umkehrschluss folgt, dass mittlere Chips kein High-End sein können. Macht ein Shrink des Fertigungsprozesses eine ehemalige Highend-Karte zu einer Performance-Karte, weil sie jetzt kostengünstiger zu produzieren ist?

Ich tendiere zu einem "Ja".


Nicht alles, was teuer in der Herstellung ist, ist auch echtes Highend. Geforce 5800 Ultra oder Radeon HD 2900 wurden als Highend entwickelt, sind dort aber gescheitert. Würdest du sagen "Das ist trotzdem Highend, man betrachte den Kostenpunkt von Entwicklung und Produktion"?

Nein, da bin ich (vermute ich) bei Dir.


Ich ginge so weit mit, dass es je nach Marktsituation unterschiedlich teure Highend-Karten gibt. Manchmal kostet das aktuelle Single-GPU-Highend-Modell 600 Euro aufwärts. Im Moment sind wir bei lediglich 500 Euro aufwärts. Die Produktentwicklung stagniert, früher waren 50-70% echte Mehrleistung bei einer neuen Generation drin, jetzt sind es nur magere 10%. Wir können auch davon ausgehen, dass die Herstellungskosten der 980 nicht so hoch sind wie die einiger früherer Spitzenmodelle, es gab früher Highend das im Vergleich deutlich mehr klotzte als die 980 und wir können erwarten, dass später auch mal wieder geklotzt wird.

D'accord.


Wäre es sinnvoller, die verfügbaren Karten als Blackbox gegeneinander antreten zu lassen, oder fändest du es sinnvoller, zu sagen "Moment, wollen wir doch erst mal sehen ob es wirklich Highend ist" und die Karte aufschrauben um die GPU-Größe zu messen?

Letzteres. Wobei es mir letztlich eher um Deine nachfolgende Aussage geht.


Dass Nvidia, so oder so, im Moment wahrscheinlich ordentlich verdient mit dem GM204, kann uns auf Dauer natürlich nicht gefallen.

Ich habe einfach das Gefühl im Vergleich zu früher nutzt Nvidia die Möglichkeit mehr Gewinn pro Chip einzufahren als beispielsweise noch zu Zeiten der 4xx oder 5xx indem siw kleinere Chips für mehr Geld verkaufen als damals ohne dass die Kosten im gleichen Verhältnis gestiegen sind.

Dawn on Titan
2015-01-05, 08:28:22
Die Firma muss ja auch Gewinn einfahren, die R&D Kosten sind nicht geringer geworden. Niemand hat etwas davon, wenn wir AMD oder NV verlieren, weil sich einer der beiden kaputt macht.Die langsamere Entwicklung bedeutet nun eben auch, dass man weniger oft ein sinnvolles Upgrade angeboten bekommt. Wer von 780/780ti/Titan zu 980 wechselt, hat imho einfach Bastelwut und/oder zu viel Geld. Ich bin von 670 nach 970 gegangen und das war ein heftiges Upgrade und ein toller Mehrwert für den Preis.

Mr. Lolman
2015-01-05, 12:06:28
Hier mal eine, für manche evtl ziemlich heftige Info: Jede Firma versucht nicht nur Gewinn einzufahren, sondern diesen sogar zu maximieren - also den Kunden abzuzocken, wenn ihr so wollt. :eek:

aths
2015-01-05, 17:32:22
Ja.

Ich tendiere zu einem "Ja".

Nein, da bin ich (vermute ich) bei Dir.

D'accord.

Letzteres. Wobei es mir letztlich eher um Deine nachfolgende Aussage geht.

Ich habe einfach das Gefühl im Vergleich zu früher nutzt Nvidia die Möglichkeit mehr Gewinn pro Chip einzufahren als beispielsweise noch zu Zeiten der 4xx oder 5xx indem siw kleinere Chips für mehr Geld verkaufen als damals ohne dass die Kosten im gleichen Verhältnis gestiegen sind.
Die Möglichkeiten werden sicher genutzt. Die Frage ist, ob die kleineren Chips zum aktuellen Zeitpunkt trotzdem Highend sein können, oder ob es sich um Performance-Modelle handelt obwohl es nichts schnelleres (bei gleicher GPU-Anzahl) gibt.

Geächteter
2015-01-05, 20:52:52
Bin mal gespannt, ob die neue Generation dann schon künstliche Obsoleszenz bekommt.
Wenn der übernächste Shrink dann vielleicht erst 2025 kommt, wenn denn überhaupt noch einer kommt, muss es ja trotzdem bis dahin "Kaufanreize" geben.

Thomas Gräf
2015-01-05, 22:44:05
Bin mal gespannt, ob die neue Generation dann schon künstliche Obsoleszenz bekommt.
Wenn der übernächste Shrink dann vielleicht erst 2025 kommt, wenn denn überhaupt noch einer kommt, muss es ja trotzdem bis dahin "Kaufanreize" geben.

Ohhoh, gugge mal in die News. Ganz so mieß siehts ja nun doch nicht aus.
Wer 2015 noch die Füsse still hält bekommt garantiert irgendwann in 2016 Kaufreizkrämpfe. :)


http://www.3dcenter.org/artikel/das-hardware-jahr-2015-der-vorschau

Geächteter
2015-01-06, 01:53:04
Ohhoh, gugge mal in die News. Ganz so mieß siehts ja nun doch nicht aus.
Wer 2015 noch die Füsse still hält bekommt garantiert irgendwann in 2016 Kaufreizkrämpfe. :)

Ja, 2016 wird dann wohl hoffentlich der neue Shrink kommen, aber für den übernächsten sehe ich dann schwarz, wenn man sich die exponentielle Zunahme der Schwierigkeiten und Zeitabstände anguckt. Kann auch sein, dass es danach nicht mehr wirtschaftlich in Massenfertigung zu machen ist, kann schließlich keiner garantieren.
So was gab es dann der Halbleitertechnik wohl noch nicht und andere Branchen, die ähnliche Probleme hatten, haben sich dann mit künstlichem Verschleiß gerettet.

derF
2015-01-07, 09:49:50
Die 960 mit 128 Bit und 2 GB spricht nun auch nicht gerade für Fortschritt.. :freak:

Dural
2015-01-07, 11:16:55
was habt ihr alle nur an den 128Bit? Das war doch fast klar das die nicht mit 256Bit kommt.

Ich denke das der GM206 auch ganz gut mit 128Bit zurecht kommt, eventuell hat der Chip ja sogar 192Bit, wir werden sehen.

N0Thing
2015-01-07, 11:38:39
Von 256Bit war ja nie die Rede, aber 192Bit anstatt 128Bit hat man schon erwartet. Das heisst ja nicht, dass Karten mit GM206 schlecht sein müssen, aber der Mittelweg wäre durch dann einfach zu realisierende 3GB VRAM erfreulicher gewesen, als das sich anbahnende absolute Minimum.

dargo
2015-01-07, 12:52:55
Die 960 mit 128 Bit und 2 GB spricht nun auch nicht gerade für Fortschritt.. :freak:
Die 112GB/s Bandbreite dürften bei nur 1024 Shader Einheiten kaum limitieren. Der Speicher ist etwas blöd gewählt. Ich denke aber die Karte dürfte auch mit 4GB kommen, bei der GTX760 wars nicht anders.

Botcruscher
2015-01-07, 12:55:21
Welchen Preisbereich soll die Gurke überhaupt haben. 150€? Für mehr ist ja echt keine Luft.

dargo
2015-01-07, 12:57:20
http://www.3dcenter.org/news/nvidias-geforce-gtx-960-kommt-tatsaechlich-nur-mit-128-bit-ddr-speicherinterface-samt-2-gb-gddr

Botcruscher
2015-01-07, 13:04:47
Aua.

Jupiter
2015-01-07, 13:04:59
Eine Grafikkarte mit zwei Gigabyte Grafikspeicher würde ich mir heute nicht mehr kaufen. Die GTX 970 habe ich mir gerade wegen der 4 Gigabyte Grafikspeicher gekauft. 315€ für eine Gigabyte GTX 970 würde ich auch nicht als Stillstand bezeichnen.

Wie heißt das übrigens wirklich. VRAM, Videospeicher, Grafikspeicher? Videospeicher bzw. VRAM ist doch falsch, oder?


Bei Betrachtungen der Grafikkarten-Preise über die Zeiträume sollte die Inflation nicht außer acht gelassen werden.

N0Thing
2015-01-07, 14:00:46
Wie heißt das übrigens wirklich. VRAM, Videospeicher, Grafikspeicher? Videospeicher bzw. VRAM ist doch falsch, oder?

Technisch gesehen ist VRAM falsch, es müsste GDDR-SDRAM heissen. Umgangssprachlich kann man meiner Meinung nach aber durchaus VRAM als Abkürzung für Video-RAM verwenden. Beim Arbeitsspeicher hat sich die Abkürzung RAM ja auch etabliert und man spricht nicht jedesmal von DDR3/4-SDRAM.

Tesseract
2015-01-07, 14:24:01
ja, vram ist kurz für video-ram. das bezieht sich nicht auf die technik bzw. den aufbau sondern allein darauf, dass es der ist der auf der "video card" sitzt.

Mr.Magic
2015-01-07, 14:35:41
Sehe ich auch so. VRAM ist einfach Speicher auf der GraKa. GDDR-SDRAM als Allgemeinbegriff ist definitiv falsch, da der Speicher auf alten Karten kein DDR ist.

N0Thing
2015-01-07, 17:58:26
Sehe ich auch so. VRAM ist einfach Speicher auf der GraKa. GDDR-SDRAM als Allgemeinbegriff ist definitiv falsch, da der Speicher auf alten Karten kein DDR ist.

Das war auch auf die aktuellen Karten bezogen. Ich war zu faul, jeden mal vorgekommenen Speicher aufzuzählen. ;)

aths
2015-01-08, 18:04:48
Von 256Bit war ja nie die Rede, aber 192Bit anstatt 128Bit hat man schon erwartet. Das heisst ja nicht, dass Karten mit GM206 schlecht sein müssen, aber der Mittelweg wäre durch dann einfach zu realisierende 3GB VRAM erfreulicher gewesen, als das sich anbahnende absolute Minimum.
Bei 1024 Cores reichen die 128 Bit. Mehr Cores macht den Chip teurer. Damit ließen sich dann zwar auch etwas größere Karten bauen, doch man muss auch daran denken, nach unten hin abzustufen.

3 Gig RAM haben noch immer einen Geruch von einem Top-Produkt wie 780 Ti. Eine Karte im 960-er Segment legt sich nicht mit der 780 an, da braucht es auch keine 3 GiB. Möglicherweise kommen später noch Modelle mit 4 GiB. Wobei man sich dann fragt, warum man nicht gleich zur 970 greifen sollte.

dargo
2015-01-08, 20:05:54
3 Gig RAM haben noch immer einen Geruch von einem Top-Produkt wie 780 Ti. Eine Karte im 960-er Segment legt sich nicht mit der 780 an, da braucht es auch keine 3 GiB.
Eine sehr merkwürdige Sichtweise.
http://geizhals.at/de/gigabyte-geforce-gtx-660-oc-gv-n660oc-3gd-a1084928.html

AnarchX
2015-01-08, 20:21:18
Da die 960 wohl nur ein 300er Bin des GM206 ist, dürfte das nicht der Vollausbau sein. Diesen oder einen GM204LE (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10470897#post10470897) hebt man sich wohl eher für AMDs Gegenpart auf.

Tobalt
2015-01-09, 13:52:18
Sehe das ähnlich wie aths.

Sowohl die 128 bit als auch die 2 GB finde ich fast schon erfreulich.

Zu den 128 bit würde ich sagen, dass NV tendenziell immer etwas kleinere Interfaces hatte und damit einigermaßen gut hin kam. Ich kann die Kritik an der 960 auf der Hauptseite nicht nachvollziehen. Es soll keine Highendkarte sein, die man bei 1440p mit max Details prügelt.

Die Zielanwendung ist ganz klar Full HD. Dafür reichen sowohl 2GB locker aus, als auch das SI sollte akzeptabel sein. Zumindest denke ich nicht, dass NV in so einem umsatzträchtigen Segment wie ~150 Euro es sich erlauben kann, eine Karte bewusst zu kastrieren. Da geht es immer um knallharte Preis/Leistungs-Kalkulation.

Ich denke also, dass die Karte sich nach paar Wochen EBEN wegen den beschnittenen Specs im 150 Eur Raum ansiedeln wird. Dort wird sie die 660GTX/270X deutlich überbieten.

Der auf 3dc genannte Preis von 170EUR wäre vielleicht nach der derzeitigen Aufstellung gerechtfertigt, aber gewinnträchtig verkaufen kann NV die Karte sicher auch für ~140EUR noch. Bei 192 bit und 3GB wäre dies wohl deutlich schwieriger

N0Thing
2015-01-09, 14:51:28
Die Lücke nach oben zur GTX 970 ist mit den bekannten Daten des GM206 dann recht groß, aber vielleicht will Nvidia den GM204 auch noch für eine 3. Desktop-Variante nutzen und setzt dort dann die Konfiguraton der GeForce GTX 970M ein (1280 Shader-Einheiten, 192 Bit DDR Interface, siehe 3Dcenter (http://www.3dcenter.org/news/erste-benchmark-werte-zur-geforce-gtx-965m)).

@aths
Das Argument 3GB sind zu hochwertig, weil diese Ausstatung auch schon von der GTX 780 genutzt worden ist, halte ich für haltlos. Immerhin ist es gerade bei Fertig-PCs vom Discounter üblich, schwache Grafikkarten mit viel Speicher zu verbauen. Eine GTX 960 mit 4GB sollte niemanden überraschen und das wäre, oh Wunder, ja sogar schon ein Angriff auf die GTX 980. :eek:

dargo
2015-01-09, 15:24:41
Der auf 3dc genannte Preis von 170EUR wäre vielleicht nach der derzeitigen Aufstellung gerechtfertigt, aber gewinnträchtig verkaufen kann NV die Karte sicher auch für ~140EUR noch.
Das wird kaum passieren bei einem Straßenpreis von 120-130€ für die GTX 750 Ti 1GB.

OBrian
2015-01-11, 01:26:55
Nvidia (und jeder andere auch) nimmt soviel, wie der Markt hergibt. Wären ja auch schön doof, wenn nicht. Im Plus wären sie mit so einer Karte sicherlich auch noch, wenn sie sie für 50 € verkauften.

Aber auch wenn sie die 128-bit-Karte mit 2 GB für 200 € verkaufen würden, dann bliebe immer noch ein großer Bereich bis zum Preisniveau der 970, den man nicht unabgedeckt lassen kann. Es wird also sicherlich noch was mit 3 oder 4 GB und mehr Speicherbandbreite geben.

maximus_hertus
2015-01-11, 02:14:15
[...]Die Zielanwendung ist ganz klar Full HD. Dafür reichen sowohl 2GB locker aus,[...]

Nicht immer. Siehe http://www.pcgameshardware.de/Assassins-Creed-Unity-PC-258436/Specials/Test-Technik-Benchmarks-1142550/. Mein Kumpel hat immer wieder mal derbe Ruckler mit seiner 2GB GTX 770. Mit der 4GB Karte von seiner Frau laufen die Stellen jedoch problemlos.

Wenn ich schon 200-250 Euro für eine neue Grafikkarte ausgeben möchte, kaufe ich doch eher keine Karte, die schon JETZT @ FHD kämpfen muss. Es wird vor allem eher schlimmer als besser. Abgesehen vom Stromverbrauch könnte die 3GB R9 280(X) das (deutlich) bessere Paket darstellen.

Aber warten wir mal Preis und Performance der GTX 960 ab ;)

BlacKi
2015-01-11, 10:35:28
sehe ich auch so, ich komme regelmäßig über 2gb in bf4 ein spiel aus 2013 in full hd und ohne großen schnickschnack AA oder so damit ich die 144hz beliefern kann. also wer am texturen regler gern 1-2 stufen runterdreht "kann" auch mit 2gb glücklich werden auch noch die nächsten 2-3 jahre. aber wer den texturenregler immer auch anschlag halten möchte, der sollte mind. 3gb besser 4gb grafikkarten kaufen.

Thunder99
2015-01-13, 10:57:30
Und damit riskieren das die US Wettbewerbsbehörde Intel zerschlägt ;)

Die großen Performance Sprünge sind leider nicht mehr pro Generation drin sondern eher pro übernächster Generation bzw pro neuem Fertigungsverfahren. Preis ist dabei nicht immer gleich oder geringer durch die gestiegenen Fertigungskosten :(

Lowkey
2015-01-13, 11:01:44
Krasse Preise bei den 750 Ti Karten. Die sind doch seit Marktstart teurer geworden, was auch direkt mit dem Euro-Dollarkurs zu tun haben wird.

Szudri
2015-01-13, 20:00:16
Krasse Preise bei den 750 Ti Karten. Die sind doch seit Marktstart teurer geworden, was auch direkt mit dem Euro-Dollarkurs zu tun haben wird.

Da ja die Analysten sagen, dass sich der Euro auf eine Kursparität mit dem USD bewegt bin ich schon gespannt was aus den HW Preisen wird :/

aths
2015-01-19, 17:36:25
@aths
Das Argument 3GB sind zu hochwertig, weil diese Ausstatung auch schon von der GTX 780 genutzt worden ist, halte ich für haltlos. Immerhin ist es gerade bei Fertig-PCs vom Discounter üblich, schwache Grafikkarten mit viel Speicher zu verbauen. Eine GTX 960 mit 4GB sollte niemanden überraschen und das wäre, oh Wunder, ja sogar schon ein Angriff auf die GTX 980. :eek:
Das sind dann OEM-Produkte, die leistungsmäßig in der Regel unterhalb der 960-er Klasse angesiedelt sind.


Eine sehr merkwürdige Sichtweise.
http://geizhals.at/de/gigabyte-geforce-gtx-660-oc-gv-n660oc-3gd-a1084928.html
Ein einzelner Link sagt doch nichts zu der Marktaufstellung einer Produktserie aus.

Quaker
2015-01-23, 15:14:51
Unternehmen werden immer behaupten knapp zu kalkulieren, alles andere würde bedeuten der Kunde zahlt mehr als nötig. Die einzigen die das mit Gewissheit sagen könnten sind Mitarbeiter des jeweiligen Unternehmens, aber die werden sich hüten ihrem Arbeitgeber zu schaden.

Also meiner Meinung nach sollte man immer davon ausgehen, abgezockt zu werden.

MfG

Mark3Dfx
2015-01-23, 15:18:46
Okay, einigen wir uns darauf eigentlich müsste die Gurke
GeForce GTX 950Ti heißen ;D

Tobalt
2015-01-26, 18:59:57
Nun da ist sie, die neue "Mainstream" Karte.

mittlerweile wird nun kaschiert, dass im Mainstream Segment P/L seit 2 Jahren exakt stillsteht, indem man einfach das Mainstream segment verschiebt :-D vor 2 Jahren nannte man eine 200 Euro Karte noch nicht mainstream sondern Performance. Mainstream war so <150 €

Wie befürchtet hat es nichts gebracht. Obwohl ich denke, dass so ein kleiner effizienter Chip wie der GM206 ordentlich Marge abwirft, kommt wohl in den Markt keine bewegung bis zu einem kleineren Fertigungsverfahren oder bis zu einer möglichen Verbesserung bei den AMDs.

downforze
2015-02-28, 20:30:45
Es war noch nie so billig? Von wegen. Ich habe 1999 einen Athlon 750 gekauft mit Board, Ram und Netzteil für ca. 500 DM. Für einen I7 ist man allein schon 200€ los.

woodsdog
2015-03-01, 11:24:08
300+ meinst du?

naja, ab 280 geht der spaß los.

Thunder99
2015-03-01, 13:20:00
Nun da ist sie, die neue "Mainstream" Karte.

mittlerweile wird nun kaschiert, dass im Mainstream Segment P/L seit 2 Jahren exakt stillsteht, indem man einfach das Mainstream segment verschiebt :-D vor 2 Jahren nannte man eine 200 Euro Karte noch nicht mainstream sondern Performance. Mainstream war so <150 €

Wie befürchtet hat es nichts gebracht. Obwohl ich denke, dass so ein kleiner effizienter Chip wie der GM206 ordentlich Marge abwirft, kommt wohl in den Markt keine bewegung bis zu einem kleineren Fertigungsverfahren oder bis zu einer möglichen Verbesserung bei den AMDs.
Es gab auch (leider) einen Sprung der Chips mit deren Positionierung. Daher auch der gefühlte Stillstand. Ein GF104 wäre niemals als "High End" verkauft worden, nun hat man es ständig (GK104@680/670 und GM104@980/970).

Die alte 200€ Klasse wurde zur 300-500€ Klasse :(. Einzig positive ist das deren SKU von xx4 deutlich besser geworden sind

Dio Eraclea
2015-03-01, 16:01:39
Es war noch nie so billig? Von wegen. Ich habe 1999 einen Athlon 750 gekauft mit Board, Ram und Netzteil für ca. 500 DM. Für einen I7 ist man allein schon 200€ los.

Ich glaube da vertust du dich gewaltig: Der Athlon 750 als er heraus kam kostete¹ im Einkauf (1000er Preise) 799$ - bei dem damaligen durchschnittskurs von ca. 1.8 macht das 1438 DM (für die Österreicher unter uns - ca. 10200 ATS). Also alleine schon die CPU kostete dich damals sicher mehr als 500 DM - geschweige CPU, MB, RAM und Netzteil gemeinsam.



¹ siehe http://www.heise.de/newsticker/meldung/Athlon-750-ist-auf-dem-Markt-16710.html

Botcruscher
2015-03-01, 22:19:58
Damals gab es aber auch alle 2 Monate was neues an der Spitze.

downforze
2015-03-05, 13:36:16
Ich irre mich nicht. Das war der Preis damals. Zu dem Zeitpunkt gab es aber schon den 1 Ghz Slot A und die Preise sanken gewaltig von Monat zu Monat.