PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Mittelklasse neu definiert 4850 / 9800GTX+


Armaq
2008-08-12, 14:40:00
Durch die vermehrten Konsolenports und AMDs agressive Preispolitik hat sich eine neue Mittelklasse eingeschlichen, die in den Overall-Benchmarks derart gut liegt, dass die potentiellen Gewinne mit den Mehrkosten keinem Vergleich standhalten.
Beispiel (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/23/#abschnitt_performancerating_qualitaet)

Da ich selbst gerade eine 9800GTX+ erwarb und die HD4850 nur aufgrund der (mMn. extremen Hitze aber Ausgang) nicht gekauft wurde, stellt sich mir die Frage, ob eine solch potente Mittelklasse uns auf längere Sicht erhalten bleibt, oder wir dies nur der aktuellen Situation verdanken?

Gast
2008-08-12, 14:46:27
Die Sache ist ganz einfach: Solange es einen außreichenden Konkurrenzkampf gibt, wird es auch niedrigere Preise geben. Wenn nicht, wird es eben so wie zu G80-Zeiten.

Armaq
2008-08-12, 15:57:58
So einfach ist es eben doch nicht, denn die Kampfansage kam eindeutig über den Preis, man hätte auch über Features bzw. Zusatzleistungen nachdenken können.

Mino Osmon
2008-08-13, 02:17:12
Ich würde eher sagen, dass das High-End vergleichsweise schwach ist. Das wiederum liegt daran, dass die Fertigung an ihre Grenzen gestossen ist (was man an der extremen Verlustleistung sieht)...
Solange keine neue Fertigungs- oder Kühltechnik vorhanden ist, lässt sich im High-End gegen oben nicht mehr viel reissen, beim Mid-End sind diese Kapazitäten aber noch nicht aufgebraucht.

Gast
2008-08-13, 02:29:10
Mid-EndAua. Enden gibts zwei, und keines davon liegt in der Mitte.
Lowend -> Midrange -> Highend

Nicht falsch verstehen, aber bei Begriffen wie "Mid-End" rollen sich mir die Zehennägel auf :usad:

Homy
2008-08-13, 03:26:25
Ich glaube, dass die momentane Situation bei den Mid-Range- bzw. Performance-Karten nur temporär ist, weil Nvidia ihren in der letzten Zeit angestammten Platz nicht aufgeben wollte und sich deshalb auf den Preiskampf mit ATI eingelassen hat. Das kann bei der nächsten Generation schon wieder ganz anders aussehen. Leider.

Mino Osmon
2008-08-13, 05:00:36
Ich glaube, dass die momentane Situation bei den Mid-Range- bzw. Performance-Karten nur temporär ist, weil Nvidia ihren in der letzten Zeit angestammten Platz nicht aufgeben wollte und sich deshalb auf den Preiskampf mit ATI eingelassen hat. Das kann bei der nächsten Generation schon wieder ganz anders aussehen. Leider.

Jein. Ich glaube nicht mehr an Sprünge wie bei R300 oder G80, die je jeweils immer auch die Leistungsaufnahme ein Stück nach oben geschoben haben - das ist jetzt einfach kaum noch (sinnvoll) möglich.
Wenn sie sich also mit der nächsten Generation nicht deutlich vom aktuellen high-end absetzen können und trotzdem auch eine neue Mainstream Generation einführen wollen, die nicht nur ein reines Techupdate ohne zus. Leistung ist, kann die Schere gar nicht so schnell, so weit aufklappen.
Grösser werden ja, aber wohl kaum wie in Zeiten von G70/R580 oder gar zu NV35/R200 Zeiten...

@Gast, hast recht... alles hat ein Ende, nur die Wurst und der Grafikkartenmarkt haben zwei ;D

=Floi=
2008-08-13, 06:16:53
im grunde war dieser schritt die letzten jahre schon nötig um:
1. die spiele schöner zu machen und trotzdem noch eine breite basis zu haben die es gut spielen kann
2. wird so auch der pc-bereich als spieleplattform gestärkt

Gast
2008-08-13, 13:18:18
So einfach ist es eben doch nicht, denn die Kampfansage kam eindeutig über den Preis, man hätte auch über Features bzw. Zusatzleistungen nachdenken können.

Mit Features bei Grafikkarten lockst du Techniklaien nicht hervor. Das funktioniert vielleicht beim Ich-bin-doch blöd-Käufer...

Über den Preis zu gehen, ist eine der effektivsten Methoden um Marktanteile zurückzuerobern, weswegen sich AMD dazu entschieden hat, dies nicht nur bei Prozessoren, sondern auch bei Grafikkarten zu tun.

Sie verzichten zwar auf ein wenig Geld, erhoffen sich aber eine bessere Position am Markt. Es würde nichts bringen, die Produkte teurer zu verkaufen und die Konkurrenz damit zusätzlich zu stärken, wenn die Kunden dann zu dieser überlaufen.
Du siehst doch selbst, das es nicht wirklich funktioniert, kauft denn jemand einen Phenom weil er einen IMC hat? Für die meisten spielt das keine Rolle, hauptsache günstig oder performanct soll er sein!

Homy
2008-08-13, 14:42:50
Jein. Ich glaube nicht mehr an Sprünge wie bei R300 oder G80, die je jeweils immer auch die Leistungsaufnahme ein Stück nach oben geschoben haben - das ist jetzt einfach kaum noch (sinnvoll) möglich.
Wenn sie sich also mit der nächsten Generation nicht deutlich vom aktuellen high-end absetzen können und trotzdem auch eine neue Mainstream Generation einführen wollen, die nicht nur ein reines Techupdate ohne zus. Leistung ist, kann die Schere gar nicht so schnell, so weit aufklappen.
Grösser werden ja, aber wohl kaum wie in Zeiten von G70/R580 oder gar zu NV35/R200 Zeiten...


Vllt. feilt einer der beiden Hersteller bereits an einer "Porno Atombombe", die den anderen ziemlich in den Schatten stellt, das könnte auch noch mit der jetzt üblichen Verlustleistung geschehen, wenn das Design halt sehr effizient gestaltet würde. Aber das erfahren wir frühestens mit den komplett neuen Generationen... ;)

Armaq
2008-08-13, 14:48:05
Sicherlich muss man sich fragen, ob TrippleSlot-Kühlung oder 85°C heiße Luft sinnvoll sind. Aber die jetzige Situation ist für den Normalsterblichen wirklich interessant.

Meinst ihr wirklich, dass man anstelle von NV/AMD bewusst den Preiskampf sucht, um Marktanteile im PC-Sektor zu halten? Es wäre strategisch klug, aber eine durchaus prüfenswerte koordinierte Verhaltensweise. (kartellrechtlich).

Edit: Der Phenom hatte unglaublich negative Presse, durch seine Startschwierigkeiten. Da kann nichts gutes bei rauskommen.

Gast
2008-08-13, 14:52:36
Meinst ihr wirklich, dass man anstelle von NV/AMD bewusst den Preiskampf sucht, um Marktanteile im PC-Sektor zu halten?

Nicht nur um sie zu halten, sondern um sie auszubauen oder um sie zurückzuholen. Die letzten Jahre waren alles andere als rosig und was bringt es einem Unternehmen dieser Größe, wenn sie dem nicht entgegensteuern und hinterher merken, das ihr Marktanteil auf 2% geschrumpft ist? Nichts, dann bist du nämlich bedeutungsloser als du eh schon bist, was sich auch auf Geldgeber oder staatische Zuschüsse auswirkt.

Intel ist das beste Gegenbeispiel, durch die schiere Größe haben sie eine große Bedeutung erlangt und einige Technologien durchsetzen kann, die sich etabliert bist. Bist du nur eine kleine Klitsche, kannst du das nicht. :)

Gast
2008-08-13, 14:53:57
Argh, sollte "und einige Technologien durchsetzen konnten, die sich etabliert haben" bedeuten.
..brauch ne Pause. :D

Psychopat
2008-08-13, 15:39:00
Jein. Ich glaube nicht mehr an Sprünge wie bei R300 oder G80, die je jeweils immer auch die Leistungsaufnahme ein Stück nach oben geschoben haben - das ist jetzt einfach kaum noch (sinnvoll) möglich.


Doch, der nächste große Sprung zeichnet sich schon ab - und zwar ein natives multi-GPU Design, dass das Skalierungsproblem behebt.

Du stützt deine These auf die Tatsache, dass momentan Grafikkarten kaum noch Spielraum nach oben beim Verbauch haben, wegen Wärmeproblematik und Stromversorgung. Um ein Singlechip Design schneller zu machen, muss man aber entweder an der Taktschraube drehen oder mehr Transistoren in den Chip packen. Beides steigert Energieverbrauch und Abwärme.
Entgegenwirken kann man dem durch kleinere Fertigungstechnik und Optimierung der Transistoren. Hat bisher ganz gut funktioniert, aber mittlerweile zeichnet sich zunehmend ab, das durch diese Maßnahmen der Energieverbrauch nicht mehr viel weiter gesenkt werden kann, weil andere Problematiken auftauchen (Lekströme). Ergo, hier kommt man in eine Sackgasse.

Eine sehr gut skalierende Multichip-Architektur könnte das Energieproblem auf eine andere Weise lösen:
Theoretisch steigt der Verbrauch eines Chips linear mit der Taktrate und quadratisch mit der Spannung. Nehmen wir für diese Rechnung an, die Architektur skaliert perfekt über die Anzahl der Chips. Also 32 Chips bringen genau die doppelte Leistung von 16 Chips.
Diese 16 Chips verbrauchen jetzt zuviel Strom und produzieren zuviel Wärme, wenn man sie auf der Taktrate laufen lässt, die man für die gewünschte Leistung braucht. 32 Chips auf halber Taktrate haben die gleiche Leistung (nehmen wir mal an, zur einfacheren Rechnung). Der Clou an der Sache: wenn die 32 Chips auf halber Taktrate laufen, brauchen sie weniger Strom als die 16 Chips auf voller Taktrate!
Weil: Takt geht linear ein -> halber Takt, halber Energieverbrauch.
Für den halben Takt wird weniger Spannung benötigt -> Nochmals erhebliche Energieeinsparung, da Spannung quadratisch eingeht.
-> Der Chip brauct bei halben Takt weniger als halb so viel Energie, deswegen ist es energieeffizienter, die doppelte Anzahl an Chips bei halbem Takt zu betreiben! Nebenbei sind sie auch leichte zu kühlen, da grössere Fläche. Eine bessere Chipausbeute als Singlechip hätte man ebenfalls (kleine Chips, niedriger Takt), was das ganze sogar kostenefizient machen könnte.

Dies ist eine Theoretische Rechnung, die so nicht umgesetzt werden kann! Sie soll nur verdeutlichen, was mit einer gut skalierenden Multi-GPU Architektur möglich wäre!