Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Droht Nvidia die Bedeutungslosigkeit?
turboschlumpf
2008-08-17, 20:46:30
Ich sehe in den nächsten 5 Jahren große strategische Risiken für Nvidias Geschäftsfelder. Diese möchte ich nachfolgende kurz darlegen.
CPUs:
• Nvidia produziert keine CPUs (was sich mittel- bis langfristig als folgenschwerer Fehler herausstellen könnte).
Chipsätze:
• Da Nvidia keine CPUs produziert, ist man bei den Chipsätzen auf die Plattformen von AMD und Intel angewiesen.
• Allerdings wird die NB in absehbarer Zeit komplett in die CPU wandern, siehe beispielsweise Intels Lynnfield.
• Auch die IGPs werden mittelfristig in die CPU wandern, siehe AMD Fusion oder Intels Havendale.
• Und bei den Plattformen die - zumindest vorerst - noch auf eine NB setzen, haben AMD und Intel darüber hinaus kein Interesse mehr an einem konkurrierenden Chipsatzhersteller. So hat Intel in einem ersten Schritt Nvidia die QPI-Lizenz verweigert, weitere Schritte (sowohl von AMD als auch von Intel) werden sicher folgen.
• Bleiben noch die SBs, mit welchen sich allerdings kein Geld verdienen lässt.
Multi-GPU:
• Das Chipsatz-Problem überträgt sich weiter auf Nvidias Multi-GPU-Plattform. Dieser brechen die SLI-fähigen Chipsätze weg. Weil Nvidia keine QPI-Lizenz erhalten hat, wird es schon in wenigen Monaten für Intels neue Nehalem-CPU praktisch keine SLI-fähigen Chipsätze mehr geben.
• Nvidia wird dementsprechend früher oder später gezwungen sein, SLI für alle Chipsätze freizugeben (und damit der eigenen Chipsatz-Sparte die letzte Grundlage nehmen).
• Und dann ist Nvidia auch bei Multi-GPU darauf angewiesen, dass AMD und Intel nicht Ihrerseits versuchen, Nvidias SLI auf Ihren Chipsätzen zu unterbinden oder zumindest unattraktiv zu gestalten.
GPUs:
• Bleiben allein die GPUs übrig, wobei man sich die Frage stellen muss, wie konkurrenzfähig Nvidia mit einer dann so schwachen Marktposition noch sein kann.
Plattformen:
• Denn Plattformen mit Komponenten nur eines einzigen Herstellers (konkret dann also AMD oder Intel) bieten interessante Vorteile. Stromsparen durch Abschalten der diskreten GPU oder auch Physikberechnungen durch den IGP, um nur zwei zu nennen; Nvidia hat es ja vorgemacht. Nur dass Nvidia in diesem Fall dann außen vor bleiben wird.
Fazit:
• Ohne eigene Plattform kann Nvidia langfristig nicht auf dem Markt bestehen. Den einzigen Ausweg sehe ich in einer Übernahme von VIA.
Botcruscher
2008-08-17, 20:52:41
Gabs das Thema nicht schon mal?
Egal. ich würde es sehr gut finden wenn VIA endlich mal einen ordentlichen Partner bekommen würden. Was die PR Maschine gerade mit dem Atom abzieht ist ja mehr als Lachhaft. Wenn NV Via hier richtig pushen würde hätte man ein sehr gut positioniertes Produkt. Naja die Gerüchte sind da aber NV hat ja gerade andere Sorgen.
Sorkalm
2008-08-17, 21:03:39
Gabs das Thema nicht schon mal?
Es gibt das Thema Was wird aus Nvidia? (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=422976), aber in der Einleitung gehts mehr um Physik-Standards und diese Problematik wird nur am Rande erwähnt. Es gibt ein paar Posts die dann in diese Richtung abzielten, aber letztendlich wurde mehr über die aktuelle Situation debattiert als über die langfristige Zukunft. Von daher hat dieser Thread schon einen gewissen Sinn, zumal auch das Eingangspost eine gewisse Zusammenfassung ist.
Die schwierige Frage die man sich da wohl stellen muss, ist die, ob das Geschäft mit GPUs für eigenständige Grafikkarten alleine die gestiegenen Entwicklungskosten für die Architekturen refinanzieren kann - da ja die Umsätze mit IGPs wegfallen dürften. Andererseits ist da wohl nur die Stückzahl hoch, in keinem Umfang aber die Marge. Rentiert es sich also anders gesehen in das hochriskante x86-CPU-Geschäft durch irgendeinen Deal mit VIA einzusteigen, wo ja bereits AMD trotz langer Integration zur Zeit Probleme aufweißt?
Für mich sieht es eher so aus, als versucht Nvidia GPUs in anderen Geschäftsbereichen, Stichwort "GPGPU", zu positionieren - um sozusagen den Prozessoren durch Co-Prozessoren das Leben schwer zu machen. Ob das auch ein weiteres Wachstum finanzieren kann, ist wohl ebenfalls zweifelhaft. Aber in der aktuellen Position sollte wohl Nvidia eher erstmal die Lage stabilisieren bevor man ans Wachstum kommt. Käme mit Larrabee noch ein dritter Konkurrent im GPU-Markt wird es ja da auch noch mal schwieriger.
Botcruscher
2008-08-17, 21:11:26
Klar rentiert sich das. NV hat Grafik, Chipsätze. Via hat CPUs, Chipsätze und Grafik(zumindest noch).
Mixt man beides bekommt man einen Hersteller der im Lowend/office gut mitmischen und im Mobilemarkt richtig aufmischen kann.
EEE-Klon mit Via/Nv Technik wäre nur der Anfang. Wer Geräte aus einer Hand anbieten kann liegt gut im Markt. Die Technik ist da. Muss alles nur schön zusammengewürfelt werden.
Sorkalm
2008-08-17, 21:17:52
Schau dir mal an, wie groß das VIA-Prozessorteam ist. Wie willst du mit dem in nennenswerter Zeit wichtige Neuentwicklungen präsentieren? Selbst die Einstellung einiger Ingenieure würde wohl nichts helfen, man müsste das Team vervielfachen und dazu sich möglichst schnell um eine ordentliche Fertigungsanlage kümmern, damit man auf eine optimieren kann.
Du sagtest Low-End / Office, was wohl auf absehbare Zeit nur realistisch ist: Das passt aber nicht mit den Absatzbereichen der meisten GPUs zusammen. Man müsste dafür sorgen, dass man das irgendwie angepasst - und genau das ist mit enormen Risiko verbunden. AMD & Intel schlafen auch nicht.
reunion
2008-08-17, 21:34:25
Die x86-Lizenz von VIA ist ja nicht mal übertragbar.
Botcruscher
2008-08-17, 21:35:21
Die Neuvorstellung von VIA ist schon sehr überzeugend nur Viatypisch eben erst auf dem Markt wenn man das Teil in den Händen hat.
Hier könnte man einen gigantischen Markt beliefern.
Was CPUs angeht wird man niemals bei klassischen CPU im Highend konkurrieren können. Die Frage ist wie lange gibt es "klassische" CPUs mit ein paar gleichartigen Kernen noch.
Geneu hier kommen ja die Grafikkarte in Spiel. Ich behaupte mal frech das NV das nötige Team für zukünftige CPUs schon hat. AMD hat nicht ohne Grund ATi geschluckt. Intel kommt auch nicht aus langerweile in den (richtigen) Grakamarkt zurück. Solche bedeutenden Unterschiede wird es womöglich bald nicht mehr geben. Über den Umbruch sind sich imo alle im klaren.
Sorkalm
2008-08-17, 21:44:20
Die x86-Lizenz von VIA ist ja nicht mal übertragbar.
Wieso das denn? Eine klassische x86-Lizenz gibts doch in dem Sinne nicht, und AMD hat mit Intel nur in dem Vertrag nach dem Rechtsstreit eine entsprechende Klausel ausgehandelt.
Die Neuvorstellung von VIA ist schon sehr überzeugend nur Viatypisch eben erst auf dem Markt wenn man das Teil in den Händen hat.
Hier könnte man einen gigantischen Markt beliefern.
Mit etwas mehr finanziellem Hinterland kann Nvidia das mit Sicherheit verbessern.
Zu deinem restlichen Gedanken: Braucht Nvidia denn dafür auch die "klassische" CPU-Sparte? Wieso kann man das nicht auch alleine durchziehen, anstatt sich so einen "Klotz" ans Bein zu binden, wo man erstmal kräftig investieren muss?
Nvidia wird über kurz oder lang in der Versenkung verschwinden...wayne :)
[QUOTE=turboschlumpf;6727349]Ich sehe in den nächsten 5 Jahren große strategische Risiken für Nvidias Geschäftsfelder. Diese möchte ich nachfolgende kurz darlegen.
CPUs:
• Nvidia produziert keine CPUs (was sich mittel- bis langfristig als folgenschwerer Fehler herausstellen könnte).
GPUs:
• Bleiben allein die GPUs übrig, wobei man sich die Frage stellen muss, wie konkurrenzfähig Nvidia mit einer dann so schwachen Marktposition noch sein kann.
Haben die letzen 10Jahre auch keine CPUs gebastelt, also warum sollte an Untergehen...
nV lebt von den GPUs und ist damit groß geworden, glaube das vergessen viele. Vieleicht kommt es zu einer stagnation im Grafikmarkt mal, aber ich glaube nicht, dass die Verkaufszahlen von Grafikkarten rückläufig sind.
Niemand weiß wie sich der GPU Markt entwickeln wird, AMD überlebt auch seit 20Jahren im CPU Geschäft gegen INTEL.
Wenn der PC als Spielgerät überholt ist, dann erst wird es ernst für das Unternehmen, vieleicht auch für Spieler, denn die Konsolen können die Grafikchip Entwicklung alleine nicht mit Geld füttern. Dann kommts zur stagnation ein paar Jahre, danach schreit alles, wir brauchen Grafik, ein Softwareentwickler wird was schönes basteln was alle Systeme überforder (vorallem der Onboard Crap) und ruck zuck läuft das GPU geschäfft wieder an, wie zu 3dfx Zeiten *g.
Um eine Parallele mal zu ziehen, wie gehts denn Creative Labs, denen bricht ja auch der Markt der Soundkarten weg, da jedes Mainboard mit nem billig Brüller anrückt. Bastelt halt man MP3 Player oder man geht in andere Felder. Samsung baut auch jedes erdenkliche Teil außerhalb von TFTs.
samsungs kernsegment war auch noch nie die TFT herstellung...
und das man sich andere produktbereiche sucht ist normal...ändert aber nix daran das es ein herber verlust ist wenn kernbereiche wegbrechen
EinmalGast
2008-08-18, 00:10:09
Ich sehe in den nächsten 5 Jahren große strategische Risiken für Nvidias Geschäftsfelder. Diese möchte ich nachfolgende kurz darlegen.
CUDA verbreitet sich unter den Entwicklern gerade wie ein Lauffeuer. Ich kenne alleine drei Entwicklerteams, die innerhalb von sechs Monaten prof. Produkte auf Basis von CUDA veröffentlichen werden.
AMD macht einen grossen Fehler CTM so zu vernachlässigen.
GPGPU kann der Einstieg in die komplette Elektronikindustrie sein.
Wenn Nvidia mit CUDA so weitermacht, dann wird der Spielesektor nur noch ein Geschäftsfeld zum austoben bleiben. Denn ein Vielfaches der momentanen Umsätze wird Nvidia dann in anderen Feldern machen.
Fazit:
Nvidia ist auf dem besten Weg in fünf Jahren Rekordergebnisse einzufahren.
Der Spielesektor kann dann wegbrechen wie er will.
CUDA ist zum testen gut, für alles andere gibts dann Compute Shader in D3D11 zudem gibts auch noch OpenCL.
Ich glaube auch nicht, dass CUDA sich langfristig etablieren wird, wenn D3D11 und OpenCL da sind.
Haben die letzen 10Jahre auch keine CPUs gebastelt, also warum sollte an Untergehen...
nV lebt von den GPUs und ist damit groß geworden, glaube das vergessen viele.
Der Unterschied ist das in ~5 Jahren keiner mehr lowend + midrange Karten von Nvidia braucht (Also alles bis zur 8600GTS bzw. 9500GT). Es bleibt alleine das Performance Segment übrig um wirklich viele Grafikkarten zu verkaufen.
Selbst AMD hat bei der Vorstellung des RV770 die Marktanteile der Lowend + Mainstream Karten für 2009 und 2010 bereits reduziert weil bis dahin die IGP's + CPU's diese Segmente übernehmen. Projeziert man das noch ein paar Jahre weiter bleibt von diesen beiden Segmenten nichts mehr übrig.
Damit fällt der Massenmarkt (OEMs) für Nvidia weg und sie müssen ihr Geld mit Highend + Performance-Chips erwirtschaften. Und dann kommen auch noch der Larrabee und der Fusion (2. Generation) die nicht nur Performance-Segment Leistung bieten _sollen_ sondern auch noch für normale Multimedia-Berechnungen optimiert sind. Wieder ein Grund weniger sich eine zusätzliche GPU zu kaufen.
Langfrisitig bliebe also nur noch das Highend-Segment übrig. Aber von diesen minimalen Stückzahlen kann keiner Leben (siehe wieder die AMD-Präsentation "01RickBergman-RV770Strategy-Final.pdf" Seite 8).
Deshalb sehe ich die Zukunft von Nvidia selbst nicht gerade rosig. Für Nvidia ist deshalb imho CUDA überlebenswichtig. Durch die Standardisierung OpenCL + DX11 sollten dann die Nvidia-GPUs eine Überlebenschance haben. Deshalb wäre ein X86 Larrabee mit direkter X86 Programmierung für Nvidia (und AMD) sehr schlecht da dann nur noch der Larrabee übrigbleben würde für alles was nicht mit Grafik + Spielen zu tun hat.
Iron Lord
2008-08-18, 09:10:21
Tja, denke ich auch! Desktop Grafikkarten werden immer belangloser, Konsolen sei Dank. AMD hat ATI mit im Boot und kann alles aus einer Hand liefern, das gleiche gilt für Intel.
mapel110
2008-08-18, 09:22:52
Desktopgrafikkarten werden immer beliebter. Die Verkaufszahlen sind die letzten Jahre immer weiter gestiegen. Wohl auch dank teurer Konsolen.
Und welchen Vorteil es bringt, alles aus einer Hand zu liefern, konnte man an Via sehen. Es ist nicht immer ein Vorteil, weil man auf allen Gebieten gut sein muss.
Exxtreme
2008-08-18, 09:31:32
Der Grafikkartenmarkt wächst stetig. Und zweitens weigere ich mich Larrabee eine große Bedeutung zuzumessen, zumindest noch. Intel ist nicht vor Totalflops gefeilt. Und Larrabee ist halt total anders als die anderen Grafikkarten.
Der Umstand, dass nVidia demnächst die SLI-fähigen Mainboards fehlen könnten, lässt sich dadurch abschwächen, dass nVidia sich demnächst mehr auf multi-GPU-Systeme auf einer Karte, wie es derzeit z.B. die 4870X2 vormacht (oder zumindest eine interne SLI-Lösung wie seinerzeit die 7900GX2 oder 7950GX2) konzentrieren könnte. ATI zeigt, dass sowas schnell rechnen und trotzdem kostengünstig sein kann. Kinderkrankheiten wie Mikroruckler mal außen vor gelassen.
Der Unterschied ist das in ~5 Jahren keiner mehr lowend + midrange Karten von Nvidia braucht (Also alles bis zur 8600GTS bzw. 9500GT). Es bleibt alleine das Performance Segment übrig um wirklich viele Grafikkarten zu verkaufen.
Vergiss mal die Karten selbst. Es geht um die verbauten Chips.
Meist sind nur die LowEnd-Chips eine Entwicklung abseits der HighEnd-Chips.
MidRange sind oft kastrierte Versionen der HighEnd-Chips.
Nvidia bemüht sich schon seit längerem auch in der Unterhaltungsindustrie Fuß zu fassen. Von daher ist es auch möglich über CUDA eigene GPU's im Komplettpaket für z.B. Decoder zu vermarkten.
Und gerade dieser Markt ist riesig.
Hier wäre es überhaupt nicht nötig und vor allem ziemlich unvorteilhaft HighEnd-Chips zu verbauen.
Im Prinzip bedeutet das alles eigentlich nur eines:
Wenn Nvidia seine Geschäftsfelder erfolgreich ausweitet dann könnte es ihnen bald besser gehen als jemals zuvor.
Wenn Nvidia nichts ändert, wird Intel und AMD sie früher oder später vom Markt verdrängen.
Fakt ist aber, dass CUDA der richtige Weg ist um die Leistung der GPU's auch anders zu verwenden. Es spielt letztlich keine Rolle, ob mit OpenCL, CTM, D3D11 oder CUDA. Industriepartner wollen ein Paket das funktioniert. Wie ist egal.
Dabei ist natürlich auch die Geschwindigkeit entscheidet. Und die ist, sofern man die Berechnungen über eine GPU ausführen kann, führend.
Es reicht sich die Werte von Folding@Home anzuschauen. CPUs, Cell oder Co. wirken teilweise wie Bausteine aus dem letzten Jahrtausend.
Das Ganze noch weiter optimiert und GPU's verlassen die Umlaufbahn.
Wenn im Vorstand von Nvidia nicht gerade die dümmsten Trottel der Erde sitzen, dann haben die das auch schon vor zwei Jahren erkannt. Und ich persönlich glaube nicht, dass dort solche Idioten sitzen. Vor allem will man 3Dfx ja keine Konkurrenz machen, oder? X-D
Ich sehe noch Gefahr aus einer anderen Richtung. Nvidia hat die sich verkürzenden Marktzyklen scheinbar total unterschätzt. Die 8.8 Ultra und Konsorten hat sich gefühlt sehr lange gehalten. Nun dachte man, dass ein ähnliche langer Marktzyklus auch mit einer 280/260 wieder zu erwarten ist. Jedoch sind die Zyklen von Performancekarten derartig kontrahiert, dass es nur in wenigen Ausnahmefällen noch Sinn macht, High-End Karten zu kaufen. Ein halbes Jahr später ziehen Performancekarten mit High-End der Generation davor quasi gleich. Eine Radeon HD 3850 kriegt man teilweise schon für 60 Euro...die hat zum Marktstart noch 150 € und mehr gekostet. Die Radeon 4850 war schon bei Marktstart viel billiger und wird (ich prophezeie hier mal) im Januar für 70 Euro über die Ladentheke gehen.
Ich denke, dass das Segment der alten Midrange-Grafikkarten bald aussterben wird. Quasi eingekesselt von alten Performancekarten und integrierter bzw. Low-End-Grafik.
Denkt mal wie lange sich damals 6600GT und 7600GT, 8600GT(S) gehalten haben und in welchen Stückzahlen die verkauft wurden. Dieses Marktsegment wird kleiner werden bzw. eventuell aussterben.
aylano
2008-08-18, 15:55:14
Ich sehe noch Gefahr aus einer anderen Richtung. Nvidia hat die sich verkürzenden Marktzyklen scheinbar total unterschätzt. ...
Ein halbes Jahr später ziehen Performancekarten mit High-End der Generation davor quasi gleich.
Die Performance-Steigerungen wurden mit einem höheren Stromverbrauch gekauft.
Nun dürfte das wahrscheinlich Vorbei sein. Auf dem CPU-Markt ist die Grenze bei 125/140 Watt.
Beim GPU-Markt könnte die Grenze bei 300 Watt bleiben.
Zwar kann man bald AFAIK per PCI 3.0 mehr als 300 Watt verbrauchen, aber AMD(/ATI) könnte wieder diese Strom-Verbrauch-ins-Endlose stoppen und das eben mit einem gutem Konzept.
Denn AMD/ATI hat die Priorität auf Performance-GPUs die zwischen 150 - 100 Watt verbrauchen. Ersteres (150 Watt) bei Architektur-Einführung/Verbesserungen, letzteres (100Watt) bei Shrinks.
Der Vorteil liegt darin, die HD x870-Serie mit ca.120-150 Watt wird als Dual-Slot mit vielleicht mehr Speicher ausgestattet, während die HD x850-Serie als Single-Slot und günstigerem Speicher ausgestattet wird.
Dazu geht sich dann immer noch eine High-End-GPU a la HD xx70 X2 mit 2 Performance-GPUs aus. Die ist war bei normalen Settings nicht sooo extrem stark, wenn überhaupt (macht ja nichts, wenn es trotzdem spielbar ist), aber je höher die Auflösungen & Setting, desto stärker ist sie, wo vielleicht andere Karten dann nicht mehr spielbar sind.
Das ist ein ziehmlich gut durchdachtes Konzept. (Auch wenn es ein bischen aus der Not entstanden ist, oder auch nicht)
Und mit diesem Konzepte könnte AMD kaum noch mit den Watt-Zahlen höher gehen.
Also, ich finde nicht so, dass Nvidia die Marktzyklen sooo unterschätzt hat. Eher hadert Nvidia an ATIs obengenanntes Konzept (mit einer GPU --> Performance & High-End) und ATIs wiedergeborene Konkurrenz a la HD 3000er-Serie.
Der Nvidia-Umsatz von 1,2 Mrd. $ pro Quartal war ja sowieso ziehmlich übertrieben, weil bei ATI zu vieles schief ging.
Und wenn Nvidia nur 600 Mio. $ Umsatz macht, würde ich das auch nicht als Untergang sehen.
Erstens, aus der Not heraus kann man auch was gscheites machen, siehe AMD/ATI und zweites konzentriert sich Nvidia wieder auf des wesentliche und nicht auf so manche Spielerein.
Zwar wird es für Nvidia eine Harte Zeit, da die Chipsätze mit Fusion & Co mit der Zeit wegfallen und Intel auch in den GPU-Kampf einsteigt, aber so große Sorgen mache ich mir momentan nicht.
Denn gerade in den letzten Monaten hatte es viele Überraschungen gegeben a la Netbooks & Atom & HD4800, welche die Welt & Zukunft wieder anders aussehen ließ.
pool1892
2008-08-18, 16:50:29
nvidia hat vor kurzem soc mit arm kern vorgestellt für mid oder ähnliche größere handys. nvidia steckt mit i/o und 3d chips in sehr verschiedener unterhaltungselektronik. und in der ps3.
die jungs in grün haben ihr geschäftsfeld schön verbreitert und zukunftsdienlich gearbeitet. außerdem hat nv auch einige dev teams übernommen, die im weitesten sinne cpu logik entwickeln. nv hat genug reserven für die größeren entwicklungen, die ohne zweifel anstehen.
Ich sehe das nicht ganz so dramatisch.
Nvidia hat durchaus etwas CPU-Kompetenz, zumindest für den mobilen Bereich (Handhelds, PDAs) dürfte es reichen. Würde Nvidia in den "richtigen" CPU-Markt einsteigen wollen, müssten sie mit zwei Platzhirschen kämpfen. Das dürfte finanziell wenig attraktiv sein.
Der Chipsatz-Markt ist nur ein Standbein. Mit SLI-Lizenzen alleine ließe sich wohl auch etwas Geld verdienen. Die Kernkompetenz ist 3D-Grafik, wie die auch immer erzeugt wird (Raster-Verfahren oder Raytracing.)
DR.ZEISSLER
2008-08-18, 19:55:16
nv hat bei weitem nicht die kapitaldecke die intel hat.
irgendwann könnte der tag x kommen, wo es nvidia so geht, wie damals 3dfx.
sofern es intel gelingt mit larrabee eiinen erfolg zu erzielen hat sicher auch
keine kartellbehörde mehr was dagegen, wenn amd ati ausgliedert und
die dann mit nv gegen intel am markt antreten.
könnte durchaus noch lustig werden.
Doc
Matrix316
2008-08-18, 21:06:05
Ich sehe es eher so: So lange man die schnellste Grafikkarte am Markt hat, ist es völlig egal ob man Chipsätze oder sowas verkauft. Wobei natürlich SLI mittlerweile essentiell ist.
Als AMD nur CPUs und ATI nur Grafikkarten hatten, gings auch beiden irgendwie besser. Dann kam die Fusion und schwups, sind beide ziemlich unter Druck gewesen.
CPUs würde ich nicht machen aus nvidia Sicht. Bei zu vielen Standbeinen, kann man sich auch verzetteln.
DR.ZEISSLER
2008-08-18, 21:33:16
1. Ich sehe es eher so: So lange man die schnellste Grafikkarte am Markt hat, ist es völlig egal ob man Chipsätze oder sowas verkauft. Wobei natürlich SLI mittlerweile essentiell ist.
2. Als AMD nur CPUs und ATI nur Grafikkarten hatten, gings auch beiden irgendwie besser. Dann kam die Fusion und schwups, sind beide ziemlich unter Druck gewesen.
3. CPUs würde ich nicht machen aus nvidia Sicht. Bei zu vielen Standbeinen, kann man sich auch verzetteln.
1. voll der schnellsten grafikkarte kann man leider nicht leben, da das geld woanders verdient wird.
2. das hatte andere gründe. beide hatte in ihren sparten runtergewirtschaftet und nachweislich falsche bzw. schlechtere entscheidungen getroffen und jeder weis, dass zwei kranke keinen gesunden machen. längerfristig wird amd die grafiksparte wieder abspalten, egal wie.
3. das sehe ich auch so.
Doc
Ich sehe es eher so: So lange man die schnellste Grafikkarte am Markt hat, ist es völlig egal ob man Chipsätze oder sowas verkauft. Wobei natürlich SLI mittlerweile essentiell ist.
Hat Nvidia aber nicht zur Zeit.
Dimon
2008-08-19, 00:56:49
Da NV grad CUDA und weiteres Zeug entwickelt, könnten vllt. sogar Prozessoren unwichtig werden, weil ja die Graka alles berechnet, und dabei viel schneller ist als eine CPU.
Wenn NV mit VIA ein Bündnis eingehen würde, könnte es durchaus erfolg haben, da VIA vllt. schwache CPU hat, aber NV mit der CUDA Technologie das ganze ausgleichen könnte.. Die müssen es halt richtig entwickeln..
Dann kann man wieder zu der schnellsten Graka zurückkommen =)
Nur so als beispiel ;)
mfg Dimon
Da NV grad CUDA und weiteres Zeug entwickelt, könnten vllt. sogar Prozessoren unwichtig werden, weil ja die Graka alles berechnet, und dabei viel schneller ist als eine CPU.
Durch ständiges wiederholen wird das auch nicht richtiger. Viel schneller sind sie nur dann, wenn sich Berechnungen massiv parallel ausführen lassen. Das geht aber immer auf Kosten der seriellen Geschwindigkeit. An diesem Konzept gibt es nichts zu rütteln...
Wenn NV mit VIA ein Bündnis eingehen würde, könnte es durchaus erfolg haben, da VIA vllt. schwache CPU hat, aber NV mit der CUDA Technologie das ganze ausgleichen könnte.. Die müssen es halt richtig entwickeln..
Wenn Pfizzer mit VIA ein Bündnis eingehen würde, könnte es durchaus erfolg haben, da VIA vllt. kleine CPUs hat, aber Pfizzer mit der Viagra Technologie das ganze ausgleichen könnte... Die müssen halt richtig entwickeln... :rolleyes:
Grestorn
2008-08-19, 07:39:09
Hat Nvidia aber nicht zur Zeit.
Das wäre mir neu. Welche GPU von ATI schlägt denn derzeit eine GT200?
robbitop@work
2008-08-19, 08:44:02
Das wäre mir neu. Welche GPU von ATI schlägt denn derzeit eine GT200?
Der R700, sofern man MR und AFR-Inkompatibilitäten außen vorläßt. ;)
Das wäre mir neu. Welche GPU von ATI schlägt denn derzeit eine GT200?
Reine Rechenleistung? Sogar eine HD 4850.
Grestorn
2008-08-19, 10:06:47
Der R700, sofern man MR und AFR-Inkompatibilitäten außen vorläßt. ;)
Eine einzelne R700 schlägt keine einzelne GT200. Was Du meinst ist eine 4870 X2, aber das sind ja zwei R700 Chips.
tombman
2008-08-19, 10:08:37
Eben, Nvidia hat immer noch den schnellsten Chip, und auf 55nm wird er noch schneller ;)
Ein GX2 kann Nvidia auch bauen, wenn sie wollen, und dann hat die X2 keine Chance mehr...
Ein GX2 kann Nvidia auch bauen, wenn sie wollen, und dann hat die X2 keine Chance mehr...
Nein.
reunion@work
2008-08-19, 10:48:42
Eine einzelne R700 schlägt keine einzelne GT200. Was Du meinst ist eine 4870 X2, aber das sind ja zwei R700 Chips.
R700 = 2x RV770.
Eben, Nvidia hat immer noch den schnellsten Chip, und auf 55nm wird er noch schneller ;)
Aber auch nur weil AMD keine High-End-Chips mehr baut. Gegen einen R7xx mit ähnlicher Die-Größe wie GT200 wäre man sowas von chancenlos.
Ein GX2 kann Nvidia auch bauen, wenn sie wollen, und dann hat die X2 keine Chance mehr...
Na das will ich erstmal sehen.
robbitop@work
2008-08-19, 10:52:03
Eine einzelne R700 schlägt keine einzelne GT200. Was Du meinst ist eine 4870 X2, aber das sind ja zwei R700 Chips.
Ich meine schon den R700 und nicht den RV770. Natürlich gibt es seitens ATI keine einzelne GPU, die den GT200 schlägt. Für den Kunden zählt aber nicht die GPU oder sonstige Bauteile, sondern nur das Produkt. Und das ist die 4870X2 Grafikkarte.
Grestorn
2008-08-19, 11:20:01
Ich meine schon den R700 und nicht den RV770. Natürlich gibt es seitens ATI keine einzelne GPU, die den GT200 schlägt. Für den Kunden zählt aber nicht die GPU oder sonstige Bauteile, sondern nur das Produkt. Und das ist die 4870X2 Grafikkarte.
Ich finde diese Argumentation immer sehr komisch. Wendet ihr die auch bei CPU Kernen an? Und bei Multi-CPU Systemen?
Als der NV40 gegen R400 verloren hat, der G70 gegen den R500, hat auch niemand gesagt "aber ein SLI System ist schneller, also gewinnt nVidia!" auch wenn die beiden Chips auf eine Karte gebacken wurden.
Ich finde es auch sehr irreführend von ATI eine zwei-Chip Kombo mit einer eigenen Chip-Bezeichnung zu versehen.
Avalox/Gast
2008-08-19, 11:52:13
@Grestorn
Ist halt ein Paradigmenwechsel. AMD hat ja schon von Anfang an angegeben, dass die zukünftige Ausrichtung einfachere, aber mehrere GPUs auf einer Grafikkarte der Weg ist, den jeder grosse GPU Hersteller gehen wird.
Auch hat AMD ja verlauten lassen, dass der GT200 auch für nVidia die letzte grosse monolithische GPU sein wird. M.W. hat dieses nVidia auch nie dementiert. Also wird es schon so sein.
Wer weiss wie dieses weitergeht? Vielleicht werden tatsächlich einmal DIEs auf einem Träger zusammen gebracht. Spätestens dann sollte es auch dort eine eigene Bezeichnung geben, obwohl vielleicht auch dort die Kerne eigentlich identisch mit einem anderen Modell sind.
Hübie
2008-08-19, 11:52:24
Na na na. Net OT werden Jungs und Mädels ;)
nVidia hat den schnelleren single-Chip und hat trotzdem schlechtere Verkaufszahlen als bei Vorgängern.
Ich sehe auch viele Gefahrenfür nVidia. Gerade aus Intels Richtung wird bald scharf geschossen. Wieso geht z.B. crossfire mit dem X38/48 aber kein SLi? Das ist doch nicht unbewusst.
Und auch Larabee wird sich sicher auf die Verkaufszahlen bei nVidia auswirken. Die Frage ist halt nur, wie die dagegen halten wollen. Denn wenn nVidia z.B. CUDA im eignenen Hause behält, dann wird es wohl oder übel fix untergehen. Auf ATi-Karten wäre es aber ebenso lauffähig.
Genauso sehe ich das bei SLi-Lizenzen. SLi könnte auch mit nem Intelchipsatz gehen. Da müssen sich nur beide einigen.
Imo wäre VIA nur teilweise ein attraktiver Partner, da man ne Menge reinbuttern müsste und es wahrscheinlich dauern würde eh das was rauskommt. VIA hat ausserdem ein mieses marketing.
bye Hübie
reunion@work
2008-08-19, 12:00:49
Ich sehe auch viele Gefahrenfür nVidia. Gerade aus Intels Richtung wird bald scharf geschossen. Wieso geht z.B. crossfire mit dem X38/48 aber kein SLi? Das ist doch nicht unbewusst.
Nein, das ist sicher nicht unbewusst. Das ist weil nV bis heute SLi nur auf eigenen Chipsätzn erlaubt.
Hübie
2008-08-19, 12:04:09
Und genau das sollten die sich abgewöhnen. Dieses "eigene Süppchen kochen" funtioniert halt net immer. Glide war auch eine superschnelle OGL-Schnittstelle aber eben 3dfx-only! deshalb gibts sowas heut net mehr. Das Beispiel ist natürlich nur bedingt verwendbar ;)
bye Hübie
Als der NV40 gegen R400 verloren hat, der G70 gegen den R500, hat auch niemand gesagt "aber ein SLI System ist schneller, also gewinnt nVidia!" auch wenn die beiden Chips auf eine Karte gebacken wurden.
Na na, 7900 GX2 und 7950 GX2 haben damals schon auch für sich in Anspruch genommen, die schnellste Grafikkarte zu sein.
Obwohl nVidia (von 3DFX mal abgesehen) damals zuerst eine multi-GPU-Lösung hatte, werden sie nun doch das nachmachen müssen, was ATI vormacht: Zwei kleine Chips rechnen schneller als ein großer. Wenn nVidia das macht und - so wie ATI - einfach vorsichtshalber eben auch auf Raytracing setzt, kann eigentlich so vieles nicht schief gehen. nVidia hat in seiner Geschichte eine Sache schon immer richtig gemacht: Entscheidungen werden von Geschäftsleuten, und nicht von Ingenieuren oder Technikern getroffen. Es ging nVidia nie darum, irgendwelche technischen Ziele oder so zu erreichen. Alle strategischen Entscheidungen dienten der Umsatz- oder Gewinnmaximierung. Dies ist auch der Grund, warum so viele von uns Technikfreaks das Unternehmen unsympathisch finden.
Dennoch: nVidia ist durchaus zuzutrauen, schwieriges Fahrwasser zu durchschiffen. Für uns alle, ob nVidia- oder auch ATI-Fanboys, bleibt zu hoffen, dass uns nVidia noch lange erhalten bleibt.
Und genau das sollten die sich abgewöhnen. Dieses "eigene Süppchen kochen" funtioniert halt net immer. Glide war auch eine superschnelle OGL-Schnittstelle aber eben 3dfx-only! deshalb gibts sowas heut net mehr. Das Beispiel ist natürlich nur bedingt verwendbar ;)
Glide hat mit OpenGL nichts zu tun.
reunion@work
2008-08-19, 12:21:55
Zwei kleine Chips rechnen schneller als ein großer.
Genau das Gegenteil ist der Fall. Ein großer Chip ist wesentlich schneller als zwei kleine mit identischer Die-Fläche. Alleine schon weil der 2D-Teil und vieles andere doppelt vorhanden ist. Der Vorteil von den zwei kleinen liegt ganz wo anders, nämlich im gesparten großen Chip.
robbitop@work
2008-08-19, 12:41:04
Ich finde diese Argumentation immer sehr komisch. Wendet ihr die auch bei CPU Kernen an? Und bei Multi-CPU Systemen?
Als der NV40 gegen R400 verloren hat, der G70 gegen den R500, hat auch niemand gesagt "aber ein SLI System ist schneller, also gewinnt nVidia!" auch wenn die beiden Chips auf eine Karte gebacken wurden.
Ich finde es auch sehr irreführend von ATI eine zwei-Chip Kombo mit einer eigenen Chip-Bezeichnung zu versehen.
SLI wären dann ja wieder 2x Grafikkarten, wofür du nicht jedes beliebige Board nutzen kannst. Was unter diesem Kühler ist, interessiert doch keinen Kunden.
ATI hat die X2 als legitimes High End Produkt auf den Markt geworfen und als solches wird es auch angenommen.
Grestorn
2008-08-19, 12:47:28
SLI wären dann ja wieder 2x Grafikkarten, wofür du nicht jedes beliebige Board nutzen kannst. Was unter diesem Kühler ist, interessiert doch keinen Kunden.
ATI hat die X2 als legitimes High End Produkt auf den Markt geworfen und als solches wird es auch angenommen.
Bei der GX2 haben damals alle ATI Freunde ständig die angeblichen Nachteile von SLI als Argument, weswegen die GX2 kein legitimer Konkurent wäre, rausgekehrt - wobei selbst das SLI der 7950GX2 noch besser ist als CF heute, da deutlich mehr Spiele unterstützt wurden und der User ggf. auch nicht direkt unterstützte Spiele beschleunigen konnte.
Ich nutze SLI seit nVidia das mit der 6800 erstmalig eingeführt hat. Ich weiß gar nicht mehr, wieviele Hassthreads gegen SLI ich seit dem erleben musste. Und da SLI nun mal zuerst von nVidia angeboten wurde, waren das meist eher Angriffe aus der roten Ecke. Und genau die selben Leute sind heute total von der 4870 X2 begeistert.
Hübie
2008-08-19, 12:48:54
Glide hat mit OpenGL nichts zu tun.
Dann lass mich doch net dumm sterben :smile: Hatte wohl mal aufgeschnappt, dass es auf OGL basiere.
bye Hübie
Grestorn
2008-08-19, 12:51:17
Glide ist eine komplett proprietäre Eigenentwicklung.
Es gibt einen OGL -> Glide Wrapper für 3Dfx Karten.
Vor allem ist Glide viel näher an der Hardware als OpenGL.
Ronny G.
2008-08-19, 13:15:44
Ich bin ja eher als "neutraler NV-Fanboy" zu bezeichnen, habe seit der MX400 jede Generation gehabt, meist ein Midrange Produkt, die letzte war meine GTS G92. Allesamt war ich bis auf die FX5900 sehr zufrieden mit den Karten. Aber nun habe ich mich doch mal wieder für ATI entschieden(hatte mal ne X1800GTO), in meinen P/L-Geprägten Augen das bessere Produkt. NV glaubt halt von Generation zu Generation immer stärker daran mit dem Kopf durch die Wand voran zu kommen.
Aber nun schaut euch die Verkaufzzahlen der 4800er Serie an, bedenkt was NV für ne Preissenkung in kürzester Zeit veranlasst hat um nicht unter zu gehen. Nun weiß man wer den besseren Weg geht. Das war jetzt rein auf den Graka Markt bezogen.
Über den Rest wie Chipsätze und CPU´s mache ich mir bei NVIdia keine großen gedanken. Ersteres wird weiter ein wichtige Markt und Schlüssel sein um sich zu behaupten.
Was hier aber seit dem koppeln mehrere Grakas in form von SLI und CF abgeht finde ich zwar selber Interessant, am ende ist es von beider seiten nur schummelei um pure Leistung zu demonstrieren die am Ende keiner wirklich brauch, außer zum Benchen.
Wie so wird nur immer über so Sinnlose sachen diskutiert wenn die Aussage von NVIDIA ganz klar und schon öfters getätigt wurde:
Die CPU ist TOT, in der Zukunft werden die grossen Berechnungen über die GPU ausgeführt.
Wie so sollte also NVIDIA VIA Kaufen um an eine CPU ran zu kommen die mehr oder weniger im High-End Bereich nichts taugt??? Wenn man so wie so davon ausgeht das die CPU früher oder später nur noch ein co Prozessor ist???
Und dieser Mode Satz von wegen alles vom selber Hersteller ist so komplett bescheuert... es wird exakt das gekauft was gut ist und sicher nicht weil es vom selben Hersteller ist, so ein Blödsinn!
Ich sehe hier sogar eine sehr grosse Gefahr für AMD / INTEL wenn sie dieses Marketing von wegen alles aus einer hand weiter intensive fortführen werden! Wenn nämlich nur ein Bauteil mal nicht so gut gelingt heist es dann ganz schnell das die ganze Plattform schrott ist und so zb. die CPU Verkäufe zurück gehen weil die GPU davon im Vergleich zur Konkurrenz nichts taugt, schon mal darüber nachtgedacht?
NVIDIA wird dort weiter machen wo sie mit dem G80 und G200 Angefangen haben und dazu brauchen sie ganz sicher keine eigene CPU, so einfach ist das ;)
Vor allem ist Glide viel näher an der Hardware als OpenGL.
Umgekehrt: die Chips waren sehr nah an der API designed.
hüstele
Wenn jemand hier in dem Vergleich einen besseren Coprozessor darstellt dann die GPU. Das bedingt sich schon allein Technisch konzeptionell (vereinfacht ausgedrückt, eine CPU ist vergleichsweise ein alles Fresser). ;)
Umgekehrt: die Chips waren sehr nah an der API designed.
Das ergibt keinen Sinn. Vor allem wenn es noch keine API gibt nach der man einen Chip entwickeln muss wird niemand hergehen und zuerst die API und dann den Chip entwickeln.
Exxtreme
2008-08-19, 15:42:27
Umgekehrt: die Chips waren sehr nah an der API designed.
Keiner passt die eigene Hardware an die eigene Software an wenn es umgekehrt viel leichter ist. Und ein API an einen Chip anzupassen ist viel einfacher als einen Chip an ein API.
Glide ist direkt aus OpenGL entstanden (die 3dfx Ingenieure kamen alle von SGI), also war die API quasi schon da.
Glide hat zwar Ähnlichkeiten zu OpenGL, aber ist dennoch viel mehr auf den 3Dfx-Chip angepasst, vor allem ist es deutlich näher an der Hardware.
Es ist Unsinn zu behaupten 3Dfx hätte einen Chip für OpenGL entwickelt.
Black-Scorpion
2008-08-19, 21:01:08
Eben, Nvidia hat immer noch den schnellsten Chip, und auf 55nm wird er noch schneller ;)
Ein GX2 kann Nvidia auch bauen, wenn sie wollen, und dann hat die X2 keine Chance mehr...
Warum sollte ein geshrinkter G200 auf wundersame Weise schneller werden?
Und die GX2 möchte bestimmt keiner bezahlen und im Rechner haben.
Außerdem möchte ich das Ding erstmal sehen.
Manchmal fragt man sich wirklich ob auch mal was realistisches kommt.
Oder ob du nur deine Wunschträume niederschreibst.
Black-Scorpion
2008-08-19, 21:05:59
Na na, 7900 GX2 und 7950 GX2 haben damals schon auch für sich in Anspruch genommen, die schnellste Grafikkarte zu sein.
Obwohl nVidia (von 3DFX mal abgesehen) damals zuerst eine multi-GPU-Lösung hatte, werden sie nun doch das nachmachen müssen, was ATI vormacht: Zwei kleine Chips rechnen schneller als ein großer.
ATI hatte vor nV die Rage Fury Maxx (http://www.pc-erfahrung.de/grafikkarte/vga-grafikchips-desk/ati-sonstige/ati-dual-rage-128-pro-gl-rage-fury-maxx.html).
tomvos
2008-08-19, 21:46:34
Von vielen wird das Fehlen einer CPU bei nVidia als Problem dargestellt. Ich sehe das andersherum.
Bei Intel und bei AMD ist die CPU die Cashcow. Die Marge ist bei diesen Produkten deutlich höher, als z. B. bei Mainboard Chipsätzen oder auch GPUs. Insofern werden Intel und AMD diese Geldquelle verteidigen.
AMD setzt dazu auf Fusion. Alleine aus thermischen Gründen wird Fusion kein 3D Rennpferd werden. Die Wichtigkeit der CPU wird bei diesem Design im Vordergrund stehen.
Intel setzt auf Larrabee. Ziel ist es hier, die Entwickler bzw. der Codebasis auf x86 zu halten. Über konkrete Leistung von Larrabee fehlen immer noch Angaben. Auch jetzt nach der Siggraph findet man fast nichts an belastbaren Informationen im Netz. Ich sehe hier wieder ganz eindeutig eine CPU zentrierte Sichtweise, diesmal von Intel. Alles was auf Larrabee nicht geht, wird halt auf der CPU gemacht. Eventuell wird man auch eine Mischung aus Larrabee und CPU Code haben, um beide Welten zu nutzen. Hauptsache die Verbindung zu x86 und der CPU bleibt für Intel erhalten.
nVidia hat dieses Problem nicht. Sie müssen keine Angst haben, dass sie die eigenen Märkte angreifen bzw. zu einem Produkt mit geringerer Marge verschieben. Aus diesem Grund kann nVidia Dinge wie CUDA massiv pushen, während AMD bei CTM auf Sparflamme köchelt. Die Vorstellung bei AMD, anstelle von 128 Opteron Prozessoren nur 8 bis 12 RV770 GPUs zu verkaufen, wird dort sicherlich Bauchschmerzen verursachen.
Insofern sehe ich in der jetzigen Situation für nVidia wenig Probleme in der Zukunft. Im Gegenteil, neben dem Standbein Computerspiele öffnet sich durch CUDA, OpenCL usw. der Markt des HPC. Auf dem Mac zeigt die GPU ebenfalls, was man noch so beschleunigen kann (auch wenn nVidias Treiber bei CoreImage/CoreVideo saugen). Der Unterschied bei Content Creation z.B. bei Motion3 ist enorm. Audio-Anwendungen könnten von der GPU übrigens auch gut profitieren. Gerade bei sehr vielen Effekten.
Das größte Problem, dass nVidia lösen muss, ist nicht die Frage nach einem All-Inklusive-CPU-GPU-Paket, sondern eine geschickte Vermarktung von dem, was Sie gut können. Und dabei sollten Sie keine Angst haben, mit einer GPU Sachen zu machen, an die noch keiner gedacht hat(1)(2).
(1) Beispielsweise eine GPU mit einem DAC/ADC zu koppeln und Software-Defined-Radio mit so extremer Rechenleistung zu verbinden. ;D
(2) Wie wäre es mit GPU-Beschleunigung von Skype-Audio-Codecs?
Beispielsweise eine GPU mit einem DAC/ADC zu koppeln und Software-Defined-Radio mit so extremer Rechenleistung zu verbinden. ;D
Ein USRP kostet ja so schon so viel wie eine GPU. Wär bissel teuer :)
robbitop@work
2008-08-20, 08:34:30
Bei der GX2 haben damals alle ATI Freunde ständig die angeblichen Nachteile von SLI als Argument, weswegen die GX2 kein legitimer Konkurent wäre, rausgekehrt - wobei selbst das SLI der 7950GX2 noch besser ist als CF heute, da deutlich mehr Spiele unterstützt wurden und der User ggf. auch nicht direkt unterstützte Spiele beschleunigen konnte.
Ich nutze SLI seit nVidia das mit der 6800 erstmalig eingeführt hat. Ich weiß gar nicht mehr, wieviele Hassthreads gegen SLI ich seit dem erleben musste. Und da SLI nun mal zuerst von nVidia angeboten wurde, waren das meist eher Angriffe aus der roten Ecke. Und genau die selben Leute sind heute total von der 4870 X2 begeistert.
Jepp, deswegen nannte ich ja MR und Inkompatibilitäten und setzte einen Ironie Smiley. ;)
Das tollste High End Produkt ist es nicht. Aber es ist eines. Genau wie die GX2.
Was irgendwelche "ATI-Freunde" oder sonstige un-objektive Leute gesagt haben, interessiert mich generell nicht die Bohne. Zumindest nicht so lang, bis es objektiv richtig ist. ;)
AnarchX
2008-08-20, 10:47:48
Nvidia to announce x86 chip next week
Not IDF San Francicsco So say the whispers (http://www.theinquirer.net/gb/inquirer/news/2008/08/20/nvidia-announce-x86-chip)
:D
Mal sehen ob NV wirklich so etwas auf de NVision ankündigt.
Anarchy-HWLUXX
2008-08-20, 11:49:08
Nvidia to announce x86 chip next week
Not IDF San Francicsco So say the whispers (http://www.theinquirer.net/gb/inquirer/news/2008/08/20/nvidia-announce-x86-chip)
:D
Mal sehen ob NV wirklich so etwas auf de NVision ankündigt.
Äääääääh ?
Sehr unwarscheinlich das ganze ... aber wenn nV einen Weg gefunden hat : Go for it !
Ansonsten haben mer die meldung von heute das der Nehalem für Gamer weniger interesannt ist als angenommen, besonders wenn man die Preise für CPUs und Boards betrachtet wird das nochmal deutlicher ...
Und noch paar aktuelle Meldungen :
nForce 770i SLI & 780a Boards in neuer revision für besseres OC
http://www.techpowerup.com/68956/NVIDIA_Plans_to_Take_on_AMD_790_Intel_P45_DDR3.html
http://en.expreview.com/2008/08/20/nvidia-mcp7278-will-support-acc-overclocking/
Bis Q3/2009 werden C2D / C2Q und 45nm Phenoms Preis-Leistungs technisch in Games die deutlich bessere Wahl sein verglichen mit dem Bloomfield - so gesehen macht es auch weniger sinn für nV da massiv Geld in die entwicklung eines eigenen 1366er Chipsatzes zu stecken und stattdessen mehr auf den prozentual extrem viel größeren Performance & Midrange Markt zu setzen.
Wann erscheinen die 45nm Phenoms?
Exxtreme
2008-08-20, 12:03:51
Nvidia to announce x86 chip next week
Not IDF San Francicsco So say the whispers (http://www.theinquirer.net/gb/inquirer/news/2008/08/20/nvidia-announce-x86-chip)
:D
Mal sehen ob NV wirklich so etwas auf de NVision ankündigt.
Also mit einem x86-Chip seitens NV hätte ich absolut net gerechnet ... :eek:
Sorkalm
2008-08-20, 12:09:13
Ist bisher auch nur eine Inquirer-Meldung. So wie die Inquirer-Meldung, dass mit dem K10 plötzlich 30.000 3DMarks im 06 erreicht werden (mit ner 8800 GTX oder so), oder ähnlichem...
Allerdings hätten sie mit Stexar wirklich das Know-How:
http://www.theinquirer.net/en/inquirer/news/2005/05/20/top-intel-engineers-end-up-at-startup
robbitop@work
2008-08-20, 13:52:50
Das ist immerhin der Großteil des ehemaligen P4-Teams.
NV hätte sicherlich problemlos noch andere kleine CPU Schmieden wie Transmeta, Centaur, PA Semi schlucken können.
Das größte Problem, neben dem Lizenzproblem, dürfte die Fertigung sein.
Ohne eigene Fertigung sind CPUs einfach nicht konkurrenzfähig. Intel hat den Großteil seines Erfolgs schon immer der überragenden Halbleiterfertigung zu verdanken. Mit Auftragsfertigung seitens IBM, TSMC, Chartered, Fujitsu und wie sie alle heißen wird nur mittelmäßige Charakteristik drin sein.
Intel und AMD entwickeln ja nicht nur ihre CPUs für den spezifischen Prozess sondern auch umgekehrt.
Die Auftragsfertiger konzentrieren sich seit jeher auf die Verbesserung der Fertigung und arbeiten eng mit ihren Auftraggebern zusammen.
Wie gut dann das Endergebnis ist, bestimmt einzig und allein der Preis, den man bereit ist zu zahlen.
Erst bei massivem Absatztvolumen wird Eigenfertigung günstiger und somit besser;)
robbitop@work
2008-08-20, 16:18:09
An das Ergebnis einer Eigenfertigung kommt man nicht heran. Schließlich nutzen Fremdfertiger in der Regel die Prozess-Librarys nicht nur für einen Auftraggeber.
Schließst Know-How auch eine entsprechende Lizenz mit ein? Ohne SSE1-4 und den ganzen Erweiterungskram is das doch ein Fest für die Anwälte... Schöner mist irgendwo...
Warum muss es eigentlich X86 sein, geht nicht auch sowas wie ein PowerPC CPU von IBM? Apple hat ja relativ locker den Transit vom PowerPC auf Intel CPUs vollzogen, sollte doch Softwaretechnisch hinzubekommen sein.
Ok, MS is ne faule Sau in der Hinsicht, wie man an der 64Bit Version von XP gesehen hat ^^
BlackBirdSR
2008-08-20, 20:12:22
Warum muss es eigentlich X86 sein, geht nicht auch sowas wie ein PowerPC CPU von IBM? Apple hat ja relativ locker den Transit vom PowerPC auf Intel CPUs vollzogen, sollte doch Softwaretechnisch hinzubekommen sein.
Ok, MS is ne faule Sau in der Hinsicht, wie man an der 64Bit Version von XP gesehen hat ^^
Und was macht man dann mit einer PowerPC-CPU?
Es gibt keinen Platz (und Software) im Consumer-Markt von Intel und AMD. Siehe eben Apple.
Warum muss es eigentlich X86 sein, geht nicht auch sowas wie ein PowerPC CPU von IBM? Apple hat ja relativ locker den Transit vom PowerPC auf Intel CPUs vollzogen, sollte doch Softwaretechnisch hinzubekommen sein.
Ok, MS is ne faule Sau in der Hinsicht, wie man an der 64Bit Version von XP gesehen hat ^^
x86 verbreitet sich immer mehr und das ist kaum aufzuhalten. Die Applikationsbasis ist viel zu breit um da mit PPC irgendwas reisen zu können. Da müsste die CPU schon kurz mal doppelt so schnell sein wie alles andere und das auf lange Zeit. Dann würden sich wohl Leute beginnen dafür zu interessieren.
Apple hat das auch nur wegen ihren geschlossenen Systemen recht einfach gelöst mit Emulation und Fat Binaries.
Apple hat das auch nur wegen ihren geschlossenen Systemen recht einfach gelöst mit Emulation und Fat Binaries.
Was hat das mit geschlossenem System zu tun -> nichts!
stickedy
2008-09-28, 13:53:19
Der Thread ist wegen ständiger Spambot-Attacken vorübergehend geschlossen!
deekey777
2009-02-10, 15:48:54
Der Thread ist wegen ständiger Spambot-Attacken vorübergehend geschlossen!
Probeweise auf, aber ein sehr ungutes Gefühl.
Sieht nicht aus, zur Zeit haben sie mit einem Umsatzrückgang von knapp 60 % zu kämpfen, das ist mehr als erwartet! :eek:
http://www.computerbase.de/news/wirtschaft/unternehmen/nvidia/2009/februar/nvidias_gewinn/
Besonders negativ stimmt mich die Aussage in diesen Artikel. Es kann doch nicht sein, das der Typ keine Lösungen bereithält und einfach so weitermachen will wie bisher.
Er sieht CUDA und PhysX offenbar als Heilsbringer.
Ob der sich da nicht ordentlich verschätzt... ich würde das jetzt nicht als besonders Umsatzsteigernd anführen, besonders wenn eine Technologie wie GPU computing auch nicht herstellergebunden sein kann (warten wir mal DirectX Entwicklung ab)
Und wenn PhysX so toll ist, wie kommt es dann zu diesem schlechten Ergebniss, da gabs PhysX nämlich auch schon. So schlecht sind die Produkte ja nicht, überzeugen tun sie mich allerdings auch nicht.
LovesuckZ
2009-02-10, 23:19:40
Es gibt keine Lösung für dieses Problem - nur neue und attraktive Produkte. Und genau das forciert nVidia mit CUDA, PhysX, Stereo3D etc. Alles andere liegt wohl kaum in deren Einflussbereich.
Was genau findest du an CUDA und PhysX attraktiv? Das muss ich dich ehrlich fragen jetzt!
Ich als Kunde bin überhaupt kein Freund von irgendwelchen herstellerexklusiven Technologien. Vorallem gibts kaum Software dazu, für mich fällt das noch in die Kategorie "belanglos"!
Selbst PhysX klingt erstmal gut, aber bis jetzt habe ich noch nirgendwo einen WOW-Effekt gehabt, die Effekte sind zu vernachlässigen, teilweise nicht mal so recht wahrnehmbar. Sobald ich dafür mehr als eine Karte brauchen werde um es anständig zu nutzen, hört der Spaß bei mir auf.
Die derzeitigen Produkte sind alles andere als schlecht, trotzdem dieser starke Rückgang. Nvidia hat immer noch schnelle Einzelkarten am Start, das reicht aber scheinbar nicht, was ich auch gut verstehen kann, derzeit bietet ATi mit der 48xx Serie recht viel fürs Geld.
LovesuckZ
2009-02-10, 23:35:53
Was genau findest du an CUDA und PhysX attraktiv? Das muss ich dich ehrlich fragen jetzt!
Ich als Kunde bin überhaupt kein Freund von irgendwelchen herstellerexklusiven Technologien. Vorallem gibts kaum Software dazu, für mich fällt das noch in die Kategorie "belanglos"!
Selbst PhysX klingt erstmal gut, aber bis jetzt habe ich noch nirgendwo einen WOW-Effekt gehabt, die Effekte sind zu vernachlässigen, teilweise nicht mal so recht wahrnehmbar. Sobald ich dafür mehr als eine Karte brauchen werde um es anständig zu nutzen, hört der Spaß bei mir auf.
Jetzt. Aber nicht in der Zukunft. Und alles andere spielt heute nunmal keine Rolle. Wenn mehr Software, mehr Anwendungen erscheinen, die von der GPU profitieren, wird es sich positiv auszahlen. Dafür muss man investieren. Genauso auch mit der ION Plattform. Es sind Investitionen in die Zukunft und helfen heute eben noch nicht.
Die derzeitigen Produkte sind alles andere als schlecht, trotzdem dieser starke Rückgang. Nvidia hat immer noch schnelle Einzelkarten am Start, das reicht aber scheinbar nicht, was ich auch gut verstehen kann, derzeit bietet ATi mit der 48xx Serie recht viel fürs Geld.
Tja, AMD hat den Markt kaputt gemacht. Letztes Jahr fragte reunion, wie nVidia 330mm^2 für zwischen 199-299€ überhaupt vernünftig produzieren könnte. Heute hört man von ihm keine Verblüffungen, wie AMD 260mm^2 für unter 90€ gewinnbringend verkaufen kann. So ändern sich die Zeiten. Der Markt ist einfach tot, und das wird wohl mindesten noch 2 Quartale so bleiben. Und erst dann wird sich zeigen, inwieweit CUDA, PhysX, Stereo3D, ION und alle andere Produkte sich dann auswirken werden.
Jetzt. Aber nicht in der Zukunft.
Die Zukunft interessiert mich genauso wenig, wenn ich jetzt ein produkt kaufe, nicht wahr?
Wenn ich weiß, das ich in nächster Zeit doppelte Leistung fürs gleiche Geld bekomme, kaufe ich doch jetzt nicht für die ungewisse Zukunft, vorallem wenn es dann auch noch an Software mangelt. In Zukunft könnte DirectX11 einiges ändern. Weiß ich das jetzt schon!?
Wenn mehr Software, mehr Anwendungen erscheinen, die von der GPU profitieren, wird es sich positiv auszahlen.
Stop, so wie du das sagst, ist es nicht. Das betrifft vorallem nvidia Hardware, was ist aber mit dem Rest?
Ich will solche Software dann ständig nutzen, auch dann, wenn ich zur Konkurrenz wechsele, und keine nvidia Karte mehr habe. Soll ich die Software dann wegschmeißen:confused: (Nein, ich rede nicht von PhysX).
Ich formuliere die Frage anders: Wie willst du einem Nicht-Freak so ein Produkt schmackhaft machen? Durch Produktzwang?
Ich warte übrigens immer noch auf den 64 Bit Boom, der irgendwann um 2004 angekündigt wurde.
Auch habe ich abstand von Software genommen, die mich zu irgendetwas zwingt, wie so viele andere (Ich sag nur Spiele).
CUDA ist im Angesicht von OpenCL und DX-CS völlig uninteressant und wird das gleiche Schicksal ereilen wie CAL/Brook+/Stream, nämlich schön langsam sterben.
PhysX ist eine nette Idee, aber solange AMD oder zukünftig Intel nichts in die Richtung machen wird es eine Randerscheinung bleiben. Letztere werden dank Havok-Übernahme einen Teufel tun.
ION könnte hingegen wohl ein wenig Geld in die Kassen spülen in Zukunft. Auf jedenfall hat das ganze Potential.
LovesuckZ
2009-02-10, 23:56:47
Die Zukunft interessiert mich genauso wenig, wenn ich jetzt ein produkt kaufe, nicht wahr?
Wenn ich weiß, das ich in nächster Zeit doppelte Leistung fürs gleiche Geld bekomme, kaufe ich doch jetzt nicht für die ungewisse Zukunft, vorallem wenn es dann auch noch an Software mangelt. In Zukunft könnte DirectX11 einiges ändern. Weiß ich das jetzt schon!?
Alles das, was dich nicht interessiert, wird es in Zukunft weiterhin geben. Und dann profitierst du davon - sowie die ehemaligem r420 User von SM3.0 als sie sich einen r520 gekauft haben.
Stop, so wie du das sagst, ist es nicht. Das betrifft vorallem nvidia Hardware, was ist aber mit dem Rest?
Ich will solche Software dann ständig nutzen, auch dann, wenn ich zur Konkurrenz wechsele, und keine nvidia Karte mehr habe. Soll ich die Software dann wegschmeißen:confused: (Nein, ich rede nicht von PhysX).
Nennt sich Kundenbindung. Willst du weiterhin davon profitierne, muss du wohl oder übel bei nVidia bleiben. Ist auf dem Konsolenmarkt nicht anders. Xbox360 Spiele und Anwendungen laufen eben nicht auf der PS3.
Ich formuliere die Frage anders: Wie willst du einem Nicht-Freak so ein Produkt schmackhaft machen? Durch Produktzwang?
Indem man ihn zeigt, dass es nur mit der eigenen Hardware funktioniert. Und er darauf verzichten muss, wenn er zu einer anderen Hardware greift. Das klappt doch besten auf dem Konsolenmarkt, wieso sollte es nicht auch auf den PC Markt funktionieren?
xenomat
2009-02-11, 03:03:50
Ich persönlich kenne niemanden, der SLI überhaupt nutzt. Ich stelle gern meine Grafikdetails hoch, aber habe selbst noch nie eine Notwendigkeit für SLI gesehen. Sehe das ehrlich gesagt auch gar nicht ein mehr als eine GPU im Rechner zu haben... :| EINE High-End Karte ist mehr als genug.
Ich sehe da also keine Probleme für nvidia.
reunion
2009-02-11, 08:07:09
Tja, AMD hat den Markt kaputt gemacht. Letztes Jahr fragte reunion, wie nVidia 330mm^2 für zwischen 199-299€ überhaupt vernünftig produzieren könnte. Heute hört man von ihm keine Verblüffungen, wie AMD 260mm^2 für unter 90€ gewinnbringend verkaufen kann. So ändern sich die Zeiten. Der Markt ist einfach tot, und das wird wohl mindesten noch 2 Quartale so bleiben.
Ich finde es wirklich lächerlich wie du es immer wieder schaffst irgendwie doch AMD die Schuld in die Schuhe zu schieben obwohl Nv wirklich ausnahmslos in jedem(!) Segment mit den zum Teil deutlich größeren Dice konkurriert. Also wenn hier jemand den Markt kaputt macht (was ich für vollkommenen Bullshit halte), dann sicher nicht AMD.
Und nV verkauft heute übrigens ihre 330mm² auch um ~90€, selbst mit der Umstellung auf 55nm sind es noch immer 276mm². Von der GT260 für kaum über 200€ wollen wir erst gar nicht reden, wo man den Preis immer weiter senkte obwohl man ohnehin schon viel zu teuer produzierte.
Schlammsau
2009-02-11, 08:22:28
Ich finde es wirklich lächerlich wie du es immer wieder schaffst irgendwie doch AMD die Schuld in die Schuhe zu schieben obwohl Nv wirklich ausnahmslos in jedem(!) Segment mit den zum Teil deutlich größeren Dice konkurriert. Also wenn hier jemand den Markt kaputt macht (was ich für vollkommenen Bullshit halte), dann sicher nicht AMD.
Und nV verkauft heute übrigens ihre 330mm² auch um ~90€, selbst mit der Umstellung auf 55nm sind es noch immer 276mm². Von der GT260 für kaum über 200€ wollen wir erst gar nicht reden, wo man den Preis immer weiter senkte obwohl man ohnehin schon viel zu teuer produzierte.
Lass es gut sein, LZ hat eine völlig andre Denkweise als 99% der anderen Leser hier. Er hat schon gefühlte 1000x geschrieben, dass AMD/ATi den Markt kaputt gemacht haben. Das hängt mir sowas von zum Hals raus. :ubash3:
Skinner
2009-02-11, 08:30:12
Was genau findest du an CUDA und PhysX attraktiv? Das muss ich dich ehrlich fragen jetzt!
zu Cuda fällt mir da folgendes ein.
Wer scriptbasiertes Videoediting/Encoding mit Avisynth betreibt, wird an CUDA gar nicht vorbei kommen. Mittlerweile gigt es für AVC, VC1 und MPEG2 CUDA Decoder die einfach integriert werden können. Bei AVC ereiche ich mit dem AVC Decoder beim neu Encoden etwa 40% mehr speed. Das ist für mich mehr als ein pro das für CUDA spricht ;)
Lass es gut sein, LZ hat eine völlig andre Denkweise als 99% der anderen Leser hier. Er hat schon gefühlte 1000x geschrieben, dass AMD/ATi den Markt kaputt gemacht haben. Das hängt mir sowas von zum Hals raus. :ubash3:
Es ist sehr schwierig, nicht per se alles von gewissen Leuten als Unsinn azustempeln, weil man einfach schon zu oft die immer gleiche Leier bei ihnen gelesen hat. Das ganz allgemein.
Mir ist auch egal, wer den Markt kaputt gemacht haben soll, für mich ist interessanter wie er sich darstellt und was für Entwicklungen für die Zukunft zu erwarten sind. Ich als Kunde kann auch den Begriff "kaputt" nicht teilen, es gibt erstklassige Hardware für selten schmales Geld. Erstmal nur Vorteile aus Kundensicht, Lovesucks sieht aus Nvidia-Perspektive die Nachteile.
Zu Lovesucks aktuellen Sichtweisen muss ich sagen, sie mißfallen mir, weil ich das Geschäftsgebaren hinter der Nvidia-Strategie nicht mag. Exklusivität hier, proprietär da, keine offenen Standards in Sicht. Ich sehe da für die Zukunft nur Nachteile aus Kundensicht, Lovesucks spricht hier von "Kundenbindung" und sieht es aus Nvidia-Perspektive als legitim und erfolgversprechend. Das schlimme ist, es könnte funktionieren.
Ob am Ende der enorme Preiskampf oder die Zersplitterung des PC-Marktes in herstellereigene Exklusivbereiche das Ende eines der großen Zwei herbeiführen mag, kann ich nicht einschätzen. Sicher ist nur, wenn nicht wenigstens zwei innovationsfähige Hersteller am Markt konkurrieren, wird die Entwicklung einschlafen und die Preise werden steigen. Vielleicht stößt Intel in eine mögliche Lücke, vielleicht begräbt Larabee auch gleich beide Hersteller.
Successor
2009-02-11, 08:41:12
Ich kenne mich mit den Marktstrategien und Papers kein Stück aus, aber wie siehts bei Nvidia und AMD eigentlich bei den Chipsätzen für mobile Geräte aus? Uns erwartet doch angeblich (seit Mitte der 90er) der Boom an alleskönnenden Kleingeräten... da müssten die doch punkten können?
Der ganzen IT-Branche geht es schlecht. In Zeiten der Wirtschaftskrise sitzt der Taler nicht mehr locker. Die Kundschaft ist flächendeckend mit GPUs gerüstet die alles flüssig darstellen (Konsolenports). Nvidia hat es jetzt eben auch mal erwischt. Der Namenswirrwarr hat und wird in Zukunft auch dazu beitragen. Ich bin aber überrascht das Nvidia, im Gegensatz zu ATI/AMD, die Verluste "niedrig" halten kann.
NV hat es mehr als nur erwischt. Sie haben keine CPU. Ihre Chipsätze sind auf allen Plattformen zweite Wahl. Die GPUs sind groß im Vergleich zur Konkurrenz. Die Shrinks kamen spät.
Die Preise die heute für Graka gezahlt werden, werden erst steigen wenn der Markt bereinigt wurde. Niemand wird mehr für ne Performance Karte mehr als 150 Euro geben.
Indem man ihn zeigt, dass es nur mit der eigenen Hardware funktioniert. Und er darauf verzichten muss, wenn er zu einer anderen Hardware greift. Das klappt doch besten auf dem Konsolenmarkt, wieso sollte es nicht auch auf den PC Markt funktionieren?
Das Letzte, was der PC Markt gebrauchen kann, ist eine weitere Zerklüftung. Man muss schon reichlich Hunger haben, um sich das zu wünschen.
Es müssen endlich einheitliche Standards geschaffen werden; aktuell ist DX11 die Plattform, auf die man hoffen darf.
Wenn jeder Hersteller sein eigenes Süppchen kocht, und darîn ist NV Weltmeister, wird man nie auf einen grünen (huch) Zweig kommen.
Die Zukunft, die Du propagierst, beinhaltet Fehlermeldungen à la " Falsche Grafikkarte entdeckt, bitte installieren sie ein Nvidia-Produkt und starten Sie die Anwendung neu." Spätestens dann ist es um den PC-Spielemarkt geschehen. Selbst ich (als starker Verfechter des PCs) würde dann wieder bevorzugt die Brettspiele aus dem Keller holen gehen.
Lass es gut sein, LZ hat eine völlig andre Denkweise als 99% der anderen Leser hier. Er hat schon gefühlte 1000x geschrieben, dass AMD/ATi den Markt kaputt gemacht haben. Das hängt mir sowas von zum Hals raus. :ubash3:
Er hat damit aber recht. AMD hat mit Einführung der 48xx Karten massives Preisdumping betrieben, was in AMDs finanzieller Situation das dämlichste war, was man tun konnte. Die Leute hätten die 4870 auch für 350€ gekauft, das hätte pro verkaufter Karte etwa 100€ mehr in AMD Kassen gespült.
@ gast über mir:
das was amd gemacht hat war goldrichtig aus sicht des unternehmens. der konkurrenzkampf hätte sich doch bei gleichen preisen nie so ergeben und es wäre sehr schwierig gewesen die kunden zu gewinnen. liegt man mit dem preis unter dem der konkurrenz ist das wesentlich einfacher. insbesondere dann wenn die herstellungskosten signifikant unter denen der konkurrenz liegen. der gewinn daraus ist wesentlich grösser. ... soetwas lernt man in marketing in der ersten stunde ... zudem hat man den vorteil, dass man die konkurrenz gehörig unter druck setzt.
@Gast über mir:
Und was macht man wenn einem dann das Geld ausgeht? Schaut euch AMD mal ganz genau an.
Sie sind unter Druck durch Intel und CPU ist nach wie vor das Hauptgeschäft.
Mit ihrem aggressiven Preiskampf haben sie natürlich auch Nvidia in Mitleidenschaft gezogen allerdings hat Nvidia ein viel geringeres Operating Model aus Kostensicht als AMD und AMD braucht Geld an zwei Fronten.
Es nützt AMD 0,0 wenn Sie auf beiden Hauptzweigen kein Geld verdienen. AMD geht das Geld aus und die müssen jetzt langsam auf einen grünen Zweig kommen. Ich rall nicht wieso die immer um Marktanteilswillen dermaßen fette Preissenkungen durchziehen.
Im CPU Markt kann ich es noch verstehen, da hier Intel Druck ausübt aber im GPU Markt bestand kein Grund dazu. Was haben Sie von den Kunden die heute ne ATI Graka fürn Appel und ein Ei kaufen? Die Kunden im GPU Desktop Markt haben so gut wie keine Markenbindung. Es wird das gekauft was am attraktivsten ist. Mit jeder neuen Generation beginnt das Spiel von vorne.
Und ein Kunde der heute AMD/ATI gekauft hat kauft beim nächsten Mal nicht automatisch wieder AMD/ATI.
Im CPU Markt ist das etwas anders, da Intel hier einen gewissen Bonus beim Kunden hat. Wegen 2% mehr Leistung bei der Konkurenz kaufen dann trotzdem noch viele Intel, weil sie dann ruhiger schlafen was Stabilität, Softwaresupport und ähnliches angeht aber im GPU Markt???
Ist doch vollkommen latte von wem man da die GPU kauft.
Nvidia hat jetzt 30 Mio Dollar Verlust gemacht. Das ist zwar nicht schön aber gemessen an den Satten Gewinnen der vergangenen Quartale und Jahre ist das noch ein Fliegenschiss.
Im Gegensatz dazu hat AMD/ATI aber auch in den vergangenen Quartalen und Jahren rot geschrieben. Die haben kein Polster mehr.
Der Phenom ist ein echt tolles Produkt. Leider für AMD kommt genau jetzt die Weltrezession und die wird sie sehr hart treffen aus dem einfachen Grund, dass Intel als Marktführer und Monopolist mit 80% Marktanteil von der Rezession ebenfalls voll getroffen wird und nur über den Preis gegensteuern kann. Nicht wegen AMD sondern wegen der allgemein gesunkenen Nachfrage. Und Intel hat hohe operative Fixkosten die sie decken müssen. Deswegen wird Intel die Preise weiter senken um die Nachfrage im Gesamtmarkt anzuschieben.
Das trifft AMD natürlich voll hart und deswegen sollten sie lieber schaun im GPU Markt Geld zu verdienen um wenigstens etwas ausgleichen zu können. Ansonsten droht der totale Ausverkauf.
Da ist es für Nvidia etwas einfacher. Ihr Geschäft ist überschaubar und die Fixkosten sind vergleichsweise niedrig. Mit Preisskämpfen im GPU Markt erreicht AMD/ATI deshalb gar nix.
Nakai
2009-02-11, 12:26:38
Was die meisten nicht verstehen ist, dass die Marke "ATI" sehr unter dem R600 gelitten hat. Seit dem RV770 hör ich selbst wieder in meinem Bekanntenkreis, dass ATI wieder was heißes im Ofen hat.
das was amd gemacht hat war goldrichtig aus sicht des unternehmens. der konkurrenzkampf hätte sich doch bei gleichen preisen nie so ergeben und es wäre sehr schwierig gewesen die kunden zu gewinnen. liegt man mit dem preis unter dem der konkurrenz ist das wesentlich einfacher. insbesondere dann wenn die herstellungskosten signifikant unter denen der konkurrenz liegen. der gewinn daraus ist wesentlich grösser. ... soetwas lernt man in marketing in der ersten stunde ... zudem hat man den vorteil, dass man die konkurrenz gehörig unter druck setzt.
IMO hat LS nicht ganz unrecht. Das Preisdumping ist jedoch eine Folge der Geschehnisse, was durch den R600 eingeleitet wurde. IMO war es doch ATI, welche die HD3870 für 299$ angestrebt haben, um eine Karte im Performancesegment zu haben. NV musste kontern und tat dies mit dem G92.
Um wenigstens in einem Segment etwas im Vorteil zu sein, senkte man den Preis, da der G92 mit den RV670 nicht schlagbar war.
Alles was danach kam, war der RV770. Er brachte ungefähr die doppelte Leistung auf den Tisch. Ergo erhöhte man dessen Preis aus Folge der Situation auf etwa das Doppelte. Und NV musste wieder kontern, wie es hald so üblich in der freien Marktwirtschaft ist.
AMD Preisdumping vorzuwerfern, weil sie den Markt zerstört haben, ist imo falsch. Man kann AMD jedoch Preisdumping, im Bezug auf Wiederherstellung des Rufes und Marktanteile, ankreiden.
mfg Nakai
€:
@Gast: Es sind 147,7 Millionen US-Dollar Verlust, nicht 30 Millionen Dollar.
reunion
2009-02-11, 12:35:30
Er hat damit aber recht. AMD hat mit Einführung der 48xx Karten massives Preisdumping betrieben, was in AMDs finanzieller Situation das dämlichste war, was man tun konnte. Die Leute hätten die 4870 auch für 350€ gekauft, das hätte pro verkaufter Karte etwa 100€ mehr in AMD Kassen gespült.
Dumping ist etwas unter dem Herstellungspreis zu verkaufen. AMD hat kleine Dice und billig zu produzierende Karten, die Einführungspreise waren mit Sicherheit hoch genug um ausreichend Margen zu gewähren. AMD hat zu Beginn die 4870/512 um 250€/$299 verkauft und die 4870/1024 um 299€/379$. Danach hat nV die Preise der GTX260 zunächst massiv auf das Niveau der 4870/1024 gesenkt und etwas später dann nochmals deutlich und gleichzeitig der GTX260 einen zusätzlichen Cluster spendiert bis wir auf dem heutigen Niveau von ~220€ für die GTX260-216 waren. NV ist selbst Schuld an ihrer Situation. Sie haben die wesentlich teurer zu produzierende Karte zwanghaft versucht konkurrenzfähig zu machen. Das AMD mit der billigeren Karte da kontert sollte auf der Hand liegen.
darkvader
2009-02-11, 12:49:46
Am Ende ist es immer eine Frage der Projektion - verkaufe ich lieber eine Karte mit 100,- Gewinn oder zehn Karten mit 10,- Gewinn. Beidesmal stehen 100,- Gesamtgewinn. Wenn ich Marktanteile gewinnen will, und meine Fabriken auslasten, dann macht Modell zwei sicherlich mehr Sinn, denn klar verkauft man deutlich mehr Karten wenn Sie 90,- günstiger sind.
Obs am Ende die Ziele erreicht hat weiß nur AMD, aber als Ausenstehender einfach zu sagen "AMD hat eine falsche Entscheidung getroffen" ist sehr einfach.
Die Zahlen überraschen mich ehrlich gesagt überhaupt nicht, die Grafikkarten Preise sind komplett im Keller und werden ja eigentlich schon verschenkt, zudem kommt noch die Aktuelle Wirtschaftlage hinzu.
NV hatte im letzten Q4 billige G92 Karten für 200-300.- Euro und eine netto Marge von 55% (!!!) und wo sind wir heute...
Übrigens ist natürlich AMD für den Preisverfall der Grafikkarten verantwortlich, jeder der was anderes behauptet kann ich überhaupt nicht nachvollziehen, da es einfach zu deutlich ist.
Einen Vorwurf kann man AMD dafür sicher nicht machen, es war der einzige Weg für sie.
Dumping ist etwas unter dem Herstellungspreis zu verkaufen. AMD hat kleine Dice und billig zu produzierende Karten, die Einführungspreise waren mit Sicherheit hoch genug um ausreichend Margen zu gewähren.
Und deshalb schreibt die Grafiksparte rote Zahlen? Mach dich doch nicht lächerlich. Der Kartenpreis setzt sich nicht nur aus dem Die-Preis zusammen.
Nakai
2009-02-11, 15:17:44
Und deshalb schreibt die Grafiksparte rote Zahlen? Mach dich doch nicht lächerlich. Der Kartenpreis setzt sich nicht nur aus dem Die-Preis zusammen.
Es wird trotzdem produziert, aber anscheinend findet man nicht genug Abnehmer. Das ist wohl der Grund warum manche Firmen Verluste fahren...
mfg Nakai
Das nennt man dann Fehlkalkulation. Zuerst müssen die Verkäufe mal die Entwicklungskosten wieder reinbringen und erst dann verdient man Geld mit jedem weiteren verkauften Chip (sofern dessen Preis hoch genug ist, die laufenden Kosten zu decken).
Es wird trotzdem produziert, aber anscheinend findet man nicht genug Abnehmer.
Apropos produziert. Es gingen ja genug Meldungen ala "Palit/Xpertvision storniert 5 Fantastilliarden GPUs bei Nvidia" durchs Netz. Wie ist das denn, sind das Vorbestellungen, die noch nicht produziert sind und Nvidia kann seinerseits beim Auftragsfertiger stornieren oder müssen da jetzt teilweise tatsächlich produzierte Chips entsorgt werden, weil die kein Aas mehr will.
Bei reinen "Luftstornierungen" würde es sich wohl am Ende einfach auf die Preise der nächsten Generation aufsummieren, denn TSMC will halt mit einem Prozess Geld verdienen und wenn der eine dank massenhaften Stornierung nicht genug eingebracht hat, wird halt der nächste etwas teurer. Oder wie?
darkvader
2009-02-11, 15:51:28
Entsorgt wird sicher kein Chip, wenn dann geht der erstmal auf Halde - oder wird halt umgelabelt :-).
Generell kennt man die Verträge nicht, daswegen kann da außer Nvidia oder TSMC wohl kaum einer was zu sagen, und die werden sich hüten.
Schlammsau
2009-02-11, 15:55:09
Er hat damit aber recht. AMD hat mit Einführung der 48xx Karten massives Preisdumping betrieben, was in AMDs finanzieller Situation das dämlichste war, was man tun konnte. Die Leute hätten die 4870 auch für 350€ gekauft, das hätte pro verkaufter Karte etwa 100€ mehr in AMD Kassen gespült.
Hat er eben nicht!
ATi hat "nur" noch rund 30% Marktanteil, was würdest du als Grafikkartenhersteller, den machen um wieder Konkurrenzfähig zu werden?
Natürlich hat man, wenn man ein gleichwertiges Produkt hat, nur die Möglichkeit die Konkurrenz preislich zu unterbieten.
Das hat ATi gemacht, dann hat natürlich nVidia mit den Preisen nachgezogen und dann wieder ATi. Bis sie auf dem heutigen Niveau angelangt sind.
Das ist die ganz normale Marktwirtschaft, dafür muss man nicht studiert haben um das zu verstehen.
Und jetzt stellt sich heraus, dass nVidia´s Karten in der Herstellung zu teuer sind. Soll halt nV seine Karten wieder 100€ teurer verkaufen, ATi wird schon nachziehen oder auch nicht. ;)
Daredevil
2009-02-11, 16:00:00
Und selbst wenn ATI bei dem Preiskampf immer weiter runtergeht und Nvidia mitziehen muss und beide Verluste machen sitzt ATI durch AMD doch am längeren Hebel oder?
Armes Nvidia, find ich garnicht gut :(
Man stelle sich mal vor NVidia würde in Kooperation mit AMD sein und ATI würde als "kleines" Unternehmen noch eigenständig agieren, die würden ATI doch in der Luft zerreißen..
Schlammsau
2009-02-11, 16:11:23
Schreibt die Grafikkartensparte von AMD/ATi noch rote Zahlen?
Nakai
2009-02-11, 16:12:59
Schreibt die Grafikkartensparte von AMD/ATi noch rote Zahlen?
Wieder. Um die 20 Millionen Dollar.
mfg Nakai
Schlammsau
2009-02-11, 16:13:57
Wieder. Um die 20 Millionen Dollar.
mfg Nakai
hast nen Link? Finde nichts dazu.
Nur das
http://www.wallstreet-online.de/nachrichten/nachricht/2582495.html
http://extreme.pcgameshardware.de/prozessoren/26777-pcgh-de-amd-ueberrascht-mit-guten-zahlen-q3-2008-grafik-abteilung-waechst-stark-4.html
Hat er eben nicht!
ATi hat "nur" noch rund 30% Marktanteil, was würdest du als Grafikkartenhersteller, den machen um wieder Konkurrenzfähig zu werden?
Kein Preisdumping betreiben, denn..
Natürlich hat man, wenn man ein gleichwertiges Produkt hat, nur die Möglichkeit die Konkurrenz preislich zu unterbieten.
Das hat ATi gemacht, dann hat natürlich nVidia mit den Preisen nachgezogen und dann wieder ATi. Bis sie auf dem heutigen Niveau angelangt sind.
Das ist die ganz normale Marktwirtschaft, dafür muss man nicht studiert haben um das zu verstehen.
Und jetzt stellt sich heraus, dass nVidia´s Karten in der Herstellung zu teuer sind. Soll halt nV seine Karten wieder 100€ teurer verkaufen, ATi wird schon nachziehen oder auch nicht. ;)
..wie du ja selber beschreibst funktioniert das nicht, sondern ist allenfalls geeignet, BEIDE in den Ruin zu treiben, super Taktik von AMD, muss man schon sagen.
Daredevil
2009-02-11, 16:48:09
Den Ruin sieht aber erst derjenige der weniger Geld in der Hinterhand hat
Schlammsau
2009-02-11, 16:48:13
Kein Preisdumping betreiben, denn..
..wie du ja selber beschreibst funktioniert das nicht, sondern ist allenfalls geeignet, BEIDE in den Ruin zu treiben, super Taktik von AMD, muss man schon sagen.
So ein blödsinn! Wenn ATi das nicht gemacht hätte, wären sie heute mit Sicherheit nicht mehr unter uns.
Ergo hat ATi genau das richtige gemacht. Und das nVidia jetzt bluten muss, ist ihr eigener Fehler.
Genauso wie es ATi´s Fehler war, und sie haben 2 Jahre dafür gebüsst.
Wieder. Um die 20 Millionen Dollar.
mfg Nakai
Es sind nur 10 Mio.
http://www.amd.com/us-en/assets/content_type/DownloadableAssets/Q408Financials.pdf
Der Umsatz der Grafiksaprte muss wohl etwa bei 280Mio $ liegen, um genau auf Null rauszukommen.
So ein blödsinn!
Keine Argumente mehr?
Wenn ich finanziell schlecht dastehe (=Fakt), dann lasse ich mich nicht auf Teufel komm raus in einen Preiskampf ein. Mit höheren Verkaufspreisen wäre auf jeden Fall ein Gewinn in der Grafiksparte drin gewesen.
Wenn du das nicht kapieren willst, dann lass es bleiben.
Schlammsau
2009-02-11, 17:14:37
Keine Argumente mehr?
Wenn ich finanziell schlecht dastehe (=Fakt), dann lasse ich mich nicht auf Teufel komm raus in einen Preiskampf ein. Mit höheren Verkaufspreisen wäre auf jeden Fall ein Gewinn in der Grafiksparte drin gewesen.
Wenn du das nicht kapieren willst, dann lass es bleiben.
Auf was den sonst? Fakt ist, dass die aktuellen High End Radeons (wesentlich) günstiger herzustellen sind, als die aktuellen High End Geforces. ATi war schon bis zur Nase im Treibsand versunken und nur durch die aggressive Preispolitik, konnten sie sich retten.
Also komm mir nicht mit dem Quatsch.
LovesuckZ
2009-02-11, 17:24:44
Ich bezweifel, dass eine 4870x2 billiger in der Fertigung ist als eine GTX285. Durch die aggressive Preispolitik konnten sie sich nicht retten. Sie haben den Markt nur nach unten gedrückt und führen dazu, dass die ehemaligen Low-End Produkte keinen Profikt mehr abwerfen. Kurzfristige Gewinne stehen einen langfristigen kaputten Markt gegenüber. So handelt man nur, wenn man keine Weitsicht besitzt.
Schlammsau
2009-02-11, 17:28:33
Ich bezweifel, dass eine 4870x2 billiger in der Fertigung ist als eine GTX285. Durch die aggressive Preispolitik konnten sie sich nicht retten. Sie haben den Markt nur nach unten gedrückt und führen dazu, dass die ehemaligen Low-End Produkte keinen Profikt mehr abwerfen. Kurzfristige Gewinne stehen einen langfristigen kaputten Markt gegenüber. So handelt man nur, wenn man keine Weitsicht besitzt.
Wenn dann darfst du nur die GTX295 mit der 4870X2 und die GTX260 mit der 4870 vergleichen. ;) Und wer da billiger ist, kannst auch du dir denken.
Woher weisst du wieviel Profit ein Low End Produkt abwirft? Karten unter 100€ werden in ganz anderen Stückzahlen verkauft als Karten über 100€! Da macht es die pure Masse!
Daredevil
2009-02-11, 17:42:06
Neee Schlammsau so kannstu das nicht rechnen.
Die HD48xx Reihe ist zwar kostengünstig herzustellen da sie eben klein ist aber das ist nicht nur ein Vorteil.
Ein einzelner RV770 wird nie so schnell sein wie ein einzelner GT200 welcher als SingleChip viel mehr Potential hat und dementsprechend großer ist.
Die HD4870 ist das Ende des RV770 und die GTX260 ist der Anfang des GT200, die Chips sind für verschiedene Märkte kreiert, ATI für den Performance Sektor und Nvidia für Highend.
In dem Sinne finde ich den Vergleich zwischen einer HD4870 und einer 9800GTX+ Sinnvoller.
Schlammsau
2009-02-11, 17:46:18
Neee Schlammsau so kannstu das nicht rechnen.
Die HD48xx Reihe ist zwar kostengünstig herzustellen da sie eben klein ist aber das ist nicht nur ein Vorteil.
Ein einzelner RV770 wird nie so schnell sein wie ein einzelner GT200 welcher als SingleChip viel mehr Potential hat und dementsprechend großer ist.
Die HD4870 ist das Ende des RV770 und die GTX260 ist der Anfang des GT200, die Chips sind für verschiedene Märkte kreiert, ATI für den Performance Sektor und Nvidia für Highend.
In dem Sinne finde ich den Vergleich zwischen einer HD4870 und einer 9800GTX+ Sinnvoller.
Bitte? Leistungstechnisch bewegt sich ein RV770XT auf dem Niveau eines beschnittenen GT200(b).
Sie sprechen also die gleiche Kundschaft an!
darkvader
2009-02-11, 17:46:20
die Chips sind für verschiedene Märkte kreiert, ATI für den Performance Sektor und Nvidia für Highend.
Wenn dem so wäre dann hätte Nvidida ja nicht an der Preisschraube drehen müssen....
LovesuckZ
2009-02-11, 17:47:14
Wenn dann darfst du nur die GTX295 mit der 4870X2 und die GTX260 mit der 4870 vergleichen. ;) Und wer da billiger ist, kannst auch du dir denken.
Wieso sollte man eine Karte vergleichen, die nicht im selben Preisrahmen sich befindet? Die GTX295 ist ein Sondermodell, dass kaum verfügbar ist und sich auch kaum verkauft. Dagegen ist die GTX285 das Massenprodukt, dass gegen die 4870x2 antritt und wer da billiger ist, kannst du dir denken.
Woher weisst du wieviel Profit ein Low End Produkt abwirft? Karten unter 100€ werden in ganz anderen Stückzahlen verkauft als Karten über 100€! Da macht es die pure Masse!
Durch den Preisrutsch haben sich die "High-End" karten in Amerika fast dreimal so oft verkauft wie im Jahr davor. Trotzdem ist der ASP gesunken. Das bedeutet, dass der Preis für das Low-End so dermaßen gesunken ist, dass die Mehrkäufe des "High-Ends" keinen Ausgleichen schaffen. Die Gewinnmarge geht dadurch noch stärker zurück, da ein Größteil der Kosten bei Low-End nunmal nicht in den Händen von nVidia und AMD stecken und deren Preissenkung sich erheblich auf die Zahlen auswirkt.
Es sind nur 10 Mio.
http://www.amd.com/us-en/assets/content_type/DownloadableAssets/Q408Financials.pdf
Der Umsatz der Grafiksaprte muss wohl etwa bei 280Mio $ liegen, um genau auf Null rauszukommen.
Hatten aber auch weniger Umsatz als im Q4 2007 und das trotz viel besseren Produkte als im 2007...
Daredevil
2009-02-11, 17:54:25
Bitte? Leistungstechnisch bewegt sich ein RV770XT auf dem Niveau eines beschnittenen GT200(b).
Sie sprechen also die gleiche Kundschaft an!
Ja richtig, der GT200b ist beschnitten, aber trotzdem der gleiche Chip welcher für die schnellste Single GPU Weltweit gebraucht wird.
Nur weil es die gleiche Kundschaft anspricht heißt es ja nun nicht das es dafür gemacht wurde, das höchste des R770 ist das niedrigste des GT200.
Ums mal Bildlich zu fassen:
GTX280
GTX260²
HD4870 GTX260
9800GTX
HD4850
9800GT
HD4830
9600GT
reunion
2009-02-11, 17:58:14
Und deshalb schreibt die Grafiksparte rote Zahlen? Mach dich doch nicht lächerlich. Der Kartenpreis setzt sich nicht nur aus dem Die-Preis zusammen.
Schalte lieber mal dein Hirn ein bevor du hier große Sprüche klopfst. Ich sagte ausdrücklich die Einführungspreise waren hoch genug. AMD schrieb im Q3 auch deutliche Gewinne in der Grafiksparte, aber selbst jetzt ist man trotz niedrigeren Preisen und Finanzkrise kaum in die roten Zahlen gerutscht. Dass die Preise weiter sanken hat nV durch ihre Harakiri-Aktion mit der GTX260 zu verantworten.
reunion
2009-02-11, 18:02:40
Ich bezweifel, dass eine 4870x2 billiger in der Fertigung ist als eine GTX285.
Selbst das würde ich nicht ausschließen. Die 4870 X2 hat pro Core nur ein 256-bit SI, was Platinen mit weniger Layern ermöglicht, zwei kleine Cores erreichen wesentlich höhere Yieldraten als ein großer und nutzen eine Wafer besser aus. Einzig die 16 GDDR5 Chips mit jeweils 128MB dürften deutlich teurer sein als die 16 GDDR3-Chips (64MB) eine GTX285.
LovesuckZ
2009-02-11, 18:07:01
Selbst das würde ich nicht ausschließen. Die 4870 X2 hat pro Core nur ein 256-bit SI, was Platinen mit weniger Layern ermöglicht, zwei kleine Cores erreichen wesentlich höhere Yieldraten als ein großer und nutzen eine Wafer besser aus.
Dafür muss die Stromversorgung deutlich aufwendiger sein. Der Kühlkörper ist teurer, das PCB muss auch jeweils die Verbindung zu den beiden Chips besitzen.
Die Yields sind besser, ändert nur nichts daran, dass man zwei Chips benötigt. nVidia hat die Kosten dazu bei der GTX285 gesenkt und kann die GPUs billiger und wahrscheinlich auch mit höhreren Yields zur GTX280 produzieren.
reunion
2009-02-11, 18:08:03
Kein Preisdumping betreiben, denn..
..wie du ja selber beschreibst funktioniert das nicht, sondern ist allenfalls geeignet, BEIDE in den Ruin zu treiben, super Taktik von AMD, muss man schon sagen.
Nicht wenn einer von beiden die Preise durch niedrigere Produktionskosten rechtfertigen kann.
Keine Argumente mehr?
Wenn ich finanziell schlecht dastehe (=Fakt), dann lasse ich mich nicht auf Teufel komm raus in einen Preiskampf ein. Mit höheren Verkaufspreisen wäre auf jeden Fall ein Gewinn in der Grafiksparte drin gewesen.
Wenn du das nicht kapieren willst, dann lass es bleiben.
Eine höherer Verkaufspreis bedeutet noch lange nicht mehr Gewinn.
Schlammsau
2009-02-11, 18:10:12
Ja richtig, der GT200b ist beschnitten, aber trotzdem der gleiche Chip welcher für die schnellste Single GPU Weltweit gebraucht wird.
Nur weil es die gleiche Kundschaft anspricht heißt es ja nun nicht das es dafür gemacht wurde.
Es geht ja nicht darum wofür er gemacht wurde, sondern wofür er auch wirklich eingesetzt wird.
Und deine Auflistung ist falsch.
GTX285
GTX280
GTX260²
HD4870 1024GB
GTX260
HD4870 512MB
9800GTX+
HD4850 9800GTX
HD4830 9800GT
So müsste sie passen, auf die Leistung bezogen natürlich.
Und basierend darauf, kann man dann Herstellungskosten und die Verkaufspreise vergleichen.
Weyoun
2009-02-11, 18:10:18
Nvidia to announce x86 chip next week
Not IDF San Francicsco So say the whispers (http://www.theinquirer.net/gb/inquirer/news/2008/08/20/nvidia-announce-x86-chip)
:D
Mal sehen ob NV wirklich so etwas auf de NVision ankündigt.
Was ist draus geworden?
Daredevil
2009-02-11, 18:11:26
Eine HD4870X2 kann doch auch teuter sein als eine einzelne GTX285, schließlich ist die theoretische performance auch deutlich besser ( 30-40% ).
@Schlammsau
Natürlich geht es darum wofür das ganze gemacht wird.
Wenn 3DFX wunderlich aufersteht und eine Karte kreiert welche auf wundersamer weise 3x schneller als eine GTX280 ist, dafür aber 600€ kostet muss man nun auch etwas abieten was für den 200-300€ Markt geschafft ist.
Aber da man keine neue GPU herstellen kann nimmt man einfach die jetzige und speckt sie ab, das senkt die kosten nur minimal aber man hat eben nichts anderes da und muss so in dem Segment notdürftig mitspielen.
Ob die Liste stimmt oder nicht sei mal dahingestellt, hab meine Ergebnisse eben schnell von Computerbase (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_285_sli/20/#abschnitt_performancerating_qualitaet) geholt.
Schlammsau
2009-02-11, 18:23:54
Eine HD4870X2 kann doch auch teuter sein als eine einzelne GTX285, schließlich ist die theoretische performance auch deutlich besser ( 30-40% ).
@Schlammsau
Natürlich geht es darum wofür das ganze gemacht wird.
Wenn 3DFX wunderlich aufersteht und eine Karte kreiert welche auf wundersamer weise 3x schneller als eine GTX280 ist, dafür aber 600€ kostet muss man nun auch etwas abieten was für den 200-300€ Markt geschafft ist.
Aber da man keine neue GPU herstellen kann nimmt man einfach die jetzige und speckt sie ab, das senkt die kosten nur minimal aber man hat eben nichts anderes da und muss so in dem Segment notdürftig mitspielen.
Ob die Liste stimmt oder nicht sei mal dahingestellt, hab meine Ergebnisse eben schnell von Computerbase (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_285_sli/20/#abschnitt_performancerating_qualitaet) geholt.
Dummerweise hat CB (mal wieder) nur den 8.11 Cat benutzt. Verdenke ich denen nicht mal, wegen des bescheuerten DX10 AF "Bugs".
Mit dem neuesten (9.1) legen die Radeons nochmal locker 5% zu.
Aber egal, im webweiten Durchschnitt stimmt meine Sortierung.
Natürlich ist es billiger nur eine abgespeckte GPU, als eine komplett neu entwickelte zu verwenden. Aber doch nicht bei der Grösse! Der 65nm GT200 in der GTX260, ist mehr als doppelt so gross wie ein RV770XT! Dazu kommt noch das aufwendigere PCB. Bedneke beide Karten spielen in der selben Leistungsklasse.
Einen Karte basierend auf dem G9x auf RV770XT Niveau zu bringen, hätte nV besser getan.
Die Schuld hier auf ATI zu schieben ist natürlich falsch. Sowas nennt sich Marktwirtschaft und wenn die so billig produzieren können soll das ihr gutes Recht sein, soweit den Preis zu drücken. Wer ziemlich verblendet ist bei Nvidia ist der Chef. Der sollte mal selbstkritisch sein und sich Gedanken machen.
The roof ist sozusagen on fire und Nvidia im Haus!
reunion
2009-02-11, 18:45:04
Dafür muss die Stromversorgung deutlich aufwendiger sein. Der Kühlkörper ist teurer, das PCB muss auch jeweils die Verbindung zu den beiden Chips besitzen.
Richtig.
Die Yields sind besser, ändert nur nichts daran, dass man zwei Chips benötigt.
Egal wenn ich aus einer Wafer doppelt so viele Chips raus bekomme bei besseren Yieldraten.
Die 4870 ist sicher nicht billig in der Herstellung schon alleine wegen dem teuren GDDR5 Speicher, der Preis ist nur so billig weil sie es so machen MUSSTEN.
Die Herstellungskosten haben in der regel auch keinen einfluss auf den Marktpreis eines Produktes, als Firma muss man seine Preise an die Kokurenz anpassen wenn man eben nicht mehr bieten kann.
Unter normalen Marktumstände wäre eine 4870 für 400-500.- $ auf den Markt gekommen.
Ich kann mich an Zeiten erinnern wo es für den Preis einer 4870 1GB gerade mal eine 1950Pro gab und die war damals schon billig...
Schlammsau
2009-02-11, 18:59:45
Die 4870 ist sicher nicht billig in der Herstellung schon alleine wegen dem teuren GDDR5 Speicher, der Preis ist nur so billig weil sie es so machen MUSSTEN.
Die Herstellungskosten haben in der regel auch keinen einfluss auf den Marktpreis eines Produktes, als Firma muss man seine Preise an die Kokurenz anpassen wenn man eben nicht mehr bieten kann.
Unter normalen Marktumstände wäre eine 4870 für 400-500.- $ auf den Markt gekommen.
Ich kann mich an Zeiten erinnern wo es für den Preis einer 4870 1GB gerade mal eine 1950Pro gab und die war damals schon billig...
glaubst du wirklich, dass GDDR5 Speicher immernoch so teuer ist? ;)
Die 4870 gehen weg wie warme Semmeln, der Speicherpreis ist mit Sicherheit schon fast auf GDDR3 Niveau.
auf jedenfall teurer als GDDR3 ;)
und ja, 1 oder sogar 2GB GDDR5 dürfte auch noch heute einen grossteil der kosten auf einer 4870 Karten verursachen.
@Gast
Ja früher war alles ein bischen teurer im Elektrobreich. Nur heute sehen die Leute ein das 400-500 für ne Einzelkarte out of date ist. Und klar kann Ati billiger produzieren, na kleinere Fertigungstechnik+Chip.
Fazit: Die Zeiten von überteuerten Produkten ist vorbei!
reunion
2009-02-11, 19:04:55
Schon alleine der Preisunterschied zwischen einer 4870/512 und einer 4870/1024 von nicht einmal 20€ zeigt das GDDR5 Speicher nicht sonderlich teuer sein kann. Da ist sogar der Preisunterschied zwischen einer 4850/512 und einer 4850/1024 größer, und diese verwendet bekanntlich GDDR3.
Schlammsau
2009-02-11, 19:09:20
auf jedenfall teurer als GDDR3 ;)
und ja, 1 oder sogar 2GB GDDR5 dürfte auch noch heute einen grossteil der kosten auf einer 4870 Karten verursachen.
Warum bringt dann ATi in Kürze den RV740 mit GDDR5 VRAM? Weil er so teuer ist?
Wäre es dann nicht preiswerter weiterhin GDDR3 oder vielleicht sogar GDDR4 zu nutzen?
Nene ich bleib dabei, GDDR5 ist mittlerweile nur unwesentlich teurer als GDDR3!
Z.B. mein Kumpel mit Frau und Kind. Der will z.B. nur WoW und Rollenspiele zocken. Der will net soviel Geld ausgeben (100 Euro). Dem reicht ne 9800GTX! Das Geld sitzt bei dem net locker in der Tasche.
@Gast
Ja früher war alles ein bischen teurer im Elektrobreich. Nur heute sehen die Leute ein das 400-500 für ne Einzelkarte out of date ist. Und klar kann Ati billiger produzieren, na kleinere Fertigungstechnik+Chip.
Fazit: Die Zeiten von überteuerten Produkten ist vorbei!
Jetzt garantiert, dank Wirtschaftskrise und kommender Massenarbeitslosigkeit+Armut. Da sinkt die Käuferschaft automatisch für diese HighEnd-Stromaufnehmer. Dazu kommt, dass für den PC zugeschnittene Games immer seltener werden. Da tuns jetzt öfters auch aktuelle Mainstreamkarten. AMD und nVidia werden beide weiter in nächster Zeit massiv Verluste und Umsatzeinbrüche hinnehmen müssen, liegt einfach in der Natur der Sache. Da kann man beiden Herstellern keine Schuld geben. Die sitzen in der Zwickmühle. Immer größere Dice, aufwändigere PCBs, mehr Speicher und immer teuerere Fertigungstechnologien. Selbst bei konstant hohen Preisen würde die Gewinnmarge sinken.
Dann lebt der HighEnd-Konsument noch in der Vergangenheit mit seinem überzogenen Anspruch, dass die neuen Karten gefälligst immer die Leistung der Vorgängergeneration um mindestens das Doppelte toppen soll. nV hat imo früh erkannt, dass im Consumerbereich in nächster Zeit nicht mehr allzu viel zu holen ist und erweitert seinen Bereich. Die nächsten 3 Jahre werden spannend.
@Gast
Das haste gut erkannt. Und solange weiter der PC als Konsolenport missbraucht wird sind keine Innovationen im Gamingbereich fällig.
Die Schuld hier auf ATI zu schieben ist natürlich falsch. Sowas nennt sich Marktwirtschaft und wenn die so billig produzieren können
Können sie aber nicht, wie die Geschäftszahlen ja eindeutig belegen. Und die sind Fakt!
Daredevil
2009-02-11, 19:58:55
Marktwirtschaft heißt nicht immer das man ein Produkt kurzfristig gewinnbringend verkaufen muss ( Hallo Spielekonsolen! ).
Es geht dabei auch um Marktanteil und vorallem darum das der Konkurent nicht zunimmt.
Die 4870 gehen weg wie warme Semmeln,
Falls dem so ist, ist das nur ein weiterer Beweis für ATIs Preisdumping. Ein Produkt, das "weggeht wie warme Semmeln" und dabei keinen Gewinn abwirft?
stickedy
2009-02-11, 20:17:45
Falls dem so ist, ist das nur ein weiterer Beweis für ATIs Preisdumping. Ein Produkt, das "weggeht wie warme Semmeln" und dabei keinen Gewinn abwirft?
Das ist nicht belegt. Aus den Zahlen kann man nicht ablesen, was für die Verluste der Grafiksparte verantwortlich ist. Das kann genauso an den LowCost-Produkten liegen oder vielleicht sind es schlicht Wertberichtigungen für überschüssig produzierte Chips etc. Das an den Preisen für die hochklassiken Modelle festzumachen ist genauso spekulativ.
Letzlich ist es auch egal. Nvidia hätte ja die Preise nicht senken müssen und stattdessen drauf warten, dass AMD die Luft ausgeht...
Black-Scorpion
2009-02-11, 20:18:07
Dann verrate doch allen dummen hier einfach mal was die Karte in der Herstellung kostet.
Weil du ja ganz genau zu wissen scheinst das die 4870er keinen Gewinn bringen.
Braucht man garnicht wissen. Kein Unternehmen würde mit einem Produkt, dass sich gut verkauft ohne Gewinn kalkulieren, wenn es nicht wirklich nötig ist Marktanteile zu erzielen oder zu halten... AMD lässt grüßen;)
@Gast: Es sind 147,7 Millionen US-Dollar Verlust, nicht 30 Millionen Dollar.
Nein Gesamtjahr 2008 sind 30 Mio.
Marktwirtschaft heißt nicht immer das man ein Produkt kurzfristig gewinnbringend verkaufen muss ( Hallo Spielekonsolen! ).
Es geht dabei auch um Marktanteil und vorallem darum das der Konkurent nicht zunimmt.
Problem hierbei ist, dass im Gegensatz zu Nvidia, AMD/ATI schon seit 2 Jahren auf Gewinn warten und keinen haben trotz der angeblich so toll billig zu produzierenden Karten.
reunion
2009-02-12, 09:59:48
Erst im letzten Quartal machte die Grafikabteilung gut 50moi Gewinn.
Ist ja schön, aber immer noch viel zu wenig um die hohen Übernahmekosten auf absehbare Zeit wieder reinzubringen. AMD musste fast 5 Milliarden abschreiben, bei 50 Mio. Quartalsgewinn würde es also 25 Jahre dauern, bis die Kosten der Übernahme amortisiert sind.
reunion
2009-02-12, 10:40:05
Na du hast Vorstellungen. AMD hat diese $5.4Mrd mit Sicherheit nicht investiert um in fünf Jahren die Investition plus X Gewinn erwirtschaftet zu haben, sondern aus der schlichten Notwendigkeit heraus auch in Zukunft konkurrenzfähig sein zu können.
... sondern aus der schlichten Notwendigkeit heraus auch in Zukunft konkurrenzfähig sein zu können.
Indem man soviel Geld verpulvert hat, daß die Pleite gerade noch so abgewendet wurde durch den Verkauf der Fabs? Die Konkurrenzfähigkeit von AMD hat eher gelitten als daß sie besser geworden ist.
reunion
2009-02-12, 11:38:23
"The future is Fusion" - wie AMD so schön sagt. AMD ist auf die Streamprozessoren der Grafikchips angewiesen um in Zukunft bestehen zu können.
Eine Kooperation mit ATI wäre da sicher billiger gewesen.
Eine Kooperation mit ATI wäre da sicher billiger gewesen.
Das Wohl und Wehe auf eine Kooperationsvereinbarung gründen? Eher keine gute Idee.
Armaq
2009-02-12, 12:13:43
Marktwirtschaft heißt nicht immer das man ein Produkt kurzfristig gewinnbringend verkaufen muss ( Hallo Spielekonsolen! ).
Es geht dabei auch um Marktanteil und vorallem darum das der Konkurent nicht zunimmt.
Das stimmt leider überhaupt nicht. Auf kurzfristige Gewinne ist man nicht unbedingt angewiesen. Wie machen das große Industrieunt. wie Siemens, die gigantische Summen vorfinanzieren? Stimmt die haben ja auch kurzfristige Bestellungen.
Das einzige was wirklich wichtig ist ist die Tatsache den Cashflow gut zu kontrollieren, also wie Einnahme und Ausgabe zueinander liegen. Es gibt wohl Unt. die es geschafft haben A vor E zu verlagern. :)
"The future is Fusion" - wie AMD so schön sagt. AMD ist auf die Streamprozessoren der Grafikchips angewiesen um in Zukunft bestehen zu können.
nicht wirklich, man hätte sich genauso gut grafikchipdesigns einkaufen können, das wäre auf jeden fall auf ziemlich lange sicht billiger gewesen.
reunion
2009-02-12, 12:25:53
Eine Kooperation mit ATI wäre da sicher billiger gewesen.
Eine Kooperation hätte den Handlungsspielraum von AMD viel zu stark eingeschränkt und wäre auf Dauer auch viel zu riskant. Man stelle sich nur vor AMD und ATi entwickeln gemeinsam an einen späteren Fusion-Core und einer von beiden springt aus welchen Gründen auch immer ab. Ne, eine Übernahme war unvermeidlich.
nicht wirklich, man hätte sich genauso gut grafikchipdesigns einkaufen können, das wäre auf jeden fall auf ziemlich lange sicht billiger gewesen.
Solche Design gehören aber auch weiterentwickelt, angepasst und entsprechend in die eigenen Designs integriert. AMD hatte dazu einfach nicht das nötige knowhow, die nötigen Kapazitäten und die nötige Zeit.
nicht wirklich, man hätte sich genauso gut grafikchipdesigns einkaufen können, das wäre auf jeden fall auf ziemlich lange sicht billiger gewesen.
Du scheinst ein wenig beschränkt in deinen Visionen. Es geht nicht darum, die integrierte Grafik vom Chipsatz in die CPU zu verlegen, sondern um eine Verschmelzung von klassischer CPU-Technik mit Streamprozessoren.
darkvader
2009-02-12, 13:32:26
Eine Kooperation mit ATI wäre da sicher billiger gewesen.
Klar, mit dem Risiko, dass dann z.B. Intel ATI aufkauft nur am AMD eines auszuwischen...
BlackBirdSR
2009-02-12, 14:06:28
Ist doch in beiderseitigem Interesse.
Es schützt AMD durch eine zukünftige Übernahme z.B. von Nvidia und war der einzige Weg für ATI in den nächsten Jahren zu überleben.
reunion
2009-02-12, 14:15:00
Ist doch in beiderseitigem Interesse.
Es schützt AMD durch eine zukünftige Übernahme z.B. von Nvidia und war der einzige Weg für ATI in den nächsten Jahren zu überleben.
Naja, das ist aber schon etwas sehr tief gestapelt. AMD war auch ohne ATi deutlich größer als NV und hätte der NV-CEO zugestimmt dann hätte AMD wahrscheinlich sogar nV übernommen. Und warum sollte ATi alleine weniger überlebensfähig sein als zB nV?
Aber natürlich ist es im beiderseitigem Interesse, beide wussten das sich die fortwährende Integration weiter fortsetzen wird und es sicher nicht verkehrt ist hier gemeinsame Wege zu gehen.
Klar, mit dem Risiko, dass dann z.B. Intel ATI aufkauft nur am AMD eines auszuwischen...
mit dem großen vorteil nicht von einem hersteller abhängig zu sein. sollte es mit ATI nicht laufen könnte man immer noch auf NV wechseln, oder vielleicht noch besser von PowerVR eine lizenz holen.
reunion
2009-02-12, 14:42:39
Wenn du erst mal einen Chip gemeinsam entwickelt hast (Stichwort Fusion) ist es sicher problemlos möglich zu wechseln. :ugly:
Nochmal: Man strebt auf lange Sicht die vollständige Verschmelzung von CPU und GPU an.
BlackBirdSR
2009-02-12, 15:00:29
Naja, das ist aber schon etwas sehr tief gestapelt. AMD war auch ohne ATi deutlich größer als NV und hätte der NV-CEO zugestimmt dann hätte AMD wahrscheinlich sogar nV übernommen. Und warum sollte ATi alleine weniger überlebensfähig sein als zB nV?
Das war auf die Jahre hin bezogen. Nehmen wir an, dass Nvidia zukünftig weiter wächst und dringend eine CPU-Komponente benötigt, AMD aber weiterhin an Geld verliert, so wäre das Szenario doch durchaus möglich.
Was ATI betrifft, so sah deren Prognose doch nie so aus, als hätte man Teams, Lizenzen oder Geld im Bereich CPU zu arbeiten. Springt Nvidia alleine auf den Zug auf, dann hätte ATI wohl wenig entgegenzusetzen gehabt. Wenn der Marktanteil dabei auf jetzigem Niveau bleibt, hätte man auch nicht genug Geld mal schnell jemand wie AMD zu kaufen.
Was bleibt also als Schlussfolgerung? AMD und ATI brauchen beide das entsprechende Gegenstück, Nvidia denkt man könnte das alleine. Ergo ATI+AMD um auch in 5 Jahren noch mitreden zu können.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.