PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nv Quartalszahlen


Desti
2003-05-08, 23:24:53
Der US-Hersteller von Grafikkartenchips NVIDIA Corp. legte die Ergebnisse für das abgelaufene erste Quartal vor.

Der Umsatz im entsprechenden Zeitraum lag bei 405,0 Mio. Dollar nach 582,9 Mio. Dollar im Vorjahreszeitraum. Analysten rechneten mit einem Wert von 410 Mio. Dollar.

Der Gewinn belief sich auf 19,7 Mio. Dollar oder 12 Cents je Aktie nach einem Gewinn von 83,2 Mio. Dollar oder 47 Cents je Aktie im ersten Quartal des Vorjahres. Analysten rechneten mit einem Gewinn von 11 Cents je Aktie.

In einer Telefonkonferenz will sich das Unternehmen zu den weiteren Aussichten äußern. Die Aktie schloss bei 16,06 Dollar und notiert nachbörslich bei 15,47 Dollar.

Wertpapiere des Artikels:
NVIDIA CORP. DL-,01

w:o/shm Autor: , 22:29 08.05.03


http://www.wallstreet-online.de/ws/community/board/threadpages.php?fid=&tid=729909&offset=0&page=0&

Sphinx
2003-05-08, 23:34:02
Das finde ich interressanter ;=)

"ATI is a major user of a wide range of TSMC process technologies. TSMC has demonstrated clear industry leadership in 0.13-micron production, and our experience with the RADEON 9600 PRO is no exception," said Kenneth Kin, Senior Vice President of Worldwide Marketing & Sales at TSMC. "Together, we are delivering excellent performance and yield in high volume."

Und Nvidia kehrt zu .15 micron Process zurück ,=)

Edit : Die müssen wohl ab jetzt kleinere Brötchen backen ~ ich weiss ich konnte es mir nicht verkneifen ,=)

Richthofen
2003-05-08, 23:39:25
ich hör grad den ganzen Conference Call.
Was ich mir notiert habe, schreib ich nachher hier rein.

In der Zwischenzeit mal paar NV35 Specs von den Franzosen:

Name FX 5900
3 cards 299-499$
2 introduced in june one in july
GPU 450 MHz
Memory 425 MHz
256 bits bus
128/256 MB of DDR/DDR-2
AA-AF ameliorations ( ) INTELLISAMPLE HTC
CineFX 2 ( )
New shadow accelerator: UltraShadow (for DOOM 3 )
2* shaders operations (than NV30 )

@Sphinx
Dein Post passt hier irgendwie nicht rein. Es ist nicht nur fachlich ein Witz sondern gehört auch in einen anderen Thread.

mapel110
2003-05-09, 00:23:45
hm, also bei nvidia gehts bergab und bei ati bergauf. allerdings siehts bei nvidia immernoch besser aus.
mal abwarten, die nächsten monate.

Richthofen
2003-05-09, 00:24:58
so Conference Call ist vorbei.
Leider konnt ich nicht alles notieren. Die Themen gerade in der Q&A Session wechseln immer sehr schnell.

Ich aber mal kurz paar Punkte mir auf nem kleinen Zettel notiert.

1. x-box Chipumsätze sind um 40 Mio geringer ausgefallen als im 4. Quartal. Der Umsatz mit x-box Chips belief sich auf 10% des Gesamtumsatzes im Quartal, welcher bei 405 Mio lag.

2. nForce2 IGP Verkäufe haben sich mehr als verdoppelt zum 4. Quartal.
nForce2 IGP Marktanteile wurden von 3 auf 7% gesteigert. Die Zahl ist noch recht gering, man muss aber bedenken, dass es A) noch den Intel Markt gibt und B) Nvidia bereits einen recht hohen Anteil im IGP Markt mit nForce1 besitzt.
Generell war nForce2 sehr erfolgreich. nForce2 Umsätze konnten um 80% zum 4. Quartal zulegen. Angesichts der Tatsache dass das 1. Quartal ein schwächeres immer ist als das Weihnachtsquartal eine wirklich gutes Ergebnis.

3. Eric Rothdeutsch, senior analyst und VP von Friedman Billings Ramsey hat letzte Woche ja verkündet, dass laut seinen Schätzungen Nvidia die 1,5 Mio DX9 GPUs fürs erste Quartal verfehlt hat und ca 85 bis 90% davon erreicht hat. Er hat beim Conference Call übrigens auch angerufen :)
Nvidia hat auf dem Conference Call deutlich gemacht, dass man die ansvisierte Zahl von 1,5 Mio DX9 GPUs im 1. Quartal locker übertrumpft hat. Man erwartet fürs 2. Quartal, dass diese Zahl sich verdoppelt.

4. QuadroFX Verkäufe waren sehr stark und man rechnet mit einem weiteren Anstieg.

5. Alle neuen Produkte werden nun auslieferungstechnisch hochgefahren. Der Auslieferungsstart dieser Produkte konnte im 1. Quartal erfolgreich umgesetzt werden.
Das ganze umfasste folgende Produkte:
FX5200 + Ultra,FX5600 + Ultra, FX5800 + Ultra, FX5200Go, FX5600Go QuadroFX1000 und 2000

6.NV35 Launch wird nächste Woche stattfinden. Man ist überzeugt, ATI als Leader abzulösen und hat auch zugegeben, dass man in den letzten 9 Monaten nicht konkurenzfähig in diesem Segment war, durch die Verspätungen und Probleme und dann letztlich die nicht ganz ausreichende Performance für einen deutlichen Sieg.
Mit dem NV35 wird man dies korrigieren.

Outlook aufs 2. Quartal:
Man erwartet einen Umsatzanstieg zwischen 12 und 18% im 2. Quartal getragen von steigenden Verkäufen der GF FX Reihe, nForce2 und steigender x-Box Chip Verkäufe. Saisonal gesehen steigen die Bestellungen bei Konsolenchips wieder, da es dauert bis diese im fertigen Produkt sind.
Im Herbst wird man mit der Produktion seines ersten Desktop Grafikchips bei IBM in den USA beginnen.

Insgesamt ein sehr solides Quartal und deutlich besser als das was die breite Analystenzunft erwartet hatte. Obwohl das 1. Quartal immer deutlich schlechter ist als das 4. liefen die Geschäfte bei den Core PC Produkten so gut, dass man die 40 Mio niedrigeren x-Box Umsätze mehr als wett machen konnte. Der größte Teil des Produktübergangs ist erledigt und nun wird schritt für schritt hochgefahren. NV35 steht vor der Tür und wie die Franzosen berichten wird es wohl 3 Produkte damit geben. 2 im Juni und 1 im Juli. Mal schaun ob das stimmt.
Ausschlaggebend fürs gute Quartal waren, nForce2, der starke Anstieg im Mobile Markt und steigende Auslieferungen der FX Reihe, was letztlich im Grafikkartengeschäft die ASPs hat steigen lassen, denn die GF4 Reihe ist ja nun schon 1 Jahr alt.

Herausforderungen dürften nach wie vor die Yield und Kapazitätsprobleme bei TSMC sein unter denen man leidet. Aber da befinden sich Nvidia ja in guter Gesellschaft. Unter dem Problem leiden da alle aber TSMC ist wohl auf dem Weg der Besserung.

Ein Analyst wollte noch wissen, was man bei IBM fertigen will : High End oder Mainstram.
Dazu sagte der CEO, das wisse man noch nicht genau. Er redete um den Brei herum. Ums kurz zu machen er wollte es nicht sagen :)
Ich denke man kann davon ausgehen, dass dies der NV40 ist. Mainstream macht keinen Sinn, da IBM teurer ist nen Tick als TSMC. Das würde nur dann Sinn machen, wenn TSMC bis dahin immer noch so schelchte yields liefert und auch dann würde dann höchstens ein neues Mainstreamproduk NV36? in Frage kommen. Letztrer dürfte aber deutlich früher als im Herbst geplant sein.

mapel110
2003-05-09, 00:36:48
was ich nicht verstehe. 1.5 mio dx9 GPUs ? wo sind die alle hin ?

die 5800 ultra und non ultra gibts doch erst seit ein paar wochen. und die nachfolger sind erst seit ein paar tagen auf dem markt.

und ATI hat nen halbes jahr gebraucht um 1 mio dx9 chips auszuliefern.
irgendwie geht mir das nicht in den kopf.

ernesto.che
2003-05-09, 00:48:40
Vielleicht haben die 1,5 Mio Stück an andere Hersteller verkauft oder zumindest Verträge in der Höhe abgeschlossen und noch nicht ausgeliefert.

Quasar
2003-05-09, 00:50:19
Originally posted by mapel110
was ich nicht verstehe. 1.5 mio dx9 GPUs ? wo sind die alle hin ?

die 5800 ultra und non ultra gibts doch erst seit ein paar wochen. und die nachfolger sind erst seit ein paar tagen auf dem markt.

und ATI hat nen halbes jahr gebraucht um 1 mio dx9 chips auszuliefern.
irgendwie geht mir das nicht in den kopf.
Die kleinen FX5200 gibt's schon an jeder Strassenecke, dazu kommt die sicher nicht ganz kleine Charge an Aldi-Notebooks, die mit der FX5200go bestückt sind.
Die FX5800 und ultra gibt's eigentlich auch recht häufig, nur das preiswerte Mainstream-Segment mit FX5600(u) ist noch etwas unterbevölkert..

Ausserdem darfst du nicht vergessen: Dass nV die Teile ausgeliefert hat, heisst nicht, das die Boardhersteller die alle schon verbaut und fertig haben.

ATi hatte evtl. gar kein Interesse daran, mehr als eine Million Chips auszuliefern, denn schließlich gingen viele dieser Chips zu nicht gerade hohen Margen in die Produktion von R9500-Karten.

Richthofen
2003-05-09, 00:57:44
ATI hat nicht die OEM Basis die Nvidia hat.
Du musst sehen, dass die Chipdesigner nur ihre Zahlen angeben, wenn sie ein Produkt bzw. einen Chip verkauft haben.
Wann der letztlich im Laden ist, interessiert die Chipdesigner wie ATI und Nvidia dann nicht mehr.

Da die Chips neu sind, bestellen erstmal alle wie die blöden. Es will sich ja jeder einen gewissen Lagerstand aufbauen. Wenn ein OEM Hersteller eine neue PC Reihe plant mit einem neuen DX9 Chip, dann bestellt er ja nicht 10 GF FX Chips sondern er schätzt, wie der Bedarf nach seiner PC Linie ist und dann bestellt er einen Großauftrag von ein paar 10 Tausend Stück.
Mehr Masse = geringerer Preis durch Rabatte und Lieferfähigkeit ist auch gewährleistet.
Wir überschätzen die Auswirkungen des Retailgeschäftes in Europa hier erheblich.
Hinzu kommt, dass Nvidia einen DX9 Chip im Low Cost Segment anbietet. Der alleine wird in den nächsten 3 Monaten so viel verkauft werden wie ATI insgesamt DX9 Chips geliefert hat.
Das kannst du in etwa vergleichen mit Opteron und Itanium. Der Itanium ist seit 2 Jahren am Markt und trozdem wird der Opteron die Stückzahlen des Itanium bereits nach weigen Monaten übertreffen.
ATI hat DX9 mäßig nur die HIgh End Karten gehabt und die Alibi 9500 Reihe. Denk mal zurück wie lange es gedauert hat bis hier überhaupt Mainstream Karten vorhanden waren und wenn dann wars meisstens die 9500. Die Pro war so gut wie nicht zu haben. Die Lage ist nicht so viel besser geworden, da die 9600 und pro jetzt erst anlaufen. Der High End Markt selber ist zu klein um hier auf vernünftige Stückzahlen zu kommen.
"
Vielleicht haben die 1,5 Mio Stück an andere Hersteller verkauft oder zumindest Verträge in der Höhe abgeschlossen und noch nicht ausgeliefert.
"
Nein man sprach von ausgelieferten Chips. Das auch nicht sonderlich verwunderlich. Es dauert bis die Endprodukte im Laden sind. Zuerst kommen die OEMs an die Reihe. Schön zu sehen bei den Komplett PCs und den Mobilen FX GO Chips für Notebooks. Diese Ware ist eher und einfacher zu haben als die Produkte im Retailchannel.

Quasar
2003-05-09, 01:04:14
Das ist auch der Grund, warum man bei den kleinen FX5200 inkl. der Mobilvariante zunächst bei 0,15µ blieb: Massive Verfügbarkeit möglichst sofort, um ATi hier, noch bevor sie kontern können, die Basis zu entziehen.

In diesem Segment scheint die wirtschaftliche Planung von nV gut funktioniert zu haben, im High-End hätte man sich das sicherlich etwas anders vorgestellt.

Richthofen
2003-05-09, 01:19:52
das haben sie ja auch beim letzten Conference Call Ende 2002 gesagt. Der einzige Grund die FX5200 auf 0.15 zu bringen war Verfügbarkeit. Herstellungskosten spielten keine Rolle. TSMC hat nicht genügend Kapazitäten für alles momentan auf 0.13 und Nvidia als größter Kunde, der auch einen Großteil dieser Kapazität belegen dürfte konnte das absehen.
Die DX9 Basis die sie sich damit schaffen ist schon fett.
Dazu ihr nettes Tool und die Developer Doku. Ich schätze mal, dass sich das langfristig auszahlen wird vor allem in Punkto Kompatibilität.

Achja eine serh wichtige und interessante Information zum NV35 habe ich noch vergessen.
Der CEO fügte zum NV35 an, dass man "First Sillicon" für die Produktion verwendet, und dass dieses perfekt war. Also keine Respins und ähnliches. Das erste Sillicon war perfekt lauffähig und man produziert NV35 Chips bereits seit Februar und hat schon um die 100.000 angesammelt.
Die Auslieferung der Karten dürfte hier also sehr zügig voran gehen und nicht wie beim NV30 Monate auf sich warten lassen.

Salvee
2003-05-09, 01:23:54
Originally posted by mapel110
was ich nicht verstehe. 1.5 mio dx9 GPUs ? wo sind die alle hin ?


Ich meine auch, kürzlich in den News gelesen zu haben, dass >80% der ausgelieferten FX-Chips 5200er seien.

'Das ist auch der Grund, warum man bei den kleinen FX5200 inkl. der Mobilvariante zunächst bei 0,15µ blieb: Massive Verfügbarkeit möglichst sofort, um ATi hier, noch bevor sie kontern können, die Basis zu entziehen.'

ATi fertigt den 9200 ja auch noch in 0,15µ, dieser scheint aber ausserhalb von China (noch) keinen besonderen Anklang zu finden,
und leichter wird es 'dank' fehlendem (Paper)DX9 für ihn auch nicht werden.

Richthofen
2003-05-09, 01:27:39
"
Ich meine auch, kürzlich in den News gelesen zu haben, dass >80% der ausgelieferten FX-Chips 5200er seien
"

Das war der Report zu der Schätzung von Eric Rohdeutsch. Hab in meinem Report oben dazu Stellung genommen. Die 1,5 Mio Marke hat man wohl deutlich übertroffen. 80% FX5200 kommt wahrscheinlich momentan hin. Langfristig wird es eher so bei 50% liegen. Die 0.13 Chips haben Kapazitätsprobleme. Das betrifft beide Konkurenten.

"
ATi fertigt den 9200 ja auch noch in 0,15µ, dieser scheint aber ausserhalb von China (noch) keinen besonderen Anklang zu finden,
und leichter wird es 'dank' fehlendem (Paper)DX9 für ihn auch nicht werden.
"
DX9 ist im harten OEM Geschäft ein klarer Nachteil. Der NV34 ist billig, ausreichend schnell, qualitativ hochwertig, nicht stromhungrig und nicht sehr warm und er hat eben genau die selbe Cine FX Engine wie die anderen Chips auch. Sowas verkauft sich einfach. Da hat ATI eindeutig das Nachsehen mit der RV250 Reihe.

Salvee
2003-05-09, 01:32:39
Originally posted by Richthofen
Die DX9 Basis die sie sich damit schaffen ist schon fett.
Dazu ihr nettes Tool und die Developer Doku. Ich schätze mal, dass sich das langfristig auszahlen wird vor allem in Punkto Kompatibilität.


Das sehe ich auch als den grössten Vorteil. Die FX-Palette ist top to bottom homogener als die von ATi, beispielsweise.
Bei Beyond3D z.B. liest man öfters, dass NV30 & Co. für optimale Performance gerne ein bisschen anders programmiert werden wollen als R300 (vergleichbar mit dem P4 etwa).
Da ist es schon sehr geschickt, Millionen von 5200 als Wegbereiter dieser Technologie zu verkaufen.
ATi sehe ich hier etwas im Nachteil, da deren Massen-Chips nicht die Highend-Chips 'unterstützen (hoffe es ist verständlich was ich meine).

@ Richthofen
Vorteil meinst du wohl

Ben
2003-05-09, 10:51:26
Die Zahlen sind nicht mehr auf dem Niveau der Vorjahre. ATI's und NVidia's Quartalszahlen nähern sich beidseitig an. So wird es vermutlich die nächsten Monate weitergehen.

Interessante Impulse für NVidia sind vom NV35&NV36 zu erwarten. Ob ATI mit einer schnellen 130nm Version des R350 frühzeitig antworten wird? Nicht nur aus wirtschaftlicher Sicht erscheint mir das ratsam.

Ben

Richthofen
2003-05-09, 11:08:26
was im übrigen in weiten Teilen am eingebrochenen PC Markt liegt.
Der Grafikkartenmarkt ist mit ca 1 Jahr Verspätung erst eingebrochen.
Bei Nvidia ist aber deutlich abzusehen, dass es einen Umsatzanstieg geben wird.

Ein grosses Problem beim Schätzen ist das x-box Geschäft, da hier MS entscheidet wann sie wieviel ordern. Dadurch schwankt dieser Teil im Quartalsvergleich immer recht deutlich.
Durch nForce2, nForce3, und jetzt auch die GF FX Reihe inclusive NV35 wird der Umsatz recht stark steigen. Im 2. Quartal noch nicht so aber im 3. dann auf jeden Fall. Ich vermute mal, dass Nvidia im 4. Quartal wieder auf die 500 Mio Dollar Umsatzmarke kommt, vielleicht etwas höher.
Im 1. Quartal waren weite Teile des Umsatzes immer noch GF4Ti und MX sowie TNT2M64.
Die GF4 Reihe ist am Ende des Life Cycles und damit sind natürlich die ASPs auch am unteren Ende. Durch die FX Reihe werden die ASPs wieder deutlich steigen. Das ist ja der Sinn des regelmäßigen Ersetzens einer ganzen Produktreihe durch eine neue.

Borbarad
2003-05-09, 11:21:13
Wird denn die TNT2M64 Linie immernoch weiterproduziert oder nun durch die FX5200 ersetzt? Denkbar wäre ja auch für den OEM Markt weiterhin billige GF4MX anzubieten...wobei das dann ja der eigenen DirectX9 Strategie schaden würde.

Gruß,
Borbarad

Richthofen
2003-05-09, 11:30:11
Es werden nach wie vor TNT2M64 produziert allerdings ist dieses Produkt nun wirklich bald am Ende.
Ansonsten gibts noch einen recht hohen Anteil an GF2MX und vor allem GF4MX Karten.
Die GF2MX und die GF4MX420 werden noch eine ganze Weile weiterlaufen vor allem letztere.

Schaden tuts dem OEM Markt nicht. Die Karten landen irgendwo in Asien. Würde es da keine GF4MX geben und ähnliches, würden die Leute Rage128er, Trident Karten und ähnliches kaufen.
Das ist alles wirklich nur noch absolut Low Cost.
Die 5200 dürfte bald den größten Batzen einehmen vor allem weil es auch eine 64 Bit Speicheranbindung Version gibt.

Ben
2003-05-09, 11:39:31
Originally posted by Richthofen
was im übrigen in weiten Teilen am eingebrochenen PC Markt liegt.
Der Grafikkartenmarkt ist mit ca 1 Jahr Verspätung erst eingebrochen.
Bei Nvidia ist aber deutlich abzusehen, dass es einen Umsatzanstieg geben wird.

Ein grosses Problem beim Schätzen ist das x-box Geschäft, da hier MS entscheidet wann sie wieviel ordern. Dadurch schwankt dieser Teil im Quartalsvergleich immer recht deutlich.
Durch nForce2, nForce3, und jetzt auch die GF FX Reihe inclusive NV35 wird der Umsatz recht stark steigen. Im 2. Quartal noch nicht so aber im 3. dann auf jeden Fall. Ich vermute mal, dass Nvidia im 4. Quartal wieder auf die 500 Mio Dollar Umsatzmarke kommt, vielleicht etwas höher.
Im 1. Quartal waren weite Teile des Umsatzes immer noch GF4Ti und MX sowie TNT2M64.
Die GF4 Reihe ist am Ende des Life Cycles und damit sind natürlich die ASPs auch am unteren Ende. Durch die FX Reihe werden die ASPs wieder deutlich steigen. Das ist ja der Sinn des regelmäßigen Ersetzens einer ganzen Produktreihe durch eine neue.

Deinen über den Thread verteilten Spekulationen zu folgen, ist alles andere als einfach. Hast du eigentlich eine große, runde Glaskugel nebst zugehörigerer Wahrsagerin zu Hause, die deinen meist spekulativen Ideen ein gewisses Maß an Seriösität verleihen könnte? Wer soooooo viel schreibt, sollte mehr auf den Inhalt achten.

egdusp
2003-05-09, 12:03:24
Teilweise muss ich Ben rechtgeben. Auch wenn Richthofens Ausführungen meistens Sinn machen, so gibt es doch manchmal Behauptungen, die als Fakten dargestellt sind.

Dass TSMC billiger ist als IBM bei dem .13 Prozess das glaube ich nicht. IBM hat zwar den besseren (obwohl ich da auch noch keine verlässliche Quelle gefunden habe), aber TSMC hat die Kunden die ihn brauchen und IBM fehlten diese Kunden.

Damit NV ihre Preimiumbeziehung (Bezahlung per Die statt per Wafer) zu TSMC opferten (oder zumindest riskierten) muss IBM doch einen gewissen Anreiz gegeben haben. Erfahrung mit komplexen .13 Designs hatten sie ja nicht anzubieten. Ich tippe also auf einen finanziellen Anreiz.

mfg
egdusp

Richthofen
2003-05-09, 13:44:37
nein ein finanzieller Anreiz war es nicht.

Es dürften 2 Faktoren entscheidend gewesen sein, von denen der CEO aber nur einen nannte um TSMC öffentlich nicht schlecht dastehen zu lassen. Man kennt das ja in der Geschäftswelt. Nach aussen ist immer alles toll nur isses nicht wirklich immer so.

Faktor 1 den er nicht genannt hat:
Know How und Technik. Der Porzess sollte besser sein. IBM ist bei Fertigungsprozessen mindestens 2. Wahl direkt nach Intel. Sie haben sehr viele Ideen bzgl. eniger Materialien und haben auch einige davon schon umgesetzt. Eins ist SOI das auch AMD nutzt wie wir alle wissen nicht zu letzt mit IBMs Hilfe.
Also ein Faktor dürfte klar bessere Fertigung sein, was momentan im High End Bereich sehr wichtig ist. Bei TSMC und UMC stößt man hier momentan erheblich an die Grenzen des Machbaren.

Faktor 2 und den hat er genannt ist das Geschäftsmodell.
IBMs Foundry Service fährt ein gänzlich anderes Geschäftsmodell als TSMC und UMC.
Die Kunden können dort ganze Abteilungen Abstellen und integrieren und dürfen wohl auch Erkenntnisse für sich verwenden. So ganz genau weiss ich auch nicht wo da der Unterschied zu TSMC ist, denn dort springen ja auch NV Leute rum. Der CEO hat aber dieses Business Modell hervorgehoben und ist der Ansicht, dass dies den gesamten Foundry Markt beeinflussen wird und andere diesem Geschäftsmodell folgen werden.
Es scheint also was Erkenntnisse angeht dort recht locker gehandhabt zu werden und die Befugnisse der dortigen abgestellten Mitarbeiter der Kunden scheinen weitreichender zu sein als bei TSMC und UMC.
Leider gibt es dazu noch nicht so viele Infos aber irgendwie scheint IBM dort besseres und erfolgreicheres Arbeiten zu ermöglichen. AMD hat so etwas ähnliches verlauten lassen. Die haben kurzerhand 50 Leute dorthin abgestellt und wollen diese Zahl 2003 auf 100 erhöhen.


Preis dürfte teurer sein in jedem Fall. IBM hat nur bei den alten Fertigungstechniken TSMC und CO jetzt unterboten. Generell dürfte ein FOundryservice in den USA aber teurer sein als in Asien und mit teuren IBM Mitarbeitern erst recht. Das heisst jetzt nicht die sind doppelt so teuer aber ein bisschen wirds schon sein.
Dafür gibts aber wohl auch mehr Qualität und besagtes Geschäftsmodell. TSMC hat zwar die Kunden aber das ist für IBM kein Problem. Das Image ist so überrangend und der Konzern so riesig. Eine Marktführerschaft binnen weniger Quartale ist hier nicht zwingend. Die können sich das locker leisten. IBM wird vorerst wohl eher die Anlaufstelle bei ambitionierten Designs sein und weniger bei Low Cost.

Was die Premiumbezahlung bei TSMC angeht, so wissen wir nicht wie das vertraglich aussieht. Aussage Michael Hara VP Investor Relations war Bezahlung beim NV30 pro lauffähigem Die.
Was wir nicht wissen ist: wurde dabei eine limitierte Stückzahl vereinbart - die besagten 100.000 Stück? Gilt das auch für den NV35?
Gibt es eine zeitliche Beschränkung dieses Vertrages?
Ich sehe diesen Vertrag nicht als neue langfristige Lösung von Verträgen im High End Bereich für NV bei TSMC. Das habe ich auch nie gesagt. Für mich stellt sich das als das dar, als das ich es Ende 2002 vermutet habe. Ein Tradeoff für TSMC und Ausgleich für Nvidia für die Probleme die der Prozess beim NV30 bereitet hat. Sowas ist für mich grundsätzlich zeitlich begrenzt. Dieser Vertrag ist ganz sicher nicht langfristig angelegt. Ich sehe das wie einen Rabatt oder eine Sonderaktion beim Kauf eines Autos, der auch nur beschränkt gültig ist.
Da Nvidia den NV30 eh so schnell wie möglich loswerden und ersetzen will, dürfte das also nicht so das Hindernis darstellen in Zukunft bei den ambitionierten Designs auf IBM zu setzen.


"
Deinen über den Thread verteilten Spekulationen zu folgen, ist alles andere als einfach. Hast du eigentlich eine große, runde Glaskugel nebst zugehörigerer Wahrsagerin zu Hause, die deinen meist spekulativen Ideen ein gewisses Maß an Seriösität verleihen könnte? Wer soooooo viel schreibt, sollte mehr auf den Inhalt achten
"
Nein ich lass mich nur nicht von dem beeinflussen, was im Retailchannel in Deutschland abläuft und was auf diversen Hardwareseiten zum Besten gegeben wird. Wenns danach ginge, wäre AMD beispielsweise King of the Hill und mindestens in den schwarzen Zahlen und bei 50% Marktanteilen. Der Chipmarkt ist schwer zu überblicken und vieles läuft völlig anders, als man es auf solchen Seiten wie dieser hier erwarten würde. Ich denke das haben die letzten 3 Quartale bei Nvidia zur Genüge gezeigt.

Ben
2003-05-09, 17:20:08
Originally posted by Richthofen
"
Deinen über den Thread verteilten Spekulationen zu folgen, ist alles andere als einfach. Hast du eigentlich eine große, runde Glaskugel nebst zugehörigerer Wahrsagerin zu Hause, die deinen meist spekulativen Ideen ein gewisses Maß an Seriösität verleihen könnte? Wer soooooo viel schreibt, sollte mehr auf den Inhalt achten
"
Nein ich lass mich nur nicht von dem beeinflussen, was im Retailchannel in Deutschland abläuft und was auf diversen Hardwareseiten zum Besten gegeben wird. Wenns danach ginge, wäre AMD beispielsweise King of the Hill und mindestens in den schwarzen Zahlen und bei 50% Marktanteilen. Der Chipmarkt ist schwer zu überblicken und vieles läuft völlig anders, als man es auf solchen Seiten wie dieser hier erwarten würde. Ich denke das haben die letzten 3 Quartale bei Nvidia zur Genüge gezeigt.

Deine vielen Worte seien dir gegönnt! :)
Ich komme aber auch mit weniger aus! :)
Mein Kommentar zum Thema lautet abschließend:
NVidia ist ein profitables Unternehmen und wird es auch aller Voraussicht nach bleiben. NVidia wir sich dieses Jahr den Markt mit ATI teilen und nächstes Jahr werden die Karten neu gemischt.

Ben

nagus
2003-05-09, 18:03:27
Originally posted by Richthofen

Achja eine serh wichtige und interessante Information zum NV35 habe ich noch vergessen.
Der CEO fügte zum NV35 an, dass man "First Sillicon" für die Produktion verwendet, und dass dieses perfekt war. Also keine Respins und ähnliches. Das erste Sillicon war perfekt lauffähig und man produziert NV35 Chips bereits seit Februar und hat schon um die 100.000 angesammelt.
Die Auslieferung der Karten dürfte hier also sehr zügig voran gehen und nicht wie beim NV30 Monate auf sich warten lassen.


hmmmm... warum wohl war die erste version schon gut lauffähig? vielleicht weil sich seit der NV30 nicht sonderlich viel getan hat? der unterschied ist vielleicht so "groß" wie zwischen 9700 und 9800 radeon. da etwas optimiert, dort etwas verfeinert, aber all zu großartiges hat sich beim chip mit sicherheit nicht getan. beim speicherinterface schon, aber der chip ist sicher 90% identisch mit dem NV30.

seahawk
2003-05-09, 18:26:00
Oder weil der NV35 schon im Design die Probleme des Nv30 berücksichtigt hat und besser auf den verfügbaren Fertigungsprozess abgestimmt ist ??

LovesuckZ
2003-05-09, 18:30:55
Originally posted by nagus
Der unterschied ist vielleicht so "groß" wie zwischen 9700 und 9800 radeon.

Allein die Vergroeßerung des Speicherinterface steht wohl in keinem Verhaeltnis zu dem, was vom r300 zum r350 veraendert wurde. Daher ist deine Meinung von "etwas optimiert, dort etwas verfeinert" ein bisschen zu einfach gestrickt.

Richthofen
2003-05-09, 18:41:14
"
hmmmm... warum wohl war die erste version schon gut lauffähig? vielleicht weil sich seit der NV30 nicht sonderlich viel getan hat? der unterschied ist vielleicht so "groß" wie zwischen 9700 und 9800 radeon. da etwas optimiert, dort etwas verfeinert, aber all zu großartiges hat sich beim chip mit sicherheit nicht getan. beim speicherinterface schon, aber der chip ist sicher 90% identisch mit dem NV30.
"

Doch da hat sich einiges getan. Ich habe nie behauptet dass der NV35 was völlig neues ist. Ich habe vielmehr im Vorfeld bereits mal vermutet, dass ich glaube, dass beim NV30 einiges Hardware technisch im Argen liegt und wahrscheinlich nicht brauchbar war und somit deaktiviert wurde. Das scheint mit dem NV35 behoben zu sein und zusätzlich wurden noch 5 Mio Transistoren etxra spendiert für andere Dinge. Der Rest ist thermale Überarbeitung um weniger Wärme und mehr Yields abzuliefern.
Das First Sillicon läuft, ist eben dann das GLück, dass sie Ende 2003 nicht hatten. Ich wette die stellen grad den Champagner kalt in Santa Clara :)
Nächste Woche ist Show und wahrscheinlich auch Payback Time :)

Desti
2003-05-09, 18:55:03
nv explodiert, über 20%+ :o

Desti
2003-05-09, 18:59:13
.

Richthofen
2003-05-09, 20:07:45
jo kein Wunder.
Gestern hab ich noch überlegt paar Calls auf NV zu kaufen habs dann aba nich gemacht. Pech gehabt. Das wäre heute ein satter Gewinn.

Aber die Chance kommt bald wieder. Nach dem Anstieg heute wirds übers laufende Quartal bissl zurückgehen wieder. Vor den nächsten Quartalszahlen sollte man nen Kauf überlegen. Der Umsatz wird anziehen bei denen und die x-box Orders werden bald wieder steigen.

Die Zahlen waren wirklich gut. Sie haben sich im schwierigen Umfeld mit letztlich 3 Quartalen unterlegener Palette behauptet und Gewinne eingefahren und die Marktanteile gehalten. Die Konkurenz hat hier nicht punkten können.
Normales Marktverhalten ist dann immer, wenn der Leader zurück kommt, dass es aufwärts geht zu Lasten des Kleineren.
Es gibt auch keinen Grund wieso die Konkurenz jetzt besser laufen sollte mit einer nicht mehr überlegenen Produktpalette.
Das Verhältnis jetzt ist halt ein anders als R300 vs GF4Ti.
ATI hat einen ganz entscheidenden Fehler gemacht und das war die 9500pro respektive das Fehlen einer vernünftigen kostengünstigen DX9 Lösung. Ich behaupte mal eine Mainstreamkarte, die nicht die Leistung einer 9500pro gehabt hätte aber dafür kostengünstig in der Herstellung gewesen wäre und vor allem verfügbar in Unmengen, hätte Nvidia richtig fett weh getan. Die Chance haben sie eindeutig verpasst.

Die Börse macht jetzt nichts anderes als die Erwartungen an die nächsten 3 Quartale zu antizipieren. Meine Schätzung ist, dass sie im Q4 wieder bei 500 Mio Umsatz liegen.

nagus
2003-05-09, 21:33:41
Originally posted by Richthofen
jo kein Wunder.
Gestern hab ich noch überlegt paar Calls auf NV zu kaufen habs dann aba nich gemacht. Pech gehabt. Das wäre heute ein satter Gewinn.

Aber die Chance kommt bald wieder. Nach dem Anstieg heute wirds übers laufende Quartal bissl zurückgehen wieder. Vor den nächsten Quartalszahlen sollte man nen Kauf überlegen. Der Umsatz wird anziehen bei denen und die x-box Orders werden bald wieder steigen.

Die Zahlen waren wirklich gut. Sie haben sich im schwierigen Umfeld mit letztlich 3 Quartalen unterlegener Palette behauptet und Gewinne eingefahren und die Marktanteile gehalten. Die Konkurenz hat hier nicht punkten können.
Normales Marktverhalten ist dann immer, wenn der Leader zurück kommt, dass es aufwärts geht zu Lasten des Kleineren.
Es gibt auch keinen Grund wieso die Konkurenz jetzt besser laufen sollte mit einer nicht mehr überlegenen Produktpalette.
Das Verhältnis jetzt ist halt ein anders als R300 vs GF4Ti.
ATI hat einen ganz entscheidenden Fehler gemacht und das war die 9500pro respektive das Fehlen einer vernünftigen kostengünstigen DX9 Lösung. Ich behaupte mal eine Mainstreamkarte, die nicht die Leistung einer 9500pro gehabt hätte aber dafür kostengünstig in der Herstellung gewesen wäre und vor allem verfügbar in Unmengen, hätte Nvidia richtig fett weh getan. Die Chance haben sie eindeutig verpasst.

Die Börse macht jetzt nichts anderes als die Erwartungen an die nächsten 3 Quartale zu antizipieren. Meine Schätzung ist, dass sie im Q4 wieder bei 500 Mio Umsatz liegen.

:bonk::bonk::bonk:
... was du da an blödsinn verzapfst ist echt phänomenal.

ich frage mich wer den größeren "fehler" gemacht hat.... ich, da ich diesen bescheuerten post von dir überhaupt kommentiere, oder nvidia mit der NV30/NV31/NV34 linie.

Unregistered
2003-05-09, 21:59:51
Originally posted by nagus


:bonk::bonk::bonk:

*lol* nagus

Was schätzt du verbauen OEMs zur Zeit öfter?

Gf4Mx TNT2M64 oder R9x00?
Die Geforce4MX wurde auch schon immer mit Gforce4 beworben (so ein schmarn).
Die FX5200 kommt jetzt als (angeblich) vollwärtige Dx9 Karte und GeforceFx daher, ist deshalb für den Daumarkt super geeignet.
Also ideale Voraussetzungen für Nv die Karten loszubekommen.


Und wenn die Gf5200 in großen Massen und mit einem guten Preis für 1000 Stück daherkommt wird man sie in jedem (drecks) 0815 PC finden.

nagus
2003-05-09, 22:03:40
Originally posted by Unregistered


*lol* nagus

Was schätzt du verbauen OEMs zur Zeit öfter?

Gf4Mx TNT2M64 oder R9x00?
Die Geforce4MX wurde auch schon immer mit Gforce4 beworben (so ein schmarn).
Die FX5200 kommt jetzt als (angeblich) vollwärtige Dx9 Karte und GeforceFx daher, ist deshalb für den Daumarkt super geeignet.
Also ideale Voraussetzungen für Nv die Karten loszubekommen.


Und wenn die Gf5200 in großen Massen und mit einem guten Preis für 1000 Stück daherkommt wird man sie in jedem (drecks) 0815 PC finden.

in sehr vielen oem-pcs werden aktuelle ati produkte verbaut... und wo bleiben die FXn? die neuen 5200er und 5600er sowie 5800er fxn will kein oem verbauen weil

a. zu teuer
b. zu langsam
c. zu groß/schwer/laut/stomhungrig

ati hat in allen bereichen die bessere alternative. ich rede jetzt nicht von den urakt-modelle die vielleicht noch in irgnedwelchen schwulen noname-pcs verbaut werden. es geht jetzt um die neuen produkte (nv3x und R3xx).

ps: am notebook sektor schauts für nvidia eigenlich noch düsterer aus. ca. 90% aller centrino notebooks werden mit ati radeon karten ausgestattet. und an der gesamtsituation wird auch die NV35 wenig ändern können. benchmarkwerte sind keine raus, es gibt auch noch keine karten zu kaufen und angekündigt ist auch noch nix. es wird noch min. 6 -8 wochen dauern bis die NV35 zu kaufen ist... bis dahin gibts längst eine antwort von ATI auf die NV35.... und das ist nicht LOCI (laut aktuellen aussagen von Mufu ist das teil so schnell, dass es eher als NV40 konkurenz durchgehen könnte....)

Richthofen
2003-05-09, 22:12:55
dann wundert es mich sehr, dass ATI keine nennenswerten Marktanteile zu Lasten von Nvidia gewinnen konnte und das Nvidia im Notebookmarkt auch noch dreisterweise erheblich zugelegt hat.
Zu deiner Info ich kann DX9 Notebooks mit NV Chipsätzen bereits kaufen. Von ATI ist da nichts zu sehen.

Eine clevere Firma hätte die 3 Quartale Vorsprung genutzt Boden sowohl finanziell als auch im Bereich der Marktanteile gut zu machen. Beides hat ATI eindeutig und klar verfehlt.
Ich kann mir nicht so ganz vorstellen, wieso das ausgerechnet jetzt erheblich besser werden sollte, wo der eklatante Zeit- und Produktvorsprung dahin ist.

Quasar
2003-05-09, 22:13:49
Originally posted by nagus
ati hat in allen bereichen die bessere alternative.

ATi kann auch in allen Bereichen, besonders im Mainstream, gut liefern, gell?
Deswegen wurd auch der R300 im Medion-PC als R9600TX verkauft, was?

Sorry, aber zu einer guten Palette gehört eben auch, dass diese verfügbar ist und nicht nur angekündigt wird.

LovesuckZ
2003-05-09, 22:26:41
Originally posted by nagus
ati hat in allen bereichen die bessere alternative. ich rede jetzt nicht von den urakt-modelle die vielleicht noch in irgnedwelchen schwulen noname-pcs verbaut werden. es geht jetzt um die neuen produkte (nv3x und R3xx).


5200 und 5600 sind den Produkten von ATI ueberlegen, anders rum liegen die 9800 und 9600pro gegenueber der 5600 Ultra und 5800 weit vorraus. Ehrlich ngesagt ist es eine Patt-Situation. Und dies kann sich mit dem erscheinen des neuen Deto's und der NV35 locker wieder aendern.

AlfredENeumann
2003-05-09, 22:51:49
Originally posted by LovesuckZ


5200 und 5600 sind den Produkten von ATI ueberlegen,


überlegen welchem Produkt und in welcher hinsicht ?

Aquaschaf
2003-05-09, 22:56:23
die 5200 vielleicht der 9200 , aber in welcher hinsicht ist die 5600 bitte der 9600 überlegen ?

LovesuckZ
2003-05-09, 23:04:03
Originally posted by Aquaschaf
[...]aber in welcher hinsicht ist die 5600 bitte der 9600 überlegen ?

Da die 9600 nur mit 325/200 kommt, wird sie gegen die 5600 vorallem unter AA und AF kaum Chancen haben.

Aquaschaf
2003-05-09, 23:15:11
achso , dachte du meinst die "Ultra" :bonk:

StefanV
2003-05-09, 23:46:26
Originally posted by LovesuckZ
Da die 9600 nur mit 325/200 kommt, wird sie gegen die 5600 vorallem unter AA und AF kaum Chancen haben.

Welche 5600 hat 'nen passiv Kühlkörper ??

fizzo
2003-05-10, 00:26:52
Und wenn die Gf5200 in großen Massen und mit einem guten Preis für 1000 Stück daherkommt wird man sie in jedem (drecks) 0815 PC finden. [/SIZE]

ich persoenlich glaube nicht, dass die gf5200 sich so schnell durchsetzten wird. dazu ist sie momentan einfach zu teuer. die gf4mx wird noch weiterhin "die" mainstream karte bleiben.

dell z.b. hat ausser der besagen gf4mx nur noch radeons (9000/9800/pro) im desktop bereich zur auswahl. bei den notebooks setzt dell nur auf ati. immer abgesehen von der intel-onboard loesungen.

was mich am meisten ueberrascht hat ist der aufpreis von einer gf4mx auf eine 9800 non pro (325 mhz cpu takt) von $ 110 - super guenstig!

dell wird schon wissen warum sie grossteils auf ati setzten;)

Demirug
2003-05-10, 00:41:20
Originally posted by fizzo


ich persoenlich glaube nicht, dass die gf5200 sich so schnell durchsetzten wird. dazu ist sie momentan einfach zu teuer. die gf4mx wird noch weiterhin "die" mainstream karte bleiben.

dell z.b. hat ausser der besagen gf4mx nur noch radeons (9000/9800/pro) im desktop bereich zur auswahl. bei den notebooks setzt dell nur auf ati. immer abgesehen von der intel-onboard loesungen.

was mich am meisten ueberrascht hat ist der aufpreis von einer gf4mx auf eine 9800 non pro (325 mhz cpu takt) von $ 110 - super guenstig!

dell wird schon wissen warum sie grossteils auf ati setzten;)

Beim Highend nodebook bekommt man für etwa 58€ Aufschlag auch einen NVIDIA Chip (4200 Go mit 64MB) eingebaut.

Im deutschen Shop wollen sie 150€ für die 9800 extra und für die Pro gleich mal 324€

Crushinator
2003-05-10, 01:28:37
ATi hat deffinitiv die Chance verpaßt, nV Marktanteile abzujagen. Der Grund sind mal wieder sie selbst: Können keine Chips liefern und haben die 5200 vollkommen falsch eingeschätzt. Wenn der NV35 noch die "Krone" holt -> Kinder gute Nacht. :(

Hoch lebe TSMC! :kotz:

Richthofen
2003-05-10, 01:37:25
naja so schlimm wirds nun nicht werden.
Es reicht doch was sie haben :)

Marktanteile im goßen Stil bekommen sie so auf jeden Fall nicht mehr da hätten sie einiges anders machen müssen.
Die 5200 performt im selben Rahmen wie die 9000pro, bietet dafür aber die neuere Technik. Ist fürs Marketing ein klarer Sieg für Nvidia. Bei den Mainstreamkarten ist es schwierig aber die Unterschiede sind zu gering, als das sich hier was bewegen wird. Da hat Nvidia nach wie vor den Brandingvorteil. Ein Problem das noch erschwerend hinzukommt ist die schwache Lieferfähigkeit. Da haben sich beide verschätzt bzw. TSMC hat sich gewaltig überschätzt, denn die beiden können ja nur auf das setzen was TSMC verbal zum besten gibt und die werden sicher irgendwann 2001 die Aussage gemacht haben - jawoll 0.13 wird bei uns laufen.
Danach sieht es überhaupt nicht aus mit der Folge, dass es massive Lieferprobleme gibt. Deshalb wird es noch eine ganze Weile die DX8 Generation nebenbei geben. Da liegt Nvidia mit der GF4TI natürlich besser beim Backup sozusagen.
High End ist schwierig. Da werden sich beide in nächster Zeit in immer kürzeren Abständen abwechseln. Das wird nicht viel Auswirkungen haben, da der Markt A) zu klein ist und b) die Leute eh immer das beste wollen. Die wenigsten sind da Markentreu.

Crushinator
2003-05-10, 02:06:30
Naja, wenn TSMC schon Probleme hat 0,15 µ zu liefern, ist aber etwas gewaltig schief gelaufen. Das Problem von ATi ist auch noch, daß sie den Retail-Markt falsch eingeschätzt haben. Ich kann selbst nur feststellen, daß wirklich verdammt viele eine 9500pro bzw. 9600/pro kaufen möchten jedoch kaum welche abbekommen. Wenn ATi diese Retail-käufer dadurch verprellt, in dem sie nicht liefern kann wird ein ziemlich großer Schuh draus: Die Leute ärgern sich nämlich darüber, was nicht gerade zur "Markenbeliebtheit" beiträgt.

Vielleicht irre ich mich auch nur, und die AIBs sind dran schuld. Mein Kontakt bei ATi meinte bis vor kurzem nämlich, daß sie genug Chips an die AIBs liefern. Jedenfalls entwickelt sich die Situation in meinen Augen in eine ziemlich bedenkliche Richtung. Am liebsten wäre ich jetzt bei dennen im Headquarter und würde reihenweise die Praktikanten aus dem Management feuern. :D Danach würde ich bei Intel anfragen, ob ein weiteres Ar***kriechen möglich sei, um kurzfristig an Chips zu kommen und zwar in Massen. :|

Richthofen
2003-05-10, 02:49:05
das 0.15 Problem ist aber nicht ein Problem von TSMC sondern leider ein Problem von ATI, da sie einen Chip im Mainstream verkaufen wollten, der eigentlich für den HIgh End vorgesehen ist. Kannst dir ja denken, dass 110 Mio Transistoren eine reichlich teure Angelegenheit sind.

Die stehen da vor einem Dilemma. Sie haben die 9600 und pro, die mit ca 70 Mio und in 0.13 einen Bruchteil der DIE Fläche einnehmen. Die sind somit erheblich günstiger in der Herstellung. Leider kann TSMC nicht genug aus den 0.13 Fertigungslinien momentan auswerfen - ergo Lieferproleme.
Die 9500 und pro möchte man jedoch nicht für so wenig Geld in solchen Mengen absetzen.
Das Produkt ist einfach für diesen Markt nicht geeignet. Die Marge ist zu gering. Liefern sie viele 9500pro, dann kauft wieder keine Sau die 9600 bzw 9600pro, weil letztere schlechter in der Performance sind. Das hat sich auch bis zum letzten rumgesprochen.

Die Lieferprobleme bei der 9500 Reihe dürften weitestgehend künstlich erzeugt sein. Selbst wenn der Yield sehr schlecht ist, könnte ATI ja haufenweise Wafer ordern, nur zahlen sie dnan halt drauf und wenn der yield gut ist, dann ist es ein Katzenjammer, weil man die selben Chips auch als 9700 verkaufen könnte.

Da muss man klar differenzieren:
0.13 Mainstream - TSMC yiel und capacity problem. Das trifft auch Nvidia bei seiner Mainstream Reihe.
0.15 ATIs Schuld, da sie keinen gescheiten Mainstream Chip in 0.15 gefertigt haben. Nvidia kann da noch auf die GF4Ti zzurückgreifen, die zwar kein DX9 ist aber eine sehr ansprechende Performance bietet.

LovesuckZ
2003-05-10, 07:50:43
Originally posted by Stefan Payne
Welche 5600 hat 'nen passiv Kühlkörper ??

Und?

Unregistered
2003-05-10, 10:10:41
Originally posted by Demirug


Beim Highend nodebook bekommt man für etwa 58€ Aufschlag auch einen NVIDIA Chip (4200 Go mit 64MB) eingebaut.

Im deutschen Shop wollen sie 150€ für die 9800 extra und für die Pro gleich mal 324€

ok - wollen wir nicht kleinich sein;) jedoch muss man sagen, dass dell schon sehr pro ati eingestellt ist.

und ich wuerde SOFORT € 150,-- aufpreis fuer eine eine 9800er zahlen!
so guenstig kommt man nicht alle tage zu einer high end grafikkarte:)

vor einem jahr hat es bei dell im desktopbereich noch ganz anderst ausgesehen. nvidia chips wohin man schaute....die zeiten sind jetzt vorbei.

egdusp
2003-05-10, 10:42:00
Originally posted by Unregistered

vor einem jahr hat es bei dell im desktopbereich noch ganz anderst ausgesehen. nvidia chips wohin man schaute....die zeiten sind jetzt vorbei.

Und in einem weiteren Jahr könnte es wieder anders aussehen. Dell gehört nicht zu den treuen OEMs, die holen was dem Kunden gut gefällt.
Allerdings sollte man nicht außer acht lassen, dass viele Dell PCs auch an Firmen verkauft werden. Dort werden wahrscheinlich GF4 MX drin sein.

mfg
egdusp

Razor
2003-05-10, 10:42:45
Originally posted by Unregistered

ok - wollen wir nicht kleinich sein;) jedoch muss man sagen, dass dell schon sehr pro ati eingestellt ist.

und ich wuerde SOFORT € 150,-- aufpreis fuer eine eine 9800er zahlen!
so guenstig kommt man nicht alle tage zu einer high end grafikkarte:)

vor einem jahr hat es bei dell im desktopbereich noch ganz anderst ausgesehen. nvidia chips wohin man schaute....die zeiten sind jetzt vorbei.
So so... dann wollen wir mal sehen...

Privatanwender:

Dimension 2350 (ab 463€) -> Intel® 845GL Grafik
(ohne Aufrüstungsmöglichkeit)

Dimension 4550 (ab 695€) -> 16 MB Ati Rage Ultra 4x AGP Grafikkarte
für 58€ Aufpreis gibt's -> 64 MB nVidia GeForce4 MX 420 Grafikkarte (TV Out)

Dimension 8250 (ab 811€) -> 64 MB nVidia GeForce4 MX 420 Grafikkarte (TV Out)
(ohne Aufrüstungsmöglichkeit)

Dimension 8300 (ab 899€) -> 64 MB nVidia GeForce4 MX 420 Grafikkarte (TV Out)
für 151€ Aufpreis gibt's -> 128MB ATi Radeon 9800 - 8x AGP Grafikkarte (DVI & TV-Out)
für 325€ Aufpreis gibt's -> 128MB ATI Radeon 9800 PRO - 8x AGP Grafikkarte (DVI & TV-Out)

-

So, ich hoffe, dass man Dir zeigen konnte, dass sich dies lange nicht so eindeutig darstellst, wie Du es gerne hättest. Im Basismodell (Günstigst-Variante), gibt's lediglich Intel-Onbaord-Grafik. Darauf folgend ein Gerät mit super-ATI-Rage-GraKa, die ja wohl jeder Beschreibung spottet (in Firmen aber immer noch gerne genommen wird ;-). Wer's aber etwas zeitgemäßer haben will, nimmt dann aber doch die 60€ mehr in Kauf und holt sich was 'Vernünftiges'... nVidia (gf4mx ;-) halt. Das wiederum folgende Modell (schon im High-End-Bereich angesiedelt) enthält gleich die gf4mx und damit ist auch Schluss (nix ATI). Das Top-Modell für 900€ hat wieder per Default besagte gf4mx dabei, kann im Gegenzug aber mit High-End ATI-Karten aufgerüstet werden, dafür aber tiiiieeeeef in die Tasche gegriffen werden muss.

Man könnte hier also sagen:
- Intel-Onboard oder ATI-Rage wenn's günstigst sein soll
- nVidia bei den meisten Modellen
- ATI-Radeon 9800 als Option im High-End-Modell

Welche GraKa's werden hier wohl am meisten verkauft ?
:D

Bis denne

Razor

Richthofen
2003-05-10, 10:47:38
in der Tat wird es das und das Volumen ist viel größer als der Privatkundenmarkt.

Und wie Razor schon sagte. Dell bietet den Großteil der ATI Chips nur als Aufrüstmöglichkeit an. Das nehmen aber bei weitem nicht alle war.
Solche Deals werden in der Investorwelt grundsätzlich als weniger Attraktiv angesehen, als feste OEM Deals mit Sofortverwertung desProdukts.

nagus
2003-05-10, 11:55:28
Originally posted by LovesuckZ


Allein die Vergroeßerung des Speicherinterface steht wohl in keinem Verhaeltnis zu dem, was vom r300 zum r350 veraendert wurde. Daher ist deine Meinung von "etwas optimiert, dort etwas verfeinert" ein bisschen zu einfach gestrickt.

ich spreche vom chip selber und abgesehen vom umstieg auf 256bit...

nagus
2003-05-10, 11:59:36
Originally posted by LovesuckZ


Da die 9600 nur mit 325/200 kommt, wird sie gegen die 5600 vorallem unter AA und AF kaum Chancen haben.

hat sie aber. ist alles in der aktuellen pcghardware zu lesen.

deine aussage die 5600er linie sei atis 9600 überlegen ist blanker unsinn. 5600 und 9600 sind ungefähr gleichwärtig und 5600U vs. 9600P ... naja ~+25% für 9600pro.

LovesuckZ
2003-05-10, 12:02:33
Originally posted by nagus
ich spreche vom chip selber und abgesehen vom umstieg auf 256bit...

Gehoert die Anbindung nicht auch zum Chip?

LovesuckZ
2003-05-10, 12:03:27
Originally posted by nagus
hat sie aber. ist alles in der aktuellen pcghardware zu lesen.

deine aussage die 5600er linie sei atis 9600 überlegen ist blanker unsinn. 5600 und 9600 sind ungefähr gleichwärtig

Ich hab mir nur die Tabelle angesehen und dort war die 5600 immer schneller... (kann mich auch verguckt haben).

nagus
2003-05-10, 12:04:22
Originally posted by Quasar


ATi kann auch in allen Bereichen, besonders im Mainstream, gut liefern, gell?
Deswegen wurd auch der R300 im Medion-PC als R9600TX verkauft, was?

Sorry, aber zu einer guten Palette gehört eben auch, dass diese verfügbar ist und nicht nur angekündigt wird.

*MEGALOL*


ich glaube das was nvidia mit der nv30 aufgeführt hast du irgendwie verschlafen.

und abgesehen von nvidia HAT ati die beste produktpalette. 9600PRO / 9500PRO / 9700 PRO / 9800 PRO... und was hat nvidia ?

einen dustbuster der mit treibercheats gerademal auf 9700pro niveau liegt + hitzeproblene und lieferschwierigkeiten und mießem preis /leistungsverhältnis.

StefanV
2003-05-10, 12:06:13
Originally posted by nagus


hat sie aber. ist alles in der aktuellen pcghardware zu lesen.

deine aussage die 5600er linie sei atis 9600 überlegen ist blanker unsinn. 5600 und 9600 sind ungefähr gleichwärtig und 5600U vs. 9600P ... naja ~+25% für 9600pro.
[Lehrermode on]

Wie kommst du auf gleichwärtig ??

gleichwertig kommt eigentlich von Wert und wird somit mit e geschrieben

[Lehrermode off]

Ansonsten ist deine Aussage nicht von der Hand zu weisen, die 9600 hält erstaunlich gut mit der 5600 mit...

StefanV
2003-05-10, 12:08:41
Originally posted by LovesuckZ
Ich hab mir nur die Tabelle angesehen und dort war die 5600 immer schneller... (kann mich auch verguckt haben).

Schau nochmal hin, in der PCGH waren entweder beide nicht weit voneinander entfernt, sogar noch mehr oder minder innerhalb der Messtoleranz, in dem anderen war die 9600 aber schneller als die 5600...

LovesuckZ
2003-05-10, 12:14:49
Originally posted by Stefan Payne
Schau nochmal hin, in der PCGH waren entweder beide nicht weit voneinander entfernt, sogar noch mehr oder minder innerhalb der Messtoleranz, in dem anderen war die 9600 aber schneller als die 5600...

Kiosk hat jez zu :D Und ueber das Onlineangebot kommt man nich zum Artikel (dachte die wollten diese zum Verkauf anbieten...).

StefanV
2003-05-10, 12:20:28
Originally posted by LovesuckZ
Kiosk hat jez zu :D Und ueber das Onlineangebot kommt man nich zum Artikel (dachte die wollten diese zum Verkauf anbieten...).

1. da fehlt ein T :naughty:

2. nö, hier nicht, da haben noch viele auf, Bäderregelung sei dank =)

3. glaub es mir, ich hab sie eben auf dem heiligen Örtchen noch gelesen *eg*

Razor
2003-05-10, 14:30:23
Ging's hier nicht um Quartalszahlen ?
Und was faselt nagus hier schon wieder ?
Und der Payne gibt Rechtschreibuntericht ?
???

Also im Mainstream nehemn sich die 600'er (ja, 5 oder 9 ;-) nicht sonderlich viel.
Ein neuer Treiber (Catalyst oder Deto) und schon sieht die Sache wieder anders aus...

Viel interessanter ist IMO, dass nVidia es offenbar geschafft hat, trotz aller Unkenrufe in diesem Forum, keinen großartigen Verlust zu machen (mal von den X-Box-Chips abgesehen). Und wenn sie demnächst wieder den Performance-Primus stellen und ATI nichts entgegensetzt (was auch für einen NV36 in seiner Klasse gelten könnte), dann war die ganze ATI R300-Aktion nur ein Sturm im Wasserglas. Da kann man mal sehen, wie sehr sich doch die Realität vom Durchschnitt hier im Forum unterscheidet...

Zumindest aber hat ATI mit dem Entwickler-Team von ArtX gezeigt, dass sie auch vernünftige Chips bauen können. Hoffentlich stimmen die Gerüchte nicht, dass dieses Team nun nicht am R400 arbeitet, sondern erst wieder an dessen Nachfolger. Die R200-Leutz sollen ja... uiuiui... ;-)

Wie dem auch sei, mich würde ATI's nächster Quartalsbericht interessieren. Wieder Verluste, oder doch mal endlich Gewinn ? Mit den Marktanteilen hat es ja offensichtlich nicht so ganz mächtig hingehauen...

Bis denne

Razor

Richthofen
2003-05-10, 14:36:49
Bis Ende des Jahres dürfte sich nicht mehr viel bewegen. Da werden sich beide wohl kaum großartig weh tun.
Im HIgh End wechseln sich wohl beide jeweils nochmal ab, im Low Cost siehts für Nvidia besser aus und im Mainstream ist es mehr oder minder ausgeglichen. Die Unterschiede dort sind zu gering. Da kann sich keiner irgendwie richtig absetzen und die Lieferschwierigkeiten die noch eine ganze Weile andauern werden tun ihr übriges.

Richtig interessant wird es erst Ende 2003. Da könnte sich für ATI ein kleines Marketingtechnisches Problem auf der Feature Front auftun.
Von der Performance her ist es noch zu ungewiss aber featureseitig könnte es schwer werden, da sie ja nun eine Generation komplett auslassen.

Die Quartalszahlen und vor allem der Outlook waren sehr gut.
Der Kurs ist gestern förmlich explodiert.
+33,25%
Wer vorgestern also 2000 Euro angelegt hätte in Nvidia hätte gestern rund 650 Euro abgesahnt und sich damit eine NV35 für LAU kaufen können :)

Tarkin
2003-05-10, 14:52:32
hier die aktuellen werte der verschiedenen grakas von nvidia und ati (quelle: pcghardware 6/2003 seite 59)

Relative Leistung (1024, 32bit, 2xfsaa + 4:1 AF, XP3000+, nforce 2... IMHO eher pro-nvidia settings kombiniert mit einem nvidia chipsatz.... naja, aber was solls)

1,00 : Radeon 9200/64
1,01 : FX 5200/128
1,39 : FX 5200 Ultra
1,46 : Ti-4200 4X/128
1,51 : FX 5600/128
1,54 : Radeon 9500/128
1,54 : Ti-4200 8X/128
1,66 : Radeon 9500/64
1,86 : Ti-4600
1,88 : FX 5600 Ultra
2,15 : Radeon 9600 PRO
2,36 : Radeon 9500 PRO
2,66 : FX 5800
2,75 : Radeon 9700
3,08 : Radeon 9700 PRO
3,08 : FX 5800 Ultra
3,47 : Radeon 9800 PRO

fazit:
Radeon 9200 = FX 5200
Radeon 9500 = FX 5600 ~= Radeon 9600
Radeon 9600PRO >> FX 5600 Ultra
Radeon 9700 > FX 5800
Radeon 9700PRO = FX 5800 Ultra
Radeon 9800PRO >> FX 5800 Ultra

Razor
2003-05-10, 14:58:54
Tja, Tarkin...
Dann rate mal, wie das Ausschaut, wenn der NV35/36 ins Spiel kommt.
:D

Und wie ich bereits schrieb:
"Ein neuer Treiber (Catalyst oder Deto) und schon sieht die Sache wieder anders aus..."

Aber eines fand ich dann doch interessant:
1,00 : Radeon 9200/64
1,01 : FX 5200/128

Bedeutet dies doch, dass die FX5200 auf 9200-Level liegt... nicht auf Level der 9000/pro oder 9100.
Schon interessant...
*PCGHrausram*

Bis denne

Razor

LovesuckZ
2003-05-10, 15:00:23
Igitt, dieser Leistung-Index. Ich dachte den haette man bei der PCGH schon vergessen. Ich errinere mich nur an die Kyro Sache...

Welche Spielen wurden denn gewertet?

mapel110
2003-05-10, 15:03:39
Originally posted by Razor
Bedeutet dies doch, dass die FX5200 auf 9200-Level liegt... nicht auf Level der 9000/pro oder 9100.
Schon interessant...
*PCGHrausram*

Bis denne

Razor

hm? die 9200er ist eine 9000er(+agp8x) pro afaik.

Tarkin
2003-05-10, 15:04:58
Originally posted by Richthofen
Die Quartalszahlen und vor allem der Outlook waren sehr gut.
Der Kurs ist gestern förmlich explodiert.
+33,25%
Wer vorgestern also 2000 Euro angelegt hätte in Nvidia hätte gestern rund 650 Euro abgesahnt und sich damit eine NV35 für LAU kaufen können :)



sehr gut? weniger gewinn und umsatzt *LOL* ... wirklich "sehr gut" :lol:

und was den outlook betrifft bin ich nicht ganz so optimistisch. wie du sehen kannst, hat ati praktisch in jedem segment die besseren und billigeren karten. außerdem kann IMHO ati z.b. die 9600er linie wesentlich günstiger herstellen als nvidia ihre 5600er reihe. (siehe pcghardware 6/2003) ... und bei den schnelleren modellen schauts für nvidia auch nicht besser aus.

btw, ati hat genug knowhow um die nV35 leicht zu übertreffen. es gibt seit längerem gerüchte dass ati bereits seit monaten eine noch schnellere R350 in reserve hat die es leicht mit der NV35 aufnehmen kann (und damit meine ich nicht LOCI.. das ist leistungsmäßig eher die konkurrenz zur NV40 und soll im herbst/winter 2003 erscheinen.) und was die neuen detonator 50 treiber angeht... mufu (sehr verlässliche quelle in meinen augen) hat bereits im rage3d forum anklingen lassen, das die neuen wundertreiber die "mutter aller cheater-treiber" wird. das was nvidia mit den 43.45 bzw. früheren detos abgezogen hat war nur die spitze des eisberges. außerdem schreibt er, dass die NV35 kaum viel schneller ist als die R350... und dabei hat er sich nicht einmal auf die neuen 3.4er catalyst bezogen... )

alles in allem glaube ich, dass es nvidia in nächster zeit sicher nicht einfacher haben wird. aber wir werden sehen

Eusti
2003-05-10, 15:08:08
Originally posted by Richthofen

Wer vorgestern also 2000 Euro angelegt hätte in Nvidia hätte gestern rund 650 Euro abgesahnt und sich damit eine NV35 für LAU kaufen können :)
Wer Anfang 2002 das gleiche Geld angelegt hätte, der könnte sich jetzt 6 Jahre keine Grafikkarten mehr leisten...

Razor
2003-05-10, 15:24:13
Originally posted by mapel110

hm? die 9200er ist eine 9000er(+agp8x) pro afaik.
Echt ?
Dachte, dass die 9100 eine 8x9000 ist. Und die 9200 dann die aufgemotzte 8500...
(würde meine Hand aber nicht dafür ins Feuer legen ;-)

Razor

nagus
2003-05-10, 15:30:45
Originally posted by Razor

Echt ?
Dachte, dass die 9100 eine 8x9000 ist. Und die 9200 dann die aufgemotzte 8500...
(würde meine Hand aber nicht dafür ins Feuer legen ;-)

Razor

da gibts so viele verschiedene versionen auch von den diversen boardherstellern...

9000 > abgespekte 8500
9100 > 9000er mit fullstream suppoer
9200 > 9100 AGPx8 version

aber jeder hersteller taktet die dinger irgendwie unteschiedlich

StefanV
2003-05-10, 15:33:43
Originally posted by nagus


da gibts so viele verschiedene versionen auch von den diversen boardherstellern...

9000 > abgespekte 8500
9100 > 9000er mit fullstream suppoer
9200 > 9100 AGPx8 version

aber jeder hersteller taktet die dinger irgendwie unteschiedlich

Hm, da fällt mir ein, daß man die 8500 doch auf 9100 flashen kann ;)


Die 9000 ist die 8500 Lite, die 9200 basiert auf der 9000...

Razor
2003-05-10, 15:38:10
Originally posted by Stefan Payne

Hm, da fällt mir ein, daß man die 8500 doch auf 9100 flashen kann ;)

Die 9000 ist die 8500 Lite, die 9200 basiert auf der 9000...
Also langsam komm ich da echt durcheinander...
Wenn man eine 8500 auf 9100 flashen kann, die 9000 einen 8500 'lite' ist und die 9200 auf der 9000 besiert - dann ist doch alles die gleiche Wurst, oder ?

Zumal fullstream doch ein Treiberfeature sein soll...
Also irgendwie...

Razor

nagus
2003-05-10, 15:43:00
Originally posted by Razor

Also langsam komm ich da echt durcheinander...
Wenn man eine 8500 auf 9100 flashen kann, die 9000 einen 8500 'lite' ist und die 9200 auf der 9000 besiert - dann ist doch alles die gleiche Wurst, oder ?

Zumal fullstream doch ein Treiberfeature sein soll...
Also irgendwie...

Razor


die 8500er ist jedenfalls die schnellste unter den 4

9000, 9100 und 9200er ist alles ziehmlich das gleiche (bis auch agpx8 und fullstream-support)

die 9200er hat beides, die 9100er nur fullstream und die 9000er keines von beiden.

StefanV
2003-05-10, 15:58:55
Originally posted by nagus
die 8500er ist jedenfalls die schnellste unter den 4

9000, 9100 und 9200er ist alles ziehmlich das gleiche (bis auch agpx8 und fullstream-support)

die 9200er hat beides, die 9100er nur fullstream und die 9000er keines von beiden.

Hm, wenn ich mich nicht irre, dann hat die 9000 auch Fullstream :|

Salvee
2003-05-10, 16:02:05
Macht mich nicht schwach, Leute ;)

8500=9100=R200, 4x2 Design

9000=9200=RV250(RV280) 4x1 Design

mapel110
2003-05-10, 16:29:09
Originally posted by Salvee
Macht mich nicht schwach, Leute ;)

8500=9100=R200, 4x2 Design

9000=9200=RV250(RV280) 4x1 Design

full ack !

endlich mal einer der bescheid weiss. bei den letzten postings hab ich mir jedenfalls einen abgelacht :D

nagus
2003-05-10, 16:41:15
Originally posted by Salvee
Macht mich nicht schwach, Leute ;)

8500=9100=R200, 4x2 Design

9000=9200=RV250(RV280) 4x1 Design

so is es.

von den featrues her stimmt das aber was ich gepostet hab. und die 8500 ist deshalb die schnellere, weils davon die schnelleren versionen mit 275/275mhz und 128mb gibt. die 9100 takten fast alle mit 250mhz und/oder darunter. als ich hab noch keine 9100 mit mehr als 250mhz chiptakt gesehen.

nagus
2003-05-10, 17:19:13
btw,


Sales for the period were $405 million, down 30.5 per cent on Q1 2003, when Nvidia recorded sales of $582.9 million. Sales fell sequentially too, down 13.6 per cent on the previous quarter's $469 million worth of sales.

The most recent quarter's figure was below Wall Street's expectation of $410 million, according to FirstCall's poll.

Net income totalled $19.7 million (12 cents a share), down 61.3 per cent on the previous quarter's $50.9 million income (30 cents a share) and a whopping 76.3 per cent on the same period last year's figure of $83.2 million (47 cents a share).

Revenue from Nvidia's deal with Microsoft fell $43 million quarter over quarter. The company expects to get some of that back in the current quarter, but it's hard to see it given Xbox's recent price cuts.


wirklich "sehr gute" zahlen, Richthofen

gelle

bis denne ;)

Richthofen
2003-05-10, 17:40:48
wenn die Zahlen und der Outlook schlecht wäre, wär der Kurs nicht so angestiegen.
Schau dir mal das Volume an das gehandelt wurde am Freitag.

So viel Info dazu von mir.
Dort haben nicht ein paar privat Leute gekauft sondern ganz dicke Fische von der Wall Street.
Ums kurz zu machen die Investmenthäuser selber dürften sich eingedeckt haben.

Es ist ein bisschen schwierig das 1. Quartal mit dem 1. 2002 zu vergleichen, da damals die x-box am anlaufen war und der 3DMarkt seinen Einbruch noch vor sich hatte.
Der ist ein ganzes Jahr später eingebrochen als der restliche PC Markt.

Ich hab mir aber nochmal einen zitierten Satz von dir rausgegriffen der richtig drollig ist:
"
Revenue from Nvidia's deal with Microsoft fell $43 million quarter over quarter. The company expects to get some of that back in the current quarter, but it's hard to see it given Xbox's recent price cuts.
"
Möcht mal wissen was der x-box price cut hier mit Bestellungen bei Nvidia zu tun hat. Also wenn dann kann der sich ja nur positiv auswirken. Die starken Konsolenquartale sind immer die letzten 2.
Da es dauert bis die Chips verbaut sind werden die Bestellungen von MS natürlich Stück für Stück wieder anziehen.

"
Wer Anfang 2002 das gleiche Geld angelegt hätte, der könnte sich jetzt 6 Jahre keine Grafikkarten mehr leisten...
"
Tja Eusti man muss halt wissen wann man anlegt und ob man sich absichert oder nicht. Ich habs damals gemacht und die Verkaufsorder ging automatisch raus als ich in der Vorlesung saß. Wer sich nicht absichert und zu gierig wird ist selber Schuld. Der sollte dann lieber die Finger von dem Geschäft lassen und fleissig Grakas kaufen. Dann hab ich mehr zu lachen :)
Aber ich werd auf die Aktie jetzt wieder ein verstäkrtes Auge werfen. Ich schau mir die Lage die nächsten 2 Monate sehr genau an und dann werd ich guggen ob ich vor den nächsten Quartalszahlen mich schonmal langsam eindecke oder nicht. Da sind einige Faktoren die den Umsatz doch sehr deutlich steigern können in der Pipelinie.


BTW: Die 5200 ist der 9000pro nach wie vor überlegen in der Mehrheit der Reviews. Schonmal AA mit der 9000pro probiert? Vom fehlenden DX9 rede ich mal gar nicht erst.
Die 5200 wird ATI noch richtig zu schaffen machen.

nagus
2003-05-10, 18:40:46
Originally posted by Richthofen
BTW: Die 5200 ist der 9000pro nach wie vor überlegen in der Mehrheit der Reviews. Schonmal AA mit der 9000pro probiert? Vom fehlenden DX9 rede ich mal gar nicht erst.
Die 5200 wird ATI noch richtig zu schaffen machen.


hab jetzt leider auf die schnelle keine benchmarks NV34 vs. RV280 gefunden, dafür benchmarks der mobilen versionen...

http://www.gamersdepot.com/hardware/video_cards/ati_vs_nvidia/9200_geforcefx/m10_bench.gif

bei der desktop variante schauts nicht viel anders aus glaub ich...

Demirug
2003-05-10, 18:49:11
Originally posted by nagus



hab jetzt leider auf die schnelle keine benchmarks NV34 vs. RV280 gefunden, dafür benchmarks der mobilen versionen...

http://www.gamersdepot.com/hardware/video_cards/ati_vs_nvidia/9200_geforcefx/m10_bench.gif

bei der desktop variante schauts nicht viel anders aus glaub ich...

Also Razor kommt mit seiner 5200 beim 3dmark03 auf 1467 und beim 01 auf 7741 Punkte.

nagus
2003-05-10, 18:49:53
hab mir jetzt im web einige reviews gecheckt... also im standard-modus ist die 9000PRO meistens der 5200fx ZIEHMLICH überlegen. mit AF sowieso, erst FSAA dreht sich der spies um. dann ist die 9000er hinten und die FX5200 vorn (mit fsaa + af wieder ~ gleichstand).

...also eher positiv für die 9000er, weil 4xfsaa ist sowieso auf beiden karten indiskutabel langsam ist. ob ich jetzt 20fps oder nur 15 hab ist dann auch schon wurst.

LovesuckZ
2003-05-10, 18:58:15
Originally posted by nagus
also im standard-modus ist die 9000PRO meistens der 5200fx ZIEHMLICH überlegen. mit AF sowieso, erst FSAA dreht sich der spies um. dann ist die 9000er hinten und die FX5200 vorn (mit fsaa + af wieder ~ gleichstand).


Jedoch auch nur im App. Modus. Das sollte man dazu erwehnen.

nagus
2003-05-10, 19:00:22
Originally posted by Demirug


Also Razor kommt mit seiner 5200 beim 3dmark03 auf 1467 und beim 01 auf 7741 Punkte.

eine 9000er hat beim 2003er ca. 1400 und beim 2001er zwischen 8000 und 9000 (kommt auf die cpu an)

Frank
2003-05-10, 19:10:45
Originally posted by nagus


eine 9000er hat beim 2003er ca. 1400 und beim 2001er zwischen 8000 und 9000 (kommt auf die cpu an)

:lol:
ja eben - kommt auf die CPU an. Deine Zahlen sind somit einfach nichtssagend!!

nagus
2003-05-10, 19:11:30
Originally posted by Frank
:lol:
ja eben - kommt auf die CPU an. Deine Zahlen sind somit einfach nichtssagend!!

ja beim 2001er schon , aber NICHT beim 2003er!

Razor
2003-05-10, 19:19:30
Originally posted by nagus

ja beim 2001er schon , aber NICHT beim 2003er!
Und wie kommt es dann, dass meine FX5200 auch ohne OC schon schneller ist, als die von Dir benannte 9000pro ?
(was natürlich nur die halbe Wahrheit ist ;-)

Überhaupt, ist es dann also so, dass die 9000pro also nun schneller, als 'ne 9200 ist ?

Und dann wäre ich Dir noch dankbar, wenn Du einen Test zitieren könntest, bei der eine Gegenüberstellung der beiden (9000pro und FX5200) statt findet, die auch die Quali-Features beinhaltet.

Unter AA dürfte der Performance der R2x0 schlicht miserabel sein. Nur bei AF fehlt mir der Vergleich... so wäre ein Vergleich mit nVidia's Balanced und ATI's Quality 'nett'...
;-)

Bis denne

Razor

LovesuckZ
2003-05-10, 19:21:46
Originally posted by Razor
Überhaupt, ist es dann also so, dass die 9000pro also nun schneller, als 'ne 9200 ist ?


Jain.
Eine 9000pro ist zwar schneller wie eine 9200, doch die 9200pro ist (dank gleichen Taktraten) gleichschnell. Doch dafuer ist sie wieder langsamer als die 9100 und 8500...

Razor
2003-05-10, 19:22:16
Originally posted by Demirug

Also Razor kommt mit seiner 5200 beim 3dmark03 auf 1467 und beim 01 auf 7741 Punkte.
OC'd sind's sogar noch ein bissel mehr...
:D

Murks03 = 1717
Murks01 = 8722

Razor

P.S.: Ach ja, ich vergaß... die FX5200 ist ja zum spielen ungeeignet... *eg*

Razor
2003-05-10, 19:23:54
Originally posted by LovesuckZ

Jain.
Eine 9000pro ist zwar schneller wie eine 9200, doch die 9200pro ist (dank gleichen Taktraten) gleichschnell. Doch dafuer ist sie wieder langsamer als die 9100 und 8500...
Sag mal Love, steigt da noch jemand durch ?
Vielleicht fehlt mir auch einfach nur der Wille das zu begreifen...
;-)

Bis denne

Razor

nagus
2003-05-10, 19:27:14
Originally posted by Razor

OC'd sind's sogar noch ein bissel mehr...
:D

Murks03 = 1717
Murks01 = 8722

Razor

P.S.: Ach ja, ich vergaß... die FX5200 ist ja zum spielen ungeeignet... *eg*


und? welche cheating- treiber hast du verwendet? *eg*

StefanV
2003-05-10, 19:27:26
Originally posted by Demirug


Also Razor kommt mit seiner 5200 beim 3dmark03 auf 1467 und beim 01 auf 7741 Punkte.

TI200:
http://service.futuremark.com/compare?2k1=6392811

Parhelia (IIRC meine abgerauchte Bulk)
http://service.futuremark.com/compare?2k1=5860289

Radeon 9000 PRO:
http://service.futuremark.com/compare?2k1=5933397

System ist angegeben, ohne Angabe des Systems, sind die Werte nutzlos, mit 'nem nForce dürften nochmal 300-500pkt drin sein ;)

LovesuckZ
2003-05-10, 19:27:48
Originally posted by Razor
Sag mal Love, steigt da noch jemand durch ?
Vielleicht fehlt mir auch einfach nur der Wille das zu begreifen...
;-)


hab ich mich so undeutlich ausgedrueckt? ...

:sulkoff:

StefanV
2003-05-10, 19:29:21
Originally posted by LovesuckZ
Jain.
Eine 9000pro ist zwar schneller wie eine 9200, doch die 9200pro ist (dank gleichen Taktraten) gleichschnell. Doch dafuer ist sie wieder langsamer als die 9100 und 8500...

Das kann nicht dein Ernst sein, oder ??

Du behauptest doch ernsthaft, daß eine 9200 mit 250MHz genauso schnell ist, wie eine 9000 PRO mit 275MHz (synchron!).

Ja, mit 'nem Duron 600 vielleicht!!

LovesuckZ
2003-05-10, 19:35:33
Originally posted by Stefan Payne
Du behauptest doch ernsthaft, daß eine 9200 mit 250MHz genauso schnell ist, wie eine 9000 PRO mit 275MHz (synchron!).


Noe, dass behauptest du, dass ich dies behaupten wuerde.

Razor
2003-05-10, 19:40:14
Originally posted by LovesuckZ

hab ich mich so undeutlich ausgedrueckt? ...

:sulkoff:
Nein.
;-)

Razor

Razor
2003-05-10, 19:41:39
Originally posted by Stefan Payne

TI200:
http://service.futuremark.com/compare?2k1=6392811

Parhelia (IIRC meine abgerauchte Bulk)
http://service.futuremark.com/compare?2k1=5860289

Radeon 9000 PRO:
http://service.futuremark.com/compare?2k1=5933397

System ist angegeben, ohne Angabe des Systems, sind die Werte nutzlos, mit 'nem nForce dürften nochmal 300-500pkt drin sein ;)
Was ja schon mal ganz interessant war...
Auch wenn hier Deine CPU ein bissel zu Schwächeln scheint.
:D

Hast Du so etwas vielleicht auch mit aktiviertem AA/AF ?
Wär noch wesentlich interessanter !

Razor

Razor
2003-05-10, 19:42:46
Originally posted by nagus

und? welche cheating- treiber hast du verwendet?
Die einzig offiziell verfügbaren für den NV3x !
:D

Welche sonst ?
???

Razor

nagus
2003-05-10, 19:51:13
Originally posted by Razor

Die einzig offiziell verfügbaren für den NV3x !
:D

Welche sonst ?
???

Razor

und das sind.... *trommelwirbel* ... die 43.45 detos + integriertem 3dmark2003 und Q3 cheat, oder willst du das jetzt verneinen und behaupten nvidia optimiert nicht extrem fürs 3dmark2003?

StefanV
2003-05-10, 19:57:12
Originally posted by Razor
Hast Du so etwas vielleicht auch mit aktiviertem AA/AF ?
Wär noch wesentlich interessanter !

Razor

Da schaffte die 9000 so um die 5200 oder 5800 pkt...

Frank
2003-05-10, 20:10:57
Originally posted by nagus


ja beim 2001er schon , aber NICHT beim 2003er! nö - meine 9000pro schafft da kaum mehr wie 1000 Punkte. Soviel dazu.

Und .... o mein gott !! Es reicht mir zum spielen - genauso wie mir eine FX5200 absolut reichen würde. - siehe Razor ja auch.

Berni
2003-05-10, 20:21:14
Im Grunde isses doch so ziemlich sch****egal welche der "Lowcost"-Karten denn nun technisch gesehen aus unserer Sicht besser ist. Die meisten Karten werden -wie schon oft erwähnt- im OEM-Sektor verkauft. Und da hat
1. Nvidia eine bessere Lobby bei den Herstellern
2. Nvidia nen besseren Namen bei den Komplettrechnerendkunden vor allem weil der Chip dank DX9 den Kunden "zukunftssicherer" erscheint (auch wenns IMHO ein Trugschluss is...)
Letztendlich ist das das Wichtigste für die Quartalszahlen denn der absolute Highend-Retailsektor macht nur nen relativ kleinen Bruchteil am Umsatz aus...

nagus
2003-05-10, 21:30:46
Originally posted by Frank
nö - meine 9000pro schafft da kaum mehr wie 1000 Punkte. Soviel dazu.

Und .... o mein gott !! Es reicht mir zum spielen - genauso wie mir eine FX5200 absolut reichen würde. - siehe Razor ja auch.

das kann aber nicht stimmen:

http://service.futuremark.com/compare?2k3=706412

eine 250/200 radeon 9000 hat hier ~ 1400 punkte. die "normale" version mit 250/250 hat ca. 1450 und die 275/275Mhz version ~ 1500 ( http://service.futuremark.com/compare?2k3=712820 )

nagus
2003-05-10, 21:34:13
Originally posted by Berni
Im Grunde isses doch so ziemlich sch****egal welche der "Lowcost"-Karten denn nun technisch gesehen aus unserer Sicht besser ist. Die meisten Karten werden -wie schon oft erwähnt- im OEM-Sektor verkauft. Und da hat
1. Nvidia eine bessere Lobby bei den Herstellern
2. Nvidia nen besseren Namen bei den Komplettrechnerendkunden vor allem weil der Chip dank DX9 den Kunden "zukunftssicherer" erscheint (auch wenns IMHO ein Trugschluss is...)
Letztendlich ist das das Wichtigste für die Quartalszahlen denn der absolute Highend-Retailsektor macht nur nen relativ kleinen Bruchteil am Umsatz aus...


fragt sich nur wie lange die "bessere Lobby bei den Herstellern" noch anhält. ati hat hier schon mächtig an boden gewonnen (medion, dell, alienware, hp, etc... ) und im notebooksektor hat ati wesentlich mehr dazugewonnen als nvidia. kein wunder... 90% aller centrino notebooks werden mit ati radeon-chips ausgestattet. ati hat hier schon ~ 15-20 designwinns abgesahnt.

ach ja, es gibt noch einen grund, warum die OEMs von den FXn nicht sehr begeistert sind: nvidia hat immer noch keine offiziellen DX9 WHQL treiber released. dieser umstand wird sich aber erst in den nächsten quartalen auswirken.

aths
2003-05-11, 01:37:32
Originally posted by nagus
fragt sich nur wie lange die "bessere Lobby bei den Herstellern" noch anhält. ati hat hier schon mächtig an boden gewonnen (medion, dell, alienware, hp, etc... ) und im notebooksektor hat ati wesentlich mehr dazugewonnen als nvidia. kein wunder... 90% aller centrino notebooks werden mit ati radeon-chips ausgestattet. ati hat hier schon ~ 15-20 designwinns abgesahnt.Natürlich steht zu hoffen, dass Nvidia auch im OEM-Bereich Druck zu spüren bekommt. Die Folgen wären wohl mehr Innovation und geringere Preise.

Allerdings scheint Nvidia dort noch dermaßen stark zu sein, dass die paar übergelaufenen Kunden Nv nicht daran hindern, sich an der "Cash Cow" OEM-Produkt dumm und dämlich zu verdienen. Zum Beispiel haben sie dort bereits DX9-Technik anzubieten, wo ATI nur mit DX8 aufwarten kann. Das OEM-Segment sehe ich bei NV nicht in wirklicher Gefahr. Schön wäre es natürlich für uns Kunden, wenn das Quasi-Monopol fallen würde.

Richthofen
2003-05-11, 02:42:17
sie bieten nicht nur DX9 Technik, sondern komplette thermale Überwachung in Hardware, die bessere Bildqualität, ansprechende Performance die sich vor einer 9000 pro nicht verstecken braucht. Beim Einsatz von AA und AF in jedem Fall einer 9000pro überlegeb. Schaut euch mal die 5200er Reviews alle mal so durch. Also ich hab jetzt einige gestern und heute mal abgegrast und dort wird die 5200 mehrheitlich der 9000pro als überlegen angesehen und das zeigen auch die Benchmarks.
Und obwohl die 5200 lahm ist, so ist das AA durchaus brauchbar. In einigen Spielen kann man das 2x nutzen. Bei der 9000pro ist es gänzlich unbrauchbar und das AF sieht dank Mip Map Banding zum Kotzen aus. Auch die Signalqualität hat sich bei der gesamten FX Reihe wohl sehr deutlich verbessert. Wenn ich das noch richtig im Kopf habe, so lagen da im neuerlichen CT Test einige Karten sogar vor ATI.
Gegen die 5200 hat ATI gar nichts zu bieten. 0,0 um genau zu sein.
Da haben sie ganz schlechte Karten, was sich ja dann auch deutlich zeigt bei der installierten DX9 Basis. Nvidia hat 1,5 Mio Chips an die Hersteller verkauft in 3 Monaten. Das ist mehr als ATI nach 6 Monaten erreicht hatte. Angesichts der geilen 5200 und der sowieso größeren Kundenbasis, dürften sie ATI damit bereits im 2. Quartal hinter sich lassen. Jetzt können die Entwickler dann auch mal mit CG aktiv werden :)

aths
2003-05-11, 03:39:40
RH,

ich zweifle, dass die 5200 eine vernünftige Basis für mit Cg geschriebene Shader ist. Cg "braucht" man, um komplexe, also lange Shader mit vernünftigem Aufwand zu schreiben. Dafür fehlt dieser Karte aber jede Power. Herkömmliche Multitexturing-Spiele sind verglichen mit den NexGen-Spielen sehr anspruchslos, was "Pixelshader-Füllrate" betrifft.

mapel110
2003-05-11, 04:41:33
Originally posted by aths
RH,

ich zweifle, dass die 5200 eine vernünftige Basis für mit Cg geschriebene Shader ist. Cg "braucht" man, um komplexe, also lange Shader mit vernünftigem Aufwand zu schreiben. Dafür fehlt dieser Karte aber jede Power. Herkömmliche Multitexturing-Spiele sind verglichen mit den NexGen-Spielen sehr anspruchslos, was "Pixelshader-Füllrate" betrifft.

tja, aber laut etlichen dx9-low-cost-verfechtern hier im forum zu urteilen, werden solche mit cg geschriebenen langen shader laufen auf einer 5200er. und wenn die speed so erbärmlich ist wie mit softwarerendering. es wird laufen. das ist es angeblich, was zählt für "entwickler".
aber die diskussion hatten wir ja schon in einem dx9 thread :)

Razor
2003-05-11, 07:48:34
Originally posted by nagus

und das sind.... *trommelwirbel* ... die 43.45 detos + integriertem 3dmark2003 und Q3 cheat, oder willst du das jetzt verneinen und behaupten nvidia optimiert nicht extrem fürs 3dmark2003?
Willst Du behaupten, dass ATI das nicht tut ?
Und was soll an dem "Q3 Cheat" anders sein, als das, was ATI mit seinen 'Performace/Quality'-Modi unter AF treibt ?

Den Murks03 kommetiere ich jetzt lieber nicht, ist doch bekannt, dass dieser 'Bench' sich a) nicht einmal an die DX-Specs gehalten hat und b) zumindest in der ersten Version einen bestimmten Hersteller extremst bevorzugte. Insofern ist es absolut egal, welche Karte dort wie performt.

Bis denne

Razor

Razor
2003-05-11, 07:51:08
Originally posted by Stefan Payne

Da schaffte die 9000 so um die 5200 oder 5800 pkt...
Na ja, da hätten nich schon die Einzelwerte interessiert...
Die OC'te FX5200 'schafft' hier 5546, während sich meine OC'te gf3 mit 5204 zufrieden geben muss.

Bis denne

Razor

Razor
2003-05-11, 07:59:34
Originally posted by aths
RH,

ich zweifle, dass die 5200 eine vernünftige Basis für mit Cg geschriebene Shader ist. Cg "braucht" man, um komplexe, also lange Shader mit vernünftigem Aufwand zu schreiben. Dafür fehlt dieser Karte aber jede Power. Herkömmliche Multitexturing-Spiele sind verglichen mit den NexGen-Spielen sehr anspruchslos, was "Pixelshader-Füllrate" betrifft.
Also wenn ich das richtig verstanden habe, liegt der Haupt-Vorteil von Cg doch nicht in der Programmierung von langen Shadern (was damit sicherlich einfacher ist), sondern vielmehr darin, dass damit überhaupt erst Shader (egal welcher Länge) 'vernünftig' geschrieben werden können. Auch ist die Plattformunabhängigkeit von Cg sicherlich ein Thema (unterstützt D3D und OGL, damit auch andere Betriebssysteme ala Linux/Mac z.Bsp.).

Und ob andere Karten (egal welches Herstellers) ausreichend Power bieten, komplexe Shader in akzeptabler Geschwindigkeit auszuführen, steht auch noch in den Sternen. So kann ich derzeit beim besten Willen nicht erkennen, wie man darauf kommt, dass nur die 5200 zu langsam sei...

Bis denne

Razor

Razor
2003-05-11, 08:02:03
Originally posted by mapel110

tja, aber laut etlichen dx9-low-cost-verfechtern hier im forum zu urteilen, werden solche mit cg geschriebenen langen shader laufen auf einer 5200er. und wenn die speed so erbärmlich ist wie mit softwarerendering. es wird laufen. das ist es angeblich, was zählt für "entwickler".
aber die diskussion hatten wir ja schon in einem dx9 thread :)
Du willst also ernsthaft behaupten, dass die FX5200 so langsam ist, wie eine CPU ?
Hmmm...

Also Dawn läuft im Software-Modus mit ca. 15fpm, während Dawn Ultra mit etwa 15fps läuft...
Irgendwas kann da nicht hinkommen !
:D

Razor

mapel110
2003-05-11, 08:04:56
Originally posted by Razor
Also Dawn läuft im Software-Modus mit ca. 15fpm, während Dawn Ultra mit etwa 15fps läuft...
Irgendwas kann da nicht hinkommen !
:D

Razor

wir reden hier nicht von hersteller-erstellten techdemos.

Richthofen
2003-05-11, 11:19:47
"
RH,

ich zweifle, dass die 5200 eine vernünftige Basis für mit Cg geschriebene Shader ist. Cg "braucht" man, um komplexe, also lange Shader mit vernünftigem Aufwand zu schreiben. Dafür fehlt dieser Karte aber jede Power. Herkömmliche Multitexturing-Spiele sind verglichen mit den NexGen-Spielen sehr anspruchslos, was "Pixelshader-Füllrate" betrifft
"

Wie Demi schonmal richtig sagte. Es ist doch vöölig egal wie schnell die Karte dabei ist. Es geht um die installierte Basis. Ich bekomme ohne großen Aufwand meine Shader die ich mit CG erstelle auf jeder NV Karte zum laufen seit dem neuen Lineup ohne große Klimmzüge zu machen. Nebenbei bietet mir das Tool einige Annehmlichkeiten zb Direct3D und OGL portierung, und ich kann ähnlich wie in anderen Programmiersprachen programmieren. Als kleinen Bonus hole ich damit auch noch immens viel aus der Hardware.
Nvidia wird die Strategie beibehalten verlass dich drauf. Das war ein Signal an die Gameindustrie und ich erwarte, dass sich die Sache mit dem NV40 wiederholt.
Die 5200 ist genau die Motivation die ich brauche um das Tool einzusetzen und für den Spieler hat das den Vorteil, dass die Spiele jetzt zumindest mal grafisch aufgepeppelt werden auf den neuesten Stand. Etwas was bei DX8 nicht ging, weil es eben genau diese Basis nicht gab. Im für die Spieleindustrie relevanten Desktop Grafikkarten Markt steht NV mit über 60% Marktanteil so fett da, da kann man schon davon ausgehen, dass sie sich ihre Ideen durchsetzen und da ist die 5200 nunmal genau die richtige Karte.

Unregistered
2003-05-11, 16:08:04
Originally posted by Richthofen
"
RH,

ich zweifle, dass die 5200 eine vernünftige Basis für mit Cg geschriebene Shader ist. Cg "braucht" man, um komplexe, also lange Shader mit vernünftigem Aufwand zu schreiben. Dafür fehlt dieser Karte aber jede Power. Herkömmliche Multitexturing-Spiele sind verglichen mit den NexGen-Spielen sehr anspruchslos, was "Pixelshader-Füllrate" betrifft
"

Wie Demi schonmal richtig sagte. Es ist doch vöölig egal wie schnell die Karte dabei ist. Es geht um die installierte Basis. Ich bekomme ohne großen Aufwand meine Shader die ich mit CG erstelle auf jeder NV Karte zum laufen seit dem neuen Lineup ohne große Klimmzüge zu machen. Nebenbei bietet mir das Tool einige Annehmlichkeiten zb Direct3D und OGL portierung, und ich kann ähnlich wie in anderen Programmiersprachen programmieren. Als kleinen Bonus hole ich damit auch noch immens viel aus der Hardware.
Nvidia wird die Strategie beibehalten verlass dich drauf. Das war ein Signal an die Gameindustrie und ich erwarte, dass sich die Sache mit dem NV40 wiederholt.
Die 5200 ist genau die Motivation die ich brauche um das Tool einzusetzen und für den Spieler hat das den Vorteil, dass die Spiele jetzt zumindest mal grafisch aufgepeppelt werden auf den neuesten Stand. Etwas was bei DX8 nicht ging, weil es eben genau diese Basis nicht gab. Im für die Spieleindustrie relevanten Desktop Grafikkarten Markt steht NV mit über 60% Marktanteil so fett da, da kann man schon davon ausgehen, dass sie sich ihre Ideen durchsetzen und da ist die 5200 nunmal genau die richtige Karte.

aths
2003-05-11, 17:14:03
Originally posted by Richthofen
Wie Demi schonmal richtig sagte. Es ist doch vöölig egal wie schnell die Karte dabei ist. Es geht um die installierte Basis. Das ist nicht "völlig" egal. Per Reference Rasterizer könnte man DX9-Shader auch auf DX7-Karten laufen lassen, sogar mit 9x Anti-Aliasing. Leider wäre das doch ziemlich langsam.

Bekanntlich werden "richtige" DX9-Programme leistungsfressender als Doom3. Und man kann dann ja mal gucken, wie "schnell" Doom3 auf der 5200 läuft. Die 5200 hat dann noch die hässliche Eigenschaft, hier und da in einer 64-Bit-Version vertreten zu sein. Die Karte ist für die neuen Spiele nicht gedacht. Dass diese Spiele auf dieser Karte immerhin starten, gottchen, das werden sie für lange Zeit auf jeder DX8-Karte auch.
Originally posted by Richthofen
Die 5200 ist genau die Motivation die ich brauche um das Tool einzusetzen und für den Spieler hat das den Vorteil, dass die Spiele jetzt zumindest mal grafisch aufgepeppelt werden auf den neuesten Stand. Etwas was bei DX8 nicht ging, weil es eben genau diese Basis nicht gab. Dafür gibts auch andere Erklärungen. Zum Beispiel ein Blick auf DAS Feature von DX7: HW T&L. Wurde dann spärlich eingesetzt, ohne dass man so richtige Vorteile hatte. Einige Programme wurden ein bisschen schneller, das wars. Jetzt, der Vertex Shader hingegen, der ist schon brauchbar. Die Pixelshader von DX8 werden ebenso, spärlich, hier und da mal eingesetzt, dank der Fähigkeit 4 Texturen pro Pass zu applizieren wird man ein bisschen schneller. Die DX9-Shader sind deutlich brauchbarer und werden deshalb zu richtigem "Nutzen" führen.

ow
2003-05-11, 17:29:34
Originally posted by aths

Bekanntlich werden "richtige" DX9-Programme leistungsfressender als Doom3........

Dass diese Spiele auf dieser Karte immerhin starten, gottchen, das werden sie für lange Zeit auf jeder DX8-Karte auch.



Das werden sie nicht.
"Richtige" DX9-Programme werden nur auf DX9 Hardware starten.

AlfredENeumann
2003-05-11, 17:41:14
Originally posted by ow


Das werden sie nicht.
"Richtige" DX9-Programme werden nur auf DX9 Hardware starten.

Für wann erwartest du DX9-only-Titel ?

Crushinator
2003-05-11, 17:57:52
Originally posted by ow
...
"Richtige" DX9-Programme werden nur auf DX9 Hardware starten. ...oder auf Treibern die eine solche Hardware "suggerieren". ;)

ow
2003-05-11, 18:05:42
Originally posted by crushinator
...oder auf Treibern die eine solche Hardware "suggerieren". ;)

Nein, ich meinte echte DX9 Titel, die einen DX9 Chip voraussetzen.

Demirug
2003-05-11, 18:14:12
aths, das du jetzt mit dem RefRast kommst ist aber jetzt nicht dein ernst, oder?

Dawn läuft selbst auf einer 5200/64 noch recht flüssig. Dawn Ultra ist aber schon sehr langsam.

HT&L bringt nur was wenn man die Objekte mit mehr Polys aufbaut (bzw mehr Poyls auf einen Schlag übergibt). HT&L kann bei Low-Poly Geometry leider nicht viel machen.

Und warum hat keiner Highpoly Geometry gebaut? Weil es zuwenige Rechner gegeben hat die damit was anfangen gekonnt hätten.

Das gleiche bei den Pixelshader. Zuwenige Karten die es überhaupt darstellen können ergo läst man es bleiben damit Effekte zu bauen die mehr als eine Version mit weniger Passes sind.

Und bei den DX9 Shadern werden wir das gleiche haben. Erst wenn es genügend Hardware gibt lohnt es sich auch dafür etwas spezielles zu machen. Aus Multipass Singelpass machen ist eben so schön einfach und viele Engines haben dafür sogar fertige Tools dabei bzw machen es sowieso automatisch.

Demirug
2003-05-11, 18:16:56
Originally posted by ow


Nein, ich meinte echte DX9 Titel, die einen DX9 Chip voraussetzen.

naja crushinator hat schon irgendwie recht. Wenn der Treiber die entsprechenden Caps meldet reicht das auch aus. Aber ich glaube der Hersteller der das bei den Pixelshader ohne echte Hardwareunterstützung macht wird seines Lebens nicht mehr froh.

ow
2003-05-11, 18:20:59
Originally posted by Demirug


naja crushinator hat schon irgendwie recht. Wenn der Treiber die entsprechenden Caps meldet reicht das auch aus.

Sicher, nur wo sollte darin der Sinn liegen?

Es wird wohl kaum je ein Hersteller Caps Bits melden, für die er keine HW-Unterstützung hat.

Demirug
2003-05-11, 18:22:39
Originally posted by AlfredENeumann


Für wann erwartest du DX9-only-Titel ?

etwa 22-26 Monate nachdem ATI aufgehört hat Lowcost Hardware mit DX8 zu verkaufen.

Demirug
2003-05-11, 18:23:18
Originally posted by ow


Sicher, nur wo sollte darin der Sinn liegen?

Es wird wohl kaum je ein Hersteller Caps Bits melden, für die er keine HW-Unterstützung hat.

bei den Vertexshadern wird das gemacht und bei OpenGL ist das auch nicht unüblich das man Extensions unterstützt die man eigentlich gar nicht beherscht.

Wir werden sehen das es plötzlich massenhaft OpenGL 2.0 Treiber gibt. ;)

AlfredENeumann
2003-05-11, 18:43:35
Originally posted by Demirug


etwa 22-26 Monate nachdem ATI aufgehört hat Lowcost Hardware mit DX8 zu verkaufen.

Achso ist das. Ein weil NV soviel GF4MX-Karten verkauft hat wird es nie DX8 only Titel geben, oder ?

Crushinator
2003-05-11, 18:46:05
Originally posted by ow
Nein, ich meinte echte DX9 Titel, die einen DX9 Chip voraussetzen. Dann meintest Du mit "sie werden darauf erst starten" wohl eher, daß sie darauf "vernünftig" liefen? :| Das kam vorhin jedenfalls anders rüber.

LovesuckZ
2003-05-11, 18:47:25
Originally posted by AlfredENeumann
Achso ist das. Ein weil NV soviel GF4MX-Karten verkauft hat wird es nie DX8 only Titel geben, oder ?

Warum sollte Nvidia auch DX8 Karten im Low-End verkaufen, die Leistung reicht doch sowieso nicht dafuer aus. Nvidia hat alles richtig gemacht. Leistung stimmte und die Karte war auf der hoehe der Zeit.

Demirug
2003-05-11, 18:48:51
Originally posted by AlfredENeumann


Achso ist das. Ein weil NV soviel GF4MX-Karten verkauft hat wird es nie DX8 only Titel geben, oder ?

Doch, dieser Zeitraum kann aber durchaus sehr kurz werden wenn ATI jetzt schnell eine Lowcost DX9 Karte bringt. Soll heisen das wer in der nächsten Zeit eine Technologieentscheidung treffen muss wird sehr wahrscheinlich auf DX8 setzen. Ausnahmen sind dabei natürlich echte Massenspiele weil man dort ja von noch weniger ausgeht (teilweise nur 2D Grafik).

EDIT: Deswegen ist die Kritik der GF4MX als Technologiebremse auch durchaus gerechtfertigt.

LovesuckZ
2003-05-11, 18:51:08
Originally posted by Demirug
EDIT: Deswegen ist die Kritik der GF4MX als Technologiebremse auch durchaus gerechtfertigt.

Ist die 9200 auch eine "Technologiebremse" ?

Crushinator
2003-05-11, 18:52:02
Originally posted by Demirug
[...DX9 Spiele]
etwa 22-26 Monate nachdem ATI aufgehört hat Lowcost Hardware mit DX8 zu verkaufen. Kenau, weg mit dem Dreck! Man soll doch bitte eine 9400 (R300 abkömmling 0,15µ @250/250 + 4x1) auf den Markt werfen für ~110,- EUR. Ich bezweifle jedoch langsam, daß sie soviel Weitblick hätten. :(

Crushinator
2003-05-11, 18:55:30
Originally posted by AlfredENeumann
Achso ist das. Ein weil NV soviel GF4MX-Karten verkauft hat wird es nie DX8 only Titel geben, oder ? Er hat aber prinzipiell recht wobei auch er übersieht, daß auch eine FX5200 NICHT schneller zu echten DX9-Games führt. :|

Crushinator
2003-05-11, 18:58:17
Originally posted by LovesuckZ
Ist die 9200 auch eine "Technologiebremse" ? Guter Einwurf! :D Ein Entwickler sieht selbst in der R300 eine "Technologiebremse" nur weil mit NV3X theoretisch eben mehr möglich ist.

Demirug
2003-05-11, 18:59:55
Originally posted by LovesuckZ


Ist die 9200 auch eine "Technologiebremse" ?

Ja das könnte man so sagen. Im gleichen Sinn wie die GF4MX eine Bremse für DX8 ist.

StefanV
2003-05-11, 19:44:19
Originally posted by Demirug
aths, das du jetzt mit dem RefRast kommst ist aber jetzt nicht dein ernst, oder?

Naja, mit dem Ref Rast kann man ein DX9 Spiel auf jeden Fall starten.

Der Ref Rast funzt ja immer, nur ist die Performance bescheidenst, so daß er heute völlig unbrauchbar ist, was aber nicht immer der Fall war :)

Ich hab das als 'kleine Anspielung' auf die Aussage, daß die Performance unwichtig ist, verstanden :)

StefanV
2003-05-11, 19:49:13
Originally posted by Demirug
etwa 22-26 Monate nachdem ATI aufgehört hat Lowcost Hardware mit DX8 zu verkaufen.

Abwarten und Tee rauchen...

Vielleicht ist der 9200 kein allzu langes Leben beschert...

Also ersteinmal abwarten, in welchen Preisregionen sich die 9600 np einpendelt :)

BTW: was ist eigentlich mit der Radeon 9200 PRO??
Wo ist die denn abgeblieben??
Wie wird die getaktet sein??

Seltsam, daß es darüber keinerlei Infos gibt :|

StefanV
2003-05-11, 19:53:09
Originally posted by LovesuckZ
Ist die 9200 auch eine "Technologiebremse" ?

...nicht so sehr wie die GF4 MX, da die 9200 zumindest PS1.4 unterstützt, was ja auch diverse Effekte unterstützt, für die sonst PS2 benötigt werden würde.

Und da alle DX9 Karten auch PS1.4 beherrschen müssen...

Demirug
2003-05-11, 19:57:48
Originally posted by crushinator
Guter Einwurf! :D Ein Entwickler sieht selbst in der R300 eine "Technologiebremse" nur weil mit NV3X theoretisch eben mehr möglich ist.

So gesehen ist jeder Chip eine Technologiebremse. Aber 2.0 Shader als Basis geht ja schon mal in Ordnung. Die 2.x des NV3X kann man ja wieder zum einsparen benutzten.

StefanV
2003-05-11, 20:04:58
Originally posted by Demirug


Doch, dieser Zeitraum kann aber durchaus sehr kurz werden wenn ATI jetzt schnell eine Lowcost DX9 Karte bringt. Soll heisen das wer in der nächsten Zeit eine Technologieentscheidung treffen muss wird sehr wahrscheinlich auf DX8 setzen. Ausnahmen sind dabei natürlich echte Massenspiele weil man dort ja von noch weniger ausgeht (teilweise nur 2D Grafik).

EDIT: Deswegen ist die Kritik der GF4MX als Technologiebremse auch durchaus gerechtfertigt.

[spekulationsmodus on]

Sobald die Herstellungskosten (für ATI) für die Radeon 9600 in einigermaßen erträglichem Rahmen sind, so könnte es durchaus sein, daß ATI die R9200 noch abverkauft und sie langsam durch die 9600 ersetzt.

Das PCB scheint ja günstiger herzustellen zu sein als das der 9200...

[spekulationsmodus off]

Demirug
2003-05-11, 20:07:13
Originally posted by Stefan Payne


...nicht so sehr wie die GF4 MX, da die 9200 zumindest PS1.4 unterstützt, was ja auch diverse Effekte unterstützt, für die sonst PS2 benötigt werden würde.

Bremse ist Bremse und sie verhindert DX9 Only. Ein 2.0 Effekt geht nur mit >= 2.0. Wenn es auch mit 1.4 geht ist es kein 2.0 Effekt. Es gehen aber durchaus ein paar Dinge die mit 1.1-1.3 nicht direkt machbar waren.

Und da alle DX9 Karten auch PS1.4 beherrschen müssen...

ja und? Es könnte dann durchaus sein das es auch >= DX8.1 (PS 1.4) only Titel geben wird. Im Moment kann man aber die PS 1.1 Basis (auch wenn sie nicht unbedingt gross ist) noch nicht ganz ignorieren. Hier spielt gerade die GF4TI die Bremse.

Crushinator
2003-05-11, 20:10:57
Originally posted by Demirug
Bremse ist Bremse und sie verhindert DX9 Only. Ein 2.0 Effekt geht nur mit >= 2.0. Wenn es auch mit 1.4 geht ist es kein 2.0 Effekt. Es gehen aber durchaus ein paar Dinge die mit 1.1-1.3 nicht direkt machbar waren. Du weichst aber sehr geschickt der These aus, daß auch ein FX5200 nicht die "bessere" Lösung ist, um schneller zu DX9-Spielen zu kommen. ;)

ow
2003-05-11, 20:14:48
Originally posted by crushinator
Du weichst aber sehr geschickt der These aus, daß auch ein FX5200 nicht die "bessere" Lösung ist, um schneller zu DX9-Spielen zu kommen. ;)

???

DX8 Karten werden wohl kaum zu schneller Verbreitung von DX9-only Titeln führen, oder?

StefanV
2003-05-11, 20:16:48
Originally posted by Demirug


Bremse ist Bremse und sie verhindert DX9 Only. Ein 2.0 Effekt geht nur mit >= 2.0. Wenn es auch mit 1.4 geht ist es kein 2.0 Effekt. Es gehen aber durchaus ein paar Dinge die mit 1.1-1.3 nicht direkt machbar waren.



ja und? Es könnte dann durchaus sein das es auch >= DX8.1 (PS 1.4) only Titel geben wird. Im Moment kann man aber die PS 1.1 Basis (auch wenn sie nicht unbedingt gross ist) noch nicht ganz ignorieren. Hier spielt gerade die GF4TI die Bremse.

1. stimmt, stimmt auch.
Nur kann man ja für das meiste PS1.4 Shader nehmen und für diverse Eye Candys den PS2.0.
Wenn was mit PS1.4 nicht möglich ist, dann hat man halt pech gehabt...
Dafür sollte die 9000PRO allerdings noch genügend Leistung für ein paar DX8.1 Only Titel haben, während man bei der FX5200 bei DX9 Titeln wohl mit der super hochauflösenden MCGA Auflösung klarkommen muß *eg*

2. stimmt auch wieder.
In dem Punkt sind die GF3 und GF4TI die Technologiebremsen, da die R200 hier deutlich überlegen ist...

Crushinator
2003-05-11, 20:17:17
Originally posted by Stefan Payne
Sobald die Herstellungskosten (für ATI) für die Radeon 9600 in einigermaßen erträglichem Rahmen sind, so könnte es durchaus sein, daß ATI die R9200 noch abverkauft und sie langsam durch die 9600 ersetzt. Ja, und solange "ruleZ" die FX5200! Das ist das "Problem" -> die Gelegenheit verpaßt rechtzeitig massenweise billige DX9-Chips herzustellen.

StefanV
2003-05-11, 20:17:25
Originally posted by ow
???

DX8 Karten werden wohl kaum zu schneller Verbreitung von DX9-only Titeln führen, oder?

DX9 Karten, die mit 2.0 Shadern zu lahm sind aber auch nicht...

LovesuckZ
2003-05-11, 20:17:59
Originally posted by Stefan Payne
...nicht so sehr wie die GF4 MX, da die 9200 zumindest PS1.4 unterstützt, was ja auch diverse Effekte unterstützt, für die sonst PS2 benötigt werden würde.


Eine 9200 ist aber auch nur eine DX8 Karte und damit einen technologischen Schritt hinter der FX5200. So wie es die GF4MX zur TI Serie war, ist es die 9200 zur r350 Serie. Da die 9200 nun PS.14 unterstuetzt ist schoen, nur das totschlagargument gegen der 5200 kann man auf diese Karte übernehmen: Zu langsam fuer DX8 Spiele (3DMark2003 ist schoenes Beispiel).
Ausserdem schließe ich mich dem hier an:
Ein 2.0 Effekt geht nur mit >= 2.0. Wenn es auch mit 1.4 geht ist es kein 2.0 Effekt. Demirug

LovesuckZ
2003-05-11, 20:18:41
Originally posted by Stefan Payne
DX9 Karten, die mit 2.0 Shadern zu lahm sind aber auch nicht...

Hm, Ergo alle verfuegbaren DX9 Karten?

StefanV
2003-05-11, 20:19:00
Originally posted by crushinator
Ja, und solange "ruleZ" die FX5200! Das ist das "Problem" -> die Gelegenheit verpaßt rechtzeitig massenweise billige DX9-Chips herzustellen.

Naja, ATI hätte ja noch die Möglichkeit einen halben RV350 rauszubringen...
Nur wollen wir wirklich einen Chip, der die Pipeline Architektur einer Riva TNT hat, heute noch haben??
Dazu noch ein VS...

Also daß die Karte mit Pauken und Trompeten untergehen wird, das brauch ich wohl nicht zu sagen, oder ?? :)

StefanV
2003-05-11, 20:20:11
Originally posted by LovesuckZ
Hm, Ergo alle verfuegbaren DX9 Karten?

Woher weißt du, daß die Radeon 9700/9800 echte DX9 Spiele nicht packen?? :naughty:

Zeckes Krisatallkugel geklaut??

ow
2003-05-11, 20:27:35
Originally posted by Stefan Payne


DX9 Karten, die mit 2.0 Shadern zu lahm sind aber auch nicht...


Doch Stefan. Genau dazu sind diese Karten gut. Das zeigt übrigens auch der Poll hier:

http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=69268

Demirug
2003-05-11, 20:28:33
Originally posted by crushinator
Du weichst aber sehr geschickt der These aus, daß auch ein FX5200 nicht die "bessere" Lösung ist, um schneller zu DX9-Spielen zu kommen. ;)

was soll ich dazu sagen?

NVIDIA hat diesesmal seinen Teil für die schnelle Verbreitung der Technologie geleistet. Jetzt ist eben ATI dran. Es wird sich zeigen wie viel erfolg ATI mit seinen DX8 Lösungen noch hat. Sollte dieser nicht sehr berauschend sein kann man die Karten möglicherweise ignorieren. Aber die Hoffnung habe ich nicht unbedingt.

ow
2003-05-11, 20:29:48
Originally posted by Stefan Payne

Also daß die Karte mit Pauken und Trompeten untergehen wird, das brauch ich wohl nicht zu sagen, oder ?? :)

Hast du immer noch nicht begriffen, dass eine Technologie-Version eine gewisse Marktdurchdringung unabhängig von der Leistung haben muss, um als Technologie-Basis für Games eingesetzt zu werden?

Crushinator
2003-05-11, 20:30:06
Originally posted by ow
DX8 Karten werden wohl kaum zu schneller Verbreitung von DX9-only Titeln führen, oder? Weder das Eine noch das Andere werden dazu führen. Das Problem sitzt noch tiefer, nämlich darin daß selbst jetzt noch nicht mal ordentlich viele DX8-Spiele verfügbar sind. DX9-Only Spiele werden sowieso nicht in absehbarer Zukunft marktfähig sein DX9-fähige dagegen schon, und das auch nur dann, wenn das die Konkurrenzsituation im Spielesektor nicht anders erlaubt.

ow
2003-05-11, 20:34:09
Originally posted by Stefan Payne


Woher weißt du, daß die Radeon 9700/9800 echte DX9 Spiele nicht packen?? :naughty:




Kennst du eine DX7 Karte der ersten Generation, die die gerade erscheinenden DX7 Titel 'packt'?

->
"... während man bei der R300/350 bei DX9 Titeln wohl mit der super hochauflösenden MCGA Auflösung klarkommen muß.."

StefanV
2003-05-11, 20:35:43
Originally posted by LovesuckZ
Eine 9200 ist aber auch nur eine DX8 Karte und damit einen technologischen Schritt hinter der FX5200. So wie es die GF4MX zur TI Serie war, ist es die 9200 zur r350 Serie. Da die 9200 nun PS.14 unterstuetzt ist schoen, nur das totschlagargument gegen der 5200 kann man auf diese Karte übernehmen: Zu langsam fuer DX8 Spiele (3DMark2003 ist schoenes Beispiel).
Ausserdem schließe ich mich dem hier an:
Ein 2.0 Effekt geht nur mit >= 2.0. Wenn es auch mit 1.4 geht ist es kein 2.0 Effekt. Demirug

1. dafür hat die 9200 den längeren Balken...
Wirklich schnell sind beide aber auch nicht, die 9200 ist auch noch bei Shadern schneller...

2. tja, die GF4 MX war auch etwas spät dran, weswegen man NV auch fast gehängt hat...
Die 9200 kannst du damit nicht wirklich vergleichen, da der Unterschied zwischen DX7 und DX8 etwas größer als der von DX8 und DX9 ist...

3. schon wieder in Zeckes geklaute Kristallkugel geschaut??
Dummerweise könnte gerade bei DX8.1 Spielen der Fall eintreten, daß die 9200 die 5200 recht deutlich plättet, wenn NV nicht gerade einen Treiber schraubt, wie an den 3DMark03 Wuntertreibern...

4. ah, jetzt auf einmal??
Früher gehörtest du doch zu der Gruppe, die dem 3Dmark 03 die Existensberechtigung abgesprochen haben...

5. tja, gibt auch einige Dinge, die ATI mit dem R300 beherrscht, die aber im NV30 nicht gehen...

ow
2003-05-11, 20:36:41
Originally posted by crushinator
Weder das Eine noch das Andere werden dazu führen. Das Problem sitzt noch tiefer, nämlich darin daß selbst jetzt noch nicht mal ordentlich viele DX8-Spiele verfügbar sind.

???

Das ist doch exakt dasselbe Problem nur eine Generation vorverlagert.
Es gibt derzeit keine DX8-only Titel, weil es noch massenhaft DX7-HW auf dem Markt gibt.
Aber die werden mit der Zeit verschwinden und genau dazu ist die 5200 gut.

StefanV
2003-05-11, 20:38:02
Originally posted by ow



Kennst du eine DX7 Karte der ersten Generation, die die gerade erscheinenden DX7 Titel 'packt'?

->
"... während man bei der R300/350 bei DX9 Titeln wohl mit der super hochauflösenden MCGA Auflösung klarkommen muß.."

Was hat DX7 mit DX9 zu tun, bzw die Titel??

Hast du Lovesux Zeckes Kristallkugel entwendet, oder woher weißt du, daß das so sein wird ??

ow
2003-05-11, 20:42:33
Für SP:

Originally posted by ow


Hast du immer noch nicht begriffen, dass eine Technologie-Version eine gewisse Marktdurchdringung unabhängig von der Leistung haben muss, um als Technologie-Basis für Games eingesetzt zu werden?

Crushinator
2003-05-11, 20:43:25
Originally posted by Demirug
NVIDIA hat diesesmal seinen Teil für die schnelle Verbreitung der Technologie geleistet. Jetzt ist eben ATI dran. Es wird sich zeigen wie viel erfolg ATI mit seinen DX8 Lösungen noch hat. Sollte dieser nicht sehr berauschend sein kann man die Karten möglicherweise ignorieren. Aber die Hoffnung habe ich nicht unbedingt. Nichts gegen Deine nachvollziehbaren Argumente, aber was hindert die Entwickler denn daran, jetzt schon DX9-fähige Spiele auf den Markt zu werfen? In meinen Augen gar nichts! Denn die Erfahrung zeigt, daß der Verbraucher sich dann schon die entsprechenden Karten holt. Bisher hat "Software sells Hardware" immer besser funktioniert als andersrum -> siehe idsoftware im postiven und Microsoft im (für die Meisten) negativen Sinne.

ow
2003-05-11, 20:45:25
Originally posted by crushinator
Nichts gegen Deine nachvollziehbaren Argumente, aber was hindert die Entwickler denn daran, jetzt schon DX9-fähige Spiele auf den Markt zu werfen?


Spiele produzieren, die auf weniger als (geschätzten) 2% der HW-Basis laufen?

Ist jetzt nicht dein Ernst, oder?

Die Spielschmiede, die das versucht kann gleich dicht machen.

StefanV
2003-05-11, 20:45:41
@ow

Deine Kommentare sind sehr hilfreich, dankeschön...
Durch das Widerholen von Aussagen ändern sich die Aussagen nicht, außerdem wäre es schön, wenn du mich nicht so anmachen würdest, nur weil ich anderer Meinung bin als du.

StefanV
2003-05-11, 20:46:41
Originally posted by ow



Spiele produzieren, die auf weniger als (geschätzten) 2% der HW-Basis laufen?

Ist jetzt nicht dein Ernst, oder?

Die Spielschmiede, die das versucht kann gleich dicht machen.

Huch, Origin Systems lebt ja noch, sowas aber auch...

Waren die nicht dafür bekannt, das sie Spiele proggen, die erst auf Rechnern der nächsten Generation vernünftig laufen??

Besonders das Team um Chris Roberts...

ow
2003-05-11, 20:49:22
hmm.....scheint, als hätte SP keine Argumente mehr....

Crushinator
2003-05-11, 20:51:10
Originally posted by ow
Es gibt derzeit keine DX8-only Titel, weil es noch massenhaft DX7-HW auf dem Markt gibt. Aber die werden mit der Zeit verschwinden und genau dazu ist die 5200 gut. Ansatz richtig, Umsetzung für'n A****! Denn mit der FX5200 haben wir jetzt dasselbe Problem wie damals mit den ersten DX8-Karten -> Teufelskreis. Versteht mich nicht falsch, ich will nur darauf hinaus, daß es auf alle Fälle mehr zur Verbreitung von DX9-Spielen dienlich wäre, wenn es keine 5200 sondern nur noch FX5600/R9600 bzw. aufwärt gäbe.

LovesuckZ
2003-05-11, 20:53:49
Originally posted by crushinator
Ansatz richtig, Umsetzung für'n A****! Denn mit der FX5200 haben wir jetzt dasselbe Problem wie damals mit den ersten DX8-Karten -> Teufelskreis.

Du meinst die zu schnelle technologische Entwicklung?

ow
2003-05-11, 20:54:58
Originally posted by crushinator
Ansatz richtig, Umsetzung für'n A****! Denn mit der FX5200 haben wir jetzt dasselbe Problem wie damals mit den ersten DX8-Karten -> Teufelskreis. Versteht mich nicht falsch, ich will nur darauf hinaus, daß es auf alle Fälle mehr zur Verbreitung von DX9-Spielen dienlich wäre, wenn es keine 5200 sondern nur noch FX5600/R9600 bzw. aufwärt gäbe.


Ich denke, die Leistung ist da egal. Mit echten DX9-only Titeln rechne ich nicht vor Mitte/Ende 2005, bis dahin ist wohl von R3xx/4xx und NV3x/4x nicht mehr die Rede.

mapel110
2003-05-11, 20:55:39
Originally posted by LovesuckZ


Du meinst die zu schnelle technologische Entwicklung?

eher die zu lahme verbreitung von fillrate fürs low end.

Crushinator
2003-05-11, 20:57:40
Originally posted by ow Spiele produzieren, die auf weniger als (geschätzten) 2% der HW-Basis laufen?
Ist jetzt nicht dein Ernst, oder?
Die Spielschmiede, die das versucht kann gleich dicht machen. über 3 Millionen DX9-Hardware beider Hersteller ist also keine Basis? ;D Lieber ow, ich habe keine Lust mich auf das selbe Niveaue zu begeben, weil ich eine "vernünftige" Diskussion führen möchte. Wenn Du nur weiter so nur Position für Hersteller XYZ beziehen möchtest, dann bleibe ich lieber auf'm Teppich und diskutiere mit den Anderen. ;)

ow
2003-05-11, 20:59:56
Originally posted by crushinator
über 3 Millionen DX9-Hardware beider Hersteller ist also keine Basis? ;)

korrekt. das ist praktisch nichts.
da wird sich kein Spielehersteller derzeit drum kümmern. weil es sich nicht lohnt.

Crushinator
2003-05-11, 21:00:07
Originally posted by LovesuckZ
Du meinst die zu schnelle technologische Entwicklung? Nein, ich meine daß man jetzt durchaus bessere Hardware im Petto hat und trotzdem mit sinnlosen Karten im Low-Cost operiert -> Wohlwissend, daß zu 80% eben diese Sinnlosen gekauft werden.

LovesuckZ
2003-05-11, 21:01:11
Originally posted by crushinator
über 3 Millionen DX9-Hardware beider Hersteller ist also keine Basis? ;D

Wieviel werkelt davon in den Rechnern? Das ist die frage. wenn eine 1 Million noch bei den Partner sind und eine halbe Million im laden und erst 1.5 Millionen eine gekauft haben, dann sieht es wieder anders aus...

ow
2003-05-11, 21:01:38
Originally posted by crushinator
Nein, ich meine daß man jetzt durchaus bessere Hardware im Petto hat und trotzdem mit sinnlosen Karten im Low-Cost operiert -> Wohlwissend, daß zu 80% eben diese Sinnlosen gekauft werden.


Die Karten sind nicht sinnlos sondern dienen zur weiten Verbreitung von DX9 und damit zu schnellerem Erscheinen von DX9-only Titeln.

LovesuckZ
2003-05-11, 21:02:45
Originally posted by crushinator
Nein, ich meine daß man jetzt durchaus bessere Hardware im Petto hat und trotzdem mit sinnlosen Karten im Low-Cost operiert -> Wohlwissend, daß zu 80% eben diese Sinnlosen gekauft werden.

Du musst aber auch alles aus der Sicht der Entwickle sehen: jedes produkt muss noch genug Profit abschlagen. Natuerlich waere es ein leichtes, eine 9500/5600/9600 oder hoeher in das Preissegment unter 100€ zu druecken, doch ob das wirtschaftlich so klug waere...

Crushinator
2003-05-11, 21:03:45
Originally posted by ow da wird sich kein Spielehersteller derzeit drum kümmern. weil es sich nicht lohnt. Ich habe den Eindruck, daß Du noch nicht mitbekommen hast, daß ich DX9-fähige meine und NICHT Only. ;)

ow
2003-05-11, 21:08:08
Originally posted by crushinator
Ich habe den Eindruck, daß Du noch nicht mitbekommen hast, daß ich DX9-fähige meine und NICHT Only. ;)


und wieso bleibst du nicht beim topic?
es ging hier die ganze zeit um DX9-only.
aber egal.

was für Nachteile soll die 5200 denn in DX9-fähigen Titeln haben?

wenn´s zu langsam wird muss man auf jeder Karte eyecandy reduzieren, im Falle einer 5200 wären das wohl zuerst die 2.0 Shader.
Dann läuft sie eben als DX8 Karte, und?

Crushinator
2003-05-11, 21:09:05
Originally posted by LovesuckZ
Du musst aber auch alles aus der Sicht der Entwickle sehen: jedes produkt muss noch genug Profit abschlagen. Natuerlich waere es ein leichtes, eine 9500/5600/9600 oder hoeher in das Preissegment unter 100€ zu druecken, doch ob das wirtschaftlich so klug waere... Wer zwingt sie denn überhaupt das 100,- EUR Segment zu bedienen? Ja richtig, das Bedürfnis mit - sehr übertrieben ausgedrückt - "Dreck" viel Gewinn zu erzielen, und genau das prager' ich an.

LovesuckZ
2003-05-11, 21:11:47
Originally posted by crushinator
Wer zwingt sie denn überhaupt das 100,- EUR Segment zu bedienen? Ja richtig, das Bedürfnis mit - sehr übertrieben ausgedrückt - "Dreck" viel Gewinn zu erzielen, und genau das prager' ich an.

Eigentlich war jede Low-End Karte "Dreck". Ob nun Gf2MX200, GF4MX oder 9000. alle waeren sie nach deiner meinernung "dreck".
Einzig allein die 9100 sticht hervor, was jedoch nicht verwunderlich ist, fuer eine High-End Karte, die nun als Low-End herhalten muss.

Demirug
2003-05-11, 21:15:39
da ich keine Lust habe jeden einzeln zu quote ein Sammelpost.

1. "Software sells Hardware". Die Beispiele die ihr gebracht habt sind zwar schön passen hier aber nicht. Die Technologie ist bei allen Beispielen nicht wirklich Highend gewesen sondern es wurde/wird lediglich Power gebraucht. Auch bei DOOM III ist das nicht anders. Basis-Technologie ist DX7.

2. DX9 fähig heist lediglich das mit DX9 Mitteln die gleichen Effekte wie man sie auch für DX7 hat nachgebaut werden + ein bischen Eyecandy. Für das Zusammenfassen und umwandeln von DX7 Multipass Effekten in DX8 und DX9 Shader haben die gute (faulen) Entwickler tools die das aleine machen.

3. 3 Millionen sind wirklich nicht sonderlich viel und die sind ja noch nicht mal vollständig abverkauft. Wir hatten Anfang des Jahres weniger als 5% DX8 Hardware im Markt ob es DX8-Karten schon so lange gibt.

Crushinator
2003-05-11, 21:16:40
Originally posted by ow
und wieso bleibst du nicht beim topic?
es ging hier die ganze zeit um DX9-only.
aber egal. Nein, es ging meinerseits die ganze Zeit um die Verlogenheit, daß DX8-Karten es "verhindern" DX9-fähige Spiele rauszubringen.

was für Nachteile soll die 5200 denn in DX9-fähigen Titeln haben?

wenn´s zu langsam wird muss man auf jeder Karte eyecandy reduzieren, im Falle einer 5200 wären das wohl zuerst die 2.0 Shader.
Dann läuft sie eben als DX8 Karte, und? Ich liebe es, wenn man sich selbst die Antworten gibt. :D Also, wenn die 5200 für 2.0 Shader viel zu langsam ist, darf man nicht mit der Argumentation kommen, daß nur die DX8-Karten die angesprochenen DX9-Spiele verhindern.

Crushinator
2003-05-11, 21:19:25
Originally posted by Demirug
3. 3 Millionen sind wirklich nicht sonderlich viel und die sind ja noch nicht mal vollständig abverkauft. Wir hatten Anfang des Jahres weniger als 5% DX8 Hardware im Markt ob es DX8-Karten schon so lange gibt. *den Eindruck nicht loswerd, daß Demirug vom Gesamtmarkt auf Gamer-PC schliessen will* :|

ow
2003-05-11, 21:20:04
@crushinator:

es ging hier zunächst um DX9-only Titel und deren Erscheinen verhindert jegliche HW < DX9.

Nochmal: die Leistung spielt keine Rolle im lowcost-segment hier zählt es nur, die Technologie (hier DX9) zu verbreiten.

LovesuckZ
2003-05-11, 21:21:08
Originally posted by crushinator
*den Eindruck nicht loswerd, daß Demirug vom Gesamtmarkt auf Gamer-PC schliessen will* :|

Was ist ein "gamermarkt" ?

Demirug
2003-05-11, 21:22:37
Originally posted by crushinator
*den Eindruck nicht loswerd, daß Demirug vom Gesamtmarkt auf Gamer-PC schliessen will* :|

Nein reine Büro-PCs sind da rausgerechnet. Die Zahl kommt aus einer Studie mit der die Publischer arbeiten. Und bevor die Frage kommt von den Publischern wird jeder PC in einem Privathaushalt der nicht als Arbeitsmittel von der Steuer abgeschrieben wird als "Game PC" angesehen. Denn Umsatz macht man nämlich mit den Leuten die Aldi-PCs haben und nicht mit den paar Hardcore gamer.

Crushinator
2003-05-11, 21:30:11
Originally posted by ow
Nochmal: die Leistung spielt keine Rolle im lowcost-segment hier zählt es nur, die Technologie (hier DX9) zu verbreiten. Und Du meinst, daß diese Tatsache mehr zu Verbreitung von DX9 beiträgt? Gut, das lasse ich so stehen und gehe vom Bisherigen aus, nämlich daß es so bleibt wie bisher, Punkt aus Ende. :)

Demirug
2003-05-11, 21:32:13
Originally posted by crushinator
Nein, es ging meinerseits die ganze Zeit um die Verlogenheit, daß DX8-Karten es "verhindern" DX9-fähige Spiele rauszubringen.

Ich liebe es, wenn man sich selbst die Antworten gibt. :D Also, wenn die 5200 für 2.0 Shader viel zu langsam ist, darf man nicht mit der Argumentation kommen, daß nur die DX8-Karten die angesprochenen DX9-Spiele verhindern.

Klar darf man. Es geht dabei um einen bestimmten Psychologischeneffekt bei den Käufern.

Spieler (einer mit wenig Ahnung) kauf sich ein neues Spiel und installiert es.

nun können zwei Dinge passieren:

1. Beim ersten Start kommt eine komische Fehler Meldung das dem Rechner was fehlen würde. Spieler ist sauer und bringt das Teil zurück. Da ja immer viele Logos auf der Packung sind merkt er sich diese und wird möglicherweise ein anderes Spiel das auch eines dieser Logos hat auch nicht kaufen.

2. Das Spiel startet ist aber sehr langsam. Der Spieler erkennt das sein Rechner wohl doch nicht mehr so gut ist. Entweder bringt er nun das Spiel zurück (aber ohne auf den Hersteller sauer zu sein) oder er entschliesst sich mal wieder einen neuen Rechner zu kaufen.

Das Geheimniss besteht also darin keine Käufer so zu verärgern das er eventuel nichts mehr kauft. Darum muss der Hardwarelevel der benötigt wird damit ein Spiel überhaupt erst mal läuft immer recht tief angesetzt werden weil der Technologielevel bei den allerwelts PCs eben so niedrig ist.

Crushinator
2003-05-11, 21:35:38
Originally posted by LovesuckZ
Was ist ein "gamermarkt" ? Das ist der Markt, wofür ALDI/MediaMarkt/DELL & Co. ihre Hardware anbieten.

Razor
2003-05-11, 21:39:06
Originally posted by crushinator
Das ist der Markt, wofür ALDI/MediaMarkt/DELL & Co. ihre Hardware anbieten.
Falsch.

Die bieten Hardware hauptsächlich für den Internet-Zugang, office und ein bissel gamen...
Einen sog. "Gamermarkt" gibt es nicht.

Razor

StefanV
2003-05-11, 21:39:50
Originally posted by Razor

Falsch.

Die bieten Hardware hauptsächlich für den Internet-Zugang, office und ein bissel gamen...
Einen sog. "Gamermarkt" gibt es nicht.

Razor

Wenns keinen Gamermarkt gibt, warum gibts dann Games für den PC??

Razor
2003-05-11, 21:42:41
Originally posted by Stefan Payne

Wenns keinen Gamermarkt gibt, warum gibts dann Games für den PC??
Ist diese Frage Dein ernst ?
Oder hast Du die Diskussion nicht verfolgt ?
???

Razor

Crushinator
2003-05-11, 21:45:11
Originally posted by Demirug
Klar darf man. Es geht dabei um einen bestimmten Psychologischeneffekt bei den Käufern. Ich liebe Theoretiker. ;)

...
Das Geheimniss besteht also darin keine Käufer so zu verärgern das er eventuel nichts mehr kauft. Darum muss der Hardwarelevel der benötigt wird damit ein Spiel überhaupt erst mal läuft immer recht tief angesetzt werden weil der Technologielevel bei den allerwelts PCs eben so niedrig ist. Ich habe es schon begriffen: Durch "Irreführung" noch mehr Hardware verkaufen. Nur darf Keiner von Euch erwarten, daß ich das als Verbraucher für richtig halte und dafür nVidia gar dankbar wäre.

Demirug
2003-05-11, 21:45:39
Originally posted by Stefan Payne


Wenns keinen Gamermarkt gibt, warum gibts dann Games für den PC??

Weil es Bedarf gibt.

Wobei es einen PC-Gamermarkt schon gibt. Das sind aber Leute die nichts aber auch gar nichts mit einem PC machen ausser zu Spielen. Die Anzahl ist aber so gering das man diesen "Markt" nicht berücksichtigt.

PS: Dell ist bei den Spieleentwicklern nicht sehr beliebt. Die verkaufen in den Standardkonfigurationen immer den reinsten Müll als Grafiklösung und Klaus Mustermann kauft natürlich Standardkonfigurationen.

Crushinator
2003-05-11, 21:48:26
Originally posted by Razor
Die bieten Hardware hauptsächlich für den Internet-Zugang, office und ein bissel gamen...
Einen sog. "Gamermarkt" gibt es nicht. Aha, deshalb braucht man also in solchen PCs auch DX9-Hardware. Jetzt wird mir Einiges bewußt. :lol:

Crushinator
2003-05-11, 21:51:07
Originally posted by Demirug
PS: Dell ist bei den Spieleentwicklern nicht sehr beliebt. Die verkaufen in den Standardkonfigurationen immer den reinsten Müll als Grafiklösung und Klaus Mustermann kauft natürlich Standardkonfigurationen. Ich würde seitens Spiele-Entwickler nach der Ursache forschen und nicht Dell wegen der Auswirkung verteufeln. :naughty:

Razor
2003-05-11, 21:59:50
Originally posted by crushinator
Aha, deshalb braucht man also in solchen PCs auch DX9-Hardware. Jetzt wird mir Einiges bewußt. :lol:
Ich rate Dir wirklich dringend, Dir mal Studien über den Einsatz von sog. Consumer-PC's anzuschauen.
(vielleicht reicht auch schon ein ungetrübter Blick in die Verwandschaft ;-)

Bis denne

Razor

StefanV
2003-05-11, 22:01:33
Originally posted by Demirug
Weil es Bedarf gibt.

Wobei es einen PC-Gamermarkt schon gibt. Das sind aber Leute die nichts aber auch gar nichts mit einem PC machen ausser zu Spielen. Die Anzahl ist aber so gering das man diesen "Markt" nicht berücksichtigt.

PS: Dell ist bei den Spieleentwicklern nicht sehr beliebt. Die verkaufen in den Standardkonfigurationen immer den reinsten Müll als Grafiklösung und Klaus Mustermann kauft natürlich Standardkonfigurationen.

1. aha, also gibts doch einen Gamer Markt :)

2. genau das wollte ich mit der Frage sagen, wenn es Spiele für eine Plattform gibt, dan gibt es einen Markt dafür...

BTW: Früher wars so, daß man die User dazu 'überredet' hat, sich neue Hardware zu kaufen, damals gabs allerdings noch keine 3D Beschleuniger.

Dadurch, daß ihr auf die bestehende Hardware Rücksicht nehmt, schließt ihr einen Teufelskreis!!
Warum sollte ich ohne ein Spiel, das meine Hardware sehr fordert und damit zu einer Ruckelorgie wird, mein System aufrüsten zu wollen??

Das Problem ist ja, daß Origin mit dem Abschied von Chris Roberts ein riesiges Loch hinterlassen hat, das bisher keiner wirklich gefüllt hat..

StefanV
2003-05-11, 22:02:44
Originally posted by Razor

Ist diese Frage Dein ernst ?
Oder hast Du die Diskussion nicht verfolgt ?
???

Razor

1. natürlich war die Frage mein ernst, sonst hätte ich sie ja nicht gestellt!!

2. nein, du hast nicht verstanden (bzw wolltest es nicht), was ich überhaupt wollte...

StefanV
2003-05-11, 22:06:00
Originally posted by Razor

Ich rate Dir wirklich dringend, Dir mal Studien über den Einsatz von sog. Consumer-PC's anzuschauen.
(vielleicht reicht auch schon ein ungetrübter Blick in die Verwandschaft ;-)

Bis denne

Razor

1. Wozu brauch ich dann sowas wie 'ne FX5200??
Wäre da nicht eine schnellere DX8 Karte angebrachter als so ein lahmes Teil wie die FX5200, die auch nur ein halbes Jahr hält??

Verhindert die FX5200 nicht detailliertere Texturen, da der Performancelevel nicht angehoben wird??


2. das hab ich, der hat momentan 'ne GF2 PRO in 'nem AMD-760 Board mit 'nem XP1800+...
Wenn da irgendwas anfangen würde zu ruckeln, dann würde er sich schon 'ne neue Grafikkarte holen, solange die GF2 langt, bleibt sie drin.
Viel versteht er nicht davon, nur wenn da mal was am ruckeln ist, dann weiß er, wo er anzusetzen hat...

Crushinator
2003-05-11, 22:09:07
@Razor
Wie gut nur, daß wir uns beide über Consumer Deiner Deffinition KEINE Gedanken machen müssen wenn wir über das Bedürfnis der Spiele-Entwickler nach DX9-Verbreitung unterhalten möchten. ;)

@all
Langsam wird's hier ziemlich OT und ich klinke mich an dieser Stelle aus, ohne meine Meinung bezüglich der 5200 und DX9-Games im Geringsten geändert zu haben.

bis denne

Razor
2003-05-11, 22:14:11
Sorry SP, aber Du redest Unsinn...

Klar gibt es überall Märkte, aber die meisten davon sind regelrechte Nieschenmärkte, die für die 'Großen' nicht interessant sind. Dazu gehört dann auch Dein "Gamermarkt".

"Wäre da nicht eine schnellere DX8 Karte angebrachter als so ein lahmes Teil wie die FX5200, die auch nur ein halbes Jahr hält??"

Wer redet hier von 'halten' ?

Ich vermute mal, dass die kleine FX5200 auch in 5 Jahren noch gut im WoZi-Rechner werkeln wird.
Wie kommst Du also auf ein halbes Jahr ?

Auch solltest Du bedenken, dass ich bereits seit über 2 Jahren eine DX8-Karte im Rechner stecken hatte.
Was also würde mir persönlich (!) eine DX8-Karte bringen ?

???

"Verhindert die FX5200 nicht detailliertere Texturen, da der Performancelevel nicht angehoben wird??"

Nein tut sie nicht.
Gilt dies doch wohl für alle Karten des Low-End-Segmentes...

Bis denne

Razor

P.S.: Warum bloß verkaufen sich noch TNT2-Karten... oder gf2/4mx'er... oder...
Sind die alle überflüssig ?

Demirug
2003-05-11, 22:16:03
Originally posted by Stefan Payne


1. aha, also gibts doch einen Gamer Markt :)

2. genau das wollte ich mit der Frage sagen, wenn es Spiele für eine Plattform gibt, dan gibt es einen Markt dafür...

BTW: Früher wars so, daß man die User dazu 'überredet' hat, sich neue Hardware zu kaufen, damals gabs allerdings noch keine 3D Beschleuniger.

Dadurch, daß ihr auf die bestehende Hardware Rücksicht nehmt, schließt ihr einen Teufelskreis!!
Warum sollte ich ohne ein Spiel, das meine Hardware sehr fordert und damit zu einer Ruckelorgie wird, mein System aufrüsten zu wollen??

Das Problem ist ja, daß Origin mit dem Abschied von Chris Roberts ein riesiges Loch hinterlassen hat, das bisher keiner wirklich gefüllt hat..

Es gibt einen Markt für PC-Spiele aber defakto keinen Markt für reine Spiele-PCs. Für Leute die nur Spielen wollen sind IMHO Konsolen sowieso besser.

Man wird doch auch heute noch "überredet" sich bessere Hardware zu kaufen. Ob der Grund dafür nun Office oder DOOM III ist spielt dabei kaum eine Rolle.

ow
2003-05-11, 22:16:13
Originally posted by Stefan Payne


1. Wozu brauch ich dann sowas wie 'ne FX5200??
Wäre da nicht eine schnellere DX8 Karte angebrachter als so ein lahmes Teil wie die FX5200, die auch nur ein halbes Jahr hält??



???
Mach dich mal schlau, wie oft OEM-PCs aufgerüstet werden.
In der Regel NIE.
Die 5200 hält Jahre in solchen PCs.

StefanV
2003-05-11, 22:18:55
Originally posted by ow
???
Mach dich mal schlau, wie oft OEM-PCs aufgerüstet werden.
In der Regel NIE.
Die 5200 hält Jahre in solchen PCs.

1. etwas weniger Arroganz von deiner Seite wäre nicht schlecht.
2. es gibt auch einige, die nicht selbst am PC rumschrauben, siehe ein oder 2 Postings weiter oben.
3. und warum sollte ein Radeon 9000, 7500 oder weiß der Geier was nicht Jahre halten??

Frank
2003-05-11, 22:25:24
Originally posted by Stefan Payne
1. etwas weniger Arroganz von deiner Seite wäre nicht schlecht.
Sowas habe ich in ow's Posting nicht gelesen. Also fang nicht an mit stänkern oder hier irgendwas zu provozieren!

AlfredENeumann
2003-05-11, 22:45:14
Originally posted by Demirug
3. 3 Millionen sind wirklich nicht sonderlich viel und die sind ja noch nicht mal vollständig abverkauft. Wir hatten Anfang des Jahres weniger als 5% DX8 Hardware im Markt ob es DX8-Karten schon so lange gibt.


Wenn in über 2 Jahren sich nur ein Marktanteil von 5% DX8 Hardware ergeben hat, wie kommst du drauf das in ca. 2 Jahren eine entsprechend große Menge an DX9-Hardware verkauft wurde ?

Demirug
2003-05-11, 22:46:10
Ich kann ehrlich gesagt immer noch nicht verstehen was einige hier gegen die reine Exsitenz der FX 5200 haben.

Niemand ist gezwungen sich eine Karte mit diesem Chip zu kaufen.

Es ist aber nun mal eine Tatsache (ja ich bestehe hier darauf) das die Entwickler erst dann eine Technologie voll nutzen wenn sie weit genung verbreitet ist. Bis zu diesem Zeitpunkt muss immer Rücksicht auf die alte Technolgie genommen werden. Diesen Vorgang sollte jeder inzwischen schon beobachtet haben.

2d Grafik zu 3d Softwarerender
3d Softwarerender zu Hardware only
Singletexture zu Multitexture
Multitexture zu DX7 (in den letzten Zügen)
DX7 zu DX8 (irgendwann in 2 Jahren)
DX8 zu DX9 (Shader 2.0) (irgendwann sicher mal)
...

Jeder Technologiewechsel benötigt nun mal eine abseebare Massenverfügabrkeit dieser Technologie. Die Herstellung dieser Massnverfügbarkeit liegt aber ausserhalb des Einflussbereichs der Spieleentwickler.

In all diesen Fällen war die Initialhardware welche die Technolgie möglich machte zu dem Zeitpunkt als sie wirklich vollständig genutzt wurde in den Augen der anspruchsvolleren Spieler nicht mehr zu gebrauchen. In der Masse finden sich aber immer noch genügend Leute die mit der Initialhardware glücklich würden.

Hint: DOOM III auf einer GF1.

Nun mal ganz ernsthaft. Was zur Hölle interesiert es euch ob ein DX9-Only Spiel auf einer 5200 noch schnell genug laufen wird? Hat hier wirklich ernsthaft jemand vor sich eine solche Karten zu kaufen und sie für mehr als die nächsten 24 Monate im Rechner zu lassen? Die Karten sind nicht mehr und nicht weniger als Türöffner. Die Gründe warum solche Türöffner gebraucht werden habe ich ja schon oft dargelegt so das ich mir das jetzt spare. NVIDIA hat das jetzt endlich eingesehen und ATI wird es hoffentlich auch noch kapieren.

Demirug
2003-05-11, 22:53:38
Originally posted by AlfredENeumann



Wenn in über 2 Jahren sich nur ein Marktanteil von 5% DX8 Hardware ergeben hat, wie kommst du drauf das in ca. 2 Jahren eine entsprechend große Menge an DX9-Hardware verkauft wurde ?

Wenn die IHVs keine "technolgisch rückständige" Hardware mehr im Programm haben kann die auch kein OEM mehr verkaufen.

Das war ja das Problem mit der GF4MX. Technologisch Rückständig aber vom Namen her up to date und günstig zu haben. Sowas verkaufen die OEMs richtig gernen. Dementsprechend wurde dann auch mehr DX7 als DX8 Hardware verkauft. Das war aber vorher bei DX6 zu DX7 nicht anders.

Razor
2003-05-11, 22:55:38
Originally posted by AlfredENeumann

Wenn in über 2 Jahren sich nur ein Marktanteil von 5% DX8 Hardware ergeben hat, wie kommst du drauf das in ca. 2 Jahren eine entsprechend große Menge an DX9-Hardware verkauft wurde ?
DX9 im Low-End-Segemnt ?
:D

Razor

Crushinator
2003-05-11, 23:25:44
Originally posted by Demirug
Nun mal ganz ernsthaft. Was zur Hölle interesiert es euch ob ein DX9-Only Spiel auf einer 5200 noch schnell genug laufen wird? Der Spruch kommt mir soooooooooo bekannt vor: "Was zum Geier interessiert es, ob ein DX8-Only Game auf 'ner GF4MX schnell genug laufen wird..." :lol: /edit: ich weiss, daß es erst gar nicht laufen würde.

...
NVIDIA hat das jetzt endlich eingesehen und ATI wird es hoffentlich auch noch kapieren. Ich befürchte Letzteres auch und freue mich jetzt schon darauf, in 2 Jahren u.A. mit Dir darüber diskutieren zu können, warum es (dann) immer noch nicht ordentliche DX9-Games gäbe, wo wir schon bei DX10/11 angekommen seien. ;D

Demirug
2003-05-11, 23:31:14
Originally posted by crushinator
Der Spruch kommt mir soooooooooo bekannt vor: "Was zum Geier interessiert es, ob ein DX8-Only Game auf 'ner GF4MX schnell genug laufen wird..." :lol:

Auf einer GF4MX wird das gar nicht laufen.

Ich befürchte Letzteres auch und freue mich jetzt schon darauf, in 2 Jahren u.A. mit Dir darüber diskutieren zu können, warum es (dann) immer noch nicht ordentliche DX9-Games gäbe, wo wir schon bei DX10/11 angekommen seien. ;D

In zwei Jahren wird es keine DX9-Only Games geben. 24 Monate nachdem der letzte wichtige IHV auch im Lowcost Segment auf die entsprechende Technologie eingeschwengt ist mit einer only Nutzung zu rechnen. Die Zeitspanne neigt allerdings dazu zu steigen da die Produktionsdauer von Spielen auch immer länger wird.

StefanV
2003-05-11, 23:35:48
Originally posted by Demirug
In zwei Jahren wird es keine DX9-Only Games geben. 24 Monate nachdem der letzte wichtige IHV auch im Lowcost Segment auf die entsprechende Technologie eingeschwengt ist mit einer only Nutzung zu rechnen. Die Zeitspanne neigt allerdings dazu zu steigen da die Produktionsdauer von Spielen auch immer länger wird.

Hm, Demi, hast du nicht eventuell einen 'Big Player' in deiner Schätzung vergessen??

Matrox...

Crushinator
2003-05-11, 23:39:14
Originally posted by Demirug
Auf einer GF4MX wird das gar nicht laufen. Ach ja, richtig! Dann ersetze eben "schnell genug" durch "gar nicht" und es wird dadurch trotzdem den eigentlichen Sinn nicht verlieren. ;)
In zwei Jahren wird es keine DX9-Only Games geben. 24 Monate nachdem der letzte wichtige IHV auch im Lowcost Segment auf die entsprechende Technologie eingeschwengt ist mit einer only Nutzung zu rechnen. Die Zeitspanne neigt allerdings dazu zu steigen da die Produktionsdauer von Spielen auch immer länger wird. Mit anderen Worten: Das Argument (FX5200 ist der Türöffner) ist eben nur theoretischer Natur. :D

aths
2003-05-12, 00:11:28
Originally posted by ow
???
Mach dich mal schlau, wie oft OEM-PCs aufgerüstet werden.
In der Regel NIE.
Die 5200 hält Jahre in solchen PCs. Das ist ja das erschreckende.

Dunkeltier
2003-05-12, 00:16:22
Originally posted by ow


???
Mach dich mal schlau, wie oft OEM-PCs aufgerüstet werden.
In der Regel NIE.
Die 5200 hält Jahre in solchen PCs.

Dann sag mir mal, wieso ein Hersteller wie DELL die für eine Firma im Auftrag 1000 PC's bauen eine so teure Grafikkarte nehmen sollen? Und der andere Sektor, respektiv Aldi, Lidl & Co setzt eh meist auf Midrange Ware...

mapel110
2003-05-12, 00:17:49
Originally posted by Stefan Payne


Hm, Demi, hast du nicht eventuell einen 'Big Player' in deiner Schätzung vergessen??

Matrox...

hö ? was haben die 2D kartenhersteller damit zu tun ? *eg*

Salvee
2003-05-12, 00:56:19
Originally posted by Demirug
Die Karten sind nicht mehr und nicht weniger als Türöffner. Die Gründe warum solche Türöffner gebraucht werden habe ich ja schon oft dargelegt so das ich mir das jetzt spare. NVIDIA hat das jetzt endlich eingesehen und ATI wird es hoffentlich auch noch kapieren.

Genau das sehe ich auch als Sinn und Zweck der FX5200: die Türöffnerfunktion.
Allerdings habe ich so die Befürchtung, dass nVs Intention weniger das 'Pushen' von DX9 ist als vielmehr die Förderung der FX-Technologie.
Ich bin zwar kein Developer, aber 'was man so liest' in diversen Foren nährt den Verdacht, dass das Ziel proprietäre Effekte und Technolgie ist.

Als nV-User findet man das toll, als nicht-nV-User zum reihern.

mapel110
2003-05-12, 01:08:50
Originally posted by Salvee


Genau das sehe ich auch als Sinn und Zweck der FX5200: die Türöffnerfunktion.
Allerdings habe ich so die Befürchtung, dass nVs Intention weniger das 'Pushen' von DX9 ist als vielmehr die Förderung der FX-Technologie.
Ich bin zwar kein Developer, aber 'was man so liest' in diversen Foren nährt den Verdacht, dass das Ziel proprietäre Effekte und Technolgie ist.

Als nV-User findet man das toll, als nicht-nV-User zum reihern.

glaube kaum, dass soviel abseits der dx-spezifikation möglich ist, als das es einen stören könnte.

dieses eine splinter cell beispiel mit den schatten kann ati ja per treiber nachliefern. solange es gleichwertige technik gibt, sollte es auch auf dieser die gleichen effekte zu sehen geben (können).

bleibt zu hoffen, dass ati immer am ball bleibt. hardware und softwaretechnisch.
ein anderer mitspieler ist ja nicht in sicht.

Salvee
2003-05-12, 01:25:03
Ich hoffe, du behälst mit deinem Posting recht, nicht dass SC und etwa MGS2 die Spitze des Eisbergs im Meer meiner Paranoia sind ;)

Xmas
2003-05-12, 01:27:24
Originally posted by Stefan Payne
Hm, Demi, hast du nicht eventuell einen 'Big Player' in deiner Schätzung vergessen??

Matrox...
:rofl:

Richthofen
2003-05-12, 01:33:54
ein toller big player muss ich schon sagen :)
Auf wieviel Prozent sind die mit SIS und Co noch gleich zusammen gekommen beim letzten Mercury Report? Ich glaub das war nicht der Rede wert :)

"
Dann sag mir mal, wieso ein Hersteller wie DELL die für eine Firma im Auftrag 1000 PC's bauen eine so teure Grafikkarte nehmen sollen? Und der andere Sektor, respektiv Aldi, Lidl & Co setzt eh meist auf Midrange Ware...
"
Wieso teuer? Dell und CO zahlen einen Bruchteil dessen, was du für das Retailprodukt im Laden hinblätterst. Die Fx5200 gibts ab 74 Euro. Listenpreis war irgendwas um die 75$. Wenn Dell Tausende Stück ordert, dann bekommen sie einen fetten Rabatt.
Unternehmen behalten ihre PCs in der Regel im Schnitt 5 Jahre. Da Longhorn ansteht 2005, ist die 5200 durchaus eine kluge Wahl. Dazu das sehr gute nView und die ausgezeichnete SIgnalqualität.
Und was sonst deine Frage angeht. Wozu brauchen Unternehmen DVD Laufwerke und ähnliche Spielerein? Brauchen sie nicht. Sind aber trozdem in den PCs drinne. Es gibt eine bestimmte Grenze bei den PC Preisen, ab da wird für den OEM unrentabel. Wenn ich nun als Unternehmen ohnehin 900 Euro pro PC hinblätter, dann nehm ich doch gleich den mit der FX5200. Letztlich wird es da sowieso keine große Auswahl geben. Die GF4MX fliegen raus bis auf die MX420 und dafür sitzt die 5200 dann drinne.

Razor
2003-05-12, 06:35:10
Originally posted by Richthofen
<...snip...>

Letztlich wird es da sowieso keine große Auswahl geben. Die GF4MX fliegen raus bis auf die MX420 und dafür sitzt die 5200 dann drinne.
That's it !

Noch wird die gf4mx420 (nein, nicht 440 !) verbaut und bald gibt's die 5200 zum Preis der 420 (für die OEM's, die Retail-Preise stehen auf einem anderen Blatt)... wenn nVidia das so will. Die neue Technologie wird explosionsartig verbreitet und die Software-Developer haben schlicht keine andere Wahl, als diese voll zu unterstützen (so, wie jetzt mit der gf2/4mx).

Ich könnte mir gut vorstellen, warum hier so viele kategorisch gegen die 5200 sind... stellt sie doch ein Produkt dar, welches ATI trotz überlegenen Produktes mächtig nach hinten werfen könnte. Aber schon genauso, wie es bei der 5800/ultra war oder auch bei der gf4mx, wird es die Öffentlichkeit da draußen wenig jucken, was hier in den Foren gefaselt wird. Hier wird immer wieder vergessen, dass die Realität wenig mit dem zu tun hat, was hier in den Foren abgeht. Und da es nVidia nun geschafft hat, ein komplettes Technologie-Feature-Set im Low-End-Segment unter zu bringen, ist ATI (und auch 'Big Player' Matrox ;-) nun im Zugzwang. Schließlich haben sie in diesem Segment kein solches Angebot und das könnte sich bald sträflich gegen sie wenden...

Schaun' wir mal, aber ich denke, dass ATI hier jetzt unter Zugzwang steht.
Schließlich reden wir hier zwar über Low-End, aber das ist das Segment, mit dem die Chip-Hersteller ihre Brötchen verdienen und wo Verluste empfindlich weh tun.

Bis denne

Razor

Eusti
2003-05-12, 06:45:10
Originally posted by Richthofen


...und die ausgezeichnete Signalqualität...Gibt es eigendlich Grafikchips mit schlechten Signalleistungen? ???

Demirug
2003-05-12, 07:48:48
Originally posted by crushinator
Ach ja, richtig! Dann ersetze eben "schnell genug" durch "gar nicht" und es wird dadurch trotzdem den eigentlichen Sinn nicht verlieren. ;)

IMHO ist aber zwischen "nicht schnell genung" und "gar nicht" ein grosser Unterschied. Ersteres kann durchaus subjektiv sein. Beim zweiten gibt es nur eine betrachtungsweise.

Mit anderen Worten: Das Argument (FX5200 ist der Türöffner) ist eben nur theoretischer Natur. :D

Die Tür hat eben mehrer Schlösser. Das NVIDIA aber ihr Schloss schon offen hat erzeugt einen gewissen Druck auf die anderen iheren Schlüssel auch fertig zu stellen und ihr Schloss ebenfalls zu öffnen.

Irgendjemand muss eben immer mit sowas anfangen. Wegen der Signalwirkung für die anderen.

Demirug
2003-05-12, 07:59:14
Originally posted by Salvee


Genau das sehe ich auch als Sinn und Zweck der FX5200: die Türöffnerfunktion.
Allerdings habe ich so die Befürchtung, dass nVs Intention weniger das 'Pushen' von DX9 ist als vielmehr die Förderung der FX-Technologie.
Ich bin zwar kein Developer, aber 'was man so liest' in diversen Foren nährt den Verdacht, dass das Ziel proprietäre Effekte und Technolgie ist.

Als nV-User findet man das toll, als nicht-nV-User zum reihern.

Aus der Sicht von NVIDIA ist es natürlich verständlich das man dort möchte das von den Entwickler alles was die FX kann auch wirklich voll benutzt wird. NVIDIA will ja Hardware verkaufen. Das war aber bei den anderen technischen Inovationen bisher nicht anders und die Entwickler haben mehr oder minder immer abgelehnt weil es einfach nicht genügend Karten mit dem Featureset gab.

Defakto kann NVIDIA in DX9 Treiber nichts einbauen was ein anderer IHV nicht auch könnte solange seine Hardware mitspielt. Baut also jetzt jemand einen 2.0+ Shader ein so ist ATI zwar erst mal drausen aber sobald man bei ATI entsprechende Hardware hat geht es wieder. Und entsprechende Hardware muss ATI zwangsläufig bauen. Letzende Endes kann es NVIDIA bei DX-Spielen nur schaffen das man dort Effekte früher sieht.

Bei OpenGL Spielen sieht das allerdings anders aus. Da kann es wirklich passieren das jemand für die FX einen Effekt baut den man auf einer ATI-Karte nie sehen wird.

ow
2003-05-12, 08:12:48
Originally posted by Stefan Payne


Hm, Demi, hast du nicht eventuell einen 'Big Player' in deiner Schätzung vergessen??

Matrox...


???

Matrox ein Bigplayer? Glaubst du ja selbst nicht.

ow
2003-05-12, 08:14:53
Originally posted by aths
Das ist ja das erschreckende.


Was ist daran erschreckend?
Wozu braucht ein Privat-PC, auf dem nie ein 3D-Anwendung gestartet wird, jedes halbe Jahr eine neue Graka?

fizzo
2003-05-12, 10:00:34
Originally posted by ow



Was ist daran erschreckend?
Wozu braucht ein Privat-PC, auf dem nie ein 3D-Anwendung gestartet wird, jedes halbe Jahr eine neue Graka?

und fuer was braucht man eine 5200er wenn es ein integrierter grafikchipsatz auf dem motherboard dann auch tut;). nicht umsonst hat intel ein "grafikkartenmarkanteil" von fast 30 %.

was mich interessieren wurde ist, wieviel millionen stueck nun diese 5% dx8+ garfikkarten sind?

Demirug
2003-05-12, 10:48:29
Originally posted by fizzo
und fuer was braucht man eine 5200er wenn es ein integrierter grafikchipsatz auf dem motherboard dann auch tut;). nicht umsonst hat intel ein "grafikkartenmarkanteil" von fast 30 %.

Die integrierter grafikchipsätze sind ein zweischneidiges Schwert. Oft sitzt in solchen Rechner auch noch eine "normale" Grafikkarte.

was mich interessieren wurde ist, wieviel millionen stueck nun diese 5% dx8+ garfikkarten sind?

Rechen es dir doch einfach aus. ;)

Hint:
Deutschland ca 28 Millionen PCs in Privathaushalten
USA ca 220 Millionen. (Die USA haben den grössten Prozentsatz was PCs in den Haushalten angeht)

fizzo
2003-05-12, 11:06:59
Originally posted by Demirug

Die integrierter grafikchipsätze sind ein zweischneidiges Schwert. Oft sitzt in solchen Rechner auch noch eine "normale" Grafikkarte.

Rechen es dir doch einfach aus. ;)

Hint:
Deutschland ca 28 Millionen PCs in Privathaushalten
USA ca 220 Millionen. (Die USA haben den grössten Prozentsatz was PCs in den Haushalten angeht)

"oft" wuerde ich mal nicht sagen - sehe es ja bei uns in der firma;) tippe so mal auf maximal 5-10 % der rechner.


jetzt zur rechenaufgabe:)

sagen wir mal:

eurpa: ca. 150 millionen
nordamerika: ca. 250 millionen

asien lassen wir mal ausen vor....

bei ca. 400 millionen sind es so bei 20 millionen.

wenn man davon ausgeht, dass ca. 1/3 (ca. 7 millionen) potentielle zocker sind, ist das mehr als nur eine kleine platform fuer dx8-only games. spiele mit einer verkaufszahl von ueber 1 million einheiten kann man ja als wirtschaftlichen erfolg sehen - oder?

und gerade diese kaeuferschicht moechte ja "sehen" warum sie sich eine so teure grafikkarte gekauft haben;)

Demirug
2003-05-12, 11:40:43
Büro PC lasse ich immer aussen vor bei solchen Dingen.

Die 7 Millionen hören sich ja nicht schlecht an. Aber wenn ich jetzt von den restlichen Rechnerbesitzer nur 5% auch als Spieler einstufe (es sind mehr) stehen diesen 7 Millionen Spieler mit DX8 Karten schon 19 Millionen Spieler ohne DX8 Karten entgegen. Ein DX8 only Spiel würde also mehr als 2/3 der möglichen Käufer verlieren.

EDIT: Es kauft eben leider nicht jeder mit der "richtigen" Hardware jedes Spiel.

fizzo
2003-05-12, 12:19:57
Originally posted by Demirug
Büro PC lasse ich immer aussen vor bei solchen Dingen.

Die 7 Millionen hören sich ja nicht schlecht an. Aber wenn ich jetzt von den restlichen Rechnerbesitzer nur 5% auch als Spieler einstufe (es sind mehr) stehen diesen 7 Millionen Spieler mit DX8 Karten schon 19 Millionen Spieler ohne DX8 Karten entgegen. Ein DX8 only Spiel würde also mehr als 2/3 der möglichen Käufer verlieren.

EDIT: Es kauft eben leider nicht jeder mit der "richtigen" Hardware jedes Spiel.

mit ist sehr wohl bewusst, dass nicht jeder mit der "richtigen" hardware jedes spiel kauft. die geschmaecker sind nun mal verschieden....

nicht dest so trotz wir ein "grafisches" ausnahmespiel sicher ein zusaetzlicher kaufanreiz sein. des weitern wird dann ein ambitionierter zocker auch seinen rechner updaten und die hardwarebasis dx8+ steigt;)

kann mich noch gut erinner, wo ich speziel fuer unreal eine v2 12mb gekauft habe...und aquanox habe ich gekauft, um von meiner g3ti200 die netten dx8 features zu sehen;)

AlfredENeumann
2003-05-12, 13:08:10
Originally posted by Richthofen
Unternehmen behalten ihre PCs in der Regel im Schnitt 5 Jahre. Da Longhorn ansteht 2005, ist die 5200 durchaus eine kluge Wahl.

Falsch gedacht. Ein unternehmen wird mit sicherheit nicht jetzt PCs kaufen und lizenzen für das Betriebssystem und nur weil ein neues kommt das alte, lauffähige, bugfreie über Board werfen nur weil einige Rechner ne Karte drin hat die kein EDV-Leiter gerne in den Rechner der Mitarbeiter drin sehen will.

Desti
2003-05-12, 13:10:33
Originally posted by Stefan Payne


Hm, Demi, hast du nicht eventuell einen 'Big Player' in deiner Schätzung vergessen??

Matrox...

Streiche: Matrox
Setze: XBox

Desti
2003-05-12, 13:12:14
Originally posted by Demirug
[...]

EDIT: Es kauft eben leider nicht jeder mit der "richtigen" Hardware jedes Spiel.

Bei den Preisen der "richtigen" Hardware kann man ja auch gar nicht mehr :bonk:

Berni
2003-05-12, 19:21:52
Originally posted by Demirug


Wenn die IHVs keine "technolgisch rückständige" Hardware mehr im Programm haben kann die auch kein OEM mehr verkaufen.

Das war ja das Problem mit der GF4MX. Technologisch Rückständig aber vom Namen her up to date und günstig zu haben. Sowas verkaufen die OEMs richtig gernen. Dementsprechend wurde dann auch mehr DX7 als DX8 Hardware verkauft. Das war aber vorher bei DX6 zu DX7 nicht anders.
Jo und die TNT2-M64 ist immer noch im Programm soweit ich weiß, weil die Nachfrage danach noch da ist *grusel*

Bei dem Thema möcht ich auch noch gerne das einwerfen (von http://heise.de/newsticker/result.xhtml?url=/newsticker/data/jk-23.05.02-002/default.shtml):

Das ändert allerdings nichts an der Tatsache, dass Hersteller wie Eidos mit der neuesten Version von Tomb Raider -- The Angel of Darkness und auch Microsoft selbst größten Wert darauf legen, dass Spiele selbst mit betagten Grafikkarte wie einer TNT2 oder einem Rage Pro noch ordentlich laufen.

Ist zwar mittlerweile fast ein Jahr her aber wenn ich als Spieleentwickler tatsächlich daran denke, noch ne RagePro zu bedienen, dann sieht man wohl sehr gut, wie viele dieser "wenig performanten" Rechner noch "rumlaufen" und dass die Sehnsucht nach DX8-only oder gar DX9-only Spielen wohl in weiter Ferne liegt...

aths
2003-05-12, 22:29:20
Originally posted by ow
Was ist daran erschreckend?
Wozu braucht ein Privat-PC, auf dem nie ein 3D-Anwendung gestartet wird, jedes halbe Jahr eine neue Graka? Ein Privat-PC, auf dem keine 3D-Anwendung gestartet wird, braucht auch keine 3D-Karte, schon gar keine DX9-Karte.

Bevor jetzt "Longhorn" gerufen wird: Wer kauft schon Longhorn? Der, der einen PC neu kauft und wo es als OEM-Version beiligt. Außerdem ist das Longhorn-Release noch 2 Jahre hin.

Unregistered
2003-05-13, 01:13:05
jo und wenn das kommt werden viele Supportverträge für ältere OS hinfällig sein und die Unternehmen werden langsam nachrüsten beim OS ohne den PC neu zu kaufen.

Deine Aussage das ein Unternehmen keine DX9 Graka brauchst ist Quark und steht eh nicht zur Debatte. Wenn es danach ginge bräuchten Unternehmen auch keine DX7 Graka mit AA und ähnlichem und trozdem ist die GF4 MX massenweise drinn.
Ich sage dir wie es laufen wird, weil es immer so gelaufen ist.

Die GF FX52000 vorzugsweise die mit 64 Bit Anbindung wird in den Rechnern stecken. Große Auswahl bzw. Preisnachlässe für kleinere Grakas gibts nicht. Welcher OEM kauft sich hier haufenweise verschiedene Ware an und muss dafür Support leisten. Lohnt sich für den nicht. Der wird bis auf die GF4MX420 alles streichen und die 5200 dafür reinpacken. Den Unternehmen bleibt dann nix anderes übrig als das zu kaufen, weils keine große Auswahl gibt. ATI ist hier erheblich in Zugzwang. Bereits im Juli wird Nvidias installierte DX9 Basis die von ATI um Längen übertroffen haben und das ganze steigt überproportional an, solange ATI im Low End nicht konkurenzfähig ist und das sind sie momentan nicht.

aths
2003-05-13, 04:43:19
Originally posted by Unregistered
jo und wenn das kommt werden viele Supportverträge für ältere OS hinfällig sein und die Unternehmen werden langsam nachrüsten beim OS ohne den PC neu zu kaufen.

Deine Aussage das ein Unternehmen keine DX9 Graka brauchst ist Quark und steht eh nicht zur Debatte. Wenn es danach ginge bräuchten Unternehmen auch keine DX7 Graka mit AA und ähnlichem und trozdem ist die GF4 MX massenweise drinn.
Ich sage dir wie es laufen wird, weil es immer so gelaufen ist.

Die GF FX52000 vorzugsweise die mit 64 Bit Anbindung wird in den Rechnern stecken. Große Auswahl bzw. Preisnachlässe für kleinere Grakas gibts nicht. Welcher OEM kauft sich hier haufenweise verschiedene Ware an und muss dafür Support leisten. Lohnt sich für den nicht. Der wird bis auf die GF4MX420 alles streichen und die 5200 dafür reinpacken. Den Unternehmen bleibt dann nix anderes übrig als das zu kaufen, weils keine große Auswahl gibt. ATI ist hier erheblich in Zugzwang. Bereits im Juli wird Nvidias installierte DX9 Basis die von ATI um Längen übertroffen haben und das ganze steigt überproportional an, solange ATI im Low End nicht konkurenzfähig ist und das sind sie momentan nicht. Noch mal: Das "DX9" ist kein vernünftiger Aspekt, unter dem Grafikkarten für Office-Anwendungen gekauft werden. Das ohnehin überstrapazierte "Longhorn"-Argument greift imo nicht. Und für Office braucht man kein DX9. Man braucht auch kein DX7, aber erst recht kein DX9. Da kann man also auch eine kleine Radeon verbauen. Dass sie kein DX9 beherrscht, ist für Office-Rechner die heute und 2004 gekauft werden, unerheblich. Die "DX9-Basis" ist im Office-Segment unerheblich, wenn es um DX9-Spiele geht. Da zählt das System der Zielgruppe. Büro-Spiele à la Moorhuhn werden noch auf lange Sicht keine DX9-HW brauchen. Wenn dereinst Office-PCs für Longhorn gekauft werden, liegt das Hauptaugenmerk wohl kaum auf optische Tier2-Spielereien. Für Tier1 reicht eine DX7-Karte aus. Wenn es doch auf den Tier2-Schnullifax ankommt, was ich bei Office-PCs nicht vor 2006 erwarte, ist eine bessere DX9-Karte mit 8x AGP notwendig. 2006, wenn dann in großen Mengen neue Office-PCs gekauft werden, um das Longhorn-Klickibunti zu haben, gibts garantiert längst auch von ATI eine Low Cost DX9-Lösung, und die FX 5200 ist vermutlich auch schon raus und wurde durch ein Lowest-Cost-NV35- oder NV40-Ableger ersetzt.

Razor
2003-05-13, 06:38:24
Sehr schön, aths, aber Du denkst Dir das alles auch aus und vermutest die Dinge hier nur.
Meinst Du nicht, dass es bei den OEM's 'etwas' anders gesehen wird ?

Warum, meinst Du, wurde bisher eine gf4mx420 in den DELL-Rechnern verbaut ?
Der guten Leistung wegen oder eher wegen dem Namen ?

Und DAS ist der Grund, warum da demnächst eine 5200 drin stecken wird.
Ob der Markt das nun braucht, oder nicht.
(ich persönlich bin der Meinung, dass auch heute schon eine DX9-Karte sinn macht, i.e. "DX9 für alle !" ;-)

Man will ja schließlich keine 'alte' Generation verbauen, gell ?
:D

AGP8x, passiv, DX9, SQ, TV-Out
und das für weniger als 100€

DAS sind die schlagenden Argumente, die ATI in dieser Preisklasse nicht bieten kann.
(und bitte nicht Marketing mit Nutzen verwechseln ;-)

Bis denne

Razor

aths
2003-05-13, 07:03:21
Originally posted by Razor
Sehr schön, aths, aber Du denkst Dir das alles auch aus und vermutest die Dinge hier nur.Klar, ich sauge mir bekanntermaßen meine Postings aus den Fingern.
Originally posted by Razor
Meinst Du nicht, dass es bei den OEM's 'etwas' anders gesehen wird ?Was ich meine, steht im Posting, gell?
Originally posted by Razor
Warum, meinst Du, wurde bisher eine gf4mx420 in den DELL-Rechnern verbaut ?Vor einem Fragezeichen kommt kein Leerzeichen. Aber zum Thema: Weil die GF4MX 420 als Büro-Karte relativ gut ist?
Originally posted by Razor
Und DAS ist der Grund, warum da demnächst eine 5200 drin stecken wird.
Ob der Markt das nun braucht, oder nicht.Solange Nv alle wegrult, ist die Welt in Ordnung? Eine Firma ist toll, wenn es ihnen gelingt, Leuten aufzuschwatzen Geld für Features auszugeben, die sie nicht brauchen?

Tatsächlich werden viele OEMs in Zukunft auf die 5200 setzen. Wer als Einkäufer, der Office PCs besorgen soll, heute auf DX9 achtet, hat allerdings einen an der Klatsche, gell?
Originally posted by Razor
Man will ja schließlich keine 'alte' Generation verbauen, gell ?
:DMan will ja auch schließlich nicht zu viel ausgeben, gell? Und eine MX 420 ist nun mal einige Euronen günstiger...
Originally posted by Razor
AGP8x, passiv, DX9, SQ, TV-Out
und das für weniger als 100€Passive Kühlung und gute Signalqualität kann man auch bei MX 420-Modellen finden. Video-Out übrigens auch, gell? (Wieviele Office-PCs brauchen das?) Und was die FX da noch mehr hat, wie 8x AGP und DX9, das ist für eine Office-Karte im Jahre 2003 schlicht irrelevant, gell?
Originally posted by Razor
DAS sind die schlagenden Argumente, die ATI in dieser Preisklasse nicht bieten kann.:|
Originally posted by Razor
(und bitte nicht Marketing mit Nutzen verwechseln ;-)Ein guter Einkäufer sollte auf den Nutzen achten, und sich nicht vom Marketing blenden lassen. Dafür wird er schließlich bezahlt, gell?

In diesem Sinne,

aths

mapel110
2003-05-13, 07:28:13
:rofl:

das war mal ein posting, das wirklich lesenswert war ;D

achja, full ack, aths :)
auch oem käufer sollten sich informieren, wie jeder vernünftige käufer. ob sie es allerdings in dem umfang machen, wie die gamer steht auf einem anderen blatt.

ow
2003-05-13, 08:32:16
Originally posted by mapel110
:rofl:

das war mal ein posting, das wirklich lesenswert war ;D

achja, full ack, aths :)
auch oem käufer sollten sich informieren, wie jeder vernünftige käufer. ob sie es allerdings in dem umfang machen, wie die gamer steht auf einem anderen blatt.

:rofl:

wo ist denn der Zusammenhang zwischen OEMs und Gamern??

Demirug
2003-05-13, 08:49:01
Originally posted by ow


:rofl:

wo ist denn der Zusammenhang zwischen OEMs und Gamern??

Auch Besitzer von OEM Computer sind Gamer und nicht gerade wenige. Das Problem bei OEM Rechner ist aber das es sich dabei in der Regel um "Friß oder stirb" Maschinen handelt. Man kauft die Konfiguration die angeboten wird oder eben nicht. Und die Konfiguration richtet sich nachdem was der Hersteller für die beste Konfiguration bezüglich seinen eigenen Kosten der möglichen Absatzzahl und dem erreichbaren Verkaufspreis sieht. Ein OEM der nur den reinen Büromarkt bedient braucht sich dabei um die Grafikkarte keine grossen Gedanken zu machen denn dort reicht eine Chipsatzgrafiklösung erst mal aus.

Bei OEMs die auch den Privatkundenmarkt bedienen spielt aber die Werbewirksamkeit einer Konfiguration eine Rolle. Und Werbewirksam heist in diesem Fall je mehr unsinnge Logos und bekannte Namen benutzt werden können desto besser.

Daher macht sich eine GF4MX in Zeiten der Radeons 9xxx und GeforceFX xxxx nicht wirklich gut. Der Kunde möchte zumindestens den Eindruck haben das er etwas kauft was up to date ist. Im Prinzip kann ein OEM also eine kleine 9xxxx verkaufen oder eine eine kleine FX. Bei der FX bekommt er eben noch ein werbewirksames DX9 Logo dazu bei einer kleinen 9xxx wird er sich aber davor hüten ein DX8 Logo auf den Prospekt zu drucken weil "DX8 ist alt das wollen wir nicht mehr".

Diese Spiel ist Sche**** und meist ist der Kunde dabei auch der dumme aber das sind nun mal die Regeln diese Spiels.

ow
2003-05-13, 09:25:59
@demi

ich sehe nicht, was deine ausfuehrungen mit meinem Quote aus mapels posting zu tun haben.

er schreibet: "auch oem käufer sollten sich informieren, wie jeder vernünftige käufer. ob sie es allerdings in dem umfang machen, wie die gamer steht auf einem anderen blatt. "


und jetzt meine frage: wieso sollten OEMs dasselbe Interesse an Grafikchips haben wie Gamer??

Die Praeferenzen von OEMs und Gamern haben imo absolut garnichts miteinander zu tun oder gemein. das meinte ich mit "wo ist der zusammenhang".

Demirug
2003-05-13, 09:41:11
ow, ok dann habe ich das etwas falsch verstanden.

ow
2003-05-13, 09:50:04
Originally posted by Demirug
ow, ok dann habe ich das etwas falsch verstanden.

macht nix. ich haette das gleich weiter ausfuehren sollen.
immer der verdammte zeitdruck beim posten@work.;)

AlfredENeumann
2003-05-13, 13:31:56
Originally posted by aths
Klar, ich sauge mir bekanntermaßen meine Postings aus den Fingern.
Was ich meine, steht im Posting, gell?
Vor einem Fragezeichen kommt kein Leerzeichen. Aber zum Thema: Weil die GF4MX 420 als Büro-Karte relativ gut ist?
Solange Nv alle wegrult, ist die Welt in Ordnung? Eine Firma ist toll, wenn es ihnen gelingt, Leuten aufzuschwatzen Geld für Features auszugeben, die sie nicht brauchen?

Tatsächlich werden viele OEMs in Zukunft auf die 5200 setzen. Wer als Einkäufer, der Office PCs besorgen soll, heute auf DX9 achtet, hat allerdings einen an der Klatsche, gell?
Man will ja auch schließlich nicht zu viel ausgeben, gell? Und eine MX 420 ist nun mal einige Euronen günstiger...
Passive Kühlung und gute Signalqualität kann man auch bei MX 420-Modellen finden. Video-Out übrigens auch, gell? (Wieviele Office-PCs brauchen das?) Und was die FX da noch mehr hat, wie 8x AGP und DX9, das ist für eine Office-Karte im Jahre 2003 schlicht irrelevant, gell?
:|
Ein guter Einkäufer sollte auf den Nutzen achten, und sich nicht vom Marketing blenden lassen. Dafür wird er schließlich bezahlt, gell?

In diesem Sinne,

aths


Full ACK. Unsere Einkäufer für Hardware werden sich hüten irgendeine GraKa einzusetzten mit der man auch nur annährend vernpünftig zocken kann. Sie muß nur einsachen können. Ein Bild auf dem Moni zaubern bei einer vernünftigen Signalqualität.