PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Euer Tipp: Wer hat die Nase vorn? ... nV40 oder R420


Seiten : [1] 2 3

betasilie
2004-02-19, 05:02:17
[ ]nV40
[ ]R420

Da bald die ersten harten Fakten zum nV40 und R420 anstehen werden, tippt einfach mal ins blaue, welcher Chip eurer Meinung nach der bessere sein wird; nV40 oder R420.

Ich selber bin hin und hergerissen. Mal habe ich den nV40 vorne gesehen, mal den R420. Momentan würde ich den R420 vorne sehen, was hauptsächlich an den Gerüchten bzgl. des nachgebsserten Tapeouts vom nV40 liegt. Wirklich einen Tip abgeben kann ich aber nicht, weil ich beiden Herstellern zutraue zu überraschen.

P.S.
Und bitte keine Streitereien welche Argumente die gewichtigeren sind (z.B. AA vs. AF Diskussionen oder PS3.0 vs. 2.0 ;) ). Schreibt einfach eure Meinung und lasst die Meinung der anderen weitgehenst unkommentiert.

nagus
2004-02-19, 07:44:56
das ganze wird ähnlich ablaufen wie vor einem jahr. mit dem unterschied, dass diesmal beide ca gleichzeitig kommen und das unterschied zwischen NV40 / R420 nicht so dramatisch ist wie zwischen NV30 und R300.


aber wer weiss welche treiber-c***** sich nvidia diesmal ausgedacht hat ;)

MeLLe
2004-02-19, 08:08:16
Original geschrieben von nagus
aber wer weiss welche treiber-c***** sich nvidia diesmal ausgedacht hat ;)
Du kannsts echt net lassen, oder? :bad1:

Ich bin ähnlich wie beta etwas hin und her gerissen ... mit leichter Tendenz Richtung nv40. Einfach weil sein direkter Vorfahre (NV3x) die bessere Grundlage für einen Shader-3.0-Chip bietet, im Gegensatz zum Vorfahren des r420. Aber das ist nur meine subjektive Ansicht.

Odal
2004-02-19, 08:18:49
ich kanns nicht sagen...

ueber den neuen R420 ist ja nicht soviel bekannt...
jedoch bei NVidia wird manchmal etwas uebertrieben vorher...

von daher abwarten und tee trinken ;D ich werde aber noch nicht gleich zuschlagen wenn die karten raus sind, sondern erstmal abwaegen ob meine GF4Ti4xxx im desktop nicht noch nen weilchen reicht

mapel110
2004-02-19, 08:34:50
PowerVR Series5 :)

Wenns einer der beiden Grossen sein muss, NV40

Tarkin
2004-02-19, 08:54:03
bei älteren Spielen nv40, bei aktuellen R420

[dzp]Viper
2004-02-19, 09:03:08
hm schwer zu Sagen

AA - R420

AF - gleichstand

ALte spiele - NV 40

Neue Spiele - R420

Aber zum glück isses ja nur spekulation :D

Ailuros
2004-02-19, 09:08:06
Die Loesung die das Wohlsein meines PCs am geringsten gefaerdet HA HA HA HA :D

Tschuldigung aber ich kann mir keine ernste Antwort zu so einer Frage ausdenken ohne die ersten wahre Tests/Analysen zu sehen.

Aqualon
2004-02-19, 09:10:24
*poll*

Laufzeit 14 Tage

Aqua

P.S. Die Grafikchips habe ich alphabetisch angeordnet (soll ja niemand denken, ich würde einen davon bevorzugen ;-))

Exxtreme
2004-02-19, 09:17:33
Hehe, ich tippe natürlich auf den R420.


Wer hätt's gedacht. ;-)

ShadowXX
2004-02-19, 09:19:56
Ich sage da nur: "Möge der Beste gewinnen"...und den kaufe ich dann...

J.S.Shadow

Ailuros
2004-02-19, 09:20:31
Original geschrieben von Exxtreme
Hehe, ich tippe natürlich auf den R420.


Wer hätt's gedacht. ;-)

Ich auf jeden Fall nicht hrhrhr :D Ich bin bei den zeitigen 75% besser aufgehoben ;)

Godmode
2004-02-19, 10:33:39
Ich traue es Nvidia zu wieder vorne zu sein, aber wer weis; naja ich kauf mir sowiso den Chip der am besten ist und wenn es ein Unentschieden ist dann kauf ich den von Nvidia weil ich bis jetz immer gut gefahren bin mit Nvidia

Demirug
2004-02-19, 11:10:30
Solange es keine Tests von dritten in einem nachvollziebaren Rahmen gibt kann man beim besten Willen nicht sagen wer wo vorne ligen wird.

Wenn es wenigstens ein technisches Preview mit ein paar mehr Details von den Herstellern geben würde könnte man ja qualifiert spekulieren. So kann man aber wohl nur eine Münze werfen.

[dzp]Viper
2004-02-19, 11:14:28
Original geschrieben von Demirug
So kann man aber wohl nur eine Münze werfen.

kopf = NV40
Zahl = R420
Rand = Power VR

;D ;D ;D

AlfredENeumann
2004-02-19, 11:39:20
Featuremässig wird der NV40 meiner meinung wieder vorne leigen.
Speedmässig würde ich den R420 tippen. Denke mal ATI hat wieder alles mögliche versucht um die Speedführung zu behalten.

Gunslinger
2004-02-19, 11:50:16
[X] Mir doch egal, ich kauf mir eh den besten davon

Von welcher Firma eine Grafikkarte bzw. Grafikchip kommt ist mir egal - Haupsache Preis und Leistung stimmen.

ShadowXX
2004-02-19, 11:55:56
Original geschrieben von AlfredENeumann
Featuremässig wird der NV40 meiner meinung wieder vorne leigen.
Speedmässig würde ich den R420 tippen. Denke mal ATI hat wieder alles mögliche versucht um die Speedführung zu behalten.

Also wenn ATI auch PS/VS nach 3.0 implementiert haben sollte, kann nV Featuremässig nicht mehr vorn liegen.....

Wenn nicht, hast du natürlich recht....

J.S.Shadow

darkvader
2004-02-19, 12:08:39
Warum darf ich nicht abstimmen?

Winter[Raven]
2004-02-19, 12:26:11
Hehe, ich tippe natürlich auf den NV40.


Wer hätt's gedacht. ;-)

ow
2004-02-19, 12:36:45
.

reunion
2004-02-19, 12:57:19
[x] Mir doch egal, ich kauf mir eh den besten davon

zeckensack
2004-02-19, 13:23:42
Original geschrieben von darkvader
Warum darf ich nicht abstimmen? Siehe ow.
Diese Massnahme wurde eingeführt, weil gewisse Spassvögel mal versucht haben "wichtige" Abstimmungen zu verfälschen, indem sie sich einfach ein paar Dutzend neue Accounts angelegt haben :|

darkvader
2004-02-19, 13:28:42
Oh - wieviele Postings brauche ich denn? Das wird zumindest schwer, weil ich meistens nur was sage, wenn ich was zu sagen habe :-).

Exxtreme
2004-02-19, 13:29:46
Original geschrieben von darkvader
Oh - wieviele Postings brauche ich denn? Das wird zumindest schwer, weil ich meistens nur was sage, wenn ich was zu sagen habe :-).
Man muss Full Member werden -> 30 Postings.

Demirug
2004-02-19, 13:34:26
Original geschrieben von ShadowXX
Also wenn ATI auch PS/VS nach 3.0 implementiert haben sollte, kann nV Featuremässig nicht mehr vorn liegen.....

Wenn nicht, hast du natürlich recht....

J.S.Shadow

Was mir zu denken gibt ist das beim "Massenchip" von ATI der Codename RV380 ist. Diesem werden aber die gleichen "Verbesserungen" wie dem R420 nachgesagt. Wenn dieser Massenchip wirklich 3.0 Shader fähig wäre würde IMHO eine 300er Nummer keinen Sinn machen. Zudem gab es früher ja auch mal das Gerücht das der R420 ein Refresh Chip für den R390 darstellen soll. R390 gab es dann aber nie.

Spake
2004-02-19, 13:48:24
ich tippe auf den R420 wenns um rohe leistung ohne 3.0 shader geht
allerdings sehe ich den nv40 diesmal wirklich als ernsthaften gegenspieler
was powervr betrifft gibts einfach noch garnix
also noch nichteinmal einen vorgängerchip an dem man ihn messen könnte

->im übrigen glaub ich sowieso nett dass shader3.0 wichtig werden in naher zukunft:
1. keine spiele
2. Ati hat nett so tolle shader
3. Ati mainstreamchips werden wohl entweder keine 3.0shader haben oder wieder nur langsame(wär schon lustig wenn ein mainstream-chip schnellere 3.0shader bekommt als der high-end chip :D)

reunion
2004-02-19, 13:48:50
Original geschrieben von Demirug
Was mir zu denken gibt ist das beim "Massenchip" von ATI der Codename RV380 ist. Diesem werden aber die gleichen "Verbesserungen" wie dem R420 nachgesagt. Wenn dieser Massenchip wirklich 3.0 Shader fähig wäre würde IMHO eine 300er Nummer keinen Sinn machen. Zudem gab es früher ja auch mal das Gerücht das der R420 ein Refresh Chip für den R390 darstellen soll. R390 gab es dann aber nie.

Naja, dann würde aber R420 auch keinen Sinn machen.
Es könnte ja auch so sein dass der RV380 ein in 130nm(oder 110nm) gefertigter R360 ist(dass man also praktisch die jetztigen High-End Chips in dass Midragesegment abrutschen lässt) und nur der Highendchip PS/VS 3.0 haben wird da die abgespeckten chips ohnehin zu langsam wären. Und der jetztige RV360(9600XT) dann ins Low-End Segment wandert und den RV250 ersetzt...

Natürlich reine Spekulation ;)

Demirug
2004-02-19, 14:14:39
Original geschrieben von reunion
Naja, dann würde aber R420 auch keinen Sinn machen.
Es könnte ja auch so sein dass der RV380 ein in 130nm(oder 110nm) gefertigter R360 ist(dass man also praktisch die jetztigen High-End Chips in dass Midragesegment abrutschen lässt) und nur der Highendchip PS/VS 3.0 haben wird da die abgespeckten chips ohnehin zu langsam wären. Und der jetztige RV360(9600XT) dann ins Low-End Segment wandert und den RV250 ersetzt...

Natürlich reine Spekulation ;)

Low-End wird RV370.

Nachdem sie bei den R3XX schon bei R360 waren ist der Platz da eben ein wenig eng. Zudem hört sich eine 400er Nummer sowieso besser an.

ShadowXX
2004-02-19, 14:21:24
Original geschrieben von Demirug
Was mir zu denken gibt ist das beim "Massenchip" von ATI der Codename RV380 ist. Diesem werden aber die gleichen "Verbesserungen" wie dem R420 nachgesagt. Wenn dieser Massenchip wirklich 3.0 Shader fähig wäre würde IMHO eine 300er Nummer keinen Sinn machen. Zudem gab es früher ja auch mal das Gerücht das der R420 ein Refresh Chip für den R390 darstellen soll. R390 gab es dann aber nie.

Da gebe ich dir vollkommen recht...ich bin auch noch nicht überzeugt davon, dass der r420 PS3.0 haben wird...

Andererseits kann ich mir nicht vorstellen, dass ATI sich das trauen würde, ohne PS3.0 dazustehen...

Dann hätte nV selbst dann die besseren "Karten" (im doppelten Sinne), wenn der r420 im Durchschnitt 5-10% schneller wäre...

Ich für meinen Teil glaube immer noch, das die PS3.0 bei ATI mit einer "Notlösung" und purer Gewalt integriert werden...Was im überigen für deine übrigen Annahmen spricht.

Daraus ergibt sich dann allerdings, das der nV40 wohl die bessere Lösung sein könnte....

Wir werden sehen...

J.S.Shadow

MechWOLLIer
2004-02-19, 14:51:19
Mir ist egal welcher Chip vorne sein wird, ich kaufe einfach den, der mir am besten gefällt (Geschwindigkeit und Bildqualität sowie Features sind mir wichtig).

Im Moment würde ich einfach mal spekulieren, dass der NV40 bei den Shader 3.0 die Nase vorn haben wird, ATI dagegen bei den Shader 2.0. Bildqualität bei AF vermute ich einfach mal, dass ATI dort aufgehohlt hat, Nvidia bei AA glaub ich nicht dran. Aber mal abwarten, lang wirds ja nichtmehr dauern

Sphinx
2004-02-19, 14:52:53
Ich glaube fest daran das der R420 mit PS3.0 daher kommen wird...

Das währe so als ob sie einen Porsche ohne Motor herausbringen würden ,)

Speedmäßig rein spekulativ : Doppelt so schnell wie der R9700Pro der damals mich einem WAU EFFEKT erstaunte hat was bisher nur 3dfx in mir erweckt hatte...

Nvidia scheint mit dem NV40 wohl alle Fehler behoben zu haben was mich spekulieren lässt das man sie auch nicht unterschätzen sollte auch was es die Forceware Treiber angeht die in diesem Falle auch ihre Arbeit fein erledigen werden ,)

Mein Herz sagt mir beide gleich auf - mit einem hauch vorteil für Ati.

Mein Gewissen sagt mir das ATi da was ganz großes am Start hat welches Nvidia dieses mal das Genick brechen sollte/könnte.Da kaum was bekannt ist über den R420 so kurz vor der Cebit.

Iwan
2004-02-19, 15:03:39
Ich denk mal zwischen NV40 und R420 wirds ziemlich eng sein. Ich glaub net, das sich eine von den Karten bedeutend von der anderen absetzten kann. Bei den Karten kommt es wohl dann eher auf den Preis, die Kühlung (man denke an die FX5800 Ultra ;D) und die Treiber an welche sich durchsetzten wird.

Demirug
2004-02-19, 15:21:38
Ich gebe mich geschlagen. Der R420 wird mehr als Shader 2.0 haben. Wenn ATI mir das sagt muss ich es wohl glauben.

Odal
2004-02-19, 15:24:21
Original geschrieben von Sphinx
Mein Gewissen sagt mir das ATi da was ganz großes am Start hat welches Nvidia dieses mal das Genick brechen sollte/könnte.Da kaum was bekannt ist über den R420 so kurz vor der Cebit.

was auch bedeuten koennte das da nicht viel kommt..weil den ati designern die koepfe rauchen wie sie ihre auf performance ausgeschlachtete architektur verbessern koennen ;) meistensn muss da dann nen teilweises redesign her

StefanV
2004-02-19, 15:27:45
Original geschrieben von Demirug
Ich gebe mich geschlagen. Der R420 wird mehr als Shader 2.0 haben. Wenn ATI mir das sagt muss ich es wohl glauben.

Hm, sind wir uns soweit einig, daß das einzige Problem bei ATIs Desing das branching ist??

PS: sollte das nicht zutreffen, dann wäre ich dir dankbar, wenn du da mal in einem eigenständigen Thread darauf eingehen würdest ;)

Al-CAlifAX
2004-02-19, 15:29:35
Also mir persönlich ist es relativ egal was ATI macht. Solange Nvidia nur marginal Langsamer ist, werde ich immer eine NV kaufen. Einfach weil 3dfx ingeniere mit dran gebaut haben ;)

Auf eins freue ich mich jetzt schon. Wenn dann die ganzen "alten" benchmarks ausgepackt werden und verglichen wird. Weil ja Quake3 und Co. auf einer Geforce 4 so schlect laufen *fg*

Ich für meinen Teil warte bis entsprechende Games erscheinen mit PS2.0 und 3.0 und jeweils mit ATI und NVidia Partner und dann schaue ich erst was da wirklich abgeht. Solange isses nur reine Spekulation, selbt wenn die gestern erschienen werden. In letzter Zeit wird zu sehr auf den einen oder anderen IHV optimiert, weswegen es abwarten heisst was genau passiert.

Wünschen würde ich mir wenn Matrox mal endlich ausm knick kommt oder PowerVR. Damit dieser Mist ein Ende hat. Ewiges gezicke um ne GPU. Also ich kaufe mir vor 2005 eh nix neues. Aber ich sehe jetzt schon wieder die Kiddies die nicht für ihr geld arbeiten müssen wie meiner einer und die sich dann wieder karten für 400-500€ kaufen werden.

my just 2 cent :P

Demirug
2004-02-19, 15:32:57
Original geschrieben von Stefan Payne
Hm, sind wir uns soweit einig, daß das einzige Problem bei ATIs Desing das branching ist??

PS: sollte das nicht zutreffen, dann wäre ich dir dankbar, wenn du da mal in einem eigenständigen Thread darauf eingehen würdest ;)

Es sind schon noch ein paar Sachen mehr die zwischen 2.0 und 3.0 liegen. Das grösste Problem ist aber das Branching. Ich habe übrigens nichts von 3.0 Shadern gesagt. Ich sage nur definitive mehr als 2.0.

Ailuros
2004-02-19, 15:34:22
Einfach weil 3dfx ingeniere mit dran gebaut haben.

Da werde ich Dich leider enttaeuschen muessen. Die groessten Talente arbeiteten und arbeiten in ganz anderen Abteilungen. Schwer ist es nicht es sich herauszudenken; auf jeden Fall hat es nichts direkt mit Grafik zu tun ;D


***edit: uebrigens der vorige Vorstand vom 3dfx graphics engineering team war Emmit Killgarif.

Crushinator
2004-02-19, 15:39:57
[X] R420*

* ist nur ein Gefühl. :D

Obligaron
2004-02-19, 16:04:58
[X] NV40
Auch nur ein Gefühl, aber das ganze Durcheinander mit dem R420 macht mich stutzig.

thop
2004-02-19, 16:11:24
Ich vermisse ein wenig die Option:

[X] Mir doch egal, ich kauf mir eh keinen von den teuren Dingern.

seahawk
2004-02-19, 16:28:09
Sagen wir so der NV40 wird technisch fortgeschrittener sein. Der R420 wird unter Spielen die Sahder 2.0 nutzen wahrscheinlich schneller sein. Für die Lebensdauer wird der R420 die bessere Leistung aufweisen.

VooDoo7mx
2004-02-19, 17:51:29
[X] Oh Gott was für ein schwachsinniger und sinnloser Thread.

Jedem normal denkenden Mensch müsste von vorne herrein klar sein , ass alle Fanboys nur ihren Lieblingshersteller wählen und die Sache viel zu wenig objektiv betrachten.

Original geschrieben von [dzp]Viper
hm schwer zu Sagen

AA - R420

AF - gleichstand

Alte spiele - NV 40

Neue Spiele - R420

Aber zum glück isses ja nur spekulation :D

Wo steht denn das Nvidia weiterhin seine AA Muster aus dem NV20 beibehalten wird?
Wer sagt das ATi die winkelabhängigkeit beim AF nicht abstellt?
Was sind denn bitteschön alte und neue Spiele? X2 ist zum beispiel auch ein nagelneuer Titel der auf NV Karten wesentlich besser läuft.
Man kann solche Aussagen nicht so einfach pauschalisieren

Auch wenn das nur ein Spekulations Forum ist, halte ich solche Aussagen viel zu sehr aus der Luft gegriffen und nur für wunschdenken eines Fanboys.
Wie schon gesagt ein ATi-Besitzer sieht seinen Hersteller vorn. :bonk:

Eines steht jedoch soweit schon fest. Der R420 wird ein ziemlich dicker R300 und der NV40 ein zum großen teil neues Design.
Allein schon von dieser Tatsache aus, ist es wohl wesentlich einfach herrauszufinden welcher Hersteller seine Schhwächen am besten ausgbügelt hat...


Ich wähle hier ganz bewusst nichts.

StefanV
2004-02-19, 17:56:33
Original geschrieben von Demirug
Es sind schon noch ein paar Sachen mehr die zwischen 2.0 und 3.0 liegen. Das grösste Problem ist aber das Branching. Ich habe übrigens nichts von 3.0 Shadern gesagt. Ich sage nur definitive mehr als 2.0.

Ja, aber bis aufs Branching gibt es doch keine Probleme, die R300 Architektur auf 3.0 Shader aufzubohren, oder??

So würde ATI dann vermutlich von 'lite PS3.0' oder 'nearly PS3.0' sprechen *eg*

ow
2004-02-19, 18:03:26
.

StefanV
2004-02-19, 18:05:26
Original geschrieben von ow
VS betrachtest du wohl grundsaetzlich nicht oder wie?

Nö, die kann man notfalls durch die CPU jagen, zwar nicht optimal, funzt aber und man hat (bis auf die Performance) nicht wirklich einen Nachteil...

Allerdings sehe ich auch bei den VS weniger Probleme...

[dzp]Viper
2004-02-19, 18:05:48
Original geschrieben von VooDoo7mx
[X] Oh Gott was für ein schwachsinniger und sinnloser Thread.

Jedem normal denkenden Mensch müsste von vorne herrein klar sein , ass alle Fanboys nur ihren Lieblingshersteller wählen und die Sache viel zu wenig objektiv betrachten.



Wo steht denn das Nvidia weiterhin seine AA Muster aus dem NV20 beibehalten wird?
Wer sagt das ATi die winkelabhängigkeit beim AF nicht abstellt?
Was sind denn bitteschön alte und neue Spiele? X2 ist zum beispiel auch ein nagelneuer Titel der auf NV Karten wesentlich besser läuft.
Man kann solche Aussagen nicht so einfach pauschalisieren

Auch wenn das nur ein Spekulations Forum ist, halte ich solche Aussagen viel zu sehr aus der Luft gegriffen und nur für wunschdenken eines Fanboys.
Wie schon gesagt ein ATi-Besitzer sieht seinen Hersteller vorn. :bonk:

Eines steht jedoch soweit schon fest. Der R420 wird ein ziemlich dicker R300 und der NV40 ein zum großen teil neues Design.
Allein schon von dieser Tatsache aus, ist es wohl wesentlich einfach herrauszufinden welcher Hersteller seine Schhwächen am besten ausgbügelt hat...


Ich wähle hier ganz bewusst nichts.

Hilfe....

1. ich bin 100%ig kein ATI fanboy

2. du scheinst ja sehr sehr viel insiderwissen zu haben - oder ist das nur ein wuschtraum eines NV fanboys? (ums mal mit deinen worten zu sagen)

Eines steht jedoch soweit schon fest. Der R420 wird ein ziemlich dicker R300 und der NV40 ein zum großen teil neues Design.
Allein schon von dieser Tatsache aus, ist es wohl wesentlich einfach herrauszufinden welcher Hersteller seine Schhwächen am besten ausgbügelt hat...

3. Wer sagt dir, dass NV was am AA machen wird? Wer sagt dir, dass ATI am AF nix machen wird?

Fragen über fragen - und es sind alles spekulationen - dafür ist das forum schliesslich da.
Und wenn mir jemand im SPEKULATIONSFORUM(wo spekulieren ja erlaubt ist) dumm kommt, dann komme ich demjenigen auch dumm zurück.

Also vielleicht solltest du deinen Post nochmal überdenken... Ich kann dir nämlich jedes Wort umdrehen so dass du am ende als NV Fanboy dastehst...

Um nochmal Spekulation für dich zu definieren:

Spekulation heißt, dass man vermutet, dass es so kommen kann aber es nicht unbedingt so erwartet

du verstehen? Ich hoffe doch....

Demirug
2004-02-19, 18:10:55
Original geschrieben von Stefan Payne
Ja, aber bis aufs Branching gibt es doch keine Probleme, die R300 Architektur auf 3.0 Shader aufzubohren, oder??

So würde ATI dann vermutlich von 'lite PS3.0' oder 'nearly PS3.0' sprechen *eg*

Zumindestens sind die anderen Dinge im Verhältnis zum Branching relative einfach.

betasilie
2004-02-19, 18:19:25
Wieso kann ich nicht abstimmen? :heul: Edit: War mein Fehler. :D

@VooDoo7mx
Der Poll soll lediglich ein Stimmungsbild machen und als Grundlage dienen natürlich nur spekulative Gedanken. Ich glaube fast alle sind sich darüber im klaren, dass niemand mit Bestimmtheit wissen kann, welcher Chip der "bessere" wird. ... Also einfach nur die eigene Meinung schreiben und die der anderen unkommentiert lassen, denn es ist klar, dass jeder in einem gewissen Maße spekuliert, wenn er seine Memung schreibt. ;)

BodyLove
2004-02-19, 20:00:50
[x]Mir doch egal, ich kauf mir eh den besten davon.

Rein aus dem Gefühl her, würde ich zur Zeit knapp den R420 vorne sehen. Aber ist egal. Eines der beiden wird definitiv meine nächste Karte. Langsam nervt es mich, spiele selbt auf 640x480 nicht flüssig spielen zu können.

Gast
2004-02-19, 20:12:05
Original geschrieben von BodyLove
[x]Mir doch egal, ich kauf mir eh den besten davon.

Rein aus dem Gefühl her, würde ich zur Zeit knapp den R420 vorne sehen. Aber ist egal. Eines der beiden wird definitiv meine nächste Karte. Langsam nervt es mich, spiele selbt auf 640x480 nicht flüssig spielen zu können.

Wirst du dich mit der non Pro zufrieden geben ?
Ich mein die Pro oder Ultra ist rausgeschmissendes Geld,man kann die non immer auf ultra Niveau übertakten und spart richtig Geld.

BodyLove
2004-02-19, 20:20:27
Kommt drauf an, wieviel mehr die Ultra/Pro kostet. Alles hat seine Grenze. Aber vorab will ich mir diesmal eher eine Pro bzw. Ultra gönnen.

Gast
2004-02-19, 20:27:52
Also für 5 % mehr Leistung bezahl ich keine 100 oder mehr Euro.

Thowe
2004-02-19, 21:10:06
Hmmm, ausgehend von den mit bekannten Fakten und Vermutungen, finde ich das "blau" glücklich macht.

loewe
2004-02-19, 21:21:27
Mich wundert ein wenig, wegen des Widerstandes in anderen Threads, dass von den Außenseitern nur PowerVR hier aufgeführt ist. ;)
Irgendwie deutet das für mich darauf hin, dass ihnen also doch noch etwas zugetraut wird.

Es ist aber auch wirklich schwer.
Die Informationsdichte ist einfach zu gering, um eine halbwegs fundierte Spekulation abgeben zu können.
Mit den für NV40 und R420 "bekannten" Infos werde ich mich immer noch für "blau" entscheiden.

StefanV
2004-02-19, 21:26:54
Ahjo, ich hab ja auch gevotet ;)

Schließe mich loewe und 'dem alten Sack' an ;)

PS: hoffentlich wird der neue Chip genauso sparsam wie die Kyro2 ;)

loewe
2004-02-19, 21:32:21
Original geschrieben von Stefan Payne
Schließe mich loewe und 'dem alten Sack' an ;)

Danke, aber so alt ist der "alte Sack" gar nicht. :D

PS: hoffentlich wird der neue Chip genauso sparsam wie die Kyro2 ;)
Nein wird er nicht.

Tannjew
2004-02-19, 21:42:35
Habe auch mal für "Blau" gestimmt. Eigentlich ist ja Gelb meine Lieblingsfarbe, aber wenn Leute mit buschigen Mähnen und großen Fängen für "Blau" stimmen dann sage ich nicht "Gelb" :D

Gast
2004-02-19, 22:19:01
ich gebe keinen Tipp ab. Ist mir alles zu undurchsichtig.

Wenn NV40 besser ist, kauf ich den, wenn der R420 besser ist kauf ich den.

Bei Gleichstand oder hauchdünnem Vorsprung für den R420 kaufe ich trozdem Nvidia.
Ist einfach problemloser und sicherer.

Aqualon
2004-02-19, 22:39:32
Original geschrieben von loewe
Mich wundert ein wenig, wegen des Widerstandes in anderen Threads, dass von den Außenseitern nur PowerVR hier aufgeführt ist. ;)
Dann muss ich wohl kurz begründen, warum ich nur noch PowerVR hinzugenommen habe ;)

AFAIK gibt es von keinem anderen Chip-Hersteller eine Ankündigung oder Hinweise auf einen Grafikchip mit Shader 3.0 Unterstützung.

Deswegen habe ich den Poll auf R420, Series 5 und NV40 beschränkt.

Aqua

Edit: Hab Hinweise gefunden, dass der XG45 Shader 3.0 unterstützen können soll, aber mit dem ist laut http://www.volarigamers.com/modules/news/article.php?storyid=76 nicht vor Ende 2004 zu rechnen.

LovesuckZ
2004-02-19, 22:50:23
Original geschrieben von Aqualon
Edit: Hab Hinweise gefunden, dass der XG45 Shader 3.0 unterstützen können soll, aber mit dem ist laut http://www.volarigamers.com/modules/news/article.php?storyid=76 nicht vor Ende 2004 zu rechnen.

Und wer sagt, dass dies beim r420/Serie5 anders aussehe?

[dzp]Viper
2004-02-19, 23:14:02
Original geschrieben von LovesuckZ
Und wer sagt, dass dies beim r420/Serie5 anders aussehe?

mit was? Release ende 2004? ;) niemand - aber es ist SEHR unwahrscheinlich ;)

betasilie
2004-02-19, 23:15:35
Serie5 soll definitv PS3.0 haben, afair. Und einfach aus dem Bauch herraus habe ich auch für "blau" getippt. :) Einen Dreierkampf fände ich toll.

Aqualon
2004-02-20, 00:30:16
Original geschrieben von LovesuckZ
Und wer sagt, dass dies beim r420/Serie5 anders aussehe?
Ok, mag sein, dass diese keine Shader 3.0 unterstützen werden. Aber vom R420 kann mit Sicherheit gesagt werden, dass er performancemäßig an der Spitze mitspielen wird und die Serie5 hat zumindest von den bisher bekannten Spezifikationen die Chance vorne dabei zu sein.

Von S3 ist bisher nichts bekannt, was auf zukünftige HighEnd-Chips hinweisen würde und XGI muss nach dem XG40-Debakel erstmal zeigen, dass sie überhaupt noch halbwegs mithalten können.

Aqua

aths
2004-02-20, 01:11:55
Original geschrieben von Stefan Payne
Nö, die kann man notfalls durch die CPU jagen, zwar nicht optimal, funzt aber und man hat (bis auf die Performance) nicht wirklich einen Nachteil...Wenn du im VS auf Texturen zugreifen willst, kannst du das nicht so einfach per CPU emulieren.

aths
2004-02-20, 01:23:11
Original geschrieben von loewe
Es ist aber auch wirklich schwer.
Die Informationsdichte ist einfach zu gering, um eine halbwegs fundierte Spekulation abgeben zu können.
Mit den für NV40 und R420 "bekannten" Infos werde ich mich immer noch für "blau" entscheiden. Dein Posting mal als Aufhänger: Ich habe versucht, nicht so abzustimmen 'wie hätte ich es gerne', sondern 'was vermute ich'?

Meiner Meinung nach steht zu befürchten, dass ATI nach dem großen Erfolg im Elan etwas nachließ. NV wird wohl alle Kräfte mobilisiert haben. Dies mal war z. B. kein NV2X nebenbei zu entwickeln.

Ich glaube nicht, dass PowerVRs Lösung, so sie kommt, ATI oder NV schlagen kann. Dazu haben sie zuwenig Erfahrung mit DX8- und DX9-HW. Bei ATI und NV geht es mit DX9 schon in die zweite Runde.


Original geschrieben von Aqualon
die Serie5 hat zumindest von den bisher bekannten Spezifikationen die Chance vorne dabei zu sein.Bekannte Specs? Ist mir was entgangen?

Winter[Raven]
2004-02-20, 01:44:16
Meiner Meinung nach steht zu befürchten, dass ATI nach dem großen Erfolg im Elan etwas nachließ

Jep, das denke ich auch. Bei allem Respekt für Ati's R300 und die Refresh's ABER Der Schwung eines Pinsels erzeugt noch kein geniales Gemälde.

Ati hat meiner Meinung noch nicht die Übung darin sich nicht auszuruhen auf den Lobbären ;). NV wurde dies mit dem NV30 zum verhängniss.

Ailuros
2004-02-20, 01:45:51
Ich glaube nicht, dass PowerVRs Lösung, so sie kommt, ATI oder NV schlagen kann. Dazu haben sie zuwenig Erfahrung mit DX8- und DX9-HW. Bei ATI und NV geht es mit DX9 schon in die zweite Runde.

Von schlagen oder nicht schlagen kann wohl momentan keiner eine sichere Aussage machen, ueberhaupt wenn KEINE genaue Specs noch Tests von zukuenftigen Loesungen vorliegen. Was die Erfahrung betrifft werden wir wohl noch sehen bei einer Veroeffentlichung. Eine zeitige Veroeffentlichung natuerlich; wenn schon denn schon. Sonst hat es keinen wert.

Genau der gleiche Quatsch wurde auch mit T&L erzaehlt; dabei sind die Naomi2 Systeme und der Elan alles andere als bescheiden in dx7 T&L Leistung. Der 4-way SIMD dx8.1 VS auf MBX ist auch nur eine Illusion.

Bekannte Specs? Ist mir was entgangen?

Wo liegen ueberhaupt Spezifikationen von zukuenftigen chips vor? Ich weiss dass Du's nicht gerne hoerst aber die drei oeden demos und die ShaderX2 Artikel wurden natuerlich nur veroeffentlicht, dass sich die Firma damit blamieren kann.

Ailuros
2004-02-20, 01:54:38
Original geschrieben von Winter[Raven]
Jep, das denke ich auch. Bei allem Respekt für Ati's R300 und die Refresh's ABER Der Schwung eines Pinsels erzeugt noch kein geniales Gemälde.

Ati hat meiner Meinung noch nicht die Übung darin sich nicht auszuruhen auf den Lobbären ;). NV wurde dies mit dem NV30 zum verhängniss.

NVIDIA schiebt intern die Verantwortung fuer den NV30-"flop" hauptsaechlich auf die Disorientierung vom XBox chip. ATI wird sich jetzt mit dieser Tatsache auch teilweise schlagen muessen, obwohl sie wiederum den Vorteil haben dass es sich nur um eine Lizenz handelt.

MadManniMan
2004-02-20, 05:22:26
Gut, daß ich selbst blau bin. Da sag ich jetz einfach mal: zuviel Geseier um R420 und NV40, schön wenig um die S5.

=)

S5





PS, AiL: Antwort ist noch immer nicht in Arbeit. Momentan nimmt mich mein RL spaßigerweise stark ein, aber vergess0rn tu ich Dir nich!

ShadowXX
2004-02-20, 10:28:57
Original geschrieben von Winter[Raven]
Jep, das denke ich auch. Bei allem Respekt für Ati's R300 und die Refresh's ABER Der Schwung eines Pinsels erzeugt noch kein geniales Gemälde.

Ati hat meiner Meinung noch nicht die Übung darin sich nicht auszuruhen auf den Lobbären ;). NV wurde dies mit dem NV30 zum verhängniss.

Ja, das denke ich leider langsam auch...ich hatte gehofft das ATIs Ergeiz über Ihren Konservatismus siegt....aber momentan sieht es so aus, als wenn der r420 nur ein HiSpeed-r360 wird...schade.

Denn was Konkurrenz bewirkt, sieht man ja an nV...Sie haben bemerkt das Sie gepennt haben und reagieren jetzt....

Wenn der r420 wirklich nur ein nochmals aufgebohrter r360 wird, wird ATI ziemlich schnell merken, das "Der König ist Tot, es lebe der König" auch andersherum funktioniert...

J.S.Shadow

ActionNews
2004-02-20, 10:30:35
Naja ihr wisst ja, dass ich PowerVR einiges zutraue :)! Ich bin jedenfalls gespannt und hab deshalb auch mal für "blau" gestimmt :D!

CU ActionNews

Aqualon
2004-02-20, 10:34:21
Original geschrieben von aths
Bekannte Specs? Ist mir was entgangen?
Ok, sind eher Spekuficationen.

Du darfst den Poll gerne ergänzen, aber ich denke kaum, dass jemand von S3, XGI oder einem anderen Hersteller einen wirklich großen Wurf erwarten wird.

Aqua

Quasar
2004-02-20, 10:43:01
In Sachen "Leistung pro Watt" erwarte ich von S3 sogar einen ganz großen Wurf...

Ailuros
2004-02-20, 11:09:26
Original geschrieben von Quasar
In Sachen "Leistung pro Watt" erwarte ich von S3 sogar einen ganz großen Wurf...

*hust*

loewe
2004-02-20, 11:51:30
Original geschrieben von aths
Dein Posting mal als Aufhänger: Ich habe versucht, nicht so abzustimmen 'wie hätte ich es gerne', sondern 'was vermute ich'?


Ja, so sollte man es tun und ich hoffe mal es hat jeder hier ähnlich getan.
Sicher hat aber auch Demi recht, wenn er sagt da kann man nur Würfeln. Selbst wenn es hier im Forum einzelne Leute gibt die zu einzelnen der Chips mehr wissen, keiner kennt dann auch wirklich die anderen und so sind wir alle sehr stark von mehr oder weniger begründeten Vermutungen abhängig.

Ich habe mich auch mit meiner Wahl an die eigentliche Themenvorgabe gehalten:
"Welcher NextGen Grafikchip wird am meisten überzeugen?"
Es geht hier also um überzeugen und nicht ausschließlich nur um ich bin der schnellste oder ich habe eine Feature was sonst keiner hat.

r@e
2004-02-20, 12:17:01
Hmmm...

Wenn sich ATI weiterhin auf den "ArtX-Bonus" ausruht, wird's wohl nichts mit vollen PS3.0-Specs... die ich nebenbei bemerkt auch für 'etwas' verfrüht halte. nVidia wird sich wohl was hübsches ausdenken müssen, wenn sie wieder unangefochtener Performance-King werden wollen (wenn, ja wenn ;-). Und PowerVR traue ich überhaupt erst wieder was zu, wenn sie nicht wieder solche Dinger wie mit den Kyro's bringen: Chip da, 2 Jahren von der Bildfläche weg, Chip da (Kyro2), wieder 2 Jahren von der Bildfläche verschwunden und jetzt... obwohl... es sind ja wieder ein paar Jahr rum.
:D

Sorry, aber von den nVidia-Specs (Takt und Transistor-Anzahl) auf die Architektur zu schließen halte ich schon für 'etwas' gewagt. Von ATI hört man gar nichts (trauen sich vielleicht nicht ;-) und von ImgTech wird wohl (wieder) nichts kommen...

Nicht nur dass ich nicht abstimmen kann - ich würde auch gar nicht wollen !
Wozu ?
:???:

Razor

Quasar
2004-02-20, 13:40:02
Original geschrieben von Ailuros
*hust*
*Ailuros_eine_Flasche_Hustnsaft_reicht*

S3 hat mit dem Delta-Chrome ja schon gut vorgelegt*, was man bisher so lesen konnte. Und das bei niedriger Leistungsaufnahme.
Was mich allerdings ein wenig ärgert, ist, daß XGI sich auch das XP4-Design einverleibt haben. Das hätte ich persönlich auch interessant gefunden.
(Merkt man, daß ich vom Kauf eine Laptops durch die Abwesenheit sinnvoll nutzbarer 3D-Beschleuniger abgehalten werde?)


*bezogen auf die "Aussenseiter".

Gast
2004-02-20, 17:12:23
Ich find das echt krass dieses Jahr,früher haben die Hersteller schon ein halbes vorher mit ihren Karten rumgeprollt.Nun sind es nur noch ca 3 Wochen bis zur Cebit und es kommt einfach nix,hey das gabs ja noch nie.

Beide haben wohl zum erstenmal richtig Angst vorm anderen.
Das kann uns nur recht sein,denn in dieser Situation können sie uns nicht mit 10 % mehr Leistung oder so abspeisen.

Wer wird seine Karten zuerst auf den Markt haben,werden sie schon im April käuflich sein ?
Hoffe Anfang April bekommt PCGH eine Karte zugeschickt,denn nur silche Benchmarks zählen.

Die Werbebenchmarks von den Herstellern sind doch nur ein Witz.

r@e
2004-02-20, 17:20:57
Original geschrieben von Gast
Die Werbebenchmarks von den Herstellern sind doch nur ein Witz. Wenn es wenigstens die geben würde...

Razor

Winter[Raven]
2004-02-20, 17:23:53
Naja Razor, ich mein Nvidia scheint es gelernt zuhaben keine Ergebnisse oder Benches vor dem Release rauszubringen, aber Ati ? ... ich mein bis der R420 erscheint vergeht noch eine Weile, aber schon jetzt mit 2-3x "egebnissen" rumzupreisen find ich ned so dolle.

Thowe
2004-02-20, 18:27:33
Original geschrieben von Winter[Raven]
Naja Razor, ich mein Nvidia scheint es gelernt zuhaben keine Ergebnisse oder Benches vor dem Release rauszubringen, aber Ati ? ... ich mein bis der R420 erscheint vergeht noch eine Weile, aber schon jetzt mit 2-3x "egebnissen" rumzupreisen find ich ned so dolle.

Nvidia wird ganz sicher "Ergebnisse" einer Karte präsentieren, wenn es aus Marketing-Gründen nötig ist und das gleiche gilt auch für ATI, die Kanadier haben durchaus in dieser Diziplin dazu gelernt und ich denke, sie können NV mitlerweile Paroli bieten.

NV hat meiner Meinung nach einfach durch diverse "Rückschläge" an Zeit verloren, die mehr oder minder "unnütz" gefüllt wurden und ich glaube nicht, das dies so geblieben ist. Ich erwarte einfach das NVIDIA diesmal einer Karte vorlegt, die in keinerlei Diziplin enttäuschen wird. Das, und das mag man mir erlauben, sind sie uns als Anweder einfach schuldig.

ATI hat sich auch nicht ausgeruht, sie hatten sogar mehr Zeit als NV an "neue Hardware" zu basteln. Das Ursprungsdesign des R300 hat sich ja quasi nie geändert, es war ja nur eine leichte Pflege die sogut wie keinerlei Manpower erforderte. Hier erwarte ich, das sie ein Produkt vorlegen das durchaus überzeugen kann. Was ATI an "Mitarbeiter" fehlen mag, das sollte das mehr an Zeit durchaus kompensieren.

PowerVR, das ist eine Frage für sich. Ich weiss das sie exzellente "Techniker" haben und einige Spezial-Bereiche von ImgTec die auch für Grafikkarten interessant sind. Eine andere Konstante ist aber leider auch "Pech" was Zeit und Partner angeht. Mir ist nicht bekannt ob sie einen Partner haben, aber was ich sicher weiss ist, das sie durchaus das Potenial haben die Konkurrenz zu übertreffen. Ich hoffe das letzteres der Fall ist und ersteres nicht erneut passiert, denn ich glaube das wäre das aus für die Firma. Alleine dieses Damokles-Schwert dürfte ein gewissen Ansporn etwas gutes zu liefern antreiben. HighTech erwarte ich allemal, ich glaube PVR ist durchaus klar, das nur der Erste den Ruhm erntet. Den ewig dritten beachtet keine Sau und so wird man nunmal nicht groß

S3, kann ich nicht viel zu sagen, auch wenn ich seit Jahren eigentlich ein Fan dieser Firma war. Aber S3 hat mich immer wieder enttäuscht, hier war die Hardware leider zu oft zu buggy. Da konnte meist auch kein Treiber mehr helfen, wenn schon die Basis eine Katastrophe ist. S3 ist zumindestens die Firma, die es immer wusste am falschen Ende zu sparen.

SIS??? Ich weiss nicht ob ich von denen je etwas "professionelles" erwarten würde. Es "fehlt" immer irgendwo und das dann auch noch massiv. Irgendwie versuchen sie scheinbar die Position der damalingen S3 einzunehmen.


Was bleibt? Untern Strich ein massives Nichts-Wissen mit zahlreichen Unbekannten. Eigentlich reicht das nicht mal zur Spekulation, es reicht nur zum Wunschdenken und hier ist meines: PowerVR oder NV vor ATI, bedingt durch das hohe Achtungspotential das ich gegenüber PVR habe, natürlich mit dem massiven Wunsch, das sie es einmal schaffen die Treppe zu erkimmen und das mit dem Vorsprung den sie brauchen das jeder Morgen über sie reden wird.

Wie erreicht man einen Erfolg, indem man die Leute überrascht und alle zum "über mich reden" bringt. Deshalb wäre es unsinnig überhaupt das geringste Risiko einzugehen, das es im Vorfeld bekannt wird. Der schlimmste Gegner ist immer der, der plötzlich mit massiver Stärke da ist.

robbitop
2004-02-20, 18:58:10
@aths
"NV2X" ??
du meinst NV2A? Den XBOX Grafikprozessor?

Zur Spekulation:

R420:
8 "extreme" Pipelines. Also 2 FPUs statt einer und 1 tri TMU statt einer Bi TMU

NV40:
6 Pipelines mit je 2 bilinearen TMUs +2Pipelines mit je 2 bilinearen TMUs vom VS.

Pixelshader hat Demirug ja vorgerechnet.

Somit sind beide sicher sehr ähnlich schnell. 2 bilineare TMUs können in der Praxis flexibler sein als 1 tri TMU aber wer weiss wie effektiv bei NV der Anbau vom VS ist.

Somit sind Füllrate und Pixelshaderleistung vermutlich ähnlich. Taktraten sehen auch sehr ähnlich aus.
Wenn jmd führt, dann nur knapp imo. Somit ist es eigentlich ziemlich egal wer ein paar % vor dem anderen ist.
Dinge wie AA/AF, Technologie, Verlustleistung und Preis sollten hier den Ausschlag geben.

Für nVIDIA ist der NV40 ein extrem großer Schritt nach vorn, wenn sich die Gerüchte bewahrheiten. 2x Füllrate ok.
Aber besonders in der PS Leistung hat man 3-4x mehr als im NV35. Das ist ein riesen Schritt. Auch 8xSparse ist ein gewaltiger Fortschritt.

Ich hoffe, daß Serie5 erscheint und sich mit Ruhm bekleckert. XGI wird auch irgendwann kommen. Mit dem Volari konnten sie sowieso nichts reissen. Eben eine alte SiS Entwicklung. Die Manpower und das Budget ist da. Wer weiss wie gut zukünftige Eigenentwicklungen werden. Kein Meister ist bisher vom Himmel gefallen und ich denke in 2-3 Jahren sollte XGI wenn sie clever sind der 3. im Bund sein. Dafür fehlt PVR einfach die Kraft langfristig in dieser Materialschlacht mit den x Refreshes mithalten zu können imo.

mapel110
2004-02-20, 19:13:19
Original geschrieben von Thowe
PowerVR, das ist eine Frage für sich. Ich weiss das sie exzellente "Techniker" haben und einige Spezial-Bereiche von ImgTec die auch für Grafikkarten interessant sind. Eine andere Konstante ist aber leider auch "Pech" was Zeit und Partner angeht. Mir ist nicht bekannt ob sie einen Partner haben, aber was ich sicher weiss ist, das sie durchaus das Potenial haben die Konkurrenz zu übertreffen. Ich hoffe das letzteres der Fall ist und ersteres nicht erneut passiert, denn ich glaube das wäre das aus für die Firma. Alleine dieses Damokles-Schwert dürfte ein gewissen Ansporn etwas gutes zu liefern antreiben. HighTech erwarte ich allemal, ich glaube PVR ist durchaus klar, das nur der Erste den Ruhm erntet. Den ewig dritten beachtet keine Sau und so wird man nunmal nicht groß


Ich glaube, nach Allem was Airulos über PowerVR und die Produktsparten, die sie abdecken erzählt hat, braucht man sich um das Überleben der Firma keinerlei Gedanken machen.

aths
2004-02-20, 19:32:28
Original geschrieben von robbitop
@aths
"NV2X" ??
du meinst NV2A? Den XBOX Grafikprozessor?Ja. Den Fehler mache ich immer wieder.

Thowe
2004-02-20, 19:50:47
Original geschrieben von mapel110
Ich glaube, nach Allem was Airulos über PowerVR und die Produktsparten, die sie abdecken erzählt hat, braucht man sich um das Überleben der Firma keinerlei Gedanken machen.

Ergänzung: Für die Firma als Grafikchip Lieferant für den Desktop. Sie brauchen einfach diese Profilierung denn nichts ist mehr "Reklame" als ein guter und bekannter Name. Noch ist das ein Rest der Ehrfurcht erhalten, in 2-3 Jahren kennt sie kaum noch wer.

Raff
2004-02-20, 19:56:40
Original geschrieben von ShadowXX
Ich sage da nur: "Möge der Beste gewinnen"...und den kaufe ich dann...

J.S.Shadow

Full Ack.
Wenn der NV40 gut wird, dann bin ich vielleicht bald wieder bei nV. Und wenn der R420 gut wird, bleibe ich bei ATi.

Aber wenn ich ehrlich bin: Ich werde keine Karte kaufen, wo einer der genannten Chips drauf ist. Warum auch? So ein übertakteter R350 rennt sicher noch mindestens 1 Jahr sehr gut. :) Übertragt meine Aussagen also am besten mal auf R500/NV50.

MfG,
Raff

r@e
2004-02-20, 20:09:56
Original geschrieben von Thowe
Wie erreicht man einen Erfolg, indem man die Leute überrascht und alle zum "über mich reden" bringt. Deshalb wäre es unsinnig überhaupt das geringste Risiko einzugehen, das es im Vorfeld bekannt wird. Der schlimmste Gegner ist immer der, der plötzlich mit massiver Stärke da ist. Und daran scheinen sich diesmal ALLE zu halten.

nVidia bringt nur wieder irgendwelches Marketing-Gewäsch (so von wegen 7x schneller ;-), ATI ebenso (doppelt so schnell wie 'nen R350) und ImgTech gar nichts (weil sie nichts haben, auf das sie sich beziehen könnten ;-)... aber Fakten legt hier KEINER auf den Tisch.

Wird eine spannende CeBit würd' ich sagen.
;-)

Razor

robbitop
2004-02-20, 21:09:19
@razor
doch in diesem Falle macht nVIDIA einen recht großen Sprung und zwar in punkto PS Leistung. 3x-4x würde ich sagen.

r@e
2004-02-20, 21:20:04
Original geschrieben von robbitop
@razor
doch in diesem Falle macht nVIDIA einen recht großen Sprung und zwar in punkto PS Leistung. 3x-4x würde ich sagen. Na ja...
3 + 4 sind ja auch 7 !
:D

Mal im ernst... aufgrund welcher architektonischer Einflüsse sollen sie die 3-4x schaffen ? Eben... darüber weiß man noch nichts und das ist der Punkt, auf den ich hinaus wollte.

Das die 'Neuen' schneller sind, davon gehe ich einfach mal aus.
Womit, wofür, wobei und wieviel steht in den Sternen.

Momentan ist schicht ALLES ein Schuß ins Blaue... oder eben - wie meine Vorredner schon teilweise sagten - Wunschdenken.

Razor

robbitop
2004-02-20, 21:50:31
32A Ops im Gegensatz zu 8AOps im NV35 sind bei mir 4x Razor

aths
2004-02-20, 22:17:47
Original geschrieben von r@e
Momentan ist schicht ALLES ein Schuß ins Blaue... Für den Normalsterblichen schon. Von einigen weiß ich, dass sie was wissen, aber die Schnauze halten müssen.

Ailuros
2004-02-21, 01:32:01
Original geschrieben von mapel110
Ich glaube, nach Allem was Airulos über PowerVR und die Produktsparten, die sie abdecken erzählt hat, braucht man sich um das Überleben der Firma keinerlei Gedanken machen.

Thowe kann mich ja korrigieren, aber ich glaube er meinte eher dass noch ein Fehlschlag in den PC Grafikmarkt wieder einzutreten verheerend sein koennte fuer IMG.

Ailuros
2004-02-21, 01:38:09
Original geschrieben von r@e
Und daran scheinen sich diesmal ALLE zu halten.

nVidia bringt nur wieder irgendwelches Marketing-Gewäsch (so von wegen 7x schneller ;-), ATI ebenso (doppelt so schnell wie 'nen R350) und ImgTech gar nichts (weil sie nichts haben, auf das sie sich beziehen könnten ;-)... aber Fakten legt hier KEINER auf den Tisch.

Wird eine spannende CeBit würd' ich sagen.
;-)

Razor

NVIDIA= ~3*NV35 (heiss erwartetes Shader-lastiges Spiel)
ATI = ~2*R350/3*RV350

(ja das kann moeglichen Gleichstand in dem Fall sein)


R420 <==== Series5 => R500 (mit all den moeglichen Beschraenkungen von Verspaetungen oder einer kompletten Stornierung die IMG plagen koennte; ich bin trotzdem optimistisch).

Odal
2004-02-21, 10:11:15
Original geschrieben von aths
Für den Normalsterblichen schon. Von einigen weiß ich, dass sie was wissen, aber die Schnauze halten müssen.

ahh wie heisst der kerl? bei den ganzen spekulationen die hier immer kursieren will ich nun endlich fakten fakten fakten...
ich steh das nichtmehr durch vor spannung *lol* ;D

ironMonkey
2004-02-21, 12:04:26
Original geschrieben von aths
Für den Normalsterblichen schon. Von einigen weiß ich, dass sie was wissen, aber die Schnauze halten müssen.

Also Wissen wir nichts, wenn ich die Karte vor mir liegen hab und sie testen kann, DANN kann ich was sagen, aber vorher nichts weil das ist wie Lotto, zwar ist es schon zu wissen was die GPU Leisten KÖNNTE, aber was sie wirklich kann das steht in den Sternen.





Gruß

Haarmann
2004-02-21, 13:07:01
Ich spekuliere hier auf die PowerVR 5, weil ich annehme, dass die durch ihr Konzept thermische Vorteile haben, die den Anderen schlicht abgehen.

ow
2004-02-21, 13:17:29
.

robbitop
2004-02-21, 13:19:59
er meint geringe Verlustleistung (vieleicht aufgrund des Designs, der Komplexität (geringer??) oder der Taktfrequenz)

Thowe
2004-02-21, 13:32:08
Original geschrieben von Ailuros
Thowe kann mich ja korrigieren, aber ich glaube er meinte eher dass noch ein Fehlschlag in den PC Grafikmarkt wieder einzutreten verheerend sein koennte fuer IMG.

Genau das meinte ich :-)


Original geschrieben von ow
Was sollen denn thermische Vorteile sein?

Mehr Geschwindigkeits/Darstellungsleistung pro Watt :-)

ow
2004-02-21, 13:36:24
.

CrazyIvan
2004-02-21, 13:49:13
@ ow

aber notebooktauglicher und besser in Chipsätze integrierbar...

robbitop
2004-02-21, 14:14:14
ich finde es nett, wenn die Verlustleistung nicht gegen 100W läuft. Das spart Strom und heizt den PC nicht so auf ;)

MadManniMan
2004-02-21, 14:14:41
Ist imho absolutestens eindeutig, mit einer höheren /Watt-Leistung kann man entweder selbes Niveau mit anspruchsloserer Kühlung, oder mit ähnlicher Kühlung höhere Performance verwirklichen.

Laßt uns in einem Reigen der Freude tanzen!

MadManniMan
2004-02-21, 14:17:58
Original geschrieben von robbitop
ich finde es nett, wenn die Verlustleistung nicht gegen 100W läuft. Das spart Strom und heizt den PC nicht so auf ;)

:spritz:

Freu Dich lieber über die knappen 0.1kW deiner NV38 ... :naughty:

low-k 13nm ... schön und gut, aber trotzdem: mehr denn 0.15 Mrd Transis, roundabout 550MHz Core und DDR-Ram in extremster Ausführung... Ich seh da bei den High-End-Ausführungen kein Land für <100W, neinnein :no:

Ailuros
2004-02-21, 14:30:26
Original geschrieben von robbitop
er meint geringe Verlustleistung (vieleicht aufgrund des Designs, der Komplexität (geringer??) oder der Taktfrequenz)

Komplexitaet auf jeden Fall nicht. Kann sein dass manche den Eindruck haben, dass der Stromverbrauch um Welten kleiner sein wird.

Das ist klar, aber wo soll darin ein Vorteil liegen?
Schneller oder featurereicher wird die Karte dadurch auch nicht.

Kann sein dass da der MBX Einfluss auch dran Schuld ist. Auf den ersten Blick denkt man wohl gleich dass der Stromverbrauch auch nicht wieder so grosse Unterschiede zur Konkurrenz hat, bis man sich die Featureliste ein bisschen genauer anschaut. Vieles ist davon noch nicht mal bekannt.

Natuerlich ist es schwer mit einer PC desktop Loesung zu vergleichen, da der Unterschied zu gross ist. Ich spekuliere auch persoenlich auf niedrigere Taktfrequenzen was natuerlich auch bei der Abwaerme mitspielt und die Notwendigkeit von extravaganten Kuehlungs-Loesungen verkleinert. Die Frage ist dann um was fuer eine Fuellrate es sich handelt und wo ihre Effizienz liegt.

TBDR wird generell als Bandbreiten-sparende Architektur angesehen und sie koennten tatsaechlich einen grossen Vorteil mit high precision floating point framebuffers haben; dieser oder jeglicher andere moegliche Vorteil darf aber nicht von moeglichen Nachteilen wieder aufgehalten werden.

(del676)
2004-02-21, 15:08:14
[x]"Mir doch egal, ich kauf mir eh den besten davon"

obwohl ich den r420 vorne sehe

robbitop
2004-02-21, 16:10:10
@Manni
was hast du denn da nettes getrunken? ;)

Mal im Ernst, du musst meine Aussage nicht zwangsweise auf meinen Rechner projezieren. Denn dafür galt es ja nicht. (in meiner Wohnung habe ich pauschalpreis für Strom und Wasser und meine GPU/CPU wird durch eine Wasserkühlung mit 2 Radiatoren gekühlt). Ich bin mir der Verlustleistung meiner NV35 sehr wohl bewusst.
Wenn man sich einen luftgekühlten normalen PC kauft, dann wäre es von imo Vorteil wenn die Verlustleistung nicht ganz so arg wäre und dafür meinetwegen nicht das letzte quentchen an Leistung da ist (Regel des abnehmenden Ertrages).

just my 2 cents

P.S von welcher Grafikkarte redest du da? R420 (lowk usw)

zeckensack
2004-02-21, 20:08:22
Lächerlich. Keiner weiss was. Trotzdem lassen sich die üblichen verdächtigen wieder dazu hinreissen, solch kluge Sätze zu schreiben, die mit "es scheint so zu sein", "soweit ich weiss", "momentan sieht es ja so aus", "wir können davon ausgehen, dass" etc, blabla beginnen.

Series 5 interessiert mich am meisten. Wer "die Nase vorn" haben wird, weiss ich nicht, kann ich nicht wissen, und ich will auch nicht raten.

Godmode
2004-02-21, 20:12:48
Original geschrieben von zeckensack
Lächerlich. Keiner weiss was. Trotzdem lassen sich die üblichen verdächtigen wieder dazu hinreissen, solch kluge Sätze zu schreiben, die mit "es scheint so zu sein", "soweit ich weiss", "momentan sieht es ja so aus", "wir können davon ausgehen, dass" etc, blabla beginnen.

Series 5 interessiert mich am meisten. Wer "die Nase vorn" haben wird, weiss ich nicht, kann ich nicht wissen, und ich will auch nicht raten.

Aber man kann doch aufgrund der Fakten - wenn man das überhaupt Fakten nennen kann - die wir wissen spekulieren darum ist der Thread ja im Speku-Forum!! Wenn es den Leuten gefällt irgendwas zu schreiben oder wenn sie denken das dieses und jenes eintreten wird ist es ja ihre Sache, weil es eben nur Spekulation ist.

zeckensack
2004-02-21, 22:06:53
Original geschrieben von bans3i
Aber man kann doch aufgrund der Fakten - wenn man das überhaupt Fakten nennen kann - die wir wissen spekulieren darum ist der Thread ja im Speku-Forum!! Wenn es den Leuten gefällt irgendwas zu schreiben oder wenn sie denken das dieses und jenes eintreten wird ist es ja ihre Sache, weil es eben nur Spekulation ist. Welche Fakten? Spekulieren ist schön und gut, und da habe ich auch nichts dagegen, tue ich ab und an selbst sehr gerne.

Was mich stört, ist wenn Fakten selbst erfunden werden, um der eigenen Spekulation eine scheinbare Basis, und der eigenen Aussage ein höheres Gewicht zu geben. Nichts als Wichtigtuerei IMO. Und davon halte ich nichts.

Ich habe auch ein paar Gedanken zum Thema gepflegt, und glaube zB dass es möglich ist, dass ein TBDR mit Shader 3.0-Hardware sich wesentlich leichter tut, diese Einheiten zwischen VS und PS frei verschiebbar zu machen. Wenn ImgTech das auch erkannt hat, und voll ausnutzt, dann besteht die Chance dass Series 5 jegliche IMR-Konkurrenz geradezu abfrühstückt.

Zu dieser Aussage kann ich stehen. Ich könnte nicht zu folgenden (frei zusammengesammelten) Aussagen stehen:
"Nvidia scheint mit dem NV40 wohl alle Fehler behoben zu haben"
"momentan sieht es so aus, als wenn der r420 nur ein HiSpeed-r360 wird"
"Denn was Konkurrenz bewirkt, sieht man ja an nV...Sie haben bemerkt das Sie gepennt haben und reagieren jetzt"
"Somit sind beide sicher sehr ähnlich schnell."
"Taktraten sehen auch sehr ähnlich aus."
"Aber besonders in der PS Leistung hat man 3-4x mehr als im NV35. Das ist ein riesen Schritt. Auch 8xSparse ist ein gewaltiger Fortschritt."
"doch in diesem Falle macht nVIDIA einen recht großen Sprung und zwar in punkto PS Leistung. 3x-4x würde ich sagen."
"32A Ops im Gegensatz zu 8AOps im NV35 sind bei mir 4x Razor"

Keine Ahnung => Fakten erfunden => Erfindung als "allgemeinbekannte Spekulation" deklariert => "allgemeinbekannte Spekulation" für wahrscheinlich erklärt.

Von garnichts auf "News" in fünf Sekunden.

Demirug
2004-02-21, 22:34:37
Ach Zecki, es sind schon Daten im Umlauf die man so auch später in den offizielen Presseunterlagen zum Launch wieder finden wird. Das Problem dabei ist nur welcher Quelle man vertrauen darf. In wie weit die Presseunterlagen sich die Wahrheit zurecht biegen ist natürlich ein anderes Thema.

Ich habe auch ein paar Gedanken zum Thema gepflegt, und glaube zB dass es möglich ist, dass ein TBDR mit Shader 3.0-Hardware sich wesentlich leichter tut, diese Einheiten zwischen VS und PS frei verschiebbar zu machen. Wenn ImgTech das auch erkannt hat, und voll ausnutzt, dann besteht die Chance dass Series 5 jegliche IMR-Konkurrenz geradezu abfrühstückt.

Du hast also deine Meinung im Bezug auf das Thema geändert?

Bei einem TBDR geht mir das allerdings nicht weit genug. Den letzten Endes werden auch die IMRs dazu übergehen die Shadereinheiten je nach Bedarf zu nutzen.

zeckensack
2004-02-21, 23:02:01
Original geschrieben von Demirug
Ach Zecki, es sind schon Daten im Umlauf die man so auch später in den offizielen Presseunterlagen zum Launch wieder finden wird. Das Problem dabei ist nur welcher Quelle man vertrauen darf. In wie weit die Presseunterlagen sich die Wahrheit zurecht biegen ist natürlich ein anderes Thema.Darauf kann ich auch warten :)
Die meisten Teilnehmer in diesem Thread wissen IMO genauso viel wie ich, und ich weiss garnichts.


Du hast also deine Meinung im Bezug auf das Thema geändert?Habe ich das?
Ich kam auf die Idee irgendwann im Dezember. Ist Teil einer Arbeit, die ich damals angefangen, und dummerweise noch nicht zu Ende gebracht habe.
Bei einem TBDR geht mir das allerdings nicht weit genug. Den letzten Endes werden auch die IMRs dazu übergehen die Shadereinheiten je nach Bedarf zu nutzen. Ja, das wäre wünschenswert, und ich erinnere mich natürlich auch daran, dass wir über das Thema schon ein paar Mal gesprochen haben.
Bei TBDRs müsste es IMO leichter zu realisieren sein.

TBDR:
Vertex Buffer (externer Speicher) => ALU (VS) => Tilebin (externer Speicher) => Vis/Raster => ALU (PS)
IMR:
Vertex Buffer (externer Speicher) => ALU (VS) => FIFO (on chip) => Raster/Early Z => ALU (PS)

Der IMR braucht ein Minimum an Parallelität zwischen VS und PS. Der TBDR ist darauf nicht angewiesen, da er insgesamt asynchroner funktionieren kann (er kann quasi unendlich viel Zwischendaten auslagern, während der FIFO des IMR in der Kapazität begrenzt ist).

Beim IMR stellen sich auch Fragen bzgl des Layouts des Chips. Wo liegt der FIFO, wo liegen die ALUs, und wie bekomme ich die Daten am schnellsten von A nach B?
Wie teile ich den Programmcode zwischen den ALUs auf?

Beim TBDR ist die Lösung dieses Problems bereits inhärent mit dem Konzept verknüpft, denn der Vis/Raster-Block muss den externen Speicher lesen können. Ausserdem ist es hier weiterhin möglich, alle ALUs parallel mit dem identischen Programm zu befeuern.

Vereinfachtes Blockdiagramm für den TBDR

Texturen
||
|/Vertex fetch \| \/ |/prim assembly, bin\|
Speicher=>|* *|ALUs|* *|<=>Speicher
|\-Vis/Raster--/| /\ |\------ROP---------/|
||
Shader-Code
Hier sind zwei Schalter eingebaut. Schalter "oben" dient dem Vertex processing und triangle binning. Schalter "unten" erzeugt dann die Pixel. Beide Modi arbeiten parallel mit allen verfügbaren ALUs.

Demirug
2004-02-21, 23:20:39
Original geschrieben von zeckensack
Darauf kann ich auch warten :)
Die meisten Teilnehmer in diesem Thread wissen IMO genauso viel wie ich, und ich weiss garnichts.

Wie gesagt Wissen ist vorhanden nur eben zuviel davon.


Habe ich das?
Ich kam auf die Idee irgendwann im Dezember. Ist Teil einer Arbeit, die ich damals angefangen, und dummerweise noch nicht zu Ende gebracht habe.

Schau mal dort: http://ds80-237-203-42.dedicated.hosteurope.de/vbulletin/showthread.php?s=&threadid=72688 Es ging da aber ganz allgemein um die Idee für Pixel und Vertexberechungen die gleichen Einheiten zu nutzten.

Ja, das wäre wünschenswert, und ich erinnere mich natürlich auch daran, dass wir über das Thema schon ein paar Mal gesprochen haben.

<snip>

Ich meinte eigentlich was anderes. Was das verteilen von Rechenleistung beim IMR angeht so würde ich die Shader einfach als Array anordnene und die Eingangsdaten aufgrund von füllständen der Zwischenbuffer wählen. Ist zum Beispiel der Post-Vertexbuffer voll kann man alle Shader auf die Pixelverarbeitung schalten.

Was ich mit nicht weit genug gehen aber wirklich meinte ist das: http://ds80-237-203-42.dedicated.hosteurope.de/vbulletin/showthread.php?s=&threadid=75598

Oder um es mal mit DX7 Technik auszudrücken. Das T&L in zwei Teile zerlegen und nur das T vor dem Binning ausführen. Den L teil dann so Lange verzögern bis feststeht das ein Dreieck das diesen Vertex nutzt auch wirklich sichtbar ist.

betasilie
2004-02-21, 23:27:36
@Zeckensack
Deine Kritik ist schon nicht unangebracht, aber deswegen schrieb ich ja:
Original geschrieben von betareverse
Da bald die ersten harten Fakten zum nV40 und R420 anstehen werden, tippt einfach mal ins blaue, ...

Es ging ja lediglich darum ein Meinungsbild einzufangen, bevor wir wirklich um die harten Fakten wissen.

zeckensack
2004-02-21, 23:36:41
Original geschrieben von Demirug
Schau mal dort: http://ds80-237-203-42.dedicated.hosteurope.de/vbulletin/showthread.php?s=&threadid=72688 Es ging da aber ganz allgemein um die Idee für Pixel und Vertexberechungen die gleichen Einheiten zu nutzten.Ja, dort findest du auch meine Bedenken in Bezug auf IMRs, die ich auch heute noch habe.
Bei TBDRs stelle ich mir das ganze eben wesentlich leichter vor, wie oben geschildert :)

Ich meinte eigentlich was anderes. Was das verteilen von Rechenleistung beim IMR angeht so würde ich die Shader einfach als Array anordnene und die Eingangsdaten aufgrund von füllständen der Zwischenbuffer wählen. Ist zum Beispiel der Post-Vertexbuffer voll kann man alle Shader auf die Pixelverarbeitung schalten.

Was ich mit nicht weit genug gehen aber wirklich meinte ist das: http://ds80-237-203-42.dedicated.hosteurope.de/vbulletin/showthread.php?s=&threadid=75598

Oder um es mal mit DX7 Technik auszudrücken. Das T&L in zwei Teile zerlegen und nur das T vor dem Binning ausführen. Den L teil dann so Lange verzögern bis feststeht das ein Dreieck das diesen Vertex nutzt auch wirklich sichtbar ist. Das könnte man natürlich auch machen. Dadurch wird das ganze leider wieder komplexer (wie du auch selbst geschrieben hast). Ich bin mir nicht sicher, ob sich das im ganzen betrachtet lohnen würde.
Wofür verbrauchen "typische" Vertex Shader Rechenleistung? Ich tippe hier eher auf Animation (und mit VS3.0 displacement), und nur untergeordnet Farb-Berechnung. Texturkoordinaten muss man für reine Animationszwecke auch nicht verändern, das braucht man nur zum "Anblasen" von diversen per pixel lighting-Geschichten. Auch hierfür muss natürlich zuerst eine Position errechnet werden.

Insgesamt sehe ich nur geringe Vorteile für "typische" Anwendungsfälle, und auf der anderen Seite die erhöhte Komplexität.

Noch eins: wenn die Lichtberechnung im VS erfolgt, ist das Ergebnis nur noch eine oder zwei Farbe(n), die uU kompakter gespeichert werden kann als die Attribute, aus denen sie errechnet wurde. Ein TBDR könnte hier nochmals (pro tatsächlich geschriebenem Vertex) externe Bandbreite sparen, im Austausch gegen potentiell überflüssige Berechnungen.

edit:
Diese ganze Geschichte lohnt sich auf TBDRs IMO nicht*.
Der Gewinn wäre eingesparte Rechenleistung im Vertex-Bereich. Wenn ich nun richtig liege, und die VS und PS "unified" sind, dann ist die im Vertex-Bereich verfügbare Leistung ohnehin sehr hoch (genauso hoch wie die Pixel-ALU-Leistung). Im Vergleich zu traditionellen Architekturen also "zu hoch" (im Sinne von "nicht ausbalanciert"). Dadurch werden solche Einsparungen noch weniger wichtig.

*universell sinnvoller Sonderfall: man macht T=>Cull=>L statt T&L=>Cull; das kann man uf TBDRs und auf IMRs machen, und es ist in beide Designs ohne grossartige Eingriffe integrierbar

robbitop
2004-02-22, 01:21:20
wieviel Overdraw existiert in Games wie Doom3 beispielsweise an Pixelshadereffekten?
(ich weiss Situationsabhängig aber ein Bereich von bis wäre nett für die Vorstellungskraft)

MadManniMan
2004-02-22, 01:32:49
Original geschrieben von robbitop
@Manni
was hast du denn da nettes getrunken?

Gestern und heute ausnahmsweise mal gar nix, aber ich bin verliebt ;)

Original geschrieben von robbitop
Mal im Ernst, du musst meine Aussage nicht zwangsweise auf meinen Rechner projezieren. Denn dafür galt es ja nicht.

Ich wollte Dich nicht deswegen dummlabern, weil ne ne ~100W Karte hast, sondern weil ich deinen Wunschtraum derart, naja ... - pardon! - lächerlich fand.
Ja und auch, weil eben Deine Karte noch richtig harmlos ist!Original geschrieben von robbitop
P.S von welcher Grafikkarte redest du da? R420 (lowk usw)

Ich stütze mich nicht auf Fakten, denn ich habe keine Quellen. Schließlich bin ich nur in diesem Forum aktiv und hab ein intensives RL :D
Spaß bei Seite! Ich hab nur für mich logische Schlüsse gezogen. ATi bietet mit dem M11 0.13µ und low-k, ergo hat man bereits Erfahrungen in die Richtung gesammelt. Daß die Nachfolgegeneration vom R300 in eben jenen 130nm gefertigt wird, kann man IMHO schon seit langer Zeit als Fakt sehen. Somit ist low-k nicht derart wahrscheinlich, wie eben 130nm, aber meines Erachtens werden wir "beide Prozesse" vorfinden. Bringt ATi auch nur eines davon nicht, so bewegen wir uns Richtung 200W - würde ich zumindest annehmen! Ich halte schon nicht viel von der Stromaufnahme der neuen Generation(deshalb auch meine Meinung über PVR :-) ), aber mit 100 - 150W sollten wir wohl noch glücklich werden können, aussuchen können wirs uns eh nicht wirklich.
Und zu nV: 0.13µ sehe ich als gegeben, 0.11µ hätte man riesigerweise beworben. Und unter diesen Umständen versteht sich low-k von selbst ;)

Nu is aber gut, die Frühschicht ruft :D

stickedy
2004-02-22, 01:41:50
Also ich hab mal für Series5 gestimmt! Wer hättte das geglaubt? ;)

robbitop
2004-02-22, 01:44:56
ich bin auch verliebt :)

nun, lowk wird bei nVIDIA wohl nicht vorkommen imo. Der CEO meinte es sei nicht reif für die Massenproduktion bei NV. Nach dem NV30 debakel wird man gewissen Risiken aus dem Weg gehen wollen und ausserdem beherrscht IBM afair kein lowk (SiLK). Und dort soll NV40 ja gefertigt werden.

Woher kennst du meine Wünsche nach Leistung? ;)
Als ich den Deltachrome sah, war ich hin und weg. Gut er ist kein HighEnd Geschoss, dafür ist er mit 5W extrem gut dran. So in der Art meinte ich das. Soll meinetwegen ein stückerl langsamer sein dafür aber entscheident sparsamer (Regel des abnehmenden Ertrages).

Meine Karte ist nicht harmlos :P aber wie gesagt ist die wassergekühlt und kein Maßstab für das was ich meinte. Wenn Serie5 zB nur mit 350Mhz getaktet wäre und meinetwegen 30-40% langsamer als NV40/R420 und auch nur 350Mhz DDR Ram hätte und davon sagen wir 128MB in der "nichtultra"Version wäre der Verbrauch schon wieder recht weit unten.

Ich denke mal nVIDIA/ATi versuchen egal was es kostet das letzte Quentchen Leistung herrauszuquetschen und das kostet sicher viel Verlustleistung und das KÖNNTE bei Series5 anders sein. Ich denke es war einfach nur ein kleines Missverständnis :)

MadManniMan
2004-02-22, 01:46:38
Original geschrieben von robbitop
wieviel Overdraw existiert in Games wie Doom3 beispielsweise an Pixelshadereffekten?
(ich weiss Situationsabhängig aber ein Bereich von bis wäre nett für die Vorstellungskraft)

Hm, ich habe gehört, daß man in einer - Gott bewahre! - Alpha Version der Engine Wireframes einschalten kann... :grübel:

Wer mir das gesagt hat? Zu lang her... :ratlos:

MadManniMan
2004-02-22, 01:55:46
Original geschrieben von robbitop
ich bin auch verliebt :)

Herrlich, gell? Vor allem, wenn man zuvor monatelang nur seinen Spaß gehabt hat... *schwärm*

Genug OT!

Original geschrieben von robbitop
nun, lowk wird bei nVIDIA wohl nicht vorkommen imo. Der CEO meinte es sei nicht reif für die Massenproduktion bei NV. Nach dem NV30 debakel wird man gewissen Risiken aus dem Weg gehen wollen und ausserdem beherrscht IBM afair kein lowk (SiLK). Und dort soll NV40 ja gefertigt werden.

Quelle?

Hm, ich komm mit dem Gedanken ganz ehrlich nicht klar, weil ich damit gar die 150er Grenze fallen sehe... Auweia!

Original geschrieben von robbitop
Woher kennst du meine Wünsche nach Leistung? ;)
Als ich den Deltachrome sah, war ich hin und weg. Gut er ist kein HighEnd Geschoss, dafür ist er mit 5W extrem gut dran. So in der Art meinte ich das. Soll meinetwegen ein stückerl langsamer sein dafür aber entscheident sparsamer (Regel des abnehmenden Ertrages).



Die 5 Watt sinds aber leider nur vom Core! incl. der(für heutige Verhältnisse wirklich nicht mehr krassen) Rams kommt man auch flockig auf 25W.



Fohrßischt! Bei mir keine Worte klauben! Ich mein oft Details anders, als ich Luft zum interpretieren laß. Mit Wunschtraum meinte ich, daß deine Hoffnung an <100W fast schon naiv klingt. Zumindest kann ich mir nix anderes Vorstellen! Wenn ich daran denke, daß ein ausgewachsener NV25 mit roundabout 30W daherkam...
Die Verlustleistungsentwicklung verläuft genauso rasant, wie die der Transizahl, der Performance... optimistisch bin ich da nich mehr :(

Original geschrieben von robbitop
Meine Karte ist nicht harmlos :P aber wie gesagt ist die wassergekühlt und kein Maßstab für das was ich meinte. Wenn Serie5 zB nur mit 350Mhz getaktet wäre und meinetwegen 30-40% langsamer als NV40/R420 und auch nur 350Mhz DDR Ram hätte und davon sagen wir 128MB in der "nichtultra"Version wäre der Verbrauch schon wieder recht weit unten.

Unter diesen Umständen wären es gar Dimensionen!

Original geschrieben von robbitop
Ich denke mal nVIDIA/ATi versuchen egal was es kostet das letzte Quentchen Leistung herrauszuquetschen und das kostet sicher viel Verlustleistung und das KÖNNTE bei Series5 anders sein. Ich denke es war einfach nur ein kleines Missverständnis :)

Misverständnisse passieren mir derart oft, daß ichs als das Normalste der Welt sehe ;-)

Ailuros
2004-02-22, 04:59:08
Original geschrieben von robbitop
wieviel Overdraw existiert in Games wie Doom3 beispielsweise an Pixelshadereffekten?
(ich weiss Situationsabhängig aber ein Bereich von bis wäre nett für die Vorstellungskraft)

Keine Ahnung; ist ja eine Frage fuer Profis oder Entwickler die das geleakte demo unter die Lupe nehmen konnten.

Daniel Vogel sagte mal (wenn ich mich nicht irre) dass der Overdraw insgesamt bei UT2k3 zwischen 4 und 7 liegen kann. Muesste ich schaetzen wuerde ich ~5.0+ im Durchschnitt fuer UT2k3 sagen.

Hat ueberhaupt Doom3 wahre PS Effekte oder werden nur die Einheiten benutzt?

betasilie
2004-02-22, 05:14:29
Original geschrieben von Ailuros
Hat ueberhaupt Doom3 wahre PS Effekte oder werden nur die Einheiten benutzt?
Alles "nur" DX7-Techlevel. ... Aber wer weiß was sie in all den Jahren noch verändert haben. ;)

LovesuckZ
2004-02-22, 08:44:07
Sollten die Informationen von 3DCenter.de stimmen, dass der r420 über keine PS/VS3.0 verfügen werde, muss ATi wirklich mit einen weiterhin deutlich besseren AA, einen satrk verbesserten AF glaenzen und unter PS2.0 Anwendungen immernoch 30-50% schneller sein, damit sie die "Nase vorn" haben.

Demirug
2004-02-22, 08:51:09
Zu DOOM III:

Das Spiel hat defakto keinen aktiven Farboverdraw. Aufgrund des Z-Passes (dort kann es Overdraw geben) und in Verbindung mit Early-Z Verfahren wird kein Pixel der am Ende nicht sichtbar ist den Pixelprozessor erreichen. Während des Z-Passes kann es natürlich Overdraw geben dieser betrift aber nur den Z-Buffer und ist damit natürlich "günstiger" als der normale Farboverdraw. Den einzigen wirklichen "DX9-Effekt" den DOOM III bei den Pixelshadern nutzt ist das normalisieren von Vektoren als mathematische Operation. Auf älteren Karten wird das über eine Textur (Cubemap) gemacht.

@Zecki: Wollen wir die durchaus interesante Diskussion bezüglich der Anordnung und Verwendung von Shadereinheiten nicht besser in einen anderen Thread verlägern. Ist hier wohl etwas offtopic.

ironMonkey
2004-02-22, 12:24:02
Original geschrieben von LovesuckZ
Sollten die Informationen von 3DCenter.de stimmen, dass der r420 über keine PS/VS3.0 verfügen werde, muss ATi wirklich mit einen weiterhin deutlich besseren AA, einen satrk verbesserten AF glaenzen und unter PS2.0 Anwendungen immernoch 30-50% schneller sein, damit sie die "Nase vorn" haben.


Wie kommst du bitte darauf??????besser gesagt bei welchen "Anwendungen" hätte ich den einen Vorteil wenn es sich um einen PS 3.0 Chip handelt?????Derzeit wohl eher ein nice to have und mehr nicht.




Gruß

Demirug
2004-02-22, 12:31:05
Original geschrieben von ironMonkey
Wie kommst du bitte darauf??????besser gesagt bei welchen "Anwendungen" hätte ich den einen Vorteil wenn es sich um einen PS 3.0 Chip handelt?????Derzeit wohl eher ein nice to have und mehr nicht.




Gruß

Potenziell jede Anwendung welche Texkill Shaderanweisung nutzt. Die gibt es seit PS 1.1. Solche Shader können im "Kill-Ffall" auf einem PS 3.0 fähigen Chip viel schneller laufen. Farcry nutzt Texkill recht häufig.

Desweiteren kann jede Anwendung profitieren welche HLSL Shader einsetzt welche IF Anweisungen enthalten. In diesem Fall mus lediglich auf das neue DX SDK hochgepatcht werden. Aufwand minimal.

Jede Anwendungs welche statische Branching über die CPU nachbildet. Dafür müsste man allerdings etwas mehr an der Engine anpassen. Ein Beispiel für eine solche Anwendung ist HL2. Wobei ich dort natürlich gewisse Zweifel habe das man diese Anpassung macht.

Ailuros
2004-02-22, 14:09:40
@Zecki: Wollen wir die durchaus interesante Diskussion bezüglich der Anordnung und Verwendung von Shadereinheiten nicht besser in einen anderen Thread verlägern. Ist hier wohl etwas offtopic.

Ja bitte. Darf ich das Technologie Forum vorschlagen?

Knoskoloz
2004-02-22, 15:14:45
Also mir persönlich wär ne gescheite S5 am liebsten hoffe mal das es kein wunschdenken bleibt ;) .Ansonsten würde ich den R420 dem Nv40 vorziehen da mir das ATI logo besser gefällt und sich R420 besser anhört. Nunja mal kucken was die Cebit bringt.

Sphinx
2004-02-22, 15:57:30
Nach den langen und inoffiziellen spekulationen glaube ich mehr und mehr das Ati da ein BruteForce PS2.x Monster am Start hat welches für kommende Spiele die beste Basis bieten wird.Durch neue AA,AF Funktionen wird man wohl eine neue Dimension erreichen.

Nvidia wird wohl aufgeholt haben und wird PS3.0 Unterstützung bieten aber dieses wird wohl im gewissen Maße der aktuellen PS2.x Situation zu gute kommen da sie behaupten das ihr PS2.x nah an PS3.0 liegt

Ob und wer siegen wird * warten wir es ab - Möge das schnellere und bessere Produkt und die Preisleistungs bessere Karte den Weg in mein System finden.

zeckensack
2004-02-23, 05:59:11
*split*
*copy*
*remerge*
Original geschrieben von Demirug
@Zecki: Wollen wir die durchaus interesante Diskussion bezüglich der Anordnung und Verwendung von Shadereinheiten nicht besser in einen anderen Thread verlägern. Ist hier wohl etwas offtopic. Original geschrieben von Ailuros
Ja bitte. Darf ich das Technologie Forum vorschlagen? You have been heard :)
http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=126775

Doc PeWe
2004-02-23, 08:29:34
Grafikkarten werden jetzt gekauft und Funktionen die noch gar nicht unterstützt werden niemanden interessieren.

Die mögliche Marketing-Strategie von nv für eine mögliche PS3.0 - Unterstützung ist relativ einfach zu entkräften.

Hingegen ist der direkte Vergleich mit aktuellen Benchmarks ohne PS3.0-Test nicht so einfach von der Hand zu weisen.

Somit gesehen wäre der Wegfall beim RV420 von PS3.0, aber überragende DX9.x-Leistung gegenüber nvidia, ein geschickter Schachzug von ATi um nv an die Benchmarrk-Wand zu drücken.

Es könnte aber auch sein das sich alles in Luft auflöst und beide PS3.0 haben und trotzdem die Rohleistung unter DX9x immer noch mit klarem Vorteil bei ATI liegt !

Warum??? Habt Ihr die 24-Bit bei DX9 vergessen die nur ATi berechnen kann?

PS3.0 ist als Brand viel zu unbedeutend für OEM's um es als Feature aufzuzählen.

Hingegen ist DX9 als Bezeichnung dem Endkunden bekannt!



Grüsse

Fin
2004-02-23, 10:53:59
Der Wunschgedanke ist die Mutter der Porzellankiste.
oder so ählich :bäh:

Ich stimme mal für PowerVR S5

ow
2004-02-23, 11:04:38
.

Gast
2004-02-23, 12:22:27
Original geschrieben von Doc PeWe
PS3.0 ist als Brand viel zu unbedeutend für OEM's um es als Feature aufzuzählen.
Hingegen ist DX9 als Bezeichnung dem Endkunden bekannt!

Das ist erstmal richtig, aber wer sagt dir, daß die schon mit 2.0-Shadern nutzbaren Vorteile von 3.0-Hardware nicht die rechnerisch vielleicht höhere Leistung bei ATi aufwiegen?

Erinnerst du dich noch an die Kyro? Sie konnte viele Berechnungen einfach einsparen und so trotz rechnerisch deutlicher Unterlegenheit die GeForce2 oftmals düpieren. *eg*

Godmode
2004-02-23, 15:29:11
Original geschrieben von zeckensack

Zu dieser Aussage kann ich stehen. Ich könnte nicht zu folgenden (frei zusammengesammelten) Aussagen stehen:
"Nvidia scheint mit dem NV40 wohl alle Fehler behoben zu haben"
"momentan sieht es so aus, als wenn der r420 nur ein HiSpeed-r360 wird"
"Denn was Konkurrenz bewirkt, sieht man ja an nV...Sie haben bemerkt das Sie gepennt haben und reagieren jetzt"
"Somit sind beide sicher sehr ähnlich schnell."
"Taktraten sehen auch sehr ähnlich aus."
"Aber besonders in der PS Leistung hat man 3-4x mehr als im NV35. Das ist ein riesen Schritt. Auch 8xSparse ist ein gewaltiger Fortschritt."
"doch in diesem Falle macht nVIDIA einen recht großen Sprung und zwar in punkto PS Leistung. 3x-4x würde ich sagen."
"32A Ops im Gegensatz zu 8AOps im NV35 sind bei mir 4x Razor"

Keine Ahnung => Fakten erfunden => Erfindung als "allgemeinbekannte Spekulation" deklariert => "allgemeinbekannte Spekulation" für wahrscheinlich erklärt.

Von garnichts auf "News" in fünf Sekunden.

Also da hast du recht! und mit "Von garnichts auf "News" in fünf Sekunden" meinst wahrscheinlich genau das was :cop:FUAD:cop: immer oder meistens macht!!

AlfredENeumann
2004-02-23, 20:40:18
Original geschrieben von ow

Und wer moechte denn dann noch technisch veraltete PS2 Hardware kaufen?? Die OEMs ganz sicher nicht.

Das interessiert einen OEM absolut nicht.
Den interessiert nur eines: Womit mache ich am meißten Geld?

BodyLove
2004-02-23, 20:51:11
und das wäre? Leistung. Um nichts anderes geht es. Es geht nur um Leistung. PS3.0 Support? ahh, dem Käufer nutzt das recht wenig. Er will Leistung sehen. Hier zählt nicht die Leistung des Chips, der eingebaut wurde, sondern, der Ruf des Highend-Chips.

Wenn ich an meine Frühe Zeit denke, und mich zurück erinnere, wie ich eine GF2mx für 200DM gekauft habe, dann denke ich, dass ich voll auf die Marketing-Schiene aufgesprungen bin. Und tatsächlich. Der name des Herstellers machts. Damals waren die GF2 angesagt. Es musste nur GF2 stehen. Sofort war man sicher, eine "geile" Karte gekauft zu haben. Die "Mehrleistung" habe ich auch verspürt. Ich war auch sehr zufrieden mit der Karte. Denn ich kannte ja nicht, was ich verpasst habe.

Imho ist nur wichtig, was Ati für Leistungen jetzt bringt. Wenn sie weiterhin die meiste Gunst der User haben, so werden sie auch, trotz des fehlenden PS3.0-Supports gut dastehen. Den OEMS wird es freuen.

Die etwas mehr informierten User werden sich genau überlegen, welche Karte sie kaufen. Ich kaufe mir die, und das ist definitiv klar, welche jetzt mehr Leistung bietet. Ich werde wahrscheinlich die Karte sowieso nicht länger als 1Jahr halten, welches somit der Nachteil des fehlenden PS3.0-Supports für mich irrelevant wird.


Ps. In der Türkei denken die meisten noch immer, dass die FX5600U schneller sei als die 9700pro. Im sommer wollte tatsächlich mir glauben machen, dass Spiele mit einer FX5600U nicht ruckelten, aber mit einer 9700pro schon. Vor allendingen ohne AA und mit 1024x768.:)

Godmode
2004-02-23, 21:30:59
Original geschrieben von BodyLove
Ps. In der Türkei denken die meisten noch immer, dass die FX5600U schneller sei als die 9700pro. Im sommer wollte tatsächlich mir glauben machen, dass Spiele mit einer FX5600U nicht ruckelten, aber mit einer 9700pro schon. Vor allendingen ohne AA und mit 1024x768.:)

das glaubst du jetz aber nicht im ernst oder?;D sind den Türken wirklich soweit hinten?

BodyLove
2004-02-23, 21:40:24
Ich will es nicht hinten bezeichnen, sondern viel mehr Markenbeständig. Tatsächlich habe ich mich bis zuletzt mit einem Betreiber eines Inet-Cafes gestritten, dass eine fx5600U nie eine chance gegen eine R9700pro hat. Mit Benchmarks belegt, Diagramme gezeigt, texte übersetzt. Nichts. Er blieb auf seiner Meinung.

Es gibt nunmal keine Magazine, keine Forums, InetSeiten, etc. die dieses Thema aufgreifen. Da glaubt man das, was man zu hören bekommt.

Gagula
2004-02-24, 18:50:55
Meine Stimme für den R420.

Ich hoffe das beste...

Godmode
2004-02-26, 16:36:31
Wenn man der neuen Inquirer-News Glauben schenken kann und nicht wieder sowas wie beim NV30 passiert, glaube ich das Nvidia mit NV40 wieder vorne sein wird. Aber ob das stimmt mit dem 210 Millionen Monster muss mir erst wer beweisen :)

Karlsson
2004-02-27, 03:26:01
:uhippie:

(del676)
2004-02-27, 08:39:53
Original geschrieben von Ulukay
[x]"Mir doch egal, ich kauf mir eh den besten davon"

obwohl ich den r420 vorne sehe

wenn die INQ meldung mit den 16 pipelines stimmt steigen die Chancen wieder das vielleicht doch die nv40 vorne is ...

hoffentlich kommen bald fakten :D

Gast
2004-02-27, 20:27:15
Laut Gamestar:
Chiphersteller Nvidia stellt auf der Cebit im März 2004 ausgewählten Journalisten und engen Partnern die nächste Geforce-Generation vor. Dies meldet der GameStar in seiner am Mittwoch, den 3. März 2004, erscheinenden Ausgabe. Bei der Spieleleistung bahnt sich, wie Recherchen ergaben, eine Sensation an: Nvidia erhöht die Anzahl der Rendering-Pipelines von acht auf -- das bestätigen aktuelle Meldungen -- gewaltige 16. Das steigert die FPS in aktuellen und künftigen 3D-Titeln drastisch. Ob ATIs nächster Chip (R420) da mithalten kann? Spezielle Berechnungen von Half-Life 2 soll die Geforce 6 FX (Codename NV40) bis zu 600 Prozent schneller abarbeiten als die Geforce FX 5950 Ultra (NV38). In Doom 3 erreicht das Silizumbündel angeblich die vierfache NV38-Performance. Zudem unterstützt der NV40 eine neue Funktion, die in Strategietiteln mit Hunderten von Spielfiguren Rechenleistung sparen soll. Animationen werden dann nur einmal berechnet und auf andere Figuren übertragen.

Yes NV zeigs uns

Demirug
2004-02-27, 20:29:49
GameStar hat bei INQ abgeschrieben und die Gamestar schreibt wirklich alles was irgendwo auftaucht ab.

Sphinx
2004-02-27, 20:35:23
Die Marketing Maschinerie rollt ,)

CrazyIvan
2004-02-27, 20:41:57
@ Demi

Machen die sich das immer so einfach? Ich meine, für den Web-Content beim Inquirer abschreiben mag ja mal noch gehen. Aber die wollen das scheinbar allen Ernstes auch in der Druck-Ausgabe behaupten. IMHO ganz schön krank. Und nennen das auch noch dreist Recherche... tztztz

Demirug
2004-02-27, 20:58:05
Original geschrieben von CrazyIvan
@ Demi

Machen die sich das immer so einfach? Ich meine, für den Web-Content beim Inquirer abschreiben mag ja mal noch gehen. Aber die wollen das scheinbar allen Ernstes auch in der Druck-Ausgabe behaupten. IMHO ganz schön krank. Und nennen das auch noch dreist Recherche... tztztz

Der Gamestar ist dafür bekannt sowas öfter zu machen.

aths
2004-02-27, 23:52:33
Original geschrieben von AlfredENeumann
Das interessiert einen OEM absolut nicht.
Den interessiert nur eines: Womit mache ich am meißten Geld? Mit Produkten, die in der Anschaffung billig sind, und sich blendend verkaufen: GF4 MX und FX 5200.

aths
2004-02-28, 00:12:32
Original geschrieben von BodyLove
und das wäre? Leistung. Um nichts anderes geht es. Es geht nur um Leistung.Dort, wo das meiste Geld verdient wird, geht aktuell um 256 MB RAM und DirectX9, nach der Leistung fragen die wenigsten.

Der (schmalen) Käuferschicht, die ihre Grafikkarte bewusst für moderne Computerspiele wählen, ist Leistung sehr wichtig. Spätestens an zweiter Stelle steht die Frage, woher die Leistung kommt (von den Roten, oder den Grünen.) An dritter Stelle würde ich das Feature-Set sehen.

Als Vorreiter in Technik-Fragen dürfte sich Nvidias Image verbessern, sofern die Leistung konkurrenzfähig ist.

Original geschrieben von BodyLove
PS3.0 Support? ahh, dem Käufer nutzt das recht wenig. Er will Leistung sehen. Hier zählt nicht die Leistung des Chips, der eingebaut wurde, sondern, der Ruf des Highend-Chips.Ich nehme an, dass das NV-Marketing behaupten wird, zukunftssicher sei man nur mit 3.0.

Gast
2004-02-28, 00:45:19
Original geschrieben von Gast
Laut Gamestar:
Chiphersteller Nvidia stellt auf der Cebit im März 2004 ausgewählten Journalisten und engen Partnern die nächste Geforce-Generation vor. Dies meldet der GameStar in seiner am Mittwoch, den 3. März 2004, erscheinenden Ausgabe. Bei der Spieleleistung bahnt sich, wie Recherchen ergaben, eine Sensation an: Nvidia erhöht die Anzahl der Rendering-Pipelines von acht auf -- das bestätigen aktuelle Meldungen -- gewaltige 16. Das steigert die FPS in aktuellen und künftigen 3D-Titeln drastisch. Ob ATIs nächster Chip (R420) da mithalten kann? Spezielle Berechnungen von Half-Life 2 soll die Geforce 6 FX (Codename NV40) bis zu 600 Prozent schneller abarbeiten als die Geforce FX 5950 Ultra (NV38). In Doom 3 erreicht das Silizumbündel angeblich die vierfache NV38-Performance. Zudem unterstützt der NV40 eine neue Funktion, die in Strategietiteln mit Hunderten von Spielfiguren Rechenleistung sparen soll. Animationen werden dann nur einmal berechnet und auf andere Figuren übertragen.

Yes NV zeigs uns

Das sie den NV40 nur ausgewählte Leute zeigen,heißt wohl ,das er wirklich etwas später kommt

deekey777
2004-02-28, 23:23:25
Spezielle Berechnungen von Half-Life 2 soll die Geforce 6 FX (Codename NV40) bis zu 600 Prozent schneller abarbeiten als die Geforce FX 5950 Ultra (NV38).

Ironiemodus:
Hat VALVe etwa umsonst den Mixed Mode entwickelt? Zuerst der 50er Deto, dann so was! :D

MadManniMan
2004-02-29, 02:10:53
Original geschrieben von aths
Mit Produkten, die in der Anschaffung billig sind, und sich blendend verkaufen: GF4 MX und FX 5200.

Ich bin geneigt zu behaupten, daß AEN da ein µ mehr in der Materie steht, als du X-D

Gast
2004-02-29, 04:38:24
Original geschrieben von MadManniMan
Ich bin geneigt zu behaupten, daß AEN da ein µ mehr in der Materie steht, als du X-D

weiss nicht was du willst aber aths hat hier voll und ganz Recht.
Gerade die FX5200 belegt es mehr als nur deutlich.
Features zählen im großen OEM Markt am allermeissten und natürlich der Preis.

Wenn der NV40 in der Performance mithalten kann oder nur sehr wenig abfällt, dann wird die vorhanden Shader 3.0 Fähigkeit den Ausschlag geben. Nicht zu vergessen, dass es auch diesmal von unten bis oben eine komplette Palette geben wird, die auf ein und das selbe Design (also PS/VS 3.0) aufsetzen wird.
Die OEMs wirds freuen. ATI ist in ein paar Monaten erstmal überhaupt dabei DX9 unter die MAssen zu bringen. Bis jetzt liefern sie nur DX8 in dem Segment ab.
DX9 Verteilung dürfte aktuell 7:3 für Nvidia ausgehen.
Wenn sie konkurenzfähige Produkte mit neuestem Featureset bringen, wirds bei der Verteilung bleiben.

MadManniMan
2004-02-29, 04:42:17
Nun, ich meinte damit, daß aths mit Pauschalaussagen vorsichtig sein sollte. Die breite Masse mag derart ordinär schnittmengenmäßig zu betrachten sein, im speziellen AEN-Fall scheints aber zu sein, daß er weiß, wovon er Spricht. Sprich: mit Low-End-Radeons macht er die meiste Kohle.

:stolz:

Gast
2004-02-29, 05:13:09
Original geschrieben von MadManniMan
Nun, ich meinte damit, daß aths mit Pauschalaussagen vorsichtig sein sollte. Die breite Masse mag derart ordinär schnittmengenmäßig zu betrachten sein, im speziellen AEN-Fall scheints aber zu sein, daß er weiß, wovon er Spricht. Sprich: mit Low-End-Radeons macht er die meiste Kohle.

:stolz:

AEN ist aber kein OEM. AENs Geschäft wirkt sich im Gesamtmarkt nicht aus.
HP, Dell, IBM, Asus, Acer und CO wirken sich aus aber nicht der kleine Schwanz an Retailgeschäften oder die Zulieferer die an denen dran hängen.
Die 5200 + die 5600XT sind in fast jedem FertigPC enthalten.

r@e
2004-02-29, 09:43:34
Original geschrieben von AlfredENeumann
Das interessiert einen OEM absolut nicht.
Den interessiert nur eines: Womit mache ich am meißten Geld? Und wenn Features (wie DX9(.1 ;-), AGP8x/PCIe, PS3.0 oder ähnliches) marktwirksam 'aufbereitet' werden, zudem ein solches Produkt im Einkauf nicht viel kosten wird, interessiert es eien OEM sogar sehr !

Letzlich kommt es auf das Marketing an.
Und wenn es nVidia schafft, PS3.0 das DAS Ding schlechthin zu vermarkten...

Razor

P.S.: Für OEMs zählt einzig "viel Features für einen hohen Absatz und einer möglichst extremen Marge"... ;)

AlfredENeumann
2004-02-29, 09:55:41
Original geschrieben von Gast
AEN ist aber kein OEM. AENs Geschäft wirkt sich im Gesamtmarkt nicht aus.
HP, Dell, IBM, Asus, Acer und CO wirken sich aus aber nicht der kleine Schwanz an Retailgeschäften oder die Zulieferer die an denen dran hängen.
Die 5200 + die 5600XT sind in fast jedem FertigPC enthalten.

Woher willst du wissen wo und für wen ich arbeite?
Woher willst du wissen wieviel PCs wir absetzen?

Zugegeben Weltweit haben wir einen wirklich kleinen Martanteil, aber in Deutschland haben wir einen Sehr großen.

Ein Komplett-Discount-PC ist ein durch und durch kalkuliertes Ding. Das muß man an vielen Ecken und Enden sparen um unterm Strich noch was rauszubekommen. Da nimmt man das was günstig ist. Es gibt genung komponenten am PC mit denen sich der übliche Komplett-PC käufer blenden läßt. Das ist ein "GeForce" oder "DX9" nicht besonders erforderlich. Da glänzen eher "MHz" und "RAM". Frag mal einen Typischen ALDI/LIDL/PLUS/Baumarkt PC-Käufer wonach er sich richtet.

aths
2004-02-29, 13:24:56
Original geschrieben von MadManniMan
Nun, ich meinte damit, daß aths mit Pauschalaussagen vorsichtig sein sollte. Die breite Masse mag derart ordinär schnittmengenmäßig zu betrachten sein, im speziellen AEN-Fall scheints aber zu sein, daß er weiß, wovon er Spricht. Sprich: mit Low-End-Radeons macht er die meiste Kohle.Das glaube ich ihm auch aufs Wort. Die meisten Komplett-PCs die ich gesehen habe, haben allerdings entweder 'ne onboard-Grafik, oder was von Nvidia drin.

MadManniMan
2004-02-29, 13:49:39
Original geschrieben von aths
Das glaube ich ihm auch aufs Wort. Die meisten Komplett-PCs die ich gesehen habe, haben allerdings entweder 'ne onboard-Grafik, oder was von Nvidia drin.

Joar, is richtig. Mich hat nur der Gedanke gereizt, daß wir immer die Theorie der höchsten Werbewirksamkeit rein - wie der Name schon sagt - theoretisch zusammengesponnen haben und auf einmal jemand ankommt, der offenbar ein wenig mehr Einblick in die Praxis hat. Und siehe da: vollkommen konträr, was er da abläßt!

;)

AlfredENeumann
2004-02-29, 14:44:15
Original geschrieben von aths
Das glaube ich ihm auch aufs Wort. Die meisten Komplett-PCs die ich gesehen habe, haben allerdings entweder 'ne onboard-Grafik, oder was von Nvidia drin.

Das hat aber nix damit zu tun das es eine DX9 oder ne NV war sondern einfsch weil diese Karte gerade in großen Mengen sehr günstig verfügbar ist.
Wäre ATI aus den Pushen gekommen mit den 9200SE´ern wäre die in vielen PC´s gelandet.
Das ist der springende Punkt.

ow
2004-02-29, 15:01:12
.

mrdigital
2004-02-29, 15:20:34
Original geschrieben von ow
Tja.... hätte..wäre...wenn.... der springende Punkt ist, dass eine 5200 das rundum attraktivere Produkt ist.
Ich glaub Alfred meinte eher, dass es wurscht ist, es ist nur eine Frage von Preis und Verfügbarkeit, das ist es was ein Produkut für einen OEM attraktiv macht und nicht, ob ein Ding ein Feature mehr oder weniger hat oder in nem Benchmark schneller oder langsamer ist. Aldi-PC oder MM Kunden schauen nur nach wieviel GHz und mehr GiB und was es kostet, da fragt kaum einer nach ner Grafikkarte...

ow
2004-02-29, 15:35:02
.

MadManniMan
2004-02-29, 16:01:18
Original geschrieben von ow
Ich glaube, dass Alfred da irrt.
Das Marketing ist ein nicht zu unterschätzender Punkt und ein DX9 Aufdruck auf einer Verpackung lässt sich nunmal besser verkaufen als ein DX8 Aufdruck.

Natürlich. Nur stellt sich mir die Frage, ob das "Mehr" an Marketingwirkung effektiver ist, denn nicht auf die günstigen Bestände von Radeons einzugehen.

StefanV
2004-02-29, 16:06:56
Original geschrieben von ow
Ich glaube, dass Alfred da irrt.
Das Marketing ist ein nicht zu unterschätzender Punkt und ein DX9 Aufdruck auf einer Verpackung lässt sich nunmal besser verkaufen als ein DX8 Aufdruck.

Ich nicht.

AEN machte irgendwo ein paar Andeutungen, daß er in einem größeren Unternehmen arbeitet...

Von daher gehe ich davon aus, daß AENs Aussagen den Tatsachen entsprechen...

mrdigital
2004-02-29, 16:08:31
Original geschrieben von ow
Ich glaube, dass Alfred da irrt.
Das Marketing ist ein nicht zu unterschätzender Punkt und ein DX9 Aufdruck auf einer Verpackung lässt sich nunmal besser verkaufen als ein DX8 Aufdruck.
Wenn man "nackte" Grakas verkaufen will, dann ist ein DX9 Bapper schon wichtig, aber in einem Komplettrechner sind 100MHz mehr oder 20GiB mehr HDD ein stärkeres Argument als DX9, insofern liegt Alfred da schon richtig, meiner Meinung nach.

ow
2004-02-29, 17:07:38
.

ow
2004-02-29, 17:10:19
.

Gast
2004-02-29, 17:27:40
Original geschrieben von ow
Ich kenne keine PC-Angebote mit einer DX9-Karte, bei denen nicht explizit auch mit DX9 geworben wird.

http://www1.euro.dell.com/content/products/category.aspx/desktops?c=at&l=de&s=dhs

ghz, speicher, preis und gratiszugaben sind das erfolgsrezept von dell-computer!

mrdigital
2004-02-29, 17:57:02
Original geschrieben von ow
Also wenn ich hier so die lokalen Prospekte durchblättere, dann springt einem das "DX9" schon sofort ins Auge. Ich kenne keine PC-Angebote mit einer DX9-Karte, bei denen nicht explizit auch mit DX9 geworben wird.
klar, wenn der Hersteller ne DX9 Karte schon drin hat, dann wird das auch beworben, aber die Tasache dass er DX9 eingebaut hat, hat nichts (nicht viel ;)) mit DX9 zu tun, sondern damit, dass die Karte billig war. Die andere Frage ist, wie sehr der "Otto-Normal-Kunde" dieses DX9 (Werbe)Feature überhaupt wahrnimmt, ob er nicht gleich nach GHz und Megabytes schaut. Aus meiner PC Verkäuferzeit kann ich nur sagen, dass GHz und Gigabyte die Verkaufsargumente sind, die bei den meisten ziehen, alles andere ist für viele zu "kompliziert". Klar, wenn man sich die Zeit nimmt, als Verkäufer, dem Kunden die Details zu erklärern, dann will er auch DX9 haben, aber dann auch "richtig", d.h. in schnell genug für Spiele, auch wenn es Aufpreis kostet. Leider ist es halt so, dass die wenigsten MM Verkäufer überhaupt was von DX9 oder sonst was wissen, wie sollen die dann das verkaufen können?

StefanV
2004-02-29, 18:54:32
Original geschrieben von ow
Was ist denn mit den günstigen Beständen an FX5200en? Die Radeons sind doch auch nicht billiger.

Endkundenpreis != Einkaufspreis

Es kann durchaus mal vorkommen, daß etwas, was eigentlich günstiger im Einkauf ist, teurer als ein anderes Produkt, welches im Einkauf eigentlich teurer ist...

AlfredENeumann
2004-02-29, 19:08:46
Original geschrieben von ow
Ich glaube, dass Alfred da irrt.
Das Marketing ist ein nicht zu unterschätzender Punkt und ein DX9 Aufdruck auf einer Verpackung lässt sich nunmal besser verkaufen als ein DX8 Aufdruck.


Nein tue ich nicht.
Habe in der Hotline tagtäglich auch Privatkunden die Grafikkarten haben wollen, und fragen dort nicht nach DX9 oder GeForce oder ATI oder was auch immer, sondern verlangen erstmal ne Grafikkarte mit dem Spruch "64MB reichen, es muß keine mit 128MB sein."
Da muß man erstmal nachfragen was der gute Mann/Frau damit machen will, damit es später keine bösen Reklamationen gibt.

AlfredENeumann
2004-02-29, 19:19:24
Original geschrieben von ow
Tja.... hätte..wäre...wenn.... der springende Punkt ist, dass eine 5200 das rundum attraktivere Produkt ist.

Für jemanden der gezielt nach sowas sucht: JA.

Versetzte dich mal in die Lage eines absoluten DAU´s, bzw den Typischen Discount-PC Kunden. Da interessiert es keinen was die Karte theoretisch kann.
Da blendet Ausstattung: soundsoviel Mhz, CD- oder DVD Brenner, Cardreader, was auch immer.

Schau dir mal die Prospekte der großen Disounter genau an und schau dir genau die Headlines an. Da glenzt alles, nur nicht unbedingt DX9.
Da ist wenn überhaupt erwähnt ATI-Grafik, oder Nvidia-Grafik.

Aktuelle Prospekte:
MediaMarkt
http://img.mediamarkt.de/cmsdata/CMS/10/06/14/4/16802116_1.jpg

Macromarkt
http://www.makromarkt.de/online/aktionen/default/main_werbung040212.gif

Du kannst auch bei anderen Discountern nachschauen. Sowas, wie gut ne Grafikkarte ist, ist wenn es überhaupt erwähnt wird die Ausnahme.

AlfredENeumann
2004-02-29, 19:22:37
Original geschrieben von ow
Was ist denn mit den günstigen Beständen an FX5200en? Die Radeons sind doch auch nicht billiger.


Ich hatte auch die Verfügbarkeit angesprochen.
Wenn Retailer wie Medion oder wer auch immer Discount-PCs Produziert, Stückzahlen im 6stellingen bereich haben will, und das kurzfristig, nimmt man das was da ist. Und das war mit der 9200er Reihe zur Markteinführung der FX5200 auch mehrere Wochen später nicht gegeben.
Das was da war ging in Retail Kanäle und nicht zu OEMs und ODMs.

BodyLove
2004-02-29, 19:50:40
Original geschrieben von aths
Dort, wo das meiste Geld verdient wird, geht aktuell um 256 MB RAM und DirectX9, nach der Leistung fragen die wenigsten.

Der (schmalen) Käuferschicht, die ihre Grafikkarte bewusst für moderne Computerspiele wählen, ist Leistung sehr wichtig. Spätestens an zweiter Stelle steht die Frage, woher die Leistung kommt (von den Roten, oder den Grünen.) An dritter Stelle würde ich das Feature-Set sehen.

Als Vorreiter in Technik-Fragen dürfte sich Nvidias Image verbessern, sofern die Leistung konkurrenzfähig ist.

Ich nehme an, dass das NV-Marketing behaupten wird, zukunftssicher sei man nur mit 3.0.

Ich sprach hier eher vom Retailgeschäft, als vom OEM. Ich kann halt nur das wiedergeben, was ich in meinem Ulfeld vernommen habe, als die ersten R9700pro-Karten rauskamen und die NV30 für ein normalo-User eher ein "flop" war. Es reicht ja nur ein einziger, der sich für, oder gegen eine Karte entscheidet. Solange er es glaubwürdig belegen kann, solange ist er in der Gunst der Freunde.

Wieso stellen einige die leeren Verpackungen der Grafikkarte ins Zimmer? Es ist nunmal eine Art Volkssport geworden, die schnellste und beste Grafikkarte zu besitzen. Im OEM markt wird man den NV 40, oder auch R420 nicht oft zu sehen bekommen. Viel mehr im Retailgeschäft. Falls der R420 aber, exorbitant schneller sein sollte, als der NV40, so würde der PS3.0 Vorteil nicht ziehen, da die meisten Fazits zwar diesen Vor-/ Nachteil erwähnen, aber als nicht gravierend wichtig ansehen würden. Im Endeffekt hat sich Ati, mit dem Slogan Radeon einen Namen gemacht, wie NV damals mit Geforce. Es genügte die erwähnung des Namens Geforce, und man war geblendet von der schier unendlichen Power des Geforce2mx-Chips.

Was ich damit sagen will ist, dass allein der Ruf des HighEnd-Chips genügt, um den Low-End-Chip beim Volk attraktiv zu machen. Wenn dazu noch taktraten, wie beim R9600pro, fx5700U und weitere Features dazu kommen, dann hat sich das doch gelohnt.

Erkläre zum Beispiel einem Unwissenden, dass eine R9600pro, trotz 400Mhz Chiptakt und 300Mht Speichertakt, langsamer ist, als eine 9700pro. Du kannst jetzt vom Speicherinterface, über die Pipelines, undsoweiter reden, und ihm die Karte verkaufen. Genauso gut könntest du auch ihm eine Geforce2-Verkaufen, und er wäre zufrieden.

r@e
2004-03-01, 00:45:24
Original geschrieben von Gast
http://www1.euro.dell.com/content/products/category.aspx/desktops?c=at&l=de&s=dhs

ghz, speicher, preis und gratiszugaben sind das erfolgsrezept von dell-computer! Ja und ?
Entweder gibt's 'ne integrierte INTEL-Lösung (Billigst-Lösung)... oder eben eine FX5200 als nonIntegrated-Lösung (wer hätte das gedacht ;-).

Beispiel:

Dimension 4600 (Medium/Large)
Dimension 8300 (Essential)Grafikkarte 128 MB nVidia GeForce FX 5200 - 8x AGP Grafikkarte (DVI & TV-Out)
128 MB ATI Radeon 9800 PRO - 8x AGP Grafikkarte (DVI & TV-Out) (+EUR 139,20)Was auf alle großen zutrifft, trifft also auch auf DELL zu...
(obwohl hier nicht mit DX9 geworben wird ;-)

Razor

Quasar
2004-03-01, 23:08:51
Wobei die 139EUR IMO schon gut angelegt wären, wenn man feist zocken will ;D

Gast
2004-03-01, 23:33:08
Original geschrieben von r@e
Ja und ?
Entweder gibt's 'ne integrierte INTEL-Lösung (Billigst-Lösung)... oder eben eine FX5200 als nonIntegrated-Lösung (wer hätte das gedacht ;-).

Beispiel:

Dimension 4600 (Medium/Large)
Dimension 8300 (Essential)Grafikkarte 128 MB nVidia GeForce FX 5200 - 8x AGP Grafikkarte (DVI & TV-Out)
128 MB ATI Radeon 9800 PRO - 8x AGP Grafikkarte (DVI & TV-Out) (+EUR 139,20)Was auf alle großen zutrifft, trifft also auch auf DELL zu...
(obwohl hier nicht mit DX9 geworben wird ;-)

Razor

bei der dimension 8300er serie ist ab der senator class eine ati 9800pro in der grundausstatung enthalten.

und das um einen systempreis von € 900,-- mit 3 ghz p4, 120 gb hd, 512mb ram, dvd-brenner, win xp prof.......

seahawk
2004-03-02, 09:37:26
Das Hauptproblem der Radeon 9200 ist doch, dass sie etwas zickig ist. Von allen Radeons ist es die mit der ich täglich die schlechtesten Erfahrungen mache. Naja, bald ist die letzte bei uns ausgemustert.

z.B. machte die 9200 mit unserem GIS lange Zicken. Die 9600er liefen problemlos.

Ne FX5200 ist zwar absolut lahm, wenn es um Spiele geht, aber in 2D und normalen Anwendungen läuft die komischerweise ohne Probleme.
Ich finde die FX5200 ist zwar langsam, aber eigentlich läuft fast alles auf ihr - wenn eben auch nur sehr langsam.

Ich denke, das deshalb viele OEMs dne 9200 nicht so gerne benutzen.

robbitop
2004-03-02, 10:01:49
naja die 5200 läuft ein wenig langsamer als eine GF3 und ein wenig schneller als eine MX440. Eine super Bürokarte und ohne AA/AF kann man soziemlich alles auf 1024 spielen.
Razor meint er könnte sich auch ab und an AA leisten.

aber im Vergleich zur 9600 is sie natürlich lahm.

StefanV
2004-03-02, 11:52:00
Original geschrieben von robbitop
aber im Vergleich zur 9600 is sie natürlich lahm.

Ja, wobei eine 9600SE Teilweise noch schneller als eine FX5200 ist...

Bei 'alten' SPielen ist die FX5200 schneller, bei neueren die 9600SE, z.B. liegen beide im Aquamark gleichauf...

aths
2004-03-02, 11:58:33
Original geschrieben von BodyLove
Wieso stellen einige die leeren Verpackungen der Grafikkarte ins Zimmer?Die Packung der Voodoo4 4500 prangt für jeden ersichtlich auf dem Schrank. Die der Winfast A250 Ultra TD ist auf einem Stapel mit anderen Kartons.

Original geschrieben von BodyLove
Es ist nunmal eine Art Volkssport geworden, die schnellste und beste Grafikkarte zu besitzen. Im OEM markt wird man den NV 40, oder auch R420 nicht oft zu sehen bekommen.Hoffentlich aber Ableger.

Original geschrieben von BodyLove
Es genügte die erwähnung des Namens Geforce, und man war geblendet von der schier unendlichen Power des Geforce2mx-Chips. Und von der T&L-Leistung erst (mehr T&L-Leistung als eine GF 256 DDR, jedenfalls auf dem Papier.)

Original geschrieben von BodyLove
Erkläre zum Beispiel einem Unwissenden, dass eine R9600pro, trotz 400Mhz Chiptakt und 300Mht Speichertakt, langsamer ist, als eine 9700pro. Du kannst jetzt vom Speicherinterface, über die Pipelines, undsoweiter reden, und ihm die Karte verkaufen.Ich führe hier gerne an, dass AMD aus weniger Takt mehr macht, als Intel bei dem Pentium 4.

Im Diskussionsforum gebe ich ja wider wie erstaunt ich bin, dass eine 9600 in der Praxis verglichen mit einer Ti 4600 durchaus akzeptabel ist, obwohl sich auf dem Papier die Leistung krass unterscheiden müsste.

StefanV
2004-03-02, 12:08:31
Original geschrieben von BodyLove

Wieso stellen einige die leeren Verpackungen der Grafikkarte ins Zimmer?

Hm, vielleicht weil sie die Kartons schön finden und es als dekoration nutzen?? ;)

Ich stelle JEDEN GraKa Karton bei mir oben aufs Regal, als Zimmerdekoration...

Allerdings stelle ich da jeden neueren Karton hin, den ich bekommen kann ;)

ow
2004-03-02, 12:59:03
.

deekey777
2004-03-02, 13:04:08
Falls schon gepostet, löschen:

TheInq schon wieder (http://www.theinq.net/?article=14460) :

Danach wird die R420XT mit 500/100MHz takten ->This means that ATI plans to get the cards on these speeds.

Godmode
2004-03-02, 13:45:10
Original geschrieben von deekey777
Falls schon gepostet, löschen:

TheInq schon wieder (http://www.theinq.net/?article=14460) :

Danach wird die R420XT mit 500/100MHz takten ->This means that ATI plans to get the cards on these speeds.

Das wären +21% beim GPU Takt in Bezug auf die 9800XT.

Könnte ich mir durchaus vorstellen, obwohl man überhaupt nicht sagen kann was welche Rolle der spielt. Sieht man ja auch am beispiel RV360 zu R360 recht gut!!

Naja mal sehn was die "Extremen Pipelines" bringen werden.

BodyLove
2004-03-02, 13:55:21
Original geschrieben von aths
Ich führe hier gerne an, dass AMD aus weniger Takt mehr macht, als Intel bei dem Pentium 4.

Ja, und deshalb hat man ja das Rating erfunden.;) Man ist einfach noch stark auf den Takt fixiert, welches wohl Intel, dank ihres Marketings. Ich denke auch, dass man jetzt, als ein 12Jähriger, besser mit einer ATI "angeben" kann, als es mit NV der Fall ist. Dies ist auch ein Teil dieses Kaufwahns. Der Wirtschaft schadet das nicht.

Original geschrieben von Stefan Payne Hm, vielleicht weil sie die Kartons schön finden und es als dekoration nutzen??

Warum? Du hast es ja nicht nötig anzugeben. Als ich meine Herc kaufte, bat mich mein Bruder, die Verpackung ihm zu überlassen, damit er es neben seinem "Schuhkartonkollektion" stellen kann.:)

Bei mir sind alle Verpackungen im Keller.:)

StefanV
2004-03-02, 13:57:28
Original geschrieben von BodyLove
Warum? Du hast es ja nicht nötig anzugeben. Als ich meine Herc kaufte, bat mich mein Bruder, die Verpackung ihm zu überlassen, damit er es neben seinem "Schuhkartonkollektion" stellen kann.:)

Bei mir sind alle Verpackungen im Keller.:)

Wie gesagt, ich find die Verpackungen schön, für mich ist es Dekoration, wie z.B. ein Bild an der Wand, mit Angeben hat das nicht wirkich was zu tun...

Wenns die Kartons auch recht günstig einzeln geben würde, dann würd ich mir wohl auch ein paar Kartons kaufen ;)

BodyLove
2004-03-02, 14:12:10
Schau mal bei ebay, da bekommst du die recht günstig für 150 Euro.;)

aths
2004-03-02, 14:45:32
Original geschrieben von ow
Ich weiss zwar nicht, wie krass der Unterschied der Theorie und deiner Meinung nach sein müsste, aber kann es nicht sein, dass du bisweilen etwas CPU-limitiert bist und dadurch der Leistungsunterschied doch etwas zusammenschrumpft?Die GF4 fährt bei mir immer mit 2x MSAA und 2x AF, mindestens. Eher mit 8x AF, wenn's irgend geht. Ich denke, hier limitiert die Graka mehr als die CPU, auch wenn eine schnellere CPU die Geschwindigkeit noch ein wenig verbessern könnte.

Die Radeon 9600 darf meistens mit 4x MSAA antreten, AF fahre ich 2x - 16x, je nach Leistung.

In den Benchmarks teste ich mit 1x/1x AA/AF, an Spielen läuft z. B. MP2 oder selbst UT2003 zwar schon spürbar, aber nicht krass schlechter.

aths
2004-03-02, 14:47:59
Original geschrieben von BodyLove
Ja, und deshalb hat man ja das Rating erfunden.;) Man ist einfach noch stark auf den Takt fixiert, welches wohl Intel, dank ihres Marketings. Ich denke auch, dass man jetzt, als ein 12Jähriger, besser mit einer ATI "angeben" kann, als es mit NV der Fall ist. Dies ist auch ein Teil dieses Kaufwahns. Der Wirtschaft schadet das nicht. Angeben inwiefern? Würde ich angeben wollen, würde ich mich nach etwas umsehen, was exklusiver ist. Zum Beispiel eine von Haus übertaktete 5950 oder so.

BodyLove
2004-03-02, 15:19:20
Imho reicht es nur der Name des Herstellers, um ein wenig angeben zu können. Wenn ich eine Ati 9600xt besitze, brauche ich doch nicht zu erwähnen, dass es eine 9600er ist. Viel mehr kann nicht dies untermauern, wenn ich Benchmarks des 9800xt als gebegeben hinnehme und daraus ein Bild der 9600xt mache.

r@w
2004-03-02, 15:30:19
Original geschrieben von Quasar
Wobei die 139EUR IMO schon gut angelegt wären, wenn man feist zocken will ;D Es ging doch um die 'Standard-Ausrüstung' möööönsch !
:D

Razor

r@w
2004-03-02, 15:32:58
Original geschrieben von Stefan Payne
Ja, wobei eine 9600SE Teilweise noch schneller als eine FX5200 ist...

Bei 'alten' SPielen ist die FX5200 schneller, bei neueren die 9600SE, z.B. liegen beide im Aquamark gleichauf... Ich vermute mal, dass Du die 5200 mit 64Bit-Speicherinterface meinst.
Denn sonst kann ich Deine Ausführungen keinesfalls nachvollziehen...

Razor

r@w
2004-03-02, 15:35:40
Original geschrieben von BodyLove
Bei mir sind alle Verpackungen im Keller.:) Jo.
Bei mir auch...
Und da gehören sie auch hin !
;D

Razor

StefanV
2004-03-02, 15:42:44
Original geschrieben von r@w
Ich vermute mal, dass Du die 5200 mit 64Bit-Speicherinterface meinst.
Denn sonst kann ich Deine Ausführungen keinesfalls nachvollziehen...

Razor

PCGH, 04/04, Seite 54, noch Fragen?

Wobei eine 64MB 9200 auch schneller als eine FX5200 ist *eg*

StefanV
2004-03-02, 15:44:05
Original geschrieben von r@w
Und da gehören sie auch hin !

DAS ist jedem selbst überlassen, ob er die Kartons 'in den Keller' oder 'auf den Boden' legt oder sie sich an die Wand hängt, um sich an der Schönheit des Kartons (besonders den 3DFX Kartons) zu erfreuen...

Quasar
2004-03-02, 15:45:24
Original geschrieben von Stefan Payne
PCGH, 04/04, Seite 54, noch Fragen?


Ja: Was steht da? *eg*

r@e
2004-03-02, 19:00:40
Original geschrieben von Stefan Payne
PCGH, 04/04, Seite 54, noch Fragen?

Wobei eine 64MB 9200 auch schneller als eine FX5200 ist *eg* Jo.
Oder hast Du damit etwas beantwortet ?
;)

Razor

r@e
2004-03-02, 19:02:24
Original geschrieben von Stefan Payne
DAS ist jedem selbst überlassen, ob er die Kartons 'in den Keller' oder 'auf den Boden' legt oder sie sich an die Wand hängt, um sich an der Schönheit des Kartons (besonders den 3DFX Kartons) zu erfreuen... Na ja... jedem das Seine...
Wird wohl am Alter liegen, dass ich unter Schönheit etwas anderes verstehe...
:)

Razor

ShadowXX
2004-03-02, 19:14:54
Original geschrieben von r@e
Na ja... jedem das Seine...
Wird wohl am Alter liegen, dass ich unter Schönheit etwas anderes verstehe...
:)

Razor

full ack..ich habe mit 20 aufgehoert mir mit HW-Kartons die Bude vollzupflastern...

Aber...jedem das seine...

J.S.Shadow

P.S.
Die besten und huebschesten Kartons sind uebrigens die Bulk-Kartons...echt gut Faltbar...;D ;D ;D

r@e
2004-03-02, 19:22:35
Original geschrieben von ShadowXX
P.S.
Die besten und huebschesten Kartons sind uebrigens die Bulk-Kartons...echt gut Faltbar...;D ;D ;D Also ich finde ja die Bulk-Tüten ganz doll... kann man so schon aufblasen !
:lolaway:

Razor

Ailuros
2004-03-02, 20:35:39
Original geschrieben von r@e
Also ich finde ja die Bulk-Tüten ganz doll... kann man so schon aufblasen !
:lolaway:

Razor

Geld sparen ist immer schoener.

Gast
2004-03-03, 00:06:32
http://www.pcgames.de/external/popup/poll/?poll_id=11431&site_id=103

oder hier:

Quickpoll
Auf welchen 3D-Chiphersteller setzen Sie im kommenden Jahr?

Ich kaufe mir eine Grafikkarte mit Ati-GPU 43.95%
Ich kaufe mir eine Grafikkarte mit Nvidia-GPU 22.28%
Ich kaufe mir keine neue Grafikkarte 32.93%
Ich kaufe mir eine Grafikkarte mit GPU eines anderen Herstellers 0.84%


2751 Teilnehmer

Gast
2004-03-03, 00:08:16
oder .....

....mit anderen Worten, mehr als 70% von ca. 3.000 Gamern kaufen sich dieses Jahr keine NV-Karte.

MadManniMan
2004-03-03, 00:32:43
Original geschrieben von r@e
Na ja... jedem das Seine...
Wird wohl am Alter liegen, dass ich unter Schönheit etwas anderes verstehe...
:)

Razor

:grübel:

Ich denke, eher am Geschmack und den grundsätzlichen persönlichen Ansprüchen(wozu extra Kunst kaufen, wenn man sie "dazu" bekomm? ;) )

BTW schön, mal wieder öfter von dir zu lesen.

betasilie
2004-03-03, 00:44:08
Original geschrieben von Gast
oder .....

....mit anderen Worten, mehr als 70% von ca. 3.000 Gamern kaufen sich dieses Jahr keine NV-Karte.
Erstmal abwarten wie der NV40 wird. ... Wenn der Chip gut ist, wird der Wind auch schnell wieder für NV wehen. ;)

Godmode
2004-03-03, 16:35:05
Original geschrieben von Gast
oder .....

....mit anderen Worten, mehr als 70% von ca. 3.000 Gamern kaufen sich dieses Jahr keine NV-Karte.

Ich denke es ist recht naiv, jetzt schon zu wissen welche Graka als Gamer man kaufen wird. Als Entwickler tendiere ich eher zum NV40, weil ich mich schon recht auf die PS/VS 3.0 freue. Aber der Gamer weiss doch noch gar nicht welche Karte schneller sein wird, oder besser mit AA/AF zurecht kommt!!

Also von daher sehe ich solche Umfragen, einfach als nicht recht sinnvoll an. Ok, wenn man das letzte Jahr betrachtet hat ist es klar, dass alle glauben ATI wird auch im neuen Jahr wieder führend sein, aber ich würde da doch lieber auf Benchmarks warten!!

Wenn Nvidia den NV40 nicht gecancelt hätte, würde ich auch glauben das ATI performancemäßig vorne liegen wird, und Nvidia featuremäßig vorne liegen wird, aber da ja Nvidia den Refresh-Chip bringen wird, anstelle des originalem NV40, bin ich mir da jetz nicht mehr sicher, ob da in der Performance nicht ein Gleichstand entstehen könnte. Und dann könnte natürlich Nvidia den Vorteil des Featurekönigs voll ausspielen. Hier könnte man dann nur mehr mit dem Preis etwas beeinflußen.

Gast
2004-03-03, 16:46:35
Was mich allerdings wundert ist, das Nvidia nun schon zum zweiten mal den Refresh-Chip vorzieht(muss?!). Beim NV30 haben sie die Krücke noch vertrieben (wenn auch nur kurz), beim NV40 gleich gecancelt und den NV45 zum NV40 degradiert. Entweder hat NV größere Probleme bei ihren Designentscheidungen (hier muss man aber auch zugestehen, dass diesmal auch ATI mit seinem ersten Design -R400- nicht zufrieden war und diese umdesignt hat) oder der neue Chip wird super.

PS:
Vielleicht bleibt es aber auch nur ein Gerücht, dass der kommende NV40 = der ursprüngliche NV45.

betasilie
2004-03-03, 16:56:25
Original geschrieben von Gast
Was mich allerdings wundert ist, das Nvidia nun schon zum zweiten mal den Refresh-Chip vorzieht(muss?!). Beim NV30 haben sie die Krücke noch vertrieben (wenn auch nur kurz), beim NV40 gleich gecancelt und den NV45 zum NV40 degradiert. Entweder hat NV größere Probleme bei ihren Designentscheidungen (hier muss man aber auch zugestehen, dass diesmal auch ATI mit seinem ersten Design -R400- nicht zufrieden war und diese umdesignt hat) oder der neue Chip wird super.

PS:
Vielleicht bleibt es aber auch nur ein Gerücht, dass der kommende NV40 = der ursprüngliche NV45.
Der NV45 wird gegenüber dem NV45 so gut wie keine Veränderungen aufweisen an der Architektur. Da wird nur am Chiptakt gedreht und an der AGP-Bridge.

Gast
2004-03-03, 17:00:03
Original geschrieben von Gast
oder .....

....mit anderen Worten, mehr als 70% von ca. 3.000 Gamern kaufen sich dieses Jahr keine NV-Karte.

was meinst du wohl passiert, wenn Nvidia es schafft mit dem NV40 vorn zu liegen und auch mehr Fetures zu bieten.
Wie sähe dann das Ergebnis aus, wenn du dann die Umfrage nochmal machst?
Bei sowas dreht der Wind ziemlich schnell zumal ich sehr viele Leute kenne, die eigentlich nur darauf warten, dass NV gleich oder vorbeizieht (Qualität und Speed). Die würden mit Freude sofort lieber zu einer NV Karte greifen, wegen weniger Probleme.

Gast
2004-03-03, 17:00:35
Warum, beim NV30 zu NV35 hat Nvidia auch ein bisschen mehr als die Taktrate geändert.

ShadowXX
2004-03-03, 17:24:08
Original geschrieben von Gast
was meinst du wohl passiert, wenn Nvidia es schafft mit dem NV40 vorn zu liegen und auch mehr Fetures zu bieten.
Wie sähe dann das Ergebnis aus, wenn du dann die Umfrage nochmal machst?
Bei sowas dreht der Wind ziemlich schnell zumal ich sehr viele Leute kenne, die eigentlich nur darauf warten, dass NV gleich oder vorbeizieht (Qualität und Speed). Die würden mit Freude sofort lieber zu einer NV Karte greifen, wegen weniger Probleme.

völlig OT:

was habt ihr eigentlich immer mit: nV = weniger Probleme

Das ist ungefähr so aktuell wie Intel = weniger Probleme

ATI muss wirklich immer noch mit den Altlasten der früheren Treiber leben....das zB MP2 am Anfang überhaupt nicht auf nVs lief (mit dem damals aktuellen Deto) wird unter den Tisch gekehrt...

Bei beiden sind die Treiber was Games betrifft ungefähr gleich gut oder schlecht...beim Rest entscheidet oftmals der Geschmack..

J.S.Shadow

ShadowXX
2004-03-03, 17:27:01
Original geschrieben von betareverse
Der NV45 wird gegenüber dem NV45 so gut wie keine Veränderungen aufweisen an der Architektur. Da wird nur am Chiptakt gedreht und an der AGP-Bridge.

Das bezieht sich darauf, das es das Gerücht gibt, das der jetzige nv40 eigentlich schon der Refresh-Chip nv45 ist....

Als "Beweise" dienen unter anderem genau das von dir Angeführte...

Ich weiss es nicht, und halte es auch für unwahrscheinlich, aber dieses Gerücht hält sich...

J.S.Shadow

LovesuckZ
2004-03-03, 17:27:37
Original geschrieben von ShadowXX
ATI muss wirklich immer noch mit den Altlasten der früheren Treiber leben....das zB MP2 am Anfang überhaupt nicht auf nVs lief (mit dem damals aktuellen Deto) wird unter den Tisch gekehrt...


MP2 = Max Payne2? Lief doch. Nunja, bis auf kleine Fehlerchen.

LovesuckZ
2004-03-03, 17:29:35
Original geschrieben von ShadowXX
Ich weiss es nicht, und halte es auch für unwahrscheinlich, aber dieses Gerücht hält sich...


Nv40 haette zum Zeitpunkt des NV38 kommen sollen.
Man munkelt ja, dass die Transistorenzahl wieder aufgestockt wurde (Juni: 150, September: 175, nun: 210).
Der jetzige NV45 sei nur ein NV40 mit PCI-I Bridge.
ATi cancelte den ursprünglichen r400. Nvidia tat wohl das selbe mit dem NV40. Jedoch nur im kleineren Kellerlein.

ShadowXX
2004-03-03, 17:43:29
Original geschrieben von LovesuckZ
MP2 = Max Payne2? Lief doch. Nunja, bis auf kleine Fehlerchen.

Das meinte ich doch damit...und es war auch nicht bös gemeint...bei beiden Treibern, gibt es immer mal wieder "Aussetzer" und "faule Eier"...die werden kann korrigiert im nächsten und aus die Maus...

J.S.Shadow

robbitop
2004-03-03, 17:52:20
ach das mit den 210Mio sollte man erstmal abwarten imo

nicht unmöglich, aber trotzdem sollte man skepsis bewahren...es kommt ihmmer hin von Theinq

Gast
2004-03-03, 18:22:10
Ich erwarte mir von beiden neuen Karten mindestens einen 50% Leistungssprung.

Z.B in Farcry 1024 mit 4xAA 8xAF,wenn sie das nicht schaffen sind das auch keine Next Gen Chips

LovesuckZ
2004-03-03, 18:23:07
Original geschrieben von Gast
Ich erwarte mir von beiden neuen Karten mindestens einen 50% Leistungssprung.


50% erreicht ATi ja fast schon aus der Anhebung des Taktes :)

Gast
2004-03-03, 19:39:17
Original geschrieben von LovesuckZ
50% erreicht ATi ja fast schon aus der Anhebung des Taktes :)

Die Karten sind aber noch nicht draußen ,dann kannst du wohl kaum wissen ob der R420 schon durch den Takt, 50% schneller ist.

deekey777
2004-03-03, 19:56:36
Mal sehen, ob die Full Precision Leistung der NV40 besser ist als die der 9600 pro.

Godmode
2004-03-03, 21:04:02
Original geschrieben von deekey777
Mal sehen, ob die Full Precision Leistung der NV40 besser ist als die der 9600 pro.

Glaubst du wirlich das der NV40 in irgendeinem Bereich langsamer als ne 9600 Pro ist? Wenn das so wäre kann sich Nvidia eingraben, aber soweit wirds ja doch wohl nicht kommen :)

aths
2004-03-03, 21:55:44
Original geschrieben von deekey777
Mal sehen, ob die Full Precision Leistung der NV40 besser ist als die der 9600 pro. Das bezweifelst du doch nicht ernsthaft, dass die Full-precision-Leistung auch einer 9800 Pro überboten wird?

deekey777
2004-03-03, 22:10:39
Original geschrieben von aths
Das bezweifelst du doch nicht ernsthaft, dass die Full-precision-Leistung auch einer 9800 Pro überboten wird?

Wer weiss....

Ich wollte nur einen bestimmten Poster ärgern.

r@e
2004-03-06, 05:21:09
Original geschrieben von Gast
Die Karten sind aber noch nicht draußen ,dann kannst du wohl kaum wissen ob der R420 schon durch den Takt, 50% schneller ist. Dass der R360 nix anderes war, als ein takterhöhter R350 dürfte ja mittlererweile eine Binsenweisheit sein (wie NV38 zu NV35). Worauf Love hinaus wollte, ist wohl der Punkt, dass ATI den R300 noch weiter 'aufbohren' könnte und damit eine 50%ige-Taktsteigerung (des R360) als R420 verkauft...

Also quasi 60 zu 120 + (R)300 !
Wie gesagt, will nur helfen...
:D

Und technisch wäre das sicher machbar, oder ?
Glauben tue ich persoönlich derzeit etwas ganz anderes...

Razor

AlfredENeumann
2004-03-06, 17:15:53
Original geschrieben von r@e
Dass der R360 nix anderes war, als ein takterhöhter R350 dürfte ja mittlererweile eine Binsenweisheit sein (wie NV38 zu NV35). Worauf Love hinaus wollte, ist wohl der Punkt, dass ATI den R300 noch weiter 'aufbohren' könnte und damit eine 50%ige-Taktsteigerung (des R360) als R420 verkauft...

Also quasi 60 zu 120 + (R)300 !
Wie gesagt, will nur helfen...
:D

Und technisch wäre das sicher machbar, oder ?
Glauben tue ich persoönlich derzeit etwas ganz anderes...

Razor

Selbst wenn, warum nicht?
So ein R300 mit 500Mhz oder mehr würde doch ganz gut abgehen, oder etwa nicht?

aths
2004-03-06, 17:28:15
Original geschrieben von AlfredENeumann
Selbst wenn, warum nicht?
So ein R300 mit 500Mhz oder mehr würde doch ganz gut abgehen, oder etwa nicht? Gegenüber dem NV40 wäre das lachhaft.

ironMonkey
2004-03-06, 18:41:09
Naja....also wenn man nur an der mhz Schraube drehen würde müßte man schon so 600 - 650mhz raus quetschen aus der R300 um sich vom von der R360 genug abheben zu können, 500mhz bekommt man mit Wakü und Voltmod auch bei einer 9800pro hin nur halt das der Speicher nicht auf 500mhz hoch gehen wird, aber man sieht ca. was es bringt nur an der mhz Schraube zu drehen.........zu wenig.



Gruß

AlfredENeumann
2004-03-06, 20:50:06
Original geschrieben von aths
Gegenüber dem NV40 wäre das lachhaft.

Ach du weist schon wie schnell der NV40 ist?

PS: In synthetischen Benchmarks skaliert die R3X0 Architektur aber noch ordentlich mit, siehe Futuremark Datenbank.

aths
2004-03-06, 21:04:14
Original geschrieben von AlfredENeumann
Ach du weist schon wie schnell der NV40 ist?Was ich wissen darf, steht im 3dc-Artikel :)
Original geschrieben von AlfredENeumann
PS: In synthetischen Benchmarks skaliert die R3X0 Architektur aber noch ordentlich mit, siehe Futuremark Datenbank. Ich erwarte beim R420 doch mindestens doppelte Power pro Pipe, falls es bei 8 Pipes bleibt.

LovesuckZ
2004-03-06, 21:08:28
Original geschrieben von AlfredENeumann
Selbst wenn, warum nicht?
So ein R300 mit 500Mhz oder mehr würde doch ganz gut abgehen, oder etwa nicht?

Nen bissl wenig für eine "neue" Next-Generation Karte.
Das waere gerade einmal 22% Mehrleistung gegenüber der 9800XT.

reunion
2004-03-06, 21:12:30
Original geschrieben von aths
Ich erwarte beim R420 doch mindestens doppelte Power pro Pipe, falls es bei 8 Pipes bleibt.

Ich glaube auch mindestens an doppelte Power pro Pipe, ATI spricht ja von 2-3x R360 Leistung... (Tri-TMUs und 2FP Einheiten pro Pipe plus den höheren Takt würde da schön hinkommen)

r@e
2004-03-06, 21:16:12
Original geschrieben von reunion
Ich glaube auch mindestens an doppelte Power pro Pipe, ATI spricht ja von 2-3x R360 Leistung... (Tri-TMUs und 2FP Einheiten pro Pipe plus den höheren Takt würde da schön hinkommen) ATI "spricht schon" ?
Gibt's dort etwa schon was Offizielles ?
:???:

Razor

reunion
2004-03-06, 21:21:16
Original geschrieben von r@e
ATI "spricht schon" ?
Gibt's dort etwa schon was Offizielles ?
:???:

Razor

Offizielles gibts natürlich nicht, ich beziehe mich auf den CMR4 "Test" wo ja der R420 angeblich 2-3x schneller sein soll als "heutige" Grakas...

r@e
2004-03-06, 21:42:33
Original geschrieben von reunion
Offizielles gibts natürlich nicht, ich beziehe mich auf den CMR4 "Test" wo ja der R420 angeblich 2-3x schneller sein soll als "heutige" Grakas... Ah ja... dacht' ich's mir doch...
:)

Razor

Thomas_BVB
2004-03-09, 09:36:30
Hi,

jetzt möchte ich auch mal meinen Senf dazu geben!

Ich erwarte kaum Unterschiede in der Leistung. Die Schlacht im Markt wird weiter geführt mit der aktuellen Roadmap.

Sicherlich wird es NEUE Namen geben, aber eine FX59X sowie eine R98X wird weiterhin 2004 das Mainstreamprodukt hinter den Bezeichnungen sein die da kommen werden.

Die Folgen kann sich jeder persönlich anhand der Verschiebung der Marktanteile 2003 Q3 und Q4 ausmalen.

Ich erwarte das ATI Ihre Marktanteile auf dem jetzigen Nivou stabilisieren kann.

Begründung:

1. Mobile Computing

Im Mobile-Segment hat ATI bereits heute einen enoremn Marktanteil gegenüber nv und co.

Memo: Es werden mehr Notebooks gekauft als PC's in der Preisklasse 999€ bis 1499€, dieser Trend wird noch dramtischer zunehmen.

2. Handychips

NV spricht davon und bei ATI gibt es schon die ersten Martkerfahrungen wie zb. mit dem aktuellen Handy von Motorola V600.

3. Ultra-Lowend

Im Lowend hat NV ganz klar mit MX4x und FX5200 noch die Nase vorne. Wobei hier einige PC-Hersteller bereits verstanden haben was die FX5200 verspricht und nicht einhält (DX9 und co).

4. Midrange

Hier ist die R98X gegenüber der FX9X klar m Vorteil, FP24 gegenüber 16FP & 32FP bei NV. Die FX5500 oder FX5700 oder 9600XT macht aufgrund der gefallenen Preise bei der FX59x und der R98X keinen wirklichen Sinn mehr!

5. Highend

Hier wird es kaum Unterschiede zwischen der Performance geben.


6. PCI Express

Was bei allen Beiträgen hier vergessen wurde ist der Umstand das tatsächlich die Bridgelösung von nv 4GB/sec erreichen kann, aber prozentual gesehen mit 70% nur in eine Richtung.

Da heißt beim Lesen aus der Hauptspeicher kann die Bridgelösung von nv ca. 3GB/sec erreichen und beim Schreiben in Richtung Hauptspeicher aber nur mit 1GB/sec aufwarten (Nettowerte).

Hingegen kann die PCI Express Lösung von ATI in beide Richtungen 4GB/sec verarbeiten, sowohl LESEN & SCHREIBEN -> Hauptspeicher aufgrund 100% PCI Express Design!

Und das ist doch der einzige Vorteil von PCI-Express bei Grafikkarten! Als AGP entwickelt worden ist, hat ja niemand daran gedacht das es einmal Sinn ergeben würde aus dem Grafikspeicher grössere Datenmengen zu lesen.

MfG Thomas

Thomas_BVB
2004-03-09, 09:40:39
Kurze Ergänzung noch !

ID mit D3 und VALVE mit HL haben beide Probleme mit Ihrem Relase.

Das heißt die SW-Bundels von beiden ergeben keinen Vorteil gegenüber dem anderen = Patt-Situation!

aths
2004-03-09, 11:42:51
Alternative Sicht:

R420 und NV40 kommen mit viel Getöse. Etwa Gleichstand in der Performance, wobei NV den Shader Model 3.0-Bonus hat. Im Midrange- und später auch Lowend-Markt punktet NV mit 3.0-fähiger Hardware. 5750 und 5950 laufen relativ schnell aus, weil die auf NV40 basierende HW pro Takt mehr leisten kann.

HL2 läuft auf NV40-HW nicht schlechter als auf R420, Doom3 jedoch etwas besser auf NV40-HW als auf R420. (Wir sind hier im Spekulations-Forum.) Nvidia streift das mit CineFX und CineFX2 gewonnene Image ab. Während die ATI-Fans mehrheitlich bei ATI bleiben, und nur wenige wegen Shader 3.0 auf NV40 umsteigen, kaufen viele, die schon eine NV-Karte haben, eine aus der neuen NV40-Familie, weil spürbarer Mehrwert geboten wird.

Wenn das Gerücht stimmt, ist das NV40-Design stark auf Skalierbarkeit ausgelegt. Wenn die Roadmaps stimmen, die ATIs Zukunfts-Chips zeigen sollen, gibt es vom R420 nur einen Mitteklassen-Ableger. Der Rest soll von alten Chips gestemmt werden. Wollen sie ansonsten nur über den Takt skalieren?

stickedy
2004-03-09, 12:09:33
Und was ist, wenn Doom3 auf dem R420 besser läuft als auf dem NV40?

aths
2004-03-09, 12:10:57
Original geschrieben von stickedy
Und was ist, wenn Doom3 auf dem R420 besser läuft als auf dem NV40? Dann hätte ATI eine Glanzleistung abgeliefert. Ich traue ATI zu, dass sie auf brechen und biegen die schnellste Lösung hinkriegen. Nur ist die Frage, wer diese bezahlen will.

Gast
2004-03-09, 12:25:53
Original geschrieben von aths ...Nur ist die Frage, wer diese bezahlen will.
Sollten 210 Millionen Tranistoren bei NV stimmen, würd ich mir bei 160 Millionen von ATI weniger sorgen machen. Ich will mir nicht ausdenken müssen, was für eine Platine benötigt wird, um so ein Monster (NV) zu "füttern".

Winter[Raven]
2004-03-09, 12:33:58
Original geschrieben von stickedy
Und was ist, wenn Doom3 auf dem R420 besser läuft als auf dem NV40?

Das ist Wunschdenken ... nicht umsonst werden die NV FX Karten für DOOM III empfolen ... *eg*

Gast
2004-03-09, 12:38:33
Original geschrieben von aths
Alternative Sicht:

R420 und NV40 kommen mit viel Getöse. Etwa Gleichstand in der Performance, wobei NV den Shader Model 3.0-Bonus hat. Im Midrange- und später auch Lowend-Markt punktet NV mit 3.0-fähiger Hardware. 5750 und 5950 laufen relativ schnell aus, weil die auf NV40 basierende HW pro Takt mehr leisten kann.

HL2 läuft auf NV40-HW nicht schlechter als auf R420, Doom3 jedoch etwas besser auf NV40-HW als auf R420. (Wir sind hier im Spekulations-Forum.) Nvidia streift das mit CineFX und CineFX2 gewonnene Image ab. Während die ATI-Fans mehrheitlich bei ATI bleiben, und nur wenige wegen Shader 3.0 auf NV40 umsteigen, kaufen viele, die schon eine NV-Karte haben, eine aus der neuen NV40-Familie, weil spürbarer Mehrwert geboten wird.


Sollte es so werden, wie du es hier skizzierst, wäre Nvidia klar im Vorteil. Auch wenn die 3.0 Shader erstmal brach liegen werden, so sind die 2.X Shader vom NV40 viel mächtiger als die vom R420. Wäre für mich ein Kaufargument.

Hoffentlich feilt Nvidia auch noch bisschen am AA, dann könnte ihnen wirklich ein grosser Wurf gelingen.

Kleine Bedenken habe ich nur wegen der Kombination:
210 Mio Tr., 0,13 Prozess und 500 Mhz GPU-Takt. :kratz:
Wenn die das hinkriegen, Respekt.

AlfredENeumann
2004-03-09, 12:44:38
Original geschrieben von Winter[Raven]
Das ist Wunschdenken ... nicht umsonst werden die NV FX Karten für DOOM III empfolen ... *eg*

Von wem?

stickedy
2004-03-09, 12:55:08
Original geschrieben von Winter[Raven]
Das ist Wunschdenken ... nicht umsonst werden die NV FX Karten für DOOM III empfolen ... *eg*

Naja, naja... Ich persönlich sehe keinen zwingenden Grund, warum Doom3 schneller auf einem NVidia-Chip als auf einem ATI-Chip laufen sollte... Auch wenn so ziemlich jeder davon ausgeht, fehlt mir da die Kausalität bei dieser Annahme.