PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATI: R420 im Q1/2004 in Massenproduktion


Tarkin
2003-12-19, 08:40:02
http://www.digitimes.com/NewsShow/Article.asp?datePublish=2003/12/19&pages=A7&seq=47

"ATI Technologies is expected to enter volume production of its R420 graphics chip core as early as the end of the first quarter, according to local industry sources.

The R420 will be fabricated at Taiwan Semiconductor Manufacturing Company (TSMC) using a low-k process technology. The graphics chip core is expected to boast 160 million transistors and support an AGP 8x bus and GDDR3 memory architecture. The product name is currently unknown.

Nvidia is expected to launch its comparable product (the NV40) around the same time. Not much is known about the NV40, except that it will also support the AGP 8x bus and be made using a 0.13-micron process.

The two graphics chip giants both chose to use the more mature 0.13-micron manufacturing processes for their high-end products. Local card makers explained that this may be due to concerns about performance stability and production costs. ATI is said to be using a 0.11-micron process for production of its mainstream RV370 graphics chip."

Endorphine
2003-12-19, 09:04:41
Original geschrieben von Tarkin
http://www.digitimes.com/NewsShow/Article.asp?datePublish=2003/12/19&pages=A7&seq=47
[...]
The R420 will be fabricated at Taiwan Semiconductor Manufacturing Company (TSMC) using a low-k process technology. The graphics chip core is expected to boast 160 million transistors and support an AGP 8x bus and GDDR3 memory architecture. The product name is currently unknown.

Nvidia is expected to launch its comparable product (the NV40) around the same time. Not much is known about the NV40, except that it will also support the AGP 8x bus and be made using a 0.13-micron process.
[...] Höh? :kratz2:

Sollten R420 und NV40 nicht bereits reinrassige PCI-Express Schnittstellen haben, die mittels AGP-Bridge dann auf AGP umgesetzt werden _können_? Siehe -> http://www.3dcenter.org/artikel/2003/08-19_a.php

http://www.forum-hardtecs4u.com/3dcenter/images/2003/08-19_pic1.jpg

Irgendwie traurig, dass sich wieder mal die ganze Herrlichkeit auf Dampf zu beschränken scheint. DDR2-SDRAM verzögert sich um mindestens 2 Jahre, SATA um 2-3 Jahre, PCI-Express nun auch wieder 2 Jahre? ;(

seahawk
2003-12-19, 09:18:36
Ich dachte es gibt R420 = AGP und R423 = PCI Express.

Siegfried
2003-12-19, 09:47:15
Original geschrieben von seahawk
Ich dachte es gibt R420 = AGP und R423 = PCI Express.
gibt es ja auch

ich finde toll dass in nen paar monaten endlich eine wirklich neue vga gen von ati kommt (also nicht 9700>9800>9800xt)
und pci express chipsätze gibt es bis dahin wohl auch

Gast
2003-12-19, 10:24:06
Original geschrieben von Siegfried
gibt es ja auch

ich finde toll dass in nen paar monaten endlich eine wirklich neue vga gen von ati kommt (also nicht 9700>9800>9800xt)
und pci express chipsätze gibt es bis dahin wohl auch

aber wohl vorerst nur von Intel und auch da wäre ich vorsichtig ob sie bis dahin gibt.
Ich sehs wie Endo.
PCI Express wird sich wohl verzögern.

Nvidia bringt PCI Express Chipsätze wahrscheinlich erst im 3. Quartal 2004. Was die anderen machen k.a. aber irgendwie haben es da alle momentan nicht so eilig.

Gast
2003-12-19, 10:48:45
Es hat wirtschaftlich keinen Sinn, PCI-Express Grafikarten im 1Q auf dem Markt zu werfen, da 99% AGP Boards haben. 4Q wird vielleicht die kritische Masse erreicht sein, so daß Massenproduktion anläuft.

reunion
2003-12-19, 13:54:10
Original geschrieben von Tarkin
ATI is said to be using a 0.11-micron process for production of its mainstream RV370 graphics chip."

Intressant, der RV370 soll schon in 110nm produziert werden...

Winter[Raven]
2003-12-19, 14:21:17
Sollten R420 und NV40 nicht bereits reinrassige PCI-Express Schnittstellen haben

Also, soweit ich gehört habe soll es von dem NV40 zwei Version geben, eine AGP und PCI Express.

Wäre wirklich zimmlich dumm jetzt auf eine Technologie zusetzen die 0% Marktanteil besitzt.

Ich mein, keiner wird sich jetzt ne neues PCI Express Mainboard kaufen wo er gerade erst einen Athlon 64 Board seinen eigenen nennt.

Ich Tippe ehe auf:

Geforce FX 6000 AGP, die Ultra Version aber FX 6000 Ultra PCI.

Oder NV wirft Low-Cost NV 40 + NON Ultra + Ultra für den AGP und das gleiche für PCI Express auf den Markt.

Würde sich damit gleichen das von dem NV 40 10 Versionen geben soll im laufe des nächsten Jahres.

Xmas@home
2003-12-20, 16:20:44
NV40 soll AFAIK ein AGPx8 Chip werden und eine PCIE-Bridge zur Seite bekommen.

Gast
2003-12-20, 18:10:24
Grob geschätzt, enthält die digitimes-Meldung dreimal die Formulierung "is expected" und einmal "is said".

Warum gehört sowas nicht ins Speku-Forum?

The_FireDevil
2003-12-20, 20:57:29
Der Chip wird aber keine echten Shader 3.0 verarbeiten können - zumindest nur langsam, da er die Transistormenge für 3.0 nicht aufbringen kann - ATi bestätigt das nicht direkt, sondern weist daraufhin, dass der Chip eigentlich auf 2.0 getrimmt sei...

Gast
2003-12-21, 06:38:16
Original geschrieben von The_FireDevil
Der Chip wird aber keine echten Shader 3.0 verarbeiten können - zumindest nur langsam, da er die Transistormenge für 3.0 nicht aufbringen kann - ATi bestätigt das nicht direkt, sondern weist daraufhin, dass der Chip eigentlich auf 2.0 getrimmt sei...

Wenn sich beim NV40 und den 3.0 Shadern das gleiche Spiel widerholt wie beim NV30 und den 2.0 Shadern dann braucht sich ATI diesbezüglich keine Sorgen zu machen.

Dann hab ich lieber eine 2.0 Shader Rakete mit doppelter Leistung vom R350.

Gast
2003-12-21, 23:46:28
doppelte leistung vom R350? wie soll das denn gehen? das wäre das erste mal seit sehr langer zeit dass eine grafikkartengeneration so einen großen schritt machen würde...

ich wünsche mir eher ein verbessertes AF, das AA kann so bleiben wie es ist.
auch auf VS/PS 3.0 kann ich getrost verzichten, es gibt ja noch nichtmal richtige dx9-spiele...

füllrate und bandbreite sollte auch steigen, sagen wir jeweils um ca. 50%, das ist realistischer...

Demirug
2003-12-21, 23:57:31
Sicherlich für den Endkunden ist VS und PS 3.0 ersteinmal relative uninteresant. Allerdings würde ATI wenn sie keine 3.0 fähige Hardware abliefern wieder einiges von iherem mit der R3XX Serie aufgebauten Ruf bei den Entwicklern wieder einbüsen.

mapel110
2003-12-22, 00:00:55
Original geschrieben von Demirug
Sicherlich für den Endkunden ist VS und PS 3.0 ersteinmal relative uninteresant. Allerdings würde ATI wenn sie keine 3.0 fähige Hardware abliefern wieder einiges von iherem mit der R3XX Serie aufgebauten Ruf bei den Entwicklern wieder einbüsen.

welchen ruf? ich denke, nvidia hat die fortschrittlichere shaderhardware?!

Demirug
2003-12-22, 00:13:30
Original geschrieben von mapel110
welchen ruf? ich denke, nvidia hat die fortschrittlichere shaderhardware?!

Haben sie ja auch. Aber ATI war wie ja bekannt sein dürfte um einiges früher mit Karten bei den Entwicklern. Das in Verbindung mit dem verbesserten Dev-Support hat schon ein bischen was bewirkt. Es gibt nun aber schon die ersten kritischen Stimmen das die Shaderfeatures der R3XX Chips doch etwas knapp bemessen sind. Im Moment stört das nur bei Experimenten da man sich bei aktuell in der Entwicklung befindlichen Titeln an das von durch den R300 Chip definierte PS 2.0 Gerüst halten muss. Aber die nächste Generation kommt bestimmt und wenn ATI dabei Technologiebremse auf breiter Ebene spielt dann werden sie von den Entwickler entsprechend dafür abgestraft.

Pathfinder
2003-12-22, 09:49:03
ATI sollte mit wenig Aufwand dem R420 durchweg fortschrittliche 32-Bit bei gleichbleibend hoher oder höherer Geschwindigkeit beibringen können. Es gibt kritische Stimmen, die eine praktische Nutzbarkeit von 32-Bit Genauigkeit auch bei CineFX-III fordern. Sollte NVidia 32-Bit wieder nur als Labor-Technologie implementieren, dann wäre das gleichermaßen als technologischer Stillstand anzusehen wie das Fehlen von 3.0 Shadern im R420. Meine Vermutung ist, der R420 wird wohl eine Labor-Variante von der 3.0 Shader enthalten. Letzlich ist eine genaue Gewichtung der Auswirkung ist in beiden Fällen nicht ohne ein gehöriges Maß an Mutmaßungen möglich.

Aber ganz unabhängig davon wird der Geldgeber(Käufer) den Next-Gen Chip mit unbrauchbare 2.0 Implementation abstrafen!

G.
P.

LovesuckZ
2003-12-22, 09:57:10
Original geschrieben von Pathfinder
Sollte NVidia 32-Bit wieder nur als Labor-Technologie implementieren, [...].

:???:

Erklaere dies doch mal bitte.

Gast
2003-12-22, 11:12:20
Original geschrieben von LovesuckZ
:???:

Erklaere dies doch mal bitte.
Mein Posting wird verständlich, wenn du zuvor Demirug's Posting liest. Darüber hinaus habe ich es quasi implizit ausreichend erklärt. Was verstehst du denn nicht?

G.
P.

Pathfinder
2003-12-22, 11:29:07
Sorry, ich vergaß im Posting zuvor den Benutzernahmen einzutragen.

Vielleicht als zusätzliche Erläuterung:
JC sagte mal sinngemäß, daß die erste Generation einer neuen Technologie eigentlich nur für Entwickler in deren Labor gedacht ist.
Die Entwickler planen daraufhin mehr oder weniger für die nächste Chipgeneration eine praktische Umsetzung in entsprechenden Spielen.

Ergo,
die zweite Chip-Generation sollte dann eine performante Implementation der Technologie enthalten, denn Spiele beginnen sie bereits anzufordern ...

G.
P.

seahawk
2003-12-22, 11:51:27
Hmm und wenn ich mit PS 3.0 einen Shader in eine Pass machen kann für den ich in 2.0 Multipass mache.

Das hat doch sicherlich auch Einfluss auf die Leistung.

Demirug
2003-12-22, 11:53:06
Original geschrieben von Pathfinder
ATI sollte mit wenig Aufwand dem R420 durchweg fortschrittliche 32-Bit bei gleichbleibend hoher oder höherer Geschwindigkeit beibringen können. Es gibt kritische Stimmen, die eine praktische Nutzbarkeit von 32-Bit Genauigkeit auch bei CineFX-III fordern. Sollte NVidia 32-Bit wieder nur als Labor-Technologie implementieren, dann wäre das gleichermaßen als technologischer Stillstand anzusehen wie das Fehlen von 3.0 Shadern im R420. Meine Vermutung ist, der R420 wird wohl eine Labor-Variante von der 3.0 Shader enthalten. Letzlich ist eine genaue Gewichtung der Auswirkung ist in beiden Fällen nicht ohne ein gehöriges Maß an Mutmaßungen möglich.

Aber ganz unabhängig davon wird der Geldgeber(Käufer) den Next-Gen Chip mit unbrauchbare 2.0 Implementation abstrafen!

G.
P.

Ich zweifle zuerst einmal an das ATI mit dem R420 schon den Schritt zu FP32 gehen wird. Warum auch? Für DX9 reicht FP24 aus um die Spec zu erfüllen. Bei nV ist FP32 ja historisch bedingt.

Sicherlich wenn nV die Ausnutzbarkeit der vorhandenen Rechenleistung nicht steigert ist das ebenfalls ein Hemmschuh wenn auch nicht gleich eine Bremse. Da die Flaschenhälse von CineFX I und II mehr als bekannt sind und die Forderungen von MS schon früh auf dem Tisch lagen sehe ich diesen Punkt als nicht ganz so kritisch.

ATI auf der Gegenseite hat das Problem das das vom R200 üernommen Grunddesign des R300 gerade für PS 3.0 nicht mehr sonderlich tauglich ist. Es ist eigentlich schon für komplexe 2.0 Shader (4 dependent Level) kritisch. Bei einem 3.0 Shader lässt sich dann kaum noch eine gleichmässige Phaseneinteilung erreichen. Die unterschiedliche Anzahl von Ops pro Pixel setzt der Sache noch die Krone auf. Natürlich könnte man es realisieren müsste dafür wohl allerding eine ganze Menge NOPs in Kauf nehmen.

Was sich nun ein Entwickler primär in seinen Rechner steckt hängt ja auch sehr stark vom derzeitigen Stand und der Philosophie des Projekts ab. Neben der reinen Verfügbarkeit von Features spielt dabei die Speed natürlich auch eine nicht unbedeutende Rolle.

Ein ausreichend finaziertes Projket wird zuerst auf die Technologisch stärkste Karte setzte um die Grenzen festzulegen. In der Entwicklung dann die Karte nutzen welche bei den ausgewählten Effekten die grösste Performance zeigt. In der Optimierungsphase wird man dann die Karte nutzen welche die meisten Performanceprobleme bereitet. Wegen Geld/Zeitmangel fällt die Optimierungsphase dann flach und bei noch mehr Geldmangel wird für Realisierung auch nicht unbedingt neue Hardware gekauft.

Genau das haben wir gerade erlebt. Der R300 war die technologisch beste Karte und wurde daher auch zum Festlegen der DX9 Zuckereffekte benutzt da nV immer noch nicht mit dem Hinter hochgekommen war lies man die Karten auch zum Entwicklen im Rechner. Für das Optimieren war dann oft wie üblich keine Zeit mehr.

Es ist also durchaus wichtig für die IHVs gerade in den frühen Phasen in den Entwicklungsrechner present zu sein. Das Feedback daraus kann in das Hardwaredesign und Treiberverbesserungen einfliessen. In der Optimierungsphase können IHV im besten Fall noch Schadensbegrenzung betreiben.

LovesuckZ
2003-12-22, 11:54:20
Original geschrieben von Gast
Mein Posting wird verständlich, wenn du zuvor Demirug's Posting liest. Darüber hinaus habe ich es quasi implizit ausreichend erklärt. Was verstehst du denn nicht?


Wenn die Spielentwickler keinen Gebrauch von FP32 machen, liegt die Schuld weniger bei Nvidia. Man kann ihnen ankreiden, dass sie bei FP32 nicht die selbe Geschwindigkeit liefern koennen wie es die ATi Konkurenz bei FP24 vermag.
Somit verstehe ich deine These nicht...

Demirug
2003-12-22, 11:57:00
Original geschrieben von Pathfinder
Sorry, ich vergaß im Posting zuvor den Benutzernahmen einzutragen.

Vielleicht als zusätzliche Erläuterung:
JC sagte mal sinngemäß, daß die erste Generation einer neuen Technologie eigentlich nur für Entwickler in deren Labor gedacht ist.
Die Entwickler planen daraufhin mehr oder weniger für die nächste Chipgeneration eine praktische Umsetzung in entsprechenden Spielen.

Ergo,
die zweite Chip-Generation sollte dann eine performante Implementation der Technologie enthalten, denn Spiele beginnen sie bereits anzufordern ...

G.
P.

Wobei diesemal hat sich JC etwas verschätzt. Die Integration von DX9 Features war wesentlich schneller abgeschlossen als die meisten vermutet haben.

Was den grösseren Rahmen angeht hat aber durchaus recht. Wir befinden und jetzt am Ende von DX9(Generation 1) und die ersten Spiele die mindestens DX8 Hardware fordern erscheinen.

Demirug
2003-12-22, 12:01:04
Original geschrieben von seahawk
Hmm und wenn ich mit PS 3.0 einen Shader in eine Pass machen kann für den ich in 2.0 Multipass mache.

Das hat doch sicherlich auch Einfluss auf die Leistung.

Multipass hat in der Regel immer einen schlechten Einfluss auf die Leistung. Und die Reduktion von Passes ist ja daher eines der Hauptziele das mit PS 3.0 verfolgt wird.

Winter[Raven]
2003-12-22, 15:30:40
Was sich nun ein Entwickler primär in seinen Rechner steckt hängt ja auch sehr stark vom derzeitigen Stand und der Philosophie des Projekts ab. Neben der reinen Verfügbarkeit von Features spielt dabei die Speed natürlich auch eine nicht unbedeutende Rolle.

Genau ... ^^

Bestes Beispiel, James Munro, Chef Programmierer bei Raven Software.

Der sich wie man seiner Burowebcam entnehmen kann, eine Geforce FX 5xxx gekauft hat.

Gast
2003-12-22, 16:28:31
Original geschrieben von Demirug
Wobei diesemal hat sich JC etwas verschätzt. Die Integration von DX9 Features war wesentlich schneller abgeschlossen als die meisten vermutet haben.

Was den grösseren Rahmen angeht hat aber durchaus recht. Wir befinden und jetzt am Ende von DX9(Generation 1) und die ersten Spiele die mindestens DX8 Hardware fordern erscheinen.

und aus welchem Grund wurden die Dx9 fesatures schon so schnell umgesetzt?
DA die Basis dx8 ja schon realtiv weit verbreitet war oder weil die Entwickler sich von den machbaren Effekten soviel vesprachen?
Ich tippe eher auf ersteres.

Winter[Raven]
2003-12-22, 16:43:17
DA die Basis dx8 ja schon realtiv weit verbreitet war oder weil die Entwickler sich von den machbaren Effekten soviel vesprachen?

Jep, das erste, ist einfacher von DX 8 shadern auf DX 9 shadr umzusteigen.

Pathfinder
2003-12-22, 17:03:32
Original geschrieben von Demirug
Multipass hat in der Regel immer einen schlechten Einfluss auf die Leistung. Und die Reduktion von Passes ist ja daher eines der Hauptziele das mit PS 3.0 verfolgt wird.
Durchweg FP32 ist mehr ein gutes Marketing-Argument als zwingend für Spiele in 04 erforderlich. Der sinnvolle Einsatz ist eindeutig beschränkt. Allerdings wenn die Konkurrenz nur halbherzig FP32 beherrscht und nicht eben mal auf FP32/schnell umstellen kann bzw. man selbst verhältnismäßig einfach erweitern kann, dann lohnt sich FP32 schon. ATI's 2.0->3.0 Problem existiert höchstwahrscheinlich bei NVidia in gleicher Weise bezüglich FX12/FP16->FP32.

Ebensowenig wie FP32 sind 3.0 Shader nicht zwingend erforderlich. Zu selten kämen ihre Vorteile zur Geltung, als daß sich signifikante Vorteile einstellen könnten. Ich könnte mir sogar sehr gut vorstellen, daß eine schnelle 2.0 Implementation einer langsamen 3.0 Implementation das Wasser abgräbt, trotz der Möglichkeit zur Passreduktion. Es wird sicher interessant werden...

G.
P.

Pathfinder
2003-12-22, 17:13:40
Original geschrieben von Gast
und aus welchem Grund wurden die Dx9 fesatures schon so schnell umgesetzt?
DA die Basis dx8 ja schon realtiv weit verbreitet war oder weil die Entwickler sich von den machbaren Effekten soviel vesprachen?
Ich tippe eher auf ersteres.
Ich habe den Eindruck, daß die Entwickler von den Möglichkeiten der DX8-Hardware nicht wirklich überzeugt waren. Ein Subset der mit DX8 möglichen PS-Effekte war ja bereits in DX7-Hardware fest verdrahtet enthalten. Der Gewinn war zu klein für die Umstellung. Erst DX9 eröffnet neue Horizonte.

G.
P.

Demirug
2003-12-22, 17:30:52
Original geschrieben von Gast
und aus welchem Grund wurden die Dx9 fesatures schon so schnell umgesetzt?
DA die Basis dx8 ja schon realtiv weit verbreitet war oder weil die Entwickler sich von den machbaren Effekten soviel vesprachen?
Ich tippe eher auf ersteres.

DX8 Basis relative weit verbreitet? Wohl kaum. Man erinnere sich an Technologiebremsen wie GF4MX und die ganzen On-Board Grafiklösungen.

Der Grund dürfte eher sein das MS beim Übergang von DX8 zu DX9 wenig an der API geändert hat. Aus einer DX8 Engine kann man innerhalb weniger Tage eine DX9 Engine machen und dann noch ein paar Zusatzeffekte einbauen. Beim Übergang von DX7 zu DX8 war das Umschreiben viel aufwendiger.

seahawk
2003-12-22, 17:33:55
Und noch leichter ist der Wechsel von PS 2.0 auf 3.0

Demirug
2003-12-22, 17:42:13
Original geschrieben von Pathfinder
Durchweg FP32 ist mehr ein gutes Marketing-Argument als zwingend für Spiele in 04 erforderlich. Der sinnvolle Einsatz ist eindeutig beschränkt. Allerdings wenn die Konkurrenz nur halbherzig FP32 beherrscht und nicht eben mal auf FP32/schnell umstellen kann bzw. man selbst verhältnismäßig einfach erweitern kann, dann lohnt sich FP32 schon. ATI's 2.0->3.0 Problem existiert höchstwahrscheinlich bei NVidia in gleicher Weise bezüglich FX12/FP16->FP32.

FP32 als Marketing Argument dürfte die meisten Käufer doch etwas überfordern. Ob sich da der doch nicht unerhebliche Mehreinsatz an Transitoren wirklich lohnt?

nVidia braucht um vollständige FP32 Shader schneller zu machen das gleiche wie ATI um aus iheren FP24 ALUs FP32 ALUs zu machen. Transitoren.

Rein Designtechnisch hat es nVidia aber durchaus leichter. Im Endeffekt fehlt dem Cine FX Pixelprozessor nur noch eine Einheit die vor dem Loopback den IP dynamisch/statisch verändern kann. Die kann man sich aus dem Vertexshader nehmen der sie ja schon hat.

Ich erwarte allerdings auch noch ein paar andere Veränderungen welche die Länge der Pipeline verkürzen.

Ebensowenig wie FP32 sind 3.0 Shader nicht zwingend erforderlich. Zu selten kämen ihre Vorteile zur Geltung, als daß sich signifikante Vorteile einstellen könnten. Ich könnte mir sogar sehr gut vorstellen, daß eine schnelle 2.0 Implementation einer langsamen 3.0 Implementation das Wasser abgräbt, trotz der Möglichkeit zur Passreduktion. Es wird sicher interessant werden...

G.
P.

Denkbar ist alles. Allerdings wird es für einen 2.0 Shader schwer einen 3.0 Shader mit dynamische Branching nachzubilden. Die vielen Permutationen die dabei entstehen können würden viele Passes benötigen.

Demirug
2003-12-22, 17:42:55
Original geschrieben von seahawk
Und noch leichter ist der Wechsel von PS 2.0 auf 3.0

Klar weil man an der Engine ja überhaupt nichts ändern muss.

Pathfinder
2003-12-22, 17:45:41
Original geschrieben von LovesuckZ
Wenn die Spielentwickler keinen Gebrauch von FP32 machen, liegt die Schuld weniger bei Nvidia. Man kann ihnen ankreiden, dass sie bei FP32 nicht die selbe Geschwindigkeit liefern koennen wie es die ATi Konkurenz bei FP24 vermag.
Somit verstehe ich deine These nicht...
Mir geht es nicht um Schuldzuweisung und die Sache lohnt auch nicht zu diskutieren. Im Ausgleich zu Demirug's Annahme, wollte ich nur eine weitere Einschränkung für Entwickler aufzeigen, die diesmal ihren Ursprung bei NVidia und nicht ATI haben wird.

Also hier nochmal:
Wenn ATI nicht 3.0 Shader mit dem R420 unterstützen wird, dann werden sie wegen ausbleibender Innovationsfreude von den Entwicklern abgestraft werden. Möglich!

Ähnliche Vermutungen lassen sich auch im vertretbaren Rahmen bezüglich NVidia und FP32 anstellen.
Oder: Entwickler dürften sicherlich nicht glücklich über den Zwang zur aufwändigen händischen Code-Nachbesserung bei CineFX sein, denn ich persönliche vermute, daß die Leistungsfähigkeit des NV-Shader-Compiler, zwecks FUD zu unrecht, bewußt überschätzt wird und wirklich maximale Verarbeitungsgeschwindigkeit weiterhin nur per Hand erreicht werden kann.

G.
P.

Demirug
2003-12-22, 18:00:38
Original geschrieben von Pathfinder
Mir geht es nicht um Schuldzuweisung und die Sache lohnt auch nicht zu diskutieren. Im Ausgleich zu Demirug's Annahme, wollte ich nur eine weitere Einschränkung für Entwickler aufzeigen, die diesmal ihren Ursprung bei NVidia und nicht ATI haben wird.

Ich würde hier nicht direkt von einer Einschränkung reden. Es ist ja nicht so das es überhaupt nicht geht. Man muss sich dann aber durchaus bei nV Chips derzeit mehr Gedanken machen wie man es schnell bekommt als bei den ATI Chips. Bei den ATI Chips ist ja das Problem das wenn es nicht geht dann geht es eben nicht. Ärgerlich ist aber durchaus beides.

Ähnliche Vermutungen lassen sich auch im vertretbaren Rahmen bezüglich NVidia und FP32 anstellen.
Oder: Entwickler dürften sicherlich nicht glücklich über den Zwang zur aufwändigen händischen Code-Nachbesserung bei CineFX sein, denn ich persönliche vermute, daß die Leistungsfähigkeit des NV-Shader-Compiler, zwecks FUD zu unrecht, bewußt überschätzt wird und wirklich maximale Verarbeitungsgeschwindigkeit weiterhin nur per Hand erreicht werden kann.

G.
P.

Der Shadercompiler ist inzwischen schon ganz brauchbar geworden. Zudem wird von nV von ein handische Optimieren auf NV3X Chips sowieso abgeraten. Dazu müsste man für jeden einzelnen Chip einen leicht anderen Shader programmieren und dabei sogar die benutzten Texturfilter berücksichtigen.

nVidia rät daher zu Optimierungen auf Algorithmus Ebene. Von denen in den meisten Fällen auch ATI Hardware profitiert. Der zweite Ratschlag immer nur die unbedingt notwendige Shaderversion zu nutzen bringt bei ATI allerdings wenig bis gar nichts.

Optimierungen wie FX12 Nutzung kann ja sowieso nur der Compiler vornehmen weil man da unter PS 2.0 gar nichts handisch machen kann.

Pathfinder
2003-12-22, 18:14:25
Original geschrieben von Demirug
FP32 als Marketing Argument dürfte die meisten Käufer doch etwas überfordern. Ob sich da der doch nicht unerhebliche Mehreinsatz an Transitoren wirklich lohnt?
Das wird sich zeigen. 32-Bit zu Zeiten des TNT waren auch ein gutes Marketing-Argument. Gepaart mit einer grafischen Demonstration der Vorteile von FP32 und Zitaten der Konkurrenz ... ;)

nVidia braucht um vollständige FP32 Shader schneller zu machen das gleiche wie ATI um aus iheren FP24 ALUs FP32 ALUs zu machen. Transitoren.
Stimmt! - Nur eben erheblich mehr in der Summe. Flexibilität kostet (Verlust-)Leistung und eben Transistoren.

Rein Designtechnisch hat es nVidia aber durchaus leichter. Im Endeffekt fehlt dem Cine FX Pixelprozessor nur noch eine Einheit die vor dem Loopback den IP dynamisch/statisch verändern kann. Die kann man sich aus dem Vertexshader nehmen der sie ja schon hat.

Ich erwarte allerdings auch noch ein paar andere Veränderungen welche die Länge der Pipeline verkürzen.

Ob du mit dem "leichter" da so richtig liegst?
Ich sehe wieder einmal Schweißperlen auf der Stirn eines NVidia-Chefentwicklers, nur diesmal nicht im Treiber-Team, sondern bei David Kirk. Wie kompensiere ich nur ATI's Drang nach konsequenter Weiterentwicklung hin zu deutlich mehr Leistung. Und dann auch noch die 130nm mit low-k... David Kirk kann sich bestimmt gut an die Zeit der GF1/2 erinnern. ATI scheint damals gut aufgepasst zu haben.

Denkbar ist alles. Allerdings wird es für einen 2.0 Shader schwer einen 3.0 Shader mit dynamische Branching nachzubilden. Die vielen Permutationen die dabei entstehen können würden viele Passes benötigen.
Wenn sich diese Frage signifikant stellt, dann sprechen wir nicht mehr über den R420 oder NV40. Vermutlich geht es dann um R500 oder NV50.

G.
P.

Pathfinder
2003-12-22, 18:37:40
Original geschrieben von Demirug
Ich würde hier nicht direkt von einer Einschränkung reden. Es ist ja nicht so das es überhaupt nicht geht. Man muss sich dann aber durchaus bei nV Chips derzeit mehr Gedanken machen wie man es schnell bekommt als bei den ATI Chips. Bei den ATI Chips ist ja das Problem das wenn es nicht geht dann geht es eben nicht. Ärgerlich ist aber durchaus beides.

So verhält es ich im Moment. Was wird in Zukunft schwerer wiegen?

Der Shadercompiler ist inzwischen schon ganz brauchbar geworden. Zudem wird von nV von ein handische Optimieren auf NV3X Chips sowieso abgeraten. Dazu müsste man für jeden einzelnen Chip einen leicht anderen Shader programmieren und dabei sogar die benutzten Texturfilter berücksichtigen.

nVidia rät daher zu Optimierungen auf Algorithmus Ebene. Von denen in den meisten Fällen auch ATI Hardware profitiert. Der zweite Ratschlag immer nur die unbedingt notwendige Shaderversion zu nutzen bringt bei ATI allerdings wenig bis gar nichts.

Optimierungen wie FX12 Nutzung kann ja sowieso nur der Compiler vornehmen weil man da unter PS 2.0 gar nichts handisch machen kann.
Diese Regeln vermitteln mir den Eindruck, NVidia zöge es zumindest teilweise vor, den Entwickler die aufwendige CineFX-Programmierung nicht vollständig, sondern nur an der Architektur angelehnt grundsätzliches positives zu vermitteln.
Inhouse bügelt man dann per App-spezifischen Treibercode die vielen Problemchen aus, die die Spiele-Entwickler dem Chip einbrocken. Faktisch schreibt NVidia damit in Teilen den Shader-Code vieler Spiele nochmals selbst. Das könnte in der Zukunft ziemlich anstrengend werden. Der NV40 muß hier Abhilfe schaffen...
Der R420 wird diesbezüglich wohl eher an der R3xx Serie anknüpfen.

G.
P.

Demirug
2003-12-22, 18:37:53
Original geschrieben von Pathfinder
Stimmt! - Nur eben erheblich mehr in der Summe. Flexibilität kostet (Verlust-)Leistung und eben Transistoren.

Wenn ich daran denke wie viel mehr Transitoren eine FP32 MUL Einheit gegenüber einer FP24 MUL Einheit braucht´bin ich mir nicht sicher ob nVidia wirklich mehr Transitoren braucht.

Ob du mit dem "leichter" da so richtig liegst?
Ich sehe wieder einmal Schweißperlen auf der Stirn eines NVidia-Chefentwicklers, nur diesmal nicht im Treiber-Team, sondern bei David Kirk. Wie kompensiere ich nur ATI's Drang nach konsequenter Weiterentwicklung hin zu deutlich mehr Leistung. Und dann auch noch die 130nm mit low-k... David Kirk kann sich bestimmt gut an die Zeit der GF1/2 erinnern. ATI scheint damals gut aufgepasst zu haben.

Eigentlich sehe ich da grössere Schweißperlen bei ATI weil:

CineFX weiterentwicklung zur PS 3.0 Hardware in 6 einfachen Schritten.

1. Hinzufügen einer Branchlogik am Ende der Pipeline. Der Gatekepper am Anfang ist ja bereits vorhanden.
2. Entfernen des Shaderbackends und verlagern der Funktionalität in den Shadercore. Dadurch wir die Pipeline kürzer.
3. Entfernen der Reg-Combiner und verlagern der Funktionalität in den Shadercore. Nochmal verkürzen der Pipeline.
4. "Nicht Sample Modus" für die TMUs ergänzen dadurch spart man sich die den Shader Core FIFO.
5. Crossbars im Shadercore wesentlich flexibler machen. Dadurch lassen sich die Recheneinheiten auf Vec3+Skalar Ops aufspalten. Eine Aufspaltung in 2 Vec2 Ops könnte durchaus auch interesant sein.
6. Recheneinheiten nun wirklich so bauen das 2 FP16 Ops anstelle einer FP32 Op ausgeführt werden kann.

Die Punkte 2 - 6 sind eigentlich nur Performance Dinge und haben mit dem erreichen der PS 3.0 Funktion wenig zu tun.

ATI muss da mehr in den Griff bekommen.

- längerer Programme.
- beliebige Anweisungsfolge und dependet Reads.
- Predicate
- Branching

Gerade der 2 und 4 Punkt vertragen sich nicht so gut mit dem Phasenkonzept das R200 und R300 nutzen.

Wenn sich diese Frage signifikant stellt, dann sprechen wir nicht mehr über den R420 oder NV40. Vermutlich geht es dann um R500 oder NV50.

G.
P.

Sehe ich eigentlich nichts so. Zumindestens das statische Branching könnte man zum Beispiel bei HL2 schon gut nutzen. Der Schritt zum dynamischen ist dann nicht mehr gross.

Demirug
2003-12-22, 18:48:35
Original geschrieben von Pathfinder
So verhält es ich im Moment. Was wird in Zukunft schwerer wiegen?

Wenn beide PS 3.0 Hardware haben natürlich die Speed. Sollte ATI aber weiterhin auf PS 2.0 bestehen werden die Entwickler IMHO weitgehen primär auf nV Hardware setzten.

Diese Regeln vermitteln mir den Eindruck, NVidia zöge es zumindest teilweise vor, den Entwickler die aufwendige CineFX-Programmierung nicht vollständig, sondern nur an der Architektur angelehnt grundsätzliches positives zu vermitteln.Inhouse bügelt man dann per App-spezifischen Treibercode die vielen Problemchen aus, die die Spiele-Entwickler dem Chip einbrocken. Faktisch schreibt NVidia damit in Teilen den Shader-Code vieler Spiele nochmals selbst. Das könnte in der Zukunft ziemlich anstrengend werden. Der NV40 muß hier Abhilfe schaffen...

hehe, natürlich deswegen ist man ja auch bemüht den Shadercompiler generischer zu machen. Man muss allerdings auch etwas weiter denken. Wenn jetzt alle Entwickler wie wild den Shadercode sehr stark auf die NV30 Architektur zuschneiden würde und es beim NV40 wieder Änderungen bezüglich der bevorzugten Codereihenfolge gibt hat man das Problem schon wieder am Hals.

Der R420 wird diesbezüglich wohl eher an der R3xx Serie anknüpfen.

G.
P.

In wie fern? ATI setzt beim R3XX auch auf einen Shadercompiler. Den von MS und einen Treiberinternen.

Pathfinder
2003-12-23, 17:47:00
Original geschrieben von Demirug
Wenn ich daran denke wie viel mehr Transitoren eine FP32 MUL Einheit gegenüber einer FP24 MUL Einheit braucht´bin ich mir nicht sicher ob nVidia wirklich mehr Transitoren braucht.
Damoklesschwert 'Apple to Apple comparison':
Es ist unwahrscheinlich, daß ATI oder NVidia eine vollständige Neuentwicklung mit ihren Produkten R420/NV40 vorstellen werden. Vielmehr werden wir eine deutliche Erweiterung der aktuellen Architektur sehen.
Annahmen:
ATI setzt beim R420 die R3x0 Architektur mit FP32 ein. Der Transistorenverbrauch müßte im Budget enthalten sein, selbst bei 12 Pipes. Um CineFX bei FP32 auf einem NV40 vergleichbar performant gestalten zu können, werden weitaus mehr Transistoren in das Design eingehen als von dir angenommen, denn dafür sorgt schon die im Vergleich zum R3x0 komplexere CineFX Architektur und der Fakt, daß FP32 gegenwärtig 50% der FP24-Leistung der R3x0 erreicht. Darüber hinaus muß NVidia die Kompatibilität zu FP16 und 12Bit-Fixpunkt wahren, falls sie es nicht leisten können, CineFX auf ausschließlich performante FP32 zu heben. Auch hier stecken Transistoren fest.

Eigentlich sehe ich da grössere Schweißperlen bei ATI weil:

CineFX weiterentwicklung zur PS 3.0 Hardware in 6 einfachen Schritten.

1. Hinzufügen einer Branchlogik am Ende der Pipeline. Der Gatekepper am Anfang ist ja bereits vorhanden.
2. Entfernen des Shaderbackends und verlagern der Funktionalität in den Shadercore. Dadurch wir die Pipeline kürzer.
3. Entfernen der Reg-Combiner und verlagern der Funktionalität in den Shadercore. Nochmal verkürzen der Pipeline.
4. "Nicht Sample Modus" für die TMUs ergänzen dadurch spart man sich die den Shader Core FIFO.
5. Crossbars im Shadercore wesentlich flexibler machen. Dadurch lassen sich die Recheneinheiten auf Vec3+Skalar Ops aufspalten. Eine Aufspaltung in 2 Vec2 Ops könnte durchaus auch interesant sein.
6. Recheneinheiten nun wirklich so bauen das 2 FP16 Ops anstelle einer FP32 Op ausgeführt werden kann.

Die Punkte 2 - 6 sind eigentlich nur Performance Dinge und haben mit dem erreichen der PS 3.0 Funktion wenig zu tun.

ATI muss da mehr in den Griff bekommen.

- längerer Programme.
- beliebige Anweisungsfolge und dependet Reads.
- Predicate
- Branching

Gerade der 2 und 4 Punkt vertragen sich nicht so gut mit dem Phasenkonzept das R200 und R300 nutzen. Du magst du sicherlich recht haben, falls 3.0-Shader ein Design-Ziel des R420 ist. Geschickter wäre jedoch eine sanfte Erweiterung der aktuellen Architektur mit bedingungsloser Ausrichtung auf Geschwindigkeit und FP32. Wenn der NV40 3.0 Shader enthält, dann gilt es für NVidia ausreichend Entwickler zu überzeugen, um wenigstens die Zukunft für sich entscheiden zu können, denn nach meiner Meinung sind gewonnene D3 oder HL2 Benchmarks ein weitaus besseres Argument zum Kundenfang als das Versprechen, den Entwickler-Support für zukünftige Spiele gewonnen zu haben. Stichwort zukunftssichere Hardware.
Sehe ich eigentlich nichts so. Zumindestens das statische Branching könnte man zum Beispiel bei HL2 schon gut nutzen. Der Schritt zum dynamischen ist dann nicht mehr gross. Hier gilt es abzuwarten, was schwerer wiegen wird. Eine Alternative gemäß NVidia wäre es auch, einfach einen optisch gleichwertigen Shader einzusetzen, der keine dynamische Verzweigung zwingend erfordert.

G.
P.

Pathfinder
2003-12-23, 18:11:23
Original geschrieben von Demirug
Wenn beide PS 3.0 Hardware haben natürlich die Speed. Sollte ATI aber weiterhin auf PS 2.0 bestehen werden die Entwickler IMHO weitgehen primär auf nV Hardware setzten.PS 3.0 in CineFX ist dann ein deutliches Entwickler-Argument für NVidia. Die Marktdurchdringung der R3x0 Architektur, die der R420 nur sanft erweitert fortführen wird, spricht eindeutig für ATI. Vieviele Zocker werden nächstes Jahr schon einen NV40 mit PS3.0 im Hause haben, so daß sich auf PS3.0 zugeschnittene Effekte lohnen könnten? Ein turbocharged R3x0 names R420 wäre in diesem Sinne nichts Neues.
hehe, natürlich deswegen ist man ja auch bemüht den Shadercompiler generischer zu machen. Man muss allerdings auch etwas weiter denken. Wenn jetzt alle Entwickler wie wild den Shadercode sehr stark auf die NV30 Architektur zuschneiden würde und es beim NV40 wieder Änderungen bezüglich der bevorzugten Codereihenfolge gibt hat man das Problem schon wieder am Hals.Die Vorgehensweise ist auch sinnig und nicht zu kritisieren.

In wie fern? ATI setzt beim R3XX auch auf einen Shadercompiler. Den von MS und einen Treiberinternen.
Insofern ATI's Anforderungen an die Shader-Entwickler weiterhin moderater bleiben als jene, die NVidia an die Entwickler bezüglich Code-Optimierung und Shaderwahl stellt.

G.
P.

Demirug
2003-12-23, 18:29:15
Original geschrieben von Pathfinder
Damoklesschwert 'Apple to Apple comparison':
Es ist unwahrscheinlich, daß ATI oder NVidia eine vollständige Neuentwicklung mit ihren Produkten R420/NV40 vorstellen werden. Vielmehr werden wir eine deutliche Erweiterung der aktuellen Architektur sehen.
Annahmen:
ATI setzt beim R420 die R3x0 Architektur mit FP32 ein. Der Transistorenverbrauch müßte im Budget enthalten sein, selbst bei 12 Pipes. Um CineFX bei FP32 auf einem NV40 vergleichbar performant gestalten zu können, werden weitaus mehr Transistoren in das Design eingehen als von dir angenommen, denn dafür sorgt schon die im Vergleich zum R3x0 komplexere CineFX Architektur und der Fakt, daß FP32 gegenwärtig 50% der FP24-Leistung der R3x0 erreicht. Darüber hinaus muß NVidia die Kompatibilität zu FP16 und 12Bit-Fixpunkt wahren, falls sie es nicht leisten können, CineFX auf ausschließlich performante FP32 zu heben. Auch hier stecken Transistoren fest.

Also die Kompatibilität wäre kaum ein Problem. Im Prinzip könnte man die FP32 und die FX12 Berechungen auch alle mit FP32 durchführen ohne das es negative auswirkungen hat. Das einzige was dann man unter Umständen noch einbauen müsste ist eine begrenzung des Ergebniss auf [-2,2).

Die beiden Hauptpunkte warum die CineFX II Einheit gegenüber dem R3XX verliert ist das zu kleine Registerfile und die Tatsache das man die Recheneinheiten nicht in Vector3 und Skalar Ops splitten kann.

Beim Registerfile rechne ich mit etwa 2 Mio Transitoren für jeweils 2 zusätzliche FP32 Register. So 8 - 10 zusätzliche wären nicht schlecht um sicher zu gehen das es dort keinen Flaschenhals mehr gibt. Das erweitern der internen Crossbars damit das Splitten funktioniert sollte mit weniger als 1 Mio Transitoren machbar sein.

Sollte ATI aber bei PS 2.0 (R3XX) Level bleiben können sie die erweiterung auf FP32 sicherlich mit etwas weniger Transitoren erreichen. Eine 'Apple to Apple comparison' hätten wir dann aber immer noch nicht.

Du magst du sicherlich recht haben, falls 3.0-Shader ein Design-Ziel des R420 ist. Geschickter wäre jedoch eine sanfte Erweiterung der aktuellen Architektur mit bedingungsloser Ausrichtung auf Geschwindigkeit und FP32. Wenn der NV40 3.0 Shader enthält, dann gilt es für NVidia ausreichend Entwickler zu überzeugen, um wenigstens die Zukunft für sich entscheiden zu können, denn nach meiner Meinung sind gewonnene D3 oder HL2 Benchmarks ein weitaus besseres Argument zum Kundenfang als das Versprechen, den Entwickler-Support für zukünftige Spiele gewonnen zu haben. Stichwort zukunftssichere Hardware.

Natürlich sind gewonnen Benchmarks ein Argument aber wenn sich die Entwickler wieder vermert nVidia Hardware zu entwickeln in die Rechner stecken steigt die Wahrscheinlichkeit das nVidia Benchmarks gewinnt wieder ehrheblich an.

Hier gilt es abzuwarten, was schwerer wiegen wird. Eine Alternative gemäß NVidia wäre es auch, einfach einen optisch gleichwertigen Shader einzusetzen, der keine dynamische Verzweigung zwingend erfordert.

G.
P.

Man kann jede dynamische Verzweigung eliminieren (bei schliefen wird es aber kompliziert). Genau das mache ich ja im Moment weil ich eben keine PS 3.0 Hardware habe. Alle 3 möglichen Lösungen (wobei eine nur NV3X Chips funktioniert) haben aber ein mässiges Laufzeitverhalten. Mit richtigem Branching sollte es viel schneller gehen.

Gast
2003-12-23, 18:44:54
Die aktuellen Karten von ATI sind wirklich sehr gut,haben aber nur einen Fehler,den Stutterbug bei einigen Leute.

Wie stehn die Chancen das ATI solche Fehler endlich beendet ?

StefanV
2003-12-23, 18:48:03
Original geschrieben von Gast
Die aktuellen Karten von ATI sind wirklich sehr gut,haben aber nur einen Fehler,den Stutterbug bei einigen Leute.

Wie stehn die Chancen das ATI solche Fehler endlich beendet ?

:???:

Der Stutterbug sollte eigentlich behoben sein...

PS: nV Karten sollen ab und an auch mal 'stottern'...

Demirug
2003-12-23, 19:04:12
Original geschrieben von Pathfinder
PS 3.0 in CineFX ist dann ein deutliches Entwickler-Argument für NVidia. Die Marktdurchdringung der R3x0 Architektur, die der R420 nur sanft erweitert fortführen wird, spricht eindeutig für ATI. Vieviele Zocker werden nächstes Jahr schon einen NV40 mit PS3.0 im Hause haben, so daß sich auf PS3.0 zugeschnittene Effekte lohnen könnten? Ein turbocharged R3x0 names R420 wäre in diesem Sinne nichts Neues.

G.
P.

In dem Fall das ATI wirklich nur auf PS 2.0 setzt wird die Performance des NV40 bei PS 2.0 sicherlich auch eine grosse Rolle spielen. Herscht dabei gleichstand wird sicherlich die Technologisch Fortschrittlichere Lösung mehr Freunde gewinnen. Braucht der NV40 immer noch Special optimierungen kommt damit aber auf die gleiche Performance wie die Konkurrenz dürfte die Arbeitsweise des Teams den Ausschlag geben. Ist die Situation aber total hoffnungsloss wird man um die Karte einen Bogen machen.

Der Zwang PS 3.0 zu benutzten wird sich aber von aleine ergeben sobald der erste damit anfängt. Dann wollen plötzlich alle anderen auch.

Exxtreme
2003-12-23, 20:06:40
Original geschrieben von Gast
Die aktuellen Karten von ATI sind wirklich sehr gut,haben aber nur einen Fehler,den Stutterbug bei einigen Leute.

Wie stehn die Chancen das ATI solche Fehler endlich beendet ?
Der Stuttering-Bug ist behoben. Irgendwelches blinkendes Zeugs im Systray hat ihn ausgelöst. Deswegen war ich nicht betroffen. :D

ow
2003-12-23, 20:26:55
.

betasilie
2003-12-23, 20:32:47
Original geschrieben von ow
Im Falle meiner 8500 unter Win98 kann ich das nicht bestätigen. Der ATi-Treiber verträgt sich nicht mit mit meinem Firewall. Alle 1-3 Sekunden steht das Bild kurz. Auch ohne das da was blinkt.
Naja, eine Softwarefirewall kann aber auch bei Karten anderen Fabrikats solch ein Stuttering verursachen.

Welches Board hast Du denn in dem Rechner?

Gast
2003-12-24, 05:24:30
Original geschrieben von betareverse
Naja, eine Softwarefirewall kann aber auch bei Karten anderen Fabrikats solch ein Stuttering verursachen.

Welches Board hast Du denn in dem Rechner?

Oft wird z.B. die T-Online Software als Fehlerquelle angegeben, sowohl bei Nvidia als auch bei ATi.

ow
2003-12-24, 14:11:24
.

betasilie
2003-12-24, 14:37:20
Original geschrieben von ow
Ist ein Epox 8KTA3L+ mit KT133A.
Macht auf keiner meiner anderen Karten Probleme (GF2MX, 4ti, Kyro1, V4). Das Starten des Firewalls genügt, um die Radeon immer wieder kurze Pausen einlegen zu lassen. Schon recht seltsam. Aber egal, ich weiss ja jetzt wie ich das abschalten kann.:)
Ich habe gefragt, da meines Wissens nach das K7s5A und das K7S6A sehr anfällig für Stuttering sind in Kombination mit ATI-Karten. Keine Ahnung wieso.

Aber solange Du das Problem eh beheben kannst. ;)

AlfredENeumann
2003-12-24, 15:49:54
Original geschrieben von betareverse
Ich habe gefragt, da meines Wissens nach das K7s5A und das K7S6A sehr anfällig für Stuttering sind in Kombination mit ATI-Karten. Keine Ahnung wieso.


Ich hatte absolut kein Stuttering.

Biggy2k4
2003-12-24, 22:39:05
Hiho,

kurze Frage:

Habe atm einen 3200+ auf einem abit nf7 mit 512mb cl2 pc400 ram. Graka ist atm eine Radeon 8500 die auf 295/295 läuft. Lohnt es sich jetzt "noch" eine 9xxx Karte zu holen oder sollte ich meine Karte noch bis zur R420 behalten ?

Hl2 würde ich schon gerne in HiQ spielen.

StefanV
2003-12-24, 22:54:14
Original geschrieben von Biggy2k4
Hiho,

kurze Frage:

Habe atm einen 3200+ auf einem abit nf7 mit 512mb cl2 pc400 ram. Graka ist atm eine Radeon 8500 die auf 295/295 läuft. Lohnt es sich jetzt "noch" eine 9xxx Karte zu holen oder sollte ich meine Karte noch bis zur R420 behalten ?

Hl2 würde ich schon gerne in HiQ spielen.

Ehrlich gesagt:

Behalt die 8500 solang du möchtest und solang du damit zufrieden bist.
Wenn du meinst, daß dir die 8500 noch langt, dann lass sie drin!!

betasilie
2003-12-24, 22:56:32
Original geschrieben von Biggy2k4
Hiho,

kurze Frage:

Habe atm einen 3200+ auf einem abit nf7 mit 512mb cl2 pc400 ram. Graka ist atm eine Radeon 8500 die auf 295/295 läuft. Lohnt es sich jetzt "noch" eine 9xxx Karte zu holen oder sollte ich meine Karte noch bis zur R420 behalten ?

Hl2 würde ich schon gerne in HiQ spielen.
Das ist eine schwere Frage. ... Ich würde sagen eine Radeon9800 wäre die bessere Wahl. Erstensmal sind die eigentlich immer mindestens auf 9800Pro Niveau zu takten und das P/L-Verhältniss ist einmalig.

Karten auf R420Basis werden sicherlich schneller sein, aber auch sicherlich recht teuer und bis diese Karten hier erhältlich sind, gehen wohl noch einige Monate ins Land.

Quasar
2003-12-24, 23:04:18
Original geschrieben von Biggy2k4
Hl2 würde ich schon gerne in HiQ spielen.

Kurzte Antwort:
Warte, bis HL2 draussen ist. Vorher kann man's eh nicht sicher sagen, mit was es wie gut läuft.