PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : wie werden die neuen low-budget karten?


Gast
2004-06-06, 23:44:35
wie werden die neuen der "fx5200er"-klasse von Nvidia und ati?

stromverbrauch?

features?

preis?

verfügbarkeit?

Corrail
2004-06-09, 20:19:49
Zum Thema Stromverbrach: Mach dir keine Gedanken, an eine GeForce 6800 Ultra EE wirds sicher nicht rankommen ;)
Würd aber auch so schätzen, dass die Karten mit der Leistungsaufnahme eine GeForce FX5200 bzw. Radoen 9600SE zu vergleichen sind. Vielleicht etwas drüber...

Also von den Features würd ich mal sagen genauso wie die High-End. Jedenfalls bei nVidia nehm ich stark an dass sie wieder eine DX9 SM3.0 Low-End Karte rausbringen.

Den Preis würd ich mal mit ca. 120 bis 130 Euro am Anfang annehmen (AFAIR war das auch der Preis der FX5200 am Anfang).

Zur Verfügbarkeit kann glaub ich kaum noch jemand was sagen.

Bokill
2004-06-16, 22:13:53
Nun man könnte den Threadtitel noch weiter fassen.

1. Nehmen wir mal an, dass PCI-Express weitere Verbreitung gefunden hat.

2. Nehmen wir mal an, dass die Grakas bis dahin immer noch in Massen vor allem im Value Bereich vertickert werden. 80-120 € ca.

3. Strombedarf und Wärmeentwicklung ein PR-Werbemittel wird. Bzw.

4. Jeder Kartenhersteller gerne Grakalinien verkauft, die ein vergleichsweises anspruchloses Design benötigen und daher auch wirklich billig in der Herstellung sind.

Da kann man sich doch fragen, ob denn wirklich ein PCI-16x Expressinterface wirklich notwendig ist.

Selbst die einfachste PCI-Expresslösung ermöglicht doppelt so hohe Transferleistungen wie PCI. Und dann noch exclusiv nur für die Grafikkarte.

1. Ist denn wirklich undenkbar, dass für den besonders preissensitiven Bereich keine PCI-Express 1x/2x/4x gebastelt werden?

2. Langfristig ist dadurch sogar immer wieder eine besonders billige UMA Mainboardlösung zu erwarten. Recht flexibel, herstellerübergreifend, stromsparend (Max 25W) !

3. Solch eine Low PCI-Expresslösung ist immer noch flexibler und leistungsfähiger, als integrierte Mainbordlösungen!

Ich finde da liegt noch viel Musik drin ... Wichtig ist lediglich, dass die Grakakerne dann auch PCI-Express auf dem Die implementiert haben. Brückenlösungen sind ja potentielle Kostentreiber.

MFG Bokill

LOCHFRASS
2004-06-17, 02:16:40
Koennte man die PCI-E Karten mit entsprechendem Treiber nicht aehnlich wie SLI laufen lassen? Metabyte hatte da doch mal was...

orda
2004-06-17, 08:25:24
Was ich blos nicht verstehe, wieso kauft man sich sone meist extram langsamen Karten. Was nützen das irgendwelche PS 3.0 effekte. dann doch lieber eine Geforce 4Ti oder eine Radeon 9500 oder 9700. Die gibts meist zum gleichen Pres wie die extrem low-budged karten.

Corrail
2004-06-17, 09:47:30
Original geschrieben von -=orda=-
Was ich blos nicht verstehe, wieso kauft man sich sone meist extram langsamen Karten. Was nützen das irgendwelche PS 3.0 effekte. dann doch lieber eine Geforce 4Ti oder eine Radeon 9500 oder 9700. Die gibts meist zum gleichen Pres wie die extrem low-budged karten.

Ja, grundsätzlich gebe ich dir Recht. Diese Karten sind fürs Spielen einfach zu schlecht, aber im OEM Segment sind sie doch sehr attraktiv! Und den Rest erkläre ich mir mit Unwissenheit der Käufer.
Trotzdem sind solche Karten für Entwickler, vorallem für Hobbyentwickler extrem interessant. Man bekommt die volle SM3.0 Unterstützung für grad mal 100 Euro. Also wenn das nicht attraktiv ist... ;)

Deathironstorm
2004-06-18, 15:03:30
noch ein Grund für low-budged (kein Mainstreamgrund aber der Grund warum ich eine in meinen 2. Pc gesteckt habe) : von der Entwicklung von den Tv-Out Chips sind die deutlich besser als meinetwegen ne GF4Ti ..ich habe mir eine Asus 9600SE gekauft ,da ich den Pc nur an meinem Tv Betreibe.Ich habe noch keine Karte gesehen die von der Tv-Out quali da rankam (2 andere habe ich alleine in dem Pc an diesem Tv getestet (eine Gf4Mx und ne Matrox G550 )).Imho sind diese Karten wirklich nur was für den Officebereich ,wenn der recht fortschrittliche DVI Anschluss genutzt wird.Sonst kann man auch zu ner 20€ GF2 GTS greifen.

Spake
2004-06-18, 15:14:14
was imo noch interressanter wird als die nächste 6200/X300 generation ist die 6600 generation denk ich

immerhin spendiert Ati bald dem low-cost segment eine karte mit 4 pipes welche nur eine kleiner 9600 ist
vielleicht kommt dann auch bald im mainstream segment eine 8pipes karte (die X800SE gibts ja auch schon ... ;) )
leistung satt wäre dass dann :D (zumindest wenn sie bald rauskommen würde und sich nett zuviel zeit lässt)

aths
2004-06-18, 16:31:27
Original geschrieben von -=orda=-
Was ich blos nicht verstehe, wieso kauft man sich sone meist extram langsamen Karten. Was nützen das irgendwelche PS 3.0 effekte. dann doch lieber eine Geforce 4Ti oder eine Radeon 9500 oder 9700. Die gibts meist zum gleichen Pres wie die extrem low-budged karten. Diese Betrachtung gilt für den gesamten Markt. Auf eine neue Produktfamilie bezogen, ist Nvidia der Meinung, alle Produkte sollten die gleichen (neuen) Features haben. Skaliert wird dann über die Performance. Anwender würden zuerst nach Features fragen, dann nach der Performance.

Meine Meinung ist, da man mit SM 3.0 gegenüber 2.0 durchaus Performancevorteile erzielen kann, ist es nicht verkehrt, 3.0 selbst auf kleinen Karten zu integrieren. Um existierende Shader-Applikationen zu beschleunigen, ist eine NV40-Pipe ohnehin besser (besser als eine R420-Pipe, erst recht besser als eine NV35-Pipe.) Da wird man nicht noch die 3.0-Features rausschneiden, sondern halt mitliefern, wo sie schon mal drin sind.

Quasar
2004-06-18, 16:43:50
Anwender oder OEMs? ;)

Gast
2004-06-18, 21:10:32
Original geschrieben von aths
Diese Betrachtung gilt für den gesamten Markt. Auf eine neue Produktfamilie bezogen, ist Nvidia der Meinung, alle Produkte sollten die gleichen (neuen) Features haben. Skaliert wird dann über die Performance. Anwender würden zuerst nach Features fragen, dann nach der Performance.

Meine Meinung ist, da man mit SM 3.0 gegenüber 2.0 durchaus Performancevorteile erzielen kann, ist es nicht verkehrt, 3.0 selbst auf kleinen Karten zu integrieren. Um existierende Shader-Applikationen zu beschleunigen, ist eine NV40-Pipe ohnehin besser (besser als eine R420-Pipe, erst recht besser als eine NV35-Pipe.) Da wird man nicht noch die 3.0-Features rausschneiden, sondern halt mitliefern, wo sie schon mal drin sind.

Das wäre ohne der 9700Pro aks R300 nie gekommen, die Spielereine mit MX hätten wie bestimmt noch heute.

aths
2004-06-18, 21:45:50
Original geschrieben von Gast
Das wäre ohne der 9700Pro aks R300 nie gekommen, die Spielereine mit MX hätten wie bestimmt noch heute. Wie meinst du das?

stav0815
2004-06-19, 12:53:08
mit ner FX5200 kann man durchaus zocken - genauso wie man mit einer GF4 MX zocken kann!
es ist nur die Frage WIE man zocken kann...
tausende komplettrechnerdaus machen es uns vor: mit billigstens mitteln die billigstens spiele spielen!

Gast
2004-06-19, 13:52:50
mich interessieren auch die neuen low-budget karten, insb. für den linux-pc.

hoffentlich kommt da was gutes von nvidia. ati-rotz-schrott treiber unter linux... (sorry die ausdrucksweise).


die fx5200 ist 'ne nette karte :) (mit 128bit)

tokugawa
2004-06-19, 21:40:35
Original geschrieben von -=orda=-
Was ich blos nicht verstehe, wieso kauft man sich sone meist extram langsamen Karten. Was nützen das irgendwelche PS 3.0 effekte. dann doch lieber eine Geforce 4Ti oder eine Radeon 9500 oder 9700. Die gibts meist zum gleichen Pres wie die extrem low-budged karten.

Weil Spielen nicht die einzige Grafikanwendung ist, für die Feature nützlich wären.

(HW-)Shader sind zum Beispiel in 3D Modellern (3DS Max, Maya) recht nett im Kommen, und da ist es schon nett, dass da eigentlich eine FX 5200 schon ganz passabel funktioniert (da die Framerate im Modeller selbst ja nicht so hoch zu sein braucht).

Außerdem ist es auch für Entwickler gut. Will ich zum Beispiel über 2.0 hinausgehenden 2.X Shader Support anbieten in einer Grafikanwendung, brauche ich nicht unbedingt eine teurere FX kaufen, sondern kann genauso gut - nur langsamer - schnell mal eine FX 5200 für 50 Euro kaufen, und dort testen.

tokugawa
2004-06-19, 21:43:05
Original geschrieben von Corrail
Ja, grundsätzlich gebe ich dir Recht. Diese Karten sind fürs Spielen einfach zu schlecht, aber im OEM Segment sind sie doch sehr attraktiv! Und den Rest erkläre ich mir mit Unwissenheit der Käufer.


Tjo, Spielen ist eine IMO viel zu "limitiertes" Anwendungsgebiet von 3D Beschleunigung. Und IMO wird auch in diesem Forum auch viel zu viel auf Spiele fokusiert - dann sollte es eher 3DGameCenter heißen als 3DCenter, IMO. Wenn's schon 3DCenter heißt, sollte man das ganze Spektrum im Auge behalten. Nur meine Meinung.

Original geschrieben von Corrail
Trotzdem sind solche Karten für Entwickler, vorallem für Hobbyentwickler extrem interessant. Man bekommt die volle SM3.0 Unterstützung für grad mal 100 Euro. Also wenn das nicht attraktiv ist... ;)

Exakt. Oder halt die SM 2.X/CineFX Unterstützung für 50 Euro (oder gar 30 Euro wenn man auf eBay schaut... zum Rumprobieren braucht man ja keine neue Karte, und es gibt sicher genug, die sich eine FX 5200 als "Fehlkauf" zum Spielen gekauft haben).

tokugawa
2004-06-19, 21:49:03
Original geschrieben von stav0815
mit ner FX5200 kann man durchaus zocken - genauso wie man mit einer GF4 MX zocken kann!
es ist nur die Frage WIE man zocken kann...
tausende komplettrechnerdaus machen es uns vor: mit billigstens mitteln die billigstens spiele spielen!

Es ist ja nix verkehrt daran, mit reduzierten Einstellungen zu spielen.

Was ich allerdings glaube ist, dass die FX 5200 etwa für Entwickler eine Erleichterung gebracht hat; wenn viele etwa endlich ihre NV1x Derivate (GF4 MX u.ä.) raushauen zugunsten einer FX 5200, kann man wenigstens einige Dinge vorraussetzen, ohne extra Renderpfade zu programmieren (jetzt mal von der OpenGL Warte aus gesehen). Da geht's jetzt auch nicht mal wirklich um Shader (obwohl man trotzdem sicher ein, zwei Shader für manche Bildteile auf der FX 5200 in einem Spiel sicher anwenden kann. Besser aussehen als auf einer GF 4 MX wird's garantiert).

Bisher war es so, dass Programmierer die Skalierbarkeit der Engines so gestaltet haben, dass sie einen grauslichen DX7-Pfad benutzt haben, um die alten Karten zu unterstützen. Jetzt kann man wenigstens einige Sachen die unter DX7 mehrere Passes benötigen, in akzeptabler Geschwindigkeit auch auf einer FX 5200 in einem Pass durchführen, und das bei gleich guter oder besserer Effektqualität als noch auf der DX7-Hardware.

Engine-Entwickler werden angesichts dessen wohl in Zukunft eher so skalieren, dass die Minimalanforderung nun statt einer GF4 MX eine FX 5200 ist - bei insgesamt gestiegener Grafikqualität der Minimumeinstellung.

Ein Qualitätsmerkmal einer Engine ist ja auch das Spektrum, in das die Engine skalieren kann; dass es besonders herrlich auf High-End-Hardware aussieht, aber trotzdem noch spielbar schnell und trotzdem "gut aussehend" auf Low-End Hardware, wenn auch schlechter als bei High-End-Hardware.

Corrail
2004-06-20, 10:39:45
Original geschrieben von tokugawa
Bisher war es so, dass Programmierer die Skalierbarkeit der Engines so gestaltet haben, dass sie einen grauslichen DX7-Pfad benutzt haben, um die alten Karten zu unterstützen. Jetzt kann man wenigstens einige Sachen die unter DX7 mehrere Passes benötigen, in akzeptabler Geschwindigkeit auch auf einer FX 5200 in einem Pass durchführen, und das bei gleich guter oder besserer Effektqualität als noch auf der DX7-Hardware.


Kurzer Einwurf:
Ich habe mich damit mal ein wenig gespielt und ein Bump-Mapping Programm mit einem DX7 Render Pfad (GL_ARB_vertex_program, GL_ARB_texture_env_combine, GL_ARB_texture_env_dot3) und einem DX9 Render Pfad (GL_ARB_vertex_program, GL_ARB_fragment_program) geschrieben. Der DX7 Pfad brauchte inklusiv Specular Lighting ca. 12 Passes, der DX9 Pfad dagegen nur 1 Pfad. Trotzdem war der DX7 Pfad auf einer FX5200 schneller (ich glaub sogar doppelt so schnell, bin mir da aber nicht mehr so sicher). Die FX5200 dürfte somit extrem anfällig auf PS2.x Shader sein...

zeckensack
2004-06-20, 11:10:51
Ack.
Die "DX9"-Shader-Performance von "CineFX" kann man einfach nur als grauenhaft bezeichnen, auch mit aktuellen Treibern (61.12 aktuell genug?). Ich seh' das ja an meiner FX5700 ...

Mal beispielhaft folgender Shader:
!!ARBfp1.0
OPTION ARB_precision_hint_fastest;
TEMP tcom_out;
TXP tcom_out,fragment.texcoord[0],texture[0],2D;
MUL result.color.rgb,fragment.color,tcom_out;
MUL result.color.a,program.env[0].a,tcom_out.a;
ENDDa passiert nicht wirklich viel ... trotzdem läuft das äquivalente Multitexture-Setup glatt doppelt so schnell.

Special Hinweising: "ARB_precision_hint_fastest" erlaubt explizit 16 Bit-Berechnungen für den gesamten Shader. Es würde in diesem Fall auch nicht stören, wenn alles auf Fixkomma zurückgeschraubt wird (die Texturen sind schlimmstenfalls RGBA8888, ebenso der Framebuffer, in den das Ergebnis reinkommt).

Quasar
2004-06-20, 11:16:19
Original geschrieben von zeckensack
Ich seh' das ja an meiner FX5700 ..

Die hat sogar schon CineFX 2.0... :freak:

Corrail
2004-06-20, 12:22:36
Original geschrieben von zeckensack
Special Hinweising: "ARB_precision_hint_fastest" erlaubt explizit 16 Bit-Berechnungen für den gesamten Shader. Es würde in diesem Fall auch nicht stören, wenn alles auf Fixkomma zurückgeschraubt wird (die Texturen sind schlimmstenfalls RGBA8888, ebenso der Framebuffer, in den das Ergebnis reinkommt).

Ok, habe damals keinen Hint gegeben, aber ich glaub standard ist FP32, oder?
Trotzdem ist es schon verwunderlich, dass die FX Serie so stark bei "DX9" Anwendungen einbricht, den gleichen Effekt aber bei normalen Multitexturing, wie du als Beispiel gegeben hast, weniger Probleme hat. AFAIK läuft die FX Serie ja hardwaretechnisch nur mehr über Shader, also auch Multitexturing, H&L, ... werden über Shader gemacht. Oder irre ich mich da? Wenn nicht, warum sind dann selbst geschriebene Shader um so viel langsamer?

[EDIT] Rechtschreibung...

aths
2004-06-20, 13:13:11
Original geschrieben von Corrail
Ok, habe damals keinen Hint gegeben, aber ich glaub standart ist FP32, oder?Standard sollte FP32 sein, ja.
Original geschrieben von Corrail
AFAIK läuft die FX Serie ja hardwaretechnisch nur mehr über Shader, also auch Multitexturing, H&L, ... werden über Shader gemacht. Oder irre ich mich da? Wenn nicht, warum sind dann selbst geschriebene Shader um so viel langsamer? Afaik wird Multitexturing etc. mit den Register Combinern gemacht.

zeckensack
2004-06-20, 13:24:24
Original geschrieben von aths
Afaik wird Multitexturing etc. mit den Register Combinern gemacht. Sollte man meinen. Jedoch hört man ja ab und an, dass die dedizierten Fixkomma-Einheiten aus "CineFX 2" verschwunden sein sollen.

Dann wiederum frage ich mich, wie NV36 überhaupt mehr als zwei texturierte Pixel pro Takt ausgeben kann. Wenn man Shader nutzt -- so hört man ;) -- fällt das Ding ja automatisch in die 2x2-Konfiguration, höchstwahrscheinlich weil der Shadercore nur zweifach ausgelegt ist, nicht vierfach.

Und dann komme ich unweigerlich zu dem Schluss, dass das Gerät
a)viermal "gewöhnliche" Farb-Arithmetik pro Takt erledigen kann
b)den Shader-Core nur für dependent reads braucht
c)dank eines "ängstlichen" Treibers den Shader-Core immer dann anwirft, wenn ein "Shader" benutzt wird ... selbst wenn dieser nur die Transkription eines simpelst möglichen MT-Setups ist.

Gast
2004-06-20, 13:59:38
wann wird es denn die neuen low-budget karten geben?

Demirug
2004-06-20, 14:17:32
Original geschrieben von zeckensack
Sollte man meinen. Jedoch hört man ja ab und an, dass die dedizierten Fixkomma-Einheiten aus "CineFX 2" verschwunden sein sollen.

Dann wiederum frage ich mich, wie NV36 überhaupt mehr als zwei texturierte Pixel pro Takt ausgeben kann. Wenn man Shader nutzt -- so hört man ;) -- fällt das Ding ja automatisch in die 2x2-Konfiguration, höchstwahrscheinlich weil der Shadercore nur zweifach ausgelegt ist, nicht vierfach.

Und dann komme ich unweigerlich zu dem Schluss, dass das Gerät
a)viermal "gewöhnliche" Farb-Arithmetik pro Takt erledigen kann
b)den Shader-Core nur für dependent reads braucht
c)dank eines "ängstlichen" Treibers den Shader-Core immer dann anwirft, wenn ein "Shader" benutzt wird ... selbst wenn dieser nur die Transkription eines simpelst möglichen MT-Setups ist.

Ich dachte die Antworten auf diese Fragen seinen inzwischen Allgemeingut?

- Auch CineFX 2 hat noch FX Combiner diese müssen sich aber mit den FP-Combiner Resourcen Teilen so das man sie nicht gleichzeitig (= im gleichen Fragmentbatch) nutzen kann.

- Die FX-Combiner sind bei einer FX5700 4 fach vorhanden. Der eigentliche Shadercore aber nur 2 fach. So wie das Teil ja eigentlich nur 2 Pixelpfade hat. Durch einen Trick können diese 2 Pfade aber jeweils 2 Ergebnisse liefern. Bei Shadern die FP-Rechnungen verlangen funktioniert das aber nicht mehr weil es keine symetrischen FP-Combiner gibt.

- Der Shadercore wird immer gebraucht und läuft auch immer mit.

- Der Treiber ist nur ängstlich wenn es darum geht bei einer Schnittstelle die FP-genauigkeit fordert auf Festpunkt herunter zu gehen.

Nun gut nVidia geht mit diesen Informationen nicht gerade haussieren und in den Entwicklerguides steht nicht viel. Die Hoffnung das man das von Kirk angesprochene Diagramm zur NV40 Pipe bekommen soll habe ich eigentlich auch aufgegeben. Ist mir aber auch egal nachdem ich die Pläne der CineFX Pipesteuerung jetzt auch habe ist das Puzzel fast komplett.

Bokill
2004-06-20, 15:24:50
... schade ich dachte mein Ansatz von billig PCI-Express (max PCI-Express 4x) könnte Anklang finden ...

Nun ensteht hier wieder ein weiterer Aufguss einer Shader/xy- Diskussion ...

sind offensichtlich immer noch viel zu wenige Threads in diesem Board davon.

...

jasihasi
2004-06-20, 15:32:18
ja ja,immer diese Diskussionskultur... :spam:

aths
2004-06-20, 17:06:23
Original geschrieben von Bokill
... schade ich dachte mein Ansatz von billig PCI-Express (max PCI-Express 4x) könnte Anklang finden ...Ich denke, auch die allerkleinste Graka wird den 16x-Modus unterstützen. Einfach weil das ein Verkaufsargument ist.

stav0815
2004-06-21, 06:35:48
wahrscheinlich genauso wie die GeForce 6200 SM3 haben wird ;D
Ausser vielleicht für Server oder Barebones könnte ich mir PCI-Ex4 durchaus vorstellen, dafür wird es aber - wie bisher für PCI - nur wenige Karten geben

Leonidas
2004-06-25, 21:54:03
Original geschrieben von Gast
wie werden die neuen der "fx5200er"-klasse von Nvidia und ati?

stromverbrauch?

features?

preis?

verfügbarkeit?




Zitieren wir mal aus den gestrigen News:
http://www.3dcenter.org/news/2004/woche26.php#2004-06-24


ATi RV370
2 Geometrie-Pipelines, 4 Pixel-Pipelines, 75 Millionen Transistoren, 110nm, 64/128 Bit Speicherinterface, Vertex und Pixel Shader 2.0

-> Radeon X300, 325/250 MHz, 128 Bit Speicherinterface, 64/128 MB DDR1

-> Radeon X300SE, 325/250 MHz, 64 Bit Speicherinterface, 64/128/256 MB, gibt es wohl auch als LowProfile

Verfügbar wohl schon ab Juli.



nVidia NV44
4 Pixel-Pipelines, Vertex und Pixel Shader 3.0

-> Wird sicherlich wieder zwei Varianten geben, wobei die höhere Version nahe an den Mainstream-Markt rangehen wird. Die kleinere Version wird es sicherlich wieder sowohl mit 64 und 128 Bit Speicherinterface geben.

Verfügbar ab dem 4. Quartal, mit Glück schon Ende des 3. Quartals.



Zum Stromverbrauch kann man derzeit leider kaum was sagen. Bei der X300 sollte dieser aber aufgrund 110nm und dem recht niedrigen Chiptakt nicht wirklich hoch sein, aufgrund der 75 Millionen Transistoren aber auch nicht wirklich niedrig.

Bokill
2004-06-26, 04:06:23
@aths

Ich denke, auch die allerkleinste Graka wird den 16x-Modus unterstützen. Einfach weil das ein Verkaufsargument ist.

Na ja zugegeben ... isn Marketingargument.

Für OEMs könnte aber auch neben vielen anderen Goodies dann ein bunt schillerndes "NEW with PCI-Express" draufstehen ... wird halt schlicht unterschlagen, dass dies keine 16 Lanes nutzt. Passen tut ja auch in ein grösseren PCI-Expressslot.

Wie war das noch mit der Speicheranbindung von Sapphire? (http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1088099228) ... das hat ein Marketingteam noch nie ausgebremst oder?

MFG Bokill