PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : FX 5800 Ultra vs Radeon 9800?


LOCHFRASS
2003-08-10, 06:48:32
Ich bin gerade nicht so auf dem Laufenden in sachen Grakas und hätte da ein paar Fragen:

- Gibts für ATis mittlerweile brauchbare Linux Treiber?
- Der NV30 taktet sich ja im 2D Betrieb runter, gibts das beim R350 auch? Ich zocke vielleicht 1-2h pro Tag und da wäre es nicht so toll, wenn die Graka die ganze Zeit sinnlos heizt.
- Wie weit kann man die 5800 Ultra im 2D Betrieb runtertakten? Hat das schon mal jemand ausprobiert oder bringt das wegen evtl. vorhandener Leckströme nichts?
- Ich bin AA Fetischist, welche Karte ist bei vergleichbarer AA Qualität schneller?
- Ist das AF der FX Reihe mit dem der GF3/4 Ti gleichwertig?

Crazy_Bon
2003-08-10, 07:14:37
Original geschrieben von LOCHFRASS
Ich bin gerade nicht so auf dem Laufenden in sachen Grakas und hätte da ein paar Fragen:

- Gibts für ATis mittlerweile brauchbare Linux Treiber?
- Der NV30 taktet sich ja im 2D Betrieb runter, gibts das beim R350 auch? Ich zocke vielleicht 1-2h pro Tag und da wäre es nicht so toll, wenn die Graka die ganze Zeit sinnlos heizt.
- Wie weit kann man die 5800 Ultra im 2D Betrieb runtertakten? Hat das schon mal jemand ausprobiert oder bringt das wegen evtl. vorhandener Leckströme nichts?
- Ich bin AA Fetischist, welche Karte ist bei vergleichbarer AA Qualität schneller?
- Ist das AF der FX Reihe mit dem der GF3/4 Ti gleichwertig?

- Keine Ahnung, vielleicht melden sich noch einige ATI-Leute mit Linux als BS.
- Die GF5800U heizt nicht nur sinnlos, sie ist auch mächtig laut. Warum keine leisere und kühlere GF5900U wenn es eine Nvidia-Karte werden soll?
- k.A.
- ATI liefert bei gleicher AA-Stufe das bessere Bild, Nvidia braucht meist die nächsthöhere AA-Stufe um die gleiche Qualität zu erreichen.
- Das AF soll da etwas anderst sein, zumindenst profitieren FX-Karten von bestimmten AF-Optimierungen, die man auf einer GF3/4 nicht bemerken tut, zum Guten (Performance) oder im Negativen (Qualität), hängt ganz von der Optimierung ab.

LOCHFRASS
2003-08-10, 08:10:55
Original geschrieben von Crazy_Bon
- Die GF5800U heizt nicht nur sinnlos, sie ist auch mächtig laut. Warum keine leisere und kühlere GF5900U wenn es eine Nvidia-Karte werden soll?


Die PNY 5800 Ultra gibts bei Alternate für 290€, das ist auch mein Maximum. Wegen der Lautstärke, egal ob 9800 oder 5800 Ultra, WaKü kommt eh drauf :D

Original geschrieben von Crazy_Bon
- ATI liefert bei gleicher AA-Stufe das bessere Bild, Nvidia braucht meist die nächsthöhere AA-Stufe um die gleiche Qualität zu erreichen.


thx, aber wie siehts mit der Performance aus?

Original geschrieben von Crazy_Bon
- Das AF soll da etwas anderst sein, zumindenst profitieren FX-Karten von bestimmten AF-Optimierungen, die man auf einer GF3/4 nicht bemerken tut, zum Guten (Performance) oder im Negativen (Qualität), hängt ganz von der Optimierung ab.

Gut, also keine Verschlechterung gegenüber dem Vorgänger =)

reunion
2003-08-10, 10:23:08
Original geschrieben von LOCHFRASS
- Ich bin AA Fetischist, welche Karte ist bei vergleichbarer AA Qualität schneller?


Vergleichbare Qualität wirst du nur mit 2x bekommen. Allerdings sieht auch hier ATIs Modus dank Gammakorektur besser aus. Bereits gegen ATIs 4x Modus hat NV Qualitätsmäßig nichts mehr entgegenzusetzen. Von der Performance dürften die Karten bei gleicher Subpixelanzahl ungefair gleichschnell sein.

Gohan
2003-08-10, 10:48:33
Original geschrieben von LOCHFRASS
Die PNY 5800 Ultra gibts bei Alternate für 290€, das ist auch mein Maximum. Wegen der Lautstärke, egal ob 9800 oder 5800 Ultra, WaKü kommt eh drauf :D



thx, aber wie siehts mit der Performance aus?



Gut, also keine Verschlechterung gegenüber dem Vorgänger =)

Warnung bei der FX5800 Ultra: Wenn du due Kühlerkonstruktion auf der Vorderseite entfernst und der Ram ohne Ramkühler darsteht, löst sich dieser innerhalb weniger Sekunden in Rauch auf.

Quasar
2003-08-10, 10:56:00
Original geschrieben von LOCHFRASS
- Ich bin AA Fetischist, welche Karte ist bei vergleichbarer AA Qualität schneller?


Damit hast du deine Wahl quasi schon getroffen: R300 oder höher.

Eine R9800 ist dabei allerdings nicht schneller als eine R9700p, eigentlich minimal langsamer. Nur beim Temple-Mark habe ich bis jetzt einen echten Unterschied zu ungunsten der R9700p festgestellt.

LOCHFRASS
2003-08-10, 11:52:01
Kann es sein, dass R300 und R350 identisch oder sehr, sehr ähnlich sind? Wegen dem AA, ich hab gerade das 9700er Preview gelesen, ich hätte nicht gedacht, dass die Gamma Korrektur so viel bringt, das sieht ja schon sehr gut aus.

Original geschrieben von Gohan
Warnung bei der FX5800 Ultra: Wenn du due Kühlerkonstruktion auf der Vorderseite entfernst und der Ram ohne Ramkühler darsteht, löst sich dieser innerhalb weniger Sekunden in Rauch auf.

Klar, die verbraten ja schon 4-5W pro Chip.

nagus
2003-08-10, 12:01:40
@LOCHFRASS: mit der radeon 9800 bist du SICHER besser bedient als mit einer 5800 ultra. du kannst bedenkenlos zugreifen.

LOCHFRASS
2003-08-10, 12:04:20
Gibts denn schon brauchbare Linux Treiber? Ich zocke UT, UT2003 und Q3A.

mapel110
2003-08-10, 12:26:43
sollte laufen. treiber gibts und so klassiger sollten auch keine probs machen.
allerdings sollte die performance schlechter sein, als auf nvidia karten.

Iceman346
2003-08-10, 17:49:11
Original geschrieben von LOCHFRASS
Ich bin gerade nicht so auf dem Laufenden in sachen Grakas und hätte da ein paar Fragen:

- Gibts für ATis mittlerweile brauchbare Linux Treiber?
- Der NV30 taktet sich ja im 2D Betrieb runter, gibts das beim R350 auch? Ich zocke vielleicht 1-2h pro Tag und da wäre es nicht so toll, wenn die Graka die ganze Zeit sinnlos heizt.
- Wie weit kann man die 5800 Ultra im 2D Betrieb runtertakten? Hat das schon mal jemand ausprobiert oder bringt das wegen evtl. vorhandener Leckströme nichts?
- Ich bin AA Fetischist, welche Karte ist bei vergleichbarer AA Qualität schneller?
- Ist das AF der FX Reihe mit dem der GF3/4 Ti gleichwertig?

- ka wie brauchbar die sind, aber es gibt sie ;)
- Gibt es leider nicht
- Es wird immer auf einen festen Wert runtergetaktet. Man kann dies zwar verstellen aber ich weiss nicht ob das lohnt bzw. wie weit das geht
- IMO muss man das 4x AA von ATi gegen das 4xS von Nvidia setzen um eine vergleichbare Qualität zu bekommen. Und bei diesem Vergleich sind die ATi Karten IMMER schneller.
- Wenn du es auf Quality stellst ja, ausgenommen UT2k3

Exxtreme
2003-08-10, 18:19:51
Original geschrieben von LOCHFRASS
Ich bin gerade nicht so auf dem Laufenden in sachen Grakas und hätte da ein paar Fragen:

- Gibts für ATis mittlerweile brauchbare Linux Treiber?

Definiere "brauchbar". ;)

Also der 2D-Teil ist IMHO sehr gut und macht bei mir keinerlei Schwierigkeiten.

Den 3D-Teil konnte ich nicht testen da die Treiberprogrammierer bei Nvidia nicht in der Lage sind einen funktionierenden AGPGART-Treiber für den Nforce2-Chipsatz für aktuelle Kernel zu programmieren.
Original geschrieben von LOCHFRASS
- Der NV30 taktet sich ja im 2D Betrieb runter, gibts das beim R350 auch? Ich zocke vielleicht 1-2h pro Tag und da wäre es nicht so toll, wenn die Graka die ganze Zeit sinnlos heizt.

Also AFAIK taktet der R350 NICHT runter. Dafür wird das Teil AFAIK im 2D-Betrieb trotzdem nicht besonders heiss.
Original geschrieben von LOCHFRASS
- Ich bin AA Fetischist, welche Karte ist bei vergleichbarer AA Qualität schneller?

Bei 2x AA dürfte der NV30 schneller sein als der R350. Alles darüber geht klar an ATi beim Qualitäts-/Leistungsverhältis.
Original geschrieben von LOCHFRASS
- Ist das AF der FX Reihe mit dem der GF3/4 Ti gleichwertig?
AFAIK ja. Die Ausnahme bildet UT2003.

aths
2003-08-10, 20:00:11
Original geschrieben von Iceman346
- IMO muss man das 4x AA von ATi gegen das 4xS von Nvidia setzen um eine vergleichbare Qualität zu bekommen. Und bei diesem Vergleich sind die ATi Karten IMMER schneller. Nicht alles was hinkt, ist ein Vergleich :) Im großen und ganzen erreicht 4xS noch keine ATI-4x-Qualität.

nagus
2003-08-10, 22:08:19
Original geschrieben von aths
Nicht alles was hinkt, ist ein Vergleich :) Im großen und ganzen erreicht 4xS noch keine ATI-4x-Qualität.


ATi´s 2xAA ist sogar schon auf dem niveau von Nvidia´s 4xAA

LOCHFRASS
2003-08-10, 22:31:00
Ist das mit dem 2x RGSS des VSA100 vergleichbar? Das kommt ja auch schon ans 4x OGMS (?) der nV Karten ran.

nagus
2003-08-10, 22:34:15
Original geschrieben von LOCHFRASS
Ist das mit dem 2x RGSS des VSA100 vergleichbar? Das kommt ja auch schon ans 4x OGMS (?) der nV Karten ran.

aths kann dir das sicher genauer erklären

Razor
2003-08-10, 23:01:05
Original geschrieben von nagus
aths kann dir das sicher genauer erklären
Was soll er da erklären ?
Diese Aussage ist schlicht falsch.

Der Vorteil bei ATI's 2xRGMS ist lediglich die Gammakorrketur, die mit der eigentlichen Glättungsfähigkeit recht wenig gemein hat, sondern lediglich die Farbübergänge anders berechnet, aber trotzdem nicht 'mehr Zwischenstufen' bildet. Dass auch die Gammakorrektur Nachteile haben kann (wenn z.Bsp. die generellen Gamma-Werte vom User geändert werden, die Gamma-Korrektur dies aber ignoriert - siehe dazu auch zeckensack Kommentare) brauche ich wohl hoffentlich nicht zu erwähnen...

Razor

P.S.: Das ATI's gammakorrektes 4xRGMS klare viesuelle Vorteile gegenüber nVidia's 4xOGMS hat, steht ausser Frage...

Razor
2003-08-10, 23:02:46
Original geschrieben von aths
Nicht alles was hinkt, ist ein Vergleich :) Im großen und ganzen erreicht 4xS noch keine ATI-4x-Qualität.
Und ATI's 4x erreicht in anderen Bereichen nicht die Qualität von nVidia's 4xS...
:D

Razor

aths
2003-08-10, 23:13:30
Original geschrieben von LOCHFRASS
Ist das mit dem 2x RGSS des VSA100 vergleichbar? Das kommt ja auch schon ans 4x OGMS (?) der nV Karten ran. Das AA des VSA-100 ist gleichzeitig durch Supersampling über- und durch fehlende Gammakorrektur beim Downfiltering unterlegen.

aths
2003-08-10, 23:16:40
Original geschrieben von Razor
Und ATI's 4x erreicht in anderen Bereichen nicht die Qualität von nVidia's 4xS...Der 1x2 Supersampling-Anteil von 4xS trägt in nur wenigen Spielen und dort meist in nur relativ wenig Pixeln zur Bildverbesserung bei. Insgesamt ist 4x RG mit der EER von 4x4 höher einzustufen als 4xS mit einer EER von 2x4. Vertikale Kanten glättet 4xS praktisch genauso gut bzw. schlecht, wie 2x RG. 4xS glättet sowohl horizontale als auch vertikale Kanten mit 3 "effektiven" Zwischenstufen. (4x OG liefert an solchen Kanten auch 3 Zwischenstufen, davon sind allerdings zwei allerdings nur maximal 1 Pixel breit, so dass "effektiv" nur eine einzige Zwischenstufe zum Tragen kommt.)

nagus
2003-08-11, 08:00:24
Original geschrieben von Razor
Und ATI's 4x erreicht in anderen Bereichen nicht die Qualität von nVidia's 4xS...
:D

Razor


du bist vollkommen durchgeknallt. als nächstes behauptest du die GF3 ist schneller als die 9700PRo :crazy:

Gast
2003-08-11, 10:14:32
Original geschrieben von nagus
du bist vollkommen durchgeknallt. als nächstes behauptest du die GF3 ist schneller als die 9700PRo :crazy:

Sehr gesitteter Umgangston, nagus. *report this post to moderator*


Original geschrieben von nagus
ATi´s 2xAA ist sogar schon auf dem niveau von Nvidia´s 4xAA

Original geschrieben von aths
Nicht alles was hinkt, ist ein Vergleich :) [...]

Razor@Work
2003-08-11, 10:33:36
Original geschrieben von nagus
du bist vollkommen durchgeknallt. als nächstes behauptest du die GF3 ist schneller als die 9700PRo :crazy:
Danke für die Blumen !
:D

Und hier mal was nettes ganz exclusiv für Dich, nagus:
http://www.warp2search.net/modules.php?name=News&file=article&sid=13720
News: GeForce 3 Outperforms a Radeon 9800 Pro
=>Posted by: Newsfactory.
=>Saturday, August 09 @ 15:35:04 CEST
Just spotted this bit of news over at 3dchipset.com! What do you think?

This is no lie above. My sisters boyfriend is a World War II fan and loves to play Battlefield 1942. Well I wanted to see how well his system would perform when I dropped my Radeon 9800 Pro into his system. His system specs are:


AGP 4X Motherboard (not sure about chipset)
Windows XP Home Edition
Intel Celeron 1.7GHz
256Mb SDRAM
GeForce 2 MX

For More Info Warp2 ..... 3dchipset.com (http://www.3dchipset.com/#187)

Razor@Work
2003-08-11, 10:38:57
Original geschrieben von aths
Der 1x2 Supersampling-Anteil von 4xS trägt in nur wenigen Spielen und dort meist in nur relativ wenig Pixeln zur Bildverbesserung bei. Insgesamt ist 4x RG mit der EER von 4x4 höher einzustufen als 4xS mit einer EER von 2x4. Vertikale Kanten glättet 4xS praktisch genauso gut bzw. schlecht, wie 2x RG. 4xS glättet sowohl horizontale als auch vertikale Kanten mit 3 "effektiven" Zwischenstufen. (4x OG liefert an solchen Kanten auch 3 Zwischenstufen, davon sind allerdings zwei allerdings nur maximal 1 Pixel breit, so dass "effektiv" nur eine einzige Zwischenstufe zum Tragen kommt.)
Schon klar, aths... und danke nochmal für diese Erklärung.

Ich wollte aber auf die Andersartigkeit von MSAA-Varianten mit Supersampling-Anteilen hinaus. Das ATI-MSAA bietet keinerlei Supersampling-Anteile (weder exklusiv, noch adaptiv), insofern diese Lösung mit diesbezüglichen Defiziten leben muss.

Und was vestehst Du unter 'relativ wenigen Spielen' ?
IMO sind das sogar recht viele, nur sind sie eben nicht gerade neu...

Razor

Razor@Work
2003-08-11, 10:48:04
Und weil's so schön ist, hier nochmal der ganze Artikel von 3DChipset:
(nochmals extra für das naggilein ;-)
GF3 vs 9800 Pro in BF1942 on Low-End System - 08/08/03 - Solomon

My sisters boyfriend is a World War II fan and loves to play Battlefield 1942. Well I wanted to see how well his system would perform when I dropped my Radeon 9800 Pro into his system. His system specs are:
AGP 4X Motherboard (not sure about chipset)
Windows XP Home Edition
Intel Celeron 1.7GHz
256Mb SDRAM
GeForce 2 MXSo I figured dropping the Radeon 9800 Pro in his system would accelerate the Battlefield 1942 game right? Wrong! The gameplay was stutering it was a slight step up over his GeForce 2 MX. This was quite a shock. I remember back in the day using GeForce 2, 3, 4, Voodoo II, Voodoo III, etc... All those earlier chips were the GPU did most of the work. Now it seems that if you don't have at least a 2GHz or 2.2GHz chip these high powered cards aren't worth the dong they are asking for.

After the dismal performance of the Radeon 9800 Pro on an older system, I decided to toss in a GeForce 3 card I won off of eBay to see how that would help! When I popped the card in using the latest drivers (44.90) I decided to load up his copy of Battlefield 1942. My draw just dropped when I saw how much of a performance increase over the Radeon 9800 Pro running Battlefield 1942. It was truly a night and day difference.

What did I learned from this?

1) The day of only needing to upgrade the graphics card to get better performance is over on lower end systems.
2) You need to have a fast ass system to utilize the latest GPU's.

It's kinda shocking to see that the CPU plays a HUGE role in the latest graphics cards. 2 years ago that wasn't the case at all. All you needed was to upgrade the graphics card and BAM! Instant increase in frame rate. Today, you need a fast CPU just to get the GPU to move. Things sure have changed and so has the dent in consumers wallets!

Update - Maybe I should clearify some issues. This is for Battlefield 1942. Will this happened in most games? It's hard to say. UT2k3 might suffer the same fate as the game being very CPU/Memory intensive. I just didn't expect the ATi Radeon 9800 Pro to be so system dependent.

I've read some of the comments and such and some people just can't get out of their head that just because you got the latest graphics card doesn't mean it's going to perform better. This whole post was to point out that getting the latest video card isn't always going to give you the performance you are seeking. So to all the naysayers who think I don't know what I'm doing, or I have no clue how to install drivers. Get a low-end system such as the one above and you do the comparison. Install one with a GeForce 3 and then try the 9800 Pro. Then come to me and say I'm not doing it correct. Out of the responses, 2 out of 3 have experienced the same scenerio. I guess they must not know what they are doing either. We all know the 9800 Pro is a faster card. But on what system is it? Sometimes not everything is in black and white. Am I wrong? Pull the same scenerio and leave the feedback. So far we have 2 out 3 people that have suffered the same effects of Battlefield 1942 being slower. No Ansiotropic and no AA were present.
Sehr interessant, nicht wahr ?
:D

Razor

Exxtreme
2003-08-11, 10:48:08
Original geschrieben von Razor@Work

Und was vestehst Du unter 'relativ wenigen Spielen' ?
IMO sind das sogar recht viele, nur sind sie eben nicht gerade neu...

Razor
Eben. Ich habe in meiner Spielesammlung mind. ein halbes Dutzend Spiele, welche vom SSAA stark profitieren würden.

Exxtreme
2003-08-11, 10:51:05
Original geschrieben von Razor@Work
Und weil's so schön ist, hier nochmal der ganze Artikel von 3DChipset:
(nochmals extra für das naggilein ;-)

Sehr interessant, nicht wahr ?

:D

Razor
Typischer Fall von "das Problem hockt vor dem Monitor". Ich hatte selbst mit meinem 1,2 GHz Athlon weder in UT2003, noch in BF1942 irgendwelche Probleme.

Natürlich habe ich die aktuellsten Patches auch eingespielt, denn das haben beide Spiele dringend nötig.

Crazy_Bon
2003-08-11, 11:01:00
@Exxtreme
Dazu kommt noch, dass dein 1.2GHz immernoch schneller ist als ein P4-Celeron mit 1.7GHz und SDR-RAM.

@Razor@Work
Wie es in dem englischen Artikel zu lesen ist, spielt die CPU-Leistung eine große Rolle (und BF1942 ist sehr CPU-lastig) mit den neueren Grafikchips.
Die ATI-Chips skalieren sogar besser mit schnelleren CPUs als die Pendanten von Nvidia. Das Problem ist das sehr schwache System, die Radeon wird nicht gefordert und tümpelt vor sich hin.

Exxtreme
2003-08-11, 11:05:16
Original geschrieben von Crazy_Bon
@Exxtreme
Dazu kommt noch, dass dein 1.2GHz immernoch schneller ist als ein P4-Celeron mit 1.7GHz und SDR-RAM.

@Razor@Work
Wie es in dem englischen Artikel zu lesen ist, spielt die CPU-Leistung eine große Rolle (und BF1942 ist sehr CPU-lastig) mit den neueren Grafikchips.
Die ATI-Chips skalieren sogar besser mit schnelleren CPUs als die Pendanten von Nvidia. Das Problem ist das sehr schwache System, die Radeon wird nicht gefordert und tümpelt vor sich hin.
Da haste wohl recht. Ich habe übersehen, daß das Teil ein Celery mit SDRAM ist. Und da nur 256 MB RAM eingebaut sind und der Held auch noch die Oberbloatware namens WinXP verwendet, wundert mich eigentlich gar nichts mehr. Das System ist komplett falsch zusammengestellt worden. Wie gesagt, das Problem hockt vor'm Monitor.

Razor@Work
2003-08-11, 11:12:44
Original geschrieben von Crazy_Bon
@Razor@Work
Wie es in dem englischen Artikel zu lesen ist, spielt die CPU-Leistung eine große Rolle (und BF1942 ist sehr CPU-lastig) mit den neueren Grafikchips.
Die ATI-Chips skalieren sogar besser mit schnelleren CPUs als die Pendanten von Nvidia. Das Problem ist das sehr schwache System, die Radeon wird nicht gefordert und tümpelt vor sich hin.
Hi Crazy,

ich wollte diesen Artikel jetzt nicht anführen, um zu 'beweisen', dass nun eine gf3 immer schneller ist, als eine R9800p. Aber offensichtlich gibt es Situationen, bei denen das der Fall ist. Auch wenn die R9800 nur "vor sich hindümpelt", ist es dach schon mehrkwürdig, dass eine gf3 in der gleichen Situation sehr viel besser performt. So ist also entweder der Speicheranspruch der R9800p größer, oder aber die CPU-Nutzung.

Dass die R9800p generell ein größeres Potential hat, ist vollkommen klar. Nur wollte ich dem lieben naggilein mal ein bischen seine absolutistischen Aussagen vor die Nase halten. Und ich fand' einfach dass dieses aktuelle Beispiel einfach sehr gut gepaßt hat.

-

Abschließend sollte man auf jeden Fall sagen, dass man keinesfalls versuchen sollte, in ein solches System (Cel 1.7 mit 256MB SDRAM unter WinXP) eine heutige High-End-Karte einzubauen !

Razor

Gast
2003-08-11, 11:13:46
Original geschrieben von Exxtreme
Wie gesagt, das Problem hockt vor'm Monitor.
Nö, tut es nicht.
Aber man sollte schon das Fazit ziehen, welches ich eben gezogen habe...
:D

Razor

Exxtreme
2003-08-11, 11:17:07
Original geschrieben von Gast
Nö, tut es nicht.
Aber man sollte schon das Fazit ziehen, welches ich eben gezogen habe...
:D

Razor
Das dürfte aber trotzdem eine Extremsituation sein.

Die GF2/GF3-Treiber-Teile dürften tatsächlich nicht ganz so CPU-lastig sein, da diese garantiert nicht so umfangreich sind wie die R9800-Treiber. Da fehlt nämlich das ganze DX9-Zeug.

Razor@Work
2003-08-11, 11:20:17
Original geschrieben von Exxtreme
Das dürfte aber trotzdem eine Extremsituation sein.

Die GF2/GF3-Treiber-Teile dürften tatsächlich nicht ganz so CPU-lastig sein, da diese garantiert nicht so umfangreich sind wie die R9800-Treiber. Da fehlt nämlich das ganze DX9-Zeug.
Du vergißt aber anscheinend ganz, dass nVidia eine 'echte' UDA hat und damit wird der gesamte Treiber-Kern in den Arbeitsspeicher 'gesogen'... ganz egal, welche Karte Du drin hast (habe ich mal selber mit der gf3 und der fx5200 nachgestellt). Mag ja sein, dass dies bei ATI anders ist (die habe ja sogar unterschiedliche Base-Librarys für die unterschiedlichen Architekturen), aber so richtig glauben mag ich das nicht.

Am 'Treiber-Umfang' wird dieses Verhalten sicher nicht festzumachen sein...

Razor

Exxtreme
2003-08-11, 11:23:06
Original geschrieben von Razor@Work
Du vergißt aber anscheinend ganz, dass nVidia eine 'echte' UDA hat und damit wird der gesamte Treiber-Kern in den Arbeitsspeicher 'gesogen'... ganz egal, welche Karte Du drin hast (habe ich mal selber mit der gf3 und der fx5200 nachgestellt). Mag ja sein, dass dies bei ATI anders ist (die habe ja sogar unterschiedliche Base-Librarys für die unterschiedlichen Architekturen), aber so richtig glauben mag ich das nicht.

Am 'Treiber-Umfang' wird dieses Verhalten sicher nicht festzumachen sein...

Razor
Der Treiber wird aber trotzdem intern unterschiedliche Codepaths haben. :)

Und einen IMHO echten UDA-Treiber hat nur Intel abgeliefert. :)

Razor@Work
2003-08-11, 11:28:11
Original geschrieben von Exxtreme
Der Treiber wird aber trotzdem intern unterschiedliche Codepaths haben. :)

Und einen IMHO echten UDA-Treiber hat nur Intel abgeliefert. :)
Die unterschiedlichen Codepaths interessieren nicht, wenn der ganze Kernel in den Speicher geladen wird. Und was bitte verstehst Du unter einem 'echten' UDA-Treiber (jetzt mal Intel vs. nVidia) ?

Razor

VOODOO-KING
2003-08-11, 13:43:05
Original geschrieben von Quasar
Damit hast du deine Wahl quasi schon getroffen: R300 oder höher.

Eine R9800 ist dabei allerdings nicht schneller als eine R9700p, eigentlich minimal langsamer. Nur beim Temple-Mark habe ich bis jetzt einen echten Unterschied zu ungunsten der R9700p festgestellt.


... jedoch laesst sich die Radeon 9800 bestimmt besser uebertakten als der 9700 Pro Chip . Deshalb empfehle ich ne Retail Saphire Radeon 9800 fuer 279 EUR

http://www.pcc-center.de/

Ausserdem ist die 5800er Ultra bei Quality Settings ( AA + AF ) in der Regel klar langsamer als der Radeon 9800 Chip ...

VOODOO-KING

ATI-Andi
2003-08-11, 19:07:30
Original geschrieben von Exxtreme
Das dürfte aber trotzdem eine Extremsituation sein.

Die GF2/GF3-Treiber-Teile dürften tatsächlich nicht ganz so CPU-lastig sein, da diese garantiert nicht so umfangreich sind wie die R9800-Treiber. Da fehlt nämlich das ganze DX9-Zeug.

Es könnte auch daran liegen, dass das Problem vor dem Monitor vergessen hat, wie man die ATI Treiber richtig und sauber installiert. :D Vielleicht fehlen die Chipsatztreiber
AGP Aperture Size ist natürlich nur auf 2MB eingestellt, etc..., da ist eine 9800pro natürlich langsamer als eine gf3. ;) Da ist schon was dran das Problem hockt wirklich meistens vor dem Monitor. :D

Thowe
2003-08-11, 19:18:06
Original geschrieben von nagus
du bist vollkommen durchgeknallt. als nächstes behauptest du die GF3 ist schneller als die 9700PRo :crazy:

Ein "Ich denke da liegst du falsch" hätte es auch getan, also feile etwas an deiner Ausdrucksweise.

LOCHFRASS
2003-08-11, 21:30:36
Original geschrieben von Crazy_Bon
...Die ATI-Chips skalieren sogar besser mit schnelleren CPUs als die Pendanten von Nvidia...

Gibts dazu auch Tests? Das würde mich mal interessieren, mein Sys ist zwar ungefähr 2-3 mal so schnell wie diese Celeron/SDR Missgeb... ähm Fehlkonfiguration, aber bisher hab ich nur Reviews dieser Karten auf 2,5-3GHz Systemen gesehen.

LovesuckZ
2003-08-11, 21:32:34
Original geschrieben von LOCHFRASS
Gibts dazu auch Tests?

Es gab mal nen test, wo jemand seinen P4 auf 3.6GHZ brachte. Dort war hat die 5800Ultra besser mit der CPU skaliert als die 9700pro. Inwieweit der Test real war, kann ich dir aber nicht sagen.

Quasar
2003-08-11, 21:43:37
Original geschrieben von LOCHFRASS
Gibts dazu auch Tests? Das würde mich mal interessieren, mein Sys ist zwar ungefähr 2-3 mal so schnell wie diese Celeron/SDR Missgeb... ähm Fehlkonfiguration, aber bisher hab ich nur Reviews dieser Karten auf 2,5-3GHz Systemen gesehen.

Was ich dir sagen kann (aber das ist irgendwie OT), ist, daß auf einem P4-3,0C eine R7500 BBA sehr oft eine GF2ultra von ELSA stehenläßt mit den aktuellen Treibern. Hat mich ziemlich überrascht.

aths
2003-08-11, 21:48:56
Original geschrieben von Razor@Work
Schon klar, aths... und danke nochmal für diese Erklärung. Original geschrieben von Exxtreme
Eben. Ich habe in meiner Spielesammlung mind. ein halbes Dutzend Spiele, welche vom SSAA stark profitieren würden. OGSSAA bringt weniger Qualität, als Leistung verbraucht wird. GF3 und GF4 Ti haben für aktuelle Spiele zuwenig Leistung, als dass CPU-Limitierung vorliegt (eine aktuelle Gamer-CPU vorausgesetzt.) Exxtreme, um vom SSAA in "beide Richtungen" (X und Y) zu profitieren, musst du schon 8xS-AA (oder 2x2 OGSS in D3D) verwenden. Viel Spaß in 1024x768...

nagus
2003-08-11, 22:50:42
Original geschrieben von Crazy_Bon
@Exxtreme
Dazu kommt noch, dass dein 1.2GHz immernoch schneller ist als ein P4-Celeron mit 1.7GHz und SDR-RAM.

@Razor@Work
Wie es in dem englischen Artikel zu lesen ist, spielt die CPU-Leistung eine große Rolle (und BF1942 ist sehr CPU-lastig) mit den neueren Grafikchips.
Die ATI-Chips skalieren sogar besser mit schnelleren CPUs als die Pendanten von Nvidia. Das Problem ist das sehr schwache System, die Radeon wird nicht gefordert und tümpelt vor sich hin.

ich glaube razor hat noch nie was von CPU-limitierung gehört

nagus
2003-08-11, 22:52:37
Original geschrieben von Razor@Work
Hi Crazy,

ich wollte diesen Artikel jetzt nicht anführen, um zu 'beweisen', dass nun eine gf3 immer schneller ist, als eine R9800p. Aber offensichtlich gibt es Situationen, bei denen das der Fall ist. Auch wenn die R9800 nur "vor sich hindümpelt", ist es dach schon mehrkwürdig, dass eine gf3 in der gleichen Situation sehr viel besser performt. So ist also entweder der Speicheranspruch der R9800p größer, oder aber die CPU-Nutzung.

Dass die R9800p generell ein größeres Potential hat, ist vollkommen klar. Nur wollte ich dem lieben naggilein mal ein bischen seine absolutistischen Aussagen vor die Nase halten. Und ich fand' einfach dass dieses aktuelle Beispiel einfach sehr gut gepaßt hat.

-

Abschließend sollte man auf jeden Fall sagen, dass man keinesfalls versuchen sollte, in ein solches System (Cel 1.7 mit 256MB SDRAM unter WinXP) eine heutige High-End-Karte einzubauen !

Razor


hey! ich hab da ne tolle idee: du kaufst dir einen Celeron 300 + TNT2 und geilst dich dann drauf auf, dass die TNT2 mit diesem system schneller ist als jedes andere ATI-Produkt. das wär doch mal was ;)

Razor@Work
2003-08-12, 14:58:55
Original geschrieben von nagus
ich glaube razor hat noch nie was von CPU-limitierung gehört
Eine CPU-Limitierung, die sich bei unterschiedlichen GraKa's (hier gf3 und R9800p) aber sonst völlig identischem System unterschiedlich auswirkt ?
:lol:

Klar ist das eine CPU-Limitierung (ich wüde sogar "System-Limitierung" sagen ;-), aber offensichtlich wirkt sich diese Limitierung bei einer gf3 nicht ganz so kräftig aus, wie bei einer R9800p. Die System-Limitierung also bei einer R9800p größer ist, als bei einer gf3 und somit mit letzterer eine bessere Gesamt-Performance erlaubt.

Ich bin echt mal gespannt, ob Du das jetzt verstanden hast...

Razor

Crazy_Bon
2003-08-12, 16:25:48
Ein P1 wird mit einer Voodoo2 auch besser laufen als mit einer GF3, ist daher die Voodoo eine bessere Karte?

ATI-Andi
2003-08-12, 18:06:52
Bei Tomshardware wurde die Gf4 TI4600 und die R9700Pro getestet. http://www.de.tomshardware.com/graphic/20020819/radeon9700-27.html Über die Aussagefähigkeit des Tests muss sich jeder selbst ein Bild machen(Tomshardware ;) ).
Der Pentium 3 lief mit 800Mhz und PC133 SDRAM. Die Gf4 TI4600 hat keine Chance gegen die R9700Pro bei der Skalierung. Es würde mich wundern wenn die Gf3 da eine hätte. Wahrscheinlich hat das Problem vor dem Monitor sein Celeronsystem einfach falsch konfiguriert und testet nur mit den ältesten Games. :D

LOCHFRASS
2003-08-12, 18:23:04
Der 1,7er Celli @ SDR ist weitaus langsamer, als ein P3 800...

Razor@Work
2003-08-13, 15:53:27
Ich sach' nur eines:
"nagus wollte es so haben !"
:D

Razor

Piffan
2003-08-13, 16:09:54
Mir fällt da gerade ein neueres Spiel ein, dass von NVs Mix aus Super- und Multisampling profitiert: Mafia! Weil Mafia Proz- Limitiert ist (zumindest war es bei meinem Palo 1800+ noch so), konnte ich bei meiner G4Ti4200 (übertaktet, was sonst) ohne Probs 4xS einschalten....

Wäre schön, wenn Ati als "Geheimfunktion" das SS anbieten würde und ich es mit meiner Rad 9700 nutzen dürfte. Leistung ist vielen Fällen genug vorhanden......

Aquaschaf
2003-08-13, 17:11:37
Wer weiß, vielleicht unterstützt der R300 kein RGSSAA.

Razor
2003-08-13, 19:07:02
Original geschrieben von Aquaschaf
Wer weiß, vielleicht unterstützt der R300 kein RGSSAA.
OGSSAA dürfte JEDE GraKa per se unterstützen...
(Stichwort: Supersampling)

Razor

Aquaschaf
2003-08-14, 02:09:45
ATI könnte ja im CP OGSSAA anbieten, aber nutzen würde ich es bestimmt nicht - kostet für den IQ Bonus imo viel zu viel Füllrate.

zeckensack
2003-08-14, 02:16:44
Original geschrieben von Aquaschaf
ATI könnte ja im CP OGSSAA anbieten, aber nutzen würde ich es bestimmt nicht - kostet für den IQ Bonus imo viel zu viel Füllrate. ATI könnte wirklich. Das da (http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=84691) sollte als Beweis genügen.