PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Welche Grafikkarte ist definitiv besser


DaHard
2004-01-23, 08:50:17
hallöchen!

welche grafikkarte ist denn definitiv besser?

eine

ati radeon9800pro

cpu takt 380mhz
ram takt 340mhz (680mhzddr)
128mb oder 256mb ram
(270€)


nvidia 5900ultra

cpu takt 450mhz
ram takt 425mhz (850mhz ddr)
256mb ram
(400€ und mehr)


ist nvidia wirklich trotz der höheren mhz besser oder hat ati die nase vorn trotz gerigerer taktung?

das ist ein frage die mich schon beschäftigt, da ich mir in naher zukunft eine neue karte gönnen möchte, preis muss ich mal sehen, will mir auch eine kaufen um eine längere zeit ruhe zu haben ohne wieder nächstes jahr was neues kaufen zu müssen!

habe jetzt schon über 2 jahre eine radeon8500 retail(64) (275/275) im betrieb und kann von ati nicht schlechtes behaupten die karte ist bisher sehr gut gewesen nur bei neuen games merkt man es das man nicht mehr bei 1024/768/32 und vollen details spielen kann!

wäre für eine fachliche beratung dankbar!

aths
2004-01-23, 08:51:42
Original geschrieben von DaHard
das ist ein frage die mich schon beschäftigt, da ich mir in naher zukunft eine neue karte gönnen möchte, preis muss ich mal sehen, will mir auch eine kaufen um eine längere zeit ruhe zu haben ohne wieder nächstes jahr was neues kaufen zu müssen!Auf NV4x bzw. R4xx warten. Die werden heutige Karten leistungsmäßig ungefähr um Faktor 2 überbieten.

DaHard
2004-01-23, 08:59:03
in welcher preisklasse werden dann die neuen liegen?
welche preise sind dann bei den jetztigen ungefähr dann zu erwarten?

nun wenn die neue generation 500€ kosten ist das doch recht viel!

aths
2004-01-23, 09:01:54
Original geschrieben von DaHard
in welcher preisklasse werden dann die neuen liegen?
welche preise sind dann bei den jetztigen ungefähr dann zu erwarten?

nun wenn die neue generation 500€ kosten ist das doch recht viel! Die Spitzenprodukte werden wohl 400-500 € kosten. Dafür sinken zwangsläufig bisherige Spitzenprodukte im Preis. Wenn du (wie ich auch) ein eher revolutionärer Aufrüster bist, und kein evolutionärer, sehe ich wenig Sinn darin, einige Monate vor dem Release einer neuen Generation (und nicht nur eines Refreshes) eine neue "große" Graka zu kaufen.

Alternativ kannst du ja auch jetzt eine Mittelklassen-Graka kaufen (5700 Ultra, 9600 Pro) um dann zu warten, bis die NV4x / R4xx-Modelle bezahlbar geworden sind. Wahrscheinlich wird es kurz vor dem Release der neuen Produkte auch im bisherigen HighEnd-Segment preisliche Bewegungen geben, um die Leute zu verführen, jetzt fix noch die Lager leer zu kaufen. Darauf würde ich mich aber nicht unbedingt einlassen.

seahawk
2004-01-23, 09:03:16
Abgesehen von dem was aths gesagt hat, es gibt nicht die definitiv besser Karte. Beide Karten liegen in einer Leistungsklasse, welche individuell besser ist hängt von Deinen Wünschen und Anforderungen ab.

Gast
2004-01-23, 09:09:17
Original geschrieben von DaHard
hallöchen!

welche grafikkarte ist denn definitiv besser?

eine

ati radeon9800pro

cpu takt 380mhz
ram takt 340mhz (680mhzddr)
128mb oder 256mb ram
(270€)


nvidia 5900ultra

cpu takt 450mhz
ram takt 425mhz (850mhz ddr)
256mb ram
(400€ und mehr)


ist nvidia wirklich trotz der höheren mhz besser oder hat ati die nase vorn trotz gerigerer taktung?

das ist ein frage die mich schon beschäftigt, da ich mir in naher zukunft eine neue karte gönnen möchte, preis muss ich mal sehen, will mir auch eine kaufen um eine längere zeit ruhe zu haben ohne wieder nächstes jahr was neues kaufen zu müssen!

habe jetzt schon über 2 jahre eine radeon8500 retail(64) (275/275) im betrieb und kann von ati nicht schlechtes behaupten die karte ist bisher sehr gut gewesen nur bei neuen games merkt man es das man nicht mehr bei 1024/768/32 und vollen details spielen kann!

wäre für eine fachliche beratung dankbar!


Hallo DaHard,

die unterschiedlichen Taktung bei Ati und nv haben Ihren berechtigten Grund.

nv mutet Ihrer Hardware deutlich mehr zu als Ati um auf die gleiche Leistung zu kommen, bzw. den Abstand auf 10-15% Vorteil für Ati nicht grösser werden zu lassen.

Wenn du dir die verwendetete Kühltechnik im Detail anschaust stelltst du fest, das nv einen Doppelkühlung verwenden muß im Gegeteil zu Ati. Dadurch verlierst du bei der nv einen PCI-Steckplatz, der dir bei der Ati-Karte erhalten bleibt.

Bei einer heutigen Kaufentscheidung würde ich aus o.g. Gründen eine Ati-Karte kaufen.

Kauf dir die aktuelle CT, dort findest du noch weitere Details zu den Highendmodellen von Ati und nv.

Dieser Testbericht ist weitesgehend NEUTRAL!!!!!!!!!

Es gibt hier immer den Krieg zwischen nv-Fans und Ati-Fans deswegen gehe ich ich jetzt nicht näher in's Detail!

Die 9800Pro basiert auf dem 9700 und dieser Chip ist schon sehr lange erfolgreich mit DX9-HW-Unterstützung auf dem Markt.

Die FX basiert auf NV30 der auch schon lange auf dem Markt ist, aber mit dem Unterschied da die DX9-Erfahrung in diesem Bereich fehlt.

Zur Zeit hat Ati deutlich mehr Marktanteile in diesem Bereich als nvidia. Mehr als 80% der Gamer entscheiden sich für eine Ati-Karte in diesem Preisbereich.

Grüsse

DaHard
2004-01-23, 09:15:22
nun ich spiele auch sehr gerne am pc und der ist nicht der schlechteste siehe signatur!

nun das beste muss ich nicht haben, ich habe halt viel gutes über die radeon9800pro gelesen und soll im aa/af bereich mehr vorteile haben
die nvidia im vertex shader bereich!

nun das aa/af liegt mir mehr, die karte ist bisher auch sehr erschwinglich 260€ geht mitlerweile, muss aber noch ein bisschen warten bis ich mir die kaufen kann evtl
nvidia ist preislich bei gleicher leitung denke mal um die 50€ teurer wie ich das sehen kann, für die selbe leistung!

ich vermute mal das ist wieder so ein glaubenskrieg zwischen ati und nvidia, verhält sich in etwa so wie amd und intel!

welche erfahrungen hbt ihr mit ati/nvidea so gemacht?
welche vorteile haben die karten so im allgemein von einander?
die eine das besser die andere das besser?

ich weiß sind einige fragen aber diese interessieren mich sehr!

LOCHFRASS
2004-01-23, 09:21:49
Original geschrieben von Gast
nv mutet Ihrer Hardware deutlich mehr zu als Ati um auf die gleiche Leistung zu kommen, bzw. den Abstand auf 10-15% Vorteil für Ati nicht grösser werden zu lassen.

Wann hört es denn endlich auf, die solche Hardware am Takt zu messen? R(V)3x0 und NV3x sind zwei völlig unterschiedlich Architekturen oder erwartest du etwa, dass ein P4 pro Takt so schnell wie ein Banias oder Athlon 64 sein soll? Dafür wird er halt höher getaktet.

Original geschrieben von Gast
Wenn du dir die verwendetete Kühltechnik im Detail anschaust stelltst du fest, das nv einen Doppelkühlung verwenden muß im Gegeteil zu Ati. Dadurch verlierst du bei der nv einen PCI-Steckplatz, der dir bei der Ati-Karte erhalten bleibt.

Nur im Referenz Layout und das benutzt kaum ein Hersteller.

Original geschrieben von Gast Mehr als 80% der Gamer entscheiden sich für eine Ati-Karte in diesem Preisbereich.


lol? Derzeit siehts eher 50/50 aus, die genauen Zahlen hab ich jetzt aber nicht im Kopf.

LOCHFRASS
2004-01-23, 09:25:23
Original geschrieben von DaHard
welche grafikkarte ist denn definitiv besser?

eine

ati radeon9800pro

cpu takt 380mhz
ram takt 340mhz (680mhzddr)
128mb oder 256mb ram
(270€)


nvidia 5900ultra

cpu takt 450mhz
ram takt 425mhz (850mhz ddr)
256mb ram
(400€ und mehr)

Da vergleichst du Äpfel (9800 Pro 128MB) mit Birnen (5900 U 256 MB), bei 128er Karten würde ich die 5900(XT) bevorzugen (weitaus billiger) und bei 256ern die 9800 Pro (schnelleres AA).

LOCHFRASS
2004-01-23, 09:28:36
Original geschrieben von aths
Auf NV4x bzw. R4xx warten. Die werden heutige Karten leistungsmäßig ungefähr um Faktor 2 überbieten.

Ein bisschen optimistisch, sowas wurde schon zu GF 256 Zeiten behauptet, bis diese Situation dann zutraf, waren die Karten schon hoffnungslos veraltet.

Original geschrieben von aths
...5700 Ultra...

Das ist doch wohl nicht dein Ernst? Die 5700 U geht bei 170€ los, für 10€ mehr gibts schon eine 5900XT.

DaHard
2004-01-23, 09:42:42
na da habe ich ja eine diskussion angefangen:D

nun ich möchte leistung im aa/af bereich
soll die ati ja die nase vorn haben und der preis der 9800pro ist doch schon recht verlockend oder?

Endorphine
2004-01-23, 09:50:49
Original geschrieben von DaHard
na da habe ich ja eine diskussion angefangen:D Einen Flame, der zu nichts führt. Du brauchst nur Reviews zu lesen und dich dann entsprechend deinen Präferenzen zu entscheiden.Original geschrieben von DaHard
nun ich möchte leistung im aa/af bereich Leistung? Die hängt bei beiden Features von der Rohleistung (Füllrate, Speicherbandbreite etc.) und vom Verfahren ab. nVidia hat den überlegenen Texturfilter, ATI derzeit das überlegene AA. Pepsi oder Cola?

Sir Integral Wingate Hellsing
2004-01-23, 09:55:41
Original geschrieben von aths
Auf NV4x bzw. R4xx warten. Die werden heutige Karten leistungsmäßig ungefähr um Faktor 2 überbieten.

Wunschdenken.
Mehr ist das Posting net.
Wenn die neuen Chips 15-33% schneller werden, dann ist das schon ne Leistung.

@Threadstarter: Nimm ne R9800 (PRO/XT). Die R9800-Serie sollte dich dieses Jahr und auch noch nächstes Jahr absolut ausreichend bzw Top sein (man erinnere sich an die die immernoch hohe Leistung der R9700 (PRO)).

Gast
2004-01-23, 09:56:18
Ganz genau lieber DaHArd,

du hörst es ja.... es wird behauptet das die grosse Kühllösung nur im Referenz-Design verwendet wird!!!!

So einen Schwachsinn habe ich ja noch nie gehört!

Selbstverständlich ist gerade das Referenzdesign WICHTIG.

Das sind die Mindest-Anforderungen die eingehalten werden müssen! Vorgaben von nv!

Wer sein eigenes Brot backt und einen schwächeren Kühler verwendet geht von einer Haltbarkeit von 6 Monaten aus.

Ich kann dir nur ATI empfehlen!!

nvidia wird erst ab NV4x evtl. den technologischen Unterschied aufholen.

An die nvidia-Fans, lest euch bitte den Testbericht von der CT durch!

Sir Integral Wingate Hellsing
2004-01-23, 09:57:40
Original geschrieben von DaHard
na da habe ich ja eine diskussion angefangen:D

nun ich möchte leistung im aa/af bereich
soll die ati ja die nase vorn haben und der preis der 9800pro ist doch schon recht verlockend oder?

Wenn Du das Geld hast, greif zur R9800 Pro und Du machst garantiert nix falsch.
Eine R9800 XT wäre dagegen schon zu teuer.

Endorphine
2004-01-23, 09:58:44
Original geschrieben von aths
Auf NV4x bzw. R4xx warten. Die werden heutige Karten leistungsmäßig ungefähr um Faktor 2 überbieten. Wenn ich das von dir lese kommt's mir auf der einen Seite vor wie Wunschdenken ("Mist, mir ist AA so wichtig und ein R300/R350 schlägt meine NV25U bei AA um Längen, aber ich will noch warten."). :D

Woher sollte denn abermals verdoppelte Leistung kommen? Beim Sprung NV25 -> R300 war es die mit einem Schlag verdoppelte Speicherbandbreite sowie das effiziente MSAA. Woher sollte bei NV38/R360 -> NV4x/R4xx die nächste Leistungsverdopplung kommen? Doppelte Füllrate - 8x2 Architektur? Dann bin ich mal auf die Wirtschaftlichkeit von GPUs in 130 nm mit 200M+ Transistoren und mehr als 300 MHz Kerntakt gespannt. Der Yield in der Waferproduktion dürfte zu exorbitanten Preisen führen.

Und dann kommt noch das Versprechen der Industrie dazu. Mit schöner Regelmässigkeit wird ja bei jeder neuen Generation das Blaue vom Himmel herunter versprochen. Beim R300 konnte die Leistungssteigerung mal ausnahmsweise eingehalten werden. Vorher blieb von den markigen Verprechen immer wenig in der Praxis übrig. Ich erinnere nur mal an den NV20, der anfangs vom NV15BR geschlagen wurde.

Odal
2004-01-23, 10:01:25
so ist das..da fragt sich denn auch noch was du unter "leistung" einordnest..ist es fuer dich Qualitaet auch eine Leistung?

mit dem AA/AF ist das wie erwaehnt ein zwiespalt...
im AA sind die ATi karten Qualitativ besser und im AF bereich die NVidia Karten...

das liegt zum einen daran das NVidia eine andere AA technik einsetzt und zum anderen das Ati in der hardware eingebaut hat das bei bestimmten winkeln die texturen nichtmehr richtig gefiltert werden.

darum warte noch ein wenig da die neue generation vor der tuer steht ;)

Quasar
2004-01-23, 10:02:41
Wenn du bis jetzt z.B. das AF der R8500 nicht als schlimm störend empfandest, dann sollte die R9800 eher die Karte für dich sein. (Ob pro, non-pro, 128MB oder 256MB entscheidet letztlich dein Geldbeutel).

Die Vorteile des nV lägen eher im Bereich der Texturfilterung (aber wie gesagt, wenn du in diesem Bereich sogar mit der R8500 zufrieden warst, ist die R9800 schon ein guter Sprung nach vorn), in (professionellen) OpenGL-Applikationen (wobei im Spielebereich meist kein kaufentscheidender Unterschied zwischen den beiden vorhanden ist) und darin (und jetzt kommen gleich wieder die Lacher), daß man für ältere Spiele noch die Möglichkeit hat, SuperSampling-AA einzuschalten.

Gast
2004-01-23, 10:09:37
Hi,

du kannst dir 100% SICHER sein das der R4x die doppelte Leistung hat wie der R360.

Begründung:

Der Aktienkurs ist von 6$ auf bis zu 23$ innerhalb der letzten 6 Monate bei Ati gestiegen.

Wenn Ati ankündigt das sie die Leistung Ihrer NEUEN Chipgeneraton verdoppeln ist davon auszugehen das sie es wie beim R300 einhalten.

Alles andere wäre Aktien-Selbstmord. Wo würden sich denn dann die Kurse hinentwickeln???

Weiterhin arbeiten bei Ati 80% der Angestellten als Entwickler, hingegen arbeiten bei nv 80% der Angestellten im Marketing.

Wer das bessere Marketing hat ist klar !
Wer die bessere Technologie hat dürfte auch klar sein!


Grüsse

Quasar
2004-01-23, 10:19:38
Bist du immer derselbe Gast?

Gast
2004-01-23, 10:22:07
Original geschrieben von Gast

Wer das bessere Marketing hat ist klar !
ack!

Wer die bessere Technologie hat dürfte auch klar sein!
leider nein, beide sind in etwa gleich der eine da der andere dort. ... :)


Grüsse

Gast
2004-01-23, 10:38:46
Lies die CT!
Ein Update dürfte deine Wissenslücke gut tun!

(del676)
2004-01-23, 11:05:53
Original geschrieben von DaHard
na da habe ich ja eine diskussion angefangen:D

nun ich möchte leistung im aa/af bereich
soll die ati ja die nase vorn haben und der preis der 9800pro ist doch schon recht verlockend oder?

jo dann würd ich ne ATI nehmen

ich gehe mal davon aus das du maximal 1600x1200 spielst und zum grossteil windows benutzt?

(del676)
2004-01-23, 11:07:44
Original geschrieben von Quasar
Die Vorteile des nV lägen eher im Bereich der Texturfilterung

stimmt das mit den letzten treibern überhaupt noch?

Demirug
2004-01-23, 11:27:05
Original geschrieben von Gast
Lies die CT!
Ein Update dürfte deine Wissenslücke gut tun!

Habe meine jetzt gerade nicht zur Hand. Aber beim Technikteil der zum Teil ja auch Online (http://www.heise.de/ct/04/02/118/) nachzulesen ist haben sich mir die Nägel hochgestellt.

Quasar
2004-01-23, 11:35:16
Original geschrieben von Ulukay
stimmt das mit den letzten treibern überhaupt noch?

Zum größten Teil schon, aber das ist wohl auch persönliche Präferenz geworden. Ich bin zwar momentan auf Matrox G400 unterwegs, aber für meine FX nehme ich normalerweise eher ältere Treiber (44.03 oder 45.23), da ich mir diese eben wegen der Texturfilterung gekauft habe und mir da nix von den reduziert-trilinearen Forceware-Dingern abknabbern lassen will, bis es wirklich so funktioniert, wie von nV angepriesen (was ich nicht glaube, daß es jemals wird).

(del676)
2004-01-23, 11:42:11
Original geschrieben von Quasar
Zum größten Teil schon, aber das ist wohl auch persönliche Präferenz geworden. Ich bin zwar momentan auf Matrox G400 unterwegs, aber für meine FX nehme ich normalerweise eher ältere Treiber (44.03 oder 45.23), da ich mir diese eben wegen der Texturfilterung gekauft habe und mir da nix von den reduziert-trilinearen Forceware-Dingern abknabbern lassen will, bis es wirklich so funktioniert, wie von nV angepriesen (was ich nicht glaube, daß es jemals wird).

eine weise entscheidung ... das mit der matrox :D

Quasar
2004-01-23, 11:58:05
Wieso wußte ich bloß, daß du das sagen würdest? *an_alten_Avatar_erinner*

DaHard
2004-01-23, 12:03:46
Original geschrieben von Ulukay
jo dann würd ich ne ATI nehmen

ich gehe mal davon aus das du maximal 1600x1200 spielst und zum grossteil windows benutzt?

jupp
nutze nur WindowsXPproSP1
derzeit bin ich nicht über 1024/768/32 hinaus gegangen
will aber die auflösunf höher schrauben um möglichst gute qualität beim spielen noch zu erreichen

die r8500 kommt auch in die jahre, funzt auch noch anstandslos, mein pc wird jeden monat 1 mal grundgereinigt (nehme ich selbst vor), von staub und sonst son zeug was sich ansammelt!

so wie sich das hier endwickelt tendiere ich mal wieder zur ati
sollen auch angeblich leiser sein als nvidia karten
kumpel hat eine nvidia weiß jetzt nicht genau welche aber der lüfter ist recht laut wie ein düsenjet, von anfang an!

ow
2004-01-23, 12:07:06
.

StefanV
2004-01-23, 12:10:00
Original geschrieben von ow
Das haengt nur von der jeweiligen Karte ab. Es gibt auch hoellisch laute ATi Karten ebenso wie fluesterleise NVidia Karten.

Hm, soweit ich weiß, sind die Tyans (und Gigabyte) die lautesten...

Aber die kauft sich eigentlich kaum einer :>

Der Unterschied ist allerdings, daß man sich für die Radeons einen sehr leisen Kühler sehr günstig nachkaufen kann (~20€ mit Versand!!), bei den FXen hat man ein mittelschweres Problem, wenn der Stock Kühler Mist ist...

Quasar
2004-01-23, 12:15:45
Ist zwar noch ziemlich inoffiziell, aber =) (http://80.237.203.42/vbulletin/showthread.php?s=&threadid=120017) <- Klick me

Piffan
2004-01-23, 12:55:55
Wie ist das eigentlich: Die Ati gewinnt gewaltig an Performance, wenn ich beim Filtern statt Tri- AF das Bi- AF wähle. Bei der GF4 war der Gewinn eher bei Null. Ist der Sachverhalt bei der FX genau so?

Wenn Dahard mit dem Filtern der 8500 zufrieden war, dann wird er über 4x-8x- BiAF des R300 entzückt sein. Chrome ist ein Spiel mit extremem Füllratenhunger, im Wald und dicht über dem Boden wimmelt es vor Alpha- Texturen (meist blend)...Da bin ich froh, dass ich die Performance durch die Wahl von Bi- AF mächtig steigern kann (Maus lagt weniger).
Bei FarCry habe ich dass bisher noch nicht ausgetestet, könnte aber ähnlich sein. BiAF sieht bei diesen Spielen imho gut aus und schont die Füllrate...

Also: weiß jemand bescheid über die AF- Technik der FX? Schont BiAF die Füllrate oder ist das in den neuen Treibern sowieso schon versteckt aktiv? Ich habe gelesen, dass das Trilineare Filtering der FX "unecht" ist, da nicht in der ganzen räumlichen Tiefe wirksam, sondern nur eine "Weichzeichnung" der Mip- Map- Übergänge durchgeführt wird....

Wenn man schon pauschal behauptet, dass das AF der FX besser sein, dann bitte auch Treiber nennen und Einstellungen, bei denen das auch wirklich stimmt....

Quasar
2004-01-23, 13:01:18
Guckst du hier (http://80.237.203.42/vbulletin/showthread.php?s=&threadid=115704) biste schlauer (vielleicht/hoffentlich). =)

edit:
Original geschrieben von Piffan
Wenn man schon pauschal behauptet, dass das AF der FX besser sein, dann bitte auch Treiber nennen und Einstellungen, bei denen das auch wirklich stimmt....

Wenn's dir am Herzen liegt, werde ich Zukunft behaupten, daß die FXen besseres AF bieten können, welches man per Treiber/Einstellung in etwa auf den Grad an visuellen Einbußen bei den Radeons herunterregeln kann. (Dummerweise bin ich dann wieder ein böser Flame-Boy)

Piffan
2004-01-23, 13:19:06
Original geschrieben von Quasar
Guckst du hier (http://80.237.203.42/vbulletin/showthread.php?s=&threadid=115704) biste schlauer (vielleicht/hoffentlich). =)

edit:


Wenn's dir am Herzen liegt, werde ich Zukunft behaupten, daß die FXen besseres AF bieten können, welches man per Treiber/Einstellung in etwa auf den Grad an visuellen Einbußen bei den Radeons herunterregeln kann. (Dummerweise bin ich dann wieder ein böser Flame-Boy)

Was haben sachliche Feststellungen mit Flames zu tun? Es ist ja Tatsache, und wer sich da aufregt, überschreitet rasch die Schwelle zum Lügner oder Fanatiker (gibts eben auf beiden Seiten).

Die Frage ist allerdings erlaubt, was die Treiber per Default anbieten und ob der nominell bessere Modus tatsächlich hohe Qualität bietet. Nach meinem Kenntnisstand nicht zuletzt von der Treiber- Version abhängig ;)

Demirug
2004-01-23, 13:19:35
Original geschrieben von Piffan
Wie ist das eigentlich: Die Ati gewinnt gewaltig an Performance, wenn ich beim Filtern statt Tri- AF das Bi- AF wähle. Bei der GF4 war der Gewinn eher bei Null. Ist der Sachverhalt bei der FX genau so?

Ja NV25 fehlt der 2 AF-Rechner. In den NV3X ist er AFAIK vorhanden.

Also: weiß jemand bescheid über die AF- Technik der FX? Schont BiAF die Füllrate oder ist das in den neuen Treibern sowieso schon versteckt aktiv? Ich habe gelesen, dass das Trilineare Filtering der FX "unecht" ist, da nicht in der ganzen räumlichen Tiefe wirksam, sondern nur eine "Weichzeichnung" der Mip- Map- Übergänge durchgeführt wird....

Bist du sicher das du da nicht was durcheinander bringst?

Ein Trilineare Filter ist eigentlich immer sowas wie ein Weichzeichner. Bezog sich dieses Aussage wegen der "räumlichen Tiefe" vielleicht auf das Brilinear?

Piffan
2004-01-23, 13:23:40
Original geschrieben von Demirug
Ja NV25 fehlt der 2 AF-Rechner. In den NV3X ist er AFAIK vorhanden.



Bist du sicher das du da nicht was durcheinander bringst?

Ein Trilineare Filter ist eigentlich immer sowas wie ein Weichzeichner. Bezog sich dieses Aussage wegen der "räumlichen Tiefe" vielleicht auf das Brilinear?

Genau, der schöne Terminus war mir entfallen....Brilinear heißt ja recht schmales Trilinear, der Löwenanteil wird ja bilinear gefiltert...

Radeonator
2004-01-23, 13:24:38
Die CT hat andere Stärken, Grakas Testen gehört leider zu den absoluten Schwächen der CT!

Es gibt zig reviews der beiden Karten, wo auch immer fleissig gegeneinander gebenched wird. Bei den erhältichen Games steht es 0:0

Das AA auf ATi HW ist schneller und hübscher
Das AF auf NV ist hübscher und moderat schnell

Ich hatte eine R300 und habe jetzt eine FX5900er, beide Karten gefallen mir nach wie vor sehr gut! Genügend Power für 1Jahr hast du auf jeden Fall mit beiden Karten. Obwohl die nächsten Grakas in den Startlöchern stehen, bleibt da ein Problem :
Damit die next gen Karten ihre Power voll ausspielen können, braucht man höchstwarscheinlich ein PCI Express fähiges Mobo...ergo Wettrüsten :(

Piffan
2004-01-23, 13:26:04
Original geschrieben von Quasar
Guckst du hier (http://80.237.203.42/vbulletin/showthread.php?s=&threadid=115704) biste schlauer (vielleicht/hoffentlich). =)

)[/i]

Schlauer nun nicht gerade, aber besser informiert :D

Saubere Arbeit :up:

betasilie
2004-01-23, 13:33:52
Ich würde die 9800Pro nehmen, weil sie das bessere AA hat, der aniso-Filter nur bei wenigen Spielen sichtlich schlechter filtert, die 9800Pro imho bei möglichst kongruenter Bildqualität schneller ist. *hint* (http://www.3dcenter.org/artikel/ati_nvidia_aa_performance/) ... Wenn man generell in Auflösungen von 1600*1200 und mehr spielt, ist die 5900Ultra ggf. zu bevorzugen. Allerdings muss man beachten, dass man halt nur wenige aktuelle Spiele in 1600*1200 mit 2*AA und hohem AF zocken kann, daher ist die 5900Ultra nur für sehr spezielle User empfehlenswert.

Demirug
2004-01-23, 13:40:04
Original geschrieben von Piffan
Genau, der schöne Terminus war mir entfallen....Brilinear heißt ja recht schmales Trilinear, der Löwenanteil wird ja bilinear gefiltert...

Ja, wobei die Breite des Bands von Treiber zu Treiber, von Texturlage zu Texturlage und von Spiel zu Spiel varieren kann.

Aquaschaf
2004-01-23, 14:04:10
Original geschrieben von Radeonator
Damit die next gen Karten ihre Power voll ausspielen können, braucht man höchstwarscheinlich ein PCI Express fähiges Mobo...ergo Wettrüsten :(

Mich stört eher die Tatsache, dass ich bei einem Mainboard/CPU Upgrade irgendwann gezwungen sein werde gleichzeitig die Grafikkarte aufzurüsten weil meine alte AGP Karte nicht mehr passt.

Quasar
2004-01-23, 14:07:00
Ich könnte mir vorstellen, daß es noch eine ganze Weile AGP-bestückte Mainboards geben wird.

Gast
2004-01-23, 14:22:36
Original geschrieben von aths
Auf NV4x bzw. R4xx warten. Die werden heutige Karten leistungsmäßig ungefähr um Faktor 2 überbieten.

Yep, ich würde auch warten. Es gibt das Gerücht, das der R420 schon am 3.Feb. vorgestellt werden soll. Wenn's stimmt musst du nur 2 Wochen Geduld haben und hast dann einen wesentlich besseren Überblick.

Selbst wenn es später wird, die DX9-Shader der beiden neuen Karten werden wesentlich besser sein als die der alten Karten/Chips. Man spricht so vom Faktor 2. Dadurch sind diese Karten (basierend auf den bisherigen Karten, vor allem der R420) auch für Shaderintensive Spiele/Applikationen geeignet die die jetzigen Karten ziemlich alt aussehen lassen.

+ In 2-3 Monaten ärgerst du dich nur, wenn du jetzt so kurz vor der Vorstellung der neuen Karten unbedacht zu einer alten gegriffen hast. Diese Karten ( R9800XT + FX5950 U ) sind ja auch nicht gerade zum Schnäppchenpreis zu haben.

Gast
2004-01-23, 14:41:41
Original geschrieben von Gast
Yep, ich würde auch warten. Es gibt das Gerücht, das der R420 schon am 3.Feb. vorgestellt werden soll. Wenn's stimmt musst du nur 2 Wochen Geduld haben und hast dann einen wesentlich besseren Überblick.



Entwarnung! Die "Info" war falsch. Es soll angeblich nur der M11 / mobile-R9700 vorgestellt werden.

aths
2004-01-23, 15:06:00
Original geschrieben von Endorphine
Wenn ich das von dir lese kommt's mir auf der einen Seite vor wie Wunschdenken ("Mist, mir ist AA so wichtig und ein R300/R350 schlägt meine NV25U bei AA um Längen, aber ich will noch warten."). :D

Woher sollte denn abermals verdoppelte Leistung kommen?NV4x: 8x2 bi. R420: Meiner Spekulation nach 8x1 tri. NV40 hat ca. 175 Mio Transistoren, da ist eine Leistungsverdopplung drin. Ich traue ATI dies ebenso zu. Wir reden immerhin von jeweils einer neuen Generation. Beispiel R100, R200, R300, da wurde die Leistung wohl mehr als nur verdoppelt.

Dass GF2U in 16 Bit, ohne Anti-Aliasing, GF3 schlägt, mag sein, aber wen interessiert das??

Demirug
2004-01-23, 15:45:29
Original geschrieben von aths
NV4x: 8x2 bi. R420: Meiner Spekulation (http://80.237.203.42/vbulletin/forumdisplay.php?s=&forumid=55) nach 8x1 tri. NV40 hat ca. 175 Mio Transistoren, da ist eine Leistungsverdopplung drin. Ich traue ATI dies ebenso zu. Wir reden immerhin von jeweils einer neuen Generation. Beispiel R100, R200, R300, da wurde die Leistung wohl mehr als nur verdoppelt.

Hier :nono:

ow
2004-01-23, 15:57:46
.

deekey777
2004-01-23, 15:59:59
Original geschrieben von DaHard
hallöchen!

welche grafikkarte ist denn definitiv besser?

...



wäre für eine fachliche beratung dankbar!

Fachliche Beratung? Vergiss es!
Am besten nimmst du eine Münze: auf der einer Seite malst ein "A", auf der anderen ein "N". Dann wirbelst du sie durch die Luft, wartest bis sie auf dem Boden landet. Welcher Buchstabe oben ist, beantwortet deine Frage.

StefanV
2004-01-23, 16:05:48
Original geschrieben von ow
...und ASUS und Hercules und.... ich empfehle mal eine Blick in die aktuelle c't.


Die Hercules ist durchaus erträglich.
Woher ich das weiß??
Hab hier selbst 'nen CUV2AB liegen...

Original geschrieben von ow
DAS halte ich für ein Gerücht.
Und dass ~110Mio Transistoren in 0.15µ kühl bleiben -> :lol:

Hm, irgendwie hast du mein Posting falsch verstenden, würd ich mal sagen :|
Vermutlich dachtest du an ein anderes Bauteil als ich...

ow
2004-01-23, 16:12:41
.

Blue
2004-01-23, 16:15:34
@deekey777

;D Genial! Ich finde das sollte als Standardantwort auf diese Frage genommen werden.


mfg
Blue

StefanV
2004-01-23, 16:23:22
Original geschrieben von ow
An was dachtest du denn?

Ich dachte eigentlich an den Kühler...

Und mal ehrlich, wenn ein Kühler, der fast so groß wie die Karte ist und 'nen ganzen Slot verschlingt, wenn der nicht gut Kühlt, dann hat irgendwer großen Mist gebaut...

Der VGA Silencer, von dem ich sprach, hat eine Oberfläche, die meist größer ist als bei CPU Kühlern...

Riptor
2004-01-23, 16:25:37
Original geschrieben von Blue
@deekey777

;D Genial! Ich finde das sollte als Standardantwort auf diese Frage genommen werden.

Und wozu dann noch ein Forum? :naughty:

Endorphine
2004-01-23, 16:26:34
Original geschrieben von aths
NV4x: 8x2 bi. R420: Meiner Spekulation nach 8x1 tri. NV40 hat ca. 175 Mio Transistoren, da ist eine Leistungsverdopplung drin. Ich traue ATI dies ebenso zu. Das ist alles Spekulation von deiner Seite. Gesichert ist das nicht. Du formulierst es aber (auch hier) wieder so, als ob das ein Fakt wäre. Ich zweifle einfach mal ganz stark an, dass du bereits eine NV4x Karte selbst testen konntest. Hier - du stellst es als Fakt hin, obwohl es eine nicht gesicherte Spekulation ist: Original geschrieben von aths
Auf NV4x bzw. R4xx warten. Die werden heutige Karten leistungsmäßig ungefähr um Faktor 2 überbieten. Original geschrieben von aths
Wir reden immerhin von jeweils einer neuen Generation. Beispiel R100, R200, R300, da wurde die Leistung wohl mehr als nur verdoppelt. Beim R300: ACK. Bei den Vorgängern: NACK. Wobei bei den ATI-Karten die Sprünge natürlich kräftiger ausfallen, weil ATI lange Zeit nur sehr grosse Entwicklungszyklen hatte. Welche Rolle spielte ATI aber vor dem R300? Eher eine Nebenrolle imho. Bei NV wurde immer viel versprochen und doch vielen die Sprünge zur Vorgängergeneration eher mässig aus. Original geschrieben von aths
Dass GF2U in 16 Bit, ohne Anti-Aliasing, GF3 schlägt, mag sein, aber wen interessiert das?? Es geht nicht darum, ob das jemanden interessiert. Es soll nur exemplarisch zeigen, dass GPU-Hersteller dem Kunden alles versprechen und davon in der Praxis wenig übrig bleibt. Ich weiss nicht auf welcher Grundlage du das NV4x/R4xx-Preview schreibst, aber wenn es Marketingdokumente sein sollten bin ich erst einmal sehr skeptisch.

Die "Leistung" mag dann in ein paar Spezialfällen um durchaus 100% und mehr ggü. dem NV38 ansteigen. Dass bei den Anwendungen (das impliziert dein Posting imho) >100% Mehrleistung ankommt wage ich weiterhin ganz stark zu bezweifeln.

Es ist ja nicht so, dass die NV-Entwickler einfach mit ein paar Mausclicks in der richtigen IC-Konstruktionsbibliothek mal eben aus 4x2/8x1 ein 8x2-Design backen können. Zudem wird allein schon die exorbitante IC-Fläche die Taktfrequenz begrenzen, so dass auch das den Anwendungsleistungsgewinn beschneiden wird.

Ich bin auf Benchmarks gespannt und werde dich dann ggf. an dein Posting erinnern. :)

Endorphine
2004-01-23, 16:29:23
Original geschrieben von Radeonator
Die CT hat andere Stärken, Grakas Testen gehört leider zu den absoluten Schwächen der CT! Es ist imho alles eine Frage des Wissens-/Erfahrungsniveaus des Lesers. Die c't spricht mittlerweile die Breite Masse der PC-Besitzer an. Da kann man imho nicht mehr erwarten, dass jeder Artikel Universitätsniveau hat, wie früher mal üblich.

Insgesamt sind die Grafikkartentests aber wohl noch mit die fundiertesten in der Printpresse. Es gibt schlicht keine Konkurrenz, die an 3DC-/B3D-Qualität herankommen könnte. ;(

ow
2004-01-23, 16:36:33
.

Quasar
2004-01-23, 16:40:24
Original geschrieben von aths
Wir reden immerhin von jeweils einer neuen Generation. Beispiel R100, R200, R300, da wurde die Leistung wohl mehr als nur verdoppelt.

Mal unabhängig davon, wem ich was zutraue und ob das so stimmt, wie du schreibst, aber meinst du nicht, daß es leichter ist, von einem, sagen wir mal mittelmäßigen Produkt aus eine Verdoppelung eher in Frage kommt, als von einem ohnehin schon sehr guten?

Das ist jedenfalls meine Meinung und da die R9700/9800 schon ziemlich gut sind (im Gegensatz zum R100 und R200), dürfte es ATi hier deutlich schwerer haben, während bei nV noch viel zu verbessern ist, so daß es diesesmal sie es sein dürften, bei denen es leichter fällt, die Leistung wenn nicht zu verdoppeln, so doch relativ deutlich zu erhöhen.

Endorphine
2004-01-23, 16:43:31
Original geschrieben von Quasar
Mal unabhängig davon, wem ich was zutraue und ob das so stimmt, wie du schreibst, aber meinst du nicht, daß es leichter ist, von einem, sagen wir mal mittelmäßigen Produkt aus eine Verdoppelung eher in Frage kommt, als von einem ohnehin schon sehr guten?

Das ist jedenfalls meine Meinung und da die R9700/9800 schon ziemlich gut sind (im Gegensatz zum R100 und R200), dürfte es ATi hier deutlich schwerer haben, während bei nV noch viel zu verbessern ist, so daß es diesesmal sie es sein dürften, bei denen es leichter fällt, die Leistung wenn nicht zu verdoppeln, so doch relativ deutlich zu erhöhen. Das Gesetz des abnehmenden Ertrages. Nenn' das Kind doch beim Namen. :)

aths
2004-01-23, 16:45:05
Original geschrieben von Quasar
Das ist jedenfalls meine Meinung und da die R9700/9800 schon ziemlich gut sind (im Gegensatz zum R100 und R200), dürfte es ATi hier deutlich schwerer haben, während bei nV noch viel zu verbessern ist, so daß es diesesmal sie es sein dürften, bei denen es leichter fällt, die Leistung wenn nicht zu verdoppeln, so doch relativ deutlich zu erhöhen. ATI muss nur zu jeder Pipe die Rechenunits verdoppeln, und die TMUs auf tri-TMUs aufbohren. Schon wird doppelte Leistung geboten.

DrumDub
2004-01-23, 16:49:58
Original geschrieben von Demirug
Habe meine jetzt gerade nicht zur Hand. Aber beim Technikteil der zum Teil ja auch Online (http://www.heise.de/ct/04/02/118/) nachzulesen ist haben sich mir die Nägel hochgestellt.

alllerdings. warum dieser eine gewisse redakteur immer noch bei der ct ist, versteh ich irgendwie nicht...

Demirug
2004-01-23, 16:50:03
Original geschrieben von Endorphine
Es ist imho alles eine Frage des Wissens-/Erfahrungsniveaus des Lesers. Die c't spricht mittlerweile die Breite Masse der PC-Besitzer an. Da kann man imho nicht mehr erwarten, dass jeder Artikel Universitätsniveau hat, wie früher mal üblich.

Die ct hat den grossen Vorteil das sie relative viele Druckseiten pro Jahr füllen kann. Mit Seiten ist das wie mit RAM. Man kann nie genügend davon haben.

Ich erwarte ja gar kein "Universitätsniveau". Zum Teil wäre das wohl auch ein Rückschritt wenn man sie die Vorlesungen zum Thema 3D-Grafikkarten so ansieht. Was ich allerdings erwarte ist das man sich ernsthaft bemüht korrekte Information zu vermitteln. Natürlich setzt auch hier der Platz eine Grenze und man muss simplifizieren. Treibt man das allerdings zu weit entstehen plötzlich Dinge die gar nicht mehr den Tatsachen entsprechen. Gerade bei der Pixel-Pipeline des NV35 sind in dem besagten ct Artikel reihenweise Fehler.

Demirug
2004-01-23, 16:53:15
Original geschrieben von aths
ATI muss nur zu jeder Pipe die Rechenunits verdoppeln, und die TMUs auf tri-TMUs aufbohren. Schon wird doppelte Leistung geboten.

Nein. Nur wenn sie die Pixelprozessoren komplett verdoppeln erhöht sich auch die Leistung um fast das doppelte.

Mehr Recheneinheiten in der gleichen Pipeline verringer den Wirkungsgrad weil der nicht nutzbare Anteil steigt.

Quasar
2004-01-23, 16:56:39
Original geschrieben von Endorphine
Du formulierst es aber (auch hier) wieder so, als ob das ein Fakt wäre.
Ich finde, wenn er schreibt "nach meiner Spekulation" ist das konjunktiv genug. :)

Original geschrieben von Endorphine
Die "Leistung" mag dann in ein paar Spezialfällen um durchaus 100% und mehr ggü. dem NV38 ansteigen. Dass bei den Anwendungen (das impliziert dein Posting imho) >100% Mehrleistung ankommt wage ich weiterhin ganz stark zu bezweifeln.
Man mag sich an den von nV als mit doppelter FP32-Shaderpower ausgestattet beworbenen nV36 erinnern. Ich mache gerade ein paar Vergleiche zum nV30 und da sieht das Ding trotz CineFX2.0 (was kaum irgendwo genutzt wird) wider erwarten ziemlich bescheiden aus.

Quasar
2004-01-23, 16:58:54
Original geschrieben von aths
ATI muss nur zu jeder Pipe die Rechenunits verdoppeln, und die TMUs auf tri-TMUs aufbohren. Schon wird doppelte Leistung geboten.

Dein "nur" klingt ein wenig zu simpel. Oder würdest du mir abseits von theoretischen Rechenbeispielen beipflichten, wenn ich sagte (und als reale Möglichkeit implizierte), nV müsse nur Chip- und Speichertakt verdoppeln, um die doppelte Leistung zu bieten?

Beides finde ich recht unrealistisch und an 0,65µ-Herstellung glaube ich dieses Jahr noch nicht bei ICs >150M Transistoren.

Quasar
2004-01-23, 17:01:33
Original geschrieben von Demirug
Gerade bei der Pixel-Pipeline des NV35 sind in dem besagten ct Artikel reihenweise Fehler.

In der c't sind bei jedem größeren Grafikkartentest in diesem Jahr mittlere bis schwere Fehler enthalten. Für das Niveau, welches ich von der c't gewohnt war und wegen dem ich sie abonniert habe, erwarte ich durchaus ein wenig mehr Differenziertheit, als das, was die Herren in der Grafikabteilung zuwege bringen.

Mehrfache Mails wurden bislang gekonnt ignoriert.

LovesuckZ
2004-01-23, 17:02:30
Original geschrieben von Quasar
Ich mache gerade ein paar Vergleiche zum nV30 und da sieht das Ding trotz CineFX2.0

Welche Anwendungen?

zeckensack
2004-01-23, 17:03:48
Original geschrieben von aths
ATI muss nur zu jeder Pipe die Rechenunits verdoppeln, <...>Spassfragen:
1)Wenn du die Wahl hast zwischen 8x1 und 4x2, beides mit fetten Loopbacks und gleichem Takt, was performt besser?
2)Lässt sich die Antwort auf Frage 1 evtl auf deinen Vorschlag übertragen?

Demirug
2004-01-23, 17:04:45
Original geschrieben von Quasar
Man mag sich an den von nV als mit doppelter FP32-Shaderpower ausgestattet beworbenen nV36 erinnern. Ich mache gerade ein paar Vergleiche zum nV30 und da sieht das Ding trotz CineFX2.0 (was kaum irgendwo genutzt wird) wider erwarten ziemlich bescheiden aus.

Das dumme für nVidia ist das im NV35 wirklich die doppelte FP32 Rechenpower vorhanden ist. Eigentlich sogar bis zum 3 fache. Da man aber einen anderen Flaschenhals nur notdürftig (wenn überhaupt) breiter gemacht hat ist der durchschnittliche Wirkungsgrad noch schlechter geworden. So bekommt man die Leistung nur in wenigen Fällen voll auf den Bildschirm.

Quasar
2004-01-23, 17:05:58
Original geschrieben von LovesuckZ
Welche Anwendungen?

Ähem... ziemlich viele. Sorry, aber alle aufzuzählen, dazu fehlt mir jetzt Lust und Zeit, aber einen kleinen Überblick kriegst du schonmal hier (http://www.computerbase.de/artikel/hardware/grafikkarten/radeon_7500_9800_pro/7/#benchmarks).

Dazu noch einige Shader-intensive Applikationen.

Quasar
2004-01-23, 17:07:59
Original geschrieben von Demirug
Das dumme für nVidia ist das im NV35 wirklich die doppelte FP32 Rechenpower vorhanden ist. Eigentlich sogar bis zum 3 fache. Da man aber einen anderen Flaschenhals nur notdürftig (wenn überhaupt) breiter gemacht hat ist der durchschnittliche Wirkungsgrad noch schlechter geworden. So bekommt man die Leistung nur in wenigen Fällen voll auf den Bildschirm.

Jo. Du weißt ja, daß ich schon einiges versucht habe, um die "doppelte Shaderpower"* des nV36 irgendwie sichtbar zu machen :D , allein, bisher sind mir nur vage Andeutungen dazu gelungen.


*die ja dann in etwa vergleichbar zu der des nV30 sein dürfte

LovesuckZ
2004-01-23, 17:09:29
Original geschrieben von Quasar
Dazu noch einige Shader-intensive Applikationen.

Und welche davon benutzen PS2.0?
Imo habe ich Ergebnisse der 5700U vom Shadermark2.0 in Errinerung, die in der naehe der 5800 liegen.

Endorphine
2004-01-23, 17:10:40
Original geschrieben von Demirug
Die ct hat den grossen Vorteil das sie relative viele Druckseiten pro Jahr füllen kann. Mit Seiten ist das wie mit RAM. Man kann nie genügend davon haben. Naja, mir wäre Klasse statt Masse lieber. Wobei die c't ja schon Mitte der 90er sehr umfangreich war. In der allgemeinbildenden Schule wurde ich damals gebeten, mal "den Katalog" bei Seite zu legen. :D Original geschrieben von Demirug
Ich erwarte ja gar kein "Universitätsniveau". Zum Teil wäre das wohl auch ein Rückschritt wenn man sie die Vorlesungen zum Thema 3D-Grafikkarten so ansieht. Was ich allerdings erwarte ist das man sich ernsthaft bemüht korrekte Information zu vermitteln. Natürlich setzt auch hier der Platz eine Grenze und man muss simplifizieren. Treibt man das allerdings zu weit entstehen plötzlich Dinge die gar nicht mehr den Tatsachen entsprechen. Gerade bei der Pixel-Pipeline des NV35 sind in dem besagten ct Artikel reihenweise Fehler. Du kannst Manfred Bertuch ja mal ne Mail schreiben. :) Die Heise-Redakteure sind nach meinen Erfahrungen Feedback nicht abgeneigt, man kann direkt mit denen mailen, selbst mit dem Chefredakteur Christian Persson hatte ich mal Kontakt.

Endorphine
2004-01-23, 17:13:48
Original geschrieben von Quasar
Ich finde, wenn er schreibt "nach meiner Spekulation" ist das konjunktiv genug. :) Das sagte er ja nur zu seinen Radeon-Angaben. Aber nicht zum NV40. Ich wäre einfach deutlich vorsichtiger, nicht gesicherten Behauptungen als Fakten hinzustellen wie aths. Original geschrieben von Quasar
Man mag sich an den von nV als mit doppelter FP32-Shaderpower ausgestattet beworbenen nV36 erinnern. Ich mache gerade ein paar Vergleiche zum nV30 und da sieht das Ding trotz CineFX2.0 (was kaum irgendwo genutzt wird) wider erwarten ziemlich bescheiden aus. Hmm, der NV36 müsste doch eh' nur bei Vertexshadern die doppelte Leistung erreichen, oder? Bei Pixelshadern nicht. Da verspricht nVidia imho nicht zu viel.

Demirug
2004-01-23, 17:21:36
Original geschrieben von Endorphine
Hmm, der NV36 müsste doch eh' nur bei Vertexshadern die doppelte Leistung erreichen, oder? Bei Pixelshadern nicht. Da verspricht nVidia imho nicht zu viel.

Rein mathematisch gesehen hat Quasar schon recht.

Es gilt:

NV35 = doppelte FP32 Leistung wie NV30
NV36 = halber NV35

NV35 = 2 * NV30
NV36 = NV35 /2

NV36 = (2 * NV30) / 2

NV36 = NV30

Allerdings hat ja CineFX II, wie ich schon sagte, einen noch schlechteren Wirkungsgrad als CineFX I.

Demirug
2004-01-23, 17:24:10
Original geschrieben von Endorphine
Naja, mir wäre Klasse statt Masse lieber. Wobei die c't ja schon Mitte der 90er sehr umfangreich war. In der allgemeinbildenden Schule wurde ich damals gebeten, mal "den Katalog" bei Seite zu legen. :D

Wenn man den Platz sinnvoll füllt ist es ja nicht zum Schaden der Leser.

Du kannst Manfred Bertuch ja mal ne Mail schreiben. :) Die Heise-Redakteure sind nach meinen Erfahrungen Feedback nicht abgeneigt, man kann direkt mit denen mailen, selbst mit dem Chefredakteur Christian Persson hatte ich mal Kontakt.

Das würde in meiner derzeitigen Situation wohl weniger gut kommen.

Endorphine
2004-01-23, 17:28:24
Den Gedankengang von Quasar hatte ich schon verstanden (glaube ich zumindest http://80.237.203.42/vbulletin/images/icons/icon12.gif). Aber danke für die nochmalige kleine Rechnung.
Original geschrieben von Demirug
[...]
Allerdings hat ja CineFX II, wie ich schon sagte, einen noch schlechteren Wirkungsgrad als CineFX I. Was ich nicht verstehe: wenn dir das so klar ist, dass der Wirkungsgrad von CineFX 2.0 so übel ist - wieso konstruiert nVidia das dann so? Ich setze mal voraus, dass die Entwickler noch etwas mehr von ihrer eigenen Architektur verstehen als du. ;)

Quasar
2004-01-23, 17:29:45
Original geschrieben von LovesuckZ
Und welche davon benutzen PS2.0?
Imo habe ich Ergebnisse der 5700U vom Shadermark2.0 in Errinerung, die in der naehe der 5800 liegen.
Hab's mir grad mal angeschaut, war aber nur mit dem Standard-PS2.0-Profil und auch noch mit unterschiedlichen Treibern (nV30: 52.16 und nV36: 53.03).

Da sah's auch nicht gut aus für den nV36, obwohl man schon deutlich sehen konnte, daß hier das Verhältnis zumindest nicht so deutlich war, wie in richtigen Games, die neben Shadern auch noch ein bißchen "normales" Rendering einsetzen. Von 20 bis 66% Mehrleistung des nV30 war alles dabei im SM2.0.
Der nV30u liegt beim SM2.0 mit PS2.0-Profil etwa in der Mitte zwischen nV36u und nV38. Ob das etwas sinnvolles aussagt.... zumindest normale Spiele sagen da eher anderes.


@Endo:
im Vergleich zum nV30 sind die Vertexshader nahezu gleichwertig (nur benachteiligt durch den geringeren Takt), als "kleine CAD-Karte" wäre der nV36 also eine sehr preiswerte Empfehlung (wie die R9500 auch), aber im PS-Bereich... Hm.

Demirug
2004-01-23, 17:39:23
Original geschrieben von Endorphine
Den Gedankengang von Quasar hatte ich schon verstanden (glaube ich zumindest http://80.237.203.42/vbulletin/images/icons/icon12.gif). Aber danke für die nochmalige kleine Rechnung.
Was ich nicht verstehe: wenn dir das so klar ist, dass der Wirkungsgrad von CineFX 2.0 so übel ist - wieso konstruiert nVidia das dann so? Ich setze mal voraus, dass die Entwickler noch etwas mehr von ihrer eigenen Architektur verstehen als du. ;)

Die verstehen auf jeden Fall mehr davon als ich. Sonst hätten wir heute schon einen echten Dreikampf auf dem Sektor.

Beim Umbauen von CineFX I nach Cine FX II konnte man ja in Anbetracht das es sich nur um einen Refresh-Chip handelt nicht die ganze Pipeline umbauen. Umbauen in dem Sinn das man Einheiten in der Anordnung verschiebt. Für diesen Refresh hatte man nun eine Menge an Transitoren zur Verfügung. nVidia hat sich dann dazu entschlossen die für die Pixelprozessoren zur Verfügung stehende Menge in Rohleistung zu investieren. Zur Verbesserung des Wirkungsgrads war dann nichts mehr übrig.

Riptor
2004-01-23, 18:12:53
Original geschrieben von Demirug
Die verstehen auf jeden Fall mehr davon als ich. Sonst hätten wir heute schon einen echten Dreikampf auf dem Sektor.

Nanana, nicht so bescheiden. :naughty:

Beim Umbauen von CineFX I nach Cine FX II konnte man ja in Anbetracht das es sich nur um einen Refresh-Chip handelt nicht die ganze Pipeline umbauen. Umbauen in dem Sinn das man Einheiten in der Anordnung verschiebt. Für diesen Refresh hatte man nun eine Menge an Transitoren zur Verfügung. nVidia hat sich dann dazu entschlossen die für die Pixelprozessoren zur Verfügung stehende Menge in Rohleistung zu investieren. Zur Verbesserung des Wirkungsgrads war dann nichts mehr übrig.

Konseqeunterweise ist CineFX II aber CineFX I dennoch überlegen, was "reale" Anwendungen angeht, oder? Oder hat nVidia gesehen, dass sie damit sowieso auf keinen grünen Ast mehr kommen und haben nur noch auf die Rohleistung wert gelegt?

Demirug
2004-01-23, 19:12:52
Original geschrieben von Riptor
Konseqeunterweise ist CineFX II aber CineFX I dennoch überlegen, was "reale" Anwendungen angeht, oder? Oder hat nVidia gesehen, dass sie damit sowieso auf keinen grünen Ast mehr kommen und haben nur noch auf die Rohleistung wert gelegt?

Die Rohleistungs ist um ein grösseres Mass gestiegen als der durchschnittliche Wirkungsgrad gefallen ist.

aths
2004-01-23, 19:28:39
Original geschrieben von zeckensack
Spassfragen:
1)Wenn du die Wahl hast zwischen 8x1 und 4x2, beides mit fetten Loopbacks und gleichem Takt, was performt besser?
2)Lässt sich die Antwort auf Frage 1 evtl auf deinen Vorschlag übertragen? An eine 16x1-Architektur glaube ich nicht. Sicher nicht unmöglich, hielte ich aber für wenig wahrscheinlich. Wird auch langsam ineffizient, es sei denn, die können an verschiedenen Dreiecken rendern.

Ab trilinear ist es egal, ob 8x1 oder 4x2 :)

aths
2004-01-23, 19:36:35
Original geschrieben von Quasar
Dein "nur" klingt ein wenig zu simpel. Oder würdest du mir abseits von theoretischen Rechenbeispielen beipflichten, wenn ich sagte (und als reale Möglichkeit implizierte), nV müsse nur Chip- und Speichertakt verdoppeln, um die doppelte Leistung zu bieten?Oder die Architektur um Faktor 2 aufzubohren.

Geht nicht? Gibt's nicht. Beispiel NV5 -> NV10.

Quasar
2004-01-23, 19:47:24
Du meinst also, daß man sich damals, in den Anfängen der 3D-Beschleunigung und ohne die hammerharte Konkurrenz heutiger Tage schon genauso dicht am technischen Limit der Chipfertigung bewegt hat, wie heute? :|

BTW, ist dein Posting keine Antwort auf meine Frage gewesen.

betasilie
2004-01-23, 19:53:19
Ihr dürft ruhig splitten. ;)

Demirug
2004-01-23, 20:04:12
Original geschrieben von aths
An eine 16x1-Architektur glaube ich nicht. Sicher nicht unmöglich, hielte ich aber für wenig wahrscheinlich. Wird auch langsam ineffizient, es sei denn, die können an verschiedenen Dreiecken rendern.

Ab trilinear ist es egal, ob 8x1 oder 4x2 :)

Geh mal weg von den Texturfilter und denke mehr über das verrechnen der Samples nach.

Mehr als ein Dreick auf einmal dürfte kein Problem sein. Bei nVidia arbeitet der Pixelprozessor an Pixeln aus bis zu 32 Dreicken gleichzeitig. Wäre das nicht so würde das Teil noch schlimmer versumpfen.

aths
2004-01-23, 20:20:12
Original geschrieben von Quasar
Du meinst also, daß man sich damals, in den Anfängen der 3D-Beschleunigung und ohne die hammerharte Konkurrenz heutiger Tage schon genauso dicht am technischen Limit der Chipfertigung bewegt hat, wie heute? :|

BTW, ist dein Posting keine Antwort auf meine Frage gewesen. Doch, aber auf die aths-Art :kicher: Das "Oder" am Satzanfang meint: "Ja. Oder eben ..."

Die Anfänge der 3D-Beschleunigung würde ich in die Zeiten des S3 Virge DX oder so legen.

Original geschrieben von Demirug
Mehr als ein Dreick auf einmal dürfte kein Problem sein. Bei nVidia arbeitet der Pixelprozessor an Pixeln aus bis zu 32 Dreicken gleichzeitig. Wäre das nicht so würde das Teil noch schlimmer versumpfen. Das wusste ich noch nicht.

Original geschrieben von Demirug
Geh mal weg von den Texturfilter und denke mehr über das verrechnen der Samples nach. Dieses Multitexturing-und-Filtern-per-Loopback-Denken hat sich bei mir tief einschliffen ... Im Moment ist für meine Ansprüche Shaderpower zweitrangig. Ich will trilineare Multitexturing-Füllrate für hohe Auflösungen.

mrdigital
2004-01-23, 20:39:41
Ich denke, dass die Grafikchiphersteller sich in Zukunft auf mehr Shader-Leistung konzentrieren werden und nicht die Texturleistung weiter im primären Fokus haben werden, da es mit mehr Shaderleistung eben auch die Möglichkeit der prozeduralen Textur gibt und dadurch die Notwendigkeit, mehr klassische Texturleistung zur Verfügung zu stellen, sinken wird. Aber das spekulier ich halt mal so vor mich hin ;)...

aths
2004-01-23, 20:58:02
Original geschrieben von mrdigital
Ich denke, dass die Grafikchiphersteller sich in Zukunft auf mehr Shader-Leistung konzentrieren werden und nicht die Texturleistung weiter im primären Fokus haben werden, da es mit mehr Shaderleistung eben auch die Möglichkeit der prozeduralen Textur gibt und dadurch die Notwendigkeit, mehr klassische Texturleistung zur Verfügung zu stellen, sinken wird. Aber das spekulier ich halt mal so vor mich hin ;)... Das denke ich auch. Allerdings wird "herkömmliche" Füllrate deswegen nicht unwichtig, im Verhältnis nimmt die Wichtigkeit von arithmetischer Shaderleistung natürlich zu.

zeckensack
2004-01-23, 21:33:41
Original geschrieben von aths
An eine 16x1-Architektur glaube ich nicht. Sicher nicht unmöglich, hielte ich aber für wenig wahrscheinlich. Wird auch langsam ineffizient, es sei denn, die können an verschiedenen Dreiecken rendern.

Ab trilinear ist es egal, ob 8x1 oder 4x2 :) Also da könntsch' ausrastn!! :jedifire:
War doch eine ganz einfach Frage: Was ist bei ansonsten gleichen Bedingungen besser, 4x2 oder 8x1?

Antwort: 8x1. Warum? Granularität. Ich bin nicht auf geradzahlige wasauchimmer angewiesen, um Vollauslastung zu erreichen.

Zweite ganz einfache Frage: kann man diese Erkenntnis auf Shader-Architekturen übertragen? Antwort: ja, kann man.
Wir wollen den Gesamt-Durchsatz steigern. Ops*Pixel/Sekunde. Anstatt nun Transistoren 'hinten dran' zu bauen, um jeweils zwei Instruktionen hintereinander ausführen zu können, geht man besser in die Breite. Wenn diese Möglichkeit ausgeschöpft ist (Transistor-Budget und/oder das Gesetz des abnehmenden Ertrags), dann muss man den Takt erhöhen (was uU am leichtesten durch zusätzliche Transistoren zu erreichen ist).

aths
2004-01-23, 21:45:24
Original geschrieben von zeckensack
Also da könntsch' ausrastn!! :jedifire:
War doch eine ganz einfach Frage: Was ist bei ansonsten gleichen Bedingungen besser, 4x2 oder 8x1?

Antwort: 8x1. Warum? Granularität. Ich bin nicht auf geradzahlige wasauchimmer angewiesen, um Vollauslastung zu erreichen.Wenn du bilinear filterst, haste recht. Einige Lookups werden vielleicht noch bilinear gefiltert ... :flöt:
Original geschrieben von zeckensack
Zweite ganz einfache Frage: kann man diese Erkenntnis auf Shader-Architekturen übertragen? Antwort: ja, kann man.
Wir wollen den Gesamt-Durchsatz steigern.Genau. Innerhalb eines Transistor-Budgets. Ich meine, auch in der Vergangenheit ging man immer wieder diese Kompromisse mit x2 ein. (Bzw. x3 im R300, bzw. x4 bei Parhelia, bzw. x5, bei den PS-Stages bei Parhelia.) In die Tiefe zu gehen, ist ein alter Trick. R300 hat pro Pipe nur 2 ROPs. Um in die Breite gehen zu können, waren woanders Kompromisse notwendig. (FP24, Texturfilter, ...)
Original geschrieben von zeckensack
Ops*Pixel/Sekunde. Anstatt nun Transistoren 'hinten dran' zu bauen, um jeweils zwei Instruktionen hintereinander ausführen zu können, geht man besser in die Breite.Sofern man mehrere Dreiecke gleichzeitig bearbeiten kann, ja. Sofern die Transistoren ausreichen, in die Breite zu gehen, wird man das tun. ATI hat's schon beim R300 gemacht. Es würde mich (freudig) überraschen, wenn sie das jetzt wieder tun.
Original geschrieben von zeckensack
Wenn diese Möglichkeit ausgeschöpft ist (Transistor-Budget und/oder das Gesetz des abnehmenden Ertrags), dann muss man den Takt erhöhen (was uU am leichtesten durch zusätzliche Transistoren zu erreichen ist). Oder man geht in die Tiefe :)

DaHard
2004-01-23, 23:20:34
ist ja echt eine rege diskussion hier :D

ich denke mal ich habe mich vorerst endschieden und tendiere zur 9800pro
denke vom preis her auch völlig ok
und denke das ich erst mal 2 jahre wieder ruhe haben werde!

LovesuckZ
2004-01-24, 07:26:43
Original geschrieben von DaHard
denke das ich erst mal 2 jahre wieder ruhe haben werde!

Nicht wirklich.
Die Technik dahin ist ja schon fast 1 1/2 Jahre alt und damit auch schon ein wenig "angestaubt".
Wenn du wirklich längerfristig mit einer Karte auskommen moechtes, musstdu wohl oder weniger auf die naechsten "Next-Gen" Karten warten.

Riptor
2004-01-24, 10:45:18
Original geschrieben von DaHard
und denke das ich erst mal 2 jahre wieder ruhe haben werde!

Jop, 2 Jahre wirste mit der Karte auf jeden Fall Ruhe haben, danach kannste dich dann wieder auf die Suche machen. :)

aths
2004-01-24, 11:36:58
Original geschrieben von Riptor
Jop, 2 Jahre wirste mit der Karte auf jeden Fall Ruhe haben, Das möchte ich doch bezweifeln. Mit Ausnahme seltener Glücksfälle (Radeon 9700, und 9700 Pro) hält fast nichts 2 Jahre.

betasilie
2004-01-24, 14:50:29
Original geschrieben von aths
Das möchte ich doch bezweifeln. Mit Ausnahme seltener Glücksfälle (Radeon 9700, und 9700 Pro) hält fast nichts 2 Jahre.
Full Ack. ... Der Zeitpunkt für R3xx ist etwas zu spät, wenn er 2 Jahre halten sollte (jedenfalls mit wirklich guter Performance)

Meine 9700er, die ja nicht gerade mit Standardtakt läuft, gehört wohl zu den wenigen Karten, die einem wirklich 2 Jahre Ruhe schenken.

Riptor
2004-01-24, 16:05:49
Womit wir wieder beim Thema "Interpretation von wie lange reicht was" wären. :)

DaHard
2004-01-24, 22:52:51
kam ja jetzt mit meiner r8500 auch über 2jahre hin aber langsam wird sie echt schwach!

AHF
2004-01-24, 22:57:05
man möge entschuldigen, dass ich mich einklinke: aber bringt denn antialiasing in 1600x1200 überhaupt noch einen sichtbaren vorteil, außer vielleicht auf standbildern?

StefanV
2004-01-24, 22:58:04
Original geschrieben von AHF
man möge entschuldigen, dass ich mich einklinke: aber bringt denn antialiasing in 1600x1200 überhaupt noch einen sichtbaren vorteil, außer vielleicht auf standbildern?

ja, das sieht man auch bei 1600x1200 noch.

AHF
2004-01-24, 23:23:38
wie sieht es aus 1600x1200 mit 2xaa gegen 1024x768 4xaa (ati)?

(del676)
2004-01-24, 23:29:52
Original geschrieben von AHF
wie sieht es aus 1600x1200 mit 2xaa gegen 1024x768 4xaa (ati)?

naja, imho fahre ich am liebsten die höchst mögliche auflösung mit 8xAF und 2xAA, denn z.b. bei 1024 mit 6xAA gehen kleine Details schnell verloren

is halt meine meinung

AHF
2004-01-24, 23:34:57
ich habe noch niemals 4xaa live gesehen. nur 2xaa, wobei ich 1280x1204 ohne aa einem 1024x768 mit 2xaa vorziehe.

(del676)
2004-01-24, 23:36:37
Original geschrieben von AHF
ich habe noch niemals 4xaa live gesehen. nur 2xaa, wobei ich 1280x1204 ohne aa einem 1024x768 mit 2xaa vorziehe.

ich hatte vorher ne 9700pro, ich muss sagen dass das 6xAA schon verdammt gut aussieht, nur leider bin ich eher einer der lieber 1600 oder gar 1920 spielt

Riptor
2004-01-24, 23:51:22
Wenns der Monitor zuläßt... :)

AHF
2004-01-24, 23:58:47
Original geschrieben von Ulukay
ich hatte vorher ne 9700pro, ich muss sagen dass das 6xAA schon verdammt gut aussieht, nur leider bin ich eher einer der lieber 1600 oder gar 1920 spielt

1280 ist das minimum, das ich haben will. 1024 ist nur ein kompromiss, da meine karte (geforce3 ti500) langsam in die jahre kommt. der unterschied zwischen 1600 und 1280 ist meiner meinung nach nicht so groß. 1920 habe ich auch schon probiert, da sehe ich aber kaum eine verbesserung gegenüber 1600. das af von nvidia soll ja besser sein als das von ati, so dass ich momentan eher zu nv neige, denn ich liebe gestochen scharfe texturen. wie ist der unterschied so zwischen 9800pro und 5900xt (vom antialiasing mal abgesehen), ist der mehrpreis gerechtfertigt?

Mr. Lolman
2004-01-25, 00:03:29
Hm, naja ich Spiel Farcry liber in 1024x768 4xAA als in 1280x1024 noAA.

Endorphine
2004-01-25, 00:08:00
Original geschrieben von Mr. Lolman
Hm, naja ich Spiel Farcry liber in 1024x768 4xAA als in 1280x1024 noAA. Dann spiel' halt in 1600*1200 und 2x AA, fertig. =)

Mr. Lolman
2004-01-25, 00:37:13
Original geschrieben von Endorphine
Dann spiel' halt in 1600*1200 und 2x AA, fertig. =)

Packt der Moni nicht, und selbst 1280x1024 2xAA ist schon deutlich zäher.

aths
2004-01-25, 12:52:50
Original geschrieben von AHF
man möge entschuldigen, dass ich mich einklinke: aber bringt denn antialiasing in 1600x1200 überhaupt noch einen sichtbaren vorteil, außer vielleicht auf standbildern? - Ja, sieht man. Kantenmäßig spielt man besser in 1024x768 mit 2x RGAA. (Auf einem guten 17-Zoll CRT getestet.)

- Gerade in Bewegung, weniger auf Standbildern, fällt Aliasing auf. Anti-Aliasing bringt in Bewegung mehr als Standbilder zeigen.

AHF
2004-01-25, 18:29:44
Original geschrieben von aths
- Ja, sieht man. Kantenmäßig spielt man besser in 1024x768 mit 2x RGAA. (Auf einem guten 17-Zoll CRT getestet.)

- Gerade in Bewegung, weniger auf Standbildern, fällt Aliasing auf. Anti-Aliasing bringt in Bewegung mehr als Standbilder zeigen.

auf meinem 22" sind 1024x768 nicht gerade gestochen scharf. das mit den kanten kommt hin, die sehen mit antialiasing sauberer aus. die frage ist, bringen die höheren antialiasing modi denn in dieser auflösung so viel mehr bildqualität, als es gutes anisotropes filtern bietet?

aths
2004-01-25, 18:50:30
Original geschrieben von AHF
auf meinem 22" sind 1024x768 nicht gerade gestochen scharf. das mit den kanten kommt hin, die sehen mit antialiasing sauberer aus. die frage ist, bringen die höheren antialiasing modi denn in dieser auflösung so viel mehr bildqualität, als es gutes anisotropes filtern bietet? Das ist Geschmacksfrage. Ich denke, 2x/2x AA/AF sollte immer Minimum sein, ob du davon ausgehend eher AA oder AF erhöhst, musst du selbst entscheiden.