PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller Speku-Thread R420 (war R420 12 Pipelines)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 [12]

Godmode
2004-05-03, 10:54:30
Rein von der Rohleistung her ohne Bandbreitenlimitierung, wäre die XT sicherlich schneller als die Ultra aber eben kann man mit 560 MHz DDR(effektiv 1120 MHz) sicherlich keine 16 Pipes @ 520 MHz speisen, außer es gibt eine neue Technologie die das möglich macht, ka irgend eine neue Komprimierung.

Was mich eher interessieren würde ist, was es mit den "Extreme Pipes" auf sich hat, von denen man auch wieder in der Allstars Artikelbeschreibung lesen kann. Hat ATI nun volle Pipes so wie man es vom NV40 annimmt oder nicht?

Und zur 6800 Ultra Expensive Edition ;D kann man sicherlich sagen, dass NV weiß wie schnell die XT ist und muss daher nachlegen oder sie sichern sich einfach nur vorweg ab, naja wir werden bald Bescheid wissen.

Wieder alles nur meine Einschätzung, ob sie stimmt wird man sehen!

robbitop
2004-05-03, 11:05:26
Kompression: 3Dc
man wird sehen wie effektiv diese "open source" Map Compression ist (die Spiele müssen es zudem unterstützen). Ausserdem ist diese Verlustbehaftet...somit wieder ein Verlust von IQ
NV hingegen bietet eine echte Colorcompression (verlustlos),welche auch ohne AA funktioniert.
Ich glaube die beiden werden sich von der Bandbreitenlimitierung nicht viel nehmen, sprich 3/4 der Pipes können idR versorgt werden.

Die NV40 bietet mehr PS Leistung/Takt aber gegen 120MHz mehr ist man natürlich auch machtlos, also muss was höher getaktetes her, was in den Benches als Aushängeschild herhalten muss.

[dzp]Viper
2004-05-03, 11:10:05
http://www.hartware.de/

erstmal kenne wir die newsmeldung schon (also nix neues)
ABER
Weiter unten steht als "Gerücht"

Taktraten nennt der Shop nicht, aber diese sollen nach bisherigen Gerüchten angeblich bei 500/500 MHz liegen.

500/500 für die pro? Dann ist die XT vielleicht nochmal höher getaktet als 525 mhz core und 550 mhz ram?

Wird ja doch noch ganz interessant bis morgen :D

Godmode
2004-05-03, 11:19:08
Mann müsste einfach wissen wieviel Low-K bringt und wie gut TSMC diesen Prozess beherrscht. Dann müsste man noch rechnen wieviel höher man die XT Takten kann, unter der Annahme, dass sie Gerüchtmäßg 180 Mio Transen hat gegenüber 222 Mio beim NV40. Naja alles eigentlich Hellseherei!!

NV30 hatte auch 130 Mio und war 500 Mhz hoch getaktet! Ich sag nur mit nem Dustbuster kannst du alles machen ;D

Ailuros
2004-05-03, 11:21:00
Die ganze Geschichte mit den Super-Duper-Ultra-Extreme Revisionen von beiden IHVs ist eigentlich laecherlich. Es ist mir jetzt egal ob der eine hunderte und der andere ein paar tausende boards jeweils verfuegbar haben wird.

Die Seltenheit dieser Modelle sollte jegliche Vergleiche als nutzlos beschreiben. Was interessieren sollte ist was die Mehrheit der Verbraucher von einem XT oder Ultra Modell bekommen koennen.

Und wenn's schon sein muss, ich sagte schon vor einiger Zeit dass man froh sein sollte wenn FarCry in 1280 mit AA/AF auf den neuen Boliden spielbar sein sollte und selbst da ist es ziemlich knapp.

Die Ohrfeige der Realitaet besteht dann darin dass man erstmal ausser sehr sehr wenigen Ausnahmen sich mit einer "stinknormalen" Ultra oder XT zufrieden stellen muss in der absehbaren Zukunft und bei Installation des vorerwaehnten Spiels dann nun doch settings zuruecksetzen muss um wahre Spielbarkeit zu erreichen.

Ein bisschen Nuechternheit wuerde nicht schaden; ich weigere mich diesem kindischen Marketing-Spiel zu folgen...

Ailuros
2004-05-03, 11:27:06
Die NV40 bietet mehr PS Leistung/Takt aber gegen 120MHz mehr ist man natürlich auch machtlos, also muss was höher getaktetes her, was in den Benches als Aushängeschild herhalten muss.

Diese Schlussvolgerung waere wohl besser angebracht nach den ersten X800 Tests oder?

Ausser Du beziehst Dich auf R360 Resultate (412MHz vs. 400MHz), wobei diese aber nur die Haelfte der SIMDs hat und auch wiederrum ~30% weniger Bandbreite. Hinzu kommt noch die genaue Analyze was SIMD bei X800 genau heisst...

Demirug
2004-05-03, 11:31:40
Original geschrieben von Ailuros
Diese Schlussvolgerung waere wohl besser angebracht nach den ersten X800 Tests oder?

Selbst nach den ersten könnte es noch zu früh sein Schlussfolgerungen zu ziehen.

Ausser Du beziehst Dich auf R360 Resultate (412MHz vs. 400MHz), wobei diese aber nur die Haelfte der SIMDs hat und auch wiederrum ~30% weniger Bandbreite. Hinzu kommt noch die genaue Analyze was SIMD bei X800 genau heisst...

Wissen wir das nicht schon längst?

Demirug
2004-05-03, 11:33:42
Original geschrieben von Ailuros
Die ganze Geschichte mit den Super-Duper-Ultra-Extreme Revisionen von beiden IHVs ist eigentlich laecherlich. Es ist mir jetzt egal ob der eine hunderte und der andere ein paar tausende boards jeweils verfuegbar haben wird.

Die Seltenheit dieser Modelle sollte jegliche Vergleiche als nutzlos beschreiben. Was interessieren sollte ist was die Mehrheit der Verbraucher von einem XT oder Ultra Modell bekommen koennen.

Und wenn's schon sein muss, ich sagte schon vor einiger Zeit dass man froh sein sollte wenn FarCry in 1280 mit AA/AF auf den neuen Boliden spielbar sein sollte und selbst da ist es ziemlich knapp.

Die Ohrfeige der Realitaet besteht dann darin dass man erstmal ausser sehr sehr wenigen Ausnahmen sich mit einer "stinknormalen" Ultra oder XT zufrieden stellen muss in der absehbaren Zukunft und bei Installation des vorerwaehnten Spiels dann nun doch settings zuruecksetzen muss um wahre Spielbarkeit zu erreichen.

Ein bisschen Nuechternheit wuerde nicht schaden; ich weigere mich diesem kindischen Marketing-Spiel zu folgen...

JA, in diesem Sinne waren die Leistung/Euro Betrachtungen von TOM ja durchaus eine gute Grundidee.

Ailuros
2004-05-03, 11:38:35
Nachtrag: (nur streng MHO) nachdem Leo in seinem NV40 review den 4xRGMS+2xOGSS= 8x freisetzte und ich die Leistung dieses Modus studieren konnte, sieht es verdammt gut fuer NV40 aus, ueberhaupt fuer jeglicher Art von Sims.

Was mich hier interessieren wuerde ist wie sich die NV40 in anspruchsvollen Sims in hohen Aufloesungen verhaelt (nun gut der Review hat einen Comanche4 Test, aber wer spielt denn eigentlich dieses bekloppte Spiel ueberhaupt?).

Es waere schoen wenn nach normaler Verfuegbarkeit von NV40/R420 sich jemand hinsetzen wuerde und ein high resolution/high quality antialiasing Review ueber flight/space/racing sims schreiben wuerde.

Ich wuerde denken dass die R420 in CPU limitierten Spielen wie z.B. FS2004 nicht besser abschneiden wuerde mit 6x sparse in hohen Aufloesungen und in dem Fall ist mir der EER ehrlich gesagt nicht mehr so wichtig, falls ich bei gleicher Geschwindigkeit auch einen Schuss SSAA dazubekomme.

Ailuros
2004-05-03, 11:42:44
Demi,

Wissen wir wirklich was SIMD genau bei R420 heisst? Sind alle gleich ausgelegt?

Was die Euro/Leistung Tests oder jegliches aehnliche betrifft, die hab ich nicht besonders gern. Eine sehr tueckische Falle mit der jeglicher Reviewer sehr vorsichtig sein sollte.

Godmode
2004-05-03, 11:49:16
Original geschrieben von Ailuros
Die ganze Geschichte mit den Super-Duper-Ultra-Extreme Revisionen von beiden IHVs ist eigentlich laecherlich. Es ist mir jetzt egal ob der eine hunderte und der andere ein paar tausende boards jeweils verfuegbar haben wird.

Die Seltenheit dieser Modelle sollte jegliche Vergleiche als nutzlos beschreiben. Was interessieren sollte ist was die Mehrheit der Verbraucher von einem XT oder Ultra Modell bekommen koennen.



Full Ack!!

Das selbe war auch beim P4EE irgendwie eine Verzweiflungstat!! Und wenn NV wirklich ne Version mit 475 MHz rausbringt, dann wird ATI ne Version bringen mit 600 MHz aber kaufen wirde diese Teile niemand können, weil es eben nur sehr wenige Chips geben wird die die Hohe Taktung verkraften.

Für ein paar Reviews wirds schon reichen, aber wen interessiert das, wenn die Karten sowiso nicht zum kaufen sind.

verdammt
2004-05-03, 11:57:54
Dazu passt auch dies:

Laut inq wurden bei IBM nur 10.000 Chips gefertigt:

http://www.theinq.net/?article=15659

und davon sollen nur 2000 mit einer Taktrate von 400 Mhz laufen:

http://www.theinq.net/?article=15661

Weiterhin kommt hinzu, dass es bei den 10.000 gefertigten Chips bleiben wird und sie die Produktion wieder von TSMC durchführen lassen wollen. Diese sollen allerdings noch keinen Tape-Out des NV40 zustande bekommen haben.

Wenn dies alles stimmt, dann wird man in der nächsten Zeit nur sehr schwer (oder gar nicht) an 6800 Ultra Karten kommen.

Sphinx
2004-05-03, 12:18:16
Ach die meisten hier können sich nicht mal eine Karte für 2oo - 3oo Euro leisten...

Die +550 Euro Karten werden für die entsprechende Zielgruppe schon ausreichen.

verdammtnochmal
2004-05-03, 12:21:58
Original geschrieben von Sphinx
Ach die meisten hier können sich nicht mal eine Karte für 2oo - 3oo Euro leisten...

Die +550 Euro Karten werden für die entsprechende Zielgruppe schon ausreichen.

2000 Ultras für die ganze Welt incl. der Profikarten. Na ja, ob das wirklich ausreicht, um die Nachfrage in angemessenen Maße zu befriedigen?!

when-its-done
2004-05-03, 13:14:59
nVIDIA zeigte uns ja wie schön PixelShader 3.0 gegenüber 1.1 aussehen (^^). ATi zeigt uns nun wie schön die Playermodels aussehen können, hier wurde Valeri durch Ruby ersetzt.

http://home.comcast.net/~cht1978/FarCrysecret.jpg

gaming at his best ;)

x-dragon
2004-05-03, 13:24:56
Bin gerade bei Golem fündig geworden:

"Online-Shop kündigt Radeon X800 Pro an"
http://www.golem.de/0405/31088.html

Möchte schon mal jemand eine kaufen? :)
http://www.allstarshop.com/shop/product.asp?pid=8988&sid=QDW3SU88MR308NT1TVC71XN9HSTJ27C2#
und hier gibts das schon mal als Bild falls das Angebot zufällig wieder entfernt werden muss:
http://scr.golem.de/?d=0405/allstarshop_x800pro&a=31088&s=1

Vielleicht findet da ja jemand noch ein paar neue Details :).

ow
2004-05-03, 13:32:48
.

NFY
2004-05-03, 13:33:42
NVIDIA has a new driver for the GeForce 6800 series -- version 61.11. Compared to the 60.72 driver, this new driver features:

Around 5% boost in Aquamark
Around 5% boost in X2 performance
Around 5% boost in Tomb Raider: Angel of Darkness performance
Around 10% boost to Call of Duty performance
Over 20% improvement in Far Cry performance (fixed a z cull bug)

http://www.vr-zone.com/downloads/61...ternational.exe

x-dragon
2004-05-03, 13:40:12
Original geschrieben von ow
Das wurde mindestens schon 2x hier im Thread durchgekaut. Ist fuer uns hier also nicht neues. Vielleicht interessiert es ja noch jemanden, der dies ebenso wie ich überlesen hat :).
Original geschrieben von NFY
NVIDIA has a new driver for the GeForce 6800 series -- version 61.11. Compared to the 60.72 driver, this new driver features:

Around 5% boost in Aquamark
Around 5% boost in X2 performance
Around 5% boost in Tomb Raider: Angel of Darkness performance
Around 10% boost to Call of Duty performance
Over 20% improvement in Far Cry performance (fixed a z cull bug)

http://www.vr-zone.com/downloads/61...ternational.exe Anscheind strengt sich Nvidia ganz schön an, um wieder die Führung übernehmen zu können :). Aber wer weiß was ATI noch so bietet ... Ähm morgen um 15 Uhr war es doch soweit, oder?

Steel
2004-05-03, 14:09:35
Original geschrieben von when-its-done
nVIDIA zeigte uns ja wie schön PixelShader 3.0 gegenüber 1.1 aussehen (^^). ATi zeigt uns nun wie schön die Playermodels aussehen können, hier wurde Valeri durch Ruby ersetzt.

gaming at his best ;)

Ein ziemlich plumper Fake.

[dzp]Viper
2004-05-03, 14:10:44
Original geschrieben von Steel
Ein ziemlich plumper Fake.
ach - ich dachte das ist echt :freak2:

Lustiger Troll
2004-05-03, 14:27:43
Ein sehr schlechter Fake der anscheinend mit einer NV Karte gemacht wurde, seht euch mal den Fliegenden Baum an, sieht aus wie der Nebelbug auf den NV Karten.

LovesuckZ
2004-05-03, 14:46:13
Ziemlich spannend, wenn man sowas liest:
Rys auf die Frage der Übertaktungsmöglichkeit:

Don't expect miracles. My sample doesn't do much more than its default clocks (which aren't retail clocks, but that's something for reviewers to talk about ).

http://www.beyond3d.com/forum/viewtopic.php?p=271812#271812

Vorallen der zweite teil ist interessant. Mal sehen, ob der Coretakt nach unten korrigiert werde...

when-its-done
2004-05-03, 14:58:58
Original geschrieben von Steel
Ein ziemlich plumper Fake.

ist das bild nicht echt??

wie konnte ich das nur posten ;)

btw. ich freu mich schon auf die morgigen bzw. mittwoch erscheinenden Reviews.. mal sehen wer die nase vorn hat

BodyLove
2004-05-03, 15:14:53
Original geschrieben von when-its-done
ist das bild nicht echt??

wie konnte ich das nur posten ;)

btw. ich freu mich schon auf die morgigen bzw. mittwoch erscheinenden Reviews.. mal sehen wer die nase vorn hat

Steht doch schon fast fest, oder? Wenn nur der x800pro kommt, dann bleibt NV40 vorne.

Die Frage ist, ob der X800xt mitreleased wird. Dann würde es imho etwas offener werden.

LovesuckZ
2004-05-03, 15:17:33
Original geschrieben von BodyLove
Die Frage ist, ob der X800xt mitreleased wird. Dann würde es imho etwas offener werden.

Es wird zwei Reviews geben. Einmal die normale Pro (von welcher nur wenige unterwegs sind) und eine XT PE (Premium/Platin Edition) der X800 karte mit 16 Pipelines und einen Takt von 520/560. Die taktraten der zweiten Karten stehen jedoch noch nicht richtig fest und da rys (von hexus.net) meint, sie lasse sich kaum über normaltakt geben, spräche dafür, dass ATi versucht alles rauszuholen, um deutlich schneller zu sein.
Nunja, von nvidia soll, laut theinq.com, ebenfalls eine UE karte für die Partner bereitstehen mit einem Coretakt von 450/550...

mboeller
2004-05-03, 15:23:59
Original geschrieben von LovesuckZ
Ziemlich spannend, wenn man sowas liest:
Rys auf die Frage der Übertaktungsmöglichkeit:

Don't expect miracles. My sample doesn't do much more than its default clocks (which aren't retail clocks, but that's something for reviewers to talk about ).

http://www.beyond3d.com/forum/viewtopic.php?p=271812#271812

Vorallen der zweite teil ist interessant. Mal sehen, ob der Coretakt nach unten korrigiert werde...


Ist das ein Wunder? Er hat schließlich die XT-PE mit 525MHz Core für sein Preview.

LovesuckZ
2004-05-03, 15:25:05
Original geschrieben von mboeller
Ist das ein Wunder? Er hat schließlich die XT-PE mit 525MHz Core für sein Preview.

Ja, denn es zeigt, wie weit ATi gehen muss. Siehe zum beispiel NV30, der mit 500MHz kaum und sich kaum übertakten lies.
Siehe dagegen r300, der kam mit 310 (?) Mhz und ging ganze 20% hoeher.

Winter[Raven]
2004-05-03, 15:25:51
da rys (von hexus.net) meint, sie lasse sich kaum über normaltakt geben, spräche dafür, dass ATi versucht alles rauszuholen, um deutlich schneller zu sein.

Ein Schelm wer jetzt böses denkt .... *eg*

DrumDub
2004-05-03, 15:30:47
Original geschrieben von LovesuckZ
Siehe dagegen r300, der kam mit 310 (?) Mhz und ging ganze 20% hoeher.

9700pro: 325/310

das mit den 20% halte ich für etwas übertrieben. zumindest wenn man vom durchschnitt spricht.

das probelme der 6800ultra könnte die geringe verfügbarkeit sein. gleiches könnte für die x800xt pe gelten. warten wirs ab.

Exxtreme
2004-05-03, 15:31:43
Original geschrieben von Winter[Raven]
Ein Schelm wer jetzt böses denkt .... *eg*
Muss nichts heissen. IIRC liess sich aths' seine GF4Ti nur 2% höher takten. Solange das Zeug beim Normaltakt stabil läuft, ist IMHO alles im Butter. Garantierten Übertaktungsspielraum gibt es nirgends.

Und wenn einer fragt, welcher Hersteller die übertaktungsfreudigsten GraKas herstellt oder gar ein Hersteller als schrott beschimpft wird weil sich die GraKas angeblich schlecht übertakten lassen, dann wird mir ehrlich gesagt schlecht dabei.

büdde
2004-05-03, 15:33:48
Original geschrieben von Winter[Raven]
Ein Schelm wer jetzt böses denkt .... *eg*

NV holt auch alles raus aber ihr werdet schon sehn.

Ruby
2004-05-03, 15:34:09
Oder Vcore ist auf den Takt ausgelegt, um die 6800Ultra in der Leistungsaufnahme zu unterbieten und eine günstigere Kühllösung zu ermöglichen. Dafür würde ich auch die Übertaktbarkeit opfern.

deekey777
2004-05-03, 15:53:49
Original geschrieben von Exxtreme
Muss nichts heissen. IIRC liess sich aths' seine GF4Ti nur 2% höher takten. Solange das Zeug beim Normaltakt stabil läuft, ist IMHO alles im Butter. Garantierten Übertaktungsspielraum gibt es nirgends.

Und wenn einer fragt, welcher Hersteller die übertaktungsfreudigsten GraKas herstellt oder gar ein Hersteller als schrott beschimpft wird weil sich die GraKas angeblich schlecht übertakten lassen, dann wird mir ehrlich gesagt schlecht dabei.

Also nix mit Overdrive&R420??? :...(

Was ist eingentlich mit dem neuen Ctalyst 4.5 - kommt er gleich mit der X800er oder wird er später für alle veröffentlicht?

MarcWessels
2004-05-03, 15:56:50
Original geschrieben von LovesuckZ
Ziemlich spannend, wenn man sowas liest:
Rys auf die Frage der Übertaktungsmöglichkeit:

Don't expect miracles. My sample doesn't do much more than its default clocks (which aren't retail clocks, but that's something for reviewers to talk about ).

http://www.beyond3d.com/forum/viewtopic.php?p=271812#271812


Voltagemod druff, dann paßt das schon mit dem übertakten... ;)

Winter[Raven]
2004-05-03, 15:59:32
@ Exxtreme

Damit wollte ich ehe sagen, dass ATI wohl in Panik ist, und alles versucht um die Führung auszubauen. Den sollte Nvidia mit ihrem NV40 als Sieger herauskommen, dann wird es ein sehr starker Rückschlag was das Ansehn von ATI angeht.

Den ATI muss sich mit Technikbremser auseinandersetzen, dann würde noch Lobbärenfresser dazukommen.

Sunrise
2004-05-03, 16:06:52
Original geschrieben von Winter[Raven]
@ Exxtreme

Damit wollte ich ehe sagen, dass ATI wohl in Panik ist, und alles versucht um die Führung auszubauen. Den sollte Nvidia mit ihrem NV40 als Sieger herauskommen, dann wird es ein sehr starker Rückschlag was das Ansehn von ATI angeht.

Den ATI muss sich mit Technikbremser auseinandersetzen, dann würde noch Lobbärenfresser dazukommen.
Bevor du keine Karte kaufen kannst, kann von einem "Rückschlag" nicht die Rede sein. Wir haben momentan bestenfalls Previews, und daher ist die Suppe momentan bestenfalls am kochen. Gegessen wird bekanntlich später.

kumbel
2004-05-03, 16:07:43
Original geschrieben von Winter[Raven]
@ Exxtreme

Damit wollte ich ehe sagen, dass ATI wohl in Panik ist, und alles versucht um die Führung auszubauen. Den sollte Nvidia mit ihrem NV40 als Sieger herauskommen, dann wird es ein sehr starker Rückschlag was das Ansehn von ATI angeht.

Den ATI muss sich mit Technikbremser auseinandersetzen, dann würde noch Lobbärenfresser dazukommen.

ATI hat Panik ;D der war gut,ihr habt null Ahnung wie die ATI Karten sind und stellt solche Behauptungen auf.

TheCounter
2004-05-03, 16:08:13
Original geschrieben von Winter[Raven]
@ Exxtreme

Damit wollte ich ehe sagen, dass ATI wohl in Panik ist, und alles versucht um die Führung auszubauen. Den sollte Nvidia mit ihrem NV40 als Sieger herauskommen, dann wird es ein sehr starker Rückschlag was das Ansehn von ATI angeht.

Den ATI muss sich mit Technikbremser auseinandersetzen, dann würde noch Lobbärenfresser dazukommen.

Das würde dir als Nvidia-Fanboy gefallen gell? ;D

Ich frag mich nur wieso Nvidia jetzt plötzlich auch einige wenige (wir sprechen von 200-250 Karten) NV40 Karten mit 450 MHz Chiptakt austattet...

Also wer ist hier in Panik? ;)

Ich bin wirklich gespannt was am Schluss dabei rauskommt, und vor allem bin ich auf die Mid-Range Karten gespannt, die sind nämlich wesentlich interessanter als die High-End Karten. Meine R9800np@Pro macht bei Hitman 3 in 1280x1024 schon ziemlich schlapp, da muss was neues her :D

DrumDub
2004-05-03, 16:09:12
Original geschrieben von Winter[Raven]
Lobbärenfresser

was soll das denn bitte sein? meinst du lorbeeren?

betasilie
2004-05-03, 16:11:34
Original geschrieben von Sunrise
Bevor du keine Karte kaufen kannst, kann von einem "Rückschlag" nicht die Rede sein. Wir haben momentan bestenfalls Previews, und daher ist die Suppe momentan bestenfalls am kochen. Gegessen wird bekanntlich später.
Ack. Also man man die paar Stunden nicht noch warten kann.

Original geschrieben von DrumDub
was soll das denn bitte sein? meinst du lorbeeren?
:lolaway:

deekey777
2004-05-03, 16:13:38
Original geschrieben von DrumDub
was soll das denn bitte sein? meinst du lorbeeren?

Ist doch egal, Hauptsache man kann es essen.... ;D

Winter[Raven]
2004-05-03, 16:17:07
ja Ja ... ich frag mich wieviel fehler Ihr in Russisch oder Französisch machen würdet, deswegen würd ich ganz schnell den Mund haltn, OK?

BodyLove
2004-05-03, 16:21:11
Original geschrieben von LovesuckZ
Es wird zwei Reviews geben. Einmal die normale Pro (von welcher nur wenige unterwegs sind) und eine XT PE (Premium/Platin Edition) der X800 karte mit 16 Pipelines und einen Takt von 520/560. Die taktraten der zweiten Karten stehen jedoch noch nicht richtig fest und da rys (von hexus.net) meint, sie lasse sich kaum über normaltakt geben, spräche dafür, dass ATi versucht alles rauszuholen, um deutlich schneller zu sein.
Nunja, von nvidia soll, laut theinq.com, ebenfalls eine UE karte für die Partner bereitstehen mit einem Coretakt von 450/550...

steht es fest? Wie groß ist die Wahrscheinlichkeit, dass dies eintritt? Das auch Nv die Möglichkeit hat, ein Refresh in kürzester Zeit rauszubringen. Ob das mit der Taktbarkeit stimmt, kann ich mir nicht vorstellen. Es sei denn, wenn der X800Xt auf den höheren Takt stark angewiesen ist, um vor dem Nv40 zu sein.

deekey777
2004-05-03, 16:23:11
Original geschrieben von Winter[Raven]
ja Ja ... ich frag mich wieviel fehler Ihr in Russisch oder Französisch machen würdet, deswegen würd ich ganz schnell den Mund haltn, OK?

In Russisch mache ich wenige Fehler... Locker bleiben, da war doch ein Smiley dabei. Schade nur, dass du versuchst die X800Pro&XT schlechtzureden.

DrumDub
2004-05-03, 16:23:49
Original geschrieben von deekey777
Ist doch egal, Hauptsache man kann es essen.... ;D

klar kann man lorbeeren (genau wie die blätter des lorbeerbaums) zu kochen verweden, aber afaik nur als gewürz (z.b. sauerbraten).
btw. ich kenn nur die redensart: "sich auf seinen lorbeern ausruhen".

normalo
2004-05-03, 16:27:07
Original geschrieben von DrumDub
klar kann man lorbeeren (genau wie die blätter des lorbeerbaums) zu kochen verweden, aber afaik nur als gewürz (z.b. sauerbraten).
btw. ich kenn nur die redensart: "sich auf seinen lorbeern ausruhen".

Kennst du auch die Redensart: Hochmut kommt vor dem Fall

DrumDub
2004-05-03, 16:36:54
Original geschrieben von normalo
Kennst du auch die Redensart: Hochmut kommt vor dem Fall

ja, danke der nachfrage. eventuell gibt es im deutschen sprachraum sogar noch mehr redensarten als diese beiden. aber danit würden wir dann doch zu sehr vom thema abschweifen.

muscle
2004-05-03, 16:50:04
Laut PcWelt.de hat Nvidia den hiesigen Testern eine NV40 Ultra mit 450/550 als Testkarte zur Verfügung gestellt. Der Test wartet noch auf sich und soll demnächst auf der Seite erscheinen.

Es sieht so aus, als würde NVidia zum R420 Release-Tag kontern wollen.

Ailuros
2004-05-03, 17:00:22
Original geschrieben von Winter[Raven]
@ Exxtreme

Damit wollte ich ehe sagen, dass ATI wohl in Panik ist, und alles versucht um die Führung auszubauen. Den sollte Nvidia mit ihrem NV40 als Sieger herauskommen, dann wird es ein sehr starker Rückschlag was das Ansehn von ATI angeht.

Den ATI muss sich mit Technikbremser auseinandersetzen, dann würde noch Lobbärenfresser dazukommen.

Falls es Panik geben wuerde dann eher von beiden; es geht hier anscheinend um den letzten Millimeter Leistung fuer die bloede Leistungskrone und das von Beiden.

deekey777
2004-05-03, 17:02:03
Original geschrieben von muscle
Laut PcWelt.de hat Nvidia den hiesigen Testern eine NV40 Ultra mit 450/550 als Testkarte zur Verfügung gestellt. Der Test wartet noch auf sich und soll demnächst auf der Seite erscheinen.

Es sieht so aus, als würde NVidia zum R420 Release-Tag kontern wollen.

Da hat wohl jemand kalte Füsse bekommen.

Wird es eigentlich möglich sein, den R420 Treiberpfad auf die R3x0 zu übertragen?

LovesuckZ
2004-05-03, 17:10:29
Original geschrieben von Ailuros
Falls es Panik geben wuerde dann eher von beiden; es geht hier anscheinend um den letzten Millimeter Leistung fuer die bloede Leistungskrone und das von Beiden.

Es sieht wohl so aus, als ob diesmal nicht die high End Karten das Rennen machen sondern die, die für 299€ - 399€ angeboten werden. Denn das werden wohl die einzigen karten sein, welche in breiter Verfügbarkeit zu haben sind...

Demirug
2004-05-03, 17:23:29
Original geschrieben von deekey777
Da hat wohl jemand kalte Füsse bekommen.

Wird es eigentlich möglich sein, den R420 Treiberpfad auf die R3x0 zu übertragen?

Warum sollte man das wollen?

Zudem kann ein R420 ja längere Shader stemmen als ein R3XX.

LovesuckZ
2004-05-03, 17:40:37
Auch wenn es hier nicht ganz reinpasst, aber durch den Beta 61.11 soll ja die Farcryleistung (komisch, dass das einzige Spiel mit einem "z cull bug" sein) deutlich ansteigen.
Vr-Zone hat dies nun getestet und konnte das "Versprochende" bestaetigen:
http://www.vr-zone.com/?i=751&s=1

Ailuros
2004-05-03, 17:43:16
Original geschrieben von LovesuckZ
Es sieht wohl so aus, als ob diesmal nicht die high End Karten das Rennen machen sondern die, die für 299€ - 399€ angeboten werden. Denn das werden wohl die einzigen karten sein, welche in breiter Verfügbarkeit zu haben sind...

Taktrate bzw. die damit verbundene Verfuegbarkeit ist ja auch selbst da wichtig. Hier wird es wohl auch nicht anders aussehen was die Skalierung von Taktraten ueber Revisionen betrifft.

Es kann sein dass manche einen klaren Gewinner fuer diese Runde sehen; ich auf jeden Fall momentan noch nicht. Dafuer muesste man die Konkurrenz regelrecht im Staub stehen lassen.

dildo4u
2004-05-03, 17:43:57
Original geschrieben von LovesuckZ
Auch wenn es hier nicht ganz reinpasst, aber durch den Beta 61.11 soll ja die Farcryleistung (komisch, dass das einzige Spiel mit einem "z cull bug" sein) deutlich ansteigen.
Vr-Zone hat dies nun getestet und konnte das "Versprochende" bestaetigen:
http://www.vr-zone.com/?i=751&s=1 wenn jetzt auch noch die Grafikbugs weg wären wärs perfekt so ist aber egal wenn die bildqualiti nich mal R300 Nievau erreicht

betasilie
2004-05-03, 17:47:07
Original geschrieben von dildo4u
wenn jetzt auch noch die Grafikbugs weg wären wärs perfekt so ist aber egal wenn die bildqualiti nich mal R300 Nievau erreicht
Full Ack. Einfach lächerlich sich um Performance zu bemühen, statt dem NV40 endlich mal R300-Bildqualität bei FarCry beizubringen.

Wenn die Performance allerdings gleich bleiben sollte, wenn der NV40 endlich mal FyrCry vernünftig darstellt, dann Hut ab!

LovesuckZ
2004-05-03, 17:49:04
Original geschrieben von betareverse
Wenn die Performance allerdings gleich bleiben sollte, wenn der NV40 endlich mal FyrCry vernünftig darstellt, dann Hut ab!

Sie koennte sogar schneller werden *eg*

betasilie
2004-05-03, 17:50:37
Original geschrieben von LovesuckZ
Sie koennte sogar schneller werden *eg*
Stimmt, dank PS3.0. ... Ich hoffe DX9.0c kommt bald und der neue FarCry Patch.

LovesuckZ
2004-05-03, 17:51:33
Original geschrieben von betareverse
Stimmt, dank PS3.0. ... Ich hoffe DX9.0c kommt bald, bzw. der neue FarCry Patch.

Nein, nicht wegen SM3.0.

[dzp]Viper
2004-05-03, 17:52:52
nur 6 fps abfall von 1024x768 auf 1600x1200? :|

da warte ich lieber erstmal noch andere treibertests ab ;)

Und Ohne AA und AF is das eh sinnlos... wäre wesentlich interessanter ob der performancezuwachs auch noch mit AA und AF erhalten bleibt..

betasilie
2004-05-03, 17:52:52
Original geschrieben von LovesuckZ
Nein, nicht wegen SM3.0.
Weswegen dann?

dildo4u
2004-05-03, 17:54:00
doppelpost

dildo4u
2004-05-03, 17:55:17
http://www.hardocp.com/images/articles/10817474486qLMOmeutS_5_4_l.jpg

6800ULTRA

http://www.hardocp.com/images/articles/10817474486qLMOmeutS_5_6_l.jpg

9800xt

Demirug
2004-05-03, 17:57:44
Jungs wie oft denn noch?

Wenn ihr wollt das der NV40 die richtigen Shader benutzt müsst ihr euch bei Crytek beschweren. Dort hat man gegen die öffentliche Empfehlung von nVidia gehandelt. Was dabei herauskommt haben wir ja gesehen.

LovesuckZ
2004-05-03, 18:02:20
Original geschrieben von [dzp]Viper
Und Ohne AA und AF is das eh sinnlos... wäre wesentlich interessanter ob der performancezuwachs auch noch mit AA und AF erhalten bleibt..

Stichwort AF: Ob der High Quality Modus funktioniert?
Der Treiber ist ca. 3 Wochen älter als der 60.72, also müsste Nvidia diesen Modus freigeschalten haben, wenn es ihn wirklich gibt.

deekey777
2004-05-03, 18:04:03
Original geschrieben von Demirug
Warum sollte man das wollen?

Zudem kann ein R420 ja längere Shader stemmen als ein R3XX.

Träumerei eines "Fanatikers": Wegen des F-Buffers(2) :D

Im Ernst: Es ist schon klar, dass der R420 weiterentwickelter als der zB R350, dennoch ist das Grundgerüst gleich. Man könnte meinen, die neuen Features (spekulativ: Smoothvision 3 oder ähnlich) könnten auf die vorherige Generation übertragen werden.
Das ist zwar miteinander nicht vergleichbar, aber mit dem Release der 9800Pro wurde deren Treiberpfad auf die 9700 Pro übertragen, was dazu führt, dass die 9700 Pro unter Einsatz von AA&AF mit dem modifizierten Treiber etwas schneller war.

PS: In wenigen Stunden ist meine 9800 Pro altes Eisen ;)

[dzp]Viper
2004-05-03, 18:05:19
Vielleicht gibts ja heute nacht schon NDA brecher *hoff* :D

deekey777
2004-05-03, 18:10:05
Original geschrieben von Demirug
Jungs wie oft denn noch?

Wenn ihr wollt das der NV40 die richtigen Shader benutzt müsst ihr euch bei Crytek beschweren. Dort hat man gegen die öffentliche Empfehlung von nVidia gehandelt. Was dabei herauskommt haben wir ja gesehen.

Darum sollten ja alle vergleichenden Tests mit der 6800Ultra&9800XT widerrufen werden - was aber bis jetzt noch niemand gemacht hat.

Börk
2004-05-03, 18:12:53
Original geschrieben von deekey777
Träumerei eines "Fanatikers": Wegen des F-Buffers(2) :D


lol, ich wage sehr zu bezweifeln, dass es sich bei Demirug um einen Fanatiker handelt. Bis jetzt war er eigentlich immer sehr objektiv ;)
Ausserdem soll es ja schon kleinere Detailveränderungen geben, nicht umsonst wurde das 2_B Profil entwickelt...

Gruß,
Börk

deekey777
2004-05-03, 18:14:02
Original geschrieben von Börk
lol, ich wage sehr zu bezweifeln, dass es sich bei Demirug um einen Fanatiker handelt. Bis jetzt war er eigentlich immer sehr objektiv ;)
Ausserdem soll es ja schon kleinere Detailveränderungen geben, nicht umsonst wurde das 2_B Profil entwickelt...

Gruß,
Börk

Ich bin der Fanatiker!!!

MarcWessels
2004-05-03, 18:20:53
Original geschrieben von LovesuckZ
Auch wenn es hier nicht ganz reinpasst, aber durch den Beta 61.11 soll ja die Farcryleistung (komisch, dass das einzige Spiel mit einem "z cull bug" sein) deutlich ansteigen.
Vr-Zone hat dies nun getestet und konnte das "Versprochende" bestaetigen:
http://www.vr-zone.com/?i=751&s=1

Zwei Dinge stechen mir da ins Auge: Zum einen ist die Performance bei FarCry in 1600x1200 mit dem neuen Treiber nun höher als in 1024x768 mit dem alten Treiber und zum anderen bricht Tomb Raider überdurchschnittlich stark ein wenn man die Auflösung erhöht - sowohl mit dem alten als auch mit dem neuen Treiber.

betasilie
2004-05-03, 18:22:47
@LS
Original geschrieben von betareverse
Original geschrieben von LovesuckZ
Nein, nicht wegen SM3.0.
Weswegen dann?

Demirug
2004-05-03, 18:22:53
Original geschrieben von deekey777
Träumerei eines "Fanatikers": Wegen des F-Buffers(2) :D

Vielleicht funktioniert er ja im R420 endlich.

Im Ernst: Es ist schon klar, dass der R420 weiterentwickelter als der zB R350, dennoch ist das Grundgerüst gleich. Man könnte meinen, die neuen Features (spekulativ: Smoothvision 3 oder ähnlich) könnten auf die vorherige Generation übertragen werden.
Das ist zwar miteinander nicht vergleichbar, aber mit dem Release der 9800Pro wurde deren Treiberpfad auf die 9700 Pro übertragen, was dazu führt, dass die 9700 Pro unter Einsatz von AA&AF mit dem modifizierten Treiber etwas schneller war.

Da will also jemand eine Einbahnstrasse in der falschen Richtung durchfahren. Aber ist es überhaupt eine Einbahnstrasse?

PS: In wenigen Stunden ist meine 9800 Pro altes Eisen ;)

Wenn schon dann altes Silizium und das ist sie ja dann schon etwas länger.

Börk
2004-05-03, 18:23:05
Original geschrieben von deekey777
Ich bin der Fanatiker!!!
Aso ;)
Naja wie gesagt ich halte es für sehr unwahrscheinlich. Bzw. wäre es wohl sowieso kontroproduktiv, da die Treiber eben mal auf den R420 ausgelegt und optimiert sind würden sie eine 9800Pro wohl nur ausbremsen, falls es denn wirklich ginge...

Gruß,
Börk

Mr. Lolman
2004-05-03, 18:29:49
Original geschrieben von deekey777
Darum sollten ja alle vergleichenden Tests mit der 6800Ultra&9800XT widerrufen werden - was aber bis jetzt noch niemand gemacht hat.

Eben. Und dass die bösen Crytek Leute von NV Geld kassieren, und es dann beide Parteien nicht gebacken bekommen, dass des Werbeträgers (überlegene ;)) HW mit zumindest der gleichen Qualität läuft, wie die der Konkurrenz, darf man sich schon um den Umstand mokieren.

ABER: Falls die PS3.0 Shader bei Farcry, dann tatsächlich mit annehmbarer Gechwindigket laufen, (also ca. PS1.1 FP16 Speed), dann zieh ich meine Bedenken, gegen NVs neuen chip zurück* (wenn ATi nicht viel schneller ist)

*sofern, der nächste NV Treiber, auch die Ut2004 Skybox rendert, und die LockOn Grafikfehler ausmerzt...

Quasar
2004-05-03, 19:34:54
Original geschrieben von Ailuros
Falls es Panik geben wuerde dann eher von beiden; es geht hier anscheinend um den letzten Millimeter Leistung fuer die bloede Leistungskrone und das von Beiden.

Sie sind ja auch bei in einer Scheiss-Situation.
nV darf aus eigener Sicht nicht zum zweiten Mal nur zweiter Sieger werden, denn dann wäre sehr viel Image auf einmal weg und die Aktionäre würden evtl. anfangen zu fragen, warum denn immer soviel Zeugs eingebaut wird, was keiner braucht.
ATi auf der anderen Seite sähe schlecht aus, wenn sie trotz "weniger Technik" (das dritte High-End Modell auf derselben Basis) es nicht schafften, zumindest ein bißchen vorne zu bleiben.

Godmode
2004-05-03, 19:44:53
Warum hat eigentlich niemand SM3.0 getestet, gibt doch schon ne Beta von DX9.0C?

ShadowXX
2004-05-03, 19:47:37
Original geschrieben von Quasar
Sie sind ja auch bei in einer Scheiss-Situation.
nV darf aus eigener Sicht nicht zum zweiten Mal nur zweiter Sieger werden, denn dann wäre sehr viel Image auf einmal weg und die Aktionäre würden evtl. anfangen zu fragen, warum denn immer soviel Zeugs eingebaut wird, was keiner braucht.
ATi auf der anderen Seite sähe schlecht aus, wenn sie trotz "weniger Technik" (das dritte High-End Modell auf derselben Basis) es nicht schafften, zumindest ein bißchen vorne zu bleiben.

Full Ack...beide sind aus dem einen oder anderen Grund quasi dazu gezwungen den Benchmarkwettstreit zu gewinnen.

Allerdings finde ich das Gebärden beider Seiten mit immer neuen und immer lustiger benannten Karten langsam lächerlich...

Was kommt nach der Ultra Extreme...falls ATIs Platinum Edition (ob die CL gefragt haben???) etwas schneller sein sollte...die Ultra Hyper Extreme Hyperdriver???
(ATI kontert dann mit der Diamond variante...)

Die Taktabstände dieser Karten bewegen sich dann irgendwann im 10er-Bereich und die Kühllösungen wiegen mehr als ein Mittelklassewagen...

Black-Scorpion
2004-05-03, 19:48:02
@bans3i
Du hast doch deine Frage schon selbst beantwortet.
Es ist nur eine Beta.

deekey777
2004-05-03, 19:48:32
Original geschrieben von bans3i
Warum hat eigentlich niemand SM3.0 getestet, gibt doch schon ne Beta von DX9.0C?

Irgendjemand hat's gemacht, keine Ahnung wer. Schaue mal in den NV40 Thread rein.

ShadowXX
2004-05-03, 19:49:32
Original geschrieben von bans3i
Warum hat eigentlich niemand SM3.0 getestet, gibt doch schon ne Beta von DX9.0C?

Mit was???

AFAIK hat jemand mal FC mit der DX90c Beta getestet, aber es wurden trotzdem keine PS3.0 benutzt (von FC)....hmmmm

Lustiger Troll
2004-05-03, 19:53:08
Original geschrieben von ShadowXX
Mit was???

AFAIK hat jemand mal FC mit der DX90c Beta getestet, aber es wurden trotzdem keine PS3.0 benutzt (von FC)....hmmmm

Vieleicht weil dies noch nicht vorhanden sind ;). Ich glaube es war aths der meinte das ein bekannter von ihm das getestet hat, kan mich auch irren.

deekey777
2004-05-03, 19:55:27
Original geschrieben von Lustiger Troll
Vieleicht weil dies noch nicht vorhanden sind ;). Ich glaube es war aths der meinte das ein bekannter von ihm das getestet hat, kan mich auch irren.

Entweder aths oder Zeckenzack. Bin mir auch nicht sicher.

Godmode
2004-05-03, 20:01:00
Original geschrieben von ShadowXX
Mit was???

AFAIK hat jemand mal FC mit der DX90c Beta getestet, aber es wurden trotzdem keine PS3.0 benutzt (von FC)....hmmmm

Man kann doch schnell ein paar 3.0 Shader schreiben und die dann testen! Oder man extrahiert sie aus FarCry raus müsste doch gehn oder?

ShadowXX
2004-05-03, 20:04:02
Original geschrieben von bans3i
Man kann doch schnell ein paar 3.0 Shader schreiben und die dann testen! Oder man extrahiert sie aus FarCry raus müsste doch gehn oder?

Dafür müsste man aber eine nv40 haben....und von den Leuten im Forum, die dieses auch könnten, hat wohl keiner eine nv40...

deekey777
2004-05-03, 20:37:03
Original geschrieben von bans3i
Warum hat eigentlich niemand SM3.0 getestet, gibt doch schon ne Beta von DX9.0C?

nggalai (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1730774#post1730774)

Original geschrieben von nggalai
Kollege hat's ausprobiert: Mit den 9.0c-Runtimes und Patch 1.1 werden offenbar keine PS3 verwendet, bei Far Cry.

93,
-Sascha.rb

ShadowXX
2004-05-03, 20:43:35
Original geschrieben von deekey777
nggalai (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1730774#post1730774)

Dann ist die RunTime entweder noch sehr Beta oder die Aussage von CryTek mit den PS3.0 für die nv40 stimmt nicht.....

Auch wenn ich MS nicht sehr mag, glaube ich eher die Aussage von CryTek war Fake....

(Ja Ja, ich weiss...igendwo soll FC schon mit PS3.0 gelaufen sein....aber hat das wirklich jemand nachgeprüft, oder wurde einfach diese Aussage auchgrund der Angabe von CryTek gemacht??? (bzw. auf Aussage von nV beim "berühmt berüchtigten" PS2...ähhhhPS1.1 vs PS3.0 Vergleich..))

Demirug
2004-05-03, 20:51:31
Original geschrieben von ShadowXX
Dann ist die RunTime entweder noch sehr Beta oder die Aussage von CryTek mit den PS3.0 für die nv40 stimmt nicht.....

Auch wenn ich MS nicht sehr mag, glaube ich eher die Aussage von CryTek war Fake....

(Ja Ja, ich weiss...igendwo soll FC schon mit PS3.0 gelaufen sein....aber hat das wirklich jemand nachgeprüft, oder wurde einfach diese Aussage auchgrund der Angabe von CryTek gemacht??? (bzw. auf Aussage von nV beim "berühmt berüchtigten" PS2...ähhhhPS1.1 vs PS3.0 Vergleich..))

Eigentlich kann es gar nicht funktionieren. Würde es gehen hätte Crytek gegen eine NDA verstossen.

Lustiger Troll
2004-05-03, 20:54:54
Original geschrieben von Demirug
Eigentlich kann es gar nicht funktionieren. Würde es gehen hätte Crytek gegen eine NDA verstossen.

Wie war denn das in Genf möglich wo sie FC "anscheinend" mit PS 3.0 gezeigt haben, haben da Crytek und NV die NDA gebrochen oder hatten sie die erlaubniss von M$?

Godmode
2004-05-03, 20:56:54
1. Ich will nicht das Game FC mit SM3.0 testen(weils anscheinend nicht funkt), sondern die Shader alleine. Mann kann doch irgendwo die Shader extrahieren, ka in welchen Dateien diese bei FC gespeichert sind.

2. Ich wollte sagen warum das keiner gemacht hat beim Review!

ShadowXX
2004-05-03, 21:04:24
Original geschrieben von bans3i
1. Ich will nicht das Game FC mit SM3.0 testen(weils anscheinend nicht funkt), sondern die Shader alleine. Mann kann doch irgendwo die Shader extrahieren, ka in welchen Dateien diese bei FC gespeichert sind.

2. Ich wollte sagen warum das keiner gemacht hat beim Review!

Weil DX9c noch nicht offiziel ist....man darf es noch nicht benuzten...und DX9C brachst du ja, um irgendwas austesten zu können (und eine nv40!!!)

Demirug
2004-05-03, 21:05:28
Original geschrieben von Lustiger Troll
Wie war denn das in Genf möglich wo sie FC "anscheinend" mit PS 3.0 gezeigt haben, haben da Crytek und NV die NDA gebrochen oder hatten sie die erlaubniss von M$?

nVidia hat notfalls Mittel und Wege SM3 zu nutzten ohne MS Beta Teile dafür nutzen zu müssen. Für öffentliche Presentationen lässt sich MS auch schon mal breit schlagen aber beim Einbauen in Dinge die öffentlich herausgegeben werden sind sie normalerweise nicht so grosszügig.

Quasar
2004-05-03, 21:06:51
Original geschrieben von Lustiger Troll
Wie war denn das in Genf möglich wo sie FC "anscheinend" mit PS 3.0 gezeigt haben, haben da Crytek und NV die NDA gebrochen oder hatten sie die erlaubniss von M$?

In Genf gab's von FC nur Standbilder.

Lustiger Troll
2004-05-03, 21:07:06
Original geschrieben von bans3i
1. Ich will nicht das Game FC mit SM3.0 testen(weils anscheinend nicht funkt), sondern die Shader alleine. Mann kann doch irgendwo die Shader extrahieren, ka in welchen Dateien diese bei FC gespeichert sind.

2. Ich wollte sagen warum das keiner gemacht hat beim Review!

1. in der shaders.pak, shader1s.pak im ordner /FCData

2. weil da AFAIK keine 3.0 Shader drinn sind, sondern nur die ausgetauschten für die NV3x. Die 3.0er sollen doch erst mit dem nächsten Patch kommen.

Lustiger Troll
2004-05-03, 21:08:40
Original geschrieben von Quasar
In Genf gab's von FC nur Standbilder.

Aber diese Standbilder sind ja auch irgendwie zustande gekommen.

WEGA
2004-05-03, 21:08:57
und wann gedänken die mal dx9c und patch frei zu geben?

es gab auch schon ein shader 3.0 >>video<< aus FC

Demirug
2004-05-03, 21:09:32
Original geschrieben von bans3i
1. Ich will nicht das Game FC mit SM3.0 testen(weils anscheinend nicht funkt), sondern die Shader alleine. Mann kann doch irgendwo die Shader extrahieren, ka in welchen Dateien diese bei FC gespeichert sind.

2. Ich wollte sagen warum das keiner gemacht hat beim Review!

Extrahieren kann man nur etwas was ein Spiel auch zur Grafikkarte schickt. Alles andere wird kompliziert. Aber selbst dann braucht man noch ein Benchmarkprogramm das Shader ohne die ursprüngliche Anwendung benchen kann und jemand der sich traut ergebnisse die mit MS-Beta Versionen gewonnen wurden zu veröffentlichen.

Godmode
2004-05-03, 21:11:29
Original geschrieben von Lustiger Troll
1. in der shaders.pak, shader1s.pak im ordner /FCData

2. weil da AFAIK keine 3.0 Shader drinn sind, sondern nur die ausgetauschten für die NV3x. Die 3.0er sollen doch erst mit dem nächsten Patch kommen.

Axxo also gibt es noch gar keine 3.0 Shader in der aktuellen Version von FC.

Zu DX9.0C dachte immer das kann man einfach testen, so wie die Release Candidates win Win..., war wohl schlecht informiert!

deekey777
2004-05-03, 21:11:36
Original geschrieben von Lustiger Troll
Aber diese Standbilder sind ja auch irgendwie zustande gekommen.

Photoshop???

ShadowXX
2004-05-03, 21:14:31
Original geschrieben von WEGA
und wann gedänken die mal dx9c und patch frei zu geben?

es gab auch schon ein shader 3.0 >>video<< aus FC

Es wurde zumindest gesagt, es wären PS3.0 Shader.....

Lustiger Troll
2004-05-03, 21:15:33
Original geschrieben von deekey777
Photoshop???

Du verwechselst das mit dem: http://www.jf-clan.de/misc/image.jpg ;D. Da sollte schon ein Screen von den 3.0 Shadern gemacht worden sein, kann mir nicht vorstellen das es mit Photoshop gemacht wurde.

TheCounter
2004-05-03, 21:16:42
Original geschrieben von deekey777
Photoshop???

In was ist mit dem Video? Die Standbilder wurden ja auch als komplettes Video gezeigt...

deekey777
2004-05-03, 21:19:31
Original geschrieben von TheCounter
In was ist mit dem Video? Die Standbilder wurden ja auch als komplettes Video gezeigt...

Das sollte nur ein Witz sein... Ihr nehmt alles Ernst, wenn kein Smiley zu sehen ist.

Edit: Wo ist denn das Video???

Demirug
2004-05-03, 21:23:35
Original geschrieben von bans3i
Axxo also gibt es noch gar keine 3.0 Shader in der aktuellen Version von FC.

Zu DX9.0C dachte immer das kann man einfach testen, so wie die Release Candidates win Win..., war wohl schlecht informiert!

AFAIK sind die Shader in Farcry als HLSL geschrieben denen sieht man die Version also erst mal gar nicht an.

Wenn MS DX RC öffentlich herrausgibt dann ist das was anderes wie eine 9.0c Beta die nur Personen mit gültiger NDA erhalten.

Godmode
2004-05-03, 21:25:14
Original geschrieben von Demirug
AFAIK sind die Shader in Farcry als HLSL geschrieben denen sieht man die Version also erst mal gar nicht an.

Wenn MS DX RC öffentlich herrausgibt dann ist das was anderes wie eine 9.0c Beta die nur Personen mit gültiger NDA erhalten.

Axxo

Hast du eine DX9.0C Beta? Wenn ja anworte einfach nicht auf mein Posting :)

Quasar
2004-05-03, 21:57:37
Original geschrieben von TheCounter
In was ist mit dem Video? Die Standbilder wurden ja auch als komplettes Video gezeigt...

Das Video gab's aber nicht in Genf...

Lustiger Troll
2004-05-03, 22:10:47
Original geschrieben von Quasar
Das Video gab's aber nicht in Genf...

Ist ja egal wos das Video gab, jedenfalls wurden PS3.0 gezeigt, ob das nun auf einem Bild in Genf oder in einem Video in Las Vegas gezeigt wurde, sie waren da, mehr oder weniger :rofl:.

aehmkei
2004-05-04, 00:21:36
-

Tomcat70
2004-05-04, 09:10:48
neue benchmarkzahlen

bravo ati :)

http://www.computerbase.de/forum/showthread.php?p=646488#post646488

robbitop
2004-05-04, 09:37:49
hat ziemlich lang gedauert bis das einer von euch mitbekomm hat ^^

Naja dafür dass das Teil 120MHz mehr Chiptakt hat ist der Sieg nicht soo souverän...zumal mit dem AF was nicht zu stimmen scheint. Und bei OGL wird die R420 ganz schön vermöbelt und das von einer 120MHz langsameren Karte ;)

MagicMat
2004-05-04, 10:15:17
Was interessiert die Taktrate? Bei Hersteller werden schon den max. Takt + Puffer aus ihren Chips herausgeholt haben. Entscheident ist doch das Endergebnis.

seahawk
2004-05-04, 10:17:33
Noch ist es zu früh für ein endgültiges Ergebnis.

Wurde die GeFroce mit full trilinear gegen die ATI mit tri/bi verglichen ?

Erst mal abwarten.

[dzp]Viper
2004-05-04, 10:17:55
Original geschrieben von robbitop
hat ziemlich lang gedauert bis das einer von euch mitbekomm hat ^^

Naja dafür dass das Teil 120MHz mehr Chiptakt hat ist der Sieg nicht soo souverän...zumal mit dem AF was nicht zu stimmen scheint. Und bei OGL wird die R420 ganz schön vermöbelt und das von einer 120MHz langsameren Karte ;)

seit AMD Athlon XP und Intel Pentium 4 Zeiten, solltest du eigentlich wissen, dass taktrate nicht alles ist was zählt ;)

robbitop
2004-05-04, 10:47:44
naja die Taktrate geht schon ins Endergebnis ein und hätte NV ebenfalls lowk oder ATi kein lowk dann sähe es anders aus. Mir solls egal sein ich brauch keine neue VPU ;)

Ich hab gehört, dass NV heut versuchen will, ATi beim Launchtag in die Suppe zu spucken...und womit? höhere Taktraten ;D

Ailuros
2004-05-04, 10:50:00
Original geschrieben von robbitop
hat ziemlich lang gedauert bis das einer von euch mitbekomm hat ^^

Naja dafür dass das Teil 120MHz mehr Chiptakt hat ist der Sieg nicht soo souverän...zumal mit dem AF was nicht zu stimmen scheint. Und bei OGL wird die R420 ganz schön vermöbelt und das von einer 120MHz langsameren Karte ;)

In was Call of Duty? Puuuhhhhleeeeaaase.

Ich warte erst mal die anderen reviews ab, ein bisschen mehr synthetischer Firlefanz waere interessanter ein bisschen schlauer zu werden, als q3a engine basierende Spiele.

Uebrigens sieht es so aus als ob es in den naechsten Runden darum geht wer zuerst begrenzte Quantitaeten von hoch spezifiziertem GDDR3 finden kann, um den 500$ Preispunkt auch halten zu koennen :crazy:

Ailuros
2004-05-04, 10:53:02
Original geschrieben von robbitop
naja die Taktrate geht schon ins Endergebnis ein und hätte NV ebenfalls lowk oder ATi kein lowk dann sähe es anders aus. Mir solls egal sein ich brauch keine neue VPU ;)

Ich hab gehört, dass NV heut versuchen will, ATi beim Launchtag in die Suppe zu spucken...und womit? höhere Taktraten ;D

Haette meine Oma <censored> waere sie mein Grossvater ;D

Spass beiseite und nochmal: Bandbreite und nochmal Bandbreite und das gilt fuer beide. Je schnellerer GDDR3 desto mehr koennen sich die Ultra-High-End Bolzen sich dann von den restlichen abheben. 450MHz bringt NV40 etwa auf XT Extreme Gleichstand.

robbitop
2004-05-04, 11:16:22
naja scheinbar limitiert die Bandbreite nicht immer, da R420XT den NV40 ja klar besiegt.
Ich denke auch, dass dann beide auf einer Höhe ca sind.

Crushinator
2004-05-04, 11:21:25
Original geschrieben von robbitop
(...)
Ich hab gehört, dass NV heut versuchen will, ATi beim Launchtag in die Suppe zu spucken...und womit? höhere Taktraten ;D Fängt mit T an und hört mit Reiber auf. ;)

Stromsparer
2004-05-04, 11:21:58
Nicht jedoch bei der Leistungsaufnahme. Es scheint hier weiterhin der NV40 zu führen auf Grund der zweiten Molex-Buchse.

DrumDub
2004-05-04, 11:24:34
also alles beim alten. bei opengl ist nv vorne (nur cod getestet), bei dx ati (bis auf x2).

witzigerweise hat jetzt die neue grafikkartengeneration soweit vorgelegt, dass die aktuellen cpus gar nicht mehr hinterherkommen, wenn ich mir anschau, dass fast alles bei 1600x1200 4xfsaa/8xaf spielbar ist.

Ailuros
2004-05-04, 11:24:42
Original geschrieben von robbitop
naja scheinbar limitiert die Bandbreite nicht immer, da R420XT den NV40 ja klar besiegt.
Ich denke auch, dass dann beide auf einer Höhe ca sind.

Der Unterschied zur 800PRO ist zu klein IMHO. Mehr Bandbreite wuerde den Unterschied noch vergroessern.

NV40 scheint gut bis zu ~450MHz zu skalieren, aber dann braeuchte man auch hier schnelleren Speicher.

Crushinator
2004-05-04, 11:28:15
Original geschrieben von Stromsparer
Nicht jedoch bei der Leistungsaufnahme. Es scheint hier weiterhin der NV40 zu führen auf Grund der zweiten Molex-Buchse. Ich find's schade, daß ATi bei den Konsumer-Varianten den 2. DVI Port nicht verbaut hat. ;(

robbitop
2004-05-04, 11:39:43
@Stromsparer
naja NV hat ja auch ein viel komplexeres und technisch weiteres Deisgn. Mächtigere Pixelshader Pipelines, SM3, einen Videoprozessor eine echte Colorcompression usw
das kostet Logiktransistoren und somit auch Strom ;)
ATi hat einen rund 40% kleineren Chip als NV.
Ausserdem kommt noch lowk Dielectric hinzu.

DrumDub
2004-05-04, 11:47:26
Original geschrieben von robbitop
@Stromsparer
naja NV hat ja auch ein viel komplexeres und technisch weiteres Deisgn. Mächtigere Pixelshader Pipelines, SM3, einen Videoprozessor eine echte Colorcompression usw
das kostet Logiktransistoren und somit auch Strom ;)
ATi hat einen rund 40% kleineren Chip als NV.
Ausserdem kommt noch lowk Dielectric hinzu.

richtig. doch könnte sich ati strategie als vorteil erweisen bei den leuten, die ihre karte nur zum gamen nutzen und die zusätzlichen features des nv40 nicht benötigen. wobei ich da dann eher an die x800pro denke, denn die x800xt. technologisch ist der nv40 weiterhin das weitaus beeindruckendere produkt.

LovesuckZ
2004-05-04, 11:49:52
Original geschrieben von [dzp]Viper
seit AMD Athlon XP und Intel Pentium 4 Zeiten, solltest du eigentlich wissen, dass taktrate nicht alles ist was zählt ;)

Natuerlich spielt Taktrate eine große Rolle.

robbitop
2004-05-04, 11:50:02
naja NV wird wohl eine Tech PR Hetzkampagne fahren denke ich.
Technologische Nr 1 usw...tralalala
und von der Performance auch nicht verkehrt ^^

Weiss jmd wieviel R420XT zieht?

Ailuros
2004-05-04, 11:52:24
Original geschrieben von LovesuckZ
Natuerlich spielt Taktrate eine große Rolle.

Effizienz mit gewisser Taktrate ist wichtiger und auf das hat er sich auch bezogen.

[ncp]EasyChiller
2004-05-04, 11:59:23
hmm beim AA scheint diesmal wohl doch NV vorn zu liegen:

http://www.hx3.de/ext/farcry/ATIBilder/fsaa-2.jpg <--- guggt da mal auf die Schatten!!! :-(

Ailuros
2004-05-04, 12:03:23
Original geschrieben von [ncp]EasyChiller
hmm beim AA scheint diesmal wohl doch NV vorn zu liegen:

http://www.hx3.de/ext/farcry/ATIBilder/fsaa-2.jpg <--- guggt da mal auf die Schatten!!! :-(

render2texture Schatten werden NICHT bis jetzt von jeglicher Form von Multisampling beruehrt.

Ich wundere mich oft ob ihr Leute ueberhaupt was in Euren Spielen bemerkt bevor irgendeine Webseite mit screenshots damit herkommt.

Ich meckere ueber render2texture schon seit der NV2x, und es ist ein globales Problem mit allen MSAA Implementierungen bis jetzt.

robbitop
2004-05-04, 12:04:12
doppelpost
sorry

robbitop
2004-05-04, 12:04:22
die Schatten sind keine Polygonkanten.
Und da bei Supersampling dabei ist und bei ATi Multisampling wird das nur bei NV geglättet.

Aber 8xS mit 6xMS zu vergleichen ist voll daneben.
zZ kann man nur bis 4xRG vergleichen, danach is es ein Apfel Birne Vergleich.
Ach ja mit dem 61.11 hat man ein neues 8xS eingebaut.
4xRGMS +2xOGSS
schneller und effektiver und schöner.

EER 8xS alt: 2x2 x 2x2
EER 8xS neu(nur NV40): 4x4 x 2x1

Tomcat70
2004-05-04, 12:06:50
ein Test auf chip.de ist online.


grüsse

Ailuros
2004-05-04, 12:07:59
Der neue 8x modus ist immer noch unter Vorbehaltung. Erst mal abwarten ob es sich tatsaech um 4xRGMS+2xOGSS handelt.

Uebrigens dieser modus oben wird alphas und render2texture Schatten nicht so schoen glaetten wie der 8xS modus in den screenshots :P

Gortha
2004-05-04, 12:14:18
Also hat ATi die Leistungskrone doch behalten.

Aller Achtung.

Jetzt stellt sich fuer mich nur die Frage,
welcher der beiden Hersteller mir als Endkunden im
220 € bis 300 € Segment das bessere Preis/Leistungsverhältnis bietet.

Was meint ihr?

Grüsse
Gortha

robbitop
2004-05-04, 12:16:43
das ist richtig, dafür werden die Polygonkanten besser geglättet und schneller.
Und Xmas meinte erkennen zu können, dass es 4xRGMS +2xOGSS ist.

Ailuros
2004-05-04, 12:24:29
Original geschrieben von robbitop
das ist richtig, dafür werden die Polygonkanten besser geglättet und schneller.
Und Xmas meinte erkennen zu können, dass es 4xRGMS +2xOGSS ist.

Bei mir steht im 3DCenter review:

Multi/Supersampling
teil-gedrehtes Raster
EER 4x4
(nur Direct3D)
(unter Vorbehalt)

Polygonkanten werden nicht besser geglaettet wenn beide Methoden einen 4*4 EER theoretisch liefern. Man gewinnt um einiges mehr Fuellrate mit nur 2xSS, verliert aber wiederum den Vorteil den 4xSS auf horizontaler und vertikaler Richtung hat, genau eben mit alphas und/oder render2texture.

Dazu braeuchte ich eigentlich keine Erlaeuterungen.

robbitop
2004-05-04, 12:27:36
huiuiui
ist das bei FC schon 3Dc im Chiptest???
Das könnte der Schlüssel für die Bandbreitenlimitierung bei ATi sein.

Mal schauen was NV mit dem gefixten Z Culling im neuen Treiber und 50MHz mehr heut anstellen kann ^^

[dzp]Viper
2004-05-04, 12:31:54
Also die benchmarkwerte differrieren von test zu test immer mehr X-D

Vor allem in Farcry...

Momentan können wir wirklich nur auf seriöse tests warten... der test bei chip scheint mir in 10 minuten gemacht zu sein :eyes:
Der Test auf der französischen seite hat massig fehler (vergessen vsynco zu deaktivieren und co.)
Und THG... naja - no comment :D

robbitop
2004-05-04, 12:32:17
daaa hätt ich aber noch ne Frage an dich AiL.

Altes 8xS: 4xOG = 2x2 +2xRG = 2x2 -> ergibt bei mir 16
neues 8xS: 4xRG = 4x4 +2xOG = 2x1 -> ergibt bei mir 32

also auf der X Achse sollte besser geglättet werden.
oder irre ich hier?

betasilie
2004-05-04, 12:35:46
Original geschrieben von Gortha
Also hat ATi die Leistungskrone doch behalten.

Aller Achtung.

Jetzt stellt sich fuer mich nur die Frage,
welcher der beiden Hersteller mir als Endkunden im
220 € bis 300 € Segment das bessere Preis/Leistungsverhältnis bietet.

Was meint ihr?

Grüsse
Gortha
Vielleicht die x800Pro in 2-3 Monaten?

tokugawa
2004-05-04, 12:50:11
Original geschrieben von Gortha
Also hat ATi die Leistungskrone doch behalten.

Aller Achtung.

Jetzt stellt sich fuer mich nur die Frage,
welcher der beiden Hersteller mir als Endkunden im
220 € bis 300 € Segment das bessere Preis/Leistungsverhältnis bietet.

Was meint ihr?

Grüsse
Gortha

Ich warte ehrlich gesagt auf das 150-200 Euro Segment...

Ailuros
2004-05-04, 12:57:24
Darf ich mal ein bisschen Oel ins Feuer werfen?

Nicht dass es unbedingt einen Unterschied machen muss, aber ich kann einen sehr gesunden Stencil-Fuellraten Unterschied bei den X800 sehen :P

robbitop
2004-05-04, 12:59:05
stencilfüllrate frisst ja auch kaum Bandbreite...wie überraschend :rolleyes:

Ailuros
2004-05-04, 13:02:14
Original geschrieben von robbitop
stencilfüllrate frisst ja auch kaum Bandbreite...wie überraschend :rolleyes:

Tststststs

525*32 vs 400*32

Leuchtet jetzt ein Birnchen auf? ;)

AlfredENeumann
2004-05-04, 13:03:33
Original geschrieben von robbitop
hat ziemlich lang gedauert bis das einer von euch mitbekomm hat ^^

Naja dafür dass das Teil 120MHz mehr Chiptakt hat ist der Sieg nicht soo souverän...zumal mit dem AF was nicht zu stimmen scheint. Und bei OGL wird die R420 ganz schön vermöbelt und das von einer 120MHz langsameren Karte ;)

Wenn interessiert der Takt der Karte?
Jetzt ist es halt andersrum, und ATI muß ein paar Brikets aufs Feuer legen um auf den gleiche Speed zu kommen.

Wichtig ist was hinten rauskommt.

Gortha
2004-05-04, 13:04:55
Original geschrieben von tokugawa
Ich warte ehrlich gesagt auf das 150-200 Euro Segment...

Das 150-200€ Segment wird aber doch nicht leistungsfähiger als eine 9800Pro/XT sein... da kannste dir auch so einekaufen. IMO

Grüsse
Gortha

Demirug
2004-05-04, 13:06:59
Original geschrieben von Ailuros
Tststststs

525*32 vs 400*32

Leuchtet jetzt ein Birnchen auf? ;)

32 Zixel beim R420? Wo gibt es denn dies zu bewundern?

Ahhhhhhh
2004-05-04, 13:17:59
Mehr Spaß mit Doom 3, Half Life 2, Serious Sam II
Neben den extrem hohen Benchmark-Werten besticht vor allem die neue Kompressionstechnik 3Dc (3D compression). Clou: Der Algorithmus ist von Spieleentwicklern leicht zu implementieren. Kommende 3D-Knaller wie Doom 3, Half Life 2 oder Serious Sam II werden die Kompressionstechnik für hoch auflösende Texturen von Anfang an einsetzen. Wer sich schon einmal überzeugen will, wozu 3Dc in der Lage sein wird, findet in der Bildergalerie verschiedene Screenshots von ATIs brandneuer „Ruby-Demo“, in der diese Kompressionstechnik benutzt wird.

Quelle: http://www.chip.de/artikel/c_artikelunterseite_11828970.html?tid1=&tid2=

Wo ATI auf jeden Fall Punkten kann ist die geringere Stromaufnahme, 1 Molex- Anschluss (selbst bei der XT-Version) und das 1-Slot-Design.

Godmode
2004-05-04, 13:18:43
Laut PCGH braucht die 800XT 27 weniger als die 9800XT!!!

Ich würde die ganzen Benches hier sowiso eher vergessen und lieber auf Leos Review warten. In der PCGH warnen sie ja auch eindringlich, das man aufgrund dere jeztigen Benches nicht sagen kann, wer letzten Endes schneller ist, da ATI Texstage 1-7 nur BI filtert und Treiber auch noch Beta sind...

Ailuros
2004-05-04, 13:20:33
Original geschrieben von Demirug
32 Zixel beim R420? Wo gibt es denn dies zu bewundern?

http://www.chip.de/ii/21748488_d75dfb0fa1.jpg

Exxtreme
2004-05-04, 13:20:50
Original geschrieben von Ahhhhhhh
Clou: Der Algorithmus ist von Spieleentwicklern leicht zu implementieren.
Naja, das hiess bei Truform auch schon. Trotzdem gab es vlt. nur ein Dutzend Spiele, die das nutzten.

robbitop
2004-05-04, 13:21:30
abwarten

Ailuros
2004-05-04, 13:22:36
Original geschrieben von Ahhhhhhh
Mehr Spaß mit Doom 3, Half Life 2, Serious Sam II
Neben den extrem hohen Benchmark-Werten besticht vor allem die neue Kompressionstechnik 3Dc (3D compression). Clou: Der Algorithmus ist von Spieleentwicklern leicht zu implementieren. Kommende 3D-Knaller wie Doom 3, Half Life 2 oder Serious Sam II werden die Kompressionstechnik für hoch auflösende Texturen von Anfang an einsetzen. Wer sich schon einmal überzeugen will, wozu 3Dc in der Lage sein wird, findet in der Bildergalerie verschiedene Screenshots von ATIs brandneuer „Ruby-Demo“, in der diese Kompressionstechnik benutzt wird.

Quelle: http://www.chip.de/artikel/c_artikelunterseite_11828970.html?tid1=&tid2=

Wo ATI auf jeden Fall Punkten kann ist die geringere Stromaufnahme, 1 Molex- Anschluss (selbst bei der XT-Version) und das 1-Slot-Design.

Der Algorithmus wird doch open source sein oder?

Demirug
2004-05-04, 13:23:21
Ailuros, genau wegen dieser Folie habe ich mir wahrscheinlich Ärger eingehandelt weil ich den gleichen Schluss wie du gezogen haben.

Demirug
2004-05-04, 13:24:23
Original geschrieben von Ailuros
Der Algorithmus wird doch open source sein oder?

Gute Frage. Es ist eine DXTC Variante die für 3dc benutzt wird.

Ailuros
2004-05-04, 13:26:29
Original geschrieben von robbitop
@AiL

wird man ja sehen...Für mich sieht es nicht so aus

Schon R3xx hatte 2Z/stencil pro SIMD.

Bei gleichem Takt kamen R3xx und NV3x auf Gleichstand mit 4xMSAA, wobei die R3xx bei noAA und 2xAA einen Vorteil hatte in Fablemark (ja ich weiss fill-rate limitierter stencil test blah blah blah).

NV3x hatte hoehere Taktraten als R3xx. Da die Taktraten hoeher sind bei R420 und die Anzahl der z/stencil ops pro Takt gleich mit NV40, kannst Du es gerne anders ansehen.

Wie gesagt nur pure Theorie, aber theoretisch hat X800XT momentan um die 30% hoehere Stencil Fuellrate.

robbitop
2004-05-04, 13:26:50
aber es funktioniert nur auf R420?
Wegen der HW Seitigen Dekompression meine ich

Ailuros
2004-05-04, 13:28:30
Original geschrieben von Demirug
Ailuros, genau wegen dieser Folie habe ich mir wahrscheinlich Ärger eingehandelt weil ich den gleichen Schluss wie du gezogen haben.

Jetzt verstehe ich wieder Bahnhof....8 extreme SIMDs mit 2Z/stencil und 8 einfache SIMDs ohne?

Ailuros
2004-05-04, 13:29:35
Original geschrieben von Demirug
Gute Frage. Es ist eine DXTC Variante die für 3dc benutzt wird.

Es soll sehr leicht zu implementierens sein; genaues weiss ich auch nicht.

ram
2004-05-04, 13:33:39
Original geschrieben von Ailuros
http://www.chip.de/ii/21748488_d75dfb0fa1.jpg

Wer sagt, dass dies nicht nur irgendwelche "gut gezählten" HyperZ-Operationen sind? *eg*

LovesuckZ
2004-05-04, 13:36:07
Original geschrieben von ram
Wer sagt, dass dies nicht nur irgendwelche "gut gezählten" HyperZ-Operationen sind? *eg*

Und es steht "Up to" da.

Ailuros
2004-05-04, 13:37:01
An was anderes konnte ich auch nicht denken nachdem ich Demi's Kommentar gelesen habe.

Nun gut weiss jetzt jemand wieviele stencil ops das Ding im Durchschnitt (und nicht im Idealfall) ausspucken kann oder nicht?

Demirug
2004-05-04, 13:37:03
Original geschrieben von Ailuros
Es soll sehr leicht zu implementierens sein; genaues weiss ich auch nicht.

Ja, in einem Chip der schon DXTC kann dürfte es leicht in einem Refresh implementierbar sein.

Demirug
2004-05-04, 13:38:55
Original geschrieben von Ailuros
An was anderes konnte ich auch nicht denken nachdem ich Demi's Kommentar gelesen habe.

Nun gut weiss jetzt jemand wieviele stencil ops das Ding im Durchschnitt (und nicht im Idealfall) ausspucken kann oder nicht?

Wie viele Z/Stencil Ops pro Takt kann ein R3XX wenn man grosszügig zählt?

robbitop
2004-05-04, 13:46:02
8?

aths
2004-05-04, 14:20:26
Original geschrieben von Demirug
Wie viele Z/Stencil Ops pro Takt kann ein R3XX wenn man grosszügig zählt? 16.

LovesuckZ
2004-05-04, 14:29:13
Original geschrieben von aths
16.

Unter welchen Umstaenden?

tokugawa
2004-05-04, 14:43:46
Original geschrieben von Gortha
Das 150-200€ Segment wird aber doch nicht leistungsfähiger als eine 9800Pro/XT sein... da kannste dir auch so einekaufen. IMO

Grüsse
Gortha

Ich meinte es auf beide Hersteller bezogen.

Einen NV4x Ableger in 9800 Pro Leistungsregionen aber mit all den NV40 Features (ja ich brauche SM 3.0 :D ) wäre z.B. in der Preisregion mein Favorit.

[ncp]EasyChiller
2004-05-04, 18:56:18
Original geschrieben von Ailuros
render2texture Schatten werden NICHT bis jetzt von jeglicher Form von Multisampling beruehrt.

Ich wundere mich oft ob ihr Leute ueberhaupt was in Euren Spielen bemerkt bevor irgendeine Webseite mit screenshots damit herkommt.

Ich meckere ueber render2texture schon seit der NV2x, und es ist ein globales Problem mit allen MSAA Implementierungen bis jetzt.

sorry, ich gehöre zu den Spielern, die NIE mit AA spielen ... bzw. AA NIE an haben! ;D D.H. ich kann AA nur auf irgendwelchen Screens mal anschaun. .. und auch das mach ich selten ... nu hier ist's mir halt grad mal aufgefalln! ... Trotzdem danke für die Ärklärung! =)

OT: Nebenbei find ichs auch langsam öde, das viele Tests - vor allem auch bei Mid-Range-Karten mit aktiviertem AA gemacht werden, wobei dann meist noch die Framerate teilweise unter ein spielbares Niveau sinkt. Was interessierts mich ob ne Karte imt AF und AA 20 oder 30 fps im Durchschnitt in ner Testscene hat ... ich behaupte mal das es bei beiden dann stark ruckelnde Stellen geben wird. ---> sinnlos

Ailuros
2004-05-05, 11:12:39
Original geschrieben von Demirug
Wie viele Z/Stencil Ops pro Takt kann ein R3XX wenn man grosszügig zählt?

Wie schon gesagt AFAIK sind es 2Z/stencil pro SIMD bei R3xx.

Andersrum ich sehe bei NV40 2x R360 Leistung in Fablemark.

EasyChiller,

Trotzdem danke für die Ärklärung!

Keine Ursache :)

Nebenbei find ichs auch langsam öde, das viele Tests - vor allem auch bei Mid-Range-Karten mit aktiviertem AA gemacht werden, wobei dann meist noch die Framerate teilweise unter ein spielbares Niveau sinkt. Was interessierts mich ob ne Karte imt AF und AA 20 oder 30 fps im Durchschnitt in ner Testscene hat ... ich behaupte mal das es bei beiden dann stark ruckelnde Stellen geben wird. ---> sinnlos

Reviewer koennten in dem Fall auch Tests mit nur 2xAA/2xAF auf Mainstream Loesungen rennen lassen, denn Leistung ist fuer solche Settings meistens noch da.

Framerate ist auch nicht immer besonders toll bei den high end Boliden bei sehr anspruchsvollen Applikationen in sehr hohen Aufloesungen (wie z.b. 16*12).

Wuerden Reviewer aber bei Mainstream Loesungen dann AA/AF Tests ganz entfallen lassen, koennte es leicht zu anderen Missverstaendnissen kommen. Da die Mehrzahl der Spiele immer noch CPU limitiert sind, ist ein wichtiger Verkaufspunkt fuer high end Loesungen deren AA/AF Leistung. Hier muss man den Unterschied zu niedrigeren Loesungen auch zeigen koennen.

Es sollte wohl klar sein dass fuer jemand dem AA/AF total gleichgueltig ist, eine high end Loesung verschwendetes Geld ist.

Ailuros
2004-05-05, 14:30:37
Self correction; also doch nicht...

The basic pixel output engines remain unchanged from R300. In normal operation each pixel pipeline can output 1 colour value and 1 Z/Stencil value, but there is no optimised Z/Stencil rendering performance.

http://www.beyond3d.com/reviews/ati/r420_x800/index.php?p=9

Bei gleichem System:

3dmark2003 GT2:

----------------------1024-------1280-------1600

XT--------------------90.6-------65.6-------49.8
PRO-------------------68.2-------48.0-------35.7
6k8U------------------94.5-------70.3-------55.0

FableMark:

----------------------1024-------1280-------1600

XT--------------------158.8------100.5------70.3
PRO-------------------126.1-------79.4------56.2
6k8U------------------175.0------110.5------76.9

Also man haette hier eigentlich wirklich mehr in Logik und/oder Hardware investieren koennen. Mit hoeherer Taktrate und keinen besonderen Bandbreiten Einfluss mit stenciling, haette man hier wirklich einen guten Vorteil haben koennen.

Eine NV40 hat wohl theoretisch in 1280 mit 450MHz einen etwa 30% Leistungsvorteil schaetzungsweise, obwohl es genau andersrum haette sein koennen.

Links von den die Resultate kommen:

http://www.beyond3d.com/previews/nvidia/nv40/index.php?p=22

http://www.beyond3d.com/reviews/ati/r420_x800/index.php?p=18

Schade dass sich Wavey immer noch nicht mit MSAA+stencil benchmarks beschaeftigt :(

robbitop
2004-05-05, 16:51:39
wieso 450MHz AiL?
war in dem Test die 6800U mit 450MHz getaktet??

BodyLove
2004-05-05, 16:51:46
Rein aus Interesse, gibt ein Review, wo die X800xt mit den 3dmarks getestet wurde? Also 3dmark01 und 3dmark03? Bei Beyond gibt es ja nur die einzelwertungen. Mich interessieren aber diesmal die Endwertungen? Wäre für infos dankbar.

MarcWessels
2004-05-05, 17:04:47
Ja, gibt es, hab aber jetzt leider vergessen, auf welchen Seiten. Auf jeden Fall hat die 800XT im 3DMark2001 gewonnen, während die 6800UE im 3DM03 schneller war, was sie allen Gametests außer dem Mother Nature zu verdanken hatte, denn in dem war die 800XT schneller.

DrumDub
2004-05-05, 17:19:14
Original geschrieben von BodyLove
Rein aus Interesse, gibt ein Review, wo die X800xt mit den 3dmarks getestet wurde? Also 3dmark01 und 3dmark03? Bei Beyond gibt es ja nur die einzelwertungen. Mich interessieren aber diesmal die Endwertungen? Wäre für infos dankbar.

hier: http://www.xbitlabs.com/articles/video/display/r420.html

und hier: http://www.xbitlabs.com/articles/video/display/r420-2_31.html

BodyLove
2004-05-05, 17:26:49
Mark und Drumdub, Danke.

MarcWessels
2004-05-05, 17:31:58
Büdde... ;)


Das Zitait hier-> "We should bear in mind that graphics cards based on ATI’s chips also have quite some optimizations of trilinear filtering that cannot be disabled;"

aus dem xBitlabs-Review finde ich seltsam. Warum haben die die Texturestageoptimierung nicht einfach per rtool deaktiviert? Zudem dann sicherlich im Falle von RTCW, aus dessen Benches das o.g. Zitat stammt, die X800XT noch immer schneller als die 6800U mit deaktivierten Optimierungen gewesen wäre - schließlich kann man doch aus Vergleichsbenches mit und ohne Texst-op. ersehen, daß die Geschwindigkeitsunterschiede im Bereich der Meßungenauigkeit liegen während der brilineare Filter der GeForce einen DEUTLICH größeren Unterschied verursacht.

aths
2004-05-05, 17:58:06
Original geschrieben von MarcWessels
Warum haben die die Texturestageoptimierung nicht einfach per rtool deaktiviert?Weil die neue Version noch so frisch war?

Allerdings kann man das auch mit einem vergleichsweise einfachen Registry-Hack abschalten.

gedi
2004-05-05, 18:08:03
Ich habe wirklich bald alle Reviews des X800 gelesen und nu stellt sich mir die Frage, ob denn die X800xt besser mit einer stärkeren CPU skaliert, als dies der NV40 tut? Denn wenn man so die Reviews miteinander vergleicht, so fällt auf, daß die X800xt vor allem mit A64-Systemen stark punkten kann. Oder was kann hierfür die Ursache sein? Für den Fall, daß diese Frage bereits gestellt wurde, möchte ich mich entschuldigen.

MarcWessels
2004-05-05, 18:51:20
Original geschrieben von aths
Weil die neue Version noch so frisch war?

Allerdings kann man das auch mit einem vergleichsweise einfachen Registry-Hack abschalten.


Tjoa, super... Vielleicht ham se's auch absichtlich nicht getan, damit se zum Vergleich immer die Zahlen der 6800U im "optimierten" Modus heranziehen können?

Godmode
2004-05-06, 00:32:17
Original geschrieben von MarcWessels
Tjoa, super... Vielleicht ham se's auch absichtlich nicht getan, damit se zum Vergleich immer die Zahlen der 6800U im "optimierten" Modus heranziehen können?


Haben sie deshalb gemacht, um die DAU Reviewer abzuhalten, Äpfel und Birnen zu vergleichen!

Ailuros
2004-05-06, 02:14:30
Original geschrieben von robbitop
wieso 450MHz AiL?
war in dem Test die 6800U mit 450MHz getaktet??

Der Vorteil in 1280 liegt mit 400MHz bei ~10%. Die 30% mit 450MHz sind nur eine Schaetzung.

betasilie
2004-05-06, 02:41:14
Original geschrieben von bans3i
Haben sie deshalb gemacht, um die DAU Reviewer abzuhalten, Äpfel und Birnen zu vergleichen!
Was ich nachvollziehen kann. Ich hätte an NVs Stelle auch nicht anders gehandelt.