PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller Speku-Thread R420 (war R420 12 Pipelines)


Seiten : 1 2 3 4 5 [6] 7 8 9 10 11 12

WEGA
2004-04-14, 21:12:25
um keine r420

betasilie
2004-04-14, 21:15:53
Original geschrieben von bans3i
http://www.3dfestival.com/2004/conferences/speakers.php

Ganz oben ist ein Banner mit ner Frau drauf die so ähnlich aussieht wie die auf ATI.com und Handschuhe hat sie auch an :)
Stimmt. Gut erkannt. :)

Original geschrieben von Ailuros
Ich will wagen zu spekulieren, dass der X800PRO verdammt nahe an 6800U liegt; es haengt wohl von der finalen Taktrate vom X800XT am Ende ab.
Schön, dass wenigsens einer meiner Meinung ist.

WEGA
2004-04-14, 21:17:36
Original geschrieben von betareverse
Schön, dass wenigsens einer meiner Meinung ist.

ich sag, dass die pro besser wird als die ultra von nv

Odal
2004-04-14, 21:37:34
Original geschrieben von WEGA
ich sag, dass die pro besser wird als die ultra von nv

das glaub ich nicht tim ;) max. genauso....die xt wird vermutlich schneller sein

betasilie
2004-04-14, 21:39:54
Original geschrieben von WEGA
ich sag, dass die pro besser wird als die ultra von nv
:up: Wobei ein Gleichstand ausreichen sollte, denn die 16-Pipe Variante kommt ja noch.

Godmode
2004-04-14, 21:59:35
Original geschrieben von betareverse
:up: Wobei ein Gleichstand ausreichen sollte, denn die 16-Pipe Variante kommt ja noch.

Glaubt ihr, das ATI bessere Performance pro Pipe haben wir als Nvidia?

Winter[Raven]
2004-04-14, 22:05:42
Original geschrieben von bans3i
Glaubt ihr, das ATI bessere Performance pro Pipe haben wir als Nvidia?

Die glauben nicht, die "HOFFEN" es ... *eg*

ironMonkey
2004-04-14, 22:06:25
Original geschrieben von bans3i
Glaubt ihr, das ATI bessere Performance pro Pipe haben wir als Nvidia?


Schwer zu sagen was neben Speed noch alles verbessert wurde bei der ATI, so wie es derzeit auschaut dürfte die NV bis max. 15% schneller sein pro Takt.



Gruß

robbitop
2004-04-14, 22:17:21
nein laut aths Artikel hat der NV40 eine mächtigerere Pipe von der Leistung her als der R300. Und der R420 wird vermutlich ein R300 mit 4 statt 2 Pixelprozessoren.
(technologisch wollen wir mal gar nicht anfangen).
Somit bräuchte er mehr Takt.

betasilie
2004-04-14, 22:19:23
Original geschrieben von bans3i
Glaubt ihr, das ATI bessere Performance pro Pipe haben wir als Nvidia?
Bei gleihem Takt?

Demirug
2004-04-14, 22:22:47
Bei B3d hat jemand ausgerechnet das eine NV40 Pipe etwa die 1,4 fache Shaderleistung einer R360 Pipe hat. Basis war der Shadermark.

Gast
2004-04-14, 22:23:49
Original geschrieben von Odal
das glaub ich nicht tim ;) max. genauso....die xt wird vermutlich schneller sein

Ja genau und der NV30 sollte den R300 auch locker schlagen hahahaha

betasilie
2004-04-14, 22:24:31
Original geschrieben von Demirug
Bei B3d hat jemand ausgerechnet das eine NV40 Pipe etwa die 1,4 fache Shaderleistung einer R360 Pipe hat. Basis war der Shadermark.
Wer sagt, dass die Leistung pro Pipe nicht erhöht wurde?

fizzo
2004-04-14, 22:26:37
Original geschrieben von betareverse
Wer sagt, dass die Leistung pro Pipe nicht erhöht wurde?

das wird wohl die entscheidende frage sein ob nun der r420 mithalten kann oder auch nicht!

robbitop
2004-04-14, 22:27:21
der Zeitfaktor???
Einen High End Chip komplett zu designen bis zur Fertigung braucht rund 2 Jahre. Die hatte man nicht, eher ein Jahr.
Und was man so hört bestätigt dies.

NOCH ist arithmetische Leitung nicht sooo wichtig, aber das wird noch kommen.

ich denke mal ATi wird den Takt entsprechend anpassen..

Demirug
2004-04-14, 22:32:40
Original geschrieben von betareverse
Wer sagt, dass die Leistung pro Pipe nicht erhöht wurde?

Keiner. Es ist aber IMHO eher unwahrscheinlich. Hätte ATI am Pixelprozessor grössere veränderungen vorgenommen müssten im 2.B Profil noch ein paar andere Features verfügbar sein.

LovesuckZ
2004-04-14, 22:42:50
Original geschrieben von Demirug
Bei B3d hat jemand ausgerechnet das eine NV40 Pipe etwa die 1,4 fache Shaderleistung einer R360 Pipe hat. Basis war der Shadermark.

Ich konnt's nicht rauslesen: FP32 oder FP16?

ironMonkey
2004-04-14, 22:44:15
Original geschrieben von betareverse
Wer sagt, dass die Leistung pro Pipe nicht erhöht wurde?

Naja, also wenn Pro 500MHz@12Pipe und XT 600MHz@16Pipe hat dann dürfte es klar sein das die Leistung nicht großartig verbessert wurde, auf jeden Fall ist die X800Pro so ziemlich genau das Gegenstück zu 6800 und die X800XT das Gegenstück zu 6800Ultra.


Gruß

-error-
2004-04-14, 22:45:00
Die X800Pro wird warscheinlich schneller als die 6800 sein, wenn sie denn tatsächlich mit 500mhz getaktet wird.

Und die X800XT sollte mindestens mit der 6800 Ultra gleichziehen. 600mhz GPU-Takt halte ich aber für unwarscheinlich.

Odal
2004-04-14, 22:45:18
Original geschrieben von Gast
Ja genau und der NV30 sollte den R300 auch locker schlagen hahahaha

was soll denn dieser unqualifizierte einwand? und zeige mir wo ich behaupte das der NV40 den r420 locker schlagen wird?

ich habe nur geschrieben das der Pro nicht schneller als der 6800u sein wird...der XT wird vermutlich schneller sein..

wie komm ich zu der annahme?

ganz einfach:

Pro=25%pipes weniger
r420 basiert sehr stark auf r300er reihe => wie demi schon erwaehnte werden sie das konzept nicht von grund auf redesigned haben...

d.h. pro pipe wird er nicht viel schneller als ein r300 sein..

der nv40 ist pro pipe aber deutlich schneller...

ergo braeuchte ein r420pro (meiner schaetzung nach) mind 20% mehr takt um die bessere NV40 effizienz auszugleichen... + die 25% mehr takt oben drauf wegen der 4 pipes weniger....

ein NV40u hat 400mhz*1,20*1,25 = 600 Mhz

d.h. ein R420pro braucht mind. 600 Mhz um ihn nur erstmal einzuholen...(zum ueberholen eher 650)

das waeren fast 50% mehr takt als beim r360 ... und das bei deutlich hoeherem transistorcount...

das glaubst du doch wohl selber nicht

ironMonkey
2004-04-14, 22:50:29
Original geschrieben von Powerd by ATI
Die X800Pro wird warscheinlich schneller als die 6800 sein, wenn sie denn tatsächlich mit 500mhz getaktet wird.

Und die X800XT sollte mindestens mit der 6800 Ultra gleichziehen. 600mhz GPU-Takt halte ich aber für unwarscheinlich.

500Mhz sind es min.


Gruß

Demirug
2004-04-14, 22:55:10
Original geschrieben von LovesuckZ
Ich konnt's nicht rauslesen: FP32 oder FP16?

Also wenn ich die Balken beim Shadermark richtig verstanden haben macht das dort kaum einen Unterschied.

Ich hoffe aber bald solche Leistungvergleiche der Pipelineeffizienz aus einer grösseren Basis an Shadern zu haben.

robbitop
2004-04-14, 22:58:24
R420 hatte einen SignOff Speed von 450MHz ..das wurde oft genug gesagt...einige erwarten trotzdem 600MHz *lol*

und vA ist es unwahrscheinlich dass die 16Pipe Version höher getaktet ist. Die 12er hätte es nötiger und würde sicher auch mehr bei gleichem Yield schaffen...

dildo4u
2004-04-14, 23:02:20
Original geschrieben von robbitop
R420 hatte einen SignOff Speed von 450MHz ..das wurde oft genug gesagt...einige erwarten trotzdem 600MHz *lol* pro 450 xt 550mein tipp richt für die NV40 zumindest in DX9 locker dafür is der NV40 das opengl biest

Odal
2004-04-14, 23:03:02
Original geschrieben von robbitop
R420 hatte einen SignOff Speed von 450MHz ..das wurde oft genug gesagt...einige erwarten trotzdem 600MHz *lol*

und vA ist es unwahrscheinlich dass die 16Pipe Version höher getaktet ist. Die 12er hätte es nötiger und würde sicher auch mehr bei gleichem Yield schaffen...

Quelle?

also ueber 500 erwarte ich schon...(aber keine 600 oder mehr :D )
aber mit 450 wird er der 6800u nicht das wasser reichen koennen...falls das stimmt...

WEGA
2004-04-14, 23:03:51
also in farcry schneidet der nv40 ja nciht besonders überragend ab. das amcht ati bestimmt besser. in FC is nv40 minimal besser als ne r360 udn ne r420 is ja fastr das slebe nur mit ordendlcih mehr pipelines und ordendlcih mehr takt. der versenkt die nv40 im boden

Demirug
2004-04-14, 23:06:36
Original geschrieben von WEGA
also in farcry schneidet der nv40 ja nciht besonders überragend ab. das amcht ati bestimmt besser. in FC is nv40 minimal besser als ne r360 udn ne r420 is ja fastr das slebe nur mit ordendlcih mehr pipelines und ordendlcih mehr takt. der versenkt die nv40 im boden

Bei Farcry klemt was anderes als die Shader. Um das aber genau heraus zu finden ist erst mal wieder eine Karte erforderlich.

Es könnte also durchaus sein das den R420 das gleiche problem trift.

Winter[Raven]
2004-04-14, 23:07:02
Original geschrieben von WEGA
also in farcry schneidet der nv40 ja nciht besonders überragend ab. das amcht ati bestimmt besser. in FC is nv40 minimal besser als ne r360 udn ne r420 is ja fastr das slebe nur mit ordendlcih mehr pipelines und ordendlcih mehr takt. der versenkt die nv40 im boden

du meinst das?

http://www.xbitlabs.com/images/video/nv40/nv40_games_gif/farcry_1280_pure.gif

Also eigentlich liegt der NV40 schon ein gutes Stück vor der R9800XT.

Ich persönlich glaube, hier machen sich einige etwas zuviel Hoffnung.

Demirug
2004-04-14, 23:08:02
Original geschrieben von robbitop
R420 hatte einen SignOff Speed von 450MHz ..das wurde oft genug gesagt...einige erwarten trotzdem 600MHz *lol*

und vA ist es unwahrscheinlich dass die 16Pipe Version höher getaktet ist. Die 12er hätte es nötiger und würde sicher auch mehr bei gleichem Yield schaffen...

ich war immer der Meinung das es 500MHz signoff waren. Ich weiss nur nicht ob das jetzt nur für einen Chip mit 12 oder auch für einen mit 16 pipes gelten soll.

Odal
2004-04-14, 23:08:51
Original geschrieben von Winter[Raven]
du meinst das?

http://www.xbitlabs.com/images/video/nv40/nv40_games_gif/farcry_1280_pure.gif

Also eigentlich liegt der NV40 schon ein gutes Stück vor der R9800XT.

Ich persönlich glaube, hier machen sich einige etwas zuviel Hoffnung.

ja bei der demo mit verbuggter BQ

http://www.xbitlabs.com//images/video/nv40/GameProblems/farcry_nv40.jpg

deekey777
2004-04-14, 23:09:37
Original geschrieben von Winter[Raven]
du meinst das?

http://www.xbitlabs.com/images/video/nv40/nv40_games_gif/farcry_1280_pure.gif

Also eigentlich liegt der NV40 schon ein gutes Stück vor der R9800XT.

Ich persönlich glaube, hier machen sich einige etwas zuviel Hoffnung.

Irgendeine HW-Seite hat es hingekriegt, dass die 6800 Ultra mit der 9800XT gleichauf ist. :banghead:

Demirug
2004-04-14, 23:10:06
Original geschrieben von Winter[Raven]
du meinst das?

http://www.xbitlabs.com/images/video/nv40/nv40_games_gif/farcry_1280_pure.gif

Also eigentlich liegt der NV40 schon ein gutes Stück vor der R9800XT.

Ich persönlich glaube, hier machen sich einige etwas zuviel Hoffnung.

Bei Xbit ist irgenendwas mit der Shaderauswahl total in die Hose gegangen. Dort scheint man den NV40 nur mit 1.1 Shader gebencht zu haben.

Odal
2004-04-14, 23:14:09
Original geschrieben von Demirug
Bei Xbit ist irgenendwas mit der Shaderauswahl total in die Hose gegangen. Dort scheint man den NV40 nur mit 1.1 Shader gebencht zu haben.

naja wenn da die 1.1er shader an der komischen BQ der farcry demo und den vielen FPS schuld sein sollen..muss die 6800U in ps2.0 shadern absolut unperformant sein (was ja laut shadermark usw. nicht so ist) oder die jungs von farcry haben irgendwas an ihren 2.0er shadern gruendlich versaut....

Winter[Raven]
2004-04-14, 23:15:08
Könnetst du das Bild als Link posten?

THX.

http://www.tomshardware.com/graphic/20040414/feforce_6800-42.html

Also die NV40 liegt immer > 50 Frames.

Die Radeon ehe so 25-30 Frames.

20 Frames mehr ist shcon spürbar.

Es kann sein, das Nvidia's Forceware noch total verbugt sind.

betasilie
2004-04-14, 23:16:49
Original geschrieben von Winter[Raven]
du meinst das?

http://www.xbitlabs.com/images/video/nv40/nv40_games_gif/farcry_1280_pure.gif

Also eigentlich liegt der NV40 schon ein gutes Stück vor der R9800XT.

Ich persönlich glaube, hier machen sich einige etwas zuviel Hoffnung.
Wer immer nocht nicht gerallt hat, dass dort mit der V1.1 und dementsprechend PS1.1 gebencht wurde, sollte vielleicht lieber ein Gameboyforum o.ä. aufsuchen. :eyes:

ironMonkey
2004-04-14, 23:17:21
Den Bench von Farcry finde ich bei THG am besten, auch dort wird extra hingeschrieben das die ATI die besser BQ hat.

die 6800 wird zu 100% trotz weniger Pipes auch nicht höher getaktet, es scheint so als ist es NV und ATI langsam zu dumm high end Modelle zu poduzieren wenn sie die nonPro/non Ultra genauso schnell takten lassen und billiger sind.
Einem niedrig getaktetem Chip kann man ja auch weniger Spannung( dadurch auch weniger Hitze) geben.


Gruß

deekey777
2004-04-14, 23:18:43
Original geschrieben von Winter[Raven]
Könnetst du das Bild als Link posten?

THX.

http://www.tomshardware.com/graphic/20040414/images/image063.gif

Also die NV40 liegt immer > 50 Frames.

Die Radeon ehe so 25-30 Frames.

20 Frames mehr ist shcon spürbar.

Es kann sein, das Nvidia's Forceware noch total verbugt sind.

Lieber den Seitenlink posten.
Ja, der 60er für die 6800 Ultra ist noch nicht ganz fertig - erst wenn die 6800 Ultra zum Verkauf angeboten wird, soll auch der finale Treiber für die 6800 Ultra kommen.

Demirug
2004-04-14, 23:19:06
Original geschrieben von Odal
naja wenn da die 1.1er shader an der komischen BQ der farcry demo und den vielen FPS schuld sein sollen..muss die 6800U in ps2.0 shadern absolut unperformant sein (was ja laut shadermark usw. nicht so ist) oder die jungs von farcry haben irgendwas an ihren 2.0er shadern gruendlich versaut....

Die 2.0 Shader sind schnell (das habe ich testen lassen). Ich sage ja schon die ganze Zeit an den Shadern kann es nicht liegen.

deekey777
2004-04-14, 23:21:34
Original geschrieben von ironMonkey
Den Bench von Farcry finde ich bei THG am besten, auch dort wird extra hingeschrieben das die ATI die besser BQ hat.

die 6800 wird zu 100% trotz weniger Pipes auch nicht höher getaktet, es scheint so als ist es NV und ATI langsam zu dumm high end Modelle zu poduzieren wenn sie die nonPro/non Ultra genauso schnell takten lassen und billiger sind.
Einem niedrig getaktetem Chip kann man ja auch weniger Spannung(dadurch auch weniger Hitze) geben.


Gruß

Ich mag lieber den von [H]ardOCP (http://www.hardocp.com/article.html?art=NjA2LDQ=) .

Odal
2004-04-14, 23:23:31
Original geschrieben von Demirug
Die 2.0 Shader sind schnell (das habe ich testen lassen). Ich sage ja schon die ganze Zeit an den Shadern kann es nicht liegen.

hast du nun genau die shader von farcry testen lassen oder irgendwelche anderen 2.0 shader?

ansonsten sind wir uns ja einig :D

Demirug
2004-04-14, 23:31:41
Original geschrieben von Odal
hast du nun genau die shader von farcry testen lassen oder irgendwelche anderen 2.0 shader?

ansonsten sind wir uns ja einig :D

Es waren die Farcry Shader (OK nur die aus der Demo) dafür aber die für nVidia Karten und die für ATI Karten.

Odal
2004-04-14, 23:36:12
Original geschrieben von Demirug
Es waren die Farcry Shader (OK nur die aus der Demo) dafür aber die für nVidia Karten und die für ATI Karten.

ok...soweit so gut...

und das waren mit sicherheit auch 2.0 shader?

weil einige davon berichteten das sie in der demo auf nvidia karten nur die 1.1 shader bekommen haben...

ich gruebel die ganze zeit wieso die 6800u nur in diesem einen game kaum schneller ist....

robbitop
2004-04-14, 23:37:11
die Sign Off Info stammt von AiL der ja bekanntlich recht gute Kontakte pflegt. Hat er gestern im Forum erwähnt.
500MHz könnten sein..
FarCry scheint trotz massiven Shadereinsatz Bandbreitenlimitiert.
Leos Skallierungstest attestierte dem NV40 allerdings konträr dazu eine gute Skallierung bei reinem Chiptakt.
Wer weiß, vieleicht hätte NV das gute Stück ein paar MHz höher takten sollen...bei 50-75MHz mehr wäre es wohl noch viel schwerer ranzukommen. Aber man wird neben den Yields Gründe gehabt haben...

WEGA
2004-04-14, 23:39:17
Original geschrieben von Winter[Raven]
du meinst das?

http://www.xbitlabs.com/images/video/nv40/nv40_games_gif/farcry_1280_pure.gif

Also eigentlich liegt der NV40 schon ein gutes Stück vor der R9800XT.

Ich persönlich glaube, hier machen sich einige etwas zuviel Hoffnung.

nein das

http://www.3dcenter.org/artikel/nv40_benchmarks/index17.php

Demirug
2004-04-14, 23:39:24
Original geschrieben von Odal
ok...soweit so gut...

und das waren mit sicherheit auch 2.0 shader?

weil einige davon berichteten das sie in der demo auf nvidia karten nur die 1.1 shader bekommen haben...

Ich habe die Shader benchen lassen nicht Farcry. Ich kenne daher für jeden Shader der in der Demo vorkommt die Anzahl von takten die der NV40 dafür braucht. Es wurde also defintive jeder Shader geprüft auch wenn dieser in einem normalen Farcry Bench gar nicht vorkommt.

Gast
2004-04-14, 23:46:19
Ähm Leute ihr wißt schon das ihr in einem R420 Thread seid und die Mods machen auch noch mit.

deekey777
2004-04-14, 23:48:10
Original geschrieben von Gast
Ähm Leute ihr wißt schon das ihr in einem R420 Thread seid und die Mods machen auch noch mit.

Darum machen wir die 6800 Ultra fertig!

:heuldoch:

WEGA
2004-04-14, 23:51:45
irgeneinr hat geschrieben, dass die x800pro so gut wird wie ne 6800 non-ultra. da lach ich mir einen ab (ROFL) die hat 128mb (max) , ddr1 (langsam) und 12 pipes und is noch niedriger getaktet als die ultra

wenn du die x800se meinst könntest du recht haben

Odal
2004-04-14, 23:52:25
Original geschrieben von Demirug
Ich habe die Shader benchen lassen nicht Farcry. Ich kenne daher für jeden Shader der in der Demo vorkommt die Anzahl von takten die der NV40 dafür braucht. Es wurde also defintive jeder Shader geprüft auch wenn dieser in einem normalen Farcry Bench gar nicht vorkommt.

ich suche schon die ganze zeit im netz nach einem bench wo farcry in moeglichst hoher aufloesung einmal mit kein AA und einmal mit 4x AA gebencht wurde...

kann leider nix finden :(

so koennte man das argument farcry=bandbreitenkiller festigen bzw. entkraeften

Winter[Raven]
2004-04-14, 23:54:49
Original geschrieben von WEGA
irgeneinr hat geschrieben, dass die x800pro so gut wird wie ne 6800 non-ultra. da lach ich mir einen ab (ROFL) die hat 128mb (max) und ddr1 (langsam) und 12 pipes und is noch niedriger getaktet als die ultra

Und was wird die X800Pro bitteschön ?

Du sollst nicht mir dem Finger auf andere Zeigen, wenn die Pro selber nur 12 Pipes hat.

ironMonkey
2004-04-14, 23:55:46
http://www.tomshardware.com/graphic/20040414/feforce_6800-41.html

WEGA
2004-04-14, 23:56:14
Original geschrieben von Winter[Raven]
Und was wird die X800Pro bitteschön ?

Du sollst nicht mir dem Finger auf andere Zeigen, wenn die Pro selber nur 12 Pipes hat.

die nv40 is in aqua mark und farcry kaum besser als ne ati mit 8 pipelines also ...

-error-
2004-04-14, 23:59:34
Original geschrieben von WEGA
irgeneinr hat geschrieben, dass die x800pro so gut wird wie ne 6800 non-ultra. da lach ich mir einen ab (ROFL) die hat 128mb (max) , ddr1 (langsam) und 12 pipes und is noch niedriger getaktet als die ultra

wenn du die x800se meinst könntest du recht haben

Äh du meinst das einer geschrieben hat, dass die 6800NonPro so schnell sein wird wie X800Pro?

WEGA
2004-04-15, 00:01:09
jaa

Odal
2004-04-15, 00:01:51
Original geschrieben von ironMonkey
http://www.tomshardware.com/graphic/20040414/feforce_6800-41.html

den hatte ich mir auch schon angeschaut...

1. problem: nur 1024x768 (und dennoch so niedrige FPS)
2. problem AF wurde miterhoeht

dann faellt mir auf das die 9800XT total wegbricht..
die 6800u zwar auch aber nicht ganz so extrem....

Winter[Raven]
2004-04-15, 00:04:26
Original geschrieben von Odal
den hatte ich mir auch schon angeschaut...

1. problem: nur 1024x768 (und dennoch so niedrige FPS)
2. problem AF wurde miterhoeht

dann faellt mir auf das die 9800XT total wegbricht..
die 6800u zwar auch aber nicht ganz so extrem....

Ja, und AA ist ja auch noch an ;). Da steht FarCry Rebellion02 - FSAA: High, Anisotropic: 4

WEGA
2004-04-15, 00:04:42
Original geschrieben von ironMonkey
Naja, also wenn Pro 500MHz@12Pipe und XT 600MHz@16Pipe hat dann dürfte es klar sein das die Leistung nicht großartig verbessert wurde, auf jeden Fall ist die X800Pro so ziemlich genau das Gegenstück zu 6800 und die X800XT das Gegenstück zu 6800Ultra.


Gruß

habs gefunden *g*

ironMonkey
2004-04-15, 00:08:48
@Wega, bei ATI wurde non pro gegen Pro getauscht und Pro gegen XT, nicht das du der X800Pro einen höheren Wert gibst wie sie hat, weil es ist an sich ne non Pro.

@Winterraven, wenn Glättung an ist dann steht da ne Zahl dahinter.


Gruß

Odal
2004-04-15, 00:09:02
Original geschrieben von WEGA
irgeneinr hat geschrieben, dass die x800pro so gut wird wie ne 6800 non-ultra. da lach ich mir einen ab (ROFL) die hat 128mb (max) , ddr1 (langsam) und 12 pipes und is noch niedriger getaktet als die ultra

wenn du die x800se meinst könntest du recht haben

nun

1. bekommt die pro auch "nur" 12 pipes und die SE gar "nur" 8 pipes

2. sind 128MB bei aktuellen games kein/kaum ein grund fuer geringere performance (und wer sagt denn das es nicht auch x800pros mit "nur" 128MB geben wird)

3. ist DDR1 nicht! langsam...da es derzeit schon karten gibt wo der mit 550/1100 (wie bei der ultra) laufen kann....
desweiteren wird die normale 6800 mit weniger bandbreite auskommen als die 6800u ohne das der chip "verhungert" da sie 25% weniger pipes zu versorgen hat


ps: ich habe damit jetzt nicht gesagt das die 6800nonultra schneller als die x800pro sein wird (und selbiges auch nicht verneint :D )

Odal
2004-04-15, 00:11:33
Original geschrieben von Winter[Raven]
Ja, und AA ist ja auch noch an ;). Da steht FarCry Rebellion02 - FSAA: High, Anisotropic: 4

darum gehts ja..das soll ja auch an sein...bei FSAA: High

und normal heisst hoffentlich aus.....

Winter[Raven]
2004-04-15, 00:11:50
@Winterraven, wenn Glättung an ist dann steht da ne Zahl dahinter.

Schau doch ins Farcry Grafikmenu ;).
Ich sag nix weiter ... schau einfach nach.

thop
2004-04-15, 01:16:54
Original geschrieben von betareverse
Wer immer nocht nicht gerallt hat, dass dort mit der V1.1 und dementsprechend PS1.1 gebencht wurde, sollte vielleicht lieber ein Gameboyforum o.ä. aufsuchen. :eyes:
:lolaway:

Bei FC is irgendwas im argen, das ist klar wie Klosbrühe, was mich aber sehr wundert da man bei crytek wohl mit nV zusammengarbeitet hat um den PS3.0 Support da reinzupatchen. Zumindest wird man mal miteinander gesprochen haben, ausserdem hatte crytek wohl ein nV40 Sample. Vielleicht ist es also doch einfach die Karte.

Der Zustand mit den Kacheln auf dem Boden ist allerdings ein Witz, vielleicht merken dass die meisten aber gar nicht (die Gameboy Fraktion X-D) und schauen nur auf die FPS, und so kommt nV mit der Optimierung (ich möchte das böse C Wort nicht benutzen) durch.

betasilie
2004-04-15, 01:21:49
Original geschrieben von thop
:lolaway:

Bei FC is irgendwas im argen, das ist klar wie Klosbrühe, was mich aber sehr wundert da man bei crytek wohl mit nV zusammengarbeitet hat um den PS3.0 Support da reinzupatchen. Zumindest wird man mal miteinander gesprochen haben, ausserdem hatte crytek wohl ein nV40 Sample. Vielleicht ist es also doch einfach die Karte.

Der Zustand mit den Kacheln auf dem Boden ist allerdings ein Witz, vielleicht merken dass die meisten aber gar nicht (die Gameboy Fraktion X-D) und schauen nur auf die FPS, und so kommt nV mit der Optimierung (ich möchte das böse C Wort nicht benutzen) durch.
Ich finde den Sachverhalt auch seltsam, aber einfach mal abwarten, wie es nach dem nächsten Patch aussieht und, ganz wichtig, ob dieser vor dem 26.04. kommt.

Wenn ich eine NV-Karte hätte, würde ich jedenfalls die Wand hochgehen, wenn CryTek mich zwingen würde mit Grafikbugs und Effekten auf GF4-Niveau zu spielen, wobei die Frage ist, ob es die Idee von CryTek war oder ob NV um diese Optimierungen gebeten hat.

Ich denke, das WinterRaven um die BQ der NV-Karten in der FC-Version 1.1 weiß, nur interessiert ihn das solange nicht, wie er mit den Benchmarks protzen kann.

Odal
2004-04-15, 01:26:33
Original geschrieben von thop
:lolaway:

Bei FC is irgendwas im argen, das ist klar wie Klosbrühe, was mich aber sehr wundert da man bei crytek wohl mit nV zusammengarbeitet hat um den PS3.0 Support da reinzupatchen. Zumindest wird man mal miteinander gesprochen haben, ausserdem hatte crytek wohl ein nV40 Sample. Vielleicht ist es also doch einfach die Karte.

Der Zustand mit den Kacheln auf dem Boden ist allerdings ein Witz, vielleicht merken dass die meisten aber gar nicht (die Gameboy Fraktion X-D) und schauen nur auf die FPS, und so kommt nV mit der Optimierung (ich möchte das böse C Wort nicht benutzen) durch.

das mit den kacheln ist ein bug, und wurde hier im forum auch schon des oefteren gepostet woran es liegt (wenn ihr mal aufmerksam lesen wuerdet...auch das was euch vielleicht nicht so gefaellt :D )

ich habe aber vergessen ob es am 1.1 patch liegt oder am verwendeten treiber....

thop
2004-04-15, 01:29:07
Denkst du wirklich dass so ein Bug bei crytek keinem auffällt? Und selbst wenn müsste der schon lange gefixt sein. Daher bin ich skeptisch dass es ein Bug ist. Ich schalte vorsichtshalber mal den Verschwörungsmode an ;D

betasilie
2004-04-15, 01:29:22
Original geschrieben von Odal
das mit den kacheln ist ein bug, und wurde hier im forum auch schon des oefteren gepostet woran es liegt (wenn ihr mal aufmerksam lesen wuerdet...auch das was euch vielleicht nicht so gefaellt :D )

ich habe aber vergessen ob es am 1.1 patch liegt oder am verwendeten treiber....
Afaik gibt es die Kacheln nur in der V1.1 von FarCry und ich würde mich nicht wundern, wenn dieser Bug vielleicht doch auch Performancegewinn für NV-Karten bringt. Deswegen muss bald mal ein Patch her, der dieses problem beseitgt, inkl. der PS1.1-Nutzung.

Odal
2004-04-15, 01:40:04
Original geschrieben von betareverse
Afaik gibt es die Kacheln nur in der V1.1 von FarCry und ich würde mich nicht wundern, wenn dieser Bug vielleicht doch auch Performancegewinn für NV-Karten bringt. Deswegen muss bald mal ein Patch her, der dieses problem beseitgt, inkl. der PS1.1-Nutzung.

oh man du siehst echt an allem einen cheat solangs mit nvidia zutun hat...

ich empfehle dir nochmal im nv unterforum den farcry thread zu lesen..bzw. kann dir dann auch nichtmehr helfen...

thop
2004-04-15, 01:43:12
Irgendwie möchte ich auch nicht wirklich glauben dass 200% mehr Shaderperformance und schlechtere IQ ganz zufällig in einem Patch sind.

StefanV
2004-04-15, 01:44:46
Original geschrieben von Odal
nun

1. bekommt die pro auch "nur" 12 pipes und die SE gar "nur" 8 pipes

2. sind 128MB bei aktuellen games kein/kaum ein grund fuer geringere performance (und wer sagt denn das es nicht auch x800pros mit "nur" 128MB geben wird)

1. woher du weißt?!
Bisher sagt die Gerüchtekühce eigentlich was anderes...

2. doch, bei einigen Games schon, da machen sich 128MB mehr/weniger schonmal mehr oder minder stark bemerkbar.

Odal
2004-04-15, 01:47:28
Original geschrieben von thop
Irgendwie möchte ich auch nicht wirklich glauben dass 200% mehr Shaderperformance und schlechtere IQ ganz zufällig in einem Patch sind.

wo hat der nv40 mit 1.1 200% mehr shaderperformance?

mit 1.0 laeuft er AFIK garnicht :D

wie willst du das also vergleichen/beurteilen

betasilie
2004-04-15, 01:49:42
Original geschrieben von Odal
oh man du siehst echt an allem einen cheat solangs mit nvidia zutun hat...

ich empfehle dir nochmal im nv unterforum den farcry thread zu lesen..bzw. kann dir dann auch nichtmehr helfen...
Sorry, wenn ich daneben liege mit meinem Verdacht. Ich will das auch garnicht felsenfest behaupten, aber wenn mit dem 1.1er Patch schon die PS2.0 abgeschaltet werden, was imho ein schlechter Witz ist (!), um die NV-Karten auf Kosten der Effektqualität Performancezuwachs gewinnen zu lassen, dann kann man vom schlimmsten ausgehen bei dem Kachelbug.

Vorher konnten die User auch von Hand die PS2.0-Effekte durch PS1.1-Effekte ersetzen, indem sie einfach im Grafikmenü enstsprechend den Detailgrad eingestellt haben. Wieso wohl werden NV-User nun gezwungen PS1.1 zu nutzen? Das ist schon sehr verdächtig und sieht ganz danch aus, dass man Reviewer dazu zwingen wollte, NV-Karten generell mit PS1.1 zu benchen.

Und wo bitte wird im FarCry-thread bewiesen, dass dieser Kachelbug nicht doch eine Art Cheat ist? Ich lass mich da gerne von dir eines besseren belehren.

thop
2004-04-15, 01:49:49
Touché :| Verdächtig finde ich es trotzdem.

Odal
2004-04-15, 01:51:06
Original geschrieben von Stefan Payne
1. woher du weißt?!
Bisher sagt die Gerüchtekühce eigentlich was anderes...

2. doch, bei einigen Games schon, da machen sich 128MB mehr/weniger schonmal mehr oder minder stark bemerkbar.

1. noe genau das sagt "meine" geruechtekueche

2. darum sagte ich ja auch nicht nicht... desweiteren wird es auch hoechstwahrscheinlich eine x800pro mit 128MB geben

3. beachte meine weiteren punkte...hat mich sowieso schon gewundert von dir heute nicht/nicht viel zu lesen...
verhindert gewesen? :D oder liegts dran das der NV40 nun doch schneller/kuehler/leiser/stromsparender als du erwartet hast ist? :D

Odal
2004-04-15, 01:54:35
Original geschrieben von betareverse
Sorry, wenn ich daneben liege mit meinem Verdacht. Ich will das auch garnicht felsenfest behaupten, aber wenn mit dem 1.1er Patch schon die PS2.0 abgeschaltet werden, was imho ein schlechter Witz ist (!), um die NV-Karten auf Kosten der Effektqualität Performancezuwachs gewinnen zu lassen, dann kann man vom schlimmsten ausgehen bei dem Kachelbug.

Und wo bitte wird im FarCry-thread bewiesen, dass dieser Kachelbug nicht doch eine Art Cheat ist? Ich lass mich da gerne von dir eines besseren belehren.

hast du mal gelesen? nein? das merkt man....

mitunter werden nicht "DIE" 2.0 shader durch den 1.1 patch abgestellt....
unter anderem wird eine geringere precision verwendet...aber was hat das nun mit dem nv40 zutun? (bei diesem gibts bei der precision keine/kaum performance unterschiede => siehe shadermark)

TheCounter
2004-04-15, 06:05:32
Original geschrieben von Odal
unter anderem wird eine geringere precision verwendet...aber was hat das nun mit dem nv40 zutun? (bei diesem gibts bei der precision keine/kaum performance unterschiede => siehe shadermark)

Das liegt wohl noch am Treiber? Die Unterschiede in der Bildqualität sind jedenfalls extrem, in Farcry, zwischen FP16 und FP24.

Aber das wird sicher noch nachgebessert...

Der nächste Patch zu Farcry kommt ende April/Anfang Mai.

ShadowXX
2004-04-15, 08:26:54
Lasst uns doch erstmal gucken, wie sich die r420 in FarCry schlägt....wenn es da genauso wie bei der nv40U aussieht, wissen wir, dass es nicht an der/den GraKas liegt, sondern woanders dran...

Wenn die r420 dagegen ordentliche zuwächse haben sollte, kann man es dann immer noch dem nv40 in die Schuhe schieben...

Insgesamt sollten wir die endgültige Bewertung des nv40 bis zum Launch des r420 aufschieben, erst dann kann man nämlich wirklich sagen, wie gut oder schlecht er wirklich ist.....
das der nv40 schneller als alle jetzigen Chips ist, war ja wohl klar und alles andere wäre wohl auch blamabel gewesen...

seahawk
2004-04-15, 08:48:28
Noch 11 Tage - maximal.

Oder hat heute eine Seite schon was veröffentlicht ?? :D

seahawk
2004-04-15, 09:12:28
http://karpo.org/images/Dunno/Ruby.jpg

Say hello to Ruby :D

thop
2004-04-15, 09:14:11
Ruby gefällt mir besser als Nalu, warum Dawn in Rente geschickt wurde ist mir echt ein Rätsel!

robbitop
2004-04-15, 09:16:08
Patch 1.1 zwingt afaik nicht zu PS 1.1 sondern bleibt bei PS2. Die Rechengenauigkeit wird jedoch von FP32 auf erträgliche FP16 herruntergesenkt, damit die FX noch spielbar ist. Jeder weiss, wie langsam die FX mit Shadern umgehen kann und FP32 ist dann ihr tot ;).
Zum Glück ist das mit NV40 anders, deswegen sind beim 60er Treiber scheinbar ne ganze Menge Cheats rausgeflogen.

BTW NV hat nen Grund das Teil mit "nur" 400MHz zu takten, mehr würde von der Bandbreite unwirksam sein. ATi wird mit Sicherheit ein ähnliches Problem haben, allerdings wenn man sich den Tech Artikel durchliesst hat man beim NV40 chipintern einige Änderungen gemacht um einiges an Bandbreite einzusparen (echte CC, fragment controller, Quad Based EarlyZ ...)

robbitop
2004-04-15, 09:19:22
naja man muss was Neues bringen...Dawn ist ja allseits bekannt und veraltet. Und Nalu hat mehr Polygone =)

ironMonkey
2004-04-15, 09:26:23
Original geschrieben von thop
Ruby gefällt mir besser als Nalu, warum Dawn in Rente geschickt wurde ist mir echt ein Rätsel!

Dawn hats halt nicht mehr gebracht;D

@Robbitop, der Grund für die niedrigen Taktraten bei NV wird wohl Hitz sein, weil auf OC reagiert laut 3DC die NV40 sehr gut und da die Kühlung nicht sehr laut sein soll...........



Gruß

Odal
2004-04-15, 09:51:16
Original geschrieben von thop
Ruby gefällt mir besser als Nalu, warum Dawn in Rente geschickt wurde ist mir echt ein Rätsel!

naja dawn hatte kurze haare darum mocht ich die sowieso nich so...
und ruby hat auch kurze...
da gefaellt mir die meerjungfrau schon besser.. :D
allerdings waeren schwarze haare ideal..naja man kann ja nicht alles haben

seahawk
2004-04-15, 09:55:06
Wenn man sich das Nalu Video angesehen hat, dann ist das schon ziemlich beeindruckend. Die Haaranimation ist besser als in vielen aktuelleren computeranimierten Kinofilmen. Das liegt z.B. deutlich über Monster AG.

Das Verhalten von Haaren im Wasser zu simulieren ist schon eine tolle Leistung. Wenn die Karte dass in Echtzeit flüssig rendern kann, dann muss ich zugeben, dass ich dieses Level erst bei der nächsten Generation erwartet hätte. (NV50/R500)

Ruby ist das eigentlich gewöhnlicher.

robbitop
2004-04-15, 09:57:52
naja man kann von einer Skallierungsanwendung nicht auf alle schliessen..
450MHz Chiptakt wäre imo problemlos dringewesen, bei gleicher Karte und gleichem Kühler, wenn man es nötig gehabt hätte...

imo

ironMonkey
2004-04-15, 10:15:00
Original geschrieben von seahawk
Wenn man sich das Nalu Video angesehen hat, dann ist das schon ziemlich beeindruckend. Die Haaranimation ist besser als in vielen aktuelleren computeranimierten Kinofilmen. Das liegt z.B. deutlich über Monster AG.

Das Verhalten von Haaren im Wasser zu simulieren ist schon eine tolle Leistung. Wenn die Karte dass in Echtzeit flüssig rendern kann, dann muss ich zugeben, dass ich dieses Level erst bei der nächsten Generation erwartet hätte. (NV50/R500)

Ruby ist das eigentlich gewöhnlicher.

Kann man sich die NV Videos eigentlich mit na ATI Karte anschauen, oder geht das schon wieder nicht.


Gruß

LovesuckZ
2004-04-15, 10:23:25
Original geschrieben von ironMonkey
Kann man sich die NV Videos eigentlich mit na ATI Karte anschauen, oder geht das schon wieder nicht.
Gruß

Hm, wenn sie unter OpenGL geschrieben wurden, dann eher nicht. Unter DX könnte es gehen, dann aber nur sehr langsam, wenn ATi über keine VS3.0 verfüge.

DrumDub
2004-04-15, 10:35:45
Original geschrieben von Odal
oh man du siehst echt an allem einen cheat solangs mit nvidia zutun hat...


der "cheat" kommt in diesem fall aber von crytek. ;)

Sunrise
2004-04-15, 10:36:19
Original geschrieben von ironMonkey
Kann man sich die NV Videos eigentlich mit na ATI Karte anschauen, oder geht das schon wieder nicht.
Gruß
NV wird sich da sicherlich wieder absichern, entweder durch propritäre Extensions oder/und direkte Abfragen der GPU. Man wird wohl erstmal sehen müssen (falls es möglich ist), welche Funktionen der GPU überhaupt genutzt werden, und ob ATI diese "supported". Einen Wrapper zu schreiben dürfte deshalb auch nicht gerade einfach sein.

Es war bei Dawn ja ungemein spaßig, als diese fast doppelt so schnell auf ATI-HW lief, und das mit dem Wrapper dazwischen. So etwas will und wird NV in Zukunft sicherlich verhindern.

LovesuckZ
2004-04-15, 10:37:46
Original geschrieben von Sunrise
Es war bei Dawn ja ungemein spaßig, als diese fast doppelt so schnell auf ATI-HW lief, und das mit dem Wrapper dazwischen. So etwas will und wird NV in Zukunft sicherlich verhindern.

Weil viele nicht gecheckt hatten, dass bei der Orginaldemo nen Framelimiter eingeschaltet war...

seahawk
2004-04-15, 10:39:30
Original geschrieben von ironMonkey
Kann man sich die NV Videos eigentlich mit na ATI Karte anschauen, oder geht das schon wieder nicht.


Gruß

Das Video der Demos ist kein Problem. Das Demo selber, eher nicht.

DrumDub
2004-04-15, 10:42:52
Original geschrieben von seahawk
Wenn man sich das Nalu Video angesehen hat, dann ist das schon ziemlich beeindruckend. Die Haaranimation ist besser als in vielen aktuelleren computeranimierten Kinofilmen. Das liegt z.B. deutlich über Monster AG.

Das Verhalten von Haaren im Wasser zu simulieren ist schon eine tolle Leistung. Wenn die Karte dass in Echtzeit flüssig rendern kann, dann muss ich zugeben, dass ich dieses Level erst bei der nächsten Generation erwartet hätte. (NV50/R500)

Ruby ist das eigentlich gewöhnlicher.

jupp. 300.000 vs. 80.000 polygone ist aber auch nen heftiger unterschied. möchte nicht wissen, wieviele der 300.000 polygone für die haare bei nalu draufgehen.

thop
2004-04-15, 10:43:11
Von PowerVR gibs ja schon seit nem halben Jahr PS3 Demos, wenn du dir die anschauen willst kommt halt einfach dass kein PS3 Support gefunden wurde und das wars.

robbitop
2004-04-15, 10:46:35
ich hab irgendwo gelesn dass PVR klammheimlich in 1-2 Monaten Serie5 releasen will....und nein ich weiss nicht ob es an einem Donnerstag ist :D

Mehrpack
2004-04-15, 10:48:44
Original geschrieben von thop
Ruby gefällt mir besser als Nalu, warum Dawn in Rente geschickt wurde ist mir echt ein Rätsel!

hi,
nunja man könnte, bitte könnte, vermuten das als nvidia bewusst geworden ist das es ihnen an purer leistung fehlte beim nv30, sie auf die alte methode "sex sells" zurück gegriffen haben um vorallen bei der männlichen zielgruppe mit viel geld punkten zukönnen.
was ja auch die möglichkeit dawn nackt zu zeigen etwas erklären würde.

der nv40 hat das nun im moment nicht nötig, da er ja genug rohpower hat, weswegen man bei nvidia wieder auf normal gegangen ist.
die andere frage ist obs überhaupt was gebracht hat bei den verkäufen.

aber ist nur eine theorie und überlegung mehr nicht.

Mehrpack

DrumDub
2004-04-15, 10:48:45
Original geschrieben von robbitop
ich hab irgendwo gelesn dass PVR klammheimlich in 1-2 Monaten Serie5 releasen will....und nein ich weiss nicht ob es an einem Donnerstag ist :D

pfft... die hoffung stirbt zuletzt. ;)

thop
2004-04-15, 10:51:59
Mehrpack: Die Tatsache ist aber das sex sells immer gilt, ganz egal ob das Produkt nix taugt oder obs super ist. Beim NV40 bedeutet es dann eben sex sells more. Ich denke nicht dass man sich bei nV da soviel Gedanken gemacht hat.

Den Namen Nalu kann ich noch nicht so Recht ableiten, bei Ruby ists einfach, Rubin = roter Edelstein. Ati = Rot :)

Winter[Raven]
2004-04-15, 10:55:06
Also, Nalu kann man mit einem Nudetrick sicherlich nackig machen, genauso wie bei der Dawn und Dusk.

Mehrpack
2004-04-15, 10:55:33
Original geschrieben von thop
Mehrpack: Die Tatsache ist aber das sex sells immer gilt, ganz egal ob das Produkt nix taugt oder obs super ist. Beim NV40 bedeutet es dann eben sex sells more. Ich denke nicht dass man sich bei nV da soviel Gedanken gemacht hat.


hi,
schon klar das es immer ist, aber bis zum NV30 gab es von Nvidia keine solche demo mit so einem heissen computerfeger.

die techdemo fürn NV25 war nen Werwolf mit fell, NV 20 war nen kopf von nem Wahrsager, NV15 nen Schloss, nv 10 röhren und für die Riva TNT das Nvidia zeichen.

das einzigste wo immer in verbindung mit den karten sex sells betrieben wurde war auf den verpackungen der hersteller, aber beim nv30 war es das erste mal das es von NV selber kam.

Mehrpack

Mehrpack
2004-04-15, 10:56:32
Original geschrieben von Winter[Raven]
Also, Nalu kann man mit einem Nudetrick sicherlich nackig machen, genauso wie bei der Dawn und Dusk.

hi,
vielleicht aber dann wird man wohl nur den oberbau nackig sehn, kann mir schlecht vorstellen das dann die komplette flosse wegfällt und man alles unterhalb des bauchnabels sieht, aber mal schaun.

Mehrpack

Gastxy
2004-04-15, 11:09:36
Mal was positives über den R420 aus ner anderen Richtung.

Den Börsenkurs von ATI hat die gestrige Vorstellung des Konkurenten NV nicht tangiert. Somit sagen indirekt die Insider, dass wirtschaftlich die Zukunft zumindest aus deren Sicht, sehr positiv gesichert ist. ATI weisst immer noch ein all time high aus.

Vor der Vorstellung des NV 30 ist der NV Kurs über Monate eingebrochen. Die Großen Börsenplayer wissen immmer mehr.

Ailuros
2004-04-15, 11:20:27
Original geschrieben von robbitop
ich hab irgendwo gelesn dass PVR klammheimlich in 1-2 Monaten Serie5 releasen will....und nein ich weiss nicht ob es an einem Donnerstag ist :D

Nachdem Threads einfach nur so geschlossen werden, gibt es wohl gar nichts mehr zum Thema zu sagen bis und wann es soweit kommt.

Gast
2004-04-15, 12:49:57
Bezüglich des verworfenen R400-Designs und der Neuauflage des R420:

Besteht eventuell die Möglichkeit, dass bestimmte Ideen des R400-Designs in den R420 eingegangen sind?

seahawk
2004-04-15, 13:06:30
Original geschrieben von Gast
Bezüglich des verworfenen R400-Designs und der Neuauflage des R420:

Besteht eventuell die Möglichkeit, dass bestimmte Ideen des R400-Designs in den R420 eingegangen sind?

Das kann uns wahrscheinlich nur ATI selber sagen. Noch wissen wir nicht genau genug über den R420 Bescheid, noch kennen wir Details des ursprünglichen R400.

HOT
2004-04-15, 13:48:47
Original geschrieben von Ailuros
Nachdem Threads einfach nur so geschlossen werden, gibt es wohl gar nichts mehr zum Thema zu sagen bis und wann es soweit kommt.

Na ja die Threads werden immer extremflamig ;) Da sind irgendwie immer die gleichen Leute dran schuld ;) Von daher ist es glaub ich besser so. Wenn das Ding dann tatsächlich mal kommt, kann man ja sagen HA HAA *fingerzeig* :D aber das war jetzt auch im Grunde ein Flame *gg* (büdde net so ernst nehmen ;))

betasilie
2004-04-15, 13:54:38
Original geschrieben von Odal
hast du mal gelesen? nein? das merkt man....

mitunter werden nicht "DIE" 2.0 shader durch den 1.1 patch abgestellt....
unter anderem wird eine geringere precision verwendet...aber was hat das nun mit dem nv40 zutun? (bei diesem gibts bei der precision keine/kaum performance unterschiede => siehe shadermark)
Nein, ich habe den Thread nicht komplett gelesen, weil er von Razor für seine Mittel missbraucht wurde.

Die 2.0Shader werden durch 1.1Shader ersetzt und die Präzision wird veringert? :eyes: Die ist klar, dass sich PS1.1 auch durch ihre Präzision von den 2.0Shadern unterscheiden?

Und was hat das mit dem NV40 zu tun fragst Du? Ganz einfach, der läuft bei FarCry ebenfalls im low-precision mode, was ihm mehr fps beschert.

Im übrigen habe ich gefragt wo Razor oder jemand anders in dem Thread bewiesen hat, dass dieser "Kachelbug", nicht auch Performancevorteile bringt. Da Du den Thread ja ausführlich gelesen hast, solltest Du in der Lage sein deine Behauptung diesbzgl. zu untermeuern.

Steel
2004-04-15, 14:09:49
Original geschrieben von Odal
naja dawn hatte kurze haare darum mocht ich die sowieso nich so...
und ruby hat auch kurze...
da gefaellt mir die meerjungfrau schon besser.. :D
allerdings waeren schwarze haare ideal..naja man kann ja nicht alles haben
Habt ihr noch nie ne Frau aus der Nähe gesehen? :D

Nalu, Dusk, Dawn - alles die selbe Tussi, nur in nem anderen Kostüm...
Das erkennt der Fachmann sofort. *eg*

Odal
2004-04-15, 14:16:37
Original geschrieben von betareverse
Nein, ich habe den Thread nicht komplett gelesen, weil er von Razor für seine Mittel missbraucht wurde.

Die 2.0Shader werden durch 1.1Shader ersetzt und die Präzision wird veringert? :eyes: Die ist klar, dass sich PS1.1 auch durch ihre Präzision von den 2.0Shadern unterscheiden?


wie oft denn noch?
Es werden nicht alle 2.0 shader durch 1.1 ersetzt und afik garkeine da die screenies mit 1.1 shadern anders aussehen

sagmal stellst du dich extra so an?

Original geschrieben von betareverse
Und was hat das mit dem NV40 zu tun fragst Du? Ganz einfach, der läuft bei FarCry ebenfalls im low-precision mode, was ihm mehr fps beschert.


http://www.techreport.com/reviews/2004q2/geforce-6800ultra/shadermark.gif

Original geschrieben von betareverse
Im übrigen habe ich gefragt wo Razor oder jemand anders in dem Thread bewiesen hat, dass dieser "Kachelbug", nicht auch Performancevorteile bringt. Da Du den Thread ja ausführlich gelesen hast, solltest Du in der Lage sein deine Behauptung diesbzgl. zu untermeuern.

nein mein freund...du hast behauptet das der kachelbug ein cheat ist um mehr fps zu bekommen...

betasilie
2004-04-15, 14:35:42
Original geschrieben von Odal
wie oft denn noch?
Es werden nicht alle 2.0 shader durch 1.1 ersetzt und afik garkeine da die screenies mit 1.1 shadern anders aussehen

Was denn nun? Kannst Du dich nicht entscheiden, da Du es nicht weißt? Ich dachte es stände alles in dem thread, den Du gelesen hast?

Original geschrieben von Odal
http://www.techreport.com/reviews/2004q2/geforce-6800ultra/shadermark.gif

Man kann vom Shadermark aus nicht wirklich auf FC mit voller Präzision schließen, da es ein synthetischer Test ist. Nur ein FarCry Patch, der dieses Problem beseitigt, kann wirklich zeigen, wieviel Performanceunterschied die niedrigere Genauigkeit verursacht hat.

Original geschrieben von Odal
nein mein freund...du hast behauptet das der kachelbug ein cheat ist um mehr fps zu bekommen...
nein mein freund ... :stareup: ... Ich habe gesagt, dass man nicht wirklich ausschließen kann, dass der Kachelbug als Cheat angesehen werden kann. Das wäre der Fall, wenn er dafür sorgt, dass die FX-Karten dadurch eine höhere Performance haben. Für mich deutet alles darauf hin.

Du, mein Freund :freak:, hast folgendes geschrieben:
Original geschrieben von Odal
Original geschrieben von betareverse
Afaik gibt es die Kacheln nur in der V1.1 von FarCry und ich würde mich nicht wundern, wenn dieser Bug vielleicht doch auch Performancegewinn für NV-Karten bringt. Deswegen muss bald mal ein Patch her, der dieses problem beseitgt, inkl. der PS1.1-Nutzung.
oh man du siehst echt an allem einen cheat solangs mit nvidia zutun hat...

ich empfehle dir nochmal im nv unterforum den farcry thread zu lesen..bzw. kann dir dann auch nichtmehr helfen...
Damit stellst Du indirekt die Behauptung auf, dass im besagten Thread ein Beweis zu finden ist, der meine Vermutung widerlegt. Bis jetzt hast Du mir keinen Beweis geliefert, dass der Kachelbug nicht ganz gewollt Performace auf Kosten der Qualität bringt und somit als Cheat fungiert.

Ailuros
2004-04-15, 14:58:39
Also ich bin bis jetzt noch nicht auf etwas beim NV40 gestossen was auf unlegitime Optimierungen deuten koennte. Mensch das Ding scheint ja zum hoechstmoeglichen Prozentual ohne besondere Probleme zu laufen, da darf auch mal eine bug hier und da auftauchen.

HOT
2004-04-15, 15:04:07
Original geschrieben von Ailuros
Also ich bin bis jetzt noch nicht auf etwas beim NV40 gestossen was auf unlegitime Optimierungen deuten koennte. Mensch das Ding scheint ja zum hoechstmoeglichen Prozentual ohne besondere Probleme zu laufen, da darf auch mal eine bug hier und da auftauchen.

Volle Zustimmung. Zumal der ja netmal bei NV Verschuldet sein könnte.

Godmode
2004-04-15, 15:07:55
Original geschrieben von Gastxy
Mal was positives über den R420 aus ner anderen Richtung.

Den Börsenkurs von ATI hat die gestrige Vorstellung des Konkurenten NV nicht tangiert. Somit sagen indirekt die Insider, dass wirtschaftlich die Zukunft zumindest aus deren Sicht, sehr positiv gesichert ist. ATI weisst immer noch ein all time high aus.

Vor der Vorstellung des NV 30 ist der NV Kurs über Monate eingebrochen. Die Großen Börsenplayer wissen immmer mehr.


Also da kann ich nicht zustimmen, meine ATI Aktien sind seit Montag gefallen ca -3%. Ich weiss nicht ob das mit dem NV40 was zu tun hat, aber ich glaub eher nicht.

Ich werde meine ATI Aktien diese Jahr verkaufen und einen ordentlichen Gewinn einstreifen :) Danke ATI

Börsianer reagieren eher auf Bilanzen oder Quartalszahlen. Meine Nvidia Aktien sind anfang Jänner vom einen auf den anderen Tag um 20 % gestiegen, weil sie ein so gutes Ergebnis gemacht haben.

WEGA
2004-04-15, 15:15:18
meint ihr am montag den 26. gibts shcon ne 10800Pro und HL2 zu kaufen ? und nv40 mit doom3 ?

Godmode
2004-04-15, 15:17:56
Original geschrieben von WEGA
meint ihr am montag den 26. gibts shcon ne 10800Pro und HL2 zu kaufen ? und nv40 mit doom3 ?

Das wär geil wenn es HL2 und Doom3 schon am 26. geben würde

-error-
2004-04-15, 15:24:28
HL2 kommt am 24.04. http://erscheinungstermine.de/index.php?cat=game&pl=3&l=H

Gast
2004-04-15, 15:25:57
Und wieso steht da 24.9.2004?!

WEGA
2004-04-15, 15:28:18
Original geschrieben von Powerd by ATI
HL2 kommt am 24.04. http://erscheinungstermine.de/index.php?cat=game&pl=3&l=H

aber wenn ati HL2 im bündel hat kommt es früher, sonst würde das bündel ja nichts bringen

betasilie
2004-04-15, 15:29:43
Original geschrieben von Ailuros
Also ich bin bis jetzt noch nicht auf etwas beim NV40 gestossen was auf unlegitime Optimierungen deuten koennte. Mensch das Ding scheint ja zum hoechstmoeglichen Prozentual ohne besondere Probleme zu laufen, da darf auch mal eine bug hier und da auftauchen.
Es geht nicht um einen NV40 spezifischen Bug, sondern um einen Bug in der FarCry V1.1, der ggf. Geschwindigkeit bringt. Dieser Bug tritt nur bei NV-Kaften auf, inkl. NV40. Mich würde nun einfach interessieren, wieviel Performance der NV40 verliert, wenn er bei voller Genauigkeit rechnet.

Besonders zum R420 Start sollten diese Probleme behoben sein, denn es ist ein Unding, dass der NV40 gegen R360 und R420 gebencht wird bei veringerter Bildqualität!

Es geht darum, dass mein These von Odal als Quatsch bezeichnet wurde, aber Beweise bleibt er schuldig. Er erzählt eigentlich nur immer, dass ich einen Thread nicht gelesen habe, der sich mit dem Thema beschäftigt. Nur scheinbar weiß er selber nicht, was genau in dem Thread drin steht.

Die Indizien sprechen dafür, dass es sich um einen "gewollten" Bug handelt, da der Patch in der V1.1 auch andere "Optmierungen" bei NV-Karten erzwingt, die für eine deutlich geminderte Bildqualität sorgen. Die Kacheln gehören imho ebenfalls zu diesen Optimierungen.

http://www.tomshardware.com/graphic/20040414/geforce_6800-46.html

deekey777
2004-04-15, 15:36:39
Original geschrieben von WEGA
meint ihr am montag den 26. gibts shcon ne 10800Pro und HL2 zu kaufen ? und nv40 mit doom3 ?

Warum streust du allen XT&HL2 Gutschein Besitzern Salz in die offene Wunde?
Was wir meinen, ist irrelevant, aller angegebenen HL2 Erscheinungstermine aller Onlineshops sind irrelevant... Die einzigen, die es wissen, sind Leute bei VALVe, und sie sagten:"HL2 wird vor dem Spätsommer 2004 nicht erscheinen, und bis zur E3 2004 werden keine neuen Infos freigegeben!"

DrumDub
2004-04-15, 15:57:42
Original geschrieben von HOT
Volle Zustimmung. Zumal der ja netmal bei NV Verschuldet sein könnte.

eben. das hat crytek mit dem patch 1.1 verbockt, da sie für die nv3x chips mehr leistung auf kosten der iq wollten.


beta

das problem mit der verminderten iq kann umgangen werden, wenn man den nv40 in farcry OHNE den patch 1.1 bencht. also r360 und nv40 ohne das patch benchen und schon haste vergelichbare ergebnisse.

Odal
2004-04-15, 16:23:47
Original geschrieben von betareverse
Was denn nun? Kannst Du dich nicht entscheiden, da Du es nicht weißt? Ich dachte es stände alles in dem thread, den Du gelesen hast?


Man kann vom Shadermark aus nicht wirklich auf FC mit voller Präzision schließen, da es ein synthetischer Test ist. Nur ein FarCry Patch, der dieses Problem beseitigt, kann wirklich zeigen, wieviel Performanceunterschied die niedrigere Genauigkeit verursacht hat.


nein mein freund ... :stareup: ... Ich habe gesagt, dass man nicht wirklich ausschließen kann, dass der Kachelbug als Cheat angesehen werden kann. Das wäre der Fall, wenn er dafür sorgt, dass die FX-Karten dadurch eine höhere Performance haben. Für mich deutet alles darauf hin.

Du, mein Freund :freak:, hast folgendes geschrieben:

oh man du siehst echt an allem einen cheat solangs mit nvidia zutun hat...

ich empfehle dir nochmal im nv unterforum den farcry thread zu lesen..bzw. kann dir dann auch nichtmehr helfen...
Damit stellst Du indirekt die Behauptung auf, dass im besagten Thread ein Beweis zu finden ist, der meine Vermutung widerlegt. Bis jetzt hast Du mir keinen Beweis geliefert, dass der Kachelbug nicht ganz gewollt Performace auf Kosten der Qualität bringt und somit als Cheat fungiert. [/SIZE][/QUOTE]

mein freund...frueher haben die leute shadermark immer so hochgejubelt und als KO argument herangezogen und nun ist er anscheinend nix mehr wert?
ich spiele auch nicht auf die ergebnisse direkt an sondern darauf das mit full precission kein riesen einbruch passiert....

und ich habe dir doch gesagt das Demi die farcry shader auf der 6800u testen lassen hat wobei rauskam das dort genuegend reserven vorhanden sind....


wieso nun farcry aus der reihe faellt vom ergebniss ueberlegen schon einige..... bring dich doch mal konstruktiv ein anstatt hinter jedem busch eine cheatende NVidiaverschwoerung zu sehen...

an farcry ist irgendetwas faul, ansonsten haette der NV40 deutlich mehr fps (und die 9800XT vermutlich auch)

und das mit dem bug..du hast doch behauptet (wenn ich mich rechtentsinne) das seid dem 1.1 patch beim NV40 auf kosten der bildqualitaet performance gemacht wird..komisch nur das farcry 1.0 mit dem NV40 garnicht laeuft :D

und ob oder ob nicht laesst sich nur schwer beweisen bis nicht ein treiber/patch herauskommt der diesen bug behebt...

aber bei jedem bildfehler vielleicht CHEAT zu schreihen sieht dir mal wieder aehnlich (naja d.h. solange die karte kein rotes logo traegt)

Sphinx
2004-04-15, 16:33:15
Nvidia hat keine ver´bug´te Treiber - plz.

betasilie
2004-04-15, 16:34:24
Der NV40 ist eine geniale GPU. Die Shaderperformance ist spitze. Der Shadermark ist ein spitzen benchmark, aber er ist nicht FarCry. :freak:

Darum geht es aber nicht. Es geht draum, wieviel, oder ob überhaupt, Performance flöten geht, wenn der NV40 mit voller Genauigkeit rechnen muss. Das tut er z.Zt. nicht. ... Ist das so schwer zu verstehen?

Und der Kachelbug ist mit dem Patch1.1 gekommen und es sieht so aus, als ob er zu den performancebringenden Maßnahmen für die NV3x-Reihe gehört, die dann auch u.U. dem NV40 mehr fps in den Benchmarks bringen.

Du behauptest, dass das quatsch ist. Ich bitte um Beweise, die Du vorgibst in einem dubiosen Thread gefunden zu haben. Nur bleibst Du diese Beweise schuldig, die meine These entkräften.

Winter[Raven]
2004-04-15, 16:36:07
Original geschrieben von Sphinx
Nvidia hat keine ver´bug´te Treiber - plz.

Da sagt aber Demirug was anderes :P

Seiner meinung ist der Treiber mit dem der NV40 getestet wurde extrem bugy ist ;)

robbitop
2004-04-15, 16:36:11
NV40 hat keine FX12 Rechenwerke mehr. Somit sollte die FX12 und FP16 Geschwindigkeit gleich sein. Somit kann dieser bei maximaler Geschwindigkeit PS 2.0 ausführen. Und ab NV40 sind die Register Files und die Chipinternen Bandbreiten höher, so dass FP32 kaum leistung verliert. Aber natürlich ist ein Leistungsverlust noch da, jedoch soll dieser laut b3d recht gering sein.
Mit dem 6x.xx sieht es so aus als fliegen viele "Optimierungen" die man bei NV3x brauchte einfach raus.
NV3x war eben ein schneller PS1.3 Chip mit PS2 als Option (von der Performance betrachtet).
NV40 ist nun ein verdammt schneller PS2 Chip mit mächtigeren Pipelines als die des R3xx Konzeptes.
Beim NV3x limitierte in FC die Pixelshaderrechenleistung, die eben wie bekannt, recht schwach ist.
Beim NV40 (ich wage zu spekulieren: auch beim R420) limitiert die Bandbreite.
Ist als wenn ein V16 Motor in einem Smart gefangen wäre.
Doch beim NV40 ist das nicht ganz so fatal aufgrund der mächtigen Caches, der neuen Colorcompression und des deutlich verbessererten EarlyZ (nun wird ein Quad statt einem Pixel pro Pipeline gecheckt und verworfen).
Ich spekuliere: wenn R420 ein R3xx mit 4 Pixelprozessoren ohne große Änderungen ist, würde er beim gleichen Takt noch mehr Bandbreitenlimitiert sein.

Die Farbwerte hauen einfach am meisten in die Bandbreite rein, so dass kaum noch was übrig bleibt (fatal: 4xMS).
Für Spiele die in naher Zukunft viel mehr auf mathematische Operationen als auf Texturoperationen angewiesen sind, ist das dann aber nicht mehr so schlimm, da diese weniger Bandbreite brauchen. Somit ist NV40/R420 eine PS2 Rakete.
In heutigen Spielen jedoch Bandbreitenlimitiert.

Odal
2004-04-15, 16:40:36
Original geschrieben von betareverse
Der NV40 ist eine geniale GPU. Die Shaderperformance ist spitze.

Darum geht es aber nicht. Es geht draum, wieviel, oder ob überhaupt, Performance flöten geht, wenn der NV40 mit voller Genauigkeit rechnen muss. Das tut er z.Zt. nicht. ... Ist das so schwer zu verstehen?


genau deswegen hab ich das shadermark bildchen reingemacht....

Original geschrieben von betareverse
Und der Kachelbug ist ist mit dem Patch1.1 gekommen und es könnte sein, als ob er zu den performancebringenden Maßnahmen für die NV3x-Reihe gehört.

Du behauptest, dass das quatsch ist. Ich bitte um Beweise, die Du vorgibst in einem dubiosen Thread gefunden zu haben. Nur bleibst Du diese Beweise schuldig, die meine These entkräften.

ich soll dir jetzt beweisen das nicht jeder bug ein cheat ist, wie du es vermutest?

1. ging es immer um den nv40 und der hat wahrlich genug shaderperformance und hat ein cheaten nicht noetig

2. gehoert das hier nicht in diesen thread

3. beweise du doch mal wieso das ein cheat sein soll/koennte?

4. in diesem dubiosen thread haettest du zumindest hinweise dadrauf gefunden wie verbuggt der 1.1 patch ist

5. nicht nvidia hat den 1.1 patch geliefert sondern crytek...du scheinst die sache aber als nvidias absicht auszulegen um mehr benchmark FPS zu bekommen

DrumDub
2004-04-15, 16:47:42
Original geschrieben von Odal
nvidia hat den 1.1 patch geliefert sondern crytek...du scheinst die sache aber als nvidias absicht auszulegen um mehr benchmark FPS zu bekommen

noe, hat er nicht.

far cry lässt sich mit dem patch 1.1 zwischen r3x0 und nv40 nicht vergleichen, da die bildqualität auf grund der nv3x "optimierungen", die in dem patch enthalten sind, auf dem mv40 schlechter aussieht. das ist alles.

und bist du sicher, das far cry in der version 1.0 nicht auf dem nv40 läuft?

deekey777
2004-04-15, 17:08:46
odal, du nervts!

Auszug aus der Log-Datei des Patches:

Other
- Improved shader speed (up to two times faster) for NVidia Geforce FX cards on very high settings
- Fixed fog bug with NVidia drivers
- Added support for NVidia NV40 chipset
- Fixed realtime shadows from blended trees
- Made improvements to lighting shaders on very high settings
- Fixed bug with lake reflections
- Added support fro PS3.0 shader profile

Auf Deutsch:
? Verbesserte Shader-Geschwindigkeit (bis zu 2X schneller) für nVidia Geforce FX-Karten in der Grafikeinstellung “Sehr Hoch”
? Ein Problem mit der Nebeldarstellung bei nVidia-Treibern
? Unterstützung nVidia NV40-Chipsatz
? Verbesserte Echtzeit-Schatten einiger Bäume
? Verbesserung der Lighting-Shader in der Grafikeinstellung “Sehr Hoch”
? Ein Fehler in den Seereflexionen wurde beseitigt
? Unterstützung für PS3.0 Shader-Profil

Genau diese "Improvements" führen dazu, dass die 6800 Ultra zum jetzigen Zeitpunkt blöd da steht; ob es einen Performancevorteil bringt, sei dahingestellt. Warum der Patch es aber nicht zulässt, dass die 6800er auf die vollen PS 2.0 Spielereien zugreifen darf, ist mir ein Rätsel, denn Power hat sie ja.
@DrumDum:

und bist du sicher, das far cry in der version 1.0 nicht auf dem nv40 läuft?

Gute Frage!

LovesuckZ
2004-04-15, 17:15:23
Original geschrieben von DrumDub
und bist du sicher, das far cry in der version 1.0 nicht auf dem nv40 läuft?

Geh in den nächsten hardwareshop, kaufe dir eine 5200, bau sie ein, lade dir den 60.72 runter, starte Farcry in version 1.0 und staune über das blaue Meer...

Es wurde von einigen im Nvidiaforum bestaetigt, dass Version 1.0 und 60.72 nicht harmonisch zusammenarbeiten.

Odal
2004-04-15, 17:17:29
Original geschrieben von DrumDub
und bist du sicher, das far cry in der version 1.0 nicht auf dem nv40 läuft?

bin ich zu 99,999% da ich in nem review gelesen habe das sie farcry 1.0 benchen wollten, aber nur die 1.1 version auf dem nv40 lief...

was wohl am benutzten treiber lag der ja fuer den NV40 "zwingend" ist

betasilie
2004-04-15, 17:21:09
Original geschrieben von Odal
beweise du doch mal wieso das ein cheat sein soll/koennte?


Ich habe eine Vermutung ausgesprochen und Indizien gebracht. Mehr habe ich garnicht behauptet. Du allerdings meinst zu wissen, dass meine Vermutung falsch ist, wobei Du den Beweis schuldig geblieben bist.

Wenn im Rahmen eines Patches, der massive Optimierungen für NV bringt solche Kacheln auftreten, die ganz eindeutig auf eine niedrige Genauigkeit hindeuten, dann ist es nicht sehr unwahrschelich, dass dieser Bug gewollt ist.

Original geschrieben von Odal
in diesem dubiosen thread haettest du zumindest hinweise dadrauf gefunden wie verbuggt der 1.1 patch ist
Schon klar, dass Razor den Eindruck erwecken wollte, dass alles was ihm optisch nicht gefällt als Bug bezeichnet wird. Dass Razor immer pro-NV interpretiert, ist ja bekannt.

Vielleicht kann Razor dir was vom Weihnachtsmann erzählen, mir sicherlich nicht.

Original geschrieben von Odal
nicht nvidia hat den 1.1 patch geliefert sondern crytek...du scheinst die sache aber als nvidias absicht auszulegen um mehr benchmark FPS zu bekommen
Achso. Du meinst also, dass CryTek ohne Einfluss von NV diese Optimierungen vorgenommen hat? :bigl: Du machst dich gerade massiv lächerlich.

Und langsam nervst Du wirklich, daher klinke ich mich an dieser Stelle aus.

WEGA
2004-04-15, 17:23:46
moglereien

DrumDub
2004-04-15, 17:27:09
Original geschrieben von LovesuckZ
Geh in den nächsten hardwareshop, kaufe dir eine 5200, bau sie ein, lade dir den 60.72 runter, starte Farcry in version 1.0 und staune über das blaue Meer...

Es wurde von einigen im Nvidiaforum bestaetigt, dass Version 1.0 und 60.72 nicht harmonisch zusammenarbeiten.

stimmt. jetzt erinner ich mich (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1710271#post1710271). die frage ist nur, ob das beim nv40 auch so auftritt oder nen problem im zusammenhang mit nv3x+60.72 ist. daher meine frage.

hier sieht man ein weiteres problem des nv40+60.72 im far cry demo: http://www.xbitlabs.com/articles/video/display/nv40_31.html

ist also einfach nicht vergleichbar, ob mit oder ohne patch 1.1. da hab ich mich getäuscht.

Quasar
2004-04-15, 17:27:13
Original geschrieben von Odal
wo hat der nv40 mit 1.1 200% mehr shaderperformance?

mit 1.0 laeuft er AFIK garnicht :D


Doch, er läuft. Allerdings gibt es Schattenfehler in den Aussenlevels. Ob sich das wie bei ATi mit "Full-Tri" beheben läßt - k.A.

Odal
2004-04-15, 17:33:32
Original geschrieben von deekey777
odal, du nervts!


du brauchst meine kommentare ja nicht zu lesen..bzw. es gibt auch noch eine ignore funktion.. danke


ps: was du auf atinews.de so schreibst durft ich vorhin schon bestaunen
Auszug aus der Log-Datei des Patches:


Original geschrieben von deekey777
Other
- Improved shader speed (up to two times faster) for NVidia Geforce FX cards on very high settings
- Fixed fog bug with NVidia drivers
- Added support for NVidia NV40 chipset
- Fixed realtime shadows from blended trees
- Made improvements to lighting shaders on very high settings
- Fixed bug with lake reflections
- Added support fro PS3.0 shader profile

Auf Deutsch:
? Verbesserte Shader-Geschwindigkeit (bis zu 2X schneller) für nVidia Geforce FX-Karten in der Grafikeinstellung “Sehr Hoch”
? Ein Problem mit der Nebeldarstellung bei nVidia-Treibern
? Unterstützung nVidia NV40-Chipsatz
? Verbesserte Echtzeit-Schatten einiger Bäume
? Verbesserung der Lighting-Shader in der Grafikeinstellung “Sehr Hoch”
? Ein Fehler in den Seereflexionen wurde beseitigt
? Unterstützung für PS3.0 Shader-Profil


ich kann englisch, komme gerade von einem 6 monatigem aufenthalt im engl. sprachigen ausland zurueck...aber danke :D


Original geschrieben von deekey777
Genau diese "Improvements" führen dazu, dass die 6800 Ultra zum jetzigen Zeitpunkt blöd da steht; ob es einen Performancevorteil bringt, sei dahingestellt. Warum der Patch es aber nicht zulässt, dass die 6800er auf die vollen PS 2.0 Spielereien zugreifen darf, ist mir ein Rätsel, denn Power hat sie ja.


nun und was soll mir das jetzt sagen? weil dort improved shaderspeed steht soll ich nun darauf schliessen das jede anomalie in dem game ein cheat ist?

aber das fuehrt jetzt wirklich zu weit

Quasar
2004-04-15, 17:38:29
Original geschrieben von thop
Den Namen Nalu kann ich noch nicht so Recht ableiten,[...]

http://www.nalu.com.au/About.htm

Odal
2004-04-15, 17:42:06
Original geschrieben von betareverse
Achso. Du meinst also, dass CryTek ohne Einfluss von NV diese Optimierungen vorgenommen hat? :bigl: Du machst dich gerade massiv lächerlich.


sie moegen sich tips geholt/bekommen haben aber optimiert hat crytek...denn interessant ist es auch vorallem fuer crytek..wer kauft sich ein game was nur im zeitlupentempo auf der eigenen karte rennt (und da nemm ich die Radeons nicht aus bei)...
fuer NV gibt es viele games aber fuer crytek nur 2 (grosse) grakahersteller


Original geschrieben von betareverse
Und langsam nervst Du wirklich, daher klinke ich mich an dieser Stelle aus.

auch hier der gleiche kommentar den ich schon weiter oben zu sowas gab...

ps: kaum kommen mal karten/benches die einem nicht in den kram passen schon wird cheat geschriehen und drauflosgebashed (bei farcry haperts ja wo anders drann :D )

ich selber werde es sehr begruessen wenn das gegenstueck von Ati zum NV40 mind. genausoschnell ist...
oder noch besser: unoptimiertes AF bietet (um mal wieder zum thema zurueckzukommen)

Gast
2004-04-15, 17:43:27
Original geschrieben von Odal
du brauchst meine kommentare ja nicht zu lesen..bzw. es gibt auch noch eine ignore funktion.. danke


ps: was du auf atinews.de so schreibst durft ich vorhin schon bestaunen
Auszug aus der Log-Datei des Patches:




ich kann englisch, komme gerade von einem 6 monatigem aufenthalt im engl. sprachigen ausland zurueck...aber danke :D




nun und was soll mir das jetzt sagen? weil dort improfed shaderspeed steht soll ich nun darauf schliessen das jede anomalie in dem game ein cheat ist?

aber das fuehrt jetzt wirklich zu weit

Du nervst alle,verschone die vernünftigen Leute.

Odal
2004-04-15, 17:48:59
Original geschrieben von Gast
Du nervst alle,verschone die vernünftigen Leute.

wenn du dich anmelden wuerdest haettest du auch die ignore funktion :D

TheCounter
2004-04-15, 17:51:56
Original geschrieben von Odal
sie moegen sich tips geholt/bekommen haben aber optimiert hat crytek...denn interessant ist es auch vorallem fuer crytek..wer kauft sich ein game was nur im zeitlupentempo auf der eigenen karte rennt (und da nemm ich die Radeons nicht aus bei)...
fuer NV gibt es viele games aber fuer crytek nur 2 (grosse) grakahersteller

Crytek arbeitet eng mit NVIDIA zusammen, und glaub mir, beide sind daran interessiert ihre Produkte zu verkaufen. Farcry ist das Technologisch am fortgeschrittenste erhältliche Spiel, und meinst du NVIDIA will in Benchmarks genau bei so einem Spiel das Weltweit schon über 800.000 mal vorbestellt wurde, schlecht darstehen?

Wenn dann lag es im Interesse von beiden.

ps: kaum kommen mal karten/benches die einem nicht in den kram passen schon wird cheat geschriehen und drauflosgebashed (bei farcry haperts ja wo anders drann )

Wer schreibt den hier was von Cheats? Das sind stinknormale Optimierungen, und mal ehrlich, ne optimierung auf geschwindigkeit ist mir lieber als wenn ich nur 10 FPS hab. Die Optimierungen sind für den NV40 auch noch aktiv, was aber zu 100% noch ausgebessert wird. Und man kann nicht erwarten das Farcry mit 100 FPS läuft, das ist ein Next-Generation Game, die brauchen nunmal Power ohne ende.

seahawk
2004-04-15, 17:54:41
Was soll der FarCry Krampf. Man kann NV nicht für einen verbuggten Patch verantwortlich machen. Trotzdem ist die Aussagekraft der Benches damit nicht mehr gegeben.

Man wird den R420 abwarten müssen um mehr sagen zu können und einen Patch der die Probleme von den GeForce Karten löst.

LovesuckZ
2004-04-15, 17:55:01
Original geschrieben von Quasar
Doch, er läuft. Allerdings gibt es Schattenfehler in den Aussenlevels. Ob sich das wie bei ATi mit "Full-Tri" beheben läßt - k.A.

Treten die selben Fehler auch mit dem Patch1.1 auf? Wenn ja, stelle mal im Planel beim Filterung auf "High Quality". Vielleicht hat Thilo bayer recht, dass hierdurch die "Stageoptimierung" weg ist...

Quasar
2004-04-15, 18:07:30
Original geschrieben von betareverse
Es geht nicht um einen NV40 spezifischen Bug, sondern um einen Bug in der FarCry V1.1, der ggf. Geschwindigkeit bringt. Dieser Bug tritt nur bei NV-Kaften auf, inkl. NV40. Mich würde nun einfach interessieren, wieviel Performance der NV40 verliert, wenn er bei voller Genauigkeit rechnet.


Ei gugge mal doa (http://www.beyond3d.com/previews/nvidia/nv40/index.php?p=21)...

"Looking at the 6800 Ultra results a little more closely though, we see some curious performances because in some cases the PS1.x and partial precision tests are slower than the PS2.0 tests! With the PS1.x and partial precision tests the internal precision is likely to be calculated at FP32 precision, but a type conversion must occur at some point - each of the shaders in this test are actually relatively, with the first few only using about 4 instructions - these are probably executed in two cycles and it may be the case that the the type conversion is not free and hence there is an extra cycle penalty for the partial precision and PS1.x integer shaders, meaning that the FP32 shaders are actually faster in these short shader cases."

Mit der Einschränkung allerdings, daß es sich um sehr sehr kurze Shader handelt - k.A. wie die bei Far Cry aussehen.

deekey777
2004-04-15, 18:12:51
Original geschrieben von Odal
du brauchst meine kommentare ja nicht zu lesen..bzw. es gibt auch noch eine ignore funktion.. danke


ps: was du auf atinews.de so schreibst durft ich vorhin schon bestaunen
Auszug aus der Log-Datei des Patches:




ich kann englisch, komme gerade von einem 6 monatigem aufenthalt im engl. sprachigen ausland zurueck...aber danke :D




nun und was soll mir das jetzt sagen? weil dort improved shaderspeed steht soll ich nun darauf schliessen das jede anomalie in dem game ein cheat ist?

aber das fuehrt jetzt wirklich zu weit

Was hast du denn auf ATinews denn von mir gelesen? Bist du dort Forumsmember bzw. was ist dein Nickname dort? Wenn du das schon so öffentlich schreibst, will ich es wissen!
Der einizige Satz in meinem Post, der an dich gerichtet war, ist, dass du nervst.
Wer spricht denn ausser dir von einem Cheat? Wie schon gesagt: Diese Verbesserungen kratzen am Image der 6800 Ultra, da dieser berechtigt vorgeworfen werden kann, dass sie FC schlechter darstellt als alle R3x0/RV3x0 - und sie kann nichts dafür. Der Vorwurf, dass die 6800 Ultra dadurch auch einen Performancevorteil hat, ist sehr wahrscheinlich, aber nicht zu "beweisen". Darum kann man auch sagen, dass die kommende X800Pro (die schon um einiges schneller als die 9800XT sein wird) mindestens so schnell wie die 6800 Ultra in FC sein wird - mit Qualitätssettings wohlbemerkt.

Quasar
2004-04-15, 18:14:33
Original geschrieben von LovesuckZ
Treten die selben Fehler auch mit dem Patch1.1 auf? Wenn ja, stelle mal im Planel beim Filterung auf "High Quality". Vielleicht hat Thilo bayer recht, dass hierdurch die "Stageoptimierung" weg ist...

Ich habe keinen nV40. Ich konnte mir allerdings Far Cry auf einem anschauen.

Wie gesagt, v1.0 läuft, aber wenn man auf very high stellt, gibt's hübsche Schattenfehler (k.A. wie das in Innenlevels ist)

Gast
2004-04-15, 18:59:36
irgendetwas sagt mir, daß ATI noch ein Ass im Ärmel hat: Vielleicht ein 512-Bit Speicherinterface :) ?

deekey777
2004-04-15, 19:01:35
Original geschrieben von Gast
irgendetwas sagt mir, daß ATI noch ein Ass im Ärmel hat: Vielleicht ein 512-Bit Speicherinterface :) ?

Machbar, aber zu teuer.

Odal
2004-04-15, 19:03:01
Original geschrieben von TheCounter
Wer schreibt den hier was von Cheats? Das sind stinknormale Optimierungen, und mal ehrlich, ne optimierung auf geschwindigkeit ist mir lieber als wenn ich nur 10 FPS hab. Die Optimierungen sind für den NV40 auch noch aktiv, was aber zu 100% noch ausgebessert wird. Und man kann nicht erwarten das Farcry mit 100 FPS läuft, das ist ein Next-Generation Game, die brauchen nunmal Power ohne ende.

beta schrieb zwar nicht das es fuer ihn feststeht das es ein cheaten ist aber es ging in die richtung das es fuer ihn sehr wahrscheinlich ist (zumindest las ich das raus vielleicht mein fehler)

ich glaube das wenn dann die ps2.0 durch ps1.1 ersetzt werden wuerde..was bei den kacheln laut optik nicht der fall ist

und ich wehre mich dagegen alles als moegl. cheat abzutun...

lieber sollte man sich mal gedanken machen wieso farcry so schlecht performt (auch auf highend karten mit genug PS2.0 speed)...das hab ich ja auch an anderer stelle schon angefangen...

und (um beim thema zu bleiben) ob es auf dem R420 genauso schlecht performen koennte

Odal
2004-04-15, 19:05:43
Original geschrieben von Quasar
Mit der Einschränkung allerdings, daß es sich um sehr sehr kurze Shader handelt - k.A. wie die bei Far Cry aussehen.

an den shadern kanns laut demi nicht liegen... das is es ja

eventuell ist irgendwas vermurkst und die R9800xt wuerde auch noch schneller laufen

WEGA
2004-04-15, 19:09:27
wann macht denn ati so ne vorstellung wie NV? wo alle details preisgegeben werden und reviews veröffendlciht werden

Gast
2004-04-15, 19:12:00
@deekey777

dachten dies vor der Vorstellung der 9700 nicht auch alle (in Bezug auf 128-Bit <-> 256-Bit)??

TheCounter
2004-04-15, 19:16:53
Original geschrieben von Odal
an den shadern kanns laut demi nicht liegen... das is es ja

eventuell ist irgendwas vermurkst und die R9800xt wuerde auch noch schneller laufen

Wie wär es mit der CPU? Farcry braucht extrem viel CPU Power, die KI und Physik zieht ne Menge (Das sind dann locker mal 25-30%). Bei P4 CPU's sollte man außerdem HT ausschalten, dadurch performt Farcry 7% schneller als wenn es an ist, den entsprechenden Post gibts dazu im Farcry Forum.

Diese 25-30% will man übrigens, wer hätte es gedacht, mit 64-Bit bei CPU's wieder gut machen, speziell wurde vom Athlon 64 gesprochen, mal sehen ob das wirklich machbar ist :)

reunion
2004-04-15, 19:20:09
Original geschrieben von TheCounter
Wie wär es mit der CPU? Farcry braucht extrem viel CPU Power, die KI und Physik zieht ne Menge (Das sind dann locker mal 25-30%). Bei P4 CPU's sollte man außerdem HT ausschalten, dadurch performt Farcry 7% schneller als wenn es an ist, den entsprechenden Post gibts dazu im Farcry Forum.

Diese 25-30% will man übrigens, wer hätte es gedacht, mit 64-Bit bei CPU's wieder gut machen, speziell wurde vom Athlon 64 gesprochen, mal sehen ob das wirklich machbar ist :)

Wenn es wirklich eine CPU-Limitierung wäre müsste der NV40 aber fast keine Leistung bei einsatz von höherer Auflösung oder AA bzw. AF verlieren. Tut er aber...

Odal
2004-04-15, 19:26:28
Original geschrieben von deekey777
Was hast du denn auf ATinews denn von mir gelesen? Bist du dort Forumsmember bzw. was ist dein Nickname dort? Wenn du das schon so öffentlich schreibst, will ich es wissen!


nein ich bin da nicht registriert
und das war auch nicht gegen dich gerichtet sondern sollte nur als anmerkung sein das du das mit den kacheln auch auf ersetzung von PS2.0 auf 1.1 schiebst (was ich anders sehe)
das war nicht boes gemeint...

Original geschrieben von deekey777
Der Vorwurf, dass die 6800 Ultra dadurch auch einen Performancevorteil hat, ist sehr wahrscheinlich, aber nicht zu "beweisen". Darum kann man auch sagen, dass die kommende X800Pro (die schon um einiges schneller als die 9800XT sein wird) mindestens so schnell wie die 6800 Ultra in FC sein wird - mit Qualitätssettings wohlbemerkt.

wenn sie da so einen performancevorteil haben wuerde wuerde sie nicht in farcry so miess abschneiden...und ich erwaehne es gern nochmal...es liegt nicht an den shadern....

und genau das interessiert mich...woran das liegt und ob dasselbe spekulativ beim R420 auftreten wird...

bzw. ob wir auch auf aktuellen karten noch ein deutliches stueck an mehrperformance sehen koennen wenn crytek mal mit den (spekulativen) bugs aufraeumt

WEGA
2004-04-15, 19:27:23
und was ist hier bei UT los?

http://www.xbitlabs.com/images/video/nv40/nv40_games_gif/torlan_1024_pure.gif

http://www.xbitlabs.com/images/video/nv40/nv40_games_gif/torlan_1280_pure.gif

bei 1600 pixel ok

http://www.xbitlabs.com/images/video/nv40/nv40_games_gif/torlan_1600_pure.gif

In den niedrigeren Auflösungen zeigt ist das Timedemo noch CPU-limitiert. In 1600x1200 deutet sich das Leistungspotential der GeForce 6800 aber bereits an.

komsiche begründung, und warum is der r360 biem ersten bench dann besser, wenns an der cpu liegt?

[dzp]Viper
2004-04-15, 19:28:26
Original geschrieben von deekey777
Machbar, aber zu teuer.

das hat man damals auch bei r300 gesagt ;)

Aber ich glaube selber nicht dran

16 "pipes" + ca. 550 mhz GPU und 500-600 mhz RAM + schon sehr gute PS2.0 performance vom vorgänger (welche vielleicht noch besser gemacht wurde)

Ich denke schon, dass dies reicht, um dem NV40 Parole zu bieten...

Ich glaube aber auch nicht daran, dass die X800 die am 26.4 vorgestellt wird, die 6800 ultra schlagen kann - dann wohl eher die x800 XT...

Aber es wäre ja alles nicht so schön, wenn es nicht so spannend wäre - oder? ;)

Odal
2004-04-15, 19:30:30
Original geschrieben von TheCounter
Wie wär es mit der CPU? Farcry braucht extrem viel CPU Power, die KI und Physik zieht ne Menge (Das sind dann locker mal 25-30%). Bei P4 CPU's sollte man außerdem HT ausschalten, dadurch performt Farcry 7% schneller als wenn es an ist, den entsprechenden Post gibts dazu im Farcry Forum.

Diese 25-30% will man übrigens, wer hätte es gedacht, mit 64-Bit bei CPU's wieder gut machen, speziell wurde vom Athlon 64 gesprochen, mal sehen ob das wirklich machbar ist :)

das mit der CPU limitierung hatte ich auch ueberlegt...aber reunion erwaehnt es ja schon...

von der sache mit HT hab ich auch gelesen :D frage mich aber noch nach den genauen hintergruenden

ich gruebelte auch ueber bandbreitenlimitierung bei farcry....allerdings brauch ich entweder nen nv40 :D oder benches mit sehr hoher aufloesung und einmal 4x AA an und einmal kein AA an

wo ich nix brauchbares finden konnte....kann das mal einer mit ner R9800XT probieren? vielleicht is die auch schon bandbreitenlimitiert...

Odal
2004-04-15, 19:34:22
Original geschrieben von WEGA
und was ist hier bei UT los?

In den niedrigeren Auflösungen zeigt ist das Timedemo noch CPU-limitiert. In 1600x1200 deutet sich das Leistungspotential der GeForce 6800 aber bereits an.

komsiche begründung

ist CPU limitiert steht doch da...

ab 1600x1200 gibts fuer die alten generationen schon soviel zu schuften das sie nimmer der cpu hinterherkommen un einbrechen...die 6800u noch nicht..ab ne hoeheren wuerde man sowas auch beim nv40 sehen...

WEGA
2004-04-15, 19:37:44
Original geschrieben von Odal
ist CPU limitiert steht doch da...

ab 1600x1200 gibts fuer die alten generationen schon soviel zu schuften das sie nimmer der cpu hinterherkommen un einbrechen...die 6800u noch nicht..ab ne hoeheren wuerde man sowas auch beim nv40 sehen...

ah klar jetzt versteht ichs. habs zu erst andersrum gesehen.

deekey777
2004-04-15, 19:38:43
http://www.hardocp.com/article.html?art=NjA2LDU=

Schaut euch mal die Vergleichsbilder an - es ist deutlich zu sehen, dass die 6800 Ultra mehr PS 2.0 Effekte als die 5950 darstellt.

dildo4u
2004-04-15, 19:46:01
Original geschrieben von deekey777
http://www.hardocp.com/article.html?art=NjA2LDU=

Schaut euch mal die Vergleichsbilder an - es ist deutlich zu sehen, dass die 6800 Ultra mehr PS 2.0 Effekte als die 5950 darstellt. so lange bei der NV40 die grafik bugs nicfht behoben werden ist ein vergleich sinnlos siehen 2 bild kacheln

[dzp]Viper
2004-04-15, 19:49:53
Wollt ihr mal das neue gesicht von der ATI dame sehen? :D

http://www.frazpc.pl/pliki/2002/auto/1082013630591956.jpg


Wenns nicht geht, dann auf www.frazpc.pl gehen und weiter unten ist ein Zeitungsausschnitt wo beide damen (NV und ATI) zu sehen sind

Odal
2004-04-15, 19:51:27
Original geschrieben von [dzp]Viper
Wollt ihr mal das neue gesicht von der ATI dame sehen? :D

http://www.frazpc.pl/pliki/2002/auto/1082013630591956.jpg


schon alt *ggg* hat hier schon jemand heute mittag gepostet :D

[dzp]Viper
2004-04-15, 19:52:41
Original geschrieben von Odal
schon alt *ggg* hat hier schon jemand heute mittag gepostet :D

;( ;( ;(

bin ich mal wieder "0wned" ;(

Gast
2004-04-15, 19:58:39
ob man mit der Polygonanzahl (300000 <-> 80000)die Überlegenheit des R420 demonstrieren will?

Odal
2004-04-15, 20:00:57
Original geschrieben von Gast
ob man mit der Polygonanzahl (300000 <-> 80000)die Überlegenheit des R420 demonstrieren will?

die 300000 hat du nalu und nich ruby

???

deekey777
2004-04-15, 20:05:20
Original geschrieben von [dzp]Viper
das hat man damals auch bei r300 gesagt ;)

Aber ich glaube selber nicht dran

16 "pipes" + ca. 550 mhz GPU und 500-600 mhz RAM + schon sehr gute PS2.0 performance vom vorgänger (welche vielleicht noch besser gemacht wurde)

Ich denke schon, dass dies reicht, um dem NV40 Parole zu bieten...

Ich glaube aber auch nicht daran, dass die X800 die am 26.4 vorgestellt wird, die 6800 ultra schlagen kann - dann wohl eher die x800 XT...

Aber es wäre ja alles nicht so schön, wenn es nicht so spannend wäre - oder? ;)

Die Parhelia hatte doch auch so etwas in dieser Richtung?

Gast
2004-04-15, 20:08:01
@Odal

UUPS - sorry, klar stimmt ja.

DrumDub
2004-04-15, 20:08:01
Original geschrieben von Odal
die 300000 hat du nalu und nich ruby

???

die ironie des gastes ist dir wohl entgangen. ;)

edit: na, ich habs so interprtiert, der gast hats wohl doch anders gemeint.

DrumDub
2004-04-15, 20:10:21
Original geschrieben von deekey777
Die Parhelia hatte doch auch so etwas in dieser Richtung?

noe. nur nen 256bit controller, der aber nicht gesplitte ist und daher recht ineffizient.

Demirug
2004-04-15, 20:19:38
Original geschrieben von Quasar
Ei gugge mal doa (http://www.beyond3d.com/previews/nvidia/nv40/index.php?p=21)...

"Looking at the 6800 Ultra results a little more closely though, we see some curious performances because in some cases the PS1.x and partial precision tests are slower than the PS2.0 tests! With the PS1.x and partial precision tests the internal precision is likely to be calculated at FP32 precision, but a type conversion must occur at some point - each of the shaders in this test are actually relatively, with the first few only using about 4 instructions - these are probably executed in two cycles and it may be the case that the the type conversion is not free and hence there is an extra cycle penalty for the partial precision and PS1.x integer shaders, meaning that the FP32 shaders are actually faster in these short shader cases."

Mit der Einschränkung allerdings, daß es sich um sehr sehr kurze Shader handelt - k.A. wie die bei Far Cry aussehen.

Die Erklärung kaufe ich nicht. Wenn ich mich richtig erinnere sind die "Simple" Shader nicht 1:1 Vergleichbar.

Ich würde das ja mal schnell nachprüfen nur dummerweise ist mir letzte Nacht die Festplatte mit diesen Sachen abgeraucht und ich weiss nicht auf welcher Sicherungs-CD (wenn überhaupt) ich den test haben. Also wenn jemand gerade den Link dazu hat...

EDIT: Farcry hat teilweise seeeeeeehr kurze Shader.

TheCounter
2004-04-15, 20:20:08
Ich hab was interessantes in Farcry gefunden, könnte es daran liegen das die FX nur half precision verwendet?


#ifdef NV3X
#define FLOAT half
#define FLOAT2 half2
#define FLOAT3 half3
#define FLOAT4 half4
#endif
#ifdef OTHER
#define FLOAT float
#define FLOAT2 float2
#define FLOAT3 float3
#define FLOAT4 float4
#endif

Demirug
2004-04-15, 20:22:27
Original geschrieben von TheCounter
Ich hab was interessantes in Farcry gefunden, könnte es daran liegen das die FX nur half precision verwendet?


#ifdef NV3X
#define FLOAT half
#define FLOAT2 half2
#define FLOAT3 half3
#define FLOAT4 half4
#endif
#ifdef OTHER
#define FLOAT float
#define FLOAT2 float2
#define FLOAT3 float3
#define FLOAT4 float4
#endif


Ja, daher kommt das.

TheCounter
2004-04-15, 20:24:18
Original geschrieben von Demirug
Ja, daher kommt das.

Dann ist es doch kein Problem einen kleinen Patch zu machen oder? Einfach die half in float umändern, würde das funktionieren?

Godmode
2004-04-15, 20:25:56
Original geschrieben von Gast
@deekey777

dachten dies vor der Vorstellung der 9700 nicht auch alle (in Bezug auf 128-Bit <-> 256-Bit)??

Ja und beim NV30 dachten dann auch alle dass er 256 bit haben wird ;D ;D ;D

Das wär aber echt der Knaller schlechthin wenn ATI mit 512 Bit Interface auftrumpfen würde und vielleicht dann auch noch Tri-TMU's. Das mit den 512 Bit Interface glaube ich deswegen nicht so ganz, da man ja schon von 600 MHz RAM Takt ausgeht und das spricht doch eher für 256 Bit, naja aber man weiß ja nie.

Godmode
2004-04-15, 20:27:40
Original geschrieben von [dzp]Viper

Ich glaube aber auch nicht daran, dass die X800 die am 26.4 vorgestellt wird, die 6800 ultra schlagen kann - dann wohl eher die x800 XT...



Werden vorher Review Boards verschickt?

Zu dem ganzen Launch-Event kann man wirklich sagen, die wisssen wie man sowas macht!

-Vorstellung auf ner Lanparty
-Extra Präsentationen für die Experten(3DC,..)
-Mega PR Kampagne auf der Webpage
-Überall starke Reviews

Also die Marketing Fritzen von NV haben da wieder recht kräftig zugeschlagen, mich hat es echt gewundert das ATI nicht ein paar Details leaken lassen hat. Naja vielleicht wird der R420 wirklich so ein extremer Überflieger und ownt NV40 so wie NV40 das jetzige am Markt schlägt.

Demirug
2004-04-15, 20:28:27
Original geschrieben von TheCounter
Dann ist es doch kein Problem einen kleinen Patch zu machen oder? Einfach die half in float umändern, würde das funktionieren?

Kannst es ja mal ausprobieren.

TheCounter
2004-04-15, 20:30:30
Original geschrieben von Demirug
Kannst es ja mal ausprobieren.

Ich hab nur leider (Mehr oder minder :D) keine GeForce FX, muss ich halt jemanden suchen der eine hat :)

Trotzdem danke!

EDIT

Wenns klappt bräuchte man nurnoch jemanden der nen NV40 hat, dann könnte man nochmal testen :)

Odal
2004-04-15, 20:32:54
Original geschrieben von TheCounter
Ich hab nur leider (Mehr oder minder :D) keine GeForce FX, muss ich halt jemanden suchen der eine hat :)

Trotzdem danke!

ich hab zwar eine aber gerade kein farcry in der naehe..jedenfalls nicht auf dem rechner hier :D

mir hilft ja auch keiner un guckt mal mit seiner 9800xt ob die bandbreitenlimitiert ist :(

Winter[Raven]
2004-04-15, 20:59:39
Original geschrieben von bans3i
Ja und beim NV30 dachten dann auch alle dass er 256 bit haben wird ;D ;D ;D

Das wär aber echt der Knaller schlechthin wenn ATI mit 512 Bit Interface auftrumpfen würde und vielleicht dann auch noch Tri-TMU's. Das mit den 512 Bit Interface glaube ich deswegen nicht so ganz, da man ja schon von 600 MHz RAM Takt ausgeht und das spricht doch eher für 256 Bit, naja aber man weiß ja nie.

Ohh bitte ... hört auf. Bleibt mal auf den Boden der Tatsachen! Ist reine Einbildung was hier einige von sich geben. 512bit interface und Tri-TMU's ... sowas gehört in nächster Zeit ins Land der Träume.

BodyLove
2004-04-15, 21:07:59
... ins land der Spekus.;D

DrumDub
2004-04-15, 21:12:43
Original geschrieben von bans3i
Das wär aber echt der Knaller schlechthin wenn ATI mit 512 Bit Interface auftrumpfen würde und vielleicht dann auch noch Tri-TMU's. Das mit den 512 Bit Interface glaube ich deswegen nicht so ganz, da man ja schon von 600 MHz RAM Takt ausgeht und das spricht doch eher für 256 Bit, naja aber man weiß ja nie.

extrem unwahrscheinlich! und das sag ich als glücklcher ati 9700er besitzer. ;)

also jetzt mal die begründung:

- 512bit macht wegen der doppelten menge an signalleitungen das pcb und die gpu extrem teuer

- tri tmus bräuchten aber 512bit wegen der bandreite bei nem 16x1 design

Godmode
2004-04-15, 21:15:22
Original geschrieben von Winter[Raven]
Ohh bitte ... hört auf. Bleibt mal auf den Boden der Tatsachen! Ist reine Einbildung was hier einige von sich geben. 512bit interface und Tri-TMU's ... sowas gehört in nächster Zeit ins Land der Träume.

Sieht man dass nicht heraus dass das nicht ganz ernst gemeint ist?

Gast
2004-04-15, 21:24:20
Original geschrieben von bans3i
Also da kann ich nicht zustimmen, meine ATI Aktien sind seit Montag gefallen ca -3%. Ich weiss nicht ob das mit dem NV40 was zu tun hat, aber ich glaub eher nicht.

Ich werde meine ATI Aktien diese Jahr verkaufen und einen ordentlichen Gewinn einstreifen :) Danke ATI

Börsianer reagieren eher auf Bilanzen oder Quartalszahlen. Meine Nvidia Aktien sind anfang Jänner vom einen auf den anderen Tag um 20 % gestiegen, weil sie ein so gutes Ergebnis gemacht haben.

Also 3% in einem negativen Marktumfeld ist erstmal nix.

Und mit Bilanzen u. Quartalszahlen ist das so ne Sache...

Die Börse handelt die Zukunft. Die Zukunft ist bei den Graka herstellern der Chip. Möchte damit nicht sagen, dass Zahlen keine Aussagekraft haben, aber die sind halt leider Vergangenheitsbezogen. Aber Aktien kauf ich für die Zukunft und die Zukunft ist ja der Chip (top or flop).

StefanV
2004-04-15, 21:25:39
Original geschrieben von bans3i
Ja und beim NV30 dachten dann auch alle dass er 256 bit haben wird ;D ;D ;D

Das wär aber echt der Knaller schlechthin wenn ATI mit 512 Bit Interface auftrumpfen würde und vielleicht dann auch noch Tri-TMU's. Das mit den 512 Bit Interface glaube ich deswegen nicht so ganz, da man ja schon von 600 MHz RAM Takt ausgeht und das spricht doch eher für 256 Bit, naja aber man weiß ja nie.

Eher packen sie mehrere MB eDRAM auf den Chip...

Oder packen das RAM gleich auf den Chip, zumindest einen Teil davon...

Lustiger Troll
2004-04-15, 21:35:53
Original geschrieben von TheCounter
Ich hab nur leider (Mehr oder minder :D) keine GeForce FX, muss ich halt jemanden suchen der eine hat :)

Trotzdem danke!

EDIT

Wenns klappt bräuchte man nurnoch jemanden der nen NV40 hat, dann könnte man nochmal testen :)

Sag mir wo ich den Eintrag finde und ich machs :).

Godmode
2004-04-15, 21:47:54
Original geschrieben von Stefan Payne
Eher packen sie mehrere MB eDRAM auf den Chip...

Oder packen das RAM gleich auf den Chip, zumindest einen Teil davon...


Würde das die Größe nicht extrem sprengen? Beim P4 sind ja auch die Hälfte der Transen Chache, oder ist Embaded? DRAM was anderes als Cache?

robbitop
2004-04-15, 21:53:36
noch gibt man sich mit Caches in Regionen von einstelligen kiB Größen zufrieden. eDRAM wird irgendwann kommen aber imo nicht allzuschnell. Man braucht einfach zuviel davon als reinpassen würde ;)

StefanV
2004-04-15, 21:59:15
Original geschrieben von bans3i
Würde das die Größe nicht extrem sprengen? Beim P4 sind ja auch die Hälfte der Transen Chache, oder ist Embaded? DRAM was anderes als Cache?

eDRAM ist was anderes als Cache (SRAM).

SRAM Logik ist erheblich größer als eDRAM Logik, ersteres braucht pro bit ~6 Transis, letzteres kommt mit deutlich weniger (Transi + Kondi) aus.

Godmode
2004-04-15, 22:01:34
Original geschrieben von Stefan Payne
eDRAM ist was anderes als Cache (SRAM).

SRAM Logik ist erheblich größer als eDRAM Logik, ersteres braucht pro bit ~6 Transis, letzteres kommt mit deutlich weniger (Transi + Kondi) aus.

Axxo, und steht das "E" für embedded?

StefanV
2004-04-15, 22:07:49
Original geschrieben von bans3i
Axxo, und steht das "E" für embedded?

nein, das E steht für Enhanced DRAM und ist AFAIK eine Entwicklung von Mosys, grobgesagt ist das DRAM mit SRAM kombiniert.

Das e steht aber für embedded-DRAM.

PS: sorry 4 klugscheißing, in diesem Fall ist der Unterschied zwischen eDRAM und EDRAM gewaltig, letzteres saß AFAIK auf PS2 SIMMS...

Quasar
2004-04-15, 22:09:32
Original geschrieben von Odal
an den shadern kanns laut demi nicht liegen... das is es ja

eventuell ist irgendwas vermurkst und die R9800xt wuerde auch noch schneller laufen

Das war eigentlich mit Bezug auf den Einbruch (oder eben nicht vorhandenen Einbruch) bei PP-Hints gemeint.

TheCounter
2004-04-15, 23:26:59
Original geschrieben von Lustiger Troll
Sag mir wo ich den Eintrag finde und ich machs :).

http://www.hx3.de/ext/farcry/Shaders.rar

Das hier ins Hauptverzeichniss von FC entpacken, also den Shaders Ordner, alte dateien evlt. überschreiben (Backup machen ned vergessen), das wars.

thop
2004-04-15, 23:39:22
Original geschrieben von Stefan Payne
nein, das E steht für Enhanced DRAM und ist AFAIK eine Entwicklung von Mosys, grobgesagt ist das DRAM mit SRAM kombiniert.
Ist das dieses ultraschnelle 1T RAM was auch im Gamecube drinnen ist? :gruebel:

StefanV
2004-04-15, 23:40:48
Original geschrieben von thop
Ist das dieses ultraschnelle 1T RAM was auch im Gamecube drinnen ist? :gruebel:

Nein, das ist wieder was anderes...
So wirklich viel weiß ich nicht über 1T SRAM, ich weiß nur, daß es eine erweiterte Form von DRAM mit einem SRAM ähnlichen Interface ist.

Von Mosys gabs aber noch andere Innovativen Dinge, z.B. MBDRAM, welches man z.B. auf der ET6000 findet, welche ja bekanntlich solch eine komische RAM Größe wie 2,25 oder 4,5MB hatte...

robbitop
2004-04-15, 23:41:48
ja aber das würde erst ab 16-32 MB Sinn machen.
Und dann sind schon mal 200Mio Transistoren weg.
Das kann man sich noch lange nicht leisten. Gibt es viele Sachen wo die Transistoren besser eingesetzt wären.

Gast
2004-04-15, 23:50:58
Original geschrieben von Odal
von der sache mit HT hab ich auch gelesen :D frage mich aber noch nach den genauen hintergruenden


Bei DTM Race Driver sind's sogar 50% wenn man einen FFB-Controller benutzt!!!

-error-
2004-04-16, 00:25:53
Wird eigendlich auch neben der X800Pro die X800XT am 26.04 vorgestellt?

tokugawa
2004-04-16, 00:30:04
Original geschrieben von Powerd by ATI
Wird eigendlich auch neben der X800Pro die X800XT am 26.04 vorgestellt?

Ist die nicht für Ende Mai angekündigt?

Gast
2004-04-16, 01:03:29
Wenn sie die XT sowieso im Juni vorstellen wollen ,dann können sie die Karte auch gleich Ende April vorstellen.

-error-
2004-04-16, 02:14:09
Original geschrieben von tokugawa
Ist die nicht für Ende Mai angekündigt?

Die Verfügbarkeit spielt ja keine Rolle, ich wollte nur wissen ob die X800XT am 26.04 vorgestellt wird.

TheCounter
2004-04-16, 02:19:50
Original geschrieben von Powerd by ATI
Die Verfügbarkeit spielt ja keine Rolle, ich wollte nur wissen ob die X800XT am 26.04 vorgestellt wird.

Ich denke mal ja, da die Pro nur 12 Pipes hat wird sie es etwas schwer gegen die GeForce 6800U haben, somit denke (und hoffe) ich das ATI wohl auch die X800XT am 26. April vorstellen wird.

Ailuros
2004-04-16, 02:27:51
Original geschrieben von robbitop
ja aber das würde erst ab 16-32 MB Sinn machen.
Und dann sind schon mal 200Mio Transistoren weg.
Das kann man sich noch lange nicht leisten. Gibt es viele Sachen wo die Transistoren besser eingesetzt wären.

Kommt ganz drauf an was man darin unterbringen will. Fuer einen effektiven cache reicht um einige Male weniger aus als das. Wir reden schon von R500 oder was? *grins*

betasilie
2004-04-16, 03:29:22
Original geschrieben von TheCounter
Ich denke mal ja, da die Pro nur 12 Pipes hat wird sie es etwas schwer gegen die GeForce 6800U haben, somit denke (und hoffe) ich das ATI wohl auch die X800XT am 26. April vorstellen wird.
Wenn ATI tatsächlich am 26ten nur die 12Pipe Variante vorstellt, dann weil diese ausreicht, um gegen die 6800U anzutreten. Alles andere wäre taktisch unklug.

-error-
2004-04-16, 04:30:17
Original geschrieben von TheCounter
Ich denke mal ja, da die Pro nur 12 Pipes hat wird sie es etwas schwer gegen die GeForce 6800U haben, somit denke (und hoffe) ich das ATI wohl auch die X800XT am 26. April vorstellen wird.

Die X800Pro ist auch garnicht auf die Ultra angesetzt, sondern auf die 6800NonU und mit der wird sie laut bisherigen Datenstand locker fertig.

BodyLove
2004-04-16, 06:42:14
@power

das Weist du ja nicht. Die X800xt ist vielleicht eine Methode, um einfach einen größeren Abstand zu NV zu haben, als man es mit der x800pro gehabt hätte. Wir wissen es nicht. Aber wie beta sagte, wenn es einen 16Pipe-Chip gibt, und der 12erChip den NV40 nicht schlagen kann, so ist es betriebswirtschaftlich völliger Schwachsinn. Speziell dann, wenn man bedenkt, dass der R420 auch hätte vor 1 Monat rauskommen können. (SPEKU!)

seahawk
2004-04-16, 08:07:33
Original geschrieben von BodyLove
@power

das Weist du ja nicht. Die X800xt ist vielleicht eine Methode, um einfach einen größeren Abstand zu NV zu haben, als man es mit der x800pro gehabt hätte. Wir wissen es nicht. Aber wie beta sagte, wenn es einen 16Pipe-Chip gibt, und der 12erChip den NV40 nicht schlagen kann, so ist es betriebswirtschaftlich völliger Schwachsinn. Speziell dann, wenn man bedenkt, dass der R420 auch hätte vor 1 Monat rauskommen können. (SPEKU!)

Außer der 16 Pipe Chip braucht eine Speicherbandbreite die man momentan noch nicht zur Verfügung hat, weil es die notwendigen schnelleren Speicherchips momentan noch in ausreichender Menge + Qualität gibt.

Dann lieber erst mal mit der PRO kommen als einen praktischen Paperlaunch für die XT zu machen.

Gast
2004-04-16, 08:28:21
aber genau dann bin ich doch aus eben betriebswirtschaftlicher Sicht gezwungen einen mindestens ebenbürtigen Partner zur 6800U vorzustellen - auch wenn der x800xt anfangs nur ein Papiertiger ist.

seahawk
2004-04-16, 08:41:22
Original geschrieben von Gast
aber genau dann bin ich doch aus eben betriebswirtschaftlicher Sicht gezwungen einen mindestens ebenbürtigen Partner zur 6800U vorzustellen - auch wenn der x800xt anfangs nur ein Papiertiger ist.

Wenn man aber einen Paperlaunch macht, dann kann NV darauf reagieren. Angenommen die stellen die XT am 26ten vor und liefern erst im Juli, dann kann NV ganz locker im Juni noch ne weiter 6800 vorstellen, die schneller als die XT ist.

Außerdem verdirbt man sich selber den Absatz der PRO Variante, weil die meisten auf die XT warten werden.

ow
2004-04-16, 09:14:22
.

Odal
2004-04-16, 09:17:50
Original geschrieben von BodyLove
Aber wie beta sagte, wenn es einen 16Pipe-Chip gibt, und der 12erChip den NV40 nicht schlagen kann, so ist es betriebswirtschaftlich völliger Schwachsinn. Speziell dann, wenn man bedenkt, dass der R420 auch hätte vor 1 Monat rauskommen können. (SPEKU!)

auch dieser ansatz ist betriebswirtschaftlich nicht ganz guenstig....
wenn der R420 mit 16 pipes schon vor einem monat haette rauskommen koennen dann haette man ihn am 14. oder spaetestens am 15. praesentiert....

bei sowas sollte man sich niemals marketingtechnisch die butter vom brot nehmen lassen und zuschauen wie wunderbar der konkurent in den medien praesent ist

mitunter werden auch noch in diesen 2 wochen karten verkauft..und der DAU kauft nunmal das was in der presse angepriesen wird (dabei gehts nicht um ein spezielles produkt sondern den markennamen)

Odal
2004-04-16, 09:20:23
Original geschrieben von ow
Und wenn ATi nunmal nix besseres zu bieten hat und gegen die 6800U verliert?

dann muessten einige ihre rosaRoten brillen abnehmen und eingestehen das sie sich den superchip ueber den kaum was bekannt war, wohl doch etwas zu schoen geredet haben

ps: aber ich hoffe persoenlich das sie gleich aufliegen werden... warum? weil bei mir eine neue GraKa im desktop faellig ist und ich gute preise moechte :D

HOT
2004-04-16, 09:24:34
Original geschrieben von Odal
dann muessten einige ihre rosaRoten brillen abnehmen und eingestehen das sie sich den superchip ueber den kaum was bekannt war, wohl doch etwas zu schoen geredet haben

ps: aber ich hoffe persoenlich das sie gleich aufliegen werden... warum? weil bei mir eine neue GraKa im desktop faellig ist und ich gute preise moechte :D

*unterschreib* :D

robbitop
2004-04-16, 09:34:58
@AiL
naklar, NV40 ist raus und somit ist Ernüchterung da und NV50/R500 sind das nächste Ziel.
Das Gerücht existiert, dass R500 bereits eDRAM hat. Ich würde sagen frühestens NV50/R500 haben eDRAM, aber nicht so viel, dass es für nen Framebuffer langt (wer weiss vieleicht mit besonderen Kompressionsalgos).
IDLP wird erstmal massig Logiktransistoren fressen, ich bin skeptisch dass man viel freihe Fläche für eDRAM haben wird.
Caches sind klar, die müssen immer größer werden, jedoch sind wir (noch) im einstelligen kiB Betrag und bei SRAM Zellen. Diese jetzt noch viel größer zu machen muss nicht unbedingt was bringen, da die Organisierung der Daten dann schwieriger wird. Aber ich kann dazu natürlich aufgrund mangelnder Wissensbasis keine definitiven Aussagen machn.

robbitop
2004-04-16, 09:36:51
wenn ATi tatsächlich nur R3xx Pixelprozessoren anbietet, werden sie mehr Takt bei 16Pipelines benötigen um gleiche Leistung zu erreichen wie NV40. Wenn ATi bei der Bandbreitenoptimierung keinen Schritt nach vorn getan hat, dann werden sie sogar noch bandbreiten limitierter sein.
ist meine Meinung nach Lesens des Techartikels..

Mehrpack
2004-04-16, 09:43:30
Original geschrieben von Odal
dann muessten einige ihre rosaRoten brillen abnehmen und eingestehen das sie sich den superchip ueber den kaum was bekannt war, wohl doch etwas zu schoen geredet haben

ps: aber ich hoffe persoenlich das sie gleich aufliegen werden... warum? weil bei mir eine neue GraKa im desktop faellig ist und ich gute preise moechte :D

hi,
yo, so das man sich dann das mit dem besten gesamtbild raussuchen kann und die preise runtergehn.

Mehrpack

Gast
2004-04-16, 09:45:33
was ich jedoch nicht verstehen will ist folgendes: ATI muß doch um die Spezifikationen und der daraus resultierenden Performance (kam ja nicht mal mir als nOOb überaschend) gewußt haben. Und unter betriebswirtschaftlichen Gesichtspunkten muß ich doch versuchen den Vorsprung welcher die R3xx nun mal vor dem nv3x hat btw. gehabt hatte, mit allen Mitteln zu verteidigen, wenn nicht gar weiter ausbauen. Undenkbar, wenn der Vorsprung zum nv40 weiter wächst. Ein derzeitiger Performancegleichstand käme unter Berücksichtigung der vermutlichen Spezifikationen imo einer Niederlage gleich.

Daran glauben möchte ich jedoch wenn ich ganz ehrlich bin, nicht mehr.

seahawk
2004-04-16, 09:59:55
Original geschrieben von robbitop
wenn ATi tatsächlich nur R3xx Pixelprozessoren anbietet, werden sie mehr Takt bei 16Pipelines benötigen um gleiche Leistung zu erreichen wie NV40. Wenn ATi bei der Bandbreitenoptimierung keinen Schritt nach vorn getan hat, dann werden sie sogar noch bandbreiten limitierter sein.
ist meine Meinung nach Lesens des Techartikels..

Ich vermute sogar, dass man sich eher RV3XX Prozessoren angucken muss.

Wie schnell ist ein Rv360 mit 12 Pipes und 256 Bit Memorycontroller ?? Und wie schnell einer mit 16 Pipes ??

Wenn man von einem RV3XX ausgeht, dann sind auch die hoen Taktraten gar nicht so überraschend. Wenn man auch noch bedenkt wie gut z.B. eine 9600XT über dem RAM-Takt skaliert, dann erscheinen auch die spekulierten hohen Ramtaktraten plötzlich sinnvoll.

ow
2004-04-16, 10:08:01
.

Demirug
2004-04-16, 10:10:04
seahawk, ich habe ja auch schon spekuliert das man die RV360 PIxelprozessoren benutzt weil diese ja schon einmal mit 0,13 erfolreich produziert worden sind. Aus diesem Grund habe ich dann aber auch die 600MHz als Wunschdenken hingestellt. Die RV360 Pixelprozessoren sind für 500MHz ausgelegt und selbst bei Prozessverbesserungen von Seiten TSMC muss IMHO ATI froh sein wenn sie mit 4 dieser Einheiten auf einem Chip noch 500MHz schaffen.

ow
2004-04-16, 10:10:50
.

Odal
2004-04-16, 10:16:35
Original geschrieben von ow
Wessen Spezifikationen? NVs? Glaube nicht dass ATi davon gewusst hat. Es ist denkbar, dasd Ati jetzt von NV genauso kalt erwischt wurde wie NV seinerzeit durch den R300.


naja das kannst du so nicht sehen....

bei nv wusste man vor dem launch ueber die "probleme" bescheid...man konnte nur nichts mehr machen weil eine ueberarbeitung zulange gedauert haette....
diesmal gibt es keine neue DX vesion..somit kann microsoft keinem einen strich durch die rechnung machen...

und ich geh schon davon aus das zumindst die spezifikation bei Ati bekannt war
man haelt sich ja auch sehr bedeckt seitens Ati, oder gibts schon stellungnahmen zum nv40 launch?

robbitop
2004-04-16, 10:17:59
nur dass RV360 PP schon auf 130nm lowk ausgelegt sind.
Ich denke mal, man wird diesmal mehr Takt bei Chip und Speicher benötigen wenn man 4xRV360 PPs drin hat, um gleichzuziehen.
Bei 3PPs wäre ein Gleichziehen noch schwerer.
Natürlich unter der Annahme, dass die PPs und die Bandbreitenoptimierungsmaßnahmen gleichgeblieben sind.
Die PPs des NV40 sind jedenfalls mächtiger als die des R360.

ow
2004-04-16, 10:19:41
.

robbitop
2004-04-16, 10:21:30
ja man wird ATi kalt erwischen. Vor Allem aus technologischer Sicht. Denn FP16 Texturfilterung, ein adaptiver 64bit FB, Shader 3.0 und ein Videoprozessor sind einfach Argumente die vA für OEMs sehr sehr gut passen.
Die Verkäufe werden imo recht gut laufen.
technologisch dürfte R420 imo kein Land sehen.

Wie AiL schonmal sagte will ATi mit dem R420 jetzt schon dafür bezahlen, dass man die beiden Consolenaufträge annahm und eben weniger R&D Ressourcen hat als vorher. R420 war im Design deutlich unaufwändiger (imo) als Vergleichbare nextgen Chips und mit dem R500 wird man sich wieder voll einklinken (auch imo).

seahawk
2004-04-16, 10:24:29
Original geschrieben von Demirug
seahawk, ich habe ja auch schon spekuliert das man die RV360 PIxelprozessoren benutzt weil diese ja schon einmal mit 0,13 erfolreich produziert worden sind. Aus diesem Grund habe ich dann aber auch die 600MHz als Wunschdenken hingestellt. Die RV360 Pixelprozessoren sind für 500MHz ausgelegt und selbst bei Prozessverbesserungen von Seiten TSMC muss IMHO ATI froh sein wenn sie mit 4 dieser Einheiten auf einem Chip noch 500MHz schaffen.

Demi ich halte die 600mhz für unrealistisch. Für die XT sind maximal 550mhz mit Overdrive und "the mother of all dustbusters" möglich. OB ATI die braucht um den NV40 zu schlagen weiss ich noch nicht.
Zumindest der Bedarf nach schnellen Speicher kann man imho aus einer Nutzung von RV3XX Pixelprozessoren ableiten.

@ ow

Die RV3XX Serie ist imho ineffizienter als die R300 Serie.

robbitop
2004-04-16, 10:28:56
ja beim RV3xx funktioniert Hir-Z nicht.
Das liegt aber nicht IM PP sondern ausserhalb.
Das muss man natürlich weitestgehend ändern, damit das noch funktioniert. Ist ein Faktor von 5% oder so.
So wirklich ineffizienter sind die nicht.
R3xx hat 2 PPs und RV3xx eben nur einen PP.

seahawk
2004-04-16, 10:34:26
Original geschrieben von robbitop
ja beim RV3xx funktioniert Hir-Z nicht.
Das liegt aber nicht IM PP sondern ausserhalb.
Das muss man natürlich weitestgehend ändern, damit das noch funktioniert. Ist ein Faktor von 5% oder so.
So wirklich ineffizienter sind die nicht.
R3xx hat 2 PPs und RV3xx eben nur einen PP.

Aber ist er dadurch nicht ineffizienter ??

Ich gehe auch davon aus, dass HierZ im neuen Chip drinne ist.

ShadowXX
2004-04-16, 10:44:07
Original geschrieben von seahawk
Außerdem verdirbt man sich selber den Absatz der PRO Variante, weil die meisten auf die XT warten werden.

Das tun die, die High-End haben wollen sowieso....den es es ja schon bekannt, das der XT einen Monat später kommt.

IMHO wäre es unsinnig, die Pro und XT nicht gleichzeitig zu launchen...aber wir werden sehen...

Vielleicht ist es ja wirklich wie Robbitop (und AiL) anmerkten: ATI selbst rechnet nicht wirklich damit, dass Sie mit dem r420 eine Chance zu haben und das sogar schon wussten, als Sie das originale r400 Design fallenliessen.

Fast alle R&D resource wurden dann auf r500 und die Konsolenchips verlagert, damit zumindest der r500 sehr gut und früh fertig wird...
Und der r420 wurde sozusagen "nebenbei" fertiggestellt und soll wirklich nur als Lückenbüsser bis zum r500 dienen....

Die sehr früh erscheinende XT Variante des r420 wäre dann tatsächlich eine "leichte Panikreaktion" auf den nv40, könnte allerdings auch darauf hindeuten, das der r500 vielleicht weiter ist, als wir alle Denken (oder beides).

Vielleicht wird ATI dann keinen Refresh des r420 mehr bringen (der vielleicht eigentlich die 16Pipe Variante sein sollte), sondern gleich den r500....

Ist natürlich alles sehr Spekulatius.....

Odal
2004-04-16, 10:44:51
Original geschrieben von ow
Von welcher Spezifikation redest du? (Nicht dass wie da aneinander vorbei reden :D)


naja ich meine die Leistungsdaten des NV40 ... bevor man so ein projekt anfaengt spezifiziert man die eckdaten und ein groben aufbau...das man mit der anzahl der pipes noch varieren kann sieht man ja...aber ansonsten muss Ati gewusst haben was fuer "optimierungen" (winkelabhaengiges AF, methoden zur bandbreiteneinsparung (bessere kompressionsalgorithmen)...) und nicht zuletzt die effiziezsteigerungen der Pipelines (bremmsen gelocker z.b. temp register problem vermindert) NV geplant/realisiert hat. Und seid ein paar monaten wussten sie auch garantiert wieviel transistoren der hat...die taktfrequenz kuehlerkonstruktion usw.
sie wurden garantiert nicht vom NV40 ueberrascht (zumindest nicht am 14.04. :D)

seahawk
2004-04-16, 10:47:05
Oder ATI hat sich auch mit den Konsolenaufträgen übernommen und macht nun eine schwäche Periode durch, wie NV nach dem XBox Chip.

Bei NV50 oder R500 wird es imho nicht am Chipdesign liegen, sondern an der Verfügbarkeit der notwendigen Technologien und Bauteile.

ShadowXX
2004-04-16, 10:50:41
Original geschrieben von seahawk
Aber ist er dadurch nicht ineffizienter ??

Ich gehe auch davon aus, dass HierZ im neuen Chip drinne ist.

Das Hir-Z Problem besteht darin, das Hir-Z des r3x0 nur mit 8Pipes richtig funktioniert....

Aus irgendwelchen Gründen, hat ATI dieses Problem aber nicht bei der Umsetzung auf den rv3x0 beseitigt...IMHO sind beide PP (r/rv) fast identisch, der PP des rv also nur ein shrink der r-Variante...

robbitop
2004-04-16, 10:57:35
R500 wird in frühestens 18 Monaten erscheinen.
Genau wie NV50. Beides offiziell.
Man braucht die Zeit, um so komplexe Chips zu entwickeln. Nur hat ATi eben noch den Klotz der Konsolen am Bein.
Und dafür bezahlen sie jetzt. Der R500 wird imo nicht früher kommen als geplant aber dank R420 auch nicht später als geplant (imo).

R420 wird in punkto Leitung sicher durch Taktraten in etwa rankommen, nur von den Verkaufszahlen und der Technologie imo nicht. Wir sind ja im Spekuforum ^^

robbitop
2004-04-16, 10:59:17
aus irgendwelchen Gründen?
Aus R&D Gründen denke ich.
Ausserdem konnte man das beim RV3xx ganz rausnehmen und sparte sogar Transistoren. Soo viel bringt das Feature nun auch nicht, dass man extra für RV3xx ein neues entwickelt hätte. Zum R420 sollte aber ein neues drin sein, dass mit 8/12/16 Pipes funktioniert

reunion
2004-04-16, 11:06:20
Original geschrieben von ow
Und wenn ATi nunmal nix besseres zu bieten hat und gegen die 6800U verliert?

Man hat sicherlich auch ne 16-pipe Version zu bieten, du glaubst doch nicht wirklich das man einen 16-pipe Chip nur als 12-pipe Version herausbringt?

Und sollte das nicht reichen bringt man halt ne X800XT MAXX :D

seahawk
2004-04-16, 11:18:04
Original geschrieben von reunion
Man hat sicherlich auch ne 16-pipe Version zu bieten, du glaubst doch nicht wirklich das man einen 16-pipe Chip nur als 12-pipe Version herausbringt?

Und sollte das nicht reichen bringt man halt ne X800XT MAXX :D

Ist das noch Spekulation oder schon mehr Fanboyträume ??

Gast
2004-04-16, 11:18:49
Eine weitere, wenn auch arg weit hergeholte Therorie:

X300 = 64-Bit oder aber 128-Bit
X600 = 128-Bit oder aber 256-Bit
X800 = 256-Bit optional 512-Bit

Bitte nicht schlagen - speziell die 512-Bit (und wahrscheinlich auch die 64-Bit Variante) Variante wird ja in diesem Thread (wahrscheinlich zurecht - wie gesagt ich bin Voll-nOOb) als total unwahrscheinlich dargestellt. Vermutlich wird sich diese Technik in Anbetracht der Herstellungskosten eh nicht realisieren lassen.

Verwundert haben mich aber die vermeintlichen Spezifikationen insbesondere der X800se: 128-Bit und 8 Pipelines. Die wäre imo unter Einstatz von FSAA@1280x1024 einer 9700pro unterlegen. Und ob ich dem Ding dann den Namen X800 verpasse ???

reunion
2004-04-16, 11:21:56
Original geschrieben von seahawk
Ist das noch Spekulation oder schon mehr Fanboyträume ??

Eher Fanboyträume :flöt:
Ne an ne MAXX glaub ich auch nicht :D

StefanV
2004-04-16, 12:03:08
Original geschrieben von Gast
Eine weitere, wenn auch arg weit hergeholte Therorie:

X300 = 64-Bit oder aber 128-Bit
X600 = 128-Bit oder aber 256-Bit
X800 = 256-Bit optional 512-Bit

Bitte nicht schlagen - speziell die 512-Bit (und wahrscheinlich auch die 64-Bit Variante) Variante wird ja in diesem Thread (wahrscheinlich zurecht - wie gesagt ich bin Voll-nOOb) als total unwahrscheinlich dargestellt. Vermutlich wird sich diese Technik in Anbetracht der Herstellungskosten eh nicht realisieren lassen.

Verwundert haben mich aber die vermeintlichen Spezifikationen insbesondere der X800se: 128-Bit und 8 Pipelines. Die wäre imo unter Einstatz von FSAA@1280x1024 einer 9700pro unterlegen. Und ob ich dem Ding dann den Namen X800 verpasse ???

Naja, ich denke eher, daß die kleineren eher mit weniger Pipes daherkommen als mit weniger breitem Speicher...

Ist alles eine Frage der Taktfrequenz und des verfügbaren SPeichers.

Theoretisch wäre es denkbar, daß ein X600 mit 8 Pipes und 256bit SI, aber nur mit 200-250MHz Speicher im TSOP Format daherkäme...

Der <X600 könnte z.B. nur 4 Pipes besitzen...

Original geschrieben von seahawk
Ist das noch Spekulation oder schon mehr Fanboyträume ??

Vermutlich weder noch *eg*

Gast
2004-04-16, 12:07:21
Seltsam ist jedoch imo, daß bei einer X800se mit 128-Bit@8Pipelines nicht mehr viel Platz nach unten, sprich X600 + X300 ist.

Ailuros
2004-04-16, 12:13:53
Original geschrieben von robbitop
ja man wird ATi kalt erwischen. Vor Allem aus technologischer Sicht. Denn FP16 Texturfilterung, ein adaptiver 64bit FB, Shader 3.0 und ein Videoprozessor sind einfach Argumente die vA für OEMs sehr sehr gut passen.
Die Verkäufe werden imo recht gut laufen.
technologisch dürfte R420 imo kein Land sehen.

Wie AiL schonmal sagte will ATi mit dem R420 jetzt schon dafür bezahlen, dass man die beiden Consolenaufträge annahm und eben weniger R&D Ressourcen hat als vorher. R420 war im Design deutlich unaufwändiger (imo) als Vergleichbare nextgen Chips und mit dem R500 wird man sich wieder voll einklinken (auch imo).

Das ist aber immer noch nicht genug um zu vorzeitigen Schlussfolgerungen zu kommen.

NV-fans haben jeden Grund tiefer einatmen zu koennen, aber was man hier auch mitberechnen sollte ist dass NVIDIA auch durch das letzte 1.5 Jahr nicht schlecht verkauft hat. Die Konkurrenz ist sehr feist geworden und NVIDIA hat es wohl als erster bemerkt.

ATI wusste genau was sie zu erwarten hatten sonst haetten sie den R420 auch nicht fuer 4 quads ausgelegt. Aufwaendig/unaufwaendig ist doch alles relativ; soooo viel Aufwand brauchte ja NV fuer PS/VS3.0 nun auch wieder nicht.

NVIDIA und ATI setzten beide verschiedene Ansaetze fuer DX9.0 insgesamt.

robbitop
2004-04-16, 12:32:19
och wenn man sich die Pipelines, die Ausführungseinheiten den VP und die FP16 Units mal anschaut, ist da einiges gemacht worden am NV40.

AlfredENeumann
2004-04-16, 12:32:45
Original geschrieben von ow
Und wenn ATi nunmal nix besseres zu bieten hat und gegen die 6800U verliert?

Da wissen die ja bevor die die Karten schicken.
Denke mal doe werden schon entsprechend reagieren.

ow
2004-04-16, 12:44:41
.

ow
2004-04-16, 12:53:12
.

[dzp]Viper
2004-04-16, 13:09:08
Original geschrieben von ow
Es ist nicht anzunehmen, dass ATi vom NV40 mehr wusste als irgendjemand in diesem Forum hier. NV wird denen sicher nicht vorab schonmal ein Testkarte geliefert haben, damit die im Bilde sind, was da auf sie zukommt.:D

ich glaube, dass zu ATI viel eher eine Information leaked als in ein eher unbekanntes Forum ;)

Ich denke schon, dass ATI wusste was auf sie zukommen wird/ist...

ShadowXX
2004-04-16, 13:15:41
Original geschrieben von ow
...sofern sie denn ueberhaupt reagieren koennen.

WIr sollten ATI vielleicht nicht beerdigen, bevor wir den r420Pro/XT überhaupt kennen....

Momentan tappen wir, bis auf die Pipeline-Anzahl (die, wie man bei nv40 sieht auch nicht mehr das darstellt wie früher), doch ziehmlich im Dunkeln.

Und selbst bei den Pipelines ist noch nicht das letzten Wort gesprochen (wenn die jetzigen Annahmen auch durchaus realistisch sind).

Ich hoffe ja immer noch, das langsam auch was bei ATI durchsickert...zumindest über den Takt oder etwaige Verbesserungen am AA/AF (oder eben, das es keine gibt).

Ob Sie den PS2.0 Speed noch verbessert haben bzw. den Aufbau der ATI-Pipes werden wir wohl erst bei Launch was erfahren...

ShadowXX
2004-04-16, 13:17:55
Original geschrieben von [dzp]Viper
ich glaube, dass zu ATI viel eher eine Information leaked als in ein eher unbekanntes Forum ;)

Ich denke schon, dass ATI wusste was auf sie zukommen wird/ist...

Zumindest wusste Sie wohl "nonsens" Spekus von "guten" Spekus zu unterscheiden...

Anders gesagt...Sie hatte bestimmt bessere "hints" auf echtheit oder erfunden...

betasilie
2004-04-16, 13:44:06
Original geschrieben von ow
Und wenn ATi nunmal nix besseres zu bieten hat und gegen die 6800U verliert?
Kann natürlich passieren. Es ist auch nicht unmöglich, dass sogar die 16 Pipe Variante gerade mal gleichzieht oder nur knapp vor der 6800Ultra liegt. Wenn dieser Fall eintritt, hat ATI bis zum R500 erstmal die Arschkarte gezogen.

Allerdings sprechen die Indizien imho für ein anderes Szenario. ATI will am 26. lediglich die 12 Pipe Karte vorstellen. Wenn diese wirklich viel langsamer wäre, als die 6800Ultra, würde das einen Imgageschaden bedeuten, weil dann ATIs derzeit schnellste Karte in Sachen Performance nicht mit der 6800Ultra konkurrieren könnte. ATI weiß mittlerweile, dass es für alle Leitungssegmente wichtig ist, mit der schnellsten HighEnd-Karte werben zu können.

Nun wird ATI mit Sicherheit auch schon R420er mit 16Pipes haben, weil sie ja bekanntlich aus der gleichen Produktion kommen, wie der 12Pipe Chip. Selbst wenn ATI nur kleine Mengen an 16Pipe Chips liefern könnte, würden sie imo auch diese am 26. vorstellen, um NV nicht über längere Zeit den Thron im Highendbereich alleine zu überlassen, für den Fall, dass der 12-Pipe R420 zu weit abgeschlagen von der 6800Ultra ist.

Ailuros
2004-04-16, 14:04:42
Original geschrieben von ow
Es ist nicht anzunehmen, dass ATi vom NV40 mehr wusste als irgendjemand in diesem Forum hier. NV wird denen sicher nicht vorab schonmal ein Testkarte geliefert haben, damit die im Bilde sind, was da auf sie zukommt.:D

Selbst das waere gut genug gewesen. Auch ohne diese Infos reichte es eine NV3x unter die Lupe zu nehmen und ueber die Moeglichkeiten zu spekulieren.

Anfang 2002 wurde NV30 ins Labor geschickt und zur gleichen Zeit (mehr oder weniger) begann auch die Entwicklung des NV40. Zu diesem Zeitpunkt wusste NVIDIA dass ATI 8 SIMDs im R3xx hat und konnte sich auch gut vorstellen wie es von da ab haette weitergehen koennen. Wieso sie das wussten? Es stand in offiziellen roadmaps von ATI schon frueher drin.

Das Shader-Kapitel zur Seite, wurde hier denn ueberhaupt jemand ueberrascht? Ich sehe beide mit 16 SIMDs ankommen bei dieser Generation, keiner der Beiden hat diese Entscheidung im letzten Moment getroffen und ehrlich gesagt alles andere was "alt/neu" "im letzten Moment revamp" betrifft ist Quark.

Ganz im Gegenteil hab ich guten Grund zu glauben, dass NVIDIA mit dem Wechsel zu IBM doch nicht so zufrieden ist im guten Ganzen. Fuer mich war der Wechsel von Anfang an eine schlechte Idee und deshalb wollte ich auch fuer einige Zeit nicht glauben dass sie tatsaechlich NV40 bei IBM fertigen liessen. Ob diese Schaetzung jetzt wert hat oder nicht wird sich wohl erst zeigen wenn die genaue Taktrate und den Stromverbrauch bzw. Anzahl der Transistoren des X800XT bekannt wird und ob NVIDIA letztenendes doch noch fuer zukuenftige high end Loesungen wieder zu TSMC wechselt.