PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller Speku-Thread R420 (war R420 12 Pipelines)


Seiten : 1 2 3 4 5 6 7 8 [9] 10 11 12

reunion
2004-04-21, 21:11:43
Original geschrieben von Ulukay
1152x864, alles Max, kein AA/AF

und das auf einer ultra-un-1337 5900u

Mit oder ohne Patch? :naughty:

(del676)
2004-04-21, 21:13:10
Original geschrieben von reunion
Mit oder ohne Patch? :naughty:

mit 1.1
warum?

TheCounter
2004-04-21, 21:16:11
Hmm also was mir an dem Bild aufällst ist das in der Ferne die Texturen so detailliert sind, was normalerweise ja nicht der Fall ist...

Ist es möglich, rein optisch zu sagen ob dort AA eingeschalten ist? Oder würde das Aliasing auf dem Bild garnicht zu sehen sein? Für mich sieht es jedenfalls so aus als wär es an. Ich denk mal das ganze läuft auf 4xAA mit 8xAF (Oder auch mehr vom AF her). Ich bin mir eigentlich ziemlich sicher das dort AA/AF an ist...

Bei der Auflösung Tippe ich mal auf 1280x1024. (Jaja, reine Speku :D)

@Ulukay

Weil: FP16 und viele der PS2.0 Shader durch PS1.1 Shader ausgetauscht wurden, bei FX Karten.

(del676)
2004-04-21, 21:19:28
Original geschrieben von TheCounter
Hmm also was mir an dem Bild aufällst ist das in der Ferne die Texturen so detailliert sind, was normalerweise ja nicht der Fall ist...

Ist es möglich, rein optisch zu sagen ob dort AA eingeschalten ist? Oder würde das Aliasing auf dem Bild garnicht zu sehen sein? Für mich sieht es jedenfalls so aus als wär es an. Ich denk mal das ganze läuft auf 4xAA mit 8xAF (Oder auch mehr vom AF her). Ich bin mir eigentlich ziemlich sicher das dort AA/AF an ist...

Bei der Auflösung Tippe ich mal auf 1280x1024. (Jaja, reine Speku :D)

@Ulukay

Weil: FP16 und viele der PS2.0 Shader durch PS1.1 Shader ausgetauscht wurden, bei FX Karten.

kewl wie du auf einem 500x437 pixel grossen digicam foto eines schräg stehenden monitors den AA/AF level erkennen kannst :D

btw: wie kann ich umgehen das die PS2 shader ersetzt werden???

deekey777
2004-04-21, 21:21:43
Original geschrieben von Ulukay
...

btw: wie kann ich umgehen das die PS2 shader ersetzt werden???

FC neuinstallieren sollte helfen - ohne den Patch!

(del676)
2004-04-21, 21:27:34
Original geschrieben von deekey777
FC neuinstallieren sollte helfen - ohne den Patch!

naja im prinzip isses ja echt egal :)
der sound funzt mit patch ja auch ned :)

TheCounter
2004-04-21, 21:31:51
Ulukay, stell bitte das Wasser mal auf Ultra High, ansonsten hast du nicht max. Details ;)

[dzp]Viper
2004-04-21, 21:38:14
aua - das HL2 bild auf seite 3 :o

http://www.pclab.pl/zdjecia/artykuly/pila/ati_tech_days_toronto/hl2.jpg

mist - gehört ja eigentlich garnicht in den thread - egal - sieht goil aus :D (bis auf die Kanten vom wasser zum Land)

(del676)
2004-04-21, 21:41:33
Original geschrieben von TheCounter
Ulukay, stell bitte das Wasser mal auf Ultra High, ansonsten hast du nicht max. Details ;)

aha :)
http://img7.imageshack.us/img7/9915/fc1152-2.jpg

[dzp]Viper
2004-04-21, 21:43:05
Also das Farcrybild mit den 68 fps ist eindeutig mehr als 1280x1024
Das Erkennt man an der frapszahl die WESENTLICH kleiner ist als bei Ulukay oder meinen Screenshots die ich habe...

Ich würde auf 1600x1200 tippen....

Edit:

The Counter hat auch recht, dass die Texturen links am Felsen auf die entfernung nicht zu verschwimmen wie bei unserer Farcryversion...
Vielleicht können wir das auch bald ändern *auf den nächsten Patch schiel* :D

-error-
2004-04-21, 21:45:33
Original geschrieben von [dzp]Viper
aua - das HL2 bild auf seite 3 :o

http://www.pclab.pl/zdjecia/artykuly/pila/ati_tech_days_toronto/hl2.jpg

mist - gehört ja eigentlich garnicht in den thread - egal - sieht goil aus :D (bis auf die Kanten vom wasser zum Land)

Das ist vieleicht ein Ausschnitt aus einem Vorspann bzw. einem Video, das kann unmöglich die Spielegrafik sein.

Gast
2004-04-21, 21:49:43
Original geschrieben von Powerd by ATI
Das ist vieleicht ein Ausschnitt aus einem Vorspann bzw. einem Video, das kann unmöglich die Spielegrafik sein.

Natürlich ist das aus dem Spiel !

[dzp]Viper
2004-04-21, 21:53:14
Original geschrieben von Gast
Natürlich ist das aus dem Spiel !

bitte in den HL2 sammelthread die diskussion verlegen - hab das bild da auch gepostet - die diskussion gehört hier nicht wirklich hin ;)

-error-
2004-04-21, 21:54:08
Original geschrieben von Gast
Natürlich ist das aus dem Spiel !

Dann fresse ich einen Besen.

deekey777
2004-04-21, 21:56:59
Original geschrieben von Gast
Natürlich ist das aus dem Spiel !

Klar, Doom 3...

Winter[Raven]
2004-04-21, 21:57:10
Also an der gleichen Stelle erreiche ich bei 1024x768 mit 4xAF ~50 Frames.

LovesuckZ
2004-04-21, 21:58:05
Original geschrieben von Exxtreme
Nay. ;( Der Autor steht genauso unter NDA wie alle anderen auch und darf nichts sagen/schreiben/zeigen. ;(

Jetzt weiß ich auch, warum viele meinen, dass man auf den r420 warten solle: ATi gibt an einige bzw. lässt die Infos durchsickern, dass der r420 in einigen Anwendungen bis zu 70% schneller waäre beim Einsatz von AA.
Habe ich recht?

LovesuckZ
2004-04-21, 21:58:28
Original geschrieben von Winter[Raven]
Also an der gleichen Stelle erreiche ich bei 1024x768 mit 4xAF ~50 Frames.

und bei 8QAF?

Winter[Raven]
2004-04-21, 22:02:02
Original geschrieben von LovesuckZ
und bei 8QAF?

Also per Aturner hab ich 8xAF einstellt, in Far Cry kann man aber nur 4X auswählen.

Alle Details @ Sehr hoch, Wasser ultra Hoch.

[dzp]Viper
2004-04-21, 22:02:19
Leute das Bild ist in 1600x1200 aufgenommen - Ulukay - kannst du bitte mal das Selbe bild in 1600x1200 machen? :)

(del676)
2004-04-21, 22:05:24
Original geschrieben von [dzp]Viper
Leute das Bild ist in 1600x1200 aufgenommen - Ulukay - kannst du bitte mal das Selbe bild in 1600x1200 machen? :)

ja ich versuche es ...nur glaube ich meine karte is grad am verrecken :)

(del676)
2004-04-21, 22:14:01
http://img9.imageshack.us/img9/1761/fc1600.jpg

1600x1200

TheCounter
2004-04-21, 22:15:58
So, und jetzt noch 4xAA und 8xAF dazu ;D

Dann dürfte es eigentlich fast gleich sein, außer das das AA bei der ATI Karte noch besser ist.

Mich würde wirklich interessieren welche Einstellungen da verwendet wurden... vielleicht findet sich dazu in einem englischen Forum ja was?

(del676)
2004-04-21, 22:17:17
Original geschrieben von TheCounter
So, und jetzt noch 4xAA und 8xAF dazu ;D

Dann dürfte es eigentlich fast gleich sein, außer das das AA bei der ATI Karte noch besser ist.

Mich würde wirklich interessieren welche Einstellungen da verwendet wurden... vielleicht findet sich dazu in einem englischen Forum ja was?

ja klar ;)

die ati wird eine 10x so schnelle eierlegende wollmilchsau

WACH AUF :)

MarcWessels
2004-04-21, 22:28:55
Original geschrieben von Ulukay
naja im prinzip isses ja echt egal :)

Warum soll das egal sein?

(del676)
2004-04-21, 22:29:43
Original geschrieben von MarcWessels
Warum soll das egal sein?

lies meinen GANZEN post und denke dabei :eyes:

TheCounter
2004-04-21, 22:35:02
Original geschrieben von Ulukay
ja klar ;)

die ati wird eine 10x so schnelle eierlegende wollmilchsau

WACH AUF :)

Das meinte ich ned, aber die wird schon locker so 3-4 mal schneller als ne FX5900U mit AA/AF sein :D ;)

Also würde das doch hinkommen :D

Außerdem kauf ich mir eh die die schneller ist :)

[dzp]Viper
2004-04-21, 22:37:49
Original geschrieben von TheCounter
So, und jetzt noch 4xAA und 8xAF dazu ;D

Dann dürfte es eigentlich fast gleich sein, außer das das AA bei der ATI Karte noch besser ist.

Mich würde wirklich interessieren welche Einstellungen da verwendet wurden... vielleicht findet sich dazu in einem englischen Forum ja was?

Ich denke nicht, dass AA an war - wenn ich aber das wasser vergleiche würde ich sagen, dass AF an war - welche stufe, kann man aber nicht erkennen...

Aber schlecht isses net - bleibt nur noch die frage, auf was für einem system der shot gemacht wurde :D

(del676)
2004-04-21, 22:39:25
isses normal das FC bei aktiviertem AA oder AF in einen "Critical Error" fährt?

oder geht meine karte wirklich ein :)

BodyLove
2004-04-21, 22:39:27
Die Shots von Ulukay in allen Ehren, aber kommt es mir nur so vor, oder ist dieses Bild Detailreicher?

http://www.pclab.pl/zdjecia/artykuly/pila/ati_tech_days_toronto/farcry.jpg

Imho sieht das Wasser ganz anders aus. Auch der Himmel. Ich weiss nicht was da ist. Irgendjemand eine Erklärung?

(del676)
2004-04-21, 22:43:41
Original geschrieben von BodyLove
Die Shots von Ulukay in allen Ehren, aber kommt es mir nur so vor, oder ist dieses Bild Detailreicher?

http://www.pclab.pl/zdjecia/artykuly/pila/ati_tech_days_toronto/farcry.jpg

Imho sieht das Wasser ganz anders aus. Auch der Himmel. Ich weiss nicht was da ist. Irgendjemand eine Erklärung?

ich seh da nur mehr wolken, mehr fps, und ne bessere textur auf dem felsen (hoffentlich werden die endlich mal hochgepatcht wie bei Deus Ex2)

Gast
2004-04-21, 22:44:33
kann man nur sagen wenn man nenn vergleich der selben stelle bei der selben zeit hat.

Und nicheinmal dann

[dzp]Viper
2004-04-21, 22:50:06
Original geschrieben von Gast
kann man nur sagen wenn man nenn vergleich der selben stelle bei der selben zeit hat.

Und nicheinmal dann

doch - der felsen links ist auf entfernung WESENTLICH detailierten :)

Das wasser aber, wie ich finde, nicht - das sieht ganz normal aus... Es ist wirklich "nur" das LOD an der linken Klippe

Das es einwenig "anders" aussieht (das wasser und der himmel), liegt wohl eher daran, dass es die Nachtmap ist :D

(del676)
2004-04-21, 23:02:38
hmmm
interessant
FC läuft ungepatcht wesentlich besser als mit 1.1er patch - also von den FPS und von der stabilität her :)

mit AA/AF habe ich kein problem mehr
nur die Schatten muss ich deaktivieren sonst hab ich beim anfangslevel so komische 1 fps :)

Winter[Raven]
2004-04-21, 23:12:10
NEIN ... die Textur ist gleich! Hab meinen Screen an gleicher Stelle gemacht. Und es sieht 100% genauso aus.

Gast
2004-04-21, 23:16:18
tja wahren es wohl unterschiedliche felsen

[dzp]Viper
2004-04-21, 23:17:17
Original geschrieben von Winter[Raven]
NEIN ... die Textur ist gleich! Hab meinen Screen an gleicher Stelle gemacht. Und es sieht 100% genauso aus.

hm ok - sah so gut aus auf dem Bild :freak:

aber denoch beachtlich wie ich finde :)

Wird ein Spannender Kampf in 2 wochen :D

deekey777
2004-04-21, 23:24:47
Original geschrieben von [dzp]Viper
Wird ein Spannender Kampf in 2 wochen :D

Ein Kampf? Eher ein Krampf für die 6800 Ultra ;D :asshole: ;D . Einbischen Spass muss sein...

Winter[Raven]
2004-04-21, 23:45:21
http://doom3.gamevision-network.de/forum/attachment.php?attachmentid=1116&sid=

BodyLove
2004-04-22, 00:05:33
Danke winter.

reunion
2004-04-22, 00:33:01
Original geschrieben von Ulukay
mit 1.1
warum?

Weil da bei FX-Karten einige Shader fehlen sollen...

Winter[Raven]
2004-04-22, 00:56:06
Hmmm ... Ich glaube einige Fanatiker spielen etwas mit dem Photoshop rum, und diese 68 sind ned echt.

http://www.pclab.pl/zdjecia/artykuly/pila/ati_tech_days_toronto/farcry2.jpg

//Edit: Wie es scheint ist die Webseite mehr als Pro ATI, also kann man alles wieder in die Mülltonne tretten.

Wenn ich so ein Müll höhre wie R420Pro 70% als NV40U, krieg ich ne Halz. Und immer dieser Hypebinder der ständig allen auf die Sänkel geht .... der Typ ist ned mehr normal im Kopflein.

PP
2004-04-22, 01:22:03
Vielleicht wurden sie von ATI aufgefordert das Bild auszutauschen.
P.S1: Das erste Bild ist:http://www.pclab.pl/zdjecia/artykuly/pila/ati_tech_days_toronto/farcry.jpg
das neue: http://www.pclab.pl/zdjecia/artykuly/pila/ati_tech_days_toronto/farcry2.jpg
P.S.2:70% sind zwar viel,aber bei max AA... Wieso nicht? (Ist schon spaet ich gehe jetzt weiter traeumen)

Winter[Raven]
2004-04-22, 01:24:11
Klar ... man vergleicht ATI 6x mit dem 8x AA aka 4xMSAA+2xSS. Da glaub ich es sogar GERNE!

Ailuros
2004-04-22, 01:51:07
Original geschrieben von Winter[Raven]
Klar ... man vergleicht ATI 6x mit dem 8x AA aka 4xMSAA+2xSS. Da glaub ich es sogar GERNE!

Also von Screenshots lese ich nicht gerne Leistung ab.

Wie dem auch sei, ich sehe knappe 29 fps auf Deinem shot; wieso sind etwas mehr als zweimal soviel unmoeglich auf naechster Generation Karten und was genau hab ich verpasst?

TheCounter
2004-04-22, 02:04:12
Original geschrieben von Winter[Raven]
Hmmm ... Ich glaube einige Fanatiker spielen etwas mit dem Photoshop rum, und diese 68 sind ned echt.

http://www.pclab.pl/zdjecia/artykuly/pila/ati_tech_days_toronto/farcry2.jpg

//Edit: Wie es scheint ist die Webseite mehr als Pro ATI, also kann man alles wieder in die Mülltonne tretten.

Wenn ich so ein Müll höhre wie R420Pro 70% als NV40U, krieg ich ne Halz. Und immer dieser Hypebinder der ständig allen auf die Sänkel geht .... der Typ ist ned mehr normal im Kopflein.

Ach komm, hör lieber du mal mit deinem Pro Nvidia auf und komm mal wieder auf den Boden der Tatsachen. Die Bilder wurden auf bitten von ATI vom Server genommen. Und zum wirklichen Speed des R420 kann man noch garnix sagen, weil keiner weis was ATI wirklich alles verbessert/geändert hat.

pp@work
2004-04-22, 08:57:32
Original geschrieben von Winter[Raven]
Klar ... man vergleicht ATI 6x mit dem 8x AA aka 4xMSAA+2xSS. Da glaub ich es sogar GERNE!

Bei etwa gleicher Qualitaet, warum nicht? Dich stoert es doch sicher nicht das NVs (vor NV40) 4x AA mit ATIs verglichen wird...
P.S.: Dauert ja nicht mehr lange, im Mai wissen wir mehr : )

(del676)
2004-04-22, 09:04:51
Original geschrieben von pp@work
Bei etwa gleicher Qualitaet, warum nicht? Dich stoert es doch sicher nicht das NVs (vor NV40) 4x AA mit ATIs verglichen wird...
P.S.: Dauert ja nicht mehr lange, im Mai wissen wir mehr : )

nur das nvs 8xAA 10x so gut aussieht weils einen SSAA Anteil besitzt

BodyLove
2004-04-22, 09:15:28
Original geschrieben von Ulukay
nur das nvs 8xAA 10x so gut aussieht weils einen SSAA Anteil besitzt

Naja, 10mal sind etwas übertrieben. Es sieht auch besser aus, keine Frage, aber dies ist doch nicht allzu hoch. wahrscheinlich wurde 6xAA mit 8xAA gebencht. Nur sehe ich da keinerlei Probleme. Ich würde mir wünschen, dass NV einen 6xAA-Modus wie ATI bringt.

(del676)
2004-04-22, 09:40:03
ich sags mal so

nv hat nichts was performance und qualitätsmässig dem ati 6x entgegentreten kann
4xAA is nicht schön genug
und 8xAA viel zu lahm

dafür hat ATI qualitätsmässig nichts was man mit 8xAA vergleichen kann

teilweise profitieren Games enorm von SSAA (siehe meinem söldner screen)

Gast
2004-04-22, 09:44:00
Original geschrieben von BodyLove
Naja, 10mal sind etwas übertrieben. Es sieht auch besser aus, keine Frage, aber dies ist doch nicht allzu hoch. wahrscheinlich wurde 6xAA mit 8xAA gebencht. Nur sehe ich da keinerlei Probleme. Ich würde mir wünschen, dass NV einen 6xAA-Modus wie ATI bringt. ja und ich wunsch mir gescheite af filter von ati blabla flameblabla.

Ich würde mal sagen das mann einen af und aa Bilderbuchstandard braucht bevor man da irgendwelche vergleich macht.

Bei af gibt es diesen bis einer anfing hier anderungen einzubringen was aber nicht ok ist der andere biete andere aa modi was allerdings offen ist, aber nun glaub mal nicht das es zufall ist.

Denn direkten vergleich kann man knicken, so ists wie mit em gescmack jeder hat nenn anderen.


Bei mir läufts wie damals, ti 4600 gegen 9500pro pro raus ti wieder rein, fx bestellt fx ist drinne. Diesmal 6800 rein, dann wenn se da ist x8 rein, mal gucken welche mir besser geffält und die bessere behalte ich!
Besser bezieht sich da auf meine ansprüche.

Gast
2004-04-22, 10:02:58
hat jemand die Bilder gerettet?

Auf dem Server von PCLab.pl findet man nichts mehr davon.

Ailuros
2004-04-22, 10:06:35
Original geschrieben von Ulukay
nur das nvs 8xAA 10x so gut aussieht weils einen SSAA Anteil besitzt


10x so gut inwiefern? Nur weil 4xSSAA ein Stueck besser als stinknormales trilinear filtert?

Es ist eher 4x mal weniger Fuellrate und zweimal niedrigere Aufloesungen; da sollte man so einiges an der 10-fachen Uebertreibung reduzieren.

[x]snaKe
2004-04-22, 10:09:15
Das ist also Ruby (80.000 Polygone):

http://www.meristation.com/img-filer/noticias/abril2004/ruby1.jpg

(del676)
2004-04-22, 10:11:21
Original geschrieben von [x]snaKe
Das ist also Ruby (80.000 Polygone):

http://www.meristation.com/img-filer/noticias/abril2004/ruby1.jpg

hmm - endlich sind sie auf "Dawn" Niveau :D

ne mal ernst, wo gibts da wirkliche neuerungen die ich bisher noch nicht gesehn hab?

[dzp]Viper
2004-04-22, 10:12:57
80 000 Polygone und dazu vielleicht noch trueform? :D

[dzp]Viper
2004-04-22, 10:13:20
Original geschrieben von Gast
hat jemand die Bilder gerettet?

Auf dem Server von PCLab.pl findet man nichts mehr davon.

ja habe das Farcrybild zuhause auf meinem Rechner (bin jetzt aber auf arbeit)

Exxtreme
2004-04-22, 10:13:59
Original geschrieben von Ailuros
10x so gut inwiefern? Nur weil 4xSSAA ein Stueck besser als stinknormales trilinear filtert?

Es ist eher 4x mal weniger Fuellrate und zweimal niedrigere Aufloesungen; da sollte man so einiges an der 10-fachen Uebertreibung reduzieren.
Wenn du ein spiel hast, welches massiv auf Alphatesting setzt und/oder Moiré-Effekte produziert etc. dann biste ohne SSAA wirklich aufgeschmissen. Deshalb sehe ich eine Antialiasing-Gesamtlösung nur dann als gut an wenn sie Supersampling und Multisampling anbietet und das bitte alles mit RG/Sparsed Grid. Das bietet z.Zt. leider kein IHV.

Ailuros
2004-04-22, 10:22:31
Original geschrieben von Exxtreme
Wenn du ein spiel hast, welches massiv auf Alphatesting setzt und/oder Moiré-Effekte produziert etc. dann biste ohne SSAA wirklich aufgeschmissen. Deshalb sehe ich eine Antialiasing-Gesamtlösung nur dann als gut an wenn sie Supersampling und Multisampling anbietet und das bitte alles mit RG/Sparsed Grid. Das bietet z.Zt. leider kein IHV.

Exxtreme,

Keine 10x mal. Alpha-aliasing hat sich radikal reduziert in Spielen und wo immer es auftritt handelt es sich eher selten um die Mehrzahl der Szene.

Wenn ATI diesmal wieder kein SSAA (selbst in der Form von OGSS unterstuetzt) dann hat natuerlich NVIDIA hier einen Vorteil mit den hybriden modi, aber hauptsaechlich fuer Kompatibilitaet (und ja aeltere Spiele zu behandeln gehoert in meinem Buch zum Kompatibilitaetsbereich).

***edit:

uebrigens fuer moire ist sparse oder rotated nicht gerade die ideale Loesung:

http://web.onetel.net.uk/~simonnihal/assorted3d/samppat.html

Exxtreme
2004-04-22, 10:34:08
Original geschrieben von Ailuros
Exxtreme,

Keine 10x mal. Alpha-aliasing hat sich radikal reduziert in Spielen und wo immer es auftritt handelt es sich eher selten um die Mehrzahl der Szene.

Wenn ATI diesmal wieder kein SSAA (selbst in der Form von OGSS unterstuetzt) dann hat natuerlich NVIDIA hier einen Vorteil mit den hybriden modi, aber hauptsaechlich fuer Kompatibilitaet (und ja aeltere Spiele zu behandeln gehoert in meinem Buch zum Kompatibilitaetsbereich).

Natürlich sieht es nicht 10x besser aus. Aber in nicht wenigen Spielen sind die Unterschiede ziemlich stark.
Original geschrieben von Ailuros
uebrigens fuer moire ist sparse oder rotated nicht gerade die ideale Loesung:

http://web.onetel.net.uk/~simonnihal/assorted3d/samppat.html
Nun ja ... lieber eine nicht ganz optimale Lösung als gar keine Lösung... IMHO. :D

Exxtreme
2004-04-22, 10:39:33
Original geschrieben von [x]snaKe
Das ist also Ruby (80.000 Polygone):

http://www.meristation.com/img-filer/noticias/abril2004/ruby1.jpg
Ich habe da was besseres gayfunden:
http://www.ftprox123.hpg.ig.com.br/ruby1.jpg

X-D ;D

aths
2004-04-22, 10:50:14
Original geschrieben von Ailuros
uebrigens fuer moire ist sparse oder rotated nicht gerade die ideale Loesung:

http://web.onetel.net.uk/~simonnihal/assorted3d/samppat.html Da würde ich gerne mal die konkreten Masken sehen. Ein gutes rotated grid == "sparsed" == "jittered".

Super Grobi
2004-04-22, 10:57:34
Öhm... Leute,
gibt es jetztschon Bilder von der Karte? Hat die auch 2 Stromanschlüsse? Verzeit mit die Frage, falls schon beantwortet, aber über 100 Seiten durchzusehen ist doch ein wenig viel ;-)

SG

Ailuros
2004-04-22, 11:35:08
Original geschrieben von aths
Da würde ich gerne mal die konkreten Masken sehen. Ein gutes rotated grid == "sparsed" == "jittered".

Simon verwendete sparsed fuer den Test als ich ihn fragte; warum er dieses jetzt als rotated bezeichnet weiss ich auch nicht. Es gibt in einem der alten FSAA Artikel von Kristof bei B3D ein uraltes FSAA demo, wo man sich den moire test genauer ansehen kann.

Letztes Bild rechts unten sind 10K samples.

kami
2004-04-22, 13:56:19
Das Bild von Ruby finde ich nicht sonderlich beeindruckend. Die Haare sehen im Vergleich zu denen von Nalu recht "billig" aus. Naja vielleicht kommen ja noch bessere Shots. :ratlos:

LovesuckZ
2004-04-22, 14:19:16
Original geschrieben von kami
Das Bild von Ruby finde ich nicht sonderlich beeindruckend. Die Haare sehen im Vergleich zu denen von Nalu recht "billig" aus. Naja vielleicht kommen ja noch bessere Shots. :ratlos:

Man kann Ruby und Nalu nicht miteinander vergleichen.
So wie es aussieht, stellt ATi eine Art "Geschichte" dar, bei nvidia wird sich nur auf die Figur konzentriert. Deswegen kann man mehr "ressourcen" auf sie verwenden. Auch ein grund, warum im Wasser bei Nalu keine anderen Tiere rumschwimmen :)

kami
2004-04-22, 14:28:55
Naja trotzdem hätte man sich gerade bei den Haaren mehr anstrengen können. Die haben mich bei Nalu noch am meisten beeindruckt.

Ailuros
2004-04-22, 14:41:10
Haarspalterei....pffffff hrhrhrhr ;D

Aquaschaf
2004-04-22, 17:01:29
Naja, mal abwarten wie der Rest der Geschichte aussieht. Ich glaube NVidia beschäftigt einfach fähigere 3D-Artisten als ATI ;)

Gast
2004-04-22, 17:33:45
Erstes Bild einer R420 (keine Ahnung ob pro oder XT):

http://www.rage3d.com/board/showthread.php?postid=1332788524#post1332788524

Sieht nach Single-Slot-Lösung und einem Stromanschluss aus.

reunion
2004-04-22, 17:38:21
Original geschrieben von Gast
Erstes Bild einer R420 (keine Ahnung ob pro oder XT):


PRO und XT verwenden den gleichen Chip, werden also auch dieselbe Kühllösung verwenden...

//Edit: Falls der Shot echt ist verwendet man fast den gleichen Kühler wie auf der 9800XT:

http://www.oc.com.tw/article/0404/imgs/ati-RANCH-012.jpg

//Edit2: was ist das für ein gelbes Teil unter dem Stromanschluss?

MarcWessels
2004-04-22, 17:51:29
Hauptsache, der ist einfach abzumontieren damit ich meine WaKü draufschrauben kann. :D

Und ich hoffe, daß dort der Voltagemod mit SLL und Bleistift auch funktioniert. *fg*

WEGA
2004-04-22, 18:28:19
Original geschrieben von reunion
PRO und XT verwenden den gleichen Chip, werden also auch dieselbe Kühllösung verwenden...

//Edit: Falls der Shot echt ist verwendet man fast den gleichen Kühler wie auf der 9800XT:

http://www.oc.com.tw/article/0404/imgs/ati-RANCH-012.jpg

//Edit2: was ist das für ein gelbes Teil unter dem Stromanschluss?

vieleicht eine SE wegen dem kleinen kühler und nur 1 stromanshcluss. die speciher werden auhc nicht mitgekühlt

InsaneDruid
2004-04-22, 18:33:20
Warum sollte der Speicher unbedingt gekühlt werden? Wenn der vom Hersteller für einen bestimmten Takt freigegeben ist sollte der nomalerweise ohne 20HEatpipes laufen.

WEGA
2004-04-22, 18:55:03
Original geschrieben von InsaneDruid
Warum sollte der Speicher unbedingt gekühlt werden? Wenn der vom Hersteller für einen bestimmten Takt freigegeben ist sollte der nomalerweise ohne 20HEatpipes laufen.

da sieht man gut, wie klein der kühler ist bzw. wieviel platz sie verschenken

tokugawa
2004-04-22, 19:42:03
Original geschrieben von Aquaschaf
Naja, mal abwarten wie der Rest der Geschichte aussieht. Ich glaube NVidia beschäftigt einfach fähigere 3D-Artisten als ATI ;)

Find ich auch. Vom ästhetischen (also nicht-technischen) Standpunkt aus gefällt mir die NV-Jungfrau besser... die ATI-Braut hier dagegen find ich irgendwie nur häßlich...

Ist aber OT... die Maskottchen sollten ja keineswegs eine Kaufentscheidung beeinflussen :D

Hellfire-Torrod
2004-04-22, 20:52:15
Original geschrieben von WEGA
da sieht man gut, wie klein der kühler ist bzw. wieviel platz sie verschenken

Irgendwie riechts hir stark nach fake. Ich finde diesen kühler für dieses board eher nutzlos....immerhin ist er nur so lang, um die speicher auch zu kühlen.....das ist aber hir nicht der fall, sie sind nur leicht bis ganicht bedekt. Es sieht eher so aus, als hätte jemand den XT-Kühler auf eine 5900 ultra gesetzt.

Gast
2004-04-22, 20:57:15
Original geschrieben von WEGA
vieleicht eine SE wegen dem kleinen kühler und nur 1 stromanshcluss. die speciher werden auhc nicht mitgekühlt


No;

laut DaveBaumann muss GDDR3-Speicher nicht gekühlt werden. Das passt also so.

Black-Scorpion
2004-04-22, 21:10:22
Original geschrieben von Hellfire-Torrod
Irgendwie riechts hir stark nach fake. Ich finde diesen kühler für dieses board eher nutzlos....immerhin ist er nur so lang, um die speicher auch zu kühlen.....das ist aber hir nicht der fall, sie sind nur leicht bis ganicht bedekt. Es sieht eher so aus, als hätte jemand den XT-Kühler auf eine 5900 ultra gesetzt.
Das Bild stammt von der Seite.
http://www.oc.com.tw/article/0404/readgoodarticle.asp?id=2531
Und so wie es aussieht auch kein Fake.

Aber die Seite scheint down zu sein. :(

Versuchs mal über die Seite.
http://babelfish.altavista.com/babelfish/trurl_pagecontent?lp=zt_en&url=http%3a%2f%2fwww.oc.com.tw%2farticle%2f0404%2freadgoodarticle.asp%3fid%3d253 1

WEGA
2004-04-22, 21:30:08
Original geschrieben von Hellfire-Torrod
Irgendwie riechts hir stark nach fake. Ich finde diesen kühler für dieses board eher nutzlos....immerhin ist er nur so lang, um die speicher auch zu kühlen.....das ist aber hir nicht der fall, sie sind nur leicht bis ganicht bedekt. Es sieht eher so aus, als hätte jemand den XT-Kühler auf eine 5900 ultra gesetzt.

ne NV karte isses bestimmt nicht. und die platine sieht mir auch unbekannt aus

1. hat die eding striche auf den kondensatoren.
2. viel zu kurtz <-> mit 4-pin anschluss

so sieht ein XT kühler aus:

http://www.sapphiretech.com/media/9800xt/9800xtboard.jpg

WEGA
2004-04-22, 21:31:15
Original geschrieben von Gast
No;

laut DaveBaumann muss GDDR3-Speicher nicht gekühlt werden. Das passt also so.

da sieht man gut, wie klein der kühler ist bzw. wieviel platz sie verschenken

sie vershcenken kühlerleistung durch den platz, den si enicht ausnutzen. darum nehme ich an, das es eine niedriger getaktete x800 is (SE)

Hellfire-Torrod
2004-04-22, 21:42:26
"wega:ne NV karte isses bestimmt nicht. und die platine sieht mir auch unbekannt aus"

War ja auch nur ein beispiel. Es macht halt den eindruck, das der Kühler da überhaupt nicht drauf passt/gehört....Is irgendwie alles so unlogisch platziert....wenn man mal über den Kühlkörper sieht, sieht man eine rote fläche, ohne irgendwelche Bauteile!

WEGA
2004-04-22, 21:50:16
Original geschrieben von Hellfire-Torrod
"wega:ne NV karte isses bestimmt nicht. und die platine sieht mir auch unbekannt aus"

War ja auch nur ein beispiel. Es macht halt den eindruck, das der Kühler da überhaupt nicht drauf passt/gehört....Is irgendwie alles so unlogisch platziert....wenn man mal über den Kühlkörper sieht, sieht man eine rote fläche, ohne irgendwelche Bauteile!

was solls denn sonst sein? ne leere fläche is doch nichts verdächtiges. wäre ein äußerst aufwendiger fake.

EDIT: meinst da hat sich einer mal ordendlich im photoshop ausgetobt? der kühler berührt shcon so komsich die rams

robbitop
2004-04-22, 21:56:26
das ist die URL
http://www.sapphiretech.com/media/9800xt/9800xtboard.jpg
sagt ja wohl alles oder? ;)

Hellfire-Torrod
2004-04-22, 22:00:38
Original geschrieben von WEGA
was solls denn sonst sein? ne leere fläche is doch nichts verdächtiges. wäre ein äußerst aufwendiger fake.

EDIT: meinst da hat sich einer mal ordendlich im photoshop ausgetobt? der kühler berührt shcon so komsich die rams

Na, nur irgendwie ist es komisch, ds eine High end karte noch soviele Resourcen auf dem Board und von der Kühlung her hat....Vor allem im vergleich zu Aktuellen Karten und Jüngst der GF 6800ultra.
Würde sagen(vermuten) dass das kühlsystem noch nicht so ganz ausgereift ist, den optisch ist es auch irgendwo ein "witz". aber naja, wer weis, was wir da auf dem Photo sehen!

InsaneDruid
2004-04-22, 22:01:24
Verdächtig sind:
- allgemeine Größe des Coolers zum Board
- die extrem "harte" obere Grenze des Coolers (Ausbuchtung des Xt Coolers für die Ramkühlung weggephotoshopped)
- die immer noch vorhandene runde Ausspaarung (beim XT stehen da Kondensatoren um den Molex).. aber dort ist nichts was da im Weg wäre.
- Das Kabel hat auch keinen Stecker (der ja fast so hoch ist wie der Cooler bei der XT)..
- Der Cooler geht zum TEIL auf die Rams.. entweder der würde vorher aufhören, oder voll drübergehen, so ist das EXTREM ungewöhnlich
- Der Cooler nutzt sehr wenig freie Fläche. Eigentlich sollte ein Chip der sicher NICHT weniger warm wird wie ein 9800XT einen möglichst großen Cooler bekommen, vor allem wenn das Boardlayout da massiv Platz frei hat.
- Recht wenig Kondensatoren an der Spannungsversorgung.

WEGA
2004-04-22, 22:12:52
is hals die abspeckversion x800se. möglicher weise auch eine x300 oder x500. sieht aber sehr komisch aus. ich glaub eher an fake

WEGA
2004-04-22, 22:13:25
Original geschrieben von robbitop
das ist die URL
http://www.sapphiretech.com/media/9800xt/9800xtboard.jpg
sagt ja wohl alles oder? ;)

was willst du mir damit sagen?

Demirug
2004-04-22, 22:34:10
Das ist ja mal wieder gefährlich zugebaut das Board. Hoffentlich laufen diesesmal keine Signalleitungen unter den Spannungsteilen entlang.

BerndJazz
2004-04-22, 23:45:23
Ok, auf der chinesischen Seite von der das Bildchen stammt gibt es auch ein kleines Interview mit Ati. Hier sind die ersten Übersetzungsversuche von rage3d-Usern die Chinesisch können:

quote:
--------------------------------------------------------------------------------
Originally posted by Alkali
I've just been reading (or trying) the rest of the article at http://www.oc.com.tw/article/0404/r...cle.asp?id=2533

NOTE: You need the language pack installed to see these characters!!! (Like me )

The next page has a Question and Answer section:



Now the answer says the Radeon X800 Pro is launched on 5/4 (4th May), and the Radeon X800 XT is launched on 5/21 (21st May)



This answer is more difficult to fathom - but I think it says the Radeon is 500Mhz Core, 600Mhz memory. Not sure what the DDR2 and DDR3 is about...



This answer I can't understand at all, which is a shame... Maybe someone else knows a lot more of the language than me?
--------------------------------------------------------------------------------



As I am a chinese, I will translate a bit to you.

You are right about the lunch date.

In the report the reporter asked what is the meaning to ATi to use GDDR-3 but not GDDR-2. ATi replies, this is because currently GDDR-2 max out @ 450 MHz (It should be max out at 500 MHz, don't ask me why ATi say 450 MHz. I am just translating the article) and the Radeon X800 will require 500 MHz or 600 MHz memory speed.

the reporter asked why the Radeon X800 does not have PS 3.0, here is the answer:


quote:
--------------------------------------------------------------------------------
¨Æ¹ê¤W¡APixel Shader 3.0¸ò2.0ªº®ÄªG¡A¹ï¦×²´¨Ó»¡¬O¨S¦³¤°»ò®t²§ªº¡A²³æªº»¡¡A¤j³¡¤Àªº¹CÀ¸¸òµ{¦¡©Ò»Ýªº«ü ¥O¶°¡A¦bPixel Shader 2.0ªº«K¨¬¥HÀ³¥I¡A¥[¤Wµu®É¶¡¤§¤º¤]¤£·|¦³¤°»ò¤ä´©Pixel Shader 3.0ªº³nÅé«æ»Ý¨Ï¥Î³o¼Ëªº³W®æ¡A§ó¦óªp¥Ø«ePixel Shader 2.0ªº³W®æ¨Ã¥¼§¹¥þµo´§¡A_Y_n±j¨D¾É¦VPixel Shader 3. 0¡A¨º»òø¹Ï´¹¤ùªº¹Bºâ¯à¤O¬O¤£¬O¯à°õ¦æ¶¶ºZ¡AÁÙ¬O¥¼©w¤§¼Æ¡A±qATiªº¨¤«×¨Ó¬Ý¡A¼W¥[¹Bºâ¯à¤O·|¤ñ¼W¥[¨ä¥L¥\
¯à¨Ó±o¦³·N¸q¡C
--------------------------------------------------------------------------------



translate: There is no different between an image rendered by PS 2.0 and an image rendered by PS 3.0. PS 2.0 is good enough to handle most of the shader instructions in games. Also, there won't be too many games will support PS 3.0 in the foreseeable future. And, PS 2.0 is still not fully coded to show its strength. If forced to produce a chip that can render PS 3.0 codes, the performance of the chip may be not high enough to produce smooth frame rate. From our point of view, greatly enhance the PS 2.0 unit on our products sound more meaningful to consumers.
__________________

TheCounter
2004-04-23, 00:13:20
Öhm ich will das mal ergänzen, ich quote mich mal selber:

Hmm, den Artikel nach zu Urteilen steckt im X800 doch mehr neues als vermutet, so wie es aussieht hat ATI etwas entwickelt was, laut dem Artikel 3Dc heißt, das soll wohl sowas wie CG sein. 3Dc soll wohl eine Art material quality compression technology sein. HL2 und Farcry unterstützen dies schon. Mehr Games sollen auf der E3 präsentiert werden.

Sphinx
2004-04-23, 00:33:08
Original geschrieben von TheCounter
Hmm, den Artikel nach zu Urteilen steckt im X800 doch mehr neues als vermutet, so wie es aussieht hat ATI etwas entwickelt was, laut dem Artikel 3Dc heißt, das soll wohl sowas wie CG sein. 3Dc soll wohl eine Art material quality compression technology sein. HL2 und Farcry unterstützen dies schon. Mehr Games sollen auf der E3 präsentiert werden.

Es ist NICHT und soll nicht sowas wie CG sein - sondern ein Kompressionsverfahren wie DXTC,S3TC...

TheCounter
2004-04-23, 00:49:10
Original geschrieben von Sphinx
Es ist NICHT und soll nicht sowas wie CG sein - sondern ein Kompressionsverfahren wie DXTC,S3TC...

Okay, thx für die Aufklärung ;)

Tomcat70
2004-04-23, 06:42:20
http://www.theinquirer.net/?article=15487


----------
THERE'S ONLY one thing about the new ATI marchitecture that we haven’t reported on yet. ATI calls it 3Dc and it's a new way of compression that this chip will include.

I guess ATI didn’t want us in Canada because it didn’t want us to learn about its new chips and its capabilities too soon.

The last piece of the puzzle is this 3Dc compression that ATI is willing to supply as an open standard and this marchitecture looks very impressive, at least on paper.

3Dc will be able to perform similar level of quality as normal non compressed textures, we learn, but it wont be able to compress all data. It might lose information about light and shadow stuff.

It will certainly speed things up r and R300 marchitecture tweaked up to R420 runs things faster then without. ATI is claiming 8.8 to 1 compression for R300 if I remember correctly and it was always rather good with these optimisations. However, I'd urge caution about these claims, as the R300 could compress data in 8.8 to 1 ratio only if you were talking about a black screen with information about only the black shade.

It's another piece of BlueCrystalKit to make your 950/1000MHz memory look better, that's for sure.

-----------------


grüsse

robbitop
2004-04-23, 08:52:51
@Wega
naja ein Picture offiziell auf einer Herstellerpage (Sapphire) also vor NDA Ablauf, mit dem Namen 9800XT...hmmmm welche Karte wird das wohl sein?
Ne 9800XT :-P

uiuiui
hört sich nach einer Verlustbehafteten Kompression an. Die sollte ordendlich Bandbreite sparen, aber gut für die BQ ist das nicht.
NV hat im NV40 erstmals eine "echte" CC eingebaut, jedoch lossless.

Das ist mal sehr interessant von ATi. Mal schauen, wie sich das praktisch auf Performance und BQ auswirkt.

LovesuckZ
2004-04-23, 09:31:07
Original geschrieben von robbitop
uiuiui
hört sich nach einer Verlustbehafteten Kompression an. Die sollte ordendlich Bandbreite sparen, aber gut für die BQ ist das nicht.

Muss von der Anwendung unterstuetzt werden. Deswegen schreiben sie auch, dass Farcry und HL2 (wen wunder's...) es schon unterstuetzen.

NV hat im NV40 erstmals eine "echte" CC eingebaut, jedoch lossless.

Hm, was bedeutet "lossless"?

robbitop
2004-04-23, 09:33:28
engl: Verlustfrei.
Es gehen keine Bildnformationen verloren, BQ bleibt gleich.

Ich bin mal gespannt, was das bringt. Je nach Verlust kann das ganz erheblich sein, wenn wir mal davon ausgehen, dass die nextgen Karten enorm Bandbreitenlimitert sind und jede Farbinformation in die Bandbreite reinhaut.

NV hätte sowas auch machen sollen =)
Naja dafür haben sie eine "echte" CC ohne Verlust.

ow
2004-04-23, 09:38:51
.

robbitop
2004-04-23, 09:43:32
wozu API?
wird das nicht chipintern geregelt, ohne dass die API etwas davon mitbekommt?
Obwohl, dass ein Game das unterstützen muss, spräche dagegen...hmm
was meint ihr anderen?

Tarkin
2004-04-23, 09:52:00
keine Ahnung ob das schon jemand geposted hat...

http://www.gzeasy.com/newsphoto/y2k4/04/24/ati1.jpg

ShadowXX
2004-04-23, 09:52:53
Original geschrieben von robbitop
wozu API?
wird das nicht chipintern geregelt, ohne dass die API etwas davon mitbekommt?
Obwohl, dass ein Game das unterstützen muss, spräche dagegen...hmm
was meint ihr anderen?

vielleicht ist es in DX9c, welches ja noch nicht freigegeben ist mit implementiert...andererseits hätten das dann bestimmt schon welche von unseren Grafik-Gurus erwähnt...

seahawk
2004-04-23, 09:53:00
Original geschrieben von robbitop
engl: Verlustfrei.
Es gehen keine Bildnformationen verloren, BQ bleibt gleich.

Ich bin mal gespannt, was das bringt. Je nach Verlust kann das ganz erheblich sein, wenn wir mal davon ausgehen, dass die nextgen Karten enorm Bandbreitenlimitert sind und jede Farbinformation in die Bandbreite reinhaut.

NV hätte sowas auch machen sollen =)
Naja dafür haben sie eine "echte" CC ohne Verlust.

Ne, kann nicht in DX integriert sein. "ATI is willing to supply it as an open standard". Wäre es in DX dann könnte es ATI nicht zur Verfügung stellen.

Ich frage mich nur wie das mit den Texturen geregelt wird. Muss man die einmal unkomprimiert hinterlegen und einmal im ATI Format, oder erzeugt sich ATI diese Compression aus unkomprimierten Texturdaten ??
Könnte aber z.B. die Framerate in Far Cry erklären, die man auf dem einen Screenshot gesehen hat.

ShadowXX
2004-04-23, 09:56:13
Original geschrieben von seahawk
Ne, kann nicht in DX integriert sein. "ATI is willing to supply it as an open standard". Wäre es in DX dann könnte es ATI nicht zur Verfügung stellen.

Ich frage mich nur wie das mit den Texturen geregelt wird. Muss man die einmal unkomprimiert hinterlegen und einmal im ATI Format, oder erzeugt sich ATI diese Compression aus unkomprimierten Texturdaten ??
Könnte aber z.B. die Framerate in Far Cry erklären, die man auf dem einen Screenshot gesehen hat.

Da ist was wahres dran...aber wie zum Teufel benutzt man es dann innerhalb eines DX-Games, wenn es von DX nicht unterstützt wird...

Demirug
2004-04-23, 09:57:15
Spezielle Texturformate sind bei DX schon immer erlaubt. Man braucht lediglich sogenante FourCC Bezeichner. Werden solche Formate aber benutzt muss die Applikation sich darum kümmern das die Daten entsprechend kodiert angeliefert werden.

3dc hat aber nach ein anderes Problem über das ich aber vorerst noch nichts sagen darf.

LovesuckZ
2004-04-23, 10:00:20
Wie sieht es beim NV40 aus. Hat Nvidia auch die "unbenutzen" neuen, spieziellen "Texturformate" des NV30 übernommen?

Original geschrieben von Demirug
3dc hat aber nach ein anderes Problem über das ich aber vorerst noch nichts sagen darf.

Ist das nicht schon zu viel? :)

robbitop
2004-04-23, 10:05:31
@tarkin
sicher, dass es ne R420 ist?

Odal
2004-04-23, 10:14:14
Original geschrieben von [x]snaKe
Das ist also Ruby (80.000 Polygone):

http://www.meristation.com/img-filer/noticias/abril2004/ruby1.jpg

ruby is potthässlich (genau wie das Ati Logo :madman: nur spass :) und die Karten)

Odal
2004-04-23, 10:16:17
Original geschrieben von ow
Mal eine dumme Frage: wie soll eine DX-Applikation etwas nutzen, dass von der DX-APi nicht unterstuetzt wird?

/edit: oder ist mir da was entgangen und ATis Kompression ist standardisiert durch das APi?

Oder doch alles nur FUAD?:D

unter der API liegt ja noch der treiber :)

BodyLove
2004-04-23, 10:27:56
Original geschrieben von Demirug
3dc hat aber nach ein anderes Problem über das ich aber vorerst noch nichts sagen darf.

Darf man sich also auf ein Review freuen? NDA lässt grüßen?!;)

seahawk
2004-04-23, 10:28:36
Original geschrieben von robbitop
@tarkin
sicher, dass es ne R420 ist?

ne X800SE :D

BodyLove
2004-04-23, 10:31:01
Original geschrieben von Odal
ruby is potthässlich (genau wie das Ati Logo :madman: nur spass :) und die Karten)

Ich muss zugeben, dass Nalu besser aussieht. Aber Lovesuckz hat ja gesagt, dass bei Nalu keine weiteren Objekte miteingefügt worden, welches aber bei Ruby der Fall ist. Aus diesem Grund hat man auch die Haare nicht verlängert. Die sind bestimmt die schwierigsten Effekte, auch bei Nalu.

ow
2004-04-23, 10:32:40
.

ShadowXX
2004-04-23, 10:33:39
Original geschrieben von Demirug
Spezielle Texturformate sind bei DX schon immer erlaubt. Man braucht lediglich sogenante FourCC Bezeichner. Werden solche Formate aber benutzt muss die Applikation sich darum kümmern das die Daten entsprechend kodiert angeliefert werden.

3dc hat aber nach ein anderes Problem über das ich aber vorerst noch nichts sagen darf.

Danke für die Info....

Nun, wenn es nicht "lossless" ist, ist das doch eigentlich schon Problem genug...oder?? (ja, ich weiss das du darauf nicht antworten kannst...)

ow
2004-04-23, 10:33:47
.

Odal
2004-04-23, 10:34:32
Original geschrieben von ow
was willst du damit sagen?


@Demi: ok, dann waere das ja geklaert.

das man eventuell kompression/kompressionsformatänderungen über den treiber managen könnte und die DX API nix davon mitbekommen muss

BodyLove
2004-04-23, 10:35:05
Original geschrieben von ow
Was hat ein NDA mit Reviews zu tun??

Ausschließlich? Nicht viel. Nur eine Hoffnung besteht noch. Und hoffen darf man ja.:)

ow
2004-04-23, 10:35:22
.

ShadowXX
2004-04-23, 10:36:10
Original geschrieben von BodyLove
Darf man sich also auf ein Review freuen? NDA lässt grüßen?!;)

Vielleicht schreibt Demi ja einen kleinen Technikartikel zum r420 nach dessen Launch....(er muss ja nicht die ausmaße von aths nv40 inside haben...)

Odal
2004-04-23, 10:37:39
Original geschrieben von BodyLove
Ich muss zugeben, dass Nalu besser aussieht. Aber Lovesuckz hat ja gesagt, dass bei Nalu keine weiteren Objekte miteingefügt worden, welches aber bei Ruby der Fall ist. Aus diesem Grund hat man auch die Haare nicht verlängert. Die sind bestimmt die schwierigsten Effekte, auch bei Nalu.

naja ich mein nichmal nur die haare (auch wenn ich längere haare besser fänd) ich mein das gesicht und die proportionen....
die moddeler haben bei ATI halt keinen frauengeschmack :)

ShadowXX
2004-04-23, 10:44:26
Original geschrieben von ow
DXTC ist auch alles andere als lossless und doch stoert sich da bis heute keiner dran. Das seh ich nicht so sehr als Problem.

ok...ist ein argument....

INQ vermutet, das vieleicht die Licht/Schatten-Informationen nicht "lossless" sind..


3Dc will be able to perform similar level of quality as normal non compressed textures, we learn, but it wont be able to compress all data. It might lose information about light and shadow stuff.

ow
2004-04-23, 10:47:20
.

ow
2004-04-23, 10:50:14
.

ow
2004-04-23, 10:52:20
.

Demirug
2004-04-23, 10:53:25
Ich stehe nicht für 3dCenter unter einer NDA. Ergo wird es hier auch keinen Technik Artikel von mir geben.

aths
2004-04-23, 11:31:24
Original geschrieben von ow
Mal eine dumme Frage: wie soll eine DX-Applikation etwas nutzen, dass von der DX-APi nicht unterstuetzt wird?

/edit: oder ist mir da was entgangen und ATis Kompression ist standardisiert durch das APi? Interne Komprimierung kann für DX transparent erfolgen, neue Texturformate mit Komprimierung können DX gemeldet und dann von der Applikation genutzt werden.

Afaik bringt R420 eine brauchbare Kompression für Normalmaps. Ob das was mir dem komischen 3Dc-Thema zu tun hat, weiß ich aber nicht (vermutlich nicht.)

ow
2004-04-23, 11:35:31
.

Addy
2004-04-23, 11:57:26
Also wenn ich den Thread richtig verfolgt habe, gibt es keine Möglichkeit eine r420 für nen Test bei 3DCenter zu bekommen? ?(

Das wäre sehr schade, da 3DCenter meine Lieblingsquelle ist .:...(

*edit* juhuuu bin ein Glückskind :D

BodyLove
2004-04-23, 12:02:53
Original geschrieben von Addy
*edit* juhuuu bin ein Glückskind :D

Aber net mehr lange.;)

Gast
2004-04-23, 12:21:29
Keine Ahnung, ob das jetzt hier rein gehört, aber wie es aussieht hat ATI auf die Farcry-Aktion von Nvidia reagiert:

http://www.theinquirer.net/?article=15502

Gast
2004-04-23, 12:39:41
Hier noch was zur einer neuen Kommpressionstechnik (3Dc?):

http://www.ati.com/developer/techpapers.html

Ist eine pdf zu Normal Map Compression.

CrazyIvan
2004-04-23, 12:41:55
Original geschrieben von Gast
Keine Ahnung, ob das jetzt hier rein gehört, aber wie es aussieht hat ATI auf die Farcry-Aktion von Nvidia reagiert:

http://www.theinquirer.net/?article=15502

Jo, is ja ne tolle FUAD Aktion von nV. An die Aussage von ATi, dass man mit SM3.0 keine besseren Effekte machen könne als mit SM2.0 mag ich aber auch net so recht glauben...

ow
2004-04-23, 13:04:15
.

ow
2004-04-23, 13:08:09
.

aths
2004-04-23, 13:46:42
Original geschrieben von Addy
Also wenn ich den Thread richtig verfolgt habe, gibt es keine Möglichkeit eine r420 für nen Test bei 3DCenter zu bekommen? ?(

Das wäre sehr schade, da 3DCenter meine Lieblingsquelle ist .:...(Demirug schreibt manchmal Artikel für 3dc, gehört aber nicht zu 3dc; wenn Demirug keine Karte hat heißt das nicht, dass wir keine Karte kriegen, ob wir eine kriegen weiß ich aber nicht, ich fürchte, nein.

deekey777
2004-04-23, 13:47:53
Original geschrieben von ow
Natuerlich nicht, aber was wuerdest du denn an ATis Stelle tun? Behaupten, dass die Konkurrenz fortschrittlicher ist und schoenere Frames rendern kann? ;)

"ATI says that CryTek's representative told it that what Nvidia showed us in Geneva was a 2.0/3.0 path versus 1.1 path." Und:" CryTek representative responded on this matter with this answer: "Was Nvidia showing SM3.0 vs. SM2.0 or SM1.1?" He replied to his own question by saying that Nvidia was showing 3.0/2.0 vs. 1.1."

Wieso wird denn in FC nicht zw. SM3.0 versus SM 2.0 vergliechen? Vielleicht weil es gar keinen Unterschied gibt - zumindest in FC. Und ATi behauptet selbst nichts, sondern gibt nur das weiter, was Cry Tek selbst bestätigt hat. Natürlich hat das einiges mit Marketing zu tun.

"Schönere" Frames in FC gibt es zZ eh nur auf einer DX9 Radeon. :P

WEGA
2004-04-23, 13:53:39
Original geschrieben von robbitop
@Wega
naja ein Picture offiziell auf einer Herstellerpage (Sapphire) also vor NDA Ablauf, mit dem Namen 9800XT...hmmmm welche Karte wird das wohl sein?
Ne 9800XT :-P

uiuiui
hört sich nach einer Verlustbehafteten Kompression an. Die sollte ordendlich Bandbreite sparen, aber gut für die BQ ist das nicht.
NV hat im NV40 erstmals eine "echte" CC eingebaut, jedoch lossless.

Das ist mal sehr interessant von ATi. Mal schauen, wie sich das praktisch auf Performance und BQ auswirkt.

das war ne natword auf einen, der gesgt hat, dass das auf dem ominösen bild sei ein XT kühler. daraufhin hab ich ihn nen detailierten XT kühler gezeigt ;)

aber nm

MikBach
2004-04-23, 14:17:45
Original geschrieben von CrazyIvan
An die Aussage von ATi, dass man mit SM3.0 keine besseren Effekte machen könne als mit SM2.0 mag ich aber auch net so recht glauben...

Da steht auch nicht keine, sondern noticeably different.

Das bedeutet wahrscheinlich, dass Otto-Normalspieler es kaum bemerken wird. Die mit PS2.0 gebotene Qualität ist schon sehr beeindruckend und der Unterschied zu PS1.x deutlich sichtbar. Habe bei FarCry reihenweise Kinnladen am Boden gesehen, besonders von Menschen, die nicht so oft Spielen, aber auch Spieler, die ich kenne waren begeistert. Es wurden auch Kommentare abgegeben wie „ mehr brauche ich nicht um glücklich zu sein.“
Ich denke, dass man in Zukunft viel mehr auf die Story achten wird, da die mögliche Qualität mit PS2.0 ´reicht´, um eine dichte Atmosphäre zu Schaffen.

Wäre natürlich Unfug zu behaupten, dass man ´keine´ besseren Effekte mit PS3.0 programmieren kann. ATI würde für viele (Fortgeschrittene) unglaubwürdig werden.
Ich kann mir schon vorstellen, dass man an einigen Stellen in Spielen Akzente mit PS3.0 wird setzen können, nur glaube ich, dass man die Unterschiede zwischen PS2.0 und PS3.0 erst ´auf den zweiten Blick´ bzw. mit der Lupe wird sehen können.

betasilie
2004-04-23, 14:22:27
Original geschrieben von ow
Natuerlich nicht, aber was wuerdest du denn an ATis Stelle tun? Behaupten, dass die Konkurrenz fortschrittlicher ist und schoenere Frames rendern kann? ;)
Und was ist, wenn sie recht behalten? ;)

Ich für meinen Teil bin mir jedenfalls sicher, das PS3.0 in absehbarer Zeit quasi keine PS3.0-Eyecandys in Spielen bringen wird, außer natürlich in eingen Techdemos, die nicht Kaufargument für eine Karte sein sollte.

Du wirfst immer ATI Markting vor, wenn sie behaupten PS3.0 muss z.Zt. nicht sein.
Kann man das nicht auch NV vorwerfen, dass sie ihre SM3.0 promoten, obwohl sie zur Lebzeiten des NV40 keine sichtbaren Vorteile bringen werden?

Der FarCry Vergleich bei der NV40 Präsentation hat gezeigt, dass es keine sichtbaren Unterschiede geben wird zwischen PS2.0 und PS3.0. Der eigentliche Witz an der Sache ist doch, das z.Zt. FarCry mit allen NV Karten, inkl. der 6800Ultra, aus Geschwindigkeitsgründen größtenteils mit PS1.1 läuft, und somit FarCry auf ATI-Karten um Längen besser aussieht.

CrazyIvan
2004-04-23, 14:29:28
Kann mir keiner erzählen, dass man durch Branching keine sichtbar besseren Effekte erzielen könnte. Sehe das ein wenig analog zur normalen Anwendungsprogrammierung. Ohne Branching geht da net viel. IMHO könnte man damit dynamischere Shader programmieren, da man Umgebungsvariablen einbauen könnte.

Oder sehe ich da was grundlegend falsch?

BTW
Beziehe mich nicht auf FarCry, sondern auf SM3.0 an sich.

LovesuckZ
2004-04-23, 14:41:32
Original geschrieben von betareverse
Ich für meinen Teil bin mir jedenfalls sicher, das PS3.0 in absehbarer Zeit quasi keine PS3.0-Eyecandys in Spielen bringen wird, außer natürlich in eingen Techdemos, die nicht Kaufargument für eine Karte sein sollte.

Ist es auch schon bei dir angekommen, dass die PS3.0 im großen ein Speedupdate darstellen?

Du wirfst immer ATI Markting vor, wenn sie behaupten PS3.0 muss z.Zt. nicht sein.
Kann man das nicht auch NV vorwerfen, dass sie ihre SM3.0 promoten, obwohl sie zur Lebzeiten des NV40 keine sichtbaren Vorteile bringen werden?

Du weißt also mehr als wir. Erzaehle doch weiter.

Der eigentliche Witz an der Sache ist doch, das z.Zt. FarCry mit allen NV Karten, inkl. der 6800Ultra, aus Geschwindigkeitsgründen größtenteils mit PS1.1 läuft, und somit FarCry auf ATI-Karten um Längen besser aussieht.

"Der eigentliche Witz an der Sache ist doch[...]", dass du keinen Plan hast, wie der NV40 arbeitet. Nein, ich auch nicht, deswegen behaupte ich auch nichts.

DrumDub
2004-04-23, 14:45:30
Original geschrieben von betareverse
Und was ist, wenn sie recht behalten? ;)

Ich für meinen Teil bin mir jedenfalls sicher, das PS3.0 in absehbarer Zeit quasi keine PS3.0-Eyecandys in Spielen bringen wird, außer natürlich in eingen Techdemos, die nicht Kaufargument für eine Karte sein sollte.

Du wirfst immer ATI Markting vor, wenn sie behaupten PS3.0 muss z.Zt. nicht sein.
Kann man das nicht auch NV vorwerfen, dass sie ihre SM3.0 promoten, obwohl sie zur Lebzeiten des NV40 keine sichtbaren Vorteile bringen werden?

Der FarCry Vergleich bei der NV40 Präsentation hat gezeigt, dass es keine sichtbaren Unterschiede geben wird zwischen PS2.0 und PS3.0. Der eigentliche Witz an der Sache ist doch, das z.Zt. FarCry mit allen NV Karten, inkl. der 6800Ultra, aus Geschwindigkeitsgründen größtenteils mit PS1.1 läuft, und somit FarCry auf ATI-Karten um Längen besser aussieht.

kannste mal die schallplatte wechseln. die argumente haben wir jetzt schon tausendmal gehört, ohne dass dies etwas daran ändert, dass das sm3.0 die zukunft ist.
über die vorteile von sm3.0 zu lebzeiten des nv40 kann man nur spekulieren. also warte bitte ab, bis wir da praktische beispiele haben, die den sinn oder unsinn von sm3.0 zu lebzeiten des nv40 bestätigen. beim nv30 haben auch genug leute abgestritten, dass das sm2.0 zu lebzeiten des r3x0 praktische relevanz haben würde. wir sind eines besseren belehrt worden.

der letzte satz ist übrings nen ziemlich billiger flameversuch, da dies ein problem von far cry ist und nichts mit der 6800u zu tun hat.

Exxtreme
2004-04-23, 14:48:52
Nun ja ... ich für meinen Teil werde diese Generation von GraKas mit großer Wahrscheinlichkeit überspringen. Hoffentlich bringt der Herbst was *wirklich* Neues.

*pfeifundunauffälligguck*

:D

LovesuckZ
2004-04-23, 14:50:13
Original geschrieben von Exxtreme
Nun ja ... ich für meinen Teil werde diese Generation von GraKas mit großer Wahrscheinlichkeit überspringen. Hoffentlich bringt der Herbst was *wirklich* Neues.


XGI? *eg*

Exxtreme
2004-04-23, 14:51:22
Original geschrieben von LovesuckZ
XGI? *eg*
Xabre 1,75? Nein danke. :D

BodyLove
2004-04-23, 14:51:32
Matrox?

betasilie
2004-04-23, 14:53:42
Original geschrieben von DrumDub
kannste mal die schallplatte wechseln. die argumente haben wir jetzt schon tausendmal gehört, ohne dass dies etwas daran ändert, dass das sm3.0 die zukunft ist.
über die vorteile von sm3.0 zu lebzeiten des nv40 kann man nur spekulieren. also warte bitte ab, bis wir da praktische beispiele haben, die den sinn oder unsinn von sm3.0 zu lebzeiten des nv40 bestätigen. beim nv30 haben auch genug leute abgestritten, dass das sm2.0 zu lebzeiten des r3x0 praktische relevanz haben würde. wir sind eines besseren belehrt worden.

der letzte satz ist übrings nen ziemlich billiger flameversuch, da dies ein problem von far cry ist und nichts mit der 6800u zu tun hat.
Wie die Schallplatte wechseln? Ich reagiere bloß. Andere Leute fangen immer wieder mit dem Thema an. ;)

Original geschrieben von LovesuckZ
Ist es auch schon bei dir angekommen, dass die PS3.0 im großen ein Speedupdate darstellen?
Das muss in der Praxis erstmal bewiesen werden, wobei ich es gut finden würde, wenn da wirklich ordentlich Speed bei abfällt für den NV40.

Es behaupten aber einige hier, dass SM3.0 ganz schnell tolle Effekte bringen wird. Da halte ich gegen.

Original geschrieben von LovesuckZ
Original geschrieben von betareverse
Du wirfst immer ATI Markting vor, wenn sie behaupten PS3.0 muss z.Zt. nicht sein.
Kann man das nicht auch NV vorwerfen, dass sie ihre SM3.0 promoten, obwohl sie zur Lebzeiten des NV40 keine sichtbaren Vorteile bringen werden?
Du weißt also mehr als wir. Erzaehle doch weiter.
Ich weiß nicht mehr, aber ich behaupte es auch erst garnicht. Ein Fragezeichen am Ende, bedeutet, dass jemand eine Frage gestellt hat. :deal:

Demirug
2004-04-23, 14:54:59
Original geschrieben von Exxtreme
Nun ja ... ich für meinen Teil werde diese Generation von GraKas mit großer Wahrscheinlichkeit überspringen. Hoffentlich bringt der Herbst was *wirklich* Neues.

*pfeifundunauffälligguck*

:D

Denkst du wirklich das die IHV nach etwa einem halben Jahr ihere "neuen" Designs schon wieder in die Tonne hauen?

Exxtreme
2004-04-23, 14:57:03
Original geschrieben von Demirug
Denkst du wirklich das die IHV nach etwa einem halben Jahr ihere "neuen" Designs schon wieder in die Tonne hauen?
Keine Ahnung. Vielleicht haut ATi im Herbst/Winter den R500 raus? Und wenn nicht, dann nehme ich das fortschrittlichste Refreshprodukt.

LovesuckZ
2004-04-23, 14:58:13
Original geschrieben von betareverse
Ich weiß nicht mehr, aber ich behaupte es auch erst garnicht. Ein Fragezeichen am Ende, bedeutet, dass jemand eine Frage gestellt hat. :deal:

Natuerlich behauptest du innerhalb deiner Frage, dass Nvidia wüsste, dass das SM3.0 bzw. PS3.0 zur Lebzeiten des NV40 kein Vorteile bringen würde.
Deswegen kannst du auch ruhig weiter reden, wir wollen deine Insiderinfos auch hören...
Wenn nicht, warum trollst du dann hier rum und basht absichtlich gegen Nvidia?

LovesuckZ
2004-04-23, 14:59:00
Original geschrieben von Exxtreme
Keine Ahnung. Vielleicht haut ATi im Herbst/Winter den R500 raus? Und wenn nicht, dann nehme ich das fortschrittlichste Refreshprodukt.

Und prellt gleichzeitig alle "r420/r423" Käufer? Ich bezweifel das.

deekey777
2004-04-23, 15:00:35
Original geschrieben von Exxtreme
Nun ja ... ich für meinen Teil werde diese Generation von GraKas mit großer Wahrscheinlichkeit überspringen. Hoffentlich bringt der Herbst was *wirklich* Neues.

*pfeifundunauffälligguck*

:D

Du kannst Gedanken lesen...

Exxtreme
2004-04-23, 15:01:37
Original geschrieben von LovesuckZ
Und prellt gleichzeitig alle "r420/r423" Käufer? Ich bezweifel das.
Wieso prellen? Weil nach ~6 Monaten ein besseres Produkt rauskommt? Damit rechnet eigentlich jeder.

betasilie
2004-04-23, 15:04:17
Original geschrieben von LovesuckZ
Natuerlich behauptest du innerhalb deiner Frage, dass Nvidia wüsste, dass das SM3.0 bzw. PS3.0 zur Lebzeiten des NV40 kein Vorteile bringen würde.
Deswegen kannst du auch ruhig weiter reden, wir wollen deine Insiderinfos auch hören...
Wenn nicht, warum trollst du dann hier rum und basht absichtlich gegen Nvidia?
Ich stelle schlicht eine Frage. Sorry, aber wenn Du ein glasklare Frage nicht erkennst, dann tust Du mir leid.

Und ich bashe NV nicht, aber ich habe etwas dagegen, dass einige hier ständig wie eine Schallplatte behaupten, dass SM3.0 achso tolle Effekte bringen wird, was schlicht nicht eintreffen wird oder nur ganz vereinzelt bei Spielen, die von NV gesponsert werden.

betasilie
2004-04-23, 15:07:03
Original geschrieben von Exxtreme
Wieso prellen? Weil nach ~6 Monaten ein besseres Produkt rauskommt? Damit rechnet eigentlich jeder.
Full Ack. ...

Der Witz ist doch, dass einige Leute hier gegen den R420 flamen, weil er keine PS3.0 unterstützt, aber im selben Atemzug beschweren sie sich jetzt schon über die Möglichkeit, dass ATI einen SM3.0-Chip in Form eine R500 doch noch dieses Jahr bringen könnte.

LovesuckZ
2004-04-23, 15:08:56
Original geschrieben von betareverse
Und ich bashe NV nicht, aber ich habe etwas dagegen, dass einige hier ständig wie eine Schallplatte behaupten, dass SM3.0 achso tolle Effekte bringen wird, was schlicht nicht eintreffen wird oder nur ganz vereinzelt bei Spielen, die von NV gesponsert werden.

Wer denn zum Beispiel? Nvidia?
Oder erzählst du nur nach, was ATi jeden weißmachen möchte?

@Exxtreme:
Meinst du nicht, es ist ein Unterschied, ob ATi innerhalb von 6Monaten ein refreshchip oder eine "Next-Generation" rausbringe?

StefanV
2004-04-23, 15:18:12
Original geschrieben von BodyLove
Matrox?

Die habens nach der G400 nicht so recht gepackt wirklich weiter zu machen, denen gehts atm AFAIK leider nicht soo sehr gut, leider.

betasilie
2004-04-23, 15:19:08
Original geschrieben von LovesuckZ
Wer denn zum Beispiel? Nvidia?
Oder erzählst du nur nach, was ATi jeden weißmachen möchte?
Nein, einige User hier. ... Dass NV ihr Marketing pro SM3.0 ausrichtet ist verständlich. Das würde ATI nicht anders machen. Wenn dann allerdings einige Leute hier auf dieses Marketinggebrabbel reinfallen (wollen?) muss man doch mal klarstellen, dass das was uns NV weiß machen will, nicht unbedingt wahr sein muss.

Und ich habe meine Meinung bzgl. Ps3.0 schon vor Monaten so vertreten, wie ich es heute mache, lange bevor ATI überhaupt irgendetwas kommentiert hat.

Und dass ATI PS3.0 auch schlecht machen würde, selbst wenn es z.Zt. ein wirklich wichtiges Feature wäre, ist mir auch klar. Dass meine persönliche Meinung bezüglich SM3.0 mit dem Marketinggebrabbel von ATI diesbzgl. übereinstimmt, ist Zufall.

LovesuckZ
2004-04-23, 15:24:01
Original geschrieben von betareverse
Und dass ATI PS3.0 auch schlecht machen würde, selbst wenn es z.Zt. ein wirklich wichtiges Feature wäre, ist mir auch klar. Dass meine persönliche Meinung bezüglich SM3.0 mit dem Marketinggebrabbel von ATI diesbzgl. übereinstimmt, ist Zufall.

Warum hast du denn vor Monaten schon behauptet, dass PS3.0 keine Vorteile bringen?
Inweiweit stellst du dir denn vor, dass PS3.0 überhaupt eine Bedeutung habe?
Anscheinend bist du einer, der liebers beim normalen Featureset PS2.0 bleibt...
Abschließen: Nach deiner Meinung bräuchten wir außer AA und AF sowieso keinen technoglogischen Fortschritt mehr, denn er wäre nie wirklich wichtig...

betasilie
2004-04-23, 15:33:10
Original geschrieben von LovesuckZ
Warum hast du denn vor Monaten schon behauptet, dass PS3.0 keine Vorteile bringen?
Inweiweit stellst du dir denn vor, dass PS3.0 überhaupt eine Bedeutung habe?
Anscheinend bist du einer, der liebers beim normalen Featureset PS2.0 bleibt...
Abschließen: Nach deiner Meinung bräuchten wir außer AA und AF sowieso keinen technoglogischen Fortschritt mehr, denn er wäre nie wirklich wichtig...
PS3.0 kann natürlich schönere Shader-Effekte erzeugen, allerdings:

1. ... werden sich Entwickler auf den kleinsten gemeinsamen Nenner konzentrieren, also PS2.0. Daher wird PS3.0 vornehmelich zum beschleunigen benutzt werden.
Selbst wenn ATI jetzt schon PS3.0 mit ihrem Topmodell unterstützt hätte, wären imho PS3.0-Eyecandys für die nächsten 12 Monate in Spielen eine Ausnahme geblieben.

2. ... ist der NV40 zu langsam, um die Vorzüge von SM3.0 genüber SM2.0 im großen Umfang in Spielen nutzen zu können. NVs Vorteil liegt hier eher darin, dass sie durch den NV40 schon den Grundstein für eine wirklich schnellen PS3.0 Chip gelegt haben, was dann der NV50 werden könnte.

ATI muss erstmal zeigen, wie ihre neue Architektur in Sachen SM3.0 performt.

...........................

Im übrigen ist es ja so, dass ich es auch gerne gesehen hätte, wenn ATI nicht als Technolgiebremse fungieren würde. Aber taktisch machen sie es aus ihrer Sicht richtig: Lieber einen sau-schnellen SM2.0-Chip, als einen durchschnittlichem SM3.0-Chip.

Von daher werde ich mir sicherlich die 6800Ultra kaufen, wenn ATI nicht wirklich schneller ist oder erheblich günstiger.

Exxtreme
2004-04-23, 15:34:44
Original geschrieben von LovesuckZ
@Exxtreme:
Meinst du nicht, es ist ein Unterschied, ob ATi innerhalb von 6Monaten ein refreshchip oder eine "Next-Generation" rausbringe?
Tja, woran macht man "Next-Generation" fest? Am Antialiasing? Shader-Versionen? Speed?

LovesuckZ
2004-04-23, 15:38:51
Original geschrieben von Exxtreme
Tja, woran macht man "Next-Generation" fest? Am Antialiasing? Shader-Versionen? Speed?

Alles. Beim refresh bekommst du doch meisten ein bisschen mehr Speed und nen kühleren Chip, vorallen in den letzen fast 2 jahren. ATi tat fast garnichts, Nvidia musste nen bissl mehr machen. Aber grundlegend hat sich nichts geändert.
Wie sieht es aber aus, wenn innerhalb von 6 Monaten zwei "neue generationen" vogestellt werden, welche sich durch die doppelte Leistung, ein besseres Featureset, einen kleineren Fertigungsprozeß etc. unterscheiden? Einige könnten schon auf die Idee kommen, dass ATi sie veräppelt.

DrumDub
2004-04-23, 15:53:15
Original geschrieben von betareverse
Und ich bashe NV nicht, aber ich habe etwas dagegen, dass einige hier ständig wie eine Schallplatte behaupten, dass SM3.0 achso tolle Effekte bringen wird, was schlicht nicht eintreffen wird oder nur ganz vereinzelt bei Spielen, die von NV gesponsert werden.

nein. du bashst nv nicht. das werfe ich dir auch nicht vor. nur ist deine argumentation genauso spekulativ, wie die der leute, die sm3.0 in den himmel loben.

ohne praktische beispiele ist die ganze diskussion sinnlos.

ich persönlich sehe den praktischen vorteil von sm3.0 theoretisch darin (geile formulierung :D), dass bestehende sm2.0-projekte eventuell einen eigenen sm3.0-pfad bekommen, was sich ja einfach dank des hlsl-compilers realisieren lässt. damit sehen die effekte nicht schöner aus, aber sie laufen u.u. schneller als auf reiner sm2.0-hw.

was aber viel wichtiger ist, ist die tatsache, dass die spieleentwickler jetzt anfangen können spiele zu entwicklen, die eigene sm3.0-pfade benutzen, um bessere effekte realsieren zu können, als dies mit dem sm2.0 möglich ist. davon wird auch ati profitieren, wenn der r500 erscheint, da nv die entwicklung von spielen, die diese technik nutzen, erst möglich gemacht hat.

und das der nv40 momentan nur mit einem auf die nv3x-serie zugeschnittenen pfad mit far cry 1.1 läuft, hat nichts mit dem thema sm3.0 zu tun. deshalb hab ich das als flameversuch abgestempelt. aber lassen wir das... ;)

reunion
2004-04-23, 15:55:54
Original geschrieben von LovesuckZ
Einige könnten schon auf die Idee kommen, dass ATi sie veräppelt.

Ich galube das ist ATI relativ egal solange man dadurch die schnellste Karte liefert. :)

LovesuckZ
2004-04-23, 15:58:38
Original geschrieben von reunion
Ich galube das ist ATI relativ egal solange man dadurch die schnellste Karte liefert. :)

Ob schlechte Presse wirklich egal ist?
Das ganze wirkt sich auf das Käuferverhältnis aus und wie sagt man so schön: wer einmal lügt, dem glaubt man nicht.
Wenn also der r500 6 Monate später komme, wer garantiert diesen Kartenkäufern, dass in sechs weitere Monaten nicht der r600 erscheine?

reunion
2004-04-23, 15:59:24
Keine Ahnung ob das schon gepostet wurde...


ATI IS MAKING hay while the sun shines after an article at Driverheaven more or less accused Nvidia of cheating. We referenced the web site article earlier today in our hardware roundup.
It's also worth looking here for background on this matter.

We said that what we saw when we were in Geneva with Nvidia was a clear difference between the code that was running PS 3.0 path and a referred system that was running PS 2.0 code.

ATI says that CryTek's representative told it that what Nvidia showed us in Geneva was a 2.0/3.0 path versus 1.1 path.

The key message is that Shader model 3.0 and 2.0 look exactly the same, the ATI representative added.

In a developers' mail that we also received, it added that there is a possibility that the 3.0 path might be slightly faster in same cases on some hardware - an obvious reference to Nvidia.

ATI also claims that its hardware will run faster then Nvidia's anyway and he added: "It's pretty much impossible to make a sm3.0 game look noticeably different to a sm2.0 game, which is why Nvidia was comparing the 2.0/3.0 path with a 1.1 path."

A CryTek representative responded on this matter with this answer: "Was Nvidia showing SM3.0 vs. SM2.0 or SM1.1?" He replied to his own question by saying that Nvidia was showing 3.0/2.0 vs. 1.1.

So the ball is now in Nvidia's half of the court, and I am the Bosnian net over which the balls are flying. µ


http://www.theinquirer.net/?article=15502

reunion
2004-04-23, 16:07:23
Original geschrieben von LovesuckZ
Ob schlechte Presse wirklich egal ist?
Das ganze wirkt sich auf das Käuferverhältnis aus und wie sagt man so schön: wer einmal lügt, dem glaubt man nicht.


1.) Sehe ich darin keine Lüge, wenn ATI den R500 vorzieht, ich sehe höchstens jetzt eine Lüge wo man einen weiteren R300 Refresh als neue Generation verkauft ;)

2.) Wäre es sicher besser eine schnellere Karte vorzuziehn, als eine ganze Generation nicht Konkurrenzfähig zu sein...

Also falls ATI denn R500 wirklich schon ende des Jahres liefern könnte, was ich allerdings nicht glaube dann wird man das garantiert tun...

Wenn also der r500 6 Monate später komme, wer garantiert diesen Kartenkäufern, dass in sechs weitere Monaten nicht der r600 erscheine?

Die Frage versteh ich nicht, dass in 6 Monaten eine bessere Karte rauskommt ist doch ohnehin klar, ob das jetzt eine neue Generation ist :wayne:

(del676)
2004-04-23, 16:08:17
Original geschrieben von Stefan Payne
Die habens nach der G400 nicht so recht gepackt wirklich weiter zu machen, denen gehts atm AFAIK leider nicht soo sehr gut, leider.

bitte?

es soll mehr geben als 3D 0815 Grafikkarten für 0815 Home User :eyes:
(dafür gibts zwei "super" 0815 firmen :eyes: )

woher nimmst du das es Matrox schlecht gehen soll?

InsaneDruid
2004-04-23, 16:09:11
Original geschrieben von LovesuckZ
Ob schlechte Presse wirklich egal ist?
Das ganze wirkt sich auf das Käuferverhältnis aus und wie sagt man so schön: wer einmal lügt, dem glaubt man nicht.
Wenn also der r500 6 Monate später komme, wer garantiert diesen Kartenkäufern, dass in sechs weitere Monaten nicht der r600 erscheine?

Niemand garantiert das? Warum auch? Es wird IMMER relativ kurze Zeit nach dem Launch eines Produktes ein besseres kommen, das war immer so, das wird immer so sein. Was bitte schon hat das mit "lügen" und "veräppeln" zu tun? Diese "Argumente" sind jetzt aber extrem weit an den Haaren herbeigezogen. Vor allem weil im "anderen" (NV40) Thread geradezu herbeigesehnt wird das NV möglichst zeitnah auch eine schnelleren NV40 aus dem Hut zaubert.

tokugawa
2004-04-23, 16:09:51
Original geschrieben von LovesuckZ
Ob schlechte Presse wirklich egal ist?
Das ganze wirkt sich auf das Käuferverhältnis aus und wie sagt man so schön: wer einmal lügt, dem glaubt man nicht.
Wenn also der r500 6 Monate später komme, wer garantiert diesen Kartenkäufern, dass in sechs weitere Monaten nicht der r600 erscheine?

Ich denke sehr viele Kunden sind "vergeßlich", was einige Verfehlungen von Herstellern angeht...

Schließlich assoziiert man heutzutage Treiber-Cheating mit NVIDIA, und vermutlich haben die wenigsten noch die damaligen Quake3 Cheatereien von ATI im Kopf, bzw. ihnen schon verziehen. Oder NVIDIA hat die Cheatmeßlatte höher gelegt...

Naja egal, jedenfalls glaub ich dass es bei beiden Herstellern potentielle Kundenschichten gibt, die bezüglich Verfehlungen jeglicher Art... sagen wir einmal... "vergeßlich" sind. Im Worst Case ist das sogar der Normalfall...

Und vermutlich wird sowieso das schnelle Nachliefern einer schnellen Karte "eher" verziehen. Denn selbst wenn man nun auf "veralteter" Hardware sitzt, solange das Markenlogo auf dem eigenen Grafikkarten-Kühler durch den neuen Chip einen Image-Gewinn hat, werden - denk ich zumindest - viele selbst mit "alter" Hardware deselben Herstellers zufrieden sein, und den Image-Gewinn als gut betrachten.

Notfalls kann man immer noch schnell verhökern und dann upgraden...

tokugawa
2004-04-23, 16:12:23
Original geschrieben von InsaneDruid
Niemand garantiert das? Warum auch? Es wird IMMER relativ kurze Zeit nach dem Launch eines Produktes ein besseres kommen, das war immer so, das wird immer so sein. Was bitte schon hat das mit "lügen" und "veräppeln" zu tun? Diese "Argumente" sind jetzt aber extrem weit an den Haaren herbeigezogen. Vor allem weil im "anderen" (NV40) Thread geradezu herbeigesehnt wird das NV möglichst zeitnah auch eine schnelleren NV40 aus dem Hut zaubert.

Kann ich zustimmen. 6 Monate sind im Grafikkartenmarkt ja eine halbe Ewigkeit.

Und es ist ja nicht grad so, wenn ich sagen wir eine R420 besitze, und dann gleich die R500 rauskommt, dass meine R420 dann plötzlich schlecht in aktuellen Spielen dasteht.

Sicher, eventuell wird man neidisch auf R500 Besitzer schauen, aber prinzipiell wäre dann die R420 auch definitiv kein Fehlkauf, nur weil 6 Monate später was besseres rauskommt...

seahawk
2004-04-23, 16:29:04
Original geschrieben von Exxtreme
Nun ja ... ich für meinen Teil werde diese Generation von GraKas mit großer Wahrscheinlichkeit überspringen. Hoffentlich bringt der Herbst was *wirklich* Neues.

*pfeifundunauffälligguck*

:D

R500 im Herbst ?? Dieser wäre dann so eine Art R420+Shader 3.0. ?? Also wahrscheinlich mehr ein Konkurrent zum Refresh des NV40 als zum NV50 ??

Möglich.

DrumDub
2004-04-23, 16:31:47
Original geschrieben von seahawk
R500 im Herbst ?? Dieser wäre dann so eine Art R420+Shader 3.0. ?? Also wahrscheinlich mehr ein Konkurrent zum Refresh des NV40 als zum NV50 ??

Möglich.

das wiederspräche aber dne bisherigen aussagen zum r500, der angeblich ja eine "echte" neuentwicklung im verhältnis zum r300 ist.

p.s.: bitte das plenken unterlassen. ;)

betasilie
2004-04-23, 16:42:40
Original geschrieben von DrumDub
nein. du bashst nv nicht. das werfe ich dir auch nicht vor. nur ist deine argumentation genauso spekulativ, wie die der leute, die sm3.0 in den himmel loben.

Nunja, darüber lässt sich streiten. Ich fange jedenfalls nicht immer wieder mit dem Thema an, aber einige Leute wollen scheinbar immer wieder in diese Kerbe schlagen, um ATI schlecht zu machen.

Die Leute vom Fach, von deren Aussagen ich meine Meinung ableite, stellen afaik es jedenfalls so dar, dass die Vorteile von PS3.0 gegenüber PS2.0 toll sind, aber in den meisten Bereichen ist der NV40 nicht in der Lage diese technolgischen Vorteile in der Spielepraxis zu nutzen, da die Performance zu stark einbrechen würde. Daher wird der NV40 einfach schnell sein, dank seiner SM3.0, aber keine schöneren Bilder rendern.

Original geschrieben von DrumDub
ich persönlich sehe den praktischen vorteil von sm3.0 theoretisch darin (geile formulierung :D), dass bestehende sm2.0-projekte eventuell einen eigenen sm3.0-pfad bekommen, was sich ja einfach dank des hlsl-compilers realisieren lässt. damit sehen die effekte nicht schöner aus, aber sie laufen u.u. schneller als auf reiner sm2.0-hw.

Darauf können wir uns einigen und dank HLSL sollte auch wirklich jedes DX9-Game einen PS.30-Pfad haben, was den NV40 mal mehr, mal minder beschleuningen wird.

Original geschrieben von DrumDub
was aber viel wichtiger ist, ist die tatsache, dass die spieleentwickler jetzt anfangen können spiele zu entwicklen, die eigene sm3.0-pfade benutzen, um bessere effekte realsieren zu können, als dies mit dem sm2.0 möglich ist. davon wird auch ati profitieren, wenn der r500 erscheint, da nv die entwicklung von spielen, die diese technik nutzen, erst möglich gemacht hat.

Defnitv. Für Entwickler wird der NV40 erstmal Pflicht sein.

Original geschrieben von DrumDub
und das der nv40 momentan nur mit einem auf die nv3x-serie zugeschnittenen pfad mit far cry 1.1 läuft, hat nichts mit dem thema sm3.0 zu tun. deshalb hab ich das als flameversuch abgestempelt. aber lassen wir das... ;)
Nun, diese "Änderungen" wurden ja mit NV erabeitet. Daher kann man ruhig NV den Vorwurf machen, dass NV3x und NV40 Benutzer seit dem Patch gezwungen werden auf Eyecandys zu verzichten, was ich ziemlich unverschämt finde. Vorher konnte der User selbst entscheiden, ob er lieber mehr Optik oder mehr Frames hat.

Ich frage mich nun, wieso wurde der Nv40 nicht von diesen Optimierungen ausgeschlossen, denn der Patch1.1 supportet den NV40 ja ausdrücklich. :kratz:

InsaneDruid
2004-04-23, 16:46:31
Original geschrieben von DrumDub
das wiederspräche aber dne bisherigen aussagen zum r500, der angeblich ja eine "echte" neuentwicklung im verhältnis zum r300 ist.


Bei ATI werkeln aber 2 Designteams.

TheCounter
2004-04-23, 17:13:28
Original geschrieben von InsaneDruid
Bei ATI werkeln aber 2 Designteams.

Und wenn mich nicht alles täuscht werkelt das Team das den R300 entwickelt hat am R500, oder?

seahawk
2004-04-23, 17:15:00
Original geschrieben von seahawk
R500 im Herbst ?? Dieser wäre dann so eine Art R420+Shader 3.0. ?? Also wahrscheinlich mehr ein Konkurrent zum Refresh des NV40 als zum NV50 ??

Möglich.

Ach wieso, dann nennen sie denn echten R500 eben R600.

Der R500 über den bereits spekuliert wurde wird es imho defintiv nicht 2004 geben.

betasilie
2004-04-23, 17:15:59
Original geschrieben von TheCounter
Und wenn mich nicht alles täuscht werkelt das Team das den R300 entwickelt hat am R500, oder?
Die beiden Teams kann man nicht mehr so einfach trennen, aber das R500-Projekt hst klar die höhere Priorität und so werden auch die kreativen Resourcen verteilt sein.

CrazyIvan
2004-04-23, 17:21:43
Original geschrieben von reunion
Keine Ahnung ob das schon gepostet wurde...
-snip-
http://www.theinquirer.net/?article=15502

Guckst Du hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1749973#post1749973).

robbitop
2004-04-23, 17:26:50
vorziehen?
Wie will man mal eben einen IDLP hunderte von Millionen Monster vorziehen? Zumal der 90nm Prozess der dazu benötigt wird (TSMCs' NexSys) früher nicht wirklich für MonsterVPUs einsetzbar ist. Und ausserdem hat man dank der consolendeals schon auch so genug R&D Ressourcenknappheit.

CrazyIvan
2004-04-23, 17:33:35
Original geschrieben von robbitop
vorziehen?
Wie will man mal eben einen IDLP hunderte von Millionen Monster vorziehen? Zumal der 90nm Prozess der dazu benötigt wird (TSMCs' NexSys) früher nicht wirklich für MonsterVPUs einsetzbar ist. Und ausserdem hat man dank der consolendeals schon auch so genug R&D Ressourcenknappheit.

Tja, Du redest vom R500 AKA R400. Vielleicht benennen sie ihn ja noch in R600 um und bringen nen R420 + Sm3.0 als R500 raus. Wär vielleicht gar net so utopisch, sollte nV aus SM3.0 + Marketing übermäßig profitieren.

Zum Thema R&D:
Wenn ATi bei den Konsolendeals clever war, dann verkaufen sie allen den gleichen Chip - und zwar nen (vielleicht) modifizierten R500. Ich erinnere hierbei an nV und die X-Box...

Quasar
2004-04-23, 18:50:03
Original geschrieben von betareverse
Der eigentliche Witz an der Sache ist doch, das z.Zt. FarCry mit allen NV Karten, inkl. der 6800Ultra, aus Geschwindigkeitsgründen größtenteils mit PS1.1 läuft, und somit FarCry auf ATI-Karten um Längen besser aussieht.

Ist das so? Meinst du wirklich, die bandbreitenlimitierte 6800 kann viele viele kleine PS1.1 schneller rechnen, hin und her konvertieren und andauernd auf den Framebuffer zugreifen, als gemütlich ihre Recheneinheiten auszulasten, viele Instruktionen am Stück rechnen und nur dann und wann etwas von und zum Speicher schicken?

;Q

Gast
2004-04-23, 19:24:40
Gibt es jetzt schon Anwendungsbeispiele fuer SM3.0 die aussagekraeftig sind oder nur Techdemos? Solange es nur FarCry alleine als einzig 'vorzeigbare' Anwendung gibt wuerde ich das sowieso nicht gross bewerten und erstmal abwarten. Ich erwarte einfach mindestens noch einen Patch fuer FarCry der dann auch R420 beruecksichtigt. Ob auf der NV-Seite was geaendert wird muss man abwarten.

Was ich verwunderlich finde ist das anscheinend hier schon viele was ueber den Speed des R420 wissen (zu glauben hoechstens). Muessen tolle Insiderinfo sein die alle haben...

Godmode
2004-04-23, 19:35:56
Original geschrieben von Quasar
Ist das so? Meinst du wirklich, die bandbreitenlimitierte 6800 kann viele viele kleine PS1.1 schneller rechnen, hin und her konvertieren und andauernd auf den Framebuffer zugreifen, als gemütlich ihre Recheneinheiten auszulasten, viele Instruktionen am Stück rechnen und nur dann und wann etwas von und zum Speicher schicken?

;Q

Also kann man schon sagen, dass FC wenn es endlich einen richtigen Pfad für den NV40 gibt und die Treiber passen, sehr viel schneller wird?

[dzp]Viper
2004-04-23, 19:38:36
Original geschrieben von bans3i
Also kann man schon sagen, dass FC wenn es endlich einen richtigen Pfad für den NV40 gibt und die Treiber passen, sehr viel schneller wird?

kann man eben noch nicht sagen, da es bei FC eben nicht nur auf GPU speed ankommt ;)

Ausserdem wissen wir ja auch noch nicht, wie gut/schnell der NV40 unter PS3.0 ist...
Scheinbar gibt es da ja ein paar kleiner Probleme :ratlos:

TheCounter
2004-04-23, 19:53:07
Original geschrieben von [dzp]Viper
Ausserdem wissen wir ja auch noch nicht, wie gut/schnell der NV40 unter PS3.0 ist...

Also was ich gehört habe soll der NV40 bei FP32 um ca. 25-30% einbrechen, in Farcry. Hab aber keine Ahnung ob das stimmt. Würde mir aber logisch erscheinen.

Demirug
2004-04-23, 20:10:29
Original geschrieben von TheCounter
Also was ich gehört habe soll der NV40 bei FP32 um ca. 25-30% einbrechen, in Farcry. Hab aber keine Ahnung ob das stimmt. Würde mir aber logisch erscheinen.

Dazu müsste man erst mal wissen was bei der 6800U bei der Verwendung von PS 1.1 limitiert.

Quasar
2004-04-23, 20:14:24
Original geschrieben von bans3i
Also kann man schon sagen, dass FC wenn es endlich einen richtigen Pfad für den NV40 gibt und die Treiber passen, sehr viel schneller wird?

Keine Ahnung, ob es sehr viel schneller wird. Was ich allerdings mehr als nur vermute, ist, daß Far Cry mit FP32-Shadern auf der 6800 nicht einbrechen wird, wie auf der FX-Serie.

Wenn CryTek es schafft, das Partikelsystem evtl. auszulagern auf die Graka, könnte das schon einen Unterschied machen, besonders für Leute, die nicht mit einem 4GHz-AthlonFX gesegnet sind.

Sphinx
2004-04-23, 20:19:19
3DC Textur Kompression : Quelle Digit-Life: Quelle (http://www.digit-life.com/articles2/kri/kri2004.html?31461)

"An hour before Richard Haddy's speech, Guennadi Riguer spoke about Compression of maps of normals and introduced a new texture format for using compression of maps of normals. By the way, this seminar was in a certain way connected to the seminar of the effective usage of pixel shaders held by Ashu Rage from NVIDIA the day before. It shows what a great attention IHV pay to usage of maps of normals in modern games.

Maps of normals produce beautiful images but they almost double the texture volume. Maps of normals which do not cause artifacts must be stored in textures of 8 bits per channels at least (RGB8), or better of 16 bits (G16R16), like in all ATI's demos. In order to make the texture volume smaller the company carried out some experiments with DXTn formats (lossy compression called S3TC in OpenGL) and found out that the DXT5 was the most optimal: in this format each of two coordinates (x, y) is stored in its channel: color and alpha. In this format the memory size required is 4 times lower (32 bits against 8 bits)! As the further extension, ATI will support a new format in its new chips. It's based on the DXTC and previously named ATI2N. It differs from DXT5 in compression of only a color component (out of three) using the method identical for the alpha channel compression. The new format will tremendously increase the precision of compressed texture storage compared to the DXT5, with the size being the same.

That was ATI's seminar where the speaker dropped some hints at the future interesting technologies and extension of the current ones without naming definite terms or solutions. When it slipped out that video cards with 512 MB memory onboard will come this year Richard said that there was nothing more to be afraid of as he will get fired anyway :-) "

betasilie
2004-04-23, 20:22:51
Original geschrieben von Quasar
Ist das so? Meinst du wirklich, die bandbreitenlimitierte 6800 kann viele viele kleine PS1.1 schneller rechnen, hin und her konvertieren und andauernd auf den Framebuffer zugreifen, als gemütlich ihre Recheneinheiten auszulasten, viele Instruktionen am Stück rechnen und nur dann und wann etwas von und zum Speicher schicken?

;Q
Nein. Das war wohl eher für die NV3x Serie gedacht, aber wieso haben sie den NV40 nicht ausgeommen von diesen Cheats? Das schadet doch nur dem Ruf der 6800er-Reihe, weil idese wohl keine Probleme mit PS2.0 haben sollte.

Demirug
2004-04-23, 20:29:52
Original geschrieben von betareverse
Nein. Das war wohl eher für die NV3x Serie gedacht, aber wieso haben sie den NV40 nicht ausgeommen von diesen Cheats? Das schadet doch nur dem Ruf der 6800er-Reihe, weil idese wohl keine Probleme mit PS2.0 haben sollte.

Ich vermute mal das der Patch nur gegen die 9.0c Runtime getestet wurde. Das Spiel erkennt den NV40 und will die 3.0 Shader nutzen. Das geht aber nur mit 9.0c eine 9.0b wird sich weigern. Ergo muss die Engine für die Shader die nicht gehen die Fallbacks benutzen. Da man die Einträge wahrscheinlich einfach kopiert hat sind für die 3.0 Shader als Fallback immer noch die 1.1 Shader eingetragen und nicht die entsprechenden 2.0 Versionen.

betasilie
2004-04-23, 20:50:46
Original geschrieben von Demirug
Ich vermute mal das der Patch nur gegen die 9.0c Runtime getestet wurde. Das Spiel erkennt den NV40 und will die 3.0 Shader nutzen. Das geht aber nur mit 9.0c eine 9.0b wird sich weigern. Ergo muss die Engine für die Shader die nicht gehen die Fallbacks benutzen. Da man die Einträge wahrscheinlich einfach kopiert hat sind für die 3.0 Shader als Fallback immer noch die 1.1 Shader eingetragen und nicht die entsprechenden 2.0 Versionen.
Das ist die erste plausible Erklärung, die ich höre. :)

AlfredENeumann
2004-04-23, 21:03:20
Original geschrieben von LovesuckZ
Und prellt gleichzeitig alle "r420/r423" Käufer? Ich bezweifel das.

wurden nv30 käufer nicht auch geprellt?

CrazyIvan
2004-04-23, 22:15:39
NV30 Kaüfer waren einfach selbst schuld, wenn sie sich unbedingt nen Fön holen mussten ;D

LovesuckZ
2004-04-23, 22:23:02
Original geschrieben von AlfredENeumann
wurden nv30 käufer nicht auch geprellt?

Mir ist nicht bewusst, dass der NV35 eine "neue Generation" wäre (nicht zu vergessen, dass es im März schon Geruechte über den NV35 gab und die NV30 karten erst Anfang April kaufbar waren, Deutschland sogar erst Anfang Mai)...
Naja, für ATi - Verhältnisse des letzten jahres könnte er ja als solcher durchgehen.
;D

robbitop
2004-04-24, 01:43:31
@Crazy
klingt nicht sehr wahrscheinlich ;)

selbst bei der XBOX hat es NV erheblich Ressourcen gekostet. Und die Chips sollten sich schon unterscheiden zw Nintendo und MS. Etwas anderes wird keiner der beiden durchgehenlassen, aber sicher wird man bis zu einem gewissen Grad R500 Derivate bauen. Es kostet genug R&D

Ailuros
2004-04-24, 04:07:36
Original geschrieben von Exxtreme
Keine Ahnung. Vielleicht haut ATi im Herbst/Winter den R500 raus? Und wenn nicht, dann nehme ich das fortschrittlichste Refreshprodukt.

R500? Im Herbst? :lolaway:

WeyounTM
2004-04-24, 09:20:32
Original geschrieben von InsaneDruid
Niemand garantiert das? Warum auch? Es wird IMMER relativ kurze Zeit nach dem Launch eines Produktes ein besseres kommen, das war immer so, das wird immer so sein.

Dem kann ich mich irgendwo nur anschliessen. Beispiel? Habe mir im Januar eine Dimage A1 gekauft. 800 Euronen. Geniales Teil, aber der Nachfolger A2 ist (natürlich) um einiges geiler.
So ist das nun einmal im Technikbereich: kaum gekauft, schon irgendwie veraltet. Da muss man als Konsument mit leben und der Versuchung widerstehen, den Update-Wahn jedesmal mitzumachen.

ShadowXX
2004-04-24, 09:41:09
Original geschrieben von LovesuckZ
Mir ist nicht bewusst, dass der NV35 eine "neue Generation" wäre (nicht zu vergessen, dass es im März schon Geruechte über den NV35 gab und die NV30 karten erst Anfang April kaufbar waren, Deutschland sogar erst Anfang Mai)...
Naja, für ATi - Verhältnisse des letzten jahres könnte er ja als solcher durchgehen.
;D

Ist es nicht relativ uninteressant obs nun nach 6 Monaten einen Refresh oder gleich eine "neue" Karte gibt???

Davon mal abgesehen, das der r500 bestimmt noch nicht im Herbst erscheint...zumindest nicht diesen Jahres...

robbitop
2004-04-24, 09:56:04
offiziell 18 Monate bis zur nächsten Generation.
Früher glaub ich kaum, dass TSMC NexSys (90nm Verfahren) reif für die Massenproduktion von 300-400Mio VPUs hat.
Und R&D technisch sowieso nicht ;)

WEGA
2004-04-24, 10:48:52
der refreshchip is doch der r480

Ailuros
2004-04-24, 12:16:07
ATI hat schon des oefteren angegeben dass man je Generation Leistung zumindest verdoppeln will. Wenn ich jetzt R1xx, R2xx und R3xx vergleiche, dann stimmt das auch.

Ich hab auch keine Zweifel dass R4xx dieses Ziel nicht erreichen koennte, ergo kommt es zu zwei wichtigen Punkten:

a) Normalerweise braucht man eine gewisse Zeit die Ausbeute der kompletten R4xx Produkt-linie zu maximalisieren.

b) 2*R4xx ist momentan mit den zeitig verfuegbaren Herstellungsprozessen, Transistoren-Anzahl pro Prozess, Speicher-Verfuegbarkeit ergo Bandbreite nicht moeglich, ausser man macht sich keine Sorgen was das Resultat kosten soll.

Eine Erwartung fuer R5xx im H1 2005 ist zwar durchaus logisch, aber es haengt wohl wieder mal von aehnlichen Faktoren ab wie bei der NV4x/R4xx Generation. Herstellungsprozess und Speicherverfuegbarkeit.

Ich bin mir so sicher wie ich mir sein kann dass R5xx fuer 90nm geplant ist und da haengt es davon ab wie gut sich der Prozess zeigt. Kann natuerlich auch total falsch liegen, aber dann waere R5xx tatsaechlich nur ein kleiner Schritt im Vergleich zu R4xx.

Sphinx
2004-04-24, 12:41:49
Spekulationen zufolge soll die Ausbeute der x800XT besser als erwartet sein...

(del676)
2004-04-24, 12:43:03
spekulationen zufolge soll die Ausbeute des neuen Matrox Chips auch gigantisch sein :eyes:

Ailuros
2004-04-24, 12:44:58
Spekulationen zufolge hatte Volari 8 Duo die beste Ausbeute. ;D

robbitop
2004-04-24, 12:51:00
was ist mit 110nm?
wäre das nicht der nächste logische Schritt?
bisher haben die IHVs im Gegensatz zu AMD und Intel immer kleine Schritte gemacht und waren mit ihren Fertigungsprozessen vergleichsweise etwas rückständig im Vergl zu den CPUs. Dies ist allerdings aufgrund der anderen Beschaffenheit von VPUs verständlich.

CrazyIvan
2004-04-24, 12:56:48
@ robbi

Na 110nm wirds bestimmt wieder für die Refreshs geben. Bis Herbst wird ja dann auch (hoffentlich) GDDR3 bis 800 Mhz verfügbar sein, da würde auch ne Coretakterhöhung wieder Sinn machen.

Thowe
2004-04-24, 13:07:04
Original geschrieben von Ulukay
spekulationen zufolge soll die Ausbeute des neuen Matrox Chips auch gigantisch sein :eyes:

Leider nicht, das hält sich z.Z. in Grenzen.

(del676)
2004-04-24, 13:11:55
Original geschrieben von Thowe
Leider nicht, das hält sich z.Z. in Grenzen.

ach ...
deswegn ist die neue revision höher getaktet :D

robbitop
2004-04-24, 14:04:06
och bis 110nm reif für ~200Mio Transistoren VPUs ist, wird das afair noch etwas dauern. Ersteinmal sollen die "kleinen" Chips in 110nm gefertigt werden.
Aber ich kann mir vorstellen, dass ein zukünftiger Refresh 110nm für höhere Chiptakte benötigen wird, wenn dieser die Verlustleistungsgrenze von 150W nicht sprengen will.

DrumDub
2004-04-24, 17:31:52
Original geschrieben von seahawk
Der R500 über den bereits spekuliert wurde wird es imho defintiv nicht 2004 geben.

genau das meinte ich.

[x]snaKe
2004-04-24, 19:24:44
Nur 1 Molex anschluss:

http://www.gzeasy.com/newsphoto/y2k4/04/24/ati1.jpg

Gast
2004-04-24, 19:31:11
Original geschrieben von [x]snaKe
Nur 1 Molex anschluss:

http://www.gzeasy.com/newsphoto/y2k4/04/24/ati1.jpg

Ist das die Pro oder die XT?

robbitop
2004-04-24, 19:40:05
ich denk ma das wird die pro sein, wenn überhaupt.
Die XT wird ja später gelauncht/ausgeliefert.
Und die 16 Pipe Version sollte bei hohen Taktraten sicher auch 2 Anschlüsse haben. die 6800NU hat ja auch nur einen.

WEGA
2004-04-24, 20:01:59
Original geschrieben von [x]snaKe
Nur 1 Molex anschluss:

http://www.gzeasy.com/newsphoto/y2k4/04/24/ati1.jpg

sieht wie ne r9800xt aus

Black-Scorpion
2004-04-24, 20:22:38
Original geschrieben von WEGA
sieht wie ne r9800xt aus
Nicht ganz.
9800XT
http://www.ati.com/designpartners/media/images/R9800xt_board.jpg

deekey777
2004-04-24, 20:25:12
Original geschrieben von Anonym_001
Nicht ganz.
9800XT
http://www.ati.com/designpartners/media/images/R9800xt_board.jpg

Das gibt's doch gar nicht - ich wollte gerade das gleiche offizielle Bild posten. Das Logo auf dem Kühler ist anders, was gerade bei ATi etwas zu bedeuten hat.

InsaneDruid
2004-04-24, 20:31:23
Der Aufkleber ist aber das Einzigste was da anders ist, sonst stimmt jedes Bauteil überein. Damit dürfte das absolut keine R420 sein.

Black-Scorpion
2004-04-24, 20:41:08
Warum nicht?
Es könnte doch auch sein das ATI für die X800pro das Layout/PCB der 9800XT verwendet.

Quasar
2004-04-24, 20:41:18
Original geschrieben von deekey777
Das gibt's doch gar nicht - ich wollte gerade das gleiche offizielle Bild posten. Das Logo auf dem Kühler ist anders, was gerade bei ATi etwas zu bedeuten hat.

Meinst du, die neuen "neuen Chips" bei ATi unterscheiden sich jetzt nur noch vom Logo auf dem Kühler her von ihren Ahnen??

Nee, das kann ich mir selbst bei ATis Upgrade-Politik (8500 -> 9100, 9000 -> 9200, R9500 -> R9600, R9800p -> R980XT) kaum vorstellen.
Sowas passt doch eher zu den hundsgemeinen Typen von nVidia!

X-D

DrumDub
2004-04-24, 20:49:54
Original geschrieben von Quasar
Meinst du, die neuen "neuen Chips" bei ATi unterscheiden sich jetzt nur noch vom Logo auf dem Kühler her von ihren Ahnen??

Nee, das kann ich mir selbst bei ATis Upgrade-Politik (8500 -> 9100, 9000 -> 9200, R9500 -> R9600, R9800p -> R980XT) kaum vorstellen.
Sowas passt doch eher zu den hundsgemeinen Typen von nVidia!

X-D

tsts... paranoia?

WEGA
2004-04-24, 20:50:05
Original geschrieben von InsaneDruid
Der Aufkleber ist aber das Einzigste was da anders ist, sonst stimmt jedes Bauteil überein. Damit dürfte das absolut keine R420 sein.

sag ich doch

Gast
2004-04-24, 20:54:00
Original geschrieben von WEGA
sag ich doch

Sag mal Wega kommst außer zum pennen überhaupt mal vom PC weg ?

WEGA
2004-04-24, 21:01:47
Original geschrieben von Gast
Sag mal Wega kommst außer zum pennen überhaupt mal vom PC weg ?

klar, aber heut nimmer

-error-
2004-04-24, 21:25:44
Ich habe gehört, dass der Releasetermin von dem 26.4. auf den 5.5. verschoben wird, stimmt das?

deekey777
2004-04-24, 21:33:21
Original geschrieben von Quasar
Meinst du, die neuen "neuen Chips" bei ATi unterscheiden sich jetzt nur noch vom Logo auf dem Kühler her von ihren Ahnen??

Nee, das kann ich mir selbst bei ATis Upgrade-Politik (8500 -> 9100, 9000 -> 9200, R9500 -> R9600, R9800p -> R980XT) kaum vorstellen.
Sowas passt doch eher zu den hundsgemeinen Typen von nVidia!

X-D

Ha-Ha... Witzig, witzig, sehr amüsant ;D .
Im Ernst: Das neue Tierchen wird schon eine (neue) Bedeutung haben, wie es bei ATi mit seltsamen Kreaturen der Fall war. Und ich behaupte nicht, dass es unbedingt eine R420 sein soll - vielleicht nur die R500...
Ich habe gehört, dass der Releasetermin von dem 26.4. auf den 5.5. verschoben wird, stimmt das?

Da ist auch ein Thread dazu etwas weiter unten, es liegt an einer Messe, die dazu sehr passend erscheint.

reunion
2004-04-24, 22:13:49
Original geschrieben von Quasar
Meinst du, die neuen "neuen Chips" bei ATi unterscheiden sich jetzt nur noch vom Logo auf dem Kühler her von ihren Ahnen??


Woher soll denn sonst das neue Logo herkommen?
Eine 9800XT ist das sicherlich nicht, vermutlich ne X800SE oder PRO, eine XT glaub ich nicht, denn das würde dann auch bedeuten das die Leistungsaufnahme im Vergleich zur 9800XT praktisch nicht gestiegen ist, sonst könnte man ja nicht das gleiche Plantinenlayout verwenden...

TheCounter
2004-04-24, 22:17:30
Original geschrieben von Desire
Ich habe gehört, dass der Releasetermin von dem 26.4. auf den 5.5. verschoben wird, stimmt das?

Der Termin wird nicht verschoben da bisher kein offizieller Termin bekannt war. Der Termin für die Vorstellung der Radeon X800 ist am 4. Mai 2004 (Der Termin ist jetzt offiziell) :)

BodyLove
2004-04-24, 22:37:24
Original geschrieben von TheCounter
Der Termin wird nicht verschoben da bisher kein offizieller Termin bekannt war. Der Termin für die Vorstellung der Radeon X800 ist am 4. Mai 2004 (Der Termin ist jetzt offiziell) :)

Echt? Offiziell?

LovesuckZ
2004-04-24, 22:37:25
Original geschrieben von TheCounter
Der Termin wird nicht verschoben da bisher kein offizieller Termin bekannt war. Der Termin für die Vorstellung der Radeon X800 ist am 4. Mai 2004 (Der Termin ist jetzt offiziell) :)

Offiziell ist nur das, was von ATi kommt. Und bis jetzt habe ich in der Richtung nichts gehört.
Dadurch, dass sich ATi nicht geäußert hat, hätte auch der 26. der offzielle Termin sein koennen und damit wäre die Vorstellung verschoben worden.

aths
2004-04-24, 23:14:21
Original geschrieben von LovesuckZ
Offiziell ist nur das, was von ATi kommt. Und bis jetzt habe ich in der Richtung nichts gehört.
Dadurch, dass sich ATi nicht geäußert hat, hätte auch der 26. der offzielle Termin sein koennen und damit wäre die Vorstellung verschoben worden. Komische Logik, finde ich.

Eben da von ATI nichts offizielles kam (was man ohne NDA zu hören kriegt) ist es müßig darüber zu spekulieren, ob was verschoben wurde oder nicht.

CrazyIvan
2004-04-25, 12:33:54
Falls jemand von hier grad auf Jobsuche ist, wie wärs denn damit (http://sh.webhire.com/servlet/av/jd?ai=405&ji=1365863&sn=I) ;D ;D

Gast
2004-04-25, 12:41:09
Original geschrieben von bans3i
Also kann man schon sagen, dass FC wenn es endlich einen richtigen Pfad für den NV40 gibt und die Treiber passen, sehr viel schneller wird?

Nein, wenn NVIDIA mit dem FX bereits auf PS1.1 zurückgreift wird sich beim NV40 auch nichts ändern.

LovesuckZ
2004-04-25, 12:43:58
Original geschrieben von Gast
Nein, wenn NVIDIA mit dem FX bereits auf PS1.1 zurückgreift wird sich beim NV40 auch nichts ändern.

:???:

deekey777
2004-04-25, 12:48:42
Original geschrieben von Gast
Nein, wenn NVIDIA mit dem FX bereits auf PS1.1 zurückgreift, wird sich beim NV40 auch nichts ändern.

Doppel ?(

Aus der "Logik" dieses Postings kann ableiten, dass der NV40 ein Schritt nach vorn und 2 zurück ist.
FC wird auf einer NV40 Grafikkarte erst dann "schneller" bzw. hübscher, wenn DX9c draussen ist. Bis es so weit ist, ist das Thema gegessen.

aths
2004-04-25, 13:07:15
Original geschrieben von Ailuros
Ich hab auch keine Zweifel dass R4xx dieses Ziel nicht erreichen koennte, ergo kommt es zu zwei wichtigen Punkten:

a) Normalerweise braucht man eine gewisse Zeit die Ausbeute der kompletten R4xx Produkt-linie zu maximalisieren. Zu maximieren :)

Auch ich habe keinen Zweifel, dass R420 taktnormalisiert bis zu doppelt so schnell wie R360 ist.

robbitop
2004-04-25, 13:12:36
sofern er kein Gefangener der Bandbreite ist =)

GRiNSER
2004-04-25, 13:23:48
Original geschrieben von CrazyIvan
Falls jemand von hier grad auf Jobsuche ist, wie wärs denn damit (http://sh.webhire.com/servlet/av/jd?ai=405&ji=1365863&sn=I) ;D ;D
hui da wird schon vom R600 geplaudert :)

Quasar
2004-04-25, 14:52:33
Original geschrieben von aths
Auch ich habe keinen Zweifel, dass R420 taktnormalisiert bis zu doppelt so schnell wie R360 ist.

"Bis zu" auf jeden Fall. Interessant wird aber doch, wieviel schneller er im Mittel ist. =)

aths
2004-04-25, 15:28:45
Original geschrieben von Quasar
"Bis zu" auf jeden Fall. Interessant wird aber doch, wieviel schneller er im Mittel ist. =) Das hängt ab von der verwendeten CPU, dem getesteten Spiel, der eingestellten Auflösung / den BQ-Maßnahmen, ...

Quasar
2004-04-25, 16:01:05
Original geschrieben von aths
Das hängt ab von der verwendeten CPU, dem getesteten Spiel, der eingestellten Auflösung / den BQ-Maßnahmen, ...

Ist das tatsächlich so? Nuja, dann wird uns wohl nichts anderes übrigbleiben, als möglichst viele Schw...-Vergleichsreviews zu lesen, in der Hoffnung, daß möglichst viele unterschiedliche Systeme und unterschiedliche Benchmarks gemacht werden, was?

TheCounter
2004-04-25, 16:01:07
Original geschrieben von LovesuckZ
Offiziell ist nur das, was von ATi kommt. Und bis jetzt habe ich in der Richtung nichts gehört.
Dadurch, dass sich ATi nicht geäußert hat, hätte auch der 26. der offzielle Termin sein koennen und damit wäre die Vorstellung verschoben worden.

Öhm, auf der einen Seite war doch aber gestanden das ATI auf so ner Veranstaltung gesagt hat das die X800 Pro am 4. Mai 2004 vorgestellt wird?

Gast
2004-04-25, 16:56:07
Original geschrieben von aths
Zu maximieren :)

Auch ich habe keinen Zweifel, dass R420 taktnormalisiert bis zu doppelt so schnell wie R360 ist.

Also bei der X800XT rechne ich sogar mit dem 4fachen bei der Shaderleistung.

Doppelte Anzahl an Pipelines ( 8 -> 16 )

doppelte Anzahl an Shadern pro Pipeline (ähnlich wie beim NV40) entsprechend den Gerüchten über die "Extreme Pipelines" aus zuverlässiger Quelle;
ergibt eine 4fach höhere Shaderleistung wie beim R360 pro Takt (dazu der höhere Takt ergibt eine ca. 5fach höhere Shaderleistung)

Lustiger Troll
2004-04-25, 17:03:28
Original geschrieben von Gast
Also bei der X800XT rechne ich sogar mit dem 4fachen bei der Shaderleistung.

Doppelte Anzahl an Pipelines ( 8 -> 16 )

doppelte Anzahl an Shadern pro Pipeline (ähnlich wie beim NV40) entsprechend den Gerüchten über die "Extreme Pipelines" aus zuverlässiger Quelle;
ergibt eine 4fach höhere Shaderleistung wie beim R360 pro Takt (dazu der höhere Takt ergibt eine ca. 5fach höhere Shaderleistung)


Dazu konnt dann noch ein Bandbreitenproblem wegen den Ram und das ganze wird nicht mehr als 2x so schnell, oder erwartet ihr Wunder vom R420, vielleicht könnte ATI und NV so etwas produzieren, aber für was, sie würden sich selber ins Bein schiessen, da kommt halt ein Refreshchip der noch ein bischen schneller ist. Ich denke mal das ATI und NV dieses Jahr Kopf an Kopf liegen werden.

LovesuckZ
2004-04-25, 17:15:48
Original geschrieben von Gast
doppelte Anzahl an Shadern pro Pipeline (ähnlich wie beim NV40) entsprechend den Gerüchten über die "Extreme Pipelines" aus zuverlässiger Quelle;

Die "Extreme Pipelines" galten für eine 8x1 Tri Architektur mit je 2 FP Einheiten pro pipeline.
Da man jetzt schon in der Lage ist pro Pipeline bis zu 3 a-ops auszuführen, bezweifel ich, dass man daraus 6 machen wird. Dazu kommt noch, der r300 schon in der Lage ist t-ops und a-ops gleichzeitigt auszuführen, Nvidia realisiert dies seit dem NV35 mit einer weiteren FP Einheit.

Demirug
2004-04-25, 17:32:32
Original geschrieben von LovesuckZ
Die "Extreme Pipelines" galten für eine 8x1 Tri Architektur mit je 2 FP Einheiten pro pipeline.
Da man jetzt schon in der Lage ist pro Pipeline bis zu 3 a-ops auszuführen, bezweifel ich, dass man daraus 6 machen wird. Dazu kommt noch, der r300 schon in der Lage ist t-ops und a-ops gleichzeitigt auszuführen, Nvidia realisiert dies seit dem NV35 mit einer weiteren FP Einheit.

Es sind 2 A-Ops + eine T-Ops also zusammen 3 Ops beim R360. Auch wenn ATI das gerne etwas anders sieht.

seahawk
2004-04-25, 17:34:17
Original geschrieben von aths
Zu maximieren :)

Auch ich habe keinen Zweifel, dass R420 taktnormalisiert bis zu doppelt so schnell wie R360 ist.

bis zu

aths
2004-04-25, 17:40:10
Original geschrieben von Gast
Also bei der X800XT rechne ich sogar mit dem 4fachen bei der Shaderleistung.

Doppelte Anzahl an Pipelines ( 8 -> 16 )

doppelte Anzahl an Shadern pro Pipeline (ähnlich wie beim NV40) entsprechend den Gerüchten über die "Extreme Pipelines" aus zuverlässiger Quelle;
ergibt eine 4fach höhere Shaderleistung wie beim R360 pro Takt (dazu der höhere Takt ergibt eine ca. 5fach höhere Shaderleistung) Ich darf dazu nichts mehr sagen :psst: ;(

robbitop
2004-04-25, 18:01:53
hört sich ein wenig unrealistisch an =)
zumal die R&D Ressourcen bei ATi gerad knapp sind.
(ich weiss ich weiss wurde in letzter Zeit mehr als genug gesagt o_O)

ShadowXX
2004-04-25, 19:27:18
Original geschrieben von aths
Ich darf dazu nichts mehr sagen :psst: ;(

Wonach du wohl inzwischen auch unter NDA stehst...dann gibt es ja doch noch eine kleine Hoffnung auf einen kleinen r420 inside Artikel...

CrazyIvan
2004-04-25, 19:28:26
@ aths

Brauchst neues Deo - riechst sehr nach NDA ;D
Kannste und den wenigstens bestätigen, dass Du'n Sample hast und wir bei 3dc ein Review zu lesen bekommen?