PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NV40 ist da! / NDA-Brecher (merged)


Seiten : 1 [2] 3

Gast
2004-04-14, 11:48:22
Mal sachte Leute:
Der $ ist kein €! =)

up

Odal
2004-04-14, 11:48:36
Original geschrieben von BlueRaven
Ich würde meinen das die Ultra hier in Deutschland so um die 650€ verkauft wird.


bye
BlueRaven

naja ich wollte eh auf die mainstream karten warten...650€ ist mir zu teuer fuer eine graka...

oder halt auf die 6800er version der 5900XT :D

seahawk
2004-04-14, 11:48:39
Original geschrieben von BlueRaven
Ich würde meinen das die Ultra hier in Deutschland so um die 650€ verkauft wird.





bye
BlueRaven

Wenn die Karte laut NV in den USA 399$ kosten soll ?? Wohl kaum.

Allerdings bin ich mir sicher, dass NV da boch ein darüberliegendes Modell in der Hinterhand hat. (NV 45 *hust*)

Odal
2004-04-14, 11:49:07
Original geschrieben von Gast
Angeblich solln wir uns auf 'was' gefaßt machen:
uns werden die Sinne schwinden!

up

sagt wer?

BlueRaven
2004-04-14, 11:49:30
aber wie die meisten wissen wird Gainward wieder mit Traumpreisen von 699-799€ ankommen.




bye
BlueRaven

Odal
2004-04-14, 11:50:18
Original geschrieben von seahawk
Wenn die Karte laut NV in den USA 399$ kosten soll ?? Wohl kaum.

Allerdings bin ich mir sicher, dass NV da boch ein darüberliegendes Modell in der Hinterhand hat. (NV 45 *hust*)

naja nicht zum jetzigen zeitpunkt..dann haette man die 9800XT schon damit versaegt auf der praesentation

Gast
2004-04-14, 11:51:28
@Odal:
Das sagt nvidia:
http://www.nvidia.com/page/home

SKYNET
2004-04-14, 11:52:22
Original geschrieben von LovesuckZ
"beschnittender crap"? Einerseits soll sie nur 299$. Es kommt zu einer geringeren Limitierung der Bandbreite und sie wird ebenfalls deutlich schneller sein als die jetzige 5950U!
Ich werde mir die Karte holen, da die Konkurenu wohl nur eine 8 Pipe Karte in diesen Preissegmen wirft. Im Gegensatz zur 6800U verbraucht die Karte weniger Strom, ist kühler, nimmt keinen 2. Slot weg und wahrscheinlich leiser. Und sollte es sich hier um den selben Core handeln, dürfte sie gut übertaktbar sein.

egal, ich hasse beschnittenden crap.

jede wette das das original NV40 sind mit schrotten pipes --> müll.

und ob die karte nun weniger saft zieht ist mir voll ladde.
genauso ob sie nun kühler ist.
und vonmir aus kan sie auch 5 PCI's belegen, habe besten onboard sound beim AN50R und gbit lan inkl.

soll heißen: warum 12 wenn ich 16 haben kann ?
und auf die 100€ mehr scheiße ich dann aus trotz.

seahawk
2004-04-14, 11:52:25
Original geschrieben von Odal
naja nicht zum jetzigen zeitpunkt..dann haette man die 9800XT schon damit versaegt auf der praesentation

Doch, sobald die schnelleren Speicher kriegen können machen ide noch einen drauf. Die Taktung der GPU befindet sich eindeutig am untern Level des Möglichen.

Die legen jetzt erstmal vor und wenn die X800XT sie schlägt, wird Ende Mai / Anfang Juni eine neue PCI-Express Version kommen die noch schneller ist.

Gast
2004-04-14, 11:52:34
Original geschrieben von SKYNET
*argh*
dann muss ich wohl doch in den sauren apfel beissen und mir ne ultra kaufen :cry:



*aaaiiiiiiii* *innerlich sterb* Viel schlimmer ist doch die scheinbare Begrenzung auf 128 MB Speicher.

Odal
2004-04-14, 11:53:43
Original geschrieben von Gast
@Odal:
Das sagt nvidia:
http://www.nvidia.com/page/home

naja marketing halt..ich dachte da waer was handfestes

BlueRaven
2004-04-14, 11:54:18
Ich kappiere auch nicht warum die nicht 256MB DDR1 Speicher genommen haben oder gleich DDR2, und es auf knappe 128MB Kastriert haben.





bye
BlueRaven

SKYNET
2004-04-14, 11:55:35
Original geschrieben von seahawk
Wenn die Karte laut NV in den USA 399$ kosten soll ?? Wohl kaum.

Allerdings bin ich mir sicher, dass NV da boch ein darüberliegendes Modell in der Hinterhand hat. (NV 45 *hust*)


dürfte hier mit 450€ gelaucht werden udn innerhalb von 2-4 wochen auf 350-380€ fallen.

und ich könnte wetten das NV die NV45 genau an dem tag raushaut wenn ATI mit dem 800XT kommt ;D

nur um denen die show zustehlen :D

Demirug
2004-04-14, 11:56:52
Original geschrieben von BlueRaven
Ich kappiere auch nicht warum die nicht 256MB DDR1 Speicher genommen haben oder gleich DDR2, und es auf knappe 128MB Kastriert haben.





bye
BlueRaven

DDR2? Heizplaten oder was? Der wird doch schon gar nicht mehr produziert

BlueRaven
2004-04-14, 11:57:31
Jepp wäre doch ein passender zeitpunkt oder...

Odal
2004-04-14, 11:58:15
Original geschrieben von seahawk
Doch, sobald die schnelleren Speicher kriegen können machen ide noch einen drauf. Die Taktung der GPU befindet sich eindeutig am untern Level des Möglichen.

Die legen jetzt erstmal vor und wenn die X800XT sie schlägt, wird Ende Mai / Anfang Juni eine neue PCI-Express Version kommen die noch schneller ist.

naja waere taktisch unklug....da DDR3 der hoehere taktraten als 500/550 schafft schon verfuegbar ist (und wenn die chips extra selektiert werden muessen)...schlau waer es dann gleich die grosse kanone rauszuholen und mitzupraesentieren..unter dem motto: "comming soon" halt

SKYNET
2004-04-14, 11:58:17
Original geschrieben von BlueRaven
Ich kappiere auch nicht warum die nicht 256MB DDR1 Speicher genommen haben oder gleich DDR2, und es auf knappe 128MB Kastriert haben.





bye
BlueRaven

genau aus dem grund weil sie wissen das es VIELE wie mich gibt die sich denken "scheiß auf die 100€ b.z.w. dollar ich will volle bandbreite"

weil für 100€ mehr gibt es: 4 pipes mehr, DDR3 und 128MB mehr ram und warscheinlich mehr takt.

für sowas hat man vorher immer min. das 3-4 fache mehr ausgeben müssen.(9800SE 100€ --> 9800XT 400€)

LovesuckZ
2004-04-14, 11:59:12
Democoder meint, dass im Juni der NV40 mit 512MB Ram komme. Wer weiß, vielleicht als NV45 mit 475/650-700 getarnt.

SKYNET
2004-04-14, 12:00:07
Original geschrieben von LovesuckZ
Democoder meint, dass im Juni der NV40 mit 512MB Ram komme. Wer weiß, vielleicht als NV45 mit 475/650-700 getarnt.


rrrrr, dan warte ich doch nen monat länger :D

das dürfte sich lohnen *händereib*

cRaZy78
2004-04-14, 12:00:30
Original geschrieben von LovesuckZ
Democoder meint, dass im Juni der NV40 mit 512MB Ram komme. Wer weiß, vielleicht als NV45 mit 475/650-700 getarnt.

Würden denn 512MB Ram denn heutzutage schon was bringen?

Odal
2004-04-14, 12:01:51
Original geschrieben von cRaZy78
Würden denn 512MB Ram denn heutzutage schon was bringen?

ja, ein psychologisches verkaufsargument...

BlueRaven
2004-04-14, 12:02:03
Ich denke das sich 512MB RAM bei der neuen Unreal Engine 3 bemerkbar macht aber ansonst würde noch dieses Jahr 512MB net soviel bringen.

LovesuckZ
2004-04-14, 12:02:07
Original geschrieben von cRaZy78
Würden denn 512MB Ram denn heutzutage schon was bringen?

Beim NV40 nicht, außer du spielst mit 8AA in 1600*1200, wobei dann die Leistung wohl auf 5200Niveau liege.
Bei ATi karten brauch man für 6AA schon 256MB und wer weiß, auf welchen Modus sie gehe.
Eigentlich koennte man ja sagen, zuviel Ram kann nie schaden :D

Gast
2004-04-14, 12:02:46
die frage stellt sich doch immer wieder!
früher waren es 128mb und heute 512!

schaden kanns ja gewiß nicht!

Coda
2004-04-14, 12:03:05
Zumindest scheint das Ding eine annehmbare Shaderperformance zu haben, womit mein nicht-Kaufgrund No.1 beseitigt wäre bei nV Karten
Ich warte nur noch ab was ATi zu bieten hat.

Odal
2004-04-14, 12:03:18
Original geschrieben von LovesuckZ
Eigentlich koennte man ja sagen, zuviel Ram kann nie schaden :D

doch dem geldbeutel hehe

cRaZy78
2004-04-14, 12:03:41
Original geschrieben von LovesuckZ
Beim NV40 nicht, außer du spielst mit 8AA in 1600*1200, wobei dann die Leistung wohl auf 5200Niveau liege.
Bei ATi karten brauch man für 6AA schon 256MB und wer weiß, auf welchen Modus sie gehe.
Eigentlich koennte man ja sagen, zuviel Ram kann nie schaden :D

Naja, da ich eh nur nen 17"TFT mit ner max auflösung von 1280x1024 zocken kann werd ich wohl keine 512MB brauchen. oder?

SKYNET
2004-04-14, 12:04:21
Original geschrieben von cRaZy78
Würden denn 512MB Ram denn heutzutage schon was bringen?

ja, sie würden mein ego immens aufpolieren :D

cRaZy78
2004-04-14, 12:05:01
Original geschrieben von SKYNET
ja, sie würden mein ego immens aufpolieren :D

Jo so kann man´s natürlich auch sehen :)

Odal
2004-04-14, 12:05:16
Original geschrieben von Coda
Zumindest scheint das Ding eine annehmbare Shaderperformance zu haben, womit mein nicht-Kaufgrund No.1 beseitigt wäre bei nV Karten
Ich warte nur noch ab was ATi zu bieten hat.

naja in der shaderperformance mussten sie ja auch unbedingt nachlegen...mich wuerde nur interessieren ob die CineFX 3 architektur nun etwas in richtung das was microsoft will angepasst wurde...oder ob sie weiterhin einen eigenen weg gehen, nur halt mit genuegend rohpower

BlueRaven
2004-04-14, 12:05:22
Original geschrieben von Gast
die frage stellt sich doch immer wieder!
früher waren es 128mb und heute 512!

schaden kanns ja gewiß nicht!

Tja umsonst mehr geld aus dem Fenster, weil bestimmt die hälfte nicht genutzt wird.




bye
BlueRaven

SKYNET
2004-04-14, 12:07:06
Original geschrieben von Odal
naja in der shaderperformance mussten sie ja auch unbedingt nachlegen...mich wuerde nur interessieren ob die CineFX 3 architektur nun etwas in richtung das was microsoft will angepasst wurde...oder ob sie weiterhin einen eigenen weg gehen, nur halt mit genuegend rohpower

also an rojhpower hat es NV nie gemangelt, sei es zu GF2 zeiten zu GF4 zeiten oder zu FX zeiten, das wird sich jetzt auchnet ändern ;)

cRaZy78
2004-04-14, 12:07:32
Ach ja eine Frage hät ich noch... Gibt es denn schon einen Termin wann es die Karte (GF6800U 256MB) zu kaufen gibt?
Ich glaub nämlich das meine 5900U den geist aufgibt... :(

Gast
2004-04-14, 12:09:33
Original geschrieben von SKYNET
du hast schon gesehn das das AA von NV besser ist als das von ATI ?

achja, noch nen tritt in den a*sch von ATI:

battlefield vietnam:
NV ist da 5% schneller als ATI !
NV: 1280*960 4x AA / 8x AF
ATI: 1024*768 no AA / 8x AF


sehr schön !
muss meine meinung von vorhin mal revidieren.
schätze nichtnur das die NV 20% schneller als die 9800XT ist sondern gute 40% in der rohleistung.

der könig ist tot(9800xt) es lebe der könig(6800U)

zu wissen, dass ati in den nächsten 2 wochen mit einem nex-gen-chip antreten wird und jetzt zu behaupten, die 6800u ist "der könig" obwohl

1. noch keine echten reviews draußen sind
2. verfügbarkeit noch weit entfernt ist
3. ati noch seins dazu beitragen muss...
etc..

finde ich relativ... naja, "unklug"?

Demirug
2004-04-14, 12:09:49
Original geschrieben von Odal
naja in der shaderperformance mussten sie ja auch unbedingt nachlegen...mich wuerde nur interessieren ob die CineFX 3 architektur nun etwas in richtung das was microsoft will angepasst wurde...oder ob sie weiterhin einen eigenen weg gehen, nur halt mit genuegend rohpower

Hat sich nVidia in Richtung MS bewegt oder wurde SM 3 an nVidia ausgerichtet?

Ropower hat der NV35 eigentlich genung. An der Effizienz mangelt es.

BlueRaven
2004-04-14, 12:09:58
Ich denke das man schon am ende des Monats so anfang Main einen GeForce 6800 kaufen kann hier Deutschland aber nur begrenzt.

Odal
2004-04-14, 12:10:08
Original geschrieben von SKYNET
also an rojhpower hat es NV nie gemangelt, sei es zu GF2 zeiten zu GF4 zeiten oder zu FX zeiten, das wird sich jetzt auchnet ändern ;)

bei den pixelshadern leider schon...die wurden damals als nicht wichtig genug erachtet
bzw. als nicht genug microdoof kompatibel

SKYNET
2004-04-14, 12:11:35
KNIET NIEDER !
ICH BIN EUER GOTT !

http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/

cRaZy78
2004-04-14, 12:12:12
Original geschrieben von BlueRaven
Ich denke das man schon am ende des Monats so anfang Main einen GeForce 6800 kaufen kann hier Deutschland aber nur begrenzt.

Na ich denke/hoffe mal das meine Karte noch so lange hält...

nagus
2004-04-14, 12:16:10
Original geschrieben von Marodeur
Also wenn die 2 Karten am Ende wirklich sehr nah beeinander liegen ist es mir sowas von wurscht was ich für eine holen werde. Bei mir kommt dann die rein die A)bessere Bildquali bietet und B)weniger mein Zimmer aufheizt :D

Wenn die beiden Punkte von jeweils ner anderen Karte erfüllt werden dann wäge ich eben genau ab.

Aber die Marke an sich geht mir voll am Arsch vorbei... :arsch:

Und bei der Kühlung glaub ich irgendwie das mir die Lösungen von beiden Herstellern zu laut sind... ;)

WENN das so ist (beide knapp beisammen)... dann hole ich mir jedenfalls die karte mit dem geringeren stromverbrauch und die leiser ist, keine 2-slot-kühlung braucht und kein 480Watt netzteil ;)

Exxtreme
2004-04-14, 12:16:17
http://www.hardwareanalysis.com/content/article/1708.4/

Odal
2004-04-14, 12:18:15
Original geschrieben von Demirug
Hat sich nVidia in Richtung MS bewegt oder wurde SM 3 an nVidia ausgerichtet?


genau das ist ja meine frage :D

BlueRaven
2004-04-14, 12:20:41
habe mir 2 reviews angeguckt und muss sagen das die GeForce 6800 Ultra ja so richtig DAMPF und lässt die Konkurrenz ja so richtig alt aussehen.




bye
BlueRaven

Raff
2004-04-14, 12:20:45
Original geschrieben von SKYNET
KNIET NIEDER !
ICH BIN EUER GOTT !

http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/

"NVIDIA’s GeForce FX line have often been criticized for their PS2.0 performance, but if all indications with 3DMark 03 are accurate, it appears this won’t be a weak spot for GeForce 6800 Ultra. We tried to corroborate these findings with ShaderMark, but unfortunately it wouldn’t run with the 6800 Ultra board."

Die Werte würden mich allerdings interessieren ...
Das Review zeigt die 6800U jedenfalls deutlich vorne.

MfG,
Raff

LovesuckZ
2004-04-14, 12:21:03
Halo:

http://hardwareanalysis.com/images/articles/large/11089.gif

Wie war das: Nv40 ist enttaeuschend?

SKYNET
2004-04-14, 12:22:02
Original geschrieben von LovesuckZ
Halo:

http://hardwareanalysis.com/images/articles/large/11089.gif

Wie war das: Nv40 ist enttaeuschend?

hast du aquamark gesehn ?

300% schneller die NV40 als die 9800XT bei default einstellungen *yeah baby yeah*

Exxtreme
2004-04-14, 12:22:54
Hmm, ich dachte, daß das NDA erst um 15 Uhr fällt. :|

BlueRaven
2004-04-14, 12:24:08
Ich kann es kaum noch abwarten so eine Karte zu besitzen, so wie es aussieht hat Nvidia aus Fehlern gelernt und presentiert jetzt einen echten Turbolader :D

JoeDesperado
2004-04-14, 12:24:42
video der nv40-präsentation m. UnrealEngine3:
http://www.chasingradium.com/~nvidia/nvidia/unreal3_0002.wmv
~13mb, 5 minuten
impressive!

Gast
2004-04-14, 12:24:49
Das ist ja die reine Sahne:
http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/page10.asp

Vonwegen Fake =)

up

Odal
2004-04-14, 12:25:06
Original geschrieben von SKYNET
KNIET NIEDER !
ICH BIN EUER GOTT !

http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/

naja nich viel neues bis jetzt (benches hab ich noch nich angeschaut) nich sooooviel lauter als 9800XT is ja "gut" aber AF is bei den FXen besser als bei der neuen...naja zum glueck nich so schlecht wie das alte ATI AF

LovesuckZ
2004-04-14, 12:25:18
Original geschrieben von Exxtreme
Hmm, ich dachte, daß das NDA erst um 15 Uhr fällt. :|

Naja, im leben ist auch nicht alles erlaubt, das haellt einige nicht davon ab es zu tun :)

TR:6 : http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/page17.asp

Scheint wohl, dass die Shaderschwaeche überwunden wurde!

DrumDub
2004-04-14, 12:26:55
Original geschrieben von SKYNET
300% schneller die NV40 als die 9800XT bei default einstellungen *yeah baby yeah*

die 9800xt erreicht 47000 punkte im aquamark. also nix mit 300% schneller. da hat der reviewer was vermurkst.

http://www.pcstats.com/articleview.cfm?articleid=1558&page=7

BlueRaven
2004-04-14, 12:27:33
das ist echt die Pure POWER die Nvidia jetzt uns Presentiert. Ich freue mich so für Nvidia

nggalai
2004-04-14, 12:27:42
Original geschrieben von Exxtreme
Hmm, ich dachte, daß das NDA erst um 15 Uhr fällt. :| Es gibt NDA und NDA, und Leute, die sich daran halten müssen und solche, die einen Verstoss verkraften können. ;)

93,
-Sascha.rb

Odal
2004-04-14, 12:27:56
Original geschrieben von SKYNET
KNIET NIEDER !
ICH BIN EUER GOTT !

http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/

cached mal schnell einer die seite? sonst is der mist down...

SKYNET
2004-04-14, 12:33:59
http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/page12.asp

wei sich die NV40 langweilt.... CPU ist deutlich zu langsam.

Exxtreme
2004-04-14, 12:35:05
Original geschrieben von nggalai
Es gibt NDA und NDA, und Leute, die sich daran halten müssen und solche, die einen Verstoss verkraften können. ;)

93,
-Sascha.rb
Ich hoffe nur, daß Leo sich nicht dazu verleiten lässt und was Dummes tut... ;( ;)

LovesuckZ
2004-04-14, 12:36:16
Original geschrieben von Exxtreme
Ich hoffe nur, daß Leo sich nicht dazu verleiten lässt und was Dummes tut... ;( ;)

Wieso? Wertarbeit wird uns belohnt :)

DrumDub
2004-04-14, 12:36:31
Original geschrieben von Exxtreme
Ich hoffe nur, daß Leo sich nicht dazu verleiten lässt und was Dummes tut... ;( ;)

ach, komm. sind doch eh nur noch weniger als zweieinhalb stunden.

Morpheus2200
2004-04-14, 12:37:04
Site down?

SKYNET
2004-04-14, 12:37:38
Original geschrieben von Exxtreme
Ich hoffe nur, daß Leo sich nicht dazu verleiten lässt und was Dummes tut... ;( ;)

scheiß drauf, drückt den "online" button, los macht schon.

oder wollt ihr die letzten sein weil "aber ich halte mich immer an die regeln und gehe nur bei grün über die ampel und bremse auch für die insekten auf der autobahn" ;D

Odal
2004-04-14, 12:39:28
das AA des NV40 scheint (trotz bandbreitenmangel) verdammt schnell zu sein bei der qualitaet

und ich glaub 1600X1200 reicht noch nicht um die qualitaten des NV40 auszuloten :D

DrumDub
2004-04-14, 12:39:54
Original geschrieben von SKYNET
scheiß drauf, drückt den "online" button, los macht schon.


klar... wenn du die konventional-strafe zahlst...

Odal
2004-04-14, 12:40:36
Original geschrieben von SKYNET
scheiß drauf, drückt den "online" button, los macht schon.

oder wollt ihr die letzten sein weil "aber ich halte mich immer an die regeln und gehe nur bei grün über die ampel und bremse auch für die insekten auf der autobahn" ;D

ich find das gut so..so kann man erstmal sich bei den anderen seiten appetit holen und gegessen wird zuhause (im 3dcenter)

Exxtreme
2004-04-14, 12:41:56
Original geschrieben von SKYNET
oder wollt ihr die letzten sein weil "aber ich halte mich immer an die regeln und gehe nur bei grün über die ampel und bremse auch für die insekten auf der autobahn" ;D
Errrm, ist dir die Bedeutung der Wörter "Seriösität" und "Professionalität" bewusst? Ich glaube nicht, daß Nvidia es gern sieht wenn man gültige Verträge bricht. Und wenn diese Websites Pech haben, dann gibt's keine Testkarten mehr von Nvidia ... und von ATi auch nicht.

Demirug
2004-04-14, 12:43:33
Original geschrieben von Odal
das AA des NV40 scheint (trotz bandbreitenmangel) verdammt schnell zu sein bei der qualitaet

und ich glaub 1600X1200 reicht noch nicht um die qualitaten des NV40 auszuloten :D

... und der schäbige 550MHz Ram wohl auch nicht immer.

Roadkill
2004-04-14, 12:47:55
15Uhr ist mir ganz recht, dann sitze ich mit nem Döner vor der Tastatur, und wenn der Artikel Online geht, fällt mir der Döner aus der Hand und saut die Tastatur voll.

gast
2004-04-14, 12:49:19
Hier wird immer nur auf die 3D performance hingewiesen, ist natürlich auch das hauptkriterium einer Grafikkarte, aber es gibt ja noch andere sachen zu berichten.

Da hätten wir erstmal den HDTV/WMV9/mpeg2 Hardware support, für mich ein wirkliches kaufargument. Ausserdem ist es endlich eine karte mit 2x DVI, gab es bisher nicht oft.

All diese dinge sind für mich auch mindestens so wichtig wie die 3D power und sollte nicht ausser acht gelassen werden

Odal
2004-04-14, 12:49:47
Original geschrieben von Demirug
... und der schäbige 550MHz Ram wohl auch nicht immer.

allerdings, obwohl die nutzung von AA scheinbar nicht so sehr die FPS in den keller drueckt wie ich befuerchtet habe...
intelligentere nutzung der speicherbandbreite?

Demirug
2004-04-14, 12:53:31
Original geschrieben von Odal
allerdings, obwohl die nutzung von AA scheinbar nicht so sehr die FPS in den keller drueckt wie ich befuerchtet habe...
intelligentere nutzung der speicherbandbreite?

Mit AA kann man ja gut komprimieren. Allerdings sind auch hier kurze Shader eher Gift weil man die Speicherkacheln gar nicht schnell genung heranschaffen kann.

Man sieht ja IMHO schon sehr schön das je heftiger der Shadereinsatz desto mehr kann sich der NV40 absetzten. Sowas hat JC ja schon vor längerem durchblicken lassen.

Metalmaniac
2004-04-14, 12:58:35
Was war das damals für ein Geheule der nVidia-Fans als die frisch erschienene 9700pro mangels nVidia-Alternative gegen dessen Spitzenprodukt Ti-4600 antrat und diese mal eben versägte. Jetzt geht den selben Leuten einer ab hier, wobei die Voraussetzungen allerdings nur umgekehrt sind und das neue Produkt von nVidia mit dem Alten von ATI konkurriert und um Längen gewinnt, was man bei den wie üblich vollmundigen Ankündigungen seitens nVidia ja auch voraussetzen sollte. Leute bleibt cool und wartet auf Tests auf Augenhöhe und laßt dann das Fangehabe beiseite und entscheidet Euch nicht für eine Firma aufgrund des Namens sondern für das Produkt mit der dann gemessenen besten Leistung und/oder bestem Preis-Leistungsverhältnis und gut ist. Ich hatte auch jahrelang nVidia und jetzt eben ATI, na und. Eure Verbal-Kämpfe sind zwar amüsant aber auch extrem kindisch (etwa wie Matchbox gegen Hot Wheels ;D ) .

Odal
2004-04-14, 12:59:00
bessere kompressionsalgorithmen also...hatte ich auch schon vermutet...

stimmt die shader intensiven spiele haben die groessten abstaende zu verzeichnen (siehe halo oder TRAOD)
nvidia hat wohl die zeichen der zeit erkannt und bemerkt das in zukuenftigen spielen der shadereinsatz massiv ansteigen wird.

ps: kurze shader waren ja noch nie nvidias lieblinge..sei es wegen dem design oder nun wegen der bandbreite :D

san.salvador
2004-04-14, 13:00:44
Original geschrieben von Metalmaniac
Was war das damals für ein Geheule der nVidia-Fans als die frisch erschienene 9700pro mangels nVidia-Alternative gegen dessen Spitzenprodukt Ti-4600 antrat und diese mal eben versägte. Jetzt geht den selben Leuten einer ab hier, wobei die Voraussetzungen allerdings nur umgekehrt sind und das neue Produkt von nVidia mit dem Alten von ATI konkurriert und um Längen gewinnt, was man bei den wie üblich vollmundigen Ankündigungen seitens nVidia ja auch voraussetzen sollte. Leute bleibt cool und wartet auf Tests auf Augenhöhe und laßt dann das Fangehabe beiseite und entscheidet Euch nicht für eine Firma aufgrund des Namens sondern für das Produkt mit der dann gemessenen besten Leistung und/oder bestem Preis-Leistungsverhältnis und gut ist. Ich hatte auch jahrelang nVidia und jetzt eben ATI, na und. Eure Verbal-Kämpfe sind zwar amüsant aber auch extrem kindisch (etwa wie Matchbox gegen Hot Wheels ;D ) .

Sorry, aber Hot Wheels haben gegen Matchbox nicht mal den Ansatz einer Chance!!:asshole:
*duck*

Odal
2004-04-14, 13:01:19
Original geschrieben von Metalmaniac
Was war das damals für ein Geheule der nVidia-Fans als die frisch erschienene 9700pro mangels nVidia-Alternative gegen dessen Spitzenprodukt Ti-4600 antrat und diese mal eben versägte. Jetzt geht den selben Leuten einer ab hier, wobei die Voraussetzungen allerdings nur umgekehrt sind und das neue Produkt von nVidia mit dem Alten von ATI konkurriert und um Längen gewinnt, was man bei den wie üblich vollmundigen Ankündigungen seitens nVidia ja auch voraussetzen sollte. Leute bleibt cool und wartet auf Tests auf Augenhöhe und laßt dann das Fangehabe beiseite und entscheidet Euch nicht für eine Firma aufgrund des Namens sondern für das Produkt mit der dann gemessenen besten Leistung und/oder bestem Preis-Leistungsverhältnis und gut ist. Ich hatte auch jahrelang nVidia und jetzt eben ATI, na und. Eure Verbal-Kämpfe sind zwar amüsant aber auch extrem kindisch (etwa wie Matchbox gegen Hot Wheels ;D ) .

oehm es soll ja leute geben die in den benchmarks ihr augenmerk groesstenteils auf die 5950u und 6800u legen uns somit die verbesserung zur alten generation wuerdigen...den konkurenten dabei mal aussen vor gelassen

AlfredENeumann
2004-04-14, 13:02:32
Original geschrieben von Metalmaniac
Was war das damals für ein Geheule der nVidia-Fans als die frisch erschienene 9700pro mangels nVidia-Alternative gegen dessen Spitzenprodukt Ti-4600 antrat und diese mal eben versägte. Jetzt geht den selben Leuten einer ab hier, wobei die Voraussetzungen allerdings nur umgekehrt sind und das neue Produkt von nVidia mit dem Alten von ATI konkurriert und um Längen gewinnt, was man bei den wie üblich vollmundigen Ankündigungen seitens nVidia ja auch voraussetzen sollte. Leute bleibt cool und wartet auf Tests auf Augenhöhe und laßt dann das Fangehabe beiseite und entscheidet Euch nicht für eine Firma aufgrund des Namens sondern für das Produkt mit der dann gemessenen besten Leistung und/oder bestem Preis-Leistungsverhältnis und gut ist. Ich hatte auch jahrelang nVidia und jetzt eben ATI, na und. Eure Verbal-Kämpfe sind zwar amüsant aber auch extrem kindisch (etwa wie Matchbox gegen Hot Wheels ;D ) .


Eben. Ich werde mir erstmal in ruhen etlichen Reviews reinziehen und diese erstmal sacken lassen, und dann auf das entsprechende Produkt aus dem Hause ATI warten, damit man weis woran man ist. Vorher irgendwas zu Hypen halte ich für Unsinn.
solche Zahlen wie in den bisher veröffentlichen Reviews waren ja eigentlich auch zu erwarten. Schlieslich Basiert die 9800XT auf einem 1,5Jahre altem Chip.

Gast
2004-04-14, 13:02:59
Original geschrieben von Exxtreme
http://www.hardwareanalysis.com/content/article/1708.4/

Was haben denn die für eine 9800XT getestet? 2000 Punkte beim Aquamark? :bonk:

Gast
2004-04-14, 13:03:26
ok 20000, aber trotzdem :bonk:

san.salvador
2004-04-14, 13:04:16
Original geschrieben von Odal
oehm es soll ja leute geben die in den benchmarks ihr augenmerk groesstenteils auf die 5950u und 6800u legen uns somit die verbesserung zur alten generation wuerdigen...den konkurenten dabei mal aussen vor gelassen
Sind das nicht die, die man dann "Flam0rz" oder "Fanb0yz" nennt? ;)

SKYNET
2004-04-14, 13:04:56
Original geschrieben von Metalmaniac
Was war das damals für ein Geheule der nVidia-Fans als die frisch erschienene 9700pro mangels nVidia-Alternative gegen dessen Spitzenprodukt Ti-4600 antrat und diese mal eben versägte. Jetzt geht den selben Leuten einer ab hier, wobei die Voraussetzungen allerdings nur umgekehrt sind und das neue Produkt von nVidia mit dem Alten von ATI konkurriert und um Längen gewinnt, was man bei den wie üblich vollmundigen Ankündigungen seitens nVidia ja auch voraussetzen sollte. Leute bleibt cool und wartet auf Tests auf Augenhöhe und laßt dann das Fangehabe beiseite und entscheidet Euch nicht für eine Firma aufgrund des Namens sondern für das Produkt mit der dann gemessenen besten Leistung und/oder bestem Preis-Leistungsverhältnis und gut ist. Ich hatte auch jahrelang nVidia und jetzt eben ATI, na und. Eure Verbal-Kämpfe sind zwar amüsant aber auch extrem kindisch (etwa wie Matchbox gegen Hot Wheels ;D ) .

hot wheelz sehn stylischer aus ;)

und mir doch egal welcher hersteller.... jetzt ist NV könig, und wirde es auch bleiben :D

LovesuckZ
2004-04-14, 13:05:04
Original geschrieben von AlfredENeumann
solche Zahlen wie in den bisher veröffentlichen Reviews waren ja eigentlich auch zu erwarten. Schlieslich Basiert die 9800XT auf einem 1,5Jahre altem Chip.

Der r420 anscheinend auch. Also auf den r500 warten?

SKYNET
2004-04-14, 13:07:54
Original geschrieben von LovesuckZ
Der r420 anscheinend auch. Also auf den r500 warten?


*wuahahahahaha*

schläge unter die gürtellinie sind aber net dei englische feine aber gefallen tut mir sowas ungemein ;D

Demirug
2004-04-14, 13:11:54
Original geschrieben von Odal
bessere kompressionsalgorithmen also...hatte ich auch schon vermutet...

stimmt die shader intensiven spiele haben die groessten abstaende zu verzeichnen (siehe halo oder TRAOD)
nvidia hat wohl die zeichen der zeit erkannt und bemerkt das in zukuenftigen spielen der shadereinsatz massiv ansteigen wird.

ps: kurze shader waren ja noch nie nvidias lieblinge..sei es wegen dem design oder nun wegen der bandbreite :D

Ich meine ultra kurze Shader. Solche 1-4 Takte progrämchen.

Beim NV3x gab es eigentlich keinen direkten Bezug zur Länge. Längere Shader haben nur oft auch mehr Temps.

Odal
2004-04-14, 13:12:07
Original geschrieben von SKYNET
*wuahahahahaha*

schläge unter die gürtellinie sind aber net dei englische feine aber gefallen tut mir sowas ungemein ;D

beruhigt euch mal...

Odal
2004-04-14, 13:14:07
Original geschrieben von Demirug
Ich meine ultra kurze Shader. Solche 1-4 Takte progrämchen.

Beim NV3x gab es eigentlich keinen direkten Bezug zur Länge. Längere Shader haben nur oft auch mehr Temps.

ich meinte damit auch mit in hinsicht auf den treiberinternen shadercompiler..bzw. man konnte laengere shader besser durch eigenkonstruktionen ersetzen

Byteschlumpf
2004-04-14, 13:14:31
Original geschrieben von Metalmaniac
Was war das damals für ein Geheule der nVidia-Fans als die frisch erschienene 9700pro mangels nVidia-Alternative gegen dessen Spitzenprodukt Ti-4600 antrat und diese mal eben versägte. Jetzt geht den selben Leuten einer ab hier, wobei die Voraussetzungen allerdings nur umgekehrt sind und das neue Produkt von nVidia mit dem Alten von ATI konkurriert und um Längen gewinnt, was man bei den wie üblich vollmundigen Ankündigungen seitens nVidia ja auch voraussetzen sollte. Leute bleibt cool und wartet auf Tests auf Augenhöhe und laßt dann das Fangehabe beiseite und entscheidet Euch nicht für eine Firma aufgrund des Namens sondern für das Produkt mit der dann gemessenen besten Leistung und/oder bestem Preis-Leistungsverhältnis und gut ist. Ich hatte auch jahrelang nVidia und jetzt eben ATI, na und. Eure Verbal-Kämpfe sind zwar amüsant aber auch extrem kindisch (etwa wie Matchbox gegen Hot Wheels ;D ) .
Da stimme ich Dir voll und ganz zu - Leistung sollte kaufentscheident sein, nicht die Marke!

Der NV40 ist heute also das, was der R300 seinerzeit war - eine Klasse für sich. ;)

Meine 9700np würde in einer mit dem NV40 bestückten Karte eine würdigen Nachfolger finden, der bis zu dreimal so schnell ist.
Nur mein 350Watt NT müßte dafür gegen ein geeignetes noch ausgetauscht werden, wofür schnell mal 100€ zusätzlich fällig würden.

Ein andere Frage dürfte der Lärmpegel darstellen, den eine solche Karte produziert.
Daher werde ich mich für das Produkt später einmal entscheiden, was nicht nur schnell, sondern auch leise, bei möglichst geringem Strombedarf ist.

Warten wir also gespannt auf den R420 und sehen dann weiter, welche Basis die eco- und ökonomischere Darstellen wird.

Radeonator
2004-04-14, 13:15:05
Das Teil hat besseres AA als die 9800XT , die BQ ist Besser, das AF ist besser...alles besser....WELCOME BACK nVidia!

Mal sehen was die r420 dagegen zu setzen hat...wird ja richtig spannend!!!

SKYNET
2004-04-14, 13:15:09
Original geschrieben von Odal
beruhigt euch mal...

geht das bei soeiner gewalt, power, macht etc. die die NV40 abstrahl überhaupt ?


sry, aber beruhigen kann ich mich wenn ich schlafe, jetzt ist erstmal endorphin power angesagt :D

Exxtreme
2004-04-14, 13:16:18
Original geschrieben von SKYNET
*wuahahahahaha*

schläge unter die gürtellinie sind aber net dei englische feine aber gefallen tut mir sowas ungemein ;D
An deiner Stelle würde ich erst loslachen wenn der NV40 tatsächlich schneller ist als die RadeonX 800XT. Denn sonst lache ich weil der NV40 sich von einem 1,5 Jahre alten Chip versägen lässt. :D

san.salvador
2004-04-14, 13:16:20
Interessant wär auch zu wissen wann NV40 und R420 hier bei uns (Deutschland/Österreich) wirklich kaufbar im Laden stehen, weiß das wer?

ow
2004-04-14, 13:16:24
Original geschrieben von AlfredENeumann
Schlieslich Basiert die 9800XT auf einem 1,5Jahre altem Chip.

Der R420 uebrigens ebenso.

SKYNET
2004-04-14, 13:16:41
Original geschrieben von Byteschlumpf


Warten wir also gespannt auf den R420 und sehen dann weiter, welche Basis die eco- und ökonomischere Darstellen wird.

klar, langsamer = kühler = weniger saft.

alle fragen beantwortet ?

ist ja ehnur nen aufgebohrter R300

Odal
2004-04-14, 13:16:42
Original geschrieben von san.salvador
Sind das nicht die, die man dann "Flam0rz" oder "Fanb0yz" nennt? ;)

k.a. also in meinem fall sind das die die sich dann auch ganz genau die vergleiche des r420 mit der "alten" (basiert ja eigentlich mehr als der NV40 dadrauf) anschauen und bewerten..und damit mein ich feature technisch, qualitativ, und von der performance her....

erst danach vergleich ich die beiden konkurenten direkt und beurteile wer mehr getan hat und wer geschlafen hat.

Demirug
2004-04-14, 13:17:01
Original geschrieben von Odal
ich meinte damit auch mit in hinsicht auf den treiberinternen shadercompiler..bzw. man konnte laengere shader besser durch eigenkonstruktionen ersetzen

Natürlich, in längeren Shadern finden sich mehr Möglichkeiten zum ändern von Rechenschritten.

Die Shaderlänge wird aber auch in Zukunft noch durchaus interesant sein. Kurze Shader haben oft wenig legale optimierungsmöglichkeiten dafür kann man diese recht gut automatisch finden. Je länger die Shader werden desto mehr möglichkeiten (LEGALE) ergeben sich aber es wird auch schwieriger das automatisch zu machen.

SKYNET
2004-04-14, 13:17:37
Original geschrieben von san.salvador
Interessant wär auch zu wissen wann NV40 und R420 hier bei uns (Deutschland/Österreich) wirklich kaufbar im Laden stehen, weiß das wer?

spätestens mitte mai in D beieuch ist das ja immer 1-2 wochen später der fall.

LovesuckZ
2004-04-14, 13:18:01
Original geschrieben von Exxtreme
An deiner Stelle würde ich erst loslachen wenn der NV40 tatsächlich schneller ist als die RadeonX 800XT. Denn sonst lache ich weil der NV40 sich von einem 1,5 Jahre alten Chip versägen lässt. :D

Hm, dann aber nur, wenn ATi auch PS/VS3.0 und FP32 bietet.
Was bringt es schneller zu sein, wenn man nicht die selbe IQ hervorbringt? Und da Nvidia vollmündig schreibt, dass es keine Speedprobleme bei FP32 mehr gaebe, muss ATi sich wirklich was einfallen lassen.
Warum hat FS keine schöne AF Blume bereitgestellt...

avalanche
2004-04-14, 13:19:30
Original geschrieben von Byteschlumpf
Ein andere Frage dürfte der Lärmpegel darstellen, den eine solche Karte produziert.Interessant wär's, wenn heute direkt von einem der Wasserkühlungshersteller (Watercool, aquacomputer, ...) eine Ankündigung für NV40-Kühllösungen hinterherkäme. Das würde den NV40 wahrscheinlich für eine ganze Reihe Leute interessanter machen.

Radeonator
2004-04-14, 13:19:34
Also me ist beeindruckt! Die IQ/BQ ist Hammer und die speed sowieso...

ow
2004-04-14, 13:20:46
Original geschrieben von Exxtreme
An deiner Stelle würde ich erst loslachen wenn der NV40 tatsächlich schneller ist als die RadeonX 800XT. Denn sonst lache ich weil der NV40 sich von einem 1,5 Jahre alten Chip versägen lässt. :D


Wen interessiert denn schon die reine Shw...laenge, auf die Technik kommt es an. :D

Exxtreme
2004-04-14, 13:20:48
Original geschrieben von Radeonator
Das Teil hat besseres AA als die 9800XT ,
Das AA ist bis 4x in etwa gleich gut da gedrehtes Raster. Soweit ich es sehe kann kein Modus mit ATis 6x AA mithalten. Deswegen interessieren mich die Benchmarks, die mit ATis 6xAA und Nvidias 8x AA gemacht wurden. :D

Gast
2004-04-14, 13:23:38
http://hardwareanalysis.com/images/articles/large/11093.gif

:kratz2:

Gast
2004-04-14, 13:24:17
Original geschrieben von Exxtreme
Das AA ist bis 4x in etwa gleich gut da gedrehtes Raster. Soweit ich es sehe kann kein Modus mit ATis 6x AA mithalten. Deswegen interessieren mich die Benchmarks, die mit ATis 6xAA und Nvidias 8x AA gemacht wurden. :D

Ob du in der Praxis auch mit 6xAA spielst ist sicher stark zu bezweifeln ;)

avalanche
2004-04-14, 13:25:09
Original geschrieben von ow
Wen interessiert denn schon die reine Shw...laenge, auf die Technik kommt es an. :D Wird sich rausstellen ;) Weil das keiner so genau weiß, gibt's beim 3DC ja auch zwei Artikel, einen für die Technik und einen für die Länge...

Exxtreme
2004-04-14, 13:25:27
Original geschrieben von ow
Wen interessiert denn schon die reine Shw...laenge, auf die Technik kommt es an. :D
Nun ja ... zur Technik zähle ich auch AA-Modi und die Qualität. Und so wie ich es sehe kann der NV40 nur bis 4x AA mit ATi mithalten. Gegen ATis 6x AA bietet NV nach 1,5 Jahren nichts, was mithalten kann. :D

Gast
2004-04-14, 13:25:53
Aquamark nicht 300% schneller?
Reichen 337,36910653816097942172440739776% =)

http://hardwareanalysis.com/images/articles/large/11093.gif

up

ow
2004-04-14, 13:25:57
Original geschrieben von Gast
Ob du in der Praxis auch mit 6xAA spielst ist sicher stark zu bezweifeln ;)

Wieso denn. Fuer 640x480 reicht die Leistung seiner Karte doch. ;)

Exxtreme
2004-04-14, 13:26:07
Original geschrieben von Gast
Ob du in der Praxis auch mit 6xAA spielst ist sicher stark zu bezweifeln ;)
Natürlich. Morrowind sieht gut aus mit 6x AA. :D

Metalmaniac
2004-04-14, 13:26:17
Original geschrieben von ow
Der R420 uebrigens ebenso.

Dann kann man ja nur hoffen, daß nVidia auch mal wieder einen Chip hervorbringt der etwas länger hält und nicht deren Käufer zwingt, sich jede 8-9Mon. den überarbeiteten Nachfolger zu holen. Mit meiner 9700pro würde ich auch jetzt noch gut klarkommen, hatte aber ohne eigentliche Not Bock auf Veränderung, denn: "Ich bin alt und hatte das Geld=) ".

Odal
2004-04-14, 13:26:39
Original geschrieben von Demirug
Natürlich, in längeren Shadern finden sich mehr Möglichkeiten zum ändern von Rechenschritten.

Die Shaderlänge wird aber auch in Zukunft noch durchaus interesant sein. Kurze Shader haben oft wenig legale optimierungsmöglichkeiten dafür kann man diese recht gut automatisch finden. Je länger die Shader werden desto mehr möglichkeiten (LEGALE) ergeben sich aber es wird auch schwieriger das automatisch zu machen.

ja stimmt, wenn ich mal an die beispiele des compilerbaus denke...

nun mal etwas ab vom thema...du hattest ja mal ein paar treiber/shadercompiler moegliche optimierungsmoeglichkeiten mit der nutzung von PS3.0 angegeben...

weisst du in welchem ausmasse das nv nun in den shadercompiler implementiert hat/will oder darfst du das nicht verraten :D

wie ich es aus dem compilerbau kenne gibt es ja so oft komplexe optimierungsmoeglichkeiten nur die compilerbauer zoegern sie einzusetzen, weil der test auf richtigkeit fuer alle anwendungsfaelle oft zu komplex ist.

mein compilerbau prof. meinte schon immer optimierung und fehlerbehandlung ist schwarze kunst :D

Nedo
2004-04-14, 13:26:43
Puh wenn ich das so sehe.. das wird knapp für ATi ^^

Ich vermut, dass der X800 Pro langsamer sein wird, wenn auch nicht viel :/
Bleibt zu hoffen, dass ATi wieder ein sehr gutes AA präsentiert.

Aber wenn dann kauf ich mir sowieso die X800 XT ^^
natürlich vorrausgesetzt die nVidia Karten sind gleichschnell bzw. langsamer. wenn sie in Shader und überhaupt besser sind gibts wieder ne nv karte :)

mal abwarten, jedenfalls ist ATi wieder entthront, zumindest im Moment.

LovesuckZ
2004-04-14, 13:26:55
Original geschrieben von Exxtreme
Nun ja ... zur Technik zähle ich auch AA-Modi und die Qualität. Und so wie ich es sehe kann der NV40 nur bis 4x AA mit ATi mithalten. Gegen ATis 6x AA bietet NV nach 1,5 Jahren nichts, was mithalten kann. :D

Und was ist mit AF? 3 Jahre und ATi ist immer noch nicht konkurenzfaehig.
Also lieber Exxtreme, verfalle nicht in deine alten Tage zurueck :D

avalanche
2004-04-14, 13:27:43
Original geschrieben von Gast
Aquamark nicht 300% schneller?
Reichen 337,36910653816097942172440739776% =)

http://hardwareanalysis.com/images/articles/large/11093.gif

up Was ist das denn für 'ne Radeon? Selbst meine (etwas oc'te) 9700pro macht über 40000 Zähler.

DrumDub
2004-04-14, 13:28:12
Original geschrieben von Exxtreme
Natürlich. Morrowind sieht gut aus mit 6x AA. :D

mafia auch. :D

Gast
2004-04-14, 13:28:27
Original geschrieben von Exxtreme
Natürlich. Morrowind sieht gut aus mit 6x AA. :D

Far Cry, Doom3, Stalker, Half-Life 2. Sag bloß du wirst diese nicht spielen (wollen). ;) Auch hier wäre stark zu bezweifeln, daß du auch bei diesen Spielen 6AA verwenden wirst ;)

6xAA mag ja ein schöner letzter Ast zum Halten sein, aber wenn dieser in der Praxis keine Verwendung findet, dann ist das schlicht, pur und einfach simple FANBOY-Argumentation.

Exxtreme
2004-04-14, 13:29:16
Original geschrieben von Gast
Aquamark nicht 300% schneller?
Reichen 337,36910653816097942172440739776% =)

http://hardwareanalysis.com/images/articles/large/11093.gif

up
Naja, eine R9800XT erreicht weit mehr als ~20000 Punkte beim Aquamark3. :| Ich habe so ca. 48k in Erinerung. :kratz:

Nedo
2004-04-14, 13:29:34
Original geschrieben von Gast
http://hardwareanalysis.com/images/articles/large/11093.gif

:kratz2:

keine 20k für die XT?
hähähä?

selbst ich hab ja über 44k :D

oder verwechsel ich da grad was?

Gast
2004-04-14, 13:29:48
Original geschrieben von Gast
Aquamark nicht 300% schneller?
Reichen 337,36910653816097942172440739776% =)

http://hardwareanalysis.com/images/articles/large/11093.gif

up


weil eine XT auch nur 20000 Punkte erreicht. Klar ?-) 9700pros erreichen schon mehr als 40000 Punkte

Odal
2004-04-14, 13:29:50
Original geschrieben von Gast
Aquamark nicht 300% schneller?
Reichen 337,36910653816097942172440739776% =)

http://hardwareanalysis.com/images/articles/large/11093.gif

up

jo schade nur das die 9800XT nich nur 20k abliefert :D naja ist eh egal...syntetic bench.....

LovesuckZ
2004-04-14, 13:29:59
Hm , koennte der Aquamark beim NV40 CPU limitiert sein?

Demirug
2004-04-14, 13:30:23
Original geschrieben von Odal
ja stimmt, wenn ich mal an die beispiele des compilerbaus denke...

nun mal etwas ab vom thema...du hattest ja mal ein paar treiber/shadercompiler moegliche optimierungsmoeglichkeiten mit der nutzung von PS3.0 angegeben...

weisst du in welchem ausmasse das nv nun in den shadercompiler implementiert hat/will oder darfst du das nicht verraten :D

wie ich es aus dem compilerbau kenne gibt es ja so oft komplexe optimierungsmoeglichkeiten nur die compilerbauer zoegern sie einzusetzen, weil der test auf richtigkeit fuer alle anwendungsfaelle oft zu komplex ist.

mein compilerbau prof. meinte schon immer optimierung und fehlerbehandlung ist schwarze kunst :D

Ich gehe davon aus das der derzeitige Treiber auf solche Tricks noch verzichtet. Wahrscheinlich wird man sich erst einmal darauf konzentrieren das PS 3.0 native so gut wie möglich funktionieren und dann erst bei den 2.0 Shader mit optimierungen anfangen. Es hängt natürlich auch ein bischen davon ab was ATI mit dem R420 auf den Tisch legen wird.

Gast
2004-04-14, 13:30:51
Tja, was nun?
Quelle:
http://www.hardwareanalysis.com/content/article/1708.5/

up

DrumDub
2004-04-14, 13:31:06
Original geschrieben von avalanche
Was ist das denn für 'ne Radeon? Selbst meine (etwas oc'te) 9700pro macht über 40000 Zähler.

der reviewer hats vermurkst. ne 9800xt bringts mindestens auf 47000 punkte. aber das wollen die nvidiots in ihrer blindheit nicht sehen. ;D

Gaestle
2004-04-14, 13:31:06
Original geschrieben von SKYNET
geht das bei soeiner gewalt, power, macht etc. die die NV40 abstrahl überhaupt ?


sry, aber beruhigen kann ich mich wenn ich schlafe, jetzt ist erstmal endorphin power angesagt :D

Wenn Du den beispielsweise Launch einer TNT, einer Matrox G400 oder auch einer GF3 "mitgemacht" hättest, wüsstest Du auch, das von dieser ganzen herrlichen Pracht der "abstrahlenden Gewalt, Power, Macht etc." nach gerade mal 6-12Monaten ein kleines Häufchen Asche übrig bleibt, was niemanden mehr großartig anhebt (Ausnahme R300 wegen NV30-Problemen).

Ich meine, spannend isses schon, aber auf'm Teppich kann man IMHO trotzdem bleiben.

Grüße

Exxtreme
2004-04-14, 13:31:26
Original geschrieben von Gast
Far Cry, Doom3, Stalker, Half-Life 2. Sag bloß du wirst diese nicht spielen (wollen). ;) Auch hier wäre stark zu bezweifeln, daß du auch bei diesen Spielen 6AA verwenden wirst ;)

6xAA mag ja ein schöner letzter Ast zum Halten sein, aber wenn dieser in der Praxis keine Verwendung findet, dann ist das schlicht, pur und einfach simple FANBOY-Argumentation.
Nun ja ... mal sehen wie der R420 sein wird. ;) Ich hoffe, ATi bietet auch 8x AA mit einem vernünftigen Samplemuster an. :D

Demirug
2004-04-14, 13:31:39
Original geschrieben von LovesuckZ
Hm , koennte der Aquamark beim NV40 CPU limitiert sein?

IMHO wird der NV40 bei 1024 ohne AF/AA meistens CPU limitiert sein.

LovesuckZ
2004-04-14, 13:32:45
Original geschrieben von Demirug
IMHO wird der NV40 bei 1024 ohne AF/AA meistens CPU limitiert sein.

Im normalen Durchlauf wird noch 4bi-AF verwendet. Entweder limitiert die Speicherbandbreite oder die CPU.
Haette ich früher darauf kommen muessen...

Aquaschaf
2004-04-14, 13:33:21
Original geschrieben von ow
Der R420 uebrigens ebenso.
Naja, die 9800XT basiert in dem Sinne auf einem 1.5 Jahre altem Chip, dass dieser Chip eben auf ihr verbaut ist.
Das ist beim R420 dann doch etwas anders ;)


Ich sag nur: Abwarten. Wer diese Runde "gewonnen" hat wird sich erst noch zeigen.

Nedo
2004-04-14, 13:33:23
Original geschrieben von LovesuckZ
Hm , koennte der Aquamark beim NV40 CPU limitiert sein?
mmh könnte sein, ich glaub aber auch, dass die Punktegebung beim AM3 sehr streng ansteigt. ich finde 68k punkte ziemlich gut, wenn man bedenkt, dass ne 9800XT "gerade mal" ~48k bringt.

cao
2004-04-14, 13:33:37
diese ganzen voreiligen bewertungen.. schrecklich.

mal sehen was ati mit der r420 hat.. wie firingsquad so schön sagt: es ist eine eigenartige ruhe vor dem sturm bei ati.. ob im positiven oder negativen sinne ;-)

Nedo
2004-04-14, 13:34:43
Original geschrieben von Aquaschaf
Ich sag nur: Abwarten. Wer diese Runde "gewonnen" hat wird sich erst noch zeigen.
ACK,

Keiner von uns weiß was der R420 bringen wird :)

Ich hoffen, dass ATi mithalten kann, weil ATi baut IMO sehr gute Karten :)
Ich freu mich aber auch für nVidia :)

LovesuckZ
2004-04-14, 13:35:37
Was sols besonderes am r420 sein?
16 Pipelines, 500MHz, wahrscheinlich 600MHz Speicher, 6-8RGMSAA, eventuell verbessertes AF, kein PS3.0, wahrscheinlich auch keine VS3.0.
XT version 20% schneller, Pro leicht hinter NV40.

Mayhem
2004-04-14, 13:36:13
Ehrlich gesagt hat NVidia mit dem NV40 alles verbessert, was beim FX noch Kritik hervorgerufen hat. Am beeindruckendsten finde ich die Steigerung beim Pixelshader 2.0-Test.
Rein von den technischen Daten (Verdopplung der PixPipes + Steigerung RAM-Takt = 80%+ mehr Gesamtperformance) kann man jedoch davon ausgehen, dass ATIs HighEnd-Modell je nach Shader-Aufwand gleichschnell zur 6800Ultra werden wird.

Dafür dürften ATI-Karten deutlich preisgünstiger sein.

Weis eigentlich jemand, was es mit dem ps2.0b - Modell auf sich hat ?

Gast
2004-04-14, 13:36:44
Original geschrieben von Byteschlumpf

Der NV40 ist heute also das, was der R300 seinerzeit war - eine Klasse für sich. ;)
.

Dass er 7x schneller ist hab ich noch nicht gesehen. (Der R300 war vgl mit der Ti4600 beim chamäleonmark mit 4xAA und ordentlich hoher Auflösung wirklcih fast 7x schneller)

Ein weiterer Unterschied ist, dass das Konkurrenzprodukt nicht erst ein halbes Jahr später erscheint...

betasilie
2004-04-14, 13:38:23
Ich habe mir mehr erwartet. Der NV40 ist imo keine Enttäuschung, aber aus meiner Sicht hat er das absolute Minimum erreicht, was man von NV erwarten musste. Gerade aber die FarCry Performance finde ich nicht so prall. :kratz: Naja, wahrscheinlich werden spätere Verisonen mit schnellerem Speicher besser performen. Jedenfalls ist mir die 6800Ultra nicht so viel Wert, dass ich mehr als 400€ ausgeben würde.

Das 4*AA ist, wie von mir erwartet, dem 4*AA von ATI unterlegen, auch wenn nur minimal. Dafür performt es aber gut. :)

...

Und wer hier meint den NV40 zu glorifizieren zu müssen, dem würde ich mal zu Zurrückhaltung aufrufen. Der NV40 ist nicht schlecht, aber mich würde es nicht wundern, wenn schon der R420 mit 12 Pipes gleichzieht. Da bin ich mir sogar ziemlich sicher.

Wenn dann die 16Pipe Variante kommt, war´s das erstmal für den NV40 in Sachen Performancethron, außer NV reicht eine 6850Ultra nach, was mich nicht wundern würde.


Original geschrieben von SKYNET
und mir doch egal welcher hersteller.... jetzt ist NV könig, und wirde es auch bleiben :D
Klar, wenn DU mal kein Fanboy bist, dann weiß ich auch nicht.
Original geschrieben von SKYNET
*wuahahahahaha*

schläge unter die gürtellinie sind aber net dei englische feine aber gefallen tut mir sowas ungemein ;D

Mayhem
2004-04-14, 13:38:48
Original geschrieben von Gast
Dass er 7x schneller ist hab ich noch nicht gesehen. (Der R300 war vgl mit der Ti4600 beim chamäleonmark mit 4xAA und ordentlich hoher Auflösung wirklcih fast 7x schneller)

Ein weiterer Unterschied ist, dass das Konkurrenzprodukt nicht erst ein halbes Jahr später erscheint...

quelle?

Danny007
2004-04-14, 13:39:07
Hoffentlich sind die Karten nicht so laut. Ist richtig angenehm mit meiner 9600xt mit Heatpipe.

Gast
2004-04-14, 13:39:22
Original geschrieben von Exxtreme
Nun ja ... mal sehen wie der R420 sein wird. ;) Ich hoffe, ATi bietet auch 8x AA mit einem vernünftigen Samplemuster an. :D

Wenn die 6xAA/8xAA-Implementation des R420 bei den NextGen-Games performance-mäßig vertretbar sein wird, dann lässt sich darüber reden, aber eine Performance jenseits der Spielbarkeit lässt mich als Kunden kalt und dann kann man mir noch so viel von der schönen Qualität erzählen; es ist kein überzeugendes Argument/Feature.

Übrigens: schön herausgeredet ;)

Demirug
2004-04-14, 13:39:31
Original geschrieben von Mayhem
Ehrlich gesagt hat NVidia mit dem NV40 alles verbessert, was beim FX noch Kritik hervorgerufen hat. Am beeindruckendsten finde ich die Steigerung beim Pixelshader 2.0-Test.
Rein von den technischen Daten (Verdopplung der PixPipes + Steigerung RAM-Takt = 80%+ mehr Gesamtperformance) kann man jedoch davon ausgehen, dass ATIs HighEnd-Modell je nach Shader-Aufwand gleichschnell zur 6800Ultra werden wird.

Dafür dürften ATI-Karten deutlich preisgünstiger sein.

Weis eigentlich jemand, was es mit dem ps2.0b - Modell auf sich hat ?

2.B ist ein leicht vebessertes 2.0. Im Prinzip einfach nur längere Shader.

C4rn!vor
2004-04-14, 13:40:10
lol das teil is ja fast größer als mein ganzes mainboard ^^

Mayhem
2004-04-14, 13:40:48
Original geschrieben von Demirug
2.B ist ein leicht vebessertes 2.0. Im Prinzip einfach nur längere Shader.

Weisst Du zufällig, wer diese spezifiziert/eingeführt hat ?

avalanche
2004-04-14, 13:40:59
Original geschrieben von Gast
Ein weiterer Unterschied ist, dass das Konkurrenzprodukt nicht erst ein halbes Jahr später erscheint... Dann ist der NV40 eben drei Wochen lang eine Klasse für sich. Ist eingentlich schon etwas über den "effektiven" Markteintritt des NV40 gesagt worden, sprich: wann man "das Ding" kaufen kann?

Gast
2004-04-14, 13:41:13
AquaMark3 shows that DirectX 9.0 is indeed where the GeForce 6800 Ultra shines, it is 337% faster than the Radeon 9800 XT.

:banghead:

LovesuckZ
2004-04-14, 13:41:23
Original geschrieben von betareverse
Ich habe mir mehr erwartet. Der NV40 ist imo keine Enttäuschung, aber aus meiner Sicht hat er das absolute Minimum erreicht, was man von NV erwarten musste. Gerade aber die FarCry Performance finde ich nicht so prall. :kratz:

Hm, 70% schneller mit 4AA, finde ich hervorragend. Kann das heute eine Konkurenzkarte zeigen?

Und wer hier meint den NV40 zu glorifizieren zu müssen, dem würde ich mal zu Zurrückhaltung aufrufen. Der NV40 ist nicht schlecht, aber mich würde es nicht wundern, wenn schon der R420 mit 12 Pipes gleichzieht. Da bin ich mir sogar ziemlich sicher. Wenn dann die 16Pipe Variante kommt, war´s das erstmal für den NV40 in Sachen Performancethron, außer NV reicht eine 6850Ultra nach, was mich nicht wundern würde.


Später kommt immer was. Welchen Sinn hat es also, nicht jetzt den NV40 zu feiern? Wenn der r420 mit 16 Pipelines kommt, kann man genauso argumentieren, dass bald ein NV40 mit 500MHz erscheint.

Danny007
2004-04-14, 13:41:38
lol das teil is ja fast größer als mein ganzes mainboard ^^ Jo etwas gross, aber ich hoffe das ASUS und MSI sich da wieder eine gute Kühllösung einfallen lassen.

DasToem
2004-04-14, 13:42:24
Original geschrieben von C4rn!vor
lol das teil is ja fast größer als mein ganzes mainboard ^^

Das 'Teil' ist nicht größer als die 5950.

Winter[Raven]
2004-04-14, 13:43:34
Wenn dann die 16Pipe Variante kommt, war´s das erstmal für den NV40 in Sachen Performancethron, außer NV reicht eine 6850Ultra nach, was mich nicht wundern würde.


WO DU HABEN INFO ?

Demirug
2004-04-14, 13:44:05
Original geschrieben von Mayhem
Weisst Du zufällig, wer diese spezifiziert/eingeführt hat ?

Alle Shaderversionen/Profile werden von Microsoft eingeführt. 2.B ist für den R420.

Gast
2004-04-14, 13:44:20
Original geschrieben von DasToem
Das 'Teil' ist nicht größer als die 5950.

Ja, Bub, aber solche Kommentare waren zu erwarten.
Freue mich schon auf die Shredderei bezüglich des Kühlungsprinzips :glowface:

Gast
2004-04-14, 13:44:43
Original geschrieben von Mayhem
quelle?

nix Quelle. Lies dir einfach ein paar alte Reviews durch. Ausserdem ist das 7x sowieso glaubwürdig, v.A. wenn auch der NV35 im Chamäleonmark nicht an den R300 rankommt, und der NV25 auch shcon ohne Shader mit AA im Vergleich zum R300 abkackt

DrumDub
2004-04-14, 13:45:19
Original geschrieben von Aquaschaf
Ich sag nur: Abwarten. Wer diese Runde "gewonnen" hat wird sich erst noch zeigen.

zumindest bei ps-support hat nv in jedem falle gewonnen. beim af sehr wahrscheinlich auch. den rest wissen wir nicht.

Mayhem
2004-04-14, 13:45:39
Original geschrieben von Demirug
Alle Shaderversionen/Profile werden von Microsoft eingeführt. 2.B ist für den R420.

Danke.

Gast
2004-04-14, 13:46:32
Original geschrieben von LovesuckZ
Hm, 70% schneller mit 4AA, finde ich hervorragend. Kann das heute eine Konkurenzkarte zeigen?


Heute nicht. Aber in 2 Wochen!

Odal
2004-04-14, 13:47:21
Original geschrieben von Demirug
Ich gehe davon aus das der derzeitige Treiber auf solche Tricks noch verzichtet. Wahrscheinlich wird man sich erst einmal darauf konzentrieren das PS 3.0 native so gut wie möglich funktionieren und dann erst bei den 2.0 Shader mit optimierungen anfangen. Es hängt natürlich auch ein bischen davon ab was ATI mit dem R420 auf den Tisch legen wird.

dann darf man ja durchaus noch auf ein paar prozent mehr hoffen...

ich programmier zwar auch etwas in DX aber nix mit shader :D

meine frage daher: koennte es noch einen spuerbaren anstieg durch optimierungen von PS2.0 (nicht sachen die 3.0 dann unterstuetzen) durch 3.0 mittels shadercompiler geben oder waer das max. 3-5% aufs ganze game gesehen?

ich tippe naemlich auf einen nicht allzugrossen performancegewinn durch shaderoptimierungen im compiler (wenn man sich denn ueberhaupt traut sowas zu implementieren)

betasilie
2004-04-14, 13:49:54
Original geschrieben von LovesuckZ
Hm, 70% schneller mit 4AA, finde ich hervorragend. Kann das heute eine Konkurenzkarte zeigen?
Ich wollte das gerade verbessern. Die Werte in der Version1.1 sind druchaus gut. :up: ... Mich würde aber mal interessieren, wie es mit voller Präzision aussieht, denn in der Version 1.1 laufen die NV-Karten ja nicht mit voller Bumpmapping-Stufe, afaik.

Original geschrieben von LovesuckZ
Später kommt immer was. Welchen Sinn hat es also, nicht jetzt den NV40 zu feiern? Wenn der r420 mit 16 Pipelines kommt, kann man genauso argumentieren, dass bald ein NV40 mit 500MHz erscheint.
Nun, Du hast recht, dass man nicht Monate auf einen dubiosen Konkurrenten warten sollte, aber der R420 kommt in wenigen Tagen. ;) Und es geht ja auch nicht darum, auf irgendwelche Refreshchips zu warten, um dann 5% vor dem Konkurrenten zu liegen, sondern darum auf ATIs neuse Chipgeneration zu warten.

Gegen die 9800Pro/XT gewinnt der NV40, was ja wohl niemanden hier überraschen sollte.

Maximal 2 Wochen sollten schon drin sein, bevor man eine Aussage amcht, ob ATI oder NV das Rennen macht. ... Wenn ATI 3 Monate später kommen würde, wäre das eine lange Zeit, aber 2 Wochen?

...

Ob ich mir den NV40 oder den R420 kaufe entscheide ich jedenfalls in 2 Wochen, wobei es mich auch reizt mal wieder eine NV-Karte im Rechner zu haben. :D

SKYNET
2004-04-14, 13:51:04
Original geschrieben von LovesuckZ
Später kommt immer was. Welchen Sinn hat es also, nicht jetzt den NV40 zu feiern? Wenn der r420 mit 16 Pipelines kommt, kann man genauso argumentieren, dass bald ein NV40 mit 500MHz erscheint.

naja, warum wurde denn dann die NV25 mit der r300 verglichen.... kann man ja genauso sagen oder wie siehst du das ? ;)

wrdaniel
2004-04-14, 13:52:48
sieht doch schon mal ganz passabel aus. jetzt noch den R420 abwarten und dann die kaufen die das beste preis/leistungsverhaeltniss hat. denke mal schneller als meine nforce2 IGP sind sie alle mal.

TomatoJoe
2004-04-14, 13:54:06
puh endlich fertig 21 seiten gelesen.

skynet sei dir blos mal nicht so sicher das der nv lange der könig bleibt....

SKYNET
2004-04-14, 13:54:48
Original geschrieben von wrdaniel
denke mal schneller als meine nforce2 IGP sind sie alle mal.

ungefähr 3000% schneller ja.

SKYNET
2004-04-14, 13:57:35
Original geschrieben von TomatoJoe
puh endlich fertig 21 seiten gelesen.

skynet sei dir blos mal nicht so sicher das der nv lange der könig bleibt....

bin ich haber... weil wissen ist macht wie du weißt.

und darum bin ich agrade ziemlich mächtig ! ;)

und alle fakten sprechen gegen ATI.

aber evtl. solltest mal in gewissen anderen foren jenseits des atlatiks und pazifiks surfen ;)

betasilie
2004-04-14, 13:59:42
Original geschrieben von Winter[Raven]
Wenn dann die 16Pipe Variante kommt, war´s das erstmal für den NV40 in Sachen Performancethron, außer NV reicht eine 6850Ultra nach, was mich nicht wundern würde.
WO DU HABEN INFO ?
Keine Info, dass ist schlicht eine Einschätzung.

DrumDub
2004-04-14, 14:00:04
Original geschrieben von SKYNET
und alle fakten sprechen gegen ATI.


hochmut kommt immer vor dem fall... ;)

p.s.: wo sind denn die ati-fakten?

deekey777
2004-04-14, 14:00:14
Original geschrieben von LovesuckZ
Was sols besonderes am r420 sein?
16 Pipelines, 500MHz, wahrscheinlich 600MHz Speicher, 6-8RGMSAA, eventuell verbessertes AF, kein PS3.0, wahrscheinlich auch keine VS3.0.
XT version 20% schneller, Pro leicht hinter NV40.

Vielleicht kommt auch noch der "F-Buffer" dazu. ;D

Mayhem
2004-04-14, 14:00:45
Original geschrieben von Gast
nix Quelle. Lies dir einfach ein paar alte Reviews durch.

nö, warum sollte ich? liefer du doch einfach den link.

Ausserdem ist das 7x sowieso glaubwürdig, v.A. wenn auch der NV35 im Chamäleonmark nicht an den R300 rankommt, und der NV25 auch shcon ohne Shader mit AA im Vergleich zum R300 abkackt
ähmm, ich weiss jetzt nicht so ganz, was du mir damit sagen willst.
deine aussage (r300 7x schneller beim chmark) stimmt nur, wenn man 8xaf + aa auf nv25 und r300 aktiviert, da der nv25 nicht auf af optimiert ist. aber dann kann ich auch sagen, nv25 ist 10 mal schneller mit antialiasing als Radeon7500. macht genausoviel sinn.

Exxtreme
2004-04-14, 14:01:00
Original geschrieben von SKYNET
und alle fakten sprechen gegen ATI.

:lol: Welche _Fakten_ hast du denn, die wir nicht haben?

Gast
2004-04-14, 14:02:33
3Dcenter kann das Review ruhig zeigen,ihr könnt ja sagen das ihr die Sommerzeit vergessen habt ;)

Gast
2004-04-14, 14:02:46
Lasst doch endlich den Vergleich zwischen R300 zu GF4 bzw. NV25 sein.

Jetzt stellt sich eine ganz andere Situation dar. Der NV40 wurde heute vorgestellt und der R4xx wird in ein paar Tagen oder Wochen vorgestellt. Zu kaufen sind ja vielleicht sogar beide gleichzeitig.

Diese beiden Generationen muss man vergleichen, um für sich persönlich eine Entscheidung zu treffen, was besser ist. Alles andere ist Haarspalterei und zeigt lediglich die Fanatismus mancher Forums-Mitglieder auf.

PS: Damit soll niemand persönlich angesprochen werden.

ow
2004-04-14, 14:03:40
Original geschrieben von Mayhem

Dafür dürften ATI-Karten deutlich preisgünstiger sein.



Dass ist bei ATis technologischem Rueckstand auch dringend anzuraten, wenn sie die Karten verkaufen wollen.

deekey777
2004-04-14, 14:03:49
Original geschrieben von Exxtreme
:lol: Welche _Fakten_ hast du denn, die wir nicht haben?

Bald wird die Süsse auf deinem Avatar einen BH mit ATi Logo tragen?!

Die beiden "Reviews" sind für den Popo. Allein die Tatsache, dass 3D2003 mit einem FM not approved Treiber (60er) gelaufen ist, ist eine Frechheit. :bäh2:

SKYNET
2004-04-14, 14:03:54
Original geschrieben von Exxtreme
:lol: Welche _Fakten_ hast du denn, die wir nicht haben?

evtl. welche direkt aus canada ? oder dich auch taiwan ? evtl. USA ? oder war es dann doch JP ?

ich weiß nicht ;D

Gastxy
2004-04-14, 14:04:11
Original geschrieben von Gast
Lasst doch endlich den Vergleich zwischen R300 zu GF4 bzw. NV25 sein.

Jetzt stellt sich eine ganz andere Situation dar. Der NV40 wurde heute vorgestellt und der R4xx wird in ein paar Tagen oder Wochen vorgestellt. Zu kaufen sind ja vielleicht sogar beide gleichzeitig.

Diese beiden Generationen muss man vergleichen, um für sich persönlich eine Entscheidung zu treffen, was besser ist. Alles andere ist Haarspalterei und zeigt lediglich die Fanatismus mancher Forums-Mitglieder auf.

PS: Damit soll niemand persönlich angesprochen werden.

Schliesse mich an, es nervt!

Gast
2004-04-14, 14:05:05
Original geschrieben von Mayhem
nö, warum sollte ich? liefer du doch einfach den link.


ähmm, ich weiss jetzt nicht so ganz, was du mir damit sagen willst.
deine aussage (r300 7x schneller beim chmark) stimmt nur, wenn man 8xaf + aa auf nv25 und r300 aktiviert, da der nv25 nicht auf af optimiert ist. aber dann kann ich auch sagen, nv25 ist 10 mal schneller mit antialiasing als Radeon7500. macht genausoviel sinn.


Dann kauf dir doch die FX6800 Ultra :P

SKYNET
2004-04-14, 14:05:26
Original geschrieben von deekey777
Bald wird die Süsse auf deinem Avatar einen BH mit ATi Logo tragen?!

Die beiden "Reviews" sind für den Popo. Allein die Tatsache, dass 3D2003 mit einem FM not approved Treiber (60er) gelaufen ist, ist eine Frechheit. :bäh2:

loool, genau :lol:

Mayhem
2004-04-14, 14:05:56
Original geschrieben von Gast
Lasst doch endlich den Vergleich zwischen R300 zu GF4 bzw. NV25 sein.
PS: Damit soll niemand persönlich angesprochen werden.

sorry, hast natürlich recht, ich weiss ehrlich gesagt auch nicht, warum ich mich darauf eingelassen hab, wollte eigentlich nur die quelle wissen.

Demirug
2004-04-14, 14:06:49
Original geschrieben von Odal
dann darf man ja durchaus noch auf ein paar prozent mehr hoffen...

ich programmier zwar auch etwas in DX aber nix mit shader :D

meine frage daher: koennte es noch einen spuerbaren anstieg durch optimierungen von PS2.0 (nicht sachen die 3.0 dann unterstuetzen) durch 3.0 mittels shadercompiler geben oder waer das max. 3-5% aufs ganze game gesehen?

ich tippe naemlich auf einen nicht allzugrossen performancegewinn durch shaderoptimierungen im compiler (wenn man sich denn ueberhaupt traut sowas zu implementieren)

Das dürfte sehr individuel sein. Der Shader muss eben Code enthalten der nicht immer zum Endergebniss beiträgt. Sonst ist Branching ja zwegloss.

deekey777
2004-04-14, 14:06:50
Original geschrieben von ow
Dass ist bei ATis technologischem Rueckstand auch dringend anzuraten, wenn sie die Karten verkaufen wollen.

Und was ist mit dem F-Buffer der R350? Da bist du sprachlos.

Odal
2004-04-14, 14:07:51
Original geschrieben von deekey777
Bald wird die Süsse auf deinem Avatar einen BH mit ATi Logo tragen?!

Die beiden "Reviews" sind für den Popo. Allein die Tatsache, dass 3D2003 mit einem FM not approved Treiber (60er) gelaufen ist, ist eine Frechheit. :bäh2:

nun ja wer bestimmt denn was approved ist und was nicht?

futuremark...richtig...

und von wem wird futurmark bezahlt?

von den leuten die im projekt dabei sind...

und welche/welches unternehmen gibt da das meiste geld?...

....ganz genau....

Exxtreme
2004-04-14, 14:08:22
Original geschrieben von deekey777
Bald wird die Süsse auf deinem Avatar einen BH mit ATi Logo tragen?!

Aber selbstverständlich. :jedifire:

betasilie
2004-04-14, 14:08:26
Original geschrieben von ow
Dass ist bei ATis technologischem Rueckstand auch dringend anzuraten, wenn sie die Karten verkaufen wollen.
Kannst Du diese Flameversuche mal unterlassen?

Demirug
2004-04-14, 14:09:30
Original geschrieben von deekey777
Und was ist mit dem F-Buffer der R350? Da bist du sprachlos. :arsch2:

Von dem bis heute nur gesprochen wird. Gesehen hat in ausser ATI aber wohl noch keiner.

deekey777
2004-04-14, 14:11:28
Original geschrieben von Exxtreme
Aber selbstverständlich. :jedifire:

Na gut, dann eben gar kein BH!!!

Zu den FM Approved Treibern: Natürlich bestimmt das Futuremark selbst, um eine bessere Vergleichbarkeit gewährleisten zu können.

Gast
2004-04-14, 14:11:35
So wie die Curved Surfaces auf der GF3? Hat die jemals einer in Aktion erlebt?

Odal
2004-04-14, 14:12:33
Original geschrieben von Demirug
Das dürfte sehr individuel sein. Der Shader muss eben Code enthalten der nicht immer zum Endergebniss beiträgt. Sonst ist Branching ja zwegloss.

solche antwort hab ich schon befuerchtet :D

schade nur das man das von der praxis her erst in ein paar monaten sieht...

vielleicht koenntest du/ihr ja mal einen kurzen artikel schreiben wenn solche optimierungen in den compiler eingebaut wurden...

du hast doch mal mit einer software aus diversen spielen die shader auslesen lassen....

mich wuerde es sehr interessieren inwiefern man dadurch noch leistungssteigerungen hinbekommt (unter anderem waer abschaetzbar was Ati im worst case verpasst hat durch mangelnden shader 3.0 support)

Demirug
2004-04-14, 14:12:35
Original geschrieben von Gast
So wie die Curved Surfaces auf der GF3? Hat die jemals einer in Aktion erlebt?

Ja, es gab mal Treiber mit denen es so einigermassen funktioniert hat.

deekey777
2004-04-14, 14:12:54
Original geschrieben von Demirug
Von dem bis heute nur gesprochen wird. Gesehen hat in ausser ATI aber wohl noch keiner.

Pure Spekulation, aber vielleicht kommt er, oder ist es zu kompliziert, sprich angepasste Shader, blah, blah und ähnliches?

Odal
2004-04-14, 14:14:34
Original geschrieben von deekey777
Na gut, dann eben gar kein BH!!!

Zu den FM Approved Treibern: Natürlich bestimmt das Futuremark selbst, um eine bessere Vergleichbarkeit gewährleisten zu können.

du solltest auch die letzten zeilen meines postings lesen..und drueber nachdenken wer aus dem projekt mal ausgetreten ist und wer nicht....

Gast
2004-04-14, 14:14:53
GF3-Curved-Surfaces kein HOAX?????
Tatsache?? welche Treiber, welche demos, wo runtersaugen...
Wär ja goil

ow
2004-04-14, 14:15:29
Original geschrieben von deekey777
Und was ist mit dem F-Buffer der R350? Da bist du sprachlos.


Willst du uns hier irgendetwas mitteilen?

DrumDub
2004-04-14, 14:16:09
Original geschrieben von deekey777
Pure Spekulation, aber vielleicht kommt er, oder ist es zu kompliziert, sprich angepasste Shader, blah, blah und ähnliches?

nene. demi hat schon recht. das ding war mehr ne marketing geschichte, denn nen echtes feature.

abgesehen davon: technologisch (ps 3.0) ist nvidia weiter vorne (war ja schon mit dem nv30 so). performancetechnisch wissen wir noch garnix.

betasilie
2004-04-14, 14:17:07
Original geschrieben von ow
Willst du uns hier irgendetwas mitteilen?
Du hast das doch selber losgetreten. :|
Original geschrieben von ow
Dass ist bei ATis technologischem Rueckstand auch dringend anzuraten, wenn sie die Karten verkaufen wollen.
Oder war das mehr als ein Flameversuch, der schienbar gefruchtet hat?

deekey777
2004-04-14, 14:17:11
Original geschrieben von Odal
du solltest auch die letzten zeilen meines postings lesen..und drueber nachdenken wer aus dem projekt mal ausgetreten ist und wer nicht....

Da ich für die meisten meiner Posts lange Zeit brauche, passiert es, dass ich Posts anderer Leute verpasse. Zum Thema selbst: Warum ist denn nVidia aus dem Betaprogramm für einige Monate ausgestiegen (NV ist schon seit dem Spätsommer wieder dabei)?

DrumDub
2004-04-14, 14:17:33
Original geschrieben von SKYNET
und das wird auch nach vorstellung des r420 die NV40 bleiben.

jetzt sag uns soch mal, woher du diese gewissheit nimmst. ansonsten isses nämlich einfach nur nen sinnloser blick in die kristallkugel.

ow
2004-04-14, 14:18:37
Original geschrieben von betareverse
Kannst Du diese Flameversuche mal unterlassen?


Hast du irgendwas zu sagen?

Mayhem
2004-04-14, 14:19:12
Original geschrieben von deekey777
Pure Spekulation, aber vielleicht kommt er, oder ist es zu kompliziert, sprich angepasste Shader, blah, blah und ähnliches?

jetzt ohne prov. zu wollen. was würde dem r420 der f-buffer bringen ? IMHO dient dieser doch nur dazu längere shader zu "emulieren", oder liege ich da falsch ?
längere shader bringen aber doch eigentlich nur etwas (in relation zur performance, sprich gaming-bereich), wenn man auch dynamic branching unterstützt, da man dann mehrere shader in einen packen kann.

DrumDub
2004-04-14, 14:19:16
Original geschrieben von ow
Hast du irgendwas zu sagen?

hast DU irgednwas NEUES zu sagen?

betasilie
2004-04-14, 14:19:17
Original geschrieben von ow
Willst du uns hier irgendetwas mitteilen?
Du hast das doch selber losgetreten. :|
Original geschrieben von ow
Dass ist bei ATis technologischem Rueckstand auch dringend anzuraten, wenn sie die Karten verkaufen wollen.
Oder war das mehr als ein Flame, der scheinbar gefruchtet hat?

Ich erkenne da jedenfalls keine sachliche Aussage.

deekey777
2004-04-14, 14:19:21
Original geschrieben von ow
Willst du uns hier irgendetwas mitteilen?

"Uns"? Sprichst du von dir in Mehrzahl - ein Monarch? :D

Nein, ich wollte etwas auf die Bremse treten.

ow
2004-04-14, 14:19:47
Original geschrieben von deekey777
Pure Spekulation, aber vielleicht kommt er, oder ist es zu kompliziert, sprich angepasste Shader, blah, blah und ähnliches?

ich glaube Demirug hat es nicht noetig hier zu spekulieren!!

Gast
2004-04-14, 14:21:24
Jetzt geht das schon wieder los.

Bitte könnte man sich denn nicht mal aufs Thema konzentrieren und die agressiven Untertöne bleiben lassen?!

Odal
2004-04-14, 14:22:06
Original geschrieben von deekey777
Da ich für die meisten meiner Posts lange Zeit brauche, passiert es, dass ich Posts anderer Leute verpasse. Zum Thema selbst: Warum ist denn nVidia aus dem Betaprogramm für einige Monate ausgestiegen (NV ist schon seit dem Spätsommer wieder dabei)?

weils zu teuer war? bzw. man die performance der karten ja dann doch an den eigentlichen spielen sieht und nicht an einem 3DMurks...auch wenn sich nv nun wieder dieses marketingmittels bemaechtigt...

Gast
2004-04-14, 14:22:47
Original geschrieben von ow
ich glaube Demirug hat es nicht noetig hier zu spekulieren!!

ow,

siehst du nicht, daß hier mächtig viel Emotionen im Spiel sind? Selbst zuverlässige und seriöse Quellen werden zu Spekulaten degradiert, weil nicht das gesehen werden will, was kommt. Das bedeutet für manche hier schon das halbe Leben. Eine Grafikkarte bewegt sie mehr als ihr Leben außerhalb des PCs.

TinyFighter
2004-04-14, 14:23:24
He wie siehts eigentlich mit Games aus die die ganzen neuen Features der Karten nützen?Kommt da was in näherer Zukunft od. kann man vor Herbst eh nicht wirklich damit rechnen Sachen zu erleben die man zB mit einer Radeon 9800 Pro od. FX 5950 U nicht erlebt??

EDIT: Noch was warum geben Leute die Behauptungen aufstellen nicht einfach die Quellen per Links an so das sich alle davon überzeugen können?

Hier wird schon mehr provoziert als diskutiert...:(

Gast
2004-04-14, 14:24:33
Original geschrieben von Odal
weils zu teuer war? bzw. man die performance der karten ja dann doch an den eigentlichen spielen sieht und nicht an einem 3DMurks...auch wenn sich nv nun wieder dieses marketingmittels bemaechtigt...

Das gehört ins Spekulationsforum.

SKYNET
2004-04-14, 14:24:50
Original geschrieben von DrumDub
jetzt sag uns soch mal, woher du diese gewissheit nimmst. ansonsten isses nämlich einfach nur nen sinnloser blick in die kristallkugel.

ich sage garnix ohne mein anwalt :P

wirste noch frühgenug mitbekommen.

spätestens wenn die r420 gelauncht wird, und dann verstehst du auch was ich meine.

nur soviel: in der kleinen aber feinen riege der extrem OCer verbreiten sich gerüchte und fakten extreeemmmm schnell.

knapp 200 leute in der ICQ liste tragen im übrigen dazu bei. ;)

ow
2004-04-14, 14:25:13
Original geschrieben von betareverse
Du hast das doch selber losgetreten. :|

Oder war das mehr als ein Flameversuch, der schienbar gefruchtet hat?


Das ist eine Einschaetzung der Lage aufgrunde der derzeit bekannten Fakten/Geruechte.

Aber mal zu dir: was erwartest du denn von R420 bezueglich Leistung und Features wenn du ja von NV40 schon so enttaeuscht bist (oder war das etwa nur ein Flameversuch??)

Gast
2004-04-14, 14:28:43
Nebenbei:
Tief durchatmen Leute... (http://www.lifeline.de/cda/ci/text/show_print/0,1922,8206,00.html)

up

betasilie
2004-04-14, 14:31:04
Original geschrieben von ow
Das ist eine Einschaetzung der Lage aufgrunde der derzeit bekannten Fakten/Geruechte.

Aber mal zu dir: was erwartest du denn von R420 bezueglich Leistung und Features wenn du ja von NV40 schon so enttaeuscht bist (oder war das etwa nur ein Flameversuch??)
Bei einem Patt in Sachen Performance, also bei den relevanten Spielen, wie z.B. FarCry, HL2 (falls es noch diesen Monat kommt oder der Benchmark), UT2004, etc., muss ATI natürlich über den Preis argumentieren, keine Frage.

Wenn allerdings die jeweiligen ATI-Karten mindestens 10% schneller sind, als die NV-Karten im gleichen Preissegment, dann muss ATI mit Sicherheit nicht nicht über den Preis argumentieren, obwohl sie nur PS2.0 haben. Der technologische Rückstand ist zwar nicht toll, aber er wird wahrscheinlich zu Lebzeiten* der Karten keine große Rolle für den Gamer spielen.

Vielmehr ist es schade, dass ATI als Technolgiebremse fungiert, was man ihnen ankreiden kann.

*eine euphorischer Gamer wechselt sein Highendkarten ca. alle 12 Monate.

TinyFighter
2004-04-14, 14:31:18
Original geschrieben von TinyFighter
He wie siehts eigentlich mit Games aus die die ganzen neuen Features der Karten nützen?Kommt da was in näherer Zukunft od. kann man vor Herbst eh nicht wirklich damit rechnen Sachen zu erleben die man zB mit einer Radeon 9800 Pro od. FX 5950 U nicht erlebt??

EDIT: Noch was warum geben Leute die Behauptungen aufstellen nicht einfach die Quellen per Links an so das sich alle davon überzeugen können?

Hier wird schon mehr provoziert als diskutiert...:(

Bekommt man hier auf obig gestellte sachliche Frage noch eine Antwort od. seit ihr Super Informierten nur mehr mit streiten beschäftigt?
:( :-(

TomatoJoe
2004-04-14, 14:32:54
he skynet wenn du doch sooo gut informiert bist dann schreib doch in den spekulations threat was du weisst und reiss nich so die klappe auf

LovesuckZ
2004-04-14, 14:33:41
Igitt, der NV40 hat die selbe Winkelanhaengigkeit wie die ATi karte...
Oh my God, Nvidia :(

Gast
2004-04-14, 14:33:41
Low Precision auch bei Lock On?: http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/page7.asp

Radeonator
2004-04-14, 14:34:49
Original geschrieben von Exxtreme
Nun ja ... zur Technik zähle ich auch AA-Modi und die Qualität. Und so wie ich es sehe kann der NV40 nur bis 4x AA mit ATi mithalten. Gegen ATis 6x AA bietet NV nach 1,5 Jahren nichts, was mithalten kann. :D

:zzz: Noch lange weiter nV gebashed...ich schlaf bei sowas so leicht ein ;D

Schau dir mal die Screenshots an(HINT! :Kauf dir vorher aber ne gute Brille, du scheinst auf einem Auge etwas Blind ;) ) Die nV BQ ist eindeutig besser. Das 4xFSAA der xt wird um längen geschlagen , schau dir die wischi waschi Texturen gegen die gestochenen der nV40 an.

Wer braucht bei einem so guten 4xFSAA, 6x ? Ach ja, Morrowind mit 6xFSAA also...da mach mal bitte nen Screen aber net in 800x600 min Details, sondern min 1280x1024 max Details 16xAF + 6xFSAA (Fraps anschalten bitte)

avalanche
2004-04-14, 14:35:21
Original geschrieben von TinyFighter
Bekommt man hier auf obig gestellte sachliche Frage noch eine Antwort od. seit ihr Super Informierten nur mehr mit streiten beschäftigt?
:( :-( Es könnte rein theoretisch passieren, wenn, dann aber wahrscheinlich nicht, weil eine Seite technologisch überlegen ist, sondern eher, weil man genug "strategische Allianzen" mit Spieleherstellern geschlossen hat. Davon abgesehen wissen wir in eta 25 Minuten so oder so mehr -> 3DC-Artikel

Odal
2004-04-14, 14:36:00
Original geschrieben von betareverse
Wenn allerdings die jeweiligen ATI-Karten mindestens 10% schneller sind, als die NV-Karten im gleichen Preissegment, dann muss ATI mit Sicherheit nicht nicht über den Preis argumentieren..........


Der technologische Rückstand ist zwar nicht toll, aber er wird wahrscheinlich zu Lebzeiten* der Karten keine große Rolle spielen.

naja das kann man so sehn oder so sehn...der technologische rueckstand kann dann durchaus die (spekulativen) 10% vorsprung in der performance wieder zu nichte machen im laufe der zeit....

Gast
2004-04-14, 14:36:15
Hallo? GF3-Curved-Surfaces? Gebt mir doch bitte wenigstens ne grobe Richtungsangabe, nen alten Thread zum Thema...
Wäre doch jammerschade die NV20 in Rente zu schicken bevor man wirklich ALLES gesehen hat was sie kann...

betasilie
2004-04-14, 14:37:11
Original geschrieben von LovesuckZ
Igitt, der NV40 hat die selbe Winkelanhaengigkeit wie die ATi karte...
Oh my God, Nvidia :(
Das ist echt mies. Das größte Manko bei den ATI-Karten hat NV übernommen. :-[

Original geschrieben von Gast
Low Precision auch bei Lock On?: http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/page7.asp
Das war doch auch schon vorher so.

LovesuckZ
2004-04-14, 14:38:39
Original geschrieben von betareverse
Das ist echt mies. Das größte Manko bei den ATI-Karten hat NV übernommen. :-[


Ich hat recht gehabt...

LovesuckZ
2004-04-14, 14:38:39
Original geschrieben von betareverse
Das ist echt mies. Das größte Manko bei den ATI-Karten hat NV übernommen. :-[


Ich hat recht gehabt...

betasilie
2004-04-14, 14:39:35
Original geschrieben von Odal
naja das kann man so sehn oder so sehn...der technologische rueckstand kann dann durchaus die (spekulativen) 10% vorsprung in der performance wieder zu nichte machen im laufe der zeit....
Klar, deswegen sehe ich 10% Performancevorteil für ATI auch als Pflicht an bei gleichem Preis, ansonsten wird NV mit PS3.0 davonziehen, und dass dann auch zurecht.

TinyFighter
2004-04-14, 14:40:23
THX für die zahlreichen Antworten:asshole:

Odal
2004-04-14, 14:40:55
Original geschrieben von LovesuckZ
Ich hat recht gehabt...

naja ich bin mir nicht so sicher ob er einer war der meinte die winkelabhaengigkeit sieht man nicht...



bei den BQ vergleichen fiel mir das schlechtere AF als bei der 5950u jedenfalls sofort auf beim nv40...

ow
2004-04-14, 14:40:56
Original geschrieben von Gast
ow,

siehst du nicht, daß hier mächtig viel Emotionen im Spiel sind? Selbst zuverlässige und seriöse Quellen werden zu Spekulaten degradiert, weil nicht das gesehen werden will, was kommt. Das bedeutet für manche hier schon das halbe Leben. Eine Grafikkarte bewegt sie mehr als ihr Leben außerhalb des PCs.

Ja, ich kann das deutlich erkennen.
Manche Leute sind scheinbar so. Schade drum.

LovesuckZ
2004-04-14, 14:41:15
Die neue Colorcompression ist verdammt gut:
http://www20.tomshardware.com/graphic/20040414/feforce_6800-28.html

Doppelt so schnell und das nur mit 15% mehr Speichertakt zur 5950U!

Demirug
2004-04-14, 14:41:56
Original geschrieben von Gast
Hallo? GF3-Curved-Surfaces? Gebt mir doch bitte wenigstens ne grobe Richtungsangabe, nen alten Thread zum Thema...
Wäre doch jammerschade die NV20 in Rente zu schicken bevor man wirklich ALLES gesehen hat was sie kann...

Muss einer der ersten GF3 tauglichen Treiber gewesen sein.

betasilie
2004-04-14, 14:42:15
Original geschrieben von Radeonator
Schau dir mal die Screenshots an(HINT! :Kauf dir vorher aber ne gute Brille, du scheinst auf einem Auge etwas Blind ;) ) Die nV BQ ist eindeutig besser. Das 4xFSAA der xt wird um längen geschlagen ...
Wie bitte? Ich würde sagen Du hast was an den Augen. Das 4*AA der beiden Karten ist fast gleichwertig. Wenn überhaupt hat ATI auf den Screenshoots, die ich bis jetzt gesehen, einen kleinen Vorteil.

Und das AF von NV ist nur minimal überlegen.

Also dürfte man da von einem Patt sprechen in Sachen IQ zwischen NV40 und R3xx. Und was der R420 bringt weiß ich jedenfalls noch nicht.

LovesuckZ
2004-04-14, 14:42:52
Original geschrieben von Odal
naja ich bin mir nicht so sicher ob er einer war der meinte die winkelabhaengigkeit sieht man nicht...

Natuerlich fällt das auf.
Ist son Mist. Gut, es gibt noch ein high Quality Button, hoffen wir, dass hier die Winkelabhaengigkeit weg ist. Zum Benchen ist es ja okay, aber nicht, bei einer Karte mit fast der doppelten Filrate zur 9800XT!
Son Mist, ich könnt echt kotzen, dass Nvidia das wirklich gemacht hat...

Argo Zero
2004-04-14, 14:43:08
Original geschrieben von LovesuckZ
Igitt, der NV40 hat die selbe Winkelanhaengigkeit wie die ATi karte...
Oh my God, Nvidia :(

Lässt sich durch einen SS,MS-AA Mix ausgleichen.

Odal
2004-04-14, 14:43:57
Original geschrieben von LovesuckZ
Die neue Colorcompression ist verdammt gut:
http://www20.tomshardware.com/graphic/20040414/feforce_6800-28.html

Doppelt so schnell und das nur mit 15% mehr Speichertakt zur 5950U!

hab ich auch schon mehrmals angemerkt das sie sich trotz starker bandbreitenlimitierung erstaunlich gut schlaegt mit AA

san.salvador
2004-04-14, 14:44:57
Original geschrieben von Gast
Low Precision auch bei Lock On?: http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/page7.asp
Mir scheint der Gast hat Recht! Zumindest scheints bei der Großaufnahme der Heckflügel so zu sein.

Gast
2004-04-14, 14:45:05
Original geschrieben von LovesuckZ
Ich hat recht gehabt...

Es gibt wohl beide Arten AF, so wie ich das hier verstehe :
http://www.beyond3d.com/forum/viewtopic.php?p=254860#254860

ow
2004-04-14, 14:45:26
Original geschrieben von betareverse
Bei einem Patt in Sachen Performance, also bei den relevanten Spielen, wie z.B. FarCry, HL2 (falls es noch diesen Monat kommt oder der Benchmark), UT2004, etc., muss ATI natürlich über den Preis argumentieren, keine Frage.

Wenn allerdings die jeweiligen ATI-Karten mindestens 10% schneller sind, als die NV-Karten im gleichen Preissegment, dann muss ATI mit Sicherheit nicht nicht über den Preis argumentieren, obwohl sie nur PS2.0 haben. Der technologische Rückstand ist zwar nicht toll, aber er wird wahrscheinlich zu Lebzeiten* der Karten keine große Rolle für den Gamer spielen.

Vielmehr ist es schade, dass ATI als Technolgiebremse fungiert, was man ihnen ankreiden kann.

*eine euphorischer Gamer wechselt sein Highendkarten ca. alle 12 Monate.



10% werden ATi bei weitem nicht reichen im gleichen Preissegment. Damit locken sie allenfalls ein paar fanboys oder Schwanzmark -Verrueckte, mehr nicht.
Ist nicht zukunftssicherheit immer das Argument der ganzen Gamer im Boards hier gewesen? Nun, dann muessten sie wohl zwangsweise zu NV wechseln, weil der technologische Rueckstand Atis durchaus ein entscheidene Rolle spielen wird.

SKYNET
2004-04-14, 14:45:29
http://www.tomshardware.com/graphic/20040414/index.html

thg hat die NDA gekickt... nur wir sind wieder die braven *grr*

san.salvador
2004-04-14, 14:52:03
Hier hat man also gespart! :D
http://www.tomshardware.com/graphic/20040414/images/video-hdtv.gif

Gast
2004-04-14, 14:52:04
Original geschrieben von Demirug
Muss einer der ersten GF3 tauglichen Treiber gewesen sein.

Die 21er Serie oder eher der 16er? Und wo krieg ich ne lauffähige Demo? Gibt es da denn keinen uralten Thread hier, der sich genau darum dreht? Und wieso ist es aus den Treibern verschwunden? Hat der GF4 die dafür nötigen Einheiten nicht mehr? Fragen über Fragen! Nur wo haben sich die Antworten versteckt?

Gast
2004-04-14, 14:52:53
Original geschrieben von Argo Zero
Lässt sich durch einen SS,MS-AA Mix ausgleichen.

Hat sicher Leo auch so ins Review geschrieben ;D

LovesuckZ
2004-04-14, 14:54:54
Aehm, wie war das mit farcry:
http://www.tomshardware.com/graphic/20040414/feforce_6800-41.html

Nvidia ist mit den MinFPS fast doppelt so schnell wie die 5950U mit maxFPS. Also ein guter Wurf, dem Nvidia da gelungen ist.

/edit: Indoor, wo die meisten PS2.x eingesetzt werden.
Achso, ich denke, das Forum haelt den Ansturm nicht aus. :)

Iceman346
2004-04-14, 14:54:54
Original geschrieben von Argo Zero
Lässt sich durch einen SS,MS-AA Mix ausgleichen.

Davon gibts nur einen (4x MSAA + 2x SSAA) und damit haben wir endgültig einen ziemlichen Gleichstand bei der Bildqualität.
Sowohl der AA als auch der AF Unterschied sind minimal (sofern man das brilinear bei Nvidia deaktiviert und ATi auf volles Trilinear zwingt).
Vom Standpunkt der Vergleichbarkeit her schön, vom Standpunkt des "maximale IQ haben wollens" her natürlich sehr unschön :(

Demirug
2004-04-14, 14:55:01
Original geschrieben von Gast
Die 21er Serie oder eher der 16er? Und wo krieg ich ne lauffähige Demo? Gibt es da denn keinen uralten Thread hier, der sich genau darum dreht? Und wieso ist es aus den Treibern verschwunden? Hat der GF4 die dafür nötigen Einheiten nicht mehr? Fragen über Fragen! Nur wo haben sich die Antworten versteckt?

Es gab mal was im DX SDK (die Teekanne).

GF4 kann das nicht mehr und bei der Gf3 hat es auch nicht 100$ Zuverlässig funktioniert.

DrumDub
2004-04-14, 14:55:17
Original geschrieben von LovesuckZ
Gut, es gibt noch ein high Quality Button, hoffen wir, dass hier die Winkelabhaengigkeit weg ist.

sieht nicht so aus: http://www20.tomshardware.com/graphic/20040414/feforce_6800-44.html

oder meintest du "high quality" button nicht "trilinear optimizaitions off"?

betasilie
2004-04-14, 14:55:35
Original geschrieben von ow
10% werden ATi bei weitem nicht reichen im gleichen Preissegment. Damit locken sie allenfalls ein paar fanboys oder Schwanzmark -Verrueckte, mehr nicht.
Ist nicht zukunftssicherheit immer das Argument der ganzen Gamer im Boards hier gewesen? Nun, dann muessten sie wohl zwangsweise zu NV wechseln, weil der technologische Rueckstand Atis durchaus ein entscheidene Rolle spielen wird.
Ok, darüber lässt sich wohl streiten. Ich denke, dass ab 10% Performancevorteil der Vorteil bei ATI liegt.

Zukunftsicherheit? Du willst doch nicht ernsthaft behaupten, dass eine hochperformante PS2.0-Karte nicht zukunftsicher ist? Imho ist sie auf die nächsten 18 Monate gesehen mindestens genauso zukunftsicher, wie eine weniger performante PS3.0-Karte. ... Laut vielen Fachleuten werden die PS3.0-Fähigkeiten eines NV40 in absehbarer Zeit beinahe ausschließlich zum Beschleunigen von PS2.0-Effekte benutzt werden. Also gibt es kaum einen Grund eine langsamerer PS3.0 einer schnelleren PS2.0-Karte vorzuziehen, da es PS3.0 ggf. nur etwas mehr Speed bringt.

Demirug
2004-04-14, 14:57:14
Original geschrieben von LovesuckZ
Aehm, wie war das mit farcry:
http://www.tomshardware.com/graphic/20040414/feforce_6800-41.html

Nvidia ist mit den MinFPS fast doppelt so schnell wie die 5950U mit maxFPS. Also ein guter Wurf, dem Nvidia da gelungen ist.

Die Shader wären teilweise noch schneller wenn die Bandbreite mitkommen würde.

LovesuckZ
2004-04-14, 14:59:18
Original geschrieben von Demirug
Die Shader wären teilweise noch schneller wenn die Bandbreite mitkommen würde.

Eine Frage: Wenn man FP16 einsetzt, wird dann der Speicherbedarf gesenkt? Weil in Halo ist die Karte drei mal so schnell wie eine 9800XT. Und da Nvidia selbst angibt, dass es keinen Leistungsverlust bei FP32 gaebe, koennte das hinhaun.

r3DrUm
2004-04-14, 14:59:32
Schade das es noch keine Benchmarks zu Programmble Video Prozessor (PVP) gibt. Was meint ihr wird es viel bringen ? So wie ich gelesen habe, sollen dabei mehr als 60 % der Arbeit von der cpu an die gpu übergeben werden.

betasilie
2004-04-14, 14:59:53
Original geschrieben von LovesuckZ
Aehm, wie war das mit farcry:
http://www.tomshardware.com/graphic/20040414/feforce_6800-41.html

Nvidia ist mit den MinFPS fast doppelt so schnell wie die 5950U mit maxFPS. Also ein guter Wurf, dem Nvidia da gelungen ist.
Wichtig ist aber wie schon gesagt zu beachten, dass die Bildqualität der nVidia-karten nicht an die ATI-Karten ran kommt, da sie mit weniger Präzision arbeiten.

The Radeon 9800XT offers a higher image quality in Farcry. It´s unsure how much the GeForce 6800 Ultra benefits from the lower-precision shaders. See Image Quality in this article for more details.
THG
http://www20.tomshardware.com/graphic/20040414/feforce_6800-46.html

Gast
2004-04-14, 15:01:03
Tomshardware Review ist nicht gut,die Werte von Farcry sind Quatsch,da hab ich ja mehr.

http://www20.tomshardware.com/graphic/20040414/images/image063.gif

Gast
2004-04-14, 15:01:27
Original geschrieben von Demirug
Es gab mal was im DX SDK (die Teekanne).

GF4 kann das nicht mehr und bei der Gf3 hat es auch nicht 100$ Zuverlässig funktioniert.

Also Hardwarebug oder Firmenpolitik... MIST! Tja, auf jeden Fall danke für die Antwort.

avalanche
2004-04-14, 15:02:39
Original geschrieben von Demirug
Die Shader wären teilweise noch schneller wenn die Bandbreite mitkommen würde. Shader sind bandbreitenlimitiert? Bitte um Aufklärung ;)

Demirug
2004-04-14, 15:02:52
Original geschrieben von LovesuckZ
Eine Frage: Wenn man FP16 einsetzt, wird dann der Speicherbedarf gesenkt? Weil in Halo ist die Karte drei mal so schnell wie eine 9800XT. Und da Nvidia selbst angibt, dass es keinen Leistungsverlust bei FP32 gaebe, koennte das hinhaun.

Das ist kein FP16/FP32 Problem. Die Bandbreite zum framebuffer (nur 32 Bit RGBA) reicht nicht.

aths
2004-04-14, 15:04:24
Original geschrieben von LovesuckZ
Eine Frage: Wenn man FP16 einsetzt, wird dann der Speicherbedarf gesenkt? Weil in Halo ist die Karte drei mal so schnell wie eine 9800XT. Und da Nvidia selbst angibt, dass es keinen Leistungsverlust bei FP32 gaebe, koennte das hinhaun. Hinhauen muss das nicht unbedingt.

Bitte nicht alles glauben, was das Marketing erzählt. Natürlich ist FP16 insgesamt noch schneller, als FP32. Lediglich (fast) alle Rechnungen sind genauso schnell, aber die Gesamtperformance ergibt sich nicht nur aus der Rechengeschwindigkeit arithmetischer Shader-Instruktionen.

Demirug
2004-04-14, 15:05:57
Original geschrieben von avalanche
Shader sind bandbreitenlimitiert? Bitte um Aufklärung ;)

Zum einen greifen Shader auf texturen zu und zum anderen muss das Ergebniss auch gespeichert werden. Wenn die Einheiten nun schneller rechnen als man die Ergebnisse speichern kann ist der Shader bandbreitenlimitiert.

Odal
2004-04-14, 15:07:08
Original geschrieben von r3DrUm
Schade das es noch keine Benchmarks zu Programmble Video Prozessor (PVP) gibt. Was meint ihr wird es viel bringen ? So wie ich gelesen habe, sollen dabei mehr als 60 % der Arbeit von der cpu an die gpu übergeben werden.

die gibts doch schon...auf tomshardware....

und ja es bringt was ;)