PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NV40 ist da! / NDA-Brecher (merged)


Seiten : [1] 2 3

nagus
2004-04-13, 15:43:01
http://www.ixbt-labs.com/news.html?103841#103841

"At least NVIDIA recommends testers to use 480W"

... oh mein gott. :crazy:

Radeonator
2004-04-13, 15:53:11
Bei der 9700 wurde "damals" 350Watt empfohlen, warum kam da von dir kein...ach ja ;D

Hast abo recht, Stromfresser de luxe!

Erstmal erste Benchies abwarten und schauen was kommt.

p.s.: Diesee Demo screenshot sieht zum anbeissen aus. Diese Haarpracht in Echtzeit...WOW!!!

nagus
2004-04-13, 15:55:18
wieviel % der user haben bitte ein 480watt netzteil?
... und 400Mhz für die Ultra oder für die normale 6800er?

ow
2004-04-13, 15:56:49
Original geschrieben von nagus
wieviel % der user haben bitte ein 480watt netzteil?
... und 400Mhz für die Ultra oder für die normale 6800er?

300W reichen.
Sagt Leonidas, der eine NV40 zum Testen hat.

Roadkill
2004-04-13, 15:59:12
480 Watt Noname
300 Watt Marke

Ich denke so kann mans stehen lassen.

P.S. Die Watt Zahl interessiert mal so gar nicht.

Radeonator
2004-04-13, 15:59:48
Original geschrieben von nagus
wieviel % der user haben bitte ein 480watt netzteil?
... und 400Mhz für die Ultra oder für die normale 6800er?

Wer sich die 6800er Leisten kann, wird wohl wegen eines Netzteils nicht unbedingt ne Träne vergiessen ;)

Super Grobi
2004-04-13, 16:02:04
Mit den 480 Watt ist die Karte für mich gestorben. (Leider)

Ich hab mir gerade erst ein Antec True430 gekauft (75 Euro) und kaufe mir gaaaaaaaaaaanz bestimmt nicht wieder ein neues.

SG

ow
2004-04-13, 16:02:57
Original geschrieben von Roadkill

P.S. Die Watt Zahl interessiert mal so gar nicht.

Das auch.
Zumal die Wattzahlen bei viele NT-Herstellern schneller zu steigen scheinen als die tatsaechliche Leistungsfaehigkeit ihrer NTs.:D

BlueRaven
2004-04-13, 16:03:01
gut das ich 480Watt TAGAN habe.

pervert
2004-04-13, 16:03:47
Am besten ein 300W noname netzteil hihihi

edit: oops, da waren einige schneller :)

Sphinx
2004-04-13, 16:06:28
400 Mhz GPU Takt für alle Modelle sowie ich es herausinterpretiere und nur der Speichertakt variert je nach Ultra...

MegaManX4
2004-04-13, 16:24:29
Zumal auf Leo's Netzteil nicht mal was drauf steht. Da gehe ich mal von 'nem 300 Watt Noname Netzteil aus.

Hartogh
2004-04-13, 16:26:49
Was haben die 2x12v Anschlüsse eigentlich für einen Sinn !? Ich kann doch aus einem 12v Anschluss genauso viel Ampere ziehen wie aus zweien !? Am besten liegt da dann noch eine Kabelpeitsche bei ;D

pervert
2004-04-13, 16:31:03
Original geschrieben von Hartogh
Was haben die 2x12v Anschlüsse eigentlich für einen Sinn !? Ich kann doch aus einem 12v Anschluss genauso viel Ampere ziehen wie aus zweien !? Am besten liegt da dann noch eine Kabelpeitsche bei

Du musst zwei Kabelstränge aus dem NT nehmen und am besten nichts weiteres daran anschließen, sonst schmoren Dir Stecker oder Kabel weg!

Wird bestimmt witzig werden, mit den ganzen verschmorten PCs, wenn das Teil erstmal Massenware wird :D :D :D

Computer Bild titelt dann: "Wohnung abgebrannt wegen NVidia Grafikkarte" ;D ;D ;D ;D ;D

Eraser 87
2004-04-13, 16:33:02
zieht euch mal das bild rein http://www.digit-life.com/news.html?103832#103832

BlueRaven
2004-04-13, 16:35:53
sieht für mich monsterhaft geil aus.

ow
2004-04-13, 16:36:06
Original geschrieben von pervert
Du musst zwei Kabelstränge aus dem NT nehmen und am besten nichts weiteres daran anschließen, sonst schmoren Dir Stecker oder Kabel weg!



Du kannst diese Behauptung auch sicher belegen, oder?

Eraser 87
2004-04-13, 16:42:36
http://www.digit-life.com/news.html?103799#103799 hier stehen auch preise! 299 $ für die 6800 und 399$ für die ultra,... das geht eigentlich

MadMan2k
2004-04-13, 16:43:43
Original geschrieben von Eraser 87
zieht euch mal das bild rein http://www.digit-life.com/news.html?103832#103832
lol, super Kühlung; pustet die wareme Luft wieder zurück ins Gehäuse... ;D

AlfredENeumann
2004-04-13, 16:44:34
Original geschrieben von Eraser 87
http://www.digit-life.com/news.html?103799#103799 hier stehen auch preise! 299 $ für die 6800 und 399$ für die ultra,... das geht eigentlich

Die angegeben Dollarpreise sind generell immer Nettopreise.

LovesuckZ
2004-04-13, 16:45:12
Original geschrieben von MadMan2k
lol, super Kühlung; pustet die wareme Luft wieder zurück ins Gehäuse... ;D

Hm, ist doch immer so?

BlueRaven
2004-04-13, 16:45:23
hoffe das es diesesmal ordentliche Preise gibt.

LovesuckZ
2004-04-13, 16:47:03
Original geschrieben von nagus
wieviel % der user haben bitte ein 480watt netzteil?

Genau soviele, die sich herzhaft gerne suendhaft teure PC Komponennten kaufen und diese nicht wegen einen reichlich zu klein dimensonierten Netzteil schrotten wollen.


... und 400Mhz für die Ultra oder für die normale 6800er?

400Mhz Ultra, normale Version wahrscheinlich 350.

Eraser 87
2004-04-13, 16:49:23
Original geschrieben von LovesuckZ



400Mhz Ultra, normale Version wahrscheinlich 350.

http://www.digit-life.com/news.html?103799#103799 hier steht für die non ultra up to 400 Mhz und für die ultra over 400 Mhz

Winter[Raven]
2004-04-13, 16:50:45
so wie ich es verstanden habe haben die halt die NON Ultra, die ist eine 1 Slot Lösung, und mit 400 Getaktet. Am Ende schreiben die dass die ultra ein 2 Slot Kühllösung bekommt.

Also muss man annehmen die ultra wird höhr getaktet.

MadMan2k
2004-04-13, 16:51:30
Original geschrieben von LovesuckZ
Hm, ist doch immer so?
bei Axiallüftern, ja, da kann man es auch schlecht anders machen.
aber alle größeren (halb)radiallüfter waren intelligenter:

http://www.geizhals.at/img/pix/68908.jpg
http://www.geizhals.at/img/pix/69426.jpg

LovesuckZ
2004-04-13, 16:52:03
Original geschrieben von Eraser 87
http://www.digit-life.com/news.html?103799#103799 hier steht für die non ultra up to 400 Mhz und für die ultra over 400 Mhz

Lies dir den Thread über den NV40 (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=131643) im Spekulations-Forum durch, dann wirst du sehen, dass Nvidia Karten mit 400MHz an die tester schickt.

LovesuckZ
2004-04-13, 16:55:09
Beim NV38 bin ich mich nicht sicher, ob er die kalte Luft von außen ansaugt und diese ins Gehaeuse abgibt...

RyoHazuki
2004-04-13, 16:56:46
Alle seelen die sich erst vor kurzem eine XT oder gleiches gekauft haben, die tuhen mir unendlich leid....


Zum Topic:

Nvidia scheint bewusst den takt niedrig zu halten... hab ich das gefühl.

dafür sprechen :

- Höhere Yield rate
- 6900 Version wird dann höher getaktet, damit auch wirklich eine differenz zwischen 6800 und evtl. 6900 besteht.

Ich dachte eigentlich das NV40 packet kommt mit min 550 daher, 400 ist entäuschend.... wobei es dafür 16 Pipes sind, naja wir werden sehen.

@ Leondias

Ist sie entäuschend ???

Super Grobi
2004-04-13, 16:57:55
Am besten finde ich die Komentare: "die 480Watt gelten nur für Noname NT´s" oder "Es läuft bei Leo mit einem 300 Watt NT" (änlihcer Wortlaut)

LEUTE: Man kann auch mit Reifen die nur bis 210km/h zugelassen sind auch 260km/h fahren. Man sollte sich aber nicht wundern wenn es dann BUMMST.

Genauso ist das mit den NT. Ich freue mich schon auf die Theads "GF6800 stürzt beim zocken immer ab" oder "Mein NT ist abgeraucht"

:D

SG

Gast
2004-04-13, 16:58:15
http://www.ixbt.com/short/2k4-04/V9999_1.jpg
Soll eine ASUS V9999 on GeForce 6800 Ultra sein;
und wo sind die extra poweranschlüsse geblieben?

up

Winter[Raven]
2004-04-13, 16:58:23
Ist sie entäuschend ???

Ich bin nicht Leo, aber ein Vögelchen Zwitscherte sowas zu:

EXTREM CREMIGES TEIL.

Gast
2004-04-13, 16:59:23
Ich meinte diese Karte:
http://www.digit-life.com/news.html?103832

up

Eraser 87
2004-04-13, 17:00:58
das ist ja ne halbe photomontage wie auch im text steht deshalb das fehlen, der monitoranschluss fehlt ja auch

Gast
2004-04-13, 17:02:29
jo, vollkommener Fake.

dildo4u
2004-04-13, 17:05:09
Original geschrieben von nagus
http://www.ixbt-labs.com/news.html?103841#103841

"At least NVIDIA recommends testers to use 480W"

... oh mein gott. :crazy: gelöcht bin gespannt ob die noch mal eine karte bekommen*g*

r@e
2004-04-13, 17:18:26
Original geschrieben von dildo4u
gelöcht bin gespannt ob die noch mal eine karte bekommen*g* Sind wohl etwas zu früh damit heraus gekommen...
...und haben damit ihr NDA gebrochen.

Razor

r@e
2004-04-13, 17:20:11
Original geschrieben von AlfredENeumann
Die angegeben Dollarpreise sind generell immer Nettopreise. Jo, und wenn man sich den derzeitigen $-zu-€ Wechselkurs anschaut, dann kann man gleich $-netto zu €-brutto nehmen. Egro: 299€ für die nU, 399€ für die U, gell ?
:D

Razor

RyoHazuki
2004-04-13, 17:23:51
Original geschrieben von Winter[Raven]
Ich bin nicht Leo, aber ein Vögelchen Zwitscherte sowas zu:

EXTREM CREMIGES TEIL.


Hoffentlich passiert das was ich erwarte, dann sage ich nur noch ....

...

...

...

...

...


DU BIST MEINS NV40 !

Habe erst nen 3,2 GHZ Prescott bestellt, jetzt muss ich noch soviel geld für nen NV40 auftreiben, da fehlen mir jetzt 300 Euronen.... Wird irgendwie schon klappen, meine mami schuldet mir noch 200 das geht scho irgendiwe !

HEHEHEHEHEHE

edit: jetzt muss ich meine signatur ändern, da der Deltachrome nichts für mich ist.... tja.

RyoHazuki
2004-04-13, 17:27:00
Original geschrieben von r@e
Jo, und wenn man sich den derzeitigen $-zu-€ Wechselkurs anschaut, dann kann man gleich $-netto zu €-brutto nehmen. Egro: 299€ für die nU, 399€ für die U, gell ?
:D

Razor

naja,

die ultra wird wohl trotzdem 500 euro kosten, bei unserer preispolitik hier in Germany...

Ich frag mich wieviel Chips pro wafer es heil überstehen, und wieviel Nvidia so ein chip kostet, hat da jemand nen anhaltspunkt oder ne ca. formel ?

dildo4u
2004-04-13, 17:28:24
Original geschrieben von RyoHazuki
Hoffentlich passiert das was ich erwarte, dann sage ich nur noch ....

...

...

...

...

...


DU BIST MEINS NV40 !

Habe erst nen 3,2 GHZ Prescott bestellt, jetzt muss ich noch soviel geld für nen NV40 auftreiben, da fehlen mir jetzt 300 Euronen.... Wird irgendwie schon klappen, meine mami schuldet mir noch 200 das geht scho irgendiwe !

HEHEHEHEHEHE

edit: jetzt muss ich meine signatur ändern, da der Deltachrome nichts für mich ist.... tja. mein bescheidener tipp spar noch ein monat und wart ab was ati bringt dann kannste immer noch entscheiden ;-)

r@e
2004-04-13, 17:34:01
Original geschrieben von RyoHazuki
die ultra wird wohl trotzdem 500 euro kosten, bei unserer preispolitik hier in Germany...Das wär' das erste mal, sorry.
Aber warten wir halt einfach noch ein Monaterl...
;-)

Razor

Bassu
2004-04-13, 17:42:29
Wenn Leo schon einen NV40 testet, müsste doch heute omg mojen früh um 4 der test online sein oder? *hoff*

dildo4u
2004-04-13, 17:50:03
Original geschrieben von Bassu
Wenn Leo schon einen NV40 testet, müsste doch heute omg mojen früh um 4 der test online sein oder? *hoff* bei den 3dcenter tests geht eigentlich immer um vernünftige vergleiche mit Bild Quality checks und so weiter und nicht darum der allererste mit dem test zu sein

TomatoJoe
2004-04-13, 17:58:07
ich kann nicht glauben das die grakas soooooo billig werden.

Crushinator
2004-04-13, 18:22:16
Da die Seite von Digit-Life inzwischen vom Netz genommen wurde, gibt's hier (http://frankenstein.evilgeniuslabs.com/~pszuch/nv40/news.html) ein mirror.

pervert
2004-04-13, 18:23:48
Original geschrieben von TomatoJoe
ich kann nicht glauben das die grakas soooooo billig werden.


Werden sie auch nicht!

Die Preise von 299 und 399 stammen vom inquirer und damit sind vermutlich nur die CHIP-Preise(?) gemeint.

Ich schätze die Karten steigen bei 500-700 Euro ein.

Das mit der Verkabelung (2 Stränge) stand auch so irgendwo beim Inquirer. Macht auch Sinn, wenn man auf Nummer Sicher gehen will.

Börk
2004-04-13, 18:49:30
Original geschrieben von pervert
Werden sie auch nicht!

Die Preise von 299 und 399 stammen vom inquirer und damit sind vermutlich nur die CHIP-Preise(?) gemeint.

Ich schätze die Karten steigen bei 500-700 Euro ein.

Das mit der Verkabelung (2 Stränge) stand auch so irgendwo beim Inquirer. Macht auch Sinn, wenn man auf Nummer Sicher gehen will.
dir ist schon klar, dass der momentan teuerste Chip für rund 100$ verkauft wird. 300-400$ wären da etwas viel und hätten wohl Preise von rund 800€ als Folge...

pervert
2004-04-13, 19:11:10
Ich weiß, das der "XT"-Chip für 100$ verkauft wird, dass sagt mir aber nicht, wieviel ein GF6 Chip bei Einführung kosten könnte. War auch nur eine Spekulation.

KEINESFALLS werden diese Karten zu den genannten Preisen von 299-399 für den Endverbraucher (wovon allerdings auch nicht die Rede war) erhältlich sein. Vielleicht nach ein paar Monaten (zzgl. Steuern usw.)...

Oder wieviel Prozent Steuern usw. sollen da noch drauf kommen :) ?

Ich bleibe bei meiner Einschätzung eines Startpreises von 500-700 Euro hierzulande. Eher noch 600-700 Euro.

Kann mir gut Vorstellen dass sich NV die Performancekrone so RICHTIG vergolden lässt, nach der langen Zeit der Unterlegenheit.

WEGA
2004-04-13, 19:46:49
Original geschrieben von Gast
http://www.ixbt.com/short/2k4-04/V9999_1.jpg
Soll eine ASUS V9999 on GeForce 6800 Ultra sein;
und wo sind die extra poweranschlüsse geblieben?

up

das is doch nur ne computeranimation

WEGA
2004-04-13, 19:51:21
Original geschrieben von pervert
Ich weiß, das der "XT"-Chip für 100$ verkauft wird, dass sagt mir aber nicht, wieviel ein GF6 Chip bei Einführung kosten könnte. War auch nur eine Spekulation.

KEINESFALLS werden diese Karten zu den genannten Preisen von 299-399 für den Endverbraucher (wovon allerdings auch nicht die Rede war) erhältlich sein. Vielleicht nach ein paar Monaten (zzgl. Steuern usw.)...

Oder wieviel Prozent Steuern usw. sollen da noch drauf kommen :) ?

Ich bleibe bei meiner Einschätzung eines Startpreises von 500-700 Euro hierzulande. Eher noch 600-700 Euro.

Kann mir gut Vorstellen dass sich NV die Performancekrone so RICHTIG vergolden lässt, nach der langen Zeit der Unterlegenheit.

das sind die nettopreise. 400€ chip + platine + 256mb gddr3 = 1000€? :bonk:

500$ sidn bei uns doch 400€ mient ihr die übernehmen den preis 1:1 oder rechnen die den um und haun dann steuern drauf :-?

anorakker
2004-04-13, 19:54:58
omg...ich glaube mein avatar wird wieder aktuell...oder wo soll auf diesem verkorksten und niemals dafür designten agp-slot platz so viel abwärme hin ??

und btw : was soll eigentlich der piezo summer oben links in der ecke der karte (oder hab ich mich verguckt ?) ??
nach dem motto -> piep,piep :" sie haben 10sekunden den raum zu verlassen, da gleich ihr rechner explodiert !" ;)

*ocl*

WEGA
2004-04-13, 19:56:55
was? agp slot?

anorakker
2004-04-13, 20:00:08
agp-slot platz !

jaja..etwas ungünstig ausgedrückt..

WEGA
2004-04-13, 20:03:55
wo soll die graka sonst hin?

Gast
2004-04-13, 20:06:47
Original geschrieben von WEGA
das sind die nettopreise. 400€ chip + platine + 256mb gddr3 = 1000€? :bonk:

500$ sidn bei uns doch 400€ mient ihr die übernehmen den preis 1:1 oder rechnen die den um und haun dann steuern drauf :-?

HAHAHA.... die werden niemals den US$ Preis zugrunde legen... ersten sind die genannten USD Preise Netto Preise,
also kommt für die USA noch die VAT drauf. Da bei uns
die Mwst noch um einiges höher ist sowie Verschiffungskosten/Einfuhrzoll dazukommt und ALLE HERSTELLER noch Ihre Germany Extra Marge draufbuttern, kannst Du eigentlich von MINDESTENS USD Netto + 100 = Deutscher EURO Verkaufspreis ausgehen (wenn nicht noch mehr, da wohl erstmal Asien+Nordamerika mit Hardware bedient werden und "early adopters" nochmal zusätzlich
abgeschöpft werden.
Gruß

Super Grobi
2004-04-13, 20:07:32
Zitat: AGP Slot? "gggggggggggggggggggggggggggggggg"

Ne die NV40 wird neuerdings an den HDD Controller gehängt "ggggggggg"

Sorry, aber ich konnte nicht anderes. Ist nicht böse gemeint.

Gruss
SG

WEGA
2004-04-13, 20:11:07
OH MEIN GOTT BIST DU GESCHISSEN DUMM
Sorry, aber ich konnte nicht anderes. Ist nicht böse gemeint.

pervert
2004-04-13, 20:15:29
Original geschrieben von Gast
HAHAHA.... die werden niemals den US$ Preis zugrunde legen... ersten sind die genannten USD Preise Netto Preise,
also kommt für die USA noch die VAT drauf. Da bei uns
die Mwst noch um einiges höher ist sowie Verschiffungskosten/Einfuhrzoll dazukommt und ALLE HERSTELLER noch Ihre Germany Extra Marge draufbuttern, kannst Du eigentlich von MINDESTENS USD Netto + 100 = Deutscher EURO Verkaufspreis ausgehen (wenn nicht noch mehr, da wohl erstmal Asien+Nordamerika mit Hardware bedient werden und "early adopters" nochmal zusätzlich
abgeschöpft werden.
Gruß

Sind das nicht evtl. sogar nur die Großabnehmerpreise (wie man es von CPU-Preisen her kennt), so daß nicht nur Steuern und Einfuhr "drauf" kommen?

CompuJoe
2004-04-13, 21:13:53
Ähhmm, er meinte vieleicht das die Karte auch in nem PCI-Express Slot gebaut werden kann (die PCI-express version)

Eusti
2004-04-13, 22:05:24
Die US-Dollar-Preise könnt Ihr mittlerweile (aufgrund des Dollar-Kurses) genau 1:1 umrechnen. Das was an Mehrwertsteuer noch drauf kommt, hebt der günstige Wechelkurs wieder auf. Als Beispiel mal ein vergleich einer Radeon 9800PRO (lässt sich für alle anderen Computer-Dinge ähnlich raussuchen):


Preise einer Radeon 9800 Pro in den USA (knapp $200) (http://www.pricewatch.com/1/37/5307-1.htm)
Preise einer Radeon 9800 Pro in Deutschland (knapp €200) (http://www.geizhals.at/deutschland/a48291.html)

Gast
2004-04-13, 22:07:11
Original geschrieben von pervert
Sind das nicht evtl. sogar nur die Großabnehmerpreise (wie man es von CPU-Preisen her kennt), so daß nicht nur Steuern und Einfuhr "drauf" kommen?

Keine Ahnung.
Die Quelle von T.I. ist Dark Crow.... da stehts wohl genauer..... hab ich mir aber nicht angetan.

Spekulation on - vielleicht läßt NV die ersten Serien
der Karten komplett fertigen und verkauft diese an
die Reseller wie Asus + Co..... Dann düfte der Endverkauspreis noch weit höher liegen als vorher geschätzt....
ODER
NV will dieses mal zum großen Schlag ausholen und
ATI komplett in die Suppe spucken (irgendwo gabs bereits
Infos (Gerüchte) zu den R420 Preisen, die auf gleichem Niveau lagen).
Also Tee trinken und abwarten....

Gast
2004-04-13, 22:12:50
Original geschrieben von Eusti
Die US-Dollar-Preise könnt Ihr mittlerweile (aufgrund des Dollar-Kurses) genau 1:1 umrechnen. Das was an Mehrwertsteuer noch drauf kommt, hebt der günstige Wechelkurs wieder auf. Als Beispiel mal ein vergleich einer Radeon 9800PRO (lässt sich für alle anderen Computer-Dinge ähnlich raussuchen):


Preise einer Radeon 9800 Pro in den USA (knapp $200) (http://www.pricewatch.com/1/37/5307-1.htm)
Preise einer Radeon 9800 Pro in Deutschland (knapp €200) (http://www.geizhals.at/deutschland/a48291.html)

Milchmädchenrechnung...... Bei einem neuen, knappen Produkt
werden die Reseller nicht die Möglichkeit verspielen mehr
Knete zu machen.... der Markt gibt das schließlich her.
Ausserdem müßtet du bei dem Beispiel die Preise der 9800pro
bei Einführung miteinander vergleichen... und da sah das Bild etwas anders aus...

LovesuckZ
2004-04-13, 22:15:10
Original geschrieben von Gast
NV will dieses mal zum großen Schlag ausholen und
ATI komplett in die Suppe spucken (irgendwo gabs bereits
Infos (Gerüchte) zu den R420 Preisen, die auf gleichem Niveau lagen).
Also Tee trinken und abwarten....

Nunja, Nvidia koennte wohl locker 475MHz erreichen, aber anscheinend sei man wohl der Meinung, dass 400MHz bei 550Mhz Speicher vollkommen ausreiche, da die Speicherbandbreite einfach nur limitiere. Um aber mit der Konkurenz mithalten zu koennen (hoehere Stromverbrauch, schlechteres AA [Ironie, wenn man selbst Dinge hypt und hofft sie setzen sich durch und nun selbst in die Falle laeuft], hoehere Wärmeabgabe, lauuterer Lüfter etc.) versucht man durch den Preis zu kontern.
Und wenn man überlegt, dass ATi nur eine X800SE für 299$ anbieten koennte und Nvidia mit der normalen 6800 Version kommt, dann ist das schon verdammt aussagestark.

Zu den Preis: 399$ werden auch in Deutschland 399€ sein. Am Anfang wie immer leicht darüner (melken) und pendeln sich für die erste Zeit dann da ein +-10%.

CompuJoe
2004-04-13, 22:23:45
Ich würde sagen sie wird so um die 500-600,-€ kosten!
Es ist ja nicht nur die Mehrwertsteuer, sondern auch Zoll und Versandkosten und auserdem will der Zwischenhändler auch noch was verdienen!

Radeonator
2004-04-14, 01:11:37
Also ich schätze mehr so Richtung 1-2 mio mindestens...ehm ja ;)

Dollar nixe viel wert , euro ja, verstanden?

~500 für die Ultra (wie immer) und non ultra min 100 Euronen weniger oder Preisknaller, alles Spekulation...wart,wart,wart....

TomatoJoe
2004-04-14, 02:27:02
war weg, bin leicht dicht, ist schonw as bekannt(testergebnisse etc.)

Knoxxville
2004-04-14, 04:06:44
http://mbnet.fi/elixir/NV40/

Da hat doch tatsächlich ein mieses Dreckstück das NDA gebrochen!



knoxxville

CompuJoe
2004-04-14, 04:09:40
Schöne Fotos *g*

Die ersten NDA-Brecher *g*

http://mbnet.fi/elixir/NV40/

Iceman346
2004-04-14, 04:38:53
Original geschrieben von CompuJoe
Schöne Fotos *g*

Die ersten NDA-Brecher *g*

http://mbnet.fi/elixir/NV40/

Mmmh, HardOCPs Benchstil mag ich nicht sonderlich (also das Einstellen unterschiedlicher Qualitätsstufen um ähnliche fps zu erreichen) aber insgesamt macht die Karte, sofern die Werte echt sind, einen sehr guten Eindruck ohne aber der "Überhammer" zu sein.
In Far Cry scheint es noch einige Renderfehler zu geben die auch beim Vorgänger da sind. (siehe 2. Screenshot auf dem Boden und 3. Screenie an der Decke)
Das 4x AA scheint qualitativ dem AA der Radeon immer noch leicht unterlegen zu sein (sieht man besonders gut bei den CoD Bildern), aber der Abstand ist minimal.
Am AF scheint sich nichts geändert zu haben, außer dass man anscheinend wählen kann ob man "brilinear" oder trilinear haben will (wenn ich das aus den Bildern richtig interpretiere).

Insgesamt imo eine sehr interessante Karte, mal sehen was der R420 bringt.

dildo4u
2004-04-14, 04:41:48
http://mbnet.fi/elixir/NV40/10817474486qLMOmeutS_4_5_l.gif
frag mich warum die die den NV40 immer mit 4XAA teste un die andren karten ohne oder nur mit 2XAA

NDA-Gast
2004-04-14, 04:42:03
NDA's sind doch unsinn. Im IRC gibts dies seit > 1er Woche ...

SKYNET
2004-04-14, 04:42:10
Original geschrieben von CompuJoe
Schöne Fotos *g*

Die ersten NDA-Brecher *g*

http://mbnet.fi/elixir/NV40/

ahh, du warst schneller :angry:

egal.

NV ist 20% schneller als XT.
das ganze mti beta treibern(mehr oder minder)
besserer bild quali, schönerem AA / AF.

und das beste: zum teil mit 4x AA schnelelr als die XT ohne AA ;D

sowas wünscht man sich immer wieder gerne, mal sehn was der r420 kann.

Gast
2004-04-14, 04:46:35
Also Wie die Benchen ist wirklich unter aller....

Von der Rohleistung her hätte ich aber auch gerne ein paar Benchs gern gesehen.
Naja mal sehen was die Reviews ans licht bringen werden.

Gast
2004-04-14, 04:48:41
Original geschrieben von NDA-Gast
NDA's sind doch unsinn. Im IRC gibts dies seit > 1er Woche ...
und gibs da auch anständige Benchs? bzw. Wo?

NV40-Hasser-Gast
2004-04-14, 04:50:29
Also bei 4xAA/8xAF sind es 33 zu 42 fps for NV40 in FarCry.
Sind ~ +27% oder so. Gute Werte. Aber ATI wird dem über können, das die Heide wackelt ... ganz besonders bei FS2004, wo die 9800XT jetzt schon dominiert.

König-Gast
2004-04-14, 04:54:44
Im übrigen wollen wir bei geklauten Sachen die Quelle nicht vergessen und das dazugehörige Ph0rum:


http://discuss.futuremark.com/forum/showflat.pl?Cat=&Board=techdisplayadapters&Number=3693605&page=0&view=collapsed&sb=5&o=0&fpart=1&vc=1

SKYNET
2004-04-14, 04:55:41
Original geschrieben von NV40-Hasser-Gast
Also bei 4xAA/8xAF sind es 33 zu 42 fps for NV40 in FarCry.
Sind ~ +27% oder so. Gute Werte. Aber ATI wird dem über können, das die Heide wackelt ... ganz besonders bei FS2004, wo die 9800XT jetzt schon dominiert.


jaja blabla...... dein nick ist im übrigen sehr einfallsreich :lol:


komm nochmal wieder wenn du nen bissl ahnung hast kiddie.

dei r420 wird ähnlich performen wie die NV40 alleine die AA/AF performance wird diesmal entscheiden wer die krone bekommt.

"ganz besonders bei FS2004, wo die 9800XT jetzt schon dominiert."

*wooot* 1 bench wo die 9800XT schneller ist :lol: *vom stuhl falle vor lachen*

Knoxxville
2004-04-14, 04:57:11
Original geschrieben von König-Gast
Im übrigen wollen wir bei geklauten Sachen die Quelle nicht vergessen und das dazugehörige Ph0rum:


http://discuss.futuremark.com/forum/showflat.pl?Cat=&Board=techdisplayadapters&Number=3693605&page=0&view=collapsed&sb=5&o=0&fpart=1&vc=1


Ich habe eine andere Quelle......



knoxxville

SKYNET
2004-04-14, 04:58:07
Original geschrieben von König-Gast
Im übrigen wollen wir bei geklauten Sachen die Quelle nicht vergessen und das dazugehörige Ph0rum:


http://discuss.futuremark.com/forum/showflat.pl?Cat=&Board=techdisplayadapters&Number=3693605&page=0&view=collapsed&sb=5&o=0&fpart=1&vc=1

falsch, auf rage3d waren sie zuerst :P
http://www.rage3d.com/board/showthread.php?threadid=33753143

CompuJoe
2004-04-14, 04:58:58
Hmm, also ich hätte viel mehr erwartet!!!
Da haben sie sich mit dem Pixel/Vertexshadern 3.0 so viel mühe gegeben aber den Rest wohl etwas vergessen.

Warten und Tee drinken und auf mehr Tests warten.

Ich könnt mir denken das der R420/423 den NV40 weit hinter sich lässt ;) *g*

r@e
2004-04-14, 04:59:21
Original geschrieben von Eusti
Die US-Dollar-Preise könnt Ihr mittlerweile (aufgrund des Dollar-Kurses) genau 1:1 umrechnen. Das was an Mehrwertsteuer noch drauf kommt, hebt der günstige Wechelkurs wieder auf. Als Beispiel mal ein vergleich einer Radeon 9800PRO (lässt sich für alle anderen Computer-Dinge ähnlich raussuchen):

Preise einer Radeon 9800 Pro in den USA (knapp $200) (http://www.pricewatch.com/1/37/5307-1.htm)
Preise einer Radeon 9800 Pro in Deutschland (knapp €200) (http://www.geizhals.at/deutschland/a48291.html) Laß es einfach, Eusti...

Der Kindergarten hier scheint die Weisheit mit Löffeln gefressen zu haben.
Der - nebenbei gesagt - offenbar NICHTS von dem Prinzip der Marktwirtschaft mitbekommen hat (oder aber dessen Mitglieder dafür einfach zu 'klein' sind ;-) und damit vom Thema Wettbewerb, der eine solcherart Preisgesatltung, wie sie hier 'angedacht' wird, überhaupt nicht zuläßt.

Wir werden ja sehen, was für Preise hier ankommen.

Razor

CompuJoe
2004-04-14, 05:01:33
Ich habe ja schon geschrieben, der Preis wirt so zwischen 500 und 600 Euro liegen darunter währe ne Überraschung.

SKYNET
2004-04-14, 05:10:36
Original geschrieben von CompuJoe
Hmm, also ich hätte viel mehr erwartet!!!
Da haben sie sich mit dem Pixel/Vertexshadern 3.0 so viel mühe gegeben aber den Rest wohl etwas vergessen.

Warten und Tee drinken und auf mehr Tests warten.

Ich könnt mir denken das der R420/423 den NV40 weit hinter sich lässt ;) *g*


tja... wenn du dich da mal nicht täuscht.

weil NV hat schon neue treiber draussen wenn ATI die karte öffentlich macht.

dann nichtmehr im halben beta stadium.

ich schätze mal das alleine durch treiber und diemal ohne bildqualitätsverlust noch 10-30% rausspringen :D

war ja bisher immerso bei NV, besonders gut hat man das bei der GF4 serie gesehn.

Cpl. Dwayne Hicks
2004-04-14, 05:12:07
naja besonders beeindruckt bin ich nicht von den zahlen der 6800U....

SKYNET
2004-04-14, 05:12:32
Original geschrieben von CompuJoe
Ich habe ja schon geschrieben, der Preis wirt so zwischen 500 und 600 Euro liegen darunter währe ne Überraschung.

299$ @ GF6800
399$ @ GF6800U

also wird es hier umd die 100€ teurer als es da in dollar ist.

also 400€ / 500€

notfalls kann man ja in US bestellen, dauert 3 tage dann isse hier ;D

CompuJoe
2004-04-14, 05:13:58
Denkst du nicht das es bei ATI genauso sein wird?

Tja, auf Tests mit ausgereiften Treibern beider Seiten müssen wir ja noch etwas warten.

PS. Bin kein ATI-Fanboy, ich bin da etwas Neutral!
Ich will nur Langsahm wissen welche besser ist den mein Vater nervt mich nur, der will unbedingt ne neue Karte und zwar die schnellste auf den Markt!

Knoxxville
2004-04-14, 05:15:36
Warte die vollständigen Reviews ab... bei höheren Auflösungen wirds krasser.




knoxxville

SKYNET
2004-04-14, 05:18:24
Original geschrieben von CompuJoe
Denkst du nicht das es bei ATI genauso sein wird?

Tja, auf Tests mit ausgereiften Treibern beider Seiten müssen wir ja noch etwas warten.

PS. Bin kein ATI-Fanboy, ich bin da etwas Neutral!
Ich will nur Langsahm wissen welche besser ist den mein Vater nervt mich nur, der will unbedingt ne neue Karte und zwar die schnellste auf den Markt!

bin auch kein ATI / NV fanboy(nur AMD ;D ) habe ja z.z. ne ATI drinne.

und ich denke schon das es mit der ATI ähnlich sein wird, aber ich setze nen bier dadrauf das die ATI bei AA/AF performance wesentlich stärker wechbricht als die NV.

und die bildquali wird bei der ATI auch schlechter sein. jede wette.

Der-Schönste-Gast
2004-04-14, 05:19:29
Die Boden-Fliesen haben aber eine schlechte Qualität.
Dadurch lassen sich natürlich fix hohe FPS erzeugen.
Hoffentlich kommen demnächst Benches die das berücksichtigen.

http://mbnet.fi/elixir/NV40/10817474486qLMOmeutS_5_4_l.jpg

r@e
2004-04-14, 05:23:35
Putzt mal Eure Kristallkugel !
:D

Razor

r@e
2004-04-14, 05:25:47
Original geschrieben von Der-Schönste-Gast
Die Boden-Fliesen haben aber eine schlechte Qualität.
Dadurch lassen sich natürlich fix hohe FPS erzeugen.
Hoffentlich kommen demnächst Benches die das berücksichtigen.

http://mbnet.fi/elixir/NV40/10817474486qLMOmeutS_5_4_l.jpg Dafür ist der Patch 1.1 verantwortlich...
... zumal das nur in exakt dieser Scene so zu bestaunen ist.

Crytec wird das richten müssen.

Razor

CompuJoe
2004-04-14, 05:30:00
Naja das mit der Bildqualität wirde ich jetzt noch nicht anschneiten, lieber abwarten.

Das AA/AF verhalten der beiden Karten kann man auch noch nicht sagen, man weiß ja noch nicht wie es bei ATI ist, da sind ja noch nicht alle Details gelüftet.
Und wieso soll die ATI da stärker wegbrchen als die NV, die ATI hat doch noch den Vorteil (wahrscheinlich) höhrer Taktraten, dadurch mehr Speicherbandbreite, bei der Fillrate habe ich nocht nicht so viel Ahnung.

Mal ne frage, haben die Pipelines der Karten was mit der Leistung under AA/AF zu tun?

Edit:
Das würde besser in das Spekulationsforum passen *g*

CompuJoe
2004-04-14, 05:34:07
Original geschrieben von r@e
Dafür ist der Patch 1.1 verantwortlich...
... zumal das nur in exakt dieser Scene so zu bestaunen ist.

Crytec wird das richten müssen.

Razor

Ist das nur NV karten so?
Den bei der ATI ist das nicht der Fall!

betasilie
2004-04-14, 05:37:03
Original geschrieben von r@e
Dafür ist der Patch 1.1 verantwortlich...
... zumal das nur in exakt dieser Scene so zu bestaunen ist.

Crytec wird das richten müssen.

Razor
Das Thema hatten wir doch schon zugenüge. Wenn diese unschönen Effekte weg sind, geht die Performance wieder in den Keller.

betasilie
2004-04-14, 05:37:54
Original geschrieben von CompuJoe
Ist das nur NV karten so?
Den bei der ATI ist das nicht der Fall!
Ist nur bei den NV Karten der Fall, um den Performancenachteil auszubügeln.

betasilie
2004-04-14, 05:39:29
Also ich finde es sehr enttäuschend was NV da abliefert. Ich habe mir da wesentlich mehr erhofft. :(

pervert
2004-04-14, 05:43:18
Wenn es noch irgendwelche Ähnlichkeiten zum NV35 gibt, glaube ich eher, dass NV bei AA und AF mal ein wenig wegbricht gegenüber einer X800XT. Mal sehen wie das bei 16xAF aussieht. Wenn ATI hier wie gewohnt optimiert liegen sie vorne. Aber abwarten, wer hier zukünftig wie filtert...

Ich will Shadermark Benches sehen! Vorher glaube ich nicht an die neue NV Dominanz (geg. ATIs nächster Generation)!

r@e
2004-04-14, 05:45:54
Original geschrieben von betareverse
Das Thema hatten wir doch schon zugenüge. Wenn diese unschönen Effekte weg sind, geht die Performance wieder in den Keller. Blödsinn.

Gerade der hier gezeigte Fehler (ja, es ist nur ein Fehler) bringt rein gar nichts an Performance bringen. Analog den 'Wasserbug' eben, der ebenfalls keine Performance brachte.

Jeder, der hier die Version 1.0 mit 1.1 vergleicht, kann dies nachvollziehen.

Das, was wirklich Performance bringt, sind die Refelxionen auf den Rohren z.Bsp. (und anderen Obejkten), die mit verminderter Präzision auf den FX'en berechnet werden. Was im übrigen einen 'natürlicheren' Eindruck hinterläßt, als diese 'Plastik'-Optik auf den Radeons (und selbstredend den FX'en unter Version 1.0 ;-).

Kein Geheimnis.
Und die Bugs, die Crytec da mit dem Patch eingebaut hat, werden sie im nächsten Patch 'richten' müssen... wie ich bereits sagte.

Razor

betasilie
2004-04-14, 05:46:24
Original geschrieben von pervert
Ich will Shadermark Benches sehen! Vorher glaube ich nicht an die neue NV Dominanz (geg. ATIs nächster Generation)!
Morgen, 15:00MEZ. :)

pervert
2004-04-14, 05:49:12
Wasserbug? Kannst Du das kurz erläutern? Ist OT ist weis, wäre aber trotzdem nett.

r@e
2004-04-14, 05:49:19
Original geschrieben von CompuJoe
Naja das mit der Bildqualität wirde ich jetzt noch nicht anschneiten, lieber abwarten.

Das AA/AF verhalten der beiden Karten kann man auch noch nicht sagen, man weiß ja noch nicht wie es bei ATI ist, da sind ja noch nicht alle Details gelüftet.
Und wieso soll die ATI da stärker wegbrchen als die NV, die ATI hat doch noch den Vorteil (wahrscheinlich) höhrer Taktraten, dadurch mehr Speicherbandbreite, bei der Fillrate habe ich nocht nicht so viel Ahnung.Ähmmm...

Fillrate ~ GPU-Takt
Speicherbandbreite ~ Speichertakt

Nur mal so als Anmerkung...
Original geschrieben von CompuJoe
Mal ne frage, haben die Pipelines der Karten was mit der Leistung under AA/AF zu tun?Klar !
Original geschrieben von CompuJoe
Das würde besser in das Spekulationsforum passen *g* Eben...

Razor

CompuJoe
2004-04-14, 05:49:47
Ok, dann werde ich jetzt 4-5 Stunden Pennen gehen und dann die neusten Tests lesen.

Also Gute Nacht!

pervert
2004-04-14, 05:50:44
Wenn ich mal ein wenig "orakeln" darf (reine Intuition): X800XT macht die 6800u PLATT im Shadermark! Der Rückstand von NV ist da einfach zu groß und ich glaube nicht an NVs Werbeversprechen einer 8fachen Shaderperformance...

r@e
2004-04-14, 05:51:06
Original geschrieben von pervert
Ich will Shadermark Benches sehen! Vorher glaube ich nicht an die neue NV Dominanz (geg. ATIs nächster Generation)! Du willst die Performance einer nVidia-Karte mit einem ATI-Bench messen ?
Also mich würde da eher reale Spiele-Perofrmance intersssieren...
:D

Razor

betasilie
2004-04-14, 05:51:21
Original geschrieben von r@e
Blödsinn.

Gerade der hier gezeigte Fehler (ja, es ist nur ein Fehler) bringt rein gar nichts an Performance bringen. Analog den 'Wasserbug' eben, der ebenfalls keine Performance brachte.

Jeder, der hier die Version 1.0 mit 1.1 vergleicht, kann dies nachvollziehen.

Das, was wirklich Performance bringt, sind die Refelxionen auf den Rohren z.Bsp. (und anderen Obejkten), die mit verminderter Präzision auf den FX'en berechnet werden. Was im übrigen einen 'natürlicheren' Eindruck hinterläßt, als diese 'Plastik'-Optik auf den Radeons (und selbstredend den FX'en unter Version 1.0 ;-).

Kein Geheimnis.
Und die Bugs, die Crytec da mit dem Patch eingebaut hat, werden sie im nächsten Patch 'richten' müssen... wie ich bereits sagte.

Razor
Ok, dann habe ich das wohl falsch mitbekommen. Ich dachte dieses Phönomen hätte auch mit der verminderten Präzision zu tun und somit mit der Performance. ...

Was die vermindert präzise Berechung des Bumpmapping angeht, kann ich dann aber nur sagen, dass ich den Glanzeffekt passend finde, wie viele andere auch. Man sollte dem User überlassen, ob er den vollen Bumpmapping-Effekt haben will oder nicht.

Und ja, dieser Patch1.1 ist schon wirklich etwas :freak2:.

Müder-Gast
2004-04-14, 05:52:37
In den diversen Foren scheint die Meinung ja sehr gemischt.
Zumindest gibt es wenige die jubeln, statistisch gesehen ...

Im übrigen, sind 400 Mhz jetzt nur für die Test-Karten gedacht und kommen mit 450 Mhz auf den Markt oder ist 400 Mhz für die U jetzt festgelegt ?

Gast
2004-04-14, 05:52:44
mich würde nur zu gerne mal interessieren was der mitgelieferte Pixelshader 3.0 support in farcry so mit der GF 6800Ultra anstellt:)

pervert
2004-04-14, 05:53:03
Vielleicht ne dumme Frage, aber ist das kein "neutraler" Benchmark??

Es gibt leider zu wenige Spiele mit massig Shadern, die zudem auch noch oft als Benchmarks genutzt werden. Leider benchen nur sehr wenige auch mal Tomb Raider 6 z. B. Hoffentlich werden wir zumindest in Zukunft viele Far Cry Benchmarks sehen (unter gleichen Voraussetzungen für beide nextgen Karten).

Gast
2004-04-14, 05:57:14
Über kurz oder lang wird in farcry ein Bench auftauchen per update oder mod.

r@e
2004-04-14, 06:01:37
Original geschrieben von betareverse
Morgen, 15:00MEZ. :) Jo.
Bzw... "nein" !
:D

Offizielles Ende der NDA ist9 AM EST April 14th.
(EST = GMT-5)Das wäre dann 15:00 Uhr bei uns (GMT+1)...

Wer eine kleine 'Timezone'-Nachhilfe braucht:
http://www.stacken.kth.se/~kvickers/timezone.html

Razor

P.S.: Werde gleich mal duschen und dann schaffen gehen... ;)

Gast
2004-04-14, 06:06:12
Original geschrieben von r@e
Razor

P.S.: Werde gleich mal duschen und dann schaffen gehen... ;)

Jetzt jehen alle penn0rn... weicheier:P
nene werde ma auch nen schönheitsschlaf nehmen

r@e
2004-04-14, 06:14:17
Original geschrieben von pervert
Wasserbug? Kannst Du das kurz erläutern? Ist OT ist weis, wäre aber trotzdem nett. Schau' mal ins' nVidia-Forum...
Speziell in diesen Thread:
http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=130926
Original geschrieben von betareverse
Ok, dann habe ich das wohl falsch mitbekommen. Ich dachte dieses Phönomen hätte auch mit der verminderten Präzision zu tun und somit mit der Performance. ...Läßt sich sehr einfach mit 'ner FX und dem 56.64 bzw. 56.72 nachprüfen...
(FarCry 1.0 'mag' den 60.72 nicht... oder umgekehrt ;-)
Original geschrieben von betareverse
Was die vermindert präzise Berechung des Bumpmapping angeht, kann ich dann aber nur sagen, dass ich den Glanzeffekt passend finde, wie viele andere auch. Man sollte dem User überlassen, ob er den vollen Bumpmapping-Effekt haben will oder nicht.Und wieder verweise ich hier auf den oben verlinkten Thread...

Weil Du es bist, hier vielleicht mal ein äusserst 'krasses' Beispiel dieser 'Platik'-Optik:
http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=1682733#post1682733
(die aber auch an vielen anderen Stellen zu 'bewundern' ist ;-)

Glaube mir, darauf kann ich gerne Verzichten !
(wie auch auf die wenigen, noch unter Patch 1.1 und 60.72 vorhandenen Bugs)
Original geschrieben von betareverse
Und ja, dieser Patch1.1 ist schon wirklich etwas :freak2:. Wohl wahr...

Razor

Sleepless-Gast
2004-04-14, 06:14:43
Original geschrieben von Gast
Jetzt jehen alle penn0rn... weicheier:P
nene werde ma auch nen schönheitsschlaf nehmen

Schlafen sux - take some dope ! :)

r@e
2004-04-14, 06:18:25
Original geschrieben von Gast
Jetzt jehen alle penn0rn... weicheier:P
nene werde ma auch nen schönheitsschlaf nehmen "schaffen" != "schlafen"
:D

Razor

SKYNET
2004-04-14, 06:22:25
Original geschrieben von betareverse
Morgen, 15:00MEZ. :)

falsch, heute :P

Exxtreme
2004-04-14, 06:23:46
Hmmmm... Was sind das für Kacheln da auf dem Boden? :???:

GF6800:
http://mbnet.fi/elixir/NV40/10817474486qLMOmeutS_5_4_l.jpg


Die R9800XT zeigt sowas nicht.

R9800XT:
http://mbnet.fi/elixir/NV40/10817474486qLMOmeutS_5_6_l.jpg

Geiler-Gast
2004-04-14, 06:24:36
Hatten wir hier schon ...

SKYNET
2004-04-14, 06:25:01
Original geschrieben von pervert
Vielleicht ne dumme Frage, aber ist das kein "neutraler" Benchmark??

Es gibt leider zu wenige Spiele mit massig Shadern, die zudem auch noch oft als Benchmarks genutzt werden. Leider benchen nur sehr wenige auch mal Tomb Raider 6 z. B. Hoffentlich werden wir zumindest in Zukunft viele Far Cry Benchmarks sehen (unter gleichen Voraussetzungen für beide nextgen Karten).

da du farcry grade ansprichst... NV ist da bei 4x AA / 8x AF 27% schneller als ne 9800XT...

das dürfte viele deiner fragen beantworten ;D

zeckensack
2004-04-14, 06:25:32
Original geschrieben von r@e
Du willst die Performance einer nVidia-Karte mit einem ATI-Bench messen ?Shadermark ist möglicherweise dein Feind, warum auch immer du so empfinden magst, aber ein "ATI-Bench"!? :crazy:
Und bitte grins nicht so viel, das lässt dich so debil wirken :)

SKYNET
2004-04-14, 06:26:55
also wenn mein paket gekommen ist werde ich das laufrad einspeichen und dann pennen gehn, bis dato dürften die asiatischen reviews online sein ;D

R420-Gast
2004-04-14, 06:31:33
Mal was lustiges :)


http://drewb99.homestead.com/files/Images/hardware.jpg

pervert
2004-04-14, 06:32:19
Schit, schon Spät :) Sorry wg Doppelposting.

pervert
2004-04-14, 06:34:03
Hm, ich weis nicht woher diese Bilder stammen und welche Einstellungen benutzt wurden, aber die 6800 macht nur 53 fps bei verminderter(?) Präzision gegenüber 40fps der 9800XT??? Was für ein Witz!

thop
2004-04-14, 06:34:43
Original geschrieben von SKYNET
da du farcry grade ansprichst... NV ist da bei 4x AA / 8x AF 27% schneller als ne 9800XT...
Wo? :kratz2:

http://mbnet.fi/elixir/NV40/10817474486qLMOmeutS_4_6.gif

r@e
2004-04-14, 06:35:04
Original geschrieben von R420-Gast
Mal was lustiges :)

http://drewb99.homestead.com/files/Images/hardware.jpg nVidia 6850 !
:lolaway:

Razor

BinNurEin-Gast
2004-04-14, 06:36:36
Die Quelle ist [H]ardOCP, die haben mal (wieder) ein Türchen offen gelassen :)

r@e
2004-04-14, 06:37:43
Original geschrieben von Exxtreme
Hmmmm... Was sind das für Kacheln da auf dem Boden? :???:

GF6800:
http://mbnet.fi/elixir/NV40/10817474486qLMOmeutS_5_4_l.jpg

Die R9800XT zeigt sowas nicht.

R9800XT:
http://mbnet.fi/elixir/NV40/10817474486qLMOmeutS_5_6_l.jpg Nochmal: ist ein Bug im Patch 1.1 !
(der unter 1.0 nicht zu beäugen ist und nicht mal Performance bringt ;-)

Schau' mal hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=1724069#post1724069

Razor

r@e
2004-04-14, 06:38:47
Original geschrieben von BinNurEin-Gast
Die Quelle ist [H]ardOCP, die haben mal (wieder) ein Türchen offen gelassen :) Ist nicht von [H]ardOCP, sondern einfach ein übler Fake...
:D

Razor

pervert
2004-04-14, 06:39:14
Also darf man von unterschiedlichen Settings der beiden Karten ausgehen, wie hier schonmal erwähnt wurde, das die dort so seltsam testen?

Mann, ich werde immer "geiler" auf vernünftige Reviews :D

SKYNET
2004-04-14, 06:40:26
Original geschrieben von thop
Wo? :kratz2:

http://mbnet.fi/elixir/NV40/10817474486qLMOmeutS_4_6.gif

du hast da schon gesehn das die 9800XT nur 2x AA hat(Was kaum performance kostet) und die 6800U 4x AA ? :P#

das geilste ist ja fligh simulator 2004 :D

33% schneller mit 4x AA / 16x AF als die 9800XT mit 2x AA / 8x AF :lol:

zeckensack
2004-04-14, 06:42:23
thop, die 9800XT tritt hier nur mit 2xAA&8xAF an. [H] macht das mit Absicht, das ist irgendeine neue, "praxisnahe" Benchmarkphilosophie :|

Motto: alle Karten sollen im spielbaren Bereich liegen. Dann wird jeweils die maximale noch spielbare Bildqualität eingestellt, und zwar so, dass am Ende alle Kandidaten möglichst gleiche Performance erreichen. Man soll dadurch sehen können, wieviel Bildqualität bei gegebener Performance möglich ist, und nicht wieviel Performance bei gesetzten Quali-Settings. Klar? :)

Echt? Mir nämlich auch nicht :freak:

Ich finde [H]'s neue Benchmark-Taktik mal so richtig scheisse. Da werden Zahlen weggelassen, die mich interessieren. Kyle muss 4xAA auch auf der Radeon gebencht haben, um überhaupt feststellen zu können, dass die Performance dabei nicht mehr akzeptabel wäre. Dann möchte ich diese Messwerte aber auch gefälligst sehen. Wenn er 4xAA auf der Radeon gleich garnicht gemessen hat, dann verdient er ohnehin ein bis zwei dutzend Peitschenhiebe.

thop
2004-04-14, 06:42:27
Du hast aber auch gesehen dass 4nVAA immer noch nicht wie 100% 4ATIAA aussieht? ;) Ausserdem wenn die Karte der 9800XT nur um 2AA vorraus ist, dann Prost Mahlzeit.

Exxtreme
2004-04-14, 06:46:11
Original geschrieben von Knoxxville
http://mbnet.fi/elixir/NV40/

Da hat doch tatsächlich ein mieses Dreckstück das NDA gebrochen!



knoxxville
Hmmm, anscheinend hat [H] diese Bilder nicht geleakt sondern irgendjemand hat sie vom Server kopiert... wenn man diesem Posting glauben kann:
http://www.hardforum.com/showthread.php?threadid=754279

r@e
2004-04-14, 06:47:07
Original geschrieben von pervert
Also darf man von unterschiedlichen Settings der beiden Karten ausgehen, wie hier schonmal erwähnt wurde, das die dort so seltsam testen?

Mann, ich werde immer "geiler" auf vernünftige Reviews :D [H]ardOCP 'versucht' vergleichbare Settings zu finden, bei denen die Karten in etwa 'gleich' performen... im Beispiel von FarCry sollen dies folgende Konditionen sein:

FX6800: 1024x768 4xRGMS / 8°AF
FX5950: 1024x768 noAA / noAF
9800XT: 1024x768 2xRGMS / 8°AF

Hier wird also 4xAA gegen 2xAA gebencht...
Nicht gerade sehr aussagekräftig, oder ?

Aber ja, ab heut' Nachmittag wird's wohl hoffentlich 'richtige' Reviews geben...
*lechts*
:D

Razor

P.S.: So, muss mich jetzt ausklinken !
*schaffe, schaffe, häusle baue*
*eg*

SKYNET
2004-04-14, 06:49:08
Original geschrieben von thop
Du hast aber auch gesehen dass 4nVAA immer noch nicht wie 100% 4ATIAA aussieht? ;) Ausserdem wenn die Karte der 9800XT nur um 2AA vorraus ist, dann Prost Mahlzeit.

du hast schon gesehn das das AA von NV besser ist als das von ATI ?

achja, noch nen tritt in den a*sch von ATI:

battlefield vietnam:
NV ist da 5% schneller als ATI !
NV: 1280*960 4x AA / 8x AF
ATI: 1024*768 no AA / 8x AF


sehr schön !
muss meine meinung von vorhin mal revidieren.
schätze nichtnur das die NV 20% schneller als die 9800XT ist sondern gute 40% in der rohleistung.

der könig ist tot(9800xt) es lebe der könig(6800U)

Gast
2004-04-14, 06:51:03
Könnte es sein dass die CPU die GF 6800 stark limitiert ?

SKYNET
2004-04-14, 06:51:15
aussage kräftig wird es erst wenn benches in 1024*768*32 kommen mit vollen detail ohne AF/AA.


und dann wird es noch übler für die 9800XT ausgehn als bei den [H] benches ;D

SKYNET
2004-04-14, 06:52:07
Original geschrieben von Gast
Könnte es sein dass die CPU die GF 6800 stark limitiert ?

warscheinlich schon.
zumindest solange nicht mit nem P4 @ 4GHz+ oder A64 @ 2.4GHz gebencht wird.

aber gebe ner 6800U dochmal nen FX mit 2.8GHz zum futtern ;)

dann limitiert da nixmehr soschnell :D

thop
2004-04-14, 06:54:29
40% haut mich nicht vom Hocker, selbst 60% fänd ich noch relativ mager wenn man sich das "Biest" mal anschaut. Vor allem da das alles relativ alte Engines sind wo die nV40 vorne liegt. Da reicht die 9800XT eh. Aber erst mal die richtigen Reviews abwarten. Das AA von nV ist aber garantiert nicht besser als das von ATI.

SKYNET
2004-04-14, 07:00:03
Original geschrieben von thop
40% haut mich nicht vom Hocker, selbst 60% fänd ich noch relativ mager wenn man sich das "Biest" mal anschaut. Vor allem da das alles relativ alte Engines sind wo die nV40 vorne liegt. Da reicht die 9800XT eh. Aber erst mal die richtigen Reviews abwarten. Das AA von nV ist aber garantiert nicht besser als das von ATI.

wir werden sehn wenn mal etwas größere bilder rankommen.

bei den popeligen dingern erkennt man ja kaum was *mal lupe such* :D

thop
2004-04-14, 07:08:30
Geil die ersten Verarschungspics sind da ;D

http://mysite.freeserve.com/smallsheep/nvidia_test_rig.jpg

Gast
2004-04-14, 07:14:39
Original geschrieben von SKYNET
warscheinlich schon.
zumindest solange nicht mit nem P4 @ 4GHz+ oder A64 @ 2.4GHz gebencht wird.

aber gebe ner 6800U dochmal nen FX mit 2.8GHz zum futtern ;)

dann limitiert da nixmehr soschnell :D

Wieso CPU limitiert? Gerade deswegen werden doch möglichst hohe Settings gewählt und so lange gesteigert, bis die Frames/s ordentlich wegbrechen. Oder hab ich do was falsch verstanden?

Gast
2004-04-14, 07:15:33
Original geschrieben von zeckensack
thop, die 9800XT tritt hier nur mit 2xAA&8xAF an. [H] macht das mit Absicht, das ist irgendeine neue, "praxisnahe" Benchmarkphilosophie :|

Motto: alle Karten sollen im spielbaren Bereich liegen. Dann wird jeweils die maximale noch spielbare Bildqualität eingestellt, und zwar so, dass am Ende alle Kandidaten möglichst gleiche Performance erreichen. Man soll dadurch sehen können, wieviel Bildqualität bei gegebener Performance möglich ist, und nicht wieviel Performance bei gesetzten Quali-Settings. Klar? :)

Echt? Mir nämlich auch nicht :freak:

Ich finde [H]'s neue Benchmark-Taktik mal so richtig scheisse. Da werden Zahlen weggelassen, die mich interessieren. Kyle muss 4xAA auch auf der Radeon gebencht haben, um überhaupt feststellen zu können, dass die Performance dabei nicht mehr akzeptabel wäre. Dann möchte ich diese Messwerte aber auch gefälligst sehen. Wenn er 4xAA auf der Radeon gleich garnicht gemessen hat, dann verdient er ohnehin ein bis zwei dutzend Peitschenhiebe.

mega roflXD

SKYNET
2004-04-14, 07:19:05
Original geschrieben von Gast
Wieso CPU limitiert? Gerade deswegen werden doch möglichst hohe Settings gewählt und so lange gesteigert, bis die Frames/s ordentlich wegbrechen. Oder hab ich do was falsch verstanden?


stecke dochmal ne 9800XT zu nem 1200er duron in rechner.... die karte kann niemals ihr vollen potenzial ausschöpfen weil die CPU net hinterherkommt.

kurz: die karte wird künstlich ausgebremst, gibt ihr ne dickere cpu und die wird aufblühn wie eine rose :)

Gast
2004-04-14, 07:23:51
Ich weiß nicht warum sich manche so wundern, dass die neue GeForce schneller als die 9800er von ATI ist. Ich glaube kaum, dass sich nVidia es leisten würde, eine langsamere Karte auf den Markt zu werfen.

seahawk
2004-04-14, 07:23:54
Was abwarten zu wäre.

Für die x800Pro sollte es evtl. knapp reichen, für die XT nicht.

Aber es glaubt ja wohl keiner, dass da nicht noch eine 6850 oder so was in der Pipeline ist. Beim Chiptakt dürfte NV noch genug Reserven nach oben haben.

Aqualon
2004-04-14, 07:34:57
Ich bin ja wirklich gespannt, ob es noch einen Thread zum NV40 geben wird, der nicht knapp über Spielwiese-Niveau rumdümpelt... :eyes:

Aqua

LovesuckZ
2004-04-14, 07:35:52
Original geschrieben von Aqualon
Ich bin ja wirklich gespannt, ob es noch einen Thread zum NV40 geben wird, der nicht knapp über Spielwiese-Niveau rumdümpelt... :eyes:

Aqua

Wie waere es, wenn ihr Schichtarbeit macht? :)

LovesuckZ
2004-04-14, 07:36:48
Original geschrieben von SKYNET
aussage kräftig wird es erst wenn benches in 1024*768*32 kommen mit vollen detail ohne AF/AA.
und dann wird es noch übler für die 9800XT ausgehn als bei den [H] benches ;D

Nein, 1600*1200 mit 4AA/8QAF.
Alles darunter ist kaum fördern!

SKYNET
2004-04-14, 07:39:12
Original geschrieben von LovesuckZ
Nein, 1600*1200 mit 4AA/8QAF.
Alles darunter ist kaum fördern!

igitt. :P

SKYNET
2004-04-14, 07:40:57
Original geschrieben von seahawk
Was abwarten zu wäre.

Für die x800Pro sollte es evtl. knapp reichen, für die XT nicht.

Aber es glaubt ja wohl keiner, dass da nicht noch eine 6850 oder so was in der Pipeline ist. Beim Chiptakt dürfte NV noch genug Reserven nach oben haben.


*man munkelt von 600MHz GPU*

schätze mal das NV erstmal sehn will was ATI da auf dem markt wirft.

dann wird schnell am gashahn gedreht falls das bisherige net schnell genug sein sollte und aus ist :D

LovesuckZ
2004-04-14, 07:53:38
Hat sichs schonmal wer das/die Splinter Cell Bildchen angeguckt?

http://mbnet.fi/elixir/NV40/10817474486qLMOmeutS_7_3_l.jpg
http://mbnet.fi/elixir/NV40/10817474486qLMOmeutS_7_5_l.jpg

Sind ca. 80%, nicht beeindruckend bei den gleichen Einstellungen?

Endorphine
2004-04-14, 07:53:40
Original geschrieben von Aqualon
Ich bin ja wirklich gespannt, ob es noch einen Thread zum NV40 geben wird, der nicht knapp über Spielwiese-Niveau rumdümpelt... :eyes: Etwas anderes kann man doch bei der ATI-Fanrate gar nicht erwarten. Egal wie der R420 performed, dessen Launch wird mit Jubelgeschrei und ohne grossartige Flames über die Bühne gehen, auch wenn er vom NV40 in Grund und Boden gestampft würde...

Endorphine
2004-04-14, 08:01:27
Original geschrieben von thop
Geil die ersten Verarschungspics sind da ;D

http://mysite.freeserve.com/smallsheep/nvidia_test_rig.jpg X-D X-D X-D Nur geil :up:.

SKYNET
2004-04-14, 08:01:36
Original geschrieben von LovesuckZ
Hat sichs schonmal wer das/die Splinter Cell Bildchen angeguckt?

http://mbnet.fi/elixir/NV40/10817474486qLMOmeutS_7_3_l.jpg
http://mbnet.fi/elixir/NV40/10817474486qLMOmeutS_7_5_l.jpg

Sind ca. 80%, nicht beeindruckend bei den gleichen Einstellungen?

ich wollte es nicht sagen :D

SKYNET
2004-04-14, 08:02:51
Original geschrieben von Endorphine
Etwas anderes kann man doch bei der ATI-Fanrate gar nicht erwarten. Egal wie der R420 performed, dessen Launch wird mit Jubelgeschrei und ohne grossartige Flames über die Bühne gehen, auch wenn er vom NV40 in Grund und Boden gestampft würde...

tja, so sind sie die fan-boy kiddies :D

aber lass mal, der NV40 wird die ATI schon dahin weisen wo se hingehört --> platz 2.

Endorphine
2004-04-14, 08:06:34
Original geschrieben von SKYNET
tja, so sind sie die fan-boy kiddies :D

aber lass mal, der NV40 wird die ATI schon dahin weisen wo se hingehört --> platz 2. Ich tippe eher auf gleichwertige Performance, so dass man sich für Nuancen wie AA/AF-Qualität und XFree86-Treibersupport entscheiden kann :). Ich würde es mir wünschen.

Wobei in dem Fall dann natürlich auch die Verhältnisse von 3D-Beschleunigungsleistung zu elektrischer Leistungsaufnahme interessant werden.

LovesuckZ
2004-04-14, 08:06:55
Und in CoD sind es ebenfalls ca. 80-90%. Ich doch das, was wir erwarten haben. Dazu das verbesserete AF und AA, ist doch alles da, was man erwarten konnte.
schade, dass Hardocp.com kein Shaermark benutzt hat...

Bassu
2004-04-14, 08:07:30
Also die CPU wird sicherlich Limitieren. Dennoch glaube ich nicht das die Karte einen 4Ghz oder 2,2 - 2,4ghz FX benötigt um die "beste" pro Mhz Leistung zu erreichen.
Eine ATI (R3x0) hat mit einem p4 2,6Ghz die grenze erreicht, wonach nur noch die CPU die mehr Leistung weiter steigert. (scheiss Satzbau);D

Ich vermute mal eher das der NV45 die 3,6 - 4ghz benötigen wird um die idealste Leistung zu erreichen.

Ausserdem glaube ich nicht das die beiden Chips (NV40 R420)
auf dem gleichen Leistungsniveau liegen werden. Es könnte gut sein das ATI die Werte nicht ganz erreichen wird oder nur etwas schneller als der NV rendern wird.(+-10 15fps)

Sollten die beiden Chips gleichaufliegen, dann Fress ich nen Besen! Dann unterstelle ich einen der beiden oder beiden Hersteller Industriespionage.
Ich tendiere mehr dazu das NVIDIA dieses mal den etwas schnelleren Chip hat. Warum?
Ganz einfach. NVIDIA kann und wird sich nicht noch einmal solch einen Patzer wie beim NV30 leisten. Soweit ich weis
wurde irgendwo mal gesagt das sie mit dem NV40 die Fehler des NV30 mehr als nur Wett machen wollen.

Außerdem wird, sollte die Leistung des NV40 wirklich nicht ausreichen, NVIDIA gewaltig an der Taktschraube drehen und den NV45 mit 500Mhz und mehr herausbringen.

Endorphine
2004-04-14, 08:10:44
Original geschrieben von LovesuckZ
Dazu das verbesserete AF Welches verbesserte AF? Bis jetzt habe ich noch keine AF-Blume gesehen. Dass man brilineare Filterung abschalten kann ist zwar schön, aber keine "Verbesserung", eher eine Möglichkeit zum Entfernen von Cheats.

LovesuckZ
2004-04-14, 08:11:56
Original geschrieben von Endorphine
Welches verbesserte AF? Bis jetzt habe ich noch keine AF-Blume gesehen. Dass man brilineare Filterung abschalten kann ist zwar schön, aber keine "Verbesserung", eher eine Möglichkeit zum Entfernen von Cheats.

Lass mich doch traeumen!
Naja, die BF:V Bildchen bescheinen der Karte die exakt selbe Qualitaet wie bei der NV38 Karte.

LovesuckZ
2004-04-14, 08:20:41
LOL...

http://mbnet.fi/elixir/NV40/10817474486qLMOmeutS_1_8_l.jpg

Speichertakt der Karte: 550Mhz

LovesuckZ
2004-04-14, 08:23:06
Original geschrieben von LovesuckZ
Und in CoD sind es ebenfalls ca. 80-90%.

Rofl, guck man sich den Graph an, dass muss ja der NV40 so richtig rocken...
Hoehe Aufloesung und dann noch schneller. Wie war das mit: Ist nicht besonderes?

Endorphine
2004-04-14, 08:23:22
Original geschrieben von LovesuckZ
LOL...

http://mbnet.fi/elixir/NV40/10817474486qLMOmeutS_1_8_l.jpg

Speichertakt der Karte: 550Mhz Naja, wichtig ist das eh nicht. Die Speicherbandbreite reicht imho auch mit 500 MHz mehr als aus =).

Edit: Wenn ich mich noch daran erinnere, dass ich Ende 2002 noch bei 250 MHz und 128-Bit Breite Bildfehler bekam (NV15)... Das ist eine Vervierfachung der Speicherbandbreite! :freak:

Gast
2004-04-14, 08:32:04
Original geschrieben von thop
Du hast aber auch gesehen dass 4nVAA immer noch nicht wie 100% 4ATIAA aussieht? ;) Ausserdem wenn die Karte der 9800XT nur um 2AA vorraus ist, dann Prost Mahlzeit.

Gut gesprochen

seahawk
2004-04-14, 08:36:24
Wenn die Benches mit 400MHz CPU Takt gelaufen sind, dann hat NV aber noch viel Potential in dem Chip.

Mit 400Mhz dürfte es für eine X800Pro evtl reichen. Für die X800XT aber nicht.

Da könnte der NV45 nicht nur PCI Express sondern auch noch einen Speedbump bringen. Besonders wenn die X800XT wirklich mit 600Mhz kommt.

Für mich bleibt ATI Favorit im Kampf um die Krone.

Roadkill
2004-04-14, 08:43:25
Ganz ehrlich, ich freu mich auf den Refresh Chip vom NV40. Der wird aller vorraussicht meine neue GPU werden. :)

Endorphine
2004-04-14, 08:45:59
Original geschrieben von thop
Du hast aber auch gesehen dass 4nVAA immer noch nicht wie 100% 4ATIAA aussieht? ;) Ausserdem wenn die Karte der 9800XT nur um 2AA vorraus ist, dann Prost Mahlzeit. Du hast aber auch gesehen, dass brilinear abschaltbar ist und damit ATI schon bei TF nicht die Qualität von nVidia erreicht? :D

LovesuckZ
2004-04-14, 08:54:00
Original geschrieben von seahawk
Für mich bleibt ATI Favorit im Kampf um die Krone.

Das ist umstritten. Wenn man sieht, was Nvidia alles geaendert hat, nur um konkurenzfaehig zu bleiben, zeigt es doch, wie gut ATi mit dem r200 vorgelegt hat.
Man brauch sich nur mal das AA angucken. Ebenfalls nur 4 Samples, zwar anders angeordnet, aber keine hoeheren MS Modien. Nvidia hat hat einfach gehofft, dass AA in der Zukunft kein wirklich starkes Must - Have Feature wird, tja, man irrte sich. Und wenn ATi wirklich neben dem sehr guten 6RG Modus noch einen hoeheren hat und dazu noch verbessertes AF, dann sieht es für Nvidia wiedermals dunkel aus...
Man koennte die Sache mit AA "Ironie des Schicksals" nennen...

StefanV
2004-04-14, 08:55:19
Original geschrieben von dildo4u
http://mbnet.fi/elixir/NV40/10817474486qLMOmeutS_4_5_l.gif
frag mich warum die die den NV40 immer mit 4XAA teste un die andren karten ohne oder nur mit 2XAA

Hm, interessant, daß alle etwa gleich schnell sind, besonders FX5950U und 9800XT ist interessant, wenn man auf die Settings achtet *eg*

SKYNET
2004-04-14, 09:01:00
Original geschrieben von Stefan Payne
Hm, interessant, daß alle etwa gleich schnell sind, besonders FX5950U und 9800XT ist interessant, wenn man auf die Settings achtet *eg*

gebe der 9800XT mal 4x AA... *plopp* da warens nurnoch 32 frames ;D

seahawk
2004-04-14, 09:02:34
Original geschrieben von Stefan Payne
Hm, interessant, daß alle etwa gleich schnell sind, besonders FX5950U und 9800XT ist interessant, wenn man auf die Settings achtet *eg*

Und das Verhältnis von 5950 zu 9800XT wird sich auch bei den neuen Chips imho wieder einstellen. X800XT > 6800Ultra

Endorphine
2004-04-14, 09:03:23
Original geschrieben von seahawk
Und das Verhältnis von 5950 zu 9800XT wird sich auch bei den neuen Chips imho wieder einstellen. X800XT > 6800Ultra Woher nimmst du diese Gewissheit :???:?

Marodeur
2004-04-14, 09:03:27
Also wenn die 2 Karten am Ende wirklich sehr nah beeinander liegen ist es mir sowas von wurscht was ich für eine holen werde. Bei mir kommt dann die rein die A)bessere Bildquali bietet und B)weniger mein Zimmer aufheizt :D

Wenn die beiden Punkte von jeweils ner anderen Karte erfüllt werden dann wäge ich eben genau ab.

Aber die Marke an sich geht mir voll am Arsch vorbei... :arsch:

Und bei der Kühlung glaub ich irgendwie das mir die Lösungen von beiden Herstellern zu laut sind... ;)

Gast
2004-04-14, 09:04:25
Original geschrieben von r@e
Nochmal: ist ein Bug im Patch 1.1 !
(der unter 1.0 nicht zu beäugen ist und nicht mal Performance bringt ;-)

Schau' mal hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=1724069#post1724069

Razor


Ja jetzt ist der PAtch schuld, bringt keine Performance, den Leuten wird aber empfehlen ihn zu installieren, da er doch 50% Performance bringt (auf NV35) also was jetzt?

seahawk
2004-04-14, 09:07:37
Original geschrieben von Endorphine
Woher nimmst du diese Gewissheit :???:?

Sagen wir ich weiss was über den R420 :D

Cpl. Dwayne Hicks
2004-04-14, 09:13:52
lol

wer kauft sich denn für 500EUR eine karte nur um FSAA eine stufe höher zu stellen?!

aths
2004-04-14, 09:14:48
Original geschrieben von LovesuckZ
Nein, 1600*1200 mit 4AA/8QAF.
Alles darunter ist kaum fördern! Du meinst, kaum fordernd.

Original geschrieben von seahawk
Und das Verhältnis von 5950 zu 9800XT wird sich auch bei den neuen Chips imho wieder einstellen. X800XT > 6800Ultra Wie siehst du das Verhältnis zwischen 5950 Ultra und 9800 XT denn?

Gast
2004-04-14, 09:16:44
Abwarten, Tee trinken, wer weis ob Far Cry wirklich die PS3.0 Funktionen der NV40 benutzt, ist mir zu verbugt imo (vorher wurde ja getönt das per OpenGL mehr Performance erreicht wird, und... geht überhaupt nix mit OpenGL) um auf die Benchmarkergebnisse auch nur 1 Cent zu geben.

aths
2004-04-14, 09:19:29
Original geschrieben von CompuJoe
Mal ne frage, haben die Pipelines der Karten was mit der Leistung under AA/AF zu tun?Die Frage sollte konkreter gestellt werden.

seahawk
2004-04-14, 09:20:55
Original geschrieben von aths
Wie siehst du das Verhältnis zwischen 5950 Ultra und 9800 XT denn?

Die XT ist bei Einstellungen mit vergleichbarer Bildqualität unter D3D in den meisten Anwendungen schneller. Bei OGL Engines die auf dem Sourcecode einer bestimmten Firma passieren, ist die FX performanter.

Die AF Qualität der FX ist besser, dafür bietet die XT bessere AA Modi.

Im Endeffekt ist die XT im Schnitt etwas vorne.

Der Vorteil bei der Shaderleistung für die XT könnte allerdings nicht mehr exisitieren.

Allerdings nur, wenn die FX6800 wie in den bisher bekannten Tests tatket und die ATI X800XT wirklich über die bisher genannten technischen Daten verfügt.

aths
2004-04-14, 09:22:36
Original geschrieben von Endorphine
Du hast aber auch gesehen, dass brilinear abschaltbar ist und damit ATI schon bei TF nicht die Qualität von nVidia erreicht? :D Ich empfehle, einen gewissen Artikel abzuwarten.

LovesuckZ
2004-04-14, 09:25:19
Hm, ich freue mich über die Kleinkriege, welches 4xRGAA wohl besser aussehe :D
Wenn man sie diese beiden Vergleichsbilder ( Nvidia (http://mbnet.fi/elixir/NV40/10817474486qLMOmeutS_8_4_l.jpg) - Ati (http://mbnet.fi/elixir/NV40/10817474486qLMOmeutS_8_6_l.jpg) ) anguckt, dann haben beide ihre Vor- und Nachreile.

Odal
2004-04-14, 09:30:32
Original geschrieben von LovesuckZ
Hm, ich freue mich über die Kleinkriege, welches 4xRGAA wohl besser aussehe :D
Wenn man sie diese beiden Vergleichsbilder ( Nvidia (http://mbnet.fi/elixir/NV40/10817474486qLMOmeutS_8_4_l.jpg) - Ati (http://mbnet.fi/elixir/NV40/10817474486qLMOmeutS_8_6_l.jpg) ) anguckt, dann haben beide ihre Vor- und Nachreile.

also am anfang hab ich ja ati's als besser empfunden...das war wohl die macht der gewohnheit...da es sich wohl um den gleichen screeni handelt :)
zumindest siehts dann doch gleich aus von der qualitaet

seahawk
2004-04-14, 09:31:08
Rein subjektiv gefällt mir die NV Lösung in diesem Screenshot besser.

nggalai
2004-04-14, 09:39:31
Threads merged.rb

Endorphine
2004-04-14, 09:43:50
Original geschrieben von aths
Ich empfehle, einen gewissen Artikel abzuwarten. Die Fakten zum brilinearen Filter stehen ja bereits, es fehlen nur noch AF-Blumen. :)
Original geschrieben von Endorphine
:up: :up: :up: Meine Gebete wurden erhört.

http://mbnet.fi/elixir/NV40/10817474486qLMOmeutS_2_5_l.gif
http://mbnet.fi/elixir/NV40/10817474486qLMOmeutS_2_6_l.jpg

Brilinear Filtering abschaltbar, wenn das nicht big news sind. :jump1: :jump1: :jump1:

Gast
2004-04-14, 09:45:44
Original geschrieben von seahawk
Rein subjektiv gefällt mir die NV Lösung in diesem Screenshot besser.

ATi sieht aus wie 2xAA. (NV aber auch - bei den Stromleitungen)

aths
2004-04-14, 09:50:26
Original geschrieben von LovesuckZ
Hm, ich freue mich über die Kleinkriege, welches 4xRGAA wohl besser aussehe :D
Wenn man sie diese beiden Vergleichsbilder ( Nvidia (http://mbnet.fi/elixir/NV40/10817474486qLMOmeutS_8_4_l.jpg) - Ati (http://mbnet.fi/elixir/NV40/10817474486qLMOmeutS_8_6_l.jpg) ) anguckt, dann haben beide ihre Vor- und Nachreile. An meinem Monitor hier (zuhause prüf ich das noch mal gegen) sieht ATIs Glättung insgesamt besser aus.

LovesuckZ
2004-04-14, 10:08:01
Die "normale" version der Karte kommt mit 12 Pipelines und 128MB. Das steht also schon fest: ftp://DC:DC@219.237.118.29/6800models_resize.jpg

Vielleicht handelt es sich ja um dem ersten "NV40".

Gast
2004-04-14, 10:11:39
http://mbnet.fi/elixir/NV40/

up

seahawk
2004-04-14, 10:11:51
Original geschrieben von LovesuckZ
Die "normale" version der Karte kommt mit 12 Pipelines und 128MB. Das steht also schon fest: ftp://DC:DC@219.237.118.29/6800models_resize.jpg

Vielleicht handelt es sich ja um dem ersten "NV40".

Was willst Du uns sagen ??? Der 6800 non Ultra hat nur 12 Pipes ??

Aquaschaf
2004-04-14, 10:12:39
Original geschrieben von SKYNET
weil NV hat schon neue treiber draussen wenn ATI die karte öffentlich macht.

dann nichtmehr im halben beta stadium.

ich schätze mal das alleine durch treiber und diemal ohne bildqualitätsverlust noch 10-30% rausspringen :D


Woher kommt eigentlich immer noch dieser Glauben an Wundertreiber?

LovesuckZ
2004-04-14, 10:14:26
Original geschrieben von Aquaschaf
Woher kommt eigentlich immer noch dieser Glauben an Wundertreiber?

Hm, 100% sind doch eigentlich ein Wunder...
Nunja, wir wissen nicht, wie weit Nvidia mit dem Compiler schon ist, es kann also sein, dass in zukünftigen Treiber der Speed nochmal hochgeht. Ausserdem handelt es sich hier um eien fast neue Shaderarchitektur, wenn ich das richtige interpretiere.

LovesuckZ
2004-04-14, 10:15:09
Original geschrieben von seahawk
Was willst Du uns sagen ??? Der 9800 non Ultra hat nur 12 Pipes ??

*hust* "NV40 ist da"...
Nein, die normale 6800 Version der Karte verfügt nur über 12 Pipelines und 128MB.

Iceman346
2004-04-14, 10:20:09
Original geschrieben von LovesuckZ
Hm, ich freue mich über die Kleinkriege, welches 4xRGAA wohl besser aussehe :D
Wenn man sie diese beiden Vergleichsbilder ( Nvidia (http://mbnet.fi/elixir/NV40/10817474486qLMOmeutS_8_4_l.jpg) - Ati (http://mbnet.fi/elixir/NV40/10817474486qLMOmeutS_8_6_l.jpg) ) anguckt, dann haben beide ihre Vor- und Nachreile.

Auch wenn ich jetzt sicherlich von manchen Leuten als Fanboy abgestempelt werde ;) Wo siehst du die Vorteile bei NVs AA? Ich sehe eigentlich nur 2 wirkliche Unterschiede:
1) Die Stromkabel in der Mitte des Bildes und
2) Das halb zerstörte Dach hinten rechts. Links neben dem Strommasten.
Beide Stellen sehen imo auf der ATi Karte besser aus und ansonsten nehmen sich die Karten nicht viel.

LovesuckZ
2004-04-14, 10:22:46
Am Kasten rechts unten
AM Strommast rechts oben
Am Hausdach/rinne links oben
Stromkabel links oben/Mitte

Iceman346
2004-04-14, 10:28:59
Original geschrieben von LovesuckZ

Am Kasten rechts unten

Ja, ist ein Unterschied erkennbar, positiv für Nvidia. Unterschied ist aber imo minimal

AM Strommast rechts oben

Öh, da sehe ich zwar einen Unterschied, aber das als besser für eine der beiden Seiten zu bezeichnen wäre, bei der Größe, etwas extrem.

Am Hausdach/rinne links oben

Jupp

Stromkabel links oben/Mitte

Meinst du damit das gleiche Stromkabel welches ich meine? ;)

Achja, welche Stelle du noch vergessen hast: Die Rundung des Waggons im Vordergrund sieht auf der FX auch besser aus.

Gast
2004-04-14, 10:30:26
Und das soll nun der NV40 sein,das Ergebniss ist lächerlich,die Karte kann man sich sparen.

http://mbnet.fi/elixir/NV40/10817474486qLMOmeutS_4_5_l.gif

nggalai
2004-04-14, 10:35:29
Original geschrieben von Gast
Und das soll nun der NV40 sein,das Ergebniss ist lächerlich,die Karte kann man sich sparen.

http://mbnet.fi/elixir/NV40/10817474486qLMOmeutS_4_5_l.gif Nochmals schaun, wie gebencht wurde, und dann nachdenken. Und vorallem: Nicht Sachen posten, die in diesem Thread schon ein paarmal erwähnt wurden. ;)

93,
-Sascha.rb

Odal
2004-04-14, 10:37:13
jupp vorallem sprach man immer von knapper bandbreite..und das AA geht ja auf die bandbreite....

Gast
2004-04-14, 10:42:37
Wie war das bitte,der NV40 ist mit AA,AF so schnell wie ne 9800xt,NEIN wenn man bei FarCry AA und AF einschaltet hat man so gut wie keinen Leistungsverlust.

Was mußte ich mir in den letzten Wochen anhören, Farcry 80% oder in HL2 3 mal schneller und son Blödsinn.
Der Leistungssprung ist enttäuschend :down:

Wenn der R420 auch so wird ,kann man sich die Gen sparen

Merkor
2004-04-14, 10:48:22
Die Benchmarks sind durchaus enttäuschend. Da gibt es keine Diskussion.

Aber das hier sieht schon wieder anders aus...

http://cc.usu.edu/~roblb/3dmark2k3.jpg

Edit: Hier (http://hardforum.com/showthread.php?threadid=754385&perpage=15&pagenumber=1) noch der Link zur Quelle...

LovesuckZ
2004-04-14, 10:49:36
Original geschrieben von Merkor
Die Benchmarks sind durchaus enttäuschend. Da gibt es keine Diskussion.


Das einzigste was man enttaeuschend nennen koennte, waere Farcry. Beim Rest liegt die Karte mit 80% in Führung, bei gleichen Einstellungen. Was habt ihr denn alle erwartet?

Iceman346
2004-04-14, 10:52:42
Original geschrieben von LovesuckZ
Das einzigste was man enttaeuschend nennen koennte, waere Farcry. Beim Rest liegt die Karte mit 80% in Führung, bei gleichen Einstellungen. Was habt ihr denn alle erwartet?

Übertreib nicht so, bei NFS:U liegen die Karten bei gleichen Einstellungen kaum auseinander ;)
Grade wegen den seltsamen Einstellungen die in diesem Review gewählt wurden wäre ich dafür erstmal richtige Reviews abzuwarten bevor man irgendwelche Schlüsse zieht. Außerdem ist Far Cry das Shaderintensivste getestete Spiel und damit imo recht wichtig ;)

Marodeur
2004-04-14, 10:53:39
Na super, hauptsach der 3Dschwanz03 gibt ne gute Verlängerung... ;)

Merkor
2004-04-14, 10:53:52
Original geschrieben von LovesuckZ
Das einzigste was man enttaeuschend nennen koennte, waere Farcry. Beim Rest liegt die Karte mit 80% in Führung, bei gleichen Einstellungen. Was habt ihr denn alle erwartet?

Far Cry ist ein NextGen Game. Das MUSS einfach ein dickes Performanceplus bekommen. Sonst bringt mir die Karte nichts. Aber auch bei Need for Speed sieht es nicht anders aus. Ich denke, dass bei einigen Games schlichtweg bei der Bildqualität getrickst wurde, um besser dazustehen...

nggalai
2004-04-14, 10:54:10
Original geschrieben von LovesuckZ
Das einzigste was man enttaeuschend nennen koennte, waere Farcry. Beim Rest liegt die Karte mit 80% in Führung, bei gleichen Einstellungen. Was habt ihr denn alle erwartet? Von einem Dev-Freund (nicht mit 3DCenter verbandelt):


9800XT / 6800

Far Cry 1024 : 52 / 57 fps
Far Cry 1024 4x + 8° : 37 / 50 fps
Far Cry 1600 : 36 / 51 fps
Far Cry 1280 4x + 8° : 25 / 39 fps


sooo übel finde ich das nicht. ;)

93,
-Sascha.rb

LovesuckZ
2004-04-14, 10:56:17
Original geschrieben von nggalai
Von einem Dev-Freund (nicht mit 3DCenter verbandelt):

9800XT / 6800
Far Cry 1024 : 52 / 57 fps
Far Cry 1024 4x + 8° : 37 / 50 fps
Far Cry 1600 : 36 / 51 fps
Far Cry 1280 4x + 8° : 25 / 39 fps

sooo übel finde ich das nicht. ;)
93,
-Sascha.rb

Hm, in 1600 anscheinend auch fast CPU limitierend. Ist eigentlich okay, wenn man in betracht zieht, dass Nvidia wohl nicht die selbe Effizienz wie die ATi Karten erreicht hat.

/edit: Oder limitiert die Speicherbandbreite?

Gast
2004-04-14, 10:58:46
ist das "nur" eine 6800 oder doch eine ultra?

mfg

JD

Winter[Raven]
2004-04-14, 10:59:04
Nja, die von [H] haben irgendwie Mist geabt, die labern von der Nv40 Ultra, aber zeigen die Treiber Menüs einer NON ULTRA ?

http://mbnet.fi/elixir/NV40/10817474486qLMOmeutS_2_5_l.gif

Da Fehlt der Zusatz NON ULTRA.

Entwerder die haben 2 Karten bekommen oder haben die ultra mit NON Ultra verwechselt.

LovesuckZ
2004-04-14, 11:00:54
Wahrscheinlich ein Bios Problem. My, God. Ist schon eine Ultra mit 16 Pipelines, ansonsten machen die Nvidiafolien keinen Sinn...

Gast
2004-04-14, 11:01:23
Original geschrieben von nggalai
Nochmals schaun, wie gebencht wurde, und dann nachdenken. Und vorallem: Nicht Sachen posten, die in diesem Thread schon ein paarmal erwähnt wurden. ;)

93,
-Sascha.rb


So unrecht hat der andere Gast nicht. V.A. weil die FX Shader mit LowPrecision laufen, und die 9800XT kaum einbricht wenn man statt 2xAA 4xAA verwendet.

Gast
2004-04-14, 11:01:40
ich hab eher die obigen FC-benches gemeint - kanns sein dass da einfach das "U" hinter der 6800er vergessen wurde?

Exxtreme
2004-04-14, 11:03:26
Original geschrieben von Winter[Raven]
Da Fehlt der Zusatz NON ULTRA.

Entwerder die haben 2 Karten bekommen oder haben die ultra mit NON Ultra verwechselt.
Oder aber der Treiber unterscheidet nicht zwischen den Karten. Bei ATi steht auch nur "Radeon 9500/9700 Series" im treiber.

seahawk
2004-04-14, 11:03:33
Original geschrieben von Gast
So unrecht hat der andere Gast nicht. V.A. weil die FX Shader mit LowPrecision laufen, und die 9800XT kaum einbricht wenn man statt 2xAA 4xAA verwendet.

Lieber Gast komm erzähl uns was von den Shadern des NV40. Wie sind sie aufgebaut ? FP16 oder Fp32, welchen Einheiten und wieviele ...

LovesuckZ
2004-04-14, 11:07:36
Original geschrieben von seahawk
Lieber Gast komm erzähl uns was von den Shadern des NV40. Wie sind sie aufgebaut ? FP16 oder Fp32, welchen Einheiten und wieviele ...

Laut Nvidia seien die Performanceprobleme mit FP32 beseitigt...

Morpheus2200
2004-04-14, 11:07:51
Original geschrieben von nggalai
Nochmals schaun, wie gebencht wurde, und dann nachdenken. Und vorallem: Nicht Sachen posten, die in diesem Thread schon ein paarmal erwähnt wurden. ;)

93,
-Sascha.rb

Warum testen die son ne schwachsinn? warum mit verschiedenen Qualitätseinstelleungen? Warum nicht mit gleichen settings? Die Benches hätten sie sich sparen können

nggalai
2004-04-14, 11:11:11
Original geschrieben von Morpheus2200
Warum testen die son ne schwachsinn? warum mit verschiedenen Qualitätseinstelleungen? Warum nicht mit gleichen settings? Die Benches hätten sie sich sparen können Yup.

Wartet den Ablauf der NDA ab, dann gibt's einige vernünftige Artikel / Previews aufm Netz. Und einen neuen Sammelthread. ;)

93,
-Sascha.rb

JoeDesperado
2004-04-14, 11:12:49
Original geschrieben von nggalai
Von einem Dev-Freund (nicht mit 3DCenter verbandelt):


9800XT / 6800

Far Cry 1024 : 52 / 57 fps
Far Cry 1024 4x + 8° : 37 / 50 fps
Far Cry 1600 : 36 / 51 fps
Far Cry 1280 4x + 8° : 25 / 39 fps


sooo übel finde ich das nicht. ;)

93,
-Sascha.rb

den bench mein ich - für eine 6800er mit "nur" 12 pipes wär das ergebnis ned schlecht, für eine 6800U mit 16pipes beeindruckts mich wenig - also: tippfehler oder beabsichtigt?

Gast
2004-04-14, 11:14:22
Original geschrieben von nggalai
Von einem Dev-Freund (nicht mit 3DCenter verbandelt):


9800XT / 6800

Far Cry 1024 : 52 / 57 fps
Far Cry 1024 4x + 8° : 37 / 50 fps
Far Cry 1600 : 36 / 51 fps
Far Cry 1280 4x + 8° : 25 / 39 fps


sooo übel finde ich das nicht. ;)

93,
-Sascha.rb

Die Leistung in 1024 find ich sehr schwach,das überzeugt die Leute nicht

LovesuckZ
2004-04-14, 11:15:18
Demos: FarCry PS3.0. Uses displacement mapping all over the place (not "offset mapping" like Unreal3 engine) Also dynamic shadows everywhere. They showed side by side images. It looks *WAY* better hands on compared to current FarCry.


http://www.beyond3d.com/forum/viewtopic.php?p=256865#256865

Koennte das stimmen? Nächster Patch? Wenn ja, dann koennte das ATi boes treffen...

LovesuckZ
2004-04-14, 11:16:14
Original geschrieben von Gast
Die Leistung in 1024 find ich sehr schwach,das überzeugt die Leute nicht

Dann schenk den Leuten ne bessere CPU...
Die Karte verliert nen bissl mehr als 10% von 1024 zu 1600.

Morpheus2200
2004-04-14, 11:16:22
Original geschrieben von Gast
Die Leistung in 1024 find ich sehr schwach,das überzeugt die Leute nicht

In 1024 tip ich mal drauf das die CPU der limitierende Faktor ist.

nggalai
2004-04-14, 11:19:20
Original geschrieben von Gast
Die Leistung in 1024 find ich sehr schwach,das überzeugt die Leute nicht Stichwort: CPU-Limitiert.

Ob's eine "non-ultra" oder "ultra" war darf ich ned sagen, sorry. Auch welche Patch-Version von Far Cry muss im Dunkeln bleiben. Ich weiss, ist nicht fein einfach einige Zahlen ohne Quellen reinzuwerfen, aber die Far Cry-Diskussionen hier im Thread haben mich über meinen Schatten springen lassen. Bei Far Cry ist die Sache mit Vergleichsbenchmarks ziemlich ... eigenwillig. Sollte also eher ein Einwurf à la "kommt drauf an" sein als faktische Vergleichswerte.

93,
-Sascha.rb

Demirug
2004-04-14, 11:19:22
Viele der eingesetzten Shader bei Farcry dürften auf einer 16 Pipe Karte stark Bandbreiten limitierte sein. Das darf man hier auch nicht vergessen.

Winter[Raven]
2004-04-14, 11:29:28
@ nggalai

Hab ich das richtig verstanden, das Far Cry auf der 6800 (?) Ultra mit displacement mapping und den Shader 3.0, aber die Radeon 9800XT nur Standart ?

Gast
2004-04-14, 11:30:43
Original geschrieben von seahawk
Lieber Gast komm erzähl uns was von den Shadern des NV40. Wie sind sie aufgebaut ? FP16 oder Fp32, welchen Einheiten und wieviele ...

Sei mal nicht so giftig. In Farcry 1.1 kommen definitiv Lowprecision Shader zum einsatz (lt. Screenshot) , und 2x auf 4xAA bricht selbst auf einer 128MB 9800pro nicht so stark ein

SKYNET
2004-04-14, 11:31:10
Original geschrieben von LovesuckZ
*hust* "NV40 ist da"...
Nein, die normale 6800 Version der Karte verfügt nur über 12 Pipelines und 128MB.


wa ? mach kein quatsch.
wer will den sowas.


beschnittender crap *igitt*

Winter[Raven]
2004-04-14, 11:32:57
Original geschrieben von SKYNET
wa ? mach kein quatsch.
wer will den sowas.


beschnittender crap *igitt*

Jou ... 6800 NON Ultra hat 12 Pipes. Die ultra 16.

SKYNET
2004-04-14, 11:34:31
Original geschrieben von Merkor
Die Benchmarks sind durchaus enttäuschend. Da gibt es keine Diskussion.

Aber das hier sieht schon wieder anders aus...

http://cc.usu.edu/~roblb/3dmark2k3.jpg

Edit: Hier (http://hardforum.com/showthread.php?threadid=754385&perpage=15&pagenumber=1) noch der Link zur Quelle...

das wichtigeste !

*gekauft*

LovesuckZ
2004-04-14, 11:36:12
Original geschrieben von SKYNET
wa ? mach kein quatsch.
wer will den sowas.
beschnittender crap *igitt*

"beschnittender crap"? Einerseits soll sie nur 299$. Es kommt zu einer geringeren Limitierung der Bandbreite und sie wird ebenfalls deutlich schneller sein als die jetzige 5950U!
Ich werde mir die Karte holen, da die Konkurenu wohl nur eine 8 Pipe Karte in diesen Preissegmen wirft. Im Gegensatz zur 6800U verbraucht die Karte weniger Strom, ist kühler, nimmt keinen 2. Slot weg und wahrscheinlich leiser. Und sollte es sich hier um den selben Core handeln, dürfte sie gut übertaktbar sein.

BlueRaven
2004-04-14, 11:37:13
BoooAAAhhh ey soviel Punkte.


die GeForce 6800 Ultra gehört schon mir ;D




bye
BlueRaven

ow
2004-04-14, 11:38:06
Original geschrieben von Winter[Raven]
Jou ... 6800 NON Ultra hat 12 Pipes. Die ultra 16.

Behauptet wer?

Morpheus2200
2004-04-14, 11:38:16
Hats nicht geheissen das Leonidas ein exemblar bekommen hat? Wo bleiben die tests? ;D

Gast
2004-04-14, 11:38:27
Ja wo laufe sie denn... ?
http://www.nvidia.com/page/home
oder
stille ruhet der See =)

up

ow
2004-04-14, 11:39:09
Original geschrieben von BlueRaven
BoooAAAhhh ey soviel Punkte.


die GeForceFX 6800 Ultra gehört schon mir ;D




bye
BlueRaven

Pech gehabt, eine solche Karte gibt es nicht. ;D

Hamster
2004-04-14, 11:39:09
Original geschrieben von Morpheus2200
Hats nicht geheissen das Leonidas ein exemblar bekommen hat? Wo bleiben die tests? ;D



News des 13. April 2004

Lange, sehr lange wurde gewartet - und am 14. April ist es dann endlich soweit und einer der beiden großen Grafikchip-Entwickler wird seinen NextGeneration-Chip der Öffentlichkeit vorstellen (wer aufgepasst hat, weiss, welcher Hersteller und welcher Chip gemeint ist). Wir für unseren Teil werden diesen Launch mit gleich zwei Artikeln begleiten - einen zur Technik des neuen Chips und einen mit ausführlichen Benchmarks. Beide Artikel werden am 14. April nachmittags um 15 Uhr online gehen - und wir hoffen, daß der Server es aushält ;-).

BlueRaven
2004-04-14, 11:39:37
Jo das mit dem See habe ich auch gesehen schon seit gestern aber wat hat es aufsich.





bye
BlueRaven

Exxtreme
2004-04-14, 11:39:44
Original geschrieben von Morpheus2200
Hats nicht geheissen das Leonidas ein exemblar bekommen hat? Wo bleiben die tests? ;D
Warte bis 15 Uhr. Dann fällt das NDA.

LovesuckZ
2004-04-14, 11:40:06
Original geschrieben von ow
Behauptet wer?

Nvidia selbst auf der Launchparty in San Francisco.

SKYNET
2004-04-14, 11:41:56
Original geschrieben von Gast
Die Leistung in 1024 find ich sehr schwach,das überzeugt die Leute nicht

gebe mal der CPU mehr dampf.

1024 ist noch sehr stark CPU abhänging.

unsoniedirger die auflösung umsomsher gehts auch auf die CPU(640*480 ist eigentlich nur CPU)

soll heißen: die karte war total unterfprdert in dem getestetem system.

um die karte 100% auszureitzen warten wir auf den FX-55 @ S939.

und wenn du die karte clocksts bins ans limit(sagen wir mal 600/1500) dann brauchste auf sicher ne FX @ 3.2GHz CPU weil sonst langweilt sich die GPU zutode.

seahawk
2004-04-14, 11:41:57
Original geschrieben von Gast
Sei mal nicht so giftig. In Farcry 1.1 kommen definitiv Lowprecision Shader zum einsatz (lt. Screenshot) , und 2x auf 4xAA bricht selbst auf einer 128MB 9800pro nicht so stark ein

Dann zeig mal den Screenshot. :D

Winter[Raven]
2004-04-14, 11:42:12
http://people.freenet.de/pics123/nv410.JPG

SKYNET
2004-04-14, 11:45:07
Original geschrieben von Winter[Raven]
Jou ... 6800 NON Ultra hat 12 Pipes. Die ultra 16.



*argh*
dann muss ich wohl doch in den sauren apfel beissen und mir ne ultra kaufen :cry:

Original geschrieben von Winter[Raven]
http://people.freenet.de/pics123/nv410.JPG

*aaaiiiiiiii* *innerlich sterb*

SKYNET
2004-04-14, 11:45:54
dübble pöst

BlueRaven
2004-04-14, 11:46:28
Ich würde meinen das die Ultra hier in Deutschland so um die 650€ verkauft wird.





bye
BlueRaven

Gast
2004-04-14, 11:46:46
Angeblich solln wir uns auf 'was' gefaßt machen:
uns werden die Sinne schwinden!

up

Exxtreme
2004-04-14, 11:47:32
Original geschrieben von SKYNET
*argh*
dasnn muss ich wohl doch in den sauren apfel beissen und mir ne ultra kaufen :cry:
Die 16 Pipes würden bei der Non-Ultra kaum Sinn machen da Bandbreite fehlt.