PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller NV40 / GeForce 6800 Thread


Seiten : 1 2 3 4 5 [6] 7 8 9 10 11 12 13 14

MadMan2k
2004-04-24, 21:14:12
Original geschrieben von ShadowXX
jo...das mit der Wasserkühlung hab ich übersehen.

Ich hoffe auch, das die ohne WaKü nur 550 kosten werden...

560€ ;)

http://www.hartware.de/news_36200.html

tokugawa
2004-04-24, 22:20:03
Original geschrieben von Aquaschaf
Sie werden dann aber auch mehr Strom verbrauchen ;)

Aber trotzdem um Welten weniger als "äquivalent schnelle" Pentium-4s

Danny007
2004-04-25, 09:51:34
Ende Mai erst? Wann soll denn die nU kommen. Später oder eher?

LovesuckZ
2004-04-25, 09:57:18
Original geschrieben von Danny007
Ende Mai erst? Wann soll denn die nU kommen. Später oder eher?

Wohl erst frühsten im Juni.

Gast
2004-04-27, 11:04:28
Hallo,

wie sinnvoll ist eine Geforce 6800Ultra mit einem Barton 3200+/Nforce2-Gespann? Die Frage ist ernst gemeint.

JFZ
2004-04-27, 11:16:49
Original geschrieben von Gast
Hallo,

wie sinnvoll ist eine Geforce 6800Ultra mit einem Barton 3200+/Nforce2-Gespann? Die Frage ist ernst gemeint.

Wenn du das Geld hast, ist es sicher nicht verkehrt. Der Test hier wurde ja sogar nur mit einem P4 2,5GHz gemacht.
Allerdings. Lohnen tut es sich vor allem bei hohen auflösungen und/oder AA. Bei niedrigen Qualitätssettings bringt das dagegen nicht soo viel

Gast
2004-04-27, 11:21:36
Original geschrieben von JFZ
Wenn du das Geld hast, ist es sicher nicht verkehrt. Der Test hier wurde ja sogar nur mit einem P4 2,5GHz gemacht.
Allerdings. Lohnen tut es sich vor allem bei hohen auflösungen und/oder AA. Bei niedrigen Qualitätssettings bringt das dagegen nicht soo viel

Das System steht schon. :)

Fehlt nur die Grafikkarte. Man liest ja sehr oft, daß die Geforce 6800 Ultra eher mit einem Athlon64-System befeuert werden sollte als mit irgend einem "unter 3Ghz" System. Aber ich denke nicht, daß der A64 jetzt so gravierend schneller ist als mein 3200+ Barton :gruebel:

HOT
2004-04-27, 11:41:23
Original geschrieben von Ulukay
550€
aus basta - wenn du glaubst die neue generation wird 700€ kosten dann kann ich dir aber auch nicht mehr helfen

Der Preis ist das variableste an der Geschichte und der steht für gewöhnlich nicht fest. Ob der jetzt 550€ kostet werden wir erst zum Verkaufbeginn wissen, nicht vorher. Also Anfang-Mitte Juni, frühestens.

JFZ
2004-04-27, 12:10:15
Original geschrieben von Gast
Das System steht schon. :)

Fehlt nur die Grafikkarte. Man liest ja sehr oft, daß die Geforce 6800 Ultra eher mit einem Athlon64-System befeuert werden sollte als mit irgend einem "unter 3Ghz" System. Aber ich denke nicht, daß der A64 jetzt so gravierend schneller ist als mein 3200+ Barton :gruebel:

Ok, ein A64 3400+ oder einen tick schneller wäre vielleicht passender, aber AFAIK ist der dann vielleicht um die 10% schneller als dein Barton.

dildo4u
2004-04-27, 12:16:25
Original geschrieben von JFZ
Ok, ein A64 3400+ oder einen tick schneller wäre vielleicht passender, aber AFAIK ist der dann vielleicht um die 10% schneller als dein Barton.

Spiele-Rating
AMD Athlon 64 FX-51 (Dual DDR400)
99,5%
AMD Athlon 64 3400+ (Single DDR400)
98,5%
AMD Athlon 64 FX-51 (Dual DDR333)
95,3%
Intel Pentium 4 EE 3,20 GHz (Dual DDR400)
94,8%
AMD Athlon 64 3200+ (Single DDR400)
94,8%
AMD Athlon 64 3000+ (Single DDR400)
91,9%
Intel Pentium 4 3,20 GHz (Dual DDR400)
88,4%
Intel Pentium 4 3,00 GHz (Dual DDR400)
85,9%
AMD Athlon XP 3200+ (Dual DDR400)
85,0%
Intel Pentium 4 2,4C GHz (Dual DDR400)
76,6%
http://www.computerbase.de/artikel/hardware/prozessoren/amd_athlon_64_3400/21/

Also bei games so ca 15% schneller lohnt sich nicht wirklich ab 30% kann man was spühren würde ick sagen aber in manchen game situationen könnten auch die 15% den unterschied zwischen spielbar und nicht mher spielbar ausmachen kommt halt sher aufs game an

MadManniMan
2004-04-27, 12:25:08
Neenee, nicht 15% mehr Performance, sondern 17,6 ... man nehme das Reziproke von den gegebenen 0,85 (* die Leistung eines FX-51, vom 3,2er Barton ausgehend) und komme auf 1,176 :D

HOT
2004-04-27, 12:26:13
Der Unterschied zwischen nem AthlonXP und Athlon64 ist deutlich spürbar. Wer mal nen schnellen AthlonXP und nen schnellen 64er zum testen hatte, weiss was ich meine ;)

Gast
2004-04-27, 12:28:19
Original geschrieben von HOT
Der Unterschied zwischen nem AthlonXP und Athlon64 ist deutlich spürbar. Wer mal nen schnellen AthlonXP und nen schnellen 64er zum testen hatte, weiss was ich meine ;)

Kannst du das näher erläutern? Würde mir besser helfen bzw. meinem Verständnis entgegenkommen :)

dildo4u
2004-04-27, 12:28:29
Original geschrieben von HOT
Der Unterschied zwischen nem AthlonXP und Athlon64 ist deutlich spürbar. Wer mal nen schnellen AthlonXP und nen schnellen 64er zum testen hatte, weiss was ich meine ;) bei den heutigen einstellungen aller 1280*1024 und fett AA und Aniso wird die prosessor performance immer unwichtiger jedefals in games spar das geld denk mal ab A64 3700+ würde sich da lohnen so lange kann er noch gut mit sein 3200+ auskommen

dildo4u
2004-04-27, 12:31:00
Original geschrieben von MadManniMan


Neenee, nicht 15% mehr Performance, sondern 17,6 ... man nehme das Reziproke von den gegebenen 0,85 (* die Leistung eines FX-51, vom 3,2er Barton ausgehend) und komme auf 1,176 :D

es ging ja auch um den 3400;-) denke mal für ein normal verdiener kommt ein FX nicht in frage zumal er dann auch noch neuen reg ram breuchte muss jeder selber wissen ob ihn 1% mehrleistung 800 statt 300€ wert sind *G*

MadManniMan
2004-04-27, 12:41:28
Original geschrieben von dildo4u
es ging ja auch um den 3400;-) denke mal für ein normal verdiener kommt ein FX nicht in frage zumal er dann auch noch neuen reg ram breuchte muss jeder selber wissen ob ihn 1% mehrleistung 800 statt 300€ wert sind *G*

Ahso .... äh, na dann sinds 15,8% ... :weg:

dildo4u
2004-04-27, 12:55:03
http://www.hardwareluxx.de/cgi-bin/ubb/ultimatebb.cgi?ubb=get_topic&f=2&t=000035&p=

Hardwareluxx test

MarcWessels
2004-04-27, 15:06:09
Original geschrieben von dildo4u
Also bei games so ca 15% schneller lohnt sich nicht wirklich ab 30% kann man was spühren würde ick sagen aber in manchen game situationen könnten auch die 15% den unterschied zwischen spielbar und nicht mher spielbar ausmachen kommt halt sher aufs game an

Naja, ob man jetzt unbedingt den Computerbase-Index als Maßstab heranziehen sollte?

In vielen Games ist der Abstand um einiges größer als 15,8% außerdem hätte der o.g. Index besser mit einer 640x480er Auflösung erfolgen sollen, um die GraKa als Bremse auszuschließen. Darüberhinaus gibt es genpgend CPU-limitierte Situationen in Spielen, die leider durch die Angabe der durchschnittlichen Framerate bei weitem nicht richtig wiedergegeben werden, vielmehr sollte auf die niedrigsten Frameraten geachtet werden. Die GF2 U war beispielsweise damals bei ERscheinen nur etwa 12% im Schnitt schneller als die GF 2 GTS. Guckte man sich aber die niedrigsten Frameraten in Q3A an, so gab es dort ein Leistungsplus von 60%.

Das Argument mit ohem AF etc. zählt sowieso selbst auf die durchschnittliche Framerte bezogen nicht unbedingt, wenn man eine 6800U oder eine X800XT als GraKa verwendet - Games wie Halo nbatürlich ausgenommen aber da kann man auch etliche Gegenbeispiele wie Comanche 4 anführen.

Godmode
2004-04-27, 15:38:33
Angeblich soll es ne Pro Version der 6800 geben, die zwischen der NU und der U skaliert.

http://www.theinquirer.net/?article=15555
http://news.hwupgrade.it/12304.html

DrumDub
2004-04-27, 15:52:48
Original geschrieben von bans3i
Angeblich soll es ne Pro Version der 6800 geben, die zwischen der NU und der U skaliert.

http://www.theinquirer.net/?article=15555
http://news.hwupgrade.it/12304.html

hmm... das macht irgendwie keinen sinn, wenn der chip auch mit 350mhz wie die 6800nu getaktet ist und nur 12 pipes hat.

Gast
2004-04-27, 16:22:43
Geforce 6800 Ultra von Sparkle im Juni

Im Juni kommt der Geforce 6800 Ultra-Grafikchip auch auf einer Karte von Sparkle zum Einsatz. Die AGP 8x-Karte mit 256 MByte GDDR3-Speicher (550 MHz DDR) und 400 MHz Chiptakt wartet selbstverständlich mit Nvidias neuesten Features wie der "CineFX 3.0 Engine" und der "Ultra Shadow II-Technologie" auf. Im Paket findet sich zudem zahlreiche Software, wie Cyberlinks Power DVD und Power Producer 2.0 und die Spiele-Titel "Spell Force", "Chaser" sowie "Arx Fatalis". Der Preis für die Sparkle Geforce 6800 Ultra ist noch nicht bekannt, wird aber wahrscheinlich im Bereich von 550 Euro liegen.

pcgames

Addy
2004-04-27, 16:24:33
Original geschrieben von dildo4u
http://www.hardwareluxx.de/cgi-bin/ubb/ultimatebb.cgi?ubb=get_topic&f=2&t=000035&p=

Hardwareluxx test

Seite 18:

"Auf jeden Fall sind hier bereits deutliche Fortschritte in der Bildqualität ersichtlich."

LOL

Ich bin etwas enttäuscht von dem Artikel. Welche deutliche Fortschritte in der Bildqualität?

Naja, sie bringen noch einen extra einenArtikel über die Bildqualität.
Mal schauen ob Sie den besser hinbekommen. :D

Winter[Raven]
2004-04-27, 17:12:09
TR: We noticed some interesting things about GeForce 6-series antialiasing in our review. Is the GeForce 6800's 8X antialiasing mode 4X supersampling plus 2X multisampling?

Tamasi: The current mode that's actually in the control panel is a 4X super/2X multi, and that will work in both OpenGL and D3D. We actually do have a 4X multi/2X super mode that a driver, probably within the next few weeks, is going to enable as well.

TR: ATI has touted "gamma-correct blending" for antialiasing in the R300 series. Does the GeForce 6800 Ultra have this feature, and if not, why not?

Tamasi: It does, and I want to be really specific about this, because there's a lot of confusion about it. There's a great deal of difference between gamma correction and gamma adjustment. What ATI does is do a gamma adjustment to gamma 2.2, which can be correct depending on your display, and that's essentially what we do, as well. Gamma correction would typically would mean you could do an adjustment to any gamma, and that would require a shader pass.



- Was zum Hänker ist 4X multi/2X super mode?

aths
2004-04-27, 17:16:33
Original geschrieben von Winter[Raven]
- Was zum Hänker ist 4X multi/2X super mode? Zum Henker, das ist ein 4x MS + 2x SS-Antialiasing-Modus. Hat bei 4x RGMSAA eine gute EER (von 8x4 oder 4x8, je nach dem.)

DrumDub
2004-04-27, 17:19:19
Original geschrieben von Winter[Raven]
- Was zum Hänker ist 4X multi/2X super mode?

henker.

das hier: http://www.de.tomshardware.com/graphic/20040414/nv40_geforce6800ultra-43.html#fsaa

heißt offiziell 8xaa beim nv40.

Lustiger Troll
2004-04-27, 17:22:04
Original geschrieben von DrumDub
henker.

das hier: http://www.de.tomshardware.com/graphic/20040414/nv40_geforce6800ultra-43.html#fsaa

heißt offiziell 8xaa beim nv40.


Henker ;D, wenn du jemanden schon verbesserst dann richtig.

DrumDub
2004-04-27, 17:28:29
Original geschrieben von Lustiger Troll
Henker ;D, wenn du jemanden schon verbesserst dann richtig.

falls es dir nicht schon aufgefallen ist, nehme ich dies gerne zum anlass darauf hinzweisen: meine tastatur hat keine shift-taste. ;D

Gast
2004-04-27, 17:54:11
Original geschrieben von Lustiger Troll
Henker ;D, wenn du jemanden schon verbesserst dann richtig.

Wie kann man sich über einen Quark freuen

Lustiger Troll
2004-04-27, 18:04:32
Original geschrieben von DrumDub
falls es dir nicht schon aufgefallen ist, nehme ich dies gerne zum anlass darauf hinzweisen: meine tastatur hat keine shift-taste. ;D

Achso, dann entchuldige ich mich mal :bier:.

betasilie
2004-04-27, 18:22:28
Original geschrieben von aths
Zum Henker, das ist ein 4x MS + 2x SS-Antialiasing-Modus. Hat bei 4x RGMSAA eine gute EER (von 8x4 oder 4x8, je nach dem.)
Meinst DU ATI bringt auch so einen Hybridmode?

Original geschrieben von Lustiger Troll
Achso, dann entchuldige ich mich mal :bier:.
Und was meinst Du, wie er den doppelpunkt macht? :bigl:

deekey777
2004-04-27, 18:37:41
Original geschrieben von betareverse
...


Und was meinst Du, wie er den doppelpunkt macht? :bigl:

Er malt den Doppelpunkt auf den Bildschirm...

Die bei Hardwareluxx gewählten Benchmarks sind nicht ganz aktuell.
Der Fortschritt bei der Bildqualität bezieht sich in erster Linie auf bessere 4xAA.

aths
2004-04-27, 18:48:27
Original geschrieben von betareverse
Meinst DU ATI bringt auch so einen Hybridmode?Wenn ich so direkt gefragt werde, muss ich das Maul halten.

Im Interview ging es an dieser Stelle um GeForce 6.

betasilie
2004-04-27, 18:53:06
Original geschrieben von aths
Wenn ich so direkt gefragt werde, muss ich das Maul halten.

Im Interview ging es an dieser Stelle um GeForce 6.
Ok, da ist wohl nix zu machen. :)

MadMan2k
2004-04-27, 18:57:44
Original geschrieben von betareverse
Und was meinst Du, wie er den doppelpunkt macht? :bigl:
mit ISO Codes :naughty:
(Alt + 4444 = \)

betasilie
2004-04-27, 19:05:56
Original geschrieben von MadMan2k
mit ISO Codes :naughty:
(Alt + 4444 = \)
Geht Unicode nicht¿ ;)

MadMan2k
2004-04-27, 19:07:41
Original geschrieben von betareverse
Geht Unicode nicht¿ ;)
meinetwegen - mir war das Wort grad entfallen, konnte aber nicht auf das Klugscheissen verzichten... :D

so, genug OT

Gast
2004-04-27, 20:12:23
lohnt sich die 6800 normale karte überhaupt oder sollte man lieber warten bis die ultra billiger ist

LovesuckZ
2004-04-27, 20:14:41
Original geschrieben von Gast
lohnt sich die 6800 normale karte überhaupt oder sollte man lieber warten bis die ultra billiger ist

Woher sollen wir das denn ohne Tests wissen?!

DrumDub
2004-04-27, 20:25:08
Original geschrieben von betareverse
Und was meinst Du, wie er den doppelpunkt macht? :bigl:

pssst... ;)


lustiger troll

natürlich habe ich eine shift- bzw. umstell-taste auf der tastatur. ich gehöre aber zu den menschen, die ein zehn-finger-schreibsystem nicht beherrschen. da ich groß- und kleinschreibung für die lesbarkeit auf dem monitor nicht für entscheidend halte (sicherlich arroganz meinerseits), erlaube ich mir aus meiner persönlichen faulheit heraus, die shit-taste nicht zu verwenden, obwohl ich natürlich in der lage bin korrektes deutsch zu schreiben. was die interpunktion angeht bin ich aber teilweise nicht so 100%ig akkurat. da verwirrt mich immer neue und alte rechtschreibung. (erweiterter infinitiv und so.) ;)

Thowe
2004-04-27, 20:36:50
Doppelpunkt = ALT und 58 auf dem Zehnerblock, natürlich beim deaktivierertem Num-Lock.

Gast
2004-04-28, 21:00:35
warum hat die ultra eigentlich nen so niedrigen chiptakt?? weil se sonst zu heiß oder nochmehr stromziehen würde?

dildo4u
2004-04-28, 21:16:23
Original geschrieben von Gast
warum hat die ultra eigentlich nen so niedrigen chiptakt?? weil se sonst zu heiß oder nochmehr stromziehen würde? mit 222mio transitoren muss man bei chiptakt halt kleine brötchen backen bei 400mhz chip is die karte bei knapp über 100watt

Lustiger Troll
2004-04-28, 22:08:22
Original geschrieben von DrumDub
pssst... ;)


lustiger troll

natürlich habe ich eine shift- bzw. umstell-taste auf der tastatur. ich gehöre aber zu den menschen, die ein zehn-finger-schreibsystem nicht beherrschen. da ich groß- und kleinschreibung für die lesbarkeit auf dem monitor nicht für entscheidend halte (sicherlich arroganz meinerseits), erlaube ich mir aus meiner persönlichen faulheit heraus, die shit-taste nicht zu verwenden, obwohl ich natürlich in der lage bin korrektes deutsch zu schreiben. was die interpunktion angeht bin ich aber teilweise nicht so 100%ig akkurat. da verwirrt mich immer neue und alte rechtschreibung. (erweiterter infinitiv und so.) ;)

OWNED X-D

Gast
2004-04-29, 14:00:17
hi all,

hat die geforce FX 6800 Ultra nur divi ausgänge? Oder gibts die auch mit "normalen" anschluss für röhrenmonitore?
Oder gibts ein adapter?

mfg

dildo4u
2004-04-29, 14:13:14
Original geschrieben von Gast
hi all,

hat die geforce FX 6800 Ultra nur divi ausgänge? Oder gibts die auch mit "normalen" anschluss für röhrenmonitore?
Oder gibts ein adapter?

mfg 2dvi adapter is whol dabei zur sicher heit immer retail kaufen das ist sowas immer mit bei

Stebs
2004-04-29, 14:25:37
Original geschrieben von Gast
hi all,

hat die geforce FX 6800 Ultra nur divi ausgänge? Oder gibts die auch mit "normalen" anschluss für röhrenmonitore?
Oder gibts ein adapter?

mfg
Mindestens ein Hersteller (weiss nicht mehr welcher) hat sie mit DVI und normalem VGA Ausgang im Programm, ich denke dass noch viele andere Hersteller das auch so machen. Ausserdem haben eh die meisten auch noch einen DVI->VGA Adapter mit im Packet liegen.
Ist eigentlich klar, Hardcoredaddler (FX 6800 Ultra) werden wohl die letzten sein die auf LCD's wechseln werden...

Stebs
2004-04-29, 14:26:50
Mist, 2L8 :D

Godmode
2004-04-29, 22:01:09
http://www.pcper.com/article.php?aid=36&type=expert

Der CEO von Crytek Chevat Yerli bringt es hier auf den Punkt für was Shader Model 3.0 in seiner Engine gut ist!


"So PS3.0 could be used only in several critical places where it gives performance boost."

"In current engine there are no visible difference between PS2.0 and PS3.0. PS3.0 is used automatically for per-pixel lighting depending on some conditions to improve speed of rendering."

und zu HDR:

"64-bit blending and filtering can be used for HDR Rendering and also for soft shadows and other special effects such as Depth of Field. Beside this it is also useful for SAT texture mapping (Summed Area Tables). In video-games using of HDR & DOF will enable us to render real-time scenes very close to movie production quality which will increase realism in the imagery."

BodyLove
2004-04-29, 22:12:53
Eine GF6800GT mit 16Pipes und 350Mhz Coretakt?
Angeblich soll die GF6800 nur 325Mhz Coretakt besitzen. Ist da was dran?

Cenmocay
2004-04-30, 11:29:15
Laut der Webseite DigiTimes wird Albatron ihre Grafikkarten mit Geforce 6800 und 6800 Ultra-Chipsätzen schon Anfang Mai auf den taiwanischen Markt bringen. Die Modelle Geforce 6800 Ultra mit 400 MHz Chiptakt und GDDR3-Speicher (500 MHz DDR) und Geforce 6800 (375 MHz Chiptakt/350 MHz DDR Speicher) sollten nach Nvidia´s Angaben erst Ende Mai/Anfang Juni in die Regale kommen.

(del676)
2004-04-30, 11:34:44
weiss noch niemand die takte der gainward wakü

Gast
2004-04-30, 12:07:31
Hier die ersten Listings...
6800:
Gainward U2400
(TV-Out, DVI) 256 MB SDRAM-DDR GeForce 6800 AGP 8x 399.00 EUR

6800 ultra:
WinFast A400 Ultra TDH MyVIVO
(TV-Out, Video-In, DVI, Retail) 256 MB GDDR3 GeForce 6800 Ultra AGP 8x 529.00 EUR

Quelle ( http://www8.alternate.de/html/nodes/009215000_prev.html)

up

eXistence
2004-04-30, 13:01:23
bei Alternate ist bei den Ausgabe-Optionen nur noch DVI+VGA angegeben und nicht mehr VGA+VGA.
Gehe ich richtig in der Annahme, dass dies nur wegen einem fehlenden DVI2VGA-Adapter so ist (wahrscheinlich wird nur einer mitgeliefert)?
Kann ich mit einem zusätzlichen Adapter also trotzdem noch VGA+VGA fahren?
Will nur sicherheitshalber mal nachfragen... :)

Gast
2004-04-30, 13:17:34
Original geschrieben von Gast
Hier die ersten Listings...
6800:
Gainward U2400
(TV-Out, DVI) 256 MB SDRAM-DDR GeForce 6800 AGP 8x 399.00 EUR

6800 ultra:
WinFast A400 Ultra TDH MyVIVO
(TV-Out, Video-In, DVI, Retail) 256 MB GDDR3 GeForce 6800 Ultra AGP 8x 529.00 EUR

Quelle ( http://www8.alternate.de/html/nodes/009215000_prev.html)

up

400 Euro,das ist ein schlechter Preis,die 6800 ist ungefähr 25% langsamer als die Ultra.

Danny007
2004-05-01, 06:40:46
Original geschrieben von Gast
400 Euro,das ist ein schlechter Preis,die 6800 ist ungefähr 25% langsamer als die Ultra. Erstmal abwarten bis die Karte auf dem Markt ist. Der Preis wird schnell sinken, wenn die Karten bei mehreren Anbietern vorhanden ist. Ich schätze mal die normale 6800 ist so teuer, damit die Preise für den älteren Karten z.B. 5950 noch etwas höher bleiben.

tokugawa
2004-05-01, 10:55:11
Original geschrieben von Cenmocay
Laut der Webseite DigiTimes wird Albatron ihre Grafikkarten mit Geforce 6800 und 6800 Ultra-Chipsätzen schon Anfang Mai auf den taiwanischen Markt bringen. Die Modelle Geforce 6800 Ultra mit 400 MHz Chiptakt und GDDR3-Speicher (500 MHz DDR) und Geforce 6800 (375 MHz Chiptakt/350 MHz DDR Speicher) sollten nach Nvidia´s Angaben erst Ende Mai/Anfang Juni in die Regale kommen.


Vielleicht sollt ich mal meine Verwandten in Taiwan kontaktieren...

Gast
2004-05-01, 11:32:21
hi !

aber man kann es schon anfang Mai bestellen oder muss man warten bis das auf den europäischen Markt kommt?

mfg

BodyLove
2004-05-01, 11:59:29
du kannst vorbestellen, ja. Ob es sinnvoll ist, ist eine andere Frage. Speziell bei Vorbestellugen werden die Preise enorm hoch sein.

ShadowXX
2004-05-01, 12:09:52
Original geschrieben von BodyLove
du kannst vorbestellen, ja. Ob es sinnvoll ist, ist eine andere Frage. Speziell bei Vorbestellugen werden die Preise enorm hoch sein.

Nö....selbst bei Alternate kann man inzwischen 6800Us für 529,- Euro (vor)bestellen....(und der Terminanzeiger ist nicht mal Rot...)

Und wenn ich mir die TecSpecs der r420 so angucke, bin ich momentan am überlegen, ob ich da nicht mal Klick mache...

BodyLove
2004-05-01, 12:24:27
Original geschrieben von ShadowXX
Nö....selbst bei Alternate kann man inzwischen 6800Us für 529,- Euro (vor)bestellen....(und der Terminanzeiger ist nicht mal Rot...)

Und wenn ich mir die TecSpecs der r420 so angucke, bin ich momentan am überlegen, ob ich da nicht mal Klick mache...

Muss mal Alternate kurz ansurfen. 529 Eu ist echt human. Ich denke aber, man sollte auf MSI warten. Wenn eine Firma sich soviel Zeit lässt, heisst es imho, dass sie an einem eigenen Layout arbeiten. Speziell bei MSI hoffe ich auf eine sehr gute Kühllösung was, silent und Power vereint.;)

Die machen doch auch ATI karten oder?

dildo4u
2004-05-01, 12:43:32
Original geschrieben von ShadowXX
Nö....selbst bei Alternate kann man inzwischen 6800Us für 529,- Euro (vor)bestellen....(und der Terminanzeiger ist nicht mal Rot...)

Und wenn ich mir die TecSpecs der r420 so angucke, bin ich momentan am überlegen, ob ich da nicht mal Klick mache... Naja ick halte das weniger für klug wenn atis karte in 3 tagen vorgestellt wird kann auch gut sein das die X800pro schneller als die 6800U ist und billiger
und die karte wird whol weit weniger strom brauchen und so kann auch eine leisere kühlung verwendet werden die NV40 hat auch keien wirklich technologie vorteil alles was mit PS3.0 gemacht werden kann geht auch mit PS2.0 angeblich soll PS3.0 speedvorteile bringen aber das ist ja egal wenn der grundspeed bei den ati karten schon wesentlich höher is

(del676)
2004-05-01, 12:48:10
Original geschrieben von dildo4u
Naja ick halte das weniger für klug wenn atis karte in 3 tagen vorgestellt wird kann auch gut sein das die X800pro schneller als die 6800U ist und billiger
und die karte wird whol weit weniger strom brauchen und so kann auch eine leisere kühlung verwendet werden

1. wird wohl niemand vor der x800pro vorstellung ne nv40 vorbestellen (ausser vollhirnis)
und 2. bezweifle ich stark das eine x800pro die nv40u schlagen kann - ich warte nur auf die r420pro reviews damit ich mir ein bild von den ati-neuerungen und der allgemeinen performance machen kann - dann entscheidet sich ob ich gleich ne nv40 bestelle oder auf die XT warte

dildo4u
2004-05-01, 12:52:07
Original geschrieben von Ulukay
1. wird wohl niemand vor der x800pro vorstellung ne nv40 vorbestellen (ausser vollhirnis)
und 2. bezweifle ich stark das eine x800pro die nv40u schlagen kann - ich warte nur auf die r420pro reviews damit ich mir ein bild von den ati-neuerungen und der allgemeinen performance machen kann - dann entscheidet sich ob ich gleich ne nv40 bestelle oder auf die XT warte Naja ick farg mich nur warums die 6800U jetzt schon für 529€ gibt die ersten X800pro aber auch so um 500€ gehandelt werden für mich heisst das das beide karte in etwa gleich sind und gegen die X800XT wird nvidia whol bis juni gar nix haben dann soll ja die nv40 mit 512mb kommen denk mal auch mit höherem takt mag sein das der nv40 den technologie vorteil hat aber wenn ati den speed vorteil hat ist das fast egal siehe NV30 da hat das + an technologie auch nix gebracht gekauft wurde das was im benchmark vorne lag

(del676)
2004-05-01, 13:18:23
Original geschrieben von dildo4u
Naja ick farg mich nur warums die 6800U jetzt schon für 529€ gibt die ersten X800pro aber auch so um 500€ gehandelt werden für mich heisst das das beide karte in etwa gleich sind und gegen die X800XT wird nvidia whol bis juni gar nix haben dann soll ja die nv40 mit 512mb kommen denk mal auch mit höherem takt mag sein das der nv40 den technologie vorteil hat aber wenn ati den speed vorteil hat ist das fast egal siehe NV30 da hat das + an technologie auch nix gebracht gekauft wurde das was im benchmark vorne lag

???

dann war die 5800 auch gleich gut wie die 9700pro? nur weil sie gleichviel gekostet haben?

edit: Matrox Parhelia, Parhelia-512, 256MB DDR - 480-500€
müsst also auch "gleich gut" sein ;)

ShadowXX
2004-05-01, 13:57:31
Original geschrieben von Ulukay
1. wird wohl niemand vor der x800pro vorstellung ne nv40 vorbestellen (ausser vollhirnis)
und 2. bezweifle ich stark das eine x800pro die nv40u schlagen kann - ich warte nur auf die r420pro reviews damit ich mir ein bild von den ati-neuerungen und der allgemeinen performance machen kann - dann entscheidet sich ob ich gleich ne nv40 bestelle oder auf die XT warte

ack...natürlich würde ich nicht vor der Vorstellung des r420 vorbestellen....

Aber die momentan so durch die gegend geisternden TecSpecs der ATI sind IMHO fast eine frechheit...(falls sie echt sind)...

Da müsste man aus Prinzip fast ne nv40 kaufen....

Ich sags mal klar heraus...wenn die XT nicht mindestens 10% im Durchschitt schneller ist, gibt es eigentlich kaum einen Grund diese Karte zu kaufen....

Und selbst diese 10% (man nehme jetzt mal ein game, welches sowieso nur 30-40 Frames hat), sind kaum ein Empfehlungsgrund...

betasilie
2004-05-01, 14:05:35
Original geschrieben von ShadowXX
ack...natürlich würde ich nicht vor der Vorstellung des r420 vorbestellen....

Aber die momentan so durch die gegend geisternden TecSpecs der ATI sind IMHO fast eine frechheit...(falls sie echt sind)...

Da müsste man aus Prinzip fast ne nv40 kaufen....

Ich sags mal klar heraus...wenn die XT nicht mindestens 10% im Durchschitt schneller ist, gibt es eigentlich kaum einen Grund diese Karte zu kaufen....

Und selbst diese 10% (man nehme jetzt mal ein game, welches sowieso nur 30-40 Frames hat), sind kaum ein Empfehlungsgrund...
Full Ack!

deekey777
2004-05-01, 14:10:03
Kenn ihr den schon:

Geforce 6800 Ultra, NV40 to get new shoes (http://www.theinq.net/?article=15641)

"NVIDIA WILL CHANGE its Geforce 6800 Ultra clock speeds. It will clock their cards faster to beat ATI, we learned yesterday, and I believe that was the message it told its partners at its recent Sardinia shindig.
Geforce 6800 Ultra will end up faster then 450MHz. It's being achieved through the BIOS, and apparently some print magazines have already tested the new cards that are clocked faster.

What will ATI do remains to be seen but it's already increased some clock speeds on the X800XT."


(Es ist von Mr. Abazovic, der besten Quelle im Internet.)

Damit würde die 6800 Ultra "leicht" über 100 W verheizen.

Gast
2004-05-01, 14:28:19
ich werde mit dem Kauf einer Graka warten, bis die "spezial" Versionen raus sind. Sprich die OC Versionen mit Wakü, extra sortierten Chips und hochgezüchtetem Speicher, erst da sieht man wie die Chips beim OC skalieren (was sicher viele Forenteilnehmer hier interessiert).
Der normale user kann zugreifen wo er will, schlechte Performance wird es bei den momentan bekannten Versionen nicht geben. Wer schon eine FX58/59 oder eine R97/98 hat, muss natürlich zu den highend Versionen greifen, wenn er Aufrüsten will, damit er was für sein Geld bekommt.
Bis die Karten in Europa erhältich sind dauert eh noch etwas, bis dahin gibts dann auch sicher ne neue Treiberversion die Ungereimtheiten (AA Modi bei NV z.b.) beseitigt.

dildo4u
2004-05-01, 15:18:16
http://www.geizhals.at/deutschland/a97703.html also doch eher 550€als 500

r@h
2004-05-01, 21:29:59
Original geschrieben von dildo4u
http://www.geizhals.at/deutschland/a97703.html also doch eher 550€als 500 Würd' ich erst einmal abwarten, bis

1) überhaupt erste Karten verfügbar sind
2) mehr als ein Hersteller die Karte am Markt hat

Albatron hat ja auch schon baldmöglichste Verfügbarkeit angekündigt, so sollte man sich dann mal dessen Einstandspreis zu Gemüte führen.

Und ich würde/werde mit Sicherheit erst einmal einen Monat nach (Regal-)Verfügbarkeit abwarten, bis erste Praxiserfahrungen echter User vorliegen. Und zu diesem Zeitpunkt haben sich dann meist auch die Preise stabilisiert.

Razor

r@h
2004-05-01, 22:01:04
Original geschrieben von dildo4u
Naja ick halte das weniger für klug wenn atis karte in 3 tagen vorgestellt wird kann auch gut sein das die X800pro schneller als die 6800U ist und billiger
und die karte wird whol weit weniger strom brauchen und so kann auch eine leisere kühlung verwendet werden die NV40 hat auch keien wirklich technologie vorteil alles was mit PS3.0 gemacht werden kann geht auch mit PS2.0 angeblich soll PS3.0 speedvorteile bringen aber das ist ja egal wenn der grundspeed bei den ati karten schon wesentlich höher is Was hast Du denn hier für einen Murks zurecht gepostet ?
:???:

"karte wird whol weit weniger strom brauchen"

Wieso das ?
Schon die R9800XT hat mehr Strom gebraucht, als die FX5950u. Und wenn man den derzeitigen Gerüchten Glauben schenken mag, dann dürfte ATI höchspersönlich den Rekord für den Stromverbrauch hinlegen... aber bis es soweit ist, gehört dies in den Bereich der Spekulation (und damit ins andere Forum ;-).

"kann auch eine leisere kühlung verwendet werden"

Woher willst Du da denn nu wieder 'wissen' ?
Bei der R9700/9800'er-Reihe haben wir doch gesehen wie leise die ATI-Lüftung trotz geringerem Takt tatsächlich ist. Und wenn man jetzt davon ausgehen muss, dass sich dies umkehrt (also ATI-Takt weit höher als nVidia-Takt bei etwa gleicher Leistung), dann würde ich insbesondere diesen Teil Deiner Spekulation doch hart anzweifeln. Aber eben... auch dies ist (noch) reine Spekulation.

"NV40 hat auch keien wirklich technologie vorteil alles was mit PS3.0 gemacht werden kann geht auch mit PS2.0"

Eben nicht. Das "Branching" ist ein regelrechter Quantensprung, den auch ATI zwingend nachreichen muss, um irgendwann mitzuhalten. Sicher kann man auch unter C für jede Situation ein eigenes Unterprogramm schreiben und den ganzen Speicher mit Alternativen zumüllen, von denen die meisten 'eh nicht zum Tragen kommen, aber wirklich sinnvoll ist das (vor allem hinsichtlich der Performance) sicher nicht. Zumal dies noch nicht einmal vergleichbar wäre... stell Dir einfach 'ne Prograqmmiesprache ohne Verzweigungsmöglichkeit vor (Modula oder eben z.Bsp. Basic ohne 'if...else...then' bzw. 'select case...').

Mit PS3.0 werden Effekte möglich sein, die zwar auch mit PS2.0 realisierbar wären, aber aufgrund der Performance einfach ad absurdum geführt werden. Ergo: ein Effekt mit PS2.0 und einem halben fps ist etwas anderes, als ein Effekt mit spielbarer Framerate, capiche ?

"angeblich soll PS3.0 speedvorteile bringen aber das ist ja egal wenn der grundspeed bei den ati karten schon wesentlich höher is "

Der (mögliche) Speedvorteil bei PS3.0 liegt in folgenden Ursachen begründet:

a) Die Verarbeitung eines Shaders kann sofort nach Durchlauf durch die Pipeline abgebrochen werden (ist via Anweisung sogar schon in PS2.0 vorgesehen). Derzeitige PS2.0 Hardware muss den kompletten Shader durchlaufen (also unter Umständen mehrere Pipeline-Durchläufe vollziehen)

b) Der Shader-Compiler des Treibers hätte die Möglichkeit diesen PS2.0-"Alternativ-Unfug", wie in HL2 z.Bsp. vorhanden, zu erkennen und durch einen PS3.0-Sahder zu erstezen. Das Resultat wäre identisch, die Performance aber um einiges besser, da via CPU der benötigte Shader nicht mehr ermittelt werden muss, sondern dies komplett durch ein auf dem Grafik-Subsystem liegendes Programm übernommen wird.

-

Man darf gespannt sein...

Vermutlich dürfte gerade am Anfang der Performance-Unterschied zwischen ATI und nVidia nicht allzu groß sein (dafür werden beide Hersteller schon sorgen ;-). Mich würde es aber nicht verwundern, wenn der Abstand dann nach und nach immer größer werden wird (zugunsten von nVidia selbstredend ;-).

Wir werden sehen... wir sind ja nicht blind !
:D

Razor

dildo4u
2004-05-01, 22:28:58
sorry aber strom verbrauch ist klar weniger bei ati
ATI hat 42millioen weniger transistoren als der NV40 die X800pro hat nur 1 strom anschluss beide karten sind diesmal in 0.13 gefertigt

Godmode
2004-05-01, 22:40:31
Original geschrieben von dildo4u
sorry aber strom verbrauch ist klar weniger bei ati
ATI hat 42millioen weniger transistoren als der NV40 die X800pro hat nur 1 strom anschluss beide karten sind diesmal in 0.13 gefertigt

Ist das schon sicher das die X800 "nur" 180Mio Transen hat? und was ist mit den 525 MHz der XT Version, ich denke mal die XT wird auch 2 Stromanschlüsse brauchen, ist meine Vermutung.

Und die PRO würde ich nicht mit NV40U vergleichen(NV40U = schneller), ist auch nur meine Meinung.

dildo4u
2004-05-01, 22:43:31
Original geschrieben von bans3i
Ist das schon sicher das die X800 "nur" 180Mio Transen hat? und was ist mit den 525 MHz der XT Version, ich denke mal die XT wird auch 2 Stromanschlüsse brauchen, ist meine Vermutung.

Und die PRO würde ich nicht mit NV40U vergleichen(NV40U = schneller), ist auch nur meine Meinung. denk mal X800pro und XT werden beide 180mio haben bei der pro sind halt 4 piepes deaktiviert und ja das kommt hin die 40mio mehr vom nv40 gehen whol locker für PS3.0 fähigkeit drauf

deekey777
2004-05-01, 22:44:25
Original geschrieben von bans3i
Ist das schon sicher das die X800 "nur" 180Mio Transen hat? und was ist mit den 525 MHz der XT Version, ich denke mal die XT wird auch 2 Stromanschlüsse brauchen, ist meine Vermutung.

Und die PRO würde ich nicht mit NV40U vergleichen(NV40U = schneller), ist auch nur meine Meinung.

Der Intquirer meint, dass das eine X800XT ist:
http://www.theinq.net/images/articles/RX800XT1.jpg

( Der Artikel (http://www.theinq.net/?article=15640) )

Man sieht deutlich, dass dieses Foto von keinem Profi gemacht wurde bzw. in Eile...

Godmode
2004-05-01, 22:45:55
Original geschrieben von deekey777
Der Intquirer meint, dass das eine X800XT ist:
http://www.theinq.net/images/articles/RX800XT1.jpg

( Der Artikel (http://www.theinq.net/?article=15640) )

Man sieht deutlich, dass dieses Foto von keinem Profi gemacht wurde bzw. in Eile...

Was ich daran nicht ganz glauben kann ist, dass die RAMs 600 MHz?? ohne Kühlung auskommen, darum glaube ich eher das es ne Pro ist.

dildo4u
2004-05-01, 22:47:31
Original geschrieben von bans3i
Was ich daran nicht ganz glauben kann ist, dass die RAMs 600 MHz?? ohne Kühlung auskommen, darum glaube ich eher das es ne Pro ist. ne das wird wirklich die XT sein die pro sieht so aus

http://www.computerbase.de/picture/news/7606/1.jpg

http://www.allstarshop.com/shop/product.asp?pid=8988&sid=QDW3SU88MR308NT1TVC71XN9HSTJ27C2#

kleiner feiner unterschied XT hat einen kleinen gelben strom stecker zusätzlich und eine kupfer platte unter dem lüfter die pro nicht

deekey777
2004-05-01, 22:49:16
Original geschrieben von bans3i
Was ich daran nicht ganz glauben kann ist, dass die RAMs 600 MHz?? ohne Kühlung auskommen, darum glaube ich eher das es ne Pro ist.

Ich würde dir voll zustimmen, wäre diese gelbe Stecker nicht... Wozu soll er gut sein? Das Erfahren wir am Di bzw. Mi!!! ;D

Demirug
2004-05-01, 22:52:08
Original geschrieben von dildo4u
denk mal X800pro und XT werden beide 180mio haben bei der pro sind halt 4 piepes deaktiviert und ja das kommt hin die 40mio mehr vom nv40 gehen whol locker für PS3.0 fähigkeit drauf

Man sollte nicht die FP16 Texturfilter und FP16 ROPs vergessen. Der PS 3.0 Aufsatz war im Prinzip gar nicht mal so aufwendig da die Pipe ja schon beim NV30 für sowas vorbereitet war.

Godmode
2004-05-01, 22:59:51
Original geschrieben von deekey777
Ich würde dir voll zustimmen, wäre diese gelbe Stecker nicht... Wozu soll er gut sein? Das Erfahren wir am Di bzw. Mi!!! ;D

Also der sieht aus wie ein Floppylaufwerksstromanschluss :)

Ne vieleicht ist der nur auf den Engeneering Samples drauf, ka. Aber für mich ist das keine XT Version beim Inq

Godmode
2004-05-01, 23:06:34
http://www.compgeeks.com/images/300x300/MSC-5069-6126-unit.jpg

Quasar
2004-05-01, 23:28:19
Woher kenne ich nur diesen gelben Anschluss.... ?
Ach ja...
http://i24.ebayimg.com/02/i/01/b9/51/d1_1_b.JPG

Das ist eine GF4 MX460 von Medion, die im Aldi-PC verbaut war, an dem gelben Anschluss würde ich also keine Revolution festmachen wollen...

dildo4u
2004-05-01, 23:34:52
Original geschrieben von Quasar
Woher kenne ich nur diesen gelben Anschluss.... ?
Ach ja...
http://i24.ebayimg.com/02/i/01/b9/51/d1_1_b.JPG

Das ist eine GF4 MX460 von Medion, die im Aldi-PC verbaut war, an dem gelben Anschluss würde ich also keine Revolution festmachen wollen... wofür war oder ist der den nun da?

Omnicron
2004-05-01, 23:35:11
Original geschrieben von Quasar
Woher kenne ich nur diesen gelben Anschluss.... ?


Das ist eine GF4 MX460 von Medion, die im Aldi-PC verbaut war, an dem gelben Anschluss würde ich also keine Revolution festmachen wollen...

Und was für eine Funktion hatte er da?

Quasar
2004-05-01, 23:42:16
Keine Ahnung, aber offenbar nichts bahnbrechendes. Sonst hätten wir sicher alle schon davon gehört...

Thowe
2004-05-01, 23:44:29
Afaik ist das für Video-In gedacht gewesen für das Front-Modul der Medion-Rechner. Module als auch Karten + der meiste Rest stammt immer im Guss von MSI.

r@h
2004-05-02, 02:18:42
Original geschrieben von dildo4u
sorry aber strom verbrauch ist klar weniger bei ati
ATI hat 42millioen weniger transistoren als der NV40 die X800pro hat nur 1 strom anschluss beide karten sind diesmal in 0.13 gefertigt Ui...
Noch ein Hellseher !
:D

Mal ein kleines Rechenexempel (nicht 100%ig korrekt ;-) :

400MHz * 220mio Trans = 120Watt
525MHz * 180mio Trans = ???Watt

Wenn ich das jetzt mal kurz überschlage, dann wären das wohl so ca. 128Watt für den R420.

Lassen wir uns einfach überraschen... auch die 'Hellseher' werden es ja bald genau wissen.
Zumindest verbraucht sie dann weniger Strom, wenn sie schon Feature- und Leistungsseitig zurück liegt.

Kleine Provokation... hehe... und auch nicht ganz ernst gemeint !
;-)

Razor

Sphinx
2004-05-02, 03:41:00
Nvidia 0.13micron

Ati 0.13 micron LOW-K

ShadowXX
2004-05-02, 08:56:01
Original geschrieben von bans3i
Was ich daran nicht ganz glauben kann ist, dass die RAMs 600 MHz?? ohne Kühlung auskommen, darum glaube ich eher das es ne Pro ist.

Hmmm....vielleicht Kühlt nV die Rams nur aus Vorsicht mit, da sie ja (zumindest am Anfang) 500MHz Rams auf 550 übertakten...


Anders gesagt...vielleicht müssen GDDR3-Rams, die in ihren normalen Specs getaktet werden, nicht extra gekühlt werden...

Quasar
2004-05-02, 09:08:58
Original geschrieben von ShadowXX
Hmmm....vielleicht Kühlt nV die Rams nur aus Vorsicht mit, da sie ja (zumindest am Anfang) 500MHz Rams auf 550 übertakten...


Sorry, aber das wurde schon mehrfach korrigiert: HardOCP waren m.W. die einzigen, die ein 500MHz-RAM-Sample bekamen. Alle anderen hatten sogar 600MHz GDDR3 drauf.

ShadowXX
2004-05-02, 10:01:36
Original geschrieben von Quasar
Sorry, aber das wurde schon mehrfach korrigiert: HardOCP waren m.W. die einzigen, die ein 500MHz-RAM-Sample bekamen. Alle anderen hatten sogar 600MHz GDDR3 drauf.

ok...hatte ich nicht mitbekommen...sorry.

tokugawa
2004-05-02, 10:10:56
Original geschrieben von dildo4u
Naja ick halte das weniger für klug wenn atis karte in 3 tagen vorgestellt wird kann auch gut sein das die X800pro schneller als die 6800U ist und billiger
und die karte wird whol weit weniger strom brauchen und so kann auch eine leisere kühlung verwendet werden die NV40 hat auch keien wirklich technologie vorteil alles was mit PS3.0 gemacht werden kann geht auch mit PS2.0 angeblich soll PS3.0 speedvorteile bringen aber das ist ja egal wenn der grundspeed bei den ati karten schon wesentlich höher is


Wie kann man nur so blind sein?

PS 3.0 ist doch nicht das einzige was die NV40 neu hat.

Um ehrlich zu sein find ich etwa das HDR-Rendering und andere Dinge sogar noch ansprechender.

tokugawa
2004-05-02, 10:12:00
Original geschrieben von dildo4u
sorry aber strom verbrauch ist klar weniger bei ati
ATI hat 42millioen weniger transistoren als der NV40 die X800pro hat nur 1 strom anschluss beide karten sind diesmal in 0.13 gefertigt

Das allein läßt sich ja noch nicht auf den tatsächlichen Stromverbrauch schließen.

Quasar
2004-05-02, 10:14:31
Original geschrieben von dildo4u
sorry aber strom verbrauch ist klar weniger bei ati
ATI hat 42millioen weniger transistoren als der NV40 die X800pro hat nur 1 strom anschluss beide karten sind diesmal in 0.13 gefertigt

*ahem* Wenn du die Pro mit der Ultra vergleichst, kannst du auch Apfelsinenschalen mit Birnenstengeln vergleichen...

Pro/non-ultra: 1 Stromanschluß

XT/Ultra: ?/2 Stromanschlüsse

dildo4u
2004-05-02, 10:58:35
Original geschrieben von Quasar
*ahem* Wenn du die Pro mit der Ultra vergleichst, kannst du auch Apfelsinenschalen mit Birnenstengeln vergleichen...

Pro/non-ultra: 1 Stromanschluß

XT/Ultra: ?/2 Stromanschlüsse Sorry aber hab noch kein bild gesehn wos eine 6800nonU mit 1 stromanschluss gibt

dildo4u
2004-05-02, 11:07:58
Original geschrieben von tokugawa
Das allein läßt sich ja noch nicht auf den tatsächlichen Stromverbrauch schließen. warum soll die xt den mehr verbrauchen wenn beide 180mio transitoren haben hab mal gehört selbt nicht genutzt verbrauchen strom und der takt ist bei x800pro fast gleich x800xt

Godmode
2004-05-02, 11:08:18
Original geschrieben von dildo4u
Sorry aber hab noch kein bild gesehn wos eine 6800nonU mit 1 stromanschluss gibt

Die letzte Karte von den dreien ist eine 6800Non Ultra und die hat nur einen Stromanschluss.

http://www.computerbase.de/picture/news/7597/1.jpg

Quasar
2004-05-02, 11:12:03
Original geschrieben von dildo4u
warum soll die xt den mehr verbrauchen wenn beide 180mio transitoren haben hab mal gehört selbt nicht genutzt verbrauchen strom und der takt ist bei x800pro fast gleich x800xt

IMO könnte man das daran festmachen, daß die 12 (aktiven?) Pipes, die ja für die PRO im Umlauf sind, ja schonmal für 15% weniger Strom gut wären (auch wenn sie nur deaktiviert wären, so verbräuchten sie nur den Idle-Strom). Dazu der niedrigere Takt und, eventuell, wenn es tatsächlich Selektionsausbeute gibt, auch eine niedrigere Spannung bei der non-XT.

dildo4u
2004-05-02, 11:14:11
Original geschrieben von bans3i
Die letzte Karte von den dreien ist eine 6800Non Ultra und die hat nur einen Stromanschluss.

http://www.computerbase.de/picture/news/7597/1.jpg ok aber die karte ist doch leistungs technich nicht das gegen stück zur x800pro sondern das wird eher die 6800gt pro oder wie auch immer un die hat auch 2 weil die karte whol 16pipes haben muss damit sie beim speed der x800pro mit kommt ich beziehe mich hier nicht auf das bild das is für mich ein fake

Godmode
2004-05-02, 11:20:14
Original geschrieben von dildo4u
ok aber die karte ist doch leistungs technich nicht das gegen stück zur x800pro sondern das wird eher die 6800gt pro oder wie auch immer un die hat auch 2 weil die karte whol 16pipes haben muss damit sie beim speed der x800pro mit kommt ich beziehe mich hier nicht auf das bild das is für mich ein fake

Dazu müsste man wissen, wie hoch die GT/Pro getaktet ist, um sagen zu können ob sie 2 oder nur 1 Stromanschluss braucht.

Gast
2004-05-02, 11:22:06
Original geschrieben von Sphinx
Nvidia 0.13micron

Ati 0.13 micron LOW-K

Nvidia -> IBM
ATI öhh.. -> TSMC

Godmode
2004-05-02, 12:56:46
Original geschrieben von Gast
Nvidia -> IBM
ATI öhh.. -> TSMC

War da nicht mal die Rede, dass NV mit IBM gar nicht so zufrieden ist?

r@h
2004-05-02, 15:39:55
Und was hat all dies jetzt mit dem Inhalt dieses Threads zu tun ?
:???:

Razor

Godmode
2004-05-02, 16:22:00
Original geschrieben von r@h
Und was hat all dies jetzt mit dem Inhalt dieses Threads zu tun ?
:???:


Razor


Weil der vorherige poster meinte das TSMC scheisse ist?

r@h
2004-05-02, 23:15:20
Original geschrieben von bans3i
Weil der vorherige poster meinte das TSMC scheisse ist? Vielleicht bin ich ja blind...
hmmm...

Mich würde aber trotzdem mal interessieren, wo Du und 'der andere' die Sicherheit hernehmen wollt, dass die Kühlung und selbstredend auch die Stromversorgung jetzt bei ATI so viel unkomplizierter sein soll (und was das zudem mit dem Thread-Thema zu tun haben könnte).

Die max-Version von nVidia's NV40 wird definitiv nicht an die 150Watt heran kommen, die hier von einigen (typischen) Leutz prognostiziert wurden. Da das nun vom Tisch ist, will man dafür jetzt irgendetwas anderes her nehmen und das schlechtreden, obwohl noch nicht eine herstellerspezifische Kühllösung bekannt wurde und ebenfalls noch nicht bekannt ist, was ATI für Anforderungen an das Netzteil (oder gar das Mobo !) stellen wird... noch weniger, was für eine Kühllösung zum Tragen kommen könnte... ja noch nicht einmal die finale Taktrate der GPU festzustehen scheint.

Also immer ruhig mit den jungen Pferden und mal ein bissel auf das Threadthema konzentrieren, gell ?
(zumal es für ATI-spezifische Dingelchen doch 'nen ATI-Tread gibt ;-)

Thx.

Razor

Godmode
2004-05-03, 11:30:24
Original geschrieben von r@h

Mich würde aber trotzdem mal interessieren, wo Du und 'der andere' die Sicherheit hernehmen wollt, dass die Kühlung und selbstredend auch die Stromversorgung jetzt bei ATI so viel unkomplizierter sein soll (und was das zudem mit dem Thread-Thema zu tun haben könnte).

Thx.

Razor

Ich möchte mal wissen wo das her hast, dass ich glaube dass Kühllösung beim R420 einfacher ist als beim NV40?

Ich hab das was vor mir gepostet wurde so verstanden, das derjenige meint das TSMC schlechter sei als IBM: er hat geschrieben:

Original geschrieben von Gast
Nvidia -> IBM
ATI öhh.. -> TSMC

dieses "öhh" habe ich so verstanden als wenn er meint das TSMC schlecht ist!

verdammt
2004-05-03, 11:56:50
Laut inq wurden bei IBM nur 10.000 Chips gefertigt:

http://www.theinq.net/?article=15659

und davon sollen nur 2000 mit einer Taktrate von 400 Mhz laufen:

http://www.theinq.net/?article=15661

Weiterhin kommt hinzu, dass es bei den 10.000 gefertigten Chips bleiben wird und sie die Produktion wieder von TSMC durchführen lassen wollen. Diese sollen allerdings noch keinen Tape-Out des NV40 zustande bekommen haben.

Wenn dies alles stimmt, dann wird man in der nächsten Zeit nur sehr schwer (oder gar nicht) an 6800 Ultra Karten kommen.

muscle
2004-05-03, 15:59:44
Laut PcWelt.de hat Nvidia den hiesigen Testern eine NV40 Ultra mit 450/550 als Testkarte zur Verfügung gestellt. Der Test soll wartet noch auf sich und soll demnächst auf der Seite erscheinen.

Es sieht so aus, als würde NVidia zum R420 Release-Tag kontern wollen.

iNsi
2004-05-03, 17:36:48
@ verdammt

warum sollte ein Unternehmen viel Geld in die Entwicklung eines Produktes stecken und es dann so rar machen, dass es nichts daran verdienen wird, weil die Nachfrage gleich 10 mal so gross wie das Angebot ist, erklär mir das mal bitte.
Schwachsinn...

Mr. Lolman
2004-05-03, 18:00:45
Glaubst du die machen das absichtlich? (falls es stimmt)

iNsi
2004-05-03, 19:36:24
Sie machen es weder absichtlich, noch ungewollt. Bei so einer Firma funktioniert das Marketing! Die haben fähgie Leute.

Mr. Lolman
2004-05-03, 19:41:21
Original geschrieben von iNsi
Sie machen es weder absichtlich, noch ungewollt. Bei so einer Firma funktioniert das Marketing! Die haben fähgie Leute.

Imo hatten sie durchaus vor, mehr als 2000 6800 Ultras bereitstellen zu können.

Quasar
2004-05-03, 19:48:07
:lolaway:
Es ist zuuu geil, wie selektiv hier von Leuten der INQ "beglaubigt" wird...

Godmode
2004-05-03, 19:55:37
Original geschrieben von Quasar
:lolaway:
Es ist zuuu geil, wie selektiv hier von Leuten der INQ "beglaubigt" wird...

Kann ich auch nicht recht verstehen, wie INq mit 222 Mio Transen für den NV40 gekommen ist, haben viele nur gelacht und gemeint: "Alles nur Quatsch, kommt doch vom INq" und jetzt glauben sie plötzlich alles von denen :kratz:

deekey777
2004-05-03, 19:57:21
Original geschrieben von Quasar
:lolaway:
Es ist zuuu geil, wie selektiv hier von Leuten der INQ "beglaubigt" wird...

So oft lag der Inq auch nicht daneben.

Lustiger Troll
2004-05-03, 19:59:19
Original geschrieben von Quasar
:lolaway:
Es ist zuuu geil, wie selektiv hier von Leuten der INQ "beglaubigt" wird...

Ja aber von welchen Leuten, will sie jetzt mal nicht Fanboys nennen, aber soviel Quatsch wie INQ schreibt ist es auch von meiner seite verwunderlich wie man dem glauben kann, auch wenn es mal nicht FUAD geschrieben hat, Paul kann man genausowenig trauen, das sind alles Gerüchte und gehören IMO nicht in diesen Thread sondern ins Spekuforum ;). Es werden sicherlich mehr als 2000 Ultras zur verfügung stehen ansonsten werden halt mehr GTs oder NU produziert, IMO werden diese mehr verkauft werden als die 6800 U. Alles ist IMO also nicht gleich hauen.

Lustiger Troll
2004-05-03, 20:00:36
Original geschrieben von deekey777
So oft lag der Inq auch nicht daneben.

Ja wie auch wenn sie jeden Tag was neues behaupten, auch ein blindes Huhn findet mal ein Korn ;).

Godmode
2004-05-03, 21:55:28
3DC 3. Mai 2k4 "ironischerweise wird damit aber das Bild an der Leistungsspitze definitiv nicht komplett sein, weil - neben anderen - zumindestens ein Kandidat auf den Performancethron noch fehlen wird"

Ist damit die 6800 UE gemeint??

LovesuckZ
2004-05-03, 22:22:15
Nein, ein dritter Hersteller, hoffentlich PowerVR und die neue Kyro Serie.

(del676)
2004-05-03, 22:26:15
Original geschrieben von LovesuckZ
Nein, ein dritter Hersteller, hoffentlich PowerVR und die neue Kyro Serie.

ne - bitte keinen dritten billigmisthersteller

wenn dann ne Quad Parhelia oder sowas ähnliches pls :)

Godmode
2004-05-03, 22:51:44
Original geschrieben von Ulukay
ne - bitte keinen dritten billigmisthersteller

wenn dann ne Quad Parhelia oder sowas ähnliches pls :)

Quad NV40 wär mir lieber :) das wird dann nächstes Jahr geben für die Hyper Enthusiasts

Torian.cc
2004-05-04, 23:17:23
Ömmm, wen´s interessiert - in Bezug auf 6800 Ultra Extreme - der sollte mal hier gucken :

http://www.tecchannel.de/hardware/1384/index.html

Scheint ein schickes Teil zu werden (sicher auch extreme teurio), und eine ASUS V9999 Ultra Deluxe, oder so ähnlich, würd` mir schon gefallen :)

War also ´ne gute Idee, schon vor Monaten mit dem sparen zu beginnen *g*

MfG
Tori

Winter[Raven]
2004-05-07, 09:55:39
Paar Infos vom Ceo:

The GeForce 6 is a new architecture and the supporting compiler debuts at version 1.0. Jen-Hsun foresees increased performance from future compiler and driver releases.

the NV4x product line will have better margins than the NV3x.

the NV40 has 40% more transistors than ATI's R420, the NV40 dye size is only 9% larger.

He estimates that the NV40's cost per wafer is 10-15% lower than the R420, which is manufactured using the more expensive low-k dialectric process.

Jen-Hsun referred to the GeForce 6 as being "defect immune" due to the redundancy and reconfigurability of the processor design to enhance yield by recovering from manufacturing defects. This design is based on patented technology that NVIDIA invested heavily in.

the GeForce 6800 Ultra runs fine with one power connector and that the second power connector was only needed to support an "optional overclocking capability.

Tjö ... ^^

Quasar
2004-05-07, 10:10:51
Original gequotet von Winter[Raven] the GeForce 6800 Ultra runs fine with one power connector and that the second power connector was only needed to support an "optional overclocking capability.

Das stimmt nicht. Ich habe versucht, die Karte mit nur einem Connector zu betreiben. Ausser einem Piepen aus dem Pieper rührte sich nyx.

Gnast
2004-05-07, 10:43:38
Jen-Hsun referred to the GeForce 6 as being "defect immune" due to the redundancy and reconfigurability of the processor design to enhance yield by recovering from manufacturing defects. This design is based on patented technology that NVIDIA invest


Da hoff ich nur, dass ATi das Patent verletzt, und NVs Klage abgewiesen wird. NV muss ja nicht gleich von ATi aufgekauft werden, wies damals bei 3dfx der Fall war...

LovesuckZ
2004-05-07, 16:19:20
Fartcry - Eine Geschichte der Unfaehigkeit der Chip.de Redaktion...

http://www.beyond3d.com/forum/viewtopic.php?t=12228&start=0

zuizui
2004-05-07, 16:27:15
Original geschrieben von LovesuckZ
Fartcry - Eine Geschichte der Unfaehigkeit der Chip.de Redaktion...

http://www.beyond3d.com/forum/viewtopic.php?t=12228&start=0

Auch andere haben festgestellt das NV schummelt,naja wenn mans nötig hat.

Quasar
2004-05-07, 16:35:09
Meinst du driverheaven?

deekey777
2004-05-07, 16:40:01
Original geschrieben von zuizui
Auch andere haben festgestellt das NV schummelt,naja wenn mans nötig hat.

:heuldoch: :heuldoch: :heuldoch:

dfgdfg
2004-05-07, 16:45:45
Die NV Fans sind doch so stolz auf das z.Z unnötige S 3.0,ich hab hier ein Bsp für die Unnötigkeit
Stalker ist doch auf NV optimiert ;D

http://www.xbitlabs.com/articles/editorial/display/stalker_5.html

Quasar
2004-05-07, 16:46:53
Stalker ist DX8 und die GeForceFX kann kein SM3.0 :zzz:

deekey777
2004-05-07, 16:48:52
Original geschrieben von dfgdfg
Die NV Fans sind doch so stolz auf das z.Z unnötige S 3.0,ich hab hier ein Bsp für die Unnötigkeit
Stalker ist doch auf NV optimiert ;D

http://www.xbitlabs.com/articles/editorial/display/stalker_5.html


Du weißt schon, dass die verwendete Version etwas alt sein kann - so um die 18 Monate???

http://www.xbitlabs.com/images/editorial/stalker/icon.gif

LovesuckZ
2004-05-07, 17:03:15
http://www.chip.de/news/c_news_11849423.html

vbnvbn
2004-05-07, 17:15:38
Original geschrieben von LovesuckZ
http://www.chip.de/news/c_news_11849423.html

wer einmal lügt dem glaubt man nicht

Quasar
2004-05-07, 17:19:11
Original geschrieben von vbnvbn
wer einmal lügt dem glaubt man nicht

Stimmt!
Der Chip würde ich auch kein Wort mehr glauben.... und driverheaven erst recht nicht. =)

*feed*

DrumDub
2004-05-07, 17:22:30
hier ist das ganze nochmal etwas besser erklärt:

NVIDIA did this because when FSAA is applied within the CP with the current drivers the game allocates oversized buffers. As you know FarCry uses a lot of video memory space. This oversized buffer was hurting performances of the board.

That's why they are disabling FSAA with FarCry when it is enabled in the CP. However eveything is working as expected when FSAA is enabled in the game.
http://www.beyond3d.com/forum/viewtopic.php?t=12228&start=0

Mr. Lolman
2004-05-07, 17:50:16
Original geschrieben von Quasar
.... und driverheaven erst recht nicht. =)

*feed*

Wo hat Driverhaven denn gelogen?

deekey777
2004-05-07, 17:52:57
Original geschrieben von Mr. Lolman
Wo hat Driverhaven denn gelogen?

Frag ich mich auch...

Die haben sich nur ewas geirrt.

Hier die beste Review (http://bbspot.com/News/2004/05/radeon_x800_vs_geforce_6800.html) X800 vs. 6800.

Mr. Lolman
2004-05-07, 20:11:51
Original geschrieben von deekey777
Frag ich mich auch...

Due haben sich nur ewas geirrt.

Hier die beste Review (http://bbspot.com/News/2004/05/radeon_x800_vs_geforce_6800.html) X800 vs. 6800.

:rofl: ;D;D :rofl:

Sehr geil...

InsaneDruid
2004-05-07, 20:21:26
;D ;D GEILOMAT! ;D ;D

Quasar
2004-05-07, 20:38:17
Original geschrieben von Mr. Lolman
Wo hat Driverhaven denn gelogen?

Da (http://www.driverheaven.net/articles/driverIQ/). (und ja, du kannst jetzt gern drüber streiten, ob das eine Lüge war. "unfortunately our tests do not back up the statement produced by Futuremark" Implizit oder Explizit - aber ohne mich ;D)

Das BB-Review ist aber wirklich mal geil.

r@h
2004-05-08, 11:04:14
Original geschrieben von deekey777
So oft lag der Inq auch nicht daneben. Klar, wenn man 100 (GraKa) 'News' Postet und davon dann auch mal eine (oder vielleicht 2 ;-) 'richtig' sind, ist das nur die Bestätigung des statistisch nachgewiesenen Faktes: "Ein blindes Huhn findet auch mal ein Korn !"
:D

Aber mal ehrlich, die 'News' von Inq gehen zu oft in die Hose, als dass sie auf verläßliche Quellen basieren könnten.

Wenn der Inq etwas schreibt ist die Chance etwa 1:10, dass sie auch stimmt.

Razor

P.S.: Wenn 10% nicht mal zu hoch gegriffen sind und selbstverständlich auf den GraKa-Bereich bezogen, denn im CPU-Bereich sind sie auf jeden Fall sehr viel 'treffsicherer'... ;)

r@h
2004-05-08, 11:04:45
Original geschrieben von Lustiger Troll
Ja wie auch wenn sie jeden Tag was neues behaupten, auch ein blindes Huhn findet mal ein Korn ;). Ups...
:D

Razor

Kladderadatsch
2004-05-08, 13:19:48
wurde hier schon der pc-welt test erwähnt?
deren ergnbis ist, dass die 6800ultra schneller als die x800 xt ist, was ja zu 100% gegen die aussage von z.b. chip sprechen würde. kann es sein, dass chip extrem ati-pro, und pcwelt auffallend nvida-pro ist?

dildo4u
2004-05-08, 14:16:50
halbOT: http://www.4players.de/rendersite.php?LAYOUT=dispnews&sid=4259111181db3dcab699ac0d62316c8e&newsid=31961

"nVidia und Epic Games werden auf der E3 die Unreal Engine 3 vorstellen. Das Highlight der Engine-Präsentation soll das Shader Model 3.0 sein, das momentan nur mit Grafikkarten der GeForce 6 Serie funktioniert."

Winter[Raven]
2004-05-08, 14:27:48
Original geschrieben von Neo@game-factor
wurde hier schon der pc-welt test erwähnt?
deren ergnbis ist, dass die 6800ultra schneller als die x800 xt ist, was ja zu 100% gegen die aussage von z.b. chip sprechen würde. kann es sein, dass chip extrem ati-pro, und pcwelt auffallend nvida-pro ist?

Den Chip test kann man ruhig in die Tonne tretten. Den Test nach ist die GF 6800Ultra Extreme knapp schneller oder gleich dem R420XT.

deekey777
2004-05-08, 14:40:22
Original geschrieben von dildo4u
halbOT: http://www.4players.de/rendersite.php?LAYOUT=dispnews&sid=4259111181db3dcab699ac0d62316c8e&newsid=31961

"nVidia und Epic Games werden auf der E3 die Unreal Engine 3 vorstellen. Das Highlight der Engine-Präsentation soll das Shader Model 3.0 sein, das momentan nur mit Grafikkarten der GeForce 6 Serie funktioniert."

Vielleicht wird kurz davor auch DX9.0c veröffentlicht. :D

dildo4u
2004-05-08, 14:58:14
Original geschrieben von deekey777
Vielleicht wird kurz davor auch DX9.0c veröffentlicht. :D naj immer langsam erste games mit der Engine kommen 2006*g* bis dahin hat auch ATI ihren PS3.0 chip da bin ick mir sicha

Sphinx
2004-05-08, 14:59:37
Original geschrieben von deekey777
Vielleicht wird kurz davor auch DX9.0c veröffentlicht. :D

Nur als Info :

Die Kompatibilität zu älteren Hardware-Produkten soll außerdem über Bord geschmissen werden, um den Renderer der Engine fit für das Jahr 2006 zu machen. Epic plant, dass die ersten Spiele mit dieser Engine im Jahr 2006 erscheinen sollen.

VooDoo7mx
2004-05-08, 15:15:49
Man man man...

Da lebt man einmal 3 Wochen in Internet-Abstinenz und schon steht wieder alles auf den Kopf...

Ist nun die Ultra Extreme eine neue Variante oder die neue Ultra?
Ich persönlich spekuliere hier eher auf die 2. Möglichkeit...
Die alte Ultra meldet sich ja im Treiber nicht mit Ultra...

Ich hingegen, werde mir eine 6800 GT zulegen die ich hoffentlich für unter 400€ bekomme.
Für mich die perfekte Balance aus Speed, Features, Preis,Kühllösung und Stromverbrauch.
Besonders er einzelene Stromstrecker und das Single Slot Kühldesign überzeugen mich hier sehr.
OC Potential ist ja auch da und vielleiht gibts ja wieder eine Möglichkeit auf 6800U zu flashen. :D

Bis man jedoch wirklich eine ultimatives Fazit zu 6800vsX800 ziehen kann sollte man erst einmal finale Treiber abwarten. Besonders bei Nvidia sehe ich da noch Potential im Treiber, da eine fast komplett neue Architektur vorliegt.

Zum Preis: auch hier sollte man wirklich abwarten bis die Karten wirklich im Regal sind! Wenn Alternate (meines erachtens einer der teuersten Online-Händler überhaupt) jetzt schon Karten zum Vorbestellen für 529€ im Angebot hat, lässt das auf einen Straßenpreis von deutlich unter 500€ im Juni schließen.
Die X800Pro scheint früher lieferbar. Jedoch finde ich den Straßenpreis von 380€ absolut überzogen. In dieser Region wird die 6800GT rangieren die aber wesentlich schneller ist.
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/
Den Preis der X800XT finde ich jedoch im Vergleich zum nVidia Equivalent mehr als fair.

@dildo4u

Irgendwie bekomme ich beim lesen deiner Beiträge Kopf-, Augen- und Bauchschmerzen. Gehst du noch zur Grundschule? Falls du doch schon die Grundschule absolviert hast, rate ich dir trotzdem sehr dringend diese noch einmal zu besuchen.

(del676)
2004-05-08, 15:18:36
Original geschrieben von VooDoo7mx
@dildo4u

Irgendwie bekomme ich beim lesen deiner Beiträge Kopf-, Augen- und Bauchschmerzen. Gehst du noch zur Grundschule? Falls du doch schon die Grundschule absolviert hast, rate ich dir trotzdem sehr dringend diese noch einmal zu besuchen.

dann setz ihn auf eine Ignoreliste neben all die anderen Fanboys - dann liest sich das forum viel besser und man läuft nicht in gefahr sich von ihren aussagen provozieren zu lassen!!

deekey777
2004-05-08, 15:25:55
Äh, kleines Mißverständnis:
In der News steht folgendes:
"nVidia und Epic Games werden auf der E3 die Unreal Engine 3 vorstellen. Das Highlight der Engine-Präsentation soll das Shader Model 3.0 sein, das momentan nur mit Grafikkarten der GeForce 6 Serie funktioniert. ..."

Wenn das Highlight tatsächlich SM 3.0 in Realtime sein soll, dann braucht man DX9.0c, um diese zu zeigen. Grundsätzlich wird es ja nicht erlaubt, DX9.0c zu früh zu zeigen, da noch beta. Es sei denn:
c.) nVidia hat eine Sondererlaubnis und zeigt tatsächlich die U3 Engine in voller Pracht mit SM 3.0;
b.) Es werden nur hübsche Bildchen bzw ein Video gezeigt, was erlaubt ist;
a.) Microsoft veröffentlicht DX9.0c.

Nur das meinte ich.

dildo4u
2004-05-08, 16:04:09
Original geschrieben von VooDoo7mx
@dildo4u

Irgendwie bekomme ich beim lesen deiner Beiträge Kopf-, Augen- und Bauchschmerzen. Gehst du noch zur Grundschule? Falls du doch schon die Grundschule absolviert hast, rate ich dir trotzdem sehr dringend diese noch einmal zu besuchen.
Hm ja die hab ick Absolviert kann vieleicht daran liegen
das ick das schon seid 8 jahren hinter mir hab is einfach zu lange her *g*

dildo4u
2004-05-08, 16:07:17
Original geschrieben von Ulukay
dann setz ihn auf eine Ignoreliste neben all die anderen Fanboys - dann liest sich das forum viel besser und man läuft nicht in gefahr sich von ihren aussagen provozieren zu lassen!! wehn hab ick provoziert?wo hab ick nvidia über gebühr kritisiert deiner meinung nach?

Iceman346
2004-05-08, 16:23:14
Original geschrieben von dildo4u
Hm ja die hab ick Absolviert kann vieleicht daran liegen
das ick das schon seid 8 jahren hinter mir hab is einfach zu lange her *g*

Sag mal ist es wirklich nötig, dass du versuchst deinen Dialekt den du (vielleicht) sprichst in Textform zu verfassen?

Nichts ist schlimmer als Dialekte in Textform, darum gehen mir deine Postings in letzter Zeit immer mehr auf den Keks.

dildo4u
2004-05-08, 16:26:55
Original geschrieben von Iceman346
Sag mal ist es wirklich nötig, dass du versuchst deinen Dialekt den du (vielleicht) sprichst in Textform zu verfassen?

Nichts ist schlimmer als Dialekte in Textform, darum gehen mir deine Postings in letzter Zeit immer mehr auf den Keks. ok dann versuche ich dies zu unterlassen eigentlich schade wollte so ein persönliche note mit in meine posts bringen und ja ick spreche diesen dialekt wirklich (Berliner seid 20jahren)aber genug OT

Kladderadatsch
2004-05-08, 17:24:41
was stimmt denn nun?

auf zdnet.de gibts teilsweise völlig andere ergebnisse als auf den anderen websites!
so ist die x800xt sogar in aq3 und 3dmark2003 schneller, als die 6800ultra. alle anderen tests zeigten eigentlich das gegenteil...
was kann man davon halten?

tRpii
2004-05-08, 17:45:22
Original geschrieben von deekey777
Äh, kleines Mißverständnis:
In der News steht folgendes:
"nVidia und Epic Games werden auf der E3 die Unreal Engine 3 vorstellen. Das Highlight der Engine-Präsentation soll das Shader Model 3.0 sein, das momentan nur mit Grafikkarten der GeForce 6 Serie funktioniert. ..."

Nur das Prob. ist, wann die Sachen die komplett SM3.0 nutzen erscheinen. Mit U3 ist nicht vor ende 2005 zu rechnen und bis dahin dürfte ATi sicher auch die R500 released haben.

Klar hat Nv momentan einen Voreil gegenüber ATi da sie schon einen SM3 capable Chip rausgebracht haben. Aber ob das wirklich einen großen Vorteil bringt wird sich frühstens mit 9.0c und nem "richtigen SM3" Spiel zeigen..

LovesuckZ
2004-05-08, 17:48:38
Original geschrieben von tRpii
Nur das Prob. ist, wann die Sachen die komplett SM3.0 nutzen erscheinen. Mit U3 ist nicht vor ende 2005 zu rechnen und bis dahin dürfte ATi sicher auch die R500 released haben.


Und wem haben wir es zu verdanken, dass die U3 Engine schon das Sm3.0 unterstuetzt? Die falsche Antwortet lautet: ATi und ihrer technologischen Revolution r420.

tRpii
2004-05-08, 18:01:15
Original geschrieben von LovesuckZ
Und wem haben wir es zu verdanken, dass die U3 Engine schon das Sm3.0 unterstuetzt? Die falsche Antwortet lautet: ATi und ihrer technologischen Revolution r420.

Und was bringt es dem Enduser? Richtige Antwort: NICHTS (nicht ATi Usern und nicht NV Usern)

Soll Epic doch mit ihrem SM3 spielen und nen paar videos releasen aber dem "Spieler" bringt das im Endeffekt nichts.

Richtige SM3 Spiele wird es in der nächsten Zeit auch nicht geben, denn die von NV angegebenen Titel kommen wenn dann erst 2005 (ausser FC, Painkiller die schon draussen sind) aber der wirkliche Nutzen für heutige Spiele hängt von 9.0c ab und da wird sich erst zeigen ob SM3 der große wurf ist.

Ansonsten bleib ich doch lieber in der Gegenwart anstatt mir irgendwas auszumalen was innem Jahr mal sein KÖNNTE.

deekey777
2004-05-08, 18:10:40
Original geschrieben von LovesuckZ
Und wem haben wir es zu verdanken, dass die U3 Engine schon das Sm3.0 unterstuetzt? Die falsche Antwortet lautet: ATi und ihrer technologischen Revolution r420.

Ja, ja, ATi - die Technologiebremse...

Wir haben es wohl MS dies zu verdanken, dass DX 9.0c SM3.0 mit sich bringt. Und auch Epic, welche die Unreal 3 Engine mit SM 3.0 Unterstützung bringen. Aber nVidia hat damit nichts zu tun.

r@h
2004-05-08, 18:23:03
Original geschrieben von deekey777
Ja, ja, ATi - die Technologiebremse...

Wir haben es wohl MS dies zu verdanken, dass DX 9.0c SM3.0 mit sich bringt. Und auch Epic, welche die Unreal 3 Engine mit SM 3.0 Unterstützung bringen. Aber nVidia hat damit nichts zu tun. Und warum sollte MS das SM3.0 anbeiten, wenn dies keine Hardware unterstützt ?

M$ bringt solche sachen immer erst dann, wenn Hardware dies erfordert.
Got it ?

DX7 - nVidia
DX8 - nVidia
DX8.1 - ATI
DX9 (beta) - ATI
DX9c - nVidia

Razor

deekey777
2004-05-08, 18:28:47
Original geschrieben von r@h
Und warum sollte MS das SM3.0 anbeiten, wenn dies keine Hardware unterstützt ?

M$ bringt solche sachen immer erst dann, wenn Hardware dies erfordert.
Got it ?

DX7 - nVidia
DX8 - nVidia
DX8.1 - ATI
DX9 (beta) - ATI
DX9c - nVidia

Razor

Also darum unterstützt die Unreal 3 Engine SM 3.0... Gut zu wissen.
Und seit wann veröffentlicht MS eine unfertige Betaversion für alle???
Und wenn mich nicht alles täuscht, kam die 9700 einige Monate vor DX9.

Winter[Raven]
2004-05-08, 18:36:13
Und was bringt es dem Enduser? Richtige Antwort: NICHTS (nicht ATi Usern und nicht NV Usern)


:kratz:

Tjö, was es uns bringt? Hoffentlich 3.0 Spiele und das schon vielleicht 2005.

Demirug
2004-05-08, 18:38:32
Original geschrieben von deekey777
Ja, ja, ATi - die Technologiebremse...

Wir haben es wohl MS dies zu verdanken, dass DX 9.0c SM3.0 mit sich bringt. Und auch Epic, welche die Unreal 3 Engine mit SM 3.0 Unterstützung bringen. Aber nVidia hat damit nichts zu tun.

Doch haben sie. NV40 ist für MS die Validierungsplatform für SM3 Hardware. Mit 9.0d funktioniert SM3 ja schon mit dem Refrast. DX 9.0c schaltet lediglich noch die SM3 Funktionen auch für echte Hardware frei. Genau dieser Teil (Runtime-Treiber Interface) wird mit NV40 Hardware geprüft.

Demirug
2004-05-08, 18:40:56
Original geschrieben von r@h
Und warum sollte MS das SM3.0 anbeiten, wenn dies keine Hardware unterstützt ?

M$ bringt solche sachen immer erst dann, wenn Hardware dies erfordert.
Got it ?

DX7 - nVidia
DX8 - nVidia
DX8.1 - ATI
DX9 (beta) - ATI
DX9c - nVidia

Razor

MS bringt die passende Runtime nachdem sie dafür Hardware zum Validieren haben.

DX8 sollte übrigens ursprünglich mit 3dfx Rampage als Basis valdiert werden.

Demirug
2004-05-08, 18:45:27
Original geschrieben von deekey777
Also darum unterstützt die Unreal 3 Engine SM 3.0... Gut zu wissen.
Und seit wann veröffentlicht MS eine unfertige Betaversion für alle???
Und wenn mich nicht alles täuscht, kam die 9700 einige Monate vor DX9.

Die ersten BETA Versionen von DX9 gab es schon vor dem R300. Die DX9 Beta wurde auf drängen von ATI verteilt weil sie sonst ja ihere Demos hätten nicht zeigen können. Die finale DX9 Version wäre eigentlich auch rechtzeitig fertig geworden wenn nicht noch kurzfristig DX 9.1 gestrichen und alles was man dort machen wollte (auf jeden Fall SM3 und unter umständen auch 2.x) in DX9.0 gerutscht wäre.

deekey777
2004-05-08, 18:48:01
Original geschrieben von Demirug
Doch haben sie. NV40 ist für MS die Validierungsplatform für SM3 Hardware. Mit 9.0d funktioniert SM3 ja schon mit dem Refrast. DX 9.0c schaltet lediglich noch die SM3 Funktionen auch für echte Hardware frei. Genau dieser Teil (Runtime-Treiber Interface) wird mit NV40 Hardware geprüft.

Ich meinte was ganz anderes.
Es gibt Leute, die meinen, dass ohne die NV40er es gar keine Spiele mit SM 3.0 geben wird. Die SM 3.0 Unterstützung der NV40 ist viel mehr als nur ein nett gemeintes Feature, aber gleich zu sagen, dass wir es nVidia zu verdanken haben, dass die Unreal 3 Engine SM 3.0 hat(haben wird), ist doch etwas übertrieben. Diese Engine kommt erst 2005/06, wo ganz andere Grafikkarten auf dem Markt sein werden und uU SM 3.0 schon alter Hut sein wird.

PS: Wann ist es eigentlich mit dem DX Update in etwa zu rechnen - in Kürze oder erst irgendwann im Sommer (noch schlimmer mit dem Win XP Service Pack 2)?

StefanV
2004-05-08, 18:52:11
Original geschrieben von Demirug
MS bringt die passende Runtime nachdem sie dafür Hardware zum Validieren haben.

DX8 sollte übrigens ursprünglich mit 3dfx Rampage als Basis valdiert werden.

Gibt aber auch Gerüchte, daß die R100 DX8 kompatibel werden sollte...

Doch irgendwie wurd nix daraus...

deekey777
2004-05-08, 18:54:10
Original geschrieben von Stefan Payne
Gibt aber auch Gerüchte, daß die R100 DX8 kompatibel werden sollte...

Doch irgendwie wurd nix daraus...


Die (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1731818#post1731818) gibt es. ;D

Original geschrieben von Demirug
Die ersten BETA Versionen von DX9 gab es schon vor dem R300. Die DX9 Beta wurde auf drängen von ATI verteilt weil sie sonst ja ihere Demos hätten nicht zeigen können. Die finale DX9 Version wäre eigentlich auch rechtzeitig fertig geworden wenn nicht noch kurzfristig DX 9.1 gestrichen und alles was man dort machen wollte (auf jeden Fall SM3 und unter umständen auch 2.x) in DX9.0 gerutscht wäre.

Die Beta war doch nicht so für alle verfübar wie zZ jetzt DX9.0b, oder? Ist aber egal. Man könnte mutmassen, dass MS mit der Präsentation der U3 Engine&deren SM3 das DX9.0c Update veröffentlicht. Das wäre doch eine nette Geste.

Demirug
2004-05-08, 19:00:53
Original geschrieben von deekey777
Ich meinte was ganz anderes.
Es gibt Leute, die meinen, dass ohne die NV40er es gar keine Spiele mit SM 3.0 geben wird. Die SM 3.0 Unterstützung der NV40 ist viel mehr als nur ein nett gemeintes Feature, aber gleich zu sagen, dass wir es nVidia zu verdanken haben, dass die Unreal 3 Engine SM 3.0 hat(haben wird), ist doch etwas übertrieben. Diese Engine kommt erst 2005/06, wo ganz andere Grafikkarten auf dem Markt sein werden und uU SM 3.0 schon alter Hut sein wird.

PS: Wann ist es eigentlich mit dem DX Update in etwa zu rechnen - in Kürze oder erst irgendwann im Sommer (noch schlimmer mit dem Win XP Service Pack 2)?

Natürlich würde es auch ohne NV40 SM3 Spiele geben. Eben einfach etwas später. Eine Engine für eine Technologie auszurichten kann man ja noch Hardware aber sobald man ein Spiel mit dieser Engine machen möchte braucht man die passende Hardware.

Was die Releasetermine von MS angeht so kann ich auch nichts dazu sagen. Wahrscheinlich kann das noch nicht mal MS selbst.

Demirug
2004-05-08, 19:10:10
Original geschrieben von Stefan Payne
Gibt aber auch Gerüchte, daß die R100 DX8 kompatibel werden sollte...

Doch irgendwie wurd nix daraus...

Nunja irgendwo musste man ja die Grenze ziehen was nun eine Fixed Funktion Hardware und was eine Shaderhardware ist. Rampage und NV20 lagen Technologisch sehr dicht zusammen und brachten beide einiges mehr mit was durch DX7 nicht mehr abgedeckt war. Beim R100 wüsste ich jetzt spontan nicht was er beherscht das nicht durch DX7 ausreichend abgedekt wird.

Das ganze Gerücht kommt wohl auch nur daher das sich ATI den Spass erlaubt hat im Treiber Code einzubauen der es erlaubt hat einfache Pixelshader auszuführen. Den gleichen Trick hätte nVidia aber auch für den NV10 nutzen können. Ich persönlich finde es auch Schade das MS mit DX8 nicht noch eine Shaderversion 0.X eingeführt hat welche es erlaubt DX7 Hardware mit dem gleichen Interface wie DX8 Hardware zu programmieren.

Demirug
2004-05-08, 19:12:04
Original geschrieben von deekey777
Die Beta war doch nicht so für alle verfübar wie zZ jetzt DX9.0b, oder? Ist aber egal. Man könnte mutmassen, dass MS mit der Präsentation der U3 Engine&deren SM3 das DX9.0c Update veröffentlicht. Das wäre doch eine nette Geste.

Es gab eine öffentliche DX9 Runtime Beta für alle und passenden Treiber von ATI dazu. Die DX9.0c Beta ist ja nicht öffentlich.

Gas5t
2004-05-08, 21:41:52
http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=141724

tokugawa
2004-05-08, 22:26:41
Original geschrieben von Demirug
Nunja irgendwo musste man ja die Grenze ziehen was nun eine Fixed Funktion Hardware und was eine Shaderhardware ist. Rampage und NV20 lagen Technologisch sehr dicht zusammen und brachten beide einiges mehr mit was durch DX7 nicht mehr abgedeckt war. Beim R100 wüsste ich jetzt spontan nicht was er beherscht das nicht durch DX7 ausreichend abgedekt wird.

Das ganze Gerücht kommt wohl auch nur daher das sich ATI den Spass erlaubt hat im Treiber Code einzubauen der es erlaubt hat einfache Pixelshader auszuführen. Den gleichen Trick hätte nVidia aber auch für den NV10 nutzen können. Ich persönlich finde es auch Schade das MS mit DX8 nicht noch eine Shaderversion 0.X eingeführt hat welche es erlaubt DX7 Hardware mit dem gleichen Interface wie DX8 Hardware zu programmieren.

Du meinst sowas wie nvparse unter OpenGL, das einen PS 1.1 nimmt und daraus (NV_) Register Combiner States macht?

tokugawa
2004-05-08, 22:28:44
Original geschrieben von deekey777
Äh, kleines Mißverständnis:
In der News steht folgendes:
"nVidia und Epic Games werden auf der E3 die Unreal Engine 3 vorstellen. Das Highlight der Engine-Präsentation soll das Shader Model 3.0 sein, das momentan nur mit Grafikkarten der GeForce 6 Serie funktioniert. ..."

Wenn das Highlight tatsächlich SM 3.0 in Realtime sein soll, dann braucht man DX9.0c, um diese zu zeigen. Grundsätzlich wird es ja nicht erlaubt, DX9.0c zu früh zu zeigen, da noch beta. Es sei denn:
c.) nVidia hat eine Sondererlaubnis und zeigt tatsächlich die U3 Engine in voller Pracht mit SM 3.0;
b.) Es werden nur hübsche Bildchen bzw ein Video gezeigt, was erlaubt ist;
a.) Microsoft veröffentlicht DX9.0c.

Nur das meinte ich.

Oder mit "SM 3.0" meinen die "SM 3.0 äquivalent", und die zeigen die Engine mit einem OpenGL Renderer, der die NV40 Extensions nutzt, die die SM 3.0-like Features exponiert.

tokugawa
2004-05-08, 22:29:49
Original geschrieben von dildo4u
Hm ja die hab ick Absolviert kann vieleicht daran liegen
das ick das schon seid 8 jahren hinter mir hab is einfach zu lange her *g*

"Zu lange her" ist keine genügend gute Ausrede für deine mangelhafte Rechtschreibung...

tokugawa
2004-05-08, 22:31:44
Original geschrieben von tRpii
Nur das Prob. ist, wann die Sachen die komplett SM3.0 nutzen erscheinen. Mit U3 ist nicht vor ende 2005 zu rechnen und bis dahin dürfte ATi sicher auch die R500 released haben.

Klar hat Nv momentan einen Voreil gegenüber ATi da sie schon einen SM3 capable Chip rausgebracht haben. Aber ob das wirklich einen großen Vorteil bringt wird sich frühstens mit 9.0c und nem "richtigen SM3" Spiel zeigen..

Es gibt ja noch OpenGL, wo meines Wissens SM 3.0-like Shaders schon möglich sind, mit NV spezifischen Extensions...

Zumindest in der Wissenschaft und Forschung (Visualisierung und Computergrafik) ist sehr bald damit zu rechnen, dass SM 3.0-like Shaders (unter OpenGL) genutzt werden.

tokugawa
2004-05-08, 22:36:41
Original geschrieben von tRpii
Und was bringt es dem Enduser? Richtige Antwort: NICHTS (nicht ATi Usern und nicht NV Usern)


Ich bin ein Enduser, und ich muß sagen, mir würd's sehr viel bringen.

Meinen Kollegen am Computergrafik-Institut meiner Uni sicher auch (die überlegen eh schon eine NV40 von NVIDIA anzufordern, oder sogar eine Retail-Karte zu kaufen).

Original geschrieben von tRpii
Soll Epic doch mit ihrem SM3 spielen und nen paar videos releasen aber dem "Spieler" bringt das im Endeffekt nichts.


"Spieler" und "Enduser" sind nicht dieselbe Menge.

Original geschrieben von tRpii
Richtige SM3 Spiele wird es in der nächsten Zeit auch nicht geben, denn die von NV angegebenen Titel kommen wenn dann erst 2005 (ausser FC, Painkiller die schon draussen sind) aber der wirkliche Nutzen für heutige Spiele hängt von 9.0c ab und da wird sich erst zeigen ob SM3 der große wurf ist.


Es gibt einen ganzen Haufen Spiele, die gerade in Entwicklung sind.

Und SM 3.0 zu implementieren in eine Engine die bereits SM 2.0 unterstützt, ist einfach und simpel (wenn man's richtig gemacht hat).

Die einzige Schwierigkeit ist es, die Shader zu erstellen, aber dankenswerterweise gibt es da ja Shader-Authoring Tools wie NVIDIA FX Composer und viele andere (auch Rendermonkey, aber ich glaub nicht dass das schon SM 3.0 unterstützt :D ).


Original geschrieben von tRpii
Ansonsten bleib ich doch lieber in der Gegenwart anstatt mir irgendwas auszumalen was innem Jahr mal sein KÖNNTE.

Ich glaub dass ziemlich bald zumindest _ein paar_ Sachen mit SM 3.0 kommen. Ende Sommer?

Einige Spiele stehen ja kurz vor der Fertigstellung. Und da die Nutzung von SM 3.0 nicht so schwer ist in einer Engine die schon SM 2.0 nutzt, könnte es eine Reihe von Patches und Upgrades für vorhandene ebenfalls geben.

Natürlich rein spekulativ. Aber logisch/aufwandstechnisch steht dem zumindest nichts im Weg (IMO ist es sogar einfacher, SM 3.0 in eine Engine zu integrieren als etwa das einzige neue ATI Feature 3Dc).

tokugawa
2004-05-08, 22:38:04
Original geschrieben von deekey777
Ja, ja, ATi - die Technologiebremse...

Wir haben es wohl MS dies zu verdanken, dass DX 9.0c SM3.0 mit sich bringt. Und auch Epic, welche die Unreal 3 Engine mit SM 3.0 Unterstützung bringen. Aber nVidia hat damit nichts zu tun.

NVIDIA exponiert Shader auf Shader Modell 3.0 Tech Level in OpenGL über eigene Extensions. Und NVIDIA hat den NV40 gemacht.

Ich glaub angesichts dessen hat NVIDIA schon ein bißchen damit zu tun, oder? :D

Demirug
2004-05-08, 22:38:05
Original geschrieben von tokugawa
Du meinst sowas wie nvparse unter OpenGL, das einen PS 1.1 nimmt und daraus (NV_) Register Combiner States macht?

Sowas in der Art. Im Prinzip einen Pixelshader 1.0 bei dem aber via CAPS vorgegeben wird welche und wie viele Ops man benutzen kann. Zudem kann er ja dann bei anlegen noch vom Treiber validiert werden. Ist aber OT.

tokugawa
2004-05-08, 22:41:55
Original geschrieben von Winter[Raven]
:kratz:

Tjö, was es uns bringt? Hoffentlich 3.0 Spiele und das schon vielleicht 2005.

Ich spekuliere, dass es einige SM 3.0 Beispiele schon dieses Jahr geben wird.

Denn ich schätze den Aufwand,

1) in FX Composer mal schnell einen 3.0er Shader zu schreiben (schludrig programmieren reicht, um mal schnell die Limitationen von 2.0 zu sprengen :D )
2) den in die Engine zu schupfen (die bereits Shader unterstützt, und dadurch nicht viel Veränderung benötigt)
3A) dies auf einem vorhandenen Spiel zu machen und halt den Patch rauszubringen
bzw.
3B) dies in einem kurz vor der Fertigstellung stehenden Spiel zu machen

für relativ gering.

Quasar
2004-05-08, 22:46:55
Nochmal zur Anmerkung bezgl. der integration von SM3.0:

Vergeßt nicht, daß es bereits in der ersten DX9-Spec ein SM3.0 gab und je nachdem, wann nV sich für das SM3.0 entschied, kann der ein oder andere Dev sich schon seit langer Zeit darauf eingestellt haben...

Winter[Raven]
2004-05-08, 22:49:12
Ich spekuliere, dass es einige SM 3.0 Beispiele schon dieses Jahr geben wird

Ist schon klar ;), ich bezog mich ehe auf die games die Massive oder rein shader 3.0 nützen.

Dieses Jahr sollen ja noch einige kommen, für Painkiller und Farcry kommen ja noch Patches.

Und bevor jemand sagt da wird der NV40 ehe zulangsamm sein, dazu sag ich dann aber ehe langsamm als gar keine.

@ Quasar

Demirug hat ja mal angedeutet, dass jede Shader 2.0 3D Engine unterstützt auch 3.0 Shader, da muss man nicht viel ändern.

tokugawa
2004-05-08, 23:05:38
Original geschrieben von Winter[Raven]
Ist schon klar ;), ich bezog mich ehe auf die games die Massive oder rein shader 3.0 nützen.


"Rein Shader 3.0" wird's wohl nie geben (macht auch keinen Sinn... oder willst du für Onscreen-Textausgabe oder GUI-Rendering auch Shader 3.0 einsetzen :D ).

Massive Shader 3.0 Nutzung ist in der Tat fraglich, aber mir reicht eigentlich ein Shader, der mit 2.0 nicht möglich ist, dazu, eine Engine als "SM 3.0 Tech Level" zu bezeichnen. Selbst wenn es quasi ein Shader ist, der dasselbe tut wie ein 2.0er-Shader, aber weniger limitiert ist (etwa Vertex Skinning/Weighing/Transforming bei Skeletal Animation, mit einem höhergesetzten Limit der Transformationsmatrizen).

Original geschrieben von Winter[Raven]
Dieses Jahr sollen ja noch einige kommen, für Painkiller und Farcry kommen ja noch Patches.

Und bevor jemand sagt da wird der NV40 ehe zulangsamm sein, dazu sag ich dann aber ehe langsamm als gar keine.

@ Quasar

Demirug hat ja mal angedeutet, dass jede Shader 2.0 3D Engine unterstützt auch 3.0 Shader, da muss man nicht viel ändern.

Jo, wenn's richtig programmiert ist, sollte der Aufwand eigentlich nur sein, 3.0er Shader zu basteln (und dafür gibt's ja eben nette Authoring Tools wie FX Composer).

Und gerade FX Composer erlaubt es, "Effekte" einfach mal so zu speichern, und dann einfach einzusetzen. Ich bin mir sicher dass NVIDIA in ihrem Developer-Bereich einige fertige 3.0-Shader-Effekte fix-und-fertig zum "in-die-Engine-schupfen" anbieten wird.

Exxtreme
2004-05-08, 23:06:04
Original geschrieben von Winter[Raven]
Demirug hat ja mal angedeutet, dass jede Shader 2.0 3D Engine unterstützt auch 3.0 Shader, da muss man nicht viel ändern.
Jein. :) Wenn die Shader in HLSL geschrieben wurden, kann man diese durch die verschiedenen Compiler-Profile jagen. So kann man mehrere Shaderversionen gleichzeitig abdecken und die verschiedenen Shader anhand der DX-Caps auswählen. Man muss es aber tun.

Demirug
2004-05-08, 23:18:07
Original geschrieben von Exxtreme
Jein. :) Wenn die Shader in HLSL geschrieben wurden, kann man diese durch die verschiedenen Compiler-Profile jagen. So kann man mehrere Shaderversionen gleichzeitig abdecken und die verschiedenen Shader anhand der DX-Caps auswählen. Man muss es aber tun.

Es gibt da eine nette kleine Funktion die automatisch das richtige Profil für einen Chip ermittelt und zurückliefert. Das kann man dann direkt an den Compiler weitergeben. Hat man das einmal eingebaut muss man nur noch mit dem jeweils neuen SDK linken und gut ist.

r@h
2004-05-08, 23:30:26
Original geschrieben von deekey777
Also darum unterstützt die Unreal 3 Engine SM 3.0... Gut zu wissen.:???:
Original geschrieben von deekey777
Und seit wann veröffentlicht MS eine unfertige Betaversion für alle???
Und wenn mich nicht alles täuscht, kam die 9700 einige Monate vor DX9. Nein... bzw. falsch.
M$ hat erstmalig (wohl auf Drängen von ATI) eine Beta-Version von DX9 als final veröffentlicht. Warum, mag sich jeder selbst beantworten (und wurde hier auch schon an der einen oder anderen Stelle diskutiert ;-).

Razor

r@h
2004-05-08, 23:34:44
Original geschrieben von deekey777
Es gibt Leute, die meinen, dass ohne die NV40er es gar keine Spiele mit SM 3.0 geben wird. Die SM 3.0 Unterstützung der NV40 ist viel mehr als nur ein nett gemeintes Feature, aber gleich zu sagen, dass wir es nVidia zu verdanken haben, dass die Unreal 3 Engine SM 3.0 hat(haben wird), ist doch etwas übertrieben. Diese Engine kommt erst 2005/06, wo ganz andere Grafikkarten auf dem Markt sein werden und uU SM 3.0 schon alter Hut sein wird.Ohne Hardware kein Entwickler, der Engines mit Features austattet, welche es (irgendwann) mal in Hardware geben wird.

Keine Henne ohne Ei, gell ?
:D

Razor

deekey777
2004-05-08, 23:36:04
Original geschrieben von r@h
:???:
Nein... bzw. falsch.
M$ hat erstmalig (wohl auf Drängen von ATI) eine Beta-Version von DX9 als final veröffentlicht. Warum, mag sich jeder selbst beantworten (und wurde hier auch schon an der einen oder anderen Stelle diskutiert ;-).

Razor

Guck mal was oben steht.

r@h
2004-05-08, 23:45:18
Original geschrieben von deekey777
Guck mal was oben steht. Hab' ich auch grad' gelesen...
:D

Also stimmst Du zu ?
Wegen ATI hat M$ eine (public) Beta zur Final 'gekürt'... bei nVidia aber noch nicht.
;-)

Razor

Kladderadatsch
2004-05-09, 10:28:57
wieder ergebnisse (aus far cry), die sich extrem von z.b. chip's oder tomshardware's benches unterscheiden:
http://www.hardocp.com/article.html?art=NjExLDQ=

dildo4u
2004-05-09, 10:39:44
Original geschrieben von Neo@game-factor
wieder ergebnisse (aus far cry), die sich extrem von z.b. chip's oder tomshardware's benches unterscheiden:
http://www.hardocp.com/article.html?art=NjExLDQ= *g* kleiner tipp guck dir mal die auflösungen an ich frag mich echt was der typ geraucht hat die karten mit unterschiedlichen auflösungen zu testen


!!!WARNING!!!!

Be aware that our main gameplay testing is not done in an “apples to apples” method. We strive to find “which card plays at the highest image quality” while maintaining a solidly playable framerate. The graph titles show you the resolution, AA and AF settings we found to be the best playable settings on the video cards. Then below you will find the graph that outlines Frames Per Second over a period of time. IQ comparisons are to be found below that so you can see the realworld comparison.

deekey777
2004-05-09, 10:46:58
Original geschrieben von Demirug
Es gab eine öffentliche DX9 Runtime Beta für alle und passenden Treiber von ATI dazu. Die DX9.0c Beta ist ja nicht öffentlich.

Extra für dich, Razor - die diplomatischste Antwort aller Zeiten. Aber die "Retailversion" von DirectX9 kam im Dezember oder so, gleich danach kam der cat. 3.0(oder 3.0a oder b).

Kladderadatsch
2004-05-09, 11:49:31
Original geschrieben von dildo4u
*g* kleiner tipp guck dir mal die auflösungen an ich frag mich echt was der typ geraucht hat die karten mit unterschiedlichen auflösungen zu testen


hab ich auch bemerkt, nachdem ich das hier gepostet hab. (war aber zu faul, das noch zu ändern;) )
naja, die ati scheint wohl doch, jedenfalls was fc anbelangt, wesentlich schneller zu sein als die 6800ultra e.ed...und da far cry der technik der kommenden "grafik-highlights" noch am nächsten kommt, scheint ati wohl mal wieder die bessere wahl zu sein.:(
seh ich das richtig?

Winter[Raven]
2004-05-09, 11:56:13
Original geschrieben von Neo@game-factor
hab ich auch bemerkt, nachdem ich das hier gepostet hab. (war aber zu faul, das noch zu ändern;) )
naja, die ati scheint wohl doch, jedenfalls was fc anbelangt, wesentlich schneller zu sein als die 6800ultra e.ed...und da far cry der technik der kommenden "grafik-highlights" noch am nächsten kommt, scheint ati wohl mal wieder die bessere wahl zu sein.:(
seh ich das richtig?

Falsch, die derzeitigen FarCry vergleiche XT vs GF sind für die Tonne!

Der NV40 läuft im NV3x Path und nicht für den NV4x path, und solange es keinen DX9.0c gibt braucht man dne NV40 gegen den R420XT ned zuvergleichen.

InsaneDruid
2004-05-09, 11:59:06
Auch wenn mir ATI wesentlich sympatischer is.. FC als BENCH ist IMHO atm vollkommen sinnbefreit. Dafür würde ich warten bis die NV40 ihre 3er Shader zum Einsatz bringen kann und dann sollte man nochmal benchen.. und zwar bei beiden mit Opts off (und an, just for fun).

Demirug
2004-05-09, 11:59:50
Für Farcry braucht man beim NV40 auch erst mal Treiber die keine Bugs mehr haben. Derzeit sind da scheinbar noch eine Menge Dinge im argen die sich auch auf die Performance auswirken.

dildo4u
2004-05-09, 12:03:06
Original geschrieben von Winter[Raven]
Falsch, die derzeitigen FarCry vergleiche XT vs GF sind für die Tonne!

Der NV40 läuft im NV3x Path und nicht für den NV4x path, und solange es keinen DX9.0c gibt braucht man dne NV40 gegen den R420XT ned zuvergleichen. naj auch dann kann man es nicht vergleichen da das game mit 3.0 ja auch besser aussehen soll

Kladderadatsch
2004-05-09, 12:30:53
kann man dann das hier so stehen lassen:
die 6800ultra (extreme edition) ist in ihrer rohleistung ein ganzes stück schneller als die x800 xt. das bezieht sich auf dx3d, wobei sie in opengl (doom3) nocheinmal ein ganzes stück schneller ist.(wie es in z.b. call of duty gezeigt wird). mit aktiviertem aa liegen beide karten in etwa gleich auf (?), in großen auflösungen ist dann aber die x800 xt ein paar prozent schneller als die 6800ultra.
???

ich dachte, ps3.0 wird in games noch lange nicht unterstützt? oder berechnet es auch die ps2.0 befehle schneller?

InsaneDruid
2004-05-09, 12:37:23
Also von CoD aud D3 schließen zu wollen halte ich für sehr gewagt. Überhaupt wäre ich mit Verallgemeinerungen wie "OGL= dieunddie Firma besser" sehr vorsichtig. Unter IL2Sturmovik (OGL) liegt die ATI Vorne, in CoD NV..

Kladderadatsch
2004-05-09, 12:41:59
Original geschrieben von InsaneDruid
Unter IL2Sturmovik (OGL) liegt die ATI Vorne, in CoD NV..

ich vergleiche ja nicht doom3 mit cod...
und ich glaube mich zu erinnern, dass die ati in direct3d ein ganzes stück schneller als die nvidia karte war, was sich im opengl-modus genau um 180° wendete...aber ich such den bench nochmal.

Iceman346
2004-05-09, 12:44:14
Original geschrieben von dildo4u
naj auch dann kann man es nicht vergleichen da das game mit 3.0 ja auch besser aussehen soll

Jupp.

Ich frage mich warum keiner auf die Idee kommt Far Cry in der Version 1.0 zu benchen. Da hatten Nvidia Karten und ATi Karten afaik doch noch die gleiche Bildqualität.

LovesuckZ
2004-05-09, 12:45:37
Original geschrieben von Iceman346
Ich frage mich warum keiner auf die Idee kommt Far Cry in der Version 1.0 zu benchen. Da hatten Nvidia Karten und ATi Karten afaik doch noch die gleiche Bildqualität.

Weil es, aeh, zu Treiberproblemen kommt?

ironMonkey
2004-05-09, 12:47:59
Wenn man den 1 stelligen Berreich als groß ansieht schon und ob man jetzt 200 oder 280FPS hat macht den Bock nicht Fett.

Du kannst mit NV und ATI beides ohne große Probleme Zocken, die nehmen sich bei allen Spielen nicht viel und wenns doch mal mehr ist dann sind die FPS meist im Berreich über 100 und das ist es nicht von Bedeutung.

So lange die FPS Anzeige aus ist wirst du beide Karten nicht unterscheiden können in Spielen.



Gruß

Iceman346
2004-05-09, 13:01:39
Original geschrieben von LovesuckZ
Weil es, aeh, zu Treiberproblemen kommt?

Was für Treiberprobleme meinst du? Sowas in der Art von "Nvidia tauscht lustig Shader aus"?

MikBach
2004-05-09, 13:02:06
Original geschrieben von InsaneDruid
Unter IL2Sturmovik (OGL) liegt die ATI Vorne, in CoD NV..

Hab ich was verpasst?

In COD sind Beide in etwa gleich schnell.

http://www.xbitlabs.com/articles/video/display/r420-2_5.html

LovesuckZ
2004-05-09, 13:03:50
Original geschrieben von Iceman346
Was für Treiberprobleme meinst du? Sowas in der Art von "Nvidia tauscht lustig Shader aus"?

Nein, eher "alles ist blau durch den neuen Treiber"...

Winter[Raven]
2004-05-09, 13:04:56
In COD sind Beide in etwa gleich schnell.


Da hat wohl jemand vergessen vSync auszuschalten. Nvidia ist in COD immer um eniges schneller ;)

deekey777
2004-05-09, 13:05:16
Original geschrieben von LovesuckZ
Nein, eher "alles ist blau durch den neuen Treiber"...

Aber ein sehr schönes Blau. ;D

Original geschrieben von Winter[Raven]
Da hat wohl jemand vergessen vSync auszuschalten. Nvidia ist in COD immer um eniges schneller ;)

Äh, das war eine andere Seite.

MikBach
2004-05-09, 13:08:12
Original geschrieben von Winter[Raven]
Da hat wohl jemand vergessen vSync auszuschalten.

Und man erreicht Werte über 200 fps beim Nv40?:banghead: :kratz:
Wie das?

Winter[Raven]
2004-05-09, 13:09:59
http://www20.tomshardware.com/graphic/20040504/ati-x800-16.html

http://www20.tomshardware.com/graphic/20040504/ati-x800-17.html

http://www20.tomshardware.com/graphic/20040504/ati-x800-18.html

http://www20.tomshardware.com/graphic/20040504/ati-x800-19.html

MikBach
2004-05-09, 13:15:43
Original geschrieben von Winter[Raven]
http://www20.tomshardware.com/graphic/20040504/ati-x800-16.html

http://www20.tomshardware.com/graphic/20040504/ati-x800-17.html

http://www20.tomshardware.com/graphic/20040504/ati-x800-18.html

http://www20.tomshardware.com/graphic/20040504/ati-x800-19.html

LoL, ich habe doch den Link von X-bit Labs gepostet, dann meintest du, die haben vergessen den Vsync auszuschalten(bei über 200 fps):banghead:
Und jetzt kommst du mit Links von THG.
Kannst du erstmal auf meine letzte Anmerkung antworten, bevor es weiter im Thema geht?:schlag:

Winter[Raven]
2004-05-09, 13:20:58
Kannst du erstmal auf meine letzte Anmerkung antworten, bevor es weiter im Thema geht?

Diese wäre?

MikBach
2004-05-09, 13:24:18
Original geschrieben von Winter[Raven]
- Besseren OpenGL support
- Q3 Engine Games liegen Nvidia besser.

Und das soll meine Frage nach dem VSync bei XBitLabs beantworten?:schlag:

Edit: Hehe, hast du also geändert. :naughty: Gut so. :D

MikBach
2004-05-09, 13:25:38
Original geschrieben von Winter[Raven]
Diese wäre?

Wie schafft es XBitLabs mit Vsync ON über 200 fps?

Iceman346
2004-05-09, 13:28:30
Original geschrieben von LovesuckZ
Nein, eher "alles ist blau durch den neuen Treiber"...

<paranoid>
Ist das auch so wenn man die .exe umbenennt? ;)
</paranoid>

StefanV
2004-05-09, 13:33:06
Original geschrieben von MikBach
Wie schafft es XBitLabs mit Vsync ON über 200 fps?

Hm, garnicht?! :freak:

Bei 1280x960 wären das bei genau 200Hz etwa 200kHz, die der Monitor schaffen müsste.

Dummerweise ist aber atm bei den normalen Schirmen bei etwa 140kHz Ende im Gelände...

MarcWessels
2004-05-09, 13:50:24
Original geschrieben von ironMonkey
Wenn man den 1 stelligen Berreich als groß ansieht schon und ob man jetzt 200 oder 280FPS hat macht den Bock nicht Fett.(...)So lange die FPS Anzeige aus ist wirst du beide Karten nicht unterscheiden können in Spielen.
Gruß

Na Hallo? Ob ich als MINIMALE Framerate 60 oder 42 bespielsweise hab', seh ich sehr wohl.

Aprospos "minimale fps"-> Guck Dir mal die wenigen Reviesw an, wo die angegeben ist. Es ist ähnlich wie damals bei der FX-> die DURCHSCHNITTLICHEN Frameraten sind oftmals nicht sooo weit weg von ATI, während die MINIMALEN Frameraten gegenüber der Konkurrenz aus Kanada demgegenüber STARK abfallen.

MikBach
2004-05-09, 13:56:32
Original geschrieben von MarcWessels
Na Hallo? Ob ich als MINIMALE Framerate 60 oder 42 bespielsweise hab', seh ich sehr wohl.

Aprospos "minimale fps"-> Guck Dir mal die wenigen Reviesw an, wo die angegeben ist. Es ist ähnlich wie damals bei der FX-> die DURCHSCHNITTLICHEN Frameraten sind oftmals nicht sooo weit weg von ATI, während die MINIMALEN Frameraten gegenüber der Konkurrenz aus Kanada demgegenüber STARK abfallen.
Full Ack.

Ich würde sogar sagen "minimale fps" sind viel wichtiger als "avg fps", da man daran ablesen kann, wie weit die fps in "brenzlichen Situationen" runtergeht, und gerade in den Extremsituationen ist framerate sehr wichtig.

Demirug
2004-05-09, 14:04:10
Nur leider ist der Min.FPS Wert bei einem System wie es ein PC darstellt blödsinn. In der Regel ist er nämlich nicht sauber reproduzierbar. Wenn man so einen Wert haben will muss man den Mittelwert einer Menge X von langsamen Frames nehmen. Zum Beispiel 10% aller Frames.

MikBach
2004-05-09, 14:27:24
Original geschrieben von Demirug
Nur leider ist der Min.FPS Wert bei einem System wie es ein PC darstellt blödsinn. In der Regel ist er nämlich nicht sauber reproduzierbar. Wenn man so einen Wert haben will muss man den Mittelwert einer Menge X von langsamen Frames nehmen. Zum Beispiel 10% aller Frames.
:up:
Recht hast du.
Wäre wirklich mal wieder eine sinnvolle Idee z.B. 10% der langsamsten Frames auszusuchen, und dann den Mittelwert zu bilden.

eXistence
2004-05-09, 15:56:25
ich hab die Frage schonmal gestellt, aber irgendwie wurde nicht näher drauf eingegangen:

Die Händler sprechen bei den Ausgabe-Optionen für die 6800er nur noch von DVI+DVI und DVI+VGA, aber nicht mehr von VGA+VGA.
Gehe ich richtig in der Annahme, dass dies nur mit der Anzahl der Adapter zusammenhängt, die mitgeliefert werden?
Wenn ich mir also einen zweiten Adapter (zusätzlich zu dem der mitgeliefert wird) kaufe, kann ich trotzdem wieder VGA+VGA fahren und so zwei analoge Monitor betreiben?

DanMan
2004-05-09, 16:11:27
Original geschrieben von eXistence
ich hab die Frage schonmal gestellt, aber irgendwie wurde nicht näher drauf eingegangen:

Die Händler sprechen bei den Ausgabe-Optionen für die 6800er nur noch von DVI+DVI und DVI+VGA, aber nicht mehr von VGA+VGA.
Gehe ich richtig in der Annahme, dass dies nur mit der Anzahl der Adapter zusammenhängt, die mitgeliefert werden?
Wenn ich mir also einen zweiten Adapter (zusätzlich zu dem der mitgeliefert wird) kaufe, kann ich trotzdem wieder VGA+VGA fahren und so zwei analoge Monitor betreiben?
Jup. :)

tokugawa
2004-05-09, 19:29:41
Original geschrieben von MikBach
:up:
Recht hast du.
Wäre wirklich mal wieder eine sinnvolle Idee z.B. 10% der langsamsten Frames auszusuchen, und dann den Mittelwert zu bilden.

Und welchen Mittelwert? Arithmetischen? Median? Welcher sagt mehr aus?

MikBach
2004-05-09, 19:40:43
Original geschrieben von tokugawa
Und welchen Mittelwert? Arithmetischen? Median? Welcher sagt mehr aus?
Das ist mir nicht so wichtig. Mir kommt es auf 1(2-3) Fps nicht wirklich an. Ich will nur wissen, wie sich die Karten in Stresssituationen verhalten.
Immer diese Perfektionisten. ;D

Ne, arithmetisch wäre schon nicht schlecht. ;)

Edit: Smile hinzugefügt(am Ende), damit man die Ironie besser versteht(bezogen auf den medianen Mittelwert).

MikBach
2004-05-09, 22:07:06
Was soll den das? :kratz:

Luciano Alibrandi:" Die GeForce 6800 hat verglichen mit der GeForce FX eine vereinfachte Hardware, um die LOD-Berechnungen für anisotrope Filterung auszuführen. Die Berechnung entspricht aber noch immer voll der Microsoft DirectX Spezifikation und WHQL-Bestimmungen, ebenfalls werden die Anforderungen von OpenGL erfüllt. Diese Optimierung spart Kosten und steigert die Performance, der Chip läuft mit anisotroper Filterung also schneller und ist für den Endkunden preiswerter. Daher könnte es sein, dass es unmöglich ist, den GeForce FX-Algorithmus in dieser Hardwaregeneration freizuschalten. Wir schauen uns das noch an."

Soll das heissen, wenn der (optimierte) Filter des R420 die Spezifikationen(WhQL,OGL) erfüllt, ist das in Ordnung?
:bonk:

Aquaschaf
2004-05-09, 22:12:09
Da hab ich wohl mit meiner Vermutung richtig gelegen. Wer weiß, vielleicht hat man auf die Weise noch eine Millionen Transistoren eingespart.

LovesuckZ
2004-05-09, 22:25:33
Original geschrieben von Aquaschaf
Da hab ich wohl mit meiner Vermutung richtig gelegen. Wer weiß, vielleicht hat man auf die Weise noch eine Millionen Transistoren eingespart.

Wozu weiter unnötigen ballast mit sich rumschleppen. Der gemeine Gamer will kein vernünftiges AF.

MadMan2k
2004-05-10, 01:29:48
Original geschrieben von LovesuckZ
Wozu weiter unnötigen ballast mit sich rumschleppen. Der gemeine Gamer will kein vernünftiges AF.
wie kommst du darauf?

tja, scheinbar ist die derzeitige Ati Generation noch nicht soweit und nie NVIDA Gen nicht mehr...

MadManniMan
2004-05-10, 02:40:33
@V7MX u. Iceman:

Eure Kommentare bezüglich dildo4u sind vielleicht doch etwas arg oberflächlich :| - schaut nach der Aussage, das schärft den Verstand.

Original geschrieben von VooDoo7mx
Die X800Pro scheint früher lieferbar. Jedoch finde ich den Straßenpreis von 380€ absolut überzogen. In dieser Region wird die 6800GT rangieren die aber wesentlich schneller ist.


:| Hast du dir mal das Review von Leo angeschaut? Und das von den XBit-Labs? Dort tritt jeweils ne X8Pro gegen ne 68Ultra an - und die GT hat 87% der Füllrate und 90% der Bandbreite dieser.

Oder nochmal anders: schau dir die Rohdaten an - 5.700 vs. 5.600MPixel/s und 28,8 vs. 32GB/s ... klingt für mich nach vernachlässigbaren theoretischen Unterschieden.

Ich will die X8Pro nicht besser reden, als sie ist, aber bevor ich zusehe, wie die GT (oder eben die X8Pro) als Sieger auserkoren wird, warte ich lieber mal mehrere Tests ab - PCGH, 3DC und die XBit-Labs(als Beispiele) ahoi!

MadManniMan
2004-05-10, 02:43:16
Original geschrieben von LovesuckZ
Wozu weiter unnötigen ballast mit sich rumschleppen. Der gemeine Gamer will kein vernünftiges AF.

Warum stets der überzogene Zynismus? Wen willst du in Schutz nehmen? Oder willst du nur sehgeschwächten ATi-Anhängern eine reindrücken? ...wenn ja: errm, steh doch drüber, Nichtbeachtung ist der erste Schritt zur Besserung.


@Razor:

Sei froh, daß wir überhaupt Gerüchtequellen haben.

G4st
2004-05-10, 08:26:50
Original geschrieben von MadManniMan
Ich will die X8Pro nicht besser reden, als sie ist, aber bevor ich zusehe, wie die GT (oder eben die X8Pro) als Sieger auserkoren wird, warte ich lieber mal mehrere Tests ab - PCGH, 3DC und die XBit-Labs(als Beispiele) ahoi!

Und ich warte lieber mal Tests ab, wo noch so einige andere Unregelmäßigkeiten geklärt sind, die ATI imihren Treiber hat.

guck: http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/mai/atis_texturfilter_lupe/

ka wieviel das mit noch AF ausmacht - kein Wunder das ATi gewinnt

Zahnrädchen
2004-05-10, 09:32:19
Original geschrieben von G4st
Und ich warte lieber mal Tests ab, wo noch so einige andere Unregelmäßigkeiten geklärt sind, die ATI imihren Treiber hat.

guck: http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/mai/atis_texturfilter_lupe/

ka wieviel das mit noch AF ausmacht - kein Wunder das ATi gewinnt

Bin gespannt ob NVidia gewinnt, wenn man deren Brilinearität abschaltet.

So wies aussieht cheaten beide momentan gleichviel, ausser dass ATi bei den Colormipmaps bescheisst. Aber wer weiss, vielleicht machts ja NVidia tw. genauso...

r@w
2004-05-10, 11:09:35
Original geschrieben von deekey777
Extra für dich, Razor - die diplomatischste Antwort aller Zeiten. Aber die "Retailversion" von DirectX9 kam im Dezember oder so, gleich danach kam der cat. 3.0(oder 3.0a oder b). Ja, ohne das Feedback der Beta-Tester abzuwarten...
Die Hintergründe dafür wurden ja nun schon zur Genüge 'beleuchtet'.
:D

Razor

r@w
2004-05-10, 11:17:36
Original geschrieben von Iceman346
Ich frage mich warum keiner auf die Idee kommt Far Cry in der Version 1.0 zu benchen. Da hatten Nvidia Karten und ATi Karten afaik doch noch die gleiche Bildqualität. Weil das ebenfalls 'sinnbefreit' ist.

Erst einmal haben die 60'er (6800 - beta- Treiber) Probleme mit der ungepatchten Version und zum zweiten läuft die 6800 im NV3x-Modus und nicht wie die X800 im kompatiblen (weil gleiche Architektur unterstützenden) R300-Mode.

IMO sollte man die FarCry-Benchies derzeit wirklich erst einmal mit einem großen Fragezeichen versehen, was nicht heißen soll, dass zuletzt die R420 doch schneller und/oder 'hübscher' sein kann... was aber abzuwarten bleibt.

Ergo: "Retail"-Treiber für die 6800, DX9c + vergleichbare BQ unter FarCry !
Alles andere ist unsinn...

Razor

P.S.: vergleichbar BQ übrigens auch, was die BQ-Einstellungensmöglichkeiten in den Treibern angeht... i.e. funktionierende brilinear-Abschaltung in den nVidia-Treibern und funktionierendes Stage-Optimierung-Abschlatung in den ATI-Treibern für die X800.

r@w
2004-05-10, 11:29:35
Original geschrieben von MikBach
Was soll den das? :kratz:

Luciano Alibrandi:" Die GeForce 6800 hat verglichen mit der GeForce FX eine vereinfachte Hardware, um die LOD-Berechnungen für anisotrope Filterung auszuführen. Die Berechnung entspricht aber noch immer voll der Microsoft DirectX Spezifikation und WHQL-Bestimmungen, ebenfalls werden die Anforderungen von OpenGL erfüllt. Diese Optimierung spart Kosten und steigert die Performance, der Chip läuft mit anisotroper Filterung also schneller und ist für den Endkunden preiswerter. Daher könnte es sein, dass es unmöglich ist, den GeForce FX-Algorithmus in dieser Hardwaregeneration freizuschalten. Wir schauen uns das noch an."

Soll das heissen, wenn der (optimierte) Filter des R420 die Spezifikationen(WhQL,OGL) erfüllt, ist das in Ordnung?
:bonk: Ja... leider.

So wie es ausschut, hat nVidia auf die Unfähigkeit der Reviewer regiert und eben ein vergleichbares (stark winkelabhängies) AF analog der ATI-Lösung implementiert. Somit bleibt als einziger Unterschied zwischen den (treiberseitigen) Einflussnahmen eben die Stage-Optimierung seites ATI und die brilineare Filterung seitens nVidia.

Es ist also das eingetreten, was unsere Experten ala Demirug und aths hier schon befürchteten: Optimierungs-Wettrennen bei den IHV's... weil die Reviewer und damit leider die Marktbewertung unfähig zu sein scheint.

Schade eigentlich...

Razor

P.S.: Auch gehe ich nunmehr davon aus, dass die starke Winkelabhängigkeit bei den 6800'ern nicht abzuschalten sein wird. Wie sich das dann allerdings mit den professionellen Grafik-Systemen 'verträgt', wird mir wohl ein Rätsel bleiben...

r@w
2004-05-10, 11:30:04
Original geschrieben von MadManniMan
Sei froh, daß wir überhaupt Gerüchtequellen haben. :???:

Razor

Iceman346
2004-05-10, 13:07:52
Original geschrieben von r@w

Erst einmal haben die 60'er (6800 - beta- Treiber) Probleme mit der ungepatchten Version und zum zweiten läuft die 6800 im NV3x-Modus und nicht wie die X800 im kompatiblen (weil gleiche Architektur unterstützenden) R300-Mode.

Ersteres ist natürlich ein nicht überwindbares Hindernis ;)
Aber das Problem damit dass die 6800 mit dem NV3X Pfad läuft sehe ich grade nicht so. Immerhin war in der Version 1.0 afaik die BQ beider Pfade (NV3X u. R3X0) gleich und mit den NV3X Shadern sollte der NV40 doch auch problemlos klarkommen.

IMO sollte man die FarCry-Benchies derzeit wirklich erst einmal mit einem großen Fragezeichen versehen, was nicht heißen soll, dass zuletzt die R420 doch schneller und/oder 'hübscher' sein kann... was aber abzuwarten bleibt.

Ergo: "Retail"-Treiber für die 6800, DX9c + vergleichbare BQ unter FarCry !
Alles andere ist unsinn...

Razor

P.S.: vergleichbar BQ übrigens auch, was die BQ-Einstellungensmöglichkeiten in den Treibern angeht... i.e. funktionierende brilinear-Abschaltung in den nVidia-Treibern und funktionierendes Stage-Optimierung-Abschlatung in den ATI-Treibern für die X800.

Ack, wobei man auch darauf achten sollte, dass die 6800 keine zusätzlichen Effekte darstellt sondern allenfalls Beschleunigungen durch PS3.0 erfährt.

r@w
2004-05-10, 13:26:52
Original geschrieben von Iceman346
Ersteres ist natürlich ein nicht überwindbares Hindernis ;) Witzig !
:D
Original geschrieben von Iceman346
Aber das Problem damit dass die 6800 mit dem NV3X Pfad läuft sehe ich grade nicht so. Immerhin war in der Version 1.0 afaik die BQ beider Pfade (NV3X u. R3X0) gleich und mit den NV3X Shadern sollte der NV40 doch auch problemlos klarkommen.Wer sagt, dass die BQ mit dem NV40-(SM3.0-)Pfad nicht wieder vergleichbar ist ?
Und wer sagt, dass die BQ nicht in Ordnung wäre, würde der NV40 den R300-Pfad nutzen ?
:???:

Letzteres sollte 'bequem' mit dem 3DA zu überprüfen sein...
Original geschrieben von Iceman346
Ack, wobei man auch darauf achten sollte, dass die 6800 keine zusätzlichen Effekte darstellt sondern allenfalls Beschleunigungen durch PS3.0 erfährt. Jup.
Die Frage ist nur, ob dies technisch von Crytec unterstützt werden wird.

Razor

Iceman346
2004-05-10, 14:43:50
Original geschrieben von r@w
Wer sagt, dass die BQ mit dem NV40-(SM3.0-)Pfad nicht wieder vergleichbar ist ?

Keiner ;) Aber wo Crytek diese netten Demos gezeigt hat wäre es doch schade wenn das nicht ins Spiel integriert würde. Aber lassen wir uns überraschen.

Und wer sagt, dass die BQ nicht in Ordnung wäre, würde der NV40 den R300-Pfad nutzen ?
:???:

Wäre auch ein Versuch wert, leider hab ich keine GF6800 ;)

Mancko
2004-05-10, 15:01:41
Original geschrieben von Zahnrädchen
Bin gespannt ob NVidia gewinnt, wenn man deren Brilinearität abschaltet.

So wies aussieht cheaten beide momentan gleichviel, ausser dass ATi bei den Colormipmaps bescheisst. Aber wer weiss, vielleicht machts ja NVidia tw. genauso...

Moment. Bei den GF6800U Tests war der Brillinear Scheiss aus.
Erst mit den neuesten Beta Treibern ist der Scheiss defaul mäßig an. Laut Aussagen von Nvidia ist dies ein Bug.
Ob das nun absichtlich ist oder nicht sei mal dahingestellt. Das lässt sich nicht beweisen.

Im Gegensatz dazu hat ATI absichtlich die Filteroptimierung im Default Zustand von Anfang an eingebaut und auf Nachfrage von 3DCenter ja auch bestätigt, dass sie nicht im Traum daran denken das auszustellen. Dazu kommt noch der doch sehr verdächtige Vorfall mit den Colour Mipmaps. Also das riecht schon sehr nach Cheat bei ATI muss ich sagen. Das sind mir zu viel Zufälle und vor allem die Fillrate Werte sehen doch sehr auffällig aus.
Also im Momentan cheatet für mich ATI eindeutig mehr und eigentlich erwarte ich das abseits von 3DCenter die entsprechenden Webseiten hier auch mal knallhart darauf eingehen. Bei Nvidia haben sie es doch aus PageView Geilheit auch gern gemacht.

Hier muss in jedem Fall eine umfassende Untersuchung des Hardwareverhaltens an. Für mich ist ATI in der Pflicht nachzuweisen, dass sie nicht rumcheaten.

MadManniMan
2004-05-10, 15:51:24
Original geschrieben von r@w
:???:

Razor

Du zogst über INQ her - ohne diesen hätten wir viele wunderbare Diskussionen nicht gehabt. Für mich ist das Forum Freizeit und Spaß, da ärger ich mich gewiß nicht darüber, über - im Nachhinein als solche erkenntlichen - hanebüchenen Stories philosophiert zu haben.

Original geschrieben von Mancko
Erst mit den neuesten Beta Treibern ist der Scheiss defaul mäßig an. Laut Aussagen von Nvidia ist dies ein Bug.
Ob das nun absichtlich ist oder nicht sei mal dahingestellt. Das lässt sich nicht beweisen.

Im Gegensatz dazu hat ATI absichtlich die Filteroptimierung im Default Zustand von Anfang an eingebaut und auf Nachfrage von 3DCenter ja auch bestätigt, dass sie nicht im Traum daran denken das auszustellen. Dazu kommt noch der doch sehr verdächtige Vorfall mit den Colour Mipmaps.

Du sagst es, niemandem kann man was nachweisen. Allerdings verzog sich mein :| zu einem :D, als ich vom droben Unterstrichenen las.

Original geschrieben von G4st
ka wieviel das mit noch AF ausmacht - kein Wunder das ATi gewinnt

:spock: Sältsum. Hm, aths ich warte ... :D

dildo4u
2004-05-10, 16:24:00
Original geschrieben von MadManniMan
Du zogst über INQ her - ohne diesen hätten wir viele wunderbare Diskussionen nicht gehabt. Für mich ist das Forum Freizeit und Spaß, da ärger ich mich gewiß nicht darüber, über - im Nachhinein als solche erkenntlichen - hanebüchenen Stories philosophiert zu haben.



Du sagst es, niemandem kann man was nachweisen. Allerdings verzog sich mein :| zu einem :D, als ich vom droben Unterstrichenen las.



:spock: Sältsum. Hm, aths ich warte ... :D
zitat von Thilo
"jetzt haben wir erneut R420 gebencht (pro), und der unterschied zwischen stage optimierung an/aus ist wie erwartet relativ gering (zwischen 0 und 7 %, aber meist nur 2 %)"

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1797558#post1797558

aths
2004-05-10, 16:38:39
Original geschrieben von MadManniMan
:spock: Sältsum. Hm, aths ich warte ... :D Zum Thema AF äußere ich mich bald, wenn auch eher allgemein gefasst.

MikBach
2004-05-10, 17:39:18
Original geschrieben von Mancko
Hier muss in jedem Fall eine umfassende Untersuchung des Hardwareverhaltens an. Für mich ist ATI in der Pflicht nachzuweisen, dass sie nicht rumcheaten.

Mal eine Frage, hast du es damals auch von Nvidia gefordert als sie Shader im 3dmark03 getauscht haben?
Bei einem BENCHMARK ist das unzulässig, bei Spielen nicht der Rede wert.
Denk mal nach. :)

Ausserdem hat sich ja schon Luciano Alibrandi von Nvidia dazu geäussert.

Luciano Alibrandi: Die GeForce 6800 hat verglichen mit der GeForce FX eine vereinfachte Hardware, um die LOD-Berechnungen für anisotrope Filterung auszuführen. Die Berechnung entspricht aber noch immer voll der Microsoft DirectX Spezifikation und WHQL-Bestimmungen, ebenfalls werden die Anforderungen von OpenGL erfüllt. Diese Optimierung spart Kosten und steigert die Performance, der Chip läuft mit anisotroper Filterung also schneller und ist für den Endkunden preiswerter. Daher könnte es sein, dass es unmöglich ist, den GeForce FX-Algorithmus in dieser Hardwaregeneration freizuschalten. Wir schauen uns das noch an.

Auf eines möchte ich aber hinweisen: Als unsere anisotrope Qualität DEUTLICH besser als beim Konkurrenzprodukt war, gab es keinen Reviewer in der Internet-Community, der uns für die Filterqualität gelobt hat – es gab nur Beschwerden bezüglich der Performance. Für die Zukunft planen wir, eine große Auswahlmöglichkeit von maximaler Qualität (so perfekt, wie wir es hinkriegen können) bis hin zur höchstoptimierten Leistung. Wenn man auch die LOD-Winkelabhängigkeit mit Testprogrammen zeigen kann, lassen sich in echten Spielen interessanterweise nur extrem schwierig Situationen finden, wo man Unterschiede sieht. Ich halte das für eine gute Optimierung, die dem Endkunden nützt.

Na klingelt´s?

Soll bedeuten, dass wir in der Zukunft mit minimalen Einbussen in der Bildqualität, sowohl bei ATI als auch Nvidia leben müssen. Leider.

MadManniMan
2004-05-10, 17:56:45
@dildo:

Ich weeß zwar nich, was det nu mit meenem Quote zu tun hat, ab0r dankens trotzdem!

Original geschrieben von aths
Zum Thema AF äußere ich mich bald, wenn auch eher allgemein gefasst.

Gut zu wissen, hat aber wiederum leider nicht wirklich bezug auf meine Nachfrage :D
Also fassen wir kurz zusammen: Q hat erste Benches getätigt, Thilo bleibt dran - was sagt 3DC zu der Story mit den colorierten Mips?

aths
2004-05-10, 18:22:27
Original geschrieben von MikBach
Soll bedeuten, dass wir in der Zukunft mit minimalen Einbussen in der Bildqualität, sowohl bei ATI als auch Nvidia leben müssen. Leider. Nein. Das bedeutet, dass Nvidia nicht die Transistoren übrig hatte, sowohl das "optimierte" als auch das "richtige" AF zu implementieren. Sie mussten sich für eines entscheiden.

aths
2004-05-10, 18:25:51
Original geschrieben von MadManniMan
was sagt 3DC zu der Story mit den colorierten Mips? Solange ich keine Karte und entsprechende Testprogramme habe, erst mal nichts.

Oder doch: Ich finde es 0ber4ff1g, diese Karten auf Leistung zu trimmen, die mein guter 19"-Moni bei anständiger Auflösung nicht mehr darstellen kann (da oberhalb der Refreshrate.)

Sulln dis?

Klar spiele ich auch mal kurz Far Cry, aber meine Mission ist natürlich, Maxey zu begleiten. Da will ich glätteste Kanten und feinste Texturen. Heute irgendwas bilinear zu filtern, was man auch trilinear filtern könnte, sollte nur möglich sein wenn man im 25. Untermenü eines Treiber-Zusatzpatches drei mal bestätigt und den 20-stelligen Bestätigungscode eingibt.

BodyLove
2004-05-10, 18:40:29
In naher Zukunft werden wir es wahrscheinlich nur ausschalten können, anstatt es einzuschalten.;) Leider.