PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller R420 / Radeon X800 Thread


Seiten : 1 [2] 3 4 5 6 7 8 9 10

DrumDub
2004-05-04, 16:50:55
Original geschrieben von dildo4u
ick mein ja auch bei 4xaa und 8 aniso 170 gegen 240fps

na denn... wenn du meinst das es wichtig ist, ob man 240 oder 170 fps hat. ich denk, sich so nen einzelbeispiel rauszupicken ist imho immer problematisch.

Leonidas
2004-05-04, 16:51:23
Original geschrieben von LovesuckZ
Ist bei der r420 Karte unter D3D immer noch die Stageoptimierung aktiv?



Ja.

Majestic
2004-05-04, 16:52:45
Warum zieht sich eigendlich alle an dem FarCry-Test hoch. Wartet doch erstmal den Patch ab.

dildo4u
2004-05-04, 16:53:02
Original geschrieben von LovesuckZ
Es ist ja nicht nur das AF.
Nunja, dann ist der r420 eine Enttaeuschung. Nur 3Dc und das innerhalb von 2 Jahren... Nun gut Nvidia verschlechtert ihr AF mit dem NV40 auch ein bissel arm findest du nich?

fuur
2004-05-04, 16:53:03
Leute schaut euch mal den TecChannel Test an,ich sag omg sind das Faker.

Bei den guten Seiten gewinnt die ATI in den Farcry Benchs und dort hat die ATI null Chance ohman

Iceman346
2004-05-04, 16:53:32
Original geschrieben von Karümel
Das einzige Problem stellt der Treiber dar, welcher unter einigen Settings in einigen Spielen kein Anti-Aliasing darstellen wollte.

Wieso schafft es ATI nicht endlich mal gute Treiber zu machen :(

Ich persönlich finds eher seltsam, dass das bei Leo nicht funktioniert. Hab ich schon beim NV40 Test angemerkt. Auf meiner 9700 Pro funktioniert AA bei sämtlichen Spielen wo Leo Probleme hat (nur PoP kann ich nicht testen, hab ich nicht mehr hier) und starke Unterschiede zwischen der 9700 Pro und der 9800 XT gibts ja nicht.

(del676)
2004-05-04, 16:55:38
Original geschrieben von dildo4u
Nun gut Nvidia verschlechtert ihr AF mit dem NV40 auch ein bissel arm findest du nich?

andere haben die AF Optimierungen bei der ATI bisher immer als "intelligent und effizient" bezeichnet :eyes:

LovesuckZ
2004-05-04, 16:55:48
Original geschrieben von dildo4u
Nun gut Nvidia verschlechtert ihr AF mit dem NV40 auch ein bissel arm findest du nich?

Wenn ich diesen Thread lese, lese ich keine Kritik bezueglich der Featurelosigkeit des R420.
Warum beim NV40 die verschlechterung des AF's ploetzlich "arm" waere, musst du mir erklaeren.
Man sieht, Geschwindigkeit ist für viele alles.

Was ist das
2004-05-04, 16:56:08
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/page8.asp

Ganz unten.
Die 6800GT ist ca. 10% schneller als die 6800Ultra?!

dildo4u
2004-05-04, 16:56:48
Original geschrieben von Ulukay
andere haben die AF Optimierungen bei der ATI bisher immer als "intelligent und effizient" bezeichnet :eyes: ja aber love bemängelt das sich bei r420 nichts getan hat von der bild qualität her bei NV40 is sie bei af schlechter geworden

Iceman346
2004-05-04, 16:57:16
Original geschrieben von Majestic
Warum zieht sich eigendlich alle an dem FarCry-Test hoch. Wartet doch erstmal den Patch ab.

Welchen Patch meinst du? Der der auf den NV40 Karten die NV30 Optimierungen deaktiviert?

Zum Thema:
Ich finde den R420 in der aktuellen Form nett, ne sehr schnelle Karte die sicherlich das Geld wert ist.
Aber nach den bisherigen Ergebnissen würde ich mir eher eine 6800 Ultra kaufen, wobei mich hier die 2 Stromanschlüsse sehr stören.

Majestic
2004-05-04, 16:57:16
Original geschrieben von fuur
Leute schaut euch mal den TecChannel Test an,ich sag omg sind das Faker.

Bei den guten Seiten gewinnt die ATI in den Farcry Benchs und dort hat die ATI null Chance ohman

Na, klar wenn die Nvidia mal nen Pluspunkt bekommt sind schlechte Seiten *g*:asshole:

BesenWesen
2004-05-04, 16:57:27
Original geschrieben von fuur
Leute schaut euch mal den TecChannel Test an,ich sag omg sind das Faker.

Bei den guten Seiten gewinnt die ATI in den Farcry Benchs und dort hat die ATI null Chance ohman

Obs vielleicht daran liegt, daß es noch kein vernünftiges Benchmarktool für FC gibt ?

perforierer
2004-05-04, 16:58:58
Original geschrieben von LovesuckZ
Es ist ja nicht nur das AF.
Nunja, dann ist der r420 eine Enttaeuschung. Nur 3Dc und das innerhalb von 2 Jahren...

Kommt drauf an, was man erwartet. War doch seit langem klar, dass technologisch der r420 nix grundlegende neues bietet, oder?. Das wird nunmal erst die nächste Generation...

LovesuckZ
2004-05-04, 16:59:24
Original geschrieben von Iceman346
Aber nach den bisherigen Ergebnissen würde ich mir eher eine 6800 Ultra kaufen, wobei mich hier die 2 Stromanschlüsse sehr stören.

Die GT ist interessant: Single-Slot, ein Stromanschluss, selbe Stromwerte einer 9800XT und nur unwesentlich langsamer mit eienr 350/500 Taktung. 399$ und soll im Juni kommen.

Wat ne dat
2004-05-04, 17:00:03
Hier sieht es kommisch aus:

http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/page13.asp

Die 800Pro zersägt die 6800Ultra Extreme teilweise deutlich.

MuLuNGuS
2004-05-04, 17:00:16
hmm,

irgendwie wird mir die 6800 GT immer sympathischer :D:D

wenn sie dann zu einem guten preis zu bekommen ist und man sie moderat übertakten kann könnte die graka zu meiner 1. wahl werden.

dildo4u
2004-05-04, 17:00:30
http://www.ati.com/developer/demos/rx800.html

R420 Techdemo movies and demos an sich ob sie whol auch nem R300 laufen :-)

-error-
2004-05-04, 17:01:04
Zitat aus 3DC-Artikel (R420)

Im Gegensatz zu den neueren nVidia-Grafikkarten verfügt die Radeon X800 Pro nur über einen einzelnen Stromanschluß auf der Karte und kommt auch nur als Singleslot-Design daher. Vom Stromverbrauch her soll sie deutlich genügsamer als die nVidia-Grafikkarten sein. ATi gibt für die Radeon X800 Pro einen Stromverbrauch unter Vollast von 68 Watt an (im Idle-Modus sind es 38 Watt), nVidia´s GeForce 6800 Ultra schlägt hier mit 111 Watt zu Buche.

Es kann doch nicht sein die Ultra soviel mehr Strom vebraucht als die X800Pro.

Blacksoul
2004-05-04, 17:02:57
Original geschrieben von Desire
Zitat aus 3DC-Artikel (R420)



Es kann doch nicht sein die Ultra soviel mehr Strom vebraucht als die X800Pro.

Spontan würde ich sagen, dass der NV40 ja auch weitaus mehr Transistoren hat, als der R420

Ähm
2004-05-04, 17:04:59
Für mich sehen die 6800GT und 800Pro am interessantesten aus. Mit einer Tendenz zur NV Karte. Vielleicht bringt ja ATI auch noch eine 16er Pipe Version mit etwas niedrigerem Takt und einem günstigeren Preis als die 800XT.

Verdammt
2004-05-04, 17:08:03
Was ist das für ein Scheiß:

http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/page18.asp

Auf einmal lassen sie den Vergleich zu den ATI Karten aus.

Also langsam bekomme ich das Gefühl, das mit dieser Seite irgendetwas nicht stimmt.

uiuiui
2004-05-04, 17:08:21
Farcry

1024
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/images/fc1024.gif

1280
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/images/fc1280.gif

UT2004

http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/images/ut16004xaa8xaniso.gif

Iceman346
2004-05-04, 17:09:09
Original geschrieben von LovesuckZ
Die GT ist interessant: Single-Slot, ein Stromanschluss, selbe Stromwerte einer 9800XT und nur unwesentlich langsamer mit eienr 350/500 Taktung. 399$ und soll im Juni kommen.

Jupp, dabei könnte ich sogar noch etwas Geld sparen ;)

Auch wenn natürlich der Drang da ist die "größte" Karte zu kaufen ^^

NvidiaBiased?
2004-05-04, 17:13:45
Schon wieder:

http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/page22.asp

Bei den Overlocking-Tests nur NV Karten.

kami
2004-05-04, 17:15:40
Hier 2 Videos von den ATi-Demos zum Download.

Sonderlich beeindruckt bin ich von denen allerdings nicht - da waren die von NVIDIA hübscher. ;)

Ruby (http://www2.ati.com/misc/demos/ATI-X800-DoubleCross-Demo-v1.0.mov)
Subsurface (http://www2.ati.com/misc/demos/ATI-X800-Subsurface-Demo-v1.0.mov)

cvcv
2004-05-04, 17:16:08
Original geschrieben von NvidiaBiased?
Schon wieder:

http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/page22.asp

Bei den Overlocking-Tests nur NV Karten.
Stimmt die Seite kann man vergessen aber Tecchannel streibts auf die Spitze :(

Morpheus2200
2004-05-04, 17:16:28
bekommt mann das Double Cross Demo irgendwie auf ner 9700er zu laufen?

Godmode
2004-05-04, 17:16:51
Ich kann mir schon vorstellen was Nvidia geplant hat für FarCry und andere SM3.0 Titel

1. Werden sie ne Option anbieten, wo sie bessere Effekte bieten. = Speedvorteile von SM3.0 für Effekte opfern!

2. Werden sie auch ne Option anbieten wo es keine besseren Effekte gibt, dafür aber mehr Speed durch SM3.0

Somit kann man SM3.0 extrem gut vermarkten.

Jetzt stellt sich halt noch die Frage wieviel SM3.0 Performance Gewinn bringen wird oder ob überhaupt.

Ich will jetzt endlich mal gescheite FC Benchmarks sehen wo der NV40 die Shader verwendet die ihm schmecken, also PS2.0/PS3.0 und nicht irgendwelche 1.1 Shader!!

Wird DX 9.0c mit dem Summer Update released werden oder können wir das schon früher bekommen?

DrumDub
2004-05-04, 17:17:21
jupp. dazu passt das fazit von firingsquad, mit dem ich konform gehe:

We have a feeling though that NVIDIA’s GeForce 6800 GT is going to be NVIDIA’s real breakthrough product on the high end. It sports all the features of NVIDIA’s top-of-the-line GeForce 6800 Ultra, including high-speed GDDR3 memory and 16 pixel pipes, but without the excessive price and higher power requirements found on the Ultra.

Its biggest competition will be the RADEON X800 PRO, and it does fall short of the PRO in performance in some areas, but comes ahead in others. And with both cards boasting similar figures for traditional performance metrics such as fill rate and memory bandwidth, it could be a very tight race between both boards a month or two from now, even once newer drivers are available.

ATI’s real advantage comes in availability however. Whereas GeForce 6800 GT won’t hit retail until the middle of next month, and the 6800 Ultra Extreme is also over a month out, ATI’s RADEON X800 PRO and Platinum Edition boards will already be available on the market. We have a strong feeling that this advantage could sell a lot of $400+ graphics cards for ATI, especially now that they’ve got new board partners onboard like ABIT and ASUS. NVIDIA needs to get its 6800 lineup to market as soon as possible to counter this.
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/page23.asp

die späte verfügbarkeit der karten könnte für nv ein ernsthaftes problem werden. auf der anderen seite liefert ati nicht viel mehr mit dem r420 als nen doppelten r360.

p.s.: kann nen mod die spammenden gäste mal rauslöschen. die stören erheblich bei der diskussion.

Unwissenheit
2004-05-04, 17:17:53
Frage:

Hat die R420 eine Lüftersteuerung, die abhängig von der Last/Temperatur regelt? Wenn ja, ist diese erst nach dem Booten aktiv? Und wenn wieder ja, wie laut ist sie beim Booten (ohne Lüftersteuerung)?

bill
2004-05-04, 17:19:15
Original geschrieben von LovesuckZ
Die GT ist interessant: Single-Slot, ein Stromanschluss, selbe Stromwerte einer 9800XT und nur unwesentlich langsamer mit eienr 350/500 Taktung. 399$ und soll im Juni kommen. Sind bei dir alle PCI Slots belegt? Also bei mir ist das eine Ödnis seitdem es alles Onboard gibt. Vor 5 Jahren war das noch anders. Genug Stromkabel hab ich auch ;). Ich find die Ultra auch sehr interessant.

Wie hoch ist den eigentlich der Stromverbrauch der Ultra im Idle Modus?

bill

dildo4u
2004-05-04, 17:19:35
Original geschrieben von Unwissenheit
Frage:

Hat die R420 eine Lüftersteuerung, die abhängig von der Last/Temperatur regelt? Wenn ja, ist diese erst nach dem Booten aktiv? Und wenn wieder ja, wie laut ist sie beim Booten (ohne Lüftersteuerung)? so wies ausshiet keine steuerung karte leuft die ganze zeit gleich leise

DrumDub
2004-05-04, 17:22:28
Original geschrieben von bill
Wie hoch ist den eigentlich der Stromverbrauch der Ultra im Idle Modus?


hab ich zwar schon mal gepostet, aber hier nochmal extra für dich. :)

http://techreport.com/reviews/2004q2/radeon-x800/power.gif

rere
2004-05-04, 17:22:30
@Drumdrub ATI hat eine technisch bessere Karte

-viel weniger Stromverbrauch
-leiser
-meist schneller
-kleiner Lüfter
-mit AA/AF viel besser

perforierer
2004-05-04, 17:22:50
Original geschrieben von Iceman346
Jupp, dabei könnte ich sogar noch etwas Geld sparen ;)

Auch wenn natürlich der Drang da ist die "größte" Karte zu kaufen ^^

mach ich seit Jahren nicht mehr :)
Seh ich auch gar nicht ein.
GeForce 4 Ti 4200...was soll man mehr sagen?
Immer noch im Ss, und ich ahne, dass sie durch was entsprechendes von ATI und nVidia abgelöst wird.

Oder nimm die 5900XT als Beispiel.

Preis-/Leistung regelt ;)

Quasar
2004-05-04, 17:23:14
Original geschrieben von Morpheus2200
bekommt mann das Double Cross Demo irgendwie auf ner 9700er zu laufen?

Nein, das will 2.b-DX-Caps sehen...

Zwischdurch
2004-05-04, 17:23:17
Original geschrieben von bill
Sind bei dir alle PCI Slots belegt? Also bei mir ist das eine Ödnis seitdem es alles Onboard gibt. Vor 5 Jahren war das noch anders. Genug Stromkabel hab ich auch ;). Ich find die Ultra auch sehr interessant.

Wie hoch ist den eigentlich der Stromverbrauch der Ultra im Idle Modus?

bill

Bezüglich des 1 Slot-Designs, sollte man berücksichtigen, dass in Zukunft auch mehrere PCI-Express-Slots auf dem Mainboard sind. Bei einer 2-Slot-Gradikkarte fallen also 2 dieser Steckplätze weg (1 für Lüfter und 1 für den Zwischraum von GraKa und folgender Steckkarten).

jkjk
2004-05-04, 17:23:53
Original geschrieben von DrumDub
hab ich zwar schon mal gepostet, aber hier nochmal extra für dich. :)

http://techreport.com/reviews/2004q2/radeon-x800/power.gif

Diese Tabelle ist realitätsfremd !

-error-
2004-05-04, 17:24:10
Original geschrieben von Blacksoul
Spontan würde ich sagen, dass der NV40 ja auch weitaus mehr Transistoren hat, als der R420

Ja aber 68Watt bei Vollast, das ist garnichts! Und die Ultra soll ich erst mit 111Watt zufrieden geben, das ist brutal.


Nvidia hats mal wieder verbockt. Ingesammt ist die Performance zwar gut, aber der Chip kommt mit Features, die nicht, oder besser gesagt noch nicht genutzt werden. Der Chip scheint auch zu teuer zu sein und die Karte zu stromhungrig.

Und das mit PS3.0 ist auch nicht so schlimm, spätestens wird die R500 das auch unterstützen.

ATI machts wieder mal vor, ein schnelle Karte mit billigen Layout, das wird schnell Gewinn einbringen.

Bin aber von beiden wegen des FSAA entäuscht, nur unerhebliche bis garkeine Verbesserungen.

bill
2004-05-04, 17:25:23
Original geschrieben von DrumDub
hab ich zwar schon mal gepostet, aber hier nochmal extra für dich. :)
ähm sorry. Danke.

bill

dildo4u
2004-05-04, 17:26:22
Original geschrieben von jkjk
Diese Tabelle ist realitätsfremd ! tabelle versteh sich für gesammtes system nicht nur GK!!

perforierer
2004-05-04, 17:29:18
Ach ja:
Test von Anand ist oben.

http://www.anandtech.com/video/showdoc.html?i=2044&p=1

Haben auch ne 6800er Ulttra extreme bekommen, die bei ihnen 6850 heisst.
http://www.anandtech.com/video/showdoc.html?i=2044&p=8

Aber die haben sie net migetestet, weil sich der Treiber zuerst net installieren lies. :asshole:
Liefern sie aber heute noch nach "mit ein paar Überraschungen"
Mal sehen..
Wie wäre es mit Doom3 Benches? :D

DrumDub
2004-05-04, 17:32:50
Original geschrieben von rere
@Drumdrub ATI hat eine technisch bessere Karte

-viel weniger Stromverbrauch
-leiser
-meist schneller
-kleiner Lüfter
-mit AA/AF viel besser

ich gehe mit deine punkten bis auf den letzen konform (nv hat immer noch das bessere af und ati gewinnt die benchmarks wohl teilweise wegen der stage-optimierung), aber du hast die vorteile des nv40 einfach in deiner aufzählung weggelassen, genau wie die nachteile des r420. sowas nennt man selektive wahrnehmung.

ich sags mal so, für den großteil der spieler ist der r420 der bessere chip, da er auf deren bedürfnisse optimiert ist, aber er bietet einfach weniger als der nv40 für die, die mehr als nur 6xrgms und 3dc wollen.

dildo4u
2004-05-04, 17:33:43
http://images.anandtech.com/graphs/radeon%20x800%20pro%20xt_05040480526/2112.png
Wie kommt sowas zu stande die GT schneller als die 6800Ultra?

DrumDub
2004-05-04, 17:34:32
Original geschrieben von Quasar
Nein, das will 2.b-DX-Caps sehen...

und 3dc. ;)

DrumDub
2004-05-04, 17:36:38
Original geschrieben von dildo4u
tabelle versteh sich für gesammtes system nicht nur GK!!

jupp. so ist es. schön ist, dass ati jetzt auch im 2d-betrieb wohl die vcore senkt und automatisch runtertaktet. sieht man im vergleich x800xt vs. 9800xt.

Demirug
2004-05-04, 17:38:24
Original geschrieben von perforierer
Ach ja:
Test von Anand ist oben.

http://www.anandtech.com/video/showdoc.html?i=2044&p=1

Haben auch ne 6800er Ulttra extreme bekommen, die bei ihnen 6850 heisst.
http://www.anandtech.com/video/showdoc.html?i=2044&p=8

Aber die haben sie net migetestet, weil sich der Treiber zuerst net installieren lies. :asshole:
Liefern sie aber heute noch nach "mit ein paar Überraschungen"
Mal sehen..
Wie wäre es mit Doom3 Benches? :D

Anand ist ATI voll auf den Leim gegangen. Was er über die Pixelpipeline schreibt ist Schwachsinn hoch 3.

C0nker
2004-05-04, 17:39:34
Ich weiß jetzt nicht ob das hier schon irgendwo steht, aber laut chip.de hat NVidia seinen Treiber stark für Farcry opitimert, was eine Leistungssteigerung von fast 100Prozent zur Folge hat.
Nennt man die Farcry.exe um ist dies nicht mehr so.

So viel zum Thema Ehrlichkeit :(

Abraxaς
2004-05-04, 17:39:36
Original geschrieben von dildo4u
http://images.anandtech.com/graphs/radeon%20x800%20pro%20xt_05040480526/2112.png
Wie kommt sowas zu stande die GT schneller als die 6800Ultra?

liegt wohl am treiber.

Abraxaς
2004-05-04, 17:40:22
Original geschrieben von C0nker
Ich weiß jetzt nicht ob das hier schon irgendwo steht, aber laut chip.de hat NVidia seinen Treiber stark für Farcry opitimert, was eine Leistungssteigerung von fast 100Prozent zur Folge hat.
Nennt man die Farcry.exe um ist dies nicht mehr so.

So viel zum Thema Ehrlichkeit :(

das gabs doch schon beim 3dmurks03:(

InsaneDruid
2004-05-04, 17:41:58
Original geschrieben von dildo4u
Wie kommt sowas zu stande die GT schneller als die 6800Ultra?
61.11 vs 60.72 ?

Majestic
2004-05-04, 17:42:29
So lange es das Spiel schneller macht, was solls. Meinst du nur Nvidia trickst rum? ATI hat sich nur noch nicht so oft erwischen lassen.;D

LovesuckZ
2004-05-04, 17:42:39
Original geschrieben von Deli
liegt wohl am treiber.

Oder am verfahren, wie man bencht?

perforierer
2004-05-04, 17:43:22
Original geschrieben von Demirug
Anand ist ATI voll auf den Leim gegangen. Was er über die Pixelpipeline schreibt ist Schwachsinn hoch 3.

Jo, früher war er besser. Gab mal ne zeit, da hat er die besten und ktitischsten tests gemacht, die waren auch immer recht liebevoll. Mittlerweile isses halt auch 08/15 gebenche.

Godmode
2004-05-04, 17:43:42
Original geschrieben von C0nker
Ich weiß jetzt nicht ob das hier schon irgendwo steht, aber laut chip.de hat NVidia seinen Treiber stark für Farcry opitimert, was eine Leistungssteigerung von fast 100Prozent zur Folge hat.
Nennt man die Farcry.exe um ist dies nicht mehr so.

So viel zum Thema Ehrlichkeit :(

Bis zum nächsten FC Patch kannst du die NV40 Benchmarks sowiso vergessen und mit PS3.0 voraugesetzt DX9.0c kommt iregendwann mal, kann man sich auch noch etwas mehr Performace erfhoffen, auf Seiten des SM3.0 Chips.

DrumDub
2004-05-04, 17:43:44
Original geschrieben von LovesuckZ
Oder am verfahren, wie man bencht?

oder die werte vertauscht.

rubywins
2004-05-04, 17:44:53
anandtech :D

farcry

http://images.anandtech.com/graphs/radeon%20x800%20pro%20xt_05040480526/2122.png


http://images.anandtech.com/graphs/radeon%20x800%20pro%20xt_05040480526/2120.png

Halo

http://images.anandtech.com/graphs/radeon%20x800%20pro%20xt_05040480526/2096.png

homeworld 2

http://images.anandtech.com/graphs/radeon%20x800%20pro%20xt_05040480526/2118.png

eve

http://images.anandtech.com/graphs/radeon%20x800%20pro%20xt_05040480526/2115.png

:D

St@N
2004-05-04, 17:47:34
erschlagt mich...aber wann iss der 3dcenter bericht online?

Quasar
2004-05-04, 17:48:01
Vor minus 3 Stunden, ca.

LovesuckZ
2004-05-04, 17:48:06
seit fast 3 Stunden?

St@N
2004-05-04, 17:51:28
bei mir isser net auffer startseite??? HILFÄÄÄÄÄ

edit: ah hab direktlink bekommen *juhu* :D

Iceman346
2004-05-04, 17:54:03
Original geschrieben von perforierer
mach ich seit Jahren nicht mehr :)
Seh ich auch gar nicht ein.
GeForce 4 Ti 4200...was soll man mehr sagen?
Immer noch im Ss, und ich ahne, dass sie durch was entsprechendes von ATI und nVidia abgelöst wird.

Oder nimm die 5900XT als Beispiel.

Preis-/Leistung regelt ;)

Natürlich ist Preis-/Leistung für manche Leute und Ansprüche gut. Aber ich hab mir damals die 9700 Pro beim Erscheinen wegen des AA und AFs gekauft, weil ich dieses in Spielen einsetzen wollte.
Jetzt gibts mittlerweile die ersten Spiele wo ich auf AA gänzlich verzichten muss wenn ich noch spielbare fps haben will (Far Cry) und HL2 und Doom 3 werden da sicherlich auch so reagieren. Darum wirds Zeit für ne neue Karte die mir wieder AA und AF, auch bei aktuellen Spielen, bieten kann.

colripley30
2004-05-04, 18:07:07
Original geschrieben von Iceman346
Natürlich ist Preis-/Leistung für manche Leute und Ansprüche gut. Aber ich hab mir damals die 9700 Pro beim Erscheinen wegen des AA und AFs gekauft, weil ich dieses in Spielen einsetzen wollte.
Jetzt gibts mittlerweile die ersten Spiele wo ich auf AA gänzlich verzichten muss wenn ich noch spielbare fps haben will (Far Cry) und HL2 und Doom 3 werden da sicherlich auch so reagieren. Darum wirds Zeit für ne neue Karte die mir wieder AA und AF, auch bei aktuellen Spielen, bieten kann.

Würd ich auch meinen,aber wenn es mit einer 4200er gegangen ist bis jetzt würde ein update auf eine 9800pro auch schon reichen.es wird kaum probleme geben bei Far Cry und HL2 und Doom 3.

Gästle
2004-05-04, 18:25:07
Solange die NV Karte größer, schwerer und stromhungriger ist, gibt es keinen Gleichstand

St@N
2004-05-04, 18:26:12
er zwingt keinen ;)

er gibt nur nen tip um strom zu sparen weil man kein meganetzteil braucht ;) :D

ich finds nett :)

nixblick
2004-05-04, 18:26:38
Original geschrieben von Demirug
Es sind zwar noch eigentlich zwei Stunden aber da 3dc ja schon von ATI selbst öffentlich gemacht wurde ist es egal.

Um 3dc zu nutzen braucht man zum einen einen zusätzlichen Satz Texturen welche als 3dc komprimiert sind. Jedesmal beim Start wird man das kaum machen.

Zum zweiten muss jeder Shader der eine mit 3dc komprimierte Normalmap nutz umprogrammiert werden.

Deswegen halte ich es eben für sehr unwahrscheinlich.

Aber einmal, und dann in ein Tempfile speichern. Vorteil: Geringere Ladezeiten als mit original Texturen

LovesuckZ
2004-05-04, 18:27:40
Original geschrieben von Gästle
Solange die NV Karte größer, schwerer und stromhungriger ist, gibt es keinen Gleichstand

"stromhungriger"?
Bei 10 Watt mehr und deutlich besseren Features gebe ich dir recht: Nvidia bietet einfach das bessere Paket.
Größer und schwerer ist mal so laecherlich. Da du den Unterschied beim Towertragen sowieso nicht merkst...

checky
2004-05-04, 18:28:28
versteh ich auch nicht, wie man eine nvidia haben will, wenn ati und nvidia (sagen wir mal großzügig) ungefähr gleich schnell sind, die ati besser aussieht, weniger strom zieht, leiser ist, billiger ist (zweimal: einmal in der anschaffung, wies aussieht, und zum zweiten in den betriebskosten), kein neues netzteil braucht, praktischere features hat.

warum soll man dann noch nvidia kaufen? versteh ich wirklich nicht (und ich hatte lange zeit eine schöne 4200er).

Holznudel
2004-05-04, 18:28:34
Original geschrieben von seahawk
Da könntest Du evtl. lange warten. Ein komplettes Set Texturen in 3dc. Ui, das kommt dann aber einiges anzusätzlichem Festplattenbedarf auf den User zu. Ich bezweifele, dass sich 3dc durchsetzt so lange es nur ATI nutzt.

Dann solls sichs halt nicht duchsetzen. Ich wusste jedenfalls, warum mir forcebares FXT1 bei OpenGL gefiel...

Seraf
2004-05-04, 18:33:15
Kann es sein das der 3DCenter Test "ein bisschen" CPU limitiert ist?

Der P4 2,533 wird die Grafikkarten doch bestimmt nicht ausreizen.

St@N
2004-05-04, 18:36:54
Original geschrieben von LovesuckZ
"stromhungriger"?
Bei 10 Watt mehr und deutlich besseren Features gebe ich dir recht: Nvidia bietet einfach das bessere Paket.
Größer und schwerer ist mal so laecherlich. Da du den Unterschied beim Towertragen sowieso nicht merkst...

ich hab was von ca.50 gelesen ;)

LovesuckZ
2004-05-04, 18:37:40
Original geschrieben von St@N
ich hab was von ca.50 gelesen ;)

Nein, es sind keine 50 mehr. Maximum waren irgendwas mit 20, bei einigen anderen was mit 10.

St@N
2004-05-04, 18:38:13
Original geschrieben von checky
versteh ich auch nicht, wie man eine nvidia haben will, wenn ati und nvidia (sagen wir mal großzügig) ungefähr gleich schnell sind, die ati besser aussieht, weniger strom zieht, leiser ist, billiger ist (zweimal: einmal in der anschaffung, wies aussieht, und zum zweiten in den betriebskosten), kein neues netzteil braucht, praktischere features hat.

warum soll man dann noch nvidia kaufen? versteh ich wirklich nicht (und ich hatte lange zeit eine schöne 4200er).

wobei mir das aussehen auch am arsch vorbeigeht ;)
das gewicht merkt man echt nimmer wenn man den trägt...außerdem steht der eh meist zu hause...

trotzdem stimme ich dir bei dem netzteil zu (siehe oben) und deshalb wird wohl meine nächste graka von ati sein...

ABER: es wird die 9800pro sein...hoffe das sie billiger wird...die 800reihe iss mir einfach zu teuer :(

St@N
2004-05-04, 18:39:14
Original geschrieben von LovesuckZ
Nein, es sind keine 50 mehr. Maximum waren irgendwas mit 20, bei einigen anderen was mit 10.

ich denk die ati braucht was mit 63 oder so und die nvidia 112 oder sowas...steht doch im artikel von 3dcenter ;)



edit:man mus dazu sagen das die nv40 karte auch mehr transistoren hat...aber das macht doch net absolut soviel aus oder?

seahawk
2004-05-04, 18:39:26
Klarer Sieg für ATI. Glückwunsch.

Und im Herbst wird man ne X800XT PE mit PCI-EX auch für einen guten preis kriegen.

Seraf
2004-05-04, 18:39:59
Original geschrieben von LovesuckZ
"stromhungriger"?
Bei 10 Watt mehr und deutlich besseren Features gebe ich dir recht: Nvidia bietet einfach das bessere Paket.
Größer und schwerer ist mal so laecherlich. Da du den Unterschied beim Towertragen sowieso nicht merkst...

Reicht langsam das du in jedem fünften Kommentar mit deinem genörgel auftauchst :nono:


Zwischen Objektivität und Erbsenzählerei gibts auch nenn Unterschied...

Demirug
2004-05-04, 18:40:59
Original geschrieben von nixblick
Aber einmal, und dann in ein Tempfile speichern. Vorteil: Geringere Ladezeiten als mit original Texturen

Natürlich, aber passende 3dc fähige Shader braucht man immer noch.

Majestic
2004-05-04, 18:41:14
Original geschrieben von allesblick
Was ein unterhaltsamer Troll. Dich hätte ich gerne auch im heise.de Forum. :)
Hehe, gibst da nicht schon genug von der Sorte :bäh:

hjhj
2004-05-04, 18:41:18
Original geschrieben von LovesuckZ
... und Spass haben mit einer Steinzeitkarte *eg*

Die Steinzeit Karte schläg die NV deutlich,ist leiser,leichter und die ATI Preise sind immer günstiger
und der bis zu 40 Watt höher Stromverbauch der NV zeigt mir deutlich das ATI eine besser Karte gebaut hat und NV technisch nicht mithalten kann.

Lovesuckz was ist NV wenn sie von einer Steinzeitkarte geplättet wird. ;D

LovesuckZ
2004-05-04, 18:41:23
Original geschrieben von Seraf
Zwischen Objektivität und Erbsenzählerei gibts auch nenn Unterschied...

Tuerlich ist alles "Erbenszaehlerei", wenn es darum geht, dass Nvidia irgendwas besser kann/macht.
Nunja Obejktivitaet ist, alles zu vergöttern was ATi anstellt, damit auch den technologischen Stillstand (und da lernt man in der Schule, dass Entwicklung für den Menschen bedeuten ist...).

dildo4u
2004-05-04, 18:41:28
http://www.hardwareanalysis.com/content/article/1710/


hardwareanalysis test

Gklkl
2004-05-04, 18:42:36
Original geschrieben von Majestic
Hehe, gibst da nicht schon genug von der Sorte :bäh:

z.B du, husch husch in die Trollhöhle

LovesuckZ
2004-05-04, 18:43:50
Original geschrieben von hjhj
Die Steinzeit Karte schläg die NV deutlich,ist leiser,leichter und die ATI Preise sind immer günstiger
und der bis zu 40 Watt höher Stromverbauch der NV zeigt mir deutlich das ATI eine besser Karte gebaut hat und NV technisch nicht mithalten kann.

Natuerlich baut ATi bessere Karte, wenn sie weniger Features unterstuetzen. Das könnte Nvidia auch, indem sie 60 Millionen Transistoren einsparen...

Lovesuckz was ist NV wenn sie von einer Steinzeitkarte geplättet wird. ;D

technologievorreiter, der wenigsten Fortschritt zeigt und keinen Stillstand.

dildo4u
2004-05-04, 18:44:11
Original geschrieben von LovesuckZ
Tuerlich ist alles "Erbenszaehlerei", wenn es darum geht, dass Nvidia irgendwas besser kann/macht.
Nunja Obejktivitaet ist, alles zu vergöttern was ATi anstellt, damit auch den technologischen Stillstand (und da lernt man in der Schule, dass Entwicklung für den Menschen bedeuten ist...). noch mal wer zwingt dich den die ati zu kaufen? wenn man die feutures nicht braucht
alles was mit PS3.0 geht auch mit PS2.0

Majestic
2004-05-04, 18:44:29
z.B du, husch husch in die Trollhöhle
Hehe, wenigestens mal einer der Spaß versteht ;D

LovesuckZ
2004-05-04, 18:44:41
Original geschrieben von dildo4u
noch mal wer zwingt dich den die ati zu kaufen? wenn man die feutures nicht braucht
alles was mit PS3.0 geht auch mit PS2.0

Nein, geht nicht. *zonk*

Crushinator
2004-05-04, 18:44:55
Original geschrieben von St@N
ich denk die ati braucht was mit 63 oder so und die nvidia 112 oder sowas...steht doch im artikel von 3dcenter ;)

hardware.fr hat Folgendes gemessen:
http://www.hardware.fr/medias/photos_news/00/07/IMG0007736.gif
http://www.hardware.fr/medias/photos_news/00/07/IMG0007737.gif

Demirug
2004-05-04, 18:45:25
Original geschrieben von dildo4u
noch mal wer zwingt dich den die ati zu kaufen? wenn man die feutures nicht braucht
alles was mit PS3.0 geht auch mit PS2.0

... und notfalls der CPU.

Lustiger Troll
2004-05-04, 18:46:05
Er meinte das man dieselben sachen auch mit PS2.0 rendern kann halt nur ohne Branching und Looping und den die ganzen unötigen Feautures des SM3.0 ;).

St@N
2004-05-04, 18:46:33
was ihr nur habt...

iss doch theoretisch gleichstand...wenn die xt rauskommt...doch leider kommt dann ne ultra von nvidia dann muss ati wieder nachlegen usw. ...iss doch normal?! ;)


ich finde halt nur das ati ihre karte besser gebaut haben (weniger abwärme, noch leiserer kühler, design findsch beide goil :D)

ich denke mal nvidia kann auch nochn bissl mehr machen an der karte...ati iss schon auf 520 (?) MHZ im chip...nvidia erst bei 400!! (sicherlich auch durch 222mill transis bedingt)...mit besseren fertigungstechnik dürften die da immer was drauflegen können ;)

naja egal ich hol mir ne 9800pro die anderen sind zu teuer für nen schüler wie mich :D

LovesuckZ
2004-05-04, 18:47:03
Original geschrieben von Lustiger Troll
Er meinte das man dieselben sachen auch mit PS2.0 rendern kann halt nur ohne Branching und Looping und den die ganzen unötigen Feautures des SM3.0 ;).

Sollte auch mit einer CPU gehen, nur eben langsamer. Wo liegt also der Sinn darin?
Achja, der NV40 kann auch alles, was der r420 kann. Also warum dem r420?

Seraf
2004-05-04, 18:47:22
Original geschrieben von LovesuckZ
Tuerlich ist alles "Erbenszaehlerei", wenn es darum geht, dass Nvidia irgendwas besser kann/macht.
Nunja Obejktivitaet ist, alles zu vergöttern was ATi anstellt, damit auch den technologischen Stillstand (und da lernt man in der Schule, dass Entwicklung für den Menschen bedeuten ist...).


Hab ich gesagt das ATI besser ist oder sonst was?
Bin mir der ATI und NV Technologieprobleme schon bewußt.

Aber du bist nunmal der ATI Wadenbeisser. Das stört. Und das war schon vor dem X800 Review so :D

dildo4u
2004-05-04, 18:47:57
Original geschrieben von Lustiger Troll
Er meinte das man dieselben sachen auch mit PS2.0 rendern kann halt nur ohne Branching und Looping und den die ganzen unötigen Feautures des SM3.0 ;). ATI liefert PS2.0 leistung im überfluss und braucht whol in ihrem lebenszyklus keine geschwindigkeits boost durch PS3.0

LovesuckZ
2004-05-04, 18:47:58
Original geschrieben von St@N
ich finde halt nur das ati ihre karte besser gebaut haben (weniger abwärme, noch leiserer kühler, design findsch beide goil :D)


Sie erreichen dies dadurch, dass sie deutlich weniger Features unterstuetzen.
Sieht man das wirklich nicht? Oder ist einem das egal?

gjkl
2004-05-04, 18:48:19
Original geschrieben von LovesuckZ
Natuerlich baut ATi bessere Karte, wenn sie weniger Features unterstuetzen. Das könnte Nvidia auch, indem sie 60 Millionen Transistoren einsparen...



technologievorreiter, der wenigsten Fortschritt zeigt und keinen Stillstand.

an der Karte ist nix fortschrittlicher aber red dir deine NV Karte ruhig schön.
ATI hat übrigens immer noch die besser Quali mit AA/AF und dann auch noch schneller.

NV liegt klar hinter ATI in allen Bereichen.

seahawk
2004-05-04, 18:49:41
Original geschrieben von nixblick
Aber einmal, und dann in ein Tempfile speichern. Vorteil: Geringere Ladezeiten als mit original Texturen

Nachteil - mehr Festplattenspeicher benötigt
Nachteil - der fraglichen Bildqualität (Konvertierung von Bmp zu DXT zu 3dc - ob das verlustfrei gehen wird ??)

Momentan ist 3dc ein genauso sinnvolles Feature wie die 3.0 Shader bei NV.

LovesuckZ
2004-05-04, 18:50:12
Original geschrieben von gjkl
an der Karte ist nix fortschrittlicher aber red dir deine NV Karte ruhig schön.

natuerlich nicht. Besser? Ich meine, das SM3.0 heißt eigentlich SM1.0, weil es ja nicht besser als das SM2.0 ist...

ATI hat übrigens immer noch die besser Quali mit AA/AF und dann auch noch schneller.


Nein, Gleichstand, oder ATi ist durch 6AA langsamer.

perforierer
2004-05-04, 18:50:24
Original geschrieben von Iceman346
Natürlich ist Preis-/Leistung für manche Leute und Ansprüche gut. Aber ich hab mir damals die 9700 Pro beim Erscheinen wegen des AA und AFs gekauft, weil ich dieses in Spielen einsetzen wollte.
Jetzt gibts mittlerweile die ersten Spiele wo ich auf AA gänzlich verzichten muss wenn ich noch spielbare fps haben will (Far Cry) und HL2 und Doom 3 werden da sicherlich auch so reagieren. Darum wirds Zeit für ne neue Karte die mir wieder AA und AF, auch bei aktuellen Spielen, bieten kann.

Klar. Ich verwende (außer in War3) generell kein AA/AF, weil die GF4 mir damit einfach zu sehr in die Knie ging und geht.
Muss aber sagen, dass ich bei Shootern zumindest momentan eh auf AA/AF verzichten kann, weil da die Post eh so abgeht, dass ich das net merke. Anders bei Rennspielen und Strategiespielen, da fällt mir das eher auf. So hat halt jeder seine Kriterien bei Kartenkauf :)

Lustiger Troll
2004-05-04, 18:50:29
Original geschrieben von dildo4u
ATI liefert PS2.0 leistung im überfluss und braucht whol in ihrem lebenszyklus keine geschwindigkeits boost durch PS3.0

Der lebenszyklus wird wohl nicht so lange sein, wenn PS3.0 erstmal da ist, als PS2.0 kamm war es für alle das A und O der Grafikkarte, nun kommt NV mit 3.0 und es ist aufeinmal unötig, ja sinloss...blablabla, kommt schon Leute wacht mal auf alles ist nur PR wer braucht schon 3dc, wenn es keinen sichtbaren vorteil bringt ;D.

Majestic
2004-05-04, 18:50:51
Ich mach mir über die Verlustleistung/Wärme keine sorgen, da ich meine Geforce eh mit ner Wakü kühlen werde.:)
Jeder soll kaufen womit er glücklich wird. Aber wenigstens ist das leidige Thema mit der Shaderleistung und der Geschwindigkeit im Qualitätsmodus bei Nvidia vergangenheit.

dildo4u
2004-05-04, 18:51:13
Original geschrieben von LovesuckZ
Sollte auch mit einer CPU gehen, nur eben langsamer. Wo liegt also der Sinn darin?
Achja, der NV40 kann auch alles, was der r420 kann. Also warum dem r420? kleiner kühler topproduckt mit 1slot lösung brauche nur ein 300w netzteil

Lustiger Troll
2004-05-04, 18:51:39
Original geschrieben von dildo4u
kleiner kühler topproduckt mit 1slot lösung brauche nur ein 300w netzteil

Genau wie die NV40 ;).

perforierer
2004-05-04, 18:52:46
So krass, dass hier gleich wieder die Grundsatzdiskussion aufbrechen muss, ob nun ATI oder nVidia besser ist.....freut euch doch einfach, dass es kuhle neue Karten gibt! =)

St@N
2004-05-04, 18:52:59
Original geschrieben von seahawk
Nachteil - mehr Festplattenspeicher benötigt
Nachteil - der fraglichen Bildqualität (Konvertierung von Bmp zu DXT zu 3dc - ob das verlustfrei gehen wird ??)

Momentan ist 3dc ein genauso sinnvolles Feature wie die 3.0 Shader bei NV.

uhh mehr hdd speicher...jetzt gehts wohl los oder?

in zeiten von 300gb wo jeder ne 160gb hdd hat (ok außer mir mit 80gb :D) wird man es doch wohl packen nen gb übrig zu haben...


desweiteren brauch ich kein neues netzteil kaufen ;)
desweiteren freut sich meine mum...sie brauch net so viel bezahlen ;)

Crushinator
2004-05-04, 18:53:40
Original geschrieben von LovesuckZ
Sie erreichen dies dazu, dass sie deutlich weniger Features unterstuetzen. Sieht man das wirklich nicht? Oder ist einem das egal? Hmmm...laß mich mal überlegen....hmmm.... Man könnte es ja vielleicht damit vergleichen, daß ein P4 SSE2 unterstützt, die Athlons jedoch nicht. Nennen wir die Athlons deshalb so schön "Technologiebremsen" und kaufen sie nicht? Den Vergleich könnte man jetzt genau so mit Hyperthreading oder x86-64 ziehen.

perforierer
2004-05-04, 18:55:29
Original geschrieben von LovesuckZ
Sie erreichen dies dadurch, dass sie deutlich weniger Features unterstuetzen.
Sieht man das wirklich nicht? Oder ist einem das egal?

Ich seh mich da als recht neutral an, weil ich keine Präferenz für einen Hersteller habe.

Also ich sehe z.B kein Feature bei der 6800er, das mir wichtig wäre. Der 3.0 Supportist mir herzlich egal. Ne Graka hält max. zweieinhalb Jahre. dann kommt die Unreal Engine 3.0 und vergleichbare Engines, die Gebrauch vopn den 3.0 Shadern machen...und und man braucht dann ohnehin ne neue Graka, schon vom, Speed her.
3.0 ist ein Feature für die Verkaufsschachtel, find ich.

Preis, Wärmeentwicklung und vor allem Lautstärke sind aber z.B. für mich extrem wichtige Kriterien.

deekey777
2004-05-04, 18:55:42
Original geschrieben von LovesuckZ
Sie erreichen dies dadurch, dass sie deutlich weniger Features unterstuetzen.
Sieht man das wirklich nicht? Oder ist einem das egal?

Klar, ganz wie du meinst...

dildo4u
2004-05-04, 18:55:50
Original geschrieben von Lustiger Troll
Genau wie die NV40 ;). wo gibts 6800Ultra mit 1 slot kühlösung? und wenig strom hunger auf 480netzteile?

St@N
2004-05-04, 18:56:54
ich sags mal so wie ich denke: nvidia hat nur ps3 support weil sie dadurch mehr karten verkaufen...von wegen ps3.0 steht da...das kauft dann jeder DAU und normalverbraucher...

ati braucht sowas halt net... ;) :D

ich mein ich hab auch ne 4200er noch...die reicht und ich bin total zufrieden...aber ich finde ati kann in sachen technik mehr ;)

edit: das iss genau wie bei AMD da bewunder ich auch das sie aus 2,4GHZ so viel rausbekommen und intel da extra nen chip braucht mit L3 cache (der im gegensatz zu ps3.0 genutzt wird...*hehe*)

dildo4u
2004-05-04, 18:57:53
Original geschrieben von LovesuckZ
natuerlich nicht. Besser? Ich meine, das SM3.0 heißt eigentlich SM1.0, weil es ja nicht besser als das SM2.0 ist...



Nein, Gleichstand, oder ATi ist durch 6AA langsamer.

I don't think anyone thought the race would be this close after what has been going on over the past couple years with ATI and NVIDIA. Clearly, both camps have had their wins and losses, but it is safe to say that ATI comes out on top when it comes to DX9 and PS 2.0 performance. Eventhough we haven't yet seen the performance numbers from NVIDIA's 6850 Ultra part, it is likely that there will be a price premium that goes along with that performance. On top of that, the 6850 is really just an overclocked 6800 Ultra part. We will take a look at the issue further when we are finally able to run some numbers.


http://www.anandtech.com/video/showdoc.html?i=2044&p=21

Fadl
2004-05-04, 18:57:55
Langsam wird es hier etwas kindisch oder sehe das nur ich so?

Lustiger Troll
2004-05-04, 18:59:07
Original geschrieben von dildo4u
wo gibts 6800Ultra mit 1 slot kühlösung? und wenig strom hunger auf 480netzteile?

Hast du die Presentation in Las Vegas mitverfolt, da waren alles 1 Slotkühlung, bei 3dcenter hatten sie auch ein 350W NT... also bitte die 20 Watt die eine nv40 mehr zieht sollten egal sein wenn man schon 500-600 Euro für so ein Teil ausgibt!

Demirug
2004-05-04, 19:00:06
Original geschrieben von dildo4u
I don't think anyone thought the race would be this close after what has been going on over the past couple years with ATI and NVIDIA. Clearly, both camps have had their wins and losses, but it is safe to say that ATI comes out on top when it comes to DX9 and PS 2.0 performance. Eventhough we haven't yet seen the performance numbers from NVIDIA's 6850 Ultra part, it is likely that there will be a price premium that goes along with that performance. On top of that, the 6850 is really just an overclocked 6800 Ultra part. We will take a look at the issue further when we are finally able to run some numbers.


http://www.anandtech.com/video/showdoc.html?i=2044&p=21

wenn anand diese Aussage aufgrund seinem Verständniss von der R420 Pixelpipeline getroffen hat dann ist sie nicht verwunderlich. Er ist ATI voll auf den Leim gegangen.

Quasar
2004-05-04, 19:00:18
Original geschrieben von crushinator
Hmmm...laß mich mal überlegen....hmmm.... Man könnte es ja vielleicht damit vergleichen, daß ein P4 SSE2 unterstützt, die Athlons jedoch nicht. Nennen wir die Athlons deshalb so schön "Technologiebremsen" und kaufen sie nicht? Den Vergleich könnte man jetzt genau so mit Hyperthreading oder x86-64 ziehen.

War nV mit der GF4 keine Technologiebremse? Oder ATi mit der R9200? Oder ATi und nV mit ohne DM?

dildo4u
2004-05-04, 19:00:36
Original geschrieben von Lustiger Troll
Hast du die Presentation in Las Vegas mitverfolt, da waren alles 1 Slotkühlung, bei 3dcenter hatten sie auch ein 350W NT... also bitte die 20 Watt die eine nv40 mehr zieht sollten egal sein wenn man schon 500-600 Euro für so ein Teil ausgibt! es gibt keine 6800ultra mit 1 slot kühlösung fakt!

Godmode
2004-05-04, 19:01:53
Ein paar sehr wichtige Dinge !!

1. Beim nächsten großen Launch wäre es sehr angenehm Gast Postings zu verbieten, die machen den ganzen Thread kaputt und meistens kommt nur subjektiver Schrott von denen( nicht alle aber die meisten). Mir kommt es so vor als hätten viele Leute das Review auf Chip.de gelesen und glauben jetzt dass sie was über den R420 wissen!!! tsststst kann ich nur sagen.

2. Zur Stromaufnahme: ich weiss einfach nicht was einige hier zu meckern haben an der Leistungsaufnahme des NV40. ATI hat nun mal den Low-K Vorteil und Nvidia hat ihn nicht. Wenn euch der NV40 nicht passt dann kauft ihn nicht, aber kotzt nicht immer sau blöd im Forum rum.

3. Wie im Review von Leo und Ahts erkenntlich gemacht wurde, bauen die beiden Firmen auf ganz verschiede Unternehmens Philosophien(=Langfristige Entscheidungen einer Unternehmung)!! Man kann zwar schon sagen das der R420 kleiner, leiser, kühler... ist aber dafür bietet er nur Speed! Wem das genügt dem kann ich mit dem R420 nur beglücken.

Der NV40 hat dazu - zum Speed der vielleicht "noch" nicht ganz dem R420 entspricht - viele neue Features die halt Transen kosten. Und vielen gefallen die neuen Features. Ich finde zb MDR voll cool und zu PS3.0 kann ich nur sagen, wenn es Speed bringt super Sache

4. Die meisten Reviews im Netz sind sowiso für den Mülleimer, ausgenommen 3DC,... ich will damit sagen man sollte noch mit einem Urteil warten bis es echte Boards zum anfassen gibt, aber ein fixes Urteil wie zu NV30 R300 Zeiten wird es diesesmal nicht geben.

5. Denen den der NV40 besser gefällt sollen sich den NV40 kaufen, und denen der der R420 besser gefällt sollen sich den R420 kaufen. Beide haben ihre Pro/Contra, aber deswegen würde ich keinen der beiden Chips schlecht machen. Wers nicht verstanden hat goto Punkt 3.

mfg an alle und etwas weniger GayFanboye pls

Lustiger Troll
2004-05-04, 19:02:12
Original geschrieben von dildo4u
es gibt keine 6800ultra mit 1 slot kühlösung fakt!

Träu weiter von deiner Roten Welt, es gibt eine ich such das Bild mal, aber habe leider keine Zeit...

http://www.tweakpc.de/newspics/inqui_gf6800ultra.jpg

betasilie
2004-05-04, 19:02:30
Original geschrieben von LovesuckZ
Bei 10 Watt mehr und deutlich besseren Features ...
*rofl* Welchen besseren Features?

ATI hat klar das bessere Feature, nämlich ein 6*AA, was absolut unerreicht ist.

Und alles andere wird über den Speed entschieden und da ist ATI wohl klar überlegen.

Original geschrieben von LovesuckZ
Achja, der NV40 kann auch alles, was der r420 kann. Also warum dem r420?
Weil er schneller ist, das bessere AA bietet und erheblich weniger Strom verbraucht!? :D ... Wobei letzteres nicht wirklich wichtig sein sollte in dem Preissegment.

dildo4u
2004-05-04, 19:03:04
Original geschrieben von Lustiger Troll
Träu weiter von deiner Roten Welt, es gibt eine ich such das Bild mal, aber habe leider keine Zeit... http://www.meristation.com/img-filer/articulos/mayo2004/GeForce6800vsRadeonX800XTElcombatedelano/P1010021.JPG das nennt sich realität*g* solln sich die 40watt mher in luft auflösen

Lustiger Troll
2004-05-04, 19:04:23
Original geschrieben von dildo4u
http://www.meristation.com/img-filer/articulos/mayo2004/GeForce6800vsRadeonX800XTElcombatedelano/P1010021.JPG das nennt sich realität*g*

LOL :rofl: das ist eine Referenzkarte!
Schau oben.

-error-
2004-05-04, 19:06:06
Original geschrieben von LovesuckZ
"stromhungriger"?
Bei 10 Watt mehr .....

Im Gegensatz zu den neueren nVidia-Grafikkarten verfügt die Radeon X800 Pro nur über einen einzelnen Stromanschluß auf der Karte und kommt auch nur als Singleslot-Design daher. Vom Stromverbrauch her soll sie deutlich genügsamer als die nVidia-Grafikkarten sein. ATi gibt für die Radeon X800 Pro einen Stromverbrauch unter Vollast von 68 Watt an (im Idle-Modus sind es 38 Watt), nVidia´s GeForce 6800 Ultra schlägt hier mit 111 Watt zu Buche.

LovesuckZ
2004-05-04, 19:06:36
Original geschrieben von betareverse
*rofl* Welchen besseren Features?

SM3.0? FP32 Berechnung? Nein, nicht besser *rofl*

ATI hat klar das bessere Feature, nämlich ein 6*AA, was absolut unerreicht ist.

Dafür hat Nvidia das eindeutig bessere AF, das bleibt ebenfalls unerreicht.

Und alles andere wird über den Speed entschieden und da ist ATI wohl klar überlegen.

Natuerlich, weil über die Features geht es ja schlecht *eg*.

Weil er schneller ist, das bessere AA bietet und erheblich weniger Strom verbraucht!? :D ... Wobei letzteres nicht wirklich wichtig sein sollte in dem Preissegment.

Wenn bei dir nur der Speed zaehlt, warum spielst du mit 6AA? Denn dann ist die Karte nicht mehr schneller und deine Argumentation verlaueft sich im Sand. Mist nicht?

St@N
2004-05-04, 19:07:01
wer regt sich hier wegen slots auf?! iss hier jemand der den ersten pci bei der graka nicht freilässt?!...

ich mach das freiwillig..für die graka ;)

edit: und zum übertakten und halt stabi :D

dildo4u
2004-05-04, 19:07:22
Original geschrieben von Lustiger Troll
LOL :rofl: das ist eine Referenzkarte!
Schau oben.
ick kenn nur die die eine eigene kühlösung hat alle anderen karten Aopen oder asus nehem den referenz kühler
http://www.geizhals.at/deutschland/a97704.html

betasilie
2004-05-04, 19:07:37
Original geschrieben von Blubberbär
FULL ACK!

L-Suckz argumentiert mit dem ewig gleichen Müll, die Leier geht mir voll auf die Nerven. Anscheinend wird der von nvidia gesponsort.
Tja, so ist das halt. :(

Ich habe das auch schon fleißig der Moderation gemeldet, da das imo oft als Flame zu werten ist.

Daher muss man wohl diese Sisyphus-Diskussion mitmachen, bis die Moderation einschreitet.

kami
2004-05-04, 19:08:13
Och bitte hört doch mit diesem 2-Slot-Getrolle auf. Praktisch kann man den PCI-Slot unter dem AGP auf Grund von Hitzestau eh selten nutzen und im Zeitalter von Mainboards die fast alles onboard haben ist das nun wirklich kein Argument.

Ich persönlich sehe hier keinen eindeutigen Sieger. Beide haben ihre Vor- und Nachteile und die sollte jeder für sich abwägen und die Karte kaufen die ihm besser gefällt. Aber diese elendige Trollerei ist echt zum kotzen. :|

seahawk
2004-05-04, 19:08:13
Original geschrieben von St@N
uhh mehr hdd speicher...jetzt gehts wohl los oder?

in zeiten von 300gb wo jeder ne 160gb hdd hat (ok außer mir mit 80gb :D) wird man es doch wohl packen nen gb übrig zu haben...


desweiteren brauch ich kein neues netzteil kaufen ;)
desweiteren freut sich meine mum...sie brauch net so viel bezahlen ;)

Spielefirmen reagieren sensibel auf die Erhöhung der Minimalanforderung. Und wenn die Konvertierung nicht auf dem Rechner des Users erfolgen kann, sondern schon konvertierte Texturen mitgeliefert werden müssen, dann ist da schnell ne CD mehr nötig.

Was 3dc mit dem Netzteil zu tun hat ist mir gerade leider nicht klar

[dzp]Viper
2004-05-04, 19:08:57
Original geschrieben von LovesuckZ
Dafür hat Nvidia das eindeutig bessere AF, das bleibt ebenfalls unerreicht.


schon das 3dcenter review gelesen? SCheinbar nicht :eyes:

Original geschrieben von St@N
wer regt sich hier wegen slots auf?! iss hier jemand der den ersten pci bei der graka nicht freilässt?!...

ich mach das freiwillig..für die graka ;)

edit: und zum übertakten und halt stabi :D
gut dann solltest du den 2. slot bei der 6800 ultra auch frei lassen X-D

(achtung - sakasmuss im 2. beitrag ;))

@ Full AK @ Kami

dildo4u
2004-05-04, 19:09:15
Original geschrieben von Lustiger Troll
Träu weiter von deiner Roten Welt, es gibt eine ich such das Bild mal, aber habe leider keine Zeit...

http://www.tweakpc.de/newspics/inqui_gf6800ultra.jpg fake das bild das wird dir sogar dein nvidia kollege love bestätigen

LovesuckZ
2004-05-04, 19:09:39
Original geschrieben von [dzp]Viper
schon das 3dcenter review gelesen? SCheinbar nicht :eyes:


Natuerlich und es ist immernoch unerreicht.

St@N
2004-05-04, 19:10:00
tja willkommen in der zeit der DVD ;) (wiedermal ne techno die benutzt wird...)

(del676)
2004-05-04, 19:10:27
Original geschrieben von [dzp]Viper
schon das 3dcenter review gelesen? SCheinbar nicht :eyes:


gut dann solltest du den 2. slot bei der 6800 ultra auch frei lassen X-D

(achtung - sakasmuss im 2. beitrag ;))

@ Full AK @ Kami

wieviel PCI slots hast du belegt viper?

InsaneDruid
2004-05-04, 19:10:47
[SIZE=1]Original geschrieben von bans3i
Ein paar sehr wichtige Dinge !!

2. Zur Stromaufnahme: ich weiss einfach nicht was einige hier zu meckern haben an der Leistungsaufnahme des NV40. ATI hat nun mal den Low-K Vorteil und Nvidia hat ihn nicht. Wenn euch der NV40 nicht passt dann kauft ihn nicht, aber kotzt nicht immer sau blöd im Forum rum.

Ist es nicht egal WIE und Warum NV mehr Hitze wirft und mehr Strom frisst? Der Fakt bleibt bestehen.

3. ... ist aber dafür bietet er nur Speed! Wem das genügt dem kann ich mit dem R420 nur beglücken.

Der NV40 hat dazu - zum Speed der vielleicht "noch" nicht ganz dem R420 entspricht - viele neue Features die halt Transen kosten. Und vielen gefallen die neuen Features. Ich finde zb MDR voll cool und zu PS3.0 kann ich nur sagen, wenn es Speed bringt super Sache

Also die R420bietet "nur" Speed und die NV40 tolle Features die.. ähmm Speed ... bringen?


5. Denen den der NV40 besser gefällt sollen sich den NV40 kaufen, und denen der der R420 besser gefällt sollen sich den R420 kaufen. Beide haben ihre Pro/Contra, aber deswegen würde ich keinen der beiden Chips schlecht machen. Wers nicht verstanden hat goto Punkt 3.

Ack

deekey777
2004-05-04, 19:11:00
Die NV40 ist in 18-24 Monaten das, was die 5200 jetzt ist. Dieses Hype um die SM 3.0 der NV40 ist zum Kotzen!!! Das bringt nur Geschwindigkeit, diese bringt die R420 auch. Das ist kein Argument für die NV40!
Eindeutig besseres AF? Wayne interessiert? Heutzutage zählt AA und AF gemeinsam!

St@N
2004-05-04, 19:11:35
Original geschrieben von [dzp]Viper
schon das 3dcenter review gelesen? SCheinbar nicht :eyes:


gut dann solltest du den 2. slot bei der 6800 ultra auch frei lassen X-D

(achtung - sakasmuss im 2. beitrag ;))

@ Full AK @ Kami

den lass ich sowieso frei...auch wennsch ne ati karte kaufen würde (von den neuen) und auch wennsch mir in nem monat ne 9800pro leisten kann lass ich den sowieso frei...wegen einem pci...als obs nur 2 gibt :D

seahawk
2004-05-04, 19:11:37
Original geschrieben von St@N
tja willkommen in der zeit der DVD ;) (wiedermal ne techno die benutzt wird...)

Ich stehe der 3dc Lösung erstmal genauso kritsch gegenüber wie den 3.0 Shadern. In der LEbenszeit der Karten wird es kaum was bringen.

[dzp]Viper
2004-05-04, 19:12:10
Original geschrieben von LovesuckZ
Natuerlich und es ist immernoch unerreicht.

gut - dann extra für dich nochmal ein auszug aus dem Fazit:

Denn nVidia bietet bei der GeForce6-Serie in keinem Punkt eine bessere Qualität als ATi bei der X800-Serie an, einzig allein die GeForce 4/FX Karten behalten weiterhin ihre bessere anisotrope Qualität.

dildo4u
2004-05-04, 19:13:52
Original geschrieben von [dzp]Viper
gut - dann extra für dich nochmal ein auszug aus dem Fazit:

Denn nVidia bietet bei der GeForce6-Serie in keinem Punkt eine bessere Qualität als ATi bei der X800-Serie an, einzig allein die GeForce 4/FX Karten behalten weiterhin ihre bessere anisotrope Qualität.
OWND

LovesuckZ
2004-05-04, 19:14:18
Original geschrieben von [dzp]Viper
Denn nVidia bietet bei der GeForce6-Serie in keinem Punkt eine bessere Qualität als ATi bei der X800-Serie an, einzig allein die GeForce 4/FX Karten behalten weiterhin ihre bessere anisotrope Qualität.

Ist seine meinung, trotzdem zeigen die AF Tester, dass es besser ist. Tja, ATi AA, Nvidia AF.

St@N
2004-05-04, 19:14:42
Original geschrieben von seahawk
Ich stehe der 3dc Lösung erstmal genauso kritsch gegenüber wie den 3.0 Shadern. In der LEbenszeit der Karten wird es kaum was bringen.

ich muss den artikel von aths noch lesen :D

aber die paar mb...wobei ich auch net denke das sich das durchsetzen wird...
aber das denke ich halt von ps3.0 auch net..und selbst wenn ...dann iss die 6800 zu lahm das zu schaffen und bis die das schafft hat ati genauso ps3.0 support...oder höher :D

betasilie
2004-05-04, 19:15:41
Original geschrieben von LovesuckZ
SM3.0? FP32 Berechnung? Nein, nicht besser *rofl*

Und was hast Du davon? Rein garnichts!

Original geschrieben von LovesuckZ
Dafür hat Nvidia das eindeutig bessere AF, das bleibt ebenfalls unerreicht.

NV hat wohl beim AF zu ATI aufgeschlossen, daher solltest Du mal lieber über NV meckern, als sie zu loben.

Aber ist ja klar, dass Du NVs größtes Manko beim NV40 als Stärke präsentieren willst.

Original geschrieben von LovesuckZ
Natuerlich, weil über die Features geht es ja schlecht *eg*.

Und wird es auch wahrscheinlich in den nächsten 18 Monaten nicht gehen und über die Papier-Features eines NV40 sowieso nicht. Da muss man wohl auf den NV50 warten, der dann auch SM3.0 in der Realität beherrscht, sprich bei ausreichender Performance.

Original geschrieben von LovesuckZ
Wenn bei dir nur der Speed zaehlt, warum spielst du mit 6AA? Denn dann ist die Karte nicht mehr schneller und deine Argumentation verlaueft sich im Sand. Mist nicht?
Tja, bei 4*AA ist die X800XT wohl die schnellste Karte und das geniale 6*AA von ATI nimmt man dann gerne auch mit, wenn es das Game zu lässt.

Und von wegen langsamer. Du hast es vielleicht noch nicht mitbekommen, aber bei bei den AA>4* Benchmarks putzt sogar die X800Pro die 6800Ultra weg.

deekey777
2004-05-04, 19:15:42
Original geschrieben von [dzp]Viper
gut - dann extra für dich nochmal ein auszug aus dem Fazit:

Denn nVidia bietet bei der GeForce6-Serie in keinem Punkt eine bessere Qualität als ATi bei der X800-Serie an, einzig allein die GeForce 4/FX Karten behalten weiterhin ihre bessere anisotrope Qualität.

Du kannst schreiben, was du willst... Das bringt nichts.

(Die 6800Ultra hat doch SM 3.0, vergiss das nie, am besten schreibt sich das jeder auf die Stirn.)

SM 3.0 ist cool!!!

St@N
2004-05-04, 19:16:20
Original geschrieben von LovesuckZ
Ist seine meinung, trotzdem zeigen die AF Tester, dass es besser ist. Tja, ATi AA, Nvidia AF.

da man aber beides braucht gleichstand...(wenns so wäre das es schlechter wäre was nicht so ist ;))

mit deinen ps3.0 kannst wiederkommen wenn ein game es benutzt und net ps3.0 gegen minimale details gezeigt wird! (...du wirst das video und die pics gesehen haben als nv fan...)

[dzp]Viper
2004-05-04, 19:17:58
Original geschrieben von LovesuckZ
Ist seine meinung, trotzdem zeigen die AF Tester, dass es besser ist. Tja, ATi AA, Nvidia AF.

ach gut, dass du dir scheinbar nur den AF tester ansiehst.. in Realanwendungen (wie z.b. Spiele - fals du das kennst X-D) sieht man nämlich 0,0 unterschied...
Und für Spieler und co (für die die karten hauptsächlich gedacht sind) zählt man das...

St@N
2004-05-04, 19:18:52
Original geschrieben von deekey777
Du kannst schreiben, was du willst... Das bringt nichts.

(Die 6800Ultra hat doch SM 3.0, vergiss das nie, am besten schreibt sich das jeder auf die Stirn.)

SM 3.0 ist cool!!!

cool schon doch wird im mom nicht benutzt...bringt also im mom GAR NIX! ...oder gibts schon 100 games mit ps2.0 support? ;D

ich finds trotzdem lustig das du als lustiger troll abgehst :D

Redneck
2004-05-04, 19:19:04
Original geschrieben von LovesuckZ
Sollte auch mit einer CPU gehen, nur eben langsamer. Wo liegt also der Sinn darin?
Achja, der NV40 kann auch alles, was der r420 kann. Also warum dem r420?


*grins*

1) weil sie bei den aktuellen (nicht Q3a) Games a la Far Cry schneller ist ?
2) weil sie leiser ist ?
3) weil sie weniger Strom verbraucht ?
4) weil sie eine 1 Slot Lösung darstellt ?

Such Dir etwas davon aus...
und überlege Dir mal, warum man sich überhaupt einen 3d Beschleuniger kauft .... (achja, ich vergaß das es Leute
gibt, die sich Grakas kaufen um sich das Herstellerlogo auf
die Stirn und die Karte an die Wand zu nageln ).

seahawk
2004-05-04, 19:19:14
Original geschrieben von St@N
ich muss den artikel von aths noch lesen :D

aber die paar mb...wobei ich auch net denke das sich das durchsetzen wird...
aber das denke ich halt von ps3.0 auch net..und selbst wenn ...dann iss die 6800 zu lahm das zu schaffen und bis die das schafft hat ati genauso ps3.0 support...oder höher :D

Paar MB - hast Du ne Ahnung wieviel von z.B. UT2004 Texturdaten sind.

Bei unserem Mod sind es von insgesamt ca. 196mb um die 100Mb für die Texturen im DXT Format.

[dzp]Viper
2004-05-04, 19:19:56
Original geschrieben von deekey777
Du kannst schreiben, was du willst... Das bringt nichts.

(Die 6800Ultra hat doch SM 3.0, vergiss das nie, am besten schreibt sich das jeder auf die Stirn.)

SM 3.0 ist cool!!!

hehe :up:


SM3.0 ist momentan genauso sinnvoll wie 3Dc - kein Spiel nutzt es und wir können erst in ein paar monaten sehen, was es uns am ende wirklich bringt...

Jeder der HEUTE sagt, dass SM3.0 oder 3Dc sinnlos sind, der sollte das nochmal überdenken...

HEUTE sind beide sinnlos - was beides aber in der Zukunft bringt steht noch in den sternen :)

Godmode
2004-05-04, 19:20:06
Mal eine Theorie: Was ist den Wenn Far Cry mit PS3.0 um sagen wir mal 50% schneller abläuft als mit PS2.0??

Ich wäre echt gespannt über die Meinungen der Leute, die jetzt PS3.0 schlecht machen!

Ich weiss nicht ob und wieviel PS3.0 was bringt, aber wenn es zum tragen kommen sollte (zb auch für älltere Games) kann man doch nicht sagen das es nichts bringt!!

Und solange es keine Tests zu PS3.0 gibt brauchen wir eigentlich gar nicht über dieses Thema streiten, oder?

Und hört bitte mit dem Dualslot und Stromverbrauch geschwafle auf, es ist nunmal so!!

Oh nee
2004-05-04, 19:20:42
Jetzt wirds langsam armseelig....es ist ein Patt und da kann man reden wie man will.

St@N
2004-05-04, 19:21:29
Original geschrieben von seahawk
Paar MB - hast Du ne Ahnung wieviel von z.B. UT2004 Texturdaten sind.

Bei unserem Mod sind es von insgesamt ca. 196mb um die 100Mb für die Texturen im DXT Format.

mod?! cool sag an iss der echt für ut2004 schon? willsch hamm und testen :D

LovesuckZ
2004-05-04, 19:21:50
Original geschrieben von betareverse
Und was hast Du davon? Rein garnichts!

FP32, HDR - Berechnungen, MRT, Speedoptimierungen.

NV hat wohl beim AF zu ATI aufgeschlossen, daher solltest Du mal lieber über NV meckern, als sie zu loben.
Aber ist ja klar, dass Du NVs größtes Manko beim NV40 als Stärke präsentieren willst.

*aeh* Ich sage nur, dass das AF immer noch besser aussieht. Das es scheiße ist, dass beide cheaten, steht doch fest und das habe ich ebenfalls zum Ausdruck gebracht. Das du das nicht siehst, ist nicht meine Schuld.

Und wird es auch wahrscheinlich in den nächsten 18 Monaten nicht gehen und über die Papier-Features eines NV40 sowieso nicht. Da muss man wohl auf den NV50 warten, der dann auch SM3.0 in der Realität beherrscht, sprich bei ausreichender Performance.

Und? Unter PS2.0 ist der NV40 kaum schlechter. Erst beim Einsatz von AF verliert die Karte, warum auch immer. Der NV40 ist unter dem SM2.0 ebenfalls verdammt schnell und verfügt über das SM3.0, wodurch wir in 12 Monate Spiele haben, welche es unterstuetzen. Ihr R420 Käufer müsst ja leider noch 24 Monate warten, da ihr ja nicht einen Nutzen aus Nvidia Fortschritt ziehen wollt

Tja, bei 4*AA ist die X800XT wohl die schnellste Karte und das geniale 6*AA von ATI nimmt man dann gerne auch mit, wenn es das Game zu lässt.

1. Nein, die Karte gewinnt durch das AF. beim AA verlieren beide den selben Speed. Wodurch hier ein Gleichstand herrscht.

Und von wegen langsamer. Du hast es vielleicht noch nicht mitbekommen, aber bei bei den AA>4* Benchmarks putzt sogar die X800Pro die 6800Ultra weg.


Unterstuetzt ATi Supersampling? Ich denke nicht.
Wenn du nun das 6AA gegenüber dem 4AA hervorgebest, dann solltest du adjektive wie schneller, nicht verwenden. Das ist naemlich falsch.

Quasar
2004-05-04, 19:22:07
Original geschrieben von hjhj
Lovesuckz was ist NV wenn sie von einer Steinzeitkarte geplättet wird. ;D

Sieh's mal so:
Nachdem der Porsche 911 Turbo Ende der Siebziger rauskam, hat man auch in den Fan-Kreisen erkannt, daß es langsam aber sicher Zeit für elektronische Fahrhilfen wird.

PS allein genügt nicht mehr.

MadMan2k
2004-05-04, 19:22:44
Original geschrieben von St@N
cool schon doch wird im mom nicht benutzt...bringt also im mom GAR NIX! ...oder gibts schon 100 games mit ps2.0 support? ;D

ich finds trotzdem lustig das du als lustiger troll abgehst :D
I
R
O
N
I
E
??
:D

Morpheus2200
2004-05-04, 19:23:13
Original geschrieben von betareverse
Und was hast Du davon? Rein garnichts!




Naja wie war das mit dem R300 und Ps2.0. Ati brachte sie als erster heraus und alle spieleentwickler entwickelten auf dem r300 was im endefekt einen speedvorteil bei den spielen ergab.
Trotz das der NV 30 ja eigendlich die besseren shader bietet (verbessert mich wenn ich falsch liege) kann er nicht mit dem R300 mithalten da die reihenfolge der shader programmierung ungünstig für den NV30 ist.

wenns auch jetzt noch nichts bringt - in zukunft wird es was bringen.

Crushinator
2004-05-04, 19:23:14
Original geschrieben von Quasar
War nV mit der GF4 keine Technologiebremse? Oder ATi mit der R9200? Oder ATi und nV mit ohne DM? Ja, meinetwegen auch das. Gekauft wurden/werden sie trotzdem, weil sie jeweils bestimmte Anforderungen mehr als gut erfüll(t)en, darauf wollte ich hinaus. Mich persönlich interessiert z.B. null komma nix von dem, was SM3 mitbringt. Praxistaugliches Realtime-Rendering (Obacht: Nicht Offline-Rendering) zur Visualisierung von 3D-Objekten jedoch schon, und da kommt es - zumindest bei mir - zu 95% auf nur Eines an: echte (CPU unabhängige) Geometrieleistung und Füllrate. Wenn ich dann die Karte(n) noch relativ unkompliziert in jeden herkömmlichen PC einbauen kann, ohne beim Arbeiten damit übertrieben gesagt taub zu werden und/oder fast ein Vermögen loszuwerden, wird die jeweilige Karte um so interessanter.

LovesuckZ
2004-05-04, 19:23:48
Original geschrieben von [dzp]Viper
Und für Spieler und co (für die die karten hauptsächlich gedacht sind) zählt man das...

Genial: Ich wusste nicht, dass Spiele scheiss AF Qualitaet haben wollen.
Ich das der letzte versuch, ATi's noch schlechteres AF zu rechtfertigen? Wir wissen ja, wohin uns das jetzt führte...

St@N
2004-05-04, 19:23:52
Original geschrieben von bans3i
Mal eine Theorie: Was ist den Wenn Far Cry mit PS3.0 um sagen wir mal 50% schneller abläuft als mit PS2.0??

Ich wäre echt gespannt über die Meinungen der Leute, die jetzt PS3.0 schlecht machen!

Ich weiss nicht ob und wieviel PS3.0 was bringt, aber wenn es zum tragen kommen sollte (zb auch für älltere Games) kann man doch nicht sagen das es nichts bringt!!

Und solange es keine Tests zu PS3.0 gibt brauchen wir eigentlich gar nicht über dieses Thema streiten, oder?

Und hört bitte mit dem Dualslot und Stromverbrauch geschwafle auf, es ist nunmal so!!

deshalb oben: bringt also im mom GAR NIX!

paar % könnten schon rausspringen...aber nur wegen far cry...und 5 anderen games...

deekey777
2004-05-04, 19:24:45
Original geschrieben von bans3i
Mal eine Theorie: Was ist den Wenn Far Cry mit PS3.0 um sagen wir mal 50% schneller abläuft als mit PS2.0??

Ich wäre echt gespannt über die Meinungen der Leute, die jetzt PS3.0 schlecht machen!

Ich weiss nicht ob und wieviel PS3.0 was bringt, aber wenn es zum tragen kommen sollte (zb auch für älltere Games) kann man doch nicht sagen das es nichts bringt!!

Und solange es keine Tests zu PS3.0 gibt brauchen wir eigentlich gar nicht über dieses Thema streiten, oder?

...

Wie du richtig bemerkt hast, schneller, aber nicht schöner. Mehr Speed - das kann doch jeder! Wenn dagegen bringt DX9.0c+NV40 (und vielleicht noch ein passender Patch) eine andere realistischere Bildquali und das am besten ohne grosse Leistungseinbusse, werden alle Kritiker verstummen.

Edit: Ein Test mit DX9.0c beta & FC1.1 hat keine sichtbaren Unterschiede gezeigt.

Redneck
2004-05-04, 19:25:22
Original geschrieben von seahawk
Ich stehe der 3dc Lösung erstmal genauso kritsch gegenüber wie den 3.0 Shadern. In der LEbenszeit der Karten wird es kaum was bringen.

schon den Test auf Chip online gelesen ?
die in Bälde auf uns zukommenden "Kracher" sollen
das angeblich bereits unterstützen (leider keine Quellenangabe aber gehen wir einmal davon aus, daß die
Redakteure das sich nicht aus den Fingern gesogen haben).

gruß

Xinor
2004-05-04, 19:25:35
Original geschrieben von [dzp]Viper
hehe :up:


SM3.0 ist momentan genauso sinnvoll wie 3Dc - kein Spiel nutzt es und wir können erst in ein paar monaten sehen, was es uns am ende wirklich bringt...

Jeder der HEUTE sagt, dass SM3.0 oder 3Dc sinnlos sind, der sollte das nochmal überdenken...

HEUTE sind beide sinnlos - was beides aber in der Zukunft bringt steht noch in den sternen :)

Hehehe, da stimm ich dir zu :D Is aber immer so, ATI-User machen nVidia schlecht und nVidia-User ATI schlecht :D Das doch das alte Spiel.
Meine erste Graka war eine GeForce 256 und meine jetzige ist eine 9800PRO.

Mir ist es sowas von egal vorher die Karte kommt, haupsache sie bringt bei Games gute Leistung und gute Quali.
Daher versteh ich auch net wieso man über was diskutiert was noch ganet von echten Gamer, unter viele Games getestet wurde.

deekey777
2004-05-04, 19:26:29
Original geschrieben von LovesuckZ
Genial: Ich wusste nicht, dass Spiele scheiss AF Qualitaet haben wollen.
Ich das der letzte versuch, ATi's noch schlechteres AF zu rechtfertigen? Wir wissen ja, wohin uns das jetzt führte...

Lies den vorletzten Satz durch und sag uns, was du damit meinst!

Lustiger Troll
2004-05-04, 19:26:37
Original geschrieben von dildo4u
fake das bild das wird dir sogar dein nvidia kollege love bestätigen


Oman das ist dasselbe Bild wie bei der Presentation.... NV hat das wohl gefaket. Na wenn du mal kein Fanboy bist, dann bin ich auch keiner ;).

[dzp]Viper
2004-05-04, 19:27:20
Original geschrieben von LovesuckZ
Genial: Ich wusste nicht, dass Spiel scheiss AF Qualitaet haben wollen.
Ich das der letzt versuch, ATi's noch schlechteres AF zu rechtfertigen? Wir wissen ja, wohin und das jetzt führte...

so jetzt nochmal für dich - du hast es scheinbar nicht verstanden was ich sagen wollte

vielleicht sieht man einen Unterschied im AF beim AF TesteR, (wenn man mit der Lupe sucht) aber in Spielen und co., wirst du auch mit der Lupe keine Unterschiede feststellen (und wenn, dann höchstens dann, wenn du mit einer extremen Lupe nachsiehst ;))

Schön und gut, wenn du das AF von NV verteidigst, aber es ist mittlerweile auf dem gleich (schlechten) Niveau wie von ATI (in REAL anwendungen... AF tester und co interessieren MICH ALS SPIELER nicht)

P.S. hab ich irgendwo gesagt, dass ich das AF gut finde? irgendwie passt dein 2. satz nämlich nicht zu meinem statment...

Majestic
2004-05-04, 19:27:43
Es ist eigendlich echt egal wie die ATI Karte abgeschnitten hat. Wäre sie langsamer als die NV40 gewesen würden die gleichen Typen mit den gleichen Argumenten genauso rumnöhlen wie sie es jetzt.;D
Und die GF6800GT wird sicher ne 1-Slot Lösung und ist mit OCen auf Ultra Niveau zu bringen. Und außerdem ist das mit dem 1-Slot Argument ist auch nur gewäsch, denn wer stopft schon ne Karte in den PCI-Slot direkt neben einer Highend-Grafka.....:rofl:

seahawk
2004-05-04, 19:28:08
Original geschrieben von St@N
mod?! cool sag an iss der echt für ut2004 schon? willsch hamm und testen :D

Die 1.1 für UT2004 is noch nicht raus. Ich habe jetzt gerade mal die Daten des letzten internen Releases genannt. (so grob geschätzt)

Für UT2003 gibt es SAS schon zum runterladen. http://www.sas.jolt.co.uk

dildo4u
2004-05-04, 19:28:47
Original geschrieben von Lustiger Troll
Oman das ist dasselbe Bild wie bei der Presentation.... NV hat das wohl gefaket. Na wenn du mal kein Fanboy bist, dann bin ich auch keiner ;). nein ick will dich echt nicht aufs korn nehem ick schwör

Baumbewohner
2004-05-04, 19:28:55
Original geschrieben von LovesuckZ
bla... Supersampling

Wow, endlich mal ein "sinvolles Argument". Nur leider vergißt Sucki im gleichen Atemzug zu erwähnen, das die Geschwindigkeit grausig ist. Naja, sowas wird wohl lieber unter den Teppich gekehrt. Ich würds ehrlich gesagt auch nicht anders machen. Die neue Geforce ist nunmal nicht der Speedking, darum gehts aber letztlich!

Von den Technikfeatures her hat die Radeon 8500 locker die Geforce 3 in den Boden gerammt, nur leider hat diese Aufgrund ihres Speeds in Games das Rennen gemacht. Diesmal ist die Situation umgekerht, NVIDIA trotzt mit höchstwahrscheinlich brachliegenden Features (Spielentwickler nehmen meist immer den kleinsten gemeinsamen Nenner ---> PS2.0) und ATI hat die Speedkeule in der Hand.

:D

St@N
2004-05-04, 19:29:26
Original geschrieben von [dzp]Viper
so jetzt nochmal für dich - du hast es scheinbar nicht verstanden was ich sagen wollte

vielleicht sieht man einen Unterschied im AF beim AF Testen (wenn man mit der Lupe sucht) aber in SPielen und co, wirst du auch mit der Lupe keine Unterschiede feststellen (und wenn, dann höchstens dann, wenn du mit einer extremen lupe nachsiehst ;))

Schön und gut, wenn du das AF von NV verteidigst, aber es ist mittlerweile auf dem gleich (schlechten) Niveau wie von ATI (in REAL anwendungen... AF tester und co interessieren MICH ALS SPIELER nicht)

er stirbt vielleicht oft bei cs und so und dann hat er zeit nach fehlern zu suchen beim aa und af und was da scheiße iss und so...

oder bei ut oder q3 oder was weß ich...jedenfalls muss er in games net viel zu tun haben (camper?)...mir würden die fehler net auffallen wennsch gerade einen nen headshot verpassen muss ;) aber iss halt bei jedem anders...

bnbn
2004-05-04, 19:29:44
@Majestic

ein bißchen mehr Verstand zeigen

Hab hier noch einen sehr guten Test von HotHardware,lohnt sich

Farcry

http://www.hothardware.com/articleimages/Item517/fc1024.png

http://www.hothardware.com/articleimages/Item517/fc1600.png

die neuen Karte sind richtig stark ,schaut euch mal die Unterschied zur alten Gen an

Halo

http://www.hothardware.com/articleimages/Item517/halo1280.png

UT2004

http://www.hothardware.com/articleimages/Item517/ut1600.png

Godmode
2004-05-04, 19:30:25
Original geschrieben von deekey777
Wie du richtig bemerkt hast, schneller, aber nicht schöner. Mehr Speed - das kann doch jeder! Wenn dagegen bringt DX9.0c+NV40 (und vielleicht noch ein passender Patch) eine andere realistischere Bildquali und das am besten ohne grosse Leistungseinbusse, werden alle Kritiker verstummen.

Edit: Ein Test mit DX9.0c beta & FC1.1 hat keine sichtbaren Unterschiede gezeigt.

Ich hab das heute schon mal gepostet und poste es nochmal:

Ich kann mir schon vorstellen was Nvidia geplant hat für FarCry und andere SM3.0 Titel

1. Werden sie ne Option anbieten, wo sie bessere Effekte bieten. = Speedvorteile von SM3.0 für Effekte opfern aber immer noch den selben Speed wie mit PS2.0!

2. Werden sie auch ne Option anbieten wo es keine besseren Effekte gibt, dafür aber mehr Speed durch SM3.0

Somit kann man SM3.0 extrem gut vermarkten.

Jetzt stellt sich halt noch die Frage wieviel SM3.0 Performance Gewinn bringen wird oder ob überhaupt.

Ich will jetzt endlich mal gescheite FC Benchmarks sehen wo der NV40 die Shader verwendet die ihm schmecken, also PS2.0/PS3.0 und nicht irgendwelche 1.1 Shader!!

Lustiger Troll
2004-05-04, 19:31:39
Original geschrieben von dildo4u
nein ick will dich echt nicht aufs korn nehem ick schwör

Extra für dich http://users.quick-line.ch/error/NV40/6800models.jpg

St@N
2004-05-04, 19:32:03
Original geschrieben von bans3i
Ich will jetzt endlich mal gescheite FC Benchmarks sehen wo der NV40 die Shader verwendet die ihm schmecken, also PS2.0/PS3.0 und nicht irgendwelche 1.1 Shader!!


gibts nicht?!?!

Crushinator
2004-05-04, 19:32:58
Original geschrieben von Majestic
(...) Und außerdem ist das mit dem 1-Slot Argument ist auch nur gewäsch, denn wer stopft schon ne Karte in den PCI-Slot direkt neben einer Highend-Grafka.....:rofl: *Hust* Es soll Leute geben, die unter ihrer R97Pro eine Lowprofile Firewire-Karte gesteckt haben. Einer von solchen Geschöpfen schreibt gerade diesen Beitrag, und die besagten Karten stecken wie beschrieben seit Ende 2002 in seinem Rechner. =)

LovesuckZ
2004-05-04, 19:34:36
Original geschrieben von Baumbewohner
Wow, endlich mal ein "sinvolles Argument". Nur leider vergißt Sucki im gleichen Atemzug zu erwähnen, das die Geschwindigkeit grausig ist. Naja, sowas wird wohl lieber unter den Teppich gekehrt. Ich würds ehrlich gesagt auch nicht anders machen. Die neue Geforce ist nunmal nicht der Speedking, darum gehts aber letztlich!

leider vergisst unserer Gast, dass ich wegem dem Speed nichts gesagt habe...
Ich prangere es an, dass man im gleichen Atemzug sagt, dass ATi mit 6AA schneller und die bessere Qualitaet biete. Es ist richtig, dass sie mit 6AA die bessere Qualitaet haben, aber sie sind im Gegensatz zu 4AA nicht immer schneller. Und ich sage jetzt, den unterschied zwischen 4AA und 6AA sehe man in hohen Aufloesungen nicht, so wie beim AF. Also wer braucht 6AA? niemand, richtig!

Von den Technikfeatures her hat die Radeon 8500 locker die Geforce 3 in den Boden gerammt, [...]

Echt? MSAA und tri - AF ohne Winkelabhaengigkeit? Kam gleichzeitig zur selben zeit und hatte ausgereife Treiber? ist mir neu, aber du hast bestimmt einen schicken Beweislie.

perforierer
2004-05-04, 19:38:17
Original geschrieben von Quasar
Sieh's mal so:
Nachdem der Porsche 911 Turbo Ende der Siebziger rauskam, hat man auch in den Fan-Kreisen erkannt, daß es langsam aber sicher Zeit für elektronische Fahrhilfen wird.

PS allein genügt nicht mehr.

Das isn schöner Vergleich! :)
Im Prinzip geb ich Dir auch recht.

Aber was bringt Dir die Fahrhilfe, wenn Du zu Lebzeiten Deines Porsches nur auf Straßen fährst, die gerade sind? :d :D

perforierer
2004-05-04, 19:38:58
Original geschrieben von St@N
cool schon doch wird im mom nicht benutzt...bringt also im mom GAR NIX! ...oder gibts schon 100 games mit ps2.0 support? ;D

ich finds trotzdem lustig das du als lustiger troll abgehst :D

Ähh. St@n, das dürfte ironisch gemeint gewesen sein.. :)

Godmode
2004-05-04, 19:39:20
Original geschrieben von St@N
gibts nicht?!?!

Nein gibt es nicht! Bei irgend einem Patsch verwenden sie gar nur PS1.1 und beim anderen wieder weniger PS2.0 als R420

Das ist aber die reine Schuld von Crytek und ich kann das gar nicht so recht verstehen, den sie sind doch im TWIMTBP Programm und da müssten sie eigentlich erfahren wie man den NV40 programmieren muss.

Bin schon saumäßig auf PS3.0 Benches gespannt, aber die wirds leider erst im Sommer geben wenn es endlich DX9.0C geben wird!!

tRpii
2004-05-04, 19:41:14
2 Pics


Naja, eine Draufsicht sagt nicht wirklich sonderlich was aus. Und da noch nicht wirklich Retailkarten getestet worden sind würde ich sowieso mit allem etwas vorsichtig sein und das bezieht sich auf ATi und nVIDIA. Dazu kommt dass es keine wirklich ausgereiften Treiber für beide Karten gibt. Ich denke dass man erst in grob geschätzt 2 Monaten ein wirkliches Fazit (80%) ziehen kann.

btw. dieses ganze Fanboy getue geht einem ziemlich aufn Sack.

Beide haben wirklich gute Arbeit geleistet und diesmal hat nVIDIA mehr getan als ATi aber dennoch sind beide Karten in der nächsten Zeit das Non plus-Ultra. Es ist so ziemlich egal welche Karte man nimmt da man mit jeder Karte seinen Spass haben wird.

/d

Aquaschaf
2004-05-04, 19:41:35
Original geschrieben von LovesuckZ
Es ist ja nicht nur das AF.
Nunja, dann ist der r420 eine Enttaeuschung. Nur 3Dc und das innerhalb von 2 Jahren...

Nur 4xMSAA innerhalb von wieviel Jahren? ;) - Das Spielchen geht auch anders herum.
Mich enttäuscht die Karte nicht; ich habe nichts anderes erwartet. Von den zusätzlichen Features des NV40 hab ich persönlich nichts, da ich nichts mit Engines zu schaffen habe die über PS2.0 hinaus gehen und ansonsten doch nur ein Spieler bin. Nur Leistung zählt für mich aber dann doch nicht - Immerhin wird 6xMSAA mit dem R420 bei vielen Spielen nutzbar. Die BQ möchte ich mir dann doch nicht entgehen lassen :)

Redneck
2004-05-04, 19:42:12
Original geschrieben von LovesuckZ
so wie beim AF. Also wer braucht 6AA? niemand, richtig!
.

Wer braucht nen S600 oder Whirlpools ?
Die Dinger gibts und werden gekauft.

Wenn Du 6AA nicht brauchst ist das deine subjektive
Einschätzung und richtet sich nach deinen Bedürfnissen.
Andere Menschen haben vielleicht höhere Ansrpüche als Du, schonmal daran gedacht ??

Godmode
2004-05-04, 19:44:56
Seht euch doch die ganzen Reviews an, die beiden Karten sind doch eh gleich schnell. Einmal ist der NV40 vorne wo anders wieder der R420. Und auf diese rieeeßen Unterschiede wo der R420/NV40 um 10 FPS schneller ist kann man wirklich sagen dass das ziemlich egal ist.

Holzkerbe
2004-05-04, 19:45:25
Original geschrieben von LovesuckZ
blablabla... (wegeditiert, mehr sinnvolles gabs nicht zum quoten)




Schon mal was von Temp-AA gehört? Das wertet die Quali nochmals auf, wird daran noch etwas gefeilt ists bald eine geile Option und noch mehr Quali für gleichen Speed zu bekommen.


Desweiteren verstehe ich nicht, wie du verzweifelt an dem drastisch "verschlechterten aF" der Geforce festhälst. Es bietet lediglich nur noch ATI-Qualität...

Wobei ATI dafür überall anders punktet: Speed, AA, Spiele mit hohen Qualitätsenstellungen, etc. Um den Support muß sich ATI auch keine Gedanken machen, die Spieleentwickler werden in nächster Zeit PS2.0 einfach unterstützen MÜSSEN.

Auch bei Videostreams hat ATI die Führung. NVIDIA hat am NV40 gerade mal das nötigste gemacht, PS3.0 bringt mir in nächster Zeit eh keinen nutzen da
a) die Spiele fehlen und es erst wieder 1-2 Jahre dauert bis die ersten Titel mit den ersten Effekten (!) erscheinen....
b) der NV40 an sich schon viel zu langsam ist, insofern es keine CPU-limitierte Szene ist.

dildo4u
2004-05-04, 19:45:51
Original geschrieben von Lustiger Troll
Extra für dich http://users.quick-line.ch/error/NV40/6800models.jpg
zitat Lovesuzcks
Weil die Bilder nachbearbeitet sind?
Jedenfalls schickt Nvidia die Karten mit 400MHz mit diesem "Blech" da oben raus. Und leise sollen diese laut Digitalwanderer auch nicht sein, was nichts heißen muss (he = Fanatiker).

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=131643&perpage=20&pagenumber=80 die seite mal durchlesen und wenn das sind auch nur refenz Board die neimand so zum testen bekommen hat und so eine kann auch nirgendwo bestellt werden auf jeder hersteller seite mit Nvidia karte gibt entweder 2 oder 3slot kühlösungen

LovesuckZ
2004-05-04, 19:46:28
Original geschrieben von Aquaschaf
Nur 4xMSAA innerhalb von wieviel Jahren? ;) - Das Spielchen geht auch anders herum.

Sie haben es wenigsten verbessert. Das kann man vom ATi's Cheat AF nicht sagen. Das man das AF verschlechtert hat, scheint anscheinend nicht schlecht gewesen zu sein, da viele nur den Speed sehen. IQ? ja bitte glatte Kanten, die Texturen koennen ja davonschwimmen...
Wenn du die zusaetzlichen Features jetzt nicht brauchst, brauchst du sie bestimmt auch nicht in der Zukunft. denn, wenn dir jetzt der Speed wichtig ist, bleibe so konsequenz und benutze nie den SM3.0 Pfad.

checky
2004-05-04, 19:46:35
natürlich nehmen sich beide karten in der performance und qualität nicht viel.

aber: weniger strom, weniger wärme, weniger lautstärke, weniger kosten sind vier gute argumente für die ati - bei derselben spiele-usability (mal grob gesehen). und das zählt dann eben, wenn der spielenutzen etwas gleich ist.

ich verstehe gar nicht, warum man da groß streitet. das sind doch fakten.

fgfg
2004-05-04, 19:49:07
Original geschrieben von checky
natürlich nehmen sich beide karten in der performance und qualität nicht viel.

aber: weniger strom, weniger wärme, weniger lautstärke, weniger kosten sind vier gute argumente für die ati - bei derselben spiele-usability (mal grob gesehen). und das zählt dann eben, wenn der spielenutzen etwas gleich ist.

ich verstehe gar nicht, warum man da groß streitet. das sind doch fakten.

Wie bitte nicht viel,was ist das denn

Hab hier noch einen sehr guten Test von HotHardware,lohnt sich

Farcry

http://www.hothardware.com/articleimages/Item517/fc1024.png

http://www.hothardware.com/articleimages/Item517/fc1600.png

die neuen Karte sind richtig stark ,schaut euch mal die Unterschied zur alten Gen an

Halo

http://www.hothardware.com/articleimages/Item517/halo1280.png

UT2004

http://www.hothardware.com/articleimages/Item517/ut1600.png

checky
2004-05-04, 19:50:40
wenn du die x800pro gegen die 6800ultra vergleichst, stimmt meine obige aussage (vor allem auch:ati kostet weniger bei ungefähr gleicher leistung!)

Lustiger Troll
2004-05-04, 19:51:01
http://www.firingsquad.com/media/hirez.asp?file=/hardware/geforce_6800_ultra_extreme/images/08.jpg

Auch nachbearbeitet?

YfOrU
2004-05-04, 19:51:09
hab mir jetzt so langsam mal alle verfügbaren tests durchgelesen und versucht mir n objektives bild zu erstellen

OPENGL - NV40 schneller
wobei es halt hauptsächlich ältere spiele sind bei denen
die leistung eh ausreicht

DirectX9 - meistens R420 (xt)
mit AA+AF relativ grosser vorsprung für r420 (xt)

Vorteile NV40:
- PS3.0
- (opengl zwar schneller aber meistens keinen grossen praktischen nutzen)

Nachteile:
- Stromaufnahme / verlustleistung
- kein ein slot design

Vorteile R420 (xt):
- AA+AF speed
- geringe stromaufnahme/verlustleistung
- ein slot design

Nachteile:
- kein PS3.0
- opengl performance nur ausreichend



deshalb mein fazit:

beide chips sind logischerweise absolute top produkte.
darüber braucht ma net diskutieren.
ABER mir kommt es so vor als hätte NVIDIA aus den fehlern
des GF FX designs nicht alle konsequenzen gezogen. Die fx war technologisch gesehn ein absolut zukunftweisendes produkt genauso wie die NV40 serie jetzt ist.
ich bin wirklich nicht gegen inovationen , nur
sollten die sinnvoll realisierbar sein. darunter versteh ich aber keine 100w + verlustleistung und vollkommen überdimensionierte kühler.
da find ich den ansatz von ati doch besser ist zwar konservativ aber er führt auch zum ziel und zwar ohne
diese ganzen nebeneffekte. kurzum NV hats mal wieder mitm transistor count ordentlich übertrieben und ist mit so nem monsterchip nen fertigungsprozess zu früh drann.
im grossen und ganzem seh ichn R420 (xt) doch etwas überlegen
trotz alter technik. auch alt kann gut sein

St@N
2004-05-04, 19:51:30
Original geschrieben von perforierer
Ähh. St@n, das dürfte ironisch gemeint gewesen sein.. :)

sorry sollte eigentlich auch so rüberkommen das ich es lustig finde wie er sich darüber lustig macht...weißt wie :D :P

St@N
2004-05-04, 19:53:12
Original geschrieben von bans3i
Nein gibt es nicht! Bei irgend einem Patsch verwenden sie gar nur PS1.1 und beim anderen wieder weniger PS2.0 als R420

Das ist aber die reine Schuld von Crytek und ich kann das gar nicht so recht verstehen, den sie sind doch im TWIMTBP Programm und da müssten sie eigentlich erfahren wie man den NV40 programmieren muss.

Bin schon saumäßig auf PS3.0 Benches gespannt, aber die wirds leider erst im Sommer geben wenn es endlich DX9.0C geben wird!!

hab doch extra die !!! mit reingemacht :D ...
war mir halt net sicher das es keinen gibt :D

tRpii
2004-05-04, 19:53:40
Original geschrieben von Lustiger Troll
http://www.firingsquad.com/media/hirez.asp?file=/hardware/geforce_6800_ultra_extreme/images/08.jpg

Auch nachbearbeitet?

oben ist eine 6800U unten nicht.. bei den ATi's ists egal, es sind alle im SingleSlot-Design..

btw. lasst doch das alberne hin und her

dildo4u
2004-05-04, 19:53:43
Original geschrieben von Lustiger Troll
http://www.firingsquad.com/media/hirez.asp?file=/hardware/geforce_6800_ultra_extreme/images/08.jpg

Auch nachbearbeitet? 6800 GT version? whol möglich leider sieht man nicht ob 1 oder 2 stomanschlüsse

LovesuckZ
2004-05-04, 19:53:57
Original geschrieben von Holzkerbe
Schon mal was von Temp-AA gehört? Das wertet die Quali nochmals auf, wird daran noch etwas gefeilt ists bald eine geile Option und noch mehr Quali für gleichen Speed zu bekommen.

Schonmal was von "Limitierung" gehört? Und Temp-AA ist keine "r420" Entwicklung. Sondern eine gute Treibersache, denn es ist immer gut Optionen zu haben, so wie es SS bei Nvidia gibt.

Desweiteren verstehe ich nicht, wie du verzweifelt an dem drastisch "verschlechterten aF" der Geforce festhälst. Es bietet lediglich nur noch ATI-Qualität...

Tue ich das? Nein, ich sage nur, es sieht immer noch besser aus. Das sieht aber dann komischer Weise keiner ein...

Wobei ATI dafür überall anders punktet: Speed,AA, Spiele mit hohen Qualitätsenstellungen, etc. Um den Support muß sich ATI auch keine Gedanken machen, die Spieleentwickler werden in nächster Zeit PS2.0 einfach unterstützen MÜSSEN.

Ja, Speed. Soviel besser auch nicht, dafür deutlich weniger Features. AA? Nunja, keine verbesserung und kein SS. "Spiele mit hohen Qualitätsenstellungen" sind auch auf der Nvidiahardware schnell. Da sehe ich nun keinen Vorteil der ATi hardware...
PS2.0 laufen auf der Nvidia ebenfalls sehr schnell und das mit einer wesentlich genaueren Berechnung.

Auch bei Videostreams hat ATI die Führung.

Das wird sich dann ja zeigen, wenn Nvidia den nächsten offiziellen Vorstellt und die Videofunktionen endlich vernünftig implantiert.

NVIDIA hat am NV40 gerade mal das nötigste gemacht,

"nötigste" ;D
Und ATi hat nichts gemacht. Oder in zahlen ausgedrueckt: Null - 0 - Zero.

PS3.0 bringt mir in nächster Zeit eh keinen nutzen da
a) die Spiele fehlen und es erst wieder 1-2 Jahre dauert bis die ersten Titel mit den ersten Effekten (!) erscheinen....

Dank nvidia. Dank ATi müsstes du 24 Monate warten.

b) der NV40 an sich schon viel zu langsam ist, insofern es keine CPU-limitierte Szene ist.


Tuerlich, wenn du es sagt. Zum Glueck zeigen reviews aber ein anderes Bild. Ich vertraue diesen mehr als dir, dunkle gestalt aus dem Schatten.

Redneck
2004-05-04, 19:55:03
Original geschrieben von LovesuckZ
Sie haben es wenigsten verbessert. Das kann man vom ATi's Cheat AF nicht sagen. Das man das AF verschlechtert hat, scheint anscheinend nicht schlecht gewesen zu sein, da viele nur den Speed sehen. IQ? ja bitte glatte Kanten, die Texturen koennen ja davonschwimmen...
Wenn du die zusaetzlichen Features jetzt nicht brauchst, brauchst du sie bestimmt auch nicht in der Zukunft. denn, wenn dir jetzt der Speed wichtig ist, bleibe so konsequenz und benutze nie den SM3.0 Pfad.

komisch.... also davonschwimmende Texturen habe ich
hier noch nicht bemerkt.... im Gegenteil. Alles schön scharf hier.

Hol Dir die 6800 und werde glücklich.
Ein paar Käufer muß NV ja finden, damit sie weitermachen koennen.

dildo4u
2004-05-04, 19:55:27
http://www2.ati.com/misc/demos/ATI-X800-DoubleCross-Demo-v1.0.mov


Und überhaupt saugt euch die ATI tech demo mit Ruby der helle wahhhsinn das geilste was ick bis jetzt in echtzeit gesehen hab lohnt sich !!! auch für nvidia fanboys ;-)

Jenaq
2004-05-04, 19:55:51
Ich nehme mal an, dass der NV40 einfach die Taktrate fehlt um bei der Filterung auf die R420 aufzuschließen, Füllrate und dann vieleicht geht die Bandbreite auch noch in die Knie (an allen ecken wird getrixt beim Filtern, was wenn Ati auch nur marginal besser trixt [natürlich kaum sichtbar weil irgendwo weit hinten] und somit ein quentchen spart).
Es sind immer noch 2 Chips die bei der reinen Füllrate (wichtig für AF) noch aufm Pipleline Prinzip beruhen, oder irre ich ? 400x16 vs 520x16
Also mal beide gleichtakten und gugen was dann is ;)

Zu SM3.0, D3c und UltraShadow ... abwarten, keiner nutzt es, keiner kanns zeigen, warum auch neue Graka jetzt kaufen, alte tut ja noch, und 2-3 Monate warten tut nicht weh...

Far Cry sieht mir einfach na murks aus, läuft auf jeder NV Karte mit Fehlern, wasn das... auserdem isses nur 1 Spiel, Doom3 und HL2 sind doch entscheidender...

checky
2004-05-04, 19:56:53
lovesuchZ:
"Das wird sich dann ja zeigen, wenn Nvidia den nächsten offiziellen Vorstellt und die Videofunktionen endlich vernünftig implantiert."

also jetzt wirds aber richtig albern, jetzt vergleicht hier jemand schon dinge, die erst noch eingebaut werden müssen...



ES REICHT!!!!!!!!!!!!!!!

Black-Scorpion
2004-05-04, 19:57:00
Original geschrieben von Lustiger Troll
http://www.firingsquad.com/media/hirez.asp?file=/hardware/geforce_6800_ultra_extreme/images/08.jpg

Auch nachbearbeitet?
Nein, aber keine Ultra.

6800
http://www.firingsquad.com/media/article_image.asp?fs_article_id=1465&pic_id=13

6800Ultra
http://www.firingsquad.com/media/article_image.asp?fs_article_id=1465&pic_id=10

Godmode
2004-05-04, 19:57:13
Original geschrieben von Holzkerbe
Schon mal was von Temp-AA gehört? Das wertet die Quali nochmals auf, wird daran noch etwas gefeilt ists bald eine geile Option und noch mehr Quali für gleichen Speed zu bekommen.


Desweiteren verstehe ich nicht, wie du verzweifelt an dem drastisch "verschlechterten aF" der Geforce festhälst. Es bietet lediglich nur noch ATI-Qualität...

Wobei ATI dafür überall anders punktet: Speed, AA, Spiele mit hohen Qualitätsenstellungen, etc. Um den Support muß sich ATI auch keine Gedanken machen, die Spieleentwickler werden in nächster Zeit PS2.0 einfach unterstützen MÜSSEN.

Auch bei Videostreams hat ATI die Führung. NVIDIA hat am NV40 gerade mal das nötigste gemacht, PS3.0 bringt mir in nächster Zeit eh keinen nutzen da
a) die Spiele fehlen und es erst wieder 1-2 Jahre dauert bis die ersten Titel mit den ersten Effekten (!) erscheinen....
b) der NV40 an sich schon viel zu langsam ist, insofern es keine CPU-limitierte Szene ist.

Lies lieben dern Artikel von Leo und Ahts bevor du, irgendwas schreibst!!

kami
2004-05-04, 19:57:20
Original geschrieben von dildo4u
http://www2.ati.com/misc/demos/ATI-X800-DoubleCross-Demo-v1.0.mov


Und überhaupt saugt euch die ATI tech demo mit Ruby der helle wahhhsinn das geilste was ick bis jetzt in echtzeit gesehen hab lohnt sich !!! auch für nvidia fanboys ;-)

Die Videos habe ich schon ein paar Seiten vorher verlinkt. Finde die aber nicht so berauschend.

Und bevor die Flames kommen - ich habe eine 9800 Pro im Rechner - also verschont mich bitte damit.

Quasar
2004-05-04, 19:58:03
Original geschrieben von crushinator
*Hust* Es soll Leute geben, die unter ihrer R97Pro eine Lowprofile Firewire-Karte gesteckt haben. Einer von solchen Geschöpfen schreibt gerade diesen Beitrag, und die besagten Karten stecken wie beschrieben seit Ende 2002 in seinem Rechner. =)

Es soll auch Leute gegeben haben, die es wagten, unter ihre 1-Slot-Karten eine richtige PCI-Karte zu installieren und prompt mit Instabilitäten und Bildfehlern bestraft wurden.

Einer von diesen schreibt....

Redneck
2004-05-04, 19:58:08
Original geschrieben von dildo4u
http://www2.ati.com/misc/demos/ATI-X800-DoubleCross-Demo-v1.0.mov


Und überhaupt saugt euch die ATI tech demo mit Ruby der helle wahhhsinn das geilste was ick bis jetzt in echtzeit gesehen hab lohnt sich !!! auch für nvidia fanboys ;-)

gibt es das auch in einem "vernünftigen" Format ?
ich hasse diesen Quicktime Mißt.

St@N
2004-05-04, 19:58:39
Original geschrieben von LovesuckZ
Ja, Speed. Soviel besser auch nicht, dafür deutlich weniger Features. AA? Nunja, keine verbesserung und kein SS. "Spiele mit hohen Qualitätsenstellungen" sind auch auf der Nvidiahardware schnell. Da sehe ich nun keinen Vorteil der ATi hardware...
PS2.0 laufen auf der Nvidia ebenfalls sehr schnell und das mit einer wesentlich genaueren Berechnung.

er gibt aber schon mal endlich zu das sie langsamer ist ;)

LovesuckZ
2004-05-04, 19:58:57
Original geschrieben von checky
also jetzt wirds aber richtig albern, jetzt vergleicht hier jemand schon dinge, die erst noch eingebaut werden müssen...
ES REICHT!!!!!!!!!!!!!!!

Wenn man keine Ahnung hat...
irgendwie haben sie in jetzige Treiber keine Unterstuetzung für einige Formate (?). Dadurch läuft das alles nichts. Deswegen sollte man erstmal warten. Klappt es beim ersten offiziellen Treiber nicht, dann könnt ihr rummeckern.

Quasar
2004-05-04, 19:59:34
Original geschrieben von dildo4u
http://www2.ati.com/misc/demos/ATI-X800-DoubleCross-Demo-v1.0.mov


Und überhaupt saugt euch die ATI tech demo mit Ruby der helle wahhhsinn das geilste was ick bis jetzt in echtzeit gesehen hab lohnt sich !!! auch für nvidia fanboys ;-)

Wie hast du die zum Laufen gekriegt? Bei mir kommt immer die Fehlermeldung, es würden keine PS2.b-Caps gefunden und ich solle mir doch eine X800 anschaffen...

TheGood
2004-05-04, 19:59:42
Original geschrieben von dildo4u
http://www2.ati.com/misc/demos/ATI-X800-DoubleCross-Demo-v1.0.mov


Und überhaupt saugt euch die ATI tech demo mit Ruby der helle wahhhsinn das geilste was ick bis jetzt in echtzeit gesehen hab lohnt sich !!! auch für nvidia fanboys ;-)

jopp das finde ich auch. WEnn man bedenkt dass das real time rendering ist. schon geil. Sieht echt aus wie wenn es vorgerendert wäre.
Allerdinges merkt man auch an den Hintergründen, dass da noch ned die mega performance da ist um dort auch noch spektakuläres zu bieten.
Trotzdem für mich eines der beeindruckendsten Techdemos der letzten zeit.

LovesuckZ
2004-05-04, 20:00:02
Original geschrieben von St@N
er gibt aber schon mal endlich zu das sie langsamer ist ;)

Natuerlich ist sie langsamer. Ich bestreite doch solche belegbaren Sachen nicht.
Aber sie ist nur in wenigen Spielen so weit deutlich schneller, dass man die Featurelosigkeit zur Seite draengen könnte.

dildo4u
2004-05-04, 20:00:14
http://people.freenet.de/Dildo4u/atiruby.JPG

aus der ruby techdemo leider verluste durch die video kompression hab halt noch keine X800*g*

Rampage 2
2004-05-04, 20:00:41
Ich habe einige Fragen zum R420 Chip:

1.) Unterstützt der R420 weiterhin Truform? Oder hat es dieses Feature nicht mehr? In der X800-Spezifikationsliste auf ATI's Website tauchte es nämlich nicht auf - das macht mir Sorgen.

2.) Ist das Temporal-AA optional? D.h. kann man es auch abschalten wenn man will und gewöhnliches AA nutzen?

3.) Wer hat denn nun die allgemein bessere Pixel/Vertex-Shader Performance? Nvidia oder ATI?

4.) Hat Nvidia besseres insgesamt Anisotropic Filtering als ATI? (Es gab doch so 'ne Spekulation, dass Nvidia per Patch die Isotropische Filterung verbessern will und das adaptive AF optional macht)

deekey777
2004-05-04, 20:00:55
Original geschrieben von Quasar
Wie hast du die zum Laufen gekriegt? Bei mir kommt immer die Fehlermeldung, es würden keine PS2.b-Caps gefunden und ich solle mir doch eine X800 anschaffen...

Der Link ist ein Quicktime Movie (.mov) ;D

Aber die Demo läuft leider nicht...auf meiner 9800 Pro. :...(

kami
2004-05-04, 20:02:42
Hier in MPEG

Ruby (http://www2.ati.com/misc/demos/ATI-X800-DoubleCross-Demo-v1.0.mpg)
Subsurface (http://www2.ati.com/misc/demos/ATI-X800-Subsurface-Demo-v1.0.mpg)

Quasar
2004-05-04, 20:03:18
Original geschrieben von deekey777
Der Link ist ein Quicktime Movie (.mov) ;D

Aber die Demo läuft leider nicht...auf meiner 9800 Pro. :...(

Es gibt dazu aber auch eine .exe mit ~137MB. Die läuft auf meiner R9800p leider auch nicht. Aber dildo4u hat die Demo ja angeblich in Echtzeit gesehen..... :eyes:

St@N
2004-05-04, 20:03:38
@love wenn ps3.0 mehr als 30% mehr performance bringt und nvidia damit klar in führung liegt in mehr als 10 spielen dann bist du mein guru :D


zu dem video: iss geil aber bei manchen szenen siehts beschissen aus...vor allem: wenns bissl weiter weg iss wird gleich bissl unscharf?! schafft wohl doch noch net ganz :(

LovesuckZ
2004-05-04, 20:04:38
Original geschrieben von St@N
@love wenn ps3.0 mehr als 30% mehr performance bringt und nvidia damit klar in führung liegt in mehr als 10 spielen dann bist du mein guru :D


Solltest nicht soviel traeumen :)

dildo4u
2004-05-04, 20:04:43
Original geschrieben von Quasar
Es gibt dazu aber auch eine .exe mit ~137MB. Die läuft auf meiner R9800p leider auch nicht. Aber dildo4u hat die Demo ja angeblich in Echtzeit gesehen..... :eyes: hab mich falsch ausgedrückt ick mein das ist die beste grafik die ich gesehen habe die in echtzeit berechnet wird

-error-
2004-05-04, 20:05:38
So wie siehts denn nun mit ATIs Treiberrevolution aus? Ist jetzt etwas näher bekannt geworden?

[dzp]Viper
2004-05-04, 20:05:56
Für Leute die die Quicktimevideos ansehen wollen und KEIN quicktime installieren wollen:

http://www.videolan.org/vlc/

Dieser Player spielt sogut wie ALLES ab (ohne zusätzliche Codecs.. fragt mich nicht wie er das macht - aber er macht es :freak: )
Er installiert sich auch nicht, da es eine ZIP ist (also keine nervigen reg einträge :up: )

St@N
2004-05-04, 20:06:17
Original geschrieben von LovesuckZ
Solltest nicht soviel traeumen :)

sowas hartes steck ich schon in die kat. FEUCHTER TRAUM :D (denn geil wärs :D :P)

Lustiger Troll
2004-05-04, 20:06:35
Original geschrieben von St@N


zu dem video: iss geil aber bei manchen szenen siehts beschissen aus...vor allem: wenns bissl weiter weg iss wird gleich bissl unscharf?! schafft wohl doch noch net ganz :(

Liegt wohl am AF *eg*.

kami
2004-05-04, 20:06:55
Original geschrieben von [dzp]Viper
Für Leute die die Quicktimevideos ansehen wollen und KEIN quicktime installieren wollen:
http://www.videolan.org/vlc/
Dieser Player spielt sogut wie ALLES ab (ohne zusätzliche Codecs.. fragt mich nicht wie er das macht - aber er macht es :freak: )

Der bringt seine Codecs selber mit. :)

seahawk
2004-05-04, 20:08:36
Original geschrieben von F4711
schon den Test auf Chip online gelesen ?
die in Bälde auf uns zukommenden "Kracher" sollen
das angeblich bereits unterstützen (leider keine Quellenangabe aber gehen wir einmal davon aus, daß die
Redakteure das sich nicht aus den Fingern gesogen haben).

gruß

Und, wieviele Kracher sollen auch schon SM3 nutzen :D

Ist momentan ein absoluter Gleichstand

Witz komm raus
2004-05-04, 20:09:37
Original geschrieben von LovesuckZ
[...]



Ja, Speed. Soviel besser auch nicht, dafür deutlich weniger Features. AA? Nunja, keine verbesserung und kein SS. "Spiele mit hohen Qualitätsenstellungen" sind auch auf der Nvidiahardware schnell. Da sehe ich nun keinen Vorteil der ATi hardware...

[...]


Ich sehe das von der Geforce 6800 Ultra aus gesehen die Radeon X800 XT satte +40% schneller ist mit vollen Quali-Optionen. (NV: 54 FPS/ ATI: 75 FPS - 4xAA sowie 8xaF) Aber natürlich sieht da niemand einen Vorteil für ATI. Jeder kauft sich lieber eine Geforce, knallt zu den 54 FPS noch PS3.0 dazu und freut sich das er mit 40 FPS durch die Gegend schleicht. Super, das ist Fortschritt im Sinne von NVIDIA. Auf das wir in 6 Monaten das nächste Speedupgrade brauchen und deren Karte kaufen. Die Radeon 9700 war geschwindigkeitsmäßig eine OFFENBARUNG, die X800 XT ist es AUCH!!! Brachiale Power für hohe Auflösung und geglättete Kanten sowie ein aF was gleich dem der neuen Geforce ist, was will man mehr? Ahja, ich vergaß Strom sparen. :D Sieh es wie es ist, ATI hält weiter das Zepter hoch. Ich freu mich schon auf die PCGH, dort stehen wohl letztlich die gleichen Benchmarks drin. Lovesuckz, tuts nicht langsam weh? Du bist der einzige der wie ein Fels in der Brandung steht, und alles was am NV40 nicht so pralle ist uns als "Feature" zu verkaufen.


http://www.hothardware.com/articleimages/Item517/fc1024.png

Aquaschaf
2004-05-04, 20:10:47
Original geschrieben von LovesuckZ
Sie haben es wenigsten verbessert. Das kann man vom ATi's Cheat AF nicht sagen. Das man das AF verschlechtert hat, scheint anscheinend nicht schlecht gewesen zu sein, da viele nur den Speed sehen. IQ? ja bitte glatte Kanten, die Texturen koennen ja davonschwimmen...
Wenn du die zusaetzlichen Features jetzt nicht brauchst, brauchst du sie bestimmt auch nicht in der Zukunft. denn, wenn dir jetzt der Speed wichtig ist, bleibe so konsequenz und benutze nie den SM3.0 Pfad.

Jetzt mal nicht so agressiv. Der Begriff "Cheat" ist doch nicht angebracht, NV's AF bezeichnest du glaub ich auch nirgendwo als Cheat-AF?
Bei weitem nicht jedes Spiel benutzt Alphatesting, und es werden in Zukunft nicht mehr werden. Abgesehen davon ist die durch 2x1SS resultierende Glättung auch nicht der Hammer. Wenn ich mir dann noch anschaue um wieviel 6xMSAA schneller ist als der 8x-Mischmodus(ja, ja ich leg immer nur auf die Spielbarkeit - pardon - Geschwindigkeit wert).
Also kann ich 6xMSAA wenigstens in hohen Auflösungen oft genug benutzen.
Und was ist das denn bitte für ein doofes Argument? Wäre es von einem Geforce4 Benutzer konsequent gewesen keine Karte mit PS2.0 zu kaufen, weil er ja eine PS1.3 Karte gekauft hat und sich damit verpflichtet hat neueren Technologien für alle Zeiten zu entsagen?
Also deiner Bitte kann ich nicht entsprechen, sollte ich trotz meiner Verblendung irgendwann zu der Eingebung gelangen SM3.0 Hardware zu brauchen werde ich mir die auch zulegen.

Fadl
2004-05-04, 20:11:03
Original geschrieben von LovesuckZ
Natuerlich ist sie langsamer. Ich bestreite doch solche belegbaren Sachen nicht.
Aber sie ist nur in wenigen Spielen so weit deutlich schneller, dass man die Featurelosigkeit zur Seite draengen könnte.

Dann sage mir mal warum NVidia bis heute kein gamma-korrektes Anti-Aliasing anbietet?
Ist das nicht sogar ein Feature welches in heutigen Games Sinn macht?

Das ganze alberne ATI gebashe wird langsam haltlos.
ATI hat heute halt 2 sehr schnelle Karten vorgestellt die wohl etwas schneller ist als von einigen NVidia Fans gewünscht. Ich erinnere mich da nur an einige Kommentare vor der Vorstellung der R420 die das nie für möglich hielten...
Nun ist es aber so eingetreten das ATI wohl die etwas schnellere Karte im Angebot hat und schon wird darauf eingedroschen das PS3.0 fehlt. Also ob wir das nicht schon vorher gewusst haben....

Mir ist es absolut egal welche Marke die bessere/schnellere Karte anbietet.
Gekauft wird halt das was die meiste Leistung fürs Geld bietet. Und da sehr viele Benches relativ dicht beieinander sind kommt und das in Form von einem Preiskampf ja vielleicht allen zu gute.

Seraf
2004-05-04, 20:11:24
Original geschrieben von Desire
So wie siehts denn nun mit ATIs Treiberrevolution aus? Ist jetzt etwas näher bekannt geworden?

Vielleicht das neue Klickibunti CP :freak:

http://www4.ncsu.edu/~eghalley/ace.jpg

Holztroll
2004-05-04, 20:12:16
Original geschrieben von checky
lovesuchZ:
"Das wird sich dann ja zeigen, wenn Nvidia den nächsten offiziellen Vorstellt und die Videofunktionen endlich vernünftig implantiert."

also jetzt wirds aber richtig albern, jetzt vergleicht hier jemand schon dinge, die erst noch eingebaut werden müssen...



ES REICHT!!!!!!!!!!!!!!!

Lass ihn doch weiter Schwächen als Feature verkaufen. :D

kami
2004-05-04, 20:13:06
Mir gefällt das CP - ist schön aufgeräumt. :)

St@N
2004-05-04, 20:13:22
Original geschrieben von Lustiger Troll
Liegt wohl am AF *eg*.

ok den fand ich sogar gut obwohl ich im mom eher auf ati halt :D

;D

dildo4u
2004-05-04, 20:14:09
http://www.hothardware.com/articleimages/item517/big_shadermark.png

Shadermark rot bedeutet schnellster wert aller karten

Passagier
2004-05-04, 20:14:13
Original geschrieben von LovesuckZ
Wenn man keine Ahnung hat...
irgendwie haben sie in jetzige Treiber keine Unterstuetzung für einige Formate (?). Dadurch läuft das alles nichts. Deswegen sollte man erstmal warten. Klappt es beim ersten offiziellen Treiber nicht, dann könnt ihr rummeckern.

So hats damals beim NV30 und NV35 auch getönt. ;)

seahawk
2004-05-04, 20:17:36
Original geschrieben von dildo4u
http://www.hothardware.com/articleimages/item517/big_shadermark.png

Shadermark rot bedeutet schnellster wert aller karten

Langsam gesht Du mir auf den Sack. Wenn Du Deine reine Fanboypropaganda verbreiten willst, dann geh auf die Spielwiese.

So ist doch keine Diskussion möglich.

LovesuckZ
2004-05-04, 20:18:08
Original geschrieben von Aquaschaf
Wenn ich mir dann noch anschaue um wieviel 6xMSAA schneller ist als der 8x-Mischmodus(ja, ja ich leg immer nur auf die Spielbarkeit - pardon - Geschwindigkeit wert).
Also kann ich 6xMSAA wenigstens in hohen Auflösungen oft genug benutzen.

Sage ich, man sollte es nicht einsetzen? Nur ist 6xMSAA eben langsamer als 4xMSAA, wenn nicht die CPU limitiere.

Und was ist das denn bitte für ein doofes Argument? Wäre es von einem Geforce4 Benutzer konsequent gewesen keine Karte mit PS2.0 zu kaufen, weil er ja eine PS1.3 Karte gekauft hat und sich damit verpflichtet hat neueren Technologien für alle Zeiten zu entsagen?

Wenn jemand sagt, er benötige keine SM2.0 Hardware, dann ja.

Also deiner Bitte kann ich nicht entsprechen, sollte ich trotz meiner Verblendung irgendwann zu der Eingebung gelangen SM3.0 Hardware zu brauchen werde ich mir die auch zulegen.

Du nutzt Nvidia's drang zum Fortschritt aus. Irgendwie seltsam, dass es dann doch eigentlich wichtig war, dass jemand mit SM3.0 faehige Hardware auf dem markt kam.
Aber warumr ed ich: Was ATi macht ist am besten und spästesten bei der ATi fähigen SM3.0 Karte wird es als "wichtig", "genial" und "kaufargument" beschrieben...

LovesuckZ
2004-05-04, 20:18:41
Original geschrieben von Passagier
So hats damals beim NV30 und NV35 auch getönt. ;)

Immerhin, 100% war mit dem Shadercompiler drin :D

[dzp]Viper
2004-05-04, 20:19:00
Original geschrieben von seahawk
Langsam gesht Du mir auf den Sack. Wenn Du Deine reine Fanboypropaganda verbreiten willst, dann geh auf die Spielwiese.

So ist doch keine Diskussion möglich.

jetzt mal ganz ruhig - das finde ich nämlich ziemlich interessant....

ausserdem sind wir doch im Offizieller R420 / Radeon X800 Thread oder?? Also kann man doch auch sowas hier posten...

Was ist daran bitte Fanboypropaganda? :no:

Redneck
2004-05-04, 20:19:42
http://www.tomshardware.com/graphic/20040504/index.html

vielleicht schon bekannt...wat solls..

dildo4u
2004-05-04, 20:20:14
Original geschrieben von seahawk
Langsam gesht Du mir auf den Sack. Wenn Du Deine reine Fanboypropaganda verbreiten willst, dann geh auf die Spielwiese.

So ist doch keine Diskussion möglich. hui was? warum propaganda wollte hier nur mal ein paar theoretische werte liefern da find ick shadermark besser als 3Dmurks2003 sorry

seahawk
2004-05-04, 20:21:08
Original geschrieben von [dzp]Viper
jetzt mal ganz ruhig - das finde ich nämlich ziemlich interessant....

ausserdem sind wir doch im Offizieller R420 / Radeon X800 Thread oder?? Also kann man doch auch sowas hier posten...

Was ist daran bitte Fanboypropaganda? :no:

Weil er konstant nur Sachen postet, wo es einen deutlichen Vorteil für den R420 gibt. Ihm geht es nicht um die Analyse der Ergebnisse, sondern nur darum die Überlegenheit von ATI mit dem Vorschlaghammer zu verbreiten.

Mein Gott, dass die R420 die schnellere Karte ist, braucht man doch gar nicht mehr diskutieren.

huhahi
2004-05-04, 20:23:11
@ Lovesuckz:

Was zum 8xAA des NV40:

http://www.de.tomshardware.com/graphic/20040504/images/image063.gif

Ein Wort noch dazu: unspielbar!

seahawk
2004-05-04, 20:23:25
Original geschrieben von dildo4u
hui was? warum propaganda wollte hier nur mal ein paar theoretische werte liefern da find ick shadermark besser als 3Dmurks2003 sorry

Gegen den einzelnen Post habe ich nichts, aber die MAsse ist bei Dir deutlich pro ATI eingefärbt. So was läst keine vernünftige Diskussion zu. (gilt auch für bestimmte NVidioten)

[dzp]Viper
2004-05-04, 20:23:28
Original geschrieben von seahawk
Weil er konstant nur Sachen postet, wo es einen deutlichen Vorteil für den R420 gibt. Ihm geht es nicht um die Analyse der Ergebnisse, sondern nur darum die Überlegenheit von ATI mit dem Vorschlaghammer zu verbreiten.

Mein Gott, dass die R420 die schnellere Karte ist, braucht man doch gar nicht mehr diskutieren.

toll - dann sag aber bitte auch was gegen lovesuck.. er ist auch nicht gerade produktiv an der diskussion und versucht alles schlechtzureden....

Hier gibt es wesentlich schlimmer ATI und NV fanboys als Dildo4u...

Vertragt euch mal wieder... ist ja wie im Kindergarten :no:

dildo4u
2004-05-04, 20:23:42
Original geschrieben von seahawk
Weil er konstant nur Sachen postet, wo es einen deutlichen Vorteil für den R420 gibt. Ihm geht es nicht um die Analyse der Ergebnisse, sondern nur darum die Überlegenheit von ATI mit dem Vorschlaghammer zu verbreiten.

Mein Gott, dass die R420 die schnellere Karte ist, braucht man doch gar nicht mehr diskutieren. ok aber warum soll ich was nehem z.B3Dmurks2003 owhwol das von den treibern von beiden ati und nvidia schon zu tode optemiert worden ist

Lustiger Troll
2004-05-04, 20:23:59
Original geschrieben von seahawk

Mein Gott, dass die R420 die schnellere Karte ist, braucht man doch gar nicht mehr diskutieren.

Bisher habe ich die 6800UE nirgends gesehen :???:. Vielleicht ein Link, wäre nett, danke.

LovesuckZ
2004-05-04, 20:25:11
Original geschrieben von Lustiger Troll
Bisher habe ich die 6800UE nirgends gesehen :???:. Vielleicht ein Link, wäre nett, danke.

http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/page17.asp

seahawk
2004-05-04, 20:25:20
Ja, sorry manchmal nervt mich das "NV ist besser als ATI udn umgekehrt" Geschreie hier.

Mich würde einfach mehr intressieren wie und warum es zu den Ergebnissen kommt.

Majestic
2004-05-04, 20:26:58
Original geschrieben von Lustiger Troll
Bisher habe ich die 6800UE nirgends gesehen :???:. Vielleicht ein Link, wäre nett, danke.

Oder auch hier http://www.tecchannel.de/hardware/1384/index.html

Lustiger Troll
2004-05-04, 20:27:52
Danke euch beiden.

tRpii
2004-05-04, 20:29:17
ich kann nur sagen:

nen A64 (939 & AGP - nix PCI-E alphamurks) und ne X800XT oder 6800 Ultra+

||
\/

:sabber: