PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller NV40 / GeForce 6800 Thread


Seiten : 1 2 3 [4] 5 6 7 8 9 10 11 12 13 14

Leonidas
2004-04-16, 08:25:18
Original geschrieben von LovesuckZ
Ihr solltet bei Farcry auch nur die Benches beachten, welche im inneren aufgenommen wurden. Da befinden sich die meisten Shader: http://www20.tomshardware.com/graphic/20040414/feforce_6800-41.html



Ja und Nein. Dort befinden sich zwar die meisten Shader, richtig. Aber Außenlevel sind nun einmal immer leistungsfressender als Innenlevel. Insofern gleicht sich das aus.

Leonidas
2004-04-16, 08:26:25
Original geschrieben von Gast
Warum erzählt 3DCenter das die Karte ruhig ist,das stimmt nicht !

PcWelt und Gamestar haben die Lautstärke gemessen und dabei kamm über 7 Sone raus. Das ist abartig laut ,Pcwelt schreib das sich die Karte wie ein Staubsauger anhört.





Update im Artikel:

In anderen NV40-Tests wurde die Geräuschentwicklung allerdings teilweise nicht so positiv wie bei uns bewertet. Möglicherweise handelt es sich dabei allerdings um einen Fehler des jeweils eingesetzten NV40-Testsamples. Uns ist zumindestens ein Fall bekannt, wonach nachweislich die hohe Lautstärke eines NV40-Testsamples auf einen Fehler (vermutlich der Lüftersteuerung) zurückging. Insofern gehen wir derzeit davon aus, daß die Geräuschentwicklung des bei uns im Test befindlichen NV40-Samples den Normalzustand trifft.



Eine Karte mit 50 dBA bzw. 7 Sonne würde ich niemals als leise bezeichnen - nicht bei meinem super-empfindlichen Gehör.

Leonidas
2004-04-16, 08:28:03
Original geschrieben von Fadl
Gibt es eigentlich nirgends ein 6800 non Ultra Review?
Oder hat NVidia bisher nur 6800 Ultra Karten ausgeliefert?

zum Preis

nvnews.net schreibt:
"The GeForce 6800 Ultra is expected to retail for $499, while the GeForce 6800 will debut at $299"

Auf 3dcenter steht:
"Preislich wurde die GeForce 6800 Ultra im übrigen mit 399 Dollar US-Listenpreis angegeben"

Was ist nun richtig?



NV sagte früher noch 499/399. Nun aber ist 399/299 die offizielle Lesart. Oder ich irre mich.

Leonidas
2004-04-16, 08:29:35
Original geschrieben von seahawk
Dies ist aber in der PRaxis wohl seltenst der Fall.



Außer dem Booten bei mir: Nie. Und ich hab dem Rechner auch FC + UT2004 mit 5 fps angetan, wo sich die CPU sicherlich langweilte und die gfx auf vollster Leistung laufen musste.

Leonidas
2004-04-16, 08:31:18
Original geschrieben von LovesuckZ
Aber schoeneres von Hexus.net:
High Quality apparently turns off angle-adaptive anistropic filtering, for which the ability to do so would have been a boon for these initial articles on NV40, so we can evaluate its effects. A further article will have to do, fix it ASAP please, NVIDIA.



Ich denke, daß ist eine überschwengliche Vermutung ohne wirkliche Grundlage.

Leonidas
2004-04-16, 08:35:33
Original geschrieben von Demirug
Der wird aber nicht mit DX 9.0b aktiviert. 9.0c darf aber noch keiner ohne besondere Genehmigung in öffentlichen Benchmarks benutzten.



Oh. Hätte ich das gewußt, hätte ich das gemacht.

Mehrpack
2004-04-16, 08:38:59
Original geschrieben von LovesuckZ
Das Ding ist ein Single-Slot-Kühler, sieht man schön hier (http://www.beyond3d.com/forum/viewtopic.php?p=258437#258437).

hi,
hast recht, hab ich gestern abend garnet gesehn.
nunja dann bin ich mal auf die lautstärke gespannt.

Mehrpack

Leonidas
2004-04-16, 08:42:27
Original geschrieben von Jenaq
2. Warum Call of Duty dermasen hohe FPS auswirft kann keiner Erklären oder ^^ Liegts an den guten NV-OpenGL Extensions?




Spiel läuft einfach rasend schnell auf heutiger HW - bis auf wenige Level wie Brecourt.

Leonidas
2004-04-16, 08:52:34
Original geschrieben von Odal
- ps 3.0 vs 3.0


R420? Nada.

Leonidas
2004-04-16, 08:53:19
Original geschrieben von LovesuckZ
Demonstrativ muss ich einfach die HL2 Beta ergebnisse von xbitlabs.com dir zeigen: http://www.xbitlabs.com/articles/video/display/nv40_29.html




Spiel wird komplett überarbeitet, Benchmarks sind fast ohne jede Relevanz.

Leonidas
2004-04-16, 08:55:11
Original geschrieben von Gast
nein auch unser Versagen oder kannst du mir erklären, wieso die überwältigende Mehrheit dies bei ATI einfach nicht kritisieren wollte?
Brauchtest dich nur im Forum hier umschauen.

Diesen Schuh müssen sich ganz klar
die User -> Kunden,
Reviewer und Zeitschriften
und natürlich Cheat-Verein ATI anziehen.

Ich sage nicht dass Nvidia nicht auch cheatet. Ich sage nur, dass ich derartiges AF als Cheat ansehe und immer angesehen habe. Das wurde im Zuge der Massenhysterie in keinster Weise mit der entsprechenden und notwendigen Härte berücksichtigt und deshalb brauch jetzt auch keiner ankommen und weinen.
Da kann sich jeder an seine eigene Nase fassen.



Ja.



Original geschrieben von thop
Lieber Gast, dir muss der 3DC Artikel "ATI-Filtertricks" entgangen sein.

Kam wohl zu spät, war zu einzeln.

MuLuNGuS
2004-04-16, 09:01:25
komplett überarbeitet..nach einer bisherigen entwicklungszeit von 5 jahren ??

trifft das auch auf den renderer zu ??
wenn das tatsächlich der fall ist könnte sich das ding ja doch noch zu Half-Life-Forever entwickeln...(was ich nicht hoffe)

Leonidas
2004-04-16, 09:01:59
Original geschrieben von Gast
Ich wollte mal wissen, wie sich es mit dem Gerücht zum Transistor-Count (175 vs. 210 vs. 222 Transistoren) vor der Präsentation verhält? Absichtlich gestreut von Nvidia? Und wenn ja, wieso?


Ja, absichtlich gestreut. Zum einen, um herauszufinden, wer denn solche Infos leakt. Und zum anderen, um ATi zu verwirren - die sollten so lange wie möglich von 8x1 ausgehen.

Leonidas
2004-04-16, 09:14:04
Original geschrieben von Odal
achso :D ich dachte ihr durftet die karte behalten ;)



Waaah ... schön wärs.

Leonidas
2004-04-16, 09:14:48
Original geschrieben von Hellfire-Torrod
Mal ne dumme frage : was is dieses "low-k" eigendlich?


http://www.heise.de/newsticker/meldung/44346

Demirug
2004-04-16, 09:15:59
Original geschrieben von Leonidas
Ja und Nein. Dort befinden sich zwar die meisten Shader, richtig. Aber Außenlevel sind nun einmal immer leistungsfressender als Innenlevel. Insofern gleicht sich das aus.

Ich denke mal das Farcry im Innen und Aussenbereich unterschiedliche Teile des Chips belastet. Habe aber leider noch nicht die richtigen Tools um das genauer zu untersuchen.

Leonidas
2004-04-16, 09:17:24
Original geschrieben von MuLuNGuS
komplett überarbeitet..nach einer bisherigen entwicklungszeit von 5 jahren ??

trifft das auch auf den renderer zu ??
wenn das tatsächlich der fall ist könnte sich das ding ja doch noch zu Half-Life-Forever entwickeln...(was ich nicht hoffe)


Naja, ok, nicht sooo komplett. Aber eben aus einem fertigen Zustand nochmal neu aufgelegt - so daß der Code umgeschrieben ist und niemand sich mittels des Leaks in das Spiel hacken kann. Und natürlich baut man in dieser langen Zeit zusätzliche Optimierungen + Techniken ein, wenn man sieht, daß diese sinnvoll/notwendig sind. Die Performance-Charakteristik des Spiels kann also völlig anderes aussehen.

Stebs
2004-04-16, 09:19:39
Original geschrieben von MuLuNGuS
hmm,

der lüfter scheint dem referenzteil aber auch nur nachempfunden worden zu sein..


Es scheint 2 Referenzkühler zu geben?
Einmal den von den meisten bisherigen Reviews bekannten, der 2 Slots belegt und wo die "Kerbe" in der Gehäuseform oben ist, also weg vom AGP-Port. Dann gibts noch den, der auf den Präsentationsbildern zu bewundern ist und nur 1 Slot breit zu sein scheint. Da ist eine "Kerbe" unten, also zum AGP-Port hin.
Beides wird von mehreren Herstellern benutzt.
Asus scheint den 2-Slot Kühler benutzt zu haben aber dabei die Höhe des Gehäuses verringert zu haben.

Mannomann ich schreib aber ein wirres Zeug ;D ,sollte mich mal langsam schlafen legen :D

Radeonator
2004-04-16, 09:35:13
Original geschrieben von deekey777
Hm? Bisher kann man behaupten, dass 90% aller aktuellen TWIMTBP Spiele auf einer R3x0 besser laufen als auf einer FX. ;D
Im Ernst: Das ist schon klar, dass kein Spielehersteller (ausser VALVe) es sich leisten kann, die Besitzer einer Konkurrenzgrafikkarte zu benachteiligen (auch id zählt dazu).

Aha...wäre mir neu. Fast alle auf der Unreal Engine laufenden Games sowie fast alle OGL Games performen im raw Modus auf FXen besser.

Das TWIMTBP Programm bedeutet auch eher kompatibilität , denn einfach nur höhere Performance. Das es da auch sehr negative Bsp. gibt ist klar, da es genügend unfähige Progger und die PS2.0 probs bei nV gibt ;)

aths
2004-04-16, 09:41:00
Original geschrieben von SKYNET
hirngespinster irgentwelcher ATI fanboys die meinten die NV40 schlecht zumachen. Nein. 150 Watt war die Obergrenze, mit der NV hantiert hat. Die eigentliche Karte nimmt ja keine 150 Watt. Imo in der gleichen Schublade einzuordnen wie das mit dem 480-Watt-Netzteil. Jetzt ist jeder "erleichtert", dass es nicht unbedingt 480 Watt sein müssen.

Radeonator
2004-04-16, 09:42:19
Original geschrieben von Leonidas
Ja und Nein. Dort befinden sich zwar die meisten Shader, richtig. Aber Außenlevel sind nun einmal immer leistungsfressender als Innenlevel. Insofern gleicht sich das aus.

Bei Farcry ist es aber eher so, das man in Aussen Arealen null performance Probs hat, in innen Arealen aber schon(PS schwäche der FXen würde hier als Grund natürlich einiges erklären;) ). Ist es nicht so das die culling Massnahmen eher in Aussen Arealen greifen können, da dort viel mehr zum "wegschneiden" vorhanden ist, als in innen Arealen?

Stebs
2004-04-16, 09:44:12
Ach ja, bezüglich der seltsamen Ergebnisse zu Farcry:

(Wilde Spekulation an)

Der 1.1 Patch soll ja nun einen NV40-Pfad haben, könnte es nicht sein dass dieser eben prinzipiell nur darin besteht dass neu für Shader 3.0 compiliert wurde?
Und da mangels DirectX9c der Shader 3.0 "Pfad" noch nicht richtig funktionniert die Geforce 6800 Ultra sozusagen zwichen den Seilen hängt und manches auf NV30-Pfad zurückfällt aber anderes eben nicht da dieser Modus so von den Entwicklern nicht gedacht war (ohne DirectX9c)?

(Wilde Spekulation aus)

Jemand :D sollte mal rausfinden ob DirectX9c die Farcry "Probleme" beseitigt, irgendwie hat es Nvidia ja bei der Präsentation geschafft mit Farcry Shader 3.0 zu zeigen. (Muss ja kein öffentlicher Benchmark dabei rauskommen ;) )

Und wie weit sind die Arbeiten an DirectX9c eigentlich, schon Beta-Test?

Fadl
2004-04-16, 09:51:53
Original geschrieben von Radeonator
Bei Farcry ist es aber eher so, das man in Aussen Arealen null performance Probs hat, in innen Arealen aber schon(PS schwäche der FXen würde hier als Grund natürlich einiges erklären;) ). Ist es nicht so das die culling Massnahmen eher in Aussen Arealen greifen können, da dort viel mehr zum "wegschneiden" vorhanden ist, als in innen Arealen?

Also bei mir ist das eher umgekehrt.
In den Aussenarealen bricht die Framerate teilweise auf 20FPS ein. Die Innenlevel laufen soweit eigentlich alle flüssig.
Mein Rechner hat eine P4 2.8 CPU 1GB RAM und eine ATI 9800Pro.
Gamesettings: 1280x1024 Details auf High/Ultra.
Daher würde mich mal interessieren welche Einstellungen du spielst und welchen Rechner du besitzt.

Kann ja sein das du eine FX Karte hast und die Details so eingestellt hast das die Aussenlevels gerade gut laufen. Die Karte dann aber mit den Shadern in den Innenlevels nicht mehr klarkommt und daher die Framerate einbricht.
Aber da NVidia Karten nach dem 1.1 Patch ja eigentlich nur noch 1.1 Shader bekommen dürfte dieses Einbrechen nicht vorhanden sein oder doch?

Allaha
2004-04-16, 10:22:19
Was mich wundert ist, warum beim Laden des Levels bei FarCry mit der NV40 "Loading Shaders for NV3X" steht? Das heíßt doch, dass die Karte die Optimierungen für 5900er-Karten mitlädt, das kann doch nur ne Blockade für die 6800U sein..

Lustiger Troll
2004-04-16, 10:28:21
Original geschrieben von Fadl
Aber da NVidia Karten nach dem 1.1 Patch ja eigentlich nur noch 1.1 Shader bekommen dürfte dieses Einbrechen nicht vorhanden sein oder doch?

Wie oft noch, die genauigkeit der Shader wurde geändert, es werden genau wie bei der Radeon PS 2.0 und Ps 1.1 gerendert.

aths
2004-04-16, 10:33:42
Original geschrieben von Allaha
Was mich wundert ist, warum beim Laden des Levels bei FarCry mit der NV40 "Loading Shaders for NV3X" steht? Das heíßt doch, dass die Karte die Optimierungen für 5900er-Karten mitlädt, das kann doch nur ne Blockade für die 6800U sein.. Der NV40 kommt sowohl mit für ATI optimierten, als auch mit für CineFX optimierten Shadern ganz gut zurecht. Vor allem die CineFX-Optimierungen sollen sich auf der NV40-HW nicht schädlich auswirken, hat Kirk gesagt.

Demirug
2004-04-16, 10:46:57
Original geschrieben von aths
Der NV40 kommt sowohl mit für ATI optimierten, als auch mit für CineFX optimierten Shadern ganz gut zurecht. Vor allem die CineFX-Optimierungen sollen sich auf der NV40-HW nicht schädlich auswirken, hat Kirk gesagt.

Im Gegenteil. Die mathematische Ausführungsdichte scheint mir bei 2.X Shader noch etwas höher als bei 2.0 Shader zu sein. Letzten Endes dürfte es ja auch egal sein ob der Treiber nun grosse Texturbefehl blöcke (PS 2.0) zerlegt oder eben immer nur die Texturbefehlspaare (PS 2.A).

Radeonator
2004-04-16, 10:47:59
Original geschrieben von Fadl
Also bei mir ist das eher umgekehrt.
In den Aussenarealen bricht die Framerate teilweise auf 20FPS ein. Die Innenlevel laufen soweit eigentlich alle flüssig.
Mein Rechner hat eine P4 2.8 CPU 1GB RAM und eine ATI 9800Pro.
Gamesettings: 1280x1024 Details auf High/Ultra.
Daher würde mich mal interessieren welche Einstellungen du spielst und welchen Rechner du besitzt.

Kann ja sein das du eine FX Karte hast und die Details so eingestellt hast das die Aussenlevels gerade gut laufen. Die Karte dann aber mit den Shadern in den Innenlevels nicht mehr klarkommt und daher die Framerate einbricht.
Aber da NVidia Karten nach dem 1.1 Patch ja eigentlich nur noch 1.1 Shader bekommen dürfte dieses Einbrechen nicht vorhanden sein oder doch?

Rechner steht in der Signatur
Einstellungen 1280x1024 alles auf max bis auf Wasser und FX auf Mittel bzw Hoch. Graka im CP auf Qual. + 8xAF OHNE FSAA
Takt der Graka auf 450/800. Einbrüche der Performance kommen in großen Hölen räumen, mit der neuen Forceware ist aber auch das besser geworden

p.s.: OS ist Win2000 SP4

Mark3Dfx
2004-04-16, 10:51:07
Wenn die Chipdesinger ALLE Wünsche der "Experten" implementieren würden gäbe es sicher den Überchip, aber für 10.000€ und das Geschrei wäre genauso groß wie jetzt hier, das dies und das fehlt oder schlecht umgesetzt ist.
Also bitte mal die wirtschaftlichen Relationen bedenken.

Ich hätte auch gern einen Porsche 911 GT3 RS für 20.000€
nur leider kann mir den Porsche für diesen Preis nicht liefern.
Warum wohl?

DrumDub
2004-04-16, 10:56:33
Original geschrieben von Radeonator
Hatte ich zwar schonmal geposted , abo auf den Flügeln kann man bei ATi deutlich jaggies erkennen, bei nV sieht das deutlich besser aus. Zudem sieht das nV Bild irgendwie klarer aus (alle screens). Nen Arbeitskollege ist nen absoluter ATi Fan , jedoch hat er ohne das ich was gesagt habt, sofort die Unterschiede gesehen (er hat selbst ne 9800XT).

die frage ist nur, wie soll das gehen, wenn das samplegrid bei4xrgsmaa identisch ist? oder hast du 6xrgmsaa und 8xs modus verglichen? dann machts natürlich sinn.

die unterschiede resultieren bei 4xrgmsaa lediglich aus der gammakorrektur bzw. deren fehlen: http://www.tech-report.com/reviews/2004q2/geforce-6800ultra/index.x?pg=23

hier ist die 6800u natürlich deutlich im vorteil wegen des 4xssaa-anteil: http://www.tech-report.com/reviews/2004q2/geforce-6800ultra/index.x?pg=24

dafür verliert sie aber auch 75% ihrer füllrate in diesem modus.

DrumDub
2004-04-16, 10:58:17
Original geschrieben von Lustiger Troll
Brille putzen, oder sieht das nach ner 2slotkühlung aus?
http://www.computerbase.de/picture/news/7466/13.jpg

nee. aber das ist ja auch keine ultra. ;D

Allaha
2004-04-16, 11:07:08
Heißt das jetzt, dass die Optimierungen gut oder schlecht sind?

Lustiger Troll
2004-04-16, 11:24:53
Original geschrieben von DrumDub
nee. aber das ist ja auch keine ultra. ;D

Das ist auf 100% eine Ultra, oder hat die Nonultra neuerdings 2 Stromanschlüsse :???:. :asshole:
Falls du es noch nicht bemerkt hast, es gibt 2 Referenzkühler.

2 Slot
http://www.computerbase.de/picture/news/7466/14.jpg

und 1 Slot
http://www.computerbase.de/picture/news/7466/15.jpg

Letzteres ist der neuere Referenzkühler von Nvidia.

Iceman346
2004-04-16, 11:33:21
Original geschrieben von Leonidas
Ja und Nein. Dort befinden sich zwar die meisten Shader, richtig. Aber Außenlevel sind nun einmal immer leistungsfressender als Innenlevel. Insofern gleicht sich das aus.

Kann ich so nicht bestätigen. Die Außenlevel laufen bei mir durchgehend flüssiger als die Innenlevel.

nggalai
2004-04-16, 11:41:21
Original geschrieben von Stebs
Ach ja, bezüglich der seltsamen Ergebnisse zu Farcry:

(Wilde Spekulation an)

Der 1.1 Patch soll ja nun einen NV40-Pfad haben, könnte es nicht sein dass dieser eben prinzipiell nur darin besteht dass neu für Shader 3.0 compiliert wurde?
Und da mangels DirectX9c der Shader 3.0 "Pfad" noch nicht richtig funktionniert die Geforce 6800 Ultra sozusagen zwichen den Seilen hängt und manches auf NV30-Pfad zurückfällt aber anderes eben nicht da dieser Modus so von den Entwicklern nicht gedacht war (ohne DirectX9c)?

(Wilde Spekulation aus)
Kollege hat's ausprobiert: Mit den 9.0c-Runtimes und Patch 1.1 werden offenbar keine PS3 verwendet, bei Far Cry.

93,
-Sascha.rb

Gast
2004-04-16, 11:51:19
Gibt es denn schon Infos wann die Runtime von 9.0c veröffentlicht wird? Welche Build ist es denn?

Argo Zero
2004-04-16, 11:58:13
Original geschrieben von Iceman346
Kann ich so nicht bestätigen. Die Außenlevel laufen bei mir durchgehend flüssiger als die Innenlevel.

Mit welchen Details spielst du denn?
Die Vegetation in den Außenlevel frisst bei mir nämlich auch ne Ecke mehr Performance.

deekey777
2004-04-16, 12:09:03
Original geschrieben von Iceman346
Kann ich so nicht bestätigen. Die Außenlevel laufen bei mir durchgehend flüssiger als die Innenlevel.

Kann ich leider auch nur bestättigen, draussen habe ich durchgehend den "38fps"-Bug (durchschnittlich 38 fps), drinnen fällt die Framerate manchmal unter 25 fps.

http://www.ystart.net/upload/20040416/1082110086.jpg
Zu der Wasserqualität: Eigentlich auf Hoch.

Rechner: 2500+@FSB 175MHz und eine 9800 Pro. Im CP alles auf hohe Quali bzw. Standard, V-Sync immer an.

Odal
2004-04-16, 12:09:18
Original geschrieben von Leonidas
R420? Nada.

nein meinte den nv40 .. als featuretechnische neuerung gegenueber seinem r3xx

Argo Zero
2004-04-16, 12:28:21
Mich wundert das schon, dass die Außenlevel bei euch schneller laufen.
Bei mir verfierfacht sich die Füllrate in einem Außenlevel und demnach geht auch die Framerate flöten.
Siehe auch hier:
Innen (http://www.websamba.com/argospace/farcry/1.jpg)
Außen (http://www.websamba.com/argospace/farcry/2.jpg)

Details sind auf Anschlag mit 2xAA und 4xTriAF

Iceman346
2004-04-16, 12:34:42
Original geschrieben von Argo Zero
Mit welchen Details spielst du denn?
Die Vegetation in den Außenlevel frisst bei mir nämlich auch ne Ecke mehr Performance.

Alles voll nur Schatten auf Mittel. 0xAA/8xAF übers CP erzwungen.

Ich habs grad nochmal mit Fraps getestet und ich kann sowohl Außenlevel finden die scheisse laufen (20-30 fps, beispielsweise bei Damm runtergeschaut oder bei Rebellion oben auf dem Turm bei dem Aufzug) als auch Innenlevel im Gleichen fps Bereich (einige Stellen in den Katakomben, oder Vulkan in dem Gang mit dem Kampf gegen die Securitytypen).
Also scheint meine Aussage nicht wirklich richtig zu sein, es schien nur auf mich so, dass in den Innenleveln die Maus stärker nachzieht, vielleicht ist mir das aber auch nur stärker aufgefallen weils in den Innenlevel mehr "Nahkampfaction" gibt und in den Außenleveln eher anschleichen angesagt ist.
BTW, ganz mies liefs bei mir in dem Labor mit den blauen Glasding in der Mitte. Kann mir jemand nen Speicherpunkt kurz davor nennen? Weiß nichtmehr genau in welchem Level das war.

Fadl
2004-04-16, 12:39:33
Also in Innenlevels habe ich selten Einbrüche bei den Frameraten.
Draussen kommt es schon mal öfters vor das es 20 Frames sind oder sogar mal drunter.
Ich denke auch das die vermehrte Anzahl der Polygone daran Schuld sind.
Vegetation habe ich auch auf voll stehen.

gnomi
2004-04-16, 12:42:02
Original geschrieben von Iceman346
Kann mir jemand nen Speicherpunkt kurz davor nennen? Weiß nichtmehr genau in welchem Level das war.

ich glaube das war Archiv&Speicherpunkt 2

deekey777
2004-04-16, 12:42:28
Original geschrieben von Argo Zero
Mich wundert das schon, dass die Außenlevel bei euch schneller laufen.
Bei mir verfierfacht sich die Füllrate in einem Außenlevel und demnach geht auch die Framerate flöten.
Siehe auch hier:
Innen (http://www.websamba.com/argospace/farcry/1.jpg)
Außen (http://www.websamba.com/argospace/farcry/2.jpg)

Details sind auf Anschlag mit 2xAA und 4xTriAF

Das ist sehr unterschiedlich, es liegt je nach Ort. Wenn es in manchen Räumen zu viele glänzende Oberflächen zu sehen sind, dann sehe ich 20-22 Frames mit meinen Einstellungen.

TheGood
2004-04-16, 12:55:20
andere frage aus welchen gründen platziert nvidia ihre grafikkarten preislich auf einmal bei 399 (6800 ultra) 299(3800)
MAcht doch imho keinen sinn??!!! ausser sie wissen dass der 12 pipe r420 gleich schnell sein wird als die 6800 ultra!!??

Hat wer noch andere SPekulationen bezüglich des "plötzlichen" Preisrutsches???

Fadl
2004-04-16, 12:57:48
Wo steht nun eigentlich das die Ultra 399$ kosten soll?
Das habe ich bislang nur hier bei 3dcenter gelesen.
Sonst lese ich immer nur 499$ für die Ultra und 299$ für die non Ultra.

DrumDub
2004-04-16, 12:59:31
Original geschrieben von Lustiger Troll
Das ist auf 100% eine Ultra, oder hat die Nonultra neuerdings 2 Stromanschlüsse :???:. :asshole:
Falls du es noch nicht bemerkt hast, es gibt 2 Referenzkühler.


hmm.. die karte, du in dem vorhergenden posting verlinkt hast, hat zwar zwei stromanschlüsse, aber auf der steht nix von ultra drauf.

könnet auch sein, dass die hersteller die 6800nu-lüfter auf 6800u pcbs verbaut haben, um die karten im schukasten zu zeigen, obwohle snoch keine 6800nu-pcbs gibt.

warten wirs einfach mal ab, wenn die karten verfügbar sind, welche lüfter drauf sind. msi wird ja soweiso wieder nen eigenes desgin haben.

Lustiger Troll
2004-04-16, 13:05:49
Original geschrieben von DrumDub
hmm.. die karte, die du als erstes gepostet hast, hat zwar zwei stromanschlüsse, aber auf der steht nix von ultra drauf.

könnet auch sein, dass die hersteller die 6800nu-lüfter auf 6800u pcbs verbaut haben, um die karten im schukasten zu zeigen, obwohle snoch keine 6800nu-pcbs gibt.

warten wirs einfach mal ab, wenn die karten verfügbar sind, welche lüfter drauf sind. msi wird ja soweiso wieder nen eigenes desgin haben.

Was soll am PCB gross anders sein, einen Molexanschluss weglassen, 128 MB DDR1 Ram raufpappen (denn es zur genüge von Samsung und Hynix gibt), die NU ist auch ein ganzes stück kürzer als die U. Das ist genau der Lüfter der auch bei der Presentation von Nvidia verwendet wurde, siehe hier (http://users.quick-line.ch/error/NV40/6800models_resize.jpg)

DrumDub
2004-04-16, 13:10:08
Original geschrieben von Lustiger Troll
Was soll am PCB gross anders sein, einen Molexanschluss weglassen, 128 MB DDR1 Ram raufpappen (denn es zur genüge von Samsung und Hynix gibt), die NU ist auch ein ganzes stück kürzer als die U. Das ist genau der Lüfter der auch bei der Presentation von Nvidia verwendet wurde, siehe hier (http://users.quick-line.ch/error/NV40/6800models_resize.jpg)

hmm... stimmt. hast recht.

Fadl
2004-04-16, 13:18:47
Original geschrieben von Lustiger Troll
Was soll am PCB gross anders sein, einen Molexanschluss weglassen, 128 MB DDR1 Ram raufpappen (denn es zur genüge von Samsung und Hynix gibt), die NU ist auch ein ganzes stück kürzer als die U. Das ist genau der Lüfter der auch bei der Presentation von Nvidia verwendet wurde, siehe hier (http://users.quick-line.ch/error/NV40/6800models_resize.jpg)

Die non Ultra hat auch eine andere Spannungsversorgung. Demnach sollte es einfach sein eine Ultra von einer non Ultra unterscheiden zu können.

Lustiger Troll
2004-04-16, 13:22:52
Original geschrieben von Fadl
Die non Ultra hat auch eine andere Spannungsversorgung. Demnach sollte es einfach sein eine Ultra von einer non Ultra unterscheiden zu können.

Nö die Spannungsversorgung ist dieselbe nämlich über den Molexanschluss ist zwar nur einer, ich denke du meinst die Spannungswandler :D.

Fadl
2004-04-16, 13:24:03
Genau die meinte ich ;-)

betasilie
2004-04-16, 13:28:33
Original geschrieben von Coda
9700 Pro ?
150€, wo eine neue 9800Pro unter 200€ zu haben ist?

betasilie
2004-04-16, 13:35:49
Original geschrieben von TheGood
andere frage aus welchen gründen platziert nvidia ihre grafikkarten preislich auf einmal bei 399 (6800 ultra) 299(3800)
MAcht doch imho keinen sinn??!!! ausser sie wissen dass der 12 pipe r420 gleich schnell sein wird als die 6800 ultra!!??

Hat wer noch andere SPekulationen bezüglich des "plötzlichen" Preisrutsches???
Das finde ich der Tat auch verdächtig. NV muss von ATI starke Konkurrenz erwarten, sonst könnten sie für ihre sicherlich von den Features her geniale Ultra-Karte auch mehr verlangen zum Start.

Winter[Raven]
2004-04-16, 13:42:04
Original geschrieben von betareverse
Das finde ich der Tat auch verdächtig. NV muss von ATI starke Konkurrenz erwarten, sonst könnten sie für ihre sicherlich von den Features her geniale Ultra-Karte auch mehr verlangen zum Start.

Es seih den, Nvidia will so schnell wie möglich die Verbreitung der Nv40 Karten erreichen auch wenn Nvidia mit ihrer NV40U schneller sein könnte.

Ich gehe eigentlich davon aus, dass Nvidia mit allem versuchen wird die an ATI verlorene Marktanteile wieder zugewinnen.

Und wie geht es am besten? Man bittet die Schnellste Graka zu wenig Geld an.

Xmas sagte doch, auch wenn der NV40 399$ kosten sollte, wäre es mehr als Rentabel für Nvidia.

Gastxy
2004-04-16, 13:42:24
Original geschrieben von Iceman346
Alles voll nur Schatten auf Mittel. 0xAA/8xAF übers CP erzwungen.

Ich habs grad nochmal mit Fraps getestet und ich kann sowohl Außenlevel finden die scheisse laufen (20-30 fps, beispielsweise bei Damm runtergeschaut oder bei Rebellion oben auf dem Turm bei dem Aufzug) als auch Innenlevel im Gleichen fps Bereich (einige Stellen in den Katakomben, oder Vulkan in dem Gang mit dem Kampf gegen die Securitytypen).
Also scheint meine Aussage nicht wirklich richtig zu sein, es schien nur auf mich so, dass in den Innenleveln die Maus stärker nachzieht, vielleicht ist mir das aber auch nur stärker aufgefallen weils in den Innenlevel mehr "Nahkampfaction" gibt und in den Außenleveln eher anschleichen angesagt ist.
BTW, ganz mies liefs bei mir in dem Labor mit den blauen Glasding in der Mitte. Kann mir jemand nen Speicherpunkt kurz davor nennen? Weiß nichtmehr genau in welchem Level das war.

Der Level ist Archiv. Denke sogar recht nah am Anfang.
Da gibts auch nen Speicherpunkt. Klick mal die Savegames von Archiv durch.

Ansonsten mit meiner 9700er Aussenlevels smooth, Innenlevels zum Teil katastrophal!

DrumDub
2004-04-16, 13:43:44
Original geschrieben von betareverse
150€, wo eine neue 9800Pro unter 200€ zu haben ist?

und ne neue 9700pro für 170€ neu zu bekommen ist: http://www.geizhals.at/deutschland/a38522.html

komischerweise tauchen jetzt auch wieder 9700np auf.

Marodeur
2004-04-16, 13:45:16
Jo, stimmt
http://www.geizhals.at/deutschland/a41451.html

Schon seltsam...

Gast
2004-04-16, 13:48:01
Original geschrieben von Iceman346
Alles voll nur Schatten auf Mittel. 0xAA/8xAF übers CP erzwungen.

Das ist aber schade - gerade die Schatten... :(

thop
2004-04-16, 14:00:52
Also von den 6800U Karten find ich irgendwie alle hässlich, die sind so klobig ;( Hoffentlich lässt sich da einer noch ein besseres Design einfallen. Die Sparkle fände ich sogar noch am besten, wenn das PCB rot wäre.

betasilie
2004-04-16, 14:03:27
Original geschrieben von Winter[Raven]
Es seih den, Nvidia will so schnell wie möglich die Verbreitung der Nv40 Karten erreichen auch wenn Nvidia mit ihrer NV40U schneller sein könnte.

Ich gehe eigentlich davon aus, dass Nvidia mit allem versuchen wird die an ATI verlorene Marktanteile wieder zugewinnen.

Und wie geht es am besten? Man bittet die Schnellste Graka zu wenig Geld an.

Xmas sagte doch, auch wenn der NV40 399$ kosten sollte, wäre es mehr als Rentabel für Nvidia.
Das könnte durchaus sein, aber dann frage ich mich, wieso sie ihre FX-Karten so teuer verkauft haben.

Die alten, "schlechten" Karten für viel Geld und die neuen, "guten" für wenig? Das ist irgendwie seltsam.

K29!ll3r
2004-04-16, 14:04:16
Was meint ihr, lohnt sich das Warten auf die Refreshes? Bzw, werden die "viel" schneller sein? Ich weiss, es ist nichts zu denen bekannt, aber was denkt ihr??
Die 6800 U juckt mich so... Kann ich da mit gutem Gewissen zu der greifen?

betasilie
2004-04-16, 14:05:51
Original geschrieben von K29!ll3r
Was meint ihr, lohnt sich das Warten auf die Refreshes? Bzw, werden die "viel" schneller sein? Ich weiss, es ist nichts zu denen bekannt, aber was denkt ihr??
Die 6800 U juckt mich so... Kann ich da mit gutem Gewissen zu der greifen?
Warte erstmal auf die ATI-Karten und dann auf die Preise der Karten hier in Europa. ... Ich werde dann noch ca. 8 Wochen warten, bis es den ersten Preisrutsch gibt.

thop
2004-04-16, 14:07:45
Wenn ATI zu dem Preis nichts besseres biete - 100% ja! Refreshes von nV wird es so schnell nicht geben, wenn ATI einigermaßen deutlich unterlegen sein sollte dann denke ich werden wir schon in sehr kurzer Zeit einen Refresh oder sowas in der Art von denen sehen.

K29!ll3r
2004-04-16, 14:08:14
Klar warte ich auf die ATI Karten...
Aber dann mache ich nichs falsch, wenn ich mir dann die 6800 U oder die X800 XT kaufe?

betasilie
2004-04-16, 14:09:33
Original geschrieben von K29!ll3r
Klar warte ich auf die ATI Karten...
Aber dann mache ich nichs falsch, wenn ich mir dann die 6800 U oder die X800 XT kaufe?
Sicher nicht. Die 6880Ultra ist ja schon ganz ordentlich geworden, vom R420 weiß man halt noch nichts genaues.

Es hängt halt alles vom Preis ab.

dildo4u
2004-04-16, 14:12:05
Original geschrieben von thop
Wenn ATI zu dem Preis nichts besseres biete - 100% ja! Refreshes von nV wird es so schnell nicht geben, wenn ATI einigermaßen deutlich unterlegen sein sollte dann denke ich werden wir schon in sehr kurzer Zeit einen Refresh oder sowas in der Art von denen sehen. was füe ne unterlegenheit es leuft wieder auf selbe hienaus NV hat mher feutures und ati hat dann weniger transitoren mher takt und so auch den höhern speed einziger unterschied diemsal ist die NV in PS2.0 nicht so abgrundtief unterlegen ist wie es die FX karten waren

Rampage 2
2004-04-16, 14:15:01
Original geschrieben von dildo4u
http://www.frazpc.pl/komentarz/10396
hier mal ein paar echte bilder der Asus NV40 leider mit referens lüfter frag mich warum.Grad asus hat ja immer auf eigene kühler designs gesetzt


http://people.freenet.de/Dildo4u/asusnv40.jpg

Also ich finde es sieht geil und und futuristisch aus - und das alles in sexy blue=)

HOT
2004-04-16, 14:17:02
Wenn beide Karten relativ nahe beieinander liegen und ATI den NV Vorteil mit Speed wettmachen kann, werden sich beide wohl sehr viel Zeit bis zum nächsten Refresh lassen.

Piffan
2004-04-16, 14:20:59
Original geschrieben von Gast
Das ist aber schade - gerade die Schatten... :(

Ich will auf die Schatten nicht verzichten, aber trotzdem gute Performance. So gehts: Im Spiel Schatten auf sehr hoch. Dann die system.ini des Spieles vorknöpfen: "stencil shadows" auf 0, "shadowmaps from static objects" (oder so ähnlich) auch auf "0". Folge: Nur noch Shadowmaps, mit der die R300 besser klarkommt und die auch imho schöner sind. Zweitens Wegfall der scharfen, flackernden Projektionen auf der Waffe, stattdessen auch auf der Waffe nur die weichen Maps, die besser mit den Schatten in der Umwelt korrelieren....

Wenn man gerade in der ini rumfummelt, dann den Wert "e_vegetation_sprites_distance_ratio = "1.000000"" unbedingt auf "2" setzen. Folge: Das elende Poppen der Pflanzen in der Nähe hört auf, die Vegetation wird ruhiger und glaubwürdiger....

Die Massnahmen sind sehr freundlich zur Performance, so dass sogar 2xAF und 2xFSAA überhaupt kein Problem mehr sind auf der Radeon 9700 (380 Mhz). Einstellungen im CP oder dem r-tool(TS) vornehmen!

Sorry für offtopic, aber es soll keiner glauben, dass FarCry auf "älterer" Hardware schlecht läuft oder schlecht aussehen muss ;)

Super Grobi
2004-04-16, 14:23:38
MICH KOTZT ES AN!!!

Soviel Details zur NV40. Demnächst werden noch alle Namen der Fabrikarbeiter samt Anhang und Familienstand veröffentlicht.

NORMALERWEISE sollte es doch möglich sein JETZ,HIER UND HEUTE sagen zu können was diese Karte bei uns kosten wird und wann man die kaufen kann. Schliesslich werden die Hardwarehändler schon geordert haben und die werden wohl kaum "blind" Ordern.

Ich dreh gleich durch
SG

p.s.
sorry für mein rumgeschreie!!!

Piffan
2004-04-16, 14:24:22
Original geschrieben von Rampage 2
Also ich finde es sieht geil und und futuristisch aus - und das alles in sexy blue=)

Sieht gut aus. Mir wäre aber ne Dual- Slot- Lösung lieber, bei der die warme Luft nach draußen gepustet wird!

Durch klar strukturierten Luftstrom lässt sich die Effiziens drastisch steigern und die Lautstärke vermindern...

deekey777
2004-04-16, 14:29:37
Original geschrieben von Piffan
Sieht gut aus. Mir wäre aber ne Dual- Slot- Lösung lieber, bei der die warme Luft nach draußen gepustet wird!

Durch klar strukturierten Luftstrom lässt sich die Effiziens drastisch steigern und die Lautstärke vermindern...

Wozu wurde der VGA-Silencer erfunden/enwickelt? Um kopiert zu werden! ;D Aber keiner traut sich.

Rampage 2
2004-04-16, 14:31:02
Okay, aths. Die Füllrate wird beim Einschalten von trilinear also halbiert - das kostet natürlich Leistung. Aber wieviel Leistung? Ich will den Leistungseinbruch für eine grakalimitierten Zustand wissen - also 1600x1200x32Bit @ 4xAA+16xAF bei Games wie Q3A,CoD,UT2004 (flyby)

deekey777
2004-04-16, 14:34:40
Spam:

Eins haben wir vergessen - der 6800 Ultra zum Geburtstag zu gratulieren!!!

:birthday:

Zum Thema: Ärgerlich sind immernoch die teilweise zu unterschiedlichen Ergebnisse in Far Cry, vielleicht sollte ein FC Benchmark kommen.

aths
2004-04-16, 14:38:27
Original geschrieben von Rampage 2
Okay, aths. Die Füllrate wird beim Einschalten von trilinear also halbiert - das kostet natürlich Leistung. Ja, natürlich.
Original geschrieben von Rampage 2
Aber wieviel Leistung? Ich will den Leistungseinbruch für eine grakalimitierten Zustand wissen - also 1600x1200x32Bit @ 4xAA+16xAF bei Games wie Q3A,CoD,UT2004 (flyby) Das solltest du mal nachbenchen :) Z. B. mit einer Radeon. Um die Graka-Last zu heben 16x AF rein, und dann bi vs. tri. Musste aber entweder OpenGL-Games nehmen, oder z. B. mit dem aTuner full tri in D3D einstellen.

aths
2004-04-16, 14:41:10
Original geschrieben von Winter[Raven]
Und wie geht es am besten? Man bittet die Schnellste Graka zu wenig Geld an.Marktanteil ist nicht alles :) Sonst würden die beiden ja auf Profit verzichten, um sich den größten Marktanteil zu sichern. Falls NV durch Preissenkung versucht, Marktanteile zu gewinnen, dann nur, um uns später so richtig abzumelken.
Original geschrieben von Winter[Raven]
Xmas sagte doch, auch wenn der NV40 399$ kosten sollte, wäre es mehr als Rentabel für Nvidia. Afaik sagte er, dass es dann noch rentabel sei (und nicht, "mehr als rentabel".)

deekey777
2004-04-16, 14:41:59
http://www.driverheaven.net/#article_12589

Thanks to Warp2search.net for the Info

HardwareOC have published three Pixel Shader 3 videos! 2 for Far Cry and 1 with the new Unreal engine.

Videos (http://www.hardwareoc.hu/index.php/p/news/y/4985.html)

Falls schon bekannt, bitte nicht gleich steinigen!

aths
2004-04-16, 14:46:15
Original geschrieben von Leonidas
Kam wohl zu spät, war zu einzeln. ... und wurde von allen möglichen Leuten zerrissen. Dabei hielt ich mich einigermaßen zurück. Es war einfach nicht "in", auch mal gegen ATI zu meckern. Obwohl es imo genug zu meckern gibt.

MagicMat
2004-04-16, 14:47:51
Original geschrieben von betareverse
Das könnte durchaus sein, aber dann frage ich mich, wieso sie ihre FX-Karten so teuer verkauft haben.

Die alten, "schlechten" Karten für viel Geld und die neuen, "guten" für wenig? Das ist irgendwie seltsam.


Vielleicht hatten sie bei den FX Karten noch geglaubt das diese auch teuer auf dem Markt erfolgreich würden, wurden dann aber eins besseren belehrt. Daraus haben sie gelernt und versuchen jetzt über den Preis marktanteile zurückzugewinnen.

Wenn die neuen "guten" Karten bei uns wirklich zu kaufen sind, werden doch die alten "schlechten" Karten im Preis fallen. Das zwei Tage nach offizieller Vorstellung noch kein Händler seine bestehenden Karten billig verschleudert dürfte klar sein.

HOT
2004-04-16, 15:19:26
Original geschrieben von MagicMat
Vielleicht hatten sie bei den FX Karten noch geglaubt das diese auch teuer auf dem Markt erfolgreich würden, wurden dann aber eins besseren belehrt. Daraus haben sie gelernt und versuchen jetzt über den Preis marktanteile zurückzugewinnen.

Wenn die neuen "guten" Karten bei uns wirklich zu kaufen sind, werden doch die alten "schlechten" Karten im Preis fallen. Das zwei Tage nach offizieller Vorstellung noch kein Händler seine bestehenden Karten billig verschleudert dürfte klar sein.

Das Schöne dabei ist ja, dass sogar die kleineren Kartenmodelle mit 8 oder 4 Pipes von der Speed das "Hauptchips" gut profitieren dürften. Allerding würde dann die 8 Pipe version wohl trotzdem mehr Transistoren in Anspruch nehmen als die 5900 :D

ow
2004-04-16, 15:25:24
Original geschrieben von HOT
Das Schöne dabei ist ja, dass sogar die kleineren Kartenmodelle mit 8 oder 4 Pipes von der Speed das "Hauptchips" gut profitieren dürften. Allerding würde dann die 8 Pipe version wohl trotzdem mehr Transistoren in Anspruch nehmen als die 5900 :D


Bei dem Mehr an Features wohl kaum verwunderlich.

ice cool69
2004-04-16, 15:41:29
Mal eine allgemeine Frage: Wird es einen Temperatursensor für die NV40 geben?

Wann werden wir erfahren ob der winkelunabhängige AF-Modus funktioniert oder nicht?

Edit: Sind eigentlich 2 Fragen :D

LovesuckZ
2004-04-16, 15:47:31
Original geschrieben von ice cool69
Mal eine allgemeine Frage: Wird es einen Temperatursensor für die NV40 geben?

JA.


Wann werden wir erfahren ob der winkelunabhängige AF-Modus funktioniert oder nicht?


Wenn ATi nachlegt.

ice cool69
2004-04-16, 16:23:03
Noch eine Frage: Ich habe einen AthlonXP 3200+. Passt dieser gut zur 6800Ultra oder sollte ich in Erwägung ziehen diesen zu übertakten?
Vielleicht ist mit mehr V-Core noch 2400 MHz drin, oder lohnt sich die Karte erst mit einem Athlon64?

Marodeur
2004-04-16, 16:28:59
Also wenn ich das richtig sehe haben alle Karten nur noch 2 DVI-Ausgänge oder irre ich mich da?

Da viele natürlich noch CRT-Monitore haben, wie ist das dann mit der Bildquali wenn da so ein "Haus und Hof"-Wandler beiliegt? Entscheidet in Zukunft über die Bildquali dann diese Beilage (die hoffentlich jeder mit dazupackt)?

Odal
2004-04-16, 16:35:48
Original geschrieben von Marodeur
Also wenn ich das richtig sehe haben alle Karten nur noch 2 DVI-Ausgänge oder irre ich mich da?

Da viele natürlich noch CRT-Monitore haben, wie ist das dann mit der Bildquali wenn da so ein "Haus und Hof"-Wandler beiliegt? Entscheidet in Zukunft über die Bildquali dann diese Beilage (die hoffentlich jeder mit dazupackt)?

bei der nonultra waer ich mit mit den 2 DVIs nich so sicher

Odal
2004-04-16, 16:37:13
Original geschrieben von ice cool69
Noch eine Frage: Ich habe einen AthlonXP 3200+. Passt dieser gut zur 6800Ultra oder sollte ich in Erwägung ziehen diesen zu übertakten?
Vielleicht ist mit mehr V-Core noch 2400 MHz drin, oder lohnt sich die Karte erst mit einem Athlon64?

in heutigen games limitiert meistens auch dein 3200+ (ausser bei extrem hohen aufloesungen)

aber spaeter eben nichtmehr so...

Piffan
2004-04-16, 16:38:13
Original geschrieben von Piffan
Ich will auf die Schatten nicht verzichten, aber trotzdem gute Performance. So gehts: Im Spiel Schatten auf sehr hoch. Dann die system.ini des Spieles vorknöpfen: "stencil shadows" auf 0, "shadowmaps from static objects" (oder so ähnlich) auch auf "0". Folge: Nur noch Shadowmaps, mit der die R300 besser klarkommt und die auch imho schöner sind. Zweitens Wegfall der scharfen, flackernden Projektionen auf der Waffe, stattdessen auch auf der Waffe nur die weichen Maps, die besser mit den Schatten in der Umwelt korrelieren....

Wenn man gerade in der ini rumfummelt, dann den Wert "e_vegetation_sprites_distance_ratio = "1.000000"" unbedingt auf "2" setzen. Folge: Das elende Poppen der Pflanzen in der Nähe hört auf, die Vegetation wird ruhiger und glaubwürdiger....

Die Massnahmen sind sehr freundlich zur Performance, so dass sogar 2xAF und 2xFSAA überhaupt kein Problem mehr sind auf der Radeon 9700 (380 Mhz). Einstellungen im CP oder dem r-tool(TS) vornehmen!

Sorry für offtopic, aber es soll keiner glauben, dass FarCry auf "älterer" Hardware schlecht läuft oder schlecht aussehen muss ;)

Nachtrag: Wichtig beim Benchen: Manchesmal bricht die Performance von FC unerklärlich stark ein, z.B. im Archiv. Seltsamerweise bekomme ich die Einbrüch wie folgt weg: In den Optionen des Spieles die Auflösung eine Stufe verringern, übernehmen, wieder die alte Auflösung einstellen und zurück ins Spiel. Voilá, die Performance ist wieder wie gewohnt gut.
Unbedingt mal austesten! Bringt natürlich nur was, wenn die FPS wirklich im Keller sind. Im Archiv gibts ne Stelle, da hat man unter Umständen FPS von knapp über 20, nach dem Hin- und Herschalten sind es 40! Und das ohne Gegner oder dergl, also bei reiner Grafik! Merkwürdiger Bug, evtl. leiden die Benches der NV 40 auch darunter....

Level "Dampf" ist anfangs auch so eine Ruckelpartie, dort klappt der Trick auch bestens.....

Seit dieser Feststellung zocke ich Farcry endlich wieder mit FSAA und Af, war vorher nicht dran zu denken...


Sys: Athlon Xp @2250 Mhz, Rad 9700 @ 380 Mhz, 1Gb Ram auf Kt266A....

Marodeur
2004-04-16, 16:38:56
Bei der nonultra vielleicht, aber hier gehts ja erstmal um die Ultra ;)

Piffan
2004-04-16, 16:43:29
Ich hoffe, dass NV mit seinem Baby schnell auf dem Markt erscheint. Vielleicht gönne ich mir dann Ende Mai zum Geburtstag mal wieder ne richtige große Graka... "jieper, fieep"

Bis dahin komme ich noch mit meiner Rad 9700 bzw. 9800 XT (im Aldi, löl) knapp über die Runden. :D

Ernsthaft: Harter Stoff für Enthusiasten oder wie die Verrückten heißen....

Marodeur
2004-04-16, 16:49:09
Original geschrieben von Piffan
Sys: Athlon Xp @2250 Mhz, Rad 9700 @ 380 Mhz, 1Gb Ram auf Kt266A....

"Alt" vielleicht aber deine Grafikkarte mit 100 MHz übern Standardtakt, da kannst nicht wirklich für alle sprechen die diese Karte haben. Ich hatte ja erst hoffnung als ich dein Posting sah, aber da ich jetzt feststellen muss das du ja ewig übertaktet hast lass ich diese "optimierungen für alte Hardware" lieber denn das sind "optimierungen für alte, aber stark übertaktete, Hardware", die bringt mir als relativ normaler User der ned so stark aufdreht nix...


Und sorry für OT an den rest, wollts nur mal erwähnen...

Piffan
2004-04-16, 16:56:39
Original geschrieben von Marodeur
"Alt" vielleicht aber deine Grafikkarte mit 100 MHz übern Standardtakt, da kannst nicht wirklich für alle sprechen die diese Karte haben. Ich hatte ja erst hoffnung als ich dein Posting sah, aber da ich jetzt feststellen muss das du ja ewig übertaktet hast lass ich diese "optimierungen für alte Hardware" lieber denn das sind "optimierungen für alte, aber stark übertaktete, Hardware", die bringt mir als relativ normaler User der ned so stark aufdreht nix...


Und sorry für OT an den rest, wollts nur mal erwähnen...


Ok, aber die Übertaktung bringt ja nur was in grafik- limitierten Situationen. Wenn man auf Af oder FSAA verzichtet, dann sollte es locker mit Standardtakten laufen.

Mark3Dfx
2004-04-16, 17:02:46
[Gotteslästerung]
Vielleicht ist Far Cry einfach nicht optimial programmiert/ausgereift?
[/Gotteslästerung]

thop
2004-04-16, 17:05:43
Original geschrieben von LovesuckZ
Wenn ATi nachlegt.
Sehr interessant, so hab ich das noch gar nicht gesehen. Ich denke du hast Recht!

Endorphine
2004-04-16, 17:08:17
Original geschrieben von Mark3Dfx
[Gotteslästerung]
Vielleicht ist Far Cry einfach nicht optimial programmiert/ausgereift?
[/Gotteslästerung] <Wer Ironie findet kann sie behalten>
Ach Unsinn, FarCry hat iD-Software Qualität :D.
</Wer Ironie findet kann sie behalten>

Gast
2004-04-16, 17:11:39
Original geschrieben von Mark3Dfx
[Gotteslästerung]
Vielleicht ist Far Cry einfach nicht optimial programmiert/ausgereift?
[/Gotteslästerung]

Das Game ist grauenhaft optimiert aber es ist ja ihr erstes Werk.............obwohl,das erste Werk von Valve war auch perfekt ;D

Marodeur
2004-04-16, 17:16:20
Original geschrieben von Gast
Das Game ist grauenhaft optimiert aber es ist ja ihr erstes Werk.............obwohl,das erste Werk von Valve war auch perfekt ;D

Naja, die mussten ja auch die Engine nicht komplett neu programmieren... Auch wenn das der D3D-Qualität wohl zuträglich gewesen wäre... ;)

MadManniMan
2004-04-16, 17:18:35
Unabhängig vom Rest des Threads, ich hab lang nicht lesen können, deshalb antworte ich auf Kram von Seite 16 - zum Ersten!

Original geschrieben von VooDoo7mx
Im ersten offiziellen Treiber, gibts dann die möglichkeit, die Winkelabhängigkeit auszuschalten, nennt sich dann "High Quality".

Falls es schon geklärt wurde - sorry! Aber so bleibt mir als Antwort: schön wäre es ja, aber es ist leider nur ein Gerücht. Und es wäre asozial, wenn das Feature der vernünftigen anisotropen Filterung zwar in HW vorhanden wäre, aber für die Balken-Tests wie von Toms Hardware Krampf versteckt wurde.
BTW find ich es blasphemisch, so tolle(!) Sachen wie FP-Filterung einzubauen, dabei aber bei der rein isotropen Filterung bereits mäßigere Winkel als alle anderen zu besitzen.
Kann doch nicht sein, daß die Filterkrone beim Deltachrome bleibt ;(

Original geschrieben von VooDoo7mx
Und wenn für dich PS/VS 3.0 und der Videoprocesser nur ein Speedupgrade sind, dann tust du mir echt leid. ;)

Ich muß vorher anmerken: es geht mir um meine Bedürfnisse und die besitzen den Hauptfokus.
Also: der Videoprozessor geht mir doch son bissel am Anus vorbei und SM3.0 ist ein für mich zwar gewiß willkommener, aber nicht zwangsläufig notwendiger Pacemaker. Bis zum Anschlag gemaxte Caps und Branching bedeuten vorangig weniger Passes und höhere Effizienz.

SKYNET
2004-04-16, 17:20:47
Original geschrieben von ice cool69
Noch eine Frage: Ich habe einen AthlonXP 3200+. Passt dieser gut zur 6800Ultra oder sollte ich in Erwägung ziehen diesen zu übertakten?
Vielleicht ist mit mehr V-Core noch 2400 MHz drin, oder lohnt sich die Karte erst mit einem Athlon64?

entweder du hast nen P4EE @ 4.2GHz oder nen A64/FX @ 2.6GHz.

dadrunter brauchst du ner 6800U garnicht kommen da sie sich sonst zu tode langweilen wird.

ne ideale CPU wäre aber eher P4EE @ 5GHz und A64/FX @ 3.2GHz

dadrunter bremst halt alles noch ein wenig.

p.s. darqan erkennt man mal wieder das aktuelle GPU's den CPU's um mindestens 1 jahr vorraus sind, evtl. sollten die hersteller sich mal synchronisieren.

Gast
2004-04-16, 17:24:04
Original geschrieben von SKYNET
entweder du hast nen P4EE @ 4.2GHz oder nen A64/FX @ 2.6GHz.

dadrunter brauchst du ner 6800U garnicht kommen da sie sich sonst zu tode langweilen wird.

ne ideale CPU währe aber eher P4EE @ 5GHz und A64/FX @ 3.2GHz

dadrunter bremst halt alles noch ein wenig.


Ein Spinner bist du, klar lohnt sich ein NV40 auch für "langsamere" CPU's! Einzig und allein bei CPU-limitierten Spielen stößt man dann schneller an die Grenzen, was imho aber recht selten ist. Far Cry ist zum Bleistift stark CPU-limitiert.

MadManniMan
2004-04-16, 17:32:10
Unabhängig vom Rest des Threads, ich hab lang nicht lesen können, deshalb antworte ich auf Kram von Seite 16 - zum Zweiten!


Original geschrieben von Odal
- ps 3.0 vs 3.0

Siehe Antwort auf V7MXs Post.

Original geschrieben von Odal
- gleichwertiges AA zu R3xx (immer noch etwas besseres AF)

AA: :| Reden wir vom HRAA³? Ich denke schon! Und was haben wir da: endlich 4*RGMS - lobenswert, da meine präferierte Einstellung. Doch es ist nur annährend so gut, wie das AA hier im R300 vor mir - ab einer EER von 4*4 wirkt sich die Gammakorrektur zum Positiven hin aus. Ich hab hier eine Röhre und zwei FPs und an allen war ich dankbar dafür, daß ich die Abstufungen auch wirklich zu Gesicht bekam ;)
AF: der Qualivorteil ist nun kaum mehr der Rede wert. Ich war lange Zeit Verteidiger des winkeladaptiven AF - aber nur dahingehend, daß es auch nutzbar und wertvoll ist, aber eben kaum annährend die hochwertige ... ja, Deltachromequalität erreicht. Aber betreffs der BQ++ Features einen RÜCKSCHRITT bei einer Nachfolgegeneration zu erleben - tja, da hielt ich die FX-Reihe für ne Ausnahme :(

Ich leg mal eben Folgendes dar:

VooDoo1 -> V3 = von 640 auf 800/1024
V3 -> Kyro2 = von 800/1024 auf 1024/32bit oder 800/32bit + 1*2OGMS
Kyro2 -> GF3 = von 32bit-Reinkultur auf 1024 + AA + AF
GF3 -> R95Pro = von 1024 + AA + AF auf immer AA + AF + 1280

Nun bin ich Auflösungstechnisch mit meinem Zocker-TFT an 1280 gebunden und der NV40U böte mir zwar meine Standardeinstellung 4*/16* wohl endlich wieder allgegenwärtig nutzbar, aber alle vorigen Grakawechsel boten für mich nicht nur ausreichende Performance für aktuelle Titel, sondern bedeuteten auch IMMER höhere BQ-Modi.

Original geschrieben von Odal
- endlich PS2.0 mal wirklich nutzbar (siehe shadermark usw.)

Wie gesagt: Speedupgrade, das ich gern nehme.

Original geschrieben von Odal
- fuer dich vernuenftige linux einsatzmoeglichkeit (im vergleich zu deinem R3xx)

Für mich. Ahso. Naja, Linux tangiert mich nicht großartig, ich bin nunmal vorangig Zocker und solang ich nicht simpel mein OS auf die Platte klatschen kann und gleich ohne viel Aufwand die Spiele hinterher... :ratlos:

Original geschrieben von Odal
- Stefan Paynes Totschlagargument :D kuehler

VGA-Silencer ahoi :wink:

Original geschrieben von Odal
nun wo soll der R420 der extrem auf dem R3xx basiert nun dagegen mehr sein als ein "simples" speedupgrade?

Beim Thema AA+AF.

SKYNET
2004-04-16, 17:39:49
Original geschrieben von Gast
Ein Spinner bist du, klar lohnt sich ein NV40 auch für "langsamere" CPU's! Einzig und allein bei CPU-limitierten Spielen stößt man dann schneller an die Grenzen, was imho aber recht selten ist. Far Cry ist zum Bleistift stark CPU-limitiert.


habe ich erlaubt mich zu dutzen ? das dürfen nur geregte mitglieder.

ansonsten bestehe ich auf ein SIE :P

und der NV40 lohnt sich net für schwache CPU's.

was bringt einem nen neues 6 gang getriebe wenn man immernoch den 65ps motor drinen hat ? nix.

das gleiche gilt auch für die graka, essei man steht dadraufne NV40 zuhaben die aber nicht schneller ist als ne 9800pro im gleichen rechner wäre ist weil die CPU zu langsam ist.


achja, das spinner kannste dir schieben *gähn*
auf sowas reagiere ich schon lange netmehr.

kiss
2004-04-16, 17:47:58
Ich würde mal so sagen ab:

P4 2500Mhz
Athlon 2500+
Athlon64 2800+


Hier würde sich schon ne 6800ultra lohnen!
Aber darunter würde ich eher zu einer NonUltra greifen...Wer auf AA und AF steht kann auch unter den Angaben zur 6800ultra greifen...

Lohnen tut sie sich immer! :D

ow
2004-04-16, 17:49:33
Original geschrieben von Marodeur
Also wenn ich das richtig sehe haben alle Karten nur noch 2 DVI-Ausgänge oder irre ich mich da?



Ich meine da irrst du, weil ich glaube in irgendeinem der Threads hier schon ein Bild einer Karte mit VGA+DVI gesehen zu haben. Weiss aber nicht mehr genau, wo.

thop
2004-04-16, 17:50:29
Ja die ASUS hat DVI/VGA, gerade von ASUS finde ich das etwas seltsam.

nggalai
2004-04-16, 17:52:53
Original geschrieben von SKYNET
entweder du hast nen P4EE @ 4.2GHz oder nen A64/FX @ 2.6GHz.

dadrunter brauchst du ner 6800U garnicht kommen da sie sich sonst zu tode langweilen wird.Ich hab' nen TFT mit 1600x1200. Gegen 4xMSAA plus 8°AF hätt ich echt nix einzuwenden, auch wenn ich nur einen 2.4GHz P4 ohne HT hab. ;)

93,
-Sascha.rb

MadManniMan
2004-04-16, 17:58:57
ow,

Betreffs der Thematik NVs nicht winkeladativem AFs ...

Original geschrieben von ow
Kapiert doch von den reviewern kaum einer. Also hat NV das betse gemacht, was sie tun konnten: sie haben selbst die Vergleichbarkeit hergestellt.


...findest du eigentlich alle außer dir dumm :|

Reviewer sind zum Gros Leute, die sich für Testsamples verkaufen - nV hat es erfolgreich geschafft, überall 4*OGMS gegen 4*RGMS benchen zu lassen.
Man hat also den Leuten gesagt: guckt auf die Performance, nicht auf die Qualität. Dementsprechend haben sie auch ihr AF nicht so vermarktet - warum sollte schließlich langsameres AF besser sein? Ach, weils besser aussieht? Sowas aber auch! Und wie ist das jetzt hier mit dem AA :spock:

...

Du siehst, daß NV für uns Endanwender wirklich nicht das Beste gemacht hat. Jaja ich weiß, ATi ist böse, genau wie 3Dfx es war - OMFG komm endlich von deinem Trip runter! Du bist ein intelligenter Mensch, der sich leider fälschlicherweise für objektiv hält.

Überall und in jedem Shice-Thread schimpfst du aufs ATi-AF und wenn NV das einbaut, dann wird das natürlich nicht mehr derart kritisiert? Gehts noch?

DEIN VERHALTEN IST BLASPHEMIE PUR!

SKYNET
2004-04-16, 17:59:07
Original geschrieben von nggalai
Ich hab' nen TFT mit 1600x1200. Gegen 4xMSAA plus 8°AF hätt ich echt nix einzuwenden, auch wenn ich nur einen 2.4GHz P4 ohne HT hab. ;)

93,
-Sascha.rb

ich will aber volle frames bei 1280*960 oder auch 1024*768 ;)

besonders 1024*768 damit ich mein liebstes kind richtig treten kann ;D

*i love 3Dmark 01*

ansonsten währe mir das ja auch egal. :D

Winter[Raven]
2004-04-16, 18:00:21
Also laut Albatron, kommt die ultra mit 600 mhz GPU :O

The GeForce 6800/6800UV VGA cards also apply AGP 8X that can support the design of most mainboards on the market. The GPU has been clocked up to speeds of 600 MHz and contains 16 pipeline design, therefore the performance of GeForce 6800 is twice as GeForce FX5950. The memory clock for the 6800 is rated at 700 MHz and the 6800UV is rated at 1 GHz. The 6800 contains 128 MB of DDR memory and the 6800UV includes 256 MB GDDR 3 memory. Both cards contain a 256-bit memory bus.

kiss
2004-04-16, 18:01:01
Original geschrieben von SKYNET
und der NV40 lohnt sich net für schwache CPU's.

was bringt einem nen neues 6 gang getriebe wenn man immernoch den 65ps motor drinen hat ? nix.



Der NV40 lohnt sich auch für schwache CPUs!!

Auch wenn der Motor nur 65PS hat, bringen tut das 6Gang getriebe immer was....kommt drauf wie es übersetzt ist.

Entweder mehr bschleunigung oder mehr enbtegschwindigkeit!
Also, der NV40 bringt auch bei schlechten CPUs mit 65PS was ;)

thop
2004-04-16, 18:02:55
WinterRaven: Könnte nen Tippfehler sein. Also 600Mhz klingt mir ein bisschen viel :kratz2: Von den Review Boards lies sich ja keines bis auf 500Mhz treiben.

(del676)
2004-04-16, 18:03:43
Original geschrieben von thop
WinterRaven: Könnte nen Tippfehler sein. Also 600Mhz klingt mir ein bisschen viel :kratz2: Von den Review Boards lies sich ja keines bis auf 500Mhz treiben.

stand auf den review board auch ULTRA drauf oder waren das vielleicht nur die nonultras ???

SKYNET
2004-04-16, 18:03:53
Original geschrieben von kiss
Der NV40 lohnt sich auch für schwache CPUs!!

Auch wenn der Motor nur 65PS hat, bringen tut das 6Gang getriebe immer was....kommt drauf wie es übersetzt ist.

Entweder mehr bschleunigung oder mehr enbtegschwindigkeit!
Also, der NV40 bringt auch bei schlechten CPUs mit 65PS was ;)

naja, ich habe lieber 800PS mit passendem getriebe und lachgas dazu ;)

SKYNET
2004-04-16, 18:05:28
Original geschrieben von thop
WinterRaven: Könnte nen Tippfehler sein. Also 600Mhz klingt mir ein bisschen viel :kratz2: Von den Review Boards lies sich ja keines bis auf 500Mhz treiben.

warum viel ? die nv38 lässt sich doch auchschon ohne große modifikationen bis 550MHz drücken, mit v-mod bis weit über 600MHz.

udn wenn man bedenkt das die review karten alles testsamples mit der ersten chip-revision sind halte ich es durchaus für möglich.

Endorphine
2004-04-16, 18:05:34
Da man brachliegende Leistung auch mit Qualitätsoptionen im Spiel, AA, AF und ultrahohen Auflösungen auslasten kann lohnen sich starke Grafikkarten auch für alte CPUs. Schneller wird's dann nicht, aber man bekommt mehr Qualität.

thop
2004-04-16, 18:05:53
Original geschrieben von Ulukay
stand auf den review board auch ULTRA drauf oder waren das vielleicht nur die nonultras ???
Also ULTRA stand glaube ich nirgends drauf, aber kA. Auf jeden Fall stand bei jedem Review aber 6800 ULTRA dabei. Dneke mal nicht dass die geraten haben ob die ne Ultra haben oder nicht, sondern das so von nV kam.

SKYNET: Also unmöglich durch OC ist es bestimmt nicht, aber Standard 600er Takt? Dann sollte ja per OC bis zu ~700 drin sein, das klingt mir doch ein bisschen nach Phantasie.

kiss
2004-04-16, 18:06:56
Original geschrieben von SKYNET
naja, ich habe lieber 800PS mit passendem getriebe und lachgas dazu ;)


Ja du hast ja eigentlich recht, das man den NV40 auch zu einem passenden System kaufen sollte.
Aber er bringt eben auch bei einem älteren System etwas...Wenn man AA & AF + 1600*1200 aktiviert limitiert eher die graka als die CPU....!



Eigentlich gibt es noch kein pasendes System....So 3600Mhz (3600+) wäre schon angebracht :D

SKYNET
2004-04-16, 18:08:21
Original geschrieben von Endorphine
Da man brachliegende Leistung auch mit Qualitätsoptionen im Spiel, AA, AF und ultrahohen Auflösungen auslasten kann lohnen sich starke Grafikkarten auch für alte CPUs. Schneller wird's dann nicht, aber man bekommt mehr Qualität.

da stimmt, sieht man ajauch in den reviews das die nv40 garnicht oder nur seeeehhhrrrr schwach nachgibt von 1024 zu 1600.

aber dennoch, wenn ich sone karte habe will ich auch 1024 und 800 mal bei vollem speed sehn :D

sehe schon vormir Q3 über 1000fps ;D

kiss
2004-04-16, 18:08:56
Original geschrieben von Ulukay
stand auf den review board auch ULTRA drauf oder waren das vielleicht nur die nonultras ???


Das wäre natürlich :O wenn die NonUltra so gut wär :D
Aber ich glaube das war die 6800Ultra, weil sonst die Leistung der 6800ultra extrem hoch wäre...

(del676)
2004-04-16, 18:09:05
Original geschrieben von thop
Also ULTRA stand glaube ich nirgends drauf, aber kA. Auf jeden Fall stand bei jedem Review aber 6800 ULTRA dabei. Dneke mal nicht dass die geraten haben ob die ne Ultra haben oder nicht, sondern das so von nV kam.

SKYNET: Also unmöglich durch OC ist es bestimmt nicht, aber Standard 600er Takt? Dann sollte ja per OC bis zu ~700 drin sein, das klingt mir doch ein bisschen nach Phantasie.

weil auf den treiberscreenshots sieht man keinen ultra schriftzug ....

kiss
2004-04-16, 18:11:34
Hat eigentlich keiner der reviewer den Kühler abgenommen? Dort müsste doch dann stehen ob es der 6800ultra chip oder Nonutra ist.

SKYNET
2004-04-16, 18:12:06
Original geschrieben von thop
SKYNET: Also unmöglich durch OC ist es bestimmt nicht, aber Standard 600er Takt? Dann sollte ja per OC bis zu ~700 drin sein, das klingt mir doch ein bisschen nach Phantasie.

warum phantasie ?
wiegesagt, ist durchaus im bereich des möglichen.

aber mitte juni wissen wir eh mehr ;)

deekey777
2004-04-16, 18:12:14
Original geschrieben von Mark3Dfx
[Gotteslästerung]
Vielleicht ist Far Cry einfach nicht optimial programmiert/ausgereift?
[/Gotteslästerung]

100% *zustimm*
Erinnert mich an Halo für den PC. :D

ice cool69
2004-04-16, 18:13:09
Also ich war der Meinung dass mein AthlonXP 3200+ noch immer eine der schnellsten CPU's ist, die es am Markt gibt.

Wenn ich das Teil noch auf 2400-2500 MHz übertakten kann und vielleicht den FSB auf 466 schrauben kann wird auch eine GF 6800 ultra genug zu arbeiten bekommen.

LovesuckZ
2004-04-16, 18:13:13
Original geschrieben von SKYNET
aber dennoch, wenn ich sone karte habe will ich auch 1024 und 800 mal bei vollem speed sehn :D


Na, denn Prozessor musst du mir mal zeigen, der die Karte ohne AA/AF vollends ausschöpfen wird.

Hellfire-Torrod
2004-04-16, 18:13:14
So wies aussieht, steht da nicht mehr....
da (http://www.de.tomshardware.com/graphic/20040414/images/gpupic1.jpg)

thop
2004-04-16, 18:14:03
http://www.huno.net/cstm/gpupic1.jpg

Erkennt man da obs ne ULTRA is? :kratz2:

SKYNET
2004-04-16, 18:14:28
Original geschrieben von Ulukay
weil auf den treiberscreenshots sieht man keinen ultra schriftzug ....

macht mich auch ein wenig stuzig.

also wenn es die non ultra variante war dann werden wir noch was voruns haben.

50% mehr GPU takt, 4 pipes mehr, ramtakt wird auchnochmal hochgehn...
würde sagen wenn es tatsächlich so ist ist der zug für ATI abgefahren, zumindest bis zur nächsten graka generation.

aber dagegen spricht das laut NV die 6800 nonultra nur mit 128MB kommen soll *grübel*

SKYNET
2004-04-16, 18:15:02
Original geschrieben von thop
http://www.tomshardware.com/graphic/20040414/images/gpupic1.jpg

Erkennt man da obs ne ULTRA is? :kratz2:

solltest du doch schon wissen das man keine bilder von THG verlinken kann ;)

SKYNET
2004-04-16, 18:15:52
Original geschrieben von LovesuckZ
Na, denn Prozessor musst du mir mal zeigen, der die Karte ohne AA/AF vollends ausschöpfen wird.

lese dochmal oben was ich da geschrieben habe ;) A64/FX 3.2GHz oder passendes P4 pendant.

Hellfire-Torrod
2004-04-16, 18:16:23
Original geschrieben von SKYNET
macht mich auch ein wenig stuzig.

also wenn es die non ultra variante war dann werden wir noch was voruns haben.

50% mehr GPU takt, 4 pipes mehr, ramtakt wird auchnochmal hochgehn...
würde sagen wenn es tatsächlich so ist ist der zug für ATI abgefahren, zumindest bis zur nächsten graka generation.

aber dagegen spricht das laut NV die 6800 nonultra nur mit 128MB kommen soll *grübel*

hm, vieleicht hat auch der treiber die Karte noch nicht vollständig erkannt (wobei, müsste eigendlich)

kiss
2004-04-16, 18:16:28
In den Reviews war das wohl die 6800ultra....weil sonst der Leistungs anstieg viel zu extrem wäre!


Steht nicht normalerweise auf jedem CHip z.b. TI4600 oder TI4200 oder 9600XT, weil auf dem NV40 steht nichts derglleichen?

thop
2004-04-16, 18:16:56
habs korrigiert, so einfach lass ich mich nicht austricksen ;)

Winter[Raven]
2004-04-16, 18:18:07
http://www.clubic.com/photo/00083429.jpg

SKYNET
2004-04-16, 18:18:12
Original geschrieben von Hellfire-Torrod
hm, vieleicht hat auch der treiber die Karte noch nicht vollständig erkannt (wobei, müsste eigendlich)

eigentlich schon, dennoch ist das alles seehhhrrrrr kurios.
wenn man wenigstens wüsste was auf der GPU der testspamples gestanden hat ?

SKYNET
2004-04-16, 18:19:19
Original geschrieben von kiss
In den Reviews war das wohl die 6800ultra....weil sonst der Leistungs anstieg viel zu extrem wäre!


Steht nicht normalerweise auf jedem CHip z.b. TI4600 oder TI4200 oder 9600XT, weil auf dem NV40 steht nichts derglleichen?

naja, evtl. will NV uns ja schocken ;)
und wenn das die nonultra war werden sie das sicher auch schaffen.

dann würde in der tat ein neues zeitalter in sachen 3Dgaming anbrechen.

Muh-sagt-die-Kuh
2004-04-16, 18:19:25
Original geschrieben von SKYNET
solltest du doch schon wissen das man keine bilder von THG verlinken kann ;) Also ich sehe da ein schönes NV40 Bild...du musst was falsch machen...

SKYNET
2004-04-16, 18:20:54
Original geschrieben von thop
http://www.huno.net/cstm/gpupic1.jpg

Erkennt man da obs ne ULTRA is? :kratz2:

leider net, steht nur engineering-sample drauf *heul*

Hellfire-Torrod
2004-04-16, 18:21:37
Ich könnte mir gut vorstellen, das Nvidia abwartet was Ati präsentiert, und wenn die x800pro schneller ist als die gezeigte NV40, wird gesagt, "och, wir haben hir noch die Ultra rumfliegen, das, was ihr da getestet habt, war die nonUltra (12 Pipes usw), nur mit mehr speicher"?!
Dan kommt die Ultra mit 5950-kühler, 500/600 Takt 16 pipes und 18000 Punkten in 3dmark. Und ggf mit 512 mb...wer weis wer weis....

(del676)
2004-04-16, 18:21:53
also da steht nix von ultra auf dem chip:

http://www20.tomshardware.com/graphic/20040414/geforce_6800-03.html


und da steht ned 6800 Ultra sondern 6800 Pro....

http://www20.tomshardware.com/graphic/20040414/geforce_6800-18.html


da steht nur 6800 und kein ultra (bei mir steht da z.b. 5950 ultra):
http://www.clubic.com/photo/00083429.jpg

msi presse statement:

Continuing the MSI tradition of incorporating only the best engineering process and design techniques, MSI NX6800 Ultra series take advantage of the most advanced and sophisticated Copper ULTRA™ Cooling technology. This advanced ventilation cooling mechanism enables higher performance through faster clock rates, while still remains in comparable low GPU temperature-- a perfect metal craft for a perfect graphics from MSI.



auf hardocp steht im treiber auch nix von ultra:
http://www.hardocp.com/images/articles/10817474486qLMOmeutS_2_1_l.gif

Gaestle
2004-04-16, 18:22:01
Original geschrieben von SKYNET
solltest du doch schon wissen das man keine bilder von THG verlinken kann ;)

Lass' dir das Bild auf 'ner neuen Seite/Fenster anzeigen und drücke F5 (bzw. Reload im Browser)...

SKYNET
2004-04-16, 18:22:10
Original geschrieben von Muh-sagt-die-Kuh
Also ich sehe da ein schönes NV40 Bild...du musst was falsch machen...

das kannst du nur sehn weil du das bild selber schon bei THG auf der seite gesehn hast.

dadurch ist es in deinem cache gespeichert ;)

für alle anderen die nochnet das THG review gesehn haben ist da nur nen hammer mit THG drunter :)

kiss
2004-04-16, 18:23:37
Original geschrieben von Hellfire-Torrod
Ich könnte mir gut vorstellen, das Nvidia abwartet was Ati präsentiert, und wenn die x800pro schneller ist als die gezeigte NV40, wird gesagt, "och, wir haben hir noch die Ultra rumfliegen, das, was ihr da getestet habt, war die nonUltra (12 Pipes usw), nur mit mehr speicher"?!
Dan kommt die Ultra mit 5950-kühler, 500/600 Takt 16 pipes und 18000 Punkten in 3dmark. Und ggf mit 512 mb...wer weis wer weis....



Das wäre der Hit und das könnte ich mir gut vorstellen!
Ati freut sich schon das sie wieder die Krone aufm Kopf haben und dann holt nVidia die 6800ulra ausser hosentasche und klaut Ati kurz die goldene Krone. :)

Mark3Dfx
2004-04-16, 18:24:34
Das wäre ja der PR Gag des Jahres, wenn nV "nur"
die 6800 gezeigt hat und sich die Ultra noch aufhebt. :O

(del676)
2004-04-16, 18:24:42
http://img.hexus.net/v2/graphics_cards/nvidia/nv40/images/core.jpg
http://img.hexus.net/v2/graphics_cards/nvidia/nv40/images/driver/driver_main.jpg

ebenfalls weder aufn gpu noch im treiber ultra

thop
2004-04-16, 18:25:41
Jetzt fangen ein paar Leute hier aber das Träumen an! Mehr sag ich nicht dazu ;)

SKYNET
2004-04-16, 18:25:45
Original geschrieben von kiss
Das wäre der Hit und das könnte ich mir gut vorstellen!
Ati freut sich schon das sie wieder die Krone aufm Kopf haben und dann holt nVidia die 6800ulra ausser hosentasche und klaut Ati kurz die goldene Krone. :)


loool, stellt euch das mal vor ati labert dann irgent etwas in der vorstellung "fastes 3d chip blabla" und ne woche später schiebt NV mal schnell die ultra variante hinterher *rofl*

das währe der tiefschlag überhaupt *hihi*

Winter[Raven]
2004-04-16, 18:33:51
Seit wann werden A1 Steppings an Review rausgegeben?

kiss
2004-04-16, 18:34:00
Auf der Seite von nVidia steht auch nicht wieviel MHZ der Chip der 6800ultra haben soll...

http://www.nvidia.com/page/geforce_6800.html


dort steht nur der Takt des Rams

Hellfire-Torrod
2004-04-16, 18:34:13
es hätte auch sinn, denn immerhin hat Ati noch die x800XT, und da muss Nvidia ja auch noch was gegen bieten!

Muh-sagt-die-Kuh
2004-04-16, 18:34:57
Original geschrieben von SKYNET
das kannst du nur sehn weil du das bild selber schon bei THG auf der seite gesehn hast.

dadurch ist es in deinem cache gespeichert ;)

für alle anderen die nochnet das THG review gesehn haben ist da nur nen hammer mit THG drunter :) Falsch, da ich THGs bericht nie gelesen habe ;)

Ein simpler Proxy-Server wie der WebWasher umgeht den Linkschutz bei THG effektiv...

deekey777
2004-04-16, 18:35:18
Original geschrieben von SKYNET
loool, stellt euch das mal vor ati labert dann irgent etwas in der vorstellung "fastes 3d chip blabla" und ne woche später schiebt NV mal schnell die ultra variante hinterher *rofl*

das währe der tiefschlag überhaupt *hihi*

Und noch eine Woche später kommt die X800XT... HaHa dich selber... ;D

Hellfire-Torrod
2004-04-16, 18:35:56
Übrigens steht hier (http://www.nvidia.com/docs/CP/4820/main_6800_header.jpg) auch nix von "ultra":D

Fadl
2004-04-16, 18:37:52
Also ernsthaft dran glauben tut doch wohl keiner hier oder etwa doch?
Möglich wäre höchstens das die getestete "Ultra" Karte vielleicht ein art "Pro" Karte ist die dann mit mehr Takt noch als "UBERULTRA" verkauft wird :-)
Zumindest der Treibershot bei THG zeigt ja PRO an.
Aber eine Non Ultra wird das niemals sein.

(del676)
2004-04-16, 18:39:21
Original geschrieben von Fadl
Also ernsthaft dran glauben tut doch wohl keiner hier oder etwa doch?
Möglich wäre höchstens das die getestete "Ultra" Karte vielleicht ein art "Pro" Karte ist die dann mit mehr Takt noch als "UBERULTRA" verkauft wird :-)
Zumindest der Treibershot bei THG zeigt ja PRO an.
Aber eine Non Ultra wird das niemals sein.

pro steht wohl für properties

deekey777
2004-04-16, 18:39:21
Original geschrieben von Fadl
Also ernsthaft dran glauben tut doch wohl keiner hier oder etwa doch?
Möglich wäre höchstens das die getestete "Ultra" Karte vielleicht ein art "Pro" Karte ist die dann mit mehr Takt noch als "UBERULTRA" verkauft wird :-)
Zumindest der Treibershot bei THG zeigt ja PRO an.
Aber eine Non Ultra wird das niemals sein.

Das "Pro" gehört zu "PROperties" - das ist doch ein Screenshot, wo man es genau sieht.

thop
2004-04-16, 18:39:41
http://www.nvidia.com/page/geforce_6800.html

Fill Rate 6.4 billion texels/sec. (16*400)

Bitte wieder im Land der Tatsachen ankommen ;)

SKYNET
2004-04-16, 18:39:48
Original geschrieben von deekey777
Und noch eine Woche später kommt die X800XT... HaHa dich selber... ;D

ich rede ja davon das der x800XT die 6800nu gickt... aber NV dann die U nachschiebt :D

Gast
2004-04-16, 18:40:33
Original geschrieben von Hellfire-Torrod
Übrigens steht hier (http://www.nvidia.com/docs/CP/4820/main_6800_header.jpg) auch nix von "ultra":D

Erst nachdenken dann posten !

Ist doch klar das in alle Tests nix von Ultra steht,haben ja alle die gleiche Karte bekommen.

Hellfire-Torrod
2004-04-16, 18:41:22
Am besten noch mit 20 pipes, damit die rechnung von
thop auch noch aufgeht ;);D

deekey777
2004-04-16, 18:45:21
Original geschrieben von thop
http://www.nvidia.com/page/geforce_6800.html

Fill Rate 6.4 billion texels/sec. (16*400)

Bitte wieder im Land der Tatsachen ankommen ;)

In Single Texturing des 3D2001 SE? ;D ;D ;D

SKYNET
2004-04-16, 18:47:00
Original geschrieben von Muh-sagt-die-Kuh
Falsch, da ich THGs bericht nie gelesen habe ;)

Ein simpler Proxy-Server wie der WebWasher umgeht den Linkschutz bei THG effektiv...

naja, so kann man es auch machen ;)
und das man den THG bericht net gelsen hat zeugt nur von kompetenz ;D

deekey777
2004-04-16, 18:48:42
Original geschrieben von Gast
Anscheinend hat dich deine Mutter schon in deiner Kindheit extremst übertaktet, so das es bei dir wohl nicht mehr richtig tickt.

Wie war das mit der notwendigen Registrierung, um hier etwas zu posten?

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=122080

Ich hoffe, die Mods/Admins habe deine IP.

Fadl
2004-04-16, 18:49:39
Original geschrieben von Ulukay
pro steht wohl für properties

Alles klar. Da habe ich gar nicht genau hingeschaut ;)

thop
2004-04-16, 18:50:04
Original geschrieben von deekey777
In Single Texturing des 3D2001 SE? ;D ;D ;D
Ja ist ja nur theoretische ;)

SKYNET
2004-04-16, 18:53:57
Original geschrieben von deekey777
Wie war das mit der notwendigen Registrierung, um hier etwas zu posten?

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=122080

Ich hoffe, die Mods/Admins habe deine IP.

*zustimm*


das ist nen echtes problem, nebenbei würde es ne menge traffic sparen wenn gäste netmehr rumbashen können

Quasar
2004-04-16, 18:56:07
Original geschrieben von thop
http://www.nvidia.com/page/geforce_6800.html

Fill Rate 6.4 billion texels/sec. (16*400)

Bitte wieder im Land der Tatsachen ankommen ;)

"Billion" steht im Englischen für "Milliarde".... und das stimmt rechnerisch auch, sogar wenn nV selbst zugibt, nur etwas mehr als 12 Pixel pro Takt mit der zur Verfügung stehenden Bandbreite hinzubekommen.

P.S.:
Nein, es würde mich nicht wundern, wenn die das bei nV auf der deutschen Webseite nicht mit übersetzt haben, war schon beim nV25 (AA-Samples/s) und nV30 so.

kiss
2004-04-16, 18:56:27
Kann uns hier keiner nen bisschen aufklären?

Ist die Karte in den Review ne 6800ultra oder NonUltra oder etwas anderes?

ice cool69
2004-04-16, 18:58:15
LOL also jetzt fängt wieder die Träumerei an.

Der gezeigte Chip ist ein Knaller und alles was nvidia machen wird ist vielleicht 3 Monate später eine 6850 ultra nachzureichen mit 450-500 MHz, aber was ihr euch hier zusammenträumt entbehrt jeglicher Grundlage.

Gäbe es jetzt einen nvidia-Chip der den R420 über weite Längen in den Boden rammt (NV40 mit 600 MHz), dann würde diese Karte
1. EXTREMST bandbreitenlimitiert sein und
2. wohl um die 700-1000€ kosten, bei 512MB RAM eher mehr als 1000€...

thop
2004-04-16, 19:00:35
@kiss: Es it 100% ne ULTRA. Ob es noch ne ULTRA ULTRA geben wird, ist wiederum ein anderes Thema.

Quasar
2004-04-16, 19:01:33
Nuja, 800MHz GDDR3 steht da als "Samples lieferbar seit Feb'04"....

Damit wäre ein rein theoretischer nV40@600MHz nur minimal stärker bandbreitenlimitiert, als es die 400MHz-Version jetzt mit 550MHz-RAM ist. (Verhältnis der Chiptakte: 1,5:1 Verhältnis der RAM-Takte: 1,45:1)

thop
2004-04-16, 19:01:35
@Quasar: Das weiß ich, ich meinte unsere Träumer sollten wieder im Land der Tatsachen ankommen ;)

kiss
2004-04-16, 19:04:39
Original geschrieben von thop
@Quasar: Das weiß ich, ich meinte unsere Träumer sollten wieder im Land der Tatsachen ankommen ;)


Ja aber keiner kann es genau bestätigen!
Nirgendswo ist ein Anzeichen von ULTRA...

Am Anfang hies es doch auch das der NV40 mehr Chip Takt bekommen sollte und mehr Ram oder irre ich mich jetzt!



Naja egal, ich träume zu viel!
Ich sehe es ein, es ist die 6800ultra in den reviews!

Hellfire-Torrod
2004-04-16, 19:22:33
Nagut, einigen wir uns auf einen anzeigefehler in den Treibern!=)

Piffan
2004-04-16, 19:23:41
Original geschrieben von Mark3Dfx
[Gotteslästerung]
Vielleicht ist Far Cry einfach nicht optimial programmiert/ausgereift?
[/Gotteslästerung]

Das zu beurteilen dürfte den wenigsten von uns möglich sein. :eyes:

Wenn mal ein weiteres Spiel draußen ist, das eine vergleichbare Optik und vergleichbaren Einsatz von Shadern bringt, dann könne ma vergleichen......

Bis dahin: Nur Gesabbel :freak:

Es wird ja gerne gesagt, dass id- Software sooo guten Code produziert. Ich würde lieber mal abwarten, wie sich Dumm III schlägt auf normaler Hardware.....Zuindest ist Farcry recht kompatibel und läuft auch auf ner Gf2.....

@deekey: Halo sieht nicht wirklich besser aus als FarCry, läuft aber in den Innräumen eigentlich gar nicht bei Auflösungen oberhalb von 640x480....Man kann beide Spiele beim besten Willen nicht vergleichen.

Gast
2004-04-16, 19:39:00
also leute, wenn schon spekulieren dann aber richtig. schauen wir uns mal als erstes den treiber an mit dem getestet wurde: den 60.72-er
der enthält nämlich folgendes:
NVIDIA_NV40.DEV_0040.1 = "NVIDIA GeForce 6800 Ultra"
NVIDIA_NV40.DEV_0041.1 = "NVIDIA GeForce 6800"
die korrekte benennung für den 6800Ultra ist also in der inf enthalten und sollte demnach auch in Windows auftauchen, tut es aber nicht.
schauen wir uns als nächstes das device id des 6800(non ultra) an: es lautet 41, im gegensatz zum id des 6800Ultra, welches 40 ist; schauen wir uns nun auf den photos der nv40 chips (welche hier im thread verlinkt sind) die sechstellige zahl rechts an. sie fängt mit 041 an. phantasie ? wunschdenken ? oder doch zufall ? (obwohl die 2 chips eindeutig verschiedene chips sind).
schauen wir uns nun die folgenden bilder einiger fx5900 chips an:
http://www.ixbt.com/video2/images/gffx-15/asus-5900-scan-front.jpg
http://www.ixbt.com/video2/images/gffx-17/albatron-5900-scan-front.jpg
http://www.ixbt.com/video2/images/ref/gffx5900u-scan-front.jpg
dieselbe 6-stellige seriennummer rechts ist dabei, und fängt jedesmal mit 031 und 032 an, zahlen die für die devide id-s welcher chips stehen ? richtiiiiiiiiig ! für die fx5900 !
NVIDIA_NV35.DEV_0330.1 = "NVIDIA GeForce FX 5900 Ultra"
NVIDIA_NV35.DEV_0331.1 = "NVIDIA GeForce FX 5900"
NVIDIA_NV35.DEV_0332.1 = "NVIDIA GeForce FX 5900XT"
NVIDIA_NV35.DEV_0333.1 = "NVIDIA GeForce FX 5950 Ultra"

was sagt uns das ? die 041 auf dem "nv40" chip ist also kein zufall.
was sagt es uns nicht ? es garantiert nicht das es eine 6800 und keine 6800ultra ist, da auch bei den bildern der fx5900ultra nicht 030 sondern 031 draufsteht (und es demnach eine einfache 5900 sein sollte).
dann mal viel spass beim weiterspekulieren ;)

Omnicron
2004-04-16, 19:48:17
Also auf der Nvidia Seite ist auch nirgends was von 6800 Ultra zu lesen, es ist nur immer von der FX6800 die Rede.

http://www.nvidia.com/page/home.html
http://www.nvidia.com/page/geforce_6800.html
http://www.nvidia.com/page/pg_20040406661996.html

Wurde die Ultra evtl doch net gelauncht? X-D
Oder heisst die 12 Pipe version dann irgendwie 6800SE, unsere gedachte 6800Ultra in Wirklichheit nur 6800, und eine 6800Ultra kommt dann irgendwann als Name für den Refresh?

thop
2004-04-16, 19:50:00
Original geschrieben von Omnicron
Also auf der Nvidia Seite ist auch nirgends was von 6800 Ultra zu lesen, es ist nur immer von der FX6800 die Rede.
http://www.nvidia.com/page/geforce_6800.html

Dor steht unten ganz dick 6800 Ultra.

Omnicron
2004-04-16, 19:52:18
Original geschrieben von thop
Dor steht unten ganz dick 6800 Ultra.

:sulkoff: (war zu Faul zum runterscrollen) :bonk:

Godmode
2004-04-16, 19:54:46
Original geschrieben von thop
http://www.huno.net/cstm/gpupic1.jpg

Erkennt man da obs ne ULTRA is? :kratz2:

Ich seh dort nur ENG SAMPLE was wahrscheinlich Engeneering Sample heißt.

Gast
2004-04-16, 19:55:13
Original geschrieben von thop
Dor steht unten ganz dick 6800 Ultra.

jo, stimmt schon, hab ich auch gesehn, ist aber so ziemlich die einzige stelle wo irgendwas von der ultra steht. ansonsten ist auch in den .pdf-s und auf den webpages nur von 6800 die rede ;)

MadManniMan
2004-04-16, 20:01:25
Und nochmal: wie soll denn ein 12Pipe*400MHzChip die 6.400MTexel/s in Leos Test tatsächlich knapp schaffen?

VooDoo3/4/5-HSR? ;D

Godmode
2004-04-16, 20:07:02
Ich möchte wissen, warum auf er NV Page kein Chip Takt angegeben wird?? Warten die noch bis ATI ihre neuen GPU vorstellt, um sich erst später auf den finalen Takt festzulegen?

(del676)
2004-04-16, 20:12:05
Original geschrieben von MadManniMan
Und nochmal: wie soll denn ein 12Pipe*400MHzChip die 6.400MTexel/s in Leos Test tatsächlich knapp schaffen?

VooDoo3/4/5-HSR? ;D

warum? 16x400 kann ja stimmen?
vielleicht isses ja ne reviewer ultra und die X-Trem Ultra :freak: kommt halt mit 16x600 ;)

damit einzelne hersteller (Albatron/MSI) ne monster karte die wirklich ein 480w nt braucht verkaufen können (um gesalzene preise)

Gast
2004-04-16, 20:17:43
Original geschrieben von MadManniMan
Und nochmal: wie soll denn ein 12Pipe*400MHzChip die 6.400MTexel/s in Leos Test tatsächlich knapp schaffen?
VooDoo3/4/5-HSR? ;D
ganz ehrlich ist das das einzige was mich auch stutzig macht.
*malganzwildrumspekulier*
kann es sein das nvidia eigentlich höhere takte mit der ultra erreichen wollte/will, aber für den fall dass sie es nicht shaffen, die als sicher geltenden 400MHz erstmal als 6800Ultra vortellt ?
vorausgesetzt, sie schaffen (oder müssen wegen R420) einen noch höheren takt schaffen - dann geht die neue, höhergetaktete version als 6800Ultra an den start und die jetzige version wird als 6800 verkauft und geht so (mit 16 pipelines und niedrigerem takt als die "neue" ultra) an die kunden (obwohl 600MHz einfach vieeeel zu weit hergeholt scheint); für den fall dass sie keine höheren frequenzen hinkriegen, vermarkten sie die jetzt vorgestellte version weiterhin als ultra und eine um 4 pipelines (und vielleicht auch takt) "beschnittene" version dann als einfache 6800.
vielleicht waren die slides auf denen nvidia den 6800 als 12-pipes präsentiert einfach nur dafür da, die konkurrenz irrezuführen ?
*mitdemwildrumspekulierenaufhör*

Gast
2004-04-16, 20:36:23
Original geschrieben von bans3i
Ich möchte wissen, warum auf er NV Page kein Chip Takt angegeben wird?? Warten die noch bis ATI ihre neuen GPU vorstellt, um sich erst später auf den finalen Takt festzulegen?
bingo. hab dies bei meinem vorigen post vergessen hinzuzufügen.
bei bisherigen productlaunches wurde ja immer die Ultra variante und die marketing-wirksamstem daten (megahertz, megabytes, megapixels) überall auf der offiziellen site gross gehypt, und meistens waren sofort auch infos über die direkt "verwandten" chipvarianten verfügbar. jetzt ist ultra kaum zu finden, es gibt nirgendwo auf der site eine differenzierung der verschiedenen chip/kartenvarianten, keine angaben über taktfrequenzen, usw.

Hellfire-Torrod
2004-04-16, 20:40:00
OT an
http://users.pandora.be/gamer/A64/nvidia_test_rig.jpg

Ich bin bereit, mir eine neue Karte zu kaufen...seid ihr es auch?
OT aus



Mensch, is ja egal, was nu mit Ultra/nonultra ist.....vieleicht werden wir ja nach dem launch des x800 mehr erfahren!

LovesuckZ
2004-04-16, 21:33:47
Original geschrieben von SKYNET
lese dochmal oben was ich da geschrieben habe ;) A64/FX 3.2GHz oder passendes P4 pendant.

Rofl, zu wenig...
Selbst Q3 ist mit einer 6800 in 1600*1200 cpu-limitierend: http://www.techreport.com/reviews/2004q2/geforce-6800ultra/index.x?pg=6

reunion
2004-04-16, 21:36:25
Hallo Leute hört auf zu träumen, die Karte hat eine bi-Füllrate von 6.400MTexel/s und das erreicht man bei 400mhz Chiptakt nur mit 16pipes und definitiv nicht mit 12!

Gast
2004-04-16, 21:48:38
Auch wenn die Meinung eines Gastes hier nicht viel zählt, so ist die Idee, daß 16x400 nur eine 6800 sei, strategisch sehr klug.

Der GPU-Hersteller, der dieses Jahr (D3, HL2) taktisch richtig am Markt liegt, wird bei der nächsten Jahresbilanz mehr als nur einen zweistelligen Mio. Vorsprung in der Kasse haben als der andere.
Noch nie ging es im Graka-Business um soeviel Kohle wie 2004/2005 !

deekey777
2004-04-16, 21:57:15
Original geschrieben von reunion
Hallo Leute hört auf zu träumen, die Karte hat eine bi-Füllrate von 6.400MTexel/s und das erreicht man bei 400mhz Chiptakt nur mit 16pipes und definitiv nicht mit 12!

Das wurde schon von Demi und entweder aths oder Exxtreme diskuiert.

Gast
2004-04-16, 22:34:20
Original geschrieben von bans3i
Ich möchte wissen, warum auf er NV Page kein Chip Takt angegeben wird?? Warten die noch bis ATI ihre neuen GPU vorstellt, um sich erst später auf den finalen Takt festzulegen?

Die haben wahrscheinlich sehr viel Angst, ich versteh die Aufregung nicht! War doch zu erwarten das viel gepockert wird.

Wahrscheinlich geht nvidia den gleichen Weg wie ATI,

8 Pipes, 12 Pipes, 16 Pipes !

Beim Speicher haben sie halt das grosse Problme das sie nicht auf Samsung - Speicher zurückgreigen können wie ati, der läßt sich höher takten!

Quasar
2004-04-16, 22:35:51
Original geschrieben von Gast
Beim Speicher haben sie halt das grosse Problme das sie nicht auf Samsung - Speicher zurückgreigen können wie ati, der läßt sich höher takten!

Schau dir mal _genau_ das Bild von THGs nV40 an, besonders den Detail-Shot des RAM....

Gast
2004-04-16, 22:35:58
Original geschrieben von SKYNET
ich rede ja davon das der x800XT die 6800nu gickt... aber NV dann die U nachschiebt :D

Das wird nicht passieren, wahrscheinlich haben sie die Ultra "sprich" die 16 Pipes an einige Redakteure geschickt und auch ein paar 12 Pipes rausgeschickt, wer weiß das schon?*g*

Gast
2004-04-16, 22:37:48
Original geschrieben von Quasar
Schau dir mal _genau_ das Bild von THGs nV40 an, besonders den Detail-Shot des RAM....

Sorry, ich vergaß zu erwähnen in Mengen! Sprcih Stückzahlen, ansonsten macht meine Aussage keinen Sinn.

*g* Dir mal schnell zustimme!

Ich meinte Stückzahlen ab 5K-10K, laut meiner Info, GDDR3-Speicher! Mit dem XXX Takt, achja das ist ja noch NDA*g*

Nix mehr sagt!

SKYNET
2004-04-16, 22:38:14
Original geschrieben von LovesuckZ
Rofl, zu wenig...
Selbst Q3 ist mit einer 6800 in 1600*1200 cpu-limitierend: http://www.techreport.com/reviews/2004q2/geforce-6800ultra/index.x?pg=6

naja, 1GHz A64 power mehr als bei den meisten tests.... meinst wirklich das da dann noch limitiert ?

höchstens bei 800*600 schätze ich.

und wenn nicht ist doch auch gut, dann hat man ne karte die man 2 jahre behalten kann weil erst dann CPU's kommen wo die karte bremst ;)

Fadl
2004-04-16, 23:22:23
Original geschrieben von Gast
Beim Speicher haben sie halt das grosse Problme das sie nicht auf Samsung - Speicher zurückgreigen können wie ati, der läßt sich höher takten!

War es nicht der Micron Speicher der angeblich schon höher getaktet und exklusiv für ATI zur Verfügung stehen soll? Und das NVidia nur auf Samsung zurückgreifen kann?

the_MAD_one
2004-04-16, 23:30:33
Original geschrieben von SKYNET
naja, 1GHz A64 power mehr als bei den meisten tests.... meinst wirklich das da dann noch limitiert ?

höchstens bei 800*600 schätze ich.

und wenn nicht ist doch auch gut, dann hat man ne karte die man 2 jahre behalten kann weil erst dann CPU's kommen wo die karte bremst ;)

schau dir doch die Benches an. Selbst mit der CPU liefert die 6800 bei Q3 fast konstant 300fps, egal welche Auflösung(Ok bei 1600x1200 ists etwas weniger) folglich sollte hier die CPU limitieren.

SKYNET
2004-04-16, 23:35:54
Original geschrieben von the_MAD_one
schau dir doch die Benches an. Selbst mit der CPU liefert die 6800 bei Q3 fast konstant 300fps, egal welche Auflösung(Ok bei 1600x1200 ists etwas weniger) folglich sollte hier die CPU limitieren.

etwas weniger ? 2fps weniger :D

eher messungenauigkeiten würde ich sagen ;)

Gast
2004-04-17, 02:39:01
... und sie ist zu kaufen:
Akiba, Japan (http://www.watch.impress.co.jp/akiba/hotline/20040417/etc_gf68box.html)

Hehe, wo sonst! =)
up

Karlsson
2004-04-17, 02:50:13
Original geschrieben von betareverse
Das finde ich der Tat auch verdächtig. NV muss von ATI starke Konkurrenz erwarten, sonst könnten sie für ihre sicherlich von den Features her geniale Ultra-Karte auch mehr verlangen zum Start.

Den Gedanken hatte ich auch schon. Könnte sich aber auch damit erklären, dass relativ schnell eine 6900er nachgeschoben wird und die FX-Serie durch 8/12 Pipes NV40er (NV???) abgelöst wird.

Für den Verbraucher (also mich *eg* ) wünsche ich mir allerdings ein "Oldtecrace" 59er vs. 98er und dadurch Preise in diesem Bereich von unter €150.- Dann geht sogar meine FX5200 in Rente. ;)

BlueRaven
2004-04-17, 02:50:45
Ich hasse die Japaner², die bekommen jeden mist als erster und sind in jeder HighTech sache als erster und wir Europäer müssen warte und warten und warten bis uns grauer haare wachsen.





bye
BlueRaven

MadManniMan
2004-04-17, 02:56:00
Errm, das ist ja ein schöner Karton. :|

Junkee hat BTW schon seit Monaten ein HL²-DVD-Dings Cover als Avatar :grübel:

Gast
2004-04-17, 03:08:06
Ist doch nur der Karton als Vorankuendigung, wann die Hardware geliefert werden kann, weiss dort auch noch niemand.

Mordred
2004-04-17, 07:30:39
Hört sich an sich gut an die KArte, aber solange es nicht die Möglichkeit gibt das AF auf HQ laufen zu lassen kommt diese KArte für mich nicht in Frage.

Muss die TI halt noch etwas länger ackern...

betasilie
2004-04-17, 09:05:33
Original geschrieben von Karlsquell
Den Gedanken hatte ich auch schon. Könnte sich aber auch damit erklären, dass relativ schnell eine 6900er nachgeschoben wird und die FX-Serie durch 8/12 Pipes NV40er (NV???) abgelöst wird.

Für den Verbraucher (also mich *eg* ) wünsche ich mir allerdings ein "Oldtecrace" 59er vs. 98er und dadurch Preise in diesem Bereich von unter €150.- Dann geht sogar meine FX5200 in Rente. ;)
Das die 6800Ultra garnicht das eigentliche Flagschiff ist, sondern z.B. eine 6850Ultra, ist schon gut möglich. Jedenfalls gibt ATIs Verhalten eine Menge Stoff zum spekulatiunieren. :)

dildo4u
2004-04-17, 09:12:58
bei anantech steht im test das die 6800Ultra 499 und nich 399 kosten soll was stimmt den nun gibts das nix officelles von einem karten hersteller?

Gast
2004-04-17, 09:31:07
Original geschrieben von dildo4u
bei anantech steht im test das die 6800Ultra 499 und nich 399 kosten soll was stimmt den nun gibts das nix officelles von einem karten hersteller?

Und auf TweakPC hatte Sie geschrieben, dass der offizielle Europa-Preis 550Euro sein soll...

Jenes halte ich auch für realistisch...

ShadowXX
2004-04-17, 09:32:04
Original geschrieben von Gast
Und auf TweakPC hatte Sie geschrieben, dass der offizielle Europa-Preis 550Euro sein soll...

Jenes halte ich auch für realistisch...

das war ich...

Asmodeus
2004-04-17, 10:50:15
Mich würde interessieren, ob die Jungs von 3DC vielleicht Zeit hatten zu überprüfen, ob der GLSL Support bei den 60.72 Treibern endlich standardmäßig aktiv ist und auch treiberseitig so optimiert ist, dass die Sache auf einer 6800 auch performant läuft oder ob wir noch bis zu den finalen Treibern warten müssen, bis dann hoffentlich die GLSL endlich offiziell zur Verfügung steht.

Carsten.

LovesuckZ
2004-04-17, 10:51:34
GLSL läuft mit dem 60.72 nun standardmäßig.

Asmodeus
2004-04-17, 10:55:07
Danke für die schnelle Antwort. Und gibts Erkenntnisse über die Performance? Bisher war es ja leider so, dass die Framerate schon dramatisch einbrach, wenn man den "Registry-Hack" benutzte und GLSL in einem eigenen Programm aktivierte.

Carsten.

Gast
2004-04-17, 10:55:32
nVidia leert seine Lager

Grafikkartenhersteller bekommen Nachlässe von 10-20% auf ältere Chips?

Nach Medienberichten aus Taiwan, die sich wiederum auf Quellen bei den dortigen Herstellern berufen, ist nVidia derzeit dabei, seine Lagerbestände rapide abzubauen. Angeblich würden die Grafikkartenhersteller Nachlässe zwischen 10% und 20% erhalten, um bis Ende April einige Millionen Grafikchips loszuwerden. Damit würden diese Verkäufe noch in das am 30.4. endende erste Quartal von nVidias fiskalischem Jahr 2005 fallen.
Solche Aktionen waren auch in der Vergangenheit nicht ungewöhnlich, jedoch gibt es einen signifikanten Unterschied. In den letzten Jahren lag der Gesamtwert der mit solchen Dumping-Angeboten in den Markt gedrückten Grafikchips bei durchschnittlich 50 Millionen US-Dollar. Derzeit soll der Lagerbestand von nVidia allerdings einen Wert von $80 Mio. besitzen.

Mark3Dfx
2004-04-17, 10:58:15
Nunja, so dolle war FX Serie auch nicht. ;(
Alles unterhalb einer FX 5900 (XT) ist für Spieler doch uninteressant.

Rampage 2
2004-04-17, 11:46:26
Original geschrieben von aths
Ja, natürlich.
Das solltest du mal nachbenchen :) Z. B. mit einer Radeon. Um die Graka-Last zu heben 16x AF rein, und dann bi vs. tri. Musste aber entweder OpenGL-Games nehmen, oder z. B. mit dem aTuner full tri in D3D einstellen.

Ich habe nur eine GF4MX - und die kann nur 2xAF.

Sag mir doch einfach wie hoch der Leistungseinbruch von bi auf tri bei einer grakalimitierten Situation (sehr hohe Auflösung, 4xAA+16xAF) ist - schätz einfach, es muss kein genauer Wert sein.

Gast
2004-04-17, 14:13:38
--------------------------------------
Original geschrieben von TheGood
andere frage aus welchen gründen platziert nvidia ihre grafikkarten preislich auf einmal bei 399 (6800 ultra) 299(3800)
MAcht doch imho keinen sinn??!!! ausser sie wissen dass der 12 pipe r420 gleich schnell sein wird als die 6800 ultra!!??

Hat wer noch andere SPekulationen bezüglich des "plötzlichen" Preisrutsches???
---------------------------------------

Ich vermute NVIDIA wird bald eine 6850U auf den Markt bringen mit deutlich höherem Chiptakt. Diese wird dann zu 499USD verkauft. Die 400 Mhz GPU Clock Version werden Sie vermutlich nur deshalb herausbringen, weil der Yield einer z.B. 550 Mhz GPU entsprechend schlecht ist und sich so der Markteintritt verzögern würde. Da Sie vermutlich mehr Chips mit max 400-450 mhz GPU Eignung herstellen werden als chips mit 550-600 mhz gpu eignung, müssen Sie auch dementsprechend mehr davon verkaufen.

Möglicherweise ist also der yield der 9800U sehr gut und NVIDIA kann es sich leisten die Karte zu 399$ zu verkaufen mit der Absicht einen hohne Marktanteil zu bekommen. Marktanteil ist sehr wichtig für NVIDIA, da es ihr zentrales Kaufargument (PS3) stützt.
Wenn NVIDIA bei den Gameentwicklern um PS3 Support "betteln" geht, dann macht sich eine Statistik über einen hohen Marktanteil gut...

Gast
2004-04-17, 15:06:20
X800 PRO/R420 Pro


Chiptakt 474 MHz

Speichertakt 900 MHz :D

This card is meant to fight Geforce 6800 non Ultra - the one with 12 pipelines and should be in retail as soon as ATI launches it.

This means that you should be able to buy one on the 4th of May but let's wait and see if ATI can deliver on that day.


http://www.theinquirer.net/?article=15377


Everything is packed into 180 millions of transistors and the card has 12 pipelines as we suggested. The R420XT, Radeon X800XT will be higher clocked card with 16 pipelines which came as a huge surprise to us.


Faster Radeon X800XT will come just after E3, and soon after the 14th of May we are told. I cannot remember if I said this before, but the R420 is chip based on R300 marchitecture and you can clearly see this from its 96 bit precision support and lack of PS 3.0.

Gast
2004-04-17, 15:09:40
Die XT unterstützt PS 3.0,na was sagen die NV Fans dazu

LovesuckZ
2004-04-17, 15:15:34
Original geschrieben von Gast
Die XT unterstützt PS 3.0,na was sagen die NV Fans dazu

Das du kein englisch kannst...

Gast
2004-04-17, 15:20:02
Original geschrieben von LovesuckZ
Das du kein englisch kannst...


Und du hast es nötig nackte Weiber als Avatar zu nehmen.

SKYNET
2004-04-17, 15:21:13
Original geschrieben von LovesuckZ
Das du kein englisch kannst...

;D
sauber, flame versuch vom gast unterbunden durch die eigende unwissenheit(dumm ist so ein schlechtes wort :D ) von gast :lol:

so muss das. ;)


Original geschrieben von Gast
Und du hast es nötig nackte Weiber als Avatar zu nehmen.

er hat wenigstens eins.

Sphinx
2004-04-17, 15:47:39
Original geschrieben von Gast
Und du hast es nötig nackte Weiber als Avatar zu nehmen.

Hey die is bekleidet * nimm mal die Brille ab

Gast
2004-04-17, 15:49:30
Original geschrieben von Gast
Die XT unterstützt PS 3.0,na was sagen die NV Fans dazu

"lack of" bedeute "Mangel an" oder "Fehlen von".
So wie es dem R420 an PS3.0 mangelt, so fehlt es dir an Benimm (falls du derselbe Gast bist, der auch LS so schräg angemacht hat).

Gast
2004-04-17, 15:54:52
So, nun mal alle wieder ernst werden ;)

So überraschend find ich den Artikel nun gar nicht, denn was uns dort erzählt wird, lag ja irgendwie schon vorher auf der Hand.

Die Pro-Version X800 besitz also:

- 180 Millionen Transistoren bei 12 Pipes
- 475 MHz Chiptakt
- 900 Mhz Speichertakt (also 450 Mhz real)

Die XT-Version X800XT besitz also:

- 16 Pipes
(die Frage ist nun, sind die zusätzlichen 4 Pipes schon in den 180 Mill. Transistoren mit verbaut und nur deaktiviert, dann könnte der Chiptakt noch etwas steigen, oder kommen da noch Transistoren dazu, dann wäre man wohl auch bei etwa 220 Mill. und der Takt könnte auch herabgesetzt werden müssen.)
- Speichertakt könnte bei der XT Version dann wohl auch auf 6800 Niveau von etwa 550 Mhz liegen

Carsten.

Asmodeus
2004-04-17, 15:59:00
Grrr, die Sache mit dem Gastaccount ist ja blöd ;)

Also, ich bekenne mich hiermit zum vorhergehenden Thread ;)

Carsten.

ice cool69
2004-04-17, 16:15:11
Ich frage mich ob die 96bit Präzision beim Rendern ein Nachteil oder Vorteil ist. Schließlich wird die ATI schneller sein, die Frage ist nur ob man dafür auch die schlechtere Qualität sieht.

LovesuckZ
2004-04-17, 16:18:46
Original geschrieben von ice cool69
Ich frage mich ob die 96bit Präzision beim Rendern ein Nachteil oder Vorteil ist. Schließlich wird die ATI schneller sein, die Frage ist nur ob man dafür auch die schlechtere Qualität sieht.

Wer sagt, dass ATi schneller sein werde und mit welcher Karte?
Sollte das Gerücht stimmen, dass Nvidia die Ultravariante für 399$ anbieten wolle, dann haette ATi da nur eine X800 Pro entgegenzusetzen. Und wer weiß, ob diese schneller sein werde.

Asmodeus
2004-04-17, 16:26:48
Original geschrieben von LovesuckZ
Wer sagt, dass ATi schneller sein werde und mit welcher Karte?
Sollte das Gerücht stimmen, dass Nvidia die Ultravariante für 399$ anbieten wolle, dann haette ATi da nur eine X800 Pro entgegenzusetzen. Und wer weiß, ob diese schneller sein werde.

Wirklich störend finde ich vorallem wieder die zwangsweise auftretenden Inkompatibilitäten bei Benchmarks, da man eine FP32 Architektur, die auch FP16 kann, nunmal leistungsmäßig schlecht mit einer FP24 Architektur vergleichen kann. Somit gibt es wieder jede Menge Raum für Spekulationen (wie schnell wäre Nvidia mit FP24, oder wie schnell wäre Ati mit FP32 etc.) Und dann eben noch die ewige Diskussion über visuelle Unterschiede, ob sie sichtbar sind und störend, oder zwar sichtbar, aber nicht störend, bla bla bla. Alles nix wirklich greifbares ;)

Carsten.

Gast
2004-04-17, 16:46:54
Original geschrieben von ice cool69
Ich frage mich ob die 96bit Präzision beim Rendern ein Nachteil oder Vorteil ist. Schließlich wird die ATI schneller sein, die Frage ist nur ob man dafür auch die schlechtere Qualität sieht.

Ich sag' mal so: Wenn man's daraauf anlegt, kriegt man sicherlich Shader hin, die den Unterschied sichtbar machen.

Wenn man sich hingegen Mühe gibt, sollten die meisten Shader auch auf FP16 noch gut ausschauen.

In "gesponsorten" Games wird es sicherlich sowohl mal einen Unterschied zwischen FP32 und 24 sowie auf der anderen Seite FP24 und 16 geben.

Gast
2004-04-17, 17:14:36
Zum Preis->

Die c't schreibt 550 €.. :(

Gast
2004-04-17, 17:17:40
Original geschrieben von Gast
Zum Preis->

Die c't schreibt 550 €.. :(

Gut so :up:

Leonidas
2004-04-17, 17:29:06
Original geschrieben von Fadl
Also bei mir ist das eher umgekehrt.
In den Aussenarealen bricht die Framerate teilweise auf 20FPS ein. Die Innenlevel laufen soweit eigentlich alle flüssig.
Mein Rechner hat eine P4 2.8 CPU 1GB RAM und eine ATI 9800Pro.
Gamesettings: 1280x1024 Details auf High/Ultra.



Sehe ich ganz genauso mit GT4Ti.

Leonidas
2004-04-17, 17:30:28
Original geschrieben von Gast
Zum Preis->

Die c't schreibt 550 €.. :(



Und hat Recht ... die 399 waren ein Fehler unserseits. Offiziell sind es 499$ bzw. 549€.

Leonidas
2004-04-17, 17:30:54
Original geschrieben von Iceman346
Kann ich so nicht bestätigen. Die Außenlevel laufen bei mir durchgehend flüssiger als die Innenlevel.


Bei mir exakt umgedreht.

LovesuckZ
2004-04-17, 17:31:32
Original geschrieben von Leonidas
Und hat Recht ... die 399 waren ein Fehler unserseits. Offiziell sind es 499$ bzw. 549€.

Sind die 299$ oder dann 349€ für die 6800nU, die irgendwann mal erscheinen werde, dagegen richtig?

thop
2004-04-17, 17:34:08
Ja sind richtig. 349€ ist ein exzellenter Preis, vor allem weil der innerhalb der ersten 2 Wochen sicher auf ~300€ Ladenpreis sinken wird. Da hat vermutlich selbst die ~200€ 9800Pro nichts mehr zu lachen.

Das sieht für mich ganz nach einem Preiskampf aus :)

Gast
2004-04-17, 17:36:44
Original geschrieben von LovesuckZ
Das du kein englisch kannst...

ROFL

Leonidas
2004-04-17, 17:37:58
Original geschrieben von Ulukay
stand auf den review board auch ULTRA drauf oder waren das vielleicht nur die nonultras ???


Es waren allesamt Ultra. Non-Ultra hätte nur 12 Pipes gehabt.

Leonidas
2004-04-17, 17:39:39
Original geschrieben von kiss
Hat eigentlich keiner der reviewer den Kühler abgenommen? Dort müsste doch dann stehen ob es der 6800ultra chip oder Nonutra ist.


Doch, die x-bit Labs. Ich durfe aba nicht :(

http://www.xbitlabs.com/images/video/nv40/nv40_chip.jpg

ice cool69
2004-04-17, 17:39:58
@ lovesuckz

Die pro tritt gegen die normale 6800er an, die XT wird sich mit der Ultra messen.
Bitte lies genau was ich schreibe: durch die Verwendung von FP24 hat ATI einen Geschwindigkeitsvorteil, da nvidia das langsamere aber genauere FP32 verwendet.
Ich schrieb nirgends dass ATIs Karte schneller, besser oder schöner sein wird

Leonidas
2004-04-17, 17:42:11
Original geschrieben von Winter[Raven]
http://www.clubic.com/photo/00083429.jpg


Fehler des Treibers. Ich habe manuell bei der Installtion "6800 Ultra" ausgewählt - und verschiedene Software hat das auch so erkennt. Bei mir steht im Treiberpanel aber auch nur "6800" - obwohl ich definitiv "6800 Ultra" installiert habe. Insofern Schreibfehler im Treiber.

Leonidas
2004-04-17, 17:43:41
Original geschrieben von Ulukay
also da steht nix von ultra auf dem chip:

http://www20.tomshardware.com/graphic/20040414/geforce_6800-03.html


und da steht ned 6800 Ultra sondern 6800 Pro....

http://www20.tomshardware.com/graphic/20040414/geforce_6800-18.html


da steht nur 6800 und kein ultra (bei mir steht da z.b. 5950 ultra):
http://www.clubic.com/photo/00083429.jpg

msi presse statement:



auf hardocp steht im treiber auch nix von ultra:
http://www.hardocp.com/images/articles/10817474486qLMOmeutS_2_1_l.gif



Wenn die Testkarten 6800er wären und keine Ultra, dann wären es welche mit 12Pipes - und dann hätte man das in den Füllratenbenches rausbekommen. Punkt.

ow
2004-04-17, 17:46:10
Original geschrieben von ice cool69
@ lovesuckz

Bitte lies genau was ich schreibe: durch die Verwendung von FP24 hat ATI einen Geschwindigkeitsvorteil, da nvidia das langsamere aber genauere FP32 verwendet.



Was aber nur gänzlich indirekt der Fall ist, da FP32 normalerweise genau so schnell wie FP24 ist aber eben 25% mehr Transistoren braucht und sich daraus evtl. eine höhere Taktung des Chips ergeben kann.
Die geringere Rechenpräzision von FP24 bringt direkt keinen Geschwindigkeitsvorteil gegenüber FP32.

Leonidas
2004-04-17, 17:50:43
Original geschrieben von Asmodeus
Mich würde interessieren, ob die Jungs von 3DC vielleicht Zeit hatten zu überprüfen, ob der GLSL Support bei den 60.72 Treibern endlich standardmäßig aktiv ist und auch treiberseitig so optimiert ist, dass die Sache auf einer 6800 auch performant läuft oder ob wir noch bis zu den finalen Treibern warten müssen, bis dann hoffentlich die GLSL endlich offiziell zur Verfügung steht.

Carsten.



Nein, leider nicht.

Leonidas
2004-04-17, 17:52:45
Original geschrieben von LovesuckZ
Sind die 299$ oder dann 349€ für die 6800nU, die irgendwann mal erscheinen werde, dagegen richtig?


Absout richtig.

ice cool69
2004-04-17, 18:33:29
Wartet auf die 6850 Ultra, dann wird die 6800 Ultra auch im Preis fallen.
550€ sind halt schon ein ordentlicher Batzen, hoffen wir alle dass ATI gut dagegen halten kann damit die Preise fallen, das wäre im Sinne aller, egal ob ATI- oder nVidia-Fan.

Gast
2004-04-17, 18:46:27
Genau,wir brauchen 2 gleich starke Firmen damit die Preise "vernünftig" bleiben,ein dritter wäre noch besser.

Wann wird NV einen Chip produzieren,der auch mit hohen AA/AF keinen großen Leistungsverlust hat ? NV50 ?

Fadl
2004-04-17, 19:00:30
Schade, ich dachte wirklich der Preis wird nun doch bei 399$ liegen nachdem es so auch bei computerbase geschrieben stand.
499$ sind ein batzen Geld für eine Karte die wohl NOCH kaum jemand ernsthaft braucht. Da werden wohl noch einige 9800pro Karten über den Ladentisch gehen(soweit verfügbar).
Bei der 6800 non Ultra muss man wohl erstmal erste Tests abwarten um ihre Leistung einschätzen zu können. Evtl. wird dann diese Karte der "best bang for the bucks" :)

Mehrpack
2004-04-17, 19:13:45
Original geschrieben von Fadl
Schade, ich dachte wirklich der Preis wird nun doch bei 399$ liegen nachdem es so auch bei computerbase geschrieben stand.
499$ sind ein batzen Geld für eine Karte die wohl NOCH kaum jemand ernsthaft braucht. Da werden wohl noch einige 9800pro Karten über den Ladentisch gehen(soweit verfügbar).
Bei der 6800 non Ultra muss man wohl erstmal erste Tests abwarten um ihre Leistung einschätzen zu können. Evtl. wird dann diese Karte der "best bang for the bucks" :)

hi,
yo schade, hatte auch auf die 399$ gehofft, wäre nen hübscher kleiner preis gewesen und ATI wäre dann auch in zugzwang gewesen mit dem r420.
aber so muss man wohl noch etwas warten bis sich beide nen kleinen preiskampf liefern und die preise sinken.
hoffe das wird noch im sommer der fall sein.

Mehrpack