PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller NV40 / GeForce 6800 Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 [11] 12 13 14

DrumDub
2004-06-14, 15:29:19
Original geschrieben von BvB123
4 RV360?

was meinst du damit?

was gibts da nicht zu verstehen?

rv360=9600(xt)=4x1 architektur
r420=x800(xt)=16x1 architektur+ps2.x+3dc+das hier (http://ds80-237-203-199.dedicated.hosteurope.de/artikel/2004/06-01.php)

dildo4u
2004-06-14, 15:30:00
http://www.tweaktown.com/document.php?dType=article&dId=657&dPage=10

X800proVS.6800Ultra

DrumDub
2004-06-14, 15:34:59
Original geschrieben von dildo4u
http://www.tweaktown.com/document.php?dType=article&dId=657&dPage=10

X800proVS.6800Ultra

wasn das jetzt für nen sinnfreier link?

dildo4u
2004-06-14, 15:36:02
ähm das ist doch der sammelbeitrag für tests der 6800U oder nich?

DrumDub
2004-06-14, 15:37:56
Original geschrieben von dildo4u
ähm das ist doch der sammelbeitrag für tests der 6800U oder nich?

ja, aber warum verweiste du auf die far cry benches und nicht auf die erste seite des tests? :|

BvB123
2004-06-14, 15:40:07
Weil farcry viel interessanter ist


was gibts da nicht zu verstehen? hehe


naja nen bisl unfair ist es schon 6800 ultra gegen x800Pro

dildo4u
2004-06-14, 15:40:16
Original geschrieben von DrumDub
ja, aber warum verweiste du auf die far cry benches und nicht auf die erste seite des tests? :| is doch egal immer noch besser als das OT gequatsche vieler hier

Gast
2004-06-14, 15:42:48
@Quasar

wann kommt denn nun dein/euer neuer Artikel auf CB???

DrumDub
2004-06-14, 15:44:07
Original geschrieben von dildo4u
is doch egal immer noch besser als das OT gequatsche vieler hier

:P

um ot zu bleiben. ;D

außredem ist die tweak town seite selten hässlich.

deekey777
2004-06-14, 15:44:14
Original geschrieben von dildo4u
http://www.tweaktown.com/document.php?dType=article&dId=657&dPage=10

X800proVS.6800Ultra

Irgendwie verliert die 6800 Ultra nur 0.58 Frames 1024<->1600...

BvB123
2004-06-14, 15:46:58
Hmm seltsam kann mir nicht vorstellen das da schon ne cpu limiterung wäre


in den anderen reviews war das glaub anders

dildo4u
2004-06-14, 15:48:08
Original geschrieben von deekey777
Irgendwie verliert die 6800 Ultra nur 0.58 Frames 1024<->1600... is whol ohne AA und Aniso

BvB123
2004-06-14, 15:49:43
trotzdem die x800pro verliert 15 Fps

kann ich mir nicht vorstellen bei dem game

ist doch viel zu aufwenig für ne cpu limiterung in 1600*1200

oder haben sie die versteckte stärke der 6800u gelüftet;D

dildo4u
2004-06-14, 15:51:04
Original geschrieben von BvB123
trotzdem die x800pro verliert 15 Fps

kann ich mir nicht vorstellen bei dem game

ist doch viel zu aufwenig für ne cpu limiterung in 1600*1200

oder haben sie die versteckte stärke der 6800u gelüftet;D wenns ein außenlevel is kann das sher whol cpu limitiert sein

BvB123
2004-06-14, 15:56:06
Und warum verliert die x800pro so viel?

seltsam wie kommen die unterschieds zusammen?

hier hat die x800pro 800 punkte mehr im 01er als die 6800u

http://www.tweaktown.com/document.php?dType=article&dId=657&dPage=4

und hier hat sie 3500 weniger?

http://www.hkepc.com/hwdb/6800nugt-4.htm

dildo4u
2004-06-14, 15:59:50
Original geschrieben von BvB123
Und warum verliert die x800pro so viel?

seltsam wie kommen die unterschieds zusammen?

hier hat die x800pro 800 punkte mehr im 01er als die 6800u

http://www.tweaktown.com/document.php?dType=article&dId=657&dPage=4

und hier hat sie 3500 weniger?

http://www.hkepc.com/hwdb/6800nugt-4.htm bei tweak town schon der neuen cat4.6 genutzt der is auf na X800 schneller

BvB123
2004-06-14, 16:01:20
aber 4000 punkte?

wenn das mal mit rechten dingen zugeht;D

dildo4u
2004-06-14, 16:02:27
Original geschrieben von BvB123
aber 4000 punkte?

wenn das mal mit rechten dingen zugeht;D

ati zieht einfach die 6800U im nature test ab da kommt die 6800 U nich über 200fps die X800 jedoch deutlich


http://service.futuremark.com/compare?2k1=7905384
6800U ohne OC nur 180fps

http://service.futuremark.com/compare?2k1=7856358
X800pro 202fps ohneOC

q@w
2004-06-14, 16:02:38
Original geschrieben von Gast
@Quasar

wann kommt denn nun dein/euer neuer Artikel auf CB???

Keine Ahnung... von mir aus seit gestern abend.

sry
;(

Blaire
2004-06-14, 16:46:26
Original geschrieben von dildo4u
ati zieht einfach die 6800U im nature test ab da kommt die 6800 U nich über 200fps die X800 jedoch deutlich


http://service.futuremark.com/compare?2k1=7905384
6800U ohne OC nur 180fps

http://service.futuremark.com/compare?2k1=7856358
X800pro 202fps ohneOC

Vieleicht durch die vielen Schmetterlinge? :D

LovesuckZ
2004-06-14, 16:47:45
Original geschrieben von Blaire
Vieleicht durch die vielen Schmetterlinge? :D

Oder weil Nvidia die 3DMark2001 "Optmierungen" entfernt hat...

Blaire
2004-06-14, 16:49:52
Kann auch sein. Hab eben nochmal neugestartet und nochmal den 2001er durchlaufen lassen und mehr wie 180,7 fps bei Nature kam nicht heraus.

LovesuckZ
2004-06-14, 16:50:43
Original geschrieben von Blaire
Kann auch sein. Hab eben nochmal neugestartet und nochmal den 2001er durchlaufen lassen und mehr wie 180,7 fps bei Nature kam nicht heraus.

Dafür bist du mit über 2000Punkte im 3DMark2003 deutlich schneller. :)

Blaire
2004-06-14, 16:54:23
Original geschrieben von LovesuckZ
Dafür bist du mit über 2000Punkte im 3DMark2003 deutlich schneller. :)

Im Nvnews.net Forum hat jemand 14000 Punkte der hat das Ding aber auch auf 450/1200 übertaktet und hat auch einen 3,8er P4! 3D Mark sollte man aber nicht als Maßstab nehmen wichtig ist das die Games einwandfrei und schnell funzen.
Ich teste denn mal weiter.

MfG

Godmode
2004-06-14, 17:12:26
Omg jetzt geht dieser scheiss Schwanzlängenvergleich wieder los! Stop it!

MarcWessels
2004-06-14, 17:19:26
"With the X800 Pro running at 8 x AA, it still manages to score only just behind the 6800 Ultra which is only running 6 x AA."


Höh?

DrumDub
2004-06-14, 17:23:53
Original geschrieben von MarcWessels
"With the X800 Pro running at 8 x AA, it still manages to score only just behind the 6800 Ultra which is only running 6 x AA."


Höh?

müsste wohl umgekehrt lauten.

Gast
2004-06-14, 17:50:46
Original geschrieben von MarcWessels
"With the X800 Pro running at 8 x AA, it still manages to score only just behind the 6800 Ultra which is only running 6 x AA."


Höh?

Umso weniger AA umso schärfer das Bild :freak2:

robbitop
2004-06-14, 18:36:19
@Viper
3Dc ist keine echte Neuerung sondern lediglich ein aufgebohrtes DX5TC

Gast
2004-06-14, 18:38:16
Original geschrieben von MarcWessels
"With the X800 Pro running at 8 x AA, it still manages to score only just behind the 6800 Ultra which is only running 6 x AA."


Höh?

Einfach umdrehn, oder schonmal 6xAA auf nem Nvidia Chip gesehen...

dildo4u
2004-06-14, 18:41:04
Original geschrieben von robbitop
@Viper
3Dc ist keine echte Neuerung sondern lediglich ein aufgebohrtes DX5TC PS3.0 is nur ein aufgebohrtes 2.0 oder nicht?

Gast
2004-06-14, 18:46:17
"Aufgebohrt" ist alles... Bi-Tri Filterung... alles Evolution, wobei 3Dc man nicht mit SM3 vergleichen kann, was hier immer wieder versucht wird.
Sicher ist 3Dc innovativ, aber nicht annähernd so Anspruchsvoll zu implementieren wie PS3... was aber 0 Rückschluss auf die Verwendbarkeit/Nutzen ziehen lässt und deren Umsetzung in die Praxis...

p.s.: don´t feed the troll...

Godmode
2004-06-14, 18:58:37
Original geschrieben von dildo4u
PS3.0 is nur ein aufgebohrtes 2.0 oder nicht?


http://www.3dcenter.de/artikel/2004/03-31_a.php

das ist PS3.0

DanMan
2004-06-14, 19:08:27
Original geschrieben von bans3i
http://www.3dcenter.de/artikel/2004/03-31_a.php

das ist PS3.0
http://www.microsoft.com/whdc/winhec/partners/shadermodel30_NVIDIA.mspx

StefanV
2004-06-14, 19:56:18
Original geschrieben von robbitop
@Viper
3Dc ist keine echte Neuerung sondern lediglich ein aufgebohrtes DX5TC

...womit es wiederrum eine Neuerung wäre...

Jesus
2004-06-14, 20:11:48
Original geschrieben von aths
Außer NRM_PP und Fog-Blending wird mit FP16 nichts schneller berechnet.Nvidias :)

komisch dass andere Benchmarker als ihr das anders getestet haben:

"The most obvious thing to notice is that, overall, partial precision mode rendering increases shader rendering speed. Shader 2 through 8 are lighting shaders (with 2 being a simple diffuse lighting shader). These lighting shaders (especially the point and spot light shaders) will make heavy use of vector normalization. As we are running in partial precision mode, this should translate to a partial precision normalize, which is a "free" operation on NV40. Almost any time a partial precision normalize is needed, NV40 will be able to schedule the instruction immediately. This is not the case when dealing with full precision normalization, so the many 50% performance gains coming out of those lighting shaders is probably due to the partial precision normalization hardware built into each shader unit in NV40. The smaller performance gains (which, interestingly, occur on the shaders that have image quality issues) are most likely the result of decreased bandwidth requirements, and decreased register pressure: a single internal fp32 register can handle two fp16 values making scheduling and managing resources much less of a task for the hardware." ( anandtech)


Ihr scheint die Weissheit wohl mit Löffeln gefressen zu haben oder wieso habt ihr eigentich immer ne andere ( pro Nvidiaer :) ) Meinung als die meisten anderen Reviewer ?

Jesus
2004-06-14, 20:13:32
btw was kostet eigentlich die 6800 ( non ultra ) ?

Wenn die auch 400 Euro kostet dann ist sie wohl ein schlechter scherz.
Das ding ist lt. dem Test auf eurer Homepage ja kaum schneller ( wenn überhaupt ) als eine 9800 XT ( die da nicht mit getestet wurde :) ( komischerweise ).

Und liegt weit hinter ner X800 pro...

BvB123
2004-06-14, 20:18:01
mit 128 mb kostet sie 299€

mit 256 350€


mfg

Gast
2004-06-14, 20:22:42
Original geschrieben von BvB123
mit 128 mb kostet sie 299€

mit 256 350€


mfg

lol und für 370 gibts net X800 pro mit 256 :) Die Wahl dürfte klar sein ( zumindest für mich, nicht dass ich mir überhaupt eine der Karten kaufe :) )

LovesuckZ
2004-06-14, 20:23:46
Original geschrieben von Gast
lol und für 370 gibts net X800 pro mit 256 :) Die Wahl dürfte klar sein ( zumindest für mich, nicht dass ich mir überhaupt eine der Karten kaufe :) )

Und nicht kaufbar, so wie die 6800NU.

Demirug
2004-06-14, 20:31:10
Original geschrieben von Jesus
komisch dass andere Benchmarker als ihr das anders getestet haben:

<snip>(anandtech)


Wenn anandtech sowas testen würden ...

Man nehme das Pressematerial interpretiere noch ein bischen was hinein und fertig ist das Pre/Review.

BvB123
2004-06-14, 20:32:23
Original geschrieben von Gast
lol und für 370 gibts net X800 pro mit 256 :) Die Wahl dürfte klar sein ( zumindest für mich, nicht dass ich mir überhaupt eine der Karten kaufe :) )

Und für mich klar die 6800GT

30e mehr aber gutes stück schneller

Jesus
2004-06-14, 20:38:26
Original geschrieben von LovesuckZ
Und nicht kaufbar, so wie die 6800NU.

lol genau, deswegen gab es sie ja schon vor ca. 4 wochen zu kaufen.. mann mann. Schau mal bei Ebay rein da kriegst du auch schon welche gebraucht !

LovesuckZ
2004-06-14, 20:40:23
Original geschrieben von Jesus
lol genau, deswegen gab es sie ja schon vor ca. 4 wochen zu kaufen.. mann mann. Schau mal bei Ebay rein da kriegst du auch schon welche gebraucht !

Dann zeige mir eine kaufbare X800ro für 379€.

Gast
2004-06-14, 20:41:30
Original geschrieben von Demirug
Wenn anandtech sowas testen würden ...

Man nehme das Pressematerial interpretiere noch ein bischen was hinein und fertig ist das Pre/Review.

Das war ein 'Shadermark 2.0 test bei Anandtech mit partial Precision auf der 6800 Ultra... nur zur info.

Jesus
2004-06-14, 20:43:30
Original geschrieben von LovesuckZ
Dann zeige mir eine kaufbare X800ro für 379€.

369 :)

http://www.geizhals.at/deutschland/a98884.html

im Moment allerdings nicht lieferbar ( wohl erst wieder in 2 Wochen oder so).

War allerdings schon vor 3- 4 Wochen für 380 lieferbar ( hab bei Mindfactory angerufen, und auch bei Geizhals waren bei allen shops die Karten "auf Lager" ).

LovesuckZ
2004-06-14, 20:45:26
Original geschrieben von Jesus
369 :)
War allerdings schon vor 3- 4 Wochen für 380 lieferbar ( hab bei Mindfactory angerufen, und auch bei Geizhals waren bei allen shops die Karten "auf Lager" ).

Ach, für 380€ lieferbar. Interessant, warum haben dann die paar Leute hier im Forum weit über 400€ ausgeben muessen?
Deutsche Wirtschaft ankurbeln? Bestimmt nicht.

Jesus
2004-06-14, 20:48:33
naja manche könnens halt nicht erwarten :)

LovesuckZ
2004-06-14, 20:52:46
Original geschrieben von Jesus
naja manche könnens halt nicht erwarten :)

:???:
Wenn es schon Karten fuer 380€ vor 3 - 4 Monaten gegeben haette, warum gaben diese Leute dann fast 100€ mehr aus?

Jesus
2004-06-14, 20:57:36
Original geschrieben von LovesuckZ
:???:
Wenn es schon Karten fuer 380€ vor 3 - 4 Monaten gegeben haette, warum gaben diese Leute dann fast 100€ mehr aus?

http://www.geizhals.at/deutschland/?phist=98884

LovesuckZ
2004-06-14, 21:05:28
Original geschrieben von Jesus
http://www.geizhals.at/deutschland/?phist=98884

Diese Statistik zeigt nicht, dass die Karten kaufbar waren.
Da ich die Verfuegbarkeit der Karte mitverfolgt habe, beende ich die Diskussions. Von dir kommt nichts mehr und ich will den Thread nicht zerstoeren.

Jesus
2004-06-14, 21:17:13
Original geschrieben von LovesuckZ
Diese Statistik zeigt nicht, dass die Karten kaufbar waren.
Da ich die Verfuegbarkeit der Karte mitverfolgt habe, beende ich die Diskussions. Von dir kommt nichts mehr und ich will den Thread nicht zerstoeren.

Ich habe sie ebenfalls mitverfolgt , und schliesslich haben diese Karten schon einige hier ( der maximalpreis der Sapphire war am Anfagn 399 so weit ich mich erinnere ) und sie war DEFINITV verfügbar, bei geizhals.at !

Uller
2004-06-14, 21:19:55
Die Leute haben die Karten alle sehr teuer gekauft!

Und jetzt kusch, und Computerbase Artikel lesen:
http://www.computerbase.de/artikel/hardware/grafikkarten/x800_pro_xt_pe_geforce_6800_gt_ultra/1/#einleitung

Gast
2004-06-14, 21:30:54
LS, warum springst im GF-thread aud die x800pro ein?

dildo4u
2004-06-14, 21:33:08
Original geschrieben von Uller
Die Leute haben die Karten alle sehr teuer gekauft!

Und jetzt kusch, und Computerbase Artikel lesen:
http://www.computerbase.de/artikel/hardware/grafikkarten/x800_pro_xt_pe_geforce_6800_gt_ultra/1/#einleitung der selbe unsinn wie auf hardcop nur das hier bei den alten karten die optemierungen anbeleiben bei den neuen werden sie abgeschlatet

Der Übersicht halber noch einmal eine Liste, welche Karten mit welchen Einstellungen getestet wurden.


Radeon X800 XT PE: alle bekannten Optimierungen aus
Radeon X800 Pro: lediglich die Stage-Optimierung des AF wurde umgangen
GeForce 6800 Ultra & GT: alle bekannten Optimierungen aus
Radeon 9800XT/9700: Texture-Stage Optimierung des AF an
GeForce FX 5800u/5950: Optimierung des trilinearen Filters und AF an
Radeon 9600 XT: Reduzierung des trilinearen Anteils am Gesamtbild an
GeForce 4 Ti 4800: keine Optimierungen der Texturfilter bekannt :abgel:

Wenn ich anstelle Nvidias und ATI wär würde ich CB keine karte mehr geben sowas macht das geschäft kaputt ihr könnt gerne auf optemierungen hinweisen aber nicht so benchen

Uller
2004-06-14, 21:33:18
Interessant an dem Artikel ist, warum die Geforce 6800 so weit abfällt bei 4xAA / 16xAF.

@Quasar:
Ganz habe ich den Artikel nicht verstanden, aber - besteht hier evtl. noch Chance auf Besserung durch neuere Treiber?


@Gast: Ist vollkommen egal, kannst du ihn per PN fragen.

Demirug
2004-06-14, 21:34:52
Original geschrieben von Gast
Das war ein 'Shadermark 2.0 test bei Anandtech mit partial Precision auf der 6800 Ultra... nur zur info.

Ich wusste das es ein "Shadermark 2.0" Test war. Genau deswegen habe ich ja auch geschrieben: "Wenn anandtech sowas testen würden ..."

http://www.anandtech.com/video/showdoc.html?i=2044&p=9

Man werfe einen Blick auf die Tabelle und erkennt das bis auf Shader 23 (water colour like rendering) alle shader von pp profitieren. Bis auf den Shader 23 enthalten alle anderen in der Liste aber auch die 'normalize' Anweisung in unterschiedlicher Anzahl. Über 'normalize' wissen wir aber das der NV40 das mit FP16 besonders gut kann.

Ergo ist der Shadermark die falsche Anwendung um ein mögliches Registerfile Problem beim NV40 zu untersuchen.

Uller
2004-06-14, 21:36:49
Original geschrieben von dildo4u
der selbe unsinn wie auf hardcop nur das hier bei den alten karten die optemierungen anbeleiben bei den neuen werden sie abgeschlatet

Ich finde den Test gut. Weiter so Quasar! ;)

Geradezu erschreckend finde ich aber den Max Payne 2 Benchmark:
Radeon X800 XT "PE" 125,82
Radeon X800 Pro 114,43
Radeon 9800 XT 80,07
GeForce 6800 Ultra 77,59
GeForce 6800 GT 68,39
GeForce FX 5950 Ultra 66,90

Wie kann es denn sein, dass hier die 6800 GT nur MINIMAL besser ist als die 5950 Ultra?

*selberantwort*: weil die Speicherbandbreite nur minimal größer ist?
Richtig?

dildo4u
2004-06-14, 21:40:10
Original geschrieben von Uller
Ich finde den Test gut. Weiter so Quasar! ;)

Geradezu erschreckend finde ich aber den Max Payne 2 Benchmark:
Radeon X800 XT "PE" 125,82
Radeon X800 Pro 114,43
Radeon 9800 XT 80,07
GeForce 6800 Ultra 77,59
GeForce 6800 GT 68,39
GeForce FX 5950 Ultra 66,90

Wie kann es denn sein, dass hier die 6800 GT nur MINIMAL besser ist als die 5950 Ultra?

*selberantwort*: weil die Speicherbandbreite nur minimal größer ist?
Richtig? womacht das sinn wenn die X800XT komplet ohne optemierung leuft und die X800 teilweise mit ?

Mr. Lolman
2004-06-14, 21:40:10
Die Stageoptimierung bei Ati ist doch nur unter d3d vorhanden, oder?

LovesuckZ
2004-06-14, 21:40:12
Original geschrieben von Uller
*selberantwort*: weil die Speicherbandbreite nur minimal größer ist?
Richtig?

Nein, weil die XT und erstrecht die Pro kaum mehr haben.

Uller
2004-06-14, 21:44:16
@dildo4u: der Unterschied zwischen X800XT und X800Pro ist doch egal, dazu gibt es genug Reviews. Die Optimierungen machen eine Vergleichbarkeit der Karten unter verschiedenen Marken schwer, daher ist es recht egal dass die X800 Pro mit Optimierungen an getestet wurde.
Wenn Computerbase nicht herausgefunden hätte wie man die Optimierungen ausmacht hätten wir heute noch kein derartiges Review, nicht von Computerbase und erst recht nicht von anderen Seiten!

@Lovesuckz: doch, weil es ist ja ein Nvidia Problem!

LovesuckZ
2004-06-14, 21:45:53
Original geschrieben von Uller
@Lovesuckz: doch, weil es ist ja ein Nvidia Problem!

Es steht im test, warum es in hohen Aufloesungen beim AA Probleme gibt. Und das hat nichts mit der Speicherbandbreite zu tun.

/edit: Koennte das vielleicht das selbe Problem sein, welches es auch schon in farcry gab? Eventuell hilft ein Einstellen des AA über die Anwendung.

/edit2: Habt ihr, von Computerbase.de (also Quasar), mal Kontakt mit Nvidia aufgenommen und dieses Problem dargelegt?

dildo4u
2004-06-14, 21:48:38
Original geschrieben von LovesuckZ
Es steht im test, warum es in hohen Aufloesungen beim AA Probleme gibt. Und das hat nichts mit der Speicherbandbreite zu tun. jo Kurios da könnte sowas wie 3DC deutlich Vram sparen

Uller
2004-06-14, 21:52:39
Original geschrieben von LovesuckZ
Es steht im test, warum es in hohen Aufloesungen beim AA Probleme gibt. Und das hat nichts mit der Speicherbandbreite zu tun.

Im Test steht:
Dazu kommt das von uns vermutete Problem der Speicherknappheit in hohen Auflösungen mit hohem FSAA-Level.

Ein vermutetes Problem - nun war meine Frage an z.B. Quasar, ob man hier evtl. durch Treiber nachbessern könnte.

Jesus
2004-06-14, 22:45:31
Original geschrieben von Uller
Im Test steht:


Ein vermutetes Problem - nun war meine Frage an z.B. Quasar, ob man hier evtl. durch Treiber nachbessern könnte.

FSAA samples reduzieren :) aber das wollen wir ja nicht :P

Quasar
2004-06-14, 22:47:15
Original geschrieben von dildo4u
:abgel:
Wenn ich anstelle Nvidias und ATI wär würde ich CB keine karte mehr geben sowas macht das geschäft kaputt ihr könnt gerne auf optemierungen hinweisen aber nicht so benchen
Schade, daß du nicht zufrieden warst. Aber welchen Nutzen hätte das 1275te Review, in dem alle Optimierungen an sind?
Wenn nV und ATi der Meinung sind, uns keine Karten mehr zur Verfügung stellen zu wollen, werden wir damit leben müssen. Bislang sieht es jedenfalls nicht so aus.

Original geschrieben von Uller
Interessant an dem Artikel ist, warum die Geforce 6800 so weit abfällt bei 4xAA / 16xAF.
@Quasar:
Ganz habe ich den Artikel nicht verstanden, aber - besteht hier evtl. noch Chance auf Besserung durch neuere Treiber?

Der Abfall läßt sich bei manchen (nicht bei allen!) Spielen mit höherem VRAM-Verbrauch erklären - bei anderen kommen schlicht erst durch die höhere GPU-Last (bes. durch 16xAF) die 120MHz mehr der XT PE zum Tragen. Gut beurteilen liesse sich das IMO durch den Vergleich GT / PRO.

Original geschrieben von Uller
Ich finde den Test gut. Weiter so Quasar! ;)
Geradezu erschreckend finde ich aber den Max Payne 2 Benchmark:
*selberantwort*: weil die Speicherbandbreite nur minimal größer ist? Richtig?
Danke, aber nein, IMO nicht. Eher, weil so wenig VRAM übrigbleibt, daß das Nachladen/Auslagern per AGP zur Bremse wird - dessen Speed ist bekanntlich für die meisten Karten gleich.

Original geschrieben von dildo4u
womacht das sinn wenn die X800XT komplet ohne optemierung leuft und die X800 teilweise mit ?
Simple Antwort (die auch im Review stehen sollte): Weil die X800 Pro uns leider verlassen musste, bevor wir wußten, wie die Optimierungen umgangen werden konnten.

Original geschrieben von dildo4u
jo Kurios da könnte sowas wie 3DC deutlich Vram sparen
Ja, aber nur, wenn Normal-Maps benutzt werden, die vorkomprimiert sind. IMO war das bei keiner der getesteten Anwendungen der Fall.

Original geschrieben von Uller
Im Test steht:
Ein vermutetes Problem - nun war meine Frage an z.B. Quasar, ob man hier evtl. durch Treiber nachbessern könnte.
Einige MB (~30) könnte man IMO durch Verzicht auf die (ebenfalls IMO) immer noch angewendete Filter@Scanout-Technik zum Sparen von Bandbreite gewinnen.

Das Bandbreitensparen ist zwar schön und gut, aber wenn ich einen piefigen Schreibvorgang im Framebuffer spare, mir dadurch aber AGP-Texturing aufhalse, ist das ein Scheiss-Trade-Off.

Quasar
2004-06-14, 22:49:12
Original geschrieben von LovesuckZ
/edit2: Habt ihr, von Computerbase.de (also Quasar), mal Kontakt mit Nvidia aufgenommen und dieses Problem dargelegt?

IMO sollte nV das bewußt sein. Ich denke, genau das haben sie gemacht, indem sie Treiber-AA bei Far Cry deaktivierten und die Applikation Multi-Sample-Buffer anfordern liessen. Da hieß es zur Begründung ja auch, daß zuviel Speicher alloziert worden sei, durch den omninösen TReiberfehler.

Jesus
2004-06-14, 22:54:57
Original geschrieben von Quasar
IMO sollte nV das bewußt sein. Ich denke, genau das haben sie gemacht, indem sie Treiber-AA bei Far Cry deaktivierten und die Applikation Multi-Sample-Buffer anfordern liessen. Da hieß es zur Begründung ja auch, daß zuviel Speicher alloziert worden sei, durch den omninösen TReiberfehler.

hatten sie beim 61.11er nicht 2x und 4xAA komplett deaktiviert für FarCry ?

Gast
2004-06-14, 22:55:34
Original geschrieben von Quasar
Der Abfall läßt sich bei manchen (nicht bei allen!) Spielen mit höherem VRAM-Verbrauch erklären - bei anderen kommen schlicht erst durch die höhere GPU-Last (bes. durch 16xAF) die 120MHz mehr der XT PE zum Tragen. Gut beurteilen liesse sich das IMO durch den Vergleich GT / PRO.

Steht doch auf der Homepage :)

http://www.zive.cz/h/Testcentrum/AR.asp?ARI=116890

Jesus
2004-06-14, 22:57:30
oops sorry war nicht die GT , nur die normale non Ultra...
aber egal :) sollte mich mal anmelden hier.

http://www.zive.cz/files/obrazky/2004/6/nv40/grafy/hry/farcry.gif

SKYNET
2004-06-14, 22:58:18
Original geschrieben von DrumDub
ja, aber warum verweiste du auf die far cry benches und nicht auf die erste seite des tests? :|

weils nen kleines flame-war-ati-fanboy-kiddie ist :o

SKYNET
2004-06-14, 23:00:57
Original geschrieben von BvB123
aber 4000 punkte?

wenn das mal mit rechten dingen zugeht;D

ein kleies detail verschwindet hier, ein bischen am lod gedreht da schon kann man mal nen paar % fillrate einsparen, ATI ist der neue könig des cheatens, naja, müssen sie jaauch um mit ner vollkommen veralteten architektur schritt halten zukönnen.

dildo4u
2004-06-14, 23:01:24
Original geschrieben von SKYNET
weils nen kleines flame-war-ati-fanboy-kiddie ist :o

:smokin:


Hiermit bestätigen wir Ihnen den Eingang folgender Bestellung.



Ihre Kundennummer lautet:







Ihre Belegnummer lautet:


WS0400351




Übersicht über Ihre Bestellung

Herr
Auerswald
Maik

Deutschland


Bemerkung
1 StkA000994
Club-3D GeForce 6800GT, 256MB GDDR3, 2x DVI,, TV-out, AGP (CGN-G686TVDD) Termin 15.06.2004406,49 EUR
406,49 EUR

voraussichtliche Versandkosten DHLNN9,99 EUR
Zwischensumme416,48 EUR
inkl.MwSt. 16% aus 416,48 EUR57,45 EUR
Gesamtwarenwert416,48 EUR

BvB123
2004-06-14, 23:03:49
@ dildo4u


besser hätte ich es auch nicht machen können :asshole:

Jesus
2004-06-14, 23:04:38
Viel Spass damit!

Hoffentlich liegt sie auch rechtzeitig zur Bescherung da ... :)

Jesus
2004-06-14, 23:05:10
unterm Christbaum :)

SKYNET
2004-06-14, 23:08:30
Original geschrieben von Gast
lol und für 370 gibts net X800 pro mit 256 :) Die Wahl dürfte klar sein ( zumindest für mich, nicht dass ich mir überhaupt eine der Karten kaufe :) )

genau, kauf mal ne x800pro für 370€...

für 30e mehr bekommste ne 6800GT die die pro so richtig platt macht.

dildo4u
2004-06-14, 23:09:02
Original geschrieben von Jesus
Viel Spass damit!

Hoffentlich liegt sie auch rechtzeitig zur Bescherung da ... :) jo egal wirklich brauchen tut man die karte eh nicht aber ick bekomme jetzt meine 9700pro noch für 150€ los von daher

Jesus
2004-06-14, 23:10:03
Original geschrieben von SKYNET
genau, kauf mal ne x800pro für 370€...

für 30e mehr bekommste ne 6800GT die die pro so richtig platt macht.

mann du bist mein Held echt. Ich geb mich geschlagen, du hast die bessere Grafikkarte, und wahrscheinlich auch den längeren... :)

SKYNET
2004-06-14, 23:10:31
Original geschrieben von Jesus
369 :)

http://www.geizhals.at/deutschland/a98884.html

im Moment allerdings nicht lieferbar ( wohl erst wieder in 2 Wochen oder so).

War allerdings schon vor 3- 4 Wochen für 380 lieferbar ( hab bei Mindfactory angerufen, und auch bei Geizhals waren bei allen shops die Karten "auf Lager" ).

ach lieferbar ennst du das wenn nen shop 2 karten bekommt die innerhalb von 10 minuten nach listung wech sind ? :lol:

bitte geh, du machst dich lächerlich.

Quasar
2004-06-14, 23:10:35
Original geschrieben von Jesus
hatten sie beim 61.11er nicht 2x und 4xAA komplett deaktiviert für FarCry ?

Keine Ahnung, den habe ich nie benutzt - erst recht nicht, nachdem bekannt war, daß der Optimierungsschalter auf einmal kaputt war.

Original geschrieben von Gast
Steht doch auf der Homepage :)

http://www.zive.cz/h/Testcentrum/AR.asp?ARI=116890

Und auf www.computerbase.de ;)

Jesus
2004-06-14, 23:13:16
lt. dem Artikel hier sieht die GT ja richtig übel aus( nicht nur FC :) ):

http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/page21.asp

Übrigens kann man ne x800 pro auf 570 / 550 Übertakten, dann sieht das blatt schon wieder ganz anders aus :)

Quasar
2004-06-14, 23:14:18
Original geschrieben von dildo4u
jo egal wirklich brauchen tut man die karte eh nicht aber ick bekomme jetzt meine 9700pro noch für 150€ los von daher

Dildo, ich würde mal lieber schnell meine Mail-Addy rausnehmen. Spam-Spider...

sry
;(

LovesuckZ
2004-06-14, 23:17:33
Original geschrieben von Jesus
Übrigens kann man ne x800 pro auf 570 / 550 Übertakten, dann sieht das blatt schon wieder ganz anders aus :)

Hm, peinlich, peinlich.
1. ist der Artikel vom 4. Mai. Was wussten wir denn da noch nicht? Richtig, ATi cheatet bei der Filterung.
2. Eine GT kann ich auf 425MHz hochjagen, damit ist dies wohl legalisiert, der Vorsprung.

BvB123
2004-06-14, 23:19:00
das finde ich viel interessanter

warum ist die gt mit 50mhz weniger takt fast gleich schnell mit der oc extreme?

liegt am speicher oder?

http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/page22.asp

Gast
2004-06-14, 23:21:22
Original geschrieben von LovesuckZ
Hm, peinlich, peinlich.
1. ist der Artikel vom 4. Mai. Was wussten wir denn da noch nicht? Richtig, ATi cheatet bei der Filterung.


Falsch der Artikel ist vom 15. mai von hardocp, die eine Serien Karte testen ( Hersteller k.a. sieh selbst :) ) .
Ausserdem ist selbst auf CB die GT durchgehend langsamer bei Maximalen Settings, als eine Pro :) ( optimierungen hin oder her , winkelabhängiges AF hat die 6800 auch ( nicht abschaltbar ).

LovesuckZ
2004-06-14, 23:27:02
Original geschrieben von Gast
Falsch der Artikel ist vom 15. mai von hardocp, die eine Serien Karte testen ( Hersteller k.a. sieh selbst :) ) .

*Brilleaufsetz*
Da steht wohl ganz eindeutig "May 04, 2004".

Ausserdem ist selbst auf CB die GT durchgehend langsamer bei Maximalen Settings, als eine Pro :) ( optimierungen hin oder her , winkelabhängiges AF hat die 6800 auch ( nicht abschaltbar ).

Wenn du nicht in der Lage sein solltest, Buchstaben zu Wörter, Wörter zu Saetze und Saetze zu einem Sinninhalt zu konstruieren, dann, bitte, suche dir Hilfe.
Aber schreibe nie über etwas, was du nicht verstanden hast!
Danke.

Jesus
2004-06-14, 23:27:22
Original geschrieben von BvB123
das finde ich viel interessanter

warum ist die gt mit 50mhz weniger takt fast gleich schnell mit der oc extreme?

liegt am speicher oder?

http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/page22.asp

Vielleicht skaliert sie einfach nur schlecht :)

Jesus
2004-06-14, 23:31:13
Original geschrieben von LovesuckZ
*Brilleaufsetz*
Da steht wohl ganz eindeutig "May 04, 2004".



Wenn du nicht in der Lage sein solltest, Buchstaben zu Wörter, Wörter zu Saetze und Saetze zu einem Sinninhalt zu konstruieren, dann, bitte, suche dir Hilfe.
Aber schreibe nie über etwas, was du nicht verstanden hast!
Danke.

ich seh mir nur die Bunten bildchen an, auch Balken genannt, und zähle zusammen, und da ist es eben genauso wie ich geschrieben hab. Und jetzt nicht weinen bitte.

Aber vielleicht solltest du ja deine Hornbrille mal aufsetzen und "Sunday, June 6, 2004" ( ok nicht 15. mai, noch besser :) ) mal gut anschaun, das ist nicht der 4. Mai :)

http://www.hardocp.com/article.html?art=NjI4LDEx


CB ( 6800 ):

Was wir jedoch ausdrücklich mißbilligen, ist die Einführung einer bislang unabänderlichen Winkelabhängigkeit für den anisotropen Filter. In einer High-End-Karte hat so etwas schlicht nichts zu suchen, solange es nicht wenigstens deaktivierbar ist. Mit gesenkter Bildqualität erreicht man auch mit alten Karten hohe FPS-Zahlen

Tjell
2004-06-14, 23:34:44
Man, hier kann man sich ja kaum noch umblicken!

Bin ich mal für kurze Zeit ausm Thread raus, wird der von Ati-Fanboys zugespamt. Zum Kotzen.

Das hier ist der "Offizielle NV40 / GeForce 6800"-Thread und nicht der "wir gehen missionieren im Sinne einer Pro-Ati-Inquisition".

Geht woanders spielen und läßt die NV40-Interessierten in Ruhe diskutieren!

LovesuckZ
2004-06-14, 23:36:06
Original geschrieben von Jesus
*fanboy*

Ein Nachteil am gastsein ist wohl die fehlende "Bearbeitungsfunktions" seiner Postings.
Nun, jetz weiß ich, warum die Bezeichnung Fanboy solch einen Ruf hat: Es hat keinen Sinn sich mit solch einen zu unterhalten.
Ich denke, ich fange an mein leben neu zu regeln, sonst trifft mich diese "Ignorierung*" wohl noch selbst :( .

*Es gibt echt noch Woerter in meinen Wortschatz, welche ich nicht schreiben kann... ;D
/edit: "+e", sollte nun richtig sein.

Quasar
2004-06-14, 23:36:25
Original geschrieben von Jesus
lt. dem Artikel hier sieht die GT ja richtig übel aus( nicht nur FC

Sag', kommt es dir nicht komisch vor, daß die X800 XT PE von 1600x1200 4xAA auf 1600x1200 4xAA/8xAF nur vier fps verliert? ;)

Jesus
2004-06-14, 23:41:21
na schön ich habs kapiert. Ihr wollt in eurer schönen heilen neuen Welt bleiben :)

Viel Spass dann noch ! Gute Nacht .

P.S: Luvsux, fragt sich nur wer hier Fanboy ist ? :) Sobald du mal auf was keine Antwort hast kommen wieder deine total bescheuerten Kommentare.

Quasar
2004-06-14, 23:42:48
Original geschrieben von Gast
Ausserdem ist selbst auf CB die GT durchgehend langsamer bei Maximalen Settings, als eine Pro :) ( optimierungen hin oder her , winkelabhängiges AF hat die 6800 auch ( nicht abschaltbar ).

Ich könnte dich jetzt mit drei Spielen in 16x12-4/16 widerlegen - von den Theorie-Tests mal abgesehen.
Muss ich das?

Quasar
2004-06-14, 23:45:15
Original geschrieben von Jesus
na schön ich habs kapiert. Ihr wollt in eurer schönen heilen neuen Welt bleiben :)

Viel Spass dann noch ! Gute Nacht .

Schade, wieder ein Gast, dem die Argumente ausgehen...

Dir auch viel Spaß und eine Gute Nacht :)

Jesus
2004-06-14, 23:45:34
Na schön durchgehend ist falsch, hab mir auch nicht alle angeschaut, aber die meisten. :)

SKYNET
2004-06-14, 23:45:43
Original geschrieben von dildo4u
:smokin:


Hiermit bestätigen wir Ihnen den Eingang folgender Bestellung.



Ihre Kundennummer lautet:







Ihre Belegnummer lautet:


WS0400351




Übersicht über Ihre Bestellung

Herr
Auerswald
Maik

Deutschland


Bemerkung
1 StkA000994
Club-3D GeForce 6800GT, 256MB GDDR3, 2x DVI,, TV-out, AGP (CGN-G686TVDD) Termin 15.06.2004406,49 EUR
406,49 EUR

voraussichtliche Versandkosten DHLNN9,99 EUR
Zwischensumme416,48 EUR
inkl.MwSt. 16% aus 416,48 EUR57,45 EUR
Gesamtwarenwert416,48 EUR

da hast den hals aber nochmal aus der schlinge gezogen *tätschel und leckerlie geb* ;)

Gast
2004-06-14, 23:48:00
Original geschrieben von SKYNET
da hast den hals aber nochmal aus der schlinge gezogen *tätschel und leckerlie geb* ;)

Und jetzt noch eine Bestätigung von dir, dass man die GT (jetzt) für 400€ bekommt und wir sind alle glücklich.

SKYNET
2004-06-14, 23:49:35
Original geschrieben von Quasar
Sag', kommt es dir nicht komisch vor, daß die X800 XT PE von 1600x1200 4xAA auf 1600x1200 4xAA/8xAF nur vier fps verliert? ;)

ihm wohl nicht, dazu müsste er seine rosa-ati-brille abnehmen X-D

Jesus
2004-06-14, 23:51:21
ok war nur

max payne 1
max payne 2
ut 2003
FarCry
Shadermark
tomb raider
call of duty ( gleichstand würd ich sagen :) )
HSR ( ziemlich gleich )

soviel zu den ausgehenden Argumenten. Aber wahrscheinlich lügt CB ja :) ( wohlgemerkt GT vs Pro in 16x12 / 4x - 8x )

Jesus
2004-06-14, 23:57:00
Delta Force hab ich vergessen :)

Gast
2004-06-14, 23:59:21
Original geschrieben von Jesus
ok war nur

max payne 1
max payne 2
ut 2003
FarCry
Shadermark
tomb raider
call of duty ( gleichstand würd ich sagen :) )
HSR ( ziemlich gleich )

soviel zu den ausgehenden Argumenten. Aber wahrscheinlich lügt CB ja :) ( wohlgemerkt GT vs Pro in 16x12 / 4x - 8x )


Kann es sein das auf der Geforce 6800U noch ein alter Treiber drauf war ?

Quasar
2004-06-15, 00:01:46
Nein, es war der 61.34.

@Jesus:
ShaderMark haben wir gar nicht getestet :|
Außerdem (aber das wird dir sicher nichts ausmachen) waren sämtliche Optimierungen bei der X800 Pro AN und bei der 6800 GT AUS.
Damit ist IMO alles gesagt.

sry
;(

Gast
2004-06-15, 00:06:44
aso ok wusste net mehr ob der 61.34 noch so neu is kommt ja andauert ein neuer :D



So wie das aussieht ist Jesus ein ati fanboy, dauert versuchst du Ati besser zu machen nur gelingt dir das nicht.

BodyLove
2004-06-15, 00:08:16
Original geschrieben von Quasar
Ich könnte dich jetzt mit drei Spielen in 16x12-4/16 widerlegen - von den Theorie-Tests mal abgesehen.
Muss ich das?

du musst nichts, aber wäre schön wenn du es tätest.;)

MadManniMan
2004-06-15, 00:15:19
Original geschrieben von SKYNET
weils nen kleines flame-war-ati-fanboy-kiddie ist :o

Muß das sein? :| Und du fragst dich, warum du öfters genannt wirst, wenn es um Krafausdruck-Pros geht?

Godmode
2004-06-15, 00:20:33
Hier muss mal ein Admin her, der die ganzen sinnfreien Fanboy-Flamewar-Kindergartenkindernochintelligentersind-Postings rauslöschen. Muss ja nicht sein, dass ihr den Thread kaputt macht, geht doch auf die Flamewiese oder auf ne andere Site!

deekey777
2004-06-15, 00:24:17
Original geschrieben von Quasar
Schade, wieder ein Gast, dem die Argumente ausgehen...

Dir auch viel Spaß und eine Gute Nacht :)

He-he...

Mein Lieblingssatz:

Die Hauptakteure in Form der Spitzenmodelle Radeon X800 XT PE und GeForce 6800 Ultra sind nun jedenfalls sehr gut vergleichbar.

XXX Test!

(Die Bewertung kommt noch - ist auch das falsche Forum. :) )

deekey777
2004-06-15, 00:25:01
Original geschrieben von bans3i
Hier muss mal ein Admin her, der die ganzen sinnfreien Fanboy-Flamewar-Kindergartenkindernochintelligentersind-Postings rauslöschen. Muss ja nicht sein, dass ihr den Thread kaputt macht, geht doch auf die Flamewiese oder auf ne andere Site!

Wo ist denn ow, wenn man ihn braucht...
sry...

robbitop
2004-06-15, 00:33:29
ich denke mal wir brauchen einen neuen Mod.
Vieleicht sollte man was ausschreiben oder so?

MarcWessels
2004-06-15, 01:26:48
Gibt's schon n (Silberleitlack-)Voltmod für die 6800GT im Netz? :)

Gel
2004-06-15, 01:54:06
Original geschrieben von MarcWessels
Gibt's schon n (Silberleitlack-)Voltmod für die 6800GT im Netz? :)


Hast eine ?

MarcWessels
2004-06-15, 02:19:53
Nein, nocht nicht - deshalb frag ich ja. :D

Gel
2004-06-15, 05:40:08
Original geschrieben von MarcWessels
Nein, nocht nicht - deshalb frag ich ja. :D

Axo ich dachte schon :D

Was is den genau Silberleitlack ? bekommt man das zeug au wieder von der Graka runter ?

SKYNET
2004-06-15, 07:05:21
Original geschrieben von Gel
Axo ich dachte schon :D

Was is den genau Silberleitlack ? bekommt man das zeug au wieder von der Graka runter ?

ja mit nagellack entferner.

Gast
2004-06-15, 09:21:58
Original geschrieben von deekey777
Wo ist denn ow, wenn man ihn braucht...
sry...

Hier.:)

Nur jetzt braucht hier keiner mehr nach mir zu rufen.
Aus genau obigem Grund ist mir jede Lust am Moderieren vergangen. Von mir aus koennen die Fanboys hier sich verbal pruegeln bis sie umfallen, das juckt mich jetzt nicht mehr. Der Thread hier bestaetigt mich nur in meiner Meinung: es wird hier viel zu wenig moderierend eingegriffen.

*ow*

Winter[Raven]
2004-06-15, 10:10:54
Original geschrieben von Gast
Hier.:)

Nur jetzt braucht hier keiner mehr nach mir zu rufen.
Aus genau obigem Grund ist mir jede Lust am Moderieren vergangen. Von mir aus koennen die Fanboys hier sich verbal pruegeln bis sie umfallen, das juckt mich jetzt nicht mehr. Der Thread hier bestaetigt mich nur in meiner Meinung: es wird hier viel zu wenig moderierend eingegriffen.

*ow*

Full ACK!

Jesus
2004-06-15, 10:35:28
sorry dass ich euch Nvidianer so auf dem Leim gehe, aber ich mache nichts anderes als Tatsachen posten.

( habe übrigens auch schon eher darauf hingewiesen dass die Pro optimierungen nutzt, allerdings wird das in 16x12 kaum noch was ausmachen, denn die Abstände sind aufgrund der Bandbreitenprobleme der GT schon gewaltig teilweise... )

Jesus
2004-06-15, 10:36:10
ausserdem sollte man nicht vergessen dass die GT 16 Pipelines hat und teurer ist :)

Quasar
2004-06-15, 10:40:39
Original geschrieben von Jesus
[...] allerdings wird das in 16x12 kaum noch was ausmachen, denn die Abstände sind aufgrund der Bandbreitenprobleme der GT schon gewaltig teilweise... )
ausserdem sollte man nicht vergessen dass die GT 16 Pipelines hat und teurer ist :)


Tatsache ist z.B. daß die GT in 1600x1200 kein größeres Bandbreitenproblem hat, als die PRO - eher im Gegenteil.

Tatsache ist auch, daß die Füllrate und damit die Vergleichbarkeit der Shaderleistung bei GT und Pro sehr gut ausgeprägt ist, da beide hier extrem dicht zusammen liegen.

12x475 vs. 16x350

Von Teurer kannst du gern sprechen, wenn die Karten verfügbar sind und man keine Mondpreise für die Erstbesteller verlangt. 480 EUR+ für eine Pro sind schon dreist, oder?

Tjell
2004-06-15, 10:47:18
Original geschrieben von Jesus
ausserdem sollte man nicht vergessen dass die GT 16 Pipelines hat und teurer ist :)

Teurer als was? Die X800Pro? Soso... :buck:

deekey777
2004-06-15, 10:58:18
Jesus, von mir kannst du "trollen", aber bitte erst nachdenken und dann posten. Es ist einfach sehr unhöfflich und insbesondere sehr unfreundlich einem Tester Parteinahme für den einen oder anderen Hersteller vorzuverwerfen - besonders, wenn du einfach irgendetwas hinschreibst.

Gast
2004-06-15, 11:17:07
Original geschrieben von deekey777
Jesus, von mir kannst du "trollen", aber bitte erst nachdenken und dann posten. Es ist einfach sehr unhöfflich und insbesondere sehr unfreundlich einem Tester Parteinahme für den einen oder anderen Hersteller vorzuverwerfen - besonders, wenn du einfach irgendetwas hinschreibst.

vor allem wenn dieser Tester einer der einzigen war, die ATIs Cheaterein herausgefunden und angeprangert haben.
Alle anderen großen Tester könnte man schon fast Parteinahme für ATI bescheinigen, da sie fleissigst nach ATIs Reviewerguide gebencht haben.

Ne ne. Wenn schon vergleichen dann richtig - also Cheats aus.
Da zeigt sich dann der tatsächliche Stand und nicht anders.

-error-
2004-06-15, 11:31:18
Habe den Thread bis jetzt nicht gelesen da ich auch keinen Bedarf an einer neuen Grafikkarte hatte, was sich jetzt aber geändert hat.

Darum suche ich einen Benchmark, wo die X800Pro, die 9800Pro/XT und vor allem die 6800 aufeinander treffen.

Gibts ein Link?

BodyLove
2004-06-15, 11:38:24
Original geschrieben von Desire
Habe den Thread bis jetzt nicht gelesen da ich auch keinen Bedarf an einer neuen Grafikkarte hatte, was sich jetzt aber geändert hat.

Darum suche ich einen Benchmark, wo die X800Pro, die 9800Pro/XT und vor allem die 6800 aufeinander treffen.

Gibts ein Link?

Ist neu und von Quasar (http://www.computerbase.de/artikel/hardware/grafikkarten/x800_pro_xt_pe_geforce_6800_gt_ultra/) .;)

Quasar
2004-06-15, 11:39:59
Aber ohne 6800 (non-ultra) - die meinte Desire, glaube ich.

BodyLove
2004-06-15, 11:44:44
ohh, kann sein.:eyes:

robbitop
2004-06-15, 13:08:15
@bodylove
sehe ich das richtig in deiner signatur, du hast eine X800 pro zur XT PE gemoddet?

sry4ot

Mmmmmh
2004-06-15, 13:11:23
Da hier ja schon öfters die Winkelabhängigkeit von R420 und NV40 angesprochen wurde. Kann es sein das diese beim NV40 zwar da ist, aber nicht so stark ist wie bei den R420?:kratz2: Mir gefällt die "Blume" beim NV40 nämlich deutlich besser!

robbitop
2004-06-15, 13:14:31
ja sie ist ein bisschen weniger stark, aber "bedeutend"?

Mmmmmh
2004-06-15, 13:15:41
Ah ja und in wie weit bedeutend?

BodyLove
2004-06-15, 13:21:26
Original geschrieben von robbitop
@bodylove
sehe ich das richtig in deiner signatur, du hast eine X800 pro zur XT PE gemoddet?

sry4ot

hast pn.

-error-
2004-06-15, 14:00:05
Gibts überhaupt ein Review von der 6800:???:

Quasar
2004-06-15, 14:02:32
War gestern in den 3DC-News verlinkt.

-error-
2004-06-15, 14:45:36
Ah jetzt habe ich auch das Review gesehen, aber warum ausgerechnet nur 128mb? Wird die 6800 auch mit 256mb kommen?

robbitop
2004-06-15, 14:53:41
ja dann aber auch gleich viel teurer, dass die GT wieder mehr Sinn macht.

Jesus
2004-06-15, 14:54:42
Original geschrieben von deekey777
Jesus, von mir kannst du "trollen", aber bitte erst nachdenken und dann posten. Es ist einfach sehr unhöfflich und insbesondere sehr unfreundlich einem Tester Parteinahme für den einen oder anderen Hersteller vorzuverwerfen - besonders, wenn du einfach irgendetwas hinschreibst.


Alles was ich hinschreibe sind die Ergebnisse anderer Tests ( CB, Hardocp, anandtech und THG ).

Wenn hier einige Leute unbedingt "beweisen" wollen dass die eine Karte besser ist als die andere dann seh ich mich gezwungen sowas zu tun :)

robbitop
2004-06-15, 15:04:08
oder man steht drüber

-error-
2004-06-15, 15:24:25
Original geschrieben von robbitop
ja dann aber auch gleich viel teurer, dass die GT wieder mehr Sinn macht.

Nö eben nicht, wieder 100€ und wieder, ich finde das schade.

Selbst die billigsten Karten haben schon 256MB. Die GT hat ja 16Pipes und einen höhreren Ram- und Chiptakt sowie GDDR3-Speicher. Und da muss man doch nicht so bei der 6800 geizen.

robbitop
2004-06-15, 15:54:33
so meint ich das nicht:

6800NU: 300EUR
6800GT: 400EUR
6800NU +256MB: fast 400EUR

leider.
Und somit lohnt die NU nicht mehr, da es vermutlich nicht viel zur GT fehlt.

-error-
2004-06-15, 16:14:47
Original geschrieben von robbitop
so meint ich das nicht:

6800NU: 300EUR
6800GT: 400EUR
6800NU +256MB: fast 400EUR

leider.
Und somit lohnt die NU nicht mehr, da es vermutlich nicht viel zur GT fehlt.

Woher willst du wissen, das einfacher zusätzlicher DDR-Speicher in Form von 128Mb mit einem Preisaufschlag von 100€ verbunden ist?

Die GT hat auch 16Pipes und vor allem GDDR3! Hauptsache die 6800 hat 256mb, bei FSAA und AF bricht sie doch extrem weg im Vergleich zur X800Pro.

Und die GT ist mir wieder zu teuer, genauso wie die X800Pro.

dildo4u
2004-06-15, 16:19:48
http://www.trustedreviews.com/article.aspx?art=489
test einer XFX GeForce 6800 Ultra


"To verify the speed of the XFX 6800 Ultra I contacted XFX and the reply was that all cards will be clocked at a minimum of 425MHz, but the 450MHz core speed can’t be guaranteed. It’s therefore worth checking before you buy"

ShadowXX
2004-06-15, 16:23:20
Original geschrieben von Desire
Die GT hat auch 16Pipes und vor allem GDDR3! Hauptsache die 6800 hat 256mb, bei FSAA und AF bricht sie doch extrem weg im Vergleich zur X800Pro.


jo...deshalb hoffe ich, dass jemand mal bei nV Quasars (+ Kollegen) CB Artikel liesst und sie dann das AA nicht mehr @Scanout machen...wenn HW-Technisch möglich..

Das ist nämlich momentan das Einzige was mir am nv40 nicht so gefällt...

robbitop
2004-06-15, 16:26:17
habe ich irgendwo gelesen..kann mich da irren

-error-
2004-06-15, 16:38:03
Nehmen mir mal an die 6800 kommt später auch mit 256MB, wie lässt sich die eigendlich kühlen?

Würde ein VGA-Silencer reichen (ich weiß das er nicht draufpasst), oder bräuchte man da einen größeren Lüfter mit mehr Kühlfläche?

Tjell
2004-06-15, 16:55:12
Da der RAM keiner Kühlung bedarf darfst Du Dich ganz darauf konzentrieren, eine Dir genehme passende GPU-Kühlung zu finden. :)

DeadMeat
2004-06-15, 18:39:10
Original geschrieben von Desire
Nehmen mir mal an die 6800 kommt später auch mit 256MB, wie lässt sich die eigendlich kühlen?

Würde ein VGA-Silencer reichen (ich weiß das er nicht draufpasst), oder bräuchte man da einen größeren Lüfter mit mehr Kühlfläche?

Bei Geizhals findet man schon welche mit 256mb oder sind das etwa nur Fehler?

SKYNET
2004-06-15, 18:54:24
Original geschrieben von DeadMeat
Bei Geizhals findet man schon welche mit 256mb oder sind das etwa nur Fehler?

nein gibt die mit 128MB und 256MB

Gast
2004-06-15, 20:09:33
Original geschrieben von robbitop
so meint ich das nicht:

6800NU: 300EUR
6800GT: 400EUR
6800NU +256MB: fast 400EUR

leider.
Und somit lohnt die NU nicht mehr, da es vermutlich nicht viel zur GT fehlt.

Mindfactory hat heute den Preis der GF6800 mit 256mb auf 350€ gesetzt (das NU kann man sich glaub sparen).

misterh
2004-06-15, 20:16:31
Original geschrieben von SKYNET
nein gibt die mit 128MB und 256MB

Eine Frage oder "es" vergessen vor gibt zu schreiben?

-error-
2004-06-15, 20:32:20
Original geschrieben von Gast
Mindfactory hat heute den Preis der GF6800 mit 256mb auf 350€ gesetzt (das NU kann man sich glaub sparen).

Boahr so teuer? Liegt das an den hohen Speicherpreisen?

Alternate ist aber alles andere als günstig, ich glaube ich warte erst mal bis zu einen Monat.

Edit:

War eben auf der AlternateHP. und von einer 6800 mit 256mb die 350€ kostet war nichts zu sehen.

Gast
2004-06-15, 22:06:22
Was hat Alternate mit Mindfactory zu tun ?

http://www.mindfactory.de/cgi-bin/MindStore.storefront/DE/Product/0014565?pid=geizhals

Die 6800 kommt doch ohne GDDR3 Speicher, da sollte es kein Mangel geben, alledings is als Verfügbarkeitstermin 13.07 angegeben. So long...

-error-
2004-06-15, 22:10:30
Ah thx!

Jetzt warte ich nur noch, bis die Karte knapp unter 300€ fällt, natürlich die 256MB-Version.

Gast
2004-06-16, 10:50:31
INFO:

Die Gainward CoolFX Powerpack! Ultra/2600 hier (http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD03ODcmdXJsX2hpc3Rvcnk9LTI=) im Test.

Gast
2004-06-16, 13:45:07
Imoment lohnt sich eine neue Graka von beiden Herstellern eher nicht (mal davon abgesehen das man sie nicht kaufen kann, oder die Preise exorbitant sind). Erst wenn mehr Spiele rauskommen die entsprechende Leistung fordern, dann kann man sich entscheiden.
Ich warte eh Doom3 ab, da die Engine ja für einige andere Spiele als Gerüst dient (ist wohl auch die letzte "neue" Engine die auf OpenGL basiert, oder?), aber das ist Geschmackssache. Da keiner imo sagen kann, welche Graka da jetzt einen Vor-/Nachteil hat. (Wird ja immer drauf hingewiesen das die GF6800 bei aktiviertem AA ihren "Ultrashadow" Joker nicht einsetzen kann).

Interessant werden die kleinen Ableger die im 200€ Segment die jetzigen Grakas angreifen, aber wer weis wann die kommen...

Gel
2004-06-16, 15:29:12
Original geschrieben von Gast
Imoment lohnt sich eine neue Graka von beiden Herstellern eher nicht (mal davon abgesehen das man sie nicht kaufen kann, oder die Preise exorbitant sind). Erst wenn mehr Spiele rauskommen die entsprechende Leistung fordern, dann kann man sich entscheiden.
Ich warte eh Doom3 ab, da die Engine ja für einige andere Spiele als Gerüst dient (ist wohl auch die letzte "neue" Engine die auf OpenGL basiert, oder?), aber das ist Geschmackssache. Da keiner imo sagen kann, welche Graka da jetzt einen Vor-/Nachteil hat. (Wird ja immer drauf hingewiesen das die GF6800 bei aktiviertem AA ihren "Ultrashadow" Joker nicht einsetzen kann).

Interessant werden die kleinen Ableger die im 200€ Segment die jetzigen Grakas angreifen, aber wer weis wann die kommen...

Laber mal kein Bullshit! Klar lohnt sich jetzt schon eine der Karten oder kannst Far Cry 1600 Zocke mit über 30 fps ?
Also erst denken dan Posten!

BvB123
2004-06-16, 16:11:13
Hi

also in den usa gibbet schon ne gute verfügbarkeit der karten wie es aussieht

http://www.nvnews.net/vbulletin/forumdisplay.php?f=5

DIe BFG und XFX sind ja von haus aus schon Übertaktet :)

gefällt mir


mfg

Tjell
2004-06-16, 16:22:57
Original geschrieben von Gel
Laber mal kein Bullshit! Klar lohnt sich jetzt schon eine der Karten oder kannst Far Cry 1600 Zocke mit über 30 fps ?
Also erst denken dan Posten!

Ob etwas lohnt oder nicht liegt doch wohl immer im Auge des Betrachters, oder?

Und so langsam geht es mir auf den Keks, daß ständig das Spiel mit der derzeit geringsten Aussagekraft (in Bezug auf Vergleichbarkeit der GPUs von Ati und nVidia) als Paradebeispiel herangezogen wird, dazu noch meist in einer Auflösung die ca. 98 % aller Spieler sowieso nicht vernünftig darstellen können! *grrr*

ShadowXX
2004-06-16, 16:29:07
Original geschrieben von BvB123
Hi

also in den usa gibbet schon ne gute verfügbarkeit der karten wie es aussieht

http://www.nvnews.net/vbulletin/forumdisplay.php?f=5

DIe BFG und XFX sind ja von haus aus schon Übertaktet :)

gefällt mir


mfg

Wird in D aber wohl noch etwas dauern...bei mir sind gerade (inzwischen) 3 Mails eingegangen, das die Termine für die Lieferbarkeit auf die Daten zwischem dem 28.06. und 25.07. hochgesetzt wurden...

Ich sehs schon....vor August kann man keine 68Us kaufen (bis auf einzelne Exemplare vielleicht...)

Jesus
2004-06-16, 16:37:07
IMO der beste Test bisher :

"ATI once again managed to strike back sufficiently towards NVIDIA's Series 6 of GPU. Both cards have their advantages and disadvantages. Shader Model 2 is slightly faster on the x800 series, not in extreme amounts though. When we look at overall performance the GeForce 6800 was a tad faster here and there but really... so marginal. ATI still has an advantage performance wise when it has enabled AA and AF. "

auf www.guru3d.com ( neu ), beide Karten haben ihre optimierungen AKTIVIERT !

Gast
2004-06-16, 16:43:53
wenn man mal von Nvidia´s "Application Profiles" absieht :)

Läuft FartCry.exe eigentlich auf den 61.34ern immer noch schlechter als normal ?

Gast
2004-06-16, 17:02:59
Original geschrieben von Jesus

auf www.guru3d.com ( neu ), beide Karten haben ihre optimierungen AKTIVIERT !


Was sollen wir mit diesen Apfeln-mit-Birnen-Vergleichen? Kann mir das mal einer sagen?

Wir wollen wiessen, welche Karte unter gleichen Konditionen schneller ist und nicht, wer besser cheaten kann.

IC-Burn
2004-06-17, 04:40:37
Ich denke ma das es so ziemlich egal is ob man ati oder nvidia Kauft der unterschied is jetzt nicht so drastisch wie bei dem nv3X un dem r3XX :D

r@h
2004-06-17, 06:22:55
Original geschrieben von Gel
Laber mal kein Bullshit! Klar lohnt sich jetzt schon eine der Karten oder kannst Far Cry 1600 Zocke mit über 30 fps ?
Also erst denken dan Posten! Warum sollte ich (man ;-) einen solchen Unfug tun ?
:???:

'Meine' präferierte Auflösung liegt bei 1024x768, bzw. 1280x960... mit 4-8°AF und 2xAA (mit 'ner 6800 dann wohl 4xAA ;-). Und das war's dann auch schon.

Wer es tatsächlich hinbekommt, 1600'er Auflösungen auf 'nem 17"-TFT zu schaun', oder aber auf 'nem 19-21"-Moni, der dann nicht einmal mehr 100Hz mitmacht, tut mir wahrhaftig leid.

Solche Auflösungen sind glatter Unfug und für Schw...-Vegleiche interessant.
Real-World haben sie keinerlei Bedeutung !
(einige Ausnahmen hier würden die Regel voll bestätigen ;-)

Razor

r@h
2004-06-17, 06:25:23
Original geschrieben von Jesus
IMO der beste Test bisher :

<snip>
auf www.guru3d.com ( neu ), beide Karten haben ihre optimierungen AKTIVIERT ! :kotz:

Razor

r@h
2004-06-17, 06:27:34
Original geschrieben von Gast
Läuft FartCry.exe eigentlich auf den 61.34ern immer noch schlechter als normal ? Hinsichtlich der Performance ?
Nein, ganz im Gegenteil !

Hinsichtlich der Bildfehler ?
Ist Crytecs Problem... sollen endlich den Patch 1.2 heraus bringen !

Razor

Tjell
2004-06-17, 09:07:40
Original geschrieben von r@h
Warum sollte ich (man ;-) einen solchen Unfug tun ?
:???:

'Meine' präferierte Auflösung liegt bei 1024x768, bzw. 1280x960... mit 4-8°AF und 2xAA (mit 'ner 6800 dann wohl 4xAA ;-). Und das war's dann auch schon.

Wer es tatsächlich hinbekommt, 1600'er Auflösungen auf 'nem 17"-TFT zu schaun', oder aber auf 'nem 19-21"-Moni, der dann nicht einmal mehr 100Hz mitmacht, tut mir wahrhaftig leid.

Solche Auflösungen sind glatter Unfug und für Schw...-Vegleiche interessant.
Real-World haben sie keinerlei Bedeutung !
(einige Ausnahmen hier würden die Regel voll bestätigen ;-)

Razor

Damit sprichst Du mir aus der Seele. Es ist zwar schön zu wissen, wieviel Leistungspotential eine Grafikkarte in sich birgt, aber zur Anwendung kommt diese bei solch hohen Auflösungen höchstens in 1 % aller Fälle.

Quasar
2004-06-17, 09:11:26
Original geschrieben von Jesus
IMO der beste Test bisher :
[...]
auf www.guru3d.com ( neu ), beide Karten haben ihre optimierungen AKTIVIERT !

Apropos aktiviert - was muss man aktiviert haben, um sich mal die Benchmarkergebnisse anzuschauen?

Daß mein Opera nicht gayt, kann ich schon verstehen, verzichte ich dort doch auf unnützen Schnickschnack. Aber mein IE ist dermaßen lax eingestellt, daß ich auch die Flash-Diagramme bei Anand sehe.

Gast
2004-06-17, 09:22:23
Original geschrieben von r@h
Warum sollte ich (man ;-) einen solchen Unfug tun ?
:???:

'Meine' präferierte Auflösung liegt bei 1024x768, bzw. 1280x960... mit 4-8°AF und 2xAA (mit 'ner 6800 dann wohl 4xAA ;-). Und das war's dann auch schon.

Wer es tatsächlich hinbekommt, 1600'er Auflösungen auf 'nem 17"-TFT zu schaun', oder aber auf 'nem 19-21"-Moni, der dann nicht einmal mehr 100Hz mitmacht, tut mir wahrhaftig leid.

Solche Auflösungen sind glatter Unfug und für Schw...-Vegleiche interessant.
Real-World haben sie keinerlei Bedeutung !
(einige Ausnahmen hier würden die Regel voll bestätigen ;-)

Razor

Da muss ich zustimmen, ich möchte zwar auch gerne einen Monitor der 1600*1200 @ 100 Hz darstellen kann, aber so einen hab ich leider nicht. Gibt es eigentlich welche die mit dieser Auflösung und 100 Hz noch scharf sind?

Grestorn
2004-06-17, 09:28:24
Original geschrieben von r@h
Warum sollte ich (man ;-) einen solchen Unfug tun ?
:???:

'Meine' präferierte Auflösung liegt bei 1024x768, bzw. 1280x960... mit 4-8°AF und 2xAA (mit 'ner 6800 dann wohl 4xAA ;-). Und das war's dann auch schon.

Wer es tatsächlich hinbekommt, 1600'er Auflösungen auf 'nem 17"-TFT zu schaun', oder aber auf 'nem 19-21"-Moni, der dann nicht einmal mehr 100Hz mitmacht, tut mir wahrhaftig leid.

Solche Auflösungen sind glatter Unfug und für Schw...-Vegleiche interessant.
Real-World haben sie keinerlei Bedeutung !
(einige Ausnahmen hier würden die Regel voll bestätigen ;-)

Razor
Naja, es gibt auch Leute die besitzen einen LCD mit 1600x1200 Auflösung...

Allerdings spielt es bei Spielen m.E. keine Rolle, wenn man eine andere Auflösung als die native des LCD Monitors verwendet, die Unschärfe stört bei Spielen nicht, im Gegenteil, sie kann sogar das subjektive Bildempfinden verbessern.

Und bevor ich auf AA oder gar AF verzichten muss, gehe ich lieber eine oder zwei Stufen in der Auflösung nach unten.

Dennoch, wenn es geht, dann spiele ich auf 1600x1200 mit 4xAA und 8xAF.

Quasar
2004-06-17, 09:30:40
Original geschrieben von Gast
Gibt es eigentlich welche die mit dieser Auflösung und 100 Hz noch scharf sind?

Ja, aber da muss man schon ein vernünftiges Kabel dazu haben und eine Grafikkarte, die nicht frühzeitig abschwächelt (oder einen mit DVI-Eingang).

Kostenpunkt: um 1000EUR, beinahe nach Belieben mehr.

seahawk
2004-06-17, 10:43:53
Original geschrieben von r@h
Warum sollte ich (man ;-) einen solchen Unfug tun ?
:???:

'Meine' präferierte Auflösung liegt bei 1024x768, bzw. 1280x960... mit 4-8°AF und 2xAA (mit 'ner 6800 dann wohl 4xAA ;-). Und das war's dann auch schon.

Wer es tatsächlich hinbekommt, 1600'er Auflösungen auf 'nem 17"-TFT zu schaun', oder aber auf 'nem 19-21"-Moni, der dann nicht einmal mehr 100Hz mitmacht, tut mir wahrhaftig leid.

Solche Auflösungen sind glatter Unfug und für Schw...-Vegleiche interessant.
Real-World haben sie keinerlei Bedeutung !
(einige Ausnahmen hier würden die Regel voll bestätigen ;-)

Razor

Exakt. Die Monitore bzw. LCDs um sinnvoll in 1600*1200 sind doch praktisch sehr selten. (zumindest im Privatgebrauch) Und auf einem 19" CRT oder 17" LCD ist es einfach sinnlos.

robbitop
2004-06-17, 11:29:33
@Razor
wie schaffst du es, Far Cry in 1024/1280 bei vollen Details bei 2xAA/4xAF flüssig zu spielen?

Treiber: 61.34
meine @FX5950
Takt: 525/950
ich hab nur die Stagesoptimierung rausgenommen, Bri bleibt drin
Auflösung 1024 (1280x1024 ->TFT war unspielbar)
Details alle bis auf Beleuchtung auf Max (Beleuchtung auf fast Maximum). Ich glaube Partikeldichte hab ich noch auf fast max. Rendermodus: Verbessert (was bringt das??)
EAX und HW Mixing ist aus.
Mein System ist ja unten aufgelistet.
Und wenn ich schiesse, dann lagts erstma und der Sound hächelt nach und ich sehe die HDD LED leuchten. 512MB scheinen echt zuwenig zu sein. Aber beim Umherlaufen ists bei 1024 NoAA/NoAF flüssig. Wenn ich mehr einstelle ists zähflüssig bis unspielbar.

Und das beim Patch 1.1 OHNE den FP16/R300 Fix von tb (der kostet ja noch Leistung, sieht aber schöner aus)

red
2004-06-17, 11:50:39
Mit meinem 3000+, 1GB und ner 5900@5950 kann ich mit 1.1 auch nur auf 1024, 2xAF, 0xAA mit allen Sachen auf very high spielen.
1280 geht garnicht! Da muss man ohne Ende runterstellen. Und AA auch bei 1024 mit vollen Details geht genauso wenig.

Macht mal fraps an und staunt, diese groben "Ruckelmessungen" sind doch etwas sehr ungenau ;-)

robbitop
2004-06-17, 12:23:16
ich sollte mal meinen RAM bei Gelegenheit erweitern..Far Cry greift mir etwas zu oft auf die HDD zu...und das bei 512MiB :-(

Tjell
2004-06-17, 12:33:24
Original geschrieben von robbitop
ich sollte mal meinen RAM bei Gelegenheit erweitern..Far Cry greift mir etwas zu oft auf die HDD zu...und das bei 512MiB :-(

Für kürzere Ladezeiten empfehlenswert ist Raid0-Betrieb von zwei identischen Festplatten (hilft mir BF1942 unter den ersten auf dem Server zu sein :D ) und für weniger Festplattenzugriffe auf jeden Fall mittlerweile 1 GB RAM.

robbitop
2004-06-17, 12:44:42
igitt Raid0, 2 mal und nie wieder ;)
bisher hatte ich freezes und abstürze. Da braucht nur mal eine Platte kurz ein bissl asynchron zu laufen und schon freezt das schöne System, dann die dauerbelastung für beide Platten und wenn eine Platte ein Fehler hat, sind die Daten futsch. Zuviele Nachteile für ein paar Vorteile. Ladezeiten und fürs Arbeiten mit großen Dateien brauchbar. Im Alltag frisst der Overhead meist den Vorteil fast wieder auf oder im Grenzbereich ist die Zugriffszeit limitierende Komponente

hast du diesbzgl andere Erfahrungen? (per PM wäre gut, da das hier extrem OT ist :))

Also um RAM führt wohl kein Weg rum bei mir, kann ja wohl nicht sein, dass Spiele laggen und dann auf die HDD zugreifen. Und das bei 512MiB...frechheit von Cry Tek ;)

MarcWessels
2004-06-17, 15:23:28
Original geschrieben von r@h
Wer es tatsächlich hinbekommt, 1600'er Auflösungen (...) auf 'nem 19-21"-Moni, der dann nicht einmal mehr 100Hz mitmacht, tut mir wahrhaftig leid.

*loooool* Danke für Dein Mitleid! :asshole:

MarcWessels
2004-06-17, 15:24:03
Original geschrieben von grestorn
Allerdings spielt es bei Spielen m.E. keine Rolle, wenn man eine andere Auflösung als die native des LCD Monitors verwendet, die Unschärfe stört bei Spielen nicht, im Gegenteil, sie kann sogar das subjektive Bildempfinden verbessern.

Und morgen kommt der Osterhase... :(

zeckensack
2004-06-17, 15:29:11
Original geschrieben von r@h
Warum sollte ich (man ;-) einen solchen Unfug tun ?
:???:

'Meine' präferierte Auflösung liegt bei 1024x768, bzw. 1280x960... mit 4-8°AF und 2xAA (mit 'ner 6800 dann wohl 4xAA ;-). Und das war's dann auch schon.

Wer es tatsächlich hinbekommt, 1600'er Auflösungen auf 'nem 17"-TFT zu schaun', oder aber auf 'nem 19-21"-Moni, der dann nicht einmal mehr 100Hz mitmacht, tut mir wahrhaftig leid.

Solche Auflösungen sind glatter Unfug und für Schw...-Vegleiche interessant.
Real-World haben sie keinerlei Bedeutung !
(einige Ausnahmen hier würden die Regel voll bestätigen ;-)

Razor Das ist deine Meinung, und die steht dir auch zu. Ich nutze jedoch tatsächlich ab und an 1600x1200 bei 75Hz. Auf dem Desktop nie (s/w-Kontraste sind dann doch zu heftig), in einigen Spielen aber sehr gerne.
ZB erst kürzlich Gothic 1&2, und Morrowind würde ich auch so spielen, wenn ich es denn überhaupt noch spielen würde.

Dein Mitleid brauche ich aber eher weniger, ich weiss schon was ich da tue.

edit: 19" CRT, 96kHz maximale Horizontalfrequenz (1600x1200@75Hz erreicht laut OSD 94kHz ...)

(del676)
2004-06-17, 15:30:01
Original geschrieben von robbitop
igitt Raid0, 2 mal und nie wieder ;)
bisher hatte ich freezes und abstürze. Da braucht nur mal eine Platte kurz ein bissl asynchron zu laufen und schon freezt das schöne System, dann die dauerbelastung für beide Platten und wenn eine Platte ein Fehler hat, sind die Daten futsch. Zuviele Nachteile für ein paar Vorteile. Ladezeiten und fürs Arbeiten mit großen Dateien brauchbar. Im Alltag frisst der Overhead meist den Vorteil fast wieder auf oder im Grenzbereich ist die Zugriffszeit limitierende Komponente

hast du diesbzgl andere Erfahrungen? (per PM wäre gut, da das hier extrem OT ist :))

Also um RAM führt wohl kein Weg rum bei mir, kann ja wohl nicht sein, dass Spiele laggen und dann auf die HDD zugreifen. Und das bei 512MiB...frechheit von Cry Tek ;)

diese effekte kenne ich nicht von raid0 obwohl ich es schon über viele jahre in meinen pcs nutze

einzig wenn pcs bis zum erbrechen übertaktet sind und dann mal wegfreezen gibts probleme

robbitop
2004-06-17, 15:39:35
das eine hat mit dem Anderen aber nichts zu tun ;)

ich kanns bei Gelegenheit nochmal versuchen. Performance ist bekanntlich immer gut.

Tjell
2004-06-17, 15:44:17
Original geschrieben von zeckensack
Das ist deine Meinung, und die steht dir auch zu. Ich nutze jedoch tatsächlich ab und an 1600x1200 bei 75Hz. Auf dem Desktop nie (s/w-Kontraste sind dann doch zu heftig), in einigen Spielen aber sehr gerne.
ZB erst kürzlich Gothic 1&2, und Morrowind würde ich auch so spielen, wenn ich es denn überhaupt noch spielen würde.

Dein Mitleid brauche ich aber eher weniger, ich weiss schon was ich da tue.

edit: 19" CRT, 96kHz maximale Horizontalfrequenz (1600x1200@75Hz erreicht laut OSD 94kHz ...)

Naja, der Unterschied von einem "billigen" 19"-Monitor mit 96 kHz Horizontalfrequenz (habe ich auch) und einem teuren mit z. B. 115 kHz ist schon deutlich sichtbar: Bei erstgenannten hat man bei 75 Hz einen verwaschenen Eindruck (unscharfe Kanten), bei letztgenannten möchte ich das Bild mal als "crispy" bezeichnen.

Es ist immer besser unterhalb der Grenze der Darstellungsfähigkeiten des Monitors zu bleiben.

robbitop
2004-06-17, 16:12:08
das hängt sicher auch mit der Loch/Streifenmaske zusammen.
1600x1200 ist bei 19" oft etwas zu viel des Guten eben wegen der Maskengröße und weil die Schrift in Spielen auch unlesbar klein wird.

Lieber 1024/1280 und ein schönes 4xS dazu =)
Wobei 16x12 mit 2xRGMS auch sehr sehr schön sein kann.

Grestorn
2004-06-17, 16:40:31
Original geschrieben von MarcWessels
Und morgen kommt der Osterhase... :( Hast Du denn einen LCD Monitor, der eine Auflösung von 1600x1200 hat?

Wenn nicht, dann weißt Du überhaupt nicht, wovon Du redest. Du kannst aber gerne wobeikommen, um Dich bei mir zu vergewissern.

m'enfous
2004-06-17, 16:50:28
Original geschrieben von r@h
:kotz:

Razor

warum? 95% der potentiellen Kunden werden die Optimierungen sowieso aktiviert lassen, und keinen Unterschied in der IQ bemerken.Es ist die Meinung des Reviewers dass er keinen Unterschied bemerkt, und ergo sein gutes Recht so zu benchen. Dein Reaktion besagt dass du nicht imstande bist die Meinung eines anderen zu respektieren.
p.s. Ist bei dir das Glas halb voll oder halb leer?

MadManniMan
2004-06-17, 16:53:23
Hm, also ich weiß, daß ich mit meinem 15" TFT vor mir ungern was anderes, als die nativen 1024*768 Pixel nutze :| Und wenn mein 17"er von der Reperatur zurück kommt, werde ich tunlichst die Nutzung von allem außer 1280*1024 vermeiden.

Und nicht zuletzt glaube ich auch nicht, daß nggalai mit seinem 20 oder 21"er 1600er TFT was Anderes als eben jene Auflösung mag.

Du scheinst mit deiner Meinung recht allein auf weiter Flur zu sein - wobei ich zugeben muß, daß 1024*768 auf meinem 17" TFT trotz Interpolierung besser aussehen, als auf dem dafür ausgelegten 17er CRT hinter mir ;)

MechWOLLIer
2004-06-17, 17:23:21
Wie siehts eigentlich mit den Lochabständen auf dem NV40 aus.? LAut dem Test von Guru3d sind diese Unterschiedlich zum NV3x, sprich die bisherigen Wakü würden nicht mehr passen.
Irgendwo anders dagegen hab ich mal gelesen, dass die Abstände gleich geblieben sind...

Torian.cc
2004-06-17, 17:28:10
@Razor

Weiss auch nicht was das soll..., was ist an 1600x1200 bei 85hz so verkehrt??
Daß alles unter 100hz bei CRT´s "augenfeindlich" sein soll, kannst Du nicht wirklich meinen!

Ich habe ´nen Belinea 22Zoll Monitor, lasse ihn unter Windows mit 1280x1024 bei 100hz laufen, und bei Games versuche ich (soweit es performance-mäßig möglich ist!) IMMER 1600x1200 bei 85hz zu fahren.
Verbunden ist die Graka über ein BNC-Kabel mit dem Monitor, was tatsächlich etwas zur Bildqualität beigetragen hat!!

MfG
Tori

robbitop
2004-06-17, 17:30:30
afaik gleich.
Es gibt bei Desktopgrafikkarten offenbar nur 2 Abstände. Die bei den Radeons/GF3 oder die ab GF4 verwendet werden.

MadManniMan
2004-06-17, 17:33:49
*zustimm* @Torian.CC

...ein brauchbarer >= 20" CRT kostet in etwa das, was man für einen ordentlichen 17" TFT hinlegt.

Razor, da bist du IMHO zu sehr von deiner eigenen Meinung als Fakt überzeugt ;) und NEIN, dein "die Ausnahmen sind Regelbestaytig0r" zählt hier nich :D

zeckensack
2004-06-17, 17:39:36
Original geschrieben von Tjell
Naja, der Unterschied von einem "billigen" 19"-Monitor mit 96 kHz Horizontalfrequenz (habe ich auch) und einem teuren mit z. B. 115 kHz ist schon deutlich sichtbar: Bei erstgenannten hat man bei 75 Hz einen verwaschenen Eindruck (unscharfe Kanten), bei letztgenannten möchte ich das Bild mal als "crispy" bezeichnen.Bei 1600x1200 spielt auch die verwendete Grafikkarte eine wichtige Rolle :)
Ich kann jedenfalls gut damit leben. Wie bereits geschrieben, auf dem Desktop gefällt mir das auch nicht wirklich, was aber eher an der zu geringen Vertikalfrequenz liegt (Flimmern ahoi).
Es ist immer besser unterhalb der Grenze der Darstellungsfähigkeiten des Monitors zu bleiben. Solange es funktioniert ... für die 96kHz wurde gezahlt, also nutze ich sie aus. Sind ja auch noch ein paar Jahre Garantie drauf.
Anders würde das aussehen, wenn mein Monitor mir dann nicht mehr scharf genug wäre, das ist aber zum Glück nicht der Fall.

robbitop
2004-06-17, 17:41:17
@zecki
ist es nicht aber so, dass je näher an der Grenze desto unschärfer das Bild?

(del676)
2004-06-17, 17:45:45
ich hab auch nen 22" CRT von Belinea auf ner 5900U hängen und fahre damit 1600x1200@85 am Desktop und das sieht absolut genial aus und is gestochen scharf (man möchte es kaum glauben ;) )

damals stand ich vor der Wahl nen 19" TFT oder nen 22er CRT
und da mir die Nachteile des TFTs ganz und gar nicht geschmeckt haben (interpolation, farbuntreue, teilweise schlieren) hab ich zum crt gegriffen, platz hab ich genug

gestern hab ich mal die matrox p650 an diesem monitor ausprobiert, in 1600x1200@85 hab ich im vergleich zur 5900u eigentlich gar nix bemerkt, aber in 1920x1440@75 war der unterschied enorm, mit der 5900u fängt da die schrift schon leicht an unscharf zu werden, während das ganze mit der p650 sowas von gestochen scharf aussieht ... uuiuiui
würd der monitor mehr als 80hz in dieser auflösung hergeben hätt ich mir schon fast überlegt die p650 länger drin zu lassen

Quasar
2004-06-17, 17:53:04
Ich probiere auch gerade mal 1920x1440. 85Hz sind so grad eben noch drin (nonimell noch 1,3kHz Luft nach oben).

Wirklich schön ist das Bild jetzt aber nicht mehr, wobei ich mal 90% der "Unschönheit" der Grafikkarte zuschreiben will.

Grestorn
2004-06-17, 17:57:08
An 1600x1200 ist nichts verkehrt. Wenn das Spiel mit dieser Auflösung läuft, ohne dass ich Kompromisse in der Bildqualität machen muss, dann nehm ich das natürlich.

Und bei nicht-Spiele-Anwendungen würde ich auch niemals eine andere Auflösung, als die native des LCD Monitors nutzen.

Allerdings muss man sich schon klar sein, was man will. Ich finde, ein ruckliges Bild ohne AA und mit wenig oder keinem AF in 1600x1200 ist wesentlich schlechter als ein flüssiges Bild mit 4xAA und 8xAF in 1280x1024.

AA trägt schießlich auch zur Abmilderung von harten Kanten bei. Die Interpolation des Monitors ist bei 1600x1200 -> 1280x1024 bei Spielen praktisch nicht zu sehen, wenn dann wirkt das Bild bestenfalls "weicher", was bei Spielen eher erwünscht ist. Es wird deswegen ja nicht wirklich unschärfer (die Details der Texturen bleiben voll erhalten), nur weicher.

(del676)
2004-06-17, 18:03:48
Original geschrieben von Quasar
Ich probiere auch gerade mal 1920x1440. 85Hz sind so grad eben noch drin (nonimell noch 1,3kHz Luft nach oben).

Wirklich schön ist das Bild jetzt aber nicht mehr, wobei ich mal 90% der "Unschönheit" der Grafikkarte zuschreiben will.

für games stell ich aber oft gern auf 1920x1440x75hz :)

Jesus
2004-06-17, 19:11:42
Original geschrieben von Tjell
Für kürzere Ladezeiten empfehlenswert ist Raid0-Betrieb von zwei identischen Festplatten (hilft mir BF1942 unter den ersten auf dem Server zu sein :D ) und für weniger Festplattenzugriffe auf jeden Fall mittlerweile 1 GB RAM.

Absolute Bullshit. Raid 0 bringt vielleicht für einen Server System was das viele zugriffe hat ohne auf CPU angewiesen zu sein oder bei Benchmarks...

Bei spielen bringt das nichts ( < 5% ) , es werden viel zu viele kleine Files geladen sodass die zugriffszeit der HDDs das ganze wieder ausgleicht. Selbst windoof bootet kaum spürbar schneller.

P.S: ich habe selbst ein Raid 0 System( 2x 160 GB Samsung P80 7200 / 8 MB auf nem Athlon 64 ). Bringt so gut wie gar nichts !

Torian.cc
2004-06-17, 19:12:49
OT - @Ulukay

Wo hast Du bitte das absolut goile Hintergrundbild Deines 'Windows Desktop' her??
Ich meine das "MATROX - The way it´s meant to be played"!

Habe zwar ´ne Menge MATROX-Pics, aber dieses fehlt noch in meiner Sammlung ;)

MfG
Tori

Jesus
2004-06-17, 19:13:54
... verglichen mit meiner vorherigen Seagate 80 GB 7200er mit 2MB Cahce ( IDE UDMA 100 ).

Denke die Cacheerhöhung alleine hätte schon genügt um denselben Geschwindigkeitsvorteil zu erzielen.

robbitop
2004-06-17, 19:44:43
Cache bringt in der Praxis GAR nix oder fast.
Da die zugriffe ja "zufällig" geschehen (die platte weiss nicht welche Daten der nutzer will) und somit ist ein precaching schwer und somit wird es kaum einen Grenzbereich geben wo die Größe dieses Caches limitiert.
Bei HD Tach jedoch gibt es tests die vorhersehbar sind und da kann die logik schon precachen und dann bringts auch was...aber halt nur in Benches. Ansonsten sind zugriffszeit, Patterndichte und UPR viel wichtiger.

Raid0 bringt beim Arbeiten mit großen Dateien was sonst nicht, vieleicht wenn ein spiel ein Level läd (bei UT2004 oder FarCry wäre das bestimmt nett)

Jesus
2004-06-17, 20:49:35
neues Review der 6800 NU auf firingsquad:

"based on what we’ve seen, the GeForce 6800 is basically a well-oiled GeForce FX 5950 Ultra with shader model 3.0."

(lol)

Demirug
2004-06-17, 21:04:59
Original geschrieben von Jesus
neues Review der 6800 NU auf firingsquad:

"based on what we’ve seen, the GeForce 6800 is basically a well-oiled GeForce FX 5950 Ultra with shader model 3.0."

(lol)

Wieso lol?

Die Aussage trift es sehr genau.

Nicht umsonst nennt nVidia das ganze immer noch CineFX wenn auch jetzt mit der Versionsnummer 3.

Das Highlevel Pipeline Diagramm ist sogar identisch. Erst im Detail gibt es dann Unterschiede.

Endorphine
2004-06-17, 21:12:32
Ist doch klasse, wenn ein NV40 non-ultra mit 12 Pipelines (ja ja, schlagt mich) für 299 $ MSRP auf dem Niveau eines NV38 für &asymp;400 EUR spielt. Und zusätzlich bekommt man noch SM 3.0. Ist das wirklich so :lol:-ig?

r@h
2004-06-17, 22:00:12
Original geschrieben von Jesus
Absolute Bullshit. Raid 0 bringt vielleicht für einen Server System was das viele zugriffe hat ohne auf CPU angewiesen zu sein oder bei Benchmarks...Raid0 bringts bei Streaming-Media... also wenn große Dateien gelesen oder geschrieben werden (Video-Bearbeitung, Recording etc. - beim Encoden limitiert die CPU).

Ist durchaus ein Anwendungsgebiet für Privat-Nutzer...
Aber klar, bei Spielen dürfte der Geschwindigkeitsvorteil nahe gegen Null gehen.

Razor

r@h
2004-06-17, 22:02:31
Original geschrieben von zeckensack
Das ist deine Meinung, und die steht dir auch zu. Ich nutze jedoch tatsächlich ab und an 1600x1200 bei 75Hz. Auf dem Desktop nie (s/w-Kontraste sind dann doch zu heftig), in einigen Spielen aber sehr gerne.
ZB erst kürzlich Gothic 1&2, und Morrowind würde ich auch so spielen, wenn ich es denn überhaupt noch spielen würde.

Dein Mitleid brauche ich aber eher weniger, ich weiss schon was ich da tue.

edit: 19" CRT, 96kHz maximale Horizontalfrequenz (1600x1200@75Hz erreicht laut OSD 94kHz ...) Du gehörst offenbar zu den von mir genannten 'Ausnahmen'...
:D

Razor

Gast
2004-06-17, 22:04:01
Original geschrieben von r@h
Raid0 bringts bei Streaming-Media... also wenn große Dateien gelesen oder geschrieben werden (Video-Bearbeitung, Recording etc. - beim Encoden limitiert die CPU).

Ist durchaus ein Anwendungsgebiet für Privat-Nutzer...
Aber klar, bei Spielen dürfte der Geschwindigkeitsvorteil nahe gegen Null gehen.

Razor

naja also bei mir ist die CPU auslastung mit ca. 20% nicht viel geringer als vorher mit dem IDE. Hängt wohl vom System ab

Gast
2004-06-17, 22:06:25
Original geschrieben von Endorphine
Ist doch klasse, wenn ein NV40 non-ultra mit 12 Pipelines (ja ja, schlagt mich) für 299 $ MSRP auf dem Niveau eines NV38 für &asymp;400 EUR spielt. Und zusätzlich bekommt man noch SM 3.0. Ist das wirklich so :lol:-ig?

Naja das ding ist nicht viel schneller ( wenn überhaupt ) wie ne Radeon 9800XT. Ich denke wenn die Karte erstmal draussen ist werden die Preise für ne xt ( oder man nehmen eine 9800 Pro für 200 euro und übertakte zur XT :) ) schon ziemlich viel niedriger liegen.

Sehe den sinn in so eine Karte nicht. Das ist derselbe Müll wie eine MX440 oder 9600SE oder sowas...

r@h
2004-06-17, 22:08:24
Original geschrieben von m'enfous
warum? 95% der potentiellen Kunden werden die Optimierungen sowieso aktiviert lassen, und keinen Unterschied in der IQ bemerken.Es ist die Meinung des Reviewers dass er keinen Unterschied bemerkt, und ergo sein gutes Recht so zu benchen. Dein Reaktion besagt dass du nicht imstande bist die Meinung eines anderen zu respektieren.Wenn Du meinst...
Ich kauf mir doch keine High-End-Hardware und laß mich dann mit der BQ besch..ßen.
Sorry...

Dass derjenige nichts bemerkt liegt wohl eher in der Tatsache begründet, dass er halb blind - oder aber nicht 'vernünftiges' gewohnt ist.
Original geschrieben von m'enfous
p.s. Ist bei dir das Glas halb voll oder halb leer? Wass soll der Blödsinn ?
:???:

Wenn ich es gerade befüllt hab', ist es halb voll. Betrachte ich das gleiche Glas nach 'nem kräftigen Schluck, ist es halb leer... der Tendenz wegen, wenn Du verstehen solltest...
;-)

Razor

r@h
2004-06-17, 22:10:15
Original geschrieben von Gast
naja also bei mir ist die CPU auslastung mit ca. 20% nicht viel geringer als vorher mit dem IDE. Hängt wohl vom System ab :???:

Was soll denn das jetzt mit der CPU-Auslastung zu tun haben ?
Oder meintest Du jetzt das encoden ?
Hmmm...

Razor

Gast
2004-06-17, 22:12:54
ja

r@h
2004-06-17, 22:16:29
Original geschrieben von MadManniMan
Razor, da bist du IMHO zu sehr von deiner eigenen Meinung als Fakt überzeugt ;) und NEIN, dein "die Ausnahmen sind Regelbestaytig0r" zählt hier nich :D Nicht ?
Also die 3 Leute hier, die 1600 als sinnvoll erachten, haben meine Theorie voll bestätigt !
:D

Razor

MadManniMan
2004-06-17, 22:22:43
Original geschrieben von r@h
Nicht ?
Also die 3 Leute hier, die 1600 als sinnvoll erachten, haben meine Theorie voll bestätigt !
:D

Razor

Ironie?

MarcWessels
2004-06-17, 22:23:24
Original geschrieben von Jesus
P.S: ich habe selbst ein Raid 0 System( 2x 160 GB Samsung P80 7200 / 8 MB auf nem Athlon 64 ). Bringt so gut wie gar nichts !


Von Deinen Samsung-Platten solltest Du nicht auf andere Raid 0-Arrays schließen.


Mal schnell noch was Ketzerisches zum AA-> Hab' seit gestern ja (mit "etwas" Verspätung) "Call Of Duty" drauf, hab' kurz 1600x1200 ausprobiert, festgestellt, daß es dann ruckelte und hab' deshalb 4x und 6xAA ausprobiert. Ich finde, bei den meisten Kanten störts irgendwie und das Bild wirkt insgesamt weniger plastisch... :/

Jesus
2004-06-17, 22:23:46
also ich nehme gern die höchste auflösung die geht. bei nem tft zwar nur 1280x weil alles drunter sieht schwul aus.

das wetter ist immer noch scheisse hier ausserdem fällt mir jetzt nicht s mehr ein gute nacht.

Jesus
2004-06-17, 22:24:44
Original geschrieben von MarcWessels
Von Deinen Samsung-Platten solltest Du nicht auf andere Raid 0-Arrays schließen.



naja das waren in den meisten tests die testsieger ( speed usw. ) :) deswegen hab ich mir sie auch geholt

robbitop
2004-06-17, 22:26:54
CineFX 3 heisst das ganze? Ist mir aber neu..ich dachte an der Pipeline wär soviel Neues?
Man hat auch keinen Shadercore mehr.
Könntest du uns Infos zukommenlassen, Demi?

r@h
2004-06-17, 22:32:33
Original geschrieben von robbitop
@Razor
wie schaffst du es, Far Cry in 1024/1280 bei vollen Details bei 2xAA/4xAF flüssig zu spielen?

<snap>Sorry, für's Schnipseln...
;-)

Ähm...
Also bei mir läuft auch der der 61.34 (weitestgehend ;-) flüssig mit 2xAA/4xAF:AthlonXP 2100+ @ 2700+ (Tbred-'B')
ASUS A7N8X del/gd (nForce2) Rev1.04 Bios1007 UDP4.24+
1x512MB & 2x256MB (1GB DC) Corsair PC433 CL2 DDR-SDRAM @ 2-2-2-5
MSI GeForceFX 5900 VTD128 @ 475/950
WindowsXP Prof. SP1a-fp DX9bSelbstverständlich bei vollen Details von FC1.1 (alles auf 'very high', Wasser auf 'ultra high').

FC scheint tatsächlich einer der wenigen neuen Games zu sein, die von 1GB Speicher kräftig profitieren können... erinnere mich noch an die Zeiten, an denen auch ich noch mit 512MB auskommen musste. Und da habe ich noch mächtig gegen den 1GB-Unsinn gewettert... bis eben FarCry kam.

Keine Ahnung, ob das das Problem bei Dir lösen kann... vielleicht will da ja was anderes nicht so richtig?

Razor

r@h
2004-06-17, 22:33:12
Original geschrieben von MadManniMan
Ironie? Nein, Realität !
Oder ?
:???:

Razor

MadManniMan
2004-06-17, 22:36:39
Original geschrieben von r@h
Nein, Realität !
Oder ?
:???:

Razor

Ähm, bis jetzt haben sich 3 User für 1600*1200 ausgesprochen - keiner direkt dagegen :| Ich sehe nicht wirklich Land für deine Logik, verzeih ?-) Und nimms mir nicht übel.

Nebenbei: genauso wie mit deinem "Was ist 1Gig nur für ein Stuß!" ... :|

MarcWessels
2004-06-17, 22:38:47
Original geschrieben von Jesus
naja das waren in den meisten tests die testsieger ( speed usw. ) :) deswegen hab ich mir sie auch geholt

Das heißt nicht, daß sie für RAID sonderlich geeignet wären.

@Razor
Hmm... ich spiel "Far Cry" in 800x600 + 4xAF (R9700Pro @ 432/337MHz, Cat 4.7) weil's mir sonst zu ruckelig wid. Von "Flüssig" ist es noch immer meilenweit entfernt.

Was die Rammenge angeht, hast Du natürlich Recht - auch Battlefield und noch einige andere brauchen inzwischen 1 Gig.

r@h
2004-06-17, 22:40:46
Also entweder bist Du zu langsam... oder Du kannst einfach nicht lesen !
:D
Original geschrieben von MadManniMan
Ähm, bis jetzt haben sich 3 User für 1600*1200 ausgesprochen - keiner direkt dagegen :| Ich sehe nicht wirklich Land für deine Logik, verzeih ?-) Und nimms mir nicht übel.Dazu schrieb ich:
"Also die 3 Leute hier, die 1600 als sinnvoll erachten, haben meine Theorie voll bestätigt !"
Original geschrieben von MadManniMan
Nebenbei: genauso wie mit deinem "Was ist 1Gig nur für ein Stuß!" ... :| Tjo, dazu schrieb ich gerade:
"FC scheint tatsächlich einer der wenigen neuen Games zu sein, die von 1GB Speicher kräftig profitieren können... erinnere mich noch an die Zeiten, an denen auch ich noch mit 512MB auskommen musste. Und da habe ich noch mächtig gegen den 1GB-Unsinn gewettert... bis eben FarCry kam."

Ich tippe einfach mal auf 'langsam'...
;D

Razor

Tjell
2004-06-17, 22:41:01
Original geschrieben von Jesus
Absolute Bullshit. Raid 0 bringt vielleicht für einen Server System was das viele zugriffe hat ohne auf CPU angewiesen zu sein oder bei Benchmarks...

Bei spielen bringt das nichts ( < 5% ) , es werden viel zu viele kleine Files geladen sodass die zugriffszeit der HDDs das ganze wieder ausgleicht. Selbst windoof bootet kaum spürbar schneller.

P.S: ich habe selbst ein Raid 0 System( 2x 160 GB Samsung P80 7200 / 8 MB auf nem Athlon 64 ). Bringt so gut wie gar nichts !

Raid0 bringt BEIM SPIELEN garnix! Richtig.

Beim LADEN EINES LEVELS jedoch ENORM viel:
Ein Kumpel, der mit mir regelmäßig Battlefield zockt und eine identische Hardware-Ausstattung (auch gleiche Treiber) wie ich hat, braucht nicht ganz aber annähernd doppelt solange zum Laden eines neuen Levels. Einziger Unterschied: Meine Spiele liegen auf der Raid0-Festplatte (kein Betriebssystem da drauf!), bei ihm auf einer baugleichen einzelnen Platte.

Fazit: kein schnelleres oder flüssigeres Spielerlebnis, sondern NUR verkürzte Ladezeiten (Beispiele: Battlefield 1942 und Vietnam).

Und da erzähl Du mir was davon, daß Raid0 nichts bringt :P

Wenn Du es nicht glaubst, dann mach Dich selbst schlau oder bleibe bei Deiner (Ein)Bildung.

LovesuckZ
2004-06-17, 22:42:42
Original geschrieben von Gast
Sehe den sinn in so eine Karte nicht. Das ist derselbe Müll wie eine MX440 oder 9600SE oder sowas...

Aha, zeige mir dann doch bitte, wo die Karte kein SM3.0, kein FP - Blending, kein Videoprozessor besitzt oder aber ein halbiertes Speicherinterface hat.
Ansonsten hat die Karte einen geringeren Stromverbrauch (das MUST - HAVE Features heutzutage), verfuegt über das neuste Featurepaket, ist schneller als eine FX5900 (unter SM2.0 erst recht), schnelleres AA als die 9800XT und habe ich schon den geringeren Stromverbrauch erwaehnt?

r@h
2004-06-17, 22:46:24
Original geschrieben von MarcWessels
Hmm... ich spiel "Far Cry" in 800x600 + 4xAF (R9700Pro @ 432/337MHz, Cat 4.7) weil's mir sonst zu ruckelig wid. Von "Flüssig" ist es noch immer meilenweit entfernt.Also ohne AA ?
Neeee... also wirklich nicht.

Vielleicht sollten die CryTek-Jungs auch mal für die etwas schwächeren Radeons da draußen 'optimieren' ?
Mit meiner R9800p lief es eigentlich auch noch mit 4xAA ganz ordentlich !
Original geschrieben von MarcWessels
Was die Rammenge angeht, hast Du natürlich Recht - auch Battlefield und noch einige andere brauchen inzwischen 1 Gig. Na ja, 'brauchen' nun nicht gerade.
Gibt in den meisten Fällen eigentlich nur geringere Nachladezeiten (die nicht wirklich ins Gewicht fallen). Erst bei FarCry habe ich ein Einsehen gehabt und mit (auch aus anderen Gründen) schweren Herzens ein 512MB-Riegelchen für satte 178 Euronen gezogen...

Razor

Demirug
2004-06-17, 22:53:25
Original geschrieben von robbitop
CineFX 3 heisst das ganze? Ist mir aber neu..ich dachte an der Pipeline wär soviel Neues?
Man hat auch keinen Shadercore mehr.
Könntest du uns Infos zukommenlassen, Demi?

Ich will doch aths nicht arbeitsloss machen.

Gast
2004-06-17, 22:54:35
Original geschrieben von LovesuckZ
schnelleres AA als die 9800XT und habe ich schon den geringeren Stromverbrauch erwaehnt?

Das glaube ich angesichts der Benchmarks ( in hohen Auflösungen teilweise HINTER einer 5950 ) nicht.

Demirug
2004-06-17, 22:56:33
RAIDs sind ja ein durchaus interesantes Thema aber hier doch etwas Offtopic, oder?

Also bitte.

Jesus
2004-06-17, 22:56:44
Original geschrieben von Tjell
Raid0 bringt BEIM SPIELEN garnix! Richtig.

Beim Laden eines Levels jedoch ENORM viel. Ein Kumpel, der mit mir regelmäßig Battlefield zockt und eine identische Hardware-Ausstattung (auch gleiche Treiber) wie ich hat, braucht nicht ganz aber annähernd doppelt solange zum Laden eines neuen Levels. Einziger Unterschied: Meine Spiele liegen auf der Raid0-Festplatte (kein Betriebssystem da drauf!), bei ihm auf einer baugleichen einzelnen Platte.

Und da erzähl Du Blitzbirne mir was davon, daß Raid0 nichts bringt :P

Wenn Du es nicht glaubst, dann mach Dich selbst schlau oder bleibe bei Deiner (Ein)Bildung.

Wie gesagt ich hab selbst Raid 0. Und ich kann einfach nicht viel unterschied zu meiner vorherigen Festplatte ( 7200er IDE 100 ) feststellen. Ok in benchmarks zeigts mir schon an dass es jetzt doppelt so schnell sein müsste wie vorher, nur merken tu ichs nicht.

(del676)
2004-06-17, 23:00:48
jop
bringt leider relativ wenig

auch wenn die seq. datenraten auf das doppelte anwachsen, games/progs/windows sind größtenteils auf zugriffszeit und IOs/s angewiesen

deshalb lieber eine raptor für win/prog/games und eine grosse pladde zum datenlagern

Jesus
2004-06-17, 23:01:45
du weisst schon dass man für raid0 2 platten benötigt oder ? weil du von "der" Festplatte sprichst :)

MarcWessels
2004-06-17, 23:03:38
Original geschrieben von r@h
Vielleicht sollten die CryTek-Jungs auch mal für die etwas schwächeren Radeons da draußen 'optimieren' ?
Mit meiner R9800p lief es eigentlich auch noch mit 4xAA ganz ordentlich !

*hüstel* Wie hoch getaktet?

Für FarCry braucht man schon ne X800...

Jesus
2004-06-17, 23:05:10
also ich spiele FarCry mit meiner 9800 Pro auf etwas höherem takt ( 400 / 370 ) absolut ruckelfrei auf 1280x1024x32 4xAA 8xAF bei so 20-50 fps je nachdem wo ich bin, aber ohne ruckler. ( mit nem A64 3000+ und 1gig ram )

Jesus
2004-06-17, 23:06:02
allles auf very high / ultra high natürlich, glare on und mit EAX 2.0

r@h
2004-06-17, 23:07:25
Kann doch aber nicht sein, dass eine R9700p so viel langsamer ist, oder ?
:???:

Razor

Jesus
2004-06-17, 23:08:13
als was ?

r@h
2004-06-17, 23:08:17
Original geschrieben von MarcWessels
*hüstel* Wie hoch getaktet?Standard-Takt.

Razor

MadManniMan
2004-06-17, 23:08:19
Ich hab eigentlich zu tun und nur nebenbei fürs Forum Zeit, aber seis drum...

Original geschrieben von r@h
Also entweder bist Du zu langsam... oder Du kannst einfach nicht lesen !
:D

Weder, noch.

Original geschrieben von r@h
Dazu schrieb ich:
"Also die 3 Leute hier, die 1600 als sinnvoll erachten, haben meine Theorie voll bestätigt !"

Was erwartest denn du? Daß auf einmal von allen aktiven etwa 2000 Usern hier im Forum alle 1600er User angesprungen kommen, dich zu widerlegen? Sorry, aber bitte... wenn du meinst, daß 1600 unsinnig ist und das darüber bewiesen wird, daß sich einige hier melden :ratlos:

Original geschrieben von r@h
Tjo, dazu schrieb ich gerade:
"FC scheint tatsächlich einer der wenigen neuen Games zu sein, die von 1GB Speicher kräftig profitieren können... erinnere mich noch an die Zeiten, an denen auch ich noch mit 512MB auskommen musste. Und da habe ich noch mächtig gegen den 1GB-Unsinn gewettert... bis eben FarCry kam."

Aha. Du mußtest also mit 512MB "auskommen". Und schön gegen alle wettern, die 1Gig haben :|
Man muß dich aber nicht verstehen :|

Original geschrieben von r@h
Ich tippe einfach mal auf 'langsam'...
;D

Nay.

LovesuckZ
2004-06-17, 23:09:17
Original geschrieben von r@h
Kann doch aber nicht sein, dass eine R9700p so viel langsamer ist, oder ?:???:
Razor

Nein, dass nennt man "Jesus".
Ist nicht aller so ganz ernst, was er schreibt.

MadManniMan
2004-06-17, 23:09:23
Original geschrieben von r@h
Kann doch aber nicht sein, dass eine R9700p so viel langsamer ist, oder ?
:???:

Razor

Das nicht, es kann aber sein, daß MarcWessels "20 - 50 fps" nicht als angenehm empfindet ;)

Jesus
2004-06-17, 23:10:05
Original geschrieben von LovesuckZ
Nein, dass nennt man "Jesus".
Ist nicht aller so ganz ernst, was er schreibt.

dasselbe könnte man über dich auch sagen... und ja ich bin mir verdammt ernst damit.

Tjell
2004-06-17, 23:10:35
Original geschrieben von Jesus
du weisst schon dass man für raid0 2 platten benötigt oder ? weil du von "der" Festplatte sprichst :)

Letzte Antwort zu dem Thema, da es in der Tat OT ist:

Ich habe die beiden Festplatten per Raid-Controller im Raid0-Modus laufen und bekomme daraus platt gesagt "eine große Festplatte". Soll ich deswegen aber von "meineN FestplatteN" reden? Es ist für mich "eine" Raid0-Festplatte.

Soll ich noch mehr Erbsen zählen? Dann aber lieber per PN.

Genug des Off-Topic.

Gast
2004-06-17, 23:11:17
zwischen ner 9700 pro und ner 9800 Pro gibts mehr unterschiede als nur den Takt ( Nochdazu wo sie fast auf XT niveau läuft... )

z.b. Z Puffer optimierungen ( hyper z 2, smartshader 2.1... )

MadManniMan
2004-06-17, 23:11:29
Original geschrieben von LovesuckZ
Nein, dass nennt man "Jesus".
Ist nicht aller so ganz ernst, was er schreibt.

LS ... 20 - 50 fps könnten allerdings wirklich hinkommen - auch mit diesen Einstellungen.

Daß er nicht erwähnt, daß es auch krassere Slowdowns geben kann, ist klar, oder? ;)

LovesuckZ
2004-06-17, 23:11:42
Original geschrieben von Jesus
dasselbe könnte man über dich auch sagen... und ja ich bin mir verdammt ernst damit.

Ist doch okay, dass deine Karte die Werte einer X800XT erreicht und du 20FPS als "ruckelfrei" empfindest.

r@h
2004-06-17, 23:13:26
Original geschrieben von MadManniMan
Aha. Du mußtest also mit 512MB "auskommen". Und schön gegen alle wettern, die 1Gig haben :|
Man muß dich aber nicht verstehen :|Offenbar nicht nur langsam, sondern auch noch recht humorlos, gell ?
Geht Dir Deine Freundin vielleicht auf die Nerven ?

Vielleicht hätte ich den in meinem Kommentar enthaltenen Sarkasmus ein wenig deutlicher kennzeichnen sollen. Damals haben 512MB vollkommen ausgereicht, bis FarCry kam...

Und mit FarCry kam auch mein Einsehen und fortan hatte auch ich (teuren) 1GB im Rechner.

Razor

Jesus
2004-06-17, 23:13:30
Original geschrieben von LovesuckZ
Ist doch okay, dass deine Karte die Werte einer X800XT erreicht und du 20FPS als "ruckelfrei" empfindest.

naja 20 fps sind schon hart an der Grenze das kommt auch nicht so oft vor:) aber es läuft gut. und ne x800 XT ist schon ein ganzes stück ( mehr als doppelt ) schneller

LovesuckZ
2004-06-17, 23:14:55
Original geschrieben von MadManniMan
LS ... 20 - 50 fps könnten allerdings wirklich hinkommen - auch mit diesen Einstellungen.


Hm, ich lese gerade ein paar reviews und komisch, dass eine XT in den selben Einstellungen auch nur max. 50 FPS erreicht.

Jesus
2004-06-17, 23:16:22
wie ich geschrieben hab ist meine Karte auf ( 400 / 370 ) übertaktet, also annähernd XT takt... naja wer lesen kann