PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Futuremark und NVIDIA: Statement zum Thema 3DMark03


Seiten : 1 [2]

LovesuckZ
2003-06-05, 17:43:46
Original geschrieben von Anonym_001
Man kann es ja erwähnen.
Aber nicht in einem Test.
Dort werden GK und Treiber getestet.
Wenn man im Anschluß an den Test in einer Rubrik wie "Tipps und Tricks" oder wie auch immer darauf hinweist, das es mit dem und dem Tool einfacher und/oder besser geht, habe ich nichts dagegen.

Du kannst AA/AF auch im Treiber umstellen. Das aendert nix dadran, dass es bei der r300 (meine Erfahrung bis CAT3.3) erst nach einem neustarten der Anwendung übernommen wird. Warum sollten man solch einen "Vorteil" nicht auch erwehnen?

Omnicron
2003-06-05, 17:45:39
Original geschrieben von Anonym_001
Der aTuner ist aber nicht Bestandteil des Treibers.
Warum soll bei einem Test erwähnt werden wie was mit einem extra Tool eingestellt werden kann.

Man braucht auch keinen Atuner um während eines Spiels AA/AF umzustellen, das geht auch so mit den Standardtreibern.

Axel
2003-06-05, 17:50:04
Original geschrieben von LovesuckZ
Du kannst AA/AF auch im Treiber umstellen. Das aendert nix dadran, dass es bei der r300 (meine Erfahrung bis CAT3.3) erst nach einem neustarten der Anwendung übernommen wird. Warum sollten man solch einen "Vorteil" nicht auch erwehnen?



Ich halte diese Randerscheinung für völlig bedeutungslos. Meistens hat man seine Grundeinstellung, die für das eine oder andere Spiel angepasst wird. Aber es sitzt doch keiner vor seinem Rechner und ändert dauernd die AA- und AF-Einstellungen.
Wenn das in die Beurteilung einer Grafikkarte einfließt wirds kleinkariert.

außerdem :topic:

LovesuckZ
2003-06-05, 17:51:47
Original geschrieben von Axel
Aber es sitzt doch keiner vor seinem Rechner und ändert dauernd die AA- und AF-Einstellungen.


genauso wie man sich nur für AA eine neue Karten kaufen wuerde oder extra ne 9800pro.

Black-Scorpion
2003-06-05, 17:57:04
Original geschrieben von LovesuckZ
Du kannst AA/AF auch im Treiber umstellen. Das aendert nix dadran, dass es bei der r300 (meine Erfahrung bis CAT3.3) erst nach einem neustarten der Anwendung übernommen wird. Warum sollten man solch einen "Vorteil" nicht auch erwehnen?

Wenn es mit dem Treiber geht kann/soll man es erwähnen.

Mir ging es nur um die Erwähnung von Tools bei einem Test.
Weil sie in einem Test nichts zu suchen haben.

LovesuckZ
2003-06-05, 17:59:49
Original geschrieben von DrumDub
haste heute nen schlechten tag gehabt, lovesuckz? oder willste nur mal wieder dein faynboytum pflegen... ;)

Noe, nur ist es nur noch langweilig wie Leute auf das "so übermaeßige schlechte und fuer heutige spiele nicht mehr einsetzbare 4AA" bashen. Und dann werden andere Dinge mal einfach ausser acht gelassen. Dazu gehoert fuer mich auch eine Art komfor, die ich dank dem nvidiatreiber habe (das heißt nicht, dass ATi's treiber schlecht seien. nur so zum rande, bevor die heulende meute wieder kommt...).

LovesuckZ
2003-06-05, 18:00:21
Original geschrieben von Anonym_001
Mir ging es nur um die Erwähnung von Tools bei einem Test.
Weil sie in einem Test nichts zu suchen haben.

Ja, da hast du recht. hab mich falsch ausgedrueckt.

Black-Scorpion
2003-06-05, 18:03:24
Original geschrieben von LovesuckZ
Ja, da hast du recht. hab mich falsch ausgedrueckt.

Dann sind ja alle Klarheiten beseitigt. ;)

Iceman346
2003-06-05, 18:34:51
Das Feature find ich persönlich nicht so extrem wichtig. Wirkt eher so als hättest du grad was gesucht womit man etwas sticheln könnte ;)

LovesuckZ
2003-06-05, 18:40:32
Original geschrieben von Iceman346
Das Feature find ich persönlich nicht so extrem wichtig. Wirkt eher so als hättest du grad was gesucht womit man etwas sticheln könnte ;)

Ich koennte ja auch das zum 100.sten mal erwehnte AF aufwaermen, wuerde aber nicht so gut ankommen :)
Imo sollte man zu der Gesamtwertung einer Karte auch den neusten (bzw. zum Testzeitpunkt aktuellsten) Treiber mit einfließen lassen, da meine 5800 auf jedenfall nen Nvidiatreiber benoetigt, um richtig zu funktioneren.

Axel
2003-06-05, 18:48:14
Original geschrieben von LovesuckZ
Ich koennte ja auch das zum 100.sten mal erwehnte AF aufwaermen, wuerde aber nicht so gut ankommen :)


Das hast du doch schon:

Original geschrieben von LovesuckZ
... dafuer muessen sie auf eine sehr gute AF Qualitaet verzichten.

Was ansich Blödsinn ist, da die Radeon mittlerweile ein sehr gutes AF bietet.

LovesuckZ
2003-06-05, 18:52:24
Original geschrieben von Axel
Was ansich Blödsinn ist, da die Radeon mittlerweile ein sehr gutes AF bietet.

Imo ist es kein Bloedsinn, dann koennte man auch sagen, dass Nvidia ein sehr gutes AA bietet. Fuer mich sah es schlechter aus, deutlich sogar. Andere koennen von mir aus anders urteieln.
Daher finde ich es ehrlich gesagt crap, dass man in diesen meinungskasten AA erwehnt, dafuer aber das AF aussen vorlaesst. Oder will man es nur verheimlichen...

/edit: ausserdem war es mehr scherzhaft gedacht, eine logische Fortfuehrung des Satzes.

AlfredENeumann
2003-06-05, 19:00:34
Original geschrieben von Omnicron
Kann man bei einer Ati Karte nicht einfach alt-tab machen, und dann auch andere AA/AF Einstellungen vornehmen ???

Wofür? Meine Karte ist bei den Spielen die ich Spiele so schnell, daß ich meine Einstellungen nicht RUNTERSTELLEN muß ;D

AlfredENeumann
2003-06-05, 19:05:20
Original geschrieben von LovesuckZ
Fuer mich sah es schlechter aus, deutlich sogar. Andere koennen von mir aus anders urteieln.



Warum wirst du nicht Reviewer, wenn du mal so eben Razfaz das Quality AF von dem Quality oder Application bei jeder Anwendung unterscheiden kannst ?

LovesuckZ
2003-06-05, 19:08:07
Original geschrieben von AlfredENeumann
Warum wirst du nicht Reviewer, wenn du mal so eben Razfaz das Quality AF von dem Quality oder Application bei jeder Anwendung unterscheiden kannst ?

Ich braeuchte nur Battlefield zoggen, und die Unterschiede werden mir sofort ins Auge springen. UT2003 sehe ich keine Unterschiede, selbst nicht mal wenn ich mit Performance zogge (bilinear). Dafuer faellt das "sehr schlechte 4AA" hier auch kaum negativ auf.

/edit: Mit hoehere Aufloesung werden die Unterschiede zwischen den AF der beiden Karten geringer, die Unterschiede beim AA auch. Also hat man hier eine Patt Situation.

Iceman346
2003-06-05, 20:09:47
Wenn ich Geld hätte hätte ich glatt Lust mir einfach mal so ne 5200 oder ne 5200Ultra oder sowas zuzulegen nur um endlich mal das AF von Nvidia mit dem meiner Radeon vergleichen zu können ;) Aber da ich kein Geld hab muss das wohl warten *g*

StefanV
2003-06-05, 21:01:16
Original geschrieben von Omnicron
Kann man bei einer Ati Karte nicht einfach alt-tab machen, und dann auch andere AA/AF Einstellungen vornehmen ???

Leider nicht.

StefanV
2003-06-05, 21:04:04
kennt jemand eine möglichst schnelle und kühle Low Profile Karte??

Das schnellste, was ich bisher gefunden hab, sind 8500/9100 Karten mit ~250/200MHz Taktung...

Exxtreme
2003-06-05, 21:04:26
Original geschrieben von Iceman346
Wenn ich Geld hätte hätte ich glatt Lust mir einfach mal so ne 5200 oder ne 5200Ultra oder sowas zuzulegen nur um endlich mal das AF von Nvidia mit dem meiner Radeon vergleichen zu können ;) Aber da ich kein Geld hab muss das wohl warten *g*
Naja, ich dürfte mal mit einer GF3Ti für ein Paar Stunden spielen. So viel besser sieht's IMHO auch nicht aus. Wenn das Spiel keine krummen Winkel hat, sieht's mit der ATi sogar besser aus da die Geforce nicht mehr als 8x AF schafft.

Iceman346
2003-06-05, 21:06:02
Original geschrieben von Exxtreme
Naja, ich dürfte mal mit einer GF3Ti für ein Paar Stunden spielen. So viel besser sieht's IMHO auch nicht aus. Wenn das Spiel keine krummen Winkel hat, sieht's mit der ATi sogar besser aus da die Geforce nicht mehr als 8x AF schafft.

Das ist ne Idee, einfach mal ne GF von nem Kumpel krallen *g*

Spiele ohne krumme Winkel sind allerdings heute immer seltener *g*

skampi
2003-06-05, 21:56:39
Original geschrieben von Omnicron
Kann man bei einer Ati Karte nicht einfach alt-tab machen, und dann auch andere AA/AF Einstellungen vornehmen ???

Doch, geht. (Hängt eventuell davon ab, ob dabei auch die Auflösung geändert wird, das war zumindest bei älteren Treibern so.)

dildo4u
2003-06-06, 22:12:49
http://www.chip.de/news/c_news_10549312.html

,,3D-Murks beim Benchmark: Nvidia schummelt erneut,,

Crazy_Bon
2003-06-07, 00:10:28
Ich sehe keinen Grund mehr eine Nvidia-Karte mehr zu kaufen. Warum all die Mühe in heimlichen Cheats anstatt in Spielen die Grafikqualität hochzuschrauben. Das sollte doch Nvidia vor kein Problem stellen wenn sie ja Benchmarkprogramme fast beliebig manipulieren können.

Razor
2003-06-07, 07:47:44
Original geschrieben von Iceman346
Wenn ich Geld hätte hätte ich glatt Lust mir einfach mal so ne 5200 oder ne 5200Ultra oder sowas zuzulegen nur um endlich mal das AF von Nvidia mit dem meiner Radeon vergleichen zu können ;) Aber da ich kein Geld hab muss das wohl warten *g*
Das solltest Du wirklich mal tun...
Glaube mir, Du wärst sehr verwundert !
(man sieht den Unterschied deutlich ;-)

Razor

Razor
2003-06-07, 07:50:04
Original geschrieben von dildo4u
http://www.chip.de/news/c_news_10549312.html

,,3D-Murks beim Benchmark: Nvidia schummelt erneut,,
Schau mal hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=71135&perpage=20&pagenumber=26

Ist schon uralt !
:D

Razor

Razor
2003-06-07, 07:50:59
Original geschrieben von Crazy_Bon
Ich sehe keinen Grund mehr eine Nvidia-Karte mehr zu kaufen. Warum all die Mühe in heimlichen Cheats anstatt in Spielen die Grafikqualität hochzuschrauben. Das sollte doch Nvidia vor kein Problem stellen wenn sie ja Benchmarkprogramme fast beliebig manipulieren können.
Und was hat ein synthetischer Bench mit der Gameperformance zu tun ?
???

Razor

P.S.: Meinetwegen kann der Murks von der Bildfläche verschwinden *eg*

gRoUnD
2003-06-07, 10:54:48
Du klingst wie eine alter Plattenspieler. Dieses Statement von dir hab ich schon so oft gelesen, ich glaub ich hau das in die Sig.

Iceman346
2003-06-07, 11:45:52
Original geschrieben von Razor
Das solltest Du wirklich mal tun...
Glaube mir, Du wärst sehr verwundert !
(man sieht den Unterschied deutlich ;-)

Razor

Pass auf, ich geb dir meine Kontodaten und du überweist mir 200Euro ;)

Exxtreme
2003-06-07, 11:58:14
Original geschrieben von Razor
Das solltest Du wirklich mal tun...
Glaube mir, Du wärst sehr verwundert !
(man sieht den Unterschied deutlich ;-)

Razor
Hmmm, also einen grossen Unterschied habe ich nicht gesehen. Gut, ich habe blos Operation Flashpoint gezockt aber in diesem Spiel gefällt mir das ATi-AF besser.

Endorphine
2003-06-07, 12:32:43
Original geschrieben von Exxtreme
Hmmm, also einen grossen Unterschied habe ich nicht gesehen. Gut, ich habe blos Operation Flashpoint gezockt aber in diesem Spiel gefällt mir das ATi-AF besser. Das ergibt aber keinen Sinn.

Exxtreme
2003-06-07, 12:37:21
Original geschrieben von Endorphine
Das ergibt aber keinen Sinn.
Warum nicht? ???

Endorphine
2003-06-07, 12:55:27
Original geschrieben von Exxtreme
Warum nicht? ??? Warum sollten weniger anisotrop gefilterte Texturen bei bestimmten Winkeln besser aussehen? Wenn man das weiterdenkt könnte man ja gleich AF abschalten und hätte beste BQ? ;)

Exxtreme
2003-06-07, 12:59:45
Original geschrieben von Endorphine
Warum sollten weniger anisotrop gefilterte Texturen bei bestimmten Winkeln besser aussehen? Wenn man das weiterdenkt könnte man ja gleich AF abschalten und hätte beste BQ? ;)
Vergiss nicht, daß ATis AF bis zu 16x geht und nicht nur bis zu 8x. ;)

LovesuckZ
2003-06-07, 13:14:15
Original geschrieben von Exxtreme
Vergiss nicht, daß ATis AF bis zu 16x geht und nicht nur bis zu 8x. ;)

Hm, sieht es es deutlich den Unterschied zwischen 8 und 16? Da ich nie solche Spiele hatte mit großen Flaechen, sah 16 immer wie 8 aus. Koenntest du mal bitte Screens machen?

Korak
2003-06-07, 13:28:24
Exxtreme sprach auch davon, dass es ihm besser gefällt. Ihr müsst das nicht nachvollziehen können und es muss auch nicht durch Screenshots belegbar sein. ;)

Iceman346
2003-06-07, 13:34:35
Also in Serious Sam 2 im Technologielevel wenn man den langen Weg hinabschaut ist der Unterschied zwischen 8x und 16x AF zwar auf Screenies zu sehen imo aber vernachlässigbar.

Exxtreme
2003-06-07, 13:51:56
Original geschrieben von LovesuckZ
Koenntest du mal bitte Screens machen?
Ich glaube nicht, daß man den Unterschied auf den Screenies so gut sieht wie in Bewegung. Ich kann heute abend aber doch welche machen.

Razor
2003-06-07, 20:36:36
Original geschrieben von Iceman346
Pass auf, ich geb dir meine Kontodaten und du überweist mir 200Euro ;)
200 Märker oder eben 100 Teuro's...
Aber nö, ich spar doch grad' auf die FX5900 !
(na ja, 'sparen' ist vielleicht etwas übertrieben)
:D

Razor

Razor
2003-06-07, 20:38:01
Original geschrieben von Exxtreme
Hmmm, also einen grossen Unterschied habe ich nicht gesehen. Gut, ich habe blos Operation Flashpoint gezockt aber in diesem Spiel gefällt mir das ATi-AF besser.
Das Spiel habe ich sogar noch nie (!) gesehen (geschweige denn gespielt ;-)...
Aber egal, was genau gefällt Dir denn am "ATi-AF" besser ?
???

Razor

Razor
2003-06-07, 20:41:30
Original geschrieben von Exxtreme
Vergiss nicht, daß ATis AF bis zu 16x geht und nicht nur bis zu 8x. ;)
Hast Du Dir das schon mal mit Demi's AF-Tester angeschaut ?
Die 16xAF bekommst Du faktisch nie !

Mal davon abgesehen, dass wohl sämtliche Reviewer keinen Unterschied in der Distanz-Schärfe ( <- blöde Bezeichnung ;-) zwischen 8°nVidia und 16°ATI wahr nehmen konnten.

Aber OK, wenn es Deine Meinung ist...
:D

razor

Razor
2003-06-07, 20:44:34
Original geschrieben von Exxtreme
Ich glaube nicht, daß man den Unterschied auf den Screenies so gut sieht wie in Bewegung. Ich kann heute abend aber doch welche machen.
Gerade in Bewegung sieht das ATI-AF im Vergleich (!) richtig schrottig aus... vor allem, wenn der Bildsausschnitt Bewegungen 'simuliert' (hin- und herschwanken - kann's nicht besser beschreiben ;-).
Keine Ahnung, ob das bei OF so ist...

Razor

Exxtreme
2003-06-07, 21:34:46
Ist schon lustig, wie Razor auf mich eindrescht. :D ;)

Hier 2 Screenshots:

OFP mit 8x AF: (http://exxtreme78.bei.t-online.de/Pics/OFP_8xAF.jpg)

OFP mit 16x AF (http://exxtreme78.bei.t-online.de/Pics/OFP_16xAF.jpg)

Wie ich sagte, auf Screenshots sieht man's nicht so richtig.

Vorteile bringt's trotzdem... gerade in diesem Spiel.

Aquaschaf
2003-06-07, 21:39:24
wieso wird eigentlich immer darüber hinweggeredet , dass
das schöne NVidia AF ( Application = Quality ) ( vor allem im Vergleich zu ATI Quality AF ) nicht soo wenig Performance kostet ?

Razor
2003-06-07, 22:18:20
Original geschrieben von Aquaschaf
wieso wird eigentlich immer darüber hinweggeredet , dass
das schöne NVidia AF ( Application = Quality ) ( vor allem im Vergleich zu ATI Quality AF ) nicht soo wenig Performance kostet ?
Weil das mit der FX-Serie schlicht nicht mehr der Fall ist...
:D

Razor

Razor
2003-06-07, 22:22:37
Original geschrieben von Exxtreme
Ist schon lustig, wie Razor auf mich eindrescht. :D ;)
Nicht doch...
:D
Original geschrieben von Exxtreme
Hier 2 Screenshots:

OFP mit 8x AF: (http://exxtreme78.bei.t-online.de/Pics/OFP_8xAF.jpg)

OFP mit 16x AF (http://exxtreme78.bei.t-online.de/Pics/OFP_16xAF.jpg)

Wie ich sagte, auf Screenshots sieht man's nicht so richtig.
Nicht so richtig ist gut...
Wenn ich das richtig gesehen habe, dann vergleichst Du ATI's 8°AF mit ATI's 16xAF.
Meinst Du nicht, dass dies in diesem Zusammenhang etwas sinnentfremdend ist ?
:kratz:
Original geschrieben von Exxtreme
Vorteile bringt's trotzdem... gerade in diesem Spiel.
Das glaube ich Dir mal, weil ich das schlicht nicht nachprüfen kann...
Würde mich nur wundern, weil's bei allen anderen Games, wo AF zum tragen kommt, eher anders herum ist.

Aber sei's drum.
;-)

Razor

LovesuckZ
2003-06-07, 22:44:46
Original geschrieben von Aquaschaf
wieso wird eigentlich immer darüber hinweggeredet , dass
das schöne NVidia AF ( Application = Quality ) ( vor allem im Vergleich zu ATI Quality AF ) nicht soo wenig Performance kostet ?

Qualitaet kostet Leistungs. So war das schon immer. Nur kann es in den Fall von ATi passieren, dass es gut aussieht und schnell ist oder nicht so gut aussieht und schnell ist. Bei nvidia ist es eben immer sehr gut und leistungsmaeßig in Ordnung (auf meiner 5800 490/490 kostet AA mehr Leistung als AF :D ).

Iceman346
2003-06-07, 23:32:16
Original geschrieben von Razor
Gerade in Bewegung sieht das ATI-AF im Vergleich (!) richtig schrottig aus... vor allem, wenn der Bildsausschnitt Bewegungen 'simuliert' (hin- und herschwanken - kann's nicht besser beschreiben ;-).
Keine Ahnung, ob das bei OF so ist...

Razor

Na na, wir wollen mal nicht Übertreiben oder?
Ich kenne zwar das Nvidia AF nicht, aber wenn eine Fläche schlechter oder nicht gefiltert ist fällt mir das schon auf. Und das ist ganz selten der Fall in aktuellen Spielen.

Edit:
@Extreme auf deinen Screenies sieht man den Unterschied sogar noch weniger als bei Serious Sam 2 ;)

Razor
2003-06-07, 23:34:04
Original geschrieben von Iceman346
Na na, wir wollen mal nicht Übertreiben oder?
Ich kenne zwar das Nvidia AF nicht, aber wenn eine Fläche schlechter oder nicht gefiltert ist fällt mir das schon auf. Und das ist ganz selten der Fall in aktuellen Spielen.
Ich rate Dir dringend, Dir die nVidia-Lösung mal anzuschauen...
Ist wirklich nur ein gut gemeinter Rat.

Razor

Iceman346
2003-06-07, 23:41:05
Original geschrieben von Razor
Ich rate Dir dringend, Dir die nVidia-Lösung mal anzuschauen...
Ist wirklich nur ein gut gemeinter Rat.

Razor

Wie gesagt, gib mir Geld dann mach ichs ;)

Ist nur grundsätzlich: Ich hab eigentlich ein recht gutes Auge was Qualitätsverminderungen angeht und mir ists bisher nur ganz selten aufgefallen das schiefe Flächen nicht voll gefiltert werden.

Razor
2003-06-08, 00:01:17
Original geschrieben von Iceman346
Wie gesagt, gib mir Geld dann mach ichs ;)
Da fällt mir ein 'netter' Spruch ein:
"Da spül ich das Geld doch lieber im Klo herunter... dann kann ich wenigstens sehen, wie es flattert !"
:D

Ist nun wirklich nicht ernst gemeint, aber ich denke Du verstehst, worauf ich hinaus will, oder ?
Da geh' ich doch lieber mit meiner Freundin mal richtig gut essen !
;-)
Original geschrieben von Iceman346
Ist nur grundsätzlich: Ich hab eigentlich ein recht gutes Auge was Qualitätsverminderungen angeht und mir ists bisher nur ganz selten aufgefallen das schiefe Flächen nicht voll gefiltert werden.
Du hast aber leider auch keinen Vergleich mit einer GraKa, die es besser macht...
Und ohne diesen Vergleich wirst Du den Unterschied auch nicht bemerken können, da Du ja nichts anderes kennst.

Ist genauso wie mit einer alten Brille... eigentlich sieht man doch alles gut und kommt damit wunderbar klar. Da bekommt man dann 'ne neue, die dann doch etwas besser auf den derzeitugen Zustand der Augen ausgelegt ist und versteht die Welt nicht mehr. Ist jetzt nur ein bildlicher Vergleich, aber villeicht kann man sich das Ganze ja so vorstellen.

Allerdings sollte man es tunlichst vermeiden, jetzt eine FX5200 neben eine R9500/9700 zu stellen und sich dann über die Performance aufzuregen...
:D

Razor

Legende
2003-06-08, 12:20:54
Gibt es nicht irgendwo einen Test mit Screens wo man den Unterschied sehen kann?

Aquaschaf
2003-06-08, 12:26:27
Original geschrieben von Razor
Weil das mit der FX-Serie schlicht nicht mehr der Fall ist...
:D

Razor

hast du einen test in dem NVidia Application AF gegen
ATI Quality AF getestet wird ?

LovesuckZ
2003-06-08, 12:44:36
Original geschrieben von Aquaschaf
hast du einen test in dem NVidia Application AF gegen
ATI Quality AF getestet wird ?

Jeder Test, indem der 44.03 verwendet wurde.

Aquaschaf
2003-06-08, 13:02:12
ok , scheint mit dem deto 44.03 ja tatsächlich mit Quality AF kaum/nicht mehr als ATI an Performance beim zuschalten von AF zu verlieren .

Gast
2003-06-08, 13:23:12
Kennt ihr eigentlich schon folgende Screenshots :

http://www.beyond3d.com/misc/3dmrendering/3dmurk.zip


Dave Baumann von Beyond3D hat einmal die AF-Level zwischen 3DMark und 3DMurk miteinander verglichen. Also wenn Nvidia hier nicht cheated fresse ich einen Besen (oder so sagt man doch :) ).

Anscheinend wird beim 3DMark nur jeder 2. MipMap-Level auch wirklich mit AF gerendert und die dazwischenliegenden MipMaplevel gar nicht. Ich denke in einem Spiel könnte sowas auch funktionieren (und wäre nur schwer zu entdecken, oder?).

Richthofen
2003-06-08, 13:48:50
dafür gibts bereits einen Thread und ehrlich gesagt ist der 3DMark auch wurscht weil ich den nicht spielen kann.

Aquaschaf
2003-06-08, 15:18:32
ok , dass werd ich mir merken , falls du irgendwann einmal
irgendeinen theoretischen benchmark für deine argumentation
heranziehen solltest . :smash: