PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : X800XT PE vs 6800ultra - von mir


Seiten : [1] 2

tombman
2004-06-28, 02:28:16
Hier mal ein netter x800xt pe vs 6800ultra Vergleich von mir (ich besitze beide Karten)

settings:
1600x1200, 4xAA, 16xAF, kein overclock beider Karten
ATI x800xt pe: im cp alles auf die höchsten Werte, dh, auch qual. af diesmal drinnen (!), cat 4.7 beta
Nvidia 6800ultra: quality setting (also nicht das höchste !), trilinear und anisotropic optimization ON (!), fw 61.45 beta


========================================================
UT2004, map icetomb, spezielle Stelle, die viel fps frißt:

ATI: 51 fps
NV : 27 fps
______________________________
ATi ~ 89% schneller
==========================================================

==========================================================
Far Cry, training level, spezielle Stelle, die viel fps frißt:

ATI: 25 fps
NV: 20 fps
________________________________
ATI ~ 25% schneller
===========================================================


Man kann ganz klar sehen, daß ATI deutlich schneller ist- ich kann mich daher nur der durchschnittlichen Meinung der Reviewer im Netz anschließen, daß die ATI X800XT PE derzeit die stärkere Karte ist.

Huhn
2004-06-28, 02:32:46
mhh mach mal mehr benches. nur 2 sind etwas wenig. habe auch schon reviews gesehen bei denen die 68 schneller war

betasilie
2004-06-28, 02:36:17
Original geschrieben von Huhn
mhh mach mal mehr benches. nur 2 sind etwas wenig. habe auch schon reviews gesehen bei denen die 68 schneller war
Ja, aber Tombman hat scheinbar ein bei wortst-case Szenarios ausgesucht und diese Stellen sind wichtiger zu vergleichen, als Stellen wo es sowieso flüssig läuft.

@Tombaman
Kannst Du mal Pics von den Stellen machen?

Huhn
2004-06-28, 02:38:49
es wären auch mal screenshots beider karten interessant an den jeweiligen stellen um die qualität des af aa vergleichen zu können :)

tombman
2004-06-28, 02:53:45
Die Qualität war mit freiem Auge gleich. Ich hab die settings extra so ausgewählt, daß genau das gewährleistet ist.

betasilie
2004-06-28, 03:14:54
Original geschrieben von tombman
Die Qualität war mit freiem Auge gleich. Ich hab die settings extra so ausgewählt, daß genau das gewährleistet ist.
Ich meinte auch eher um zu sehen an welchen Stellen Du gebencht hast. ;)

q@e
2004-06-28, 06:54:04
Original geschrieben von tombman
========================================================
UT2004, map icetomb, spezielle Stelle, die viel fps frißt:
==========================================================
Far Cry, training level, spezielle Stelle, die viel fps frißt:

Man kann ganz klar sehen, daß ATI deutlich schneller ist- [...]
...an diesen beiden "Stellen". ;D

Naja, mal ehrlich, das ganze haben wir ja schon bis zum Erbrechen im "Wundertreiber-Thread" im Spekulatiusforum durchgekaut (übrigens ein teilweise echt amüsanter Fred...).
Bezweifelte denn irgendjemand, daß die XT PE (die du ja wohl hast - nicht die normale XT) schneller als die GF6800u ist?

Kann doch schonmal aufgrund ihres um 30% höheren Chiptaktes nur in Ausnahmefällen sein - oder?

BTW, ich habe auch mal einen kleine Vergleich gemacht:
SpellForce - Intro-Dialog, geFRAPSt in 1600x1200x32, 4xAA und maxAF, maximale Qualität jeweils im Treiber bzw. der Registry erzwungen.
ATI: 13,73
nV: 25,59
Fazit: nV ~86% schneller

Mit 2xAA und 2xAF:
ATI: 27,50
nV: 41,03
Fazit: nV ~49% schneller

in 1280x1024, 4xAA maxAF:
ATI: 17,37
nV: 41,03
Fazit: nV ~72% schneller

Ich kann also eindeutig dem Fazit von Tombman widersprechen: Einfach an zwei Beispielen sollte man eine Karte nicht abschließend beurteilen. ;)

Gast
2004-06-28, 08:22:06
Original geschrieben von tombman
Hier mal ein netter x800xt pe vs 6800ultra Vergleich von mir (ich besitze beide Karten)

settings:
1600x1200, 4xAA, 16xAF, kein overclock beider Karten
ATI x800xt pe: im cp alles auf die höchsten Werte, dh, auch qual. af diesmal drinnen (!), cat 4.7 beta
Nvidia 6800ultra: quality setting (also nicht das höchste !), trilinear und anisotropic optimization ON (!), fw 61.45 beta


========================================================
UT2004, map icetomb, spezielle Stelle, die viel fps frißt:

ATI: 51 fps
NV : 27 fps
______________________________
ATi ~ 89% schneller
==========================================================

==========================================================
Far Cry, training level, spezielle Stelle, die viel fps frißt:

ATI: 25 fps
NV: 20 fps
________________________________
ATI ~ 25% schneller
===========================================================


Man kann ganz klar sehen, daß ATI deutlich schneller ist- ich kann mich daher nur der durchschnittlichen Meinung der Reviewer im Netz anschließen, daß die ATI X800XT PE derzeit die stärkere Karte ist.


Wir wissen alle das DU pro ATI bist.

p.s. Habe mal was Ausfindig gemacht:

http://images.anandtech.com/graphs/initial%20pci%20express%20graphics_062004120650/2535.png

http://images.anandtech.com/graphs/initial%20pci%20express%20graphics_062004120650/2536.png

http://images.anandtech.com/graphs/initial%20pci%20express%20graphics_062004120650/2537.png

http://images.anandtech.com/graphs/initial%20pci%20express%20graphics_062004120650/2538.png

http://images.anandtech.com/graphs/initial%20pci%20express%20graphics_062004120650/2539.png

http://images.anandtech.com/graphs/initial%20pci%20express%20graphics_062004120650/2540.png

http://images.anandtech.com/graphs/initial%20pci%20express%20graphics_062004120650/2541.png

http://images.anandtech.com/graphs/initial%20pci%20express%20graphics_062004120650/2543.png

http://images.anandtech.com/graphs/initial%20pci%20express%20graphics_062004120650/2545.png

http://images.anandtech.com/graphs/initial%20pci%20express%20graphics_062004120650/2542.png

http://images.anandtech.com/graphs/initial%20pci%20express%20graphics_062004120650/2544.png

NV schlägt ATI mit 6:5

*url-tag bei einem Link richtig gesetzt* by Crushi

tombman
2004-06-28, 14:39:40
Original geschrieben von q@e
maximale Qualität jeweils im Treiber bzw. der Registry erzwungen.
[

du hast die ati karte absichtlich langsamer gemacht indem du die registry verändert hast, ohne daß die bildqualität dabei mit freiem auge steigt. daher ist dein spellforce vergleich imo ungültig.

q@w
2004-06-28, 15:16:46
Ich habe auch noch die Werte von SpellForce "optimiert"...
Kann ich dir nachher gern mal raussuchen.

Bis dahin zieh' von der Differenz meinetwegen überall 5 Prozentpunkte ab - trotzdem _bleibt_ nV deutlich schneller.

Magst noch ein paar mehr Beispiele?

BTW
http://www.forum-3dcenter.de/vbulletin/showthread.php?postid=1958649#post1958649

Nun sind schon aths, ich UND blaire wohl "gekauft, voreingenommen, unqualifiziert und überhaupt doof und gemein"? ;)

LovesuckZ
2004-06-28, 15:23:19
Original geschrieben von tombman
du hast die ati karte absichtlich langsamer gemacht indem du die registry verändert hast, [...]

Quasar hat eine 95% optimale Vergleichsmoeglichkeit gewaehlt -> keine Optimierungen auf beiden Karten.
Warum das nun unfair waere, muesstest du mal erklaeren.

q@w
2004-06-28, 15:23:39
Original geschrieben von tombman
du hast die ati karte absichtlich langsamer gemacht indem du die registry verändert hast, ohne daß die bildqualität dabei mit freiem auge steigt. daher ist dein spellforce vergleich imo ungültig.

Ach ja:
Ich habe High-End Karten auch mit ordentlicher Bildqualität getestet - wie gesagt, wenn du keine Unterschiede sehen kannst, schön und gut.
Allerdings solltest du langsam mal davon runterkommen, deine Wahrnehmung, die, wie in dem "Wundertreiber"-Thread zu sehen, auch nicht unfehlbar ist, als das Alpha und das Omega zu preisen.

tombman
2004-06-28, 15:32:30
Original geschrieben von LovesuckZ
Quasar hat eine 95% optimale Vergleichsmoeglichkeit gewaehlt -> keine Optimierungen auf beiden Karten.
Warum das nun unfair waere, muesstest du mal erklaeren.

weil es um sichtbare und nicht um interne Bildqualität geht.

kein user wird seine Karte langsamer machen wenn sie ihm nicht bessere BQ liefert als bei der Vergleichskarte.

das ist kein technischer Wettbewerb, sondern ein Spielbarkeitstest.

Die Karte gewinnt, die bei gleicher BQ mehr fps liefert, und nicht jene, die intern mehr Berechnungen pro Zeit durchführt.

tombman
2004-06-28, 15:33:12
Original geschrieben von q@w
Ach ja:
Ich habe High-End Karten auch mit ordentlicher Bildqualität getestet - wie gesagt, wenn du keine Unterschiede sehen kannst, schön und gut.


Wenn du keine sehen kannst, auch schön und gut.

q@w
2004-06-28, 15:36:59
Original geschrieben von tombman
Wenn du keine sehen kannst, auch schön und gut.

Nein, ich sehe immer noch welche - die lassen sich aber kaum quantifizieren. Dichter dran an Äpfel-mit-Äpfel-Vergleiche als mit maximaler Bildqualität kommt man leider nicht. :(

tombman
2004-06-28, 15:40:35
Original geschrieben von q@w
Nein, ich sehe immer noch welche - die lassen sich aber kaum quantifizieren. Dichter dran an Äpfel-mit-Äpfel-Vergleiche als mit maximaler Bildqualität kommt man leider nicht. :(

wie gesagt, 99.9% der user würden far cry und ut2004 10mal lieber mit der x800xt pe spielen als mit der 6800ultra.

Und genauso 80% der Spiele am Markt überhaupt.

LovesuckZ
2004-06-28, 15:42:52
Original geschrieben von tombman
weil es um sichtbare und nicht um interne Bildqualität geht.

"Stageoptimierung", "LOD Verschiebung" und "Brilinear" sind alles sichtbare Optimierungen.
Es geht um selbe Einstellungen bezeuglich der BQ. Das heißt entweder keine Optimierungen, "Quality" Einstellung oder gleich bilinear.
Somit wird die ATi karte nicht benachteiligt, da nvidia Karte keine Optimierung verwendet.

tombman
2004-06-28, 15:45:08
Original geschrieben von LovesuckZ
"Stageoptimierung", "LOD Verschiebung" und "Brilinear" sind alles sichtbare Optimierungen.
Es geht um selbe Einstellungen bezeuglich der BQ. Das heißt entweder keine Optimierungen, "Quality" Einstellung oder gleich bilinear.
Somit wird die ATi karte nicht benachteiligt, da nvidia Karte keine Optimierung verwendet.

die ATI Karte liefert mit Optimierungen die gleiche BQ wie die Nvidia Karte ohne- bleibt also unfair.

LovesuckZ
2004-06-28, 15:49:36
Original geschrieben von tombman
die ATI Karte liefert mit Optimierungen die gleiche BQ wie die Nvidia Karte ohne- bleibt also unfair.

Aehm, nein, nicht wirklich.
Bevor einer jetzt kommt und meint, ich habe ja keine r420 Karte gehabt: Richtig, dafuer gab es Beweise von anderen usern, die die schlechte default Qualitaet in Spielen bewiesen und meine 6800 hat seit dem 61.34 eine 90% aehnliche, schlechte, Bildqualitaet geliefert.

[dzp]Viper
2004-06-28, 15:51:28
Original geschrieben von tombman
die ATI Karte liefert mit Optimierungen die gleiche BQ wie die Nvidia Karte ohne- bleibt also unfair.

sorry aber DAS ist nun wirklich schwachsinn ;)
Da muss sogar ich sagen, dass man das mehr als eindeutig sieht...

tombman
2004-06-28, 15:56:14
Original geschrieben von [dzp]Viper
sorry aber DAS ist nun wirklich schwachsinn ;)
Da muss sogar ich sagen, dass man das mehr als eindeutig sieht...

auf gleichem BQ Niveau ist die ATI deutlich schneller.

Ranz0r
2004-06-28, 16:45:21
Original geschrieben von tombman
auf gleichem BQ Niveau ist die ATI deutlich schneller.

Was dadurch widerlegt wäre, dass die ATI gegen die Nvidiakarte beide ohne Optimierungen ohne LOD ohne Stages etc verloren hat (in Spellforce gegenbeispiel ist halt FarCry). Oder ist das nicht die gleiche Quali (auch wenn du anscheinend wirklich perfekte Quali eher schlecht als Recht findest).

tombman
2004-06-28, 16:54:50
Original geschrieben von Ranz0r
Was dadurch widerlegt wäre, dass die ATI gegen die Nvidiakarte beide ohne Optimierungen ohne LOD ohne Stages etc verloren hat (in Spellforce gegenbeispiel ist halt FarCry). Oder ist das nicht die gleiche Quali (auch wenn du anscheinend wirklich perfekte Quali eher schlecht als Recht findest).

Also findest du die Nvidia 6800ultra jetzt gleich schnell wie die x800xt pe bei gleicher Qualität?

Ranz0r
2004-06-28, 16:58:17
Original geschrieben von tombman
Also findest du die Nvidia 6800ultra jetzt gleich schnell wie die x800xt pe bei gleicher Qualität?

Das nicht, aber man kann nicht generall sagen das die XT PE so vie lschneller ist bei gleicher BQ. Ohne die Optimierungen rücken sie schon nahe zueinander. Es kommt halt auch imemr auf die Programmierung eines Games an, auf welcher Karte es am besten läuft.

Eigentlich wollte ich ja auch nur widerlegen das die Ultra bei gleicher BQ immer schlechter ist... Das ist sie mit Sicherheit nicht wie man an Spellforce sieht.

[dzp]Viper
2004-06-28, 17:00:42
Original geschrieben von tombman
Also findest du die Nvidia 6800ultra jetzt gleich schnell wie die x800xt pe bei gleicher Qualität?

was soll so eine Frage? Auf was bezogen?

niemand sagt hier, das eine Karte immer schneller als die andere ist - deine frage ist also viel zu ungenau...

Wann verstehst du endlich, dass es auch spiele gibt, welche auf dem NV40 wesentlich besser laufen als auf dem R420?

Keine der karten ist "schneller" als die andere Karte. Jede hat seine Vor und Nachteile bei manchen Spielen und da ist es egal, ob der andere mit oder ohne Optimierungen gebencht wird!
Wenn ich ein Spiel habe, wo man 150 fps mit optimierungen hat, dann sind mit die 140 fps ohne die optimierung auch recht...
Das soll dann jeder für sich selber ausmachen was er nun will...

tombman
2004-06-28, 17:23:27
Original geschrieben von [dzp]Viper
was soll so eine Frage? Auf was bezogen?

niemand sagt hier, das eine Karte immer schneller als die andere ist - deine frage ist also viel zu ungenau...

Wann verstehst du endlich, dass es auch spiele gibt, welche auf dem NV40 wesentlich besser laufen als auf dem R420?

Keine der karten ist "schneller" als die andere Karte. Jede hat seine Vor und Nachteile bei manchen Spielen und da ist es egal, ob der andere mit oder ohne Optimierungen gebencht wird!
Wenn ich ein Spiel habe, wo man 150 fps mit optimierungen hat, dann sind mit die 140 fps ohne die optimierung auch recht...
Das soll dann jeder für sich selber ausmachen was er nun will...

lol, da kriegst gleich Angst wennst einmal eine absolute Aussage treffen mußt.

Wenn ATI in 80% aller games schneller ist bei gleicher BQ, dann kann man sich schon trauen von einem Sieg seitens ATI zu sprechen, findest nicht?

tombman
2004-06-28, 17:26:13
Btw, hab jetzt mal alle Optimierungen bei nvidia und ATI rausgenommen (mit registry) - nur wurde es dann für nvidia noch schlimmer ;)

Far Cry:

ATI: 23 fps
Nvidia: 16 fps
_____________________
ATI: 43% schneller

Ut2004:

ATI: 41 fps
Nvidia: 17 fps
___________________
ATi: 241% schneller

Lol, je mehr ihr mich zwingt Einstellungen nach euren Wünschen zu verändern, desto schlechter steht Nvidia da :D

[dzp]Viper
2004-06-28, 18:31:33
ganz dumme frage - hast du überhaupt andere spiele als UT2004 und Farcry? :eyes:

(del676)
2004-06-28, 18:37:25
cooler Thread ... aber wart mal, der 1. April is doch schon vorbei :ratlos:

[dzp]Viper
2004-06-28, 18:39:10
Original geschrieben von Ulukay
cooler Thread ... aber wart mal, der 1. April is doch schon vorbei :ratlos:

:up:

da es keinen sinn hat mit Tombman ordentlich zu diskutieren bin ich eigentlich dafür den thread zu schliessen....

So eine Engstirnige Person habe ich schon lang nicht mehr hier erlebt :no:

(del676)
2004-06-28, 18:45:00
der erste beitrag in diesem thread der es wert war gelesen zu werden :D

[dzp]Viper
2004-06-28, 18:57:14
Original geschrieben von Ulukay
der erste beitrag in diesem thread der es wert war gelesen zu werden :D

http://www.mainzelahr.de/smile/schilder/thanx.gif


Hab dich auch lieb :D

Madkiller
2004-06-28, 18:57:49
@Ulukay + [dzp]Viper
Spam = Punkt

tombman
2004-06-28, 19:10:01
Original geschrieben von [dzp]Viper
ganz dumme frage - hast du überhaupt andere spiele als UT2004 und Farcry? :eyes:

ich hab so gut wie alle SPiele, nur ned installiert ;)

q@e
2004-06-28, 19:11:56
Installier' doch mal SpellForce - oder Aquanox2, davon habe ich schon lange keine Benches mehr gesehen.... (aber obacht - das AF ist hier tückisch ;) )

(del676)
2004-06-28, 19:17:25
Original geschrieben von Madkiller
@Ulukay + [dzp]Viper
Spam = Punkt

aber sonst gehts noch

edit: anstatt hier nen offensichtlich überflüssigen thread zu schliessen verteilst du wahllos punkte?

Argo Zero
2004-06-28, 19:23:17
Original geschrieben von Ulukay
aber sonst gehts noch

edit: anstatt hier nen offensichtlich überflüssigen thread zu schliessen verteilst du wahllos punkte?

Wahllos ganz sicher nicht...

Madkiller
2004-06-28, 19:23:54
Original geschrieben von Ulukay
edit: anstatt hier nen offensichtlich überflüssigen thread zu schliessen verteilst du wahllos punkte?

Wahllos?
Du solltest mal die Forums-Regeln durchlesen.
http://www.3dcenter.org/vbulletin/eigenes/regeln.php
Falls Flamer, Beleidiger, Warez-Verbreiter und Spammer öfters auffallen, erhalten sie einen Forums-internen Verweis per PM. Falls dies nicht helfen sollte, verhängen die Moderatoren einen temporären Bann von 7 Tagen, welcher dann sofort in Kraft tritt. Die betroffenen User werden darüber per Mail informiert. Ein anonymes Posten oder Posten unter einer anderen Registrierung in dieser Bann-Zeit ist vollkommen unerwünscht und zieht eine Verlängerung des Banns nach sich.

Ansonsten, diese - eigentlich unnötige Diskussion ist hier OT.
Also entweder ne PN oder ne Beschwerde im 3DCenter-Forum.

Also zumindest hier EOD!

(del676)
2004-06-28, 19:24:44
??????

tombman
2004-06-28, 19:26:52
Original geschrieben von q@e
Installier' doch mal SpellForce - oder Aquanox2, davon habe ich schon lange keine Benches mehr gesehen.... (aber obacht - das AF ist hier tückisch ;) )

ich such jetzt sicher nicht solang rum bis ich ein game gefunden habe wo nvidia besser dasteht, nur damit sich einige freuen... hab die ZEit a ned gestohlen.

Im Durchschnitt aller relevaten games neueren Datums sollte die ATI Karte bei gleicher BQ deutlich vor der 6800u liegen...

dildo4u
2004-06-28, 19:35:34
Original geschrieben von tombman
ich such jetzt sicher nicht solang rum bis ich ein game gefunden habe wo nvidia besser dasteht, nur damit sich einige freuen... hab die ZEit a ned gestohlen.

Im Durchschnitt aller relevaten games neueren Datums sollte die ATI Karte bei gleicher BQ deutlich vor der 6800u liegen... Aha und es gibt nur DX games schon mal was vom opengl gehört?Nvidia karten liegen opengl games sher gut und bald kommt auch noch Doom3 mit stenciel schadows das dürfte recht eindeutig für NV ausgehen also sind wir wieder bei DX9 HL2 gegen Doom3 opengl beide Engines dürften auch in vielen weiteren games verwendet werden und sorry aber warum wird hier immer von dir eine DX7(ut2004) Engine angeführt um zu beweisen welche die bessere karte ist um moderne games zu zocken?

q@e
2004-06-28, 19:36:06
Ei sieh an.... =)

Damit scheint ja klar zu sein, daß bei wirklich anspruchsvollen Games, die eben nicht 100 oder mehr FPS erzeugen, für den qualitätsbewußten Gamer nur eine GF6800-Karte in Frage kommen kann. Denn da, wo wirklich Leistung gefragt ist und was abseits des üblichen, optimierten Benchmark-Mainstream liegt, bricht die X800 XT PE sogar weit unter das Niveau einer 6800 GT ein. [/tombmanmode]

;)

betasilie
2004-06-28, 19:45:10
Original geschrieben von q@e
Ei sieh an.... =)

Damit scheint ja klar zu sein, daß bei wirklich anspruchsvollen Games, die eben nicht 100 oder mehr FPS erzeugen, für den qualitätsbewußten Gamer nur eine GF6800-Karte in Frage kommen kann. Denn da, wo wirklich Leistung gefragt ist und was abseits des üblichen, optimierten Benchmark-Mainstream liegt, bricht die X800 XT PE sogar weit unter das Niveau einer 6800 GT ein. [/tombmanmode]

;)
Dein Posting verstehe ich nicht. Soll das jetzt Ironie sein, ein Flame oder was? :ratlos:

VoodooJack
2004-06-28, 19:47:33
Original geschrieben von q@e
Ei sieh an.... =)

Damit scheint ja klar zu sein, daß bei wirklich anspruchsvollen Games, die eben nicht 100 oder mehr FPS erzeugen, für den qualitätsbewußten Gamer nur eine GF6800-Karte in Frage kommen kann. Denn da, wo wirklich Leistung gefragt ist und was abseits des üblichen, optimierten Benchmark-Mainstream liegt, bricht die X800 XT PE sogar weit unter das Niveau einer 6800 GT ein. [/tombmanmode]

;)

Sag mal, Quasar, bist du ein Werbevertreter von Nvidia?

q@e
2004-06-28, 19:54:29
Original geschrieben von betareverse
Dein Posting verstehe ich nicht. Soll das jetzt Ironie sein, ein Flame oder was? :ratlos:

Ironie natürlich. Ich hatte angenommen, die könnte man auch ohne siebzehn Zwinkersmileys erkennen.
Wie kann man nur auf Basis eines einzigen Settings bei so einer winzigen Anzahl von Spielen eine ernstgemeinte Empfehlung abgeben - noch dazu, wo bsw. Tombmans "Werte" auf eine stillstehenden Szenenansicht beruhen. :gruebel:

[dzp]Viper
2004-06-28, 20:10:13
Original geschrieben von Madkiller
Wahllos?
Du solltest mal die Forums-Regeln durchlesen.
http://www.3dcenter.org/vbulletin/eigenes/regeln.php

Falls Flamer, Beleidiger, Warez-Verbreiter und Spammer öfters auffallen, erhalten sie einen Forums-internen Verweis per PM. Falls dies nicht helfen sollte, verhängen die Moderatoren einen temporären Bann von 7 Tagen, welcher dann sofort in Kraft tritt. Die betroffenen User werden darüber per Mail informiert. Ein anonymes Posten oder Posten unter einer anderen Registrierung in dieser Bann-Zeit ist vollkommen unerwünscht und zieht eine Verlängerung des Banns nach sich.




Lese dir die Regel bitte noch einmal langsam durch madkiller...

Ich markiere dir mal dick und fett was ich meine und warum dieser Punkt auch unberechtigt ist...

Falls Flamer, Beleidiger, Warez-Verbreiter und Spammer öfters auffallen,

wusste garnicht das wir in dem Thread öfters aufgefallen sind :|

Da versucht man einen engstirnigen neuen Member mit fakten zu überzeugen und macht dann EINEN spampost der nicht böse gemeint ist oder so und bekommt gleich nen Punkt... :eyes:

sorry aber SO kann es nun wirklich nicht gehen madkiller - das ist "etwas" übertrieben...

Das waren meine 10 cent zu deinem Ausrutscher - mehr werde ich da net zu sagen...

Madkiller
2004-06-28, 20:17:31
Original geschrieben von [dzp]Viper
wusste garnicht das wir in dem Thread öfters aufgefallen sind :|

Wo steht da was davon, daß das auf einen Thread beschränkt ist?

btw
Original geschrieben von Madkiller
Ansonsten, diese - eigentlich unnötige Diskussion ist hier OT.
Also entweder ne PN oder ne Beschwerde im 3DCenter-Forum.

Also zumindest hier EOD!

betasilie
2004-06-28, 20:25:40
Original geschrieben von q@e
Ironie natürlich. Ich hatte angenommen, die könnte man auch ohne siebzehn Zwinkersmileys erkennen.
Wie kann man nur auf Basis eines einzigen Settings bei so einer winzigen Anzahl von Spielen eine ernstgemeinte Empfehlung abgeben - noch dazu, wo bsw. Tombmans "Werte" auf eine stillstehenden Szenenansicht beruhen. :gruebel:
Du magst schon recht haben, dass es sich bei Tombmans Werten nicht um ein kompetentes Review handelt, aber deswegen müssen solche Spitzen wie oben imho nicht unbedingt sein.

Tombman sollte mal Screenshots machen, damit wir sehen können wo er genau gebencht hat.

Generell finde ich es aber sehr gut, wenn man sich beim benchen Szenen rauspickt, die besonders bei den fps einbrechen, um zu sehen, welche Karten in diesen Wortcase-Szenarien am besten abschneiden. ... Besser die Karten haben in solche Szenen besonders gute Werte, als in Szenen wo die fps sowieso schon jenseits von 60 fps sind.

tombman
2004-06-28, 20:26:15
Original geschrieben von q@e
Ironie natürlich. Ich hatte angenommen, die könnte man auch ohne siebzehn Zwinkersmileys erkennen.
Wie kann man nur auf Basis eines einzigen Settings bei so einer winzigen Anzahl von Spielen eine ernstgemeinte Empfehlung abgeben - noch dazu, wo bsw. Tombmans "Werte" auf eine stillstehenden Szenenansicht beruhen. :gruebel:

Meine kleinen benchmarks sollten nur die allgeine Meinung widerspiegeln die sowieso im Netz herrscht- die ATI ist schneller. Nur eben diesmal von einem Privatuser bestätigt, und zwar mir.

Und natürlich würde ich mich ned trauen diese Szenenansichtsbenchmarks zu posten, wenn sich die Performance nicht durch des ganze game durchziehen würde.
So wie die Werte im Vergleich in der Szene aussehen, so spielt sich des ganze game.

Btw, du hast gerade mal EIN game gebenchst, wahrscheinlich vor langer Zeit mit alten Treibern... und wirfst MIR vor nur 2 genommen zu haben?

Klar könnt ich jetzt auch 10 games hernehmen und mir das echt antun, aber wozu? Man weiß ja eh schon, daß die ATI schneller ist im Durchschnitt, was selbst du schon zugegeben hast.

tombman
2004-06-28, 20:27:16
Original geschrieben von betareverse
Du magst schon recht haben, dass es sich bei Tombmans Werten nicht um ein kompetentes Review handelt, aber deswegen müssen solche Spitzen wie oben imho nicht unbedingt sein.

Tombman sollte mal Screenshots machen, damit wir sehen können wo er genau gebencht hat.

Generell finde ich es aber sehr gut, wenn man sich beim benchen Szenen rauspickt, die besonders bei den fps einbrechen, um zu sehen, welche Karten in diesen Wortcase-Szenarien am besten abschneiden. ... Besser die Karten haben in solche Szenen besonders gute Werte, als in Szenen wo die fps sowieso schon jenseits von 60 fps sind.

WORD, brother! :D

Ich bin eben ein Minimum fps bencher ;)

mirp
2004-06-28, 22:12:02
Der Thread bleibt natürlich offen. Wäre ja noch schöner, wenn man unliebsame Threads dadurch schließen lassen könnte, indem man sie zuerst zumüllt und sich dann darüber beschwert, dass nichts gescheites drin stehen würde.

Wenn die Methode so offensichtlich schlecht ist, dürfte es doch kein Problem sein Argumente dagegen zu finden. Also strengt euch mal an, anstatt hier nur rumzunörgeln.

Und die vergebenen Punkte gehen schon in Ordnung. Wenn man es genau nimmt, hätten diejenigen sogar mehr als einen Punkt verdient.

[dzp]Viper
2004-06-28, 22:22:15
/edit: weggemacht - sonst könnte ich ja noch mehr punkte bekommen :weg:


P.S. @ Madkiller
Du schreibst, ich soll ne PN schreiben - das hab ich vor 4 stunden gemacht - schön dass du nicht drauf antwortest :eyes:

P.S.S. @ Madkiller
hab mittlerweile mit Gloomy drüber geredet.. brauchst dich also nicht mehr anstrengen mal nach unten zu scrollen ;)

aths
2004-06-28, 22:38:17
Original geschrieben von tombman
die ATI Karte liefert mit Optimierungen die gleiche BQ wie die Nvidia Karte ohne- bleibt also unfair. Das stimmt nicht.

sChRaNzA
2004-06-28, 22:40:18
Bringt der umstieg von ner 5950 ultra wirklich was??? oder könnte ich locker noch ne generaion abwarten??

mfg

Ranz0r
2004-06-28, 22:42:18
Warte, es sei denn du MUSST Hl2 und Doom3 und Stalker alles auf Max haben mit AA und AF :)

sChRaNzA
2004-06-28, 22:45:26
hm, naja half-life² und doom 3 hin oder her... mir egal.. ich meine rein aus prinzip... diese beiden games weren hardwaremäßig eh viel zu überschätzt!!! was hat valve bzw id davon ein spiel rauszubringen was auf FAST keienn rechner anständig läuft!?!?! Die wollen auch ihre kosten wieder reinholen... die spiele werden zwar hammer aussehen aber auch auf kleineren rechner sicherlich gut laufen!!

VooDoo7mx
2004-06-28, 23:07:53
Original geschrieben von tombman
Btw, du hast gerade mal EIN game gebenchst, wahrscheinlich vor langer Zeit mit alten Treibern... und wirfst MIR vor nur 2 genommen zu haben?


Soll ich dich mal ganz doll auslachen?

Quasar gehört zur Computerbase Redaktion-> "Carsten Spille"
Falls du die URL nicht kennst: www.computerbase.de

Das ist eine der größten und aktuellsten deutschen Hardware-Pages überhaupt.
Der hatte schon beide Karten ausgiebig getestet bevor du überhaupt von ihnen geträumt hast.
Der Mann versteht zig mal mehr von 3D-Hardware und Benchmarking wie du.
Also an deiner Stelle würde ich den Ball mal etwas flacher halten.

hier das Review von und mit "Quasar":
http://www.computerbase.de/artikel/hardware/grafikkarten/x800_pro_xt_pe_geforce_6800_gt_ultra/

tombman
2004-06-28, 23:15:12
Original geschrieben von VooDoo7mx
Soll ich dich mal ganz doll auslachen?

Quasar gehört zur Computerbase Redaktion-> "Carsten Spille"
Falls du die URL nicht kennst: www.computerbase.de

Das ist eine der größten und aktuellsten deutschen Hardware-Pages überhaupt.
Der hatte schon beide Karten ausgiebig getestet bevor du überhaupt von ihnen geträumt hast.
Der Mann versteht zig mal mehr von 3D-Hardware und Benchmarking wie du.
Also an deiner Stelle würde ich den Ball mal etwas flacher halten.

hier das Review von und mit "Quasar":
http://www.computerbase.de/artikel/hardware/grafikkarten/x800_pro_xt_pe_geforce_6800_gt_ultra/

Oh Mann, ich hätte jetzt so geile flames ablassen können, wo man noch Tage nachher lachen würde, aber ich halte mich zurück...*lol*

Meinen Respekt verdient sich einer nicht durch seine Stellung, sondern nur welchen "output" ich von demjenigen bekomme.

Nur weil DU ihn als dein persönliches Alphamännchen akzeptierst tu ich das noch lang ned.

Meine Tests waren, sind und werden auch in Zukunft absolut korrekt sein.

VooDoo7mx
2004-06-28, 23:17:10
Original geschrieben von tombman
Oh Mann, ich hätte jetzt so geile flames ablassen können, wo man noch Tage nachher lachen würde, aber ich halte mich zurück...*lol*

Meinen Respekt verdient sich einer nicht durch seine Stellung, sondern nur welchen "output" ich von demjenigen bekomme.

Nur weil DU ihn als dein persönliches Alphamännchen akzeptierst tu ich das noch lang ned.

Meine Tests waren, sind und werden auch in Zukunft absolut korrekt sein.

Oh Gott, am besten man lässt dich hier über deine Ergebnisse, alleine weiter diskutieren.
Alles andere wäre nur eine traurige Zeitverschwendung.
Du tust mir echt Leid.
Wie kann man nur von sich selbst so eingenommen sein?

Plasmafusion
2004-06-29, 02:35:42
Beim MS FS2004 ist eine X800 XT genauso schnell (fps) wie eine 6800 Ultra.

Nur mit dem Unterschied das die 6800 Ultra mit 1024x768 lief und die XT mit 1280x1024 bei gleichen AA & AF Werten.

NV ? :asshole:

tombman
2004-06-29, 02:45:41
Original geschrieben von Plasmafusion
Beim MS FS2004 ist eine X800 XT genauso schnell (fps) wie eine 6800 Ultra.

Nur mit dem Unterschied das die 6800 Ultra mit 1024x768 lief und die XT mit 1280x1024 bei gleichen AA & AF Werten.

NV ? :asshole:

ich wette jetzt werdens dich gleich fragen ob du eh brav alle registry hacks reingehaut hast damit die x800xt schön langsam rennt ... (weil man ja ganz sicher pixel Nr. 23213412 und Pixel Nr. 34524214 nicht scharf sehen konnte...)

...

onkel2003
2004-06-29, 02:47:19
www.computerbase.de

Wer ist das den. ???
Bekommt man das bei OBI ?

www.computerbase.de hat irgend wie änlichkeit mit.
www.computerbild.de :asshole:

Hey:
Das ist eine der größten und aktuellsten deutschen Hardware-Pages überhaupt.

Die Seite kommt grade mal auf 50K Seiten Zugriefe an Tag.
3Dcenter dagegen auf 80 K
:P

q@e
2004-06-29, 09:15:33
Original geschrieben von tombman
Meine kleinen benchmarks sollten nur die allgeine Meinung widerspiegeln die sowieso im Netz herrscht- die ATI ist schneller. Nur eben diesmal von einem Privatuser bestätigt, und zwar mir.

Und natürlich würde ich mich ned trauen diese Szenenansichtsbenchmarks zu posten, wenn sich die Performance nicht durch des ganze game durchziehen würde.
So wie die Werte im Vergleich in der Szene aussehen, so spielt sich des ganze game.

Komisch, daß da etliche Reviews anderer Meinung sind - was UT2004 angeht. "Quasi doppelt so schnell" (~89% oder wieviel waren's?) liest man kaum irgendwo.
Aber das liegt sicherlich an den inkompetenten Reviewern, die nur so laue Benchmarks mit Maps machen, die die Karten nicht richtig fordern. :)


Original geschrieben von tombman
Btw, du hast gerade mal EIN game gebenchst, wahrscheinlich vor langer Zeit mit alten Treibern... und wirfst MIR vor nur 2 genommen zu haben?


Wenn du genau gelesen hättest, wäre dir auf gefallen, daß ich dir nicht vorwerfe, genau zwei Benchmarks genommen zu haben.
Vielmehr, daß in einem einzigen Setting, bei einer winzigen Anzahl an Games (was ich durch meine _eines_ Beispiel versucht habe, satirisch zu beleuchten - was zu meiner Schande offensichtlich an der Leserschaft vorbeiging - vielleicht war's zu subtil?) - nicht einem oder zwei - hier versucht wird, eine wahrnehmbare Referenz zu schaffen, die so definitiv nicht repräsentativ für die Mehrzahl der Games ist.

Im Schnitt deiner beiden Einzelstellen sollte man so wohl den Eindruck gewinnen, daß die XT "PE" ggü. der 6k8u ((89+25)/2=57) 57% schneller sein sollte.

Wie gesagt, in deinen beiden Einzelstellen mag das so sein - kann, mag und will ich nicht widerlegen - warum auch?

Repräsentativ ist das mitnichten - auch wenn du nVidia wiederum ein ineffizientes oder lahmes AF andichten willst - das ist so falsch. Wenn beide gleichviel oder gleichwenig rendern, ist es nämlich recht ausgeglichen, wie man gut am Vergleich zwischen X800 Pro und 6800GT sieht - selbst mit Optimierungen auf Seiten der X800 und ohne auf Seiten der GF6800u.
Besonders spaßig wird's, wenn man mal guckt, wie die Schere zwischen diesen beiden Extrema von 2xAF nach 16xAF aufgeht.
Mit 2xAF sind Pro und GT noch relativ gleichauf - mit 16xAF bringt die Optimierung natürlich deutlich mehr und die erreichte Füllrate der Pro geht dicht an die der eigentlich ~46% leistungsfähigeren XT PE heran und läßt die (unoptimierte) GT weit hinter sich.

Ein 'wenig' anders sieht's aus, wenn beide ihre Optimierungen behalten dürfen - oder sie eben bei beiden abgeschaltet werden...

Ja, die Treiber waren uuuuuuuuuuuuuraaaalt - weil's die Karten ja auch schon jahrelang gibt. :eyes:

Original geschrieben von tombman
Man weiß ja eh schon, daß die ATI schneller ist im Durchschnitt, was selbst du schon zugegeben hast.
Da muß ich nichts 'zugeben' - jeder denkende Mensch kann da von allein drauf kommen.
"Insgesamt ist ATi eine erstklassige, Energie sparende Grafikkarte gelungen, die die Bedürfnisse einer großen Mehrzahl der Spieler sicherlich zu erfüllen weiß und noch besser wäre, wenn endlich auch im Treiber alle oftmals nutzlosen Optimierungen deaktivierbar wären."
So habe ich das schon vor Wochen geschrieben....

q@e
2004-06-29, 09:16:41
BTW, könnte dieses "mein PI sind größer als deine PI"-Zugriffszahlen-Vergleichen bitte unterlassen werden? Das bringt nun wirklich keinem was.

CompEx
2004-06-29, 09:17:12
Da in mehreren Beiträgen gefordert wurde, mehrere Benchmarks zu vergleichen, bringe ich hier mal eine größere Übersicht. Ich habe nahezu alle Tests im Netz gelesen und dabei nVidia mit ATI verglichen (v. a. digit-life, xbitlabs, tomshardware, anandtech, computerbase, hardware.fr, firingsquad und hardocp). Verglichen habe ich bei 1600x1200 mit 4xA und 8/16xAF. Unterschiede von unter 15% (der größte Teil der Benches) habe ich komplett ignoriert.

ATI X800XTPE gewinnt bei: FarCry mit 7%-23%, je nach Test, bei Half-Life2 mit 24%, UT2004 mit 0%-32%, C&C Generals ZH mit 36%, Splinter Cell2 mit 20%, Fifa2004 mit 30%, Nascar2004 mit 25%, Painkiller mit bis zu 44% (bei einigen Tests auch deutlich weniger), Halo mit 20%, DF Black Hawk Down mit 27% und Battle Field Vietnam mit 20%.

nVidia 6800U gewinnt bei: Jedi Knight Academy mit 29%, Spell Force mit 86% und Never Winter Nights mit 20%.

Auffällig ist dabei, dass nVidia mehrfach durch neuere Treiber aufholen konnte. Viele Tests basieren noch auf alten Treibern, nvidia wird wohl noch etwas aufholen. Das Ergebnis ist aber klar: mehrheitlich ist ATI schneller (zur Quali sag' ich lieber nichts, da ich beide Karten nicht habe).

Bei X800 pro vs 600GT sieht es für nVidia aber ziemlich gut aus! (auf Wunsch könnte ich das auch ausführlich posten)

aths
2004-06-29, 09:38:13
Original geschrieben von tombman
Meine Tests waren, sind und werden auch in Zukunft absolut korrekt sein. Viele deiner Tests stellten Settings gegenüber, die für eine objektive Geschwindigkeitsmessung 'bei annähernd gleicher BQ' nicht zu rechtfertigen sind.

Gast
2004-06-29, 11:23:37
Original geschrieben von tombman
wie gesagt, 99.9% der user würden far cry und ut2004 10mal lieber mit der x800xt pe spielen als mit der 6800ultra.

Und genauso 80% der Spiele am Markt überhaupt.

Bezweifel ich GANZ stark.

Gast
2004-06-29, 11:37:29
Original geschrieben von tombman
Btw, hab jetzt mal alle Optimierungen bei nvidia und ATI rausgenommen (mit registry) - nur wurde es dann für nvidia noch schlimmer ;)

Far Cry:

ATI: 23 fps
Nvidia: 16 fps
_____________________
ATI: 43% schneller

Ut2004:

ATI: 41 fps
Nvidia: 17 fps
___________________
ATi: 241% schneller

Lol, je mehr ihr mich zwingt Einstellungen nach euren Wünschen zu verändern, desto schlechter steht Nvidia da :D

Benche dochmal:

X2 - the Threat
UT2003
Aquamark 3
3Dmark 2003
DroneZ
Comanche 4
Quake3
Elite Force 1 & 2
Warcraft 3
Call of Duty
Max Payne 1 & 2

Bitte in jeweils:

1024*768
1280*960
1600*1200

1024*768 - 4xAA/8xAF
1280*960 - 4xAA/8xAF
1600*1200 - 4xAA/8xAF

Danke

Gast
2004-06-29, 12:20:39
*sinnfrei*

nggalai
2004-06-29, 12:36:35
Original geschrieben von tombman Meine Tests waren, sind und werden auch in Zukunft absolut korrekt sein. Zumindest bei Far Cry kann ich dir schon fast garantieren, dass das nicht der Fall sein wird.

93,
-Sascha.rb

Demirug
2004-06-29, 12:50:17
Original geschrieben von nggalai
Zumindest bei Far Cry kann ich dir schon fast garantieren, dass das nicht der Fall sein wird.

93,
-Sascha.rb

:nono: teasen ist nicht nett. Aber niemand hat gesagt das man nett sein muss.

VooDoo7mx
2004-06-29, 12:55:57
Original geschrieben von Demirug
:nono: teasen ist nicht nett. Aber niemand hat gesagt das man nett sein muss.

Kommt da was größeres auf uns zu?
Ihr wisst schon wieder mehr als die anderen...

Gast
2004-06-29, 12:58:17
Spam gelöscht.rb

q@e
2004-06-29, 13:13:46
Original geschrieben von VooDoo7mx
Kommt da was größeres auf uns zu?
Ihr wisst schon wieder mehr als die anderen...

Naja, worauf wartet man in Bezug auf Far Cry seit ein paar Wochen?

Aber da die 3.0-Shader nichts bringen ( :eyes: ), kann auch der v1.2 Patch ja eigentlich nichts bringen, oder?

Madkiller
2004-06-29, 14:57:13
Original geschrieben von [dzp]Viper
P.S. @ Madkiller
Du schreibst, ich soll ne PN schreiben - das hab ich vor 4 stunden gemacht - schön dass du nicht drauf antwortest :eyes:


1. Manche Leute haben im RL Verpflichtungen, denen sie nachkommen müssen. Solange mußt du leider warten. Ich habe dir zumindest gleich geantwortet, als ich es konnte.
2. 4 Stunden?
Also bei mir sind es knapp über 2 Stunden von 22:45 (dein Edit) und 20:35 (deine PN).

btw

Wegen Missachtung der Moderation bekommst du einen Punkt (3 Punkte sind üblich (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=147046)) für diesen Post.


Nochmal. Diese Posts hier sind OT und haben hier nichts verloren. Dran halten sich auch bitte alle. Spam wurde getrashed.

Und beruhigt euch bitte alle wieder.

iam.cool
2004-06-29, 16:05:10
Original geschrieben von Gast
Benche dochmal:

X2 - the Threat
UT2003
Aquamark 3
3Dmark 2003
DroneZ
Comanche 4
Quake3
Elite Force 1 & 2
Warcraft 3
Call of Duty
Max Payne 1 & 2

Bitte in jeweils:

1024*768
1280*960
1600*1200

1024*768 - 4xAA/8xAF
1280*960 - 4xAA/8xAF
1600*1200 - 4xAA/8xAF

Danke


UT 2003: Ein Test mit DX7 Game ist ja wohl nicht mehr zeitgemäss.....

Aquamark3: Das die nVidia treiber auf den Bench optimiert sind sieht man schon daran das ne 5900XT mehr Punkte als ne 9800pro bekommt...

3dMurks03: Dazu sag ich jetzt nichts

Warcraft3 + MP1+2: Die Games sind selbst mit AA nd AF noch stark CPU limitiert


Fast alle der anderen Games setzen auf OPenGL und da ATI keine optimierungen bei OpenGL vornimmt nVidia aber schon,
nicht repräsentativ.



MFG

Blaire
2004-06-29, 16:13:09
Original geschrieben von tombman
Btw, hab jetzt mal alle Optimierungen bei nvidia und ATI rausgenommen (mit registry) - nur wurde es dann für nvidia noch schlimmer ;)

Far Cry:

ATI: 23 fps
Nvidia: 16 fps
_____________________
ATI: 43% schneller

Ut2004:

ATI: 41 fps
Nvidia: 17 fps
___________________
ATi: 241% schneller

Lol, je mehr ihr mich zwingt Einstellungen nach euren Wünschen zu verändern, desto schlechter steht Nvidia da :D

Welche Settings, was genau hast du getestet? Kann ich nicht so recht glauben.
Übrigens machen die Halo Benches von Version 1.02 und 1.04 keinen Unterschied in den Ergebnissen hab es mal gegengecheckt. Siehe Thread im Spekuforum

MfG

Ranz0r
2004-06-29, 16:43:53
Original geschrieben von iam.cool


Fast alle der anderen Games setzen auf OPenGL und da ATI keine optimierungen bei OpenGL vornimmt nVidia aber schon,
nicht repräsentativ.



MFG


Naja stimmt schon, nur optimiert ATI nicht bei D3D noch mehr als nVidia? Sollte man deswegen alle D3D-Games verteufeln und sagen nene da kann man keine Rücjschlüße draus ziehen...?!

Nur weil Ati zu faul (behaupte ich mal) ist um nen gescheiten OpenGL-Treiber auf die Beine zu stellen, können die anderen Hersteller von GraKas nicht ihre Leistung in anderen Bereichen zeigen oder wie?

Stell dir mal nen Gamer vor, der gerne OpenGL-Games ala CoD spielt, der kauft sich nun eine neue Graka um noch bessere Auflösungen/Settings zu fahren und stellt fest die KArte ist langsamer als die alte bei OpenGL, da hat man auch nichts von!

iam.cool
2004-06-29, 17:33:15
Original geschrieben von Ranz0r
Naja stimmt schon, nur optimiert ATI nicht bei D3D noch mehr als nVidia? Sollte man deswegen alle D3D-Games verteufeln und sagen nene da kann man keine Rücjschlüße draus ziehen...?!

Nur weil Ati zu faul (behaupte ich mal) ist um nen gescheiten OpenGL-Treiber auf die Beine zu stellen, können die anderen Hersteller von GraKas nicht ihre Leistung in anderen Bereichen zeigen oder wie?

Stell dir mal nen Gamer vor, der gerne OpenGL-Games ala CoD spielt, der kauft sich nun eine neue Graka um noch bessere Auflösungen/Settings zu fahren und stellt fest die KArte ist langsamer als die alte bei OpenGL, da hat man auch nichts von!


Wenn du es als gescheiten Treiber bezeichnet wenn Leistung durch verlust von Bildqualität ereicht wird..............


Und ich denke bei D3D Optimieren ATI und NV ungefähr gleich, ATI tut es nur efektiver bei gleicher Qualität wie NV.

Gast
2004-06-29, 17:34:44
Original geschrieben von iam.cool
UT 2003: Ein Test mit DX7 Game ist ja wohl nicht mehr zeitgemäss.....

Aquamark3: Das die nVidia treiber auf den Bench optimiert sind sieht man schon daran das ne 5900XT mehr Punkte als ne 9800pro bekommt...

3dMurks03: Dazu sag ich jetzt nichts

Warcraft3 + MP1+2: Die Games sind selbst mit AA nd AF noch stark CPU limitiert


Fast alle der anderen Games setzen auf OPenGL und da ATI keine optimierungen bei OpenGL vornimmt nVidia aber schon,
nicht repräsentativ.



MFG

1. UT2003 meckerst Du aber zu Q3 sagst du nix, sehr Intressant.

2. Glaubst du wohl selber nicht was du da grade gesagt hast?
ATI hat für dem Bench genauso an dem Treiber gepfuscht wie NV, nur das die NV Architektur besser damit klarkommt.

3. Wenn Du meinst.

4. Ahh genau, weil ATI es nach JAHREN immer nochnicht geschafft hat eine anständige OpenGL Performance zu liefern ist NV schuld? Sorry, mit der Aussage hast du dich selber Disqualifiziert.

Meine Persönliche meinung; Du kommst nicht damit Klar das NV ATI Technisch überlegen ist und im Speed gleichauf und somit NV das bessere gesammtpaket bietet.

iam.cool
2004-06-29, 18:10:42
Original geschrieben von Gast
1. UT2003 meckerst Du aber zu Q3 sagst du nix, sehr Intressant.

2. Glaubst du wohl selber nicht was du da grade gesagt hast?
ATI hat für dem Bench genauso an dem Treiber gepfuscht wie NV, nur das die NV Architektur besser damit klarkommt.

3. Wenn Du meinst.

4. Ahh genau, weil ATI es nach JAHREN immer nochnicht geschafft hat eine anständige OpenGL Performance zu liefern ist NV schuld? Sorry, mit der Aussage hast du dich selber Disqualifiziert.

Meine Persönliche meinung; Du kommst nicht damit Klar das NV ATI Technisch überlegen ist und im Speed gleichauf und somit NV das bessere gesammtpaket bietet.

Ich seh das so, so gut wie alle OpenGL Games haben geringe anforderungen, also FPS hat man eh mehr als genug nur mit ATI hat man halt bessere Qualität:bäh:


Und wenn du Shader 3.0 als zukunftssicherer berachtest obwohl es erst ein Game gibt das Wirklch Shader 2.0 im grösseren umfang einsetzt, aber in 3 Jahren wenn Games
Shader 3.0 einsetzen kannst dich dann auf 2-3 efekte mehr freuen.......

Gast
2004-06-29, 18:17:22
Das mit der Qualität kansnt du nicht ernst gemeint haben?

Bei dem vergleich NV3x vs. R3xx stimme ich dir bedingungslos zu, aber bei NV40 vs. R420 sieht jawohl ein wenig anders aus.

Weil bei NV die möglichkeit hat die Optimierungen auszuschalten, ATI bietet sowas nicht, scheint wohl ATI angst zuhaben das die Performance der R420 auf einmal unter der der NV40 liegt. ;)

iam.cool
2004-06-29, 18:25:33
Original geschrieben von Gast
Das mit der Qualität kansnt du nicht ernst gemeint haben?

Bei dem vergleich NV3x vs. R3xx stimme ich dir bedingungslos zu, aber bei NV40 vs. R420 sieht jawohl ein wenig anders aus.

Weil bei NV die möglichkeit hat die Optimierungen auszuschalten, ATI bietet sowas nicht, scheint wohl ATI angst zuhaben das die Performance der R420 auf einmal unter der der NV40 liegt. ;)


Fast richtig, du vergisst nur das ATI überhaupt keine optimierung bei OpenGL benutzt, nVidia aber schon.

Gast
2004-06-29, 18:30:31
Original geschrieben von iam.cool
Fast richtig, du vergisst nur das ATI überhaupt keine optimierung bei OpenGL benutzt, nVidia aber schon.

Ach, ATI hat keine Optimierungen?

Was ist das? *Klick* (http://www.computerbase.de/artikel/hardware/grafikkarten/radeon_x800_texturen/)

VoodooJack
2004-06-29, 18:46:02
Original geschrieben von iam.cool
Ich seh das so, so gut wie alle OpenGL Games haben geringe anforderungen, also FPS hat man eh mehr als genug nur mit ATI hat man halt bessere Qualität:bäh:


Und wenn du Shader 3.0 als zukunftssicherer berachtest obwohl es erst ein Game gibt das Wirklch Shader 2.0 im grösseren umfang einsetzt, aber in 3 Jahren wenn Games
Shader 3.0 einsetzen kannst dich dann auf 2-3 efekte mehr freuen.......

Ich denke in beiden Punkten wie du.

Zu OpenGL noch eine Ergänzung meinerseits. Aktuelle OpenGL Titel fliegen nur so auf aktuellen Radeons.

Call of Duty läuft auf meiner X800 XT in 1600x1200, maxAF, 6xAA, in-game everything maxed - optimaler geht's einfach nicht mehr - mit sage und schreibe 122 fps.

Wer fürchtet sich bei solch exzellenten OpenGL-Leistungen noch vor dem kommenden Spiel Doom 3? Ich nicht. Ich freu mich schon auf den Doom 3 Benchmark, der ja noch vor dem Spiel rauskommen soll. Da wird dann endgültig Tacheles geredet.

q@e
2004-06-29, 18:54:07
Welches Demo? Default-Taktung? Welcher Unterbau? Waren AA und AF diesmal auch aktiv, oder nur checklist-ticks im Control Panel?


BTW,
Fürchten sollte man sich vor Doom3 sowieso nicht - ist doch nur ein Computerspiel. Ärgerlich könnte es für Balkenlängen-Verwöhnte nur werden, wenn wirklich viele Stencil-Schatten und PP-Normalisierung zum Einsatz kommen.

iam.cool
2004-06-29, 18:54:10
Original geschrieben von Gast
Ach, ATI hat keine Optimierungen?

Was ist das? *Klick* (http://www.computerbase.de/artikel/hardware/grafikkarten/radeon_x800_texturen/)

Du scheinst ein Problem mit dem Lesen zu haben, ich habe nie
gesagt das ATI keine optimierungen hat, ich habe gesagt das ATI keine Optimierungen bei OpenGL hat.

q@e
2004-06-29, 19:02:30
Und was ist das (http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/mai/atis_texturfilter_lupe/)?

betasilie
2004-06-29, 19:04:00
Original geschrieben von iam.cool
Du scheinst ein Problem mit dem Lesen zu haben, ich habe nie
gesagt das ATI keine optimierungen hat, ich habe gesagt das ATI keine Optimierungen bei OpenGL hat.
Dort haben sie natürlich auch Optimierungen, nur nicht in dem maße, wie unter D3D.

Blaire
2004-06-29, 19:13:46
Original geschrieben von VoodooJack
Ich denke in beiden Punkten wie du.

Zu OpenGL noch eine Ergänzung meinerseits. Aktuelle OpenGL Titel fliegen nur so auf aktuellen Radeons.

Call of Duty läuft auf meiner X800 XT in 1600x1200, maxAF, 6xAA, in-game everything maxed - optimaler geht's einfach nicht mehr - mit sage und schreibe 122 fps.

Wer fürchtet sich bei solch exzellenten OpenGL-Leistungen noch vor dem kommenden Spiel Doom 3? Ich nicht. Ich freu mich schon auf den Doom 3 Benchmark, der ja noch vor dem Spiel rauskommen soll. Da wird dann endgültig Tacheles geredet.

Hehe ich glaube das kannst du dir abschminken mit Doom 3 und solchen Settings. Carmack wird kein Spiel auf den Markt schmeißen was nicht seiner Zeit voraus wäre.
So war es bisher immer und da wird Doom 3 auch keine Ausnahme sein.

MfG

VoodooJack
2004-06-29, 19:21:41
Original geschrieben von q@e
Welches Demo? Default-Taktung? Welcher Unterbau? Waren AA und AF diesmal auch aktiv, oder nur checklist-ticks im Control Panel?


BTW,
Fürchten sollte man sich vor Doom3 sowieso nicht - ist doch nur ein Computerspiel. Ärgerlich könnte es für Balkenlängen-Verwöhnte nur werden, wenn wirklich viele Stencil-Schatten und PP-Normalisierung zum Einsatz kommen.

btw, ich fürchte mich ja nicht, wie ich zuvor geschrieben hab, ich freu mich ja drauf.

Frage, wie stellst du AA und AF in Call of Duty ein?

Gast
2004-06-29, 19:23:19
Original geschrieben von betareverse
Dort haben sie natürlich auch Optimierungen, nur nicht in dem maße, wie unter D3D.

Danke für die Unterstützung. ;)

Dir auch Quasar.

Blaire
2004-06-29, 19:24:34
Original geschrieben von VoodooJack
btw, ich fürchte mich ja nicht, wie ich zuvor geschrieben hab, ich freu mich ja drauf.

Frage, wie stellst du AA und AF in Call of Duty ein?

Über den Treiber ganz normal. Gibts für Call of Duty ne Timedemo oder sowas? Oder wie kommst du auf so einen Wert? =)

MfG

VoodooJack
2004-06-29, 19:39:01
Original geschrieben von Blaire
Über den Treiber ganz normal. Gibts für Call of Duty ne Timedemo oder sowas? Oder wie kommst du auf so einen Wert? =)

MfG

Über den Treiber stell ich natürlich auch AA und AF in Call of Duty ein, aber Quasar hat anscheinend etwas gegen diese Methode. Anscheinend macht er es ganz anders und das wollte ich ihn gerade fragen.

Blaire, du solltest weniger im Spekulations-Forum deine Zeit vertreiben, sondern hier im Benchmarking-Forum. Hier spielt die Musik. ;)

Hier im Benchmarking-Forum benchen wir Call of Duty schon seit langer Zeit mit dem Carentan-Timedemo. Unsere Ergebnisse posten wir im gleichnamigen Thread. Da steht auch mein Wert drin. Hier geht's lang zu diesem Thread:

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=113916&perpage=20&pagenumber=4

q@e
2004-06-29, 19:49:47
Original geschrieben von VoodooJack
Über den Treiber stell ich natürlich auch AA und AF in Call of Duty ein, aber Quasar hat anscheinend etwas gegen diese Methode. Anscheinend macht er es ganz anders und das wollte ich ihn gerade fragen.[/url]
Nein, ich habe keine grundlegend andere Methode - ich wollte nur sichergehen. Denn es gab und gibt durchaus mal den einen oder anderen Treiber, der ab und an mal "vergißt", das gewählte AA auch zu applizieren (s. Leos Review der X800 Pro).

Deswegen wollte ich einfach nochmal nachgefragt haben. =)

Außerdem natürlich noch die inzwischen beantwortete Frage nach dem Demo - ich benutze eine Brecourt-Demo, die etwas geringere FPS-Werte bei niedrigeren AA-Einstellungen zurückliefert.

Daneben spielt auch in CoD die CPU eine ziemliche Rolle - wie hoch war deine aktuell noch getaktet?

VoodooJack
2004-06-29, 20:03:19
Original geschrieben von Blaire
Hehe ich glaube das kannst du dir abschminken mit Doom 3 und solchen Settings. Carmack wird kein Spiel auf den Markt schmeißen was nicht seiner Zeit voraus wäre.
So war es bisher immer und da wird Doom 3 auch keine Ausnahme sein.

MfG

Hehe, ich wusste, dass solche Kommentare kommen würden, deshalb hab ich bewusst nichts zu der Auflösung gesagt, in der ich Doom 3 spielen werde bzw. kann.

Na, der Doom3-Benchmark wird mir erste Aufschlüsse geben, wie ich es spielen kann. Vielleicht in 12x10?

VoodooJack
2004-06-29, 20:35:02
Original geschrieben von q@e
Nein, ich habe keine grundlegend andere Methode - ich wollte nur sichergehen. Denn es gab und gibt durchaus mal den einen oder anderen Treiber, der ab und an mal "vergißt", das gewählte AA auch zu applizieren (s. Leos Review der X800 Pro).

Deswegen wollte ich einfach nochmal nachgefragt haben. =)

Außerdem natürlich noch die inzwischen beantwortete Frage nach dem Demo - ich benutze eine Brecourt-Demo, die etwas geringere FPS-Werte bei niedrigeren AA-Einstellungen zurückliefert.

Daneben spielt auch in CoD die CPU eine ziemliche Rolle - wie hoch war deine aktuell noch getaktet?

Mein P4 läuft im Dauerbetrieb und beim Benchmarken bei 3.7Ghz. Kannst also stillschweigend bei all meinen Benchmarks voraussetzen. Ich hab einfach keine Lust mehr, das jedes Mal extra anzugeben.

In diesem Zusammenhang möchte ich nochmals auf ein eigenartiges Phänomen aufmerksam machen, auf das ich vor längerer Zeit beim Lesen eines Postings hier im Forum gestoßen bin und dem ich dann in ausgiebigen Tests nachging. Sobald ich AA und AF zuschalte, spielen selbst 500 Mhz mehr oder weniger keine Rolle mehr. Hmm, ich glaub, es war im Wolfenstein ET Benchmarking Thread, wo ich meine kleine Abhandlung (hehe) darüber schrieb.

q@e
2004-06-29, 21:47:09
Genau dieses Posting hatte ich in Erinnerung - deswegen auch die Frage, ob nun 3,2 oder 3,7 GHz. Du hast natürlich recht, daß das in diesen Auflösungen und mit diesen AA/AF-Einstellungen nur noch eine geringe oder gar keine Rolle spielt.

tombman
2004-06-29, 22:12:25
ATi hat sich absichtlich nicht sonderlich mit den opengl Treibern beschäftigt, weil die quake3-engine games sowieso abartig schnell laufen auf aktuellen high.end Karten.

Ich habs selbst kaum geschafft q3 unter 100fps zu bringen, und das auf 170% so hoher Auflösung wie 1600x1200!!

Ich kann daher ATis Haltung bzgl opengl verstehen...

Ob man jetzt 250 oder 200fps hat is SOO egal...

Falls doom3 wesentlich langsamer laufen sollte als bei nv40 werden sie SICHER einen Treiber rausbringen der das game wieder beschleunigt (OHNE cheats).

q@e
2004-06-29, 22:20:07
Na, dann sollten sie aber schleunigst Gas geben - Tenebrae läuft alles andere als mit 100fps und das mit wesentlich niedrigeren Settings.

(del676)
2004-06-29, 22:35:59
Original geschrieben von tombman
ATi hat sich absichtlich nicht sonderlich mit den opengl Treibern beschäftigt, weil die quake3-engine games sowieso abartig schnell laufen auf aktuellen high.end Karten.

Ich habs selbst kaum geschafft q3 unter 100fps zu bringen, und das auf 170% so hoher Auflösung wie 1600x1200!!

Ich kann daher ATis Haltung bzgl opengl verstehen...

Ob man jetzt 250 oder 200fps hat is SOO egal...

Falls doom3 wesentlich langsamer laufen sollte als bei nv40 werden sie SICHER einen Treiber rausbringen der das game wieder beschleunigt (OHNE cheats).

sieht man ja bei ET @ 1600x1200 :bigfuckingeyes:

A64@2150, 5900U, 1024x768 alles max, noAAnoAF:
ET Railgun: 93.1
ET Radar: 87.9

A64@2200, X800 Pro 1024x768 alles max, noAAnoAF:
ET Railgun: 80.5
ET Radar: 76.6

A64@2150, 5900U, 1600x1200 alles max, 2xAA8xAF:
ET Radar: 54

A64@2200, X800 Pro 1600x1200 alles max, 2xAA16xAF:
ET Radar: 69

wahrlich grandios diese 250fps :)

tombman
2004-06-29, 22:57:26
Original geschrieben von q@e
Na, dann sollten sie aber schleunigst Gas geben - Tenebrae läuft alles andere als mit 100fps und das mit wesentlich niedrigeren Settings.

Des rennt generell beschissen, auch mit nv40...

Is aber völlig egal... is kein kommerzielles game von Profis programmiert --also who cares..

q@e
2004-06-30, 07:06:22
/me und Mr. Lolman care at least und wahrscheinlich auch noch andere, die Tenebrae spielen. =)

Und wenn ATi einfach nur mal ein bißchen am Treiber nachzulegen braucht - warum tun sie's dann nicht? :naughty:

tombman
2004-06-30, 07:55:11
Original geschrieben von q@e
/me und Mr. Lolman care at least und wahrscheinlich auch noch andere, die Tenebrae spielen. =)

Und wenn ATi einfach nur mal ein bißchen am Treiber nachzulegen braucht - warum tun sie's dann nicht? :naughty:

Weil tenebrae bei der Wichtigskeitsrangliste noch unter Moorhuhnschießen rangiert?

q@w
2004-06-30, 08:47:25
... oder weil's eben nicht so einfach ist, wie du's hier propagierst "werden sie SICHER einen Treiber rausbringen der das game wieder beschleunigt" - müsste ja auch für Tenebrae gehen, gell?
:naughty:

Gast
2004-06-30, 14:36:11
Original geschrieben von q@w
... oder weil's eben nicht so einfach ist, wie du's hier propagierst "werden sie SICHER einen Treiber rausbringen der das game wieder beschleunigt" - müsste ja auch für Tenebrae gehen, gell?
:naughty:

Vielleicht gibt es bei Tenebrae noch andere Einflussfaktoren :naughty:

Aber ein neuer OGL-Treiber wäre trotzdem keine Schande :)

http://www.beyond3d.com/forum/viewtopic.php?t=13571&highlight=tenebrae+patch

tombman
2004-06-30, 16:20:12
Original geschrieben von q@w
... oder weil's eben nicht so einfach ist, wie du's hier propagierst "werden sie SICHER einen Treiber rausbringen der das game wieder beschleunigt" - müsste ja auch für Tenebrae gehen, gell?
:naughty:

für doom3 werden sie sich den arsch aufreißen, tenebrae ist ihnen egal.

ist dir noch nicht aufgefallen, daß game developer solange patches rausbringen, bis wichtige games auf den jeweils besten karten ca. GLEICH schnell laufen? das war immer so und wird immer so sein.

die ganze hysterie ob denn jetzt hl2 oder d3 auf dieser
oder jener graka schneller rennen wird dient doch nur dem absatz-machen der graka-hersteller- diese games sind modern genug um sich so anzupassen, daß sie auf beiden karten schnell laufen.

die unterschiede werden sich am ende bei +- 10 bis 15% einpendeln.

(del676)
2004-06-30, 16:22:49
Original geschrieben von tombman
für doom3 werden sie sich den arsch aufreißen, tenebrae ist ihnen egal.

ist dir noch nicht aufgefallen, daß game developer solange patches rausbringen, bis wichtige games auf den jeweils besten karten ca. GLEICH schnell laufen? das war immer so und wird immer so sein.

die ganze hysterie ob denn jetzt hl2 oder d3 auf dieser
oder jener graka schneller rennen wird dient doch nur dem absatz-machen der graka-hersteller- diese games sind modern genug um sich so anzupassen, daß sie auf beiden karten schnell laufen.

die unterschiede werden sich am ende bei +- 10 bis 15% einpendeln.

hast du meinen post gelesen?

sonst frage ich dich hier mal: Warum läuft ET so lahm auf ATI karten? ich seh da keine 200fps, ja nichtmal 100, ist ATI ET auch egal?

tombman
2004-06-30, 16:39:25
Original geschrieben von Ulukay
hast du meinen post gelesen?

sonst frage ich dich hier mal: Warum läuft ET so lahm auf ATI karten? ich seh da keine 200fps, ja nichtmal 100, ist ATI ET auch egal?

wenn du nachgesehen hättest im et thread hättest du gesehen, daß meine x800xt pe und meine 6800ultra gleich schnell waren. beide lieferten über 60fps auf 1600x1200 in 4xaa, 16xaf, alles maximiert.

niedrigere einstellungen hab ich gar nicht erst getestet, da wären bei meiner cpu wahrscheinlich 200fps rausgekommen- siehs ein, quake3 engine games sind aaaaalt.

knallebumm
2004-06-30, 16:39:59
ET ist, nur mal so am Rande erwähnt, der zweit-beliebtste Onlineshooter nach CS.

http://archive.gamespy.com/stats/

Wird außerdem zig Ligen gespielt und soll die ganze Wolfenstein Reihe vom image aufwerten. Ein von Amateuren programmiertes game dürfte sich nicht Wolfenstein nennen.

Edit: Das 3. beliebteste ist cod. (quake-engine)
Zählt man alle 3 moh - addons zusammen ist es auch unter den ersten 5 . (quake - engine)

A.Wesker
2004-06-30, 16:43:58
Original geschrieben von handyman
ET ist, nur mal so am Rande erwähnt, der zweit-beliebtste Onlineshooter nach CS.

http://archive.gamespy.com/stats/

Wird außerdem zig Ligen gespielt und soll die ganze Wolfenstein Reihe vom image aufwerten. Ein von Amateuren programmiertes game dürfte sich nicht Wolfenstein nennen.

Edit: Das 3. beliebteste ist cod. (quake-engine)
Zählt man alle 3 moh - mods zusammen ist es auch unter den ersten 5 . (quake - engine)

jo aber auch nur für die kacknoobs ^^
die community is mittlerweile sau klein geworden, sodass es nurnoch noobs spielen. das spiel wird auch net stark gesponsort. sehe call of duty mit cpl auf jeden weit vor et. aber auch in cod sieht die x800 serie gegen die 6800 alt aus.

tombman
2004-06-30, 18:15:20
Original geschrieben von A.Wesker
aber auch in cod sieht die x800 serie gegen die 6800 alt aus.

falsch.

VoodooJack
2004-06-30, 19:29:39
Original geschrieben von A.Wesker
aber auch in cod sieht die x800 serie gegen die 6800 alt aus.

total falsch

q@e
2004-06-30, 19:45:06
In CoD ist die XT PE ein wenig (5-10%) schneller als die 6800u. Die GT und die Pro sind hingegen gleich schnell.

Verdammt lahmes AF, was nV da hat - also wirklich.

q@e
2004-06-30, 19:47:33
^^ mit 4xAA und 16xAF.

Mit 2xAA und 2xAF ist sogar die GT so schnell, wie die XT PE....

VoodooJack
2004-06-30, 19:57:06
Original geschrieben von q@e
In CoD ist die XT PE ein wenig (5-10%) schneller als die 6800u. Die GT und die Pro sind hingegen gleich schnell.


So much for the head-and-shoulders superiority in performance of Nvidia's OpenGl drivers.

q@e
2004-06-30, 19:59:23
Na ist doch klar, wenn irgendwann Füllrate und Bandbreite zur Neige gehen, daß es dann eher daran hängt, als dem Treiber an sich. =)
BTW, für einen Gleichstand brauchte die X800 Pro aktive Optimierungen. ;)

VoodooJack
2004-06-30, 20:15:40
Original geschrieben von q@e
Na ist doch klar, wenn irgendwann Füllrate und Bandbreite zur Neige gehen, daß es dann eher daran hängt, als dem Treiber an sich. =)
BTW, für einen Gleichstand brauchte die X800 Pro aktive Optimierungen. ;)

Wenn eine Autorität wie Quasar vom Gleichstand unter OpenGl spricht, dann hat das Gewicht. Fortan werde ich mich gerne auf dich berufen.

tombman
2004-06-30, 20:23:54
Original geschrieben von q@e
Na ist doch klar, wenn irgendwann Füllrate und Bandbreite zur Neige gehen, daß es dann eher daran hängt, als dem Treiber an sich. =)
BTW, für einen Gleichstand brauchte die X800 Pro aktive Optimierungen. ;)

diese pro vs gt vergleiche sind imo sowieso falsch und unfair...da wird eine 12pipeline karte gegen eine 16 pipeline karte gebenched.


der wahre gt gegner ist die x800xt (ohne pe)- 16p. vs 16p.

und der pro gegner ist die 6800 "vanilla"- 12p. vs 12p.

im high end bereich isses eh klar, x800xt pe vs. 6800ultra- 16p. vs 16p. (+ fett takt) ;)

q@e
2004-06-30, 20:34:36
Original geschrieben von tombman
diese pro vs gt vergleiche sind imo sowieso falsch und unfair...da wird eine 12pipeline karte gegen eine 16 pipeline karte gebenched.

Unfair - wegen der Pipes? Hm, wieso dann nicht unfair wegen der Taktung? ;)

Zählen für's Segment, in dem sich die jeweilige Karte messen lassen muss, tut letztendlich der Preis und da schaut's dann halt nicht unbedingt so aus, als würden 330 EUR Karten mit 430 EUR Karten verglichen werden.

betasilie
2004-06-30, 20:40:24
Original geschrieben von tombman
diese pro vs gt vergleiche sind imo sowieso falsch und unfair...da wird eine 12pipeline karte gegen eine 16 pipeline karte gebenched.


der wahre gt gegner ist die x800xt (ohne pe)- 16p. vs 16p.

und der pro gegner ist die 6800 "vanilla"- 12p. vs 12p.

im high end bereich isses eh klar, x800xt pe vs. 6800ultra- 16p. vs 16p. (+ fett takt) ;)
Imho quatsch. ... Man sollte immer die Karten gegeneinander Testen, die ungefähr den selben Preis haben, also ist die 6800GT sehr wohl die direkte Konkurrenz zur x800Pro, selbst wenn diese nur 8Pipes hätte.

(del676)
2004-06-30, 21:19:39
Original geschrieben von tombman
wenn du nachgesehen hättest im et thread hättest du gesehen, daß meine x800xt pe und meine 6800ultra gleich schnell waren. beide lieferten über 60fps auf 1600x1200 in 4xaa, 16xaf, alles maximiert.

niedrigere einstellungen hab ich gar nicht erst getestet, da wären bei meiner cpu wahrscheinlich 200fps rausgekommen- siehs ein, quake3 engine games sind aaaaalt.

ähem

1. mit welcher cpu würdest du auf 200fps kommen?
4500Mhz Athlon64? hast du echt sowas?

2. 60fps - durchschnitt? super
dann versuch mal damit online auf der map radar zu spielen, da gibts dann slowdowns auf 30fps - insofern (für mich) unspielbar

VooDoo7mx
2004-06-30, 22:22:03
Original geschrieben von tombman
diese pro vs gt vergleiche sind imo sowieso falsch und unfair...da wird eine 12pipeline karte gegen eine 16 pipeline karte gebenched.


der wahre gt gegner ist die x800xt (ohne pe)- 16p. vs 16p.

und der pro gegner ist die 6800 "vanilla"- 12p. vs 12p.

im high end bereich isses eh klar, x800xt pe vs. 6800ultra- 16p. vs 16p. (+ fett takt) ;)

Oh Gott...

Willst du jetzt sagen, dass alle Vergleiche der FX5900 vs 9800 falsch waren?
9800 hat ja schließlich 8 Pipelines und die F5900 nur 4 :bonk:

Schon traurig was man für einen Schmonz von dir lesen muss.

Wenn dir was nicht an dein Bild passt, suchst du immer irgendwelche Ausflüchte und Halbwahrheiten oder stempelst es mit "nicht so wichtig" ab.

Mit solchen Leuten wie dir kann man ganz einfach keine sachliche Diskussion führen.

Traurig...


1 Punkt

tombman
2004-06-30, 22:22:17
Original geschrieben von Ulukay
ähem

1. mit welcher cpu würdest du auf 200fps kommen?
4500Mhz Athlon64? hast du echt sowas?

2. 60fps - durchschnitt? super
dann versuch mal damit online auf der map radar zu spielen, da gibts dann slowdowns auf 30fps - insofern (für mich) unspielbar

du hast schon mitbekommen mit welchen settings ich gebenched habe, oder? Das war 1600x1200 MIT 4xAA MIT 16xAF--- von sowas träumen andere nur, und du regst dich über 60fps auf? Und glaub mir, da ging gar nix auf 30fps, sowas würde ich sehen--- aber wenn du willst hau och fraps rein und zeige dir die Minimum frames ;)

update: ok, ohne allem auf 1024x768 sinds noch 105fps ;) Viel zu wenig, ich weiß... *seufz*

tombman
2004-06-30, 22:25:49
Original geschrieben von VooDoo7mx
Oh Gott...

Willst du jetzt sagen, dass alle Vergleiche der FX5900 vs 9800 falsch waren?
9800 hat ja schließlich 8 Pipelines und die F5900 nur 4 :bonk:



Und nein, auch DICH werde ich nicht flamen, mein junger unerfahrener Freund- DEN Gefallen werde ich sicher einigen hier NICHT tun ;)

Nur soviel, damitst was lernst: die 5900 hat eine 4x2 Architektur (ganz grob gesprochen) und die 9800 hat 8x1.

Deswegen kann man sie bei games mit viel multitexture sehr wohl vergleichen, bei shading Sachen wird die 9800er natürlich immer gewinnen.

Und diese alten q3.engine games SIND multitexture games. (praktisch ohne shader)


1 Punkt

tombman
2004-06-30, 22:31:20
Original geschrieben von betareverse
Imho quatsch. ... Man sollte immer die Karten gegeneinander Testen, die ungefähr den selben Preis haben, also ist die 6800GT sehr wohl die direkte Konkurrenz zur x800Pro, selbst wenn diese nur 8Pipes hätte.

du wirst dich noch wundern wie die x800pro im Preis fallen wird-- die war jetzt nur so hoch weil sie die ersten auf dem Markt waren ;)

Und die GT konnte man GAR NICHT kaufen, also sollte man sie deiner Definition nach GAR NICHT testen? ..lol
(wenn man sie nicht kaufen kann, gibts auch keinen Straßenpreis, und nur dieser zählt, nicht was angekündigt ist)

Und was ist mit NV SLI --- GAR NICHT vergleichend benchmarken, außer gegen Profikarten? Preis zählt ja nur, oder?

VooDoo7mx
2004-06-30, 22:38:35
Original geschrieben von tombman
Und nein, auch DICH werde ich nicht flamen, mein junger unerfahrener Freund- DEN Gefallen werde ich sicher einigen hier NICHT tun ;)

Nur soviel, damitst was lernst: die 5900 hat eine 4x2 Architektur (ganz grob gesprochen) und die 9800 hat 8x1.

Deswegen kann man sie bei games mit viel multitexture sehr wohl vergleichen, bei shading Sachen wird die 9800er natürlich immer gewinnen.

Und diese alten q3.engine games SIND multitexture games. (praktisch ohne shader)

Du hast nirgendwo was von TMUs geschrieben.
Es kam von dir nur der Begriff "pipes".

Genau das habe ich gemeint.

Und nochwas: deine Anschuldigungen und Beleidigungen kannst du stecken lassen, ich werd garantiert nicht darauf eingehen. Wäre ja noch schöner, wenn ich mich auf dein Niveau herablassen würde.

Ich finds nur traurig das die Moderation Punkte an die falschen Leute verteilt...

(del676)
2004-06-30, 22:52:35
Original geschrieben von tombman
du hast schon mitbekommen mit welchen settings ich gebenched habe, oder? Das war 1600x1200 MIT 4xAA MIT 16xAF--- von sowas träumen andere nur, und du regst dich über 60fps auf? Und glaub mir, da ging gar nix auf 30fps, sowas würde ich sehen--- aber wenn du willst hau och fraps rein und zeige dir die Minimum frames ;)

update: ok, ohne allem auf 1024x768 sinds noch 105fps ;) Viel zu wenig, ich weiß... *seufz*

ja bitte einen 1600x1200 4xAA 16xAF Bench mit Minimum FPS
ET Radar

btw, in 1600x1200 2xAA 8xAF (Quality) hat man mit einer 5900U schon 54fps

kannst das auch mal nachbenchen?

tombman
2004-06-30, 23:00:06
Original geschrieben von Gast
Vielleicht gibt es bei Tenebrae noch andere Einflussfaktoren :naughty:

Aber ein neuer OGL-Treiber wäre trotzdem keine Schande :)

http://www.beyond3d.com/forum/viewtopic.php?t=13571&highlight=tenebrae+patch

DANKE FÜR DEN LINK!!

Darauf gibts nämlich einen link zur unofficial tenebrae site wo man neuere Versionen saugen kann (zumindest die .exe).

Und es ist locker doppelt so schnell wie 1.04 damals--- so geil ;)

hier direkt

http://www.modeemi.fi/~jpaana/tenebrae/

q@e
2004-06-30, 23:02:44
Original geschrieben von tombman
Und nein, auch DICH werde ich nicht flamen, mein junger unerfahrener Freund- DEN Gefallen werde ich sicher einigen hier NICHT tun ;)

Nur soviel, damitst was lernst: die 5900 hat eine 4x2 Architektur (ganz grob gesprochen) und die 9800 hat 8x1.

Deswegen kann man sie bei games mit viel multitexture sehr wohl vergleichen, bei shading Sachen wird die 9800er natürlich immer gewinnen.

Und diese alten q3.engine games SIND multitexture games. (praktisch ohne shader)

Damitst auch was lernst:

12x475 = 5700
16x350 = 5600

Ich denke, die Füllrate ist auf ~1,7% gleich und da "alte q3-games kein Shading einsetzen", sondern viel "multitexture", kann man sie sehr gut vergleichen.

American McGee's Alice:
1024, 0xAA, 0xAF : 152,8 vs. 141,5 (GT / Pro)
1024, 4xAA, 16xAF: 143,7 vs. 123,2 (GT / Pro)
1600, 0xAA, 0xAF : 139,2 vs. 101,9 (GT / Pro)
1600, 4xAA, 16xAF: 78,7 vs. 60,4 (GT / Pro)

Call of Duty:
1024, 0xAA, 0xAF : 142,7 vs. 120,1 (GT / Pro)
1024, 4xAA, 16xAF: 102,3 vs. 98,9 (GT / Pro)
1600, 0xAA, 0xAF : 119,5 vs. 95,5 (GT / Pro)
1600, 4xAA, 16xAF: 55,5 vs. 54,4 (GT / Pro)

Und Geizhals sez:
Beide um und bei 400 EUR (paar Anbieter mehr, paar nehmen weniger).

q@e
2004-06-30, 23:12:05
Original geschrieben von tombman
DANKE FÜR DEN LINK!!

Darauf gibts nämlich einen link zur unofficial tenebrae site wo man neuere Versionen saugen kann (zumindest die .exe).

Und es ist locker doppelt so schnell wie 1.04 damals--- so geil ;)

hier direkt

http://www.modeemi.fi/~jpaana/tenebrae/

Jaaaaaaaaaaaa, geil!

16,5fps mit 4xAA (ohne AF!) auf der R9800XT.

Verdoppeln wir mal und legen 10% drauf für die X800 XT PE:
36,3 fps für einen Ego Shooter.

Wie du ganz richtig sagtest, Tombman, höchste Zeit, da mal eine Schippe nachzulegen im Treiber - schließlich bremst ja nur der die Performance der X800 XT PE, die ansonsten jede GeForce ungespitzt in den Boden rammt.

Also, Ati! Hopp-Hopp neuer OpenGL-ICD!

aths
2004-06-30, 23:20:05
Original geschrieben von q@e
American McGee's Alice:
1024, 0xAA, 0xAF : 152,8 vs. 141,5 (GT / Pro)
1600, 0xAA, 0xAF : 139,2 vs. 101,9 (GT / Pro)
Call of Duty:
1024, 0xAA, 0xAF : 142,7 vs. 120,1 (GT / Pro)
1600, 0xAA, 0xAF : 119,5 vs. 95,5 (GT / Pro)
1x AA, 1x AF :)

tombman
2004-06-30, 23:32:35
Original geschrieben von q@e
Damitst auch was lernst:

12x475 = 5700
16x350 = 5600

Ich denke, die Füllrate ist auf ~1,7% gleich und da "alte q3-games kein Shading einsetzen", sondern viel "multitexture", kann man sie sehr gut vergleichen.

American McGee's Alice:
1024, 0xAA, 0xAF : 152,8 vs. 141,5 (GT / Pro)
1024, 4xAA, 16xAF: 143,7 vs. 123,2 (GT / Pro)
1600, 0xAA, 0xAF : 139,2 vs. 101,9 (GT / Pro)
1600, 4xAA, 16xAF: 78,7 vs. 60,4 (GT / Pro)

Call of Duty:
1024, 0xAA, 0xAF : 142,7 vs. 120,1 (GT / Pro)
1024, 4xAA, 16xAF: 102,3 vs. 98,9 (GT / Pro)
1600, 0xAA, 0xAF : 119,5 vs. 95,5 (GT / Pro)
1600, 4xAA, 16xAF: 55,5 vs. 54,4 (GT / Pro)

Und Geizhals sez:
Beide um und bei 400 EUR (paar Anbieter mehr, paar nehmen weniger).

1.) welche Treiber, welche Einstellungen?
2.) ich hab schon gesagt, daß gt vs pro für MICH kein fairer Vergleich ist.
3.) Lol, je mehr AA und AF man einschaltet desto stärker wird die pro ---> Schande für NV

tombman
2004-06-30, 23:33:10
Original geschrieben von aths
1x AA, 1x AF :)

irrelevant

tombman
2004-06-30, 23:35:21
Original geschrieben von q@e
Jaaaaaaaaaaaa, geil!

16,5fps mit 4xAA (ohne AF!) auf der R9800XT.

Verdoppeln wir mal und legen 10% drauf für die X800 XT PE:
36,3 fps für einen Ego Shooter.

Wie du ganz richtig sagtest, Tombman, höchste Zeit, da mal eine Schippe nachzulegen im Treiber - schließlich bremst ja nur der die Performance der X800 XT PE, die ansonsten jede GeForce ungespitzt in den Boden rammt.

Also, Ati! Hopp-Hopp neuer OpenGL-ICD!

Lol, dann zieh dir DAS rein:

Hab gerade die x800xt pe und die 6800ultra getestet und die x800xt pe war mit neuestem tenebrae biuld SCHNELLER als die 6800u (1024x768, 4xAA, 16xAF).

Tjo, ultrashadow technik fürn Arsch :naughty:

p.s.: q@e... je mehr du unqualifiziertes nvidia gehype von dich gibst, desto mehr demontierst du deinen Ruf hier... du wirst bald nur noch wenige haben, die dir glauben wennst so weitermachst.

q@e
2004-06-30, 23:38:38
Original geschrieben von tombman
1.) welche Treiber, welche Einstellungen?
2.) ich hab schon gesagt, daß gt vs pro für MICH kein fairer Vergleich ist.
3.) Lol, je mehr AA und AF man einschaltet desto stärker wird die pro ---> Schande für NV

1. Cat4.5, 61.34. X800 Pro mit Tri-Optimierung, GF6800GT ohne Tri-Optimierung.

2. Ja, aber ein paar Postings später hast du behauptet:

"Nur soviel, damitst was lernst: die 5900 hat eine 4x2 Architektur (ganz grob gesprochen) und die 9800 hat 8x1.
Deswegen kann man sie bei games mit viel multitexture sehr wohl vergleichen, bei shading Sachen wird die 9800er natürlich immer gewinnen.
Und diese alten q3.engine games SIND multitexture games. (praktisch ohne shader)"
Und dir damit quasi selbst widersprochen. Denn hier zählt MT-Füllrate, das alte Q3-Games kein Shading (ich nehme an, du meinste Pixelshader-Programme oder die Nutzung von ARB_fragment_program) benutzen. =)

Vielleicht entscheidest du dich mal für eine Linie und nicht immer nur, wie es A...err... dir gerade passt.


3. LOL Trotz höhere Füllrate, trotz aktiver Optimierung schafft die "Pro" nicht einmal einen Gleichstand. Armutszeugnis für ATi.

q@e
2004-06-30, 23:40:42
Original geschrieben von tombman
Lol, dann zieh dir DAS rein:

Hab gerade die x800xt pe und die 6800ultra getestet und die x800xt pe war mit neuestem tenebrae biuld SCHNELLER als die 6800u (1024x768, 4xAA, 16xAF).

Tjo, ultrashadow technik fürn Arsch :naughty:

LOL zieh' dir das rein:
High-End Karten mit 1024 :rofl: schaffen die etwa nicht mehr?


Ach so, damitst was lernst: UltraShadow muss vom Programm extra angesprochen werden.

BTW, mal wieder nV-full-Tri gegen ATi-almost-bi verglichen? ;)

tombman
2004-06-30, 23:42:25
Original geschrieben von q@e
1. Cat4.5, 61.34. X800 Pro mit Tri-Optimierung, GF6800GT ohne Tri-Optimierung.

2. Ja, aber ein paar Postings später hast du behauptet:

"Nur soviel, damitst was lernst: die 5900 hat eine 4x2 Architektur (ganz grob gesprochen) und die 9800 hat 8x1.
Deswegen kann man sie bei games mit viel multitexture sehr wohl vergleichen, bei shading Sachen wird die 9800er natürlich immer gewinnen.
Und diese alten q3.engine games SIND multitexture games. (praktisch ohne shader)"
Und dir damit quasi selbst widersprochen. Denn hier zählt MT-Füllrate, das alte Q3-Games kein Shading (ich nehme an, du meinste Pixelshader-Programme oder die Nutzung von ARB_fragment_program) benutzen. =)

Vielleicht entscheidest du dich mal für eine Linie und nicht immer nur, wie es A...err... dir gerade passt.


3. LOL Trotz höhere Füllrate, trotz aktiver Optimierung schafft die "Pro" nicht einmal einen Gleichstand. Armutszeugnis für ATi.



lol, cat 4.5 ? Gehts noch älter? Du weißt selbst, daß besonders der cat. 4.7 FETT zugelegt hat was performance betrifft.

Bei Nvidia hast natürlich den 61.34er genommen, einen der schnellsten die es gibt... schwach QUASAR, schwach.

UNd hör auf "tombman mode" zu nehmen, des könnte man als flame deuten.... und natürlich als Unterwerfung mir gegenüber ;)

EL_Mariachi
2004-06-30, 23:52:00
fett zugelegt soll der 4.7 er also haben ...

mach doch deinen 2 Spiele Test nochmal spasseshalber mit dem 4.5er Treiber.

Ich habe hier schon gelesen, dass deine Zeit sehr kostbar ist usw... tu es fuer die Community und um deine Aussage etwas zu bekräftigen :)

ach ja, screenshots der "bestimmten" Szenen wären nett :!


/edit ... aus nem K nen C gemacht :dozey:

tombman
2004-06-30, 23:55:31
Original geschrieben von EL_Mariachi
fett zugelegt soll der 4.7 er also haben ...

mach doch deinen 2 Spiele Test nochmal spasseshalber mit dem 4.5er Treiber.

Ich habe hier schon gelesen, dass deine Zeit sehr kostbar ist usw... tu es fuer die Kommunity und um deine Aussage etwas zu bekräftigen :)

ach ja, screenshots der "bestimmten" Szenen wären nett :!

nö, cat 4.7 bleibt oben, Karten wechseln is eines, aber Treiber ändern hasse ich zutiefst.

Ich habs auch nicht nötig irgendwas noch weiter zu bekräftigen- die, die denken können, picken sich schon die richtige Info raus.

tenebrae hab ich nicht mit bestimmten Stellen gebenched, weil ich dazu diese ja erst finden müßte, sprich das game nochmal spielen.

Habe daher die Standard-demos genommen, die eh schon dabei sind, also demo1, demo2 und demo3.

(del676)
2004-07-01, 00:03:34
Original geschrieben von tombman
nö, cat 4.7 bleibt oben, Karten wechseln is eines, aber Treiber ändern hasse ich zutiefst.

Ich habs auch nicht nötig irgendwas noch weiter zu bekräftigen- die, die denken können, picken sich schon die richtige Info raus.

tenebrae hab ich nicht mit bestimmten Stellen gebenched, weil ich dazu diese ja erst finden müßte, sprich das game nochmal spielen.

Habe daher die Standard-demos genommen, die eh schon dabei sind, also demo1, demo2 und demo3.

wie siehts mit den beiden et benches aus?

q@e
2004-07-01, 00:08:04
Original geschrieben von tombman
lol, cat 4.5 ? Gehts noch älter? Du weißt selbst, daß besonders der cat. 4.7 FETT zugelegt hat was performance betrifft.

Bei Nvidia hast natürlich den 61.34er genommen, einen der schnellsten die es gibt... schwach QUASAR, schwach.

UNd hör auf "tombman mode" zu nehmen, des könnte man als flame deuten.... und natürlich als Unterwerfung mir gegenüber ;)
Nein, älter ging's nicht und neuer auch nicht. Das waren zum Testzeitpunkt die aktuellsten Treiber. =)


Natürlich hat der Cat4.7 FETT zugelegt - so daß er selbst die SLI von nVidia wegruled mit ihrer unterirdischen AF-Performance.

Natürlich ist es viel objektiver, mal eben selektive Optimierungen an- und auszuschalten, solange, bis das Ergebnis einem passt. Schwach - TOMBMAN - schwach.


Was du so alles als Unterwerfung deutest... :nono:

q@e
2004-07-01, 00:09:42
Ach ja, Tombman:
Wie ist nun eigentlich deine finale Haltung zur Q3-Multitexturing Vergleichsfrage?

Mal so, mal so klingt irgendwie wie ein rotes Fähnlein, das im Winde pendelt...

tRpii
2004-07-01, 00:11:40
Fanboy-Battle.. nice

Blaire
2004-07-01, 00:12:50
Original geschrieben von tRpii
Fanboy-Battle.. nice

Wobei mehr behauptet als bewiesen wird. ;D

tombman
2004-07-01, 00:17:58
Original geschrieben von tRpii
Fanboy-Battle.. nice

nö, ich hab beide Karten ;)

tRpii
2004-07-01, 00:18:37
dich mein ich auch nur bedingt :p

VoodooJack
2004-07-01, 00:21:50
Original geschrieben von Ulukay
wie siehts mit den beiden et benches aus?

Vielleicht kann ich dir behilflich sein mit meiner XT?

Damit wir besser vergleichen können, was hast du zu bieten in 1600x1200, 4xAA, maxAF, everything maxed und was sollte deiner Meinung nach die XT mindestens bringen, um überhaupt in eurer erlauchten Liga mitspielen zu dürfen?

In freudiger Erwartung.

tombman
2004-07-01, 00:23:50
Original geschrieben von q@e
Nein, älter ging's nicht und neuer auch nicht. Das waren zum Testzeitpunkt die aktuellsten Treiber. =)


Natürlich hat der Cat4.7 FETT zugelegt - so daß er selbst die SLI von nVidia wegruled mit ihrer unterirdischen AF-Performance.

Natürlich ist es viel objektiver, mal eben selektive Optimierungen an- und auszuschalten, solange, bis das Ergebnis einem passt. Schwach - TOMBMAN - schwach.


Was du so alles als Unterwerfung deutest... :nono:

gleich mehrfach falsch, QUASAR.

"zum Testzeitpunkt" .... tjo, interessiert aber keine Sau was im Jahre SCHNEE war, als du, QUASAR, für 30min die Karten in der Hand hattest, um für computerbild..äh, -base einen Test zu machen.

@Optimierungen: sie waren bei BEIDEN Karten eingeschaltet -und was passiert wenn ich sie bei beiden ausschalte (auch per reg.) hast ja eh schon im far cry thread gesehen: Nvidia wird noch langsamer. Wenn ich sie also drinnenlasse tu ich dir nur einen Gefallen ;)

Und Nachmachen IST eine Art von Unterwerfung, Anerkennung usw.

(del676)
2004-07-01, 00:29:45
Original geschrieben von VoodooJack
Vielleicht kann ich dir behilflich sein mit meiner XT?

Damit wir besser vergleichen können, was hast du zu bieten in 1600x1200, 4xAA, maxAF, everything maxed und was sollte deiner Meinung nach die XT mindestens bringen, um überhaupt in eurer erlauchten Liga mitspielen zu dürfen?

In freudiger Erwartung.

tombmans x800 huldigungen nach sollte es spielbar sein, was ich nicht glaube solang ich keine fps-kurve sehe

imho sind die 54fps die ich beim bench erhalte (2xaa8xaf) NICHT spielbar da die fps in kampfszenen auf 30+ fallen

EL_Mariachi
2004-07-01, 00:34:38
Original geschrieben von tombman
nö, cat 4.7 bleibt oben, Karten wechseln is eines, aber Treiber ändern hasse ich zutiefst.

Ich habs auch nicht nötig irgendwas noch weiter zu bekräftigen- die, die denken können, picken sich schon die richtige Info raus.

tenebrae hab ich nicht mit bestimmten Stellen gebenched, weil ich dazu diese ja erst finden müßte, sprich das game nochmal spielen.

Habe daher die Standard-demos genommen, die eh schon dabei sind, also demo1, demo2 und demo3.

treiber wechseln hassen aber jeden Beta installieren ;) naja ...

Was du nötig hast und was nicht, darfst du natürlich frei selbst entscheiden.

Was du unterlassen solltest ist, allen hier postenden Zweiflern das "denken können" abzusprechen ...

1. ist das dann keine Diskussion mehr ( vermutlich war es von Anfang an gar nicht als solche gedacht? )

2. ist es unterste Schublade andere als "denkunfähig" zu bezeichen, nur weil sie deine Meinung hinterfragen und um ein paar Screenshots bitten ... ( ich darf dich daran erinnern, dass du nicht einen Screenshot geliefert hast )

q@e
2004-07-01, 00:35:35
Original geschrieben von tombman
gleich mehrfach falsch, QUASAR.

"zum Testzeitpunkt" .... tjo, interessiert aber keine Sau was im Jahre SCHNEE war, als du, QUASAR, für 30min die Karten in der Hand hattest, um für computerbild..äh, -base einen Test zu machen.

@Optimierungen: sie waren bei BEIDEN Karten eingeschaltet -und was passiert wenn ich sie bei beiden ausschalte (auch per reg.) hast ja eh schon im far cry thread gesehen: Nvidia wird noch langsamer. Wenn ich sie also drinnenlasse tu ich dir nur einen Gefallen ;)

Und Nachmachen IST eine Art von Unterwerfung, Anerkennung usw.

Gleich mehrfach falsch, TOMBMAN.

Weder ComputerBild noch 30 Minuten sind korrekt - aber dir muss man wohl alles mehrfach sagen, bevor du aufhörst, FALSCHAUSSAGEN zu treffen - man könnte jetzt auf zweierlei Ideen kommen, die aber beide nicht sehr schmeichelhaft für dich wären.


Und mir tust du mit Sicherheit keinen Gefallen - mir ist nämlich schnurzpiepegal, welche von den beiden Karten schneller ist - nur die Bedinungen müssen fair sein. Wenn ATi dann immer noch schneller (oder sogar noch schneller schneller) ist:
Prima - gut gemacht. =)
Mein Fazit vor mehr als zwei Wochen:
"Insgesamt ist ATi eine erstklassige, Energie sparende Grafikkarte gelungen, die die Bedürfnisse einer großen Mehrzahl der Spieler sicherlich zu erfüllen weiß [...]"

VoodooJack
2004-07-01, 00:40:42
Original geschrieben von Ulukay
tombmans x800 huldigungen nach sollte es spielbar sein, was ich nicht glaube solang ich keine fps-kurve sehe

imho sind die 54fps die ich beim bench erhalte (2xaa8xaf) NICHT spielbar da die fps in kampfszenen auf 30+ fallen

Sind die 83 fps meiner X800 XT, die ich in 1600x1200, 2xAA, maxAF, everything maxed erziele, für dich spielbar?

tombman
2004-07-01, 00:47:09
Original geschrieben von q@e

"Insgesamt ist ATi eine erstklassige, Energie sparende Grafikkarte gelungen, die die Bedürfnisse einer großen Mehrzahl der Spieler sicherlich zu erfüllen weiß [...]"

Du solltest Politiker werden- weniger Aussage in mehr Worten schaffen die auch ned.

q@e
2004-07-01, 00:49:28
Und du solltest kreativer werden - weniger Anfeindung, dafür zur Abwechslung mal ein Argument. ;)

tombman
2004-07-01, 00:51:44
Original geschrieben von EL_Mariachi
treiber wechseln hassen aber jeden Beta installieren ;) naja ...

Was du nötig hast und was nicht, darfst du natürlich frei selbst entscheiden.

Was du unterlassen solltest ist, allen hier postenden Zweiflern das "denken können" abzusprechen ...

1. ist das dann keine Diskussion mehr ( vermutlich war es von Anfang an gar nicht als solche gedacht? )

2. ist es unterste Schublade andere als "denkunfähig" zu bezeichen, nur weil sie deine Meinung hinterfragen und um ein paar Screenshots bitten ... ( ich darf dich daran erinnern, dass du nicht einen Screenshot geliefert hast )

1.) hab ich nie gesagt, wer nicht denken kann oder nicht.
2.) Hab ich schon bei der ut2004 und far cry Diskussion pics gepostet- dh, es sollte jetzt jeden klar sein, daß ich alle Aussagen auch immer mit screenshots belegen kann, wenn ich das will.

p.s.´: wenn ich schon WEISS, daß der cat 4.7 schneller ist als der cat 4.5, wieso muß ich dann zurückgehen auf cat. 4.5?

tombman
2004-07-01, 00:53:23
Original geschrieben von q@e
Und du solltest kreativer werden - weniger Anfeindung, dafür zur Abwechslung mal ein Argument. ;)

Kreativ bin ich mehr als die meisten, außerdem bist du hier mein Nachäffer und nicht umgekehrt.

Und meine fps Werte bei gleicher BQ sind Argument genug.

tombman
2004-07-01, 00:58:13
Original geschrieben von Ulukay
tombmans x800 huldigungen nach sollte es spielbar sein, was ich nicht glaube solang ich keine fps-kurve sehe

imho sind die 54fps die ich beim bench erhalte (2xaa8xaf) NICHT spielbar da die fps in kampfszenen auf 30+ fallen

kannst du lesen? die über 60fps waren keine x800 Huldigung, sondern wenn schon eine Huldigung generell zur neuen high-end Generation, denn auf der nvidia war es genauso über 60fps...

fl_li
2004-07-01, 01:07:33
interessanter, untererhaltsammer Thread...;D


@tombmann: Könntest du nicht mal statt nur min. FPS Werte mal die Kurve von Fraps posten (natürlich dazu nicht an Ort und stelle im Spiel stehen bleiben...:bonk: ). Falls du dazu keinen Webspace hast, kann ich ihn dir schon zur Verfügung stellen...:)

tombman
2004-07-01, 01:10:03
ALso wie das mit der Kurve geht weiß ich noch ned, aber hier schon mal das Textfile. Diese einstelligen Werte und der eine 23er Wert ist zu ignorieren... war ganz sicher NICHT so. Fraps zeichnet jede Sekunde einen Wert (angeblich) auf und da die Kämpfe länger als 1 sec dauern sieht man schön den Durchschnitt bei den Kampfszenen... butterweich ;)
(1600x1200, 4xAA, 16xAF @ x800xt pe)

__________________________________

2004-07-01 01:05:04 - ET
89
91
90
80
70
71
71
64
61
62
68
67
60
64
67
61
59
65
69
56
56
56
56
23
1
4
0
8
2
2
3
54
83
76
83
76
76
80
88
93
68
46
49
56
63
80
76
52
58
70
77
84
83
87
70
95
76
64
47
51
49
66
65
67
76
79
50
59
70
70
69
61
52
62
102
90
91
69
0
0
0
0
0
0
0
0
____________________________

fl_li
2004-07-01, 01:14:44
danke :)

jetzt noch die 6800 und ich bin wieder ruhig ;)

(aber bitte die gleiche stelle *g*)

tombman
2004-07-01, 01:15:49
Original geschrieben von fl_li
danke :)

jetzt noch die 6800 und ich bin wieder ruhig ;)

(aber bitte die gleiche stelle *g*)

nö, danke, des is zuviel ;)

Mußt mir einfach glauben, daß die 6800ultra ähnliche Werte zeigt ;)

Außerdem welche Stelle? Is die "radar" demo die jeder saugen kann.

EL_Mariachi
2004-07-01, 01:17:59
uff, jetzt bin ich überrascht ... ein Fraps log

ich hatte eigentlich etwas erwartet wie:

" FPS Kurve? Sowas hab ICH nicht nötig zu posten"

oder

" ich weiss doch dass es flüssig läuft, wozu soll ich etwas posten was die meisten hier ohnehin nicht verstehen "

oder

" jeder der denken kann, kann sich doch alle relevanten Infos aus den von mir bereits geposteten infos herausfiltern "

;) :D


daumen hoch tombman :up: es könnte evtl. wieder eine Diskussion entstehen :freak:

VoodooJack
2004-07-01, 01:18:14
Quasar, mir gefallen tombmans Argumente. Das sind Argumente, gewonnen aus der Erfahrung mit beiden Karten heraus. Der Mann weiß, von was er spricht.

Und dass er offensichtliche Provokationen von Leuten, die diese Karten nur vom Hörensagen kennen und rein gar nichts hier beitragen können außer tombman frech anzuquatschen, auf seine Art kontert, ist nur verständlich. Alles braucht man sich auch nicht gefallen zu lassen.

tombman
2004-07-01, 01:19:50
Original geschrieben von EL_Mariachi
uff, jetzt bin ich überrascht ... ein Fraps log



daumen hoch tombman :up: es könnte evtl. wieder eine Diskussion entstehen :freak:

Schau, es is wie bei Star Trek und Datas Rede bei der Totenwache des Professors: "Die die ihn kannten, liebten ihn, und die, die ihn nicht kannten verehrten ihn... aus der Ferne...."

heheheeheheh ;)

fl_li
2004-07-01, 01:22:00
mit "Stelle" meine ich die Demo...LOL...:bonk:

und, ja, ich glaubs dir ;)

betasilie
2004-07-01, 01:43:21
Original geschrieben von tombman
du wirst dich noch wundern wie die x800pro im Preis fallen wird-- die war jetzt nur so hoch weil sie die ersten auf dem Markt waren ;)

Und die GT konnte man GAR NICHT kaufen, also sollte man sie deiner Definition nach GAR NICHT testen? ..lol
(wenn man sie nicht kaufen kann, gibts auch keinen Straßenpreis, und nur dieser zählt, nicht was angekündigt ist)
Du hast vieleicht recht, dass die x800Pro im Preis schneller fällt als die GT, aber dafür, dass Du auch nur spekulieren kannst, hängst Du dich mit deiner Behauptung recht weit aus dem Fenster.

Im übrigen wiedersprichst Du dir. ... Einmal erzählst Du, dass nur der aktuelle Straßenpreis zählt und dennoch spekulierst Du schon wann und wie schnelle die X800Pro im Preis fallen wird.

Und die GT wird garantiert nicht teurer als 400€ und somit wäre es wohl absurd diese beiden Karten nicht als direkte Konkurrenten zu sehen.

Original geschrieben von tombman
Und was ist mit NV SLI --- GAR NICHT vergleichend benchmarken, außer gegen Profikarten? Preis zählt ja nur, oder?
Die SLI Lösung ist halt ohne Konkurrenz. Dann testet man halt gegen die besten Single-Karten-Lösung von ATI und NV, um zu sehen wie effizient SLI ist.

Schrotti
2004-07-01, 02:36:14
Meine nächste wir auch wieder ne ATI na und ?

Ich spiele Shotter ala CoD BF oder auch UT 2004.

Da hab ich nie AA/AF an weil ich das bei dem Tempo eh nicht sehe.

Warum pochen eigentlich alle so auf dem Tempo rum ?

Ob nun 6800Ultra oder X800XT sollte egal sein solange das Tempo stimmt.
Man(n) kann sich auch mitreißen lassen.

Mfg Schrotti

PS: Warum kann das Forum nicht so schnell wie ich tippe ?

mirp
2004-07-01, 07:16:44
Bleibt bitte beim Thema Benchmarks. Dies ist hier nicht das Spekulations- oder Grafikchip-Forum.


Die SLI-Diskussion habe ich jetzt ausgelagert:
ATI SLI Lösung (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=152148)
Punkte für Quasar, tombman, VooDoo7mx

q@e
2004-07-01, 10:11:38
Sorry. :)

(del676)
2004-07-01, 10:27:07
Original geschrieben von VoodooJack
Sind die 83 fps meiner X800 XT, die ich in 1600x1200, 2xAA, maxAF, everything maxed erziele, für dich spielbar?

warum fragst du sowas, das dürfte ja wohl klar sein ;)

btw kannst du das in 2048x1536 nochmal durchlaufen lassen?
würd mich interessieren ob die neue generation das schafft

(del676)
2004-07-01, 10:28:52
Original geschrieben von tombman
ALso wie das mit der Kurve geht weiß ich noch ned, aber hier schon mal das Textfile. Diese einstelligen Werte und der eine 23er Wert ist zu ignorieren... war ganz sicher NICHT so. Fraps zeichnet jede Sekunde einen Wert (angeblich) auf und da die Kämpfe länger als 1 sec dauern sieht man schön den Durchschnitt bei den Kampfszenen... butterweich ;)
(1600x1200, 4xAA, 16xAF @ x800xt pe)


jo sieht doch gut aus :D

aths
2004-07-01, 10:52:13
Original geschrieben von tombman
Kreativ bin ich mehr als die meisten, außerdem bist du hier mein Nachäffer und nicht umgekehrt.

Und meine fps Werte bei gleicher BQ sind Argument genug. Du hast in der Vergangenheit Probleme gezeigt, was die Wahl gleicher BQ-Settings angeht. Wie genau testest du jetzt? Bi-AF vs. bi-AF?

VoodooJack
2004-07-01, 14:31:22
Original geschrieben von Ulukay

btw kannst du das in 2048x1536 nochmal durchlaufen lassen?
würd mich interessieren ob die neue generation das schafft

Laut Aussage des Control Panels schafft die X800 die Auflösung 2048x1536 bis einschließlich 4xAA.

Wolfenstein ET auf X800 XT, Cat 4.6:
2048x15436, 2xAA, maxAF, everything maxed: 79 fps

(del676)
2004-07-01, 15:29:39
Original geschrieben von VoodooJack
Laut Aussage des Control Panels schafft die X800 die Auflösung 2048x1536 bis einschließlich 4xAA.

Wolfenstein ET auf X800 XT, Cat 4.6:
2048x15436, 2xAA, maxAF, everything maxed: 79 fps

Mit beta 4.7 sind es 10% mehr.

huiiiiiiiii :D
jetzt muss ichs nur noch in 1920 zum laufen bekommen, weil da hab ich immerhin noch 75hz :D

tombman
2004-07-01, 20:17:50
Original geschrieben von aths
Wie genau testest du jetzt? Bi-AF vs. bi-AF?

so, daß mein auge keinen unterschied sieht- das einzig relevante setting also.

Jesus
2004-07-01, 23:54:24
oh ich kannte diesen Thread noch gar nicht ;)

egal, hier mal wieder eine Reviewerseite die Bestätigt was Tombman sagt:

http://www.hothardware.com/viewarticle.cfm?articleid=533&cid=2

Nämlich das hier in dem Fall eine X800 Pro vs 6800 GT OC, weniger stark einbricht bei Aktiviertem AF und AA. Gleichzeitig haben sie auch einen nettten BQ vergleich in dem sie ausdrücklich KEINEN BQ Sieger feststellen konnten ! :D
( ich persönlich finde aber das die x800 schärfere Texturen liefert, muss aber nicht am AF liegen, kann auch der LOD sein ;) sieht aber imo besser aus )

z.b.

http://www.hothardware.com/articleimages/Item533/f1.png

LovesuckZ
2004-07-01, 23:57:49
Original geschrieben von Jesus
Nämlich das hier in dem Fall eine X800 Pro vs 6800 GT OC, weniger stark einbricht bei Aktiviertem AF und AA. Gleichzeitig haben sie auch einen nettten BQ vergleich in dem sie ausdrücklich KEINEN BQ Sieger feststellen konnten ! :D
( ich persönlich finde aber das die x800 schärfere Texturen liefert, muss aber nicht am AF liegen, kann auch der LOD sein ;) sieht aber imo besser aus )
]

1. Solche Leute gehoeren weg vom reviewfenster, die Unterschiede sind wie Tag und Nacht...

2. Schonmal mit texturflimmern gespielt? Nein, kauf dir mal'ne X800pro.

Blaire
2004-07-01, 23:58:15
Das bestätigt lediglich das der R300 bzw. NV30 Pfad noch nicht zufriedenstellend mit den 6800ern funktioniert.
Der Farcry Patch 1.2 wird da einiges an Mehrperformance 20-30% so hört man bringen. Dann können wir gerne nochmal vergleichen. Die jetzigen Ergebnisse sind für´n Popo. ;)

MfG

Coda
2004-07-02, 00:03:56
Der Farcry Patch 1.2 wird da einiges an Mehrperformance 20-30% so hört man bringen.
Wegen PS 3.0 sicher nicht und sonst hallte ich das auch für ziemlichen Blödsinn.

Jesus
2004-07-02, 00:04:58
Original geschrieben von Blaire
Das bestätigt lediglich das der R300 bzw. NV30 Pfad noch nicht zufriedenstellend mit den 6800ern funktioniert.
Der Farcry Patch 1.2 wird da einiges an Mehrperformance 20-30% so hört man bringen. Dann können wir gerne nochmal vergleichen. Die jetzigen Ergebnisse sind für´n Popo. ;)

MfG

eh jein.

1. der 1.2 patch hat nichts für den 6800 an board ;) ledlgilich bugfixes, der 1.3er wird den rest enthalten, aber wann der kommt ist fraglich.

2. denke ich dass mit dem PS2.0x / 3.0 pfad der Rechenaufwand für die 6800 noch etwas steigen wird und sie dadurch eher ein wenig mehr fps verlieren wird ( ähnlich wie jetzt schon mit dem R300 patch )

3. ist die R420 ebenfalls nicht an FC angepasst, aber arbeitet schon ( im gegensatz zur 6800 ) mit voller BQ. Durch PS2.0b könnte man da aber noch ein paar FPS rausholen ;)

q@e
2004-07-02, 00:06:21
Original geschrieben von Jesus
1. der 1.2 patch hat nichts für den 6800 an board ;) ledlgilich bugfixes, der 1.3er wird den rest enthalten, aber wann der kommt ist fraglich.


Das ist eine Falschinformation. :)

LovesuckZ
2004-07-02, 00:07:24
Original geschrieben von Jesus
1. der 1.2 patch hat nichts für den 6800 an board ;) ledlgilich bugfixes, der 1.3er wird den rest enthalten, aber wann der kommt ist fraglich.

Bis auf SM3.0

2. denke ich dass mit dem PS2.0x / 3.0 pfad der Rechenaufwand für die 6800 noch etwas steigen wird und sie dadurch eher ein wenig mehr fps verlieren wird ( ähnlich wie jetzt schon mit dem R300 patch )

Meinst du den gewinn durch FP16 oder den Gleichstand bzw. minimalen Verlust mit FP32?

3. ist die R420 ebenfalls nicht an FC angepasst, aber arbeitet schon ( im gegensatz zur 6800 ) mit voller BQ. Durch PS2.0b könnte man da aber noch ein paar FPS rausholen ;)

Was koennte denn dem X800pro in farcry zu mehr Speed verhelfen? Laengere Shader? Wohl kaum. Oehm, das war's ja schon^^

@Quasar,
koenntes du etwas mehr sagen als pocketmoon66 (http://www.beyond3d.com/forum/viewtopic.php?p=315645#315645)?

Jesus
2004-07-02, 00:08:22
siehe hier, oder Gamestar etc...

http://ubbxforums-de.ubi.com/6/ubb.x?a=tpc&s=59010161&f=379103702&m=430104215

Blaire
2004-07-02, 00:08:29
Original geschrieben von Jesus
eh jein.

1. der 1.2 patch hat nichts für den 6800 an board ;) ledlgilich bugfixes, der 1.3er wird den rest enthalten, aber wann der kommt ist fraglich.


In addition to the improvements mentioned in the updated changelog, the 1.2 patch will enable much-anticipated Shader Model 3.0 support for NVIDIA's new GeForce 6-series cards. Leveraging Microsoft's DirectX 9.0c, SM 3.0 support will enable gamers with supported hardware to achieve unprecedented levels of realism in their Far Cry experience."

2. denke ich dass mit dem PS2.0x / 3.0 pfad der Rechenaufwand für die 6800 noch etwas steigen wird und sie dadurch eher ein wenig mehr fps verlieren wird ( ähnlich wie jetzt schon mit dem R300 patch )

Möglich wenn es der Optik zuträglich ist nehme ich das gern hin.

3. ist die R420 ebenfalls nicht an FC angepasst, aber arbeitet schon ( im gegensatz zur 6800 ) mit voller BQ. Durch PS2.0b könnte man da aber noch ein paar FPS rausholen ;)

Möglich und hinten kackt die Ente.

MfG

q@e
2004-07-02, 00:09:58
:nono:
Du verstehst das nicht, LovesuckZ.

Smartshader HD sind gegenüber der R9800XT wesentlich verbessert worden. Es können jetzt FÜNF Instruktionen pro Takt und Pipe ausgeführt werden.

Jesus
2004-07-02, 00:12:46
wo steht das geschrieben Blaire ?


glaub ich erst wenn ich s sehe, denn ohne DX9.0 c und "echten" Treibern von Nvidia werden sie kaum ein patch rausgeben das diese Features nutzt...

q@e
2004-07-02, 00:12:52
Original geschrieben von LovesuckZ
@Quasar,
koenntes du etwas mehr sagen als pocketmoon66 (http://www.beyond3d.com/forum/viewtopic.php?p=315645#315645)?

Nein, sorry. Mehr als da steht könnte ich nur vom Hörensagen weitergeben und da vermischt sich Dichtung und Wahrheit.

Blaire
2004-07-02, 00:42:58
Original geschrieben von Jesus
wo steht das geschrieben Blaire ?


glaub ich erst wenn ich s sehe, denn ohne DX9.0 c und "echten" Treibern von Nvidia werden sie kaum ein patch rausgeben das diese Features nutzt...

http://www.farcry.ubi.com/

MfG

nggalai
2004-07-02, 09:07:11
Hi tombman,Original geschrieben von tombman
Hab gerade die x800xt pe und die 6800ultra getestet und die x800xt pe war mit neuestem tenebrae biuld SCHNELLER als die 6800u (1024x768, 4xAA, 16xAF).Wieviele FPS hattest Du da jeweils? "schneller" ist eine ziemlich schwammige Aussage, und Leute mit denselben Karten können's nicht nachbenchen. Dabei geht's noch nicht mal darum, deine Werte zu bestätigen oder zu widerlegen, aber ein schöner Punkt beim Benchmarking ist ja, dass Dritte so sehen können, ob ihre Systeme einigermassen so laufen wie sie sollten. :)

93,
-Sascha.rb

P.S. Minimal-fps wären auch noch interessant. Dank schön. :) -.rb

Demirug
2004-07-02, 09:15:52
Original geschrieben von q@e
:nono:
Du verstehst das nicht, LovesuckZ.

Smartshader HD sind gegenüber der R9800XT wesentlich verbessert worden. Es können jetzt FÜNF Instruktionen pro Takt und Pipe ausgeführt werden.

Damit wurde doch auch schon beim R360 geworben, oder?

q@e
2004-07-02, 09:18:34
Aber jetzt können sie 32 Temps(!!) und 1536 INstruktionen rechnen - das bringt RICHTIG Speed, wie man an den Benchmarks sieht.

nggalai
2004-07-02, 09:19:50
Original geschrieben von Jesus
wo steht das geschrieben Blaire ?


glaub ich erst wenn ich s sehe, denn ohne DX9.0 c und "echten" Treibern von Nvidia werden sie kaum ein patch rausgeben das diese Features nutzt... erste MS3.0 vs/ SM2.0 Benchmarks (http://www.nvnews.net/vbulletin/showthread.php?t=31104&page=1&pp=15)

Womit ich ausdrücklich nicht sage, dass die Ergebnisse so stimmen müssen oder allgemeingültig seien.

93,
-Sascha.rb

Gast
2004-07-02, 10:54:42
*entfernt*

(del676)
2004-07-02, 11:22:45
Original geschrieben von nggalai
Ich find's etwas suspekt, dass Crytek diese Pass-Reduktion explizit nur mit SM3.0 zulässt, obowhl's eigentlich auch auf den neuen ATIs mit PS2.x tun sollte (AFAIK). Oder sind die Shader sooooo lang, dass auch das nicht mehr reicht?

Neben suspekt ist's auch indirekt lustig, wenn man Kevins Kommentare zur engen Zusammenarbeit zwischen ATI und Crytek wie im Interview beschrieben nochmals durchliest. ;)

93,
-Sascha.rb

kann man nicht einfach den nv40 pfad auf einer r420 benutzen?

Demirug
2004-07-02, 11:43:27
Original geschrieben von q@e
Benutzt CryTek evtl. (ob nun absichtlich oder notwendig) mehrere Dependant Reads pro Lichtquelle beim Bumpen?

Das könnte erklären, warum man das nicht generell für SM2.0 freischaltet, oder?

Soweit mir bekannt wird für das Bumpmappen überhaupt kein Dependent Read gebraucht. Sobald der Patch aber offiziell ist kann man ja mal die entsprechenden Shaderscripte prüfen.

Aber selbst wenn dependent Reads zu Einsatz kommen (Offset Mapping wird es brauchen) so düften den das Limit von 4 nie erreichen unabhängig von der Anzahl der Lichtquellen. Da ja der Singlepass Shader lediglich die Berechnungen von mehreren Shadern fürs Multipass zusammenfügt und die Einzelergebnisse zusammenzählt und die Dinge die doppelt sind nur noch einmal macht.

nggalai
2004-07-02, 11:47:45
Die Far-Cry Patch 1.2-Sachen sind jetzt im Thread hier:

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=152028

(Basis für den Split: mirps Posting hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=152357))

93,
-Sascha.rb

Majestic
2004-07-03, 14:35:59
Original geschrieben von tombman
Hier mal ein netter x800xt pe vs 6800ultra Vergleich von mir (ich besitze beide Karten)

settings:
1600x1200, 4xAA, 16xAF, kein overclock beider Karten
ATI x800xt pe: im cp alles auf die höchsten Werte, dh, auch qual. af diesmal drinnen (!), cat 4.7 beta
Nvidia 6800ultra: quality setting (also nicht das höchste !), trilinear und anisotropic optimization ON (!), fw 61.45 beta


========================================================
UT2004, map icetomb, spezielle Stelle, die viel fps frißt:

ATI: 51 fps
NV : 27 fps
______________________________
ATi ~ 89% schneller
==========================================================

==========================================================
Far Cry, training level, spezielle Stelle, die viel fps frißt:

ATI: 25 fps
NV: 20 fps
________________________________
ATI ~ 25% schneller
===========================================================


Man kann ganz klar sehen, daß ATI deutlich schneller ist- ich kann mich daher nur der durchschnittlichen Meinung der Reviewer im Netz anschließen, daß die ATI X800XT PE derzeit die stärkere Karte ist.

Oh, man jetzt geht das schon wieder los.....
Entschuldige, aber ich bin der Meinung das man den Reviewern im Internet doch mehr glauben schenken kann als deinen Ausführungen...

VoodooJack
2004-07-03, 15:14:26
Und jetzt meine Meinung:

Ich schenke tombman entschieden mehr Glauben als gewissen Reviewern im Internet.

Mr. Lolman
2004-07-03, 15:16:12
Original geschrieben von VoodooJack
Und jetzt meine Meinung:

Ich schenke tombman entschieden mehr Glauben als gewissen Reviewern im Internet.

Zumindest braucht Tombman es sich nicht mit irgendwelchen Anzeigekunden auf gut stellen ;)

Majestic
2004-07-03, 16:24:09
Original geschrieben von Mr. Lolman
Zumindest braucht Tombman es sich nicht mit irgendwelchen Anzeigekunden auf gut stellen ;)

Hehe, und meinst das macht jemanden unparteischer;D
Es ist einfach nur so das sich viele nicht mit dem Gedanken eines leistungsmäßigen Gleichstandes zwischen ATI und Nvidia abfinden wollen und dann solche Vergleiche aus dem Hut zaubern. Aber bitte, ich will hier nicht schon wieder so einen NvidiaVSATI-Diskussion los treten.....Jeder soll glauben was er will.....:stareup:

VoodooJack
2004-07-03, 16:58:46
Zu den Reviewern im Internet noch ein Wort. Da hat sich ja wieder einer von den ganz hoch eingeschätzten Reviewern (btw, nicht von mir) bis auf die Knochen blamiert.

Hier ist Anands Entschuldigung für seinen blamablen Far Cry Patch 1.2/PS3.0 Artikel:

UPDATE: It has recently come to our attention that our 4xAA/8xAF benchmark numbers for NVIDIA 6800 series cards were incorrect when this article was first published. The control panel was used to set the antialiasing level, which doesn't work with FarCry unless set specifically in the FarCry profile (which was not done here). We appologize for the error, and have updated our graphs and analysis accordingly.

Wirklich bemerkenswert, was der Mann alles nicht weiß. Andere "kleine" Reviewer wie Brandon von FiringSquad mussten ihn darauf aufmerksam machen.

Jesus
2004-07-03, 18:44:31
das war nicht das erstmal :) war auch mit den 61.11er Treibern so die 2x und 4xAA im cp deaktivierten und niemand hats gemerkt :) )

aber alle freuten sich über die balkenlänge :)

Blaire
2004-07-03, 18:49:18
Die Balkenlänge ist trotzdem noch akzeptabel. Das Ati noch immer leichte Vorteile ist anhand ihrer Optimierungen einleuchtend genug.

MfG

Gast
2004-07-03, 19:45:36
Original geschrieben von VoodooJack
Zu den Reviewern im Internet noch ein Wort. Da hat sich ja wieder einer von den ganz hoch eingeschätzten Reviewern (btw, nicht von mir) bis auf die Knochen blamiert.




Naja, aber mehr als tombman sich blamieren kann man doch gar nicht. Der nutzt doch ohnehin schon unvergleichbare Einstellungen und will die als der Weisheit letzter Schluss verkaufen.

tombman
2004-07-03, 20:55:48
Original geschrieben von Gast
Naja, aber mehr als tombman sich blamieren kann man doch gar nicht. Der nutzt doch ohnehin schon unvergleichbare Einstellungen und will die als der Weisheit letzter Schluss verkaufen.

du hast offenbar nicht mitbekommen, daß ich beide karten auch schon total ohne optimierungen gebenched habe, nur verlor da nvidia noch schlimmer ;)
(lies dir mal alles nochmal genau durch, dann findest du
auch die unoptimierten werte)

@blaire: ati gewinnt nicht durch optimierungen, sondern weil sie einfach mehr takt haben- so einfach ist das.

iam.cool
2004-07-04, 03:53:24
Original geschrieben von tombman
du hast offenbar nicht mitbekommen, daß ich beide karten auch schon total ohne optimierungen gebenched habe, nur verlor da nvidia noch schlimmer ;)
(lies dir mal alles nochmal genau durch, dann findest du
auch die unoptimierten werte)

@blaire: ati gewinnt nicht durch optimierungen, sondern weil sie einfach mehr takt haben- so einfach ist das.

Mehr Takt heisst nicht immer mehr Leistung......
Nimm nen FX53 und nen P4EE, der FX53 mit weniger Takt ist ganz klar schneller, oder nen Centrino 1,4Ghz und nen P4 2,4Ghz, die CPU mit weniger takt ist auch hier wieder schneller.:respekt:

iam.cool
2004-07-04, 03:59:42
Original geschrieben von Mr. Lolman
Zumindest braucht Tombman es sich nicht mit irgendwelchen Anzeigekunden auf gut stellen ;)

Jo das denk ich mir auch, von der Objektivität der Seiten wo
nVidia oder ATI Werbung vorhanden ist....bin ich nicht überzeugt.

tombman
2004-07-04, 06:52:51
Original geschrieben von iam.cool
Mehr Takt heisst nicht immer mehr Leistung......
Nimm nen FX53 und nen P4EE, der FX53 mit weniger Takt ist ganz klar schneller, oder nen Centrino 1,4Ghz und nen P4 2,4Ghz, die CPU mit weniger takt ist auch hier wieder schneller.:respekt:

Lol, sowas brauchst du MIR ned sagen, ich BIN FX53 Besitzer ;)

Meine Aussage galt nur für ATi-Nvidia in diesem Zusammenhang und nicht generell ;)

BadBoy
2004-07-04, 07:02:16
Original geschrieben von tombman
Lol, sowas brauchst du MIR ned sagen, ich BIN FX53 Besitzer ;)

Meine Aussage galt nur für ATi-Nvidia in diesem Zusammenhang und nicht generell ;)

Du nervst echt mit deinem rumgeprotze

tombman
2004-07-04, 07:58:28
Original geschrieben von BadBoy
Du nervst echt mit deinem rumgeprotze

Nö, des diente nur zur Untermauerung meiner eigentlichen Aussage, die du sicher auch noch entdecken wirst...

Auffällig für mich ist nur langsam dein "Rumgeneide".

BadBoy
2004-07-04, 08:28:33
Original geschrieben von tombman
Nö, des diente nur zur Untermauerung meiner eigentlichen Aussage, die du sicher auch noch entdecken wirst...

Auffällig für mich ist nur langsam dein "Rumgeneide".

Auja ich bin neidisch auf Hardware so siehts aus du hast mich durchschaut *lol*

Madkiller
2004-07-04, 13:09:32
Original geschrieben von BadBoy
Du nervst echt mit deinem rumgeprotze

Original geschrieben von BadBoy
Auja ich bin neidisch auf Hardware so siehts aus du hast mich durchschaut *lol*




Spam/unnötige Provokation = Punkt

Nur vorsorglich für alle:
Eine Diskussion über die Verwarnung hat hier nichts zu suchen.
Da sie OT und störend für die Diskussion sind, können wir solche Diskussionen hier nicht dulden.
Dir oder auch euch bleibt aber natürlich die Möglichkeit, sich an den entsprechenden Mod selber durch eine PN zu wenden, bzw. einen Beschwerde-Thread im 3DCenter-Forum zu eröffnen.

Aber bitte hier nicht mehr!
Siehe dazu auch:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=147046

MikBach
2004-09-15, 12:59:23
Liebe Gäste,

1. Anonym und dann grosse Sprüche klopfen. Alles klar. :mad:
2. Es gibt Mods die zu ATI tendieren, aber auch welche die zu Nvidia tendieren. Das liegt in persönlichen Vorlieben begründet und hat nichts mit einer bestimmten Firma zu tun, wobei ich bei Madkiller eine Tendenz nicht klar erkenne.
3. Wenn ihr alle Postings von Tombman gelesen hättet, wüsstet ihr, dass er recht objektiv ist. Ausserdem hat er sich bestimmt beide Karten geholt um pro ATI zu sein. Alles klar. Logik?
4. Wenn ihr nichts zum Thema beizutragen habt, dann geht woanders spielen. Aber trollt bitte hier nicht rum.
5. Eure Beiträge werden wegen Spam ja eh gelöscht werden. Oder auch nicht, um zu zeigen, wie man es nicht machen sollte. ;D

aths
2004-09-15, 16:32:17
3. Wenn ihr alle Postings von Tombman gelesen hättet, wüsstet ihr, dass er recht objektiv ist. Das wäre mir neu.

saddevil
2004-09-15, 16:41:40
hi

also ich hab mich bis seite 6 odre so durchgelesen...
oje .. hier wird gezankt wie im kindergarten...

fakt ist das ATI cheatet
fakt ist das Nvidia cheatet

wie viel .. das weiß nur der "cheater" selbst

@tombman

ist doch gut für dich das deine ach so tolle ATI schneller ist..
aber hier benches aufzutischen .. wo BQ danach geurteilt wird wie die regler
gerade stehen ..
(thema ATI volle Qualität , NV auf 3/4)

gott must du gute augen haben bei 100fps *respekt*
ich seh da keine so dollen unterschiede..

@all

welche karte nun schneller ist oder eben nicht , kann theoretisch nie genau festgestellt werden..

so ziemlich alle hersteller werden gesponsert..
in wie weit da die "optimierungen" im spiel sind.. tja..

zudem wurde FARCRY auch falsch getestet..
der 1.1 patch füt ATI und der 1.2 patch für NV..

auch hier wieder optimierungen...
am reelsten wäre de 1.0 ..
die ja aber laut hier und da schon NV . optimierungen haben soll

doom III ein thema für sich...
brauch keiner zu dikutieren..

fakt ist aber das sich NV in OPENGL sehr gut schlägt und dort fast immer vorn liegt..
in D3D ist das ein 2schneidiges schwert
irgendwo hat jede karte ihre vor und nachteile..
ich selbst würde nie eine ATI an mich kommen lassen..
habe immernoch die treiberkrankheiten im kopf von früher ..

alles in allem schööner kinderquatsch hier

nettes geplauder wenn es einige nur nicht zu ernst nehmen würden..

MikBach
2004-09-15, 17:58:08
Das wäre mir neu.
Das war ja klar, dass so was von dir kommt. ;)
Du hast auch nicht alles gelesen, was Tombman so geschrieben hat. Im Kaufberatungsforum wurde die Frage gestellt ob 6800GT oder X800PRO. Rate mal was Tomban empfohlen hat. ;)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2242563&postcount=16
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2243217&postcount=23
Aber labbert ihr mal schön weiter, dass Tombman so pro ATI ist. Stimmen tut es eh nicht.

@tombman

ist doch gut für dich das deine ach so tolle ATI schneller ist..
Siehe oben.

ich selbst würde nie eine ATI an mich kommen lassen..
habe immernoch die treiberkrankheiten im kopf von früher ..
Schwachsinn. In der IT Branche ändert sich alles sehr schnell. Was vor einem Jahr noch galt, muss heute nicht mehr stimmen. Die Treiber sind heute in etwa gleichwertig. Mal gibt es Probleme bei ATI in manchen Spielen, mal bei Nvidia. Schau mal ins Nvidia-Forum, oder soll ich die Threads, wo Leute mit den Nvidiatreibern Probleme haben für dich raussuchen? ;)
Die IHVs verfolgen einen andere Treiberpolitik. ATI kommt jeden Monat mit einem Final-Treiber. Nvidia füttert ihr Kunden lieber mit vielen Betatreibern um sie als Betatester zu missbrauchen bevor ein Final kommt, was seltener als bei ATI der Fall ist.

aths
2004-09-15, 18:07:52
Aber labbert ihr mal schön weiter, dass Tombman so pro ATI ist. Stimmen tut es eh nicht.Habe ich das gesagt? Oder nur seine Objektivität in Zweifel gezogen?

Gast
2004-09-15, 18:08:14
Das war ja klar, dass so was von dir kommt. ;)
Du hast auch nicht alles gelesen, was Tombman so geschrieben hat. Im Kaufberatungsforum wurde die Frage gestellt ob 6800GT oder X800PRO. Rate mal was Tomban empfohlen hat. ;)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2242563&postcount=16
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2243217&postcount=23
Aber labbert ihr mal schön weiter, dass Tombman so pro ATI ist. Stimmen tut es eh nicht.
.

Hehe,Schalte mal dein Hirn ein junge :)
oder glaubst du echt das er das Ernst gemeint hat?
er musste das zu dem zeitpunkt so sagen :)
aber ich seh schon ,Menschenkenntnis is gleich 0 (null) :)

"Aber labbert du mal schön weiter, dass Tombman nicht pro ATI ist. Stimmen tut es eh nicht." :-)

Gast
2004-09-15, 18:09:23
Das wäre mir neu.


Das wäre uns allen neu.

MikBach
2004-09-15, 18:40:41
Hehe,Schalte mal dein Hirn ein junge :)
Ist heute seit 7.00 an ;)
oder glaubst du echt das er das Ernst gemeint hat?
Klar, oder hast du in seiner Aussage irgendwelche Smiles gesehen?
er musste das zu dem zeitpunkt so sagen :)
Und wieso? Hat man ihm eine Kanone an den Kopf gehalten? Er muss nichts sagen! Er kann, wenn er will.
aber ich seh schon ,Menschenkenntnis is gleich 0 (null) :)
Dann solltest du besser nicht das Wort ergreifen, weil du einfach keine Ahnung hast.

"Aber labbert du mal schön weiter, dass Tombman nicht pro ATI ist. Stimmen tut es eh nicht." :-)
Doch, siehe die Posts von Tombman.
Es gibt noch andere die gegen ATI sprechen.
Also labber schön weiter, stimmen tut es ja eh nicht.
BTW wenn ihr nichts zum Thema(eigene Benchmarks) beizutragen habt, dann besser nichts posten als irgendein Blödsinn. In machen Fällen triffts der Satz genau(bei euch sowieso): Reden ist Silber, Schweigen ist Gold. Also bitte.

@aths
Dein Zweifel ist berechtigt, jedoch glaube ich nicht, dass Tomban nicht objektiv ist, sonder paar mal Mist gebaut hat bei den Benchmarks. Das kann auch daran liegen, dass er in einem Rechner 2 Karten bencht. Bei ATI und Nvidia kann es da manchmal zu Falschaussagen kommen, welche nicht beabsichtigt sind.

Quasar
2004-09-15, 18:48:42
Das kann auch daran liegen, dass er in einem Rechner 2 Karten bencht. Bei ATI und Nvidia kann es da manchmal zu Falschaussagen kommen, welche nicht beabsichtigt sind.
Magst du das näher erklären?

Ich habe auch mehrere Grafikkarten hier, die mich jedoch noch nie aktiv zu Falschaussagen genötigt hätten.

edit:
Zumindest den Teil mit dem "näher erklären" meine ich durchaus ernst.

aths
2004-09-15, 18:49:55
@aths
Dein Zweifel ist berechtigt, jedoch glaube ich nicht, dass Tomban nicht objektiv ist, sonder paar mal Mist gebaut hat bei den Benchmarks. Das kann auch daran liegen, dass er in einem Rechner 2 Karten bencht. Bei ATI und Nvidia kann es da manchmal zu Falschaussagen kommen, welche nicht beabsichtigt sind.Ich glaube nicht, dass du, oder ich objektiv sind. Von Tombman glaube ich das auch nicht. Dass Tombman deutlich mehr pro-NV-Leute sieht als ATI-Fans, halte ich für ein recht sicheres Zeichen. Sein Tonfall, den er öfters an den Tag legt, halte ich für unangebracht aggressiv. (Deinen übrigens auch.) Tombman legt die Umstände oft so fest, dass das gewünschte Ergebnis herauskommt.

MikBach
2004-09-15, 19:03:42
Ich glaube nicht, dass du, oder ich objektiv sind. Von Tombman glaube ich das auch nicht. Dass Tombman deutlich mehr pro-NV-Leute sieht als ATI-Fans, halte ich für ein recht sicheres Zeichen. Sein Tonfall, den er öfters an den Tag legt, halte ich für unangebracht aggressiv. Deinen übrigens auch.
Das ist ja das Problem. Man dennkt, man schreibt(nach seinem besten Wissen und Gewissen) das richtige, aber da kommen ein paar Wichtige(meistens Gäste), die einem das Wort im Mund umdrehen. Wei soll man da nicht aus der Haut fahren?
Na ja, ich habe beschlossen einfach locker zu bleiben und meinen Tonfall zu mässigen. Für Tombman kann ich da natürlich nicht sprechen.

Magst du das näher erklären?

Ich habe auch mehrere Grafikkarten hier, die mich jedoch noch nie aktiv zu Falschaussagen genötigt hätten.
Ich denke da einfach an Treiberreste/leichen. Vor allem wenn man mit so vielen Treibern rumhantiert. Ich bin nicht Tombman und weiss nicht, was er da alles bei einem Kartenwechsel macht. Aber ich denke nicht, dass er nach einem Kartenwechsel das System neu aufsetzt, was alle Fehlinterpretationen ausschliessen würde.

Quasar
2004-09-15, 19:13:01
Ok,

Ich denke, die Mär von "Treiberleichen" wird i.d.R. großartig überschätzt.

aths
2004-09-15, 19:14:15
Das ist ja das Problem. Man dennkt, man schreibt(nach seinem besten Wissen und Gewissen) das richtige, aber da kommen ein paar Wichtige(meistens Gäste), die einem das Wort im Mund umdrehen. Wei soll man da nicht aus der Haut fahren?Indem man ruhig bleibt.

Meiner Beobachtung nach nutzen einige Regs das Fehlverhalten einiger Gäste aus, um sich ein Ventil zu schaffen und sich mal abzureagieren.

Andererseits, wie man in den Wald ruft ... Die durchwachsenen Reaktionen auf tombmans sind ja kein böser Wille. Ebensowenig unterstelle ich tombman bösen Willen. Man sollte sich in jedem Fall vernünftig verhalten. Dazu gehört Respekt voreinander, ein passender Tonfall, ebenso wie durchdachte, nachprüfbare Argumente hervorzubringen.

Merlin31
2004-09-15, 19:29:59
Hallllllllllllllllloooooooo !!!!
Es wäre auch mal wieder sehr schön, wenn es sich mal wieder um das eigentliche Thema drehen würde. Und nicht wie objektiv jemand ist.


Danke :|

tombman
2004-09-17, 02:36:57
Hallllllllllllllllloooooooo !!!!
Es wäre auch mal wieder sehr schön, wenn es sich mal wieder um das eigentliche Thema drehen würde. Und nicht wie objektiv jemand ist.


Danke :|

Naja, was willst du ihnen vorwerfen? Sie lieben mich nun mal, und ohne die tägliche Dosis "tombman" muß man eben zur Selbst..... greifen :D:D:D

@topic, jetzt macht euch mal keinen Kopf, beide Karten sind sehr gut, und nur weil die X800XTPE die meisten benchmarks gewinnt, heißt das nicht, daß man die 6800ultra in die Tonne treten kann. Die hat dafür andere Vorzüge, wie zb SS AA für alte games und das abschalten (fast) aller Optimierungen vom CP aus. I.ü. ist das CP bei nvidia auch besser, weil man so gut wie keine Zusatzsoftware braucht für overclocken, custom resolutions, custom refresh rates usw... und sm 3.0 is auch noch dabei.

Wenn man die beiden mit Autos vergleicht, wäre die 6800ultra das komfortablere Rennwagenmodell für den Macker mit der dicken Hose und die X800XTPE das gewichtsreduzierte (sm 2.b ;) )Carbon- Reinrasse-Rennwagengeschoß, das eben die besten "Rundenzeiten" (fps) fährt :D

Für mich persönlich ist dieser Kampf eh schon völlig irrelevant, denn ich bin eh bur mehr geil auf Nvidias SLI Lösung ;)
(die erste 6800ultra pci-e war sogar schon auf ebay :O -- leider nur eine, also nix mit SLI)

BiG OnE
2004-09-17, 21:29:38
Moin, moin


Für mich persönlich ist dieser Kampf eh schon völlig irrelevant, denn ich bin eh bur mehr geil auf Nvidias SLI Lösung ;)
(die erste 6800ultra pci-e war sogar schon auf ebay :O -- leider nur eine, also nix mit SLI)

selbst 2 werden dir ohne das entsprechende Mabo nix nützen.:D

Bis denne ...

tombman
2004-09-18, 05:58:00
Moin, moin



selbst 2 werden dir ohne das entsprechende Mabo nix nützen.:D

Bis denne ...

als ob es für mich ein Problem wäre solche mobos zu bekommen ;)
(kleiner Tip, Intel dual xeon mobo mit 7525 chipset sind bereits lagernd)

Mrki
2004-09-18, 10:47:13
@tombman
hast ja viel geld für sowas :D

Hellknight[FA]
2004-09-18, 11:25:25
Das bestätigt lediglich das der R300 bzw. NV30 Pfad noch nicht zufriedenstellend mit den 6800ern funktioniert.
Der Farcry Patch 1.2 wird da einiges an Mehrperformance 20-30% so hört man bringen. Dann können wir gerne nochmal vergleichen. Die jetzigen Ergebnisse sind für´n Popo. ;)

MfG

Naja - 20 bis 30% Mehrperformance?

OK - wenn NV bei FarCry die selben Optimierungen wie in Doom III vornimmt (Shader Replacement & Co.) - vielleicht. Diese Art der Optimierung ist zwar unter Reviewern (und nur unter denen!) nicht gerne gesehen, dennoch eine für mich legitime Art dem User Mehrperformance für "Killer-Apps" zu ermöglichen (solange die PQ gleich bleibt) :).

Und genau dann wird eben der von Dir geforderte "Vergleich" lt. einigen "Experten" da draussen wieder - wie schon bei Doom III - für die Katz' - also nicht möglich sein (da ATi ja globale Treiberverbesserungen forciert statt app-spezifische) :| ;D .


Grüße

Timo

Kolerazie
2004-09-18, 23:00:10
Tja! Manche rauchen andere saufen!
Warum sollen wiederum anderen da nicht lieber Geld für Hardware ausgeben?
Hauptsache die Frauen spielen da mit! :(

@tombman

Hat Du etwa schon nen Supermicro X6DA8-G2 bei Dir zu liegen?

:smile:

HockleXX
2004-09-18, 23:48:08
Jaaah Prost :D

Chrisch
2004-09-19, 00:43:32
So, vorweg... hab nich den ganzen thread gelesen...

du hast ne "normale" Ultra mit einer XT PE verglichen.

aber die XT PE ist ne übertaktete XT, takte doch mal bitte die Ultra auf
Ultra Extrem (450 / 1200Mhz) und vergleiche nochmal. Wäre mal interessand
zu wissen was bei rum kommt.

Wenn das schonmal war, postet bitte nochmal das ergebnis ^^

Gruß
Chris

tombman
2004-09-19, 01:17:50
So, vorweg... hab nich den ganzen thread gelesen...

du hast ne "normale" Ultra mit einer XT PE verglichen.

aber die XT PE ist ne übertaktete XT, takte doch mal bitte die Ultra auf
Ultra Extrem (450 / 1200Mhz) und vergleiche nochmal. Wäre mal interessand
zu wissen was bei rum kommt.

Wenn das schonmal war, postet bitte nochmal das ergebnis ^^

Gruß
Chris

es gibt keine offizielle Ultra Extreme. Es gibt aber eine offizielle XT PE.
Und offiziell definiere ich das, was ATI und Nvidia auf der homepage stehen haben und nicht was einige einzelne Hersteller übertakten und zb als golden sample Versionen verkaufen.

tombman
2004-09-19, 01:20:05
@tombman

Hat Du etwa schon nen Supermicro X6DA8-G2 bei Dir zu liegen?

:smile:

nein, hab über 2000 Euro Schulden.... da heißt ich kann mir derzeit garnix leisten. Zu allem Überfluß hat mein FX53 den Geist aufgegeben und ich hab mir einen 3.4 GHz EE gekauft um 600 euro (neu 1000 euro).

Den werde ich am So. mal testen. Ob ich für den hinnigen FX53 noch Geld von AMD bekomme is ne andere Frage...(hat wer Beziehungen? :D)

Eventuell werde ich sogar eine Graka verkaufen müssen, welche weiß ich noch ned ...

Gast
2004-09-19, 01:35:09
es gibt keine offizielle Ultra Extreme. Es gibt aber eine offizielle XT PE.
Und offiziell definiere ich das, was ATI und Nvidia auf der homepage stehen haben und nicht was einige einzelne Hersteller übertakten und zb als golden sample Versionen verkaufen.
mach trotzdem mal bitte nen bench mit 450/1200Mhz ;)

Gruß
Chris

Chrisch
2004-09-19, 01:35:49
ähm, das war gerade ich, kA warum ich ausgelockt war *LoL*

edit: es gibt auch hersteller die die nicht als "golden sample" verkaufen :D

evga z.B. ;)

Gruß
Chris

tombman
2004-09-19, 02:12:55
ähm, das war gerade ich, kA warum ich ausgelockt war *LoL*

edit: es gibt auch hersteller die die nicht als "golden sample" verkaufen :D

evga z.B. ;)

Gruß
Chris

deswegen steht da auch ganz deutlich ZB :D

btw, meine will keine 450core stabil, speicher auf 1200 geht aber locker.

Chrisch
2004-09-19, 02:19:50
welcher hersteller is denn deine Ultra? bekomm auch nächste woche 2 zum
testen ^^ (1 x Aopen und 1 x Point of View)

tombman
2004-09-19, 02:30:11
welcher hersteller is denn deine Ultra? bekomm auch nächste woche 2 zum
testen ^^ (1 x Aopen und 1 x Point of View)

Nvidia selbst ;) Die ist nicht kaufbar :D (hab sie vor laaanger Zeit von einem Gewinner des Nvidia San Francisco launch events bei ebay gekauft ;))
ALso praktisch ein Sammlerstück ;)

Die Treiber-cd ist von Nvidia GEBRANNT auf einem cdr Rohling ;) Und die verpackung zeigt NALU :D

Chrisch
2004-09-19, 02:35:40
hehe, sowas is auch nicht schlecht ;)

Ich werd nächste woche ma gucken was die Karten so machen mit LuKü :D

werden ma hart rangenommen *gg*

aber mich wundert das deine die 450Mhz nicht stabil macht, wo das doch bis
jetzt "jede" ultra geschafft hat!?! (selbst meine "ex" GT hat mit Ultra Bios
445/1200Mhz gemacht *fg* )

Gruß
Chris

tombman
2004-09-19, 03:40:41
das schafft bei weitem nicht jede ultra.. kenne einige bei denen es genauso ist...

Am Anfang nach dem Kauf ging meine auch 460 core.. aber nach Wochen ändert sich das...

Aber is eh egal... bald kommt da eine eigene Mach I drauf nur für gpu ;)

Ailuros
2004-09-19, 07:59:59
nein, hab über 2000 Euro Schulden.... da heißt ich kann mir derzeit garnix leisten. Zu allem Überfluß hat mein FX53 den Geist aufgegeben und ich hab mir einen 3.4 GHz EE gekauft um 600 euro (neu 1000 euro).

Den werde ich am So. mal testen. Ob ich für den hinnigen FX53 noch Geld von AMD bekomme is ne andere Frage...(hat wer Beziehungen? :D)

Eventuell werde ich sogar eine Graka verkaufen müssen, welche weiß ich noch ned ...

Nicht persoenlich gemeint, aber der Post erinnert mich an einen aelteren Spruch und an meine eigenen bloeden Angewohnheiten die auch des oeferen mal auftauchen:

Lebensstandard ist wenn man Geld ausgiebt dass man nicht hat, um Sachen zu kaufen die man eigentlich nicht braucht, um Leuten zu imponieren die man nicht ausstehen kann.... :D

Tarkin
2004-09-19, 12:13:57
http://www.driverheaven.net/reviews/PNY/index.htm

Forceware 66.31 WHQL
Catalyst 4.9 WHQL

Kolerazie
2004-09-19, 12:20:24
es gibt keine offizielle Ultra Extreme. Es gibt aber eine offizielle XT PE.
Und offiziell definiere ich das, was ATI und Nvidia auf der homepage stehen haben und nicht was einige einzelne Hersteller übertakten und zb als golden sample Versionen verkaufen.

Habe ne halb offizielle gefunden!

http://cgi.ebay.com/ws/eBayISAPI.dll?ViewItem&category=40161&item=5124269870&rd=1 (http://)

http://i4.ebayimg.com/03/i/02/4f/b4/f3_1_b.JPG

Liegt aber jetzt schon bei knapp 700.-$
Da kann man sich gleich ne CoolFX Ultra/2600 besorgen! :biggrin:

He jetzt aber mal im Ernst, wenn man die beiden Karten in den Händen hält,(und Sie von der Optik,Design und Gewicht her vergleicht) würdest die NVIDIA doch nie mehr hergeben wollen oder? :biggrin:

Chrisch
2004-09-19, 13:29:51
Habe ne halb offizielle gefunden!

http://cgi.ebay.com/ws/eBayISAPI.dll?ViewItem&category=40161&item=5124269870&rd=1 (http://)

http://i4.ebayimg.com/03/i/02/4f/b4/f3_1_b.JPG

Liegt aber jetzt schon bei knapp 700.-$
Da kann man sich gleich ne CoolFX Ultra/2600 besorgen! :biggrin:

He jetzt aber mal im Ernst, wenn man die beiden Karten in den Händen hält,(und Sie von der Optik,Design und Gewicht her vergleicht) würdest die NVIDIA doch nie mehr hergeben wollen oder? :biggrin:
das ist aber keine offizielle wie tombman schon gesagt hat.

offiziell isse wenn se bei nvidia auf der HP steht ;)

edit: achja, bei evga.com kostet die genau 549$ :P (die karte wird aber wöchentlich
verlost auf grund der geringen stückzahlen *fg* )

Gruß
Chris

Aquaschaf
2004-09-19, 13:33:57
Offiziell ist alles was man kaufen kann.

Chrisch
2004-09-19, 13:59:59
Offiziell ist alles was man kaufen kann.
die is aber nich offiziell von nvidia :P (sonst wär se auch aufe HP)