PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller R420 / Radeon X800 Thread


Seiten : 1 2 3 4 5 [6] 7 8 9 10

LovesuckZ
2004-05-08, 21:10:19
Original geschrieben von Sphinx
PS3.0 bietet gegenüber PS2.x "keine NEUEN Effekte" - Das ES Effektiver ist hängt von vielen Faktoren ab.

Nun, du vergleichst PS3.0 mit PS2.x. Ein interessanter Vergleich. Mit welcher Karte? Sollten man nicht PS2.0 mit PS3.0 vergleichen, weil das die Mindesstandards sind? Ansonsten kann der NV40 HDR bzw. die Funktion dafür, wodurch bessere effekte möglich sind, der NV3x unterstuetzt dies nicht!.

Frage sollte lauten ob Nvidia neuester NV4x mit PS3 schneller ist als ATI mit PS2 - wenn nicht... wenn nicht was würde uns es sagen ? - Das ist toll PS3 zuhaben
?

Warum sollte Nvidia mit PS3.0 schneller sein, wenn sie schon mit PS2.0 und FP32 konkurenzfaehig sind?

[SIZE=1]Original geschrieben von Sphinx
Und was haben wir jetzt und in näherer Zukunft von der neueren Shader-Version? Und gibt es nicht auch andere Merkmale, die die Leistungsfähigkeit eines Grafikchips ausmachen, als die unterstützte Shader Version?/Size]

Stelle dir vor, du haettest dir diese Frage im Herbst 2002 bezueglich SM2.0 gestellt. Und nun sehe dir die Grafikpracht von Farcry oder HL2 an. Hat ATi's frühe Einführung nicht für uns etwas gutes gehabt?
Tja, viele Leuten schauen nur auf die Balkenlaenge, anstatt auch mal die Feature zu loben. Aber Konsequenz ist dann nicht deren Staerke...

betasilie
2004-05-08, 21:14:13
Original geschrieben von LovesuckZ
Warum sollte Nvidia mit PS3.0 schneller sein, wenn sie schon mit PS2.0 und FP32 konkurenzfaehig sind?

Du verstehst es nicht. :eyes: Der NV40 ist nicht schnell genug Effekte zu generieren, die ausschließlich mit PS3.0 möglich sind.

Und wer in den Spielen schneller ist, zeigen die Benchmarks oder werden es zeigen.

LovesuckZ
2004-05-08, 21:16:13
Original geschrieben von betareverse
Du verstehst es nicht. :eyes: Der NV40 ist nicht schnell genug Effekte zu generieren, die ausschließlich mit PS3.0 möglich sind.


Ach, das weißt du woher? Interessant, ohne auch nur Test darzulegen.

/edit: Und wenn, ohne NV40 -> Keine Spieleunterstuetzung. Easy nicht?

Quasar
2004-05-08, 21:17:43
Original geschrieben von betareverse
Du verstehst es nicht. :eyes: Der NV40 ist nicht schnell genug Effekte zu generieren, die ausschließlich mit PS3.0 möglich sind.

Moment? Ich denke, daß alles, was mit SM3.0 möglich ist, auch SM2.0 kann?

Was für Effekte meinst du jetzt?

betasilie
2004-05-08, 21:20:10
Original geschrieben von LovesuckZ
Ach, das weißt du woher? Interessant, ohne auch nur Test darzulegen.

/edit: Und wenn, ohne NV40 -> Keine Spieleunterstuetzung. Easy nicht?
Weil das schon oft genug durchgekaut wurde. Du willst leider nur immer das sehen, was dir gefällt. :(

Einmal gibst Du mir recht, dass SM3.0 beim NV40 nur zum beschleunigen eingesetzt werden, und im nächsten Thread behauptest Du wieder das Gegenteil. Sehr seltsam. Wie das Fähnchen im Wind.

MadMan2k
2004-05-08, 21:20:47
Original geschrieben von Quasar
Moment? Ich denke, daß alles, was mit SM3.0 möglich ist, auch SM2.0 kann?

Was für Effekte meinst du jetzt?
Sahder die ordentliches Branching brauchen (welches der NV40 nicht bietet), weil sie auf PS2.0 langsam laufen würden.

betasilie
2004-05-08, 21:27:27
Original geschrieben von Quasar
Moment? Ich denke, daß alles, was mit SM3.0 möglich ist, auch SM2.0 kann?

Was für Effekte meinst du jetzt?
Wir reden hier vom performanten Bereich, oder nicht?

Vielleicht können PS2.0 theoretisch alles was auch PS3.0 können, aber es wird wohl eine kritsiche Grenze bei der Shaderkomplexität geben, wo PS2.0 einfach zu unperformant werden.

Ich behaupte aber mal, dass der NV40 nicht ausreichend performant ist, um diese Vorzüge von PS3.0 auszureizen.

Und daher werden beim NV40 "nur" Funktionen genutzt werden, die ihm einen Performanceboost geben, aber halt keine Sachen, die die PS-Units des R300 nicht auch performant rendern können.

Und daher muss man einfach mal abwarten, wie sehr der NV40 in Sachen Geschwindigkeit von den kommenden Spielen profitiert, wenn er seine PS3.0 zum Einsatz bringen kann. FarCry wird wohl das erste Spiel werden, wenn DX9.0c endlich kommt.

ow
2004-05-08, 21:33:26
.

betasilie
2004-05-08, 21:40:50
Original geschrieben von ow
Also wieso ist hier meist nur von PS3 die Rede?
Was ist denn mit VS3.0?
Ich denke schlimmer noch ist dieses WischiWaschi. Einmal wird nur von geschwindigkeitsvorteilen geredet und dann wieder von den einmaligen optischen Vorteilen von SM3.0.

Ich schließe mich gerne der Meniung an, dass Teile von SM3.0 sehr gut eingesetzt werden können, um ein Spiel im Vergleich zur SM2.0 Nutzung zu beschleunigen. ... Einige andere wissen scheinbar nicht was sie meinen und ihre Aussagen unterscheiden sich daher von Thread zu Thread.

Die Frage ist schlicht welche Funktionen aus SM3.0 werden in kommenden Spielen Verwendung finden und wieviel Performance wird es bringen. ... Ich kann diese Frage nicht beantworten.

LovesuckZ
2004-05-08, 21:42:02
Original geschrieben von betareverse
Einmal gibst Du mir recht, dass SM3.0 beim NV40 nur zum beschleunigen eingesetzt werden, und im nächsten Thread behauptest Du wieder das Gegenteil. Sehr seltsam. Wie das Fähnchen im Wind.

Dann zeige mir doch mal, wo ich dies behauptete.

MikBach
2004-05-08, 21:43:22
Original geschrieben von ow
Also wieso ist hier meist nur von PS3 die Rede?
Was ist denn mit VS3.0?

Imo limitieren die Pixelshader(Performance).
VS-Power ist genug vorhanden.
DM ist ein gutes Feature, aber bald werden wir es in Spielen nicht zu Gesicht bekommen. Zumindest "richtiges" adaptives Displacement Mapping, wovon ich sehr begeistert bin. :)
Oder was meinst du jetzt? :kratz:

Sphinx
2004-05-08, 21:59:50
Original geschrieben von betareverse
Die Frage ist schlicht welche Funktionen aus SM3.0 werden in kommenden Spielen Verwendung finden und wieviel Performance wird es bringen. ... Ich kann diese Frage nicht beantworten.

^^ Diese Frage gilt zu beantworten und zu beweisen. Alle theoretischen schnickschacks sind eh für die Tonne - da uns die PS2.x vs PS2.0 Diskussion sehr wohl gezeigt hat das nicht alles so rosarot und blumig ist wie es sich ließst und einige daraus alles mögliche ableiten und und und...

Schon alleine Frage ich mich - ist denn der NV4x um ein VIELFACHES schneller oder NICHT ?!* - als der R420 wie einige liebe aufmerksame Poster die Zukunft vorrausgesagt haben...

*Zur Zeit Nicht...


Edited : Ja auch ich mach mal Rechtschreibfehler

LovesuckZ
2004-05-08, 22:07:15
Original geschrieben von Sphinx
^^ Diese Frage gilt zu beantworten und zu beweisen. Alle theoretischen schnickschacks sind eh für die Tonne - da uns die PS2.x vs PS2.0 Diskussion sehr wohl gezeigt hat das nicht alles so rosarot und blumig ist wie es sich ließst und einige daraus alles mögliche ableiten und und und...


Hoffen wir, dass r3xx User nicht in zukünftigen Spielen von qualitaetbringenden und anweisungsreichen Shadern ausgeschlossen werden!

MikBach
2004-05-08, 22:10:09
Original geschrieben von LovesuckZ
Hoffen wir, dass r3xx User nicht in zukünftigen Spielen von qualitaetbringenden und anweisungsreichen Shadern ausgeschlossen werden!

Dann werden auch die User vom NV3x ausgeschlossen, weil die performance nicht ausreicht.;)

LovesuckZ
2004-05-08, 22:10:55
Original geschrieben von MikBach
Dann werden auch die User vom NV3x ausgeschlossen, weil die performance nicht ausreicht.;)

Werden sie das nicht jetzt schon, wie von einigen propragiert (hm, *hust*)?

betasilie
2004-05-08, 22:12:39
Original geschrieben von MikBach
Dann werden auch die User vom NV3x ausgeschlossen, weil die performance nicht ausreicht.;)
Die werden doch jetzt schon ausgeschlossen, wie man an FarCry sieht. :)

Demirug
2004-05-08, 22:18:35
Original geschrieben von MikBach
Imo limitieren die Pixelshader(Performance).
VS-Power ist genug vorhanden.
DM ist ein gutes Feature, aber bald werden wir es in Spielen nicht zu Gesicht bekommen. Zumindest "richtiges" adaptives Displacement Mapping, wovon ich sehr begeistert bin. :)
Oder was meinst du jetzt? :kratz:

Die VS-Features des SM3 können zur Entlastung der CPU eingesetzt werden.

MikBach
2004-05-08, 22:19:15
Original geschrieben von LovesuckZ
Werden sie das nicht jetzt schon, wie von einigen propragiert (hm, *hust*)?

Doch siehe FarCry.
Ich will nicht mit "bescheidener" Qualität leben, mit welcher man noch nicht mal das Konkurrenzprodutkt(mit besserer Qualität) in Sachen Performance erreicht.

Ich dachte, das Thema R(V)3x0/NV3x wäre mit klaren Vorteilen für ATI ausdiskutiert, oder haben wir da noch Bedarf?

:D

Ne, kein Flamewar bitte!

LovesuckZ
2004-05-08, 22:20:41
Original geschrieben von MikBach
Doch siehe FarCry.
Ich will nicht mit "bescheidener" Qualität leben, mit welcher man noch nicht mal das Konkurrenzprodutkt(mit besserer Qualität) in Sachen Performance erreicht.


Dann beschwer dich bei Crytek.

Quasar
2004-05-08, 22:21:15
Wenn du nicht mit "qualität" angefangen hättest....

MikBach
2004-05-08, 22:21:21
Original geschrieben von Demirug
Die VS-Features des SM3 können zur Entlastung der CPU eingesetzt werden.

Das ist mir bekannt, will jedoch die "Beweise" sehen, bevor ich mir ein Urteil bilde, genauso wie SM3.0 und 3Dc.

LovesuckZ
2004-05-08, 22:21:26
Original geschrieben von Demirug
Die VS-Features des SM3 können zur Entlastung der CPU eingesetzt werden.

Muss es dazu zu einer extra Anassung der Engine kommen oder geht das auch durch den Treiber?

reunion
2004-05-08, 22:24:03
Hat der R420 eigendlich noch Overdrive?

deekey777
2004-05-08, 22:25:31
Original geschrieben von reunion
Hat der R420 eigendlich noch Overdrive?

Hm keine Ahnung, aber eine serienmässige Lüftersteuerung.

MikBach
2004-05-08, 22:28:07
Original geschrieben von LovesuckZ
Muss es dazu zu einer extra Anpassung der Engine kommen oder geht das auch durch den Treiber?

Natürlich muss man das programmieren, oder denkst du das geht von alleine? ?(

Die Engine an sich in davon nicht so sehr beinflusst. Man muss es einfach extra proggen.

reunion
2004-05-08, 22:33:27
Original geschrieben von deekey777
Hm keine Ahnung, aber eine serienmässige Lüftersteuerung.

Für was braucht man bitte eine Lüftersteuerung, der Lüfter soll doch nur 1 Sone laut sein, also praktisch nicht hörbar...

deekey777
2004-05-08, 22:37:05
Original geschrieben von reunion
Für was braucht man bitte eine Lüftersteuerung, der Lüfter soll doch nur 1 Sone laut sein, also praktisch nicht hörbar...

Für Overdrive, welches im verwendeten Betatreiber (6444) noch nicht aktivierbar war (siehe PCGH 06/04, Seite 54).

Aber das Sideband Adressing soll verfügbar sein!:D

tokugawa
2004-05-08, 22:53:44
Original geschrieben von MikBach
Das ist mir bekannt, will jedoch die "Beweise" sehen, bevor ich mir ein Urteil bilde, genauso wie SM3.0 und 3Dc.

Du willst einen Beweis dass VS 3.0 die CPU entlasten kann?


Schon die früheren Vertex Shader konnten die CPU entlasten.

Die Anwendung die mir grad so einfällt wäre in Bezug auf (Skeletal) Animation - möglicherweise noch mit Vertex Weights.

Die Arbeit, jeden Vertex bezüglich des (gewichteten) Einflusses der Joints/Bones zu transformieren, würde normal über die CPU gehen, und man könnte das halt in die Vertex Shader verlagern.

Man hatte allerdings nur eine limitierte Anzahl an Transformationsmatrizen, die man an den VS übergeben konnte.

Ich bin mir ziemlich sicher dass VS 3.0 eine erhöhte Standardanzahl an Matrizen, die man an den VS übergeben kann, hat, dadurch ist es möglich, noch mehr Joints zu haben, und dadurch eine feinere Animation.

Nur ein Beispiel, es gibt sicher noch mehr. Aber es ist auf jeden Fall ein Beweis zur Aussage "VS (3.0) kann die CPU entlasten".

tokugawa
2004-05-08, 22:58:54
Original geschrieben von MikBach
Natürlich muss man das programmieren, oder denkst du das geht von alleine? ?(

Die Engine an sich in davon nicht so sehr beinflusst. Man muss es einfach extra proggen.

Beim Vertex Shader stimmt das, da es beim Anwendungsgebiet der Vertex Shader (normalerweise zur Deformierung/Animation und ähnliches) auch eine gewisse Vorbereitung von Seiten der Vertizes die man reinfüttert, benötigt - das kommt allerdings auf den Vertexshader an. Es wird sicher Anwendungsgebiete geben, wo man einfach einen VS 3.0 anstatt eines VS 2.0 "reinschupfen" kann, ohne viel zu ändern (einfach neu kompilieren).

Bei Pixel Shadern, die normalerweise bzw. oft ein Material/Oberfläche darstellen, ist es aber fast immer möglich, den so zu erstellen (in Shader Authoring Tools wie Rendermonkey und FX Composer), zu speichern, und dann einfach "in die Engine zu schupfen".

EDIT: mit speziellen Formaten die noch mehr Informationen (über Passes usw.) speichern wie das .fx Format, geht es sogar noch direkter.

Eigentlich sind die ganzen Shader Authoring Tools genau deswegen gemacht worden: man kann Effekte und Shader seperat vom Spiel und von der Engine programmieren und tweaken, speichern und so richtig horten, und dann immer dann wenn man sie einsetzen kann "einfach in die Engine schupfen" (vorrausgesetzt, sie unterstützt schon Shader).

D.h. in eine Engine, die schon Shader 2.0 verwendet, kann man mit vergleichsweise geringem Aufwand 3.0er-Shader schupfen.

Im Idealfall programmiert man dann _nur_ die Shader selbst. Mit Authoring Tools geht das recht leicht, außerdem bin ich mir sicher dass jeder Shader Programmierer bereits Shader-Ideen "in der Schublade" hat, die die Limitationen vom 2.0er-Shader-Modell sprengen, und sie daher nicht verwenden konnte - bis jetzt.

bnmbnm
2004-05-08, 23:00:40
GeCube präsentert ATI X800 Karte

Als ein weiterer Hersteller hat nun GeCube eine ATI X800 Grafikkarte vorgestellt. Die X800PRO256 verfügt über 256 MB GDDR3 Speicher und läuft mit den Referenztaktraten einer ATI X800 Pro. Die Lieferbarkeit wird mit Anfang Mai angegeben, die Karte sollte also schon bald in den Regalen der Händler stehen. Voraussichtlich wird sie sich nicht von den typischen ATI-Karten unterscheiden - auch nicht in der Performance.

http://www.hardwareluxx.de/andreas/News/X800PROV1_540.jpg

zu Asus

Heute hat ASUS seine X800 Grafikkarten-Serie vorgestellt. Es handelt sich dabei um die beiden Modelle AX800 XT und AX800 PRO mit X800 XT bzw. X800 Pro Chip. Die AX800 XT hat einen Chiptakt von 520 MHz und 256 MB GDDR3 Speicher mit 1.12 GHz. Die AX800 PRO taktet mit 475 MHz und hat ebenfalls 256 MB GDDR3 Speicher, der dann mit 900 MHz taktet. Die AX800 Pro soll Ende Mai im Laden stehen, die XT-Version wird noch etwas länger brauchen. ASUS nVidia-Karten werden dabei noch länger auf sich warten lassen - dann aber als Single-Slot-Versionen auf den Markt kommen.

HIS zeigt X800Pro Karten

Nachdem nun bereits schon diverse Hersteller ATI X800 Karten vorgestellt haben, will dem HIS natürlich in nichts nachstehen und präsentierte nun ebenfalls seine neuen ATI Grafikkarte HIS Excalibur X800Pro. Dabei wird es mit den Modellen HIS Excalibur X800Pro 256MB IceQ Edition Platinum Pack, HIS Excalibur X800Pro 256MB VIVO Edition Platinum Pack und HIS Excalibur X800Pro 256MB Platinum Pack gleich drei verschieden ausgestattete Versionen geben. Alle verfügen über 12 Pixel-Pipelines, 6 Vertex-Shader, einen Chiptakt von 475 MHz und einen Speichertakt von 450 MHz. Der Endkundenpreis soll bei 389,00 € bzw. 409,00 € liegen.

http://www.hardwareluxx.de/andreas/News/X800PROS1600.jpg

Quasar
2004-05-08, 23:01:40
Allein schon der erhöhte Instruktion-Count und das (hier viel billigere) Branching sind zumindest dafür gut, mehrere "kleine" VS zu einem großen zusammenzufassen (ging auch schon mit nV3x). Durch die niedrige Zahl an Aufrufen usw. spart man schonmal CPU-Zeit.

MikBach
2004-05-08, 23:10:03
Original geschrieben von tokugawa
Du willst einen Beweis dass VS 3.0 die CPU entlasten kann?


Schon die früheren Vertex Shader konnten die CPU entlasten.

Die Anwendung die mir grad so einfällt wäre in Bezug auf (Skeletal) Animation - möglicherweise noch mit Vertex Weights.

Die Arbeit, jeden Vertex bezüglich des (gewichteten) Einflusses der Joints/Bones zu transformieren, würde normal über die CPU gehen, und man könnte das halt in die Vertex Shader verlagern.

Man hatte allerdings nur eine limitierte Anzahl an Transformationsmatrizen, die man an den VS übergeben konnte.

Ich bin mir ziemlich sicher dass VS 3.0 eine erhöhte Standardanzahl an Matrizen, die man an den VS übergeben kann, hat, dadurch ist es möglich, noch mehr Joints zu haben, und dadurch eine feinere Animation.

Nur ein Beispiel, es gibt sicher noch mehr. Aber es ist auf jeden Fall ein Beweis zur Aussage "VS (3.0) kann die CPU entlasten".
Beispiele, dass der VS die CPU entlasten kann, kenne ich.
Ich will Beweise in Spielen sehen, nicht die trockene Theorie. ;) Dass man mit dem SM3.0 Performanevorteile erziehlen kann ist mir auch bekannt. Die Frage ist nur, kann der NV40 das wirklich verwirklichen, oder müssen wir auf den NV50/R500 warten?
Wenn die Spiele das "beweisen", was du uns hier erzählst, Respekt.
Das kann man aber jetzt nicht wirklich beweisen.
Deswegen müssen wir abwarten.
Aussedem stellt sich wie immer die Frage, wie performant der NV40 hier sein kann?

tokugawa
2004-05-08, 23:17:37
Original geschrieben von MikBach
Beispiele, dass der VS die CPU entlasten kann, kenne ich.
Ich will Beweise in Spielen sehen, nicht die trockene Theorie. ;) Dass man mit dem SM3.0 Performanevorteile erziehlen kann ist mir auch bekannt. Die Frage ist nur, kann der NV40 das wirklich verwirklichen, oder müssen wir auf den NV50/R500 warten?
Wenn die Spiele das "beweisen", was du uns hier erzählst, Respekt.
Das kann man aber jetzt nicht wirklich beweisen.
Deswegen müssen wir abwarten.
Aussedem stellt sich wie immer die Frage, wie performant der NV40 hier sein kann?

Doch, das kann man jetzt und hier beweisen.

Dieses Vertexskinning/blending in Hardware über VS wird schon heute eingesetzt. Aber da gibt es ein Limit an Joints, die man dem Vertex Shader übergeben kann (ich glaube 8 Matrizen bei GF FX oder so).

Wenn mit VS 3.0 die Limits höhergesetzt sind (was ich schon annehme), kann man mehr als 8 Joints übergeben.

Mit anderen Worten, die Funktionalität (und sogar der Code fast) wäre vom VS 3.0 gleich wie bei der VS 2.0 Version, aber sie kann mehr Transform-Matrizen übergeben bekommen.

Vom logischen Standpunkt ist das ein Beweis, dass mit VS 3.0 wie auch mit VS 2.0 die CPU entlastet werden können (und eben dass mit VS 3.0 dabei die Limitierungen höher gesetzt sind). Dies ist nur eine logische Fortsetzung als was heute schon eingesetzt wird, und keine reine Theorie.

w.z.z.w.

(Falls du ein konkretes Spiel sehen willst, muß ich dich entweder auf aktuelle Titel verweisen, oder dich bitten bis Ende des Semesters (Juni) zu warten, wenn in der Laborübung auf meiner Uni, wo ich als Tutor/Studienassistent tätig bin, die Teams ihre Spiele fertiggestellt haben - da ist ein Spiel dabei das eben so einen Vertex Shader für Skeletal Animation Vertex Blending verwendet).

nivea
2004-05-09, 00:29:43
Das die Partner von ATI bald Ihre X800*.* Produkte in den Channel liefern untermauert nocheinmal die Sahnetorte "ATI"

Schnellster Chip und schnell VERFÜGBAR!

Was will mann mehr als Gamer von heute! Beste Performance mit bester Bildqualität unter aktuellen Spielen.

tokugawa
2004-05-09, 00:42:01
Original geschrieben von nivea
Das die Partner von ATI bald Ihre X800*.* Produkte in den Channel liefern untermauert nocheinmal die Sahnetorte "ATI"


Beton+Ziegelsteine in der Sahnetorte können einem aber die Suppe gehörig versalzen :D

Original geschrieben von nivea
Schnellster Chip und schnell VERFÜGBAR!

Was will mann mehr als Gamer von heute! Beste Performance mit bester Bildqualität unter aktuellen Spielen.

"man".

Als Gamer will ich billige Grafikkarten und nicht 300+ Euro Zeug...

Mal sehen wie die Situation im Mainstream Segment aussehen wird... weiß man/wer da schon genaueres?

Sphinx
2004-05-09, 00:59:50
Original geschrieben von tokugawa
"man".

Als Gamer will ich billige Grafikkarten und nicht 300+ Euro Zeug...

Mal sehen wie die Situation im Mainstream Segment aussehen wird... weiß man/wer da schon genaueres?

Als Gamer (habe ich) hat man das nötige Kleingeld ansonsten...

Nur sinnvoll anlegen möchte ich es schon...

nivea
2004-05-09, 01:09:51
Original geschrieben von Sphinx
Als Gamer (habe ich) hat man das nötige Kleingeld ansonsten...

Nur sinnvoll anlegen möchte ich es schon...


Das sehe ich genauso, evtl. sollte mann überlegen ob nicht ein Systemwechsel zu PCI-Express die sicherste Investition wäre hinsichtlich €'s sparen.

tokugawa
2004-05-09, 01:14:41
Original geschrieben von nivea
Das sehe ich genauso, evtl. sollte mann überlegen ob nicht ein Systemwechsel zu PCI-Express die sicherste Investition wäre hinsichtlich €'s sparen.

Aus Erfahrung kann ich zumindest sagen, dass die optimale Ersparnis darin liegt, Mainstream zu kaufen (~170 bis 200 Euro) und dafür ein halbes Jahr früher upzugraden als es mit High-End-Hardware der Fall wäre.

Wer will kann sich ja den optimalen Punkt zwischen Performance/Haltbarkeit (also Zeitpunkt ab dem man upgraden muß um das Spielgefühl nicht zu beeinträchtigen) und Preis.

Ich empfehle hierfür die Simplex-Methode :D

r@h
2004-05-09, 02:54:36
Original geschrieben von tokugawa
Ich empfehle hierfür die Simplex-Methode :D Ich hingegen empfehle die Razor-Methode !
;D

Kaufe JETZT was Vernünftiges und behalte dies dann möglichst lange...
...bis etwas kommt, was eine neue Hardware zwingend erfordert.
(nicht vom Speed, sondern vom Featureset her ;-)

So geschehen bei

- TNT/Voodoo2-Kombo (485€)
- gfddr (332€)
- gf3 (444€)
- gf59 (316€)

Die gf59 wird wohl aber die kürzeste 'Halbwärtszeit' haben, da sie wohl nur maximal ein Jahr (wenn überhaupt) im Rechner sein wird. Alle anderen haben da ca. 2 jahre 'ausgeharrt'.Zudem bekomme ich demnächst auch noch 'ne R9800p geschenkt (ist in 'nem Rechner drin, der als Server eingesetzt werden soll ;-), die ich dann wohl gleich mit verkaufen werde... so wird mich ein NV40 hoffentlich nicht mehr viel kosten... habe noch viiiieeeellle andere Verwendungsmöglicheiten von 'Geld' !
:D

Razor

P.S.: vermutlich wird aber die 'GL'-Version reichen... ;)

MarcWessels
2004-05-09, 03:22:35
Original geschrieben von reunion
Und das frisst bei Painkiller soviel Leistung?
Leo hat da mal was von 4-5% gemessen...

Leo's Rechner ist auch nicht grad der Schnellste, weshalb die gemessen Unterschiede zwischen bri und tri DEUTLICH zu gering ausfallen.

betasilie
2004-05-09, 04:34:28
Original geschrieben von MarcWessels
Leo's Rechner ist auch nicht grad der Schnellste, weshalb die gemessen Unterschiede zwischen bri und tri DEUTLICH zu gering ausfallen.
Jo, da hat der Marc recht. :spuck: ... :freak:

Sphinx
2004-05-09, 05:00:12
Original geschrieben von r@h
Ich hingegen empfehle die Razor-Methode !
;D


Nvidia wird es dir danken...

LovesuckZ
2004-05-09, 08:28:12
Original geschrieben von Sphinx
Als Gamer (habe ich) hat man das nötige Kleingeld ansonsten...
Nur sinnvoll anlegen möchte ich es schon...

Dann brauch sich der gemeine Gamer auch nicht über die Stromkosten beschweren, denn Geld hat er ja wohl...

Nivea
2004-05-09, 09:14:44
Original geschrieben von LovesuckZ
Dann brauch sich der gemeine Gamer auch nicht über die stromkosten ebschweren, denn Geld hater ja wohl...

Stimmt,

der Aufpreis für eine NV40 pro Jahr sind ca. 100€ an Stromkosten mehr !!!!

Quelle: http://www.thema-energie.de

xL|Sonic
2004-05-09, 09:56:17
Mal ne andere Frage, glaubt ihr, dass ATI demnächst noch ne neue Grafikkarte rausbringt ? Also ich meine damit so eine wie die 6800 GT von nvidia, wei ATI doch ziemlich chancenlos ist mit der XT und der Pro gegen nvidias gt, ultra und ultra extreme.
Wie man ja schon in einigen Tests sehen kann, hat die x800 Pro nicht soviele chancen gegen die GT, weil sie nur über 12 und nicht 16 pipes verfügt, preislich aber auf dem gleichen niveau liegt. Auf der anderen Seite hat nvidia in meinen Augen auch eine grafikkatrte zuviel auf den Markt geworfen, die 6800 Ultra führt meiner Meinung nach kein Berechtigungsdasein, mit 499€ so teuer wie die x800 XT, aber langsamer. Dafür gibt es den direkten Konkurrenten zur XT oder PE wie man sie auch nennen kann mit der ultra extreme.


P.S.: Weiss jemand, wann die x800 XT erscheinen soll ?
Stimmt Ende Mai, was ich auf golem.de mal gelesen habe ?

Danny007
2004-05-09, 10:05:49
Original geschrieben von Nivea
Stimmt,

der Aufpreis für eine NV40 pro Jahr sind ca. 100€ an Stromkosten mehr !!!!

Quelle: http://www.thema-energie.de Ja wenn die Karten 24 Stunden am Tag unter Vollast laufen würden, könnte 100 Euro unterschied im Jahr sein.

Nvidia ca. 50 Watt mehr unter Vollast.

Gehen wir mal von 8 Stunden am Tag aus und 30 Tage im Monat. Sind 400 Watt pro Tag und 12 kw pro Monat.
Ich glaube kaum das einer 8 Stunden am Tag zockt. Und das jeden Tag. Also könnte es vieleicht sogar etwas weniger sein.

12 kw im Monat x 0,1653 Euro/kWh (Preis zur Zeit bei meinen Stromanbieter) = 1,98 Euro im Monat mehr kosten. Wäre dann ca. 24 Euro im Jahr.

Das gilt natürlich nur für die Toppmodelle von ATI und NVidia. Bei den kleineren Karten ist der unterschied kleiner.

Da NVidia mehr Transistoren hat, müssen die halt mit dem etwas grösseren Verlust rechnen.

StefanV
2004-05-09, 10:10:07
Original geschrieben von tokugawa
"man".

Als Gamer will ich billige Grafikkarten und nicht 300+ Euro Zeug...

Mal sehen wie die Situation im Mainstream Segment aussehen wird... weiß man/wer da schon genaueres?

Bisher nicht.

Es scheint aber so, als würde ATI die 9800er Reihe momentan noch weiterführen.

Eventuell wird sie durch die RV380 ersetzt werden (hat die RV380 eigentlich ein 256bit Interface oder ein 128bit??
Tippe eher auf 128bit, sonst könnte man den Chip nicht pinkompatibel zu den anderen RVs halten).

Vielleicht bringt ATI aber auch eine niedrig getaktete 12 Pipe Version raus...

StefanV
2004-05-09, 10:12:33
Original geschrieben von Danny007
(...)

Nvidia ca. 50 Watt mehr unter Vollast.


(...)

Das gilt natürlich nur für die Toppmodelle von ATI und NVidia. Bei den kleineren Karten ist der unterschied kleiner.

Da NVidia mehr Transistoren hat, müssen die halt mit dem etwas grösseren Verlust rechnen.

1. mit anderen Worten: man braucht mehr AKWs, wenn (zu) viele auf die FX6800 ULTRA umsteigen :freak:

2. naja, dafür sind die ATI Karten meist auch etwas höher getaktet, so relativiert sich das ganze...

3. da ATI in einem Low K Prozess fertigen lässt, müssen die halt mit dem etwas (mehr) kleinerem Verlust rechnen :eyes:

r@h
2004-05-09, 10:29:29
Original geschrieben von Nivea
der Aufpreis für eine NV40 pro Jahr sind ca. 100€ an Stromkosten mehr !!!! *vorlachenfastvomstuhlgefallen*
:lolaway:

Razor

r@h
2004-05-09, 10:33:41
Original geschrieben von Danny007
Ja wenn die Karten 24 Stunden am Tag unter Vollast laufen würden, könnte 100 Euro unterschied im Jahr sein.

Nvidia ca. 50 Watt mehr unter Vollast.

Gehen wir mal von 8 Stunden am Tag aus und 30 Tage im Monat. Sind 400 Watt pro Tag und 12 kw pro Monat.
Ich glaube kaum das einer 8 Stunden am Tag zockt. Und das jeden Tag. Also könnte es vieleicht sogar etwas weniger sein.

12 kw im Monat x 0,1653 Euro/kWh (Preis zur Zeit bei meinen Stromanbieter) = 1,98 Euro im Monat mehr kosten. Wäre dann ca. 24 Euro im Jahr.

Das gilt natürlich nur für die Toppmodelle von ATI und NVidia. Bei den kleineren Karten ist der unterschied kleiner.

Da NVidia mehr Transistoren hat, müssen die halt mit dem etwas grösseren Verlust rechnen. Und Du vergisst, dass ich im Winter dann im Arbeits-(Kinder- ;-) Zimmer weniger heizen muss und sich das dann noch ein wenig ausgleicht.

Also ich finde diese Diskussion geht in die eindeutig falsche Richtung !
Eine absolute sinnlos-basis für eine Kaufentscheidung.

Zumal wohl bei den meisten hier 'eh noch die Eltern den Strom zahlen... und Pappi die GraKa.
:D

Razor

r@h
2004-05-09, 10:35:58
Original geschrieben von Stefan Payne
1. mit anderen Worten: man braucht mehr AKWs, wenn (zu) viele auf die FX6800 ULTRA umsteigen :freak:
2. naja, dafür sind die ATI Karten meist auch etwas höher getaktet, so relativiert sich das ganze...
3. da ATI in einem Low K Prozess fertigen lässt, müssen die halt mit dem etwas (mehr) kleinerem Verlust rechnen :eyes: War das jetzt Absicht, oder trollst/flamest Du in letzter Zeit einfach wieder gerne ?
:D

Razor
P.S.: soll ich mal auf's Knöpfchen dürcken ? *eg*

Sphinx
2004-05-09, 11:24:58
Original geschrieben von LovesuckZ
Dann brauch sich der gemeine Gamer auch nicht über die stromkosten ebschweren, denn Geld hater ja wohl...

Stimmt ,=) da meine PC´s laufen eh rund um die Uhr...
Aber andererseits habe ich meinen 21" in die Rente geschickt und vergnüge mich eines 17" TFT´s das macht alles wieder mehr Fett als es eh schon ist.

nivea
2004-05-09, 13:24:06
Original geschrieben von Valmar
Mal ne andere Frage, glaubt ihr, dass ATI demnächst noch ne neue Grafikkarte rausbringt ? Also ich meine damit so eine wie die 6800 GT von nvidia, wei ATI doch ziemlich chancenlos ist mit der XT und der Pro gegen nvidias gt, ultra und ultra extreme.
Wie man ja schon in einigen Tests sehen kann, hat die x800 Pro nicht soviele chancen gegen die GT, weil sie nur über 12 und nicht 16 pipes verfügt, preislich aber auf dem gleichen niveau liegt. Auf der anderen Seite hat nvidia in meinen Augen auch eine grafikkatrte zuviel auf den Markt geworfen, die 6800 Ultra führt meiner Meinung nach kein Berechtigungsdasein, mit 499€ so teuer wie die x800 XT, aber langsamer. Dafür gibt es den direkten Konkurrenten zur XT oder PE wie man sie auch nennen kann mit der ultra extreme.


P.S.: Weiss jemand, wann die x800 XT erscheinen soll ?
Stimmt Ende Mai, was ich auf golem.de mal gelesen habe ?


Du Träumer! die NV40 hat VERLOREN!!!!!

nivea
2004-05-09, 13:26:10
Original geschrieben von Stefan Payne
1. mit anderen Worten: man braucht mehr AKWs, wenn (zu) viele auf die FX6800 ULTRA umsteigen :freak:

2. naja, dafür sind die ATI Karten meist auch etwas höher getaktet, so relativiert sich das ganze...

3. da ATI in einem Low K Prozess fertigen lässt, müssen die halt mit dem etwas (mehr) kleinerem Verlust rechnen :eyes:


zu 2.) Völliger Blödsinn! Die NV40 ist der Stromfresser, da relativiert sich gar nix!

tokugawa
2004-05-09, 13:35:59
nivea, nimm mal deine Medikamente und lehn dich zurück.

"Verlieren" würd ich nicht sagen, eher Gleichstand.

"Verlieren" und "gewinnen" kann man höchstens als persönliche Meinung sagen.

Für mich gewinnt die NV40 aufgrund Features und Geschwindigkeit (da mir Geschwindigkeit allein nicht genug ist, außerdem find ich die Features sexier, da ich auch Grafiksachen programmiere).

Also bitte nicht immer so pauschal urteilen! Für dich mag die ATI Karte gewinnen, aber das heißt nicht dass der NV40 der allgemeine Verlierer für jeden ist.


Immerhin haben im Vorfeld schon einige gesagt, dass wenn die ATI nicht mehr als 10% schneller ist in allem, dass sie dann zur NV40 greifen würden. Ich gehöre ebenfalls zu dieser Gruppe.

Und da die ATI Karte nun mal nicht durchgehend >10% schneller ist, ist die Entscheidung für mich persönlich klar.

Natürlich, du hast eine andere Meinung, aber deklariere sie auch so. Die NV40 ist in einigen Aspekten eben _nicht_ der Verlierer. Objektiv betrachtet würde ich eben von einem Gleichstand sprechen, aber das mögen Fanboys nicht (die haben lieber, dass deren Lieblingsfirma die Konkurrenz plattmacht, aus welchem Grund auch immer. Versteh ich überhaupt nicht, denn was bringt es den Fanboys?).

ironMonkey
2004-05-09, 13:37:54
Original geschrieben von nivea
Du Träumer! die NV40 hat VERLOREN!!!!!

LESEN!!!!!!!


Es schreibts selbst das die XT besser( besser gesagt derzeit schneller) als die Ultra ist aber mit der GT ist NV eben besser dran als ATI mit der Pro da die GT ja nur weniger takt hat aber der Pro neben weniger Taklt auch noch 4 Pipes fehlen zur XT.


Gruß

tokugawa
2004-05-09, 13:38:29
Original geschrieben von Sphinx
Stimmt ,=) da meine PC´s laufen eh rund um die Uhr...
Aber andererseits habe ich meinen 21" in die Rente geschickt und vergnüge mich eines 17" TFT´s das macht alles wieder mehr Fett als es eh schon ist.


Hm, ein TFT spart wirklich so viel mehr Strom?

Überleg mir nämlich auch, einen TFT zu kaufen (aus vielerlei Gründen, aber Stromsparen wäre natürlich das Sahnehäubchen).

ironMonkey
2004-05-09, 13:40:00
Original geschrieben von tokugawa
Hm, ein TFT spart wirklich so viel mehr Strom?

Überleg mir nämlich auch, einen TFT zu kaufen (aus vielerlei Gründen, aber Stromsparen wäre natürlich das Sahnehäubchen).

Naja, es stehen im schnitt 120 gegen 40 Watt.......



Gruß

tokugawa
2004-05-09, 13:41:32
Original geschrieben von ironMonkey
LESEN!!!!!!!


Es schreibts selbst das die XT besser( besser gesagt derzeit schneller) als die Ultra ist aber mit der GT ist NV eben besser dran als ATI mit der Pro da die GT ja nur weniger takt hat aber der Pro neben weniger Taklt auch noch 4 Pipes fehlen zur XT.


Gruß

Fanboys können eben nicht lesen :D

Jedenfalls möcht ich nochmal herausstreichen:

- Ich sehe derzeit einen relativen Gleichstand in Summe zwischen ATI und NVIDIA.

- Eventuelle persönliche Präferenzen ergeben natürlich eine eigene Bevorzugung der einen oder anderen Karte - sollte ja immer so sein.

- Ein relativer Gleichstand in Summe der Grafikchipentwickler kann nur gut sein für jeden Kunden (auch für die Fanboys). Immerhin reduziert sich das Risiko, einen Griff ins Klo zu machen. Und einen Preiskampf wird es vermutlich auch (hoffentlich) geben.

Ich frage mich immer, ob es sooo schlimm für Fanboys wäre, mal einen Gleichstand zu akzeptieren.

MarcWessels
2004-05-09, 13:44:31
Original geschrieben von tokugawa
Und da die ATI Karte nun mal nicht durchgehend >10% schneller ist, ist die Entscheidung für mich persönlich klar.

Öh? Zwischen 10 und 40% sind's...

tokugawa
2004-05-09, 13:49:30
Original geschrieben von MarcWessels
Öh? Zwischen 10 und 40% sind's...

Nicht durchgehend. In manchen Diszipilinen ist die NVIDIA sogar leicht vorn. Sh. 3DCenter News.

MarcWessels
2004-05-09, 13:52:32
Original geschrieben von tokugawa
Nicht durchgehend. In manchen Diszipilinen ist die NVIDIA sogar leicht vorn. Sh. 3DCenter News.

Naja, in den News lese ich tatsächlich so etwas und vermute eher, daß Leo zum einen die 10%-Abstande auf seinen Rechner bezieht und zum anderen, ist die Anzahl der Spiele, in denen ATI deutlich schneller als nVidia ist, bei weitem größer als die Anzahl, in denen nVidia dominant ist.

Außerdem wird leider Gottes in 99% aller Reviews nur die durchschnittliche Framerate statt der minimalen verglichen.

BlueRaven
2004-05-09, 13:53:35
so leute habe mir ebengerade eine Sapphire Radeon X800 Pro Retail bestellt für 380€ und werde es warscheinlich am Dienstag oder höchstens Mittwoch haben.



Bye
BlueRaven

dildo4u
2004-05-09, 13:55:58
so hier mal der test aus der pcgh pcgh benutzt nur eigene timedemos also keine treiber schumelein möglich
games waren Halo Farcry 1.1 Call of Duty Elite Force2
Ut2004 Max Payne2 Spellforce also guter mix aus opengl und DX games von DX7bis DX9
http://people.freenet.de/Dildo4u/X800XT.JPG

ironMonkey
2004-05-09, 13:57:58
Original geschrieben von MarcWessels
Naja, in den News lese ich tatsächlich so etwas und vermute eher, daß Leo zum einen die 10%-Abstande auf seinen Rechner bezieht und zum anderen, ist die Anzahl der Spiele, in denen ATI deutlich schneller als nVidia ist, bei weitem größer als die Anzahl, in denen nVidia dominant ist.

Außerdem wird leider Gottes in 99% aller Reviews nur die durchschnittliche Framerate statt der minimalen verglichen.


Leider Gottes weiß es auch der eine besser als der andere und so kommen komplett unterschiedliche Ergebnise raus, wenn man mal so über die breite Masse schaut dann sind beide Karten gleichschnell und zum anderen konnte NV bisher immer noch an Geschwindigkeit zulegen über die Treiber.

Ich für meinen Teil hole ATI da ich stark auf den Stromverbrauch achte( bei allen teilen im PC).


Gruß

robbitop
2004-05-09, 14:00:59
gratulation!! =)
vieleicht kann man die ja später sogar zur 16 Pipeline Variante modden ^^

zum Leistungsaufnahmeaspekt:
-die 20-30W fallen bei der Zielgruppe eh nicht ins Gewicht.
Wer Strom sparen will hat keinen übertakteten AthlonXP/64/FX oder P4 >3GHz.
Schon Differenzen bei Festplatten oder ein TFT statt einem Röhrenmonitor macht mehr aus. Relativ gesehn zum Gesamtsystem ist der Mehrverbrauch ziemlich niedrig. Zumal die wenigsten 8h/Tag zocken können, und selbst wenn dann nur am Wochenende oder ähnlich. In Windows wenn der 2D Takt aktiv ist, dann ist die Leistungsaufnahme wieder zu vernachlässigen. Ich sehe dieses Argument nicht so kritisch.

robbitop
2004-05-09, 14:02:24
welches Spiel ist dort getestet worden?
welche Treiber usw?

Ein guter Test ist zB bei Tecchannel.
dort tritt die 6800U EE gegen ihren direkten Konkurrenten die XT an mit den neuen 61.11 Treibern. (hier ist per default auch Gleichheit im AF gegeben)

tokugawa
2004-05-09, 14:04:17
Original geschrieben von robbitop
gratulation!! =)
vieleicht kann man die ja später sogar zur 16 Pipeline Variante modden ^^

zum Leistungsaufnahmeaspekt:
-die 20-30W fallen bei der Zielgruppe eh nicht ins Gewicht.
Wer Strom sparen will hat keinen übertakteten AthlonXP/64/FX oder P4 >3GHz.
Schon Differenzen bei Festplatten oder ein TFT statt einem Röhrenmonitor macht mehr aus. Relativ gesehn zum Gesamtsystem ist der Mehrverbrauch ziemlich niedrig. Zumal die wenigsten 8h/Tag zocken können, und selbst wenn dann nur am Wochenende oder ähnlich. In Windows wenn der 2D Takt aktiv ist, dann ist die Leistungsaufnahme wieder zu vernachlässigen. Ich sehe dieses Argument nicht so kritisch.

Find ich auch... da ich mir bald einen TFT-Monitor hole, wäre der Mehr-Stromverbrauch einer eventuellen 6800 UEE gegenüber der X800 XT schon wieder locker drin.

Aber da ich mir sowieso keine High-End-Karte leisten kann (Sch*-Unireform), warte ich mit Spannung auf die Grafikschlacht im Mainstream-Segment... *schnüff*

robbitop
2004-05-09, 14:05:03
die GT ist sehr interessant

dildo4u
2004-05-09, 14:05:29
http://people.freenet.de/Dildo4u/x800xt2.JPG

Der test ist noch wesentlich umfamgreicher mein tipp pcgh kaufen

Piffan
2004-05-09, 14:06:33
Den Test in der PcGH habe ich auch gelesen. Ist imho komplett für die Tonne, da man es nicht gerafft hat, die Schummeleien von ATI bezüglich der Textur- Stages abzustellen. Ist ein Armutszeugnis für die PcGH, weil man a) es wie gesagt nicht gepackt in hohen Settings Vergleichbarkeit herzustellen und b) sich nicht auf Settings beschränkt hat, die einen halbwegs brauchbaren Vergleich überhaupt erst ermöglichen....

Wenn schon Hardware- Experten nicht fähig sind, wie soll man als Konsument überhaupt noch was vergleichen können?

Der einzige Weg scheint mir zu sein, auschließlich identische Settings oder zumindest halbwegs vergleichbare zu testen. Bei FSAA sind die Modi bis 4x Multisampling ja wohl identisch, beim AF MUSS man einfach die Trilinearität bei Ati über ALLE Texturestages herstellen. Wenn das nicht klappt, dann schaltet man einfach BEIDE Kontrahenten auf BI- Af. Bleibt halt nur noch die Flucht über 4xFSAA (Multisampling) und möglichst krasse Auflösungen, wenn man die Systemeinflüsse verringern will......

Wenn man dazu nicht bereit ist, lässt man die Tests besser sein. Oder man nimmt sich ein Beispiels an Leos- Review auf diesen Seiten. :)

Das Beste ist wohl, dass man noch ein bissel wartet mit einem Neukauf. Auf keinen Fall sollte man sich von den Balkendiagrammen verführten lassen.....

dildo4u
2004-05-09, 14:09:06
Original geschrieben von Piffan
Den Test in der PcGH habe ich auch gelesen. Ist imho komplett für die Tonne, da man es nicht gerafft hat, die Schummeleien von ATI bezüglich der Textur- Stages abzustellen. Ist ein Armutszeugnis für die PcGH, weil man a) es wie gesagt nicht gepackt in hohen Settings Vergleichbarkeit herzustellen und b) sich nicht auf Settings beschränkt hat, die einen halbwegs brauchbaren Vergleich überhaupt erst ermöglichen....

Wenn schon Hardware- Experten nicht fähig sind, wie soll man als Konsument überhaupt noch was vergleichen können?

Der einzige Weg scheint mir zu sein, auschließlich identische Settings oder zumindest halbwegs vergleichbare zu testen. Bei FSAA sind die Modi bis 4x Multisampling ja wohl identisch, beim AF MUSS man einfach die Trilinearität bei Ati über ALLE Texturestages herstellen. Wenn das nicht klappt, dann schaltet man einfach BEIDE Kontrahenten auf BI- Af. Bleibt halt nur noch die Flucht über 4xFSAA (Multisampling) und möglichst krasse Auflösungen, wenn man die Systemeinflüsse verringern will......

Wenn man dazu nicht bereit ist, lässt man die Tests besser sein. Oder man nimmt sich ein Beispiels an Leos- Review auf diesen Seiten. :)

Das Beste ist wohl, dass man noch ein bissel wartet mit einem Neukauf. Auf keinen Fall sollte man sich von den Balkendiagrammen verführten lassen..... ich hab seid 2002 meine 9700pro und bin mit der bild qualität mher als zu frieden ich brauche keien test die etwas daran ändern um mir zu zeigen wie schnell die karte ist wie ich sie sowie so nie nutzen werde

MikBach
2004-05-09, 14:12:30
Original geschrieben von dildo4u
so hier mal der test aus der pcgh pcgh benutzt nur eigene timedemos also keine treiber schumelein möglich
games waren Halo Farcry 1.1 Call of Duty Elite Force2
Ut2004 Max Payne2 Spellforce also guter mix aus opengl und DX games von DX7bis DX9
http://people.freenet.de/Dildo4u/X800XT.JPG

Eingescannt. Cool.

Bestätigt meine Aussage von Seite 50 diesen Threads:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1784034#post1784034

Schade, dass sie nicht geschafft haben die Optimierung auszuschalten. Wie viel die wohl bringt?

OT: Trulli vor Michael Schuhmacher nach dem Start! :D

Piffan
2004-05-09, 14:13:10
Noch was: Die Leute, die hier ow angiften wegen Parteilichkeit, weil ow es für nachvollziehbar und legitim hält, dass NV bei der Winkelabhängigkeit gleichgezogen hat mit ATi, die sollten an diesem Beispiel des PcGH- Tests mal die Luft anhalten und WIRKLICH nachdenken. - (Falls ein FanATIker dazu überhaupt bereit ist bzw. mal ehrlich ist. BTW: Ich besitze selbst zwei "große" Ati- Karten und bin keineswegs unzufrieden, genau wie ich mit meiner GF4 immer noch zufrieden bin. Mir geht das hysterische Gekeife von "Fans" schon lange auf die Nerven.)

Danke!

dildo4u
2004-05-09, 14:15:18
Original geschrieben von Piffan
Den Test in der PcGH habe ich auch gelesen. Ist imho komplett für die Tonne, da man es nicht gerafft hat, die Schummeleien von ATI bezüglich der Textur- Stages abzustellen. Ist ein Armutszeugnis für die PcGH, weil man a) es wie gesagt nicht gepackt in hohen Settings Vergleichbarkeit herzustellen und b) sich nicht auf Settings beschränkt hat, die einen halbwegs brauchbaren Vergleich überhaupt erst ermöglichen....

Wenn schon Hardware- Experten nicht fähig sind, wie soll man als Konsument überhaupt noch was vergleichen können?

Der einzige Weg scheint mir zu sein, auschließlich identische Settings oder zumindest halbwegs vergleichbare zu testen. Bei FSAA sind die Modi bis 4x Multisampling ja wohl identisch, beim AF MUSS man einfach die Trilinearität bei Ati über ALLE Texturestages herstellen. Wenn das nicht klappt, dann schaltet man einfach BEIDE Kontrahenten auf BI- Af. Bleibt halt nur noch die Flucht über 4xFSAA (Multisampling) und möglichst krasse Auflösungen, wenn man die Systemeinflüsse verringern will......

Wenn man dazu nicht bereit ist, lässt man die Tests besser sein. Oder man nimmt sich ein Beispiels an Leos- Review auf diesen Seiten. :)

Das Beste ist wohl, dass man noch ein bissel wartet mit einem Neukauf. Auf keinen Fall sollte man sich von den Balkendiagrammen verführten lassen.....
Kann sein das ich mich vieleicht unbeliebt machen aber leos review is auch nicht so das ware 1 wird da die 6800U gegen die X800pro getestet und ja ick weiss leo hat leider keien X800XT bekommen desweiteren wird mit einer viel zu langsammen cpu getestet die auf den nievau eine 2400XP liegt vom speed her

Piffan
2004-05-09, 14:15:23
Original geschrieben von MikBach
Eingescannt. Cool.

Bestätigt meine Aussage von Seite 50 diesen Threads:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1784034#post1784034

Schade, dass sie nicht geschafft haben die Optimierung auszuschalten. Wie viel die wohl bringt?

OT: Trulli vor Michael Schuhmacher nach dem Start! :D

Diese Optimierung bringt so viel, dass die Tests vollkommen für den Arsch sind! Nur durch diese Optimierungen ist es in Farcry beispielsweise überhaupt möglich, mit AF zu spielen, ohne das der Mouselag den Spass vergällt!

Piffan
2004-05-09, 14:17:44
Original geschrieben von dildo4u
Kann sein das ick mich vieleicht unbeliebt machen aber leos rewiev is auch nicht so das ware 1 wird da die 6800U gegen die X800pro getestet und ja ick weiss leo hat leider keien X800XT bekommen desweiter wird mit einer viel zu langsammen cpu getestet die auf den nievau eine 2400XP liegt vom speed her liegt

WAs Du schreibts, ist schon lange nicht das waHre! Und dass man den Einfluss von CPU/system durch Grakasettings sehr weit zurückdrängen kann, ist dir doch hoffentlich klar, oder?

Immerhin ist Leos Test brauchbarer als alles, was ich bisher gelesen habe....

dildo4u
2004-05-09, 14:21:54
Original geschrieben von Piffan
WAs Du schreibts, ist schon lange nicht das waHre! Und dass man den Einfluss von CPU/system durch Grakasettings sehr weit zurückdrängen kann, ist dir doch hoffentlich klar, oder?

Immerhin ist Leos Test brauchbarer als alles, was ich bisher gelesen habe.... bei den neuen karten ist die cpu leistung sher whol entscheident ob du einsehen willst oder nich die werte der test mit einem A64FX z.b liegen selbst in 1280*1024 mit aa und aniso weit über dem
eines P4 3.2 die meisten games sind mit diese karte bei weitem nich mher GK limitiert der sprung ist diesmal mher als gewaltig

MikBach
2004-05-09, 14:23:36
Original geschrieben von Piffan
Immerhin ist Leos Test brauchbarer als alles, was ich bisher gelesen habe....

Das stimmt, allerdings ist für mich der Test der PCGH an 2. Stelle, wenn ich mir die restlichen Reviews ansehe.

gdfgdfgdfg
2004-05-09, 14:25:40
Original geschrieben von tokugawa
nivea, nimm mal deine Medikamente und lehn dich zurück.

"Verlieren" würd ich nicht sagen, eher Gleichstand.

"Verlieren" und "gewinnen" kann man höchstens als persönliche Meinung sagen.

Für mich gewinnt die NV40 aufgrund Features und Geschwindigkeit (da mir Geschwindigkeit allein nicht genug ist, außerdem find ich die Features sexier, da ich auch Grafiksachen programmiere).

Also bitte nicht immer so pauschal urteilen! Für dich mag die ATI Karte gewinnen, aber das heißt nicht dass der NV40 der allgemeine Verlierer für jeden ist.


Immerhin haben im Vorfeld schon einige gesagt, dass wenn die ATI nicht mehr als 10% schneller ist in allem, dass sie dann zur NV40 greifen würden. Ich gehöre ebenfalls zu dieser Gruppe.

Und da die ATI Karte nun mal nicht durchgehend >10% schneller ist, ist die Entscheidung für mich persönlich klar.

Natürlich, du hast eine andere Meinung, aber deklariere sie auch so. Die NV40 ist in einigen Aspekten eben _nicht_ der Verlierer. Objektiv betrachtet würde ich eben von einem Gleichstand sprechen, aber das mögen Fanboys nicht (die haben lieber, dass deren Lieblingsfirma die Konkurrenz plattmacht, aus welchem Grund auch immer. Versteh ich überhaupt nicht, denn was bringt es den Fanboys?).


Hallo du!

Welche Features meinst du, etwa die wo die NV40 GROTTENLANGSAM wird, hohe Bildqualität bei aktuellen Spielen.

Mir reicht es echt langsam mit diesen DAUSI-Äusserungen. In Highend-Einstellungen looooost die Karte aber sowas von ab! und ich verstehe diese Diskussion überhaupt nicht.

dildo4u
2004-05-09, 14:32:05
Original geschrieben von Piffan
WAs Du schreibts, ist schon lange nicht das waHre! Und dass man den Einfluss von CPU/system durch Grakasettings sehr weit zurückdrängen kann, ist dir doch hoffentlich klar, oder?

Immerhin ist Leos Test brauchbarer als alles, was ich bisher gelesen habe....
Hier mal ein zitat direkt aus leos review
"
Doch da dies mit dem aktuellen System nicht erreichbar ist, wird wohl demnächst ein totaler Umstieg vonnöten sein. Für den Moment muß es allerdings noch dieses etwas angegraute Testsystem richten. Andererseits wird es sicherlich im Web mehr als ausreichend Tests mit 3.x GHz Prozessoren bzw. Athlon 64/FX Boliden geben, so daß man nun bei unserem Test schlicht sehen kann, was die Grafikkarten mit einer nur mittelmäßigen CPU zu leisten im Stande sind."

Wie gesagt die cpus können die karte bei keiem game wirklich ausreizen höstens vielicht ab 1600*1200MIt 6Xaa
ick spreche hier von der ATI karte bei der 6800U liegt der sachverhalt anders

Gas9t
2004-05-09, 14:33:51
Original geschrieben von dildo4u
so hier mal der test aus der pcgh pcgh benutzt nur eigene timedemos also keine treiber schumelein möglich
games waren Halo Farcry 1.1 Call of Duty Elite Force2
Ut2004 Max Payne2 Spellforce also guter mix aus opengl und DX games von DX7bis DX9
http://people.freenet.de/Dildo4u/X800XT.JPG


Das kann ich nur bestätigen!

Ich zocke gerade mit der X800Pro und die Karte geht ab wie SCHMITZ Katze!

Gerade bei hohen Einstellungen, Filter und co. glaube ich, ich sitze im Kino!

Piffan
2004-05-09, 14:33:57
Original geschrieben von gdfgdfgdfg
Hallo du!

Welche Features meinst du, etwa die wo die NV40 GROTTENLANGSAM wird, hohe Bildqualität bei aktuellen Spielen.

Mir reicht es echt langsam mit diesen DAUSI-Äusserungen. In Highend-Einstellungen looooost die Karte aber sowas von ab! und ich verstehe diese Diskussion überhaupt nicht.

Der DAU bist Du! Wo loost die Karte denn in hohen Einstellungen ab? Etwa da wo die Tester mit Supersampling arbeiten? Wer ein bisschen Hirn in der Birne hat, der wird diese Werte richtig zu interpretieren wissen.

Bei dieser Gelegenheit auch heftige Kritik an Leos Test: WAs soll der Schwachsinn mit dem Supersampling- Modes? Will man damit die blinden FanATIker füttern? Habe ich schon damals beim Test auf withingames angeprangert. Nichts gegen Iceman, aber der Test stank schon damals, weil er alle Vernunft und Objektivität mit Füßen trat. Warum jetzt wieder auf diese Seiten? Ok, so als Wert außer Konkurrenz mal ganz interessant, zumal die Ati ja diesen Modus gar nicht beherrscht und in dieser Disziplin überhaupt nix vorweisen kann. Aber als VERGLEICH mit diesen unsinnigen Schwanz- äh Balkenlängen taugt sowas nur als Trollfutter. Schade, denn dadurch verliert der Test von Leo ungemein an Seriösität....:(

LovesuckZ
2004-05-09, 14:35:53
Original geschrieben von Gas9t
Gerade bei hohen Einstellungen, Filter und co. glaube ich, ich sitze im Kino!

Mit weißen Wänden und netten Menschen draußen vor der Tür, ausserdem ist deine Bewegungsfreiheit eingeengt?

Piffan
2004-05-09, 14:36:30
Original geschrieben von Gas9t
Das kann ich nur bestätigen!

Ich zocke gerade mit der X800Pro und die Karte geht ab wie SCHMITZ Katze!

Gerade bei hohen Einstellungen, Filter und co. glaube ich, ich sitze im Kino!

Aber wenn du die Optimierungen der Texturstages nicht siehst, dann träum weiter. Sicher ist die X800 selbst ohne die Schummeleien viel schneller als die 9800XT, dennoch ist der Vergleich mit der NV 40 wohl unter vergleichbarer Bildqualität eher ausgeglichen.....

dildo4u
2004-05-09, 14:39:06
Original geschrieben von Piffan
Aber wenn du die Optimierungen der Texturstages nicht siehst, dann träum weiter. Sicher ist die X800 selbst ohne die Schummeleien viel schneller als die 9800XT, dennoch ist der Vergleich mit der NV 40 wohl unter vergleichbarer Bildqualität eher ausgeglichen..... sorry soll auch leute geben die einfach nur zocken wolln und nicht immer hinsetzen um zu rätzeln obs jetzt bi oder tri linear gefiltert wird die bild qualität hat sich vom 9800XT zum X800 nicht verschlechtert bei nvidia dagegen von NV38 zu NV40 schon

Demirug
2004-05-09, 14:39:33
Das die PCGH beim R420 nur Werte von Einstellungen hat die sich mit den Boardmittel erreichen lassen hat logistische Gründe.

Aber selbst bei ausgeschalteten Stage optimierungen bezweifle ich die Vergleichbarkeit der Qualität. Das hat zwei Gründe.

1. Die AF-Verfahren sind immer noch nicht identisch wobei die Ungenauigkeiten des R420 am Polygonenrand die Analyse erschweren. Die Daten die mir vorliegen deuten aber darauf hin das nVidia nach wie vor den aufwendigeren AF-Filter benutzt.

2. Der R420 neigt scheinbar dazu mit eingefärbten Mipmaps langsamer zu werden.

Gas9t
2004-05-09, 14:41:31
Original geschrieben von Piffan
Aber wenn du die Optimierungen der Texturstages nicht siehst, dann träum weiter. Sicher ist die X800 selbst ohne die Schummeleien viel schneller als die 9800XT, dennoch ist der Vergleich mit der NV 40 wohl unter vergleichbarer Bildqualität eher ausgeglichen.....

Ja klar, da laufen ständig Ruby's mit ATI-Schildern, ACHTUNG OPTIMIERT rum!

1. Die Karte ist flüsterleise
2. läuft ohne Problemr in meinm Cube (Strombedarf und co)
3. Ist die Qualität jenseits von bisher gesehen das mir nur eines auffällt!

-> Top-Performance bei maximalen Qualitätseinstellungen unter:

Unreal 4
Painkiller
Farcry
Need for Speed
Toombraider

Der Knall im All!!!!

MikBach
2004-05-09, 14:44:32
Original geschrieben von Gas9t

-> Top-Performance bei maximalen Qualitätseinstellungen unter:

Unreal 4
Painkiller
Farcry
Need for Speed
Toombraider


Und wie zockt sich so Unreal 4?;D

Gas9t
2004-05-09, 14:49:00
Original geschrieben von Demirug
Das die PCGH beim R420 nur Werte von Einstellungen hat die sich mit den Boardmittel erreichen lassen hat logistische Gründe.

Aber selbst bei ausgeschalteten Stage optimierungen bezweifle ich die Vergleichbarkeit der Qualität. Das hat zwei Gründe.

1. Die AF-Verfahren sind immer noch nicht identisch wobei die Ungenauigkeiten des R420 am Polygonenrand die Analyse erschweren. Die Daten die mir vorliegen deuten aber darauf hin das nVidia nach wie vor den aufwendigeren AF-Filter benutzt.

2.Der R420 neigt scheinbar dazu mit eingefärbten Mipmaps langsamer zu werden.




Lies was Dildo geschrieben hat! Ich bin nicht der einzige hier mit meiner Meinung.

Den Leuten ist es viel WICHTIGER das Ihre heissgeliebten Spiele von heute besser aussehen und bis NEUE Spiele kommen, die 100% PS 3.0 verwenden, ist der Nachfolger vom R420 auch schon da und entsprechend Preisstabil beim WIEDERVERKAUF ist ontop auch noch der R420!!!

Das wird hier gerne immer vergessen.

Die Wert-Stabilität gerade bei ATI-Karten ist um längen besser als bei nvidia.

Glaubst du das 2005 noch jemand eine NV40 haben will ???

Thats fact!

Rapps
2004-05-09, 14:50:32
Original geschrieben von MikBach
Und wie zockt sich so Unreal 4?;D

Unreal Tournament 2004!!!

Du kennst natürlich nicht das Kurzwort! Hauptsache Flamen!!!!!


Mensch kauf dir nen Dreirad und spiel mit Lego!

LovesuckZ
2004-05-09, 14:50:57
Original geschrieben von Gas9t
Den Leuten ist es viel WICHTIGER das Ihre heissgeliebten Spiele von heute besser aussehen und bis NEUE Spiele kommen, die 100% PS 3.0 verwenden, ist der Nachfolger vom R420 auch schon da und entsprechend Preisstabil beim WIEDERVERKAUF ist ontop auch noch der R420!!!


1. wie sehen die Spiele besser aus ohne bessere Qualitaetsfeatures?
2. Aehm, dir ist bekannt, dass r420 user doch nichts vom SM3.0 halten und dementsprechend nie diesen Pfad benutzen werden?

Aber Gaeste sind schon lustig in letzter Zeit! :top:

Loveidiot
2004-05-09, 14:52:24
Original geschrieben von LovesuckZ
Mit weißen Wänden und netten Menschen draußen vor der Tür, ausserdem ist deine Bewegungsfreiheit eingeengt?

Wer mit so einem Userbild hier ONLINE ist sollte sich besser mit der Eselsmütze in die Ecke stellen.

Sehr geschmacklos ! Das das sich hier hält verwundert mich aber sehr!

dildo4u
2004-05-09, 14:53:30
Original geschrieben von LovesuckZ
1. wie sehen die Spiele besser aus ohne bessere Qualitaetsfeatures?
2. Aehm, dir ist bekannt, dass r420 user doch nichts vom SM3.0 halten und dementsprechend nie diesen Pfad benutzen werden?

Aber Gaeste sind schon lustig in letzter Zeit! :top: love warum reagierts du auf das geflamme?bringt doch niemanden weiter

LovesuckZ
2004-05-09, 14:55:13
Original geschrieben von dildo4u
love warum reagierts du auf das geflamme?bringt doch niemanden weiter

Stimmt...
Nunja, Formel 1 ist nen bissl zu langweilig.

Gas9t
2004-05-09, 14:55:47
Original geschrieben von LovesuckZ
1. wie sehen die Spiele besser aus ohne bessere Qualitaetsfeatures?
2. Aehm, dir ist bekannt, dass r420 user doch nichts vom SM3.0 halten und dementsprechend nie diesen Pfad benutzen werden?

Aber Gaeste sind schon lustig in letzter Zeit! :top:

zu 1.)

Kauf dir eine!

zu 2.) Ist dir bekannt das dieses SM3.0 von keinem Spiel in der Top10 Liste unterstützt wird???

Glaubst du das es irgendeinem der Entwicklern von UT2004 oder Farcry reicht was sie bisher an Titeln (Stückzahlen) verkauft haben ????

Nein, Es werden gerade SUPERHYPE NEue Levls entwickelt die 3DC und DX9.0b voll ausreizen!

Gas9t
2004-05-09, 14:57:07
Original geschrieben von dildo4u
love warum reagierts du auf das geflamme?bringt doch niemanden weiter

Na gottseidank kann jeder selbst lesen und feststellen wer hier Dünnpfiff flamt!

dildo4u
2004-05-09, 14:58:07
Original geschrieben von LovesuckZ
Stimmt...
Nunja, Formel 1 ist nen bissl zu langweilig. OT: wieso läuft doch alles bestens :D

Demirug
2004-05-09, 14:59:01
Original geschrieben von Gas9t
Lies was Dildo geschrieben hat! Ich bin nicht der einzige hier mit meiner Meinung.

Den Leuten ist es viel WICHTIGER das Ihre heissgeliebten Spiele von heute besser aussehen und bis NEUE Spiele kommen, die 100% PS 3.0 verwenden, ist der Nachfolger vom R420 auch schon da und entsprechend Preisstabil beim WIEDERVERKAUF ist ontop auch noch der R420!!!

Das wird hier gerne immer vergessen.

Die Wert-Stabilität gerade bei ATI-Karten ist um längen besser als bei nvidia.

Glaubst du das 2005 noch jemand eine NV40 haben will ???

Thats fact!

Ich habe doch hier überhaupt nichts über das Shadermodel des R420 gesagt. Meine Aussage bezog sich lediglich auf die Texturfilter des R420.

PS: Zukunfstaussagen sollte man nie als Fact hinstellen. Wenn das eine Firma macht kann sie deswegen sogar verklagt werden. ;)

MikBach
2004-05-09, 15:00:36
Original geschrieben von LovesuckZ
Aber Gaeste sind schon lustig in letzter Zeit! :top:
Da stimme ich mit dir überein!

Einfach nicht beachten. Wenn jemand wirklich mitreden will, sollte sich reggen. Wenn das so weiter geht, gibt es eh bald Regpflicht. Zumindest in den Diskussionsforen wäre sie sinnvoll.

LovesuckZ
2004-05-09, 15:13:23
Original geschrieben von Piffan
[...]beim AF MUSS man einfach die Trilinearität bei Ati über ALLE Texturestages herstellen. [...]

Und diese Optimierung scheint einen starken Einfluss auf die AA/AF Geschwindigkeit zu haben.
Zum Beispiel ermittelte VoodooJack (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1791601#post1791601) in der UT2004 Timedemo "Primeval" einen leistungsabfall von ca. 45%. Ziemlich viel und das würde auch ATi's Überlegenheit unter D3D erklaeren.

dildo4u
2004-05-09, 15:17:01
Original geschrieben von LovesuckZ
Und diese Optimierung scheint einen starken Einfluss auf die AA/AF Geschwindigkeit zu haben.
Zum Beispiel ermittelte VoodooJack (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1791601#post1791601) in der UT2004 Timedemo "Primeval" einen leistungsabfall von ca. 45%. Ziemlich viel und das würde auch ATi's Überlegenheit unter D3D erklaeren. jo aber Vodoo hat auch keine x800 keiner weiss ob man das 1:1 auf die neue generation übertragen kann und obs überhaupt riesige BQ unterschiede gibt

robbitop
2004-05-09, 15:19:49
@Piffan
bei Leos Review stimme ich dir zu.
Ich denke mal bei 3dc erwartet man eben vom Leser, dass er sich genau mit dem Review auseinander setzt und selbst denkt und interpretiert, was auch nicht falsch ist.
Aber das scheinen viele Leute einfach nicht zu können.
Ich finde es gut, dass man die Hybriden mitttestet, aber die Ergebnisse von SSAA ins selbe Diagramm mit anderen Karten ohne SSAA zu packen ist imo ein Apfel Birne Vergleich. Das verstehen viele User nicht. Genau wie viele User das mit der AF Optimierung nicht verstehen.

Ich denke mal ein 61.11 vs Cat 4.5 Vergleich UND die 6888U EE muss natürlich antreten, dann wäre es halbwechs vergleichbar. Sowas habe ich bisher nur bei Techchannel gesehen.

dildo4u
2004-05-09, 15:24:42
Original geschrieben von robbitop
@Piffan
bei Leos Review stimme ich dir zu.
Ich denke mal bei 3dc erwartet man eben vom Leser, dass er sich genau mit dem Review auseinander setzt und selbst denkt und interpretiert, was auch nicht falsch ist.
Aber das scheinen viele Leute einfach nicht zu können.
Ich finde es gut, dass man die Hybriden mitttestet, aber die Ergebnisse von SSAA ins selbe Diagramm mit anderen Karten ohne SSAA zu packen ist imo ein Apfel Birne Vergleich. Das verstehen viele User nicht. Genau wie viele User das mit der AF Optimierung nicht verstehen.

Ich denke mal ein 61.11 vs Cat 4.5 Vergleich UND die 6888U EE muss natürlich antreten, dann wäre es halbwechs vergleichbar. Sowas habe ich bisher nur bei Techchannel gesehen. Der 6800UE ist eine stufe über dem X800XT vom preis her wäre auch kein guter vergleich X800XT
499$ und 6800U 499$ die 6800UE wird whol noch mal um 50-70€ teuerer
und es gibt noch einen anderen test wo 6800UE und 61.11 getestet wird http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/page4.asp

robbitop
2004-05-09, 15:29:57
laut NV ist die Extreme Edition direkter Konkurrent gegen die XT Platinuum.

der Mehrpreis ist vieleicht wegen dem Plus an Technologie? ^^

dildo4u
2004-05-09, 15:33:37
Original geschrieben von robbitop
laut NV ist die Extreme Edition direkter Konkurrent gegen die XT Platinuum. preislich aber eher nicht sonst müsste die 6800U billiger sein als der X800XT eine platinum gibts nicht oder ist halt das selbe wie eine X800XT

dildo4u
2004-05-09, 15:35:20
Original geschrieben von robbitop
laut NV ist die Extreme Edition direkter Konkurrent gegen die XT Platinuum.

der Mehrpreis ist vieleicht wegen dem Plus an Technologie? ^^ wenn nv das meint müssen die consumenten entscheiden ob ihen das ca 50€ mher wert sind und zur zeit liegt sogar der 6800U weit über 500€ eher so um 520-540

robbitop
2004-05-09, 15:39:36
solange die nicht lieferbar ist, sind die Preise irrelevant...also abwarten

MikBach
2004-05-09, 15:43:14
Original geschrieben von robbitop
laut NV ist die Extreme Edition direkter Konkurrent gegen die XT Platinuum.

der Mehrpreis ist vieleicht wegen dem Plus an Technologie? ^^

Der direkte Konkurrent ist für mich, der mit dem gleichen Preis.

BTW ist die Extreme Edition nun offiziell von Nvidia, oder stimmt das hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1785608#post1785608)?

robbitop
2004-05-09, 15:52:09
offiziell von NV.

Mag sein, dass du selbst deine Konkurrenten setzt, aber offiziell ist die EE Konkurrent der XT PE.
Muss jeder selbst entscheiden, ob er die 50EUR mehr für mehr Tech ausgiebt oder nicht. NV Karten waren schon immer ein wenig teurer als die ATi.

reunion
2004-05-09, 15:52:16
Original geschrieben von Demirug
Aber selbst bei ausgeschalteten Stage optimierungen bezweifle ich die Vergleichbarkeit der Qualität.

100%ige vergleichbarkeit wird man sowieso nie bekommen, allerdings sind die unterschiede beim AF wirklich minimalst genauso wie beim AA bis 4x, wodurch ich schon der meinung bin dass man bis 4xAA und 8xAA (beide mit fultri) vergleichen kann...

dildo4u
2004-05-09, 15:54:21
Original geschrieben von robbitop
offiziell von NV.

Mag sein, dass du selbst deine Konkurrenten setzt, aber offiziell ist die EE Konkurrent der XT PE.
Muss jeder selbst entscheiden, ob er die 50EUR mehr für mehr Tech ausgiebt oder nicht. NV Karten waren schon immer ein wenig teurer als die ATi. klar is der NV40 tech überlegen aber sollte NV nach dem FX debakel die karte nicht zumindest zum vergleichbaren preis anbieten um ATI wieder marktanteile abzugraben?und ich glaub weniger das die 6800UE von NV officel geben wird davon seh ich auch nix von auf der NV seite da gibt nur eine 6800U

MikBach
2004-05-09, 15:57:15
Original geschrieben von robbitop
offiziell von NV.

Mag sein, dass du selbst deine Konkurrenten setzt, aber offiziell ist die EE Konkurrent der XT PE.


OK. Nehmen wir an, jetzt kommt ATI und sagt, dass die XT (PE) Konkurrenz zum Nv40Ultra ist (und nicht zur EE), da gleicher Preis.
Wer hat nun Recht?
:kratz: :gruebel:

Demirug
2004-05-09, 15:57:42
Original geschrieben von reunion
100%ige vergleichbarkeit wird man sowieso nie bekommen, allerdings sind die unterschiede beim AF wirklich minimalst genauso wie beim AA bis 4x, wodurch ich schon der meinung bin dass man bis 4xAA und 8xAA (beide mit fultri) vergleichen kann...

An dem Problem wie stark sich das AF wirklich unterscheidet arbeite ich noch. Da Karten aber derzeit nur immer kurzfristig zur verfügung stehen kann das noch etwas dauern.

Aber was ist mit meinem zweiten Punkt?

vbnvbn
2004-05-09, 15:59:35
Original geschrieben von dildo4u
klar is der NV40 tech überlegen


;D der war gut,McLaren Mercedes ist auch technisch überlegen aber trotzdem verlieren sie

bgfjgfj
2004-05-09, 16:02:49
Original geschrieben von MikBach
OK. Nehmen wir an, jetzt kommt ATI und sagt, dass die XT (PE) Konkurrenz zum Nv40Ultra ist (und nicht zur EE), da gleicher Preis.
Wer hat nun Recht?
:kratz: :gruebel:

ATI natürlich, von nvidia wissen wir ja schon seit einem Jahr wie Ihre LOW-Budget-Karten heißen !!! XT !!!

nidea
2004-05-09, 16:05:20
Original geschrieben von Demirug
Ich habe doch hier überhaupt nichts über das Shadermodel des R420 gesagt. Meine Aussage bezog sich lediglich auf die Texturfilter des R420.

PS: Zukunfstaussagen sollte man nie als Fact hinstellen. Wenn das eine Firma macht kann sie deswegen sogar verklagt werden. ;)

Dann mach mal! Gottseidank gibt es nach dem Job auch noch ein Privatleben!

Wenn jemand offiz. als Firma hier auftreten würde und so was behaupten würde, dann vieleicht!!!!

Aber Artikel 1 des Grundgesetzes ist dir ja bekannt!

DanMan
2004-05-09, 16:08:54
Original geschrieben von MikBach
OK. Nehmen wir an, jetzt kommt ATI und sagt, dass die XT (PE) Konkurrenz zum Nv40Ultra ist (und nicht zur EE), da gleicher Preis.
Wer hat nun Recht?
:kratz: :gruebel:
ATI (ausnahmnsweise :D)
Original geschrieben von vbnvbn
;D der war gut,McLaren Mercedes ist auch technisch überlegen aber trotzdem verlieren sie
Da gehts auch überhaupt nicht ums schön, sondern nur ums schnell fahren.

reunion
2004-05-09, 16:09:16
Original geschrieben von Demirug
An dem Problem wie stark sich das AF wirklich unterscheidet arbeite ich noch. Da Karten aber derzeit nur immer kurzfristig zur verfügung stehen kann das noch etwas dauern.


Was gibt es daran zu arbeiten, man sieht doch am (sogar von dir geschriebenen) AF-Tester das der unterschied minimal ist, in spielen wird man da imo niemals einen Unterschied feststellen können.

Aber was ist mit meinem zweiten Punkt?

Versteh ich nicht, wenn der R420 mit eingefärbten Mipmaps wirklich langsamer wird (wie kann das überhaupt sein?) dann färbt man sie einfach nicht ein, wo liegt das Problem?

ironMonkey
2004-05-09, 16:11:54
Original geschrieben von MikBach
OK. Nehmen wir an, jetzt kommt ATI und sagt, dass die XT (PE) Konkurrenz zum Nv40Ultra ist (und nicht zur EE), da gleicher Preis.
Wer hat nun Recht?
:kratz: :gruebel:

6800U ist das Gegenstück zur X800 XT die 6800UE währe/wird ein extra Teil sein, die 5950 ist ja auch das gegenstück zur 9800XT und nicht zur Pro.


Gruß

Demirug
2004-05-09, 16:23:13
Original geschrieben von reunion
Was gibt es daran zu arbeiten, man sieht doch am (sogar von dir geschriebenen) AF-Tester das der unterschied minimal ist, in spielen wird man da imo niemals einen Unterschied feststellen können.

Bei einer Texel-Analyse die kaum jemand gemacht hat sind die Unterschiede etwas grösser. Ich brauche da aber noch mehr Daten.

Versteh ich nicht, wenn der R420 mit eingefärbten Mipmaps wirklich langsamer wird (wie kann das überhaupt sein?) dann färbt man sie einfach nicht ein, wo liegt das Problem?

Schau mal dort: http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/mai/atis_texturfilter_lupe/

(del676)
2004-05-09, 16:46:27
Original geschrieben von reunion
Was gibt es daran zu arbeiten, man sieht doch am (sogar von dir geschriebenen) AF-Tester das der unterschied minimal ist, in spielen wird man da imo niemals einen Unterschied feststellen können.


Versteh ich nicht, wenn der R420 mit eingefärbten Mipmaps wirklich langsamer wird (wie kann das überhaupt sein?) dann färbt man sie einfach nicht ein, wo liegt das Problem?

ja super, beim normalen gebrauch und benches sind sie super schnell, und wenn man die qualität vergleichen will mit eingefärbten mipmaps dann wird sie komischerweise langsamer ... neee das is sicher keine optimierung die abgeschalten wird wenn man qualität vergleichen will ;)

Fadl
2004-05-09, 17:07:32
Original geschrieben von Ulukay
ja super, beim normalen gebrauch und benches sind sie super schnell, und wenn man die qualität vergleichen will mit eingefärbten mipmaps dann wird sie komischerweise langsamer ... neee das is sicher keine optimierung die abgeschalten wird wenn man qualität vergleichen will ;)

Wenn man erst mipmaps einfärben muss um Qualitätsunterschiede zu erkennen dann heisst das im Umkehrschluss doch eigentlich das bei normaler Darstellung keine(oder nur sehr schwer zu erkennende) Unterschiede zu sehen sind oder?
Und dann kann man sich doch eigentlich auch ernsthaft fragen warum man dem Test mit eingefärbten mipmaps einen so hohen Stellenwert zukommen lässt.

Sphinx
2004-05-09, 17:23:22
Weil alles ein Cheat ist - Cheater ,)

InsaneDruid
2004-05-09, 17:24:25
Naja.. also wenn dem so wäre das die BQ bei NICHT eingefärbten Mips tatsächlich - wie auch immer, und ob fast nicht sichtbar oder nicht - gedrosselt wird dann wäre das schon sehr unschön. Ja klar, die Konkurrenz macht die "Optimierungen" auch (Brilinear scheint ja am ehesten ein Kandidat zus ein), aber schöner wärs wenn man auf diesen Mist verzichten würde und/oder dies einfach als OPTION anbietet. NV macht dies bei Bri ja, bis auf den jetzt gebenchten 61er, der - oh wunder - einen "Bug" hat ber dies verhindert. Wie man sieht.. beide verlieren durch diese Optimierungen mehr Ansehen und Vertrauen als sie sich Benchmarkvorteile erkaufen.

xL|Sonic
2004-05-09, 17:28:56
Ist schon irgendwas zu der x800 Pro bezüglich der 4 deaktivierten pipelines bekannt, ob man da genauso Glück haben kann wie damals mit der Radeon 9500 oder ist das gänzlich ausgeschlossen.
Ich versuche nämlich gerade meine ASUS 9800 XT bei ebay so für 320€ zu verkaufen(die relativ niedrigen FPS in FC veranlassen mich zu diesem Schritt und jetzt kriege ich noch relativ viel für meine 9800 XT) um mir dann für relativ wenig Geld ne neue GrKa zu holen.
Da ich zuletzt immer eine Ati GrKa hatte (8500, dann 9800XT)würde ich gerne bei Ati bleiben, da mir persönlich auch die Treiber besser gefallen und ich ein Kanada-Fan bin :p
Allerdings bin ich noch am überlegen was ich denn nun nehmen soll. x800 Pro in der Hoffnung die auf 16 pipes zu modden, oder die nvidia 6800 GT nehmen, die ja bekanntlich schneller ist oder ich spare mein Geld für die x800 XT, allerdings würde ich da gerne wissen, wann die auf dem deutschen Markt erscheinen werden.
PS 3 ist mir eigentlich relativ egal, da für mich die Spiele jetzt zählen(und gerade da scheint mir die ATI x800 die bessere Wahl zu sein, was Far Cry angeht) und die Karte die ich mir jetzt kaufe nur nen Refreshchip sein soll bis Anfang nächsten Jahres, wenn ich meinen PC komplett neu aufbaue mit BTX, PCI-E, R500 oder NV50, DDR2, AMD64 mit Dual Core usw. :p
Also zu was würdet ihr mir raten ?

xL|Sonic
2004-05-09, 17:36:08
Asso und nochwas bezüglich zu einem direkten Konkurrenten für Nvidias 6800 UE, den es von ATI aus ja gar nicht gibt.
Ati hat vor kurzem ja ne Radeon x800 XT mit 715/639 Takt laufen lassen und nen 3dmark03 score von 15,738 erreicht, das zeigt im Prinzip, dass es für ATI möglich wäre noch nen Gegenstück für den 6800 UE aus dem Hut zu zaubern, nur um die Performancekrone zurückzugewinnen. Wie man das kühlt und wieviel Strom das Ding dann verbraucht wird dann wohl eh keinen interessieren :o

Link dazu hier:

http://home.businesswire.com/portal/site/home/index.jsp?epi-content=NEWS_VIEW_POPUP_TYPE&newsId=20040507005145&newsLang=en&beanID=202776713&viewID=news_view_popup

Fadl
2004-05-09, 17:36:41
Original geschrieben von Valmar
Ist schon irgendwas zu der x800 Pro bezüglich der 4 deaktivierten pipelines bekannt, ob man da genauso Glück haben kann wie damals mit der Radeon 9500 oder ist das gänzlich ausgeschlossen.
Ich versuche nämlich gerade meine ASUS 9800 XT bei ebay so für 320€ zu verkaufen(die relativ niedrigen FPS in FC veranlassen mich zu diesem Schritt und jetzt kriege ich noch relativ viel für meine 9800 XT) um mir dann für relativ wenig Geld ne neue GrKa zu holen.
Da ich zuletzt immer eine Ati GrKa hatte (8500, dann 9800XT)würde ich gerne bei Ati bleiben, da mir persönlich auch die Treiber besser gefallen und ich ein Kanada-Fan bin :p
Allerdings bin ich noch am überlegen was ich denn nun nehmen soll. x800 Pro in der Hoffnung die auf 16 pipes zu modden, oder die nvidia 6800 GT nehmen, die ja bekanntlich schneller ist oder ich spare mein Geld für die x800 XT, allerdings würde ich da gerne wissen, wann die auf dem deutschen Markt erscheinen werden.
PS 3 ist mir eigentlich relativ egal, da für mich die Spiele jetzt zählen(und gerade da scheint mir die ATI x800 die bessere Wahl zu sein, was Far Cry angeht) und die Karte die ich mir jetzt kaufe nur nen Refreshchip sein soll bis Anfang nächsten Jahres, wenn ich meinen PC komplett neu aufbaue mit BTX, PCI-E, R500 oder NV50, DDR2, AMD64 mit Dual Core usw. :p
Also zu was würdet ihr mir raten ?

Wenn du unbedingt JETZT kaufen musst dann kannst du ja nur zur x800 Pro greifen. Denn die ist scheinbar demnächst verfügbar.
Auf richtige Vergleiche zwischen x800 Pro und 6800 GT muss man wohl noch etwas warten. Die 1-2 Berichte die man findet sind wohl auch nicht wirklich aussagekräftig wenn es darum geht welche Karte denn nun die schnellere ist.

xL|Sonic
2004-05-09, 17:39:41
Muss nicht sofort sein, kann auch noch nen Monat warten, muss ich halt übergansweise meine alte ASUS V7700 GF2GTS einbaun, aber das stört mich nicht so sehr.

InsaneDruid
2004-05-09, 17:39:59
Abwarten und Tee rauchen ;) Ne echt, zum Thema Freischalten, woher soll man da was wissen wo es sogut wie keine Karten in der Wildbahn gibt? Wobei ich da nicht drauf hoffen würde, grade zu Anfangs dürfte der nicht moddbare Anteil (so es überhaupt geht) sehr hoch liegen. Und zum Thema FC.. naja da würde ich erstmal schauen was die NVs wirklich aus ihrem SM3 Support ziehen können. Ich stand auch kurz davor meine 9800pro zu verkloppen, jetzt bin ich mit FC durch, nochmal zock ich das aber sicher nich, und auch so liefs anständig :)
Also warte ich auf 800er XTs zu besseren Preisen...

WEGA
2004-05-09, 17:44:57
bei hohen auflösungen und AA is auf jeden fall die radeon besser

LovesuckZ
2004-05-09, 17:45:35
Original geschrieben von WEGA
bei hohen auflösungen und AA is auf jeden fall die radeon besser

Genau die falsche Konstellation...

WEGA
2004-05-09, 17:48:39
Original geschrieben von LovesuckZ
Genau die falsche Konstellation...

hä?!?! stimmt schon so

Uller
2004-05-09, 17:50:56
Bei hohen Auflösungen und AF (und AA) ist die Radeon schneller ;D

xL|Sonic
2004-05-09, 17:51:12
Blubb....meiner ist länger, nein stimmt ja gar nicht, meiner ist länger...
sowas nervt echt langsam, wenn man sich mühsam durch 70 Seiten quälen muss, wobei auf mehr als der hälfte der seiten nur son Müll steht.
Welche Karte wie und wo schneller ist, ist von System zu System unterschiedlich und lässt sich nicht pauschalisieren. Die Karten sind im Endeffekt nahezu gleich schnell und es muss jeder abwägen, was nun besser zu ihm passt.
Die einen kaufen sich halt lieber nen BMW als nen Mercedes und andersrum.
Ich meine ich bin auch Pro ATI und Pro AMD, werde mir aber wohl mal nen Centrino Notebook von Intel holen, weil das zur Zeit halt für mich das beste darstellt und bin auch nicht abgeneigt mir evt. ne 6800 GT zu holen.
Weiterhin finde ich es schön, dass es ATI wieder geschafft hat vorne mitzuhalten und nicht gleich wieder in der Versenkung zu verschwinden, denn das wäre schlecht für uns alle.

LovesuckZ
2004-05-09, 17:52:13
Original geschrieben von Uller
Bei hohen Auflösungen und AF (und AA) ist die Radeon schneller ;D

exakt!

WEGA
2004-05-09, 17:52:43
Original geschrieben von Valmar
Blubb....meiner ist länger, nein stimmt ja gar nicht, meiner ist länger...
sowas nervt echt langsam, wenn man sich mühsam durch 70 Seiten quälen muss, wobei auf mehr als der hälfte der seiten nur son Müll steht.
Welche Karte wie und wo schneller ist, ist von System zu System unterschiedlich und lässt sich nicht pauschalisieren. Die Karten sind im Endeffekt nahezu gleich schnell und es muss jeder abwägen, was nun besser zu ihm passt.
Die einen kaufen sich halt lieber nen BMW als nen Mercedes und andersrum.
Ich meine ich bin auch Pro ATI und Pro AMD, werde mir aber wohl mal nen Centrino Notebook von Intel holen, weil das zur Zeit halt für mich das beste darstellt.
Weiterhin finde ich es schön, dass es ATI wieder geschafft hat vorne mitzuhalten und nicht gleich wieder in der Versenkung zu verschwinden, denn das wäre schlecht für uns alle.

och, eine runde mitleid O_o

Piffan
2004-05-09, 17:53:53
Original geschrieben von reunion
100%ige vergleichbarkeit wird man sowieso nie bekommen, allerdings sind die unterschiede beim AF wirklich minimalst genauso wie beim AA bis 4x, wodurch ich schon der meinung bin dass man bis 4xAA und 8xAA (beide mit fultri) vergleichen kann...

Wenn man volles Tri über alle Texturschichten auf der Ati aktiviert, dann ist wohl eine Vergleichbarkeit möglich. Aber auch nur dann!

Ich habe keine Ahnung, ob die R420 auch nur Bi- Einheiten in Hardware hat. Wenn ja, dann ist der Performance- Unterschied sehr hoch zwischen vollem Tri und der Mogelpackung von Ati! Kann man bezogen auf die reale Spieleleistung nicht in Prozenten ansagen, da es ja nur zum Tragen kommt, wenn die Füllrate der Graka wirklich gebraucht wird.

Der optische Unterschied zwischen Atis Mogelpackung und dem vollen Trilinearen Filtern ist in manchen Fällen so hoch, dass man auch gleich auf das komplette Bilineare Filtern umschalten kann. Liegt einfach daran, dass die Designer in zunehmendem Maße auch hochaufgelöste Texturen auf die höheren Stages legen. Bei Max Payne 1 war es sogar durchgehend so, dass die Grundtextur nicht auf Stage 0 lag, und bei Farcry ist es in Innnelevels unerträglich deutlich zu sehen, dass Ati schummelt. In Level Archiv gibts einige Stellen, da glaubt man einfach nicht, dass Ati einem diese Filterung als Tri- Filter unterjubeln will......

Also bitte: Lasst das Spekulieren, haltet euch an Fakten. Wenn hier gelogen wird, halte ich mit Screens dagegen! Mit FPS- Zahlen...... :down:

Demirug
2004-05-09, 17:59:57
Original geschrieben von Piffan
Ich habe keine Ahnung, ob die R420 auch nur Bi- Einheiten in Hardware hat.

Hat er. Bisher hat nur S3 auf Trilinear TMUs gesetzt.

Piffan
2004-05-09, 18:00:56
Original geschrieben von Valmar
Blubb....meiner ist länger, nein stimmt ja gar nicht, meiner ist länger...
sowas nervt echt langsam, wenn man sich mühsam durch 70 Seiten quälen muss, wobei auf mehr als der hälfte der seiten nur son Müll steht.
Welche Karte wie und wo schneller ist, ist von System zu System unterschiedlich und lässt sich nicht pauschalisieren. Die Karten sind im Endeffekt nahezu gleich schnell und es muss jeder abwägen, was nun besser zu ihm passt.
Die einen kaufen sich halt lieber nen BMW als nen Mercedes und andersrum.
Ich meine ich bin auch Pro ATI und Pro AMD, werde mir aber wohl mal nen Centrino Notebook von Intel holen, weil das zur Zeit halt für mich das beste darstellt und bin auch nicht abgeneigt mir evt. ne 6800 GT zu holen.
Weiterhin finde ich es schön, dass es ATI wieder geschafft hat vorne mitzuhalten und nicht gleich wieder in der Versenkung zu verschwinden, denn das wäre schlecht für uns alle.

Richtig! Im Grunde sind die Chips von der Leistung absolut ebenbürtig! WEnn ein nennenswerter Leistungsunterschied besteht, dann bitte so zeigen, dass nicht wieder Äppel mit Birnen oder besser noch Sauerkraut mit Vanillekreme verglichen wird. Der unsägliche Vergleich mit dem Supersampling scheint doch die DAUS hier intellektuell mächtig zu überfordern.....Die Mogelei mit den Texturestages scheint hingegen so subtil zu sein, dass selbst Thilo von PcGH auf den Leim kriecht und hofft, dass der Unterschied schon nicht so groß sein wird.....

Wäre gut, wenn mal ne Seite einen Bench laufen lässt, wo man für Grakalimitierung sorgt (etwas Innenlevel von Farcry) und den Performancedrop vom vollen Tri ausmisst. Leute wie aths oder demirurg sollte es eigentlich prognostizieren können (wenn bekannt ist, ob die Texture- Units beim R420 Tri- oder Bi- AF können).

Demirug
2004-05-09, 18:10:19
Original geschrieben von Piffan
Die Mogelei mit den Texturestages scheint hingegen so subtil zu sein, dass selbst Thilo von PcGH auf den Leim kriecht und hofft, dass der Unterschied schon nicht so groß sein wird.....

Hier muss ich Thilo in Schutz nehmen. Er wollte es ja ausschalten. Aus logistischen Gründen hat das aber nicht funktioniert.

Wäre gut, wenn mal ne Seite einen Bench laufen lässt, wo man für Grakalimitierung sorgt (etwas Innenlevel von Farcry) und den Performancedrop vom vollen Tri ausmisst. Leute wie aths oder demirurg sollte es eigentlich prognostizieren können (wenn bekannt ist, ob die Texture- Units beim R420 Tri- oder Bi- AF können).

Es gibt ja bekanntermassen mehr als eine Möglichkeit was bei einer Grafikkarte limitieren kann. Nicht umsonst hält nVidia stundelang Vorträge zu dem Thema Flaschenhälse. Normalerweise braucht man den direkten Zugang zur Engine um herauszufinden was den nun jeweils limitiert.

Im Moment sehe ich aber schon ein Problem dabei eine Grafikkarte dazu zu zwingen Tri und AF wie gefordert zu benutzten und die Eigenmächtigkeiten der Treiber zu unterbinden.

Mayhem
2004-05-09, 18:23:27
Original geschrieben von Piffan
Wäre gut, wenn mal ne Seite einen Bench laufen lässt, wo man für Grakalimitierung sorgt (etwas Innenlevel von Farcry) und den Performancedrop vom vollen Tri ausmisst.
das hab ich mir auch schon gewünscht. hoffentlich wird das noch hier nachgeholt. und das ganze noch mit screenshots von 'f1 challenge 02' würzen (da sieht man auf der detailtextur nämlich richtig schön die bugwelle mit AF). vielleicht kann das ja mal jemand mit R3xx hier reinstellen, damit man auch mal wirklich sieht, warum atis controlpanel-af mist ist.

Piffan
2004-05-09, 18:33:09
Original geschrieben von Demirug
Hier muss ich Thilo in Schutz nehmen. Er wollte es ja ausschalten. Aus logistischen Gründen hat das aber nicht funktioniert.





Dazu schrieb ich ja oben schon den passenden Kommentar: Wenn man es nicht auschalten kann, dann muss man den Missstand halt umgehen........Man kann ja die Settings bis zur Vergleichbarkeit hochtreiben (hieße hier dann konsequenterweise beide Karten nur mit Bifilter und mit max. 4xFSAA) und die Auflösung auf den höchstmöglichen Wert zu setzen (Ergonomie zählt hier dann eben nicht mehr).....

MikBach
2004-05-09, 18:34:53
Original geschrieben von Demirug
Im Moment sehe ich aber schon ein Problem dabei eine Grafikkarte dazu zu zwingen Tri und AF wie gefordert zu benutzten und die Eigenmächtigkeiten der Treiber zu unterbinden.

Na dann gute Nacht. Jetzt wird der CheatWar erst richtig losgehen! :bonk:
Einfach krank. :balla:

Demirug
2004-05-09, 18:41:41
Original geschrieben von Piffan
Dazu schrieb ich ja oben schon den passenden Kommentar: Wenn man es nicht auschalten kann, dann muss man den Missstand halt umgehen........Man kann ja die Settings bis zur Vergleichbarkeit hochtreiben (hieße hier dann konsequenterweise beide Karten nur mit Bifilter und mit max. 4xFSAA) und die Auflösung auf den höchstmöglichen Wert zu setzen (Ergonomie zählt hier dann eben nicht mehr).....

Klar kannst man sowas machen wenn man beide Karten auf einmal hat. Wenn man allerdings mit einer Karte schon durch ist bevor die zweite zur Verfügung steht sieht es schlecht aus.

Piffan
2004-05-09, 18:53:56
Original geschrieben von Demirug
Klar kannst man sowas machen wenn man beide Karten auf einmal hat. Wenn man allerdings mit einer Karte schon durch ist bevor die zweite zur Verfügung steht sieht es schlecht aus.

Ach so! Jetzt weiß ich, was Du mit "logistisch" meinst....lol

Und beim atuner stand ihm auch noch die falsche Version zur Verfügung? Tja, ein echter Teufelskreis halt. Und dann drückt auch noch der Abgabetermin wie ne volle Blase....Na dann wird die Sache ja immer plausibler.....*eg*

deekey777
2004-05-09, 19:04:50
Noch bis vor Kurzem haben alle die 9800 vs. 5900 mit 4xAA getestet, ohne dass jemanden gestört hat, dass die AA Qualität einer Radeon der FX weit überlegen ist. Das gleiche auch bei AF - nix mit Winkelabhängigkeit bei der FXen. Aber es hat niemanden (bis auf wenige) richtig gestört. Es gab nur einen kleinen Hinweis. Jetzt ist es auch nicht anders.

Gas8t
2004-05-09, 19:15:09
Diese endlose Diskussion langweilt langsam!

X800 ist eh die bessere Wahl! Was ist noch unklar???

Mayhem
2004-05-09, 19:19:23
Original geschrieben von deekey777
Noch bis vor Kurzem haben alle die 9800 vs. 5900 mit 4xAA getestet ... Aber es hat niemanden (bis auf wenige) richtig gestört ...
es wurde a) eigentlich immer betont, dass BQ(AA) bei ati besser ist/war und b) hat sich nvidia mit dem schlechteren sampleraster keine bessere performance "erarbeitet".

MikBach
2004-05-09, 19:22:10
Original geschrieben von deekey777
Noch bis vor Kurzem haben alle die 9800 vs. 5900 mit 4xAA getestet, ohne dass jemanden gestört hat, dass die AA Qualität einer Radeon der FX weit überlegen ist. Das gleiche auch bei AF - nix mit Winkelabhängigkeit bei der FXen. Aber es hat niemanden (bis auf wenige) richtig gestört. Es gab nur einen kleinen Hinweis. Jetzt ist es auch nicht anders.
Als Normalspieler würde ich die Qualität der Beiden schon als sehr gut bezeichen, da ich einige kenne, die noch nicht mal sehen ob AA/AF an ist. :bonk:
Hier im Forum gibt es jedoch viele Spezialisten/Perfektionisten die es ganz genau wissen wollen.
Ich z.B. sehe das AA einfach auf den ersten Blick(bei Bewegung). Beim AF muss ich schon genauer hinschauen(ausser bei Gothic 1/2, da ist ATI´s AF nicht so toll).

Piffan
2004-05-09, 19:24:23
Genau das ist der Punkt: Ati verschafft sich durch die AF- Mogelei einen großen Vorsprung. Bei NV war der 4x-FSAA- Modus halt nur dazu gut, um die Karte ordentlich zu belasten.

tokugawa
2004-05-09, 19:24:23
Original geschrieben von Gas8t
Diese endlose Diskussion langweilt langsam!

X800 ist eh die bessere Wahl! Was ist noch unklar???

Nicht für alle!

Unter anderem nicht für mich! Und auch nicht für die meisten anderen Entwickler!



Hör endlich auf Einzeiler zu schreiben die relativ engstirnig und dumm sind.

Piffan
2004-05-09, 19:25:52
Original geschrieben von tokugawa
Nicht für alle!

Unter anderem nicht für mich! Und auch nicht für die meisten anderen Entwickler!



Hör endlich auf Einzeiler zu schreiben die relativ engstirnig und dumm sind.

Ack! Wenn es denn so langweilt, einfach mal die Klappe halten. Was liest der überhaupt noch?

tokugawa
2004-05-09, 19:26:51
Original geschrieben von Valmar
Blubb....meiner ist länger, nein stimmt ja gar nicht, meiner ist länger...
sowas nervt echt langsam, wenn man sich mühsam durch 70 Seiten quälen muss, wobei auf mehr als der hälfte der seiten nur son Müll steht.
Welche Karte wie und wo schneller ist, ist von System zu System unterschiedlich und lässt sich nicht pauschalisieren. Die Karten sind im Endeffekt nahezu gleich schnell und es muss jeder abwägen, was nun besser zu ihm passt.
Die einen kaufen sich halt lieber nen BMW als nen Mercedes und andersrum.
Ich meine ich bin auch Pro ATI und Pro AMD, werde mir aber wohl mal nen Centrino Notebook von Intel holen, weil das zur Zeit halt für mich das beste darstellt und bin auch nicht abgeneigt mir evt. ne 6800 GT zu holen.
Weiterhin finde ich es schön, dass es ATI wieder geschafft hat vorne mitzuhalten und nicht gleich wieder in der Versenkung zu verschwinden, denn das wäre schlecht für uns alle.


Ich finde es auch ok, wenn einmal Gleichstand herrscht. Aber Fanboys können anscheinend nicht mal in dieser Situation mal die Klappe halten...

Egal, ich mag NVIDIA wegen ihres Developer-Supports, und weil die ihre Tools und Papers nicht so gegen die Konkurrenz schreiben wie ATI es tut (soll heißen, NVIDIA ist offen genug, um ATI dazu einzuladen, ihre Tools auch mitzuunterstützen, da es dem Entwickler was bringen würde, und endlich die Grabenkämpfe sein zu lassen). Ich wünsche mir von ATI noch immer ein R2xx Profil für Cg.

Mayhem
2004-05-09, 19:27:05
Original geschrieben von Gas8t
X800 ist eh die bessere Wahl! Was ist noch unklar???
hallo gas8t, vielleicht könntest du uns alle hier noch einmal mit deinen qualifizierten aussagen bzgl. x800 erleuchten? das war nämlich eben eigentlich ziemlich interessant!

MikBach
2004-05-09, 19:30:54
Original geschrieben von Gas8t
Diese endlose Diskussion langweilt langsam!

X800 ist eh die bessere Wahl! Was ist noch unklar???
:rocket: :chainsaw2 :spam: :krank:

Sorry, aber die Gäste gehen langsam auf den Geist!

Sphinx
2004-05-09, 19:38:43
Original geschrieben von tokugawa
Ich finde es auch ok, wenn einmal Gleichstand herrscht. Aber Fanboys können anscheinend nicht mal in dieser Situation mal die Klappe halten...

Egal, ich mag NVIDIA wegen ihres Developer-Supports, und weil die ihre Tools und Papers nicht so gegen die Konkurrenz schreiben wie ATI es tut (soll heißen, NVIDIA ist offen genug, um ATI dazu einzuladen, ihre Tools auch mitzuunterstützen, da es dem Entwickler was bringen würde, und endlich die Grabenkämpfe sein zu lassen). Ich wünsche mir von ATI noch immer ein R2xx Profil für Cg.


Nicht dein ernst oder ?

Einen comment erspar ich mir und setz dich auch auf Ignore.

Winter[Raven]
2004-05-09, 19:47:56
Einen comment erspar ich mir und setz dich auch auf Ignore.

Am besten setz du dich auch noch persönlich auf die ignoreliste.

tztztz
2004-05-09, 19:48:00
Original geschrieben von Sphinx
Nicht dein ernst oder ?

Einen comment erspar ich mir und setz dich auch auf Ignore. du bist lustig! guck auf deine sig und setze dich mal selber auf deine ignore list.

lol

tztztz
2004-05-09, 19:49:01
@Winter[Raven]

prost

Piffan
2004-05-09, 19:52:05
Original geschrieben von Winter[Raven]
Am besten setz du dich auch noch auf die ignorliste.

Ack! Als MOD hätte ich wegen Beleidigung und sinnlose Flamerei ein Pünktli spendiert. Fanboy der untersten Schublade. :krank:

edit: geändert.

Winter[Raven]
2004-05-09, 19:55:59
Original geschrieben von Piffan
Ack! Als MOD hätte ich wegen Beleidigung und sinnlose Flamerei ein Pünktli spendiert.
Gegen ow hetzen und krakelen, aber selbst Fanboy der untersten Schublade....... :krank:

Ich sehe weit und breit ow nicht ... habe ich je gegen in was gehetzt? :kratz:

Ich habe nie abgestritten dass ich ein Nvidia bin, ich stehe dazu, aber wenn ich sowas lese was Sphinx postet krieg ich echt ne Halz. Der gute ist durch und durch ATI Fanboy erster Güte, wer nicht seiner Meinung ist, kommt auf die Ignorliste.

Desweiteren war es weder eine Beleidugung ein persönlicher Angriff, sonder eine Feststellung.

Piffan
2004-05-09, 19:59:10
Original geschrieben von Winter[Raven]
Ich sehe weit und breit ow nicht ... habe ich je gegen in was gehetzt? :kratz:

Ich habe nie abgestritten dass ich ein Nvidia bin, ich stehe dazu, aber wenn ich sowas lese was Sphinx postet krieg ich echt ne Halz. Der gute ist durch und durch ATI Fanboy erster Güte, wer nicht seiner Meinung ist, kommt auf die Ignorliste.

Ich habe dir doch zugestimmt. Ack= acknowledge :)

Das mit dem Krakelen habe ich schon längst editiert, sonst müsste ich ja einen Beleg finden ;)

MikBach
2004-05-09, 19:59:27
Original geschrieben von Piffan
Ack! Als MOD hätte ich wegen Beleidigung und sinnlose Flamerei ein Pünktli spendiert. Fanboy der untersten Schublade. :krank:


Wo hat er denn bitte beleidigt?
Jemanden auf Ignore setzen ist doch nicht gleich BELEIDIGEN!
Denk mal nach. :)

Sphinx
2004-05-09, 20:01:44
Original geschrieben von tztztz
du bist lustig! guck auf deine sig und setze dich mal selber auf deine ignore list.

lol

Er´m ich habe da einen wunderschönen lustigen zitat von dem Mister als SIG welches zu Zeiten von ihm kam als die R97ooPro erschien.

Ich IGNORIERE absofort jeden. der ERST Postet ohne drüber nachzudenken was er da denn schreibt. || Da sieht das Forum gleich viel besser aus...+ sonst muss ich mich nicht mit postings auseinandersetzen die sich jeglicher Grundlage entziehen.

Es gibt HLSL... XNA... und warum sollte ATI CG Unterstützen wollen|müssen wegen den NV3x Usern die auch mal flüssig spielen wollen in Zukunft ?...

Winter[Raven]
2004-05-09, 20:02:42
Original geschrieben von Piffan
Ich habe dir doch zugestimmt. Ack= acknowledge :)

Das mit dem Krakelen habe ich schon längst editiert, sonst müsste ich ja einen Beleg finden ;)

Ups ^^. Da hab ich wohl was falsch verstanden ;). Sorry wenn ich dich angefahren habe :).

Könnte ein Mod meinen Posting löschen, wäre echt suppa :):up:

LovesuckZ
2004-05-09, 20:03:11
Original geschrieben von Sphinx
Es gibt HLSL... XNA... und warum sollte ATI CG Unterstützen wollen|müssen wegen den NV3x Usern die auch mal flüssig spielen wollen in Zukunft ?...

Und was davon laeuft unter OpenGL?
Solltest wohl selbst mal "drüber nachzudenken was [du] da denn schreib[s]t".

Doc_Nitro
2004-05-09, 20:03:16
Für mich als Gamer zählt nur das was ich aufm Bildschirm sehe und wie sich das ganze spielt (fps,iq etc.) Wie das erreicht wird iss mir eigentlich egal. Da hat mich in der letzten Zeit halt ATI mehr überzeugt als Komplettpaket.

Wenn da Insider irgendwelche Technikthreads lostreten versteh ich eh nur Bahnhof, was mich ehrlich gesagt ned so bewegt, was zählt hab ich oben schon beschrieben und ch denke so denken die meisten Gamer.

In vergangener Zeit wurde zb 3DFX auch wegen angeblicher Technik Features gegnüber NVidia (32Bit versus 24Bit) schlecht geredet obwohl für mich das gesehene, die Treiber und die FPS mich mehr überzeugt haben. Auch wenn se halt ne Monopol Situation mit der Glide Schnittstelle hatten, es war ne Revolution im 3D Game Bereich.

Und wenn das ATI halt mit den optimierten und bewährten Features schafft welche sich in den letzten Monaten bewährt haben isses für mich OK.

Ueberlegt mal wie alt die Porsche 911 Serie mit Ihren immer wieder verbesserten Upgrades durchhielt sehe ich da eine Parallele. Es wird nur dann wirklich was Neues gebracht wenn man sich davon was verspricht.

Ich bewundere leute die im Detail alles über Programmieren von Spielen etc viel wissen und das erklären können, dem Dau wie mir iss das aber fremd und der orieniert sich halt nur am visuell festgestellten auf seinem Monitor und da hat meines Erachtens ATI zur Zeit die Nase vorn was Bildqualität und Ergonomie angeht.

Sphinx
2004-05-09, 20:08:50
Original geschrieben von LovesuckZ
Und was davon laeuft unter OpenGL?
Solltest wohl selbst mal "drüber nachzudenken was [du] da denn schreib[s]t".

GLSL `?

LovesuckZ
2004-05-09, 20:10:06
Original geschrieben von Sphinx
GLSL `?

Ich kann mich taeuschen, aber das solle nur für PS/VS2.0 und hoeher gut sein, soweit ich das mitbekommen habe...

betasilie
2004-05-09, 20:12:02
Original geschrieben von tokugawa
Egal, ich mag NVIDIA wegen ihres Developer-Supports, und weil die ihre Tools und Papers nicht so gegen die Konkurrenz schreiben wie ATI es tut (soll heißen, NVIDIA ist offen genug, um ATI dazu einzuladen, ihre Tools auch mitzuunterstützen, da es dem Entwickler was bringen würde, und endlich die Grabenkämpfe sein zu lassen). Ich wünsche mir von ATI noch immer ein R2xx Profil für Cg.
Also wenn jemand die letzten Jahre mit unfeinen Mitteln gegen die Konkurrenz gearbeitet hat, dann ist das NVidia. Wie oft hat NV die Konkurrenz diffamiert!? Das was was ATI jetzt macht, hat NV selber gesät.

Imho ist es einfach lächerlich NV als soziale Institution hinzustellen. NV sieht schlicht die Felle davon schwimmen, weil ATI aktuell die bessere Leitung zu MicroSoft hat und will deshalb mit ATI auf Schmusekurs gehen.

Wer ernsthaft glaubt, dass NV ATI was gutes will, dem ist nicht mehr zu helfen.

Piffan
2004-05-09, 20:15:08
Original geschrieben von Doc_Nitro
Für mich als Gamer zählt nur das was ich aufm Bildschirm sehe und wie sich das ganze spielt (fps,iq etc.) Wie das erreicht wird iss mir eigentlich egal. Da hat mich in der letzten Zeit halt ATI mehr überzeugt als Komplettpaket.

Wenn da Insider irgendwelche Technikthreads lostreten versteh ich eh nur Bahnhof, was mich ehrlich gesagt ned so bewegt, was zählt hab ich oben schon beschrieben und ch denke so denken die meisten Gamer.

In vergangener Zeit wurde zb 3DFX auch wegen angeblicher Technik Features gegnüber NVidia (32Bit versus 24Bit) schlecht geredet obwohl für mich das gesehene, die Treiber und die FPS mich mehr überzeugt haben. Auch wenn se halt ne Monopol Situation mit der Glide Schnittstelle hatten, es war ne Revolution im 3D Game Bereich.

Und wenn das ATI halt mit den optimierten und bewährten Features schafft welche sich in den letzten Monaten bewährt haben isses für mich OK.

Ueberlegt mal wie alt die Porsche 911 Serie mit Ihren immer wieder verbesserten Upgrades durchhielt sehe ich da eine Parallele. Es wird nur dann wirklich was Neues gebracht wenn man sich davon was verspricht.

Ich bewundere leute die im Detail alles über Programmieren von Spielen etc viel wissen und das erklären können, dem Dau wie mir iss das aber fremd und der orieniert sich halt nur am visuell festgestellten auf seinem Monitor und da hat meines Erachtens ATI zur Zeit die Nase vorn was Bildqualität und Ergonomie angeht.

Im Prinzip hast Du recht, es zählt letztlich der Output und nicht der Weg, wie er erreicht wird. Aber von Fachleuten, die mit Samples der Hardware versorgt werden und die dann einen öffentlichkeitswirksamen Artikel unters Volk bringen, muss man allerdings Professionalität erwarten.....
Und wenn dann in Medien die berüchtigten Balkendiagramme einen haushohen Leistungsunterschied suggerieren, der in Wahrheit gar nicht vorhanden ist, dann gibts da zwei Möglichkeiten: Vollste Absicht, also gekaufte Redis, oder Pannen/ungünstige Umstände, wie bei der PcGH.....Bei Leos Artikel habe ich eigentlich nur zu bemängeln, dass da wieder die Benches mit dem Supersamplingmodes durchgeführt werden, obwohl die Ati da überhaupt nix anbietet. Stattdessen nimmt man für die Ati wieder performanceschonende Modi, die einen haushohen Unterschied suggerieren. Weil aber Supersampling weitergehende Wirkung hat als das Multisampling, ist es wieder der sinnlose Sauerkraut/Vanillekrem- Vergleich. Böse Absicht hat Leo damit mit Sicherheit nicht, eher überschätzt er die Kenntnisse bzw. Intelligenz der Leser, die lediglich einen Schwanz- äh Balkenvergleich wollen.....

MikBach
2004-05-09, 20:15:26
Original geschrieben von LovesuckZ
Ich kann mich taeuschen, aber das solle nur für PS/VS2.0 und hoeher gut sein, soweit ich das mitbekommen habe...

Recht hast du, aber wollen wir wirklich in die Vergangenheit(R200) zurückrudern?
Lass es.

WEGA
2004-05-09, 20:17:37
hier mal ne asus http://www.3dchips-fr.com/images/news/1083848740.jpg

seh einfallsreich der kühler :/

Sphinx
2004-05-09, 20:19:08
Hiermal um einigen Nvidia Jüngern die Segeln zu nehmen ,=) Betreff Charts und böse Wörtern...

http://www.digit-life.com/articles2/radeon/ati-canada-1404-ati-all.html


Areas of Focus : Das Chart...

robbitop
2004-05-09, 20:20:08
@Piffan
ich bezweifle dass PCGH gekauft worden ist.
Sie sind zwar die "besten" im Bereich 3D bei den Printmags, aber das ist dort auch nicht soo schwer.
Selbst im Web gibt es nur vermutlich 2-5% an wirklich brauchbaren Redaktionen.
Ich denke, dass evl der Anspruch für die breite Leserschaft zu hoch wäre. Und soweit ich weiss, ist es schwer komerziell und dann noch mit Platzproblemen (Printmag) in speziellen Bereichen gut zu sein.
Ich will PCGH nicht in Schutz nehmen, aber ich verstehe, warum das so ist.
Ich nehme bis auf ein paar Redaktionen im Netz sowieso kaum noch was für bahre Münze was HW angeht. Ist einfach zuviel Halbwissen dabei.

dildo4u
2004-05-09, 20:20:12
Original geschrieben von WEGA
hier mal ne asus http://www.3dchips-fr.com/images/news/1083848740.jpg

seh einfallsreich der kühler :/ schade naj der referenz soll ja sher leise sein dann kann man sich auch eine shappire holen

Piffan
2004-05-09, 20:21:08
Original geschrieben von WEGA
hier mal ne asus http://www.3dchips-fr.com/images/news/1083848740.jpg

seh einfallsreich der kühler :/

Was soll daran besonderes sein? :kratz:

Immerhin ne Single- Slot- Lösung. Wobei mir ein exhausting- System lieber wäre. Aber dann würden ja irgendwelche Trolle wieder einen Grund mehr haben zum Flamen..........

WEGA
2004-05-09, 20:21:31
Original geschrieben von dildo4u
schade naj der referenz soll ja sher leise sein dann kann man sich auch eine shappire holen

ich hohle mir unter umständen ne sapphire und lasse entweder den standardkühler drau, einen der neuen VGA-silencer oder tu meine heatpipe drauf (passiv)

Demirug
2004-05-09, 20:23:37
Original geschrieben von LovesuckZ
Ich kann mich taeuschen, aber das solle nur für PS/VS2.0 und hoeher gut sein, soweit ich das mitbekommen habe...

Stimmt schon. Die DX8-Generation wurde bei OpenGL einfach vernachlässigt.

dildo4u
2004-05-09, 20:23:45
Original geschrieben von Piffan
Was soll daran besonderes sein? :kratz:

Immerhin ne Single- Slot- Lösung. Wobei mir ein exhausting- System lieber wäre. Aber dann würden ja irgendwelche Trolle wieder einen Grund mehr haben zum Flamen.......... Haste mal sein smiley gesehen?

Piffan
2004-05-09, 20:26:03
Original geschrieben von WEGA
ich hohle mir unter umständen ne sapphire und lasse entweder den standardkühler drau, einen der neuen VGA-silencer oder tu meine heatpipe drauf (passiv)

Ich habe in meinem Medion- Rechner ne 9800 XT werkeln. Ist ein Sondermodell von MSI mit einem eigenen Kühlerdesignt. Leider pfeift der Lüfter dort sehr hochfrequent. Jetzt habe ich ihn abgeschaltet und einen TMD- Lüfter von Y- Tech draufgeschnallt. Da geht zwar ein Slot verloren, dafür ist jetzt Ruhe im Kasten.....

Ehe ich über eine Kühlung lästere, höre ich sie mir lieber persönlich an.....

Demirug
2004-05-09, 20:26:50
Original geschrieben von Sphinx
Hiermal um einigen Nvidia Jüngern die Segeln zu nehmen ,=) Betreff Charts und böse Wörtern...

http://www.digit-life.com/articles2/radeon/ati-canada-1404-ati-all.html


Areas of Focus : Das Chart...

Und du glaubst wirklich was ATI da der Presse erzählt?

Piffan
2004-05-09, 20:27:42
Original geschrieben von dildo4u
Haste mal sein smiley gesehen?

Jetzt schon.... ;D

tztztz
2004-05-09, 20:28:47
Original geschrieben von Demirug
Und du glaubst wirklich was ATI da der Presse erzählt? ignorieren ist besser;)

dildo4u
2004-05-09, 20:28:50
Original geschrieben von Piffan
Ich habe in meinem Medion- Rechner ne 9800 XT werkeln. Ist ein Sondermodell von MSI mit einem eigenen Kühlerdesignt. Leider pfeift der Lüfter dort sehr hochfrequent. Jetzt habe ich ihn abgeschaltet und einen TMD- Lüfter von Y- Tech draufgeschnallt. Da geht zwar ein Slot verloren, dafür ist jetzt Ruhe im Kasten.....

Ehe ich über eine Kühlung lästere, höre ich sie mir lieber persönlich an..... laut pcgh läuft der kühler mit 7V und mit 1.5sone was wirklich sher leise ist normal sind um 3 sone die neuen karten brauchen definitiv weniger kühlung als die 9800XT wie ick find eine elektronische meisterleistung bis jetzt hatte eigentlich jede neue generation einen immer grösseren kühler

WEGA
2004-05-09, 20:29:23
Original geschrieben von Piffan
Ich habe in meinem Medion- Rechner ne 9800 XT werkeln. Ist ein Sondermodell von MSI mit einem eigenen Kühlerdesignt. Leider pfeift der Lüfter dort sehr hochfrequent. Jetzt habe ich ihn abgeschaltet und einen TMD- Lüfter von Y- Tech draufgeschnallt. Da geht zwar ein Slot verloren, dafür ist jetzt Ruhe im Kasten.....

Ehe ich über eine Kühlung lästere, höre ich sie mir lieber persönlich an.....

hä? was hab ich denn gesagt, dass du so antwortest?

hab doch gesagt, dass ich entweder den standard drauflasse oder...

aber macht ja nix

MikBach
2004-05-09, 20:29:32
Original geschrieben von robbitop
@Piffan
ich bezweifle dass PCGH gekauft worden ist.
Sie sind zwar die "besten" im Bereich 3D bei den Printmags,

LoL. Die Printmags haben bei den DAUS doch Hochkojunktur!:D
Deswegen können wir uns hier den Mund fusselig reden, aber keiner von den Daus merkt das!
Und die PCGH ist laut meinen neusten Erfahrungen(Freunde, Bekannte) hoch in Kurs.
Da kann aber die Gamestar Hardware mit ihrem "Profiwissen" einpacken.

MadMan2k
2004-05-09, 20:30:39
Original geschrieben von Piffan
Immerhin ne Single- Slot- Lösung. Wobei mir ein exhausting- System lieber wäre.
ein exhasuting System ist aber im 1Slot Design aber schlecht zu machen - und wenn man auf 2Slot geht gibts wieder Probleme mit Barebones...

Demirug
2004-05-09, 20:30:39
Original geschrieben von betareverse
Also wenn jemand die letzten Jahre mit unfeinen Mitteln gegen die Konkurrenz gearbeitet hat, dann ist das NVidia. Wie oft hat NV die Konkurrenz diffamiert!? Das was was ATI jetzt macht, hat NV selber gesät.

Imho ist es einfach lächerlich NV als soziale Institution hinzustellen. NV sieht schlicht die Felle davon schwimmen, weil ATI aktuell die bessere Leitung zu MicroSoft hat und will deshalb mit ATI auf Schmusekurs gehen.

Wer ernsthaft glaubt, dass NV ATI was gutes will, dem ist nicht mehr zu helfen.

beta, ATI und nVidia geben sich da nicht viel.

"Business is war. Arm yourself."

Piffan
2004-05-09, 20:36:35
Original geschrieben von dildo4u
laut pcgh leuft der kühler mit 7V und mit 1.5sone was wikrlich sher leise ist normal sind um 3 sone die neun karten bracuhen definitiv weniger kühlung als die 9800XT wie ick find eine elektronische meisterleistung bis jetzt hatte eigentlich jede neueu generation eine immer grösseren kühler

Nichts gegen die Chipkünste von Ati, aber einen NV 40 kann man nun wirklich nicht mit dem R420 vergleichen. Von der Performance- Entwicklung ist der R420 zwar ne neue Generation, aber von der Technologie und damit der Transistorenzahl her eher eine Weiterentwicklung eines bewährten und hervorragenden Designs......Erst der R500 kann energietechnisch mit dem NV 40 verglichen werden. Und da ist Ati ja mit dem ersten Anlauf gescheitert.

Piffan
2004-05-09, 20:38:22
Original geschrieben von WEGA
hä? was hab ich denn gesagt, dass du so antwortest?

hab doch gesagt, dass ich entweder den standard drauflasse oder...

aber macht ja nix

Klar macht das was. Ich habe Dich falsch verstanden. Sorry! :)

MikBach
2004-05-09, 20:41:33
Original geschrieben von Piffan
Nichts gegen die Chipkünste von Ati, aber einen NV 40 kann man nun wirklich nicht mit dem R420 vergleichen. Von der Performance- Entwicklung ist der R420 zwar ne neue Generation, aber von der Technologie und damit der Transistorenzahl her eher eine Weiterentwicklung eines bewährten und hervorragenden Designs......
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1784818#post1784818

betasilie
2004-05-09, 20:41:54
Original geschrieben von Demirug
beta, ATI und nVidia geben sich da nicht viel.

"Business is war. Arm yourself."
Genau darauf wollte ich hinaus. ;)

Weder ATI noch NV wollen dem anderen was schenken, außer sie haben selber einen Vorteil dadurch. Und solange keiner von beiden wirklich betrügt, muss man sich damit abfinden, dass mit harten Bandagen gekämpft wird.

dildo4u
2004-05-09, 20:44:06
Original geschrieben von Piffan
Nichts gegen die Chipkünste von Ati, aber einen NV 40 kann man nun wirklich nicht mit dem R420 vergleichen. Von der Performance- Entwicklung ist der R420 zwar ne neue Generation, aber von der Technologie und damit der Transistorenzahl her eher eine Weiterentwicklung eines bewährten und hervorragenden Designs......Erst der R500 kann energietechnisch mit dem NV 40 verglichen werden. Und da ist Ati ja mit dem ersten Anlauf gescheitert. hab ich auch nicht gemacht ich hab von vorgänger generation also dem 9800XT gesprochen

Gas9t
2004-05-09, 20:48:45
Original geschrieben von Piffan
Nichts gegen die Chipkünste von Ati, aber einen NV 40 kann man nun wirklich nicht mit dem R420 vergleichen. Von der Performance- Entwicklung ist der R420 zwar ne neue Generation, aber von der Technologie und damit der Transistorenzahl her eher eine Weiterentwicklung eines bewährten und hervorragenden Designs......Erst der R500 kann energietechnisch mit dem NV 40 verglichen werden. Und da ist Ati ja mit dem ersten Anlauf gescheitert.

Naja, der NV40 ist nichts anderes als ein 2*NV38 mit PS3.0 Support, das die Qualtität beim NV40 so schlecht wissen ja seit dem NV38.

Grüsse

Demirug
2004-05-09, 21:03:14
Original geschrieben von Gas9t
Naja, der NV40 ist nichts anderes als ein 2*NV38 mit PS3.0 Support, das die Qualtität beim NV40 so schlecht wissen ja seit dem NV38.

Grüsse

Ein bischen mehr ist es schon. nVidia hat eigentlich den ganzen Pixelprozessor umgebaut um die IPC zu steigern.

knallebumm
2004-05-09, 21:32:26
Mal was anderes: Schön zu sehen, daß in vielen aktuellen reviews der 3dmark Blödsinn nichts mehr zu suchen hat.

MikBach
2004-05-09, 21:39:22
Original geschrieben von handyman
Mal was anderes: Schön zu sehen, daß in vielen aktuellen reviews der 3dmark Blödsinn nichts mehr zu suchen hat.
Ist auch richtig so. Wer spielt den schon 3dmark. ;D

ironMonkey
2004-05-09, 21:40:34
Original geschrieben von handyman
Mal was anderes: Schön zu sehen, daß in vielen aktuellen reviews der 3dmark Blödsinn nichts mehr zu suchen hat.


Lass die Karten erstmal unter die Leute kommen und schon gehts los.


Gruß

tokugawa
2004-05-09, 22:06:41
Original geschrieben von Sphinx
Nicht dein ernst oder ?

Einen comment erspar ich mir und setz dich auch auf Ignore.

Was hab ich denn so böses geschrieben?

Sphinx
2004-05-09, 22:07:01
Original geschrieben von ironMonkey
Lass die Karten erstmal unter die Leute kommen und schon gehts los.

Gruß

Dem noch hinzuzufügen währe das die entsprechenden Spiele bald erscheinen... seid 2 Jahren nur 3 Gute Spiele gekauft... nichtmal ne Handvoll.

tokugawa
2004-05-09, 22:08:34
Original geschrieben von MikBach
Wo hat er denn bitte beleidigt?
Jemanden auf Ignore setzen ist doch nicht gleich BELEIDIGEN!
Denk mal nach. :)

Er setzt mich unbegründet auf die Ignorelist...

Ich empfinde das als Beleidigung.

Zumal ich eigentlich nichts geschrieben hab, was irgendwie "Fanboytum" war. Nur das, was ich von Developer-Seite so selber wahrnehme (was natürlich subjektiv ist, aber das hab ich auch so gekennzeichnet).

Versteh ich echt nicht... komm mir vor wie ein böser Fanboy, obwohl ich nichts gemacht hab :P

reunion
2004-05-09, 22:12:45
Original geschrieben von Demirug
Schau mal dort: http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/mai/atis_texturfilter_lupe/

Oh, das wusste ich nicht, weiss man inzwischen schon was der Grund dafür ist?

tokugawa
2004-05-09, 22:20:08
Original geschrieben von betareverse
Also wenn jemand die letzten Jahre mit unfeinen Mitteln gegen die Konkurrenz gearbeitet hat, dann ist das NVidia. Wie oft hat NV die Konkurrenz diffamiert!? Das was was ATI jetzt macht, hat NV selber gesät.

Imho ist es einfach lächerlich NV als soziale Institution hinzustellen. NV sieht schlicht die Felle davon schwimmen, weil ATI aktuell die bessere Leitung zu MicroSoft hat und will deshalb mit ATI auf Schmusekurs gehen.

Wer ernsthaft glaubt, dass NV ATI was gutes will, dem ist nicht mehr zu helfen.

PR/Marketing und Ingenieure/Developer sind nicht dieselbe Sektion! Sicher war das Marketing von NVIDIA aggressiv, aber Marketing ist Marketing, und mir als Techniker und Dilbert-Leser ist Marketing sowas von schnurz, und repräsentiert für mich nicht die gesamte Firma.

Ich sprach dediziert vom Developer Support (kannst ja nochmal zurückgehen und lesen was ich so schrieb), und der ist von NVIDIA so ziemlich ohne Vergleich.

Und wie gesagt, es liegt nur an ATI, ein R2xx Profil für Cg zu erstellen. Dann könnte man ATI's DX8-Generationshardware vielleicht auch mal "gscheit" unter OpenGL ansprechen (Shader betreffend), ohne einen eigenen Renderpfad zu schreiben.

Weitere andere Beispiele wären z.B. bei der Präsentation des FX Composer bei der GDC, wo die Frage auftauchte, ob FX Composer auch auf ATI läuft. Die Antwort war "ja", und die einzige Einschränkung ist, dass FX Composer kein Plugin hat, um die Shader auf ATI Hardware zu profilen, es wäre aber kein Problem solche Plugins für ATI Hardware zu erstellen, und sie würden ATI einladen, es zu tun.

Außerdem sind Optimierungs- und Verbesserungsvorschläge in NVIDIA-Papers normalerweise ziemlich universal einsetzbar (bezüglich GPUs verschiedener Hersteller) und gut (sh. Shader-Optimierung, OpenGL-Optimierung, uvm.). Das kann man nicht immer von ATI Präsentationen sagen (erinnert sich wer noch an "Save the Nanosecond"?).

Dies alles ist das, was bei mir persönlich mehr Eindruck macht als was irgendein Marketing-Fuzzi beider Firmen erzählt. Und außerdem auch das, mit dem ich mit meiner Arbeit mit Computergrafik eher Kontakt habe (deswegen fällt mir auch eine schlechtere Qualität in der OpenGL-Implementation, wie sie ATI in einigen Catalyst-Versionen im Vergleich zu NVIDIA hatte, eher auf als einem "normalen Gamer").

Natürlich ist das alles eine subjektive Sicht aus meiner Warte, die nun mal nicht die reine "Gamer-Schiene" ist - aber das wird ja wohl noch erlaubt sein. Außerdem ist es ein Gegenpol zu all den "Reinen Gamern", für die ATI vermutlich die besseren Karten macht. Aber Gamer sind nicht die einzigen Nutzer von Grafikkarten (und nein, nicht alle "Profis" kaufen sich Quadros oder ähnliche Grafikkarten - man würde gar nicht glauben in wie vielen Computergrafik-Instituten in wievielen Unis handelsübliche Grafikkarten benutzt werden).

MikBach
2004-05-09, 22:22:08
Original geschrieben von tokugawa
Er setzt mich unbegründet auf die Ignorelist...

Ich empfinde das als Beleidigung.

Zumal ich eigentlich nichts geschrieben hab, was irgendwie "Fanboytum" war. Nur das, was ich von Developer-Seite so selber wahrnehme (was natürlich subjektiv ist, aber das hab ich auch so gekennzeichnet).

Versteh ich echt nicht... komm mir vor wie ein böser Fanboy, obwohl ich nichts gemacht hab :P

Ich kann dich voll verstehen! :)

Ich habe halt nur gesegt, dass jemanden auf die Ignoreliste zu setzen nicht gleich mit Beleidigung ist(im üblichen Sinne)!
Ich habe die Aussagege von Sphinx auch nicht so richtig einordnen können, aber Beleidigungen sehen für mich anders aus.
BTW kannst du uns mehr zu den SM3.0-Spielen Im Juni sagen?
Ich würde mich sehr freuen. :)

tokugawa
2004-05-09, 22:26:39
Original geschrieben von MikBach
Ich kann dich voll verstehen! :)

Ich habe halt nur gesegt, dass jemanden auf die Ignoreliste zu setzen nicht gleich mit Beleidigung ist(im üblichen Sinne)!
Ich habe die Aussagege von Sphinx auch nicht so richtig einordnen können, aber Beleidigungen sehen für mich anders aus.
BTW kannst du uns mehr zu den SM3.0-Spielen Im Juni sagen?
Ich würde mich sehr freuen. :)

Ja, es war keine direkte Beleidigung, nur halt etwas wo ich mir den Kopf kratze und mir denke "häh? was sollte das eben?".

Und ich kann mich nicht erinnern "Juni" gesagt zu haben :D .

Aber ich erwarte zumindest folgendes:

-) 3.0er Shader (für FX Composer bzw. im Paket enthalten) downloadbar von http://developer.nvidia.com

-) und diese könnte man relativ problemlos in eine Engine die bereits Shader Model 2.0 unterstützt, reinstopfen

-) und damit hätte man ein SM 3.0 Spiel :D

Es werden, seitdem es Tools wie NVIDIA FX Composer und ATI RenderMonkey gibt, eh schon eifrig "Shader" entwickelt, und zum Download angeboten (und auch eifrig getauscht).


(da fällt mir ein... bei der derzeitigen Tendenz mit dem Patentwahnsinn werden sicher einzelne Shader irgendwann mal patentiert werden - spätestens dann wenn die Software-Lizenzen in der EU realisiert werden...)

Demirug
2004-05-09, 22:33:07
Original geschrieben von reunion
Oh, das wusste ich nicht, weiss man inzwischen schon was der Grund dafür ist?

Nein, aber ich habe aus zuverlässiger Quelle erfahren das es nicht nur CoD betrifft. AFAIK will aber jemand bei ATI mal nachfragen.

MarcWessels
2004-05-09, 22:34:45
Original geschrieben von robbitop
Ein guter Test ist zB bei Tecchannel.
dort tritt die 6800U EE gegen ihren direkten Konkurrenten die XT an mit den neuen 61.11 Treibern. (hier ist per default auch Gleichheit im AF gegeben)

Nein, Gleichheit ist nicht gewährt, da die GeForce mit dem brilinearen Filter mehr Speed gewinnt als die Radeon mit der TextureStageoptimierung.

tokugawa
2004-05-09, 22:34:54
Original geschrieben von Sphinx
Er´m ich habe da einen wunderschönen lustigen zitat von dem Mister als SIG welches zu Zeiten von ihm kam als die R97ooPro erschien.

Ich IGNORIERE absofort jeden. der ERST Postet ohne drüber nachzudenken was er da denn schreibt. || Da sieht das Forum gleich viel besser aus...+ sonst muss ich mich nicht mit postings auseinandersetzen die sich jeglicher Grundlage entziehen.

Es gibt HLSL... XNA... und warum sollte ATI CG Unterstützen wollen|müssen wegen den NV3x Usern die auch mal flüssig spielen wollen in Zukunft ?...

Das war jetzt eine Beleidigung (du unterstellst mir, gepostet zu haben, bevor ich gedacht habe, was schlicht FALSCH ist).

Du weißt anscheinend absolut nicht, was Cg ist.

Noch mal zur Erklärung:

Cg ist ziemlich praktisch, als einzige API-unabhängige Hochsprache für Shader.

Mit FX Optimierung hat es nichts zu tun.

Das praktische an Cg ist, dass es eine library ist, die man in jedes Programm einbinden kann, und das auf jeder Hardware läuft.

Cg nimmt High Level Shader, und spuckt dann die konkreten Shader für DirectX 8, 9, OpenGL ARB, und NV spezifische Extensions aus.

Mit anderen Worten, auf DX8-Level Hardware (GF3, GF4 Ti) kann man mittels Cg unter OpenGL mit einer Hochsprache arbeiten (und das noch dazu mit derselben mit der man auch gleich unter DirectX selbst arbeiten kann). Cg kompiliert die Shader bei NV2x in die jeweiligen Shader der jeweiligen NV_ Extensions.

Für R3xx und NV3x kann Cg ARB-Shader ausspucken (ARB_vertex_program und ARB_fragment_program).

Für die mächtigeren NV3x Shader gibt's dann noch ein NV3x-spezifisches Profil.

Cg kann schon jetzt auf R3xx verwendet werden, und das sogar gut.

Was wirklich fehlt ist ein Profil für R2xx, weil R2xx nämlich genau wie NV2x keine standardisierte Shader-Extensions hat (OpenGL hat leider keine Standard-Extensions für DX8-Level Hardware, d.h. um diese mit Shadern zu nutzen, müsste man einen jeweiligen eignen Pfad programmieren).

Mit anderen Worten, Cg ist eine gute Library, um damit Renderpfade einzusparen.

Dass du da wieder Unlauteres seitens NVIDIA vermutest, zeugt nur von deiner Voreingenommenheit gegenüber NVIDIA. Und natürlich deiner Unwissenheit, was Cg eigentlich ist.


PS und Tipp: NVIDIA hat eine ganze Reihe von nützlichen Libraries die für jedermann zugänglich ist (auch unter OpenSource), eine weitere nette Library von NVIDIA ist der NVTriStrip (eine Triangle Stripping library).


EDIT: und mir kann man nun wirklich nicht vorwerfen parteiisch zu sein, wenn ich eine Radeon 9500 Pro und eine GF4 Ti habe (ich werf sicher nicht 217 Euro raus, nur um Unparteilichkeit vorzutäuschen).

Ach ja, wär schön wenn Sphinx das lesen könnte und erkennen würde, dass ich nicht ganz ohne zu denken poste :D

robbitop
2004-05-09, 22:37:32
Original geschrieben von MarcWessels
Nein, Gelichheit ist nicht gewährt, da die GeForce mit dem brinlinearen Filter mehr Speed gewinnt als die Radeon mit der TextureStageoptimierung.

ah? sagt wer?
ATi gewinnt theoretisch etwas unter ~100% Füllrate was von dem brilinearen Verfahren nicht zu sagen ist.

deekey777
2004-05-09, 22:38:35
Cg<->Render Monkey =:rail:

MikBach
2004-05-09, 22:41:23
Original geschrieben von tokugawa
Und ich kann mich nicht erinnern "Juni" gesagt zu haben :D .

Aber ich erwarte zumindest folgendes:

-) 3.0er Shader (für FX Composer bzw. im Paket enthalten) downloadbar von http://developer.nvidia.com

-) und diese könnte man relativ problemlos in eine Engine die bereits Shader Model 2.0 unterstützt, reinstopfen

-) und damit hätte man ein SM 3.0 Spiel :D

Es werden, seitdem es Tools wie NVIDIA FX Composer und ATI RenderMonkey gibt, eh schon eifrig "Shader" entwickelt, und zum Download angeboten (und auch eifrig getauscht).


(da fällt mir ein... bei der derzeitigen Tendenz mit dem Patentwahnsinn werden sicher einzelne Shader irgendwann mal patentiert werden - spätestens dann wenn die Software-Lizenzen in der EU realisiert werden...)
:D
1. Dein Link gefällt mir nicht. Nvidia. Aber egal. :|

Gehen wir tiefer in die Materie.

Du schreibst Spiele, welche den Vorteil von SM3.0 aufzeigen sollen.
IMO limitieren die Pixelshader beim Speed. VS-Power sollte doch genug vorhanden sein.
Mir ist schon klar, dass man ein Spiel so proggen kan, dass man den Vorteil von SM3.0 sieht, die Frage lautet nur- ist das auch nicht realitätsfremd?
Weisst du worauf ich aus will, oder soll ich noch weiter ausholen?

MarcWessels
2004-05-09, 22:41:33
Original geschrieben von Piffan
Den Test in der PcGH habe ich auch gelesen. Ist imho komplett für die Tonne, da man es nicht gerafft hat, die Schummeleien von ATI bezüglich der Textur- Stages abzustellen. Ist ein Armutszeugnis für die PcGH, weil man a) es wie gesagt nicht gepackt in hohen Settings Vergleichbarkeit herzustellen und b) sich nicht auf Settings beschränkt hat, die einen halbwegs brauchbaren Vergleich überhaupt erst ermöglichen....

*hüstel* Siehe ein paar Seiten zuvor in diesem Thread.

-> http://www.forumdeluxx.de/forum/showthread.php?t=57503&page=5&pp=25

Die von PCGH ermittelten Frameraten der X800XT wurden dort auf die Werte OHNE Texturestageoptimierung heruntergerechnet. :)


@dildo4you
Naja, immer zufrieden? Was ist denn z.B. mit BF 1942? Oder Halo? Da bei diesen Spielen die Basistextur nicht auf "0" sitzt, gibt es einen deutlich sichtbaren "Wall"-Effekt wenn man nicht per Tool auf volle trilineare Filterung auf allen Stages umschaltet.

tokugawa
2004-05-09, 22:42:02
Original geschrieben von Sphinx
GLSL `?


Erstens bin ich mir nicht sicher, ob GLSL überhaupt mit der R2xx funktioniert (ARB_vertex_program und ARB_fragment_program gehen ja auch nicht auf der R2xx).

Genau darum geht's ja. Die NV2x und R2xx Hardware backen jeweils ein eigenes Süppchen bezüglich Shader (das wäre jeweils ein eigener Renderpfad).

Cg kann ARB_fragment_program und ARB_vertex_program Shader ausspucken, das heißt Cg funktioniert schon auf R3xx sowie NV3x. Außerdem spuckt es auch gleich die NV_ spezifischen Shader für die NV2x aus.

ATI müsste nur ein eigenes Profil für Cg erstellen, dann könnte man Cg

a) als wirklich übergreifende Shader-Sprache für OpenGL einsetzen (leider trifft das nicht auf ARB_fragment_program und ARB_vertex_program zu, und ich bezweifle auch dass auf "ältere" Hardware jemals GLSL laufen wird, da GLSL vermutlich einfach in ARB_ Shader kompiliert).

b) es außerdem als API-unabhängige "Shader-Metasprache" verwenden.

tokugawa
2004-05-09, 22:43:26
Original geschrieben von deekey777
Cg<->Render Monkey =:rail:


Was hat Cg mit RenderMonkey zu tun?

Cg ist eine (HLSL-kompatible) Sprache sowie eine Library!

RenderMonkey ist ein Shader-Authoring Tool (das außerdem nur DirectX Shader unterstützt).

LovesuckZ
2004-05-09, 22:45:17
Original geschrieben von MarcWessels
*hüstel* Siehe ein paar Seiten zuvor in diesem Thread.
-> http://www.forumdeluxx.de/forum/showthread.php?t=57503&page=5&pp=25
Die von PCGH ermittelten Frameraten der X800XT wurden dort auf die Werte OHNE Texturestageoptimierung heruntergerechnet. :)


Welcher Grundlage?
Die Stageoptimierung bringt in UT2004 45% Leistungszuwachs. Es ist also nicht pauschal zu sagen, es bringe nur 10% oder weniger.

tokugawa
2004-05-09, 22:45:54
Original geschrieben von MikBach
:D
1. Dein Link gefällt mir nicht. Nvidia. Aber egal. :|

Gehen wir tiefer in die Materie.

Du schreibst Spiele, welche den Vorteil von SM3.0 aufzeigen sollen.
IMO limitieren die Pixelshader beim Speed. VS-Power sollte doch genug vorhanden sein.
Mir ist schon klar, dass man ein Spiel so proggen kan, dass man den Vorteil von SM3.0 sieht, die Frage lautet nur- ist das auch nicht realitätsfremd?
Weisst du worauf ich aus will, oder soll ich noch weiter ausholen?


SM 3.0 inkludiert sowohl VS 3.0 als auch PS 3.0.

Ich hatte irgendwo nur ein Beispiel gegeben, dass VS 3.0 beim Vertex Blending einfach mehr Joints/Bones unterstützen würde als VS 2.0, und dadurch, trotz fast identem Shader, eben die Grenzen von VS 2.0 sprengen würde.

Von PS 3.0 sprach ich noch nicht mal, da ich mir die noch genauer anschauen muß. Aber Vertex Shader sind sowieso die "unterschätzten" Shader, dabei haben die IMO viel mehr Relevanz in Zusammenhang mit Engine-Programmierung.

Und ich erwähnte nie dass ich ein Spiel schreibe. Aber ich dementiere es auch nicht :D

EDIT: zu deinem Punkt 1. ich empfehle wirklich die NVIDIA Developer Seite. Enthält viel nützliche Informationen, außerdem würde so mancher die Voreingenommenheit gegenüber NVIDIA verlieren, wenn er sich mal auf der Developer-Seite umsieht. Ist nämlich ein gänzlich anderes Gesicht als die "PR-Seite" von NVIDIA, und beweist eindrucksvoll, dass Marketing-Fuzzis NIE die gesamte Firma repräsentieren.

PS: Auch die ATI Developer Seite (http://www.ati.com/developer) ist nett, wenn auch nicht ganz so extensiv und umfangreich wie die NVIDIA Developer-Site.

Winter[Raven]
2004-05-09, 22:50:44
Original geschrieben von deekey777
Cg<->Render Monkey =:rail:

Also wirklich, ist es jetzt Mode Äpfel mit Birnen zuvergleichen?

robbitop
2004-05-09, 22:51:01
@Marc
wie hast du denn die Frameraten herruntergerechnet?
woher weisst du, wie heftig der Füllratenimpact in jeder Szene ist?
Soetwas kann sehr sehr dynamisch sein. Besonders in Situationen wo Füllrate ein heftig limitierender Faktor ist, können es in der Praxis bis zu 48% Performancedrop sein. In anderen hingegen limitiert zB der Pixelshader oder die Bandbreite, dort ist der Impact nicht so hoch.

Ich persönlich würde auf die Werte nicht ganz so fixiert sein

tokugawa
2004-05-09, 22:51:28
Ich will wieder von Sphinx ge-unignort werden :(

Fühl mich wie ein Verbrecher...

robbitop
2004-05-09, 22:55:37
hm seine Reaktion hat ihn doch selbst ziemlich disquallifiziert, ich würde an deiner Stelle keinen Wert drauf legen. Bei einigen Kommentaren hier kann man wirklich nur den Kopf schütteln (damit bist nicht du gemeint Toku ;) )

sorry for OT

MikBach
2004-05-09, 22:58:59
Original geschrieben von tokugawa
SM 3.0 inkludiert sowohl VS 3.0 als auch PS 3.0.
Scherzkecks. Bin auch schon bisschen müde. :)
Original geschrieben von tokugawa
Ich hatte irgendwo nur ein Beispiel gegeben, dass VS 3.0 beim Vertex Blending einfach mehr Joints/Bones unterstützen würde als VS 2.0, und dadurch, trotz fast identem Shader, eben die Grenzen von VS 2.0 sprengen würde.
Ich meine du hättest behauptät, dass VS3.0 so seeeehr viel Speed bringen würden.
Aber wo das war?:kratz:
Ich blicke nicht mehr so richtig durch in diesen Riesenthreads!!:(
Original geschrieben von tokugawa
Von PS 3.0 sprach ich noch nicht mal, da ich mir die noch genauer anschauen muß.
Das ist der Punkt.
Und ich erwähnte nie dass ich ein Spiel schreibe. Aber ich dementiere es auch nicht :D

;D

MikBach
2004-05-09, 23:04:04
Original geschrieben von tokugawa
Ich will wieder von Sphinx ge-unignort werden :(

Leider OT:
Ich plediere auch dafür, aber der pennt doch bestimmt schon. Morgen soll er es ändern.

tokugawa
2004-05-09, 23:04:49
Original geschrieben von MikBach
Scherzkecks. Bin auch schon bisschen müde. :)

Ich meine du hättest behauptät, dass VS3.0 so seeeehr viel Speed bringen würden.


Na, was ich sagte war, dass z.B. wenn ein älterer VS z.B. 8 Matrizen von der Engine mitbekommen konnte (also etwa 8 Bones in einem Skeletal Animation System), wird wohl VS 3.0 mehr Matrizen überliefert bekommen können. D.h. man ist weniger limitiert als mit älteren Shadern, obwohl es eigentlich derselbe Shader ist (kann nur mehr Matrizen mitliefern).

Damit kann man Situationen, wo man etwa auf VS-Vertex-Blending verzichtet hat (und auf die CPU gesetzt hat), diese dann auch mit dem VS-Vertex-Blender durchführen und die CPU entlasten. Ob es ein konkreter Speed-Up ist, muß sich je nach Situation zeigen, aber ein Vertex-Blending-Shader sollte sehr schnell sein, von daher könnte hier die Verlagerung von der CPU in die GPU einen Geschwindigkeitsvorteil haben.

Es war auch nur ein Beispiel eines wenig spektakulären Shaders, der trotzdem nicht mehr auf VS 2.0 funktionieren würde (als Gegenpol dazu, dass manche irgendwie die Illusion haben, dass SM 3.0 Shader was "spektakuläres" sein müssen - ich sage halt einfach, ein 3.0er Shader kann auch einer sein, der einfach gleich ist wie ein 2.0er Shader aber z.B. mehr Matrizen von Programm geliefert bekommen kann (also weniger Limitationen hat).

Original geschrieben von MikBach
Aber wo das war?:kratz:
Ich blicke nicht mehr so richtig durch in diesen Riesenthreads!!:(

Das ist der Punkt.
;D

Ich blick auch langsam nicht mehr durch bei den Riesenthreads...

EDIT: ah ja, zu PS 3.0... notfalls kann man ja schnell ein paar der Beispiel-PS 3.0 von NVIDIA in seine Engine schupfen :D

MarcWessels
2004-05-09, 23:07:03
Original geschrieben von Gas9t
Das kann ich nur bestätigen!

Ich zocke gerade mit der X800Pro und die Karte geht ab wie SCHMITZ Katze!

Gerade bei hohen Einstellungen, Filter und co. glaube ich, ich sitze im Kino!


Die 1600x1200-Werte der PCGH sind falsch, da sie vergessen haben, daß sie lediglich FÜNF Benches durchgeführt haben! Geteilt haben sie die Summe nämlich durch ACHT!! :D


Deshalb hieße das (nach PCGH) korrekte Verhältnis->

86fps vs 60,8fps (Radeon im Schnitt also 41,4 % schneller als nVidia!)


Das korrigierte Verhältnis (mit deaktivierter Stageoptimierung auf ATI-Seite) würde folgendermaßen lauten->

82fps vs 60,8fps (X800XT ist 34,9% im Schnitt schneller als die 6800U!!)


Würde man nun die real 3% höheren Ergebnisse seitens nVidia mit dem 61.11-Treiber (Grundlage OGL, da in D3D der brilineare Filter nicht abschaltbar ist) und die im Schnitt 7% höheren Frameraten der 6800UE aufschlagen, käme man auf folgendes Ergebnis->

82fps vs 67fps

Daraus folgt, daß die X800XT im Schnitt (Anhaltspunkte Max Payne 2, UT 2004, Elite Force 2, Call of Duty, Halo) 22,4% schneller ist als die GeForce 6800 Ultra Extreme!!!

Das Bild ist durchaus als repräsentativ zu erachten, da es zwar zum einen "Neverwinter Nights" und zum anderen "XXX" (Komm jetzt auf den Namen nicht *lol*) gibt, die auf der GeForce DEUTLICH schneller als auf der Radeon laufen, demgegenüber stehen auf ATI-Seite aber "Tron" sowie "Homeworld 2", die eben wiederum auf den Chips der Kanadier überlegen schnell laufen.

22,4% zugunsten von ATI halte ich schon für einen deutlichen Sieg über nVidia.

tokugawa
2004-05-09, 23:10:01
Original geschrieben von MarcWessels
Die 1600x1200-Werte der PCGH sind falsch, da sie vergessen haben, daß sie lediglich FÜNF Benches durchgeführt haben! Geteilt haben sie die Summe nämlich durch ACHT!! :D


Deshalb hieße das (nach PCGH) korrekte Verhältnis->

86fps vs 60,8fps (Radeon im Schnitt also 41,4 % schneller als nVidia!)


Das korrigierte Verhältnis (mit deaktivierter Stageoptimierung auf ATI-Seite) würde folgendermaßen lauten->

82fps vs 60,8fps (X800XT ist 34,9% im Schnitt schneller als die 6800U!!)


Würde man nun die real 3% höheren Ergebnisse seitens nVidia mit dem 61.11-Treiber (Grundlage OGL, da in D3D der brilineare Filter nicht abschaltbar ist) und die im Schnitt 7% höheren Frameraten der 6800UE aufschlagen, käme man auf folgendes Ergebnis->

82fps vs 67fps

Daraus folgt, daß die X800XT im Schnitt (Anhaltspunkte Max Payne 2, UT 2004, Elite Force 2, Call of Duty, Halo) 22,4% schneller ist als die GeForce 6800 Ultra Extreme!!!

Das Bild ist durchaus als repräsentativ zu erachten, da es zwar zum einen "Neverwinter Nights" und zum anderen "XXX" (Komm jetzt auf den Namen nicht *lol*) gibt, die auf der GeForce DEUTLICH schneller als auf der Radeon laufen, demgegenüber stehen auf ATI-Seite aber "Tron" sowie "Homeworld 2", die eben wiederum auf den Chips der Kanadier überlegen schnell laufen.

22,4% zugunsten von ATI halte ich schon für einen deutlichen Sieg über nVidia.

Aber nur wenn man das arithmetische Mittel verwendet :D

Spricht irgendwas gegen den Median?

robbitop
2004-05-09, 23:17:36
@Tokugawa

mit meiner Schelte warst du nicht gemeint ;)
mit dem Rat aber schon =)
nicht dass es noch Mißverständnisse gibt ^^

deekey777
2004-05-09, 23:23:18
Original geschrieben von tokugawa
Was hat Cg mit RenderMonkey zu tun?

...

Gar nichts, das eine ist von nVidia, das andere von ATi. Unterstützt ATi Cg? Nein. Unterstützt nVidia Render Monkey? Nein.

Mehr wollte ich nicht sagen.

Exxtreme
2004-05-09, 23:32:25
Original geschrieben von tokugawa
Und wie gesagt, es liegt nur an ATI, ein R2xx Profil für Cg zu erstellen. Dann könnte man ATI's DX8-Generationshardware vielleicht auch mal "gscheit" unter OpenGL ansprechen (Shader betreffend), ohne einen eigenen Renderpfad zu schreiben.

Weitere andere Beispiele wären z.B. bei der Präsentation des FX Composer bei der GDC, wo die Frage auftauchte, ob FX Composer auch auf ATI läuft. Die Antwort war "ja", und die einzige Einschränkung ist, dass FX Composer kein Plugin hat, um die Shader auf ATI Hardware zu profilen, es wäre aber kein Problem solche Plugins für ATI Hardware zu erstellen, und sie würden ATI einladen, es zu tun.

Ich fürchte, du gehst leicht ... errmm,, "naiv" an die Sache ran mit solchen Beispielen. Aus Entwicklersicht wäre es sicherlich Klasse wenn ATi CG mitunterstützen würde. Nur musst du dir auch in Klaren sein, daß Nvidia nicht neutral ist bezüglich sowas. Immer zwei Seiten der Medailie betrachten. =)

Nehmen wir an, ATi bringt tatsächlich solche PlugIns für CG und andere Werkzeuge von NV. In dem Fall wäre ATi mehr oder weniger der Willkür NVs ausgeliefert. Wer garantiert denn, daß NV in der nächsten Version von CG nicht die Lizenzvereinbarungen ändert und Fremd-PlugIns immer noch zulässt? Mag sein, daß CG Opensource ist aber solange es nicht unter einer BSD- oder GPL-kompatiblen Lizenz steht, kannst du dir sowas knicken. Bei ATi gab es sicherlich Überlegungen ob man sowas unterstützen soll oder nicht. Wenn sich NV aber ein Hintertürchen offen gelassen hat um die Türe zuzumachen dann ist das eine Verschwendung von Resourcen da was reinzustecken. Für ATi war es dann sicherlich billiger was Eigenes aufzuziehen wie Ashli etc.

P.S. Und vlt. solltest du mal schauen warum nicht nur ATi kein CG unterstützt wenn es denn so toll für alle ist. =)

MikBach
2004-05-09, 23:33:29
Original geschrieben von MarcWessels
Die 1600x1200-Werte der PCGH sind falsch, da sie vergessen haben, daß sie lediglich FÜNF Benches durchgeführt haben! Geteilt haben sie die Summe nämlich durch ACHT!! :D


Deshalb hieße das (nach PCGH) korrekte Verhältnis->

86fps vs 60,8fps (Radeon im Schnitt also 41,4 % schneller als nVidia!)


Das korrigierte Verhältnis (mit deaktivierter Stageoptimierung auf ATI-Seite) würde folgendermaßen lauten->

82fps vs 60,8fps (X800XT ist 34,9% im Schnitt schneller als die 6800U!!)


Würde man nun die real 3% höheren Ergebnisse seitens nVidia mit dem 61.11-Treiber (Grundlage OGL, da in D3D der brilineare Filter nicht abschaltbar ist) und die im Schnitt 7% höheren Frameraten der 6800UE aufschlagen, käme man auf folgendes Ergebnis->

82fps vs 67fps

Daraus folgt, daß die X800XT im Schnitt (Anhaltspunkte Max Payne 2, UT 2004, Elite Force 2, Call of Duty, Halo) 22,4% schneller ist als die GeForce 6800 Ultra Extreme!!!

Das Bild ist durchaus als repräsentativ zu erachten, da es zwar zum einen "Neverwinter Nights" und zum anderen "XXX" (Komm jetzt auf den Namen nicht *lol*) gibt, die auf der GeForce DEUTLICH schneller als auf der Radeon laufen, demgegenüber stehen auf ATI-Seite aber "Tron" sowie "Homeworld 2", die eben wiederum auf den Chips der Kanadier überlegen schnell laufen.

22,4% zugunsten von ATI halte ich schon für einen deutlichen Sieg über nVidia.

Nicht schlecht. Wenn es stimmt sind wir schon ein bisschen schlauer geworden. Ich sehe mir das aber Morgen nochmal an, da ich jetzt zu müde dafür bin.
Gehe auch pennen.

@ tokugawa
Lass den Scheiss mit dem Median!
Wir sind hier nicht im Matheunterricht, sondern in einem 3D-Forum.
Nacht.

tokugawa
2004-05-09, 23:33:43
Original geschrieben von deekey777
Gar nichts, das eine ist von nVidia, das andere von ATi. Unterstützt ATi Cg? Nein. Unterstützt nVidia Render Monkey? Nein.

Mehr wollte ich nicht sagen.

Das ist nun wirklich ein Vergleich der absolut ungültig ist.

NVIDIA unterstützt RenderMonkey dadurch dass NVIDIA auch DirectX unterstützt... (bzw kann man sagen, ATI unterstützt auch NVIDIA).

Dasselbe kann man im Übrigen auch zu FX Composer sagen, was ja eigentlich NVIDIAs Äquivalent zu RenderMonkey ist.

Cg ist auf einem komplett anderen Level, und was komplett anderes. Ich sagte auch nie "unterstützen". Da muß nicht viel unterstützt werden. Ein R2xx Profil (wohlgemerkt, das ist die 8500/9000/9100/9200, NICHT die R3xx. Die werden von Cg schon unterstützt über ARB Extensions) würde nur bedeuten, dass Cg auch R2xx ATI Shader Extensions unter OpenGL als "Target" haben kann.

Wem bringt das was? Dem Entwickler. Denn der braucht dann nimmer

A) viele Renderpfade unter OpenGL für verschiedene Hardware
B) verschiedene Shader oder Shader-Syntax unter OpenGL und DirectX

Es wäre also im Interesse des Entwicklers, wenn es einen R2xx Pfad gäbe für Cg.

Theoretisch könnte das aber auch die OpenSource Community machen, da Cg soweit ich weiß OpenSource ist.

Jedenfalls bin ich dafür dass ich einfach ein R2xx Profil für Cg will ziemlich angegriffen worden, was ziemlich unfair ist. Immerhin hab ich nur das gesagt, was die meisten Entwickler wollen.

Es wäre ja mal schön wenn die R2xx überhaupt irgendwas bieten würde, mit dem man nicht Extrawürste für R2xx unter OpenGL zaubern muß...

Für die eigene NV2x Linie hat NVIDIA das ja immerhin mit Cg gelöst.

Nochmal: der Vorteil von Cg derzeit ist, dass man R3xx, NV3x, NV2x (und alle ARB-Shader, DX8, DX9 unterstützende Hardware) unter DirectX 8 und 9, sowie OpenGL mit derselben Shadersprache sowie demselben Interface unterstützt.

Es fehlt nur R2xx...

tokugawa
2004-05-09, 23:36:20
Original geschrieben von Exxtreme
Ich fürchte, du gehst leicht ... errmm,, "naiv" an die Sache ran mit solchen Beispielen. Aus Entwicklersicht wäre es sicherlich Klasse wenn ATi CG mitunterstützen würde. Nur musst du dir auch in Klaren sein, daß Nvidia nicht neutral ist bezüglich sowas. Immer zwei Seiten der Medailie betrachten. =)

Nehmen wir an, ATi bringt tatsächlich solche PlugIns für CG und andere Werkzeuge von NV. In dem Fall wäre ATi mehr oder weniger der Willkür NVs ausgeliefert. Wer garantiert denn, daß NV in der nächsten Version von CG nicht die Lizenzvereinbarungen ändert und Fremd-PlugIns immer noch zulässt? Mag sein, daß CG Opensource ist aber solange es nicht unter einer BSD- oder GPL-kompatiblen Lizenz steht, kannst du dir sowas knicken. Bei ATi gab es sicherlich Überlegungen ob man sowas unterstützen soll oder nicht. Wenn sich NV aber ein Hintertürchen offen gelassen hat um die Türe zuzumachen dann ist das eine Verschwendung von Resourcen da was reinzustecken. Für ATi war es dann sicherlich billiger was Eigenes aufzuziehen wie Ashli etc.

P.S. Und vlt. solltest du mal schauen warum nicht nur ATi kein CG unterstützt wenn es denn so toll für alle ist. =)

Bitte dein PS mehr erklären.


Und ja, aus Marketing-Sicht ist es naiv, das gebe ich zu.

Aber als Entwickler darf man ja noch Träume haben, oder?

Außerdem glaub ich nicht dass NV "so böse" ist, die Lizenzen so zu sperren, falls ATI das wirklich machen würde.

Es geht ja nur um alte Hardware, die R2xx.

Cg funktioniert prächtig mit R3xx zusammen unter OpenGL (da sie ja auch ARB Shader unterstützt).

Wenn NVIDIA so "böse" wäre, hätte sie die Cg Library so ausgelegt, dass sie nicht auf R3xx bzw alle ARB unterstützenden Chips funktioniert.

Exxtreme
2004-05-09, 23:45:35
Original geschrieben von tokugawa
Bitte dein PS mehr erklären.

OK. :) Aaalso, dir gefällt nicht, daß ATi CG nicht unterstützt. Nun ja ... warum tun es S3 und XGI auch nicht? Diese Firmen haben DX9-fähige Hardware und wenn CG so toll für alle wäre ohne jegliche Nachteile dann wäre es doch logisch auf den CG-Zug aufzuspringen. Also entweder sind alle blöd oder CG ist doch nicht ohne Nachteile.
Original geschrieben von tokugawa
Außerdem glaub ich nicht dass NV "so böse" ist, die Lizenzen so zu sperren, falls ATI das wirklich machen würde.

Auch wenn es hart klingt ... es ist nicht wichtig was du glaubst. Kannst du tatsächlich _garantieren_, daß NV die Türe doch nicht zumacht? Nein? Dann ist die Chose gegessen.
Original geschrieben von tokugawa
Es geht ja nur um alte Hardware, die R2xx.

Cg funktioniert prächtig mit R3xx zusammen unter OpenGL (da sie ja auch ARB Shader unterstützt).

Wenn NVIDIA so "böse" wäre, hätte sie die Cg Library so ausgelegt, dass sie nicht auf R3xx bzw alle ARB unterstützenden Chips funktioniert.
In den Führungsetagen sitzen meist keine Entwickler sondern Manager. Und die ticken komplett anders ... glaub's mir.

tokugawa
2004-05-09, 23:52:42
Original geschrieben von Exxtreme
OK. :) Aaalso, dir gefällt nicht, daß ATi CG nicht unterstützt. Nun ja ... warum tun es S3 und XGI auch nicht? Diese Firmen haben DX9-fähige Hardware und wenn CG so toll für alle wäre ohne jegliche Nachteile dann wäre es doch logisch auf den CG-Zug aufzuspringen. Also entweder sind alle blöd oder CG ist doch nicht ohne Nachteile.


Müssen sie auch nicht, denn Cg kann auch Shader schon für S3 und XGI kompilieren unter DirectX, hier und jetzt. Auch für R2xx unter DirectX.

Wenn S3 und XGI die ARB_fragment_shader und ARB_vertex_shader unterstützen, kann Cg auch schon für sie kompilieren.

Ich sag es nochmals: es geht nicht um _neue_ Hardware, sondern um die R2xx, die ja keinen wie auch immer gearteten Standard-Weg hat, Shader unter OpenGL einzubinden (genau wie die NV2x, aber für die gibt's ein Cg-Profil).

Original geschrieben von Exxtreme
Auch wenn es hart klingt ... es ist nicht wichtig was du glaubst. Kannst du tatsächlich _garantieren_, daß NV die Türe doch nicht zumacht? Nein? Dann ist die Chose gegessen.

In den Führungsetagen sitzen meist keine Entwickler sondern Manager. Und die ticken komplett anders ... glaub's mir.

Wenn's nach denen geht, ja. Aber dies ist der Developer-Bereich, und der _ist_ seperat von dem Bereich den die Manager im Normalfall sehen (das kann ich aus erster Quelle auch bestätigen, da ich jemanden kenne der eben dort arbeitet).

Soll heißen, die meisten Source Codes, Papers, und Libraries (dazu gehören eben Cg, NVTriStrip, uvm) sind offen erhältlich und werden es auch bleiben. Das kann ich nicht persönlich garantieren, aber ich kann dir zumindest garantieren, dass das sicher ist. Denn du glaubst gar nicht wie sehr diese Libraries, Source Codes, Papers usw. in der Forschung eingesetzt werden (unter anderem am CG-Institut meiner Uni). Außerdem ist Cg ja schon releast, ist eher seltsam wenn die von Software/Libraries, die man bereits hat, noch nachträglich die Lizenz ändern würden.

Frage an dich: hast du jemals mit einer NVIDIA Library (z.B. nvtristrip) schon was gemacht?

PS: das mit den Managern ist mir klar. Auch das mit dem Marketing. Gerade deswegen halte ich gerade diese Marketing und Manager-Fuzzis für nicht repräsentativ. Und glücklicherweise haben die auf den Developer-Bereich (der wesentlich akademischer ist) wenig Einfluß (vermutlich auch deswegen weil die das meiste nicht kapieren würden)

bill
2004-05-10, 00:10:32
@tokugawa
hast eine PN

MarcWessels
2004-05-10, 00:29:17
Original geschrieben von robbitop
@Marc
wie hast du denn die Frameraten herruntergerechnet?
woher weisst du, wie heftig der Füllratenimpact in jeder Szene ist?


Zuerst habe ich den Abfall beim Wechsel von 1024er OHNE AA und AF zu 1280 x 1024 (bzw. 1280x960 / 1600x1200) + 4xAA 8xAF auf einer 9800XT mit aktivierter Stageoptimierung prozentual gegen dasselbe Szenario auf der X800XT gestellt. Das alles natürlich für jedes Spiel bzw. Bench einzeln. Beispielsweise kam bei Spiel A dann heraus, daß die X800XT 40,xx % weniger abfällt als die 9800XT.

Die Werte für die 9800XT mit deaktivierter Optimierung waren ja angegeben also brauchte man dort nur rückwärts zu rechnen und hatte dann ein prozentuales Ergebnis, um wieviel die Framerate bei der X800XT bei Deaktvierung der Stageoptimierung einbrechen würde.

Bei den Spielen, wo die Zahlen der 9800XT ohne Optimierung fehlten habe ich sie anhand bekannter Zahlen hochgerechnet und wiederum auf die X800XT übertragen. Ähnliches mußte auch bei den 1600x1200-Werten gemacht werden.

Übrigens hast Du zwar Recht, was die theoretische Betrachtungsweise des Leistungsgewinns vom brilinearen Filter vs tril. gegenüber der Stageoptimierung von ATI vs. tril AF betrifft aber ich gehe da lieber nach den Ergebnissen aus der Praxis anhand von Benchmarkwerten. Allerdings stimmt es in der Tat, daß beispielsweise ATI durch die Optimierung 20% gewinnt (im Falle von Far Cry), nVidia hingegen nur 13%. Gegenbeispiele gibt es auch, alles in etwa gleicher Anzahl, also nehmen sich ATI und nVidia da im Schnitt wohl nichts.

robbitop
2004-05-10, 00:35:28
hm hört sich gar nicht mal so schlecht an was du da gerechnet hast...zumal die X800XT nicht mal so füllratenlimitiert ist wie die 9800.

Gumba
2004-05-10, 11:30:45
x800 pro für 378 € ?

http://shop.norskit.de/cgi-nord/preise.cgi?file=link.tpl&u=gast&p=gast&artnr=12998

Oder kann sich da noch was ändern ? Also für den preis würde ich mir die holen :D

Gas9t
2004-05-10, 12:42:32
Hi,

der Preis kann nicht STIMMEN.

Ich denke 449€-499€ wird ein realistischer Startpreis sein!

Grüsse

gsghdfg
2004-05-10, 12:48:53
Original geschrieben von Gas9t
Hi,

der Preis kann nicht STIMMEN.

Ich denke 449€-499€ wird ein realistischer Startpreis sein!

Grüsse
Eher 549€ was ich so höre!

AlfredENeumann
2004-05-10, 12:49:29
Der Preis ist absolut realistisch.

Gasrt
2004-05-10, 12:57:15
Original geschrieben von gsghdfg
Eher 549€ was ich so höre!

http://shop.norskit.de/cgi-nord/preise.cgi?file=link.tpl&u=gast&p=gast&artnr=12749

Soviel wird ungefähr die 6800 ultra kosten

PCGH_Thilo
2004-05-10, 15:40:53
Original geschrieben von Piffan
Die Mogelei mit den Texturestages scheint hingegen so subtil zu sein, dass selbst Thilo von PcGH auf den Leim kriecht und hofft, dass der Unterschied schon nicht so groß sein wird.....



Also Piffan, das ist doch Quatsch. Ich hab das 100x im Review geschrieben und in jedem Benchmark vermerkt. "auf den Leim kriechen" sieht ja wohl anders aus.

Fakt ist: wir haben alle NV40-benches eine woche vor red-schluss gemacht. wohlweislich mit tri-optimierung an/aus. und dann sind wir einen tag vor red.schluss zu ati gefahren, ohne zu wissen, was wir einstellen können. ich hatte kurzfristig noch mit extreme gemailt, der mir einen tipp für das rtool gegeben hat. das hat aber nicht gefunzt, die stage-optimierung ließ sich nicht deaktivieren. soll ich deswegen den ganzen test abblasen? weitere benchmarks mit nv40 waren zu dem zeitpunkt nicht möglich, da es genau 2 karten in deutschland gab und andere auch mal testen wollten.

jetzt haben wir erneut R420 gebencht (pro), und der unterschied zwischen stage optimierung an/aus ist wie erwartet relativ gering (zwischen 0 und 7 %, aber meist nur 2 %).

PCGH_Thilo
2004-05-10, 15:56:20
Original geschrieben von MarcWessels
*hüstel* Siehe ein paar Seiten zuvor in diesem Thread.

-> http://www.forumdeluxx.de/forum/showthread.php?t=57503&page=5&pp=25

Die von PCGH ermittelten Frameraten der X800XT wurden dort auf die Werte OHNE Texturestageoptimierung heruntergerechnet. :)


@dildo4you
Naja, immer zufrieden? Was ist denn z.B. mit BF 1942? Oder Halo? Da bei diesen Spielen die Basistextur nicht auf "0" sitzt, gibt es einen deutlich sichtbaren "Wall"-Effekt wenn man nicht per Tool auf volle trilineare Filterung auf allen Stages umschaltet.

"herunterzurechnen" ohne angabe der zugrunde liegenden rechensystematik... ich weiß nicht.

und dein einleitungskommentar im thread kannst du dir auch sparen. ich werde hier auch nicht persönlich.

PCGH_Thilo
2004-05-10, 15:59:56
Original geschrieben von MarcWessels
Die 1600x1200-Werte der PCGH sind falsch, da sie vergessen haben, daß sie lediglich FÜNF Benches durchgeführt haben! Geteilt haben sie die Summe nämlich durch ACHT!! :D


was soll falsch sein?

deekey777
2004-05-10, 16:40:49
Original geschrieben von PCGH_Thilo
....
jetzt haben wir erneut R420 gebencht (pro), und der unterschied zwischen stage optimierung an/aus ist wie erwartet relativ gering (zwischen 0 und 7 %, aber meist nur 2 %).

Heisst das jetzt Radiergummi und Bleistift herausholen und die Benchmarkergebnisse nachträglich korrigieren? ;D

Ihr schreibt auch, dass die R420 eine waschechte AGP-Grafikkarte ist. Heisst das, dass ATi zwei unterschiedliche GPUs (R420 und R423) entwickelt hat - einmal eine für AGP, andere für PCIe?

StefanV
2004-05-10, 16:43:16
Original geschrieben von deekey777
Ihr schreibt auch, dass die R420 eine waschechte AGP-Grafikkarte ist. Heisst das, dass ATi zwei unterschiedliche GPUs (R420 und R423) entwickelt hat - einmal eine für AGP, andere für PCIe?

Entweder das oder aber ATI hat einfach beides in den Chip gebacken, die entsprechenden Pins werden aber u.U. nicht nach außen geführt.

Ergo: R420 DIE = R423 DIE
R420 Träger != R423 Träger

ShadowXX
2004-05-10, 16:44:17
@PCGH_Thilo

hat sich eigentlich inzwischen was mit dem merkwürdigen Verhalten bei eingefärbten MipMaps ergeben???

(bzw. mit den Fillraten über max. Peak bei der 420Pro??)

aths
2004-05-10, 16:44:32
Original geschrieben von PCGH_Thilo
jetzt haben wir erneut R420 gebencht (pro), und der unterschied zwischen stage optimierung an/aus ist wie erwartet relativ gering (zwischen 0 und 7 %, aber meist nur 2 %). Mit welchen Mitteln habt ihr CPU-Limitierung ausgeschlossen?