PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATI x700 benchmarks


Seiten : [1] 2

Eleven
2004-09-21, 10:32:05
es geht offenbar los...

http://www.hardtecs4u.com/reviews/2004/ati_x700proxt/

Eleven
2004-09-21, 10:32:44
http://www.hardtecs4u.com/images/reviews/2004/ati_x700proxt/farcry.png

SamLombardo
2004-09-21, 11:02:55
Was willst Du uns mit diesem Bild sagen? Wenn, dann bitte auch die andere Seite :rolleyes:





http://www.hardtecs4u.com/images/reviews/2004/ati_x700proxt/doom3.png

Gast
2004-09-21, 11:11:14
Was willst Du uns mit diesem Bild sagen? Wenn, dann bitte auch die andere Seite :rolleyes:


Vorallem weil Shaderreplacement - err Doom3 sehr aussagekräfitg ist ;)

seahawk
2004-09-21, 11:12:10
ATI wieder vorne, was zu erwarten war. DOOMIII ist ein Sonderfall und nicht relevant.

Der 6600 ist zu beschnitten um mit dem X700 mithalten zu können. (unter allen Umständen)

Ich hätte den X700 gerne mal im Vergleich zu einer 9800pro/XT gesehen.

Damit hat ATI übringens jetzt in allen Marktsegmenten die schnellsten karten. :up: ;D (es darf gebasht werden)

Edit : zwecks leichterer Verständlichkeit

EL_Mariachi
2004-09-21, 11:17:15
Damit dominiert ATI sowohl das High-End als auch das Mainstream-Segment. :up:

fein, du darfst dir ein Schnitzel freuen ... :ugly: sry

SamLombardo
2004-09-21, 11:19:22
ATI wieder vorne, was zu erwarten war. DOOMIII ist ein Sonderfall und nicht relevant.

Damit dominiert ATI sowohl das High-End als auch das Mainstream-Segment. :up:

Wie bitte kommst du auf eine soche Aussage. In FC führt ati, in Doom3 führt NV noch viel deutlicher!, (FC: 50 zu 60 für Ati - 10fps Unterschied, Doom 3: 40 zu 70 für NV: 30fps Unterschied, in der 1024er Auflösung beträgt der Abstand gar 40fps) und in den anderen getesteten games liegen beide gleich auf!
Also sind deine Aussagen zunächst mal absolut nicht belegt...Und das Ati das High End Segment dominiert ist wohl der Witz des Tages, da will jemand die Realitäten nicht wahrhaben.

Tjell
2004-09-21, 11:19:49
Wie zu erwarten war, da nun beide auf 128 Bit Anbindung des VRAM setzen:

Die - im Schnitt aller Benchmarks - nur wenigen Prozentpunkte Performance-Unterschied zwischen den einzelnen Karten sind womöglich gar nicht einmal ein so gewichtiges Argument, vielmehr zählt sicherlich auch das gesamte Paket in Form von Lieferumfang, eventuelle Beigaben, Support und Preis, welches die einzelnen Grafikkarten-Hersteller schnüren werden. Somit soll mit diesem Benchmark-Sieg der Radeon X700XT nicht gesagt werden, daß die anderen beiden Karten keine Optionen darstellen können.

Ein bisher noch nicht genannter Punkt könnte allerdings alle anderen vorgenannten vollkommen aushebeln: Die Lieferbarkeit entsprechender Grafikkarten. Seitens nVidia gibt es diesbezüglich keine wirklich guten Nachrichten, denn die immerhin schon vor mehr als einem Monat vorgestellten GeForce 6600 /GT Grafikkarten sind noch bei weitem nicht im Handel erhältlich, vielmehr soll die Massenproduktion des NV43-Chips gar erst im Oktober richtig anlaufen. Sollte dies so zutreffen, so ist mit GeForce 6600 /GT Grafikkarten nicht vor November zu rechnen.

Doch auf auf ATi-Seite sieht dies - teilweise - nicht besser aus: Die Liefermenge an Radeon X700XT Grafikkarten soll anfänglich äußerst gering sein, womöglich den hohen Taktraten der XT-Version geschuldet. Somit scheint es fast so, als sollte die einzige demnächst verfügbare Grafikkarte aus dem neuen Mainstream-Trio die "kleinste" von allen sein, die Radeon X700 Pro. Wie Sapphire uns informierte, soll die Auslieferung dieser Karte seitens Sapphire demnächst starten, kaufbare Karten gibt es somit womöglich schon zum Monatsende.

Sollte dies so zutreffen und GeForce 6600GT sowie Radeon X700XT dagegen nicht erhältlich sein, so gehen unsere Empfehlungen natürlich allesamt zur Radeon X700 Pro. Sie mag die technisch langsamste der drei hier und heute getesteten Karten sein, doch der Abstand zur alten Mainstream-Generation ist auch so enorm, während die Unterschiede zu Radeon X700XT und GeForce 6600GT eher arg begrenzt sind. Fast spannender als die Benchmarks bleibt somit die Frage, wer denn nun als erster welche Grafikkarte in Stückzahlen ausliefern kann ... :-))

Gast
2004-09-21, 11:20:00
Ich sehe Ati nicht gleich vorne, es sind zwar sehr wenige Benchmarks, aber die Karte halten sich in etwa die Waage.

Der Preis wird alles entscheiden, zuerst aber die Lieferbarkeit. Die 6600er Karten sind wohl erst im Novembar verfügbar, ob zu Weihnachten ich in den Laden um die Ecke gehen kann, muß abgewartet werden. Wann es die X700 zu kaufen geben wird, weiß man leider nicht.

Gast
2004-09-21, 11:20:58
allerdings intressant dass eine 6600 GT mit 500/500 Mhz auch gegen eine x700 pro mit nur 430 / 475 Mhz verliert. Soviel zur tollen "Pro Mhz Leistung" des NV4x...

mrdigital
2004-09-21, 11:22:09
Und, Seahawk? Macht dich das glücklicher? Von dominieren seh ich da nicht viel, in D3 steht die nV 6600GT ziemlich gut im Futter, in FC sieht es für die ATI besser aus und im Rest liegen die ziemlich auf dem selben Level, in einer Spanne von ca. 10%. Das ist Also ein messbarer, aber kein spürbarer unterschied. Ich würd sagen von daher erstma Gleichstand, Preis, Verfügbarkeit und Lieferumfang werden das Rennen entscheiden.

Gast
2004-09-21, 11:22:26
ATI wieder vorne, was zu erwarten war. DOOMIII ist ein Sonderfall und nicht relevant.

Der 6600 ist zu beschnitten um mit dem X800 mithalten zu können.

Ich hätte den X700 gerne mal im Vergleich zu einer 9800pro/XT gesehen.

Damit hat ATI übringens jetzt in allen Marktsegmenten die schnellsten karten. :up: ;D

Das sehe ich auch so, aber wahrscheinlich können wir uns schon jetzt darauf einstellen das eine Doom3-Benchmarkkampagne beginnen wird.

nvidia wird versuchen das alle Webseiten nur Doom3 verwenden um Ihre Produkte mit ATI zu vergleichen.

lol

deekey777
2004-09-21, 11:24:37
ATI wieder vorne, was zu erwarten war. DOOMIII ist ein Sonderfall und nicht relevant.

Der 6600 ist zu beschnitten um mit dem X800 mithalten zu können.

Ich hätte den X700 gerne mal im Vergleich zu einer 9800pro/XT gesehen.

Damit hat ATI übringens jetzt in allen Marktsegmenten die schnellsten karten. :up: ;D


Wenn mich nicht alles täuscht, ist dieser Kommentar eher ein Seitenhieb Richtung Fanatiker und Fanboyz.

Gast
2004-09-21, 11:26:54
Wie bitte kommst du auf eine soche Aussage. In FC führt ati, in Doom3 führt NV noch viel deutlicher!, (FC: 50 zu 60 für Ati - 10fps Unterschied, Doom 3: 40 zu 70 für NV: 30fps Unterschied) und in den anderen getesteten games liegen beide gleich auf!
Also sind deine Aussagen zunächst mal absolut nicht belegt...Und das Ati das High End Segment dominiert ist wohl der Witz des Tages, da will jemand die Realitäten nicht wahrhaben.

Jetzt gehts sie los it's Partytime, die Fanboys sind wach!

ATI dominiert ganz klar den Highend! Wer das Gegenteil behauptet klammert sich an einem Dumm3-Spiel fest was ausschließlich auf NV3x optimiert wurde.

In allen anderen Spielen liegt ATI ganz klar vorne!

SamLombardo
2004-09-21, 11:27:12
Wenn mich nicht alles täuscht, ist dieser Kommentar eher ein Seitenhieb Richtung Fanatiker und Fanboyz.

Sollte seahawks Post tatsächlich Ironie sein, dann Hut ab :eek: Voll reingefallen.

EL_Mariachi
2004-09-21, 11:28:53
Jetzt gehts sie los it's Partytime, die Fanboys sind wach!

ATI dominiert ganz klar den Highend! Wer das Gegenteil behauptet klammert sich an einem Dumm3-Spiel fest was ausschließlich auf NV3x optimiert wurde.

In allen anderen Spielen liegt ATI ganz klar vorne!

hihi .. du brauchst was von "die Fanboys sind wach" pfeifen :)

SamLombardo
2004-09-21, 11:31:47
Jetzt gehts sie los it's Partytime, die Fanboys sind wach!

ATI dominiert ganz klar den Highend! Wer das Gegenteil behauptet klammert sich an einem Dumm3-Spiel fest was ausschließlich auf NV3x optimiert wurde.

In allen anderen Spielen liegt ATI ganz klar vorne!


Nagus, bist Du´s :) Jaaa klar, Doom 3 wurde AUSSCHLIEßLICH auf den NV3X optimiert. Deswegen ist die 6800er Serie auch so gut darin. Liebe Gäste (wers glaubt *g*) wenn Ihr schon rumpöbelt, dann bitte nicht mit solchem Halbwissen.

seahawk
2004-09-21, 11:35:42
Ich finde es hier langsam dämlich. Kaum ist ein Test da, schon beginnt das lustige "mein Balken ist länger als Deiner" Spiel.

Keiner bemüht sich auch nur ansatzweise die Ergebnisse zu hinterfragen.

z.B. tritt die X700 mit 256MB an, die 6600 nur mit 128MB.

Da erklärt sich imho einiges ...

Gast
2004-09-21, 11:38:27
hihi .. du brauchst was von "die Fanboys sind wach" pfeifen :)

Hm, eigentlich ist diese ganze Diskussion mit Benchmark hin oder her, oder wer ist schneller genau das was die Hersteller ja wollen, aber uns dem Verbraucher nützt sie gar nix.

Was ich RICHTIG toll finden würde wäre,

wenn 3Dcenter die Karten mal ganz anders vergleicht und somit einen NEUEN Trend setzen würde.

Für mich entscheident wäre in einem Produktvergleich ersteinmal....

- Bild-Qualität
- Passiv oder Aktiv Kühlung
- Lautstärke
- Hitzeentwicklung im Gehäuse
- Welcher Speicher wird verwendet / Bus 128Bit oder 256 Bit?
- TSOP
- DDR
- Fällt ein PCI-Steckplatzwech?

etc. pp

Dann würde ich einen FPS-Wert definieren pro Auflösung den eine Karte mindestens bringen muss damit das Spiel XXX flüssig SPIELBAR ist, aufgeschlüsset nach welcher CPU wird benötigt und welcher Hauptspeicher ist nötig.

Wenn mann dann diesen Wert definiert hat weiss auch der letzte NICHT-WISSENDE...aha mit einer XXX Grafikkarte von XXX oder XXXXX kann ich XXX-Spiel wunderbar spielen!

Sackgesicht
2004-09-21, 11:40:44
Scheint hier jeder zu uebersehen..
Ati scheint keine AGP Versionen des X700 anbieten zu wollen -> unter AGP scheint der GF 6.600 keine Konkurenz zu bekommen

MikBach
2004-09-21, 11:40:59
Jetzt gehts sie los it's Partytime, die Fanboys sind wach!

ATI dominiert ganz klar den Highend! Wer das Gegenteil behauptet klammert sich an einem Dumm3-Spiel fest was ausschließlich auf NV3x optimiert wurde.

In allen anderen Spielen liegt ATI ganz klar vorne!
:lol:
Das ist jatzt aber nicht dein Ernst?
Doom3 wurde auf NV3x?
Und sooo klar, wie du es dir wünschst, ist es nicht.

Gast
2004-09-21, 11:42:33
Scheint hier jeder zu uebersehen..
Ati scheint keine AGP Versionen des X700 anbieten zu wollen -> unter AGP scheint der GF 6.600 keine Konkurenz zu bekommen

Falsch!

ATI wird auch eine X700 AGP bringen, mit dem feinen Unterschied das Ihre Karte auf einem nativ PCI-Express GPU basiert und das die Bridge zu AGP auf dem PCB sitzt.

Sackgesicht
2004-09-21, 11:46:43
Falsch!

ATI wird auch eine X700 AGP bringen, mit dem feinen Unterschied das Ihre Karte auf einem nativ PCI-Express GPU basiert und das die Bridge zu AGP auf dem PCB sitzt.
zitat Hardtecs

Einen wesentlichen Unterschied zur Vergangenheit gibt es allerdings doch: Der RV410-Chip verfügt ähnlich wie der R423-Chip über ein natives PCI Express und da ATi derzeit keinerlei Bridge-Chips zwischen AGP und PCIe anbietet, wird es somit Radeon X700 Karten nur auf PCI Express geben. Bei der Radeon X800 Serie hat ATi dies bekanntermaßen dadurch gelöst, daß man mit dem R420 einen extra Grafikchip gebacken hat, welcher zum R423 völlig identisch ist, nur daß der R420 ein natives AGP- anstatt des nativen PCIe-Interfaces hat. Somit wird die Radeon X800 sowohl in AGP- als auch in PCIe-Ausführungen angeboten.

Beim RV410 ist solches allerdings nicht geplant. Prinzipiell hat zwar auch der konkurrierende NV43-Chip von nVidia "nur" ein natives PCI Express Interface, doch hier bietet nVidia den Grafikkarten-Herstellern seinen Bridge-Chip an, womit diese auch GeForce 6600 /GT Grafikkarten mit AGP-Interface designen können. Bei ATi erscheint zumindestens derzeit eine solche Lösung nicht wahrscheinlich.

ende Zitat

Alles kjlar?

BK-Morpheus
2004-09-21, 11:48:34
Ich finde es hier langsam dämlich. Kaum ist ein Test da, schon beginnt das lustige "mein Balken ist länger als Deiner" Spiel.

Keiner bemüht sich auch nur ansatzweise die Ergebnisse zu hinterfragen.

z.B. tritt die X700 mit 256MB an, die 6600 nur mit 128MB.

Da erklärt sich imho einiges ...
OK, selbst wenn die X700Pro mit 256mb angetreten wäre (glaube ich eher nicht), dann muss man ja auch bedenken, dass die X700XT ja auch mit 128MB antritt...also die 6600GT und die X700XT kann man wohl ganz gut vergleichen.

Ein paar mehr Benches wären aber nett und auch Benches zwischen X700XT und 9800Pro wären sweet.

€dit:
Selbst wenn es die X700XT nicht mit AGP gibt fände ich das nicht schlimm.
1. Gibt's da ja noch die 9800Pro, die *spekulier* eine ähnliche Performance hat und recht günsitg zu bekommen ist

2.Viele Leute (mich eingeschlossen) nur darauf warten, dass S939 Boards mit PCI-E draussen sind und evtl. noch die S939 Prozzis 3000+/3200+, um eine Investition für's nächste Jahr zu tätigen und da kommt mir eine X700XT ganz gelegen.

Odal
2004-09-21, 11:58:08
OK, selbst wenn die X700Pro mit 256mb angetreten wäre (glaube ich eher nicht),

doch, steht so im test...auch hatten sie keine "echte" X700XT sondern das war die verwendete X700Pro mit 256MB übertaktet

deekey777
2004-09-21, 11:59:28
Böses DH hat auch einen Test (http://www.driverheaven.net/reviews/X700XT/) der X700XT veröffentlicht.

Tjell
2004-09-21, 12:03:57
...Dann würde ich einen FPS-Wert definieren pro Auflösung den eine Karte mindestens bringen muss damit das Spiel XXX flüssig SPIELBAR ist,...
Das tut PCGH. :wink:

seahawk
2004-09-21, 12:06:01
OK, selbst wenn die X700Pro mit 256mb angetreten wäre (glaube ich eher nicht), dann muss man ja auch bedenken, dass die X700XT ja auch mit 128MB antritt...also die 6600GT und die X700XT kann man wohl ganz gut vergleichen.



Und sowas macht das Forum hier langsam unbrauchbar. Man haut sich die Benchmakrs um die Ohren und liest noch nichtmal mehr die Bedingungen unter denen gebencht wurde.

Es wurde ein X700pro mit 256MB und eine 6600GT mit 128MB gebencht. Die X700XT wurde durch Übertaktung der X700pro simuliert.

BK-Morpheus
2004-09-21, 12:08:14
Und as macht das Forum hier langsam unbrauchbar. Man haut sich den Benchmakrs um die Ohren und liest noch nichtmal mehr die bedingungen unter denen gebencht wurde.

Es wurde ein X700pro mit 256MB und eine 6600GT mit 128MB gebencht. Die X700XT wurde durch Übertaktung der X700pro simuliert.
OK, haste recht.
Dann sollten die die X700XT IMO gar nicht mit in den Test einbeziehen.

Tjell
2004-09-21, 12:08:15
OK, selbst wenn die X700Pro mit 256mb angetreten wäre (glaube ich eher nicht), dann muss man ja auch bedenken, dass die X700XT ja auch mit 128MB antritt...also die 6600GT und die X700XT kann man wohl ganz gut vergleichen.
...
Hardtecs4U hat die Sapphire Radeon X700 Pro 256MB (PCI Express, 425/430 MHz) zu Testzwecken zur Verfügung gehabt, die "X700 XT" wurde dann mit dieser Karte, also mit 256 MB GDDR3, simuliert:
Zusätzlich zu ihrer Referenz-Taktung von 425/430 MHz haben wir die Radeon X700 Pro auch noch einmal als Radeon X700XT mitlaufen lassen, diese Werte sind in den nachfolgenden Diagrammen als "Radeon X700 XT *" bezeichnet. Allerdings erreichte unsere Radeon X700 Pro nicht ganz exakt die Referenz-Taktung einer Radeon X700XT von 475/525 MHz - wir kamen "nur" auf 475/515 MHz:

//EDIT
Ich bin zu langsam. :biggrin:

TheCounter
2004-09-21, 12:16:10
Ich freu mich schon auf den Test von Computerbase.

EDIT:

http://hkepc.com/hwdb/rv410-4.htm

Wer kann mir erklären wieso die X700XT in 3DMark01 um ca. 3000 Punkte schneller ist als die GF6600GT? (Ich dachte das ganze is bei in etwa gleichschnellen Grakas dann eher CPU limitiert?)

MikBach
2004-09-21, 12:18:10
Ich finde es hier langsam dämlich. Kaum ist ein Test da, schon beginnt das lustige "mein Balken ist länger als Deiner" Spiel.

Keiner bemüht sich auch nur ansatzweise die Ergebnisse zu hinterfragen.

z.B. tritt die X700 mit 256MB an, die 6600 nur mit 128MB.

Da erklärt sich imho einiges ...
Richtig.
Beide Karten sind in etwa gleich schnell, mit leichten Vorteilen für ATI.
Deshalb sollte man mehr Wert auf Verlustleistung, Lautstärke und die Ausstattung legen.

Tjell
2004-09-21, 12:26:56
Test bei Computerbase (http://www.computerbase.de/artikel/hardware/grafikkarten/2004/atis_radeon_x700-serie/1/#einleitung)

Unter Far Cry ist die 9800 XT schneller als die X700 XT, da macht sich wohl der Speicher bemerkbar. :ugly:

Die X700-Serie scheint bei ATI die 9800-Serie garnicht ersetzen zu müssen, da die sich beide wohl unterm Strich nicht viel nehmen.

Es läßt sich konstatieren, daß die 6600-Serie für nVidia ein wichtiger Schritt war, um die alte NV3x-Generation zu überflügeln und sowohl im PCI-E als auch im AGP-Segment zu beerben, wohingegen ATI mit den 9800er bei AGP und mit den X700ern bei PCI-E bestens positioniert ist.

Die leistungsmäßige Konkurrenzsituation sieht demnach so aus, daß die X800er den 6800er gegenüberstehen (AGP und PCI-E) und die X700er sind die Gegenstücke zu den 6600ern, wobei jeweils ein etwa gleiches Leistungspotential vorhanden ist.

Die nächste Runde kann man jetzt schon ankündigen/einläuten: Den Mainstream-Bereich, auch Low-Budget genannt, mit den Nachfolgen der FX5200 bzw. der 9200er/9600 LE. Man darf gespannt sein, schließlich ist das der Hauptabsatzmarkt der beiden Chipproduzenten.

TheCounter
2004-09-21, 12:35:59
Test bei Computerbase (http://www.computerbase.de/artikel/hardware/grafikkarten/2004/atis_radeon_x700-serie/1/#einleitung)

Schade das bei Farcry mit unfairen Einstellungen getestet wurde, die GF6600 verwendete SM3.0 und die X700 nur SM2.0 anstatt SM2b. Ich hoffe die holen das ganze nochmal nach aber dann auch mit fairen Einstellungen.

EDIT:

http://www.computerbase.de/artikel/hardware/grafikkarten/2004/atis_radeon_x700-serie/16/#catalyst_a_i

Sehr interessant. Eine neue (?) Optimierung die sich nun auch ausschalten lässt :up:

Tjell
2004-09-21, 12:38:26
Ups, hatte ich glatt überlesen:

Auszug aus Computerbase, Artikel "ATis Radeon X700-Serie
Die offizielle Sneak-Preview", Beschreibung zum Spielebenchmark Far Cry (http://www.computerbase.de/artikel/hardware/grafikkarten/2004/atis_radeon_x700-serie/8/#far_cry).

Allerdings unterstützt die von uns verwendete Build-Version noch nicht richtig das SM 2.0b für die X700 XT. Diese tritt also ohne diesen Bonus an.

Um die Vorzüge der Cry-Engine zu nutzen, aktivierten wir auf allen nVidia-Karten der GeForce-6800-Serie das Shader-Model 3.0 sowie auf allen ATi X800/X600-Karten das SM 2.0b. Die Qualitätseinstellungen im Spiel stellten wir auf das jeweilige Maximum und nahmen auch sämtliche Einstellungen bezüglich Anti-Aliasing und anisotroper Filterung im Spiel vor. Die von uns verwendete Demo wurde im Licht- und Shader-intensiven Research-Level aufgenommen.

deekey777
2004-09-21, 12:39:11
Schade das bei Farcry mit unfairen Einstellungen getestet wurde, die GF6600 verwendete SM3.0 und die X700 nur SM2.0 anstatt SM2b. Ich hoffe die holen das ganze nochmal nach aber dann auch mit fairen Einstellungen.

Dazu kommt, dass auch ein Paar Treiber-Wehwehchen gibt, was die Performance in FC angeht.

Nachtrag: Auch bei THG(engl.) gibt es einen Test, der auch zeigt, dass AI keine Auswirkungen zB bei 3D2003 hat.

MikBach
2004-09-21, 12:47:58
Die X700-Serie scheint bei ATI die 9800-Serie garnicht ersetzen zu müssen, da die sich beide wohl unterm Strich nicht viel nehmen.
Das ist jetzt aber nicht dein Ernst?
Die X700 ist wegen der fortschrittlicheren Architektur auf jeden Fall ein Fortschritt. 64+32 Operationen bei der Shaderberechnung des R3x0 könnten in Zukunft nicht mehr reichen. Siehe Farcry 2.B-Pfad, Taschenlampe und Mündungsfeuer. ;)
Ausserdem ist die X700 in shaderlastigen Spielen schneller.
Von der geringeren Verlustleistung mal ganz abgesehen.

Mumins
2004-09-21, 12:49:38
Es interressiert gar nicht ob die X700Pro 256MB hat, da sie das gleiche kostet wie die 6600GT 128MB. Von daher finde ich den Vergleich nicht unfair.

Tjell
2004-09-21, 12:55:22
Das ist jetzt aber nicht dein Ernst?
Die X700 ist wegen der fortschrittlicheren Architektur auf jeden Fall ein Fortschritt. 64+32 Operationen bei der Shaderberechnung des R3x0 könnten in Zukunft nicht mehr reichen. Siehe Farcry 2.B-Pfad, Taschenlampe und Mündungsfeuer. ;)
Ausserdem ist die X700 in shaderlastigen Spielen schneller.
Von der geringeren Verlustleistung mal ganz abgesehen.
ATI könnte die 9800er durch AGP-X700er ersetzen, aber wozu?

Zumindest kann man den Eindruck gewinnen, daß ATI das genauso sieht und sich mit dem RV410 allein auf PCI-E konzentriert.

diedl
2004-09-21, 12:55:23
Kann schon jemand sagen wie hoch der Energieverbrauch der neuen Karten ist?
Bis jetzt waren die Karten mit guter 3D Leistung für mich unkaufbar weil
Sie viel zu Leistungshungrig sind.
Habe deswegen immer noch eine AIW 9000 pro (passiv gekühlt).
Ein guter VIVO Eingang wäre natürlich auch nicht schlecht.

mfg diedl

Tjell
2004-09-21, 13:00:45
Kann schon jemand sagen wie hoch der Energieverbrauch der neuen Karten ist?
Bis jetzt waren die Karten mit guter 3D Leistung für mich unkaufbar weil
Sie viel zu Leistungshungrig sind.
Habe deswegen immer noch eine AIW 9000 pro (passiv gekühlt).
Ein guter VIVO Eingang wäre natürlich auch nicht schlecht.

mfg diedl
Schaust Du hier bei HT4U (http://www.hardtecs4u.com/reviews/2004/ati_x700proxt/index2.php).

//ERGÄNZUNG
Die dort zu findenden Angaben über Verlustleistung sind bis auf einen Fall Schätzungen. ;)

Leonidas
2004-09-21, 13:03:26
Schaust Du hier bei HT4U (http://www.hardtecs4u.com/reviews/2004/ati_x700proxt/index2.php).



Ähm, das sind Schätzungen bei der X700! Basierend auf den 6600/X800-Messungen der x-bit Labs.

TheCounter
2004-09-21, 13:07:36
Also A.I. scheint je nach Game doch schon so einiges zu bringen, vor allem in Doom 3 sinds dann schonmal >10FPS mehr.

Vielleicht gibts ja demnächst auch schalter für die anderen Optimierungen, um diese zu deaktivieren.

diedl
2004-09-21, 13:09:14
Na das sieht ja schon etwas besser aus.
Allerdings wohl nur PCIe. :frown:
Dann muss meine alte Karte wohl noch bis zur nächsten Aufrüstung
ihren Dienst tun.

mfg diedl

Ups, geht ja mal wieder schnell hier.
Ok sind also nur Schätzungen. Na bis zu meiner "Aufrüstung" wird
sowieso noch etwas Zeit vergehen, und bis dahin sind dann bestimmt
genauere Werte bekannt.

Leonidas
2004-09-21, 13:19:17
Ok sind also nur Schätzungen. Na bis zu meiner "Aufrüstung" wird
sowieso noch etwas Zeit vergehen, und bis dahin sind dann bestimmt
genauere Werte bekannt.



Die x-bit Labs werden sicherlich den Stromverbrauch der X700 schnellstmöglich messen.

Gast
2004-09-21, 13:34:14
Die Idioten von computer base bescheinigen Ati einen klassischen Paperlaunch (http://www.computerbase.de/artikel/hardware/grafikkarten/2004/atis_radeon_x700-serie/16/), wohingegen dem 6600 Launch (http://www.computerbase.de/artikel/hardware/grafikkarten/2004/nvidia_geforce_6600-serie/16/#fazit) ein unübertroffene Verfügbarkeit (http://www.3dcenter.de/#2004-09-19) folgte. :ulol:

Tjell
2004-09-21, 13:46:20
Die Idioten von computer base bescheinigen Ati einen klassischen Paperlaunch (http://www.computerbase.de/artikel/hardware/grafikkarten/2004/atis_radeon_x700-serie/16/), wohingegen dem 6600 Launch (http://www.computerbase.de/artikel/hardware/grafikkarten/2004/nvidia_geforce_6600-serie/16/#fazit) ein unübertroffene Verfügbarkeit (http://www.3dcenter.de/#2004-09-19) folgte. :ulol:
Auch wenn sie nicht schreiben, daß die 6600 verfügbar wäre, verdient die Art der Schreibweise, durch die man zu dem Schluß kommen kann, daß dem so sei, ein fettes...
:ulol2:

Gast
2004-09-21, 13:48:06
Hier noch weitere Benchmarks...

http://www.anandtech.com/video/showdoc.aspx?i=2214

Naja, ich weiß nicht so recht, irgendwie ist ATI die X700-Familie nicht besonders gut gelungen, vor allem die Beschneidung auf ein 128-Bit Speicherinterface nervt, hätte es nicht ausgereicht die Pixel-Pipelines auf 8 zu reduzieren? Auch macht NVidia GeForce 6600GT bei einigen Benchmarks den deutlich besseren Eindruck, während ATI schon alle möglichen Treiber-Tricks (A.I. und Co.) anwendet, um halbwegs auf Augenhöhe zu bleiben.

Was ich aber wirklich nicht verstehe ist, warum die X700XT nur als PCI Express-Variante erscheinen soll, oder habe ich mich da verlesen? Im vierten Quartal 2004 wird laut den neusten Prognosen PCI Express lediglich 30% des Grafikkarten-Marktes ausmachen. Naja, NVidia wird freuen, haben sie mit ihrer AGP-Variante der GeForce 6600GT keinerlei Konkurrenz. Danke ATI für diese grandiose Entscheidung!

Ich glaube ATI macht den Fehler auf zu vielen Hochzeiten zu tanzen, Grafikchips für Microsofts und Nintendos nächste Konsolen-Generation, sowie für Handys, Mainboards mit ATI-Chipsatz usw. usw. Vielleicht sollte sich ATI mal besser darauf konzentrieren ihre angekündigten Produkte in Stückzahlen auf den Markt zu bringen, anstatt irgendwelche Paper-Launches durchzuführen!

Beste Beispiel ist hierfür die X800XT-Grafikkarte, Anfang Mai 2004 angekündigt, aber vier Monate später immer noch nicht in akzeptablen Stückzahlen lieferbar. Ich möchte nicht wissen, wieviel PC Spiele-Freaks ATI in den letzten Monaten untreu geworden sind und sich lieber wieder eine NVidia-Grafikkarte gekauft haben und die X700-Grafikkarten Familie bringt auch nicht die Wende!

Ist den ATI den Leuten nicht in der Lage was besseres zu liefern? Man braucht sich ja nur dagegen NVidia anschauen, welche momentan bei den Grafikkarten, eine weitaus größere Auswahl im Angebot haben. Wie z.B. die GeForce 6800LE für um die 200 Euro rum, die GeForce 6800 unter 300 Euro, eine GeForce 6800GT für etwa 400 Euro, welche die X800Pro alt aussehen lässt und zukünftig die GeForce 6600GT für preisbewußte Käufer. Wo bitte schön, bleibt ATI? Wie wäre es mit einer 128 MByte-Variante der X800Pro für 300 Euro oder was ist aus der X800SE mit 8 Pixel-Pipelines und 256 Bit Speicherinterface geworden?

fizzo
2004-09-21, 13:57:29
Hier noch weitere Benchmarks...

http://www.anandtech.com/video/showdoc.aspx?i=2214

Naja, ich weiß nicht so recht, irgendwie ist ATI die X700-Familie nicht besonders gut gelungen, vor allem die Beschneidung auf ein 128-Bit Speicherinterface nervt, hätte es nicht ausgereicht die Pixel-Pipelines auf 8 zu reduzieren? Auch macht NVidia GeForce 6600GT bei einigen Benchmarks den deutlich besseren Eindruck, während ATI schon alle möglichen Treiber-Tricks (A.I. und Co.) anwendet, um halbwegs auf Augenhöhe zu bleiben.

Was ich aber wirklich nicht verstehe ist, warum die X700XT nur als PCI Express-Variante erscheinen soll, oder habe ich mich da verlesen? Im vierten Quartal 2004 wird laut den neusten Prognosen PCI Express lediglich 30% des Grafikkarten-Marktes ausmachen. Naja, NVidia wird freuen, haben sie mit ihrer AGP-Variante der GeForce 6600GT keinerlei Konkurrenz. Danke ATI für diese grandiose Entscheidung!

Ich glaube ATI macht den Fehler auf zu vielen Hochzeiten zu tanzen, Grafikchips für Microsofts und Nintendos nächste Konsolen-Generation, sowie für Handys, Mainboards mit ATI-Chipsatz usw. usw. Vielleicht sollte sich ATI mal besser darauf konzentrieren ihre angekündigten Produkte in Stückzahlen auf den Markt zu bringen, anstatt irgendwelche Paper-Launches durchzuführen!

Beste Beispiel ist hierfür die X800XT-Grafikkarte, Anfang Mai 2004 angekündigt, aber vier Monate später immer noch nicht in akzeptablen Stückzahlen lieferbar. Ich möchte nicht wissen, wieviel PC Spiele-Freaks ATI in den letzten Monaten untreu geworden sind und sich lieber wieder eine NVidia-Grafikkarte gekauft haben und die X700-Grafikkarten Familie bringt auch nicht die Wende!

Ist den ATI den Leuten nicht in der Lage was besseres zu liefern? Man braucht sich ja nur dagegen NVidia anschauen, welche momentan bei den Grafikkarten, eine weitaus größere Auswahl im Angebot haben. Wie z.B. die GeForce 6800LE für um die 200 Euro rum, die GeForce 6800 unter 300 Euro, eine GeForce 6800GT für etwa 400 Euro, welche die X800Pro alt aussehen lässt und zukünftig die GeForce 6600GT für preisbewußte Käufer. Wo bitte schön, bleibt ATI? Wie wäre es mit einer 128 MByte-Variante der X800Pro für 300 Euro oder was ist aus der X800SE mit 8 Pixel-Pipelines und 256 Bit Speicherinterface geworden?

:up: ganz meiner meinung!

p.s.zur x800se (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=162871)

Phoenix03
2004-09-21, 13:57:48
Performancegleichstand würde ich mal sagen, aber eine Karte fehlt hier
NV6600 GT <=> X700 pro
6600GT XL <=> X700 XT
die 6600GT XL ist ja noch nicht draussen also fehlt der XT noch der Gegner

StefanV
2004-09-21, 14:00:45
Performancegleichstand würde ich mal sagen, aber eine Karte fehlt hier
NV6600 GT <=> X700 pro
6600GT XL <=> X700 XT
die 6600GT XL ist ja noch nicht draussen also fehlt der XT noch der Gegner
Würd ich eher nicht sagen, da die X700 teilweise doch recht deutlich die 6600GT plättet.

Hätte aber gern noch gesehen, wie es mit einer ausgetauschten Shaderdatei bei D3 ausschauen würde :devil:

Gast
2004-09-21, 14:03:30
also bei Anandtech schneidet alles in allem die 6600GT wirklich besser ab.
Interessant ist dabei auch, dass die 6600GT die sagen wir mal schwerwiegenderen Siege einfährt. In den Low Auflösungen mit wenig AA und wenig AF sind alle Karten eh spielbar. Da machen ein paar fps + oder - nichts aus.

Das mit der Produktpalette stimmt auch. Nvidia hat momentan wirklich die rundere Palette im Angebot und es sind einige Faktoren ja noch nichtmal in der Praxis sozusagen.
Der NV44 und NV41 kommen erst noch und SLI ist ja auch noch da.
Ich finde man merkt schon, dass Nvidia sich sehr stark auf das Grafikgeschäft im PC Sektor konzentrieren kann. Bei ATI sind erste Errorsionserscheinungen wegen zu vieler Deals sichtbar und das nicht erst seit der X700 schon im Prinzip seit dem Launch der "neuen" alten Serie. Die technischen Änderungen halten sich ja sehr in Grenzen.

Gast
2004-09-21, 14:08:24
Würd ich eher nicht sagen, da die X700 teilweise doch recht deutlich die 6600GT plättet.

Hätte aber gern noch gesehen, wie es mit einer ausgetauschten Shaderdatei bei D3 ausschauen würde :devil:

Wovon träumst du denn nachst bitte?

Hier ein Ausschnitt aus dem Anandtech Fazit ganz am Ende:
"
In the end, the GeForce 6600 GT is a more versatile solution than the Radeon X700 XT that can deliver higher performance at more demanding settings. The X700 is certainly not a bad card, and street prices still remain to be seen. At publication, we found a 6600 GT available for $209 on pricewatch, though street prices for the X700 are not yet available. Unless the X700 XT is priced comfortably below its $199 MSRP, or you need the 256MB of the X700 Pro, the 6600 GT is the way to go for midrange cards.
"

Bzgl. Doom3 ist jegliche Shader Replacement und was weis ich für Argumente Kokolores. Die Qualität leidet in keinster Weise. Nvidia Karten produzieren hervorragende Qualität bei deutlich besserer Leistung in dem Spiel.
Alles andere ist für den Gamer schlichtweg unwichtig. Momentan ist das Spiel in den Hitlisten vorne. Deswegen wiegt es derzeit auch recht schwer.
Nvidia liefert für OpenGl und eben vor allem die Doom3 Engine die passenderen Chips und Treiber ab im Vergleich zu ATI.
Daran gibts keinen mm Abweichung.

Phoenix03
2004-09-21, 14:10:24
@Stefan Payne
Wenn man nur sich nur auf FC bezieht schon, aber bei UT ist der Vorsprung schon kaum relevant und bei MaxP und D³ führt sogar die GT vor der XT.
Da darf man gespannt sein wie die leistung der GT - XL aussehen wird ;)

Gast
2004-09-21, 14:18:03
Also auf nv.seite finde ich gar nichts über eine dubiose GT-XL. Was habt ih denn konsumiert? Davon abgesehen hat nv die auch nicht nötig, die Karten liegen gleich auf.

MikBach
2004-09-21, 14:19:43
Warten wir das Review von XbitLabs ab! :devil:
Schon seltsam, das verschiedene Sites zu verschiedenem Fazit kommen.
Anand ist kein Gradmesser.
Ist alles natürlich auch von der Benchmarkwahl abhängig. ;)

Hätte aber gern noch gesehen, wie es mit einer ausgetauschten Shaderdatei bei D3 ausschauen würde
Ich auch. :up:

Tjell
2004-09-21, 14:22:59
Also auf nv.seite finde ich gar nichts über eine dubiose GT-XL. Was habt ih denn konsumiert? Davon abgesehen hat nv die auch nicht nötig, die Karten liegen gleich auf.
(Hier ein leicht abgewandeltes Filmzitat) :)
Morpheus:
"This is your last chance. After this, there is no turning back. You take the green pill - the story ends, you wake up in your bed and believe whatever you want to believe. You take the red pill - you stay in Wonderland and I show you how deep the rabbit-hole goes."

So simpel, so interpretationsfähig - so treffend. :D

aths
2004-09-21, 14:28:15
ATI wieder vorne, was zu erwarten war. DOOMIII ist ein Sonderfall und nicht relevant.

Der 6600 ist zu beschnitten um mit dem X700 mithalten zu können. (unter allen Umständen)Hm. Weniger Vertexshader, weniger ROPs, dafür mehr Takt und bessere Pixelpipelines, sowie volle SM 3.0-Compliance (teilweise sogar effizienter, wenn auch natürlich mit geringerer Grundleistung als beim NV40.)

X700 = Radeon 9500 Pro (mit PCIe und minimalen Tunings).

aths
2004-09-21, 14:35:29
Würd ich eher nicht sagen, da die X700 teilweise doch recht deutlich die 6600GT plättet.Was mich ehrlich gesagt wundert. Hat ATI noch mal am Texturfilter gedreht, oder sind die Spiele so anspruchslos dass bei der 6600 die ROPs limitieren?

Hätte aber gern noch gesehen, wie es mit einer ausgetauschten Shaderdatei bei D3 ausschauen würde :devil: Ich nicht. Kaum ein Doom3-Spieler wird diese Datei austauschen. Wenn man das Doom3-Ergebnis für nicht aussagekräftig hält, bis ATI mit dem kreativen Shaderreplacement nachgezogen hat, sollte man die Doom3-Ergebnisse einfach nicht betrachten.

MikBach
2004-09-21, 14:35:39
Naja, ich weiß nicht so recht, irgendwie ist ATI die X700-Familie nicht besonders gut gelungen, vor allem die Beschneidung auf ein 128-Bit Speicherinterface nervt,
:confused:
Die 6600GT hat doch auch nur 128bit.

eine GeForce 6800GT für etwa 400 Euro, welche die X800Pro alt aussehen lässt
Ja, besonders hier: http://www.zdnet.de/enterprise/client/0,39023248,39125640,00.htm
;D
Die 6800GT und die X800PRO sind in etwa gleichwertig was die performance angeht. Kommt drauf an welche Benchmarks man wählt. ;)
Maistreamspiele laufen meistens auf Nvidia einen Tick schneller. Abseits des Mainstreams ist ATI teilweise deutlich schneller.

und zukünftig die GeForce 6600GT für preisbewußte Käufer. Wo bitte schön, bleibt ATI?
Und ATI die X700PRO. ;D

Wie wäre es mit einer 128 MByte-Variante der X800Pro für 300 Euro
Diese Option wäre sicher wünschenswert.

Phoenix03
2004-09-21, 14:40:39
Quelle: www.guru3d.com
GeForce 6600 GT 8 3 128-bit GDDR3/128/256MB 500 1000MHz
GeForce 6600 ___8 3 128-bit GDDR/128MB ____300 ___TBD
GeForce 6610 XL 8 3 128-bit _____?___________?_____?

hab mich im Namen geirrt 6600 sondern 6610, hoffentlich steht das XL auch für mehr Leistung und ist nicht so ein fake wie ATI's SE.

Gast
2004-09-21, 14:45:45
Kann schon jemand sagen wie hoch der Energieverbrauch der neuen Karten ist?
Bis jetzt waren die Karten mit guter 3D Leistung für mich unkaufbar weil
Sie viel zu Leistungshungrig sind.
Habe deswegen immer noch eine AIW 9000 pro (passiv gekühlt).
Ein guter VIVO Eingang wäre natürlich auch nicht schlecht.

mfg diedl

Der Energieverbrauch dürfte knapp unter einer 9600XT liegen, meine Vermutung beruht auf der Tatsache das die X800 XT AGP auch weniger Verbrauch hatte als eine 9800XT. Hingegen dürfte der Energieverbrauch bei der 6600 vermutlich höher sein als bei einer FX5900, siehe hierzu Vergleich NV40 und FX5950. Wobei da auch mit zu hohen Werten von einigen ATI Fanatikern die Karte zu schlecht gemacht wurde.

Gast
2004-09-21, 14:45:53
Warten wir das Review von XbitLabs ab! :devil:
Schon seltsam, das verschiedene Sites zu verschiedenem Fazit kommen.
Anand ist kein Gradmesser.
Ist alles natürlich auch von der Benchmarkwahl abhängig. ;)

Ich auch. :up:

Also ich hab jetzt mal Tom, TechReport und Anand überflogen.
Bei allen ist die 6600GT im Fazit leicht vorn.
Shadermodel 3.0 und SLI Fähigkeit eingerechnet würde ich sagen Führung klar für NV.
ATI muss schon deutlich mehr Performance bieten um hier zu punkten, da sie o.g. Dinge nicht bieten - die Konkurenz im gleichen Preissegment jedoch schon. Warum soll ich da das Gleiche Geld für weniger Leistung ausgeben. Seh ich doch als potentieller Kunde gar nicht ein.

Gast
2004-09-21, 14:46:33
Hier der Artikel von ComputerBase

http://www.computerbase.de/artikel/hardware/grafikkarten/2004/atis_radeon_x700-serie/

Gast
2004-09-21, 14:48:56
der test is doch fürn arsch bei anhandtech sie link : http://www.anandtech.com/video/showdoc.aspx?i=2214&p=7
dort soll die radeon 9700 pro viel langsammer sein als ne x 600 sehr unwahrscheinlich!

Gast
2004-09-21, 14:50:36
(Hier ein ummodelliertes Filmzitat) :)
Morpheus:
"This is your last chance. After this, there is no turning back. You take the green pill - the story ends, you wake up in your bed and believe whatever you want to believe. You take the red pill - you stay in Wonderland and I show you how deep the rabbit-hole goes."

So simpel, so interprätationsfähig - so treffend. :D

Ich hoffe doch, du kassierst für den Spam hier Punkte.

Denn mehr off topic kann man gar nicht mehr sein.

Gast
2004-09-21, 14:51:13
der test is doch fürn arsch bei anhandtech sie link : http://www.anandtech.com/video/showdoc.aspx?i=2214&p=7
dort soll die radeon 9700 pro viel langsammer sein als ne x 600 sehr unwahrscheinlich!
edit: und die x600 xt ist manchmal auch schneller ne x 700 xt sehr merkwürdig irgendwie

LovesuckZ
2004-09-21, 14:52:05
Hingegen dürfte der Energieverbrauch bei der 6600 vermutlich höher sein als bei einer FX5900, siehe hierzu Vergleich NV40 und FX5950.

6800NU verbraucht im 2D/3D weniger als eine 5900. Somit sollte der NV43 nochmal darunter liegen.
Ich gehe davon aus, dass der Verbrauch zwischen X700 und NV43 irgendwie im toleranten Bereich liegen wird, da gleicher Fertigungsprozeß.

Tjell
2004-09-21, 14:54:38
Ich hoffe doch, du kassierst für den Spam hier Punkte.

Denn mehr off topic kann man gar nicht mehr sein.
Und was soll ich Ihrer Meinung nach verbrochen haben, Herr "Gast"?

Wie ich schon schrieb, ist der Satz sehr interpretationsfähig - in die eine oder in die andere Richtung. ;)

//NACHTRAG
Man reiche mir eine Neunschwänzige Katze zum Selbstkasteien: "interprätationsfähig" mit "ä" gehört bestraft. *Autsch*
Gib misch das :ududen:

Gast
2004-09-21, 14:55:39
Also ich hab jetzt mal Tom, TechReport und Anand überflogen.
Bei allen ist die 6600GT im Fazit leicht vorn.
Shadermodel 3.0 und SLI Fähigkeit eingerechnet würde ich sagen Führung klar für NV.
ATI muss schon deutlich mehr Performance bieten um hier zu punkten, da sie o.g. Dinge nicht bieten - die Konkurenz im gleichen Preissegment jedoch schon. Warum soll ich da das Gleiche Geld für weniger Leistung ausgeben. Seh ich doch als potentieller Kunde gar nicht ein.

Bullshit???

AMD biete 64 Bit und Intel nicht - man kann Intel nicht mehr kaufen! :crazy:

SM 3 ist hier genauso vorteihaft für den "Volkswagen Kunden" wie 64 Bit, nämlich gar nicht. Und daß die SLI Funkionalität auf wenige bestimmte Modelle begrenzt ist, ist dir bestimmt nicht mehr aufgefallen :ulol:

Gast
2004-09-21, 14:55:48
Quelle: www.guru3d.com
GeForce 6600 GT 8 3 128-bit GDDR3/128/256MB 500 1000MHz
GeForce 6600 ___8 3 128-bit GDDR/128MB ____300 ___TBD
GeForce 6610 XL 8 3 128-bit _____?___________?_____?

hab mich im Namen geirrt 6600 sondern 6610, hoffentlich steht das XL auch für mehr Leistung und ist nicht so ein fake wie ATI's SE.

XL oder XT bzw. X*.* stand bei nv bisher immer für wenig Leistung, aber profitierte vom besseren Imgae bei ATI bei XT oder XXL.

Die 6610 XL ist meiner Meinung nach ein fataler Fehler, da der typische Kunde bei fast gleichem Preis einen 6610 'er BMW einem 6600 'er BMW vorzieht.

Die Bezeichnungen werden immer dreister, da wird mit höhere Nummer mehr angepriesen.

Gast
2004-09-21, 14:56:37
hat jemand mal ne antwort warum die 6600 gt mit aa un af oft vor der x700 xt liegt obwohl 256 mb ram?

Gast
2004-09-21, 14:59:15
Und was soll ich Deiner Meinung nach verbrochen haben, Herr "Gast"?

Wie ich schon schrieb, ist der Satz sehr interprätationsfähig - in die eine oder in die andere Richtung. ;)

INTERPRETATIONSFÄHIG!!!

Du spamst, denn ich kann nicht im entfernsten Sinne nicht den Bezug zwischen der X700 Grafikkarte und dem Film Matrix herstellen.

Gast
2004-09-21, 14:59:28
der test is doch fürn arsch bei anhandtech sie link : http://www.anandtech.com/video/showdoc.aspx?i=2214&p=7
dort soll die radeon 9700 pro viel langsammer sein als ne x 600 sehr unwahrscheinlich!

Das stimmt! Die ganzen Testberichte sind in letzter Zeit fürn Arsch, eine X600 ist eine 9600'er und kann daher nicht schneller sein als eine 9700Pro.

Genauso ist Lovsucks Aussage völliger B-Shit, die 6800 benötige mehr als 110Watt.

Gast
2004-09-21, 15:00:02
hat jemand mal ne antwort warum die 6600 gt mit aa un af oft vor der x700 xt liegt obwohl 256 mb ram?

Die Benchmarks sind alle fürn A....

Tjell
2004-09-21, 15:03:52
INTERPRETATIONSFÄHIG!!!

Du spamst, denn ich kann nicht im entfernsten Sinne nicht den Bezug zwischen der X700 Grafikkarte und dem Film Matrix herstellen.
Stellen Sie mal lieber in Ihren Gedanken den Kontext zwischen meiner und der von Ihnen als "Spam" bezeichneten Aussage mit dem abgewandelten Filmzitat und dem in diesem Beitrag befindlichen Zitat her, Herr Gast.

mrdigital
2004-09-21, 15:05:44
Neue Grafikhardware und das alte Lied beginnt von neuem. Fanboys, Trolle und neunmalkluge Kommentare in schwindelerregender Dichte. Bitte reisst euch ein wenig zusammen, ich bin weder scharf drauf den Spam wieder wegzulöschen, noch bin ich scharf drauf, das hier darüber diskutiert wird, wer nun noch mehr Spam produziert.

reunion
2004-09-21, 15:07:05
allerdings intressant dass eine 6600 GT mit 500/500 Mhz auch gegen eine x700 pro mit nur 430 / 475 Mhz verliert. Soviel zur tollen "Pro Mhz Leistung" des NV4x...

Das ist genau das was ich schon länger behaupte, der R420XT hat einfach zuwenig Bandbreite um seine Füllrate auszuspielen, die tolle "pro-mhz" Leistung des NV40 im vergleich zum R420 erreicht NV AFAIK hauptsächlich dank fehlender Bandbreite bei letzterem.

Gast
2004-09-21, 15:08:56
Bullshit???

AMD biete 64 Bit und Intel nicht - man kann Intel nicht mehr kaufen! :crazy:

SM 3 ist hier genauso vorteihaft für den "Volkswagen Kunden" wie 64 Bit, nämlich gar nicht. Und daß die SLI Funkionalität auf wenige bestimmte Modelle begrenzt ist, ist dir bestimmt nicht mehr aufgefallen :ulol:

Da eine Vielzahl von Kunden die Karten länger als 3 Monate haben dürfte zählt SM3.0 auf jeden Fall erstmal voll rein genauso wie 64 Bit.
Nochmal für dich zum Mitschreiben.

Wenn die Leistung gleich ist im Fall X700XT vs 6600GT oder X800pro vs 6800GT ist Nvidia sogar vorne wenn auch bei x700xt vs 6600GT nicht ungeheuerlich viel, wieso soll ich dann beim gleichen Preis zu dem Produkt das abeits der Leistung weniger bietet greifen?
Dafür gibt es keinen Grund, es sei denn man ist irgendso ein verblödeter Firmenfanboy.
Wenn ich 200 Euro zu investieren habe, dann zählt für mich das Featureset genauso rein wie die Leistung auch. Bei annähernd gleicher Leistung ist das dann eben ausschlaggebend.
Deswegen ist Nvidia auch vorn. Mal abgesehen davon, dass die 6600GT die wichtigeren Siege einfährt.
Genauso bei AMD. 64 Bit zählen für mich auf jeden Fall als Kriterium. Ich will meine CPU ne Weile behalten genauso wie meine Graka.
Irgendwann wirds genutzt und dann bin ich mit mehr zukunftsweisender Technik besser bestückt.
Ich wär doch gerade zu bescheuert mir dann einen Intel oder eine X700XT zu holen.

Dass die SLI Fähigkeit nicht alle Modelle betrifft ist mir auch klar. Aber hier gings ja hauptsächlich um 6600GT vs X700XT.

MikBach
2004-09-21, 15:09:49
Also ich hab jetzt mal Tom, TechReport und Anand überflogen.
Bei allen ist die 6600GT im Fazit leicht vorn.
Wie ich schon sagte, warten wir auf die XbitLabs.
Und Anand kannst du in die Tonne treten.

Shadermodel 3.0

Und?
Siehe FarCry. Trotz SM3.0 bei Nvidia ist ATI im 2.B-Pfad gleich schnell oder schneller.
Computerbase:
"Allerdings unterstützt die von uns verwendete Build-Version noch nicht richtig das SM 2.0b für die X700 XT."
Wenn 2.B für die X700 funktioniert, wird Nvidia trotz SM3 verlieren. ;)
Nur weil hinter SM eine höhere Zahl steht, ist es noch lange kein Kaufargument. Ausserdem ist die neue Midrangegeneration zu langsam für Spiele, die von SM3 profitieren könnten.

und SLI Fähigkeit
Leichtes Plus für Nvidia, da man aber spezielle Mainboards braucht, nichts weltbewegendes. ;)
Für die breite Masse eh uninteressant.


ich will nicht immer sinnlose Regpflicht Diskussionen führen

Gast
2004-09-21, 15:16:56
Da eine Vielzahl von Kunden die Karten länger als 3 Monate haben dürfte zählt SM3.0 auf jeden Fall erstmal voll rein genauso wie 64 Bit.
Nochmal für dich zum Mitschreiben.

Wenn die Leistung gleich ist im Fall X700XT vs 6600GT oder X800pro vs 6800GT ist Nvidia sogar vorne wenn auch bei x700xt vs 6600GT nicht ungeheuerlich viel, wieso soll ich dann beim gleichen Preis zu dem Produkt das abeits der Leistung weniger bietet greifen?
Dafür gibt es keinen Grund, es sei denn man ist irgendso ein verblödeter Firmenfanboy.
Wenn ich 200 Euro zu investieren habe, dann zählt für mich das Featureset genauso rein wie die Leistung auch. Bei annähernd gleicher Leistung ist das dann eben ausschlaggebend.
Deswegen ist Nvidia auch vorn. Mal abgesehen davon, dass die 6600GT die wichtigeren Siege einfährt.
Genauso bei AMD. 64 Bit zählen für mich auf jeden Fall als Kriterium. Ich will meine CPU ne Weile behalten genauso wie meine Graka.
Irgendwann wirds genutzt und dann bin ich mit mehr zukunftsweisender Technik besser bestückt.
Ich wär doch gerade zu bescheuert mir dann einen Intel oder eine X700XT zu holen.

Dass die SLI Fähigkeit nicht alle Modelle betrifft ist mir auch klar. Aber hier gings ja hauptsächlich um 6600GT vs X700XT.

Du bist ja drauf!

Ein Kunde der 200€ für eine Grafikkarte zahlt ist ein Midrangeuser, dem ist der ganze Bla Bal Bal völlig egal!

Für Ihn ist wichtiger wieviel HAuptspeicher er im System hat, also eher Upgrade zu mehr RAm, CPU-Leistung, HDD-Grösse und zu letzt denke er an eine Grafikkarte.

Highednuser sind FPS-und Quality Fetis*ggg* und die brauchst du hier nicht mit deinem Fanboy-Geschwätz aufzuklären.

Kapische Kollega GAST

Gast
2004-09-21, 15:17:37
Da eine Vielzahl von Kunden die Karten länger als 3 Monate haben dürfte zählt SM3.0 auf jeden Fall erstmal voll rein genauso wie 64 Bit.
Nochmal für dich zum Mitschreiben.

Wenn die Leistung gleich ist im Fall X700XT vs 6600GT oder X800pro vs 6800GT ist Nvidia sogar vorne wenn auch bei x700xt vs 6600GT nicht ungeheuerlich viel, wieso soll ich dann beim gleichen Preis zu dem Produkt das abeits der Leistung weniger bietet greifen?
Dafür gibt es keinen Grund, es sei denn man ist irgendso ein verblödeter Firmenfanboy.
Wenn ich 200 Euro zu investieren habe, dann zählt für mich das Featureset genauso rein wie die Leistung auch. Bei annähernd gleicher Leistung ist das dann eben ausschlaggebend.
Deswegen ist Nvidia auch vorn. Mal abgesehen davon, dass die 6600GT die wichtigeren Siege einfährt.
Genauso bei AMD. 64 Bit zählen für mich auf jeden Fall als Kriterium. Ich will meine CPU ne Weile behalten genauso wie meine Graka.
Irgendwann wirds genutzt und dann bin ich mit mehr zukunftsweisender Technik besser bestückt.
Ich wär doch gerade zu bescheuert mir dann einen Intel oder eine X700XT zu holen.

Dass die SLI Fähigkeit nicht alle Modelle betrifft ist mir auch klar. Aber hier gings ja hauptsächlich um 6600GT vs X700XT.


Jaja, das Featureset :ugly:
SM 3.0 ist für mich wie T & L :ulol:
Und SLI wie TruForm :ulol:

Gast
2004-09-21, 15:18:49
*beep*

Gast
2004-09-21, 15:19:35
Wie ich schon sagte, warten wir auf die XbitLabs.
Und Anand kannst du in die Tonne treten.

Und?
Siehe FarCry. Trotz SM3.0 bei Nvidia ist ATI im 2.B-Pfad gleich schnell oder schneller.
Computerbase:
"Allerdings unterstützt die von uns verwendete Build-Version noch nicht richtig das SM 2.0b für die X700 XT."
Wenn 2.B für die X700 funktioniert, wird Nvidia trotz SM3 verlieren. ;)
Nur weil hinter SM eine höhere Zahl steht, ist es noch lange kein Kaufargument. Ausserdem ist die neue Midrangegeneration zu langsam für Spiele, die von SM3 profitieren könnten.

Leichtes Plus für Nvidia, da man aber spezielle Mainboards braucht, nichts weltbewegendes. ;)
Für die breite Masse eh uninteressant.

ich will nicht immer sinnlose Regpflicht Diskussionen führen

das steht aber laut meinem lesen das se den pfad auf der 6800 serie angewendet haben und nicht auf der 6600 serie !!!!! wie auch bei der x800 das seh da den pfad 2.0b angewendet haben und nicht auf der x700 serie!?

oder hab ich was überlesen verlesen?

Gast
2004-09-21, 15:22:40
Wie ich schon sagte, warten wir auf die XbitLabs.
Und Anand kannst du in die Tonne treten.


Ach und xbit ist nun dann das Maß der Dinge weil du es so willst oder wie?
Ich hab Hardocp noch nicht gelesen aber von den von mir genannten werden ja kaum alle blöd sein nur weil du es mal so gern hättest oder behauptest. Du musst dir mal eins ganz schnell merken. Du bist ein kleines Licht, ein Niemand im weltweiten Kundschaftsjungle dieser Seiten.
Was du so gern hättest oder willst, hat nicht die geringste Relevanz. Die 3 von mir genannten erreichen bereits eine Leserkundschaft ziemlich hohen Ausmaßes und um die Liste weiterzuführen:

Auch hexus.net sieht die 6600GT vorn. Genauso wie sudhian.com. Hardocp habe ich noch nicht gelesen.
Und das Fazit von Sudhian paste ich gleich mal hier schwarz auf weiss rein:

"
So how does the ATI X700 Pro stack up? Performance-wise, its beaten--there's no way around that. Catalyst AI or no, HyperZ HD or no, the X700 Pro doesn't quite pack the punch of the 6600GT.

This isn't surprising. Ever since the GeForce2 first demonstrated an absolute brick wall of bandwidth limitation, the industry has struggled to overcome it. ATI, ironically, was one of the first companies to do so; but they may have been surpassed by NVIDIA in this regard--or, this may simply be the result of the X700 Pro's lower memory clock. Given the fact that even the X700 XT is beaten by 600GT, however, we think there's more to the story.

There is, however, light at the end of the tunnel. The X700 Pro may not pack the punch the 6600GT does, but its no slouch. Anyone updating from an x600 shouldd be more than pleased with this new card's performance. The new HDTV options also raise intriguing ideas for the inevitably-forthcoming X700 AIW products.

If ATI can pull some miracles from their back pocket with 3dc and Geometry Instancing, they might yet find dominance over the 6600GT; a geometry-heavy game that managed not to simultaneously overload bandwidth could be just the ticket the X700 needs. Until such time, however, ATI holds second. This is not a bad place to be--but it marks the first time in two years that the market wasn't dominated by Canada."

Ich hab nichts davon, ob nun Nvidia oder ATI schön geredet wird. Ich werde mir bald eine neue Graka kaufen allerdings bei dem, der mir für mein Geld am meissten bietet. Momentan ist das schlicht und ergreifend Nvidia ohne wenn und aber.
Die letzten 2 Jahre war es ATI. So schnell ändern sich eben die Zeiten.
ATI hat nicht mehr die Position wie zu R3xx Zeiten und wird zunehmend unter Druck geraten. Die derzeitigen Produkte sind nicht mehr auf dem Niveau der Vorgänger in Relation zur Zeit und zur Konkurenz.

Ich glaube kaum, dass all diese Tester unfähig sind und nur xbit der Weisheit letzter Schluss ist. Und wenn die das selbe zeigen würden, dann wäre sicher auch xbit unglaubwürdig - stimmts?

LovesuckZ
2004-09-21, 15:26:10
Ich hab Hardocp noch nicht gelesen [...]

One thing is for sure, the GeForce 6600GT and the Radeon X700XT are very competitive products when it comes to overall gaming performance. If we had to edge out a card that offers up the better value we would have to lean towards the GeForce 6600GT at this point in time.

http://www.hardocp.com/article.html?art=NjY2LDEw

VooDoo7mx
2004-09-21, 15:31:34
6800NU verbraucht im 2D/3D weniger als eine 5900. Somit sollte der NV43 nochmal darunter liegen.
Ich gehe davon aus, dass der Verbrauch zwischen X700 und NV43 irgendwie im toleranten Bereich liegen wird, da gleicher Fertigungsprozeß.

Nein das ist falsch, eine 6800nonU braucht knapp unter 40 watt, wohingegen eine 6600GT schon über 50 Watt verbrutzelt.
Der 0,11µ Prozess bei TSMC ist nicht sonderlich stromsparend aber dafuer kosteneffizient. ;)

Da hierdie Diskussionskultur am absolutesten Tiefpunkt ist, will hier nicht weiter "mitdiskutieren" es ist mir schlicht und ergreifend einfach zu blöd.
Aber wenigstens hats wieder eine Person auf meine Ignorierliste geschafft! :up:

LovesuckZ
2004-09-21, 15:33:53
Nein das ist falsch, eine 6800nonU braucht knapp unter 40 watt, wohingegen eine 6600GT schon über 50 Watt verbrutzelt.
Der 0,11µ Prozess bei TSMC ist nicht sonderlich stromsparend aber dafuer kosteneffizient. ;)


Kann man das irgendwo nachlesen?
Ich bezweifel naemlich, dass eine 6800NU mit 70Millionen Transistoren so deutlich weniger zieht.
Dem entgegen muesste auch die X700 mehr als eine X800pro benoetigen...

/edit: Das sagt Techreport.com (http://techreport.com/reviews/2004q3/radeon-x700xt/index.x?pg=26) dazu:

The X700 XT consumes a little more power than the GeForce 6600 GT when running at full tilt.

aths
2004-09-21, 15:34:07
SM 3 ist hier genauso vorteihaft für den "Volkswagen Kunden" wie 64 Bit, nämlich gar nicht.Hängt davon ab, wie lange die Karte halten soll. Bestimmte SM 3.0-Shader laufen auf NV43 schneller als auf dem NV40. (Ist zwar eher die Ausnahme, aber die 3.0-Compliance beim NV43 ist imo nicht nutzlos.)

Und daß die SLI Funkionalität auf wenige bestimmte Modelle begrenzt ist, ist dir bestimmt nicht mehr aufgefallen :ulol: Die Modelle, die für Spieler besonders interessant sind, bieten SLI.




Du spamst, denn ich kann nicht im entfernsten Sinne nicht den Bezug zwischen der X700 Grafikkarte und dem Film Matrix herstellen.Ich kann es aber :sneak:

aths
2004-09-21, 15:37:08
Das ist genau das was ich schon länger behaupte, der R420XT hat einfach zuwenig Bandbreite um seine Füllrate auszuspielen, die tolle "pro-mhz" Leistung des NV40 im vergleich zum R420 erreicht NV AFAIK hauptsächlich dank fehlender Bandbreite bei letzterem.Die Leistung pro MHz resultiert aus den stärkeren Pixelpipes.


Ausserdem ist die neue Midrangegeneration zu langsam für Spiele, die von SM3 profitieren könnten.Was macht dich da so sicher?

Gast
2004-09-21, 15:39:11
Nein das ist falsch, eine 6800nonU braucht knapp unter 40 watt, wohingegen eine 6600GT schon über 50 Watt verbrutzelt.
Der 0,11µ Prozess bei TSMC ist nicht sonderlich stromsparend aber dafuer kosteneffizient. ;)

Da hierdie Diskussionskultur am absolutesten Tiefpunkt ist, will hier nicht weiter "mitdiskutieren" es ist mir schlicht und ergreifend einfach zu blöd.
Aber wenigstens hats wieder eine Person auf meine Ignorierliste geschafft! :up:

Mal etwas ot, weils einfach wehtut.

Absoluteste gibt es genauso wenig wie einzigste. Absoluter als absolut geht nicht, ebenso ist der einzige schon alleine.

Gast
2004-09-21, 15:40:54
One thing is for sure, the GeForce 6600GT and the Radeon X700XT are very competitive products when it comes to overall gaming performance. If we had to edge out a card that offers up the better value we would have to lean towards the GeForce 6600GT at this point in time.

http://www.hardocp.com/article.html?art=NjY2LDEw

Danke. Dann bestätigt ja auch hardocp.com was die von mir genannten Seiten sagen.
Also hätten wir:
Tomshardware
Anandtech
Tech-Report
Hexus
Sudhian
Hardocp.

Also insgesamt 6 Reviewerseiten die die GF6600GT vorn sehen. Nach der ganzen Hysterie von den vorab Benchmarks aus Asien wo die XT auf einmal weit vor der 6600GT liegen sollte ist nichts mehr übrig geblieben.
Und ich dachte schon Nvidia brauchts eine GF6600Ultra oder den NV41.

Anscheinend brauchen sie den nicht zwingend. Aber kommen wird er trozdem um die 6800Vanilla und NonUltra günstiger zu produzieren. Der Druck auf ATI wächst zunehmend.
Erschreckend ist der Vorserienstatus den die X700XT da teilweise hatte in den Reviews. Da wirds noch ne Weile dauern.
Auch eine fehlende PCIE - AGP Bridge könnte nachteilig werden. ATI muss so für jedes Interface einen extra Chip fertigen. Das kostet Zeit und Ressourcen die anderswo gebraucht werden.
Nvidia lötet einfach die HSI Bridge in der benötigten Richtung auf.
Performanceprobleme gibts eh nicht, da die Spiele keine großartige Bandbreite momentan erfordern. Dafür hat AGP es zu lange in den Mobos ausgehalten.

Gast
2004-09-21, 15:47:15
Hängt davon ab, wie lange die Karte halten soll. Bestimmte SM 3.0-Shader laufen auf NV43 schneller als auf dem NV40. (Ist zwar eher die Ausnahme, aber die 3.0-Compliance beim NV43 ist imo nicht nutzlos.)
Ach bitte aths, wenn die Grundleistung nicht ausreichend ist, nutzen die tollsten Eigenschaften nichts.
Die Modelle, die für Spieler besonders interessant sind, bieten SLI.
Ich interessiere mich stark für die 6800, unter Umständen (Preis) auch für die NU. Und mein Haupteinsatzzweck ist neben dem HTML rendern Games.
Ich kann es aber :sneak:
Wenn dir die Fanboy-Gesänge gefallen...

LovesuckZ
2004-09-21, 15:48:34
Ach bitte aths, wenn die Grundleistung nicht ausreichend ist, nutzen die tollsten Eigenschaften nichts.


SM3.0 kann die Grundleistung erhoehen.
Ein Unding, nicht?

aths
2004-09-21, 15:51:03
Auch eine fehlende PCIE - AGP Bridge könnte nachteilig werden.Oder die noch fehlende PCIe-Compliance, die bislang nur X600 vorweisen kann. Ironischerweise erzeugt HSI ein sauberes Signal als das native Interface von ATI. Interessant wäre aber, ob HSI nicht doch die Latenz erhöht.

MikBach
2004-09-21, 15:53:16
/edit: Das sagt Techreport.com (http://techreport.com/reviews/2004q3/radeon-x700xt/index.x?pg=26) dazu:

The X700 XT consumes a little more power than the GeForce 6600 GT when running at full tilt.
Also techreport wird immer glaubwürdiger. ;D
Laut denen verbraucht die X600XT mehr als eine 6800 und 6600GT.
Ist doch nicht deren Ernst.

Gast
2004-09-21, 15:54:19
SM3.0 kann die Grundleistung erhoehen.
Ein Unding, nicht?

Sehen wir voralllem in FarCry:

3.0 vs 2.0b

:lol:

MikBach
2004-09-21, 15:56:40
SM3.0 kann die Grundleistung erhoehen.
Ein Unding, nicht?
Ich würde sagen SM3 kann die Grundleistung besser ausnutzen. ;)

LovesuckZ
2004-09-21, 15:56:41
Sehen wir voralllem in FarCry:
3.0 vs 2.0b


Jap, deswegen ist eine Geforce 6800GT auch schneller als eine X800pro ;)

reunion
2004-09-21, 15:58:08
Catalyst A.I.
A.I. - Artificial Intelligence, so bezeichnet ATi ein neues Feature seines Catalyst-Treibers. Es kann bestimmte Anwendungen erkennen und analysiert in 3D-Anwendungen - ausgenommen synthetischen Benchmarks - jede einzelne Textur während des Ladevorgangs, um sie dann optimal und mit bestmöglicher Performance darzustellen. Die Bildqualität soll dabei der ohne den Einsatz von A.I. mindestens ebenbürtig sein. Der Kunde kann hier zwischen dem Standard-Algorithmus und einem Advanced-Mode wählen, der die Performance nochmals steigern soll. Wie genau die Nachteile des Advanced-Mode aussehen, ist uns bisher leider nicht bekannt.

Über den Namen der exe-Datei können außerdem für ausgesuchte Spiele - momentan sind dies Doom 3, Unreal Tournament 2003 und 2004, die Half-Life 2-Engine, Splinter Cell, TOCA - Race Driver, Prince of Persia und Crazy Taxi 3 - spezifische Optimierungen und Tweaks geladen werden, die für mehr Performance und Stabilität sorgen sollen. Besonderes Augenmerk sollte man auf Doom 3 legen, denn hier macht man es nun nVidia gleich und nutzt eine Art Shader-Replacement, um eine bessere Performance erzielen zu können. Bei Splinter Cell, Race Driver, Prince of Persia und Crazy Taxi 3 handelt es sich aber um keine Optimierung. Hier verhindert Catalyst A.I. lediglich die Benutzung von Anti-Aliasing, wenn der User dies im Control Center aktiviert hat.

Wer von alldem nichts hält, hat diesmal gute Karten. Im Gegensatz zu anderen Optimierungen stellt ATi es dem User frei das komplette Feature zu deaktivieren, so dass weder die Texturen analysiert noch Anwendungs-spezifische Einstellungen geladen werden. Dank dieser Option kann man also nun endlich auch auf ATi-Karten volles - wenn es die Applikation verlangt - trilineares Filterung nutzen.

Catalyst A.I. wird erstmal mit dem Catalyst 4.10-Treiber der breiten Öffentlichkeit zugänglich sein

http://www.computerbase.de/artikel/hardware/grafikkarten/2004/atis_radeon_x700-serie/16/#catalyst_a_i

Whats that?

LovesuckZ
2004-09-21, 15:58:26
Ich würde sagen SM3 kann die Grundleistung besser ausnutzen. ;)

Besser ausnutzen?
Also muesste sie vorhanden sein und durch andere Faktoren ausgebremst werden.
Ist leider falsch.

Ansonsten, scheint es wohl, dass ATi die selben Probleme mit dem Speichermanagement wie bei den 9500 64MB karten zu haben. Hoffen wir es, dass sie dies in den Griff bekommen.

aths
2004-09-21, 16:00:48
Ach bitte aths, wenn die Grundleistung nicht ausreichend ist, nutzen die tollsten Eigenschaften nichts.Richtig.

Wenn dir die Fanboy-Gesänge gefallen... Mir gefällt nicht, dass Leute hier einen klaren Sieger ausmachen.

VooDoo7mx
2004-09-21, 16:01:43
Kann man das irgendwo nachlesen?
Ich bezweifel naemlich, dass eine 6800NU mit 70Millionen Transistoren so deutlich weniger zieht.
Dem entgegen muesste auch die X700 mehr als eine X800pro benoetigen...

/edit: Das sagt Techreport.com (http://techreport.com/reviews/2004q3/radeon-x700xt/index.x?pg=26) dazu:

The X700 XT consumes a little more power than the GeForce 6600 GT when running at full tilt.

Ja die XBit-Labs haben mit ihren aufwendigen Messmethoden, auch schon die 6600GT getestet (http://www.xbitlabs.com/articles/video/display/geforce6600gt-oc_3.html).
Nagut, ich hab mich geirrt, es waren nicht über 50 Watt sondern 48. ;)
Damit verbraucht die 6600GT immerhin noch 8 Watt mehr als eine schnellere 6800nonU. Ein NV41 könte hier nochmal weniger zulangen, aber das ist Spekulation.

Ich kann mir ehrlich gesagt nicht vorstellen, dass ein X700XT mehr verbraucht als ein NV43GT. Bisher waren ja ATis Chips allgemein etwas genügsamer als die NV Pendants.
Wenn dem doch so ist, dann hat ATi so ziemlich Mist gebaut, denn der Transistorcount ist deutlich niedriger und der Fertigungsprozess der selbe.

Ich will auch nochmal was zu den AI "Feature" im neuen CCC sagen.

Ich finde diese Lösung allgemein extrem schwachsinnig, da nicht einmal ein Experte weiß, was man mit diesen Einstellungen vornimmt und wie sich die eigentlich Stufen auswirken.
Wieso macht man nicht einfach 3-4 Schalter rein , um die einzelnen Optimierungen je nach Bedarf an-/ und auszuschalten und benennt diese korrekt.
Das ist mehr oder weniger gezielte Irreführung.
Da man noch den Softwaremüll CCC für dieses "Feature" nutzen muss, tut sein übriges!

Mal etwas ot, weils einfach wehtut.

Absoluteste gibt es genauso wenig wie einzigste. Absoluter als absolut geht nicht, ebenso ist der einzige schon alleine.

Hab ich mir gemerkt, danke!

aths
2004-09-21, 16:02:06
Sehen wir voralllem in FarCry:

3.0 vs 2.0b

:lol:Far Cry ist ein Spiel. Doom3 ist ein Spiel.

MikBach
2004-09-21, 16:04:44
Jap, deswegen ist eine Geforce 6800GT auch schneller als eine X800pro ;)
Irgendwie nicht.
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/inno3d_geforce_6800_gt_ultra/9/#far_cry
Je nach Einstellung ist mal die GT mal die PRO vorne. Ist ausserdem minimal, also fast gleich.
Und das liegt nicht an SM3, sondern an der höheren arithmetischen Leistung der GT. ;)

Gaestle
2004-09-21, 16:04:48
Ich hätte den X700 gerne mal im Vergleich zu einer 9800pro/XT gesehen.



Gibt's bei Anandtech.com

Edit: und auch bei computerbase.de

Grüße

Gast
2004-09-21, 16:06:33
Jap, deswegen ist eine Geforce 6800GT auch schneller als eine X800pro ;)

ROFL,

du bringst den Einwand, SM 3.0 wäre per se ein speedupgrade, nur wo ich darauf hinweise, daß die Umstellung des Pfades von für beide IHV den gleichen Vorteil erbrachte, hast nur diese ;) ;) ;) anzubringen?

Fanboy per excellence.

Mumins
2004-09-21, 16:11:55
Je nach Einstellung ist mal die GT mal die PRO vorne. Ist ausserdem minimal, also fast gleich.
In Auflösungen ab 1280x960 mit 4AA ist immer die GT vorne, kein Mensch kauft ne GT und zockt dann in 1024x768.

aths
2004-09-21, 16:14:18
Whats that?Intellisampling auf kanadisch.

LovesuckZ
2004-09-21, 16:18:17
ROFL,
du bringst den Einwand, SM 3.0 wäre per se ein speedupgrade, nur wo ich darauf hinweise, daß die Umstellung des Pfades von für beide IHV den gleichen Vorteil erbrachte, hast nur diese ;) ;) ;) anzubringen?


"Kann". Schonmal gehoert?
Ich koennte mit Shadermark 2.1 kommen. Dort gewinnt eine Radeon X800 vom Profil 2.b kaum bis garnichts, der NV40 dagegen vom PS2.a und 3.0 deutlich.
Auch in farcry kann der NVv40 aufgrund des SM3.0 den Rueckstand verkuerzen (6800U vs X800XT) oder aus dem Gleichstand einen Vorteil machen (pro gegen gt).
Man sollte sich daher erstmal damit befassen, wass der R4xx kann und der NV4x.
Aber immer wieder schoen zu lesen, die Gastkommentare. Schade nur, dass sie nicht vebroten werden. :(

LovesuckZ
2004-09-21, 16:21:34
Ansonsten, scheint es wohl, dass ATi die selben Probleme mit dem Speichermanagement wie bei den 9500 64MB karten zu haben. Hoffen wir es, dass sie dies in den Griff bekommen.

Nun, der X700 zeigt die selbe Texturschwaeche wie sein großer Bruder.
Ist wohl kein "programmierbarer memorycontroller" sondern eine Designentscheidung, um Transistoren zu sparen. Deswegen wohl auch der herbe Verlust in hoheren Aufloesungen.

http://www.xbitlabs.com/articles/video/display/ati-radeon-x700_5.html

MikBach
2004-09-21, 16:21:37
kein Mensch kauft ne GT und zockt dann in 1024x768.
*zustimm*
In Auflösungen ab 1280x960 mit 4AA ist immer die GT vorne,
Falls du FarCry meinst, ja, die GT ist ab 1280x960 mit 4xAA bisschen schneller.
Generel, nein.
Siehe z.B.:
http://www.xbitlabs.com/articles/video/display/graphics-cards-2004_45.html
oder:
http://www.xbitlabs.com/articles/video/display/graphics-cards-2004_40.html

Gaestle
2004-09-21, 16:22:14
X-Bit-Labs - Architecture Preview (http://www.xbitlabs.com/articles/video/display/ati-radeon-x700.html)

Grüße

edit: Mist, zu spät...

VooDoo7mx
2004-09-21, 16:23:41
@LovesuckZ

Einfach ignrorieren :)

Ich habs bei mir durchgetestet. 2_b als Shadertarget bringt haargenau die selben Ergebnisse wie 2_0.
Das was uns Crytek unter 2_b verkaufen will, lässt sich mit jeden R300 Abkömmling realisieren, genauso wie der 3.0 Pfad mit jeder NV3X Hardware.
Aber selbst das hatten wir hier schon mehrfach.

ironMonkey
2004-09-21, 16:24:20
In Auflösungen ab 1280x960 mit 4AA ist immer die GT vorne, kein Mensch kauft ne GT und zockt dann in 1024x768.


Das hängt stark vom Speicher und vom Spiel ab, mit 128mb geht einem schon mal die Puste aus bei solchen Einstellungen wie du schreibst, dazu kommt dann auch noch wieder was man als schnell ansieht, der eine meint min fps von 30+ ist schnell der andere findet 60fps im schnitt schnell........


Gruß

Mumins
2004-09-21, 16:28:37
Falls du FarCry meinst, ja, die GT ist ab 1280x960 mit 4xAA bisschen schneller.
Das bezog sich auf den von dir verlinkten Computerbase Bench. Die GT ist einfach die bessere Karte. ATI hat momentan einfach eine schlechte Produktpallette. Es sollte ne 16Pipes Pro geben und die 12Pipe Pro ein Stück billiger sein. Dann hätte ich auch wieder ne ATI genommen.

ironMonkey
2004-09-21, 16:33:54
Das bezog sich auf den von dir verlinkten Computerbase Bench. Die GT ist einfach die bessere Karte. ATI hat momentan einfach eine schlechte Produktpallette. Es sollte ne 16Pipes Pro geben und die 12Pipe Pro ein Stück billiger sein. Dann hätte ich auch wieder ne ATI genommen.


Dafür wird doch die X800 Xt 500/500 16P nachgereicht, falls du bei deinem vorigem Text auch die 6800GT gemeint hast und nicht die 6600Gt dann vergess einfach meinen vorigen Text.

MikBach
2004-09-21, 16:40:10
ATI hat momentan einfach eine schlechte Produktpallette.
ja, das stimmt.

Die GT ist einfach die bessere Karte.
Es sollte ne 16Pipes Pro geben und die 12Pipe Pro ein Stück billiger sein. Dann hätte ich auch wieder ne ATI genommen.
Warum soll die GT die bessere Karte sein? Weil sie 16 Pipes hat?
Du versteifst dich zu sehr auf die Pipes. Eine X800PRO hat zwar nur 12 Pipes, aber deutlich mehr Taktfrequenz. Das gleich sich fast aus.

Mumins
2004-09-21, 16:41:35
Dafür wird doch die X800 Xt 500/500 16P nachgereicht
Nur zu welchem Preis! Über 500€.

Bei der X700XT hätte einfach ne 256bit Speicheranbindung realisiert werden müssen. Dafür ein etwas höherer Preis, die Pro Version einfach niedriger getaktet und zum Preis der 6600GT.

Das gleich sich fast aus.
Ja eben, fast. Genau das ist der Punkt. Warum zum gleichen Preis ne etwas langsamere Karte holen. Die grottige Doom3 Performance kommt noch hinzu.

Gast
2004-09-21, 16:44:51
@LovesuckZ

Einfach ignrorieren :)

Ich habs bei mir durchgetestet. 2_b als Shadertarget bringt haargenau die selben Ergebnisse wie 2_0.
Das was uns Crytek unter 2_b verkaufen will, lässt sich mit jeden R300 Abkömmling realisieren, genauso wie der 3.0 Pfad mit jeder NV3X Hardware.
Aber selbst das hatten wir hier schon mehrfach.

lol du troll, du hast es selber getestet es bring überhaupt nichts, das sind sich fs (http://www.firingsquad.com/hardware/far_cry_ps2.0b/), cb (http://www.computerbase.de/news/hardware/grafikkarten/2004/juli/far_cry_version_12_sm_20b/), xbl (http://www.xbitlabs.com/articles/video/display/farcry20b.html) alle einig

Mumins
2004-09-21, 16:47:17
SM 2.0b bringt in Far Cry vor allem in den Innenleveln was.

LovesuckZ
2004-09-21, 16:49:00
lol du troll, du hast es selber getestet es bring überhaupt nichts, das sind sich fs (http://www.firingsquad.com/hardware/far_cry_ps2.0b/), cb (http://www.computerbase.de/news/hardware/grafikkarten/2004/juli/far_cry_version_12_sm_20b/), xbl (http://www.xbitlabs.com/articles/video/display/farcry20b.html) alle einig

Du solltest lesen lernen, bevor du dein Mund aufmachst.
Er spricht vom Shadermark2.1, wo die Shader anscheinend nicht ueber das Limit von den PS2.0 hinausgehen. Und genau hier bringt das Profil 2.b nichts.

Gast
2004-09-21, 16:54:40
Du solltest lesen lernen, bevor du dein Mund aufmachst.
Er spricht vom Shadermark2.1, wo die Shader anscheinend nicht ueber das Limit von den PS2.0 hinausgehen. Und genau hier bringt das Profil 2.b nichts.

Ich habs bei mir durchgetestet. 2_b als Shadertarget bringt haargenau die selben Ergebnisse wie 2_0.
Das was uns Crytek unter 2_b verkaufen will

Für dich extra gross, bitte

MikBach
2004-09-21, 16:57:12
Bei der X700XT hätte einfach ne 256bit Speicheranbindung realisiert werden müssen. Dafür ein etwas höherer Preis, die Pro Version einfach niedriger getaktet und zum Preis der 6600GT.
Ack.


Ja eben, fast. Genau das ist der Punkt. Warum zum gleichen Preis ne etwas langsamere Karte holen.
Du willst doch nicht etwa von technischen Specs auf die Spieleleistung schliessen?

Die grottige Doom3 Performance kommt noch hinzu.
Du weisst, warum die Performance von ATI unter Domm3 schlechter ist?

Mumins
2004-09-21, 17:00:12
Du willst doch nicht etwa von technischen Specs auf die Spieleleistung schliessen?
Nein, aber habe genügend Reviews gelesen um mir eine Meinung zu bilden.

Du weisst, warum die Performance von ATI unter Domm3 schlechter ist?
Ja ich weiss es, darauf kommts aber nicht an, zumindest für mich nicht.

MikBach
2004-09-21, 17:16:31
Nein, aber habe genügend Reviews gelesen um mir eine Meinung zu bilden.

Wenn da immer die gleichen Mainstreamspiele getestet werden, auf die Nvidia optimiert, ist es kein Wunder, dass man dann so eine Meinung hat.
Deswegen ist XbitLabs ja auch herrausragend, weil sie eben nicht nur Mainstream testen.

VooDoo7mx
2004-09-21, 17:25:37
Kein Kommentar, dass ist sowas von unterste Kanone hier. Das ist der größte Tiefpunkt hier in diesem Forum seit langen.

saddevil
2004-09-21, 17:31:22
habe mir mal einige benches angesehen..


kann mal jemand nen test machen??
da so viele hier auf den und dieses game setzen..

UT2004 hat ja D3D und OGL treiber...

mal bitte benchen mit X800pro und 6800GT
einmal D3D und einmal der selbe bench mit OGL...


wenn mal sich das auf den seiten so durchließt kommen immer wieder ander werte zu tage!!

langsam denk ich dahinter sitzen auch leute wie hier die eine vorliebe für bestimmte marken haben...
und dementsprechend das ergbniss "anpassen"

demnach müßte das "jedi Knight" game genauso gezinkt sein wie DOOM
da dort selbst die 6600Gt die X800 versägt..
aber darüber verliert kaum einer ein wort

meist DOOM3 oder FarCry..
FarCRY selbst hat 2 patches für 1x ATI karten und 1x Nvidia karten
dann bitte auch mit jeweiligem benchen...

dann kann man zwar sagen es wurde gecheatet.. aber eben auf beiderseiten..
genau wie DOOM3
da bitte auch die jeweiligen treiber die "OPTIMIERT" wurden nutzen...

nützt nix wenn das ATI "optimierte" game mit der Nvidia gebencht wird und dann heißt es das ATI einen leistungszuwachs hat..

dann bitte 2 systeme mit der selben installation aber JE 1x ATI rechner und 1x Nvidia rechner

und die jeweiligen patches drauf

jeder hier kennt die "Probleme" mit umstiege von ATI auf NV und umgekehrt


grüße
Dirk

Gast
2004-09-21, 17:32:54
Wenn da immer die gleichen Mainstreamspiele getestet werden, auf die Nvidia optimiert, ist es kein Wunder, dass man dann so eine Meinung hat.
Deswegen ist XbitLabs ja auch herrausragend, weil sie eben nicht nur Mainstream testen.

ATI optimiert genauso, wie man ja schon am lausigen Filter sieht seit JAHREN und vor allem wie man es an dem neuerlichen AI sieht.
Immer weniger IQ.

Bisher sagen alle Tests das gleiche
GF6600GT > X700XT. Dass ATI da mit angepeilten 249 Dollar nicht durchkommen konnte war klar. Da ham se lieber gleich im Vorfeld nachgegeben. Daran sieht man doch schon, wie sehr sie sich diese Runde überschätzt haben.
Du kannst es drehen und wenden wie du willst. Deine Ausflüchte nützen rein gar nix. Bottom line momentan bleibt NVs Produktpalette ist besser als die von ATI und die X700XT ändert rein gar nichts daran, ausser das sie das Bild noch zu Gunsten von NV aufhellt.
Nvidia hat allem Anschein nach gute Wege gefunden, die Chips zu beschneiden ohne das übermäßig viel Leistung verloren geht, wie man am NV43 sieht. Aus der Erkenntnis heraus darf sich ATI noch dieses Jahr sehr auf den NV44 und NV41 freuen. Dann hat Nvidia 4 Chips am Start und alle lassen sich per HSI kunterbunt auf PCI-E bringen und die nativen umgekehrt auf AGP.
Wer da glaubt, dass ATI die derzeitige Position mit den derzeitigen Leistungen halten kann ist ein Narr.
Die Leute lassen sich nicht verschaukeln auch nicht von ein paar Fanboy Figuren der ein oder anderen Seite. Die Tests sprechen momentan eine deutliche Sprache.

chrisihamm
2004-09-21, 17:51:55
Die Benchmarkergebnisse von der x700 oder x800 kannste doch auf den meisten Seiten vergessen,die benutzten Treiber weisen einen Bug auf,wenn AI disabled ist wird nur noch bilinear gefiltert anstatt trilinear bei eingeschalteter anisotroper Filterung,naja,wenn man keine Leistung hat wird sie sich halt über schlechte BQ erkauft!!!!!!!!!!!!!!!!!!!!!!!!!!!!???????????????? :rolleyes: :eek:

Gast
2004-09-21, 17:54:56
Kein Kommentar, dass ist sowas von unterste Kanone hier. Das ist der größte Tiefpunkt hier in diesem Forum seit langen.
Ist doch normal hier bei den ganzen Fanboys.

LovesuckZ
2004-09-21, 17:57:38
Für dich extra gross, bitte

Ja, du zeigst, dass die Gaeste langsam aber sicher nur noch in den Offtopic und Hilfsforen posten sollten.
Danke dafuer :up:

Er hat ein Absatz in seinem Text und faengt somit ein anderes Thema an. Ausserdem bezieht sich sein erster Teil auf Shadermark2.1.

Mumins
2004-09-21, 18:04:08
Deswegen ist XbitLabs ja auch herrausragend, weil sie eben nicht nur Mainstream testen
Wenn ich mir die Benches der X700 auf xbitlabs anschaue wird nur etwas mehr gebencht, aber nichts was, nicht Mainstream wäre.

Gast
2004-09-21, 18:04:13
wurde das schon gepostet?

http://www.xbitlabs.com/articles/video/display/ati-radeon-x700-games.html

falls ja, sry.

Nazar
2004-09-21, 18:18:08
Wovon träumst du denn nachst bitte?

Hier ein Ausschnitt aus dem Anandtech Fazit ganz am Ende:
"
In the end, the GeForce 6600 GT is a more versatile solution than the Radeon X700 XT that can deliver higher performance at more demanding settings. The X700 is certainly not a bad card, and street prices still remain to be seen. At publication, we found a 6600 GT available for $209 on pricewatch, though street prices for the X700 are not yet available. Unless the X700 XT is priced comfortably below its $199 MSRP, or you need the 256MB of the X700 Pro, the 6600 GT is the way to go for midrange cards.
"

Bzgl. Doom3 ist jegliche Shader Replacement und was weis ich für Argumente Kokolores. Die Qualität leidet in keinster Weise. Nvidia Karten produzieren hervorragende Qualität bei deutlich besserer Leistung in dem Spiel.
Alles andere ist für den Gamer schlichtweg unwichtig. Momentan ist das Spiel in den Hitlisten vorne. Deswegen wiegt es derzeit auch recht schwer.
Nvidia liefert für OpenGl und eben vor allem die Doom3 Engine die passenderen Chips und Treiber ab im Vergleich zu ATI.
Daran gibts keinen mm Abweichung.

Ich weiss nicht wo du deine logik hernimmst.. ehrlich gesagt besitzt deine aussage 0,0 logik.
Es geht beim shaderreplacment NICHT um die BQ... hier geht es um eine optimierung nur für den NV4x... um es dir verständlich zu machen kann man auch sagen "DOOM III wurde speziell für den NV4X geschrieben".
Schlimm finde ich es nicht. Was ich allerdings schlimm finde, sind die verheimlichung solcher aktionen.
Hier wird ein falsches bild von der leistungsfähigkeit der getesteten karten wiedergegeben. Das wäre auch nicht so tragisch, wenn dieses game nicht als benchmark genommen werden würde.
Durch optimierungen für nur einen grafikchip kann man natürlich ein "gefaktes" ergebnis erziehlen... eine aussage über die tatsächliche leistungfähigkeit des chips ist damit nicht zu treffen... hier fängt "meiner meinung" der betrug an.. und ich meine den betrug am KUNDEN... was wäre wenn der NV 4X nur bei DIII so gut wäre und bei "normal" geproggten spielen abstinken würde? Dann würdest du dich über diese "optimierung" beschweren... aber der hersteller sagt dir dann.. was beschwerst du dich denn... "haben sie den irgendwelche BQ-unterschiede in dem spiel D III gesehen?"

Durch dieses getrikse mit dem SR wurde dem NV 4X ein leistungsvorsprung gegenüber dem 420 bestätigt der weit übertrieben ist..

Es sollte langsam jedem klar sein das weder FC noch DIII als benchmark geeignet sind.. diese beiden spiele sind zu stark optimiert.

Mumins
2004-09-21, 18:21:55
Das ist aber laut Carmack ATIs Schuld, da sie nicht auf seine Wünsche eingehen wollten, zumindest die X800 Karten betreffend.

seahawk
2004-09-21, 18:46:28
Was mir auffällt und hier im Fanboygebashe völlig untergeht, ist doch, dass heir von beiden IHVs Grafikkarten für den Midrangebereich erschienen sind, die die alten Topmodelle im Preis-/Leistungsicht nur noch alt aussehen lassen.

Das ist imho eine tolle Leistung - von beiden. Es gibt wieder eindeutig kaufenswerte Karten im Midrangebereich.

Gast
2004-09-21, 19:15:34
Ack.

Du weisst, warum die Performance von ATI unter Domm3 schlechter ist?

Steht hier:

http://www.3dcenter.org/artikel/2004/07-30.php

Lesen bildet.

Quasar
2004-09-21, 19:24:34
Irgendwie nicht.
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/inno3d_geforce_6800_gt_ultra/9/#far_cry
Je nach Einstellung ist mal die GT mal die PRO vorne. Ist ausserdem minimal, also fast gleich.
Und das liegt nicht an SM3, sondern an der höheren arithmetischen Leistung der GT. ;)

Kannst ja direkt mal ~7% draufrechnen auf die GT-Ergebnisse - dann hast du ungefähren "Optimierungsgleichstand" ;)

Black-Scorpion
2004-09-21, 19:25:16
Steht hier:

http://www.3dcenter.org/artikel/2004/07-30.php

Lesen bildet.
Hast du das Update auch gelesen?

TheCounter
2004-09-21, 20:07:32
Ich finde komisch das einige Seiten Probleme bei bestimmten Spielen (z. B. Farcry) mit dem neuen Treiber haben und andere wiederrum nicht...

Die Ergebnisse sind eh ziemlich unterschiedlich. Naja mal abwarten bis es Test auf eigenen Systemen gibt, und nicht auf den von ATI gestellten (Bei einigen wurde ja auf von ATI gestellten Systemen getestet).

Jesus
2004-09-21, 20:44:15
demnach müßte das "jedi Knight" game genauso gezinkt sein wie DOOM
da dort selbst die 6600Gt die X800 versägt..
aber darüber verliert kaum einer ein wort


Genauso ist es ( Q3 Engine war so ziemlich das erste was NV "optimiert" hat afaik ). Allerdings ist ATI im OGL Sektor auch nicht gerade der bringer, was zusätzlich noch nen Dämpfer gibt ;)

saddevil
2004-09-21, 21:07:22
was der hersteller macht um bestimmte sachen zu beschleunigen .. ist doch IHM überlassen...

nehmen wir mal an NV entwickelt eine Hardwaremöglichkeit solche optimierungen in echtzeit zu machen..

und nennt das speedFX II oder weiß der geier...
bei ATI genau das selbe !!

komischerweise nennt man das nicht mehr cheaten sondern eine technische inovation... :D
solange man den unterschied nicht an der BQ ausmachen kann...

der NEWSthread wo es um DOOM III ging .. genau gelesen erklärt er einiges...
die unterschiedliche Architektur der chips ...

sie wollen im endeffekt das gleiche bezwecken..
nicht sichtbare pixel werden aussortiert...

bei DOOM III scheint NV durch die optimierung ( die "schwelle" ) der treiber sagt dem chip von vornherein das was schwarz ist einfach weglassen...
dadurch ist im endeffekt mehr rohleistung vorhanden ...

der ATIchip macht es teilweise schon komplizierter und verschwendet darin zeit sich zu entscheiden...


das teile aus dem artikel zurückgenommen wurden mussten war klar!
ATI bzw NV lassen sich sowas nicht gefallen .. (in dem falle ATI)



abei eines steht fest ...
ATI bestreitet alles ... und will "das gleiche" machen...
einen treiber bringen der das selbe bezweckt...
in wie weit sich das an zahlen zeigt wird sich zeigen...


wenn sie es dennoch nicht schaffen... naja .. dafür schwächelt die NV bei anderen games ...
aber NV kann ja da auch "optimieren"


im endeffekt darf man eigentlich KEINEM bench mehr glauben...

LovesuckZ
2004-09-21, 21:11:32
Der Unterschied zwischen einer Hardware- und Softwareloesung ist ja, dass diese unter den gegebenden Umstaenden immer arbeitet.
Beim Hand - Shaderreplacement muss man, wie gesagt, erstmal Hand anlegen.
So kann es sein, dass Spiel "a" mit einem bestimmten Shader beschleunigt wird und Spiel "b" mit dem selben, eben keiner Beeinflussungen zu gute kommt. Daraus resultiert, dass Spiel "b" langsamer laeuft.
Ausserdem legalisiert ATi nun ihre Cheats, indem Sie die Moeglichkeit geben, sie auszuschalten.
Und das ist an Laecherlichkeit nicht mehr zu uebertreffen. ;(

/edit:
Ich seh, dud rueckst irgendwie das selbe aus, sry, vergess das obere :D

Gast
2004-09-21, 21:11:33
:confused:
Die 6600GT hat doch auch nur 128bit.

Ja, besonders hier: http://www.zdnet.de/enterprise/client/0,39023248,39125640,00.htm
;D
Die 6800GT und die X800PRO sind in etwa gleichwertig was die performance angeht. Kommt drauf an welche Benchmarks man wählt. ;)
Maistreamspiele laufen meistens auf Nvidia einen Tick schneller. Abseits des Mainstreams ist ATI teilweise deutlich schneller.

Und ATI die X700PRO. ;D

Diese Option wäre sicher wünschenswert.

Schön anzusehn wie du dir die Benchmarks rauspickerst :)
aber wir wissen ja warum.

Jesus
2004-09-21, 21:13:01
abei eines steht fest ...
ATI bestreitet alles ... und will "das gleiche" machen...
einen treiber bringen der das selbe bezweckt...
in wie weit sich das an zahlen zeigt wird sich zeigen...


stimmt doch gar nicht. ATI hat doch im Interview gesagt sie machens, weil NV es tut. Bestreiten tun sie nichts, das tut nur NV ( immer noch ) obwohls eigentlich so gut wie bewiesen ist.

/EDIT: btw on-topic, X700Pro und XT werden gleich viel ( 199€ ) kosten. :rolleyes:

Black-Scorpion
2004-09-21, 21:29:48
Ausserdem legalisiert ATi nun ihre Cheats, indem Sie die Moeglichkeit geben, sie auszuschalten.
Und das ist an Laecherlichkeit nicht mehr zu uebertreffen. ;(
Als NV den Schalter eingebaut hat um seine Cheats abzuschalten war es gut.
Jetzt wo es ATI macht ist es lächerlich?
Bauen sie keinen Schalter ein ist es nicht richtig, jetzt bauen sie einen Schalter ein und es ist wieder falsch.

LovesuckZ
2004-09-21, 21:37:35
Als NV den Schalter eingebaut hat um seine Cheats abzuschalten war es gut.
Jetzt wo es ATI macht ist es lächerlich?


Shaderreplacment ist keine universiellen Filterungsaenderung.
Weißt du, wo Nvidia optimiert? W sie die Shader ersetzen oder effizienteres Cachemapping betreiben?
Fakt ist, dass ATi nun in jedem Topspiel die Shader einfach ersetzen kann und dies fuehrt dazu, dass Nvidia nachzieht. Schoene neue Welt, nicht?
Es tut mir leid, aber cheaten so zu legalisieren, ist fuer mich laecherlich.

/edit: Schonmal daran gedacht, dass jedes neue Patch das ergebnis des Spiels vollkommen umdrehen kann?

Gast
2004-09-21, 21:38:04
kein Mensch kauft ne GT und zockt dann in 1024x768.

Du solltest nicht von dir auf alle anderen schliessen....
Ich würde es auf jeden Fall so machen, wenn ich eine gt hätte

TheCounter
2004-09-21, 21:39:25
Als NV den Schalter eingebaut hat um seine Cheats abzuschalten war es gut.
Jetzt wo es ATI macht ist es lächerlich?
Bauen sie keinen Schalter ein ist es nicht richtig, jetzt bauen sie einen Schalter ein und es ist wieder falsch.

Versteh ich auch nicht, also müsste laut LS dann NVIDIA genauso lächerlich sein da sie das selbe getan haben, sie haben ihre Cheats auch legalisiert indem sie Schalter eingebaut haben...

:|

deekey777
2004-09-21, 21:41:00
Wer sagt, dass ATi Shader in allen Spielen ersetzt, für die die Optimierung gilt?

Gast
2004-09-21, 21:43:45
Der Unterschied zwischen einer Hardware- und Softwareloesung ist ja, dass diese unter den gegebenden Umstaenden immer arbeitet.
Beim Hand - Shaderreplacement muss man, wie gesagt, erstmal Hand anlegen.
So kann es sein, dass Spiel "a" mit einem bestimmten Shader beschleunigt wird und Spiel "b" mit dem selben, eben keiner Beeinflussungen zu gute kommt. Daraus resultiert, dass Spiel "b" langsamer laeuft.
Ausserdem legalisiert ATi nun ihre Cheats, indem Sie die Moeglichkeit geben, sie auszuschalten.
Und das ist an Laecherlichkeit nicht mehr zu uebertreffen. ;(

/edit:
Ich seh, dud rueckst irgendwie das selbe aus, sry, vergess das obere :D

Hallo Fanboy

die Schalter, die jetzt die IHV in ihren Treibern anbieten, legaliesieren keine cheats, denn sie waren nie illegal. Sie sind opportun, oft pramatisch, allerhöchstens moralisch verwerflich.

Mach dich doch nicht lächerlich ;)

TheCounter
2004-09-21, 21:44:13
Wer sagt, dass ATi Shader in allen Spielen ersetzt, für die die Optimierung gilt?

Eben, keiner. Außerdem ist auch nicht bekannt was NVIDIA alles für Shader ersetzt, bestes beispiel Doom III. Von daher...

Ich finds gut das es bei beiden Schalter gibt um die (bekannten) Optimierungen auszuschalten.

LovesuckZ
2004-09-21, 21:46:54
Wer sagt, dass ATi Shader in allen Spielen ersetzt, für die die Optimierung gilt?

Das sagt keiner, nichtmal ATi.
Zur zeit haben sie wohl nur die Doom3 Shader ersetzt, das erklaere auch, dass AI im Stress Test nicht wirklich schneller ist.

/edit: Unter AI sind auch die Bugfixes. Dagegen sagt niemand etwas. Aber hier werden auch die boesen Sachen erfasst: Shaderreplacment, Texturanalayse von der Hand etc.

LovesuckZ
2004-09-21, 21:48:42
Eben, keiner. Außerdem ist auch nicht bekannt was NVIDIA alles für Shader ersetzt, bestes beispiel Doom III. Von daher...


Exakt. Man weiß es nicht. Daher kann man auch keine ATi karte gegen eine Nvidiakkarte mit AI testen (außer in Doom3).
Aber so wie ich die Reviewer kenne, wird es sowieso gemacht.

deekey777
2004-09-21, 21:50:49
Das sagt keiner, nichtmal ATi.
ur zeit haben sie wohl nur die Doom3 Shader ersetzt, das erklaere auch, dass AI im Stress Test nicht wirklich schneller ist.

Horrorvorstellung, wenn das ausser in Doom 3 eintrifft. Sonst macht AI ganz was anderes - es spielt mit der Qualität der Texturen. Zur Zeit bringt AI - bis auf Doom 3 - fast gar nichts.

Demirug
2004-09-21, 21:53:54
Warum schränkt ihr euch bei den Applikationsspezifischen Optimierungen eigentlich nur auf Filter und Shaderreplacements ein? Ich bin inzwischen sehr sicher das nVidia bei D3 da noch mehr dreht. Aleine durch Shaderreplacments/Filtertricks können sie das was sie beim Abschalten der Optimierungen verlieren nämlich gar nicht mehr reinholen.

TheCounter
2004-09-21, 21:55:40
Exakt. Man weiß es nicht. Daher kann man auch keine ATi karte gegen eine Nvidiakkarte mit AI testen (außer in Doom3).
Aber so wie ich die Reviewer kenne, wird es sowieso gemacht.

Die Einstellungen im Nvidia CP bei den Test hab ich bissher noch nirgends stehen sehen, hab ich die vielleicht nur übersehen? Falls die Optimierungen an waren kann man guten gewissens bei den ATI Karten mit A.I. testen.

Wie gesagt warte ich eh noch auf richtige Tests bei denen die Karten in eigenen System getestet wurden. Vor allem warte ich da auf nen richtigen Test bei Computerbase.

@Demirug

Deswegen hab ich oben auch "(bekannten) Optimierungen" geschrieben ;)

Jesus
2004-09-21, 21:57:16
Naja sieht man ja auch daran wie wenig performance ATI durch ihr (Humus) A.I. Replacement da nur gewinnt...( @demi)

Black-Scorpion
2004-09-21, 22:01:30
Exakt. Man weiß es nicht. Daher kann man auch keine ATi karte gegen eine Nvidiakkarte mit AI testen (außer in Doom3).
Aber so wie ich die Reviewer kenne, wird es sowieso gemacht.
Und in anderen Spielen kann man ruhig NV gegen ATI Karten ohne AI benchen?
Also auch die wo NV Shader austauscht und ATI nicht?
Solange nicht klar ist wer bei welchen Spielen Shader austauscht oder nicht kannst du jeden Bench nur unter Vorbehalt glauben.
Und was du als Fakt hinstellst ist keiner solange nichts bewiesen ist.

Demirug
2004-09-21, 22:03:15
Naja sieht man ja auch daran wie wenig performance ATI durch ihr (Humus) A.I. Replacement da nur gewinnt...( @demi)

Ich bin mir noch nicht ganz sicher ob ATI hier wirklich nur den Humus Shader einsetzt. Ich mache dazu aber gerade als Auftragsarbeit eine Untersuchung. Aus dem Grund habe ich auch schon eine X800 und den passenden Treiber neben dem Rechner liegen. nVidia macht mir da nur gerade das Leben schwer weil ich unbeabsichtigt wohl alle Optimierungen auf einen Schlag deaktiviert habe.

Jesus
2004-09-21, 22:05:25
Ich bin mir noch nicht ganz sicher ob ATI hier wirklich nur den Humus Shader einsetzt. Ich mache dazu aber gerade als Auftragsarbeit eine Untersuchung. Aus dem Grund habe ich auch schon eine X800 und den passenden Treiber neben dem Rechner liegen. nVidia macht mir da nur gerade das Leben schwer weil ich unbeabsichtigt wohl alle Optimierungen auf einen Schlag deaktiviert habe.

hehe... :rolleyes:

naja ich denke mal es wird der Humus sein, weil der Performancegewinn nicht gerade berauschend ist in den Benchmarks ( zumindest bei R420, den R410 scheint er köstlich zu munden :tongue: )

LovesuckZ
2004-09-21, 22:08:08
Und in anderen Spielen kann man ruhig NV gegen ATI Karten ohne AI benchen?[
Also auch die wo NV Shader austauscht und ATI nicht?

Beweise das doch bitte. Und hier liegt das Problem: Wo "fuscht" Nvidia ins Programmierhandwerk?
ATi macht dies klar: Wir koennen jetzt alles machen.
Aber bei Nvidia?
Ist wie mit der Filterung: Es ist nicht okay, eine Karte mit den Optimierungen und die andere ohne zu testen, nur weil der Unterschied in der geziegten Situation nicht sichtbar waere.

xouz
2004-09-21, 22:08:49
Ich bin mir noch nicht ganz sicher ob ATI hier wirklich nur den Humus Shader einsetzt. Ich mache dazu aber gerade als Auftragsarbeit eine Untersuchung. Aus dem Grund habe ich auch schon eine X800 und den passenden Treiber neben dem Rechner liegen. nVidia macht mir da nur gerade das Leben schwer weil ich unbeabsichtigt wohl alle Optimierungen auf einen Schlag deaktiviert habe.
hi,

ich wollte nur mal anfragen ob du mal anreißen könntest was ausser den optionen shaderreplacement und filtertricks nv denn sonst noch anwenden KÖNNTE, ich bin im bereich grafikkarten grade gut genug um der diskussion folgen zu können, kann mir unter deinen andeutungen nicht wirklich was vorstellen. würde mich aber sehr intressieren, inklusive ner kleinen "inschätzung" (also was es bringt, in welchem fall und obs global oder nur lokal wirkt)

gruß
ich

Jesus
2004-09-21, 22:18:10
Beweise das doch bitte. Und hier liegt das Problem: Wo "fuscht" Nvidia ins Programmierhandwerk?
ATi macht dies klar: Wir koennen jetzt alles machen.
Aber bei Nvidia?
Ist wie mit der Filterung: Es ist nicht okay, eine Karte mit den Optimierungen und die andere ohne zu testen, nur weil der Unterschied in der geziegten Situation nicht sichtbar waere.

jemand fragen der sich damit auskennt: :rolleyes:

NVIDIA hat offiziell ein ziemlich perverses Verständnis von den Begriffen "Compiler" und "Optimierer". Man erinnere sich an die sogenannte UCT, "unified compiler technology". Das fiese an dieser Sache ist, dass dies kein technischer Begriff, sondern nur noch ein Marketingkunstwort (wie SmoothVision et al) ist, allerdings mit gefährlicher Suggestivwirkung.

Was NVIDIA mit "UCT" tatsächlich meint ist aber "unter anderem" *hust* Shader-Erkennung und Ersetzung.

Demirug
2004-09-21, 22:24:41
hi,

ich wollte nur mal anfragen ob du mal anreißen könntest was ausser den optionen shaderreplacement und filtertricks nv denn sonst noch anwenden KÖNNTE, ich bin im bereich grafikkarten grade gut genug um der diskussion folgen zu können, kann mir unter deinen andeutungen nicht wirklich was vorstellen. würde mich aber sehr intressieren, inklusive ner kleinen "inschätzung" (also was es bringt, in welchem fall und obs global oder nur lokal wirkt)

gruß
ich

Es ist im Moment sehr schwer zu sagen was nVidia da genau alles macht. Es müssen jedoch Optimierungen auf relative hohem Level dabei sein. Das sind auch eigentlich keine Andeutungen sonder schlicht und ergreifend mein aktueller Kenntnissstand. Scheinbar lässt die Engine aber noch genügend Renderarbeit verrichten die man wegoptimieren kann weil sie auf das Endergebniss keinen oder wenig einfluss hat.

Black-Scorpion
2004-09-21, 22:31:42
Beweise das doch bitte. Und hier liegt das Problem: Wo "fuscht" Nvidia ins Programmierhandwerk?
ATi macht dies klar: Wir koennen jetzt alles machen.
Aber bei Nvidia?
Ist wie mit der Filterung: Es ist nicht okay, eine Karte mit den Optimierungen und die andere ohne zu testen, nur weil der Unterschied in der geziegten Situation nicht sichtbar waere.
Wieso muß ich eine Frage beweisen?
Eben weil es (von uns) keiner weis, sind alle benches unter Vorbehalt.
Du hast ja gesagt außer D3 kann man dann nichts mehr vergleichen.
Deshalb die Frage nach anderen Spielen.
Denn wenn du in anderen Spielen bei ATI das AI abschaltest und bei NV (weil es eben keiner weis) Shader ausgetauscht werden ist das auch nicht ok.
Nur der Unterschied ist das bei ATI durch das abschalten von AI auch keine Shader mehr getauscht werden.
So habe ich es jedenfalls verstanden.
Und da ist das nächste Problem, kann man das austauschen der Shader bei NV im Treiber abstellen?
Das ist eine ernst gemeinte Frage.
Vielleicht kann sie ja einer beantworten.

Odal
2004-09-21, 22:38:24
darf ich mal eine DAU frage stellen? ach ich stell sie einfach :lol: was ist AI? habe die letzten treiberentwicklungen nicht verfolgt

MikBach
2004-09-21, 22:40:30
ATI optimiert genauso, wie man ja schon am lausigen Filter sieht seit JAHREN und vor allem wie man es an dem neuerlichen AI sieht.
Immer weniger IQ.
Richtig. bei Nvidia auch. Siehe bri bei der FX-Serie. Winkelabhängiges AF beim NV40. ;)
Wenn ich mir die Benches der X700 auf xbitlabs anschaue wird nur etwas mehr gebencht, aber nichts was, nicht Mainstream wäre.
Ich meine jetzt nicht diesen Kurztest. Sondern umfangreiche Tests, wie den mit den 35 Benchmarks:
http://www.xbitlabs.com/articles/video/display/graphics-cards-2004.html
Das ist aber laut Carmack ATIs Schuld, da sie nicht auf seine Wünsche eingehen wollten, zumindest die X800 Karten betreffend.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=169471
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2113634&postcount=86

ATi macht dies klar: Wir koennen jetzt alles machen.
Aber bei Nvidia?

Nvidia macht es lieber heimlich, deswegen cheat. ATI macht es öffentlich deswegen Optimierung.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2267663&postcount=145
Nein Gast, du hast keine Ahnung, warum ich diese Benchmarks gepostet habe...
Weil diese Benchmarks abseits des Mainstream liegen oder sehr neu sind. Das soll beweisen, dass Nvidia auf die Spiele hin optimiert. Ob das jetzt Shaderreplacement ist oder sonstiges, kann man zur Zeit nicht beweisen. ;)

Demirug
2004-09-21, 22:48:02
Wieso muß ich eine Frage beweisen?
Eben weil es (von uns) keiner weis, sind alle benches unter Vorbehalt.
Du hast ja gesagt außer D3 kann man dann nichts mehr vergleichen.
Deshalb die Frage nach anderen Spielen.
Denn wenn du in anderen Spielen bei ATI das AI abschaltest und bei NV (weil es eben keiner weis) Shader ausgetauscht werden ist das auch nicht ok.
Nur der Unterschied ist das bei ATI durch das abschalten von AI auch keine Shader mehr getauscht werden.
So habe ich es jedenfalls verstanden.
Und da ist das nächste Problem, kann man das austauschen der Shader bei NV im Treiber abstellen?
Das ist eine ernst gemeinte Frage.
Vielleicht kann sie ja einer beantworten.

Können wir ATI glauben das man wirklich alle applikationsspezifischen Optimierungen abschalten kann?

Wo ist die Grenze zwischen Applikationsspezifischer und allgemeiner Optimierung? Ist eine Optimierung für eine bestimmten Konfiguration der Renderpipe die derezit aber nur ein Spiel benutzt Applikationsspezifisch? Oder ist sie doch allgemein weil es irgendwann ein anderes Spiel geben könnte das die Konfiguration auch benutzt?

Die Frage ist und bleibt IMHO wie weit darf ein IHV gehen?

Quasar
2004-09-21, 23:00:53
darf ich mal eine DAU frage stellen? ach ich stell sie einfach :lol: was ist AI? habe die letzten treiberentwicklungen nicht verfolgt

AI kommt im Cat 4.10 - und ist die Abschaltmöglichkeit für *hust* intelligente Texturfilter *keuch*

reunion
2004-09-21, 23:02:01
Fakt ist, dass ATi nun in jedem Topspiel die Shader einfach ersetzen kann und dies fuehrt dazu, dass Nvidia nachzieht. Schoene neue Welt, nicht?


Das NV nachzieht? :lol:
NV macht das doch schon längst, das älteste bekannte beispiel ist der 3dmurks03 das jüngste Doom3. ATi hatte das bisher nicht nötig da man Shadermäßig der NV3x Serie ohnehin überlegen war. Doch jetzt mit dem NV40 sieht die sache nichtmehr so deutlich aus, die einzig logische Konsiquenz die ATi ziehen konnte war ebenfalls Shaderreplacement zu betreiben, die man sogar abschalten wird können. So what?

MikBach
2004-09-21, 23:04:56
Können wir ATI glauben das man wirklich alle applikationsspezifischen Optimierungen abschalten kann?
Nein, das können wir sicherlich nicht. Aber das wäre schon mal ein Anfang zu zeigen, dass man optimiert. Nvidia schweigt da wie ein Grab, obwohl sie des Cheatings von JC persönlich überführt wurden. Stichwort: "Tauscht man nur einen Shader aus, bricht der NV40 dramatisch ein"

Wo ist die Grenze zwischen Applikationsspezifischer und allgemeiner Optimierung?

Wenn man auf die Shader eines Spiels optimiert ist es App-spezifisch, auch wenn davon andere Spiele mit der gleichen Engine profitieren sollten(Zufall).
Allgemeine Optimierung sehe ich so:
Es werden Shaderformeln gegen mathematisch gleiche Formeln ersetzt(allgemein). Man kann aber noch weiter gehen:
So lange die BQ das liefert, was sich die Spiler erhoffen, kann man auch an der Genauigkeit der Shader(jetzt auf verschiedene Betrachtungsweisen bezogen) spielen. Siehe der MAD_SAT-Shader des Humustweaks.

Die Frage ist und bleibt IMHO wie weit darf ein IHV gehen?
Wenn die BQ nicht leidet ist es egal, WENN man zugibt zu optimieren.

Black-Scorpion
2004-09-21, 23:08:31
Können wir ATI glauben das man wirklich alle applikationsspezifischen Optimierungen abschalten kann?

Wo ist die Grenze zwischen Applikationsspezifischer und allgemeiner Optimierung? Ist eine Optimierung für eine bestimmten Konfiguration der Renderpipe die derezit aber nur ein Spiel benutzt Applikationsspezifisch? Oder ist sie doch allgemein weil es irgendwann ein anderes Spiel geben könnte das die Konfiguration auch benutzt?

Die Frage ist und bleibt IMHO wie weit darf ein IHV gehen?
Nein, können wir nicht.
Deshalb sagte ich ja das alle Benches die gemacht werden (für mich als User) unter Vorbehalt sind.
Sie sind ein Anhaltspunkt und nicht mehr.
Für mich ist eine objektive Vergleichbarkeit schon lange nicht mehr gegeben.
Es wundert mich nur das jetzt schon Sachen als Fakten dargestellt werden obwohl der Treiber noch nicht einmal draußen ist.

Ich hoffe mal du wirst dir das Feature genau anschauen und berichten.

Demirug
2004-09-21, 23:21:08
Nein, das können wir sicherlich nicht. Aber das wäre schon mal ein Anfang zu zeigen, dass man optimiert. Nvidia schweigt da wie ein Grab, obwohl sie des Cheatings von JC persönlich überführt wurden. Stichwort: "Tauscht man nur einen Shader aus, bricht der NV40 dramatisch ein"

Das Treiber optimiert werden ist ja nichts neues damit wird doch in den releasenodes sogar geworben.

Wenn man auf die Shader eines Spiels optimiert ist es App-spezifisch, auch wenn davon andere Spiele mit der gleichen Engine profitieren sollten(Zufall).
Allgemeine Optimierung sehe ich so:
Es werden Shaderformeln gegen mathematisch gleiche Formeln ersetzt(allgemein). Man kann aber noch weiter gehen:
So lange die BQ das liefert, was sich die Spiler erhoffen, kann man auch an der Genauigkeit der Shader(jetzt auf verschiedene Betrachtungsweisen bezogen) spielen. Siehe der MAD_SAT-Shader des Humustweaks.

Gerade der Humustweak ist sehr appspezifisch. Sobald man den Inhalt der entsprechenden Texturen tauschen würde kommt nicht mehr das Ergebniss Zustanden das aufgrund der Spezifikation der Extension heraus kommen muss.

Was Shaderreplacements angeht so ist es schwer zu sagen was nun der allgemeine Shadercompiler macht und was ein echtes Replacement ist. Bei nVidia und D3 reicht es ja nicht aus den Shader ein wenig neu zu formatieren oder Variablennamen zu verändern. Man muss schon die mathematische Aussage das Shaders verändern. Was jetzt nicht heisen soll das dieser Shader nicht doch vom Treiber erkannt wird. Er wird es sogar mit grosser Wahrscheinlichkeit. Nur ob dies wirklich dem Zwege eines Replacements dient oder ob da was ganz anderes ausgelösst wird wissen wir alle nicht.

Wenn die BQ nicht leidet ist es egal, WENN man zugibt zu optimieren.

Wie schon gesagt das sie optimieren geben sie doch mit den Releasenodes zu. Der interesantere Part ist die Frage was sie dazu ändern. Das man aber von Seiten der IHVs damit nicht gerne herrausrückt ist für mich schon irgendwo verständlich. Wissen würde ich es natürlich aber trotzdem gerne.

MikBach
2004-09-21, 23:37:02
Gerade der Humustweak ist sehr appspezifisch. Sobald man den Inhalt der entsprechenden Texturen tauschen würde kommt nicht mehr das Ergebniss Zustanden das aufgrund der Spezifikation der Extension heraus kommen muss.

Das ist mir schon klar. Deswegen habe ich ja von (fast) gleicher BQ geschreiben. Klar, dass das mathematisch nicht ganz korrekt ist.

Was Shaderreplacements angeht so ist es schwer zu sagen was nun der allgemeine Shadercompiler macht und was ein echtes Replacement ist. Bei nVidia und D3 reicht es ja nicht aus den Shader ein wenig neu zu formatieren oder Variablennamen zu verändern. Man muss schon die mathematische Aussage das Shaders verändern. Was jetzt nicht heisen soll das dieser Shader nicht doch vom Treiber erkannt wird. Er wird es sogar mit grosser Wahrscheinlichkeit. Nur ob dies wirklich dem Zwege eines Replacements dient oder ob da was ganz anderes ausgelösst wird wissen wir alle nicht.
Ja, das ist das Problem. Wir können fast gar nichts sagen, da für uns die Interna nicht zugänglich sind.

Wie schon gesagt das sie optimieren geben sie doch mit den Releasenodes zu. Der interesantere Part ist die Frage was sie dazu ändern. Das man aber von Seiten der IHVs damit nicht gerne herrausrückt ist für mich schon irgendwo verständlich. Wissen würde ich es natürlich aber trotzdem gerne.
Kann man das nicht irgendwie nachprüfen? Der Spilehersteller sollte das doch machen können.
Und, ist klar, dass die IHVs nicht mit ihren Optimierungen rausrücken, da diese Optimierungen auch meistens für den Konkurrenten was bringen würden.

PS Releasenotes und Zwecke. :)

saddevil
2004-09-21, 23:40:48
Und in anderen Spielen kann man ruhig NV gegen ATI Karten ohne AI benchen?
Also auch die wo NV Shader austauscht und ATI nicht?
....


kannst DU es beweisen das NV in anderen Games Optimiert??

was wäre wenn nicht ?? und das die wirkliche leistung der NV40 ist???
vieleicht hat ja NV mal gearbeitet...
Vieleicht gibt es den namen "FX" deshalb nichtmehr weil sie vom alten image wegkommen wollen...


was wäre wenn NV optimiert ??
sicher kann ATI nachziehen hieß es vor 2wochen...
ATI hat nachgezogen und holt auf .. in wahnwitzigen schrittchen....
teils sogar NIX...

und WIE optimiert wird muß man den entwiklern überlassen...
bei NV bringen shadertunings was..

bei ATI muß man durch die andere architektur vieleicht anders angreifen ...

aths
2004-09-21, 23:50:44
das teile aus dem artikel zurückgenommen wurden mussten war klar!
ATI bzw NV lassen sich sowas nicht gefallen .. (in dem falle ATI)ATI hat sich auf den Artikel hin bei 3DCenter nicht gemeldet.

MikBach
2004-09-21, 23:52:28
kannst DU es beweisen das NV in anderen Games Optimiert??
Kannst du es beweisen, dass Nvidia nicht optimiert?

was wäre wenn nicht ?? und das die wirkliche leistung der NV40 ist???
vieleicht hat ja NV mal gearbeitet...
Na ja, vielleicht hat Nvidia an den Optimierungen gearbeitet. ;D

Vieleicht gibt es den namen "FX" deshalb nichtmehr weil sie vom alten image wegkommen wollen...
Richtig. Die FX war nix.
Reimt sich sogar. ;D


was wäre wenn NV optimiert ??
sicher kann ATI nachziehen hieß es vor 2wochen...
ATI hat nachgezogen und holt auf .. in wahnwitzigen schrittchen....
teils sogar NIX...

und WIE optimiert wird muß man den entwiklern überlassen...
bei NV bringen shadertunings was..

bei ATI muß man durch die andere architektur vieleicht anders angreifen ...
Lies dich erstmal in die Architektur des NV40 und R420 und die Spezifikationen von DX9 ein, dann wird für dich einiges bisschen klarer werden ;)

PS mit 18 Posts würde ich erstmal die Füsse stillhalten. ;)

aths
2004-09-21, 23:53:05
Fakt ist, dass ATi nun in jedem Topspiel die Shader einfach ersetzen kann und dies fuehrt dazu, dass Nvidia nachzieht. Schoene neue Welt, nicht?Das kann (und macht) Nvidia schon lange.

aths
2004-09-21, 23:58:36
Richtig. Die FX war nix.
Reimt sich sogar. ;DDadurch wirds nicht richtiger.

vinacis_vivids
2004-09-21, 23:58:37
Das kann (und macht) Nvidia schon lange.


Find ich absolut ok. die leute geben sich doch auch mühe damit die spiele bei gleicher BQ schneller laufen. ist doch ein echt schöner service von beiden herstellern sich so um die performance zu kümmern :biggrin:

MikBach
2004-09-22, 00:00:02
ATI hat sich auf den Artikel hin bei 3DCenter nicht gemeldet.
Richtig. Ich glaube das hat ATI gar nicht nötig, aber der Artikel wurde ja berichtigt. :)
BTW aths, wie ist es zu erklären, dass in Codname Panzers die ATIs deutlich vor den Nvidias liegen. Shader kommen da AFAIK nicht vor. Welche anderen Optimierungen kann man noch durchführen?

aths
2004-09-22, 00:00:15
Find ich absolut ok. die leute geben sich doch auch mühe damit die spiele bei gleicher BQ schneller laufen. ist doch ein echt schöner service von beiden herstellern sich so um die performance zu kümmern :biggrin:Ich finde das nicht ok, dass handoptimierte Shader genommen werden. Die Hersteller sollen sich lieber um allgemein wirksame Mehreffizienz kümmern, und dem Treiber mehr sinnvolle Optionen spendieren.

aths
2004-09-22, 00:03:40
Richtig. Ich glaube das hat ATI gar nicht nötig, aber der Artikel wurde ja berichtigt. :)Die Grundaussage bleibt bestehen und wurde um eine zweite Sache ergänzt.

BTW aths, wie ist es zu erklären, dass in Codname Panzers die ATIs deutlich vor den Nvidias liegen. Keine Ahnung.

Gast
2004-09-22, 00:14:19
Kannst du es beweisen, dass Nvidia nicht optimiert?

Brauch er doch gar nicht. Solange es nicht in den entsprechenden Fällen nachgewiesen ist gilt die Unschuldsvermutung. Ist eben wie im echten Leben.

Ist doch sowieso alles nur Gebrabbel hier.
Die 6600GT liegt vorn. Dass zeigen die Reviews. Was will man mehr. Nun weiss doch jeder der in dem Preissegment kaufen will, was er kaufen muss, wenn er mehr für sein Geld bekommen möchte.

Alles andere ist doch für den Kunden vollkommen egal. Diese Nebenkriegsschauplätze fürn zu gar nichts.
Nvidia hat mit NV4x sehr gut gearbeitet, viel investiert und auch viel riskiert. Sie verbauen ja einige Transistoren mehr, was ein gewisses Risiko birgt auch bei den Kosten.
Bis jetzt schneiden sie damit besser ab als ATI, die einfach mal einen ruhigen Gang nach den R3xx Erfolgen einlegen wollten und dachten es wird schon reichen. Offensichtlich tut es das jedoch nicht. Wieso soll ich dann ATI derzeit mit einem Kauf belohnen - weil es ATI ist?

Also ganz bestimmt nicht. Nvidia war diesmal halt einfach besser. Kann doch wohl nicht so schwer sein, dass einzusehen.

MikBach
2004-09-22, 00:53:11
Brauch er doch gar nicht.
Doch. Mit 18 Posts sollte man seine Aussagen schon beweisen, besonders wenn es alle Gurus anders sehen. ;D

Ist doch sowieso alles nur Gebrabbel hier.
Von dir sicherlich. ;D

Die 6600GT liegt vorn. Dass zeigen die Reviews. Was will man mehr. Nun weiss doch jeder der in dem Preissegment kaufen will, was er kaufen muss, wenn er mehr für sein Geld bekommen möchte.
Nein. Schau mal den Test auf XbitLabs. Und das sind die besten von den ganzen Reviewern, die bisher getestet haben.

Bis jetzt schneiden sie damit besser ab als ATI,
Nein tun sie nicht, siehe oben. ;)

Also ganz bestimmt nicht. Nvidia war diesmal halt einfach besser. Kann doch wohl nicht so schwer sein, dass einzusehen.
Ich weiss, dass es für dich schwer einzusehen ist, dass ATI zur Zeit die schnellste Karte liefert:
http://www.driverheaven.net/reviews/PNY/

Eine gute Nacht wünsche ich noch. ;)

arcanum
2004-09-22, 02:48:59
Die 6600GT liegt vorn. Dass zeigen die Reviews. Was will man mehr. Nun weiss doch jeder der in dem Preissegment kaufen will, was er kaufen muss, wenn er mehr für sein Geld bekommen möchte.
Nein. Schau mal den Test auf XbitLabs. Und das sind die besten von den ganzen Reviewern, die bisher getestet haben.

vorausgesetzt ati bringt die x700xt (mit 256mb ddr3) ebenfalls für ~200€. das würde mich zwar freuen, doch erscheint mir das ein wenig unrealistisch. insofern würde ich die xt nicht als direkten konkurrenten zur 6600gt sehen, da sie preislich wohl näher an der 6800 liegen wird. ich schätze, dass die x700 pro vom preis her eher dem 6600gt niveau entsprechen wird.

Doch. Mit 18 Posts sollte man seine Aussagen schon beweisen, besonders wenn es alle Gurus anders sehen. ;D

welcher "guru" hat denn hier bitteschön behauptet, dass nvidia bei sämtlichen spielen optimieren würde? es wird vorrangig vom shader replacement bei doom3 geredet. und lieber 18 posts mit sinnvollem inhalt als x posts von deiner sorte.




Und in anderen Spielen kann man ruhig NV gegen ATI Karten ohne AI benchen?
Also auch die wo NV Shader austauscht und ATI nicht?
....
kannst DU es beweisen das NV in anderen Games Optimiert??
Brauch er doch gar nicht.
Doch. Mit 18 Posts sollte man seine Aussagen schon beweisen, besonders wenn es alle Gurus anders sehen


beweise du mir doch bitte, dass ati nicht mehr optimiert als nvidia, wenn du so dermaßen den durchblick hast.

nachtrag: ich persönlich finde die sache mit dem shader replacement nicht so tragisch. ich sags mal so: wichtig ist was hinten raus kommt ;) wie das erreicht wird ist mir egal, so lange die bildqualität nicht darunter leidet. in zukunft wird es wohl noch stärker in diese richtung gehen, weswegen reviewer wenn möglich vergleichs screenshots zu allen benchmarks posten sollten, damit man sich davon selbst ein bild machen kann.

Gast
2004-09-22, 08:37:19
Was mich ehrlich gesagt wundert. Hat ATI noch mal am Texturfilter gedreht, oder sind die Spiele so anspruchslos dass bei der 6600 die ROPs limitieren?

Ich nicht. Kaum ein Doom3-Spieler wird diese Datei austauschen. Wenn man das Doom3-Ergebnis für nicht aussagekräftig hält, bis ATI mit dem kreativen Shaderreplacement nachgezogen hat, sollte man die Doom3-Ergebnisse einfach nicht betrachten.

Glaubst du, das alle Doom3 Spieler euren Senf lesen!!!!!

Die sind auf doom3.de und co. und probierern alles aus!

HOT
2004-09-22, 08:39:27
Shaderreplacement ist und bleibt ein Beschiss, weil ja nicht alle Anwendungen davon profitieren, sondern nur die üblichen Verdächtigen.
Wichtig ist das was hinten rauskommt, schon klar. Aber bereinigt um das, was man sich ermogelt hat, d.h. gezählt werden die Anwendungen, die nicht ermogelt wurden. Die Folge des Replacements ist nunmal, dass D3 nicht mehr als ernstzunehmender Benchmark gehandelt wird. Daran ist NV selber Schuld ;)

Und es ist vollkommen absurd, bei ATI danach zu suchen, weil sie das a.) in der Form nie gemacht haben und b.) die Leistung einfach zu konstant quer durch den Spielemarkt dafür ist. Wenn ATI das wirklich machen sollten, machen sie das nicht so stümperhaft wie NV ;)
Deshalb muss auch jemand beweisen, dass ATI das macht, da ich sonst davon ausgehe, dass ATI das nicht macht ;)

seahawk
2004-09-22, 08:41:22
Es ist doch auffällig, das NV bei unbekannten Spielen oft deutlicher hinten liegt, als bei Mainstreamspielen. Man muss davon ausgehen, dass sie mir anwendungsspezifische Cheats - äh Optimierungen - drinne haben.

Für mich spricht das bei meiner nächsten KArte extrem gegen NV.

Gast
2004-09-22, 08:42:25
Als NV den Schalter eingebaut hat um seine Cheats abzuschalten war es gut.
Jetzt wo es ATI macht ist es lächerlich?
Bauen sie keinen Schalter ein ist es nicht richtig, jetzt bauen sie einen Schalter ein und es ist wieder falsch.

Das sind halt die Lovesuckss dieser Welt, alles Fanboy-Gehabe - Einfach nur peinlich!

Holundermann
2004-09-22, 08:55:28
für mich liegt nv derzeit auch mehr oder weniger klar vorne. performance mässig nehmen sich die beiden kanditaten nicht viel, auch wenn die gt eine vielzahl der benchmarks gewinnt. auch wurde bei den ati karten meist mit nem absoluten beta treiber gebencht.

ausserdem kommt nv zugute das ihre grakas schon bei so manchem händler gelistet sind und nv wohl deshalb, zumindest anfangs, den preiskampf klar für sich entscheiden kann. meine nächste karte? eine geforce 6600 gt agp... ausser ati liefert schneller und billiger!

Gast
2004-09-22, 08:58:37
für mich liegt nv derzeit auch mehr oder weniger klar vorne. performance mässig nehmen sich die beiden kanditaten nicht viel, auch wenn die gt eine vielzahl der benchmarks gewinnt. auch wurde bei den ati karten meist mit nem absoluten beta treiber gebencht.

ausserdem kommt nv zugute das ihre grakas schon bei so manchem händler gelistet sind und nv wohl deshalb, zumindest anfangs, den preiskampf klar für sich entscheiden kann. meine nächste karte? eine geforce 6600 gt agp... ausser ati liefert schneller und billiger!

Gibt es eine 4 Dimension bei Marktanteilen?????? Wenn ja, bist du in dieser gerade unterwegs!

Ich finde, kauft euch eine 6600GT damit wir im nächsten Jahr wieder was zu lachen haben ala FX*g*.

Tarkin
2004-09-22, 09:04:45
http://www.firingsquad.com/hardware/ati_radeon_x700_xt/

hier wurden BETA 4.10er CATs verwendet ... (mit denen die X700 z.b. in farcry wesentlich bessere "performed" und in Doom3 in 16x12 + 4xAA, 8xAF die 6600GT hinter sich läßt).

Alles in Allem ein für die X700XT positives review.

sorry, falls das schon gepostet wurde...

Radeonator
2004-09-22, 09:12:22
http://www.firingsquad.com/hardware/ati_radeon_x700_xt/

hier wurden BETA 4.10er CATs verwendet ... (mit denen die X700 z.b. in farcry wesentlich bessere "performed" und in Doom3 in 16x12 + 4xAA, 8xAF die 6600GT hinter sich läßt).

Alles in Allem ein für die X700XT positives review.

sorry, falls das schon gepostet wurde...


Mich stört eigentlich eher der PCIe Zwang! Primär wird das doch nur gemacht, damit man sich alles neu kaufen muss! Wirklich nötig ist PCIe derzeit wohl eher weniger. (sry for OT)

Alles andere liegt im Auge des Betrachters und sollte eine Endscheidung der Verfügbarkeit und des Geldbeutels sein.

HOT
2004-09-22, 09:26:57
für mich liegt nv derzeit auch mehr oder weniger klar vorne. performance mässig nehmen sich die beiden kanditaten nicht viel, auch wenn die gt eine vielzahl der benchmarks gewinnt. auch wurde bei den ati karten meist mit nem absoluten beta treiber gebencht.

ausserdem kommt nv zugute das ihre grakas schon bei so manchem händler gelistet sind und nv wohl deshalb, zumindest anfangs, den preiskampf klar für sich entscheiden kann. meine nächste karte? eine geforce 6600 gt agp... ausser ati liefert schneller und billiger!

Das sieht der Markt anscheinend nicht so. Guck doch mal in Geizhals oder Preistrend rein... dort sind ATI Karten a.) arschteuer und b.) kaum verfügbar. Daraus schliesse ich, dass nur Vorbestellungen eine Chance haben wirklich ne Karte zu ergattern, somit muss die Nachfrage weitaus grösser als das Angebot sein.
Das ist bei NV teilweise auch so, aber nicht in dem extremen Maß.

HOT
2004-09-22, 09:30:21
Mich stört eigentlich eher der PCIe Zwang! Primär wird das doch nur gemacht, damit man sich alles neu kaufen muss! Wirklich nötig ist PCIe derzeit wohl eher weniger. (sry for OT)

Alles andere liegt im Auge des Betrachters und sollte eine Endscheidung der Verfügbarkeit und des Geldbeutels sein.

Wundert mich auch irgendwie, dass die Karte nur auf PCIe verfügbar sein soll. Der Chips ist doch ggü. dem R360 sicher extrem viel billiger zu produzieren, der sollte etwa die hälfte der Die Grösse haben mit unter 100Mio Transis + 110nm.
Frag mich sowieso wie die auf den Transistorcount kommen, da die R3x Chips ja einiges über 100Mio haben.

BK-Morpheus
2004-09-22, 09:40:14
Was mir auffällt und hier im Fanboygebashe völlig untergeht, ist doch, dass heir von beiden IHVs Grafikkarten für den Midrangebereich erschienen sind, die die alten Topmodelle im Preis-/Leistungsicht nur noch alt aussehen lassen.

Das ist imho eine tolle Leistung - von beiden. Es gibt wieder eindeutig kaufenswerte Karten im Midrangebereich.
Auch wenn der Post schon älter ist muss ich ihn zitieren, weil ich dem vollkommen zustimmen kann.

Die X700XT ist IMO auf 9800Pro Niveau und je nach Game bzw. Shaderlastigkeit und AF Verwendung auch ein gutes Stück schneller, so dass meine 9500Pro sehr wahrscheinlich von einer X700XT abgelöst werden kann.

Für ~200€ so eine nette PCI-E Karte zu haben ist eine Vorstellung, mit der ich gut leben kann (hauptsache, die Verfügbarkeit lässt nicht noch länger auf sich warten, als die S939 Boards mit PCI-E).

Leonidas
2004-09-22, 09:50:26
Wundert mich auch irgendwie, dass die Karte nur auf PCIe verfügbar sein soll. Der Chips ist doch ggü. dem R360 sicher extrem viel billiger zu produzieren, der sollte etwa die hälfte der Die Grösse haben mit unter 100Mio Transis + 110nm.
Frag mich sowieso wie die auf den Transistorcount kommen, da die R3x Chips ja einiges über 100Mio haben.


Laut ATi sind es nun offiziell 120M für den RV410.

mrdigital
2004-09-22, 10:00:43
Wieso bestimmt ihr die Verfügbarkeit einer Karte über Geizhals? Alle Händler listen neue Produkte, sobald sie vorgestelt werden. Mich interessieren die grünen und roten Lämpchen (aka "auf Lager" und "in 3 Tagen wieder da") überhaupt nicht. Ruft mal beim Händler an und versucht die Karte zu kaufen. Da hört man dann andere Sprüche. Das die alle auf ihre Webseite schreiben
"ja ham wir und ganz billig" ist doch ne blöde Masche, aber daraus kann man doch keine generelle Verfügbarkeit ableiten.

Gast
2004-09-22, 10:53:06
Zumindest weiß ich jetzt, warum die x700-Familie nur als PCI Express-Variante erscheinen soll. Wenn man sich nämlich die Benchmarks bei Firingsquad genau anschaut, lohnt es sich nämlich eher eine Radeon 9800 Pro für 180-200 Euro zu kaufen, als die "vermurkste" x700xt mit abgespeckten Speicher-Interface. Gibt nämlich genügend Benchmarks wo selbst die Radeon 9800 Pro noch etwas schneller ist als die x700xt und das ist, wenn man das Alter der Grafikkarte bedenkt, eine riesige Enttäuschung.

http://www.firingsquad.com/hardware/ati_radeon_x700_xt/images/sc1024.gif

http://www.firingsquad.com/hardware/ati_radeon_x700_xt/images/cs1024max.gif

http://www.firingsquad.com/hardware/ati_radeon_x700_xt/images/tr1024aa.gif

http://www.firingsquad.com/hardware/ati_radeon_x700_xt/images/d31024.gif

Gast
2004-09-22, 10:54:26
vorausgesetzt ati bringt die x700xt (mit 256mb ddr3) ebenfalls für ~200€. das würde mich zwar freuen, doch erscheint mir das ein wenig unrealistisch. insofern würde ich die xt nicht als direkten konkurrenten zur 6600gt sehen, da sie preislich wohl näher an der 6800 liegen wird. ich schätze, dass die x700 pro vom preis her eher dem 6600gt niveau entsprechen wird.


Deine Kristallkugel taugt nichts, die 6600GT wird mindestens 250 € kosten, die X700XT bestimmt auch. Du solltest ab und zu auch mal die www.3dcenter.de Seite besuchen, Voodoo Zauber und Kartenlesen erübrigen sich dann von alleine.

Holundermann
2004-09-22, 11:14:05
nana, bei geizhals wird die gt beim billigsten anbieter mit 208€ gelistet...

warten wir mal ab bis die karte/n verfügbar sind und dann können wir ja mit den glaubenskriegen weitermachen :) interessant find ich in oberen artikel das die x700 in den meisten benches gewinnt, jedoch in d3 (in den spielbaren auflösungen) und in hl (cs source) führt wiederum die 6600gt... komisch find ich auch das verschiedene seiten auf so unterschiedliche ergebnise kommen. für mich sind aber beide karten ca. gleichauf...

was für mich aber derzeit mehr für nv spricht:
+ sm3 unterstützung
+ agp ist angekündigt

Gast
2004-09-22, 11:44:24
nana, bei geizhals wird die gt beim billigsten anbieter mit 208€ gelistet...

warten wir mal ab bis die karte/n verfügbar sind und dann können wir ja mit den glaubenskriegen weitermachen :) interessant find ich in oberen artikel das die x700 in den meisten benches gewinnt, jedoch in d3 (in den spielbaren auflösungen) und in hl (cs source) führt wiederum die 6600gt... komisch find ich auch das verschiedene seiten auf so unterschiedliche ergebnise kommen. für mich sind aber beide karten ca. gleichauf...

was für mich aber derzeit mehr für nv spricht:
+ sm3 unterstützung
+ agp ist angekündigt

Was natürlich auch rein gar nix bringt!

Für mich spricht alles gegen nvidia!

Marodeur
2004-09-22, 11:46:33
Zumindest weiß ich jetzt, warum die x700-Familie nur als PCI Express-Variante erscheinen soll. Wenn man sich nämlich die Benchmarks bei Firingsquad genau anschaut, lohnt es sich nämlich eher eine Radeon 9800 Pro für 180-200 Euro zu kaufen, als die "vermurkste" x700xt mit abgespeckten Speicher-Interface. Gibt nämlich genügend Benchmarks wo selbst die Radeon 9800 Pro noch etwas schneller ist als die x700xt und das ist, wenn man das Alter der Grafikkarte bedenkt, eine riesige Enttäuschung.


Was ist daran enttäuschend? Die zukünftigen Midrange-Karten sind so schnell wie die alten HighEnd-Karten.
Meiner Meinung nach ist das zufriedenstellend.
Kommt jetzt blos drauf an wie teuer die X700XT dann wird, wenn sie weit über 200€ kostet schiest sie etwas übers Ziel hinaus. Mal schaun...

MikBach
2004-09-22, 12:20:08
welcher "guru" hat denn hier bitteschön behauptet, dass nvidia bei sämtlichen spielen optimieren würde? es wird vorrangig vom shader replacement bei doom3 geredet. und lieber 18 posts mit sinnvollem inhalt als x posts von deiner sorte.
Lies den Thread nochmal.
Wer hat denn behauptet, dass Nvidia auf ALLE Spiele optimiert?
Das ist eben nicht der Fall. Nvidia optimiert auf Mainstreamspiele, besonders auf die, welche oft bei Reviews als Benchmark eingesetzt werden.
Würde Nvidia allgemein optimieren, wäre das natürlich super und unsere Diskussion sinnlos.

nachtrag: ich persönlich finde die sache mit dem shader replacement nicht so tragisch. ich sags mal so: wichtig ist was hinten raus kommt ;) wie das erreicht wird ist mir egal, so lange die bildqualität nicht darunter leidet.
Diese Meinung vertrete ich auch.
Allerdings sollten diese Shaderreplacements nicht von Hand in die Treiber programmiert werden, sondern vom Compiler automatisch durchgeführt werden.

für mich liegt nv derzeit auch mehr oder weniger klar vorne. performance mässig nehmen sich die beiden kanditaten nicht viel,
Hä? Irgendiwe widersprichst du dir selbst.

Gast
2004-09-22, 12:23:03
nana, bei geizhals wird die gt beim billigsten anbieter mit 208€ gelistet...


Ist schon wirklich drollig, wenn scheinbar Unwissende mit Geizhallinks um sich werfen, wo die Produktion des nv43 noch gar nicht angelaufen ist. :lol:

Gastriker
2004-09-22, 12:55:02
Warum wird dem X700 die Existenzberechtigung abgesprochen? Nur weil er etwa die Performance der 9800pro erreicht? Kann ATi was dafür dass der NV3x so scheisse war, dass sich jetzt alle über die Performance der 6600GT freuen?

Holundermann
2004-09-22, 13:13:04
Hä? Irgendiwe widersprichst du dir selbst.

ich widersprech mich keineswegs in dem absatz, lern du mal ordentlich zu zitieren und reiss nicht irgendwas ausm zusammenhang...

Was natürlich auch rein gar nix bringt!

Für mich spricht alles gegen nvidia!

na fein, gut mit argumenten untermauert... bringt natürlich rein gar nix wenn ein spiel sm 3 unterstützt, bringt natürlich rein gar nix wenn ich kein pci-e mobo hab und ich mir ne neue graka kaufen will und der eine anbieter zur gleichen P/L ne AGP karte anbietet... die hälfte der poster sollte in die politik gehn bei der polemik (oder nochmal in kindergarten).

[QOUTE]Ist schon wirklich drollig, wenn scheinbar Unwissende mit Geizhallinks um sich werfen, wo die Produktion des nv43 noch gar nicht angelaufen ist.[QUOTE]

naja, wer weiss die preise besser? du oder geizhals? ist halt das einzig greifbare in der preisfrage...

...ein unwissender

HOT
2004-09-22, 13:19:26
Laut ATi sind es nun offiziell 120M für den RV410.

Das hört sich schon besser an. Hätte mich auch gewundert ;)

Tjell
2004-09-22, 13:40:39
Die X700-Serie scheint bei ATI die 9800-Serie garnicht ersetzen zu müssen, da die sich beide wohl unterm Strich nicht viel nehmen.

Es läßt sich konstatieren, daß die 6600-Serie für nVidia ein wichtiger Schritt war, um die alte NV3x-Generation zu überflügeln und sowohl im PCI-E als auch im AGP-Segment zu beerben, wohingegen ATI mit den 9800er bei AGP und mit den X700ern bei PCI-E bestens positioniert ist.

Die leistungsmäßige Konkurrenzsituation sieht demnach so aus, daß die X800er den 6800er gegenüberstehen (AGP und PCI-E) und die X700er sind die Gegenstücke zu den 6600ern, wobei jeweils ein etwa gleiches Leistungspotential vorhanden ist.

Die nächste Runde kann man jetzt schon ankündigen/einläuten: Den Mainstream-Bereich, auch Low-Budget genannt, mit den Nachfolgen der FX5200 bzw. der 9200er/9600 LE. Man darf gespannt sein, schließlich ist das der Hauptabsatzmarkt der beiden Chipproduzenten.
ATI sieht mit Ihren derzeitigen Planungen, die X700er nur als PCI-E anzubieten, die Marktlage so einzuschätzen, daß der AGP-Markt mit den 9800er hinreichend abgedeckt ist.

Gast
2004-09-22, 14:20:12
PS mit 18 Posts würde ich erstmal die Füsse stillhalten. ;)

ach jetzt darf man in Deutschland seine meinung erst vertreten wenn man
800 Posts hat ??


soso..

naja ich sehe nur das was hier und da geschrieben wird...
selbst gleiche benches auf gleichen systemen .. und jedes mal sind die ergebnisse anders..


im endeffekt kommt das selbe bei raus..
man hat eine GRAKA die ganz schön schnell ist

möchte man sich jetzt deswegen bei den herstellern beschweren??
ich glaube nicht!!

manche hier im forum haben die selbe karte und teils extrem unterschiedliche benches...


von daher darf man jetzt nicht sagen das es die GRAKA allein ist

Gast
2004-09-22, 14:38:31
also hier mal vom CB Forum kopiert ein paar Fazits einiger Tests von gestern ins Deutsche übersetzt:

Clubic
http://www.clubic.com/ar/16500-1.html (sie tauften das ATI Control Center um in das ATI Katastrophen Center)
"Enttäuschend: Dieses Wort beschreibt die X700, die ATI heute vorstellte, am besten.... Mit diesem Test scheint klar, dass ATI von der GeForce GT von NVIDIA kalt erwischt wurde. ATI verleiht der X700 eine schmerzvolle Geburt, kaum überzeugend.... Sicherlich, insbesondere die Treiber scheinen eine Katastrophe zu sein, was ATI aber auch nicht weiter in der Angelegenheit hilft... Dem allen nicht genug, muss ATI sich noch zwei weiteren Problemen stellen die weitaus schlimmer sind: die Lautstärke des Grafikkartenlüfters, welche viel zu hoch ist, sowie das seltsame Verhalten unter PCI Express... Alles zusammen genommen fehlt es der X700 an Reife und gegenüber der GeForce 6600 GT ist sie ein armseliger Konkurrent."

Hardware
http://www.hardware.fr/articles/517/page1.html
"Die Radeon X700 XT bietet nichts um das sie eine Radeon 9800 Pro bewundern könnte, trotz eines 128 bit Busses! ...Wir bedauern die Unausgereiftheit der allerneusten Catalyst Treiber: Wir haben das Gefühl bekommen, dass ATI nur schnell noch einen Paper-Launch unter dem Druck von NVIDIA hingelegt hat... Trotz einiger Veränderungen in letzter Minute von ATI am Takt der Radeon X700 XT ist dieses Produkt gesamt gesehen nicht schneller als eine GeForce 6600 GT."

Presence-pc
http://www.presence-pc.com/news/Gam...test-n5096.html
Ein neutraler Test der darauf hinweist, dass die Unterschiede in der Performance hauptsächlich softwareseitiger Natur sind, teilweise für ATI und teilweise für NVIDIA.
"Und wieder hat ein Bug in dem Treiber oder in der Testsoftware zu geringen Füllraten geführt... Durch eine kraftvollen T&L Engine, können wir sagen, dass NVIDIA einen klaren Vorteil in diesem Gebiet hat"...

Toms Hardware
http://graphics.tomshardware.com/gr...0921/index.html
Unser Test der X700 wurde begleitet von einer Serie von Problemen. Wie schon mehrmals in früheren Fällen passiert, erhielten wir das Testmodell erst sehr spät. Unser Test wurde außerdem kompliziert durch die Tatsache, dass ATI einen Fehler in dem Catalyst Control Center (CCC) übersehen hatte, welcher dazu führte, dass alle Tests die mit erzwungener anisotropischer Filterung laufen sollten, nur mit bilinearer Filterung liefen. Der Ausgang von alledem war, dass alle unserer Testergebnisse viel zu hoch ausfielen.
Glücklicherweise hatten wir uns nicht dazu entschieden, dass neue CCC Treibermenü mit MS .NET auf unserem Testsystem zu installieren, wir wählten stattdessen das klassische Einstellungsmenü welches weiterhin noch verfügbar ist.

HardwareUpgrade
http://www.hwupgrade.it/articoli/1084/15.html
Um es zusammenzufassen, wir sind davon überzeugt, dass NVIDIA in allen Punkten ein überzeugenderes Produkt entworfen hat als ATI mit ihrem Gegenstück (X700XT). Deshalb geht das Rennen zwischen der Radeon X700XT und der GeForce 6600GT so aus, dass letztere der klare Sieger ist.

Hinzu kämen dann noch:
Anandtech, Tech-Report, HardoCP, Sudhian und Hexus.net.
Alle sagen das gleiche.
Die X700XT ist gut aber alles in allem unter Einbeziehung von:
Performance
Features
Stabilität bzw. einwandfreie Testläufe
und Preis nicht gut genug für die GF6600GT.
Letztere ist fürs Geld die bessere Wahl.

Ich denke man kann festhalten, dass ATI durch die 6600 und 6600GT sehr unter Zugzwang geraten ist. Deshalb ein viel zu voreiliger Launch. Die Treiber sind eine Katastrope und die Karten schweine heiss und laut - Engineering Sample ahoi. Klassischer Paperlaunch.
Nur damit nicht genug. Nichtmal das reicht um die GF6600GT zu schlagen und die sah bei weitem ausgereifter aus beim Launch.
Die R3xx Erfole und Ära kann man damit getrost vorerst zu den Akten legen. Mit der neuen Generation hat sich der Wind eindeutig gedreht zu ungunsten von ATI.

Gast
2004-09-22, 16:24:38
also hier mal vom CB Forum kopiert ein paar Fazits einiger Tests von gestern ins Deutsche übersetzt:

Clubic
http://www.clubic.com/ar/16500-1.html (sie tauften das ATI Control Center um in das ATI Katastrophen Center)
"Enttäuschend: Dieses Wort beschreibt die X700, die ATI heute vorstellte, am besten.... Mit diesem Test scheint klar, dass ATI von der GeForce GT von NVIDIA kalt erwischt wurde. ATI verleiht der X700 eine schmerzvolle Geburt, kaum überzeugend.... Sicherlich, insbesondere die Treiber scheinen eine Katastrophe zu sein, was ATI aber auch nicht weiter in der Angelegenheit hilft... Dem allen nicht genug, muss ATI sich noch zwei weiteren Problemen stellen die weitaus schlimmer sind: die Lautstärke des Grafikkartenlüfters, welche viel zu hoch ist, sowie das seltsame Verhalten unter PCI Express... Alles zusammen genommen fehlt es der X700 an Reife und gegenüber der GeForce 6600 GT ist sie ein armseliger Konkurrent."

Hardware
http://www.hardware.fr/articles/517/page1.html
"Die Radeon X700 XT bietet nichts um das sie eine Radeon 9800 Pro bewundern könnte, trotz eines 128 bit Busses! ...Wir bedauern die Unausgereiftheit der allerneusten Catalyst Treiber: Wir haben das Gefühl bekommen, dass ATI nur schnell noch einen Paper-Launch unter dem Druck von NVIDIA hingelegt hat... Trotz einiger Veränderungen in letzter Minute von ATI am Takt der Radeon X700 XT ist dieses Produkt gesamt gesehen nicht schneller als eine GeForce 6600 GT."

Presence-pc
http://www.presence-pc.com/news/Gam...test-n5096.html
Ein neutraler Test der darauf hinweist, dass die Unterschiede in der Performance hauptsächlich softwareseitiger Natur sind, teilweise für ATI und teilweise für NVIDIA.
"Und wieder hat ein Bug in dem Treiber oder in der Testsoftware zu geringen Füllraten geführt... Durch eine kraftvollen T&L Engine, können wir sagen, dass NVIDIA einen klaren Vorteil in diesem Gebiet hat"...

Toms Hardware
http://graphics.tomshardware.com/gr...0921/index.html
Unser Test der X700 wurde begleitet von einer Serie von Problemen. Wie schon mehrmals in früheren Fällen passiert, erhielten wir das Testmodell erst sehr spät. Unser Test wurde außerdem kompliziert durch die Tatsache, dass ATI einen Fehler in dem Catalyst Control Center (CCC) übersehen hatte, welcher dazu führte, dass alle Tests die mit erzwungener anisotropischer Filterung laufen sollten, nur mit bilinearer Filterung liefen. Der Ausgang von alledem war, dass alle unserer Testergebnisse viel zu hoch ausfielen.
Glücklicherweise hatten wir uns nicht dazu entschieden, dass neue CCC Treibermenü mit MS .NET auf unserem Testsystem zu installieren, wir wählten stattdessen das klassische Einstellungsmenü welches weiterhin noch verfügbar ist.

HardwareUpgrade
http://www.hwupgrade.it/articoli/1084/15.html
Um es zusammenzufassen, wir sind davon überzeugt, dass NVIDIA in allen Punkten ein überzeugenderes Produkt entworfen hat als ATI mit ihrem Gegenstück (X700XT). Deshalb geht das Rennen zwischen der Radeon X700XT und der GeForce 6600GT so aus, dass letztere der klare Sieger ist.

Hinzu kämen dann noch:
Anandtech, Tech-Report, HardoCP, Sudhian und Hexus.net.
Alle sagen das gleiche.
Die X700XT ist gut aber alles in allem unter Einbeziehung von:
Performance
Features
Stabilität bzw. einwandfreie Testläufe
und Preis nicht gut genug für die GF6600GT.
Letztere ist fürs Geld die bessere Wahl.

Ich denke man kann festhalten, dass ATI durch die 6600 und 6600GT sehr unter Zugzwang geraten ist. Deshalb ein viel zu voreiliger Launch. Die Treiber sind eine Katastrope und die Karten schweine heiss und laut - Engineering Sample ahoi. Klassischer Paperlaunch.
Nur damit nicht genug. Nichtmal das reicht um die GF6600GT zu schlagen und die sah bei weitem ausgereifter aus beim Launch.
Die R3xx Erfole und Ära kann man damit getrost vorerst zu den Akten legen. Mit der neuen Generation hat sich der Wind eindeutig gedreht zu ungunsten von ATI.


Naja, ich kann dir genauso viele Testberichte nennen in der ATI der klare Sieger ist.

Weiterhin kann ich mich noch an den Launch von NV40 erinnern, Katastrophe war das!!!!!

MikBach
2004-09-22, 16:46:27
Wieso bestimmt ihr die Verfügbarkeit einer Karte über Geizhals? Alle Händler listen neue Produkte, sobald sie vorgestelt werden. Mich interessieren die grünen und roten Lämpchen (aka "auf Lager" und "in 3 Tagen wieder da") überhaupt nicht. Ruft mal beim Händler an und versucht die Karte zu kaufen. Da hört man dann andere Sprüche. Das die alle auf ihre Webseite schreiben
"ja ham wir und ganz billig" ist doch ne blöde Masche, aber daraus kann man doch keine generelle Verfügbarkeit ableiten.
Full Ack.
Besonders Mindfacktory scheint ja in letzter Zeit sehr seriös zu sein. :rolleyes:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=170655
Kunden mit Billigpreisen ködern, bei Produkten, die man eh nicht liefern kann.
Hauptsache der Kunde kennt die Site dann... ;)

Mumins
2004-09-22, 17:07:53
Die 6800LE konnte bei MF tatsächlich zu dem Preis von 159€ kurze Zeit vorbestellt werden.
http://www.computerbase.de/forum/showthread.php?t=90438

Gast
2004-09-22, 17:21:33
Naja, ich kann dir genauso viele Testberichte nennen in der ATI der klare Sieger ist.


Na dann fang mal an ich bin gespannt.


Weiterhin kann ich mich noch an den Launch von NV40 erinnern, Katastrophe war das!!!!!

Auf das armselige Niveau begebe ich mich gar nicht erst.
Mir ist es total wurscht wer von beiden vorne ist. Ich hab nichts davon ob das nun Nvidia oder ATI ist. Ich bin nur mir selbst treu und möchte die bestmögliche Leistung am Markt für mein Geld. Momentan bekomm ich die nur bei Nvidia.
Die letzten 1 1/2 Jahre war es bei ATI.

Ob Du das nun einsehen willst oder nicht ist mir vollkommen egal. Ist ja dein Geld sofern du überhaupt was kaufst und hier nicht nur zum rumtrollen vorbeikommst. Die Reviews sprechen ja Bände in diesem Fall.
Eigentlich schade. Ich hatte gehofft, dass Nvidia nochmal nachlegen muss. Dann wärs ein billiger NV43 Ultra oder NV41 bei mir geworden. Aber so... Bei dem mäßigen Auftritt von ATI kann Nvidia es ruhig angehen lassen. Die derzeit gebotene Performance von ATI reicht ja schon aus, dass Nvidia wieder Kunden zurückholen wird.
Wie gesagt gemessen an der 9800pro bzw. XT war auch ATIs Auftritt sehr gut - wenn man die Instabilitäten und Bildfehler mal ausser Betracht lässt - nur dafür gibts eben keinen Blumentopf. Da fällt die Konkurenz auch mit rein in die Bewertung und die ist einfach besser derzeit.

Mumins
2004-09-22, 17:26:30
möchte die bestmögliche Leistung am Markt für mein Geld. Momentan bekomm ich die nur bei Nvidia.

Du pauschalisierst, die schnellste Karte ist die X800XT und somit von ATI.

MikBach
2004-09-22, 17:45:36
Die 6800LE konnte bei MF tatsächlich zu dem Preis von 159€ kurze Zeit vorbestellt werden.
http://www.computerbase.de/forum/showthread.php?t=90438
Wie du schon sagst, kurze Zeit. Weil man Kunden ködern wollte. Bin mal gespannt, ob die bestellten Karten wirklich zu diesem Preis ausgeliefert werden oder Mindfactory sich eine nette Ausrede einfallen lässt. ;)

BTW der Test von Benchmark.pl ist Tonne. ;)
Die Benchmarkwahl ist ja echt der Hammer. Eine FX ist schneller als eine 9800PRO. ;D
Die schreiben auch noch bei der Produktbewertung:
Normal: 4 Sterne - gutes Produkt.
Falls man 4 zusätzliche Pipelines freschalten kann: 5 Sterne - Super Produkt
Dabei schreiben sie bei dem Artikel "Proba odblokowania 6800LE", dass das Freischalten der Pipes nicht funktioniert hat.
Schade nur, dass sie das beim Test zur X800PRO nicht hinschreiben, dass man eine VIVO zur XT machen kann. ;)
Sehr seltsam...
:nono:

Mumins
2004-09-22, 17:54:32
Eine FX ist schneller als eine 9800PRO
In einigen Fällen schon.

Das MF die Karten so billig anbietet kannst du ihnen nicht zum Vorwurf machen, das ist gängige Praxis.

MikBach
2004-09-22, 18:03:11
Momentan bekomm ich die nur bei Nvidia.
Wenn es um die 6600GT und X700 geht bekommst du momentan weder bei ATI noch bei Nvidia mehr, weil es diese Karten noch nicht gibt. ;D

Die derzeit gebotene Performance von ATI reicht ja schon aus, dass Nvidia wieder Kunden zurückholen wird.
Du redest immer so pauschalisierend. Meinst du jetzt die 6600/X700? Oder was meinst du?

Wie gesagt gemessen an der 9800pro bzw. XT war auch ATIs Auftritt sehr gut - wenn man die Instabilitäten und Bildfehler mal ausser Betracht lässt - nur dafür gibts eben keinen Blumentopf.
Ich besitze eine 9800PRO und werde weder von Bildfehlern noch Instabilitäten geplagt. Ausserdem kenne ich persönlich sehr viele, die eine 9800PRO besitzen, die haben auch keine Probleme.

Da fällt die Konkurenz auch mit rein in die Bewertung und die ist einfach besser derzeit.
Hä? Was willst du damit sagen?

MikBach
2004-09-22, 18:08:47
In einigen Fällen schon.
Klar gibt es ein paar Fälle, wo die FX schneller als die 9800 ist, nur sind das die Ausnahmen. Und Benchmark.pl nimmt eben diese Ausnahmebenchmarks um die Karten zu vergleichen.
Dass Nvidia beim 3dmurks2003 die Shader per Hand austauscht ist ja mitlerweile bekannt. ;)
Bei Doom3 auch. ;)
Sehr seltsam...

Das MF die Karten so billig anbietet kannst du ihnen nicht zum Vorwurf machen, das ist gängige Praxis.
Ich mache ihnen nicht zum Vorwurf, dass sie die Karten so billig anbieten, sondern dass es nur so kurz ist, deswegen auch Kundenfang. ;)
Oder warum bieten sie die Karten nicht mehr so billig an? ;)

Mumins
2004-09-22, 18:11:24
Wie gesagt gemessen an der 9800pro bzw. XT war auch ATIs Auftritt sehr gut - wenn man die Instabilitäten und Bildfehler mal ausser Betracht lässt - nur dafür gibts eben keinen Blumentopf.

Ich hatte die Karte auch 9 Monate lang und Null Probleme damit. Es lief alles fehlerfrei und stabil.

Ich mache ihnen nicht zum Vorwurf, dass sie die Karten so billig anbieten, sondern dass es nur so kurz ist, deswegen auch Kundenfang.

Da MF ansonsten kein Wucherladen ist geht das schon ok. Wäre der Laden unseriös und ansonsten sehr teuer wäre es was anderes.

Was reiteste immer auf den polnischen Benches herum, die sind doch sowieso fürn A.....

Gast
2004-09-22, 18:39:39
Du pauschalisierst, die schnellste Karte ist die X800XT und somit von ATI.
Du meinst eher die XT-PE die nicht verfügbar ist.
Die erfüllt schonmal gar nicht mein Anforderungsprofil. ATI erfüllt es deshalb nicht, weil sie mir verweigern Ihre Filtercheats abzustellen und weil sie vor allem SM3 aussen vor lassen. Sowas akzeptiere ich nicht, denn mir als Kundem nutzt das nix. Das nutzt nur ATI etwas, indem sie sich Geld sparen.
Sowas unterstütze ich aber nicht.

Abgeshen davon könntest bei der nicht verfügbaren XT-PE genauso das "noch" nicht verfügbare SLI von Nvidia einbeziehen. Dann erübrigt sich die Frage nach dem schnellsten Produkt sowieso.

Gast
2004-09-22, 18:46:16
Wenn es um die 6600GT und X700 geht bekommst du momentan weder bei ATI noch bei Nvidia mehr, weil es diese Karten noch nicht gibt. ;D

Ich will mich ja nicht auf den Tag streiten aber während bei ATI die X700 noch Vorserienstatus hat, beginnt Nvidia mit der Auslieferung, wie man anhand der News auf nvnews.net sehen kann. Sparkle ist dort bereits gelistet. In den nächsten 2 Wochen trudeln die Teile ein. Bei ATI dürfte es noch dauern. Wem das zu lange ist, der kann ja auf die 6800LE ausweichen.

[qupte]
Du redest immer so pauschalisierend. Meinst du jetzt die 6600/X700? Oder was meinst du?
[/quote]
Wir reden hier in erster Linie über die X700XT vs GF6600GT. Wir können das Feld aber gern erweitern, denn neben diesen gibt es ja noch die 6800LE, 6800nonUltra und 6800GT. Alle allein auf weiter Flur. Einzig 6800U vs XT-PE ist eng aber letztere ist ja so gut wie nirgends verfügbar und ohnehin ist dieses Segment viel zu klein.


Ich besitze eine 9800PRO und werde weder von Bildfehlern noch Instabilitäten geplagt. Ausserdem kenne ich persönlich sehr viele, die eine 9800PRO besitzen, die haben auch keine Probleme.

Wir reden hier vom Paperlaunch X700 und XT. Die Karten haben argen Beta Status wie man den Reviews entnehmen kann. Deswegen schrieb ich, dass der Auftritt gemessen an der 9800XT - wenn man die Probleme der X700 Reihe momentan aussen vor lässt - in Ordnung geht. Verglichen mit der Konurenz in diesem Preissegment ist der Auftritt aber nicht ausreichend.

Mumins
2004-09-22, 18:47:55
weil sie mir verweigern Ihre Filtercheats abzustellen
Ab Cat. 4.10 sind die Filtercheats deaktivierbar.
Die MSI X800XT PE war heute bei Fun-Computer verfügbar, aber natürlich schnell vergriffen. Bei MF gab es 600 Karten auf 1100 Vorbestellungen. Die X800XT war auch verfügbar, bleibt immer noch die X800Pro VIVO, die reißenden Absatz findet. Eine 6800 Ultra ist ebenso schwierig zu bekommen. Also kann man das nicht so pauschal sagen. Natürlich hat Nvidia den Pluspunkt des SM3.0, aber für ATI gibts auch noch SM2.0b und mit Patch 1.3 3DC in FarCry.

MikBach
2004-09-22, 18:48:39
Was reiteste immer auf den polnischen Benches herum, die sind doch sowieso fürn A.....
Weil ich Benchmark.pl früher, so vor 5 Jahren, mal ganz gut fand. Aber jetzt ist das Niveau mächtig gesunken.

Du meinst eher die XT-PE die nicht verfügbar ist.
Nein, er hat doch X800XT geschrieben und die meint er auch. ;)

ATI erfüllt es deshalb nicht, weil sie mir verweigern Ihre Filtercheats abzustellen
Lol?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=171182
Blind?

und weil sie vor allem SM3 aussen vor lassen. Sowas akzeptiere ich nicht, denn mir als Kundem nutzt das nix.
Richtig dir als Endkunden nutzt SM3 momentan sowieso nicht, oder bist du Entwickler von Spielen?

aths
2004-09-22, 18:59:53
Ab Cat. 4.10 sind die Filtercheats deaktivierbar.Warten wir das erst mal ab. So wie ich ATI interpretiere gibts mit 4.10 neue "Optimierungen", die aber auch abschaltbar sind.

MikBach
2004-09-22, 19:23:54
Wir können das Feld aber gern erweitern, denn neben diesen gibt es ja noch die 6800LE, 6800nonUltra und 6800GT. Alle allein auf weiter Flur. Einzig 6800U vs XT-PE ist eng aber letztere ist ja so gut wie nirgends verfügbar und ohnehin ist dieses Segment viel zu klein.
Konkurrent zur 6800LE ist die 9800PRO.
Konkurrent zur 6800GT ist die X800PRO.
Konkurrent zur 6800NU ist die 9800XT.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2269181&postcount=202
Wenn du bei der 6800 ca 30% abziehst, kommst du auf die 6800LE. ;)

seahawk
2004-09-22, 19:42:55
Ab Cat. 4.10 sind die Filtercheats deaktivierbar.
Die MSI X800XT PE war heute bei Fun-Computer verfügbar, aber natürlich schnell vergriffen. Bei MF gab es 600 Karten auf 1100 Vorbestellungen. Die X800XT war auch verfügbar, bleibt immer noch die X800Pro VIVO, die reißenden Absatz findet. Eine 6800 Ultra ist ebenso schwierig zu bekommen. Also kann man das nicht so pauschal sagen. Natürlich hat Nvidia den Pluspunkt des SM3.0, aber für ATI gibts auch noch SM2.0b und mit Patch 1.3 3DC in FarCry.

SM2.0b ist im Vergleich zu 2.0a schon limitiert und im Vergleich zu 3.0 noch mehr. Und wer eine Karte nur im Hinblick auf einen kommenden Patch eines einzigen Spiels hinkauft spinnt.

Im Endeffekt ist es Geschmackssache ob man eine 6800 Ultra oder ne X800XT nimmt.

Gast
2004-09-22, 19:50:06
Hab jetzt nach stundenlanger Recherche folgende Artikel durchgearbeitet

- 3DCenter
- TechReport
- FiringSquad
- Anandtech
- Xbitlabs

Wie erklärt ihr euch die teils erheblichen Diskrepanzen in den Resultaten hinsichtlich X700(XT) vs 6600(GT)

von homogenen Ergebnissen kann jedenfalls keine Rede sein so sieht hardtecs laut Aussage von 3DCenter die X700 in den meisten Situationen vorne während Xbit eher gegenteiliges attestiert.

Demirug
2004-09-22, 19:53:48
SM2.0b ist im Vergleich zu 2.0a schon limitiert und im Vergleich zu 3.0 noch mehr. Und wer eine Karte nur im Hinblick auf einen kommenden Patch eines einzigen Spiels hinkauft spinnt.

Im Endeffekt ist es Geschmackssache ob man eine 6800 Ultra oder ne X800XT nimmt.

Mit "Pacific Fighters" ist ja schon ein Spiel das auf SM3 Karten sogar einen optischen Mehrwert bieten angekündigt.

StefanV
2004-09-22, 19:54:42
Und wann kommts??

Ende 2006??

Demirug
2004-09-22, 19:57:48
Und wann kommts??

Ende 2006??

offiizieler Termin (von UBI und Maddox) ist derzeit Herbst 2004.

Black-Scorpion
2004-09-22, 19:58:52
Abgeshen davon könntest bei der nicht verfügbaren XT-PE genauso das "noch" nicht verfügbare SLI von Nvidia einbeziehen. Dann erübrigt sich die Frage nach dem schnellsten Produkt sowieso.
Der Vergleich ist aber nicht dein ernst, oder doch?
Die XT-PE kann ich kaufen (wenn es sie gibt) und einbauen.
Was brauch ich nochmal alles um SLI zu nutzen?
Richtig sind ja nur 2 Karten.
Ups, da hätte ich ja fast noch das neue Board vergessen was man auch noch braucht.

Demirug
2004-09-22, 20:08:16
Für alle die es immer noch nicht mitbekommen haben:

Wird bei den 4.10 Betatreibern das AF über das CCC eingestellt bekommt man lediglich BI-AF auf allen Stages

kann ich aus eigener Erfahrung bestätigen

EDIT: Das gilt allerdings nur für DX. Bei OpenGL funktioniert das umschalten zwischen CCC und App Mode nicht immer richtig.

deekey777
2004-09-22, 20:12:14
Für alle die es immer noch nicht mitbekommen haben:

Wird bei den 4.10 Betatreibern das AF über das CCC eingestellt bekommt man lediglich BI-AF auf allen Stages

kann ich aus eigener Erfahrung bestätigen


Was über die Qualität der gesamten Präsentation der X700 weiter als nicht ganz gelungen untermaeuert: Betatreiber, Treiberprobleme, verbogene Grafikkarten, kaum Zeit zum Testen. ATi hätte sich bei der X700 etwas mehr Zeit lassen.

PS: Das Problem wurde schon bei THG und PC_GH besprochen. :kopfschüttel:

Xmas
2004-09-22, 20:32:30
Die Reviews zeigen bisher alle wunderbar, dass es keinen eindeutigen Sieger zwischen 6600GT und X700XT gibt und sich jeder nach der Performance in seinen Lieblingsspielen oder eben nach Markenpräferenz entscheiden kann, und in keinem Fall falsch liegen wird. Das ist doch IMO ein echter Grund zur Freude ;)

seahawk
2004-09-22, 20:32:54
Mit "Pacific Fighters" ist ja schon ein Spiel das auf SM3 Karten sogar einen optischen Mehrwert bieten angekündigt.

Ich sage ja Geschmackssache. Entweder man hat jetzt in eingien Games mehr Speed, oder man hat später in eingien Games mehr Speed.

Wenn man die kArte länger nutzen will, dann würde ich auch zu NV raten. Weshalb ich mir wohl selber eine NV45 anschaffen werden, da ich meine Karten immer so 2 Jahre im privaten Rechner habe. (jetzt noch ne 9700pro und die muss bis Februar halten)

-error-
2004-09-22, 21:23:44
So, lonht es sich eine X700XT zu kaufen, wenn ich die 9800Pro für 180€ bei Ebay verticken kann? FullRetail, R360, Karton, mit Silencer, Garantie und einer Übertaktung auf 432/370.

Auch wenn es es nicht viel bringt, so hat sich es bewährt, auslaufende Hardware rechtzeitig zu verkaufen und dafür sich neue zu holen.

Ich denke die X700XT ist nicht so schlecht, sie ist schneller als eine 9800Pro und verbraucht weniger, heizt nicht so das System auf, OC sollte auch noch drin sein.

Ich hätte aber auch nichts gegen eine 6600GT, wann kann man mit den AGP-Versionen der beiden Karten mit 256MB rechnen?

Es ist davon auszugehen, dass ATI auch eine AGP-Version der X700XT rausbringt, daran habe ich keine Zweifel, es ist nur leider eine Frage der Zeit.

deekey777
2004-09-22, 21:53:12
Die Reviews zeigen bisher alle wunderbar, dass es keinen eindeutigen Sieger zwischen 6600GT und X700XT gibt und sich jeder nach der Performance in seinen Lieblingsspielen oder eben nach Markenpräferenz entscheiden kann, und in keinem Fall falsch liegen wird. Das ist doch IMO ein echter Grund zur Freude ;)


Bisher haben sich nur wenige getraut, das zu sagen.

Nur bei Far Cry gibt es einen Grund zu meckern. ;D

aths
2004-09-22, 22:33:52
Warten wir das erst mal ab. So wie ich ATI interpretiere gibts mit 4.10 neue "Optimierungen", die aber auch abschaltbar sind.ATI uns gesagt damit würden alle diese abgeschaltet. Man bekäme also in jedem Fall volles tri usw. Die TS-"Optimierung" würde in jedem Fall ganz wegfallen. Noch ist unklar, was mit der Sample-"Optimierung" beim AF ist.

arcanum
2004-09-23, 00:41:39
Deine Kristallkugel taugt nichts, die 6600GT wird mindestens 250 € kosten, die X700XT bestimmt auch. Du solltest ab und zu auch mal die www.3dcenter.de Seite besuchen, Voodoo Zauber und Kartenlesen erübrigen sich dann von alleine.

ich kaufe meine karten meistens bei händlern sie wie z.b. bei www.geizhals.at/de gelistet sind. ich habe bisher noch nicht versucht bei 3dcenter eine karte zu bestellen. wenn du heraus findest wie das funktioniert,kannst du mir ja ne pm schicken. allerdings würde ich bei 3dcenter trotzdem nix kaufen, weil mir die preise eindeutig zu hoch sind.

noch ein kleiner nachtrag für den lieben gast: [/ironie]

wie kommst du überhaupt auf so einen wahnwitzigen preis für eine midrange karte mit 128mb. mit der 6800 hätte man eine deutlich leistungsfähigere karte, die bereits ab 264€ verfügbar ist:

http://www.geizhals.at/deutschland/a116785.html

wenigstens kann ich meine behauptung unterlegen im gegensatz zu deinem geschwätz. mir ging es nur darum, ob ati mit der x700xt beim preis mit der 6600gt gleichziehen kann (oder will). wenn die x700xt tatsächlich ~250€ kosten sollte, so wäre in meinen augen die 6800 der direkte konkurrent, vor allem, da sich bis zum erscheinen der x700xt wohl preislich noch einiges tun wird.

Gast
2004-09-23, 07:13:00
ich kaufe meine karten meistens bei händlern sie wie z.b. bei www.geizhals.at/de gelistet sind. ich habe bisher noch nicht versucht bei 3dcenter eine karte zu bestellen. wenn du heraus findest wie das funktioniert,kannst du mir ja ne pm schicken. allerdings würde ich bei 3dcenter trotzdem nix kaufen, weil mir die preise eindeutig zu hoch sind.

noch ein kleiner nachtrag für den lieben gast: [/ironie]

wie kommst du überhaupt auf so einen wahnwitzigen preis für eine midrange karte mit 128mb. mit der 6800 hätte man eine deutlich leistungsfähigere karte, die bereits ab 264€ verfügbar ist:

http://www.geizhals.at/deutschland/a116785.html

wenigstens kann ich meine behauptung unterlegen im gegensatz zu deinem geschwätz. mir ging es nur darum, ob ati mit der x700xt beim preis mit der 6600gt gleichziehen kann (oder will). wenn die x700xt tatsächlich ~250€ kosten sollte, so wäre in meinen augen die 6800 der direkte konkurrent, vor allem, da sich bis zum erscheinen der x700xt wohl preislich noch einiges tun wird.


Gib mir den Händler an, bei dem ich heute, den 23.09.2004 eine 6600GT kaufen kann, und zwar für unglaublich günstige 208 Euro.

Radeonator
2004-09-23, 08:06:17
Gib mir den Händler an, bei dem ich heute, den 23.09.2004 eine 6600GT kaufen kann, und zwar für unglaublich günstige 208 Euro.

Welcher Händler hat den heute für unglaubliche günstige 208Euronen eine x700 AUF LAGER UND LIEFERBAR?

Im selben Preissegment befindet sich btw auch die 6800LE, welche lieferbar ist...nur mal so :rolleyes:

Gast
2004-09-23, 08:18:48
Welcher Händler hat den heute für unglaubliche günstige 208Euronen eine x700 AUF LAGER UND LIEFERBAR?

Im selben Preissegment befindet sich btw auch die 6800LE, welche lieferbar ist...nur mal so :rolleyes:

Hä? Ich will keine Ati, ich will die nv Karte. Und dann lieber die 6800 Vanilla, wenn die 6600GT tatsächlich nicht vor Novembar erhältlich ist.

Solltest du die Diskussion nicht befolgt haben, geht es um die schwachsinnige Behauptung, ich könnte jetzt eine 6600GT kaufen, nur weil bei geizhals irgendjemand ankündigt, sie überhaupt verkaufen zu wollen.

Holundermann
2004-09-23, 08:52:27
ich glaube nicht das irgendjemand hier behauptet hat das er jetzt eine 6600 gt kaufen kann, nur das sie bereits bei den händlern gelistet sind und das, beim billigsten anbieter, für 208€. die x700 ist noch nicht gelistet, und ich kann dir versprechen das die 6600gt min. 2 wochen vor der x700 lieferbar sein wird...

Gast
2004-09-23, 11:40:01
ich glaube nicht das irgendjemand hier behauptet hat das er jetzt eine 6600 gt kaufen kann, nur das sie bereits bei den händlern gelistet sind und das, beim billigsten anbieter, für 208€. die x700 ist noch nicht gelistet, und ich kann dir versprechen das die 6600gt min. 2 wochen vor der x700 lieferbar sein wird...

Oh Holundermann,

VERSPRECHEN das nvidia liefern kann, jaklar werden sie hompatische Stückzahlen liefern, 100 Stück???*g*

Hallus??????

Holundermann
2004-09-23, 11:53:48
was ist den hompatisch?

aufjedenfall wird nv in nennenswerten stückzahlen noch vor ati liefern, wenn dus nicht glaubst ist mir das auch egal... die zukunft wird mir rechtgeben... auch wenn ich mich jetzt weit ausm fenster lehn, den wer kann schon sagen was die zukunft bringt.

aber die x700 scheint im jetzigen paperlaunch in nem absoluten beta stadium zu sein, im gegensatz zur 6600er reihe, die, wie ich glaube, in den nächsten wochen bei den händlern zu preisen um die 230€ (+-30€, gt version) dann zu bekommen sein wird. natürlich steht jedem frei meiner vermutung nicht zu glauben :) aber glaub kaum das ati schneller liefern wird, in hompatischen stückzahlen ;D