PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Thilo von PCGH testet die Geforce FX


Seiten : 1 [2] 3

Unregistered
2003-01-25, 22:55:56
Originally posted by LOCHFRASS
wer braucht schon 300/600 im 2d? mal zum vergleich, ne voodoo banshee oder et6000 kommen auch ohne lüfter aus und sind in 2d verdammt schnell.

Ehrlich gesagt ist esmir schnuppe bei einen StandPC ob die Karte in 2D die Leistung drosselt.
Wenn das Ding stabil rennt ist es mir wurscht.

Wenn ich aber schon so knapp bei Kasse bin das ich wegen einer Handvoll Watt im finaziellen Ruin schwimme, dann braucht man sicher keinen PC. :D

Kurz gesagt mir ist wurscht ob die Karte im 2D mit der vollen Leistung fährt.

Gruss Labberlippe

Piffan
2003-01-25, 22:56:54
Originally posted by Unregistered


Klar, gibt es den Bench nicht.
Ich erwarte wie Du schon gesagt hast das meherer Werte kommen das man sic ein besseres Bild von der Leistungsfähigkeit einer FX machen kann.

Es ist alles schön und Recht das die Leistung gesteigert wird.
Seien wir aber mal ehrlich, damals wurde gelästert das ATi zu viel Saft verbraucht weil ein Floppy Conector verbaut wurde.
Die Karte ist in 0,15 und somit quasi nichts Wert.

nVIDIA bringt jetzt eine Karte die fast 2 PCI Plätze schluckt und ebenfalls einen connector verbaut hat.
Darüber höhre ich jetzt von nVIDIA Jüngern keine Kommentar.
(zweierleimass wie es schon öfter geheissen hat.)

Sorry aber ich bin noch nicht von der FX nicht überzeugt.
(fürs erste, wobei auch noch nichts ausser ein UT Bench im Raum steht.)



Gruss Labberlippe

Die Leute, die über den Floppy- Stecker gelästert haben, die haben sich auf genau dem Niveau bewegt, wie du es gerade jetzt tust! Oder irre ich da? ;)

Ich für mich habe nie über irgendwas künstlich gelästert.....

Wer sich über den Lüfter aufregt, der hat schon eher recht, denn der Ärger über einen lauten Lüfter ist schließlich nicht hergezogen, sondern leicht verständlich!

Unregistered
2003-01-25, 22:57:03
Originally posted by LOCHFRASS
wer braucht schon 300/600 im 2d? mal zum vergleich, ne voodoo banshee oder et6000 kommen auch ohne lüfter aus und sind in 2d verdammt schnell.

Wer braucht schon mehr als 640kb Ram.... :-)

Radeonator
2003-01-25, 23:00:17
Also ich bleibe dabei, für eine 700€uro teure ULTRA finde ich die Leistung zum jetzigen Zeitpunkt entäuschend.Auch wenn viele hier gerne "auf einem Auge NV" sind, muss da noch einiges getan werden. IMO

Piffan
2003-01-25, 23:01:30
Originally posted by Unregistered


Ehrlich gesagt ist esmir schnuppe bei einen StandPC ob die Karte in 2D die Leistung drosselt.
Wenn das Ding stabil rennt ist es mir wurscht.

Wenn ich aber schon so knapp bei Kasse bin das ich wegen einer Handvoll Watt im finaziellen Ruin schwimme, dann braucht man sicher keinen PC. :D

Kurz gesagt mir ist wurscht ob die Karte im 2D mit der vollen Leistung fährt.

Gruss Labberlippe

Gerade dass kann ich nicht kapieren: Wenn das Ding 40 oder 50 Watt sinnlos verballert, dann wäre mir das nicht egal! Wenn ich über Nacht ein Video encodiere (tagsüber schnippsel ich die Clips), dann geht es um die Kosten und um den Verschleiß! Vom Lärm beim Schreiben oder Videoschnitt will ich gar nicht erst reden....

Der P4 ist ja auch deswegen so beliebt, weil der so schön ökonomisch mit der Energie umgeht, er haushaltet so gut, dass er im Schnitt wesentlich kühler ist (bei Teillast). Beides schont die Stromrechnung und reduziert Lärm und Verschleiß...

Piffan
2003-01-25, 23:02:38
Originally posted by Unregistered


Wer braucht schon mehr als 640kb Ram.... :-)

Thema verfehlt! Lochfrass meint was ganz anderes und er hat verdammt Recht damit!

LovesuckZ
2003-01-25, 23:03:53
Originally posted by Radeonator
Also ich bleibe dabei, für eine 700€uro teure ULTRA finde ich die Leistung zum jetzigen Zeitpunkt entäuschend.Auch wenn viele hier gerne "auf einem Auge NV" sind, muss da noch einiges getan werden. IMO

Aehm, du musst ja nicht gleich zur 256Mb Version greifen...

Unregistered
2003-01-25, 23:04:13
Originally posted by Piffan


Die Leute, die über den Floppy- Stecker gelästert haben, die haben sich auf genau dem Niveau bewegt, wie du es gerade jetzt tust! Oder irre ich da? ;)

Ich für mich habe nie über irgendwas künstlich gelästert.....

Wer sich über den Lüfter aufregt, der hat schon eher recht, denn der Ärger über einen lauten Lüfter ist schließlich nicht hergezogen, sondern leicht verständlich!

Das nicht aber ich wollte nur zeigen wie damals gegen ATi Argumentiert wurde und jetzt die Lobs geworfen werden.

Aber wie die Bilder der FX gesehen haben, dann Frage ich mich wirklich wieso nVIDIA nicht in der Lage ist eine Karte auf den Markt zu bringen, welche zwar eine gute Performance aufweist aber kleiner ist.
Die 9700er ist verdammt klein zu eine 4600er Ti.
Geschweige den zu einer FX.
Wie gesagt, ich sehe bei einer Karte wie der FX schon ein Problem.
Wenn ich mir die Karte kaufen will muss ich quasi mind. eine PCI Karte aus meinen System rauswerfen da ich alle Plätze belegt habe.
Ich sehe nicht das ich mir dann was schwächeres kaufen sollte nur weil nVIDIA nicht in der Lage ist, eine Karte in einer vernünftige Grösse zu erzeugen.
Es mussten damals schon bei der TI4600 Kondensatoren abrechen damit die Karte passte. (Super Garantieverlust weil man eine TI4600 einbaute.)
Ehrlich muss ich jetzt nach einen Spezial Mobo gucken was mehr PCI Pätze hat. ???
Kann nicht wirklich sein oder.

Ich hoffe das hier die Reviewer deutlich darauf hinweisen das die Karte PCI Plätze wegnehmen, sonst werden einige user überrascht sein wenn die Karte nicht pass.

Gruss Labberlippe

Gruss Labberlippe

Muh-sagt-die-Kuh
2003-01-25, 23:04:14
Originally posted by Endorphine
So, habe viel gelesen und mir auch die Meinungen in anderen Foren zu den Werten angesehen. Was mir auffällt:

• Niemand verliert ein Wort über den Kraftakt von nVidia, mit einem nur 128-bittigen Speicherinterface bei 2x RGMSAA eine 9700 Pro um 30 % zu überflügeln. Füllrate hin und her, mit dem Speicherinterface ist das IMO schon beachtlich. Allein schon der Gedanke, was ein imaginärer NV35 mit 256-Bit Speicherinterface und 8x2 Rendering Pipelines da leisten könnte...
Für 2x RGMSAA ist ein 128 bit Interface fast vollkommend ausreichend, du vergisst mir hier zudem das aktivierte 4x AF.

Gerade bei UT2003 drückt schon 4x tri-AF übelst auf die Füllrate, eine R9700 Pro wird hier in den meisten Situationen durch ihren niedrigen Chiptakt ausgebremst. Wenn man mit gleichen Settings nochmal eine R9700 mit 400 mhz Chiptakt aber unverändertem Speichertakt benchen würde sollte sich zeigen, dass der Abstand deutlich geringer wird.

Unregistered
2003-01-25, 23:05:54
Mein Gott habe ich heute wieder eine beschissene Grammatik.

Gruss Labberlippe

Endorphine
2003-01-25, 23:08:23
Vielleicht wird es ja findige Tool-Programmierer geben, die die Untertakt- und Lüfterabschalt-Funktionen per Mausclick nachrüsten :)

Wie LOCHFRASS schon sagte reicht für 2D-Betrieb locker eine Karte aus, die passiv gekühlt läuft. Also sollte es doch eigentlich ein leichtes sein, eine GF fx entsprechend runterzutakten, wenn man die Leistung nicht benötigt.

Piffan
2003-01-25, 23:10:44
Originally posted by Unregistered


Wobei ich mir nicht sicher bin ob nVIDIA das 256 Interface verschlafen hat.
Ich glaube eher das nVIDIA sich zu sehr auf ein 128Bit Interface verlassen hat.
Als ATi mit einen 256er daherkam ist nVIDIA die Latte runtergekippt.
Es könnte auch gut möglich sein das die Verzögerung deshalb waren, weil nVIDIA jetzt tüfteln musste damit man die FX auf ein höheres Leistungsnivau bringen musste, als ursprünglich geplant war.

Alles Spekulationen natürlich.

Gruss Labberlippe

Wenn dem so ist, dann braucht Ati einen gnädigen Gott, wenn NV auf den breiten Bus umsteigt. DAnn haben die den effektiveren Memorycontroler und die höhere Taktzahl dank 0.13µ, während Ati noch am neuen Fertigungsprozess knabbert...

Alles Spekulation natürlich. ;D

Endorphine
2003-01-25, 23:12:23
Originally posted by Muh-sagt-die-Kuh
Für 2x RGMSAA ist ein 128 bit Interface fast vollkommend ausreichend, du vergisst mir hier zudem das aktivierte 4x AF.

Gerade bei UT2003 drückt schon 4x tri-AF übelst auf die Füllrate, eine R9700 Pro wird hier in den meisten Situationen durch ihren niedrigen Chiptakt ausgebremst. Wenn man mit gleichen Settings nochmal eine R9700 mit 400 mhz Chiptakt aber unverändertem Speichertakt benchen würde sollte sich zeigen, dass der Abstand deutlich geringer wird.
Wäre gut möglich. Die Reviews werden (hoffentlich) Klarheit schaffen.

Wobei dann natürlich auch mit adaptive AF auch beim NV30 verglichen werden sollte.

Unregistered
2003-01-25, 23:14:13
Originally posted by Piffan


Wenn dem so ist, dann braucht Ati einen gnädigen Gott, wenn NV auf den breiten Bus umsteigt. DAnn haben die den effektiveren Memorycontroler und die höhere Taktzahl dank 0.13µ, während Ati noch am neuen Fertigungsprozess knabbert...

Alles Spekulation natürlich. ;D

Jo und wenn die nVIDIA Karte mit 256 Speicherbus kommt, dann wird man vermutlich ein zusätzliches externes Gehäuse brauchen damit der Nachfolger platz findet. D:

Gruss Labberlippe

nggalai
2003-01-25, 23:16:12
Hola,
Originally posted by Unregistered
Küjhlung - war gestern aufm Entwicklertreffen, wo PNY die Quadro mithatte - die ist von der Lautstärke etwa so wie meine 9700pro - Allerdings wird diese Kühllösung nicht in die Consumer karten übernommen werden - ist eine einfache Preisfrage, die Kühlung ist zu teuer.....Guter Punkt. Was man nicht vergessen sollte ist, dass die "Vertreiber" ("Hersteller" trifft's ja nicht so genau ;) ) zwar die Kühlung wechseln dürfen, wenn sie wollen, aber schlussendlich für das Teil bezahlt haben. NV verkauft den Leuten die GFFX nur im Gesamtpacket, i.e. board, chip, RAM und Kühler--für die erste Lieferung auch gleich noch fertig montiert.

Ansonsten bin ich echt auf die ersten detailierten Berichte zum Fön gespannt. Thilos andeutungen klangen schonmal ziemlich, hmm, beschissen, wenn sogar er Kopfhörer in Betracht zieht, um mit der GFFX zu arbeiten. Ich meine ja nur, dieses Jahr wird Surround-Sound in vielen, vielen neuen Titeln kommen; id betont die tolle 5.1 Soundkulisse bei DooM3 ebenfalls stark. Und die Leute hier, welche bereits ein Surroundsystem am PC hängen haben werden mir wohl auch zustimmen, dass man nie mehr ohne spielen will, wenn's das Game unterstützt. Was bringts dann, wenn man Kopfhörer anziehen muss oder die Lautstärke soweit hochreissen darf, dass die Nachbarn Amok laufen? Toll, schöne schnelle Grafik, dafür wird ein anderes tolles Feature indirekt verkrüppelt.

Ich hoffe jetzt einfach mal, das Thilos Testexemplar defekt ist. Aber richtig daran glauben tu ich nicht. :(

ta,
-Sascha.rb

mapel110
2003-01-25, 23:20:19
Originally posted by LOCHFRASS
wer braucht schon 300/600 im 2d? mal zum vergleich, ne voodoo banshee oder et6000 kommen auch ohne lüfter aus und sind in 2d verdammt schnell.

für die 2D performance ist in erster linie der ramdac zuständig !
das hat nichts mit der gpu zu tun !

Unregistered
2003-01-25, 23:20:33
Originally posted by Piffan


Gerade dass kann ich nicht kapieren: Wenn das Ding 40 oder 50 Watt sinnlos verballert, dann wäre mir das nicht egal! Wenn ich über Nacht ein Video encodiere (tagsüber schnippsel ich die Clips), dann geht es um die Kosten und um den Verschleiß! Vom Lärm beim Schreiben oder Videoschnitt will ich gar nicht erst reden....

Der P4 ist ja auch deswegen so beliebt, weil der so schön ökonomisch mit der Energie umgeht, er haushaltet so gut, dass er im Schnitt wesentlich kühler ist (bei Teillast). Beides schont die Stromrechnung und reduziert Lärm und Verschleiß...

Hmm Also wenn ich über Nacht code schalte ich den Moni aus.
Nicht wegen der Stromrechnung sondern wegen der Helligkeit im Schlafzimmer.
Der PC kostet mich gerade mal ein paar Euro Strom, ob jetzt ein paar Cent weniger sind macht das Kraut auch nicht mehr fett.

Gruss Labberlippe

Hauwech
2003-01-25, 23:21:14
Originally posted by Endorphine
Vielleicht wird es ja findige Tool-Programmierer geben, die die Untertakt- und Lüfterabschalt-Funktionen per Mausclick nachrüsten :)

Wie LOCHFRASS schon sagte reicht für 2D-Betrieb locker eine Karte aus, die passiv gekühlt läuft. Also sollte es doch eigentlich ein leichtes sein, eine GF fx entsprechend runterzutakten, wenn man die Leistung nicht benötigt.

Gibt einige Threads hier wo gezeigt wird wie weit man eine Grafikkarte untertakten kann. Unter einen bestimmten Wert geht es einfach nicht. Wenn das dann immer noch zu hoch sein sollte, kann man, wenn man, moechte sich ne alte passiv gekuehlte PCI-Karte holen.

Piffan
2003-01-25, 23:22:01
Originally posted by Unregistered
Mein Gott habe ich heute wieder eine beschissene Grammatik.

Gruss Labberlippe

Aber verständlich ist es. :D

Nee, irgendwo stimmt es schon. Es ist nicht alles Gold was glänzt. Wobei vieles nicht mal glänzt, sonder nur scheiße ist. Der Lüfter kann jedenfalls nicht das letzte Wort sein, wenn der wirklich so lärmt wie Thilo sagt. Da ist NV klar auf dem Holzweg, wenn die meinen, dass dies vom Konsumenten einfach so geschluckt wird.... Wenn die Karte einfach schnell ist und sonst nix taugt, dann wird NV ärgste Probleme kriegen... :(

Ich kann es noch nicht glauben, dass man so einen Lüfter nicht auch leise hinbekommen kann...Vor allem interessiert es mich, wie sich das Ding nun anhört: Ist es eher heulend, rauschend oder sogar unregelmäßig? Wie es aussieht, werde ich wohl mal wieder sehen müssen, wo ich eine freie Eintrittkarte zur Cebit herbekomme kann, wohne nämlich in Hildesheim, also einen Katzensprung von Hannover weg....

Unregistered
2003-01-25, 23:26:47
Originally posted by Piffan


Aber verständlich ist es. :D

Nee, irgendwo stimmt es schon. Es ist nicht alles Gold was glänzt. Wobei vieles nicht mal glänzt, sonder nur scheiße ist. Der Lüfter kann jedenfalls nicht das letzte Wort sein, wenn der wirklich so lärmt wie Thilo sagt. Da ist NV klar auf dem Holzweg, wenn die meinen, dass dies vom Konsumenten einfach so geschluckt wird.... Wenn die Karte einfach schnell ist und sonst nix taugt, dann wird NV ärgste Probleme kriegen... :(

Ich kann es noch nicht glauben, dass man so einen Lüfter nicht auch leise hinbekommen kann...Vor allem interessiert es mich, wie sich das Ding nun anhört: Ist es eher heulend, rauschend oder sogar unregelmäßig? Wie es aussieht, werde ich wohl mal wieder sehen müssen, wo ich eine freie Eintrittkarte zur Cebit herbekomme kann, wohne nämlich in Hildesheim, also einen Katzensprung von Hannover weg....

Du glücklicher ich möchte auch zur CEBIT.
Geht aber nicht da ich Össi bin und mir meistens die Zeit fehlt. :(

Für mich ist die Lautstärke ein ganz wichtiges Kriterium.
Meinereiner macht alles mit den PC.
Ich gucke DVDs über den PC sogar meine CD Sammlung ist als Mp3 auf die HDD verbannt worden.
Kurz ich verwene nichteinmal mehr den CD Plyer bei meiner HIFI Anlage am PC.
Ich habe meinen Verstärker und die Boxen alles über den PC renne, wenn dann da die Lautstärke beim PC ein Horror ist, dann gute Nacht.

Gruss Labberlippe

Endorphine
2003-01-25, 23:28:48
Originally posted by Hauwech
Gibt einige Threads hier wo gezeigt wird wie weit man eine Grafikkarte untertakten kann. Unter einen bestimmten Wert geht es einfach nicht. Wenn das dann immer noch zu hoch sein sollte, kann man, wenn man, moechte sich ne alte passiv gekuehlte PCI-Karte holen.
Wie schon gesagt - mir kommt es auf die Flexibilität an, wählen zu können. Ich habe ja durchaus eine passiv gekühlte 2D-Grafikkarte da, die mir vollkommen ausreichen würde: meine Hercules Dynamite 128/Video mit Tseng Labs ET6000.

Nur habe ich dann eben keine Möglichkeit, mal eben zwischendurch eine Runde UT2003 zu spielen, ohne am Rechner rumzubauen. Ich hätte also gern eine Grafikkarte, bei der ich mit 2-3 Mausclicks zwischen 100/100 MHz und abgeschaltetem Lüfter und 500/500 MHz (z.B.) und Lüfter auf voller Drehzahl umschalten kann. Bis jetzt ist die Industrie scheinbar nicht in der Lage, ein Produkt zu liefern was sich den Wünschen des Kunden anpassen kann und nicht umgekehrt.

Bis jetzt muss sich der Kunde der Grafikkarte anpassen: entweder man kauft eine relativ langsame und passiv gekühlte Grafikkarte (z.B. Radeon 9000 non-pro) oder eine schnelle lärmende Grafikkarte (z.B. Radeon 9700 Pro). Ich würde mir da mehr Flexibilität wünschen. Mit der Technik der GF fx rückt die Erfüllung dieses Wunsches doch irgendwo in greifbare Nähe, oder? Irgendwie scheint mir der Wille bei den Herstellern zu fehlen...

Unregistered
2003-01-25, 23:29:56
Originally posted by Endorphine

Wie schon gesagt - mir kommt es auf die Flexibilität an, wählen zu können. Ich habe ja durchaus eine passiv gekühlte 2D-Grafikkarte da, die mir vollkommen ausreichen würde: meine Hercules Dynamite 128/Video mit Tseng Labs ET6000.

Nur habe ich dann eben keine Möglichkeit, mal eben zwischendurch eine Runde UT2003 zu spielen, ohne am Rechner rumzubauen. Ich hätte also gern eine Grafikkarte, bei der ich mit 2-3 Mausclicks zwischen 100/100 MHz und abgeschaltetem Lüfter und 500/500 MHz (z.B.) und Lüfter auf voller Drehzahl umschalten kann. Bis jetzt ist die Industrie scheinbar nicht in der Lage, ein Produkt zu liefern was sich den Wünschen des Kunden anpassen kann und nicht umgekehrt.

Bis jetzt muss sich der Kunde der Grafikkarte anpassen: entweder man kauft eine relativ langsame und passiv gekühlte Grafikkarte (z.B. Radeon 9000 non-pro) oder eine schnelle lärmende Grafikkarte (z.B. Radeon 9700 Pro). Ich würde mir da mehr Flexibilität wünschen. Mit der Technik der GF fx rückt die Erfüllung dieses Wunsches doch irgendwo in greifbare Nähe, oder? Irgendwie scheint mir der Wille bei den Herstellern zu fehlen...

Hmm wobei ich die 9700er Pro nicht als lärmend empfunden habe.

Gruss Labberlippe

Piffan
2003-01-25, 23:30:52
Originally posted by mapel110


für die 2D performance ist in erster linie der ramdac zuständig !
das hat nichts mit der gpu zu tun !

Oho, das ist aber leider falsch! ;) Viele Funktionen von direct draw werden von der Graka in Hardware ausgeführ, dann ist Overlay auch nicht so ganz ohne. Oder anderes Beispiel: Nimm mal ne rage pro und scrolle durch ein Dokument, oder noch härter, nimm eine Webseite mit vielen Bildern... dann spürste schon, dass ein alte Graka unter 2D gut zu tun hatte!

Bei den neuen Grakas reichts allerdings durch die Bank, da gibts wohl keine Performancesorgen mehr....

Der Ramdac ist nur für die Ergonomie zuständig, sprich Bildwiederholraten und Signalpegel....

turboschlumpf
2003-01-25, 23:31:38
Ich hoffe jetzt einfach mal, das Thilos Testexemplar defekt ist. Aber richtig daran glauben tu ich nicht.


wah, dann gibts doch keine neuen benches mehr :D


ich denke der monsterkühler sowie das, sagen wir ungünstige, aa > 2x, werden die hauptkriterien gegen eine gfx sein.

man kann nur hoffen dass die hersteller später auch andere kühler verbauen werden.
im notfall muss eben die wasserkühlung herhalten.

beim aa ist der ss anteil ja nicht generell falsch, das verhältnis von ss und ms aber sehr wohl.
zumindest ein 4x rg muster hätten sie implementieren können.

Endorphine
2003-01-25, 23:34:04
Originally posted by Unregistered
Hmm wobei ich die 9700er Pro nicht als lärmend empfunden habe.

Gruss Labberlippe
Der Lüfter meiner Sapphire Atlantis 9700 mit Sapphirekühler ist der lauteste in meinem Rechner. Du kannst den Lüfter ja mal vorsichtig für kurze Zeit im Betrieb zum Stillstand bringen (Achtung, ich übernehme keine Haftung für Schäden!). Der Unterschied ist zumindest bei meinem Rechner doch schon sehr deutlich wahrnehmbar.

Unregistered
2003-01-25, 23:36:44
Originally posted by Endorphine

Der Lüfter meiner Sapphire Atlantis 9700 mit Sapphirekühler ist der lauteste in meinem Rechner. Du kannst den Lüfter ja mal vorsichtig für kurze Zeit im Betrieb zum Stillstand bringen (Achtung, ich übernehme keine Haftung für Schäden!). Der Unterschied ist zumindest bei meinem Rechner doch schon sehr deutlich wahrnehmbar.

Ist leider nicht meine hatte die Karte bei einen Kumpel betrachtet.
Aber wie gesagt war nicht allzu störend für mich.
Wobei er aber den Rechner auch gut gedämmt hat.

Gruss Labberlippe

Piffan
2003-01-25, 23:41:49
Originally posted by Endorphine

Bis jetzt muss sich der Kunde der Grafikkarte anpassen: entweder man kauft eine relativ langsame und passiv gekühlte Grafikkarte (z.B. Radeon 9000 non-pro) oder eine schnelle lärmende Grafikkarte (z.B. Radeon 9700 Pro). Ich würde mir da mehr Flexibilität wünschen. Mit der Technik der GF fx rückt die Erfüllung dieses Wunsches doch irgendwo in greifbare Nähe, oder? Irgendwie scheint mir der Wille bei den Herstellern zu fehlen...

Der Wille fehlt in der Tat, denn solche Schmankerl lassen sich am Massenmark nicht recht vermitteln. Vielleicht hält man aber auch die Abnehmer der Hardware für ein bisschen dumm und nimmt an, dass der erhöhte Aufwand sich bei den Heerschaaren der DAUS bei Media nicht rechnet....Taktzahlen und klingende Namen sind bessere Zugpferde...Bisher klappts ja auch mit der Verdummung: Wenn ich sehe, wie viele Desinformierte eine MX kaufen oder glauben, dass die Radeon 9000 irgendetwas mit der schnellsten Radeon 9700 zu tun hat, dann könnte man zuviel kriegen... Sogar meine Nichte, die Informatik studiert, wollte mir sagen, dass die Radeon 9000 eine Geforce schlägt... naja, wenigstens scheint sie die Nase nur in Bücher zu stecken und bleibt solchen unsriösen Seiten wie dieser hier fern...:eyes:

Hauwech
2003-01-25, 23:48:07
Vielleicht laesst sich Nvidia noch erweichen und liefert bei sehr grosser Kundennachfrage ein Potenziometer fuer den NV35 mit :D

mapel110
2003-01-26, 00:03:03
Originally posted by Piffan


Oho, das ist aber leider falsch! ;) Viele Funktionen von direct draw werden von der Graka in Hardware ausgeführ, dann ist Overlay auch nicht so ganz ohne. Oder anderes Beispiel: Nimm mal ne rage pro und scrolle durch ein Dokument, oder noch härter, nimm eine Webseite mit vielen Bildern... dann spürste schon, dass ein alte Graka unter 2D gut zu tun hatte!

Bei den neuen Grakas reichts allerdings durch die Bank, da gibts wohl keine Performancesorgen mehr....

Der Ramdac ist nur für die Ergonomie zuständig, sprich Bildwiederholraten und Signalpegel....

dennoch wird vieles bzw das meiste unter 2D von der cpu gemacht. windows longhorn soll ja den ersten wirklich hardware beschleunigten windows-desktop bringen.

Piffan
2003-01-26, 00:07:41
Originally posted by Hauwech
Vielleicht laesst sich Nvidia noch erweichen und liefert bei sehr grosser Kundennachfrage ein Potenziometer fuer den NV35 mit :D

Was willste mit dem Ding einstellen? Wahrscheinlich werden die nix mitliefern, weil sonst das Teil abfackeln könnte und damit der Lärm für immer ausgeschaltet würde....

Oder meinste mit Potenz- iometer was anderes? :D

Iceman346
2003-01-26, 00:07:50
Originally posted by Piffan


Wenn dem so ist, dann braucht Ati einen gnädigen Gott, wenn NV auf den breiten Bus umsteigt. DAnn haben die den effektiveren Memorycontroler und die höhere Taktzahl dank 0.13µ, während Ati noch am neuen Fertigungsprozess knabbert...

Alles Spekulation natürlich. ;D

Mit dem Memorycontroller ists dann die Frage welchen Weg Nvidia wählt. Entweder müssen sie auf 4x64bit (wie ATI) oder auf 8x32bit. Demiurg sagte IIRC mal das 8x32bit sehr aufwendig wäre.

Exxtreme
2003-01-26, 00:08:20
Originally posted by Piffan


Wenn es so ist, dann zeigt es doch die Überlegenheit der "kleineren Kanäle"....Da könnte es durchaus sein, dass die höhere Effiziens des 4x32 den breiten Bus von Ati zumindest teilweise kompensiert (diese hat ja den "groben" 4x64 Modus....

Die Bandbreite bei Ati ist dank des breiten Busses bestimmt höher, aber ob bei der Ausnutzung dieser Vorsprung gehalten wird, ist noch völlig offen imho.... Es kann durchaus so sein, dass der hohe Speichertakt plus effizienterer Memorycontroller bei der FX für einen Gleichstand bei der Speicherperformance sorgt, dass hier quasi ein Gleichstand besteht zwischen der FX und der R300 ---> theoretisch behält NV auch bei starkem FSAA und AF die Nase vorn......
Vergiss bitte aber nicht, daß DDRII auch Effizienznachteile ggü. DDRI hat. So sind die Latenzen höher und bei ungünstigen Speicherzugriffen massiv höher. Das könnte den effizienteren Memorycontroller doch wieder die Effizienz rauben.

Demirug
2003-01-26, 00:13:48
Originally posted by mapel110


dennoch wird vieles bzw das meiste unter 2D von der cpu gemacht. windows longhorn soll ja den ersten wirklich hardware beschleunigten windows-desktop bringen.

jetzt werden hier aber wieder ein paar sachen durcheinader geworfen.

Windows kennt 4 (in Zukunft 5) Schnittstellen zur Grafikkarte die alle von einem Treiber übernommen werden und sich in bestimmten Bereichen überschneiden.

- 3D Beschleunigung für D3D.
- 3D Beschleunigung für OpenGL.
- 2D Beschleunigung für DirectDraw
- 2D Beschleunigung für GDI
- 2D Beschleunigung für GDI+ (ab longhorn)

Die D3D und OpenGL geschichte dürfte jedem klar sein.

DirectDraw ist im wesentlichen nur für das schnelle umkopieren von Grafikspeicherbreichen zu gebrauchen. Beim Kopieren können dann noch ein paar Dinge verändert werden aber das war es auch schon.

Die GDI Schnittstelle ist dazu da das Zeichnen von Linien, die Ausgabe von Texten und Bitmaps usw. da.

GDI+ ist eine erweiterung mit mehr Möglichkeiten.

Longhorn wird nun eine Kombination von GDI+ und den D3D Funktionen zur Darstellung des Desktops nutzen.

Piffan
2003-01-26, 00:15:14
Originally posted by Exxtreme

Vergiss bitte aber nicht, daß DDRII auch Effizienznachteile ggü. DDRI hat. So sind die Latenzen höher und bei ungünstigen Speicherzugriffen massiv höher. Das könnte den effizienteren Memorycontroller doch wieder die Effizienz rauben.

Mann, jetzt wollte ich gerade schlafen gehen und da ziehst Du mir einen der letzten Strohhalme weg, an die ich mich klammere....

Abwarten, morgen gibts neue Benches und da sieht man schon viel mehr ;)

Hauwech
2003-01-26, 00:15:43
Wuups, meinte nen Drehpoti rofl

Tsts an was ich da wiede wohl beim Potenziometer gedacht habe....

Exxtreme
2003-01-26, 00:16:35
Originally posted by LovesuckZ


Aehm, du musst ja nicht gleich zur 256Mb Version greifen...
Err, dir ist hoffentlich klar, was 8x AA an Speicherplatz frisst, oder?

Leonidas
2003-01-26, 00:19:01
Bitte sagt bei allen Botmatch-Werten immer die Version dazu. Alle Botmatchs aller UT2003-Version, auch der Betas, unterscheiden sich jeweils grundlegend voneinander. Demzufolge ergeben andere UT2003-Versionen auch immer grundlegend andere Frameraten (nur Botmatch).

Exxtreme
2003-01-26, 00:22:51
Originally posted by turboschlumpf


wah, dann gibts doch keine neuen benches mehr :D


ich denke der monsterkühler sowie das, sagen wir ungünstige, aa > 2x, werden die hauptkriterien gegen eine gfx sein.

man kann nur hoffen dass die hersteller später auch andere kühler verbauen werden.
im notfall muss eben die wasserkühlung herhalten.

beim aa ist der ss anteil ja nicht generell falsch, das verhältnis von ss und ms aber sehr wohl.
zumindest ein 4x rg muster hätten sie implementieren können.
Sehe ich auch so. Der NV30 erreicht mit 8x AA ein EER von 16x OGxSAA... das erreicht ATi aber schon mit 4x FSEAA.

LovesuckZ
2003-01-26, 00:24:19
Originally posted by Exxtreme

Sehe ich auch so. Der NV30 erreicht mit 8x AA ein EER von 16x OGxSAA... das erreicht ATi aber schon mit 4x FSEAA.

Nvidia erreicht auch mit 8AF die Qualitaet von ATI's 16AF.

Leonidas
2003-01-26, 00:24:19
Originally posted by Piffan

Das Fly-by ist wesentlich grakalastiger, d.h. für einen dezidierten Graka- Vergleich eher geeignet als das Botmatch...



Nada. Wenn schon Vergleich, dann auf einer zum Spiel passenden Framerate. Und da passt der FlyBy nun einmal nicht. Niemand stellt sich in Q3A vor eine Wand bei 300 fps und nennt das ganze dann Performance-Vergleich (in dieser Situation skalieren die gfx aber sicherlich bestens).

Und nochmal: Man nimmt einfach ein normales aufgenommenes Spiel. Wenn man es richtig aufnimmt, bietet es die Frameraten des Botmatches und ist gleichzeitig einwandfrei gfx-limitiert. Und wer es unerträglich gfx-limitiert haben will, nimmt halt ein extremes Demo eines UT2003-Matches: Ti4600 1024x768x32 -> 28,4 fps, mit 4xS AA + 8x AF -> 4,5 fps. Ausreichend gfx-limitiert bei 84% Leistungsverlust?

Demirug
2003-01-26, 00:26:03
Iceman346, ja 8*32 ist schon recht heftig weil man ja für die zusätzlichen 4 Memorycontroller nochmal eigene Address und Steuerleitungen braucht. Also mehr Leiterbahnen auf dem PCB und mehr Pins für den Chip. Und das geht halt mal wieder ins Geld.

Exxtreme, die höhren Latenzen kommen im wesntlichen vom hohen Takt und nicht wegen DDR-II. Bei Grafikkarten sind die Latenzen aber im Vergleich zu einer CPU ein sekundäres Problem. Da man die Latenz des Speichers sehr genau kennt kann man die Pipelines entsprechend auslegen das zwischen der Datenanforderung und der Datenverarbeitung genügend Takte liegen. Und beim Schreiben kann der Cache als Buffer benutzt werden was bei Grafikanwendungen sowieso sinn macht.

Was DDR-II im vergleich zu DDR-I aber ineffektiver macht ist das es nur noch den 4 Takt Burst Mode gibt. Bei DDR-I ist auch noch ein 2 Takt Mode vorgesehen. Wenn man sich aber die Kachelgrösse und die Kompressionangaben von ATI anschaut ist davon auszugehen das auch ATI mit einem 4 Takt Burst arbeitet. Anders wäre der Chip ja auch nicht DDR-II ready.

StefanV
2003-01-26, 00:31:37
Originally posted by Metatron1

Es ist zwar nicht das zentrale Argument aber für eine 400€-500€-600€ Karte Erwartet man doch das die gebotenen Features auch genutzt werden können.
oder ;)

Gruß
Meta

That's the Point!!

Einer 50€ Karte verzeihe ich 'grobe Macken' eher als einer 500€ Karte 'kleine Macken'...
Für DEN Preis erwarte ich mehr als nur 'etwas' mehr 3D Leistung als bei einer 50€ Karte.
Wenn eine 50€ Karte eines anderen Herstellers im nicht 3D Bereich glänzt, dann ist das ehrlich gesagt bescheiden für die 500€ Karte...
Ich hasse es zwischen 3D Leistung und 2D Features/Usability und Video Wiedergabe zu wählen...
Im zweifelsfall ist 3D unwichtig, da man eine Karte wohl länger für 2D/Office und Videowiedergabe nutzen kann als für 3D Games (DESWEGEN sind mir die 2D Features und die Viedeowiedergabe auch so wichtig *eg*)...

Man sollte halt auch folgendes bedenken:

Was mache ich mit der Karte, wenn die 3D Leistung nicht mehr ausreicht ??

Bei den 'kleineren' Radeons ists klar:

BIOS mit 100MHz Core draufflashen, passiv Kühler drauf, und schon hat man eine sehr gute Office Karte.

Nur was soll man mit einer Karte machen, dessen 'Usability' für die Tonne ist ??
An die Wand hängen ??

Exxtreme
2003-01-26, 00:32:31
Originally posted by Demirug

Exxtreme, die höhren Latenzen kommen im wesntlichen vom hohen Takt und nicht wegen DDR-II. Bei Grafikkarten sind die Latenzen aber im Vergleich zu einer CPU ein sekundäres Problem. Da man die Latenz des Speichers sehr genau kennt kann man die Pipelines entsprechend auslegen das zwischen der Datenanforderung und der Datenverarbeitung genügend Takte liegen. Und beim Schreiben kann der Cache als Buffer benutzt werden was bei Grafikanwendungen sowieso sinn macht.

Tja, das trifft aber auf die Memorycontroller 4x64 vs. 4x32 wohl auch zu, oder? :)

LovesuckZ
2003-01-26, 00:35:42
@Payne: Wenn ATI doch so toll im 2D Bereich ist, warum funkt Turbo Pascal dann auch meiner 9500 nicht richtig?
Jez mit der Mach64 geht wieder alles und mit der TI200 gabs auch keine Probleme.

Auch wenn du es nicht glauben willst, aber ATI ist auch im 2D Breich nicht besser als Nvidia!

StefanV
2003-01-26, 00:37:49
Originally posted by Razor
Falls doch: nVidia hat den TV-Out in die eigenen Hände genommen. Ist dieser also schlecht, fällt dies direkt auf nVidia selbst zurück und sie können es nicht einmal ändern. Wird schon ganz OK sein, schließlich ist es ja nicht sooo schwierig, sondern mehr eine Kostenfrage. Aber mit Sicherheit ist es nicht zentrales Argument für eine High-End-3D-Bschleuniger-Karte, oder ? Na ja, vielleicht für Herrn Schmärz...
:rofl:

Razor

Naja, mit der Validierung der TV-Chips war NV wohl auch nicht allzu sorgfälltig...
Auch hat NV wohl zu viele TV Encoder zugelassen...

Obs besser wird ??
Eher nicht...


btw:

Warum ich soviel Wert auf den TV Out lege ??
Weil ich eine Grafikkarte gerne 4 Jahre benutzen würde ??

0,5-1,5 Jahre im Gamerchner, rest im Office/Video Rechner...

StefanV
2003-01-26, 00:45:17
Originally posted by Unregistered

Aber wie gesagt war nicht allzu störend für mich.

Gruss Labberlippe

Naja, das empfinden ist immer relativ.

Ein GraKa Lüfter geht mir auch eher aufn Geist als ein CPU Lüfter, allein schon wegen der Drehzahl.

BTW: ich empfinde selbst den Kühler einer Prolink GF4 TI4200 als störend...

Der Lüfter meiner Radeon 9000 PRO stört mich hingegen nicht, der liegt ja auch neben dem Rechner.
Auf der GraKa ist momentan ein GF3 TI200 passiv Kühler (per Puk Säge passend gemacht), sonderlich warm wird die Karte dennoch nicht...

Metatron1
2003-01-26, 00:49:50
Originally posted by Stefan Payne


Naja, mit der Validierung der TV-Chips war NV wohl auch nicht allzu sorgfälltig...
Auch hat NV wohl zu viele TV Encoder zugelassen...

Obs besser wird ??
Eher nicht...


btw:

Warum ich soviel Wert auf den TV Out lege ??
Weil ich eine Grafikkarte gerne 4 Jahre benutzen würde ??

0,5-1,5 Jahre im Gamerchner, rest im Office/Video Rechner...


und nicht zu Vergessen das die VIDEO Shader von der R300 auch bald richtig genutzt werden wie z.b. DivX,.....
Noch etwas was man mit der R300 zusätzlich machen kann.;)


Gruß
Meta

Salvee
2003-01-26, 00:54:16
Naja, die NV30 Pixelshader können es mit Garantie auch.
Sie müssten es nur lizensieren und im Treiber einbauen.

Metatron1
2003-01-26, 00:58:05
Originally posted by Salvee
Naja, die NV30 Pixelshader können es mit Garantie auch.
Sie müssten es nur lizensieren und im Treiber einbauen.

Darüber habe ich aber nirgends etwas lesen können.
Wenn die das Integriert haben dann hätten die doch dafür Groß WERBUNG gemacht ;)
oder nicht??



Gruß
Meta

nagus
2003-01-26, 01:01:07
ich hab jetzt mal bei verschiedenen settings getestet...

140 fps Radeon 9700PRO @ 398,25/756Mhz
CPU @ stock speed 2.4Ghz 133Mhz FSB (slow ram-timings)

MAX details


und 164 fps ohne detailed textures.


IMHO hat ATI mit der R350 sicher keiner schwierigkeiten die GFFX Ultra zu überbieten (bei UT2003). man darf aber nicht vergessen, dass bis jetzt nur diese werte vorliegen. man kann unmöglich auf die gesamtleistung schließen, nur aufgrund dieser werte.

Ripper
2003-01-26, 01:03:44
Ich bin auch davon überzeugt das ATI noch einen Treiber zurückhält der die Unterschiede wieder minimieren wird. :)
Aber ich bin ehrlich gesagt auch wenns nur wenige Ergebnisse sind sehr enttäuscht da hät ich mir schon mehr versprochen für die lange Zeit die Nvidia brauchte. Zumal kommende Games auf der neuen UT2003 Engine basieren werden.

Salvee
2003-01-26, 01:05:13
Originally posted by Metatron1


Darüber habe ich aber nirgends etwas lesen können.
Wenn die das Integriert haben dann hätten die doch dafür Groß WERBUNG gemacht ;)
oder nicht??



Gruß
Meta

MrB, der 0wn3r ;) von Rage3D, hat es bestätigt. Da es sich um ein PS-Programm handelt, und die NV30 PS all das beherrschen, was die R300 PS können (und noch ein 'wenig' mehr), sollte es technisch kein Problem sein.

Link (http://www.beyond3d.com/forum/viewtopic.php?t=3866)

Demirug
2003-01-26, 01:13:33
Originally posted by Exxtreme

Tja, das trifft aber auf die Memorycontroller 4x64 vs. 4x32 wohl auch zu, oder? :)

ja und nein. natürlich kann (und muss) man beim Design darauf eingehen. ATI hat ja deshalb auch die Kachelgrösse von 8*8 Pixel gewählt.

8*8*32(bpp)*6(aa-Samples) = 12288 bits

64*2(DDR)*4(Burst)*24(max Kompression) = 12288 bits

Wenn die Kompression also voll zur Wirkung kommen kann braucht der chip eine Burstphase um die Daten in den Speicher zu bekommen. In der Prxsis dürfte mal aber eher von einer Kompression < 6 ausgehen (bei 6xAA).

Also bleiben von einer Kachel nach der Kompression > 2048 Bits übrig. Das entspricht > 4 Burstphasen um die Kachel in den Chip zu laden.

Im wortscase fall sind es 24 Burstzyklen. In wie weit ATI für solche Fälle noch spezialverfahren im Chip haben welche die Kompression ab einem bestimmten Punkt für einen Frame einfach abschalten kann ich natürlich nicht sagen.

Schauen wir uns jetzt mal den NV30 an. NVIDIA gibt die max Kompression mit 4 an.

Also 32*2*4*4 = 1204 bit = 32 Sampels (a 32 bit). Bei dem 2x,4x und 8x AA Modus lassen sich die Pixel gut auf eine solche Kachel aufteilen. Beim 6x AA gibt es aber Probleme. Eine möglichkeit wäre es 3 Kacheln zusammen zufassen (96 Samples = 16 Pixel). Was Nvidia aber in solchen fällen genau macht ist schwer zu sagen.

Machen wir also noch einen Vergleich von 4xAA. Ich gehe davon aus das beide Chips eine durchschnitliche Kompresionsrate von < 4 erreichen

ATI: 8*8*4*32 = 8192 Bits = 16 Zyklen (wortcase) = > 4 Zyklen (Durchschnit)

NVIDIA: 32(Sample)*32 = 1024 bits = 4 Zyklen (worstcase) = > 1 Zyklus (Durchschnit)

Möglicherweise macht ATI etwas anderes als hier angenommen deswegen noch eine Rechnung welche auf zwei Theoretischen Chips mit der gleichen Kompressions technik aber unterschiedlichen Bussen

Die Maximale Kompression ist 4

32 bit Kanäle:

Burstsize: 32*2*4 = 256 bit
Kachel: 32(Sample)*32 = 1024 bits = 4 Zyklen (worstcase) = > 1 Zyklus (Durchschnit)

64 bit Kanäle:

Burstsize: 64*2*4 = 512 bit
Kachel: 64(Sample)*32 = 2048 bits = 4 Zyklen (worstcase) = > 1 Zyklus (Durchschnit)

In beiden Fällen wir also die gleiche Anzahl von Zyklen gebraucht. Da aber bei gleicher gesamtbreite des Busses bei 64 bit Kanälen nur die hälfte der Zyklen zur verfügung steht können im gleichen Zeitraum t nur die hälfte der Kacheln gelesen oder geschrieben werden.

Eine Kachel bei 64 Bit Kanälen enthält zwar zum Ausgleich auch die doppelte Menge an Sampels aber damit steigt auch die Wahrscheinlichkeit das nicht benötigte Daten mitgelesen wurden.

Die Schlussfolgerung daraus ist also:

Ein 64 Bit Kanal kann nicht die gleiche Effektivität wie ein 32 Bit Kanal haben.

Exxtreme
2003-01-26, 01:16:14
Originally posted by Demirug


Die Schlussfolgerung daraus ist also:

Ein 64 Bit Kanal kann nicht die gleiche Effektivität wie ein 32 Bit Kanal haben.
Das ist klar, aber man kann diesem Effekt durch Caches und eine geschickte Anordnung der Daten etwas engegenwirken... glaube ich jetzt zumindest.

Winter[Raven]
2003-01-26, 01:16:24
Ja Ja Ja ... ATI Freak ... bleibt mal ruhig auf dem Tepich. Nur weil DIESER EINER TEST etwas entteuscht hat, hießt sicherlich nicht dass die GF FX auch überall schlecht sein wird. Die gesamte Karte auf der grundlage eines Test zu beurteilien ist genauso wie die Anatomi eines Elefanten mit einer der Mücke zu vergleichen (ATI fraks wissen wie ich das meine). Ich stimme auch zu, das Nvidia einfach nur den Bus zuvergrößern braucht, dann würde diese Architektur 100 % mit dem R400 aufnehmen, b.z.w. zu einem gleichstand machen, den bei ATI wird das wieder ein einfacher aufguss vom altem und keine neue Konstruktion.

AlfredENeumann
2003-01-26, 01:22:12
Originally posted by Piffan


Du Schelm hast deine R300 ja auch geringfügig übertaktet! Also so wird man die sicher nicht kaufen können. Diese Takte sind sicher der R3500 vorbehalten, und dann will ich mal die Kühlung sehen....:D


Den takt bekomme ich mit Standart-Kühler hin.

Demirug
2003-01-26, 01:30:53
Originally posted by Exxtreme

Das ist klar, aber man kann diesem Effekt durch Caches und eine geschickte Anordnung der Daten etwas engegenwirken... glaube ich jetzt zumindest.

Sorry aber auch hier muss ich ein Veto einlegen. ;)

Die grösse der Cachelines steht im direkten Zusammenhang mit dem Speicherinterface. Um also die gleiche Anzahl von Kacheln im Cache abzulegen müsste dieser bei 64 bit kanälen auch doppelt so gross sein wie bei 32 bit kanälen sein. Und auch hier wieder:

eine 64 bit Kanal Kachel enthält mehr Daten also steigt die Menge der unnötig im Cache abgelegten daten.

Was nun die Anordnung angeht so hat man da nicht viele optionen. Um eine hohe Kompression zu ermöglichen sollten AA-Samples die Räumlich nahe beieinader leigen auch in der gleichen Kachel landen. Deswegen ja auch vorzugsweise Rechtecke und keine Linien als Kachel. Desweiteren macht es keinen Sinn eine Kachel so über den Speicher zu verteilen das zum laden und speichern mehr als ein Kontroller benötigt wird. Also wird ein Kontroller alle Segmente einer Kachel linear lesen oder schreiben. Das einzige was man also noch tun kann ist benachtbarte Kacheln unterschiedlichen Kontrollern zuzuweisen und damit den gesamten Framebuffer einnigermassen gleichmässig zwischen den Kontrollern aufzuteilen. Aber das geht ja sowohl mit den 32 und den 64 bit Kontrollern und die 32 bit Kontroller haben dabei wieder den Vorteil der kleineren Granularität.

MarcWessels
2003-01-26, 01:33:00
Die FSAA-Performance interessiert mich eigentlich recht wenig. Eher verwende ich eine höhere Auflösung als daß ich das AA aktiviere.

AF alleine möchte ich gerne sehen.

Unregistered
2003-01-26, 01:41:49
Originally posted by mapel110
dennoch wird vieles bzw das meiste unter 2D von der cpu gemacht. windows longhorn soll ja den ersten wirklich hardware beschleunigten windows-desktop bringen. WinBench (http://www.veritest.com/benchmarks/winbench/winbench.asp)
Da sind Teile von Textverarbeitung, Tabellenkalkulation, CAD und anderen Anwendungen drin. Man kann die Tests einzeln und nach Gruppen zusammengefasst auswählen. Ob eine Voodoo3 mit einer GF3 in allen Tests mithalten kann, weiß ich nicht.

AlfredENeumann
2003-01-26, 01:41:59
Originally posted by Razor

Du hattest es in der Hand, dieses Thema ruhen zu lassen...
Nagus wollte schlicht zeigen, dass seine aufgemotzte R9700pro auf seinem aufgemotztem System genauso schnell ist, wie eine gffx und das bei geringerem Takt. Nicht mehr und vor allem auch nicht weniger.


War ja auch sinn der sache. ~gleiche speed bei 20% weniger Takt.

Xcellerator
2003-01-26, 01:44:14
Originally posted by Shakiro
Ja Ja Ja ... ATI Freak ... bleibt mal ruhig auf dem Tepich. Nur weil DIESER EINER TEST etwas entteuscht hat, hießt sicherlich nicht dass die GF FX auch überall schlecht sein wird. Die gesamte Karte auf der grundlage eines Test zu beurteilien ist genauso wie die Anatomi eines Elefanten mit einer der Mücke zu vergleichen (ATI fraks wissen wie ich das meine). Ich stimme auch zu, das Nvidia einfach nur den Bus zuvergrößern braucht, dann würde diese Architektur 100 % mit dem R400 aufnehmen, b.z.w. zu einem gleichstand machen, den bei ATI wird das wieder ein einfacher aufguss vom altem und keine neue Konstruktion.

vielleicht solltest du mal genau das auch tun....einfach lächerlich..jemand, der sich ärgert, das andere sich freuen, weil "ihre" radeon schneller bzw. nur marginal langsamer ist, als eine fx sind doch genauso lächerlich wie jene, über die du dich hier mockierst

Demirug
2003-01-26, 01:46:20
Ich freue mich ja für jeden der seine 9700 (Pro) mit dem normalen Kühler auf hohe Taktraten bringt aber eurer Tests sind hier nicht relevant weil falsch ausgeführt. Ein Test ob eine Taktrate wirklich mit dem normalen Kühlsystem erreichbar ist muss wie folgt durchgeführt werden.

1. Man suche im Handbuch des zu testenden System bei den Technischen Daten die maximale Betriebstemperatur (das sollte in den meisten Fällen 50 oder mehr Grad Clesius sein)
2. Man stelle diese Temperatur als Umgebungstemperatur für das zu testende System her
3. Ausser dem zu dem Systemgehörendem Kühlsystem dürfen keine weiteren Kühlsysteme den Test beeinflussen (also jede Luftstörmung welche nicht vom Grafikkartenlüfter kommt ist zu unterbinden)
4. Testen ob das System in der nun vorliegende Konfiguration stabil läuft.

viel spass beim testen ;)

AlfredENeumann
2003-01-26, 01:49:03
Originally posted by Endorphine
So, habe viel gelesen und mir auch die Meinungen in anderen Foren zu den Werten angesehen. Was mir auffällt:

• Niemand verliert ein Wort über den Kraftakt von nVidia, mit einem nur 128-bittigen Speicherinterface bei 2x RGMSAA eine 9700 Pro um 30 % zu überflügeln. Füllrate hin und her, mit dem Speicherinterface ist das IMO schon beachtlich. Allein schon der Gedanke, was ein imaginärer NV35 mit 256-Bit Speicherinterface und 8x2 Rendering Pipelines da leisten könnte...

• Keiner redet über die offensichtlich viel zu laute Kühlung. Ist das so uninteressant? Ich finde die Vortstellung des Föns nur noch grausam. Hoffentlich wird die kleinere fx die Kühllösung von Leadtek auf der Quadro fx verwenden, also einen leisen Radiallüfter, der Kühlrippen direkt auf der GPU anbläst.

• Keiner redet über die variable Takturng der GF fx. Wäre das nicht auch ein Mittel, um richtig leise und doch ausreichend schnelle Grafikkarten zu bauen?

zu1) Du hast den Speichertakt vergesssen !
zu2) Eine echten Nvidia-Fan stört sowas nicht
zu3) ui. ne KArte die bei 300/300 leise ist ? Hast du schon mal was von einer Radeon 9700Pro mit Heatpipe von Zallman gehört ? Die ist sogar bei 400/310 noch flüsterleise:D

AlfredENeumann
2003-01-26, 01:59:42
Originally posted by nggalai
Ansonsten bin ich echt auf die ersten detailierten Berichte zum Fön gespannt. Thilos andeutungen klangen schonmal ziemlich, hmm, beschissen, wenn sogar er Kopfhörer in Betracht zieht, um mit der GFFX zu arbeiten. Ich meine ja nur, dieses Jahr wird Surround-Sound in vielen, vielen neuen Titeln kommen; id betont die tolle 5.1 Soundkulisse bei DooM3 ebenfalls stark. Und die Leute hier, welche bereits ein Surroundsystem am PC hängen haben werden mir wohl auch zustimmen, dass man nie mehr ohne spielen will, wenn's das Game unterstützt. Was bringts dann, wenn man Kopfhörer anziehen muss oder die Lautstärke soweit hochreissen darf, dass die Nachbarn Amok laufen? Toll, schöne schnelle Grafik, dafür wird ein anderes tolles Feature indirekt verkrüppelt.


Man kann ja einen Aufsatz für den Kühlausgan bauen der je nach spiel ein wenig hintergrundtöne erzeugt, z.B. das Pfeifen des Windes.

AlfredENeumann
2003-01-26, 02:02:01
Originally posted by Endorphine

Bis jetzt muss sich der Kunde der Grafikkarte anpassen: entweder man kauft eine relativ langsame und passiv gekühlte Grafikkarte (z.B. Radeon 9000 non-pro) oder eine schnelle lärmende Grafikkarte (z.B. Radeon 9700 Pro). Ich würde mir da mehr Flexibilität wünschen. Mit der Technik der GF fx rückt die Erfüllung dieses Wunsches doch irgendwo in greifbare Nähe, oder? Irgendwie scheint mir der Wille bei den Herstellern zu fehlen...

So laut ist der ATI Kühler nun auch nicht, außerdem kann man die 9700Pro passiv kühlen !!!

Troneo
2003-01-26, 02:28:00
Ich würde sagen, die Leistung der FX ist schon beachtlich. Zumindest auf einem High-End System im Quality-Mode. Aber wie schaut es mit der Skalierung aus. Selbst eine 9700 Pro kann seine Leistung erst mit Unterstützung von Top-CPUs entfalten. Wie schaut es denn auf "normalen" PCs aus? Und kann die FX bei kommenden CPUs (Barton, Hammer, Prescott) weiter Boden gut machen. Zuddem waren die Catalyst-Treiber zu Beginn auch nicht der Hit. Hier ist noch viel Platz für Verbesserung. Trotzdem dürfte wohl der Sinn und Zweck solcher Grafikkarten erst mit Doom 3 wirklich erkennbar sein.

kuscheltier
2003-01-26, 02:31:38
*ejecting*

Ist Demirug a Mensch? *löl*


So, jetzt dürfts weiterpalavern! :stareup:

Radeonator
2003-01-26, 02:55:55
Originally posted by Demirug
Ich freue mich ja für jeden der seine 9700 (Pro) mit dem normalen Kühler auf hohe Taktraten bringt aber eurer Tests sind hier nicht relevant weil falsch ausgeführt. Ein Test ob eine Taktrate wirklich mit dem normalen Kühlsystem erreichbar ist muss wie folgt durchgeführt werden.

1. Man suche im Handbuch des zu testenden System bei den Technischen Daten die maximale Betriebstemperatur (das sollte in den meisten Fällen 50 oder mehr Grad Clesius sein)
2. Man stelle diese Temperatur als Umgebungstemperatur für das zu testende System her
3. Ausser dem zu dem Systemgehörendem Kühlsystem dürfen keine weiteren Kühlsysteme den Test beeinflussen (also jede Luftstörmung welche nicht vom Grafikkartenlüfter kommt ist zu unterbinden)
4. Testen ob das System in der nun vorliegende Konfiguration stabil läuft.

viel spass beim testen ;)

Ehm, hier lege ich mal ein VETO ein. Dann müsste man den kühler von einer GF FX , deiner Meinung nach, ja runter rupfen und schauen, bei welchem takt mit gleichem Kühlungssystem ohne Zusätze, die Karte Stabil läuft...da wäre ich ja mal mehr als gespannt ;)
Das ist Erbsenzählerei, denn : Wenn ich innerhalb eines Standart Systems eine Karte stabil OCen kann, ist das Relevant. Ich muss nur immer das selbe Grundsystem benutzen, um vernünftige Vergleichswerte zu bekommen.Ansonsten müsste ich das gleiche Kühlsystem noch zusätzlich auf die jeweiligen Karten montieren, um einen korrekten Vergleichswert zu bekommen.

Salvee
2003-01-26, 03:40:14
Originally posted by AlfredENeumann


Man kann ja einen Aufsatz für den Kühlausgan bauen der je nach spiel ein wenig hintergrundtöne erzeugt, z.B. das Pfeifen des Windes.

Der beste Joke heute, genial ;D;D

Der_Leisetreter
2003-01-26, 06:34:34
Schoen, dass die FX schneller ist, aber mal im Ernst: Wen von uns ueberrascht das nun? - Eine Taktung von 500/500 allein sollte schon genuegend Vorteil bringen.
Das dieser Vorsprung jedoch durch einen, wie hat's Thilo gleich noch genannt - ach ja, FOEN zu erkaufen, halte ich in einer Zeit in der immer mehr PC-User (mich mal ganz vorn dran ;) ) wert auf einen leisen PC legen einfach laecherlich.
NV hat Torschlusspanik bekommen nachdem sie von ATI's R300 weggefegt wurden und da sind sie halt mit der Brechstange rangegangen, wenn ich allein ueberlege seit wann nun schon ueber die FX geredet wurde. *hui*
Ich hab momentan eine Gf4Ti4400 und die mittels der Zalman Heatpipe passiv gekuehlt und sollte ATI es hinbekommen, den R350 in Regionen zu halten, in denen auch eine passive Kuehlung moeglich sein sollte, so wird diese mit Sicherheit meine naechste Karte. Da kann mir das FX-Roedelmonster mal gestohlen bleiben.

MfG
Der Leisetreter
(bekennender Silent-Fetischist)

P.S.
Da hier vermehrt gemeckert wurde: Der TV-Out der Gf4 ist besser als ihr Ruf (kommt natuerlich auch auf den Chip an der verbaut wurde) und im Gegensatz zu ATI wird bei NV Overscan wenigstens gleich mit freigegeben und ich muss nicht erst wieder in der Registry rumschreiben.

Hauwech
2003-01-26, 08:15:01
Jeder Mensch empfindet 'Laerm' anders. Ich bestreite nicht das die FX recht laut sein wird aber was den einen extrem stoert ist fuer den anderen noch ertraeglich.
Ich zumindest habe auch nicht die Kohle mal so eben alles was laut is rauszurupfen und entweder durch leise Komponenten, Passivkuehler oder Daemmmatten, von Wakue mal ganz abgesehen, zu ersetzen.

Demirug
2003-01-26, 09:34:55
Originally posted by Radeonator


Ehm, hier lege ich mal ein VETO ein. Dann müsste man den kühler von einer GF FX , deiner Meinung nach, ja runter rupfen und schauen, bei welchem takt mit gleichem Kühlungssystem ohne Zusätze, die Karte Stabil läuft...da wäre ich ja mal mehr als gespannt ;)
Das ist Erbsenzählerei, denn : Wenn ich innerhalb eines Standart Systems eine Karte stabil OCen kann, ist das Relevant. Ich muss nur immer das selbe Grundsystem benutzen, um vernünftige Vergleichswerte zu bekommen.Ansonsten müsste ich das gleiche Kühlsystem noch zusätzlich auf die jeweiligen Karten montieren, um einen korrekten Vergleichswert zu bekommen.

Du hast nicht scheinbar verstanden was ich damit sagen wollte.

Warum sollte ich den Kühler von der FX runterbauen? Sie wird ja so ausgeliefert und muss deshalb so wie sie ist bei 50 Grad Umgebungstemperatur stabil laufen. Das gleiche gilt für eine 9700 Pro. Der von Hersteller verbaute Kühler muss bei 50 Grad Umgebungstemperatur die Karte stabil halten.

Es geht also nicht darum wie weit man mit einer bestimmten Kühlsystem/Chip Kombination kommt sondern was die Karte im Auslieferungszustand macht.

Natürlich kann man OC Ergebnisse miteinader vergleichen. Diese müssen dann aber wie du schon sagst im gleichen System unter gleichen umweltbedingungen ablaufen.

Lange Rede kurzer Sinn. Wenn schon OC Vergleiche dann bitte fair und eine OC 9700 Pro gegen eine normale Geforce FX ist nun mal nicht fair. Alles andere was ich jetzt hierzu noch sagen könnte (Taktrate und Kühlung R350) gehört aber ins Reich der Spekulation und kommt deswegen auch nicht hierher.

Hellbinder
2003-01-26, 09:58:39
Radeon 9700pro @ 375core 351 Ram 2x FSAA 4:1 AF

71.645287 / 132.772568 / 360.248505 fps
Score = 132.867706

P4 System listed below.

Unregistered
2003-01-26, 10:04:32
Wann gibt's denn mal richtige Benches? Ich meine 2xAA + 4xAF in UT2k3 sind doch Nvidia-IdealSettings, oder? Genau die hat doch der Nvidia-Mensch dem Thilo geflüstert, als max-Settings.:D Bin mal gespannt, ob jetzt plötzlich alle Reviewer so benchen.

Unregistered
2003-01-26, 10:09:11
Originally posted by LovesuckZ


Nvidia erreicht auch mit 8AF die Qualitaet von ATI's 16AF.

Na ob das bei den aktuellen Treibern noch stimmt, ich hab da so meine Zweifel.

egdusp
2003-01-26, 10:14:52
Originally posted by Hellbinder
Radeon 9700pro @ 375core 351 Ram 2x FSAA 4:1 AF

71.645287 / 132.772568 / 360.248505 fps
Score = 132.867706

P4 System listed below.

And what exactly are those numbers? The time your Radeon needs to boil an egg? Why not give us a little more information, like the used benchmark (in ut2003 with the version), the used settings, etc...

Even with those infos, what would be be meaning of this post anyhow?

mfg
egdusp

nggalai
2003-01-26, 10:18:02
Hi Hellbinder,

welcome to the forums. Enjoy your stay. :wink:
Originally posted by Hellbinder
Radeon 9700pro @ 375core 351 Ram 2x FSAA 4:1 AF

71.645287 / 132.772568 / 360.248505 fps
Score = 132.867706

P4 System listed below. Hmm. Could you provide us with some numbers w/out FSAA and AF? With the GFFX data we already got, only thing that we actually CAN compare, between the Radeon9700 and GFFX, is the performance hit enabling FSAA and AF will induce on the benchmark numbers.

ta,
-Sascha.rb

Metatron1
2003-01-26, 10:23:14
Originally posted by Unregistered


Na ob das bei den aktuellen Treibern noch stimmt, ich hab da so meine Zweifel.

Noch kurz um das AF der R300:
Das AF Verfahren ist sogar besser als die jetzige GrForceTixx Serie unter 8xAF/trilinear! ;)
Test gibt es hier: http://www.hardtecs4u.com/reviews/2003/sapphire_r9700pro/index17.php

Wie es nun bei der GeForceFX Aussieht weis ich nicht.
Weis jemand ob sich da was geändert hat??

Danke




Gruß
Meta

Unregistered
2003-01-26, 10:30:10
wo si denn Thilo mit neuen Ergebnissen? ;)

Liquaron
2003-01-26, 10:31:36
Originally posted by Unregistered
wo si denn Thilo mit neuen Ergebnissen? ;)

jop ich warte auch schon die ganze Zeit. Ich kann es gar nicht mehr abwarten zu sehen was meine zukünftige Graka denn so an Performance bringt =)

Unregistered
2003-01-26, 10:41:51
auf die neuen Ergebnisse von Thilo wartet hier wohl jeder ;)

Um nochmal auf die Lautstärke zurückzukommen: So wie ich das auf dem Bild erkennen kann, scheint Asus wohl nicht auf FXFLow zu setzen *hoff*. Zumindest auf dem Rams sind normale Kühlkörper:

http://gfx.turtled.com/n/30000/30943_4b.jpg

Unregistered
2003-01-26, 10:41:59
na dann viel Spass mit deinem zukünftigen "Noise blaster". Ich werd mir dann wohl eher ne 3D Prophet 9700Pro holen ;)

Metatron1
2003-01-26, 10:47:00
Originally posted by Unregistered
auf die neuen Ergebnisse von Thilo wartet hier wohl jeder ;)

Um nochmal auf die Lautstärke zurückzukommen: So wie ich das auf dem Bild erkennen kann, scheint Asus wohl nicht auf FXFLow zu setzen *hoff*. Zumindest auf dem Rams sind normale Kühlkörper:

*pic*

Scheint aber nicht die Ultra zu sein sondern seine kleine Schwester mit 400/400 ;)




Gruß
Meta

Piffan
2003-01-26, 10:53:56
Originally posted by AlfredENeumann


Man kann ja einen Aufsatz für den Kühlausgan bauen der je nach spiel ein wenig hintergrundtöne erzeugt, z.B. das Pfeifen des Windes.

Gute Idee, wirklich! Aber man könnte ja auch einen Schalldämpfer aufsetzen... :P

nagus
2003-01-26, 11:04:25
Originally posted by Shakiro
Ich stimme auch zu, das Nvidia einfach nur den Bus zuvergrößern braucht, dann würde diese Architektur 100 % mit dem R400 aufnehmen, b.z.w. zu einem gleichstand machen, den bei ATI wird das wieder ein einfacher aufguss vom altem und keine neue Konstruktion.

wo sthet bitte, dass die nv35 256bit speicherinterface hat??? glaub ich nämlich kaum >> nvidia müßte auf einen 8x32 speichercontoller zurückgreifen und das ist bekantermaßen SAU teuer weil das board so komplex wird.

also ich würde nich drauf wetten.


btw, IMHO ist es wahrscheinlicher, dass die R400 16x1 piplines hat, als dass die NV35 ein 256bit speicherinterface bekommt.

Unregistered
2003-01-26, 11:05:12
...den bei ATI wird das wieder ein einfacher aufguss vom altem und keine neue Konstruktion...
-------------------------------------------

wilde speculation und wunschdenken

Endorphine
2003-01-26, 11:05:33
Originally posted by Unregistered
auf die neuen Ergebnisse von Thilo wartet hier wohl jeder ;)

Um nochmal auf die Lautstärke zurückzukommen: So wie ich das auf dem Bild erkennen kann, scheint Asus wohl nicht auf FXFLow zu setzen *hoff*. Zumindest auf dem Rams sind normale Kühlkörper:

http://gfx.turtled.com/n/30000/30943_4b.jpg
Schau nochmal genauer hin. Das Hintergrundbild auf der Verpackung zeigt eine GF4Ti mit 8-Layer Platine von Asus, keine GF fx.

nagus
2003-01-26, 11:06:43
was ich noch wissen wollte von Thilo: welche treiber benutzt du? hat die nforce2 platine dual-channel DDR ram? mit welchem fsb laufen die testrechner?

danke vorerst

aths
2003-01-26, 11:11:11
Originally posted by AlfredENeumann
Den takt bekomme ich mit Standart-Kühler hin. Ober-Gnarf. Mit Standart-Kühlern? Standard-Kühler bitte.

Winter[Raven]
2003-01-26, 11:14:19
Also, mir ist dieser Lärm ehe egal da bei mir Wasserkühlung drauf kommt.

Exxtreme
2003-01-26, 11:15:18
Originally posted by Shakiro
Also, mir ist dieser Lärm ehe egal da bei mir Wasserkühlung drauf kommt.
Wenn die WaKü ausreicht und du den Kühler ohne Probleme abmontieren kannst. :)

aths
2003-01-26, 11:18:44
Originally posted by mapel110
für die 2D performance ist in erster linie der ramdac zuständig !
das hat nichts mit der gpu zu tun ! Nee, der RAMDAC ist nur für ein sauberes Signal und die erreichbaren Bildwiederholraten zuständig. 2D-Performance hängt von der 2D-Beschleunigung des Chips (und natürlich der Güte des 2D-Treibers) ab.

nagus
2003-01-26, 11:19:04
@ Shakiro ... und wie willst du den speicher kühlen?

PS: jetzt kommen gleich neue benchmark-werte!! Thilo ist online :)

LovesuckZ
2003-01-26, 11:24:24
Originally posted by nagus
PS: jetzt kommen gleich neue benchmark-werte!! Thilo ist online :)

Hoffentlich will er sich nicht erst die neuen 5 Seiten seit gestern Abend durchlesen:D

Unregistered
2003-01-26, 11:24:38
Originally posted by Unregistered
auf die neuen Ergebnisse von Thilo wartet hier wohl jeder ;)

Um nochmal auf die Lautstärke zurückzukommen: So wie ich das auf dem Bild erkennen kann, scheint Asus wohl nicht auf FXFLow zu setzen *hoff*. Zumindest auf dem Rams sind normale Kühlkörper:

http://gfx.turtled.com/n/30000/30943_4b.jpg

Hmm ich glaube das Asus auch nicht viel weiss oder ist es richtig das die FX LMA3 verwendet???
Wurde hier von nVIDIA aus nichts gemacht.

Gruss Labberlippe

aths
2003-01-26, 11:25:54
Originally posted by Razor
Und was soll mir das jetzt sagen ?

Du bist also der Meinung, dass ein 4x64Bit CBMC effizienter arbeitet, als ein 4x32Bit CBMC ?
Hmmm...Habe ich das geschrieben? Ich wüsste nicht, im Posting stand: Wenn nVidia sagt, sie würden 256 Bit erst dann einsetzen wenn es sinnvoll sei, sollte man nicht daraus schlussfolgern, weil sie es noch nicht nutzen sei es noch nicht sinnvoll. Man könnte andersherum auch fragen ob es sinnvoll sei, 500 MHz DDRII-RAM einzusetzen. Ob nun breiter oder schneller, Hauptsache, mehr Bandbreite. Die kann man immer brauchen. Sonst hätte ATI kein 256-Bit-Interface und nVidia kein 500 MHz DDR2-RAM verbaut.

Jetzt klarer?

MeLLe
2003-01-26, 11:28:15
Originally posted by Unregistered
Hmm ich glaube das Asus auch nicht viel weiss oder ist es richtig das die FX LMA3 verwendet???
Wurde hier von nVIDIA aus nichts gemacht.
Wie kommst Du darauf?
nV20 - LMA
nV25 - LMA2
nV30 - LMA3
Oder?

Unregistered
2003-01-26, 11:32:38
Originally posted by MeLLe

Wie kommst Du darauf?
nV20 - LMA
nV25 - LMA2
nV30 - LMA3
Oder?

Achja ich Idiot. stimmt hast recht Melle.

Gruss Labberlippe

nggalai
2003-01-26, 11:35:18
Originally posted by LovesuckZ


Hoffentlich will er sich nicht erst die neuen 5 Seiten seit gestern Abend durchlesen:D Du meinst die neuen 13 Seiten, seit Thilo das letzte mal hier war. ;)

Und ich denke kaum, dass viele neue Werte kommen werden (Magazin verkaufen, Magazin verkaufen . . .). Mir wäre eigentlich schon ein Fazit recht. :D

ta,
-Sascha.rb

P.S. Thilo: nein, ich seh dich nicht als so geldgierig an. Ist nur Spass. ;) -.rb

Unregistered
2003-01-26, 11:35:53
Originally posted by nagus
jetzt kommen gleich neue benchmark-werte!! Thilo ist online :)

gib ihm zuerst mal ne stunde, bis er alles gelesen hat, was sich seit gestern hier getan hat ;)

Unregistered
2003-01-26, 11:36:28
Originally posted by aths
Ober-Gnarf. Mit Standart-Kühlern? Standard-Kühler bitte.

Jaja das böse Wort Standard.
Äh Stantart, Stantdart, Standart, Stantard jojo vertippt ist schnell.

:D

Gruss Labberlippe

Fullover
2003-01-26, 11:36:39
Originally posted by nggalai
P.S. Thilo: nein, ich seh dich nicht als so geldgierig an. Ist nur Spass. ;) -.rb schleimer *hust*
:D

Axel
2003-01-26, 11:37:40
Originally posted by MeLLe

Wie kommst Du darauf?
nV20 - LMA
nV25 - LMA2
nV30 - LMA3
Oder?

Wird es wirklich offiziell als LMA3 bezeichnet?
Bei THG steht "LMA II Optimized Color Compression" und wenn die das nicht mal als LMA3 bezeichnen, sind die Unterschiede vielleicht gar nicht so groß.
Kennt jemand die offiziellen nvidia-Unterlagen genauer?

Link zu THG:

http://www6.tomshardware.com/graphic/20021118/index.html

Piffan
2003-01-26, 11:44:40
Originally posted by Unregistered


gib ihm zuerst mal ne stunde, bis er alles gelesen hat, was sich seit gestern hier getan hat ;)

Ja, ich denke mal, dass er sich köstlich amüsieren wird....*eg*

Ob er wohl einen Hörschaden davongetragen hat?

LovesuckZ
2003-01-26, 11:45:59
Originally posted by nggalai
Du meinst die neuen 13 Seiten, seit Thilo das letzte mal hier war. ;)


Bei 50Post pro Seite sind's 5-6 neue Seiten:D

Unregistered
2003-01-26, 11:49:45
Originally posted by nggalai
Du meinst die neuen 13 Seiten, seit Thilo das letzte mal hier war. ;)

Und ich denke kaum, dass viele neue Werte kommen werden (Magazin verkaufen, Magazin verkaufen . . .). Mir wäre eigentlich schon ein Fazit recht. :D

ta,
-Sascha.rb

P.S. Thilo: nein, ich seh dich nicht als so geldgierig an. Ist nur Spass. ;) -.rb


Also ein richtiger High-Quality-Wert, so 4xAA und 8xAF wäre schon nicht zu verachten. Und eine Einschätzung, wie die FX anisotrop filtert(Application/Balanced/Aggressiv).

Dann kauf ich mir bestimmt die die PCGH anstatt der Lamestar;D.

Fullover
2003-01-26, 11:52:46
Thilo schreibt und liest grad PMs...

nagus
2003-01-26, 11:55:11
btw, ich hab mich bei meinen messungen etwas "verbenchmarkt"


die tatsächliche framerate liegt ca. um 5% höher.

ich hatte nämlich bei den ersten durchläufen "Precacheing" deaktiviert!!! das ist standardmäßig aber EIN.

genauere werte folgen. aber auf 400/754 hab ich ~ 150fps (P4 2.4GHZ) und ~ 125 @ default clock und 2.4GHz.

also die 110 von Thilo sind etwas daneben für die 9700PRO

ps... wobei der vorteil jetzt eindeutig beim XP2600+ mit nforce2 liegen dürfte. (ist eindeutig schneller als mein 2.4GHz P4 mit nur 133Mhz FSB und lamgsamstem ram-timings)


@Thilo: kannst d umir BITTE BITTE deine UT2003.ini schicken???? VIELEN DANK!

Unregistered
2003-01-26, 11:58:49
vielleicht kann uns thilo ja sagen ob die karte jetzt 128mb oder 256mb speicher hat?

VoodooJack
2003-01-26, 12:04:20
Originally posted by nggalai
Hi Hellbinder,

welcome to the forums. Enjoy your stay. :wink:
Hmm. Could you provide us with some numbers w/out FSAA and AF? With the GFFX data we already got, only thing that we actually CAN compare, between the Radeon9700 and GFFX, is the performance hit enabling FSAA and AF will induce on the benchmark numbers.

ta,
-Sascha.rb

Hi nggalai,

I can provide you with some numbers w/o FSAA and AF.

UT2003 v2166
Benchmark Flyby/Botmatch

1024x768x32: 235/84
1600x1200x32: 123/76

my system: c sig

Enjoy

Kampf Ameise
2003-01-26, 12:16:21
Originally posted by PCGH_Thilo


3D ist immer voller takt und damit fön. ich empfehl einen kopfhörer =)

also hab grad angefangen hier zu lesen :)


meine frage : kann ich die gf fx auch als fön für die haare benutzen, dann spar ich mir nämlich die kosten für einen haarfön !!!!

Raff
2003-01-26, 12:17:26
Originally posted by Kampf Ameise


also hab grad angefangen hier zu lesen :)


meine frage : kann ich die gf fx auch als fön für die haare benutzen, dann spar ich mir nämlich die kosten für einen haarfön !!!!

Das wird uns Thilo bestimmt gleich sagen....

Endorphine
2003-01-26, 12:27:38
Originally posted by Kampf Ameise


also hab grad angefangen hier zu lesen :)


meine frage : kann ich die gf fx auch als fön für die haare benutzen, dann spar ich mir nämlich die kosten für einen haarfön !!!!
Zuerst solltest du lernen, Radeon 8500 nicht mehr als "Radeon 8,5k" zu schreiben. Man spart keinen Tastendruck ein, dafür muss man mehr Weg mit den Fingern zurücklegen und beim Leser dreht sich der Magen um.

Dr. Greenthumb
2003-01-26, 12:29:37
Ich möchte jetzt mal so einige Leute vor ihren Rechnern beobachten, wie sie den Aktualisieren Button quälen.

Ich schätze die Geduld vieler Leute wird auf eine harte Probe gestellt!

nagus
2003-01-26, 12:30:33
Originally posted by Dr. Greenthumb
Ich möchte jetzt mal so einige Leute vor ihren Rechnern beobachten, wie sie den Aktualisieren Button quälen.

Ich schätze die Geduld vieler Leute wird auf eine harte Probe gestellt!

min. 10x pro minute :) :)

Unregistered
2003-01-26, 12:32:59
Originally posted by Dr. Greenthumb
Ich möchte jetzt mal so einige Leute vor ihren Rechnern beobachten, wie sie den Aktualisieren Button quälen.

Ich schätze die Geduld vieler Leute wird auf eine harte Probe gestellt!

Nö wie kommst den drauf.?
In diesen Thread sind ja nur 14600 Views. :D

Gruss Labberlippe

LovesuckZ
2003-01-26, 12:33:46
(Users Browsing this Forum: VoodooJack, MegaManX4, nagus, nggalai, Korak, Blackhawk-Second, kadder, Iceman346, mapel110, HiddenGhost, davidzo, christoph, Richthofen, Metatron1, BlackBirdSR, mat, Kartoffelsalat, Supa, zeckensack, warper, Aragorn2k3, Kyro2man, dead, Axel, Demirug, dsausk, apollo, Eusti, wowbagger, Dondy, Vertex, Hauwech, MeLLe, Endorphine, Evil_Duran, Katrin, Kobalt, X-Dragon, LRP, Raff, Nase, dildo4u, Omnicron, Dr. Greenthumb, Matman, LovesuckZ)

Ob die alle nur wegen der FX hier sind?:D

nagus
2003-01-26, 12:35:21
neeeeeeeiiiiiin ... wie kommst du da drauf??? ;)

Unregistered
2003-01-26, 12:35:42
Originally posted by LovesuckZ
(Users Browsing this Forum: VoodooJack, MegaManX4, nagus, nggalai, Korak, Blackhawk-Second, kadder, Iceman346, mapel110, HiddenGhost, davidzo, christoph, Richthofen, Metatron1, BlackBirdSR, mat, Kartoffelsalat, Supa, zeckensack, warper, Aragorn2k3, Kyro2man, dead, Axel, Demirug, dsausk, apollo, Eusti, wowbagger, Dondy, Vertex, Hauwech, MeLLe, Endorphine, Evil_Duran, Katrin, Kobalt, X-Dragon, LRP, Raff, Nase, dildo4u, Omnicron, Dr. Greenthumb, Matman, LovesuckZ)

Ob die alle nur wegen der FX hier sind?:D

da fehlt doch wer: THILO WO BIST DU

Axel
2003-01-26, 12:35:47
Originally posted by LovesuckZ


Ob die alle nur wegen der FX hier sind?:D

Was hier erst los sein wird, wenn Leo diesen Thread in den news erwähnt.

Unregistered
2003-01-26, 12:36:15
Originally posted by LovesuckZ
(Users Browsing this Forum: VoodooJack, MegaManX4, nagus, nggalai, Korak, Blackhawk-Second, kadder, Iceman346, mapel110, HiddenGhost, davidzo, christoph, Richthofen, Metatron1, BlackBirdSR, mat, Kartoffelsalat, Supa, zeckensack, warper, Aragorn2k3, Kyro2man, dead, Axel, Demirug, dsausk, apollo, Eusti, wowbagger, Dondy, Vertex, Hauwech, MeLLe, Endorphine, Evil_Duran, Katrin, Kobalt, X-Dragon, LRP, Raff, Nase, dildo4u, Omnicron, Dr. Greenthumb, Matman, LovesuckZ)

Ob die alle nur wegen der FX hier sind?:D

hehehe ich bin ein kleiner Unreg heute, muss mich erst wieder einloggen.
Übrigens ich habe mal gerade zum Joke eine Minute gewartet.
Dann waren es 46 Views mehr.

Gruss Labberlippe

Endorphine
2003-01-26, 12:36:29
Originally posted by LovesuckZ
(Users Browsing this Forum: VoodooJack, MegaManX4, nagus, nggalai, Korak, Blackhawk-Second, kadder, Iceman346, mapel110, HiddenGhost, davidzo, christoph, Richthofen, Metatron1, BlackBirdSR, mat, Kartoffelsalat, Supa, zeckensack, warper, Aragorn2k3, Kyro2man, dead, Axel, Demirug, dsausk, apollo, Eusti, wowbagger, Dondy, Vertex, Hauwech, MeLLe, Endorphine, Evil_Duran, Katrin, Kobalt, X-Dragon, LRP, Raff, Nase, dildo4u, Omnicron, Dr. Greenthumb, Matman, LovesuckZ)

Ob die alle nur wegen der FX hier sind?:D
Wir wollen doch alle noch schnell unsere 9700er und 9700 Pro zu einem guten Preis bei eBay abstossen, wenn die GF fx ein durchschlagender Erfolg wird ;)

Fullover
2003-01-26, 12:37:13
Originally posted by Unregistered


da fehlt doch wer: THILO WO BIST DU Der arbeitet gerade die PMs ab mit denen er zugespamt wurde! ;) :D

Unregistered
2003-01-26, 12:37:44
Originally posted by Endorphine

Wir wollen doch alle noch schnell unsere 9700er und 9700 Pro zu einem guten Preis bei eBay abstossen, wenn die GF fx ein durchschlagender Erfolg wird ;)

Bevor Ihr die alten Krempel "wegschmeisst", werde ich mich erbarmen und diese für euch in meinen Wohnzimmer entsorgen. :D

Gruss Labberlippe

Dr. Greenthumb
2003-01-26, 12:37:47
Originally posted by Unregistered


da fehlt doch wer: THILO WO BIST DU

Nich das der jetzt nen neuen Thread aufmacht und wir kriegen hier nix mit!! Also 2. Fenster und auch das ständig überprüfen ;-)

Liquaron
2003-01-26, 12:37:56
Gut das ich vor 4 Tagen meine Bestellung für die Radeon 9700 pro noch storniert habe.
Somit kann ich mich jetzt genüßlich auf die Geforce FX freuen.:D

Rampage 2
2003-01-26, 12:38:22
Originally posted by PCGH_Thilo



irgendwelche wünsche, was ich testen soll?

Es wäre nett wenn du SoF2 (SinglePlayer) benchen würdest. Bei max.
Quality und 1600x1200x32Bit mit 4xAA und 8xtriAF. Am besten folgendes
Level: (Konsole öffnen und eingeben): map col4

Biervampir
2003-01-26, 12:39:29
wart...wart...

Unregistered
2003-01-26, 12:40:41
Originally posted by Liquaron
Gut das ich vor 4 Tagen meine Bestellung für die Radeon 9700 pro noch storniert habe.
Somit kann ich mich jetzt genüßlich auf die Geforce FX freuen.:D

Hehe, also was du schreibst liest eh keiner mehr.:D

Liquaron
2003-01-26, 12:41:02
Boah ich würde jetzt gerne sehen wie alle gespannt auf ihren Monitor schauen. Mit weit geöffneten Augen.
Immer ihren Finger auf dem aktualisier Button.
Muhaha was für eine Knisterstimmung.

Wir warten auf das Christkind ähhh Thilo

Endorphine
2003-01-26, 12:41:23
Originally posted by PCGH_Thilo
irgendwelche wünsche, was ich testen soll?
Und für mich bitte auch America's Army: Operations, wenn das möglich wäre. Das läuft auf meiner 9700er nämlich nur sehr bescheiden :-/

Fullover
2003-01-26, 12:42:04
@ Thilo:
Lass uns bitte nicht im Stich! :)

RedPhoenix
2003-01-26, 13:00:15
Mal noch ne frage: wie läuft bei euch rallysport challenge und wo habt ihr des her? ms cancelt mir nach 70% oder so immer den download...

StefanV
2003-01-26, 13:00:35
Originally posted by Metatron1
und nicht zu Vergessen das die VIDEO Shader von der R300 auch bald richtig genutzt werden wie z.b. DivX,.....
Noch etwas was man mit der R300 zusätzlich machen kann.;)


Gruß
Meta

Richtig und somit bietet die Radeon 9500/9700 'etwas' Mehrwert, wovon man zwar JETZT nicht profitiert aber in ~2 Jahren, wenn die Karte für kein Game mehr taugt...

Labberlippe
2003-01-26, 13:01:57
Hi

Menschenskinder hört auf mit den Schwachsinn, ist ja schön das wir uns hier die Zeit mit einigen Postingstotschlagen.
Aber komplett am Thema vorbei posten muss nicht sein, gibt ja noch geneug andere Kategorien hier.

Gruss Labberlippe

StefanV
2003-01-26, 13:03:24
Originally posted by Salvee


MrB, der 0wn3r ;) von Rage3D, hat es bestätigt. Da es sich um ein PS-Programm handelt, und die NV30 PS all das beherrschen, was die R300 PS können (und noch ein 'wenig' mehr), sollte es technisch kein Problem sein.

Link (http://www.beyond3d.com/forum/viewtopic.php?t=3866)

gibt nur 'ein paar Probleme':

1. das ganze muß auch per Treiber implementiert sein.
2. das ganze muß von der Software unterstützt werden.
3. die Turbine der GF FX...

Alles in allem glaub ich nicht, daß NV das soo schnell anbieten wird...

BTW: kann ja auch sein, daß ATI dem PS ein paar zusätzliche Transis spendiert hat, damit Video Shader möglich sind :)

Meta
2003-01-26, 13:03:31
Labberlippe hat recht also wieder zum Thema;

Denkt ihr mit einer GFX kann ich meine Zentralheizung abschalten, das wär supersparsam net...

Labberlippe
2003-01-26, 13:05:25
Hi

Ich erwarte mir perslönlich schon eine fette Leistung von der FX.
Schon alleine deswegen weil dieses Teil eine Fette Fillrate hat.
Wenn die Karte nur ca. 20% schneller ist, bin ich ehrlich gesagt bitter entäuscht.

Gruss Labberlippe

Meta
2003-01-26, 13:07:16
Auf die genaue Fillrate und deren Auswirkung bin ich auch schon voll gespannt, bei der Taktung muss sie alles bisherige sprengen...

Liquaron
2003-01-26, 13:08:37
wird sie jetzt eigentlich 450 Euro kosten oder doch mehr?
Und wann sollen denn nun die ersten Karten erscheinen?
Kann man sie in Deutschland schon irgendwo vorbestellen?

Demirug
2003-01-26, 13:08:45
Originally posted by Stefan Payne


gibt nur 'ein paar Probleme':

1. das ganze muß auch per Treiber implementiert sein.

Ja Pixelshader müssen schon vom Treiber unterstützt werden. Aber ansonsten ist der Einsatz von Pixelshader in der Videowiedergabe ein VMR9 Feature.

2. das ganze muß von der Software unterstützt werden.
Ja man braucht einen VMR9 tauglichen Playersoftware.

3. die Turbine der GF FX...
Ja das könnte zum Problem werden. Time will tell

Alles in allem glaub ich nicht, daß NV das soo schnell anbieten wird...

Das kann nur NV beantworten.

BTW: kann ja auch sein, daß ATI dem PS ein paar zusätzliche Transis spendiert hat, damit Video Shader möglich sind :)

Wenn die PS 1.4 dafür reichen dann geht es mit den PS 2.0+ erst recht.

Labberlippe
2003-01-26, 13:10:58
Hi

Ich glaube eher das die eine Art Weichzeichner einfach über das Video File legen.
Die Frage ist nur wie wirkt sich das auf die Bildschärfe aus.
Leider gibt es ja noch nichts was man testen kann.
Hat jemand eigentlich schon einmal Fullstream getestet. ???

Gruss Labberlippe

Winter[Raven]
2003-01-26, 13:13:57
@ Shakiro ... und wie willst du den speicher kühlen?
Ha, ich kann mir wirklich net vorstellen dass dieser so heißt wird, dass man ihn unter den Umständen kühlen muss unter dennen Nvidia das tut, es ist viel mehr die Lüfter Architektur die auch über die Speicher geht. Bei mir Läufen die Speicher auf meiner MSI GF 4ti4600 bei 750 mhz OHNE kühle, und werden minemal warm.

Wenn die WaKü ausreicht und du den Kühler ohne Probleme abmontieren kannst.

Jap, es ist möglich, vor paar Tagen gab es ein Interview mit Nvidia wo de Frage kamm, was Nvidia über Wakü's denke, und den einsatz auf GF FX, da meinte Nvidia das sie es den Drietherstellern überlassen werden. Die schlussfolgerung: es ist möglich.

Unregistered
2003-01-26, 13:17:07
Irgendwas haut bei den Benchmarkwerten nicht hin:

Gepostete Werte von Thilo:
9700Pro Ti4600
Flyby 201 170
Botmatch 71 71
Flyby 110 65 4:1 AF 2xAA
Botmatch 65 65 4:1 AF 2xAA

Werte aus PCGH 2/2003
Flyby 204 150
Botmatch 74 70
Flyby 104 53 4:1AF 2xAA
Botmatch 65 38 4:1AF 2xAA

Der einzigste Unterschied den ich entdecken konnte war die Version von UT2003, V.2166 und V.2163.
Wie kann es sein, das die Ti4600 so mächtig zulegen kann. 27Fps mehr in Qualitätseinstellungen beim Botmatch(Über 40Prozent mehr). 12Fps mehr bei Flyby Qualitätseinstellungen(fast 20Prozent mehr). Und 20Fps mehr bei Flyby normale Einstellungen. Das kann man doch nicht unter Messfehler werten. Da sich die anderen in der Messtoleranz befinden.

StefanV
2003-01-26, 13:20:40
Originally posted by Unregistered
Irgendwas haut bei den Benchmarkwerten nicht hin:

Gepostete Werte von Thilo:
9700Pro Ti4600
Flyby 201 170
Botmatch 71 71
Flyby 110 65 4:1 AF 2xAA
Botmatch 65 65 4:1 AF 2xAA

Werte aus PCGH 2/2003
Flyby 204 150
Botmatch 74 70
Flyby 104 53 4:1AF 2xAA
Botmatch 65 38 4:1AF 2xAA

Der einzigste Unterschied den ich entdecken konnte war die Version von UT2003, V.2166 und V.2163.
Wie kann es sein, das die Ti4600 so mächtig zulegen kann. 27Fps mehr in Qualitätseinstellungen beim Botmatch(Über 40Prozent mehr). 12Fps mehr bei Flyby Qualitätseinstellungen(fast 20Prozent mehr). Und 20Fps mehr bei Flyby normale Einstellungen. Das kann man doch nicht unter Messfehler werten. Da sich die anderen in der Messtoleranz befinden.

Damit mans besser lesen kann :)

Omnicron
2003-01-26, 13:20:50
Originally posted by Unregistered
Irgendwas haut bei den Benchmarkwerten nicht hin:

Gepostete Werte von Thilo:
9700Pro Ti4600
Flyby 201 170
Botmatch 71 71
Flyby 110 65 4:1 AF 2xAA
Botmatch 65 65 4:1 AF 2xAA

Werte aus PCGH 2/2003
Flyby 204 150
Botmatch 74 70
Flyby 104 53 4:1AF 2xAA
Botmatch 65 38 4:1AF 2xAA

Der einzigste Unterschied den ich entdecken konnte war die Version von UT2003, V.2166 und V.2163.
Wie kann es sein, das die Ti4600 so mächtig zulegen kann. 27Fps mehr in Qualitätseinstellungen beim Botmatch(Über 40Prozent mehr). 12Fps mehr bei Flyby Qualitätseinstellungen(fast 20Prozent mehr). Und 20Fps mehr bei Flyby normale Einstellungen. Das kann man doch nicht unter Messfehler werten. Da sich die anderen in der Messtoleranz befinden.


Weisst du denn ob genau dasselbe System zum Testen benutzt wurde ?
Oder was für Detonatorversionen ?

Unregistered
2003-01-26, 13:21:12
Mmhh

entweder es liegt an den noch nicht ganz fertigen Treibern oder die Einstellungen sind nicht optimal

zumindest verspricht die FX doch eigentlich mehr als diese Benchmarks vermuten lassen ^^

naja ich hoffe auf ein unfangreiches Feedback in der PCHW ^^

Unregistered
2003-01-26, 13:24:10
Genau das selbe System: XP2600+, NForce2 , 512MB Ram
Die hatten erst in der Ausgabe 2/2003 ihr Testsystem umgestellt.
Glaub nicht das die das wieder geändert haben.

nagus
2003-01-26, 13:24:18
@Thilo: laufen die DX9 demos von ATI auf der GFFX?

btw, chameleon-mark von nvidia wäre auch ínteressant: http://www.nvidia.com/view.asp?io=demo_chameleonmark

PS: ich hoffe du kannst uns ergebnisSe mit 4xfsaa und 8xTriAf liefern. wäre echt spitze. danke!

mapel110
2003-01-26, 13:27:15
ich will nur einen wert bei 1600x1200x32 4xAA 8xAF, egal was !!!
der rest is kokolores. ich will das bandbreitenlimit sehen =)

nggalai
2003-01-26, 13:29:54
Originally posted by Liquaron
wird sie jetzt eigentlich 450 Euro kosten oder doch mehr?
Und wann sollen denn nun die ersten Karten erscheinen?
Kann man sie in Deutschland schon irgendwo vorbestellen? LOL

Du bist ja gierig. :D

Also, ich schätze mal mit einem Preis von €500-550--die $399 Listenpreis sind ohne Mehrwertssteuer, und Import darf man ja auch noch zahlen.

Aber willst Du dir wirklich gleich eine der ersten Karten holen gehen? Ich seh' das eher so, dass man mal ein, zwei Monate auf echte User-(Problem-)Berichte warten sollte, besonders bei so teurer Hardware . . .

Bei mir kommt die GFFX höchstens dann in den PC, nachdem ich das Ding live gesehen resp. GEHÖRT habe. Ich mach' das ähnlich wie Labberlippe, i.e. bei mir läuft der PC praktisch ständig, ich schau DVD, mache Musikbearbeitung etc. Da muss ich schon auch mitm Geräusch klar kommen, sonst bringt mir die ganze Mehrleistung nix . . .

Thilo, könntest Du den Fön nicht mal aufnehmen, so mit Gespräch im Hintergrund, und auf die Heft-CD pappen? :D

ta,
-Sascha.rb

Unregistered
2003-01-26, 13:31:54
wo is jetzt thilo?

Fullover
2003-01-26, 13:33:07
@ Thilo:
Wenn du vielleicht noch Zeit hast dann bite auch noch den Codecreatures-Benchmark durchlaufen lassen...

Exxtreme
2003-01-26, 13:39:38
Armer Thilo ist bestimmt mit PMs zugeschüttet worden.

Und es fehlen noch mind. 11 Leute um den Userrekord zu brech0rn. :)

davidzo
2003-01-26, 13:40:03
Um zum Diskussionsthema zurückzukehren:

-Ich denke auch, das der föhn seinen Stromverbrauch und Platzverbrauch nicht rechtfertigen kann... wenn man mal die These mit der Zentralheizung herauslässt, das wäre ja Recycling, wo kommen wir denn da hin, erst Dosenpfand und dann lärmende Heizungen in den Computer integriert...
-Das mit dem übertakten fand ich unfair... ich kenne keine Karte von nv, die alten MXe und TNTs mal augenommen, die man bei 50° Umgebungstemperatur noch benutzen kann. Also ist der Vorschlag die Radeon und die FX mal bei 50° zu testen und dann zu oceen sowieso absurd. Tatsache ist doch, das Computer in Israel ja recht beliebt sind... jedoch nvidia karten dort nur in Räumen mit starker Klimaanlage zu nutzen sind. In Spanien verkaufen die fast nur ATI, weil sich das andere net lohnt weils sowieso niemand mehr haben will und dauernd RMA anfragen kommen. Es ist und allen klar, das nv so ziemlich keine Ahnung von Abwärmedesign hat, was allerdings damit zu entschuldigen ist, das sie wenigstens ne angemessene Rohleistung bringen.


Um weiter zu spekulieren:
-Shakiro, deine posts sind ziemlich Wirr und unüberlegt. Entweder du hast keine Ahnung oder du bist nen extremer nv fanatiker. Der R400 wird wohl erst im Q3 bis Q4 kommen und ist überhaupt nicht als NV35 Gegner gedacht. Er soll wohl DX10 beherrschen und über grobe Konstruktionsmerkmale ist noch nichts bekannt, er wird außerdem wie es ATI immer tut von einem ganz anderen Team entwickelt... ich tippe mal auf das Radeon8500 Team das schon lange nichts mehr hatte. ATI entwickelt immer parallel, als der 8500 rauskam hat das Flipper Team vom game Cube an dem R300 gearbeitet... demnach wird die Architekjtur schätzungsweise ziemlich wenig mit dem jetzigen r300 gemeinsam haben. (alles Spekulation)
Aufgrund dieser tatsache und der Tatsache, dass nv nicht so einfach von 4x32 auf 4x64 oder sogar auf 8x32 umsteigen kann, ist dein posting der NV35 würde den R400 wegrulen völlig unqualifiziert. Wir wissen bis jetzt noch nichts und deswegen bitte ich dich nicht mehr auf unsicheren tatsachen irgendeine, noch dazu falsche, Propaganda zu machen.
-Dann nochmnal zu der Behauptung ATI würde immer Neuaufgüsse ihrer Chips machen... damit beißt ihr euch ins eigene bein: Ich möchte mal vor Augen führen, welcher Hersteller bis jetz immer mit Neuaufgüssen zur Stelle war:
Die Geforce 256 war eine komplette Neuentwicklung (wenn man mal von den gestohlenen patenten von 3dfx absieht)
Sie wurde noch jahre später für etliche andere Produkte missbarcuht: höhergetacktet kamen Geforce 2 versionen, Ultra, GTS, PRO, TI und was fürn wirrwar nicht noch. Später wurde dieselbe Architektur sogar noch für eine Gf4 MX benutzt (!!)
Bei der GF3 siehts ähnlich aus, kurz: Gf3 -> Gf3ti200 + Gf3ti500 -> Gf4ti series
Diesen Marketingschwidnel hat ATI bis vor kurzem nicht betrieben, sie brachten pünktlich im jahresabstand einen neuen Chip heraus (Radeon, Radeon 64 DDR, Radeon 8500, Radeon 9700 sogar verfrüht) Leider leider haben sie von ihrem konkurrenten nv seit etwa der Radeon 8500 dazugelernt und betreiben ähnlichen labelschwindel wie nv, doch nicht so extrem in diesem Maße... mehr als 2 Generationen hat ATI noch net Geschwindelt (schlimm genug!) nv im Gegensatz ganze 4 Generationen (Gf4MX).
Die Aussage ATI wird nur noch Neuaufgüsse des R300 machen halte ich deswegen für eine schnöde Wunschvorstellung und für disqualifiziert!
- Zu den Chancen des R350 vs NV35: Der R350 wird wohl probleme haben mit dem takt, das gebe ich zu, dennoch wird es wohl möglich sein einen takt von 500mhz und mehr zu verwirklichen, was man an den z.t. stark übertakteten R300 karten sieht. Durch ein redesign des Chips und eine ebensostarke Kühlung wird 500 wohld rin sein. Der Speicher muss nur im takt erhöht werden, was technisch überhaupt kein problem ist, die vorraussetzungen bietet schon der R300. Dank DDRII wird es möglich sein einen 256bittiges Interface mit 500mhz Speicher zu betreiben, was weit über 30GB/s bringt und den effizienznachteil ausgleicht, der sowieso mit treibern gebessert werden kann. Wenn man soweiso schon (am übertakteten Beispiel einer 9700) sieht das die Radeon Architektur eine höhere Efiizienz pro mhz hat, gehe ich von Top Werten aus und kein prob nen nv30 oder gar nv 35 zu schlagen. Alles reine spekulation!
nv dagegen steht vor einem Engpass: Die renderleistung ist ja schön und gut, jedoch wenn man die kühlung ansiht wir dman sich fragen ob dort noch mehr mhz rauszuholen sind. Andersherum beim speicher: 256bit benötigt so starke modifikationen am layout das man gleich ein völlig neus machen könnte wozu nv keine zeit hat. Höher takten geht wohl nicht mehr, dann wird der speicher unbezahlbar. 8x32 wird nicht nur extrem teuer sondern wohl wirklich eine neue ATX spezifikation bedeuten, da die karte dann echte Probleme hätte, nicht größer als das heutzutage genehmigte fullzisemaß zu werden.
Bitte nehmt das als reine Spekulation auf und als Antwort auf provokante Gröhlsprüche auf, die hier einfach ohne Begründung hereingeworfen wurden!


Bin gespannt auf die neuen Benches oder sogar ob der Liebe libe *schleim* Thilo überhaupt noch welche postet.
Bitte bitte Thilo *auf Knien fleh* ich kaufe auch dein Heft und sage nie wieder was dagegen!

Labberlippe
2003-01-26, 13:40:12
Originally posted by nggalai
LOL

Du bist ja gierig. :D

Also, ich schätze mal mit einem Preis von €500-550--die $399 Listenpreis sind ohne Mehrwertssteuer, und Import darf man ja auch noch zahlen.

Aber willst Du dir wirklich gleich eine der ersten Karten holen gehen? Ich seh' das eher so, dass man mal ein, zwei Monate auf echte User-(Problem-)Berichte warten sollte, besonders bei so teurer Hardware . . .

Bei mir kommt die GFFX höchstens dann in den PC, nachdem ich das Ding live gesehen resp. GEHÖRT habe. Ich mach' das ähnlich wie Labberlippe, i.e. bei mir läuft der PC praktisch ständig, ich schau DVD, mache Musikbearbeitung etc. Da muss ich schon auch mitm Geräusch klar kommen, sonst bringt mir die ganze Mehrleistung nix . . .

Thilo, könntest Du den Fön nicht mal aufnehmen, so mit Gespräch im Hintergrund, und auf die Heft-CD pappen? :D

ta,
-Sascha.rb

Volle Zustimmung.

Ich sehe es nicht ein, das ich jetzt wo ich meinen PC in Mühevoller Arbeit als Multimedia System eingerichtet habe ich das ganze wieder splitten soll.
A: Weil die Musikindustrie so super CDs haben was am PC eine Frechheit ist.
B: Geräte einbauen welche eine Lautstärke von einer Turbine haben.
(wobei die Frage ist ob die FX wirklich eine Art Fön ist. :D)

Ich Frage mich allerdings ob man die FX überhaupt Lautstärke mässig dämmen kann.
Auch wenn der PC gedämmt ist, wird das egal sein, da die Karte ja hinten rausbläst.
Und einfach zu stopfen ist nicht.

Gruss Labberlippe

x-dragon
2003-01-26, 13:49:25
Originally posted by Labberlippe
...

Ich Frage mich allerdings ob man die FX überhaupt Lautstärke mässig dämmen kann.
Auch wenn der PC gedämmt ist, wird das egal sein, da die Karte ja hinten rausbläst.
Und einfach zu stopfen ist nicht.

Gruss Labberlippe Wie wärs mit einer Schallschluckenden Dämmmatte hinter dem PC (mit ein wenig Freiraum natürlich)? Ok die müsste vielleicht etwas dicker sein, aber grundsätzlich könnte es ganz gut funktionieren :).

Der Leisetreter
2003-01-26, 13:53:10
Ne der Rechner kommt gleich in meinen schalldichten Serverraum, gearbeitet wird dann nur noch ueber Terminal im Nebengebauede.
Ich weiss gar nicht was ihr alle wollt. :D

Korak
2003-01-26, 13:56:23
Originally posted by Der Leisetreter
Ne der Rechner kommt gleich in meinen schalldichten Serverraum, gearbeitet wird dann nur noch ueber Terminal im Nebengebauede.
Ich weiss gar nicht was ihr alle wollt. :D

:lol:

Katrin
2003-01-26, 13:56:43
Originally posted by Der Leisetreter

Ich weiss gar nicht was ihr alle wollt. :D

Auch mal gamen ohne stöpsel

;D

HiddenGhost
2003-01-26, 13:57:08
Originally posted by Labberlippe
Und einfach zu stopfen ist nicht.

Gruss Labberlippe

Wieso, probieren könnte man es ja... ;D


Zum Thema: Mich würden ehrlich gesagt mehr Benches ab einer Res. 1280x960 aufwärts interessieren, da man IMO nur bedignt differenzieren kann zwischen CPU und GPU-Limits, die eine neue Karte so hat...
natürlich mit höheren FSAA und AF Stufen die in er Praxis auch wirklich optisch was bringen. Will heißen, einfach mal die Graka bis an die Grenzen ausperformen, besonders interesannt halt bei den die Mix FSAAs, bis der Verlust beginnt gröer zu werden..

In den anderen Punkten kann ich mich nur anschließen. Vonr einer Karte die mehr als 250 Euro kostet, erwarte ich nicht nur entsprechende 3D Performonce, sondern auch erstklassige 2D Werte. Mir ist dabei niht nu der TV Out wichtig, sondernalle Komponenten, die etwas mit der Bildquali zu tun haben. Ramdac/Signalquali, /DA Wandler, DVD und entscheident die Lautstärke.

Die nächste Frage die ich mir stelle ist die Frage nach der wirklichen Performance... hat die FX wenniger Performance pro Takt wie eine R300 und ist die FX bereits am Thermischen limit angelangt, so dass man sie nicht mal mehr ocen kann ???

mfg

Spacer78
2003-01-26, 13:57:52
Es fehlen nur noch 10.
Man bin ich gespannt, was die FX zu leisten vermag?
Ein paar 3D Mark Werte wären nicht schlecht , 1600*1200 mit maximal AA und AF. Oder wie wärs mit Nolf2? Das Spiel scheint die Grafikkarte noch mehr ins Schwitzen zu bringen als UT2003.Und nur das ist interessant.

Gerhard
2003-01-26, 14:00:41
Sorry falls das hier schon gestanden ist, aber auf welcher Einstellung war den der "Performance" Regler ?
Meiner Meinung nach würde ein Grafikkartenvergleichstest nur sinn machen wenn dieser auf Application steht (falls bei der FX die Einstellung noch gleich heisst).

Winter[Raven]
2003-01-26, 14:04:37
Shakiro, deine posts sind ziemlich Wirr und unüberlegt. Entweder du hast keine Ahnung oder du bist nen extremer nv fanatiker.

Ohh .. meno ... Ich bin das letzte, der NV Fanatiker ... ;) Ne, ich fühle mich net shuldig, die ATI Freaks machen hier faxen und dann sind NV Lieblinge dann schuld. sorry das ist ber nicht logisch ... :)

Muh-sagt-die-Kuh
2003-01-26, 14:06:42
Originally posted by Spacer78
Oder wie wärs mit Nolf2? Das Spiel scheint die Grafikkarte noch mehr ins Schwitzen zu bringen als UT2003.Und nur das ist interessant. Bei UT2003 liegt das am Detailreichtum, bei NOLF2 eher an der schrottigen Engine ;)

nagus
2003-01-26, 14:07:45
Originally posted by Muh-sagt-die-Kuh
Bei UT2003 liegt das am Detailreichtum, bei NOLF2 eher an der schrottigen Engine ;)


schrottigen Engine ?!?!?!?!

Aquaschaf
2003-01-26, 14:09:05
zur pro takt leistung :
die Geforce FX besitzt einen 54% höheren takt als die 9700 Pro .
Damit ergibt sich eine höhere Pro Takt leistung für die 9700 Pro .
Wenn es mehr benches gibt möcht ich mal gerne ausprobieren ob man die 9700 Pro durch übertakten auf eine höhere geschwindigkeit bekommt als die FX ;) ... mich würde auch mal gerne interessieren ob sich die FX in irgendeiner Form noch etwas übertakten lässt :D
was habt ihr alle gegen die Engine von NOLF 2 ??
das spiel ist genial , die grafik auch und es läuft auf 1600x1200 absolut problemlos ...

HiddenGhost
2003-01-26, 14:09:26
Originally posted by Shakiro


Ohh .. meno ... Ich bin das letzte, der NV Fanatiker ... ;) Ne, ich fühle mich net shuldig, die ATI Freaks machen hier faxen und dann sind NV Lieblinge dann schuld. sorry das ist ber nicht logisch ... :)
:nono:
Ähm, sry, aber was erwartest du bei einem so brisantem Thmea ? Dass die raidkaleren Fornten außen vor bleibenals die relativ neutralen ? Jezz bitte ich dich aber ... ;)

nagus
2003-01-26, 14:12:10
Originally posted by Aquaschaf
zur pro takt leistung :
die Geforce FX besitzt einen 54% höheren takt als die 9700 Pro .
Damit ergibt sich eine höhere Pro Takt leistung für die 9700 Pro .
Wenn es mehr benches gibt möcht ich mal gerne ausprobieren ob man die 9700 Pro durch übertakten auf eine höhere geschwindigkeit bekommt als die FX ;) ... mich würde auch mal gerne interessieren ob sich die FX in irgendeiner Form noch etwas übertakten lässt :D

das hab ich doch schon gezeigt:


" .......
die tatsächliche framerate liegt ca. um 5% höher.

ich hatte nämlich bei den ersten durchläufen "Precacheing" deaktiviert!!! das ist standardmäßig aber EIN.

genauere werte folgen. aber auf 398/754 hab ich ~ 150fps(P4 2.4GHZ) vs 143fps GFFX und ~ 125 @ default clock und 2.4GHz.

.....

Katrin
2003-01-26, 14:18:48
Originally posted by nagus


das hab ich doch schon gezeigt:


" .......
die tatsächliche framerate liegt ca. um 5% höher.

ich hatte nämlich bei den ersten durchläufen "Precacheing" deaktiviert!!! das ist standardmäßig aber EIN.

genauere werte folgen. aber auf 398/754 hab ich ~ 150fps(P4 2.4GHZ) vs 143fps GFFX und ~ 125 @ default clock und 2.4GHz.

.....

wie schaffst du eigentlich 125@ default clock und 2400MHz?

Ich schaffe gerade mal 116 mit

p4@3040
RAM@PC413 2-2-2-6
9700pro@364/660

welchen Treiber hast du drauf ?

Katrin

HiddenGhost
2003-01-26, 14:19:13
Das läßt wirklich darauf schließen, dass eine R350 mit einem mehr Temperaturoptimiertem Design (hier un dar paar Transis. mehr (vgl. kyro2) der GFfx ein parolie bieten dürfte dürfte.

Endorphine
2003-01-26, 14:20:07
Originally posted by nagus
ich hatte nämlich bei den ersten durchläufen "Precacheing" deaktiviert!!! das ist standardmäßig aber EIN.

Ja natürlich ist es aktiviert, warum sollte man es bei Karten mit 128 MB Speicher auch deaktivieren?!? Das verfälscht doch das Ergebnis nur.

Achill
2003-01-26, 14:20:45
ich finde, wir können uns eh alle erst eine meinung bilden, wenn man die bildqualität mit einbeziehen kann...

http://www.hardtecs4u.com/reviews/2003/sapphire_r9700pro/index19.php

halt sowas in der Art bei jedem Benschmark... und man sieht, es ist nicht gerechtfertigt, die ATI-Karte mit 16xAF gegen eine NV-karte bei 8xAF zu benchen, mit der begründung, das ATI's 16xAF erst an das 8xAF von NV heran kommt... aber seht lieber selbst.

Xanthomryr
2003-01-26, 14:23:03
Puh, was für ein Thread.
Thx an Thilo für die Infos und ein goßes Lob an alle andern, hätte nicht gedacht das es mal ohne geflame gayt.

@Leo, schnell hin zum Thilo die Karte borgen. ;)

dead
2003-01-26, 14:23:59
Originally posted by X-Dragon
Wie wärs mit einer Schallschluckenden Dämmmatte hinter dem PC (mit ein wenig Freiraum natürlich)? Ok die müsste vielleicht etwas dicker sein, aber grundsätzlich könnte es ganz gut funktionieren :).

aber Vorsicht dabei, der Wärmetauscher sitzt in der Nähe des 'Auspuffs',
wenn man den Durchsatz dort zusehr reduziert gibt es schnell einen netten Wärmestau!

gruß.

LovesuckZ
2003-01-26, 14:24:05
Auf Computerbase gibt es mehr Vergleichsbilder. Und ATI's AF ist mit 16AF nicht besser als Nvidia mit ihrem 8AF. Manchmal sogar noch schlechter,

Unregistered
2003-01-26, 14:24:40
Originally posted by HiddenGhost
Das läßt wirklich darauf schließen, dass eine R350 mit einem mehr Temperaturoptimiertem Design (hier un dar paar Transis. mehr (vgl. kyro2) der GFfx ein parolie bieten dürfte dürfte.

Die R350 wird mit der FX kurzen Prozess machen! Und das lautlos!
Parolie bietet sie 9700pro schon...

Unreg

nagus
2003-01-26, 14:24:40
Originally posted by Katrin


wie schaffst du eigentlich 125@ default clock und 2400MHz?

Ich schaffe gerade mal 116 mit

p4@3040
RAM@PC413 2-2-2-6
9700pro@364/660

welchen Treiber hast du drauf ?

Katrin

vielleicht hast du nicht den richtigen UT2003 patch drauf?
btw, ich benutzte den 6275 treiber.


PS: @ 425/780 schaffe ich sogar über 158fps! (vs GFFX 500/1000 143fps)

Aquaschaf
2003-01-26, 14:25:34
Wenn ich das im Taschenrechner durchtippe hat die Geforce FX beim Flyby mit 8xAF und 2xFSAA 84,5% der Pro MHZ Leistung der 9700 Pro .
Eine 9700 Pro @430MHZ sollte eigentlich in der Lage sein die FX in ihre Schranken zu verweisen :D

nagus
2003-01-26, 14:30:45
Originally posted by Achill
ich finde, wir können uns eh alle erst eine meinung bilden, wenn man die bildqualität mit einbeziehen kann...

http://www.hardtecs4u.com/reviews/2003/sapphire_r9700pro/index19.php

halt sowas in der Art bei jedem Benschmark... und man sieht, es ist nicht gerechtfertigt, die ATI-Karte mit 16xAF gegen eine NV-karte bei 8xAF zu benchen, mit der begründung, das ATI's 16xAF erst an das 8xAF von NV heran kommt... aber seht lieber selbst.

"....Nach Betrachtung der MipMap Stufen müssen wir ATi erneut den Siegerpokal in die Hand drücken, da die Texturen in der Ferne laut den Screenshots noch detailreicher sind als bei der Konkurrenz von nVIDIA. Die Frage ist allerdings, in wie weit der Unterschied in der Praxis auch auffallen wird. Höchstens bei großen Außenarealen dürfte man einen Unterschied zugunsten des ATi Chips wahrnehmen können. Insofern ist der AF bei dem R300 Chip besser als bei dem NV25 Chip, die Unterschiede sind aber nicht so deutlich wie beim trilinearen Filter...."

cool. soviel zum thema NVidias AF ist schöner als ATis methode.

Muh-sagt-die-Kuh
2003-01-26, 14:31:56
Originally posted by nagus



schrottigen Engine ?!?!?!?! Für das was die Engine leistet frisst sie viel zu viele Resourcen, besonders CPU Leistung.

Was mir persönlich besonders negativ auffällt ist, dass sie im Freien meist sehr gut läuft, aber innerhalb von Gebäuden zu rucklern neigt, obwohl die Ansprüche an CPU und Grafikkarte hier eigentlich deutlich niedriger sein sollten.

Muh-sagt-die-Kuh
2003-01-26, 14:33:13
Originally posted by nagus


das hab ich doch schon gezeigt:


" .......
die tatsächliche framerate liegt ca. um 5% höher.

ich hatte nämlich bei den ersten durchläufen "Precacheing" deaktiviert!!! das ist standardmäßig aber EIN.

genauere werte folgen. aber auf 398/754 hab ich ~ 150fps(P4 2.4GHZ) vs 143fps GFFX und ~ 125 @ default clock und 2.4GHz.

..... Kannst du mir einen gefallen tun und nochmal mit 400/620 messen....ich würde gerne wissen, inwieweit der Chiptakt allein die Leistung bei diesen Setting beeinflusst.

HiddenGhost
2003-01-26, 14:35:27
Originally posted by Unregistered


Die R350 wird mit der FX kurzen Prozess machen! Und das lautlos!
Parolie bietet sie 9700pro schon...

Unreg

Nach den ersten Werten ist die FX ein wenig schneller als die R300. Also noch kein Unentschieden... dau fehlen halt noch die Werte um näheres zu sagen!!

Labberlippe
2003-01-26, 14:35:28
Hi

Thilo, Thilo, Thilo.....

So jetzt aber genug mit Anfeurungssprüchen. :D

Gruss Labberlippe

robbitop
2003-01-26, 14:35:41
ja da wo dann mal maximal gefiltert wird, stimmt das sicher, nur was ist mit den anderen Winkeln? Dr Gesamteindruck machts...

zur TaktLeistung: die R300 hat 256bit DDR Interface

Schwäche der GF FX: Fön und OG AA ab 4x

ow
2003-01-26, 14:37:08
Originally posted by nagus


"....Nach Betrachtung der MipMap Stufen müssen wir ATi erneut den Siegerpokal in die Hand drücken, da die Texturen in der Ferne laut den Screenshots noch detailreicher sind als bei der Konkurrenz von nVIDIA. Die Frage ist allerdings, in wie weit der Unterschied in der Praxis auch auffallen wird. Höchstens bei großen Außenarealen dürfte man einen Unterschied zugunsten des ATi Chips wahrnehmen können. Insofern ist der AF bei dem R300 Chip besser als bei dem NV25 Chip, die Unterschiede sind aber nicht so deutlich wie beim trilinearen Filter...."

cool. soviel zum thema NVidias AF ist schöner als ATis methode.

:rofl:

Wo sind denn auf og. Bildern die Winkel, in denen sich ATis AF-Schwäche drastisch offenbart?

Soviel zum Thema, ATi AF-Quali könnte mit NVs mithalten.
Ein 2xAF bei eine Flächenneigung um 22 (67) Grad herum ist nunmal nix verglichen mit 8xAF der GFs.

tomato
2003-01-26, 14:38:45
Nur mal so am Rande, ist Euch eigentlich schon aufgefallen, dass wir kurz davor sind, den Rekord zu knacken ??
Gerade eben waren´s noch 586 aktive User.

Und alle warten auf Thilo.

;D;D

Liquaron
2003-01-26, 14:39:55
Wir haben doch eben schon den Rekord geknackt.
Und Thilo hat immer noch nicht gepostet :-(

Katrin
2003-01-26, 14:40:27
Originally posted by nagus


vielleicht hast du nicht den richtigen UT2003 patch drauf?
btw, ich benutzte den 6275 treiber.


PS: @ 425/780 schaffe ich sogar über 158fps! (vs GFFX 500/1000 143fps)

jep. patch 2166
gleicher Treiber... trotzdem nur 117fps :-(

Aber was mich verwundert

du hast 125 mit 325/620 und 2.4Ghz P4 + DDR
Thilo schafft 110 mit 325/620 und 2600+ + Nforce2


:O

nagus
2003-01-26, 14:44:59
Originally posted by Katrin


jep. patch 2166
gleicher Treiber... trotzdem nur 117fps :-(

Aber was mich verwundert

du hast 125 mit 325/620 und 2.4Ghz P4 + DDR
Thilo schafft 110 mit 325/620 und 2600+ + Nforce2


:O

... vielleicht hast du vsync an?

ps: meine werte sind absolut korrekt! da hab ich nix aufpoliert! (ut2003 läuft auf max-details!!!)

PCGH_Thilo
2003-01-26, 14:46:22
Originally posted by nagus

@Thilo: kannst d umir BITTE BITTE deine UT2003.ini schicken???? VIELEN DANK!

der ut-benchmark (2x botmatch, 2x flyby) nutzt die maxdetail.ini. wenn die schreibgeschützt ist, sind die ut-benches auch vergleichbar.
damit habe ich die werte gemacht, die gepostet wurden.

Muh-sagt-die-Kuh
2003-01-26, 14:46:38
Originally posted by ow


:rofl:

Wo sind denn auf og. Bildern die Winkel, in denen sich ATis AF-Schwäche drastisch offenbart?

Soviel zum Thema, ATi AF-Quali könnte mit NVs mithalten.
Ein 2xAF bei eine Flächenneigung um 22 (67) Grad herum ist nunmal nix verglichen mit 8xAF der GFs. Hmmm....wieso klingt es bei dir immer so, als ob das ATI AF grottenschlecht ist..... :eyes:

Was ich vermisse sind Informationen, in welchem AF Modus die GF-FX bei diesen Tests betrieben wurde und wie die einzelnen Modi arbeiten bzw. wie sich das auf die Qualität auswirkt.

Muh-sagt-die-Kuh
2003-01-26, 14:47:47
Das ist er ja.....gibts endlich ein paar Benchmarks mehr (*hoff*) :D

Piffan
2003-01-26, 14:47:52
Originally posted by mapel110
ich will nur einen wert bei 1600x1200x32 4xAA 8xAF, egal was !!!
der rest is kokolores. ich will das bandbreitenlimit sehen =)

Wobei keineswegs sicher ist, dass das Limit auch tatsächlich erreicht wird! Schon mal an diese Möglichkeit gedacht? ;)

nagus
2003-01-26, 14:48:33
Originally posted by PCGH_Thilo


der ut-benchmark (2x botmatch, 2x flyby) nutzt die maxdetail.ini. wenn die schreibgeschützt ist, sind die ut-benches auch vergleichbar.
damit habe ich die werte gemacht, die gepostet wurden.

wie gesagt, precache hab ich in der UT2003.ini verändert. und dann haben sich auch meine werte deutlich verbessert.


ps: was hast du uns schönes mitgebracht :)


btw, welcher ut-benchmark ist das nochmal? (damits keine mißverständnisse gibt)

mapel110
2003-01-26, 14:49:47
Originally posted by Piffan


Wobei keineswegs sicher ist, dass das Limit auch tatsächlich erreicht wird! Schon mal an diese Möglichkeit gedacht? ;)

die wahrscheinlichkeit ist sehr gering !

ow
2003-01-26, 14:50:39
Originally posted by Muh-sagt-die-Kuh
Hmmm....wieso klingt es bei dir immer so, als ob das ATI AF grottenschlecht ist..... :eyes:

Was ich vermisse sind Informationen, in welchem AF Modus die GF-FX bei diesen Tests betrieben wurde und wie die einzelnen Modi arbeiten bzw. wie sich das auf die Qualität auswirkt.


Keine Ahnung. Klingt das wirklich so? Grottenschlecht ist es nicht, es hat dort wo 8x/16xAF gefiltert wird keinen Nachteil bzw. leichte Vorteile ggü. Nvs AF. Aber auf der anderen Seite ebn auch den Nachteil, dass manchmal zuwenig AF-gefiltert wird.

Wie das AF beimn GFFX aussieht bleibt abzuwarten, da warte ich auch schon gespannt auf Quali-Tests.

Dr. Greenthumb
2003-01-26, 14:51:11
Das gibt noch ein ziemliches Durcheinander mit den Einstellungen bei den Benchmarks und der Interpretation der Ergebnisse , würd ich sagen!!

Welcher AA bzw AF Level sieht auf beiden Karten jetzt gleich gut aus??

Welche Einstellungen wurden in den Treibern vorgenommen? Welches AF Verfahren wird denn bei der FX genutzt und wie gut sieht es aus. Ich glaub die Diskussion kann man wahrscheinlich endlos weiterführen.

Wichtig sind wohl so Fakten wie: Kann man mit der FX bei, sagen wir mal 1600*1200, immer 4xFSAA oder was auch immer mit dem 4*FSAA der 9700 gleichzieht nutzen und bei der 9700PRO nicht.

cao
2003-01-26, 14:53:06
THILO MEHR BENCHES!!!
BIIIITTEEEEEEEE!!!
ich bin süchtig glaub ich...

LovesuckZ
2003-01-26, 14:53:09
Originally posted by Dr. Greenthumb
Welcher AA bzw AF Level sieht auf beiden Karten jetzt gleich gut aus??


2AA + 2AF duerfte die besten zu vergleichenden EInstellungen sein. Da hier beide ungefaehr gleich arbeiten.

Dr. Greenthumb
2003-01-26, 14:54:48
Originally posted by LovesuckZ


2AA + 2AF duerfte die besten zu vergleichenden EInstellungen sein. Da hier beide ungefaehr gleich arbeiten.

Stimmt die Techniken sind nahezu identisch. Aber die meisten interessieren halt die höheren Einstellungen (Auflösung,AA,AF) und wirds komplizeirt!!

HiddenGhost
2003-01-26, 14:57:48
Originally posted by ow



Keine Ahnung. Klingt das wirklich so? Grottenschlecht ist es nicht, es hat dort wo 8x/16xAF gefiltert wird keinen Nachteil bzw. leichte Vorteile ggü. Nvs AF. Aber auf der anderen Seite ebn auch den Nachteil, dass manchmal zuwenig AF-gefiltert wird.

Wie das AF beimn GFFX aussieht bleibt abzuwarten, da warte ich auch schon gespannt auf Quali-Tests.

Das kommt manchmal wirklch so rüber, besonders wenn du mit
wie folgt "Schwäche drastisch offenbart" oder flapsig "Soviel zum Thema, ATi ...könnte mit NVs... mithalten." schreibst...*g* [hab mal das rausgeschnitten, was einem beim lesen nicht sofort ins auge springt]

Aber ATI's Schwäche ist doch nur auf Winkeln bezogen, die eher seltener auftreten und deshalb eher weniger bemerkbar sein dürften... seh ich doch richtig, oder ??

PCGH_Thilo
2003-01-26, 15:01:52
Originally posted by Fullover
@ Thilo:
Lass uns bitte nicht im Stich! :)

okay, nachdem das hier jetzt ausartet ;-)

1. ich werde heute keine großen benches posten, weil ich nicht weiß, ob nicht vielleicht doch ein nda/launchtermin für tests existiert. das wäre den webseiten gegenüber, die ebenfalls eine fx haben und ein nda unterzeichnen mussten, nicht fair. die paar anmerkungen von mir haben genug aufsehen erregt, hätte nicht erwartet, dass in deutschland mal erste benches einer nvidia-karte erscheinen (was machen die russen? ;-). wenn morgen andere tests online gehen, werde ich sicherlich auch einen sneak peak auf www.pcgameshardware.de posten.
edit: gelöscht wg. nda
7. puuuhhhh. jetzt heißt es für mich ausloggen, weiterbenchen und bis morgen früh 8 uhr 3 seiten artikel fertig klopfen. ich werde noch 5 mins reinschauen in die postings, werden dann aber wirklich off müssen. seid mir ned böse, aber so ein artikel mit bildern, benchmarks und grafiken (text hab ich vergessen!) macht sich nicht zwischen 20 uhr und tagesschau.

Labberlippe
2003-01-26, 15:05:39
Hi

Wie ist die Lautstärke in der Praxis für Dich Thilo ???

Gruss Labberlippe

Liquaron
2003-01-26, 15:05:50
Originally posted by PCGH_Thilo

5. 5800 ultra preis stand heute ist bei terratec 659,-. 5800 für 579,- es ist immer noch nicht 100% klar

:o

Piffan
2003-01-26, 15:05:59
Originally posted by Dr. Greenthumb


Stimmt die Techniken sind nahezu identisch. Aber die meisten interessieren halt die höheren Einstellungen (Auflösung,AA,AF) und wirds komplizeirt!!

Man kann Qualität nicht mit Performance aufrechnen! Weil ab 2xAF das AF der Radeon "unvollständig" wird, sollte man wegen der Vergleichbarkeit bitte nicht höher gehen. Das Gleiche trifft für das FSAA zu: Bei 2x das gleiche Verfahren, darüber Differenzen im Verfahren und auch in der BQ zu Gunsten von Ati......

Will ich also die reine Power messen, würde ich bei 2xAF und 2xFSAA bleiben, dafür aber die Auflösung auf das Maximum schrauben....

So sollte in etwas "Waffengleichstand" herrschen bezüglich der Leistung.... Alle anderen Disziplinen lassen sich kaum per Benches klären, da brauchts Screens... falls eine der Karten eine signifikant bessere Bildqualität bei spielbarer Performance bietet, dann wäre sie der Qualitätssieger...

Also Vorschlag: Man kürt einen Qualitätssieger und einen Perfomancemeister..... Alles andere ist imho Lötzinn, weil man Qualität und Performance nicht gegeneinander verrechnen kann, da kommts auf die Präferenzen des Einzelnen an. So wäre mir Tempo beim Shooter die oberste Maxime, bei "gemütlichen" Spielen wie Gothic 2, Mafia und wenn sein muß auch Morrowind ( ;) ) wäre die BQ wohl wichtiger...

Wenn man wirklich die richtige Karte kaufen will, brauchts also weit mehr als nur ein paar läppische Zahlen....

HiddenGhost
2003-01-26, 15:07:07
Danke thilo, jetzt bin ihc noch neugieriger auf die neue Ausgabe *g* ;D

Meint Punkt 6, dass es einen etwas überproportionalen Leistungseinbruch bei 4x FSAA gibt??

cao
2003-01-26, 15:08:10
gna... ich mein ich verstehs ja... aber... noch ein klitzekleiner sneak wäre echt unglaublich

wundert mich eigentlich auch warum es nirgendwo anders noch benches gibt...

Dr. Greenthumb
2003-01-26, 15:08:10
Originally posted by PCGH_Thilo

ut 2003 spielt sich wie butter, 4x fsaa frisst aber schon ordentlich performance. reines 4x fsaa frisst im citadel-botmatch mehr als reines 8x AF.

Das mit dem 4*FSAA hättest du lieber rauslassen sollen, das gibt dann bis morgen endlose Diskussionen was "ordentlich" bedeutet.

Son Glück das ich Montags bei der Arbeit Internet habe und die Tests mir morgens schon reinziehen kann (wenns denn welche gibt)

-X-
2003-01-26, 15:08:24
@thilo:vielen dank erstmal für die benches und die jetzige erläuterung:)!aber das mit der lautstärke würd mich auch noch dringend interessieren,vielleicht nen vergleich bringen mit was anderem.

Unregistered
2003-01-26, 15:09:12
Originally posted by LovesuckZ
Auf Computerbase gibt es mehr Vergleichsbilder. Und ATI's AF ist mit 16AF nicht besser als Nvidia mit ihrem 8AF. Manchmal sogar noch schlechter,

Du kannst wohl nicht lesen. Ich stellte in Frage, ob es bei bei den aktuellen Treiber immer noch so ist. IMHO nein.

Exxtreme
2003-01-26, 15:10:40
LOL, ich habe jetzt mal in die anderen Foren geschaut. Die Ergbnisse haben Runden gemacht, das glaubt ihr gar nicht. Taiwan, Frankreich, Russland...

Labberlippe
2003-01-26, 15:10:46
Hi

Ich bin mir nicht einmal sicher ob überhaupt aussser den Mags noch andere eine FX bekommen haben.
Kurz die Frage steht offen ob Websetien wie THG und Andatche überhaupt schon eine Karte zum testen haben.


Gruss Labberlippe

Piffan
2003-01-26, 15:11:02
Vielen Dank an Thilo @

PcGames Hardware

davidzo
2003-01-26, 15:11:43
@Katrin, nur mal sone Frage... ist der CPU block in deinem sys von dir selbst gemacht oder haste den irgendwo in Auftrag gegeben?

@Spacer: das mit Nolf2 is ne gute Idee...

Ich habe hier noch einige interesaante Benchmarks, die theoetische werte liefrn können, was zwar das gesamtbild nicht beeinflussen sollte, aber bstimmt für spekulatioen über neue treiber o.ä. und besonders für unsere diskussioenen interessant wäre:
-BenMark von nvidia (Triangle count test und Effective Vertex traffic usw.)
- Dann Fillrate ausm 3dmark2001 und am besten dasselbe nochma mit gleichem chiptakt (d.h. die FX auf 400mhz untertakten und die 9700pro auch auf 400mhz chiptakt... das wären sehr interessante theroetische werte über die effizienz der beiden Architekturen)
- Den Chamäleon benchmark von nv auf jeden fall!
- Den Shark Mark von Matrox
- Klar, der overdrawtest darf auch net fehlen, also Villagemark von PowerVR !


Bei den FSAA und AF Modi würde ich folgende Einstellungen vorschlagen:
1. 2x FSAA & AF bei 1600x1200x32
nvidia FX: 2x FSAA, 8x AF
nvidia G4: 2x FSAA, 8x AF
ATI R9700: 2x FSAA, 8x AF
ATI R9100: 2x FSAA, 16x AF

Ich möchte an dieser Stelle nocheinmal darufhinweisen, das man das neue ATI AF nicht mit dem alten der Radeon 8500, 9000(pro), 9100 serie in einen Topf schmeißen darf. Die Bildqualität und effiezienz der beiden AF Modi von der R9700 und R8500 sind extrem . Auch die rdeon9700 benutzt nun eben 128bit adaptives AF. Mittlerweile hat ATI seit dem neuen catalyst zum glück den richtigen Kurs eingeschlagen und das ATI AF ist durchaus mit dem bisherigen guten nv AF zu vergleichen.
1600x1200x32 empfehle ich bewußt, da schon seit der Geforce2 fast nur in 1024x768 gebencht wurde, was nun wirklich nicht mehr aktuell ist...

2.1600x1200x32
nvidia FX: 8xS AA, 8x AF
nvidia G4: 8xS AA, 8x AF
ATI R9700: 4x FSAA, 8x AF
ATI R9100: 4x FSAA, 16x AF

man kann sich streiten, ob man nun als Gegner des hochwertigen 4x Modus des Radeon nun 6xS oder 8x (in wirklichkeit 8xS) nimmt... ich tendiere eher zu 8xS, denn dort ist das ERR genau gleich. Allerdings kann man sich auch mal die Qualität des 6xS Modus angucken, welcher allerdings nur ein ERR von 3x4 hat... welches ja hauptsächlich ausschlaggebend für die Güte ist. Ich sage absichtlich hauptsächlich, ob der 6xS Modus gegen ATIs 4x Modus bestehen kann bleibt offen, ebenso ob ATIs 4x Modus gegen den 8x Modus von nv qualitätsmäßig ankommt.


3.1600x1200x32 alle Textureinstellungen auf Maximum Qualität!
nvidia FX: 8xS AA, 8x AF (mehr geht ja net :( )
nvidia G4: 8xS AA, 8x AF
ATI R9700: 6x FSAA, 16x AF
ATI R9100: 6x FSAA, 16x AF

Hier muss unbedingt auf die Qualität des jeweiligen Bildes eingegangen werden! Vergleichbar sind die Werte performancemäßig nicht! Ich würde halt nur gerne einen genauen Screenshot vergleich der jeweils besten Quali sehen. Rein theoretisch kommt die FX nicht gegen die Güte und Qualität der Radeon an (einen AA ERR von 6x6 !! und ein effektives 16x AF), mich würde interessieren was die Praxis zeigt.

In meinen Empfehlungen berufe ich mich auf das jüngste 3Dcenter review über die verschiedenen FSAA und AF Modi der FX!
Insgesamt kann man darüber nachdenken ATI mit 16x AF gegenüber nv antreten zu lassen, was allerdings Overkill wäre, da bei 16x die rdeon Qualitechnisch net zu übertreffen ist. Leider gibts keine zwischenmodi wie 10x oder so... denn die Güte von nv s AF ist wie ich zugeben muss immer noch um ein minimum besser - vielleicht sollte dies auch nochmal direkt verglichen werden! Der 8x Modus von ATI kommt dem nv Modus 8x am nächsten denke ich.


Bis denne MFG David

AlfredENeumann
2003-01-26, 15:11:53
Originally posted by LovesuckZ
Auf Computerbase gibt es mehr Vergleichsbilder. Und ATI's AF ist mit 16AF nicht besser als Nvidia mit ihrem 8AF. Manchmal sogar noch schlechter,

Na und ? Dafür sieht ATIs 4x und 6x bei weitem besser aus als Nvidias.

Also lass ma das ganze und warte bis die Karte da ist und vernünftige Reviews da sind, welche mit annähernd vergleichbaren einstellungen benchen und einen Bildvergleich mit drin haben.

Unregistered
2003-01-26, 15:13:09
Originally posted by ow


:rofl:

Wo sind denn auf og. Bildern die Winkel, in denen sich ATis AF-Schwäche drastisch offenbart?

Soviel zum Thema, ATi AF-Quali könnte mit NVs mithalten.
Ein 2xAF bei eine Flächenneigung um 22 (67) Grad herum ist nunmal nix verglichen mit 8xAF der GFs.

Du scheinst noch nicht gemerkt zu haben, dass dieser Fall in der Praxis selten vorkommt, deswegen auch das Urteil, dass das ATI-AF besser aussieht als das NV-AF.

AlfredENeumann
2003-01-26, 15:13:44
Originally posted by robbitop
zur TaktLeistung: die R300 hat 256bit DDR Interface




Die GeForceFx hat DDRII-RAM

Eusti
2003-01-26, 15:14:24
Originally posted by PCGH_Thilo

3. die ut-werte stammen aus dem normalen ut-bench (2xflyby, 2x botmatch). den verwendeten det. 42.63 hat vermutlich niemand. ti-4600 war noch 42.01, den wert benche ich aber nach. vielleicht kommen daher die 3 fps unterschied im botmatch. "Performance" war auf "balanced", nicht aggressive.Hmmm.....

Die GFFX wurde mit dem "balanced"-Modus getestet. Hat jemand eine Ahnung, was ein verstellen des Modus von "balanced" auf "aggresiv" in den Treiber bei einer GF4 bewirkt?

1) In der Leistung (wieviel wird Sie schneller)
2) In der Qualität (wo wird die schlechter)

@razor: Du müstest sowas doch bei deinen ganzen Treiber-Tests doch schon mal ermittelt haben.

Aquaschaf
2003-01-26, 15:14:47
danke an Thilo für die Infos ;)
die PCGH wird auf jeden fall gekauft ;)

Dr. Greenthumb
2003-01-26, 15:15:57
Originally posted by Aquaschaf
danke an Thilo für die Infos ;)
die PCGH wird auf jeden fall gekauft ;)

Schliess ich mich an, son Service muss einfach belohnt werden!!

AlfredENeumann
2003-01-26, 15:16:09
Originally posted by LovesuckZ


2AA + 2AF duerfte die besten zu vergleichenden EInstellungen sein. Da hier beide ungefaehr gleich arbeiten.

Wobei ich das für schwachsinn halte. Was kann die Radeon dafür das Nvidia bisher kein schöneres AA hat ?

Genauso müßte man doch deiner meinung nach nur 2x AF benchen.

Razor
2003-01-26, 15:16:48
Originally posted by VoodooJack
Also einen 9700Pro-User haut das nicht gerade vom Hocker, was da heute an Benchmarkwerten gezeigt wurde.

Nagus hat bereits Flyby-Werte gepostet. Hier meine Flyby/Botmatch-Werte. Ebenfalls mit 2xAA und 4xTriAF.

Im Flyby ist die GeforceFX schneller (143 vs 124). Im Botmatch aber ist meine 9700Pro schneller (74 vs 65). Nun ist der Flyby nach euren Aussagen sowieso für die Tonne. Nur der Botmatch zählt!

Klar doch hab ich die stärkere CPU. Aber ebenso klar ist, dass die GeforceFX mit 500/1000 lief, meine 9700Pro mit 370/670. Dürfte sich in etwa egalisieren.

Interessant für mich werden erst Benches in 1600x1200x32. Plus AA. Plus AF. Da dreht eine 9700Pro erst so richtig auf.

Und dabei steht der Leistungsvergleich mit dem direkten Konkurrenten, der 9900Pro (R350) erst noch aus!
Auch wenn's vermutlich viieeeeelllll zu spät ist:
DU hast NICHTS verstanden !
:D

Der Botmatch IST CPU-Limitiert, selbst meine gf3 'bringt' da noch 60fps. Willst Du also sagen dass Deine Super-Duper-Karte 'nur' 20% mehr bringt, obwohl gleich 2 Generationen weiter ? Ich bitte Dich...

So das musste jetzt raus.
Nagus war wenigstens so klug, zu schweigen, Du aber setzt dem die Krone auf.

In diesem Sinne

Razor

Dunkeltier
2003-01-26, 15:18:37
Hm, eigentlich hätte mich die GeforceFX schon gereizt. War schon am überlegen, die mir "just for fun" zu kaufen. Aber der Preis ist echt abartig, ich bin zwar reich, so reich nun aber auch wieder nicht. Während ich meine ATI Radeon 9700 Pro für 399 Euro (Anfang November) bekommen habe, muß ich jetzt für das Pro Dingen etwa 650-680 Euro (!) Euro hinlegen. Und mit dabei ist 'ne Flugzeugturbine, zum arbeiten und Spielen ist der Rechner dann längst nicht mehr geeignet, höchstens zum benchmarken. Dann werde ich wohl noch etwas warten müssen (und mir die non-Ultra kaufen), und wenn ich mir dann endlich die preiswertere GeforceFX kaufen will gibt es schon die R350 (zu hoffentlich christlichen Preisen). Fassen wir mal zusammen, NVidia ist für 2-3 Monate wieder unangefochten an der Spitze, teuer wie nie zuvor und genauso laut (wie teuer).


just my 2 cents

Liquaron
2003-01-26, 15:19:31
Originally posted by Dunkeltier
Hm, eigentlich hätte mich die GeforceFX schon gereizt. War schon am überlegen, die mir "just for fun" zu kaufen. Aber der Preis ist echt abartig, ich bin zwar reich, so reich nun aber auch wieder nicht. Während ich meine ATI Radeon 9700 Pro für 399 Euro bekommen habe, muß ich jetzt für das Pro Dingen etwa 650-680 Euro (!) Euro hinlegen. Und mit dabei ist 'ne Flugzeugturbine, zum arbeiten und Spielen ist der Rechner dann längst nicht mehr geeignet, höchstens zum benchmarken. Dann werde ich wohl noch etwas warten müssen, und wenn ich mir dann endlich die preiswertere GeforceFX kaufen will gibt es schon doe R350 (zu hoffentlich christlichen Preisen). Fassen wir mal zusammen, NVidia ist für 2-3 Monate wieder unangefochten an der Spitze, teuer wie nie zuvor und genauso laut (wie teuer).


just my 2 cents

unterschreib !!!!

AlfredENeumann
2003-01-26, 15:19:41
Originally posted by Liquaron


:o

Dumm gelaufen. Sind ja nur 200€ mehr für die kleine Ausführung. tztztz. Hättest mal vielleicht nicht so schnell storniert, oder ?

Aquaschaf
2003-01-26, 15:21:03
also im nachhinein bin ich froh mir die 9700 Pro direkt beim erscheinen für 470€ ersteigert zu haben . die nächste investition wird dann ein A64 mit DDR2 und eventually , eventually 2004 ein R500 .

Piffan
2003-01-26, 15:21:11
Originally posted by AlfredENeumann


Wobei ich das für schwachsinn halte. Was kann die Radeon dafür das Nvidia bisher kein schöneres AA hat ?

Genauso müßte man doh deiner meinung nach nur 2x AF benchen.

Ich gestatte mir mal, mich hier selbst noch mal zu zitieren...

"Man kann Qualität nicht mit Performance aufrechnen! Weil ab 2xAF das AF der Radeon "unvollständig" wird, sollte man wegen der Vergleichbarkeit bitte nicht höher gehen. Das Gleiche trifft für das FSAA zu: Bei 2x das gleiche Verfahren, darüber Differenzen im Verfahren und auch in der BQ zu Gunsten von Ati......

Will ich also die reine Power messen, würde ich bei 2xAF und 2xFSAA bleiben, dafür aber die Auflösung auf das Maximum schrauben....

So sollte in etwas "Waffengleichstand" herrschen bezüglich der Leistung.... Alle anderen Disziplinen lassen sich kaum per Benches klären, da brauchts Screens... falls eine der Karten eine signifikant bessere Bildqualität bei spielbarer Performance bietet, dann wäre sie der Qualitätssieger...

Also Vorschlag: Man kürt einen Qualitätssieger und einen Perfomancemeister..... Alles andere ist imho Lötzinn, weil man Qualität und Performance nicht gegeneinander verrechnen kann, da kommts auf die Präferenzen des Einzelnen an. So wäre mir Tempo beim Shooter die oberste Maxime, bei "gemütlichen" Spielen wie Gothic 2, Mafia und wenn sein muß auch Morrowind ( ) wäre die BQ wohl wichtiger...

Wenn man wirklich die richtige Karte kaufen will, brauchts also weit mehr als nur ein paar läppische Zahlen...."


Was sagst Du dazu? Immer noch Schwachsinn? ;)

AlfredENeumann
2003-01-26, 15:21:31
Originally posted by Piffan

Will ich also die reine Power messen, würde ich bei 2xAF und 2xFSAA bleiben, dafür aber die Auflösung auf das Maximum schrauben....




Wofür braucht man dann ne R300 oder NV30 ???? Für Pippifax reicht ne GF4 TI

seahawk
2003-01-26, 15:21:36
Originally posted by PCGH_Thilo

5. 5800 ultra preis stand heute ist bei terratec 659,-. 5800 für 579,- es ist immer noch nicht 100% klar, ob die 5800 non ultra kein fx flow, sondern normale luftkühlung nutzt. terratec plant aber ein dickes spielebundle u.a. mit splinter cell.


Bei dem Preis kann sich NV die KArte in einer Körperöffnung Ihrer Wahl schieben.

Entweder es kommen noch günstigere Angebote oder ich kauf ne Radeon oder wart auf die R350.

Liquaron
2003-01-26, 15:21:50
mhh naja ich könnte mir die Geforce FX immernoch leisten. Aber ich glaube der Preis ist schon wirklich ein wenig Realitätsfremd.
Mhh naja schaun ma mal was die R350 so anbietet.
Sonst muss ich wohl tief in die Tasche greifen.

davidzo
2003-01-26, 15:23:16
Nachtrag:

natürlich immer mit trilinearem Filter, was den minimalen Vorsprung von nv in der AF Qualität wieder zunichte macht. Ich vwerweise hier auf den test von Hardtecs4u (http://www.hardtecs4u.com/reviews/2003/sapphire_r9700pro/index18.php)

LovesuckZ
2003-01-26, 15:24:05
Originally posted by AlfredENeumann
Genauso müßte man doh deiner meinung nach nur 2x AF benchen.

Es Bezug sich dadrauf, in welchen Einstellungen beide die selbe Qualitaet bei den unterschiedlichsten Modien haben. Das man nur in 2AA/2AF Benchen sollte, hab i nirgends erwehnt.

Katrin
2003-01-26, 15:25:23
Originally posted by davidzo
@Katrin, nur mal sone Frage... ist der CPU block in deinem sys von dir selbst gemacht oder haste den irgendwo in Auftrag gegeben?

@

den hat mir mein zukünftiger schwiegerdaddy gebaut :-)

AlfredENeumann
2003-01-26, 15:26:30
Originally posted by Piffan



Was sagst Du dazu? Immer noch Schwachsinn? ;)


Teils Teils.

LovesuckZ
2003-01-26, 15:26:37
Originally posted by davidzo
Nachtrag:

natürlich immer mit trilinearem Filter, was den minimalen Vorsprung von nv in der AF Qualität wieder zunichte macht. Ich vwerweise hier auf den test von Hardtecs4u (http://www.hardtecs4u.com/reviews/2003/sapphire_r9700pro/index18.php)

Es wurde mit einen Spiel gebencht, wo ATI's Verfahren greift. Wo das AF versagt, sieht man am Screen von Ultima9 von Computerbase.

Piffan
2003-01-26, 15:29:10
Originally posted by AlfredENeumann



Wofür braucht man dann ne R300 oder NV30 ???? Für Pippifax reicht ne GF4 TI

WAs heißt Pippifax? Wer weiß denn schon, was UT2 oder Doom an Rohpower frisst? Ob da überhaupt jemand solche Mätzchen wie FSAA einschalten kann?

Eines ist ja wohl klar: Bei reinrassigen Actiontiteln geht butterweiche Performance klar vor BQ! Und tue vor allem nicht so, als wenn 2x FSAA und 2xAF so mies ist, dass man Augenkrebs davon bekommt!

Wahrscheinlich sieht den Unterschied zwischen 4xFSAA und 2xFSAA kein Schwein! Außer man strengt sich tüchtig an ;)

Exxtreme
2003-01-26, 15:30:36
Originally posted by Piffan
Wahrscheinlich sieht den Unterschied zwischen 4xFSAA und 2xFSAA kein Schwein! Außer man strengt sich tüchtig an ;)
Also /me sieht das auf'm ersten Blick.

seahawk
2003-01-26, 15:31:09
Originally posted by Piffan


WAs heißt Pippifax? Wer weiß denn schon, was UT2 oder Doom an Rohpower frisst? Ob da überhaupt jemand solche Mätzchen wie FSAA einschalten kann?

Eines ist ja wohl klar: Bei reinrassigen Actiontiteln geht butterweiche Performance klar vor BQ! Und tue vor allem nicht so, als wenn 2x FSAA und 2xAF so mies ist, dass man Augenkrebs davon bekommt!

Wahrscheinlich sieht den Unterschied zwischen 4xFSAA und 2xFSAA kein Schwein! Außer man strengt sich tüchtig an ;)

Also zumindest bei 3D Action hast Du da vollkommen recht.

(Natürlich nur wenn man spilet, auf Screenshots oder wenn man rumsteht und gezielt danach guckt schon ..) Ich persönlich finde AF viel wichtiger als hohes FSAA bei 3D Shootern.

Fullover
2003-01-26, 15:33:11
Originally posted by seahawk


Also zumindest bei 3D Action hast Du da vollkommen recht.

(Natürlich nur wenn man spilet, auf Screenshots oder wenn man rumsteht und gezielt danach guckt schon ..) Ich persönlich finde AF viel wichtiger als hohes FSAA bei 3D Shootern. Also mir persönlich reicht immer 2xAA und 2xAF. Und damit spiel ich auch immer (auf 1024x768 und 32 Bit).

Dr. Greenthumb
2003-01-26, 15:33:51
Originally posted by LovesuckZ


Es wurde mit einen Spiel gebencht, wo ATI's Verfahren greift. Wo das AF versagt, sieht man am Screen von Ultima9 von Computerbase.

Wie man sieht kommt man was die AA/AF Modi angeht nicht auf einen grünen Zweig. Und wenns Photos gibt, heisst es dann wieder "ich seh da keinen Unterschied" oder "is doch nicht besser", ja nach Neigung zu ATI oder nVidia. Glücklicherweise gibt auch noch x-verschiedene Spiele wo mal das eine Verfahren gut oder nicht blablabla...

Also im Ernst (und wenns mehr Benchmarks und Scrennshots gibt) kann man ja seine Entscheidung noch an der Lautstärke(?!) und am Preis festmachen. Also ich muss mit meinem Rechner auch noch arbeiten und ab und zu ein bisschen 3D-CAD machen. Und da ist die Turbine einfach ein KO Kriterium

s.u.

Piffan
2003-01-26, 15:34:11
Originally posted by seahawk


Also zumindest bei 3D Action hast Du da vollkommen recht.

(Natürlich nur wenn man spilet, auf Screenshots oder wenn man rumsteht und gezielt danach guckt schon ..) Ich persönlich finde AF viel wichtiger als hohes FSAA bei 3D Shootern.

Zumal ich durch höhere Auflösung auch die Zacken verkleinere.... für AF hingegen gibts keine "Alternative"....

StefanV
2003-01-26, 15:34:48
Originally posted by Aquaschaf
danke an Thilo für die Infos ;)
die PCGH wird auf jeden fall gekauft ;)

Ich werd sie nicht kaufen!

Kommt ja schließlich per POST *eg*

Piffan
2003-01-26, 15:39:11
Originally posted by LovesuckZ


Es wurde mit einen Spiel gebencht, wo ATI's Verfahren greift. Wo das AF versagt, sieht man am Screen von Ultima9 von Computerbase.

Und bitte nicht unterschlagen, dass bei bestimmten Af- Stufen die detailed Textures vermurkst werden bei der R300...

StefanV
2003-01-26, 15:40:03
Originally posted by Liquaron
mhh naja ich könnte mir die Geforce FX immernoch leisten. Aber ich glaube der Preis ist schon wirklich ein wenig Realitätsfremd.
Mhh naja schaun ma mal was die R350 so anbietet.
Sonst muss ich wohl tief in die Tasche greifen.

Du mußt dir dabei auch überlegen, was du für den Preis der GF FX alles bekommen würdest !!

Für die 600€ bekommst du fast 'nen kompletten Rechner...

Oder aber 'ne Radeon 9700 samt AMD CPU, Board und ev. RAM...

Dunkeltier
2003-01-26, 15:42:12
Originally posted by Stefan Payne


Du mußt dir dabei auch überlegen, was du für den Preis der GF FX alles bekommen würdest !!

Für die 600€ bekommst du fast 'nen kompletten Rechner...

Oder aber 'ne Radeon 9700 samt AMD CPU, Board und ev. RAM...

Oder 'nen uralten Gebrauchtwagen. :D Jedenfalls dürfte für die meisten eine neue CPU samt R300 (non-Pro) die bessere Wahl sein.

Xanthomryr
2003-01-26, 15:42:48
Bei High End sind die Preise immer Realitätsfremd. ;)

mapel110
2003-01-26, 15:44:14
Originally posted by Piffan


Und bitte nicht unterschlagen, dass bei bestimmten Af- Stufen die detailed Textures vermurkst werden bei der R300...

was laut leonidas null performance einbringt !

Xanthomryr
2003-01-26, 15:44:21
Originally posted by Piffan


Und bitte nicht unterschlagen, dass bei bestimmten Af- Stufen die detailed Textures vermurkst werden bei der R300...
Äh, könntest du mich da mal bitte aufklären?

seahawk
2003-01-26, 15:44:58
Originally posted by Stefan Payne


Du mußt dir dabei auch überlegen, was du für den Preis der GF FX alles bekommen würdest !!

Für die 600€ bekommst du fast 'nen kompletten Rechner...

Oder aber 'ne Radeon 9700 samt AMD CPU, Board und ev. RAM...

Ich überlege es mir allerdings wirklich. Das Geld ist vorhanden, da ich sowieso mit 1300 Euro für mein Update gerechnet habe und für meinen speziellen Anwendungsfall ist NV immer eine gute Wahl gewesen.

Bei einem anderen Anwendungsfall rate ich allerdings dringenst zur R300.