PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Geforce FX nicht DX9 fähig...


Eusti
2003-01-28, 19:03:40
Hi!

Nach der Staubsauger-Nummer und der nur gleichwertigen Performance zur Radeon 9700Pro (obwohl 5 Monate später), bekommt NVidia jetzt wohl die nächste Packung. Auf www.nvnews.net (http://www.nvnews.net) und www.beyond3d.com (http://www.beyond3d.com/forum/viewtopic.php?t=4041&postdays=0&postorder=asc&start=0) sind die ersten Artikel, bzw. Disskussionen aufgetaucht, welche sich mit dem Thema DX9 und GFFX beschäftigen.

Fazit: Mit den ausgelieferten Treibern (42.63) als auch mit den neuesten erhältlichem Treibern (42.70) wird auf der GFFX nur DirectX 8.1 unterstützt.

Warum ist eigendlich niemandem aufgefallen, das es in den Tests keine DX9 Benchmarks gab (obwohl die Benchmarks selber exestieren)? Möglicherweise wir der neue 3DMark ja auch noch von NVidia zurückgehalten, weil Sie die FX nicht zum laufen bekommen?

seahawk
2003-01-28, 19:05:57
Naja, oder anders interpretiert.

die Karte kann viel mehr. Nur ist der geteste Treiber viel zu unausgereift. Ich glaube immer mehr an diese Lösung.

Unregistered
2003-01-28, 19:09:54
Originally posted by seahawk
Naja, oder anders interpretiert.

die Karte kann viel mehr. Nur ist der geteste Treiber viel zu unausgereift. Ich glaube immer mehr an diese Lösung.

dann hätte NV die karte nie und nimmer für Tests rausgerückt

Was haben die denn in den letzten 6 Monaten gemacht ???

LovesuckZ
2003-01-28, 19:12:19
Originally posted by Unregistered
Was haben die denn in den letzten 6 Monaten gemacht ???

Auf TMSC oder so gewartet:D

Unregistered
2003-01-28, 19:16:33
ich bin mal gespannt, wie terratec die ersten Karten am 31.01. (ja, dieses Jahr) auf den Markt werfen will :eyes:

Eusti
2003-01-28, 19:17:24
Originally posted by Unregistered

Was haben die denn in den letzten 6 Monaten gemacht ??? Keine Ahnung. Treiber programmiert wohl eher nicht. Es gab ja auch bei den Tests noch einige Darstellungsfehler. Wie das dann wohl bei den Games aussieht, die nicht im Fokus der Testmagazine stehen. Das möcht ich gar nicht erst wissen...

NVidia hat glaub ich einen ähnlichen Fehler gemacht wie 3dfx. Als man beim Launch des R300 gesehen hat, das man von der Leistung her nicht mitkommt, hat man das Chipdesign nochmal angepasst und anschliessend auch noch einen Staubsauger montiert.

Die hätten es doch wie ATI in den letzen 3 Jahren machen sollen. Einfach den Schrott den man fertig hat releasen und sich bemühen die nächste Generation besser hinzubekommen. Dann hätten Sie zwar genauso wie ATI immer, nee Packung abbekommen (nicht die schnellste Karte am Markt), hätten sich aber dieses Debakel erspart.

LovesuckZ
2003-01-28, 19:17:50
Originally posted by Unregistered
ich bin mal gespannt, wie terratec die ersten Karten am 31.01. (ja, dieses Jahr) auf den Markt werfen will :eyes:

Das werden sie nicht. Wenn wirklich Splinter Cell bei den karten dabei sein sollte, duerfte die Karte fruehsten im Februar aufschlagen.

Unregistered
2003-01-28, 19:18:29
Originally posted by Unregistered
ich bin mal gespannt, wie terratec die ersten Karten am 31.01. (ja, dieses Jahr) auf den Markt werfen will :eyes:

sind dann vielleicht auch nur Beta Karten.. und man bekommt im Sommer nen fertiges Sample mit leiser Kühlung und 40% mehr leistung umsonst nachgeschickt !!

ow
2003-01-28, 19:28:24
Originally posted by Eusti
Hi!

Nach der Staubsauger-Nummer und der nur gleichwertigen Performance zur Radeon 9700Pro (obwohl 5 Monate später), bekommt NVidia jetzt wohl die nächste Packung. Auf www.nvnews.net (http://www.nvnews.net) und www.beyond3d.com (http://www.beyond3d.com/forum/viewtopic.php?t=4041&postdays=0&postorder=asc&start=0) sind die ersten Artikel, bzw. Disskussionen aufgetaucht, welche sich mit dem Thema DX9 und GFFX beschäftigen.

Fazit: Mit den ausgelieferten Treibern (42.63) als auch mit den neuesten erhältlichem Treibern (42.70) wird auf der GFFX nur DirectX 8.1 unterstützt.

Warum ist eigendlich niemandem aufgefallen, das es in den Tests keine DX9 Benchmarks gab (obwohl die Benchmarks selber exestieren)? Möglicherweise wir der neue 3DMark ja auch noch von NVidia zurückgehalten, weil Sie die FX nicht zum laufen bekommen?


IMO ist das Unsinn, was in den Foren da geschrieben wurde.

Alle Detos ab 41.80 sind DX9 Treiber.

Exxtreme
2003-01-28, 19:35:16
Originally posted by ow



IMO ist das Unsinn, was in den Foren da geschrieben wurde.

Alle Detos ab 41.80 sind DX9 Treiber.
Wahrscheinlich DX9-kompatibel. Aber so "unified" scheinen die Treiber auch nicht zu sein wie viele dachten.

Unregistered
2003-01-28, 19:35:22
Originally posted by LovesuckZ


Das werden sie nicht. Wenn wirklich Splinter Cell bei den karten dabei sein sollte, duerfte die Karte fruehsten im Februar aufschlagen. Gutschein - ist ein recht häufiges Mittel, um Käufer zu ködern. Wer jetzt kauft, erhält einen Gutschein, damit er bei Veröffentlichung des Spiels ein Exemplar kostenlos bestellen kann.
Wichtiger ist doch die Frage, welchen Treiber Terratec (oder sonstwer) beilegen wird. Einen Gutschein für ein Spiel kann man ja noch akzeptieren, aber einen Gutschein für den Treiber eher weniger.
"Sobald es einen Treiber gibt, können Sie diesen kostenlos bei uns bestellen. Solange benutzen Sie bitte den Standard-VGA Treiber von Windows."

Eusti
2003-01-28, 19:36:10
Originally posted by ow

IMO ist das Unsinn, was in den Foren da geschrieben wurde.

Alle Detos ab 41.80 sind DX9 Treiber. Ja sicher sind die Treiber DX9 Treiber (auch meine GF4 Treiber sind DX9 Treiber). Allerdings bedeutet dieses ja nur, das die Treiber mit DX9 zusammenarbeiten.

Das machen die GFFX Treiber auch. Allerdings sind wohl wichtige Funktionen wie Pixel- und Vertexshader 2.0 in den Treibern für die FX deaktiviert. Somit ist es nicht möglich reine DX9 Programme auf der FX laufen zu lassen.

Das würde ich als DX9 unkompatibel ansehen.

LovesuckZ
2003-01-28, 19:37:22
Originally posted by Unregistered
Gutschein - ist ein recht häufiges Mittel, um Käufer zu ködern. Wer jetzt kauft, erhält einen Gutschein, damit er bei Veröffentlichung des Spiels ein Exemplar kostenlos bestellen kann.


Dann waere der Preis von 570€ bei allen 3 Spielen gerechtfertigt. Gutschein --> Spiel mit Verpackung --> weiterverkauft fuer 5% weniger als im laden.;D

Wuerd wahrscheinlich nich so sein...

Unregistered
2003-01-28, 19:40:27
Originally posted by ow



IMO ist das Unsinn, was in den Foren da geschrieben wurde.

Alle Detos ab 41.80 sind DX9 Treiber.

Klar laufen die mit DX9. Nur supporten sie nicht DX9-specific features. Ergo: kein 3DMark2k3.

Razor
2003-01-28, 19:45:10
Originally posted by LovesuckZ

Dann waere der Preis von 570€ bei allen 3 Spielen gerechtfertigt. Gutschein --> Spiel mit Verpackung --> weiterverkauft fuer 5% weniger als im laden.;D

Wuerd wahrscheinlich nich so sein...
Und Alternate hat's sogar schon gelistet...
Verfügbar ab 27.2. !
:D

Bis denne

Razor

Unregistered
2003-01-28, 19:48:17
was 580€ für die kleine GFFX? is ja wohl´n witz.

Muh-sagt-die-Kuh
2003-01-28, 19:54:53
Originally posted by seahawk
Naja, oder anders interpretiert.

die Karte kann viel mehr. Nur ist der geteste Treiber viel zu unausgereift. Ich glaube immer mehr an diese Lösung. Die Unterstützung von nativem DX-9 durch den Treiber muss keine Leistungssteigerung bringen, siehe ATI und der schritt vom Catalyst 2.5 (DX-8.1)zum Catalyst 3.0 (DX-9).

Unregistered
2003-01-28, 19:58:24
Originally posted by Muh-sagt-die-Kuh
Die Unterstützung von nativem DX-9 durch den Treiber muss keine Leistungssteigerung bringen, siehe ATI und der schritt vom Catalyst 2.5 (DX-8.1)zum Catalyst 3.0 (DX-9).

richtig, nen unterschied wird sich erst zeigen wenn auch die gengenseite DX9 benutzt ( ob in form von "schnelleren" oder "schöneren" pixeln sei mal dahingestellt, btw der 3Dmark wird´s für NV schon richten )

seahawk
2003-01-28, 20:00:29
Originally posted by Muh-sagt-die-Kuh
Die Unterstützung von nativem DX-9 durch den Treiber muss keine Leistungssteigerung bringen, siehe ATI und der schritt vom Catalyst 2.5 (DX-8.1)zum Catalyst 3.0 (DX-9).

Das ist ja auch klar. Was ich meinte ist, wenn solche Basic Features nicht drin sind, wieviel werden die an der lesitung optimiert haben ??

Besonders wieviel Potential schlummert noch in den Shadern ??

Gerhard
2003-01-28, 20:00:39
Soweit ich das dort verstanden habe sind es zwar schon DX9 Treiber, allerdings ist die maximale unterstützte Pixelshaderversion 1.4 (kein 2.0), damit laufen auch die entsprechenden Tests nicht. Vertexshader 2.0 ist zwar vorhanden(dieser könnte gar nicht gemeldet werden falls es sich nicht um einen DX9 Treiber handelt), funktioniert aber nicht korrekt.

Anscheinend ist der Treiber wirklich noch seeehr Beta

Kampf Ameise
2003-01-28, 20:03:05
das beste ist das sie für die "schrott" leistung ddr 2 brauchen und dann haben sie für den preis auch nur die 128 mb version , die 256 kostet dann wahrscheinlich 799 euro :O

Eusti
2003-01-28, 20:07:28
Originally posted by seahawk

Das ist ja auch klar. Was ich meinte ist, wenn solche Basic Features nicht drin sind, wieviel werden die an der lesitung optimiert haben ??

Besonders wieviel Potential schlummert noch in den Shadern ?? Möglicherweise einiges.

Aber wie verbuggt muss das Ding sein, wenn man die Treiber seit der "Are you Ready" Kampangne (kann sich noch einer daran erinnern) auf finalem Silizium testen kann, aber immer noch nicht DX9 hat?

LovesuckZ
2003-01-28, 20:11:22
Originally posted by Kampf Ameise
das beste ist das sie für die "schrott" leistung ddr 2 brauchen und dann haben sie für den preis auch nur die 128 mb version , die 256 kostet dann wahrscheinlich 799 euro :O

Bitte nicht vergessen, dass Terratec Splinter Cell, UT2003 und GunMetal dazu legt. Welche mit je 35€, 105€ ausmachen. Somit liegt der Preis fuer die kleine Version bei 474€ als Anfangspreis.

Crushinator
2003-01-28, 20:20:39
Originally posted by Gerhard ...Anscheinend ist der Treiber wirklich noch seeehr Beta Heißt das jetzt, daß die ATi-Treiber tatsächlich hier besser waren? :D Das ich das noch erleben durfte..... ;)

LovesuckZ
2003-01-28, 20:22:49
.sinnlos.

Unregistered
2003-01-28, 20:23:34
Originally posted by LovesuckZ


Bitte nicht vergessen, dass Terratec Splinter Cell, UT2003 und GunMetal dazu legt. Welche mit je 35€, 105€ ausmachen. Somit liegt der Preis fuer die kleine Version bei 474€ als Anfangspreis.

Du glaubst doch nicht im ernst das die Hersteller 35,-Euro für ein Spiel bezahlen.

LovesuckZ
2003-01-28, 20:25:15
Originally posted by Unregistered
Du glaubst doch nicht im ernst das die Hersteller 35,-Euro für ein Spiel bezahlen.

Warum? Du kannst jedes Spiel fuer 35€ am Anfang verkaufen. UT2003 finden sich bestimmt Kaeufer, da unbenutzer Key. Splinter Cell ist neu auf dem Markt und kostet dann wahrscheinlich 45-50€. Gunmetal kenn i net.

Unregistered
2003-01-28, 20:25:57
Originally posted by Unregistered


Du glaubst doch nicht im ernst das die Hersteller 35,-Euro für ein Spiel bezahlen.

anscheinend schon.lol.
abgesehen davon liegen den meisten graka´s irgendwelche bundles bei.

Iceman346
2003-01-28, 20:35:54
Originally posted by LovesuckZ


Warum? Du kannst jedes Spiel fuer 35€ am Anfang verkaufen. UT2003 finden sich bestimmt Kaeufer, da unbenutzer Key. Splinter Cell ist neu auf dem Markt und kostet dann wahrscheinlich 45-50€. Gunmetal kenn i net.

GunMetal ist das tolle cG Spiel von dem es vor kurzem ne Demo gab die nur auf Nvidia Karten lief (bis der 3DAnalyzer auch das fixte ;)). Nach der Demo ist das Spiel keinen Pfennig wert, wirkt so als wäre es nur für die FX auf den PC portiert und würde nie in den Handel kommen.

LovesuckZ
2003-01-28, 20:37:00
Originally posted by Iceman346
GunMetal ist das tolle cG Spiel von dem es vor kurzem ne Demo gab die nur auf Nvidia Karten lief (bis der 3DAnalyzer auch das fixte ;)).

Ahso. Gut, dann wird ich das zu Ebay schicken. Die wuerden mir bestimmt 40€ geben.:D

Unregistered
2003-01-28, 20:38:05
ich würd dir 40 strohhalme bieten,nimm die, sonst gehen sie dir aus. (und einigen anderen)

ow
2003-01-28, 20:40:14
Originally posted by Exxtreme

Aber so "unified" scheinen die Treiber auch nicht zu sein wie viele dachten.

??? Und wieso nicht?

ow
2003-01-28, 20:41:48
Originally posted by Unregistered


Klar laufen die mit DX9. Nur supporten sie nicht DX9-specific features. Ergo: kein 3DMark2k3.

:D Die Treiber gibt´s bestimmt als Beilage zum 3DMark2k3.;)

aths
2003-01-28, 20:42:35
Originally posted by ow
??? Und wieso nicht? Weil die FX Grafikfehler zeigt, wo jede Ti ein gutes Bild liefert?

Exxtreme
2003-01-28, 20:45:13
Originally posted by ow


??? Und wieso nicht?
Lies dir mal das Review bei www.hardocp.com durch. Die tollen Treiber produzieren auf dem NV30 Grafikfehler, auf dem NV25 aber nicht.

Anonym_001
2003-01-28, 20:49:22
Originally posted by Exxtreme

Lies dir mal das Review bei www.hardocp.com durch. Die tollen Treiber produzieren auf dem NV30 Grafikfehler, auf dem NV25 aber nicht.

Eigentlich weiß jeder das es beim OCen zu Grafikfehlern kommen kann.
Nur bei NV hat das noch keiner gemerkt.;-)

Unregistered
2003-01-28, 20:50:18
@aths&exxtreme

Und das soll ein Zeichen für einen nicht-unified Treiber sein?

*ow /cookie wech*

Demirug
2003-01-28, 21:11:29
Euch ist aber schon bekannt wie die UDA Treiber von NVIDIA aufgebaut sind, oder?

Exxtreme
2003-01-28, 21:13:21
Originally posted by Demirug
Euch ist aber schon bekannt wie die UDA Treiber von NVIDIA aufgebaut sind, oder?
Nach diesen neuen Erkenntnissen nehme ich an, daß diese so ähnlich wie bei ATi aufgebaut sind.

Demirug
2003-01-28, 22:05:07
Originally posted by Exxtreme

Nach diesen neuen Erkenntnissen nehme ich an, daß diese so ähnlich wie bei ATi aufgebaut sind.

Was ATI im Moment da so genau macht habe ich ehrlich gesagt noch nicht verstanden. Es gibt da scheinbar nach wie vor eine DLL für die R100 und eine für R200 Chips aber das ist ja hier nicht so wichtig es geht ja um UDA von NVIDIA.

UDA ist zweistufig aufgebaut. Es gibt eine generelle Treiberteil (jeweils für OpenGL und DirectX) und einen Kartenspezifischen Teil. Diese werden durch einen HAL-Spezifikation miteinader verbunden.

Der generelle Teil setzt die API-Kommandos in interen Kommandos um und diese werden dann durch die Kartenspezifischen Teil in die Kommandos für den Chip umgesetzt.

Da aber NVIDIA ja gerne seine Einheiten im Chip wiederverwerte sind die Treiber auch nach diesem Prinzip aufgebaut. Für die Unterschiedlichen Teile des Chips gibt es Objekt-Klassen welche diesen Teil repräsentieren. wird nun die Einheit im Chip erweiter leitet man einfach von der entsprechenden Klasse eine neue Klasse ab und fügt die neuen Funktionen hinzu. Für jeden Chip gibt es dann noch eine Liste im Treiber aus welchen Objekten sich der Chip zusammensetzt und diese werden beim start erzeugt.

Da beim NV30 aber so ziemlich alles was mit dem Vertex und Pixelprocessing zu tun hat neu ist mussten auch komplett neue Klasse geschrieben werden, deshalb ist es kein Wunder das es nun Bugs gibt welche nur bei der FX auftreten.

Hauwech
2003-01-28, 22:14:11
Und wieviel Potenzial traust du den Treibern zu? 10% 20% oder vielleicht noch hoeher? So Pi mal Auge nach Wissen und *Gefuehl beim Pipimachen* :)

Demirug
2003-01-28, 22:31:20
Originally posted by Hauwech
Und wieviel Potenzial traust du den Treibern zu? 10% 20% oder vielleicht noch hoeher? So Pi mal Auge nach Wissen und *Gefuehl beim Pipimachen* :)

Tut mir leid aber da kann ich nun wirklich nicht mal schätzen aber wenn man daran denkt das die neuen NV30-Treiberteile noch nicht mal Fehlerfrei sein stellt man sich natürlich die Frage in wie weit da überhaupt schon optimiert wurde.

Thowe
2003-01-28, 22:41:50
Eine mögliche Antwort bleibt auch noch, welche Hardwarebugs müssen z.Z. die Treiber umgehen. Aber das mal aussen vor, ich denke schon das nVidia einige Zeit an den Treibern programmiert haben. Momentan schmeckt mir die Karte wie eine Mischung aus Voodoo 5 und Savage 2000.

Demirug
2003-01-28, 22:46:53
Originally posted by Thowe
Eine mögliche Antwort bleibt auch noch, welche Hardwarebugs müssen z.Z. die Treiber umgehen. Aber das mal aussen vor, ich denke schon das nVidia einige Zeit an den Treibern programmiert haben. Momentan schmeckt mir die Karte wie eine Mischung aus Voodoo 5 und Savage 2000.

Sicher programmieren die schon eine Zeitlang daran. IMO hatte sie aber bei bisher noch keinen Chip das gleiche Arbeitspensum wie diesesmal zu bewältigen. Neben dem NV30 (sehr viel neu sehr viel anders) mussten sie ja auch noch DX9 einbauen. Das wiederum führt dazu das sie auch bei den alten Chips noch mal ran müssen weil MS so gemein war und hat bei DX9 auch noch Erweiterungen für DX7 Karten eingebaut. :D

Unregistered
2003-01-28, 23:02:44
Originally posted by Demirug


Sicher programmieren die schon eine Zeitlang daran. IMO hatte sie aber bei bisher noch keinen Chip das gleiche Arbeitspensum wie diesesmal zu bewältigen. Neben dem NV30 (sehr viel neu sehr viel anders) mussten sie ja auch noch DX9 einbauen. Das wiederum führt dazu das sie auch bei den alten Chips noch mal ran müssen weil MS so gemein war und hat bei DX9 auch noch Erweiterungen für DX7 Karten eingebaut. :D

oh das is natürlich fies,oh warte, ATI hatts doch auch geschafft bei ihrem angeblich zu schlechtem treiber-prog team.

Exxtreme
2003-01-28, 23:06:50
Originally posted by Demirug


Sicher programmieren die schon eine Zeitlang daran. IMO hatte sie aber bei bisher noch keinen Chip das gleiche Arbeitspensum wie diesesmal zu bewältigen. Neben dem NV30 (sehr viel neu sehr viel anders) mussten sie ja auch noch DX9 einbauen. Das wiederum führt dazu das sie auch bei den alten Chips noch mal ran müssen weil MS so gemein war und hat bei DX9 auch noch Erweiterungen für DX7 Karten eingebaut. :D
Das musste das Team von ATi auch. Sie haben es aber geschafft DX9-Treiber pünktlich zum DX9-Launch zu liefern.... auch für die älteren Radeons. Die GFFX-Interessierten sollten also doch irgendwo hoffen, daß Thowe mit seiner S2k-These Unrecht behält. :D

Demirug
2003-01-28, 23:28:52
Originally posted by Exxtreme

Das musste das Team von ATi auch. Sie haben es aber geschafft DX9-Treiber pünktlich zum DX9-Launch zu liefern.... auch für die älteren Radeons. Die GFFX-Interessierten sollten also doch irgendwo hoffen, daß Thowe mit seiner S2k-These Unrecht behält. :D

Exxtreme, ich habe ehrlich gesagt derzeit noch keinen überblick in wie weit ATI und NVIDIA auf den alten Karten zusätzliche Features freigegeben haben oder dies noch tun werden. Deswegen will ich da auch gar nicht so darauf herumreiten. Ich fand nur die Tatsache witzig das MS bei DX9 noch DX7 Features einbaut. Das ist leider nicht so richtig rübergekommen.

Das ATI bei DX9 schneller als NVIDIA war dürfte damit zusammen hängen das man unterschiedliche Prioritäten gesetzt hat. NVIDIA kümmert sich bei neuen Chips schon fast aus Tradition erst mal um die OpenGL Treiber weil die Launch-Demos mit OpenGL programmiert werden. ATI hat die Demos für den R300 alle mit DirectX 9 programmiert und musste deshalb dort mehr Gewicht legen.

ATI hatte es mit dem R300 auch etwas leichter (was die Treiber angeht). Die Vertexshader sind laut gerüchten (die wohl aber nur ATI bestätigen könnte) fast identisch mit denen aus dem R200. Die VS 2.0 kompatibilität konnte ATI laut diesem Gerücht mit minimalen Hardwareerweiterungen erreichen. Das meiste der Arbeit wird vom Treiber übernommen. Das musste natürlich programmiert werden aber die Sache ist relative einfach.

Bei den Pixelshader blieb ATI dem Grundprinzip aus dem R200 ebenfalls treu. Es wurden im Prinzip nur die Register auf FP umgestellt, die Programmlänge erhöht und mehr Phasen erlaubt. Die Phasen tauchen zwar jetzt nicht mehr explizit im Shadercode auf sind aber immer noch da.

Der R300 ist IMO ein Evolutionsschritt vom R200. NVIDIA hat solche schritte mehr oder minder seit der GF1 gemacht. Beim NV30 wurde jetzt aber mal massiv neues eingebaut. Aus diesem Grund halte ich es für durchaus im Bereich des möglichen das die Treiberentwickler immer noch dabei sind den Chip kennen zu lernen.

Gerhard
2003-01-28, 23:29:05
Sieht nun so aus als würden die Pixelshader 2.0 doch unterstützt werden (Korrekturposting auf Beyond3d), hoffentlich gibts bald entsprechende Shader Benchmarks.

Exxtreme
2003-01-28, 23:32:51
Originally posted by Demirug

Ich fand nur die Tatsache witzig das MS bei DX9 noch DX7 Features einbaut. Das ist leider nicht so richtig rübergekommen.

Häää? Das macht IMHO keinen Sinn. Die neuen Features hätte man richtigerweise als DX9-Features deklarieren müssen, oder irre ich mich da?

Demirug
2003-01-28, 23:37:26
Originally posted by Exxtreme

Häää? Das macht IMHO keinen Sinn. Die neuen Features hätte man richtigerweise als DX9-Features deklarieren müssen, oder irre ich mich da?

Es sind schon DX9 Features (weil sie ja erst dort eingeführt wurden) aber sie sind für die DX7 Pipeline und damit ab DX7 Karten aufwärts theoretisch noch freischaltbar (wenn die Hardware es kann). Aus diesem Grund habe ich die bezeichnung DX7 Feature benutzt weil sie eigentlich schon dort hätten eingebaut werden müssen.

Salvee
2003-01-28, 23:42:36
Was für einen Sinn hat es, DX7-Hardware neue Features zu ermöglichen?
Um welche Features handelt es sich ?
Kann man das irgendwo nachlesen ?

Crushinator
2003-01-28, 23:44:03
Originally posted by Demirug Die Vertexshader sind laut gerüchten (die wohl aber nur ATI bestätigen könnte) fast identisch mit denen aus dem R200. Die VS 2.0 kompatibilität konnte ATI laut diesem Gerücht mit minimalen Hardwareerweiterungen erreichen. Das meiste der Arbeit wird vom Treiber übernommen. Das musste natürlich programmiert werden aber die Sache ist relative einfach. Habe ich was mit den Augen? Ich könnte schwören "irgendwo" gelesen zu haben, daß es sich immerhin um einen Chip mit 107 Millionen Transistoren handelt, welche bekanntlich nicht mal eben so mit einer "minimalen" Hardware-Erweiterung zu einem Chip mit 60 Mi.-Tr. zustande kommen sollten. ???

Mr. Lolman
2003-01-28, 23:49:53
Originally posted by Demirug
...
Das ATI bei DX9 schneller als NVIDIA war dürfte damit zusammen hängen das man unterschiedliche Prioritäten gesetzt hat. NVIDIA kümmert sich bei neuen Chips schon fast aus Tradition erst mal um die OpenGL Treiber weil die Launch-Demos mit OpenGL programmiert werden. ATI hat die Demos für den R300 alle mit DirectX 9 programmiert und musste deshalb dort mehr Gewicht legen.
...


Warum programmiert denn nvidia alle ihre Launch Demos in OpenGL ?

Damits dann nicht so ein Desaster gibt wie beim Chamäleon Mark, wo die Radeon 9700 pro plötzlich ~7x schneller war, (frag mich nicht in welchen Settings, ist aber Tatsache) als die schnellste Geforce 4 ?

Sorry, aber den konnte ich mir jetzt wirklich nicht verkneifen

*ansonstenaufmerksamthreadmitverfolg*

Demirug
2003-01-28, 23:52:50
Originally posted by Salvee
Was für einen Sinn hat es, DX7-Hardware neue Features zu ermöglichen?
Um welche Features handelt es sich ?
Kann man das irgendwo nachlesen ?

Frag mich bitte nicht nach dem Sinn, denn kenne ich selbst nicht.

Was nun alles genau noch für DX7 Karten gedacht ist habe ich selbst noch nicht herausgefunden. Es stand nur mal im Readme bei einer Beta das es neue Funktionen für DX7 Karten gibt.

Was ich bisher gefunden habe ist das jetzt beim DX7 Texturblending einen Konstanten Wert pro Stage geben darf (wenn die Karte das per Capsbit meldet). Bei anderen Sache bin ich mir noch nicht so ganz sicher in wie fern das auch für DX7 Karten gilt oder doch eher für DX8 Karten.

Nachlesen kann man es wie gesagt nicht man muss teilweise schon die DX8 und DX9 Dokumentation vergleichen um solche dinge zu finden.

Salvee
2003-01-28, 23:52:53
RV250 (ist von den Pixelpipes dem R300 ähnlicher als R200) hat ca. 40 Mio. Transistoren.
Mal 2 (wg. 8 Pixelpipes statt 4) sind etwa 80 Mio + 2 zusätzliche VS inkl. den 'kleinen' Erweiterungen,
da kommen mir 107 Mio. Transistoren fast schon wenig vor ;)

Salvee
2003-01-28, 23:56:03
@ Demirug

Danke für die Erklärungen, bin ja weiss Gott nicht der Mann it dem Plan, hatte aber kurzzeitig das Gefühl,
dadurch sollte womöglich die GF4MX-Reihe künstlich am Leben erhalten werden ;)

Demirug
2003-01-28, 23:58:11
Originally posted by Mr. Lolman
Warum programmiert denn nvidia alle ihre Launch Demos in OpenGL ?

Damits dann nicht so ein Desaster gibt wie beim Chamäleon Mark, wo die Radeon 9700 pro plötzlich ~7x schneller war, (frag mich nicht in welchen Settings, ist aber Tatsache) als die schnellste Geforce 4 ?

Sorry, aber den konnte ich mir jetzt wirklich nicht verkneifen

*ansonstenaufmerksamthreadmitverfolg*

Durchaus möglich. ;)

Das ganze hängt wohl damit zusammen das die Launchdemos schon lange bevor es einen Chip gibt entwickelt werden und NVIDIA ja ebenfalls vorher einen Treiber mit einer OpenGL emulation des neuen Chips hat. OpenGL gibt ihnen dann die möglichkeit auch Features zu zeigen die möglciherweise (noch) nicht durch DX abgedeckt sind. Zudem kann ihnen dann auch nicht das passieren was ATI passiert ist. Chip fertig, Demos fertig aber kein DX fertig um die Demos rauszugeben.

Demirug
2003-01-29, 00:05:44
Originally posted by crushinator
Habe ich was mit den Augen? Ich könnte schwören "irgendwo" gelesen zu haben, daß es sich immerhin um einen Chip mit 107 Millionen Transistoren handelt, welche bekanntlich nicht mal eben so mit einer "minimalen" Hardware-Erweiterung zu einem Chip mit 60 Mi.-Tr. zustande kommen sollten. ???

Der Vertexshader wurde vervierfacht dabei die Programmlänge und die Registeranzahl erhöht. Kostet alles Transitoren ist aber nicht wirlich aufwendig.

Die Pixelpipelines wurden verdoppelt unter beibehaltung der beiden Bi-TMUs (welche zu einer Tri-TMU zusammen gefasst wurden). Die ALUs wurden von Integer auf FP umgestellt und auch hier wieder längere Programme und mehr Register. Nicht kompliziert aber Transitorenintensiv

Jeder Pipe wurden 5 zusätzliche AA-Sampler spendiert damit man MS machen kann und wieder ein paar Transitoren mehr.

Ich sprach ja auch nicht von minimalen Hardwareerweiterungen sondern davon das man das Grund-Design des R200 weitgehend beibehalten hat.

mapel110
2003-01-29, 00:13:38
und was hat nvidia beim umstieg auf nv30 nun genau grundlegend geändert ?
wieso soll das bei denen komplizierter sein ?

Crushinator
2003-01-29, 00:14:30
Originally posted by Demirug
...
Ich sprach ja auch nicht von minimalen Hardwareerweiterungen sondern davon das man das Grund-Design des R200 weitgehend beibehalten hat. Zumindest der Satz mit den "minimalen ..." stammt von Deinem Posting. ;) Egal, danke für die Erklärung. Aber die interessantere Frage lautet: Warum hat man bei NV nicht ähnliches beim NV30 gemacht? Ich meine, wenn es nur Transistoren frißt und ansonsten nicht so aufwendig ist? Zumindest das AA scheinen sie ja anscheinend größten Teils von den NV2x übernommen zu haben oder bringe ich da jetzt etwas durcheinander? ???

Radeonator
2003-01-29, 02:36:51
Das AF wurde Afaik übernommen und das FSAA verschlimmbessert ;)
Natürlich ist die GF FX DX9 fähig, nur die Treiber sind momentan halt nur DX9 kompatibel. Bei NV läuft die Treiberprogrammierung Synchron zur HW Herstellung (Haben dafür ja eigens ein Rechenzentrum, das Graka HW simulieren kann), darum verwundert es einen schon, wie man gerade zum launch "so etwas" vorzeigt (erinnert ihr euch noch an die drei Abstürze bei allen 3 von NV gebastelten Demos ;) )

Demirug
2003-01-29, 08:22:41
Originally posted by crushinator
Zumindest der Satz mit den "minimalen ..." stammt von Deinem Posting. ;) Egal, danke für die Erklärung. Aber die interessantere Frage lautet: Warum hat man bei NV nicht ähnliches beim NV30 gemacht? Ich meine, wenn es nur Transistoren frißt und ansonsten nicht so aufwendig ist? Zumindest das AA scheinen sie ja anscheinend größten Teils von den NV2x übernommen zu haben oder bringe ich da jetzt etwas durcheinander? ???

Der gesamte Satz war: "Die VS 2.0 kompatibilität konnte ATI laut diesem Gerücht mit minimalen Hardwareerweiterungen erreichen."

Ich gebe zu das man das missverstehen kann. Es ging wie bereits gesagt darum:
R200 Vertexshader nehmen und etwas erweitern = minimalen Hardwareerweiterungen.

Warum NVIDIA nicht das gleiche gemacht hat?

Ich bin nicht Kirk und Co deswegen kann ich nur vermutungen anstellen aber bisher war es nun mal immer so das man mit den ersten Chip einer neuen Rheie (NV10, NV20) irgendeine neue Technik eingeführt hat. In dieser Tradition verhaftet hat auch der NV30 wieder etwas vollkommen neues bekommen.

Die AA spezifischen Sachen scheinen wirklich zum grössten Teil aus dem NV25 zu stammen.

Gerhard
2003-01-29, 10:55:41
Zur Information, auf Beyond3d wurden nun die DX9 Pixelshader mittels ToMMTI-Systems Shadermark verglichen. Die Ergebnisse sind allerdings extrem niedrig (rund 1/3 der ATI Ergebnisse), hier dürften die Treiber noch keinerlei Optimierung erfahren haben, NVidia hat sich vermutlich nur um die grundsätzliche Lauffähigkeit gekümmert.

Allerdings könnte ich mir durchaus vorstellen das auch mit optimierten Treibern die Geschwindigkeit gegenüber der R300 deutlich niedriger bleibt, man erinnere sich an die Aussagen das der Pixelshader im 11 bit-Integer Mode (mit dem bisher alle anderen Tests gemacht wurden) doppelt so schnell gegenüber FP ist.

NVIDIA (http://www.beyond3d.com/forum/viewtopic.php?t=4041&postdays=0&postorder=asc&start=38)

ATI (http://www.beyond3d.com/forum/viewtopic.php?t=4041&postdays=0&postorder=asc&start=44)

Kennung Eins
2003-01-29, 11:43:55
Originally posted by mapel110
und was hat nvidia beim umstieg auf nv30 nun genau grundlegend geändert ?
wieso soll das bei denen komplizierter sein ? Siehe hier (http://www.3dcenter.de/artikel/2002/11-19_a.php) würde ich mal sagen.

Da ist nicht nur mal eben an ein paar einzelnen Sachen rummanipuliert worden, sondern z.b. die komplette Architektur von VS & PS verändert worden (z.b. daß nun Sprünge/Loops in VS Programmen erlaubt sind, was sie vorher nicht waren, was ich mir durchaus als schwierig zu implementieren vorstellen kann - je nachdem, wie das eben vorher von nVidia in NV25 vorher implementiert war).

PCGH_Thilo
2003-01-29, 12:16:30
Originally posted by Eusti
Warum ist eigendlich niemandem aufgefallen, das es in den Tests keine DX9 Benchmarks gab (obwohl die Benchmarks selber exestieren)? Möglicherweise wir der neue 3DMark ja auch noch von NVidia zurückgehalten, weil Sie die FX nicht zum laufen bekommen?

welche dx9-benchmark existieren?

Gerhard
2003-01-29, 12:25:23
http://www.tommti-systems.de/ - Shadermark v1.6

Ergebnis siehe oben.

Eusti
2003-01-29, 12:27:10
Originally posted by PCGH_Thilo

welche dx9-benchmark existieren? Z.B. der Shader-Mark 1.6 (Download-File (http://www.tommti-systems.de/main-Dateien/TOOLS/ShaderMark.sfx.exe)) oder aber auch die ATI-DX9 Demos. Die hätte man testen können. Bei voller DX9 Kompatibilität hätten die alle laufen müssen.

Demirug
2003-01-29, 12:47:10
Originally posted by PCGH_Thilo


welche dx9-benchmark existieren?

Im DX9 SDK sind noch eine Rheie von Beispielen enthalten die eine DX9 Karte voraussetzen. Sind zwar keine richtigen Benchmarks aber eine FPS anzeige haben die meisten schon.

HOT
2003-01-29, 12:48:11
ATI hat versucht, die Treiberprogrammierer mit einem entsprechend pflegeleichten Chipdesign zu entlasten. NV hat seine Treiberprogrammierer offensichtlich überschätzt und rücksichtslos designt. Es richt schon verdächtig nach Savage2000 ;) aber wier werden ja sehen ;)

DrFreaK666
2003-01-29, 13:17:08
Ich finds immer noch lustig wie NV nun mit S3 oder 3DFX verglichen wird...
Oh Leute, wartet doch mal ab!!!! Die Treiber sind noch unausgereift, aber daran bastelt NV ganz bestimmt. NV wird nicht so schnell sterben wie 3DFX. ganz bestimmt nicht. Denen gehts nicht so schlecht.

Katrin
2003-01-29, 13:20:02
Originally posted by DrFreaK666
Ich finds immer noch lustig wie NV nun mit S3 oder 3DFX verglichen wird...
Oh Leute, wartet doch mal ab!!!! Die Treiber sind noch unausgereift, aber daran bastelt NV ganz bestimmt. NV wird nicht so schnell sterben wie 3DFX. ganz bestimmt nicht. Denen gehts nicht so schlecht.

das meine ich auch...

Wenn die Treiber wirklich noch im Alpha-Stadium sind, dann kommt da bestimmt noch was.

Der Föhn wird vielleicht bleiben, aber nicht in dieser Lautstärke. Die karte wird bestimmt noch 50% leiser. Waren doch bist jetzt nur Test-Samples

Crushinator
2003-01-29, 13:28:19
Originally posted by Katrin Der Föhn wird vielleicht bleiben, aber nicht in dieser Lautstärke. Die karte wird bestimmt noch 50% leiser. Waren doch bist jetzt nur Test-Samples Ich hätte angesichts dessen, was z.Z. Fakt ist, die Karte nie zum Reviewer geschickt. Es hat bei vielen einen negativen Beigeschmack hinterlassen, obwohl die Karte IMHO noch unter Wert geschlagen wird. Und mal ehrlich: Die paar Wochen hätte man auch noch warten können, oder?

Unregistered
2003-01-29, 13:30:02
Nja war bis jetzt Häufiger so die tnt ultra
lief der gf1 in vielen spielen damals davon!

2 monate nach dem verkaufstart hatte sich das gegesen :)

und wenn ich schon mitbekomm wie der streit losgeht um einen beta treiber nja was sols !

Katrin
2003-01-29, 13:31:55
Originally posted by crushinator
Ich hätte angesichts dessen, was z.Z. Fakt ist, die Karte nie zum Reviewer geschickt. Es hat bei vielen einen negativen Beigeschmack hinterlassen, obwohl die Karte IMHO noch unter Wert geschlagen wird. Und mal ehrlich: Die paar Wochen hätte man auch noch warten können, oder?

das wunder mich auch.


NV weiss doch, dass sie die Käufer, wegen der Treiber und der Lautstärke zu ATi treiben. Was haben die sich denn dabei gedacht ?
Haben die vielleicht wirklich aus der FX mit 500/1000 alles rausgeholt um nur vor der 9700Pro zu sein ?

Ich versteh das alles net mehr.

Unregistered
2003-01-29, 13:32:26
Originally posted by Katrin


das meine ich auch...

Wenn die Treiber wirklich noch im Alpha-Stadium sind, dann kommt da bestimmt noch was.

Der Föhn wird vielleicht bleiben, aber nicht in dieser Lautstärke. Die karte wird bestimmt noch 50% leiser. Waren doch bist jetzt nur Test-Samples

Aber wie soll man den leiser bekommen???? Entweder macht man den Lüfter größer (geht nicht sonst geht noch ein Pci-Slot flöten) damit die Drehzahl reduziert werden kann; oder man optmiert den Luftfluss, da kann man aber die Lautstärke nicht um 50% verringern. Einfach Drehzahl verringern is auch nicht sonst schmilzt die KArte wie Butter in der Sonne.

Wenn die Treiber wirklich noch Alpha sind, hätte ich die Karten nie zum Test geschickt; das Auseinanderpflücken der FX, was nun geschieht, ist IMHO noch schlimmer als den Test um 1-2 Monate zu verschieben. Der Imageverlust ist einfach viel zu groß.

Und dann noch das mit dem Nach-Framebuffer-FSAA-Aniso-Filter!!! Wer macht denn bei nVidia die Öffentlichkeitsarbeit; so bescheuert kann man doch garnicht sein.

IMHO hätten die Chip-, Karten- und Treiberentwickler von nVidia die Karte nie zum Test geschickt, wenn der Vorstand und der Aufsichtsrat der Firma nicht Druck gemacht hätte. Wie man sieht, die absolut falsche Entscheiung!!!

barnygumble
2003-01-29, 14:20:46
Originally posted by Unregistered


Aber wie soll man den leiser bekommen???? Entweder macht man den Lüfter größer (geht nicht sonst geht noch ein Pci-Slot flöten) damit die Drehzahl reduziert werden kann; oder man optmiert den Luftfluss, da kann man aber die Lautstärke nicht um 50% verringern. Einfach Drehzahl verringern is auch nicht sonst schmilzt die KArte wie Butter in der Sonne.
Entscheiung!!!

wenn die karte jetzt so heiß wird, wie soll das denn erst mit besseren treibern werden?
Vielleicht bin ich auf dem holzweg, aber wenn bessere treiber die karte mehr auslasten, hat die ja mehr zu tun, oder?
(Wo der chip, oder einzelne bereiche des chips jetzt noch pausen einlegen, weil die treiber es nochnicht hinkriegen, alles optimal auszunutzen, braucht die ja weniger strom)
also steigt doch die abwärme ebenfalls mit besseren treibern?! (so sie denn noch verbessert werden können)

PCGH_Thilo
2003-01-29, 14:28:59
Originally posted by Eusti
Z.B. der Shader-Mark 1.6 (Download-File (http://www.tommti-systems.de/main-Dateien/TOOLS/ShaderMark.sfx.exe)) oder aber auch die ATI-DX9 Demos. Die hätte man testen können. Bei voller DX9 Kompatibilität hätten die alle laufen müssen.

sind ja nicht wirklich benchmarks, oder? hatte leider keine zeit, die ati-demos auszuprobieren. die nv-demos laufen aber nicht auf r300 (wie meistens halt).

Unregistered
2003-01-29, 14:29:46
Originally posted by barnygumble


wenn die karte jetzt so heiß wird, wie soll das denn erst mit besseren treibern werden?
Vielleicht bin ich auf dem holzweg, aber wenn bessere treiber die karte mehr auslasten, hat die ja mehr zu tun, oder?
(Wo der chip, oder einzelne bereiche des chips jetzt noch pausen einlegen, weil die treiber es nochnicht hinkriegen, alles optimal auszunutzen, braucht die ja weniger strom)
also steigt doch die abwärme ebenfalls mit besseren treibern?! (so sie denn noch verbessert werden können)
NEIN

Dr. Greenthumb
2003-01-29, 14:32:02
Originally posted by barnygumble


wenn die karte jetzt so heiß wird, wie soll das denn erst mit besseren treibern werden?
Vielleicht bin ich auf dem holzweg, aber wenn bessere treiber die karte mehr auslasten, hat die ja mehr zu tun, oder?
(Wo der chip, oder einzelne bereiche des chips jetzt noch pausen einlegen, weil die treiber es nochnicht hinkriegen, alles optimal auszunutzen, braucht die ja weniger strom)
also steigt doch die abwärme ebenfalls mit besseren treibern?! (so sie denn noch verbessert werden können)

Wenn überhaupt dann nur minmal, bestimmte Teile des Chips werden dann besser ausgelastet (wie man an Tommtis Shadermark für DX9 sieht sinds wohl die Shader, die noch nicht richtig laufen). Die Pipes laufen immer volle Torte in 3D Bereich, heisser wird sie damit wohl IMHO nicht mehr, aber kühler bestimmt nicht. Ich kann mir kaum ein andere Kühlungsystem vorstellen (das platzsparend ist), das diese Abwärme abführen könnte. Bei einem Standardkühler wärs sowieso noch schlimmer da die Hitze ins Gehäsue verteilt wird.

Ich hab mal mit nem Studienkollegen gesprochen (Physiker) der versteht ein wenig von Strömungsmechanik und den thermischen Probs bei Chips. Der sagte mir das das System nicht leiser werden kann ohne massiv größer zu werden. Also so von der Länge Voodoo5 6000 mit 3facher Breite um mal nen Beispiel zu geben wie groß die werden müsste, also technisch nicht möglich (laut meinem Kollegen). Also wenn ich alle Meinungen zusammennehme glaube ich der Kühler wird noch nicht mal mehr im Detail geändert!!!!

Eusti
2003-01-29, 16:37:57
Originally posted by Unregistered

NEIN DOCH

ow
2003-01-29, 17:06:18
Originally posted by crushinator
Habe ich was mit den Augen? Ich könnte schwören "irgendwo" gelesen zu haben, daß es sich immerhin um einen Chip mit 107 Millionen Transistoren handelt, welche bekanntlich nicht mal eben so mit einer "minimalen" Hardware-Erweiterung zu einem Chip mit 60 Mi.-Tr. zustande kommen sollten. ???


Jep. HW minimal erweitert (FP etc.) und dupliziert (zB. 4VS, 8 pipes).

Ficus
2003-01-29, 17:19:21
Originally posted by barnygumble
wenn die karte jetzt so heiß wird, wie soll das denn erst mit besseren treibern werden?
Vielleicht bin ich auf dem holzweg, aber wenn bessere treiber die karte mehr auslasten, hat die ja mehr zu tun, oder?
(Wo der chip, oder einzelne bereiche des chips jetzt noch pausen einlegen, weil die treiber es nochnicht hinkriegen, alles optimal auszunutzen, braucht die ja weniger strom)
also steigt doch die abwärme ebenfalls mit besseren treibern?! (so sie denn noch verbessert werden können)
Genau das war auch mein erster Gedanke.
Kann das mal jemand genauer erläutern warum oben genanntes nicht der Fall sein sollte?

Dr. Greenthumb
2003-01-29, 17:32:46
Originally posted by Ficus

Genau das war auch mein erster Gedanke.
Kann das mal jemand genauer erläutern warum oben genanntes nicht der Fall sein sollte?

Das Problem ist das exakt zu messen, was aber auf jeden Fall zunehmen wird sind die Anzahl der Hotspots auf dem Chip, wenn der Treiber alles richtig auslastet. Ich muss meine vorherige Vermutung revidieren, die CPU reagieren ja auch temperaturmäßig auf Last und der Chip ist ja im Grunde nur eine hochspezialisierte CPU also wird sie genauso reagieren (Temp steigt.)

Bei jedem Spiel werden unterschiedliche Einheiten stärker belastet andere weniger und so wird das Messen ziemlich schwierig. Hoffen wir das die Treiber nicht so kagge sind, das das wirklich noch zum Problem wird.

Muh-sagt-die-Kuh
2003-01-29, 20:34:52
Originally posted by ow



Jep. HW minimal erweitert (FP etc.) und dupliziert (zB. 4VS, 8 pipes). Sorry, aber der Schritt von der R200 zur R300 ist um einiges grösser als der von der GF4Ti zur GF-FX, von "minimalen Erweiterungen" zu sprechen kann wohl nicht dein ernst sein.

Erstmal die Gemeinsamkeiten:

Beide mussten ihre Pipelines auf FP-Format umstellen und ihre Vertex Shader auf die 2.0 Spezifikation anpassen.

Was bei NVidia geändert wurde:

-AF Geschwindigkeitsoptimierungen zuungunsten der Bildqualität
-leicht verbesserter Speichercontroller

Was bei ATI geändert wurde:
-erstmals eine MSAA Einheit implementiert mit bis zu 6 Samples
-erstmals einen 4-way Crossbar-Memorycontroller implementiert
-gegenüber dem R200 massiv verbessertes AF

LovesuckZ
2003-01-29, 20:40:45
Originally posted by Muh-sagt-die-Kuh
Was bei ATI geändert wurde:
-erstmals eine MSAA Einheit implementiert mit bis zu 6 Samples
-erstmals einen 4-way Crossbar-Memorycontroller implementiert
-gegenüber dem R200 massiv verbessertes AF

Hm, komisch. ich hatte da mal in Errinerung, dass (bis auf das AA fast) das ganze schon eine fast 1 1/4 Jahr alte karte konnte. Den schritt musste also ATI gehen.

BlackBirdSR
2003-01-29, 21:01:42
Originally posted by LovesuckZ


Hm, komisch. ich hatte da mal in Errinerung, dass (bis auf das AA fast) das ganze schon eine fast 1 1/4 Jahr alte karte konnte. Den schritt musste also ATI gehen.

welchen Einfluss hat dies auf die Aussage dass die R300 keine einfache minimal Aufarbeitung der R200 ist?

keine: also was soll dein Post eigentlich rüberbringen?

ice cool69
2003-01-29, 21:03:22
@ lovesuckz

behauptet ja auch keiner dass es anders war. aber ati hat nvidia innerhalb von 3 radeon-generationen nicht nur eingeholt sondern überholt. das ist eine gewaltige leistung die man anerkennen sollte. (es sei denn man heißt richthofen)

mapel110
2003-01-29, 21:07:45
Originally posted by Kennung Eins
Siehe hier (http://www.3dcenter.de/artikel/2002/11-19_a.php) würde ich mal sagen.

Da ist nicht nur mal eben an ein paar einzelnen Sachen rummanipuliert worden, sondern z.b. die komplette Architektur von VS & PS verändert worden (z.b. daß nun Sprünge/Loops in VS Programmen erlaubt sind, was sie vorher nicht waren, was ich mir durchaus als schwierig zu implementieren vorstellen kann - je nachdem, wie das eben vorher von nVidia in NV25 vorher implementiert war).

das ist zweifellos ein toller artikel, den du da verlinkt hast. aber warum bastelt nvidia sowas rein, was ohnehin eh nie zur lebzeit der fx gebraucht wird, ausser im 3dmark2003 ?
und ich sehe das noch lange nicht als beweiss für komplexität/neuheit eines chips, weil er sprünge erlaubt.

"goto" gabs schon in basic ;)

Unregistered
2003-01-29, 21:09:11
Originally posted by mapel110
[...]

"goto" gabs schon in basic ;)

in Assembler gibts Goto auch scho .. man brauch nich so ne hohe Sprache dafür :D

Kennung Eins
2003-01-29, 21:11:19
Originally posted by mapel110
"goto" gabs schon in basic ;) ...aber eben nicht in Shader Programmen :)

Naja, warum man das eingebaut hat... hmm :) gute Frage.
Ich will den NV30 nicht schön reden, aber es ist zumindest falsch zu sagen, "da wurde fast nichts oder nur wenig geändert".

Im R300 sind ebenfalls viele Sachen "zu viel" :)
(zu viel im Sinne von "werden eh noch nicht genutzt")

LovesuckZ
2003-01-29, 21:11:45
Originally posted by BlackBirdSR
welchen Einfluss hat dies auf die Aussage dass die R300 keine einfache minimal Aufarbeitung der R200 ist?
keine: also was soll dein Post eigentlich rüberbringen?

Weil Muh-sagt-die-Kuh sagt, der Scheritt sei groeßer gewesen als das was Nvidia getan hat. Und das stimmt aus meiner Sicht nicht.

Dunkeltier
2003-01-29, 21:13:12
H.A.M.D.S.F.

Mehr gibt es dazu nicht zu sagen, stimmts?

Demirug
2003-01-29, 21:15:46
Muh-sagt-die-Kuh, ja beide musste die Pixel-Pipeline auf FP umstellen.

NVIDIA hat es aber nicht bei dieser Umstellung gelassen sondern hat die Vertex und Pixelshader komplett neu designt (bei der Pixelpipline steckt da möglicherweise sogar etwass 3dfx Technik). Deswegen tragen diese auch zu Recht das 2.0+. = Revolution

Auch ATI hat es bei den PS nicht einfach bei der Umstellung gelassen sondern das mit der R200 eingeführte Design weitergeführt. = Evolution

Zu deinen weiteren Punkten:

MSAA ist sicherlich eine gute Sache und hier steckt auch eine gewisse Menge Arbeit drin. Aber im Prinzip wurde hier einfach das Endstück der Pipeline jeweils 6 Mal dupliziert und im Trisetup den Z-Interpolator so erweitert das er 6 Z-Werte pro Pixel erzeugen kann.

AFAIK hatte auch schon der R200 eine Art Crossbar diese war eben nur zweikanalig (2*64).

R200: tri geht, af geht, tri af geht nicht. Beim R300 ist diese Problem endlich gelöst worden aber eine so grosse Herausforderung war das nun wirklich nicht.

ow
2003-01-29, 21:23:18
Originally posted by Muh-sagt-die-Kuh
Sorry, aber der Schritt von der R200 zur R300 ist um einiges grösser als der von der GF4Ti zur GF-FX, von "minimalen Erweiterungen" zu sprechen kann wohl nicht dein ernst sein.




Das ist mein voller Ernst. Und nicht nur meiner.
GFFX = Revolution, R300 = Evolution.

Quasar
2003-01-29, 21:34:34
...und eigentlich sollte ja auch der R200 schon Multisample-AA mit bis zu 6 Samples/Pixel können, es hat nur eben nicht funktioniert.

Einen "simplen" Bugfix, der als neues Feature von den Kunden angenommen wird.... so weit ist's gekommen, gelle? ;)

Unregistered
2003-01-29, 21:39:06
stimmt da is es schon revolutionärer mit nem lächerlichen AA system anzutreten.
Btw, wer waren denn immer die leute die so gerne AA gehypt haben? lest mal nen jahr zurück.
und der rest? oh CG,shader? in diesem leben noch? wer weiss, wenn ich die posts auf beyond3d von einigen entwicklern lese weiss ich was ich davon zu halten hab.oh und AA vs shader, AA kann ich jetzt nutzen.

Eusti
2003-01-29, 21:45:29
Originally posted by ow

Das ist mein voller Ernst. Und nicht nur meiner.
GFFX = Revolution, R300 = Evolution. Is ja auch eigendlich egal, wie man sowas nennt. Wichtig ist, das es die folgenden Veränderungen gab:

- ATI von Scheisse zu Genial
- NVidia von Genial zu Scheisse

Was da jetzt evolutioniert oder revolutioniert wurde, interessiert mich nicht. Ich will das die Games geil aussehen & flüssig laufen. Und da ist die Vorgehensweise von NVidia halt dumm gewesen. Vielleicht mutig & revolutionär, aber dumm.

Hotzenplotz
2003-01-29, 21:53:34
Originally posted by Eusti


- ATI von Scheisse zu Genial
- NVidia von Genial zu Scheisse



Bis auf die Lautstärke kann ich z.Z nichts finden was bei der GeforceFx scheisse ist.

Eusti
2003-01-29, 22:01:47
Originally posted by Hotzenplotz

Bis auf die Lautstärke kann ich z.Z nichts finden was bei der GeforceFx scheisse ist. Aber die "übertönt" alle anderen positiven Aspekte.

Nee, mal im Ernst:
- die Karte ist immer noch nicht lieferbar
- die AA-Qualität der R300 konnte man nicht erreichen
- die AF-Geschwindigkeit der R300 konnte man nicht erreichen
- die Treiber produzieren Bildfehler (da herscht Gleichstand)
- und ohne Turbine kann man die Leistung der R300 nicht erreichen

Den Preis will ich mal aussen vor lassen, denn der wird sich an den Markt anpassen. Die ersten 2 Kartenpreise zum vorbestellen sind nicht repräsentativ. NV hatte zu Zeiten der GF4 einen gigantischen Vorsprung. Der hat sich jetzt innerhalb von nur einem halben Jahr in einen deutlichen Rückstand gewandelt, welcher mit der Vorstellung der GFFX gipfelt.

Salvee
2003-01-29, 22:15:31
Originally posted by ow



Das ist mein voller Ernst. Und nicht nur meiner.
GFFX = Revolution, R300 = Evolution.

Dieser (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=42607&perpage=20&highlight=evolution&pagenumber=4) Post von Demirug hat sich in mein Hirn gebrannt :biggrin:, und er sollte Recht behalten...

' Evolution ist in der Regel sowieso der bessere Weg als Revolution'

Demirug
2003-01-29, 22:29:46
Originally posted by Salvee


Dieser (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=42607&perpage=20&highlight=evolution&pagenumber=4) Post von Demirug hat sich in mein Hirn gebrannt :biggrin:, und er sollte Recht behalten...

' Evolution ist in der Regel sowieso der bessere Weg als Revolution'

Suchfunktion rulz :D

Ich stehe auch nach wie vor dazu das Evolution der bessere Weg ist. Man sieht es ja zum Beispiel daran welche Probleme NVIDIA mit den Treibern für den NV30 hat.

Aber um es jetzt mal gandenloss auf den Punkt zu bringen:

NVIDIA hatte bei den Pixelshader keine Wahl. Die NV25 Pipeline war am Ende angekommen da war nichts mehr mit Evolution zu retten.

Bei den Vertexshadern hätte man sich mit einer Evolution sicher noch über eine oder zwei Runden retten können (was vielleicht besser gewessen wäre) aber man hat sich wohl zum Rundumschlag entscheiden um mit dem NV30 als Technologiebasis wieder ein paar Evolutionsschritte zu gehen.

Muh-sagt-die-Kuh
2003-01-30, 01:49:24
Originally posted by Quasar
...und eigentlich sollte ja auch der R200 schon Multisample-AA mit bis zu 6 Samples/Pixel können, es hat nur eben nicht funktioniert.

Einen "simplen" Bugfix, der als neues Feature von den Kunden angenommen wird.... so weit ist's gekommen, gelle? ;) Solche Behauptungen sollte man belegen ;)

Muh-sagt-die-Kuh
2003-01-30, 01:57:08
Originally posted by ow



Das ist mein voller Ernst. Und nicht nur meiner.
GFFX = Revolution, R300 = Evolution. Die AA Einheit haben sie bei ihrer "Revolution" wohl übersehen, seit der ersten Implementation hat sich hier so gut wie null getan, ebenso dass ein breites Speicherinterface doch Vorteile bringt...ich bin weiterhin der Meinung, dass das R300 Design deutlich mehr Aufwand erfordert hat als das der FX.

Exxtreme
2003-01-30, 01:57:57
Originally posted by Quasar
...und eigentlich sollte ja auch der R200 schon Multisample-AA mit bis zu 6 Samples/Pixel können, es hat nur eben nicht funktioniert.

Also wenn ein Spiel kein Nebel verwendet, dann funktioniert das auch. Es ist zwar kein MSAA aber multisample-buffered Supersampling. :)
Und was anderes hat ATi auch nie behauptet aber viele Tester haben das missverstanden. Nur die Sache mit dem Fog ist schlecht.

diedl
2003-01-30, 03:25:44
könnte dx9 noch nicht richtig "freigeschaltet" sein,
weil die Karte mit den jetzigen Treibern ganz einfach zu
heiß wird? Es scheint zumindestens noch thermische Probleme zu
geben.

Ist zwar von Chip, aber gibt einen doch zu denken.

Ein Null-Ergebnis lieferte schließlich der SPECviewperf 7.0: Dieser Workstation-orientierte OpenGL-Benchmark lief auf dem GeForce FX nicht durch. Im Verlauf des Benchmarks stieg die Temperatur des massiven Speicherkühlers an der Board-Unterseite bis auf 60 Grad Celsius, dann zeigten sich die ersten Darstellungsfehler, und schließlich stürzte das System ab. Die Fehler traten dabei umso schneller auf, je höher die gewählte Auflösung lag.

orginal Link
http://www.chip.de/produkte_tests/unterseite_produkte_tests_9594870.html

mfg diedl

Crushinator
2003-01-30, 04:26:20
Originally posted by ow
GFFX = Revolution, R300 = Evolution. Jedenfalls hat diese Revolution ja anscheinend soooooooo viel gebracht. *eg*

StefanV
2003-01-30, 14:50:41
Originally posted by ow



Das ist mein voller Ernst. Und nicht nur meiner.
GFFX = Revolution, R300 = Evolution.
LOL

Nur dummerweise hat der Kunde von der Evolution mehr als von der 'Revolution' der GF FX.

Von was, das bei der GF FX JETZT Nutzbar ist, hat man denn einen Vorteil ??
Bzw ist eine Verbesserung zum Vorgänger ??

Die Turbine kanns ja wohl nicht sein...

Wohingegen der Unterschied von dem, was die R200 und R300 JETZT bieten sofort einen unübersehbaren Vorteil hat.

z.B. das Gammakorekte FSAA, das sehr schnell ist, das sehr gute AF und noch vielen anderen Dingen...

Die GF FX ist ein purer Schuss in den Ofen...

StefanV
2003-01-30, 14:53:45
Originally posted by Unregistered


in Assembler gibts Goto auch scho .. man brauch nich so ne hohe Sprache dafür :D

Goto gibts sogar in der MS-DOS Batch progammierung *eg*

StefanV
2003-01-30, 15:06:28
aus einem anderen Thread (von mir *eg*)
Originally posted by Stefan Payne

Originally posted by robbitop
Stefan

Demirug sagte das schon öfter, in der GF FX steckt mehr Neuentwicklung als in den meisten VPUs. Die Pipelinestruktur ist neu wie auch das VS Array. Das Einzige alte sind der CBMC und LMA2 und die AA Sampler Units in der Pipe und ihre Anwendung.

Der R300 hingegen soll ein stark verbesserter R200 sein (PS1.4 gehen stark in 2.0 Richtung und sind "nur" Erweitert worden. Selbiges mit den VS..einfach vervierfacht und erweitert. Die AA Sampler sind neu undd ihre Anwendung ein neues Speicherinterface mit CBMC und ein sehr gutes Thermisches Design...es ist eine starke Evolution aber keine Revolution (vom Chipdesign her)..vom Ergebnis her ist es allerdings genau umgekehrt ;-) )

1. Als Enduser ist es mir völlig schnuppe, wieviel denn nun geändert ist.
DAS hat höchstens Theoretisch auswirkungen, wie es in der Praxis ausschaut ist eine andere Sache...

Theoretisch ist die GF FX also ein 'fast' neu Design, pratisch bietet sie kaum mehr als eine GF4 bietet (auf FSAA/AF bezogen)...
Also immer noch 4 Sample Pixel Pipelines und nur 2x RG möglich...

2. mag auch sein, daß ATI eigentlich nicht viel zur 8500 ändern mußte...

Die Auswirkungen der 'geringen' Änderungen in der Praxis sind dafür umso erstaunlicher, Gammakorrektes MSAA, besseres AF, alles im allen ist der Unterschied zur R200 gewaltig...

PS: Internas mal außen vor gelassen und nur das bewertet, was 'hinten raus kommt'...
Und da hat ATI nunmal die größeren Fortschritte gemacht...

Quasar
2003-01-30, 15:22:49
Originally posted by Muh-sagt-die-Kuh
Solche Behauptungen sollte man belegen ;)
Böse böse Gerüchte, an denen natürlich kein Fünkchen Wahrheit ist. Smoothvision war von Anfang an so geplant, wie es in den aktuellen Treibern für die R200 verwirklicht ist.

/me ist halt ein gemeiner Flamer.

@Exxtreme:
Ja, du hast recht, ich war mal wieder etwas ungenau. Woher hab' ich das bloss? ;)
Quote from ATi Radeon DX8 White Paper
Multisample Rendering
Multisample rendering refers to the rendering of multiple pixels that are combined in some way to produce a single output pixel. This differs from texture sampling and filtering, where multiple texels are sampled from a texture map to produce an output pixel, because multisample rendering samples pixels that have already passed completely through the rendering pipeline.

Full Scene Anti-Aliasing
The most important use for multisample rendering is full scene anti-aliasing (FSAA). Aliasing refers to a set of visual artifacts that can result from limited display resolutions, including things like jagged edges and shimmering pixels. FSAA reduces or removes these artifacts using a form of multisample rendering known as supersampling. Supersampling involves first rendering an image at a higher resolution than the intended final output resolution, then sampling adjacent groups of pixels in the supersampled image and blending them together into a single pixel.


Figure 27: Anti-Aliasing.

While it was possible to implement FSAA using earlier versions of DirectX, this had to be done at the driver level since there was no explicit interface through the API. DirectX 8.0 adds this interface, allowing graphics drivers to report what types of multisample rendering they support and allowing applications to enable them as desired.
Supersampling-AA durch Multisample-Rendering....

Dazu nochmal ATi:
Quote from ATi's Smoothvision PDF
The two most commonly used anti-aliasing solutions are "Super-sampling" and "Multi-sampling". Both of these methods blend sub-pixel smaples to correct aliasing, but generate samples in different ways. The exact distinction between these two methods is somewhat unclear, and has been defined mostly by marketing material more than anyhting else.
Danach werden noch zwei verschiedene Arten von Multisampling (Jittered-MSAA mit verschiedenen Buffern und entsprechender Texturbehandlung, sowie Multisampling als FSEAA) kurz erwähnt.... ;)

aths
2003-01-30, 15:54:21
Originally posted by ow
Das ist mein voller Ernst. Und nicht nur meiner.
GFFX = Revolution, R300 = Evolution. Hm, hm. Ich würde bei diesen beiden Chips was die Weiterentwicklung angeht nicht so groß trennen wollen. Was z.B. AF oder AA angeht, ist GFFX alles andere als revolutionär, da brauchts selbst für die Evolution eine Lupe.

aths
2003-01-30, 16:07:41
Originally posted by Stefan Payne
Die GF FX ist ein purer Schuss in den Ofen... Das würde ich so nicht sagen wollen. Wenn nVidia erst mal die Startschwierigkeiten überwunden hat, wird sich die neue Architektur schon auszahlen, denke ich.

Unregistered
2003-01-30, 16:15:57
okok, ich weiss selber, daß ich ständig über die GF FX lästere,

natürlich ist sie nicht nen schuss in den ofen, aber für das was sie kann, kommt sie halt einfach zu spät und NV hatt einfach zu sehr gehypt. Sind sie selber schuld wenn jetzt jeder drüber herzieht.
und es gibt ja wirklich einige gravierende nachteile. naja schon hundertmal aufgezählt, muss nicht wieder sein :D

Are you ready? yep, und bins IMMER noch! kommt da noch was? :D

Dr. Greenthumb
2003-01-30, 16:17:45
Originally posted by aths
Das würde ich so nicht sagen wollen. Wenn nVidia erst mal die Startschwierigkeiten überwunden hat, wird sich die neue Architektur schon auszahlen, denke ich.

Die Architektur wird sich vielleicht auszahlen (was IMO aber in den Sternen steht). Wir werden es erst bei nV35,38 und was da auch noch kommen mag sehen, vorher nicht.
Die jetzige Karte ist für das Jetzt und Hier und, sagen wir mal, 18 weitere Monate ein Schuss in den Ofen, wie Stefan "Enermax" ;D Payne so treffend sagte. (Sorry Stefan konnt ich mir nicht verkneifen)

Crushinator
2003-01-30, 16:46:04
Originally posted by aths Das würde ich so nicht sagen wollen. Wenn nVidia erst mal die Startschwierigkeiten überwunden hat, wird sich die neue Architektur schon auszahlen, denke ich. Das auf alle Fälle. Es ist (finde ich) fasszinierend immer wieder zu erfahren, was Zeit-Vorsprung haben/nichthaben bedeuten kann.

ow
2003-01-30, 18:10:24
Originally posted by crushinator
Jedenfalls hat diese Revolution ja anscheinend soooooooo viel gebracht. *eg*

ABWARTEN!!

by Demirug:
Bei den Vertexshadern hätte man sich mit einer Evolution sicher noch über eine oder zwei Runden retten können (was vielleicht besser gewessen wäre) aber man hat sich wohl zum Rundumschlag entscheiden um mit dem NV30 als Technologiebasis wieder ein paar Evolutionsschritte zu gehen.

ow
2003-01-30, 18:13:48
Originally posted by aths
Hm, hm. Ich würde bei diesen beiden Chips was die Weiterentwicklung angeht nicht so groß trennen wollen. Was z.B. AF oder AA angeht, ist GFFX alles andere als revolutionär, da brauchts selbst für die Evolution eine Lupe.

Dass nicht alles am GFFX revolutionär ist, wird wohl niemand bestreiten.;) AA ist sehr bescheiden und was AF taugt muss man noch abwarten. Jedenfalls hat der User die Wahl zwischen verschiedenen AF-Methoden.

ow
2003-01-30, 18:14:57
Originally posted by Unregistered


Are you ready? yep, und bins IMMER noch! kommt da noch was? :D

hehe, der war gut:D;D

ow
2003-01-30, 18:17:55
Originally posted by crushinator
Das auf alle Fälle. Es ist (finde ich) fasszinierend immer wieder zu erfahren, was Zeit-Vorsprung haben/nichthaben bedeuten kann.

Wie meinst du das?

aths
2003-01-30, 18:41:54
Originally posted by ow
Jedenfalls hat der User die Wahl zwischen verschiedenen AF-Methoden. Was ich eher gesagt lächerlich und anbetrachts der Standard-mäßigen "Balanced"-Optimierung als Cheaterei empfinde.

AF nimmt man für ein besseres Bild. Je nach Leistung stellt man 2°, 4° oder 8° (bei Radeon bis 16°) ein. Hier zu "optimieren" indem man schlicht die vorderen MIP Maps unschärfer macht als eigentlich gedacht, finde ich affig. Gerade da kommt es doch auf die Schärfe an, und nicht bei irgendwelchen Pixeln die "weit im Hintergrund" sind.

AF soll die BQ verbessern, da sollte man nicht überlegen, wie man sie für mehr Leistung weniger verbessert. Standard sollte bestes AF sein und nicht diese fürchterliche "Optimierung" mit dem Quadrat-Muster.

Seit GeForce3 haben die nur noch Unsinn gemacht, was AF betrifft: GeForce4 Ti kann nur noch mit trilinearer Performance AF, und der GFFX-Treiber stellt standardmäßig ein relativ schlechtes Verfahren ein, welches zudem in den vorderen MIP-Stufen einem bilinearem AF ähnelt. So "Performance" zu schinden halte ich für unklug.

ow
2003-01-30, 18:55:23
Originally posted by aths
Was ich eher gesagt lächerlich und anbetrachts der Standard-mäßigen "Balanced"-Optimierung als Cheaterei empfinde.



Wie emfindest du denn ATis Standard AF-Modus? (ups, gibt ja nur einen:D) Auch Cheaterei?


AF nimmt man für ein besseres Bild. Je nach Leistung stellt man 2°, 4° oder 8° (bei Radeon bis 16°) ein. Hier zu "optimieren" indem man schlicht die vorderen MIP Maps unschärfer macht als eigentlich gedacht, finde ich affig. Gerade da kommt es doch auf die Schärfe an, und nicht bei irgendwelchen Pixeln die "weit im Hintergrund" sind.


hmm... gerade die Schärfe im Hintergrung ist doch eines der Argument FÜR AF, im Vordergrund ist´s ja sogar mit rein trilinear scharf.


AF soll die BQ verbessern, da sollte man nicht überlegen, wie man sie für mehr Leistung weniger verbessert. Standard sollte bestes AF sein und nicht diese fürchterliche "Optimierung" mit dem Quadrat-Muster.


Ja, dieses 'Muster' gefällt mir irgendwie auch nicht so richtig. Aber ist dir ATis Methode wirklich lieber?


Seit GeForce3 haben die nur noch Unsinn gemacht, was AF betrifft: GeForce4 Ti kann nur noch mit trilinearer Performance AF, und der GFFX-Treiber stellt standardmäßig ein relativ schlechtes Verfahren ein, welches zudem in den vorderen MIP-Stufen einem bilinearem AF ähnelt. So "Performance" zu schinden halte ich für unklug.


Wie hättest du es denn gerne gehabt, das AF?

BlackBirdSR
2003-01-30, 18:59:39
OW,owe für dich gibts auch nor ATI und Nvidia?

wie wärs mal mit Nvidia, ATI, und Optimal?

dann bezog sich der Post vorhin eben auf Nvidia vs Optimal,
wenn du aber Allles in die Richtung ATI vs Nvidia drehen willst, bitteschön, aber stell Nvidia dann nicht als ATI vs Optimal hin.

StefanV
2003-01-30, 19:05:46
Originally posted by ow

ABWARTEN!!

Wie lang denn noch ??

Noch mal 3 mon bis die Karte in D verfügbar ist ??

Dann nochmal 3 Mon, bis es vernünftige Treiber gibt ??

Na, dann kann ich mir auch gleich 'ne R400 kaufen !!

Crushinator
2003-01-30, 19:06:38
Originally posted by ow Wie meinst du das? Schmeissextrafürowdieübersetzungsmaschinean: Wenn sie mehr Zeit gehabt hätten zu optimieren, sähen die Ergebnisse vermutlich viel besser aus bzw. ich erwarte auch, daß mehr Leistung aus der Kiste rauszuholen ist....wann auch immer.

ow
2003-01-30, 19:06:56
Originally posted by BlackBirdSR
OW,owe für dich gibts auch nor ATI und Nvidia?

wie wärs mal mit Nvidia, ATI, und Optimal?

dann bezog sich der Post vorhin eben auf Nvidia vs Optimal,
wenn du aber Allles in die Richtung ATI vs Nvidia drehen willst, bitteschön, aber stell Nvidia dann nicht als ATI vs Optimal hin.

?????????

StefanV
2003-01-30, 19:08:06
Originally posted by ow

Wie emfindest du denn ATis Standard AF-Modus? (ups, gibt ja nur einen:D) Auch Cheaterei?

hmm... gerade die Schärfe im Hintergrung ist doch eines der Argument FÜR AF, im Vordergrund ist´s ja sogar mit rein trilinear scharf.

Ja, dieses 'Muster' gefällt mir irgendwie auch nicht so richtig. Aber ist dir ATis Methode wirklich lieber?

Wie hättest du es denn gerne gehabt, das AF?

1. nein, Hardware optimiert.

2. und wofür soll man dann 'nen schärferen Vordergrund opfern ??

3. natürlich, ATI hat ja vorgelegt, NV mußte 'irgendwie' nachziehen...

4. am besten so gut wie möglich.
Aber dann kann man auch gleich 24x SSAA dazuschalten...

StefanV
2003-01-30, 19:09:12
Originally posted by crushinator
Schmeissextrafürowdieübersetzungsmaschinean: Wenn sie mehr Zeit gehabt hätten zu optimieren, sähen die Ergebnisse vermutlich viel besser aus bzw. ich erwarte auch, daß mehr Leistung aus der Kiste rauszuholen ist....wann auch immer.

Pünktlich zum release der neuen ATI Karte vermutlich *eg*

Der R400 natürlich, nicht der R350 :naughty:

ow
2003-01-30, 19:13:04
Originally posted by crushinator
Schmeissextrafürowdieübersetzungsmaschinean: Wenn sie mehr Zeit gehabt hätten zu optimieren, sähen die Ergebnisse vermutlich viel besser aus bzw. ich erwarte auch, daß mehr Leistung aus der Kiste rauszuholen ist....wann auch immer.

Achso, thx.

Aber wen siehst du denn nun im Vorsprung?

Das Rennen um DX9 hat ATi klar gewonnen, aber technologisch hat NV jetzt vorgelegt. Für den NV30 rechne ich nicht mehr mit viel Veränderungen (bugfixes und performanceoptimierung im Treiber, das war´s auch schon), aber als Basis zur Weiterentwicklung der nächsten Chip könnte er durchaus taugen.

ow
2003-01-30, 19:15:34
Originally posted by Stefan Payne


1. nein, Hardware optimiert.

2. und wofür soll man dann 'nen schärferen Vordergrund opfern ??

3. natürlich, ATI hat ja vorgelegt, NV mußte 'irgendwie' nachziehen...

4. am besten so gut wie möglich.
Aber dann kann man auch gleich 24x SSAA dazuschalten...

1. :rofl::rofl:

2. wofür den Hintergrung unscharf machen? worum geht´s denn bei AF?

3. jetzt hat NV wieder vorgelegt, mal sehen, wei ATi nachzieht

4. dann müsste das GF4-AF dir ja sehr gut gefallen, ist Top-Qualität. Leider auch zu dem Performance-Verlust, den diese mit sich bringt.

BlackBirdSR
2003-01-30, 19:17:28
Originally posted by ow


3. jetzt hat NV wieder vorgelegt, mal sehen, wei ATi nachzieht


der nächste logische Schritt ist doch jetzt einfach die Shader standards nach 3.0 zu erfüllen, und was den Chips sonst noch an brauchbaren features hinsichtlich DX 9 fehlt.

ow
2003-01-30, 19:23:19
Originally posted by BlackBirdSR


der nächste logische Schritt ist doch jetzt einfach die Shader standards nach 3.0 zu erfüllen, und was den Chips sonst noch an brauchbaren features hinsichtlich DX 9 fehlt.

Ja.
Und wie es Gerüchten zufolge aussieht ist NV da schon näher dran als ATi.
Aber das bleibt natürlich abzuwarten, wer das VS3/PS3-Rennen gewinnt.

StefanV
2003-01-30, 19:25:51
Originally posted by ow


1. :rofl::rofl:

2. wofür den Hintergrung unscharf machen? worum geht´s denn bei AF?

3. jetzt hat NV wieder vorgelegt, mal sehen, wei ATi nachzieht

4. dann müsste das GF4-AF dir ja sehr gut gefallen, ist Top-Qualität. Leider auch zu dem Performance-Verlust, den diese mit sich bringt.

1. hast du auch mal irgendwas, um ATI nicht niederzumachen ??
Achja, ich vergaß, NV ist ATI meilenweit vorraus...

2. Toll...

3. Dir ist bekannt, daß die R350 vor der Tür steht, oder ??
Mal sehen, was ATI JETZT wieder vorlegt...

4. das AF der GF4 ist (fast) unbrauchbar, bei DEM Performanceverlust kann mans auch gleich abgeschaltet lassen...
Beim FSAA liegen zwischen GF4 und R200 zwar welten, bei FSAA und AF liegt die GF4 und R200 nicht weit auseinander...

Allerdings dürfte es bei ATI User auch nur 2 Einstellungen für AF geben:

An(16°) und aus (1°)...

BlackBirdSR
2003-01-30, 19:26:12
Originally posted by ow


Ja.
Und wie es Gerüchten zufolge aussieht ist NV da schon näher dran als ATi.
Aber das bleibt natürlich abzuwarten, wer das VS3/PS3-Rennen gewinnt.

was sagen die Gerüchte denn?
NV35 vor R400 im Spätsommer? und NV35 3.0 Specs und R400 nicht?
ich hab noch keine gehört...

StefanV
2003-01-30, 19:29:07
Originally posted by BlackBirdSR


was sagen die Gerüchte denn?
NV35 vor R400 im Spätsommer? und NV35 3.0 Specs und R400 nicht?
ich hab noch keine gehört...

NV:

'NV30 is our Spring 2002 Product' *eg*

Unregistered
2003-01-30, 19:29:59
Originally posted by Stefan Payne


NV:

'NV30 is our Spring 2002 Product' *eg*

*ouch* :D

Eusti
2003-01-30, 19:39:02
Originally posted by Stefan Payne


NV:

'NV30 is our Spring 2002 Product' *eg* Ja, die größte Verpätung in der Firmengeschichte.

Man hat es wohl einfach ein bisschen überrissen. Bis zum Absturtz hat sich NVidia echt einiges zugemutet: XBox-Entwicklung, Chipsatz-Entwicklung, Einführung der 0,13er Technologie, überbieten der DX9-Specs, Integration von 3DFX, pushen der Entwickler auf den 6-Monats-Rythmus, ...

Da sind dann irgendwann wohl einfach zu große Lücken bei der Entwicklung des NV30 gerissen worden.

Muh-sagt-die-Kuh
2003-01-31, 02:17:46
Originally posted by ow


Wie emfindest du denn ATis Standard AF-Modus? (ups, gibt ja nur einen:D) Auch Cheaterei?Bei ATIs Modus beginnen die MIP-Maps bei den wichtigsten Winkeln wenigstens da wo sie sollten....
hmm... gerade die Schärfe im Hintergrung ist doch eines der Argument FÜR AF, im Vordergrund ist´s ja sogar mit rein trilinear scharf.Trilinear wird schon nach 2 Metern unscharf wie Hund....auch bei 4x AF ist in der Nähe des Betrachters noch verdammt viel unscharf....und NVs Balanced AF ist in der Nähe des Betrachters nicht besser als 4x AF.

Irgendwie finde ich es lustig.....unser Hauptnörgler am ATI-AF, das ja soooooooooo viel Bildqualität für Geschwindigkeit opfert, findet die "Optimierungen" von NV, die deutlich sichtbarer sein sollten als die von ATI, vollkommen legitim.....und behauptet dann immer wieder, neutral zu sein.....selten so gelacht....

Unforgiven_II
2003-01-31, 08:00:59
(Zwischenruf aus der hintersten Reihe)

Was das Kühlsystem angeht haben einige Kartenhersteller (siehe News 3DC) angekündigt eine eigene Lösung zu integrieren falls am Ende auf den fertigen Karten für den Verkauf wirklich der "nVidia-Staubsauger" bleiben sollte und nVidia da nichjts ändert.

Meine Meinung:

Die FX ist keine schlechte Karte von der Leistung und es wird sicher noch einiges rausgeholt werden von nVidia. In den Versprechungen wurde (wie immer) sehr viel erzählt was unter einigen Gesichtspunkten wohl auch zutrifft, in der Praxis aber wohl nicht (wie z.b. bei XY ist die FX x-mal so schnell wie eine Ti 4600 etc.). Was allerdings absolut nicht in das Bild passt: Der Preis.

Quasar
2003-01-31, 10:25:15
Wenn mir das Balanced-AF bei der GFFX nicht gefallen sollte, schalte ich auch Applikation zurück und habe wieder volle Qualität.

Was tue ich in dem Fall mit der ATi? ;)

BlackBirdSR
2003-01-31, 10:37:36
Originally posted by Quasar
Wenn mir das Balanced-AF bei der GFFX nicht gefallen sollte, schalte ich auch Applikation zurück und habe wieder volle Qualität.

Was tue ich in dem Fall mit der ATi? ;)

ich würde sagen pech gehabt ;)
Und das in doppelter Weise, ich kann bei ATI nichtmal auf PointSampling zurückstellen, wenn mich das Nostalgie Fieber packt.


also manchmal hat das Alles echt nen , mein Vater kann deinen Vater hauen, Charakter...

Unregistered
2003-01-31, 10:38:31
Originally posted by Quasar
Wenn mir das Balanced-AF bei der GFFX nicht gefallen sollte, schalte ich auch Applikation zurück und habe wieder volle Qualität.

Was tue ich in dem Fall mit der ATi? ;)

Das AF auf 16x erhöhen und mit richtig viel dampf zocken;);););)

Unregistered
2003-01-31, 10:41:04
Originally posted by Quasar
Wenn mir das Balanced-AF bei der GFFX nicht gefallen sollte, schalte ich auch Applikation zurück und habe wieder volle Qualität.

Was tue ich in dem Fall mit der ATi? ;)


bei 20fps :D

Unregistered
2003-01-31, 10:46:32
Originally posted by ow


Ja, dieses 'Muster' gefällt mir irgendwie auch nicht so richtig. Aber ist dir ATis Methode wirklich lieber?




Ja.

Originally posted by Muh-sagt-die-Kuh

Irgendwie finde ich es lustig.....unser Hauptnörgler am ATI-AF, das ja soooooooooo viel Bildqualität für Geschwindigkeit opfert, findet die "Optimierungen" von NV, die deutlich sichtbarer sein sollten als die von ATI, vollkommen legitim.....und behauptet dann immer wieder, neutral zu sein.....selten so gelacht....


Absolut. Gerade du, ow. Ich erinnere mich nur zu gut, was hier los war, als der R300 auf den Markt kam.

Quasar
2003-01-31, 10:49:30
Originally posted by Unregistered


Das AF auf 16x erhöhen und mit richtig viel dampf zocken;);)

:rofl:
Jaja, schön und gut, aaaaber....wer sinngemäß mitgelesen hätte, hätte verstanden, dass ich performance-optimierte Modi meinte.

Also für dich nochmal:
Wenn mir das Balanced-AF bei der GFFX nicht gefallen sollte, schalte ich auch Applikation zurück und habe wieder volle Qualität.


Was tue ich in dem Fall, dass mir performanceoptimiertes 16xAF, wo teils sogar mit nur 2xAF und weniger gefiltert wird, nicht gefällt, mit der ATi? ;)

Jetzt verständlich?

aths
2003-01-31, 11:14:19
Originally posted by ow
Wie emfindest du denn ATis Standard AF-Modus? (ups, gibt ja nur einen:D) Auch Cheaterei? Nein, weil ATIs Radeon halt nichts anderes kann.
Originally posted by ow
hmm... gerade die Schärfe im Hintergrung ist doch eines der Argument FÜR AF, im Vordergrund ist´s ja sogar mit rein trilinear scharf.Man sieht mehr Vorder- als Hintergrund. Ich würde gerne etwas Schärfe im Hintergrund opfern (und nur 4x AF nehmen) wenn dafür im Vordergrund alles so scharf wie möglich ist (was bei nV nur bei "Application" der Fall ist, nicht beim Standard "Balanced".)
Originally posted by ow
Ja, dieses 'Muster' gefällt mir irgendwie auch nicht so richtig. Aber ist dir ATis Methode wirklich lieber?

Wie hättest du es denn gerne gehabt, das AF? ATIs Methode wäre mir lieber als nVidias Optimierungen. Allerdings wäre mir am liebsten ein AF, was im Gegensatz zu nVidias 4x und 8x nicht diese "Zacke" bei 45° hat.

aths
2003-01-31, 11:18:55
Originally posted by Stefan Payne
4. das AF der GF4 ist (fast) unbrauchbar, bei DEM Performanceverlust kann mans auch gleich abgeschaltet lassen...Ich spiele aber alles mit mindestens 2x AF...

Radeonator
2003-01-31, 12:29:31
Köstlich, die ober Nviditioten sind wieder am Start :rofl:

Ihr merkt auch nichts mehr...aber ihr seit schon zwei Helden, echt, so bringt einen nämlich fast sonst niemand zum lachen (euren schwachen "ausser Du" Kommentar könnt ihr euch sparen, mit mehr rechne ich von eurer Seite eh nicht ;) )

Zusammengefasst : Alles was von unseren beiden Mecker-

http://www.eilenburg.de/rubrik2/tierpark/images/ziege2_g.jpg

kommt ist die Umkerung dessen, was Sie vorher an ATi Karten bemängelt haben. Mit anderen Worten : MUAHAHAHA

Also lieber OW: Wie kommt es, das alles was du an ATi´s AF bemängelst, bei NV Karten "no problemo" , sieht man gar nicht (naja, hast doch nen TFT oder ;) ) SUper Quali etc. ist ???

@Quasar : Jaja, Mr."Ich hab eine ATi Karte", du bist und bleibst ein Nvidiot. Von dir kommt Null Konstruktive Kritik, sondern nur gemowle. Ganz toll, ne, ehrlich...oder brauchst du einfach nur einen Grund zum Määäähckern

Ich habe genügend vergleichen können, im realen Spielbetrieb sieht man weder einen großen unterschied bei ATi´s alter Methode und bei der neuen schon gar nichts. Nur weil ihr euch einen darauf pellt wenn ihr in Winkel XYZ beim Stillstehen und genau austarieren finden konntet. Nun ist das ja gott sei dank auch von eurer seite legitimiert worten, danke!

Muh-sagt-die-Kuh
2003-01-31, 12:46:16
Originally posted by Quasar
Wenn mir das Balanced-AF bei der GFFX nicht gefallen sollte, schalte ich auch Applikation zurück und habe wieder volle Qualität.

Was tue ich in dem Fall mit der ATi? ;) Ruckelfrei weiterspielen? :D

StefanV
2003-01-31, 12:47:34
Originally posted by Radeonator
Also lieber OW: Wie kommt es, das alles was du an ATi´s AF bemängelst, bei NV Karten "no problemo" , sieht man gar nicht (naja, hast doch nen TFT oder ;) ) SUper Quali etc. ist ???

Nein, ich hab 2 TFT (15" und 16"), ow hat 'nur' 'nen 17er mit 70kHz *eg*

StefanV
2003-01-31, 12:48:20
Originally posted by Muh-sagt-die-Kuh
Ruckelfrei weiterspielen? :D

Und FSAA einschalten, sich über die reichhaltigen Funktionen seiner Karte freuen unter Anderem *eg*

Eusti
2003-01-31, 12:51:22
Originally posted by Stefan Payne

Und FSAA einschalten, sich über die reichhaltigen Funktionen seiner Karte freuen ...Knapp gesagt, in "Ruhe" sein Spiel genießen ;).

StefanV
2003-01-31, 13:06:10
Originally posted by aths
Ich spiele aber alles mit mindestens 2x AF...

Genau da ist der Punkt :)

Wie ich schon mehrfach sagte, für 'nen ATI User (insbesondere R200/RV250) gibts für AF nur 2 Einstellungen, off oder 16x :)

Bei ATI ists fast egal, ob man mit 2° oder 16° AF spielt, bei NV schauts bei der GF4 mit 2xFSAA und 8°AF schon ziehmlich schlecht aus...

BTW: es gibt schon spiele, in denen die GF4 (TI4400) (mit AF) schon zu lahm ist, BF1942 z.B.

StefanV
2003-01-31, 13:08:05
Originally posted by Eusti
Knapp gesagt, in "Ruhe" sein Spiel genießen ;).

Die ganze Diskussion ums NV/ATI AF find ich ehrlich gesagt ziehmlich bescheuert...

Mag zwar sein, daß es bei NV geringfügig besser ausschaut, dafür ist 8° AF bei der GF4 nicht wirklich nutzbar, wohingegen die Radeon 8500 sozusagen 'AF for Free' bietet...

Unregistered
2003-01-31, 13:11:12
Originally posted by Stefan Payne

wohingegen die Radeon 8500 sozusagen 'AF for Free' bietet...

:rofl::rofl:

schau dir lieber erst mal ein paar Benches an, bevor du solchen Unsinn von dir gibst.

Radeonator
2003-01-31, 13:19:08
Originally posted by Unregistered


:rofl::rofl:

schau dir lieber erst mal ein paar Benches an, bevor du solchen Unsinn von dir gibst.

ROFLKARTOFFEL

Es gibt leute die diese Karte selber ihr eigen nennen, also lieber Unreg, STFU ;) bevor du deinen geistigen Ausfluss hier ergiesst...

StefanV
2003-01-31, 14:50:46
Originally posted by Unregistered
:rofl::rofl:

schau dir lieber erst mal ein paar Benches an, bevor du solchen Unsinn von dir gibst.

So einen wie diesen (http://www.3dcenter.org/artikel/directx8_grafikchips_roundup/) ??

Und was sehen 'wir' ??

huch, in den meisten Benches gewinnt die R200 sogar etwas an Leistung, meistens ist der Unterschied von noAF/AF aber richtig enorm, bzw innerhalb der Messtoleranz...

[LOG]Skar
2003-01-31, 15:31:31
Der R300 ist halt dafür gemacht mit AF an und FSAA an zu spielen.
Und das kannm man zur Zeit zumindest bei trilinear 16xAF und 6xFSAA
lassen. Damit finde ich sieht man die ausrichtung von ATI in sachen
Qualität.
Die GF FX ist zur Zeit auch meist noch langsamer ,wenn alles auf
Quality gestellt ist. Und soll auch dabei nicht besser Aussehen.

Der Kampf beginnt aber erst richtig mit DX9 Spielen, aber vor allem
Bechmarks. Dann wird sich alles zeigen...
Letzte Aussage ist von John Carmack ja, dass er noch nVidia kanpp
empfehlen würde, wobei er gemeint hatte man würde es kaum merken.

Wenn man für beide Karten den optimalen Renderpfad nimmt (wobei dir
R300 noch keinen eigenen hat). Liegt wohl bei gleicher Bildqualität
nVidia leicht vorne, wenn auch nicht immer.

Jetzt stelle ich mir nur die Frage ob nicht der R350 vor dem NV30 zu
kaufen sein wird? Wenn ich mir die echten Preise anschaue von nVidia,
die Kühlung und wie kurz die meisten nur eine nVidia Karte testen
durften, und das gar einige abgestürzt sind vor Hitze. Kann
ich nur sagen nVidia wird große Probleme haben.
Denn wenn ich mir ihre sontige Qualtiät der Produkte anschaue sind sie
eine gute Firma, wenn sie auch mit harten Bandagen kämpfen.