PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Ati radeon 9800 und Ati's wunderbare welt des treiber cheatings


cl55amg
2003-03-17, 14:19:52
der 9800 ist die höchste kunst des treiber cheatings!
der treiber cheatet nicht nur ausgewählten benchmarks, sondern einfach in allem.

ati meint der catalyst 3.3 wird die performance erhöhung beinhalten(für r300 chips)
aber das ändert nichts daran das in ersten tests(z.B. CT)der radeon 9800 fast 30 % performance steigerung zugesichert wurde.die meisten leute kriegen am ende garnicht mit das alles nur cheating war...
zwar kriegt man durch treiber moding die volle performance, das ändert aber nichts daran das ati einen genialen öffentlichen fake veranstallten hat um den ersteindruck der radeon 9800 zu verbessern!

und die ati fanboys beschuldigen weiterhin nvidia des treiber cheatings.
beide firmen sind nicht ganz sauber, und das waren sie auch nie.

ich finde das ganze einfach traurig...
und am traurigsten sind die leute die sich auf die seite einer der firmen stellen
(wink mit dem zaunfahl an nagus)!!!

Aquaschaf
2003-03-17, 14:31:40
definiere mal den begriff "treibercheating" .

cl55amg
2003-03-17, 14:39:34
mit hilfe eines treibers eindeutig falsche tatsachen darstellen wie eine neue karte schneller aussehen zu lassen als sie wirklich ist, oder umgekehrt.

die 9800 ist das beste beispiel weil durch einen treiber suggeriert wird das die neuerer chip schneller ist als der alte.was aber aber ein unfairer vergleich ist da die alte karte mehr leistung bringen könnte aber ati diese mutwillig unterdrückt.

Treiber "cheaten"=betrügen=mit hilfe eines treibers betrügen

bitteschön

Silent Hunter
2003-03-17, 14:40:53
@cl55amg

deine Aussage ist doch etwas gewagt.

und die ati fanboys beschuldigen weiterhin nvidia des treiber cheatings.

Also das "cheaten" wurde ja durch unwiederlegbare Beweise bestätigt, daran kann man nichts mehr rütteln es wurde auch lang und breit in anderen Thread diskutiert / spekuliert.

Also wenn du ATI des Cheatens beschuldigst, soltest du doch klare Beweise liefern können. Solange du es nicht beweisen kannst, ist der Täter unschuldig ;)

gbm31
2003-03-17, 14:41:07
@cl55amg: und was bitte soll an deinem post besser sein als an dem gehabe von nagus und co?

(btw: dein avatar bezieht sich auch auf was bestimmtes... bin schon einen gefahren. ;) )

Exxtreme
2003-03-17, 14:45:42
Originally posted by cl55amg
mit hilfe eines treibers eindeutig falsche tatsachen darstellen wie eine neue karte schneller aussehen zu lassen als sie wirklich ist, oder umgekehrt.

Das tut ATi aber nicht. Sie täuschen keine falschen Tatsachen vor. :)

DIe Treiberentwicklung geht halt weiter und die R350 profitiert von den Geschwindigkeitsoptimierungen als erstes.

cl55amg
2003-03-17, 14:50:50
ich will nicht den eindruck erwecken das mein verhalten sei das selbe gehabe ist wie das von nagus usw.

wenn ich mal die letzten 2 jahre zurückdenke wie nvidia und ati versucht haben sich gegenseitig in kundenteuschung zu überbieten, wird mir unverständlich wie man sich immer auf eine seite stellen kennen und behaupten kann "Ati ist ehrlicher"...

Quasar
2003-03-17, 14:51:46
Originally posted by Exxtreme
Die Treiberentwicklung geht halt weiter und die R350 profitiert von den Geschwindigkeitsoptimierungen als erstes.

Warum profitieren die R300 davon nicht bzw. erst, nachdem tb ein bißchen was im Treiber freischaltete?
Und vor allem, warum wurden diese Optimierungen nicht im aktuellen Catalyst 3.2 für die schon verfügbaren R300 freigeschaltet?

Solche Fragen müssen erlaubt sein, ohne das gleich mit "macht nV doch auch!!" geantwortet wird.

Silent Hunter
2003-03-17, 14:53:07
Originally posted by Quasar


Warum profitieren die R300 davon nicht bzw. erst, nachdem tb ein bißchen was im Treiber freischaltete?
Und vor allem, warum wurden diese Optimierungen nicht im aktuellen Catalyst 3.2 für die schon verfügbaren R300 freigeschaltet?


besser spät als nie :D

cl55amg
2003-03-17, 14:54:15
Originally posted by Exxtreme

Das tut ATi aber nicht. Sie täuschen keine falschen Tatsachen vor. :)

DIe Treiberentwicklung geht halt weiter und die R350 profitiert von den Geschwindigkeitsoptimierungen als erstes.

das kann man sehen wie man will...;-)
der marktstrategische faktor des sogenannten optimierten r350 treiberpfades ist einfach zu hoch um die sache so abzutun...

bei nvidia hätten sich hier alle beschwert...;-)

DrumDub
2003-03-17, 14:56:36
von treibercheating würde ich dann nur sprechen, wenn die leistung für eine geringere bildqualität bzw. sonstige probeleme geopfert wird.

wo das im bezug auf den r350 passiert ist, ist mir alledings ein rätsel. einzig und allein den umstand, dass der renderpfad des r350 besser optimiert ist und auch bei gleicher taktfrequenz 5% mehrleitung auf dem r300 bringt, ohne das es irgendwelche machteile für den user gibt, als treiberchetaing zu bezeichnen, finde ich doch etwas gewagt. schließlich werden die optmierungen des treibers auch in die treiber für den r300 einfließen. was jaauch von inofzieller seite schon funktioniert (siehe tommti-systems).

der r350 macht den großteil seiner mehrleistung durch die höhere taktfrequenz. was daran verwerflich sein soll, ist mir allerdings ein rätsel.

hingegen wäre die optimierung auf speed bei gewissen detonators durch reduktion der berechnungsgenauigekeit (FP16 statt FP32) bei einem gewissen benchmark eine leistungssteigerung die auf kosten der bildquali geht (wenns denn stimmt... *g*)...

Exxtreme
2003-03-17, 14:57:01
Originally posted by Quasar


Warum profitieren die R300 davon nicht bzw. erst, nachdem tb ein bißchen was im Treiber freischaltete?
Und vor allem, warum wurden diese Optimierungen nicht im aktuellen Catalyst 3.2 für die schon verfügbaren R300 freigeschaltet?

Kannst du garantieren, daß der jetzige R350-Treiberpfad auf einer R300 in allen Lebenslagen richtig funktioniert?

Und die zweite Sache ist, angenommen das Ganze war tatsächlich Absicht um die R350 besser aussehen zu lassen. Damit hat man sich aber bei der R300 Nachteile ggü. der GFFX beschafft.

Anonym_001
2003-03-17, 14:57:51
Originally posted by cl55amg
der 9800 ist die höchste kunst des treiber cheatings!
der treiber cheatet nicht nur ausgewählten benchmarks, sondern einfach in allem.

Sowas nennt man Treiber Optimierung.
Diese wirkt sich erst auf die R350 aus. Diese Optiemierung wird im Cat3.3 auch für die R300 verfügbar sein. Da alles schneller wurde kann von cheaten keine Rede sein.
Dein Vergleich mit NV hinkt. NV optimiert seine Treiber für Benchmarks und bei realen Games bleibt alles wie gehabt.
Das ist cheaten.

cl55amg
2003-03-17, 15:02:30
Originally posted by Exxtreme

Kannst du garantieren, daß der jetzige R350-Treiberpfad auf einer R300 in allen Lebenslagen richtig funktioniert?

Und die zweite Sache ist, angenommen das Ganze war tatsächlich Absicht um die R350 besser aussehen zu lassen. Damit hat man sich aber bei der R300 Nachteile ggü. der GFFX beschafft.

ein absolut vertretbares opfer!
weil die meisten sowieso den r300 (mit unoptimierten treibern)als besser empfunden haben...den rest haben sie sich gespart für die 9800...

hier geht es nicht darum das in späteren catalyst versionen die performance da ist, sondern das der erste eindruck zählt!
und den ersten eindruck habe ich ja schon beschrieben...

Quasar
2003-03-17, 15:04:02
Originally posted by Exxtreme
Kannst du garantieren, daß der jetzige R350-Treiberpfad auf einer R300 in allen Lebenslagen richtig funktioniert?
Bin ich das ATi-QA-Department? ;)
Sooo genau nimmt man es mit dem R300-Treiberpfad für den R300 bei ATi anscheinend auch nicht und Probleme scheinen bislang noch keine aufgetreten zu sein.

Originally posted by Exxtreme
Und die zweite Sache ist, angenommen das Ganze war tatsächlich Absicht um die R350 besser aussehen zu lassen. Damit hat man sich aber bei der R300 Nachteile ggü. der GFFX beschafft.
Richtig, aber die scheint man aufgrund des höheren Preises und der kaum vorhandenen Lieferbarkeit nicht als um dieselbe Käuferschicht buhlend anzusehen.

cl55amg
2003-03-17, 15:07:21
Originally posted by Anonym_001


Sowas nennt man Treiber Optimierung.
Diese wirkt sich erst auf die R350 aus. Diese Optiemierung wird im Cat3.3 auch für die R300 verfügbar sein. Da alles schneller wurde kann von cheaten keine Rede sein.
Dein Vergleich mit NV hinkt. NV optimiert seine Treiber für Benchmarks und bei realen Games bleibt alles wie gehabt.
Das ist cheaten.

wie gesagt, wenn der performance ersteindruck sehr gut ist, bevor die leute wissen das es mit treiber zusammenhängt-ist es cheaten.

ati hätte doch der öffentlichkeit von sich aus früher ankündigen können das auch r 300 chips profitieren würden.und nicht wenn schon alle die karte getestet haben, und ihr 30 % performance zuwachs gesichert haben.aber welche firma würde das machen?bestimmt nicht nvidia :-)

@Quasar, muss dir in allen punkten zustimmen...

seahawk
2003-03-17, 15:11:48
Wenn der Cat 3.3 die Vorteile auch für die R300 bringt ist alles in Ordnung, würde ATI diese Vorteile dauerhaft nur für die R350 reservieren wäre es etwas anderes.

Ich denke die haben bei der Treiberprogrammierung für den R350 einfach etwas gefunden was die Karte schneller macht. Da es auch bei dem R300 funktioniert werden sie es für den Cat 3.3 auch sauber in den R300 Pfad einbauen.

Außerdem muß man dann auch über die Vorteile sprechen die der Cat 3.2 für die Radeon 8500 User bringt.

Treibercheating ist, wenn die Leistung durch eine Verschlechterung der Bildqualität erkauft wird, oder wenn die Verbesserung nur in einigen typischen Benchmarks auftritt.

Exxtreme
2003-03-17, 15:13:41
Originally posted by Quasar

Bin ich das ATi-QA-Department? ;)
Sooo genau nimmt man es mit dem R300-Treiberpfad für den R300 bei ATi anscheinend auch nicht und Probleme scheinen bislang noch keine aufgetreten zu sein.
Hehe, es gab auch einige Leute, die dachten auch, daß der R9500@9700-Mod bei ihnen funktionierte. :)
Originally posted by Quasar
Richtig, aber die scheint man aufgrund des höheren Preises und der kaum vorhandenen Lieferbarkeit nicht als um dieselbe Käuferschicht buhlend anzusehen.
Naja, also zumindest die GFFX Ultra zielt auf den High-End-Markt. Und Terry Makedon (Ober-Treiberguru bei ATi) suggerierte, daß selbst die R9700 non-Pro mit dem Cat3.3 an der GFFX Ultra vorbeiziehen wird in den meisten Spielen. Glaubst du tatsächlich, ATi würde sowas zurückhalten wenn sie der Konkurrenz so eins auswischen könnten?

DrumDub
2003-03-17, 15:15:03
das artet doch sowieso wieder in nen glaubenskrieg aus...

außerdem ist nvidia böse :P

@cl55amg
deine argumentation raff ich net... ist alles besser als vorher und trotzdem isses schlecht... *wunder*

PCGH_Thilo
2003-03-17, 15:19:59
Originally posted by Exxtreme

Das tut ATi aber nicht. Sie täuschen keine falschen Tatsachen vor. :)

DIe Treiberentwicklung geht halt weiter und die R350 profitiert von den Geschwindigkeitsoptimierungen als erstes.

IMHO ist das ganze problem dadurch aufgetaucht, dass ati mit den 9800er-karten einen 6307 (cat 3.2) mitgeliefert, der nur strings für die 9800 pro beinhaltete (ziemlich sinnfreie aktion). einige websites haben deshalb den cat 3.1 für r300-karten verwendet.

wobei ich sagen muss, dass die vorteile des 6307 wirklich nur synthetischer natur sind. ich habe keinen realen spielebenchmark hier, der messbar schneller ist.

nagus
2003-03-17, 15:22:52
Originally posted by cl55amg
der 9800 ist die höchste kunst des treiber cheatings!
der treiber cheatet nicht nur ausgewählten benchmarks, sondern einfach in allem.

ati meint der catalyst 3.3 wird die performance erhöhung beinhalten(für r300 chips)
aber das ändert nichts daran das in ersten tests(z.B. CT)der radeon 9800 fast 30 % performance steigerung zugesichert wurde.die meisten leute kriegen am ende garnicht mit das alles nur cheating war...
zwar kriegt man durch treiber moding die volle performance, das ändert aber nichts daran das ati einen genialen öffentlichen fake veranstallten hat um den ersteindruck der radeon 9800 zu verbessern!

und die ati fanboys beschuldigen weiterhin nvidia des treiber cheatings.
beide firmen sind nicht ganz sauber, und das waren sie auch nie.

ich finde das ganze einfach traurig...
und am traurigsten sind die leute die sich auf die seite einer der firmen stellen
(wink mit dem zaunfahl an nagus)!!!

zugegeben, ati hat anscheinend vorsätzlich die optimierungen extra für die rieviews nur bei den 9800PRO "freigeschaltet". ABER: die nächsten catalyst werden das wieder ausbügel.

IMHO ist das nur fair im hinblick darauf, was nvidia mit den detonator-treiber und der geforce fx aufführt. (und IMHO bei weitem nicht so schlimm im vergleich ati und nvidia. im gegensatz zur Geforce fx hat die R350 nämlich REAL diese leistung, die Geforce FX hat sich die hohen 3dmark-werte aber eindeutig erschewindelt)


den einzigen effekt den ATI damit erziehlt hat ist der, dass die R9700PRO minimal schlechter dasteht.

worüber beklagst du dich?

Exxtreme
2003-03-17, 15:26:52
Originally posted by PCGH_Thilo
wobei ich sagen muss, dass die vorteile des 6307 wirklich nur synthetischer natur sind. ich habe keinen realen spielebenchmark hier, der messbar schneller ist.
Also signifikante Unterschiede soll es bei den Shadern geben *edit* und bei AA und AF *edit*:
http://www.tommti-systems.de/main-Dateien/reviews/catalyst/catalyst.html

Labberlippe
2003-03-17, 15:28:49
Hi

Ich verstehe auch nicht ganz die Aufregen was der kommende Catalyst mit Treibercheating zu tun hat.

Wird hier wieder mit zweierlei mass gemessen. ???
Als nVIDIA Ihren Wunderdeto veröffentlicht hat, da wurden förmlich jubelschreie losgelassen.
50% höhere Performance für alle GeForce Karten wurde vollmundig geworben. Ausser bei einen 3DMark und hat es nichts gebracht.

Bei ATi profitieren auch Anwendungen vom neuen Treiber und nicht nur die Benchmarks.
Also ist das ganz klar kein Treibercheat sondern einfach mal ein vernünftiger Treiber seitens ATi.
Übrigens wurde nicht getestet das eine R9700 zwar mit den modifizierten Treiber auch den Performance Sprung hatte, dennoch aber noch immer langsamer als eine 9800Pro war. ???

Gruss Labberlippe

Labberlippe
2003-03-17, 15:30:32
Originally posted by PCGH_Thilo


IMHO ist das ganze problem dadurch aufgetaucht, dass ati mit den 9800er-karten einen 6307 (cat 3.2) mitgeliefert, der nur strings für die 9800 pro beinhaltete (ziemlich sinnfreie aktion). einige websites haben deshalb den cat 3.1 für r300-karten verwendet.

wobei ich sagen muss, dass die vorteile des 6307 wirklich nur synthetischer natur sind. ich habe keinen realen spielebenchmark hier, der messbar schneller ist.

Verstehe ich nicht, gerade der AF Bereich hat Speed zugenommen.

Gruss Labberlippe

Quasar
2003-03-17, 15:37:40
Originally posted by Exxtreme
Naja, also zumindest die GFFX Ultra zielt auf den High-End-Markt. Und Terry Makedon (Ober-Treiberguru bei ATi) suggerierte, daß selbst die R9700 non-Pro mit dem Cat3.3 an der GFFX Ultra vorbeiziehen wird in den meisten Spielen. Glaubst du tatsächlich, ATi würde sowas zurückhalten wenn sie der Konkurrenz so eins auswischen könnten?
Die Frage ist: Welche Verhaltensweise bringt ATi mehr Geld in die Kasse?
R9700non-pro besser als GFFXu:
Top-Imagegewinn, aber nur marginal von Bedeutung, da kaum Käufergewinn, weil kein Mensch, der eine GFFXu ernsthaft in Erwägung zieht, die R9700np als Alternative nehmen würde, IMO.

R9800 "bis zu 40% schneller als R9700p":
Guter Satz, um ihn auf die Packungen zu drucken, gleich neben AGP8X, 256MB DDR-II RAM und "unlimited Pixelshader". Nutzen: Fraglich.

Quasar
2003-03-17, 15:42:15
Originally posted by Labberlippe
Bei ATi profitieren auch Anwendungen vom neuen Treiber und nicht nur die Benchmarks.
Also ist das ganz klar kein Treibercheat sondern einfach mal ein vernünftiger Treiber seitens ATi.
Ja, wenn dieser Boost für alle Karten, auf die der Performance-Gewinn anwendbar wäre, freigeschaltet würde. Ansonsten wär's kein feiner Zug den R300-Kunden gegenüber.

Originally posted by Labberlippe
Übrigens wurde nicht getestet das eine R9700 zwar mit den modifizierten Treiber auch den Performance Sprung hatte, dennoch aber noch immer langsamer als eine 9800Pro war. ???
Gruss Labberlippe
Die R9800p ist auch schlappe 40/25MHz höher getaktet, woher ein Teil der Mehrleistung resultiert.

cl55amg
2003-03-17, 15:52:37
ihr verteht meine argumentation nicht,

der 3.3 er wird die performance erhöhungen haben, das ist ja klar...
aber es kommt auf den zeitpunkt an.darum geht es mir!
als die geforce 3 kam war es genauso!die selben sachverhältnisse von damals wiederhohlen sich.
damals haben sich alle beschwert über die absichtliche leistungszurückhaltung von nv.
heute, scheint mir so, ist ati die "in"firma, die man verteidigt obwohl sie nicht besser sind als nv.
ati hat so eine agressive politik, falls euch das mal aufgefallen ist?
beim radeon 8500-das berühmte investor Datenblatt wo sie dermaßen über nv hergezogen sind, das man jegliche proffesionalität nicht mehr sehen könnte.
der aktuelle forums beitrag wo der nette herr von ati bekräftigt wie unglaublich gut ati wäre!1. 2. 3. platz, und catalyst stabilster treiber usw...

wenn man das eine übel los ist, und man ein größeres dafür erntet...
dann ist es das nicht wert ati so wehement zu verteidigen...

ehrlich gesagt, ati macht mir als firma angst.so eine agressive firmenpolitik sagt viel über eine firma intern aus!und das ist nichts gutes!besonders nicht für den endverbraucher...
(jaja der bwl untericht...;-)

cl55amg
2003-03-17, 15:56:20
Originally posted by Quasar

Die Frage ist: Welche Verhaltensweise bringt ATi mehr Geld in die Kasse?
R9700non-pro besser als GFFXu:
Top-Imagegewinn, aber nur marginal von Bedeutung, da kaum Käufergewinn, weil kein Mensch, der eine GFFXu ernsthaft in Erwägung zieht, die R9700np als Alternative nehmen würde, IMO.

R9800 "bis zu 40% schneller als R9700p":
Guter Satz, um ihn auf die Packungen zu drucken, gleich neben AGP8X, 256MB DDR-II RAM und "unlimited Pixelshader". Nutzen: Fraglich.

unlimited zustimm

Labberlippe
2003-03-17, 15:57:18
Originally posted by Quasar

Ja, wenn dieser Boost für alle Karten, auf die der Performance-Gewinn anwendbar wäre, freigeschaltet würde. Ansonsten wär's kein feiner Zug den R300-Kunden gegenüber.
Was ja laut den Infos hier ja mit den Cat 3.3 auch für die anderen R300 zutrifft.


Die R9800p ist auch schlappe 40/25MHz höher getaktet, woher ein Teil der Mehrleistung resultiert.
Wie gesagt ein Teil, ich persönlich bin gespannt wie sich das dann wirklich auswirkt.
Wenn mehr Reviews online sind, dann kann man direkter Vergleiche starte so ist alles nur Spekultaion.

Wie gesagt mit Cheaten hat dieses nichts zu tun.
Quake3 war ein Cheat, einen eigenen Renderpath für die R350 zu schreiben ist kein Cheat.
Damm müsste ja JC für alle Karten Cheats schreiben, welche einen eigenen Renderpath benutzen.

Gruss Labberlippe

Exxtreme
2003-03-17, 16:03:49
Originally posted by cl55amg

ati hat so eine agressive politik, falls euch das mal aufgefallen ist?

IMHO ist ATi nicht aggressiver als andere Firmen. Sie versuchen ihre Produkte so gut wie möglich zu präsentieren um Kohle zu machen. Wenn sie's nicht tun würden, gäbe es Stress mit den Aktionären.
Originally posted by cl55amg
beim radeon 8500-das berühmte investor Datenblatt wo sie dermaßen über nv hergezogen sind, das man jegliche proffesionalität nicht mehr sehen könnte.

???
Meinst du das da?
http://www.3dcenter.org/artikel/ati_128mb_praesentation
Originally posted by cl55amg
der aktuelle forums beitrag wo der nette herr von ati bekräftigt wie unglaublich gut ati wäre!1. 2. 3. platz, und catalyst stabilster treiber usw...

Ob es stimmt, das werden die Tests klären. Und ja, die Catalyst-Treiber laufen bei mir stabil. Es ist immer Windows, welches abstürzt. ;)
Originally posted by cl55amg
wenn man das eine übel los ist, und man ein größeres dafür erntet...
dann ist es das nicht wert ati so wehement zu verteidigen...

Hmm, also ich sehe ATi nicht als Übel an sondern als eine Firma die für mich zur richtigen Zeit das richtige Produkt abgeliefert hat.
Originally posted by cl55amg
ehrlich gesagt, ati macht mir als firma angst.so eine agressive firmenpolitik sagt viel über eine firma intern aus!und das ist nichts gutes!besonders nicht für den endverbraucher...

Wie schon gesagt, IMHO geht ATi nicht aggressiver vor als andere Firmen.
Originally posted by cl55amg
(jaja der bwl untericht...;-)
Das erklärt einiges... ;)

cl55amg
2003-03-17, 16:05:07
@Labberlippe

du verstehst die zusammenhänge nicht, oder das thema um das es hier geht?lies doch mal alles genauer durch und überleg nochmal erst bevor du die 5 wiederholung postest...

hier gehts nicht darum das später die performance da ist.
die leute werden in späteren test sehen das die karten sich nicht viel nehemen, aber jetzt hat sich in die köpfe der unerfahreren leute eingebrannt das die 9800 30% schneller ist!

Virtual
2003-03-17, 16:06:12
Treiber-Cheating? - Diese Wortwahl wird dem Sachverhalt nicht wirklich gerecht!

Obwohl du grundsätzlich damit recht hast, daß ALLE R3x0 Besitzer asap in den Genuß optimierter Treibern kommen sollten, so gibt es hier doch einen wesentlichen Unterschied zur FP16-Cheating des 42.72 im 3DMurks03. NVidia hat mit dem 42.72-Cheating in der Tat die Regel der Mindestgenauigkeit FP24 bei DX9 PS-Operationen gebrochen. Auch wenn ATIs Einfluß bei der Definition der Regel offensichtlich ist, so muß sie dennoch eingehalten werden. Es steht hier NV frei, Microsoft's DX9 die Spieletauglichkeit wegen übertriebener Genauigkeit abzusprechen, aber wofür braucht man dan FP32? ;) (Ist die FX-Performance bei FP32 doch nur für DCC-Previews geeignet?)

ATI hat die Tatsachen verdreht und Informationen vorenthalten. Die Geschichte könnte man durchaus als markttypische Kundenverarschung werten, wenn die Treiber-Optimierungen nur in Benchmarks und nicht in Games spürbar sind. Auf moralisch ähnlichem Niveau liegt wohl NVs Entscheidung (Quelle: News, 3DCenter), die Bezeichungen der AF-Modi vorteilhaft (für wen wohl?) an die ATI-Wortwahl anzupassen. Man möchte Gleichheit suggerieren/aufzwingen, wo letztlich keine ist. Auch 'ne Form von Kundenverarschung.

Deine Wortewahl im Titel des Threads ist IMHO nicht gerechtfertigt!

G.
V.

Virtual
2003-03-17, 16:08:32
Originally posted by cl55amg
@Labberlippe

du verstehst die zusammenhänge nicht, oder das thema um das es hier geht?lies doch mal alles genauer durch und überleg nochmal erst bevor du die 5 wiederholung postest...

hier gehts nicht darum das später die performance da ist.
die leute werden in späteren test sehen das die karten sich nicht viel nehemen, aber jetzt hat sich in die köpfe der unerfahreren leute eingebrannt das die 9800 30% schneller ist!

Ist für ATI nicht eher der Vergleich zur FX interessanter. Ob der Kunde nun eine 9700 oder 9800 kaufen wird, ist ATI wohl einigermaßen egal, oder nicht?

Quasar
2003-03-17, 16:09:23
Originally posted by Labberlippe
Wenn mehr Reviews online sind, dann kann man direkter Vergleiche starte so ist alles nur Spekultaion.
Es gibt bereits einen, IMO recht glaubhaften, Vergleich. Guckst du www.tommti-systems.de

Originally posted by Labberlippe
Wie gesagt mit Cheaten hat dieses nichts zu tun.
Quake3 war ein Cheat, einen eigenen Renderpath für die R350 zu schreiben ist kein Cheat.
Damm müsste ja JC für alle Karten Cheats schreiben, welche einen eigenen Renderpath benutzen.
Gruss Labberlippe
OpenGL-Renderpfade sind ein bissel was anderes, oder? Die sind dafür da, wirklich unterschiedliche Chips mit unterschiedlich implementierten Fähigkeiten anzusprechen. Die Renderpfade im Treiber sind _vermutlich_ weitestgehend identisch, wie tb indiziert hat. Versuch dagegen mal, eine nV-Launch-Demo, die zumeist für OpenGL geschrieben sind, auf einer Karte zum Laufen zu bringen, die diese Extensions nicht unterstützt.

Quasar
2003-03-17, 16:11:47
Originally posted by cl55amg
[..]aber jetzt hat sich in die köpfe der unerfahreren leute eingebrannt das die 9800 30% schneller ist!

Full Ack!

Virtual
2003-03-17, 16:11:49
Originally posted by Quasar Die R9800p ist auch schlappe 40/25MHz höher getaktet, woher ein Teil der Mehrleistung resultiert.

Oder eher 55/30? ;)

cl55amg
2003-03-17, 16:12:17
Originally posted by Exxtreme

IMHO ist ATi nicht aggressiver als andere Firmen. Sie versuchen ihre Produkte so gut wie möglich zu präsentieren um Kohle zu machen. Wenn sie's nicht tun würden, gäbe es Stress mit den Aktionären.

sie präsentieren nicht nur ihre produkte, sondern ziehen die produkte des konkurenten auf eine krasse art und weise in den dreck...der vergleich mit der gf4 mx und gf2mx ist schon witzig...
da sie danach auch chips neu gelabelt haben...

???
Meinst du das da?
http://www.3dcenter.org/artikel/ati_128mb_praesentation

Ja!!!

Ob es stimmt, das werden die Tests klären. Und ja, die Catalyst-Treiber laufen bei mir stabil. Es ist immer Windows, welches abstürzt. ;)

...

Hmm, also ich sehe ATi nicht als Übel an sondern als eine Firma die für mich zur richtigen Zeit das richtige Produkt abgeliefert hat.

da muss ich dir zustimmen,aber ich habe auch nicht ihre produkte kritisiert...

Wie schon gesagt, IMHO geht ATi nicht aggressiver vor als andere
Firmen.

da bin andere meinung!ich finde es gibt nicht viele firmen die dermaßen agggresiv sind.

Das erklärt einiges... ;)

Quasar
2003-03-17, 16:13:30
Originally posted by Virtual


Ist für ATI nicht eher der Vergleich zur FX interessanter. Ob der Kunde nun eine 9700 oder 9800 kaufen wird, ist ATI wohl einigermaßen egal, oder nicht?
Nein, sehe ich anders. Vermutlich ist die Marge für ATi bei der R9800 höher, oder meinst du nicht?

Quasar
2003-03-17, 16:14:31
Originally posted by Virtual


Oder eher 55/30? ;)

Baaaah!!!! Scheiss-Kopfrechnen... Thx!

Virtual
2003-03-17, 16:15:13
Originally posted by Quasar

Nein, sehe ich anders. Vermutlich ist die Marge für ATi bei der R9800 höher, oder meinst du nicht?

Vermutlich hast Du recht. Aber ATI geht es um Marktanteile (habe ich irgendwo gelesen). Was die Käufer letzlich kaufen ist dann wiederum egal.

Labberlippe
2003-03-17, 16:15:37
Originally posted by cl55amg
ihr verteht meine argumentation nicht,

der 3.3 er wird die performance erhöhungen haben, das ist ja klar...
aber es kommt auf den zeitpunkt an.darum geht es mir!
als die geforce 3 kam war es genauso!die selben sachverhältnisse von damals wiederhohlen sich.
damals haben sich alle beschwert über die absichtliche leistungszurückhaltung von nv.

Nur zur Info und zum aufrischen des Gedächnisses.
nIVIDA hat damals die TI Serie als neue Produkte mit neuen Buffern beworben.
Die Sache hat nur einen Hacken, das Teil war die alte GeForce3 mit einen höheren Takt und sonst nichts.
Gleichzeitig hat man damals mit 50% höheren Performance für alle Produkte beworben. (Wurde dann aber auf up to geändert. ;) )
Die Wahrheit sah aber anders aus.
http://www.3dcenter.de/artikel/nvidia_12.41_vs_21.81/

Die grosse Kritik war das nVIDIA nur versprechen gemacht hat und im grossen und ganzen kaum etwas eingehalten hat.
Profitiert vom diesen Treiber haben damals vereinzelt GeForce3 Karten.(überwiegend nur die TI Serie was auch hier im Forum festgestellt wurde und das nur teilweise in den Sysntehtischen Benches.)


heute, scheint mir so, ist ati die "in"firma, die man verteidigt obwohl sie nicht besser sind als nv.
ati hat so eine agressive politik, falls euch das mal aufgefallen ist?
beim radeon 8500-das berühmte investor Datenblatt wo sie dermaßen über nv hergezogen sind, das man jegliche proffesionalität nicht mehr sehen könnte.
der aktuelle forums beitrag wo der nette herr von ati bekräftigt wie unglaublich gut ati wäre!1. 2. 3. platz, und catalyst stabilster treiber usw...
Wenn wir gerade vom herziehen reden.

http://www.3dcenter.de/artikel/2001/04-06a.php

Ati hat freilich seitenhiebe gegen nVIDIA abgelassen, aber niemals in
der Art und Weise wie es nVIDIA gepflegt hat und noch immer tut.
Das ist ein Punkt wo ich ATi schätze, die Jungs zeigen eindeutig Leben im Forum, macht auch kaum jemand.
Freilich werden die deren Produkte loben oder glaubst Du das die sagen ne unsere Produkte taugen nichts, kauft etwas anderes.


wenn man das eine übel los ist, und man ein größeres dafür erntet...
dann ist es das nicht wert ati so wehement zu verteidigen...

ehrlich gesagt, ati macht mir als firma angst.so eine agressive firmenpolitik sagt viel über eine firma intern aus!und das ist nichts gutes!besonders nicht für den endverbraucher...
(jaja der bwl untericht...;-)

Als mir macht eher nVIDIA Angst, wenn ich deren Vergangenheit sehe wie die Kyro Dokumente und deren Aktuellen Aussagen dann wirkt nVIDIA alles andere als serious.

Die Helden jedes 18 jährigen.
Die Mitbewerber müssen etwas rauchen.
Versteht doch endlich.....


Hmm da Frage ich mich wo im Vergleich ATi Agressiv ist.

Gruss Labberlippe

Labberlippe
2003-03-17, 16:19:23
Originally posted by cl55amg
@Labberlippe

du verstehst die zusammenhänge nicht, oder das thema um das es hier geht?lies doch mal alles genauer durch und überleg nochmal erst bevor du die 5 wiederholung postest...

hier gehts nicht darum das später die performance da ist.
die leute werden in späteren test sehen das die karten sich nicht viel nehemen, aber jetzt hat sich in die köpfe der unerfahreren leute eingebrannt das die 9800 30% schneller ist!

Doch doch ich verstehe sie schon, nur wie gesagt jahrelang hat nVIDIA nichts anderes gemacht und da wurde gejubelt wie toll die Jungs von deren Treiberentwicklung sind.
Bei ATi wird gleich mal vom Cheat gesprochen.
Ich bin der Meinung das es mal abwarten heist, bis der Cat. 3.3 da ist, dann testen und benchen und dann direkt Vergleiche anstelle.
Solange das nicht ist, ist es nichts anderes als Spekulation.

Gruss Labberlippe

DrumDub
2003-03-17, 16:20:54
Originally posted by cl55amg
die leute werden in späteren test sehen das die karten sich nicht viel nehemen, aber jetzt hat sich in die köpfe der unerfahreren leute eingebrannt das die 9800 30% schneller ist!

ist sie ja aber auch nur teilweise. einen guten teil macht die takterhöhung aus (VPU: 380 zu 325, Speicher: 340 zu 310) ca. 15-18%.

außerdem weisst du nicht, ob durch treiberoptimierungen der r350 noch schneller wird... immerhin ist das der erste treiber für den r350...

cl55amg
2003-03-17, 16:21:11
ich sagte ja auch bisher immer das nv genauso unsympathisch wie ati ist...

die lächerlichen aussagen von nv sind eher witzig als ernstzunehmen.
aber trotzdem natürlich aggresiv...

cl55amg
2003-03-17, 16:23:06
ich hab immer noch das gefühl das leute die ganze zeit was späteren catalyst realeses reden-was aber garnicht das thema ist...

Labberlippe
2003-03-17, 16:24:32
Originally posted by cl55amg
ich sagte ja auch bisher immer das nv genauso unsympathisch wie ati ist...

die lächerlichen aussagen von nv sind eher witzig als ernstzunehmen.
aber trotzdem natürlich aggresiv...

Solche "witzigen" Aussagen könnte Klagen einhandeln...

Ich persönlich muss sagen das ATi die älteren Karten auch sehr gut mit den neuen Treibern pflegt.
Ich hatte vor kurzen wiedereinmal eine alte Radeon SDR drin und ich war überrast das 16x AF endlich unter D3D freigeschalten wurde.
Kurz ich glaube schon das ATi die "älteren" Karten nicht abseits stehen lassen wird.

Gruss Labberlippe

Virtual
2003-03-17, 16:27:09
Originally posted by cl55amg
ich hab immer noch das gefühl das leute die ganze zeit was späteren catalyst realeses reden-was aber garnicht das thema ist...

Was sagst du nun zu meiner Definition von Cheating?

cl55amg
2003-03-17, 16:28:49
poste sie nochmal, finde sie gerade nicht...

Exxtreme
2003-03-17, 16:29:20
Originally posted by Labberlippe

Ich bin der Meinung das es mal abwarten heist, bis der Cat. 3.3 da ist, dann testen und benchen und dann direkt Vergleiche anstelle.
Solange das nicht ist, ist es nichts anderes als Spekulation.

Gruss Labberlippe
Eben. Wer sagt denn, daß die R300 mit dem Cat3.3 fast genauso schnell sein wird wie die R350 mit dem Cat3.3? Es kann sein, daß ATi den Treiber soweit tunt, daß der Vorsprung der R350 trotzdem erhalten bleibt.

cl55amg
2003-03-17, 16:31:41
Originally posted by Exxtreme

Eben. Wer sagt denn, daß die R300 mit dem Cat3.3 fast genauso schnell sein wird wie die R350 mit dem Cat3.3? Es kann sein, daß ATi den Treiber soweit tunt, daß der Vorsprung der R350 trotzdem erhalten bleibt.



das wäre erfreulich,
würde aber trotzdem nichts daran ändern das am anfang ein cheat performance vorsprung war...

Quasar
2003-03-17, 16:39:44
Originally posted by Exxtreme
Es kann sein, daß ATi den Treiber soweit tunt, daß der Vorsprung der R350 trotzdem erhalten bleibt.
Meinst du, dass der momentane Status für alle R3xx freigeschaltet wird und weitere Verbesserungen immer erst eine Cat-Version später für non-R350 freigegeben wird?

Deine Aussage könnte man auch so interpretieren....

Virtual
2003-03-17, 16:39:56
Originally posted by cl55amg
poste sie nochmal, finde sie gerade nicht...

Na schön, hier bitte:

Treiber-Cheating? - Diese Wortwahl wird dem Sachverhalt nicht wirklich gerecht!

Obwohl du grundsätzlich damit recht hast, daß ALLE R3x0 Besitzer asap in den Genuß optimierter Treibern kommen sollten, so gibt es hier doch einen wesentlichen Unterschied zur FP16-Cheating des 42.72 im 3DMurks03. NVidia hat mit dem 42.72-Cheating in der Tat die Regel der Mindestgenauigkeit FP24 bei DX9 PS-Operationen gebrochen. Auch wenn ATIs Einfluß bei der Definition der Regel offensichtlich ist, so muß sie dennoch eingehalten werden. Es steht hier NV frei, Microsoft's DX9 die Spieletauglichkeit wegen übertriebener Genauigkeit abzusprechen, aber wofür braucht man dan FP32? (Ist die FX-Performance bei FP32 doch nur für DCC-Previews geeignet?)

ATI hat die Tatsachen verdreht und Informationen vorenthalten. Die Geschichte könnte man durchaus als markttypische Kundenverarschung werten, wenn die Treiber-Optimierungen nur in Benchmarks und nicht in Games spürbar sind. Auf moralisch ähnlichem Niveau liegt wohl NVs Entscheidung (Quelle: News, 3DCenter), die Bezeichungen der AF-Modi vorteilhaft (für wen wohl?) an die ATI-Wortwahl anzupassen. Man möchte Gleichheit suggerieren/aufzwingen, wo letztlich keine ist. Auch 'ne Form von Kundenverarschung.

Deine Wortewahl im Titel des Threads ist IMHO nicht gerechtfertigt!

cl55amg
2003-03-17, 16:43:23
ich verstehe was du meinst!
klar ist das cheating von nvidia.
aber du musst auch akzeptieren das es auch cheating von ati ist.

siehe meine treibercheating erklärung...

Exxtreme
2003-03-17, 16:45:14
Originally posted by Quasar

Meinst du, dass der momentane Status für alle R3xx freigeschaltet wird und weitere Verbesserungen immer erst eine Cat-Version später für non-R350 freigegeben wird?

Deine Aussage könnte man auch so interpretieren....
Nein, so meine ich das nicht. Hier scheinen einige Leute davon auszugehen, daß der Cat3.3 die R300 beschleunigt, die R350 aber nicht. Und das kann keiner genau wissen, genauso kann keiner wissen ob der R350-Treiberpfad mit einer R300 immer richtig funktioniert. Blos weil bis jetzt nichts aufgefallen ist, muss nicht immer so sein.

Quasar
2003-03-17, 16:46:20
Schauen wir uns doch einfach mal die aktuellen, offiziellen Treiber an....

Cat3.2 vs. Det41.09

Und nicht irgendwelche inoffiziellen oder geleakedten Betas.

Quasar
2003-03-17, 16:48:19
Originally posted by Exxtreme

Nein, so meine ich das nicht. Hier scheinen einige Leute davon auszugehen, daß der Cat3.3 die R300 beschleunigt, die R350 aber nicht. Und das kann keiner genau wissen, genauso kann keiner wissen ob der R350-Treiberpfad mit einer R300 immer richtig funktioniert. Blos weil bis jetzt nichts aufgefallen ist, muss nicht immer so sein.
Also, in dem alten Thread, wo der Artikel von tb verlinkt war, ist IIRC noch die Rede vom nächsten offiziellen Treiber gewesen. Der ist nun mit dem Cat3.2 da.

Und wenn's der 3.2 nicht ist, wird's der 3.3 schon richten...
Und wenn's der 3.3 nicht ist, wird's der 3.4 schon richten...
Und wenn's der 3.4 nicht ist, wird's der 3.5 schon richten...
Und wenn's der 3.5 nicht ist, wird's der 3.6 schon richten...
...

DrumDub
2003-03-17, 16:49:35
höhö... gibt ja auch noch keine offiziellen treiber für die gffx...

Detonator 40 is the graphics driver for all NVIDIA Graphics Processing Units (GPUs). Detonator 40 supports 2D graphics, DirectX 8.1, OpenGL 1.4, nView Desktop Management software version 2.0, NVRotate. NVKeystone, Digital Vibrance Control and includes a new control panel and the CineFX emulator. Through NVIDIA’s Unified Driver Architecture, Detonator software supports all GPUs below in a single driver.

Products Supported: RIVA TNT
Aladdin TNT2
TNT2
TNT2 Pro
TNT2 Ultra
TNT2 Model 64 (M64)
TNT2 Model 64 (M64) Pro
Vanta
Vanta LT GeForce 256
GeForce DDR
GeForce2 MX
GeForce2 MX 100
GeForce2 MX 200
GeForce2 MX 400
GeForce2 GTS
GeForce2 Pro
GeForce2 Ti
GeForce2 Ultra GeForce3
GeForce3 Ti 200
GeForce3 Ti 500
GeForce4 MX 460
GeForce4 MX 440
GeForce4 MX 440 with AGP8X
GeForce4 MX440SE with AGP8X
GeForce4 MX 420
GeForce4 Ti 4200
GeForce4 TI 4200 with AGP8X
GeForce4 Ti 4400
GeForce4 Ti 4600
Quadro
Quadro2 Pro
Quadro2 EX Quadro2 MXR
Quadro DCC
Quadro4 200 NVS
Quadro4 400 NVS
Quadro4 500 XGL
Quadro4 550 XGL
Quadro4 700 XGL
Quadro4 750 XGL
Quadro4 900 XGL
NOTE: GeForce2 Go and GeForce4 Go mobile processors are not supported in this driver. Please contact the notebook's manufacturer for graphics drivers for your notebook PC.

http://www.nvidia.com/content/drivers/drivers.asp

Quasar
2003-03-17, 16:52:13
Sieh' an, sieh' an. Und wie soll man ohne (offiziellen) Treiber cheaten?

Wie wär's, wenn man sich mit Vorwürfen zurückhält, bis es offizielle Treiber gibt?

Labberlippe
2003-03-17, 16:55:32
Hi

Super werden jetzt Inis gepostet und sinnlose Behauptungen zu belegen. ???
Gruss Labberlippe

DrumDub
2003-03-17, 16:57:08
jetzt ist es also ati schuld, das nvidia noch keine offziellen treiber für die gffx rausgebracht hat...

also ist "cheaten" in beta-treibern ok und in offziellen nicht, oder wie?

Exxtreme
2003-03-17, 16:57:15
Originally posted by Labberlippe
Hi

Super werden jetzt Inis gepostet und sinnlose Behauptungen zu belegen. ???
Gruss Labberlippe
Naja, ohne WHQL-Zertifikat kannst du in die Treiber einbauen was du willst. Deswegen zählen inoffizielle Beta-Treiber IMHO nicht.

Virtual
2003-03-17, 16:59:17
Die Diskussion ist tot und ich habe recht :o

Labberlippe
2003-03-17, 16:59:36
Originally posted by Exxtreme

Naja, ohne WHQL-Zertifikat kannst du in die Treiber einbauen was du willst. Deswegen zählen inoffizielle Beta-Treiber IMHO nicht.

Sorry Extreme aber auf die WHQL Zertifizierung gebe ich einen Dreck.
Was nützt mir ein buggy WHQL Zertifizierter Treiber...

Gruss Labberlippe

Quasar
2003-03-17, 17:00:55
Originally posted by DrumDub
also ist "cheaten" in beta-treibern ok und in offziellen nicht, oder wie?

Wer Beta-Treiber nachmacht oder bencht oder mit nachgemachten oder gebenchten Reviews veröffentlicht, wird mit GIGA nicht unter zwei Stunden bestraft....

BETA-Treiber sind BETA, deswegen sollte man auf diese nichts geben....
Es zählen IMO allein die offiziellen Treiber.

DrumDub
2003-03-17, 17:03:17
schön und gut, aber es wird den anwendern mit dem det 43.72 suggeriert, dass die gffx schneller ist, als sie bei einhaltung von whql-konformität ist...

der cat 3.2 gaukelt den usern auf jeden fall keine mehrleitung vor, die bei einhaltung der whql-spielregeln gar nicht da ist...

edit: außerdem ist nvidia böse... *devil*

Virtual
2003-03-17, 17:05:27
Originally posted by Quasar


Wer Beta-Treiber nachmacht oder bencht oder mit nachgemachten oder gebenchten Reviews veröffentlicht, wird mit GIGA nicht unter zwei Stunden bestraft....

BETA-Treiber sind BETA, deswegen sollte man auf diese nichts geben....
Es zählen IMO allein die offiziellen Treiber.

Und konsequenterweise gibt's auch noch keinen offiziellen Benchmarks der FX. Wann werden den die ersten offiziellen Benches veröffentlicht? Schließlich kann man die FX ja mit viel Glück und Geld bereits kaufen. Von wem kommen eigentlich die Treiber in der Verpackung? Rennt dich FX auch ohne Treiber? ... :lol:

DrumDub
2003-03-17, 17:07:17
@virtual
full ack... *g*

Virtual
2003-03-17, 17:07:40
Originally posted by DrumDub
schön und gut, aber es wird den anwendern mit dem det 43.72 suggeriert, dass die gffx schneller ist, als sie bei einhaltung von whql-konformität ist...

der cat 3.2 gaukelt den usern auf jeden fall keine mehrleitung vor, die bei einhaltung der whql-spielregeln gar nicht da ist...

edit: außerdem ist nvidia böse... *devil*

Genauer 42.72 ;)

Quasar
2003-03-17, 17:07:44
Kommt halt auf den AIB an, welchen Treiber er in die Verpackung packt....gelle?

Offizielle von nVidia direkt gibt's momentan halt nicht, findet euch damit ab, oder lasst's bleiben.

DrumDub
2003-03-17, 17:10:16
jaja, immer sinds die anderen schuld und nvidia hat den heiligenschein auf...

Quasar
2003-03-17, 17:12:15
Originally posted by DrumDub
jaja, immer sinds die anderen schuld und nvidia hat den heiligenschein auf...
...behaupte ich wo???

Demirug
2003-03-17, 17:14:20
Was habt ihr eigentlich mit eurer WHQL Zertifizierung?

Glaubt ihr wirklich das MS in den Testlabors Benchmarks laufen läst und sich dann Bild für Bild anschaut ob es stimmt?

Bei der WHQL Zertifizierung wird gebrüft ob die Hardware/Software auf den dafür vorgesehenen Systemen mit unterschiedlichen Service Packs/Hotfixes läuft. Zudem wird gegen den Treiber ein spezielles Prüfprotokol gefahren das versucht den Treiber dazu zu veranlassen sich aufzuhängen speicherleaks zu produzieren oder sonst etwas zu tun was die Systemstabilität gefährdet.

Die bekannten Benchmark programme hat man in dem Labor überhaupt nicht. Da es sich dabei ja auch um nicht für Windows zertifizierte Software handelt. Oder hat der 3dmark inzwischen eine Windowszertifizierung?

Exxtreme
2003-03-17, 17:17:39
@ Demirug

Also kann ein Treiber, welcher derbste Grafikfehler produziert auch ein WHQL-Zertifikat bekommen solange er nicht abstürzt in den Tests von MS?

Quasar
2003-03-17, 17:17:40
WQHL und Offiziell macht für mich einen Unterschied. Aber meist haben die offiziellen die Angewohnheit, auch WHQL-zertifiziert zu sein. Umgekehrt ist dies nicht immer so.

Inoffizielle, aber WHQL-zertifizierte Treiber werden oft von den einzelnen Boardherstellern für ihre Karten freigegeben.

DrumDub
2003-03-17, 17:18:18
Originally posted by Quasar
Kommt halt auf den AIB an, welchen Treiber er in die Verpackung packt....gelle?

hier^^^^ da es keine offiziellen treiber von nvidia gibt, isses der AIB schuld, dass er die karten ohne offizielle treiber vertreibt...

so versteh ich das....

aber warum gibt die karte dann schon (oder doch nicht?)zu kaufen, wenn es keine offiziellen treiber gibt? benutzt hier nvidia die kunden als betatester?

edit: aber das ganze wird hier eh ad absurdum geführt, da die fronten in der sache ja sowieso emotional vorbelastet sind. so oder so...

Quasar
2003-03-17, 17:20:16
Stimmt, in dieser Hinsicht hat nVidia noch einen Heiligenschein. :D

Anonym_001
2003-03-17, 17:21:57
Das wäre ja ein Thema für einen neuen Thread.
Thema
"GF FX wird mit Beta Treiber verkauft-Benutzung auf eigene Gefahr".

Wenn es für die FX nur Beta Treiber gibt, frage ich mich was die bei NV die ganze Zeit gemacht haben.
Wenn die FX 2002 rausgekommen wäre wie es NV geplant hatte, hätten sie noch nicht mal nen Alpha Treiber gehabt.

LovesuckZ
2003-03-17, 17:25:18
Originally posted by Anonym_001
Wenn es für die FX nur Beta Treiber gibt, frage ich mich was die bei NV die ganze Zeit gemacht haben.
Wenn die FX 2002 rausgekommen wäre wie es NV geplant hatte, hätten sie noch nicht mal nen Alpha Treiber gehabt.

Nvidia haette frueher lauffaehige Karten gehabt und haetten daher auch schon frueher mit der Treiberentwicklung anfangen koennen. Es ist eher unglaubwuerdig, eine Karte rauszubringen und 6 Monate spaeter sich an die Treiber zu setzen...:)

Demirug
2003-03-17, 17:25:36
Originally posted by Exxtreme
@ Demirug

Also kann ein Treiber, welcher derbste Grafikfehler produziert auch ein WHQL-Zertifikat bekommen solange er nicht abstürzt in den Tests von MS?

Derbste natürlich nicht. :D Aber wenn man in der Zwischenzeit das Testverfahren nicht geändert hat werden da nur grundsätzliche Sachen geprüft wie das der Treiber keine Features meldet die er nicht beherscht und die Berechnungen grundsätzlich richtig sind. Aber selbst dabei rutschen immer wieder sachen durch weil sie einfach nicht gebrüft werden. Sonst dürfte ja zum Beispiel kein WHQL Treiber bei einer PowerVR demo versagen.

Sobald es um sachen wie Texturfiter besser als Pointsampling oder die genauigkeit geht kann man sowieso nicht mehr automatisch testen und bei der Vielzahl von System und Konfigurationen auf denen man Testet ist alles andere als ein automatischer test sowieso nicht machbar.

Anonym_001
2003-03-17, 17:29:40
Originally posted by LovesuckZ


Nvidia haette frueher lauffaehige Karten gehabt und haetten daher auch schon frueher mit der Treiberentwicklung anfangen koennen. Es ist eher unglaubwuerdig, eine Karte rauszubringen und 6 Monate spaeter sich an die Treiber zu setzen...:)

Die Treiberentwicklung wird schon begonnen ohne das lauffähige Karten vorhanden sein müssen.
Gerade deshalb ist es ein Witz das Karten auf den Markt gebracht werden wo es nur Beta Treiber gibt.
Das ist nach der Vorstellung der Karte wohl der größte Witz an der Sache.

Virtual
2003-03-17, 17:43:07
Originally posted by Demirug
Was habt ihr eigentlich mit eurer WHQL Zertifizierung?

Glaubt ihr wirklich das MS in den Testlabors Benchmarks laufen läst und sich dann Bild für Bild anschaut ob es stimmt?

Bei der WHQL Zertifizierung wird gebrüft ob die Hardware/Software auf den dafür vorgesehenen Systemen mit unterschiedlichen Service Packs/Hotfixes läuft. Zudem wird gegen den Treiber ein spezielles Prüfprotokol gefahren das versucht den Treiber dazu zu veranlassen sich aufzuhängen speicherleaks zu produzieren oder sonst etwas zu tun was die Systemstabilität gefährdet.

Die bekannten Benchmark programme hat man in dem Labor überhaupt nicht. Da es sich dabei ja auch um nicht für Windows zertifizierte Software handelt. Oder hat der 3dmark inzwischen eine Windowszertifizierung?

WAAAASSSSS!
Dann lasse ich keinen der neuen NV-Treiber auf mein System. Der könnte ja noch memory leaks haben oder gar abstürzen -> KeBugCheckEx() läßt grüßen. Nein, bei den ATI-Treiber liege ich auf der sicheren Seite! Die crashen nicht :P

AlfredENeumann
2003-03-17, 17:50:50
Originally posted by DrumDub
höhö... gibt ja auch noch keine offiziellen treiber für die gffx...

Detonator 40 is the graphics driver for all NVIDIA Graphics Processing Units (GPUs). Detonator 40 supports 2D graphics, DirectX 8.1, OpenGL 1.4, nView Desktop Management software version 2.0, NVRotate. NVKeystone, Digital Vibrance Control and includes a new control panel and the CineFX emulator. Through NVIDIA’s Unified Driver Architecture, Detonator software supports all GPUs below in a single driver.

Products Supported: RIVA TNT
Aladdin TNT2
TNT2
TNT2 Pro
TNT2 Ultra
TNT2 Model 64 (M64)
TNT2 Model 64 (M64) Pro
Vanta
Vanta LT GeForce 256
GeForce DDR
GeForce2 MX
GeForce2 MX 100
GeForce2 MX 200
GeForce2 MX 400
GeForce2 GTS
GeForce2 Pro
GeForce2 Ti
GeForce2 Ultra GeForce3
GeForce3 Ti 200
GeForce3 Ti 500
GeForce4 MX 460
GeForce4 MX 440
GeForce4 MX 440 with AGP8X
GeForce4 MX440SE with AGP8X
GeForce4 MX 420
GeForce4 Ti 4200
GeForce4 TI 4200 with AGP8X
GeForce4 Ti 4400
GeForce4 Ti 4600
Quadro
Quadro2 Pro
Quadro2 EX Quadro2 MXR
Quadro DCC
Quadro4 200 NVS
Quadro4 400 NVS
Quadro4 500 XGL
Quadro4 550 XGL
Quadro4 700 XGL
Quadro4 750 XGL
Quadro4 900 XGL
NOTE: GeForce2 Go and GeForce4 Go mobile processors are not supported in this driver. Please contact the notebook's manufacturer for graphics drivers for your notebook PC.

http://www.nvidia.com/content/drivers/drivers.asp


Achso. Dann liefert Nvidia momentan fleißig die vielen vielen vielen FX-Boards nur mit BETA-Treibern aus ? Nix offiziel ?

wie arm.

AlfredENeumann
2003-03-17, 17:51:49
Originally posted by Quasar
Sieh' an, sieh' an. Und wie soll man ohne (offiziellen) Treiber cheaten?

Wie wär's, wenn man sich mit Vorwürfen zurückhält, bis es offizielle Treiber gibt?

Weil der Treiber zum Benchen an div. Redaktionen verschickt wurde ist es meiner meinung ein CHEAT-Treiber.

Sunrise
2003-03-17, 18:04:35
@cl55amg:

aber das ändert nichts daran das in ersten tests(z.B. CT)der radeon 9800 fast 30 % performance steigerung zugesichert wurde.die meisten leute kriegen am ende garnicht mit das alles nur cheating war...

Ich frage mich momentan ernsthaft, was dein Posting bezwecken soll.

Die Radeon9800Pro hat einen Takt von 380/340 und ist NUR vom Takt allein, der Radeon9700Pro dadurch um 65MHz/30MHz überlegen.

Das sind rein rechnerisch schonmal gute 17%/9% Mehrleistung, WENN wir die Radeon9700Pro als Grundlage nehmen, und davon ausgehen die Radeon9800Pro hätte die EXAKT gleiche Hardware.

Da hier niemand weiß wie die Radeon9800Pro intern arbeitet, zwecks Nachprüfung von Optimierungen direkt in der Hardware, kann auch keiner behaupten, das ATI hier in irgendeiner Form auch nur ansatzweise cheatet.

Wie du ja sicher weisst, hat ATI die Radeon9700Pro im August das erste mal offiziel vorgestellt, und die Ursprungstreiber haben mittlerweile eine Form erreicht, das man sagen kann, man ist ziemlich am Ende was Optimierung anbelangt (reine Vermutung).

Die Radeon9800Pro gab den Ingenieuren aber einen neuen Ansatz, und mit Grundlage von diesen wurden die ursprünglichen Radeon9700Pro-Treiber neu überdacht, und man hatte eine kleine, aber feine Effizienzsteigerung von sage und schreibe 10-30% allein durch die Treiber vorzuweisen.

Rechne das auf mit den höheren Takten der Radeon9800Pro, und du hast deine "ercheatete" Mehrleistung.

Eine kleine Frage an dich:

Was würdest denn du als Treiberentwickler machen, wenn du einer wärst ? Einer neuen Karte von deiner Firma den Vorrang geben, und zuerst für diese Entwickeln, oder für eine 6 Monate alte ?

Deine Antwort würde mich interessieren.

Und eine Sache noch !

Wenn du mir offenlegen kannst, das durch dieses "cheating" wie du es nennst, gewisse Abstriche in der Bildqualität gemacht wurden, dann halte dich nicht zurück, überzeuge uns ! Denn nur das ist in meinen Augen ein klarer Cheat.

PS: ATI gibt alle Optimierungen auch an die R300-Reihe weiter, das geschieht aber erst dann, wenn alles perfekt läuft, das dürfte doch jedem klar sein.

Tarkin
2003-03-17, 18:17:07
Originally posted by Sunrise
@cl55amg:

Das sind rein rechnerisch schonmal gute 17%/9% Mehrleistung, WENN wir die Radeon9700Pro als Grundlage nehmen, und davon ausgehen die Radeon9800Pro hätte die EXAKT gleiche Hardware.

Da hier niemand weiß wie die Radeon9800Pro intern arbeitet, zwecks Nachprüfung von Optimierungen direkt in der Hardware, kann auch keiner behaupten, das ATI hier in irgendeiner Form auch nur ansatzweise cheatet.



die Radeon 9800 pro ist definitiv ein "getweakter" R300 Core, bei dem Hyper Z bei Stencil Operationen in Hardware gefixed wurden ... hab das glaub ich im Beyond3d Forum gelesen (oder wars Rage3D?)

Hyper Z bei Stencil Operationen war beim r300 "broken" ... das wurde behoben ... u.a.

also vor allem bei Situationen wo Stencil Operationen extrem eingesetzt werden (Doom III, Battle for Proxycon) ist die 9800er PRO einer 9700 pro überlegen ... nicht nur wegen des höheren Taktes.

... hoffe ich hab das richtig verstanden :D

@Exxtreme ... stimmt doch oder?

Sunrise
2003-03-17, 18:23:21
@Tarkin:

Meine Infos sind "ähnlich".

Das ATI 6 Monate lang NUR Kaffee trinkt, will ich nicht wirklich glauben.

Mr. Lolman
2003-03-17, 18:25:31
Gibts eingentlich Doom3 Alpha Benchmarkvergleiche zw. 9700 und 9800. Die Russen haben das sicher schon gebencht ;)

ow
2003-03-17, 19:18:49
Originally posted by Labberlippe


Kurz ich glaube schon das ATi die "älteren" Karten nicht abseits stehen lassen wird.

Gruss Labberlippe

Meiner Erfahrung nach hat ATi das längst.
Auch auf meiner 8500 noch viel Sachen, die mit HWTL nur fehlerhaft laufen, teils dieselben Fehler wie zuvor schon auf meiner 7200. Und da wird sich IMHO nichts mehr dran ändern.

ow
2003-03-17, 19:22:36
Originally posted by Exxtreme
@ Demirug

Also kann ein Treiber, welcher derbste Grafikfehler produziert auch ein WHQL-Zertifikat bekommen solange er nicht abstürzt in den Tests von MS?

Aber natürlich!!

3D-Tests fasst die WHQL-Zertifizierung imo nicht an. In Windows enthaltene WHQL-Treiber haben normalerweise ja nicht mal einen OpenGL Treibver dabei.

ow
2003-03-17, 19:24:11
Originally posted by Demirug


Derbste natürlich nicht. :D

Hö???

In 3D-Spielen aber schon.:D

Labberlippe
2003-03-17, 19:26:43
Originally posted by ow


Meiner Erfahrung nach hat ATi das längst.
Auch auf meiner 8500 noch viel Sachen, die mit HWTL nur fehlerhaft laufen, teils dieselben Fehler wie zuvor schon auf meiner 7200. Und da wird sich IMHO nichts mehr dran ändern.

Hi

Also der Mirror Z Bug wurde anscheinand behoben und ist nicht mehr aufgetreten bei der Radeon SDR.

Gruss Labberlippe

Demirug
2003-03-17, 19:39:22
Originally posted by ow


Hö???

In 3D-Spielen aber schon.:D

Ein paar 3d tests laufen da AFAIK schon aber wie gesagt nicht wirklich heftiges.

ow
2003-03-17, 20:09:29
Originally posted by Labberlippe


Hi

Also der Mirror Z Bug wurde anscheinand behoben und ist nicht mehr aufgetreten bei der Radeon SDR.

Gruss Labberlippe

Na sowas:D
Meine 8500 zeigt den nach wie vor, auch mit dem Catalyst3.2. Ebenso die Fehler im Templemark (damit meine ich nicht die Flammen) und im Fablemark. Ohne HWTL läuft das alles ohne Beanstandung.

Labberlippe
2003-03-17, 20:12:50
Originally posted by ow


Na sowas:D
Meine 8500 zeigt den nach wie vor, auch mit dem Catalyst3.2. Ebenso die Fehler im Templemark (damit meine ich nicht die Flammen) und im Fablemark. Ohne HWTL läuft das alles ohne Beanstandung.

Hi

Fablemark habe ich nicht getestet.
Wie gesagt der MirrorZ Fehler ist bei mir nicht mehr aufgetreten.

Gruss Labberlippe

Virtual
2003-03-17, 20:34:11
Um der WHQL-Debatte einen Schlußpunkt zu verpassen:
Ein WHQL-Zertifikat für offizielle NVidia Detonatoren mit Unterstützung für NV30 und dessen Abkömmlinge ist IMHO sehr unwahrscheinlich. Das WHQL-Zertifikat bedingt FP32 für PS1.4/2.0/2.0+ zumindest bei Texture Address Calculations und ohne einen Beleg dafür vorweisen zu können und damit Gefahr zu laufen, von Demirug eine Kommentar verpaßt zu bekommen, möchte ich behaupten, daß die Fragment-Shader Pipeline nur entweder im Modus FP32 oder FP16 funktioniert. Damit werden 1.4 & 2.0 Shader bestenfalls mit dem halben R300-Tempo ablaufen, was eine langfristige Benchmark-Katastrophe nach sich zöge. Spiele-Benches sind mangels breitem PS1.4/2.0 Einsatz davon nicht wirklich betroffen, aber eben NV's ehemals so angepriesenen theoretischen Benchmarks...

G.
V.

Demirug
2003-03-17, 20:47:02
Originally posted by Virtual
Um der WHQL-Debatte einen Schlußpunkt zu verpassen:
Ein WHQL-Zertifikat für offizielle NVidia Detonatoren mit Unterstützung für NV30 und dessen Abkömmlinge ist IMHO sehr unwahrscheinlich. Das WHQL-Zertifikat bedingt FP32 für PS1.4/2.0/2.0+ zumindest bei Texture Address Calculations und ohne einen Beleg dafür vorweisen zu können und damit Gefahr zu laufen, von Demirug eine Kommentar verpaßt zu bekommen, möchte ich behaupten, daß die Fragment-Shader Pipeline nur entweder im Modus FP32 oder FP16 funktioniert. Damit werden 1.4 & 2.0 Shader bestenfalls mit dem halben R300-Tempo ablaufen, was eine langfristige Benchmark-Katastrophe nach sich zöge. Spiele-Benches sind mangels breitem PS1.4/2.0 Einsatz davon nicht wirklich betroffen, aber eben NV's ehemals so angepriesenen theoretischen Benchmarks...

G.
V.

Wenn du schon um einen Komentar bittest sollst du in auch bekommen. ;)

PS 1.4 kommen ja noch aus DX 8.1 und da war von FP Genauigkeit niemals die rede. Eine DX (und damit WHQL) konforme PS 1.4 implemetierung braucht lediglich einen Wertebereich von -1 bis +1 mit 8 Bit + Vorzeichen Genaugigkeit. Kann der NV30 ohne Probleme

Die geforderte Genauigkeit bei PS >= 2.0 beträgt keine FP 32 (sonst würde ATI alt aussehen). Die FP16 sind allerdings als Defaultmode nicht erlaubt sondern dürfen nur verwendet werden wenn dies explizit im Shadercode (pro Anweisung) angegeben ist. NVIDIA wird dafür bei den Entwicklern eine kampange "FP16 ist genung" starten (angefangen hat sie ja eigentlich schon).

Virtual
2003-03-17, 21:06:26
Originally posted by Demirug


Wenn du schon um einen Komentar bittest sollst du in auch bekommen. ;)

PS 1.4 kommen ja noch aus DX 8.1 und da war von FP Genauigkeit niemals die rede. Eine DX (und damit WHQL) konforme PS 1.4 implemetierung braucht lediglich einen Wertebereich von -1 bis +1 mit 8 Bit + Vorzeichen Genaugigkeit. Kann der NV30 ohne Probleme

Die geforderte Genauigkeit bei PS >= 2.0 beträgt keine FP 32 (sonst würde ATI alt aussehen). Die FP16 sind allerdings als Defaultmode nicht erlaubt sondern dürfen nur verwendet werden wenn dies explizit im Shadercode (pro Anweisung) angegeben ist. NVIDIA wird dafür bei den Entwicklern eine kampange "FP16 ist genung" starten (angefangen hat sie ja eigentlich schon). .

Sei mir bitte nicht böse, aber ich muß deiner Antwort eine Textpassage aus dem Q&A mit NVs Tony Tamasi bei Beyond3D hinzufügen: :)

Tony Tamasi:
http://www.beyond3d.com/previews/nvidia/gffxu/index.php?p=24
------------------------------------
According to DirectX 9 spec, FP24 is allowed, but we at NVIDIA believe it is insufficient to avoid errors for a variety of texture and geometry calculations. So we designed our products to use FP32. For example, NVIDIA uses FP32 for texture address calculation. In the case of dependent texture reads (e.g. a bumpy shiny object with a reflection map in a scene), full precision (FP32) for the texture address calculation is critical for getting a high-quality result.

It is unfortunate that the spec is lax on this point because FP32 is also important to match the FP precision for any work that is done on the CPU (whether Pentium4 or Athlon). Some applications still do load balancing by performing some geometry processing on the CPU. If some math is done in FP32 on the CPU (CPUs don't recognize the FP24 format) and other math is done at FP24 on the GPU, you will get errors. Because pixel shading units are now capable of rendering geometry, they need to have the same precision as the vertex shading unit. Advanced pixel shading programs can render data to a texture that is subsequently read back into the Vertex Shading Engine for additional geometric processing. For this reason, it is much better to have the same precision through the entire process.

And, of course, drivers would fail WHQL if they fail to meet minimum WHQL requirements such as FP24 or higher for texture address calculation.
------------------------------------

Demirug
2003-03-17, 21:43:19
Warum sollte ich dir böse sein???

Was tony da sagt hat ja durchaus seine Richtigkeit.

Er nennt aber ganz in der Manier eines guten PR Manns natürlich nur die Fälle wo man aus dem FP 32 einen richtigen Vorteil ziehen kann.

- Berechnen von Texturkoordinaten. (z.b Vectornormalierung für eine Bumpmap)
- Übernahme von Daten von der CPU (den Punkt sehe ich eigentlich nicht so kritisch, aber möglicherweise hat NVIDIA da schon was ausprobiert was mir bisher nicht in den Sinn gekommen ist)
- Render to Vertexstream. Da ist es wieder diese merkwürdige Feature das irgendwie mit der HOS Strategie von NVIDIA im Zusammenhang steht. Da die Daten in dem Fall ja wieder in den Vertexshader kommen sollen ist es natürlich wichtig so wenig wie möglich an Genauigkeit zu verlieren. Da FP32 auch in den Vertexshadern benutzt wird ist fp32 natürlich ideal.

Was der gute Tony natürlich nicht sagt (weil man macht ja gerade die Konkurrenz welche nur fp24 hat fertig) ist das für die reine Farbberechnung welche einen Grossteil eines normalen PixelShader Programms ausmachen fp16 und erst recht fp24 ausreichen. Und so wird man dementsprechend in Zukunft wohl auch Pixelshader schreiben (damit sie auf möglichst vielen Chips gut laufen) Koordinatenberechnungen mit voller Genauigkeit und Farbberechnungen mit gerringerer Genaugikeit. Beim R300/350 macht das keine unterschied bei den NV3x Chips aber wahrscheinlich schon und mit was SIS, S3 und andere noch kommen werden muss sich ja auch noch zeigen.

Virtual
2003-03-17, 22:20:59
Originally posted by Demirug
Warum sollte ich dir böse sein???

Was tony da sagt hat ja durchaus seine Richtigkeit.

Er nennt aber ganz in der Manier eines guten PR Manns natürlich nur die Fälle wo man aus dem FP 32 einen richtigen Vorteil ziehen kann.

- Berechnen von Texturkoordinaten. (z.b Vectornormalierung für eine Bumpmap)
- Übernahme von Daten von der CPU (den Punkt sehe ich eigentlich nicht so kritisch, aber möglicherweise hat NVIDIA da schon was ausprobiert was mir bisher nicht in den Sinn gekommen ist)
- Render to Vertexstream. Da ist es wieder diese merkwürdige Feature das irgendwie mit der HOS Strategie von NVIDIA im Zusammenhang steht. Da die Daten in dem Fall ja wieder in den Vertexshader kommen sollen ist es natürlich wichtig so wenig wie möglich an Genauigkeit zu verlieren. Da FP32 auch in den Vertexshadern benutzt wird ist fp32 natürlich ideal.

Was der gute Tony natürlich nicht sagt (weil man macht ja gerade die Konkurrenz welche nur fp24 hat fertig) ist das für die reine Farbberechnung welche einen Grossteil eines normalen PixelShader Programms ausmachen fp16 und erst recht fp24 ausreichen. Und so wird man dementsprechend in Zukunft wohl auch Pixelshader schreiben (damit sie auf möglichst vielen Chips gut laufen) Koordinatenberechnungen mit voller Genauigkeit und Farbberechnungen mit gerringerer Genaugikeit. Beim R300/350 macht das keine unterschied bei den NV3x Chips aber wahrscheinlich schon und mit was SIS, S3 und andere noch kommen werden muss sich ja auch noch zeigen.

Die Texture Address Logic des R3x0 ist auch fest float, der Rest 24Bit. Obwohl 16Bit ausreichen, ist es schon interessant, daß der NV30 mit 16Bit rechnen muß, weil ihm bei SP nicht genug Rechenlogik zur Verfügung steht, um mit den R3x0 mithalten zu können. Die Vertex-Pipeline des R3x0 ist auch vollständig Single Precision. Genau genommen gilt, vom Performance/Quality Standpunkt aus ist der R3x0 für Spiele die bessere Wahl. (/Edit: Meine float Ops)
Was wohl für ein Chaos bei NVidia zugegen war, als man den R300 auf die Nase geschlagen bekam. :)

G.
V.

Frank
2003-03-17, 22:25:42
@cl55amg
Du musst dich vermutlich besser ausdrücken, damit dich alle verstehen.



Es geht doch schon wieder los: ...ATI macht blablub... nVidia aber blumsbims. *mecker* *toffel*

Und ein was bleibt immer gleich: Die Leute die sich in fetten Großbuchstaben ATI(nVidia) auf die Fahne schreiben, nehmen wieder die üblichen Positionen ein und fangen an sich über irgendwelche Sachen zu streiten, wo man eigentlich nur den Kopf schütteln kann. cl55amg wollte vermutlich nur darauf hinweisen, dass beide Firmen sich eigentlich nichts in ihrer Produkpolitik nehmen. Aber das verhallt eher im Leeren. Das einzigste was mir in der Entwicklung solcher Threads aufgefallen ist: "FanATIker" sind um einiges aggresiver geworden. Klar gibt es auch immer solche Leute bei nVidia - aber die Tendenzen sollten jeden halbwegs Neutralen mal aufgefallen sein.

ps. Zum eigentlichen Thema gibts von mir nichts, da mich das in keinster Weise tangiert.

betasilie
2003-03-17, 22:29:16
Originally posted by Frank
[size=1]Zum eigentlichen Thema gibts von mir nichts, da mich das in keinster Weise tangiert.
Vernünftig. So ein Schwachsinnsthread.

Demirug
2003-03-17, 22:33:35
Originally posted by Virtual


Die Texture Address Logic des R3x0 ist auch fest float, der Rest 24Bit. Obwohl 16Bit ausreichen, ist es schon interessant, daß der NV30 mit 16Bit rechnen muß, weil ihm bei SP nicht genug Rechenlogik zur Verfügung steht, um mit den R3x0 mithalten zu können. Die Vertex-Pipeline des R3x0 ist auch vollständig Single Precision. Genau genommen gilt, vom Performance/Quality Standpunkt aus ist der R3x0 für Spiele die bessere Wahl. (/Edit: Meine float Ops)
Was wohl für ein Chaos bei NVidia zugegen war, als man den R300 auf die Nase geschlagen bekam. :)

G.
V.

Was bringt dich darauf das der R300 Texturkoordinaten mit fp32 rechnet? Er kann lediglich fp32 Texturen sampeln. Diese werden aber auf fp24 runtergerechnet (ob das nun bei laden der Texture in den Chip oder erst beim Sampeln geschieht ist AFAIK nicht bekannt)

Der unterschied zwichen fp24 und fp32 beim berechnen der Texturkoordinaten ist aber nicht so gross und wird im Normalfall kaum auffallen. Genauso wird man einen unterschied zwischen fp16 und fp24 bei den Farbberechnung kaum erkennen. Natürlich kann man für beiden Fällen auch einen Shader bauen bei dem man es dann extremm sieht.

Vertexshader sind schon immer fp32.

Chaos? wohl kaum die beiden kennen sich zu gut als das man nicht schon lange vor allen anderen weiss was der jeweils andere gerade macht.

Virtual
2003-03-17, 22:43:39
Originally posted by Frank

@cl55amg
Du musst dich vermutlich besser ausdrücken, damit dich alle verstehen.



Es geht doch schon wieder los: ...ATI macht blablub... nVidia aber blumsbims. *mecker* *toffel*

Und ein was bleibt immer gleich: Die Leute die sich in fetten Großbuchstaben ATI(nVidia) auf die Fahne schreiben, nehmen wieder die üblichen Positionen ein und fangen an sich über irgendwelche Sachen zu streiten, wo man eigentlich nur den Kopf schütteln kann. cl55amg wollte vermutlich nur darauf hinweisen, dass beide Firmen sich eigentlich nichts in ihrer Produkpolitik nehmen. Aber das verhallt eher im Leeren. Das einzigste was mir in der Entwicklung solcher Threads aufgefallen ist: "FanATIker" sind um einiges aggresiver geworden. Klar gibt es auch immer solche Leute bei nVidia - aber die Tendenzen sollten jeden halbwegs Neutralen mal aufgefallen sein.

ps. Zum eigentlichen Thema gibts von mir nichts, da mich das in keinster Weise tangiert.

Frank,
gönne uns doch das Vergnügen. :) Daß das Thema "NVidia/ATI ist besser" einfach nur Spaß macht, ist doch an der regen Teilnahme zu erkennen. Und wer darin keinen Sinn sieht, der kann ja außen vor bleiben.

Zum Verlauf der Kampfhandlungen:
Die NV-Fraktion hat diesmal leicht geschächelt. Allerdings war die Vorlage aus den eigenen Reihen auch nicht unbedingt ein Steilpaß, sondern eher 'ne gefährlich Rückgabe :lol:

Ich sehe, du hast allerdings das Gefecht aufmerksam verfolgt, und zutreffend festgestellt: Die FanATIker haben viel von den NVidianern gelernt. Kampfkraft und Moral ist mittlerweile erstaunlich gut entwickelt. Warum allerdings Richthofen nicht entscheident in die Schlacht eingegriffen hat, um einen Sieg der NVidianer zu erzwingen, bleibt mir dennoch ein Rätsel! ;) Naja, auch ein angestaubter Kriegsheld braucht hin und wieder eine Pause :)

G.
V.

PS.
Häufig ist's nur ein Stellvertreterkampf zwischen R(V)3x0/NV3x.

Virtual
2003-03-17, 23:06:21
Originally posted by Demirug


Was bringt dich darauf das der R300 Texturkoordinaten mit fp32 rechnet? Er kann lediglich fp32 Texturen sampeln. Diese werden aber auf fp24 runtergerechnet (ob das nun bei laden der Texture in den Chip oder erst beim Sampeln geschieht ist AFAIK nicht bekannt)

Der unterschied zwichen fp24 und fp32 beim berechnen der Texturkoordinaten ist aber nicht so gross und wird im Normalfall kaum auffallen. Genauso wird man einen unterschied zwischen fp16 und fp24 bei den Farbberechnung kaum erkennen. Natürlich kann man für beiden Fällen auch einen Shader bauen bei dem man es dann extremm sieht.

Vertexshader sind schon immer fp32.

Chaos? wohl kaum die beiden kennen sich zu gut als das man nicht schon lange vor allen anderen weiss was der jeweils andere gerade macht.

Sagte ich rechnen? Und frag' nicht. Ich hab's irgendwo in einem Thread gelesen und es ist schon eine Weile her. Genauer: Teile der Texture Address Logic sind 32Bit breit. Du sagst es ja. Er muß 32Bit Texturen auf FP24 konvertieren. Wo und Wann? - Aber 32Bit Logic muß wohl vorhanden sein. Die Freiheitsgrade/Toleranz sind bei PF24 einfach im Schnitt höher anzusiedeln, ohne daß es Perf. gegenüber FP16 (NV30) kostet. Klar, alles läßt sich zeigen. Es ist nur eine Frage des Aufwands. Aber ist es das Ziel von Spieleentwicklern Grenzen aufzuzeigen oder die Freiheitsgrade effizient zu nutzen. Gib' es zu -> Hier habe ich recht :) Und vor allen Dingen erst recht in Bezug auf eine 5200 non-Ultra. Gott, das Ding ist bei FX32 so grottenlahm. Für'n Gameboy Display würd's allerdings noch reichen ;)

AlfredENeumann
2003-03-17, 23:25:32
Originally posted by Demirug

NVIDIA wird dafür bei den Entwicklern eine kampange "FP16 ist genung" starten (angefangen hat sie ja eigentlich schon).


F... Nvidia. Für mich ist das indirektes Cheaten.

StefanV
2003-03-17, 23:33:46
Originally posted by Frank
ps. Zum eigentlichen Thema gibts von mir nichts, da mich das in keinster Weise tangiert.

Geht mir genauso...

Irgendwie sehe ich keinen Sinn in diesem Thread, außer daß sich die beiden Gruppierungen gegenseitig anflamen...

StefanV
2003-03-17, 23:36:34
Originally posted by AlfredENeumann
F... Nvidia. Für mich ist das indirektes Cheaten.

Ich sehe es eher als verschleierung von Technischen Mängeln auf Kosten anderer...

Salvee
2003-03-17, 23:45:52
Originally posted by Virtual
Daß das Thema "NVidia/ATI ist besser" einfach nur Spaß macht, ist doch an der regen Teilnahme zu erkennen. Und wer darin keinen Sinn sieht, der kann ja außen vor bleiben.

Zum Verlauf der Kampfhandlungen:
Die NV-Fraktion hat diesmal leicht geschächelt. Allerdings war die Vorlage aus den eigenen Reihen auch nicht unbedingt ein Steilpaß, sondern eher 'ne gefährlich Rückgabe :lol:

Ich sehe, du hast allerdings das Gefecht aufmerksam verfolgt, und zutreffend festgestellt: Die FanATIker haben viel von den NVidianern gelernt. Kampfkraft und Moral ist mittlerweile erstaunlich gut entwickelt. Warum allerdings Richthofen nicht entscheident in die Schlacht eingegriffen hat, um einen Sieg der NVidianer zu erzwingen, bleibt mir dennoch ein Rätsel! ;) Naja, auch ein angestaubter Kriegsheld braucht hin und wieder eine Pause :)

G.
V.

PS.
Häufig ist's nur ein Stellvertreterkampf zwischen R(V)3x0/NV3x.

LOL
Das trifft die Sache schon ziemlich genau.
Zu R200 Zeiten war die Pro-ATi Anti-nV Haltung halt schwerer zu begründen als heute.
Nach ein paar Posts kamen die Totschlag-Argumente 'Miese Treiber (tm)' 'Mieses AF(tm)' aka Rip-Mapping :stareup: oder ähnliches zum Zuge,
oder jemand liess das Wörtchen 'quack' fallen, und schon waren die ATi-Freaks demoralisiert.
Ohne Flame-Wars hätten die meisten Boards und Threads nichtmal halb soviele Posts, aber an manchen Tagen habe ich echt
keinen Bock mehr, ständig das gleiche zu lesen. Aber wie gesagt, nur an manchen ... *eg*

Demirug
2003-03-17, 23:50:10
Originally posted by Virtual


Sagte ich rechnen? Und frag' nicht. Ich hab's irgendwo in einem Thread gelesen und es ist schon eine Weile her. Genauer: Teile der Texture Address Logic sind 32Bit breit. Du sagst es ja. Er muß 32Bit Texturen auf FP24 konvertieren. Wo und Wann? - Aber 32Bit Logic muß wohl vorhanden sein. Die Freiheitsgrade/Toleranz sind bei PF24 einfach im Schnitt höher anzusiedeln, ohne daß es Perf. gegenüber FP16 (NV30) kostet. Klar, alles läßt sich zeigen. Es ist nur eine Frage des Aufwands. Aber ist es das Ziel von Spieleentwicklern Grenzen aufzuzeigen oder die Freiheitsgrade effizient zu nutzen. Gib' es zu -> Hier habe ich recht :) Und vor allen Dingen erst recht in Bezug auf eine 5200 non-Ultra. Gott, das Ding ist bei FX32 so grottenlahm. Für'n Gameboy Display würd's allerdings noch reichen ;)

Ja was ausser rechnen soll man Texturekoordinaten in den Pixelshadern denn sonst machen? Das Textursampeln ist Aufgabe der TMUs. Am Sinn von FP Texturen kann man solange man dort nur Pointsampling benutzten kann sowieso zweifeln von der Bandbreite die das ganze braucht mal abgesehen.

Zum Runterkonvertieren von fp32 auf fp24 braucht man nun wirklich nicht viel logik. Dabei wird einfach die Mantiesse und der Exponent um die entsprechende Anzahl Bits gekürzt in dem man diese zusätzlichen Signale einfach nicht weiterleitet.

Was die Freiheitsgrade angeht so hast du dir aber gerade selbst ein Bein gestellt den diese sind beim NV30 höher. dort kann ich eine Entscheidung (Pro Shaderoperation) für Speed oder genauigkeit treffen. Diese Wahl habe ich beim R300 nicht. Das ist also eindeutig ein Freiheitsgrad mehr beim NV30. ;) Die FP24 beim R300 stellen da aber natürlich einen guten Kompromiss dar.

Zum Thema effizientes nutzen von Freiheitsgraden kann man nur sagen das der massgeben Freiheitgrad das Buget ist und von Freiheit kann man dort eigentlich nicht sprechen. Mann muss ja heute schon froh sein wenn man im Buget bleibt und zumindestens weitgehende Fehlerfreitheit erreicht optimierungen bleiben da gerne mal auf der Strecke wenn man am ende mit dem bischen Geld das noch da ist vor die wahl gestellt ist ob man nun versucht die Fehler auszumerzen oder das ganze schneller zu machen. Meistens ist das Geld weg bevor man auch nur eins erreicht hat. Klingt hart ist aber leider so.

Die 5200 (non Pro) ist auch nicht als Karte für den Hardcore gamer zu sehen. Solche Karten findet man in den Rechnern von Gelegeheitsspielern (bzw Leute die überhaupt nicht spielen und die Karte eben mit dem Rechner bekommen haben). Die Gelegenheitspielér haben nur sehr geringe Anforderugen an die FPS, Bildqualität (AA/AF) und Details. Solange es einigermassen läuft sind diese Leute zufrieden und es gibt mehr davon als man denkt.

Und für einen Gameboy ist der Chip unbrauchbar weil er zuviel Strom braucht.

Ich verstehe ehrlich gesagt nicht was du von mir hier erwartests? Etwa Aussagen wie "NV30 ist schrott R300 ist Gott"? Wie du sicherlich schon gemerkt hast halte ich mich aus Threads bei denen um Kaufempfehlungen gebeten wird raus und zwar aus dem Grund weil meine Sicht auf den Markt aufgrund meiner Situation eine so gänzlich andere ist. Für mich sind beides einfach Hardwareteile mit denen ich leben muss mit allen Konsequenzen die sich daraus ergeben. Das NVIDIA nun zwei Genauigkeiten eingeführt hat (was sich ja auch in der DX Spec niedergeschlagen hat) führt eben dazu das ich unser Shadersystem so auslegen muss das es dieser Tatsache rechnung trägt. Genauso muss ich aber der ATI Extratour mit den PS 1.4 Rechnung tragen. Das ist nun mal der Preis den man in einer relative freien Hardwareumgebung wie sie bei 3d-Karten nun mal vorhanden ist bezahlen muss.

Lorien
2003-03-17, 23:56:23
Also ich muss hier meinen Senf auch noch hinzugeben.

Laut Catalyst Maker (Treiber Fuzzi bei ATI)
werden die neuen erkenntnisse erst im Cat 3.3 auch für die R300 Chips freigeschaltet da sie die neuen Tweaks noch nicht ausfürlich auf den R300 Chips getestet haben.
Und diese nun erst für die R350 Chips im Cat 3.2 enthalten sind.

Ich kann euch gerne sein Orginal Zitat ausm Rage3d Forum suchen gehen für diejenigen dies ned glauben.

Achja er hat übrigends auch auf tommti-systems verwiesen! Als einige gefragt haben wieviel Performance sie vom 3.3 auf der R300 erwarten können.


Grüsse
Lorien

DrFreaK666
2003-03-17, 23:59:42
Originally posted by Lorien
Also ich muss hier meinen Senf auch noch hinzugeben.

Laut Catalyst Maker (Treiber Fuzzi bei ATI)
werden die neuen erkenntnisse erst im Cat 3.3 auch für die R300 Chips freigeschaltet da sie die neuen Tweaks noch nicht ausfürlich auf den R300 Chips getestet haben.
Und diese nun erst für die R350 Chips im Cat 3.2 enthalten sind.

Ich kann euch gerne sein Orginal Zitat ausm Rage3d Forum suchen gehen für diejenigen dies ned glauben.

Achja er hat übrigends auch auf tommti-systems verwiesen! Als einige gefragt haben wieviel Performance sie vom 3.3 auf der R300 erwarten können.


Grüsse
Lorien

Also wenn ich der ATI-Chef wäre, dann würde ich auch versuchen, die treiber für den R350 zu optimieren. Schliesslich ist es ja ein bißchen mehr als ein übertaktetes R300. Dann müssen wohl einige Sachen anders angesprochen werden.
Dass die R300-User ein wenig warten müssen ist zu verschmerzen. hauptsache ATI hält sein Wort.

Mr. Lolman
2003-03-18, 00:07:11
*demirugspostingaufmerksamles*

@demirug:

Du würdest wirklich PS 1.4 (also R200 Karten) seperat unterstützen? Bei NV ist es ja mehr eine (eher einfache) Zwangsentscheidung (nehmen wir halt FP16), aber PS 1.4 zusätzlich zu 2.0 oder 1.1 zu unterstützen kommz IMHO nicht allzuvielen Entwicklern in den Sinn :stareup:


----> oder betrachte ich es einfach zu unkompliziert?

edit1: Ich weiss, dass die Genauigkeit von DX vorgegeben wird, aber da man sich ja sicher sein kann, dass NV selbst optimierungen Einbaut, kann man doch gleich auf FP16-Shader entwickeln, oder? - So war das gemeint !

edit2: Vergiss edit1 - man kann ja erzwingen.

Demirug
2003-03-18, 00:19:20
Originally posted by AlfredENeumann



F... Nvidia. Für mich ist das indirektes Cheaten.

Alfred E N., sei versichert da man die geringere Genauigkeit erzwingen muss wird das in vielen Fällen aus Faulheit, Unbeachtheit oder aus welchen Gründen auch immer trotz des netten Vorschlags von NVIDIA nicht gemacht werden und falls es gemacht wird kannst du dich ja dann immer erfreuen das deine Grafikkarte die Pixelfarbe mit höherer Genauigkeit rechnet was du aufgrund der Tatsache das der Frambuffer immer noch mit nur 8 bit pro Frabkanal arbeitet sowieso kaum sehen wirst. Das gleiche haben wir doch jetzt auch schon NV20 gegen R200 und die derivaten dazu. Der R200 rechnet eigentlich genauer nur sehen tut man davon nichts. Und bei FP16 zu FP24 ist der unterschied geringer als zwischen NV20 und R200.

Originally posted by Stefan Payne

Ich sehe es eher als verschleierung von Technischen Mängeln auf Kosten anderer...

Auf welchen Kosten von anderen? ATI ignoriert beim R300/350 das Flag mit der geringen Genauigkeit sowieso und rechnet immer mit FP24. Und an rohmaterial (Geometrie, Texturen) bekommen beide Chips ja auch das gleiche vorgesetzt. Die eizigen die dann was davon merken könnten sind die Leute die sich eben eine Karten mit NV3X Chip gekauft haben und die haben es dann doch sowieso nicht besser verdient, oder? ;)

Virtual
2003-03-18, 00:19:30
Originally posted by DrFreaK666


Also wenn ich der ATI-Chef wäre, dann würde ich auch versuchen, die treiber für den R350 zu optimieren. Schliesslich ist es ja ein bißchen mehr als ein übertaktetes R300. Dann müssen wohl einige Sachen anders angesprochen werden.
Dass die R300-User ein wenig warten müssen ist zu verschmerzen. hauptsache ATI hält sein Wort.

Kurz: Nicht übertaktet, sondern höher getaktet! Die FX-Ultra ist übertaktet. Ein feiner aber wichtiger Unterschied.

DrFreaK666
2003-03-18, 00:21:14
Originally posted by Virtual


Kurz: Nicht übertaktet, sondern höher getaktet! Die FX-Ultra ist übertaktet. Ein feiner aber wichtiger Unterschied.

Stimmt. Hast ja recht.
Aber jeder wusste was ich gemeint hab :-)

Frank
2003-03-18, 00:30:08
Originally posted by Stefan Payne


Geht mir genauso...

Irgendwie sehe ich keinen Sinn in diesem Thread, außer daß sich die beiden Gruppierungen gegenseitig anflamen... Allerdings muss man wohl das noch dazu sagen: Der äquivalent formulierten Thread gegen nVidia tangiert mich genausowenig - weil Thema genauso hohl. Da kann man aber schön sehen im Vergleich zu hier, wer aggressiver den Anderen feritg machen will. Siehe mein obiges Posting oder evtl der Vergleich der reinen Anzahl der Replys.

AlfredENeumann
2003-03-18, 00:30:39
Originally posted by Demirug


Alfred E N., sei versichert da man die geringere Genauigkeit erzwingen muss wird das in vielen Fällen aus Faulheit, Unbeachtheit oder aus welchen Gründen auch immer trotz des netten Vorschlags von NVIDIA nicht gemacht werden und falls es gemacht wird kannst du dich ja dann immer erfreuen das deine Grafikkarte die Pixelfarbe mit höherer Genauigkeit rechnet was du aufgrund der Tatsache das der Frambuffer immer noch mit nur 8 bit pro Frabkanal arbeitet sowieso kaum sehen wirst. Das gleiche haben wir doch jetzt auch schon NV20 gegen R200 und die derivaten dazu. Der R200 rechnet eigentlich genauer nur sehen tut man davon nichts. Und bei FP16 zu FP24 ist der unterschied geringer als zwischen NV20 und R200.


Ich sehe es eher aus der Sicht: Werbung mach mit FP32 und super toller Genauigkeit. Läuft aber nur mit "FP16", daher u.U. schneller als mit ATIs FP24. Spricht "FP32" von Nvidia schneller als FP24 von ATI. Wenn man das als User (oder noch schlimmer als Redakteuer beim Benchen) nicht weis ist das ein wenig Kagge. Man wird doch kaum nachweisen können wie jetzt gerndert wird sprich ob mit FP16 oder FP32 ? Oder geht das ?

Demirug
2003-03-18, 00:35:18
Originally posted by Mr. Lolman
*demirugspostingaufmerksamles*

@demirug:

Du würdest wirklich PS 1.4 (also R200 Karten) seperat unterstützen? Bei NV ist es ja mehr eine (eher einfache) Zwangsentscheidung (nehmen wir halt FP16), aber PS 1.4 zusätzlich zu 2.0 oder 1.1 zu unterstützen kommz IMHO nicht allzuvielen Entwicklern in den Sinn :stareup:


----> oder betrachte ich es einfach zu unkompliziert?

Die Hauptarbeit macht dabei unser Shaderframework. Wobei man dabei natürlich jetzt keine neuen Effekte extra für PS 1.4 erwarten darf. Der Support für PS 1.4 wird im wesentlichen so aussehen das wenn möglich die PS 2.x Effekte auf PS 1.4 runtergebrochen werden oder das man einen PS 1.x Effekt möglichst mit weniger 1.4 Passes als 1.1-1.3 Passes durchbringt. Auf jeden Fall werden aber für R200 (und derivate) extra PS 1.4 Programme erzeugt welche dem Treiber eigentlich besser schmecken sollten als 1.1-1.3 Shader welche er ja erst umsetzten muss.

edit: Ich weiss, dass die Genauigkeit von DX vorgegeben wird, aber da man sich ja sicher sein kann, dass NV selbst optimierungen Einbaut, kann man doch gleich auf FP16-Shader entwickeln, oder? - So war das gemeint !

Eigenmächtig darf NVIDIA die Genauigkeit nicht reduzieren das könnte sonst Probleme mit dem sampeln aus Texturen geben. NVIDIA wird deswegen wie gesagt eher versuchen über den Devsupport etwas zu erreichen. Ich tendiere derzeit dazu unseren Shaderframework so zu konfiguieren das Farbberechnungen mit fp16 durchgeführt werden und alles andere mit fp32. In wie fern das aber wirklich sinn macht muss ich noch ausprobieren.

Demirug
2003-03-18, 00:45:14
Originally posted by AlfredENeumann


Ich sehe es eher aus der Sicht: Werbung mach mit FP32 und super toller Genauigkeit. Läuft aber nur mit "FP16", daher u.U. schneller als mit ATIs FP24. Spricht "FP32" von Nvidia schneller als FP24 von ATI. Wenn man das als User (oder noch schlimmer als Redakteuer beim Benchen) nicht weis ist das ein wenig Kagge. Man wird doch kaum nachweisen können wie jetzt gerndert wird sprich ob mit FP16 oder FP32 ? Oder geht das ?

Theoretisch ja. Mann muss sich eben alle Shader die ein Programm benutzt herausfiltern und dort schauen in wie fern der Shader nun reduzierte Genaugikeit erlaubt. Eigenmächtig darf kein Chip unter die FP24 gehen. Aber selbst wenn man nun die Shader hat und dort die reduzierte genauigkeit genutzt kann man deshalb natürlich nicht gennerel sagen das optische Ergebniss diese Shaders muss auf den NV30 schlechter sein als auf einem R300. Das kommt daher das ein grossteil der in einem Shader durchgeführten berechnungen gar nicht in den Grenzbereich von FP16 kommen. Addiert man zum Beispiel einfach zwei Texturewerte (32bit RGBA) so macht es keinen unterschied ob man dafür nun fp16, fp24 oder gar FP32 benutzt es kommt immer das gleiche dabei heraus. Es liegt also in der Verantwortung des Entwicklers die wahl zwischen FP16 und FP32 für jedes Anweisung zu treffen.

Virtual
2003-03-18, 01:10:04
Originally posted by Demirug


Ja was ausser rechnen soll man Texturekoordinaten in den Pixelshadern denn sonst machen? Das Textursampeln ist Aufgabe der TMUs. Am Sinn von FP Texturen kann man solange man dort nur Pointsampling benutzten kann sowieso zweifeln von der Bandbreite die das ganze braucht mal abgesehen.

Zum Runterkonvertieren von fp32 auf fp24 braucht man nun wirklich nicht viel logik. Dabei wird einfach die Mantiesse und der Exponent um die entsprechende Anzahl Bits gekürzt in dem man diese zusätzlichen Signale einfach nicht weiterleitet.

Was die Freiheitsgrade angeht so hast du dir aber gerade selbst ein Bein gestellt den diese sind beim NV30 höher. dort kann ich eine Entscheidung (Pro Shaderoperation) für Speed oder genauigkeit treffen. Diese Wahl habe ich beim R300 nicht. Das ist also eindeutig ein Freiheitsgrad mehr beim NV30. ;) Die FP24 beim R300 stellen da aber natürlich einen guten Kompromiss dar.

Zum Thema effizientes nutzen von Freiheitsgraden kann man nur sagen das der massgeben Freiheitgrad das Buget ist und von Freiheit kann man dort eigentlich nicht sprechen. Mann muss ja heute schon froh sein wenn man im Buget bleibt und zumindestens weitgehende Fehlerfreitheit erreicht optimierungen bleiben da gerne mal auf der Strecke wenn man am ende mit dem bischen Geld das noch da ist vor die wahl gestellt ist ob man nun versucht die Fehler auszumerzen oder das ganze schneller zu machen. Meistens ist das Geld weg bevor man auch nur eins erreicht hat. Klingt hart ist aber leider so.

Die 5200 (non Pro) ist auch nicht als Karte für den Hardcore gamer zu sehen. Solche Karten findet man in den Rechnern von Gelegeheitsspielern (bzw Leute die überhaupt nicht spielen und die Karte eben mit dem Rechner bekommen haben). Die Gelegenheitspielér haben nur sehr geringe Anforderugen an die FPS, Bildqualität (AA/AF) und Details. Solange es einigermassen läuft sind diese Leute zufrieden und es gibt mehr davon als man denkt.

Und für einen Gameboy ist der Chip unbrauchbar weil er zuviel Strom braucht.

Ich verstehe ehrlich gesagt nicht was du von mir hier erwartests? Etwa Aussagen wie "NV30 ist schrott R300 ist Gott"? Wie du sicherlich schon gemerkt hast halte ich mich aus Threads bei denen um Kaufempfehlungen gebeten wird raus und zwar aus dem Grund weil meine Sicht auf den Markt aufgrund meiner Situation eine so gänzlich andere ist. Für mich sind beides einfach Hardwareteile mit denen ich leben muss mit allen Konsequenzen die sich daraus ergeben. Das NVIDIA nun zwei Genauigkeiten eingeführt hat (was sich ja auch in der DX Spec niedergeschlagen hat) führt eben dazu das ich unser Shadersystem so auslegen muss das es dieser Tatsache rechnung trägt. Genauso muss ich aber der ATI Extratour mit den PS 1.4 Rechnung tragen. Das ist nun mal der Preis den man in einer relative freien Hardwareumgebung wie sie bei 3d-Karten nun mal vorhanden ist bezahlen muss.

Meine grundsätzliche Aussage war immer nur: Nicht alles in den Pixelshadern ist 24Bit. Teile der Texture Address Logic ist 32Bit. Genauer und wertend bist du geworden, nicht ich. Mehr habe ich nicht aussagen wollen und alles darüber hinaus kam von dir selbst. Was nun noch 32Bit ist und wo es wird 24Bit breit wird, wissen wohl nur ATI's Techniker. FP-Texturen waren auch nur ein Bsp. für 32-Bit. Wertung kommt von dir.

Runterkonvertieren: Umgekehrt? Andere Formate? Weiß man's genau?

Bin nicht gestolpert ;) Zum einen: Hast du wirklich eine Wahl, bei der FP32-Performance? Selbst auf einzelne Befehle bezogen! Zum anderen, und das war gemeint, die FP24-Genauigkeit erhöht die Flexibilität grundsätzlich -> Freiheitsgrade bei der Shaderwahl und -Gestaltung.

Stimme zu! - Kenne ich aus anderen Bereichen!

Dafür braucht man nicht DX9. DX9-artiges wird niemals auf 'ner 5200er vernünftig laufen. Die Marketingstransistoren hätte NV besser richtig investieren sollen, damit man sich performancemäßig von 'ner GF4-MX absetzen hätte können. So ist's ein Rückschritt. Früher verstand es NV: Speed ist alles. Heute sind nur Features von Bedeutung. Dabei unterschlägt NV dabei geflissentlich: Features ohne Speed sind nutzlose Features, da nicht einsetztbar. Aber Hauptsache DX9 on Chip...

Dann soll NV gleich 'ne Autobatterie samt Tragetasche mitliefern ;)

Meine Erwartungshaltung an dich? - Keine! Wieso sollte ich eine haben? Weshalb dein Eindruck? Wir reden gelegentlich aneinander vorbei. Der Spruch ist cool! :) Darf ich dich aus dem Kontext herausgelöst zitieren? :) Neben einem grundsätzlichen Interesse an der Sache mag ich keine Monopolisten oder solche, die es gerne wieder werden wollen. Ansonsten sind mir beide Firmen ziemlich egal. Im Laufe der Zeit empfindet man allerdings immer eine gewisse Sympathie. Hier für das ausgewogenere Design. Und wo liegen deine Sympathien?

BlueRaven
2003-03-18, 01:37:16
leute leute


Irgendwie versucht jeder Hersteller oder auch will jeder ganz vorne dabei sein, und die versuchen es auf all erdenkliche art und weise z.b ATI & Nvidia & Co versuchen mit Treibercheatings u.s.w an die Spitze zu kommen. Weil bei jedem Produkt ob es eine Grafikkarte ist oder auch nur ein Kühler zählt der ersteindruck und das ist immer das wichtigste im Geschäftsleben.

Darum ihr könnt jetzt weiter blablabla produzieren oder auch einsehen das jeder Hersteller von Grafikkarten u.s.w mit geheimen Tricks an die Spitze zu kommen versuchen.


MFG
BlueRaven

Demirug
2003-03-18, 08:04:24
Originally posted by Virtual

Meine grundsätzliche Aussage war immer nur: Nicht alles in den Pixelshadern ist 24Bit. Teile der Texture Address Logic ist 32Bit. Genauer und wertend bist du geworden, nicht ich. Mehr habe ich nicht aussagen wollen und alles darüber hinaus kam von dir selbst. Was nun noch 32Bit ist und wo es wird 24Bit breit wird, wissen wohl nur ATI's Techniker. FP-Texturen waren auch nur ein Bsp. für 32-Bit. Wertung kommt von dir.

Runterkonvertieren: Umgekehrt? Andere Formate? Weiß man's genau?

Die Texture Address Logic gehört nicht zu den Pixelshadern. Um das Thema aber mal abzuschliessen: Alles was man beim Pixelprocessing auf einem R300 durch ein Programm kontrollieren kann läuft mit fp24.

Bin nicht gestolpert ;) Zum einen: Hast du wirklich eine Wahl, bei der FP32-Performance? Selbst auf einzelne Befehle bezogen! Zum anderen, und das war gemeint, die FP24-Genauigkeit erhöht die Flexibilität grundsätzlich -> Freiheitsgrade bei der Shaderwahl und -Gestaltung.

Natürlich hat man die Wahl. Genau die gleiche wie schon immer. So kann man beim Bumpmapping mit Karten ohne FP Pixelshader zum Beispiel auf die Cubemap zum renormalisieren verzichten. Bei einem vollständigen DOOM III Lichtmodel spart man dabei zwei Texturesampls (der shader wird schneller) auf Kosten der Genauigkeit des Endresultats. Die Genauigkeit hat nun wirklich kaum einfluss auf die Shadergestaltung dort spielen erst mal andere Dinge eine Rolle. Ob man einen Shader dann am ende aus Performancesüberlegungen auch wirklich einsetzt ist wieder eine ander Sache.

Dafür braucht man nicht DX9. DX9-artiges wird niemals auf 'ner 5200er vernünftig laufen. Die Marketingstransistoren hätte NV besser richtig investieren sollen, damit man sich performancemäßig von 'ner GF4-MX absetzen hätte können. So ist's ein Rückschritt. Früher verstand es NV: Speed ist alles. Heute sind nur Features von Bedeutung. Dabei unterschlägt NV dabei geflissentlich: Features ohne Speed sind nutzlose Features, da nicht einsetztbar. Aber Hauptsache DX9 on Chip...

Als Entwickler kann den Schritt eine komplette Produktline auf den gleichen Techlevel zu heben nur begrüssen. Damit wird es viel einfacher den gesamten Markt zu bedienen. Es ist nun mal viel einfacher über Detailgrade bei der Geometrie und Texturen zu skalieren als für unterschiedliche Techlevels jeweils entsprechende Effekte anzubieten. Und selbst wenn man für den gleichen Effekt unterschiedliche Verfahren benutzt ist es viel einfacher aus einem komplexen 2.0 Shader einen weniger komplexen 2.0 Shader zu machen als aus einem 2.0 Shader einen Multipass 1.1 Shader oder gar den Effekt für die DX7 Pipeline umzusetzten.

Meine Erwartungshaltung an dich? - Keine! Wieso sollte ich eine haben? Weshalb dein Eindruck? Wir reden gelegentlich aneinander vorbei. Der Spruch ist cool! :) Darf ich dich aus dem Kontext herausgelöst zitieren? :) Neben einem grundsätzlichen Interesse an der Sache mag ich keine Monopolisten oder solche, die es gerne wieder werden wollen. Ansonsten sind mir beide Firmen ziemlich egal. Im Laufe der Zeit empfindet man allerdings immer eine gewisse Sympathie. Hier für das ausgewogenere Design. Und wo liegen deine Sympathien?

Ich bitte darum mich niemals ohne dem Kontext zu zitieren. Die Monopolisierung von Märkten hat Vor und Nachteile. Im Grafikkartenbereich würden bei einer vollständigen Marktmonopolisierung aber eher die Nachteile überwiegen. Aber das ist eher ein Thema für ein anderes Forum.

Von der reinen Technologie kann ich nicht wirklich Sympathiepunkte verteilen. Beide haben immer wieder Dinge eingeführt welche mir mehr Kontrolle über den Grafikchip geben. Was nun den zweiten (für mich) wichtigen Punkt angeht konnte NVIDIA aber bisher einfach mehr Punkte sammeln. Beim Devsupport muss ATI noch einiges lernen.

Virtual
2003-03-18, 12:44:39
Originally posted by Demirug


Die Texture Address Logic gehört nicht zu den Pixelshadern. Um das Thema aber mal abzuschliessen: Alles was man beim Pixelprocessing auf einem R300 durch ein Programm kontrollieren kann läuft mit fp24.



Natürlich hat man die Wahl. Genau die gleiche wie schon immer. So kann man beim Bumpmapping mit Karten ohne FP Pixelshader zum Beispiel auf die Cubemap zum renormalisieren verzichten. Bei einem vollständigen DOOM III Lichtmodel spart man dabei zwei Texturesampls (der shader wird schneller) auf Kosten der Genauigkeit des Endresultats. Die Genauigkeit hat nun wirklich kaum einfluss auf die Shadergestaltung dort spielen erst mal andere Dinge eine Rolle. Ob man einen Shader dann am ende aus Performancesüberlegungen auch wirklich einsetzt ist wieder eine ander Sache.



Als Entwickler kann den Schritt eine komplette Produktline auf den gleichen Techlevel zu heben nur begrüssen. Damit wird es viel einfacher den gesamten Markt zu bedienen. Es ist nun mal viel einfacher über Detailgrade bei der Geometrie und Texturen zu skalieren als für unterschiedliche Techlevels jeweils entsprechende Effekte anzubieten. Und selbst wenn man für den gleichen Effekt unterschiedliche Verfahren benutzt ist es viel einfacher aus einem komplexen 2.0 Shader einen weniger komplexen 2.0 Shader zu machen als aus einem 2.0 Shader einen Multipass 1.1 Shader oder gar den Effekt für die DX7 Pipeline umzusetzten.



Ich bitte darum mich niemals ohne dem Kontext zu zitieren. Die Monopolisierung von Märkten hat Vor und Nachteile. Im Grafikkartenbereich würden bei einer vollständigen Marktmonopolisierung aber eher die Nachteile überwiegen. Aber das ist eher ein Thema für ein anderes Forum.

Von der reinen Technologie kann ich nicht wirklich Sympathiepunkte verteilen. Beide haben immer wieder Dinge eingeführt welche mir mehr Kontrolle über den Grafikchip geben. Was nun den zweiten (für mich) wichtigen Punkt angeht konnte NVIDIA aber bisher einfach mehr Punkte sammeln. Beim Devsupport muss ATI noch einiges lernen.
Du bist ja beharrlich :)
[Kopfnote]
*) Ich deutete es bereits an: Wir reden leider häufig aneinander vorbei, worunter auch unsere Diskussion leidet (ungenau/aufgebläht). :( Zusätzlich möchte ich unumwunden der Diskussion eine umfassende "Meinungslastigkeit" unterstellen.

Auf dieser Grundlage nochmals von meiner Seite:
- Texture Address Logic: Sieht ATI in Veröffentlichungen anders. Das heißt nicht, daß du deine Meinung anpassen mußt, sondern eben nur, daß es hier sehr wohl unterschiedliche Definitionen gibt! Ich bestätige gerne ein weiteres Mal, die PS Core-Logic ist FP24. Siehe *)

- Der nächsten Punkt ist ohne weiteres eine Geschmacksfrage *). Ich möchte jedoch mit hoher Wahrscheinlichkeit annehmen, daß sowohl dein als auch mein Standpunkt nur zwei unter vielen sind. Grundsätzliche Einsicht in meinen Standpunkt erhält man beim Durchlesen der Developer-Kommentare zum F-Buffer bei Beyond3D. Es geht zwar dabei nicht um FP-Genauigkeit, jedoch ist der Tenor der Vielstimmigkeit durchaus erkennbar. (Möchte wetten, daß du dafür auch eine eigene Interpretation hast).

- Hier ist eigentlich jeder Kommentar überflüssig, aber meine Schäche ist es halt, antworten zu wollen. (Auch hier gilt unbedingt *)) Deine Vorschlag ist eine Form der Skalierung, wenngleich ich sie persönlich in vielen Fällen für nicht praktikabel halte. Deine Argumentationslinie läßt die installierte DX8/DX7 Basis vollständig außer Acht. Selbst wenn ich mir nun den Vorwurf fehlender Praxis, um mir ein solches Urteil erlauben zu können, nicht zu unrecht gefallen lassen muß, so bezweifele ich aber weiterhin nachdrücklich die Zweckmäßigkeit von DX9 auf einer 5200. Diese Einschätzung stützt sich auf verschiedene Kritikpunkte, welche zweifelsohne nicht nur von meiner "Wenigkeit" vertreten werden. Ein offensichtlicher/bekannter Kritikpunkt wäre in Analogie zu JC's einstigem Kommentar bezüglich der Chips TNT(2);Voodoo3/4; ... und Doom3(sinngemäß und kurz nach Vorstellung der GF3): Diese Chips hätten einfach nicht die Füllrate, Sp-Bandbreite, ... um D3 spielbar genießen zu können! Selbst wenn diese Chips DX8-Features in Hardware unterstützten, stünden die zuvor genannten Flaschenhälse dem praktische Einsatz im Wege. Bei 250MHz/200MHz Core/Memory-Takt bei 4-PSShader Pipes wird es sich ähnlich mit der 5200 zu Zeiten der DX9-Blüte in ca. 2+ Jahren verhalten. Dem Skalieren von Geometrie und Texturen sind Grenzen gesetzt. Besser ist es keinen 2.0 Shader einzusetzen und stattdessen/vielmehr die Stärken der jeweiligen Chip-Generation zu betonen bzw. dafür ausgewogen zu designen. Für den 5200 wird es max. DX8 Niveau aufgrund der integrierten Integer-PS sein. Die 5200 wird fast ausschließlich als DX7/8-Karte genutzt werden, auch wenn sie DX9-FP versteht(Ausnahme Benches&Demos). Die 5200 hat viel mit Intel's zahnlosen... ähh... cachelosen "Covington"-Tiger gemein, dem Vorläufer des CeleronI. Letztlich war der "Covington" ein Disaster. Mal sehen, wie es sich mit der 5200 verhält. Immerhin stellt ATI nichts Bahnbrechendes dagegen.

- Zugegeben, ein provozierender Scherz! - Aber eben nur ein solcher! Die geringe Ernsthaftigkeit meiner Frage/Andeutung, so hoffte ich, wäre aus meinem bisherigen Auftreten abzuleiten.
Na also. NVidia wirkt auf die grundsätzlich sympathisch, weil der Dev-Support ausgezeichnet ist. Ist doch vertretbar! Für mich spielt dies jedoch keine Rolle. Ich bin eben mehr von der konsequenten Zocker-Ausrichtung des R300 überzeugt: Ein, im Vergl. zum NV30, angemessener(moderater) Sprung in die Zukunft (VS2.0/PS2.0), ohne dabei goodies wie AF und AA zu vernachlässigen und DX7/8/9 ausgewogen schnell bedienen zu können. der R300 schwächelt einfach nirgendwo :)

Nichts für ungut! Du liegst mit deinen Antwort auch sehr gut im Rennen! ;)

G.
V.

Demirug
2003-03-18, 13:29:10
Virtual, das das nur ein Scherz war habe ich mir schon gedacht. Ich halte dich für einen Diskussionpartner der die Unsitte des aus dem Kontext zitieren nicht betreibt.

Sicherlich kann man zu jedem Thema unterschiedliche Standpunkte haben sonst gäbe es ja gar keine Grundlage für eine Diskussion. Was das Genauigkeit/Speed Verhältniss bei den NV3x Chips angeht so wird das von meiner Seite wohl darauf hinauslaufen des ich dem Endkunden die Wahl zwischen 3 Alternativen lassen werden. Alles mit voller Genauigkeit, Alles mit halber oder den Mixedmode (Texturekoordinaten mit voller, Fraben mit halber). Die zwei zusätzlichen Shadersets die ich dafür erzeugen lassen muss kosten mich am ende höchstens ein paar Minuten und ich habe ein Problem weniger um das ich mir sorgen machen muss.

Zu dem F-Buffer habe ich natürlich eine Meinung. Aufgrund der spärlichen Informationen von ATI zu dem Thema ist diese aber nicht sehr gefestigt.

Im Moment darf man natürlich DX7 und DX8 Karten nicht ignorieren. Eine solche Aktion würde tödlich enden. Das ganze war eher als ein Ausblick in die weitere Zukunft zu sehen. Die bisherige Praxsis der Hersteller war es eben die skalierung der Produktline über die Geschwindigkeit und das Featureset vorzunehmen. Das führte dazu das man heute ein recht breites Band an Featuresets unterstützen muss. Wenn die Skalierung aber nur noch über die Speed erfolgt wird "langfristig" das Featureband welches man unterstützen muss kleiner.

Die Geschwindigkeit ist natürlich ein wichtiges Argument und man darf von einer Lowend Karte da nichts erwarten. Bezüglich solcher Lowendkarten gibt es aber eine ganz wichtige Regel: "Es muss laufen" Die Geschwindigkeit spielt dabei gar nicht mal so eine grosse Rolle solange es überhaupt läuft. Aber es gibt nicht schlimmeres als wenn der Kunde das Spiel auspackt installiert und dann nur eine Meldung sieht das es nicht läuft weil seine Grafikkarte technologisch zu alt ist. Ein solcher Kunde ist dann richtig sauer. Ergo Lowendkarten müssen unterstützt werde. Wenn man für diese Karten nun eine eigene Technologische lösung entwickeln muss geht das natürlich vom Buget für alle Effekte ab. Das alles ist natülich keine ideale Situation aber derzeit leider die Realität.

Im Endeffekt werden die meisten davon profitieren wenn auch die Lowendkarten über das vollständige Featureset der Highendkarten verfügen weil das geld immer noch von Leuten verwaltet wird die sich an blanke Marktzahlen halten und wenn dort steht das xx% der Kunden eine DX9 Karte haben dann hat man es als Entwickler viel leichter diese Leute zu überzeugen das man DX9 Effekte einbauen möchte als wenn nur ein geringer Teil der Karten DX9 fähig sind.

DrumDub
2003-03-18, 13:44:37
hier scheint ja wohl ein möglicher grund gefunden worden zu sein, warum dx9 im lowend bereich gepusht wird:

" Seitens DirectX9 wäre noch erwähnenswert, daß dieses von Microsoft nicht nur als Grafikschnittstelle, sondern auch für das kommenden Windows mit Codenamen "Longhorn" geplant ist: Jedes einzelne Fenster in Longhorn wird eine DirectX9-Anwendung darstellen, womit DirectX9-Grafikkarten für das 2004 zu erwartende neue Betriebssystem wohl wahrscheinlich Pflicht darstellen dürften. Somit werden auch die neuen mobilen Grafikchips von ATi & nVidia erklärbar, welche ebenfalls schon DirectX9 beherrschen, genauso wie die diversen Vorstöße von nVidia, SiS und VIA/S3 mit LowCost DirectX9-Grafikkarten."

http://www.3dcenter.org/

aber wieso man PS 2.0 für 3d-darstellung von fenstern benötigt, ist mir eher schleierhaft...

ow
2003-03-18, 18:31:55
Originally posted by DrumDub


aber wieso man PS 2.0 für 3d-darstellung von fenstern benötigt, ist mir eher schleierhaft...


Die wird man auch nicht brauchen. Ich zweifele, dass man dazu überhaupt PS braucht.
Aber vermutlich einen DX9 Treiber, und den gibt´s ja mittlerweile schon für Karten von NV und ATi (keine Ahnung wie es bei Matrox, SiS etc. aussieht).

Demirug
2003-03-18, 18:36:12
Originally posted by ow



Die wird man auch nicht brauchen. Ich zweifele, dass man dazu überhaupt PS braucht.
Aber vermutlich einen DX9 Treiber, und den gibt´s ja mittlerweile schon für Karten von NV und ATi (keine Ahnung wie es bei Matrox, SiS etc. aussieht).

Für DX9 reicht eigentlich ein DX7 Treiber aus. Es gibt da aber durchaus ein paar geforderte Features die viele Karten vor Probleme stellen dürften wenn MS da nicht noch mal zurückrudert. Die Shader sind es aber nicht.

ow
2003-03-18, 18:48:58
Originally posted by Demirug


Für DX9 reicht eigentlich ein DX7 Treiber aus. Es gibt da aber durchaus ein paar geforderte Features die viele Karten vor Probleme stellen dürften wenn MS da nicht noch mal zurückrudert. Die Shader sind es aber nicht.


Kannst du mehr zu diesen features sagen oder ist dir das nicht erlaubt?