PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : MS + ATi vs. nVIDIA?


Narrenkönig
2005-01-27, 00:40:35
Eigentlich wollte ich das garnicht fragen, aber jetzt juckt es doch in meinen Fingern. Es ist natürlich hochspekulativ, aber könnte da was dran sein?
Auf die Idee bin ich gekommen weil damals MS imho die DX9 Spezifikationen recht kurzfristig vor dem Release geändert hatte. nV wollte unter anderem Teile von SM3.0 gleich von Anfang an.
Als MS nV gängelte den Preis für den NV2A zu senken weil die XBOX zu teuer war kam es zum Bruch der beiden Partnern. Um nv eins auszuwischen hat MS DX9 ATi-like umgeändert.
Etwas ähnliches könnte jetzt bei WGE2.0 wieder passieren. Nachdem nv das Featuredesign des nv50 abgeschlossen hat, ändert MS die Spezifikation und spielt so ATi in die Hände, deren NexGen Chip noch in weiter Ferne liegt.

Jetzt bitte keine dummen Sprüche, ich weiss selbst das das ein Fall für Verschwörungstheoretiker ist. Was haltet ihr davon? Ich bin nicht beleidigt wenn ihr es für Schwachsinn haltet, nur ist es 100%ig abwiegig? :cool:

zeckensack
2005-01-27, 03:46:22
Auf die Idee bin ich gekommen weil damals MS imho die DX9 Spezifikationen recht kurzfristig vor dem Release geändert hatte. nV wollte unter anderem Teile von SM3.0 gleich von Anfang an.
Als MS nV gängelte den Preis für den NV2A zu senken weil die XBOX zu teuer war kam es zum Bruch der beiden Partnern. Um nv eins auszuwischen hat MS DX9 ATi-like umgeändert.Teile von SM3? Eher weniger.
Was NVIDIA damals (NV30) zweifellos wollte, war die Möglichkeit FP16- und FX12-Präzision in den neuen Shaderversionen offiziell einsetzen zu können. FP16 hat NVIDIA in Form der _pp-Suffixe auch bekommen, FX12 dagegen nicht. Das ist das einzige was MS verweigerte, und darauf komme ich gleich nochmal zurück. Alles andere was der NV30 noch so kann, ist über PS2.x, bzw das 2_a-Profil ebenfalls verfügbar.

Es ist IMO wirklich eine Verschwörungstheorie. Ein verzweifelter Rationalisierungsversuch der grauenhaften Shader-Performance der NV3x-Generation. Das liegt aber kaum an MS, sondern einfach nur an der Fehlkonstruktion, die NVIDIA da verbrochen hat.

Denn: mein NV35 hat nicht nur unter DXG, sondern auch unter OpenGL, unter Verwendung von NVIDIA-eigenen Extensions wohlgemerkt, absolut grauenhafte Shader-Performance. Du wirst mir jetzt hoffentlich nicht erklären wollen, dass das in irgendeiner Form an Microsoft liegt :ugly:

FP16 und FX12 sind lediglich Krücken, die einen der Design-Fehler (zu viele Registerkopien und zu wenig Platz dafür) kaschieren. Eine vernünftige Hardware seitens NVIDIA hätte diese Krücken nicht gebraucht.
Es ist im Gegenteil sogar einfacher (dh kleiner bzw mehr Rechenheiten bei gleicher Größe) eine Hardware zu konstruieren die mit nur einem einzigem Datenformat umgehen kann. Dass die Jungs bei NVIDIA dies nicht früher erkannt haben, müssen sie ebenfalls allein sich selbst zuschreiben, und nicht Microsoft.

aths
2005-01-27, 08:15:09
Teile von SM3? Eher weniger.
Was NVIDIA damals (NV30) zweifellos wollte, war die Möglichkeit FP16- und FX12-Präzision in den neuen Shaderversionen offiziell einsetzen zu können. FP16 hat NVIDIA in Form der _pp-Suffixe auch bekommen, FX12 dagegen nicht. Das ist das einzige was MS verweigerte, und darauf komme ich gleich nochmal zurück. Alles andere was der NV30 noch so kann, ist über PS2.x, bzw das 2_a-Profil ebenfalls verfügbar.

Es ist IMO wirklich eine Verschwörungstheorie.Dass MS NV eins auswischen wollte ist imo auch nur eine Theorie. Dass FP16 irgendwie zugelassen werden muss ist angesichts "HDR" (MDR)-Hardware klar, und hat wahrscheinlich wenig direkt mit dem NV30 zu tun. MS wollte halt kein FX mehr sehen. Der Shader 2-"Standard" ist auch so schon ein Flickwerk, was den eigentlichen Zielen der Vereinheitlichung durch Shader nicht gerade entspricht.

Ein verzweifelter Rationalisierungsversuch der grauenhaften Shader-Performance der NV3x-Generation. Das liegt aber kaum an MS, sondern einfach nur an der Fehlkonstruktion, die NVIDIA da verbrochen hat.

Denn: mein NV35 hat nicht nur unter DXG, sondern auch unter OpenGL, unter Verwendung von NVIDIA-eigenen Extensions wohlgemerkt, absolut grauenhafte Shader-Performance. Du wirst mir jetzt hoffentlich nicht erklären wollen, dass das in irgendeiner Form an Microsoft liegt :ugly:

FP16 und FX12 sind lediglich Krücken, die einen der Design-Fehler (zu viele Registerkopien und zu wenig Platz dafür) kaschieren. Eine vernünftige Hardware seitens NVIDIA hätte diese Krücken nicht gebraucht.
Es ist im Gegenteil sogar einfacher (dh kleiner bzw mehr Rechenheiten bei gleicher Größe) eine Hardware zu konstruieren die mit nur einem einzigem Datenformat umgehen kann. Dass die Jungs bei NVIDIA dies nicht früher erkannt haben, müssen sie ebenfalls allein sich selbst zuschreiben, und nicht Microsoft.NV hat mit dem NV30 offenbar etwas zu hoch gezielt. FX12 ist noch vom NV28 drin. Das mit dem einen Datenformat ist beim NV30 insofern ein Problem, da NV von Anfang an auf FP32 für Full Precsision gesetzt hat, angesichts Features wie Render to Vertexbuffer auch vernünftig. ATI hat das bis heute nicht hinbekommen, man kann von NV das beim NV30 dann schlecht verlangen. Gerade wegen dem knappen Register-Speicher ist FP16 ein Segen, und wird wohl 'mehr Performance bringen als Transistoren kosten'.

Das Wort "Fehlkonstruktion" würde ich nicht benutzen. Du schreibst zurecht von grauenhafter Shader-Performance, aber im Vergleich wozu? Zu ATIs R300. Hängt es vom R300 ab, ob NV30 als Fehlkonstruktion anzusehen ist? Das Kriterium "Pixelshader-Geschwindigkeit nach dem PS_2_0-Standard" ist mir zu willkürlich. Es ist ja nicht so, dass 2_A nur ein oder zwei unwesentliche zusätzliche Features brächte.

Ist die Performance in OpenGL auch dann noch grauenhaft, wenn alles was geht mit FX12 gerechnet wird? Könnte man in in DX auch FX12 nutzen, ob das nun eine "Krücken-Lösung" wäre oder nicht, würde der Vergleich, wie schnell (und wie gut) einen gegebener Effekt gerendert werden kann, wohl noch immer zugunsten des R300 ausfallen, jedoch nicht in dieser Krassheit.

Man kann dem NV30 vieles vorhalten: Das Speicher-Interface, das Antialiasing, NVs Treibertricks zur Senkung der AF-Qualität, den Pixelshader-Speed mit FP-Zahlen, die hirnige Werbung ("engineered with a passion for perfection", "8" Pipelines) und die Kühlung der Ultra-Version. Allerdings hätte ich zu den Zeiten des NV30 vom 256-Bit-Interface und einer vernünftigen 4x-MSAA-Maske eher profitiert als von erhöhtem DX9-PS-Speed.

mapel110
2005-01-27, 09:42:45
ATI hat das bis heute nicht hinbekommen, man kann von NV das beim NV30 dann schlecht verlangen.


ATI hat Speed und FP24 zusammen gebracht, das hat nvidia nicht geschafft (Noch nicht mal FP16 und Speed zusammen im Vergleich zum R300).


Das Wort "Fehlkonstruktion" würde ich nicht benutzen. Du schreibst zurecht von grauenhafter Shader-Performance, aber im Vergleich wozu? Zu ATIs R300. Hängt es vom R300 ab, ob NV30 als Fehlkonstruktion anzusehen ist? Das Kriterium "Pixelshader-Geschwindigkeit nach dem PS_2_0-Standard" ist mir zu willkürlich. Es ist ja nicht so, dass 2_A nur ein oder zwei unwesentliche zusätzliche Features brächte.


Was nützen einem zusätzliche Features, wenn der Speed schon viel früher bei trivialeren Dingen ausgeht?!

aths
2005-01-27, 09:56:35
ATI hat Speed und FP24 zusammen gebracht,Jedoch kein FP32. Keine vernünftige Implementierung von Inf und NaN. Aber ATI soll erst mal einen vernünftigen Texturfilter entwickeln.

das hat nvidia nicht geschafft (Noch nicht mal FP16 und Speed zusammen im Vergleich zum R300).Ja, und. Da hat der R300 einen Vorteil.

Was nützen einem zusätzliche Features, wenn der Speed schon viel früher bei trivialeren Dingen ausgeht?!Was nützt der Speed, wenn man nur vier Phasen hat, und nur 32+64 Befehle, und nur FP24?

Die Fragen sind hier mehr oder minder ein rhetorisches Mittel. (Das, was ich persönlich bevorzuge, wird als Hauptkritierum in den Vordergrund gestellt.)

Gasd
2005-01-27, 12:25:01
Was nützt der Speed, wenn man nur vier Phasen hat, und nur 32+64 Befehle, und nur FP24?




Och, der R300 ist ne gute DX7/DX8 Karte. Das nützt der Speed.

q@w
2005-01-27, 12:39:34
Teile von SM3? Eher weniger.
Was NVIDIA damals (NV30) zweifellos wollte, war die Möglichkeit FP16- und FX12-Präzision in den neuen Shaderversionen offiziell einsetzen zu können. FP16 hat NVIDIA in Form der _pp-Suffixe auch bekommen, FX12 dagegen nicht. Das ist das einzige was MS verweigerte, und darauf komme ich gleich nochmal zurück. Alles andere was der NV30 noch so kann, ist über PS2.x, bzw das 2_a-Profil ebenfalls verfügbar.
Ja und nein.
AFAIK wurde das _pp-Flag erst in einer späteren Version des DX9-SDKs ergänzt, so daß quasi alle Games, die anfangs DX9 nutzten, den, was FP-Shader angeht, eh schon lahmen nV30 noch weiter bremsten - wozu? Hatte nV erst so spät die Möglickeit zu FP16 entdeckt?

Was über Profile und "Erweiterungen" machbar ist, ist eine Sache. Was die Mindestanforderungen an eine Spec angeht, eine komplett andere.
Natürlich war zu der Zeit nV quasi marktbeherrschend und M$ konnte es sich auf keinen Fall leisten, ATi nochmals um eine Generation zurückzuwerfen.
(Wie es wohl um den 'echten R400' bestellt wäre, wenn DX9-Full Precision FP32 statt FP24 geworden wäre? Hätten wir dann eine weiter 1-Quad-FP32-Krücke?)

IMO hatte ATi die Weitsicht/ das Glück, einfach ein zweites Design in der Hinterhand zu haben, welches dann mit der finalen DX9-Mindestspec auch noch prächtig harmonierte und glänzend performt.


Denn: mein NV35 hat nicht nur unter DXG, sondern auch unter OpenGL, unter Verwendung von NVIDIA-eigenen Extensions wohlgemerkt, absolut grauenhafte Shader-Performance. Du wirst mir jetzt hoffentlich nicht erklären wollen, dass das in irgendeiner Form an Microsoft liegt :ugly:
Ich glaube, es wurde schon erwähnt, aber eine generelle Schwäche von FP-Shadern hat nichts mit OpenGL oder DX zu tun.
Wie 'schnell' wird denn dein nV35, wenn du, wo möglich, auch integer-Formate erlaubst?


Es ist im Gegenteil sogar einfacher (dh kleiner bzw mehr Rechenheiten bei gleicher Größe) eine Hardware zu konstruieren die mit nur einem einzigem Datenformat umgehen kann. Dass die Jungs bei NVIDIA dies nicht früher erkannt haben, müssen sie ebenfalls allein sich selbst zuschreiben, und nicht Microsoft.
Ja und nein. *g*
Ich denke, nV hat sich schlicht und ergreifend verschätzt. Sowohl, was DX9, den Übergang von INT- zu FP-Shadern und eben die Leistungsfähigkeit des R300 angeht.

robbitop
2005-01-27, 12:54:32
Nutzt man nur FX12 so kann NV30 48 aritmetische Operationen pro Takt vollführen. 3 Register Combiner ALUs pro Pixelpipeline mit je einem 3:1 Split ermöglichen das.
Das wären bei 500MHz ganze 24.000MIPS (R300 konnte AFAIK "nur" 7.800MIPS rechnen) . Sicherlich ist das eine Zahl, die in der Praxis nie erreicht wird, aber schon nach viel aussieht. Hätte DX9 offiziell FX12 erlaubt, hätte es ein wenig anders ausgesehen. FP32 war im Prinzip nur als Schmankerl gedacht, um zu sehen was zukünftig möglich ist.

DrumDub
2005-01-27, 13:02:52
Ich denke, nV hat sich schlicht und ergreifend verschätzt. Sowohl, was DX9, den Übergang von INT- zu FP-Shadern und eben die Leistungsfähigkeit des R300 angeht.

jupp. es kamen mehrere faktoren zusammen, die für das "scheitern" des nv30 verantwortlich waren. ich persönlich denke immer noch, dass der nv30 featuremäßig einfach zu ambitioniert war und daher zuviele kompromisse bezüglich der shaderleistung gemacht werden mussten.

Tortenheber
2005-01-27, 13:14:26
Och, der R300 ist ne gute DX7/DX8 Karte. Das nützt der Speed.
Och, der NV30 ist auch eine gute DX7/DX8 Karte nur mit DX9 hat er es eben nicht so.

reunion
2005-01-27, 13:19:47
Nutzt man nur FX12 so kann NV30 48 aritmetische Operationen pro Takt vollführen. 3 Register Combiner ALUs pro Pixelpipeline mit je einem 3:1 Split ermöglichen das.
Das wären bei 500MHz ganze 24.000MIPS (R300 konnte AFAIK "nur" 7.800MIPS rechnen) . Sicherlich ist das eine Zahl, die in der Praxis nie erreicht wird, aber schon nach viel aussieht. Hätte DX9 offiziell FX12 erlaubt, hätte es ein wenig anders ausgesehen. FP32 war im Prinzip nur als Schmankerl gedacht, um zu sehen was zukünftig möglich ist.

Wenn die FX Einheiten genauso ineffizient gearbeitet haben wie die FP-Rechenwerke dann bleibt von diesen vorsprung vermutlich nicht mehr viel über, denn auf dem papier ist ein NV35 einem R350 in punkte Shaderleistung ebenbürtig, in der Praxis siehts da schon wieder ganz anders aus.

robbitop
2005-01-27, 13:23:01
Wenn die FX Einheiten genauso ineffizient gearbeitet haben wie die FP-Rechenwerke dann bleibt von diesen vorsprung vermutlich nicht mehr viel über, denn auf dem papier ist ein NV35 einem R350 in punkte Shaderleistung ebenbürtig, in der Praxis siehts da schon wieder ganz anders aus.

das kann man IMO nicht vergleichen.
Bei FP Shadern hatte man Probleme mit den temporären Registern und dem Compiler. Und ebenbürtig war der NV35 nur, wenn Vec4 Operationen nötig waren. Denn splitten konnte NV35 nicht. Sobald Vec3+1Skalar erforderlich waren, ging die Rechnung nicht mehr auf. Die RegCombiner konnten diesen 3:1 Split.

reunion
2005-01-27, 13:23:27
Jedoch kein FP32. Keine vernünftige Implementierung von Inf und NaN. Aber ATI soll erst mal einen vernünftigen Texturfilter entwickeln.


Was willst du mit FP32?
Mir hat bis jetzt keiner in einem Spiel einen Unterschied zwischen FP24 und FP32 zeigen können, ich lasse mich gerne eines besseren belehren.

Und das der Texturfilter bei ATi nicht so genau ist wie der von NV sieht man in der Praxis auch niemals.

Exxtreme
2005-01-27, 13:30:12
Hätte DX9 offiziell FX12 erlaubt, hätte es ein wenig anders ausgesehen. FP32 war im Prinzip nur als Schmankerl gedacht, um zu sehen was zukünftig möglich ist.
???

Du kannst auch unter DX9 FX12-Shader nutzen.

reunion
2005-01-27, 13:30:20
Das Wort "Fehlkonstruktion" würde ich nicht benutzen. Du schreibst zurecht von grauenhafter Shader-Performance, aber im Vergleich wozu? Zu ATIs R300. Hängt es vom R300 ab, ob NV30 als Fehlkonstruktion anzusehen ist?

Man muss sich immer an der Konkurenz messen lassen, von daher hängt es sehrwohl vom R300 ab ob der NV30 eine fehlkonstruktion ist.


Das Kriterium "Pixelshader-Geschwindigkeit nach dem PS_2_0-Standard" ist mir zu willkürlich. Es ist ja nicht so, dass 2_A nur ein oder zwei unwesentliche zusätzliche Features brächte.


Nv30 bietet nichtmal genügend Performance für PS2.0, sodass PS2.A nicht viel mehr als ein Papierfeature ist.

Gaast
2005-01-27, 13:43:28
Och, der NV30 ist auch eine gute DX7/DX8 Karte nur mit DX9 hat er es eben nicht so.

Der NV30 kann unter DX9 Dinge darstellen, die bis heute keine ATI Karte darstellen kann.


Zitat aths:

"Was nützt der Speed, wenn man nur vier Phasen hat, und nur 32+64 Befehle, und nur FP24?"

Ailuros
2005-01-27, 13:44:31
Was willst du mit FP32?
Mir hat bis jetzt keiner in einem Spiel einen Unterschied zwischen FP24 und FP32 zeigen können, ich lasse mich gerne eines besseren belehren.

Und das der Texturfilter bei ATi nicht so genau ist wie der von NV sieht man in der Praxis auch niemals.

Falls sich R520 eine SM3.0 Architektur nennen will, wird wohl die gesamte pipeline FP32 unterstuetzen. Und das heisst auch nicht dass 32bit float weitgehend benutzt wird; "partial precision" wird wohl u.a. aus Bandbreiten-Gruenden noch einige Zeit auf Architekturen existieren.

---------------------------------------------------------

Abgesehen von der ganzen ATI vs. NVIDIA und der "wasdereineoderanderekann"-Haarspalterei, sehe ich trotzdem immer noch keine Konspirations-theorie wenn es zu Microsoft und jeglichen IHVs kommt.

IHVs machen ihre Vorschlaege und es werden nach Abstimmung Entscheidungen getroffen. Ich sah seit der dx9.0-Vorstellung keine durchgehende 32bit float pipelines bei S3, XGi und ATI. Ich hab zwar keine Ahnung wieviel die Stimme der "Kleinen" im gegebenen Fall zaehlt, aber unter rein demokratischen Abstimmungen zaehlt normalerweise die Mehrheit; selbst wenn die Stimme der beiden "Grossen" mehr zaehlen sollte, steht wohl NV in diesem Fall eher alleine da.

Wenn ich die Transistoren-Anzahlen auf diversen chips vergleiche dann hat NVIDIA den zweifellosen Vorrang; die restlichen IHVs (ob gross oder klein) wollten einfach ihren Transistoren-budget nicht so stark aufblaehen und dabei ist es auch egal wie gut oder performant jegliches Resultat von allen IHVs am Ende herauskommt.

Last but not least, es gibt genug Indizien dass selbst NVIDIA oeffentlich eingesteht dass es falsche Design-Entscheidungen fuer die NV3x-Aera gab.

reunion
2005-01-27, 13:45:23
???

Du kannst auch unter DX9 FX12-Shader nutzen.

:confused:

Gaast
2005-01-27, 13:47:52
???

Du kannst auch unter DX9 FX12-Shader nutzen.


Aber nur bis max. einen PS1.4. Das ist ja der MS'sche Schwachsinn.

Wenn ich zwei identische Shader schreibe, einmal als PS1.1 und einmal als PS2.0, dann darf ich im ersten Fall FX12 nutzen, im zweiten Fall werde ich zu >= FP24 gezungen.

robbitop
2005-01-27, 13:49:18
???

Du kannst auch unter DX9 FX12-Shader nutzen.

AFAIK sind FX12 Shader unter DX9 nicht erlaubt. Lediglich Partial Prescision (FP16) und Fullprescision (>=FP24) sind erlaubt.

Exxtreme
2005-01-27, 13:50:20
Aber nur bis max. einen PS1.4. Das ist ja der MS'sche Schwachsinn.

Wenn ich zwei identische Shader schreibe, einmal als PS1.1 und einmal als PS2.0, dann darf ich im ersten Fall FX12 nutzen, im zweiten Fall werde ich zu >= FP24 gezungen.
Stimmt. Aber was ist daran schlimm? Dann schreibst du halt einen PS1.x-Shader wenn du unbedingt FX12 einsetzen willst.

Gasst
2005-01-27, 13:50:32
AFAIK sind FX12 Shader unter DX9 nicht erlaubt. Lediglich Partial Prescision (FP16) und Fullprescision (>=FP24) sind erlaubt.


Seit wann sind denn PS1.x unter DX9 verboten?

Gasst
2005-01-27, 13:52:05
Stimmt. Aber was ist daran schlimm? Dann schreibst du halt einen PS1.x-Shader wenn du unbedingt FX12 einsetzen willst.


So wie Valve das in bester Manier praktiziert hat? (Achtung: Ironie!)

Exxtreme
2005-01-27, 13:54:22
So wie Valve das in bester Manier praktiziert hat? (Achtung: Ironie!)
Valve hat doch kein FX12 eingesetzt... oder irre ich mich da?

deekey777
2005-01-27, 13:57:28
Nv30 bietet nichtmal genügend Performance für PS2.0, sodass PS2.A nicht viel mehr als ein Papierfeature ist.

Na ja, der NV35 profitiert schon zB von dem SM2.0b-Profil in Far Cry.

reunion
2005-01-27, 14:02:31
Na ja, der NV35 profitiert schon zB von dem SM2.0b-Profil in Far Cry.

Ja, aber er erreicht trozdem nichtmal annähernd die Performace eines RV350(!).

Exxtreme
2005-01-27, 14:03:08
AFAIK sind FX12 Shader unter DX9 nicht erlaubt. Lediglich Partial Prescision (FP16) und Fullprescision (>=FP24) sind erlaubt.
Nö. PS1.x-Shader kannst du auch unter DX9 einsetzen.

deekey777
2005-01-27, 14:08:11
Ja, aber er erreicht trozdem nichtmal annähernd die Performace eines RV350(!).


Eigentlich wollte ich danach auch fragen, habe aber vergessen. Es wäre toll, wenn jemand das testen würde, am besten mit der Research-Timedemo.

Gasd
2005-01-27, 15:01:16
Valve hat doch kein FX12 eingesetzt... oder irre ich mich da?


du hast den Ironiehinweis nicht beachtet;)

Valve hat eben keine PS1.x unter ihrem DX9 Pfad genutzt obwohl es machbar gewesen waere.

Empfehlungen der IHVs zu DX9:

NV: Nutzt wo immer es geht PS1.x/FX12 und nur dort wo es nicht anders geht PS2.x/FP16/32.

ATI: Nutzt immer PS2.0/FP24.

Tigerchen
2005-01-27, 15:17:05
Jedoch kein FP32. Keine vernünftige Implementierung von Inf und NaN. Aber ATI soll erst mal einen vernünftigen Texturfilter entwickeln.

Ja, und. Da hat der R300 einen Vorteil.

Was nützt der Speed, wenn man nur vier Phasen hat, und nur 32+64 Befehle, und nur FP24?

Die Fragen sind hier mehr oder minder ein rhetorisches Mittel. (Das, was ich persönlich bevorzuge, wird als Hauptkritierum in den Vordergrund gestellt.)

nV's miese 32 Bit Shader Performace hat nichts mit ATI zu tun. Hör endlich mal auf immer diese Nebelbomben zu werfen. Noch nicht mal mit FP16 kann nV ATI das Wasser reichen mit der FX-Serie. FP24 ist ein Segen für die Anwender weil es das Optimum an Speed mit ausreichender Präzision verbindet. Das FP24 in 2 Jahren nicht mehr ausreichend sein wird ist ein anderes Thema und interessiert im Moment nicht die Bohne.

Immer diese Angriffe auf ATI mit Verweis auf völlig andere Dinge wie den anisotropen Texturfilter kannst du auch mal einstellen. Immer die selbe Schallplatte. nV hat das sogar übernommen. Damit ist die Sache erledigt. Akzeptier dies endlich.

Was der Speed nützt kannst du bei HL² bewundern. Ob daß mit 4 Phasen, 32+64 Befehle oder Hexerei zusammenhängt ist mir völlig schnuppe.

Tigerchen
2005-01-27, 15:21:54
jupp. es kamen mehrere faktoren zusammen, die für das "scheitern" des nv30 verantwortlich waren. ich persönlich denke immer noch, dass der nv30 featuremäßig einfach zu ambitioniert war und daher zuviele kompromisse bezüglich der shaderleistung gemacht werden mussten.

Auch das. Eine Beschränkung auf das zum damaligen Zeitpunkt sinnvolle wäre sicher cleverer gewesen.

Tigerchen
2005-01-27, 15:23:54
Der NV30 kann unter DX9 Dinge darstellen, die bis heute keine ATI Karte darstellen kann.


Zitat aths:

"Was nützt der Speed, wenn man nur vier Phasen hat, und nur 32+64 Befehle, und nur FP24?"

Wo werden diese geheimnisvollen Dinge denn genutzt?

Exxtreme
2005-01-27, 15:57:39
du hast den Ironiehinweis nicht beachtet;)

Valve hat eben keine PS1.x unter ihrem DX9 Pfad genutzt obwohl es machbar gewesen waere.

Natürlich wäre es machbar gewesen. Valve hat es aber nicht gemacht, es war deren Entscheidung. Die Frage ist jetzt aber, was das mit einer Verschwörung zwischen ATi + M$ gegen Nvidia zu tun haben soll. Zumindest technisch steht einer Verwendung der NV-genehmen Formate unter DX9 nichts im Wege auch wenn da viele Urban Legends durch die Gegend geistern. Und ich finde es erstaunlich, daß so viele Leute in DX-Versionen denken.

q@w
2005-01-27, 16:01:00
Immer diese Angriffe auf ATI mit Verweis auf völlig andere Dinge wie den anisotropen Texturfilter kannst du auch mal einstellen. Immer die selbe Schallplatte. nV hat das sogar übernommen. Damit ist die Sache erledigt. Akzeptier dies endlich.
Wo war denn die Rede vom anisotropen Texturfilter?

nV hat lediglich eine ähnliche Winkelabhängigkeit übernommen, was schon schlimm genug ist. Schlimmer jedoch sind Leute wie du, die solche Einsparungen auch noch toll finden, denn der Optimierungswahn geht bereits in die nächste Runde.

Aber hauptsache immer schön die Balkenlänge bejubeln - sorry, aber das finde ich reichlich kurzsichtig, denn der PC Markt unterscheidet sich doch 'etwas' vom Konsolenmarkt. Kontinuierliche Verbesserung und keine Sprünge alle paar Jahre.

q@w
2005-01-27, 16:02:39
Wo werden diese geheimnisvollen Dinge denn genutzt?

In jedem 2.0-Shader, der auf einer nV-Karte ausgeführt wird?

Tigerchen
2005-01-27, 16:22:59
Wo war denn die Rede vom anisotropen Texturfilter?

nV hat lediglich eine ähnliche Winkelabhängigkeit übernommen, was schon schlimm genug ist. Schlimmer jedoch sind Leute wie du, die solche Einsparungen auch noch toll finden, denn der Optimierungswahn geht bereits in die nächste Runde.

Aber hauptsache immer schön die Balkenlänge bejubeln - sorry, aber das finde ich reichlich kurzsichtig, denn der PC Markt unterscheidet sich doch 'etwas' vom Konsolenmarkt. Kontinuierliche Verbesserung und keine Sprünge alle paar Jahre.

aths hat mangelnde Filter bei ATI in einem Thread bemängelt in dem es um Shader geht. Was kann damit wohl gemeint gewesen sein? :|
Und ja. Ich finde Winkelabhängigkeit toll. Stört fast nie. Keine Winkelabhängigkeit frisst im Vergleich zum Gebotenen zu viel Leistung.

Die flotten Sprüche über die Balkenlänge kannst du dir auch sparen. Ich bin nie im Benchmarkforun. Ich habe eine R9700 Pro. Ich habe einen XP2600+. PC's von 3DMarksüchtigen sehen "etwas" anders aus.

Tigerchen
2005-01-27, 16:24:49
In jedem 2.0-Shader, der auf einer nV-Karte ausgeführt wird?

Werde doch mal konkret. Wo hast du nV30-only Features im Einsatz gesehen?

Gasst
2005-01-27, 16:31:06
Werde doch mal konkret. Wo hast du nV30-only Features im Einsatz gesehen?



FarCry zB.

deekey777
2005-01-27, 16:38:29
FarCry zB.

Sicher?

StefanV
2005-01-27, 17:10:42
NV hat mit dem NV30 offenbar etwas zu hoch gezielt. FX12 ist noch vom NV28 drin. Das mit dem einen Datenformat ist beim NV30 insofern ein Problem, da NV von Anfang an auf FP32 für Full Precsision gesetzt hat, angesichts Features wie Render to Vertexbuffer auch vernünftig. ATI hat das bis heute nicht hinbekommen, man kann von NV das beim NV30 dann schlecht verlangen. Gerade wegen dem knappen Register-Speicher ist FP16 ein Segen, und wird wohl 'mehr Performance bringen als Transistoren kosten'.

blabla

nV hat mit dem nV30 einfach Mist gebaut, da brauchst ATI garnicht schlecht zu reden, das macht die nV3x auch nicht besser...

Die Performance der nV3x ist ja bekanntlich ziemlich fürn Hintern, was man in einigen Spielen spürt, denn nicht umsonst hab ich die FX5900 wieder entsorgt und mir 'ne 9800 gekauft, mit der ich in einigen Games in 1280x1024 sogar noch FSAA nutzen kann, neben vollen Details...

ANsonsten, siehe Mapel...


Das Wort "Fehlkonstruktion" würde ich nicht benutzen. Du schreibst zurecht von grauenhafter Shader-Performance, aber im Vergleich wozu? Zu ATIs R300. Hängt es vom R300 ab, ob NV30 als Fehlkonstruktion anzusehen ist? Das Kriterium "Pixelshader-Geschwindigkeit nach dem PS_2_0-Standard" ist mir zu willkürlich. Es ist ja nicht so, dass 2_A nur ein oder zwei unwesentliche zusätzliche Features brächte.
1. ich schon, denn Fehlkonstruktion passt zur nV30 wie die Faust aufs Auge!!
Seis nun den Inhalt oder aber das Board samt dem Speicher oder gar die Kühler, 'ne Fehlkonstruktion ists auf jeden Fall...

2. Och, wie niedlich, wie du mal wieder versuchst, die schwache Performance der nV3x schön zu reden.
Aber nehmen wir mal nicht den R300 zum Vergleich sondern den RV350, der dem nV3x immer noch recht stark überlegen ist und es bei der Shaderperformance gar mit den 'großen' aufnehmen kann, dabei aber weit kühler ist...



Ist die Performance in OpenGL auch dann noch grauenhaft, wenn alles was geht mit FX12 gerechnet wird? Könnte man in in DX auch FX12 nutzen, ob das nun eine "Krücken-Lösung" wäre oder nicht, würde der Vergleich, wie schnell (und wie gut) einen gegebener Effekt gerendert werden kann, wohl noch immer zugunsten des R300 ausfallen, jedoch nicht in dieser Krassheit.

Ist es möglich, alles mit FX12 zu berechnen?!
Wenns möglich ist und Sinn macht, warum hat M$ dann FP16 als minimum vorgeschrieben, das auch nur als Option durch die Spieleprogger?!


Man kann dem NV30 vieles vorhalten: Das Speicher-Interface, das Antialiasing, NVs Treibertricks zur Senkung der AF-Qualität, den Pixelshader-Speed mit FP-Zahlen, die hirnige Werbung ("engineered with a passion for perfection", "8" Pipelines) und die Kühlung der Ultra-Version. Allerdings hätte ich zu den Zeiten des NV30 vom 256-Bit-Interface und einer vernünftigen 4x-MSAA-Maske eher profitiert als von erhöhtem DX9-PS-Speed.
Tja, das dumme ist nur, das du irrelevant bist, wichtig ist, was der Rest will, findest du nicht auch?

Und ich finde, das wir alle durchaus vom 'erhöhten' DX9 Speed profitiert hätten, da es schon ein gewaltiger Unterschied ist, ob man 'ne nV35 oder R3x0 im Rechner hat, den man schon recht deutlich spüren kann, z.B. bei Need for Speed Undergrond (2) aber das hab ich schon mehrfach erwähnt, oder??

Achja: ich mein hier nicht zwischen 100 und 50 fps sondern zwischen läuft geschmeidig (R3x0) und ruckelt (nV35, non LX/XT).

Die Performance der R3x0 ist in diesem EA Game sogar so überlegen, das es für 4x MSAA langt, toll, nicht wahr?! :devil:

Narrenkönig
2005-01-27, 18:36:17
Natürlich wäre es machbar gewesen. Valve hat es aber nicht gemacht, es war deren Entscheidung. Die Frage ist jetzt aber, was das mit einer Verschwörung zwischen ATi + M$ gegen Nvidia zu tun haben soll. Das finde ich recht passend. Valve gehört doch quasi ATi. :wink: Man darf schon mal fragen woher ATi das Geld hat um sich bei Valve und jetzt Cryteck einzukaufen. Zumindest Valve war bestimmt nicht billig.

Quasar
2005-01-27, 18:43:58
aths hat mangelnde Filter bei ATI in einem Thread bemängelt in dem es um Shader geht. Was kann damit wohl gemeint gewesen sein? :|
Texturfilter, wie aths auch schrieb, denke ich mal.
Woraus du dann einen "anisotropen Texturfilter" gemacht hast.

Und ja. Ich finde Winkelabhängigkeit toll. Stört fast nie. Keine Winkelabhängigkeit frisst im Vergleich zum Gebotenen zu viel Leistung.
Das ist deine Ansicht - in allen Ehren. Keine Winkelabhängigkeit frisst im Vergleich zum Gebotenen sogar weniger Leistung als Winkelabhängigkeit, denn die Bestimmung des Winkels und daraus resultierende Applikation von weniger AF entfällt. Sollte dies durch entsprechende Schaltkreise ohne Zeitverlust geschehen, so hätte man den Chip durch Verzicht auf diese zusätzlichen Transistoren auch allgemein schneller machen können.

Die flotten Sprüche über die Balkenlänge kannst du dir auch sparen. Ich bin nie im Benchmarkforun. Ich habe eine R9700 Pro. Ich habe einen XP2600+. PC's von 3DMarksüchtigen sehen "etwas" anders aus.
Die "Balkenlänge" hatte jetzt nicht direkt was mit dem Benchmarkforum zu tun, sondern eher damit, wieviel User stramm nach (oder besser "analog zur") der "Geiz-ist-Geil"-Devise einfach nur darauf schauen, daß etwas 'schnell' ist.
'Schnell' kann ich auch Far Cry mit einer GF4 MX460 und einem P3 spielen - es sieht dann nur entsprechend aus. Dasselbe ist's, wenn ich an Filterqualität, Texturauflösung oder AF-Samples spare.

Quasar
2005-01-27, 18:45:35
Werde doch mal konkret. Wo hast du nV30-only Features im Einsatz gesehen?

Eines der ersten Programme war der 3DMark01 SE. Danach 3DMark03, TR:AOD und etliche andere.

Exxtreme
2005-01-27, 19:07:32
Das finde ich recht passend. Valve gehört doch quasi ATi. :wink: Man darf schon mal fragen woher ATi das Geld hat um sich bei Valve und jetzt Cryteck einzukaufen. Zumindest Valve war bestimmt nicht billig.
Naja, HL2 kann man AFAIK ja auch im DX8-Modus laufen lassen. Dann hat man FX12 bis zum Abwinken und auf den FXen dürfte das auch recht gut performen. :)

reunion
2005-01-27, 19:41:13
Naja, HL2 kann man AFAIK ja auch im DX8-Modus laufen lassen. Dann hat man FX12 bis zum Abwinken und auf den FXen dürfte das auch recht gut performen. :)

Noch immer langsamer als auf einer vergleichbaren ATi Karte im DX9 Modus.

Coda
2005-01-27, 19:44:46
Das Problem ist doch dass PS 1.4 ziemlich die Shaderlänge limitiert, NV30 mit FX12 aber kein solches Limit hat.
Also wird man wieder durch Multipass gebremst.

Black-Scorpion
2005-01-27, 19:49:39
Verwendet HL² bei DX8 überhaupt PS1.4?
GF4 läuft doch mit DX8 kann aber keine PS1.4.

Demirug
2005-01-27, 20:07:42
Verwendet HL² bei DX8 überhaupt PS1.4?
GF4 läuft doch mit DX8 kann aber keine PS1.4.

Ja, es gibt ein paar 1.4 Shader. HL2 unterscheidet intern noch zwischen 8.0 und 8.1.

Coda
2005-01-27, 20:07:43
Ja tut es, aber bei der GeForce natürlich nur 1.3, deshalb gibt's auch weniger Effekte.

deekey777
2005-01-27, 20:10:51
Verwendet HL² bei DX8 überhaupt PS1.4?
GF4 läuft doch mit DX8 kann aber keine PS1.4.


-dxlevel81 verwendet PS 1.4.

Exxtreme
2005-01-27, 20:27:02
Das Problem ist doch dass PS 1.4 ziemlich die Shaderlänge limitiert, NV30 mit FX12 aber kein solches Limit hat.
Also wird man wieder durch Multipass gebremst.
Naja, bei langen Shadern muss man wegen der Genauigkeit aufpassen. Denn je mehr Passes desto grösser die Rundungsfehler, die sich aufaddieren.

Black-Scorpion
2005-01-27, 20:28:30
Danke

Da ich HL² nicht habe, hat es mich nur gewundert.

godess
2005-01-27, 22:49:51
es ist doch nur peinlich was valve geleistet hat. der spezial-renderpfad für die FXen war bereits fertig, als man ihn für ATI wieder verworfen hat. aber nebenbei: selbst mit aktivierten wasserreflektionen (über den wasserreflektionspatch für geforce fx, der auch für GF4 TI funzt) hat der nv35 genug performance für hl2. ich habs probiert. es ist sogar mit 4xAA,8xAF und allerhöchsten deteils flüssig. deswegen hätte man seitens valve auch ruhig den DX9-Pfad für die fx aktivieren können. oder zumindest für die high-end klassen.

deekey777
2005-01-27, 23:02:15
es ist doch nur peinlich was valve geleistet hat. der spezial-renderpfad für die FXen war bereits fertig, als man ihn für ATI wieder verworfen hat. ...


Wieso für ATi? Die Radeons der R300 Generation haben definitiv keine Performanceprobleme mit -dxlevel90 in HL2, die NV35er dagegen schon.

http://www.anandtech.com/video/showdoc.aspx?i=2281&p=3

Demirug
2005-01-27, 23:09:23
Naja, bei langen Shadern muss man wegen der Genauigkeit aufpassen. Denn je mehr Passes desto grösser die Rundungsfehler, die sich aufaddieren.

Wenn du nur Passreduktion betreiben willst kann dir das egal sein. Der Framebuffer in dem man mit PS 1.X sonst aufaddieren muss ist nämlich noch ungenauer.

godess
2005-01-27, 23:11:41
Wieso für ATi? Die Radeons der R300 Generation haben definitiv keine Performanceprobleme mit -dxlevel90 in HL2, die NV35er dagegen schon.

ich meinte doch das ATI zu valve gesagt hat, dass die den nv3x pfad wieder entfernen sollen. außerdem habe ich beschrieben, das mein nv35 gar keine probleme mit dem dx9.0-pfad hat (der beinhaltet doch eigentlich nur die die wasserreflektionen, welche meine fx flüssig mit qualitätseinstellungen darstellt).

StefanV
2005-01-27, 23:21:20
aber nebenbei: selbst mit aktivierten wasserreflektionen (über den wasserreflektionspatch für geforce fx, der auch für GF4 TI funzt) hat der nv35 genug performance für hl2. ich habs probiert. es ist sogar mit 4xAA,8xAF und allerhöchsten deteils flüssig. deswegen hätte man seitens valve auch ruhig den DX9-Pfad für die fx aktivieren können. oder zumindest für die high-end klassen.
Nein, hat die nV35 nicht, da die Floatpoint Einheiten sau lahm sind, mit den R300 verglichen.

Mit Glück liegt die nV35 auf Niveau der 9600 Vanille, mit ganz viel Glück auf dem Niveau der 9600 PRO...

Und wenns ganz dick kommt, wird die nV35 von der 9600SE gebügelt...

Mit anderen Worten:

Die Entscheidung von Valve war durchaus richtig, besonders wenn man die 'Umfrage' mit einbezieht, denn da ist der Anteil den die nV30/35 User haben, zu vernachlässigen...

Der Teil, der interessant ist, von der Anzahl, sind 5200-5700, alles drüber ist (fast) irrelevant, daher die Entscheidung von Valve...

ich meinte doch das ATI zu valve gesagt hat, dass die den nv3x pfad wieder entfernen sollen. außerdem habe ich beschrieben, das mein nv35 gar keine probleme mit dem dx9.0-pfad hat (der beinhaltet doch eigentlich nur die die wasserreflektionen, welche meine fx flüssig mit qualitätseinstellungen darstellt).

Das ist schwachsinn, den sich die nV Gemeinde ausgedacht hat, der weit ab jeder Realität ist!!

Die Wahrheit ist, das die FX Serie bei Shader 2.0 sau lahm ist, mit der Beschränkung auf PS1.4 kann man 'ne Menge retten, bei diesen Teilen.

Rest siehe oben:

Das war 'ne rein wirtschaftliche Überlegung, gepaart mit dem geringen Anteil der FX5800 und FX5900...

Zu behaupten, das ATI dahinter steckt, ist äußerst weit hergeholt und weit ab der Realität, denn wenn der SM2 Pfad für die nV3x aktiv gewesen wäre, dann hätte ATi davon noch viel stärker profitiert, denk mal darüber nach...


Aber es ist ja egal, wenn ein paar 'b00ns' ihre teure nV3x Karte entsorgen und sich 'ne ATi Karte in den Rechner kloppen und dann die nächsten 5-10 Jahre keine nV Karte mehr kaufen, meinst nicht auch? ;)

Den das könnte passieren, wenn die 5800/5900 in HL2 zu lahm gewesen wäre...

Xmas
2005-01-27, 23:22:13
Zumindest technisch steht einer Verwendung der NV-genehmen Formate unter DX9 nichts im Wege
Doch, dem steht etwas im Wege, nämlich das deutlich reduzierte Featureset von PS1.3/1.4 gegenüber PS2.0.

Das ist deine Ansicht - in allen Ehren. Keine Winkelabhängigkeit frisst im Vergleich zum Gebotenen sogar weniger Leistung als Winkelabhängigkeit, denn die Bestimmung des Winkels und daraus resultierende Applikation von weniger AF entfällt. Sollte dies durch entsprechende Schaltkreise ohne Zeitverlust geschehen, so hätte man den Chip durch Verzicht auf diese zusätzlichen Transistoren auch allgemein schneller machen können.
Die Winkelabhängigkeit braucht weniger Transistoren, nicht mehr, da eine vereinfachte Berechnung verwendet wird.
Ich stimme allerdings zu dass Winkelunabhängigkeit im Vergleich zum Gebotenen deutlich besser abschneidet.

deekey777
2005-01-27, 23:26:18
ich meinte doch das ATI zu valve gesagt hat, dass die den nv3x pfad wieder entfernen sollen. außerdem habe ich beschrieben, das mein nv35 gar keine probleme mit dem dx9.0-pfad hat (der beinhaltet doch eigentlich nur die die wasserreflektionen, welche meine fx flüssig mit qualitätseinstellungen darstellt).


Der DX9-Pfad enthält etwas mehr als das schöne Wasser mit schönen Reflexionen. "Keine Probleme" heißt nicht gleich "keine Performanceprobleme".

Wer sagt, dass ATi irgendetwas zu VALVe gesagt hat? Und so toll war wohl der Mixed Mode auch nicht, dass man ihn jetzt als Heiligen Gral darstellt.

godess
2005-01-27, 23:31:38
Nein, hat die nV35 nicht, da die Floatpoint Einheiten sau lahm sind, mit den R300 verglichen.

Mit Glück liegt die nV35 auf Niveau der 9600 Vanille, mit ganz viel Glück auf dem Niveau der 9600 PRO...

Und wenns ganz dick kommt, wird die nV35 von der 9600SE gebügelt...

dann erklär mir warums bei mir flüssig ist, sogar mit 4xAA/8xAF

außerdem habe ich nie gesagt, das der nv35 in hl2 ne 9800pro überholt


Der DX9-Pfad enthält etwas mehr als das schöne Wasser mit schönen Reflexionen. "Keine Probleme" heißt nicht gleich "keine Performanceprobleme".


welche denn zum beispiel? :confused:
und ich meinte ohne performanceprobleme

Wer sagt, dass ATi irgendetwas zu VALVe gesagt hat? Und so toll war wohl
der Mixed Mode auch nicht, dass man ihn jetzt als Heiligen Gral darstellt.

er ist doch wohl aber besser als der dx8.1 pfad, was das verwerferfen des pfades umso schlimmer macht :P

Ailuros
2005-01-27, 23:42:17
Ich stimme allerdings zu dass Winkelunabhängigkeit im Vergleich zum Gebotenen deutlich besser abschneidet.

Das mit dem Gebotenen ist sehr clever formuliert ;)

StefanV
2005-01-27, 23:49:56
dann erklär mir warums bei mir flüssig ist, sogar mit 4xAA/8xAF

außerdem habe ich nie gesagt, das der nv35 in hl2 ne 9800pro überholt

1. Vielleicht weil SM2 nicht genutzt wird?!

2. schön aber im DX9 Mode gäbe es 'ne Diashow, die Reaktion der User darauf, kannst dir sicher vorstellen, oder?!

kurz:
Scheiß Valve/scheiß nV, ich kauf mir nie wieder was von denen.

Aber das wäre besser, oder?!

€dit:
Welchen Sinn hat 4x MSAA bei der nV35 eigentlich, außer das es Performance kostet?! :|

deekey777
2005-01-27, 23:51:57
...



welche denn zum beispiel? :confused:
und ich meinte ohne performanceprobleme

Man sieht die Unterschiede auch ohne Wasser, zB auf dem Platz vor dem Bahnhof, oder auch m Bahnhof selbst.
http://www.xbitlabs.com/articles/video/display/half-life_2.html
Sorry, aber welche NV35 hast du denn?


er ist doch wohl aber besser als der dx8.1 pfad, was das verwerferfen des pfades umso schlimmer macht :P

Wer sagt das?

mjs
2005-01-28, 01:14:33
dann erklär mir warums bei mir flüssig ist, sogar mit 4xAA/8xAF

Ich spiele es auch mit diesen Settings (1152*864) -aber im DX8.1 Modus!

Die Unterschiede zw. 2x AA und 4x AA sind in der Tat nicht Weltbewegend, aber insgesamt ruhiger.

Ich merke bei mir keinen Performanceverlust, wenn ich von 2x AA auf 4x AA gehe. (XP2500+ halt...)

Insgesamt bin ich sehr zufrieden, dank DX8 Wasserpatch siehts super aus!

FX12 -jetzt erst recht! :biggrin: (seit ich weiß, das der halbe Chip im DX9 Modus "abgeschalten" wird, sehe ich den DX8 Modus mit anderen Augen)

@Steffi:

Die DX9 Performance (unter FP32) ist unterirdisch, jedoch bin ich froh, daß es kaum besser aussieht -sonst hätte ich mich geärgert!

Ailuros
2005-01-28, 02:40:48
Welchen Sinn hat 4x MSAA bei der nV35 eigentlich, außer das es Performance kostet?!

Geht es hier um HL2? Falls ja dann sollte man die Frage sowieso ueber Multisampling fuer dieses spezifisches Spiel erweitern. Mir nutzt der Leistungsverlust von MSAA generell in HL2 nichts, wenn ein gute Portion der Szene froehlich herumflackert.

aths
2005-01-28, 15:15:31
Och, der R300 ist ne gute DX7/DX8 Karte. Das nützt der Speed.In DX7 und 8 ist auch der NV30 sehr gut. Auch eine Ti 4600 macht da eine Menge mit.
Och, der NV30 ist auch eine gute DX7/DX8 Karte nur mit DX9 hat er es eben nicht so.Bitte konkreter :) Beim Vertexshading sehe ich beim NV30 keine Schwächen. Im Gegenteil: Hohe Leistung und Support von Features wie dynamic branching. Kann die X850 XT PE nicht bieten.

Wenn die FX Einheiten genauso ineffizient gearbeitet haben wie die FP-Rechenwerke dann bleibt von diesen vorsprung vermutlich nicht mehr viel über, denn auf dem papier ist ein NV35 einem R350 in punkte Shaderleistung ebenbürtig, in der Praxis siehts da schon wieder ganz anders aus.Nah. Von der theoretischen Rechenleistung ist der NV35 dem R350 sogar überlegen. Nur ist die "Papierleistung" nicht zwangsläufig die theoretische Spitzenrechenleistung. NVPerf zeigt, dass CineFX1 und 2 auch für recht einfache Befehle oftmals komisch viele Takte brauchen.

aths
2005-01-28, 15:16:30
Was willst du mit FP32?Kompatibilität mit dem Vertexshader und der CPU herstellen.
Mir hat bis jetzt keiner in einem Spiel einen Unterschied zwischen FP24 und FP32 zeigen können, ich lasse mich gerne eines besseren belehren.In meiner Welt gibts mehr als Spiele.
Und das der Texturfilter bei ATi nicht so genau ist wie der von NV sieht man in der Praxis auch niemals.In meiner Praxis schon.

aths
2005-01-28, 15:21:02
Man muss sich immer an der Konkurenz messen lassen, von daher hängt es sehrwohl vom R300 ab ob der NV30 eine fehlkonstruktion ist.

Nv30 bietet nichtmal genügend Performance für PS2.0, sodass PS2.A nicht viel mehr als ein Papierfeature ist."Genügend" nach welchem Maßstab? Um Offline-Rendering um Größenordnungen zu beschleunigen oder Echtzeit-Vorschau zu ermöglichen, hat der NV30 offenbar genug Performance.

Der NV30 hat viele Schwächen, darunter schlechtes 4x Antialiasing, geringe Speicherbandbreite, zu laute Kühlung des Ultra-Modells usw., unter anderem auch die FP-Pixelshaderleistung. Ich finde es komisch, dass ständig nur auf der einen Sache herumgeritten wird.

Ich halte den R300 für den (normalen!) Spieler für eine bessere Wahl als NV30, NV35 oder NV38. Dass der NV30 eine "Fehlkonstruktion" sei, halte ich jedoch für zu weit hergeholt.

StefanV
2005-01-28, 15:24:16
In DX7 und 8 ist auch der NV30 sehr gut. Auch eine Ti 4600 macht da eine Menge mit.
Richtig, was den Sinn der nV3x Serie arg in Frage stellt, da die in der Praxis nicht wirklich mehr als eine schnellere nV25 sind, da im 'DX9 Mode' zu lahm, auch ohne R300...


Bitte konkreter :) Beim Vertexshading sehe ich beim NV30 keine Schwächen. Im Gegenteil: Hohe Leistung und Support von Features wie dynamic branching. Kann die X850 XT PE nicht bieten.

Schön, nur wozu braucht man das, was nutzt mir das als Gamer?!
Oder brauchen wir untexturierte Wireframedarstellung ohne PS?!

Braucht man als Gamer nicht erstmal starke Pixelshader?!


Nah. Von der theoretischen Rechenleistung ist der NV35 dem R350 sogar überlegen. Nur ist die "Papierleistung" nicht zwangsläufig die theoretische Spitzenrechenleistung. NVPerf zeigt, dass CineFX1 und 2 auch für recht einfache Befehle oftmals komisch viele Takte brauchen.
Schön, nur wieviel kommt davon in der Praxis an?!

Deine Theorie ist schön und gut, nur kommt davon in der Praxis nicht viel an, außer das einige Leute evenutell leicht gereizt auf solch irrelevanten Aussagen reagieren könnten, die sie schon 20.000 mal gehört haben und die Welt auch nicht besser machen...

Aber du erkennst ja selbst, das die Praktische Leistung der 'MarketingFX' fürn Hintern ist...

aths
2005-01-28, 15:25:39
[COLOR="#000088"]
nV's miese 32 Bit Shader Performace hat nichts mit ATI zu tun. Hör endlich mal auf immer diese Nebelbomben zu werfen.Hör du mal auf, in blauer Farbe zu schreiben und mir Nebelkerzenwerfen zu unterstellen, dann wäre meine Bereitschaft, sinnvoll zu antworten, größer.

Noch nicht mal mit FP16 kann nV ATI das Wasser reichen mit der FX-Serie. FP24 ist ein Segen für die Anwender weil es das Optimum an Speed mit ausreichender Präzision verbindet. Das FP24 in 2 Jahren nicht mehr ausreichend sein wird ist ein anderes Thema und interessiert im Moment nicht die Bohne. Zu NV30-Zeiten interessierte den Spieler FP-PS-Geschwindigkeit ebenfalls nicht die Bohne. In einigen, wenigen Spielen (die man an einer Hand abzählen kann) ist der R300 dann deutlich schneller und/oder schöner. Dafür bietet der NV30 Dinge wie Texturfilter aus dem Lehrbuch. Das ist einigen Leuten wichtig.

NV hat bezüglich isotroper Filter nichts von ATI übernommen. NV40-TMUs können sogar FP16-Texturen filtern.

Immer diese Angriffe auf ATI mit Verweis auf völlig andere Dinge wie den anisotropen Texturfilter kannst du auch mal einstellen. Immer die selbe Schallplatte. nV hat das sogar übernommen. Damit ist die Sache erledigt. Akzeptier dies endlich.Vom AF habe ich gar nicht gesprochen. Lies doch mal bevor du Tiraden vom Stapel lässt. ATI erfüllt mit Ach und Krach die DX-Mindestforderungen bezüglich Texturfilter. Das mag dir reichen, das mag vielen im Forum reichen. Mir reichts eben nicht. Texturen sind eine Input-Quelle für Pixelshader. Ich hätte gerne präzise aufbereitete Input-Daten.

Was der Speed nützt kannst du bei HL² bewundern. Ob daß mit 4 Phasen, 32+64 Befehle oder Hexerei zusammenhängt ist mir völlig schnuppe.Wenn ich das richtig im Forum sehe (habe kein HL2) bekommt man Valves teilsweise seltsame Politik umschifft und auf GeForce-FX-Karten bis auf einige wenige Effekte R300-mäßige Grafik bei guter Geschwindigkeit hin.

StefanV
2005-01-28, 15:29:52
"Genügend" nach welchem Maßstab? Um Offline-Rendering um Größenordnungen zu beschleunigen oder Echtzeit-Vorschau zu ermöglichen, hat der NV30 offenbar genug Performance.
Schön, fürs Offline rendering, nur denke ich, das den meisten hier im Forum das 'Onlinerendering' bzw Real Time Performance wichtiger sein dürfte, da es wahrscheinlicher ist, das diese jenen welchen entsprechende Programme, z.B. ein hübsches Spiel wie Halbes Leben 2 oder ähnliches spielen als das sie irgendwelche Renderszenen zu rendern...


Der NV30 hat viele Schwächen, darunter schlechtes 4x Antialiasing, geringe Speicherbandbreite, zu laute Kühlung des Ultra-Modells usw., unter anderem auch die FP-Pixelshaderleistung. Ich finde es komisch, dass ständig nur auf der einen Sache herumgeritten wird.
Hat der nV3x eigentlich irgendwelche Stärken außer dem lahmen AF?!

Aber warum sagst dus nicht endlich mal andersrum:

Der nV30 ist mist und begräbst die Schatten der Vergangenheit endlich und lässt sie in Frieden und Würde ruhen anstatt den alten Mist ständig schön zu reden...


Ich halte den R300 für den (normalen!) Spieler für eine bessere Wahl als NV30, NV35 oder NV38. Dass der NV30 eine "Fehlkonstruktion" sei, halte ich jedoch für zu weit hergeholt.

Deine Ansicht der Dinge muss nicht allgemein Gültig sein, andere sehen die nV30 als Fehlkonstruktion, die nV35 als nicht viel besser.

Nur:

Es ist ihr gutes Recht das so zu sehen, warum lässt du es denen nicht so zu sehen und versuchst immer aufs neue ihre Meinung deiner anzupassen, wobei man hier die Borg ganz gut umformulieren könnte:
"Widerstand ist zwecklos"...

aths
2005-01-28, 15:32:47
blablaTolle Argumentation. Der Rest deines Postings ist leider nicht viel besser.

Privat lebe ich mit einer 5900 XT, und das recht gut. Wo es geht, wird 4xS-AA genutzt, natürlich auch das gute AF. Bei 1280x960. Geht bei meinen Spielen. So what.

Nein, hat die nV35 nicht, da die Floatpoint Einheiten sau lahm sind, mit den R300 verglichen.Nö. Die FP-Einheiten sind sehr fix auf der Hufe. Leider kostet die Datenrangierung gerne mal extra-Takte. Von "Stalls" durch volle Registerfiles mal ganz abgesehen.

Quasar
2005-01-28, 15:37:04
Die Winkelabhängigkeit braucht weniger Transistoren, nicht mehr, da eine vereinfachte Berechnung verwendet wird.
Sorry, da bin ich wohl mit dem nV40 durcheinandergekommen...

Quasar
2005-01-28, 15:41:10
Braucht man als Gamer nicht erstmal starke Pixelshader?!
Nein, davor kommen noch Dinge, die auch die stärksten Pixelshader ausbremsen können.

Im Idealfall sollte die komplette Pipeline möglichst ausgewogen und gut aufeinander abgestimmt sein.

BTW, du sprichst andauernd von "wir, die Gamer" - nicht immer so egozentrisch sein. :)

aths
2005-01-28, 15:41:29
Richtig, was den Sinn der nV3x Serie arg in Frage stellt, da die in der Praxis nicht wirklich mehr als eine schnellere nV25 sind, da im 'DX9 Mode' zu lahm, auch ohne R300...Das hängt davon ab, was im "DX9-Modus" gemacht wird. Alles mit PS2.x berechnen? Oder einige Extra-Effekte mit einigen PS2-Shadern bieten?

Schön, nur wozu braucht man das, was nutzt mir das als Gamer?! Oder brauchen wir untexturierte Wireframedarstellung ohne PS?!Das weiß ich nicht, was du als Gamer brauchst. Ich weiß, dass für mich die Radeon schon wegen der Texturfilter nur zweite Wahl ist. Ich spiele kaum Spiele die groß auf PS2 setzen. Hingegen habe ich in allen meinen 3D-Spielen Texturen.

Braucht man als Gamer nicht erstmal starke Pixelshader?!Stell dir vor, du hättest keine Vertexshader auf deiner 9800. Dann würdest du vermutlich darauf kommen, dass man immer das am dringendsten braucht, woran es gerade mangelt.

Aber du erkennst ja selbst, das die Praktische Leistung der 'MarketingFX' fürn Hintern ist...Ich erkenne, dass du Schwierigkeiten hast, die Aussage eines Textes zu verstehen.

reunion
2005-01-28, 15:41:45
Kompatibilität mit dem Vertexshader und der CPU herstellen.


Was haben die NV Karten davon diese kompatiblität herzustellen?
Aus meiner sicht bis jetzt keine.

In meiner Welt gibts mehr als Spiele.
In meiner Praxis schon.

zB?

Quasar
2005-01-28, 15:45:34
Hat der nV3x eigentlich irgendwelche Stärken außer dem lahmen AF?!

Seit wann ist lahmes AF eine Stärke? Und so lahm ist das AF gar nicht - bei ähnlichen Bedingungen beinahe genauso schnell wie das der R300. Was dort an höheren Bildwiederholraten erreicht wird, ist nahezu 1:1 durch den Verzicht auf Qualität bedingt.

aths
2005-01-28, 15:50:22
Schön, fürs Offline rendering, nur denke ich, das den meisten hier im Forum das 'Onlinerendering' bzw Real Time Performance wichtiger sein dürfte, da es wahrscheinlicher ist, das diese jenen welchen entsprechende Programme, z.B. ein hübsches Spiel wie Halbes Leben 2 oder ähnliches spielen als das sie irgendwelche Renderszenen zu rendern...


Hat der nV3x eigentlich irgendwelche Stärken außer dem lahmen AF?!Gutes AF muss "lahm" sein, sonst kann es bei GPU-Limitierung prinzipiell nicht viel bringen. Gerade dieses "lahme" AF bringt am meisten Qualität pro Füllraten-Einheit.

Was die Spiele angeht, halte ich diese einzelne Beispiele wie Tomb Raider, FC, und jetzt HL2 für in der Masse irrelevant. Civilization III und Tropico erfordern, wie Diablo2, gar keine 3D-Funktion auf der Grafikkarte. Kann man mit jedem Uralt-Intelchipsatz mit Shared Memory spielen. Will ich unbedingt beweisen, wie toll irgendeine Karte sei, kann ich für die Radeon natürlich Beispiele bringen, wie auch für GeForce-Karten (Quake 3, Doom 3.)

Doom3 habe ich auf einer FX 5200 gesehen – billigste Sorte mit 64-Bit-Interface. Ging aber. Lt. ATI ist die 9200 einer 5200 vorzuziehen. Ich glaube nicht, dass eine 64-Bit-9200 vergleichbare Performance bietet.

Was beweist das? Nichts. Ist ja nur ein einzelnes Beispiel.

Aber warum sagst dus nicht endlich mal andersrum:

Der nV30 ist mist und begräbst die Schatten der Vergangenheit endlich und lässt sie in Frieden und Würde ruhen anstatt den alten Mist ständig schön zu reden...

Deine Ansicht der Dinge muss nicht allgemein Gültig sein, andere sehen die nV30 als Fehlkonstruktion, die nV35 als nicht viel besser.Andere sehen das so, ja, und einige begründen das sogar. Für mich heißt "Fehlkonstruktion": Funktioniert gar nicht oder nur erheblich eingeschränkt. Obwohl früher erschienen, ist der R300 für durchschnittliche Spieler sicherlich das langlebigere Produkt. Doch abgesehen von einer Anzahl Spiele die man an einer Hand abzählen kann, bietet der NV30 Spielgenuss ohne erhebliche Einschränkungen.

Nur:

Es ist ihr gutes Recht das so zu sehen, warum lässt du es denen nicht so zu sehen und versuchst immer aufs neue ihre Meinung deiner anzupassen, wobei man hier die Borg ganz gut umformulieren könnte:
"Widerstand ist zwecklos"...Warum willst du mir denn nicht meine Meinung lassen?

reunion
2005-01-28, 15:51:28
Der NV30 hat viele Schwächen, darunter schlechtes 4x Antialiasing, geringe Speicherbandbreite, zu laute Kühlung des Ultra-Modells usw., unter anderem auch die FP-Pixelshaderleistung. Ich finde es komisch, dass ständig nur auf der einen Sache herumgeritten wird.


Ich halte die Speicherbandbreite von NV30 für außreichend, das war nicht das problem.

Warum immerwieder an der FP-Pixelshaderleistung herumgeritten wird liegt ja wohl auf der Hand. Diese war/ist schlicht sowas von unterirdisch, das desöfteren selbst ATis billigste DX9 Low End Karten mit einem 64-bit Speicherinfance den NV30 und tw. auch den NV35/38 vernichteten. Das soetwas mehr stört als zB eine nicht optimale 4xAA Maske dürfte klar sein.

aths
2005-01-28, 15:57:45
Was haben die NV Karten davon diese kompatiblität herzustellen?
Aus meiner sicht bis jetzt nichts.Ein Feature wie "Render to Vertexbuffer" zum Beispiel.

Die CPU kennt kein FP24, das kleinste FP-Format ist FP32. Möchte man die Pixelshader nutzen, um irgendwas (muss nichts mit Grafik zu tun haben) auf der Graka zu rechnen, ist volle FP32-Genauigkeit anzuraten.

Möchte man komplexe Grafik rendern, und zwar wirklich komplex (unter Verzicht auf Echtzeit-Berechnung) reicht FP24 manchmal nicht aus. Arbeitet man mit dependent reads auf sehr große Texturen, kann FP24 zu knapp werden.

Was hat der Spieler davon heute? Nichts. Gibt es nur Spieler? Wurde NV30 nur für Spieler entwickelt?

DrumDub
2005-01-28, 16:00:09
Wenn ich das richtig im Forum sehe (habe kein HL2) bekommt man Valves teilsweise seltsame Politik umschifft und auf GeForce-FX-Karten bis auf einige wenige Effekte R300-mäßige Grafik bei guter Geschwindigkeit hin.

nun ja, für hl2 mag das zutreffen, es ändert aber nix an der schlechten shaderrohperformance der nv3x-reihe. siehe auch: http://www.computerbase.de/artikel/hardware/grafikkarten/2003/5950_5700_ultra_9800_9600xt/16/

Quasar
2005-01-28, 16:09:21
Ich halte die Speicherbandbreite von NV30 für außreichend, das war nicht das problem.

Warum immerwieder an der FP-Pixelshaderleistung herumgeritten wird liegt ja wohl auf der Hand. Diese war/ist schlicht sowas von unterirdisch, das desöfteren selbst ATis billigste DX9 Low End Karten mit einem 64-bit Speicherinfance den NV30 und tw. auch den NV35/38 vernichteten. Das soetwas mehr stört als zB eine nicht optimale 4xAA Maske dürfte klar sein.
Ja, die Bandbreite von 16GB/s plus Kompressions- und Zugriffsoptimierungen reicht für vier Pixel/Takt locker aus - allein 4xMSAA ist da etwas eingeschränkt.

Was nun allerdings Shaderleistung großartig mit Bandbreite zu tun haben soll, in dem Sinne, daß man anhand derer die Shaderleistung bemißt, entzieht sich mir.

Quasar
2005-01-28, 16:11:38
nun ja, für hl2 mag das zutreffen, es ändert aber nix an der schlechten shaderrohperformance der nv3x-reihe. siehe auch: http://www.computerbase.de/artikel/hardware/grafikkarten/2003/5950_5700_ultra_9800_9600xt/16/
Andererseits gibt es Shader, die auf einer nV30 schneller laufen, als auf einer weit übertakteten X800 XTPE.

Ist die Shaderperformance der R420 deshalb auch "unterirdisch"?

aths
2005-01-28, 16:11:57
Ich halte die Speicherbandbreite von NV30 für außreichend, das war nicht das problem.

Warum immerwieder an der FP-Pixelshaderleistung herumgeritten wird liegt ja wohl auf der Hand. Diese war/ist schlicht sowas von unterirdisch, das desöfteren selbst ATis billigste DX9 Low End Karten mit einem 64-bit Speicherinfance den NV30 und tw. auch den NV35/38 vernichteten. Das soetwas mehr stört als zB eine nicht optimale 4xAA Maske dürfte klar sein.Das Speicherinterface ist beim arithmetischen Pixelshading praktisch irrelevant :) doch selbst eine FX 5200 mit 64 Bit ist ca. 100x schneller als der DX9 REF-Rasterizer. (Hat Demirug mal gemessen, wenn mich mein Gedächnis nicht trügt.)

Der NV30 ist bezüglich der FP-PS-Leistung deutlich unterhalb R300, ja. Einerseits nur einen Quadshader statt zwei, und der bietet noch nicht mal Dual-Issue. Dazu die hässlichen Probleme durch die extrem lange Pipe die zu wenig Temp-Register hat, und die Crossbar die offenbar die auch manchmal die Pipe anhält (oder irgendwelche wichtigen Units belegt.)

Bei meiner Ti 4600 störte mich zuletzt immer mehr das auf DX8 beschränkte Featureset. Die Leistung war für mich ok. Die 5900 bringt jetzt DX9-Features auf sehr hohem Niveau, aber vor allem mehr Rohleistung. Diese Leistung kann ich direkt in Auflösung und AF umsetzen, und zur Not mit Supersampling verballern. Die 5800 hätte wegen dem 128-Bit-Interface trotz der internen Verbesserungen ein weniger großes Plus gebracht.

Es bleibt der Fakt, dass Far Cry auf meiner 9600 (ohne Pro oder XT) schneller lief als auf der 5900 XT. Ich glaube, auf der 9600 gabs auch noch extra Effekte oder bessere Effekte. Will man verstehen warum das so ist, muss man wissen, dass die 9600-Pixelshader featuremäßig nur die Minimal-Spec bieten, dafür sehr effizient arbeiten. Man sollte aber auch in Betracht ziehen, dass FC die 5900 wesentlich schlechter ausnutzt als die 9600.

aths
2005-01-28, 16:16:59
nun ja, für hl2 mag das zutreffen, es ändert aber nix an der schlechten shaderrohperformance der nv3x-reihe. siehe auch: http://www.computerbase.de/artikel/hardware/grafikkarten/2003/5950_5700_ultra_9800_9600xt/16/Du meinst, schlechte FP-Pixelshaderperformance :).

aths
2005-01-28, 16:20:04
Ja, die Bandbreite von 16GB/s plus Kompressions- und Zugriffsoptimierungen reicht für vier Pixel/Takt locker aus - allein 4xMSAA ist da etwas eingeschränkt.Wieso plus Optimierungen? 16 GB/s ist die theoretisch maximal erreichbare Bandbreite, die in der Praxis eigentlich nie genutzt werden kann. Optimierung nutzt diese Bandbreite besser, aber das "plus" suggeriert, dass die echte Bandbreite noch darüber läge.

256 Bit für den NV35 ist sicher etwas übertrieben, aber schadet auch nicht. Man arbeitet praktisch immer am Füllratenlimit :)

Jesus
2005-01-28, 16:20:46
Was hat der Spieler davon heute? Nichts. Gibt es nur Spieler? Wurde NV30 nur für Spieler entwickelt?

Wenn man dabei von der FX redet, was man meistens ja auch tut, dann ja. Für alles andere gibt es FireGL &Co.

Coda
2005-01-28, 16:25:12
Das sind die gleichen Chips, also wurden sie doch irgendwie für beides entwickelt :rolleyes:

Aber aths Sicht der Dinge ist schon etwas übertrieben. CineFX Features schön und gut, aber richtig brauchbar waren die PixelShader im FP Betrieb ja wirklich nicht.

Jesus
2005-01-28, 16:25:25
Du meinst, schlechte FP-Pixelshaderperformance :).

Und tolle fx performance, die leider nirgends genutzt werden kann.

Ich seh schon, das ist wieder so ein Thread 'Aths Meinung ist die einzig richtige', viel Spass noch, ich gehe wieder und schliesse mit einem Quote auf den hier noch niemand eine Antwort gewusst hat ;)


Es ist IMO wirklich eine Verschwörungstheorie. Ein verzweifelter Rationalisierungsversuch der grauenhaften Shader-Performance der NV3x-Generation. Das liegt aber kaum an MS, sondern einfach nur an der Fehlkonstruktion, die NVIDIA da verbrochen hat.

Denn: mein NV35 hat nicht nur unter DXG, sondern auch unter OpenGL, unter Verwendung von NVIDIA-eigenen Extensions wohlgemerkt, absolut grauenhafte Shader-Performance. Du wirst mir jetzt hoffentlich nicht erklären wollen, dass das in irgendeiner Form an Microsoft liegt :ugly:

DrumDub
2005-01-28, 16:26:54
Andererseits gibt es Shader, die auf einer nV30 schneller laufen, als auf einer weit übertakteten X800 XTPE.

sicher. die frage ist nur, ob diese art von shadern jemals eine breite vewendung in spielen finden werden... anders sieht die sache ja beim sm 3 aus.

Ist die Shaderperformance der R420 deshalb auch "unterirdisch"?

nein. die shaderperfomace des r4xx ist sehr ausgewogen für die heutigen einsatzzwecke im spielebereich.

reunion
2005-01-28, 16:27:38
Das Speicherinterface ist beim arithmetischen Pixelshading praktisch irrelevant :)

Was nun allerdings Shaderleistung großartig mit Bandbreite zu tun haben soll, in dem Sinne, daß man anhand derer die Shaderleistung bemißt, entzieht sich mir.

Das ist mir natürlich bewusst, sollte nur verdeutlichen wie sehr die NV3x Serie an der PS-Leistung hängt. =)

DrumDub
2005-01-28, 16:29:21
Du meinst, schlechte FP-Pixelshaderperformance :).

und lediglich die ist für das sm 2 relevant. ;)

aths
2005-01-28, 17:31:11
Wenn man dabei von der FX redet, was man meistens ja auch tut, dann ja. Für alles andere gibt es FireGL &Co.Du meinst, Quadro und Co :).

Eigentlich meinst du Wildcat und Co., glaub ich :)
Das sind die gleichen Chips, also wurden sie doch irgendwie für beides entwickelt :rolleyes:

Aber aths Sicht der Dinge ist schon etwas übertrieben. CineFX Features schön und gut, aber richtig brauchbar waren die PixelShader im FP Betrieb ja wirklich nicht.Für Dawn hats gereicht :) für Spiele, die stark auf FP-Pixelshader fokussieren, natürlich nicht.

aths
2005-01-28, 17:37:25
und lediglich die ist für das sm 2 relevant. ;)Nur weil es SM2 gibt sollte nicht gleich alles mit SM2 gemacht werden. ATIs Leistung ist, dass die arithmetische SM2-Leistung etwa der arithmetischen SM1-Leistung entspricht, während sie bei CineFX mindestens Faktor 2, eher 3-4 langsamer ist.

Und wenn ich auch vor der Radeon 9700 den Hut ziehe, so sollte man auch sehen, dass bei ATI im Hintergrund "nur" (sehr stark) aufgebohrte PS.1.4-HW steckt. NVs Weg, gleich ein "vernünftiges" Featureset zu bieten, war nur zulasten der Performance möglich.

Hätte es nur NV gegeben, wären wir mit den langsamen FP-PS abgespeist worden, und hätten dafür (400 MHz für die Ultra, höchstens 450 MHz) applaudiert. Auf Spiele die im größeren Stil FP-Shader nutzen, würden wir vermutlich heute noch warten. Der NV35 wäre später gekommen, und der NV40 wäre womöglich ein 8-Piper geworden.

Hätte es nur ATI gegeben, wäre der R300 bei weitem nicht so gut geworden – und mit SM3 hätten sie sich noch viel mehr Zeit gelassen, als sie das ohnehin schon tun.

Ich sehe nicht, dass da ein Weg "richtig" ist oder falsch. Wenn man meint, ATIs Weg, featuremäßig bescheiden zu bleiben um den Rohspeed bringen zu können, sei richtig, muss man auch sehen, dass dieser vorgeblich "richtige" Weg innovationsfeindlich ist. Dann gäbe es alle paar Jahre mal n paar neue Features. NV brachte seinerzeit mit GF2 keine echten Neuerungen, und mit GF4 ggü. GF3 nur geringfügige neue Features. Der "richtige" Weg á la 3dfx hätte zwar immer für genügend Rohleistung gesorgt, aber neue Features wie Dot3 BM behindert.

NV40 mit SM3 und FP16-TMUs wäre ohne die NV30-Erfahrungen nicht möglich gewesen. ATI speist seine Kunden jetzt mit einem doppelten R300 ab und verkauft das als "Ultra Highend" welches "High Definition Effects" bieten würde, und das bei diesem Texturfilter und den FP24-Units. Eine minimale Erweiterung wird als 3Dc wie geniale Neuerung vermarktet.

Die wenigsten ATI-Fans waren mit dem PS.1.3 der GF4 Ti glücklich (obwohl sie natürlich die 8500 hatten) obwohl die GF4 Ti eine 8500 in vielen Spielen problemlos wegrockt. Da zählt in der Argumentation pro oder kontra einer Karte je nach Situtation mal das Featureset, mal die Rohleistung. (Auch ich habe wegen den mauen Features der Ti geheult, sie dann aber doch gekauft – die Rohleistung, das schnelle und damals vergleichsweise gute MSAA, das superbe und trilineare AF waren mir wichtiger als Shader-Features.) Ich erinnere mich an NV-Fans, die (imo zurecht) dafür kritisiert wurden, dass sie den PS.1.4 kleindiskutieren wollten. Zwar gibt es in der Tat kaum Spiele die mit 1.4 ggü. 1.3 mehr Effekte zeigen, aber es gibt sie. Und ohne 1.4 kein 2.0 á la R300.

Zu einem gegebenen Zeitpunkt ist je nach eingeschlagenem Weg der eine oder der andere Hersteller mit seinen Produkten im Vorteil. Sieht man das größere Bild, geben beide IHV, die ungefähr gleich gut sind, jeweils ihr bestes. Ohne ATI hätten wir nicht gesehen, was an Leistung drin ist. Ohne NV hätten wir nicht gesehen, was an Features möglich ist. Aber maximale Leistung und vollständigste Features und noch ein bezahlbarer Preis? Das sind ja gleich drei Wünsche auf einmal.

zeckensack
2005-01-28, 18:24:18
Das Wort "Fehlkonstruktion" würde ich nicht benutzen. Du schreibst zurecht von grauenhafter Shader-Performance, aber im Vergleich wozu? Zu ATIs R300. Hängt es vom R300 ab, ob NV30 als Fehlkonstruktion anzusehen ist?Im Vergleich zum eigenen Vorgänger, und -- da dies beim NV3x möglich ist -- im Vergleich zur eigenen FX12-Performance. Selbst nach diesem simplen NV-zentrischen Vergleich ist die Arithmetikleistung mit FP-Formaten grauenhaft. Um das zu erkennen muss ich ATI garnicht erst bemühen.

Es gibt einen viel schöneren Gund, sich mal die Konkurrenz anzusehen, nachdem man festgestellt hat dass NV3x grottig performen. ATI-Produkte beweisen nämlich dass eine Erhöhung der Präzision nicht zwangsläufig zu reduziertem Durchsatz führen muss. Wenn dieser Punkt sowieso schon klar war, dann ergibt sich als Kausalschluss dass das NV3x-ALU-Design Schrott ist. Und gleichzeitig können wir ATI auch ganz aus dem Spiel lassen.

Wenn's noch nicht klar war:
R200 ist bei Arithmetik immer mindestens so schnell wie R100, pro Takt, pro "Pipe", obwohl immer mit höherer Präzision gerechnet wird.
R300 ist bei Arithmetik immer mindestens so schnell wie R200, pro Takt, pro "Pipe", obwohl immer mit höherer Präzision gerechnet wird.
ATI-Produkte sind somit gute Beispiele für sinnvolles ALU-Design, respektive der praktischen Machbarkeit von ALUs, die immer mit voller Präzision arbeiten können, ohne dass man in Tränen ausbrechen muss. Aufgrund der traurigen Marktsituation leider die einzigen bekannten Beispiele. Aber selbst S3 zB hat es nicht hinbekommen, solch einen Schuß in den Ofen zu bauen, wie es die NV3x-ALU nunmal ist.

__________
Wie 'schnell' wird denn dein nV35, wenn du, wo möglich, auch integer-Formate erlaubst?Viel schneller.
Taktnormalisiert erreiche ich dann ziemlich genau Geforce 3-Niveau, was je nach Shader um Faktor 2 bis 5 über der FP16-Performance liegt, und die wiederum ist nochmals um etwa 50~100% höher als die FP32-Performance.

godess
2005-01-28, 18:31:13
Man sieht die Unterschiede auch ohne Wasser, zB auf dem Platz vor dem Bahnhof, oder auch m Bahnhof selbst.
http://www.xbitlabs.com/articles/vi...alf-life_2.html

ich hab keine bemerkt, und auf deinem link sind gar keine bilder wo man etwas sehehn könnte. und bei mir reflektiert der der boden vom bahnhof auch. und übrigens hatte mein nv35 auch im dx90 modus genug frames gebracht (erzwungen mit 3danalyze)

Sorry, aber welche NV35 hast du denn?
FX 5900 non-ultra, @450core; 900 ram


[quote=deekey777]Wer sagt das?/[qoute]

valve selbst. :cool:

Tigerchen
2005-01-28, 18:33:30
Das hängt davon ab, was im "DX9-Modus" gemacht wird. Alles mit PS2.x berechnen? Oder einige Extra-Effekte mit einigen PS2-Shadern bieten?

Das weiß ich nicht, was du als Gamer brauchst. Ich weiß, dass für mich die Radeon schon wegen der Texturfilter nur zweite Wahl ist. Ich spiele kaum Spiele die groß auf PS2 setzen. Hingegen habe ich in allen meinen 3D-Spielen Texturen.


Ach so. Na wenn du schon kaum PS2 brauchst müßten PS3 ja der totale Overkill für dich sein.

Tigerchen
2005-01-28, 18:36:09
Seit wann ist lahmes AF eine Stärke? Und so lahm ist das AF gar nicht - bei ähnlichen Bedingungen beinahe genauso schnell wie das der R300. Was dort an höheren Bildwiederholraten erreicht wird, ist nahezu 1:1 durch den Verzicht auf Qualität bedingt.

Netter Versuch. Es ist und bleibt lahm. Durch geschickte Rhetorik kannst du diese Tatsache zwar verschleiern aber nicht aus der Welt schaffen.

deekey777
2005-01-28, 18:40:47
ich hab keine bemerkt, und auf deinem link sind gar keine bilder wo man etwas sehehn könnte. und bei mir reflektiert der der boden vom bahnhof auch. und übrigens hatte mein nv35 auch im dx90 modus genug frames gebracht (erzwungen mit 3danalyze)
:

Womit aktivierst du DX9?

Tigerchen
2005-01-28, 18:45:02
Andere sehen das so, ja, und einige begründen das sogar. Für mich heißt "Fehlkonstruktion": Funktioniert gar nicht oder nur erheblich eingeschränkt. Obwohl früher erschienen, ist der R300 für durchschnittliche Spieler sicherlich das langlebigere Produkt. Doch abgesehen von einer Anzahl Spiele die man an einer Hand abzählen kann, bietet der NV30 Spielgenuss ohne erhebliche Einschränkungen.


Fantastisch. Das ist so formuliert daß diese Aussage kaum wiederlegt werden kann. Spielgenuss ohne erhebliche Einschränkungen läßt sich natürlich herrlich dehnen. Mit solchen Aussagen läßt sich auch eine FX5200 erheblich aufwerten. Zwar nicht in Wirklichkeit aber in einem Forum wie diesem können solche Nebelbomben ihre Wirkung zweifellos entfalten.

Quasar
2005-01-28, 18:49:28
Netter Versuch. Es ist und bleibt lahm. Durch geschickte Rhetorik kannst du diese Tatsache zwar verschleiern aber nicht aus der Welt schaffen.

Es bleibt so schnell, wie es aufgrund der geleisteten Arbeit nunmal ist. R300 ist bei gleicher Arbeit nur meß- aber nicht spürbar schneller - das kannst auch du nicht kaputtreden.

Tigerchen
2005-01-28, 18:54:51
Ein Feature wie "Render to Vertexbuffer" zum Beispiel.

Die CPU kennt kein FP24, das kleinste FP-Format ist FP32. Möchte man die Pixelshader nutzen, um irgendwas (muss nichts mit Grafik zu tun haben) auf der Graka zu rechnen, ist volle FP32-Genauigkeit anzuraten.

Möchte man komplexe Grafik rendern, und zwar wirklich komplex (unter Verzicht auf Echtzeit-Berechnung) reicht FP24 manchmal nicht aus. Arbeitet man mit dependent reads auf sehr große Texturen, kann FP24 zu knapp werden.

Was hat der Spieler davon heute? Nichts. Gibt es nur Spieler? Wurde NV30 nur für Spieler entwickelt?

Definitiv. Ohne Spieler lohnt der Aufwand nicht. Wenn man nur von den Profis als Zielgruppe leben will muß man schon so Sachen wie 3DLabs machen. Die Quattros sehe ich eher als Nebenprodukt. nV30 was build to play Doom 3. Punkt.

Quasar
2005-01-28, 19:08:30
Wenn's noch nicht klar war:
R200 ist bei Arithmetik immer mindestens so schnell wie R100, pro Takt, pro "Pipe", obwohl immer mit höherer Präzision gerechnet wird.
R300 ist bei Arithmetik immer mindestens so schnell wie R200, pro Takt, pro "Pipe", obwohl immer mit höherer Präzision gerechnet wird.
ATI-Produkte sind somit gute Beispiele für sinnvolles ALU-Design, respektive der praktischen Machbarkeit von ALUs, die immer mit voller Präzision arbeiten können, ohne dass man in Tränen ausbrechen muss. Aufgrund der traurigen Marktsituation leider die einzigen bekannten Beispiele.
Das ist eine für den entsprechend geneigten Konsumenten eine gute, soll ich sagen tolle, Sache - keine Frage.
Aber, hm, wie sage ich es, ohne irgendwie böse zu klingen.... - aber je weniger ich mit gegebenen Ressourcen verdoppeln muss, desto leichter dürfte mir das mit gegebenem 'Skill' fallen, oder?
Die relativ 'hohe Vorleistung' mit nV2x rächte sich hier ziemlich für nV, wie ich meine. Man hatte bsw. keine Möglichkeit, bei Texturen auf DX9-Minimum FP24 zurückzugehen, ohne die Profi-Schiene nahezu komplett vom nV30 auszuschliessen. Man konnte die Register Combiner offenbar nicht komplett und leistungsnah durch Shadereinheiten ersetzen und musste sie deshalb zusätzlich einbauen - sonst wär's zu der noch dümmeren Situation gekommen, daß ein nV30 unter OpenGL nicht oder kaum schneller gewesen wäre, als ein gleichgetakteter nV2x - ohne zusätzliche Effekt.
Man durfte nicht an den Texturfiltern sparen - zumindest nicht an deren Präzision und man hatte halt den dicken Shaderkern noch irgendwo einzubauen, von dem zwei Stück sicherlich noch unmöglicher geworden wären.


Aber selbst S3 zB hat es nicht hinbekommen, solch einen Schuß in den Ofen zu bauen, wie es die NV3x-ALU nunmal ist.
Aufgrund (älterer?) ShaderMark Resultate, IIRC sogar von dir, hatte ich den Eindruck, daß der DC mit seinen 300MHz und acht Shadereinheiten in etwa* auf dem Niveau der FX5800u läge. Stimmt das nicht?

*mal drüber, mal drunter



__________
Viel schneller.
Taktnormalisiert erreiche ich dann ziemlich genau Geforce 3-Niveau, was je nach Shader um Faktor 2 bis 5 über der FP16-Performance liegt, und die wiederum ist nochmals um etwa 50~100% höher als die FP32-Performance.
Was ja nicht großartig überraschend ist. Ich meinte allerdings die Performance, wenn du Shader-Versionen gut durchmischt - so, wie es die Aufgabe halt erfordert (und, wie ich vermute, nV sich auch die Verwendung des nV30 vorgestellt hat, bevor sie vom R300/DX9 kalt erwischt wurden).

Tigerchen
2005-01-28, 19:12:03
Andererseits gibt es Shader, die auf einer nV30 schneller laufen, als auf einer weit übertakteten X800 XTPE.

Ist die Shaderperformance der R420 deshalb auch "unterirdisch"?

Wenn das in der Praxis Relevanz hätte ja. Hat es aber nicht. nV30 verliert quasi jeden Vergleich auf jedem Feld. Wenn da hier oder da mal ein kleiner Shader mal schneller läuft fällt das gar nicht ins Gewicht.

StefanV
2005-01-28, 19:12:43
Privat lebe ich mit einer 5900 XT, und das recht gut. Wo es geht, wird 4xS-AA genutzt, natürlich auch das gute AF. Bei 1280x960. Geht bei meinen Spielen. So what.

Schön, für dich, mir hat die 5900 Vanilla nicht gereicht, die Performance bei einigen Games war einfach nur Mist, unter anderem Need for Speed Undergroudn 2, das doch recht stark geruckelt hat, in 1280x1024, an einigen Stellen.

Bei der 9800 ist das nicht der Fall, die performt weit besser...

Klartext:
DIR; lieber aths reicht die Performance der FX5900XT, MIR und anderen eben nicht, von daher kannst im 3 Eck springen oder 'ne Bibel lesen, ändern wirst du rein garnichts, zumal ich letztens noch eine (ok, 2) 5900er hatte...


Nö. Die FP-Einheiten sind sehr fix auf der Hufe. Leider kostet die Datenrangierung gerne mal extra-Takte. Von "Stalls" durch volle Registerfiles mal ganz abgesehen.


Achso, dann hat nV wohl doch großen Bockmist gebaut, oder? :naughty:

Tigerchen
2005-01-28, 19:20:24
Es bleibt so schnell, wie es aufgrund der geleisteten Arbeit nunmal ist. R300 ist bei gleicher Arbeit nur meß- aber nicht spürbar schneller - das kannst auch du nicht kaputtreden.

ATI geht aber keine überflüssig langen Wege oder verschlungene Pfade und bleibt somit schneller.

StefanV
2005-01-28, 19:22:17
Nein, davor kommen noch Dinge, die auch die stärksten Pixelshader ausbremsen können.

Im Idealfall sollte die komplette Pipeline möglichst ausgewogen und gut aufeinander abgestimmt sein.

BTW, du sprichst andauernd von "wir, die Gamer" - nicht immer so egozentrisch sein. :)
1. sag ich doch.

2. Siehs mal andersrum, denn ich beziehe mich nunmal auf die nicht ganz unwichtigen Zocker.

Was im 'Profisegment' und anderen Dingen, wo es nicht so sehr auf die Pixelshader ankommt, ausschaut, ist hier irrelevant, um Themenwechsel a la ow, das es irgendwo auf der Welt Anwendungen gibt, wie z.B. lightwave, vorzubeugen...

StefanV
2005-01-28, 19:26:33
Das hängt davon ab, was im "DX9-Modus" gemacht wird. Alles mit PS2.x berechnen? Oder einige Extra-Effekte mit einigen PS2-Shadern bieten?
Gegen 'alles mit PS2.x berechnen' spricht eigentlich nur die lahme Performance der nV3x, sonst spricht da eigentlich nicht wirklich was gegen, auf 'ordentlicher Hardware'...


Das weiß ich nicht, was du als Gamer brauchst. Ich weiß, dass für mich die Radeon schon wegen der Texturfilter nur zweite Wahl ist. Ich spiele kaum Spiele die groß auf PS2 setzen. Hingegen habe ich in allen meinen 3D-Spielen Texturen.
Schön, das für dich die nV3x die bessere Wahl darstellt, dagegen ist auch nichts einzuwenden.
Nur ist die nV3x FÜR MICH UND ANDERE nunmal Mist, ob du das so siehst oder nicht, ist herzlich irrelevant, wäre nur schön, wenn du das akzeptieren würdest, das andere eine andere Meinung vertreten und auch der Ansicht sein können, das ATi einen weit besseren Job gemacht hat als nV...


Ich erkenne, dass du Schwierigkeiten hast, die Aussage eines Textes zu verstehen.
1. wir wollen doch am besten mal die Persönlichkeiten lassen, oder?

2. Aber ich bin mal so gemein und sag mal folgendes:

Ich erkenne, dass du Schwierigkeiten hast, die Meinungen/Ansichten anderer zu akzeptieren.

StefanV
2005-01-28, 19:29:27
Ja, die Bandbreite von 16GB/s plus Kompressions- und Zugriffsoptimierungen reicht für vier Pixel/Takt locker aus - allein 4xMSAA ist da etwas eingeschränkt.

Was nun allerdings Shaderleistung großartig mit Bandbreite zu tun haben soll, in dem Sinne, daß man anhand derer die Shaderleistung bemißt, entzieht sich mir.
Richtig, siehe 6600GT; die einen ähnlichen (SPeicher) Takt wie die nV30 hat, der aber eigentlich immer überlegen ist...

StefanV
2005-01-28, 19:31:58
Bei meiner Ti 4600 störte mich zuletzt immer mehr das auf DX8 beschränkte Featureset. Die Leistung war für mich ok. Die 5900 bringt jetzt DX9-Features auf sehr hohem Niveau, aber vor allem mehr Rohleistung. Diese Leistung kann ich direkt in Auflösung und AF umsetzen, und zur Not mit Supersampling verballern. Die 5800 hätte wegen dem 128-Bit-Interface trotz der internen Verbesserungen ein weniger großes Plus gebracht.

Du meinst wohl, das die 5900 jetzt DX9 Features auf Mainstream Niveau bringt und nur beim 'DX8 Featureset' der TI4600 überlegen ist, oder? ;)


Die 5800 hatte ganz andere Probleme, als das '128bit Interface', siehe 6600GT, die trotz 128bit Speicherinterface deine 5900 schon sehr plättet...

Wobei das sogar schon meine 6600 schaffen müsste, bei SM2 intensiven Anwendungen schneller als die 5900 zu sein...

Polak
2005-01-28, 19:58:07
:confused:
Was soll denn diese Diskussion?
Das eine FX ein Griff ins Klo ist, sollte mittlerweile bekannt sein.

StefanV
2005-01-28, 20:02:40
:confused:
Was soll denn diese Diskussion?
Das eine FX ein Griff ins Klo ist, sollte mittlerweile bekannt sein.
Ja, eben genau darum gehts ja ;)

ALso 'herauszufinden, ob die FX wirklich ein Griff ins Klo ist' :naughty:

Polak
2005-01-28, 20:16:20
Ja, eben genau darum gehts ja ;)

ALso 'herauszufinden, ob die FX wirklich ein Griff ins Klo ist' :naughty:
Einfach ein paar Spiele nehmen, die PS2.X nutzen und staunen wie schlecht die Performance ist. Die 6600GT (tolle Karte) ist bei shaderlastigen Spielen teilweise 3-fach so schnell. Was für Beweise braucht man denn noch?
Die FX-Serie war die grösste Blamage, die sich Nvidia je geleistet hat.
Da kann man nichts mehr schönreden. ;(

Coda
2005-01-28, 20:27:46
Nehmen wir als Beispiel FarCry. Alle PS Berechnungen bis auf Envmaps vielleicht hätte man genausogut mit FX12 machen können und wäre im Endeffekt ziemlich nahe an ATi gewesen.

Nur leider hat MS nVidia da einen Strich durch die Rechnung gemacht mit der DX Spezifikation. Zu Lebzeiten von NV30 hätte FX12 auf jeden Fall gereicht, auch wenn ATi da fortschrittlicher war.

Aber das ist jetzt Vergangenheit. Es ist eigentlich sinnlos darüber zu diskuttieren, weil eh keiner (?) mehr eine FX kaufen will.

zeckensack
2005-01-28, 20:39:11
Quasar,
ich habe an keiner Stelle etwas von Texturfilterqualität gesagt. Die Nebendiskussionen um HL2 und Anisotropie irritieren mich auch ziemlich.
Die Ausgangsfrage war, ob Microsoft NVIDIA irgendein (absichtliches) Unrecht antat, und meine Antwort auf diese Frage war und ist ein eindeutiges Nein.

Natürlich fände ich es auch befriedigender, wenn der R300 bessere Texturfilter hätte.

Was dabei herauskommen kann, wenn man vernünftige ALUs mit zumindest halbwegs vernünftigen Texturfiltern kombiniert, zeigt ja die neue 6er-Serie von NVIDIA.
Auch da ist nicht alles Gold. Ich meine trotzdem die These halten zu können, dass das Wegschmeißen-Und-Nochmal-Richtig-Machen der alten NV3x-ALUs in Punkto Transistorcount nicht besonders wehgetan haben kann. Laut Beyond 3D (http://www.beyond3d.com/misc/chipcomp/) kommt der NV43 auf 110 Millionen Transistoren ggü 130 Millionen beim NV35.

Das reicht IMO trotz winkelabhängigem AF nicht aus, um zu dem Schluss zu kommen dass die neuen ALUs mehr Platz brauchen als die alten. Es sieht mir eher nach dem Gegenteil aus, was mich in Anbetracht der Doppelauslegung "Shader Core" und RCs auch nicht wundert.

Aufgrund (älterer?) ShaderMark Resultate, IIRC sogar von dir, hatte ich den Eindruck, daß der DC mit seinen 300MHz und acht Shadereinheiten in etwa* auf dem Niveau der FX5800u läge. Stimmt das nicht?

*mal drüber, mal drunterDer DeltaChrome ist wahrlich keine Shader-Rakete. Das Gerät ist fatal simpel aufgebaut. Wieder Beyond 3D gibt für den S4 btw 40 Millionen Transistoren an. Den NV36 mit 82 Mios und den RV350 mit 75 Mios. Es sollte offensichtlich sein, dass S3 an allen Ecken und Enden Transistoren eingespart hat. Es gibt AFAIK keine horizontale Split-Möglichkeit ala "Coissue", und es ist auch nur eine ALU da, die alles macht, im Gegensatz zur großen Konkurrenz, wo große ALUs, Mini-ALUs, Texturkoordinatenrechner, SFUs und anderes verschaltet werden.

Aber er rechnet immer alles mit FP24, reagiert nicht auf _pp-Hints oder auf variierte Shader-Version bei äquivalentem Code.

Der große Bruder S8 (dessen Transistorcount mir leider nicht bekannt ist, aber signifikant mehr als das doppelte wird's wohl nicht sein) schlägt mittlerweile 'ne FX5800 vanilla im 3DMark05. Link (http://www.deltachrome.com/modules.php?name=Forums&file=viewtopic&t=146#1333)
Wenn man den Kerntaktunterschied rausrechnet, liegt das Ding gleichauf mit dem NV35, der dann immer noch fast die doppelte Speicherbandbreite und mindestens doppelt so viel VS-Leistung hat. "Unfair" ist hier nur die nominelle bilineare Singletexturing-Füllrate. Inwieweit die beim 3DM05 Einfluß hat, mag ich jetzt nicht beurteilen müssen.
(kommt sicher auch auf die Treiberversion an; beim NV30 kam FW66.70 zum Einsatz, beim S8 der allerneueste)

Polak
2005-01-28, 20:42:44
Nehmen wir als Beispiel FarCry. Alle PS Berechnungen bis auf Envmaps vielleicht hätte man genausogut mit FX12 machen können und wäre im Endeffekt ziemlich nahe an ATi gewesen.
Da die Env Maps einen grossen Teil ausmachen, ist das nur hypothetisch.
Ob bei den anderen Shadern wirklich FX12 ausreicht? Was war denn mit dem Patch 1.1? Da gab es auch schon Artefakte. Ob das jetzt mit der Genauigkeit zusammen hängt, vermag ich nicht zu beurteilen.

Nur leider hat MS nVidia da einen Strich durch die Rechnung gemacht mit der DX Spezifikation. Zu Lebzeiten von NV30 hätte FX12 auf jeden Fall gereicht, auch wenn ATi da fortschrittlicher war.
Da magst du Recht haben. Aber das hängt auch letzendlich vom Programmierer ab. Bei TR6 gibt es nur PS2.0, der Einfachheit halber. ;)
Ob da viele Progger Lust hätten zwischen FX12, FP16 und FP32 zu unterscheiden, wage ich mal anzuzweifeln.

Aber das ist jetzt Vergangenheit. Es ist eigentlich sinnlos darüber zu diskuttieren, weil eh keiner (?) mehr eine FX kaufen will.
Ack. Habe mich echt gewundert, daß hier noch über die FX-Serie diskutiert wird, obwohl eine 9600XT teilweise schneller war. :|

Quasar
2005-01-28, 20:45:14
Wenn das in der Praxis Relevanz hätte ja. Hat es aber nicht. nV30 verliert quasi jeden Vergleich auf jedem Feld. Wenn da hier oder da mal ein kleiner Shader mal schneller läuft fällt das gar nicht ins Gewicht.

Um die Bedeutung von Praxis zu verstehen, sollte man auch das gedachte Einsatzgebiet in Betracht ziehen.

Wie ich oben andeutete, hat sich nV aus vielerlei Gründen nicht einfach auf durchgehend FP32 und ausreichend viele Quads stützen können und für sparsameres FP24 war es sowieso zu spät, als das final wurde.

Insofern geht es gar nicht darum, daß die aktuelle Situation so ist, wie sie ist, sondern darum, zu verstehen (verstehen zu wollen), warum sie so ist, wie sie ist.


BTW, das idiotische Beispiel habe ich gebracht, um zu zeigen, daß sich für jede Behauptung irgendwelche Beweise aufstellen lassen. Genauso, wie kaum ein "ernsthafter Gamer" eine FX5800(u) gegen eine R9600SE dauerhaft eintauschen würde, weil er damit gewisse shaderlimitierte Szenarien in niedrigen Auflösungen ohne AA und AF etwas schneller sehen kann, würde auch sicher kaum jemand, der nicht exzessiv Offline-Rendering betreibt, eine X800 XTPE gegen eine FX5800u eintauschen.
Jede der beiden "logischeren" Auswahlmöglichkeiten wäre in der überwiegenden Mehrzahl der denkbaren Anwendungen sinnvoller einzusetzen, als die jeweils andere Möglichkeit, die nur zu Demonstrationszwecken ins Feld geführt wurden.

Coda
2005-01-28, 20:45:17
Da die Env Maps einen grossen Teil ausmachen, ist das nur hypothetisch. Man müsste ja nur den Teil des Shaders der die Texcoords berechnet mit FP16 machen, für den Rest reicht wieder FX12.

Ob das jetzt mit der Genauigkeit zusammen hängt, vermag ich nicht zu beurteilen.Nein, das war ein komischer Bug. Wenn man die Radeon FPs auf FP16 stellt kommen die Artefakte AFAIK nicht zustande.

Ob da viele Progger Lust hätten zwischen FX12, FP16 und FP32 zu unterscheiden, wage ich mal anzuzweifeln.Err. In C++ Programmen muss man auch zwischen int/float und double unterscheiden und das machen die meisten Programmierer im Schlaf.
Ich wüsste nicht warum es in viel kürzeren Shadern größere Probleme machen sollte.

Ich finde NV30 war für seine Zeit recht angemessen von der Technologie, nur die API hat nicht mitgespielt ;)

Allerdings hatte R300 dann immer noch den Vorteil das sie auch FP24 konnte und das schnell. Die Shaderlänge war damals sicher noch keine Limitation.

Wie man es auch immer dreht, die R300 war einfach besser als NV30.

Demirug
2005-01-28, 20:51:10
Wie ich oben andeutete, hat sich nV aus vielerlei Gründen nicht einfach auf durchgehend FP32 und ausreichend viele Quads stützen können und für sparsameres FP24 war es sowieso zu spät, als das final wurde.

Es war nicht nur zu spät sondern für nVidia schlicht unmöglich weniger als FP32 einzubauen ohne die Kompatibilität zum NV2X zu brechen.

reunion
2005-01-28, 20:52:43
Nein, das war ein komischer Bug. Wenn man die Radeon FPs auf FP16 stellt kommen die Artefakte AFAIK nicht zustande.


Kann eine Radeon überhaupt weniger als FP24 berechen? :|

Coda
2005-01-28, 20:52:48
Uhm, wieso das denn?

Demirug
2005-01-28, 20:53:09
Nein, das war ein komischer Bug. Wenn man die Radeon FPs auf FP16 stellt kommen die Artefakte AFAIK nicht zustande.

Ja, und wenn man den Artefaktshader mit FP32 benutzen wollte gab es überhaupt kein Ergebniss mehr.

Demirug
2005-01-28, 20:55:11
Kann eine Radeon überhaupt weniger als FP24 berechen? :|

Nein, das ganze ist so gemeint.

Wenn man den entsprechend Shader, der an der Stelle von Radeons benutzt wird, auf einer GeForce benutzt sind die Artefakte weg auch wenn man diesen auf FP16 zwingt.

Demirug
2005-01-28, 20:56:52
Uhm, wieso das denn?

Weil nVidia für diese Chips schon zugesichert hat das die Berechnungen im Textureteil der Shader mit FP32 durchgeführt werden.

reunion
2005-01-28, 20:57:43
Nein, das ganze ist so gemeint.

Wenn man den entsprechend Shader, der an der Stelle von Radeons benutzt wird, auf einer GeForce benutzt sind die Artefakte weg auch wenn man diesen auf FP16 zwingt.

Ahhh, thx :up:

Quasar
2005-01-28, 21:05:23
Quasar,
ich habe an keiner Stelle etwas von Texturfilterqualität gesagt.
Die habe ich auch nur aufgeführt als eines von mehreren Beispielen warum man bei nV nicht genug Transen für ein zweites Quad bsw. sparen konnte - das sollte jetzt nichts mit der sonstigen Filterdiskussion zu tun haben. Sorry, wenn das so rübergekommen ist.

robbitop
2005-01-28, 22:55:50
Der DeltaChrome ist wahrlich keine Shader-Rakete. Das Gerät ist fatal simpel aufgebaut. Wieder Beyond 3D gibt für den S4 btw 40 Millionen Transistoren an. Den NV36 mit 82 Mios und den RV350 mit 75 Mios. Es sollte offensichtlich sein, dass S3 an allen Ecken und Enden Transistoren eingespart hat. Es gibt AFAIK keine horizontale Split-Möglichkeit ala "Coissue", und es ist auch nur eine ALU da, die alles macht, im Gegensatz zur großen Konkurrenz, wo große ALUs, Mini-ALUs, Texturkoordinatenrechner, SFUs und anderes verschaltet werden.

Aber er rechnet immer alles mit FP24, reagiert nicht auf _pp-Hints oder auf variierte Shader-Version bei äquivalentem Code.

Der große Bruder S8 (dessen Transistorcount mir leider nicht bekannt ist, aber signifikant mehr als das doppelte wird's wohl nicht sein) schlägt mittlerweile 'ne FX5800 vanilla im 3DMark05. Link (http://www.deltachrome.com/modules.php?name=Forums&file=viewtopic&t=146#1333)
Wenn man den Kerntaktunterschied rausrechnet, liegt das Ding gleichauf mit dem NV35, der dann immer noch fast die doppelte Speicherbandbreite und mindestens doppelt so viel VS-Leistung hat. "Unfair" ist hier nur die nominelle bilineare Singletexturing-Füllrate. Inwieweit die beim 3DM05 Einfluß hat, mag ich jetzt nicht beurteilen müssen.
(kommt sicher auch auf die Treiberversion an; beim NV30 kam FW66.70 zum Einsatz, beim S8 der allerneueste)

Auch an den Vertexshadern wurde laut meinen Messungen gespart. Die 4x VS sind zusammen kaum schneller als ein NV3x VS bei gleichem Takt.
Ansonsten hat man scheinbar sehr stark an den ROPs gespart. Alphablending lässt in jedem Spiel die Performance extrem einbrechen und das Ding haut mir zuwenig Z Werte pro Takt raus für 8x ROPs.
Mal davon abgesehen davon, dass die Bandbreite oftmals verhindert, dass mehr als 4 farbwerte pro Takt geschrieben werden können.
Unreal Tournement 2004 scheint komischerweise eine exzellente Cachehitrate zu erzeugen, so dass die externe Bandbreite unwichtiger wird. Hier blüht das gute Stück auf.

Quasar
2005-01-28, 23:13:31
Ich meine trotzdem die These halten zu können, dass das Wegschmeißen-Und-Nochmal-Richtig-Machen der alten NV3x-ALUs in Punkto Transistorcount nicht besonders wehgetan haben kann. Laut Beyond 3D (http://www.beyond3d.com/misc/chipcomp/) kommt der NV43 auf 110 Millionen Transistoren ggü 130 Millionen beim NV35.

Das reicht IMO trotz winkelabhängigem AF nicht aus, um zu dem Schluss zu kommen dass die neuen ALUs mehr Platz brauchen als die alten. Es sieht mir eher nach dem Gegenteil aus, was mich in Anbetracht der Doppelauslegung "Shader Core" und RCs auch nicht wundert.
Bitte bedenke folgendes:
- die Shadereinheiten im nV4x sind, zumindest AFAIK, keine vollständigen Shadercores mehr - der ist in Rente - sondern kleine, 'schlanke' und spezialisierte Einheiten.
- der nV35 hatte hingegen einen vollen Shadercore und noch seine Hilfseinheiten, die die Reg-Combiner ersetzt haben
- der nV35 hatte einen 256Bit-Speichercontroller
- der nV35 hatte noch den acht-Zixel-Modus
- vermutlich hatte der nV35 auch einiges an Masse-Transistoren



Der DeltaChrome ist wahrlich keine Shader-Rakete. Das Gerät ist fatal simpel aufgebaut. Wieder Beyond 3D gibt für den S4 btw 40 Millionen Transistoren an. Den NV36 mit 82 Mios und den RV350 mit 75 Mios. Es sollte offensichtlich sein, dass S3 an allen Ecken und Enden Transistoren eingespart hat. Es gibt AFAIK keine horizontale Split-Möglichkeit ala "Coissue", und es ist auch nur eine ALU da, die alles macht, im Gegensatz zur großen Konkurrenz, wo große ALUs, Mini-ALUs, Texturkoordinatenrechner, SFUs und anderes verschaltet werden.

Aber er rechnet immer alles mit FP24, reagiert nicht auf _pp-Hints oder auf variierte Shader-Version bei äquivalentem Code.

Der große Bruder S8 (dessen Transistorcount mir leider nicht bekannt ist, aber signifikant mehr als das doppelte wird's wohl nicht sein) schlägt mittlerweile 'ne FX5800 vanilla im 3DMark05. Link (http://www.deltachrome.com/modules.php?name=Forums&file=viewtopic&t=146#1333)
Wenn man den Kerntaktunterschied rausrechnet, liegt das Ding gleichauf mit dem NV35, der dann immer noch fast die doppelte Speicherbandbreite und mindestens doppelt so viel VS-Leistung hat. "Unfair" ist hier nur die nominelle bilineare Singletexturing-Füllrate. Inwieweit die beim 3DM05 Einfluß hat, mag ich jetzt nicht beurteilen müssen.
(kommt sicher auch auf die Treiberversion an; beim NV30 kam FW66.70 zum Einsatz, beim S8 der allerneueste)
Hm, das wäre jetzt IMO mal interessant, sich das mal etwas genauer als mit dem 3DMark anzuschauen, denn da gibt es ja einige.... err.... Unwägbarkeiten (http://www.computerbase.de/forum/showthread.php?t=112068)...

Vor allem könnte man, soweit es geht, gleiche Bedingungen für alle schaffen. DST und PCF verschleiert die Shaderleistung ja auch noch zusätzlich im Murks.

BTW; schade, daß es den S4 nicht nackt und ohne Schnickschnack gibt :(

zeckensack
2005-01-29, 00:04:37
Bitte bedenke folgendes:
- die Shadereinheiten im nV4x sind, zumindest AFAIK, keine vollständigen Shadercores mehr - der ist in Rente - sondern kleine, 'schlanke' und spezialisierte Einheiten.
- der nV35 hatte hingegen einen vollen Shadercore und noch seine Hilfseinheiten, die die Reg-Combiner ersetzt habenEs zählt was hinten raus kommt, und das ist beim NV43 mehr und schneller. Dass die Shaderlösung im NV35 übermäßig kompliziert ist, ist keine Entschuldigung, sondern die Wurzel des Problems.
- der nV35 hatte einen 256Bit-SpeichercontrollerJa.
- der nV35 hatte noch den acht-Zixel-ModusKann der NV43 doch auch.
Es gibt aber doch einen Unterschied im ROP-Durchsatz zwischen den beiden, nämlich beim Blending. Einerseits ist da der N35 doppelt so schnell (pro Takt), andererseits kann der NV43 auch gleitend Kommieren :ugly:
- vermutlich hatte der nV35 auch einiges an Masse-TransistorenKeine Ahnung.
Hm, das wäre jetzt IMO mal interessant, sich das mal etwas genauer als mit dem 3DMark anzuschauen, denn da gibt es ja einige.... err.... Unwägbarkeiten (http://www.computerbase.de/forum/showthread.php?t=112068)...Latürnich wird für den 3DMark05 "speziell optimiert". Ich glaube allerdings nicht, dass S3 das wirklich besser kann als NVIDIA.
Vor allem könnte man, soweit es geht, gleiche Bedingungen für alle schaffen. DST und PCF verschleiert die Shaderleistung ja auch noch zusätzlich im Murks.DeltaChrome beherrscht "DST und PCF", und das kommt im 3DMark05 auch zur Anwendung.
BTW; schade, daß es den S4 nicht nackt und ohne Schnickschnack gibt :(Ach lass mal, der S8 ist schon langsam genug ;)

Endorphine
2005-01-29, 00:21:00
[...]
Der DeltaChrome ist wahrlich keine Shader-Rakete. Das Gerät ist fatal simpel aufgebaut. Wieder Beyond 3D gibt für den S4 btw 40 Millionen Transistoren an. Den NV36 mit 82 Mios und den RV350 mit 75 Mios. Es sollte offensichtlich sein, dass S3 an allen Ecken und Enden Transistoren eingespart hat.
[...] Hi zeckensack,

wenn der DC so "fatal simpel" aufgebaut ist und überall Transistoren spart wo es nur geht, wieso bekommen wir dann bei ATI und NV keine tri-TMUs, die mit einem Schlag alle TF-Verschlimmbesserungen obsolet machen würden? ATI und NV scheinen ja bei Diegröße/Transistorzahl weitaus kräftiger zulangen zu können.

p.s. OT: wenn ich nicht so faul wäre würde ich auch mal auf dein Posting im Thread zu aths "hohe Auflösung sucks, AF rulez"-Artikel antworten. Deine Antwort ist nur ein Missverständnis irgendwie. Wahrscheinlich müsste ich aber wohl erst eine Stunde schreiben und recherchieren, um ein passendes Posting hinzubekommen... :rolleyes: Also sorry, dass ich dich da so unbeantwortet in der Luft hängen lasse. ;)

aths
2005-01-29, 09:51:07
Im Vergleich zum eigenen Vorgänger, und -- da dies beim NV3x möglich ist -- im Vergleich zur eigenen FX12-Performance. Selbst nach diesem simplen NV-zentrischen Vergleich ist die Arithmetikleistung mit FP-Formaten grauenhaft. Um das zu erkennen muss ich ATI garnicht erst bemühen.Stimmt. Allerdings ist es auch etwas aufwändiger in FP32 zu rechnen, als in FX12.

Es gibt einen viel schöneren Gund, sich mal die Konkurrenz anzusehen, nachdem man festgestellt hat dass NV3x grottig performen. ATI-Produkte beweisen nämlich dass eine Erhöhung der Präzision nicht zwangsläufig zu reduziertem Durchsatz führen muss. Wenn dieser Punkt sowieso schon klar war, dann ergibt sich als Kausalschluss dass das NV3x-ALU-Design Schrott ist. Und gleichzeitig können wir ATI auch ganz aus dem Spiel lassen.ATI hat zwar die Präzision erhöht, aber sonst nicht viel gemacht. Statt zwei Phasen gibts vier, ebenso wurde die Zahl der Texturen und arithmetischen Instruktionen pro Phase erhöht. Der NV30-Shader hat kein dependent read limit. Er kennt auch keine Einschränkungen bezüglich Swizzles.


Wenn's noch nicht klar war:
R200 ist bei Arithmetik immer mindestens so schnell wie R100, pro Takt, pro "Pipe", obwohl immer mit höherer Präzision gerechnet wird.
R300 ist bei Arithmetik immer mindestens so schnell wie R200, pro Takt, pro "Pipe", obwohl immer mit höherer Präzision gerechnet wird.
ATI-Produkte sind somit gute Beispiele für sinnvolles ALU-Design, respektive der praktischen Machbarkeit von ALUs, die immer mit voller Präzision arbeiten können, ohne dass man in Tränen ausbrechen muss. Aufgrund der traurigen Marktsituation leider die einzigen bekannten Beispiele. Aber selbst S3 zB hat es nicht hinbekommen, solch einen Schuß in den Ofen zu bauen, wie es die NV3x-ALU nunmal ist.NV30 ist ebenfalls schneller bei höherer Präzision :) FX12 vs. FX9.

Worüber reden wir jetzt? Dass die Leistung unter "voller" Präzision gesteigert werden muss? Dürfte NV30 unter SM2 auch mit FX12 rechnen, könnte man viele SM2-Effekte verschnellern, ohne großartig Qualität zu opfern. Die "sichtbare" Qualität ist eines der Lieblingsargumente von R300-Usern, wenn sie auf FP24 oder die Texturfilter angesprochen werden.

Dass es erst mal wünschenswert ist, bei Full Precision volle Leistung zu haben, streite ich natürlich nicht ab, ebensowenig dass ATI hier erstaunliches vorgelegt hat. Die Entwicklung ist außerdem vereinfacht, wenn man alles mit Full Precision machen kann. Für die FX muss man für anständige Leistung das _PP-Flag setzen, und würde FX12 erlaubt sein, wäre es noch aufwändiger. Der Entwickler würde dann erst recht unter Nvidia gut gedachter (und schlecht gemachter) HW-Lösung leiden, und sicher würden sich dem einige verweigern.

Der NV30 hat wohl jede Erwartungshaltung unterboten, selbst Skeptiker waren erstaunt, was NV da für einen Chip abgeliefert hat. Doch ich wundere mich über die gängige Argumentation: Gehts um SM3, fordern einige aus dem Forum, man solle erst mal SM2 in Gänze ausnutzen und vorher besser nichts mit SM3 machen. Sie forderten beim NV30 nicht, dass mit Rücksicht auf NV generell auf die Verwendung von SM2 erst mal verzichtet wird und die Entwickler erst mal alles mit SM1 (also höchstens PS.1.4) machen.

Wenn ich mich recht entsinne bietet der NV30 ein ziemlich flinkes SINCOS und andere beschleunigte SFUs. Braucht man in Spielen kaum, da dies lieber mit Texture-LUTs angenähert wird. Wollte man Mandelbrot-Rendering auf der GPU betreiben, wäre beim R300 nach einer handvoll Iterationen Schluss. Mit dem NV30 gehts deutlich höher. Dauert dann auch eine Größenordnung länger, aber immerhin, man kann "mehr" (um einen weniger großen Faktor beschleunigen.)

aths
2005-01-29, 09:54:12
[COLOR="#000088"]
Ach so. Na wenn du schon kaum PS2 brauchst müßten PS3 ja der totale Overkill für dich sein.Overkill ist für mich vor allem deine blaue Postingfarbe. PS3 ist für mich dann kein Overkill, wenn die anderen Voraussetzungen stimmen, wozu u. a. Texturfilterung zählen.

[COLOR="#000088"]
Netter Versuch. Es ist und bleibt lahm. Durch geschickte Rhetorik kannst du diese Tatsache zwar verschleiern aber nicht aus der Welt schaffen.Ich weiß nicht, wie oft es noch gesagt werden muss. Obwohl es "lahm" ist, bringt es pro verbrauchter Texturfüllrate das größere Qualitätsplus verglichen mit "schnellen" AF-Implementierungen. Das "lahme" AF im NV30 ist ein Vorteil, wenn man Texturfüllrate bestmöglich in Qualität umsetzen will.

[COLOR="#000088"]
ATI geht aber keine überflüssig langen Wege oder verschlungene Pfade und bleibt somit schneller. Beim AF wird damit jedoch mehr Qualität geopfert als Leistung gewonnen.

aths
2005-01-29, 10:04:48
[COLOR="#000088"]
Fantastisch. Das ist so formuliert daß diese Aussage kaum wiederlegt werden kann.Dafür bin ich Journalist.
Spielgenuss ohne erhebliche Einschränkungen läßt sich natürlich herrlich dehnen. Mit solchen Aussagen läßt sich auch eine FX5200 erheblich aufwerten. Ich hab einiges auf FX 5200 gesehen. Die 128-er sind für die meisten Spiele ausreichend. Eine 5800 hab ich noch nicht gesehen, aber selbst die Ti 4600 reicht für vieles.
Zwar nicht in Wirklichkeit aber in einem Forum wie diesem können solche Nebelbomben ihre Wirkung zweifellos entfalten. Nicht in deiner Wirklichkeit.

aths
2005-01-29, 10:09:37
[COLOR="#000088"]
Definitiv. Ohne Spieler lohnt der Aufwand nicht. Wenn man nur von den Profis als Zielgruppe leben will muß man schon so Sachen wie 3DLabs machen. Die Quattros sehe ich eher als Nebenprodukt. nV30 was build to play Doom 3. Punkt.Das hab ich schon bei der GeForce4 Ti von NV gehört, dann bei der 5800, dann bei der 5900, und dann bei der 6800. Mit Quadros (mit d, kommt von Quad, da die erste Quadro vier Pipelines hatte (NV10GL)) verdient NV soweit ich weiß ganz gut. Etliche NV30-Features wurden offensichtlich mit der Quadro-Version im Hinterkopf designt. Wenns um Spiele geht, so gab es wie gesagt seinerzeit nur wenige, wo man mit dem NV30 angesch... war. Dass der NV30 kein langlebiges (Spitzen-) Produkt war, ist angesichts der starken Konkurrenz von ATI nur gerechtfertigt.

aths
2005-01-29, 10:16:08
DIR; lieber aths reicht die Performance der FX5900XT, MIR und anderen eben nicht, von daher kannst im 3 Eck springen oder 'ne Bibel lesenWelche denn, die Lutherbibel (1984 revidiert), die aktuelle Elberfelder oder die Einheitsübersetzung?

Ich bin mit der Performance der 5900 XT genauso zufrieden wie mit den exzellenten Texturfiltern. Die XT kam 179 €, zu jener Zeit gabs in dem Segment keine vergleichbare Karte von ATI. Schon gar nicht mit den exzellenten ... ach, das hatten wir schon.

Achso, dann hat nV wohl doch großen Bockmist gebaut, oder? :naughty:Sry, wenn ich mich wiederhole: Ich erkenne, dass du Schwierigkeiten hast, die Aussage eines Textes zu verstehen.Konkreter: Es gibt mehr als schwarz und weiß, (genauer, mehr als rot grün und rot) und es gibt keine Grafikkarte, die für einen Anspruchsvollen alles bietet, was er gerne hätte.

aths
2005-01-29, 10:20:17
Schön, das für dich die nV3x die bessere Wahl darstellt, dagegen ist auch nichts einzuwenden.Genauer, bitte. Ich ziehe die 9700 der 5800 vor, aber eine preiswerte 5900 XT einer nicht so preiswerten 9800. Mehr als einmal habe ich in diesem Forum behauptet, dass für den normalen Spieler eine 9700 der 5900 vorzuziehen ist. Insofern verstehe ich nicht, warum du nur die Teile liest, wo NV mal besser wegkommt als ATI.

StefanV
2005-01-29, 10:20:40
Ich bin mit der Performance der 5900 XT genauso zufrieden wie mit den exzellenten Texturfiltern. Die XT kam 179 €, zu jener Zeit gabs in dem Segment keine vergleichbare Karte von ATI. Schon gar nicht mit den exzellenten ... ach, das hatten wir schon.
Und was stand in meinem Text, besonders der markierte?!

Etwa, das dir die 5900 genügt, es aber ebenso jene welche gibt, denen die 5900 nicht genügt?!

Wo ist der Sinn im obigen Abschnitt?!
Ein einfaches 'so sehe ich das auch' hätte auch gereicht, da brauchst auch nicht um den heißen brei rumzureden...


Sry, wenn ich mich wiederhole: Konkreter: Es gibt mehr als schwarz und weiß, (genauer, mehr als rot grün und rot) und es gibt keine Grafikkarte, die für einen Anspruchsvollen alles bietet, was er gerne hätte.
Schön, nur macht das die nV3x Serie auch nicht besser, dein Verhalten zu einigen Aussagen zum nV3x ist mir absolut unverständlich, so sehr, wie du diese Fehlentwicklung verteidigst...

aths
2005-01-29, 10:27:35
Schön, nur macht das die nV3x Serie auch nicht besser, dein Verhalten zu einigen Aussagen zum nV3x ist mir absolut unverständlich, so sehr, wie du diese Fehlentwicklung verteidigst...Es war ja eben, trotz einer Liste von Punkten wo sie enttäuschend abschnitt, keine Fehlentwicklung.

StefanV
2005-01-29, 10:29:16
Es war ja eben, trotz einer Liste von Punkten wo sie enttäuschend abschnitt, keine Fehlentwicklung.
Von welchem Segment reden wir hier eigneltich?!

Das uns hier, in diesem Forum, das 'Profisegment' nicht sonderlich interessiert, dürfte eigentlich klar sein, somit dürfte die 'normale' Sicht der Dinge die des Spielers sein...

Von daher war die nV3x durchaus eine Fehlentwicklung -> zu heiß, zu lahm, nicht wirklich brauchbar...

aths
2005-01-29, 10:50:46
Von welchem Segment reden wir hier eigneltich?!

Das uns hier, in diesem Forum, das 'Profisegment' nicht sonderlich interessiert, dürfte eigentlich klar sein, somit dürfte die 'normale' Sicht der Dinge die des Spielers sein...

Von daher war die nV3x durchaus eine Fehlentwicklung -> zu heiß, zu lahm, nicht wirklich brauchbar...Was diesem Forum interessiert hängt jeweils davon ab, vom Subforum, vom Thread, vom einzelnen User.

Der normale Spieler war zu NV30-Zeiten mit einer 5800 nicht so gut bedient wie mit einer 9700. Aber für die 5800 gilt nicht "zu"* heiß, schon gar nicht "zu lahm", und erst recht nicht "nicht wirklich brauchbar". (War sie denn unwirklich brauchbar?) Das Bessere ist des Guten Feind. Ich kenne zufällig Leute, die eine 5800 hatten, und sie auch gebraucht haben – zum Spielen in hohen Auflösungen.

Was ist "zu" heiß? Zu heiß für Herrn Payne?

StefanV
2005-01-29, 10:54:55
Ich kenne zufällig Leute, die eine 5800 hatten, und sie auch gebraucht haben – zum Spielen in hohen Auflösungen.

Ich kenn zufällig auch jemanden, der 'ne 5800 hatte, sie die meiste Zeit aber nur zum anschauen genutzt hat und lieber die 9700 benutzt hat, die derjenige hatte, da sie kühler, leiser und schneller war.

Derjenige hatte sich sogar 'nen Staubsauger FX besorgt und 'gurkt' momentan mit 'nem P4/3,06 auf 'nem ASUS P4T533 rum, mit 'ner Sapphire Radeon 9800, da ihm die Leadtek FX5900LX und die ASUS 5900 Vanilla zu lahm und laut waren...

Was ist "zu" heiß? Zu heiß für Herrn Payne?
Für das gebotene zu heiß, besonders der Speicher.

Das Problem ist, das die 5800 durchaus recht brauchbar hätte sein können, wenn man da DDR-I SDRAM mit ~350MHz draufgepappt hätte...

aths
2005-01-29, 10:58:22
Ich kenn zufällig auch jemanden, der 'ne 5800 hatte, sie die meiste Zeit aber nur zum anschauen genutzt hat und lieber die 9700 benutzt hat, die derjenige hatte, da sie kühler, leiser und schneller war.

Derjenige hatte sich sogar 'nen Staubsauger FX besorgt und 'gurkt' momentan mit 'nem P4/3,06 auf 'nem ASUS P4T533 rum, mit 'ner Sapphire Radeon 9800, da ihm die Leadtek FX5900LX und die ASUS 5900 Vanilla zu lahm und laut waren...Erstaunlich, wie bunt die Welt ist, nicht wahr!

Quasar
2005-01-29, 12:30:50
Es zählt was hinten raus kommt, und das ist beim NV43 mehr und schneller. Dass die Shaderlösung im NV35 übermäßig kompliziert ist, ist keine Entschuldigung, sondern die Wurzel des Problems.
Das war nur auf den Transencount bezogen, ich muss heute irgendwie undeutlich schreiben - sry. *g*

Latürnich wird für den 3DMark05 "speziell optimiert". Ich glaube allerdings nicht, dass S3 das wirklich besser kann als NVIDIA.
DeltaChrome beherrscht "DST und PCF", und das kommt im 3DMark05 auch zur Anwendung.
Nein, eben das denk ich auch - nV schummelt mehr, als S3. Was PCF angeht, kann der nV3x dies quasi nebenher ohne die Pixelshader zusätzlich zu belasten in seinen TMUs - so wurde mir aus glaubhafter Quelle versichert.
Trifft das auch auf den S3-Chip zu?


Ach lass mal, der S8 ist schon langsam genug ;)
Um die Leistung pro Takt und Pipe auszurechnen, ist's doch wurscht - im Gegentum wäre man hier nicht so durch den offenbar furchtbaren Speichercontroller gehandicapped.
Außerdem wäre so ein S3-S4-Kärtchen dann auch billiger, anstatt, so wie's die Allinwonderpersonalcinemamarvel-Edition jetzt ist, teurer.

Tigerchen
2005-01-29, 14:01:28
Um die Bedeutung von Praxis zu verstehen, sollte man auch das gedachte Einsatzgebiet in Betracht ziehen.



Insofern geht es gar nicht darum, daß die aktuelle Situation so ist, wie sie ist, sondern darum, zu verstehen (verstehen zu wollen), warum sie so ist, wie sie ist.


Es geht eben nicht darum aufzuzeigen warum die FX5900 in allen möglichen Situationen konkurrenzfähig hätte sein können wenn ATI, MS und die Progger alles so gemacht hätten wie nVidia sich das vorgestellt hat. Du kannst nicht ernsthaft erwarten daß die Welt sich immer so dreht wie du es gerne hättest.

Die FX5900 bleibt eine Fehlkonstruktion. Das beweist schon die 6600GT. Die läuft so gut wie schon die 5800 laufen sollte. Da hat man wohl so einiges geändert, was aber nicht passiert wäre wenn die Funktionseinheiten des nV3x das leisten würden was sie leisten sollen.

Tigerchen
2005-01-29, 14:04:53
Was diesem Forum interessiert hängt jeweils davon ab, vom Subforum, vom Thread, vom einzelnen User.

Der normale Spieler war zu NV30-Zeiten mit einer 5800 nicht so gut bedient wie mit einer 9700. Aber für die 5800 gilt nicht "zu"* heiß, schon gar nicht "zu lahm", und erst recht nicht "nicht wirklich brauchbar". (War sie denn unwirklich brauchbar?) Das Bessere ist des Guten Feind. Ich kenne zufällig Leute, die eine 5800 hatten, und sie auch gebraucht haben – zum Spielen in hohen Auflösungen.

Was ist "zu" heiß? Zu heiß für Herrn Payne?

Ach komm hör auf. Die Leutchen von nV haben selbst ein kleines Video gedreht in dem sie sich über den FönFX lustig gemacht haben. Das zeugt von Einsicht und den Willen es in Zukunft besser zu machen. Beides geht dir leider ab.

Coda
2005-01-29, 14:07:00
Die 5800 Ultra stürzt ja soweit ich weiß auch wegen Hitzeproblemen häufiger aus bei Doom 3 Benchmarks. Also das Ding ist wirklich eine Fehlkonstruktion.

Tigerchen
2005-01-29, 14:13:11
Ich weiß nicht, wie oft es noch gesagt werden muss. Obwohl es "lahm" ist, bringt es pro verbrauchter Texturfüllrate das größere Qualitätsplus verglichen mit "schnellen" AF-Implementierungen. Das "lahme" AF im NV30 ist ein Vorteil, wenn man Texturfüllrate bestmöglich in Qualität umsetzen will.

Beim AF wird damit jedoch mehr Qualität geopfert als Leistung gewonnen.

Das magst du so sehen. Also verwende in Zukunft den Begriff "ich" und nicht "wir" wenn du über sowas schreibst. Nun der "Verkaufserfolg " der teuren, langsamen FX-Modelle spricht ja für sich. Deine Relativierungen und Ausflüchte scheinen wohl doch recht wenige beeindruckt zu haben.

Tigerchen
2005-01-29, 14:19:26
Dafür bin ich Journalist.
Ich hab einiges auf FX 5200 gesehen. Die 128-er sind für die meisten Spiele ausreichend. Eine 5800 hab ich noch nicht gesehen, aber selbst die Ti 4600 reicht für vieles.
Nicht in deiner Wirklichkeit.

Journalist willst du sein? Deine Verdrehungen der Wirklichkeit würde ich eher mit Rechtsverdrehern in Verbindung bringen.
Gehts in diesem Thread darum was man mit veralteter oder mangelhafter Hardware soeben noch spielen kann ohne sofort einen Anfall zu kriegen?
Wir denken dem ist nicht so.

Quasar
2005-01-29, 14:56:49
Es geht eben nicht darum aufzuzeigen warum die FX5900 in allen möglichen Situationen konkurrenzfähig hätte sein können wenn ATI, MS und die Progger alles so gemacht hätten wie nVidia sich das vorgestellt hat.
Sag' mal, liest du auch die Postings, auf die du antwortest? =)
Es geht darum zu verstehen, warum die nV3x-Reihe so ist, wie sie ist - und dazu muss man nunmal ein bißchen über den Rand seines kleinen, privaten Bierdeckels hinausblicken.



Du kannst nicht ernsthaft erwarten daß die Welt sich immer so dreht wie du es gerne hättest.
Tu' ich nicht keine Sorge - aber ich versuche zumindest zu verstehen, anstatt nur abzunicken. ;)


Die FX5900 bleibt eine Fehlkonstruktion.
Für dich vielleicht, für mich auch - kaum Zusatznutzen im Vergleich zum nV30. :cool:


Das beweist schon die 6600GT.
Die beweist es gerade nicht - ansonsten wäre ja jeder Chip älterer Generation im Vergleich zur neueren eine krasse Fehlkonstruktion. :eek:

[QUOTE=Tigerchen]
Die läuft so gut wie schon die 5800 laufen sollte. Da hat man wohl so einiges geändert, was aber nicht passiert wäre wenn die Funktionseinheiten des nV3x das leisten würden was sie leisten sollen.
Die läuft vielleicht so, wie mancher nV-Fan sich das vom nV30 gewünscht hätte. =) Aber gerade von dir hätte ich sowas nicht erwartet. :devil:

Sieh's mal so: Die Funktionseinheiten des nV40 laufen so, wie nV sie hinbekommen hätte, wäre man frühzeitig über die finale Entscheidung von MS in Sachen DX9 informiert gewesen.
Ob das nun an MS lag - das ist hier die Frage.

Fakt ist jedenfalls, daß man eine komplette Pipeline nicht in ein, zwei Monaten
umdesignen und zur Produktionsreife bringen kann. Was in extrem kurzer Zeit möglich war, hat nV vom nV30 zum nV35 geändert - da scheinen wir uns ja einig zu sein, daß es nicht viel geholfen hat. Was möglich wird, wenn man ein größeres Zeitfenster zur Verfügung hat, zeigt der nV43 - von dem du ja offensichtlich auch recht angetan zu sein scheinst.

Quasar
2005-01-29, 14:59:16
Die 5800 Ultra stürzt ja soweit ich weiß auch wegen Hitzeproblemen häufiger aus bei Doom 3 Benchmarks. Also das Ding ist wirklich eine Fehlkonstruktion.
Wirklich? Oder war das bei THG?
Würde mich interessieren - falls du einen Link dazu parat hast. Bei mir ist das nämlich noch nicht geschehen - was allerdings auch daran liegen kann, daß ich selbst einen nV30 nur selten voll ausfahren kann auf meinem P3.

zeckensack
2005-01-29, 15:48:19
Stimmt. Allerdings ist es auch etwas aufwändiger in FP32 zu rechnen, als in FX12.Dafür hat NV30 auch knapp doppelt soviele Transistoren wie der direkte Vorgänger NV28.
Das kann nicht alles Masse sein. NV28 erreicht realistisch betrachtet 250~300MHz in 150µ. NV30 400~450MHz in 130µ mit LowK. Ein Großteil dieser Taktsteigerung lässt sich einfach durch den schnelleren Prozess erklären. Diese 60 Millionen extra teilen sich irgendwie zwischen Shader-Core, ROP-Trick, Brilinearität und brutalisierten VS auf. Ich vermute dass der Shader-Core mindestens 40 Millionen davon verschlingt.

ATI hat zwar die Präzision erhöht, aber sonst nicht viel gemacht. Statt zwei Phasen gibts vier, ebenso wurde die Zahl der Texturen und arithmetischen Instruktionen pro Phase erhöht. Der NV30-Shader hat kein dependent read limit. Er kennt auch keine Einschränkungen bezüglich Swizzles.Und NVIDIA hat "nur" in den Texture Shader unendliche Loops eingebaut, über einen Zwischenspeicher (den andere "F-Buffer" nennen würden btw), der offensichtlich viel zu knapp bemessen war.

ATI's R300 ist ein Beispiel. Wenn es dir nicht zusagt, dann nimm eben den NV43. Der kann Shadertechnisch alles was der NV30 konnte, und noch mehr, hat mehr als den doppelten "theoretischen" ALU-Spitzendurchsatz, wobei der praktische ALU-Durchsatz viel stärker gestiegen ist, er hat sogar noch gewaltigere VS, hat die neuen ROPs, kann FP16-Texturen filtern, und schafft das alles in gerade mal 20 Millionen Transistoren extra, respektive knapp 15% mehr.

NV30 ist ebenfalls schneller bei höherer Präzision :) FX12 vs. FX9.Ja, stimmt. Hatte ich verdrängt :redface:
Worüber reden wir jetzt? Dass die Leistung unter "voller" Präzision gesteigert werden muss? Dürfte NV30 unter SM2 auch mit FX12 rechnen, könnte man viele SM2-Effekte verschnellern, ohne großartig Qualität zu opfern.Ich stehe auf dem Standpunkt dass man, wenn man die Präzision schon erhöht, das, im eigenen Interesse (Die-Größe) und im Interesse derer die mit dieser Hardware arbeiten müssen, auch konsequent machen sollte.

1)Eigeninteresse:
Wenn die "Hochpräzisionseinheit" so schwach ist, dass die alte "Niedrigpräzisionseinheit" einige Teilaufgaben deutlich schneller erledigen kann, was ist dann sinnvoller?
a)Die "Hochpräzisionseinheit" so weit verbessern, dass sie die alte Lösung vollständig ersetzen kann
b)Beides einbauen, und darauf hoffen dass die "Hochpräzisionseinheit" möglichst selten benutzt wird

Was zahlenmäßig dabei herauskommt wenn man sich für a oder b entscheidet, habe ich bereits geschrieben.

2)Entwicklerinteresse:
Jaja, man kann quasi alles ohne Qualitätsverlust mit FX12 rechnen. Nur keine Texturkoordinaten. Und keine dependency chains >=6 Instruktionen (wenn ich den voraussichtlichen Rundungsverlust pro Operation mit 0,5 Bit ansetze bin ich dann auf 8bpc-Framebuffer-Niveau). Und keine Rechnungen bei denen Zwischenergebnisse den Bereich [-1...1] verlassen könnten.
Du kommst hier schnell in Unwägbarkeiten. Schon lange schreibt niemand mehr die berühmten drei Shader pro Spiel und kann diese ausgiebig optimieren. Quasi jeder der mit SM2 arbytet benutzt in irgendeiner Form dynamisch zusammengestückelte Codefetzen mit mehreren hundert bis tausend möglichen Kombinationen.
Die einzigen mir bekannten Ausnahmen sind Doom 3 und diverse "Schau mal mein toller neuer Shader"-Techdemos.

Das dumme daran ist, dass das Durchoptimieren solcher Shader-Massen in Hinsicht auf Minimalpräzision pro Operation sehr sehr viel Zeit kostet, und umso ertragloser wird, in je mehr Shader die einzelnen Fetzen sich einfügen können sollen. Dann kann man noch anfangen, von den einzelnen Fetzen mehrere Versionen mit unterschiedlichen Präzisionen anzulegen, und je nachdem ob zB die Normale nur für PPL oder für env mapping gebraucht wird, diese mal mit FX12 und mal mit FP32 auszurechnen. Das macht einen riesen Spaß :|
Von dieser Investition profitieren nur verkorkste Architekturen. Gäbe es keine solchen, bzw entschiede man sich dafür darauf zu pfeifen, könnte man sich das an die Backe schmieren.
Die "sichtbare" Qualität ist eines der Lieblingsargumente von R300-Usern, wenn sie auf FP24 oder die Texturfilter angesprochen werden.Und "Performancesteigerung durch nicht sichtbare Qualitätsreduktion" ist eines der Lieblingsargumente von NV3x-Schönredern, wenn sie Schwierigkeiten haben den Bockmist zu erkennen den sie vor sich haben. Was soll mir das jetzt sagen?
*michselbstwiederhol*
Ich fänd's auch schöner, wenn der R300 bessere Texturfilter hätte.

Was ändert das am absoluten Wert der NV30-Architektur?

Vielleicht sollte man gewählte NV3x-Apologetiker einfach mal dazu zwingen, fünfzig mittellange Shader möglichst NV3x-freundlich zu machen. Dann wüssten sie aus erster Hand welche Arbeit das sein kann. Ich würde mal grob schätzen, dass wenn man den Stundenlohn harmlos bei 10€ ansetzt, man sicham Ende eine 6600GT kaufen kannst, und das Problem damit endgültig gelöst ist.

Dass es erst mal wünschenswert ist, bei Full Precision volle Leistung zu haben, streite ich natürlich nicht ab, ebensowenig dass ATI hier erstaunliches vorgelegt hat. Die Entwicklung ist außerdem vereinfacht, wenn man alles mit Full Precision machen kann. Für die FX muss man für anständige Leistung das _PP-Flag setzen, und würde FX12 erlaubt sein, wäre es noch aufwändiger. Der Entwickler würde dann erst recht unter Nvidia gut gedachter (und schlecht gemachter) HW-Lösung leiden, und sicher würden sich dem einige verweigern.Exakt.
Der NV30 hat wohl jede Erwartungshaltung unterboten, selbst Skeptiker waren erstaunt, was NV da für einen Chip abgeliefert hat. Doch ich wundere mich über die gängige Argumentation: Gehts um SM3, fordern einige aus dem Forum, man solle erst mal SM2 in Gänze ausnutzen und vorher besser nichts mit SM3 machen.Jein. Man sollte keine Shader mit mehr als 100 Instruktionen als praktisch relevant ansehen, wenn sich die Performance dadurch absehbar in den einstelligen fps-Bereich verdünnisiert.

"Echtem" Branching stehe ich skeptisch gegenüber, weil ich gelernt habe das effizienter zu lösen. AMD und Intel empfehlen seit vielen Jahren unisono, Branches überall wo es möglich ist zu vermeiden und durch Prädikation (emuliert oder echt) zu ersetzen. Und SM3 erlaubt jetzt "endlich" echtes Branching, auf Hardware die noch viel mehr Probleme damit hat als GP-Prozessoren. Find' ich echt toll, muss ich sofort benutzen :ugly:
Sie forderten beim NV30 nicht, dass mit Rücksicht auf NV generell auf die Verwendung von SM2 erst mal verzichtet wird und die Entwickler erst mal alles mit SM1 (also höchstens PS.1.4) machen.Ich schon. Jawoll (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=797188#post797188).
Wenn ich mich recht entsinne bietet der NV30 ein ziemlich flinkes SINCOS und andere beschleunigte SFUs. Braucht man in Spielen kaum, da dies lieber mit Texture-LUTs angenähert wird. Wollte man Mandelbrot-Rendering auf der GPU betreiben, wäre beim R300 nach einer handvoll Iterationen Schluss. Mit dem NV30 gehts deutlich höher. Dauert dann auch eine Größenordnung länger, aber immerhin, man kann "mehr" (um einen weniger großen Faktor beschleunigen.)SINCOS braucht man in der Tat ziemlich selten. Im PS höchstens mal für prozedurale Texturen, Rauschen und sowas. Ob man sich das auf NV3x überhaupt leisten kann, wäre dann die nächste Frage. Ansonsten eher garnicht. Im VS vielleicht öfter, je nachdem was man da so macht (Quaternionen interpolieren ahoi).

FP32 ist zum Brot backen sowieso zu wenig :ugly:

zeckensack
2005-01-29, 16:01:03
Das war nur auf den Transencount bezogen, ich muss heute irgendwie undeutlich schreiben - sry. *g*Ährm, nein, aber vielleicht ich.
Ich hatte versucht abzuwägen, wie sich die beiden unterschiedlichen Designs in Punkto "Bumms pro Transistor" zueinander verhalten.
Das neue Eisen kommt da doch deutlich besser weg, woraus ich den Schluss ziehen will, dass der NV30-Shader-Core so eine tolle Idee nicht gewesen sein kann.
Nein, eben das denk ich auch - nV schummelt mehr, als S3. Was PCF angeht, kann der nV3x dies quasi nebenher ohne die Pixelshader zusätzlich zu belasten in seinen TMUs - so wurde mir aus glaubhafter Quelle versichert.
Trifft das auch auf den S3-Chip zu?Weiß ich nicht. Aber wie es auch immer sein mag, er gewinnt!!!111111

Um die Leistung pro Takt und Pipe auszurechnen, ist's doch wurscht - im Gegentum wäre man hier nicht so durch den offenbar furchtbaren Speichercontroller gehandicapped.
Außerdem wäre so ein S3-S4-Kärtchen dann auch billiger, anstatt, so wie's die Allinwonderpersonalcinemamarvel-Edition jetzt ist, teurer.Äh ja, und ja. Nur spielen sollte man damit wirklich nicht wollen, das wird zu schmerzhaft.

Demirug
2005-01-29, 16:05:39
"Echtem" Branching stehe ich skeptisch gegenüber, weil ich gelernt habe das effizienter zu lösen. AMD und Intel empfehlen seit vielen Jahren unisono, Branches überall wo es möglich ist zu vermeiden und durch Prädikation (emuliert oder echt) zu ersetzen. Und SM3 erlaubt jetzt "endlich" echtes Branching, auf Hardware die noch viel mehr Probleme damit hat als GP-Prozessoren. Find' ich echt toll, muss ich sofort benutzen :ugly:

Du bist doch sonst ein Freund davon die Semantik zu erhalten? Eine if/then/else Konstruktion enthält IMHO davon noch mehr als Code mit Prädikations. Es bleibt dem Treiber ja immer noch freigestellt denoch Prädikations zu nutzen wenn das reguläre Branching im vergleich dazu langsamer wäre.

Ich bin jetzt mal so frech und behaupte man kann Branching auf einer GPU effektiver implementieren als auf einer CPU. Allerdings darf man es natürlich nicht so machen wie nVidia.

Jesus
2005-01-29, 16:12:05
Und "Performancesteigerung durch nicht sichtbare Qualitätsreduktion" ist eines der Lieblingsargumente von NV3x-Schönredern, wenn sie Schwierigkeiten haben den Bockmist zu erkennen den sie vor sich haben. Was soll mir das jetzt sagen?


Rofl der war gut :biggrin:

Ist ja echt geil hier, Hardcore (unverbesserliche) Theoretiker vs Erfahrene-Anwender Schlamm-Catchen;)

zeckensack
2005-01-29, 16:22:32
Du bist doch sonst ein Freund davon die Semantik zu erhalten? Eine if/then/else Konstruktion enthält IMHO davon noch mehr als Code mit Prädikations. Es bleibt dem Treiber ja immer noch freigestellt denoch Prädikations zu nutzen wenn das reguläre Branching im vergleich dazu langsamer wäre.Es gibt Hochsprachencompiler, die if/else auch auf "SM2"-Architekturen runterkompilieren können X-D
Ich bin jetzt mal so frech und behaupte man kann Branching auf einer GPU effektiver implementieren als auf einer CPU. Allerdings darf man es natürlich nicht so machen wie nVidia.Jo. Da steht man aber vor der schwierigen Entscheidung, in welcher Reihenfolge man denn nun die n Instruktionen mal m Fragmente abarbeiten will ...
Serialisieren ist optimal für die Branch-Performance, aber schlecht für den Durchsatz, weil die Instruktionslatenzen sichtbar werden und man sich zudem noch den Texturcache killt.

Horizontal und scheibchenweise ist auch blöd, weil man dafür Unmengen an Zwischenspeicher braucht, und das kann sehr schnell in die Hose gehen. Sieht man ja schön am NV3x.

Eine Hybridlösung sollte man wählen ...

Coda
2005-01-29, 16:28:55
Mal ne blöde Frage: Was verstehst du unter Prädikation?

Demirug
2005-01-29, 16:31:36
Es gibt Hochsprachencompiler, die if/else auch auf "SM2"-Architekturen runterkompilieren können X-D

Ja, aber die machen dir die Semantik wirklich kaputt.

Jo. Da steht man aber vor der schwierigen Entscheidung, in welcher Reihenfolge man denn nun die n Instruktionen mal m Fragmente abarbeiten will ...
Serialisieren ist optimal für die Branch-Performance, aber schlecht für den Durchsatz, weil die Instruktionslatenzen sichtbar werden und man sich zudem noch den Texturcache killt.

Horizontal und scheibchenweise ist auch blöd, weil man dafür Unmengen an Zwischenspeicher braucht, und das kann sehr schnell in die Hose gehen. Sieht man ja schön am NV3x.

Eine Hybridlösung sollte man wählen ...

Ja, aber das wird jetzt aber alles etwas OT.

Demirug
2005-01-29, 16:35:04
Mal ne blöde Frage: Was verstehst du unter Prädikation?

Das ist ein Zusatz zu einer Anweisung durch den man verhindern kann das die Ergebnisse gespeichert werden in abhängigkeit eines Flags. Das ist eine gute Alternative für Branches wenn die Zweige kurz sind.

Coda
2005-01-29, 16:36:11
Also sowas wie CMOV?

Demirug
2005-01-29, 16:39:53
Also sowas wie CMOV?

Ja. Allerdings ist es eben keine eigene Anweisung sondern eine Option für alle Anweisungen.

Coda
2005-01-29, 16:41:00
Hat ARM nicht auch sowas für alle Anweißungen?

zeckensack
2005-01-29, 16:47:25
Mal ne blöde Frage: Was verstehst du unter Prädikation?Das ist eine mögliche Implementation konditionaler Moves bzw Muxe.
Anstatt im Code umherzuspringen, benutzt man Schreibmasken oder sonstige Tricks binärer Logik.
ZB
;if (EAX<0) EAX=-EAX;
klassisch:
TEST EAX,EAX
JNS .positiv
NEG EAX
.positiv:
;fertig

anders:
MOV EBX,EAX
NEG EBX
TEST EAX,EAX
CMOVS EAX,EBX
;fertig


nochmal_anders:
MOV EBX,EAX
SAR EBX,31 ;EBX=(EAX<0)?0xFFFFFFFF:0
XOR EAX,EBX
SUB EAX,EBX
;fertig
Es gibt auch Architekturen, die dedizierte Prädikat-Register haben, in die man boolsche Ergebnisse ablegen, und später in konditionale Moves einfüttern kann, zB der Itanium oder eben der NV40.

Das Sinn der Übung ist die Vermeidung von echtem Branching und es eignet sich deswegen herrlich für parallele SIMD-Verarbeitung.
;ushort* dest
;ushort* source
;if (dest[0]==key) dest[0]=source[0];
;if (dest[1]==key) dest[1]=source[1];
;if (dest[2]==key) dest[2]=source[2];
;if (dest[3]==key) dest[3]=source[3];
MOVQ mm0,[EDI+2*ECX]
MOVQ mm2,mm0
MOVQ mm4,[ESI+2*ECX]
PCMPEQW mm2,mm7
PAND mm4,mm2
PANDN mm2,mm0
POR mm2,mm4
MOVQ [EDI+2*ECX],mm2

zeckensack
2005-01-29, 16:52:26
Ja, aber die machen dir die Semantik wirklich kaputt.Wenn sie direkt im Treiber sitzen, macht das eigentlich nichts. Der R350 kann halt nicht "echt" branchen.

Quasar
2005-01-29, 18:27:22
Ährm, nein, aber vielleicht ich.
Ich hatte versucht abzuwägen, wie sich die beiden unterschiedlichen Designs in Punkto "Bumms pro Transistor" zueinander verhalten.
Das neue Eisen kommt da doch deutlich besser weg, woraus ich den Schluss ziehen will, dass der NV30-Shader-Core so eine tolle Idee nicht gewesen sein kann.
Ok, aber genau darum geht es doch hier.
Wenn ich dich aus einem anderen Posting zitieren darf:

1)Eigeninteresse:
Wenn die "Hochpräzisionseinheit" so schwach ist, dass die alte "Niedrigpräzisionseinheit" einige Teilaufgaben deutlich schneller erledigen kann, was ist dann sinnvoller?
a)Die "Hochpräzisionseinheit" so weit verbessern, dass sie die alte Lösung vollständig ersetzen kann
b)Beides einbauen, und darauf hoffen dass die "Hochpräzisionseinheit" möglichst selten benutzt wird
a) ist nV offenbar zu dem Zeitpunkt nicht möglich gewesen und auch nicht zwingend nötig erschienen. b) wurde versucht mit bekanntem Resultat.

Die Frage, um die sich zumindest für mich hier alles dreht ist folgende:
Hätte nV, wenn sie von vornherein gewußt hätten, wie DX9 am Ende 'verläuft', trotzdem noch auf Möglichkeit b) gesetzt oder hätten sie dann gleich Möglichkeit a) - wie im Pixelshader des nV4x geschehen - versucht?


Weiß ich nicht. Aber wie es auch immer sein mag, er gewinnt!!!111111
Mag sein, vielleicht aber auch nicht. Wie gesagt, für das knappe Ergebnis sind mir da zu viele variablen im Spiel. (BTW, das PCF bringt den nVs eher was, als daß es kostet - und wenn die alternative Methode gewählt wird, ist das Ergebnis irgendwie anders (http://www.forum-3dcenter.de/vbulletin/showthread.php?t=181705).)


Äh ja, und ja. Nur spielen sollte man damit wirklich nicht wollen, das wird zu schmerzhaft.
Nein, das würde ich nicht wollen (zumindest nur ein bißchen) - aber die Videofunktionen aka Chromotion sollen ja nett sein.

Xmas
2005-01-29, 18:31:40
Das magst du so sehen. Also verwende in Zukunft den Begriff "ich" und nicht "wir" wenn du über sowas schreibst.

Gehts in diesem Thread darum was man mit veralteter oder mangelhafter Hardware soeben noch spielen kann ohne sofort einen Anfall zu kriegen?
Wir denken dem ist nicht so.
Ahem...


Ist ja echt geil hier, Hardcore (unverbesserliche) Theoretiker vs Erfahrene-Anwender Schlamm-Catchen;)
So mancher "Theoretiker" ist erfahrenerer Anwender als so mancher der von der Theorie keine Ahnung hat.




Predication ist ja schön und gut, aber echte Loops und Early-Out möchte ich trotzdem haben.

Jesus
2005-01-29, 18:50:54
So mancher "Theoretiker" ist erfahrenerer Anwender als so mancher der von der Theorie keine Ahnung hat.


Naja ich hätte es besser eingrenzen sollen ;)
Allerdings siehts hier eher andersherum aus :rolleyes: Wobei Theorie ohne Praxis ist ja ohne weiteres möglich, andersrum gehts dagegen kaum :rolleyes:

aths
2005-01-29, 22:34:19
Dafür hat NV30 auch knapp doppelt soviele Transistoren wie der direkte Vorgänger NV28.
Das kann nicht alles Masse sein. NV28 erreicht realistisch betrachtet 250~300MHz in 150µ. NV30 400~450MHz in 130µ mit LowK. Ein Großteil dieser Taktsteigerung lässt sich einfach durch den schnelleren Prozess erklären. Diese 60 Millionen extra teilen sich irgendwie zwischen Shader-Core, ROP-Trick, Brilinearität und brutalisierten VS auf. Ich vermute dass der Shader-Core mindestens 40 Millionen davon verschlingt.Ggü. NV28 hat der NV30 die Möglichkeit, was am AF zu drehen, er kann auch (wieder) bi-AF bei voller Füllrate (was der GF4 Ti offensichtlich rausgeschnitten wurde um Transistoren zu sparen) und man hat Bildschärfung :uclap: als neues 2D-Feature. Der VS ist jetzt 3x statt 2x, und kann VS_2_A statt nur 1_1. Dass der Shadercore mal locker 40 Mio Transistoren verschlingt, halte ich aber für einen vernünftigen Schätzwert.

Und NVIDIA hat "nur" in den Texture Shader unendliche Loops eingebaut, über einen Zwischenspeicher (den andere "F-Buffer" nennen würden btw), der offensichtlich viel zu knapp bemessen war.Im Gegensatz zum F-Buffer funktionierte die NV30-Lösung von Anfang an :)

ATI's R300 ist ein Beispiel. Wenn es dir nicht zusagt, dann nimm eben den NV43. Der kann Shadertechnisch alles was der NV30 konnte, und noch mehr, hat mehr als den doppelten "theoretischen" ALU-Spitzendurchsatz, wobei der praktische ALU-Durchsatz viel stärker gestiegen ist, er hat sogar noch gewaltigere VS, hat die neuen ROPs, kann FP16-Texturen filtern, und schafft das alles in gerade mal 20 Millionen Transistoren extra, respektive knapp 15% mehr.Wenn ich ein Programm schreibe, wo ich einen Algorithmus erstmalig implementiere, wird das Programm groß, unübersichtlich, und arbeitet ineffizient. Habe ich die Implementierungsschwierigkeiten durchschaut, kann ich ein neues Programm schreiben, doppelt so performant, und brauche zur Umsetzung nur ein Viertel der Zeit. Das ist zum großen Teil meine Schuld, da ich unbedingt eigene geistige Leistung erbringen will anstatt in mich in der Bibliothek zu informieren, wie es Leute, die klüger sind, schon lange vor mir gelöst haben. Bei NV war die Sache so, dass sie nicht einfach gucken konnten wie man das CineFX-Featureset effizient in Hardware gießen kann.

Anstatt wie ATI beim R500 das Handtuch zu werfen und auf die Features zu sch..., blieb NV beim NV30 hart. Wie die Ingenieure angesichts der sich abzeichnen Leistung noch ruhig schlafen konnten, weiß ich nicht. Vermutlich rechneten sie damit, die FX12-Units mitnutzen zu dürfen. Die wurden wohl nicht umsonst von FX9 auf FX12 aufgebohrt.

Ich zweifle, dass der NV40 ohne den NV30 möglich gewesen wäre. Hätte NV den NV30 entwickeln sollen, aber nur als Vorbereitung für den NV40 und auf den Markt einen anderen Chip bringen, sowas wie GF4 Ti mit 8 Pipes (sollte ja lt. der Argumentation der R420-Fans im Forum eine gute Idee sein?)

Ja, stimmt. Hatte ich verdrängt :redface:
Ich stehe auf dem Standpunkt dass man, wenn man die Präzision schon erhöht, das, im eigenen Interesse (Die-Größe) und im Interesse derer die mit dieser Hardware arbeiten müssen, auch konsequent machen sollte.

1)Eigeninteresse:
Wenn die "Hochpräzisionseinheit" so schwach ist, dass die alte "Niedrigpräzisionseinheit" einige Teilaufgaben deutlich schneller erledigen kann, was ist dann sinnvoller?
a)Die "Hochpräzisionseinheit" so weit verbessern, dass sie die alte Lösung vollständig ersetzen kann
b)Beides einbauen, und darauf hoffen dass die "Hochpräzisionseinheit" möglichst selten benutzt wird

Was zahlenmäßig dabei herauskommt wenn man sich für a oder b entscheidet, habe ich bereits geschrieben.a) wurde dann ja im NV35 realisiert, wobei die DX8-PS-Leistung pro Pipe und Takt sogar leicht gesunken ist. Wir sind uns darüber einig, dass der Shadercore im NV30 große Designschwächen hat. Nicht einig scheinen wir uns darüber zu sein, wie dies zu erklären ist. NV musste auf FP32 setzen, schon weil die GeForce3 Tex-Ops mit FP32 machte und man beim NV30 Render to Vertexbuffer realisieren wollte. FP32-Units verballern im Vergleich mit FP24-Units eine Menge zusätzlicher Transistoren (und im Gegensatz zu ATI hat NV auch gleich noch halbwegs anständingen Inf- und NaN-Support eingebaut.) Hätte NV beim Beginn der NV30-Entwicklung die finale DX9-Spec gekannt, hätten sie den NV30 sehr wahrscheinlich trotz allem anders gebaut. Eine große Wahl hatten sie allerdings nicht. Oder hätte NV gleich FP32-Unit mit NV40-Effizienz (und NV30-Features) designen sollen? Das wäre etwas viel verlangt. Der NV30 hat zwar viele Transistoren für FP-Rechnungen und trotzdem sollte man diese nach Möglichkeit nur selten benutzen. Das ist unbefriedigend. Doch der Vergleich NV40 mit R420 zeigt ja, was es ATI gebracht hat, sich mit dem problemlos Machbaren zufriedenzugeben und (nach dem R200) Risiken zu scheuen.

Zu den Zeiten vom R300 und NV30 hat es keiner geschafft, FP32-Pixelshading bei "voller" Leistung zu bieten. Auch NV35 glänzt bei FP32-Leistung nicht. Erst mit dem NV40 sind die Designschwächen so weit reduziert, dass man (beinahe) von Fullspeed-FP32 reden kann. ATI bietet das bis heute nicht. Natürlich wäre es schön gewesen, wenn NV mehr in die NV30-Entwicklung gesteckt und den Shader-Core mindestens Dual-Issue-fähig gestaltet, und vielleicht auch das Registerfile doppelt so groß gemacht hätte. FP24-Units kamen für NV jedenfalls aus historischen Gründen nicht in Frage. Und beim Featureset dachte man durchaus voraus. Leider bringt das arbitrary swizzle wenig, wenn wegen irgendwelchen Kleinigkeiten die Pipeline stallt.

2)Entwicklerinteresse:
Jaja, man kann quasi alles ohne Qualitätsverlust mit FX12 rechnen. Nur keine Texturkoordinaten. Und keine dependency chains >=6 Instruktionen (wenn ich den voraussichtlichen Rundungsverlust pro Operation mit 0,5 Bit ansetze bin ich dann auf 8bpc-Framebuffer-Niveau). Und keine Rechnungen bei denen Zwischenergebnisse den Bereich [-1...1] verlassen könnten.
Du kommst hier schnell in Unwägbarkeiten. Schon lange schreibt niemand mehr die berühmten drei Shader pro Spiel und kann diese ausgiebig optimieren. Quasi jeder der mit SM2 arbytet benutzt in irgendeiner Form dynamisch zusammengestückelte Codefetzen mit mehreren hundert bis tausend möglichen Kombinationen.
Die einzigen mir bekannten Ausnahmen sind Doom 3 und diverse "Schau mal mein toller neuer Shader"-Techdemos.In DX9 darf man _PP-Rechnungen nur dann benutzen, wenn das Flag gesetzt ist. Soweit ich weiß, sind treiberseitige Entscheidungen in WHQL-Treibern verboten. Wäre das nicht so, und dürfte der Treiber nach Gutdünken sogar FX12 anwenden wenn es die Qualität (sogut wie) nicht beeinträchtigt, würde NV davon vermutlich Gebrauch machen. Mit FX12 darf man den [-1..1]-Bereich verlassen, das Format geht von [-2...1,996]. Tex-Ops macht schon eine GeForce3 mit FP32, der Treiber lässt es auch bei der FX nicht zu, dies mit FP16 zu machen.

Das dumme daran ist, dass das Durchoptimieren solcher Shader-Massen in Hinsicht auf Minimalpräzision pro Operation sehr sehr viel Zeit kostet, und umso ertragloser wird, in je mehr Shader die einzelnen Fetzen sich einfügen können sollen. Dann kann man noch anfangen, von den einzelnen Fetzen mehrere Versionen mit unterschiedlichen Präzisionen anzulegen, und je nachdem ob zB die Normale nur für PPL oder für env mapping gebraucht wird, diese mal mit FX12 und mal mit FP32 auszurechnen. Das macht einen riesen Spaß :|Gerade kürzere Shader, wo der NV30 noch genug Power für Echtzeitgrafik hat, wären aber teilweise optimierbar.
Von dieser Investition profitieren nur verkorkste Architekturen. Gäbe es keine solchen, bzw entschiede man sich dafür darauf zu pfeifen, könnte man sich das an die Backe schmieren.
Und "Performancesteigerung durch nicht sichtbare Qualitätsreduktion" ist eines der Lieblingsargumente von NV3x-Schönredern, wenn sie Schwierigkeiten haben den Bockmist zu erkennen den sie vor sich haben. Was soll mir das jetzt sagen?
*michselbstwiederhol*
Ich fänd's auch schöner, wenn der R300 bessere Texturfilter hätte.

Was ändert das am absoluten Wert der NV30-Architektur?Meinereiner spielt selbst heute kaum Spiele, die PS > 1.4 einsetzen, aber viele Spiele, die Texturen verwenden. Meiner Sicht nach hat ATI die "Performancesteigerung durch (meist) nicht sichtbare Qualitätsreduktion" gleich eingebaut. Man denke z. B. an die Alphablender, die falsch rechnen. Überall haben sie gespart. Warum dann nicht der GF FX zugestehen, dass sie beim PS wenn möglich mit FX12 rechnen sollte?

Vielleicht sollte man gewählte NV3x-Apologetiker einfach mal dazu zwingen, fünfzig mittellange Shader möglichst NV3x-freundlich zu machen. Dann wüssten sie aus erster Hand welche Arbeit das sein kann. Ich würde mal grob schätzen, dass wenn man den Stundenlohn harmlos bei 10€ ansetzt, man sicham Ende eine 6600GT kaufen kannst, und das Problem damit endgültig gelöst ist.Wieso wertvolle Manpower für Handoptimierung verschwenden? Die Leute die NVPerf geschrieben haben und entsprechende Kenntnisse zur Architektur besitzen müssen, könnte man abstellen, einen automatischen Shader-Optimierer zu schreiben. Es muss ja nicht gleich das Optimum gefunden werden. Mit einer Option, dass der Treiber nach eigenem Ermessen _PP und sogar FX12 einsetzen darf, würde eine solche Optimierung mehr Spielraum nach oben haben. NV hat sich beim NV30-Shadercore die Suppe eingebrockt und sollte sie dann auch auslöffeln. MS schiebt dem mit gewissen WHQL-Bestimmungen einen Riegel vor. Was ich von WHQL-Tests halte sollte deutlich werden, wenn man betrachtet dass die Radeon den Texturfiltertest besteht, der NV40 jedoch nicht. (Das wurde vermutlich schon geändert – seitens MS.)

Exakt.
Jein. Man sollte keine Shader mit mehr als 100 Instruktionen als praktisch relevant ansehen, wenn sich die Performance dadurch absehbar in den einstelligen fps-Bereich verdünnisiert.Sofern es um Echtzeit-Rendering, ja, und im wesentlichen reden wir über Echtzeitrendering.

"Echtem" Branching stehe ich skeptisch gegenüber, weil ich gelernt habe das effizienter zu lösen. AMD und Intel empfehlen seit vielen Jahren unisono, Branches überall wo es möglich ist zu vermeiden und durch Prädikation (emuliert oder echt) zu ersetzen. Und SM3 erlaubt jetzt "endlich" echtes Branching, auf Hardware die noch viel mehr Probleme damit hat als GP-Prozessoren. Find' ich echt toll, muss ich sofort benutzen :ugly:
Ich schon. Jawoll (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=797188#post797188).Soweit ich weiß, ist der Deto inzwischen so schlau, gewisse Branches eigenmächtig durch Prediction zu ersetzen. Echtes Branching für GPUs muss imo früher oder später kommen. Eine effiziente Implementierung wird entsprechend viele Transistoren kosten, dafür kann die Pixelshader-Power dann gezielter eingesetzt werden. Insgesamt sollte die Leistung pro Transistor steigen. Also immer her damit.

AMD und ganz besonders Intel kriegen es nicht hin, Branches gänzlich problemlos zu implementieren, so dass du empfiehlst, nach Möglichkeit darauf zu verzichten. Beim NV30 sollte man entsprechend FP-Pixelshader nur dort einsetzen, wo unbedingt nötig. Durch eine SW-Beschränkung namens DX9 darf die Hardware noch nicht mal seine ganze Stärke ausspielen, obwohl es gerade der NV30 nötig hätte.

SINCOS braucht man in der Tat ziemlich selten. Im PS höchstens mal für prozedurale Texturen, Rauschen und sowas. Ob man sich das auf NV3x überhaupt leisten kann, wäre dann die nächste Frage. Ansonsten eher garnicht. Im VS vielleicht öfter, je nachdem was man da so macht (Quaternionen interpolieren ahoi).

FP32 ist zum Brot backen sowieso zu wenig :ugly:Für den -2..2-Bereich (je X und Y) reichts locker :) für tiefe Vergrößerungen natürlich nicht.

Dass Dinge wie Sincos-Geschwindigkeit beim NV30 zu seinen Lebzeiten keine Rolle spielen hängt imo auch damit zusammen, dass ATI hier keine performante Lösung bietet. ATI war zuerst mit DX9-HW am Start und legte damit die Marschroute fest. MS haben sie dabei abtrotzen können, FP24 als Fullprecision zu tolerieren. Wäre MS hart geblieben, und ATI hätte das rechtzeitig gewusst, wie würde der R300 angesichts der größeren Transitorzahl aussehen?

Aqualon
2005-01-30, 00:24:48
Bitte ein wenig mehr Ernsthaftigkeit, Danke.

Aqua

urbi
2005-02-05, 16:57:02
Erinnert mich an die Geschichte mit der "7200" aka Radeon 64MB DDR und DX8. Nur halt umgekehrt. :)

Exxtreme
2005-02-05, 18:56:58
Sieh's mal so: Die Funktionseinheiten des nV40 laufen so, wie nV sie hinbekommen hätte, wäre man frühzeitig über die finale Entscheidung von MS in Sachen DX9 informiert gewesen.
Ob das nun an MS lag - das ist hier die Frage.

Fakt ist jedenfalls, daß man eine komplette Pipeline nicht in ein, zwei Monaten
umdesignen und zur Produktionsreife bringen kann. Was in extrem kurzer Zeit möglich war, hat nV vom nV30 zum nV35 geändert - da scheinen wir uns ja einig zu sein, daß es nicht viel geholfen hat. Was möglich wird, wenn man ein größeres Zeitfenster zur Verfügung hat, zeigt der nV43 - von dem du ja offensichtlich auch recht angetan zu sein scheinst.
Die NV3x-Serie hat ernsthafte Probleme mit FP-Shadern. Und daran hätte auch ein anderes DirectX9 nicht rütteln können und hätte die FP-Units auch nicht schneller gemacht. Deshalb liegt das nicht an MS sondern ausschliesslich an Nvidia. Und da die NV3x-Serie schlecht performt mit FP-Shadern, bleibt die einzige sinnvolle Möglichkeit zu optimieren, einfach FP-Shader möglichst NICHT zu nutzen. :) Und das tut HL2 sogar.

Demirug
2005-02-05, 19:51:06
Die NV3x-Serie hat ernsthafte Probleme mit FP-Shadern. Und daran hätte auch ein anderes DirectX9 nicht rütteln können und hätte die FP-Units auch nicht schneller gemacht. Deshalb liegt das nicht an MS sondern ausschliesslich an Nvidia. Und da die NV3x-Serie schlecht performt mit FP-Shadern, bleibt die einzige sinnvolle Möglichkeit zu optimieren, einfach FP-Shader möglichst NICHT zu nutzen. :) Und das tut HL2 sogar.

Ja, die schlechten FP Performance hat nVidia auf die Kappe zu nehmen. Man ging wohl einfach davon aus das man sie in dieser Generation noch nicht braucht und hat lieber auf mehr Festpunktleistung gesetzt.

Die DX Spec geht aber auf das Konto von MS. Und diese Spec ist es die es den Entwicklern nicht erlaubt das Optimum aus Genauigkeit und Performance zu erreichen. Wobei alleine die Möglichkeit zu solchen Optimierungen natürlich noch lange nicht bedeutet hätten das sie auch genutzt würden.

Quasar
2005-02-05, 20:08:53
Die NV3x-Serie hat ernsthafte Probleme mit FP-Shadern. Und daran hätte auch ein anderes DirectX9 nicht rütteln können und hätte die FP-Units auch nicht schneller gemacht.

Richtig. Nun, nV hat jetzt besser performende Shadereinheiten im nV43. Texelfüllrate auf dem Niveau der nV30 und >1.4-Shaderfüllrate weit darüber.

Warum wohl?
Richtig, sie fanden es toll, 18 Monate mit der Mittelklasse von ATi um die Balkenlänge ringen zu dürfen. ;(

Exxtreme
2005-02-05, 20:11:44
Richtig. Nun, nV hat jetzt besser performende Shadereinheiten im nV43. Texelfüllrate auf dem Niveau der nV30 und >1.4-Shaderfüllrate weit darüber.

Warum wohl?
Ich würde sagen, daß sie besser auf die FP-Performance optimiert haben als es beim NV3x der Fall war. Das hat aber reichlich wenig mit DirectX9 zu tun. ;)

Quasar
2005-02-05, 20:16:34
Eher mehr - denn nun stand ja fest, daß man für 2.0-Shader nicht auf die Fixpunkt-Einheiten zugreifen darf.

Exxtreme
2005-02-05, 20:20:37
Eher mehr - denn nun stand ja fest, daß man für 2.0-Shader nicht auf die Fixpunkt-Einheiten zugreifen darf.
Naja, Festkomma-Shader deckt ja DirectX8 schon reichlich ab, welches ja in DirectX9 komplett enthalten ist. Klar hätte man da noch einige Funktionen einbauen können für Passreduktion bei Festkomma-Shadern. Aber ich bezweifle, daß das den Kohl fett gemacht hätte.

Quasar
2005-02-05, 20:26:39
Nein, es geht darum, das man schlicht keine DX9-2.0-Shader schreiben kann, ohne auf FP-Genauigkeit zu verzichten.
Dazu müsste man wieder in DX8(.1)-Shader aufdröseln, obwohl die Shader in DX9 anscheinend viel komfortabler zu handhaben sind.

Demirug
2005-02-05, 21:02:28
Naja, Festkomma-Shader deckt ja DirectX8 schon reichlich ab, welches ja in DirectX9 komplett enthalten ist. Klar hätte man da noch einige Funktionen einbauen können für Passreduktion bei Festkomma-Shadern. Aber ich bezweifle, daß das den Kohl fett gemacht hätte.

Reichlich?

Finde ich absolute nicht. Die Längenbegrenzung sowie das Limit von maximal nur 6 Texturen ist mehr als hinderlich.

Passreduktion kann viel bringen vorallem wenn man dadurch Texturesamples spart. Man hätte da keine zusätzliche Funktionen einbauen müssen. Ein zusätzlicher Modifier (z.B _lp) für Low Precision hätte schon gereicht.

Ailuros
2005-02-06, 04:47:02
....und man hat Bildschärfung als neues 2D-Feature....

Entschuldigt das OT, aber was so besonders toll an dem oeden Ding sein soll kann ich nicht verstehen. Falls ein CRT zu matschig aussieht (wegen seinem Alter) dann wird es wohl Zeit dass man sich einen neuen Bildschirm beschafft.

Schon mit moderaten Einstellungen bekommt man stellenweise "text-ghosting".

Ich zweifle, dass der NV40 ohne den NV30 möglich gewesen wäre. Hätte NV den NV30 entwickeln sollen, aber nur als Vorbereitung für den NV40 und auf den Markt einen anderen Chip bringen, sowas wie GF4 Ti mit 8 Pipes (sollte ja lt. der Argumentation der R420-Fans im Forum eine gute Idee sein?)

Komische Logik; auf jeden Fall hatte der NV30 eben genau seine Schwaechen weil er zu viel von der vorigen Generation mitschleppte. Den theoretischen Quark (von den anderen) kann ich auch nicht verstehen; 8*2 mit 16GB/sec? Errrrrr....*hust*

Exxtreme
2005-02-06, 14:49:08
Passreduktion kann viel bringen vorallem wenn man dadurch Texturesamples spart. Man hätte da keine zusätzliche Funktionen einbauen müssen. Ein zusätzlicher Modifier (z.B _lp) für Low Precision hätte schon gereicht.
Naja, hier hat man wieder das Problem, daß die IHVs unterschiedliche Implementierungen haben bei den Festkomma-Formaten. ATi macht auf dem R300 alles mit FP24, Nvidia würde wohl ihre FX12-Units dafür nutzen. Bei längeren Shadern könnte man in Teufels Küche kommen wegen potenziellen Rundungsfehlern. Auf FX12-HW würden diese sehr viel früher in Erscheinung treten als auf FP24-HW was zum unterschiedlichen Output führen könnte.

Coda
2005-02-06, 14:56:58
Es ist niemals ein Problem mit mehr Präzission zu rechnen. Wenn der Shader mit FX12 gut aussieht wird er das mit FP24 erst recht tun.

Exxtreme
2005-02-06, 15:02:37
Es ist niemals ein Problem mit mehr Präzission zu rechnen. Wenn der Shader mit FX12 gut aussieht wird er das mit FP24 erst recht tun.
Ich weiss. Aber wenn ein Shader mit FP24 gut aussieht dann muss er es nicht mit FX12 tun.

StefanV
2005-02-06, 15:03:06
Und wie ist, swenn die nV Karten mit weniger rendern als sie eigentlich müssten und das Bild dann ziemlich schlecht ausschaut und es viele Fehler gibt, was würden die User dann dazu sagen? ;K)

Coda
2005-02-06, 15:26:06
Ich weiss. Aber wenn ein Shader mit FP24 gut aussieht dann muss er es nicht mit FX12 tun.Und? Es würden einen ja keiner zwingen das LP Flag zu benützen.

Und wie ist, swenn die nV Karten mit weniger rendern als sie eigentlich müssten und das Bild dann ziemlich schlecht ausschaut und es viele Fehler gibt, was würden die User dann dazu sagen?Doom 3 rendert auf NV30 alles mit FX12. Sieht es anders aus?

FX12 würde für sehr sehr viele Dinge reichen (z.B. das weitverbreitete specular Bumpmapping)

Demirug
2005-02-06, 15:29:04
Naja, hier hat man wieder das Problem, daß die IHVs unterschiedliche Implementierungen haben bei den Festkomma-Formaten. ATi macht auf dem R300 alles mit FP24, Nvidia würde wohl ihre FX12-Units dafür nutzen. Bei längeren Shadern könnte man in Teufels Küche kommen wegen potenziellen Rundungsfehlern. Auf FX12-HW würden diese sehr viel früher in Erscheinung treten als auf FP24-HW was zum unterschiedlichen Output führen könnte.

Solange für GPUs keine festen Format Und Rechen-Standards gültig sind ist das Ergebniss sowieso nie gleich. Nur die Anzahl der Bits ist da eine viel zu ungenaue Angabe.

Wenn für einen Effekt mehrer kurzen 1.1 Shader reichen dann würde auch ein langer "2.0" Shader mit Festkomma Teilen reichen. Da es sich ja um eine Option handeln würde liegt es in der Verwantwortung der Entwickler zu wissen wie viel Genauigkeit sie brauchen. In der alten DX Spec war das viel schlimmer. Nach dieser durfte noch der Treiber entscheiden. Dieser Satz wurde aber inzwischen gestrichen.

Narrenkönig
2005-02-06, 16:17:25
Wenn für einen Effekt mehrer kurzen 1.1 Shader reichen dann würde auch ein langer "2.0" Shader mit Festkomma Teilen reichen. Da es sich ja um eine Option handeln würde liegt es in der Verwantwortung der Entwickler zu wissen wie viel Genauigkeit sie brauchen.
Wissen sie das, tun sie es auch? Da wären wir wieder beim topic. Den während nV ihr Paradespiel D³ zwar optimiert hat, haben sie den Optimierungen auch für Radeon Karten nicht wiedersprochen. ATI hat das im umgekehrten Falle bei HL² wohl aber getan.

deekey777
2005-02-06, 16:29:48
Wissen sie das, tun sie es auch? Da wären wir wieder beim topic. Denn während nV ihr Paradespiel D³ zwar optimiert hat, haben sie den Optimierungen auch für Radeon Karten nicht widersprochen. ATI hat das im umgekehrten Falle bei HL² wohl aber getan.


nVidia hat Doom 3 nicht programmiert, genauso wie ATi Half-Life 2 nicht programmiert hat.
Dennoch verstehe ich nicht, was du meinst.

Gasst
2005-02-06, 16:41:26
Ich weiss. Aber wenn ein Shader mit FP24 gut aussieht dann muss er es nicht mit FX12 tun.


Die Frage stellt sich aber nicht, denn man wird den Shader ja zuerst als FX12 Version entwickeln und dann sieht man ja ob er das gewünscht Ergebnis bringt. Wenn nicht muss man halt mit mehr Präzision ran.

Demirug
2005-02-06, 16:42:36
nVidia hat Doom 3 nicht programmiert, genauso wie ATi Half-Life 2 nicht programmiert hat.

Sie waren aber jeweils sehr aktiv an der Entwicklung beteiligt.

aths
2005-02-06, 17:24:25
Ich würde sagen, daß sie besser auf die FP-Performance optimiert haben als es beim NV3x der Fall war. Das hat aber reichlich wenig mit DirectX9 zu tun. ;)Glaube ich schon. FX-Formate sind ganz rausgeflogen. Bei dem Beginn der NV40-Entwicklung war klar, dass FX-Rechenleistung in Shadern >=PS2.0 einen sch... zählt. Das war bei Beginn der Entwicklung vom NV30 alles andere als klar.

Wenn man in einem Pixelshader mehrere Lichtquellen in einem Pass rendern möchte, wäre es wenig problematisch, bestimmte "einfache" Lichtanteile nur mit FX12-Genauigkeit zu berechnen.

deekey777
2005-02-06, 17:51:06
Sie waren aber jeweils sehr aktiv an der Entwicklung beteiligt.


Das ist schon klar. Aber die Unterstellung, daß ATi im Fall HL2 verhinderte, daß nVidia besser in HL2 aussieht, nervt. Die Grünen dagegen waren so gütig und erlaubten id bzw. ATi in Doom 3 Optimierungen für die Radeons einzubauen* - so habe ich das von mir zitierte Posting verstanden.



*Was auch nicht richtig ist.

Exxtreme
2005-02-06, 18:19:00
Wenn man in einem Pixelshader mehrere Lichtquellen in einem Pass rendern möchte, wäre es wenig problematisch, bestimmte "einfache" Lichtanteile nur mit FX12-Genauigkeit zu berechnen.
OK, sehe ich ein. Die Frage ist jetzt wiederum ob das das Kohl fett gemacht hätte auf einem NV3x? Und so wie es aussieht, setzen die Spiele-Produzenten selbst die _pp-Hints sehr spärlich ein. Ob das mit den imaginären _lp-Hints besser ausgesehen hätte? MAcht ja mehr Testaufwand weil man genauer prüfen muss ob die Genauigkeit noch reicht.

Coda
2005-02-06, 18:22:19
Naja sie setzen PP sehr spärlich ein, weil das auch nix mehr rausreißt auf NV30 ;)

aths
2005-02-06, 18:36:56
OK, sehe ich ein. Die Frage ist jetzt wiederum ob das das Kohl fett gemacht hätte auf einem NV3x? Und so wie es aussieht, setzen die Spiele-Produzenten selbst die _pp-Hints sehr spärlich ein. Ob das mit den imaginären _lp-Hints besser ausgesehen hätte? MAcht ja mehr Testaufwand weil man genauer prüfen muss ob die Genauigkeit noch reicht.Naja, was haben wir heute so an Beleuchtung? Diffuses und speculares Bumpmapping. Fürs erste reicht FX12 garantiert, fürs zweite "oft". Lichtquellen werden ja addiert, zuletzt hat man gerade mal FX8-Genauigkeit. Beim normalen Bumpmapping kann man fast den gesamten Shader in FX12-Genauigkeit halten.

Gast
2005-05-26, 20:03:41
Seit wann sind denn PS1.x unter DX9 verboten?

Quasar
2005-05-26, 20:10:10
Sind sie nicht, aber Festkomma (FX12) in 2.0-Shadern ist nicht genehm. Und die Sache mit den Kosten, dem Aufwand und den bösen Entwicklern, die gleiche "Gekauft" sind, wenn sie mal entscheiden, aus irgendwelchen Gründen einen Shaderpfad nicht anzubieten, kennt man ja schon.