PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Crysis und Nvidia - Anlass zur Freude oder zur Sorge


Armaq
2007-03-20, 21:28:04
http://www.computerbase.de/news/software/spiele/actionspiele/2007/maerz/crysis-grafik_nvidia/


Kurzum: Wir kennen diese Art von Unterstützung schon von HL2, aber ich Frage mich ernsthaft, ob wir als Spieler davon in Zukunft profitieren, oder an Entscheidungsfreiheit einbüßen?

Super Grobi
2007-03-20, 21:33:31
NVler können sich freuen, Atiler werden bei dem Release auf gescheite Treiber hoffen müssen und werden denoch etwas hinter NV hinterher hinken.

SG

Blaire
2007-03-20, 21:35:57
Grund könnte sein das Ati bislang keine DX10 Karten am Start hat.

dildo4u
2007-03-20, 21:36:01
Tja ATI ist selber schuld wenn sie nicht rechtzeitig Lauffähige DX10 Hardware auf den Markt bringen ist doch klar das jetzt alle "DX10 Shader" auf Nvidia Hardware geschrieben werden müssen oder willst du das das Game 2008 kommt?

VooDoo7mx
2007-03-20, 21:46:02
Tja ATI ist selber schuld wenn sie nicht rechtzeitig Lauffähige DX10 Hardware auf den Markt bringen ist doch klar das jetzt alle "DX10 Shader" auf Nvidia Hardware geschrieben werden müssen oder willst du das das Game 2008 kommt?

So siehts aus.

Entickler hatten schon Monate vor dem Launch im November Geforce 8 Boards um darauf zu entwickeln.

Nur weil AMD/ATi trödelt wird sicher nicht die Entwicklung stehen bleiben.

Gast
2007-03-20, 21:50:00
Marketing bla, genau wie HL2 und seine DX10 "Spezialisierung" für R600. Da glaubt doch keiner mehr dran, oder?
Farcry und HL2 sind ja auch immer wieder in den Medien gewesen, Unterstützung hier, Tweak dort. Und am ende rennt es auf allen Karten gut. Da weicht nix ab vom generellen "Performance Profil" (Querschnitt einiger Spiele Benches im Vergleich zu anderen Grakas) einer Grafikkarte nur weil "Developed on AMD/NV" drauf steht.
Und selbst wenn nach 1 Monat wurde ein "Bug" im Treiber oder ein "Tweak" im Spiel durchgeführt und ein Performance Loch wird behoben.

Games und Engines wollen verkauft werden, da macht nicht 50% des Marktes ans Bein ;)

Armaq
2007-03-20, 21:54:51
Marketing bla, genau wie HL2 und seine DX10 "Spezialisierung" für R600. Da glaubt doch keiner mehr dran, oder?
Farcry und HL2 sind ja auch immer wieder in den Medien gewesen, Unterstützung hier, Tweak dort. Und am ende rennt es auf allen Karten gut. Da weicht nix ab vom generellen "Performance Profil" (Querschnitt einiger Spiele Benches im Vergleich zu anderen Grakas) einer Grafikkarte nur weil "Developed on AMD/NV" drauf steht.
Und selbst wenn nach 1 Monat wurde ein "Bug" im Treiber oder ein "Tweak" im Spiel durchgeführt und ein Performance Loch wird behoben.

Games und Engines wollen verkauft werden, da macht nicht 50% des Marktes ans Bein ;)

Bis jetzt. Nvidia will auch Grafikkarten verkaufen und wenn ein Blockbuster einen Kaufgrund für eine Konsole bildet, warum dann nicht für eine neue Grafikkarte?
Imho zu kurzsichtig gedacht. Entwicklungskosten lassen sich so auch super puffern.

Modellbeispiel - du optimierst dein Spiel auf meine 9600GTS und ich lasse dich am Verkauf teilhaben.

deekey777
2007-03-20, 22:55:49
Ich hab im R600-Thread was dazu geschrieben:
Es gibt da einen interessanten Gedankengang.
Zunächst hieß es, dass der R600 bei GS potenter ist als der G80 (Aussage eines FSX-Entwicklers). Vor einigen Tagen kam die Meldung, dass ATi sehr eng mit einem Spieleentwickler arbeitet. VALVe ist es nicht, Digitimes hat berichtet, dass der R600 mit zwei Spielen gebundelt wird: Call of Juarez und Just Cause. Beide Spiele bekommen einen D3D10-Pfad. ATi/AMD muss sich so ziemlich sicher sein, dass D3D10 deren Vorteil ist.

Der R600 wird mit zwei D3D10-Titeln starten, diese Meldung ist für mich nur eine Gegenreaktion auf die News von Digitimes. Crysis hat immernoch kein Releasedate, sondern ein Versprechen, dass es dieses Jahr erscheint.
Marketing bla, genau wie HL2 und seine DX10 "Spezialisierung" für R600. Da glaubt doch keiner mehr dran, oder?

Das wäre mir neu.
Tja ATI ist selber schuld wenn sie nicht rechtzeitig Lauffähige DX10 Hardware auf den Markt bringen ist doch klar das jetzt alle "DX10 Shader" auf Nvidia Hardware geschrieben werden müssen oder willst du das das Game 2008 kommt?
So ein Quark: Crytek hat schon länger einen R600-Prototypen (die mit 400-500 MHz und höllisch heiß).

Die zwei zusätzlichen Programmierer sind bei Crytek vor allem für die Implementierung einiger Shader-Programme unter DirectX 10 verantwortlich, die das Spielgeschehen realistischer aussehen lassen sollen. nVidia stellte die Unterstützung dabei im Rahmen der hauseigenen „The way it's meant to be played“-Kampagne (TWIMTBP) unentgeltlich zur Verfügung. Man habe zum Ziel, dass möglichst schnell Spiele auf dem Markt erscheinen, die die optischen Vorteile der neuen Generation der Grafikschnittstelle demonstrieren könnten und somit auch Nutzen aus dem aktuellen Grafikkarten-Portfolio ziehen, das DirectX 10-fähig ist.
Schonml daran gedacht, dass die Typen den Shader-Code insoweit optimieren, damit der G80 ausgereizt wird? Man nehme an, die vermisste MUL taucht doch auf, nur bringt sie nur dann Leistung, wenn der Code die zusätzliche MUL-Leistung auch nutzt. Dem R600 ist es egal, denn seine "5D"-ALUs können 4*MADDs+1*MADD.

€dit: Bei der ganzen Grün-vs-Rot-Sache ist das Wichtigste vergessen worden: Mit den beiden Programmierern an der Seite kann man erwarten, dass wir mindestens einen sauberen D3D10-Pfad bekommen. Und davon können wir als Consuner nur profitieren. :)

=Floi=
2007-03-20, 23:48:54
ich hatte es schon mal hier geschrieben
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5314090#post5314090
und nun werde ich bestätigt
x-isle war eben schon damals eine schöne NV demo und bei far cry war es dann auch nicht auf NV only

und noch was zu CB news
zitat
Die Mitarbeit nVidias an dem DirectX-10-Titel soll nicht zur Folge haben, dass Grafikkarten der Konkurrenz später benachteiligt würden. Etwaige Vermutungen in dieser Richtung kommentierte bereits ein AMD-Mitarbeiter, der anmerkte, dass Crysis auch auf R600- Grafikkarten seine Directx-10-Funktionen ausspielen könne.

damit wäre wohl schon alles gesagt und die ganze skepsis kann getrost begraben werden damit bekommen wir noch bessere grafik die die karten richtig auslastet
kein schlecht programmiertes game welches leistung zieht und nichts bei rum kommt

Spasstiger
2007-03-20, 23:51:27
@=Floi=: Es ist auch gar nicht möglich, D3D10-Routinen einzubauen, die auf manchen DX10-Karten nicht laufen. Caps wurden mit D3D10 abgeschafft.
Es ist aber möglich, dass NV die D3D10-Routinen performancemäßig auf ihre eigene Hardware optimiert. Das muss aber auch nicht zwangsweise heißen, dass der R600 dadurch im Nachteil ist.

deekey777
2007-03-20, 23:57:30
Der R600 kann aufgrund seiner möglichen Architektur (Vec4+1-ALUs) im Nachteil sein, wo der G80 aufgrund seiner skalaren Architektur im Vorteil ist.

Gast
2007-03-21, 09:16:12
Marketing bla, genau wie HL2 und seine DX10 "Spezialisierung" für R600. Da glaubt doch keiner mehr dran, oder?
Farcry und HL2 sind ja auch immer wieder in den Medien gewesen, Unterstützung hier, Tweak dort. Und am ende rennt es auf allen Karten gut. Da weicht nix ab vom generellen "Performance Profil" (Querschnitt einiger Spiele Benches im Vergleich zu anderen Grakas) einer Grafikkarte nur weil "Developed on AMD/NV" drauf steht.
Und selbst wenn nach 1 Monat wurde ein "Bug" im Treiber oder ein "Tweak" im Spiel durchgeführt und ein Performance Loch wird behoben.

Games und Engines wollen verkauft werden, da macht nicht 50% des Marktes ans Bein ;)

Sehe ich ganz ähnlich! Das sind z.Z. mMn noch diskussionunwürdige Peanuts.
Viel schlimmer finde ich den Einfluß von MS auf den Spielemarkt - einige Games erscheinen doch aufgrund des Drucks von MS nur noch für MS-Produkte (XP/Vista/Xbox360). Dort kündigt sich ein neues MS-Monopol an...

Lawmachine79
2007-03-21, 09:46:35
. Da glaubt doch keiner mehr dran, oder?
Farcry und HL2 sind ja auch immer wieder in den Medien gewesen, Unterstützung hier, Tweak dort. Und am ende rennt es auf allen Karten gut.

Das läuft mit Sicherheit nicht auf allen Karten gut. Zu HL2 Zeiten waren R3xx und Nv3x aktuell. Und in HL2 liegen Welten zwischen beiden Karten, zu Gunsten der ATI...

PCGH_Carsten
2007-03-21, 09:59:17
Der R600 kann aufgrund seiner möglichen Architektur (Vec4+1-ALUs) im Nachteil sein, wo der G80 aufgrund seiner skalaren Architektur im Vorteil ist.
Der R600 kann ebensogut im Vorteil sein, wenn viele Vec3 und höher Berechnungen nötig sind und eher wenige Vec2- oder gar Skalar-Ops sowie Texturfetches.

Der GS spielt dann wohl auch eine Rolle - und da soll R600 lt. dem FSX-Menschen ja deutlich vorn sein.

dargo
2007-03-21, 10:02:10
Und in HL2 liegen Welten zwischen beiden Karten, zu Gunsten der ATI...
Das lag aber eher am schwachen NV3x. ;)

MartinRiggs
2007-03-21, 10:02:42
Das läuft mit Sicherheit nicht auf allen Karten gut. Zu HL2 Zeiten waren R3xx und Nv3x aktuell. Und in HL2 liegen Welten zwischen beiden Karten, zu Gunsten der ATI...

das lag aber wohl eher daran das der NV3 generell ne Gurke war nicht nur in HL2

Edit: 2 doofe ein Gedanke:smile:

Erinnere mich auch daran das es schon öfter Spiele mit den NV-Logo gab die auf ATIs trotzdem besser liefen

Cubitus
2007-03-21, 10:05:46
fast alle The way it's meant to be played“ Spiele bieten einen hervorragenden SLI Support. Sehr gut:D

Gast
2007-03-21, 10:11:16
Spiele bieten überhaupt keinen SLI-Support und müssen das auch gar nicht. Einzig und allein die Profile im NV-Treiber (die man übrigens auch wunderbar selbst erstellen kann mit dem Nhancer) sind dafür verantwortlich ob und wie gut SLI läuft. Aber das weißt du ja sicher selbst. ;)

Cubitus
2007-03-21, 10:14:01
Sicher, aber wozu soll ich ein Profil erstellen, wenn im nächsten NV-Treiber schon ein optimales Crysis Profil vorhanden ist;)

PCGH_Carsten
2007-03-21, 10:18:43
Spiele bieten überhaupt keinen SLI-Support und müssen das auch gar nicht.
Stimmt, aber du kannst über Entwicklerprogramme darauf Einfluß nehmen, dass der Dev keine Performance-Killer für Multi-GPU-Systeme einbaut (Framebuffer-Readback für HDR- ja, sowas gibt's). Und wenn diese fehlen, läuft SLI oder Crossfire meist schon recht anständig.

Winter[Raven]
2007-03-21, 10:20:47
Was macht ihr euch sorgen? Es ist in der heutigen Entwicklung vollkommen normal, dass die Spieleprogrammierer bei den NV || ATI anfragen wenn es Probleme oder Wünsche gibt. Wobei der Gamedev Support von NV natürlich anderes ist als bei ATi ... positiv :)

PCGH_Carsten
2007-03-21, 10:36:25
;5343192'] Wobei der Gamedev Support von NV natürlich anderes ist als bei ATi ... positiv :)
Der von Ati ist nicht positiv? So ein Unfug...

Winter[Raven]
2007-03-21, 10:50:22
@ Carsten,

man kann drüber streiten, aber der Dev Support war und ist bis jetzt die stärke von NV.

Ich habe ja nicht gesagt ATI's Support wäre schlecht oder komplett für die Tonne ... ;)

Gast
2007-03-21, 11:05:07
Viel schlimmer finde ich den Einfluß von MS auf den Spielemarkt - einige Games erscheinen doch aufgrund des Drucks von MS nur noch für MS-Produkte (XP/Vista/Xbox360). Dort kündigt sich ein neues MS-Monopol an...
Wenn in der Industrie der Wert einer Firma beziffert wird, als der Verlust für den Konkurrenten im Kampf zwischen Sony und MS, ist das doch nicht verwunderlich.
Hoffen wir mal das die Gerüchte über Epic, die man auf der GDC gehört hat, nicht stimmen. :(

Gast
2007-03-21, 11:26:04
Wenn in der Industrie der Wert einer Firma beziffert wird, als der Verlust für den Konkurrenten im Kampf zwischen Sony und MS, ist das doch nicht verwunderlich.
Hoffen wir mal das die Gerüchte über Epic, die man auf der GDC gehört hat, nicht stimmen. :(

welches, das sie bald ganz auf konsolen umschwenken?
®

MuLuNGuS
2007-03-21, 11:26:49
oops,

ich war's.
®

PCGH_Carsten
2007-03-21, 12:13:49
;5343263']@ Carsten,

man kann drüber streiten, aber der Dev Support war und ist bis jetzt die stärke von NV.

Ich habe ja nicht gesagt ATI's Support wäre schlecht oder komplett für die Tonne ... ;)
Ich habe den Eindruck, das der bisher bleibendste Eindruck derjenige von HL2 war - natürlich lag das auch mit an der schwachen FP-Shader-Performance des NV3x.

deekey777
2007-03-21, 12:52:35
Ich habe den Eindruck, das der bisher bleibendste Eindruck derjenige von HL2 war - natürlich lag das auch mit an der schwachen FP-Shader-Performance des NV3x.
Den bleibendsten Eindruck hinterließ wohl der Patch 1.4 für Splinter Cell 3. :wink: :biggrin:
Der R600 kann ebensogut im Vorteil sein, wenn viele Vec3 und höher Berechnungen nötig sind und eher wenige Vec2- oder gar Skalar-Ops sowie Texturfetches.

Der GS spielt dann wohl auch eine Rolle - und da soll R600 lt. dem FSX-Menschen ja deutlich vorn sein.
Das wird sich noch zeigen müssen, denn der G80 hat seine 8 Cluster (8*8+8 oder so) mit sehr hohem Takt, der R600 seine 64 5D-ALUs, allerdings auch mit sehr hohem Takt (800 MHz des R600 > 1.35 GHz des G80).

Trixter
2007-03-21, 12:55:25
Den bleibendsten Eindruck hinterließ wohl der Patch 1.4 für Splinter Cell 3. :wink: :biggrin:


was meinst du damit?

Winter[Raven]
2007-03-21, 13:02:27
Ubisoft hatte darauf verzichtet die 2.0 shader einzubauen, also hat sich ATI hingesetzt und die 3.0 auf 2.0 umgeschrieben.

War da nicht so etwas?

PCGH_Carsten
2007-03-21, 13:04:19
Den bleibendsten Eindruck hinterließ wohl der Patch 1.4 für Splinter Cell 3. :wink: :biggrin:
Ich glaube nicht, dass sich SC3 edit: für den PC auch nur annähernd so gut verkauft hat wie HL2 und Derivate.

Mr. Lolman
2007-03-21, 13:05:08
;5343657']Ubisoft hatte darauf verzichtet die 2.0 shader einzubauen, also hat sich ATI hingesetzt und die 3.0 auf 2.0 umgeschrieben.

War da nicht so etwas?

Genau. Und dass dann R420 Karten mit dem SM2.0 Patch bei nur minimal anderer Optik viel flotter war, als NV40 mit SM3.0...

deekey777
2007-03-21, 13:09:53
was meinst du damit?
ATi hat den Entwicklern die Arbeit abgenommen und einen SM2.0-Pfad für SC3 geschrieben, der mit dem Patch 1.4 veröffentlich wurde.
Da stellen sich aber einige Fragen: Dass SC3 "ab Werk" keine Unterstützung für SM 2.0 haben wird, war spätestens im Februar 2005 klar (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=206525). Die Gründe dafür sind im Thread nachzulesen. Die Reaktion von ATi war, dass deren PR-Abteilung gepennt hätte.
Mitte Juni gab's dann eine offzielle Aussage von ATi in der c't:
*push*
Habe den Thread beinahe nicht gefunden - der letze Post ist schon 100 Tage alt...

Aus der c't 13/ Seite 113:
"... ATi ließ uns wissen, dass man dem Entwickler ubisoft bereits entsprechende 2.0-Shader zur Verfügung gestellt habe und dass eventuell bald ein Patch für SC: CT erscheint, der auch auf ATi-Karten die Grafik aufpeppen soll."

Klingt interessant...
Der Patch kam dann Anfang August: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3333054#post3333054
Warum der SM2.0-Pfad dem Spiel nicht von Anfang an beilag, ist nicht ganz klar. ATi muss dies gewußt haben, denn SC3 ist ein AAA-Titel. Es wäre denkbar, dass es einfach viel Zeit in Anspruch genommen hat (man kann ja nicht alles liegen lassen und alle Resourcen dafür aufwenden).
Für Halo (PC) hat dagegen NV die gesamten DX9-Shader geschrieben, die auf ihrer HW auch optimal waren.
Ich glaube nicht, dass sich SC3 edit: für den PC auch nur annähernd so gut verkauft hat wie HL2 und Derivate.
Nur war es eine Riesenklatsche, dass die SM2-Unterstützung erst nach der Veröffentlichung des Spiels integriert wurde.

PCGH_Carsten
2007-03-21, 13:16:11
Genau. Und dass dann R420 Karten mit dem SM2.0 Patch bei nur minimal anderer Optik viel flotter war, als NV40 mit SM3.0...
[Meine Hervorhebung]
Ist es nicht genau das, worum es eigentlich geht? Manchmal wird die Optik "minimal anders", ein anderes Mal wird dagegen gecheatet.

Ich erinnere mal an die FX10 vs. FP16 vs. FP2 Diskussionen - jetzt dasselbe bei INT10-10-10-2 vs. FP16.


Nur war es eine Riesenklatsche, dass die SM2-Unterstützung erst nach der Veröffentlichung des Spiels integriert wurde.
Eigentlich meinte ich das HL2-Beispiel als positiven Eindruck, den gezielter Dev-Support bei wenigen Top-Titeln durchaus bewirken kann; besonders wenn die Architektur sich ansonsten keine dem Verbraucher offensichtlichen Schwächen erlaubt.

Mr. Lolman
2007-03-21, 13:17:57
[Meine Hervorhebung]
Ist es nicht genau das, worum es eigentlich geht? Manchmal wird die Optik "minimal anders", ein anderes Mal wird dagegen gecheatet.

Ich erinnere mal an die FX10 vs. FP16 vs. FP2 Diskussionen - jetzt dasselbe bei INT10-10-10-2 vs. FP16.

Hm. Eigentlich hast du recht. Aber von einem Cheat kann man da imo nicht sprechen, da die Optik immerhin deutlich besser war, als mit SM1.1 und es für SM2-Karten einfach keine andere Möglichkeit gab.

- jetzt dasselbe bei INT10-10-10-2 vs. FP16.

Gibts da irgendwo sichtbare Unterschiede?

deekey777
2007-03-21, 13:27:56
Gibt es ausreichend Spiele, die 1010102 und FP16-Formate verwenden, um diese Aussage mit Ja oder Nein zu beantworten?
Da ist eigentlich nur AoE 3.
http://www.behardware.com/articles/644-18/nvidia-geforce-8800-gtx-8800-gts.html
Ich erinnere mal an die FX10 vs. FP16 vs. FP2 Diskussionen - jetzt dasselbe bei INT10-10-10-2 vs. FP16.

Fehlt da eine Zahl?
Ich freue mich schon auf die Diskussion FP24 vs. FP32 (nee, halt, die gab's schonmal wegen eines Statemnts von einem Epic-Mitarbeiter).


Interessant ist: FEAR und Condemned verwenden die gleiche Engine. FEAR geht über SM 2.0 nicht hinaus, aber nutzt Partial-Precision, wenn diese ausreichend ist. In Condemned wird auf PP verzichtet, dafür wird gar das 2.B-Profil verwendet.

PCGH_Carsten
2007-03-21, 13:32:15
Gibt es ausreichend Spiele, die 1010102 und FP16-Formate verwenden, um diese Aussage mit Ja oder Nein zu beantworten?
Da ist eigentlich nur AoE 3.
http://www.behardware.com/articles/644-18/nvidia-geforce-8800-gtx-8800-gts.html
Richtig - und da sieht FP16-HDR von der Darstellung her besser aus, INT10 dagegen gewinnt, weil hier kein OGSSAA sondern normales RGMSAA zum Einsatz kommt (AoE3 hat kaum Oberflächen, die stark von SS profitieren).

Prinzipiell hat FP16 natürlich deutliche Vorteile - diese werden halt je nach Content mal mehr und mal weniger stark sichtbar. Zudem beherrschen es die (echten) X1K-Karten ja ebenfalls.

Trixter
2007-03-21, 13:37:43
also die perfo auf eine x850xt war sehr gut bei CT

Tigerchen
2007-03-21, 14:54:05
Tja ATI ist selber schuld wenn sie nicht rechtzeitig Lauffähige DX10 Hardware auf den Markt bringen ist doch klar das jetzt alle "DX10 Shader" auf Nvidia Hardware geschrieben werden müssen oder willst du das das Game 2008 kommt?

ATI war noch nie darauf angewiesen daß Spiele auf ihrer Hardware entwickelt werden. Grad mal bei Doom 3 gabs da eine zeitlang Vorteile für nV. Umgekehrt sieht es schon anders aus.

Nakai
2007-03-21, 14:55:50
Imho werden sehr wenige Spiele auf ATI-Hardware entwicklet, naja trotzdem ist ATI in der letzten Gen besser dran gewesen...;)

mfg Nakai

Tigerchen
2007-03-21, 14:58:52
Der R600 kann aufgrund seiner möglichen Architektur (Vec4+1-ALUs) im Nachteil sein, wo der G80 aufgrund seiner skalaren Architektur im Vorteil ist.

Solche angenommenen Vorteile wurden auch immer wieder für den nV3x herbeigeredet. Die Wahrheit sah dann etwas anders aus.

PCGH_Carsten
2007-03-21, 15:04:14
[COLOR="#000099"]
ATI war noch nie darauf angewiesen daß Spiele auf ihrer Hardware entwickelt werden.
Richtig, Ati-Karten fressen überwiegend auch unoptimierten Shader-Code gut. Allerdings kostete sie das zuletzt rund 50% zusätzliche Transistoren. Je nach Produktionsvolumen könnte da eine gut funktionierende Dev-Rel sich schon lohnen. ;)

Gast
2007-03-21, 15:09:03
NV4x und G8x fressen auch unoptimierten Shadercode.

Eigentlich müsste man sogar eher auf ATI optimieren, denn da kann man TEX-Fetches hinter ALU-Zeug versteecken. Bei nVIDIA laufen die TEX-Fetches immer seriell, also spielt die Reihenfolge keine Rolle.

Gut, die Temps waren bei NV4x immer noch etwas mager vorhanden, aber das kann der Compiler auch sehr gut auflösen.

Bei G8x ist mir bisher noch nichts aufgefallen was das Ding nicht schnell fressen würde. Die skalaren Einheiten zusammen mit der entkoppelten Textureinheiten laufen eigentlich immer am Rande des möglichen Maximum.

deekey777
2007-03-21, 17:47:15
Solche angenommenen Vorteile wurden auch immer wieder für den nV3x herbeigeredet. Die Wahrheit sah dann etwas anders aus.

Nur ist der NV30 irgendwo in der untersten Schublade der Geschichte und soll auch dort bleiben.
Und nein: Das sind keine angenommenen Vorteile, sondern tatsächliche. Lies dir mal den einen oder anderen Artikel zum G80 durch.:)

PCGH_Carsten
2007-03-21, 18:41:16
NV4x und G8x fressen auch unoptimierten Shadercode.
...gut? Bei G80 sicherlich, Nv4x braucht da schon ein bißchen Rücksicht auf die wenigen Temps und die Pipeline-Stalls (sowie auf den manchmal subtoptimalen Early-Z), damit die Rechenkraft nicht daniederliegt.

Eigentlich müsste man sogar eher auf ATI optimieren, denn da kann man TEX-Fetches hinter ALU-Zeug versteecken. Bei nVIDIA laufen die TEX-Fetches immer seriell, also spielt die Reihenfolge keine Rolle.
Ok, ich stelle also alle 40 Tex-Fetches, die ich in meinem Shader habe an den Anfang und speichere die Resultate in Registern ab.
Dann warte ich eine Weile und wenn dann alles da ist, fangen meine ALUs an zu rechnen - und haben dann kaum noch Platz, um ihre Ergebnisse abzuspeichern. Toll.

Gut, die Temps waren bei NV4x immer noch etwas mager vorhanden, aber das kann der Compiler auch sehr gut auflösen.
[russischer Akzent]Wenn errrr tott ist, ist errr tottt[/Akzent]

Bei G8x ist mir bisher noch nichts aufgefallen was das Ding nicht schnell fressen würde. Die skalaren Einheiten zusammen mit der entkoppelten Textureinheiten laufen eigentlich immer am Rande des möglichen Maximum.
Beim G80 auf jeden Fall - obwohl es da sicherlich auch noch Fallen gibt, vermute ich. Aber eigentlich war die Rede von vergangenen Dingen und Dev-Rel.

Tigerchen
2007-03-21, 18:56:46
Nur ist der NV30 irgendwo in der untersten Schublade der Geschichte und soll auch dort bleiben.
Und nein: Das sind keine angenommenen Vorteile, sondern tatsächliche. Lies dir mal den einen oder anderen Artikel zum G80 durch.:)


Obs so ist wird sich zeigen wenn die wirklich anspruchsvollen Spiele da sind. Vorher hat es schon zu oft sehr, sehr gut für nV ausgesehen. Ich will den G80 nicht schlecht reden. Ein Topprodukt! Aber bleibt trotzdem ein bißchen auf dem Teppich.

reunion
2007-03-21, 19:22:15
Bei G8x ist mir bisher noch nichts aufgefallen was das Ding nicht schnell fressen würde.

Im Vergleich zu was? Solange die Konkurrenz noch nicht mal am Markt ist, sollte das eigentlich eine Selbstverständlichkeit sein. Auch wenn es nicht ganz passt, aber was mir zB aufgefallen ist, ist, dass dB immer noch nicht die große Stärke des G80 zu sein scheint. G80 liegt im synthetischen Shadertests fast immer mindestens um Faktor 2 vor R580, sobald dB eingesetzt wird, schrumpft dieser Abstand meist signifikant.

Ich bin jedenfalls schon gespannt, wie es mit den D3D10-Einheiten des G80 aussehen wird, ältere Tech-Level hatte nV mit einer neuen Generation eigentlich immer sehr gut und schnell unterstützt. ATi wird jedenfalls nicht ohne Grund D3D10-Games pushen, und die Aussagen des FSX-Menschen schlagen ja in dieselbe Kerbe.

Gast
2007-03-21, 19:54:45
Ok, ich stelle also alle 40 Tex-Fetches, die ich in meinem Shader habe an den Anfang und speichere die Resultate in Registern ab.
Dann warte ich eine Weile und wenn dann alles da ist, fangen meine ALUs an zu rechnen - und haben dann kaum noch Platz, um ihre Ergebnisse abzuspeichern. Toll.
Glaubst du ernsthaft, darauf hätte man groß Einfluss?
Der Compiler ordnert das Zeugs so um, dass die Register sinnvoll genutzt werden und wenige Stalls auftreten

Armaq
2007-03-21, 20:24:56
Eine Kosten/Nutzen-Analyse ist hier wohl angebracht. Kostet ein Programm a là Nvidia mehr, oder mehr Transistoren und Takt a là Ati?

Spasstiger
2007-03-21, 20:40:38
Das läuft mit Sicherheit nicht auf allen Karten gut. Zu HL2 Zeiten waren R3xx und Nv3x aktuell. Und in HL2 liegen Welten zwischen beiden Karten, zu Gunsten der ATI...
Also HL2 zeigt kein außergewöhnliches Verhalten, was nicht auch in anderen Spielen so wäre. Dass HL2 als ATI-Spiel abgestempelt wurde, lag nur an der schwachen GeForce FX und daran, dass HL2 das meistgehypte DX9-Spiel überhaupt war. Bei Oblivion kackt der NV30 gegenüber dem R300 noch deutlich stärker ab als in HL2. Trotzdem bezeichnet niemand Oblivion als ATI-Spiel (Oblivion liegt den GeForce-8-Karten sehr gut, teils doppelte fps mit einer 8800 GTS gegenüber einer X1900 XT).

Und übrigens: Als HL2 erschien, konnte man schon die Radeon X800 XT kaufen. Die hat dort in 1600x1200 mit 4xAA die GeForce 6800 Ultra gnadenlos abgezogen. Aber das war nicht nur in HL2 so.

PCGH_Carsten
2007-03-22, 10:34:01
Glaubst du ernsthaft, darauf hätte man groß Einfluss?
Der Compiler ordnert das Zeugs so um, dass die Register sinnvoll genutzt werden und wenige Stalls auftreten
Compiler haben Grenzen. Sie sind Programme die von anderen Programmen und Menschen gemacht wurden, nicht Gott.

PCGH_Carsten
2007-03-22, 10:36:27
Also HL2 zeigt kein außergewöhnliches Verhalten, was nicht auch in anderen Spielen so wäre. Dass HL2 als ATI-Spiel abgestempelt wurde, lag nur an der schwachen GeForce FX und daran, dass HL2 das meistgehypte DX9-Spiel überhaupt war. Bei Oblivion kackt der NV30 gegenüber dem R300 noch deutlich stärker ab als in HL2. Trotzdem bezeichnet niemand Oblivion als ATI-Spiel (Oblivion liegt den GeForce-8-Karten sehr gut, teils doppelte fps mit einer 8800 GTS gegenüber einer X1900 XT).

Das liegt IMO daran, dass es damals eher unüblich war, jede Single-Texture-Fläche nochmal mit einem 2.0-Shader zu bügeln. Das verstößt btw. auch gegen die von beiden IHVs vertretene Regel, die maximal nötige, nicht mögliche Shaderversion zu nutzen. Natürlich hat Nvidia diesen Grundsatz stärker in die Devs zu hämmern versucht, als der NV3x aktuell war. :)

Gast
2007-03-22, 11:59:30
Compiler haben Grenzen. Sie sind Programme die von anderen Programmen und Menschen gemacht wurden, nicht Gott.
Du hast ja sicherlich schon etliche Compilerbau-Vorlesungen gehört, nicht?

Gast
2007-03-22, 12:02:11
...gut? Bei G80 sicherlich, Nv4x braucht da schon ein bißchen Rücksicht auf die wenigen Temps und die Pipeline-Stalls (sowie auf den manchmal subtoptimalen Early-Z), damit die Rechenkraft nicht daniederliegt.
Es gibt nur Stalls wenn TEX gemacht wird und da ist es dann völlig egal wo sie sind, weil sie eh immer stallen.

Ok, ich stelle also alle 40 Tex-Fetches, die ich in meinem Shader habe an den Anfang und speichere die Resultate in Registern ab.
Dann warte ich eine Weile und wenn dann alles da ist, fangen meine ALUs an zu rechnen - und haben dann kaum noch Platz, um ihre Ergebnisse abzuspeichern. Toll.
Wenn es keine Abhängigkeiten gibt, wird der Compiler sehr gut alles umsortieren an die Stelle wo es auch wirklich gebraucht wird.

Gast
2007-03-22, 12:12:52
Im Vergleich zu was?
Im Vergleich zu perfekt ausgelasteten Einheiten.

sobald dB eingesetzt wird, schrumpft dieser Abstand meist signifikant.
Logisch. Wenn nix gerechnet werden muss sind beide Chips gleich schnell. Und da beide recht gut branchen...

Gast
2007-03-22, 12:18:55
Ach so, nicht dass mich jemand falsch versteht: Ein Shader mit viel Rechnungen und wenig Tex-Abhängigkeiten wird NV4x nie schmecken. Nur hilft da eben auch keine Optimiererei mehr.

Gast
2007-03-22, 12:52:15
http://www.computerbase.de/news/software/spiele/actionspiele/2007/maerz/crysis-grafik_nvidia/


Kurzum: Wir kennen diese Art von Unterstützung schon von HL2, aber ich Frage mich ernsthaft, ob wir als Spieler davon in Zukunft profitieren, oder an Entscheidungsfreiheit einbüßen?

Hätten sie das Spiel vielleicht auf einer DX10 Graka von Ati programmieren sollen welche es noch nicht gibt ?????

PCGH_Carsten
2007-03-22, 12:59:27
Du hast ja sicherlich schon etliche Compilerbau-Vorlesungen gehört, nicht?
Sind Compiler perfekt oder warum programmieren manche noch in Assembler und warum hat zum Beispiel Ati mit CTM eine ziemlich maschinennahe Programmierung für GPGPU in der Hand?

Gast
2007-03-22, 13:01:41
Weil ATI einfach nichts anderes zur Verfügung stellt? CUDA ist ziemlich umfangreich, das hat ja bald allein schon mehr Dokumentation als ATI im gesammten Dev-Support-Bereich zur Verfügung stellt.

PCGH_Carsten
2007-03-22, 13:02:40
Es gibt nur Stalls wenn TEX gemacht wird und da ist es dann völlig egal wo sie sind, weil sie eh immer stallen.
Jein. Du kannst auch auf G7x/NV4x ein bißchen was durch FiFos verstecken.

Wenn es keine Abhängigkeiten gibt, wird der Compiler sehr gut alles umsortieren an die Stelle wo es auch wirklich gebraucht wird.
Compiler sind nicht perfekt (s.o.) und zudem lassen sich - vermute ich mal stark - bei guter Berücksichtigung der Compiler-Stärken und -Schwächen, die dann ja auch mit denen der GPUs in Einklang stehen sollten, unnötige Abhängigkeiten vermeiden.

PCGH_Carsten
2007-03-22, 13:03:34
Weil ATI einfach nichts anderes zur Verfügung stellt? CUDA ist ziemlich umfangreich, das hat ja bald allein schon mehr Dokumentation als ATI im gesammten Dev-Support-Bereich zur Verfügung stellt.
Was hat das jetzt mit der "Perfektion von Compilern" oder der Menge an Compiler-Vorlesungen, die ich gehört oder nicht gehört (interessant, dass du nichts von "verstanden" sagtest...) habe?

Gast
2007-03-22, 13:03:48
Ach noch was: Ein paar Instructions umzusortieren Anhand von Abhängigkeiten ist sicher nichts was man unter hoher Kunst verbuchen würde. Das kannst ja noch vor der Register-Allocation machen.

Es gibt weitaus schwierigere Ding, z.B. das möglichst gute Auslasten aller Einheiten bei einem Vector-Design wie NV4x.

Gast
2007-03-22, 13:05:07
Was hat das jetzt mit der "Perfektion von Compilern" oder der Menge an Compiler-Vorlesungen, die ich gehört oder nicht gehört (interessant, dass du nichts von "verstanden" sagtest...) habe?
Weil du damit indirekt sagen willst, dass die nVIDIA-Leute zu blöd sind ein Programm so umzusortieren, dass die Temp-Register immer möglichst spät und somit minimal belegt sind. Das ist sicher kein Problem.

PCGH_Carsten
2007-03-22, 13:30:29
Weil du damit indirekt sagen willst, dass die nVIDIA-Leute zu blöd sind ein Programm so umzusortieren, dass die Temp-Register immer möglichst spät und somit minimal belegt sind. Das ist sicher kein Problem.
Nicht zu blöd - aber vielleicht ist es nicht so einfach möglich, das dynamisch mit einem Programm zur Laufzeit und ziemlich vielen variablen machen zu lassen? Immerhin gibt es mit neueren Treibern ja auch des Öfteren ziemliche Leistungssprünge in einzelnen Spielen.

Gast
2007-03-22, 13:59:22
Nicht zu blöd - aber vielleicht ist es nicht so einfach möglich, das dynamisch mit einem Programm zur Laufzeit und ziemlich vielen variablen machen zu lassen?
Das Shaderprogramm wird nicht "zur Laufzeit" geladen. Und wir reden hier von absolut mikrigen Programmen im Vergleich zu dem was ein ausgewachsener Compiler handhaben muss.

Immerhin gibt es mit neueren Treibern ja auch des Öfteren ziemliche Leistungssprünge in einzelnen Spielen.
Erstens kann das schlicht und einfach shader replacement sein und zweitens kann das eben auch an anderen Dingen liegen, die ich angesprochen hab (optimale Auslastung der Einheiten).

PCGH_Carsten
2007-03-22, 14:19:14
Erstens kann das schlicht und einfach shader replacement sein und zweitens kann das eben auch an anderen Dingen liegen, die ich angesprochen hab (optimale Auslastung der Einheiten).
Und warum sollte Shader-Replacement nötig sein, wenn der Compiler so nahe an der Perfektion ist?

Gast
2007-03-22, 15:02:50
Und warum sollte Shader-Replacement nötig sein, wenn der Compiler so nahe an der Perfektion ist?
Weil der Algorithmus vielleicht für die Architektur per se scheiße ist.

Wie gesagt, ihr versteht mich offenbar falsch. Es gibt halt Shader die laufen auf NV4x schlecht, daran ändert aber auch eine Optimierung nichts, solange der Algorithmus an sich für das Ding ungeeignet ist.

Sehr oft gibt es aber auch einfach keine geeignetere Alternative.

PCGH_Carsten
2007-03-22, 16:45:34
Weil der Algorithmus vielleicht für die Architektur per se scheiße ist.

Genau das sagte ich doch vor Seiten schon. Das kann auf anderen Architekturen anders aussehen (nebenläufige TMUs, was weiß ich) oder man kann eben im Dev-Rel direkt auf die Wurzel Einfluss nehmen, anstatt nachher an den Symptomen zumzudoktern.

Und das hatten die früheren Ati-Chips eben weniger oft nötig als die Nvidia-GPUs bis inkl. G7x.

reunion
2007-03-23, 15:35:25
Logisch. Wenn nix gerechnet werden muss sind beide Chips gleich schnell. Und da beide recht gut branchen...

Nach diesem Argument müsste ein R520 hier abgehen wie eine Rakete, tut er aber nicht.

Gast
2007-03-23, 17:25:20
Nach diesem Argument müsste ein R520 hier abgehen wie eine Rakete, tut er aber nicht.Hmm, das stimmt natürlich. Die Branching-Granularität beim R520 war ja so gut, dass man sie schon bei R580 nicht mehr halten konnte. Allerdings fehlt es dem R520 natürlich massiv an arithmetischer Power, während der R580 davon sehr viel hat.

Nazar
2007-03-25, 15:54:26
@ Gast und PCGH Carsten.

1. Seid Ihr beide mittlerweile am Thema vorbei!

2. min. 99% der Leser dieses Forums geht Eure Diskussion am Hintern Vorbei (siehe Beteiligung anderer Leser).

3. kann man aus dieser recht sinnfreien Diskussion beider Teilnehmer deutlich erkennen, dass Gastzugänge in einem Forum nichts zu suchen haben!

Wer zu faul ist, sich zu registrieren, der darf sich nicht wundern, wenn er dann nicht an solchen Diskussionen teilnehmen darf.

@Thema

Ob nun nVidias Hilfe einen Vorteil für nV-Besitzer bedeutet oder nicht, ist doch erstmal zweitrangig.
Da DX10 sehr eng gesteckte Voraussetzungen hat, an die sich sowohl nV als auch ATI/AMD halten müssen, müsste selbst ATI von dieser Arbeit profitieren.
Und selbst wenn nicht, hat ATI schon des öfteren gezeigt wo beim Treiberprogammieren der Hammer hängt.

Also abwarten und Tee trinken ;)

Coda
2007-03-25, 16:07:24
Nach diesem Argument müsste ein R520 hier abgehen wie eine Rakete, tut er aber nicht.
Dann stimmt mit der Messung ja erst recht was nicht, weil R580 schlechter brancht als R520.

Sowohl dyn. branching als auch ALU ist auf G8x deutlich stärker als auf R5xx, erzähl doch keinen Unfug. Und komm bitte nicht mit dem einen komischen ausgesuchten OpenGL-Benchmark. Vermutlich macht der ATI-Treiber an der Stelle Predication statt Dyn. Branching oder andersrum weil die Compiler-Heuristik bei nVIDIA noch Verbesserung braucht.

Blaire
2007-04-02, 18:44:35
@Thema
Ob nun nVidias Hilfe einen Vorteil für nV-Besitzer bedeutet oder nicht, ist doch erstmal zweitrangig.

Irgendwas wird sicher wieder NV only sein jede Wette. Sei es andere Schatten, Spezialeffekte etc. natürlich rein spekulativ ;)

=Floi=
2007-04-02, 18:50:24
NEIN
bisher hat man auch von solchen sachen die finger gelassen, weil dies ja auch ati machen könnte

ich denke es wird bei besserer performance und einem guten sli profil bleibnen

Coda
2007-04-02, 19:25:49
Irgendwas wird sicher wieder NV only sein jede Wette. Sei es andere Schatten, Spezialeffekte etc. natürlich rein spekulativ ;)
Kann eigentlich nicht sein im D3D10-Pfad. Da gibt's keine Unterschiede.

Blaire
2007-04-02, 19:49:47
Eigentlich ;) Inwieweit es wirklich DX10 ausreizt bzw. voraussetzt ist fraglich. Hieß es nichtmal es wäre ein Mischmasch aus Beiden (DX9/10) ?

Coda
2007-04-02, 19:52:07
Da ist kein Mischmasch möglich. Entweder oder. Die APIs schließen sich ziemlich gut gegenseitig aus.

Wenn es einen D3D10-Pfad gibt ist dieser Full-Featured auf beiden IHVs. Was D3D9 betrifft kann's natürlich Unterschiede geben - da kann dann aber kaum einer sagen es wäre was gewollt was unterschlagen worden.

Die D3D10-Zukunft ist so schön. Endlich keine sinnlosen "Räääbäää kein ATI-Fallback"-Flamewars mehr.

Armaq
2007-04-02, 20:35:47
Bleibt nur zu hoffen, dass nicht anderer Content kommt. nV-TechLevel. Obwohl ich hab nV - HER DAMIT!

Coda
2007-04-02, 20:37:20
Und dann? Device-ID faken und gut ist. Und falls die Abfrage anders ist über den Treiber o.ä: Lässt sich alles ausbauen ;)

Aber nach den komischen AMD64-"Techdemos" traue ich das Crytek ja fast schon zu X-D

Mr.Soapdown
2007-04-13, 06:15:57
Und dann? Device-ID faken und gut ist.

geht zwar OT:

Aber hatten wir sowas nicht schon mal sowas in der Art?