PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Benachteiligt Ubisoft SM 2.0 Karten?


Seiten : 1 2 [3] 4

aths
2005-02-28, 02:53:31
Mir ist das Default-Gamma nicht zu dunkel. Und ja, verstellbarer Gammafaktor für die Subpixel wäre sicherlich nicht schlecht. Der Nachteil wäre, daß das nicht automatisch gehen würde.Und eine Menge Transistoren kosten würde.

aths
2005-02-28, 02:55:04
Ist es nicht egal ob die Leistung durch mehr Takt oder durch mehr Transistoren erreicht wird?NV40 hat nicht nur PS3.0. Er hat auch auch VS3.0, die VPE, die FP16-Texturfilter, FP16-Alphablender etc. So betrachtet lässt sich vermuten, dass die Pixeleinheiten kaum mehr Transistoren kosten als die vom R420, aber trotzdem offensichtlich effizienter arbeiten.

aths
2005-02-28, 02:56:35
[COLOR="#000088"]
Und wenn es die etwas billigeren Varianten des R520 dann auch nicht schnell genug schaffen, was zu erwarten ist, bleibt HDR noch sehr lange ein Luxusfeature. Bin nämlich nicht bereit mehr als 350 Öre für eine Grafikkarte auszugeben. ... und deshalb ("nämlich") ist ein Luxusfeature? Sind jetzt alle, die ihre Postings in blauer Farbe schreiben, der Maßstab für den Standard-Grafikkartenkäufer?

Tigerchen
2005-02-28, 06:22:03
... und deshalb ("nämlich") ist ein Luxusfeature? Sind jetzt alle, die ihre Postings in blauer Farbe schreiben, der Maßstab für den Standard-Grafikkartenkäufer?

Wenn einer meint sich ständig zum Maß aller Dinge machen zu müßen dann bist du dass. :|

robbitop
2005-02-28, 08:16:58
HDR ist ein "Luxusfeature" so wie AA/AF, Bumpmapping und alle Dinge die Performance kosten. Wieso wird HDR immer isoliert?

Jagdpanther
2005-02-28, 09:00:20
HDR ist ein "Luxusfeature" so wie AA/AF, Bumpmapping und alle Dinge die Performance kosten. Wieso wird HDR immer isoliert?

mal ne frage.

hab gelesen dass HDR auf einem TFT nicht richtig angezeigt werden kann weil dieser über eben nicht soviele farben verfügt wie ein CRT-monitor.

und dass HDR-TFT-panels erst in so 1-2 jahren vorgestellt werden.

ist das was dran?

kann das wer bestätigen?

Tigerchen
2005-02-28, 09:03:39
HDR ist ein "Luxusfeature" so wie AA/AF, Bumpmapping und alle Dinge die Performance kosten. Wieso wird HDR immer isoliert?

Solange es nur SuperSampling gab war AA in der selben Situation. Aber wie beim AA wird die Welt sich weiterdrehen und HDR wird dann ein Allerweltsfeature sein. Aber nicht von heute auf morgen.

Splange es nur "Lehrbuch-AF gab war es ebenfalls ein Luxusfeature welches man oft genug eben nicht einschalten konnte ohne daß ein Spiel zur Slideshow wurde. Erst heute kann man es fast immer bedenkenlos dazu schalten.

(Off Topic:Ferrari fährt auch dieses Jahr erstmal mit veralteter Technik. Warum wohl? )

robbitop
2005-02-28, 09:20:36
Solange es nur SuperSampling gab war AA in der selben Situation. Aber wie beim AA wird die Welt sich weiterdrehen und HDR wird dann ein Allerweltsfeature sein. Aber nicht von heute auf morgen.

Splange es nur "Lehrbuch-AF gab war es ebenfalls ein Luxusfeature welches man oft genug eben nicht einschalten konnte ohne daß ein Spiel zur Slideshow wurde. Erst heute kann man es fast immer bedenkenlos dazu schalten.

(Off Topic:Ferrari fährt auch dieses Jahr erstmal mit veralteter Technik. Warum wohl? )


ok ack :)

robbitop
2005-02-28, 09:22:21
mal ne frage.

hab gelesen dass HDR auf einem TFT nicht richtig angezeigt werden kann weil dieser über eben nicht soviele farben verfügt wie ein CRT-monitor.

und dass HDR-TFT-panels erst in so 1-2 jahren vorgestellt werden.

ist das was dran?

kann das wer bestätigen?

das könnte auf TN Panels zutreffen, da diese den vollen Farbraum quasi durch 2 pässe "emulieren". Ich habe es zwar bisher nur auf einem CRT probiert, kann mir jedoch nicht vorstellen, dass das auch sonderlich auf die Praxis zutrifft. In der Theorie vieleicht schon und evtl. auch in extremen Grenzfällen.

Die MVA und IPS Panels jedoch sollten nicht unter diesen Problemen leiden.

fdgrfdg
2005-02-28, 10:36:13
mal ne frage.

hab gelesen dass HDR auf einem TFT nicht richtig angezeigt werden kann weil dieser über eben nicht soviele farben verfügt wie ein CRT-monitor.

und dass HDR-TFT-panels erst in so 1-2 jahren vorgestellt werden.

ist das was dran?

kann das wer bestätigen?

das tonemapping bringt die fp16-farbwerte wieder in den sichtbaren bereich von FX8. das bild sollte dann auf crt und tft annähernd identlisch sein.

für dass was du meinst müssten nicht nur sehr viele farben darstellbar sein sondern auch helligkeiten und kontrastverhältnisse, die heutige durchschnittsmonitore um das 10-20fache übersteigen.

Gassssssstttttt
2005-02-28, 10:48:33
HDR kann weder auf normalen TFTs noch auf CRTs richtig dargestellt werden. Dazu bräuchte es ein Kontrasverhältnis von 50000:1 und das schafft keine normale Monitor (TFT 500:1 !).

reunion
2005-02-28, 11:28:17
NV40 hat nicht nur PS3.0. Er hat auch auch VS3.0, die VPE, die FP16-Texturfilter, FP16-Alphablender etc. So betrachtet lässt sich vermuten, dass die Pixeleinheiten kaum mehr Transistoren kosten als die vom R420, aber trotzdem offensichtlich effizienter arbeiten.

Selbst wenn das stimmen sollte ist es absolut belanglos.

Mir geht es nur darum endlich von dieser imaginären "pro-mhz" Leistung abzukommen. Es macht einfach keinen Sinn einen Chip im Vorteil zu sehen weil er mehr arbeit pro mhz verrichten kann, aber im gegenzug auf einen höheren Takt verzichten muss. Was zählt ist die "Rechenleistung", wie diese erreicht wird ist irrelevant. Und auch wenn viele jetzt schon zum hundertsten mal schreiben das der NV40 eine höhere "pro-mhz" Leistung erreicht ändert das nichts an dieser Tatsache.

Grestorn
2005-02-28, 11:30:21
HDR kann weder auf normalen TFTs noch auf CRTs richtig dargestellt werden. Dazu bräuchte es ein Kontrasverhältnis von 50000:1 und das schafft keine normale Monitor (TFT 500:1 !).
Sorry, aber Du hast nicht ganz begriffen, wobei es bei HDR geht.

Es ist nicht das Ziel, den Spieler erblinden zu lassen, weil eine Blendgranate vor ihm explodiert.

Das Ziel ist, die Effekte, die das menschliche Auge bei starken Helligkeitsschwankungen zeigt zu simulieren, also z.B. Überblenden, langsames Anpassen an die Helligkeit usw.

Und das kann man mit heutigen Monitoren sehr wohl.

robbitop
2005-02-28, 11:35:41
Sorry, aber Du hast nicht ganz begriffen, wobei es bei HDR geht.

Es ist nicht das Ziel, den Spieler erblinden zu lassen, weil eine Blendgranate vor ihm explodiert.

Das Ziel ist, die Effekte, die das menschliche Auge bei starken Helligkeitsschwankungen zeigt zu simulieren, also z.B. Überblenden, langsames Anpassen an die Helligkeit usw.

Und das kann man mit heutigen Monitoren sehr wohl.

er spricht ja auch von Kontrast und nicht von Helligkeit ;)

robbitop
2005-02-28, 11:37:57
Selbst wenn das stimmen sollte ist es absolut belanglos.

Mir geht es nur darum endlich von dieser imaginären "pro-mhz" Leistung abzukommen. Es macht einfach keinen Sinn einen Chip im Vorteil zu sehen weil er mehr arbeit pro mhz verrichten kann, aber im gegenzug auf einen höheren Takt verzichten muss. Was zählt ist die "Rechenleistung", wie diese erreicht wird ist irrelevant. Und auch wenn viele jetzt schon zum hundertsten mal schreiben das der NV40 eine höhere "pro-mhz" Leistung erreicht ändert das nichts an dieser Tatsache.

es ist ja nur der überlegene Fertigungsprozess, der dem R4xx zu höheren Taktraten verhilft. Nicht jedoch das Design. ATI hatte "Glück", dass NV auf lowk aus "Angst" verzichtete. Denn wo der gleiche Fertigungsprozess zum Einsatz kommt (NV43 vs RV410), schaut es wieder anders aus. Warum wird immer nur NV40 vs R420/480 betrachtet?

Grestorn
2005-02-28, 11:50:13
er spricht ja auch von Kontrast und nicht von Helligkeit ;)Das stimmt schon, nur hat der Kontrast wenig mit HDR zu tun.

Auch wenn der abbildbare Kontrast bei HDR wesentlich höher ist, so ist es nicht das Ziel von HDR, die volle Bandbreite dieses Kontrasts im selben Moment abzubilden, weil weder die Monitore noch das Auge in der Lage sind, das zu verwerten.

P.S.: Ich arbeite immer noch an meiner Ein-eindeutigkeit, Herr Professor robbitop :)

robbitop
2005-02-28, 11:55:09
Auch wenn der abbildbare Kontrast bei HDR wesentlich höher ist, so ist es nicht das Ziel von HDR, die volle Bandbreite dieses Kontrasts im selben Moment abzubilden, weil weder die Monitore noch das Auge in der Lage sind, das zu verwerten.



Passt. :)

wuzetti
2005-02-28, 12:07:00
es ist ja nur der überlegene Fertigungsprozess, der dem R4xx zu höheren Taktraten verhilft. Nicht jedoch das Design. ATI hatte "Glück", dass NV auf lowk aus "Angst" verzichtete. Denn wo der gleiche Fertigungsprozess zum Einsatz kommt (NV43 vs RV410), schaut es wieder anders aus. Warum wird immer nur NV40 vs R420/480 betrachtet?

und welche rolle spielt dabei die anzahl der transistoren? jaja, ich weiss, das ist hier schon diskutiert worden, allerdings weiss ich nicht mehr wo und mag jetzt auch nicht ewig suchen ;)

könnte es bei der NV43 vs. RV410 betrachtung nicht auch so sein, dass NV43 vorteile hat bzw. höhere taktfrequenzen verkraftet, weil man bereits von einem non low-k prozess ausgegangen ist (NV40 in 0,13 IBM FSG) und bei RV410 musste man von einem low-k prozess (R423) auf einen non low-k prozess "shrinken"?

robbitop
2005-02-28, 12:12:28
Das Design muss für einen anderen Fertigungsprozess eh neu kompiliert werden. Takt ist hauptsächlich vom Design und vom Fertigungsprozess abhängig. Der Grund warum man ab und an komplexe Designs nicht so hoch taktet wie abgespekte sind Verlustleistung und Yields. Aber das haben wir auch schon umgekehrt gesehen (R3xx Reihe und NV3x).

NV scheint bei der Midrangegeneration in Punkto Optimierung besser gemacht zu haben. Leider versaute man sich ein paar Prozente durch Einsparung von ROPs. Bei shaderlastigen Games und mit AF ist das egal, aber bei massivem Alphablendig kann das schonmal ein paar Frames kosten. Das war IMO nur ein Schritt, um sich nicht selbst Konkurrenz zu machen, denn so teuer sind ROPs nicht.

dildo4u
2005-02-28, 12:47:41
Hier mal ein Auszug aus einem interview in der neuen PCGH 4/05 seite82 mit dem Technical Director für Splintercell3 bei UBI Soft: Dany Lepage.


"PCGH
Warum habt ihr für den Renderer der SCX Engine anders als vorher angekündigt
keinen Shader 2.0 Pfad entwicklet?

Dany Lepage:
Wie ihr ja selbst festgestellt habt,ist SC3 für das Shader-Model 3.0 optimiert.
Wir haben letztendlich auf einen Shader 2.0 Renderer verzichtet,weil wird für das Spiel die zurzeit bestmögliche Optik erzielen wollten.Daher kamen wir praktisch nicht darum herum,die Grafik-Engine für die neueste Shader 3.0 Technik zu optemieren.Nur mit dieser Technologie können wir dem Spieler eine Spielgrafik der Extraklasse bieten.

PCGH
Das Shader Model 3.0 steht aktuell ja nur GF6 Karten zur Verfügung.
Warum haben Spieler mit ATI DX9 Karten mit Shader 2.0 das nachsehen?

Dany Lepage:
Es stimmt zwar,dass momentan nur ein paar Nvidia Karten das Shader Model 3.0 unterstützen.Trotzdem ist es nicht unsere Politik,einen bestimmten Kartenhersteller bevorzugt zu behandeln.Was für und auf lange sicht zählt,ist die Qualität der Spielgrafik.Deshalb arbeiten wir eng mit beiden Herstellern zusammen.Außerdem wird es bereits im Mai auch ATI-Karten mit SM3.0 geben."

ShadowXX
2005-02-28, 13:11:27
Hier mal ein Auszug aus einem interview in der neuen PCGH 4/05 seite82 mit dem Technical Director für Splintercell3 bei UBI Soft: Dany Lepage.


"PCGH
Warum habt ihr für den Renderer der SCX Engine anders als vorher angekündigt
keinen Shader 2.0 Pfad entwicklet?

Dany Lepage:
Wie ihr ja selbst festgestellt habt,ist SC3 für das Shader-Model 3.0 optimiert.
Wir haben letztendlich auf einen Shader 2.0 Renderer verzichtet,weil wird für das Spiel die zurzeit bestmögliche Optik erzielen wollten.Daher kamen wir praktisch nicht darum herum,die Grafik-Engine für die neueste Shader 3.0 Technik zu optemieren.Nur mit dieser Technologie können wir dem Spieler eine Spielgrafik der Extraklasse bieten.

PCGH
Das Shader Model 3.0 steht aktuell ja nur GF6 Karten zur Verfügung.
Warum haben Spieler mit ATI DX9 Karten mit Shader 2.0 das nachsehen?

Dany Lepage:
Es stimmt zwar,dass momentan nur ein paar Nvidia Karten das Shader Model 3.0 unterstützen.Trotzdem ist es nicht unsere Politik,einen bestimmten Kartenhersteller bevorzugt zu behandeln.Was für und auf lange sicht zählt,ist die Qualität der Spielgrafik.Deshalb arbeiten wir eng mit beiden Herstellern zusammen.Außerdem wird es bereits im Mai auch ATI-Karten mit SM3.0 geben."

Na, dann müsste ATI den r520 ja mal langsam vorstellen, wenn man im Mai schon Karten kaufen kann....

Leider wird es wohl wider so aussehen, das er im Mai vorgestellt wird und dann ab Oktober kaufbar ist.....

(Und bevor jemand meckert...bei nV würde ich die gleiche "Taktik" erwarten)

TheCounter
2005-02-28, 13:12:57
"PCGH
Warum habt ihr für den Renderer der SCX Engine anders als vorher angekündigt
keinen Shader 2.0 Pfad entwicklet?

Dany Lepage:
Wie ihr ja selbst festgestellt habt,ist SC3 für das Shader-Model 3.0 optimiert.
Wir haben letztendlich auf einen Shader 2.0 Renderer verzichtet,weil wird für das Spiel die zurzeit bestmögliche Optik erzielen wollten.Daher kamen wir praktisch nicht darum herum,die Grafik-Engine für die neueste Shader 3.0 Technik zu optemieren.Nur mit dieser Technologie können wir dem Spieler eine Spielgrafik der Extraklasse bieten.

PCGH
Das Shader Model 3.0 steht aktuell ja nur GF6 Karten zur Verfügung.
Warum haben Spieler mit ATI DX9 Karten mit Shader 2.0 das nachsehen?

Dany Lepage:
Es stimmt zwar,dass momentan nur ein paar Nvidia Karten das Shader Model 3.0 unterstützen.Trotzdem ist es nicht unsere Politik,einen bestimmten Kartenhersteller bevorzugt zu behandeln.Was für und auf lange sicht zählt,ist die Qualität der Spielgrafik.Deshalb arbeiten wir eng mit beiden Herstellern zusammen.Außerdem wird es bereits im Mai auch ATI-Karten mit SM3.0 geben."

Das bestägtigt es also. Sie waren zu faul die Effekte mit SM2.0 umzusetzen...

Hoffentlich nehmen sich daran nicht noch andere Entwickler ein Beispiel.

PCGH_Thilo
2005-02-28, 13:16:05
Hier mal ein Auszug aus einem interview in der neuen PCGH 4/05 seite82 mit dem Technical Director für Splintercell3 bei UBI Soft: Dany Lepage.


"PCGH
Warum habt ihr für den Renderer der SCX Engine anders als vorher angekündigt
keinen Shader 2.0 Pfad entwicklet?

Dany Lepage:
Wie ihr ja selbst festgestellt habt,ist SC3 für das Shader-Model 3.0 optimiert.
Wir haben letztendlich auf einen Shader 2.0 Renderer verzichtet,weil wird für das Spiel die zurzeit bestmögliche Optik erzielen wollten.Daher kamen wir praktisch nicht darum herum,die Grafik-Engine für die neueste Shader 3.0 Technik zu optemieren.Nur mit dieser Technologie können wir dem Spieler eine Spielgrafik der Extraklasse bieten.

PCGH
Das Shader Model 3.0 steht aktuell ja nur GF6 Karten zur Verfügung.
Warum haben Spieler mit ATI DX9 Karten mit Shader 2.0 das nachsehen?

Dany Lepage:
Es stimmt zwar,dass momentan nur ein paar Nvidia Karten das Shader Model 3.0 unterstützen.Trotzdem ist es nicht unsere Politik,einen bestimmten Kartenhersteller bevorzugt zu behandeln.Was für und auf lange sicht zählt,ist die Qualität der Spielgrafik.Deshalb arbeiten wir eng mit beiden Herstellern zusammen.Außerdem wird es bereits im Mai auch ATI-Karten mit SM3.0 geben."

hey, das abonnement scheint also ausgeliefert zu sein ;-)

Exxtreme
2005-02-28, 13:21:09
Außerdem wird es bereits im Mai auch ATI-Karten mit SM3.0 geben."
Sttrrrrrike! =) (y)

Winter[Raven]
2005-02-28, 13:29:24
Sttrrrrrike! =) (y)

Ma abwarten, letzlich versprachen beide Hersteller und beim R420 bzw. NV40 Lunch eine "schnelle" auslieferung, aber wir wissen ja was draus geworden ist ... XD

deekey777
2005-02-28, 13:32:33
Sttrrrrrike! =) (y)

Freust du dich, daß der Interviewte den Vorstellungsmonat verraten hat? :confused:

Gaestle
2005-02-28, 13:33:26
Das bestägtigt es also. Sie waren zu faul die Effekte mit SM2.0 umzusetzen...


Wo genau wird das jetzt bestätigt?

Grüße

Exxtreme
2005-02-28, 13:33:37
Freust du dich, daß der Interviewte den Vorstellungsmonat verraten hat? :confused:
Nö. :) Ich freue mich auf die SM3.0-GraKa von ATi. (y) Entwickelt von dem Team, welches auch den R300 entwickelt hat. (y) (y)

deekey777
2005-02-28, 13:36:21
Nö. :) Ich freue mich auf die SM3.0-GraKa von ATi. (y) Entwickelt von dem Team, welches auch den R300 entwickelt hat. (y) (y)

War es nicht absehbar, dass die nächste Radeongeneration eine SM3.0 Grafikkarte sein wird? :biggrin:
(Die Vermutungen, dass es durch eine Art F-Buffer 3.0 gelöst werden könnte oder sonst wie, lassen wir aussen vor.)

Exxtreme
2005-02-28, 13:37:14
War es nicht absehbar, dass die nächste Radeongeneration eine SM3.0 Grafikkarte sein wird? :biggrin:
(Die Vermutungen, dass es durch eine Art F-Buffer 3.0 gelöst werden könnte oder sonst wie, lassen wir aussen vor.)
Ist doch wurst wie sie es gelöst haben. Wichtig ist was hinten rauskommt (warme Luft :D ).

Piffan
2005-02-28, 13:44:35
Ist doch wurst wie sie es gelöst haben. Wichtig ist was hinten rauskommt (warme Luft :D ).

Warme Luft ist korrekt. Die Jungs von Ubi wissen hoffentlich, was sie tun. Denn die Mehrheit der Zocker ist derzeit nicht in der Lage, Splinter Cell in voller Qualität zu zocken. So wird dieser Nachteil sicher nicht nur mich eher negativ zu dem Spiel einstimmen. - Eh egal, mir sagt der Titel eh nicht sonderlich zu. Diese komischen Felsen aus Glimmer oder soll es ein Quarzüberzug sein?, Weinfässer die glänzen als ob jemand Lack drübergekippt hat, Wandputz der fettig aussieht, glasierte Klinker in einem alten Bau usw. usf. Die Grafik ist seltsam, das Gameplay mit dem ersten und zweiten Teil ausgelutscht. Wer zum Teufel interessiert sich für solch einen Schmarrn? :D

edit: Nachschlag: Die Jubelarie und gefakten Spielermeinungen in der aktuellen PcGames sind ja wohl oberpeinlich. Aus diesem Grunde mache ich einen Bogen um SC 3. Der Fisch stinkt! :D

Name vergeben?
2005-02-28, 14:17:59
NV40 hat nicht nur PS3.0. Er hat auch auch VS3.0, die VPE, die FP16-Texturfilter, FP16-Alphablender etc. So betrachtet lässt sich vermuten, dass die Pixeleinheiten kaum mehr Transistoren kosten als die vom R420, aber trotzdem offensichtlich effizienter arbeiten.
In der Aufzählung kannst du VS 3 weglassen, weil ShaderModel 3.0 Pixel- und Vertexshader bestimmt, es gibt nur Shader 3.0 und dafür muss beides stimmen, nur die Pixelshader auf 3.0 trimmen während man die Vertex-Shader beim alten lässt macht angesichts des Standards in etwa so viel Sinn wie FP32-Präzision beim Geforce FX. Anders gesagt: ATI würde wegen dem festgeschriebenen Standard für Shader 3.0 auch die Vertex 3.0 Einheiten mitbauen, weil sie sonst den Standard ja nicht erfülle würden.

Demirug
2005-02-28, 14:24:41
In der Aufzählung kannst du VS 3 weglassen, weil ShaderModel 3.0 Pixel- und Vertexshader bestimmt, es gibt nur Shader 3.0 und dafür muss beides stimmen, nur die Pixelshader auf 3.0 trimmen während man die Vertex-Shader beim alten lässt macht angesichts des Standards in etwa so viel Sinn wie FP32-Präzision beim Geforce FX. Anders gesagt: ATI würde wegen dem festgeschriebenen Standard für Shader 3.0 auch die Vertex 3.0 Einheiten mitbauen, weil sie sonst den Standard ja nicht erfülle würden.

DX erlaubt es zu das man nur die Pixelshader auf 3.0 Level bringt und die VS bei 2.0 verbleiben lässt. Ist aber zugegebenermassen wirklich eine schlechte Idee sowas zu machen weil die Entwickler in der Regel die beiden Einheiten paarweise programmieren.

TheCounter
2005-02-28, 14:56:17
Wo genau wird das jetzt bestätigt?

Grüße

Das erste mal hier:

Wir haben letztendlich auf einen Shader 2.0 Renderer verzichtet,weil wird für das Spiel die zurzeit bestmögliche Optik erzielen wollten.

Hier:

Nur mit dieser Technologie können wir dem Spieler eine Spielgrafik der Extraklasse bieten.

Und hier (Die mit abstand lächerlichste Aussrede):

Außerdem wird es bereits im Mai auch ATI-Karten mit SM3.0 geben.

r@w
2005-02-28, 15:18:21
Naja zumindest funktioniern diese Schalter bei ATI auch :) Und NV hat auch recht lange gebraucht bis man bei den FXen was deaktivieren konnte.Hmmm... also bei ATI ist's genau ein Schalter, der dann (fast ;-) alles aus oder einschaltet. Nicht sonderlich Intelligent, wie ich finde...

Und das mit den FX'en hätte ich gern näher gewußt.
Wie lang hat nVidia hier noch grad gebraucht?

Oder ist's nur wieder so ein 'Bauchgefühl' von Dir?
:D

Razor

Narrenkönig
2005-02-28, 15:20:14
DX erlaubt es zu das man nur die Pixelshader auf 3.0 Level bringt und die VS bei 2.0 verbleiben lässt. Ist aber zugegebenermassen wirklich eine schlechte Idee sowas zu machen weil die Entwickler in der Regel die beiden Einheiten paarweise programmieren.
Matrox hat das zB doch auch so gemacht. PS 2.0 mit VS 1.1 gemixt.

LordDeath
2005-02-28, 15:21:23
Matrox hat das zB doch auch so gemacht. PS 2.0 mit VS 1.1 gemixt.
ne das war VS 2.0 und PS 1.1 :D

Narrenkönig
2005-02-28, 15:26:47
Es ist nicht das Ziel, den Spieler erblinden zu lassen, weil eine Blendgranate vor ihm explodiert.
Das Ziel ist, die Effekte, die das menschliche Auge bei starken Helligkeitsschwankungen zeigt zu simulieren, also z.B. Überblenden, langsames Anpassen an die Helligkeit usw.
Und das kann man mit heutigen Monitoren sehr wohl.
Das an echten HDR Monitoren geforscht wird hab ich auch gelesen. Aber wer das braucht? Dein Beispiel warum man das nicht braucht ist super. (Nach 4 Stunden TES4: Oblivion gleich zum Augenarzt, oder wie) :D

Gasssttttt
2005-02-28, 15:29:06
Und das mit den FX'en hätte ich gern näher gewußt.
Wie lang hat nVidia hier noch grad gebraucht?

Razor

vom nv35(?) bis zum nv40 + ein paar Monate ? Keine Ahnung...

Narrenkönig
2005-02-28, 15:29:08
ne das war VS 2.0 und PS 1.1 :D
Also doch. Ich war mir nicht mehr ganz sicher. Aber so macht es noch weniger Sinn.

Exxtreme
2005-02-28, 15:36:38
ne das war VS 2.0 und PS 1.1 :D
IIRC hatten die Treiber von Matrox nie VS2.0 gemeldet. :D

Demirug
2005-02-28, 15:37:58
IIRC hatten die Treiber von Matrox nie VS2.0 gemeldet. :D

Korrekt. Echte DX9 Treiber gibt es bis heute nicht.

TheCounter
2005-02-28, 15:58:34
Das an echten HDR Monitoren geforscht wird hab ich auch gelesen. Aber wer das braucht?

Naja man kann das ganze bestimmt auch runterregeln. Der Moni wird sicherlich nicht ständig seine 8.500 Candela/m² und Kontrast von 50.000:1 darstellen ;)

Interessant aussehen dürfte es allemal.

r@w
2005-02-28, 16:04:41
vom nv35(?) bis zum nv40 + ein paar Monate ? Keine Ahnung...Wus?
Die ersten Treiber für die FX'en waren gar nicht optimiert (also für die FX35+ ;-). Die Optimierung kam mit den 50'ern und verschwand auch wieder mit diesen (bzw. machte diese Optional). Ein bis zwei Monate wird das tatsächlich gedauert haben... bei ATI kann man das aber schon fast in Jahren angeben... und sie haben's noch immer nicht zufriedenstellen gelöst... vermutlich wollen sie es auch gar nicht.

Egal, bin mal gespannt, was da ATI mit dem R520 abliefert.
Nur glaube ich irgendwie nicht an den Wegfall der Optimierungen...
(hat ja auch keiner angekündigt... nur schön wär's mal, wenn der, der damit anfing, auch damit aufhören würde ;-)

Razor

mapel110
2005-02-28, 16:08:08
.. nur schön wär's mal, wenn der, der damit anfing, auch damit aufhören würde ;-)

Razor
Angefangen? Sie haben ihre AF-Modi immer verbessert von Generation zu Generation, nvidia hat sie verschlechtert. :P
Die Trilinear-Spielchen hat nvidia zuerst angefangen.

uzikuil
2005-02-28, 16:09:47
Angefangen? Sie haben ihre AF-Modi immer verbessert von Generation zu Generation, nvidia hat sie verschlechtert. :P

ja vor allem von der r3xx-serie auf die r4xx-serie hat sich sehr viel verbessert :(

reunion
2005-02-28, 16:12:24
Außerdem wird es bereits im Mai auch ATI-Karten mit SM3.0 geben."

Hm, könnte leicht sein das die schon ein Testsample haben.
Jetzt bin ich nurnoch gespannt ob ATi SM3.0 beim R520 nur als "Checklistenfeature" integriert hat oder ob man sich doch mehr Mühe gegeben hat.

TheCounter
2005-02-28, 16:16:09
Hm, könnte leicht sein das die schon ein Testsample haben.
Jetzt bin ich nurnoch gespannt ob ATi SM3.0 beim R520 nur als "Checklistenfeature" integriert hat oder ob man sich doch mehr Mühe gegeben hat.

Ich denke mal eher letzteres (Wegen dem R500). Im Mai wäre die E3, ob ATi die Karte dort vorstellt?

LovesuckZ
2005-02-28, 16:31:15
Die Trilinear-Spielchen hat nvidia zuerst angefangen.

Wann?

reunion
2005-02-28, 16:34:42
Ich denke mal eher letzteres (Wegen dem R500).

R520 dürfte mit R500 nicht viel gemeinsam haben.
Immerhin führt ATi den R520 im Treiber unter dem Eintrag "R300 Family".

TheCounter
2005-02-28, 16:49:01
R520 dürfte mit R500 nicht viel gemeinsam haben.
Immerhin führt ATi den R520 im Treiber unter dem Eintrag "R300 Family".

Es wäre aber doch eigentlich schwachsinnig wenn man 2 mal extra bastelt oder? Wieso also nicht vom R500 übernehmen?

Naja wir werden es sehen im Mai? :)

DrumDub
2005-02-28, 17:10:44
Wann?

frühjahr-sommer 2003: http://www.3dcenter.de/artikel/ati_nvidia_treiberoptimierungen/index2.php

wobei es bei ati da den ts >1 nur bi trick schon gab...

Demirug
2005-02-28, 17:11:19
Es wäre aber doch eigentlich schwachsinnig wenn man 2 mal extra bastelt oder? Wieso also nicht vom R500 übernehmen?

Naja wir werden es sehen im Mai? :)

Weil sie das R500 Design nicht auf die notwendige Leistung bekommen?

G@stgehtnicht
2005-02-28, 18:48:59
Angefangen? Sie haben ihre AF-Modi immer verbessert von Generation zu Generation, nvidia hat sie verschlechtert. :P
Die Trilinear-Spielchen hat nvidia zuerst angefangen.

Wenn ich gewußt hätte, was eine R9200 unter trilinear versteht, hätt ich mir damals für die Kohle lieber ne gebrauchte GF3 ziehen sollen.

LovesuckZ
2005-02-28, 18:51:30
frühjahr-sommer 2003:
wobei es bei ati da den ts >1 nur bi trick schon gab...

Und "bri" bei der radeon 9600xt.
Geschummelt hat nvidia erst im Mai, bei der Vorstellung des NV35.

reunion
2005-02-28, 18:55:18
Und "bri" bei der radeo 9600xt.
Geschummelt hat nvidia erst im Mai, bei der Vorstellung des NV35.

AFAIK konnte das auch schon nV30.

LovesuckZ
2005-02-28, 19:00:14
AFAIK konnte das auch schon nV30.

Daher kam der sagenumworbende Leistungssprung unter UT2004, auf den NV30 Karten^^
Es ist aber falsch zu behaupten, nvidia haette damit zu erst angefangen. Richtig dagegen ist, sie haben es nicht versucht es zu verheimlichen.

reunion
2005-02-28, 19:13:48
Daher kam der sagenumworbende Leistungssprung unter UT2004, auf den NV30 Karten^^
Es ist aber falsch zu behaupten, nvidia haette damit zu erst angefangen. Richtig dagegen ist, sie haben es nicht versucht es zu verheimlichen.

nV hatte zumindest zuerst einen Hardware am Markt die bri filterung ermöglichte.

Desweiteren kann ich mich nicht an einen offizielle Mitteilung von nV erinnern wo man die senkung der BQ in UT2004 zugibt bevor diese entdeckt wurde. Soll bedeuten man wollte es genauso verstecken, war damit allerdings bei weitem nicht so erfolgreich wie ATi.

Jesus
2005-02-28, 19:53:15
nV hatte zumindest zuerst einen Hardware am Markt die bri filterung ermöglichte.

Desweiteren kann ich mich nicht an einen offizielle Mitteilung von nV erinnern wo man die senkung der BQ in UT2004 zugibt bevor diese entdeckt wurde. Soll bedeuten man wollte es genauso verstecken, war damit allerdings bei weitem nicht so erfolgreich.

Stimmt, das hab ich glaub ich zum ersten mal in ner Gamestar gelesen damals, als grosse Enthüllung :)

RaumKraehe
2005-02-28, 19:58:25
[COLOR="#000088"]
Die enorme Basis der SM 2.0 Karten (man bedenke nur die Zahl der verkauften nV FX5200 Karten) bleibt außen vor.

Eine Frage hab ich da nur .. was willst du SM2.0 auf einer FX5200 .. du gibst das ja hier als Argument an. Die FX5200 kann zwar den Shader doch besser ist es man deaktiviert ihn einfach. Auch die FX5600 kann nicht wirklich was mit SM2.0 anfangen. Also Anfangen schon .. aber die Performance ist merh als dürftig.

TheCounter
2005-02-28, 22:20:19
Weil sie das R500 Design nicht auf die notwendige Leistung bekommen?

Meinst du? Glaub ich nicht so ganz. Aber wir werdens ja bald sehen. Nächstes Monat sehen wir dann wohl erstmal den R500 in Aktion (Da soll angeblich die X-Box 2 vorgestellt werden) :)

Demirug
2005-02-28, 22:26:51
Meinst du? Glaub ich nicht so ganz. Aber wir werdens ja bald sehen. Nächstes Monat sehen wir dann wohl erstmal den R500 in Aktion (Da soll angeblich die X-Box 2 vorgestellt werden) :)

Beim R400 war das ja angeblich auch das Problem.

Narrenkönig
2005-03-01, 10:19:56
Desweiteren kann ich mich nicht an einen offizielle Mitteilung von nV erinnern wo man die senkung der BQ in UT2004 zugibt bevor diese entdeckt wurde. Soll bedeuten man wollte es genauso verstecken, war damit allerdings bei weitem nicht so erfolgreich wie ATi.
Da soll noch einer sagen ATi sei Technologisch rückständig. Die Jungs haben ja richtig was auf den Kasten und wissen ihr knoff hoff einzusetzen. :biggrin: ;D
Nur Spass!

Tigerchen
2005-03-01, 15:42:53
Eine Frage hab ich da nur .. was willst du SM2.0 auf einer FX5200 .. du gibst das ja hier als Argument an. Die FX5200 kann zwar den Shader doch besser ist es man deaktiviert ihn einfach. Auch die FX5600 kann nicht wirklich was mit SM2.0 anfangen. Also Anfangen schon .. aber die Performance ist merh als dürftig.

Das ist auch meine Meinung.
Allerdings ist dies ist dies für aths, razor und Lovesuckz irrelevant. Die 5200/5600 ist technologisch fortschrittlicher als alles was ATI bis heute zu bieten hat. Und nur das allein zählt!
(Keine Diskussion darüber mehr RaumKraehe. Zu viele Fanboys hier)

Spasstiger
2005-03-01, 15:51:33
Das ist auch meine Meinung.
Allerdings ist dies ist dies für aths, razor und Lovesuckz irrelevant. Die 5200/5600 ist technologisch fortschrittlicher als alles was ATI bis heute zu bieten hat. Und nur das allein zählt!
(Keine Diskussion darüber mehr RaumKraehe. Zu viele Fanboys hier)


Für einen Programmierer zählt das, was die Hardware theoretisch kann. Da es mit der GeForce 6800 auch Grafikkarten gibt, die technologisch fortschrittlich sind UND schnell sind, kann der Programmierer also auch auf der langsamer GeForce FX Hardware programmieren. Man kann nicht von jedem Coder erwarten, dass er sich die neueste und teuerste Hardware kauft.

robbitop
2005-03-01, 15:53:10
(Keine Diskussion darüber mehr RaumKraehe. Zu viele Fanboys hier)


Und du meinst, auf dem Niveau kann man dich ernstnehmen? Ich habe dich eigentlich anders eingeschätzt.

deekey777
2005-03-01, 16:07:18
Und du meinst, auf dem Niveau kann man dich ernstnehmen? Ich habe dich eigentlich anders eingeschätzt.

Gerade aufgewacht?
Von mir aus können die "Beschwerdeführer" zum Verbraucherschutz laufen und sich beschweren, daß SC3:CT keine SM2.0 Unterstützung hat.

Andererseits hat man bei SWAT4 alles richtig gemacht.

Ich brauche jetzt Hilfe:
Fanboys waren die nV-Jünger, und die Fanatiker sind die ATi-Jünger? Oder täusche ich mich?

robbitop
2005-03-01, 16:10:13
Gerade aufgewacht?
Von mir aus können die "Beschwerdeführer" zum Verbraucherschutz laufen und sich beschweren, daß SC3:CT keine SM2.0 Unterstützung hat.

Andererseits hat man bei SWAT4 alles richtig gemacht.

Ich brauche jetzt Hilfe:
Fanboys waren die nV-Jünger, und die Fanatiker sind die ATi-Jünger? Oder täusche ich mich?

Fanboys sind Jünger von einem x-beliebigen IHV. Beispiele für beide Seiten kennen wir genug ;)

DrumDub
2005-03-01, 17:00:18
Fanboys sind Jünger von einem x-beliebigen IHV. Beispiele für beide Seiten kennen wir genug ;)

ironie nicht erkannt? ;)

robbitop
2005-03-01, 17:38:33
ironie nicht erkannt? ;)
Nein, nur meine Art, zu zeigen, dass ich drüber stehe ;)

RaumKraehe
2005-03-01, 18:05:59
Das ist auch meine Meinung.
Allerdings ist dies ist dies für aths, razor und Lovesuckz irrelevant. Die 5200/5600 ist technologisch fortschrittlicher als alles was ATI bis heute zu bieten hat. Und nur das allein zählt!
(Keine Diskussion darüber mehr RaumKraehe. Zu viele Fanboys hier)


Alles klar .. wollte wirklich kein Fanboy-Geflame starten. :|

Piffan
2005-03-01, 18:08:17
Für einen Programmierer zählt das, was die Hardware theoretisch kann. Da es mit der GeForce 6800 auch Grafikkarten gibt, die technologisch fortschrittlich sind UND schnell sind, kann der Programmierer also auch auf der langsamer GeForce FX Hardware programmieren. Man kann nicht von jedem Coder erwarten, dass er sich die neueste und teuerste Hardware kauft.

Na dann möchte ich nicht wissen, was der da für nen Müll proggt. Imho sollte ein Progger auf der Hardware arbeiten, die dann auch sein Klientel nutzen wird.......

Ich weiß nicht, was der Stuss wieder soll. Es ist doch unstreitig, dass NV technologisch seit der FX führt. Es ist aber ebenso unstreitig, dass die Performance dieser Technologie in Teilen erst seit der NV 40 halbwegs brauchbar ist. Wo ist da ein Problem?
Wenn Ati nicht bald in die Socken kommt, wird man ein Marketing- Problem haben. Wenn mich Splintercell tatsächlich grafisch aus den Schuhen hauen würde, dann könnte ich zu der Ansicht kommen, dass ich mit meiner X800XT schon heute in der zweiten Reihe sitze....Aber tatsächlich verpasst man bisher noch nichts...noch!

Im Gegenteil habe ich den Eindruck, dass alles heiße Luft ist. Es will doch keiner ernsthaft sagen, dass der übertriebene Einsatz von Glanz- Shadern toll ist. Wenn ich bei SC die Leichen schultere, dann fällt mir sehr deutlich auf, wohin die Reise derzeit geht: Unscharfe TExturen gepaart mit Bumps und albernen Glanzeffekten. Die Figuren könnten Air- Fix- Modelle sein, alles was Struktur hat wird mit Glanzlichtern zugeklatsch (Ziegelsteinmauer mit Glasur, Felsen sehen aus wie Glimmer usw.), es wird mit Blend- und unrealistischen Schatten geprotzt usw. Scheinbar gibt man sich alle Mühe, JEDE Hardware in die Knie zu zwingen....Na hoffentlich vergessen die Designer nicht den spielerischen Tiefgang wie man ihn bei Kotor oder Vampire findet. Oder lernen die Grafik stilistisch gut einzusetzen wie bei Max Payne 2......

r@w
2005-03-02, 09:00:58
Das ist auch meine Meinung.
Allerdings ist dies ist dies für aths, razor und Lovesuckz irrelevant. Die 5200/5600 ist technologisch fortschrittlicher als alles was ATI bis heute zu bieten hat. Und nur das allein zählt!Und Du erzählst, dass nur Geschwindigkeit zählt... und nur das ist von Relevanz.

Vielleicht sollte man einfach seine eigenen Präferenzen dazu setzen:

- Speed um geden Preis (auch technologische Rückständigkeit und miese Quali)
- Features/Technologie um jeden Preis (und evtl. Defizite im Speed)
- ausgewogenes Verhältnis von Speed/Features und technologie (mit Defiziten in allen Bereichen)

Wäre das für Dich OK?
:confused:

Razor

P.S.: Das blaue Geschreibsel ist echt lächerlich... ;)

robbitop
2005-03-02, 10:19:47
- Speed um geden Preis (auch technologische Rückständigkeit und miese Quali)

....

Razor

P.S.: Das blaue Geschreibsel ist echt lächerlich... ;)

1. Das in Klammern ist auf die Realität bezogen doch etwas übertrieben.
2. ihr kennt eure Standpunkte und seid IMO zu verbissen. Vieleicht sollte jeder seinen Präferenzen nachgehen und die anderen in Ruhe lassen (damit bist nicht explizit du gemeint razor)
3. jeder kann seine Schrift wählen, wie es ihm passt. (und durch das mehrfache Kritisieren dieser Schrift, wird er sicher eher ermutigt, das fortzuführen *gg*)

nichts für ungut.

r@w
2005-03-02, 11:18:49
1. Das in Klammern ist auf die Realität bezogen doch etwas übertrieben.
2. ihr kennt eure Standpunkte und seid IMO zu verbissen. Vieleicht sollte jeder seinen Präferenzen nachgehen und die anderen in Ruhe lassen (damit bist nicht explizit du gemeint razor)
3. jeder kann seine Schrift wählen, wie es ihm passt. (und durch das mehrfache Kritisieren dieser Schrift, wird er sicher eher ermutigt, das fortzuführen *gg*)

nichts für ungut.Kein Problem... ganz im Gegenteil!

Ad1) ja, ich wollte es auch überzeichnen
Ad2) ist sicherlich ein generelles Problem (bei uns im speziellen ;-)
Ad3) leider...

Razor

aths
2005-03-02, 12:07:20
[COLOR="#000088"]
Das ist auch meine Meinung.
Allerdings ist dies ist dies für aths, razor und Lovesuckz irrelevant. Die 5200/5600 ist technologisch fortschrittlicher als alles was ATI bis heute zu bieten hat. Und nur das allein zählt! Dass nur das für mich zählen würde, ist eine verzerrte Wahrnehmung.

StefanV
2005-03-02, 12:59:15
Dass nur das für mich zählen würde, ist eine verzerrte Wahrnehmung.
Nicht wirklich, denn das könnte man durchaus aus deinen Postings rausinterpretieren :rolleyes:

Wobei du in letzter Zeit etwas zu sehr nV favorisierst und ATi viel zu sehr kritisierst, weit mehr als nötig täte, was dich nicht besser macht als z.B. Razor und andere.

robbitop
2005-03-02, 13:03:42
Nicht wirklich, denn das könnte man durchaus aus deinen Postings rausinterpretieren :rolleyes:

Wobei du in letzter Zeit etwas zu sehr nV favorisierst und ATi viel zu sehr kritisierst, weit mehr als nötig täte, was dich nicht besser macht als z.B. Razor und andere.
gabs da nicht eine Anekdote mit dem Glashaus? :|

Interpretieren kann man IMO viel (seit dem wir vor Jahren, als ich noch zur Schule ging, aus einem Frühlingsgedicht ein paar Erlebnisse aus dem 2.WK interpretiert haben, weil der Autor ja diesen miterlebt hätte, weiß ich das *gg*)

Dr Hake
2005-03-02, 13:08:31
Nicht wirklich, denn das könnte man durchaus aus deinen Postings rausinterpretieren :rolleyes:

Wobei du in letzter Zeit etwas zu sehr nV favorisierst und ATi viel zu sehr kritisierst, weit mehr als nötig täte, was dich nicht besser macht als z.B. Razor und andere.
Kritik per se ist nie schlecht wenn es etwas zu kritisieren gibt, schlecht ist nur wenn sie einseitig vorgetragen wird, und nichts anderes ist als das quasi herunterlesen von Marketingspruechen.

StefanV
2005-03-02, 13:17:07
Kritik per se ist nie schlecht wenn es etwas zu kritisieren gibt, schlecht ist nur wenn sie einseitig vorgetragen wird, und nichts anderes ist als das quasi herunterlesen von Marketingspruechen.
Richtig, schonmal 'nen Posting von aths gesehen, in dem er mal nicht nV lobt und Ati basht?! :ugly:

Ergo: das, was aths macht ist schon ziemlich einseitig, besonders, in dem er den Schrott von nV3x Serie lobt, die zum zocken nicht wirklich toll sind und ein sehr schlechtes P/L Verhältnis haben, wenn man die 5900 Vanille nicht für um die 100€ bekommen kann...

robbitop
2005-03-02, 13:22:13
Richtig, schonmal 'nen Posting von aths gesehen, in dem er mal nicht nV lobt und Ati basht?! :ugly:

Ergo: das, was aths macht ist schon ziemlich einseitig, besonders, in dem er den Schrott von nV3x Serie lobt, die zum zocken nicht wirklich toll sind und ein sehr schlechtes P/L Verhältnis haben, wenn man die 5900 Vanille nicht für um die 100€ bekommen kann...

du ließt, was du lesen willst. Oft genug betonte er, dass die GF 5xxx vieleicht nicht gut für DX9 Spiele ist, er jedoch *setzefeatureein* ganz toll findet. Das war natürlich etwas subtil, aber er hat es AFAIK nie bestritten, dass das so ist.

Seraf
2005-03-02, 13:23:51
Richtig, schonmal 'nen Posting von aths gesehen, in dem er mal nicht nV lobt und Ati basht?! :ugly:

Ergo: das, was aths macht ist schon ziemlich einseitig, besonders, in dem er den Schrott von nV3x Serie lobt, die zum zocken nicht wirklich toll sind und ein sehr schlechtes P/L Verhältnis haben, wenn man die 5900 Vanille nicht für um die 100€ bekommen kann...

Wer im Glashaus sitzt ...

Schonmal einen Thread gelesen in dem du nicht gegen Nvidia, Intel, nicht japanische Autos usw. basht?

Und wer den Unterschied zwischen Führerschaft in Technologie und Leistung nicht erkennt tut mir auch ein wenig Leid :cool:

aths
2005-03-02, 13:29:46
Nicht wirklich, denn das könnte man durchaus aus deinen Postings rausinterpretieren :rolleyes:Nur, wenn man bereits eine Brille aufhat.
Wobei du in letzter Zeit etwas zu sehr nV favorisierst und ATi viel zu sehr kritisierst, weit mehr als nötig täte, was dich nicht besser macht als z.B. Razor und andere.NV hat im Moment die technisch bessere Hardware, und steht in der Performance ATI nicht nach. Als jemand, der sich für 3D-Technik interessiert, rede ich aktuell logischerweise mehr von NVs HW als von ATIs. Da wird, trotz horrender Verspätung, auch noch der dritte Teil des NV40-Pipeline-Artikels kommen. Das kannst du blöd finden, du kannst mich mit Razor vergleichen, das ändert nichts, sondern offenbart in meinen Augen nur eine argumentative Schwäche.

aths
2005-03-02, 13:36:05
Richtig, schonmal 'nen Posting von aths gesehen, in dem er mal nicht nV lobt und Ati basht?! :ugly:Jo, und nicht nur eins.
Ergo: das, was aths macht ist schon ziemlich einseitig, besonders, in dem er den Schrott von nV3x Serie lobt, die zum zocken nicht wirklich toll sind und ein sehr schlechtes P/L Verhältnis haben, wenn man die 5900 Vanille nicht für um die 100€ bekommen kann...Wieder ein Beweis für deine ausgewogene, fachkompetente Bewertung von Hardware.

StefanV
2005-03-02, 13:36:47
NV hat im Moment die technisch bessere Hardware, und steht in der Performance ATI nicht nach.
...und horrende Treiber, siehe Dr.Dirt und andere, die arge Probleme haben...
Oder aber wenn man mal wieder 'nen altes Game ausgräbt wie z.B. Crimson Skies...
Von den ach so tollen nV Treibern sieht man irgendwie ncihts...
Achja, Reboots bei UT2004 mit 'nem Prozessor der DEP unterstützt, gibts auch noch...

ABer sieh endlich ein, das du diverse Dinge, die kaum einen interessieren, falsch beurteilst und maßlos übertreibst!!

Seraf
2005-03-02, 13:46:30
...und horrende Treiber, siehe Dr.Dirt und andere, die arge Probleme haben...
Oder aber wenn man mal wieder 'nen altes Game ausgräbt wie z.B. Crimson Skies...
Von den ach so tollen nV Treibern sieht man irgendwie ncihts...
Achja, Reboots bei UT2004 mit 'nem Prozessor der DEP unterstützt, gibts auch noch...

ABer sieh endlich ein, das du diverse Dinge, die kaum einen interessieren, falsch beurteilst und maßlos übertreibst!!


Mal um in den Geschichtsbüchern zu graben. Zu Radeon8500 Zeiten hast du die Karte auch in den Himmel gelobt, obwohl zu dieser Zeit nur zwei Dinge gut waren. Die SQ und PS1.4 (und das Killerargument: der TV Ausgang :lol: ). Die Treiber waren damals übel. Alte Spiele lassen sich teilweise heute noch nicht spielen (Battlezone). Gegenüber einer Gf4TI war sie arschlahm, hatte kein triAF, hatte kein MSAA. Also wenn man damals mit heute vergleicht hättest du eine R200 ja dermasen in den Dreck ziehen müssen.

Und heute willst du Aths bekehren...
Aber Fanatic Member steht ja nicht ohne Grund in deinem Avatar :cool:

Gaestle
2005-03-02, 14:28:42
Das bestägtigt es also. Sie waren zu faul die Effekte mit SM2.0 umzusetzen...

Hoffentlich nehmen sich daran nicht noch andere Entwickler ein Beispiel.

Sorry, aber nochmal:

Zu faul? Wo wird dies bestätigt?

Deine Zitate hab' ich gesehen, finde Sie aber nicht stichhaltig, dass sie Faulheit implizieren...

Fragen an ALLE:

Wie schwierig wäre es gewesen, Parallax-Mapping in SM2 zu basteln?
Wie wäre vermutlich die zu erwartende Performance gewessen?

Wie schwierig wäre es gewesen, Soft-Shadows in SM2 zu basteln?
Wie wäre vermutlich die zu erwartende Performance gewessen?

Wie schwierig wäre es gewesen, HDR (oder etwas, was ungefähr so aussieht) in SM2 zu basteln?
Wie wäre vermutlich die zu erwartende Performance gewessen?

Grüße

sm20
2005-03-02, 14:54:42
Sorry, aber nochmal:

Zu faul? Wo wird dies bestätigt?

Deine Zitate hab' ich gesehen, finde Sie aber nicht stichhaltig, dass sie Faulheit implizieren...

Keiner wird es öffentlich zu geben ;) Ich würde es aber mit gewollter Entscheidung umschreiben, faul oder finanziell, das f darfst du dir aussuchen.
Fragen an ALLE:

Wie schwierig wäre es gewesen, Parallax-Mapping in SM2 zu basteln?
Wie wäre vermutlich die zu erwartende Performance gewessen?

Wie schwierig wäre es gewesen, Soft-Shadows in SM2 zu basteln?
Wie wäre vermutlich die zu erwartende Performance gewessen?

Wie schwierig wäre es gewesen, HDR (oder etwas, was ungefähr so aussieht) in SM2 zu basteln?
Wie wäre vermutlich die zu erwartende Performance gewessen?

Grüße
Das Parallax-Mapping ist sicherlich ein Klacks, die Performance würde die technologisch führende FX5200 auch nicht überfordern ;)
Softshadows auch nicht wesentlich aufwendiger, aber das wäre nur was für die X800 und GF6800 gewesen.
HDR nach Aussage von Demirug keine 2 Monate, aber hier geht allen Karten die Luft aus, also wieder vernachlässigbar.

Also PM wäre locker drin gewesen und hätte das Spiel deutlich aufgewertet, da aber ein "Übershader" (sm3) etwickelt worden ist, ist die Diskussion darüber hinfällig.

Mr. Lolman
2005-03-02, 15:19:44
Gegenüber einer Gf4TI war sie arschlahm,


So?

http://www.ixbt.com/video2/images/over-2003/w-1024.png
http://www.ixbt.com/video2/images/over-2003/u2-1024.png
http://www.ocworkbench.com/2002/gigabyte/radeon8500deluxe/se.gif (Serious Sam:SE)


Das AF, so sehr ihr auch darüber schimpft, war imo garnichtmal so unbrauchbar:
8500 8xAF (http://www.hwluxx.de/Images/ASUS/V8420D/ati0x0x8.bmp) vs. GF4 8xAF (http://www.hwluxx.de/Images/Leadtek/GF4Ti4400/nvidia0x0x8.bmp)

Auch glaub ich kaum, dass irgendein GF4 Besitzer z.B: Mafia mit 1280x1024 und 8xAF gespielt hat. :P

Narrenkönig
2005-03-02, 15:20:46
...und horrende Treiber, siehe Dr.Dirt und andere, die arge Probleme haben...
Von den ach so tollen nV Treibern sieht man irgendwie ncihts...
Woher wissen die eigentlich das deren Probleme am nv Treiber liegen und nicht an anderen Einstellungen? Ich hatte mit den jeweils offiziellen Treiber nie Probleme. Also sind die kein totaler murks, sonst wäre jedes System betroffen.
Ganz im Ernst, woran erkenne ich das? Klar wenn ich von einen Funktionierenem Treiber auf einen neuen defekten umsteige, aber manche haben seit der Erstinstallation Probleme und sagen der nv Treiber ist es.

robbitop
2005-03-02, 15:34:16
So?

http://www.ixbt.com/video2/images/over-2003/w-1024.png
http://www.ixbt.com/video2/images/over-2003/u2-1024.png
http://www.ocworkbench.com/2002/gigabyte/radeon8500deluxe/se.gif (Serious Sam:SE)


Das AF, so sehr ihr auch darüber schimpft, war imo garnichtmal so unbrauchbar:
8500 8xAF (http://www.hwluxx.de/Images/ASUS/V8420D/ati0x0x8.bmp) vs. GF4 8xAF (http://www.hwluxx.de/Images/Leadtek/GF4Ti4400/nvidia0x0x8.bmp)

Auch glaub ich kaum, dass irgendein GF4 Besitzer z.B: Mafia mit 1280x1024 und 8xAF gespielt hat. :P

Das sind sehr seltene Settings die du hier aufführst. Das R200 AF war bis auf Ausnahmen unbrauchbar. Das AA ebenfalls. Und die Performance war meistens auch deutlich drunter.

Seraf
2005-03-02, 15:36:22
So?

http://www.ixbt.com/video2/images/over-2003/w-1024.png
http://www.ixbt.com/video2/images/over-2003/u2-1024.png
http://www.ocworkbench.com/2002/gigabyte/radeon8500deluxe/se.gif (Serious Sam:SE)


Das AF, so sehr ihr auch darüber schimpft, war imo garnichtmal so unbrauchbar:
8500 8xAF (http://www.hwluxx.de/Images/ASUS/V8420D/ati0x0x8.bmp) vs. GF4 8xAF (http://www.hwluxx.de/Images/Leadtek/GF4Ti4400/nvidia0x0x8.bmp)

Auch glaub ich kaum, dass irgendein GF4 Besitzer z.B: Mafia mit 1280x1024 und 8xAF gespielt hat. :P

Du willst doch nicht mit Ausnahmen die Regel bestätigen oder :rolleyes:

Ich hab selbst zwei Radeon 8500 Kärtchen, und habe sie auch über ein paar Jahre benutzt. Und unter UT2003 limitieren die beiden stark.
Das AF ist nicht schön. Da gibts nichts dran zu rütteln. Und ein Vergleich mit Standbildern ist sowieso lächerlich. Ich weiß auch das Standbilder auf einer R200 besser aussehen. Das bi-Band sieht man sowieso nur in Bewegung. Ganz fürchterlich wars in Jedi Knight Outcast als eine Gittertextur deutlich in drei Teile zerissen wurde (scharf/mittel/matsch) . Natürlich ist hier im Board auch bekannt das dir biAF als fast einzigem nichts ausmacht ;)


Achja Mafia. Als ich Mafia mit dem tollen AF spielen wollte hatte der ATI Treiber eine ganze Weile (über 6-7 Versionen?) den Bug das man in Spielen die Trilinear anfordern kein biAF aktivieren konnte :cool:

Mr. Lolman
2005-03-02, 15:42:09
Natülich ist hier im Board auch bekannt das dir biAF als fast einzigem nichts ausmacht ;)

Du vergisst, die ganzen NV40 Nutzer, die Quality mit allen Optimierungen fahren. Die haben ne nochmal deutlich schlechtere BQ, als ATi biAF Nutzer...

Seraf
2005-03-02, 15:46:49
Du vergisst, die ganzen NV40 Nutzer, die Quality mit allen Optimierungen fahren. Die haben ne nochmal deutlich schlechtere BQ, als ATi biAF Nutzer...

Haben die nicht zumindest einen briFilter?
Dann fallen die Übergänge doch nicht ganz so stark auf.
schlechter als R200-biAF kann ich mir im Moment garnicht vorstellen :D
(ausser so einen XGI Matsch)

LovesuckZ
2005-03-02, 16:02:21
Haben die nicht zumindest einen briFilter?


Wir haben sogar einen "trilinear" Filter beim AF.

Gaestle
2005-03-02, 16:07:29
Wir haben sogar einen "trilinear" Filter beim AF.

Aber wohl nicht, wenn die Optimierungen an sind, oder? Zumindest nicht über alle TS...

Seraf
2005-03-02, 16:08:21
Wir haben sogar einen "trilinear" Filter beim AF.

Ja schon, aber es ging doch um etwas ganz anderes...

Du vergisst, die ganzen NV40 Nutzer, die Quality mit allen Optimierungen fahren. Die haben ne nochmal deutlich schlechtere BQ, als ATi biAF Nutzer...

robbitop
2005-03-02, 16:09:12
selbst bei HQ wäre ich mir da im Moment nicht so sicher. Lolman hat da ein paar nette Vergleiche gemacht.

Mr. Lolman
2005-03-02, 16:10:05
Haben die nicht zumindest einen briFilter?
Dann fallen die Übergänge doch nicht ganz so stark auf.
schlechter als R200-biAF kann ich mir im Moment garnicht vorstellen :D
(ausser so einen XGI Matsch)


Ich glaub kaum, dass das R200 AF wirklich so schlecht war, wie das was NV da abliefert:

R300tri vs NV40 (http://www.forum-3dcenter.de/vbulletin/showthread.php?p=2780512#post2780512)
R300bi vs NV40 (http://www.forum-3dcenter.de/vbulletin/showthread.php?p=2780710#post2780710)

LovesuckZ
2005-03-02, 16:23:52
selbst bei HQ wäre ich mir da im Moment nicht so sicher. Lolman hat da ein paar nette Vergleiche gemacht.

Wo denn?

Mr. Lolman
2005-03-02, 16:30:00
Klickst du auf die Links... :| (http://www.forum-3dcenter.de/vbulletin/showthread.php?p=2784678#post2784678)

Seraf
2005-03-02, 16:39:39
Klickst du auf die Links... :| (http://www.forum-3dcenter.de/vbulletin/showthread.php?p=2784678#post2784678)

Ich kann dir auch nicht ganz folgen.
In dem Thread wird doch gezeigt das NV40 AF:
auf HQ ohne Opt besser aussieht (triAF) als R200AF
auf Q ohne Opt besser aussieht (triAF) als R200AF
auf Q mit Opt1+3 besser aussieht (briAF) als R200AF
auf Q mit allen Opt gleich bis schlechter aussieht (biAF) als R200AF

Wer nur auf Quality herumspielt hat natürlich nicht das Optimum an Qualität.

Oder hab ich was überlesen :confused:

mapel110
2005-03-02, 16:43:59
:| Soweit mir bekannt ist, entspricht R300 BiAF nicht dem AF des R200. Angeblich gabs da Verbesserungen in der Bildqualität, meinte man damals.

Seraf
2005-03-02, 16:48:29
:| Soweit mir bekannt ist, entspricht R300 BiAF nicht dem AF des R200. Angeblich gabs da Verbesserungen in der Bildqualität, meinte man damals.

Das R300 biAF ist auch nicht so breit und unterfilter nicht bei 45° sondern bei ~30° und ~60° (andere AF-Blume).

reunion
2005-03-02, 16:51:09
Wo denn?


Kein "High Quality" bei nvidia bei einigen Games? (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=205894)

LovesuckZ
2005-03-02, 16:53:27
Kein "High Quality" bei nvidia bei einigen Games? (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=205894)

Da gib's keine Bilder...
Das HQ nur dann greift, wenn man vorher alles deaktiviert, ist mir auch schon aufgefallen.

dgffdg
2005-03-02, 16:58:33
selbst bei HQ wäre ich mir da im Moment nicht so sicher. Lolman hat da ein paar nette Vergleiche gemacht.

imo "nur" bei Ut2k3/2k4 (was natürlich auch alles andere als in ordnung ist).

aber immerhin sieht man bei den dort verwendeten texturen den bri-filter praktisch nicht und es bringt auch nirgends soviel performance. trotzdem würd ich mir in HQ natürlich auch dort einen ordentlichen tri-filter wünschen.

aths
2005-03-02, 17:03:28
...und horrende Treiber, siehe Dr.Dirt und andere, die arge Probleme haben...Ich habe keine Probleme. Und kenne viele, auf die das auch zutrifft, ob sie nun ATI- oder NV-Grakas haben. Außerdem habe ich gar nicht von Treibern geredet.

ABer sieh endlich ein, das du diverse Dinge, die kaum einen interessieren, falsch beurteilst und maßlos übertreibst!!Dinge die kaum einen interessieren beurteile ich falsch, ja mehr noch, ich übertreibe maßlos? Warum stellst du mich dann nicht auf sachliche Art richtig, anstatt plötzlich irgendwelche NV-Treiberprobleme aufzubauschen?

ShadowXX
2005-03-02, 17:03:37
imo "nur" bei Ut2k3/2k4 (was natürlich auch alles andere als in ordnung ist).

aber immerhin sieht man bei den dort verwendeten texturen den bri-filter praktisch nicht und es bringt auch nirgends soviel performance. trotzdem würd ich mir in HQ natürlich auch dort einen ordentlichen tri-filter wünschen.

Juppss....bei UT2k3/4 gibts es ein extra spezielles Setting, welches knallhart von den Treibern durchgedrückt wird, egal was man einstellt.

aths
2005-03-02, 17:05:40
Sorry, aber nochmal:

Zu faul? Wo wird dies bestätigt?

Deine Zitate hab' ich gesehen, finde Sie aber nicht stichhaltig, dass sie Faulheit implizieren...

Fragen an ALLE:

Wie schwierig wäre es gewesen, Parallax-Mapping in SM2 zu basteln?
Wie wäre vermutlich die zu erwartende Performance gewessen?

Wie schwierig wäre es gewesen, Soft-Shadows in SM2 zu basteln?
Wie wäre vermutlich die zu erwartende Performance gewessen?

Wie schwierig wäre es gewesen, HDR (oder etwas, was ungefähr so aussieht) in SM2 zu basteln?
Wie wäre vermutlich die zu erwartende Performance gewessen?Parallax Mapping ist mit SM2 gut möglich. Softshadows sind je nach Implementierung meistens allgemein sehr aufwändig. Für billige weiche Schatten á la Max Payne 2 reicht afaik Pixelshader 1.1. Vernünftiges HDR ist auf dedizierte FP-Texturfilter und Blending-Units angewiesen. Das hat mit dem Shader Model wenig zu tun, mehr oder minder zufällig wird aber jede ernsthafte SM3-Hardware auch über die für HDR notwendige FP-Units verfügen.

deekey777
2005-03-02, 17:24:01
Parallax Mapping ist mit SM2 gut möglich. Softshadows sind je nach Implementierung meistens allgemein sehr aufwändig. Für billige weiche Schatten á la Max Payne 2 reicht afaik Pixelshader 1.1. Vernünftiges HDR ist auf dedizierte FP-Texturfilter und Blending-Units angewiesen. Das hat mit dem Shader Model wenig zu tun, mehr oder minder zufällig wird aber jede ernsthafte SM3-Hardware auch über die für HDR notwendige FP-Units verfügen.

Darum hätten die Ubisofties zumindest einen SM2.0 Efekt einbauen können, damit diese Diskussion gar nicht nötig wäre.

aths
2005-03-02, 17:27:13
Darum hätten die Ubisofties zumindest einen SM2.0 Efekt einbauen können, damit diese Diskussion gar nicht nötig wäre.Siehe Demirugs Argument. Hätte der Publisher die nötigen Mittel (Geld, Zeit) zur Verfügung gestellt, wären Effekte auf SM2-Basis kein Problem gewesen.

Ich wundere mich über die Diskussionsrichtung von einigen. Früher hatte es geheißen, vor 2006 (iirc, lt. einem sogar vor 2010) sei SM3-Support gar nicht notwendig. Jetzt kommt es mal und es wird gejault, dass der eigenen Grafikkarte die Maximaleinstellung bei den Effekten verwehrt bleibt. Früher oder später musste dieser Tag kommen.

Für Effekte auf neuem Level ist neben mehr Rohleistung (bringt sowohl NV40 als auch R420) natürlich auch das entsprechende Featurelevel notwendig. Stattdessen wurde in diesem Forum monatelang darüber diskutiert, welche HDR-Effekte man auf der Radeon noch zu sehen bekäme. Dass ihr da bestimmte Schaltkreise fehlen, wurde beharrlich nicht zur Kenntnis genommen. Im Rahmen sind HDR-mäßige Effekte natürlich auch auf einer Radeon darstellbar, und ich sehe Entwicklungen in dieser Richtung positiv (also erst mal den HW-Technikstand von 2002 richtig auszunutzen.) "Richtiges" HDR braucht NV40+ oder R520+.

MarcWessels
2005-03-02, 17:28:15
Das HQ nur dann greift, wenn man vorher alles deaktiviert, ist mir auch schon aufgefallen.

Yup - das könnten die mal ändern.

deekey777
2005-03-02, 17:32:43
Siehe Demirugs Argument. Hätte der Publisher die nötigen Mittel (Geld, Zeit) zur Verfügung gestellt, wären Effekte auf SM2-Basis kein Problem gewesen.

Das ist schon klar, seine Antwort kenne ich schon lange aus dem anderen Thread.

Razor
2005-03-02, 18:40:15
selbst bei HQ wäre ich mir da im Moment nicht so sicher. Lolman hat da ein paar nette Vergleiche gemacht.Einzige Ausnahme scheint hier UT2003/2004 zu sein...
Und das ist nicht erst seit heute so, sondern schon seit dem ersten (!) Optimierungsversuch!

Ist absolut nicht neu und betrifft auch keine andere Engine...
Warum das jetzt wieder von Lolman heraus gekramt wurde... keine Ahnung!
(gab ja schon damals zu NV35-Zeiten größte Diskussionen darüber ;-)

Razor

Razor
2005-03-02, 18:51:53
Das HQ nur dann greift, wenn man vorher alles deaktiviert, ist mir auch schon aufgefallen.Echt?
Wobei?
:confused:

Eben grad' nochmal gecheckt:
- Quality + allOpt on -> *igitt*
- HighQuality = Quality + allOpt off + 'Feature' off -> *supergut*

Sowohl in Sachen Performance, wie auch vor allen in Punkto BQ.

Und ich hab' nix anderes gemacht, als den Schieberegler von 'Quality' auf HQ zu stellen...
...Tools nutze ich hier nicht.
Hmmm...

Razor

P.S.: ähm... derzeit ist der 75.90 druf'... ;)

MarcWessels
2005-03-02, 23:24:01
Beim 71.20er ist es zumindest in Doom III der Fall.

Mr. Lolman
2005-03-03, 09:56:06
Ist absolut nicht neu und betrifft auch keine andere Engine...
Warum das jetzt wieder von Lolman heraus gekramt wurde... keine Ahnung!
(gab ja schon damals zu NV35-Zeiten größte Diskussionen darüber ;-)

Razor

Ich hab da nix raustgekramt. Mir fiel nur auf, dass bei Q3a Q+Opts schlechter ist als ATi biAF, und HQ mit triAF mithalten kann, weil es um die Vergleichbarkeit zw. ATi und NV AF ging...

ShadowXX
2005-03-03, 10:33:59
Ich hab da nix raustgekramt. Mir fiel nur auf, dass bei Q3a Q+Opts schlechter ist als ATi biAF, und HQ mit triAF mithalten kann, weil es um die Vergleichbarkeit zw. ATi und NV AF ging...

Man sollte für solche Test vielleicht Games benutzen die weder von nV noch von ATI "Todoptimiert" sind.

StefanV
2005-03-03, 11:09:07
Man sollte für solche Test vielleicht Games benutzen die weder von nV noch von ATI "Todoptimiert" sind.
Sollte man das??

Oder sollte man nicht gerade diese Games nshmen?!

ShadowXX
2005-03-03, 11:23:51
Sollte man das??

Oder sollte man nicht gerade diese Games nshmen?!

Für einen reellen Vergleich der Filterqualitäten meiner persönlichen Meinung nach ja....

Aber ich gebe dir Recht, das man das unter verschiedenen Aspekten betrachten muss.

Allerdings ist der Filter-Vergleich von "Todoptimierten" Games IMHO nur der Vergleich, wer unauffälliger Schummeln kann.

Hauwech
2005-03-04, 09:45:10
Ich verstehe hier echt einige nicht, die auf Treiberproblemen rumreiten. Ziemlich oft ist ein zerkonfigurierter PC das Problem. Dazu kommen noch die Millionen von Hardware Kombinationen. Nicht zu vergessen, das sich einige Probleme durch OC ergeben können. Zum Schluss kann das Problem in sehr vielen Fällen einfach vor dem Monitor sitzen.

Den perfekten Treiber gibt es nicht. Wenn Programme mit einem Treiber nicht richtig funktionieren dann sollte man es nicht gleich auf den IHV schieben, vor allem nicht wenn man "öfter" mal den Treiber wechselt um mehr Punkte im Schwanzmark zu bekommen. Das S3 und XGI im Moment noch nicht an die Treiberqualität von den beiden Dicken rankommen, ist, glaube ich, unbestritten.

Hier also jemanden als "Paradebespiel" für schlechte Treiber eines IHV zu präsentieren ist also der grösste Quatsch und zeigt nur eins: Derjenige will nur dumm rumflamen und bringt dazu ein denkbar schlechtes "Argument".

robbitop
2005-03-04, 10:38:25
Den perfekten Treiber gibt es nicht. Wenn Programme mit einem Treiber nicht richtig funktionieren dann sollte man es nicht gleich auf den IHV schieben, vor allem nicht wenn man "öfter" mal den Treiber wechselt um mehr Punkte im Schwanzmark zu bekommen. Das S3 und XGI im Moment noch nicht an die Treiberqualität von den beiden Dicken rankommen, ist, glaube ich, unbestritten.

Hier also jemanden als "Paradebespiel" für schlechte Treiber eines IHV zu präsentieren ist also der grösste Quatsch und zeigt nur eins: Derjenige will nur dumm rumflamen und bringt dazu ein denkbar schlechtes "Argument".

Ack, wobei man derzeit besonders vor ATI und S3 den Hut ziehen sollte IMO.
ATI bringt jeden Monat einen offiziellen, neuen, besseren Treiber, ohne großartig neue Fehler hereinzubügeln. Die Art und die Reaktionsgeschwindigkeit der Treiber sind mir sehr sympatisch.

S3 ist ein kleiner Spieler. Sie haben relativ wenig Geld, wenig Leute, schlechte Tools. Und dennoch erscheinen regelmäßig neue Treiber, mit großen udn guten Verbesserungen. Man merkt, sie bemühen sich sehr. Konstanz ist in dieser Branche wie auch überall der richtige Weg IMO.

Hauwech
2005-03-04, 11:00:25
Ack, wobei man derzeit besonders vor ATI und S3 den Hut ziehen sollte IMO.
ATI bringt jeden Monat einen offiziellen, neuen, besseren Treiber, ohne großartig neue Fehler hereinzubügeln. Die Art und die Reaktionsgeschwindigkeit der Treiber sind mir sehr sympatisch.

S3 ist ein kleiner Spieler. Sie haben relativ wenig Geld, wenig Leute, schlechte Tools. Und dennoch erscheinen regelmäßig neue Treiber, mit großen udn guten Verbesserungen. Man merkt, sie bemühen sich sehr. Konstanz ist in dieser Branche wie auch überall der richtige Weg IMO.

Naja, bei ATI sollte das kein Kunststück sein, gute Treiber für eine 2,5 Jahre alte gute Architektur zu bringen. :)

robbitop
2005-03-04, 11:04:04
Naja, bei ATI sollte das kein Kunststück sein, gute Treiber für eine 2,5 Jahre alte gute Architektur zu bringen. :)
Das ist sicher korrekt. Aber die "Catalystphilosophie" ist schon lange so.
Jeden Monat einen besseren Treiber und das offiziell. Das entspricht einer konstanten Steigerung. So muss das sein und nicht anders.

ShadowXX
2005-03-04, 11:27:47
Das ist sicher korrekt. Aber die "Catalystphilosophie" ist schon lange so.
Jeden Monat einen besseren Treiber und das offiziell. Das entspricht einer konstanten Steigerung. So muss das sein und nicht anders.

Wenn ATI diese Qualität (und ja, obwohl ich momentan eine nV habe, finde ich die ATI Treiber gut) auch bei völlig neuen Grafikchips beibehalten kann, stimme ich dir zu....

Aber sonst muss ich Hauwech zustimmen...bei der "alten" Architektur ist dieses wirklich kein so grosses Ding...

robbitop
2005-03-04, 11:35:23
Wenn ATI diese Qualität (und ja, obwohl ich momentan eine nV habe, finde ich die ATI Treiber gut) auch bei völlig neuen Grafikchips beibehalten kann, stimme ich dir zu....

Aber sonst muss ich Hauwech zustimmen...bei der "alten" Architektur ist dieses wirklich kein so grosses Ding...
Das sehe ich wirklich genauso und bestreite dies nicht. Es ist einfach die Philosophie des Treiberentwickelns die mich positiv beindruckt. Es muss nach vorn gehen. Siehe S3 Graphics. Dann bin ich als Kunde zufrieden, fühle mich ernst genommen.

Iceman346
2005-03-04, 11:35:47
Wenn ATI diese Qualität (und ja, obwohl ich momentan eine nV habe, finde ich die ATI Treiber gut) auch bei völlig neuen Grafikchips beibehalten kann, stimme ich dir zu....

Aber sonst muss ich Hauwech zustimmen...bei der "alten" Architektur ist dieses wirklich kein so grosses Ding...

Das wird man dann beim R520 sehen.

Aber der Zustand den nV momentan liefert (der letzte offizielle Treiber ist 4 Monate alt), den finde ich sehr enttäuschend. Und das von der Firma die laut Aussagen vieler hier im Forum die besseren Treiber und den besseren Support haben soll als ATi. Wenn das so weitergeht und ATi so weitermacht wie bekannt wird meine nächste Grafikkarte garantiert keine Nvidia Karte.

Und bevor jetzt die Leute mit ihren Betatreibern ankommen. Ich hab ne Zeitlang mal den einen oder anderen installiert und bin immer wieder zurück zum offiziellen Treiber weil dieser weniger Probleme macht.

robbitop
2005-03-04, 11:44:38
man kann nur auf den nächsten WHQL hoffen. Die 75.90 Ergebnisse sehen bisher bis auf kleinere Bugs ja schonmal ganz gut aus.

Winter[Raven]
2005-03-04, 13:27:08
Das wird man dann beim R520 sehen.

Aber der Zustand den nV momentan liefert (der letzte offizielle Treiber ist 4 Monate alt), den finde ich sehr enttäuschend. Und das von der Firma die laut Aussagen vieler hier im Forum die besseren Treiber und den besseren Support haben soll als ATi. Wenn das so weitergeht und ATi so weitermacht wie bekannt wird meine nächste Grafikkarte garantiert keine Nvidia Karte.

Und bevor jetzt die Leute mit ihren Betatreibern ankommen. Ich hab ne Zeitlang mal den einen oder anderen installiert und bin immer wieder zurück zum offiziellen Treiber weil dieser weniger Probleme macht.

Würde ATI genauso viel zutun haben wie Nvidia, würde es mit den Catalyst nicht besser aussehn.

Dr Hake
2005-03-04, 13:31:35
']Würde ATI genauso viel zutun haben wie Nvidia, würde es mit den Catalyst nicht besser aussehn.
?? Was soll uns dieses sagen ?? Bitte um einige erklaerungen.

Iceman346
2005-03-04, 13:39:59
']Würde ATI genauso viel zutun haben wie Nvidia, würde es mit den Catalyst nicht besser aussehn.

Inwiefern meinst du "genauso viel zu tun haben"? Wo hat Nvidia mehr zu tun?

Davon ab: Nvidia ist ja nunmal keine kleine Firma, da sollte das Geld schon drinsitzen für ein paar ordentliche Treiberentwickler die regelmässig einen neuen Treiber veröffentlichen.

Spasstiger
2005-03-04, 13:43:59
?? Was soll uns dieses sagen ?? Bitte um einige erklaerungen.

Er meint wahrscheinlich, dass die gesamte Belegschaft Nvidia bei den Spieleentwicklern hockt und sich für den Exklusivsupport von SM3.0-Support einsetzt. ;)
Da kann ich ihn aber beruhigen, Nvidia hat genug Mitarbeiter und auch für jeden Bereich eine eigene Abteilung (Treiberteam, TWIMTBP-Team, Entwicklerteam etc.).

robbitop
2005-03-04, 13:55:36
dafür gibt es extra Teams. Nennt sich Dev Relations/Support. Das Treiberteam(/s) hat damit AFAIK nicht viel am Hut.

Dr Hake
2005-03-04, 14:05:40
dafür gibt es extra Teams. Nennt sich Dev Relations/Support. Das Treiberteam(/s) hat damit AFAIK nicht viel am Hut.

die Antwort war wohl eher ironisch gemeint. Aufwand scheint mir auf beiden Seiten gleich zu sein (PS3 vs xBOx2, MB Chipsaetze).

Mr. Lolman
2005-03-04, 14:16:28
Naja, bei ATI sollte das kein Kunststück sein, gute Treiber für eine 2,5 Jahre alte gute Architektur zu bringen. :)


Ein Kunststück ists eher, nach 2.5Jahren immernoch Perfrormanceverbesserungen rauszukitzeln. (mittlerweile dürften sich jedoch zumindest R3x0 Karten so ziemlich am Performanceoptimum befinden)

sdggh
2005-03-04, 14:29:55
?? Was soll uns dieses sagen ?? Bitte um einige erklaerungen.

ich glaube er meint dass ati mit einer neuen architektur nicht so "gemütliche" jeden monat einen neuen treiber "ohne bugs" präsentieren kann.

mittlerweile finde ich haben sowohl ati als auch nvidia sehr gute treiber, mit kaum problemen. und was ist das problem wenn ein treiber als beta deklariert wird und trotzdem sehr gut läuft?

Dr Hake
2005-03-04, 14:48:24
ich glaube er meint dass ati mit einer neuen architektur nicht so "gemütliche" jeden monat einen neuen treiber "ohne bugs" präsentieren kann.
Ist das nicht schon seit GFFx Zeiten so? Bei dem Start der Cat Initiative war R300 auch neu, was Ati nicht daran trotzdem jeden Monat einen Treiber zu releasen. Was hindert nV daran die bewiesenen Verbesserungen/Bugfixes jeden Monat in einen neuen WHQL einzubinden, selbst wenn nur entweder nV3x oder 4x davon betroffen waeren.

mittlerweile finde ich haben sowohl ati als auch nvidia sehr gute treiber, mit kaum problemen. und was ist das problem wenn ein treiber als beta deklariert wird und trotzdem sehr gut läuft?
Gegenfrage: wenns laeuft wie es soll, wo ist dann das Problem den Treiber als "offiziel" zu erklaeren?

Iceman346
2005-03-04, 14:52:18
mittlerweile finde ich haben sowohl ati als auch nvidia sehr gute treiber, mit kaum problemen. und was ist das problem wenn ein treiber als beta deklariert wird und trotzdem sehr gut läuft?

Das Problem ist, dass es eine Unmenge an Betatreibern gibt und alle paar Tage leakt irgendwo nen neuer. Ich hab anfangs immer mal wieder einen von diesen Installiert, aber keiner kam von der Stabilität oder Kompatibilität an den 66.93er ran und irgendwann hab ichs dann aufgegeben immer wieder neue Betatreiber auf den PC zu hauen.

Das ganze System, welches von Nvidia auch noch gestützt wird (da sie ja selber Betatreiber releasen) wirft, für mich, ein sehr schlechtes Licht auf die Firma.

Spasstiger
2005-03-04, 15:03:30
Das Problem ist, dass es eine Unmenge an Betatreibern gibt und alle paar Tage leakt irgendwo nen neuer. Ich hab anfangs immer mal wieder einen von diesen Installiert, aber keiner kam von der Stabilität oder Kompatibilität an den 66.93er ran und irgendwann hab ichs dann aufgegeben immer wieder neue Betatreiber auf den PC zu hauen.

Das ganze System, welches von Nvidia auch noch gestützt wird (da sie ja selber Betatreiber releasen) wirft, für mich, ein sehr schlechtes Licht auf die Firma.

Die Sache mit den Beta-Treibern artet bei Nvidia in der Tat ziemlich aus und außer mehr Punkte in den üblichen Benches haben die Beta-Treiber auch keine Vorteile, im Gegenteil. Darstellungsfehler in Source-Engine-Games sind schon Grund genug, von diesen Treibern fernzubleiben. Den 66.93 halte ich nach wie vor ebenfalls für den besten Nvidia-Treiber.
Irgendwie bekommts Nvidia nicht auf die Reihe, einen auch in der Source-Engine fehlerfreien und allgemein schnelleren Treiber zu releasen. Das ist irgendwo schon merkwürdig. Bin mal gespannt, ob überhaupt noch einer der 7x.xx-Treiber zum offiziellen Treiber auserkoren wird ;) .

robbitop
2005-03-04, 15:06:43
Die Sache mit den Beta-Treibern artet bei Nvidia in der Tat ziemlich aus und außer mehr Punkte in den üblichen Benches haben die Beta-Treiber auch keine Vorteile, im Gegenteil. Darstellungsfehler in Source-Engine-Games sind schon Grund genug, von diesen Treibern fernzubleiben. Den 66.93 halte ich nach wie vor ebenfalls für den besten Nvidia-Treiber.
Irgendwie bekommts Nvidia nicht auf die Reihe, einen auch in der Source-Engine fehlerfreien und allgemein schnelleren Treiber zu releasen. Das ist irgendwo schon merkwürdig. Bin mal gespannt, ob überhaupt noch einer der 7x.xx-Treiber zum offiziellen Treiber auserkoren wird ;) .

Angeblich soll der nächste WHQL ein Verwandter des 75.90 sein (weiterentwickelt).

LovesuckZ
2005-03-04, 16:01:15
Das ganze System, welches von Nvidia auch noch gestützt wird (da sie ja selber Betatreiber releasen) wirft, für mich, ein sehr schlechtes Licht auf die Firma.

Nvidia bringt auf Nzone offizielle Beta- und auf der Hauptseite offizielle WHQL treiber raus.
Was macht ATi deienr Meinung genau anders?

robbitop@work
2005-03-04, 16:07:23
Nvidia bringt auf Nzone offizielle Beta- und auf der Hauptseite offizielle WHQL treiber raus.
Was macht ATi deienr Meinung genau anders?
Sie bringen jeden Monat einen neuen und besseren und bugfreieren und schnelleren und offiziellen Treiber heraus. Das ist ein Unterschied.
NV's betas haben in letzter Zeit echt nachgelassen. Refreshfixbug, Tempbug, gelbes Wasser bug, hier stottern, dort AF Flackern und dort Bluescreenes. Und das schlimme ist, dass in diesen Betas oft Fehler gefixt werden und dumme oder alte Bugs wieder hinzukommen. Das habe ich bei den neueren Cats nicht mehr gesehn. Da wirkt jeder Cat ausgereift.
That's the difference.

Iceman346
2005-03-04, 16:11:31
Sie bringen jeden Monat einen neuen und besseren und bugfreieren und schnelleren und offiziellen Treiber heraus. Das ist ein Unterschied.
NV's betas haben in letzter Zeit echt nachgelassen. Refreshfixbug, Tempbug, gelbes Wasser bug, hier stottern, dort AF Flackern und dort Bluescreenes. Und das schlimme ist, dass in diesen Betas oft Fehler gefixt werden und dumme oder alte Bugs wieder hinzukommen. Das habe ich bei den neueren Cats nicht mehr gesehn. Da wirkt jeder Cat ausgereift.
That's the difference.

Full Ack, besser hätte ich es nicht ausdrücken können.

dsghh
2005-03-04, 16:26:01
Gegenfrage: wenns laeuft wie es soll, wo ist dann das Problem den Treiber als "offiziel" zu erklaeren?

frag ich mich oft auch, ich hab jedenfalls seit jahren eigentlich fast immer beta-treiber für die graka installiert. an probleme kann ich mich dabei nur an die 20er serie der detonatoren erinnern, die öfters bluescreens verursacht haben. allerdings hatte das imo auch mehr mit meinem schlechten via-chipsatz zu tun, auch wenn immer wieder nv4_disp.dll als fehlerquelle angezeigt wurde, denn nach irgendeinem update des chipsatztreibers waren die probleme vorbei.

ich hab seit jeher das gefühl dass nvidia die treiber wesentlich stärker testet als ati, die auch hin und wieder mal verfrüht einen treiber offiziell releasen (wobei ich in letzter zeit auch mit ati-treibern sehr zufrieden bin).
ich denke da vor allem an die zeiten von r1xx und r2xx, da waren die ati-treiber wirklich der horror (was aber wohl auch unter anderm an der hardware lag). wie es zu anfangszeiten der r3xx-ära (die ja immer noch anhält) ausgesehen hat weiß ich nicht, da es bei uns zuhause erst seit 8 monaten eine radeon 9800 gibt, mit der es auch keine probleme gibt. aber soweit ich mich noch erinnern kann gab es zu 9700er zeiten doch noch größere probleme.
ati hat es da heute natürlich etwas leichter, da die hardware bis heute kaum verändert wurde, während nvidia einen komplett neuen chip hat.

die performance ist mit den beta-treibern meistens sogar besser (vor allem der sprung von 6x.xx auf 7x.xx bringt einiges) als mit den offiziellen, und oft sind sogar mehr bugs gefixt als in offiziellen(siehe hardware-shadow-mapping in SC3).
dass in einem neuen beta-treiber neue bugs auftreten oder gar alte wiederkommen hab ich eigentlich nie bemerkt (zumindest kann ich mich nicht erinnern). meistens ist es eher so dass ein bug in einem neuen spiel erstmals erscheint und in 1-2 wochen gibts den nächsten betatreiber der das behebt, mit diesem support bin ich eigentlich sehr zufrieden ;)

dildo4u
2005-03-04, 16:26:27
Sie bringen jeden Monat einen neuen und besseren und bugfreieren und schnelleren und offiziellen Treiber heraus. Das ist ein Unterschied.
NV's betas haben in letzter Zeit echt nachgelassen. Refreshfixbug, Tempbug, gelbes Wasser bug, hier stottern, dort AF Flackern und dort Bluescreenes. Und das schlimme ist, dass in diesen Betas oft Fehler gefixt werden und dumme oder alte Bugs wieder hinzukommen. Das habe ich bei den neueren Cats nicht mehr gesehn. Da wirkt jeder Cat ausgereift.
That's the difference.
Nur kann nvidia recht wenig dafür wenn irgendwelche Entwickler und Karten hersteller dauernt treiber Leaken.Und die nzone Betas warn im Großen und Ganzen recht bugfrei.

muma
2005-03-04, 16:49:24
Aber sicher =) Ordentliche whql release driver und keiner sagt was.

DrumDub
2005-03-04, 17:14:16
Nur kann nvidia recht wenig dafür wenn irgendwelche Entwickler und Karten hersteller dauernt treiber Leaken.Und die nzone Betas warn im Großen und Ganzen recht bugfrei.

haha... du glaubst doch nicht ernsthaft, dass nvidia nichts dagegen tun könnte, wenn sie nur wollten. es ist doch ganz in ihrem interesse, weil sie so keinen stress wegen "reklamationen" haben. es ist halt nur nen beta-treiber...

Spasstiger
2005-03-04, 18:57:13
Sie bringen jeden Monat einen neuen und besseren und bugfreieren und schnelleren und offiziellen Treiber heraus. Das ist ein Unterschied.
NV's betas haben in letzter Zeit echt nachgelassen. Refreshfixbug, Tempbug, gelbes Wasser bug, hier stottern, dort AF Flackern und dort Bluescreenes. Und das schlimme ist, dass in diesen Betas oft Fehler gefixt werden und dumme oder alte Bugs wieder hinzukommen. Das habe ich bei den neueren Cats nicht mehr gesehn. Da wirkt jeder Cat ausgereift.
That's the difference.

Seh ich ebenso. Nvidia sollte dafür sorgen, dass die Geschichte mit den Beta-Treibern nicht zu sehr ausartet. Ein offizielles Statement zur Treiberpolitik wäre auch nicht schlecht, denn bisher sieht es eher so aus, also ob Nvidia ganz bewußt den Endkunden Betatester spielen lässt.

Kladderadatsch
2005-03-04, 19:15:29
denn bisher sieht es eher so aus, also ob Nvidia ganz bewußt den Endkunden Betatester spielen lässt.

warum denn? nvidia bringt doch auch nicht öfters als ati offizielle treiber raus?
mir ists da sogar sehr recht, dass nicht nur die paar wenigen zur auswahl stehen, sondern viele mit teils ziemlich großen unterschieden zu ihren "vorgängern". natürlich tauchen da öfters wieder alte oder neue bugs auf, dafür gibts aber auch immer wieder äußerst wichtige verbesserungen- bestes beispiel zur zeit ist sli. und wer weiß, ob die performance des 75.90 jemals in einem whql-zertifizierten aufgetaucht wäre...

davon abgesehen haben misterh und razor immer wieder neuen stoff zum benchen, währenddessen der rest über diverse treibereinträge philosophiert:)

LovesuckZ
2005-03-05, 13:46:31
NV's betas haben in letzter Zeit echt nachgelassen. Refreshfixbug, Tempbug, gelbes Wasser bug, hier stottern, dort AF Flackern und dort Bluescreenes.

Mein Nzone 66.77 laeuft fehlerfrei.


Und das schlimme ist, dass in diesen Betas oft Fehler gefixt werden und dumme oder alte Bugs wieder hinzukommen. Das habe ich bei den neueren Cats nicht mehr gesehn. Da wirkt jeder Cat ausgereift.
That's the difference.

Welche Fehler meinst du, die beim 71.84 gegenüber dem letzten beta aufgetaucht sind?
Ich kann davon ausgehen, dass wir hier von betas reden, die auf Nzone veröffentlicht werden?
Wenn nicht, erübrigt sich die Diskussion, da diese Treiber nicht von Nvidia veröffentlicht werden.

deekey777
2005-03-05, 14:08:09
Mal sehen, wie groß der Aufschrei mal wieder sein wird, wenn bei einem grösseren Test nur mit offiziellen Treibern getestet wird. :uexplode:

Quasar
2005-03-05, 14:09:51
Wer vernünftig ist, schreit da erstmal gar nicht auf - offizielle Treiber sind eigentlich, wenn es sich nicht grad um Produktneuvorstellungen handelt, Pflicht.

LovesuckZ
2005-03-05, 14:14:16
Mal sehen, wie groß der Aufschrei mal wieder sein wird, wenn bei einem grösseren Test nur mit offiziellen Treibern getestet wird. :uexplode:

Nzone Treiber sind ja offizielle Treiber mit einer Dokumentation.
Nur ohne WHQL Zertifikat.

deekey777
2005-03-05, 14:28:25
Nzone Treiber sind ja offizielle Treiber mit einer Dokumentation.
Nur ohne WHQL Zertifikat.

Natürlich habe ich offizielle Treiber mit dem Zertifikat gemeint, die jeder von ATi bzw. nVidia Homepage herunterladen kann. ;)

Dieser Streit um Treiber ist zum :kotz:! Dennoch ist es ein mulmiges Gefühl, wenn bei der Überfülle an Treibern von nVidia.

Lubi
2005-03-05, 14:41:51
Die Splinter Cell SM 2.0 Affäre ;) ist die Klatsche gegen ATI für den HL GeForce FX Skandal.

Beide Spiele haben eine Begründung für diese (wobei die von Valve um einiges legetimer ist). Nur ist die UBISFOT geschichte unangenehmer, da überhaupt kein SM 2.0 Pfad integreirt wurde. Schade

Cya Lubi

deekey777
2005-03-05, 14:45:39
Die Splinter Cell SM 2.0 Affäre ;) ist die Klatsche gegen ATI für den HL GeForce FX Skandal.

Beide Spiele haben eine Begründung für diese (wobei die von Valve um einiges legetimer ist). Nur ist die UBISFOT geschichte unangenehmer, da überhaupt kein SM 2.0 Pfad integreirt wurde. Schade

Cya Lubi

Auch die Begründung von ubisoft ist legitim: Zeitersparnis, Kostenersparnis, Arbeitersparnis...

Und nur so am Rande: RaSh, was auch von ubisoft Montreal gemacht wurde, ist zB ein GITG Spiel mit ATi-Logo inside (wegen Truform!).

G!!!ast
2005-03-05, 14:52:03
UBI geht hier voll im Trend: Immer weniger Spiel für mehr Geld.

Geht nicht mehr lange, da kommt beim Spielestart die Meldung: Falsche Grafikkarte entdeckt. Bitte eine NVidia Karte installieren (oder eine ATI, je nach dem, was vorher drin war).

Spätestens dann hole ich wieder meine Brettspiele ausm Keller.

LordDeath
2005-03-05, 15:23:35
UBI geht hier voll im Trend: Immer weniger Spiel für mehr Geld.

Geht nicht mehr lange, da kommt beim Spielestart die Meldung: Falsche Grafikkarte entdeckt. Bitte eine NVidia Karte installieren (oder eine ATI, je nach dem, was vorher drin war).

Spätestens dann hole ich wieder meine Brettspiele ausm Keller.

oder man packt sich die emulatoren raus und zockt zelda teil 3 ^^

ich weiß eigentlich garnich, wer jetzt hier mehr mist gebaut hat! ubisoft oder valve?
ubisoft hätte nähmlich eher sm2.0 machen sollen anstatt sm3.0, weil so mehr karten davon profitieren können und valve hätte den schon fast fertigen nv30 pfad nicht einfach entfernen sollen! sind beides dinge, die ohne einfluss von geld einfach nur dumm wären, so sind sie aber nur dem kunden gegenüber verräterrisch :D

Coda
2005-03-05, 15:38:04
Naja mit SM 2.0 wären in der Zeit nicht diese Effekte möglich gewesen...

Seraf
2005-03-05, 15:49:59
..Da war doch schonmal was mit MaxPayne 2
Warum gabs auf Hardware < SM1.4 keine Spiegelungen? Wegen Zeitersparnis oder weils nicht ging?

MaxPayne2 wurde damals aber nicht als ach so böses Spiel gebranntmarkt :rolleyes:

mapel110
2005-03-05, 15:58:41
..Da war doch schonmal was mit MaxPayne 2
Warum gabs auf Hardware < SM1.4 keine Spiegelungen? Wegen Zeitersparnis oder weils nicht ging?

MaxPayne2 wurde damals aber nicht als ach so böses Spiel gebranntmarkt :rolleyes:

Doch, wurde es. Gab dazu auch sehr lange Diskussionen.
Allerdings sind die 4-5 Spiegel in dem ganzen Game doch zu verschmerzen. :)

Seraf
2005-03-05, 16:01:12
Doch, wurde es. Gab dazu auch sehr lange Diskussionen.
Allerdings sind die 4-5 Spiegel in dem ganzen Game doch zu verschmerzen. :)

Hier gab es aber auch mal Vergleichsscreenshots auf denen eine R200 Nässespiegelungen neben einem Auto hatte und eine Gf4 nicht. Also gab es mehr Nachteile als nur ein paar fehlende Spiegel.

Damals habe sich "einige" Fanatiker bestimmt wie die Glücksbärchen gefühlt.

Wie bei MaxPayne2 bin ich davon überzeugt das die Entwickler die selben Effekte gebracht hätten wenn diese innerhalb von 2-3Wochen gebaut werden könnten.

Narrenkönig
2005-03-05, 16:02:47
Seh ich ebenso. Nvidia sollte dafür sorgen, dass die Geschichte mit den Beta-Treibern nicht zu sehr ausartet. Ein offizielles Statement zur Treiberpolitik wäre auch nicht schlecht, denn bisher sieht es eher so aus, also ob Nvidia ganz bewußt den Endkunden Betatester spielen lässt.
Es zwingt dich doch keiner betas zu installieren. Ich benutze schon seit Jahren (Riva128, RivaTNT, GF2mx, GF4ti, GF5900XT + GF6800GT) nur den offi Treiber und hatte noch nie Probleme. (soweit ich mich erinnere)

deekey777
2005-06-13, 15:54:33
*push*
Habe den Thread beinahe nicht gefunden - der letze Post ist schon 100 Tage alt...

Aus der c't 13/ Seite 113:
"... ATi ließ uns wissen, dass man dem Entwickler ubisoft bereits entsprechende 2.0-Shader zur Verfügung gestellt habe und dass eventuell bald ein Patch für SC: CT erscheint, der auch auf ATi-Karten die Grafik aufpeppen soll."

Klingt interessant...

LordDeath
2005-06-13, 16:19:31
Klingt interessant...

ja, besonders da man jetzt besser vergleichen kann.
aber schade, dass ati selbst hier die shader nachliefern muss...

Gaestle
2005-06-13, 16:24:30
ja, besonders da man jetzt besser vergleichen kann.
aber schade, dass ati selbst hier die shader nachliefern muss...

Allerdings werden vermutlich die Shader dann sehr gut angepasst sein (was ja auch logisch ist), was somit einer "Neutralität" im Vergleich bei SM2 nicht dienlich sein dürfte.

Grüße

deekey777
2005-06-13, 16:26:59
Zumindest einige "Spezial-Effekte" wie zB HDR bleiben immer noch der NV4x Generation vorbehalten, sonst müßte es in etwa vergleichbar sein. Bringen wird es eh nicht viel.



(OT: Es steht im ersten Absatz dieser Seite so viel Schwachsinn...)

Quasar
2005-06-13, 16:29:17
Vielleicht wird man dann als nicht-nV4x-Besitzer aber endlich diese häßlichen Banding-Artefakte los!

edit:
Obwohl - es sind schon böse Dinge gesagt worden über Shader, die von einem IHV einem ISV gegeben worden sind, damit sie nachträglich in das Spiel eingepflegt werden.

Vermutlich wird es aber einen netten Speedboost für ATi geben, sonst hätten sie so kurz vor dem R520 sicherlich nicht noch diese Mühe auf sich genommen.

mapel110
2005-06-13, 16:30:46
ja, besonders da man jetzt besser vergleichen kann.
aber schade, dass ati selbst hier die shader nachliefern muss...
Ich denke doch mal stark, dass nvidia auch ein paar Shader modifiziert/beeinflusst hat bei SC3. Mit oder ohne Treiber.

Vermutlich wird es aber einen netten Speedboost für ATi geben, sonst hätten sie so kurz vor dem R520 sicherlich nicht noch diese Mühe auf sich genommen.[/i]
"Grafik aufpeppen" hört sich eher nach neuen Features an als nach mehr fps. Außerdem ist der Shader 1.1 path doch nicht wirklich langsam.

LordDeath
2005-06-13, 16:31:52
was auch interessant wäre, ist ob eine geforce fx mit den 2.0 shadern auch was anfangen kann. und ob die leistung mit erzwungenen pp flags auch noch tragbar ist...

Coda
2005-06-13, 16:58:16
Nur die Shader ändern geht bei Splinter Cell ja gar nicht. Man müsste die ganze Shaderverwaltung verändern.

Also entweder hat Ubisoft ATi den kompletten Source Code in die Hand gedrückt oder sie verbreiten nur FUD.

Gast
2005-06-13, 17:08:54
Von UBI Soft kauf eich keine Spiele mehr. Schlechter Support (Patches und Hotline) und Hardwarehersteller benachteiligen - sowas mache ich nicht mit.

Quasar
2005-06-13, 17:10:25
Nur die Shader ändern geht bei Splinter Cell ja gar nicht. Man müsste die ganze Shaderverwaltung verändern.

Also entweder hat Ubisoft ATi den kompletten Source Code in die Hand gedrückt oder sie verbreiten nur FUD.
Es ist kein FUD.

deekey777
2005-06-13, 17:12:34
Von UBI Soft kauf eich keine Spiele mehr. Schlechter Support (Patches und Hotline) und Hardwarehersteller benachteiligen - sowas mache ich nicht mit.

Jaja, Benachteiligung von IHVs. Sonst hats du Recht, denn ubisoft supportet eher die wichtigen Spiele als die unwichtigen, wobei sie vor 2-3 Tagen so gütig waren und für Raven Shield ein AddOn for free bei Fileplanet zum Download anbieten. :biggrin:
Mir ist noch was eingefallen, was gegen den Thread-Sinn spricht:





Schon vergessen wie geil Far Cry ohne PS2.0/VS2.0 aussieht? :biggrin:

DrFreaK666
2005-06-15, 10:24:28
Also wenn das stimmt dann find ich das echt klasse.
Aber nicht von Ubi Soft sondern von ATI, denn die haben bestimmt den Stein ins Rollen gebracht.

Winter[Raven]
2005-06-15, 10:45:14
Also wenn das stimmt dann find ich das echt klasse.
Aber nicht von Ubi Soft sondern von ATI, denn die haben bestimmt den Stein ins Rollen gebracht.

Die mussten den Stein ins rollen bringen, den ATI steht immer noch mit heruntergelassener Hose bei den 3.0 Games...

An sich finde ich persönlich diese Aktion echt daneben, egal welche Hintergedanken ATI verfolgt.

DrFreaK666
2005-06-15, 10:48:59
']Die mussten den Stein ins rollen bringen, den ATI steht immer noch mit heruntergelassener Hose bei den 3.0 Games...

An sich finde ich persönlich diese Aktion echt daneben, egal welche Hintergedanken ATI verfolgt.

Achja? Wieso das?
Ich denke das ist ein super Support

Quasar
2005-06-15, 10:49:01
Wieso das?
Den User kostet's 'nix' und man hat die Möglichkeit, durch SM2 bestimmt einen SpeedBoost beim eh ziemlich lahmen SC:CT zu bekommen.
Das kann doch nicht 'evil' sein, nur weil's rot ist?

Winter[Raven]
2005-06-15, 10:52:55
Bitte Höhrt auf mit eueren Anspielungen auf Nvidiot oder ähnliches ...! Ich habe Karten von beiden und bin zufrieden.

@ Thema,

Das könnte dahin ausarten das beim nächsten Spiel Nvidia oder ATI sagt: "Die Performace stimmt nicht, die Proggis haben scheiß Arbeit gemacht, los wir tauschen die Shader aus"... Dann haben wir nur noch mehr Anschuldigungen, Schumelein... Ich kann gern drauf verzichten.

Als damals Nvidia bei 3DMurks die Shader ausgetauscht hat war es ja eine Katastophe ... das konnte doch nicht sein... und jetzt soll es aufeinmal "relevat" sein?

Da stimmt was mit der Logik nicht...

DrFreaK666
2005-06-15, 10:54:53
']Bitte Höhrt auf mit eueren Anspielungen auf Nvidiot oder ähnliches ...! Ich habe Karten von beiden und bin zufrieden.

@ Thema,

Das könnte dahin ausarten das beim nächsten Spiel Nvidia oder ATI sagt: "Die Performace stimmt nicht, die Proggis haben scheiß Arbeit gemacht, los wir tauschen die Shader aus"...

Als damals Nvidia bei 3DMurks die Shader ausgetauscht hat war es ja eine Katastophe ... das konnte doch nicht sein... und jetzt soll es aufeinmal "relevat" sein?

Da stimmt was mit der Logik nicht...

Diesmal ist es aber so, dass es keine SM2.0-Shader gibt und ATI-Karten ab 9500 benachteiligt werden (ich denke das stimmt)

Und wo wäre das Problem wenn es doch so wäre? (also wegen dem Speed)
Viele installieren neue Treiber nur aus Performance-Gründen.
Ausserdem gab es in der Vergangenheit auch schon Patches, welche das Spiel beschleunigten

LovesuckZ
2005-06-15, 11:12:47
Diesmal ist es aber so, dass es keine SM2.0-Shader gibt und ATI-Karten ab 9500 benachteiligt werden (ich denke das stimmt)

Benachteiligt?
So wie Nv3x User vor fast zwei Jahren?
Nein, sie sind nicht benachteiligt. Man muss damit leben, dass auf technologisch unterentwickelte Hardware nicht 100% optimiert wird.

DrFreaK666
2005-06-15, 11:47:04
Benachteiligt?
So wie Nv3x User vor fast zwei Jahren?
Nein, sie sind nicht benachteiligt. Man muss damit leben, dass auf technologisch unterentwickelte Hardware nicht 100% optimiert wird.

Aber dafür SM1.1-Optimierungen??
Das ist natürlich viel fortschrittlicher als SM2.0

dildo4u
2005-06-15, 11:48:08
Aber dafür SM1.1-Optimierungen??
Das ist natürlich viel fortschrittlicher als SM2.0
SM1.1 Gibt schon wegen der X-Box version.

DrFreaK666
2005-06-15, 11:55:25
SM1.1 Gibt schon wegen der X-Box version.

Stimmt, daran hab ich nicht gedacht.

Trotzdem find ich ATIs Reaktion richtig :smile:

LovesuckZ
2005-06-15, 12:04:49
Aber dafür SM1.1-Optimierungen??
Das ist natürlich viel fortschrittlicher als SM2.0

Es ist eine Portierung von der Xbox.
Der SM3.0 Pfad und das HDR sind Zugaben. Wäre es besser gewesen, dass Spiel wäre ohne diese Boni erschienen?

DrFreaK666
2005-06-15, 12:08:04
Es ist eine Portierung von der Xbox.
Der SM3.0 Pfad und das HDR sind Zugaben. Wäre es besser gewesen, dass Spiel wäre ohne diese Boni erschienen?

Nein, aber ist es richtig nicht auf die Mehrheit der Karten zu optimieren?

Quasar
2005-06-15, 12:10:03
Die Mehrheit der Karten ist aber mit SM1.1 zu betreiben.

DrFreaK666
2005-06-15, 12:13:40
Die Mehrheit der Karten ist aber mit SM1.1 zu betreiben.

Dann von mir aus: Die Mehrheit der schnellen Karten.

man muss nicht unbedingt alles so genau nehmen wenn man weiss was der andere zu sagen versucht

Gast
2005-06-15, 12:14:56
Die Mehrheit der Karten ist aber mit SM1.1 zu betreiben.
DrFreak hat aber geschrieben "optimieren". SM1.1 ist keine Optimierung für 2.x-Karten, sondern eine Portierung von der XBox.
Man war entweder faul oder es hat einen politischen Hintergrund.

Quasar
2005-06-15, 12:16:59
Warum optimiert man dann nicht auf SM2.X? Die Anzahl der Karten, die das bieten, dürfte größer sein, als die der reinen 2.0-Karten.

Faul - naja. Man denkt eben wirtschaftlich: Es soll möglichst überall laufen und man braucht ein paar Schlagworte und Präsentationsbilder für die Packung.

Gaestle
2005-06-15, 12:26:47
DrFreak hat aber geschrieben "optimieren". SM1.1 ist keine Optimierung für 2.x-Karten, sondern eine Portierung von der XBox.
Man war entweder faul oder es hat einen politischen Hintergrund.

Mein Gott, wenn sich die Leute mal die ungefähr zwei Dutzend Posts durchlesen würden, die genau dieses Problem behandeln... Nutzt die Suche, sucht nach Beiträgen von Demirug zum Thema.

Ansonsten finde ich es okay, dass ATi sich der Shader angenommen hat, für mich fällt das auch unter Support (natürlich wird das Marketing auch drauf gedrängt haben).
Wenn man bei einem Benchmark optimiert, ist das kein Kundensupport, weil es keinem Kunden nutzt (im Sinne von Erbringen eines Mehrwertes). Wenn ein Spiel aber verbessert wird, bringt es dem Kunden einen echten Mehrwert in Sachen Optik und/oder Performance. Genau diesen Mehrwert bringen Benchmarkoptimierungen NICHT.
Und deswegen ist IMHO das eine überflüssig und das andere Support.

Grüße

Quasar
2005-06-15, 12:49:23
Mein Gott, wenn sich die Leute mal die ungefähr zwei Dutzend Posts durchlesen würden, die genau dieses Problem behandeln... Nutzt die Suche, sucht nach Beiträgen von Demirug zum Thema.

Ansonsten finde ich es okay, dass ATi sich der Shader angenommen hat, für mich fällt das auch unter Support (natürlich wird das Marketing auch drauf gedrängt haben).
Wenn man bei einem Benchmark optimiert, ist das kein Kundensupport, weil es keinem Kunden nutzt (im Sinne von Erbringen eines Mehrwertes). Wenn ein Spiel aber verbessert wird, bringt es dem Kunden einen echten Mehrwert in Sachen Optik und/oder Performance. Genau diesen Mehrwert bringen Benchmarkoptimierungen NICHT.
Und deswegen ist IMHO das eine überflüssig und das andere Support.

Grüße

Amen.

Coda
2005-06-15, 12:58:53
Es ist kein FUD.Dann sind es aber sicher nicht nur die Shader die ausgetauscht werden.

Gast
2005-06-15, 13:20:20
Warum optimiert man dann nicht auf SM2.X? Die Anzahl der Karten, die das bieten, dürfte größer sein, als die der reinen 2.0-Karten.

Warum ein Pfad für SM3, wenn es mehr 2.0-Karten gibt?
Von SM2.X-Karten ganz zu schweigen...

Winter[Raven]
2005-06-15, 13:23:32
Weil es für die Devs einfacher war einen 3.0 Shader zuschreiben der alle Effkte beinhaltet als ein 2.0 ... und es ist ja bekannt das ein 3.0 Shader bei guter Implementierung nicht langsammer sein sollte als ein 2.0.

Gast
2005-06-15, 13:25:30
Benachteiligt?
So wie Nv3x User vor fast zwei Jahren?
Nein, sie sind nicht benachteiligt. Man muss damit leben, dass auf technologisch unterentwickelte Hardware nicht 100% optimiert wird.
Geht das wieder los? :uclap: Total unterentwickelt ist SM2.0 also? Wovon träumst Du eigentlich nachts?

DrFreaK666
2005-06-15, 13:26:06
Um die Geschwindigkeit gehts doch garnicht

Winter[Raven]
2005-06-15, 13:29:37
Um die Geschwindigkeit gehts doch garnicht

Da hast du nicht Unrecht, ABER es bringt nichts einen Shader zuschreiben und zuincluden wenn dadurch das Spiel zu einer Diashow(extrem ausgedrückt:wink: ) wird oder?

Coda
2005-06-15, 13:31:28
Wird es ja nicht, da HDR nichts mit SM 3.0 zu tun hat *sich gebetsmühlenartig wiederolt*

Winter[Raven]
2005-06-15, 13:36:16
Wird es ja nicht, da HDR nichts mit SM 3.0 zu tun hat *sich gebetsmühlenartig wiederolt*

Ist bekannt ;)

Black-Scorpion
2005-06-15, 13:36:57
']Da hast du nicht Unrecht, ABER es bringt nichts einen Shader zuschreiben und zuincluden wenn dadurch das Spiel zu einer Diashow(extrem ausgedrückt:wink: ) wird oder?
Deine Kristallkugel möchte ich haben. ;)

Quasar
2005-06-15, 13:48:56
Warum ein Pfad für SM3, wenn es mehr 2.0-Karten gibt?
Von SM2.X-Karten ganz zu schweigen...
Die Katze beißt sich in den Schwanz - merkst du das nicht?

SM1.1 war vorhanden, da Konsolenentwicklung.

Option:
SM1.1 für PC übernehmen... *check*
SM3 für max. Eyecandy *check*
--> ab hier beginnt die Marktwirtschaft
SM2.0 einbauen (fraglich, da alle SM2.0-Karten für SM1.1 schnell genug sein dürften und überdies viele GeForceFX (5200/5600) für SM2.0 zu langsam wären)
SM2.A einbauen (mind. ebenso sinnlos, da kleinerer Kundenkreis und viele Karten dafür zu langsam (s.o.))
SM2.B einbauen (ebenso sinnlos, da noch kleinerer Kundenkreis)

Gast
2005-06-15, 14:17:48
Deine Kristallkugel möchte ich haben. ;)
Du meinst seine Fanboybrille die alles bzgl ATI schlecht erscheinen lässt? :D

Nicky
2005-06-15, 14:39:23
']
An sich finde ich persönlich diese Aktion echt daneben, egal welche Hintergedanken ATI verfolgt.
Warum? Weil SM2.x Nutzer damit auch von parallax und tone mapping profitieren koennen und bessere IQ haben(Ein Grund weniger SM3.0 als must have zu deklarieren). Der gerne zitierte Vergleich mit Shaderreplacment per Treiber hinkt wohl gelinde gesagt etwas, denn ohne angeborene Fehlsichtigkeit muss man wohl den Unterschied zwischen beiden erkennen koennen. UBI kostet das Ganze nichts, bringt aber Sympatien, von Ati ist es sowohl Support als auch Werbung (vor allem bei Besitzern einer nV3x Karte :D )

DaBrain
2005-06-15, 14:55:22
Ich will kein Besserwisser sein, aber würde das Spiel OpenGL verwenden, gäbe es dieses Problem wahrscheinlich nicht...

Und ja, die Xbox kann auch OpenGL verwenden.

Demirug
2005-06-15, 14:59:05
Ich will kein Besserwisser sein, aber würde das Spiel OpenGL verwenden, gäbe es dieses Problem wahrscheinlich nicht...

Und ja, die Xbox kann auch OpenGL verwenden.

Aber sicher gäbe es dieses Problem dann auch. Es wäre sogar noch schlimmer.

DaBrain
2005-06-15, 15:12:18
Ich dachte OpenGL wäre viel unabhängiger von irgendwelechen Versionen und man würde für viele Features einfach Extensions verwenden.

Dann würde halt jede Karte machen was sie kann.

Demirug
2005-06-15, 15:31:56
Ich dachte OpenGL wäre viel unabhängiger von irgendwelechen Versionen und man würde für viele Features einfach Extensions verwenden.

Dann würde halt jede Karte machen was sie kann.

Jetzt macht doch auch jede Karte was sie kann, oder?

zeckensack
2005-06-15, 15:58:33
Benutzt das Spiel HLSL?

Demirug
2005-06-15, 16:45:21
Benutzt das Spiel HLSL?

Es ist davon auszugehen das zumindestens die SM3 Shader ursprünglich in HLSL geschrieben wurden.

Gast
2005-06-15, 16:45:43
Die Katze beißt sich in den Schwanz - merkst du das nicht?
Doch, klar. :)
Nur denke ich dass meine Argumente logischer sind. :)

SM1.1 war vorhanden, da Konsolenentwicklung.

Option:
SM1.1 für PC übernehmen... *check*?
Ack.

SM3 für max. Eyecandy *check*
Kein ack, da die Grafik auch mit SM2 möglich wäre und man so auch mehr Grakabesitzer glücklich machen würde. :)

Demirug
2005-06-15, 16:46:38
Doch, klar. :)
Nur denke ich dass meine Argumente logischer sind. :)

Ack.

Kein ack, da die Grafik auch mit SM2 möglich wäre und man so auch mehr Grakabesitzer glücklich machen würde. :)

Möglich ja aber mit mehr Aufwand womit wir wieder bei der kaufmänischen Seite wären.

deekey777
2005-06-15, 16:49:36
Doch was ist mit der "Meldung" aus der aktuellen c't, daß ATi die SM2-Unterstützung nachreicht?

Spasstiger
2005-06-15, 17:22:10
Doch was ist mit der "Meldung" aus der aktuellen c't, daß ATi die SM2-Unterstützung nachreicht?

ATI reicht die SM2-Unterstützung nach? Wie wollen sie das denn anstellen?
Ich denke eher, dass du Ubisoft meinst ;).

Gast
2005-06-15, 17:30:53
Möglich ja aber mit mehr Aufwand womit wir wieder bei der kaufmänischen Seite wären.
Sorry Demi, aber das ist Unsinn. Kaufmännisch wäre es richtig dem Großteil des Marktes Eyecandy zu verschaffen und das in Form eines SM2.0 Pfades. SM3.0 ist fragwürdig, ohne Zuwendung von nVidia, da es einfach zu wenig SM3.0 Hardware auf dem Markt gibt, um so eine Entscheidung zu rechtfertigen.

Ich persönlich kenne einige Leute, die das Spiel nicht gekauft haben, weil es kein SM2.0 unterstützt und das verwundert wohl nicht.

Konsolenfreund

Spasstiger
2005-06-15, 17:38:16
Sorry Demi, aber das ist Unsinn. Kaufmännisch wäre es richtig dem Großteil des Marktes Eyecandy zu verschaffen und das in Form eines SM2.0 Pfades. SM3.0 ist fragwürdig, ohne Zuwendung von nVidia, da es einfach zu wenig SM3.0 Hardware auf dem Markt gibt, um so eine Entscheidung zu rechtfertigen.

Ich persönlich kenne einige Leute, die das Spiel nicht gekauft haben, weil es kein SM2.0 unterstützt und das verwundert wohl nicht.

Konsolenfreund

Die Implementierung von SM2.0 auf der Basis des SM3.0 "Supershaders", der Dynamic Branching nutzt, hätte Wochen in Ansprung genommen.
Aus wirtschaftlicher Sicht ist es sinnvoll, das Spiel so früh wie möglich rauszubringen, wenn es auf allen gängigen Grafikkarten mit einem optisch zufriedenstellenden Resultat bei akkzeptaler Performance läuft.

deekey777
2005-06-15, 17:38:51
ATI reicht die SM2-Unterstützung nach? Wie wollen sie das denn anstellen?
Ich denke eher, dass du Ubisoft meinst ;).

Ich denke, du solltest mal auch andere Seiten dieses Threads lesen und nicht nur die letzte.

Aus der c't 13/ Seite 113:
"... ATi ließ uns wissen, dass man dem Entwickler ubisoft bereits entsprechende 2.0-Shader zur Verfügung gestellt habe und dass eventuell bald ein Patch für SC: CT erscheint, der auch auf ATi-Karten die Grafik aufpeppen soll."

Spasstiger
2005-06-15, 17:42:09
Ich denke, du solltest mal auch andere Seiten dieses Threads lesen und nicht nur die letzte.

Aus der c't 13/ Seite 113:
"... ATi ließ uns wissen, dass man dem Entwickler ubisoft bereits entsprechende 2.0-Shader zur Verfügung gestellt habe und dass eventuell bald ein Patch für SC: CT erscheint, der auch auf ATi-Karten die Grafik aufpeppen soll."

Oh, ist denn dann das optische Resultat auch dasselbe wie mit SM3.0? Erstaunlich, dass jetzt auf einmal ATI damit anfängt, das Spiel zu patchen.

deekey777
2005-06-15, 17:43:43
Oh, ist denn dann das optische Resultat auch dasselbe wie mit SM3.0? Erstaunlich, dass jetzt auf einmal ATI damit anfängt, das Spiel zu patchen.

Genau das will ich wissen, denn das, was im Demo-Thread steht, widerspricht dieser Info. :D

Gast
2005-06-15, 17:46:01
Ich persönlich kenne einige Leute, die das Spiel nicht gekauft haben, weil es kein SM2.0 unterstützt und das verwundert wohl nicht.

Konsolenfreund
Ack.
Obwohl ich nicht unmittelbar davon betroffen bin, da ich eine Nvidia und eine ATI besitze, habe ich das Spiel nicht gekauft, obwohl ich SC sehr mag.
Ich kann es nicht gutheißen, dass man den besten Kompromis aus Marktverfügbarkeit, schöne Effekte und Peformance einfach vernachlässigt.
Andere bauen die verschiedensten Renderpfade ein und haben kein Problem damit, Ubisoft trifft aber nicht wirklich nachvollziehbare Entscheidungen.

Wirklich Alles sehr politisch...

Spasstiger
2005-06-15, 17:48:17
Wirklich Alles sehr politisch...

Nein, wirkt alles sehr marktwirtschaftlich. Und die PC-Version ist eh nicht der große Geldbringer, mit den Konsolenversionen wird viel mehr Umsatz gemacht.

Gast
2005-06-15, 18:07:16
Nein, wirkt alles sehr marktwirtschaftlich. Und die PC-Version ist eh nicht der große Geldbringer, mit den Konsolenversionen wird viel mehr Umsatz gemacht.

Eher nicht, zumal bei Konsolen noch Lizenzgebühren anfallen.

Tigerchen
2005-06-15, 19:33:28
Nein, wirkt alles sehr marktwirtschaftlich. Und die PC-Version ist eh nicht der große Geldbringer, mit den Konsolenversionen wird viel mehr Umsatz gemacht.

Ein Grund mehr zu überlegen ob man sein Produkt für eine breite Basis attraktiv macht oder für nur wenige. Valve,Crytek und Croteam haben ja eine andere Entscheidung getroffen.

Quasar
2005-06-15, 19:56:36
Genau das will ich wissen, denn das, was im Demo-Thread steht, widerspricht dieser Info. :D
Diese Info hat ATi gegeben. Warum sollte ATi lügen?

Quasar
2005-06-15, 19:57:55
Ich persönlich kenne einige Leute, die das Spiel nicht gekauft haben, weil es kein SM2.0 unterstützt und das verwundert wohl nicht.
Und wieviele Leute werden sich wohl das Spiel aufgrund des Wow-Effektes und der Screenshots in den Zeitungen mit HDR etc.pp. gekauft haben - ohne zu wissen oder zu merken, daß es bei ihnen dann nicht so aussieht?

Quasar
2005-06-15, 20:00:57
Kein ack, da die Grafik auch mit SM2 möglich wäre und man so auch mehr Grakabesitzer glücklich machen würde. :)
Und dafür hätte man was genau streichen sollen? SM3, HDR und Softshadows? Dann bliebe noch Parallax-Mapping, IIRC.

Und dafür auf die hübschen Hochglanzeffekte verzichten, die die Spielemags so begierig abgedruckt haben?

Auch wenn du/ihr es nicht wahrhaben wollt: "HDR" ist mittlerweile ein ähnlich mächtiges Werbemittel für die ISVs, wie es dereinst DX8-Pixelshader o.ä. war.

Gast
2005-06-15, 20:04:49
Auch wenn du/ihr es nicht wahrhaben wollt: "HDR" ist mittlerweile ein ähnlich mächtiges Werbemittel für die ISVs, wie es dereinst DX8-Pixelshader o.ä. war.
Falsch.
HDR ist nirgendwo spezifiziert, HDR hat nichts mit SM3 zu tun, HDR wäre mit entsprechenden FP16-Rops auch auf einem SM2-Chip lauffähig.

HDR ist ein Nebenprodukt der Entwicklung, nicht mehr nicht weniger.

Quasar
2005-06-15, 20:06:38
Falsch.
HDR ist nirgendwo spezifiziert, HDR hat nichts mit SM3 zu tun, HDR wäre mit entsprechenden FP16-Rops auch auf einem SM2-Chip lauffähig.

HDR ist ein Nebenprodukt der Entwicklung, nicht mehr nicht weniger.
Richtig. :)
edit:
HDR ist auch ohne FP16-ROPs auf nahezu jedem DX9-Chip lauffähig.

Gast
2005-06-15, 20:12:31
Richtig. :)
Danke. :)

Falls du dich durch mein Posting provoziert siehst, dann sorry.
Mir geht der Hype um ein Nebenprodukt ziemlich auf die Eier, weil es nicht nur Vorteile gibt. Fake-HDR sieht auch gut aus, ist recht performant, was man vom echten HDR nicht behaupten kann. AA ist mit der jetzigen Hardware in Verbindung mit HDR auch nicht drin.
Dann lieber Fake-HDR. Ist imo der besser Kompromis. :)

Quasar
2005-06-15, 20:18:08
Danke. :)

Falls du dich durch mein Posting provoziert siehst, dann sorry.
Nein, keine Sorge.
Ich habe ja nichts von dem, was du bemängelt hast, geschrieben.

r3ptil3
2005-06-15, 20:18:59
Sorry habe diesen Thread nicht ganz mitverfolgt aber wird man bald SCCT mit Shader Model 2.0 zocken können?

ShadowXX
2005-06-15, 20:20:02
Falsch.
HDR ist nirgendwo spezifiziert, HDR hat nichts mit SM3 zu tun, HDR wäre mit entsprechenden FP16-Rops auch auf einem SM2-Chip lauffähig.

HDR ist ein Nebenprodukt der Entwicklung, nicht mehr nicht weniger.

Hat Quasar irgendwo SM3.0 im zusammenhang mit HDR erwähnt??


Auch wenn du/ihr es nicht wahrhaben wollt: "HDR" ist mittlerweile ein ähnlich mächtiges Werbemittel für die ISVs, wie es dereinst DX8-Pixelshader o.ä. war.


Er sagte nur das HDR inzwischen ein mächtiges Werbemittel ist......der nv40 kann "zufälligerweise" nun nebenbei auch noch SM3.0.

Wenn also jemand bei Ubisoft gedacht hat: "Ehh...HDR wäre doch was nettes", dann lag es nahe auch gleich noch SM3.0 Shader mit zu implementieren, da der nv40 nunmal eh der einzige Chip ist der FP16-Rops hat.

Man müsste nun die Entwickler mal fragen, worauf es ihnen eigentlich ankam. HDR oder SM3.0??
Falls es HDR war (was ich persönlich stark vermute, da der "grössere" Effekt), war die Implementierung von SM3.0 Shadern mehr ein abfallprodukt.

Quasar
2005-06-15, 20:20:16
Die c't und ATi sagen: Ja.
Wobei es evtl. auch SM2.B sein könnte - nichts genaues weiß man nicht.

mapel110
2005-06-15, 20:20:34
Danke. :)

Falls du dich durch mein Posting provoziert siehst, dann sorry.
Mir geht der Hype um ein Nebenprodukt ziemlich auf die Eier, weil es nicht nur Vorteile gibt. Fake-HDR sieht auch gut aus, ist recht performant, was man vom echten HDR nicht behaupten kann. AA ist mit der jetzigen Hardware in Verbindung mit HDR auch nicht drin.
Dann lieber Fake-HDR. Ist imo der besser Kompromis. :)
Diese dynamische Helligkeitsanpassung ist aber doch afaik nicht mit Fake-HDR drin, so wie bei Farcry, oder irre ich da?!
Sowas hab ich zumindest noch nie vorher gesehen.

Gast
2005-06-15, 20:21:51
Nein, keine Sorge.
Ich habe ja nichts von dem, was du bemängelt hast, geschrieben.
Sorry, verstehe ich nicht.
Meintest du nicht etwa: "Ich habe ja nichts zu dem, was du bemängelt hast, geschrieben."? :)

Gast
2005-06-15, 20:24:00
Diese dynamische Helligkeitsanpassung ist aber doch afaik nicht mit Fake-HDR drin, so wie bei Farcry, oder irre ich da?!
Sowas hab ich zumindest noch nie vorher gesehen.
Siehe HL Lost Coast.

mapel110
2005-06-15, 20:25:07
Siehe HL Lost Coast.
Hab auf den Videos vergeblich sowas gesucht. Das sieht nicht sehr "dynamisch" aus. Hat für mich nicht viel mit dem Effekt in Farcry zu tun.

Gast
2005-06-15, 20:25:15
Sorry habe diesen Thread nicht ganz mitverfolgt aber wird man bald SCCT mit Shader Model 2.0 zocken können?
So wie es aussieht, ja...

Quasar
2005-06-15, 20:27:34
Diese dynamische Helligkeitsanpassung ist aber doch afaik nicht mit Fake-HDR drin, so wie bei Farcry, oder irre ich da?!
Sowas hab ich zumindest noch nie vorher gesehen.

Doch, das geht. Siehe RTHDRIBL. IIRC auch in dieser einen Launchdemo der R9700p.

Gast
2005-06-15, 20:27:45
Hab auf den Videos vergeblich sowas gesucht. Das sieht nicht sehr "dynamisch" aus. Hat für mich nicht viel mit dem Effekt in Farcry zu tun.
Der Licheinfall verändert sich dynamisch, oder wir beide verstehen Unterschiedliches drunter, kann auch sein.

Aber, wie viele Prozent würden den Unterschied zwischen HDR und Fake-HDR merken? 1-2%?

Demirug
2005-06-15, 20:29:28
Siehe HL Lost Coast.

Vorsicht. HL Lost Coast hat auch einen echten HDR Modus. Dieser wird von Valve auch als der Höherwertige eingestuft.

mapel110
2005-06-15, 20:30:31
Siehe RTHDRIBL.
soweit ich das hier immer mitbekomme, kann man das in dieser Demo als echtes HDR bezeichnen, nix fake.
Aber es wäre zu schwierig/umständlich, sowas in ein Game einzubetten.

mapel110
2005-06-15, 20:31:54
Vorsicht. HL Lost Coast hat auch einen echten HDR Modus. Dieser wird von Valve auch als der Höherwertige eingestuft.
Diese dynamische Lichtanpassung(wo infos von vorigen Frames genutzt werden) gibts aber auch in dem SM2-fake-HDR-Modus?

DrumDub
2005-06-15, 20:32:09
Doch, das geht. Siehe RTHDRIBL. IIRC auch in dieser einen Launchdemo der R9700p. meinst du das "Rendering With Natural Light" demo? siehe: http://www.ati.com/developer/demos/r9700.html

Gast
2005-06-15, 20:34:30
Vorsicht. HL Lost Coast hat auch einen echten HDR Modus. Dieser wird von Valve auch als der Höherwertige eingestuft.
Dies ist mir bekannt. Wirkliche Unterschiede kann ich auf den ersten Blick nicht erkennen, obwohl ich meine, dass ich schon weiss, wo ich hinschauen muss. ;)

Quasar
2005-06-15, 20:34:51
Sorry, verstehe ich nicht.
Meintest du nicht etwa: "Ich habe ja nichts zu dem, was du bemängelt hast, geschrieben."? :)
Nein, ich habe lediglich meine angeführten Punkte nicht mit SM3 in Verbindung gebracht. Insofern hätte ich mich gar nicht angegriffen fühlen können von dem, was du geschrieben hast.

Man wollte schlicht einen Eye-Candy Modus. Das größte Schlagwort (nachdem Pixelshader ja schon in der Basis-Version genutzt werden) wäre erstmal HDR.

HDR bekommt man halbwegs performant (für einen Schleich-Shooter vielleicht ausreichend) momentan nur bei nV in den großen Karten und, und das wird gern übersehen, in der nächsten Konsolengeneration, die ebenfalls SM3-ähnliches bietet.
Laut Ubi haben sie auch ihre Anpassungen speziell für zukünftige Titel vorgenommen - so hat man mit SM3 und HDR zwei Fliegen mit einer Klappe geschlagen.

SM2 (auch .X) hätte dies nur eingeschränkt leisten können.

mapel110
2005-06-15, 20:35:35
Dies ist mir bekannt. Wirkliche Unterschiede kann ich auf den ersten Blick nicht erkennen, obwohl ich meine, dass ich schon weiss, wo ich hinschauen muss. ;)
Hm? wo kann man denn vergleichen? gibts Videos mit beiden Modi? Ich hab nur eins gesehen.

Quasar
2005-06-15, 20:36:15
soweit ich das hier immer mitbekomme, kann man das in dieser Demo als echtes HDR bezeichnen, nix fake.
Aber es wäre zu schwierig/umständlich, sowas in ein Game einzubetten.
Ja, sagte ich doch, daß es ein Beispiel für echtes HDR mit Tonemapping auf einem reinen SM2.0-Chip ist.

Demirug
2005-06-15, 20:39:56
Ja, sagte ich doch, daß es ein Beispiel für echtes HDR mit Tonemapping auf einem reinen SM2.0-Chip ist.

Sogar auf einem ohne FP16 Blend.

In einer Spieleengine will ich das aber trotzdem nicht machen