PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NV betrügt


Seiten : 1 [2] 3 4 5 6

Gast
2005-07-15, 21:54:17
Ja, genauso schnell wie die FX PS 2.0 konnte. Sehr sinnvoll halt.

Schon wieder so überhebliche Pauschalaussagen wie im PS3 Fred zum Cell?

http://img.hexus.net/v2/graphics_cards/ati/r480xtpe/images/rthdribl.png
http://img.hexus.net/v2/graphics_cards/ati/r420/images/rthdribl.png

Du solltest wirklich mal versuchen einen weniger absoluten Ton zu finden, so oft wie man dich korrigieren muss.*

*jetzt bitte nicht wieder nach Zitaten schreien. Du weißt ganz genau wie oft Demirug in den letzten Woche "unumstößliche" Aussagen von dir korrigieren musste.

Mr. Lolman
2005-07-15, 21:55:38
Indem es Fake HDR oder besser gesagt Bloom ist wie beim Painkiller Addon.

Seit wann kann man mit Bloom Tonemapping emulieren?

dildo4u
2005-07-15, 21:56:49
Seit wann kann man mit Bloom Tonemapping emulieren?
Welches Tonemapping?Was hat Tonemapping mit HDR zu tun?

DaBrain
2005-07-15, 21:57:05
Ist sie nicht. HDR ist bisher auf FP16 RTs beschränkt, wenn man FP-Blending benützen will.


Ich kenne mich nicht so toll damit aus, aber war es nicht so, dass ATI Karten nur die Hälfte dieser Präzision bei HDR liefern (können)?

Und wären nicht eigentlich FP32 RTs nötig für richtiges HDR?
Ich erinnere mich da an eine Definition...

Mr. Lolman
2005-07-15, 21:58:17
Welches Tonemapping?

Ja Tonemapping eben. Aktivier mal Colordynamics* bei der Demo...

/edit: oder *Dynamic colors*, oder so... :|

Was hat Tonemapping mit HDR zu tun?

Imo ist das ein Bestandteil vom "D" in HDR...

Gast
2005-07-15, 21:58:27
Und wären nicht eigentlich FP32 RTs nötig für richtiges HDR?
Ich erinnere mich da an eine Definition...
Ja, echtes HDR benötigt volle 32bit FP pro Kanal. Der RSX in der PS3 soll das beherrschen.

Gast
2005-07-15, 21:58:46
Indem es Fake HDR oder besser gesagt Bloom ist wie beim Painkiller Addon.
Optisch mit dem "echtem" HDR vergleichbar.
Das ist was was zählt. Wenn sogar noch AA möglich ist, dann will keiner mehr echtes HDR. :)

Gast
2005-07-15, 22:01:56
Leute, lasst uns nicht abschweifen.
Hier geht es um den miserablen AF-Filter der Geforce.
Jetzt kommt man schon mit der HDR-Keule. :|

dildo4u
2005-07-15, 22:03:39
Optisch mit dem "echtem" HDR vergleichbar.
Das ist was was zählt. Wenn sogar noch AA möglich ist, dann will keiner mehr echtes HDR. :)
Genau die einstellung beschert uns das heutige winkelabhänige AF ach lasst uns doch einfach auf die volle Präsision verzichten bitte macht nicht auch noch HDR Kaputt.

IVN
2005-07-15, 22:03:41
Optisch mit dem "echtem" HDR vergleichbar.
Das ist was was zählt. Wenn sogar noch AA möglich ist, dann will keiner mehr echtes HDR. :)
Wie oft muss man denn sagen das es sich bei HDR um die hoechere Genauigkeit (16fp) beim Schreiben in den Frame buffer handelt,und nicht um einen bestimten Effekt??? :confused:

Gast
2005-07-15, 22:05:02
Optisch mit dem "echtem" HDR vergleichbar.
Das ist was was zählt. Wenn sogar noch AA möglich ist, dann will keiner mehr echtes HDR. :)
Du meinst, dass es vergleichbar aussieht,weil wir echte HDR Spiele quasi noch garnicht wirklich gesehen haben. ;) Wenn HDR erstmal richtig in den Content von Topgames eingebaut ist, dann sieht man den Unterschied aber aber gewaltig, weil HDR halt nicht nur ein wenig Bloom an hellen Shadern wie Painkiller ist.

Coda
2005-07-15, 22:05:29
Schon wieder so überhebliche Pauschalaussagen wie im PS3 Fred zum Cell?

http://img.hexus.net/v2/graphics_cards/ati/r480xtpe/images/rthdribl.png
http://img.hexus.net/v2/graphics_cards/ati/r420/images/rthdribl.png

Du solltest wirklich mal versuchen einen weniger absoluten Ton zu finden, so oft wie man dich korrigieren muss.*

*jetzt bitte nicht wieder nach Zitaten schreien. Du weißt ganz genau wie oft Demirug in den letzten Woche "unumstößliche" Aussagen von dir korrigieren musste.Es ging um FP-Blending. Das rthdribl-Demo verwendet das nicht.

In Spielen die Multipass brauchen geht es aber nicht ohne - und das sind so ziemlich alle.

Und die Cell Diskussion gehört absolut nicht hierher.

Optisch mit dem "echtem" HDR vergleichbar.
Das ist was was zählt. Wenn sogar noch AA möglich ist, dann will keiner mehr echtes HDR. echtes HDR stellt dem Postfilter eine erhöhte Präzission zur Verfügung. HDR ist nicht der Bloom Filter.

Gast
2005-07-15, 22:07:52
Es ging um FP-Blending. Das Demo verwendet das nicht.
Das hast Du aber nicht geschrieben:

Und der R300 kann HDR. Ja, genauso schnell wie die FX PS 2.0 konnte. Sehr sinnvoll halt.

Black-Scorpion
2005-07-15, 22:08:06
Es gibt einen klaren Unterschied zwischen dem AA der FX und dem AF des R300.

Das AA wurde nicht optimiert. Es war einfach nicht besser als beim R300.
Während ATI bewußt optimiert hat.

Wenn man da als Kunde nicht boykottiert, ist doch schon abzusehen, dass Nvidia nachziehen wird und jetzt sogar noch weitaus schlechtere Qualität liefern.
Das ist aber nicht dein Ernst oder doch?

Coda
2005-07-15, 22:08:36
Das hast Du aber nicht geschrieben:Ja und? In der Praxis ist das auch so. Wen interessieren Demos?

Gast
2005-07-15, 22:09:36
Sorry Coda, aber Du editierst zu viel. Da kom ich nicht nach. ;)

Coda
2005-07-15, 22:10:17
Das ist mir gelinde gesagt ziemlich egal.

Gast
2005-07-15, 22:10:22
Ja und? In der Praxis ist das auch so. Wen interessieren Demos?
In der Spiele-Praxis kann der R3xx garkein HDR. Punkt.

DaBrain
2005-07-15, 22:11:21
Das ist aber nicht dein Ernst oder doch?
:redface:
*Hat sich keine R300 Karte gekauft*

Ich muss aber zugeben, dass ich ein AF Fanatiker bin. :)

Wenn mein NV28 nicht dahingeschieden wäre, hätte ich locker auf irgendeine Karte mit ordentlichem AF warten können.

An dem 6800 Schnäppchen bin ich aber nicht vorbeigekommen. SM 3.0 ist schon verlockend... ;D

Coda
2005-07-15, 22:11:24
In der Spiele-Praxis kann der R3xx garkein HDR. Punkt.Wenn man das FP-Blending mit den Pixelshadern emuliert schon.

Gast
2005-07-15, 22:11:47
Das ist mir gelinde gesagt ziemlich egal.
Oh, entschuldige bitte, dass ich mich entschuldige nur einen Teil deines Postings gequotet zu haben, weil Du es noch editiert hast. Diese unverschämte Freundlichkeit wird nicht nochmal vorkommen. OMG

Gast
2005-07-15, 22:11:53
In der Spiele-Praxis kann der R3xx garkein HDR. Punkt.
Falsch.

Gast
2005-07-15, 22:12:27
Wenn man das FP-Blending mit den Pixelshadern emuliert schon.
Was in der Praxis absolut unmöglich ist von der Leitung.

BodyLove
2005-07-15, 22:12:30
Nein, nicht "obwohl die gutes AF liefert", sondern weil sie zu langsam war. Das hat mit dem AF nur insofern zu tun, als dass sie sich besser verkaufte als man es von einer Graka-Generation mit so eklatanten Performance-Problemen eigentlich erwarten könnte. Ja warum wohl? IMO weil sie gutes AF bot.

Wer hätte sich denn freiwillig einen NV35 gekauft, wenn dieser Chip neben dürftiger Performance auch noch mit grottiger BQ gesegnet wäre? Mehr oder weniger?


Tja, Ansichtssache, oder? Die NV-Leute waren wohl selbst der Meinung, dass die kleinen Optimierungen, hier und da, die notwendigen FPS erbracht haben, um den Kunden nicht zu weit abzuschrecken. Denn, das Lager wechselt man ungern, sofern man es nicht wirklich für nötig hält.

Coda
2005-07-15, 22:12:52
Was in der Praxis absolut unmöglich ist von der Leitung.Hab ich doch gesagt. WTF?

Gast
2005-07-15, 22:14:07
Falsch.
Nein. FP-Blending über die PS erzeugt FPS im einstelligen Bereich in Spielen. Daher kann er schlicht praktisch kein HDR in Spielen.

Gast
2005-07-15, 22:15:21
Hab ich doch gesagt. WTF?
Die GF-FX kann sehr wohl Spiele mit DX9 Shadern darstellen. X-D

Gast
2005-07-15, 22:16:44
Nein. FP-Blending über die PS erzeugt FPS im einstelligen Bereich in Spielen. Daher kann er schlicht praktisch kein HDR in Spielen.
Beispiele?

Coda
2005-07-15, 22:16:45
Woher hast du die SPF Zahlen eigentlich? Ich glaube nicht, dass FP-Blending im Pixelshader noch langsamer ist als die PS 2.0 der FX.

Neomi
2005-07-15, 22:17:20
Ja, echtes HDR benötigt volle 32bit FP pro Kanal. Der RSX in der PS3 soll das beherrschen.

Damit ist 32 Bit Floatpräzision für die Pixelshaderinstruktionen gemeint, das kann der NV30 auch schon.

StefanV
2005-07-15, 22:18:17
? Wieso rede ich Mist.

Weil du es viel zu einfach darstellst und viele Punkte unter den Tisch kehrst!


Der R300 war halt nicht in jedem Punkt überlegen (und ich sage es nochmal ich hätte ihn auch der FX vorgezogen...).

Soweit waren wir schon...


Es gibt einen klaren Unterschied zwischen dem AA der FX und dem AF des R300.
Nö, gibts nicht.

Das AF R200 <-> R300 wurde besser, das AA NV20 -> nV30 nicht.
Somit kann man nV einfach dummheit unterstellen bzw das sie einfach was verpennten...


Das AA wurde nicht optimiert. Es war einfach nicht besser als beim R300.
Während ATI bewußt optimiert hat.

Siehs bitte immer innerhalb der Generationen der Hersteller, bevor du mit ATi VS nV anfängst!
Das AA wurde nicht verbessert und stammt vom Prinzip her noch aus der GF3...
Die Sache mit dem AF haben wir auch schon zu oft durchgekaut, wesentlich besser als R200 wars auf jeden Fall, nur ist die Frage ob die Transistoren für mehr gereicht hätten?!

ATi war halt schon immer etwas sparsamer, nV nicht, dennoch hat ATi immer ihre Produkte _VERBESSERT_, soweit sie es für nötig hielten...

Wenn man da als Kunde nicht boykottiert, ist doch schon abzusehen, dass Nvidia nachziehen wird und jetzt sogar noch weitaus schlechtere Qualität liefern.
Wieso soll ich was boykottieren, wenn Hersteller A etwas macht, was dir nicht gefällt und Hersteller B ein Produkt auf den Mart wirft, das Mist ist weil zu lahm für den Preis?!



Daran wie NV und ATI ihre Features gewichten, kann man erkennen, was (nach Meinung von NV und ATI) für den Kauf entscheidender ist.

Kann man das?!
Oder sinds einfach 2 verschiedene philosophien?!

Ists nicht so, das der eine viel Ballast mit rumschleppt während der andere möglichst effiziente Designs bastelt?!
Ists nicht so, das der eine seine Filter stetig und kontinuierlich verbessert hat, der andere aber nicht?

Aber das ist nicht das Thema..

Fakt ist, das ATi besser wurde, von Generation zu Generation.
Fakt ist, das nV auf der Stelle trat, bei einigen Features, bei anderen 3-4 Schritte zurück gemacht hat.
Beim FSAA hat man lange Zeit auf der Stelle getreten, beim AF war man zeitweise weit besser als jetzt, DAS ists, was man nicht gutheißen sollte ;)


NV verbessert das AA, weil es offensichtlich bei den unerfahrenen PC Nutzern einen höheren Stellenwert hat, als AF.

NV verbesserte das FSAA dann, als sie vom R300 komplett versägt wurden und erstmal komplett gebügelt wurden.
Warum sie das nicht schon vorher, mit der nV3x, verbesserten, ist mir ein Rätsel, zumal sie damit hätten rechnen müssen, das der R300 6x SS MSAA bietet, da es damals, zu Zeiten des R200 die Gerüchte gab, das das schon für den R200 geplant war, ATI es aber nicht ganz hinbekommen hat (wie noch ein paar andere Dinge), ebenso war der R200 zeitweise der Schnellste Chip am Markt, da hätte nV wissen müssen, das ATi ein Ernster Konkurent werden könnte.

nV hat einfach in der Zeit von GF2 bis FX Serie gepennt und sich nicht gut genug ins Zeugs gelegt (dazu kommt die indiskutable Unterstützung für diverse TV Encoder)...


Während die AF Qualität beim R300 ja gerade noch erträglich war, sind wir jetzt an einem Punkt angekommen, an dem man überlegt, ob das Aufrüsten wirlich für schönere Spiele sorgt. (---> 7800).

Stimmt, aber hätte man schon bei der FX Serie anfangen müssen zu murren, spätestens aber bei der 6er Serie, was man aber nicht getan hat, da man ja nV 'vertraut' hat, das sie es besser machen würden.

Was man aber schon damals als Blauägig und bescheuert hätte werten können, siehe GF4 -> FX -> 6er Serie, mit jeder weiteren Generation wurds AF schlechter...

Damals hätte man ordentlich auf nV eindreschen müssen und nicht nVs Entscheidungen mit ATi rechtfertigen...
Natürlich kamen solche Kommentara aus der nV Ecke, die 'neutraleren' haben damals schon auf nV rumgehackt...

Daran ist der Käufer aber selber Schuld. Hätte er die Optimierungen bei R300 und NV40 nich einfach gschluckt, wäre das nicht passiert. (Ja... ein Blick in meine Signatur verrät, dass ich auch Schuld bin ...)

Nein, daran sind die dummen Reviewer schuld, die einfach zu Blöd sind, sich Gedanken über ihre eigen Werke zu machen.

Was z.B. ein Unding ist, ist z.B. das stupide durchbenchen, wenn man 2 Karten testet, z.B. Gigabyte 6600GT gegen Albatron 6600GT.

Dazu kann ich echt nur sagen:
Wie blöd kann man sein!
Die Benches der 6600GT sollten bekannt sein, somit _MUSS_ man die beiden Karten untersuchen und auf die Unterschiede eingehen, nur was macht Ottonormal-DAU-Reviewer?!
Richtig, er klatscht beide Karten in den Rechner, bencht sie durch, übertaktet kräftig und sagt die Albatron ist besser weil man sie 5MHz besser übertakten kann...

Dummheit ohne Grenzen...

Gleiche scheiße übrigens auch bei MoBo Tests, wobei das da noch Sinn macht, die I/O und Speicherperformance zu messen (viel mehr aber auch nicht!)

Ich denke man sollte sich nich zu sehr üner NV und ATI aufregen. Die machen nur das, was mehr Gewinn einspielt.


Nein, du musst dich nicht über nV und/oder Ati aufregen!
Du musst dich über die dämlichen Möchtegern Reviewer aufregen, die keinen Plan haben, sich keine Gedanken machen und einfach nur irgendwas (falsches) machen...

Solange der größte Teil der Kunden zufrieden ist, wird sich nichts ändern.
Es wird sich auch ncihts ändern, wenn der größte Teil der Kunden unzufrieden ist...

Es wird sich erst dann was ändern, wenn sich die Presse mal 'zusammentut' und mal ordentlich, bei jeder Gelegenheit, auf nV eindrischt, insbesondere von den 'Festen Teilen' aka Computer BILD und sonstigem, dann könnte sich was ändern...

Ein weiteres Problem ist aber, das meist die Schreiberlinge auch irgendwelche Fanboys von irgendwas sind und den einen Hersteller deutlich bevorzugen...

Gast
2005-07-15, 22:19:34
Damit ist 32 Bit Floatpräzision für die Pixelshaderinstruktionen gemeint, das kann der NV30 auch schon.
Ah, ok. Das wurde im Marketingslang immer als 128bit HDR beworben, wobei ich mich da auch schon gefragt habe woher die Bandbreite kommen soll.

Gast
2005-07-15, 22:20:39
Woher hast du die SPF Zahlen eigentlich? Ich glaube nicht, dass FP-Blending im Pixelshader noch langsamer ist als die PS 2.0 der FX.
Das hatte Demirug vor einigen Monaten mal beziffert. Da war man laut seiner Rechnung ganz schnell im absoluten Diabereich.

Black-Scorpion
2005-07-15, 22:22:33
:redface:
*Hat sich keine R300 Karte gekauft*

Ich muss aber zugeben, dass ich ein AF Fanatiker bin. :)

Wenn mein NV28 nicht dahingeschieden wäre, hätte ich locker auf irgendeine Karte mit ordentlichem AF warten können.

An dem 6800 Schnäppchen bin ich aber nicht vorbeigekommen. SM 3.0 ist schon verlockend... ;D
Was du da geschrieben hast, hat nichts damit zu tun ob du einen R300 hast oder nicht.
Du solltest dir lieber mal diesen Artikel ansehen (http://www.3dcenter.org/artikel/multisampling_anti-aliasing/) und dann deinen Post nochmal gründlich übedenken.

Coda
2005-07-15, 22:25:14
Das hatte Demirug vor einigen Monaten mal beziffert. Da war man laut seiner Rechnung ganz schnell im absoluten Diabereich.Die Aussage wird dadurch wohl nicht falscher.

Ich halte die FX auf jeden Fall genauso wenig brauchbar für PS 2.0 wie die ATis für HDR.

DaBrain
2005-07-15, 22:28:30
@Stefan Payne
Gut, den Punkt mit den Reviews hatte ich nicht ganze bedacht.
Das ist natürlich richtig.

Wenn die Qualität schlecht genug geworden ist, braucht man aber keine Reviews mehr um den Kunden das klarzumachen.
Dann werden sie es selber bemerken.

Spätestens wenn ein User mit 7800 auf einer LAN neben jemanden mit einem NV25 sitzt. ;D

Das NV das AA der GF4 zur FX nicht verbessert hat ist allerding nachvollziehbar. Der R200 hatte ganz ordentliches AA, aber AFAIR war es schlechter als das der GF4.

Vielleicht gehört aber auch ein gutes Stück Überheblichkeit dazu...

Was du da geschrieben hast, hat nichts damit zu tun ob du einen R300 hast oder nicht.
Du solltest dir lieber mal diesen Artikel ansehen (http://www.3dcenter.org/artikel/multisampling_anti-aliasing/) und dann deinen Post nochmal gründlich übedenken.
:confused:
Verstehe nicht ganz was du meinst...

Gast
2005-07-15, 22:34:12
Spätestens wenn ein User mit 7800 auf einer LAN neben jemanden mit einem NV25 sitzt. ;D



was auch nichts nützen wird wenn der NV25-user auf 640x480 ohne AF spielen muss und trotzdem leichtes ruckeln hat, während die 7800 in 1280x1024 +AA/AF trotz aller optimiererei noch immer besser aussieht, und auch noch schneller ist.

zeckensack
2005-07-15, 22:38:14
Wenn man das FP-Blending mit den Pixelshadern emuliert schon.Rthdribl rendert ein einziges nicht-transparentes Mesh vor einen Hintergrund. In solch begrenzten Szenarien funktioniert es problemlos. Spiele sind eine ganz andere Kiste, und zwar aus dem von dir schon genannten Grund: Blending.
Es gibt keinen robusten und performanten Workaround für das Fehlen der Blending-Fähigkeit in HW*

Robust wäre 1xPing-Pong nach jedem einzelnen Dreieck.
Mit Einschränkungen (strikt konvexe transparente meshes; ergo weniger robust) wird daraus 1xPing-Pong pro Mesh-Instanz.

Ab da wird's sehr schwierig. Man kann versuchen, den zu kopierenden Bereich zu minimieren (im Optimalfall nur die tatsächlich abgedeckte Pixelfläche), und/oder die Render-Reihenfolge so umzusortieren, dass man möglichst viel schafft, ohne dass sich das Zeug überschneidet, und so die Ping-Pong-Zyklen selbst zu minimieren. Das ist aber extrem haarig, und kostet auch CPU-Leistung satt. Es läuft nämlich beides auf einen (groben) Software-Rasterizer hinaus, wenn es zuverlässig funktionieren soll.

Ein denkbarer Hack wäre wohl Alpha-to-coverage. Aber dafür muss auch erstmal Multisampling auf FP16-Targets unterstützt werden, dann kann man IMO auch gleich 'nen Blender dranklatschen.

*btw gilt das gleiche auch für "herkömmliche" fixed-point RTs, aber da kann ja zum Glück jede Hardware das Blending selbst ausführen, wodurch sich die Frage dort nicht stellt.

DaBrain
2005-07-15, 22:38:57
was auch nichts nützen wird wenn der NV25-user auf 640x480 ohne AF spielen muss und trotzdem leichtes ruckeln hat, während die 7800 in 1280x1024 +AA/AF trotz aller optimiererei noch immer besser aussieht, und auch noch schneller ist.


Ich gehe schon lange nicht mehr auf LANs, aber ich denke die meisten Spieler werden die Details so niedrig wie möglich drehen.

Alleine schon um nicht als "N00b" dazustehen. ;D

AA? AF? Auf beim CS zocken ist ein "nono".

BTW es gibt noch kein einziges Spiel bei dem man mit einer GF4 TI auf 640*480 spielen müsste um flüssig spielen zu können. So langsam ist die Karte nicht.

Black-Scorpion
2005-07-15, 22:51:30
:confused:
Verstehe nicht ganz was du meinst...
Sorry, falsch gelesen.
Habe statt AF AA bei R300 gelesen.

Coda
2005-07-15, 23:11:14
Rthdribl rendert ein einziges nicht-transparentes Mesh vor einen Hintergrund. In solch begrenzten Szenarien funktioniert es problemlos. Spiele sind eine ganz andere Kiste, und zwar aus dem von dir schon genannten Grund: Blending.Ist bekannt, habe ich auch irgendwo hier schon erwähnt.

Es gibt keinen robusten und performanten Workaround für das Fehlen der Blending-Fähigkeit in HW*Ja. Deshalb habe ich ja gesagt, dass der R300 nicht wirklich HDR kann.

Gast
2005-07-15, 23:25:55
Ja. Deshalb habe ich ja gesagt, dass der R300 nicht wirklich HDR kann.
Nö, ist nicht der Fall.
Ja, genauso schnell wie die FX PS 2.0 konnte. Sehr sinnvoll halt.

Die GF-FX waren keine schnellen PS2.0 Karten, aber ihnen gänzlich PS2.0 Fähigkeiten abzusprechen ist wohl meilenweit überzogen. Also demnächst lieber vor dem tippen überlegen. ;)

Thanatos
2005-07-15, 23:35:01
Ich gehe schon lange nicht mehr auf LANs, aber ich denke die meisten Spieler werden die Details so niedrig wie möglich drehen.

Alleine schon um nicht als "N00b" dazustehen. ;D

AA? AF? Auf beim CS zocken ist ein "nono".

BTW es gibt noch kein einziges Spiel bei dem man mit einer GF4 TI auf 640*480 spielen müsste um flüssig spielen zu können. So langsam ist die Karte nicht.

CS 1.6 wird bei mir mit 8xS AA + 16xAF gezockt ;D

Tjell
2005-07-15, 23:39:00
Öhm... irgendwie überseht Ihr einen gewichtigen Umstand:

Die Qualität der AF-Filter und das Auf-der-Stelle-treten der Chipentwickler (beide großen sind gemeint) in gewissen technischen Belangen fußt auf zwei ganz besonderen Gegebenheiten:

Diejenigen, die Fetatures der Grafikkarten kennen, gieren von Generation zu Generation primär (oder eher: zuerst) nach höherer Geschwindigkeit des neuen Produkts, um den Fortschritt dokumentiert zu sehen; erst später folgt das böse Erwachen. Jedoch auch nicht bei allen.

Die große Masse an Käufern kann aber mit diesem ganzen "technischen Gedöhns" nicht die Bohne etwas anfangen: sie wissen weder, worum es geht, noch was ihnen eigentlich entgeht. Sie kennen den ganzen "Schmarrn" einfach nicht. Was zählt, ist vornehmlich der Geldbeutel. Im Übrigen rechne ich hier auch das Gros der "quasi-informierten" hinzu, Leute die Spielen, auch schon mal von dem einen oder anderen technischen Kram gehört haben, sich aber dennoch unter AF und AA usw. nicht wirklich etwas vorstellen können.

Nun darf man sich, angesichts der heutzutage technischen Stand darstellenden "Skalierung" einer Chiparchitektur vom Top-Modell bis zum Einstigerchip, gerne ausmalen, was wohl der Gedankengang der Chipschmieden sein wird?

Das Ergebnis kennen wir und es ist aus Sicht der Unternehmen verständlich und der Masse an Käufern auch völlig egal.

Und eines dürft Ihr Euch ganz schnell aus dem Kopf schlagen: gekauft wird nicht nach "Benchmarkbalkenlänge", sondern nach a) Budget b) Markenprägung und c) Empfehlung (durch Verkäufer oder Bekannte "die was wissen).

Schrotti
2005-07-15, 23:47:24
CS 1.6 wird bei mir mit 8xS AA + 16xAF gezockt ;D

Is ja keine Kunst bei der alten Engine.

Mfg Schrotti

c0re
2005-07-16, 00:35:00
Ich gehe schon lange nicht mehr auf LANs, aber ich denke die meisten Spieler werden die Details so niedrig wie möglich drehen.

Alleine schon um nicht als "N00b" dazustehen. ;D

AA? AF? Auf beim CS zocken ist ein "nono".

BTW es gibt noch kein einziges Spiel bei dem man mit einer GF4 TI auf 640*480 spielen müsste um flüssig spielen zu können. So langsam ist die Karte nicht.

Ja, Far Cry läuft auf 104x768 @ Max Details passabel. D.h. ~ 25-35 FPS wenn ich mich recht erinner. Hatte mal eine Ti 4800 128MB DDR... Läuft immer noch 1a die Karte.

c0re
2005-07-16, 00:38:00
Es ist sogar die Frage erlaubt, ob man bei der Unterfilterung nicht von Betrug sprechen kann. Moralisch ist es Betrug, aber juristisch wohl nicht. Schade, denn als damals die Verbraucher gegen Intel wegen des P4 vorgingen, hätte ich gerne gesehen, dass Intel ne Lektion kassiert. Tjo, manche Träume gehen vielleicht verspätet in Erfüllung, vielleicht hat AMD ja den verdienten Erfolg.

Was ist Unterfilterung?

StefanV
2005-07-16, 00:43:46
Was ist Unterfilterung?
AFAIK wars bei Unterfilterung flimmrig (etwa so als wenn du den Lod senkst), bei Überfilterung wirds Matschig (so als ob du den Lod anhebst)

Coda
2005-07-16, 01:01:08
Nö, ist nicht der Fall.Was ist nicht der Fall?

Die GF-FX waren keine schnellen PS2.0 Karten, aber ihnen gänzlich PS2.0 Fähigkeiten abzusprechen ist wohl meilenweit überzogen. Also demnächst lieber vor dem tippen überlegen. ;)Das ist meine Ansicht, die du gefälligst zu respektieren hast. Die permanenten Beleidigungen kannst du dir im übrigen sparen.

Thanatos
2005-07-16, 01:06:52
Is ja keine Kunst bei der alten Engine.

Mfg Schrotti

ich hab hier schon einige mit ner 6800gt erlebtdie das trotzdem ohne AA+AF + zocken, nur damit sie konstant 99fps haben X-D

So´n CS nerd bin ich ned X-D

ich spiels ja nedmal gerne ;(

Gast
2005-07-16, 01:17:34
Das ist meine Ansicht, die du gefälligst zu respektieren hast. Die permanenten Beleidigungen kannst du dir im übrigen sparen.
Nein, ich respektiere deine Meinung nicht und werde das hier kund tun, wenn Du behauptest, dass eine GF-FX5900 "nicht wirklich PS2.0 kann". Das kann sie sehr wohl, wenn auch nciht so schnell wie der R3xx, und alles andere ist falsch.

Coda
2005-07-16, 01:18:19
Ja und der R300 kann auch sehr wohl HDR. Nur beide können es jeweils nicht besonders akzeptabel. Was ist also dein Problem?

Nur weil der Vergleich vielleicht nicht ganz passend ist, brauchst du mir nicht zehnmal das Wort im Mund verdrehen.

Gast
2005-07-16, 01:21:48
Nur weil der Vergleich vielleicht nicht ganz passend ist, brauchst du mir nicht zehnmal das Wort im Mund verdrehen.
Guck mal, auf mehr wollte ich doch garnicht hinaus. Der Vergleich war schlicht falsch, da HDR auf den R300 in echten Spielen praktisch garnicht geht und PS2.0 auf den FXen, besonders den 5900ern, sehr wohl, wenn auch abgeschlagen vom R3xx.

deekey777
2005-07-16, 01:26:52
Ich unterbreche euch ungern, aber für mich als einen objektiven Leser (X-D) klang Codas Analogie zu NV30&PS 2.0-Leistung so, ob es nur um die Geschwindigkeit ging, nicht um die Features selbst.


€: Betrug ist es erst, wenn man erwischt wird.

Coda
2005-07-16, 01:27:51
Guck mal, auf mehr wollte ich doch garnicht hinaus. Der Vergleich war schlicht falsch, da HDR auf den R300 in echten Spielen praktisch garnicht geht und PS2.0 auf den FXen, besonders den 5900ern, sehr wohl, wenn auch abgeschlagen vom R3xx.http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2710993&postcount=3

Gast
2005-07-16, 02:39:51
Ich unterbreche euch ungern, aber für mich als einen objektiven Leser (X-D) klang Codas Analogie zu NV30&PS 2.0-Leistung so, ob es nur um die Geschwindigkeit ging, nicht um die Features selbst.
Ich war da auch übertrieben kleinlich, weil ich mich über Coda in einem anderem Thread geärgert habe. Von daher, ... :)

SKYNET
2005-07-16, 05:39:45
PS: NFSU hat sowohl mit der nV30 als auch mit der NV35 derbst geruckelt, mit der R300 (ok, eigentlich R350/R360) nicht...




*peng*

lüge!

selbst auf meiner Ti4200 konnte ich in 1280 2xAA/4xAF alles auf highest und optimierungen alle aus, flüssig zocken b.z.w. 1280 4xSSAA ohne zusätzliches AF...
karte lief dafür im übrigen auf 360/730. =)

mit der 9800pro danach habe ich es aber mit 4xAA/16xAF gezockt mit gleichen einstellungen... =)

Huhn
2005-07-16, 05:42:06
also das flimmern auf der 78gtx find ich bei weitem nciht so schlimm wie auf den 6xxxer karten. ehrlich gesagt seh ich gar kein flimmern :D.

chrisihamm
2005-07-16, 07:32:24
Kann mich nur anschließen,ich habe bis jetzt bei keinem Spiel Flimmern wahrgenommen,benutze den 80.40Treiber!!!!



mfg

aths
2005-07-16, 08:20:49
Ich? :confused:Nein, ich.

aths
2005-07-16, 08:21:14
[COLOR="#000088"]
Nein. Dann wär die Leistung wieder so gewesen daß nach 6 Monaten wieder Leistungsengpässe dagewesen wären. Beim R300 wurde die Winkelabhängigkeit ja auch verbessert. Beim Erscheinen des R200 klappte das ja noch nicht so richtig. Solche Optimierungen sind schon nötig. Frag doch mal Exxtreme, wie "nötig" er diese "Optimierungen" findet, wenn er WoW spielt.

aths
2005-07-16, 08:27:36
Jetzt scheint sich die Geschichte fast zu wiederholen, denn Benchmarks in denen ne x850xt pe fast doppelte 6800U Leistung erreicht sind ja auch nicht mehr die allzu seltene Ausnahmen.Wie soll das denn möglich sein? 540 MHz vs 400 MHz (bei je 16 Pipes) soll fast doppelte Geschwindigkeit bringen? Wenn man bei ungewohnt hoher Geschwindigkeit misstrauisch wird, sollte das in beide Richtungen Misstrauen erzeugen.

TSAA z.B.

Imo der Kaufgrund schlechthin. Nur dumm für NV dass bei solch teuren Hobbies auch viel persönliche Sympathie in die Kaufentscheidungen mit einfliesst, die NV sich jetzt fürs erste verspielt hat. Das hatte ich auch NV so gesagt: Bei zwei etwa gleichstarken Anbietern entscheidet am Ende die Glaubwürdigkeit, weniger die Technik. Doch die PR-Leute können natürlich nicht zugeben, dass NV massiv Glaubwürdigkeit verspielt hat (damit meinte ich in jüngster Zeit, es gab ja zu fast jeder Generation Skandale.)

aths
2005-07-16, 08:31:08
1. Sorry, aths, aber das trifft eher auf dich zu, denn du hättest bei der nV4x Reihe laut aufrschreien müssen :rolleyes:Na, du hast meine Artikel also noch immer nicht gelesen? Dann wäre ich mit solche Aussagen etwas vorsichtiger. Das gilt für dein gesamtes Posting. Du scheinst meine Artikel (und Posting) wenn überhaupt, nur selektiv zu lesen, das finde ich schade, da ich dann offenbar einen guten Teil umsonst schreibe.

Am NV40 und G70 in Dingen Fortschritt lobenswertes zu finden ist btw viel leichter, als beim R420. Das mag für dich keine Rolle spielen, für mich schon.

Müssen muss ich allerdings nur mal auf Toilette.

aths
2005-07-16, 08:34:12
Von einer Zeitschrift kannst du das nicht erwarten. Die sollen eine viel größere und andere Zielgruppen als 3dcenter.de ansprechen. Und der zahlende, zeitschriftenlesende DAU würde irgendwelche Filterdiskussionen nicht mal ansatzweise verstehen.Zu schreiben, dass die Grafikqualität abgesenkt wurde und das Bild flimmert, erfordert nicht sooo viel Verständnis. Ich finde es auch etwas seltsam, dass immer dieses Mantra gebetet wird, man dürfe da nichts besonders anspruchsvolles bringen. NV und ATI beten offensichtlich auch ständig das Mantra, dass Geschwindigkeit vor Qualität gehe. Das artet in Autosuggestion aus.

Exxtreme
2005-07-16, 08:40:39
Frag doch mal Exxtreme, wie "nötig" er diese "Optimierungen" findet, wenn er WoW spielt.
So nötig wie ein Kropf. X-D

Ich finde es immer noch am besten wenn "Optimierungen" abschaltbar sind. Denn dann stellt man fast alle Leute zufrieden. Diejenigen, die die Winkelabhängigkeit nicht sehen, die könnten die Optimierung drinne lassen und diejenigen, die sich ob der Optimierung stören, die machen sie raus. Müssen aber dann mit Leistungeinbussen rechnen.


Tja, Nvidia hatte es in der Hand. TSAA das Killerfeature schlechthin für Alphatesting-geplagte User wird wieder egalisiert weil man gemeint hat an der Texturfilterkonfiguration rumspielen zu müssen. Man tausch ein Flimmern gegen ein anderes. Schade. Ich hoffe, ATi ist da vernünftiger beim R520.

aths
2005-07-16, 08:45:21
Du hast dir unter den Leuten die dich hier aus dem Forum kennen schon lange das Image eines neutralen Redakteurs verloren. Dich hält doch fast jeder für biased, auch wenn ein Teil der Leute ausschließlich hinter deinem Rücken ablästert. Mit dir in der 3DC Crew werdet ihr nie wirklich ein neutrales Image bekommen. Na gut dass wir 3dfx-Fan Raff in der Crew haben. Wer hinter meinem Rücken ablästert muss es ja nötig haben, offenbar bist auch du eigentlich ein Reg. Ich trete wenigstens mit offenem Visier auf.

Das einizge was Du machst ist Schadensbegrenzung. Wenn nVidia irgendwann mal ganz großen Mist baut und Du es nicht mehr leugnen kannt, dann ziehst Du erst mit, um aus der Not die Tugend zu machen und dich als neutral zu titulieren.So kann man's sich natürlich auch hindrehen. Alles was ich gegen NV schreibe, wird als selbstverständlich gesehen, wenn's gegen ATI sieht, wird das als Beleg für meine angebliche Gefärbtheit betrachtet. Ich wünschte, ein NV-Mitarbeiter der mich kennt würde dein Posting lesen.

Über all die Zeit: Wer bekam mehr Platz in meinen Artikeln wenn es um abgesenkte Texturfilterqualität geht? Ich sehe es eher andersherum: Jetzt endlich, wo es NV übertrieben hat, werde ich nicht mehr als Theoretiker gehänselt, meine Sorge um Texturfilterqualität wird endlich von der breiten Mehrheit im 3dc geteilt.

Oder dein Artikel zum G70. - Jede Kritik zum G70 immer schön damit begründen, dass ATI damit angefangen hat und Nv nur Opfer ist. Dieser Tenor ist bei dir überall zu spüren. ... Aber hauptsache Du selber glaubst an deine Neutralität.Diesen Tenor lesen glaube ich nur diejenigen raus, die es so interpretieren wollen, <br>.

Wer mein Bemühen um Objektivität anzweifelt, darf das jederzeit tun. Möchte er mein Gehör im besonderen Maße finden, wäre es jedoch optimal, wenn er selbst nicht in Verdacht stehen würde, pro (oder contra) irgendwem zu sein. Mich als Problem für die 3DC-Crew darzustellen hilft da sicher nicht weiter. Wahre Neutralität besteht auch nicht darin, in Zeiten, wo ATI mehr Fans hat, tendenziell pro ATI zu sein. Was für ein Image hatte ich nochmal zu Zeiten, in denen NV-Produkte von der Masse als "am besten" gesehen wurden?

aths
2005-07-16, 08:56:17
Hier gehts um die miese AF Qualität die NV bietet, und das ist mehr als schlimm. Als MMORPG'ler bin teilweise schlichte Grafik gewohnt, aber wenn ich nach 2 Jahren mal wieder durch das Daoc Addon "Shrouded Island" laufe, kommt mir die Galle rauf, dort gibt es viele Holzhütten bei den Midgardern, steht man nahe an so einem Holzbalken sieht er relativ gut aus, bewegt man sich aber davon weg grieselt er wie die Hölle! Als ob man im TV den Ameisenkrieg zwischen schwarz und weiß hätte...

Finde das eine Sauerei, mit meiner FX5900 siehts sehr gut aus, 0 grießeln und AA ist immer noch möglich, aber die GTX is echt ein FPS Prügel der selbst mit dem alten 8xS keine gute Texturen backt...Die 5900 kann vor allem auch noch einigermaßen winkelunabhängiges AF. Geht zulasten der Geschwindigkeit, da mehr Texturen verbessert werden, aber das Bild sieht auch entsprechend aus. Und grisseln gibts nur bei falschem LOD-Bias oder "bösen" Texturen.

Gerade weil der Trend zu hochauflösenden Texturen geht, will ich durchweg im Bild scharfe Texturen und nicht nur bei bestimmten Winkeln. Natürlich will ich auch kein Texturflimmern. In einem Kapitel meiner Diplomarbeit gehe ich kurz darauf ein, dass der Texturfilter bestimmte Dinge nicht mag. Mit überschärften Fototexturen kann man sich auch blödes Flimmern erzeugen.

aths
2005-07-16, 09:02:45
Eine Sache verstehe ich nicht...

Die Käufer sind doch selber Schuld. Die FX hat sich nicht gut genug verkauft, obwohl die gutes AF liefert.Ja, die Marketing-Experten bei NV wollten aber unbedingt die Geschwindigkeit steigern. So gabs z. B. teilweise den Treiber-Zwang zu reduzierter trilinearen Filterung. Auch gabs teilweise n Treiber-Bug der dafür sorgte, dass man nur 2x AF bekam wenn man 8x eingestellt hatte.

NV hatte nicht den Mumm zuzugeben: "Ja, wir sind langsamer" und im gleichen Zug zu versuchen, die Texturqualität zu vermarkten. Dass der R300 in Spielen deutlich schneller war, war ja ohnehin nicht mehr zu leugnen. Stattdessen cheatete NV lieber im 3DMark. Ich bin der Meinung, dass sie dem Verkauf ihres Produktes damit geschadet haben. Und da bin ich ganz ohne Mitleid. Wer cheatet und den User zu schlechterer Texturqualität zwingt als nötig, der hats nicht anders verdient.

aths
2005-07-16, 09:07:06
Nein, nicht "obwohl die gutes AF liefert", sondern weil sie zu langsam war. Das hat mit dem AF nur insofern zu tun, als dass sie sich besser verkaufte als man es von einer Graka-Generation mit so eklatanten Performance-Problemen eigentlich erwarten könnte. Ja warum wohl? IMO weil sie gutes AF bot.

Wer hätte sich denn freiwillig einen NV35 gekauft, wenn dieser Chip neben dürftiger Performance auch noch mit grottiger BQ gesegnet wäre? Mehr oder weniger?

Wenn ahnungslose BWL-Frischabsolventen dann daraus schließen, dass gutes AF keine verkäufliche Produkteigenschaft ist, dann sind mitnichten die Käufer daran schuld. Diese treffen letztendlich ja/nein-Entscheidungen welche objektiv abzählbar sind. Wenn man daraus mögliche Gründe für diese Kaufentscheidungen versucht abzuleiten, dann ist das in jedem Fall unzuverlässiger als die Gründe direkt an der Wurzel zu erforschen, zB über Kundenbefragungen, oder heimliches Mitlesen in einschlägigen Foren.

Es kommt mir hier wieder mal so vor, als hätten ahnungslose Idioten ohne Bodenhaftung die Entscheidungen getroffen, in der Annahme damit dem Kundenwunsch zu entsprechen. Kundenwünsche muss man aber wissen, man darf sie nicht erraten, schon garnicht wenn man im Raten schon immer ganz fürchterlich schlecht war.Das hast du viel besser formuliert als ich es konnte :)

Was mich aber beim letzten Kirk-Meeting etwas verwunderte war, wie andere Redakteure NV beisprangen: Ja, ich (aths) würde dies oder das so und so sehen, aber meisten User (oder Reviewer) eben nicht. Dabei haben gerade User mehr Zeit zum BQ-Test als Reviewer, die in Eile das Pressemuster durchbenchen. Was Redakteure ihren Usern vorsetzen ist also lange nicht die Sicht der User. Und der Reviewer kauft selten, der User (den es auch in größerer Anzahl gibt) kauft öfter.

aths
2005-07-16, 09:12:58
NV hatte wohl eine andere Vorstellung von den kommenden Spielen.

Wahrscheinlich war es nicht vorhersehbar, dass die Spiele so intensiv Shader verwenden würden.

Der NV30 war ehr für wenige komplexe Shader ausgelegt. (Sorry, für meine laienhafte Vorstellung. So kemmt es mir halt vor.)

Die starke Nutzung der Shader, war natürlich möglich, weil der R300 eine gute SM 2.0 Performance hat.Der NV30 war im Gegenteil für komplexere Shader ausgelegt, aber nicht für deren Nutzung in Echtzeit. Der NV30 ist insofern als Entwicklungplattform zu sehen. Der User hatte sehr gute DX8-Geschwindigkeit. Nun hat aber R300, der zudem früher da war als der NV30, die Entwicklung von DX9-Applikationen beschleunigt, NV hatte das so nicht erwartet. Außerdem sind gerade die Shader-Optimierungen, die dem R300 gut tun, Gift für CineFX.

NV wollte den Kunde in aller Ruhe abmelken: NV30 als NV28-Upgrade mit gaaanz tollen Features. NV35 mit doppelter Pixelshader-Geschwindigkeit und endlich dem 256-Bit-Interface. NV40 dann endlich mit "full speed"-CineFX, und zusätzlichen neuen Features (das, was zu SM3 noch fehlte.)

Diese Marketing-Begründungen von NV z. B. was das Speicherinterface angeht fand ich mehr als lächerlich. Die Zeit sei angeblich nicht reif für 256 Bit. Beim NV35 war die Zeit dann plötzlich reif dafür. Das war damals noch eine Produktpolitik der kleinen Schritte, die sich NV angewöhnte als sie noch Marktführer waren.

aths
2005-07-16, 09:19:59
Nicht wenn nur wenige Shader verwendet werden. Der Punkt ist doch, dass der NV30 einige Sachen kann, die der R300 nicht kann. (Mal abgesehen von der Präzision, die jetzt wo HDR verwendet wird endlich wichtig wird.)

Das Konzept ging aber nicht auf.

Die FX war IMO kein Prdukt von Unfähigkeit, sondern von falschen Vorstellungen, die zu einem unvorteilhaften Design geführt haben.Die erste GeForce FX 5800 konnte die Unreal-3-Engine im damaligen Entwicklungsstadium rendern – bei 2 fps. In 320x240.

NV30 war offenbar für "gemischte" Pixelshader entworfen, der auch mit Festkommaformaten rechnen kann. Da hat MS aber gesagt "Nee", nicht unbedingt um NV eins auszuwischen, sondern vielleicht auch um die Specs nicht zu komplex werden zu lassen.

NV brachte erst die Features, später die Leistung. NV35 war ein bedeutender Schritt, NV40 ein noch bedeutenderer, G70 nun ist noch mal deutlich schneller. Pixelshader auf CineFX-Niveau werden vom G70 blitzschnell berechnet, während sich der NV30 da abmühte. Der NV30 sollte den Boden bereiten, für Spieler mit DX9-Spielen war von vornherein der NV35 gedacht. Zu NVs Pech war ATIs Produkt allerdings auch schneller als der NV35. Konkurrenz belebt das Geschäft.

Was allerdings doch etwas komisch ist: DX9-Pixelshader nutzen einige Games, ja. Gute AF-Qualität nützt hingegen allen Spielen, die Texturen verwenden. Dennoch wird jetzt seitens NV lieber SM3 vermarktet.

aths
2005-07-16, 09:23:15
Wenn man das FP-Blending mit den Pixelshadern emuliert schon.Und FP-Texturfilterung.

aths
2005-07-16, 09:32:20
So nötig wie ein Kropf. X-D

Ich finde es immer noch am besten wenn "Optimierungen" abschaltbar sind. Denn dann stellt man fast alle Leute zufrieden. Diejenigen, die die Winkelabhängigkeit nicht sehen, die könnten die Optimierung drinne lassen und diejenigen, die sich ob der Optimierung stören, die machen sie raus. Müssen aber dann mit Leistungeinbussen rechnen.


Tja, Nvidia hatte es in der Hand. TSAA das Killerfeature schlechthin für Alphatesting-geplagte User wird wieder egalisiert weil man gemeint hat an der Texturfilterkonfiguration rumspielen zu müssen. Man tausch ein Flimmern gegen ein anderes. Schade. Ich hoffe, ATi ist da vernünftiger beim R520.NV hatte es auch schon beim NV40 in der Hand. Wer die 5-10% mehr fps will, greift zum R420. Wer mit sagen wir 20% (großzügig: 30%) weniger Geschwindigkeit leben kann, aber vollständig 16x max-AF gefilterte Texturen haben will, greift zum NV40. ATI hätte (mangels Hardware) nichts dagegen tun können. Stattdessen haben sie ATIs AF imitiert. Wirklich, sehr schlau. Ich kaufe einen SM3-Chip, um schlechtere Texturen als auf einer FX zu haben und (bei HQ) nur unwesentlich bessere Texturen als auf einer Radeon ... klar ...

mapel110
2005-07-16, 09:53:36
hehe, hab mir gerade die aktuelle Ct gekauft. 7800 Review ahoi. Nicht ein einziges Wort drin zum Thema Texturfilter, dafür jede Menge fps-Balken und Lobpreisungen für TAA, Shaderperformance, Video-Features und Verfügbarkeit. :)

aths
2005-07-16, 10:05:32
Dafür ist ja 3DCenter da :)

Gast
2005-07-16, 10:17:42
1024*768 4xAF HQ LOD:+0,5

http://img322.imageshack.us/img322/4914/daoctor29dn.png

Gast
2005-07-16, 10:18:46
Sieht grauenhaft aus das Mipmap-Banding im Spiel, kann eine der "Optimierungen" da vieleicht gar helfen, da es ja in HQ nicht möglich ist gescheite Übergänge zu bekommen

Demirug
2005-07-16, 10:33:17
Das ist die Geschichte von zwei Motorenbauer die Jahr für Jahr stärkere Motoren bauten. Schon nach wenigen Jahren waren die Motoren so stark das die Fahrzeuge aufgrund der Reifen und der Strasse auch mit einem neuen Motor nicht mehr schneller fahren konnte. Da die Motorenbauer aber trotzdem der Presse verständlich machen wollte das ihere neuen Motoren viel besser als die alten sind brauchten sie Kisten mit Zusatzgewichten mit. Den wenn ein zusätzlich beschwertes Fahrzeug mit neuen Motor genauso schnell ist wie das unbeladene Fahrzeug mit dem alten Motor muß der neue einfach besser sein. Bald merkten die Motorenbauer das niemand so genau in die Kisten mit den Zusatzgewichten schaute und weiterhin nur fleisig der Endwert von der Stoppuhr abgeschrieben wurde. Da einer der beiden Motorenbauer in seine Kisten sowieso schon weniger reingepackt hatte meinte der andere er könne es ihm gleich tun. Das fand unser Motorenbauer zwei aber gar nicht lustig und leerte seine Kiste ebenfalls weiter. Die Kisten sowie die Aufschriften wurde natürlich beibehalten. Offen zeigte man einzelne Kisten nur dann voller Stolz wenn man im vergleich zum letzten Test mehr reingepackt hatte. Die Kisten mit weniger Inhalt blieben natürlich geschlossen. Inzwischen optimiert man also nicht nur den eigentlichen Motor sondern auch fleisig die Zuladung für die Tests.

Nur merken werden das die meisten Tester wohl erst wenn ihnen die Stoppuhr aus der Hand fällt weil ihnen die Einzelteile der Zuladungkiste auf den Fuss gefallen sind. Denn wenn die Kisten erst mal leer sind muss man die Schrauben entfernen um sie noch leichter zu machen.

In die Kisten reinschauen wäre eigentlich eine gute Idee nur sind die meist dermassen verschlossen und vernietet das man schweres Gerät und Zeit braucht um sie aufzubekommen. Damit niemand auf dumme Ideen kommt stellen die Motorenbauer ihere neuen Produkte darum immer nur möglichst kurz zur Verfügung.

aths
2005-07-16, 11:11:38
Mit kürzeren Abständen könnte man das Problem durchaus lösen was dann aber eigentlich eine Kompensation durch Überfilterung wäre. Defakto macht der NV40 allerdings genau das. Beim G70 wird das Überfiltern erfolgreich unterdrückt indem die zu berücksichtigende Texelfläche besser bestimmt wird. Das verhindert weitgehend das einzelneTexel doppelt gelesen werden müssen. Das Problem ist nur das dieses neue Verfahren die Gewichtungsfaktoren nicht korrekt berechnet bzw. die BI-Filter das gar nicht umsetzten können weil man das 3 Lerp Verfahren nutzt (Vermutung von mir).

Die Grundidee war also eigentlich gar nicht schlecht nur haben sie das irgendwie nicht richtig zuende gedacht.Ich verstehe die Grundidee nicht, ehrlich gesagt. Wenn man auf der AF-Linie bei richtigem LOD (mindestens) so viele Samples hat, wie man aufgrund des u:v-Verhältnisses eben braucht, kann doch nichts schief gehen. Dass einzelne Texel neu gelesen werden wird durch den Cache abgefedert.

Quasar
2005-07-16, 11:15:40
Der NV30 war im Gegenteil für komplexere Shader ausgelegt, aber nicht für deren Nutzung in Echtzeit. Der NV30 ist insofern als Entwicklungplattform zu sehen. Der User hatte sehr gute DX8-Geschwindigkeit. Nun hat aber R300, der zudem früher da war als der NV30, die Entwicklung von DX9-Applikationen beschleunigt, NV hatte das so nicht erwartet.
Wenn der nv30 eine Entwicklungsplattform war - warum ist er dann im freien Markt positioniert worden?
Man hätte ihn ja auch zum Beispiel allein als Quadro verkaufen können (dort liefen die entsprechenden Karten AFAIK sehr, sehr gut - Verkaufsmäßig).

Nein, ich bin anderer Meinung edit: wie du später ja auch noch geschrieben hast.... Im Grunde hatte Nvidia wohl vorgehabt (und bitte jetzt nicht schon wieder die Diskussion darob anfangen, ob das dumm war, wer sich mit wem verschworen hatte und wer schuld ist), den nv30 sehr wohl als rundum-sorglos Paket für DX9 zu verkaufen.
Nur hatte man eben zur entscheidenden Zeit in der Entwicklungsphase von CineFX damit gerechnet, 2.0-Shader würden als Option auch Festpunktoperationen zulassen. Man dachte sich wohl, um mal das Luna-Beispiel zu nehmen, man könne große Teile des Bildes herkömmlich rendern und nur kleine Bereiche, wo die Anwendung von Floating-Point und/oder langen Shadern nutzbringend ist, mit eben diesen rendern.

Zudem hatte man sicherlich (zu o.g. Zeitpunkt) mit einem so starken (und frühen!!!) R300 gerechnet, der den Entwicklern (s. "früh") eben auch die Möglichkeit gab, FP-Shader vollflächig einzusetzen.
Dazu die Produktionsprobleme und die Probleme mit der Leistungsaufnahme von hochtaktendem DDR2-RAM zu der Zeit.

Alles in allem würde ich das mal als Superlativ von Dumm gelaufen bezeichnen - schlimmer hätte es eigentlich nicht mehr kommen können.

Wenn Nvidia keine AG wäre, hätten sie sich IMO sogar darauf beschränkt, den nv30 nicht im Consumermarkt zu platzieren, sondern ihn nur für die Quadros benutzt. Ein börsennotiertes Unternehmen kann sich sowas aber nicht leisten, da man direkt am Tag nach einer solchen Bekanntgabe aus der Kaffeekasse der Konkurrenz hätte übernommen werden können.

Winter[Raven]
2005-07-16, 11:30:37
Also, ich will mir jetzt nicht alle Seoten durchlesen, aber ist es ein Bug im Treiber, oder ist es von Nvidia bewusst übertrieben optimiert, bzw. wird es wieder geändert?

Seraf
2005-07-16, 11:32:13
']Also, ich will mir jetzt nicht alle Seoten durchlesen, aber ist es ein Bug im Treiber, oder ist es von Nvidia bewusst übertrieben optimiert, bzw. wird es wieder geändert?

Das kann dir im Moment niemand mit 100% Sicherheit sagen.

Gast
2005-07-16, 11:32:38
']Also, ich will mir jetzt nicht alle Seoten durchlesen, aber ist es ein Bug im Treiber, oder ist es von Nvidia bewusst übertrieben optimiert, bzw. wird es wieder geändert?
Wenn Nvidia jeglich Fragen übers Flimmern ableht, wird es wohl Absicht sein...

Mr. Lolman
2005-07-16, 11:37:22
Nein, ich.

:ulol:

Sry, aber kommt dir die Aussage bekannt vor?


<...>
Ich kenne kein Beispiel, wo Q (ohne weitere "Optimierungen") schon "deutlich schlechter" als R300 (mit AI on) sein soll. Wenn du solche Beispiele kennst, wäre das imo einen eigenen Thread wert, da NV behauptet mit Q eben eine der Konkurrenz vergleichbare Qualität zu bringen. Ist die Qualität in Wahrheit "deutlich schlechter" muss das in Review-Bewertungen mit einfließen.

Du hattest bis vor kurzem eine Vergleichbarkeit zw. NV default und ATi default gesehen. Erst als (hauptsächlich meinerseits) massiv Gegenbeispiele gebracht wurden, hast du angefangen diese Einstellung zu überdenken.

Gut dass das auf der Hauptseite nicht weiterhin totgeschwiegen wird mag vll. dein Verdienst sein, aber dass sich die allgemeine Meinung bezügl. Vergleichbarkeit zw. default Einstellungen beider IHVs geändert hat, geht sicher nicht auf deine Kappe!

Seraf
2005-07-16, 11:38:35
Zum einen haben wir die Vermutung das die Hardware geändert wurde. Zum anderen haben wir Ulukays Benchmarkvergleiche zwischen einem Windows System und einen Linux System. Das Linuxsystem verliert dabei mehr Performance mit AF. Heißt das nun das dort keine Optimierungen wirken?

Wenn jemand den das Flimmern stark stört mal auf Linux und UT2003/4 nachtesten könnte ob es dort auch flimmert wäre es schön :)

Dann wüßten wir schonmal ob es dort flimmern/rauschen gibt und ob es treiber- oder hardwareabhängig ist.

Demirug
2005-07-16, 11:39:18
Ich verstehe die Grundidee nicht, ehrlich gesagt. Wenn man auf der AF-Linie bei richtigem LOD (mindestens) so viele Samples hat, wie man aufgrund des u:v-Verhältnisses eben braucht, kann doch nichts schief gehen. Dass einzelne Texel neu gelesen werden wird durch den Cache abgefedert.

Der Cache federt die Speicherlatenz aber zwischen dem Cache und dem Filter gibt es auch nur eine Bandbreite X. Wenn man also die Zahl der Texel welche vom Cache zum Filter müssen reduziert gewinnt man Takte.

Ich behaupte nicht den G70 AF Trick vollständig verstanden zu haben aber eine Unterfilterung durch zu wenige Texel wie beim NV40 Quality Modus ist es nicht. Es wird die korrekte Anzahl von Texel verrechnet da aber bei bestimmten Txel/Pixel Verhältnissen die Leistung sprunghaft steigt lässt sich das nur so erklären das im Verhältniss zum NV40 weniger gerechnet wird. Die Speicherlatenz auf den Grafikspeicher kann es nicht sein den dafür ist es zu Sprunghaft. Bleibt also nur noch die Möglichkeit das aus der gleichen Anzahl von Texel weniger BI-Samples erzeugt und verrechnet werden. Da die Anzahl der verwendeten Texel aber gleich bleibt muss der NV40 einzelne Texel mehrfach verrechnen. Es ist denkbar das durch diese Überlagerung die falsche Gewichtung von einzelnen Texel ausgelichen wird. Beim NV40 hat man nun scheinbar die Überlagerung entfernt aber das Gewichtungsproblem nicht beseitigt. Das Problem ist das man GB von Datenmaterial braucht um das einzugrenzen.

Kane02
2005-07-16, 11:41:06
Mir fehlt nen Hersteller, der wieder Wert auf Bildqualität legt. Mir optimieren da beide großen Hersteller zu viel. Aber 3Dfx gibts ja nimma... imo hätte so ne Firma, die Wert auf Bildqualität legt durchaus ihren Markt. Die Karten sind heutzutage so schnell, dass der CPU Untersatz für sie gar net reicht und Leistung brach liegt. Auch nutzen viele Spiele das Poptential gar net aus.
Immer zählen nur die blöden Benches.

Ob NV das nun mit dem filtern absichtlich gemacht hat, kA, wir werdens denk ich nie erfahren.

aths
2005-07-16, 11:56:50
Wenn der nv30 eine Entwicklungsplattform war - warum ist er dann im freien Markt positioniert worden?Weil man nach dem NV28 endlich auch ein DX9-kompatibles Produkt lancieren wollte?

Nein, ich bin anderer Meinung edit: wie du später ja auch noch geschrieben hast.... Im Grunde hatte Nvidia wohl vorgehabt (und bitte jetzt nicht schon wieder die Diskussion darob anfangen, ob das dumm war, wer sich mit wem verschworen hatte und wer schuld ist), den nv30 sehr wohl als rundum-sorglos Paket für DX9 zu verkaufen.
Nur hatte man eben zur entscheidenden Zeit in der Entwicklungsphase von CineFX damit gerechnet, 2.0-Shader würden als Option auch Festpunktoperationen zulassen. Man dachte sich wohl, um mal das Luna-Beispiel zu nehmen, man könne große Teile des Bildes herkömmlich rendern und nur kleine Bereiche, wo die Anwendung von Floating-Point und/oder langen Shadern nutzbringend ist, mit eben diesen rendern.

Zudem hatte man sicherlich (zu o.g. Zeitpunkt) mit einem so starken (und frühen!!!) R300 gerechnet, der den Entwicklern (s. "früh") eben auch die Möglichkeit gab, FP-Shader vollflächig einzusetzen.
Dazu die Produktionsprobleme und die Probleme mit der Leistungsaufnahme von hochtaktendem DDR2-RAM zu der Zeit.

Alles in allem würde ich das mal als Superlativ von Dumm gelaufen bezeichnen - schlimmer hätte es eigentlich nicht mehr kommen können.Das kann durchaus so sein. Ich weiß es nicht. Der NV30 hat ernste Schwächen, was FP-Pixelshader-Ausführung angeht: Nur zwei Temps für Fullspeed-Ausführung (und das wo man möglichst Texturen immer paarweise samplen sollte), nur 4:0-Verarbeitung (keine getrennten Color- und Alpha-Shader.) Hätte der NV30 seine FX12-Combiner mitbenutzen dürfen, hätte es natürlich anders ausgesehen, für vieles reicht diese Präzision ja auch aus.

Wenn Nvidia keine AG wäre, hätten sie sich IMO sogar darauf beschränkt, den nv30 nicht im Consumermarkt zu platzieren, sondern ihn nur für die Quadros benutzt. Ein börsennotiertes Unternehmen kann sich sowas aber nicht leisten, da man direkt am Tag nach einer solchen Bekanntgabe aus der Kaffeekasse der Konkurrenz hätte übernommen werden können.Es ist imo besser, einen nicht so guten Chip auf den Markt zu bringen als gar kein neues Produkt zu haben. NV hätte allerdings mehr Ehrlichkeit gut gestanden als es um die Vermarktung ging. Sie hätten auch mehr auf den Highend-Kunden achten sollen. Der NV30 mit 4x RGMSAA z. B. wäre wohl besser verkäuflich gewesen.

Quasar
2005-07-16, 12:16:32
Weil man nach dem NV28 endlich auch ein DX9-kompatibles Produkt lancieren wollte?
Der nv28 ist auch DX9-kompatibel. [/aths]
Wozu, wenn er es kaum in Echtzeit auf die Reihe bekommt, Spiele darzustellen, die großflächig Einsatz von den im Verhältnis zu DX8 erweiterten Möglichkeiten von DX9 machen.

Der NV30 mit 4x RGMSAA z. B. wäre wohl besser verkäuflich gewesen.
Ich glaube nicht, daß ihm das, außer in Freak-Kreisen, zum Verhängnis geworden ist; eher ein Kriterium unter mehreren.

aths
2005-07-16, 12:19:25
:ulol:

Sry, aber kommt dir die Aussage bekannt vor?

Du hattest bis vor kurzem eine Vergleichbarkeit zw. NV default und ATi default gesehen. Erst als (hauptsächlich meinerseits) massiv Gegenbeispiele gebracht wurden, hast du angefangen diese Einstellung zu überdenken.

Gut dass das auf der Hauptseite nicht weiterhin totgeschwiegen wird mag vll. dein Verdienst sein, aber dass sich die allgemeine Meinung bezügl. Vergleichbarkeit zw. default Einstellungen beider IHVs geändert hat, geht sicher nicht auf deine Kappe!Nah. Ich habe vor deiner Einlassung schon von robbitop zugesichert bekommen, dass NV40 Q flimmert, da war soweit ich weiß noch nicht mal der Launchtag vom G70 bekannt. Ich selbst spiele mit Q nur bei Supersampling, sonst immer HQ. Dass NV40 Q ohne SSAA auf jeden Fall deutlich flimmert hatte mich nicht weiter interessiert. Ich glaube nicht, irgendjemandem empfohlen zu haben, in Q zu spielen. Deine Einlassung war ein weiterer Beleg für die Untauglichkeit von Q, endlich mal mit Bildmaterial. Obwohl ich 'nen NV43 habe, sah ich keine Notwendigkeit, Q unter die Lupe zu nehmen. Die Leistung reicht auch für HQ, also ...

Dass man NV40 Q vs. Radeon-Treiber default vergleichen sollte, habe ich glaube ich so nirgendwo gesagt. Dagegen sage ich bis heute, dass NV40 HQ etwas besser ist als ATI mit A.I. off., jedenfalls wenn man keine Applikation nimmt für die der NV-Treiber speziell "optimiert", wie z. B. UT200x. Daraus sollte nicht abgeleitet werden dass ich NV40 Q on par mit ATI A.I. on sehe.

Dass Q im Gegensatz zur Radeon oft flimmert, war mir allerdings vorher in der Deutlichkeit nicht bewusst. Q interessierte mich einfach nicht. Wenn Robbitop sagt, Q flimmert, glaube ich ihm das, aber wozu Q benutzen? Weil das Treiber-Standard ist? Treiber-Standard ist iirc auch AA und AF auf "Application controlled", und das ändere ich ja auch. Natürlich halte ich das Vorgehen von NV für eine Frechheit, wo ich Q, angestoßen durch deine Screenshots, mal bei mir kontrolliert habe. Wenn die das unter "Qualität" verstehen – gute Nacht.

Die News wirft NV primär vor, beim G70 auch in HQ Flimmer-AF anzubieten. Dass Q auf dem NV40 nicht das bringt, was der Begriff "Quality" eigentlich bedeutet, wird auch gesagt, ja. Selbst wenn NV40 mit Q insgesamt schärfere Texturen bringen sollte, so darf es jedenfalls nicht flimmern. Wenn die Radeon nicht flimmert – das glaube ich dir und den anderen Usern – sollte man auch nicht Flimmergrafik vs. Nichtflimmergrafik benchen. Ich würde sogar so weit gehen und Flimmergrafik gar nicht benchen. Bliebe beim NV nur, HQ vs. Radeon antreten zu lassen. Das sieht NV natürlich als großes Unrecht (allerdings zu unrecht) und man sieht ja, was der G70 jetzt unter HQ versteht.

Ich hätte auch nicht 4x OG vs 4x RG, oder 4xS vs 4x RG gebencht. Ebenso kein AF der GF FX vs. Radeon. Auch nicht 8x vs. 16x.

Deine Postings waren der letzte Auslöser dafür, Q bei mir mal ohne SSAA anzusehen. Zur Vergleichbarkeit der Default-Einstellungen bin ich mir allerdings keiner Äußerung meinerseits bewusst. So eine Äußerung müsste natürlich widerrufen werden.

aths
2005-07-16, 12:23:56
Der nv28 ist auch DX9-kompatibel. [/aths]Ich meinte natürlich "compliant".

Wozu, wenn er es kaum in Echtzeit auf die Reihe bekommt, Spiele darzustellen, die großflächig Einsatz von den im Verhältnis zu DX8 erweiterten Möglichkeiten von DX9 machen.... Gar kein DX9-Produkt zu haben wäre dennoch die schlechtere Alternative. ATI wird dafür bestraft, nur DX9 SM2 und nicht SM3 anzubieten. Schlimmer wäre es sicherlich, nur DX8 statt DX9 zu haben. Hätten sie nur die FX 5200 releasen sollen?

Ich glaube nicht, daß ihm das, außer in Freak-Kreisen, zum Verhängnis geworden ist; eher ein Kriterium unter mehreren.Kleinvieh macht auch Mist. 4x RG statt OG wäre ggü. der GF4 Ti zusammen mit der ja doch gestiegenen Rohleistung (primär durch den Takt, aber auch durch Farbkomprimierung u. a.) ein denkbarer Grund zum Aufrüsten. Nur mehr Leistung aber nicht mehr Bildqualität – das ist doch etwas wenig.

aths
2005-07-16, 12:28:09
Der Cache federt die Speicherlatenz aber zwischen dem Cache und dem Filter gibt es auch nur eine Bandbreite X. Wenn man also die Zahl der Texel welche vom Cache zum Filter müssen reduziert gewinnt man Takte.

Ich behaupte nicht den G70 AF Trick vollständig verstanden zu haben aber eine Unterfilterung durch zu wenige Texel wie beim NV40 Quality Modus ist es nicht. Es wird die korrekte Anzahl von Texel verrechnet da aber bei bestimmten Txel/Pixel Verhältnissen die Leistung sprunghaft steigt lässt sich das nur so erklären das im Verhältniss zum NV40 weniger gerechnet wird. Die Speicherlatenz auf den Grafikspeicher kann es nicht sein den dafür ist es zu Sprunghaft. Bleibt also nur noch die Möglichkeit das aus der gleichen Anzahl von Texel weniger BI-Samples erzeugt und verrechnet werden. Da die Anzahl der verwendeten Texel aber gleich bleibt muss der NV40 einzelne Texel mehrfach verrechnen. Es ist denkbar das durch diese Überlagerung die falsche Gewichtung von einzelnen Texel ausgelichen wird. Beim NV40 hat man nun scheinbar die Überlagerung entfernt aber das Gewichtungsproblem nicht beseitigt. Das Problem ist das man GB von Datenmaterial braucht um das einzugrenzen.Also ich habe vom AF-Trick beim G70 anhand deiner Ausführungen noch gar nichts verstanden. Wenn sie die korrekte Anzahl an Samples nehmen, frage ich mich, wo sie da einsparen wollen. Soweit ich weiß wird das AF-Samples aus bi-Samples zusammengesetzt. Kann der Filter denn z. B. aus 2 Bi-Fetches 3 Bi-Samples basteln? Du schreibst nun, dass aus der gleichen Texelzahl weniger bi-Samples erzeugt werden. Dann ist es ja doch Unterfilterung, oder nicht? Dann aber schreibst du wieder "Da die Anzahl der verwendeten Texel aber gleich bleibt" und verwirrst mich vollends.

Mr. Lolman
2005-07-16, 12:30:49
<...>
Deine Postings waren der letzte Auslöser dafür, Q bei mir mal ohne SSAA anzusehen. Zur Vergleichbarkeit der Default-Einstellungen bin ich mir allerdings keiner Äußerung meinerseits bewusst. So eine Äußerung müsste natürlich widerrufen werden.

Du hast nen besseren Draht zu Leo. Die Flimmergeschichte bei Q ist seit min 9 Monaten bekannt. Trotzdem hielt man sich weiter an NVs Vorgaben NV default vs. ATi default zu benchen.

In den News steht, dass man natürlich HQ benchen hätte können, aber die Benchmarks wären noch mehr verzerrt gewesen. Innerhalb der NV Karten vll. Aber der Vergleich zur X850 wär fairer gewesen. Die der Abstand würde nicht so groß ausfallen und die BQ wäre auch ähnlicher.

l. Obwohl ich 'nen NV43 habe, sah ich keine Notwendigkeit, Q unter die Lupe zu nehmen. Die Leistung reicht auch für HQ, also ...

Die Notwendigkeit sich die Treiberdefaulteinstellungen genauer anzusehen ensteht zu dem Zeitpunkt wo man sich auch entscheidet damit Benchmarks durchzuführen. Dass die Leistung für HQ reicht ist ne sehr subjektive Aussage. Ich erwarte die Leistung die den Karten in Reviews zugesprochen wird. Bei Benchmarks gehe ich davon aus, dass die BQ vergleichbar ist und der REviewer hat dafür zu sorgen. Sich dabei auf BNVs Vorgaben zu verlassen halte ich wohlwollend betrachtet nicht nur für kurzsichtig sondern auch für außerst naiv.

Gast
2005-07-16, 12:32:04
. Nur mehr Leistung aber nicht mehr Bildqualität ? das ist doch etwas wenig.

Angesichts des Topics dieses Thread fällt mir dazu nur ein: heute wäre man froh drum;)

aths
2005-07-16, 12:35:11
Du hast nen besseren Draht zu Leo. Die Flimmergeschichte bei Q ist seit min 9 Monaten bekannt. Trotzdem hielt man sich weiter an NVs Vorgaben NV default vs. ATi default zu benchen. Leo hielt sich daran. Leo hat ja auch 8xS vs. 6x MS gebencht. Das sind alles Dinge die ich nicht getan hätte. Ich erzähle natürlich keine Dinge die intern ablaufen, aber mir sei doch gestattet, anzudeuten, dass es da in der Vergangenheit immer wieder Reibungen gab. Mit meinen Reviews wären allerdings auch viele nicht zufrieden, da ich viele Einstellungen nur separat oder gar nicht gebencht hätte. Ich hätte mir beim G70 gewisse Spiele angesehen und wäre mir dabei das Flimmern aufgefallen, hätte es gar keine AF-Benches gegeben, stattdessen eine Bitte an NV, das zu fixen. Dann hätte ich vielleicht das letzte mal ein Pressemuster vorab bekommen, ja. Vielleicht hätte ich die Qualitätsverschlechterung in der Eile auch übersehen.

Mir reichen sehr wenige Benches damit ich die Leistung in etwa abschätzen kann. Wer 10 oder 20% schneller ist interessiert mich nicht die Bohne. Ich will Bildqualität.

In den News steht, dass man natürlich HQ benchen hätte können, aber die Benchmarks wären noch mehr verzerrt gewesen. Innerhalb der NV Karten vll. Aber der Vergleich zur X850 wär fairer gewesen. Die der Abstand würde nicht so groß ausfallen und die BQ wäre auch ähnlicher.Mich persönlich interessieren die Benches ehrlich gesagt nicht so. Die 6600 GT AGP ist in HQ für mich oft schnell genug, nur die AF-Qualität könnte besser sein (also bitte nicht so winkelabhängig), dafür wären auch noch die Leistungsreserven da.

Ich stimme dir zu wenn du meinst, dass man deutlich machen sollte dass in der öffentlichen Wahrnehmung die Leistung vieler Karten glatt erschwindelt wurde, und zwar durch AF-Undersampling im Q-Modus.

BQ-mäßig befriedigt mich auch die aktuelle Radeon-Serie nicht. Das Gebenche finde ich insofern sinnlos, da man einfach davon ausgehen kann dass die Treiber einigermaßen ok sind. Ein Blick auf die technischen Daten und man weiß, was hinten rauskommt, von verpatzten Engines natürlich mal abgesehen.

Mr. Lolman
2005-07-16, 12:42:35
l. Obwohl ich 'nen NV43 habe, sah ich keine Notwendigkeit, Q unter die Lupe zu nehmen. Die Leistung reicht auch für HQ, also ...

Die Notwendigkeit sich die Treiberdefaulteinstellungen genauer anzusehen ensteht zu dem Zeitpunkt wo man sich auch entscheidet damit Benchmarks durchzuführen. Dass die Leistung für HQ reicht ist ne sehr subjektive Aussage. Ich erwarte die Leistung die den Karten in Reviews zugesprochen wird. Bei Benchmarks gehe ich davon aus, dass die BQ vergleichbar ist und der REviewer hat dafür zu sorgen. Sich dabei auf BNVs Vorgaben zu verlassen halte ich wohlwollend betrachtet nicht nur für kurzsichtig sondern auch für außerst naiv.

Leo hielt sich daran. Leo hat ja auch 8xS vs. 6x MS gebencht. Das sind alles Dinge die ich nicht getan hätte. Ich erzähle natürlich keine Dinge die intern ablaufen, aber mir sei doch gestattet, anzudeuten, dass es da in der Vergangenheit immer wieder Reibungen gab.

Imo sollte sich Leo mal dazu äußern.


Mich persönlich interessieren die Benches ehrlich gesagt nicht so. Die 6600 GT AGP ist in HQ für mich oft schnell genug, nur die AF-Qualität könnte besser sein (also bitte nicht so winkelabhängig), dafür wären auch noch die Leistungsreserven da.

Ich stimme dir zu wenn du meinst, dass man deutlich machen sollte dass in der öffentlichen Wahrnehmung die Leistung vieler Karten glatt erschwindelt wurde, und zwar durch AF-Undersampling im Q-Modus.


Benchmarks/Balkenvergleiche sind notwendig um sich selbst ein Bild von der Leistung der Karten machen zu können. Oder man verlässt sich auf Empfehlungen, die aber meist unter dem Problem kranken, dass sie aufgrund von Balkenvergleicher dritter entstehen und deswegen min, genauso verzerrt sind. Ich bin mir sicher dass eine 6600GT fast immer langsamer ist als ne 9800pro - bei vergleichbarer BQ!

BQ-mäßig befriedigt mich auch die aktuelle Radeon-Serie nicht. Das Gebenche finde ich insofern sinnlos, da man einfach davon ausgehen kann dass die Treiber einigermaßen ok sind. Ein Blick auf die technischen Daten und man weiß, was hinten rauskommt, von verpatzten Engines natürlich mal abgesehen.


Mich auch nicht. Mich befriedigt (BQ-mässig) aber auch nicht NV40 HQ... (ohne SSAA) Und die technischen Daten geben keineswegs aufschluss über die tatsächliche Leistungsfähigkeit. Da hängt noch der Treiber dazwischen und u.U. manche designtechnischen Einschränkungen die die Karte daran hindern ihre volle Leistung zu entfalten.

Und es gibts tatsächlich Benchmarks wo ne x850xt pe doppelt so schnell wie ne 6800 Ultra (oder zumindest GT) ist. Klar passiert das erst bei (sehr) hohen Auflösungen + AA/AF, aber es passiert. Ob da jetzt NVs downsampling im RAMDAC mitspielt oder sonstwas kann man eroiren.

Anderes Beispiel: Doom³ Artikel. Hatte das "Geschwätz" (sry im nachhinein betrachtet wars nix anderes) tatsächlich irgendwas mit den technischen Daten/ der Rohleistung der Ati Karten zu tun? Wenn ja, warum ist ne X850XT PE bei D³ mittlerweile tw. sogar schneller als ne 6800 Ultra?

Gast
2005-07-16, 12:46:50
Ich bin mir sicher dass eine 6600GT fast immer langsamer ist als ne 9800pro - bei vergleichbarer BQ!
Langsamer vielleicht nicht, aber in etwa gleich schnell.
Hab das mal vor ca. 2 Monaten getestet.
Bei beiden volle BQ.
Nvidia: Alle Optimierungen aus, HQ.
ATI: per RTool die TS-Optimierung ausgeschaltet.

dildo4u
2005-07-16, 12:49:29
Benchmarks/Balkenvergleiche sind notwendig um sich selbst ein Bild von der Leistung der Karten machen zu können. Oder man verlässt sich auf Empfehlungen, die aber meist unter dem Problem kranken, dass sie aufgrund von Balkenvergleicher dritter entstehen und deswegen min, genauso verzerrt sind. Ich bin mir sicher dass eine 6600GT fast immer langsamer ist als ne 9800pro - bei vergleichbarer BQ!



Mich auch nicht. Mich befriedigt (BQ-mässig) aber auch nicht NV40 HQ... (ohne SSAA)
Wenn man z.B 1280*1024 oder 1600*1200 ohne AA und AF bencht ist die 6600GT Schneller das die 9800pro mit AF schneller wäre wenn man die Nvidia Karte mit HQ benchen würde,würde nur zeigen das das ATI AF besser optemiert ist.


http://www.xbitlabs.com/images/video/leadtek-6600gt-agp/Rid_pure.gif

http://www.xbitlabs.com/images/video/leadtek-6600gt-agp/Pier_pure.gif

http://www.xbitlabs.com/images/video/leadtek-6600gt-agp/Il2_pure.gif

Mr. Lolman
2005-07-16, 12:51:07
Wenn man z.B 1280*1024 ohne AA und AF bencht ist die 6600GT Schneller das die 9800pro mit AF schneller wäre wenn man die Nvidia Karte mit HQ benchet würde,würde nur zeigen das das ATI AF besser optemiert ist.


NVs Optimierungen wirken auch schon ohne AF...

/edit: Oder Atis AA braucht weniger Speicher. (In irgendwelchen Releasenotes steht was von ner Optimierung diesbezüglich)

Jesus
2005-07-16, 12:51:40
Wenn man z.B 1280*1024 ohne AA und AF bencht ist die 6600GT Schneller das die 9800pro mit AF schneller wäre wenn man die Nvidia Karte mit HQ benchet würde,würde nur zeigen das das ATI AF besser optemiert ist.


Bei der 9800 Pro (R350) ist noch gar nicht soooo viel optimiert :rolleyes:

aths
2005-07-16, 12:53:11
Die Notwendigkeit sich die Treiberdefaulteinstellungen genauer anzusehen ensteht zu dem Zeitpunkt wo man sich auch entscheidet damit Benchmarks durchzuführen.Ich führe hier keine Benchmarks durch. Würde ich Benches durchführen, würde ich BQ-Vergleiche anstellen. Da wäre mir hoffentlich (beschwören kann ichs nicht) aufgefallen dass der NV40 in Q flimmeranfällig ist.

Dass die Leistung für HQ reicht ist ne sehr subjektive Aussage. Ich erwarte die Leistung die den Karten in Reviews zugesprochen wird. Bei Benchmarks gehe ich davon aus, dass die BQ vergleichbar ist und der REviewer hat dafür zu sorgen. Sich dabei auf BNVs Vorgaben zu verlassen halte ich wohlwollend betrachtet nicht nur für kurzsichtig sondern auch für außerst naiv.Sich auf ATIs Vorgaben zu verlassen, wäre sicher genauso naiv. Man denke an ATIs Zusicherung, immer trilinear zu filtern und wie man dies im Tester kontrollieren könne.

Wenn du "vergleichbare" BQ haben willst, musst du sagen, in welchem Rahmen. Wäre NV40 Q und Radeon AI on absolut unvergleichbar, wäre das dann doch vielen Reviewern aufgefallen. Doch was NV hier macht ist Selbstdemontage. Erst freuen sich alle ob der tollen Geschwindigkeit und kaufen den G70 (oder NV40.) Dann merken sie: Das flimmert ja. Nicht-flimmrig (was zumindest beim NV40 noch geht) sinkt die Leistung. Wurscht, ob die Leistung noch ausreicht oder nicht, es bleibt das Gefühl, weniger bekommen zu haben als gedacht. Meine Aufgabe als technisch orientierten Redakteur sehe ich darin, dem User ein Gefühl für BQ zu vermitteln. Wer die Nachteile in Q nicht sieht, der weiß wahrscheinlich auch nicht, was AF ist.

Andererseits teile ich ATI- und NV-Leuten mit, was ihre User stört. Doch obwohl beide IHVs erst so tun, als sei das Feedback von uns wertvoll, scheinen mir die PR-Leute doch eigentlich nur zum Abwimmeln gedacht. Diskussionen (um verschiedene Dinge, die ich für diskussionswürdig halte) werden abgeblockt. Wobei sich hier ATI diskussionsbereiter zeigte, allerdings am Ende mit der gleichen Wirkung (einer Wirkung von Null.)

Imo sollte sich Leo mal dazu äußern.

Benchmarks/Balkenvergleiche sind notwendig um sich selbst ein Bild von der Leistung der Karten machen zu können. Oder man verlässt sich auf Empfehlungen, die aber meist unter dem Problem kranken, dass sie aufgrund von Balkenvergleicher dritter entstehen und deswegen min, genauso verzerrt sind. Ich bin mir sicher dass eine 6600GT fast immer langsamer ist als ne 9800pro - bei vergleichbarer BQ!Ich bin gegen Balken :)

Ich weiß nicht, welche BQ du für vergleichbar hälst. Zumindest in alten Spielen ist die 9800 Pro oft schneller. Je mehr Shader, desto eher schlägt das Pendel Richtung 6600 GT aus.

Gast
2005-07-16, 12:55:03
Wenn man z.B 1280*1024 ohne AA und AF bencht ist die 6600GT Schneller das die 9800pro mit AF schneller wäre wenn man die Nvidia Karte mit HQ benchet würde,würde nur zeigen das das ATI AF besser optemiert ist.
Ne du, ich habe mir das genau angesehen, da ich auch sehr empfindlich bin.
Mit max AF-Quali war die BQ der 6600GT und der 9800PRO gleich schlecht/gut.
Wer da jetzt mehr Rechenzeit durch Optimierungen spart, weiss ich nicht.
Aber die BQ ist das was zählt!

aths
2005-07-16, 12:58:07
Mich auch nicht. Mich befriedigt (BQ-mässig) aber auch nicht NV40 HQ... (ohne SSAA) Und die technischen Daten geben keineswegs aufschluss über die tatsächliche Leistungsfähigkeit. Da hängt noch der Treiber dazwischen und u.U. manche designtechnischen Einschränkungen die die Karte daran hindern ihre volle Leistung zu entfalten.

Und es gibts tatsächlich Benchmarks wo ne x850xt pe doppelt so schnell wie ne 6800 Ultra (oder zumindest GT) ist. Klar passiert das erst bei (sehr) hohen Auflösungen + AA/AF, aber es passiert. Ob da jetzt NVs downsampling im RAMDAC mitspielt oder sonstwas kann man eroiren.

Anderes Beispiel: Doom³ Artikel. Hatte das "Geschwätz" (sry im nachhinein betrachtet wars nix anderes) tatsächlich irgendwas mit den technischen Daten/ der Rohleistung der Ati Karten zu tun? Wenn ja, warum ist ne X850XT PE bei D³ mittlerweile tw. sogar schneller als ne 6800 Ultra?Uff, dann geh ich auch noch auf das nacheditierte ein.

Die designtechnischen Einschränkungen zählen für mich zu den technischen Daten. Viele Spiele sind nach wie vor texturfüllratenlimitiert. Daher kann ATI über die höhere Füllrate oft etwas schneller sein, auch wenn die Pixelshader arithmetisch spürbar leistungsschwächer sind. Wenn Doom füllratenlimitiert ist, muss eine Karte mit mehr Füllrate auch schneller sein (sonst stimmt was nicht.) Bei 540 MHz vs 400 MHz gibts da einen Füllratenvorteil von 35%. Das beantwortet die Frage, wieso die X850 schneller sein kann. Ultrashadow etc. kann auch nur begrenzt was tun. Selbst wenn die X850 bisschen schneller ist, bleibt es doch angesichts des Taktvorteils von ATI offensichtlich, dass der NV40 von der Technik her für Doom3 besser ist, oder? Deshalb halte ich auch das Wort "Geschwätz" für übertrieben. NV hat JC eben öfter mal das Ohr geliehen als ATI, wie man in den Chips sieht.

Mr. Lolman
2005-07-16, 13:00:59
Ich weiß nicht, welche BQ du für vergleichbar hälst. Zumindest in alten Spielen ist die 9800 Pro oft schneller. Je mehr Shader, desto eher schlägt das Pendel Richtung 6600 GT aus.

Weisst du das aufrund von Balkenvergleichen oder sagen dir das die technischen Daten?

BTW. Mit dem R3x0 für vergleichbar halte ich NV40 HQ. Das flimmrigere G70 HQ dürfte ganz gut zum R420 passen (wenn überhaupt, denn ein Unterschied zw. R3x0 und R420 AF wurde AFAIK immernoch nicht sichtabr gemacht)

Gast
2005-07-16, 13:02:40
Über all die Zeit: Wer bekam mehr Platz in meinen Artikeln wenn es um abgesenkte Texturfilterqualität geht? Ich sehe es eher andersherum: Jetzt endlich, wo es NV übertrieben hat, werde ich nicht mehr als Theoretiker gehänselt, meine Sorge um Texturfilterqualität wird endlich von der breiten Mehrheit im 3dc geteilt.
Ja, nur hat Lolman das Thema (wieder) ans Licht gebracht. Und Du hast Lolman anfänglich sogar ganz klar die Kompetenz abgesprochen sowas beurteilen zu können, weil Du weiterhn behauptet hast, dass das alles nicht nVidias Schuld ist, sondern die der bösen Devs, die ihre Spiele nicht richtig an die karten anpassen. ... Aber klar, jetzt bist Du derjenige, dem die Sache aufgefallen ist.

Im übrigen gab es schon beim NV40 starkes Flimmern. Ich habe zum Anfang des NV40 moniert und erzählt, dass ich beim NV40 in Joint Ops und auch in anderern Games starkes Flimmern bemerke. Das einzige was man hier geerntet hat waren Anfeidungen, dass ich ein ATI Fanboy bin, weil das nicht der Fall ist, wenn man auf HQ stellt. Komisch, dass Du damals nicht hellhörig geworden bist, als Leute sich über das AF der 6800er Reihe beschwert haben, wo Du beim Thema AF doch sont so hellhörig bist.

Und genau wegen solchen Sachen war ich mal Reg. Auf diese Weise kann man dann wenigstens aus der anonymen Masse heraus auch "unpopuläre" Meinungen von sich geben, ohne dass man dann gleich von den Fanboys irgendeinen Lagers als Anitfanboy eingestuft zu wird.

Gast
2005-07-16, 13:06:36
Ja, nur hat Lolman das Thema (wieder) ans Licht gebracht. Und Du hast Lolman anfänglich sogar ganz klar die Kompetenz abgesprochen sowas beurteilen zu können, weil Du weiterhn behauptet hast, dass das alles nicht nVidias Schuld ist, sondern die der bösen Devs, die ihre Spiele nicht richtig an die karten anpassen. ... Aber klar, jetzt bist Du derjenige, dem die Sache aufgefallen ist.

Im übrigen gab es schon beim NV40 starkes Flimmern. Ich habe zum Anfang des NV40 moniert und erzählt, dass ich beim NV40 in Joint Ops und auch in anderern Games starkes Flimmern bemerke. Das einzige was man hier geerntet hat waren Anfeidungen, dass ich ein ATI Fanboy bin, weil das nicht der Fall ist, wenn man auf HQ stellt. Komisch, dass Du damals nicht hellhörig geworden bist, als Leute sich über das AF der 6800er Reihe beschwert haben, wo Du beim Thema AF doch sont so hellhörig bist.

Und genau wegen solchen Sachen war ich mal Reg. Auf diese Weise kann man dann wenigstens aus der anonymen Masse heraus auch "unpopuläre" Meinungen von sich geben, ohne dass man dann gleich von den Fanboys irgendeinen Lagers als Anitfanboy eingestuft zu wird.

Hallo Beta,

Full Ack!

PS war auch mal Member. ;)

aths
2005-07-16, 13:07:05
Weisst du das aufrund von Balkenvergleichen oder sagen dir das die technischen Daten?Beides :) Wichtig waren noch synthetische Tests zum Single-, Dual-, Triple- und Quad-Texturing. Der Trend ist klar: Die 6600 GT wurde für die Anforderungen komplexerer Engines gebaut und kann nur hier sein Potenzial entfalten. Denn bestimmte Flaschenhälse (wie z. B. die Speicherbandbreite) werden dann weniger wichtig. Auch arithmetisch ist die 6600 GT stärker, wobei ich die G70-Pipeline von nutzbaren Rechenkraft her spürbar besser gelungen finde.

BTW. Mit dem R3x0 für vergleichbar halte ich NV40 HQ. Das flimmrigere G70 HQ dürfte ganz gut zum R420 passen (wenn überhaupt, denn ein Unterschied zw. R3x0 und R420 AF wurde AFAIK immernoch nicht sichtabr gemacht)Ich habe aktuell weder die eine noch die andere Radeon da. Aber bei NV40 HQ bietet die GF mehr Qualität als der R300. Die Frage ist natürlich, ob man die Mehrqualität auch sehen kann. Ich habe da keinen direkten Vergleich und kann nicht sagen, ob ich da einen Unterschied sehen würde. NV40 HQ halte ich aber auch für ungenügend, da das AF nichts taugt (wie bei der Radeon.)

Mr. Lolman
2005-07-16, 13:07:54
Uff, dann geh ich auch noch auf das nacheditierte ein.

Die designtechnischen Einschränkungen zählen für mich zu den technischen Daten. Viele Spiele sind nach wie vor texturfüllratenlimitiert. Daher kann ATI über die höhere Füllrate oft etwas schneller sein, auch wenn die Pixelshader arithmetisch spürbar leistungsschwächer sind. Wenn Doom füllratenlimitiert ist, muss eine Karte mit mehr Füllrate auch schneller sein (sonst stimmt was nicht.) Bei 540 MHz vs 400 MHz gibts da einen Füllratenvorteil von 35%. Das beantwortet die Frage, wieso die X850 schneller sein kann. Ultrashadow etc. kann auch nur begrenzt was tun. Selbst wenn die X850 bisschen schneller ist, bleibt es doch angesichts des Taktvorteils von ATI offensichtlich, dass der NV40 von der Technik her für Doom3 besser ist, oder? Deshalb halte ich auch das Wort "Geschwätz" für übertrieben. NV hat JC eben öfter mal das Ohr geliehen als ATI, wie man in den Chips sieht.

Effizienter mag der NV40 bei D³ schon sein. Aber so solche Aussagen sind einfach nur Geschwätz:


Die erste Idee wäre also, dass John Carmack besonders gut auf GeForce-Karten und insbesondere auf die GeForce 6800 Serie optimiert hat und das Potenzial der Radeons dabei nicht ausschöpfte. Dies ist jedoch objektiv falsch. Wie wir noch sehen werden, hat John Carmack eine Glanzleistung vollbracht, was die Optimierung auf Radeon-Karten angeht.

BTW: Der NV40 hat zwar ne höhere Leistung/Mhz aber auch ne höhere Verlustleistung/Mhz. Effizienter ist das Design wirklich nicht. Ein 150PS Auto mit den gleichen Fahrleistungen wie ein 200 PS ist auch nicht effizienter, wenn der Verbrauch gleich ist...

Die Frage ist natürlich, ob man die Mehrqualität auch sehen kann.

Kann man tw. Dafür sind andere Spiele wieder deutlich hässlicher (wenns mipmapfusch - GTA bspw. gibt) Außerdem kann man die Mehrqualität von Atis AA tw. genauso sehen (auch wenns da auch Ausnahmen gibt)

reunion
2005-07-16, 13:10:21
R3xx hat sich besser verkauft weil die Leistung besser war.*
R3xx hat sich besser verkauft weil die AA-Qualität besser war.
R3xx hat sich schlechter verkauft weil die AF-Qualität schlechter war.
R3xx hat sich schlechter verkauft weil das Feature-Set kleiner war.
NV3x hat sich besser verkauft weil die AF-Qualität besser war.
NV3x hat sich besser verkauft weil das Feature-Set größer war.
NV3x hat sich schlechter verkauft weil die Leistung schlechter war.*
NV3x hat sich schlechter verkauft weil die AA-Qualität schlechter war.

Alle diese Aussagen halte ich für wahr.
Du reduzierst das ganze anscheinend auf die beiden Aussagen mit den fetten Sternen. Wie gesagt, IMO viel zu einfach.

Man sollte an dieser Stelle auch den Stromverbauch nicht vergessen.
Die R3xx-Chips wurden in einem älteren Fertigungsprozess hergestellt, und ließen sich trotzdem viel leichter kühlen. Die Platinen und die Kühlkörper waren äußerst klein. Die Karten wirkten einfach smart.

Auf der anderen Seite hatte man einen "Staubsauger", welcher ein unerträgliches Geräusch produzierte, und geschwindigkeitsmäßig in keinster Weise mithalten könnte. Dies brach der NV3x-Serie IMHO endgültig das Genick.

aths
2005-07-16, 13:12:05
Ja, nur hat Lolman das Thema (wieder) ans Licht gebracht.Japp. Vor allem dass er Screenshots zur Verfügung stellt – Screenshot-Serien zu machen ist nerviger, als man denkt.

Und Du hast Lolman anfänglich sogar ganz klar die Kompetenz abgesprochen sowas beurteilen zu können, weil Du weiterhn behauptet hast, dass das alles nicht nVidias Schuld ist, sondern die der bösen Devs, die ihre Spiele nicht richtig an die karten anpassen.Dürfte ich da Zitate sehen? Dann könnte ich nachvollziehen, worüber du gerade sprichst.

Im übrigen gab es schon beim NV40 starkes Flimmern. Ich habe zum Anfang des NV40 moniert und erzählt, dass ich beim NV40 in Joint Ops und auch in anderern Games starkes Flimmern bemerke. Das einzige was man hier geerntet hat waren Anfeidungen, dass ich ein ATI Fanboy bin, weil das nicht der Fall ist, wenn man auf HQ stellt. Komisch, dass Du damals nicht hellhörig geworden bist, als Leute sich über das AF der 6800er Reihe beschwert haben, wo Du beim Thema AF doch sont so hellhörig bist.Wenn du den Thread mitliest, weißt du, warum mich der Treiber-Defaultwert nicht interessiert hat. Wer sich seinen eigenen AA- und AF-Grad einstellen kann, kann auch HQ wählen. Einen Beischmack bekommt die Sache nur dann, wenn man eine Karte aufgrund von Q-Benches für leistungsmäßig überlegen hält. Allerdings mache ich keine Benchmarks.

Und genau wegen solchen Sachen war ich mal Reg. Auf diese Weise kann man dann wenigstens aus der anonymen Masse heraus auch "unpopuläre" Meinungen von sich geben, ohne dass man dann gleich von den Fanboys irgendeinen Lagers als Anitfanboy eingestuft zu wird.NV40-Q-Texturen zu geißeln ist meiner Beobachtung nach alles andere als unpopulär in diesem Forum.

dildo4u
2005-07-16, 13:14:46
BTW: Der NV40 hat zwar ne höhere Leistung/Mhz aber auch ne höhere Verlustleistung/Mhz. Effizienter ist das Design wirklich nicht. Ein 150PS Auto mit den gleichen Fahrleistungen wie ein 200 PS ist auch nicht effizienter, wenn der Verbrauch gleich ist...

t)
Mit ca 60mio mher an Transitoren ist das whol auch schwer.Transistoren die nötig sind wenns nach ati ging hätte wird auch heute im Juli 2005 noch keine SM3.0 Karte im markt und schon Gar nicht im Massenmarkt das Hieße SM3.0 und HDR Games gäbe es erst ca 2007 oder 2008 und Sony und M$ würde sich freuen weil jeder ihre Konsolen und keiner mehr PC High End Karten Kaufen würde.

Mr. Lolman
2005-07-16, 13:17:36
Mit ca 60mio mher an Transitoren ist das whol auch schwer.Transistoren die nötig sind wenns nach ati ging hätte wird auch heute um Juli 2005 noch keine SM3.0 Karte im markt und schon Gar nicht im Massenmarkt das Hieße SM3.0 und HDR Games gäbe es erst ca 2007 oder 2008 und Sony und M$ würde sich freuen weil jeder ihre Konsolen und keiner mehr PC High End Karten Kaufen würde.

Dann kann man sagen, dass die Ausstattung des 200PS Autos besser ist, wenn die restlichen 50PS durch Komfortschnickschnack verblasen werden. Mit der Effizienz hat das nix zu tun...

Demirug
2005-07-16, 13:19:19
Also ich habe vom AF-Trick beim G70 anhand deiner Ausführungen noch gar nichts verstanden. Wenn sie die korrekte Anzahl an Samples nehmen, frage ich mich, wo sie da einsparen wollen. Soweit ich weiß wird das AF-Samples aus bi-Samples zusammengesetzt. Kann der Filter denn z. B. aus 2 Bi-Fetches 3 Bi-Samples basteln? Du schreibst nun, dass aus der gleichen Texelzahl weniger bi-Samples erzeugt werden. Dann ist es ja doch Unterfilterung, oder nicht? Dann aber schreibst du wieder "Da die Anzahl der verwendeten Texel aber gleich bleibt" und verwirrst mich vollends.

Die Anzahl der Texel ist korrekt wie viele BI samples man damit baut ist wieder eine andere Sache. Der Filter fetcht 4 Txel und baut damit ein Sample. AF Verfahren neigen nun aber dazu diese BI-Sample zu überlappen. Irgendwie hat nVidia scheinbar diesen überlappungseffekt reduziert. Dadurch brauchen sie weniger Sample um die gleiche Texelfläche abzudecken. Das Problem scheint aber nun zu sein das diese Verfahren die Gewichtung der einzelnen Texel falsch berechnet.

Gesichert weiß ich allerdings bisher nur das die Anzahl der verrechneten Texel beim NV40 und G70 HQ bis auf minimale Abweichungen (was aber völlig normal ist) identisch ist. Ich weiß aber gleichzeitig das bei bestimmten Texel/Pixel verhältnissen aufgrund der Texturekoordinaten die Filterleistung überproportinal steigt. Dies ist nur dann zu erreichen wenn pro Pixel weniger Takte benötigt werden. Da ich Latenzprobleme aufgrund der Sprunghaften Änderung ausschliessen kann muss der G70 im Vergleich zum NV40 die gleiche anzahl von Texel für weniger BI-Samples benutzen. Das ist vom Prinzip her auch OK den für korrektes AF müssen ja nur alle zu dem Pixel gehörenden Texel verrechnet werden. Das man dazu BI Samples benutzt ist zwar üblich aber keineswegs ein Zwang. Was allerdings stimmen muss ist die Gewichtung der Texel in Relation zum Anteil den sie an der Pixelfläche haben. Genau das scheint nun das Problem zu sein. Stimmt diese nämlich nicht kommt man optisch leicht zu einem Resultat das einer Unterfilterung durch das Weglassen von Texel gleichkommt. Denn das weglassen ist ja mathematisch gesehen nichts anderes als die Gewichtung der entsprechenden Texel mit 0% und eine stärkere Gewichtung der Texel die noch verrechnet werden.

Unter Umständen ist der Filterkern des G70 kein reiner BI-Kern mehr sondern etwas flexibleres. Da ich mir da aber nicht sicher bin gehe ich derzeit noch von 2*2 Texelblöcken aus.

aths
2005-07-16, 13:19:57
Effizienter mag der NV40 bei D³ schon sein. Aber so solche Aussagen sind einfach nur Geschwätz:

BTW: Der NV40 hat zwar ne höhere Leistung/Mhz aber auch ne höhere Verlustleistung/Mhz. Effizienter ist das Design wirklich nicht. Ein 150PS Auto mit den gleichen Fahrleistungen wie ein 200 PS ist auch nicht effizienter, wenn der Verbrauch gleich ist...Was hat jetzt effektive Rechenleistung mit Verlustleistung zu tun? Den Stromverbrauch heranzuziehen halte ich jetzt für sehr gewagt. Um nicht zu sagen für Geschwätz. (Um es polemisch zu sagen: Fehlt nur noch, dass der TV-Out erwähnt wird. Doch zurück zur Ernsthaftigkeit.)

JC kann auf einen Chip nur so weit optimieren, wie er die Features hat. Humus' Trick verstößt gegen anerkannte Optimierungsregeln. Nun müssen wir wohl inzwischen davon ausgehen, dass der Originalshader weder auf Nvidia- noch auf ATI-Produkten zum Einsatz kommt. JC hätte die Features seiner Engine so gestalten können, dass die Radeon pro Takt – wie offenbar viele Leute gehofft hatten – schneller sein würde. Er hat aber gemacht, was er wollte, und es lag an den IHVs ihm entgegenzukommen oder es sein zu lassen. ATI kann froh sein, die hohen MHz-Zahlen geschafft zu haben, und so auch in Doom3 nicht vernichtet zu werden (abgesehen von den Cheat-Benches, wo nur NV-Treiber und noch nicht die ATI-Treiber, äh, Doom3-"Optimierungen" hatten.)

Kann man tw. Dafür sind andere Spiele wieder deutlich hässlicher (wenns mipmapfusch - GTA bspw. gibt) Außerdem kann man die Mehrgqualitöt von Atis AA tw. genauso sehen (auch wenns da auch Ausnahmen gibt)Ich will mich nun nicht mit reiner AA-Qualität zufrieden geben, sondern beides, hochwertiges AA und hochwertiges AF. Wer in der Radeon das bessere Gesamtpaket sieht, wird seine Gründe haben. Wegen dem besseren MSAA und dem nicht mehr deutlich schlechterem AF (da NV die AF-Qualität ja ATI einigermaßen angeglichen hat) hätte ich anstelle der 6600 GT lieber 'ne X700 Pro oder XT gekauft. Problem: War für AGP beim besten Willen nicht erhältlich.

Mr. Lolman
2005-07-16, 13:25:22
Was hat jetzt effektive Rechenleistung mit Verlustleistung zu tun? Den Stromverbrauch heranzuziehen halte ich jetzt für sehr gewagt. Um nicht zu sagen für Geschwätz.

Weil die Verlustleistung wohl hauptsächlich für den max. möglichen Takt verantwortlich ist. Und beim max Takt halten sich die IHVs sicher nicht zurück und fahren dass was im Bereich des möglichen ist :)

aths
2005-07-16, 13:27:22
BTW, was ich durchaus als Fehler von vielen Usern sehe: Als R420 vs NV40 gebencht wurde, hieß es oft, der R420 eben doch etwas schneller. Das kann ja stimmen, bei älteren Spielen wird es mit großer Sicherheit stimmen (da Texelfüllratenlimitierung.) R420 ist also schneller. Fakt. Die neuen Features wurden oft ganz übersehen. Der Dank? Filter-"Optimierungen" um mit weniger Füllrate eine ähnliche Geschwindigkeit zu erreichen.

Hätte NV auf die SM3-Features verzichten sollen, und dafür gleich noch 'ne zusätzliche Quadpipe einbauen um den Taktnachteil durch Architekturbreite auszugleichen? Wer jetzt laut "ja" sagt, den bitte ich, das Gehirn einzuschalten.

Gast
2005-07-16, 13:28:53
JC kann auf einen Chip nur so weit optimieren, wie er die Features hat. Humus' Trick verstößt gegen anerkannte Optimierungsregeln. Nun müssen wir wohl inzwischen davon ausgehen, dass der Originalshader weder auf Nvidia- noch auf ATI-Produkten zum Einsatz kommt. JC hätte die Features seiner Engine so gestalten können, dass die Radeon pro Takt – wie offenbar viele Leute gehofft hatten – schneller sein würde. Er hat aber gemacht, was er wollte, und es lag an den IHVs ihm entgegenzukommen oder es sein zu lassen. ATI kann froh sein, die hohen MHz-Zahlen geschafft zu haben, und so auch in Doom3 nicht vernichtet zu werden (abgesehen von den Cheat-Benches, wo nur NV-Treiber und noch nicht die ATI-Treiber, äh, Doom3-"Optimierungen" hatten.)
Du findest es also gut was da gelaufen ist? Die Standardshader im Spiel extra lahm zu gestalten und dem IHV, der am meisten zahlt, die schnellen Shader in die Treiber einbauen!? Sowas ist genau das, was wir Kunden nicht sehen wollen. So ein Szenario bedeutet, dass man als Kunde je nach Spiel die Arschkarte zu Hause hat, weil der Entwickler nicht genug Geld bekommen hat vom IHV der eigenen Karte.

Wenn dir diese Art von Geschäfft gefällt, dann fehlen mir echt die Worte.

aths
2005-07-16, 13:32:44
Du findest es also gut was da gelaufen ist? Die Standardshader im Spiel extra lahm zu gestalten und dem IHV, der am meisten zahlt, die schnellen Shader in die Treiber einbauen!? Sowas ist genau das, was wir Kunden nicht sehen wollen. So ein Szenario bedeutet, dass man als Kunde je nach Spiel die Arschkarte zu Hause hat, weil der Entwickler nicht genug Geld bekommen hat vom IHV der eigenen Karte.

Wenn dir diese Art von Geschäfft gefällt, dann fehlen mir echt die Worte.Habe ich denn gesagt, dass mir das gefallen hat was da ablief? Allerdings habe ich keine Kenntnis darüber, dass der Standardshader extra lahm programmiert wurde, und dass es JC nötig hat, sich von NV bestechen zu lassen. Was ich als Kunde nicht sehen will sind applikationsspezifische Optimierungen die man nicht abschalten kann um die wahre Leistung zu ermitteln. Was die Sache mit der "Optimierung" angeht hatte ich NV um ein Statement gebeten, jedoch waren sie zu keiner öffentlichen Stellungnahme bereit.

Gast
2005-07-16, 13:37:32
Hätte NV auf die SM3-Features verzichten sollen, und dafür gleich noch 'ne zusätzliche Quadpipe einbauen um den Taktnachteil durch Architekturbreite auszugleichen? Wer jetzt laut "ja" sagt, den bitte ich, das Gehirn einzuschalten.
IMHO nein.
Nvidia war aber schon mit der FX technologisch sehr weit, zu SM3 hat nicht mehr viel gefehlt. Nvidia wäre natürlich dumm, sich den Schriftzug "Shader Model 3" auf der Verpackung zu sparen, wenn man eh schon fast soweit ist.

SM3 hat mich bis jetzt nicht vom Hocker gerissen und wird es wahrschienlich auch nicht tun.
Den Sprung von SM1 auf SM2 war, finde ich, viel wichtiger zur Steigerung der BQ als es der Sprung von SM2 auf SM3 ist.
SM3 ist für die Progger natürlich von Vorteil und kann auch zu mehr Performance beitragen, aber irgndwelche speziellen Effekte, die nicht mit SM2 möglich sind, werden wir wohl auf absehbare Zeit nicht sehen, denke ich.

Wie man es auch dreht und wendet, Nvidia hat deutlich übertrieben mit den Optimierungen, das muss echt publik werden.
Also aths, packs an. =)

Coda
2005-07-16, 13:40:20
SM3 ist für die Progger natürlich von Vorteil und kann auch zu mehr Performance beitragen, aber irgndwelche speziellen Effekte, die nicht mit SM2 möglich sind, werden wir wohl auf absehbare Zeit nicht sehen, denke ich.Nein, aber es wird garantiert Leute geben, die sich nicht mehr die Mühe machen das ganze als SM 2.0 auch zu schreiben.

Gast
2005-07-16, 13:40:38
IMHO nein.
Nvidia war aber schon mit der FX technologisch sehr weit, zu SM3 hat nicht mehr viel gefehlt. Nvidia wäre natürlich dumm, sich den Schriftzug "Shader Model 3" auf der Verpackung zu sparen, wenn man eh schon fast soweit ist.

SM3 hat mich bis jetzt nicht vom Hocker gerissen und wird es wahrschienlich auch nicht tun.
Den Sprung von SM1 auf SM2 war, finde ich, viel wichtiger zur Steigerung der BQ als es der Sprung von SM2 auf SM3 ist.
SM3 ist für die Progger natürlich von Vorteil und kann auch zu mehr Performance beitragen, aber irgndwelche speziellen Effekte, die nicht mit SM2 möglich sind, werden wir wohl auf absehbare Zeit nicht sehen, denke ich.

Wie man es auch dreht und wendet, Nvidia hat deutlich übertrieben mit den Optimierungen, das muss echt publik werden.
Also aths, packs an. =)

SM3.0 wird deutliche Vorteile in der Grafik bieten, wenn entsprechnede Engines auf den Markt kommen. Nur wird das alles für den Gamer irgendwann 2007 interessant werden.

Hauwech
2005-07-16, 13:40:49
Weil die Verlustleistung wohl hauptsächlich für den max. möglichen Takt verantwortlich ist. Und beim max Takt halten sich die IHVs sicher nicht zurück und fahren dass was im Bereich des möglichen ist :)

Das gilt zumindest für die 7800GTX aber anscheinend nicht wenn man sich so die Angebote anschaut.

aths
2005-07-16, 13:44:54
IMHO nein.
Nvidia war aber schon mit der FX technologisch sehr weit, zu SM3 hat nicht mehr viel gefehlt. Nvidia wäre natürlich dumm, sich den Schriftzug "Shader Model 3" auf der Verpackung zu sparen, wenn man eh schon fast soweit ist.

SM3 hat mich bis jetzt nicht vom Hocker gerissen und wird es wahrschienlich auch nicht tun.
Den Sprung von SM1 auf SM2 war, finde ich, viel wichtiger zur Steigerung der BQ als es der Sprung von SM2 auf SM3 ist.
SM3 ist für die Progger natürlich von Vorteil und kann auch zu mehr Performance beitragen, aber irgndwelche speziellen Effekte, die nicht mit SM2 möglich sind, werden wir wohl auf absehbare Zeit nicht sehen, denke ich.Naja. SM3 bietet ggü. SM2 wichtige Features. Dazu gehört u. a. dynamic branching. Damit kann man endlich mal (ohne große CPU-Last) die Rechenkraft der Graka gezielt ausnutzen. Auch überflüssige Textur-Samplings lassen sich einsparen. Zu SM3 gehören viele weitere Features, deren Sinn man nicht erklären kann ohne weit auszuholen. Um es kurz zu machen: Gute Material-Shader sind imo erst mit SM3 vernünftig machbar. Mit WGF2-Chips sollten (fast) alle SM3-Features hoffentlich auch in "full-speed"-Performance da sein.
Wie man es auch dreht und wendet, Nvidia hat deutlich übertrieben mit den Optimierungen, das muss echt publik werden.
Also aths, packs an. =)Ich laufe mich warm. Dabei gehts nicht nur gegen Flimmern. Ich will "Vollkreis-AF" mit höchstens marginalen Kompromissen. Doch alleine kann ich gar nichts tun. Das Thema muss in die öffentliche Diskussion. Mir gehts auch nicht gegen NV oder gegen ATI. Ich will gute Texturfilterung, egal welcher Name damit verbunden ist.

Gute Texturfilterung muss eines Tages wiederkommen. Irgendjemand wird den Ruhm einheimsen, als erster das Ruder entsprechend herumgerissen haben.

Gast
2005-07-16, 13:45:26
Nein, aber es wird garantiert Leute geben, die sich nicht mehr die Mühe machen das ganze als SM 2.0 auch zu schreiben.
Die meisten Produzenten sagen aber alle, dass es Fallbacks für SM2 und gar DX8 geben soll...
Bei einem guten Fallback sehe ich keine Probleme.

Coda
2005-07-16, 13:48:08
Und FP-Texturfilterung.Wieso? Das ist keine Vorraussetzung für HDR (FarCry braucht das z.B. nicht).

Die meisten Produzenten sagen aber alle, dass es Fallbacks für SM2 und gar DX8 geben soll...
Bei einem guten Fallback sehe ich keine Probleme.Ich sehe den technischen Schritt von SM2 zu SM3 auf jeden Fall als genauso groß an wie von SM1 auf SM2. Was die Entwickler daraus machen, weil ATi blockt ist die andere Frage.

Gast
2005-07-16, 13:52:40
Gute Texturfilterung muss eines Tages wiederkommen. Irgendjemand wird den Ruhm einheimsen, als erster das Ruder entsprechend herumgerissen haben.
Genau das muss einem der beiden IHVs klar werden. Gute AF Qualität bedeutet mehr Kunden, wenn die Karte nicht gerade so mies performt wie die GF-FX Serie.

aths
2005-07-16, 13:56:11
Wieso? Das ist keine Vorraussetzung für HDR (FarCry braucht das z.B. nicht).FarCry braucht so einiges nicht. Mit HDR-Lightmaps ist mehr möglich.

edit: Ich will FP16 sogar für bestimmte Farbtexturen.

aths
2005-07-16, 13:57:10
Genau das muss einem der beiden IHVs klar werden. Gute AF Qualität bedeutet mehr Kunden, wenn die Karte nicht gerade so mies performt wie die GF-FX Serie.Bei der FX ist der Pixelshader bei Floatingpoint-Rechnungen sehr langsam. Die trilineare Texturfüllrate ist voll ok (bezogen auf seine Zeit.)

Gast
2005-07-16, 13:57:54
Ich sehe den technischen Schritt von SM2 zu SM3 auf jeden Fall als genauso groß an wie von SM1 auf SM2. Was die Entwickler daraus machen, weil ATi blockt ist die andere Frage.
Technisch gesehen hast du Recht. Mir ging es darum, dass mit SM2 sich einige Effekte (Wasser, Spiegeluingen, Refraktion..) deutlich verbessert haben, verglichen mit den Möglichkeiten von SM1.
Das sehe ich beim Vergleich SM2 zu SM3 nicht so.
Mit Material Shadern hat aths aber Recht.
Transluszenz dürfte auch ziemlich schwierig auf einem SM2-Chip werden.

Warum blockt ATI?
Es gibt doch SM3-Hardware, keiner hindert Spieleproduzenten auch in SM3 zu proggen.
Nur soll man eben auch nicht die Leute mit einer FX oder 9800PRO vergessen.
Nicht, dass die noch mit 1.1 rumgurken, obwohl SM2 möglich wäre.

aths
2005-07-16, 14:07:15
Technisch gesehen hast du Recht. Mir ging es darum, dass mit SM2 sich einige Effekte (Wasser, Spiegeluingen, Refraktion..) deutlich verbessert haben, verglichen mit den Möglichkeiten von SM1.
Das sehe ich beim Vergleich SM2 zu SM3 nicht so.
Mit Material Shadern hat aths aber Recht.Mit SM3 werden komplexere Beleuchtungsmodelle möglich. Und das beste: Man kann das Beleuchtungsmodell in einen einzigen Shader packen. (Allerdings ist das bei aktuellen SM3-Karten noch nicht unbedingt empfehlenswert. G70 ist hier aber schon mal besser als NV40.)

Hauwech
2005-07-16, 14:14:47
Technisch gesehen hast du Recht. Mir ging es darum, dass mit SM2 sich einige Effekte (Wasser, Spiegeluingen, Refraktion..) deutlich verbessert haben, verglichen mit den Möglichkeiten von SM1.
Das sehe ich beim Vergleich SM2 zu SM3 nicht so.
Mit Material Shadern hat aths aber Recht.
Transluszenz dürfte auch ziemlich schwierig auf einem SM2-Chip werden.

Warum blockt ATI?
Es gibt doch SM3-Hardware, keiner hindert Spieleproduzenten auch in SM3 zu proggen.
Nur soll man eben auch nicht die Leute mit einer FX oder 9800PRO vergessen.
Nicht, dass die noch mit 1.1 rumgurken, obwohl SM2 möglich wäre.

ATI "blockt" deshalb, weil es noch keine Massen von SM3 Karten von ihnen gibt und nur von Nvidia reicht eben nicht. Du erklärst es dir doch praktisch selber mit den Fallbacks für DX8 Karten. Seit 3 Jahren gibt es SM2 Hardware, die Anzahl dieser ist zwar schon ganz ordentlich (Spekulation!!) aber bezogen auf den Gesamtmarkt wahrscheinlich noch recht klein.

StefanV
2005-07-16, 14:17:54
Na, du hast meine Artikel also noch immer nicht gelesen? (...)
Du scheinst meine Artikel (und Posting) wenn überhaupt, nur selektiv zu lesen, das finde ich schade, da ich dann offenbar einen guten Teil umsonst schreibe.

Deine Artikel les ich schon lange nicht mehr, die schau ich mir nichtmal mehr an!

Was ich mir auf dieser Seite noch anschaue sind die Artikel von Madkiller und den anderen aber garantiert nichts von dir.

Ich hab keinen Bock 20.000 mal das gleiche zu lesen denn in deinen letzten Artikeln steht immer das gleiche drin, nur die Umschreibung ist anders...

Man könnte deine Artikel auch in 2 Sätzen zusammenfassen:
a) ATi ist böse, nV ist gut
b) nV war dazu gezwungen weil ATi das auch so macht.

Tschuldigung, aths, aber so argumentiert nur ein totaler Fan von irgendwas!
Wobei es auch einige Fans geben, die einsehen, das 'ihre Firma' scheiße gebaut hat...

Komm einfach mal auf den Boden zurück und überleg mal, ob das, was du in den letzten Jahren hier abgezogen hast, so richtig in Ordnung war!

Denn das wars IMO absolut nicht, DU Hast 3DCenter in letzter Zeit sehr geschadet und als nV Fanseite hingestellt, auch wenns jetzt noch härter ist, meine Meinung deckt sich mit vielen anderen, nur sag ich dir das mal hier ganz direkt.

Siehe auch diverse Diskussionen mit mir und anderen, wo dich erst unsere Zecke drauf hinweisen musste, das du Mist laberst und nV viel zu gut dasteht.


Müssen muss ich allerdings nur mal auf Toilette.
Ja, aths, andere würden für so einen scheiß schonmal 'ne Verwarnung riskieren aber mit Beleidigungen und persönlichen angriffen, insbesondere gegen mich bist auch nicht gerad sparsam.

Und warum?!
Nur, weil ich dir mal sag, was ich von dir halte?!
Dabei bin ich nichtmal äußerst direkt zu dir!

Aber du musst halt damit leben, das dir an den Karren gefahren wird, aber die Entscheidung obliegt dir, denn du bists atm hier im THread der hier 'ne Show abzieht, zur Selbstbeweihräucherung.

Nur seltsam, das einige vor dir schon gemerkt haben, das nV großen Mist mit den Filtern gebaut hat, insbesondere mit der nV40 Serie, nur wurden diese Leute allesamt von dir als Lügner und Idioten dagestellt, da es ja nicht sein kann, das jemand die heilige Kuh nVidia beschmutzt...

Tschuldigung, aths, aber du bist ein nV Fan (geworden), auch wenn dus leugnest, wirds die Meinung der anderen über dich nicht ändern, man muss sich auch mal die ganzen Artikel auf 3DCenter anschauen, wie viele Pro nV Artikel das gibt und wieviele Pro ATi, insbesondere von dir, das reicht auch schon...


PS:
Diesen Text hab ich auch nur geschrieben, weil ich daran glaube, das der Mensch sich ändern kann...
Vielleicht bringt dieser Text dich, unseren Oberguru, ein wenig zum Nachdenken, auch wenn ichs bezweifel

DaBrain
2005-07-16, 14:19:22
ATI "blockt" deshalb, weil es noch keine Massen von SM3 Karten von ihnen gibt und nur von Nvidia reicht eben nicht. Du erklärst es dir doch praktisch selber mit den Fallbacks für DX8 Karten. Seit 3 Jahren gibt es SM2 Hardware, die Anzahl dieser ist zwar schon ganz ordentlich (Spekulation!!) aber bezogen auf den Gesamtmarkt wahrscheinlich noch recht klein.


Naja, ich finde die Fallbacks extrem sinnvoll und notwendig.

Stell dir vor deine Karte ist schnell genug für ein Spiel, aber es startet nicht mehr weil man es nur noch mit SM 3.0 Karten spielen kann... :mad:

Oder vielleicht verreist du mal und nimmst dein "nicht gnaz aktuelles" Notebook mit, bei dem man den Gafikchip nicht wechseln kann...


Fallbacks sind nicht das Problem.

StefanV
2005-07-16, 14:22:10
Mit ca 60mio mher an Transitoren ist das whol auch schwer.Transistoren die nötig sind wenns nach ati ging hätte wird auch heute im Juli 2005 noch keine SM3.0 Karte im markt und schon Gar nicht im Massenmarkt das Hieße SM3.0 und HDR Games gäbe es erst ca 2007 oder 2008 und Sony und M$ würde sich freuen weil jeder ihre Konsolen und keiner mehr PC High End Karten Kaufen würde.
Wenns ATi möglich gewesen wäre, hätten sie den R520, samt SM3, schon letztes Jahr gebracht...

Ihnen wars aber nicht möglich, da sie noch ein paar andere Projekte, unter anderem den Xenon für M$ und das Gegenstück für Nintendo, an den Hacken hatten, was Entwicklungskapazitäten gebunden hatte, für 3 Designs auf mal langte es also eher nicht...

Das einzige, was man noch machen konnte, um nicht ganz dumm dazustehen, war ein aufgebohrter R300...

Hauwech
2005-07-16, 14:45:59
Naja, ich finde die Fallbacks extrem sinnvoll und notwendig.

Stell dir vor deine Karte ist schnell genug für ein Spiel, aber es startet nicht mehr weil man es nur noch mit SM 3.0 Karten spielen kann... :mad:

Oder vielleicht verreist du mal und nimmst dein "nicht gnaz aktuelles" Notebook mit, bei dem man den Gafikchip nicht wechseln kann...


Fallbacks sind nicht das Problem.

Tjo, Fallbacks sind immer ein zweischneidiges Schwert. Gut für den Spieleproduzenten und Spieler mit älterer Hardware, schlecht für den/die Chipbauer. :)

Tigerchen
2005-07-16, 14:52:33
1. Sorry, aths, aber das trifft eher auf dich zu, denn du hättest bei der nV4x Reihe laut aufrschreien müssen :rolleyes:
Zumal die Filterqualität ja zum 2. mal deutlichst reduziert wurde...

2. Ja, klar, natürlich, im Zweifel für nV...
Sorry, aths, aber du bist alles andere als fair, fair ist hier eigentich nur Zeckensack...
Deine Kritiken Richtung nV waren in letzter Zeit eher sanft bis garnicht vorhanden, während du andererseits bei jeder Gelegenheit auf ATI eingedroschen hast, schau dir einfach mal an, was Zeckensack zum Thema nV Karten sagte...
Wobei ich dir jetzt auch noch ins Gesicht sage, das ich Zeckensacks Meinung weit über deiner Stelle, ebenso sein Wissen/seine Erfahrung.

kurz: im Zweifel hat Zeckensack recht :rolleyes:

3. Schön, das dir _JETZT_ aufgefallen ist, das nV Mist baut und Cheatet wo das Zeugs hält, damit die Balken möglichst lang sind, für die eigenen Karten.
Nur:

1. ists jetzt zu spät, dein rumgeheule wg. Bildqualität ist etwas spät, denn das hättest du spätestens bei der nV4x Serie ankreiden müssen, hast du aber nicht.
2. als ob die nV4x Serie soo gut ist, was die Filterung betrifft...
Siehe Zeckensack...
Außerdem wurds ganze _DRASTISCH_ verschlechtert, von der Vorgängergeneration ausgehend, wo am Filter aber auch schon (teilweise) recht deutlich gedreht wurde...


Die Schlussfolgerung ist, das es falsch/blauäugig und sonstwie bescheuert ist, das es mit der Nachfolgenden Generation besser werden wird, wovon du ja mehr oder minder ausgingst :rolleyes:

Ein paar Aussagen von aths die er vor kurzem auf Planet3DNow losgelassen hat.
Laut dieser Aussagen gabs überhaupt keine Probleme mit dem nV40. Und ich hab wirklich nachgebohrt. Abstreiten, verheimlichen und vertuschen. Toller Guru!
Bin mir sicher daß auch jetzt nur Probleme eingeräumt werden weil es sich gar nicht mehr verheimlichen läßt:


Nvidia zwingt den User einer NV4x-Karte nicht dazu, beim AF mit Unterfilterung leben zu müssen. Der AF-Kernel überfiltert allerdings auch nicht. Das kann bei bestimmten schlecht gewählten Texturinhalten zum Flimmern führen, wo die Radeon die wegen ungenauer LOD-Bestimmung teilweise überfiltert, noch nicht flimmert, dafür in diesen Bereichen generell mehr Unschärfe zeigt.

Im HQ-Modus ist 2x AF auf dem NV40 deutlich besser als 2x AF auf der Radeon, 4x, 8x und 16x AF sind immerhin etwas besser.
1x* und 2x AF kann der NV40 nahe dem Optimum (sprich, sogar besser als GeForce3-FX) berechnen.
"1x AF" heißt, gar kein AF also reine bilineare oder trilineare Filterung.

Auf HQ ist das AF bei der GeForce6 noch immer besser als bei der R420. Dass WoW und UT flimmern hängt mit den Spielen zusammen.

Demirug hat das AF untersucht und bestätigt, dass der NV40 korrekt arbeitet.

NV40 unterfiltert beim AF im HQ-Modus nicht. Wenn es flimmert liegt es am falschen Textur-Content oder am falschen LOD-Bias, beides Fragen die die Applikation betreffen.

Gast
2005-07-16, 14:53:14
Tjo, Fallbacks sind immer ein zweischneidiges Schwert. Gut für den Spieleproduzenten und Spieler mit älterer Hardware, schlecht für den/die Chipbauer. :)
Total falsch.
Schlecht für die Produzenten, weil sie mehr proggen müssen.
Gut für Spieler mit älterer Hardware.
Dem Chipbauer ist es relativ egal, sollte aber auch froh sein, dass ältere Karten von ihm supportet werden.

Gast
2005-07-16, 15:03:20
Wenns ATi möglich gewesen wäre, hätten sie den R520, samt SM3, schon letztes Jahr gebracht...

Ihnen wars aber nicht möglich, da sie noch ein paar andere Projekte, unter anderem den Xenon für M$ und das Gegenstück für Nintendo, an den Hacken hatten, was Entwicklungskapazitäten gebunden hatte, für 3 Designs auf mal langte es also eher nicht...

Das einzige, was man noch machen konnte, um nicht ganz dumm dazustehen, war ein aufgebohrter R300...
Kann es nicht auch sein, dass der R400 einfach nicht perfomant genug war?

StefanV
2005-07-16, 15:08:37
Kann es nicht auch sein, dass der R400 einfach nicht perfomant genug war?
Nein, es währe wahrscheinlicher das es andere Probleme mit dem R400 gab.

Sprich Fertigung...

Gast
2005-07-16, 15:08:38
Ein paar Aussagen von aths die er vor kurzem auf 3DCenter losgelassen hat.
Laut dieser Aussagen gabs überhaupt keine Probleme mit dem nV40. Und ich hab wirklich nachgebohrt. Abstreiten, verheimlichen und vertuschen. Toller Guru!
Bin mir sicher daß auch jetzt nur Probleme eingeräumt werden weil es sich gar nicht mehr verheimlichen läßt:
Nvidia zwingt den User einer NV4x-Karte nicht dazu, beim AF mit Unterfilterung leben zu müssen. Der AF-Kernel überfiltert allerdings auch nicht. Das kann bei bestimmten schlecht gewählten Texturinhalten zum Flimmern führen, wo die Radeon die wegen ungenauer LOD-Bestimmung teilweise überfiltert, noch nicht flimmert, dafür in diesen Bereichen generell mehr Unschärfe zeigt.

Im HQ-Modus ist 2x AF auf dem NV40 deutlich besser als 2x AF auf der Radeon, 4x, 8x und 16x AF sind immerhin etwas besser.
1x* und 2x AF kann der NV40 nahe dem Optimum (sprich, sogar besser als GeForce3-FX) berechnen.
"1x AF" heißt, gar kein AF also reine bilineare oder trilineare Filterung.

Auf HQ ist das AF bei der GeForce6 noch immer besser als bei der R420. Dass WoW und UT flimmern hängt mit den Spielen zusammen.

Demirug hat das AF untersucht und bestätigt, dass der NV40 korrekt arbeitet.

NV40 unterfiltert beim AF im HQ-Modus nicht. Wenn es flimmert liegt es am falschen Textur-Content oder am falschen LOD-Bias, beides Fragen die die Applikation betreffen.




Sehr gut, dass Du dir die Arbeit gemacht hast. Genau das sind diese typischen aths´schen Fanboypostings, wie man sie seit Jahren lesen kann.

Aber ist schon klar, wenn ich behaupte aths Postings haben immer ein Tenor pro-NV und Anti-ATi, dann spinn ich mir das nur so zurecht. Die Frage ist doch für wie blöd uns aths hält oder er hat wirklich keinen Zugang zu sich seiner eigenen Person?

Ich kann ATI nur raten 3DC links liegen zu lassen mit Review-Hardware und Infos zur Technik, weil hier schlicht ein gewichtiges Crewmitglied völlig biased ist.

Coda
2005-07-16, 15:09:31
Nein, es währe wahrscheinlicher das es andere Probleme mit dem R400 gab.

Sprich Fertigung...Da hab ich aber bisher immer was ganz anderes gehört - nämlich das es wirklich die Performance war.

StefanV
2005-07-16, 15:14:00
Da hab ich aber bisher immer was ganz anderes gehört - nämlich das es wirklich die Performance war.
Jetzt ist die Frage, wie das denn nun gemeint ist.

Mangelhafte Performance kann auch ein Problem mit der Fertigung (bzw dem Design) sein, z.B. wenn man den Chip nicht soo hoch takten könnte wie man wollte (z.B. 500MHz vorgesehen, 250MHz erreicht)...

Pipelinestalls und andere Scherze wären natürlich auch eine Möglichkeit...

Kurz:
Das Teil wurd nicht so, wie es von ATI gedacht, einen 2. R200 wollten sie auch nicht auf den Markt schmeißen (bei dem ja einiges nicht so ganz funzte, wie es sollte, u.A. MSAA und die Neigung zu Pipelinestalls).

PingpiN
2005-07-16, 15:16:59
Der Thread ist nur noch geil! :biggrin: Eigentlich solls doch hie um die schlechte quali vom G70 gehen,jetzt sind wir schon bei denn älteren generationen.. :ulove3: ..

StefanV
2005-07-16, 15:20:44
Der Thread ist nur noch geil! :biggrin: Eigentlich solls doch hie um die schlechte quali vom G70 gehen,jetzt sind wir schon bei denn älteren generationen.. :comfort: ..
Jop, weil man sich eigentlich hätte denken können, das es mit dem G70 noch schlimmer wird, da es ja mit den alten Generationen angefangen hat...

Man hätte also schon bei den älteren Generationen anfangen sollen zu meckern, da nV ja schon beim nV30 anfing, die Qualität zu verschlechtern, drastisch bei der nV4x Serie...


Das ganze erinnert irgendwie an den Übergang zum Militär/Überwachugsstaat:

Die ersten Anzeichen ignoriert man, dann, wenn mans nicht mehr vermeiden kann, fängt man an aufmüpfig zu werden, wenns schon viel zu spät ist...


Wer jetzt rumheult, der wollt die Zusammenhänge und die weitere Entwicklung garnicht sehen, da geblendet, wovon auch immer...

Gast
2005-07-16, 15:31:03
@ Stefan, Tigerchen und Beta

Ihr habt sicherlich Recht, dass aths, warum auch immer, biased war oder wir ihn als Aussenstehende es so empfinden/empfanden.
Ich habe auch mit aths noch 2003 diskutiert als die FX raus kam.
Ich habe behauptet, dass es eine Krücke in Sachen Shader wird, das hat er aber anders gesehen und alles mit pseudotechnischen Fakten zu belegen versucht.

Aber lassen wir die Vergangenheit ruhen und geben ihm eine Chance, ich glaube dass er sie wahrnehmen wird um bisschen offener ATI gegenüber zu werden und auch um einige Fehler der Vergangenheit zuzugeben.

Back to Topic, please

Grindcore
2005-07-16, 15:34:41
Ja, gebt ihm eine Chance, werte Brüder des polemisierenden Geheimzirkels. Dann kann er Nachts endlich wieder durchschlafen. Kann Hardware anfällige Individuen eigentlich in den Wahnsinn treiben? Man möchte es fast annehmen.

Seraf
2005-07-16, 15:35:33
Jop, weil man sich eigentlich hätte denken können, das es mit dem G70 noch schlimmer wird, da es ja mit den alten Generationen angefangen hat...

Man hätte also schon bei den älteren Generationen anfangen sollen zu meckern, da nV ja schon beim nV30 anfing, die Qualität zu verschlechtern, drastisch bei der nV4x Serie...



Und demnächst haben wir wieder Pointsampling :rolleyes:
Deine magische Glaskugel möcht ich auch mal haben.
Ich glaube das viele nicht damit gerechnet haben das es noch schlimmer als beim Nv40 wird.



Das ganze erinnert irgendwie an den Übergang zum Militär/Überwachugsstaat:

Die ersten Anzeichen ignoriert man, dann, wenn mans nicht mehr vermeiden kann, fängt man an aufmüpfig zu werden, wenns schon viel zu spät ist...


Wer jetzt rumheult, der wollt die Zusammenhänge und die weitere Entwicklung garnicht sehen, da geblendet, wovon auch immer...


Du bringst mal wieder krasse Vergleiche.
Es geht doch "nur" um Grafikkarten Payne!
Jeder der keine Ahnung von der Materie hat denkt jetzt bestimmt das du ein Freak bist...

Gast
2005-07-16, 15:39:21
Kann Hardware anfällige Individuen eigentlich in den Wahnsinn treiben? Man möchte es fast annehmen.
Hier geht es aber um Recht und Unrecht.
Jeder würde angepisst sein, wenn er Recht hatte, dieses aber durch "unrichtiges Recht" von anderen als Blödsinn hingestellt wird.

Aber genug zu dem Thema!

Es geht um Flimmern beim G70 (und auch NV40).

Gast
2005-07-16, 15:40:22
Jeder der keine Ahnung von der Materie hat denkt jetzt bestimmt das du ein Freak bist...
Sind wir das nicht alle hier?
;)

Hauwech
2005-07-16, 15:48:43
Total falsch.
Schlecht für die Produzenten, weil sie mehr proggen müssen.
Gut für Spieler mit älterer Hardware.
Dem Chipbauer ist es relativ egal, sollte aber auch froh sein, dass ältere Karten von ihm supportet werden.

Die Produzenten freuen sich solange über Fallbacks wie der Aufwand dafür kleiner als der zu erwartende Gewinn ist. Das Grundgerüst für ein Spiel muss sowieso da sein.

Den Chipbauern ist es mit Sicherheit auch nicht relativ egal. Die wollen neue Produkte verkaufen und Leute die öfter aufrüsten sind ihnen mit Sicherheit lieber.

StefanV
2005-07-16, 15:52:06
Du bringst mal wieder krasse Vergleiche.
Es geht doch "nur" um Grafikkarten Payne!
Jeder der keine Ahnung von der Materie hat denkt jetzt bestimmt das du ein Freak bist...
Sollt nur aufzeigen, das man schon damals hätte versuchen sollen was dagegen zu tun und nicht jetzt erst rumheulen!

Ebenso sollts nur aufzeigen das die die andere damals als Dumm/Ahnunglsos und Idioten dagestellt haben, jetzt sellbst jene sind, da sie damals nicht weit genug gedacht haben, was mit der nächsten Generation sein könnte...

Dann hätte man ev. jetzt etwas Schwung und könnte etwas Druck auf nV Ausüben, so langsam, das das wieder geändert wird...

Solang nVs vorgehen aber von Seiten wie 3DCenter weitestgehend ignoriert wird und seiten wie 3DCenter nichtmal im Ansatz versuchen was dagegen zu tun, solang können wir hier im 3eck springen, uns einen Ast freuen oder ausm Fenster springen, ändern werden wir nichts können...


PS: der Vergleich da oben passt in diesem Fall wie Arsch auf Eimer, denn es ist nur ein Beispiel dafür, wann es sich lohnt, 'nen Aufstand anzutetteln und wanns zu spät ist...
Wollts nur mal kurz und Schmerzhaft auf den Punkt bringen...

Aber es wird lieber irgendwas wegdiskutiert statt das man den Arsch in Bewegung setzt und versucht dagegen was zu unternehmen...

StefanV
2005-07-16, 15:55:21
Den Chipbauern ist es mit Sicherheit auch nicht relativ egal. Die wollen neue Produkte verkaufen und Leute die öfter aufrüsten sind ihnen mit Sicherheit lieber.
Nein, die Chipbäcker hättens auch lieber, wenn man auf Fallbacks verzichten würde, dann könnt man ja schließlich mehr neue Karten absetzen, da mehr Leute überredet werden, neue Karten zu kaufen ;)

Das sowas natürlich auch für den Spielefritzen nach hinten losgehen kann, ist auch logisch, irgendwie...
Wenn diese jenen welchen Spielefritzen schlau sind, dann packen sie ein paar Fallbacks dazu, damit das auf so einigen Karten einigermaßen brauchbar zu nutzen ist....

Das ist eben das Problem:

Bastelt man zu viele Fallbacks rein, kann man nichts verdienen.
Bastelt man zu wenig Fallbacks rein, verdient man auch nix...

Blaire
2005-07-16, 15:57:05
Ein paar Aussagen von aths die er vor kurzem auf Planet3DNow losgelassen hat.
Laut dieser Aussagen gabs überhaupt keine Probleme mit dem nV40. Und ich hab wirklich nachgebohrt. Abstreiten, verheimlichen und vertuschen. Toller Guru!


Der HighQuality Modus des NV40 war auch besser , er hat nur etwas mehr Performance gezogen aber das Bild war sauber und angenehm. Aths hat völlig Recht damit!

Gast
2005-07-16, 16:01:34
Der HighQuality Modus des NV40 war auch besser , er hat nur etwas mehr Performance gezogen aber das Bild war sauber und angenehm. Aths hat völlig Recht damit!
Das stimmt so nicht.
Ich habe zur Zeit eine 6800GT und trotz HQ und alle Optimierungen aus, flimmert es noch in einigen Spielen, wo es bei ATI sauber ist.
WOW z.B.

Winter[Raven]
2005-07-16, 16:07:20
Das stimmt so nicht.
Ich habe zur Zeit eine 6800GT und trotz HQ und alle Optimierungen aus, flimmert es noch in einigen Spielen, wo es bei ATI sauber ist.
WOW z.B.

Kein Flimmern in den Games, liegt es vielleicht einfach nur im Auge des Betrachters? WOW habe ich nicht, dazu kann ich nichts sagen.

Gast
2005-07-16, 16:15:51
']Kein Flimmern in den Games, liegt es vielleicht einfach nur im Auge des Betrachters?
Klar liegt das im Auge des Betrachters. Ich kenne auch viele, die eine 6800 haben und das Flimmern nicht oder zumindest nicht so extrem wie ich wahrnehmen.
Ist für mich aber ein schwacher Trost, dass es andere nicht sehen.
']
WOW habe ich nicht, dazu kann ich nichts sagen.
WOW könnte man fast als Musterbeispiel für NV40-Flimmern nehmen. :(
Zum Glück zocke ich es auch nicht, habe das aber bei einem Kumpel gesehen, als er Probs mit den Einstellungen der Graka hatte und ich ihm behilflich war.

Grusel!

Blaire
2005-07-16, 16:16:32
Das stimmt so nicht.
Ich habe zur Zeit eine 6800GT und trotz HQ und alle Optimierungen aus, flimmert es noch in einigen Spielen, wo es bei ATI sauber ist.
WOW z.B.

Liegt am Spiel...

reunion
2005-07-16, 16:16:46
Nein, es währe wahrscheinlicher das es andere Probleme mit dem R400 gab.

Sprich Fertigung...


Nein, es lag an der Performance.

Gast
2005-07-16, 16:19:25
Liegt am Spiel...
Nö.
An Nv.

Gast
2005-07-16, 16:20:52
Das stimmt so nicht.
Ich habe zur Zeit eine 6800GT und trotz HQ und alle Optimierungen aus, flimmert es noch in einigen Spielen, wo es bei ATI sauber ist.
WOW z.B.


du weißt aber schon dass ati von sich aus unschärfer filtert.

wenn du bei NV das lod ca. auf 0.25-0,375 einstellst hast du in etwa die standardmäßige schärfe von ATI und auch dort kein flimmern mehr wo ATI nicht flimmert (bei nahezu identischer schärfe)

Blaire
2005-07-16, 16:21:17
Ich hab bei meinen 2x6800GT nirgends ein Flimmern bei HQ bemerkt, erst bei Quality flimmerte es. Aber mit etwas positivem LOD hat sich das auch meist schnell beheben lassen.

StefanV
2005-07-16, 16:21:31
Liegt am Spiel...
Darüber diskutieren wir schon seit ein paar Seiten, findest es nicht auch ein wenig, öhm, einfach, das 'einfach so' aufs Spiel zu schieben?!

Zumal es ein _FAKTUM_ ist, das das NICHT am Spiel liegt :rolleyes:

DaBrain
2005-07-16, 16:22:40
Bastelt man zu viele Fallbacks rein, kann man nichts verdienen.


Zu viele Fallbacks?

IMHO sind die Kosten für diese Fallbacks doch vernachlässigbar.

Ich habe mich mal mit den Gehältern in der Spielebranche beschäftigt. Selbst ein extrem guter Programmierer verdient nur "recht gut".

Wenn die Entwicklung ein oder zwei Monate länger dauert, kostet das nichts im Vergleich zu dem Gewinn durch die größere Käuferschicht.

Ok, wenn das Spiel schlecht ist hat man halt noch mehr Verlust gemacht, aber davon geht man ja eigentlich nicht aus.

Wenn ich sehe was einige Programmierer so in ihrer Freizeit alles schaffen, kann ich mir kaum vorstellen, dass diese Fallbacks für gute Programmierer ein Problem darstellen...

Darüber diskutieren wir schon seit ein paar Seiten, findest es nicht auch ein wenig, öhm, einfach, das 'einfach so' aufs Spiel zu schieben?!

Zumal es ein _FAKTUM_ ist, das das NICHT am Spiel liegt :rolleyes:

Naja, einige Spiele liefern ja auch unter 'Quality' ein flimmerfreies Bild.

Irgendwie kann man schon Einfluss drauf nehmen.

Gast
2005-07-16, 16:27:56
du weißt aber schon dass ati von sich aus unschärfer filtert.

wenn du bei NV das lod ca. auf 0.25-0,375 einstellst hast du in etwa die standardmäßige schärfe von ATI und auch dort kein flimmern mehr wo ATI nicht flimmert (bei nahezu identischer schärfe)
Du kannst das mit Screenshots oder Videos beweisen?
Wenn nein, dann besser die Füsse stillhalten.
Aths hat auch immer versucht vom technischen her zu argumentieren und hat sich nun auf die Nase gelegt.

Gast
2005-07-16, 16:30:17
Ich hab bei meinen 2x6800GT nirgends ein Flimmern bei HQ bemerkt,
Dann siehst du es halt nicht.
Glückwunsch, du brauchst keine neue Graka. :up:

aths
2005-07-16, 16:31:08
Deine Artikel les ich schon lange nicht mehr, die schau ich mir nichtmal mehr an!Aber du schreibst Dinge über meine Artikel ...

Was ich mir auf dieser Seite noch anschaue sind die Artikel von Madkiller und den anderen aber garantiert nichts von dir.Das ist dein gutes Recht. Nur eine Bitte: Sei vorsichtig mit Behauptungen, was in meinen Artikeln so alles nicht stehen würde, bzw. was so drin stehen würde.

Denn das wars IMO absolut nicht, DU Hast 3DCenter in letzter Zeit sehr geschadet und als nV Fanseite hingestellt, auch wenns jetzt noch härter ist, meine Meinung deckt sich mit vielen anderen, nur sag ich dir das mal hier ganz direkt.Dein Posting sollte mal ein NV-Mitarbeiter, der mich kennt, zu Gesicht bekommen.

Blaire
2005-07-16, 16:32:12
Darüber diskutieren wir schon seit ein paar Seiten, findest es nicht auch ein wenig, öhm, einfach, das 'einfach so' aufs Spiel zu schieben?!

Zumal es ein _FAKTUM_ ist, das das NICHT am Spiel liegt :rolleyes:

Ich kann nur das wiedergeben was ich selber gesehn habe. Ich hatte so ziemlich alle ATi Karten der letzten Jahre hier und konnte sie testen, immer wieder hat es mich zu Nvidia gezogen. Weil es dort mehr flimmert?? ;)
Der Gesamteindruck der Karten bei Games gab bei mir den Ausschlag.
Was mich nun beim 7800GTX stört ist dieses Grieseln (nicht flimmern!) bei HQ das war beim NV40 nicht der Fall und das ärgert mich auch und ich möchte hoffen das NV dieses Problem bald behebt.

Blaire
2005-07-16, 16:32:38
Dann siehst du es halt nicht.
Glückwunsch, du brauchst keine neue Graka. :up:

Oh glaube mir , ich hab sehr sehr gute Augen.

aths
2005-07-16, 16:33:19
[COLOR="#000088"]
Ein paar Aussagen von aths die er vor kurzem auf Planet3DNow losgelassen hat.
Laut dieser Aussagen gabs überhaupt keine Probleme mit dem nV40.Na dann zitiere doch mal, und wenns geht, im Kontext. Wenn wir die gleiche Sache meinen, hast du dich in jener Diskussion mit deiner Unkenntnis über HW-Features ziemlich in die Nesseln gesetzt.

Und ich hab wirklich nachgebohrt. Abstreiten, verheimlichen und vertuschen. Toller Guru!
Bin mir sicher daß auch jetzt nur Probleme eingeräumt werden weil es sich gar nicht mehr verheimlichen läßt:Wenn du meine P3D-Postings, oder die News "Probleme einräumen" nennst, oder wenn du meine Artikel bezüglich NV-Filterverschlechterungen "Probleme einräumen" nennst, so haben wir endlich mal ein gutes Beispiel für den Begriff "Euphemismus". Ich sehe allerdings bei dir eher das Problem einer selektiven Sichtweise. Begründung: Du übersiehst für meinen Geschmack den Zusammenhang. Und aus meinen Artikeln wird von einigen, darunter leider auch von dir, nur das gelesen, was man glaubt als ATI-Freund gegen mich verwenden zu können. Sorry, ich bin kein ATI-Freund. Ich bin auch kein NV-Freund.

Zur P3D-Sache, ich suche mal den Link zur P3D-Diskussion.

edit: http://www.planet3dnow.de/vbulletin/showthread.php?p=2274377&#post2274377 Da gibts ein paar Postings weiter unten ein Posting von mir, was auf weitere Postings verlinkt.

Und noch eine Sache: Du würdest von mir ernster genommen, wenn du – wie wir alle – in schwarzer Schrift schreibst.

Gast
2005-07-16, 16:35:13
Oh glaube mir , ich hab sehr sehr gute Augen.
Es geht hier nicht um gute Augen (Sehstärke), sondern um die Wahrnehmungsfähigkeit und wie unser Gehirn die Daten verarbeitet.

reunion
2005-07-16, 16:35:50
Dann siehst du es halt nicht.
Glückwunsch, du brauchst keine neue Graka. :up:


Ich sehe es auch nicht (Mit HQ).
IMHO reden hier zu viele Leute mit, die dieses "Flimmern" noch nichtmal selbst erleben durften.

Blaire
2005-07-16, 16:37:49
Es geht hier nicht um gute Augen (Sehstärke), sondern um die Wahrnehmungsfähigkeit und wie unser Gehirn die Daten verarbeitet.

Ich weiss wie Flimmern aussieht, mach dir mal keine Sorgen. :)

aths
2005-07-16, 16:44:22
Du kannst das mit Screenshots oder Videos beweisen?
Wenn nein, dann besser die Füsse stillhalten.
Aths hat auch immer versucht vom technischen her zu argumentieren und hat sich nun auf die Nase gelegt.Wo habe ich das genau? (Ernstgemeinte Frage, denn wenn ich nicht sehe wo ich mich jetzt auf die Nase gelegt habe, kann ich nichts dazulernen.)

Hauwech
2005-07-16, 16:49:40
Darüber diskutieren wir schon seit ein paar Seiten, findest es nicht auch ein wenig, öhm, einfach, das 'einfach so' aufs Spiel zu schieben?!

Zumal es ein _FAKTUM_ ist, das das NICHT am Spiel liegt :rolleyes:

Wie kann es dann sein, dass es bei einigen Spielen flimmert, bei anderen nicht? DaBrain sagt, dass es bei ihm sogar nur unter Quality bei einigen Spielen nicht geflimmert hat obwohl es da wesentlich schlechter ist, wie kann das sein? Blaire kann auch kein Flimmern in HQ feststellen. Wird zusätzlich noch am LoD rumgestellt, wird es auch besser.

Natürlich ist da jeder anders empfindlich was Flimmern angeht. Damit aber die ganze Reihe schlecht zu machen ist dadurch nicht imho gerechtfertigt. An Investitionsverteidigung glaube ich auch nicht so wirklich.

BlackBirdSR
2005-07-16, 17:19:23
Ich entschuldige mich für OT.
Im Zuge dessen, was 3dc ist und um was es in diesem Post geht, werde ich mal gänzlich vom Topic abweichen müssen.

Deine Artikel les ich schon lange nicht mehr, die schau ich mir nichtmal mehr an!

Was ich mir auf dieser Seite noch anschaue sind die Artikel von Madkiller und den anderen aber garantiert nichts von dir.


Sehr schade. Diese Einstellung finde ich sehr kontraproduktiv. Es gibt im Netz auch Artikel, denen ich wenig Bedeutung zuweisen würde, aber auch diese haben manchmal Infos die wichtig sind.
THG und GamePC mag ich vielleicht nur müde belächeln, aber ich könnte es mir nie leisten, sie zu ignorieren.
Mag ja sein, dass die aths Artikel nicht gefallen, und du hast das gute Recht sie auszulassen.
Was mir jedoch sehr missfällt, ist deine Ausdrucksweise dabei.


Ich hab keinen Bock 20.000 mal das gleiche zu lesen denn in deinen letzten Artikeln steht immer das gleiche drin, nur die Umschreibung ist anders...

Man könnte deine Artikel auch in 2 Sätzen zusammenfassen:
a) ATi ist böse, nV ist gut
b) nV war dazu gezwungen weil ATi das auch so macht.


Aus dem letzten Artikel
Mit dem "gammakorrekten" Downfiltering gibts also – ähnlich wie bei ATI – nur Kosmetik und keine tatsächlich korrekte Rechnung.

Im Gegensatz zu ATI erlaubt Nvidia, das Feature des nichtlinearen Downfilterings an- und abzuschalten. Dies begrüßen wir außerordentlich,

Bei ATI nahm man die Texturfilterqualität noch nie besonders ernst und rechnet gerade mal so genau, dass man die Kompromisse nicht sofort sieht. Dementsprechend sieht auch ATIs AF-Realisierung aus. Erst mit dem R300 ist bei der Radeon AF auch in Kombination mit dem trilinearen Filter möglich. Einige Winkel erhalten trotz aktiviertem 16x AF jedoch nur 2x AF (durch ungenaue LOD-Berechnungen ist die tatsächliche Qualität sogar noch etwas schlechter).

ATI hat mit dem R300 vorgemacht, wie man unter anderem mit minderwertiger AF-Qualität Benchmarks gewinnt, und Nvidia ist inzwischen auf den Zug mit aufgesprungen. Man fragt sich, wohin das führen soll. Wer lieber die Framerate statt insgesamt sehr gute Texturen haben wollte, kann ja weiterhin zur Radeon greifen – Nvidia hat sich den Vorteil einer sehr guten AF-Qualität verspielt und scheint nicht willens, eine Rückbesinnung auf volle Textur-Qualität vorzunehmen.

etc etc


Wo wird ATI hier als das Böse und Nvidia als das Gute dargestellt?
Es ist nunmal so (gewesen), dass ATI von Anfang an weniger Wert auf high quality beim realisieren der HW gelegt hat. Sei das jetzt der Texturfilter, das AF oder FP24. Man hat es immer vorgezogen, Kompromisse zu schließen, um Benchmarks zu gewinnen. Das ist ein Fakt, mit dem man sich anfreunden muss.
Wer das nicht kann, sollte darüber nicht diskutieren.
Nvidia hat dies am Anfang anscheinend nicht getan. Man erinnere sich an das AF der NV2x Serie. (Antiaaliasing war es entgegengesetzt, aber das ist ja bekannt)
Nun macht es NVIDIA ATI nach, auch das muss man akzeptieren, und dafür verdient NVIDIA auch Prügel. Aber es ist nunmal auch Tatsache, dass NVIDIA gezwungen wurde, will man ebenfalls Benchmarks gewinnen.
ATI baut gute HW, das bestreitet niemand. Und die R3xx/R4xx Chips sind verdammt schnell.
Hätte ATI damals nicht darauf gepocht den AF so zu optimieren, wären vielleicht beide auf dem Niveau der GF4 geblieben.
Das ist nunmal so passiert, deswegen ist ATI nicht das personifizierte Böse, und aths hat ATI auch nie so bezeichnet. Trotzdem hat ATI quasi das Rennen um das kostengünstigste Filtering auf Kosten der Qualität eingeleitet. Wie es nunmal so funktioniert auf dieser Welt, muss der Andere dann nicht nur nachziehen, sondern nachlegen. Ergo die heutige Situation.



Denn das wars IMO absolut nicht, DU Hast 3DCenter in letzter Zeit sehr geschadet und als nV Fanseite hingestellt, auch wenns jetzt noch härter ist, meine Meinung deckt sich mit vielen anderen, nur sag ich dir das mal hier ganz direkt.

Beweise.. versteck dich nicht auch noch hinter "vielen anderen".
Wo genau hat aths 3dc geschadet? Ich habe noch keine qualifizierte Meinung gelesen, dass 3dc nun NV territory ist.
Und was einige User denken, macht noch lange kein globales Bewusstsein aus der Sache.


Siehe auch diverse Diskussionen mit mir und anderen, wo dich erst unsere Zecke drauf hinweisen musste, das du Mist laberst und nV viel zu gut dasteht.

Niemand ist unfehlbar. Niemand.


Ja, aths, andere würden für so einen scheiß schonmal 'ne Verwarnung riskieren aber mit Beleidigungen und persönlichen angriffen, insbesondere gegen mich bist auch nicht gerad sparsam.

Es scheint ja in beide Richtungen zu funktionieren.


Tschuldigung, aths, aber du bist ein nV Fan (geworden), auch wenn dus leugnest, wirds die Meinung der anderen über dich nicht ändern, man muss sich auch mal die ganzen Artikel auf 3DCenter anschauen, wie viele Pro nV Artikel das gibt und wieviele Pro ATi, insbesondere von dir, das reicht auch schon...

Du scheinst automatisch jeden Artikel zu NV als pro-NW abzustempeln.
Ist dir schon einmal aufgefallen, dass aths keine HW Tests macht, sondern HW analysiert und erklärt?
Madkiller macht HW Tests, oder Leonidas. Sie können ein pro oder contra Fazit über die getestete HW ziehen.
Artikel von aths, oder einer der wenigen von mir bisher, zeigen unser interesse in der HW. Und es ist numal so, dass NV interessantere HW hat, allem Anschein nach mehr Unterstützung liefert und ATI HW sich seit dem R3xx nicht groß geändert hat.
Sollte ATI mit massig Infotmationen zum R520 sowie Hilfe bei einem interna Artikeln liefern, würde es wohl auch einen geben.

Demirug
2005-07-16, 17:27:07
Ich sehe es auch nicht (Mit HQ).
IMHO reden hier zu viele Leute mit, die dieses "Flimmern" noch nichtmal selbst erleben durften.

Das verwendete Ausgabegerät sowie die Kontranst/Heligkeitseinstellung dürfte da auch noch eine wichtige Rolle spielen.

Gast
2005-07-16, 17:30:56
Wo habe ich das genau? (Ernstgemeinte Frage, denn wenn ich nicht sehe wo ich mich jetzt auf die Nase gelegt habe, kann ich nichts dazulernen.)
Aths,

du schliesst einfach von der Technik her auf die BQ und schaust dir diese nicht mal an. Hätten wir keine Optimierungen, dürftest du auch Recht haben.
Da es aber anders ist, MUSS man die BQ am Monitor auseinander nehmen und nicht sich die technischen Deteils der Karten ansehen und daraus schlussfolgern, was nun besser ist.
Wer in der Theorie mehr Samples usw. hat, interessiert keine Sau, wenn das in der Praxis auf Grund von Optimierungen wieder ganz anders aussieht.

Ich glaube du hast den Knall echt noch nicht gehört.

Gast
2005-07-16, 17:35:38
Das verwendete Ausgabegerät sowie die Kontranst/Heligkeitseinstellung dürfte da auch noch eine wichtige Rolle spielen.
Klar, besonders die Kontrasteinstellungen sind wichtig.
Je mehr Kontrast desto deulicher wird das Flimmern.

aths
2005-07-16, 17:42:19
Aths,

du schliesst einfach von der Technik her auf die BQ und schaust dir diese nicht mal an. Hätten wir keine Optimierungen, dürftest du auch Recht haben.
Da es aber anders ist, MUSS man die BQ am Monitor auseinander nehmen und nicht sich die technischen Deteils der Karten ansehen und daraus schlussfolgern, was nun besser ist.
Wer in der Theorie mehr Samples usw. hat, interessiert keine Sau, wenn das in der Praxis auf Grund von Optimierungen wieder ganz anders aussieht.

Ich glaube du hast den Knall echt noch nicht gehört.Auch in der Praxis nehme ich, sofern Supersampling nicht aktiv ist, immer HQ beim NV40. Dass dann unterfiltert würde, wäre mir neu. Dass Q vergleichbar mit der Radeon-Grafik sei, habe ich meiner Erinnerung nach nirgends behauptet. Falls doch (dann wäre ein Link zu so einem Posting nett) würde ich das zurücknehmen.

Piffan
2005-07-16, 17:57:07
PS:
Diesen Text hab ich auch nur geschrieben, weil ich daran glaube, das der Mensch sich ändern kann...
Vielleicht bringt dieser Text dich, unseren Oberguru, ein wenig zum Nachdenken, auch wenn ichs bezweifel

Auch wenn es OT ist: Wenn man das liest, glaubt man im falschen Film zu sein.

Wer hier so rot ist dass er schon ne gestörte Wahrnehmung hat, wissen wohl alle. Wer hat hier im Forum bei JEDER Gelegenheit gegen NV gestänkert? Zumindest seit der Geforce 3- Zeit fiel mir immer der selbe "übliche Verdächtige" auf. DU hast einen maßgeblichen Anteil daran, das ow verschwunden ist. Dabei hätte es doch so gut sein können: ow als Grüner und Payne als Roter. Glaube mir, einige der vielen Leser hier hätten dir die Gicht gewünscht, nur damit man nicht immer die selben Stereotypien lesen musste.....

ahts hingegen kenne ich seit 3Dconcept.ch. Der hat "seine" Firma schon öfter gewechselt und so manch launischen Post oder Artikel verzapft. Dass er nun bedingungslos pro NV schreibt, ist mir allerdings das Allerneueste. Könnte es sein, dass Du die Artikel recht einäugig interpretierst?

Ati wurde lange Zeit für die Winkelabhängigkeit gescholten und fürs AA gelobt.

NV wurde vor längerer Zeit fürs AA gescholten und fürs AF gelobt.

Wegen des brilinearen Filters bei der NV hagelte es ebenfalls Kritik von aths.

Was mit der NV40 loswar, weiß ich nicht genau. Vielleicht hat aths tatsächlich die Theorie zu hoch gehängt bzw. den Angaben von NV vertraut. Nun, wo er schmerzlich feststellen muss, dass NV bei der Mauschelei noch einen draufsattelt und dieses anprangert, da kommt Mr. Payne aus der Deckung und unterstellt ausgerechnet jetzt NV- Fantum. Hallo? Und die infame Art der Unterstellungen sind wohl das Letzte.

Was genau willst Du erreichen? Soll aths jetzt schweigen, willst Du ihm ein Redeverbot verordnen, weil er früher nicht schon sauer auf NV war?

Edit: Da fällt mir gerade Dein Vorschlag ein, dass aths mal längere Zeit Abstand vom Schreiben nehmen müsste, weil er wohl zeitlich überfordert sei. (Im Thread zum HL2- Artikel, den ich auch nicht so dolle finde).

Dazu denke ich: Ohne aths wär das Forum nicht das, was es ist. Aber ohne einen Mr. Payne würde es nicht schlechter werden. :mad:

Gast
2005-07-16, 18:24:34
Auch in der Praxis nehme ich, sofern Supersampling nicht aktiv ist, immer HQ beim NV40. Dass dann unterfiltert würde, wäre mir neu.
Was zu beweisen wäre..
Wie gesagt, ich sehe doch noch ein geringes Flimmern oder sagen wir mal Rauschen.

Dass Q vergleichbar mit der Radeon-Grafik sei, habe ich meiner Erinnerung nach nirgends behauptet. Falls doch (dann wäre ein Link zu so einem Posting nett) würde ich das zurücknehmen.
Ich habe keine Lust jemandem einen reinzuwürgen, weil er sich in der Vergangenheit mal vertan hat. :)

Mir liegt viel daran, dass die Problematik publik wird, damit wir wieder besseres AF haben, denn ich bin da wirklich sehr empfindlich. :(

Gast
2005-07-16, 18:28:09
Mir liegt viel daran, dass die Problematik publik wird, damit wir wieder besseres AF haben, denn ich bin da wirklich sehr empfindlich. :(
Nachtrag:
Damit meine ich Nvidia und ATI.
Ich will von beiden Firmen sehr gutes AF sehen, damit ich mich auch zwischen beiden entscheiden kann.
Wäre ziemlich schlecht, wenn die Qualli des AF über den Kauf entscheiden müsste...

Gast
2005-07-16, 18:28:31
Auch wenn es OT ist: Wenn man das liest, glaubt man im falschen Film zu sein.

Wer hier so rot ist dass er schon ne gestörte Wahrnehmung hat, wissen wohl alle. Wer hat hier im Forum bei JEDER Gelegenheit gegen NV gestänkert? Zumindest seit der Geforce 3- Zeit fiel mir immer der selbe "übliche Verdächtige" auf. DU hast einen maßgeblichen Anteil daran, das ow verschwunden ist. Dabei hätte es doch so gut sein können: ow als Grüner und Payne als Roter. Glaube mir, einige der vielen Leser hier hätten dir die Gicht gewünscht, nur damit man nicht immer die selben Stereotypien lesen musste.....

ahts hingegen kenne ich seit 3Dconcept.ch. Der hat "seine" Firma schon öfter gewechselt und so manch launischen Post oder Artikel verzapft. Dass er nun bedingungslos pro NV schreibt, ist mir allerdings das Allerneueste. Könnte es sein, dass Du die Artikel recht einäugig interpretierst?

Ati wurde lange Zeit für die Winkelabhängigkeit gescholten und fürs AA gelobt.

NV wurde vor längerer Zeit fürs AA gescholten und fürs AF gelobt.

Wegen des brilinearen Filters bei der NV hagelte es ebenfalls Kritik von aths.

Was mit der NV40 loswar, weiß ich nicht genau. Vielleicht hat aths tatsächlich die Theorie zu hoch gehängt bzw. den Angaben von NV vertraut. Nun, wo er schmerzlich feststellen muss, dass NV bei der Mauschelei noch einen draufsattelt und dieses anprangert, da kommt Mr. Payne aus der Deckung und unterstellt ausgerechnet jetzt NV- Fantum. Hallo? Und die infame Art der Unterstellungen sind wohl das Letzte.

Was genau willst Du erreichen? Soll aths jetzt schweigen, willst Du ihm ein Redeverbot verordnen, weil er früher nicht schon sauer auf NV war?

Edit: Da fällt mir gerade Dein Vorschlag ein, dass aths mal längere Zeit Abstand vom Schreiben nehmen müsste, weil er wohl zeitlich überfordert sei. (Im Thread zum HL2- Artikel, den ich auch nicht so dolle finde).

Dazu denke ich: Ohne aths wär das Forum nicht das, was es ist. Aber ohne einen Mr. Payne würde es nicht schlechter werden. :mad:
Ich glaube aths kann sich sehr wohl alleine verteidigen und braucht insbesondere von dir keine Unterstützung, auch wenn Du wahrschneinlich mal wieder der Meinung bist, dass deine Meinung ungemein interessant ist.

Und dass Du ow nachtrauerst, der es sich hier wirklich mit fast allen versaut hat, spricht ebenfalls Bände.

Demirug
2005-07-16, 18:33:41
Was zu beweisen wäre..
Wie gesagt, ich sehe doch noch ein geringes Flimmern oder sagen wir mal Rauschen.

Ist nicht jeder unschuldig, bis seine Schuld bewiesen wurde?

PingpiN
2005-07-16, 18:37:45
Auf der einen Seite natürlich schade wegen der schlechten qualität bei ja soviel Leistung (g70).Aber wenn ich das sagen bei Ati oder Nv hätte würde ich auch keine Tricks auslassen.Solange der Kunde zahlt ist mir das scheiss egal,ich würde
sogar ein Profil namens Flimmern erstellen,mit denn Profil sollen dann ruig die ganzen seiten meine Karten testen.Ich will ein Stück schwanz länger haben!


mfg

Quasar
2005-07-16, 18:39:51
Ist nicht jeder unschuldig, bis seine Schuld bewiesen wurde?
Du hast zuviel "Die Straßen von San Franzisko" geschaut. Das ist ein Grundsatz im US-Rechtssystem, der hier nicht notwendigerweise gilt. ;)

Hier heißt es "in dubio pro reo".

Gast
2005-07-16, 18:40:32
Ist nicht jeder unschuldig, bis seine Schuld bewiesen wurde?
rechtlich gesehen ja. :)
Aber man darf doch noch Vermutungen auf Grund der eigenen Beobachtungen anstellen?

Gast
2005-07-16, 18:43:50
Ist nicht jeder unschuldig, bis seine Schuld bewiesen wurde?
Wobei dann die Frage stehen bleibt, wann jemandes Schuld als erwiesen gilt. ;)

Gast
2005-07-16, 18:43:58
Auf der einen Seite natürlich schade wegen der schlechten qualität bei ja soviel Leistung (g70).Aber wenn ich das sagen bei Ati oder Nv hätte würde ich auch keine Tricks auslassen.
Wenn ich ehrlich bin, ist es mir auch ziemlich egal wie die IHVs mehr Leistung aus ihren Karte kitzeln, solange die BQ nicht leidet.
Dann ist nämlich Ende.

ich würde sogar ein Profil namens Flimmern erstellen,mit denn Profil sollen dann ruig die ganzen seiten meine Karten testen.Ich will ein Stück schwanz länger haben!


mfg
Geht´s noch? :crazy2:

StefanV
2005-07-16, 18:49:29
Auf der einen Seite natürlich schade wegen der schlechten qualität bei ja soviel Leistung (g70).Aber wenn ich das sagen bei Ati oder Nv hätte würde ich auch keine Tricks auslassen.Solange der Kunde zahlt ist mir das scheiss egal,ich würde
sogar ein Profil namens Flimmern erstellen,mit denn Profil sollen dann ruig die ganzen seiten meine Karten testen.Ich will ein Stück schwanz länger haben!


mfg
Das Problem ist, das die Bosse da oben meist keinen Plan von nix haben und nur bekloppte Ex BWL-Studenten sind...
Mit Zahlen hantieren klappt ev. noch, mehr aber auch nicht, was dabei rauskommt siehst ja bei diversen Modellen mitm Stern drauf oder aber an Volkswagen...

Ignacio Lopez war halt ein Trottel der seinesgleichen suchte, nur sind alle anderen so dumm und machens ihm nach, warum sollts in anderen Branchen anders sein?!

Bei ATI würd ich das Problem nicht so sehr sehen, da sind AFAIK Asiaten am Ruder, die denken langfristiger als wir!

Tigerchen
2005-07-16, 18:53:32
Na dann zitiere doch mal, und wenns geht, im Kontext. Wenn wir die gleiche Sache meinen, hast du dich in jener Diskussion mit deiner Unkenntnis über HW-Features ziemlich in die Nesseln gesetzt.

Wenn du meine P3D-Postings, oder die News "Probleme einräumen" nennst, oder wenn du meine Artikel bezüglich NV-Filterverschlechterungen "Probleme einräumen" nennst, so haben wir endlich mal ein gutes Beispiel für den Begriff "Euphemismus". Ich sehe allerdings bei dir eher das Problem einer selektiven Sichtweise. Begründung: Du übersiehst für meinen Geschmack den Zusammenhang. Und aus meinen Artikeln wird von einigen, darunter leider auch von dir, nur das gelesen, was man glaubt als ATI-Freund gegen mich verwenden zu können. Sorry, ich bin kein ATI-Freund. Ich bin auch kein NV-Freund.

Zur P3D-Sache, ich suche mal den Link zur P3D-Diskussion.

edit: http://www.planet3dnow.de/vbulletin/showthread.php?p=2274377&#post2274377 Da gibts ein paar Postings weiter unten ein Posting von mir, was auf weitere Postings verlinkt.

Und noch eine Sache: Du würdest von mir ernster genommen, wenn du – wie wir alle – in schwarzer Schrift schreibst.

Meinst du ich lege nach dem was du dir hier wieder leistest noch wert darauf was du von mir denkst?

Demirug
2005-07-16, 18:53:50
Du hast zuviel "Die Straßen von San Franzisko" geschaut. Das ist ein Grundsatz im US-Rechtssystem, der hier nicht notwendigerweise gilt. ;)

Hier heißt es "in dubio pro reo".

Lieber CSI da kann man noch was lernen.

Bestehen den berechtigte Zweifel an der Schuld?

Quasar
2005-07-16, 18:55:25
Lieber CSI da kann man noch was lernen.

Bestehen den berechtigte Zweifel an der Schuld?
Berechtigte Zweifel an der Schuld woran genau? Daß es flimmert? Daß absichtlich die Qualität gesenkt wurde? Daß man dem User die maximal mögliche Qualität per Software vorenthält? Oder daß es ein Bug ist? :)

Hauwech
2005-07-16, 18:59:43
Das Problem ist, das die Bosse da oben meist keinen Plan von nix haben und nur bekloppte Ex BWL-Studenten sind...
Mit Zahlen hantieren klappt ev. noch, mehr aber auch nicht, was dabei rauskommt siehst ja bei diversen Modellen mitm Stern drauf oder aber an Volkswagen...

Ignacio Lopez war halt ein Trottel der seinesgleichen suchte, nur sind alle anderen so dumm und machens ihm nach, warum sollts in anderen Branchen anders sein?!

Bei ATI würd ich das Problem nicht so sehr sehen, da sind AFAIK Asiaten am Ruder, die denken langfristiger als wir!

Dann muessen das bei ATI aber asiatische Riesentrottel von Ex BWL-Studenten sein, Intel mit ihrem PCIe Geschwafel blauaeugig zu vertrauen und selber nicht zu ueberlegen, dass es AGP doch noch etwas laenger geben koennte...

Wo kommt der Chef von Nvidia noch mal her?

IVN
2005-07-16, 19:01:48
Dann muessen das bei ATI aber asiatische Riesentrottel von Ex BWL-Studenten sein, Intel mit ihrem PCIe Geschwafel blauaeugig zu vertrauen und selber nicht zu ueberlegen, dass es AGP doch noch etwas laenger geben koennte...

Wo kommt der Chef von Nvidia noch mal her?
Na,was meinst du?

p.s.Jen-Hsun Huang

Gast
2005-07-16, 19:01:49
Dann muessen das bei ATI aber asiatische Riesentrottel von Ex BWL-Studenten sein, Intel mit ihrem PCIe Geschwafel blauaeugig zu vertrauen und selber nicht zu ueberlegen, dass es AGP doch noch etwas laenger geben koennte...

Wo kommt der Chef von Nvidia noch mal her?
Keine Ahnung, die 7800GTX gibt es auch nicht als AGP...
Wo ist das Problem?

Quasar
2005-07-16, 19:03:30
Dann muessen das bei ATI aber asiatische Riesentrottel von Ex BWL-Studenten sein, Intel mit ihrem PCIe Geschwafel blauaeugig zu vertrauen und selber nicht zu ueberlegen, dass es AGP doch noch etwas laenger geben koennte...
Dave Orton als CEO klingt schonmal verdächtig nach einem traditionell-kantonesischen Adelsgeschlecht. :|

Jen-Hsun Huang dagegen müsste Belgier oder sowas sein. Könnte mich aber auch täuschen.

Demirug
2005-07-16, 19:03:32
Berechtigte Zweifel an der Schuld woran genau? Daß es flimmert? Daß absichtlich die Qualität gesenkt wurde? Daß man dem User die maximal mögliche Qualität per Software vorenthält? Oder daß es ein Bug ist? :)

Willst du den Job des Anklägers?

An der Stelle ging es um die Anklage das NV HQ unterfiltert.

Hauwech
2005-07-16, 19:04:23
Keine Ahnung, die 7800GTX gibt es auch nicht als AGP...
Wo ist das Problem?

Mal abwarten. Kann mir durchaus vorstellen, dass es einige Hersteller geben wird, die die 7800GTX auch auf AGP rausbringen.

DaBrain
2005-07-16, 19:04:46
Wie kann es dann sein, dass es bei einigen Spielen flimmert, bei anderen nicht? DaBrain sagt, dass es bei ihm sogar nur unter Quality bei einigen Spielen nicht geflimmert hat obwohl es da wesentlich schlechter ist, wie kann das sein? Blaire kann auch kein Flimmern in HQ feststellen. Wird zusätzlich noch am LoD rumgestellt, wird es auch besser.

Natürlich ist da jeder anders empfindlich was Flimmern angeht. Damit aber die ganze Reihe schlecht zu machen ist dadurch nicht imho gerechtfertigt. An Investitionsverteidigung glaube ich auch nicht so wirklich.

Ich wollte nicht sagen, dass es nicht an der Karte liegt.

Nur SP meinte man sollte es sich nicht so leicht machen und einfach sagen "Das Spiel ist Schuld".

"Die Karte ist Schuld" ist doch auch so simpel...

Das einige Spiele selbst unter "Quality" nicht flimmern (NV40), ist ein Punkt dagegen.

Es scheint also komplizierter zu sein.... Vielleicht sogar lösbar.

Auch wenn ich denke dass es für den G70 da keine Hoffnung mehr gibt.


Mal abwarten. Kann mir durchaus vorstellen, dass es einige Hersteller geben wird, die die 7800GTX auch auf AGP rausbringen.

Einfach den Bridge Chip auf die Karte pflanzen und einem gehört der gesamte AGP High-End Markt.

Irgendein Hersteller wird es bestimmt machen.
Außer es gibt eine Absprache um PCIe zu pushen...

Piffan
2005-07-16, 19:05:56
Ich glaube aths kann sich sehr wohl alleine verteidigen und braucht insbesondere von dir keine Unterstützung, auch wenn Du wahrschneinlich mal wieder der Meinung bist, dass deine Meinung ungemein interessant ist.

Und dass Du ow nachtrauerst, der es sich hier wirklich mit fast allen versaut hat, spricht ebenfalls Bände.

Der aths verteidigt sich nicht, der bleibt sachlich. Der Piffan, der trägt sein Herz auf der Zunge und schreibt "emotional".
Jau, und ich finde meine Meinung sehr interessant. Verboten?
ow hat viele Ecken, aber dass er es sich mit fast allen versaut hat, halte ich für ein ziemliches Gerücht. ;)

Gast
2005-07-16, 19:06:09
Mal abwarten. Kann mir durchaus vorstellen, dass es einige Hersteller geben wird, die die 7800GTX auch auf AGP rausbringen.
Wenn sie einen neuen HSI-Chip basteln, dann ja.

Hauwech
2005-07-16, 19:09:54
Wenn sie einen neuen HSI-Chip basteln, dann ja.

Warum einen neuen?

Demirug
2005-07-16, 19:10:53
Dave Orton als CEO klingt schonmal verdächtig nach einem traditionell-kantonesischen Adelsgeschlecht. :|

ATI hat noch einen Chairman. K.Y. Ho ist auf jeden Fall Asiate.

Jen-Hsun Huang dagegen müsste Belgier oder sowas sein. Könnte mich aber auch täuschen.

Würde mich wundern. Seine Universitätsabschlüsse sind jedenfalla von Unis in den USA.

Piffan
2005-07-16, 19:11:21
Dave Orton als CEO klingt schonmal verdächtig nach einem traditionell-kantonesischen Adelsgeschlecht. :|

Jen-Hsun Huang dagegen müsste Belgier oder sowas sein. Könnte mich aber auch täuschen.

Als wenn die Nationalität in der heutigen Zeit ne Rolle spielt. Eher schon solche Dinge, ob die Firma im Familienbesitz oder ob es ne Aktiengesellschaft ist. Afaik ist Matrox noch privat......

Der Fluch bei Aktiengesellschaften ist, dass man die Aktionäre und Analysten bei Laune halten muss. Da werden Entscheidungen getroffen, die aus Sicht der Techniker haarsträubend sind........

Quasar
2005-07-16, 19:13:20
Willst du den Job des Anklägers?

An der Stelle ging es um die Anklage das NV HQ unterfiltert.
By virtue of the juries decision and the power vested in me by the state, I find the defendant guilty, on all counts for crimes against Nyquist.
I sentence all green boys, girls, men and women to incarcerated with no possibility of parole - for life!
;)

Spaß beiseite - zumindest flimmern die Mipwechsel vom 1 auf den zweiten und zweiten auf dritten Miplevel (Basistextur nicht gezählt) ziemlich stark. Allerdings taten sie das auch auf dem nv40. Unterschiede gabs aber auch innerhalb der einzelnen Level - allerdings bin ich nicht sicher, daß dies nicht innerhalb "erlaubter" Abweichung zwischen verschiedenen Karten liegt.

Wo ich mir allerdings einigermaßen sicher bin, ist, daß es das mit dem 66.93 noch nicht gab.

Quasar
2005-07-16, 19:14:47
Als wenn die Nationalität in der heutigen Zeit ne Rolle spielt.
Ich hab mir das nicht ausgedacht, daß es das tun soll.

StefanV
2005-07-16, 19:23:02
Dave Orton als CEO klingt schonmal verdächtig nach einem traditionell-kantonesischen Adelsgeschlecht. :|


ATi's Geschichte begann 1985 als ATi "Array Technology Industry" von K.Y. Ho (CEO - Chief Executive Officer), Benny Lau und Lee Lau, Auswanderer aus Hongkong, mit einem Startkapital von 300.000$ gegründet wurde.
Quelle (http://www.rage3d.de/artikel/ati/geschichte/seite1.php)

Gast
2005-07-16, 19:26:03
Warum einen neuen?
Weil selbst der Rialto schon am Limit ist.
Der HSI schafft nicht mal eine 6800GT.
Bei einem G70 würde er sich in einen Haufen braunen Elends auflösen. :D

StefanV
2005-07-16, 19:27:02
Als wenn die Nationalität in der heutigen Zeit ne Rolle spielt.
Ja, das tuts, besser gesagt der 'Glaube' des Verantwortlichen.

Es gibt durchaus deutliche Unterschiede in der Philosophie und sonstigem, unter anderem zwischen USA und D (nicht soo groß) und dem Asiatischen Raum, z.B. Japan.

Hier ist 'Brutale Marktwirtschaft' an der Tagesordnung, bei den Asiaten schauts anders aus, ok es geht da weitaus härter zu als hier, nur respektiert man sich da unten gegenseitig, hier oben nicht!

Das siehst du z.B. an den Verträgen der Autohersteller mit ihren Zulieferern, die Deutschen lassen die Zulieferer atm regelrecht ausbluten und beuten die aus, ein Japaner würd garnicht auf die Idee kommen, da die wissen, da es sinniger ist, wenn man zusammenarbeitet und nicht gegeneinander...

Quasar
2005-07-16, 19:30:02
Weil selbst der Rialto schon am Limit ist.
Der HSI schafft nicht mal eine 6800GT.
Bei einem G70 würde er sich in einen Haufen braunen Elends auflösen. :D
Wie kommst du darauf? PCIe-16 ist definiert, AGP8X ist es auch. Wieso sollte sich das zwischen verschiedenen Chips ändern?

Piffan
2005-07-16, 19:35:27
Ich hab mir das nicht ausgedacht, daß es das tun soll.

Ich habe deinen Scherz wohl verstanden. Hätte besser ein anderes Zitat wählen sollen....

mapel110
2005-07-16, 19:42:57
Back to Topic! Sonst kann man hier auch dicht machen. Die HSI-Diskussion hatten wir schon. Zur Not entsprechenden Thread rauskramen!

zeckensack
2005-07-16, 19:43:11
du weißt aber schon dass ati von sich aus unschärfer filtert.

wenn du bei NV das lod ca. auf 0.25-0,375 einstellst hast du in etwa die standardmäßige schärfe von ATI und auch dort kein flimmern mehr wo ATI nicht flimmert (bei nahezu identischer schärfe)Unsinn.

NV40, FW77.72, HQ, 2xTri-AF, LOD-Bias 0.0
http://img338.imageshack.us/img338/1840/u9yewnv40hq2xtriaf0oc.th.jpg (http://img338.imageshack.us/my.php?image=u9yewnv40hq2xtriaf0oc.jpg)

NV40, FW77.72, HQ, 2xTri-AF, LOD-Bias +0.25
http://img338.imageshack.us/img338/4618/u9yewnv40hq2xtriaflod0255mc.th.jpg (http://img338.imageshack.us/my.php?image=u9yewnv40hq2xtriaflod0255mc.jpg)

RV350, Cat 5.6, AI off, 2xTri-AF, LOD-Bias 0.0
http://img338.imageshack.us/img338/894/u9yewrv350aioff2xtriaf3fo.th.jpg (http://img338.imageshack.us/my.php?image=u9yewrv350aioff2xtriaf3fo.jpg)

RV350, Cat 5.6, AI off, 2xTri-AF, LOD-Bias +0.25
http://img338.imageshack.us/img338/9320/u9yewrv350aioff2xtriaflod0250w.th.jpg (http://img338.imageshack.us/my.php?image=u9yewrv350aioff2xtriaflod0250w.jpg)

Diesen Stuss möchte ich ab heute bitte nie wieder lesen müssen, wenn's geht.

Coda
2005-07-16, 19:48:59
Weil selbst der Rialto schon am Limit ist.
Der HSI schafft nicht mal eine 6800GT.Also bei den PCIe 6800GT im Handel funktioniert das einwandfrei.

Bei einem G70 würde er sich in einen Haufen braunen Elends auflösen. :DWie oft willst du uns das Märchen noch auftischen?

@mapel: Sorry, zu spät gelesen :(

Gast
2005-07-16, 21:29:54
Deine Artikel les ich schon lange nicht mehr, die schau ich mir nichtmal mehr an!

Was ich mir auf dieser Seite noch anschaue sind die Artikel von Madkiller und den anderen aber garantiert nichts von dir.

Ich hab keinen Bock 20.000 mal das gleiche zu lesen denn in deinen letzten Artikeln steht immer das gleiche drin, nur die Umschreibung ist anders...

Man könnte deine Artikel auch in 2 Sätzen zusammenfassen:
a) ATi ist böse, nV ist gut
b) nV war dazu gezwungen weil ATi das auch so macht.


Hmmm, nach jahrelanger Aktivität auf 3dcenter.de meinerseits und sowohl auch in diesem Forum, ohne dass ich mich hier je registriert hatte, kann ich aus meiner zu Recht objektieven Sicht die Behauptung aufstellen, dass Herr Aths in keinerlei Weise eine subjektive oder von irgendwelchen Beeinflussungen zu Gunsten irgend eines IHV's gelenkte Recherche verfolgt. Nicht die persönliche Überzeugung sondern lückenlose Argumentation solltest du dir zum Freund machen. Ein Produkt imaginärer Vorstellung sich zum Ziel zu setzen und dafür sogar ungemein viel Zeit und Aufmerksamkeit zu investieren, um jenes imaginäres Ziel zu erreichen, dessen Verwirklichung jedoch für die "Gemeinschaft", wenn ich das so nennen darf, hier im Forum absolut nichts bedeutet und im Enddeffekt nur der eigenen Befriedigung halber praktiziert wird, ist eine weit verbreitete "Krankheit", falls ich das ebenfalls so nennen darf. Der am schwersten Wiegende Punkt ist jedoch der, dass sich diese Person, in diesem Fall bist du das Herr Stefan Payne, sich dessen garnicht mal bewusst ist, was sehr bedauerlich ist. Soviel dazu.


Tschuldigung, aths, aber so argumentiert nur ein totaler Fan von irgendwas!
Wobei es auch einige Fans geben, die einsehen, das 'ihre Firma' scheiße gebaut hat...

Komm einfach mal auf den Boden zurück und überleg mal, ob das, was du in den letzten Jahren hier abgezogen hast, so richtig in Ordnung war!

Denn das wars IMO absolut nicht, DU Hast 3DCenter in letzter Zeit sehr geschadet und als nV Fanseite hingestellt, auch wenns jetzt noch härter ist, meine Meinung deckt sich mit vielen anderen, nur sag ich dir das mal hier ganz direkt.

Siehe auch diverse Diskussionen mit mir und anderen, wo dich erst unsere Zecke drauf hinweisen musste, das du Mist laberst und nV viel zu gut dasteht.


Hmmm, mmm ganz und garnicht. Hier muss ich erneut Einspruch erheben :). Wie ich schon angedeutet habe, poste ich zwar zum ersten mal in diesem Forum, jedoch habe ich mich mit der Materie jedes einzelnen Threads zu diesem Thema tiefgründig auseinandergesetzt, wobei jeder Standpunkt gleichermaßen berücksichtigt wurde.
Das was du hier ansprichst, wonach Herr Aths ein Fan von NVIDIA sein soll und damit 3dcenter.de geschadet haben soll und dass sich deine Meinung hierbei mit vielen anderen decken soll sind alles nur Mutmaßungen, mal freundlich ausgedrückt. In Wirklichkeit sind diese Behauptungen, deren Inhalt von dir womöglich als Fakten geprießen werden nichts anderes als eben diese aus deiner imaginären Vorstellung heraus entsprungenen Ansichten. Nicht Fakten, Fakten, Fakten wie es etwa die Focus TV Werbung offeriert, vielmehr sollte es Vermutungen, Vermutungen, Vermutungen heißen in diesem Fall, wieder freundlich ausgedrückt. Deiner subjektiven Wahrnehmung oder auch gefilterten Wahrnehmung, wie Herr Aths es auch schon sagte, mögen es gerne wie Fakten erscheinen, aber es bleibt schließlich beim "mögen erscheinen". Sowas nennt man auch gezielter Täuschungsversuch auf gut deutsch :), eine der größten schwächen der Menschheit, was auch diesem Lande in seiner Vergangenheit zum Verhängnis wurde. Aber jetzt wirds wohl zu OT :)


Ja, aths, andere würden für so einen scheiß schonmal 'ne Verwarnung riskieren aber mit Beleidigungen und persönlichen angriffen, insbesondere gegen mich bist auch nicht gerad sparsam.

Und warum?!
Nur, weil ich dir mal sag, was ich von dir halte?!
Dabei bin ich nichtmal äußerst direkt zu dir!

Aber du musst halt damit leben, das dir an den Karren gefahren wird, aber die Entscheidung obliegt dir, denn du bists atm hier im THread der hier 'ne Show abzieht, zur Selbstbeweihräucherung.

Nur seltsam, das einige vor dir schon gemerkt haben, das nV großen Mist mit den Filtern gebaut hat, insbesondere mit der nV40 Serie, nur wurden diese Leute allesamt von dir als Lügner und Idioten dagestellt, da es ja nicht sein kann, das jemand die heilige Kuh nVidia beschmutzt...

Tschuldigung, aths, aber du bist ein nV Fan (geworden), auch wenn dus leugnest, wirds die Meinung der anderen über dich nicht ändern, man muss sich auch mal die ganzen Artikel auf 3DCenter anschauen, wie viele Pro nV Artikel das gibt und wieviele Pro ATi, insbesondere von dir, das reicht auch schon...


Der einzige Grund weshalb ich mir die Mühe mache und deine Aussagen kommentiere ist der, dass ich nicht gerne mit ansehe wie das Unrecht waltet, zum al ich 3dcenter ein gutes Medium ist und es in meinem interesse liegt, dass dies so bleibt.
Statt wieder einmal von haltlosen Behauptungen Gebrauch zu machen, wie in dem von mir oben zitierten Bereich, "Show, Fan, Pro nV" um einige Beispiele zu nennen, wäre es doch viel produktiver für dich, dich mit Aths in ein Gespräch zu verwickeln auf hohem technischem Level, ja gar einem Disput, dem du aber ständig ausweichst und dich damit eigentlich nur in die Rolle einer "provozierenden Nervensäge" hineinbegibst. Herr Aths und viele andere sind aber garnicht darauf aus sich auf das selbe Level zu begeben und ich denke, dass wirst du mit deinen provokanten Aussagen auch nicht erreichen.


PS:
Diesen Text hab ich auch nur geschrieben, weil ich daran glaube, das der Mensch sich ändern kann...
Vielleicht bringt dieser Text dich, unseren Oberguru, ein wenig zum Nachdenken, auch wenn ichs bezweifel


:) Du sagst es dir selber :) Aber wieder nur ein Versuch den Zeitgeist der Mitglieder dieses Forums zu treffen, um eine "Negativ Stimmung" gegen Aths aufzubauen. Auch Hitler hat sich solcher Methoden bedient.



Sehr gut, dass Du dir die Arbeit gemacht hast. Genau das sind diese typischen aths´schen Fanboypostings, wie man sie seit Jahren lesen kann.

Aber ist schon klar, wenn ich behaupte aths Postings haben immer ein Tenor pro-NV und Anti-ATi, dann spinn ich mir das nur so zurecht. Die Frage ist doch für wie blöd uns aths hält oder er hat wirklich keinen Zugang zu sich seiner eigenen Person?

Ich kann ATI nur raten 3DC links liegen zu lassen mit Review-Hardware und Infos zur Technik, weil hier schlicht ein gewichtiges Crewmitglied völlig biased ist.

Auch dieser Post zeugt nur von billiger Polemik und Stimmungsmache gegen Aths. Er hat sicherlich besseres zu tun als die ganze Zeit sich zu rechtfertigen. Es verwundert mich schon überhaupt, dass Aths sich die Mühe macht auf euch einzugehen. Ihr müsst euch mal vorstellen, was das an Arbeit ist und dann auch noch immer auf solche Beiträge einzugehen. Ich hätt überhaupt kein bock auf sowas.

Was NVIDIA angeht, muss man klar sagen, dass es so nicht mehr weitergehen kann. Diese Tricksereien sind einfach nur noch lachaft, unglaublich. Ich hab echt keine Lust mehr auf sowas. Ich finde Aths sollte sich nun vorallem darauf konzentrieren all das Publik zu machen. Anders wirds kein Ende haben.

Gast
2005-07-16, 21:36:37
Hmmm, nach jahrelanger Aktivität auf 3dcenter.de meinerseits und sowohl auch in diesem Forum, ohne dass ich mich hier je registriert hatte, kann ich aus meiner zu Recht objektieven Sicht die Behauptung aufstellen, dass Herr Aths in keinerlei Weise eine subjektive oder von irgendwelchen Beeinflussungen zu Gunsten irgend eines IHV's gelenkte Recherche verfolgt. Nicht die persönliche Überzeugung sondern lückenlose Argumentation solltest du dir zum Freund machen. ................................ Ich finde Aths sollte sich nun vorallem darauf konzentrieren all das Publik zu machen. Anders wirds kein Ende haben.
Entschuldige lieber Gast, aber dieses Posting wirkt auf mich, und ich bin auch schon lange in diesem Forum aktiv, äußerst gefaked. Manche Leute werden der Peinlichkeiten nie müde habe ich das Gefühl.

Gast
2005-07-16, 21:39:32
Entschuldige lieber Gast, aber dieses Posting wirkt auf mich, und ich bin auch schon lange in diesem Forum aktiv, äußerst gefaked. Manche Leute werden der Peinlichkeiten nie müde habe ich das Gefühl.

naja das ist deine Auffassung. Ich überlasse es jedem selbst.

DaBrain
2005-07-16, 21:39:56
@Stefan Payne und Aths

So wie ihr einige Sachen dargestellt und erklärt habt, denke ich, dass ihr beide in einigen Punkten Recht habt.

Ich würde nicht so auf Aths rumhacken. Er hat sich IMO durchaus nicht parteiisch verhalten, sondern NV da kritisiert, wo es eindeutig nötig ist.

Aths scheint mir sehr kompetent zu sein. Darüberhinaus scheint er auch offen für andere Meinungen zu sein.

Ich denke ihr müsst euch hier nicht streiten. Mit einer guten Argumentation und Fakten könnt ihr bestimmt euer Gegenüber ein Stück weit überzeugen.


Ansonsten geht das Topic den Bach runter.

BTW sorry, das war natürlich auch OT.

Gast
2005-07-16, 21:41:13
Hmmm, nach jahrelanger Aktivität auf 3dcenter.de meinerseits und sowohl auch in diesem Forum, ohne dass ich mich hier je registriert hatte, kann ich aus meiner zu Recht objektieven Sicht die Behauptung aufstellen, dass Herr Aths in keinerlei Weise eine subjektive oder von irgendwelchen Beeinflussungen zu Gunsten irgend eines IHV's gelenkte Recherche verfolgt. Nicht die persönliche Überzeugung sondern lückenlose Argumentation solltest du dir zum Freund machen. Ein Produkt imaginärer Vorstellung sich zum Ziel zu setzen und dafür sogar ungemein viel Zeit und Aufmerksamkeit zu investieren, um jenes imaginäres Ziel zu erreichen, dessen Verwirklichung jedoch für die "Gemeinschaft", wenn ich das so nennen darf, hier im Forum absolut nichts bedeutet und im Enddeffekt nur der eigenen Befriedigung halber praktiziert wird, ist eine weit verbreitete "Krankheit", falls ich das ebenfalls so nennen darf. Der am schwersten Wiegende Punkt ist jedoch der, dass sich diese Person, in diesem Fall bist du das Herr Stefan Payne, sich dessen garnicht mal bewusst ist, was sehr bedauerlich ist. Soviel dazu.



Hmmm, mmm ganz und garnicht. Hier muss ich erneut Einspruch erheben :). Wie ich schon angedeutet habe, poste ich zwar zum ersten mal in diesem Forum, jedoch habe ich mich mit der Materie jedes einzelnen Threads zu diesem Thema tiefgründig auseinandergesetzt, wobei jeder Standpunkt gleichermaßen berücksichtigt wurde.
Das was du hier ansprichst, wonach Herr Aths ein Fan von NVIDIA sein soll und damit 3dcenter.de geschadet haben soll und dass sich deine Meinung hierbei mit vielen anderen decken soll sind alles nur Mutmaßungen, mal freundlich ausgedrückt. In Wirklichkeit sind diese Behauptungen, deren Inhalt von dir womöglich als Fakten geprießen werden nichts anderes als eben diese aus deiner imaginären Vorstellung heraus entsprungenen Ansichten. Nicht Fakten, Fakten, Fakten wie es etwa die Focus TV Werbung offeriert, vielmehr sollte es Vermutungen, Vermutungen, Vermutungen heißen in diesem Fall, wieder freundlich ausgedrückt. Deiner subjektiven Wahrnehmung oder auch gefilterten Wahrnehmung, wie Herr Aths es auch schon sagte, mögen es gerne wie Fakten erscheinen, aber es bleibt schließlich beim "mögen erscheinen". Sowas nennt man auch gezielter Täuschungsversuch auf gut deutsch :), eine der größten schwächen der Menschheit, was auch diesem Lande in seiner Vergangenheit zum Verhängnis wurde. Aber jetzt wirds wohl zu OT :)



Der einzige Grund weshalb ich mir die Mühe mache und deine Aussagen kommentiere ist der, dass ich nicht gerne mit ansehe wie das Unrecht waltet, zum al ich 3dcenter ein gutes Medium ist und es in meinem interesse liegt, dass dies so bleibt.
Statt wieder einmal von haltlosen Behauptungen Gebrauch zu machen, wie in dem von mir oben zitierten Bereich, "Show, Fan, Pro nV" um einige Beispiele zu nennen, wäre es doch viel produktiver für dich, dich mit Aths in ein Gespräch zu verwickeln auf hohem technischem Level, ja gar einem Disput, dem du aber ständig ausweichst und dich damit eigentlich nur in die Rolle einer "provozierenden Nervensäge" hineinbegibst. Herr Aths und viele andere sind aber garnicht darauf aus sich auf das selbe Level zu begeben und ich denke, dass wirst du mit deinen provokanten Aussagen auch nicht erreichen.




:) Du sagst es dir selber :) Aber wieder nur ein Versuch den Zeitgeist der Mitglieder dieses Forums zu treffen, um eine "Negativ Stimmung" gegen Aths aufzubauen. Auch Hitler hat sich solcher Methoden bedient.

:lol:
ich lach mich weg.
Geiler Post! :up:

Gast
2005-07-16, 21:47:56
:lol:
ich lach mich weg.
Geiler Post! :up:

thx :)

Piffan
2005-07-16, 22:11:44
Schade, dass das wieder zur Posse verkommt. Ich gebe ja zu, dass meine Intention gesitteter Stunk war. Aber nicht um hier persönliche Dinge auszutragen, sondern weil ich hoffte, dass man irgendwie Druck auf Nv und Ati ausüben kann.

Es kann mir als Spieler nicht gefallen, dass ich einerseits mit tollen neuen Features und höherer Leistungsfähigkeit geködert werde, aber andererseits dicke Kröten schlucken soll, weil der Hersteller der Hardware wegen marginaler Vorteile in Standard- Benches Abstriche bei der Bildqualität macht.

Atis Tricks mit der Winkelabhängigkeit, der bilinearen Filterung höherer Texturstages und Brilinearität sind schlimm genug.

Dass NV mit dem Brilinearen Filter gewissermaßen das Äquivalent zur Winkelabhängigkeit geschaffen hat, nervt sicher. Aber richtig dicke kommt es jetzt, dass man zur übernommenen Winkelabhängigkeit nun auch noch dem Spieler Flimmern aufs Auge drückt.

Wird Ati mit dem R 520 noch ne Schippe auflegen bei den "Optimierungen" oder ist das Ding so stark, dass man wieder "lege artis" filtern kann? Irgendwie hoffen ja nicht wenige, dass NV es mit dem nächsten Treiber richten wird, oder dass der R520 derartig stark ist, dass diese Mätzchen nutzlos werden und NV sich über Qualität profiliert.

Wenn es so stimmt was aths schreibt, nämlich dass NV ältere Hardware per Treiber kastriert, damit das neue Produkt leichter punkten kann, dann kann man das Marketing von NV getrost als Betrug bezeichnen.
Aber vielleicht werden manche die Performance steigernde Features auch nur deaktiviert, damit die Kompatibilität gesichert bleibt. Schließlich wird man den alten Karten wohl kaum so viel Aufmerksamkeit bei der Treiberpflege gönnen können wie den neuesten Produkten.

c0re
2005-07-16, 22:14:12
Ich denke das aths auch eher, sagen wir zu Nvidia geneigt ist. Das sag ich aus meiner Erfahrung. Gründe:

aTuner lief, wenn ich mich richtig erinnere, eine lange Zeit, gar nicht auf ATI Karten. Nun, gut möglich, dass es da irgendwie schwieriger ist was zu programmieren. Ich kenn mich mit der Materie nicht aus.

Ich hab in Erinnerung, dass er die GeForce FX Reihe bis aufs äußerste verteidigt, wenn jemand diese, imo absolut zurecht, kritisiert.

Ich möge mich irren, der Kommentar nur mal am Rande dazu, obwohl das ja eigentlich OT ist...

Edit: Und weils so OT ist, sollte man damit nur über PN weiter labern...

StefanV
2005-07-16, 22:20:59
Schade, dass das wieder zur Posse verkommt. Ich gebe ja zu, dass meine Intention gesitteter Stunk war. Aber nicht um hier persönliche Dinge auszutragen, sondern weil ich hoffte, dass man irgendwie Druck auf Nv und Ati ausüben kann.

Ach nee, nur hätte man schon bei der FX mit diesem Cheatin Deto 40, der Brilineare Filterung und andere Späße einführte, solangsam anfangen sollte, aufzumucken, spätestens aber mit dem nV40, wo sogar 'nen Bilnder sah, das die AF Quali ggÜ dem Vorgänger drastischt reduziert wurde...

JETZT fängt man solangsam an rumzumurren, bisselr spät, findest nicht auch?!

Siehe den Vergleich da oben von mir...

Wenn es so stimmt was aths schreibt, nämlich dass NV ältere Hardware per Treiber kastriert, damit das neue Produkt leichter punkten kann, dann kann man das Marketing von NV getrost als Betrug bezeichnen.
Aber vielleicht werden manche die Performance steigernde Features auch nur deaktiviert, damit die Kompatibilität gesichert bleibt. Schließlich wird man den alten Karten wohl kaum so viel Aufmerksamkeit bei der Treiberpflege gönnen können wie den neuesten Produkten.
Ach nee, schön, das das auch mal auffällt...

Das nV nur die aktuellen Produkte pflegt und gar schon die Generation davor außer acht lässt, ist mir auch schon aufgefallen, vor ein paar Jahren, aber schön, das das auch solangsam der ein oder andere neben mir mitbekommt ;)

Spätestens bei irgendeinem 45er Deto, der diverse Dinge auf der nV25 deaktivierte, hätte man darauf kommen können...
Mir fiel das auf, als ich mal wieder Final Fantasy VII/VIII auf dem PC spielen wollte, mit der GF1 DDR, die ich hatte und 'nen 20er Deto nutzte...
Damals durfte ich auf 'nen 6.31er zurückgehen, um das Spiel spielen zu können, alle Nachfolgenden erzeugten Pixelmüll...

Da ist ATI glücklicherweise anders, da werden auch die alten gefplegt und auch keine Optimierungen und sonstiges entfernt, um den Nachfolger besser dastehen zu lassen...

Piffan
2005-07-16, 22:22:09
Ich denke das aths auch eher, sagen wir zu Nvidia geneigt ist. Das sag ich aus meiner Erfahrung. Gründe:

aTuner lieft, wenn ich mich richtig erinnere, eine lange Zeit gar nicht auf ATI Karte. Nun gut, möglich, dass es da irgendwie schwieriger ist was zu programmieren. Ich kenn mich mit der Materie nicht aus.

Ich hab in Erinnerung, dass er die GeForce FX Reihe bis aufs äußerste verteidigt, wenn jemand diese, imo absolut zurecht, kritisiert.

Ich möge mich irren, der Kommentar nur mal am Rande dazu, obwohl das ja eigentlich OT ist...

Warum der atuner wohl anfangs nur auf NV lief....Vielleicht weil aths anfangs nur die NV- Karte zur Verfügung stand? ;)

Es mag ja sein, dass er zeitweise NV bevorzugte. Evtl. wegen größerer Innovationsfreude. So kritisierte er den R420, weil dieser Chip nicht gerade den Fortschritt beschleunigt.
Ich kann mich aber genau so gut an einen Artikel erinnern, in denen er mit dem Markteting bzgl. des Hardware-TNL mit NV hart ins Gericht ging....

Wo käme man eigentlich hin, wenn man seine Sympathien nicht ändern könnte?

Aber alles egal. Nur ist es falsch, dass seine Artikel stets den Tenor hätten, den Stefan Payne genannt hat. Ist imho Blödsinn.

Winter[Raven]
2005-07-16, 22:28:15
Man sollte bei 3DCenter versuchen die großen HW Seiten unter einen Dach zubringen und ein Artikel zuverfassen der mit Nvidia als auch ATi abrechnet.
Irgenwo muss es ein Ende geben, den so kann es in der Zukunft einfach nicht weiter gehen... :(

Ich würdesogar drauf Tippen, dass PCGH mitmachen würde :smile:

//Edit:

In dem Sinne hat der Kunde gar keine Wahl mehr bei der Entscheidung ob er mit ohne Optimierungen Spielen will, man wurde einfach seiner Rechte beraubt.

Piffan
2005-07-16, 22:41:42
']Man sollte bei 3DCenter versuchen die großen HW Seiten unter einen Dach zubringen und ein Artikel zuverfassen der mit Nvidia als auch ATi abrechnet.
Irgenwo muss es ein Ende geben, den so kann es in der Zukunft einfach nicht weiter gehen... :(

Ich würdesogar drauf Tippen, dass PCGH mitmachen würde :smile:

//Edit:

In dem Sinne hat der Kunde gar keine Wahl mehr bei der Entscheidung ob er mit ohne Optimierungen Spielen will, man wurde einfach seiner Rechte beraubt.

Rechte haben wir Kunden gar keine. Wir sind nicht die Könige, wir sind die Ärsche, die am besten die Knete ohne Aufforderung rüberschieben sollten....

Gäbe es noch das NV- Quasi-Monopl, dann würden wir den G FX als den Meilenstein feiern und die Leistung der Grakas wäre noch auf dem Niveau der 128bit- Speicheranbinung.
Dank der gewaltigen wirtschaftlichen Macht von Ati (Ati war lange vor NV der Platzhirsch unter den Graka- Herkstellern, leider war für uns Spieler lange nichts drin bei den Ati- Produkten) konnte man aber technologisch gewaltig aufholen und NV mächtig ins Kontor schießen.
Nun ist irgendwo unter Berücksichtigung aller Vorzüge und Nachteile ein Patt, schnell sind beide und beide drücken den Kunden Kröten aufs Auge.

Vielleicht kann man als Arsch Kunde wieder zum König Kunde werden, wenn man einsieht, dass derzeit ne Aufrüstung unter den jetzigen Bedingungen zumindest bei NV nicht in Frage kommt. So attraktiv ich die 7800 wegen des Transparenz-AA fand, so genervt bin ich momentan wegen der offensichtlichen Ver********. :mad:

aths
2005-07-17, 08:46:30
Sehr gut, dass Du dir die Arbeit gemacht hast. Genau das sind diese typischen aths´schen Fanboypostings, wie man sie seit Jahren lesen kann.Sehr gut, dass es dir zu viel Mühe macht, jene Dinge im Kontext im Originalthread zu lesen.

Aber ist schon klar, wenn ich behaupte aths Postings haben immer ein Tenor pro-NV und Anti-ATi, dann spinn ich mir das nur so zurecht. Die Frage ist doch für wie blöd uns aths hält oder er hat wirklich keinen Zugang zu sich seiner eigenen Person?Wenn du behauptest, dass meine Postings 'immer einen Tenor pro-NV und anti-ATI haben', zeugt das entweder von schlechter Kenntnis meiner Postings oder einer bewusst gefilterten Lesart.

Ich kann ATI nur raten 3DC links liegen zu lassen mit Review-Hardware und Infos zur Technik, weil hier schlicht ein gewichtiges Crewmitglied völlig biased ist.Ich kann ATI nur raten, beim R520 uns von 3dc noch mehr Infos zur Verfügung zu stellen, als beim R420 (wo es aufgrund der spärlichen Neuerungen allerdings auch kaum möglich war.) Denn ohne Infos kann ich keine Artikel schreiben.

aths
2005-07-17, 08:47:37
[COLOR="#000088"] Meinst du ich lege nach dem was du dir hier wieder leistest noch wert darauf was du von mir denkst? Meinst du ich bin der einzige, der sich angesichts deines Auftritts in einer Extra-Farbe seine Gedanken macht?

Gerade im Zusammenhang mit deiner Sig stellt sich die Frage, ob du nicht bewusst ironisch auftrittst.

Insbesondere wenn es darum geht, sich was zu leisten – davon, im P3D-Thread viel durcheinanderzuwürfeln mal abgesehen erinnere ich mich an Postings von dir im Thread zu meinem G70-Techartikel, nämlich dies http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3189353#post3189353 und das http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3189395#post3189395. Exxtreme, nicht gerade für ATI-Feindlichkeit bekannt, sieht das zum Beispiel anders. Da haste dich im jenem Thread allerdings dünne gemacht. Dafür darf ich dich hier wieder mit nicht minder durchdachten Postings erleben.

In diesem Zusammenhang frage ich mich wirklich, ob du nur meine Zeit verschwenden willst, oder ob man von dir auch eine konsistente Argumentation erwarten kann – und ob du jemals, wie wir anderen auch, deine Postings in der Standardfarbe schreibst.

aths
2005-07-17, 08:57:44
ahts hingegen kenne ich seit 3Dconcept.ch. Der hat "seine" Firma schon öfter gewechselt und so manch launischen Post oder Artikel verzapft.Nachdem ich mein 3dfx-Fanboytum aufgeben musste, habe ich keine "meine" Firma.

Was genau willst Du erreichen? Soll aths jetzt schweigen, willst Du ihm ein Redeverbot verordnen, weil er früher nicht schon sauer auf NV war?Ich denke nicht, dass Leonidas in solchen Fragen einen SP als Berater hinzuziehen würde. Wahrscheinlich will SP eher, dass ich in mich gehe und er wenigstens in dieser Zeit nichts lesen muss was ihm nicht passt. Wäre meine Ansicht so leicht zu widerlegen, wäre ich im Forum mit Leichtigkeit als Spinner zu entlarven. Ich sehe hier 2, 3 Regs und ebensoviele Gäste, die sich gegenseitig auf die Schulter klopfen und Mut zusprechen. Und so rummeckern wie die Opas der Muppet-Show. Denen kann man's auch nicht recht machen.

Nett auch, wie aus einem anderen (!) Forum Aussagen zitiert werden :) ohne wenigstens aus Gründen des Anstandes den passenden Link mitzugeben.

Ich habe schon überlegt ob es nicht das beste wäre, solche Postings komplett zu ignorieren.

aths
2005-07-17, 09:00:52
Was zu beweisen wäre..
Wie gesagt, ich sehe doch noch ein geringes Flimmern oder sagen wir mal Rauschen.Das muss nicht zwangsläufig durch Undersampling entstehen. Wie zeckis Moiré-Monster schön zeigt, gibt es Texturen die auch bei reiner trilinearen Filterung schrecklich flimmern.
Ich habe keine Lust jemandem einen reinzuwürgen, weil er sich in der Vergangenheit mal vertan hat. :)Nee. Butter bei die Fische: Wenn ich irgendwo gesagt habe, dass NV40 Q mit dem Radeon-Standard vergleichbar wäre, muss ich mir in diesem Punkt mangelnde Sorgfalt vorwerfen lassen.
Mir liegt viel daran, dass die Problematik publik wird, damit wir wieder besseres AF haben, denn ich bin da wirklich sehr empfindlich. :(Ich will nicht nur flimmerfreies, sondern auch "Vollwinkel"-AF.

aths
2005-07-17, 09:05:18
Ich glaube aths kann sich sehr wohl alleine verteidigen und braucht insbesondere von dir keine Unterstützung,Ich glaube inzwischen, dass ich mich gar nicht mehr verteidigen sollte. Weil ich gar nicht (ernstzunehmend) angegriffen wurde.

Offensichtlich stimmst du zu, dass jeder das Recht hat, mich anzugreifen. Warum versuchst du andere davon zu überzeugen dass sie mich nicht unterstützen sollten? "Gleiches Recht für alle" gilt hier nicht?

Doch ehrlich gesagt fühle ich mich nicht besonders wohl, hier ins Zentrum einer Diskussion zu rücken womit ja auch vom Thema abgelenkt wird: Das AF im G70 ist, ob nun durch Undersampling oder durch eine falsche Berechnung der Gewichte, flimmerig. Darum sollte es gehen. Wer sich über die Artikel eines 3dc-Crewmitgliedes beschweren will kann doch einen Thread in "über die Webseite und das Forum" aufmachen.

aths
2005-07-17, 09:18:42
Dass NV mit dem Brilinearen Filter gewissermaßen das Äquivalent zur Winkelabhängigkeit geschaffen hat, nervt sicher. Aber richtig dicke kommt es jetzt, dass man zur übernommenen Winkelabhängigkeit nun auch noch dem Spieler Flimmern aufs Auge drückt.Der Punkt den Demirug angesprochen hat ist recht interessant, allerdings musste ich mir das erst von Xmas erklären lassen damit ich das wirklich verstehen konnte. Vor einigen Monaten habe ich mir selbst überlegt, was man am AF optimieren könnte (ohne Qualität zu opfern, natürlich) und eine ähnliche Idee, die ich nur anders realisiert hätte (nämlich mit einem Kernel von 16 Texeln den man auch zu einem 2x8-Kernel verschalten kann ... sowas ist aber sehr aufwändig.)

Beim bilinearen Filtern werden einfach 4 Texel aus einem 2x2-Block gewichtet zusammengefiltert. Beim AF sieht die Fläche, die zu filtern ist, anders aus. Wahrscheinlich approximiert die Hardware auf ein Parallelogramm. Xmas überlegte nun folgendes interessante Beispiel: Bei einer Fläche von 4:1 Texeln kommt normalerweise 4x AF zum Einsatz. (Auch dann, wenn 16x AF aktiviert ist.) Denn bei einem 4:1-Verhältnis reicht 4x AF für volle Qualität. Nun kann diese Fläche so liegen, dass nur 5x2 Texel insgesamt berührt sind. Um diese 10 Texel einzulesen, reichen drei bilineare Samples aus, denn pro bi-Sample werden ja 4 Texel gelesen. Werden diese Samples untereinander korrekt gewichtet, spart man ein Bi-Sample, ohne zu unterfiltern – toll, nicht wahr? Das geht, weil sich oft Randtexel einzelner bi-Samples überlappen.

Demirug vermutet, soweit ich das sehe, nun, dass diese Gewichtung eben nicht so klappt, wie gedacht. Damit kann es einen Effekt geben, der wie Unterfilterung aussieht. Wenn NV das reparieren will, steht die Frage: Kann der G70 ein AF, dass im Beispiel die herkömmlichen 4 bi-Samples verrechnet werden? Nach Demirugs Untersuchungen halte ich es für etwas unwahrscheinlicher, dass NV den G70 per Treiber flimmerfrei machen wird. Aber Demirug kann sich hierzu sicherlich qualifizierter äußern.

aths
2005-07-17, 09:32:39
Ich denke das aths auch eher, sagen wir zu Nvidia geneigt ist. Das sag ich aus meiner Erfahrung. Gründe:

aTuner lief, wenn ich mich richtig erinnere, eine lange Zeit, gar nicht auf ATI Karten. Nun, gut möglich, dass es da irgendwie schwieriger ist was zu programmieren. Ich kenn mich mit der Materie nicht aus.Versuch mal eine Software zu testen, ohne die HW zu haben. Erst als der aTuner mit HW-Erkennung etc. lief, machte ich ihn dann Radeon-tauglich. Iirc, auf einer Radeon 9000, ein Geschenk von Leonidas. Als es darum ging, eine GF-Karte im System zu erkennen bekam ich Unterstützung von Kennung1 (Programmierer des GeForce-Tweakers), und bei der Radeon wollte ich eine ebenso solide Erkennung vornehmen. Der ATI-Treiber macht sich im System aber ganz anders kenntlich, als der Detonator.

Exxtremes rTool ist bis heute nur für Radeon-Karten da. Ist er deshalb, sagen wir zu ATI geneigt?

Von zeckensack gibts einen Glidewrapper. Ist er deshalb zu 3dfx geneigt?

Ich hab in Erinnerung, dass er die GeForce FX Reihe bis aufs äußerste verteidigt, wenn jemand diese, imo absolut zurecht, kritisiert.Wenn ich Technik bewerte interessiert mich nicht, welcher Name draufsteht. Im Zuge der Radeon 8500 war es ein Krampf im Forum, gewissen Usern zu vermitteln dass Pixelshader 1.4 eine tolle Sache ist. Und da war es mir wurscht, ob PS 1.4 für Spiele unerlässlich werden, oder bedeutungslos bleiben würde. Wenn jemand beim R300 nur die Geschwindigkeit sieht, und bei der FX nicht die Features (oder die AF-Qualität) so erlaube ich mir, einzuschreiten. Für mich zählt eben nicht nur FarCry-Performance.

Wäre die FX im Forum hochgelobt und der R300 links liegen gelassen worden, hätte ich vor allem die Vorzüge des R300 dargestellt. Bevor sich die Erkenntnis endlich langsam durchsetzte, dass 4x AA auf dem R300 dem 4x AA der damaligen Karten deutlich überlegen ist, habe ich penetrant darauf aufmerksam gemacht. Die Radeon 9600 bekam von mir ein wohlwollendes Mini-Review (im Forum.) Beim R420 hatte ich mich bemüht, alles neue was diese Karte mitsich bringt, als positiv darzustellen (in einem 3dc-Artikel.) Im Bumpmapping-Artikel wird als Aufhänger ein von ATI entwickeltes Feature genutzt. Obwohl ich ATIs Angabe von 4:1-Komprimierung kritisiere, wird die Nützlichkeit der 3Dc-Komprimierung natürlich nicht abgestritten, sondern hervorgehoben. Dazu gibts kein Marketing-Paper-Bullshit, sondern in mehreren Tagen erarbeitetes Wissen über Dot3-Bumpmapping (und Texturkomprimierung) allgemein, inklusive Bilder an denen ich stundenlang gezeichnet habe. Darauf gabs erstaunlich wenig Resonanz.

aths
2005-07-17, 09:39:06
Willst du den Job des Anklägers?

An der Stelle ging es um die Anklage das NV HQ unterfiltert.Auch wenn NV die korrekte Zahl an Texeln einliest, und auch aus der korrekten Filterfläche, diese aber insofern falsch verrechnet, dass es flimmert, wurde doch offensichtlich das Nyquist-Shannon-Abtasttheorem verletzt. Oder nicht?

dargo
2005-07-17, 09:50:19
Unsinn.

NV40, FW77.72, HQ, 2xTri-AF, LOD-Bias 0.0
http://img338.imageshack.us/img338/1840/u9yewnv40hq2xtriaf0oc.th.jpg (http://img338.imageshack.us/my.php?image=u9yewnv40hq2xtriaf0oc.jpg)

NV40, FW77.72, HQ, 2xTri-AF, LOD-Bias +0.25
http://img338.imageshack.us/img338/4618/u9yewnv40hq2xtriaflod0255mc.th.jpg (http://img338.imageshack.us/my.php?image=u9yewnv40hq2xtriaflod0255mc.jpg)

RV350, Cat 5.6, AI off, 2xTri-AF, LOD-Bias 0.0
http://img338.imageshack.us/img338/894/u9yewrv350aioff2xtriaf3fo.th.jpg (http://img338.imageshack.us/my.php?image=u9yewrv350aioff2xtriaf3fo.jpg)

RV350, Cat 5.6, AI off, 2xTri-AF, LOD-Bias +0.25
http://img338.imageshack.us/img338/9320/u9yewrv350aioff2xtriaflod0250w.th.jpg (http://img338.imageshack.us/my.php?image=u9yewrv350aioff2xtriaflod0250w.jpg)

Diesen Stuss möchte ich ab heute bitte nie wieder lesen müssen, wenn's geht.
Mal ne blöde Frage - kannst du mir verraten wie ich bei einer ATI (X800XL) LOD-Bias ändern kann ?
Ich weiß es wirklich nicht. :redface:

Diskutator
2005-07-17, 10:27:49
Guten Morgen!

Was für ein schöner Sonntag ;)

Zum Thema: Könnte jemand bitte so freundlich sein und diese These: NV betrügt! bitte mal beweisen. Diese Screenshots zeigen mir nix!

Ich schlage deshalb einen BQ-Kontest vor!

Warum geht nicht 3DCenter auf ATI & NV zu, beide offiz. EINLADEN und dann diesen Vergleich der BQ im Detail mit einem Fachpublikum bewerten und offen diskutieren.

Das alles hat hier keinen Sinn und tut beiden IHVs nicht gut!

Beide sollten das RECHT haben sich zu äussern!

Wer weiss!!!! Unser aller Ziel muss eine bessere BQ sein, wir alle wissen doch, dass sich 2 Grafikkarten in Ihrer Performance ab einem bestimmten Wert (FPS) nicht mehr in der Performance (SICHTBAR) unterscheiden!

Das Thema P-Länge muss beendet werden!

Gast
2005-07-17, 10:33:07
Zum Thema: Könnte jemand bitte so freundlich sein und diese These: NV betrügt! bitte mal beweisen. Diese Screenshots zeigen mir nix!

Das Flimmern wirst du auf Screenshots auch gar nicht richtig sehen können. Man kann nur vermuten, dass es flimmert.

Da muss man sich schon Videos ansehen, wie z.B. diese:

http://www.abu-el-mot.de/rs/bf.avi
http://www.abu-el-mot.de/rs/fl.avi

Siehst du das flimmern?
Beim zweiten Video flimmert einfach das ganze Bild. Und was auf der Raumstation abgeht... :eek:

Diskutator
2005-07-17, 10:52:35
Siehst du das flimmern?
Beim zweiten Video flimmert einfach das ganze Bild. Und was auf der Raumstation abgeht... :eek:

Hallo,

ja ich sehe das da was flimmert! Es könnte aber auch an der Einstellung liegen von "*.*" liegen!

Das muss seriös geklärt werden!
Deshalb erneut mein Aufruf an die Redaktion von 3DCenter hier beide IHVs einzuladen!

Ich glaube das 3DCenter genug POWEr hat um das auch durchzusetzen! Immerhin kennt 3DCenter.de fast jeder den ich kenne aus der IT!

Demirug
2005-07-17, 10:56:10
Auch wenn NV die korrekte Zahl an Texeln einliest, und auch aus der korrekten Filterfläche, diese aber insofern falsch verrechnet, dass es flimmert, wurde doch offensichtlich das Nyquist-Shannon-Abtasttheorem verletzt. Oder nicht?

Nein. Streng genommen dürfte man das Nyquist-Shannon-Abtasttheorem (btw. das heisst inzwischen eigentlich WKS-Sampling-Theorem) sowieso nicht auf einen GPU Texturefilter anwenden. Das WKS-Sampling-Theorem befasst sich mit der Digitalisierung von Analogenen Signalen. Oder genauer gesagt mit der Abtastfrequenz die erforderlich ist um das Ausgangsignal zu rekonstruieren. Aber das weißt du ja sowieso alles.

Der Texturefilter hat ja die Aufgabe das "Ursprungssignal" zu rekonstruieren. Da es sich dabei aber in der Regel um keie zuvor digitalisiertes Signal handelt sondern es direkt in digitaler Form erstellt wurde bekommt man neue Probleme. Deswegen kann man ja Texture bauen die irgendwie immer flimmern.

Alles in allem ist ein Texturefilter eher ein Problem aus dem Bereich der Polynominterpolation. Da wir aber aus Performancegründen keine Lagrange Interpolation über den "unendlichen"* Bereich machen können müssen Näherungen her und damit verlassen wir den Bereich der universell gültigen theoretischen Mathematik entgültig und müssen auf praktisch einsetzbare Näherungen zurück greifen.

* Texturen sind wirklich unendlich auch wenn eigentlich eine Größe in Texel haben. Durch den Adressmode wird aber vorgegeben wie zu verfahren ist wenn die Adressen ausserhalb des Bereichs 0-1 liegen. Für die Lagrange Interpolation muss das aber berücksichtigt werden.

aths
2005-07-17, 11:04:10
Nein. Streng genommen dürfte man das Nyquist-Shannon-Abtasttheorem (btw. das heisst inzwischen eigentlich WKS-Sampling-Theorem) sowieso nicht auf einen GPU Texturefilter anwenden. Das WKS-Sampling-Theorem befasst sich mit der Digitalisierung von Analogenen Signalen. Oder genauer gesagt mit der Abtastfrequenz die erforderlich ist um das Ausgangsignal zu rekonstruieren. Aber das weißt du ja sowieso alles.Genau. Deshalb zweifle ich auch die Sinnhaftigkeit des bikubischen Filters an, jener soll ja den Spalt-Rekonstruktionsfilter besser nachbilden als lineare Filterung. Aber was hat der Spaltfilter bei Texturen zu suchen ...

Das Theorem bezieht sich auf Zerlegung in Sinus-Wellen, und dass Fourieranalyse bei Bildern suboptimal ist, zeigt schon das JPEG-Format.

Der aktuelle übliche Filter arbeitet oft nicht so gut wie man lt. Nyquist-Shannon-Abtasttheorem erwarten würde. Wenn jenes Theorem verletzt wird, funktioniert Texturfilterung aber auf gar keinen Fall mehr korrekt.

Man rekonstruiert kein analoges Signal wie im Audiobereich, sondern sampelt für Pixelflächen. Man muss versuchen zu erreichen, dass die Fläche den Mittelwert von dem wiedergibt, was das "analoge" Signal (sofern man die Textur als digitalisiertes analoges Signal sieht) das durch das Pixel geht, ergeben würde.

Diese Mittelwertbildung ist natürlich nicht unproblematisch, da die Sampleposition mitentscheidet, wie der Mittelwert konkret aussieht. Das kann bei "bösen" Texturen in Flimmern resultieren. Was aber noch schlimmer gemacht wird da meines Wissens nicht für sRGB korrekt gerechnet und viele Monis nicht für sRGB eingestellt sind. Würde wenigstens die Flächenhelligkeit gleich bleiben, wäre das sichtbare Flimmern geringer.
Der Texturefilter hat ja die Aufgabe das "Ursprungssignal" zu rekonstruieren. Da es sich dabei aber in der Regel um keie zuvor digitalisiertes Signal handelt sondern es direkt in digitaler Form erstellt wurde bekommt man neue Probleme. Deswegen kann man ja Texture bauen die irgendwie immer flimmern.

Alles in allem ist ein Texturefilter eher ein Problem aus dem Bereich der Polynominterpolation. Da wir aber aus Performancegründen keine Lagrange Interpolation über den "unendlichen"* Bereich machen können müssen Näherungen her und damit verlassen wir den Bereich der universell gültigen theoretischen Mathematik entgültig und müssen auf praktisch einsetzbare Näherungen zurück greifen.

* Texturen sind wirklich unendlich auch wenn eigentlich eine Größe in Texel haben. Durch den Adressmode wird aber vorgegeben wie zu verfahren ist wenn die Adressen ausserhalb des Bereichs 0-1 liegen. Für die Lagrange Interpolation muss das aber berücksichtigt werden.Das beste wäre (zumindest bei Verkleinerung) imo, das Pixel korrekt in den Texture Space zu transformieren und dann alle überdeckten Texel entsprechend ihrer Fläche zu gewichten. Warum du jetzt interpolieren willst (ob nun nach Lagrange oder mit anderen Verfahren) verstehe ich nicht – siehe Spalt-Filter. Wenn man die Texel als Integral einer Farbinformation sieht (zumindest bei Fototexturen sollte man das) haben doch die Informationen weiter außen gar nichts mit dem aktuellen Farbwert zu tun.

Demirug
2005-07-17, 12:10:42
aths, Solange nicht eine völlig andere Art von Texturefilter zum Einsatz kommt hat das WKS-Sampling-Theorem überhaupt keinen praktischen Wert. Bis auf wenige Ausnahmen enthalten gebräuchliche Texturen einen Frequenzmix der es sowieso erforderlich macht das jedes Texel berücksichtigt werden muss. Das ganze ist erst dann wieder intersant wenn die Texturen in Subblöcke zerlegt werden und pro Block die Frequenzbreite hinerlegt ist. Nur braucht man dann auch dahinter eine andere Logik zum Interpolieren.

Die Rekonstruktion über den unendlichen Texturespace ist wie aufgeführt eine rein Theoretische Sache. Je weiter die Pixel von Ausgangspunkt entfernt sind desto geringer die Gewichtung Deswegen werden sie vom praktischen Standpunkt ja auch schnell uninteresant. Erschwerend kommt ja noch hinzu das wir keinen Ausgangspunkt sondern eine Ausgangsfläche haben.

Den Pixel in den Texturespace zu transformieren ist IMHO der falsche weg. Man muss vielmehr den Texelspace in den Pixelspace bringen. Nimmt man den anderen Weg gehen Gewichtungsinformationen verloren. Allerdings machen die ganzen Verzerungseffekte die dabei wirken eine praktische Umsetzung sehr kompliziert.

Das ist aber nun alles Theorie und trägt nicht dazu bei die Frage nach einer "fehlerhaften" Filterung beim NV40/G70 zu beantworten.

Als erstes muß der Komplex des Filterns wohl in zwei Subprobleme zerlegt werden.

- Auswahl der Texel
- Verrechnen der Texel.

Bei der Auswahl können wir wohl bis auf weiteres davon ausgehen das die Textur unterbrechungsfrei und vollständig ausgelesen werden muss. Optimierungen welche hier einzelne Texel übergehen sind hoch kritisch allerdings nicht zwingend falsch. Solange aber kein Nachweiss geführt wurde das die Anzahl der Texel korrekt dem Inhalt der texture angepasst wurde würde ich die Sache als Fehlerhaft ansehen.

Beim Verrechnen sollte ja jeder Pixel entsprechende seinem Anteil am Pixel einbezogen werden. Fehler dabei können sich wie schon aufgeführt genauso oder gar noch schlimmer auswirken wie das Weglassen von Texel. Das derzeitige oft gebräuchliche Verfahren entlang einer Linie Bi Samples zu nehmen ist IMHO nicht das Optimum.

dargo
2005-07-17, 12:11:20
Mal ne blöde Frage - kannst du mir verraten wie ich bei einer ATI (X800XL) LOD-Bias ändern kann ?
Ich weiß es wirklich nicht. :redface:
Wo sind denn die ganzen 3D-Gurus ?
Kann mir niemand die Frage beantworten :confused:

MadManniMan
2005-07-17, 12:20:36
Hallo,

(...)


Wie soll man Dich ernst nehmen, wenn Du niemanden ernst nimmst?

Was brauchts denn noch? Eine Live-Vorführung bei Dir zu haus? Oder anders: hast Du die Szene bei Dir schonmal live vergleichen können?

Seraf
2005-07-17, 12:28:15
Wo sind denn die ganzen 3D-Gurus ?
Kann mir niemand die Frage beantworten :confused:

Mit den ATI Traytools geht es in ganzzahligen Schritten. Im Controlpanel über Mipmap Detailebene.

Ich denke aber mal das Zeckensack das über die ini des Spieles eingestellt hat?!

zeckensack
2005-07-17, 12:33:30
Mal ne blöde Frage - kannst du mir verraten wie ich bei einer ATI (X800XL) LOD-Bias ändern kann ?
Ich weiß es wirklich nicht. :redface:Du kannst es nicht frei einstellen. Im CP gibt's eine Option "Mipmap Detailebene". Je schlechter man das einstellt, desto größer wird der LOD-Bias. Negativen LOD-Bias kann man dort nicht einstellen. Außerdem ist nicht ersichtlich, welche Einstellung wieviel LOD-Bias bewirkt.

Für die U9-Screenshots habe ich mich näher an die Quelle begeben ... Applikationen können den LOD-Bias direkt steuern. Und in zB U9 kann ich den LOD-Bias direkt steuern :redface:

Eigentlich könntest du das Experiment selbst nachvollziehen, indem du ein Spiel hernimmst, wo du den LOD-Bias selbst genau einstellen kannst. ZB die komplette Unreal-Serie. Kannst du aber gleich wieder knicken, weil zB für UT2k3/2k4 die Treiber ganz massiv, ährm, "speziell angepasst" sind. Dort bekommt man nicht wirklich das was man einstellt.

dargo
2005-07-17, 12:39:08
@zeckensack und Seraf
Danke euch beiden. :)

@zeckensack
Bei U9, machst du das über die Ini Datei ?
Ist das bei jedem Spiel möglich ?

aths
2005-07-17, 12:45:16
aths, Solange nicht eine völlig andere Art von Texturefilter zum Einsatz kommt hat das WKS-Sampling-Theorem überhaupt keinen praktischen Wert. Bis auf wenige Ausnahmen enthalten gebräuchliche Texturen einen Frequenzmix der es sowieso erforderlich macht das jedes Texel berücksichtigt werden muss. Das ganze ist erst dann wieder intersant wenn die Texturen in Subblöcke zerlegt werden und pro Block die Frequenzbreite hinerlegt ist. Nur braucht man dann auch dahinter eine andere Logik zum Interpolieren.

Die Rekonstruktion über den unendlichen Texturespace ist wie aufgeführt eine rein Theoretische Sache. Je weiter die Pixel von Ausgangspunkt entfernt sind desto geringer die Gewichtung Deswegen werden sie vom praktischen Standpunkt ja auch schnell uninteresant. Erschwerend kommt ja noch hinzu das wir keinen Ausgangspunkt sondern eine Ausgangsfläche haben.

Den Pixel in den Texturespace zu transformieren ist IMHO der falsche weg. Man muss vielmehr den Texelspace in den Pixelspace bringen. Nimmt man den anderen Weg gehen Gewichtungsinformationen verloren. Allerdings machen die ganzen Verzerungseffekte die dabei wirken eine praktische Umsetzung sehr kompliziert.

Das ist aber nun alles Theorie und trägt nicht dazu bei die Frage nach einer "fehlerhaften" Filterung beim NV40/G70 zu beantworten.

Als erstes muß der Komplex des Filterns wohl in zwei Subprobleme zerlegt werden.

- Auswahl der Texel
- Verrechnen der Texel.

Bei der Auswahl können wir wohl bis auf weiteres davon ausgehen das die Textur unterbrechungsfrei und vollständig ausgelesen werden muss. Optimierungen welche hier einzelne Texel übergehen sind hoch kritisch allerdings nicht zwingend falsch. Solange aber kein Nachweiss geführt wurde das die Anzahl der Texel korrekt dem Inhalt der texture angepasst wurde würde ich die Sache als Fehlerhaft ansehen.

Beim Verrechnen sollte ja jeder Pixel entsprechende seinem Anteil am Pixel einbezogen werden. Fehler dabei können sich wie schon aufgeführt genauso oder gar noch schlimmer auswirken wie das Weglassen von Texel. Das derzeitige oft gebräuchliche Verfahren entlang einer Linie Bi Samples zu nehmen ist IMHO nicht das Optimum.Ehrlich gesagt kann ich deinem Posting nicht ganz folgen. Ich meinte, wenn bekannt ist, welche MIP für welches LOD abgetastet wird, lässt sich anhand Shannons (und Nyquists) Forderung der größtmögliche Sampleabstand bestimmen, der noch nicht zu Aliasing führt. Man kann das gemippe natürlich schon als sehr grobe Vereinfachung sehen, damit man pro Sample (bi-Sample) immer mit 4 Texeln auskommt.

Ich bin sogar mehr und mehr gegen MIP-Mapping, weil man dieses 2-er Alignment schafft. Man bräuchte eigentlich mindestens 4 MIPs pro Stufe, also immer noch mit einem 1-er Offset pro Achse. Aber selbst das wäre nur eine Approximierung. Ich habe schon mal überlegt, ob man Bi-Samples aus 3x3-Texeln und der jeweils höheren MIP samplen sollte, aber auch hier wird das Problem nur minimiert, jedoch nicht behoben. Letzlich bräuchte man ein Verfahren was immer aus der Basemap sampelt. Das kann man natürlich schon wegen der Bandbreite vergessen.

In vielen Situationen ist das Aufsummieren á la MIP-Map ja auch gut genug (außer für die Rand-Texel) so dass man beim Verschieben um eine MIP, also beim Filtern aus der jeweils höheren MIP, das Problem schon mal etwas abschwächen kann – sofern nicht á la 4x4 fast tri nur das ganz normale trilineare Sampling nachgestellt wird. Man braucht einen 5x5-Kernel (auf einer MIP) oder zwei Durchänge mit einem 3x3-Kernel (auf jeweils einer anderen MIP.)


Eine Rekonstruktion über die gesamte Textur halte ich wie gesagt für doof, nicht zuletzt aus philosophischen Gründen. Wenn ich ein Foto als Textur nehme, sehe ich nicht ein, warum ein Pixel mit einem Pixel 5 Pixel weiter links irgendetwas zu tun haben sollte. Das kann zwar sein, muss es aber nicht. Solche Fragen spielen bei verlustbehafteter Datenkomprimierung eine Rolle. Bei einem Rekonstruktionsfilter, der vergrößert, sollten imo nur die direkt angrenzenden Texel eine Rolle spielen.

Ein bikubischer Filter, der von einigen (offensichtlich nicht von dir) für Vergrößerungen gefordert wird, bringt doch nur noch eine Art Schärfefilter-Effekt mit, aber geht – imo – mit den vorhandenen Informationen nicht besser um als der bilineare.


Mit dem Pixel in den Texturespace zu transformieren meinte ich, in Näherung die vier Eckpunkte zu transformieren so dass man ein Viereck auf der Textur hat. Die Seitenkanten sind zwar in Wahrheit gebogen, aber das muss man (hoffe ich) für gute Filterung nicht unbedingt berücksichtigen. Welche Gewichtungsinformation geht dabei verloren? Wenn ich keinen Denkfehler habe, müsste das Verfahren (sofern die gebogenen Seitenkanten berücksichtigt würden) ein korrektes Farbintegral pro Pixel liefern. Dabei sehe ich das Textur-Resampling allerdings als 2D-Rechnung. Die perspektivische Korrektur liefert nur die korrekten Positionen. Eigentlich ist das falsch, das Polygon 2D-mäßig zu füllen, aber es ist einfacher und dürfte nur unwesentlich schlechter sein.

Du schreibst "Das derzeitige oft gebräuchliche Verfahren entlang einer Linie Bi Samples zu nehmen ist IMHO nicht das Optimum" und da stimme ich natürlich zu. Es ist schon schwierig genug, eine gute AF-Linie zu bestimmen, und der A-gefilterte Kernel ist ja auch nur eine grobe Näherung des echten Kernels. Solange wir bei bi-TMUs sind, wird man natürlich andere Filter auch auf bi-Samples abbilden wollen, unter diesen Voraussetzungen halte ich die Herangehensweise, eine Line of Anisotropy zu bestimmen und so viele Samples, wie das u:v-LOD-Verhältnis (aufgerundet) ergibt, auf dieser Line zu platzieren, für gut. Die Frage ist, ob man die Randsamples geringer wichten sollte. Das kann bei nicht ganzzahligen u:v-Verhälnissen Sinn ergeben. Alternativ dürfte die Platzierung der Samples etwas schwieriger sein.

Ich weiß nicht, ob wir aneinander vorbei reden – meine Betrachtungen zum Texturfilter gehen davon aus, dass man herkömmliche bi-Samples oder 4x4-fast-tri-Samples nimmt. Würde man "Lehrbuch"-Filterung nehmen, also erst mal ne korrekte LOD-Formel mit SQRT, und herkömmliches AF, würde das Filterergebnis imo schon recht passabel aussehen. Natürlich ginge es besser – sogar bei Verwendung weniger Samples. Aber so wie es heute aussieht wäre ich mit traditioneller Filterung schon zufrieden. Wenn man sich ansieht, wie bei nur 8 Bit auch noch geschludert wird (Anspielung auf fehlenden soliden sRGB-Support) kann auch der beste Filter aus solchen Texturen keine Wunderdinge erschaffen.

aths
2005-07-17, 12:58:15
Warum geht nicht 3DCenter auf ATI & NV zu, beide offiz. EINLADEN und dann diesen Vergleich der BQ im Detail mit einem Fachpublikum bewerten und offen diskutieren.NV meinte, der G70 erfülle die Spec. Zu mehr Diskussion konnte ich keine Bereitschaft erkennen. An die Leute, die sowas entscheiden (wo genau Qualitätskompromisse gemacht werden) komme ich nicht ran. Und die wollen uns ja nicht den bestmöglichen Chip verkaufen, sondern bestmöglichen Profit einstreichen.

Wenn ich NV- oder ATI-Pressekontaktleute reden höre, fällt mir ein Song von Prince ein: "Everybody wants to sell what's already been sold, everybody wants to tell what's already been told." Die PR-Mannschaft kann dafür nichts. Die muss uns verkaufen was sie vorgesetzt bekommen. Da wird schon mal die OpenGL-Formel für trilineare Filterung uminterpretiert (mit einem Gesicht als ob es eine tolle Idee sei, Qualität zu opfern um ein bissel Geschwindigkeit zu gewinnen.) Einfluss haben diese Leute nicht, sie sind nur ausführende Organe. Zwar leiten die durchaus mal Anregungen weiter, aber wer von den Entscheidern gibt zu, dass er sein Gehalt für Fehlentscheidungen bekam?

Sonst überall: Fortschritte. Mehr Leistung, mehr Präzision. Nur bei den Texturen wird Qualität geopfert, wo es nur geht. In der Politik der kleinen Schritte lassen sich das viele auch noch bieten. Solange wir nur bi-TMUs habe, muss hochwertige trilineare anisotrope Filterung brutal Geschwindigkeit kosten. Das ist aber die beste Möglichkeit, Leistung in sichtbare Qualität umzuwandeln.

Man kann gegenüber traditionellem guten AF sparen: Bei den tri-Samples (weniger reichen) und bei den bi-Samples (weniger reichen) wenn die Gewichtung stimmt. Solche Optimierungen sind – wenn denn die Gewichtung und Verrechnung korrekt ist – natürlich nur zu begrüßen. Beim G70 klappt es offensichtlich nicht.

StefanV
2005-07-17, 13:00:09
NV meinte, der G70 erfülle die Spec. Zu mehr Diskussion konnte ich keine Bereitschaft erkennen
Der Volari müsst sich auch an die Spec halten :devil: