PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidias Marketingaussagen bezüglich Antialiasing der GFFX...


Seiten : 1 [2]

nggalai
2003-02-05, 19:00:48
Hi ram,
Originally posted by ram
Eine noch grössere Frechheit ist es, wenn man solche oder ähnliche Lügen nicht nur in irgendwelchem Propaganda-Matrial ertragen muss, sondern wenn sie einem direkt von Productmanagern und Marketing Direktoren ins Gesicht gesagt werden. Auf mich wirkt sowas kontraproduktiv, diese Leute werfen ein schlechtes Licht auf die entsprechende Firma, wohingegen ehrliche PMs, auch wenn sie auch "negatives" zugeben, bei mir einen positiven Eindruck der Firma hinterlassen. Sowas von "full ACK" dass es schon fast nicht mehr lustig ist. ;) Ich kann mich noch erinnern ("früher, wo alles besser war"), als man von PMs und Entwicklern noch klare Antworten und gute Präsentationen erhielt.

Aber nur schon die letzten paar Monate scheint da sowas wie ein Paradigmenwechsel stattgefunden zu haben. Nicht nur sind die verschickten Infos häufig durch den P.R.-Wolf gegangen, bis ich die mal zu Gesicht kriege, nein, selbst im persönlichen Gespräch muss ich heute meist meinen Bullshit-Filter anlassen. Technische Whitepapers werden offenbar nur noch durchs Marketing verteilt ("bereinigt"), und ich weiss echt nicht, ob die PMs heute schon standardmässig in die Blubber-Gehirnwäsche geschickt werden.

Natürlich gibt's Ausnahmen, aber wenn ich an heute zurückdenke (iEX argh) . . . selbst wenn man mal einen Entwickler oder Architekten in die Finger kriegt, was selten genug der Fall ist, erhält man mit wenigen Ausnahmen nur Blabla, vollgestopft mit lustigen Marketing-Floskeln à la "wir haben bereits sehr intensive Gespräche mit namhaften Grossunternehmen geführt" (Übersetzung: wir haben den Marketing-Azubi von IBM auf unseren Newsletter-Verteiler gesetzt) oder "unsere Krypto-Technologie ist weltweit führend und kann selbst von Geheimdiensten nicht geknackt werden" (Übersetzung: wir haben noch keinen lauffähigen Prototypen, also auch keine codierten Nachrichten, ergo kann's auch nicht geknackt werden).

Und wenn man am eigenen Stand mal Klartext spricht, wird man von den Besuchern angeglotzt, als käme man vom Mars. Scheint schon fast so, als würden die Leute gar keine klaren und manchmal auch negativen Informationen mehr wollen. :(

ta,
-Sascha.rb

ram
2003-02-05, 21:36:59
Originally posted by nggalai
Aber nur schon die letzten paar Monate scheint da sowas wie ein Paradigmenwechsel stattgefunden zu haben. Nicht nur sind die verschickten Infos häufig durch den P.R.-Wolf gegangen, bis ich die mal zu Gesicht kriege, nein, selbst im persönlichen Gespräch muss ich heute meist meinen Bullshit-Filter anlassen. Technische Whitepapers werden offenbar nur noch durchs Marketing verteilt ("bereinigt"), und ich weiss echt nicht, ob die PMs heute schon standardmässig in die Blubber-Gehirnwäsche geschickt werden.

Natürlich gibt's Ausnahmen, aber wenn ich an heute zurückdenke (iEX argh) . . . selbst wenn man mal einen Entwickler oder Architekten in die Finger kriegt, was selten genug der Fall ist, erhält man mit wenigen Ausnahmen nur Blabla, vollgestopft mit lustigen Marketing-Floskeln à la "wir haben bereits sehr intensive Gespräche mit namhaften Grossunternehmen geführt" (Übersetzung: wir haben den Marketing-Azubi von IBM auf unseren Newsletter-Verteiler gesetzt) oder "unsere Krypto-Technologie ist weltweit führend und kann selbst von Geheimdiensten nicht geknackt werden" (Übersetzung: wir haben noch keinen lauffähigen Prototypen, also auch keine codierten Nachrichten, ergo kann's auch nicht geknackt werden).


iEX steht mir noch bevor. Wird diesmal vielleicht besser, jetzt wo all die looser .coms gone sind, Mann war das vielleicht mühsam vor zwei Jahren. :bonk:

Anyway, "ehrliche" PMs sind wirklich ne Seltenheit geworden. z.T. hat das sicher auch mit dem Wachstum der betroffenen Firmen zu tun, je grösser die Firma, desto uninteressanter sind Kontakte auf PR-Ebene. An Medien-Events geht man ja eigentlich nur noch wegen der Location, den Kollegen und dem Buffet, sowas von uninteressant ist das zum Teil. Vor ein paar Jahren bekam man wenigstens noch eine gescheite Information, wenn man die Frage geschickt formuliert hat. Mittlerweile blubbert es auf jede Frage irgendwas entgegen, das gar nichts mit der Frage zu tun hat, die maximale Entropie.

Dennoch, auch bei den grossen, die schon gross waren, ist ein Wechsel hin zu dreisten Lügengeschichten sichtbar. Wird das heute vielleicht so doziert oder was? :|

Piffan
2003-02-05, 22:49:32
Langfristig schießen sich aber die Firmen damit ins Knie. Dann glaubt keiner mehr was und wartet erstmal ab, bis die erste Testwelle verebbt ist und man aus vielen Ergebnissen im Net seine eigenen Schlüsse ziehen kann...

BTW: Habe heute vergessen, die PCGHardware zu kaufen, hatte heute viel zu tun....was dort steht und was die c't so bringt, rundet dann die Infos noch weiter ab....

aths
2003-02-05, 23:26:22
Originally posted by ram
Dennoch, auch bei den grossen, die schon gross waren, ist ein Wechsel hin zu dreisten Lügengeschichten sichtbar. Wird das heute vielleicht so doziert oder was? :| Nicht nur das. Du hast sicher auch gelesen, was große Seiten (z.B. all jene, hinter denen ein Verlag und ein Magazin steht) weiland zum 4xS-Modus verzapft haben. Das "White Paper" ist absichtlich so formuliert, dass man nicht durchsieht. Der Leser soll wohl das Gefühl bekommen, dass 4xS eine verdammt ausgefuchste Sache ist.

Jedenfalls, direkt im Anschluss erklärt nV die prinzipielle Arbeitsweise von Multisampling. Viele dachten, das wäre 4xS-exklusiv und bauten das in ihre 4xS-"Erklärung" ein.

Was 4xS angeht, mit "50% more subpixel coverage" z.B. konnte keiner recht was anfangen. Da wurden dann meistens 50% mehr Subpixel draus. Dazu noch das Lügen-Bild rauskopiert, was die besseren Texturen bei 4xS (falsch) zeigt, und fertig ist die Bekanntgabe dieser "neuen" FSAA-Modus.

Bei nV denkt man wohl, Hauptsache keiner steigt dahinter, wie verdammt einfach 4xS realisiert wurde.

Dr. Greenthumb
2003-02-05, 23:57:46
Originally posted by aths


Bei nV denkt man wohl, Hauptsache keiner steigt dahinter, wie verdammt einfach 4xS realisiert wurde.


Früher, in der "guten alten Zeit" (ach ja, 3DFx :love2: )war es auch nicht so einfach Gesülze über Features zu schreiben, da es die meisten kompliziert zu erklärenden Features garnicht gab oder sie nicht nutzbar waren (siehe PS 1.1;1.4;2.0;2.0+, VS, RGMS-AA, OGSS-AA, bi AF, tri AF, "optimiertes" AF..... und so weiter und so weiter....). Guck sich doch einer die alten (1999/2000) Tests mal an. 16/32Bit Vergleich und als Kür vielleicht noch trilineares Filtering, was damals auf einer ganzen Seite erklärt wurde.

Die Firmen haben es IMO heute wesentlich leichter mit teilweise komplett falschen Aussagen über ihre Produkte ohne Probleme durchzukommen, weil durch den ganzen Schmu nur noch eine unbedeutend kleine Gruppe von Freaks (wozu ich wohl die meisten hier zähle ;D) überhaupt durchsteigt.
Gelegenheit macht halt Diebe (oder in dem Fall dreiste Lügner!!).

aths
2003-02-07, 19:32:00
One of the bandwidth saving techniques in NV30 is that of colour compression. In the press material its was quoted as giving 'free' FSAA, how 'free' is it realistically? For instance, we've seen that R300 also implements colour compression and while its FSAA performs faster than most other solutions its not entirely free - is this the same type of thing we'll see with GeForce FX? If it was really 'free' why not just make 8X (or greater) sampling the default mode?

Indeed, AA is not totally free. There is a small impact on frame rate, but the impact is much smaller than it has been for previous architectures. You will see how fast our AA modes are when the first boards are benchmarked and reviewed in the press.

(http://www.beyond3d.com/interviews/gffxqa/)

Piffan
2003-02-07, 21:35:47
Wir haben es gesehen und wissen nun, was die Sprücher dieser oder jeder Firma wert sind.....

Schade, dass bezüglich des FSAA seit der Gf3 sich nix mehr getan hat bei NV....dabei haben die von 3Dfx übernommenen Techniker sicher gewußt, wo die "Mängel" liegen ;)

Exxtreme
2003-02-07, 21:45:49
Originally posted by Piffan

Schade, dass bezüglich des FSAA seit der Gf3 sich nix mehr getan hat bei NV....dabei haben die von 3Dfx übernommenen Techniker sicher gewußt, wo die "Mängel" liegen ;)
Also ich denke nicht, daß das 3dfx-KnowHow bezüglich FS(E)AA den anderen Firmen so überlegen war. Die meisten Sachen sind eh' schon in der Theorie seit vielen Jahren bekannt und man muss sie nur noch in HW giessen.

3dfx und gutes FS(E)AA-KanowHow? - Nicht unbedingt... IMHO.

Viele hatten darauf gehofft beim NV30, geworden ist nichts draus.

Byteschlumpf
2003-02-07, 21:58:28
FSAA ist im Grunde bereits die Disziplin, bei der ein GPU-Entwickler zu glänzen hat, wenn er im 3D-Bereich heute noch bestehen will!

Ohne AA und AF sind ohnehin nahezu alle (noch) aktuellen GPUs schnell genug - somit stellt dies also keine Herausforderung mehr dar!

Qualitätssettings werden auch im Mainstream-Bereich - siehe 9500Pro -
zukünftig von Bedeutung sein.



Byteschlumpf

StefanV
2003-02-07, 22:13:02
Originally posted by Piffan
Wir haben es gesehen und wissen nun, was die Sprücher dieser oder jeder Firma wert sind.....

Schade, dass bezüglich des FSAA seit der Gf3 sich nix mehr getan hat bei NV....dabei haben die von 3Dfx übernommenen Techniker sicher gewußt, wo die "Mängel" liegen ;)

Naja, NV ist nicht gerade bekannt dafür, daß sie bestehende Dinge schnell an ihren Chips zu ändern ;)

Beispiele ?? :)

Kein Problem, z.B. die 32bit schwäche, die vom TNT bis zur GF2mitgeschleppt wurde (4 Designs), der S3TC 'Bug' der Geforces...
Das FSAA ab GF3...

aths
2003-02-07, 23:20:24
Originally posted by Exxtreme
Also ich denke nicht, daß das 3dfx-KnowHow bezüglich FS(E)AA den anderen Firmen so überlegen war.Ich verstehe nicht, wieso du noch immer zwischen MS und SSAA mit dem "E" unterscheidest. Wenn du darauf anspielst, dass MSAA sozusagen ein "Hack" sei, um auf Kosten fehlender zusätzlicher Texturverbesserung schneller zu sein, so ließe sich auch argumentieren, dass 4x RG ein "Hack" wäre, um 16x (4x4) AA zu "beschleunigen", halt auf Kosten der Glätte einiger weniger Winkel.

Mehrpack
2003-02-08, 02:31:09
hi,
mhh ich glaube er spielt da eher auf edege an oder?
also eine komplette klättung aller kanten die man in einem spiel sehn kann.
nicht wie bei MSAA wo ja alpha-texturen und die pixelshader ausgelassen werden technik bedingt.

Mehrpack

aths
2003-02-08, 04:15:18
Originally posted by Mehrpack
hi,
mhh ich glaube er spielt da eher auf edege an oder?
also eine komplette klättung aller kanten die man in einem spiel sehn kann.
nicht wie bei MSAA wo ja alpha-texturen und die pixelshader ausgelassen werden technik bedingt. Exxtreme meint mit FSEAA MSAA.

MadManniMan
2003-02-08, 07:05:55
Originally posted by Stefan Payne
z.B. die 32bit schwäche, die vom TNT bis zur GF2mitgeschleppt wurde (4 Designs),

meine güte... und erst die 1600*1200-schwäche! und dann die AF-schwäche der TNT! und die AA-schwäche der gf1!

junge, werd erwachsen!

Mehrpack
2003-02-08, 08:25:07
Originally posted by aths
Exxtreme meint mit FSEAA MSAA.

hi,
ok, und für was steht dann da bei ihm das E?

Mehrpack

Salvee
2003-02-08, 09:35:46
E=Edge, also nur Polygonkanten

Edit: Sorry Mehrpack, biste ja schon selbst drauf gekommen ;)

Razor
2003-02-08, 12:26:11
Originally posted by Exxtreme
Ack @ ram

Wie schon gesagt, ich habe nichts gegen Schönfärberei. Das Problem ist, daß die Marketingabteilung von NV so blöd war und sich praktisch auf eine Geschwindigkeitangabe festgelegt hat. Und das können die Produkte einfach nicht halten.
Du hast ram's Statement aber schon komplett gelesen oder ?
Er prangerte Smoothvision 1.0/2.0 und Intellsample in einem Athemzug an !
Insofern nehmen sich die beiden 'Grossen' hier überhaupt nichts.

Und ansonsten muss ich ram da 100%'ig zustimmen, wenn es um die Bedüfnisse des interessierten Kunden geht. Aber wie Piffan schon sagte zielen diese Marketing-Sprüche doch 'eh auf ein ganz anderes Klientel. Der interessierte verläßt sich 'eh nicht auf dieses Gesülze, sondern informiert sich bei unterscheidlichsten Quellen, wartet richtige Tests ab und bildet sich dann eine Meinung. Die anderen aber sind meist schon froh', wenn sie wissen, was eine GraKa ist und wo man die hinstecken kann.

Für mich ist dieser Marketing-Singsang völlig uninteressant und wenn überhaupt eher belustigend. Sollen sie da behaupten, was immer sie wollen...

Alles IMHO, selbstverständlich.

Bis denne

Razor

Razor
2003-02-08, 12:37:41
Originally posted by Exxtreme

Also ich denke nicht, daß das 3dfx-KnowHow bezüglich FS(E)AA den anderen Firmen so überlegen war. Die meisten Sachen sind eh' schon in der Theorie seit vielen Jahren bekannt und man muss sie nur noch in HW giessen.

3dfx und gutes FS(E)AA-KanowHow? - Nicht unbedingt... IMHO.

Da stimme ich Dir mal 100%'ig zu !
Das AA von 3dfx war zwar ungeschlagen (und ist es wohl noch), nur war es grottig schlecht in der Performance.
Wunderschön, aber unbrauchbar...

Insofern ist das eine wohl kaum mit dem anderen zu vergleichen.
So ist sich auch ATI mit der 95xx/97xx-Reihe ja nun mittlerer Weile darüber klar geworden, dass es besser ist auf effiziente Verfahren zu setzen, damit ein Feature nicht nur Theorie bleibt.

"Viele hatten darauf gehofft beim NV30, geworden ist nichts draus."

Das würde ich aber erst einmal abwarten...
Oder was wissen wir genau von der hinter der gffx stehenden Technologie ?

Bis denne

Razor

Razor
2003-02-08, 12:41:43
Originally posted by Stefan Payne

Naja, NV ist nicht gerade bekannt dafür, daß sie bestehende Dinge schnell an ihren Chips zu ändern ;)

Beispiele ?? :)

Kein Problem, z.B. die 32bit schwäche, die vom TNT bis zur GF2mitgeschleppt wurde (4 Designs), der S3TC 'Bug' der Geforces...
Das FSAA ab GF3...
Oh mann, Stefan...

- 32-Bit 'Schwäche' ?
Wurde erst mit TNT eingeführt und war ab gfddr vortrefflich nutzbar !

- S3TC-'Bug'
War und ist noch immer Interpretationssache...

- FSAA ab gf3
War die wohl erste Implementierung von 'brauchbarem' AA überhaupt !

-

Wie Du siehst, haben Deine Beispiele das genaue Gegenteil von dem gezeigt, was Du vermutlich zu zeigen versuchtest.

Bis denne

Razor

MadManniMan
2003-02-08, 12:44:21
Originally posted by Razor

Du hast ram's Statement aber schon komplett gelesen oder ?
Er prangerte Smoothvision 1.0/2.0 und Intellsample in einem Athemzug an !
Insofern nehmen sie die beiden 'Grossen' hier überhaupt nichts.


hat doch auch keiner bestritten. nur gehts hier eben grad ums intellisample - wobei einige die dreistigkeit halt nicht so sehen... wie dem auch sei: die vergehen von ati und co. sollten hier in diesem thred nicht thema werden

MadManniMan
2003-02-08, 12:46:55
Originally posted by Razor

Da stimme ich Dir mal 100%'ig zu !
Das AA von 3dfx war zwar ungeschlagen (und ist es wohl noch), nur war es grottig schlecht in der Performance.
Wunderschön, aber unbrauchbar...


ich hoffe, du meinst das 'grottig' nicht ganz so ernst, wies sich liest? z T war sogar das aa der gf1 zu gebrauchen ... und da war die v5 auch performancemäßig meilenweit vorraus.

einigen wir uns auf 'nicht wirklich universell einsetzbar' ?

MadManniMan
2003-02-08, 12:47:43
Originally posted by Razor

Oh mann, Stefan...

- 32-Bit 'Schwäche' ?
Wurde mit TNT eingeführt und war ab gfddr vortrefflich nutzbar !

- S3TC-'Bug'
War und ist noch immer Interpretationssache...

- FSAA ab gf3
War die wohl erste Implementierung von 'brauchbarem' AA überhaupt !

-

Wie Du siehst, habe Deine Beispiel das genaue Gegenteil von dem gezeigt, was Du vermutlich zu zeigen versuchtest.


meine damen und herren: wieder einmal kann ich nur sagen: razorle: du hast vollkommen recht!

Razor
2003-02-08, 12:51:58
Originally posted by MadManniMan

hat doch auch keiner bestritten. nur gehts hier eben grad ums intellisample - wobei einige die dreistigkeit halt nicht so sehen... wie dem auch sei: die vergehen von ati und co. sollten hier in diesem thred nicht thema werden
Doch, genau das muss passieren !

Oder warum sollen nVidia's 'Lügen' an den Pranger gestellt werden, wenn es "ATI & Co." genauso tun ?
Dann ist der ganze Thread ziemlich überflüssig, oder sollen wir nun alle Scheuklappen tragen ?
Sorry, Manni, aber da scheinst Du ja ein ganz 'merkwürdiges' Verständnis aufzubringen...
(oder meintest Du das eher polemisch ?)

Razor

Razor
2003-02-08, 12:53:35
Originally posted by MadManniMan

ich hoffe, du meinst das 'grottig' nicht ganz so ernst, wies sich liest? z T war sogar das aa der gf1 zu gebrauchen ... und da war die v5 auch performancemäßig meilenweit vorraus.

einigen wir uns auf 'nicht wirklich universell einsetzbar' ?
Reden wir hier vom 4xAA ?
DAS war absolut unbrauchbar...
Wenn wir gnädig sein wollen, könnte man sagen:
"War in den meisten Fällen unbrauchbar !"
:D

Razor

P.S.: Ich finde Deine Formulierung zugegebenermaßen allerdings sehr viel 'salonfähiger'...
;-)

aths
2003-02-08, 18:54:42
Originally posted by Razor
- S3TC-'Bug'
War und ist noch immer Interpretationssache...Was gibt es da groß zu interpretieren? GeForce bietet die schlechteste DXT1-Qualität, die man kaufen kann. Nicht umsonst besteht die Möglichkeit, per Treiber stattdessen DXT3 zu verwenden.
Originally posted by Razor
- FSAA ab gf3
War die wohl erste Implementierung von 'brauchbarem' AA überhaupt ! Das ist imo Interpretationssache. Denn die meisten Voodoo5-Benutzer machten von AA Gebrauch, und die Voodoo5 war vor der GF3 da.

StefanV
2003-02-08, 20:40:18
Originally posted by Razor

Oh mann, Stefan...


Oh mann, Razor...

Originally posted by Razor

- 32-Bit 'Schwäche' ?
Wurde erst mit TNT eingeführt und war ab gfddr vortrefflich nutzbar !


Nicht ganz.
Richtig brauchbar wars erst ab GF3, die GF1 und 2 haben noch die 'TNT Schwäche' mitgenommen.
Genaueres gibts in diversen Threads, unter anderem in Postings von Demirug.

Fakt ist, daß diese Chips bei 32bit in etwa die hälfte der Fillrate haben, die sie in 16bit haben...

Originally posted by Razor
- S3TC-'Bug'
War und ist noch immer Interpretationssache...


Achja ??

Nur 'dummerweise' hats nV nicht ordentlich hinbekommen...
Aber darum gehts nicht, es geht darum, daß dieser 'Fehler' seit der Geforce 1 besteht und auch noch in aktuellen Geforce 4 Karten anzutreffen ist...

Originally posted by Razor
- FSAA ab gf3
War die wohl erste Implementierung von 'brauchbarem' AA überhaupt !

???
Wie kommst du auf denn hierdrauf ??
Razor, du hast echt eine blühende Fantasie, ich glaub nicht, daß du mein Posting verstanden hast oder es wolltest.

Ich sagte, daß seit der Einführung der GF3 NV nicht wirklich was am FSAA geändert hat !!


Oder anders ausgedrückt:

In meinem Posting hab ich nur 'dargelegt', daß NV einige 'Probleme' über Generationen mitgeschleppt hat.


Originally posted by Razor
-

Wie Du siehst, haben Deine Beispiele das genaue Gegenteil von dem gezeigt, was Du vermutlich zu zeigen versuchtest.

Bis denne

Razor

Wie du siehst, lieber Razor, hast du nichtmal ansatzweise verstanden, was ich gesagt hab...

Hier nochmal mein Ursprüngliches Posting, Inhaltlich wichtige Dinge sind hervorgehoben:

Naja, NV ist nicht gerade bekannt dafür, daß sie bestehende Dinge schnell an ihren Chips zu ändern

Beispiele ??

Kein Problem, z.B. die 32bit schwäche, die vom TNT bis zur GF2 mitgeschleppt wurde (4 Designs), der S3TC 'Bug' der Geforces...
Das FSAA ab GF3...


Was hat denn dein Posting jetzt mit meinem Ursprünglichen zu tun ??

StefanV
2003-02-08, 20:42:04
Originally posted by MadManniMan


meine güte... und erst die 1600*1200-schwäche! und dann die AF-schwäche der TNT! und die AA-schwäche der gf1!

junge, werd erwachsen!

???

Verliert außer TNT1 - GF2 irgendein anderer Chip ~die hälfte der Füllrate beim Umschalten von 16bit in 32bit ??

Irgendwie hast du mein Posting nicht soo recht verstanden :|

Birdman
2003-02-08, 20:46:03
Originally posted by Stefan Payne
???

Verliert außer TNT1 - GF2 irgendein anderer Chip ~die hälfte der Füllrate beim Umschalten von 16bit in 32bit ??

Irgendwie hast du mein Posting nicht soo recht verstanden :|
gewinnt ein anderer Chip ausser der von dir genannten 50% Speed beim umschalten auf 16bit ? das brachte weder Ati noch 3dfx fertig, daher verloren diese chips anno dazumals jedes rennen gegen nvidia....und da war 16bit noch trumpf ;)

aths
2003-02-08, 20:54:25
Originally posted by Birdman
gewinnt ein anderer Chip ausser der von dir genannten 50% Speed beim umschalten auf 16bit ? das brachte weder Ati noch 3dfx fertig, daher verloren diese chips anno dazumals jedes rennen gegen nvidia....und da war 16bit noch trumpf ;) Voodoo4 und 5 profitieren speedmäßig beträchtlich vom 16-Bit-Modus.

StefanV
2003-02-08, 21:05:33
Originally posted by aths
Voodoo4 und 5 profitieren speedmäßig beträchtlich vom 32-Bit-Modus.

???

Wenn mich nicht alles täuscht, dann wars dem VSA-100 recht egal, ob 16bit oder 32bit...

Im Vergleich mit Geforce & Co hast du allerdings recht, unter 32bit sah es für die Voodoo4/5 schon deutlich besser gegen GF2 (MX) aus *eg*

aths
2003-02-08, 21:22:12
Originally posted by Stefan Payne
Wenn mich nicht alles täuscht, dann wars dem VSA-100 recht egal, ob 16bit oder 32bit... Nee, und ich hatte mich auch verschrieben. Voodoo4 und 5 performen im 16-Bit-Modus deutlich besser.

Frank
2003-02-08, 21:36:35
Es ist doch immer wieder amüsant - um nicht zu sagen, dass sich manch einer (wiedermal) lächerlich macht. Der Threadtitel ist doch eigentlich relativ eindeutig, was das Thema angeht. Dennoch versucht der ein oder andere mal wieder hin zu anderen Firmen zu lenken, die er entweder total scheisse findet - und die Firma deswegen ja auch total scheisse zu sein hat - oder er findet sie genial und hackt jetzt besonders hier rum. Da fängt man wiedermal beim Uraltschleim an und extrapoliert auf aktuelle angebliche Schwächen.

Exxtreme
2003-02-08, 22:24:12
Originally posted by aths
Ich verstehe nicht, wieso du noch immer zwischen MS und SSAA mit dem "E" unterscheidest. Wenn du darauf anspielst, dass MSAA sozusagen ein "Hack" sei, um auf Kosten fehlender zusätzlicher Texturverbesserung schneller zu sein, so ließe sich auch argumentieren, dass 4x RG ein "Hack" wäre, um 16x (4x4) AA zu "beschleunigen", halt auf Kosten der Glätte einiger weniger Winkel.
Man kann tatsächlich beim MSAA IMHO von einem Hack reden da MSAA durch Herabsetzen der Bildqualität, Geschwindigkeit schindet. :)

Beim Vergleich zw. 16x OG AA vs. 4x RG AA habe ich so meine Probleme.

MadManniMan
2003-02-08, 23:54:35
Originally posted by Stefan Payne


???

Verliert außer TNT1 - GF2 irgendein anderer Chip ~die hälfte der Füllrate beim Umschalten von 16bit in 32bit ??

Irgendwie hast du mein Posting nicht soo recht verstanden :|

*pft* brauchbar war der 32bit mode dennoch...

...merke: das, was hinten rauskommt zählt im endeffekt. wie es realisiert wird, ist zwar interessant zu verstehen, aber battlefield ists doch mehr als scheißegal, wie seine rauchschwaden in spielbaren frames gezeichnet werden, nich?

StefanV
2003-02-09, 00:00:39
Originally posted by MadManniMan
*pft* brauchbar war der 32bit mode dennoch...

...merke: das, was hinten rauskommt zählt im endeffekt. wie es realisiert wird, ist zwar interessant zu verstehen, aber battlefield ists doch mehr als scheißegal, wie seine rauchschwaden in spielbaren frames gezeichnet werden, nich?

Hab ich in diesem Thread irgendwo behauptet, daß der 32bit Mode unbrauchbar war/ist ??

Ich hab nur gesagt, daß TNT2-GF2 eine '32bit Schwäche' haben...

Ergo: brechen im Vergleich zu 16bit recht stark ein.

MadManniMan
2003-02-09, 00:02:51
Originally posted by Stefan Payne

Ich hab nur gesagt, daß TNT2-GF2 eine '32bit Schwäche' haben...



ok, ist richtig. ich hab auch keine lust, die diskussion nochmal aufleben zu lassen. im grunde sagen wir ja das gleiche, wenn mans auch bei mir net ganz erkennt... :bier:

aths
2003-02-09, 01:28:50
Originally posted by Exxtreme

Man kann tatsächlich beim MSAA IMHO von einem Hack reden da MSAA durch Herabsetzen der Bildqualität, Geschwindigkeit schindet. :)

Beim Vergleich zw. 16x OG AA vs. 4x RG AA habe ich so meine Probleme. Wieso? Durch herabsetzen der Bildqualität, vor allem bei Winkeln die es weniger nötig haben, schindet man (gehörig) Leistung. Das "wesentliche" Qualitätskriterium (EER) bleibt gleich.

ow
2003-02-09, 01:31:25
Originally posted by Stefan Payne

Nicht ganz.
Richtig brauchbar wars erst ab GF3, die GF1 und 2 haben noch die 'TNT Schwäche' mitgenommen.
Genaueres gibts in diversen Threads, unter anderem in Postings von Demirug.

Fakt ist, daß diese Chips bei 32bit in etwa die hälfte der Fillrate haben, die sie in 16bit haben...




:rofl:

wen juckt´s?.......
solange es reicht, jede Radeon1 in allen Games platt zu machen.

ow
2003-02-09, 01:35:26
Originally posted by Stefan Payne


Hab ich in diesem Thread irgendwo behauptet, daß der 32bit Mode unbrauchbar war/ist ??

Ich hab nur gesagt, daß TNT2-GF2 eine '32bit Schwäche' haben...

Ergo: brechen im Vergleich zu 16bit recht stark ein.

Nö, SP.

Die GFs bis zu GF2 gewinnen sehr viel Leistung in 16Bit ggü. 32Bit.
Also eine 16Bit-Stärke.
Und wer war denn damals in 32Bit performanter? Kenne ich keinen.

StefanV
2003-02-09, 01:36:26
Originally posted by MadManniMan


ok, ist richtig. ich hab auch keine lust, die diskussion nochmal aufleben zu lassen. im grunde sagen wir ja das gleiche, wenn mans auch bei mir net ganz erkennt... :bier:

Ich hasse die deutsche Sprache ;)

Aber gut, daß wir uns doch gegenseitig verstanden haben.

:beer:

StefanV
2003-02-09, 01:38:27
Originally posted by ow


Nö, SP.

Die GFs bis zu GF2 gewinnen sehr viel Leistung in 16Bit ggü. 32Bit.
Also eine 16Bit-Stärke.
Und wer war denn damals in 32Bit performanter? Kenne ich keinen.

:rofl:

Natürlich, ow...

Wie kann NV auch eine '32bit Schwäche' haben und stärker einbrechen als alles andere.

Natürlich gewinnt NV beim Wechsel von 32bit auf 16bit...

Oh mann...

Ist genauso sinnig, wie eine 'Glas-halb-voll oder Glas-halb-leer' Diskussion.

aths
2003-02-09, 01:45:30
Originally posted by ow
Nö, SP.

Die GFs bis zu GF2 gewinnen sehr viel Leistung in 16Bit ggü. 32Bit.
Also eine 16Bit-Stärke.
Und wer war denn damals in 32Bit performanter? Kenne ich keinen. 16-Bit-Stärke == 32-Bit-Schwäche :)

In der Tat, auch wenn die GF-Karten bis einschließlich GeForce2 eine eklatante 32-Bit-Schwäche haben, so waren sie in ihrer Zeit die stärksten Karten für 32 Bit, die man kaufen konnte.

Razor
2003-02-09, 11:37:31
Originally posted by aths
16-Bit-Stärke == 32-Bit-Schwäche :)

In der Tat, auch wenn die GF-Karten bis einschließlich GeForce2 eine eklatante 32-Bit-Schwäche haben, so waren sie in ihrer Zeit die stärksten Karten für 32 Bit, die man kaufen konnte.
Und wieso besaßen die "stärksten Karten für 32 Bit" eine 32-Bit Schwäche ?
???

Irre ich mich, oder wird hier einfach nur dumm-geredet ?
Es ist doch witzig davon zu reden, dass Karten eine "Schwäche haben", nur weil sie beim Umschalten von 16Bit auf 32Bit stärker eingebrochen sind, als die Konkurrenz, diese aber schon bei 16Bit eine miese Performance hatte und bei 32Bit dann völlig versagte (dafür aber "nicht so stark" eingebrochen sind ;-)...

Sorry, aber ich habe das Gefühl dass SP (und andere) Argumente an den Haaren herbei ziehen...

Was ist daran jetzt anders, als bei den Marketingaussagen der großen Hersteller ?
(um die es hier ja eigentlich geht ;-)

Bis denne

Razor

LovesuckZ
2003-02-09, 11:48:13
Originally posted by aths
16-Bit-Stärke == 32-Bit-Schwäche :)


Ist dann auch das AF der GF4TI eine Schwaeche, weil es zum einfachen Trilinear stark einbricht?

ow
2003-02-09, 12:22:18
Originally posted by Stefan Payne


:rofl:

Natürlich, ow...

Wie kann NV auch eine '32bit Schwäche' haben und stärker einbrechen als alles andere.

Natürlich gewinnt NV beim Wechsel von 32bit auf 16bit...

Oh mann...

Ist genauso sinnig, wie eine 'Glas-halb-voll oder Glas-halb-leer' Diskussion.

:rofl:

Dann fang doch keine solche Diskussion an. Die GFs sind auch in 32Bit noch schneller als ATis R100.

Unregistered
2003-02-09, 12:33:13
Originally posted by ow


:rofl:

Dann fang doch keine solche Diskussion an. Die GFs sind auch in 32Bit noch schneller als ATis R100.

So langsam kommen die Games, wo die R100 IMO besser performt als die GF2, zB. Battlefield 1942.

Das hat einem zu "Lebzeiten" der Karte aber nichts genützt.

StefanV
2003-02-09, 13:34:26
Originally posted by ow


:rofl:

Dann fang doch keine solche Diskussion an. Die GFs sind auch in 32Bit noch schneller als ATis R100.

So wie hier (http://www.digit-life.com/articles/radeon/) ??

Im Quaver und Annihilator Demo von Quake3 unter 32bit, besonders in höheren Auflösungen (1280+) ??

Bevor du dich über jemanden lustig machst, solltest du dich lieber über die Tatsachen vergewissern...


Seltsam, daß die Radeon bei 32bit schneller als eine GF2 GTS sein kann :|

Razor
2003-02-09, 13:54:43
Originally posted by Stefan Payne

So wie hier (http://www.digit-life.com/articles/radeon/) ??

Im Quaver und Annihilator Demo von Quake3 unter 32bit, besonders in höheren Auflösungen (1280+) ??

Bevor du dich über jemanden lustig machst, solltest du dich lieber über die Tatsachen vergewissern...


Seltsam, daß die Radeon bei 32bit schneller als eine GF2 GTS sein kann :|
Krass, was Du da wieder ausgegraben hast, SP...

Da wurde noch das gute alte Q3 1.16n getestet und die gf256 (sdr !) war leistungsseitig noch auf dem Nivau einer gf2gts. Hmmm... wie alt ist der Test ? Mal schaun'... steht da nicht... auch nicht, welche Treiber benutzt wurden... waren das überhaupt schon Deto's ?
:lol:

Und wollen wir doch mal sehen, was da eigentlich verglichen wurde... oh, ATI mit 64MB, GTS mit 32MB.
Schande, dass da die GTS in höheren Auflösungen schlechter dasteht !
Schande über nVidia !

Klasse, SP, echt 'ne Glanzleistung !
:D

Razor

P.S.: Gut, das wir hier zumindest den Beweis erbracht haben, dass 64MB in hohen Auflösungen besser ist, als 32MB !
Wenigstens etwas, was man hier mitnehmen kann...
;-)

Exxtreme
2003-02-09, 13:55:54
Originally posted by ow


:rofl:

Dann fang doch keine solche Diskussion an. Die GFs sind auch in 32Bit noch schneller als ATis R100.
Kann man so nicht sagen.

Ab der 1280'er Auflösung bei 32 Bit war die R100 meist schneller als die GF2GTS.

http://www.anandtech.com/showdoc.html?i=1281&p=1

Razor
2003-02-09, 13:59:17
Originally posted by Exxtreme

Kann man so nicht sagen.

Ab der 1280'er Auflösung bei 32 Bit war die R100 meist schneller als die GF2GTS.

http://www.anandtech.com/showdoc.html?i=1281&p=1
Kreisch !
:lol:

Noch so'n Test...
Und wieder 64MB gegen 32MB !
Ist das irgendwie eine Krankheit ?
:D

Nichts für ungut, Exxtreme...

Razor

P.S.: Bitte, bitte, bitte, bringt doch mal was anderes, als diese Äpfel- und Birnenvergleiche...
P.P.S.: Aber immerhin steht da ein Datum... 17.7.2000 !
;-)

Multi P.P.S: Da war auch 'ne 64MB GTS dabei... sehr empfehlenswert, der Test !
Und zumindest war die R100 in einigen wenigen Benches unter 32Bit ein kleines bissel schneller, wenn's um Auflösungen jenseits der 1024 ging. Genau genommen eingentlich 'nur' Q3 und UT... und wieso war sie unter 16Bit so grausam schlecht ? Hmmm...

Mann waren das noch Zeiten !
Satte 2 Games ;-)
:D

Katrin
2003-02-09, 14:01:45
Originally posted by Razor


P.S.: Bitte, bitte, bitte, bringt doch mal was anderes, als diese Äpfel- und Birnenvergleiche...
P.P.S.: Aber immerhin steht da ein Datum... 17.7.2000 !
;-)

Das musst DU gerade sagen:D


so langsam....

Kati

Frank
2003-02-09, 14:08:25
Originally posted by Razor

Und wieso besaßen die "stärksten Karten für 32 Bit" eine 32-Bit Schwäche ?
???

(...)

Sorry, aber ich habe das Gefühl dass SP (und andere) Argumente an den Haaren herbei ziehen...

Ich weiss jetzt auch nicht was das jetzt hier zu suchen hat, aber ich könnt mir vorstellen, dass Stefan zb darauf hinaus will, dass andere Hersteller nicht 32 propagiert haben wie nVidia aber nichts desto trotz daraufhin Optimierungen (im Gegensatz zu nVidia) verarbeitet haben. Beispiel wär evtl der Dualbus der G200/G400.

Razor
2003-02-09, 14:08:36
Originally posted by Katrin

Das musst DU gerade sagen:D

so langsam....

Kati
Wie jetzt ?
;D

Razor

Labberlippe
2003-02-09, 14:15:06
Originally posted by Razor

Kreisch !
:lol:

Noch so'n Test...
Und wieder 64MB gegen 32MB !
Ist das irgendwie eine Krankheit ?
:D

Nichts für ungut, Exxtreme...

Razor

P.S.: Bitte, bitte, bitte, bringt doch mal was anderes, als diese Äpfel- und Birnenvergleiche...
P.P.S.: Aber immerhin steht da ein Datum... 17.7.2000 !
;-)

Multi P.P.S: Da war auch 'ne 64MB GTS dabei... sehr empfehlenswert, der Test !
Und zumindest war die R100 in einigen wenigen Benches unter 32Bit ein kleines bissel schneller, wenn's um Auflösungen jenseits der 1024 ging. Genau genommen eingentlich 'nur' Q3 und UT... und wieso war sie unter 16Bit so grausam schlecht ? Hmmm...

Mann waren das noch Zeiten !
Satte 2 Games ;-)
:D

Der Unterschied ist der das die Radeon SDR sogar heute noch tadelos in 32 Bit funzt.
Sogar AF geht.
Wenn ich mich nicht irre wurde ja damals behaupte das HyperZ erst ab 32 Bit greift.
Deshalb die Unterschiede.

Übrigens sind die neuen Karten unter 16 Bit kaum schneller als wie unter 32 Bit.
Heisst das das die GF4 jetzt lausig sind. ???

Gruss Labberlippe

StefanV
2003-02-09, 14:23:14
Originally posted by Razor

Und wollen wir doch mal sehen, was da eigentlich verglichen wurde... oh, ATI mit 64MB, GTS mit 32MB.
Schande, dass da die GTS in höheren Auflösungen schlechter dasteht !
Schande über nVidia !

Klasse, SP, echt 'ne Glanzleistung !
:D

Razor, wieviele Geforce 2 GTS gabs damals mit 64MB RAM ??

Man bencht halt das, was es gibt, die 64MB GF2 GTS waren damals recht rar gesät, 64MB hat sich erst ab der GF2 PRO/Möchtegern PRO durchgesetzt...

Razor
2003-02-09, 15:03:55
Originally posted by Labberlippe

Übrigens sind die neuen Karten unter 16 Bit kaum schneller als wie unter 32 Bit.
Heisst das das die GF4 jetzt lausig sind. ???

Gruss Labberlippe
Ähm... nein ?
Oder worauf wolltest Du jetzt mit Deiner Frage hinaus ?
???

Razor

Eusti
2003-02-09, 15:37:07
Mein Gott, welch ein Kindergarten hier!

*denthreadunsubscribe*

nggalai
2003-02-09, 15:50:42
Errr, also wenn der Thread nicht langsam wieder zum Thema zurückkehrt, mach ich den bald mal dicht.

Was zum Geier hat 16bit vs/ 32bit mit GFFX-FSAA-Marketinggeblubber zu tun? ???

ta,
-Sascha.rb

DrFreaK666
2003-02-09, 20:10:57
Also, nach mehreren Seiten habe ich mal aufgehört hier weiterzulesen.
Jedenfalls wird Nvidia das AA des NV35 verbessern müssen (vor allem qualitätsmässig).
Aber nach dem was Nvidia hier miterlebt, werden sie mehr Ressourcen in die AA-Entwicklung einfliessen lassen.
Dann wird das NV35 ein viel interessanteres produkt als der/die/das NV30.

Das Spiel ist noch lange nicht verloren...

Greetz