PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Haltung der medien zu ati & nVidia


Unregistered
2002-02-09, 11:54:12
Hi
Ich bin heute morgen aufgestanden und hab mir meine c't ausm Breifkasten gefischt. Da ist mir der Artikel zu der neue geforce 4 aufgefallen (S.16). Da steht als beschreibung im Inhaltsverzeichniss: nVidia überholt ATI, naja das Gefällt bestimmt Nvidia deutschland wenn sie das hören. Aber das ist doch ga nicht war! Ich meine eine Geforce 4 mit sdram ist doch nicht so schenll wie eine Radeon 8500! Warum unterstützt c't mit solchen algemeinerungen das eine Geforce 4 grundsätzlich schneller ist als eine radeon Nvidia? ich meine sowas haben die doch nicht nötig. Das ganze unterlegen sie dann mit einem benchmark von Geforce 4 4600 einer Geforce 3 TI 500 und Radeon 8500. Aber ich ahbe hier glaub ich gelesen das die 4600 noch gar nicht im Einzelhandel ist?! Das ist mir bei der c't übrigens auch aufgefallen das sie den Pentium 4 auch ziemlich pushen.
Ich persönlich finde ATI weitaus sympathjischer aber egal :)
Achja was mir bei diesen benchmarks aufgefallen ist, passt zwa nicht zum Thema. Aber ich wiess warum Nvidia glaub ich nicht die Kantenglättung von 3dfx benutzt ( fragt mich nicht damals hab ich noch keine richtige ahnung von compies *g*). Also ich glaube sie brauchen einfach resourcenfressende anwendungen, die ja mit Nvidias und ATI (genauso) Kanteglättung gegeben sind
Postet mal meine meinung, würd mich auch intressieren wie andre medien darüber berichten und ob sie auch so Nvidia oder eben ATI freundlich sind?

Leonidas
2002-02-09, 12:48:54
Dann schau Dir mal das an:
http://www.zdnet.de/techexpert/artikel/tests/grafikkarten/200202/geforce4_00-wc.html

Überschrift Im Vergleich zum Geforce3 Ti 500 steigt die Performance um bis zu 115 Prozent.

Ich hab gedacht, der Artikel wäre von nVidia selber. ;-)


Pics:
http://www.zdnet.de/techexpert/artikel/tests/grafikkarten/200202/gf4_3dm.gif

Der ganze Artikel ist ein einziger Beweis, das die GF4 die Super-Duper-Hyper-Karte ist und wesentlich schneller als die GF3 - wie in einer Pressemitteilung von nVidia. Sieht nach einer Waschmittelwerbung aus, wo bewiesen werden soll, das es noch reiner als rein wurde. Aber nicht nach einem unabhängigem Testbericht. Schande über das ZDNet.

Richthofen
2002-02-09, 13:33:27
Leute so läuft das halt.

Wo ist das Problem :)
Solange ihr wisst was ihr euch kaufen müsst passt es doch.
Intel machts so und andere machens auch so.
Jedes Mittel ist Recht um Konkurenten auszustechen zu behindern was auch immer.
So läufts nunmal.
Geld machen steht ganz oben.
Dann nochmal Geld machen und dann nochmal Geld machen und dann die Kunden und gaaaanz am Ende die normalen Mitarbeiter derrer man sich in schlechten Zeiten auch mal schnell entledigt.
Das ist Kapitalismus pur so läufts seid Jahren und so wirds immer laufen.
Wer das rechtzeitig erkennt und für sich die Schlußfolgerungen zieht hat keine Probleme :)

RAL
2002-02-09, 14:36:08
Was gibts an der Überschrift eigentlich auszusetzen? Ist entweder eine wahre Aussage oder eben nicht. Die 115%+ sind aus dem 3DM2001 Vertex Shader Test und im Resume wird darauf hingewiesen,

"[..]
Zwar werden nicht alle Architekturmerkmale der Geforce4 wie etwa Vertex-Shader von den Spielen unterstützt, dafür stehen aber Techniken zur Kantenglättung und Textur-Filterung allen Spielen zur Verfügung.
[..]"

daß es für aktuelle Spiele nicht relevant ist.

Hätte man in der Überschrift nur die durchschnittliche oder minimale Performancesteigerung ggü. Ti500 angeben dürfen, weil manche nicht fähig sind, einfache Aussagen richtig zu interpretieren?

Diese "bis zu Aussagen" sind plakativ, aber ein ganz normales Stilmittel, wenn man eben die Perfomancesteigerungen herausstellen will, von denen man als Tester vielleicht persönlich beeindruckt war.
Und da steht er mit seiner Meinung nicht alleine da. Denkt mal an die Performancegewinne von früheren nv-Neuerscheinungen, bspw. GF2-Ultra -> GF3 oder GF1 -> GF2. Das war nicht so viel.

Ne also dieses review ist natürlich nix, was einen vom Hocker haut, aber wegen so einer Überschrift auf nVidia-Hörigkeit zu schliessen halte ich für unbegründet.

Frank
2002-02-09, 15:08:53
Originally posted by Richthofen
Leute so läuft das halt.

Wo ist das Problem :)
Solange ihr wisst was ihr euch kaufen müsst passt es doch.
Intel machts so und andere machens auch so.
Jedes Mittel ist Recht um Konkurenten auszustechen zu behindern was auch immer.
So läufts nunmal.
Geld machen steht ganz oben.
Dann nochmal Geld machen und dann nochmal Geld machen und dann die Kunden und gaaaanz am Ende die normalen Mitarbeiter derrer man sich in schlechten Zeiten auch mal schnell entledigt.
Das ist Kapitalismus pur so läufts seid Jahren und so wirds immer laufen.
Wer das rechtzeitig erkennt und für sich die Schlußfolgerungen zieht hat keine Probleme :)
Tja... Wo ist das Problem?

Also ich mag lieber unabhängige/freie Medien.

Unregistered
2002-02-09, 15:23:13
Yo
Das mein ich ja frank, ich bezahle für c't 5,50 dm und da darf ich doch unabhängige berichterstattung vorrausetzen!
Und das wa eine algemeinerung der Geforce 4 karten, nämlich das sie alle ganz toll sind.
Das die kastrierten geforce 4 karten so schnell wie eine geforce 1 sind, davon hab ich nix gelesen. hab nur gelsen das einige ati fetueres übernommen wurden
mehr nich

Quasar
2002-02-09, 15:32:39
Ich hab die c't zwar nicht im Abo, bekomme sie also erst Montag, allerdings würde mich schon stark wundern, wenn sie nicht GF4TI geschrieben hätten, oder auf andere Weise den Unterschied zwischen MX und TI kenntlich gemacht hätten...

GloomY
2002-02-09, 16:30:43
Lol

Ist neuerdings die Anzahl der Transistoren ein Kaufargument? Ich dachte immer, je weniger, desto kleiner -> billiger, und je weniger Verlustleistung desto höher der Takt.

"Im Vergleich zum Geforce3 sind nochmals 7 Millionen Transistoren hinzugekommen, so dass sich auf der Chipfläche des Geforce4 nun insgesamt 63 Millionen Tranistoren tummeln. Da können selbst moderne Prozessoren wie der Athlon XP mit 37,5 Millionen und der neue Pentium 4 mit 512 KByte L2-Cache und 55 Millionen Transistoren kaum mithalten"

Mal davon abgesehen, daß der Itanium schon 300 Mio. Transistoren hat und damit der GF4 weit vorraus ist, der Nachfolger des Itaniums (McKinley) hat noch mehr, aber egal, GF4 ist schon super, gell? ;-)

Soviel mal dazu...

Und mal ne kritische Frage zwischenrein: Wozu brauche ich eine Graka mit 128 MB Grafikram? Wo sind die Anwendungen, wo ich mit 64 MB am Ende bin?

Com1
2002-02-09, 16:58:47
Originally posted by GloomY
Lol

Und mal ne kritische Frage zwischenrein: Wozu brauche ich eine Graka mit 128 MB Grafikram? Wo sind die Anwendungen, wo ich mit 64 MB am Ende bin?

Nun. Ich denke dass ab 1600x1200x32 +FSAA die 64 MB langsam an die grenzen kommen, mit Betonung auf langsam ;)

wenn wir mal alle mit 2048 er Auflösungen spielen bringen 128 MB Grafik RAM sicher was *ggg*

aths
2002-02-09, 17:10:18
3dc gehört sicherlich auch zu den Medien, und ich habe eine große Achtung vor dem, was Leo aufgebaut hat. Hier äußern sich Stimmen, die ihre Meinung frei von wirtschaftlichen Interessen äußern, also nicht auf das Wohlwollen des Herstellers achten müssen, noch Teilbesitzer deselben sind.

Hier ist es bunter als in vielen anderen Medien.

Richthofen, du schreibst: "Das ist Kapitalismus pur so läufts seid Jahren und so wirds immer laufen." So "läuft" es im Moment. Doch nicht immer. Versprochen!

Leonidas
2002-02-09, 18:56:38
Originally posted by RAL
Diese "bis zu Aussagen" sind plakativ,



Plakative Aussagen sind was für Hersteller und denen nehme ich das auch nicht übel. Aber das ZDNet ist in der Pflicht, objektiv darüber zu berichten. Und die 115% als ersten Wert zu bringen und die supertollen Vorsprünge der GF4 noch extra im Diagramm einzurahmen hat nix mit Objektivität zu tun. Wenn man am Ende sagen muß, daß nVidia diesen Bericht nicht besser machen hätte können, ist irgendwas falsch gelaufen.

Leonidas
2002-02-09, 18:58:19
Originally posted by aths
3dc gehört sicherlich auch zu den Medien, und ich habe eine große Achtung vor dem, was Leo aufgebaut hat. Hier äußern sich Stimmen, die ihre Meinung frei von wirtschaftlichen Interessen äußern, also nicht auf das Wohlwollen des Herstellers achten müssen, noch Teilbesitzer deselben sind.



Was wir uns damit erkaufen, von ATi und nVidia weitgehend ignoriert zu werden.

Quasar
2002-02-09, 20:03:20
Originally posted by Com1


Nun. Ich denke dass ab 1600x1200x32 +FSAA die 64 MB langsam an die grenzen kommen, mit Betonung auf langsam ;)

wenn wir mal alle mit 2048 er Auflösungen spielen bringen 128 MB Grafik RAM sicher was *ggg*

1600x1200x32 mit 4xFSAA ist z.B. mit 64MB nicht möglich, 3D-Texturen verbrauchen auch Unmengen davon, ebenso HiRes-Texturen....

Thowe
2002-02-09, 22:18:52
Ich habe nichts dagegen wenn einzelne Personen vor dem einschlafen nVidia, ATI oder was auch immer anbeten. Allerdings erwarte ich von Medien einen objektiven Test, kann oder will der Author das nicht, soll er doch Märchenbücher schreiben.

Das einzige was noch fehlt ist sowas wie: "Dieser Test wird ihnen präsentiert von nVidia" oder "sponsored by ATI".

RAL
2002-02-09, 22:37:28
Vorsicht mit solchen Anschuldigungen, daß zdnet oder c't von nv gekauft sind. Tatsache ist, daß der Perf.zuwachs der GF4ti ggü. der Ti500 gross ist, verglichen mit anderen nv-launches. Das sehen die meisten Reviewer so, darum sehe ich solche Überschriften gelassen, denn sie ist zwar plakativ und meintewegen auch auf Bildzeitungsniveau, aber im Prinzip korrekt.
Wozu die Aufregung, das ist doch lacherbar. Zur Überschrift in der c't: Das haben sie immer schon so gemacht und das ist ein ganz normales Stilmittel. 'Versuche das wesentliche in einem bildhaften, allegorischen Satz rüberzubringen' und das ist ihnen immerg anz gut gelungen, hier auch wieder. "nVidia überholt ATI", das ist ein bild, das Bild eines Rennens, also gehts um speed und damit treffen sie ins schwarze. Wo also ist das Problem? Sind die benches alle gefaked?

Exxtreme
2002-02-09, 22:57:53
@ Thowe
*zustimm*
Da gibt es weitere Reviews der GF4 bei XBitLabs (http://www.xbitlabs.com/video/geforce4/)
Merkwürdigerweise sind hier die Leistungsunterschiede bei Weitem nicht so hoch wie bei THG und Anandtech. Was ich auch nicht verstehe, wieso hat Anand beim Aniso-Test ausgerechnet UT benutzt, das sehr CPU-limitiert ist. Q3A oder SerSam wären IMHO sicherlich besser dafür gewesen.
Ich weiss nicht - ich hatte bei den Reviews von THG, RivaStation und Anandtech das Gefühl, daß die GF4 unbedingt weit vor der R8500/GF3Ti500 liegen sollte.

Oder beamt euch mal diese "Ankündigung" bei Hartware (http://www.hartware.net/press.html?id=328) rein. Könnte aus einem Werbeprospekt stammen (@ Stefan Payne: Danke für den Link).

Gruß
Alex

RAL
2002-02-09, 23:03:17
Originally posted by Exxtreme
Oder beamt euch mal diese "Ankündigung" bei Hartware (http://www.hartware.net/press.html?id=328) rein. Könnte aus einem Werbeprospekt stammen (@ Stefan Payne: Danke für den Link).


Die zitierte Pressemitteilung? Mit Werbeprospekt liegst du da gar nicht so daneben. Gibts unter anderem auch auf ht4u zum launch der elsa-karten zu bewundern/bemängeln oder was auch immer. Eine PRESSEMITTEILUNG, Werbung eben, ganz unverhüllt.

Leonidas
2002-02-10, 00:53:48
Originally posted by RAL
Vorsicht mit solchen Anschuldigungen, daß zdnet oder c't von nv gekauft sind.



Wenn das so rüberkam: Dies meinte ich definitiv nicht. Die haben sich einfach nur nicht genügend zurückgelehnt und mit Abstand von der Sache berichtet. Und dafür 5 Jahre Journalistik-Studium ;-).

Leonidas
2002-02-10, 00:55:12
Originally posted by RAL
'Versuche das wesentliche in einem bildhaften, allegorischen Satz rüberzubringen'



DAS ist der entscheidende Punkt. Steht in diesem Satz als das wesentliche ein Durchschnittswert drin, ist alles ok. Aber nicht mit 115% den Peakwert als das wesentliche verkaufen. Das ist einfach abgrundtief falsch.

Piffan
2002-02-10, 01:18:43
In der Medienlandschaft ist einiges faul. Da gibts regelmäßig Cover- Überschriften wie "Alles Brennen", "Dirty tricks aus dem Internet" usw..... Bei der Jagd nach Kohle bzw im wirtschaftlichen Überlebenskampf gibts keine Moral mehr, es wird alles gemacht, was nicht direkt verboten ist.....Auch die von mir bisher hoch geschätzte c't ist sich nicht zu schade, auf diesen Zug aufzuspringen.....

Razor
2002-02-10, 01:41:11
Was hat Frank noch gleich geschrieben ?

"Also ich mag lieber unabhängige/freie Medien."
:bonk:

Sorry, aber so etwas hat es noch nie gegeben !
Ich bin sicherlich kein Pessimist, wenn ich so etwas behaupte, aber...
;-)

In diesem Sinne

Razor

P.S.: Eines noch... hier wird immer der Test von XBitLabs erwähnt. Dies ist allerdigns der einzige Test (von nunmehr fast 20 ;-), der keine besonders großen Unterscheide erkennt. Aber klar, die anderen 19 sind gekauft, nur XBitLabs 'spricht' die Wahrheit...
;D

aths
2002-02-10, 07:39:24
Razor,

3dc gehört zu den freien und unabhängigen Medien. Leo sprach auch die Nachteile an, nämlich dass die Hersteller uns nicht ernst- oder wahrnehmen. Dafür, so jedenfalls meine vorsichtige Hoffnung, der Besucher um so mehr.

Weil wir uns in Artikeln nicht mit anderen überbieten müssen, lassen wir auch reißerische Überschriften bleiben. Siehe "ATi Radeon 8500 128MB Präsentation" statt "Sensation: ATI attackiert nVIdia" oder "T&L - Das nicht eingelöste Versprechen" anstatt "Aufgedeckt: T&L-Hype nichts als Marketing-Lüge"

Leonidas
2002-02-10, 12:37:12
Das wären Titel gewesen :-)))))))). Da hätte ich den Laden zugemacht und hätte mich bei BILD beworben. Ich bin ein Fan von aussagekräftigen Titeln, aber reißerisch und aussagekräftig beisst sich in meiner Philosophie schon direkt.

Quasar
2002-02-10, 12:59:26
Deine (eure) Einstellung in allen Ehren, ich denke, daß das auch mit ein Grund ist, warum sich hier größtenteils gut informierte Leute wohlfühlen. Allerdings denken die meisten Sites wohl eher an die schwindenden Werbeeinnahmen, die sie noch generieren können und wählen zwecks gesteigertem Besucheranlockfaktor lieber eine reißerische Überschrift à la Blödzeitung.

Auch das ist ein Teil des heutigen Ellenbogengeschäfts, mit dem man sich wohl oder übel wird abfinden müssen, auch wenn man es persönlich nicht gutheißt.

Exxtreme
2002-02-10, 13:20:51
Tja, die guten Sites erkennt man am Inhalt und nicht an den Überschriften - ist genauso wie bei Zeitschriften. Ich weiss z.B. auch nicht, was ihr gegen den Artikel der c't habt. In meinen Augen ist er eigentlich relativ gut geschrieben. Die hätten auch schreiben können "Sensation - nVidia deklassiert ATI" oder Ahnliches. Und bei den Benches sieht die GF4 auch nicht so 'gut' aus wie bei THG oder Anandtech.


Gruß
Alex

Frank
2002-02-10, 13:30:07
Originally posted by Razor
Was hat Frank noch gleich geschrieben ?

"Also ich mag lieber unabhängige/freie Medien."
:bonk:

Sorry, aber so etwas hat es noch nie gegeben !
Ich bin sicherlich kein Pessimist, wenn ich so etwas behaupte, aber...
;-)

In diesem Sinne

Razor

Dein Aussage impliziert indirekt, dass es dir sowas von scheissegal ist ob Medien unabhängig sind oder nicht. Aber hauptsache du liesst das, was du auch selber lesen willst.

Klar gibt es Mißstände bei der Medienlandschaft... da gehören normale Tageszeitungen indirekt zB der SPD usw... Aber dafür sind wir ja "freie" Bürger - um selbst auszuwählen. Und wer nicht ganz Blind durch die Welt läuft, sieht auch wo man halbwegs Glaubwürdigkeit hat.

Razor
2002-02-10, 14:15:18
Wir haben hier lediglich die 'Freiheit' Dinge vom 'gebundenen' Medienangebot auszuwählen.

Dies tut JEDER !
Ist also keine 'Schuklappen'-gerichtete Erscheinung.

3DCenter macht hier größtenteils eine Ausnahme.
Aber verwunderlich ist auch, daß hier zum Beispiel auf Artikel "Ti500 vs. R8500" oder lang angekündigte BQ-Vergleich dieser nicht gemacht wird, um die Besucher nicht zu 'vergraulen'.

Ich kann's ja verstehen, aber auch das ist eine Art 'Selbstkasteiung' zum Wohle des Angebotes.

Unvoreingenommene Berichterstattung und rückhaltlose Information ist ein wunderschöner Traum !

In diesem Sinne

Razor

Leonidas
2002-02-10, 15:21:58
Originally posted by Razor
Aber verwunderlich ist auch, daß hier zum Beispiel auf Artikel "Ti500 vs. R8500" oder lang angekündigte BQ-Vergleich dieser nicht gemacht wird, um die Besucher nicht zu 'vergraulen'.



Sorry. Ich bin einfach nicht dazu gekommen, auch wenn ich es versucht habe. Leider türmen sich manchmal die Probleme oder werden unnötige geschaffen (Forum).

aths
2002-02-10, 15:28:27
Razor,

ich bin doch dafür bekannt, über nVidia rückhaltlos zu informieren :)

(Achtung, doppelter Wortwitz)

Quasar
2002-02-10, 15:35:13
...Hemmungslos würde es eher treffen *eg* , aber rückhaltlos ist auch schon gut :lol: ;)

RAL
2002-02-10, 16:21:39
Originally posted by Leonidas

DAS ist der entscheidende Punkt. Steht in diesem Satz als das wesentliche ein Durchschnittswert drin, ist alles ok. Aber nicht mit 115% den Peakwert als das wesentliche verkaufen. Das ist einfach abgrundtief falsch.

Ist aber ein gängiges Stilmittel, um Aufmerksamkeit zu erheischen. Wichtig ist imo eigentlich nur, daß die Aussage nicht falsch oder an den Haaren herbeigezogen ist. Der wert +115% kommt ja bei den benches vor, ausserdem wird wie schon gesagt darauf hingewiesen, dass er in aktuellen Spielen irrelevant ist.

RAL
2002-02-10, 16:29:16
<spam>
Rom ist untergegangen und nvidia wirds auch irgendwann erwischen, alles eine Frage der Zaubertränke äh Zeit, nur Mut.
</spam>

Unregistered
2002-02-10, 18:03:48
Ich würde mich nicht so über die Überschrift aufregen...wenn ich meine c't kaufen gehe und die ganzen anderen Pc-Zeitschriften sehe, die optisch und anscheinend auch inhaltlich der BILD immer ähnlicher werden (Computerbild mal außen vor - die bewerten Soundkarten zB primär danach, wie leicht sie zu installieren sind...)..wo war ich? Genau...diese ganzen Zeitschriften, auf denen mit riesigen Buchstaben auf dem Cover steht:
"Geheime Windowstricks", "So tunen Profis", "300% mehr Leistung kostenlos" und so weiter... Solche Käseblätter kauf ich dann halt nicht mehr, das ist mir einfach zu blöd. Von der c't bin ich eigentlich nur gutes (sprich: objektives) gewöhnt, wie auch von 3Dcenter. Ich sage nur: BILD Dir Deine Meinung! :)

StefanV
2002-02-10, 18:14:15
@guest

ABER:

Die c't war auch mal qualitativ besser...

Aber das war noch in Zeiten des legendären Windows 3.1 ;D ;D

Unregistered
2002-02-10, 18:16:00
Nicht nur in den Medien spielt sich so was ab. Hat jemand die Readme von Comanche 4 gelesen?


Anti-alias:
====================
Comanche 4 supports anti-aliasing mode only on next-generation
video cards featuring Nvidia’s NV25 chipset. Comanche 4 will
automatically detect whether you are running on a NV25 chipset
video card and enable the anti-aliasing selector in the options.
This feature has been disabled for all other video cards due to a
severe performance penalty when enabled.


Also für mich klingt das nach Werbung für Nvidias Karten.

2B-Maverick
2002-02-10, 18:27:34
vor 3 Ausgaben gab es einen Grafik-Karten Treibervergleich in der c't.

Dort schnitt die Radeon8500 grauenhaft unter WindowsXP ab, TROTZ der 6018er beta Treiber.
Als ich den Redakteur darauf hinwies, tat er erstaunt?
Konfigurationsfehler bei c't.. hmmm.. evtl. ....

Bis heute hat c't es anscheinend nicht hinbekommen die Windows-XP Rechner mit der R8500 einigermassen gut zu installieren.

Schaut euch mal nur den Nature-Score an: 31 fps!!!
Da bekomme ich mit meinem alten 1400er Athlon ja schon 42 fps!!

komisch, oder??

CU
Markus

Unregistered
2002-02-10, 20:23:55
Hmmm....was redet der Herr im ersten Posting da von wegen Vergleich GeForce 4 SD Ram und Radeon 8500???

Das kann man nicht vergleichen. Wenn schon fair..nVidia DDR Karte gegen ATi DDR Karte...alles andere ist Pfusch!

nVidia hat nun mit der GeForce 4 wieder was vorgelegt, ATi wir kontern...bin ich mir sicher.

Leider funktioniert die 8500 bei mir nicht richtig (das SideBand Adressing bringt bei mir nur Abstürze und ich habe bisher kein Tool gefunden, um das im ATi Bios abzuschalten).

Habe wieder meine Hercules 3DProphet 3 (GeForce 3 "Classic") drin.

Gruß

Frank

Lt.Cmdr.Sierra
2002-02-10, 21:26:12
Originally posted by Unregistered
... Leider funktioniert die 8500 bei mir nicht richtig (das SideBand Adressing bringt bei mir nur Abstürze und ich habe bisher kein Tool gefunden, um das im ATi Bios abzuschalten)...


Die Treiber waren doch schon immer ATI's größtes Problem. Ich hoffe nur, daß sich diesbezüglich etwas ändern wird, wenn Firmen wie Hercules (Guillemot) diese Sache in die Hand nehmen.


Die c't war die ganzen letzten Jahre nicht mehr objektiv, was die Beurteilung von Grafikkarten betrifft. Die Reporter sind in einem solchen Maße pro-NVIDIA eingestellt, daß es langsam weh tut.

Zur momentanen Lage auf dem Grafikkartenmark kann ich eigentlich nur feststellen, daß sich derjenige glücklich schätzen kann, der mit seiner momentanen Karte zufrieden ist.
Denn für mein dafürhalten gibt es zur Zeit nicht ein board, welches man mit ruhigem Gewissen kaufen kann.

*seuftz*
Wo sind die guten alten Zeiten, als man sich für 500,- DM 'ne Voodoo1 gekauft hat, und ganz genau wusste, das man für mindestens 1 Jahr wirklich vorne mit dabei war.
Wo man genau wusste, daß in dieser Zeit wirklich jedes Spiel damit besser aussah, als mit jeder anderen Karte.

Heutzutage zahlt man einen unverschämt hohen Preis für eine Grafikkarte, bei der man glaubt in die Zukunft zu investieren. Nur wofür zahlt man:
- Eine Unmenge Features, die (noch) nicht wirklich genutzt werden.
- Einen Polygondurchsatz, den (noch) kein Prozessor befriedigen kann.
- Einen Speichertransfer den 3dfx schon vor zwei Jahren mit lumpigem SD-RAM demonstrieren konnte (11,2 GB/s Voodoo5 6000 - Realleistung die auch ankommt, da DDR-RAM nicht so effektiv arbeitet)
- Die Gewissheit, daß man diese Karten nie wirklich nutzen kann, da die Renderingleistung der aktuellen Karten wohl unzureichend sein dürfte, wenn endlich mal ein Spiel auf dem Markt erscheinen sollte, daß die bezahlten Effekte auch wirklich nutzt.

b.t.w.
Diese Kunden Verarscherei die NVIDIA mit der GeForce 4 nun vorbereitet hat, stinkt doch zum Himmel. Ich sehe schon die vielen entäuschten Käufer eines Komplettrechners mit GeForce4 GraKa die zu ihrem entsetzen feststellen müssen, daß ihre horn-alte GF2-DDR schneller war.

Ich für meinen Teil werde wohl noch eine Ewigkeit warten müssen, bis ich mir mal mit ruhigem Gewissen eine Grafikkarte kaufen werde. Leider gibt es ja zur Zeit keine wirklich ernst zu nehmende Konkurrenz zu NVIDIA.
Einen großen Teil wirklich innovativer Patente haben sie sich ja bereits unter den Nagel gerissen. Bleibt nur abzuwarten, ob wir die jemals zu gesicht bekommen.

Unregistered
2002-02-10, 21:43:01
Originally posted by Unregistered


Leider funktioniert die 8500 bei mir nicht richtig (das SideBand Adressing bringt bei mir nur Abstürze und ich habe bisher kein Tool gefunden, um das im ATi Bios abzuschalten).

Habe wieder meine Hercules 3DProphet 3 (GeForce 3 "Classic") drin.

Gruß

Frank

Powerstrip. Ansonsten besorg Dir mal eine neues Boardbios;).

skampi

Razor
2002-02-10, 22:19:03
@aths

Offensichtlich hast Du das 'unvoreingenommen' überlesen...
'Hemmungslos' trifft auf Dich sicher eher zu, wie Quasar ja schon meinte...
;-)

In diesem Sinne

Razor

RAL
2002-02-11, 00:01:31
Lt.Cmdr.Sierra,

Ja, damals gab es das 3dfx-Monopol, darum konnte man sicher sein, daß man für etwa ein Jahr die beste Karte im Rechner hatte. Heute ist die Lage etwas komplizierter, mehr Auswahl, mehr verwirrendes Marketinggeplänkel, der Blick in die Zukunft ist vernebelt.

Aber preislich war es schonmal wesentlich schlimmer (GF2-ultra für 1400.-DM). Für ca. 500.-DM kriegt man heute doch was ganz ordentliches (ATi/Kyro-sei-Dank), das sicherlich auch ein Jahr lang gut genug sein wird, alles spielen zu können, was man so kaufen kann.

Das Problem, das ich eher sehe - und das sprichst du ja auch an -, sind die Spieletitel. Da passiert einfach zu wenig Innovatives. Die neuesten Actionknaller z.B. basieren auf der q3 engine, die schon recht betagt ist, wenn man die HW-Entwicklungszyklen dagegenhält. Und dafür reicht z.B. eine GF2/KyroII zusammen mit den fetten CPUs, die man heutzutage hinterhergeworfen bekommt, locker aus; von Spezialwünschen wie 4xFSAA, aniso. Filter mal abgesehen. Weiteres Beispiel: Das weitaus am meisten gespielte Online-Spiel Counterstrike basiert auf der Quake1 engine! Sollte die X-Box ein großer Erfolg werden, wird die 3D-Spieleentwicklung im PC-Sektor noch weiter ausdünnen, weil mit Konsolentiteln wesentlich mehr Kohle zu machen ist. Hier ist imo eine wirkliche Gefahr für die Zukunft der PC-3D-Spiele-Grafikhardware zu sehen. Alleine wegen 3Dmark2006 und Techdemos kauft man sich keinen 3D-Beschleuniger. nvidia weiß schon, warum es seine Geschäftsfelder auf Konsolen und Mainboardchipsätze ausweitet. Jetzt im Moment stehen sie finanziell super da, jetzt haben sie ihre Chancen und nutzen sie auch, sich für die Zukunft zu wappnen, indem sie in andere Sparten investieren.

Razor
2002-02-11, 00:45:28
@RAL

Schon mal Kreed angeschaut ?
(kanns gar nicht oft genug erwähnen, denn die Alpha hat mich echt umgehauen ;-)

Aber ich weiß schon, was Du meinst...
Schließlich soll das fertige Game dann ja auch erst Anfang 2003 heruas kommen.
Mit Doom3 wird's wohl ähnlich aussehen ("when it's done" ;-).

Zumindest U2 dürfte demnächst interessant werden, aber wirklich 'brauchen' wird man auch dafür keine DX8-Karte (auch wenn's mit 'hübscher' aussehen wird ;-).

Hoffe also mit Dir, daß sich die Spiele-Industrie da etwas einfallen lassen wird, aber die hat leider das gleiche Problem, wie die Kunden, denn wer kann schon heute sagen, welche Hardware in 2 Jahren verbreitet sein wird...

Schaun' wir mal, was da noch so kommt !

Kreed ist zumindest schon mal ein echter Hammer (und das auch noch spielbar, aber ähnlich Bug-behaftet, wie die U2-E3-Techdemo ;-), U2 wird schon mal ganz 'nett' werden, aber ich will endlich 'reine' DX8-Games...

Aber da werd' ich wohl noch ein bissel warten müssen und bis die da sind, wird meine gf3, wie auch die R8500/8800 oder gf4ti zum alten Eisen gehören (wie meine gute alte gfddr *schüff*).

In diesem Sinne

Razor

aths
2002-02-11, 11:31:45
Das ist der Unterschied, Razor. Du guckst dir Kreed an und meinst, was man denn außer PS.1.1 noch bräuchte. Ich gucke mir im SDK den Befehlssatz an und experimentiere ein wenig mit PS-Programmen herum, um festzustellen was PS.1.3 denn nun mehr kann.

Ich habe bislang nur stümperhafte PS-Programme geschrieben, wie sieht es bei dir aus? Ich habe darüber auf technischer Basis z.B. mit Xmas diskutiert, und du?

Du lobst genauso penetrant deine GF3, wie du über ATI herziehst. Wenn du nun schreibst "Offensichtlich hast Du das 'unvoreingenommen' überlesen..." wirkt das in meinen Augen ridiculous.

edit: Formulierung

Razor
2002-02-11, 12:36:15
Der Unterscheid zwischen uns beiden, aths, ist, daß ich mich am Ergbnis oreintiere und Du dich in der Theorie verfängst. Dein letzter Artikel ist schon wieder eine solche Geschichte, aber das hatten wir ja nun schon zur Genüge.

Lediglich Behauptungen aufgrund theoretischer Überlegungen aufzustellen, ohne auch nur den geringsten beleg dafür anzutreten richt einfach nicht.

Ich schaue mir ein Produkt an (in diesem Fall Kreed ;-) und frage mich ernsthaft, was diese ganze Diskussion über die vielen verschiedenen PS-Versionen soll, wenn allein mit den PS1.1 solche erstaunlichen und absolut konkurenzlosen Ergebnsse erzeilt werden.

Der angehängte Screen wird dem Ergebnis allerdings nicht gerecht, denn die Licht- und Schatteneffekte sind schlicht derzeit einzigartig. Die Lampen an den Decken schwingen hin-und-her und werfen diffusen Schatten, welche sich mit den anderen Beleuchtungseffekten mischen. Wabernder Bodennebel mischt sich mit den Lichteffekten usw.

Jeder der sich dieses Demo nocht nicht angeschaut hat, sollte dies dringend nachholen und sich die neueste PCGames (03/2002) kaufen.

It's worth it !!!
;-)

In diesem Sinne

Razor

Hier also ein stark komprimierter Shot von Kreed (JEPG30 *schluchts*):

Frank
2002-02-11, 13:42:01
So jetzt auch Senf von mir...

Nicht desto trotz ist die Theorie/ Technik / Algorithmen eine Elementare Grundlage um Rückschlüsse auf die Praxis zu schliessen - oder um diese überhaupt erst zu realisieren.

zB.:
Da nützt es nichts Razor, sich zum Beispiel SeriousSam2 oder RTCW anzuguggen um zu beurteilen was mit Truform oder was auch immer für eine Technik, egal ob im Trident CyberBlade oder im Geforce4 Ti3860, möglich ist. Gugg dir bitte nur mal eine einzige "theoretische" erläuternde Skizze zu Bézier oder ähnlichen an und du urteilst sofort anders. ... ich hoffe du weisst was ich meine.

Razor
2002-02-11, 14:02:34
Du wirst aber zugeben, Frank, daß Theorie und Praxis oft sehr weit auseinander gehen...

Und dieser Punkt ist mir besonders wichtig !

Der Nutzen von 'CurvedSurfaces' (oder HOS) ist mir durchaus klar und ich brenne darauf, endlich mal Dinge in Augenschein zu nehmen, die davon 'vernünftig' gebrauch machen.

Das 'Dolphin-Demo' von ATI hat mich wirklich beeindruckt, die halbherzigen Implementierungen bei SS/RTCW und Consorten alledings nicht (ganz im Gegenteil ;-)...

In diesen Sinne

Razor

aths
2002-02-11, 14:05:32
Razor,

lass es mich so sagen: Mittels dynamischem Lightmapping wäre solche Grafik theoretisch auf auf meiner Voodoo darstellbar (entsprechend langsam natürlich!)

PixelShader 1.1 bietet 4 Texturdeklarationen und dann ein Programm von maximal 8 Befehlen. Der PixelShader 1.1 bietet 6 Texturen, und bis zu 22 Befehle. Nun, die PS.1.4-Befehle orientieren sich eher an einem RISC-Befehlssatz, das heisst, dass für einige Sachen mehr Befehle gebraucht werden als PS.1.1, 1.2 oder 1.3. Dennoch bleibt unterm Strich eine erheblich längere Kette.

2 zusätzliche Texturen können z.B. als zusätzliche LookUp-Tabellen dienen, was u.a. für prozedurale Texturen wichtig ist. Außerdem können die Texturen auf flexiblere Art und Weise genutzt werden. Im PixelShader stellen sie oft keine Grafiken, sondern z.B. Normalenmaps u.ä. dar. Der PixelShader 1.4 erlaubt hier noch ganz andere Möglichkeiten, die Daten einer Textur zu verwenden.

Der PS.1.3 kennt z.B. den cmp-Befehl. Der testet auf <> 0 und trägt entsprechend source1 oder source2 in das Ziel-Register ein. Das geht mit dem PixelShader 1.1 nicht. Vermutlich wird dir der Vorteil vom cmp-Befehl nicht ohne weiteres klar sein; doch du kannst nicht erwarten, dass ich meine freie Zeit nur mit dir verbringe...

Razor
2002-02-11, 14:12:44
@aths

"lass es mich so sagen: Mittels dynamischem Lightmapping wäre solche Grafik theoretisch auf auf meiner Voodoo darstellbar (entsprechend langsam natürlich!)"

Unspielbar wäre wohl die treffendere Bezeichnung...
DAS ist das Beste, was es derzeit in der Visualisierung (für Consumer PC's ;-) gibt !
Punkt.

Und natürlich wäre eine solche Grafik auch auf einem reinem 2D-System möglich, bei dem der prozessor alle Berechnungen durchführt, aber ich rede hier von Echtzeit und nicht von einer Slideshow...

-

Im übrigen danke ich Dir für den kleinen Hintergrund bezüglich der PS1.4, aber ähnliches habe ich ausführlicher bereits bei Tommiti-Systems in Augenschein nehmen dürfen...

In diesem Sinne

Razor

aths
2002-02-11, 14:29:29
Razor:

"Du wirst aber zugeben, Frank, daß Theorie und Praxis oft sehr weit auseinander gehen..."

Wenn die Theorie richtig ist, stimmt sie mit der Praxis sehr gut überein.

Xmas
2002-02-11, 14:41:44
Originally posted by Razor
Ich schaue mir ein Produkt an (in diesem Fall Kreed ;-) und frage mich ernsthaft, was diese ganze Diskussion über die vielen verschiedenen PS-Versionen soll, wenn allein mit den PS1.1 solche erstaunlichen und absolut konkurenzlosen Ergebnsse erzeilt werden.
:lol::lol:
Jawoll, Razor. Wir brechen hier und jetzt den technologischen Fortschritt ab, weil die Grafik ja mittlerweile gut genug ist, und mehr ja eh keiner braucht.
Auch wenn du das nicht gemeint hast, genau so hört sich deine Argumentation an, und genau so sinnlos ist sie!

aths
2002-02-11, 14:45:54
Razor,

hehehe, ich hab da eine Idee :) Der 3DMark2001 SE (danke, Stefan!) soll ja auch einen PS.1.4-Test haben. Meinst du nicht auch, dass er wohl ansprechender als die 1.1-er Wasserfläche wird?

Mit NSR sind schon ohne PS erstaunliche Effekte möglich geworden, siehe GeForce3-Chamelion, welches auf einer GeForce4 MX läuft. Ist das ein Grund, auf PixelShader, bzw. möglichst gute PixelShader zu verzichten?

Schwerlich.

Du argumentierst, wie so oft, von deiner GF3-Basis ausgehend. Von dieser Warte aus beurteilst du Anti-Aliasing (in erster Linie nach Speed) und nun auch PixelShader. Das bessere PixelShader ein Fortschritt sind, und dieser hier von ATI kommt, dagegen scheinst du dich mit Händen und Füßen zu wehren. (Hier passt auch gut rein, dass dir der Tonfall meiner letzten Artikel nicht passte - weil ich ein paar deutliche Worte zur technologischen Lage der letzten nVidia-Produkte fand.)

Leonidas
2002-02-11, 15:16:05
Friede, Friede!

Razor
2002-02-11, 15:17:13
@Xmas

"Wir brechen hier und jetzt den technologischen Fortschritt ab, weil die Grafik ja mittlerweile gut genug ist, und mehr ja eh keiner braucht."

Derzeitige Technologie wird noch nicht einmal ausgereizt und schon setzt man was neues drauf. DAS ist letzendlich das Problem, warum wir eben noch keine Grafik haben, die 'gut genug' ist...

Insofern würde ich tatsächlich dafür plädieren, ein wenig den Schwung aus dem Release-Wahnsinn zu nehmen und sich nun auf derzeitige Technologie zu konzentrieren. Ich vermute, dam man genau dies mit der Xbox erreichen will, die nun erst einmal frei von 'Neuerscheinungen' sein wird und somit für die Entwickler eine solide Basis darstellt. Letztendlich wird dies auch der jetzigen PC-Basis zugute kommen (gf3), vor allem aber dem NV25, der technlogisch (mit einem nForce-Board zusammen ;-) der XBox kaum noch nachsteht.

Ich würde mich nun wirklich nicht als Innvationsfeindlich ansehen, aber ich würde mir wirklich wünschen, daß wir nun endlich mal wirklich neue Dinge zu sehen bekommen. U2 wird zum Großteil noch alte (DX7) 'Hausmannskost' sein, aber Kreed z.Bsp. ist ein echter Hammer und ich hoffe inständig, daß mehr Dinge in dieser Richtung kommen werden.

@aths

"Wenn die Theorie richtig ist, stimmt sie mit der Praxis sehr gut überein."

Wenn, ja wenn...
;-)

"Der 3DMark2001 soll ja auch einen PS.1.4-Test haben. Meinst du nicht auch, dass er wohl ansprechender als die 1.1-er Wasserfläche wird?"

3DMark2001SE wenn ich recht entsinne...
Und den Rest warten wir doch lieber ab, oder ?
;-)

Ansonsten: Fortschritt nicht um jeden Preis und schon gar nicht, wenn dadurch Inkomaptibilitäten und damit Nachteile für die Entwickler und damit letztendlich uns Endbenutzer entstehen.

Insofern paßt mein Kommentar zu Xmas auch auf Dein Posting...
;-)

@Leo

So verbissen sehe ich das gar nicht !
;-)

In diesem Sinne

Razor

christoph
2002-02-11, 15:30:44
also es gibt imo schon einen unterschied aus technischem interesse oder aus
gamer perspektive zu diskutieren/agumentieren.

im falle der pixelshader revisionen:
aus technischer sicht ist ps 1.4 sicherlich ein fortschritt. flexibler, leistungsfähiger und leichter zu progammieren.

aus user-sicht ist die sache schwieriger zu beurteilen:
developer support und die art und weise der ps implementierung scheinen mir hier die wichtigsten
faktoren zu sein. ich glaube nicht, das es bis ende des jahres eine nennenswerte anzahl von
spielen geben wird, die überhaupt ps (welche rev auch immer) verwenden, also kann es mir herzlich egal sein, welche rev die karte meiner wahl unterstützt.

es kommt zum problem, wenn technische argumente zu fan-boy diskussionen missbraucht werden :)
als beispiel möchte ich hier die af-technik der 8500 heranziehen:
die jungs von beyond 3d haben seinerzeit herausgefunden, das ati rip-mapping benutzt.
seitdem wird dieses in vielen diskussionen als argument gegen die 8500 missbraucht:
hey, die unterstütz ja nicht mal richtiges af...

nggalai
2002-02-11, 16:46:09
Jawoll, Razor. Wir brechen hier und jetzt den technologischen Fortschritt ab, weil die Grafik ja mittlerweile gut genug ist, und mehr ja eh keiner braucht.
Auch wenn du das nicht gemeint hast, genau so hört sich deine Argumentation an, und genau so sinnlos ist sie!:lol:

Stimmt. :D Im übrigen lassen sich alle Kreed-Effekte, welche ich bisher live gesehen habe, wohl auch mit (DOT3) per-pixel lighting und shadow volumes erreichen, was auf DX8-Hardware auch nicht viel langsamer wäre UND auf einer breiteren User-Basis laufen würde . . . Sollen die Kreed-Macher also gleich komplett auf PS verzichten?

ta,
-Sascha.rb

Haarmann
2002-02-11, 17:04:43
Also ich will ja ned gemein sein Razor...

Aber es sieht aus, als ob der Shot erst durch 10 Quincunx Filter lief...
Wo sind hier scharfe Texturen?

aths
2002-02-11, 17:05:44
Razor schreibt: "Ansonsten: Fortschritt nicht um jeden Preis und schon gar nicht, wenn dadurch Inkomaptibilitäten und damit Nachteile für die Entwickler und damit letztendlich uns Endbenutzer entstehen."

Ich krieg die Tür nicht zu! Jedes neue Feature ist zunächst sozusagen "inkompatibel" (Von Sachen wie FSAA und AF mal abgesehen.) Der PS 1.4 bringt nun angeblich nicht nur keine Vorteile, sondern sogar Nachteile? Was rauchst du??

"Nachteile" brachte zunächst 32-Bit-Rendering, nämlich um bis zu 40% tiefere Frameraten. Sollen wir deswegen heute noch immer 16-bittig fahren oder was?

"Insofern würde ich tatsächlich dafür plädieren, ein wenig den Schwung aus dem Release-Wahnsinn zu nehmen und sich nun auf derzeitige Technologie zu konzentrieren."

Japp, nach dem du 870 DM für deine GF3 ausgegeben hast, machen wir am besten mal bei der GF3-Technik einen Schnitt, damit deine Investition möglichst lange hält. Wozu soll Fortschritt schon nütze sein, wenn du dir in Bälde keine modernere HW kaufen willst?

Razor
2002-02-11, 19:09:28
Originally posted by Haarmann
Also ich will ja ned gemein sein Razor...

Aber es sieht aus, als ob der Shot erst durch 10 Quincunx Filter lief...
Wo sind hier scharfe Texturen?
Leider wird man hier ja jetzt dazu gezwungen, die größe der Anhänge auf 30kb zu beschränken.

Alles was vorher scharf war, ist es dann nicht mehr, oder wie soll ich sonst einen 800x600-Shot auf 30kb bringen ?
(musste JPEG30 benutzen *igitt* ;-)

So nun muß ich aber los, alles weitere dann später !
(meine Freundin wartet schon ;-)

Bis denne und bis dahin
:bier:

Razor

StefanV
2002-02-11, 19:20:02
1. Gibt ja genug Freespace Provider ;D

2. :naughty:

Thowe
2002-02-11, 21:13:07
Originally posted by Razor
"Wenn die Theorie richtig ist, stimmt sie mit der Praxis sehr gut überein."

Wenn, ja wenn...


Ich erlaube mir einfach mal eine Aussage von ow hier zu verwenden: "2+2=4"

Auch wenn mir Naturwissenschaften nicht viel bedeuten, ich mich nicht gerne mit ihnen beschäftige und Casteljau für mich wie ein Fisch klingt, ändert es nicht an der Tatsache das hier beweisbare Ergebnisse vorliegen.

MadManniMan
2002-02-11, 23:41:01
hm... razor...

ich hab die kreed demo gestern auf nem bis zum anschlag optimierten(nicht zwangsläufig übertakteten) 1,4er tb mit gf3 ti500 gesehen und mußte nach meinem staunen über die herrliche grafik mit entsetzen feststellen, daß 1024 doch EINIGE ruckler hervorbrachte...

Unregistered
2002-02-12, 10:26:37
Originally posted by Razor
@RAL

Schon mal Kreed angeschaut ?
(kanns gar nicht oft genug erwähnen, denn die Alpha hat mich echt umgehauen ;-)

Aber ich weiß schon, was Du meinst...
Schließlich soll das fertige Game dann ja auch erst Anfang 2003 heruas kommen.
Mit Doom3 wird's wohl ähnlich aussehen ("when it's done" ;-).

Zumindest U2 dürfte demnächst interessant werden, aber wirklich 'brauchen' wird man auch dafür keine DX8-Karte (auch wenn's mit 'hübscher' aussehen wird ;-).

Hoffe also mit Dir, daß sich die Spiele-Industrie da etwas einfallen lassen wird, aber die hat leider das gleiche Problem, wie die Kunden, denn wer kann schon heute sagen, welche Hardware in 2 Jahren verbreitet sein wird...

Schaun' wir mal, was da noch so kommt !

Kreed ist zumindest schon mal ein echter Hammer (und das auch noch spielbar, aber ähnlich Bug-behaftet, wie die U2-E3-Techdemo ;-), U2 wird schon mal ganz 'nett' werden, aber ich will endlich 'reine' DX8-Games...

Aber da werd' ich wohl noch ein bissel warten müssen und bis die da sind, wird meine gf3, wie auch die R8500/8800 oder gf4ti zum alten Eisen gehören (wie meine gute alte gfddr *schüff*).

In diesem Sinne

Razor

Nur ein kleine Hinweis Doom 3 wird auch auf den herkömlichen Grafikakrten laufen, sie dazu das aktuellen plan Update von John Carmack.... ;), d.h. wirklcih brauchen werd ich eine DX 8 auch ned denn es läuft ja noch auf einer dx 7 karte ;)

aber kreed sieht geil aus, zumindest das was ich bisher davon gesehen habe. DAS einzige was mich in dem Spiel nervt dass die Effekte absiolut übertrieben dargestellt werden. Und sie einem auf die NErven gehen, immer die selben Schatten usw.. DAs wirkt alles so aufgesetzt.... (und das sage ich nachdem ich einmal ein video von ca 2 minuten länge gesehen habe)

Pengo
2002-02-12, 10:34:00
Originally posted by Unregistered


Nur ein kleine Hinweis Doom 3 wird auch auf den herkömlichen Grafikakrten laufen, sie dazu das aktuellen plan Update von John Carmack.... ;), d.h. wirklcih brauchen werd ich eine DX 8 auch ned denn es läuft ja noch auf einer dx 7 karte ;)



Das wort laufen solltest du in Anführungszeichen setzen!

"
Do not buy a GeForce4-MX for Doom.

...

GF4-MX will still run Doom properly, but it will be using the NV10 codepath
with only two texture units and no vertex shaders. A GF3 or 8500 will be
much better performers. The GF4-MX may still be the card of choice for many
people depending on pricing, especially considering that many games won't use
four textures and vertex programs, but damn, I wish they had named it
something else."

Razor
2002-02-12, 10:55:40
@nggalai

"Im übrigen lassen sich alle Kreed-Effekte, welche ich bisher live gesehen habe, wohl auch mit (DOT3) per-pixel lighting und shadow volumes erreichen, was auf DX8-Hardware auch nicht viel langsamer wäre UND auf einer breiteren User-Basis laufen würde . . . Sollen die Kreed-Macher also gleich komplett auf PS verzichten?"

Wie auch immer Du das gemeint haben solltest: Solche Effekte habe ich noch nicht in irgendeiem (!) Tech-/Game-Demo oder sonst wo gesehen (außer in vorgerenderten Videos vielleicht ;-). Dann frage ich Dich doch einmal: wieso haben wir so etwas dann nicht schon lange ?

Wäre Dir für eine diesbezügliche (ernste) Antwort dankbar !

Auch ist die Kreed-Apha zur Zeit NUR auf DX8-Hardware (erwähnt wurde nur die gf3 !) lauffähig, aber mit der Zusage, dies auch mit reduzierten (!) Effekten für andere Hardware verfügbar zu machen...

@aths

"Ich krieg die Tür nicht zu!"
Na dann hol doch einen Klemptner !
;-)

"Jedes neue Feature ist zunächst sozusagen "inkompatibel" (Von Sachen wie FSAA und AF mal abgesehen.) Der PS 1.4 bringt nun angeblich nicht nur keine Vorteile, sondern sogar Nachteile?"
Ich denke, Du hast mich genau verstanden !

"Was rauchst du??"
Wenn ich mir Deinen Avatar so anschau, dann sollte man das lieber Dich fragen !
;-)

""Nachteile" brachte zunächst 32-Bit-Rendering, nämlich um bis zu 40% tiefere Frameraten. Sollen wir deswegen heute noch immer 16-bittig fahren oder was?"
Also gibtst Du zu, daß der PS1.4 Performance-Nachteile hat ?

"Japp, nach dem du 870 DM für deine GF3 ausgegeben hast, machen wir am besten mal bei der GF3-Technik einen Schnitt, damit deine Investition möglichst lange hält. Wozu soll Fortschritt schon nütze sein, wenn du dir in Bälde keine modernere HW kaufen willst?"

Wenn es etwas geben würde, was eine Neuanschaffung rechtfertigt, bin ich sofort dabei !
;-)

@Stefan

"1. Gibt ja genug Freespace Provider "

Die Bilder direkt verlinken lassen ?
Sag mir einen !
;-)

@Thowe
Ich erlaube mir einfach mal eine Aussage von ow hier zu verwenden: "2+2=4"

Auch wenn mir Naturwissenschaften nicht viel bedeuten, ich mich nicht gerne mit ihnen beschäftige und Casteljau für mich wie ein Fisch klingt, ändert es nicht an der Tatsache das hier beweisbare Ergebnisse vorliegen.
Na dann mal her damit !
;-)

@madmanniman
ich hab die kreed demo gestern auf nem bis zum anschlag optimierten(nicht zwangsläufig übertakteten) 1,4er tb mit gf3 ti500 gesehen und mußte nach meinem staunen über die herrliche grafik mit entsetzen feststellen, daß 1024 doch EINIGE ruckler hervorbrachte...
Tatsächlich ?
Ich habe Kreed mit 2xRGMS und 4xAniso in Augenschein nehmen dürfen und es gab absolut KEINE Ruckler und das auf'n P3-900/BX mit SDRAM... und wie hast Du überhaupt 1024 einstellen können, denn das Demo startet default in 800x600 und es gibt auch keine Optionen, die man einstellen könnte...
;-)

@Unreg.

"Nur ein kleine Hinweis Doom 3 wird auch auf den herkömlichen Grafikakrten laufen, sie dazu das aktuellen plan Update von John Carmack.... , d.h. wirklcih brauchen werd ich eine DX 8 auch ned denn es läuft ja noch auf einer dx 7 karte"

Klar, laufen wird es auch auf 'ner DX7-Karte... aber wie ?

Auch dazu gibt's 'ne Menge Aussagen, u.a. eine ganz aktuelle, daß besagter Carmack davor warnt, eine gf4mx für Doom3 zu kaufen... aber das nur am Rande...
;-)

"aber kreed sieht geil aus, zumindest das was ich bisher davon gesehen habe. DAS einzige was mich in dem Spiel nervt dass die Effekte absiolut übertrieben dargestellt werden. Und sie einem auf die NErven gehen, immer die selben Schatten usw.. DAs wirkt alles so aufgesetzt.... (und das sage ich nachdem ich einmal ein video von ca 2 minuten länge gesehen habe)"

Dann schau Dir mal die spielbare Alpha an !
(und es ist nur eine Alpha)
;-)

Ansonsten stimme ich Dir zu, das, was ich in Augenschein nehmen durfte ist schlicht ein HAMMER !
Sehr viel besser, als das, was bisher zu U2 zu sehen war...
;-)

@Pengo

Na dann hätt' ich mir das Kommentar zu DX7-Karten unter Doom3 ja gleich schenken können...
Und man sollte vielleicht noch erwähnen, daß die gf4mx die modernste (!) DX7-Karte ist, welche zur Zeit vefügbar ist !
;-)

Bis denne

Razor

nggalai
2002-02-12, 11:09:09
Hi Razor,

Du hast den Sinn meiner Aussage nur selektiv verstanden. Ich hebe mal die wichtigen Bereiche hervor:Im übrigen lassen sich alle Kreed-Effekte, welche ich bisher live gesehen habe, wohl auch mit (DOT3) per-pixel lighting und shadow volumes erreichen, was auf DX8-Hardware auch nicht viel langsamer wäre UND auf einer breiteren User-Basis laufen würde . . . Sollen die Kreed-Macher also gleich komplett auf PS verzichten?Deine Haupt-Argumentation gegen ein Verwenden von PS1.4 ist, dass der Marktanteil zu gering sei und man auf den kleinsten gemeinsamen Nenner setzen wird--besonders, da ja PS1.1 "reichen", um die gewünschten Effekte zu erzielen. Meine Kreed-Aussage sollte deine Argumentation ja genau ins Extrem ziehen und zeigen, wie wenig praktikabel das wäre, wenn man sich konsequent an einer solchen Einstellung festhalten würde. Meine Post ist im Kontext als Antwort zu XMas' Posting zu verstehen.

Also: die Argumentation "PS1.4 braucht's nicht, weil es geht ja auch mit PS1.1" habe ich polemisch weitergeführt zu "PS1.1 brauchts auch nicht, weil es geht ja auch mit anderen Methoden". Da sind dir die Probleme sofort aufgefallen. Weshalb bei PS1.4 -> PS1.1 nicht?

ta,
-Sascha.rb

Edit: Sinn der Post etwas klarer formuliert.rb

aths
2002-02-12, 12:07:05
Razor,

da du noch immer nicht zu einer Diskussion bereit bist, sondern dich wie ein Troll aufführst, mach ich es sehr kurz. Du fragst: "Also gibtst Du zu, daß der PS1.4 Performance-Nachteile hat ?" Dazu meine Antwort: Kannst du den Performance-Nachteil durch Benchmark-Ergebnisse belegen? Nein. Also erübrigt sich deine Frage.

2B-Maverick
2002-02-12, 12:20:41
Laut Carmak hat 1.4 sogar deutliche Performance VORteile, die leider wohl aufgrund von Hardware-Fehlern (*SNIFF*) dann im Endeffekt nicht ausgenutzt werden können (bzw. evtl. vom High-Polygon Bug aufgehoben werden??).

CU
Markus

Razor
2002-02-12, 12:23:20
@nggalai

Ich glaube schon, daß ich Dich richtig verstanden habe...

"Deine Haupt-Argumentation gegen ein Verwenden von PS1.4 ist, dass der Marktanteil zu gering sei und man auf den kleinsten gemeinsamen Nenner setzen wird--besonders, da ja PS1.1 "reichen", um die gewünschten Effekte zu erzielen. Meine Kreed-Aussage sollte deine Argumentation ja genau ins Extrem ziehen und zeigen, wie wenig praktikabel das wäre, wenn man sich konsequent an einer solchen Einstellung festhalten würde."

Zur Zeit wird sogar noch genau an dieser Einstellung festgehalten !
Oer wie ist es zu erklären, daß sich selbst für Doom3 noch immer an DX7-Hardware orientiert wird ? U2 macht schon mal einen Zwischenschritt vor, der, bezogen auf derzeitig verfügbare Hardware, auf DX7-Hardware entwicklet, nun DX8-Effekte bekommt und somit auf einer breiten Basis lauffähig ist, den DX8-Nutzern aber einen Mehrwert bringt. Ist selbiges auch von den PS1.4 zu erwarten ?

Bei Kreed sieht das schon anders aus, denn es ist (wie Doom3 auch) primär auf DX8-Hardware ausgelegt (SOLL Effekte), wird aber aus Kompatibilitätsgründen auch auf DX7-Hardware laufen. Insbesondere Doom3 muß hier allerdings aus der Betrachtung genommen werden, da Chip-Spezifische Extensions 'eh separat angesprocen werden müssen und hier die DX-Klassifizierung nur eingeschränkt gilt.

Insofern stimme ich Dir ja sogar zu, denn das Verhalten der Entwickler wird (noch) exakt aus diesem Grund (verbreitete Hardwarebasis) noch durch eine solche Einstellung (DX7 ist Standard) bestimmt. Ich wünsche mir einfach nur, daß dies bald mir DX8 der Fall sein wird und das auf dem kleinsten gemeinsamen Nenner, der nun ma durch PS1.1 repräsentiert wird.

Insofern war meine Feststellung auch rein rethorisch, denn es wird vermutlich (!) so ca. 2-3 Jahre dauern, bis sich dieser Wandel vollständig vollzogen hat.

"Weshalb bei PS1.4 -> PS1.1 nicht?"

Wei dem auch sei, es wird tatsächlich von dem Erscheinen anderer Hardware abhängig sein, ob sich so etwas wie PS1.4 wirklich durchsetzen kann, denn bleibt ATI der einzige Anbieter, dann ist dieses 'Feature' zum Scheitern verurteilt !

Nichts anderes wollt ich damit sagen !

@aths

"Du fragst: "Also gibtst Du zu, daß der PS1.4 Performance-Nachteile hat ?" Dazu meine Antwort: Kannst du den Performance-Nachteil durch Benchmark-Ergebnisse belegen? Nein. Also erübrigt sich deine Frage."

Kannst Du die Effektivität und den technologischen Vorteil des PS1.4, den Du hier propagierst, durch Benches belegen ?
Nein ?
Dann ist auch diese Feststellung nichtig !
;-)

In diesem Sinne

Razor

Razor
2002-02-12, 12:25:29
Originally posted by 2B-Maverick
Laut Carmak hat 1.4 sogar deutliche Performance VORteile, die leider wohl aufgrund von Hardware-Fehlern (*SNIFF*) dann im Endeffekt nicht ausgenutzt werden können (bzw. evtl. vom High-Polygon Bug aufgehoben werden??).
Würde ich erst einmal abwarten !

Auch hier muß sich erst noch heraus stellen, ob das von JC beschriebene Problem tatsächlich auf die Hardware zurück zu führen ist (was übrigens auch für das AF-'Problem' der gf4ti gilt ;-).

In diesem Sinne

Razor

aths
2002-02-12, 13:26:26
zum PS.1.4:

von Leistungsvorsprungen habe ich nicht gesprochen, bitte leg mir da nichts in den Mund. Der technologie Vorsprung von PixelShader 1.4 ist mit einem Blick in die Doku (z.B. DX8.1 SDK) leicht zu sehen.

Pengo
2002-02-13, 03:24:14
Originally posted by aths
zum PS.1.4:

von Leistungsvorsprungen habe ich nicht gesprochen, bitte leg mir da nichts in den Mund. Der technologie Vorsprung von PixelShader 1.4 ist mit einem Blick in die Doku (z.B. DX8.1 SDK) leicht zu sehen.

Wie meinst du daß - ich habe noch keinen Beleg gesehen daß PS 1.4 auch Effektmäßig sichbar mehr als PS 1.3 bringen kann. Wenn ATI Marketing dies behauptet heißt es nicht daß es in der Praxis auch so sein wird.

nggalai
2002-02-13, 08:45:48
Hi Pengo,Wie meinst du daß - ich habe noch keinen Beleg gesehen daß PS 1.4 auch Effektmäßig sichbar mehr als PS 1.3 bringen kann. Wenn ATI Marketing dies behauptet heißt es nicht daß es in der Praxis auch so sein wird.Nur ein Beispiel:

Wertebereich von -8 zu +8 (PS1.1-3: -1 zu +1, verwendet wird meist 0 zu +1). Was das ausmachen kann, kann man z.B.hier (http://bbs.pcstats.com/beyond3d/messageview.cfm?catid=3&threadid=1974) nachlesen.

ta,
-Sascha.rb

Edit: Effektebeispiele gelöscht.rb

Pengo
2002-02-13, 15:56:08
Originally posted by nggalai
Hi Pengo,Nur ein Beispiel:

Wertebereich von -8 zu +8 (PS1.1-3: -1 zu +1, verwendet wird meist 0 zu +1). Was das ausmachen kann, kann man z.B.hier (http://bbs.pcstats.com/beyond3d/messageview.cfm?catid=3&threadid=1974) nachlesen.

ta,
-Sascha.rb

Edit: Effektebeispiele gelöscht.rb

Ich glaube es erst wenn ich was fertig programmiertes sehe. Ich denke Pixel shader werden gehörig überschätzt, glaube nicht daß dieses Jahr ein einziges Spiel rauskommt bei dem es durch Pixel shader bessere Grafik gibt.

Hab sogar irgendwo gelesen daß auf der GF3/4 gar kein Pixel Shader drauf ist sondern alles über Register Combiners emuliert wird, d.h. PS 1.3 wäre an sich auf der GF1 möglich. (kann sowas sein?)

Exxtreme
2002-02-13, 16:09:33
Originally posted by Pengo


Ich glaube es erst wenn ich was fertig programmiertes sehe. Ich denke Pixel shader werden gehörig überschätzt, glaube nicht daß dieses Jahr ein einziges Spiel rauskommt bei dem es durch Pixel shader bessere Grafik gibt.
Ich denke, daß die PS nicht überschätzt werden. Du solltest dir mal ATI's TreasureChest-Demo reinbeamen. Da sind Effekte drin, die AFAIK nicht ohne Weiteres möglich sind.
Originally posted by Pengo

Hab sogar irgendwo gelesen daß auf der GF3/4 gar kein Pixel Shader drauf ist sondern alles über Register Combiners emuliert wird, d.h. PS 1.3 wäre an sich auf der GF1 möglich. (kann sowas sein?)
Der PS 1.1 ist AFAIK ein gut aufgemotzter Register Combiner. Deswegen hat ATI auch den PS 1.4 rausgebracht.

Gruß
Alex

Xmas
2002-02-13, 16:33:14
Man sollte nicht den Fehler machen, die Pixelpipeline aktueller Hardware mit einer CPU zu vergleichen. Da werden nicht wirklich Instruktionen verarbeiten, es gibt keinen Fetch-Decode-Execute-Zyklus. Eher handelt es sich um eine State Machine, d.h. es wird der Betriebsmodus gesetzt, und die Hardware führt mit unterschiedlichen Eingangsdaten immer und immer wieder dieselben Operationen aus, bis der Betriebsmodus geändert wird. Deswegen sind hier auch keine Befehle zur Ablaufsteuerung (bedingte Sprünge) möglich.

aths
2002-02-13, 16:33:25
Pengo,

du schreibst völlig zurecht: "Wenn ATI Marketing dies behauptet heißt es nicht daß es in der Praxis auch so sein wird."

Allerdings behauptet das nicht nur das Marketing. Drei Vorteile von PS.1.4 sind sofort offensichtlich:

1. Wertebereich von -8... +8 (statt -1 ... +1)

2. Bis 6 Texturen pro Pass (statt 4 Texturen pro Pass.)

3. Die erlaubte Programmlänge ist größer (aufgrund der teilweise komplizierten Interna nenne ich hier keine Zahlen, da ließen sich bestimmte Fälle konstruieren in denen das nicht genau hinkommen würde.)

Der Befehlssatz unterscheidet sich stark von den anderen PS. Auf den ersten Blick sind die Vorteile nicht zu sehen, da die nV-PS teilweise sogar über komplexere Befehle verfügen (also Befehle, welche mehr machen als die meisten PS.1.4-Befehle.)

Die Vorteile werden aber mit dem 2. Blick sichtbar. So lassen sich Texturen beispielsweise vielseitiger verwenden. Der Programmierer ist letzlich "freier", da weniger an vorgegebene Operationen gebunden, er bastelt sich seine Effekte aus kleineren Stücken zusammen und gewinnt so mehr Einfluss über sie.

Es ist technisch gesehen unwichtig, ob in diesem Jahr ein Spiel bessere Grafik durch PS hat. Wichtig ist einzig und allein, ob bessere Grafik möglich ist. (Denn nur dann hat diese Technik Zukunft.)

Pengo
2002-02-13, 17:28:07
Originally posted by Exxtreme

Ich denke, daß die PS nicht überschätzt werden. Du solltest dir mal ATI's TreasureChest-Demo reinbeamen. Da sind Effekte drin, die AFAIK nicht ohne Weiteres möglich sind.


Muß ich wirklich mal machen, auf den Screenshots schaut nämlich diese Demo ziemlich beschissen aus.

Razor
2002-02-13, 17:41:00
@nggalai
Wertebereich von -8 zu +8 (PS1.1-3: -1 zu +1, verwendet wird meist 0 zu +1). Was das ausmachen kann, kann man z.B.hier (http://bbs.pcstats.com/beyond3d/messageview.cfm?catid=3&threadid=1974) nachlesen.
Wenn ich die Beispiele richtig verstanden habe, dann läuft auf so ziemlich allen Karten der NSR/PS1.0 mit einem Wertenbereich von 0 bis +1. Die gf3 mit den PS1.1(ff) immerhin schon den Bereich -1 zu +1 benutzt (wofür aber KEIN Beispiel angegeben ist !).

Solche ähnlichen Effekte (auch das bessere Beispiel mit höherem Wertebereich) wurde doch schon im TresureChest-Demo von ATI gezeigt, insofern für mich zumindest vorerst kein gewaltiger Unterschied zwischen der in TresureChest gezeigten Scene (auf gf3 lauffähig) und derer, die einen Wertebereich von 0 bis +8 nutzen soll (Screenshot von gepostetem Link).

Zumindest ist klar, warum selbst die PS1.1 (-1 bis +1) einen Vorteil gegenüber der herkömmlichen Shadern (0 bis +1) haben und warum auch zumindest theoretisch (wie gesagt, direkter Vergleichsmöglichkeit fehlt) der höhere Wertebereich der PS1.4 (-8 bis +8) einen weiteren Vorteil verbuchen kann.

Aber selbst die Leute von Beyond3D sind sich offensichtlich nicht so ganz einig, ob dies nun notwendig ist, bzw. das gezeigte Beispiel wirklich nur auf die höhere Präzision zurück zu führen ist (der Programmierer des Demos, Humus, erreichte die '0 zu +1' Darstellung auch lediglich mit einer ATI-OpenGL-Extension, insofern hier zumindest ein kleines Fragezeichen gesetzt werden muß). Eine dritte Position besagt sogar (Humus hat dem sogar zugestimmt), daß selbst ein Bereich von 8- bis +8 nicht ausreichend ist und fordert 64-Bit oder einen Fließkomma-Wertebereich. Es ist ganz klar fortschrittlicher, was dort mit der R8500 realisiert wurde, aber selbst die gf3 hat den ursprüchlichen Wertebereich bereits verdoppelt, nur hat die R8500 dies dann eben noch einmal verachtfacht (oder im Vegleich zum Ursprung eben versechzehnfacht ;-), i.e. 1Bit/NSR/PS1.0 vs. 2Bit/PS1.1 vs. 4Bit/PS1.4. Auch könnte ein ähnlicher Effekt mit sog. 'postscaling' oder 'modulate_4x' erreicht werden, worüber dann aber nur wenig (verständliches ;-) gesagt wurde.

Ich vermute aber, daß es sich dabei ähnlich verhält, wie mit dem PS1.4 Test beim 3DMurks2k1SE, wobei die PS1.4-Effekte via PS1.1 mit multipass rendering realisiert werden. Die Wahrscheinlichkeit ist groß, daß ich mich hier irre...
;-)

Ich bin auf jedem Fall mal auf echte Vergleiche der PS1.1 und PS1.4 gespannt, an denen dann ja ein Vorteil erkennbar sein müsste.

Ob sich dies dann allerdings durchsetzt, ist noch immer die Frage !
(weil sehr geringe, unterstützende Hardwarebasis und nur ein Zwischenschritt)

Interessant war diese verlinkte Diskussion auf jeden Fall !
Danke nggalai.

Razor

aths
2002-02-13, 19:38:11
Razor, du schreibst:

"warum auch zumindest theoretisch (wie gesagt, direkter Vergleichsmöglichkeit fehlt) der höhere Wertebereich der PS1.4 (-8 bis +8) einen weiteren Vorteil verbuchen kann."

Wie ich hier (http://www.3dcenter.de/artikel/2002/01-04_a.php) darlegte, ein ein Bereich größer 1 für Overbright Lighting notwendig.

"... und fordert 64-Bit oder einen Fließkomma-Wertebereich"

Wie im obigen Artikel dargestellt geht die Entwicklung auch dahin.

Zum PS 1.4 schreibst du:

"Ob sich dies dann allerdings durchsetzt, ist noch immer die Frage !
(weil sehr geringe, unterstützende Hardwarebasis und nur ein Zwischenschritt)"

Das ist ein wichtiger Grund meiner Kritik, dass nVidia mit der GF4 keinen PS.1.4 bietet.

Razor
2002-02-13, 20:45:50
@aths
"warum auch zumindest theoretisch (wie gesagt, direkter Vergleichsmöglichkeit fehlt) der höhere Wertebereich der PS1.4 (-8 bis +8) einen weiteren Vorteil verbuchen kann."

Wie ich hier (http://www.3dcenter.de/artikel/2002/01-04_a.php) darlegte, ein ein Bereich größer 1 für Overbright Lighting notwendig.
Und ich sagte:
"Auch könnte ein ähnlicher Effekt mit sog. 'postscaling' oder 'modulate_4x' erreicht werden, worüber dann aber nur wenig (verständliches ;-) gesagt wurde. "
"... und fordert 64-Bit oder einen Fließkomma-Wertebereich"

Wie im obigen Artikel dargestellt geht die Entwicklung auch dahin.
Insofern auch dieser von ATI realisierte Wertebereich nur eine Zwischenlösung darstellt (wie auch Truform)...
Zum PS 1.4 schreibst du:

"Ob sich dies dann allerdings durchsetzt, ist noch immer die Frage !
(weil sehr geringe, unterstützende Hardwarebasis und nur ein Zwischenschritt)"

Das ist ein wichtiger Grund meiner Kritik, dass nVidia mit der GF4 keinen PS.1.4 bietet.
Warum einen Zwischenschritt realisieren, wenn man bereits Hardware in der Mache hat (NV30) der die (forschrittlicheren ?) PS2.0 unterstützen wird ?
???

In diesem Sinne

Razor

Unregistered
2002-02-13, 20:50:08
Man sollte sich bei der Vorstellung der Funktionsweise von PixelShadern so langsam von Pixeln und Beleuchtung etwas lösen. Ein Pixelshader ist eine sehr schnelle, hochparallele Rechenengine, die aus einem Haufen iterierten Registern, bis zu 6 3D Arrays für Lookups und einer 4D SIMD Recheneinheit besteht.
Damit kann man ALLES machen. Und es wird alles gemacht werden. Weil vieles davon in Spielen Sinn macht.

Und deshalb sollte man sich von den üblichen Vorstellungen lösen, wie z.B. Pixel haben Helligkeiten von 0 bis 1 und es reicht 8bit pro Komponente.

Mal zwei Anwendungen für PixelShader:

- Perlin Noise zum generieren von Height Field, Wolken, etc.pp.
- Physiksimulationen z.B. von Heightfields, z.B. Wellen im Wasser.

Alles war schnell und parallel berechnet werden kann, wird über kurz oder lang im Pixelshader gemacht werden.

Ich kenne Wissenschaftler, die ihren Linuxcluster mit GF Karten ausstatten, um paralleles Rechnen durchzuführen. Die CPU spielt nur noch eine Rolle für die Ansteuerung. Bildschirme haben die Rechner des Clusters nicht, die "Bilder" werden wieder aus der Karte ausgelesen und an den Steuerrechner zurückgeschickt.


Mal so zum Nachdenken,

Pitchfork

Thowe
2002-02-13, 20:58:00
Originally posted by Razor
Warum einen Zwischenschritt realisieren, wenn man bereits Hardware in der Mache hat (NV30) der die (forschrittlicheren ?) PS2.0 unterstützen wird ?

Um den Fortschritt nicht zu hemmen, vielmehr zu fördern.

Razor
2002-02-13, 21:01:02
Und sich den PixelShader 2.0 oder die polynominalen Flächen für den R300 aufzuheben ist dann kein Hemmnis ?
???

Razor

aths
2002-02-13, 21:18:13
Razor, nicht alles lässt sich mit Normierung und Skalierung erreichen. Die Frage "Warum einen Zwischenschritt realisieren, wenn man bereits Hardware in der Mache hat (NV30) der die (forschrittlicheren ?) PS2.0 unterstützen wird ?" verstehe ich nicht, da auch PS.2.0 nicht das Ende der Entwicklung sein wird.

Jede "Lösung" ist letztlich nur ein Zwischenschritt. Je mehr eine Karte kann, um so besser. Ansonsten könnte man auch fragen, warum überhaupt noch die Chips verbessern, wenn es irgendwann (vielleicht noch in diesem Jahr) Floating Point Architektur gibt?

aths
2002-02-13, 21:24:22
Ich möchte anmerken, dass ich persönlich trotz der geäußerten Kritik eher mit der GF4 als R200 liebäugele. (Ein Grund ist der *bewährte* Linux-Support. Dafür müsste ich dann allerdings die Pille schlucken, keinen PS.1.4 zu haben, auf TruForm zu verzichten :-( und mit Multisampling AA leben zu müssen - wo mir Supersampling deutlich eher zusagt. Hier entschädigt der 4xS-Modus zur Hälfte.)

Bei meinen Äußerungen versuche ich jedoch persönliche Präferenzen außen vor zu lassen.

Xmas
2002-02-13, 21:28:58
Pitchfork, wenn wir mal bei OpenGL 2.0 Shadern sind, kommt das vielleicht schon eher hin. Die Game-of-Life Demo von NVidia ist schon beeindruckend und zeigt einen ersten Schritt in diese Richtung, aber solange die Anzahl der Operationen pro Pass und die Präzision noch so begrenzt ist, bleiben auch die Möglichkeiten der Nutzung recht eingeschränkt.

Thowe
2002-02-13, 21:33:50
Originally posted by Razor
Und sich den PixelShader 2.0 oder die polynominalen Flächen für den R300 aufzuheben ist dann kein Hemmnis ?
???

Razor

Irgendwie entgeht mir die tiefere Bedeutung deiner Aussage. ATI hat vorgelegt, ich hätte halt erwartet das nVidia wenigstens mithält. Was polynomiale Flächen angeht, dazu sage ich lieber nichts - nur das ich die Variante mit den N-Patches für gangbarer halte.

Razor
2002-02-13, 22:45:37
@aths

"Razor, nicht alles lässt sich mit Normierung und Skalierung erreichen. Die Frage "Warum einen Zwischenschritt realisieren, wenn man bereits Hardware in der Mache hat (NV30) der die (forschrittlicheren ?) PS2.0 unterstützen wird ?" verstehe ich nicht, da auch PS.2.0 nicht das Ende der Entwicklung sein wird."

Sicher nicht, aber für diese PixelShader wird es dann eine Hochsprache für die Entwicklung geben, die im ersten Schritt zwar nicht notwendig ist, aber auf Lange sicht sicher für dei Entwickler reizvoll ist.

Die Frage ist, was die PS1.4 für nVidia (!), denn diese müssten ja die diesbeüglihe Entwicklung tragen etc.pp., für einen Vorteil bringen würden ?

nVidia hat sich mit den PS1.1 (DX8) einen eigenen Vorteil verschafft, da sie die einzigen waren, die das angeboten haben. ATI wollte es ihnen Nachtun, haben also nicht die PS1.1 nVidia's realisiert (was sicherlich zum Vorteil der derzeitigen Spiele-Entwicklung hätte sein können, sondern haben eine eigene Lösung implementiert, die sie nun als technischen Forschritt verkaufen (keine Wertung bezüglich der Technologie !). nVidia hätte nun den gleichen Nachteil, den ATI gehabt hätte, würden sie ATI's Technologie implementieren. Ergo müssten sie nun einen PS1.5 ausgraben (den der Markt sicher nicht verträgt), oder sich eben auf ihr neues Produkt konzentrieren und mit dem aktuellen Produkt lediglich derzeit bekannte Technologie einsetzen und diese optimieren. Man sollte bedenken, daß der NV2A (direkter Vorgänger der gf3/NV20, bzw. der gf4ti/NV25) schon vor über einem Jahr funktionsfähig war, die Technologie von ATI (PS1.4) aber noch nicht zu erblicken. Hätten sie also jetzt, innerhalb von ein paar Monaten die neue Technologie implementieren sollen ?

Dann hätte sich fast mit Sicherheit der Launch verzögert und damit wäre das Produkt gf4 dann direkt in die Release-Phase des NV30 hinein gerutscht.

Du kannst mir erzählen, was Du willst, aber weder wirtschaftlich, noch technisch wäre nVidia in der Lage gewesen, die PS1.4 zu implemntieren, ganz abgesehen von dem Image-Schaden. So setzen sie auf bewährte und selbstentwicklete Technologie, die sie auch in der Hand haben, würden sie Fremdtechnologie anbieten (die zudem wohl auch hätten Lizensieren müssen), wäre dem nicht mehr so...

Das was nVidia also gemacht hat, ist dermaßen gut nachvollziehbar, daß ich es an ihrer Stelle auch nicht anders gemacht hätte.

-

Aber überleg doch mal:
- Produktoptimierung über Erfahrungswerte möglich
- keine neue Entwicklung notwendig
- nur 'leichte' Teiberanpassung erforderlich
- bewährte technologie
- geringe Fertigungskosten
- trotzdem Leistungs-König

Sehr viele Fliegen mit einer Klappe geschlagen, oder ?
;-)

"Jede "Lösung" ist letztlich nur ein Zwischenschritt. Je mehr eine Karte kann, um so besser. Ansonsten könnte man auch fragen, warum überhaupt noch die Chips verbessern, wenn es irgendwann (vielleicht noch in diesem Jahr) Floating Point Architektur gibt?"

Klar, aber es gibt sinnvolle Zwischensteps und es gibt weniger sinnvolle...

Für ATI waren die PS1.4 eine Marketingtechnische Notwendigkeit, für nVidia sind sie es nicht.

"Ich möchte anmerken, dass ich persönlich trotz der geäußerten Kritik eher mit der GF4 als R200 liebäugele. (Ein Grund ist der *bewährte* Linux-Support. Dafür müsste ich dann allerdings die Pille schlucken, keinen PS.1.4 zu haben, auf TruForm zu verzichten :-( und mit Multisampling AA leben zu müssen - wo mir Supersampling deutlich eher zusagt. Hier entschädigt der 4xS-Modus zur Hälfte.)"

Warum willst Du so dermaßen viele 'Nachteile' erdulden ?
Ich würde mich lediglich für ein Produkt entscheiden, wenn ich davon 100%'ig überzeugt wäre...
(und das ist jetzt wirklich ernst gemeint !)

@Thowe

"Irgendwie entgeht mir die tiefere Bedeutung deiner Aussage."

Schade eigentlich...

"ATI hat vorgelegt, ich hätte halt erwartet das nVidia wenigstens mithält. "

Falsch !
nVidia hat vorgelegt (gf3 vor ca. 3/4 Jahr) und ATI hat nun nachgezogen. Die gf4 ist lediglich die leistungsoptimierte Variante der gf3, genau so, wie es die gf2 für die gf1 war...

Was genau ist daran nicht zu verstehen ?
(siehe auch mein Kommentar zu aths)

"Was polynomiale Flächen angeht, dazu sage ich lieber nichts - nur das ich die Variante mit den N-Patches für gangbarer halte."

Wesegen ATI dieses Feature (polyFlächen) ja auch schon fest für sein neues Flagschiff R300 eingeplant hat. Vermutlich, weil es so dermaßen nutzlos ist...

Ich wirklich nicht zu polemisch klingen, aber irgendwie verstehe ich Euch nicht (dürfte Euch mit mir ähnlich gehen ;-). Was mich aber regelrecht schockte, ist, daß sich aths eine gf4 kaufen will.

Nicht einmal ich würde mir eine gf4(ti) kaufen !

Insofern würde mich wirklich aths Motivation interessieren...
(irre, echt irre...)

Egal !

Bis denne

Razor

Thowe
2002-02-13, 23:13:57
Originally posted by Razor
"Irgendwie entgeht mir die tiefere Bedeutung deiner Aussage."

Schade eigentlich...


Hmm, immer noch nicht. ;)


"ATI hat vorgelegt, ich hätte halt erwartet das nVidia wenigstens mithält. "

Falsch !
nVidia hat vorgelegt (gf3 vor ca. 3/4 Jahr) und ATI hat nun nachgezogen. Die gf4 ist lediglich die leistungsoptimierte Variante der gf3, genau so, wie es die gf2 für die gf1 war...


Tja, innerhalb diesen Zeitraums hätte ich das wohl erwarten können, zu recht denke ich. Die anderen Änderungen sind auch nicht als gering zu bezeichnen.


"Was polynomiale Flächen angeht, dazu sage ich lieber nichts - nur das ich die Variante mit den N-Patches für gangbarer halte."

Wesegen ATI dieses Feature (polyFlächen) ja auch schon fest für sein neues Flagschiff R300 eingeplant hat. Vermutlich, weil es so dermaßen nutzlos ist...


Wie gehabt, ich halte N-Patches für gangbarer.


Ich wirklich nicht zu polemisch klingen, aber irgendwie verstehe ich Euch nicht (dürfte Euch mit mir ähnlich gehen ;-). Was mich aber regelrecht schockte, ist, daß sich aths eine gf4 kaufen will.

Nicht einmal ich würde mir eine gf4(ti) kaufen !


Seltsam, ich halte die GF4 für die erste nVidia-Karte seit langem die ich mir auch einbauen würde. Zumindestens sind meine Hauptkritikpunkte ziemlich zusammengeschrumpft. Naja, reales werden dann wohl meine Tests zeigen die ich mit der Karte vorhabe (wenn ich die Zeit finde, etwas abhängig vom FSAA der 5500er).

Razor
2002-02-13, 23:45:58
@Thowe

"Hmm, immer noch nicht. ;)"

Immer noch schade...
;-)

"Tja, innerhalb diesen Zeitraums hätte ich das wohl erwarten können, zu recht denke ich. Die anderen Änderungen sind auch nicht als gering zu bezeichnen."

Warum hätte nVidia seine Strategie ändern sollen ?
Die Änderungen zur gf4 waren lediglich kosmetischer Natur...

"Wie gehabt, ich halte N-Patches für gangbarer."

Das hast Du ja bereits klar gestellt !
Du erlaubst aber doch, daß ich das anders sehen mag...

"Seltsam, ich halte die GF4 für die erste nVidia-Karte seit langem die ich mir auch einbauen würde. Zumindestens sind meine Hauptkritikpunkte ziemlich zusammengeschrumpft."

Oder ist es einfach Zeit, sich was Neues zu gönnen ?
Genau das wird sich nVidia bei dem Release der gf4(ti)-Serie auch gedacht haben...

Denn alle, die sich bei der gf3 zurück gehalten haben, nun nicht so richtig von der R8500 überzeugt wurden und sich deswegen dann gar nicht entscheiden haben, denken da ähnlich (höre ich zur Zeit viel aus dem eigenen Bekanntenkreis ;-).

Insofern sollte sich ATI nun auch sputen und sehr schnell einen 'neues' Produkt an den Markt bringen, um dieser Konsequenz zu entgehen...

Bitte nicht falsch verstehen, denn ich möchte Dir diese Gedankengänge nicht unterstellen, aber insbesondere bei aths würde mich das wirklich wundern. So scheint es doch für viele 3dfx-Nutzer sehr schwer, sich für ein Produkt einer Firma zu entscheiden, welche für den Untergang der 'eigenen' Firma verantwortlich gemacht wird. Ich selber kenne solche Gedankengänge nicht, denn ich habe es schon des öfteren wiederholt, daß ich sehr schnell auf einen anderen Grafikchip setzen würde, sollte er mir effektive Vorteile verschaffen.

Ich drücke Euch auf jeden Fall die Daumen, daß Ihr euch für ein, zu Euch passendes, Produkt entscheidet.

"Naja, reales werden dann wohl meine Tests zeigen die ich mit der Karte vorhabe (wenn ich die Zeit finde, etwas abhängig vom FSAA der 5500er)."

Darauf bin ich (und sicher auch viele andere) sehr gespannt.
(ernst gemeint !)
Ran da !
;-)

Bis denn

Razor

Nr. 5
2002-02-14, 00:01:47
Originally posted by Razor
So scheint es doch für viele 3dfx-Nutzer sehr schwer, sich für ein Produkt einer Firma zu entscheiden, welche für den Untergang der 'eigenen' Firma verantwortlich gemacht wird.

glaub ich nicht.
eher führe ich das aufs "im regen stehen lassen" zurück.
nVidia hat sämtliche 3DFX-technologie, inklusive quellcodes für treiber, aufgekauft und hält gerade diese zurück.
so können 3DFX-liebhaber halt manche games nicht zocken, die karte veraltet schneller.
ist leider nun so, ändern kann man nichts mehr, aber trotzdem traurig das nVidia sich für diesen geschäftszug entschieden hat. es vergrault eben auch kunden. und ist nVidia´s ruf nicht zuträglich.

bitte jetzt nicht endlos über dieses posting diskutieren. sonst artet das wieder aus...


cu

Razor
2002-02-14, 00:42:39
Originally posted by Nr. 5


glaub ich nicht.
eher führe ich das aufs "im regen stehen lassen" zurück.
nVidia hat sämtliche 3DFX-technologie, inklusive quellcodes für treiber, aufgekauft und hält gerade diese zurück.
so können 3DFX-liebhaber halt manche games nicht zocken, die karte veraltet schneller.
ist leider nun so, ändern kann man nichts mehr, aber trotzdem traurig das nVidia sich für diesen geschäftszug entschieden hat. es vergrault eben auch kunden. und ist nVidia´s ruf nicht zuträglich.

bitte jetzt nicht endlos über dieses posting diskutieren. sonst artet das wieder aus...
Endlos nicht, nur so viel:

nVidia's Ruf ist nur unter Eingeweihten 'geschädigt', die Öffentlichkeit ist sehr vergeßlich und wenn ein Nutzer merkt, das ein Produkt veraltet ist, geht er in den Laden und kauft sich ein Neues. nVidia ist die wohl bekannteste Variante und schon war's das...

Was mich ehrlich schockt, ist, das die Leute, die vorher nun wie wild gegen nVidia gewettert haben, nun selber auf NV-Hardware setzen und sogar teilweise zugeben, daß sie zufrieden sind.

Was für eine Schande !
(nicht ganz ernst gemeint ;-)

"aber trotzdem traurig das nVidia sich für diesen geschäftszug entschieden hat"

Der für nVidia aber sehr lohnend und deswegen auch wirtschaftlich sinnvoll war...

"es vergrault eben auch kunden"

Ganz im Gegenteil dürfte das eine Menge Kunden 'gewonnen' haben !
;-)

Bis dann

Razor

Richthofen
2002-02-14, 18:54:22
allerdings der Zug war doch prima.
Anwender XY registriert, das die Firma seines Produktes pleite ist, er bekommt keine Treiber mehr die Supportseite ist auch zu ergo veraltet seine Karte schneller und er muss sich was neues kaufen.
Ich glaube ich bin ziemlich konservativ wenn ich schätze das mindestens 70% der Leute die ihre Voodoos durch neue Karten ersetzt haben bei Nvidia gelandet sind.
Dann hat sich das doch prima gelohnt.
Obwohl das natürlich nicht der Hauptgrund für die Übernahme war.
Der ist wohl eher in den Patenten und dem Wegfall der 450 Mio $ Klage zu sehen als in dem Wegfall eines Hauptkonkurenten.
Dieser Grund dürfte aber direkt danach kommen.
Wenn man bedenkt das 120 Mio geblecht wurden hat sich das doch prima rentiert.

Andre
2002-02-14, 22:01:01
Originally posted by Richthofen
Ich glaube ich bin ziemlich konservativ wenn ich schätze das mindestens 70% der Leute die ihre Voodoos durch neue Karten ersetzt haben bei Nvidia gelandet sind.
Dann hat sich das doch prima gelohnt.


Nur soviel:

Ich glaube fast, dass Du da falsch liegst.
NV hat einen Fehler gemacht, denn sie haben den inoffziellen Treibersupport seitens X-3Dfx mit harten Bandagen angegangen - aus wirtschaftlicher Sicht logisch, aus taktischer eher unklug.
Denn viele Voodoo-Leute, die ich kenne, haben gesagt:
"Ich hätte mir sofort nen NV gekauft, dass 3Dfx pleite ist, ist nunmal in der Wirtschaft so.
Aber das sie die X-3Dfx Leute so bescheuert angehen, kann ich net verstehen und kaufe mir alles - nur keine NV".
Man mag darüber denken, wie man will, aber der Zug von NV war taktisch mehr als ungeschickt.

Richthofen
2002-02-14, 22:11:29
Viele Leute die du kennst....

Das sind eher die Internet Leute bzw die die sich auskennen.
Der Großteil hat von alledem nix mitbekommen und wird fleissig NV Karten einsetzen.
Ich glaube schon das ich da ziemlich konservativ liege.
In meinem Umfeld und auch auf so ziemlich allen Lans wo ich mich so rumtreibe haben die meissten NV Karten auch die ehemaligen 3dfx User.
ATI Karten oder PowerVR eher Fehlanzeige.
Ist ja auch logisch. Die jungs wollen auf ner Lan zocken und an Tunieren teilnehmen und nicht ATI Treiber Bluescreens analysieren :=)

Razor
2002-02-14, 22:18:31
@Richthofen

"Obwohl das natürlich nicht der Hauptgrund für die Übernahme war.
Der ist wohl eher in den Patenten und dem Wegfall der 450 Mio $ Klage zu sehen als in dem Wegfall eines Hauptkonkurenten."

Der eine Hauptkonkurrent hat sich ja selber 'wegfallen' lassen !
(aber ansonsten full ACK)
:D

"Dieser Grund [ex Voodoo's] dürfte aber direkt danach kommen."

Eher nicht, ist wohl nur als ein Zusatzgeschäft zu werten...

"Wenn man bedenkt das 120 Mio geblecht wurden hat sich das doch prima rentiert."

DAS auf jeden Fall !
Frage mich nur, warum nicht ATI hier interveniert hat...
???

@Andre

"Man mag darüber denken, wie man will, aber der Zug von NV war taktisch mehr als ungeschickt."

Der Treibersupport hätte das ganze nur kräftig hinaus gezögert. Aber im Printip gebe ich Dir ja sogar recht, denn 70% hlate ich auch für etwas hoch gegriffen. Allerdings müsste man dazu wissen, wieviele der (Ex-)Voodoo-Besitzer 'kundig' waren, was sich meiner Kenntnis leider entzieht. Schließlich soll es ja immer noch Leute geben, die keinen Internet-Anschluß haben und sich auch sonst wenig um das Geschehen kümmern...
:D

Bis denne

Razor

aths
2002-02-15, 01:07:37
Als Betroffener kann ich nur sagen, was Andre schreibt stimmt.

Hätte nV für ein besseres Klima gesorgt, also aktiv etwas "für uns" unternommen, also hätten sie uns als Voodoo-Besitzer (!) ein neues Zuhause geboten wäre die nächste Karte sogut wie automatisch eine GeForce geworden.

Exxtreme
2002-02-15, 07:50:39
Originally posted by Richthofen

Ist ja auch logisch. Die jungs wollen auf ner Lan zocken und an Tunieren teilnehmen und nicht ATI Treiber Bluescreens analysieren :=)
Also DAS halte ich für ein Gerücht. ;) ATI-Treiber sind nicht die schnellsten und produzieren bei einigen, wenigen Spielen Grafikfehler aber instabil sind sie definitiv nicht. Und wenn sie doch die Ursache sind, dann hat der, der sie installiert hat, etwas falsch gemacht.

<lästermodus>
Welcher Treiber hat nochmal den "Infinity-Loop-Error"-BSOD verursacht? War es nicht zufälligerweise ein Detonator? :P
;)
</lästermodus>


Gruß
Alex