Archiv verlassen und diese Seite im Standarddesign anzeigen : GeForce4-Performance
Ich denke wir sind uns einig, dass da noch etwas faul ist.
Meine Theorie: Sie heben sich neue Treiber, die LMA2 gezielt nutzen, bis zum nächsten Radeon auf.
Korak
2002-02-09, 11:08:54
Originally posted by aths
Ich denke wir sind uns einig, dass da noch etwas faul ist.
Meine Theorie: Sie heben sich neue Treiber, die LMA2 gezielt nutzen, bis zum nächsten Radeon auf.
gut möglich und kein unbekanntes Vorgehen.
Razor
2002-02-09, 11:16:49
Di Performance ist absolut OK, aber die bessere AF-Performance heben sie sich auf !
:D
Razor
Richthofen
2002-02-09, 13:38:33
soll ein Treiberbug sein sie arbeiten drann.
Darüber mach ich mich nicht heiss.
Ich weiss was die können und das sie es können und auch beheben werden.
und @ aths
Sowas musst nicht ständig posten oder irgendwas suchen auf Krampf.
Jedes Mittel ist Recht um Konkurenten niederzumachen, Show zu stehlen, zu behindern was auch immer.
Die ganze Palette an Firmenstrategien und Marketing.
Jeder kanns machen nur manche sind halt einfach besser und manche wie ATI blammieren sich mit Präsentationen zu denkbar ungünstigen Zeitpunkten.
Die Präsentation hätte gewirkt, wenn die GF4 sagen wir 10% schneller gewesen wäre.
Aber so wie die Sache jetzt aussieht hat sich ATI eher blamiert und bei der Preisfrage sowieso.
Kann ich mich nur totlachen das ATI es als besonders löblich hinstellt wie wenig sie verlangen.
Das wird die Analysten und Investoren aber riesig freuen, das der ASP so niedrig ist. Ich glaub allerdings kaum das die ernsthaft annehmen das ATI das aus reiner Nächstenliebe macht.
Die wissen ganz genau das es eben eine Company gibt die es sich leissten kann 100 Euro mehr zu verlangen fürs gleiche Produkt.
Ist bei Intel vs AMD nicht anders. Keiner interessiert sich wirklich für AMD bei den Investoren solange AMD preislich nicht auf gleicher Stufe steht mit Intel ohne Marktanteile zu verlieren dabei.
Richthofen,
aus marktwirtschaftlicher Sicht handelt nVidia natürlich sehr klug. (ATI übrigens auch, diskutiere ich in diesem Thread aber nicht.)
Ich beurteile das Verhalten einer Firma jedoch nicht als deren Besitzer (nv-Aktien sind mir weit zu unsicher!) sondern als *potenzieller Kunde*.
Lachen kann ich nur über nVidias Sprüche, wie "revolutionär" GF4 sein soll. Sie schließen featureseitig nicht mal zur Konkurrenz auf und bieten seit einem Jahr prinzipiell die gleiche Technik. Das schont Entwicklungskosten und erhöht den Profit, doch wie gesagt beurteile ich die Firmen als potenzieller Kunde.
Jetzt bringen sie taktbedingt mehr Rohpower, schieben das aber auf die "revolutionäre" Architektur. Die wird jedoch erst dann genutzt, wenn der Treiber Binärcode enthält, welcher optimal an die Gegegebenheiten des NV25 angepaßt ist. Eben das heben sie sich auf, bis ATI sie mit einem neuen Produkt dazu zwingt.
Als potenzieller Kunde kann ich das Vorenthalten von voller Geschwindigkeit aus marketingtechnischen Gründen wahrlich nicht gutheißen. Ich denke übrigens, und das ist nicht böse gemeint, dass Leute die Aktien von einem Unternehmen besitzen selten objektiv bei dessen Beurteilung sind.
Haarmann
2002-02-09, 14:10:29
Aths,
Ich rate mal, Dir is auch aufgefallen, dass LMA2 besser als LMA sein soll, aber laut Villagemark LMA2 ein Furz is und LMA nicht? ;D
Oder deute ich Deinen Thread hier falsch?
Nr. 5
2002-02-09, 14:15:16
Originally posted by aths
Als potenzieller Kunde kann ich das Vorenthalten von voller Geschwindigkeit aus marketingtechnischen Gründen wahrlich nicht gutheißen.
was nicht weiter schlimm ist da irgendwann einmal die geschwindigkeit "nachgeliefert" werden kann. insofern wirklich bewusst geschwindigkeit zurückgehalten wird.
da aber durch diese spielchen der kunde zu regelmässigen neuinstallieren seiner detonator gezwungen wird stört mich das wesentlich mehr.
wenn ich mir ein spiel kaufe erwarte ich optimale performance und fehlerfreiheit zum kauf. und nicht erst durch zehntausende bugfixes...
genauso sehe ich das bei hardware.
die erste verkaufversion sollte genauso gut sein wie die letzte.
klar das durch verbesserungen der treiber schneller/stabiler wird.
ich will aber GLEICH einen der so weit wie möglich optimal ist.
und nicht erst wenn nVidia dies wünscht. wenn nVidia dies nicht kapiert - ein kunde weniger...
cu
Quasar
2002-02-09, 14:23:20
Nr.5:
Wenn dich das neuinstallieren so sehr stört, darfst du dir am besten gar keine Grafikkarte kaufen. ALLE brauche hin und wieder einen Treiberpatch, sei es nun, um ein wenig mehr Performance zu erreichen, sei es, um ein Feature, was vorher nicht ging, zu aktivieren, sei es um Kompatibilität mit einem zickigen Game herzustellen.
aths:
Dein Behauptung in allen Ehren, aber sie so einfach in den Raum zu stellen halte ich für ähnlich niveauarm, wenn auch eloquenter, wie einfach hinzuschreiben "nVidia ist doof/betrügt/gefällt mit nicht".
Wie wäre es, wenn du uns an deinen Gedankengängen, die dich zu diesem Schluß bringen, teilhaben liessest? Dann könnte man darüber diskutieren. Sonst fällt mir das etwas schwer, gegen etwas zu argumentieren, was nicht durch Argumente belegt ist, d.h., bei dem ich nicht weiß, auf welcher Ebene du argumentierst.
Nr. 5
2002-02-09, 14:53:26
@Quasar
nochmal:
1.jeder treiber kann durch verbesserungen schneller/stabiler werden.
2.ich möchte aber auch schon zur auslieferung einen weitgehend schnellen und stabilen treiber.
3.ich will keinen bei dem absichtlich geschwindigkeit zurückgehalten wird.
ich habe nichts gegen treiber-installationen. wenn ich aber neuinstallieren muss weil nVidia mir zuerst features/leistung vorentenhalten hat, bzw. "verbugte" treiber fürs erste ausliefert, :kotz: mich das ganz schön an.
vor allem da laut richthofen ;) die beseitigung des bugs kein problem darstellen dürfte...
cu
Quasar,
die GeForce4 hat einige nette Kleinigkeiten anzubieten, welche die Perfomance steigern können. Dabei ist eigentlich kaum was nennenswert, da das meisten wie gesagt nur Kleinigkeiten sind. In der Summe würde ich jedoch eine spürbar höhere Pro-MHz-Leistung erwarten.
Doch im Moment zeigt sich LMA2 wirklich schwach. Es muss einfach mehr drin sein!
Pünktlich zur Radeon8500 releaste nVidia den Deto4 und schwafelte von +50% mehr Leistung. Es ist stark anzunehmen, dass die dazu erforderlichen Änderungen im Treiber längst gemacht wurden, das Release jedoch bewußt verzögert.
Das gleiche vermute ich in dieser Situation. Einfach weil die GF4 schlechter performt als ich erwarten würde. Man fährt die GF4 also mit GF3-Binaries und bringt die Optimierungen erst dann, um einem Konkurrenten Aufmerksamkeit zu entziehen. Solches Verhalten nützt dem Kunden nicht.
Weil nvidia sich solche "Spielchen" erlauben kann, nicht zu jeder Zeit das Maximum aus ihren Chips herauskitzeln zu müssen, sondern erst dann per einfachem Treiberupdate zuzuschlagen, wenn die Konkurrenz performancemäßig zu gefährlich wird, zeigt einmal die technische und auch die Marktüberlegenheit. Zweitens wird dadurch klar, daß nvidia kein Monopol hat, sondern ihre Konkurrenten ernst nimmt. Klar, als Kunde kann einem das nicht sonderlich gefallen, aber daran muss man sich wohl oder übel gewöhnen in der freien Marktwirtschaft. Es wäre wohl auch möglich Glühbirnen herzustellen, die 100 Jahre leben, aber das macht man halt nicht, weil die Wirtschaft an solchen Produkten zugrunde ginge. nvidia würde daran zwar nicht gleich zugrunde gehen, wenn sie die GF4 um - sagen wir mal noch 10% - beschleunigen würden, aber sie würden einen Fehler machen so zu handeln, weil sie Gefahr liefen, daß sie ihre Performancereserven unnötig verjubeln, die sie im Marktkampf noch dringend benötigen könnten. Es ist also ganz normal, daß nvidia so vorgeht, es ist nichts weiter als logisch und weder fies, noch mies noch sonstwas in der Art. Ich persönlich würde es sogar als weiteren Kaufgrund sehen, mir eine GF4Ti statt einer R8500 zu kaufen, eben weil die Karte dann mit späteren Treiberreleases nochmal zulegen kann.
Frank
2002-02-09, 15:22:54
Originally posted by Richthofen
soll ein Treiberbug sein sie arbeiten drann.
Darüber mach ich mich nicht heiss.
Ich weiss was die können und das sie es können und auch beheben werden.
und @ aths
Sowas musst nicht ständig posten oder irgendwas suchen auf Krampf.
Jedes Mittel ist Recht um Konkurenten niederzumachen, Show zu stehlen, zu behindern was auch immer.
Die ganze Palette an Firmenstrategien und Marketing.
Jeder kanns machen nur manche sind halt einfach besser und manche wie ATI blammieren sich mit Präsentationen zu denkbar ungünstigen Zeitpunkten.
Die Präsentation hätte gewirkt, wenn die GF4 sagen wir 10% schneller gewesen wäre.
Aber so wie die Sache jetzt aussieht hat sich ATI eher blamiert und bei der Preisfrage sowieso.
Kann ich mich nur totlachen das ATI es als besonders löblich hinstellt wie wenig sie verlangen.
Das wird die Analysten und Investoren aber riesig freuen, das der ASP so niedrig ist. Ich glaub allerdings kaum das die ernsthaft annehmen das ATI das aus reiner Nächstenliebe macht.
Die wissen ganz genau das es eben eine Company gibt die es sich leissten kann 100 Euro mehr zu verlangen fürs gleiche Produkt.
Ist bei Intel vs AMD nicht anders. Keiner interessiert sich wirklich für AMD bei den Investoren solange AMD preislich nicht auf gleicher Stufe steht mit Intel ohne Marktanteile zu verlieren dabei.
Hast du deine Aktienkurse von der Sparkasse oder was?
AMD hat seinen Kurs nach Einführung des Athlon 500 innerhalb 3 Monate ver4!!!!facht. Das sieht so ganz und gar nicht danach aus, als ob sich Investoren nicht für AMD interessieren?? Hä??? ??? Und zu dem ATI/nVidia Aktienkurs... Ich hoffe du kennst das Gesetz des Aktienmarktes, welches seit den letzten Jahren die Börse dominiert: Erwartungen ... nicht Fakten. Wobei ich damit nicht sagen will, das nVidia überbewertet ist (was ich persönlich allerdings denke) - Was ich meine: Nur weil der Intelkurs von 80 auf 40$ gefallen ist letztes Jahr, ist die Firma ja nicht plötzlich nur noch die Hälfte wert...usw
Quasar
2002-02-09, 15:29:57
Ich denke, daß hier zwischen "uns", die von solchen Spielchen/Tricksereien oder wie auch immer man es nennen will, wissen, und den anderen, die so etwas eben nicht wissen unterscheiden sollte.
Ich habe einige solcher "anderen" in meinem Bekanntenkreis, wie wohl jeder andere hier auch.
Nun hat einer von denen zufällig vor zwei Jahren etwa eine GeForce1 SDR in seinen PentiumIII 600 verfrachtet. In letzter Zeit begann er, immer häufiger über Bildfehler und Geruckel in einigen Spielen zu klagen und war drauf und dran, sich einen neue zu kaufen. Da habe ich ihn mal gefragt, was für einen Treiber er denn drauf hätte. Unverständnis ausdrückende Blicke waren die Folge. Als wir dann gemeinsam seinen Treiber, v5.08 von der Auslieferungs-CD durch einen aktuelleren Detonator ersetzt hatten, glaubt er eine neue Grafikkarte in seinem Rechner zu haben. Alles lief auf einmal wie geschmiert.
Was ich damit sagen will (ohne damit abfällig klingen zu wollen):
Die weitaus meisten Leute wissen kaum, was ein Treiber ist, geschweigedenn, das durch einen neuen Treiber (Was? Wieso ein neuer Treiber? Das ist doch schon einer drin?) Leistungssprünge möglich sind bzw. Darstellungsprobleme behoben werden können.
Daß Leute, die besser informiert sind, sich über solche "Praktiken", wie aths sie von nVidia wiederum vermutet, mockieren, mag vielleicht nachvollziehbar sein (bei aths allerdings nicht, da er ja kein Kunde nVidias ist), die meisten anderen Leute sehen so eine Leistungssteigerung als Geschenk an, und waren wohl auch mit dem Leistungsniveau bei Auslieferung zufrieden, sonst hätten sie sich die Karte ja kaum gekauft.
Was du, aths, hier behauptest, ist eine pure Vermutung deinerseits, die jedoch nicht abstreiten will. Wie sehr hast du dich denn mit der LMA-II bisher auseinandergesetzt, daß du dir so sicher bist, es müssten deutlichere Leistungssteigerungen sichtbar sein? Soweit ich informiert bin, ist der Dreh- und Angelpunkt noch immer der CBMC. Durch dessen imho äußerst sinnvolle Auslegung und die damit einhergehende schon per se vorhandene Effizienz des Speichersubsystems fallen andere architekturelle Neuerungen (Fast Z-Clear, Quad-Cache) nun einmal nicht so stark ins Gewicht, wie bei a priori uneffizienteren Designs. Die anderen Komponenten der LMA haben nämlich keine Änderungen erfahren.
Also bleibt, die Performance-Steigerung nur auf den Takt, den zweiten Vertex-Shader und Fast-Z-Clear sowie Quad-Cache (welches in weniger werbewirksamerer Form sicher auch schon vorher vorhanden war) zurückzuführen.
Das davon außer soliden Leistungssteigerungen keine Wunderdinge zu erwarten sind, liegt imho auf der Hand.
@Nr.5:
Deine Sicht noch immer in allen Ehren, aber welche Gamer-Karte liefert dir denn im Auslieferungszustand der Treiber bitte schön alle Features, die später möglich gemacht wurden? (Aufgüsse alter Desgins zählen nicht.)
Haarmann
2002-02-09, 16:06:16
@Quasar,
Von Dir kann ich ja erwarten, dass Du weisst, was LMA2 is ;D. Also nochmals meine Frage, wieso bringt LMA2 im Villagemark NIX und LMA sehr viel?
http://www.xbitlabs.com/video/geforce4/villagemark.gif
Einzige Folgerung kann ja sein, dass LMA2 schlechter als LMA is oder? Allerdings glaubst weder Du noch ich an diese Folgerung - aber was ist denn dann der Grund?
Quasar,
ich äußerte meine Gedanken ausdrücklich als Theorie. Mit LMA2 setzte ich mich soweit auseinander, dass ich genügend Stoff für die "Pro"-Seite meines kommenden "GeForce4 Ti: Pro und Kontra"-Artikels habe.
Ich bin nicht umsonst gerade im 3dc-Forum aktiv. Eben weil hier weniger "andere" Leute anzutreffen sind. Ich weiss nicht, wie ich es bescheiden ausdrücken soll, doch ich sehe nicht ein, mich an das Niveau der "anderen" anzupassen; selbst wenn sie in Überzahl sind.
Mir erscheint dass du gereizt bist, was ich nicht recht nachvollziehen kann. Ich schrieb: "GeForce4-Performance. Ich denke wir sind uns einig, dass da noch etwas faul ist." Hier stimmen sogar die nVidia-Fans überein. Weiter: "Meine Theorie: Sie heben sich neue Treiber, die LMA2 gezielt nutzen, bis zum nächsten Radeon auf." Das impliziert, dass der optimierte Cache und die anderen Maßnahmen mit spezieller Anpassung besser laufen. Ich denke, dass wir hier übereinstimmen. Nun lässt sich beobachten, dass z.B. die Performance mit AF wenig berauschend ist. Daraus schlussfolgere ich, und das ist zunächst völlig wertfrei, dass die verwendeten Treiber noch nicht optimiert sind.
Angesichts des Vorgehens zum Radeon-Release kann man nV das zudem problemlos zutrauen. Du scheinst nur zu sehen, wie ich mit bösen Unterstellungen nV schlecht machen wolle. Dabei sage ich damit ja auch, dass von der GF4 noch einiges zu erwarten ist.
Nr. 5
2002-02-09, 17:03:17
Originally posted by Quasar
@Nr.5:
Deine Sicht noch immer in allen Ehren, aber welche Gamer-Karte liefert dir denn im Auslieferungszustand der Treiber bitte schön alle Features, die später möglich gemacht wurden? (Aufgüsse alter Desgins zählen nicht.)
afaik keine...
aber wie du bei deinen bekannten gemerkt hast ist, wäre ein "besserer" teiber zum auslieferungszeitpunkt echt wünschenswert.
nicht das der treiber die alleinschuld trägt.
sind sicherlich auch spiele die für spätere treiber optimiert wurden, und deshalb nicht optimal liefen.
cu
Thowe
2002-02-09, 22:55:06
Nichts gegen Treiberpflege, aber nVidia beseitigt ja nichteinmal Fehler in ihren Treibern, nein sie machen alles nur bunter und schneller.
http://www.nvidia.com/docs/lo/983/SUPP/detonatorxp.pdf
Detonator XP software, the newest version of NVIDIA’s award-winning software,
delivers the world’s fastest performance, the highest quality, and the best features in
a single driver binary. With the latest Detonator XP Software, NVIDIA is
providing a free performance upgrade for your GPU, powering the best Windows
XP experience for the digital world.
NVIDIA has developed world-class driver software that has proven in benchmark
tests not only to increase application performance by 30-to-50%, but to provide the
best Windows XP performance to the end user.
Das Ganze liest sich wie Selbstbeweihräucherung, nur besser, bunter, mehr Geschwindigkeit - "betet uns an". Ich weiss echt nicht mehr ob nVidia ein Grafikkartenhersteller oder eine Sekte ist. Zumindestens halte ich ihr Marketing für Sektenpolitik. (persönliche Meinung, braucht keiner teilen, andere Ansichten sind akzeptiert)
Also, eins kann nur sein, entweder macht nVidia gute Treiber - was voraussetzt das vom Anfang an die Performance passt, oder aber die Treiber sind schlechter als ihr Ruf.
(Ja ich gebe es zu, ich habe in den letzten Tagen zuviel nVidia-Hype gelesen und kompensiere dies nun ein wenig).
Unregistered
2002-02-09, 22:57:49
Ich hab den hier genannten x-bit test noch nicht gelesen, aber laut anandtech ist die GF4 im Villagemark fast doppelt so schnell wie eine GF3...
"Meister Proper macht so sauber, daß man sich drin spiegeln kann"...träller.
btw: Im Fernsehen gibts dafür den AUS-Knopf, beim Computern hat man die Wahl zwischen standby, hibernate und shutdown ;-)
Andre
2002-02-09, 23:17:54
Originally posted by Thowe
Nichts gegen Treiberpflege, aber nVidia beseitigt ja nichteinmal Fehler in ihren Treibern, nein sie machen alles nur bunter und schneller.
http://www.nvidia.com/docs/lo/983/SUPP/detonatorxp.pdf
[B]
Das Ganze liest sich wie Selbstbeweihräucherung, nur besser, bunter, mehr Geschwindigkeit - "betet uns an". Ich weiss echt nicht mehr ob nVidia ein Grafikkartenhersteller oder eine Sekte ist. Zumindestens halte ich ihr Marketing für Sektenpolitik. (persönliche Meinung, braucht keiner teilen, andere Ansichten sind akzeptiert)
Also, eins kann nur sein, entweder macht nVidia gute Treiber - was voraussetzt das vom Anfang an die Performance passt, oder aber die Treiber sind schlechter als ihr Ruf.
(Ja ich gebe es zu, ich habe in den letzten Tagen zuviel nVidia-Hype gelesen und kompensiere dies nun ein wenig).
Also, das NV in einem offiziellen PDF wohl keine 250 Seiten Fixes auflistet, leuchtet ein, oder?
Macht das ein anderer Hersteller?
Nein, wenn, dann nur in einem geringen Umfang.
Früher gabs die schönen "inoffiziellen" Fixlisten, in letzter Zeit sind die leider selten geworden - da konntest Du aber auch jeden noch so kleinen Fix finden und man konnte sehr wohl sehen, dass NV mehr fixed las nur ein bischen bunter, etc.
Sorry, Thowe, aber das ist für mich einfach übertrieben, was Du schreibst.
Thowe
2002-02-10, 00:08:41
Originally posted by Andre
Sorry, Thowe, aber das ist für mich einfach übertrieben, was Du schreibst.
Ja, ich kompensiere auch nur. :) Mit der Option darauf hinzuweisen das es nVidia zuzutrauen ist absichtlich Performance zurückzuhalten.
AlfredENeumann
2002-02-10, 01:42:46
Originally posted by aths
Ich denke wir sind uns einig, dass da noch etwas faul ist.
Meine Theorie: Sie heben sich neue Treiber, die LMA2 gezielt nutzen, bis zum nächsten Radeon auf.
haben die sowas bisher nicht immer gemacht ? In letzter zeit auf jedefall.
Rein zufällig bei den ersten Radeon 8500 tests, gabs einen neuen Treiber von Nvidia, der mächtig dampf machte.
Rein zufällig als die Radeon 8500 gelauncht wurde, kam kurz darauf die TI-Serie raus weil die ATI schon wieder schneller war.
Razor
2002-02-10, 02:31:42
@Richthofen
"...aber die bessere AF-Performance heben sie sich auf !"
soll ein Treiberbug sein sie arbeiten drann.
Darüber mach ich mich nicht heiss.
Ich weiss was die können und das sie es können und auch beheben werden.
Seh' ich ähnlich...
(war auch nicht ganz ernst gemeint und nur als Reaktion auf aths Post gemünzt ;-)
Ich weiß auch gar nicht, was die Leutz hier so haben, wurde doch erst immer rum gemeckert, daß man nichts tut (insbesondere nVidia), um dem Bandbreitenproblem zu begegnen. Nun tun sie was und es ist auch nicht richtig. Hmmm...
Auch scheien hier die meisten wohl die Marktwirtschaft nicht so ganz zu verstehen. Es 'lohnt' sich einfach nicht, sofort DAS Produkt heraus zu bringen, denn das wäre wirtschaftlicher unsinn. Man entwickelt ein Produkt (in diesem Fall den NV2A der XBox) und bringt dann erst einmal kleinere Versionen und schöpft damit die gesamte Bandbreite der Marktimplementierung ab. Nur so kann sich Forschung und Entwicklung wirklich lohnen...
Ist uralt, dieses Prinzip, aber so richtig eingängig scheint das vielen nicht zu sein.
ATI versucht nun verzweifelt dagegen zu reden, hat IMHO aber nur mäßigen, wenn nicht sogar gar keinen Erfolg damit und geben sich im Prinzip sogar geschlagen... wollen jetzt mit ihrem "gf3-Killer" den Mainstream-Markt 'beglücken'...
Was daran nun 'geschickt' sein soll, kann ich wirklich nicht nachvollziehen.
@aths
Wer sich über die Sprüche eines Herstellers aufregt, hat wirklich selber schuld !
;-)
"Als potenzieller Kunde kann ich das Vorenthalten von voller Geschwindigkeit aus marketingtechnischen Gründen wahrlich nicht gutheißen."
Klar, wenn das aus Inkompetenz resultiert (ATI), dann ist's OK, ja ?
;-)
"Ich weiss nicht, wie ich es bescheiden ausdrücken soll, doch ich sehe nicht ein, mich an das Niveau der "anderen" anzupassen; selbst wenn sie in Überzahl sind."
Auch nicht, wenn sie vielleicht recht haben !
:D
@Nr.5
"da aber durch diese spielchen der kunde zu regelmässigen neuinstallieren seiner detonator gezwungen wird stört mich das wesentlich mehr."
Und das ist bei ATI anders ?
(da wurden sogar ganze Features 'zurückgehalten', nebst Geschwindigkeit selbstverständlich ;-)
???
@RAL
Also Deinen Kommentar fand' ich rihtig klasse:
Weil nvidia sich solche "Spielchen" erlauben kann, nicht zu jeder Zeit das Maximum aus ihren Chips herauskitzeln zu müssen, sondern erst dann per einfachem Treiberupdate zuzuschlagen, wenn die Konkurrenz performancemäßig zu gefährlich wird, zeigt einmal die technische und auch die Marktüberlegenheit. Zweitens wird dadurch klar, daß nvidia kein Monopol hat, sondern ihre Konkurrenten ernst nimmt. Klar, als Kunde kann einem das nicht sonderlich gefallen, aber daran muss man sich wohl oder übel gewöhnen in der freien Marktwirtschaft. Es wäre wohl auch möglich Glühbirnen herzustellen, die 100 Jahre leben, aber das macht man halt nicht, weil die Wirtschaft an solchen Produkten zugrunde ginge. nvidia würde daran zwar nicht gleich zugrunde gehen, wenn sie die GF4 um - sagen wir mal noch 10% - beschleunigen würden, aber sie würden einen Fehler machen so zu handeln, weil sie Gefahr liefen, daß sie ihre Performancereserven unnötig verjubeln, die sie im Marktkampf noch dringend benötigen könnten. Es ist also ganz normal, daß nvidia so vorgeht, es ist nichts weiter als logisch und weder fies, noch mies noch sonstwas in der Art. Ich persönlich würde es sogar als weiteren Kaufgrund sehen, mir eine GF4Ti statt einer R8500 zu kaufen, eben weil die Karte dann mit späteren Treiberreleases nochmal zulegen kann.
Denn dem kann ich nur 100%'ig zustimmen !!!
;-)
@Haarmann
Du reitest also auch auf diesem ehlendigem XBitLabs Test herum ?
:bonk:
Dann schau Dir doch mal diesen hier von Anand an:
http://www.anandtech.com/video/showdoc.html?i=1583&p=7
Wenn man bedenkt, daß anschienend 'nur' durch LMA2 eine Leistungssteigerung von über 25% zu erreichen ist (im Vergleich zur Ti500) und diese bei Ti500-Takt selbst die höher getaktete R8500 schlägt (wenn auch nur kanpp ;-), obwohl diese ja das 'revolutionäre' HyperZ2 benutzt...
Aber klar, XBitLabs ist natürlich nicht von nVidia 'gekauft' !
;D
@AlfredENeumann
Rein zufällig bei den ersten Radeon 8500 tests, gabs einen neuen Treiber von Nvidia, der mächtig dampf machte.
Rein zufällig als die Radeon 8500 gelauncht wurde, kam kurz darauf die TI-Serie raus weil die ATI schon wieder schneller war.
Immer wieder diese alte Mär...
Als die Radeon8500 'getestet' wurde, wurde ein R200-Beta-Board mit Beta-Treibern gegen ein bereits verfügbares NV20-Baord mit Beta-Treibern getestet... mehr nicht.
Und um das Ganze noch zu toppen, hatte nVidia ja nicht einmal was falsches gemacht, denn die Ti-Serie, samt offizellem DetoXP-Treiber (die auch - wen wunderts - mit der 'alten' gf3 liefen ;-) kam immer noch VOR der R8500. Insofern waren die 'frühen' Test's sogar zulässig.
Sorry, aber irgendwie...
;-)
In diesem Sinne
Razor
Andre
2002-02-10, 02:35:44
Originally posted by Thowe
Ja, ich kompensiere auch nur. :) Mit der Option darauf hinzuweisen das es nVidia zuzutrauen ist absichtlich Performance zurückzuhalten.
Zu 1:
Weiß ich, aber andere vielleicht nicht.
Zu 2:
NV ist das genauso zuzutrauen, wie jedem anderen Hersteller auch.
Wie war das noch mit ATI und Q3?
Ok, andere Wirkung, aber im Endeffekt diegleiche Methode.
Quasar
2002-02-10, 02:48:33
Gut, also schön der Reihe nach:
@Haarmann:
Richtig, in "deinem" Bench sind die Unterschiede zwischen LMA2 on/off sehr gering.
Allerdings ist deine "einzige" Folgerung nicht unbedingt die richtige.
Ich habe da eine andere, genauso (un-)wahrscheinliche These: Wie ich bei der Installation des neuesten RivaTuners (RC10), welcher ja schon früher durch einige interessante Ausblicke glänzte, daß sich das early Z-Occlusion Culling per RivaTuner nicht mehr abschalten lässt, das entsprechende Feld ist ausgegraut. Was nun, wenn die bei X-Bit Labs einen anderen Tweaker benutzt haben, der sich das noch zutraut, obwohl es mittlerweile im Treiber fest verankert ist, anstatt per Registry-Switch aktiviert zu werden? Ich spekuliere weiter, daß die Messwerte der GF3ti500 von früheren Benchmarks recycled wurden, da hierfür auch eine andere Treiberrevision verwandt wurde. Bei den Detonatoren v23.12 war es jedenfalls möglich, o.g. Feature abzuschalten, bei den neuen 27.42ern ist es nicht mehr möglich, jedenfalls per RivaTuner. Deswegen auch der geringe Unterschied zwischen LMA2 "on" und "off". Soweit meine Spekulation zu diesem LMA2-Verhalten.
@aths:
Mitnichten bin ich auch zu vorgerückter Stunde und nach diversen inhalierten Espressi gereizt.
Deine Theorie mag ich trotzdem nicht teilen. Auch sehe ich nicht unbedingt die von dir postulierte Zustimmung der "nVidia-Fans".
Du hast recht, wenn du behauptest, daß ich gerade deine Statements nVidia betreffend lieber noch ein zweites Mal auf die Goldwaage lege, was historisch begründet ist.
Daß Caches mit spezieller Anpassung besser laufen, ist sicherlich so. Inwieweit jedoch das AF damit in Zusammenhang steht, vermag ich nicht zu beurteilen, zumal man seitens nVidia bereits darauf hingewiesen hat, daß es sich hier um ein Treiberproblem handelt und in der nächsten Revision der Treiber behoben sein sollte. Wenn es nur in einer mangelnden Anpassung begründet läge, sollte zumindest die Skalierung anisotropischen Filterns mit der deutlich gesteigerten Taktfrequenz gegeben sein, nicht aber das momentan zu beobachtende Verharren auf den exakten Werten des deutlich niedriger getakteten Vorgängers.
@Nr.5
Ein besserer, oder noch besser: optimaler, Treiber zum Auslieferungszeitpunkt wäre sicherlich wünschenswert, ebenso wie einer Welt ohne Hunger und ohne Krieg, oder ein Windows ohne Sicherheitslücken. All dies wird aber Wunschvorstellung bleiben und insofern bin ich nach wie vor davon überzeugt, daß es dem Kunden eher mundet, mit einem Treiberrelease einen deutlichen Leistungsschub zu erhalten, als diesen gänzlich verwehrt zu bekommen, wie es bei vielen Treibern der Konkurrenz nVidias der Fall ist.
@Threadthema:
Noch einmal deutlich:
Der Eingangs vermeldete nicht vorhanden Performancegewinn bei Aktivierung der LMA2 liegt IMHO im seit dem 27.20er Detonator nicht mehr treiberseitig abschaltbaren early Z-Occlusion Culling. Belegt wird dies einerseits durch meine Beobachtung in den Optionen des Rivatuners, andererseits durch die unterschiedlichen verwendeten Treiberrevisionen bei X-Bit Labs. Der marginale Unterschied stammt vom nach wie vor switchbaren Lossless Z-Compression.
edit: Habs grade nochmal verifiziert. Nach Downgrade zu Detonator 23.12 läßt sich Z-Occlusion Culling wieder per RivaTuner switchen
edit II: Den unbeabsichtigen Smiley in der Antwort auf Nr.5 entfernt
Originally posted by Andre
Zu 2:
NV ist das genauso zuzutrauen, wie jedem anderen Hersteller auch.
Wie war das noch mit ATI und Q3?
Ok, andere Wirkung, aber im Endeffekt diegleiche Methode.
Das mit Q3 und ATI war bestenfalls ein tragisches Versehen oder schlimmstenfalls ein mieser Trickbetrugsversuch. Wenn es sich nvidia zur Zeit erlauben kann, ihre GPUs etwas gedrosselt zu fahren, ist das was ganz anderes. Das ist kein Betrug, weil wenn sich jemand über die Performance/features einer GF4 schlaumacht und sie dann kauft, kriegt er das was er erwartet und später kriegt er ev. noch nen Performancebonus oben drauf. Also hat er überhaupt keinen Grund sich getäuscht zu sehen. Wie gesagt, nvidia kann sich das locker erlauben, weil sie mit der GF4 die Performance-Krone innehaben. Wenn sich aber ein Kyro-Marketingmensch hinstellt und sagt, daß er es nicht nötig hätte, bald einen schnelleren Kyro-nachfolger zu releasen, weil das Geschäft zur Zeit gut laufe (wie vor nicht allzu langer Zeit geschehen), dann wirkt das etwas hochmütig und letztlich lächerlich.
RAL,
du schreibst: "aber sie würden einen Fehler machen so zu handeln, weil sie Gefahr liefen, daß sie ihre Performancereserven unnötig verjubeln, die sie im Marktkampf noch dringend benötigen könnten"
Nun, ich halte solches Gebaren für perverse Auswüchse des Kapitalismus. (Hier wird auch wieder schön deutlich, dass Kapitalismus ineffizient ist.)
ATIs Sache mit dem Quake3-Treiber halte ich nicht für ein Versehen, sondern für Absicht, um Aufmerksamkeit zu erscheischen. Aber wieso wirkt es lächerlich, wenn ein Kyro-Mensch aufgrund des Absatzes meint, mit dem Folgeprodukt warten zu können? Er will doch (wie nVidia) auch nur maximal Geld verdienen.
Zumal nVidia mit der GeForce4 die GeForce3 nun zum 3. male bringt, das ist im Prinzip auch nichts neues. Nach deiner Beurteilung "etwas hochmütig und letztlich lächerlich."
Razor, mit der Bemerkung
"Klar, wenn das aus Inkompetenz resultiert (ATI), dann ist's OK, ja ?
;-)"
hast du ein mal mehr den Vogel abgeschossen. (BTW nVidia brauchte ein halbes Jahr, um die GeForce3 einigermaßen mit der "richtigen" Leistung laufen zu lassen. Aber was erzähle ich das einem, der auf einem Auge blind ist...)
Quasar,
ok du hast mich entlarvt. Ich stehe auf der Gehaltliste dunkler Mächte und bin Lakai der nVidia-Rufschädigung. Dazu ist mir jedes Mittel Recht. So zum Beispiel die Theorie zu äußern, nVidia würde die GF4 im Moment noch nicht mit voller Geschwindigkeit laufen lassen, um beim nächsten Release von ATI wieder groß tönen zu können...
Findest du, dass ich die nVidia-Produkte im GeForce4-Preview ungerecht behandelt habe?
[fu]121Ah
2002-02-10, 11:19:56
Originally posted by Nr. 5
afaik keine...
aber wie du bei deinen bekannten gemerkt hast ist, wäre ein "besserer" teiber zum auslieferungszeitpunkt echt wünschenswert.
nicht das der treiber die alleinschuld trägt.
sind sicherlich auch spiele die für spätere treiber optimiert wurden, und deshalb nicht optimal liefen.
cu
doch, meine v5 läuft perfekt mit den treibern die man erhielt.
Quasar
2002-02-10, 12:19:03
aths,
wenn du mal ein wenig mehr auf Argumente eingehen würdest, anstatt dich sarkastisch als zu Unrecht angegriffenes Unschuldslamm darzustellen, würde die Diskussion erheblich davon profitieren.
Lies doch vielleicht nochmal meinen letzten Post.
Im anderen Thread hast du das ja offenbar schon halbwegs getan.
Quasar,
es sollte deutlich geworden sein, dass ich meine Theorie nicht mit Händen und Füßen verteidigen werde, weil sie natürlich auch falsch sein kann. Das werden wir schießlich sehen, wenn es so weit ist.
Ich kann mir vorstellen, dass ein GF3-Treiber auf einer GF4 in bestimmten Situationen eine geringere pro-MHz-Leistung liefert. Gerade beim AF scheint mir Caching doch sehr wichtig. Wenn nun ein GF3-Treiber mit einem etwas anders arbeitendem GF4-Cache zurecht kommen muss, könnte das vielleicht ein Grund der seltsamen Performance sein. Denn unterstellt man sehr ähnliche Hardware und einen Bug im Treiber, müsste das auch die GF3 betreffen.
edit: Rechtschreibung.
Originally posted by aths
Nun, ich halte solches Gebaren für perverse Auswüchse des Kapitalismus. (Hier wird auch wieder schön deutlich, dass Kapitalismus ineffizient ist.)
Jeder Hersteller eines Produktes kann und muss sich selbst aussuchen können, wie er dieses gestaltet. Du kannst nicht einen Autohersteller etwa moralisch dazu 'verpflichten', noch etwas mehr Höchstgeschwindigkeit aus dem Motor eines seiner Produkte herauszukitzeln, auch wenn die Leistung dafür reichen würde. Es bleibt ganz alleine dem Hersteller überlassen, wie er seine Produkte auslegt. Der Erfolg einens Produktes hat viele Seiten. Die Leistung, Zuverlässigkeit, Kompatibilität (hier bei Computerzubehör), der Preis, die professionelle Vermarktung (-> besser sein oder scheinen als die Konkurrenz) müssen stimmen. All dies führt zur Akzeptanz eines Produktes. Vielleicht solltest du einfach einmal darüber nachdenken, was dies genau bedeutet. Du wirst schnell einsehen müssen, daß man die Entscheidung, wie ein Hersteller sein Produkt gestaltet, ganz alleine ihm überlassen muss, anders kann Marktwirtschaft überhaupt nicht funktionieren. Aber deine Meinung hierzu, daß du dies als "perversen Auswuchs" ansiehst, läßt bei mir wiederum den Verdacht aufkommen, daß der Sinn dieses threads kein anderer ist, als eben dies an den Mann zu bringen: "nvidia ist pervers".
Aber wieso wirkt es lächerlich, wenn ein Kyro-Mensch aufgrund des Absatzes meint, mit dem Folgeprodukt warten zu können? Er will doch (wie nVidia) auch nur maximal Geld verdienen. Zumal nVidia mit der GeForce4 die GeForce3 nun zum 3. male bringt, das ist im Prinzip auch nichts neues. Nach deiner Beurteilung "etwas hochmütig und letztlich lächerlich."
Es klingt für mich einfach lächerlich, wenn ein Hersteller glaubt, eine mittelmäßig schnelle Grafikkartenreihe, die auf den Gamermarkt zielen soll, finanziell abschöpfen zu können, ohne sich zuvor das nötige Prestige mit Topprodukten erarbeitet zu haben. Nur wenn man solche Topprodukte wie Radeon8500/Geforce3 u. 4 am Markt hat, kann man es sich erlauben, mit Lowcostprodukten "abzuschöpfen". .
Razor
2002-02-10, 14:07:15
@Quasar
Deine Analyse bzw. deinen Versuch, diese 'merkwürdigen' Ergebnisse bei XBitLabs zu erklären scheinen wirklich schlüssig, wenn auch (natürlich ;-) rein spekulativ. Verwunderlich ist zudem, daß die Ergebnisse bei XBitLabs erheblich von denen anderer abweichen, was mich bezüglich derer Artikel noch mißtrauischer macht.
Wie dem auch sei, vielleicht sollten erst einmal offizielle Treiber abgewartet werden, bevor hier (insbesondere von aths) voreilige Schlüsse gezogen werden.
Das einzige, was XBitLabs mit seinem HSR On/Off Vergleich belegt, ist, daß es Meßungenauigkeiten gibt und die Abschaltung von LMA2 (wie soll dies eigentlich komplett [!] möglich sein ?) eher mißlungen ist.
@aths
"...hast du ein mal mehr den Vogel abgeschossen."
Was ich eigentlich damit zum Ausdruck bringen wollte, lieber aths, ist, daß so ziemlich ALLE Hersteller Produkte ausliefern, die noch nicht auf dem Leistungshöhepunkt laufen. ATI tut dies genauso wenig wie ImgTech, nVidia oder damals 3dfx... aus welchen Gründen auch immer.
Das Du da jetzt aber eine Art Konspiration daraus strickst, halte ich für arg überzogen und zeigt einmal mehr Deine Abneigung gegen diese Firma.
Sorry, aths, aber bemüh Dich bitte trotzdem hier nachvollziehbare Argumente zu bringen und nicht blindlings dem Werbesingsag von ATI zu folgen (was Du ja sonst auch nicht tust).
"Findest du, dass ich die nVidia-Produkte im GeForce4-Preview ungerecht behandelt habe?"
Ich bin zwar nicht Quasar, kann Dir aber sagen, daß ich nie wieder einen Artikel von Dir lesen werde, der über nVidia-Produkte verfaßt ist. Da werde ich mich lieber an etwas Objektiveres halten...
;-)
In diesem Sinne
Razor
Nr. 5
2002-02-10, 14:31:16
@Razor
ich beziehe das auf alle hersteller, nicht nur nVidia (war nur ein gutes beispiel :D), egal ob hardware oder software.
@Quasar
wir könnten jetzt ewig so weitermachen...
ist eben meine persönliche einstellung.
mag nun mal keine produkte die erst mit neuen patches/treibern funzen. (bzw. deutlich besser funzen)
cu
Quasar
2002-02-10, 14:38:26
@Razor:
LMA(-II) kann man nicht gänzlich abschalten, allerdings wohl das HSR (und nichts andere behaupten X-Bit Labs), indem man z.B. im Rivatuner im DirectX-Tab Early Z-Occlusion Culling und Lossless Z-Compression abschaltet (beides übrigens wunderbare Gegenbeispiele, für die immer wieder angeprangerten Marketingstrategien nVidias, drücken sie doch genau das aus, was sie letztlich auch tun, ohne sich auf Kunstworte oder blumige Beschreibungen einlassen zu müssen).
Btw, grad habe ich mal das Szenario von X-Bit Labs mit meiner GF3 nachgestellt. Ergebnis: Wenn man nur Z-Compression abschaltet, Early Z-Occlusion Culling aber eingeschaltet läßt, verliert man ganze 4 fps. Insofern scheint immer mehr für die Annahme zu sprechen, daß man in den neuen 27.20+ Detonatoren einfach nicht mehr die Möglichkeit hat, Early Z-Occlusion Culling nach Belieben an- und abzuschalten.
@aths:
Ich habe vorhin mal deine (eure) beiden Werke zum Launch der GF4 respektive der Radeon mit 128MB gelesen. Auf deine Frage, ob die nVidia-Produkte in deinem Preview ungerecht behandelt würden, kann ich nur differenziert antworten.
Ich würde sagen, es ist neutraler als ich befürchtet habe, aber voreingenommener, als ich es mir gewünscht hätte. Sicher, an den Fakten ist großteils alles richtig beschrieben, nur wenn man den Ton, insbesondere zum Radeon+128MB-Launch vergleicht, merkt man doch eindeutig, wo deine Präferenzen liegen. Hier (Firma X) und da (Firma Y) werden Fehler gemacht, bzw. Marketingaussagen als allgemeingültige Weisheit hingestellt. Während bei der einen Firma jedoch ausnahmslos darauf eingegangen wird, was man getan hätte, wird bei der anderen der Schwerpunkt gelegt, was man denn unterlassen hätte. Das ist jeweils für die Leistung und Marketingsaussagen umgekehrt zu werten.
Insofern denke ich, daß gerade bei einer Site, die sich für neutrale Berichterstattung regelmäßig (und oft zu Recht) selbstals Beispiel (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=11424) anführt, auch und besonders der Ton die Musik macht.
Darüber sollte man vielleicht auch einmal nachdenken.
Da ich die Diskussion zum Thema "LMA-II-Betrug" vorläufig als erledigt ansehe, möchte ich nun auf dein anisotropisches Filtern zurückkommen. Hierzu schreibst du:
Ich kann mir vorstellen, dass ein GF3-Treiber auf einer GF4 in bestimmten Situationen eine geringere pro-MHz-Leistung liefert. Gerade beim AF scheint mir Caching doch sehr wichtig. Wenn nun ein GF3-Treiber mit einem etwas anders arbeitendem GF4-Cache zurecht kommen muss, könnte das vielleicht ein Grund der seltsamen Performance sein. Denn unterstellt man sehr ähnliche Hardware und einen Bug im Treiber, müsste das auch die GF3 betreffen.
Nicht zwangsläufig, würde ich sagen. Denn unterstellt man einmal, daß der höhere Takt der GF4 auch größere Caches benötigt, um seine Leistung angemessen zu entfalten, der Treiber aber, noch auf die Größe der Caches der GF3 beschränkt, eben diese als Maximum für die Daten ansetzt, so könnte sich durchaus ein Nachteil für die GF4 ergeben, bei unverändertem Gesamtbild bei der GF3.
Insgesamt stimme ich aber, was das AF betrifft, mit dir, Razor und dem nVidia-Treiberteam überein, daß hier noch ein Bug vorliegt.
[fu]121Ah
2002-02-10, 14:53:32
Originally posted by Quasar
Insgesamt stimme ich aber, was das AF betrifft, mit dir, Razor und dem nVidia-Treiberteam überein, daß hier noch ein Bug vorliegt. [/B]
wenns nur der wäre... *krieg anzettel*
Quasar
2002-02-10, 15:07:26
Hast du noch andere Bugs? Zähl mal auf.... *Kriegserklärung annehm'*
:lol:
edit: den Smiley "repariert"...
Razor,
du hast ATI inkompetent genannt, weil die Treiber erst in späteren Versionen die HW richtig ausnutzen konnte. Bei nVidia ist es ähnlich, diese Firma belegst du jedoch nicht mit solch negativen Audrücken.
Du wirst verstehen, dass mir Quasars Meinung zum Artikel deshalb wesentlich wertvoller ist, weil er sie vernünftig begründet hat. Im Gegensatz zu dir. (Nicht umsonst habe ich dich nicht gefragt.)
BTW, mein "Schluss" ist, wie schon x-fach erwähnt, ausdrücklich als Theorie gekennzeichnet. Du verdrehst wieder ein mal die Sachen.
RAL
uff, das wird etwas länger dauern :) Ich finde es gut, wenn eine Firma (wie auch nVidia) seine Erfolge entsprechend anpreist. Ich finde es nicht gut, auch wenn Firmen das tun können, wenn der Marketing-Feldung eine Desinformations-Kampagne ist. (Hast du dir das GF4 Launch Video angesehen?)
Ich sehe mich von einigen unausgesetzt mit dem Vorwurf konfrontiert, ich würde nVidia schlecht machen wollen. Das tu ich aber nicht, sondern ich kritisiere sie dort, wo es mir angebracht erscheint. Wenn du den Marktteilnehmern (richtigerweise) überlassen willst, wie sie ihre Produkte gestalten, musst du auch den potenziellen Kunden überlassen, ihre Meinung dazu zu äußern. Diese Meinung stelle ich nicht einfach so in den Raum, sondern kann auch Gründe benennen.
Zur Kyro: Ich glaube nicht, dass man ein Topprodukt liefern muss. Das ist nur für das Prestige, das meiste Geld wird mit Niedrig- und Mittelklasse-Grakas gemacht. Das du meinst "Nur wenn man solche Topprodukte wie Radeon8500/Geforce3 u. 4 am Markt hat, kann man es sich erlauben, mit Lowcostprodukten "abzuschöpfen"." kann ich absolut nicht nachvollziehen. Denn Top-Produkte verhindern wahrlich nicht, dass der Käufer Schrott bekommt (TNT2M64, MX200)
Quasar: Das dauert noch etwas mit der Antwort...
Ich würde mich freuen, wenn in diesem (von mir angelegten) Thread kein "Krieg" geführt wird.
Quasar
2002-02-10, 15:15:17
Na gut, dann eben kein Krieg.
*KriegserklärungmitweggetippexterUnterschriftan[fu]121Ahzurückgeb'*
@aths:
Kein Problem, ich kann warten.
Quasar,
ich werde mal unten anfangen. Was nVidia an offiziellen Meldungen von sich gibt, entspricht nicht zwangsläufig der Wahrheit. (Das gilt für andere Firmen, wie z.B. ATI (siehe Quake3-Cheat), auch.) Damit will ich sagen, wenn es angeblich ein Bug gewesen sein soll, dieser aber nicht näher (bzw. plausibel) begründet wird, sehe ich keinen Grund, ihnen das abzukaufen. Ich habe versucht zu argumentieren, dass sich ein Bug, bei vorausgesetztem sehr ähnlichen HW-Verhalten auch die GF3 entsprechend treffen müsste.
Beim Cache meinte ich nicht die Größe, sondern die Verwaltungs-Logik. Die Reihenfolge der Daten etc. spielt sicher eine Rolle, was die Effizienz angeht. Dass es auch sein kann, dass der Treiber einfach nicht die komplette Cache-Größe ausnutzt, ist natürlich ebenfalls gut möglich. (Und daran habe ich noch gar nicht gedacht!) Immerhin reden wir nun detailliert über solche Sachen, und das wäre ohne diesen Thread wohl kaum zustande gekommen.
Fragen wir mal einem Mitteilhaber von nVidia. Richthofen äußerte sich jedenfalls in der Richtung, dass fürs Marketing solche Methoden (Leistung absichtlich zurück halten) gut wären.
Es freut mich sehr, detaillierte Rückmeldungen zu den Artikeln zu bekommen. Nun, spätestens seit der T&L-Kolumne setze ich sozusagen als bekannt voraus, dass ich nVidia mit kritischen Augen sehe. Der Leser wird bei der Zeile "von aths" also selbst beurteilen, wie er den Text dann interpretieren kann. Bei der 128-MB-Radeon-Sache habe ich ATI teilweise scharf angegriffen und nVidia in Schutz genommen, da sich ATI einige unsaubere Sachen leistete - welche ich gerne deutlich benannt habe.
Da ATI im Moment den technischen Vorsprung hat, gibt es bei nVidia mehr aufzuzählen was sie hätten tun können, als bei ATI.
Ich beanspruche für meine Person nicht, neutral zu urteilen. Weil ich weiss, dass das gar nicht möglich ist, habe ich auch kein Streben mir ein neutrales Image zuzulegen. Das einzige was ich für mich beanspruche ist, begründet zu urteilen.
BTW zum Launch der GF4, meinst du die News oder das Preview?
[fu]121Ah
2002-02-10, 16:05:57
Originally posted by Quasar
Hast du noch andere Bugs? Zähl mal auf.... *Kriegserklärung annehm'*
:lol:
edit: den Smiley "repariert"...
lol *friedenspfeiferausholundgrasreinstopf* lol
Quasar
2002-02-10, 16:08:55
*kriegsbeilwiedertiefereinbuddel* :lol:
...du hast "gras" gesagt :lol: *spam*
[fu]121Ah
2002-02-10, 16:13:19
Originally posted by Quasar
*kriegsbeilwiedertiefereinbuddel* :lol:
...du hast "gras" gesagt :lol: *spam*
hehe, was härteres gefällig? lol...
Quasar
2002-02-10, 17:22:28
aths, sorry, daß ich nicht in der richtigen Reihenfolge antworte, aber ich hatte deinen Post nicht gesehen.
Lassen wir mal die ganzen Marketing-Geschichtchen aussen vor. Da nehmen sich die großen Firmen mittlerweile eh nichts mehr, nur einer dieser Firmen werden von einigen ständig solche Sachen aus der Vergangenheit vorgehalten. Insofern ist es, denke ich, fair zu vermerken, daß ATi auch in dieser Hinsicht aufgeholt hat.
Was ich an deiner GF4-Preview (die News zum Launch hab' ich gar nicht gelesen, war ein wenig beschäftigt...) auffällig fand, war, das du wieder einmal versucht hast, das Kyro-Paper gegen das Radeon-Video zu quantisieren, imho unnötig und trug nicht dazu bei, einen unvoreingenommenen Eindruck zu vermitteln.
ATi nennt ihre neuen Features wie 128 MB, mehr Performance durch schnellere Treiber und verbessertes Smoothvision "for free". Ein Spruch besagt: "There is no lunch for free" - und natürlich erst recht keine zusätzlichen 64 MB. Es handelt sich eindeutig um eine Reaktion auf nVidias Ankündigung, die GeForce4 mit 128 MB RAM zu bringen.
Dein Kommentar ist schön und gut, allerdings sind 128MB (die nicht nur 4free sind) bei der Radeon deutlich nutzloser als bei einer GF4, da das FSAA der Radeon aufgrund ihrer anderen Technik in hohen Auflösungen sowieso nur ein Me-Too Feature darstellt und an 4xFSAA in 1600 leistungsmäßig nicht zu denken ist.
Positiv ist anzumerken, dass die +15% eine realistische Zahl sind, während nVidia regelmäßig von +50% Zugewinn durch den Detonator XP fantasiert.
Hier bringst du wieder Aussagen die nach deinen Worten für die OEM-Hersteller gedacht sind, mit öffentlichem Marketing-Gebahren durcheinander, desweiteren ist "fantasiert" vielleicht keine allzu glückliche Wortwahl.
"More Performance" - Geschickter Schachzug von ATi: Sie bringen Zahlen, welche zeigen sollen, dass 128 MB echte Vorteile bringt. Wir zweifeln diese starken Unterschiede jedoch an - 128 MB bringen in der Standardkonfiguration fast nichts. Angesichts der recht niedrigen Max Payne Werte ist davon auszugehen, dass die Optionen auf grafischen Overkill eingestellt wurden - wo die Speicherverdopplung in der Tat Vorteile bringen kann.
Das ist imho schon ein deutlicher Fortschritt in deiner Bewertung & Wortwahl, auch wenn (ebenfalls imho) die deutlich unterschiedlichen Zahlen eher inkl. des vorher angesprochenen 15%-Treiberbonus sein dürften. Max Payne profitiert z.B. im Test von THG deutlich weniger von den 64 zusätzlichen MB, als hier der Eindruck erweckt wird. ->Marketing!
"Wich looks better?" - Das ist nVidia-Niveau: Vergleichen, wo es nichts zu vergleichen gibt. So wie nVidia gerne 2x2 Supersampling vs. Quincunx bencht, vergleicht ATI hier 4x MSAA vs. 16x AF. ATi´s AF ist jedoch kein "echtes" AF, sondern nur eine (recht gut aussehende) Approximation. Die GeForce3 läuft mit 4x MSAA, obwohl 2x fast ebenso gut aussieht - aber spürbar schneller ist.[quote]
So sollte ein fairer Vergleich aussehen, deutliche Worte für Dinge, die in dieser Form verzerrend oder unrichtig sind. Mal abgesehen davon, daß man auf den scheußlichen Bildern (ich weiß, nicht euer Fehler) eh keinen Unterschied erkennt.
[Quote]
"Graphic Market Breakdown - Why mainstream is so important" - geniale Folie: ATi vermarktet ihre Radeon 8500 als "Mainstream" - das findet unseren Beifall, wenn der Preis der Karten auch dazu passt. Während nVidia traditionell sehr hochpreisig arbeitet, drückt ATi ihre Karte mit aller Macht in den Mainstream-Bereich - auch preislich. Nur so findet die DirectX 8.1 Technik genügend Verbreitung, auf dass sich die Spiele-Entwickler auch in ausreichender Zahl dafür interessieren.
Noch ein kleiner Kommentar hierzu: Die GF4 wird es aller Voraussicht nach zum Preis von 199$ geben (ebenfalls ein vom Hersteller genannter Richtwert, wie bei ATi), also sind hier beide wieder pari, wie auch in der voraussichtlichen Leistung der ti4200 vs. 8500LE.
"ATI clearly delivers the best solution" - Hier handelt es sich um einen unfairen Vergleich, denn sie stellen ihre DirectX 8.1 Karte gegen eine DirectX 7.0 Karte. Wenn auch nicht gerade um Größenordnungen, so ist die Radeon natürlich teurer als eine GeForce4 MX460.
Hier irrst du. Es geht primär um den Vergleich von zwei Karten die jeweils für 199S angekündigt waren. Zur Präsentation war auch von der Ti4200 für 199S nichts bekannt, also vergleicht ATi hier durchaus fair zwei Karten für jeweils denselben Preis.
Etwas ehrlicher, wie ATi hier die Konkurrenz-Produkte gegenüber stellt. Verschwiegen wird, dass nVidia hier zwar die deutlich höherpreisigen, dafür etwas schnelleren Produkte bietet.
Ich bin nicht sicher, weil ich die Zahlen von ATi auf der Folie nicht erkennen kann, aber eigentlich sollten doch beide UHE-Modelle mit 299$ starten, also nimmt man sich bezüglich der Preise eigentlich nichts, oder? Nur das im 199$-Segment man bei ATi eine DX8-Karte bekommt, bei nVidia nur eine DX7-Karte (wieder davon ausgegangen, daß ATi zu der Zeit noch nichts von der Ti4200 wusste).
"No HOS support" - ATi bietet unseres Wissen nur n-patches-HOS. nVidia unterstützt das zwar nicht, dafür aber mindestens Bezier-Patches und vermutlich noch einige weitere. Im aktuellen Detonator sind diese HOS für DirectX deaktiviert. Unter OpenGL lassen sie sich über den üblichen Weg der herstellerspezifischen Extensions aber nutzen. ATi hat hier also Unrecht; letztlich ist der HOS-Support der GeForce 3/4 sogar flexibler, wenn auch der Implementations-Aufwand deutlich höher ist.
Laut nVidias Launch-PDFs ist der HOS-Support beim GF4 sogar komplett weggefallen, jedenfalls ist davon kein Wort mehr zu finden...dazu habe ich mich bereits ein wenig im Tech-Forum/RT-Patches ausgelassen.
So, ich hoffe, das war jetzt nicht zuviel des Feedbacks auf einmal.
@Thema:
Ehrlich gesagt bezweifle ich, daß diese QuadCache-Geschichte eine große Rolle spielt, angesichts der wenigen strukturellen Änderungen, die am GF3 offenbar für nötig erachtet wurden. Zwei Änderungen würden mir als technischem Laien plausibel erscheinen:
Erstens, die Anpassung der Cache-Größen an den taktbedingt gesteigerten Durchsatz, und zweitens eine andere Organisation des Vertex (und meinetwegen auch Primitve-) Buffers, da durch den zusätzlichen Vertex-Shader sicher auch ein Mindestmaß an parallelisierbarer Organisation nötig wurde, wie bsw. unabhängige Read/Write-Buffer o.ä.. Das ganze hat nun aber offenbar (in meiner Version) wenig mit den Pixelshadern zu tun, über die von nVidia auch nicht sehr viel zu erfahren war, außer daß sie 50% leistungsfähiger als beim GF3 (nicht Ti500!) ausfallen sollen, was sich ja ziemlich mit der Taktsteigerung deckt und auch im X-Bit Labs Review einigermaßen konstant bestätigt wurde (Meßtoleranzen aufgrund der unterschiedlichen Treiber mal außen vor gelassen).
Quasar,
ich bin mir nicht bewusst, beim GF4-Preview das nvidia on kyro PDF thematisiert zu haben. Es bei ATIs Präsentation zu machen liegt aus meiner Sicht nahe. Ich schrieb in der Konkusion (die letzten beiden Absätze und die komplette Einleitung sind von Leo) "Durch die Verwendung von 128 MB RAM wird der noch vorhandene Preisunterschied dem Kunden sicherlich sehr gut "verständlich" gemacht. ATi hat wirklich dazu gelernt, was das Marketing betrifft." Du zitierst nur bruchstückhaft.
Hat ATI im "öffentlichen Marketing" behauptet, mehr als 15% durch neue Treiber gewonnen zu haben? nVidia behauptet heute, der DetoXP würde 30-50% bringen (was immerhin eine Abschwächung ihrer ehemaligen Fantasien darstellt.)
Bei MP schrieb ich, dass der Vorteil vermutlich den von ATI gewählten Grafikoptionen zuzurechnen ist - " wo die Speicherverdopplung in der Tat Vorteile bringen kann." Möglichkeitsform. Deutlich steht da auch "128 MB bringen in der Standardkonfiguration fast nichts."
Über die Preise der Ti4200 war uns zum Zeitpunkt als die Zeilen enstanden noch nichts bekannt. Und nVidia selbst nennt sie auf ihrer Homepage noch nicht. Aktuell braucht ATI auch nicht auf diesen zukünftigen Chip eingehen, denke ich.
DX8.1-HW mit DX7-HW zu vergleichen finde ich immer unfair. Nur wenn ATI das reine Preisargument sieht heißt das nicht, dass ich darauf eingehe. Man sucht seine Karte nicht nur nach dem Preis aus.
Die gestiegene GF4-PS-Performance ist auf höheren Takt und angeblich bessere Performance bei mehr als 2 Texturen pro pass zurückzuführen.
Zum HOS halte ich mit Absicht erst mal die Klappe.
Quasar
2002-02-10, 22:13:02
Ich zitierte bewußt bruchstückhaft, da ich nur Punkte aufzeigen wollte, wo ich nicht mit dir übereinstimme (im Groben jedenfalls).
Ich denke, daß es sicher auch Situationen geben wird, wo man 30-50% (also inkl. 50%) mehr Leistung durch den Einsatz des DetonatorsXP erreichen kann, Marketing-Aussagen eben.
Daß ATi auf die Ti4200 eingehen muss, habe ich nicht behauptet, ebensowenig, daß du bei deinem Launch-Report davon hättest wissen sollen.
Wenn es DX7 und DX8-Hardware zum gleichen Preis gibt, muss sich, so leid es mir tut, die DX7-Hardware eben diesen Vergleich sehr wohl gefallen lassen, da es im Endeffekt um Leistung für's Geld geht.
Ansonsten sollte das nur mal ein halbwegs ausführliches Feedback sein, ich hatte nicht die Absicht, jedes deiner Statements auf die Goldwaage zu legen.
Razor
2002-02-10, 22:54:26
@Nr.5
"ich beziehe das auf alle hersteller, nicht nur nVidia... "
Na dann bin ich ja 'beruhigt'...
;-)
@Quasar
"LMA(-II) kann man nicht gänzlich abschalten, allerdings wohl das HSR (und nichts andere behaupten X-Bit Labs), ..."
Ich habe mich vielleicht etwas unverständlich ausgedrückt...
(wäre nicht das erste mal ;-)
Wenn man HyperZII lediglich mit einem Teil des LMA2 vergleicht und dann daraus schließt, daß die Leistungsfähigkeit der einen Karte höher ist, als die andere... dann ist das ein Trugschluß.
ATI hat keine 'intelligente' Speicherarchtiektur, wohl aber ein 'intelligentes' HSR. Nun schaltet man bei nVidia jetzt lediglich das zocc und die z-komprimierung ab (oder versucht das zumindest ;-) und kommt nun zu der Aussage, daß die Architektur der R8500 'effizienter' ist...
Ich hasse diese Äpfel- und Birnen-Vergleiche !
Wäre da nur das zocc ('Z oclusion culling') auf dem NV-Chip, um Bandbreite bei einem 'brute-force-renderer' effizienter zu nutzen, würde ich das verstehen. Da dies aber nicht der Fall ist, ist selbst der Versuch eines solchen Vergleiches vergebens...
Verstehst Du mein Problem ?
Und wie ich sehe, hast Du aths Artikel ähnlich aufgenommen, wie ich auch...
;-)
@aths
"du hast ATI inkompetent genannt, weil die Treiber erst in späteren Versionen die HW richtig ausnutzen konnte. Bei nVidia ist es ähnlich, diese Firma belegst du jedoch nicht mit solch negativen Audrücken."
Falsch !
Du hast nVidia vorgeworfen, langsame Treiber aus Marketinggründen heruas zu bringen und ich habe Dich dann gefragt, warum auch ATI das so macht, Du offensichtlich aber bei ATI keine Marketinggründe vermutest und es demnach ja nur inkompetenz sein kann...
Mehr wollte ich damit nicht zum Ausdruck bringen !
(oder doch ?)
;-)
"Du wirst verstehen, dass mir Quasars Meinung zum Artikel deshalb wesentlich wertvoller ist, weil er sie vernünftig begründet hat. Im Gegensatz zu dir. (Nicht umsonst habe ich dich nicht gefragt.)"
Das war nun wieder mal völlig unnötig, zeigt Deine geistige Haltung allerdings ziemlich deutlich. Gut, daß dieses Forum nicht Deinen Reglementarien unterworfen ist, denn sonst würde es hier ziemlich düster aussehen !
Ich werde auch weiterhin etwas zum besten geben, wenn es mir in den Sinn kommt, völlig egal, ob es Dir paßt, oder nicht !
"BTW, mein "Schluss" ist, wie schon x-fach erwähnt, ausdrücklich als Theorie gekennzeichnet. Du verdrehst wieder ein mal die Sachen."
Du stellst es erst als Fakt hin und sagst dann, daß es eine Theorie sei...
Wieder ein gutes Beispiel für ein Stilmittel, dem man sich nicht zwangsläufig bedienen muß.
Oder siehst Du das anders ?
;-)
Zu eurem Wortwechsel bezüglich Deines Artikels sage ich lieber nichts, denn er gefiel mir vom Tonfall einfach nicht und war eines Reviews oder Prewies auch nicht angemessen. Meine Meinung !
Aber eines noch:
"Da ATI im Moment den technischen Vorsprung hat..."
Worin siehst Du das begründet ?
In den Features, die keiner braucht ?
Oder in der Effizienz ?
???
In diesem Sinne
Razor
[fu]121Ah
2002-02-10, 23:39:50
Originally posted by Razor
Aber eines noch:
"Da ATI im Moment den technischen Vorsprung hat..."
Worin siehst Du das begründet ?
In den Features, die keiner braucht ?
Oder in der Effizienz ?
???
In diesem Sinne
Razor [/B]
jetzt hast du dir ein bein gestellt, nvidia hat auch sinnlose features, so wie zu geforce zeiten tnl da es niemand brauchte, mit der gf3 das gegenstück zu truform (weis den namen nicht mehr) das man ja sogar deaktiviert hat.... ich bin kein insider, aber wenn ich das sogar weis :)
razor, aths hat keineswegs gesagt nvidia macht langsame treiber, sondern sie aktivieren gewisse funktionen noch nicht. das ist ein kleiner aber feiner unterschied...
"[..]nvidia hat auch sinnlose features, so wie zu geforce zeiten tnl da es niemand brauchte,[..]"
Das liest man immer wieder, stimmt aber so absolut dahingesagt auch nicht ganz. Ich als Quake3-Fan der ersten Minute habe das DX7-T&(L) der GF1 schon gebrauchen können. Und Quake3 ist ja nicht irgend ein Spiel, damals zumindest war es doch noch recht beliebt, gelinde ausgedrückt.
Razor
2002-02-11, 01:55:34
@[fu]121Ah
Originally posted by aths
So zum Beispiel die Theorie zu äußern, nVidia würde die GF4 im Moment noch nicht mit voller Geschwindigkeit laufen lassen, um beim nächsten Release von ATI wieder groß tönen zu können...
Das zu dem, was aths 'behauptet' hat...
;-)
Aber auch an Dich noch einmal die Frage:
"Da ATI im Moment den technischen Vorsprung hat..."
Worin siehst Du das begründet ?
Bis denne
Razor
Originally posted by aths
Ich finde es nicht gut, auch wenn Firmen das tun können, wenn der Marketing-Feldung eine Desinformations-Kampagne ist. (Hast du dir das GF4 Launch Video angesehen?)
Nein habe ich nicht, werde ich ev. noch nachholen, falls es mir jemand schmackhaft macht. Werbung angucken ist nicht gerade meine Lieblingsbeschäftigung.
Aber ich kann es mir in etwa vorstellen: "Wir sind die größten und zwar mit 175% Vorsprung, weil 1. und 2. und ausserdem kauft alle die GF4MX". Korrekt soweit?
Werbung hat es nunmal so an sich, den Spagat zwischen
(a) Nicht offensichtlich lügen
und
(b) möglichst effizient potentielle Käufer manipulieren
schaffen zu wollen. Wenn du es bei nvidia kritisiert, musst du es überall tun. Der Knackpunkt ist, daß man jemanden nicht einer - wörtlich Perversität - bezichtigen sollte, der
1. rechtlich korrekt handelt
2. beliebig austauschbar ist
Es ist eine systemimmanente Angelegenheit. Ati oder 3dfx an nvidias Stelle würde genauso oder an anderer Stelle vergleichbar handeln, bzw. taten und tun es schon.
[..], musst du auch den potenziellen Kunden überlassen, ihre Meinung dazu zu äußern. Diese Meinung stelle ich nicht einfach so in den Raum, sondern kann auch Gründe benennen.
Habe ich versucht, dich deine Meinung nicht sagen zu lassen? Falls dieser Eindruck entstanden sein sollte, kann ich dich ausdrücklich beruhigen. Aber du solltest auch akzeptieren, daß andere Leute deine Aussagen und Argumente nach ihrem Verständnis deuten und dies ebenso sagen.
Zur Kyro: Ich glaube nicht, dass man ein Topprodukt liefern muss. Das ist nur für das Prestige, das meiste Geld wird mit Niedrig- und Mittelklasse-Grakas gemacht. Das du meinst "Nur wenn man solche Topprodukte wie Radeon8500/Geforce3 u. 4 am Markt hat, kann man es sich erlauben, mit Lowcostprodukten "abzuschöpfen"." kann ich absolut nicht nachvollziehen. Denn Top-Produkte verhindern wahrlich nicht, dass der Käufer Schrott bekommt (TNT2M64, MX200)
Nur wenn man solche Topprodukte wie Radeon8500/Geforce3 u. 4 am Markt hat, kann man sich die begründete Hoffnung machen, mit Lowcostprodukten den Mainstreammarkt abschöpfen zu können.
Falls du etwas anderes verstanden haben solltest, sorry, ich meinte es so.
"Wir haben es nicht nötig, etwas zu tun" sollte man nur sagen, wenn man was zu bieten hat oder genauer, wenn die Masse der potentiellen Kundschaft davon überzeugt ist, daß man was zu bieten hat, ansonsten würde mir als erstes dazu einfallen "Hochmut kommt vor dem Fall".
Der Schrott, wie du es ausdrückst, geht weg wie warme Semmeln. Der gute Name Geforce wird von der Masse (die i.a. auf superduper 3d-game-performance keinen Wert legt) gekauft und den bekommt man durch Prestige, welches man wiederum mit Topprodukten und Topmarketing erlangt.
--
Und jetzt komme ich nochmal auf deine Vermutung zurück, daß Nvidias Treiberentwicklung auch marketingtechnischen Überlegungen gehorcht. Ich persönlich bin mir sogar sicher, daß dies so ist und finde es absolut normal, denn nvidia will Geld verdienen und nicht ein paar verrückte 3d-spielesüchtige Kids beglücken. Hoffe, dass nun klar ist was ich meine.
Originally posted by Razor
"Da ATI im Moment den technischen Vorsprung hat..."
Worin siehst Du das begründet ?
In den Features, die keiner braucht ?
- Pixel Shader 1.4
- TruForm (NVidia bietet zur Zeit in DX keine HOS, in OpenGL zweifelhaft)
- beim FSAA und AF kann man keinen Vorsprung bewerten, da unterschiedliche Philosophien
Für diese Frage ist es unerheblich ob Features genutzt werden oder nicht. "Features, die keiner braucht", halte ich für eine sehr gewagte Behauptung, gerade von jemandem der sich mit diesen Features kaum auseinandergesetzt hat.
Originally posted by aths
Sie schließen featureseitig nicht mal zur Konkurrenz auf und bieten seit einem Jahr prinzipiell die gleiche Technik. Das schont Entwicklungskosten und erhöht den Profit, doch wie gesagt beurteile ich die Firmen als potenzieller Kunde.
Stimme ich zu, aber Aths - es muss sich doch nicht jeder nach der GF3 auch die GF4 kaufen ;) Die schlauen überspringen eine Serie, warten auf die "Geforce5" und peppen ihre Kiste dann mit noch mehr Features + Speed für's Geld auf.
Wer jetzt eine TNT2 oder ne Geforce1 hat, Geld über hat und sich ne GF4 holt hat allerdings einfach nur Recht - so seh ich das.
Unregistered
2002-02-11, 07:50:32
Originally posted by Razor
@[fu]121Ah
Das zu dem, was aths 'behauptet' hat...
;-)
Aber auch an Dich noch einmal die Frage:
Bis denne
Razor
wie xmas gesagt hat
pixelshader 1.4 und truform
das ist doch schon mal was... und wenn man die wirklichen neuerungen der gf4 anschaut ist sind diese ein witz. ich will hier nicht nvidia schlecht machen, nur sollte es sogar dir als nvda anhänger klar sein dass die radeon featuremässig vorne liegt.
Fragman
2002-02-11, 11:22:35
das truform feature wuerde ich nicht so in den himmel loben, da es auf absebare zeit wohl wieder verschwinden wird, da die poly modelle sowieso hoeher aufgeloest sein werden. heute ist es nicht schlecht, es wird aber auch schnell wieder verschwinden, da es nicht mehr benoetigt wird.
was mich am g4 stoert, man muss wiedermal auf quali verzichten.
bis zu 40 % performanceverlust bei af, unglaublich fuer eine 128 mb karte mit angeblich so toller lmaII. die 2-fach aa performance ist nicht schlecht, ich persoenlich schalte aber lieber af statt aa ein, sieht fuer nich um einiges besser aus. ideal waere natuerlich 4-fach aa und mind 8-fach af, das ist aber nichtmal in 800x600 fluessig spielbar, daran sollte mal gearbeitet werden und nicht den kunden mit irgendwelchen marketingscheiss zuquatschen, aber das kann nv halt besser als chips mit quali zu bauen. aber um hier bessere performance bieten zu koennen muss wohl endlich mal die archtitektur gewechselt werden, die ist mit dem g4 aber nun endgueltig am ende, hoffentlich merkts nun auch nv. das nv nicht pixel shader 1.4 bietet liegt garantiert an dem g4 nachfolger. wenn man mit dem g4 auch schon 6 texturen rendern koennte, waere er viel zukunftssicherer, zb in hinblick auf doom3, wo der g4 mit 6 texturen sicher gut performen wuerde, die rohleistung haette er ja. das waere fuer nv natuerlich fatal, denn man koennte als kaeufer ja den nachfolger ueberspringen.
ich bin da mal auf die readon xt gespannt, wenn die wirklich so hoch getaktet sein sollte, glaub ich persoenlich, dass sie schneller als der g4 werden koennte. allerdings sollte ati endlich mal trilinear af filter moeglich machen.
gruss, Fragman
Razor,
du bist auch weiterhin herzlich eingeladen, deine Meinung selbst dann zu äußern, wenn es mir nicht passt. Dennoch wirst du damit leben müssen, dass ich vor allem auf die Leute eingehen, die ihre Meinung (mit Argumenten) begründen.
Ich schreibe nun:
"BTW, mein "Schluss" ist, wie schon x-fach erwähnt, ausdrücklich als Theorie gekennzeichnet. Du verdrehst wieder ein mal die Sachen."
und du antwortest:
"Du stellst es erst als Fakt hin und sagst dann, daß es eine Theorie sei..."
Da muss ich dich - wieder ein mal - der Tatsachenverdrehung bezichtigen. Lies einfach mal den initialen Post in diesem Thread. Ebenso wenn du behauptest: "Du hast nVidia vorgeworfen, langsame Treiber aus Marketinggründen heruas zu bringen."
Das ist genau so ein Unsinn. Denn ich schrieb, dass sie sich Treiber die LMA2 gezielt nutzen, aufheben. Nicht, dass sie den Treiber anderweitig langsam gemacht haben.
Es würde deutlich mehr Sinn machen mit dir zu diskutieren, wenn du mal lesen würdest was da steht.
Ansonsten sehe ich bei dir Scheuklappen-Denken, sonst würdest du kaum behaupten, dass man PS.1.4 nicht brauchen könnte.
RAL,
du schreibst ganz richtig: "denn nvidia will Geld verdienen und nicht ein paar verrückte 3d-spielesüchtige Kids beglücken" - auf dieser Meinung baute immerhin auch mein erstes Posting hier auf. Wenn ich nV kritisiere, *muss* ich es nicht überall tun :) da aus meiner Sicht nVidia nicht nur von der Marktdurchdringung her Marktführer ist, sondern auch was das Marketing anbelangt.
Wie du merkst, gehe ich allgemein irgendwie... idealistischer heran, als du. Du guckst dir das an, sagst das ist Marktwirtschaft und eine erfolgreiche Strategie und damit gut. Eben diese Schlussfolgerung ziehe ich nicht.
Siehe auch das mit dem abschöpfen. Nur weil nVidia (und teilweise ATI) durch Prestige-Karten vielen unbedarften Usern ihre zweit- und drittklassige Ware andrehen können, sehe ich dieses Verhalten nicht als gut an; sondern im Gegenteil als kritikwürdig.
Razor
2002-02-11, 12:59:10
@Xmas
PS1.4 und Truform also...
DAS soll also das techlogisch fortschrittlichere Produkt ausmachen ?
Eher nicht !
***
Was ist mit der Effizienz ?
Bei allem, was ich bisher darüber gelesen habe (außer bei XBitLabs ;-) ist heruas gekommen, daß LMA2 umeiniges effizienter ist, als HyperZII und ich stelle hier die beiden Technologien gegenüber, die Bandbreite optimieren sollen und nicht einzelne Teile davon.
Die RT-Patches sind unter D3D (und nur da !) lediglich deaktiviert, sind also Bestandteil des Produktes, welches aber zur Zeit nicht genutzt werden kann (ändert sich vermutlich, wenn eine DX-Version da ist, die nicht versucht, die n-Patches über RT-Patches zu 'emulieren' ;-).
PS1.4 sind inkompatibel zu den PS1.1-1.3 und eine exklusive Entwicklung von ATI, die sich erst noch durchsetzen muß. Von der Theorie her sind dort sicherlich bessere Möglichkeiten implementiert, Effekte zu realisieren. Aber solange mir nicht Bildhaft (!) gezeigt wird, daß damit nun optisch ansprechendere Dinge realisiert werden, als mit den vorherigen Version sehe ich das eher als Nachteil, da die PS1.1-1.3 so leider nicht direkt in Hardware unterstützt werden und so von den PS1.4 interpretiert werden müssen, was letztendlich zulasten der Performance geht.
Und bei Truform kann ich Fragman nur zustimmen, denn das wird eine Eintagsfliege werden. Auch ATI wird die RT-Patches im R300 implementieren und erst dann gibt es eine breite Hardware-Basis für's HOS, was dann auch entsprechenden Aufwand auf Seiten der Entrwickler rechtfertigen würde.
So bleibe also festzustellen:
- nVidia die effizentere Architektur (LMA2 vs. HyperZII)
- ATI hat (noch) kein 'richtiges' HOS, nVidia aber schon (auch wenn's zur Zeit unter D3D deaktiviert ist)
- PS1.1 werden von ATI nicht direkt in Hardware unterstützt und solange die PS1.4 nicht angenommen werden, ist dies ein eindeutiger Nachteil hinsichtlich der Performance
- ATI hat schnelleres (aber 'schlechteres') AF
- nVidia hat schnelleres (aber 'schlechteres') AA
Jeder mag sich sein eigenes Urteil bilden, aber von technolgischer Führerschaft auf seiten ATI würde ich hier nicht sprechen.
Ich bin sehr auf die neuen Produkte gespannt (R300/NV30), die dann vielleicht mehr sind, als aufgewärmter Kaffee (gf4ti/RV250) und uns vielleicht tatsächlichen Mehrwert bringen...
Schaun' wir mal !
;-)
Razor
[fu]121Ah
2002-02-11, 13:06:47
Originally posted by Razor
@Xmas
PS1.4 und Truform also...
DAS soll also das techlogisch fortschrittlichere Produkt ausmachen ?
Eher nicht !
***
Was ist mit der Effizienz ?
Bei allem, was ich bisher darüber gelesen habe (außer bei XBitLabs ;-) ist heruas gekommen, daß LMA2 umeiniges effizienter ist, als HyperZII und ich stelle hier die beiden Technologien gegenüber, die Bandbreite optimieren sollen und nicht einzelne Teile davon.
Die RT-Patches sind unter D3D (und nur da !) lediglich deaktiviert, sind also Bestandteil des Produktes, welches aber zur Zeit nicht genutzt werden kann (ändert sich vermutlich, wenn eine DX-Version da ist, die nicht versucht, die n-Patches über RT-Patches zu 'emulieren' ;-).
PS1.4 sind inkompatibel zu den PS1.1-1.3 und eine exklusive Entwicklung von ATI, die sich erst noch durchsetzen muß. Von der Theorie her sind dort sicherlich bessere Möglichkeiten implementiert, Effekte zu realisieren. Aber solange mir nicht Bildhaft (!) gezeigt wird, daß damit nun optisch ansprechendere Dinge realisiert werden, als mit den vorherigen Version sehe ich das eher als Nachteil, da die PS1.1-1.3 so leider nicht direkt in Hardware unterstützt werden und so von den PS1.4 interpretiert werden müssen, was letztendlich zulasten der Performance geht.
Und bei Truform kann ich Fragman nur zustimmen, denn das wird eine Eintagsfliege werden. Auch ATI wird die RT-Patches im R300 implementieren und erst dann gibt es eine breite Hardware-Basis für's HOS, was dann auch entsprechenden Aufwand auf Seiten der Entrwickler rechtfertigen würde.
So bleibe also festzustellen:
- nVidia die effizentere Architektur (LMA2 vs. HyperZII)
- ATI hat (noch) kein 'richtiges' HOS, nVidia aber schon (auch wenn's zur Zeit unter D3D deaktiviert ist)
- PS1.1 werden von ATI nicht direkt in Hardware unterstützt und solange die PS1.4 nicht angenommen werden, ist dies ein eindeutiger Nachteil hinsichtlich der Performance
- ATI hat schnelleres (aber 'schlechteres') AF
- nVidia hat schnelleres (aber 'schlechteres') AA
Jeder mag sich sein eigenes Urteil bilden, aber von technolgischer Führerschaft auf seiten ATI würde ich hier nicht sprechen.
Ich bin sehr auf die neuen Produkte gespannt (R300/NV30), die dann vielleicht mehr sind, als aufgewärmter Kaffee (gf4ti/RV250) und uns vielleicht tatsächlichen Mehrwert bringen...
Schaun' wir mal !
;-)
Razor
wie war das mit äpfel und birnen vergleich? lma2 vs. hyperz2?
also ein feature das deaktiviert ist ist kein feature. bei sv habt ihr auch rumgemekert als es noch nicht aktiviert war.
welches hos richtig ist kannst du sicher nicht sagen. das werden die entwickler sagen. und wenn es für n-patches nur kleine anpassungen braucht dann werden das die meisten entwickler auch eher benützen als wenn man alles neu coden muss. es ist ein feature, denn es wird benutzt und bringt auch sichtbar eine veränderung.
der ps 1.4 ist sicherlich ein fortschritt, auch wenn der ps1.1 emuliert werden muss. bei vertex/pixelshader sagt auch niemand es sei schlechter als dx7 tnl, denn das wird auch nur emuliert...
ob nvidia schnelleres fsaa hat sei jetzt mal dahingestellt, ati hat weniger verlust. quinfuckaa und die idiotische mischung davon und von nem akkuladegerät würd ich sowieso nicht als aa bezeichnen sondern als postblurrer.
Razor
2002-02-11, 13:14:15
@aths
Originally posted by aths
So zum Beispiel die Theorie zu äußern, nVidia würde die GF4 im Moment noch nicht mit voller Geschwindigkeit laufen lassen, um beim nächsten Release von ATI wieder groß tönen zu können...
Nur zur Erinnerung, das sind Deine Worte...
du bist auch weiterhin herzlich eingeladen, deine Meinung selbst dann zu äußern, wenn es mir nicht passt. Dennoch wirst du damit leben müssen, dass ich vor allem auf die Leute eingehen, die ihre Meinung (mit Argumenten) begründen.
Das ist sehr nett von Dir, interessiert mich aber nicht die Bohne !
Ich werde natürlich Deine Aussagen kommentieren, wenn mir etwas daran nicht paßt und mir ist es herzlich egal, ob und wie Du darauf antwortest...
Ebenso wenn du behauptest: "Du hast nVidia vorgeworfen, langsame Treiber aus Marketinggründen heruas zu bringen."
Das ist genau so ein Unsinn. Denn ich schrieb, dass sie sich Treiber die LMA2 gezielt nutzen, aufheben. Nicht, dass sie den Treiber anderweitig langsam gemacht haben.
siehe oben...
Ansonsten sehe ich bei dir Scheuklappen-Denken, sonst würdest du kaum behaupten, dass man PS.1.4 nicht brauchen könnte.
Was Du bei mir siehst, ist mir ebenso herzlich egal, weil Du meiner Meinung nach einfach nicht objektiv bist.
Die GraKa-Nutzer/Käufer werden von den von ATI ach so selbstlos implementierten PS1.4 NICHTS haben, wenn sie von den Entwicklern nicht angenommen werden.
Genau so habe ich es gemeint und nicht anders !
Nicht ich, sondern Du verdrehst hier die Tatsachen und versuchst meine Aussagen anders hinzustellen, als sie gemeint sind.
Die PS1.4 werden von keiner API 'vorausgesetzt' und die Entwickler werden auch nicht 'genötigt' diese zu benutzen. So werden nun die Entwickler darüber entscheiden, ob dieser Vorstoß seitens ATI nun sinnvoll war, oder eben nicht. Der Endbenutzer hat von dieser Technologie also erst was, wenn etwas eintritt, was lange nicht als gesichert erscheint und zumindest mit einem Fragezeichen bedacht werden sollte.
Sonst erzähl mit doch bitte, was für einen technologischen Vorteil die PS1.4 bringen würden, wenn nun nur die Instruktionen der PS1.1 genutzt werden (wonach es zur Zeit aussieht !)...
Wenn die PS1.1 Befehle nun über PS1.4 schneller ausgeführt werden, würde ich einen Vorteil erkennen. Da aber das Gegenteil der Fall zu sein scheint, ist's zur zeit (!) eher ein Nachteil.
-
Bevor Du also anderen Dinge vorwirfst, solltest Du Dir lieber selber an die Nase fassen. Wenn solche Kritik von jemanden kommt, der durch sein eigenes Verhalten das zeigt, was er an anderen verurteilt, kann ich das nun wirklich nicht ernst nehemn...
In diesem Sinne
Razor
nggalai
2002-02-11, 13:15:51
Razor,
sorry wenn ich dich hier anfahre, aber Du bringst diesen Mist jetzt schon zum xten Mal:ändert sich vermutlich, wenn eine DX-Version da ist, die nicht versucht, die n-Patches über RT-Patches zu 'emulieren' ;-). Ob mit Smiley oder ohne--dies ist ein absolut unbegründetes Gerücht aus der Inquirer-Küche, welches JEGLICHER technischer Grundlage entbehrt und allem widerspricht, was unter der D3D API möglich wäre.
*kopfschüttel*
Oder war das als Witz gedacht? Und daher der Smiley?
ta,
-Sascha.rb
Razor,
langsam zweifle ich an deiner Urteilsfähigkeit.
PS 1.4 sei exklusive ATI-Entwicklung. Hm, sind die anderen PS nicht exklusive nV-Entwicklungen? Alle diese PS sind offiziell lizensiert! Ich finde es niedlich, dass du bildhafte Effekte sehen willst - lade dir doch mal das DX8SDK und lies dir in der Help-Doc in aller Ruhe die Möglichkeiten der PS durch. Du willst immer alles mundgerecht serviert haben und scheust jede Mühe, die deine Meinung verändern könnte.
nV hat gerade mal wieder eine etwas effizientere Architektur. Kein Wunder, da der Chip neuer ist.
ATI bietet Curved Surfaces. nV nicht. Fertig. Denn was da in HW vor sich hinschlummert ist belanglos, wenn der Treiber nicht mitmacht. Mit der GF4 scheinen HOS seitens nV erst mal ganz zu Grabe getragen worden sein.
Der angebliche Performance-Nachteil ist bei ATIs PS ist an den Haaren herbeigezogen - guck dir doch mal die PS-Benches an.
Radeon8500 kann 50% mehr Texturen pro Pass verarbieten als GF4. Radeon8500 bietet nebenbei einen größeren Farbraum (von -8... +8 und nicht nur von -1 ... +1).
nggalai,
mir sei die Vermutung erlaubt, dass sich Razor da gerne beide Türen offen hält. Nach dem Smiley-Einsatz zu urteilen, sind dann seine kompletten Postings ein Witz...
Razor,
Du schreibst:
"Die GraKa-Nutzer/Käufer werden von den von ATI ach so selbstlos implementierten PS1.4 NICHTS haben, wenn sie von den Entwicklern nicht angenommen werden."
Sie werden, vom 3DMark2001 SE abgesehen, verdammt wenig haben, weil sich nVidia diesem Features verweigert hat und damit innovationsfeindlich auftritt.
Weiter schreibst du: "Sonst erzähl mit doch bitte, was für einen technologischen Vorteil die PS1.4 bringen würden"
Das verkneife ich mir, da ich annehme dass dir die Mathematik dahinter nicht geläufig ist (und du es nicht verstehen willst.) Was du hier machst ist, Fortschritt klein zu reden, nur weil sich hier und jetzt kein Mehrnutzen bietet. Grafikhardware kann nicht immer nur für das Hier und Jetzt produziert werden, sonst gäbe es keinen Fortschritt und wir wären noch bei Glide 2.41.
edit: Einen überflüssigen Satz gelöscht
Piffan
2002-02-11, 13:23:28
Wenn das jetzte wirklich wahr ist, daß die G4 weit unter ihrem Wert verkauft wird, dann muß ich mir das Ding doch holen, dadadas pustet doch bald alles wech am Maaakt....
DA bin ich als Kunde doch grade auf der sicheren Seite wenn es so wäre. Mich wundert immer wieder, daß hier moralische Gesichtspunkte diskutiert werden. Nvidia kämpft aber auf einem Markt, wo nur der Erste gewinnen kann, es kann nur einen geben. Anders wäre es, wenn das Publikum genug Sachkenntnis hätte und sich den passenden Chip nach den eigenen Bedürfnissen aussucht, z.B. für Videoeignung oder beste Schärfe in hohen Auflösungen usw... So aber wird der Mob dumpf getrieben von dem Motiv, das Allerschnellste und damit Beste im eigenen Manta -äh Computer- zu haben.....So primitiv wie der User, so primitiv auch das Marketing...
Razor
2002-02-11, 13:31:48
@[fu]121Ah
wie war das mit äpfel und birnen vergleich? lma2 vs. hyperz2?
Was ist beiden Technologien zu Zeil gesetzt ?
Und wenn Du diese Frage richtig beantwortest, dann wiederhol nochmal Deine Frage !
also ein feature das deaktiviert ist ist kein feature. bei sv habt ihr auch rumgemekert als es noch nicht aktiviert war.
Nun ist es wieder aktiviert (SV) und alles ist OK, das wird bei den RT-Patches unter D3D (!) auch nicht anders sein, wenn der 'Bug' dort beseitigt ist.
welches hos richtig ist kannst du sicher nicht sagen. das werden die entwickler sagen. und wenn es für n-patches nur kleine anpassungen braucht dann werden das die meisten entwickler auch eher benützen als wenn man alles neu coden muss. es ist ein feature, denn es wird benutzt und bringt auch sichtbar eine veränderung.
Alles was ich bisher gesehen habe, hat mich nun gar nicht überzeugt. Und die Tatsache, daß auch ATI auf die RT-Patches setzen wird, wie es nVidia seit der gf3 bereits getan hat, beweist doch wohl, welches die 'bessere' Variante ist.
Aber natürlich hast Du recht, die Entwickler werden entscheiden !
Insofern steht Deine Aussage genauso im Raum, wie die meinige...
der ps 1.4 ist sicherlich ein fortschritt, auch wenn der ps1.1 emuliert werden muss. bei vertex/pixelshader sagt auch niemand es sei schlechter als dx7 tnl, denn das wird auch nur emuliert...
Was ist das für ein Blödsinn, sorry...
Wenn die PS1.1 Instruktionen langsamer ausgeführt werden, sehe ich die PS1.4 nicht als forschritt, denn eher als Rückschritt. Insofern könnte (!) man ATi hier genauso vorwerfen (wie man das jetzt mit nVidia tut), daß sie die PS1.1 nicht in Hardware implementierten.
Auch solltest Du Dich besser über die verwendeten Technologien informieren, denn sonst wüsstest Du, daß es durch die frei Programmierbarkeit der VertexShader nun möglich ist (ohne Geschwindigkeitsverlust !) die vorher fest verdrahtete Einheit (DX7 HW T&L) als kleines Programm ablaufen zu lassen. Auch das ist eine Art emulation, das ist sicher richtig, allerdings ohne Nachteile...
ob nvidia schnelleres fsaa hat sei jetzt mal dahingestellt, ati hat weniger verlust. quinfuckaa und die idiotische mischung davon und von nem akkuladegerät würd ich sowieso nicht als aa bezeichnen sondern als postblurrer.
Wie Du so etwas siehst ist zeimlich irrelevant...
Tatsache ist, daß alle (4) AA-Modi bei der gf3/4ti (speziell bei der gf4ti) bei modernen Games auch genutzt werden können, während von den 10 Modi det R8500 nur 2 wirklich sinnvoll erscheinen (2xSVP/Q).
Also wieder Features, die keiner braucht (alte Games mal nicht betrachtet) !
(und deren Nutzen eher fraglich ist ;-)
Auch hast Du offensichtlich noch nicht den 4xS-Modus der gf3/4 in Augenschein genommen, sonst hättest Di so etwas sinnentgreifendes nicht von Dir gegeben. Auch ist man mir bisher den Beweis schuldig geblieben, daß die 4xSV-Methode von ATI nun tatsächlich besser aussieht, als die 4xS-Methode von nVidia (mal abgesehen davon, daß sie Performance-seitig) nicht zu gebrauchen ist.
Hier wird lediglich die Möglichkeit der Screen-Vergleiche 'geächtet', ohne Ersatz anzubeiten und stellt nun Behauptungen gegen Fakten.
Schöne 'neue' Welt !
;-)
Razor
LMA2 mit HyperZ II vergleichen, :rofl: Razor ;)
HyperZ-II Arbeitet ETWAS anders als die Lösungen von NVidia. Das soll nicht heissen, dass die NVidia Lösung nicht effizient ist - es soll lediglich heissen, dass LMAII + Z-Clear + ZOC + Z-Kompression das Gegenstück zu HyperZ II ist.
Razor
2002-02-11, 13:57:01
@nggalai
"Oder war das als Witz gedacht? Und daher der Smiley?"
Ich wollte lediglich darauf hinaus, daß dieser Sachverhalt noch nicht geklärt ist...
Andere stellen dies aber so hin, als ob dem so wäre, so tat ich das Meinige !
;-)
By the way: Hast Du eine 'brauchbare' Erklärung dafür, warum die RT-Patches unter D3D deaktiviert wurden ?
(auch wenn das ebenfalls nur auf eine Vermutung hinaus laufen würde ;-)
@aths
"langsam zweifle ich an deiner Urteilsfähigkeit."
Gib's zu, das tust Du doch schon laaaaaaaange !
;-)
"Ich finde es niedlich, dass du bildhafte Effekte sehen willst..."
Schön für Dich, ändert allerdings nichts an meinem Anspruch, den Nutzen in Augenschein nehmen zu können ohne in die Analen der Programmierung einzusteigen (was ich auch gar nicht will !).
"nV hat gerade mal wieder eine etwas effizientere Architektur. Kein Wunder, da der Chip neuer ist."
Schön, daß Du das einsiehst...
;-)
"ATI bietet Curved Surfaces. nV nicht. Fertig."
Was den derzeitigen Zustand beschreibt (nur für D3D gilt) und damit in die gleiche Kategorie einzuordnen ist, wie die Nicht-Verfügbarkeit von SV bei Erscheinen der R8500...
Keiner weiß monatan zu sagen, warum dem so ist !
"Radeon8500 kann 50% mehr Texturen pro Pass verarbieten als GF4. Radeon8500 bietet nebenbei einen größeren Farbraum (von -8... +8 und nicht nur von -1 ... +1)."
Theoretisch...
Oder gibt es 'Benches' die die höhere Leistungsfähigkeit der R8500 im Vergleich zu einer gf4ti in diesem Punkt belegen ?
"Sie werden, vom 3DMark2001 SE abgesehen, verdammt wenig haben, weil sich nVidia diesem Features verweigert hat und damit innovationsfeindlich auftritt."
Warum sollte nVidia eine Konkurenz-Technologie implementieren ?
"Was du hier machst ist, Fortschritt klein zu reden, nur weil sich hier und jetzt kein Mehrnutzen bietet."
Und der zukünftige 'Mehrnutzen' in Frage zu stellen ist...
@HOT
"HyperZ-II Arbeitet ETWAS anders als die Lösungen von NVidia. Das soll nicht heissen, dass die NVidia Lösung nicht effizient ist - es soll lediglich heissen, dass LMAII + Z-Clear + ZOC + Z-Kompression das Gegenstück zu HyperZ II ist."
Leider falsch, HOT...
LMA2 = u.a. CBMA + Z-Clear + ZOC + Z-Kompression
Beide Technologien (HyperZII und LMA2) versuchen die zur Verfügung stehende Bandbreite zu optimieren, haben also das gleiche Ziel. Insofern ist es unsinn nur einen Teil von LMA2 zu nehmen und es der Gesamt-Lösung (!) von ATI gegenüber zu stellen...
Äpfel und Birnen halt !
;-)
In diesem Sinne
Razor
[fu]121Ah
2002-02-11, 14:04:20
Originally posted by Razor
[B]@[fu]121Ah
Was ist beiden Technologien zu Zeil gesetzt ?
Und wenn Du diese Frage richtig beantwortest, dann wiederhol nochmal Deine Frage !
lies hots post, das ist die antwort...
Nun ist es wieder aktiviert (SV) und alles ist OK, das wird bei den RT-Patches unter D3D (!) auch nicht anders sein, wenn der 'Bug' dort beseitigt ist.
du schlussfolgerst dass es wieder aktiviert wird. aber das steht nicht zur debatte, es geht um fakten und fakt ist dass es deaktiviert ist. ich vergleiche diesen bug wie du ihn nennst mit dem quake3 bug, wurde der jemals richtig gefixt?
Alles was ich bisher gesehen habe, hat mich nun gar nicht überzeugt. Und die Tatsache, daß auch ATI auf die RT-Patches setzen wird, wie es nVidia seit der gf3 bereits getan hat, beweist doch wohl, welches die 'bessere' Variante ist.
ob es dich überzeugt oder nicht steht nicht zur debatte. es bringt was, die hersteller mögen es, die leute mögen es auch (mit ausnahme von dir) und man SIEHT den unterschied
Aber natürlich hast Du recht, die Entwickler werden entscheiden !
Insofern steht Deine Aussage genauso im Raum, wie die meinige...
aber ich wies bei meiner aussage darauf hin dass die entwickler das letzte wort haben. du hast deine aussage so hingestellt als hättest du recht!
Was ist das für ein Blödsinn, sorry...
Wenn die PS1.1 Instruktionen langsamer ausgeführt werden, sehe ich die PS1.4 nicht als forschritt, denn eher als Rückschritt. Insofern könnte (!) man ATi hier genauso vorwerfen (wie man das jetzt mit nVidia tut), daß sie die PS1.1 nicht in Hardware implementierten.
Auch solltest Du Dich besser über die verwendeten Technologien informieren, denn sonst wüsstest Du, daß es durch die frei Programmierbarkeit der VertexShader nun möglich ist (ohne Geschwindigkeitsverlust !) die vorher fest verdrahtete Einheit (DX7 HW T&L) als kleines Programm ablaufen zu lassen. Auch das ist eine Art emulation, das ist sicher richtig, allerdings ohne Nachteile...
wie schnell der code abgearbeitet wird hängt von der karte ab, nicht von der pixelshaderversion. rückschritt? was ist dann die gf4mx? eine dx7tnl karte jetzt? das ist ja sicher fortschritt ROFL
ps1.4 bringt neue funktionen, neue erweiterte möglichkeiten. das ist kein rückschritt.
DIE GF3 WAR BEIM LUNCH LANGSAMER ALS NE GF2ULTRA!!! war das rückschritt?
Wie Du so etwas siehst ist zeimlich irrelevant...
wie du es siehst anscheinend nicht...
Tatsache ist, daß alle (4) AA-Modi bei der gf3/4ti (speziell bei der gf4ti) bei modernen Games auch genutzt werden können, während von den 10 Modi det R8500 nur 2 wirklich sinnvoll erscheinen (2xSVP/Q).
Also wieder Features, die keiner braucht (alte Games mal nicht betrachtet) !
(und deren Nutzen eher fraglich ist ;-)
für mich macht aber quinfuck und accufuck keinen sinn. dazu kommt dass für mich die einstellungen der r200 in ordnung sind. glaub auch für jeden anderen. dazu vergleichst du die 4 modi mit 10 einstellungsmöglichkeiten der r200, diese hat aber nur 2 modi...
der nutzen von dx7 tnl ist auch fraglich, der von dx8 im moment auch noch, wieso baut man dann solche karten? ROFL deine argumentation ist nicht ganz so gut :)
.... stellt nun Behauptungen gegen Fakten.
was du sicher nie tust... lol...
nggalai
2002-02-11, 14:06:23
Hi Razor,"Oder war das als Witz gedacht? Und daher der Smiley?"
Ich wollte lediglich darauf hinaus, daß dieser Sachverhalt noch nicht geklärt ist...
Andere stellen dies aber so hin, als ob dem so wäre, so tat ich das Meinige !
;-)
Der Sachverhalt ist nicht zu klären. The Inquirer hat ganz einfach Unsinn verbreitet, der für einige technische Laien so überzeugend klang, dass es von einigen Web-Zeitschriften und vielen, vielen Forenmitgliedern bedenkenlos geschluckt wurde. RT-Patches können N-Patches nicht "emulieren", dazu sind sie zu unterschiedlich--und "ungewollt" durch einen "Bug . . ." das wäre eine kleine Sensation, die wohl auch Mathematiker interessieren würde.
By the way: Hast Du eine 'brauchbare' Erklärung dafür, warum die RT-Patches unter D3D deaktiviert wurden ?
(auch wenn das ebenfalls nur auf eine Vermutung hinaus laufen würde ;-) Fürs "warum" hatte ich schon 2x das einzige Verbindliche gepostet--die Richard Huddy Quote aus der DX-Mailing-List. Alles andere ist Spekulation. (Vgl. auch den RT-Patch Thread im Technologie-Forum).
Da dies erstens OT ist und zweitens langsam repetitiv-langweilig wird, ist für mich in diesem Thread EOD.
Nix für ungut,
-Sascha.rb
Edit: EOD gesetzt.rb
Originally posted by Razor
PS1.4 und Truform also...
DAS soll also das techlogisch fortschrittlichere Produkt ausmachen ?
Eher nicht !
Wenn du das nicht akzeptieren willst, bitte...
Was ist mit der Effizienz ?
Bei allem, was ich bisher darüber gelesen habe (außer bei XBitLabs ;-) ist heruas gekommen, daß LMA2 umeiniges effizienter ist, als HyperZII und ich stelle hier die beiden Technologien gegenüber, die Bandbreite optimieren sollen und nicht einzelne Teile davon.
Um einiges effizienter? Kannst du das auch durch einen Link belegen?
Die RT-Patches sind unter D3D (und nur da !) lediglich deaktiviert, sind also Bestandteil des Produktes, welches aber zur Zeit nicht genutzt werden kann (ändert sich vermutlich, wenn eine DX-Version da ist, die nicht versucht, die n-Patches über RT-Patches zu 'emulieren' ;-).
Hier stellst du mal wieder eine Behauptung in den Raum, die völlig haltlos ist, wie nggalai schon schrieb. Ob HOS nur in DX deaktiviert sind, ist momentan unklar. Aber ich kann zur Zeit leider nicht testen, inwiefern unter OpenGL die Hardware genutzt wird. Ich würde mittlerweile sogar eher davon ausgehen, dass das per Software realisiert ist.
Fakt ist außerdem, dass NVidia beim GeForce 4 keinerlei Aussagen über eine HOS-Unterstützung in Hardware gemacht hat.
PS1.4 sind inkompatibel zu den PS1.1-1.3 und eine exklusive Entwicklung von ATI, die sich erst noch durchsetzen muß.
Erstaunlicherweise kann man genau dasselbe auch von PS 1.1-1.3 sagen. Und wie ich schon vorher bemerkt habe, technologischer Vorsprung kann man nicht daran messen, ob ein Feature auch genutzt wird, denn die Hardware ist immer ein gutes Stück vor der Software.
Von der Theorie her sind dort sicherlich bessere Möglichkeiten implementiert, Effekte zu realisieren. Aber solange mir nicht Bildhaft (!) gezeigt wird, daß damit nun optisch ansprechendere Dinge realisiert werden, als mit den vorherigen Version sehe ich das eher als Nachteil, da die PS1.1-1.3 so leider nicht direkt in Hardware unterstützt werden und so von den PS1.4 interpretiert werden müssen, was letztendlich zulasten der Performance geht.
Ich frage mich, wie du auf eine solche Behauptung kommst, obwohl du keine Ahnung vom Aufbau des PS hast. Und selbst wenn es zu Lasten der Performance geht, dann ist das zwar ein Geschwindigkeitsnachteil, aber kein technologischer Nachteil.
Und bei Truform kann ich Fragman nur zustimmen, denn das wird eine Eintagsfliege werden. Auch ATI wird die RT-Patches im R300 implementieren und erst dann gibt es eine breite Hardware-Basis für's HOS, was dann auch entsprechenden Aufwand auf Seiten der Entrwickler rechtfertigen würde.
Was hat das für einen Einfluss auf den jetzigen technologischen Vorsprung?
So bleibe also festzustellen:
- nVidia die effizentere Architektur (LMA2 vs. HyperZII)
- ATI hat (noch) kein 'richtiges' HOS, nVidia aber schon (auch wenn's zur Zeit unter D3D deaktiviert ist)
- PS1.1 werden von ATI nicht direkt in Hardware unterstützt und solange die PS1.4 nicht angenommen werden, ist dies ein eindeutiger Nachteil hinsichtlich der Performance
- ATI hat schnelleres (aber 'schlechteres') AF
- nVidia hat schnelleres (aber 'schlechteres') AA
1. Nachweis bitte!
2. TruForm ist genauso HOS, aber eine andere Art. Ob der GF4 HOS unterstützt, ist nicht bekannt.
3. Auf was basiert diese Aussage? Und: von techologischer Seite irrelevant.
4. und 5. habe ich schon erwähnt, da gibt es nichts zu vergleichen.
Jeder mag sich sein eigenes Urteil bilden, aber von technolgischer Führerschaft auf seiten ATI würde ich hier nicht sprechen.
Ich schon. ATI hat hier, NVidia dort die Nase vorn, aber im Gesamtbild liegt ATI vorne. Aber das kann sich mit jedem neuen Chip ändern.
[fu]121Ah
2002-02-11, 14:13:23
*unterschreib*
danke danke...
Meiner Meinung nach werden sich viele Spieleentwickler für eine "kompatible" Lösung entscheiden und sowohl ATi's als auch NVidias (1.1) Lösung unterstützen. Einen Anfang machen hier ja schon die Codecult Leute (www.codecult.com).
Es kommt denke ich auch sehr darauf an, wie sich andere Chiphersteller entscheiden. Wenn PowerVR in seinen STG5500 den Pixelshader 1.4 implementiert sieht die Welt schon wieder gaaaanz anders aus.
IMHO war nur das Update von 1.1 auf 1.3 für'n Ar..., da die Spieleentwickler nur eine NVidialösung akzeptieren werden, die von der Geforce3.
Razor
2002-02-11, 14:52:01
@nggalai
Schade, daß Du mich falsch verstanden hast, nggalai...
:-(
Auch mir ist klar, daß der Inquerer-Erklärungsversuch genauso unsinnig ist, wie alle anderen...
@Xmas
"Um einiges effizienter? Kannst du das auch durch einen Link belegen?"
http://www.anandtech.com/video/showdoc.html?i=1583&p=7
Selbst bei geringerem Takt (240/250) wird die R8500 (275/275) noch geschlagen...
"Ob HOS nur in DX deaktiviert sind, ist momentan unklar."
Ich würde sogar weiter gehen und sagen:
ALLES bezüglich dieses Sachverhaltes ist unklar !
"Erstaunlicherweise kann man genau dasselbe auch von PS 1.1-1.3 sagen."
Leider nicht, denn es gibt bereits zukünftige Engines, die mehr oder weniger extensiven Gebrauch davon machen:
- zumindest Teilweise: U2, UT2
- Exxessiv: Kreed, Doom3
"Ich frage mich, wie du auf eine solche Behauptung kommst, obwohl du keine Ahnung vom Aufbau des PS hast."
In allen Berichten, die ich darüber gelesen habe, wird dies genau so formuliert...
"1. Nachweis bitte! "
siehe oben...
"2. TruForm ist genauso HOS, aber eine andere Art. Ob der GF4 HOS unterstützt, ist nicht bekannt."
Da die gf4 im Kern auf gf3 Technologie setzt, ist davon auszugehen...
"3. Auf was basiert diese Aussage? Und: von techologischer Seite irrelevant. "
hatten wir schon...
"4. und 5. habe ich schon erwähnt, da gibt es nichts zu vergleichen."
also pari...
;-)
"ATI hat hier, NVidia dort die Nase vorn, aber im Gesamtbild liegt ATI vorne."
Und das ist keine subjektive Einschätzung ?
Letzendlich kommt es auf die eigenen Prämissen an, um diese Frage schlüssig zu beantworten. Also kann diese Feststellung derzeit nicht objektiv getroffen werden...
@[fu]121Ah
"lies hots post, das ist die antwort... "
Lies mein Kommentar zu HOT, denn das ist die Meinige !
;-)
"du schlussfolgerst dass es wieder aktiviert wird. aber das steht nicht zur debatte, es geht um fakten und fakt ist dass es deaktiviert ist."
Wenn dem so wäre, hätte die R8500 noch immer kein SV...
"es bringt was, die hersteller mögen es, die leute mögen es auch (mit ausnahme von dir) und man SIEHT den unterschied"
Und er ist regelrecht abstoßend !
(die ersten Punkte sind reine Behauptungen)
;-)
"du hast deine aussage so hingestellt als hättest du recht!"
Was ich ja nun richtig stellte...
"was ist dann die gf4mx?"
Ein Fortschritt, wenn man die gf2-Linie betrachtet, ein Rückschritt, wenn dies im Bezug auf die gf3-Linie macht...
"DIE GF3 WAR BEIM LUNCH LANGSAMER ALS NE GF2ULTRA!!!"
Was so ziemlich auf alle neu erschinen Produkte aller Hersteller zutrifft (i.e. langsamer als möglich).
Und das 'LUNCH' war doch wohl hoffentlich ein Versehen...
;-)
"dazu vergleichst du die 4 modi mit 10 einstellungsmöglichkeiten der r200, diese hat aber nur 2 modi..."
2x, 3x, 4x, 5x, 6x und dann P & Q = 10
2x, QC, 4x, 4xS = 4
???
"der nutzen von dx7 tnl ist auch fraglich, der von dx8 im moment auch noch..."
Habe ich was anderes behauptet ?
Und am Beispiel von Kreed habe ich gesehen, daß reine DX8-Games einen deutlichen Vorteil mit sich bringen und ich bin mir sicher, daß diese Technologie excessiv genutzt werden wird (auch wenn's nur meine Meinung ist ;-). Und nahe Titel wie U2 (das u.a. j anur die Basis für midestens 12 weitere Games ist), werden Dich schon von dem Nutzen einer DX T&L-Beschleunigung überzeigen...
;-)
@HOT
"Meiner Meinung nach werden sich viele Spieleentwickler für eine "kompatible" Lösung entscheiden und sowohl ATi's als auch NVidias (1.1) Lösung unterstützen."
Sehe ich auch so...
Und das sind mal die PS1.1 !
;-)
"Einen Anfang machen hier ja schon die Codecult Leute (www.codecult.com)."
Wirklich beeindruckendes Demo, gell ?
Und das ist mit den PS1.1 möglich...
;-)
"Es kommt denke ich auch sehr darauf an, wie sich andere Chiphersteller entscheiden. Wenn PowerVR in seinen STG5500 den Pixelshader 1.4 implementiert sieht die Welt schon wieder gaaaanz anders aus."
Wenn, ja wenn...
;-)
"IMHO war nur das Update von 1.1 auf 1.3 für'n Ar..."
Seh' ich ganz genau so !
In diesem Sinne
Razor
Razor,
wenn nggalai dich angeblich falsch verstanden hat, könnte es vielleicht daran liegen, dass du dich falsch ausgedrückt hast?
Ich werde Xmas hier nicht in seiner Antwort voraus greifen, merke aber schon mal 2 Sachen an.
- Dass GF3/4 in DX keine HOS anbieten, ist ein Faktum. Da ist nichts unklar, wie du schreibst.
- Du meinst PS.1.4 sei von ATI entwickelt worden. Das ist richtig. Nun, PS.1.1-1.3 sind von nVidia entwickelt worden. (Die hardwareseitige Ähnlichkeit mit dem NSR ist kaum zu übersehen.) Warum sollte ATI etwas unterstützen, was die Konkurrenz entwickelt hat? Vielleicht des Fortschritts wegen? Sieht Kreed fotorealistisch aus? Nein! Also ist noch einiges zu tun...
Falls du dir das GF4-Launchvideo angesehen hättest, da hättest du einen Vorteil durch PixelShader 1.3 sehen können.
Es ist wirklich nervend, mit welcher Penetranz du objektiv bessere Technik als nutzlos hinzustellen versuchst, und wie dünn deine Argumente dazu sind.
nggalai
2002-02-11, 15:16:59
Hi Razor,@nggalai
Schade, daß Du mich falsch verstanden hast, nggalai...
:-(
Auch mir ist klar, daß der Inquerer-Erklärungsversuch genauso unsinnig ist, wie alle anderen... Dann kann ich nur dazu sagen: dann schreib sowas nicht. Ich bin nicht der einzige Reg hier, der das anders verstanden hat, einige werden wohl sogar soweit gehen, in Anbetracht deiner früheren Posts zum Thema und einiger Sachen in diesem Thread (e.g. "Nun ist es wieder aktiviert (SV) und alles ist OK, das wird bei den RT-Patches unter D3D (!) auch nicht anders sein, wenn der 'Bug' dort beseitigt ist." -- ohne Smiley und Kommentar) zu behaupten, dass Du dich jetzt einfach rausreden willst. Aber darum geht's mir in dieser Post gar nicht.
"Mein" Missverständnis ist noch nichtmal das Problem hier. Schlimm wird's, wenn ein Newbie im Thema deine Posts zu lesen bekommt und nicht abschätzen kann, was Ernst gemeint und was Witz ist--und dass Du an der Oberfläche überzeugend schreiben kannst ist dir sicherlich auch bewusst. Dann wird's gefährlich. Ich quote mich mal selbst aus dem Thread hier: (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=10046)(3) Material aus unsicheren Quellen (Postings aus Fan-Foren, The Inquirer etc.), Halbwahrheiten und Gerüchte werden zuerst mal einfach zitiert, meist auch noch ohne Quellenangabe. Schon Schlimm genug. Aber dank (1) ((-->selektives Quoting--.rb)) kommt es des öfteren dazu, dass aus Gerüchten und Halbwahrheiten und selbst aus einstmals klar als "Spekulation" bezeichneten Stellen schnell "Fakten" werden. Viele Leute hier lesen die Foren, um sich weiterzubilden (denke ich), daher ist dieser Ansatz aufs schärfste zu verurteilen.Ich denke und hoffe, dass doch einige Leser dieses Forum zur Weiterbildung verwenden. In solchen Situationen können solch unklaren Postings wie deines hier viel Schaden anrichten, der echt nicht nötig wäre. Dies gilt natürlich nicht nur ausschliesslich für dich, in diesem Thread hast Du jedoch ein wunderbares Beispiel dafür gebracht, was auf keinen Fall passieren sollte.
Nichts für ungut,
-Sascha.rb
[fu]121Ah
2002-02-11, 15:17:44
"lies hots post, das ist die antwort... "
Lies mein Kommentar zu HOT, denn das ist die Meinige !
;-)
hmm, dann ist für dich die ganze bandbreitensparende architektur von nvidia gleich der z-kompression von ati?
"du schlussfolgerst dass es wieder aktiviert wird. aber das steht nicht zur debatte, es geht um fakten und fakt ist dass es deaktiviert ist."
Wenn dem so wäre, hätte die R8500 noch immer kein SV...
naja, der quake3 bug wurde anfangs mit der gf4 bereinigt, muss nicht sein dass nvidia das jemals aktiviert. auf jeden fall nicht in der geforce 3...
"es bringt was, die hersteller mögen es, die leute mögen es auch (mit ausnahme von dir) und man SIEHT den unterschied"
Und er ist regelrecht abstoßend !
(die ersten Punkte sind reine Behauptungen)
;-)
sinnvolle antwort :)
naja, rtcw unterstützt es, halflife und sicher ne menge anderer games auch... obwohl ich mich da nicht auskenne... daher ist es eine begründete behauptung und nicht einfach in den wind gesetzt wie deine.
"du hast deine aussage so hingestellt als hättest du recht!"
Was ich ja nun richtig stellte...
io
"was ist dann die gf4mx?"
Ein Fortschritt, wenn man die gf2-Linie betrachtet, ein Rückschritt, wenn dies im Bezug auf die gf3-Linie macht...
naja, dann ist der pixelshader 1.4 auch ein fortschritt von der dx7 tnl seite betrachtet. versuch dich nicht rauszureden :)
dazu, wenn es gf44444444mx heisst dann wird es ja wohl besser sein als ne gf3 nicht? naheliegend :)
"DIE GF3 WAR BEIM LUNCH LANGSAMER ALS NE GF2ULTRA!!!"
Was so ziemlich auf alle neu erschinen Produkte aller Hersteller zutrifft (i.e. langsamer als möglich).
Und das 'LUNCH' war doch wohl hoffentlich ein Versehen...
;-)
sorry hatte gerade hunger :)
langsamer als möglich, ok, aber nicht langsamer als die vorgängergeneration...
"dazu vergleichst du die 4 modi mit 10 einstellungsmöglichkeiten der r200, diese hat aber nur 2 modi..."
2x, 3x, 4x, 5x, 6x und dann P & Q = 10
2x, QC, 4x, 4xS = 4
???
aber es gibt nur 2 modi, sv und ss...
was ist daran schlecht?
"der nutzen von dx7 tnl ist auch fraglich, der von dx8 im moment auch noch..."
Habe ich was anderes behauptet ?
Und am Beispiel von Kreed habe ich gesehen, daß reine DX8-Games einen deutlichen Vorteil mit sich bringen und ich bin mir sicher, daß diese Technologie excessiv genutzt werden WIRD (auch wenn's nur meine Meinung ist ;-). Und nahe Titel wie U2 (das u.a. j anur die Basis für midestens 12 weitere Games ist), werden Dich schon von dem Nutzen einer DX T&L-Beschleunigung überzeigen...
;-)
siehst du da dein schönes wort? wird? der pixelshader 1.4 wird sicher auch genutzt, irgendwann
Fragman
2002-02-11, 15:26:35
engines wie codecult werden sowieso auf dx9 oder sogar dx10 optimiert.
hier jetzt zu diskutieren ob der pixel shader von ati oder der von nv besser ist, halte ich fuer bloedsinn, da diese dann hier fuer uns, die high end gamer, sowieso keine rolle mehr spielen. unreal2 zb, wird, wenn ueberhaupt ps 1.1 unterstuetzen, doom3 wird ueber extensions optimiert alles was spaeter kommt, steht in den sternen.
das prob im moment ist, das alle engines im moment auf ps 1.1 standard programmiert werden, anstatt auf 1.4 wobei der unterschied bei immerhin 2 texturen mehr pro object liegt. sobald aber neue hardware kommt, zb dx9, wird auch wieder ein update zur codecult engine kommen:"...ready for dx9 nv30...". wie schon oft erwaehnt, bis der pixel shader wirklich massive eingesetzt wird, ist laengst dx10 raus und dann gibts high level shader und keinen interessiert mehr welche nummer der ps hat, spielt dann naemlich keine rolle mehr.
gruss, Fragman
Razor
2002-02-11, 15:45:17
@aths
"wenn nggalai dich angeblich falsch verstanden hat, könnte es vielleicht daran liegen, dass du dich falsch ausgedrückt hast?"
Dann drücke ich es jetzt mal sehr deutlich aus: NICHTS ist klar !
(siehe mein nächstes Kommentar)
"- Dass GF3/4 in DX keine HOS anbieten, ist ein Faktum. Da ist nichts unklar, wie du schreibst."
Fakt ist, daß die gf3 die Technologie in Hardware unterstützt, warum dies aber nun in D3D nicht mehr angeboten wird, ist keineswegs klar !
"Warum sollte ATI etwas unterstützen, was die Konkurrenz entwickelt hat?"
Weil sie sonst der Etikette "DX8-Compliant" verlustig gegangen wären.
PS1.4 ist lediglich eine Option, aber keine Notwendigkeit...
"Sieht Kreed fotorealistisch aus? Nein!"
Es kommt den schon sehr nahe (was Licht- und Schatteneffekte angeht).
Kamm man mit dem PS1.4 Fotorealismus erreichen ?
Nein !
"Es ist wirklich nervend, mit welcher Penetranz du objektiv bessere Technik als nutzlos hinzustellen versuchst, und wie dünn deine Argumente dazu sind."
Dann lies meine Kommentare nicht oder benutze die 'Ignore'-Funktion dieses Forum, wenn's denn sein muß.
Ansonsten kann ich dieses 'Kompliment' nur zurück geben...
;-)
@nggalai
Solange hier andere schreiben, daß die gf3 kein HOS unterstützt und dies auch nie wieder tun wird, nur weil es zur Zeit (aus welchen Gründen auch immer) unter D3D deaktiviert ist, werde ich es mir ebenfalls heraus nehemn, 'Unsinn' zu schreiben.
Aber es tut mir leid, wenn ich Dich 'verwirrt' haben sollte, denn Du warst sicher nicht der Adressat dessen...
:-(
Einigen wir uns doch einfach darauf:
Ich werde versuchen, solche 'Verwirrungen' zu unterlassen, wenn andere im Gegenzug etwas mehr Objektivität an den Tag legen...
@[fu]121Ah
"hmm, dann ist für dich die ganze bandbreitensparende architektur von nvidia gleich der z-kompression von ati?"
So ähnlich...
HyperZII ist ATI's (einziger !) Versuch die Bandbreite zu optimieren, während nVidia mit LMA2 ein ganzes Paket geschnürt hat.
Insofern: Ja !
"naja, der quake3 bug wurde anfangs mit der gf4 bereinigt, muss nicht sein dass nvidia das jemals aktiviert. auf jeden fall nicht in der geforce 3..."
Versteh ich jetzt nicht...
Dieser 'bug' ist bereits mit dem OpenGL-Parameter 'S3TCQuality' behoben und das schon seit geraumer Zeit. Das dies nicht in den Treibern verfügbar ist, sehe ich auch als eine verbesserungswürdige Tatsache, als mehr aber auch nicht. Aber bitte nicht schon wieder dieses elendige Thema ausgraben...
"sinnvolle antwort..."
-RTCW unterstützt es, aber man sieht es nicht
-SS, halflife und Co. tun es auch, aber man sieht es nicht, oder es sieht häßlich aus
"wenn es gf44444444mx heisst dann wird es ja wohl besser sein als ne gf3 nicht?"
Nicht unbedingt...
Wer sich allerdings nicht informiert, könnte diesem eventuellem Trugschluß unterliegen !
;-)
"langsamer als möglich, ok, aber nicht langsamer als die vorgängergeneration..."
Die Vorgängerversion der gf3 war die gf2(gts). Und die gf3 war um einiges schneller...
Die gf2ultra war das Ende der Fahnenstange, das Optimum der alten technologie, die gf3 war erst der Anfang (wie man ja nun unschwer erkennen kann ;-) und zudem noch geringer getaktet, als eine ultra (200MHz statt 250MHz Chip-Takt)...
Wieder ein gutes Beispiel für diese Äpfel- und Birnenvergleiche !
;-)
"aber es gibt nur 2 modi, sv und ss... "
Hääääh ?
Ist sv kein ss ?
;-)
"der pixelshader 1.4 wird sicher auch genutzt, irgendwann"
Und was bringt Dich zu dieser Behauptung ?
Schließlich wäre das nicht das erste mal, daß ATI-Technologie nicht angenommen wird.
@Fragman
100% ACK !
;-)
Bis denne
Razor
[fu]121Ah
2002-02-11, 16:03:03
Solange hier andere schreiben, daß die gf3 kein HOS unterstützt und dies auch nie wieder tun wird, nur weil es zur Zeit (aus welchen Gründen auch immer) unter D3D deaktiviert ist, werde ich es mir ebenfalls heraus nehemn, 'Unsinn' zu schreiben.
ach razor, du musst wieder alles verdrehen nicht wahr?
es hat nie jemand gesagt dass die gf3 es nicht unterstützt. bei sv hat auch nie jemand gesagt dass die r200 es nicht unterstützt...
"hmm, dann ist für dich die ganze bandbreitensparende architektur von nvidia gleich der z-kompression von ati?"
So ähnlich...
HyperZII ist ATI's (einziger !) Versuch die Bandbreite zu optimieren, während nVidia mit LMA2 ein ganzes Paket geschnürt hat.
Insofern: Ja !
na dann ist das ja geklärt... nur dein insofern passt mir nicht. man vergleicht die cachearchitektur eines durons auch nicht mit der eines p4s, obwohl beides dasselbe zum ziel hat
"naja, der quake3 bug wurde anfangs mit der gf4 bereinigt, muss nicht sein dass nvidia das jemals aktiviert. auf jeden fall nicht in der geforce 3..."
Versteh ich jetzt nicht...
Dieser 'bug' ist bereits mit dem OpenGL-Parameter 'S3TCQuality' behoben und das schon seit geraumer Zeit. Das dies nicht in den Treibern verfügbar ist, sehe ich auch als eine verbesserungswürdige Tatsache, als mehr aber auch nicht. Aber bitte nicht schon wieder dieses elendige Thema ausgraben...
ne, gefixt wurde er erst mit der gf4
"sinnvolle antwort..."
-RTCW unterstützt es, aber man sieht es nicht
-SS, halflife und Co. tun es auch, aber man sieht es nicht, oder es sieht häßlich aus
wenn du es nicht siehst dann heisst das nicht es gibt es nicht. ich sehe es bei rtcw und halflife.
"wenn es gf44444444mx heisst dann wird es ja wohl besser sein als ne gf3 nicht?"
Nicht unbedingt...
Wer sich allerdings nicht informiert, könnte diesem eventuellem Trugschluß unterliegen !
;-)
wird sich der potentielle käufer der mx informieren? 90% sicher nicht (wobei das meine schätzung ist)
"langsamer als möglich, ok, aber nicht langsamer als die vorgängergeneration..."
Die Vorgängerversion der gf3 war die gf2(gts). Und die gf3 war um einiges schneller...
Die gf2ultra war das Ende der Fahnenstange, das Optimum der alten technologie, die gf3 war erst der Anfang (wie man ja nun unschwer erkennen kann ;-) und zudem noch geringer getaktet, als eine ultra (200MHz statt 250MHz Chip-Takt)...
Wieder ein gutes Beispiel für diese Äpfel- und Birnenvergleiche !
;-)
man vergleicht die gf4 auch mit der gf3 ti 500 und nicht mit der ältesten version (nicht ti)
"der pixelshader 1.4 wird sicher auch genutzt, irgendwann"
Und was bringt Dich zu dieser Behauptung ?
Schließlich wäre das nicht das erste mal, daß ATI-Technologie nicht angenommen wird.
was bringt dich zu dieser behauptung? es ist wahrscheinlicher dass es genutzt wird als dass es begraben wird.
Razor,
du schreibst: "NICHTS ist klar !" Nun, dass du das so siehst, ist hier tatsächlich ziemlich deutlich. Für andere ist das meiste schon klar.
Es ist unwichtig, ob GF3 HOS in HW unterstützt, oder nicht, wenn das im Treiber nicht angeboten wird.
Mit PixelShader 1.4 kommt man eher an Fotorealismus heran, als mit 1.1. Das ist so, ob du das nun einsiehst, oder nicht. Es macht keinen Sinn mit dir zu reden, wenn du offensichtliche Sachen einfach nicht akzeptieren willst.
Originally posted by Razor
@nggalai
Schade, daß Du mich falsch verstanden hast, nggalai...
:-(
Auch mir ist klar, daß der Inquerer-Erklärungsversuch genauso unsinnig ist, wie alle anderen...
Ich glaube langsam, aths hat mit seiner Vermutung recht... wenn du weißt, dass es Unsinn ist, dann schreib es nicht.
http://www.anandtech.com/video/showdoc.html?i=1583&p=7
Selbst bei geringerem Takt (240/250) wird die R8500 (275/275) noch geschlagen...
Irgendwie hab ich mit diesem Link gerechnet... und wo ist da jetzt der Nachweis, dass LMA2 effektiver als HyperZ 2 ist?
"Ob HOS nur in DX deaktiviert sind, ist momentan unklar."
Ich würde sogar weiter gehen und sagen:
ALLES bezüglich dieses Sachverhaltes ist unklar !
Wenn dir dazu ALLES unklar ist, dann kennzeichne deine wilden Vermutungen als solche.
"Erstaunlicherweise kann man genau dasselbe auch von PS 1.1-1.3 sagen."
Leider nicht, denn es gibt bereits zukünftige Engines, die mehr oder weniger extensiven Gebrauch davon machen:
- zumindest Teilweise: U2, UT2
- Exxessiv: Kreed, Doom3
Bitte reiße nicht irgendwelche Zitate aus dem Zusammenhang. Meine Antwort bezog sich auf "PS1.4 sind inkompatibel zu den PS1.1-1.3 und eine exklusive Entwicklung von ATI, die sich erst noch durchsetzen muß."
Die Inkompatiblität gilt auch andersrum, die Exklusivität ebenso. Mit drei Engines ist PS 1.1 noch lange nicht etabliert, zumal Doom3 auch die Fähigkeiten der Radeon 8500 nutzen wird, somit also auch ein Beispiel für "PS 1.4" bzw. ATI_fragment_shader Unterstützung ist.
"Ich frage mich, wie du auf eine solche Behauptung kommst, obwohl du keine Ahnung vom Aufbau des PS hast."
In allen Berichten, die ich darüber gelesen habe, wird dies genau so formuliert...
Manche Leute glauben immer noch, dass SmoothVision Multisampling ist, oder dass GF3/4 nicht adaptiv anisotrop filtern...
Was ich dann aber als absoluten Hammer von dir empfinde ist das:
Wenn die PS1.1 Instruktionen langsamer ausgeführt werden, sehe ich die PS1.4 nicht als forschritt, denn eher als Rückschritt. Insofern könnte (!) man ATi hier genauso vorwerfen (wie man das jetzt mit nVidia tut), daß sie die PS1.1 nicht in Hardware implementierten.
Auch solltest Du Dich besser über die verwendeten Technologien informieren, denn sonst wüsstest Du, daß es durch die frei Programmierbarkeit der VertexShader nun möglich ist (ohne Geschwindigkeitsverlust !) die vorher fest verdrahtete Einheit (DX7 HW T&L) als kleines Programm ablaufen zu lassen. Auch das ist eine Art emulation, das ist sicher richtig, allerdings ohne Nachteile...
Aha, was beim Pixel Shader ein derber Rückschritt ist, ist natürlich beim Vertex Shader erlaubt. "Auch solltest Du Dich besser über die verwendeten Technologien informieren" empfinde ich als blanker Hohn von dir.
@Razor
HyperZ II enthälte ALLE HyperZ I Funktionen (Z-Clear, Z-Compression und Hierachical-Z) + eine HSR Funktion, die VOR dem Blending stattfindet! Damit muss der R200 nur DORT blending durchführen, wo es sichbar ist. Der Geforce3 hat nichtmal Z-Clear geschweige denn eine Z-Kompression unterstützt! Weisst du wann Z-Clear das erste mal zum Einsatz kam? In S3 Savage Karten!!!
Und der Geforce4 besitzt ERST JETZT diese schon ewig bekannte Massnahmen und muss im Gegensatz zur R200 noch ÜBERALL blending durchführen. Das EINZIGE was Nvidia als Vorteil bei bandbreitesparenden Funktionen besitzt, ist der effizienter gestaltete Memory Controller (wenn ATI nicht daran auch was gedreht hat, das nicht bekannt ist).
HyperZ II ist den NVidia Z-Optionen durch das vor-blending-HSR theoretisch HAUSHOCH überlegen!
Razor
2002-02-11, 17:31:04
Und noch'e mal...
;-)
@[fu]121Ah
"es hat nie jemand gesagt dass die gf3 es nicht unterstützt. bei sv hat auch nie jemand gesagt dass die r200 es nicht unterstützt..."
vorher:
"du schlussfolgerst dass es wieder aktiviert wird. aber das steht nicht zur debatte, es geht um fakten und fakt ist dass es deaktiviert ist."
Und nie wieder 'aktiviert' werden kann ?
;-)
"es hat nie jemand gesagt dass die gf3 es nicht unterstützt. bei sv hat auch nie jemand gesagt dass die r200 es nicht unterstützt... "
Aber man vergleicht die eines Athlon mit der eines P4...
;-)
"ne, gefixt wurde er erst mit der gf4"
Was heißt für Dich 'gefixt' ?
Das impliziert einen 'Bug', der beseitigt wurde und Du weißt sicher, daß ich das anders sehe...
Die gf4 nutzt wohl ein anderes Verfahren, als die gf3 und deren Vorgänger, mehr nicht...
"wenn du es nicht siehst dann heisst das nicht es gibt es nicht. ich sehe es bei rtcw und halflife."
Bei rtcw ist es kaum wahrnehmbar... bei halflife schon, aber dafür ist's dann auch schlecht implementiert. Bei SS hat man dann die Wahl zwischen 'kaum wahrnehmbar' oder 'schlecht implementiert' !
;-)
"wird sich der potentielle käufer der mx informieren? 90% sicher nicht (wobei das meine schätzung ist)"
Jeder, der sich eine Radeon7000 kauft, ohne sich vorher zu informieren, ist genauso 'arm' dran, wie jemand, der sich eine gf4mx420 zulegt oder was hast Du jetzt gemeint ?
Es gbit schließlich immer noch Menge Leute da draußen, die im Zusammenhang von Spielen nur deswegen was von DirectX gehört haben, weil es ein Spiel mit installieren wollte (dabei aber geflissentlich oft die Version verschwiegen wird ;-)...
Ist kein Argument für mich !
"man vergleicht die gf4 auch mit der gf3 ti 500 und nicht mit der ältesten version (nicht ti)"
Wegen der Taktung ?
;-)
"es ist wahrscheinlicher dass es genutzt wird als dass es begraben wird."
Warum ?
@Xmas
"Ich glaube langsam, aths hat mit seiner Vermutung recht... wenn du weißt, dass es Unsinn ist, dann schreib es nicht."
Ich wiederhole mich zwar nur ungern, aber:
"Ich werde versuchen, solche 'Verwirrungen' zu unterlassen, wenn andere im Gegenzug etwas mehr Objektivität an den Tag legen... "
"und wo ist da jetzt der Nachweis, dass LMA2 effektiver als HyperZ 2 ist? "
Auch das habe ich bereits geschrieben:
Eine gf4ti auf Takt einer gf3Ti500, also 240/250, ist schneller im VillageMark (welcher vorher immer benutzt wurde, um die Leistungsfähigkeit einer R8500 zu demonstrieren ;-), als eine höher getaktete R8500, i.e. 275/275. Reicht das denn nicht ?
"Wenn dir dazu ALLES unklar ist, dann kennzeichne deine wilden Vermutungen als solche."
Siehe oben...
"...zumal Doom3 auch die Fähigkeiten der Radeon 8500 nutzen wird, somit also auch ein Beispiel für "PS 1.4""
Leider habe ich schon wieder den Fehler gemacht, Doom3 im Zusammenhang mit den DX-PixelShader-Versionen zu erwähnen. OpenGL steht auf einem ganz anderen Blatt, hier geht es um DirectX...
"Aha, was beim Pixel Shader ein derber Rückschritt ist, ist natürlich beim Vertex Shader erlaubt. "Auch solltest Du Dich besser über die verwendeten Technologien informieren" empfinde ich als blanker Hohn von dir."
Ist sicher nicht so gemeint gewesen, auch wenn Du das anders siehst...
(mann, mußte ich lange zurück scrollen, um diese Passage an [fu]121Ah zu finden ;-)
Ich habe übrgiens nie behauptet, daß es nicht erlaubt sei, was ATI mit seien PS1.4 da treibt...
Und ich bitte Dich, genau zu lesen, was ich schrieb:
"Wenn die PS1.1 Instruktionen langsamer ausgeführt werden, sehe ich die PS1.4 nicht als forschritt, denn eher als Rückschritt. Insofern könnte (!)..."
'Wenn' und 'könnte' sind doch nun sehr eindeutig formuliert, oder ?
;-)
Bis denne
Razor
Razor
2002-02-11, 17:38:26
@HOT
Shit, Du bist mir dieuch die 'Lappen' gegangen...
;-)
HyperZ II enthälte ALLE HyperZ I Funktionen (Z-Clear, Z-Compression und Hierachical-Z) + eine HSR Funktion, die VOR dem Blending stattfindet! Damit muss der R200 nur DORT blending durchführen, wo es sichbar ist.
Ja und ?
???
Der Geforce3 hat nichtmal Z-Clear geschweige denn eine Z-Kompression unterstützt! Weisst du wann Z-Clear das erste mal zum Einsatz kam? In S3 Savage Karten!!!
Korrigier mich, wenn ich mich irre, aber die gf3 besitzt LMA(1) und nicht LMA2 !
;-)
Und der Geforce4 besitzt ERST JETZT diese schon ewig bekannte Massnahmen und muss im Gegensatz zur R200 noch ÜBERALL blending durchführen. Das EINZIGE was Nvidia als Vorteil bei bandbreitesparenden Funktionen besitzt, ist der effizienter gestaltete Memory Controller (wenn ATI nicht daran auch was gedreht hat, das nicht bekannt ist).
Noch mal meine Frage: Und ?
???
HyperZ II ist den NVidia Z-Optionen durch das vor-blending-HSR theoretisch HAUSHOCH überlegen!
Theoretisch, aber da nVidia nicht nur die z-optionen anbietet, sondern eben auch die 'intelligente' Speicher-Zugriffs-Architektur (die übrigens auch schon die gf3 besaß ;-), ist dieser 'theoretische' Vorteil dahin. Und nicht nur das, denn durch die weiteren z-optimierungen (und die anderen 'Kleinigkeiten'), die bei der gf4 vorgenommen wurden, liegt die r8500 jetzt sogar zurück (selbst wenn eine gf4ti niedriger getaktet ist, als eine r8500).
Soooo 'HAUSHOCH' kann ATI also nicht überlegen gewesen sein...
(was sie, obdenn dieses Vorteils, aj nun auch nicht mehr sind)
;-)
In diesem Sinne
Razor
LOL Razor, der Villagemarkbench hat nichts damit zu tun. Der Geforce4 ist NUR dank seines hohen Taktes schneller in der Villagemark! Der Radeon kann also nicht von seinem HyperZ II profitieren, da diese Bench, um die Leistung auf dem Kyro möglichst gut zu halten, nur polygonbasierenden Overdraw enthält und somit der Blendingvorteil von HyperZ II dahin ist. Der R200 kann in dieser Bench also nur von seinem HyperZ I profitieren!
Ach, nochwas BITTE SCHREIB DEINE POSTINGS MAL ZEILEINWEISE, DAMIT MAN NICHT DAUERND SCROLLEN MUSS, UM DAS ZU LESEN!!!!!!!
Razor
2002-02-11, 17:40:33
Dann zeig mir einen Bench, HOT, wo die Effizeinz von HyperZII belegt wird...
;-)
Razor
P.S.: Und noch einmal: eine gf4ti auf ti500-Takt ist schneller, als eine höher getaktete R8500 !
(im VillageMark ;-)
Das kann ja sein, allerdings kannst du damit nicht auf die Performance auf HyperZ II schliessen.
Die wahre Performance lässt sich nur im Gesamtumfang, z.B. die 3DMark2001 testen.
Razor
2002-02-11, 17:43:32
Originally posted by HOT
Ach, nochwas BITTE SCHREIB DEINE POSTINGS MAL ZEILEINWEISE, DAMIT MAN NICHT DAUERND SCROLLEN MUSS, UM DAS ZU LESEN!!!!!!!
Kannst Du mir mal erklären, wie Du das meinst ?
Ich schreibe übrigens immer so, wie mir gerade ist !
;-)
Razor
Mich nervt nur die länge deiner Postings. Wenn du etwas platzsparender schreiben könntest, könnte man sie einfach besser lesen.
Razor,
du schreibst zu Xmas: "Auch solltest Du Dich besser über die verwendeten Technologien informieren."
Vielleicht sollte sich Xmas mal informieren, wo er keineswegs in Glide oder OpenGL Programme geschrieben hat, oder sich ausführlich mit alten und neuen DX-Features auseinandergesetzt hat... oder etwa mal Transformationsmatrizen und einen Algorithmus zum Rendern von Dreiecken hergeleitet und 100% in SW umgesetzt hat, wie man hier (www.aths.net/files/!cube30k.exe) sieht...
Man muss nicht viel Ahnung haben um zu erkennen, dass Xmas weiss, wovon er spricht. Wie du dich nun herauszureden versuchst ist unglaubwürdig und lachhaft. Du redest jetzt diffus und in Andeutungen herum. Ja, dir ist vieles unklar, davon haben wir nun Kenntnis. Wenn das so ist, höre doch erst zu, bevor du dich dann bitte überlegt äußerst. Aber nein, es sind die anderen, die dich entweder falsch verstehen oder nicht genau lesen können..
Meinereiner sieht es als Gewinn in einer Diskussion mit Leuten wie Xmas zu unterliegen. Dazu muss der jeweilige dann schon Argumente bringen, und gerade Xmas kann sich verständlich äußern. Man lernt dazu und erweitert seinen Horizont. In solchen Fällen gebe ich einfach zu, dass ich Blödsinn geredet habe und versuche halt beim nächsten mal, etwas kluges von mir zu geben.
GloomY
2002-02-11, 17:51:03
Originally posted by HOT
Der Geforce3 hat nichtmal Z-Clear geschweige denn eine Z-Kompression unterstützt!Imho hat die GF3 auch schon eine verlustfreie Z-Buffer Kompression implementiert. Zumindest steht das in den PDFs auf der Nvidia HP (Habe die mal genauer studiert, als ich vor langer Zeit ein Review über die GF3 geschrieben habe).
Link zum PDF: http://www.nvidia.com/docs/lo/69/SUPP/lightspeedmemoryarchitecture.pdf (Seite 6)
Naja, wenn man sich den ganzen Wirbel hier um Hyper-Z, LMA1 und 2 anschaut, dann bin ich doch froh, daß ich mich nicht damit rumplagen muß, sondern eine Graka im Rechner habe, die vollkommen ohne Z-Buffer auskommt und somit diesen ganzen "Schnickschnack" :D nicht braucht...
Razor
2002-02-11, 18:05:58
@HOT
Das kann ja sein, allerdings kannst du damit nicht auf die Performance auf HyperZ II schliessen.
Die wahre Performance lässt sich nur im Gesamtumfang, z.B. die 3DMark2001 testen.
Da drück ich auf Quote und schon war der Inhalt ein anderer (umfangreicherer ;-)...
Egal !
Die gf4ti4400 ist im Takt mit der R8500 gleich zu setzen:
Test r8500 ti4400
Gesamt 8526 9369 + 9,9%
CarChase low 132,6 144,4 + 8,9%
CarChase high 47,9 51,2 + 6,9%
Dragithic low 133,2 167,5 +25,8%
Dragithic high 79,5 78,1 - 1,8%
Lobby low 128,3 130,9 + 2,0%
Lobby high 57,7 59,8 + 3,6%
Nature 44,2 38,1 -13,8%
FillRate 1x 819 912,4 +11,4%
FillRate muti 1807 2077,7 +15,0%
HighPoly 1x 36 46,5 +29,2%
HighPoly 8x 9,7 11,5 +18,6%
BumpMap Env 112,6 160,7 +42,7%
BumpMap DOT3 87,6 132,2 +50,9%
VertexShader 87,4 92,3 + 5,6%
PixelShader 101,5 110,5 + 8,9%
PointSprites 28,1 26 - 7,5%
Und was zeigt dieser Test nun ?
???
@aths
"du schreibst zu Xmas: "Auch solltest Du Dich besser über die verwendeten Technologien informieren.""
Da scheinst Du aber was kräftig verschluckt zu haben...
;-)
Zu Xmas würde ich so etwas niemals sagen/posten !
Insofern ignorier ich mal den Rest und sage Dir:
"Erst lesen, dann schreiben !"
;-)
In diesem Sinne
Razor
Andre
2002-02-11, 18:12:35
Langsam geht mir die hier angewendete Diskussionskultur auf die Nerven, wenn ich ehrlich sein darf.
Razor
2002-02-11, 18:18:18
Ich weiß nicht, was Du hast, Andre, denn es geht noch immer um
GeForce4 Performance
Oder etwa nicht ?
;-)
Razor
Andre
2002-02-11, 18:21:41
Originally posted by Razor
Ich weiß nicht, was Du hast, Andre, denn es geht noch immer um
GeForce4 Performance
Oder etwa nicht ?
;-)
Razor
Razor,
ich bin rhetorisch nicht unbedarft.
Also kann ich sehr wohl erkennen, wenn sachliche Argumente verwendet werden, um hier Leute persönlich anzugreifen.
Das was hier manchmal an Argumenten angeführt wird, zieht mir den Schuh aus.
Razor, der Punkt ist, dass es letztlich egal ist ob es an Xmas oder [fu]121Ah geht. (In diesem Punkt habe ich mich geirrt, wie man sieht.)
Der VS emuliert DX7 T&L via VS-Programm, die GF3/4 emulieren NSR via PS-Programmen und Radeon8500 emuliert PS.1.1 - 1.3 via PS.1.4-Programmen.
Wie gut kennst du dich in Dingen CPU-Pipeline aus? Hast du schon mal Assembler-Programme geschrieben? (VS und PS-Programmen sind ASM ähnlich.) Hast du dich um Laufzeit-Optimierung von Operationen gekümmert, die durch eine Pipeline gehen? Kannst du also beurteilen, welche Vor- und Nachteile die Emulationen haben, oder nicht? Kannst du begründen, warum diese eine Emulation von Nachteil sein soll - zumal Benchmarks das nicht zeigen? (Die letzte Frage ist rhetorisch.)
Unregistered
2002-02-11, 18:42:08
Originally posted by Andre
Also, das NV in einem offiziellen PDF wohl keine 250 Seiten Fixes auflistet, leuchtet ein, oder?
Macht das ein anderer Hersteller?
Nein, wenn, dann nur in einem geringen Umfang.
Früher gabs die schönen "inoffiziellen" Fixlisten, in letzter Zeit sind die leider selten geworden - da konntest Du aber auch jeden noch so kleinen Fix finden und man konnte sehr wohl sehen, dass NV mehr fixed las nur ein bischen bunter, etc.
Sorry, Thowe, aber das ist für mich einfach übertrieben, was Du schreibst.
Sowohl Matrox als auch ATI haben eine 1000mal bessere Fehlerdoku als nVidia.
Da werden nicht nur behobene Fehler dokumentiert, sondern auch noch vorhandene Fehler, die in Zukunft behoben werden (sollten)
nur mal so am Rande
Razor
2002-02-11, 19:02:03
@aths
Razor, der Punkt ist, dass es letztlich egal ist ob es an Xmas oder [fu]121Ah geht. (In diesem Punkt habe ich mich geirrt, wie man sieht.)
Ist es nicht, da ich bei [fu]121Ah das Gefühl hatte, daß dort der Hintergrund fehlt.
Der VS emuliert DX7 T&L via VS-Programm, die GF3/4 emulieren NSR via PS-Programmen und Radeon8500 emuliert PS.1.1 - 1.3 via PS.1.4-Programmen.
Es gibt einen Unterscheid zwischen Emulieren und Interpretieren.
Die gf3/4ti emulieren, die R8500 interpretiert...
Auch wenn der Unterscheid nicht so wahnsinnig groß ist !
"Wie gut kennst du dich in Dingen CPU-Pipeline aus?"
mäßig
"Hast du schon mal Assembler-Programme geschrieben? (VS und PS-Programmen sind ASM ähnlich.)"
Jep !
"Hast du dich um Laufzeit-Optimierung von Operationen gekümmert"
Jep !
", die durch eine Pipeline gehen?"
Nein
Kannst du also beurteilen, welche Vor- und Nachteile die Emulationen haben, oder nicht? Kannst du begründen, warum diese eine Emulation von Nachteil sein soll - zumal Benchmarks das nicht zeigen? (Die letzte Frage ist rhetorisch.)
'Vielleicht' und noch mal 'vielleicht'...
;-)
In diesem Sinne
Razor
Frank
2002-02-11, 19:10:52
Originally posted by Andre
Das was hier manchmal an Argumenten angeführt wird, zieht mir den Schuh aus.
Und wenn das so weiter geht lesen wir hier halbnackt weiter... ??? ??? ??? :eyes:
Ich denke so viel brauch man über die Performance der Geforce4 (ti ) gar nicht zu diskutieren. Die Karte fegt einfach die ganze Konkurenz wech. So einfach ist das.
Ok Razor, dann lass mich anders fragen: Siehst du die Lage so, dass Xmas auf den Gebieten um die es hier geht, kompetenter ist als du?
Die naheliegende Antwort kann ich gleich geben: Ja, der für sein Wissen und seine sachliche Art bekannte Xmas ist in diesen Frage kompetenter als du.
Wenn ich es mal so sagen darf, beim Lesen deiner Postings fällt auf, dass du in dieser Materie reichlich unsicher bist, da dir einfach noch eine Menge Wissen fehlt.
Wir reden hier u.a. über den technischen Fortschritt durch PixelShader 1.4. Nun, Xmas hat hier (per Reference Rasterizer) fachlich experimentiert (während ich noch eher nach Trial and Error vorging) Als ich zu ihm meinte, 1.4 bräuchte es eigentlich nicht, schon mit 1.3 liesse sich so viel machen, zeigte er auf einige Befehle die 1.3 nicht kann; damit war das Thema erledigt.
Dieses Vorgehen ist bei dir sinnlos, da du die Befehle kaum verstehen wirst. Anstatt nun aber anerkannten Foren-Größen wie Xmas einfach zu glauben, wenn er über etwas spricht wo er sich auskennt, redest du Thread um Thread weiter und bist nicht bereit, deine Meinung zu korrigieren.
[fu]121Ah
2002-02-11, 19:35:29
@razor
naja, ich bin nicht so schlau wie aths oder xmas, aber ich verzapf wenn schon grösstenteils keinen bockmist wie du. sorry aber ist leider wahr. und ich seh ein wenn jemand anders recht hat.
@andre
sorry für den harten umgang, aber es nervt enorm wenn razor nie einsehen will dass er mal nicht recht hat...
[fu]121Ah
2002-02-11, 19:39:11
Originally posted by Razor
Die gf4ti4400 ist im Takt mit der R8500 gleich zu setzen:
Test r8500 ti4400
Gesamt 8526 9369 + 9,9%
CarChase low 132,6 144,4 + 8,9%
CarChase high 47,9 51,2 + 6,9%
Dragithic low 133,2 167,5 +25,8%
Dragithic high 79,5 78,1 - 1,8%
Lobby low 128,3 130,9 + 2,0%
Lobby high 57,7 59,8 + 3,6%
Nature 44,2 38,1 -13,8%
FillRate 1x 819 912,4 +11,4%
FillRate muti 1807 2077,7 +15,0%
HighPoly 1x 36 46,5 +29,2%
HighPoly 8x 9,7 11,5 +18,6%
BumpMap Env 112,6 160,7 +42,7%
BumpMap DOT3 87,6 132,2 +50,9%
VertexShader 87,4 92,3 + 5,6%
PixelShader 101,5 110,5 + 8,9%
PointSprites 28,1 26 - 7,5%
Und was zeigt dieser Test nun ?
???
hmm, könntest du mir eigentlich erklären... was willst du beweisen? dass der ps schneller ist? oder der vs? für dass das sie 2 vs hat find ich das nicht überragend...
Richthofen
2002-02-11, 20:48:35
übrigens aths das Topic ist GF4 Performance und nicht Pixelshader
Version 1.1 oder 1.2 oder 1.3 oder 1.4 oder 1.5 beta 6 oda was auch immer.
Meine Fresse wie kann man sich über sowas sinnloses streiten.
Nvidia hat deutlich klar gemacht das sie ihn nicht wollen und basta.
Wo is das Problem?
Die ganze Story wird auf DX9 verschoben. Wohl auch ein Grund wieso die MX keine DX8 Fähigkeit besitzt.
Mir ist das sowas von wurscht. Die Entwickler sollen erstmal das implementieren was vorhanden ist. Ich bin ja schon froh wenn die es mal packen EBM oder Dot3 Bump Mapping einzusetzen.
Aquanox sieht grafisch ganz nett aus aber das Spiel ist ein Armutszeugnis weil es schlichtweg kein Spiel ist.
Da spiel ich lieber Tetris.
Ansonsten gibts auf der Ebene nicht wirklich viel.
Wir werden Ende des Jahres DX9 haben und noch immer wird der Anteil an Spielen die DX8 Fähigkeiten nutzen so verschwindend gering sein.
Da mach ich mir doch icht allen ernstes ne Rübe welcher Pixelshader da nun drinne ist.
Da is mir wichtiger Nvidia dreht am FSAA und AF dad reicht mir dann schon. DX8 Fähigkeiten sind zur Genüge vorhanden.
Thowe
2002-02-11, 20:50:01
:wink:
Einwurf, global und (zum Teil) nicht zum Thread gehörend.
1. Ich verstehe nicht warum Features die von nVidia kommen Wegbereiter für neue Technologien und Entwicklungen sind, während die die von ATI oder der Konkurrenz kommen überflüssig sind. Dies will und kann ich nicht einsehen.
2. Erstaunlich finde ich das jetzt (nicht hier) über Features der GF4 geschwärmt werden, die nVidia erst nach langer Zeit implementiert.
3. Komisch ist die Argumentation einiger Personen wenn man diese liest, so sollte man meinen das diese sich hätten eine R8500 kaufen sollen.
Warum bringt es keiner auf den Punkt, die GF4 ist schnell, sie bietet ein gutes Feature-Set und das einzig wirklich negative ist eigentlich der Preis. Wer Wert auf Speed legt ist bestens beraten.
Die Frage bei einer Grafikkarte, oder auch bei allen anderen Fragen im Leben, sollte eigentlich sein: "Reicht es mir?"
Natürlich kann ich über den Speed einer Grafikkarte vergleiche anstellen und mit Zahlen bewerten welche am schnellsten ist. Was nützen mir aber 200-300fps? Die Frage sollte einfach sein: "Ist sie ausreichend schnell?"
Auch kann man sich darüber auslassen, ob ein Feature benötigt wird oder ob es nicht benötigt wird. Die Frage ist aber: "Möchte ich dieses Feature haben?"
Der eine kauft sich ein Auto mir viel Ausstattung, der andere kauft sich ein Auto mit viel Speed. Die Aussattung kann immer Vorteile bieten, der Speed nicht. Was nützt einen ein 300PS Wagen im Stop & Go innerhalb des Stadtverkehrs?
Jeder soll für sich entscheiden was er braucht. Dies entbindet aber keinen davon sich seine Objektivität zu erhalten und es erlaubt niemanden die Qualitäten andere Produkte als schlecht darzustellen. Ob sie irgendwann genutzt werden? Fraglich, aber sie sind da und bedeuten einen Fortschritt, sei es auch nur als Ideenansatz.
Exxtreme
2002-02-11, 20:53:33
@ Thowe
Vergiss es. Es hat keinen Sinn. Deswegen ist dieses Forum geschaffen worden. Wenn du ernsthafte Diskussion suchst dann stellst du deine Fragen ins Tech-Forum.
Gruß
Alex
P.S. Obwohl du völlig Recht hast.
Andre
2002-02-11, 21:16:50
Thowe,
Du sprichst mir, wie so oft, aus dem Herzen.
Aber wie lange predigen das hier einige schon?
Es wird einfach ignoriert - diskutieren über alles, egal obs sinnvoll ist oder nicht!
Andre
2002-02-11, 21:26:49
Originally posted by [fu]121Ah
[B@andre
sorry für den harten umgang, aber es nervt enorm wenn razor nie einsehen will dass er mal nicht recht hat... [/B]
Ich weiss.
Mein Statement galt auch allen inclusive Razor.
Aber es leider bezeichnend, dass meine Kommentare geflissentlich irgnoriert werden.
Da muss man sich wohl was anderes überlegen.
christoph
2002-02-11, 21:28:55
wer hier razor und co hauptsächlich die arschkarte zuschiebt
macht es sich zu einfach :)....imo natürlich :zzz:
Andre
2002-02-11, 21:30:48
Originally posted by christoph
wer hier razor und co hauptsächlich die arschkarte zuschiebt
macht es sich zu einfach :)....imo natürlich :zzz:
Wem denn sonst?
Ich sagte doch, mein Statement bezog sich auf alle.
Ich habe das extra so gesagt, um keinen ins Rampenlicht zu ziehen.
Wo ist dabei das Problem?
christoph
2002-02-11, 21:34:27
leute die mit dieser seite verbunden sind haben vorbildfunktion, oder?
Andre
2002-02-11, 21:39:20
Originally posted by christoph
leute die mit dieser seite verbunden sind haben vorbildfunktion, oder?
Wen meinst du?
Jetzt musst Du schon konkret werden.
Thowe,
hier bringe ich gerne Xmas als Beispiel: Er hat einerseits Argumente pro T&L und hatte doch andererseits längere Zeit als Haupt-Graka eine Voodoo5. Jetzt hat er eine GeForce3 und nennt die Radeon8500 technisch fortschrittlicher. Es gibt also Leute, an dessen Graka man nicht den Diskussions-Stil erkennen kann.
Anders bei anderen, und das ist das, was mich nervt. Eine "argumentieren" ausgehend von ihrer HW, was sie haben, braucht man, was sie nicht haben, braucht man eigentlich auch nicht. Das nervt mich tierisch.
Ansonsten finde ich deine Argumentation gelungen, wobei natürlich noch zu erwähnen wäre, dass sich Speed in gewissem Maße auch wieder in Qualität umsetzen lässt; also effektive Füllrate wichtig bleibt.
Richthofen,
eben das, dass nVidia das aktuell offenbar nicht will, findet meine Kritik - aus meiner Sicht ist es eben nicht "gut". Das kannst du gerne anders sehen.
christoph
2002-02-11, 21:47:39
ich will nicht persönlich werden.
schau dir den thread mal an. es sind leute beteiligt, die mit dieser seite in verbindung stehen und sich wieder und wieder auf son sch**** einlassen.
das ist sinnlos, weil aus völlig unterschiedlichen motivationen heraus diskutiert wird.
Andre
2002-02-11, 21:51:37
Originally posted by christoph
ich will nicht persönlich werden.
schau dir den thread mal an. es sind leute beteiligt, die mit dieser seite in verbindung stehen und sich wieder und wieder auf son sch**** einlassen.
Noch eine kleine Frage:
Wann fängt die Verbindung mit dieser Seite an?
Als Mod oder als Crew?
Unregistered
2002-02-11, 21:52:32
Originally posted by Richthofen
Nvidia hat deutlich klar gemacht das sie ihn nicht wollen und basta.
Wo is das Problem?
Die ganze Story wird auf DX9 verschoben. Wohl auch ein Grund wieso die MX keine DX8 Fähigkeit besitzt.
Mir ist das sowas von wurscht. Die Entwickler sollen erstmal das implementieren was vorhanden ist. .
DAss ich das genau aus deinem Mund hören muss ist ja echt der Gimpfel. Als was hast du nochmals 3dfx hingestellt??? Als Technologieblocker. Und genau das rechtfertigst du jetzt hier bei Nvidia?? Also damit sprichst du dich echt jeder Kompetenz ab. Und deine Postings werden wie immer noch deutlicher: Nvidia hurra hurra hurra Nvidia ihr seit die grössten. Wenn ihr euch umbringt tue ich das auch Nvidia Nvidia Nvidia....
Du bist einfach lachhaft..
Entschuldige für den persönlichen Angriff, allerdings kann ich echt nichts anderes mehr dazu sagen.... Weil du genau zu den Personen gehörst die du selbst früher verteufelt hast. Die Leute die nur auf eine Graka auswaren und drum nen Kult draus gemacht haben.Was du hier betreibst ist doch nichts anders....
christoph
2002-02-11, 21:57:45
also für mich sollten beide vobildfunktion haben.
die mods vielleicht noch mehr als die crew.
Also an den Mods konnte ich kein Fehlverhalten feststellen :D
Desweiteren ist dieser Thread doch SEHR lustig ;) Hab mich jedenfalls königlich darüber amüsiert.
Exxtreme
2002-02-11, 22:14:36
Originally posted by christoph
also für mich sollten beide vobildfunktion haben.
die mods vielleicht noch mehr als die crew.
Mach mal bitte ein Paar Vorschläge. Solange wir Mods kein Feedback bekommen, machen wir es so wie wir es für richtig halten. Du kannst es auch per PM machen, wenn es nichts für die Öffentlichkeit ist.
Gruß
Alex
christoph
2002-02-11, 22:33:00
@alex
mods und crew sollten sich weniger auf sinnlose diskussionen
einlassen.
Exxtreme
2002-02-11, 22:41:37
Originally posted by christoph
@alex
mods und crew sollten sich weniger auf sinnlose diskussionen
einlassen.
Mag schon sein nur es gibt mind. 2 Probleme:
1. wenn jemand was eindeutig Falsches schreibt, dann wird es normalerweise korrigiert und
2. was "sinnlos" ist und was nicht ist IMHO ziemlich subjektiv, oder?
Gruß
Alex
christoph
2002-02-11, 22:50:42
Originally posted by Exxtreme
Mag schon sein nur es gibt mind. 2 Probleme:
1. wenn jemand was eindeutig Falsches schreibt, dann wird es normalerweise korrigiert und
2. was "sinnlos" ist und was nicht ist IMHO ziemlich subjektiv, oder?
Gruß
Alex
hi alex,
sachlich zu korrigieren ohne zu bewerten ist ok :)
sinnlos sind threads mit über 116 antworten, die zu nichts führen ausser frust
Quasar
2002-02-11, 22:53:53
@Razor:
Bitte, überzeug' dich selber. Im Product Overview steht kein Wort von HOS in irgendeiner Form. Entweder man macht es jetzt geschickter, als mit Shadow Buffern und 3D-Texturen im GF3, oder der Support wurde nicht nur aus den Treibern entfernt.
http://developer.nvidia.com/docs/lo/1467/SUPP/PO_GF4Ti_2.05.02.pdf
@HOT:
LMA (-II) beinhaltet Z-Occlusion Culling, Fast Z-Clear und Z-Kompression.
Wenn man deine Logik auf Hyper-Z (-II) anwenden würde, wäre man beim Memorycontroller als Restwert angelangt, denn Hyper-Z besteht nur aus Hierarchical Z, Lossless Compression und Fast Z-Clear. Ist es vielleicht nVidias Fehler, daß ATi immer noch einen "Brute Force" Memorycontroller einsetzt?
Ich seh' grad, daß Razor das auch schon schrieb.
@[fu]121Ah:
Warum benutzt du ständig die vier Buchstaben f,u,c, und k um die dir offenbar nicht bekannte Endung von diversen Begriffen zu bilden?
@Xmas:
Also ich finde den Villagemark als Z-Stresstest schon einigermaßen aussagekräftig, was die Effizienz des HSR angeht. Was genau stört dich denn an dem Vergleich? Auch wenn diese Frage schon teilweise beantwortet wurde, sehe ich noch nicht genau den Hintergrund deiner Frage.
Exxtreme
2002-02-11, 23:00:34
Originally posted by christoph
hi alex,
sachlich zu korrigieren ohne zu bewerten ist ok :)
sinnlos sind threads mit über 116 antworten, die zu nichts führen ausser frust
Tja, was "sachlich" ist, ist auch ziemlich subjektiv ;) und bei Punkt 2 hast du natürlich recht. Aber einfach Threads schliessen wenn sie zu OT werden oder bei denen es irgendwie nicht vorwärts geht ist auch nicht die Lösung. Es können sich nämlich auch sehr interessante Diskussionen aus solchen Threads entwickeln. Das "Pro&Contra"-Forum ist dafür vorgesehen um die "Streithähne" aus den Hilfe-Foren rauszuhalten. Ist jetzt aber auch ziemlich OT. Wenn du Lust hast, dann mach einen Thread im " über das 3DCenter-Forum"-Forum auf, in dem dieses Thema angeschnitten wird.
Gruß
Alex
[fu]121Ah
2002-02-11, 23:27:52
Originally posted by Quasar
@Razor:
@[fu]121Ah:
Warum benutzt du ständig die vier Buchstaben f,u,c, und k um die dir offenbar nicht bekannte Endung von diversen Begriffen zu bilden?
gute frage, es ist ein wort dass ich nicht schreiben kann... :)
(ich schreib es nur bei quincunx und accuview, oder wie auch immer sich das schreibt...)
Quasar, ich kann das PFD nicht downloaden (es kommen einfach keine Daten.) Kennst du noch eine andere URL?
Quasar
2002-02-11, 23:39:04
Leider nicht, aths. Aber bei mir funktionierte es wunderbar. Habs eben gerade nochmal mit 40K gezogen. Liegt also wohl nicht am Server...Ich kanns dir auch per Mail schicken.
Thowe
2002-02-12, 00:06:24
http://www.thowe.de/3dcenter/PO_GF4Ti_2.05.02.pdf
Es liegt am DNS, der hier ausgefallen ist (im RZ arbeiten bei uns nicht nur kompetente Leute) und nvidia.com ist leider nicht mehr im Cache. Ich habs via Modem gezogen.
edit: Jetzt nehm ich das erst mal in Ruhe unter die Lupe :)
edit2: Danke, Thowe (und Quasar) für die Angebote.
edit3: Ich denke jetzt erst recht: "Da ist mehr für Sie drin" und erwarte ich einem späterem Treiber einen Speedup. Mal sehen, wann dieser Treiber releast wird.
Frank
2002-02-12, 01:53:59
Originally posted by aths
wie man hier (www.aths.net/files/!cube30k.exe) sieht...
Nett
dafür bekommt ihr beide auch ein Bienchen ins neue inoffizielle
Muttiheft von 3dCenter.
(*staun* selbst mein Hauptrechner packt das grad so flüssig)
Originally posted by aths
im RZ arbeiten bei uns nicht nur kompetente Leute
:lol:
Originally posted by Frank
Nett
dafür bekommt ihr beide auch ein Bienchen ins neue inoffizielle
Muttiheft von 3dCenter.
(*staun* selbst mein Hauptrechner packt das grad so flüssig)
Hehe, nicht wundern... Der Dreiecksrasterizer sollte nur verständlich sein, nicht schnell oder genau. Dazu musste ich das ganze noch "aus dem Kopf" schreiben, ohne Nachschlagen, mit entsprechenden Nachteilen für das Ergebnis ;) aths hat dann noch was Brauchbares draus gemacht.
Zwei Dinge noch:
Sorry, aths und Razor, dass ich vergessen habe "@[fu]121Ah" mitzuquoten, was für etwas Verwirrung gesorgt hat.
Außerdem beherzige ich Christophs Vorschlag, weshalb für mich hier in Sachen "technologischer Vorsprung" EOD ist.
[fu]121Ah
2002-02-12, 08:35:46
werde mich hier auch nicht mehr äussern. standpunkt ist klar und die diskussion führt wirklich zu nichts mehr.
christoph
2002-02-12, 10:52:49
Originally posted by Exxtreme
Tja, was "sachlich" ist, ist auch ziemlich subjektiv ;) und bei Punkt 2 hast du natürlich recht. Aber einfach Threads schliessen wenn sie zu OT werden oder bei denen es irgendwie nicht vorwärts geht ist auch nicht die Lösung. Es können sich nämlich auch sehr interessante Diskussionen aus solchen Threads entwickeln. Das "Pro&Contra"-Forum ist dafür vorgesehen um die "Streithähne" aus den Hilfe-Foren rauszuhalten. Ist jetzt aber auch ziemlich OT. Wenn du Lust hast, dann mach einen Thread im " über das 3DCenter-Forum"-Forum auf, in dem dieses Thema angeschnitten wird.
Gruß
Alex
hi alex,
ich weiss das es nicht einfach ist.
ihr mods und die crew gestaltet das klima hier massgeblich mit, da ist dann halt noch mehr selbstdisziplin nötig als bei einem normalen 'besucher'.
für ganz harte fälle hat das board doch auch eine wunderbare funktion:
Edit Ignore List :)
Originally posted by Quasar
@HOT:
LMA (-II) beinhaltet Z-Occlusion Culling, Fast Z-Clear und Z-Kompression.
Wenn man deine Logik auf Hyper-Z (-II) anwenden würde, wäre man beim Memorycontroller als Restwert angelangt, denn Hyper-Z besteht nur aus Hierarchical Z, Lossless Compression und Fast Z-Clear. Ist es vielleicht nVidias Fehler, daß ATi immer noch einen "Brute Force" Memorycontroller einsetzt?
Ich seh' grad, daß Razor das auch schon schrieb.
Hab ich das gesagt? Nein, ich sagte lediglich, dass ATI hier diese Techniken schon wesentlich früher eingesetzt hat als NV. HyperZ war BESSER als LMAI. Das einzige, was an LMA besser ist, ist die direkte Speicherverwaltung - ein klarer Vorteil von NVidia (um das klarzustellen). Nur es ist nicht bekannt, wie der ATi Speichercontroller der Radeon8500 aussieht - es könnte doch sein, dass ATi in HyperZ II auch so etwas vorgesehen hat (reine Spekulation).
Desweiteren hab ich versucht zu erklären, warum die Villagemark die wahre Performance durch HyperZ II garnicht messen KANN!!! HyperZ II HSRt vor dem Blending. In der Villagemark kommt aber SO GUT WIE KEIN transparenter Overdraw durch Alpha vor!!! Deshalb fuktioniert HyperZ II eigentlich nicht anders wie HyperZ I!
Mit der Villagemark KANN man die Z Massnahmen nicht miteinander vergleichen - hierfür GIBT es einfach keine aussagekräftige Benchmark!
[fu]121Ah
2002-02-12, 11:04:26
soweit ich weis hat nvidia 4x32bit und ati 2x64bit anbindung in den speichercontrollern. gibt nen leichten vorteil für nvidia.
Razor
2002-02-12, 11:41:15
@aths
"Ok Razor, dann lass mich anders fragen: Siehst du die Lage so, dass Xmas auf den Gebieten um die es hier geht, kompetenter ist als du?"
Irrelevant !
"Die naheliegende Antwort kann ich gleich geben: Ja, der für sein Wissen und seine sachliche Art bekannte Xmas ist in diesen Frage kompetenter als du."
Irrelevant !
"Wenn ich es mal so sagen darf, beim Lesen deiner Postings fällt auf, dass du in dieser Materie reichlich unsicher bist, da dir einfach noch eine Menge Wissen fehlt."
Deine Meinung und 'Irrelevant' !
;-)
"Wir reden hier u.a. über den technischen Fortschritt durch PixelShader 1.4. Nun, Xmas hat hier (per Reference Rasterizer) fachlich experimentiert (während ich noch eher nach Trial and Error vorging) Als ich zu ihm meinte, 1.4 bräuchte es eigentlich nicht, schon mit 1.3 liesse sich so viel machen, zeigte er auf einige Befehle die 1.3 nicht kann; damit war das Thema erledigt."
dann diskutiere so etwas nicht im Pro&Contra, sondern im Technologie-Forum. Du bist doch 'eingeweihtes' Mitglied, insofern dürfte dann auch Dir dieser Bezug nicht entgangen sein. Insofern sehe ich eine deutliche Absicht Deinerseits, so etwas hier zur Diskussion zu stellen. Insofern wirst Du Dir auch meine Einmischung gefallen lassen MÜSSEN !
Ob Dir das nun gefällt, oder nicht !
;-)
"Dieses Vorgehen ist bei dir sinnlos, da du die Befehle kaum verstehen wirst. Anstatt nun aber anerkannten Foren-Größen wie Xmas einfach zu glauben, wenn er über etwas spricht wo er sich auskennt, redest du Thread um Thread weiter und bist nicht bereit, deine Meinung zu korrigieren."
Ich finde es sehr interessant, daß Du an der Kompetenz von Xmas antizipieren willst oder musst, wenn Du nicht mehr weiter kommst !
;-)
@[fu]121Ah
"hmm, könntest du mir eigentlich erklären... was willst du beweisen? dass der ps schneller ist? oder der vs? für dass das sie 2 vs hat find ich das nicht überragend..."
Gar nichts...
HOT hat gesagt, daß die R8500 ihre Stärken im 3DMurk zeigt und ich habe ihn wiederlegt, mehr nicht !
;-)
@Richthofen
DANKE !!!
"Die Entwickler sollen erstmal das implementieren was vorhanden ist. Ich bin ja schon froh wenn die es mal packen EBM oder Dot3 Bump Mapping einzusetzen.
Aquanox sieht grafisch ganz nett aus aber das Spiel ist ein Armutszeugnis weil es schlichtweg kein Spiel ist.
Da spiel ich lieber Tetris.
Ansonsten gibts auf der Ebene nicht wirklich viel."
100%'iges ACK !
;-)
@Thowe
"1. Ich verstehe nicht warum Features die von nVidia kommen Wegbereiter für neue Technologien und Entwicklungen sind, während die die von ATI oder der Konkurrenz kommen überflüssig sind. Dies will und kann ich nicht einsehen."
aths hat hier eine Behauptung aufegstellt (im Pro&Contra-Forum übrigens ;-) und wir reden darüber, denn er hat es genau anders herum ausgedrück, wie Du das jetzt tust. Und da es immer gegensätzliche Meinungen gibt, muß es auch Zwangsläufig Gegenargumente geben.
Oder was hat dieser Thread sonst im Pro&Contra zu suchen ?
???
"2. Erstaunlich finde ich das jetzt (nicht hier) über Features der GF4 geschwärmt werden, die nVidia erst nach langer Zeit implementiert."
Dann Schau Dir mal das Titel-Thema an !
;-)
"Der eine kauft sich ein Auto mir viel Ausstattung, der andere kauft sich ein Auto mit viel Speed. Die Aussattung kann immer Vorteile bieten, der Speed nicht. Was nützt einen ein 300PS Wagen im Stop & Go innerhalb des Stadtverkehrs?"
Und der dritte will ein Auto mit Speed UND Ausstattung (GolfIV V6 rulez ;-). So hat er sowohl im Straßenverkehr was davon, wie auch auf der Autobahn, die er täglich nutzen muß, um zur Arbeit zu kommen...
;-)
"Ob sie irgendwann genutzt werden? Fraglich, ..."
Und nichts anderes habe ich zur Diskussion gestellt !
@Exxtreme
"Vergiss es. Es hat keinen Sinn. Deswegen ist dieses Forum geschaffen worden. Wenn du ernsthafte Diskussion suchst dann stellst du deine Fragen ins Tech-Forum."
Na endlich !
Vielleicht kannst Du mir ja erklären, warum aths dies hier gepostet hat...
@HOT
Also an den Mods konnte ich kein Fehlverhalten feststellen
Desweiteren ist dieser Thread doch SEHR lustig Hab mich jedenfalls königlich darüber amüsiert.
100%'ige Zustimmung !
;-)
Und auch ich amüsierte mich köstlich (und tue dies noch immer) !
;-)
"HyperZ war BESSER als LMAI."
Ich würde es anders darstellen:
"HyperZ1 WAR effektiver als LMA1 !"
und
"HyperZ2 IST ineffektiver als LMA2 !"
;-)
"es könnte doch sein, dass ATi in HyperZ II auch so etwas vorgesehen hat"
Mag sein, oder auch nicht, ändert aber nichts an obiger Feststellung...
"Mit der Villagemark KANN man die Z Massnahmen nicht miteinander vergleichen - hierfür GIBT es einfach keine aussagekräftige Benchmark!"
Du hast 3DMurks2k1 als Beispiel genannt, ich habe Dir die Detail-Ergebnisse zur verfügung gestellt.
Und was sagst Du nun dazu ?
???
@Quasar
"Bitte, überzeug' dich selber. Im Product Overview steht kein Wort von HOS in irgendeiner Form. Entweder man macht es jetzt geschickter, als mit Shadow Buffern und 3D-Texturen im GF3, oder der Support wurde nicht nur aus den Treibern entfernt."
Danke erst einmal für den Link !
Ich denke, daß man nun geschickter vorgeht und Dinge/Features erst dann ankündigt, wenn diese auch verfügbar sind. Sicherlich ist dies auch eine Spekulation, aber warum hätte nVidia sich die Mühe machen sollen, die Schaltkreise auf dem Chiplayout zu entfernen ?
Für mich ist der NV20 noch immer ein abgespeckter NV2A und der NV25 ein NV2A ohne Northbridge in optimierter Form. Insofern hat's schon seit langem (1 Jahr ?) nichts neues mehr gegeben...
Was mich an der Diskussion nur stört, ist, das nun behauptet wird, das die gf3/4 kein HOS besitzt und das auch niemals wieder der Fall sein wird, obwohl man dafür genausowenig Beweise hat, für die gegenteilige Behauptung. Das HOS in derzeitigen DX-Treibern (!) nicht mehr verfügbar ist, weiß ich auch und habe ich auch nie bestritten.
Und um die Gemüter diesbezüglich zu beruhigen:
- in jetzigen DX-Treibern ist kein HOS mehr verfügbar !
- in jetzigen DX-Treibern wird lediglich PS1.1 vermeldet !
Alles andere ist Spekulation und auch so gekennzeichnet.
Wie dem auch sei, die Zukunft wird es zeigen...
;-)
***
Also ich finde diese 'Diskussion' lustig !
;-)
Bis denne
Razor
Richthofen
2002-02-12, 11:54:09
@Unregistered
Eigentlich wollt ich auf sowas armes gar nicht antworten. Wer sich nichtmal nen gescheiten Nick zulegt ist ein Würstchen mehr nit.
Zu deiner Information. Während 3dfx über 2 Jahre rein gar nix neues Gebracht hat, hat es Nvidia geschafft Dot3 Bump Mapping, T&L die Vorstufe zum Vertex Shader, A. Filtering, und dann schliesslich mit der GF3 den Vertex und Pixelshader einzuführen.
Das Ganze innerhalb von 2 Jahren. Und ja ich finde momentan macht es überhaupt nix aus das hier mal 1 Generation nichts neues bringt und bestehendes optimiert. Weil es schlichtweg immer noch keine Spiele gibt die das nutzen. Ich sehe kein Problem darin, das neue Features erst mit DX9 Ende des Jahres kommen.
Es macht einfach keinen Unterschied ob einige Features vorgegriffen werden oder nicht.
Es war durchaus an der Zeit bestehendes mal bissl besser nutzbar zu machen und nicht nur die Liste abzuarbeiten.
Ein Vergleich zwischen 3dfx und Nvidia ist völlig daneben.
Das kannst du nicht vergleichen.
Schau dir die OGL Extensions an und zähle mal zusammen was Nvidia in den paar Jahren so zusammengestellt hat und dann schau dir die Bruchbude 3dfx an die es erst zu V5 Zeiten mal geschafft hat einen vollwertigen OpenGL ICD einzubringen den andere schon längst hatten und zwar nicht erst ein paar Monate.
Originally posted by Razor
@HOT
"HyperZ war BESSER als LMAI."
Ich würde es anders darstellen:
"HyperZ1 WAR effektiver als LMA1 !"
und
"HyperZ2 IST ineffektiver als LMA2 !"
;-)
Dafür gibt es keinen Beweis. Wir können uns jetzt noch 100 Jahre darüber streiten, was besser ist. IMO ist ein HSR vor dem Blending effektiver, da es besonders in Problemsituationen wie starken Rauch, Explosionen, viel Grünzeug etc. wesentlich besser hilft als der NVidia Memory Controller. Der wirkt zwar überall, aber nicht unbedingt da, wo es dringend nötig wäre. Ich denke wir setzen hier schlicht und einfach andere Schwerpunkte.
"es könnte doch sein, dass ATi in HyperZ II auch so etwas vorgesehen hat"
Mag sein, oder auch nicht, ändert aber nichts an obiger Feststellung...
hab selbst geschrieben, dass es reine Spekulation ist!
"Mit der Villagemark KANN man die Z Massnahmen nicht miteinander vergleichen - hierfür GIBT es einfach keine aussagekräftige Benchmark!"
Du hast 3DMurks2k1 als Beispiel genannt, ich habe Dir die Detail-Ergebnisse zur verfügung gestellt.
Und was sagst Du nun dazu ?
???
wo?
GloomY
2002-02-12, 11:58:18
Originally posted by Razor
"Ok Razor, dann lass mich anders fragen: Siehst du die Lage so, dass Xmas auf den Gebieten um die es hier geht, kompetenter ist als du?"
Irrelevant !
"Die naheliegende Antwort kann ich gleich geben: Ja, der für sein Wissen und seine sachliche Art bekannte Xmas ist in diesen Frage kompetenter als du."
Irrelevant !
"Wenn ich es mal so sagen darf, beim Lesen deiner Postings fällt auf, dass du in dieser Materie reichlich unsicher bist, da dir einfach noch eine Menge Wissen fehlt."
Deine Meinung und 'Irrelevant' !
Irrelevant! Resistance is futile! You will be assimilated!!! ;D
(Sorry, aber es erinnert mich zu stark an die Denkweise der Borg)
Mal was anderes:
In dem PDF schreibt NVidia:
"Features:
...
Real-time hair and fur shading"
Was soll Haar- und Pelz-Shading sein? Imho gibt es doch nur Flat-, Gouraud- und Phong-Shading. Oder ist das mal wieder ein Fall von innovativer Namensschöpfung der Marketingabteilung von Nv? ;)
Rechtschreibung + Grammar
Razor
2002-02-12, 12:05:50
@HOT
"wo?"
Seite 5:
Die gf4ti4400 ist im Takt mit der R8500 gleich zu setzen:
Test r8500 ti4400
Gesamt 8526 9369 + 9,9%
CarChase low 132,6 144,4 + 8,9%
CarChase high 47,9 51,2 + 6,9%
Dragithic low 133,2 167,5 +25,8%
Dragithic high 79,5 78,1 - 1,8%
Lobby low 128,3 130,9 + 2,0%
Lobby high 57,7 59,8 + 3,6%
Nature 44,2 38,1 -13,8%
FillRate 1x 819 912,4 +11,4%
FillRate muti 1807 2077,7 +15,0%
HighPoly 1x 36 46,5 +29,2%
HighPoly 8x 9,7 11,5 +18,6%
BumpMap Env 112,6 160,7 +42,7%
BumpMap DOT3 87,6 132,2 +50,9%
VertexShader 87,4 92,3 + 5,6%
PixelShader 101,5 110,5 + 8,9%
PointSprites 28,1 26 - 7,5%
Und das waren noch Beta-Treiber...
;-)
Razor
Razor,
dass Xmas deutlich sichtbar mehr auf dem Kasten hast als du, ist eben nicht irrelevant. Denn er kann (wie viele hier) klare Argumente bringen. Du hingegen nervst nur rum. Was du nicht sehen willst, blendest du aus oder nennst es irrelevant. Das ist Scheuklappendenken, weil du nicht bereit bist, trotz naheliegender Gründe einzusehen dass deine Äußerungen falsch waren. Wenn du von "Einmischungen" und "gefallen lassen MÜSSEN" sprichst, macht das von der Formulierung her deutlich, dass es dir darauf ankommt, zu stören; und nicht auf eine sinnvolle Diskussion.
Deine Argumente sind nicht nur an Xmas', sondern auch an nggalais, meinen, und vielen anderen gescheitert. Da machst du aber einfach die Augen zu und nervst weiter. Was dir nicht passt, übersiehst du oder wischt du weg - um weiterhin den Troll zu spielen.
Du bist für mich wegen mangendelndem Fachwissen, mangelnder Zuhörbereitschaft und mangelndem Kompromisswillen als Diskussionspartner unwürdig. Ich habe lange genug Geduld gehabt. Wenn du objektiv im Unrecht bist, wird das von mir weiterhin klar gestellt, auf Diskussionen mit einem Troll lasse ich mich jedoch nicht ein.
Richthofen,
ich bitte dich der Forenkultur wegen Formulierungen wie "dann schau dir die Bruchbude 3dfx an" zu unterlassen.
[fu]121Ah
2002-02-12, 12:26:40
razor, gib bitte richtige antworten, ein "irrelevant" zu posten zeigt nur dass du keine richtige antwort geben kannst...
Razor
2002-02-12, 12:30:22
@aths
Ich halte nicht Xmas Kompetenz für irrelevant !
Lediglich Deine diebezüglichen Aussagen tragen weder zum Thema bei, noch haben sie irgendeinen Aussagewert.
Insofern sind lediglich solche Aussagen IRRELEVANT !
(insbesondere, wenn sie von Dir kommen ;-)
"ich bitte dich der Forenkultur wegen Formulierungen wie "dann schau dir die Bruchbude 3dfx an" zu unterlassen."
Ich fand die Bezeichnung von Richthofen sehr treffend !
Und setze noch hinzu: "Gut, daß sie endlich weg vom Fenster sind !"
;-)
In diesem Sinne
Razor
Razor
2002-02-12, 12:31:13
Originally posted by [fu]121Ah
razor, gib bitte richtige antworten, ein "irrelevant" zu posten zeigt nur dass du keine richtige antwort geben kannst...
Es zeigt lediglich, daß ich auf solche Kommentare nicht eingehe !
;-)
Razor
[fu]121Ah
2002-02-12, 12:40:04
Originally posted by Razor
Es zeigt lediglich, daß ich auf solche Kommentare nicht eingehe !
;-)
Razor
ja, denn sie stimmen und du hast unrecht :)
[fu]121Ah
2002-02-12, 12:41:20
Originally posted by Razor
Ich fand die Bezeichnung von Richthofen sehr treffend !
Und setze noch hinzu: "Gut, daß sie endlich weg vom Fenster sind !"
provozieren musst du auch noch? du bist ja noch....
Originally posted by Razor
@HOT
"wo?"
Seite 5:
Die gf4ti4400 ist im Takt mit der R8500 gleich zu setzen:
Test r8500 ti4400
Gesamt 8526 9369 + 9,9%
CarChase low 132,6 144,4 + 8,9%
CarChase high 47,9 51,2 + 6,9%
Dragithic low 133,2 167,5 +25,8%
Dragithic high 79,5 78,1 - 1,8%
Lobby low 128,3 130,9 + 2,0%
Lobby high 57,7 59,8 + 3,6%
Nature 44,2 38,1 -13,8%
FillRate 1x 819 912,4 +11,4%
FillRate muti 1807 2077,7 +15,0%
HighPoly 1x 36 46,5 +29,2%
HighPoly 8x 9,7 11,5 +18,6%
BumpMap Env 112,6 160,7 +42,7%
BumpMap DOT3 87,6 132,2 +50,9%
VertexShader 87,4 92,3 + 5,6%
PixelShader 101,5 110,5 + 8,9%
PointSprites 28,1 26 - 7,5%
Und das waren noch Beta-Treiber...
;-)
Razor
So Razor. Dieses Bild widerlegt komlett deine Argumentation.
In den High Detail Scenen kommt es vermehrt zu Alpha Blending - hier sieht man ganz deutlich, dass die R200 kaum noch Abstand zum NV25 lässt. Die Scenen mit dem höchten Alpha Anteil sind definitiv Dragothic High und Nature. In beiden Scenen ist der R200 schneller. In den restlichen Scenen überwiegt NVidias Implementation. Direkte Vergleiche lassen sich allerdings auch hier nicht ablesen, aber die Tendenz ist eindeutig.
Desweiteren hat du die Pixelshadereffiziens der R200 kritisiert. Anhand dieser Benches jedoch ist die Pixelshaderperformance (v1.1) des R200 absolut i.o. In Nature überwiegt sogar die Performance signifikant. Hier kommt die hohe Vertex/Pixleshaderperformance zusammen mit dem im Hyper-Z II implenetierten vor-Blending HSR voll zum tragen. Ich bin sicher, dass hier noch weitere Optimierungen des Pixelshaders auf der R200 möglich sind - aud der NV25 sebstredend auch.
Du siehst - im Grunde genommen sind diese Ergebnisse weder für HyperZ noch für LMA besonders aussagekräftig - es fliessen viele andere Faktoren (vor allem geometrischer Natur) mit hier rein. Die Villagemark wäre ein guter Tester für Z-Effizienz, wenn es mehr transparenten Overdraw hier gäbe.
Andre
2002-02-12, 12:42:23
Originally posted by Razor
Es zeigt lediglich, daß ich auf solche Kommentare nicht eingehe !
;-)
Razor
Komische Art der Diskussion, genau wie die Ignoranz gegenüber meinen Kommentaren in einem anderen Thread.
Razor,
Du bist nicht über jeden Zweifel erhaben, also komm mal wieder runter - ist ja grausam.
Frank
2002-02-12, 13:50:57
Originally posted by Richthofen
@Unregistered
Eigentlich wollt ich auf sowas armes gar nicht antworten. Wer sich nichtmal nen gescheiten Nick zulegt ist ein Würstchen mehr nit.
Und bei solchen Comments kommt mir aber auch fast die Wurst...
Originally posted by Razor
"ich bitte dich der Forenkultur wegen Formulierungen wie "dann schau dir die Bruchbude 3dfx an" zu unterlassen."
Ich fand die Bezeichnung von Richthofen sehr treffend !
Und setze noch hinzu: "Gut, daß sie endlich weg vom Fenster sind !"
;-)
Wer sich auf das Provozieren zurück zieht, hat keine Argumente mehr.
TBird
2002-02-12, 17:55:04
Originally posted by aths
Ich denke wir sind uns einig, dass da noch etwas faul ist.
Meine Theorie: Sie heben sich neue Treiber, die LMA2 gezielt nutzen, bis zum nächsten Radeon auf.
Auf jedenfall glaube ich, daß zukünftige neue Treiber von nVidia wesentlich mehr aus der GF4 Ti herausholen werden als die momentanen.
Originally posted by GloomY
Mal was anderes:
In dem PDF schreibt NVidia:
"Features:
...
Real-time hair and fur shading"
Was soll Haar- und Pelz-Shading sein? Imho gibt es doch nur Flat-, Gouraud- und Phong-Shading. Oder ist das mal wieder ein Fall von innovativer Namensschöpfung der Marketingabteilung von Nv? ;)
http://www.nvidia.com/docs/lo/1453/SUPP/nfinitefxii.2.02.pdf
Hier siehst du was damit gemeint ist.
Piffan
2002-02-12, 19:53:11
Während hier echte Fachleute, Möchtegernfachleute und Streithanseln sich die Köppe einschlagen, hat sich auch John Carmack geäußert... Er, der eigentlich wissen sollte, worum es geht, der findet den Radeon besser.......
Mal sehen, wann Tim Schweini auch seinen Senf abläßt, natürlich findet der die Geforce besser...LOL
Meine völlig unmaßgebliche Meinung als Spieler dazu ist: Der John Carmack wirkt auf mich ziemlich glaubwürdig, Schweini hat durch das Stänkern gegen deferred renderer bei vielen als neutraler Experte verspielt...
TBird
2002-02-12, 20:16:28
Originally posted by Piffan
der findet den Radeon besser.......
Dann hast Du aber ein anderes .plan von Carmack gelesen. Die Zusammenfassung von ihm sagts doch eindeutig:
I can set up scenes and parameters where either card can win, but I think that
current Nvidia cards are still a somewhat safer bet for consistent performance
and quality.
Piffan
2002-02-12, 21:19:51
Originally posted by TBird
Dann hast Du aber ein anderes .plan von Carmack gelesen. Die Zusammenfassung von ihm sagts doch eindeutig:
Öh, ich habe es gar nicht gelesen.....
Ich habe auf dieser Seite unter News gelesen, daß J.C. den "technologischen Vorteil der Radeon besonders hervorhebt.."..
Ok, das nächste Mal werde ich solche Artikel persönlich in Augenschein nehmen....
Thowe
2002-02-12, 22:25:17
Originally posted by Razor
"1. Ich verstehe nicht warum Features die von nVidia kommen Wegbereiter für neue Technologien und Entwicklungen sind, während die die von ATI oder der Konkurrenz kommen überflüssig sind. Dies will und kann ich nicht einsehen."
aths hat hier eine Behauptung aufegstellt (im Pro&Contra-Forum übrigens ;-) und wir reden darüber, denn er hat es genau anders herum ausgedrück, wie Du das jetzt tust. Und da es immer gegensätzliche Meinungen gibt, muß es auch Zwangsläufig Gegenargumente geben.
Seltsam, wenn du schon darauf eingehst, auf etwas das ich als global geäussert habe, solltest du schon auf den Inhalt eingehen. Deshalb wiederhole ich die Frage, warum ist das bessere Feature-Set der R8500 schlechter als das der GF4TI.
"2. Erstaunlich finde ich das jetzt (nicht hier) über Features der GF4 geschwärmt werden, die nVidia erst nach langer Zeit implementiert."
Dann Schau Dir mal das Titel-Thema an !
;-)
Was meinst du? Ich sagte nicht hier und es war als global gekennzeichnet.
"Ob sie irgendwann genutzt werden? Fraglich, ..."
Und nichts anderes habe ich zur Diskussion gestellt !
Razor, wenn du mich zitierst, dann bitte komplett. Schneide dir bitte nicht die Teile so raus wie es dir passt, so zerstörst du den Zusammenhang den ich äusserte.
Pengo
2002-02-13, 03:31:40
Originally posted by aths
Richthofen,
ich bitte dich der Forenkultur wegen Formulierungen wie "dann schau dir die Bruchbude 3dfx an" zu unterlassen.
Was ist an dieser Bezeichnung auszusetzen? Wieso kann man eine Firma die sich langsam (2 Jahre) aber stätig auf die totale Pleite hinbewegt nicht als Bruchbude bezeichnen?
Pengo
2002-02-13, 04:10:00
Originally posted by Piffan
Öh, ich habe es gar nicht gelesen.....
Ich habe auf dieser Seite unter News gelesen, daß J.C. den "technologischen Vorteil der Radeon besonders hervorhebt.."..
Ok, das nächste Mal werde ich solche Artikel persönlich in Augenschein nehmen....
Solltest du wirklich tun! Die 3dCenter News sind oft mit etwas Anti-NVidia Salz gewürzt. Die Aussage daß Carmack denkt daß GF3/GF4 die zusammenfassend bessere Lösung darstellt wurde völlig unterschlagen und somit der ganze Sinn des Planupdate gehörig verfälscht. Ja, ich unterstelle da volle Absicht!
Richthofen
2002-02-13, 04:22:47
@Pengo
Na aba wirklich.
Was soll ich denn sonst zu der Firma sagen?
Die haben sich so viele Schitzer erlaubt mei oh mei. Das ging doch wirklich auf keine Kuhhaut.
Da hier liebes Geld verbrannt wurde und das nicht zu knapp kann ich für diese Firma leider kein besseres Urteil finden. Die Situation war doch schon Monate vorher absehbar aber grundlegend geändert hat sich bei der Firma trozdem nix.
Razor wir sind uns einige das die vom Markt gehörten :)
Dad ist schön. Bei Nvidia haben die Entwickler es ohnehin besser.
Da ist richtig Action und mehr Geld gibts auch.
@Frank
Ja was soll ich denn zu so einem sagen.
Wenn er mich provozieren will muss er sich schon nen gescheiten Nick zulegen. Aber so eine Versteckspielnummer ist doch lolig.
Legolas
2002-02-13, 11:02:37
Originally posted by Richthofen
@Frank
Ja was soll ich denn zu so einem sagen.
Wenn er mich provozieren will muss er sich schon nen gescheiten Nick zulegen. Aber so eine Versteckspielnummer ist doch lolig.
Wenn du so Menschen beurteilst nämlich nach Nick, sprich nach Äußerlickeiten, dann kanns mit Sachlichkeit bei dir ja nicht sonderlich weit hersein. Was man an deinen Postings sieht.
Unregistered
2002-02-13, 11:53:35
Originally posted by Pengo
Solltest du wirklich tun! Die 3dCenter News sind oft mit etwas Anti-NVidia Salz gewürzt. Die Aussage daß Carmack denkt daß GF3/GF4 die zusammenfassend bessere Lösung darstellt wurde völlig unterschlagen und somit der ganze Sinn des Planupdate gehörig verfälscht. Ja, ich unterstelle da volle Absicht!
Echt?! Das ist mir ja noch gar nicht aufgefallen! ;-)
Andererseits gibts genug Seiten, die völlig unkritisch sind und nur ins Horn von NV pusten.... Letztlich muß jeder selber zwischen den Zeilen lesen... Ich bewundere Leute wie Razor, diese Nervenstärke (andere nennen es Penetranz "g") ist schon beeindrucken..... Mich amüsiert es.
Asaraki
2002-02-13, 13:40:53
wieso ausgerechnet ich mich hier zu wort melde weiss ich auch nicht so recht also lasst das flamen lieber gleich sein, dass ich keine ahnung von 3d und der technik dahinter habe...
und ich zweifle auch nicht daran, dass auch razor eine gewisse ahnung davon hat, aber scheinbar ist er von seinem wissen etwas zu fest überzeugt. denn es scheint als könnte razor keine fehler eingestehen, was ja kein neues problem - besonders der männlichen exemplare unserer rasse- ist.
ich will dich hier nicht gross angreifen razor, bloss daran erinnern dass es bei diskussionen darum geht ein ergebnis zu haben, ein statement, halt um himmels willen die antwort auf eine frage... und es geht nicht darum dich zu profilieren oder andere davon zu überzeugen wer hier mehr weiss.
ich denke es hat hier viele leute die viel ahnung haben, besonders leute wie xmas die sich in ihrer materie wirklich auskennen!, very impressive xmas, und statt euch gegenseitig zu bekämpfen solltet ihr lieber sachlich über etwas diskutieren. ich an meiner stelle wäre froh nur die hälfte von eurem wissen zu haben, ihr dagegen streitet euch nicht mehr welche karte besser ist sondern wer von euch mehr ahnung haben soll...
just my 2 cents
edit :
es gibt da ein altes zitat, weiss aber nicht mehr von wem und wie es genau geht...
aber geht ungefähr so :
"alles, was du jemandem vorwirfst, solltest du zuerst bei dir selbst suchen"
ich nenne jetzt keine namen, aber bevor ihr andere regelrecht beflucht sie seien nicht objektiv etc... seid mal ganz ehrlich zu euch selbst und fragt euch ob ihr es denn wirklich seid...
es ist einiges schwieriger zu sich selbst ehrlich zu sein als andere zu belügen....
Exxtreme
2002-02-13, 13:43:22
@ dreizehn
Soetwas haben schon einige Leute vor dir versucht. Es hat leider nicht geholfen.
Gruß
Alex
Asaraki
2002-02-13, 13:45:17
exx, das ist mir schon klar... und ich weiss auch wieso das nicht hilft... aber "ignoranten" wird es immer geben...
ausserdem muss es wirklich schön sein sich selbst für den grössten zu halten, aber da hab ich ja nicht ganz soviel erfahrung wie du, razor....
Razor
2002-02-13, 14:06:13
@HOT
Na, da scheine ich Dir mit den Tetailergbnissen richtig Freude bereitet zu haben...
;-)
"Direkte Vergleiche lassen sich allerdings auch hier nicht ablesen, ..."
Exakt das wollte ich damit zum Ausdruck bringen !
Aber Du warst es, der den 3DMark als möglichen 'Beleg' nannte...
"Anhand dieser Benches jedoch ist die Pixelshaderperformance (v1.1) des R200 absolut i.o."
Ist immerhin fast 10% langsamer und das wo doch die PS-Technik bezogen auf den Wechsel von gf3 auf gf4 keine Änderung erfahren haben soll, die R8500 aber auf eine mind. 6 Monate neuere Technologie setzt. Insofern ist dieser Verlust vermutlich (!) direkt auf den PS1.4 zurück zu führen...
Aber Näheres werden wir sicher sehen, wenn man den 'Advanced PixelShader Test' des 3DMurk2k1SE in die Wagschale wirft, weil wohl auch die gf3 in der Lage ist, diesen auszuführen (vorläufig unbelegt, da entsprechende Screen-Vergleiche noch fehlen)...
"Ich bin sicher, dass hier noch weitere Optimierungen des Pixelshaders auf der R200 möglich sind - aud der NV25 sebstredend auch."
Insofern sage ich ja auch: Abwarten !
;-)
"Du siehst - im Grunde genommen sind diese Ergebnisse weder für HyperZ noch für LMA besonders aussagekräftig... "
Das sehe ich sogar exakt genauso und nichts anderes wollte ich dokumentieren !
@aths
Wer sich auf das Provozieren zurück zieht, hat keine Argumente mehr.
Finde ich sehr einsichtig von Dir, daß Du dieses erkennst !
;-)
@Thowe
Seltsam, wenn du schon darauf eingehst, auf etwas das ich als global geäussert habe, solltest du schon auf den Inhalt eingehen. Deshalb wiederhole ich die Frage, warum ist das bessere Feature-Set der R8500 schlechter als das der GF4TI.
Wo soll ich das gesagt haben ?
???
"Was meinst du? Ich sagte nicht hier und es war als global gekennzeichnet."
Dann habe ich Dich wohl falsch verstanden...
"Razor, wenn du mich zitierst, dann bitte komplett. Schneide dir bitte nicht die Teile so raus wie es dir passt, so zerstörst du den Zusammenhang den ich äusserte."
Was ich dann hiermit nachholen würde...
Ob sie irgendwann genutzt werden? Fraglich, aber sie sind da und bedeuten einen Fortschritt, sei es auch nur als Ideenansatz.
Ergibt das jetzt einen anderen Sinn ?
@Pengo
Was ist an dieser Bezeichnung auszusetzen? Wieso kann man eine Firma die sich langsam (2 Jahre) aber stätig auf die totale Pleite hinbewegt nicht als Bruchbude bezeichnen?
Vorsicht, Pengo !
Du läßt gerade blicken, daß Dir die Argumente ausgehen...
Oder doch nicht ?
;-)
"Solltest du wirklich tun! Die 3dCenter News sind oft mit etwas Anti-NVidia Salz gewürzt."
Ich habe auch manchmal das Gefühl, daß nicht mehr Leo diese verfaßt, sondern sich oft ein allseits bekannter Artikel-Verfasser dahinter verbirgt.
Ist natürlich nur eine Vermutung !
;-)
@Unreg.
Andererseits gibts genug Seiten, die völlig unkritisch sind und nur ins Horn von NV pusten.... Letztlich muß jeder selber zwischen den Zeilen lesen... Ich bewundere Leute wie Razor, diese Nervenstärke (andere nennen es Penetranz "g") ist schon beeindrucken.....
Thx, unbekannter weise...
;-)
"Mich amüsiert es."
Was zum Teil auch so beabsichtig ist !
;-)
@dreizehn
"ich will dich hier nicht gross angreifen razor,"
Tust Du nicht, jeder darf natürlich darüber denken, wie er möchte...
In diesem Sinne
Razor
[fu]121Ah
2002-02-13, 14:45:34
Originally posted by Razor
In diesem Sinne
Razor
oder eben in keinem sinne? lol
Razor
2002-02-13, 14:47:58
Originally posted by [fu]121Ah
oder eben in keinem sinne? lol
Zumindest war das jetzt sinnlos !
;-)
Razor
@Razor:
bevor wir uns wieder verhäddern nochmal meine Aussage in aller Geneauigkeit:
Ich bin der Meinung, dass man die HyperZ-II Performance durchaus beobachten kann, jedoch NICHT ALLEIN mit 3DMark2001 oder Villagemark!
Ich sage nur, dass man hier durchaus Schlüsse ziehen kann, DAS hast DU aber nicht verstanden!
Ich wollte zum Ausdruck bingen, dass die Villagemark keinen Transparenten Overdraw erzeugt und deshalb den eigentlichen Vorteil von HyperZ-II NICHT messen kann, sondern nur die klassischen HyperZ Elemente! In der 3DMark (vor allem bei denen von dir gebrachten Werten) kann man allerdings ganz deutlich eine TENDENZ beobachten, die ganz eindeutig deine Behauptung widerlegen, HyperZ II wäre nicht effektiver als LMAII! Wenn du dir die Dragithic High Detail genau anschaust, wird die eine MENGE transparenter Overdraw auffallen (Rauch, Feuer). Bei der Nature Scene gibt es durch das ganze Grünzeug eh einen verdammt hohen transparenten Overdraw. Gleichzeitig herrscht in diesen Scenen allerdings auch noch ein sehr hoher Polygonbasierter Overdraw, der den transparenten teilweise abdeckt. Hier sieht man genau, wie der Radeon dank HyperZ-II am Geforce4 vorbeizieht!
Mein Standpunkt ist aber, dass in Zukünftigen Games der Overdraw eine grosse Rolle spielen wird, und hier ist der Radeon8500 dank HyperZ-II klar im Vorteil!
Zum Pixelshader hab ich nur folgendes zu sagen: Es wird in der 3DMark nur EINE Anwendungsmöglichkeit des Pixelshaders dargestellt und misst lediglich die THEORETISCHE Performance. Dieser Test ist exakt genauso NICHTSSAGEND wie der Fillratetest! Vielmehr würd ich da auf die Nature Scene schauen, die mit der Radeon und 9xxx/6xxx Treibern ja richtig abgeht.
Razor
2002-02-13, 19:24:44
@HOT
Gut, dann werde ich Dir nun detaillierter Antworten:
"Ich wollte zum Ausdruck bingen, dass die Villagemark keinen Transparenten Overdraw erzeugt und deshalb den eigentlichen Vorteil von HyperZ-II NICHT messen kann, sondern nur die klassischen HyperZ Elemente!"
Halten wir also fest, daß hinsichtlich des Nicht-Transparenten Overdraws, das LMA2 dem HyperZII klar überlegen ist (bezogen auf den synthetischen Test: VillageMark).
"Wenn du dir die Dragithic High Detail genau anschaust, wird die eine MENGE transparenter Overdraw auffallen (Rauch, Feuer). Bei der Nature Scene gibt es durch das ganze Grünzeug eh einen verdammt hohen transparenten Overdraw. Gleichzeitig herrscht in diesen Scenen allerdings auch noch ein sehr hoher Polygonbasierter Overdraw, der den transparenten teilweise abdeckt."
Hinsichlich transparentem Overdraws kann HyperZII Vorteile gegenüber gebenüber LMA2 haben (bezogen auf den sythetischen Test: 3DMark2k1/Dragothic/Nature)
Eine kleine Einschränkung: 1,8% Performnceuntersheid bei Dragothic würde ich keinesfalls als 'klar vorbeizeihen' bezeichnen...
;-)
"Mein Standpunkt ist aber, dass in Zukünftigen Games der Overdraw eine grosse Rolle spielen wird, und hier ist der Radeon8500 dank HyperZ-II klar im Vorteil!"
Wie man an den 'U2 2002 Test' gut erkennen kann, denn dort liegt die R8500 auf dem Nivau einer Ur-gf3 (mind. 6 Monate technologisch älter ;-), oder sogar dahinter !
;-)
---
Einigen wir uns doch einfach darauf, das die R8500 theoretisch durchaus gute Ansätze liefern kann, die aber derzeit praktisch nicht umgesetzt werden können (dirch was auch immer ;-)...
In diesem Sinne
Razor
Micron
2002-02-13, 21:40:08
GeForce 4
[fu]121Ah
2002-02-13, 21:50:27
Originally posted by Razor
Zumindest war das jetzt sinnlos !
;-)
Razor
das war auch gewollt sinnlos
hmm, das unreal 2 auf ner gf3 entwickelt wird und erst dann auf andere hardware angepasst/optimiert wird lässt du gerne verschwinden oder?
die r8500 ist technologisch höher als ne gf4. speedmässig nicht, aber das stand auch nicht zur debatte
mit ganz liebem gruss damit mich razor wieder gerne hat...
Thowe
2002-02-13, 22:18:40
Originally posted by Razor
Wo soll ich das gesagt haben ?
???
Wieso beantwortest du eine Frage mit einer Gegenfrage? Ist dir die Antwort die du geben müsstest nicht genehm? Deshalb frage ich dich jetzt noch einmal, auch wenn es penetrant sein sollte, warum ist das bessere Feature-Set der R8500 schlechter als das der GF4TI?
Dann habe ich Dich wohl falsch verstanden...
Scheinbar. ;) :)
Ergibt das jetzt einen anderen Sinn ?
Ja, so ist die Kernaussage - "Fortschritt" und nicht "fraglich"
Rumbuddel
2002-02-13, 23:07:00
Tja, nach Seite vier bin ich dann mal direkt auf 9 gewechselt. Sollte also das, was ich nu sage bereits Erwähnung gefunden haben ... sorry!
Was ihr hier macht, ist doch wieder Äpfel mit Birnen vergleichen. Wie damals beim Kyro II. Der war der Konkurrent -preislich- zu den ganzen MX'en, wurde aber ständig in Relation zu GF 2 pro/ultra betrachtet.
Und mit der Radeon 8500 ist es doch genauso. Der 8500 ist der direkte Konkurrent zur GF 3 TI 500 und sonst nix. Und nu seht mal folgendes. Wie lange gibt es den TI 500 zu kaufen? Nicht allzu lange. Und, der Preis für gleiche Performance wie beim Radeon liegt um einiges höher. Nur, bei nVIDIA kommt jetzt der nächste High End Chip zu High End Preisen. Der TI 500 wird auslaufen, damit er ja keine günstige Konkurrenz zum TI 4600 darstellt. Also, wenn ich demnächst ein Graka haben will mit der gleichen, bzw. mehr Performance als der Radeon, kostet es mich mindestens das doppelte.
Die TI 4400 und 4200 kommen natürlich erst viel später raus, so daß nVIDIA die MX4 Varianten los wird und man noch keine Alternative zur TI 4600 hat.
Tja, die Radeon wird dagegen immer preiswerter und, ganz ehrlich, wann kommt denn wohl ein Spiel auf den Markt, welches nicht mehr mit ner 8500 spielbar ist?
Aber zurück zum Vergleich:
Radeon 8500 vers. GF 3 TI500
GF4 TI 4600 vers. Radeon xxxx
Denn, es handelt sich beim TI 4600 nunmal um die nächste Generation von nVIDIA und es wäre schon traurig, wenn er nicht schneller wäre.
Und noch eines solltet ihr bedenken. nVIDIA entwickelt seine HighEndPlatinen auf dem Hintergrund im Midrange fett abzusahnen. Mit abgespeckten und zu teuren Chips, die von den Benchmarks der Highendboards profitieren. Und genau diesen Markt wird ATI angreifen. Wer wird denn ne MX 4wasweisich kaufen, wenn es zum gleichen Preis eine 8500 von Hercules gibt.
Ok, noch mag diese Marktstrategie ziehen, aber wenn ATI so weiter macht, nicht mehr lange.
Tja, eigentlich wollte ich ja nur sagen, daß ihr die falschen Grakas vergleicht, aber dies musste auch mal gesagt werden.
so long
Razor
2002-02-13, 23:13:27
@[fu]121Ah
"hmm, das unreal 2 auf ner gf3 entwickelt wird und erst dann auf andere hardware angepasst/optimiert wird lässt du gerne verschwinden oder?"
Wo hast Du denn das her ?
Als die Entwicklung für U2 begann, war von der gf3 noch nicht allzuviel zu sehen !
???
"die r8500 ist technologisch höher als ne gf4."
Beleg ?
"mit ganz liebem gruss damit mich razor wieder gerne hat..."
Ich hab' Dich auch ganz doll lieb...
(na ja, zumindest war/bin ich Dir nicht böse, hoffe auch, daß Du das nicht zu ernst siehst !)
@Thowe
Thowe schrieb:
1. Ich verstehe nicht warum Features die von nVidia kommen Wegbereiter für neue Technologien und Entwicklungen sind, während die die von ATI oder der Konkurrenz kommen überflüssig sind. Dies will und kann ich nicht einsehen.
Razor schrieb:
aths hat hier eine Behauptung aufegstellt (im Pro&Contra-Forum übrigens ;-) und wir reden darüber, denn er hat es genau anders herum ausgedrück, wie Du das jetzt tust. Und da es immer gegensätzliche Meinungen gibt, muß es auch Zwangsläufig Gegenargumente geben.
Thowe schrieb:
Seltsam, wenn du schon darauf eingehst, auf etwas das ich als global geäussert habe, solltest du schon auf den Inhalt eingehen. Deshalb wiederhole ich die Frage, warum ist das bessere Feature-Set der R8500 schlechter als das der GF4TI.
Razor schrieb:
Wo soll ich das gesagt haben ?
Thowe schrieb:
Wieso beantwortest du eine Frage mit einer Gegenfrage? Ist dir die Antwort die du geben müsstest nicht genehm? Deshalb frage ich dich jetzt noch einmal, auch wenn es penetrant sein sollte, warum ist das bessere Feature-Set der R8500 schlechter als das der GF4TI?
Ich habe dies extra nochmals durchgelesen, weil mir der Hergang selber nicht mehr ganz gegenwärtig war...
In Deinem vorletzten Kommentar hast Du geschrieben:
"Deshalb wiederhole ich die Frage, warum ist das bessere Feature-Set der R8500 schlechter als das der GF4TI."
Sorry, wenn ich wieder nicht auf die Frage eingehe, aber wie kann etwas 'besseres' 'schlechter' sein ?
Du erwartest ernsthaft, daß ich auf so etwas antworte ?
Jede Antwort wäre da vergebens...
Thowe: "Ob sie irgendwann genutzt werden? Fraglich, aber sie sind da und bedeuten einen Fortschritt, sei es auch nur als Ideenansatz."
Razor: "Ergibt das jetzt einen anderen Sinn ?"
Thowe: "Ja, so ist die Kernaussage - "Fortschritt" und nicht "fraglich""
Also Deine Feststellung kann auch so übersetzt werden und ich denke dort auch nicht weit daneben zu liegen:
"Es ist fraglich ob sie [PS1.4] irgendwann genutzt werden. Aber sie sind da und bedeuten einen Fortschritt, sei es auch nur als Ideenansatz"
Und damit hast Du auch gleich die Begründung, warum nVidia diesen 'Ideenansatz' nicht in Hardware gegossen hat (nebst den vielen anderen sich daraus ergebenden Schwierigkeiten, siehe auch Forum: Haltung der medien zu ati & nVidia (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=11424&pagenumber=5)).
Bis dann
Razor
Thowe
2002-02-13, 23:22:04
Originally posted by Razor
Du erwartest ernsthaft, daß ich auf so etwas antworte ?
Jede Antwort wäre da vergebens...
Ich möchte ja nur hören wie du es äusserst, das dort die Radeon auf einem höheren Level liegt, mehr nicht. Weil wenn ich deine Postings so lese, habe ich das Gefühl das du nicht der Ansicht bist. ;)
Vielleicht irre ich mich ja auch nur. ;)
EDIT: Rechtschreibung, lol
Originally posted by Rumbuddel
Tja, nach Seite vier bin ich dann mal direkt auf 9 gewechselt. Sollte also das, was ich nu sage bereits Erwähnung gefunden haben ... sorry!
Was ihr hier macht, ist doch wieder Äpfel mit Birnen vergleichen. Wie damals beim Kyro II. Der war der Konkurrent -preislich- zu den ganzen MX'en, wurde aber ständig in Relation zu GF 2 pro/ultra betrachtet.
Und mit der Radeon 8500 ist es doch genauso. Der 8500 ist der direkte Konkurrent zur GF 3 TI 500 und sonst nix. Und nu seht mal folgendes. Wie lange gibt es den TI 500 zu kaufen? Nicht allzu lange. Und, der Preis für gleiche Performance wie beim Radeon liegt um einiges höher. Nur, bei nVIDIA kommt jetzt der nächste High End Chip zu High End Preisen. Der TI 500 wird auslaufen, damit er ja keine günstige Konkurrenz zum TI 4600 darstellt. Also, wenn ich demnächst ein Graka haben will mit der gleichen, bzw. mehr Performance als der Radeon, kostet es mich mindestens das doppelte.
Die TI 4400 und 4200 kommen natürlich erst viel später raus, so daß nVIDIA die MX4 Varianten los wird und man noch keine Alternative zur TI 4600 hat.
Tja, die Radeon wird dagegen immer preiswerter und, ganz ehrlich, wann kommt denn wohl ein Spiel auf den Markt, welches nicht mehr mit ner 8500 spielbar ist?
Aber zurück zum Vergleich:
Radeon 8500 vers. GF 3 TI500
GF4 TI 4600 vers. Radeon xxxx
Denn, es handelt sich beim TI 4600 nunmal um die nächste Generation von nVIDIA und es wäre schon traurig, wenn er nicht schneller wäre.
Und noch eines solltet ihr bedenken. nVIDIA entwickelt seine HighEndPlatinen auf dem Hintergrund im Midrange fett abzusahnen. Mit abgespeckten und zu teuren Chips, die von den Benchmarks der Highendboards profitieren. Und genau diesen Markt wird ATI angreifen. Wer wird denn ne MX 4wasweisich kaufen, wenn es zum gleichen Preis eine 8500 von Hercules gibt.
Ok, noch mag diese Marktstrategie ziehen, aber wenn ATI so weiter macht, nicht mehr lange.
Tja, eigentlich wollte ich ja nur sagen, daß ihr die falschen Grakas vergleicht, aber dies musste auch mal gesagt werden.
so long
Volle Zustimmung
Originally posted by Thowe
Ich möchte ja nur hören das du es äusserst das dort die Radeon auf einem höheren Level liegt, mehr nicht. Weil wenn ich deine Postings so lese, habe ich das Gefühl das du nicht der Anschicht bist. ;)
Vielleicht ihre ich mich ja auch nur. ;)
Schon die erste Radeon war technisch WESENTLICH weiter entwickelt als Hauptkonkurrent Geforce2. Die Radeon8500 ist auch technisch wesentlich weiter als eine G3(Ti). Das ist aber auch kein Wunder, da diese Karten viel später kamen als ihre Konkurrenten. Das Einzige, was jetzt zu bemängeln ist, ist, dass sich der Geforce4 einfach nicht besonders von der Vorgängergeneration abhebt und somit technisch in etwa auf dem Stand der Radeon8500 ist (oder knapp darunter, je nach Sichtweise). Auch performancemässig hat man bei der Geforce4 eigentlich nur an der Taktschraube gedreht - bei gelichem Takt ist der Geforce4 nicht signifikant schneller als eine G3 Ti500 oder Radeon8500 Retrail. Beim Sprung von der Geforce1 zur Geforce2 war es ja immerhin noch so, dass eine Geforce2 erheblich schneller war, als eine Geforce1, allein durch die Tatsache, dass eine weitere TMU hinzugekommen ist (aber auch der Taktvorsprung war wesentlich höher). Wenn man die Geforce4 sieht, wird man das Gefühl nicht los, dass das eigentlich mal die wirkliche Geforce3 werden sollte.
Es gibt eigentlich kaum einen Unterschied von der 3er zur 4er, das finde ich ist zu bemängeln. Ob der Pixelshader 1.3 wirklich ne Innovationsbremse ist, bleibt mal dahingestellt - Fakt ist jedenfalls, dass der Pixelshader 1.4 einfach flexiblere Möglichkeiten bietet. Mal sehen, mit was für einem Pixelshader die KyroIII ausgestattet wird und mal sehen, auf was DirectX 9 aufbaut.
Und was mit "echten" Innovationsbremsen geschieht, hat man ja an 3Dfx durchaus beobachten können ;).
Razor
2002-02-14, 00:17:48
Originally posted by Thowe
Ich möchte ja nur hören wie du es äusserst, das dort die Radeon auf einem höheren Level liegt, mehr nicht. Weil wenn ich deine Postings so lese, habe ich das Gefühl das du nicht der Ansicht bist. ;)
Vielleicht irre ich mich ja auch nur. ;)
Es gibt sinnvolle und es gibt weniger sinnvolle Entwicklungen...
Die PS1.4 zähle ich zu den weniger sinnvollen.
(meine persönliche Einstellung)
Nicht, weil sie technologisch weniger entwickelt sind, sondern eher weil zu viel 'Unruhe' in den Markt bringen.
Auf der anderen Seite kann ich ATI ja auch verstehen, da sie sich einfach von der Konkurenz absetzen mussten.
In die gleiche Kategorie zähle ich Truform, welches ebenfalls nur dazu da war/ist (wieder nur meine Meinung), eine sofortige Lösung für alte Spiele zu generieren, eine auf PC-Basis eher neue Technologie, eben besagte 'curved surfaces' verfügbar zu machen. Richtig 'verwirrt' war ich, als sie noch vor dem Release der R8500 verlautbarten, die polynominale Flächen, die nVidia bereits im gf3 realisierte, spätestens im R300 nachzurechen...
Wäre die R8500 zum Zeitpunkt der gf3 gekommen, hätte ich Euch in allen Punkten zugestimmt, aber das was Ihr der gf4 vorwerft (Innvoationsbremse, Innovationslosigkeit), werfe ich der R8500 vor...
Sicher mag dies zum Teil unglaubwürdig klingen, aber ich meine das wirklich ernst !
Und wie gesagt, im Prinzip kann ich ATI sogar verstehen...
Bis dann
Razor
Quasar
2002-02-14, 00:23:02
Originally posted by Rumbuddel
Aber zurück zum Vergleich:
Radeon 8500 vers. GF 3 TI500
GF4 TI 4600 vers. Radeon xxxx
Denn, es handelt sich beim TI 4600 nunmal um die nächste Generation von nVIDIA und es wäre schon traurig, wenn er nicht schneller wäre.
Diese Logik ist fehlerhaft. Man sollte die Produkte vergleichen, die am Markt sind, bzw. die man aufgrund vorliegender Muster auch vergleichen kann.
Ansonsten wäre ja die Voodoo5 z.B. noch der überflieger, läßt sie doch eine GeForce256 (SDR!) im Regen stehen, die DDR-Version wäre ja schon das Nachfolgeprodukt....so geht das imho nicht, schließlich ist es in diesem Falle ja nicht nVidias Schuld wenn ATi sich mehr Zeit mit einem neuen Produkt läßt/mit der Entwicklung nicht hinterherkommt/den Kunden nicht durch Refreshes abzockt/einen Entwicklungszyklus hinterherhinkt...
Razor
2002-02-14, 00:30:32
@HOT
Beim Sprung von der Geforce1 zur Geforce2 war es ja immerhin noch so, dass eine Geforce2 erheblich schneller war, als eine Geforce1, allein durch die Tatsache, dass eine weitere TMU hinzugekommen ist (aber auch der Taktvorsprung war wesentlich höher). Wenn man die Geforce4 sieht, wird man das Gefühl nicht los, dass das eigentlich mal die wirkliche Geforce3 werden sollte.
Wenn man die GeForce4(ti) sieht, dann erkennt man, daß die gf3 schon sehr weit war...
Auch bei der gf4 ist wieder etwas dazu gekommen, nämlich der 2. Vertex-Shader. Dieser wird von derzeitigen Beta-Treibern (es ist noch nicht eine einzige gf4ti zu kaufen !) vermutlich noch nicht voll untestützt, so daß bisher lediglich das verbesserte LMA und der höhere Takt zum Tragen kommt. Auch sollte man bedenken, daß der NV25 im Prinzip schon mit dem NV2A (ohne die Northbridge, selbstverständlich ;-) verfügbar war. LMA2 und auch das leicht veränderte MSAA (Accuview) sind lediglich kosmetische Änderungen, aber IMHO keine Innovation.
Es gibt eigentlich kaum einen Unterschied von der 3er zur 4er, das finde ich ist zu bemängeln. Ob der Pixelshader 1.3 wirklich ne Innovationsbremse ist, bleibt mal dahingestellt - Fakt ist jedenfalls, dass der Pixelshader 1.4 einfach flexiblere Möglichkeiten bietet.
Warum ?
Selbst Leute wie Thowe und Aths würden sich eine gf4 zulegen, weil viele Ihrer Bedenken mit der gf4ti ausgeräumt wurden. Die gf3 hat sie offensichtlich nicht überzeugt, aber die gf4 schon...
Ich persönlich sehe das im Prinzip genauso wie Du (abgesehen von den PS1.4 ;-)...
Mal sehen, mit was für einem Pixelshader die KyroIII ausgestattet wird und mal sehen, auf was DirectX 9 aufbaut.
Und was mit "echten" Innovationsbremsen geschieht, hat man ja an 3Dfx durchaus beobachten können ;).
Die KyroIII halte ich zur Zeit noch für einen schönen Traum !
;-)
Und die 'Innvoationsbremse' 3dfx ist an der eigenen Gier zugrunde gegangen, was nur sehr wenig mit geringer Innvation zu tun gehabt haben dürfte, denn mit einer äusserst 'effektiven' Mißwirtschaft...
Bis denne
Razor
Originally posted by Razor
Wäre die R8500 zum Zeitpunkt der gf3 gekommen, hätte ich Euch in allen Punkten zugestimmt, aber das was Ihr der gf4 vorwerft (Innvoationsbremse, Innovationslosigkeit), werfe ich der R8500 vor...
Deine Meinung in allen Ehren, ich würde nur gern wissen auf welcher Grundlage du das tust.
Razor
2002-02-14, 01:27:50
Oh Gott, Xmas...
Jetzt noch ?
Ich muß sagen, daß mir irgendwie schon die Augen schwer werden und das letzte Bier wohl schlecht war...
;D
Ich versuchs mal in Kürze:
Turform = halbes HOS
PS1.4 = Marketingvariante von PS1.1, halbe PS2.0
Aber ganz ehrlich ?
Soooo schlecht ist die R8500 gar net, aber sooo gut eben auch nicht.
Fortschrittlich wär sie, wenn sie was wirklich innovatives bringen würde, was sie aber nicht tut.
(was nVidia mit der gf4 auch nicht macht !)
*Gääääääähhhhhhnnnnnn*
Ich geh' jetzt ins Bett !
Gute Nacht, oder guten morgen ?
Egal...
*gäääähhhhn*
Wird zeit...
Razor
Schnitzl
2002-02-14, 03:28:28
Hallo,
ich wollte als Laie ;) nur mal anmerken:
ATI hat im Sommer 2001 die R8500 mit PS1.4 vorgestellt.
So wie ich das hier sehe, ist der deutlich besser als PS 1.0 oder 1.1
Nun kommt Nvidia und bastelt sich den PS1.3
Das erinnert mich an Mikroweich. Im Internet gabs/gibt es
einen HTML-Standard, Mikroweich aber kocht sein eigenes Süppchen
und sagt dann, dass alle anderen inkompatibel zum Internet Explodierer sind *ups*
Ganz abgesehen davon, dass sich viele Leute ne GF4MX kaufen werden und glauben,
sie haben ne topschnelle hightech-Karte und wundern sich dann, dass
beim "Nachbarn" mit seiner "alten" Radeon8500 alles viel schneller ist *sowas*
Wie ein 2 Ghz P-IV mit 64 MB - Gratulation an die Marketing-Abteilung von Nvidia *kotz!*
Unregistered
2002-02-14, 09:44:09
Originally posted by Quasar
Diese Logik ist fehlerhaft. Man sollte die Produkte vergleichen, die am Markt sind, bzw. die man aufgrund vorliegender Muster auch vergleichen kann.
Ansonsten wäre ja die Voodoo5 z.B. noch der überflieger, läßt sie doch eine GeForce256 (SDR!) im Regen stehen, die DDR-Version wäre ja schon das Nachfolgeprodukt....so geht das imho nicht, schließlich ist es in diesem Falle ja nicht nVidias Schuld wenn ATi sich mehr Zeit mit einem neuen Produkt läßt/mit der Entwicklung nicht hinterherkommt/den Kunden nicht durch Refreshes abzockt/einen Entwicklungszyklus hinterherhinkt...
Das ist schon richtig, aber man kann sie nicht als Produkte vergleichen, die sich auf gleicher Entwicklungsstufe befinden. Daher verstehe ich auch die ATI Befürworter -btw. habe selber eine- nicht, daß sie unbeingt die Radeon 8500 vor der GF4 sehen wollen. Und wenn schon nicht in der Performance, dann wenigstens technisch. Die Konkurrenz wird erst der nächste ATI Chip. Und das nVIDIA nicht revolutioniert sondern eine äußerst konservative Produktentwicklung verfolgt, ist ja nun nichts neues.
Die Frage bei Vergleichen ist, was man wie warum vergleicht. Entweder nan vergleicht die Technik, läßt dann aber die Performance weg, da GF4 ja schon nächste Entwicklungsstufe, und stellt somit fest, das der neue von nVIDIA nicht viel neues zu bieten hat, ODER man vergleicht die Performance, bzw. den Performancezuwachs, aber unter berücksichtigung das es sich um einen Vergleich zwischen zwei Chipgenerationen handelt. Und, wenn es um die Qualität und Performance geht, gehört hierbei immer eine Relation zum Preis.
Aber einfach so kreuzdiequervergleichen macht wenig Sinn, ist für außenstehende verwirrend und nutzt in keinster Weise für irgendetwas.
so long
TBird
2002-02-14, 10:10:17
Ich verstehe die ganze Aufregung über den fehlenden PS1.4 bei der GF4 Ti nicht. Die Spieleentwickler wird es jedenfalls nicht daran hindern PS1.4 einzusetzen und zur Laufzeit den entsprechenden Support abzufragen. Genauso wie bei Truform. Dieses Vorgehen war schon immer so Gang und Gebe. Von Entwicklungsbremse zu sprechen ist somit total neben der Sache und richtet die Augen auf Probleme mit denen Entwickler schon immer zu kämpfen hatten, da es zu keiner Zeit Hardware von verschiedenen Herstellern gab mit identischen Funktionsmerkmalen (wie z.B. bei den Konsolen). Für die PC Plattform Spiele zu entwickeln heißt und hieß immer auch Kompromisse einzugehen und zwar nicht nur bei der Grafik.
Exxtreme
2002-02-14, 10:41:03
Originally posted by TBird
Ich verstehe die ganze Aufregung über den fehlenden PS1.4 bei der GF4 Ti nicht. Die Spieleentwickler wird es jedenfalls nicht daran hindern PS1.4 einzusetzen und zur Laufzeit den entsprechenden Support abzufragen. Genauso wie bei Truform. Dieses Vorgehen war schon immer so Gang und Gebe. Von Entwicklungsbremse zu sprechen ist somit total neben der Sache und richtet die Augen auf Probleme mit denen Entwickler schon immer zu kämpfen hatten, da es zu keiner Zeit Hardware von verschiedenen Herstellern gab mit identischen Funktionsmerkmalen (wie z.B. bei den Konsolen). Für die PC Plattform Spiele zu entwickeln heißt und hieß immer auch Kompromisse einzugehen und zwar nicht nur bei der Grafik.
Siehst du? Und das glaube ich wiederum nicht. Warum? Du hast einen sehr wichtigen Faktor vergessen, nämlich die Kosten. Ich glaube nicht, daß irgendein Spielehersteller (ausser J.C. natürlich) für PS 1.1 und PS 1.4 entwickeln wird, weil es einfach mehr Geld kostet diese Parallel-Entwicklung. Die Spielepublisher schaffen es heute (angeblich wegen den Kosten) kaum noch halbwegs bugfreie Spiele auf den Markt zu werfen (ausser J.C. natürlich). Die werden wahrscheinlich den PS 1.1 einbauen plus ein DX7-Fallback für ältere GraKas. Bei TruForm bin ich zuversichtlicher, da es abwärtskompatibel zu älteren GraKas ist und der Implementierungsaufwand nicht so hoch sein soll.
Gruß
Alex
TBird
2002-02-14, 11:16:40
Originally posted by Exxtreme
Siehst du? Und das glaube ich wiederum nicht. Warum? Du hast einen sehr wichtigen Faktor vergessen, nämlich die Kosten. Ich glaube nicht, daß irgendein Spielehersteller (ausser J.C. natürlich) für PS 1.1 und PS 1.4 entwickeln wird, weil es einfach mehr Geld kostet diese Parallel-Entwicklung. Die Spielepublisher schaffen es heute (angeblich wegen den Kosten) kaum noch halbwegs bugfreie Spiele auf den Markt zu werfen (ausser J.C. natürlich). Die werden wahrscheinlich den PS 1.1 einbauen plus ein DX7-Fallback für ältere GraKas. Bei TruForm bin ich zuversichtlicher, da es abwärtskompatibel zu älteren GraKas ist und der Implementierungsaufwand nicht so hoch sein soll.
Gruß
Alex
Von Mehrkosten und Parallel-Entwicklung bei PS1.4 und Truform-Support zu sprechen finde ich sehr stark übertrieben. Das DX7-Fallback erfordert jedenfalls einen höheren Implementierungsaufwand als PS1.4 oder Truform-Support, da sich die Interfaces und Methoden von DX7 zu DX8 stark verändert haben und man somit bei der Programmierung nahezu zweigleisig fahren müßte. Hier könnte man wirklich fast von Parallel-Entwicklung und somit Mehrkosten sprechen. Einen zusätzlichen PS1.4 oder TruformSupport zu schreiben erfordert weit weniger Zeit. Das sieht man schon allein daran, wie schnell bei Erscheinen der R8500 in einigen Spielen TruformSupport per Patch nachgerüstet worden ist und es sogar in neueren Spielen per Option verfügbar gemacht wird ohne das die Spiele einen Pfennig mehr kosten oder Spielefirmen dadurch pleite gehen. Daher bin ich zuversichtlich, daß es die Entwickler nicht belasten wird, da es sich wirklich um einen geringen Mehraufwand handelt.
Labberlippe
2002-02-14, 12:09:53
Also um mal eines Klar zu stellen.
Das einzige warum nVIDIA vorgeworfen wurde das diese die Technologie bremsen würden, war wegen der MX Serie.
Freileich wurde im gleichen Atemzug auch erwähnt das PS 1.4 noch immer nicht integriert ist.
Hier ist es eher der Stolz von nVIDIA sich dieser Technik zu verschliessen.
Kommt ja auch nicht von Ihnen gelle ;-)
Dennoch gibt es etwas Positives.
Der PS 1.4 funzt anscheinend auch auf einer GeForce3, allerdings benötigt diese mehrer Passes was zu kosten der Performance geht.
APT bei 2001SE Radeon ca. 80 fps. Geforce3 ca. 50 fps.
Aber laufen tut es.
Ergo vielleicht neigen auch die hersteller dazu auf PS 1.4 zu setzten, den mit der nVIDIA HW läuft es ja auch.
Die Frage ist nur lässt nVIDIA das zu?
Wäre ja fatal wenn Ihre Karten dann langsamer wären als die der Mitbewerber.
Auch wenn einige hier sich freuen weil die Radeon unter PS 1.1 10% langsamer ist, sollte man bedenken das diese die Befehle "emulieren" muss.
Da ist 10% Speed Verlust nicht viel.
Wobei der neue Treiber nochmal einen festen Zahn zulegt.
Zwischen PS1.4 und 1.1 ist die GeForce3 über 20% langsamer, weil diese mehr Passes braucht.
Wurscht beide Systeme haben Ihre Vorteile.
Gruss Labberlippe
Originally posted by Razor
Wenn man die GeForce4(ti) sieht, dann erkennt man, daß die gf3 schon sehr weit war...
Auch bei der gf4 ist wieder etwas dazu gekommen, nämlich der 2. Vertex-Shader. Dieser wird von derzeitigen Beta-Treibern (es ist noch nicht eine einzige gf4ti zu kaufen !) vermutlich noch nicht voll untestützt, so daß bisher lediglich das verbesserte LMA und der höhere Takt zum Tragen kommt. Auch sollte man bedenken, daß der NV25 im Prinzip schon mit dem NV2A (ohne die Northbridge, selbstverständlich ;-) verfügbar war. LMA2 und auch das leicht veränderte MSAA (Accuview) sind lediglich kosmetische Änderungen, aber IMHO keine Innovation.
gut das du's einsiehst ;) aber der Vertexshader läuft doch schon recht gut. Der Dual Vertexsshader schliesst auf jeden Fall die Lücke zum Radeon8500. Ob man da noch mehr Leistung insgesamt duch den 2. Vertexshader bekommt, wage ich ehrlichgesagt zu bezweifeln, da die Renderleistung nicht sonderlich gestiegen ist dun die Geometrieleistung nicht unbedingt gebraucht wird - das steht ja immer miteinander im Verhältnis. ATI hat sein T&L ja nur so stark forciert, da sie es wegen Truform wirklich BRAUCHEN.
Warum ?
Selbst Leute wie Thowe und Aths würden sich eine gf4 zulegen, weil viele Ihrer Bedenken mit der gf4ti ausgeräumt wurden. Die gf3 hat sie offensichtlich nicht überzeugt, aber die gf4 schon...
das lassen wir doch lieber die Leute für sich entscheiden, ich masse mir da keine Entscheidung für aths, thowe etc an. Desweiteren würd ich mit auch ne G4 holen, wenn ich einen Geldscheisser hätte :D. Da ich sowas aber nicht besitze, warte ich erst auf die Konkurrenzprodukte und entscheide mich erst dann. Das würd ich sowieso jedem empfehlen, da ich das für sinnvoller halte, als blind einfach nur eine Firma zu kaufen (so wie Richthofen usw. das gerne tun ;) bitte nicht zu ernst/persönlich nehmen).
Ich persönlich sehe das im Prinzip genauso wie Du (abgesehen von den PS1.4 ;-)...
da die Unterstützung der PS noch Zukunftsmusik ist, brauchen wir uns darum auch nicht mehr zu streiten
Die KyroIII halte ich zur Zeit noch für einen schönen Traum !
;-)
Aber ein WIRKLICH schöner. Ich bin da sehr optimistisch ;)
Und die 'Innvoationsbremse' 3dfx ist an der eigenen Gier zugrunde gegangen, was nur sehr wenig mit geringer Innvation zu tun gehabt haben dürfte, denn mit einer äusserst 'effektiven' Mißwirtschaft...
Das sehe ich ein WENIG anders. Du glaubst doch wohl nicht das NV weniger "gierig" ist als 3Dfx! 3Dfx hat eine andere Strategie verfolgt als NV. 3Dfx hat nur auf Speederweiterungen und massvolle Featureseterweiterungen gebaut. Die Multichiplösungen und der Zukauf von STB haben ihnen IMHO letztendlich das Genick gebrochen. Das Problem von 3Dfx war von Anfang an, dass sie den Markt falsch beurteilt haben. Wenn sie von Anfang an auf offene Standarts und offene Schnittstellen gegangen wären, würden sie auch heut noch existieren. Das Problem bei NV ist einfach, dass sie jetzt auch schon damit anfangen. Der Pixelshader 1.3 ist ein reiner NV Standart und nicht offen. ATi blieb eigentlich gar nichts anderes übrig, als einen eigenen zu entwickeln und ich muss sagen, dass der PS1.4 wirklich beeindruckend ist.
Aber das ist bei Marktführern eben so, die Konkurrenz holt immer auf. Das ist bei AMD und Intel so gewesen, 3Dfx und NVidia (ATi war zur der Zeit lediglich OEM Lieferant) und jetzt bahnt sich der Kampf zwischen 3 Firmen (ATI, NV und PowerVR) an, wobei NVidia schon seine Trümpfe (G4) ausgespielt hat. Bei DX9 spielen dann noch ein paar mehr Player mit: Matrox und S3 Graphics. Was mit Bitboys ist, weiss ja keiner so genau.
Wie auch immer, nach der CeBit sehen wir weiter ;)
Originally posted by HOT
. Der Pixelshader 1.3 ist ein reiner NV Standart und nicht offen. ATi blieb eigentlich gar nichts anderes übrig, als einen eigenen zu entwickeln
Das glaube ich nicht.
Da PS1.3 im DX8 Standard drin ist, ist es ein offener Standard. Wie PS1.4 auch.
TBird
2002-02-14, 13:21:34
Originally posted by ow
Das glaube ich nicht.
Da PS1.3 im DX8 Standard drin ist, ist es ein offener Standard. Wie PS1.4 auch.
Richtig.
Von NV-Shadern oder ATI-Shadern zu reden macht keinen Sinn. Die Shader werden von DX8.1 genau spezifiziert und nicht vom einzelnen Hardware-Hersteller.
ok, mein fehler ;) allerdings sollte man OpenGL hier nicht ausser Acht lassen.
TBird
2002-02-14, 13:57:18
Originally posted by HOT
ok, mein fehler ;) allerdings sollte man OpenGL hier nicht ausser Acht lassen.
Stimmt ;)
In OpenGL 1.3 ist es aber nicht standardisiert sondern muß mittels Extensions erst verfügbar gemacht werden. Die vorhandenen Befehle, Register und Modifier sind aber die selben wie bei DX8.1.
Außerdem finde ich den Namen VertexShader verwirrend. In OpenGL heißt es wenigstens VertexProgram, denn mit "shading" haben ja VertexShader nun nicht gerade viel zu tun. ;)
Originally posted by Labberlippe
Dennoch gibt es etwas Positives.
Der PS 1.4 funzt anscheinend auch auf einer GeForce3, allerdings benötigt diese mehrer Passes was zu kosten der Performance geht.
APT bei 2001SE Radeon ca. 80 fps. Geforce3 ca. 50 fps.
Aber laufen tut es.
PS 1.4 läuft nicht auf GeForce3/4. Der Advanced Pixelshader Test im 3DMark2k1 SE hat einen Fallback auf PS 1.1, der ähnliche Ergebnisse bringt, das heißt aber nicht dass das immer möglich ist.
Razor,
wenn du das so siehst, dann kann ich verstehen dass du die R8500 als innovationslos ansiehst (obwohl ich diese Meinung sicher nicht teile), aber als Innovationsbremse? Die R8500 kann praktisch alles, was die GF4 auch kann (über HOS kann man nur spekulieren). Und ein bisschen mehr. Jedenfalls wird sicher kein Feature von den Spieleentwicklern verschmäht, nur weil die Radeon es nicht kann.
Labberlippe
2002-02-14, 14:55:30
Originally posted by Xmas
PS 1.4 läuft nicht auf GeForce3/4. Der Advanced Pixelshader Test im 3DMark2k1 SE hat einen Fallback auf PS 1.1, der ähnliche Ergebnisse bringt, das heißt aber nicht dass das immer möglich ist.
Razor,
wenn du das so siehst, dann kann ich verstehen dass du die R8500 als innovationslos ansiehst (obwohl ich diese Meinung sicher nicht teile), aber als Innovationsbremse? Die R8500 kann praktisch alles, was die GF4 auch kann (über HOS kann man nur spekulieren). Und ein bisschen mehr. Jedenfalls wird sicher kein Feature von den Spieleentwicklern verschmäht, nur weil die Radeon es nicht kann.
Hmm
Gut wenn die Hersteller aber einen solchen Fallback machen, wäre es auch nicht gerade als negativ zu betrachten.
Würde ich mal sagen.
Gruss Labberlippe
Pengo
2002-02-14, 18:17:18
Originally posted by Xmas
PS 1.4 läuft nicht auf GeForce3/4. Der Advanced Pixelshader Test im 3DMark2k1 SE hat einen Fallback auf PS 1.1, der ähnliche Ergebnisse bringt, das heißt aber nicht dass das immer möglich ist.
auf PS 1.0
Razor
2002-02-14, 23:24:49
@Schnitzl
"ATI hat im Sommer 2001 die R8500 mit PS1.4 vorgestellt."
Und die ersten Karten waren dann im November verfügbar...
;-)
"So wie ich das hier sehe, ist der deutlich besser als PS 1.0 oder 1.1"
Wo hast Du denn das jetzt her ?
Wir haben uns hier lediglich um den Begriff 'Fortschritt' in diesem Zusammenhang gemacht. Das er dann auch wirklich 'besser' sein soll, muß sich erst noch heraus stellen...
(Erst einmal muß sich allerdings zeigen, ob er überhaupt genutzt werden wird)
"Nun kommt Nvidia und bastelt sich den PS1.3 "
Kann das sein, das Du hier irgendwas in den falschen Hals bekommen hast ?
Oder was sagt Dir die Tatsache, daß 1.3 nunmal immer noch VOR 1.4 kommt ?
???
@Unreg.
"Und das nVIDIA nicht revolutioniert sondern eine äußerst konservative Produktentwicklung verfolgt, ist ja nun nichts neues."
Sowohl als auch...
Wer war derjenige, der als erstes die DX8-Technologie brachte (mind. 6 Monate vor der R8500 !) ?
Aber sie sind eben auch konservativ (die 'geraden' Nümmerchen ;-), was ihnen aber hinsichtlich der Umsatzzahlen durchaus recht zu geben scheint...
"Die Frage bei Vergleichen ist, was man wie warum vergleicht."
Eher nicht, denn es heißt: "Alles mit allem !"
;-)
Und eines noch: Die gf4(ti) ist keine neue Generation, sondern lediglich ein (potenter) Aufguß bestehender Technologie. Das an sich ist aber nichts Neues, denn das hat nVidia mit den 'Geraden' schon immer so gemacht und merkwürdiger Weise habe sie damit dann auch das meiste Geld gemacht (die höchsten Absatzzahlen). Wenn die gf4-Linie wieder so ein Erfolg wird, wie seinerzeit die gf2-Linie, dann werden wir noch einige Wunder erleben...
@TBird
"...Probleme mit denen Entwickler schon immer zu kämpfen hatten, da es zu keiner Zeit Hardware von verschiedenen Herstellern gab mit identischen Funktionsmerkmalen..."
Wozu soll dann so etwas wie D3D (als Teil von DirectX) gut sein ?
Wenn Du nur OpenGL meinst, dann gebe ich Dir zum Teil recht...
"Von Mehrkosten und Parallel-Entwicklung bei PS1.4 und Truform-Support zu sprechen finde ich sehr stark übertrieben."
Sehe ich nicht so und kann Exxtreme hier nur zustimmen...
"Das DX7-Fallback erfordert jedenfalls einen höheren Implementierungsaufwand als PS1.4 oder Truform-Support, da sich die Interfaces und Methoden von DX7 zu DX8 stark verändert haben und man somit bei der Programmierung nahezu zweigleisig fahren müßte."
Schon mal die FAQ des neuen 3DMurks2k1SE zu PS1.1 vs. PS1.4 gelesen ?
Da wird das Problem sehr deutlich angesprochen, denn man kann entweder voll auf PS1.1 hin optimieren und dies wäre dann den PS1.4 überlegen oder eben auf PS1.4 hin optimieren und müsste dann die Effekte als Fall-Back über Multipasses realisieren. Je nach Implementierung würde also das eine oder das andere schneller sein. Will man beides optimal unterstützen, dann muß man doppelten Aufwand betreiben. Wenn man nun noch ein DX7-Fallback dazu 'braucht', ist der Aufwand maximal !
(dies versucht J.C. natürlich - gruß an Exxtreme - wohl gerade zu realisieren ;-)
Und da Truform derzeit nur auf R8500-Karten läuft, muß also der diesbezügliche Aufwand an dem zu erwartenden Nutzen gemessen werden. Auf jeden Fall kann man auf Details nicht verzichten (was ein Vorteil in der Entwicklung wäre), weil's sonst auf anderen Karten recht bescheiden aussehen würde (trotz 'Abwärtskompatibilität ;-)...
@Laberlippe
"Das einzige warum nVIDIA vorgeworfen wurde das diese die Technologie bremsen würden, war wegen der MX Serie."
Na, da scheinst Du aber was verpaßt zu haben !
;-)
"Hier ist es eher der Stolz von nVIDIA sich dieser Technik zu verschliessen."
'Stolz' ist ebenfalls etwas, worauf man in einer Markwirtschaft verzichten sollte...
(DAS was mit Sicherheit nicht der Grund ;-)
"Der PS 1.4 funzt anscheinend auch auf einer GeForce3, allerdings benötigt diese mehrer Passes was zu kosten der Performance geht."
Was dann allerdings den Begriff 'fortschrittlicher' bezogen auf die PS1.4 in Frage stellen dürfte...
"APT bei 2001SE Radeon ca. 80 fps. Geforce3 ca. 50 fps.
Aber laufen tut es. "
Also die Ergebnisse, die ich bisher gelesen habe sagen dies:
gf3: 50-75fps
r8500: 70-85fps
Aber selbst die Leutz von MadOnion sagen, daß man hier keine Vergleich anstellen soll, denn hätte man nicht auf die Radeon hin optimiert (PS1.4), sondern auf die gf3 (PS1.1), dann hätte es genau anders herum ausgesehen, ohne auch nur einen Effekt zu verlieren !
"Ergo vielleicht neigen auch die hersteller dazu auf PS 1.4 zu setzten, den mit der nVIDIA HW läuft es ja auch."
Du meinst also, daß die Entwickler auf PS1.4 setzen sollen, um dann noch zusätzlich einen FallBack für die PS1.1 zu implementieren ? Warum dann nicht umgekehrt ?
Entwicklung für die PS1.1 und dann (wenn die Mittel und die Zeit reichen ;-) eben noch eine Optimierung für den PS1.4 einbauen (selbe Effekte, nur schneller) !
"Die Frage ist nur lässt nVIDIA das zu?
Wäre ja fatal wenn Ihre Karten dann langsamer wären als die der Mitbewerber."
Was sollen sie daran ändern, wenn sich die Entwickler dafür entscheiden ?
Die Frage ist also: Werden die Entwickler den Mehraufwand tragen, oder gehen sie den einfachsten Weg (i.e. PS1.4). Schließlich würde dabei eine weit weniger zahlreiche Hardwarebasis 'benachteiligt'...
@HOT
"gut das du's einsiehst, aber der Vertexshader läuft doch schon recht gut. Der Dual Vertexsshader schliesst auf jeden Fall die Lücke zum Radeon8500."
Darüber würde ich an Deiner Stelle lieber noch keine Aussage machen und erst einmal finale gf4ti-Treiber abwarten !
;-)
Vermutlich 'schließt' der Dual-Vertex nicht nur 'die Lücke', sondern dürfte gehörig Dampf machen (wenn er denn vernünftig unterstützt wird !).
"Ob man da noch mehr Leistung insgesamt duch den 2. Vertexshader bekommt, wage ich ehrlichgesagt zu bezweifeln, da die Renderleistung nicht sonderlich gestiegen ist dun die Geometrieleistung nicht unbedingt gebraucht wird - das steht ja immer miteinander im Verhältnis."
Nicht ganz, denn die Frage ist, inwieweit sich Vertex-Streams parallelisieren lassen. Aber ich vermute, daß die XBox-Spiele-Entwickler gerade eine 'Lösung' dafür finden....
;-)
"ATI hat sein T&L ja nur so stark forciert, da sie es wegen Truform wirklich BRAUCHEN."
Das würde ich allerdings mit einem ganz großen Fragezeichen versehen wollen !
"das lassen wir doch lieber die Leute für sich entscheiden, ich masse mir da keine Entscheidung für aths, thowe etc an."
Das war nun lediglich rezitiert und keine Feststellung von mir !
;-)
"Desweiteren würd ich mit auch ne G4 holen, wenn ich einen Geldscheisser hätte"
Oder eben langsam wirklich was Neues bräuchtest !
"Da ich sowas aber nicht besitze, warte ich erst auf die Konkurrenzprodukte und entscheide mich erst dann. Das würd ich sowieso jedem empfehlen, da ich das für sinnvoller halte, als blind einfach nur eine Firma zu kaufen (so wie Richthofen usw. das gerne tun bitte nicht zu ernst/persönlich nehmen)."
Ein wenig Zurückhaltung ist sicher gut, aber zuviel würde heißen, ewig zu warten.
Wer also schon bei Release der gf3 gedacht hätte: "na ja, ein bissel teuer vielleicht und noch irgendwie zu neu". Dann bei der R8500 fest gestellt hat:"na ja, ein bissel unsicher und ebenfalls noch zu neu". Und nun die gf4ti erblickt, die auf bewährte Technologie setzt und zudem noch Vorteile gegenüber der gf3 haben soll...
Ich könnte mir schon vorstellen, daß da so einige 'schwach' werden...
:D
Selber (als Besitzer einer gf3) würd' ich mir sicher keine gf4ti zulegen, es sei denn, ich würde im Lotto gewinnen und meinen Job an den nagel hängen. Aber vermutlich würde ich dann auch den Rechner aus dem Fenster werfen und erst einmal für 'nen paar Jahre die Welt beschaun'...
;D
KyroIII:
"Aber ein WIRKLICH schöner. Ich bin da sehr optimistisch"
Na dann drück ich Dir und allen die daran 'glauben' mal kräftig die Daumen !
;-)
Zu 3dfx:
sach' ich lieber nichts !
(darüber wurde schon zuviel gesagt)
@Xmas
"wenn du das so siehst, dann kann ich verstehen dass du die R8500 als innovationslos ansiehst (obwohl ich diese Meinung sicher nicht teile), aber als Innovationsbremse?"
Das war jetzt lediglich auf den fehlenden HOS-Support (polyFlächen) bezogen. Ein klitze kleines bischen auch auf die mögliche 'Verwirrung' der Spiele-Entwickler (wie ich in 'nem anderen Thread schon schrieb). Aber eben nur ein bissel und sicher war die Bezeichnung 'Innovationsbremse' auch ein wenig überzogen...
"Jedenfalls wird sicher kein Feature von den Spieleentwicklern verschmäht, nur weil die Radeon es nicht kann."
Dem stimme ich jetzt mal uneingeschränkt zu !
;-)
@Pengo
Ja und nein...
;-)
Q: The Advanced Pixel Shader test is supposed to test 1.4 pixel shader capability. I have a GeForce3 graphics card and can run that test just fine. Does this mean my GF3 can do pixel shader 1.4?
A: No, your GF3 cannot do pixel shader 1.4! The Advanced Pixel Shader test has a fall-back, using pixel shader 1.0, which is supported by your GF3. Hence the name Advanced Pixel Shader test, and not Pixel Shader 1.4 test. That same water effect can be achieved using pixel shader 1.0 but then the water surface is drawn in two passes, compared to a single pass on pixel shader 1.4 (or higher) hardware.
Q: Will the Advanced Pixel Shader test run faster on graphics cards that support 1.4 pixel shaders?
A: The Advance Pixel Shader test is what we call a Feature Test, which means that we above all want to present some new technology. It was decided that a fall-back was to be included in addition to the 1.4 pixel shader, since a same looking effect can be achieved using pixel shader 1.1. These two different modes of that same test work a bit differently, and should therefore not be directly compared. Both two modes could be optimized to show more performance either way, but now the test is just optimized for maximum compatibility. Vertex shader performance also affects the score somewhat due to this compatibility optimization.
Insofern habt' Ihr beide recht !
;-)
Bis dann
Razor
@Razor XBox ist KEIN PC, sondern eine Konsole. Wenn der PC Markt nur Karten (bis auf G4) mit nur einem Vertexshader bieten, dann wird man sich in der Spieleentwicklung auch nur auf einen einstellen. DX7 T&L kämpft bis heute noch darum!
Desweiteren halte ich warten, bis der Grossteil dieser Grafikgeneration draussen ist für intelligenter, als sofort die erstbeste zu kaufen. Damit war nur ein relativ kleiner Zeitraum geplant. Für dich ist es ja anscheinend egal, da du anscheinend die erstbesten kaufst. Viel Glück weiterhin.
Ich warte erst bis NACH der CeBit, danach werde ich mal schauen, welche DX8 Karte mir am meisten zusagt.
Wer bis jetzt mit seiner alten MX durchgehalten hat, schafft das auch noch bis zum April. Du kannst mir nicht erzählen, dass man jetzt unbedingt sofort ne neue GraKa braucht.
Razor
2002-02-15, 00:17:19
@HOT
"XBox ist KEIN PC, sondern eine Konsole. Wenn der PC Markt nur Karten (bis auf G4) mit nur einem Vertexshader bieten, dann wird man sich in der Spieleentwicklung auch nur auf einen einstellen. DX7 T&L kämpft bis heute noch darum!"
Erst einmal müsste man wissen, ob man die beiden VS überhaupt separat ansprechen kann, bzw. dies sinn machen würde (hatten darüber schon mal eine ganz interessante Diskussion mit nggalai und Xmas). Wenn also der Treiber automatisch parallelisiert, dann hat das mit den Spielen herzlich wenig zu tun.
"Desweiteren halte ich warten, bis der Grossteil dieser Grafikgeneration draussen ist für intelligenter, als sofort die erstbeste zu kaufen. Damit war nur ein relativ kleiner Zeitraum geplant."
Versteh' ich nicht...
Zusammenhang ?
"Für dich ist es ja anscheinend egal, da du anscheinend die erstbesten kaufst. Viel Glück weiterhin."
Woraus schließt Du das ?
Meine gf3 ist nunmehr gute 9 Monate alt und bis 'ne vernünftige gf4ti-Lösung heraus kommt, ist sie schon 'nen Jahr alt. Hätte ich also Deiner Meinung nach ein ganzes Jahr warten sollen ?
???
"Ich warte erst bis NACH der CeBit, danach werde ich mal schauen, welche DX8 Karte mir am meisten zusagt."
Klar, ist Dein gutes Recht !
;-)
"Wer bis jetzt mit seiner alten MX durchgehalten hat, schafft das auch noch bis zum April. Du kannst mir nicht erzählen, dass man jetzt unbedingt sofort ne neue GraKa braucht."
Wo soll ich denn so einen Unsinn verzapft haben ?
Hmmm...
-
Irgendwie kann ich Dir beim besten Willen nicht ganz folgen...
Bis denne
Razor
Razor,
du schreibst zum PS.1.4 wieder ein mal: "Das er dann auch wirklich 'besser' sein soll, muß sich erst noch heraus stellen... "
Da antworte ich wieder ein mal, dass z.B. ein Blick in die Doku den Fortschritt zeigt.
Du fragst: "Wer war derjenige, der als erstes die DX8-Technologie brachte"
Ich frage, wer waren die erste, die Effizienz steigernde Maßnahmen bei Brute Force Renderen einsetze? Heute argumentierst du es sei gut, dass die GF4 hier zulegt hat, neue Technik sei eh unnütz. Dann solltest du aber auch sehen, dass ATI hier den Anfang machte.
Du schreibst immer wieder "3DMurks". Ich nehme an, dass dich Begriffe wie Quincfuck etc. auch nerven. Es wäre sicherlich nicht schlecht, wenn du von Verballhornungen absehen würdest.
Die VertexShader-Leistung ist vor allem theoretisch zu betrachten - die Rendereinheit muss den Durchsatz der Pixel schaffen, hier ist das Nadelöhr. Lediglich das bislang (auch auf GF3) ziemlich lahme HW Lighting könnte so endlich angewendet werden.
Haarmann schrieb: "ATI hat sein T&L ja nur so stark forciert, da sie es wegen Truform wirklich BRAUCHEN."
Du hast geantwortet "Das würde ich allerdings mit einem ganz großen Fragezeichen versehen wollen !", aber auf jede weitere Ausführung verzichtet. Würdest du so freudlich sein und deine Meinung erklären?
Zur GF4 schreibst du, dass sie "... zudem noch Vorteile gegenüber der gf3 haben soll... "
Wieso soll? In meinem letzten Artikel (liest du die eigentlich?) machte ich die Vorteile deutlich.
TBird
2002-02-15, 09:56:00
Originally posted by Razor
@TBird
"...Probleme mit denen Entwickler schon immer zu kämpfen hatten, da es zu keiner Zeit Hardware von verschiedenen Herstellern gab mit identischen Funktionsmerkmalen..."
Wozu soll dann so etwas wie D3D (als Teil von DirectX) gut sein ?
Wenn Du nur OpenGL meinst, dann gebe ich Dir zum Teil recht...
Hier hast Du mich glaube ich mißverstanden. Ich meinte damit, daß Entwickler die für die PC Plattform entwickelt haben schon immer mehrere unterschiedliche Funktionsmerkmale unterstützen mußten, da nicht jede Hardware im Gegensatz zu den Konsolen identisch war und ist. Das ist bei den PS nix anderes wie bei z.B. EAX1/2/HD, DX7, OGL Extensions, etc. Auch hier werden und haben die Entwickler zur Laufzeit Kompromisse machen müssen. Man schreibt jedenfalls nicht ein Spiel für eine einzige PC-Konfiguration, sondern für mehrere, am Besten für alle. Das ist bei allen Entwicklern ganz normal.
"Von Mehrkosten und Parallel-Entwicklung bei PS1.4 und Truform-Support zu sprechen finde ich sehr stark übertrieben."
Sehe ich nicht so und kann Exxtreme hier nur zustimmen...
"Das DX7-Fallback erfordert jedenfalls einen höheren Implementierungsaufwand als PS1.4 oder Truform-Support, da sich die Interfaces und Methoden von DX7 zu DX8 stark verändert haben und man somit bei der Programmierung nahezu zweigleisig fahren müßte."
Schon mal die FAQ des neuen 3DMurks2k1SE zu PS1.1 vs. PS1.4 gelesen ?
Da wird das Problem sehr deutlich angesprochen, denn man kann entweder voll auf PS1.1 hin optimieren und dies wäre dann den PS1.4 überlegen oder eben auf PS1.4 hin optimieren und müsste dann die Effekte als Fall-Back über Multipasses realisieren. Je nach Implementierung würde also das eine oder das andere schneller sein. Will man beides optimal unterstützen, dann muß man doppelten Aufwand betreiben. Wenn man nun noch ein DX7-Fallback dazu 'braucht', ist der Aufwand maximal !
(dies versucht J.C. natürlich - gruß an Exxtreme - wohl gerade zu realisieren ;-)
Und da Truform derzeit nur auf R8500-Karten läuft, muß also der diesbezügliche Aufwand an dem zu erwartenden Nutzen gemessen werden. Auf jeden Fall kann man auf Details nicht verzichten (was ein Vorteil in der Entwicklung wäre), weil's sonst auf anderen Karten recht bescheiden aussehen würde (trotz 'Abwärtskompatibilität ;-)...
Ich glaube, daß die Entwickler genau dies tun werden was in der FAQ steht. Die Zeit hat jedenfalls gezeigt, daß verschiedenste und unterschiedlichste technische Neuerungen immer ihren Weg in Spiele gefunden hat. Aber zeige mir ein Entwicklerteam, daß explizit von PS1.4 abstand nehmen wird, weil es die GF4 nicht hat. Ich kenne bis jetzt keines.
Wenn du das meinst Razor.... aber du weisst, dass Grafikgenerationen immer von DirectX abhängig sind. Für doie ganz doofen (oder, dies nicht hören wollen): Wir sind jetzt in der DirectX8.1 Generation. Jetzt werde ich warten, bis alle wichtigen Chips dieser Generation erschienen sind und mich DANN entscheiden.
Rumbuddel
2002-02-15, 11:51:45
Hm, ich denke die Frage nach der Innovation muß man auch von einer ganz anderen, nicht rein technischen, Seite betrachten. Eins ist klar, nVIDIA hat viel dafür getan, daß die Grafikkarten auf dem Stand sind, den sie heute haben. Aber, wem nutzen diese Features? Gibt es genügend Spiele die sie auch umsetzen? Nein, die meisten Spiele sind immer noch auf DirectX 7 optimiert. Und dies ist zu einem guten Teil auch nVIDIA's Schuld. Was nutzt mir eine HighEndGraka, wenn ich mit den ganzen Features nix anfangen kann? Genau! Nix!
Und wieso ist nVIDIA da die Innovationsbremse? Ganz einfach. Spiele werden technisch für den Mainstream entwickelt. Alles andere wäre marktwirtschaftlicher Exitus. Und nVIDIA's Politik ist darauf ausgerichtet, zwar eine Produktreihe zu haben, die absoluter hightech ist, aber eigentlich nur dazu dient, midrange und lowcost zu pushen. Und so wird der Mainstream, an dem sich die Spieleschmieden orientieren, bestimmend für die in Spielen verwandte Technik.
Also, nVIDIA's Verkaufsstrategie hat zumindest bis dato dafür gesorgt, daß für die große Mehrheit der User einfach keine Spiele benötigt werden, die auf die neueste Technik optimiert sind. Dies liegt natürlich auch zu einem guten Teil daran, daß die Konkurrenz auf dem Grafiksektor im Consumer Bereich quasi kaum vorhanden ist. Daß sich dies seit ATI's 8500 ein wenig geändert hat, zeigt sich ja nun. Man kann nur hoffen, daß die preiswerteren GF 4 Varianten 4400 und 4200 nicht allzu lange auf sich warten lassen. Denn wenn das Gros der User wieder nur MX's hat, wird die Mehrzahl der SPiele sich technisch an diesem Standard orientieren.
so long
Originally posted by Razor
Es gibt sinnvolle und es gibt weniger sinnvolle Entwicklungen...
Die PS1.4 zähle ich zu den weniger sinnvollen.
(meine persönliche Einstellung)
Nicht, weil sie technologisch weniger entwickelt sind, sondern eher weil zu viel 'Unruhe' in den Markt bringen.
...
So? Dann kann ich genauso sagen, die DX 7 T&L Einheiten von GF1 - 2 waren *weniger sinnvoll* und brachten extrem viel *unruhe in den Markt*. Denn letzendlich gabs nur sehr wenige Spiele die wirklich davon profitieren (siehe aths' schönen Artikel ;) )
Wäre die R8500 zum Zeitpunkt der gf3 gekommen, hätte ich Euch in allen Punkten zugestimmt, aber das was Ihr der gf4 vorwerft (Innvoationsbremse, Innovationslosigkeit), werfe ich der R8500 vor...
Öhm... ich weiß ja nicht wie du denn Begriff Innovation definierst. Aber man sollte die R8500 nicht nur immer mit den NV "Gegenstücken" vergleichen sondern auch mal die Innovationen innerhalb der ATI Produktlinie anschauen. Was hätte ATI den noch alles von Radeon -> zur Radeon 8500 verbessern können (features und innovationen)? Das war ein gewaltiger schritt. Der gleiche Schritt wie damals von der GF2 GTS zur GF3. Und deshalb ist das nicht zu vergleichen mit dem Schritt GF3(Ti) -> GF4Ti. Das sind 3 Produktlinien basierend auf der gleichen Dx 8 Technologie.
TBird,
du schreibst: "Aber zeige mir ein Entwicklerteam, daß explizit von PS1.4 abstand nehmen wird, weil es die GF4 nicht hat. Ich kenne bis jetzt keines."
Nun, ich kenne kein Team welches überhaupt direkt PS.1.4-Support ankündigte. Eben das wäre vermutlich anders gelaufen, würde NV25 zu dieser Technik kompatibel sein.
Quasar
2002-02-15, 15:31:55
Originally posted by Unregistered
Die Frage bei Vergleichen ist, was man wie warum vergleicht.
Ich als Endanwender vergleich das, was zu dem Zeitpunkt eines bestehenden Kaufinteresses meinerseits am Markt verfügbar ist. Welcher Generation der Chip nun angehört, läßt sich doch sowieso nie genau sagen, da man nicht festlegen kann, was eine Generation ist (GF4 eine neue Generation?). Weiterhin sind die "Generationen" auch noch zeitversetzt erschienen, was die Vergleichbarkeit weiter erschwert.
Ergo kann man sinnvoll nur das vergleichen, was es zu einem bestimmten Zeitpunkt gibt.
TBird
2002-02-15, 16:32:15
Originally posted by aths
TBird,
du schreibst: "Aber zeige mir ein Entwicklerteam, daß explizit von PS1.4 abstand nehmen wird, weil es die GF4 nicht hat. Ich kenne bis jetzt keines."
Nun, ich kenne kein Team welches überhaupt direkt PS.1.4-Support ankündigte. Eben das wäre vermutlich anders gelaufen, würde NV25 zu dieser Technik kompatibel sein.
Da hast Du jetzt aber geschickt geantwortet aths. ;)
Ob PS1.4 zum Einsatz kommen wird man erst in der Zukunft sehen können. Ich glaube aber, daß sie zum Einsatz kommen werden.
Liszca
2002-02-15, 16:42:47
Wollte mal was zum villagemark loswerden:
Eigentlich ein sehr guter benchmark, zeigt was eine karte wirklich kann! Aber man sollte mit dem direkten vergleich mit KYro karten ein wenig abwegen, da sie ja von desem hersteller gemacht wurden!
[fu]121Ah
2002-02-15, 17:07:56
naja, 3dmark war auch auf nvidia optimiert...
Quasar
2002-02-15, 18:02:35
aha....oder meintest du auf DirectX-8?
Piffan
2002-02-15, 18:53:28
Originally posted by Quasar
aha....oder meintest du auf DirectX-8?
Ganz bestimmt war der 3dMark nie auf NV optimiert. Sonst hätte man sicher den Highpoly- Count nicht mit 8 Lichtern laufen lassen! Wir erinnern uns: Die NV war die einzige HarwareTL- fähige Graka, dennoch legte der 3dMark die "Lichterschwäche", die ja heute noch bei der G3 (G4?!)und der Radeon besteht, schonungslos frei..... Sehr zum Mißfallen Nvidias, was durch Kommentare wie "unzulässig" usw. belegt wurde. Übrigens sind auf diesem Gebiet die Profi- karten eindeutig kapitelfester......
Es ist halt auch so eine Legende mit dem 3dMark.... Eher wird andersrum ein Schuh draus: Die Treiber werden für Benches optimiert...
Und das der 3DMark HW-T&L optimiert ist, ist ebenfalls ein Märchen.
XP1700, GF2MX, 3DM2k default, polygon
CPU Optimization: Intel(R) Pentium(R) III
High Polygon Count (1 Light): 11643 KTriangles/s
High Polygon Count (4 Lights): 10568 KTriangles/s
High Polygon Count (8 Lights): 8717 KTriangles/s
CPU Optimization: D3D Hardware T&L
High Polygon Count (1 Light): 12088 KTriangles/s
High Polygon Count (4 Lights): 7881 KTriangles/s
High Polygon Count (8 Lights): 4683 KTriangles/s
CPU Optimization: D3D Software T&L
High Polygon Count (1 Light): 8228 KTriangles/s
High Polygon Count (4 Lights): 8345 KTriangles/s
High Polygon Count (8 Lights): 5804 KTriangles/s
3dm2k1 default
HW T&L:
RESULTS
3DMark Score 2352
Game 1 - Car Chase - Low Detail 38.4 fps
Game 1 - Car Chase - High Detail 20.9 fps
Game 2 - Dragothic - Low Detail 34.7 fps
Game 2 - Dragothic - High Detail 17.1 fps
Game 3 - Lobby - Low Detail 39.5 fps
Game 3 - Lobby - High Detail 23.4 fps
Game 4 - Nature Not supported by hardware
Fill Rate (Single-Texturing) 185.6 MTexels/s
Fill Rate (Multi-Texturing) 327.3 MTexels/s
High Polygon Count (1 Light) 12.7 MTriangles/s
High Polygon Count (8 Lights) 2.5 MTriangles/s
Environment Bump Mapping Not supported by hardware
DOT3 Bump Mapping 24.7 fps
Vertex Shader 31.9 fps
Pixel Shader Not supported by hardware
Point Sprites 5.1 MSprites/s
SW T&L:
RESULTS
3DMark Score 2307
Game 1 - Car Chase - Low Detail 43.2 fps
Game 1 - Car Chase - High Detail 19.0 fps
Game 2 - Dragothic - Low Detail 34.0 fps
Game 2 - Dragothic - High Detail 13.4 fps
Game 3 - Lobby - Low Detail 42.3 fps
Game 3 - Lobby - High Detail 23.2 fps
Game 4 - Nature Not supported by hardware
Fill Rate (Single-Texturing) 185.6 MTexels/s
Fill Rate (Multi-Texturing) 327.3 MTexels/s
High Polygon Count (1 Light) 9.1 MTriangles/s
High Polygon Count (8 Lights) 3.8 MTriangles/s
Environment Bump Mapping Not supported by hardware
DOT3 Bump Mapping 24.6 fps
Vertex Shader 32.0 fps
Pixel Shader Not supported by hardware
Point Sprites 4.6 MSprites/s
Razor
2002-02-16, 05:55:29
@aths
Über was reden wir hier jetzt eigentlich ?
-
"Da antworte ich wieder ein mal, dass z.B. ein Blick in die Doku den Fortschritt zeigt."
Die Doku ist mir wurscht, denn diese sagt nicht, ob die PS1.4 praktikabler, oder ob damit Effekte erzielbar sind, die auf Nicht-PS1.4-Hardware neicht realisierbar sind (bzw. der Unterschied jetzt nun 'bestechend' ist ;-).
"Ich frage, wer waren die erste, die Effizienz steigernde Maßnahmen bei Brute Force Renderen einsetze? Heute argumentierst du es sei gut, dass die GF4 hier zulegt hat, neue Technik sei eh unnütz. Dann solltest du aber auch sehen, dass ATI hier den Anfang machte."
Wie jetzt ?
Was hat denn nun das eine mit dem anderen zu tun ?
???
ATI hat natürlich auch schon mal was innovatives gebracht (HyperZ1), aber habe ich das jemals bestritten ?
Hmmm...
"Du schreibst immer wieder "3DMurks". Ich nehme an, dass dich Begriffe wie Quincfuck etc. auch nerven. Es wäre sicherlich nicht schlecht, wenn du von Verballhornungen absehen würdest."
Als Techdemo ist "3DMurks" durchaus zu gebrauchen, auch um bei seinem eigenem System eine Leistungsveränderung von Einstellungen in den Treibern oder im Bios zu beobachten, aber selbst dabei ist eine Real-World-Betrachtung nicht gegeben. Wenn es jetzt auch noch dafür benutzt wird, um GraKa's miteinander zu vergleichen (im gleichen System !), dann wage ich das Ganze schon mit einem Fragezeichen zu versehen. Wenn dann aber noch unterscheidliche GraKa's in unterschiedlichen Systemen gegenüber gestellt werden, dann ist es spätestens absoluter Unsinn !!!
Sorry, aber ich bleibe dabei: 3DMurks ist als Bench ein Murks !
;-)
Und Qunicunx kannst Du nennen wie Du wills, weil mir das völlig Banane ist !
(nicht, weil es von Dir kommt, sonder ganz allgemein ;-)
"Die VertexShader-Leistung ist vor allem theoretisch zu betrachten - die Rendereinheit muss den Durchsatz der Pixel schaffen, hier ist das Nadelöhr. Lediglich das bislang (auch auf GF3) ziemlich lahme HW Lighting könnte so endlich angewendet werden."
Theoretische Betrachtungen gehen mit echt am Ar... vorbei !
Aber das habe ich ja nun schn oft genug dargelegt...
;-)
Und Du solltest sagen: "Das theoretischlahme HW Lighting..."
"Haarmann schrieb: "ATI hat sein T&L ja nur so stark forciert, da sie es wegen Truform wirklich BRAUCHEN."
Du hast geantwortet "Das würde ich allerdings mit einem ganz großen Fragezeichen versehen wollen !", aber auf jede weitere Ausführung verzichtet. Würdest du so freudlich sein und deine Meinung erklären?"
Nein, sonst hätte ich es nicht mit einem Fragezeichen versehen, sondern wiederlegt !
(soll heißen, daß ich das - noch - nicht möchte ;-)
"Zur GF4 schreibst du, dass sie "... zudem noch Vorteile gegenüber der gf3 haben soll... "
Wieso soll? In meinem letzten Artikel (liest du die eigentlich?) machte ich die Vorteile deutlich."
Ich überfliege sie (wenn sie über NV sind)...
Objektivere Darstellungen sind mir da lieber !
;-)
@TBird
Hier hast Du mich glaube ich mißverstanden. Ich meinte damit, daß Entwickler die für die PC Plattform entwickelt haben schon immer mehrere unterschiedliche Funktionsmerkmale unterstützen mußten, da nicht jede Hardware im Gegensatz zu den Konsolen identisch war und ist. Das ist bei den PS nix anderes wie bei z.B. EAX1/2/HD, DX7, OGL Extensions, etc. Auch hier werden und haben die Entwickler zur Laufzeit Kompromisse machen müssen. Man schreibt jedenfalls nicht ein Spiel für eine einzige PC-Konfiguration, sondern für mehrere, am Besten für alle. Das ist bei allen Entwicklern ganz normal.
Und ich glaube, daß Du das hier falsch siehst...
Seit DirectX gibt es die Möglichekt, Dinge abstrakt anzusprechen (D3D, DirectSound, DirectSound3D, DirectPlay etcpp), insofern ein direktes Ansprechen der Hardware nicht mehr notwenig ist. Lediglich die PixelShader (ab 1.1) machen hier eine Ausnahme, da diese nicht mehr über die CPU emuliert werden können...
Und die Spieleentwickler entscheiden, ob noch Hardware-Spezifische API's ala EAX/A3D etc. angesprochen werden sollen. Bei OpenGL habe ich Dir bereits zugestimmt, daß es hier sowohl die Möglichkeit gibt, auf allgemeine Hardware zu setzen, oder eben spezielle, herstellerspezifische Erweiterungen zu nutzen.
Was also wills Du mir damit sagen ?
Im Prinzip kann ein Entwickler völlig unabhängig von der Hardware entwicklen, wenn er den kleinsten Nenner (z.Bsp. DX7) benutzt. Allerdings muß dann die CPU-Leistung passen, da diese zur Not bestimmte Dinge emulieren muß...
Ich glaube, daß die Entwickler genau dies tun werden was in der FAQ steht. Die Zeit hat jedenfalls gezeigt, daß verschiedenste und unterschiedlichste technische Neuerungen immer ihren Weg in Spiele gefunden hat. Aber zeige mir ein Entwicklerteam, daß explizit von PS1.4 abstand nehmen wird, weil es die GF4 nicht hat. Ich kenne bis jetzt keines.
Also ich kenne nur ein (!) Entwickler Team, was bereits gesagt hat, daß es die PS1.4 nutzen wird... Doom3. Aber selbst hier wurde nicht gesagt, ob damit nun bessere Effekte erzielt werden sollen, oder es einfach nur auf entsprechender Hardware schneller laufen soll (ich vermute das letztere ;-).
In einem andern Thread (PixelShader-Wirrwar) habe ich dazu schon meine Meinung gepostet und sie paßt hier ebenso.
Da die R8500 in der Ausführung von PS1.1-Sequenzen benachteiligt ist, wäre es 'günstig', wenn sich die Entwickler die Mühe machen, PS1.1-Effekte auf PS1.4 umzusetzen, damit dieser Nachteil entschwindet.
Einem möchte ich aber grundsätzlich wiedersprechen:
"Die Zeit hat jedenfalls gezeigt, daß verschiedenste und unterschiedlichste technische Neuerungen immer ihren Weg in Spiele gefunden hat."
Denn das müsste meiner Meinung nach so formuliert werden:
"Die Zeit hat jedenfalls gezeigt, daß verschiedenste und unterschiedlichste technische Neuerungen noch nie einfach so ihren Weg in Spiele gefunden haben. Erst die Hardwareverbreitung und die Akzeptanz der Entwickler hat darüber entscheiden, on ein Feature sinnvoll ist, oder eben nicht."
-
"Ich glaube aber, daß sie [PS1.4]zum Einsatz kommen werden."
Warum ?
@HOT
Oh mein Gott, wo lebst Du denn ?
"Wenn du das meinst Razor.... aber du weisst, dass Grafikgenerationen immer von DirectX abhängig sind."
Was für ein Blödsinn !
DX1/2 unwichtig
DX3 war mal ziemlich wichtig (für wen eigentlich ? ;-)
DX4/5 unwichtig
DX6 na ja, zumindest 'etwas' besser
DX7 OK, ist ein Standard
DX8 na ja, könnte was werden (vor allem, weil 'aufgeräumter' ;-)
DX8.1 wage ich stark zu bezweifeln
DX9 wer weiß
Verstehst Du, was ich meine ?
"Für doie ganz doofen (oder, dies nicht hören wollen): Wir sind jetzt in der DirectX8.1 Generation."
Absoluter Blödsinn !
Sorry...
Noch sind wir in der DX7-Generation.
"Jetzt werde ich warten, bis alle wichtigen Chips dieser Generation erschienen sind und mich DANN entscheiden."
Kannst Du ja gerne machen, denn es wird Dir keiner dieses Recht absprechen wollen.
@Rumbuddel
"Was nutzt mir eine HighEndGraka, wenn ich mit den ganzen Features nix anfangen kann?"
Ich kann mit hübsche Tech-Demo's anschaun...
Spiele-Demos sind ein gutes Beispiel (Kreed ist DER Hammer !)...
Und Leistungsmäßig stoße ich selbst mit einer gf3 schon an Grenzen...
(eine gf4ti könnte da 'etwas' helfen ;-)
"Und so wird der Mainstream, an dem sich die Spieleschmieden orientieren, bestimmend für die in Spielen verwandte Technik."
Korrekt, und das ist nicht nur nVidia, sondern auch ATI, ImgTech, 3dfx und selbst Matrox...
(nicht vergessen ;-)
Zu dem Rest sag ich leiber nicht so viel, nur das vielleicht:
Auch eine R8500 wird nicht viel daran ändern, daß die installierte Hardwarebasis immer noch DX7 ausgerichtet ist (mit oder ohne HW T&L). Sie könnte allerdings helfen, daß DX8 nicht erst 2004/2005 Mainstream geworden ist, sondern dies schon etwas früher passiert (ich hoffe so auf Anfang/Mitte 2003 ;-). Mehr aber auch nicht...
Auch ist mir irgendwie nicht so ganz klar, warum das alles was mit nVidia zu tun haben soll...
@Com1
"So? Dann kann ich genauso sagen, die DX 7 T&L Einheiten von GF1 - 2 waren *weniger sinnvoll* und brachten extrem viel *unruhe in den Markt*. Denn letzendlich gabs nur sehr wenige Spiele die wirklich davon profitieren (siehe aths' schönen Artikel)"
Dieses 'Feature' hat sich insofern durchgesetzt, als andere Hersteller ebenfalls auf diesen Zug gesprungen sind (wenn auch sehr viel später) und sich somit langsam eine Hardwarebasis entwickelt hat, die eben in der Lage ist, extensive T&L (auf das L lege ich besonderen Wert ;-) durchzuführen. U2 wird wohl das erste Game sein, welches intensiv davon Gebrach macht, dann (und erst dann ;-) wird sich zeigen, ob 'HW T&L' überflüssig war/ist...
"Öhm... ich weiß ja nicht wie du denn Begriff Innovation definierst. Aber man sollte die R8500 nicht nur immer mit den NV "Gegenstücken" vergleichen sondern auch mal die Innovationen innerhalb der ATI Produktlinie anschauen."
Du bist also der Meinung, daß man Innovation nicht im Ganzen betrachten sollte ?
???
"Was hätte ATI den noch alles von Radeon -> zur Radeon 8500 verbessern können (features und innovationen)? Das war ein gewaltiger schritt. Der gleiche Schritt wie damals von der GF2 GTS zur GF3. Und deshalb ist das nicht zu vergleichen mit dem Schritt GF3(Ti) -> GF4Ti. Das sind 3 Produktlinien basierend auf der gleichen Dx 8 Technologie."
Habe ich den Schritt von Radeon1 auf Radeon2 mit dem Schritt von gf3 auf gf4(ti) verglichen ?
Sicher nicht...
Ganz im Gegenteil bin ich der Meinung, daß die gf4 lediglich eine effizientere Version der gf3 ist (wie auch der RV250 im Vergleich zur R200 sein wird). Mehr aber auch nicht...
Insofern frage ich mich auch hier, was Du mir damit sagen wolltest ?
***
Zu dem 3DMurk äussere ich mich lieber nicht !
*####$$$%%%§"!!§$$&/&$§§!"!$%&*
*würg*
;-)
In diesem Sinne
Razor
Rumbuddel
2002-02-16, 08:32:08
@Razor
Nun, was das mit nVIDIA zu tun hat? Ganz einfach:
nVIDIA war nun mal bis zum erscheinen der R8500 unangefochtener Marktführer. Es ist natürlich klar, daß nVIDIA marktwitschaftlich handelt - also gewinnmaximierend - und nicht das Hauptaugenmerk darauf gerichtet ist, das Gros der User mit preiswerten Highendlösungen zu versorgen. Das viele Rechner mit GF2 MX bestückt sind, liegt daran, das nVIDIA über ein Jahr lang keine ernsthafte Konkurrenz hatte. Und am Anfang waren ja selbst die normalen GTS 2 Karten sauteuer. Erst mit erscheinen des 8500 mußte nVIDIA was ändern. Und als preiswerte und dennoch schnelle alternative brachten sie den GF 3 TI 200. Aber gleichzeitg nochmal einen Aufguss des GF2.
Wenn sowas nicht entwicklungshemmend ist? So, nun kommt der GF 4. Erstmal wird nur der 4600 verfügbar sein, den sich wieder die wenigsten leisten. Aber seine guten Eigenschaften werden rein assoziativ auf die GF 4 MX Reihe übertragen und so wird sich in den meisten Compis wieder ein Grakachip finden, der die Spielentwickler wenig zu höchstleistungen motiviert.
Man kann nur hoffen, daß der User dann lieber zu einer Radeon greift, als zu einer GF4 MX.
Und ich bin fest davon überzeugt, daß die preiswerteren GF4 Varianten -4400 und 42000- erst erscheinen, wenn ATI eine Karte bringt, die Performancemässig an den GF 4 anschließt.
Sowas nenne ich innovationshemmend, weil rein marktwirtschaftlich orientiert. Man kann nur hoffen, daß ATI nun am Ball bleibt und Matrox vielleicht auch etwas in der Hinterhand hat.
so long
TBird
2002-02-16, 09:44:00
Originally posted by Razor
@TBird
Und ich glaube, daß Du das hier falsch siehst...
Seit DirectX gibt es die Möglichekt, Dinge abstrakt anzusprechen (D3D, DirectSound, DirectSound3D, DirectPlay etcpp), insofern ein direktes Ansprechen der Hardware nicht mehr notwenig ist. Lediglich die PixelShader (ab 1.1) machen hier eine Ausnahme, da diese nicht mehr über die CPU emuliert werden können...
Und die Spieleentwickler entscheiden, ob noch Hardware-Spezifische API's ala EAX/A3D etc. angesprochen werden sollen. Bei OpenGL habe ich Dir bereits zugestimmt, daß es hier sowohl die Möglichkeit gibt, auf allgemeine Hardware zu setzen, oder eben spezielle, herstellerspezifische Erweiterungen zu nutzen.
Was also wills Du mir damit sagen ?
Hmmm, das scheint wirklich schwer zu sein mit Dir. ;)
Mir gehts hier nicht darum, daß die Entwickler hardwareunabhängig programmieren können, sondern um die Tatsache, daß sie eben nicht nur einen Codepath in ihren Programmen implementieren sondern sich auf die unterschiedlichsten Hardwaregegebenheiten einstellen. Beispiel: Wenn eine Grafikkarten kein Multitexturing unterstützte wurde eben die selbe Funktionalität mittels Multipass-Texturing erreicht. Dazu mußte eben zur Laufzeit die entsprechende Funktionalität abgefragt werden. Grafikkarten die kein Multitexturing beherrschten konnte man also nicht als entwicklungshemmend bezeichnen, da die Entwickler eben für beide Fälle entsprechenden Code geschrieben haben und nicht ganz auf Multitexturing verzichtet haben. Genauso sehe ich das auch bei den PS1.4 kommen, wenn es denn für die Entwickler unverzichtbar sein sollte diese auch einzusetzen.
Das es natürlich für die Entwickler ideal wäre immer von den selben Hardwarefähigkeiten (die sie dann natürlich hardwareunabhängig ansprechen ;) ) ausgehen zu können ist klar, nur dann wäre der PC eine Konsole und kein PC mehr.
Im Prinzip kann ein Entwickler völlig unabhängig von der Hardware entwicklen, wenn er den kleinsten Nenner (z.Bsp. DX7) benutzt. Allerdings muß dann die CPU-Leistung passen, da diese zur Not bestimmte Dinge emulieren muß...
Dies tut aber praktisch niemand. Es werden auch weit über den kleinsten Nenner hinaus neue Hardwarefähigkeiten (hardwareunabhängig ;) ) unterstützt.
Also ich kenne nur ein (!) Entwickler Team, was bereits gesagt hat, daß es die PS1.4 nutzen wird... Doom3. Aber selbst hier wurde nicht gesagt, ob damit nun bessere Effekte erzielt werden sollen, oder es einfach nur auf entsprechender Hardware schneller laufen soll (ich vermute das letztere ;-).
In einem andern Thread (PixelShader-Wirrwar) habe ich dazu schon meine Meinung gepostet und sie paßt hier ebenso.
Da die R8500 in der Ausführung von PS1.1-Sequenzen benachteiligt ist, wäre es 'günstig', wenn sich die Entwickler die Mühe machen, PS1.1-Effekte auf PS1.4 umzusetzen, damit dieser Nachteil entschwindet.
Ob nun auch andere Entwicklerteams PS1.4 benutzen werden oder nicht müßte man mal genau nachfragen. Die Meisten werden sicherlich nur von PS Support in ihren Spielen im Allgemeinen sprechen, egal ob sie nun PS1.0-1.3 oder PS1.0-1.4 meinen.
Da aber wieder viele andere Spiele auf Basis der Doom3 Engine entwickelt werden, wird es PS1.4 Support nicht nur in Doom3 oder Quake4 geben. ;)
Einem möchte ich aber grundsätzlich wiedersprechen:
"Die Zeit hat jedenfalls gezeigt, daß verschiedenste und unterschiedlichste technische Neuerungen immer ihren Weg in Spiele gefunden hat."
Denn das müsste meiner Meinung nach so formuliert werden:
"Die Zeit hat jedenfalls gezeigt, daß verschiedenste und unterschiedlichste technische Neuerungen noch nie einfach so ihren Weg in Spiele gefunden haben. Erst die Hardwareverbreitung und die Akzeptanz der Entwickler hat darüber entscheiden, on ein Feature sinnvoll ist, oder eben nicht."
Eine entsprechende Hardwarebasis und Akzeptanz muß natürlich vorhanden sein.
"Ich glaube aber, daß sie [PS1.4]zum Einsatz kommen werden."
Warum ?
Weil die Basis dafür groß genug sein wird und weil der Aufwand sich in Grenzen hält.
Exxtreme
2002-02-16, 10:09:11
Originally posted by TBird
Hmmm, das scheint wirklich schwer zu sein mit Dir. ;)
:bounce: :rofl: ;D :bounce:
Auch schon gemerkt?
Gruß
Alex
Razor, ich find dein Verhalten hier irgendwie lächerlich. Du machst einen verdammten Herrmann daraus, dass NV endlich mit ATI technisch gleichgezogen ist (Performancemässig natürlich vorne liegt). Desweiteren versuchst du auffälligerweise andere Techniken aber auch ALLE anderen Techniken, die nicht von NV sind, durch den Dreck zu ziehen. Sei es T-Buffer, Texturkompression, PS1.4, TBR, Bildqualität; was auch immer die Konkurrenz entwickelt hat. NV brachte selbstverständlich auch seinen Teil dazu bei, z.B. PS1.1, 1.3, Vertexshader und T&L.
Langsam geht mir dein Diskussionsstil kräftig gegen den Strich und deshalb schreibe ich da auch nichts mehr zu. Langsam werde ich das Gefühl nicht mehr los, dass du immer das Gegenteil schreibst, was de anderen Leute hier denken und deinen Spass dabei hast, andere damit zu ärgern. Das finde ich langsam einfach nicht mehr lustig.
Es IST eben so, dass aths, Xmas usw. einfach kompetente Leute sind, die die neuen Techniken VERSTEHEN und BENUTZEN können.
Ich habe auchnoch versucht die Diskussion noch etwas aufleben zu lassen, als aths und XMas schon die Schnauze voll davon hatten, aber jetzt muss ich einsehen, dass du es nicht raffst oder nicht raffen willst. Wie gesagt, ich komme mir einfach von dir verarscht vor und ich finde, du solltest mal ein bisschen darüber nachdenken.
Wie auch immer, es ist deine Sache und deine Glaubwürdigkeit hast du in diesem Forum mit diesem Thread endgültig verspielt.
In diesem Sinne ;)
HOT <MoB> - Stonhenge ;)
Unregistered
2002-02-16, 12:48:03
So? Dann kann ich genauso sagen, die DX 7 T&L Einheiten von GF1 - 2 waren *weniger sinnvoll* und brachten extrem viel *unruhe in den Markt*. Denn letzendlich gabs nur sehr wenige Spiele die wirklich davon profitieren (siehe aths' schönen Artikel)"
Dieses 'Feature' hat sich insofern durchgesetzt, als andere Hersteller ebenfalls auf diesen Zug gesprungen sind (wenn auch sehr viel später) und sich somit langsam eine Hardwarebasis entwickelt hat, die eben in der Lage ist, extensive T&L (auf das L lege ich besonderen Wert ;-) durchzuführen. U2 wird wohl das erste Game sein, welches intensiv davon Gebrach macht, dann (und erst dann ;-) wird sich zeigen, ob 'HW T&L' überflüssig war/ist...
Naja alleine mit dem Unreal 2 benchmark von Anandtech wurde bewiesen dass HArdware T&L nach DX vollkommen sinnlos ist..
Achja und hot kann ich nur rechtgeben, im 3dconcpet forum habe ich viel von dir gehalten @ Razor aber wie du hier mit Scheuklappen durch den Thread marschierst ist schon beeindruckend.
Razor
2002-02-16, 13:30:50
@Rumbuddel
"nVIDIA war nun mal bis zum erscheinen der R8500 unangefochtener Marktführer. Es ist natürlich klar, daß nVIDIA marktwitschaftlich handelt - also gewinnmaximierend - und nicht das Hauptaugenmerk darauf gerichtet ist, das Gros der User mit preiswerten Highendlösungen zu versorgen."
Das war mit Sicherhait auch nicht ATI's absicht (siehe Einführungspreis der r8500 ;-), aber für den ursprünglichen Preis wäre auch das letzte Argument für diese Karte gefallen, insofern musste (!) ATI die Preise senken...
"Das viele Rechner mit GF2 MX bestückt sind, liegt daran, das nVIDIA über ein Jahr lang keine ernsthafte Konkurrenz hatte. Und am Anfang waren ja selbst die normalen GTS 2 Karten sauteuer."
Auch ATI hat Karten ala Radeon (DDR/SDR) angeboten, nur konnte diese sich trotz besserer Leistung nicht gegen die gf2mx durchsetzen. Selbst die Voodoos's nicht (damals gab's sie noch) oder die von Matrox und was weiß ich...
Die MX'er scheinen einfach das beste Preis/Leistungsverhältnis geboten zu haben, was ich persönlich nicht nachvollziehen kann, denn ich hätte mir niemals eine gf2 geholt (keine davon und schon gar keine MX !)...
;-)
"Erst mit erscheinen des 8500 mußte nVIDIA was ändern. Und als preiswerte und dennoch schnelle alternative brachten sie den GF 3 TI 200. Aber gleichzeitg nochmal einen Aufguss des GF2.
Wenn sowas nicht entwicklungshemmend ist?"
nVidia hat einfach die WinXP-Einführung mitgemacht, deswegen die DetoXP und auch die 'neuen' Ti-Karten, die offiziell (auf der Verpackung ;-) das WinXP-Logo drauf hatten.
Hätte man ein 'altes' Produkt, was zudem noch im High-End-Bereich lag, mit dem 'neuen' WinXP bewerben sollen ?
Nee...
Auch sollte man bedenken, daß die Ti's auch VOR der Radeon8500 kamen, insofern das Pferdchen etwas anders gesattelt werden sollte. Das die R8500 irgendwann kommen würde mag sicher auch was damit zu tun gehabt haben, aber wohl vor allem, daß man nach 6 Monaten die ganzen High-End- (oder 'Enthusiast'-) Käufer 'abgeschöpft hatte und nun auch was für die Leute anbieten wollte, die nicht ganz so viel dafür ausgeben wollten...
"So, nun kommt der GF 4. Erstmal wird nur der 4600 verfügbar sein, den sich wieder die wenigsten leisten. Aber seine guten Eigenschaften werden rein assoziativ auf die GF 4 MX Reihe übertragen und so wird sich in den meisten Compis wieder ein Grakachip finden, der die Spielentwickler wenig zu höchstleistungen motiviert."
Wer sich vorher eine MX (gf2) gekauft hat, erwartet auch keine Höchstleistungen, warum sollte man das dann bei der gf4mx erwarten ? Auch wird im jedem review und auch jedem Bericht in den Printmedien darauf hingewiesen (nix DX8 ;-), aber auch, daß sie das neue AA (Accuview) und das forschrittliche LMA2 besitzt...
Wer sich nicht informiert, hat selber Schuld !
(gild selbstredend auch für alle anderen Hersteller ;-)
"Man kann nur hoffen, daß der User dann lieber zu einer Radeon greift, als zu einer GF4 MX. "
Und damit dann in die Tonne...
Oder meintest Du die Radeon8500 ?
"Und ich bin fest davon überzeugt, daß die preiswerteren GF4 Varianten -4400 und 42000- erst erscheinen, wenn ATI eine Karte bringt, die Performancemässig an den GF 4 anschließt."
Schön für Dich, aber ich halte das für falsch !
Man will natürlich erst wieder diejenigen 'melken', die es nicht abwarten können und zum Einstandpreis eine High-End-Karte kaufen. Das wird so 1-2 Monate dauern und dann kommen auch die anderen beiden (vermutlich erst die 4400). Auch sollte man bedenken, daß nVidia ja nicht die ganzen Vertragspartner vor den Kopf stoßen will. die dann auf ihren Restbeständen an gf3ti200/500 sitzen bleiben würden. Also erst einmal die restlichen gf3ti500 verkaufen, dann kommt die gf4ti4400. Irgendwann werden sich dann auch die Restbestände an gf3ti200 verkauft haben (produziertes Volumen ist sehr viel höher !) und dann kommt die gf4ti4200. Also immer hübsch der Reihe nach...
Bitte einfach mal wirtschaftlich denken !
;-)
"Sowas nenne ich innovationshemmend, weil rein marktwirtschaftlich orientiert. Man kann nur hoffen, daß ATI nun am Ball bleibt und Matrox vielleicht auch etwas in der Hinterhand hat."
JEDE Firma ist rein marktwirtschaftlich orientiert, muß das aber auch gut dosieren und immer flexibel auf den Markt reagieren... nVidia legt diesbezüglich einen vor, ATI lernt gerade intensiv und Matrox hat eine ganz andere Ausrichtung (Business)...
Ich sage nur: Abwarten !
Bis jetzt hat nVidia nur Rekordgewinne gefahren und das auch aus gutem Grund.
Würde mich nicht wundern, wenn das auch so bleibt...
By the way, ATI versucht es ja nVidia nachzumachen und nur noch Chips zu produzieren...
Schaun' wir mal, ob das so hinhaut !
;-)
@TBird
"Hmmm, das scheint wirklich schwer zu sein mit Dir."
Hast Du was anderes erwartet ?
;-)
"Genauso sehe ich das auch bei den PS1.4 kommen, wenn es denn für die Entwickler unverzichtbar sein sollte diese auch einzusetzen."
Warum sollte es 'unverzichtbar' sein, die PS1.4 einzusetzen ?
???
"Das es natürlich für die Entwickler ideal wäre immer von den selben Hardwarefähigkeiten (die sie dann natürlich hardwareunabhängig ansprechen ) ausgehen zu können ist klar, nur dann wäre der PC eine Konsole und kein PC mehr."
DirectX hat dieses zum Ziel.
"Dies tut aber praktisch niemand. Es werden auch weit über den kleinsten Nenner hinaus neue Hardwarefähigkeiten (hardwareunabhängig) unterstützt."
Deswegen sagte ich ja auch 'im Prinzip', denn jeder Entwickler muß selber wissen, was investiert...
Das Games, deren Grafik-Engine als Basis für viele kommenden herhalten muß, mehr können muß, als andere, ist auch klar, insofern sollte man gedenk des höheren Ertrages dann auch mehr investieren und sich dann natürlich mit den Hardware-Spezifischen Dingen herum schlagen...
"Ob nun auch andere Entwicklerteams PS1.4 benutzen werden oder nicht müßte man mal genau nachfragen. Die Meisten werden sicherlich nur von PS Support in ihren Spielen im Allgemeinen sprechen, egal ob sie nun PS1.0-1.3 oder PS1.0-1.4 meinen."
Diejenigen, die bisher 'ankündigten', habe eigentlich kaum oder gar nie was von PS-Support, sondern viel mehr von gf3-Support gesprochen (und meinten natürlich PS1.1 ;-). JC (natürlich ;-) leht sich (wie immer) weiter aus dem Fenster und erzählt natürlich auch was von r8500-Unterstützung. Nur sollte man bedenken, daß er auch kräftig seine Webetrommel damit rührt, weil er einfach die Engine gut vermarkten will...
"Da aber wieder viele andere Spiele auf Basis der Doom3 Engine entwickelt werden, wird es PS1.4 Support nicht nur in Doom3 oder Quake4 geben."
Die Frage ist nur, wie dieser 'PS1.4 Support' aussehen wird. Der 3DMurks hat es doch in seinen FAQ's deutlich gesagt. Er kommt auf die Optimierung an, insofern habe ich folgende Alternativen:
1) primäre PS1.1 Unterstützung (dadurch Bevorteilung von Gf3/4)
2) primäre PS1.4 Unterstützung (dadurch Bevorteilung R8500/8800)
3) gleichberechtigte PS1.1/1.4 Unterstützung (alle arbeiten 'optimal')
Wobei letzterer Punkt den maximalen Aufwand bedeutet.
Vorzustellen wäre auch, daß die Engine primär für PS1.1 geschrieben wird, für die Ausführung der Effekte auf einer R8500/8800 dann aber die PS1.4 benutzt. Der Aufwand wäre nicht ganz so groß und die Geschwindigkeit wäre auch auf einer R8500 nicht langsamer...
(die letzte Variante - PS1.1-Effekte auf PS1.4 - halte ich für das Wahrscheinlichste)
;-)
"Eine entsprechende Hardwarebasis und Akzeptanz muß natürlich vorhanden sein."
Das ist aber ein Punkt, der noch lange nicht als gegeben betrachtet werden kann...
"Weil die Basis dafür groß genug sein wird und weil der Aufwand sich in Grenzen hält."
WOW !
Du kannst in die Zukunft schauen und auch noch beurteilen, wie aufwendig (ich schreibe Alt-Deutsch ;-) es ist, Pixel-Shader > 1.1 zu programmieren... nicht schlecht...
;-)
Ich kann es übrigens auch nicht, kenn aber so einige Aussagen zu diesem Thema und eines kann ich Dir versichern: Es ist lange nicht so trivial, wie dieses verunstaltete Truform in 30-60min einzubauen !
@HOT
"Razor, ich find dein Verhalten hier irgendwie lächerlich."
Macht nichts, HOT, ich verzeihe Dir !
;-)
"Du machst einen verdammten Herrmann daraus, dass NV endlich mit ATI technisch gleichgezogen ist (Performancemässig natürlich vorne liegt). Desweiteren versuchst du auffälligerweise andere Techniken aber auch ALLE anderen Techniken, die nicht von NV sind, durch den Dreck zu ziehen."
Na ja, soweit würde ich nun auch wieder nicht gehen !
Und wenn Du anderer Meinung bist, dann bring bitte Beispiele...
"Sei es T-Buffer, Texturkompression, PS1.4, TBR, Bildqualität; was auch immer die Konkurrenz entwickelt hat."
So, dann mal im einzelnen:
1) T-Buffer
ist eine hübsche Sache, aber solche Effekte wie MotionBlurr und DOF (Deph of field) hätte sich 3dfx sparen können...
(laaaaaange und heftige Diskussion mit aths ;-)
2) Texturkompression
Wann soll ich was gegen Texturkompression gesagt haben ?
3) PS1.4
Klar...
;-)
4) TBR
Nicht gegen den TBR im allgemeinen, aber die diesbezügliche Implemntierung im KyroI/II. Was sich aber auch schon wesentlich gebessert hat...
5) Bildqualität
Ich habe was gegen (!) die Bildqualität anderer Karten gesagt ?
Kann mich daran erinnern, daß ich mal was gegen die SQ der gf2-Linie gesagt habe, woraufhin ich dann sogar 'korrigiert' wurde...
Und was sonst noch ?
???
"NV brachte selbstverständlich auch seinen Teil dazu bei, z.B. PS1.1, 1.3, Vertexshader und T&L."
Die PS1.3 halte ich auch für ziemlich sinnlos...
HW T&L wird vermutlich noch kommen und hat zumindest im Ansatz gezeigt (MaxPayne), was es kann...
"Langsam geht mir dein Diskussionsstil kräftig gegen den Strich und deshalb schreibe ich da auch nichts mehr zu. Langsam werde ich das Gefühl nicht mehr los, dass du immer das Gegenteil schreibst, was de anderen Leute hier denken und deinen Spass dabei hast, andere damit zu ärgern."
Also ein bissel Spaß ist auch immer dabei !
Zum ärgern gehören allerdings immer zwei, gell ?
;-)
"Das finde ich langsam einfach nicht mehr lustig.
Es IST eben so, dass aths, Xmas usw. einfach kompetente Leute sind, die die neuen Techniken VERSTEHEN und BENUTZEN können."
Dann erzähl mir doch mal, warum Thowe (ebenfalls sehr, sehr kompetent !) und aths damit liebäugeln, sich eine gf4 zuzulegen. Ich verstehe das nicht...
(würde mir eine solche Karte nur zulegen, wenn ich - viel - im Lotto gewinnen würde ;-)
"Ich habe auchnoch versucht die Diskussion noch etwas aufleben zu lassen, als aths und XMas schon die Schnauze voll davon hatten, aber jetzt muss ich einsehen, dass du es nicht raffst oder nicht raffen willst. Wie gesagt, ich komme mir einfach von dir verarscht vor und ich finde, du solltest mal ein bisschen darüber nachdenken."
Deine Meinung...
(und sicher auch die, von einigen andern)
Ich sehe das allerdings anders und sehe auch nicht ein, warum ich darüber nachdenken soll, weil Du Dich aufregst. Laß es einfach bleiben, denn das schont das Herz !
;-)
"Wie auch immer, es ist deine Sache und deine Glaubwürdigkeit hast du in diesem Forum mit diesem Thread endgültig verspielt."
Damit kann ich gut leben !
(obwohl ich auch das anders sehe ...)
;-)
In diesem und auch vielen anderen Sinnen
Razor
Doomtrain
2002-02-16, 13:43:16
@Razor
Alter, deine Postings sind immer so was von lang, wie tippst du die so schnell???
Razor
2002-02-16, 13:53:27
Originally posted by Doomtrain
@Razor
Alter, deine Postings sind immer so was von lang, wie tippst du die so schnell???
Woran siehst Du, wie lange ich dafür brauche ?
;-)
Razor
Quasar
2002-02-16, 13:56:26
Ich habe Razor im Verdacht, ein umfangreiches Arsenal von Textbausteinen in einer Datenbank angesammelt zu haben und diese dann per Script automatisch zusammensetzen zu lassen... ;)
Razor
2002-02-16, 14:03:37
@Quasar
"Ich habe Razor im Verdacht, ein umfangreiches Arsenal von Textbausteinen in einer Datenbank angesammelt zu haben und diese dann per Script automatisch zusammensetzen zu lassen... ;)"
Sicher nicht !
Ist alles echte Handarbeit...
(meine arme Tastatur *hack*)
;-)
@Unreg
Du wärst mir fast durch die Lappen gegangen !
;-)
Unreg:
So? Dann kann ich genauso sagen, die DX 7 T&L Einheiten von GF1 - 2 waren *weniger sinnvoll* und brachten extrem viel *unruhe in den Markt*. Denn letzendlich gabs nur sehr wenige Spiele die wirklich davon profitieren (siehe aths' schönen Artikel)"
Razor:
Dieses 'Feature' hat sich insofern durchgesetzt, als andere Hersteller ebenfalls auf diesen Zug gesprungen sind (wenn auch sehr viel später) und sich somit langsam eine Hardwarebasis entwickelt hat, die eben in der Lage ist, extensive T&L (auf das L lege ich besonderen Wert ;-) durchzuführen. U2 wird wohl das erste Game sein, welches intensiv davon Gebrach macht, dann (und erst dann ;-) wird sich zeigen, ob 'HW T&L' überflüssig war/ist...
Unreg:
Naja alleine mit dem Unreal 2 benchmark von Anandtech wurde bewiesen dass HArdware T&L nach DX vollkommen sinnlos ist..
Lediglich, daß eine sehr starke CPU das ausgleichen kann (war ein High-End-Rechner ala Athlon XP2000+ bei Anand ;-), worauf Anand auch hingewiesen hat...
Achja und hot kann ich nur rechtgeben, im 3dconcpet forum habe ich viel von dir gehalten @ Razor aber wie du hier mit Scheuklappen durch den Thread marschierst ist schon beeindruckend.
Nicht wahr ?
;-)
Ich sehe das allerdings etwas anders...
(wie ich ja schon mehrmals sagte)
By the way, was genau sollte mich denn überzeugt haben ?
???
In diesem Sinne
Razor
Razor
2002-02-16, 14:05:12
@Quasar
Eines noch:
Wie erklärst Du Dir dann meine vielen (uneinheitlichen) Schreibfehler ?
Oder willst Du mir unterstellen, daß ich diese dann nachträglich...
;D
Bis denne
Razor
Doomtrain
2002-02-16, 14:10:26
Originally posted by Razor
Woran siehst Du, wie lange ich dafür brauche ?
;-)
Razor
An der gewaltigen Menge deiner Postings in kurzer Zeit!
Razor
2002-02-16, 14:58:38
Originally posted by Doomtrain
An der gewaltigen Menge deiner Postings in kurzer Zeit!
Kurze Zeit ?
Stunden !
Ach was sag ich, Tage, Wochen, Monate...
;-)
Razor
[fu]121Ah
2002-02-16, 15:06:40
arbeitest du eigentlich noch? lol
Razor,
weigerst dich durch das Fernrohr zu gucken, weil es sein könnte, dass du die Jupitermonde siehst. Das finde ich schwach.
Rumbuddel,
eben in diese Richtung geht auch meine Argumentation.
nggalai
2002-02-16, 17:45:36
aths,
weigerst dich durch das Fernrohr zu gucken, weil es sein könnte, dass du die Jupitermonde siehst. Das finde ich schwach.
:lol:
Bertold Brecht to the rescue!
*scnr*
ta,
-Sascha.rb
Quasar
2002-02-16, 18:05:46
Dann will ich nochmal ein Statement in den Raum stellen, in der Hoffnung, das der Thread noch nicht ganz festgefahren ist:
Ich finde, daß die Performance des GeForce4 sehr ansprechend zu sein scheint. Es ist die schnellste am Markt befindliche Karte (Ti4600) und stellt zwar keinen Generationensprung dar, aber für alle aktuellen Spiele inkl. FSAA reicht es offenbar.
Für Doom3 sollte man jedoch eher auf die DX9-Generation warten.
Ob ATi da mit ihrem zweiten Aufguß der Radeon8500 nur durch einen erhöhten Takt wird mithalten können, wage ich zu bezweifeln, solange da nichts an der Architektur geändert wird.
Der KyroIII steht sowieso außer Frage, da man noch nichts genaues weiß, und wenn er kommt, ruled er sowieso alles anderen an die Wand.
TBird
2002-02-16, 18:07:56
Originally posted by Razor
@TBird
"Genauso sehe ich das auch bei den PS1.4 kommen, wenn es denn für die Entwickler unverzichtbar sein sollte diese auch einzusetzen."
Warum sollte es 'unverzichtbar' sein, die PS1.4 einzusetzen ?
???
Es wäre z.B. unverzichtbar wenn sich mit den PS1.4 ein bestimmter Effekt realisieren lassen würde auf den die Entwickler nicht verzichten wollen und den man nicht mit den älteren PS emulieren könnte.
"Das es natürlich für die Entwickler ideal wäre immer von den selben Hardwarefähigkeiten (die sie dann natürlich hardwareunabhängig ansprechen ) ausgehen zu können ist klar, nur dann wäre der PC eine Konsole und kein PC mehr."
DirectX hat dieses zum Ziel.
Falsch. DirectX (in dem Fall DXGraphics) hat zum Ziel jede Grafikkarte mit einer standardisierten, einheitlichen und hardwareunabhängigen API ansprechen zu können. DXGraphics hat nicht zum Ziel sämtliche fehlende Funktionalität einer Grafikkarte zu emulieren. Dies wäre zudem auch unsinnig, da nicht alles in akzeptabler Geschwindigkeit emuliert werden kann. Diese muß man zur Laufzeit mittels API-Funktionen abfragen und entsprechend reagieren.
Deswegen sagte ich ja auch 'im Prinzip', denn jeder Entwickler muß selber wissen, was investiert...
Das Games, deren Grafik-Engine als Basis für viele kommenden herhalten muß, mehr können muß, als andere, ist auch klar, insofern sollte man gedenk des höheren Ertrages dann auch mehr investieren und sich dann natürlich mit den Hardware-Spezifischen Dingen herum schlagen...
Mit Hardwarespezifischen Dingen muß man sich heutzutage zum Glück nicht mehr herumschlagen, wohl aber mit Funktionsspezifischen Dingen. Das ist genau das, was Du verwechselst bzw. gleich setzt.
"Eine entsprechende Hardwarebasis und Akzeptanz muß natürlich vorhanden sein."
Das ist aber ein Punkt, der noch lange nicht als gegeben betrachtet werden kann...
"Weil die Basis dafür groß genug sein wird und weil der Aufwand sich in Grenzen hält."
WOW !
Du kannst in die Zukunft schauen und auch noch beurteilen, wie aufwendig (ich schreibe Alt-Deutsch ;-) es ist, Pixel-Shader > 1.1 zu programmieren... nicht schlecht...
;-)
Ich kann es übrigens auch nicht, kenn aber so einige Aussagen zu diesem Thema und eines kann ich Dir versichern: Es ist lange nicht so trivial, wie dieses verunstaltete Truform in 30-60min einzubauen !
Na Du bist aber auch kein schlechter Hellseher, wenn Du angeblich weißt das die Basis für PS1.4 noch nicht gegeben ist. ;)
Ich weiß nicht in wie weit Du Dich schonmal mit der Programmierung von PS beschäftigt hast, aber ich kann Dir versichern das es sich dabei nicht um Magie oder Zauberei handelt oder das dies gar nur ein gewisser JC bis zur Perfektion beherrscht. PS bis Version 1.1 habe ich jedenfalls schon geschrieben und ich kenne auch die neuen Befehle, Register und Modifier der PS > 1.1. Ich kenne also den Aufwand einen PS zu schreiben, wobei sich dies natürlich nur auf die beschränkt die ich selbst bisher geschrieben habe. Was der Herr Carmack oder andere für PS schreiben weiß ich leider nicht (wäre mal interessant zu sehen). Ich kann Dir nur versichern das die auch nur mit Wasser kochen und die gleichen Befehle, Register und Modifier zur Verfügung haben wie jeder andere auch. PS > 1.3 zu programmieren ist prinzipiell nicht aufwendiger als bei früheren Versionen, da sich die neuen Befehle und Register die man zur Verfügung hat überschaubar in Grenzen halten, daß hängt aber natürlich auch immer davon ab welchen Effekt man beabsichtigt zu programmieren, derer gibt es unzählige. Ich würde mich aber freuen die von Dir angegebenen Aussagen mal zu lesen.
TBird
2002-02-16, 18:24:21
Originally posted by Quasar
Ob ATi da mit ihrem zweiten Aufguß der Radeon8500 nur durch einen erhöhten Takt wird mithalten können, wage ich zu bezweifeln, solange da nichts an der Architektur geändert wird.
Ich bin jedenfalls gespannt auf die Radeon 8800. Wenn die Treiber von ATI besser werden und die Performance ordentlich zulegt, würde ich den Kauf dieser Karte ernsthaft in Erwägung ziehen. Mal schaun...
Der KyroIII steht sowieso außer Frage, da man noch nichts genaues weiß, und wenn er kommt, ruled er sowieso alles anderen an die Wand.
Ja, und wenn die Bitboys ihren Chip auf den Markt geworfen haben gibt es nur noch einen Grafikchiphersteller. :rofl:
Aber da werde ich dann wohl schon in Rente sein. :lol:
Quasar
2002-02-16, 18:50:12
Gespannt bin ich auch auf den neuen ATi-Aufguß. Und auch ich will nicht ausschließen, daß ich mir so ein Teil eventuell zulegen könnte, allerdings fürchte ich, daß die Mehrleistung ggü. meiner jetzigen Graka nicht eine Neuanschaffung rechfertigen würde.
Man spekuliert ja mit 350/350MHz....doch ohne Verbesserungen in der Logik, bzw. der Architektur könnte das zu wenig sein, um eine GF4 mit 300/325 in Schach zu halten.
Die GF4 ist Takt für Takt deutlich leistungsfähiger als die GF3. Und selbst mit der hatte ATi schon ihre Liebe Müh' und Not, obwohl die jeweiligen Takte um 14,5 und 10% höher lagen.
Nun könnten es 16,6 und 7,5% Mehrtaktung (immer ausgehend von den aktuellen Gerüchten) und das halte ich angesichts der erhöhten Effizienz der GeForce4 für zu wenig.
@Com1
U2 wird wohl das erste Game sein, welches intensiv davon Gebrach macht, dann (und erst dann ;-) wird sich zeigen, ob 'HW T&L' überflüssig war/ist...
Ich habe von DX7 HW T&L gesprochen. Nutzt U2 DX7 konformes HW T&L?
Habe ich den Schritt von Radeon1 auf Radeon2 mit dem Schritt von gf3 auf gf4(ti) verglichen ?
Sicher nicht...
Razor
Nein. Aber du hast die R8500 mit "Innovationsbremse" in verbindung gebracht. Und die ist für "die innovation als ganzes" ein Riesenschritt gewesen. Warum? nun, es war immerhin die erste echte Alternative zur Geforce 3.
Rumbuddel
2002-02-16, 21:10:55
@Razor
1.)Die Radeon 8500 lag zeitlich vor der GF3 TI Serie
2.)Hättest du mal ordentlich mein Post gelesen, wäre dir aufgefallen, daß ich mehrfach sagte, nVIDIA handele natürlich marktwirtschaftlich. Aber es ging um Innovationsbremsen.
3.)Du hast keine Ahnung womit nVIDIA am meisten verdient. Die Highendboards dienen nicht dazu, irgendwelche FPS-Junkies zu melken, sondern um die MX Serie zu vermarkten und für die OEM Hersteller nen guten Namen zu machen.
*P4 1.6 mit blablabla SD-RAM und 64MB GF2! (MX 200 natürlich)*
Die Gewinne aus den Highendboards sind marginal.
Und deshalb
4.)Erscheint mit der 4600 zusammen auch erstmal die ganze MX Kacke und später erst die 4400 und 4200.
5.)Warum sollte ATI die Preise für die Radeon 8500 gesenkt haben müssen? Ne Graka auf einem Niveau mit der TI 500 nur deutlich und dann noch deutlich preiswerter!
6.)Die GF3 TI Serie hat absolut nothing mit WinXP zu tun. Stell dir vor, bis zum erscheinen des GF4 -erst in einigen Wochen- wäre die alte GF 3 die Konkurrenz zur Radeon 8500 gewesen. LOOOOOOOOL!
Sorry, aber von marktwirtschaftlichen Zusammenhängen hast du null Plan.
Und wie gesagt, es ging nicht darum, daß nVIDIA marktwirtschaftlich so handelt, sondern nur, daß dieses Handeln innovationsbremsend ist.
so long
Quasar
2002-02-17, 18:59:41
Originally posted by aths
TBird,
du schreibst: "Aber zeige mir ein Entwicklerteam, daß explizit von PS1.4 abstand nehmen wird, weil es die GF4 nicht hat. Ich kenne bis jetzt keines."
Nun, ich kenne kein Team welches überhaupt direkt PS.1.4-Support ankündigte. Eben das wäre vermutlich anders gelaufen, würde NV25 zu dieser Technik kompatibel sein.
Auch wenn es nicht direkt das ist, was ihr angesprochen habt, so fand ich dieses Quote sehr interessant, es stammt aus Rivastations GF4 Review:
Stefan Herget - Managing Director of Codecult: Thanks to its extremely modular and flexible architecture, the CODECREATURES engine is arbitrarily expandable and supports PS 1.4.
The game developer can implement special PS effects, therefore it depends on his decision whether version 1.4 or only 1.1 or 1.3 is supported. The library of prefabricated Shader effects provided by us will first be optimized for the common hardware base, and will thus use version 1.1 or 1.3, although the engine already supports 1.4. We will later extend our effect library directly for version 2.0.
Hervorhebung von mir
Auch wenn sowohl Quelle als auch Urheber ein wenig voreingenommen sein mögen, so denke ich, daß das ziemlich genau der Weg sein wird, dem sich mehr oder minder alle Developer anschließen werden. Klug gemacht, nVidia.
Quasar,
ich bin mir nicht sicher, ob ich dir ganz folgen kann und würde mich freuen, wenn du deine Gedanken noch ein mal neu formulierst.
Razor
2002-02-17, 20:27:30
@aths
"weigerst dich durch das Fernrohr zu gucken, weil es sein könnte, dass du die Jupitermonde siehst. Das finde ich schwach."
Dies als Argumentationsersatz zu nehmen, finde ICH schwach...
;-)
Oder auf welches meiner Kommentare soll das bezogen sein ?
???
@TBird
"Es wäre z.B. unverzichtbar wenn sich mit den PS1.4 ein bestimmter Effekt realisieren lassen würde auf den die Entwickler nicht verzichten wollen und den man nicht mit den älteren PS emulieren könnte."
Zum Beispiel ?
"Falsch. DirectX (in dem Fall DXGraphics) hat zum Ziel jede Grafikkarte mit einer standardisierten, einheitlichen und hardwareunabhängigen API ansprechen zu können. DXGraphics hat nicht zum Ziel sämtliche fehlende Funktionalität einer Grafikkarte zu emulieren. Dies wäre zudem auch unsinnig, da nicht alles in akzeptabler Geschwindigkeit emuliert werden kann. Diese muß man zur Laufzeit mittels API-Funktionen abfragen und entsprechend reagieren."
Sorry, da hab' ich wohl in die Tonne gegriffen !
;-)
Aber das Fehlen eines Hardware-Features verhindert nicht, daß nun gleich die komplette Grafik nicht mehr dargestellt werden kann, sondern eben nur der davon Gebracuh machende Effekt. Im Falle von einem Feature wie T&L wird es eben über die CPU emuliert, wenn die Hardware dazu nicht in der Lage ist.
"Mit Hardwarespezifischen Dingen muß man sich heutzutage zum Glück nicht mehr herumschlagen, wohl aber mit Funktionsspezifischen Dingen. Das ist genau das, was Du verwechselst bzw. gleich setzt."
Könntest Du mir dafür mal ein Beispiel geben ?
Was ist für Dich Hardware-, was Funktionsspezifisch ?
"Na Du bist aber auch kein schlechter Hellseher, wenn Du angeblich weißt das die Basis für PS1.4 noch nicht gegeben ist."
'Angeblich' ist gut, zur Zeit ist dem sogar mit Sicherheit so !
;-)
Zur PS-Programmierung...
Wenn Du denn erfahrener PS-Programmierer bist, dann würde ich mich sehr um einen beschriebenen Effekt freuen (gerne auch via PM), der mit den PS <1.4 nicht darstellbar ist. Auch wäre ich für ein kuzes Beispiel dankbar, welches aufzeigt, wo die Unterscheide der PS1.1/1.4 zu suchen sind. Die Instruktionen und die damit verbundenen Funktionen hat Tommiti-Systems ja schon mal aufgezeigt, nicht aber wie es mit 'einfachen' Mittel möglich sein soll, PS1.1-Code auf die PS1.4-Struktur zu übertragen...
Wäre Dir wirklich dankbar dafür !
"Ich bin jedenfalls gespannt auf die Radeon 8800."
Jep, ich auch...
Ob das dann einen ähnlichen Wirbel gibt, wie den um die gf4(ti) ?
;-)
@Com1
"Ich habe von DX7 HW T&L gesprochen. Nutzt U2 DX7 konformes HW T&L?"
Jep...
Nach allem, was ich bisher darüber gehört und gelesen habe...
"Nein. Aber du hast die R8500 mit "Innovationsbremse" in verbindung gebracht. Und die ist für "die innovation als ganzes" ein Riesenschritt gewesen. Warum? nun, es war immerhin die erste echte Alternative zur Geforce 3."
Nun ja, zugegebener maßen war die Bezeichnung "Innovationsbremse" auch ein bissel hart. Aber "nun, es war immerhin die erste echte Alternative zur Geforce 3" laß ich zu 100% gelten, denn es wurde ja schon fast langweilig, auf weiter Flur nur die gf3 zu sehen... Jetzt ist's wieder 'spannend', aber so richtig empfehlen kann ich die R8500 leider noch nicht. Aber wer weiß vielleicht werd' ich mir ja aus Spaß mal die R8800 zulegen (damit's bis zun R300/NV30 nicht so langweilig wird ;-) und mir das Dingelchen mal näher anschaun. Auch wäre die R8500 als 'Firmenkarte' recht interessant, die man als Arguemnt für 'nen Arbeitsplatzrechner nehmen könnte (mal was anderes als Matrox für's Dual-Head ;-)...
Schaun' wir mal...
;-)
@Rumbuddel
"1.)Die Radeon 8500 lag zeitlich vor der GF3 TI Serie "
GF3Ti = Oktober 2001
R8500 = November 2002
"3.)Du hast keine Ahnung womit nVIDIA am meisten verdient. Die Highendboards dienen nicht dazu, irgendwelche FPS-Junkies zu melken, sondern um die MX Serie zu vermarkten und für die OEM Hersteller nen guten Namen zu machen."
Jep, seh' ich übrigens genauso...
Ist wie mit der Autoindustrie und der Formel1, gell ?
;-)
"Und deshalb
4.)Erscheint mit der 4600 zusammen auch erstmal die ganze MX Kacke und später erst die 4400 und 4200."
Seh ich nicht so...
Würden sie jetzt (!) die 4200/4400 bringen wären die gf3ti200/500 Ladenhüter und das würde die Abnehmer sicher net freun', oder ? (wer sich jetzt allerdings noch 'ne Ti500 holt, gehört wirklich ersch... (@aths: symbolisch gemeint ;-), es sei denn der Preis würde das rechtfertigen...
"5.)Warum sollte ATI die Preise für die Radeon 8500 gesenkt haben müssen? Ne Graka auf einem Niveau mit der TI 500 nur deutlich und dann noch deutlich preiswerter!"
Der Einstandspreis war bei der R8500 genau so hoch, wie auch bei der Ti500... aber die Preise purzelten bei der R8500 sehr viel schneller, als bei den gf's !
"6.)Die GF3 TI Serie hat absolut nothing mit WinXP zu tun. Stell dir vor, bis zum erscheinen des GF4 -erst in einigen Wochen- wäre die alte GF 3 die Konkurrenz zur Radeon 8500 gewesen. LOOOOOOOOL!"
Nicht nur die gf3ti, sondern auch die gf2ti, samt DetoXP, zeitgleich zum Start von WindowsXP !
Ein wirklich gutes Beispiel, für Marketing ala nVidia...
(alles übrigens im Oktober 2001, erst die Treiber und zum Start von XP dann auch die Karten)
;-)
"Sorry, aber von marktwirtschaftlichen Zusammenhängen hast du null Plan."
Was ich leider an Dich zurück geben muß...
:-(
@Quasar
Wirklich interessant, Dein Zitat...
Stimme mir Deiner Ansicht überein, daß dies wohl der paktikabelste Weg ist, mit diesem 'PixelShader-Wirrwar' (gruß an aths ;-) unzugehen.
Schaun' wir mal, was da so kommt, denn das FlyBy-Video von Codecult sah wirklich sehr nett aus !
;-)
Bis denne
Razor
Der Einstandspreis war bei der R8500 genau so hoch, wie auch bei der Ti500... aber die Preise purzelten bei der R8500 sehr viel schneller, als bei den gf's !
Nein. Auch die alleresten LE's gabs schon für unter 300 € zu kaufen.
Am 5.12. hab ich meine LE gekauft für 535 DM, bei Compuflash.org.
und was heißt "schneller gepurzelt als bei GF's" Also meiner Meinung nach sind die Preise bei den GF3s nie "gepurzelt", höchstens leicht gefallen... Selbst die UR GF3, die es in manchen Shops noch gibt, ist immernoch kaum unter 700 DM zu bekommen.
Richthofen
2002-02-17, 21:44:13
@Com1
"Nein. Auch die alleresten LE's gabs schon für unter 300 € zu kaufen"
Leider ziemlich uninteressant, weil dad nich die Retail Version ist die als Gegenstück zur GF3Ti500 anzusehen ist.
Was den Erscheinungstermin angeht, so war die Ti500 eindeutig vorher da.
Sorry Leute aber was als Erscheinungstermin aufm Papier irgendwo steht interessiert doch niemanden.
Bitte einmal kurz drüber nachdenken, wie es ausgeschaut hat mit der Verfügbarkeit der Radeon8500 Retail.
Da könnte man heute und wir haben Februar noch bei einigen ein Lied von singen.
"schneller gepurzelt als bei GF's. Also meiner Meinung nach sind die Preise bei den GF3s nie "gepurzelt", höchstens leicht gefallen... Selbst die UR GF3, die es in manchen Shops noch gibt, ist immernoch kaum unter 700 DM zu bekommen."
Das würde ich sagen ist ATIs Problem :)
Die Radeons werden weiter fallen, denn niemand ist wirklich dazu bereit für das Schmuddelzeugs von ATI genausoviel zu zahlen wie für Nvidia.
@Razor
"Nicht nur die gf3ti, sondern auch die gf2ti, samt DetoXP, zeitgleich zum Start von WindowsXP !
Ein wirklich gutes Beispiel, für Marketing ala nVidia...
"
So siehts aus. AMD kannst auch dazupacken. Derren Marketing war früher auch imma scheisse aba seid dem XP Athlon haben sie wirklich was gelernt :)
ATI versuchts halt lieber mit Präsentationen die naja sind wir mal ehrlich jedem Deppen aufzeigen, wer das Sagen hat und wer nit :)
Zum Schluss noch eine Bemerkung.
PS1.4 wird niemanden in der Gaming Industrie wirklich interessieren.
Die setzen wenn überhaupt dann den kleinsten Nenner nämlich 1.1 ein und irgendwann in 2 Jahren den 2.0er Standart wenn dafür die Verbreitung unter den Kunden vorhanden ist.
Originally posted by Richthofen
@Com1
Leider ziemlich uninteressant, weil dad nich die Retail Version ist die als Gegenstück zur GF3Ti500 anzusehen ist.
Als ob nvidia selbst auch Karten verkaufen würde...
Außerdem ist der Leistungsunterschied zwischen LE und Retail ziemlich gering.
Quasar
2002-02-18, 00:18:56
aths, Razor hat's schon angesprochen. Das Quote bezog sich auf die Diskussion, ob und wann sich welche Variante der PX durchsetzen könnte. Dazu kamen Kommentare, das man diesbezüglich noch nichts von den Entwicklern hören würde.
Das Quote selber stammt von den Code-Cult Entwicklern, die ein GF4-Launch Demo bereitgestellt hatten. Deswegen meine Anmerkung bezgl. deren Verläßlichkeit.
Quasar,
ich lese Razors Postings nicht mehr, weil der Zeitaufwand in keinem Verhältnis zum Nutzen steht.
Ich kenne dein Zitat (seit dem THG-GF4-Test), aber sehe nicht, inwiefern nVidia "sehr schlau" gehandelt hätte.
Richthofen,
ich denke dass dieses Forum auf Äußerungen wie "imma scheisse aba" verzichten kann. (Diese Bitte, sich vernünftig auszudrücken, ist noch freundlich.)
skampi
2002-02-18, 09:49:40
Originally posted by Richthofen
Das würde ich sagen ist ATIs Problem :)
Die Radeons werden weiter fallen, denn niemand ist wirklich dazu bereit für das Schmuddelzeugs von ATI genausoviel zu zahlen wie für Nvidia.
Häää? Was meinst Du den mit "Schmuddelzeugs"?
Eher mag ich Dich in die Proll-Ecke stellen. NV sieht seine Zielgruppe jedenfalls dort, sonst würden so markige Kürzel wie GTS,TNT und GeFORCE ihre Wirkung verfehlen.
skampi
@aths NVidia handelt sehr wirtschaftlich. Erstmal die DX7 Kuh nochmal bis zu Ende melken (mit der G4 MX) bis die Konkurrenz zu stark geworden ist. Dann will NV im mainstream Bereich auf DX8 umsteigen. Nicht blöd. Bin mal gespannt ob die Rechnung aufgeht ;)
Insofern verhält sich der Marktführer (im mom NV) wie eine Innovationsbremse, bis die Konkurrenz zu stark geworden ist. Das ist auch gut so, denn sonst gäbe es keine Konkurrenz.
TBird
2002-02-18, 20:00:02
Originally posted by Razor
@TBird
"Es wäre z.B. unverzichtbar wenn sich mit den PS1.4 ein bestimmter Effekt realisieren lassen würde auf den die Entwickler nicht verzichten wollen und den man nicht mit den älteren PS emulieren könnte."
Zum Beispiel ?
Da ich mit den PS1.4 bisher noch nix praktisches gemacht habe (außerdem fehlt mir entsprechende Hardware dazu), kann ich Dir das auch nicht sagen, aber aufgrund der neuen Befehle wäre es gut möglich. Wie ich oben schon geschrieben habe ist das eine reine Spekulation von mir.
"Mit Hardwarespezifischen Dingen muß man sich heutzutage zum Glück nicht mehr herumschlagen, wohl aber mit Funktionsspezifischen Dingen. Das ist genau das, was Du verwechselst bzw. gleich setzt."
Könntest Du mir dafür mal ein Beispiel geben ?
Was ist für Dich Hardware-, was Funktionsspezifisch ?
Hardwarespezifisch eine Grafikkarte programmieren, heißt für mich direkt die Ports und Interrupts der Grafikkarte ansprechen. Also LowLevel Programmierung. Da jede Grafikkarte unterschiedlich programmiert wird, müßte man für jede entsprechende Karte eine Art Treiber schreiben. Diese Aufgabe übernehmen heutzutage die Hersteller und man greift einheitlich mittels APIs auf die Funktionen der Karte zu. Also HighLevel Programmierung. Trotzdem man HighLevel programmiert muß man aber die Funktionalität der Karte abfragen. Beispiel: Multitexturing. Wenn man einfach stur drauf los einen Codepath eingeben würde, erhielte man einen Fehler auf Hardware die dies nicht unterstützt. Daher muß man (wenn es geht) auf anderem Wege zum Ziel kommen, mittels Multipass. Darum muß zur Laufzeit die entsprechende Funktionalität abgefragt werden. Jetzt verstanden was ich mit Hardwarespezifisch und Funktionsspezifisch meine ???
"Na Du bist aber auch kein schlechter Hellseher, wenn Du angeblich weißt das die Basis für PS1.4 noch nicht gegeben ist."
'Angeblich' ist gut, zur Zeit ist dem sogar mit Sicherheit so !
;-)
Wenn Du Dir so 100% sicher bist dann frage ich: Wo sind die Fakten ???
Zur PS-Programmierung...
Wenn Du denn erfahrener PS-Programmierer bist, dann würde ich mich sehr um einen beschriebenen Effekt freuen (gerne auch via PM), der mit den PS <1.4 nicht darstellbar ist. Auch wäre ich für ein kuzes Beispiel dankbar, welches aufzeigt, wo die Unterscheide der PS1.1/1.4 zu suchen sind. Die Instruktionen und die damit verbundenen Funktionen hat Tommiti-Systems ja schon mal aufgezeigt, nicht aber wie es mit 'einfachen' Mittel möglich sein soll, PS1.1-Code auf die PS1.4-Struktur zu übertragen...
Wäre Dir wirklich dankbar dafür !
Aber gerne doch. Allerdings habe ich nicht gesagt, daß ich einen Effekt kenne der nicht mit älteren PS machbar wäre. Ich habe das in der Möglichkeitsform geschrieben, wie Du sicher übersehen hast. Und das ich "erfahrener" PS Programmierer bin steht auch nirgendwo. Mir ging es um die ursprüngliche Frage, ob PS1.4 überhaupt zum Einsatz kommen werden. Und das werden sie.
PS1.1 Code auf die PS1.4 Struktur zu übertragen ist sinnlos. Andersrum wird ein Schuh draus. PS1.4 Hardware ist abwärtskompatibel kann also auch alle älteren Shader ausführen. Simples Beispiel:
ps.1.0
tex t0
mov r0, t0
Da gibts nix umzusetzen auf 1.4. Aber jetzt mal zu den PS1.4. Es gibt 5 neue Befehle (bem, phase, texcrd, texdepth und texld). Desweiteren gibt es 4 temporäre Register mehr (also insgesamt 6) und 2 Texturregister mehr (also insgesamt 6) und die beiden Colorregister sind nur ab phase 2 verfügbar. Dann gibt es noch 3 neue Instruction Modifier (_x8, _d4 und _d8), einen neuen Source Register Modifier (_x2), zwei neue Source Register Selectors (.r und .g), vier Destination Register Write Masks (.r, .g, .b, .rgba) und zu guter letzt vier neue Texture Register Modifiers für die Befehle texld und texcrd (_dz, _db, _dw und _da).
Razor
2002-02-20, 00:10:14
@Com1
Der Einstandspreis war bei der R8500 genau so hoch, wie auch bei der Ti500... aber die Preise purzelten bei der R8500 sehr viel schneller, als bei den gf's !
Nein. Auch die alleresten LE's gabs schon für unter 300 € zu kaufen.
Ich will ja nicht nerven, aber ich sprach von der Ti500 und der R8500 Retail (was ich leider nicht dazu schrieb), oder wolltest Du ernsthaft die Ti500 mir der R8500LE vergleichen ?
???
Am 5.12. hab ich meine LE gekauft für 535 DM, bei Compuflash.org.
und was heißt "schneller gepurzelt als bei GF's" Also meiner Meinung nach sind die Preise bei den GF3s nie "gepurzelt", höchstens leicht gefallen... Selbst die UR GF3, die es in manchen Shops noch gibt, ist immernoch kaum unter 700 DM zu bekommen.
So meinte ich das auch...
Die Preise der Radeons sind sehr stark gefallen, die der gf3 wenig...
Nach ner aktuellen News soll die R8500 Retail übrigens demnächst für 168€ zu haben sein...
(wenn die 128MB-Varianten kommen)
'Ne Sache von Angebot und Nachfrage halt...
;-)
@Richthofen
"So siehts aus. AMD kannst auch dazupacken. Derren Marketing war früher auch imma scheisse aba seid dem XP Athlon haben sie wirklich was gelernt :)"
Jep hab' ich glatt vergessen !
;-)
Insofern war nVidia tatsichlich nicht die einzige Firma, die auf den XP-Zug aufgesprungen ist...
@aths
"ich lese Razors Postings nicht mehr, weil der Zeitaufwand in keinem Verhältnis zum Nutzen steht."
Tja, wenn Dir die Argumente ausgehen...
"Ich kenne dein Zitat (seit dem THG-GF4-Test), aber sehe nicht, inwiefern nVidia "sehr schlau" gehandelt hätte."
Sie haben den Aufwand nicht treiben müssen, die Spezifikation der ursprünglichen gf3 extrem zu erweitern, können auf eine bewährte Technologie zurück greifen und lassen zudem ATI mit ihrer Entwicklung 'im Regen' stehen, während ATI nVidia's Entwicklung zwingend unterstützen muß (DX8-Compliance als Voraussetzung für die DX8.1-Compliance)...
Wenn das nicht "sehr schlau" war ?
(in JEDER Hinsicht ;-)
@skampi
"Häää? Was meinst Du den mit "Schmuddelzeugs"?
Eher mag ich Dich in die Proll-Ecke stellen. NV sieht seine Zielgruppe jedenfalls dort, sonst würden so markige Kürzel wie GTS,TNT und GeFORCE ihre Wirkung verfehlen."
Richthofen hat es vielleicht etwas hart ausgedrückt, aber Tatsache ist, daß die Nachfrage eher bescheiden ist und das Produkt Radeon8500 wohl nur über Dumping-Preise zu vertreiben ist. Das läßt gewisse Rückschlüsse zu...
@HOT
"Bin mal gespannt ob die Rechnung aufgeht ;)"
Wird sie...
;-)
Zu dem Thema 'Innvoationsbremse hab' ich mich ja nun schon hinreichend geäussert...
@TBird
"Da ich mit den PS1.4 bisher noch nix praktisches gemacht habe (außerdem fehlt mir entsprechende Hardware dazu), kann ich Dir das auch nicht sagen, aber aufgrund der neuen Befehle wäre es gut möglich. Wie ich oben schon geschrieben habe ist das eine reine Spekulation von mir."
Schade, hätte micht wirklich interessiert...
Leider haben nur die Entwickler der ATI Demo's gemeint, daß Effekte nur via PS1.4 zu machen seien, aber das wage ich zur Zeit (bis mir jemand das Gegenteil zeigt) noch in Frage zu stellen.
"Jetzt verstanden was ich mit Hardwarespezifisch und Funktionsspezifisch meine ?"
Jep und auch, warum Du der Meinung bist, daß man sich hardwarespezifische Dinge nicht mehr kümmern muß. Aber war das denn jemals der Fall ?
???
"Wenn Du Dir so 100% sicher bist dann frage ich: Wo sind die Fakten ?"
Ich wage erst einmal zu behaupten, daß sich die R8500 nicht sonderlich gut verkaufen und nehme als Beleg den sehr schnell fallenden Preis, der eigentlich in unserer Marktwirtschaft nur so zu erklären ist...
Zu den PixelShadern:
Das man die PS1.1 Befehle auch mit dem PS1.4 ausführen kann, war mir klar (via Interpretation bzw. Emulation vermutlich). Aber es muß doch auch möglich sein, echte PS1.4-Befhle zu nutzen, um PS1.1-Effekte zu realisieren, oder ?
Auch hast Du beschrieben, daß die PS1.4 lediglich eine Art Erweiterung der PS1.3 (?) darstellen (u.a. 5 neue Befehel etcpp). ATI hat da was anderes behauptet (i.e. komplette Überarbeitung, bzw. Optimierung)... Wie ist es dann zu erklären, daß ein Effekt z.Bsp. auf PS1.1 oder (!) PS1.4 optimiert werden kann, damit er dann entweder auf gf3 oder R8500 optimal läuft ? Auch wurde bisher immer darüber berichtet, daß es sehr aufwendig sei beide Versionen in gleichem Maße zu unterstützen. Soll dies alles dann eine reine Erfindung gewesen sein (inklusive dem, was ATI von sich gab), oder habe ich Dich nun mißverstanden ?
Hmmm... wie schon gesagt, bin kein PS-Programmierer...
Bis denne
Razor
Andre
2002-02-20, 00:25:39
Originally posted by Razor
Ich wage erst einmal zu behaupten, daß sich die R8500 nicht sonderlich gut verkaufen und nehme als Beleg den sehr schnell fallenden Preis, der eigentlich in unserer Marktwirtschaft nur so zu erklären ist...
Richthofen hat es vielleicht etwas hart ausgedrückt, aber Tatsache ist, daß die Nachfrage eher bescheiden ist und das Produkt Radeon8500 wohl nur über Dumping-Preise zu vertreiben ist. Das läßt gewisse Rückschlüsse zu...
Nicht ganz.
Eine Preissenkung auf dem Markt kann durch eine gesteigerte Menge (z.B. bei Überproduktion, aber auch bei schlechtem Absatz) auftreten - richtig.
Aber wenn ich Marktanteile gewinnen will, kann ich auch den Preis senken, auch wenn ich KEINE Absatzstockungen haben sollte - nichts anderes hat AMD jahrelang praktiziert.
Sind die Waren von Walmart schlecht, weil sie billiger sein können?
Absatzsteigerung durch niedrigen Preis - und ATI hat genug Kohle im Rücken, um genau das zu machen.
Vom Preis auf den existierenden Absatz zu schließen, kann gehörig in die Hose gehen - denn das ist nur eine von vielen Seiten und Methoden unserer Wirtschaft Absatz zu steigern oder Marktanteile zu gewinnen.
Und woher nimmst Du Deine Aussage, dass die Nachfrage gering sein sollte (außer von Deiner "komischen" Ableitung)?
Razor
2002-02-20, 00:40:09
@Andre
- Ursprünglich wurde sie für 499$ angegeben...
- Noch vor Erscheinen resuzierte ATI auf 399$...
- Dann gab es 'Lieferschwierigkeiten' (= geringer oder gar sehr geringer Absatz)...
- Seit November ist sie am Markt verfügbar und nun haben wir Mitte Februar...
- Nun soll sie demnächst nur noch 169$ kosten...
Nach also nur 3-4 Monaten, von denen noch locker 'nen Monat oder gar zwei wegen Leiferengpässen abgezogen werden muß, ist die Karte nicht einmal mehr halb so teuer ?
???
Entweder war die Karte viel zu überteuert (und so auch nicht am Markt zu plazieren), oder die Gewinnspanne wird immer kleiner, was sich letztlich auch auf die Preise des OEM-Geschäftes auswirkt und damit auch das sehr viel lukrativere Geschäft außerhalb des Retails beeinflußt. Auch werden die ganzen Partner zu einer geringeren Marge gezwungen, was diese sicher auch nicht sehr witzig finden. Wenn man sich vorher darüber beschwert hat, daß NV-Chips zu teuer im Einkauf seien, muß man doch nun sagen, daß ATI-Karten zu billig im Abverkauf werden...
Und das hat ATI schon früher einmal gemacht ?
Ah ja...
Hört sich wirklich sehr merkwürdig an !
;-)
Razor
Razor,
du machst dich lächerlich mit: "Tja, wenn Dir die Argumente ausgehen..." womit zu zeigst, dass es dir auf den "Kampf" ankommt, nicht auf fruchtbare Diskussionen. Argumente haben Sinn, wenn der Gegenüber darauf eingeht, was bei dir aber höchstens rudimentär der Fall ist. Dir fehlt außerdem ein beträchtliches Stück Wissen, um bei solchen Detailfragen wirklich argumentieren zu können. Stattdessen liest man von dir unstete Mutmaßungen, nvidiotische Scheuklappen-Argumente u.ä.
Du quotest aus dem Zusammenhang gerissene Sätze, und überlegst nur, wie du dagegen anreden kannst; und nicht ober der andere nicht vielleicht recht haben könnte. Alternativ schließt du dich in einer geradezu schleimigen Art einem anderen in seiner Meinung an.
Hin und wieder kommt mal was brauchbares. Das erinnert mich allerdings eher an das Sprichwort "Ein blindes Huhn findet auch mal ein Korn". In der Regel verwendest du Smileys in einem zudringlichem Ausmaß, dass du schon klebrig wirkst. Damit lässt du dir für alle Fälle Hintertüren offen, so dass man dich nicht auf etwas festmachen kann. Hast du dich gerirrt, so drehst du den Spieß um und der andere hätte dich falsch verstanden...
An deinen Fragen zum PS ist klar zu erkennen, dass du dich noch immer nicht damit beschäftigt hast und weiterhin darauf wartest, alles mundgerecht vorgekaut zu bekommen.
Wie ein kleines Kind schreist du ständig rum, und zwar nach Belegen und Beweisen; alles was in deine Welt nicht passt, soll dir erst mal wasserdicht nachgewiesen werden. Dieses idiotische Spielchen mache ich aber nicht mit; mir ist echt egal, was du glaubst - denn Tatsachen bleiben Tatsachen. Ob du sie nun akzeptierst oder penetrant dagegen anredest.
edit: Um klar Schiff zu machen und Bandbreite zu sparen werde ich jetzt mal meine ignore-Liste editieren.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.