PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : "Nvidias Cheating" – Kommentar


aths
2006-06-14, 16:07:50
In der Signatur von Mike1 findet man einen Link zu dieser Site: http://www.hardware-durchblick.de/html/special/aktenvidia01.htm

Der Bericht nennt sich "Die Akte Nvidia". Seit einiger Zeit drängt es mich, da mal einiges richtig zu stellen. Seite für Seite:

Einleitung: (Link (http://www.hardware-durchblick.de/html/special/aktenvidia01.htm)) Es stimmt, dass Nvidia lange Zeit von vielen als geniale Firma mit den prinzipiell besten Produkten gesehen wurde. Nicht bestätigen kann ich aber die Behauptung "niemand scheint sich zu trauen Kritik daran zu üben" – Leonidas hat jede Firma, auch Nvidia, schon immer auch kritisch betrachtet. Auch ram von 3dconcept.ch hat Nvidia nur dort gelobt, wo es was zu loben gab – und die Konkurrenz mindestens ebenso wohlwollend betrachtet, und dort, wo es etwas zu kritisieren gab, unabhängig vom Herstellernamen Klartext gesprochen.

TNT 1, Voodoo2 und Voodoo Banshee: (Link (http://www.hardware-durchblick.de/html/special/aktenvidia03.htm)) Hier wird ausführlich von 3dconcept zitiert. Durch selektive Fettschrift wird der Sinn des Textes aber aus meiner Sicht verfälscht. Der Autor wirft Nvidia massives Lügen vor. Nvidia hatte sich zwar tatsächlich zunächst groß für die geplanten Taktraten feiern lassen, um sich dann mit einem deutlich schwächeres Produkt zu blamieren – aber worin besteht die Lüge?

TNT 2 und Voodoo 3: (Link (http://www.hardware-durchblick.de/html/special/aktenvidia04.htm)) Hier wird die leidige 32-Bit-Story betrachtet. Ja, zu Voodoo3-Zeiten brauchte man den 32-Bit-Framebuffer nur in wenigen Fällen. Ja, 3dfx' 16-Bit-Qualität war Nvidias 16-Bit-Qualität überlegen, insofern fuhr man mit der Voodoo besser – erst recht anbetrachts der damals noch oft genutzten Glide-Schnittstelle. Doch der Artikel enthält falsche Behauptungen. So rechnet die Voodoo intern natürlich nicht mit 22 Bit, sondern die Farbe mit 24 Bit – wie die TNT auch. Die geditherte 16-Bit-Ausgabe wurde bei der Voodoo aber auf 22 Bit hochinterpoliert.

Dass die TNT AGP-Texturing bot und die Voodoo3 nicht, würde ich nicht Nvidia negativ ankreiden. Diese Technik wurde von Intel erfunden, um möglichst preiswerte Grafikchips (mit möglichst wenig Speicher) noch irgendwie zu 3D-Grafik überreden zu können. Dass die Hersteller mit Features werben, die zum Zeitpunkt des Marketings noch nicht genutzt werden, kann man ihnen wohl kaum zum Vorwurf machen.

Bei Nvidia ist die Lage nun so, dass besonders oft mit Features geworben wurde (und wird), die in der Lebenszeit des Produktes keine praktische Relevanz erlangen. Doch Entwicklern sollte man die Features so schnell wie möglich in Hardware gegossen zur Verfügung stellen – rein aus Käufer- und Sofortnutzen-Sicht argumentiert, wäre auch ATI einiges "anzulasten".

Die Patentrechsklage: (Link (http://www.hardware-durchblick.de/html/special/aktenvidia05.htm)) Erinnern wir uns: 3dfx verklagte Nvidia wegen Abkupferung von Features wie MIP-Map-Dithering. Nvidia reagierte mit einer Gegenklage. Dazu muss man wissen, dass die Ingenieure beider Firmen überwiegend von SGI stammen, und man davon ausgehen kann, dass möglicherweise auch unabhängig voneinander die gleiche Lösung gefunden wurde. Der Artikel schreibt: "NVidia wollte mit dem Prozess 3dfx wohl entgültig (sic) fertigmachen." Nicht kritisiert wird das Verhalten von 3dfx, die eisern die Hand auf der der Glide-Schnittstelle hielten um sich lästige Konkurrenz vom Hals zu halten. Nicht kritisiert wird 3dfx' Verhalten, Nvidia wegen der MIP-Map-Ditheringsache zu verklagen, anstatt sich um einen Patenttausch zu bemühen.

Das Ende von 3dfx (1): (Link (http://www.hardware-durchblick.de/html/special/aktenvidia06.htm)) Der Artikel erweckt den Eindruck, als sei 3dfx von Nvidia erfolgreich totgeklagt worden. Tatsächlich hatte sich 3dfx durch eine Serie von gradiosen Fehlentscheidung selbst runtergewirtschaftet.

Fälschlicherweise wird behauptet, dass die Voodoo 5 als erste Karte "hardwareseitig Full-Scene-Anti-Aliasing, also Kantenglättung". Nvidias OG-Supersampling war von der Effizenz her zwar 3dfx' sparse Supersampling deutlich unterlegen, aber vorher verfügbar. Der Artikel weiter: "Heute bietet bekanntermaßen jede aktuelle NVidiakarte hardwareseitig FSAA, welch Zufall..." Dabei wird so getan, als sei Antialiasing von 3dfx erfunden worden. Tatsächlich aber wurde Antialiasing von 3dfx nur implementiert, die nützliche Auswirkung von FSAA ist seit eh und je bekannt.

Unerwähnt bleibt im Artikel Nvidias absurde Marketing-Behauptung, dass bei man bei 3dfx-Karten nur ab der Dualchip-Variante nutzen aus FSAA ziehen könnte, dass SLI (sinngemäß) sowieso Quatsch wäre und dass (sinngemäß) Nvidias FSAA-Realisierung besser sei. 4x sparse AA, welches auch Alphatexturen glättet, wird erst seit der GeForce-7-Serie geboten, SLI gibts inzwischen auch; und ich nutzte damals (2x) FSAA schon auf der Voodoo 4. Abgesehen von der Einführung eines brauchbaren 2x Multisampling-Modus mit der GeForce 3 hat sich Nvidia in Dingen Antialiasing nicht mit Ruhm bekleckert.

Richtigerweise wird im Artikel (auch mit Zitaten) erwähnt, dass die überlegene 3dfx-Implementierung viel zu wenig positive Beachtung fand. In sinnvollen BQ-Setting lieferte die Voodoo 5 eine überlegene Performance. Doch durch die 3DMark- und Q3A-dominierten Benchmarks, die ohne FSAA gefahren wurden, konnte die GeForce ihre T&L-Unit und Treiber-"Optimierungen" ausspielen und gewann praktisch jede Leistungsbetrachtung. Richtig wäre, deshalb den Reviewern die Leviten zu lesen. Die nahmen seltsame fps-Steigerungen in Q3A in einzelnen Timedemos hin, ohne zu hinterfragen wie das möglich sei – denn von Timedemo-Optimierung hat der Spieler ja nun mal nichts. Nvidia hat sich hier viel Renomee schlicht erschwindelt – und gehört dafür öffentlich abgestraft. Das gleiche gilt für die Reviewer, die sich eng an Nvidias Reviewer-Guide halten anstatt sich beim Benchen ihres Verstandes zu bedienen.

Das Ende von 3dfx (2): (Link (http://www.hardware-durchblick.de/html/special/aktenvidia07.htm)) In langen Passagen zitiert der Autor aus Leondias' Artikel. Wirklich nervig sind neben der selektiven Fettschrift die ganzen "(!!)"-Einfügungen. Unsachlich ist die Anmerkung: "Die Folge: Highend-Modelle von Grafikkarten kosteten von dort ab keine 500 DM mehr, sondern gleich 1200 DM +, denn für "Qualität" muss man ja bekanntlich bezahlen..." Was ein Voodoo-2-SLI-System zum Zeitpunkt der Vorstellung kostete, scheint dem Autoren nicht mehr erinnerlich.

Nvidias Hetzschrift (1): (Link (http://www.hardware-durchblick.de/html/special/aktenvidia08.htm)) Hier wird Nvidias Anti-Kyro2-Paper behandelt. Leider wirft der Autor einiges durcheinander. Nvidias unrühmliches Werk richtete sich eben nicht an uns, die Käufer – sondern an Nvidias Kunden – Grafikkartenhersteller. Heutzutage werden ja immer mal wieder Paper öffentlich, bevorzugt Anti-Crossfire- oder Anti-SLI-Präsentationen. Damals waren solche "Informationen" noch unbekannt. Leider meinen bis heute viele aus der Käuferschaft, dass Nvidias Verhalten eben Marketing sei und alles was dem Verkauf diene, sei letztlich nicht kritisierbar. Aus meiner Sicht muss ganz im Gegenteil die bewusste Verbreitung von Falschinformationen heftig kritisiert werden. Hierbei handelt es sich ja nicht um Fehler, die den Paper-Erstellern bedauerlicherweise unterlaufen sind sondern um ein absichtliches Verdrehen von Tatsachen. Allerdings sollte die Kritik dann etwas sachlicher ausfallen.

Nvidias Hetzschrift (2): (Link (http://www.hardware-durchblick.de/html/special/aktenvidia09.htm)) Hier wird ein einzelner Aspekt aus Nvidias Paper behandelt. Der Text wäre überzeugender, wenn er sachlicher im Ton wäre. Eine persönliche Bewertung kann gerne hinzugefügt werden, ebenso sehe ich es als nicht erforderlich, die kritisierte Firma mit Samthandschuhen anzufassen. Doch bei der "Akte Nvidia" ist mir die Darstellung zu einseitig.

Nvidias Hetzschrift (3): (Link (http://www.hardware-durchblick.de/html/special/aktenvidia10.htm)) Hier wird gezeigt, dass die Kyro 2 zu ihrer Zeit in Benchmarks hervorragend abschnitt, und eher als GeForce-2-Konkurrent denn als GeForce-2-MX-Konkurrent gesehen werden kann. Nvidias Behauptungen, wie inkompatibel die Kyro 2 sei, beruht wahrscheinlich auf Tests mit frühen Treibern oder wahrscheinlich noch aus der Kyro-1-Zeit. Dies hätte der Artikel so darstellen sollen, anstatt Nvidia einfach Lüge zu unterstellen. Nvidia ist hier Fahrlässigkeit vorzuwerfen, einfach irgendwelche (alten) Treiber-Probleme zu sammeln – erst recht, wo es da mit Riva-, TNT- und GeForce-Karten auch immer wieder mal Probleme gab.

Nvidias Hetzschrift (4): (Link (http://www.hardware-durchblick.de/html/special/aktenvidia11.htm)) Nvidias Marketingabteilung wird hier das Scheitern der Fortsetzung der Kyro-Serie angekreidet. Das widerspricht den Tatsachen. Kyro 1 kämpfte zunächst (naturgemäß) mit Treiberproblemen, die allerdings im Laufe der Zeit behoben wurden. Die Kyro 2 war zur Kyro 1 jedoch nur ein Takt-Upgrade und bot technisch nichts neues. PowerVRs treiberseitiges "EnT&L" – als es denn, viel zu spät, kam – enttäuschte. Für die Kyro 3 wurde kein Partner gefunden.

Nvidias Treibercheating und die FX 5900 Ultra (1): (Link (http://www.hardware-durchblick.de/html/special/aktenvidia12.htm)) Hier wird das dreiste 3DMark-Cheating aus der GeForce-4-Ti-Zeit angesprochen. Erinnern wir uns: Nvidias Detonator 40 versprach 30-50% mehr Leistung. Dies wurde aber nur im Nature-Test vom 3DM01 erreicht – durch Shader-Replacement, welches zudem kein mathematisch gleichwertiges Ergebnis bot. Der Artikel fasst zusammen: "Den Erfolg der ATI Radeon 9700 pro konnte diese Aktion aber nicht verhindern." – Ach nee. Natürlich konnte der Erfolg der Radeon 9700 nicht verhindert werden. Nvidias Treibercheating war ein Versuch, ein wenig Aufmerksamkeit von ATI abzuziehen. Unerwähnt bleibt ATIs "quack"-Cheat in Quake3 aus der Radeon-8500-Zeit, und der spätere 3DM03-Cheat mit einem (wenn auch mathematisch gleichwertigem) Shaderreplacement für die R300-Serie.

Worüber der Artikel leider nicht berichtet, ist Nvidias (und später auch ATIs) sorgfältige 3DMark-"Optimierung" – so läuft der 3DMark 2000 auf einem Pentium III mit 500 MHz auf einer TNT2 Pro schneller als auf dem gleichen System mit einer Voodoo 5 – wobei letztere Grafikkarte viel mehr Leistung bietet. Nvidia erreicht die angebliche Grafikleistung der TNT2 auch durch das Ausführen von Ersatzcode, welche weniger CPU-lastig ist als der 3DMark-Originalcode. So konnte im 3DMark auch die GeForce 2 MX die Voodoo 5 oft abrulen – dank Treiber-"Optimierung". Die Reviewer veröffentlichten aber brav die absurden Zahlen, um das Ergebnis der T&L-Unit zuzuschreiben – die aber weniger daran beteiligt ist, als man denkt.

Wie die Timedemo-"Optimierungen" funktionieren, ist nicht völlig klar, möglich ist ebenfalls Ersatzcode-Ausführung und natürlich zeitabhängiges Occlusion Culling. Dank der festen Kamera wird das optische Ergebnis nicht beeinflusst, aber die Spiele-Leistung verbessert sich natürlich nicht. Doch auch im tatsächlichen Quake spielen bot Nvidia über lange Zeit die mit Abstand beste Leistung, es gab neben der Cheaterei auch nützliche Optimierungen.

Nvidias Treibercheating und die FX 5900 Ultra (2): (Link (http://www.hardware-durchblick.de/html/special/aktenvidia13.htm)) Hier geht es endlich um den 3DMark 03. Erinnern wir uns: Futuremark wollte einen Benchmark für D3D9-Hardware anbieten und richtete sich entsprechend an der ersten D3D9-Hardware – der Radeon 9700 – aus. Nvidias Ansatz, eine D3D9-kompatible GPU zu entwickeln war in vielen Punkten grundlegend anders. Letztlich boten sie das weitaus größere Featureset – aber auch die deutlich geringere D3D9-Pixelshaderleistung. Der (ohnehin ziemlich irrelevante) 3DMark 03 zeigte bei Nvidia-GPUs nun deutlich weniger Punkte an. Zunächst reagierte die Nvidia-Öffentlichkeitsabteilung mit einer Kritik an den 3DMark-Messungen. Die von Nvidia hervorgebrachten Argumente sind auch größtenteils nachvollziehbar. Futuremarks Erwiderungen sind ebenfalls größtenteils nachvollziehbar – es gibt hier keine totale Wahrheit.

Nvidia versuchte sich dann im Cheating der allerdreisten Sorte. Neben Shaderreplacement (und Präzisionsreduktion) gab es vorberechnetes Occlusion Culling zumindest im Test 4 (Mother Nature) und das Auslassen einiger Haare der Schnickse aus Test 3. Das sind absolut verurteilenswerte Aktionen, die sich Nvidia da geleistet hat. Der FX haftet seitdem an, eine Cheat-Karte zu sein. Die FX wurde dann in späteren Treibern zu brilinearer Filterung gezwungen, während Optimierungs-Optionen für die GeForce 4 Ti deaktiviert wurden. Nvidia unternahm alles, um die "Leistung" der FX irgendwie zu steigern – zulasten der Textur-Qualität, mit Cheat-Treibern, und mit Erzwingung von Partial-Precision-Berechnungen in einigen Applikationen. Die letzte Domäne, die Nvidia mit der FX hätte halten können – Pixelshader- und Texturqualität – wurde damit versaut. In Sachen Rohperformance und Antialiasing war ATI mit der 9700 prinzipiell nicht zu schlagen. Ganz grob gesagt ist sowohl ATIs D3D9-Pixelshaderleistung drei mal höher gewesen, während der höchte FSAA-Modus (6x sparse) drei mal besser aussah.

Wer als Spieler in dieser Situation noch Nvidia kaufte, musste entweder besonders markentreu sein, oder Texturqualitäts-Fetischist – doch die Texturqualität wurde ja per Treiber zwangsgesenkt (was inzwischen, mit der GF6, wieder aufgehoben wurde.) Dann gab es bedauerliche Bugs im Treiber, die bei aktiviertem 8x AF in einigen Spielen nur 2x AF boten, während für die Texturfilter-Tester immer der AF-Grad ausgegeben wurde, den der User eingestellt hat. Nvidia hat sich aus meiner Sicht wirklich dämlich angestellt und zurecht massiv Reputation verloren. Von der Lüftung der 5800 Ultra ganz zu schweigen. Immerhin: ATI hat über das das Lüftungskonzept zunächst gelacht – und es später kopiert.

Nvidias Treibercheating und die FX 5900 Ultra (3): (Link (http://www.hardware-durchblick.de/html/special/aktenvidia14.htm)) Der Artikel hält sich weiter an den 3DMark-Scores fest. Aus meiner Sicht unnötig. Viel wichtiger ist die geringe FX-Leistung bei gleichzeitig erschreckend schlechter Grafikqualität in einigen D3D9-Spielen aus jener Zeit.

Nvidias Treibercheating und die FX 5900 Ultra (4): (Link (http://www.hardware-durchblick.de/html/special/aktenvidia15.htm)) Hier werden diverse Benchmark-Ergebnisse zitiert, in denen die FX 5900 (deutlich) schlechter abschneidet als die Radeon 9700 Pro oder 9800 Pro. Was nicht passt: Zunächst wird der Vorwurf erhoben, die Reviewer hätten sich vom Cheat-Treiber blenden lassen und die FX 5900 zum Sieger auserkoren, jetzt wird gezeigt, in wie vielen Tests sich die FX 5900 als leistungsschwächer erweist.

Nvidias Treibercheating und die FX 5900 Ultra (5): (Link (http://www.hardware-durchblick.de/html/special/aktenvidia16.htm)) Das gleiche noch mal.

Nvidias Treibercheating und die FX 5900 Ultra (6): (Link (http://www.hardware-durchblick.de/html/special/aktenvidia17.htm)) Hier wird der Widerspruch noch mal sehr deutlich: Einerseits der Beweis in welchen Benchmarks die 5900 unterliegt, andererseits der Vorwurf, sie würde "überall" als 3D-König gefeiert. Ich erinnere mich an 4x/8x-Benches (4x AA, 8x AF) – was angesichts der jeweiligen BQ-Implementierungen ziemlich dämlich ist. Man kann nicht Texturqualität mit Kantenglättungsqualität aufwiegen. Inzwischen setzte sich langsam die Erkenntnis durch, dass ATIs 4x-AA-Lösung qualitätsmäßig der damaligen Nvidia-Lösung deutlich überlegen war. Dass ATIs 16x AF von der Qualität her lange nicht an Nvidias 8x heranreichte, wurde in den meisten Reviews nicht genügend berücksichtigt. Auch eigentlich sorgfältige Sites wie HT4U zeigten bei den BQ-Einstellungen nur wenig Kompetenz.

Was die "Akte Nvidia" leider vergisst, ist der Kampf im Midrange-Bereich – ATI hatte die bezahlbare 9600 Pro, Nvidia hatte zu diesem Preis nichts, was der 9600-er Leistung bei vergleichbarem Featureset auch nur einigermaßen ebenbürtig war. ATI bietet seit eh und je vernünftigen TV-Out-Support, gute Overlay-Qualität und Video-Qualität. Nvidia hatte mit Nview (seit NV25) kräftig auf die Marketing-Pauke gehauen und kann damit auch vernünftigen Dualmonitorsupport anbieten, aber konnte in den genannten Punkten ATI nach wie vor nicht das Wasser reichen. Was Nvidia derzeit mit PureVideo abzieht, ist das gleiche Spiel: Bringe Features die andere längst haben und tu so, als seist du damit Vorreiter. 3DMark-Cheats – so sehr man darüber reden muss – sind in der Kaufentscheidung hoffentlich nur ein Teilaspekt.

Kooperation mit Electronic Arts: (Link (http://www.hardware-durchblick.de/html/special/aktenvidia18.htm)) Hier gehts um Nvidias "The Way It's Meant to Be Played"-Programm. Dieses ist nicht auf EA begrenzt. Ohne es beweisen zu können: Es liegt doch nahe, dass Nvidia hier hat Geld fließen lassen, um das Logo beim Spielstart anzeigen zu dürfen. Bei World of Warcraft, wo das Nvidia-Logo in den Grafikoptionen zu sehen ist, meine ich aber fachmännische Beratung zu erkennen: Die Grafikoptionen bieten sinnvolle Einstellungen, die man woanders vermisst.

Das Verbot des Omegatreibers (1): (Link (http://www.hardware-durchblick.de/html/special/aktenvidia19.htm)) Ich möchte zunächst klarstellen, dass der Omegatreiber kein eigener Treiber ist, sondern ein modifizierter Herstellertreiber, wobei aber nicht der eigentliche Treibercode modifiziert wurde. Es wurde an den Inf-Dateien gespielt, und einige Dateien mit älteren Versionen getauscht. Der Omega-"Treiber" behebt somit auch nur in den seltensten Fällen Grafikfehler, die man mit dem Originaltreiber hat, und er bietet auch keine zusätzliche Performance oder (bei gleicher Framerate) bessere Grafikqualität. Soweit ich das überschaue, ist der Treiber Nvidias geistiges Eigentum und NV kann die Verbreitung von modifizierten Dateien untersagen. Das taten sie dann auch, während sich ATI als lockerer erwies. Tatsächlich mittels Assembler am Treibercode gespielt hat unter anderem RivaTuner-Autor Unwinder, der hat sich von Nvidias Drohungen nicht einschüchtern lassen. (Ok, das ist ein Vorteil, wenn man den Wohnsitz in Russland hat.)

Das Verbot des Omegatreibers (2): (Link (http://www.hardware-durchblick.de/html/special/aktenvidia20.htm)) Die Interpretation des Autors halte ich für zu einseitig. Wäre ich Treiber-Programmierer wollte ich jedenfalls nicht, dass am Treiber rumgespielt wird. Hauptsache es gibt für den User keinen Zwang, den Treiber upzudaten – und sich somit möglicherweise neue DMR-Beschränkungen ins Boot zu holen.

Fazit: (Link (http://www.hardware-durchblick.de/html/special/aktenvidia21.htm)) In nur wenigen Fällen sind Nvidias Behauptungen gelogen, in den meisten Fällen "nur" geschickt verdreht. Nun sitzen bei Nvidia keine garstigen Menschen die den lieben langen Tag Pläne aushecken, wie man die unliebsame Konkurrenz in den Dreck ziehen könnte. Natürlich ist Nvidias Erfolgsgeschichte aber auch ein Beweis, wie man mit Marketing-Kampagnen den Absatz ankurbeln kann. Einige von Nvidias Aktionen sind moralisch verwerflich, man könnte aus meiner Sicht schon von arglistiger Täuschung oder schlichtem Betrug sprechen. Leider ist die Rechtsprechung in diesem Bereich noch nicht besonders weit entwickelt. Während jeder Grafikchip-Entwickler seine Leichen im Keller hat, findet man bei Nvidia nach meiner Zählweise die meisten unsauberen Aktionen. Hier ist eine wachsame Presse gefragt, die anprangert und sich nicht immer von Nvidias Statements, dass es sich um ein Versehen gehandelt hätte, einlullen lässt. Auf der anderen Seite habe ich Nvidias Öffentlichkeitsarbeit als grundsätzlich aufgeschlossener erlebt, als bei ATI. Seitdem ATI durch gute Produkte berechtigterweise endlich den Aufstieg geschafft hat, nehmen jedoch auch die Marketing-Kapriolen zu: Der Skandal um die versteckte brilineare Filterung, die falsche Behauptung 3Dc würde Normal-Maps 4:1 komprimieren, aktuell das Anti-GX2-Paper ...

Während Nvidia-Spezialisten wie David B. Kirk, PhD, traditionell Meister darin sind, eigene Features als super ausgefuchst hinzustellen und die überlegene Konkurrenz-Technik als Fehlentwicklung abzutun, hat auch ATI traditionell die Frage missverstanden, warum ihr R300-AF bei aktiviertem 16x AF in bestimmten Winkeln trotzdem nur maximal 2x bot. ATI sprach dann immer von der generellen Adaptivität (die jede AF-Implementierung hat, und schon GeForce 3 dank der 6x-Zwischenstufe besser beherrscht) und tat so, als sei das eine ATI-exklusive Sache. Zu R200-Zeiten wurde seitens ATI trilineares AF als Leistungsverschwendung belächelt. Nvidia hat es ingesamt am dollsten getrieben, was sicher auch mit zum Erfolg der Produkte beitrug – direkt gelogen hat Nvidia jedoch nur selten. Nvidia war und ist auf vielen (natürlich nicht allen) Gebieten durchaus ein Vorreiter. Bei allem Lob für 3dfx' Pionierleistung und ATIs späterer, und zurecht erfolgreicher Aufholjagd: Wo würden wir ohne Nvidia heute stehen?

Bei diesem (zugegebenermaßen drei Jahre alten) Artikel beansprucht der Autor nun "Es ist natürlich klar, dass dieses Thema kaum vollkommen objektiv angegangen werden kann, ich aber trotzdem versuchen möchte so sachlich und nüchtern wie möglich zu bleiben." Genau das bietet er aber nicht, was der Glaubwürdigkeit der Anschuldigungen nicht zugute kommt.

Hakkerstiwwel
2006-06-14, 16:24:45
Absolut korrekter Kommentar. Bislang hielt ich es nicht fuer noetig das Werk nur mit einer Silbe zu kommentieren. Anstatt ein objektiver und gut recherchierter Artikel zu sein, liest das Ganze sich wie die Anklageschrift eines Staatsanwaltes (worauf schon der Artikelname "die Akte" schliessen laesst), naemlich dass durch bewusst uebertriebenes Hervorheben einiger weniger Punkte und gleichzeitigem Verschweigen Anderer eine Vorverurteilung erreicht werden soll.

lilgefo~
2006-06-14, 16:25:21
Hallo,

finde es gut, dass du den Artikel einmal kommentiert hast. Habe ihn schon vor einiger Zeit gelesen und dachte mir, einerseits aufgrund des Schreibstils andererseits aufgrund der ausnahmslosen Lobpreisung von 3dfx, dass da wohl einiges nicht stimmt bzw. auch wieder vom Autor verdreht wurde. Hatte nur nicht das Wissen, das (für mich) zu korrigieren.

Vertigo
2006-06-14, 16:32:09
Ich bin auch über den Link in der Signatur von Mike1 auf diese Website gestoßen. Allerdings hätte ich diese wegen durchschlagender Subjektivität und mangelhafter Aktualität nie mit soviel Beachtung gewürdigt. Der Kommentar von aths entspricht dagegen einer wesentlich differenzierteren Betrachtung, was auch heutzutage leider nicht üblich ist.

Gast
2006-06-14, 16:33:50
Naja außerdem dem Treibercheating und einigen Passagen ist der Artikel richtig schlecht gemacht.

Es stimmt, das NV ziemlich harte Mittel gegen 3dfx angewandt hat, das würde aber jede Firma gegen die Komkurrent machen.


Ich finde die 1te Hälfte des Artikels ziemlich dumm, der Rest also die 2. Hälfte besser.

PHuV
2006-06-14, 16:49:13
Hier sieht man wieder mal die Nachteile des Internet, wo sich plötzlich absurde Legenden weit abseits der Wahrheit bilden und leider auch eine Leserschaft finden.

Deshalb ein großes Lob an aths für diese schöne Klarstellung und differenzierte Betrachtungsweise.

blackbox
2006-06-14, 16:59:55
aths[/POST]']In der Signatur von Mike1 findet man einen Link zu dieser Site: http://www.hardware-durchblick.de/html/special/aktenvidia01.htm

Der Bericht nennt sich "Die Akte Nvidia". Seit einiger Zeit drängt es mich, da mal einiges richtig zu stellen. Seite für Seite:


Ähmmm, der Artikel ist drei Jahre alt. :rolleyes:
In der Zwischenzeit ist viel passiert. ;)

Mr. Lolman
2006-06-14, 17:02:09
Imo wars sehr wohl so, dass die FX Reihe seitens der Fachpresse als überlegen hingestellt wurde und man erst, als sich die schwache PS Leistung zeigte, etwas zurückruderte. Das erklärt auch, warum die 9800p soviel erfolgreicher war, als die 9700p, obwohl sie kaum Mehrleistung bot.


Und dass NV tatsächlich schon vor 3dfx AA bot, wüsst ich auch nicht...

Rente
2006-06-14, 17:03:48
blackbox[/POST]']Ähmmm, der Artikel ist drei Jahre alt. :rolleyes:
In der Zwischenzeit ist viel passiert. ;) Trotzdem benutzt Mike1 es als Argument gegen nVidia-Grafikkarten, außerdem ist daran soviel falsch oder überspitzt das es mal klar gestellt werden musste.

P.S.: aths, ich hoffe du hast ihm eine PN geschrieben...

Vertigo
2006-06-14, 17:04:43
blackbox[/POST]']Ähmmm, der Artikel ist drei Jahre alt. :rolleyes:
In der Zwischenzeit ist viel passiert. ;)
Auf beides hat aths doch auch hingewiesen ...

Mr. Lolman
2006-06-14, 17:12:19
Aths Argument zu TWIMTBP zieht irgendwie nicht. Es gibt viele Spiele die das NV Logo tragen (wovon div. auf ATi HW schneller laufen - egal), Aber bei EA Spielen kann ich echt keine fachmännische Beratung hinsichtlich der Grafikoptionen sehen. LFS Alpha hat zB garkein GraKaherstellerlogo, und bietet dafür so umfangreiche Optionen an, dass das Spiel noch sehr schön mit auf ner Voodoo5 6000 mit 1024x768 8xAA laufen kann.

Auch interessant ist, dass das aktuelle Fifa WM06 nur auf ATi Karten den Rasen zu dunkel darstellt.

Oder dass man bei BF2 die Schatten unbedingt mit PCF bearbeiten muss, wo doch Farcry zeigt, dass deren Lösung für ATi Karten nicht nur recht performant ist, sondern auch deutlich besser aussieht als (funktionierendes) PCF auf NV Karten...

Black-Scorpion
2006-06-14, 17:16:23
Guter Kommentar von aths.

Obwohl das Thema nVidia und EA ein Kapitel für sich ist.

stav0815
2006-06-14, 17:21:44
aths, ich stimme dir hier in den meisten Punkten zu, würde in einigen sogar noch weiter gehen.
Jedoch hat der verlinkte Artikel zumeist bei den Cheats in diversen Benchmarks recht, denn der Durschnittsreviewer sieht einfach keinen Unterschied bei der BQ, bzw. er sitzt nichtmal am PC solang der Benchmark durchläuft!

Zu der 32-bit Frage:
Es wurden viele Features gebracht, die nicht von Anfang an nutzbar waren. Jedoch wären wir heute ohne 32-bit aufgeschmissen. Irgendjemand musste 32-bit bringen. Wäre es Intel mit einem onBoard Chip gewesen, hätte sich niemand daran aufgeregt, nur weil eben nV direkter Konkurrent war, hat man sich daran aufgehalten. Früher oder später muss ein Feature kommen, wenn es genutzt werden will, im Falle von 32-bit st früher einfach besser, damit zukünftige Entwicklungen einen Nutzen daraus ziehen können!

Mr. Lolman
2006-06-14, 17:22:34
Zu den Cheats. ATI betreibt, noch immer auf Basis der Dateinamen "Optimierungen". Spielt mal die Cellfactor Demo mit nem Chuckytreiber und ner auf "Oblivion" umbenannte exe ;)

Dass damals (Q3a) die BQ bei ATi genau eine Treiberversion mieser war, und dann bei gleicher Performance wieder ok war, ist imo keine so schlimme Sache.

Genau betrachtet ist die GF2 Q3a DXT-Geschichte noch schlimmer. Denn das wurde im Treiber 1 Monat vor den 1. Voodoo5 Previews freigeschaltet (was dann die bekannten Blockartefakte am Himmel erzeugte) und erst ein 3/4 Jahr später gefixt, ohne dass man die Performance auf gleichem Level halten konnte

stav0815
2006-06-14, 17:24:59
Mr. Lolman[/POST]']Aths Argument zu TWIMTBP zieht irgendwie nicht. Es gibt viele Spiele die das NV Logo tragen (wovon div. auf ATi HW schneller laufen - egal), Aber bei EA Spielen kann ich echt keine fachmännische Beratung hinsichtlich der Grafikoptionen sehen. LFS Alpha hat zB garkein GraKaherstellerlogo, und bietet dafür so umfangreiche Optionen an, dass das Spiel noch sehr schön mit auf ner Voodoo5 6000 mit 1024x768 8xAA laufen kann.

Auch interessant ist, dass das aktuelle Fifa WM06 nur auf ATi Karten den Rasen zu dunkel darstellt.

Oder dass man bei BF2 die Schatten unbedingt mit PCF bearbeiten muss, wo doch Farcry zeigt, dass deren Lösung für ATi Karten nicht nur recht performant ist, sondern auch deutlich besser aussieht als (funktionierendes) PCF auf NV Karten...

Der Rasen wird nur ab und an zu dunkel dargestellt! Ich habe eine ATi Karte und habe dieses Problem bei 1 von 20 Spielen

Mr. Lolman
2006-06-14, 17:26:52
stav0815[/POST]']
Zu der 32-bit Frage:
Es wurden viele Features gebracht, die nicht von Anfang an nutzbar waren. Jedoch wären wir heute ohne 32-bit aufgeschmissen. Irgendjemand musste 32-bit bringen. Wäre es Intel mit einem onBoard Chip gewesen, hätte sich niemand daran aufgeregt, nur weil eben nV direkter Konkurrent war, hat man sich daran aufgehalten. Früher oder später muss ein Feature kommen, wenn es genutzt werden will, im Falle von 32-bit st früher einfach besser, damit zukünftige Entwicklungen einen Nutzen daraus ziehen können!

Klar musste man irgendwann 32bit bringen. Aber 3dfx zu verdammen, weil sie es bei der Voodoo3 nicht hatten (imo hätten man es selbst bei der Voodoo5 immer noch nicht unbedingt gebraucht) und NV dafür zu loben, obwohl die Performance (vgl. mit ATi) eher mies war ist imo ein weiteres Zeugnis für die (damalige) Kurzsichtigkeit mancher Redakteure.

stav0815
2006-06-14, 17:30:24
Mr. Lolman[/POST]']Klar musste man irgendwann 32bit bringen. Aber 3dfx zu verdammen, weil sie es bei der Voodoo3 nicht hatten (imo hätten man es selbst bei der Voodoo5 immer noch nicht unbedingt gebraucht) und NV dafür zu loben, obwohl die Performance (vgl. mit ATi) eher mies war ist imo ein weiteres Zeugnis für die (damalige) Kurzsichtigkeit mancher Redakteure.
S3 wird auch gelobt weil sie eine perfekte AF Implementierung haben, die Performance ist trotzdem so mies, dass AF nicht nutzbar ist.

Das ist eben das Los der Reviewer, sie schauen sich entweder das Featureset oder die Performance an. Beides in einen (sinnvollen) Zusammenhang zu setzen, tut kaum einer. (Es mag auch schwierig sein, deshalb sollte aber auch nicht jeder DAU ein Review schreiben dürfen)

Black-Scorpion
2006-06-14, 17:36:56
Habe FIFA auch nicht.
Aber die Screens sagen zu dem Thema schon einiges.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4246129&postcount=46

aths
2006-06-14, 17:43:27
Aktuelle ATI- oder NV-Treiberprobleme sind in diesem Thread offtopic.


Ob-1[/POST]']Trotzdem benutzt Mike1 es als Argument gegen nVidia-Grafikkarten, außerdem ist daran soviel falsch oder überspitzt das es mal klar gestellt werden musste.

P.S.: ath, ich hoffe du hast ihm eine PN geschrieben...Dem Autoren der "Akte Nvidia" habe ich eine E-Mail geschickt.

Mr. Lolman
2006-06-14, 17:46:21
Man Lese sich zB das Review der voodoo3 von Anandtech durch. (und das ist tatsächlich eins der besseren ;():

http://www.anandtech.com/showdoc.html?i=923&rndr=08172001061132

Behaupteten die u.a. doch allen ernstes, dass man sich der Zukunftssicherheit zu liebe ne TNT (die bei damaligen Spielen in 1024x768x16 schon am Ende war) holen soll und nicht ne Voodoo3.

/edit: Gabs eigentlich damals irgendwelche Reviews die auf nem AMD Rechner durchgeführt wurden? Zumindest bei Unreal, kann ich mich erinnern, war ein K6-2 300 mit ner Banshee flotter als ein PII 333@416.

Palpatin
2006-06-14, 17:57:11
Muss ich da den ganzen Artikel lesen? Im Fazit hab ich jetzt nix gefunden wo behauptet wird man solle sich ne TNT 1 kaufen. Ausserdem ownt die V3 die TNT hier in allen Tests locker weg wie kommen die zu der Behauptung?

aths
2006-06-14, 18:00:54
Das Thema dieser Diskussion ist "Nvidias Cheating", sowohl allgemein als in Bezug auf Artikel "Die Akte Nvidia".

stav0815
2006-06-14, 18:03:59
aths[/POST]']Das Thema dieser Diskussion ist "Nvidias Cheating", sowohl allgemein als in Bezug auf Artikel "Die Akte Nvidia".

Gabs nicht einen ähnlichen Artikel, der weniger auf technsiche Dinge, allerdings auf Subjektive Dinge einging? Meine da irgendwas gelesen zu haben.

Nvidia5
2006-06-14, 18:15:01
@Mike1. Sachen aus Sigis klauen, dann groß anpreisen und nichtmal den Text durchlesen.Bitte versuch die Deutung dieser Hp gscheit zu verstehen. Es ist auf der Hp viel zu groß angepriesen, das alles über Nvidia. Zu den Tema. Hätte Nvidia nicht so groß angepriesen, hätte 3Dfx überlebt. Was wäre dann mit ATI? 3Dfx hat aber guten Dienst geleistet. Hat so einige Sachen (AA,usw) erfunden.

Nvidia5
2006-06-14, 18:25:58
Irgendsowas ähnliches. K.a. wies jetzt heißt, aber es wird jetzt noch manchmal verwendet.

Blaire
2006-06-14, 19:04:34
Mr. Lolman[/POST]']
Dass damals (Q3a) die BQ bei ATi genau eine Treiberversion mieser war, und dann bei gleicher Performance wieder ok war, ist imo keine so schlimme Sache.


Stimmt nicht , die Performance sackte dann deutlich ab und Nvidia war da wieder vorne. Weiss ich noch ganz genau als in der "Gamestar" ein Artikel drüber zu lesen war. ;)

Mr. Lolman
2006-06-14, 19:26:18
Blaire[/POST]']Stimmt nicht , die Performance sackte dann deutlich ab und Nvidia war da wieder vorne. Weiss ich noch ganz genau als in der "Gamestar" ein Artikel drüber zu lesen war. ;)

Ich hab das anders in Erinnerung und Anandtech bestätigt das:

Cheat Treiber @1024x768: 207.5fps (http://www.anandtech.com/video/showdoc.aspx?i=1544&p=10)
Gefixter Treiber @1024x768: 209 fps (http://www.anandtech.com/video/showdoc.aspx?i=1558&p=3)

The new drivers from ATI "fix" the Quake III Arena issue that was recently exposed. The image quality of the Radeon 8500 is now identical to that of the GeForce3. The performance between the two parts is under 4% which isn't noticeable.

Blaire
2006-06-14, 19:49:43
Mr. Lolman[/POST]']Ich hab das anders in Erinnerung und Anandtech bestätigt das:

Cheat Treiber @1024x768: 207.5fps (http://www.anandtech.com/video/showdoc.aspx?i=1544&p=10)
Gefixter Treiber @1024x768: 209 fps (http://www.anandtech.com/video/showdoc.aspx?i=1558&p=3)

1024x768 mag sein. Der Unterschied war damals aber deutlicher da gab es jede Menge Timedemos excessiv,instagib,q3crusher,quaver etc. wo die Radeon8500 damals deutlich langsamer wurde mit dem "Bugfix" Treiber , ich hatte damals beide Karten zum Vergleich.

Gast
2006-06-14, 19:52:24
Ich kann mich noch sehr gut an das aufkommen der 32Bit Farbtiefe Ära erinnern :)

Es gab viele Artikel, aber es gab auch Bilder die Eindeutig den Vorteil von 32Bit Farbtiefe dargestellt haben, da das ekelhafte 16Bit Dithering einfach zu krasse Farbränder erzeugte. Forsaken ist eins der Spiele da war ich froh eine TNT und eine G400 gehabt zu haben. Mit den Voodoos rannte das Game zwar genauso schnell aber es sah einfach nicht mehr gut aus und auf den meisten ATI Karten wars nicht spielbar weil die Texturen Falschfarben hatten. Und damals hat man nicht in 1min mal nen neuen Treiber gezogen sondern schön sein 33.6K Modem über Nacht saugen lassen. (Is auch ne Sache die etwas bei mir Hängen geblieben ist, Ati - erstmal neue Treiber abwarten bevor du da ne Karte kaufst *g)

Die Artikel zur Voodoo5 hab ich noch alle zuHause und es wird immer klar gezeigt das das FSAA sehr gut aussieht. Aber der Preis war einfach zu hoch dafür zur damaligen Zeit (klar gabs auch andere teure Grakas). PCs waren als Spielgerät zwar in aller Munde aber "meine Generation", denke mal die Masse der Gamer, war mit ~50€ im Monat unterwegs (14-19Jährige), da sparte man sich ne GF2MX (oder wars schon GF3TI200?) zusammen oder war froh das die Voodoo2 noch hielt. Da man mit ner Voodoo4 das FSAA nicht richtig nutzen konnte, was Benchmarks damals eben gezeigt haben, wars uninteressant. Zumindest hab ich es so gelesen und Weine deswegen 3dfx keine Träne nach, auch wenn ich eine Voodoo1 (Unreal!), Voodoo Rush und Voodoo3 2000 hatte.

Es gab viel weniger Leute die sich früher eine Highend Grafikkarte leisten konnten, die Community war imens kleiner, das Inet war nicht wirklich "dem Volke" zugänglich. Heute ist "meine Generation" in der Lage und tut es auch, 400€ für den PC in 1-2 Monaten auszugeben. Und die 20-30 Jährigen sind heute DIE Masse die den PC zum Spielen usw. einsetzt.
Da geht mehr im Midgrange und Highend Segment, News verbreiten sich viel schneller da das Internet überall nutzbar ist.

Nochmal zu 3dfx: Sie haben aufs falsche Pferd gesetzt, selbst schuld kann man da nur sagen, aber das ewige geheule nach dieser Firma... Heut weint auch keiner mehr Atari oder anderen Pionieren nach...
Hätte die FX Serie von nVidia noch mehr Performance Probleme mit DX9 Titeln gehabt, wären sie vieleicht auch untergegangen. Aber sie haben eben nicht so viele Fehler gemacht, und vorallem haben sie das gemacht was jede! Firma mit Hilfe des Marketings macht. Die Karre ausm Dreck ziehen und die Technikabteilung Überstunden schuften lassen. Is jetzt keine Entschuldigung/Rechtfertigung für die Krummen Touren, aber wenn man sich selbst mal fragt was man in dieser Situation gemacht hätte, wäre man CEO einer Firma die auf Gedeih und Verderb min. 1,5 Jahre mit einem schlechten Produkt leben muss. Aber das tut ja keiner ^^

@Aths
Finde den Kommentar Klasse, da es einfach eine schöne zusammenfassende Richtigstellung und Äußerung zu einem damals wohl Prominenten Artikel ist, den sicher viele viele für Bare Münze genommen haben, weil er einfach passte, die blinde Wut der 3dfx Fans, da ging gut was mit der Site Zahl der Webseite...
Solche Autoren sind es sicher auch die in jedem Online Preissucher Produkte mit Artikeln wie die Filtercheats von 3dCenter versehen. Aber dies bitte nur an eine Firma gerichtet, man hat ja teils persönliche Gründe... da man vieleicht solchen Artikeln auf den Leim gegangen ist *g

Die Themen werden ja auch hier im Forum immer noch mit hoher Flamme gekocht, was aber für viele sicher Langweilig geworden ist mit der Zeit. Ich bin nicht mehr gespannt wer hier noch alles reinhüpft, seine alten Galloschen auspackt und sich mit ans Lagerfeuer setzten wird :)

Mr. Lolman
2006-06-14, 20:01:05
Blaire[/POST]']1024x768 mag sein. Der Unterschied war damals aber deutlicher da gab es jede Menge Timedemos excessiv,instagib,q3crusher,quaver etc. wo die Radeon8500 damals deutlich langsamer wurde mit dem "Bugfix" Treiber , ich hatte damals beide Karten zum Vergleich.

Sry, ich will dir das irgendwie nicht glauben. Denn der Fix-Treiber erhöhte gerade bei hoher GraKalast die fps bei der Q3a Egine. (siehe Wolfenstein MP Demo) :wink:

Gast
2006-06-14, 20:11:53
Kann man gut mit Artikeln zum Texturefiltern vergleichen, als die Voodoo1 rauskam. Da ist man in der Schule die Wand raufgegangen als eine Zeitschrift nen Benchmark (selbstgecoded aber ka welche es war) veröffentlichte in dem man die Filterung aktivieren konnte. Das war halt beeindruckende Grafik ;)

Zur GF2GTS: Warum hat man sie gekauft? Genau weil nV bekannt war für TnL (erfolgreiches Marketing) und die Benchmarks halt voll auf Speed ausgelegt waren. Sind sie ja heute noch zum Teil, so sinnige Tests wie 1024*768 ohne AA/AF gibts immer noch, interessiert aber keinen mehr!

Chris Lux
2006-06-14, 20:28:43
KUDOS an aths!

der artikel hat mich auch schon sehr aufgeregt. du fasst es wirklich sehr treffend zusammen.

aths
2006-06-15, 00:02:07
Ich wäre froh, wenn die Antialiasing-Diskussion und der 16/32-Bit-Vergleich in einem extra Thread weitergeführt würde. Sicherlich gibt es da bei den Neulingen noch Klärungsbedarf, wie es damals nun war. In diesem Thread gehts um Nvidias Cheatereien und einen Artikel darüber, den ich als in weiten Teilen unsachlich einstufe.

deekey777
2006-06-15, 00:09:09
aths[/POST]']Ich wäre froh, wenn die Antialiasing-Diskussion und der 16/32-Bit-Vergleich in einem extra Thread weitergeführt würde. Sicherlich gibt es da bei den Neulingen noch Klärungsbedarf, wie es damals nun war. In diesem Thread gehts um Nvidias Cheatereien und einen Artikel darüber, den ich als in weiten Teilen unsachlich einstufe.


Genau. Unterlasst bitte dieses Threadhacking.

Mike1
2006-06-15, 00:42:47
:eek: HUCH :eek:
was hab ich da nur angestellt, 3seiten durchdachter posts, wegen einem link in meiner signatur

also ich änder die sign. gleich mal ein bisschen

BlackArchon
2006-06-15, 00:49:06
Mit 14 fällt sowas noch unter den Begriff 'Jugendsünde'. :biggrin:

Gast
2006-06-15, 01:10:09
Auch wenn ich im ursprünglichen Topic dieses Threads keinen großen Diskussionsbedarf erkenne ist Threadhijacking natürlich nicht ganz die feine englische Art. Also hiermit die freundliche Bitte an die Moderation, den OT-Nostalgiepart in einen eigenen Thread zu splitten, auf daß auch diese Diskussion fortgeführt werden kann.

Sonyfreak
2006-06-15, 13:10:33
Ich bin froh, dass die ganzen Missverständnisse die durch diesem Signaturlink entstanden sind, mal durch fachkundige Hand ausgeräumt wurden. Ich hab diesen Nvidia Cheat Artikel zwar schon früher mal gelesen, ihn aber nicht wirklich ernst genommen.

mfg.

Sonyfreak

Gast
2006-06-15, 13:16:12
stav0815[/POST]']

Zu der 32-bit Frage:
Es wurden viele Features gebracht, die nicht von Anfang an nutzbar waren. Jedoch wären wir heute ohne 32-bit aufgeschmissen. Irgendjemand musste 32-bit bringen. Wäre es Intel mit einem onBoard Chip gewesen, hätte sich niemand daran aufgeregt, nur weil eben nV direkter Konkurrent war, hat man sich daran aufgehalten. Früher oder später muss ein Feature kommen, wenn es genutzt werden will, im Falle von 32-bit st früher einfach besser, damit zukünftige Entwicklungen einen Nutzen daraus ziehen können!

Nvidia war es aber nicht, die 32Bit zuerst brachten, selbst ein RagePro, S3Virge oder 3dlabs Permedia konnten schon in einen 32Bit Framebuffer rendern.

stav0815
2006-06-15, 13:19:00
Gast[/POST]']Nvidia war es aber nicht, die 32Bit zuerst brachten, selbst ein RagePro, S3Virge oder 3dlabs Permedia konnten schon in einen 32Bit Framebuffer rendern.

Dann kann man aber nV erst recht nicht vorwerfen, dass sie esso gepusht haben...

Gast
2006-06-15, 16:23:23
stav0815[/POST]']Dann kann man aber nV erst recht nicht vorwerfen, dass sie esso gepusht haben...

Haben sie aber mit aggressivem Marketing.

anderer Gast
2006-06-15, 17:05:24
Gast[/POST]']Haben sie aber mit aggressivem Marketing.

Hast du irgendwelche Belege dafür? Und was verstehst du unter aggressivem Marketing?

stav0815
2006-06-15, 18:10:14
Gast[/POST]']Haben sie aber mit aggressivem Marketing.

viele Firmen benutzt aggressives Marketing. Deshalb betrügen sie noch lange nicht!

Raff
2006-06-15, 18:17:02
32 Bit als das Über-Feature anzupreisen grenzte zu TNT-Zeiten aber schon an Betrug. ;) Marketing ist, selbst Müll noch "goldig" darzustellen. Hauptsache, die Konkurrenz hat das Feature nicht.

MfG,
Raff

ShadowXX
2006-06-15, 18:27:52
Raff[/POST]']32 Bit als das Über-Feature anzupreisen grenzte zu TNT-Zeiten aber schon an Betrug. ;) Marketing ist, selbst Müll noch "goldig" darzustellen. Hauptsache, die Konkurrenz hat das Feature nicht.

MfG,
Raff
Was meinst du, was 3Dfx gemacht hätte, wenns andersherum gewesen wäre (und Sie noch genug Geld gehabt hätten)?

thade
2006-06-15, 18:29:20
Raff[/POST]']32 Bit als das Über-Feature anzupreisen grenzte zu TNT-Zeiten aber schon an Betrug. ;) Marketing ist, selbst Müll noch "goldig" darzustellen. Hauptsache, die Konkurrenz hat das Feature nicht.

MfG,
Raff

Ich habe grade eben ein paar 99er Gamestar Hefte gelesen. Die Voodoo3 wurde getestet, schnell ist er ja, aber leider kein 32Bit Rendering, kein AGP Texturing, das könnte im Jahre 1999/2000 zum Problem werden, heißt es im Heft. Auch die Möglichkeit nur 256*256 Texturen darstellen zu können wurde sehr negativ hervorgehoben. Positiv war am Schluss der Speed, die Glide Schnittstelle.

Das Haupt 32Bit Game, war wohl Q3A, laut Carmack soll es in 32Bit deutlich hübscher aussehen. Das war damals einfach das Argument gegen eine Voodoo. Ich kaufte mir damals auch nur Nvidias. In meinen Augen war das die deutliche bessere Wahl, Ich hielt sogar auch Freunde/Bekannte davon ab, sich eine 3dfx Karte zu kaufen, NVidia war damals der aufgehende Stern am Graka Himmel.

Jetzt sehe Ich die ganze Sache natürlich ein bischen anders. Da das 16Bit der Voodoos den Nvidias deutlich überlegen ist, sehe Ich den 32Bit Vorsteil nicht mehr. Damals wurde aber 3dfx überlegenes 16bit nie erwähnt.

Raff
2006-06-15, 18:32:20
ShadowXX[/POST]']Was meinst du, was 3Dfx gemacht hätte, wenns andersherum gewesen wäre (und Sie noch genug Geld gehabt hätten)?

Darum geht's nicht. ;)
3dfx hätte vor allem gut daran getan, ihr überlegenes 16/22 Bit anzupreisen. Da man aber u.a. eine beschissene Marketingabteilung hatte, ging man lieber baden ...

MfG,
Raff

aths
2006-06-15, 19:24:52
Die möglichen oder tatsächlichen Versäumnisse von 3dfx sind in diesem Thread nur sehr bedingt topic.

Mr. Lolman
2006-06-15, 19:27:11
Sei doch froh, dass der Thread nicht gleich wieder in der Versenkung verschwindet. Zum Topic gibts ja anscheinend kaum noch was zu sagen...

The_Invisible
2006-06-15, 19:33:42
Gast[/POST]']Haben sie aber mit aggressivem Marketing.

Wer macht das bitte nichtmehr heutzutage?

selbst die geforceFX wurde gepusht was das zeug hielt, hätte bei 3dfx auch wahre wunder verbringen können. ansonsten isses heute eigentlich standard, siehe als letztes beispiel von ATI zb das paper "gegen" die geforce 7950gx2

mfg

deekey777
2006-06-15, 19:36:16
Wegen Wartungsarbeiten geschlossen. Postings, die kurz nicht zu sehen sein werden, werden nicht getrasht bzw. landen in einem neuen Thread.

€dit:
Auch wenn einige Postings, die mit dem Thema nichts zu tun haben, in diesem Thread verblieben sind, so bleibt das Thema weiterhin "Nvidias Cheating" – Kommentar und nichts anderes.

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=303357

Haarmann
2006-06-19, 09:53:20
Wer ein Produkt ankündigt, es TnT nennt und diese Ankündigung erst mit dem TnT2 erfüllt, der ist durchaus ein Cheater. Dass die dummen Reviewer sich vor den Marketingkarren NVidias spannen liessen, war sehr tragisch und dumm.
Dass die Leute nichts aus der ersten Lüge gelernt haben, das hat sich sehr oft gezeigt.
Wie gnädig man mit NV jeweils umging zeigte der S3TC Fehler überdeutlich. Wie dieser Makel schöngeredet wurde war doch einfach nur zum Kotzen. Dessen Beibehaltung in einer weiteren Generation Chips sprach auch Bände.

Letzten Endes kann man also drüber streiten, ob NVidia oder die Reviewer 3dfx ruiniert haben. Man kann aber auch von Teamplay ausgehen...

Gast
2006-06-19, 11:42:33
thade[/POST]']Ich habe grade eben ein paar 99er Gamestar Hefte gelesen. Die Voodoo3 wurde getestet, schnell ist er ja, aber leider kein 32Bit Rendering, kein AGP Texturing, das könnte im Jahre 1999/2000 zum Problem werden, heißt es im Heft. Auch die Möglichkeit nur 256*256 Texturen darstellen zu können wurde sehr negativ hervorgehoben. Positiv war am Schluss der Speed, die Glide Schnittstelle.

Das Haupt 32Bit Game, war wohl Q3A, laut Carmack soll es in 32Bit deutlich hübscher aussehen. Das war damals einfach das Argument gegen eine Voodoo. Ich kaufte mir damals auch nur Nvidias. In meinen Augen war das die deutliche bessere Wahl, Ich hielt sogar auch Freunde/Bekannte davon ab, sich eine 3dfx Karte zu kaufen, NVidia war damals der aufgehende Stern am Graka Himmel.

Jetzt sehe Ich die ganze Sache natürlich ein bischen anders. Da das 16Bit der Voodoos den Nvidias deutlich überlegen ist, sehe Ich den 32Bit Vorsteil nicht mehr. Damals wurde aber 3dfx überlegenes 16bit nie erwähnt.

Du bist mit Schuld am Untergang von 3dfx, schäm dich!

Chris Lux
2006-06-19, 11:58:42
thade[/POST]']
Jetzt sehe Ich die ganze Sache natürlich ein bischen anders. Da das 16Bit der Voodoos den Nvidias deutlich überlegen ist, sehe Ich den 32Bit Vorsteil nicht mehr. Damals wurde aber 3dfx überlegenes 16bit nie erwähnt.das problem bei q3a und den voodoos war die 256x256 limitierung, weil q3a eines der ersten games war, welche diese unterstützte. 3dfx zog zwar mit einem treiber nach, der diese texturen darstellen konnte (durch gestückeltes darstellen). aber ich kann von mir sagen, dass ich mit der tnt2 und q3a der übergang von 3dfx zu nv gemacht habe und bis auf einen kurzen ati ausflug (in meiner gamer kariere, nicht beruflich) bin ich auch bei nv geblieben (und bevorzuge sie beruflich deutlich!).

Mumins
2006-06-19, 12:07:17
stav0815[/POST]']viele Firmen benutzt aggressives Marketing. Deshalb betrügen sie noch lange nicht!

Sie verdrehen die Warheit und das ist Kundenverarsche.

Mr. Lolman
2006-06-19, 12:15:13
Ihr seid schon wieder OT. Die 256^2 Limitierung konnte man, wie du sagst, umgehen, und so blieb nur mehr die "32bit Notwendigkeit"...

...und dabei war Q3a eher ein Beispiel dafür wieviel besser die 3dfx 16bit BQ ggü. der von NV ist...

Gast
2006-06-19, 12:17:44
Haarmann[/POST]']

Letzten Endes kann man also drüber streiten, ob NVidia oder die Reviewer 3dfx ruiniert haben. Man kann aber auch von Teamplay ausgehen...

Nein, da gibt es nichts zu streiten. 3dfx hat sich selbst ruiniert durch absolut mangelhafte Produktpolitik (zB. keine OEM Verträge, keine neuen Features). Der grösste Schritt zum Untergang war die Entscheidung, die Chips nicht mehr an Kartenhersteller zu verkaufen, sondern alle Karten selbst zu fertigen.

Haarmann
2006-06-19, 12:35:18
Gast

Ihre geniale TV Karte mit digitalem Tuner wurde nie lobend erwähnt... bevor sie pleite waren jedenfalls.
Ihre "All-in-Wonder" ebenfalls nicht. Heute wird das immer ATI gross angerechnet, weils NV nicht hat.
Viele Kartenhersteller gibts ja auch nimmer Heute - sie waren dem Trend schlicht voraus.
Ihre Produkte waren lange gar nicht OEM tauglich (V1 und V2).
OEMs kaufen Heute auch Fertiggkarten -> das störte nicht fürs OEM Geschäft.

Ihr grösster Fehler war das Fehlen der V5 6000 - egal ob die nun überall lief oder nicht. Wer soviel Geld für diese Karte auslegt, wird auch den Rest kaufen. Hättens die Performancekrone auch nur noch halb inne gehabt, egal wie teuer die Karte ist, dann hätte sich das bestimmt auf den Ruf ausgewirkt.
NV hat schliesslich lange Zeit ihre minderwertigen MX Karten genau damit an den Mann bringen können.
Und wie man mit der GF2 Ultra ca zur gleichen Zeit zeigte, waren die Leute bereit für paar Prozent Unmengen Geld auf den Tisch zu legen.

Gast
2006-06-19, 12:51:05
Mr. Lolman[/POST]']Die 256^2 Limitierung konnte man, wie du sagst, umgehen
Nicht praktikabel.

Mr. Lolman
2006-06-19, 13:20:51
Inwiefern nicht praktikabel? Treiber installieren, Q3a auf höchste Details und gut is...

Gast
2006-06-19, 13:37:04
Haarmann[/POST]']Gast

Ihre geniale TV Karte mit digitalem Tuner wurde nie lobend erwähnt... bevor sie pleite waren jedenfalls.



Ein letztes Zucken vor dem Ableben, mehr nicht. Es war der Versuch, die Kartenfabrik besser auszulasten, weil sie zu dem Zeitpunkt kaum noch Grafikkarten an den Mann bringen konnten.

Haarmann[/POST]']
Ihre "All-in-Wonder" ebenfalls nicht. Heute wird das immer ATI gross angerechnet, weils NV nicht hat.


Hat NV schon seit Jahren und nennt sich Personal Cinema.

Haarmann[/POST]']
Viele Kartenhersteller gibts ja auch nimmer Heute - sie waren dem Trend schlicht voraus.
Ihre Produkte waren lange gar nicht OEM tauglich (V1 und V2).
OEMs kaufen Heute auch Fertiggkarten -> das störte nicht fürs OEM Geschäft.


Auch NV und ATi wären ohne das OEM-Geschäft nicht überlebensfähig.

Haarmann[/POST]']
Ihr grösster Fehler war das Fehlen der V5 6000 - egal ob die nun überall lief oder nicht. Wer soviel Geld für diese Karte auslegt, wird auch den Rest kaufen. Hättens die Performancekrone auch nur noch halb inne gehabt, egal wie teuer die Karte ist, dann hätte sich das bestimmt auf den Ruf ausgewirkt.
NV hat schliesslich lange Zeit ihre minderwertigen MX Karten genau damit an den Mann bringen können.
Und wie man mit der GF2 Ultra ca zur gleichen Zeit zeigte, waren die Leute bereit für paar Prozent Unmengen Geld auf den Tisch zu legen.

Hätte, wäre, wenn...... zählt alles nicht. 3dfx Schicksal war schon mit dem Erscheinen des VSA100 besiegelt. Die Management-Fehler wurden schon zu V3 Zeiten gemacht.

Pimok
2006-06-19, 16:16:34
Passt evtl ganz gut: laut einem guten freund hat sich nvidia schon bei einigen spielefirmen "eingekauft". er besitzt 2 pcs, eine mit einer nvidia karte (FXnochwas) und einen mit ati x700.
Laut seiner aussage, die ich bishern icht überprüfen konnte, fehlen beim gleichen spiel (Age of Empires III) auf dem rechner mit ati karte einige einstellungsmöglichkeiten, welche allerdings auf dem mit nvidia karte vorhanden sind.

ich weiss zwar das er ab und zu flunkert aber ich sehe jetzt darin aus siener sicht keinen grund mir dahingehend etwas vorzulügen...

Gast
2006-06-19, 16:17:17
Haarmann[/POST]']Wer ein Produkt ankündigt, es TnT nennt und diese Ankündigung erst mit dem TnT2 erfüllt, der ist durchaus ein Cheater.

welche ankündigung wurde erst mit dem TNT2 erfüllt?

Gast
2006-06-19, 16:20:53
Pimok[/POST]']Passt evtl ganz gut: laut einem guten freund hat sich nvidia schon bei einigen spielefirmen "eingekauft". er besitzt 2 pcs, eine mit einer nvidia karte (FXnochwas) und einen mit ati x700.
Laut seiner aussage, die ich bishern icht überprüfen konnte, fehlen beim gleichen spiel (Age of Empires III) auf dem rechner mit ati karte einige einstellungsmöglichkeiten, welche allerdings auf dem mit nvidia karte vorhanden sind.

ich weiss zwar das er ab und zu flunkert aber ich sehe jetzt darin aus siener sicht keinen grund mir dahingehend etwas vorzulügen...Das hat nichts mit "eingekauft" zu tun, sondern damit, dass die x700 nur Shader Model 2 bietet, AoE3 für maximale Details aber SM3.0 braucht, was z.b. die 6800er Serie bietet.

ATI hat SM3 erst eine ganze Weile später als NV gebracht, nämlich mit dem R520. Das Problem liegt hier einfach darin, dass die x700 featuretechnisch sehr rückständig ist und so nicht für maximale Details in AoE3 taugt.

aths
2006-06-19, 16:29:50
Gast[/POST]']welche ankündigung wurde erst mit dem TNT2 erfüllt?Füllrate.

Haarmann
2006-06-19, 17:37:00
aths

Danke

Gast

Das ändert nichts an der Tatsache, dass es eine super TV Karte war. Das ist auch ein Markt womit man ein Werk für Karten auslasten kann.

Und NVs Karten sind seit Jahr und Tag gegenüber den AIW einfach Scheisse. Da gibt sich keiner mehr die Mühe die schön zu reden...

Aber erst muss man ein Produkt haben, dass den OEM Markt auch aufmischen kann. Danach muss das Produkt der Zeit angemessen sein. Heute gibts kaum mehr was Anderes als Referenzdesign mit Referenztreibern. War das bei 3dfx denn anders mit eigenen Karten?

Das Management machte viel Mist... das ist leider zu klar ersichtlich.

StefanV
2006-06-19, 19:24:20
Noch ein paar Worten zu AiW vs. PC:

AIWs gibts sowohl im Mid End als auch High End, aktuell x1800XL und X1900.
Es gibt nicht alle Chips als AIWs, meist aber eher Chips am oberen Ende!

Beim PC wars genau umgekehrt:
Da gabs nur Low End und Mid End Chips.
Ich erinner mich nur an 'ne FX5200, FX5600 und FX5700 nicht aber FX5800 oder 5900!!

Dass nV (andere aber auch, leider) Multimediafeatures nur äußerst stiefmütterlich behandelt hat, ist auch bekannt, alles vor den FXen (und der GF4 MX) war gelinde gesagt scheiße, wenn man hin und wieder 'ne DVDs schauen wollte, waren die ATi Karten wesentlich besser, sei es von den Hardwarefeatures (MC, iDCT, Deinterlacing) oder aber den TV Out.
Auch das Overlay scheint bei ATi immer noch etwas besser zu sein, bei nV kann man irgendwie kaum was erkennen, da zu dunkel, irgendwie :|

Gast
2006-06-19, 19:27:00
Die AiW gibt's auch als X1300.

Gast
2006-06-19, 19:27:19
Und die Personal Cinema auch als 5900 XT.

StefanV
2006-06-19, 19:29:28
Gast[/POST]']Und die Personal Cinema auch als 5900 XT.
AUch in Deutschland? :|

Irgendwie scheints diese Dinger auch nur als FXen zu geben :|

Gast
2006-06-19, 19:40:51
StefanV[/POST]']AUch in Deutschland? :|
Ja.
StefanV[/POST]']Irgendwie scheints diese Dinger auch nur als FXen zu geben :|
Du findest aber immer was zu meckern, oder? Wenn's sie als GF7 gäbe würdest du dich wohl beschweren, dass nicht mit dem Catalyst-Treiber kompatibel sind...

aths
2006-06-19, 22:17:32
Personal Cinema hat meines Wissens nichts mit Nvidias Cheating zu tun.

Thowe
2006-06-19, 22:42:20
aths[/POST]']Personal Cinema hat meines Wissens nichts mit Nvidias Cheating zu tun.

Exakt, hoffe das wird auch beachtet.

Etwas möchte ich noch zu den Kyro-Treibern sagen, die ersten Versionen waren wirklich nicht das Gelbe vom Ei, aber mit späteren Stand wurden diese deutlich besser und standen am Ende gar niemanden in irgendetwas nach und das lange bevor ATI ihr "Treiberversprechen" abgaben. In der Beziehung war NV zumindestens frühern wirklich der Konkurrenz überlegen. Die Hetzschrift gegen den Kyro fand ich früher auch viel schlimmer als heute, einfach wegen den Ton und die Aussage über SGS ist definitiv Ok, wie sich später ja auch herausstellte und NV hatte ja im Vorfeld auch Erfahrungen mit der Firma gesammelt.

Haarmann
2006-06-19, 23:32:32
aths

Mir ging es eher um die Tatsache, dass 3dfx weit vor ATI und NV versucht hat neue Märkte für sich zu erschliessen und die Grafikkarten sinnvoll erweiterte. Das waren vielleicht Verzweiflungstaten, aber keineswegs zwingend Fehler.
Die Presse jedoch ging sehr schlecht mit diesen Produkten um, bevor 3dfx vom Markt verschwand. Danach wurde z.B. der bereits eingesetzte Digitaltunerchip über alle Massen gelobt als Meilenstein etc. Wieso ging das nicht, als die Produkte noch "heiss" waren?

Das sind Fragen, die man sich durchaus stellen kann imho. Mindestens bei mir ergibt so ein Verriss eines eigentlich guten Produktes keinen Sinn und es gibt auch keine logische Erklärung für dies Verhalten.

Hakkerstiwwel
2006-06-20, 08:47:21
aths[/POST]']Füllrate.
wie du schon in deinem Eroeffnungspost geschrieben hast: wo ist die Luege?
@haarmann
man kann sich ueberall die Rosinen rauspicken
- S3 bewarb den Savage2000 als Tnl faehig, tatsaechlich hatte der S2000 eine TnL Einheit, welche allerdings kaputt, und spaeter ueber Treiber deaktiviert wurde
- Ati bewarb die MSAA des R200 vor dem Launch und versprach die Faehigkeit spaeter nachzuliefern. Der R200 ruht laengst sanft und in Frieden, MSAA kann er aber immer noch nicht
- die phoesen 3dFx ler kuendigten einen VSA100 an, erfuellten ihre Versprechen das Teil zu liefern allerdings erst mit einer Verspaetung von 1/2 Jahr.
Alles boese Cheater

Mr. Lolman
2006-06-20, 11:19:42
1/2 Jahr Verspätung ist lächerlich. NVs FX Reihe kam auch verspätet und trotz schwächerer Leistung ggü der Konkurrenz war sie sehr erfolgreich.
Irgendwie wirkts, als hätten sich zum Schluss alle auf 3dfx eingeschossen gehabt.

Hakkerstiwwel
2006-06-20, 11:27:42
Mr. Lolman[/POST]']1/2 Jahr Verspätung ist lächerlich. NVs FX Reihe kam auch verspätet und trotz schwächerer Leistung ggü der Konkurrenz war sie sehr erfolgreich.
Irgendwie wirkts, als hätten sich zum Schluss alle auf 3dfx eingeschossen gehabt.
Correcto, es ist genauso wenig verwerflich ein Produkt anzukuendigen das erst viel spaeter erscheint, wie ein Produkt anzukuendigen das bei seiner Vorstellung nicht die vorher angekuendigten Taktraten einhaelt. Falls man Firma A maßregelt falsche Versprechungen im Vorfeld gemacht zu haben, muss man das konsequenterweise auch mit Firma B tun.
nV brachte die versprochene Fuellrate mit genauso großer Verspaetung wie 3dFx den versprochenen VSA100. Warum sollte nV dann gecheatet haben und 3dFx nicht?

Gast
2006-06-20, 11:57:16
Haarmann[/POST]']aths

Die Presse jedoch ging sehr schlecht mit diesen Produkten um, bevor 3dfx vom Markt verschwand. Danach wurde z.B. der bereits eingesetzte Digitaltunerchip über alle Massen gelobt als Meilenstein etc. Wieso ging das nicht, als die Produkte noch "heiss" waren?



Im TV-Karten Bereich ist Hauppauge seit Jahren DIE Macht und der von 3dfx eingesetzte Tuner ist nun wirlich nichts besonderes, ausserdem ist es keine Entwicklung von 3dfx sondern er wurde nur zugekauft.

Haarmann
2006-06-20, 13:33:00
Hakkerstiwwel

Das ist auch immer Ansichtssache. Wenn mir wer nen Produkt vorstellt und es TNT nennt, dann aber dies Produkt gar nicht ausliefert, sondern ein Minderwertiges mit der Aufschrift TnT versieht und verkaufen will und erst viel später das eigentliche Produkt als TnT2 gelabelt und weiteren Fortschritt liefert, der hat kein doch Lob verdient. Das Produkt hätte bei Reviews eigentlich total verrissen werden müssen.
Es war keineswegs nur die Füllrate, welche nicht stimmte... aber die Füllrate fiel natürlich am ehesten auf.

Mit 125MHz wäre ein TnT schneller gewesen, denn eine Voodoo2, aber mit 90 nur noch etwa gleich schnell und ohne GLIDE. Hätten die Leute das gewüsst, hättens wohl nicht auf die TnT gewartet, sondern gleich eine V2 gekauft, die es schon gab oder?
Das kann man auch als unlauterer Wettbewerb sehen und als Betrug - sprich Cheat - ahnden.

Ich war mit meiner Savage2000 durchaus zufrieden - TnL brauchte man ja eh nie. NVidia bewarb schliesslich ihre GForce mit S3TC fähig, was auch nicht stimmte. Und die Reviewer liessen sie und ihre Nachfolger ewig mit Bug mitlaufen und verglichen so Äpfel mit Birnen. Zum Glück haben die Reviewer einiger Seiten gelernt, dass man schlicht erst das Bild vergleichen muss und dann dies in Relation zur gezeigten Leistung setzen muss.
Die VSA100 kam spät, aber sie kam so wie angekündigt. Das war wohl deren "Fehler", dass sie nicht einfach andere Produkte aufn Markt schaufelten und mit nem VSA100 Kleber etiketierten... Der Kunde war ja offenbar dumm genug das nicht zu merken.

Gast

Haupauge mag die Macht sein wie Creative - besser werden deren Produkte dadurch nunmal nicht. Und Innovation ist weder etwas, womit ich Haupauge in Verbindung bringe noch etwas, was mich entfernt an Creative erinnerte. Und es dauerte lange, bis eine weitere TV Karte solch einen Tuner nutzte?
Wie positiv das Paket von Graka mit Tuner inzwischen bewertet wird zeigen die positiven Reviews zu AIW Karten deutlich.
Manchmal ist der Markt nur nicht reif für sowas. Wenn ich aber zwischen nem TV Tuner und AGP Texturing auf meiner Graka wählen darf... sorry, dann verzichte wohl nicht nur ich dankend auf AGP Texturing...

Mr. Lolman
2006-06-20, 13:38:21
AGP Texturing wurde damals auch gepuscht. Da gabs ja so ein Spiel von Microsoft, das die High Detail Texturen nur auf Karten aktivierte, die AGP Texturing beherrschten. (Ohne dass es seitens verfügbaren Texturspeicher auf Nicht-AGP Karten notwendig gewesen wäre)

Gast
2006-06-20, 13:48:35
Haarmann[/POST]']Hakkerstiwwel

Das ist auch immer Ansichtssache. Wenn mir wer nen Produkt vorstellt und es TNT nennt, dann aber dies Produkt gar nicht ausliefert, sondern ein Minderwertiges mit der Aufschrift TnT versieht und verkaufen will und erst viel später das eigentliche Produkt als TnT2 gelabelt und weiteren Fortschritt liefert, der hat kein doch Lob verdient. Das Produkt hätte bei Reviews eigentlich total verrissen werden müssen.
Es war keineswegs nur die Füllrate, welche nicht stimmte... aber die Füllrate fiel natürlich am ehesten auf.



Was denn sonst noch, ausser dem Chiptakt (~Füllrate)?

StefanV
2006-06-20, 14:02:07
Mr. Lolman[/POST]']AGP Texturing wurde damals auch gepuscht. Da gabs ja so ein Spiel von Microsoft, das die High Detail Texturen nur auf Karten aktivierte, die AGP Texturing beherrschten. (Ohne dass es seitens verfügbaren Texturspeicher auf Nicht-AGP Karten notwendig gewesen wäre)
War das nicht dieses bescheuerte und völlig zu unrecht gehypte Spiel mit dem Namen 'Hellbender', was eigentlich nur 'ne Kopie von irgendwas anderem war??

PS: Was ich lustig find, ist, das das, was AGP Texturing eigentlich sein sollte bzw können sollte, erst beim AGP Nachfolger wirklich zum Einsatz kommt X-D

Ist aber irgendwie typisch für den PC Markt, das ein Feature, was vorgesehen war, so wie es gedacht war erst beim Nachfolger so recht benutzbar ist und auch erst funktioniert...

Hakkerstiwwel
2006-06-20, 14:26:50
Haarmann[/POST]']Hakkerstiwwel

Das ist auch immer Ansichtssache. Wenn mir wer nen Produkt vorstellt und es TNT nennt, dann aber dies Produkt gar nicht ausliefert, sondern ein Minderwertiges mit der Aufschrift TnT versieht und verkaufen will und erst viel später das eigentliche Produkt als TnT2 gelabelt und weiteren Fortschritt liefert, der hat kein doch Lob verdient. Das Produkt hätte bei Reviews eigentlich total verrissen werden müssen.
Es war keineswegs nur die Füllrate, welche nicht stimmte... aber die Füllrate fiel natürlich am ehesten auf.

Mit 125MHz wäre ein TnT schneller gewesen, denn eine Voodoo2, aber mit 90 nur noch etwa gleich schnell und ohne GLIDE. Hätten die Leute das gewüsst, hättens wohl nicht auf die TnT gewartet, sondern gleich eine V2 gekauft, die es schon gab oder?
Das kann man auch als unlauterer Wettbewerb sehen und als Betrug - sprich Cheat - ahnden.
Warum Cheat? Auf den Boxen stand die korrekte Frequenz des Coretaktes, und nV sind nicht die Ersten und Einzigen die ein Produkt mit mehr Features ankuendigen als sie spaeter ausliefern. Dass die TnT nicht von den Reviewern zerrissen wurde, kann man wohl kaum nV ankreiden.
Glide? Who cares? Wenn man gegen proprietaere Loesungen ala MS ist, muss man auch Glide verdammen. Eine proprietaere Schnittstelle zu pushen kann man ebenso als Wettbewerbsverzerrung ansehen. Glide starb den berechtigten Tod, andernfalls haetten wir heute ueberhaupt keine Auswahl mehr.
Haarmann[/POST]']
Ich war mit meiner Savage2000 durchaus zufrieden - TnL brauchte man ja eh nie. NVidia bewarb schliesslich ihre GForce mit S3TC fähig, was auch nicht stimmte. Und die Reviewer liessen sie und ihre Nachfolger ewig mit Bug mitlaufen und verglichen so Äpfel mit Birnen. Zum Glück haben die Reviewer einiger Seiten gelernt, dass man schlicht erst das Bild vergleichen muss und dann dies in Relation zur gezeigten Leistung setzen muss. ...
Ersteres aendert nix daran, dass S3 mehr noch des Cheats schuldig ist als nV, nV bewarb das fertige Produkt naemlich nicht mit Angaben die nicht stimmen. Wieviele TNT User waren genauso mit ihrer Karte zufrieden wie du mit deiner S3, ohne dass das fertige Produkt mit fehlerhaften Angaben beworben wurde?
Haarmann[/POST]']
Die VSA100 kam spät, aber sie kam so wie angekündigt. Das war wohl deren "Fehler", dass sie nicht einfach andere Produkte aufn Markt schaufelten und mit nem VSA100 Kleber etiketierten... Der Kunde war ja offenbar dumm genug das nicht zu merken.

Das ist ganz alleine 3dfx s Fehler gewesen, und kann nV nicht angekreidet werden.
p.s. und nur zur Klarstellung: ich hatte seit 2001 keine nV Karte mehr im Rechner.

aths
2006-06-20, 14:54:02
Nvidia hat, was ihre T&L-Unit angeht, mit Fantasiezahlen geworben und den Eindruck erweckt, der Chip könnte diese Millionen Dreiecke pro Sekunde tatsächlich rendern. Dabei ist 1 Vertex pro Dreieck viel zu optimistisch geschätzt, und weder Bandbreiten-Engpässe noch die Pixelleistung wurden berücksichtigt – die selbst unter günstigen Bedingungen in der Praxis erreichbaren Werte lagen deutlich unter der Nvidias Werbebotschaft vermittelten Zahlen.

Dazu gab es Vergleichsbilder "mit T&L", "ohne T&L", in den zwei sich ähnliche LKW-3D-Modelle gezeigt wurden, eines sehr detailliert, das andere grob. Eindruck: Durch das bloße Vorhandensein der T&L-Fähigkeit sieht die Grafik detaillierter aus. Die T&L-Fähigkeit wurde fortan bei jedem Grafikkarten-Review als Pluspunkt gewertet, fehlende T&L-Fähigkeit als Minuspunkt. Und das, wo jede CPU die T&L-Aufgabe übernehmen kann. Argumentation: T&L-Fähigkeit ist die Zukunft, T&L wird kommen, die CPU muss bald entlastet werden weil sie den Aufwand sonst nicht mehr bewältigt. Vergessen wurde, dass sich erstens auch CPUs weiterentwickeln, und zweitens, dass neben T&L auch anderen Features die Zukunft gehört – welche die GeForce256 und GeForce 2 eben auch noch nicht boten.

Das alles macht T&L noch lange nicht unnütz – aber es war nur ein Feature unter vielen. Aber fast jeder Redakteur wollte sich modern geben – und puschte T&L.

Ein ähnliches Spiel mit der Füllrate zum Beispiel bei der GeForce 2 GTS. Einerseits wurde groß mit der 32-Bit-Fähigkeit geworben, andererseits mit den rechnerischen Füllraten – die allerdings bestenfalls im 16-Bit-Modus erreichbar waren. Nvidia schrieb zwar nirgends, dass es sich um 32-Bit-Füllraten handle, aber ließ bewusst diesen Eindruck entstehen.

Wie soll man da handeln? "Richtet nicht, auf dass ihr nicht gerichtet werdet?" Meiner Meinung nach ist es die Pflicht eines Redakteurs, die offiziellen Leistungsangaben auf Plausibilität abzuklopfen.

Gast
2006-06-20, 15:49:59
Ich finde "Die Akte Nvidia" absolut gut bis auf ein paar Ausnahmen. Aber dass aths seine favorisierte Firma nVidia wieder mal in Schutz nimmt, war klar. Das kennt man ja nicht anders - schon seit Jahren.

Gast
2006-06-20, 17:12:13
wie währe es mal mit einer akte ATI :) . ATI ist auch nicht besser was Cheating angeht. OOh richtig es ist ja kein cheating, da Cheating sich böse anhört. Ati spricht von " optinierung "

Haarmann
2006-06-20, 17:46:35
Hakkerstiwwel

Wir haben in der Schweiz gegen unlauteren Wettbewerb ein eigenes "Gesetzbuch". Es ist dünn, aber es ist separat - das UWG.

Schon nach Art 2 dieses ist NV schuldig im Bezug auf TnT Ankündigung.
Im Fall Kyro nach Art 3.a und Art 3.e schuldig.
Zusätzlich nach Art 3.h und 3.i schuldig.

Das reicht wohl fürs Erste. Nur weils in den USA keine entsprechenden Gesetzte gibt heisst das nicht, dass man nicht auch einmal unser Recht auf die anwenden kann...

GLIDE stammt aus der DOS Zeit, als es gar nichts anderes gab. Da kann man schlecht 3dfx den Vorwurf machen überhaupt 3d Karten verkauft zu haben...

Ich hatte ne Menge verschiedener TnT Karten und alle waren grottenschlecht.

Und wenn ein Reviewer nicht schrieb, was NV passte, dann kriegte er bestimmt keine HW mehr... und dies Verhalten verstösst gleich nochmals gegen das CH UWG.

Gast

Imho war er eine Stufe kleiner gefertigt angekündigt worden. Dann hätts auch für den Takt gereicht ... wie der TnT2 bewies.
Somit war eigentlich der TnT2 das, was ursprünglich der TnT sein sollte.

In der Schweiz gilt nebenher auch - wer lavert, der liefert.

Gast
2006-06-20, 18:42:22
Gast[/POST]']Ich finde "Die Akte Nvidia" absolut gut bis auf ein paar Ausnahmen. Aber dass aths seine favorisierte Firma nVidia wieder mal in Schutz nimmt, war klar. Das kennt man ja nicht anders - schon seit Jahren.OMG! Aths Nickname beginnt mit "A" und "T", er ist bestimmt ein ATI-Fanboy. ;)

Hast du das Eröffnungsposting überhaupt gelesen? Aths nimmt dort niemanden in Schutz. Er betrachet die Sache nur etwas differenzierter. Eine Sache, die der Autor der "Akte Nvidia" versäumt hat.

Du findest die Akte Nvidia gut? Findest du es sonst auch gut, wenn man Zitate anderer Leute aus dem Kontext reißt und zusammen mit reißerischen Texten in einen Artikel packt? Es gibt in der Tat so manches, was man NV ankreiden kann. Dann aber bitte in sachlicher Form und nicht so, wie es der Auto der "Akte Nvidia" getan hat.

IVN
2006-06-20, 18:54:45
Haarmann[/POST]']Hakkerstiwwel

Wir haben in der Schweiz gegen unlauteren Wettbewerb ein eigenes "Gesetzbuch". Es ist dünn, aber es ist separat - das UWG.

Schon nach Art 2 dieses ist NV schuldig im Bezug auf TnT Ankündigung.
Im Fall Kyro nach Art 3.a und Art 3.e schuldig.
Zusätzlich nach Art 3.h und 3.i schuldig.

Das reicht wohl fürs Erste. Nur weils in den USA keine entsprechenden Gesetzte gibt heisst das nicht, dass man nicht auch einmal unser Recht auf die anwenden kann...

GLIDE stammt aus der DOS Zeit, als es gar nichts anderes gab. Da kann man schlecht 3dfx den Vorwurf machen überhaupt 3d Karten verkauft zu haben...

Ich hatte ne Menge verschiedener TnT Karten und alle waren grottenschlecht.

Und wenn ein Reviewer nicht schrieb, was NV passte, dann kriegte er bestimmt keine HW mehr... und dies Verhalten verstösst gleich nochmals gegen das CH UWG.

Gast

Imho war er eine Stufe kleiner gefertigt angekündigt worden. Dann hätts auch für den Takt gereicht ... wie der TnT2 bewies.
Somit war eigentlich der TnT2 das, was ursprünglich der TnT sein sollte.

In der Schweiz gilt nebenher auch - wer lavert, der liefert.
Die Schweiz ist nur ein kleiner Teil unseren Planeten -->> who cares?

Wenn BMW ankuendigt, das ihr neuer M5 unter 4 s von 0 auf 100 sprintet - nirgendwo in der "Bedienungsanleitung" steht etwas ueber die Messungen bei trockener Fahrbahn. Du kaufst dir jetzt diesen, und er will bei Regen auf keinen Fall unter 4 s auf 100, war das jetzt unlauterer Wettbewerb? Sollte man jetzt die Firma verklagen?

Ich weiss aber die Antwort. Waerst du ein BMW-Fan, wuerde dich das nicht kratzen, waerst du aber ein Mercedes-Fan wuerdest du wahrscheinlich sofort die Klage einreichen. Genau so ist es hier. Du bist sicherlich ein ATI-Nutzer, und dementsprechend schmerzt dich die ganze Angelegenheit sehr.

Gast
2006-06-20, 20:36:22
Haarmann, deine Texte sind mitunter richtig niedlich! :)

Haarmann[/POST]']
Wir haben in der Schweiz gegen unlauteren Wettbewerb ein eigenes "Gesetzbuch". Es ist dünn, aber es ist separat - das UWG.

Schon nach Art 2 dieses ist NV schuldig im Bezug auf TnT Ankündigung.
Im Fall Kyro nach Art 3.a und Art 3.e schuldig.
Zusätzlich nach Art 3.h und 3.i schuldig.

Das reicht wohl fürs Erste. Nur weils in den USA keine entsprechenden Gesetzte gibt heisst das nicht, dass man nicht auch einmal unser Recht auf die anwenden kann...
Verklag' Sie!!

Alle Elektronikbauteile werden in China in Fabriken von Arbeitern produziert, die niemals unseren Arbeitschutzbedingungen gerecht werden. Wollen wir die auch alle verklagen?

BTW, erläuter' doch mal, inwiefern diese Artikel deines Schweizer Gesetzes greifen? Was sagen sie aus? Inwieweit sind die Firmen da schuldig?


Haarmann[/POST]']
GLIDE stammt aus der DOS Zeit, als es gar nichts anderes gab. Da kann man schlecht 3dfx den Vorwurf machen überhaupt 3d Karten verkauft zu haben...
Warum gab's dann noch etliche Versionen von WinGLide?


Haarmann[/POST]']
Und wenn ein Reviewer nicht schrieb, was NV passte, dann kriegte er bestimmt keine HW mehr... und dies Verhalten verstösst gleich nochmals gegen das CH UWG.
So LOL! Steht es etwa auch in eurem Schweizer Gesetz, dass jede Firma verpflichtet ist, kostenlos Review-Samples an alle zu verteilen, die welche haben wollen?

Wenn ja, bitte die Passage gleich mitzitieren - ich will mich mal so richtig mit allem möglichen eindecken, was meinem Haushalt grad noch so fehlt....

Haarmann[/POST]']
In der Schweiz gilt nebenher auch - wer lavert, der liefert.
Das gilt hier auch - die Kunst ist eben nur, Dinge, mit denen ein Gegenstand tatsächlich beworben wird von den Vorankündigungen zu trennen - da werden nämlich nonexistente Projektionen angepriesen - im Gegenzug dafür auch kein Geld verlangt.

Butter bei die Fisch: Wenn ein bestimmtes Produkt per Packung, Webseite oder Werbung mit einer bestimmten Eigenschaft beworben wird, muss es diese aufweisen. Nicht mehr, nicht weniger.

Haarmann
2006-06-20, 21:02:38
IVN

Wenn ein BMW im Prospekt 400PS hat und in Real 350PS, dann darfste ihn zurückgeben.
Wenn Dir der Hersteller auf eine Graka 250MHz schreibt und sie dann mit 200MHz taktet, dann darfst das auch tun.

Ich bin kein Fan von Firmen, welche mir das Geld aus der Tasche ziehen. Noch weniger Fan bin ich, wenn sie mich übern Tisch ziehen wollen. Ich bin eben Kunde und weder Aktionär noch Firmenmitarbeiter - weder von ATI, noch von NV.

Gast

Die Artikel sind direkt nachlesbar. Aus dem PDF kann ich leider nicht kopieren und mags nicht wirklich abtippen. Ich denke das ist verständlich.

Es gilt gleiches Recht für Gleiche. Du kannst nur keinen diskriminieren, wenn er nicht schreibt, was Dir passt. Da Hersteller oft so unvorsichtig waren und mit sowas gedroht haben, haste das ja schriftlich...

Solange man nicht einen Produktenamen gibt unter dem ein Produkt später auch verkauft wird, welches zu sehr abweicht, nimmt... solange sagt Niemand was.
Dann ist das eben schnell mal eine Täuschung.

Welche Alternativen zu GLIDE hatte 3dfx? Gar keine unterm Strich... auch unter Windows. M$ hats bis Heute nicht wirklich im Griff. Da darfst dann alle Shader mehrmals machen... OpenGL ist genau die gleiche Tragödie.
GLIDE war offensichtlich einfach zu proggen und schnell in der Ausführung. Man verkaufte ja schliesslich auch ein Produkt, welches ohne "Futter" nicht verkäuflich war. Also sorgte man auch dafür, dass Futter kam.

Gast
2006-06-20, 21:04:57
Haarmann[/POST]']IVN

Wenn ein BMW im Prospekt 400PS hat und in Real 350PS, dann darfste ihn zurückgeben.
Wenn Dir der Hersteller auf eine Graka 250MHz schreibt und sie dann mit 200MHz taktet, dann darfst das auch tun.Hat NV dies gemacht? Nein. Sie hatten vor die TNT mit höheren Taktraten zu bringen und haben sich dabei wohl ein wenig übernommen.

Gast
2006-06-20, 21:09:13
Gast[/POST]']OMG! Aths Nickname beginnt mit "A" und "T", er ist bestimmt ein ATI-Fanboy. ;)

Hast du das Eröffnungsposting überhaupt gelesen? Aths nimmt dort niemanden in Schutz. Er betrachet die Sache nur etwas differenzierter. Eine Sache, die der Autor der "Akte Nvidia" versäumt hat.

Du findest die Akte Nvidia gut? Findest du es sonst auch gut, wenn man Zitate anderer Leute aus dem Kontext reißt und zusammen mit reißerischen Texten in einen Artikel packt? Es gibt in der Tat so manches, was man NV ankreiden kann. Dann aber bitte in sachlicher Form und nicht so, wie es der Auto der "Akte Nvidia" getan hat.
Quasar, deine Meinung kennen wir alle, aber aths' pro-nVidia-Postings werden nicht besser, nur weil er nicht den Fanboyhammer rausholt. Er macht das etwas geschickter, aber wo aths steht, beweist dieser Thread mal wieder exemplarisch.

Gast
2006-06-20, 21:10:34
Gast[/POST]']Hat NV dies gemacht? Nein. Sie hatten vor die TNT mit höheren Taktraten zu bringen und haben sich dabei wohl ein wenig übernommen.
Besteht immer noch das Problem Kunde-Anbieter. Als Kunde hast du nur gegenüber dem Anbieter irgendwelche Rechte. Und wer kauft schon direkt von Nvidia Grafikkarten?

Gast
2006-06-20, 21:17:23
Gast[/POST]']Quasar, deine Meinung kennen wir alle, aber aths' pro-nVidia-Postings werden nicht besser, nur weil er nicht den Fanboyhammer rausholt. Er macht das etwas geschickter, aber wo aths steht, beweist dieser Thread mal wieder exemplarisch.Öhm, das Posting das du zitiert hast, war von mir und ich bin definitiv nicht Quasar. ;)

Gast
2006-06-20, 23:24:15
Haarmann[/POST]']IVN

Wenn ein BMW im Prospekt 400PS hat und in Real 350PS, dann darfste ihn zurückgeben.
Wenn Dir der Hersteller auf eine Graka 250MHz schreibt und sie dann mit 200MHz taktet, dann darfst das auch tun.



aber wenn BMW plant ein 400PS-modell zu veröffentlichen, dann aber erkennt, dass der motor das auf lange zeit nicht aushält und dann nur ein 350PS-modell veröffentlicht darfst du das nicht zurückgeben.

nichts anderes hat nvidia gemacht, oder sollen wir jetzt intel "cheating" vorwerfen weil der P4 noch immer nicht die 10GHz erreicht hat ;)

Quasar
2006-06-20, 23:30:46
Gast[/POST]']Quasar, deine Meinung kennen wir alle, aber aths' pro-nVidia-Postings werden nicht besser, nur weil er nicht den Fanboyhammer rausholt. Er macht das etwas geschickter, aber wo aths steht, beweist dieser Thread mal wieder exemplarisch.
Hast dich leider vergalloppiert - der Post ist nicht von mir.

Haarmann
2006-06-21, 09:09:06
Gast

Wenn BMW plant, den M5 mit 400 PS auszurüsten und Du den im Glauben bestellst, er habe 400PS, dann kannst es versuchen. Allerdings ist BMW nicht so blöd, sondern zeigt Concept Cars oder Studien oder weiss nicht was. Die wissen warum.

Aber ganz passend sag ich da nur...

http://www.theinquirer.net/?article=32529

Gast

Hätten sie danach das als TnT angekündigte Produkt nicht als TnT2 verkauft, hätte man sicher mehr Augen zudrücken können.

Gast
2006-06-21, 10:59:36
Haarmann[/POST]']Gast

Wenn BMW plant, den M5 mit 400 PS auszurüsten und Du den im Glauben bestellst, er habe 400PS, dann kannst es versuchen. Allerdings ist BMW nicht so blöd, sondern zeigt Concept Cars oder Studien oder weiss nicht was. Die wissen warum.



dazu müssten aber im endgültigen datenblatt 400PS drinnenstehen.

zum verkaufszeitpunkt hat nvidia nirgends mehr von dem hohen chiptakt gesprochen. dass früher geplante features es oft nicht in das fertige produkt schaffen ist nichts neues und kommt häufig vor, in diesem fall handelt es sich nicht mal um features sondern lediglich um den endgültigen takt.
vorzuwerfen wäre höchstens wenn nvidia (bzw. eigentlich die kartenhersteller) die karte mit dem höheren chiptakt bewerben würde, was aber nicht der fall war.

Haarmann
2006-06-21, 11:23:17
Gast

Man kann gerade Autos vorbestellen - man weiss ja, wann ein neuer Golf kommen wird zB. Das ist natürlich ein Sonderfall bei Produkten. Und daher nicht wirklich passend für Grakas.

Das Problem ist wieder der Name: "TnT" - der stand eben auf den Karten und auf der Ankündigung. Auf einer Grakaschachtel steht zudem der Takt so gut wie nie. Und auch in der BRD, wie der Schweiz, gilt nur was man aussen lesen kann.
Wie der Chip gefertigt wird stand dann schon gar nicht drauf.

Mr. Lolman
2006-06-21, 11:41:46
Naja frech ists schon, die Käufer mit großspurigen Versprechungen vom Kauf eines Konkurrenzprodukts abzuhalten, und dann diese nach ner (absatztechnisch vorteilhaften) paar monatigen Verzögerung nur teilweise einhalten zu können...

Wenn dass dann noch Firmen in einem kurzlebigem aber dennoch Investitions/Kosten- intensivem Markt der Konkurrenz marketingtechnisch das Standbein wegzieht, ists eher kriminell.




Gehen wir, beispielsweise mal davon aus, dass die Bevölkerung ein nicht zu unterschätzendes Bestreben nach Sicherheit hat. Nun wird sie durch Horrormeldungen seitens der Nachrichtenpresse in einen übermässigen Konsumrausch getrieben - und die Wirtschaft floriert. Jeder besitzt mehrere 3D Beamer, ein riesiges Haus und kauft sich ~1x Jahr ein neues Auto. Dementsprechend gibts genauso oft Modellwechsel.

Nun befinden sich die Autohersteller in folgendem Dilemma, dass die Qualität ihrer Proukte fast ausschliesslich an den Sicherheitsfeatures der Topmodellreihe beurteilt wird.

Daraufhin präsentiert Mercedes dem Kunden in einer groß angelegten Werbekampagne, ein völlig neues richtungsweisendes Sicherheitskonzept, dass die Konkurrenz alt aussehen lässt - nach dem Motto: "Bei nem Unfall überleben sie garantiert nur in unserem Wagen"

Der gemeine Autokäufer bekommt natürlich Schiss, so dass er sein Auto nicht länger im Straßenverkehr bewegen will und wartet auf Mercedes neuen Mittelklassewagen, der die ganzen Sicherheitsfeatures zwar ohnehin nicht haben wird, was aber nichts macht, weil im Topmodell auch die Hälfte fehlen wird und der Rest sowieso nur zum Teil funktioniert. Dass die S-Klasse dennoch in der Fachpresse als überlegen gelobt wird liegt zu einem Teil an Mercedes guter Marketingabteilung, zum anderen am Spaß dem die Testfahrten bereiten und zum Dritten am, von völligen Unverständnis gezeichneten Bildungsauftrag, die praktische Sinnhaftigkeit sicherheitsrelevante Features betreffend zu vermitteln.

So schaute halt BMW durch die Röhre, kaum jemand weiss wieviel Fahrspaß der Letzte, vorm, für alle unerwarteten und von Mercedes natürlich völlig unverschuldeten, Konkurs, nicht mehr übern Prototypenstatus hinausgekommene M5 gebracht hat. Er bleibt ein Mythos.

Glücklicherweise konnte sich Audi rechtzeitig vom Image der Billigmarke lösen, und fing nach dem BMW Desaster an, im Luxussegment Zeichen zu setzen. Die Audiairbags sind ja doch die kuscheligsten.

So bleibt dem für deutsche Edelmarken Interessierte noch die schwerwiegende Entscheidung zwischen Audi oder Mercedes selbst nach endlosen Diskussionen am Stammtisch nicht erspart. Und entweder weil man seine Konsequenzen aus dem damaligen Desaster gezogen hat, oder einfach weil Mercedes und Audi (vorallem aber Mercedes ;)) die besseren Fanboys haben, bleibt man selbst nach einer missglückten Modellreihe der Hausmarke treu und ist am KFZ Stammtisch, mit den Fahrern der Konkurrenzmarkte erst bei Diskussionen über BMWs selbstverschuldeten Versäumnisse die persönliche Gunst in gewünschter Weise zu treffen, einhelliger Meinung. So stellen sie die Balzrufe für kurze Zeit ein, um neben froher Übereinkunft bezüglich der Schuldfrage von BMWs Ableben in gemeinsamer Andacht doch noch glauben das Röhren von bayrischen 400 PS zu vernehmen um so doch noch für ein paar Momente den immer stärker verblassenden Zauber der letzten BMWs spüren zu können...

aths
2006-06-21, 11:52:02
Mr. Lolman[/POST]']Naja frech ists schon, die Käufer mit großspurigen Versprechungen vom Kauf eines Konkurrenzprodukts abzuhalten, und dann diese nach ner (absatztechnisch vorteilhaften) paar monatigen Verzögerung nur teilweise einhalten zu können...

Wenn dass dann noch Firmen in einem kurzlebigem aber dennoch Investitions/Kosten- intensivem Markt der Konkurrenz marketingtechnisch das Standbein wegzieht, ists eher kriminell. Ich bekomme, Mailfilter hin oder her, fast täglich Werbe-Spam in denen mir vorgerechnet wird, wie viel ich bei dem Angebot sparen würde – die addieren da irgendwelche Fantasiepreise, die sie mir erlassen, wenn ich irgendwas bestelle mit einer Laufzeit von mindestens zwei Jahren ...


Wenn eine Firma erst groß ankündigt um dann ihre Ziele in aller Deutlichkeit zu verfehlen, muss das so in die Presse, damit der Kunde sinnvoll entscheiden kann. Hier gehts imo nicht um Sachen wie Taktfrequenz, sondern die Frage: Ist die TNT wirklich schneller als Voodoo 2 SLI? So lange die TNT nicht erschienen ist, muss die Voodoo 2 SLI als schnellstes verfügbares Produkt wahrgenommen werden. Beim Erscheinen der TNT ist abzuwiegen, wie das Preisleistungsverhältnis im Vergleich zur Voodoo 2 und zur SLI-Variante ist. Die Presse darf sich nicht zum Werkzeug des Marketings machen lassen.

Mr. Lolman[/POST]']übermässigenÜbermäßigen – mit ß.

Gast
2006-06-21, 13:25:09
Gast[/POST]']
vorzuwerfen wäre höchstens wenn nvidia (bzw. eigentlich die kartenhersteller) die karte mit dem höheren chiptakt bewerben würde, was aber nicht der fall war.


Es gab auch TNT Karten mit höherem Takt, zum Beispiel die Hercules Dynamite TNT (98MHz Chip, 125 MHz RAM)

http://www.thg.ru/graphic/19990105/onepage.html

Und mit den heute üblichen aktiven Kühlern hätte auch jede TNT-Karte die von Nvidia angepeilten 125MHz erreicht.

Gast
2006-06-21, 14:11:38
aths[/POST]']Wenn eine Firma erst groß ankündigt um dann ihre Ziele in aller Deutlichkeit zu verfehlen, ...
... dann liegt der Verdacht nahe, mein lieber aths, dass diese Ziele niemals ernsthaft angepeilt waren, sondern lediglich zu Werbezwecken erfunden wurden.

aths
2006-06-21, 15:18:06
Gast[/POST]']... dann liegt der Verdacht nahe, mein lieber aths, dass diese Ziele niemals ernsthaft angepeilt waren, sondern lediglich zu Werbezwecken erfunden wurden.Der Verdacht liegt im Bereich des Möglichen. Nur ist der Beweis schwer. Als Journalist muss man beide Seiten sehen und sollte das, was man behauptet, nach Möglichkeit auch beweisen können. Nun gut, die Cheating-Vorwürfe die ich in meinem Posting gegen Nvidia erhebe, kann ich nicht beweisen; ich könnte nur sagen: "Bringe eine bessere Erklärung für die wundersame, leider applikationsabhängige 'Leistungssteigerung' und ich ändere meine Behauptung".

Bei im Vorfeld lancierten Zieltaktraten gehe ich allerdings davon aus, dass diese ernsthaft angestrebt wurden. Diese nur zu Werbezwecken zu erfinden hieße, eine anschließende Blamage fest einzuplanen. Normalerweise werden Werbekampagnen nicht so aufgezogen, dass man am Ende wie ein begossener Pudel dasteht.

Natürlich ist es verwegen, zu versuchen mit nur 2 TMUs eine Voodoo 2 SLI (4 TMUs) schlagen zu können. Erst recht, wenn die Voodoo 2 SLI deutlich mehr Bandbreite hat. Nun mache ich weniger speziell Nvidia die TNT-Werbekampagne zum Vorwurf als die seltsame Begeisterung einiger Redakteure und vieler User, die Nvidia als aufgehenden Stern bedingungslos unterstützten. Dass das Unternehmen sich immer, sagen wir mal, bestmöglich darstellt, trifft glaube ich auf alle zu*. Ich sehe es auch ein, wenn viele Spieler und einige Redakteure 3dfx' Dominanz überdrüssig wurden, aber das sollte nicht zu einer blinden Begeisterung für einen Möchtegern-Konkurrenten führen. Zu TNT-Zeiten diskutierten alle Nvidioten immer mit der Zukunft: In Zukunft würde dies, in Zukunft würde das – während der 3dfx-User im Hier und Jetzt beste Performance bei sehr guter Grafik hatte.

* Insbesondere lächerlich auf allen Seiten ist die Begründung, warum Feature XYZ noch nicht unterstützt würde: "Braucht man (noch) nicht". Nvidias 128-Bit-Interface beim NV30 wurde so "begründet", dass die Zeit noch nicht reif wäre – was habe ich gelacht. Die überlegene T&L-Leistung der Radeon 8500 wurde von NV als "invisible" abgetan, zu der um Welten überlegene Pixelshader-Fähigkeit sagte Kirk er habe noch kein Bild gesehen, was GeForce 3 nicht in gleicher oder besserer Qualität rendern könne – lachhaft schon angesichts der Unterschiede in internen der Farbpräzision. Allerdings: Als ATI SM3 erst als Tranistor-Ballast abtat, um später damit natürlich selbst zu werben, wie 3dfx erst das 32-Bit-Rendering als Blödsinn verspottete, um es beim VSA-100 dann groß anzupreisen, schlägt in die gleiche Kerbe. Man darf nicht den Fehler machen, in "gute" und "schlechte" Firmen zu unterteilen. Unbewusst bin ich dazu geneigt, bei NV erst mal alles kritisch zu sehen, und bei 3dfx Begründungen zu suchen – das hat bei mir eben Tradition, da versuche ich der Ratio zuliebe, gegenzusteuern.

Pimok
2006-06-21, 21:45:52
Gast[/POST]']Das hat nichts mit "eingekauft" zu tun, sondern damit, dass die x700 nur Shader Model 2 bietet, AoE3 für maximale Details aber SM3.0 braucht, was z.b. die 6800er Serie bietet.

ATI hat SM3 erst eine ganze Weile später als NV gebracht, nämlich mit dem R520. Das Problem liegt hier einfach darin, dass die x700 featuretechnisch sehr rückständig ist und so nicht für maximale Details in AoE3 taugt.

daran hab ich nciht gedacht :)
alles klar, werd ihm das mal so mitteilen^^

Gast
2006-06-22, 23:35:19
aths[/POST]']Der Verdacht liegt im Bereich des Möglichen. Nur ist der Beweis schwer. Als Journalist muss man beide Seiten sehen und sollte das, was man behauptet, nach Möglichkeit auch beweisen können. Nun gut, die Cheating-Vorwürfe die ich in meinem Posting gegen Nvidia erhebe, kann ich nicht beweisen; ich könnte nur sagen: "Bringe eine bessere Erklärung für die wundersame, leider applikationsabhängige 'Leistungssteigerung' und ich ändere meine Behauptung".

Bei im Vorfeld lancierten Zieltaktraten gehe ich allerdings davon aus, dass diese ernsthaft angestrebt wurden. Diese nur zu Werbezwecken zu erfinden hieße, eine anschließende Blamage fest einzuplanen. Normalerweise werden Werbekampagnen nicht so aufgezogen, dass man am Ende wie ein begossener Pudel dasteht.

Natürlich ist es verwegen, zu versuchen mit nur 2 TMUs eine Voodoo 2 SLI (4 TMUs) schlagen zu können. Erst recht, wenn die Voodoo 2 SLI deutlich mehr Bandbreite hat. Nun mache ich weniger speziell Nvidia die TNT-Werbekampagne zum Vorwurf als die seltsame Begeisterung einiger Redakteure und vieler User, die Nvidia als aufgehenden Stern bedingungslos unterstützten. Dass das Unternehmen sich immer, sagen wir mal, bestmöglich darstellt, trifft glaube ich auf alle zu*. Ich sehe es auch ein, wenn viele Spieler und einige Redakteure 3dfx' Dominanz überdrüssig wurden, aber das sollte nicht zu einer blinden Begeisterung für einen Möchtegern-Konkurrenten führen. Zu TNT-Zeiten diskutierten alle Nvidioten immer mit der Zukunft: In Zukunft würde dies, in Zukunft würde das – während der 3dfx-User im Hier und Jetzt beste Performance bei sehr guter Grafik hatte.

* Insbesondere lächerlich auf allen Seiten ist die Begründung, warum Feature XYZ noch nicht unterstützt würde: "Braucht man (noch) nicht". Nvidias 128-Bit-Interface beim NV30 wurde so "begründet", dass die Zeit noch nicht reif wäre – was habe ich gelacht. Die überlegene T&L-Leistung der Radeon 8500 wurde von NV als "invisible" abgetan, zu der um Welten überlegene Pixelshader-Fähigkeit sagte Kirk er habe noch kein Bild gesehen, was GeForce 3 nicht in gleicher oder besserer Qualität rendern könne – lachhaft schon angesichts der Unterschiede in internen der Farbpräzision. Allerdings: Als ATI SM3 erst als Tranistor-Ballast abtat, um später damit natürlich selbst zu werben, wie 3dfx erst das 32-Bit-Rendering als Blödsinn verspottete, um es beim VSA-100 dann groß anzupreisen, schlägt in die gleiche Kerbe. Man darf nicht den Fehler machen, in "gute" und "schlechte" Firmen zu unterteilen. Unbewusst bin ich dazu geneigt, bei NV erst mal alles kritisch zu sehen, und bei 3dfx Begründungen zu suchen – das hat bei mir eben Tradition, da versuche ich der Ratio zuliebe, gegenzusteuern.
Natürlich hast Du Recht in vielen Punkten; auf der anderen Seite allerdings wirfst Du dich ausschließlich für nVidia in die Bresche. Solche Postings wie in diesem Thread findet man immer und immer wieder nur für nVidia aus deinem Munde. ATI verteidigst Du nie und ebenso übersiehst Du gerne mal ein 3/4 Jahr das extreme Flimmern auf den 6800er karten und schreibst dann einen Artikel darüber, nachdem die Karten schon quasi vom Markt sind.

Also deine Denkweise und deine Sorgfalt bitte nicht selektiv anwenden.

Haarmann
2006-06-23, 08:07:42
aths

Ich bin absolut Deiner Ansicht, dass diese Taktrate angestrebt wurde, aber Dir ist auch klar, dass in dem Moment, wo man die Chips nicht wie vorgesehen "klein" fertigen konnte, der Zug abgefahren war. Und das war lange bevor die Chips ausgeliefert wurden schon bekannt. Das müsste imho fast nen halbes Jahr vorher bekannt gewesen sein oder zumindest 3 Monate. Der Hersteller der Chips jedenfalls wusste das wohl schon sehr lange vorher.

V2 Karten hatten zT gar die 20ns EDO Chips drauf... da war mit SDRAM imho kein Blumentopf gegen zu gewinnen. Allerdings weiss ich nicht, wie gut deren Ansteuerung war.

Gewisse Features, welche die Welt echt nicht braucht, wurden glücklicherweise auch bei NV verrissen. Ich glaube irgendwann hat man gelernt. Quincunx AA oder wie sie deren automatisches Bildverschmierverfahren nannten wäre ein gutes Exempel dafür. Das kam schlecht weg.

Auch sieht man oft erst später, wie sinnvoll eine Firma gehandelt hat. Die AF Optimierungen von ATI sind sicherlich nicht ideal, aber dafür besser, denn was NV zZ bieten kann. Früh übte sich halt, wer ein Meister werden will.

Ich schliesse nebenher nichtmals aus, dass ich mir mal wieder NV zulege (Ev ne GF7600go im ASUS mit Turion X2). Allerdings meide ich in Zukunft NF Chipsets... Warum dort meine TV Karte nicht geht... Ich weiss es nicht. Aber schon beim Sendersuchlauf gibts nen netten BSOD. Warum dort meine Maxtor Platten nicht gehen - weiss ich auch nicht.

Gast
2006-06-23, 09:20:44
Haarmann[/POST]']Auch sieht man oft erst später, wie sinnvoll eine Firma gehandelt hat. Die AF Optimierungen von ATI sind sicherlich nicht ideal, aber dafür besser, denn was NV zZ bieten kann.Die Bri-Sauerein von ATI sind nicht ein Stück besser als Q+ Tri Opt bei NV. Die Sample-Optimierung bei NV ist eine noch größere Sauerei, ja, aber die kann man ja prima abschalten oder eben gleich auf HQ gehen, ganz im Gegensatz zu ATIs "tollem" AI-Schalter.

Mr. Lolman
2006-06-23, 10:52:42
Gast[/POST]']Die Bri-Sauerein von ATI sind nicht ein Stück besser als Q+ Tri Opt bei NV. Die Sample-Optimierung bei NV ist eine noch größere Sauerei, ja, aber die kann man ja prima abschalten oder eben gleich auf HQ gehen, ganz im Gegensatz zu ATIs "tollem" AI-Schalter.

Sie sind doch ein gutes Stück besser, aber fallen bisweilen auch negativ auf.
Allerdings war das mit NV HQ zT auch der Fall.

Trice1001
2007-06-26, 05:55:00
HAHA geil wusste ich garnicht ;) netter atikel gut geschrieben.