PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia linkt auf 3DCenter


Leonidas
2001-12-05, 23:28:32
Niemand soll mehr sagen, nVidia könne nicht mit Kritik umgehen!

nVidia linkt auf dieser Page
http://www.nvidia.de/view.asp?PAGE=pg_20010531955613
auf 3DCenter und bringt als Zitat folgendes:


3dcenter.de (nVidia GeForce2 Treibervergleich 12.41 vs. 21.81 - 16/9/01)
nVidia und ihre Detonatoren-Treiber sind ein Kapitel für sich :-). Man ist öfters geneigt, über die wöchentlich geleakten inoffiziellen Version als auch die vollmundigen Versprechnungen nVidia´s von 50% mehr Performance bei jedem Release eines offiziellen Treibers zu lächeln. Fest steht jedoch auch, daß nVidia bei allen trotzdem vorhandenden kleinen Haken die wohl besten Treiber aller Grafikkarten-Hersteller produziert. Oder anders: Niemand versteht es so gut wie nVidia, aus seinen Treibern im Laufe der Entwicklung immer noch ein Stückchen mehr an Leistung herauszuholen.




-> Man beachte das selbst in diesem Zitat ein dicker Seitenhieb auf nVidia enthalten ist und auch sonst der von nVidia gelinkte Artikel nicht 100%ig rosig für nVidia aussieht.

Labberlippe
2001-12-06, 00:53:27
Originally posted by Leonidas
Niemand soll mehr sagen, nVidia könne nicht mit Kritik umgehen!

nVidia linkt auf dieser Page
http://www.nvidia.de/view.asp?PAGE=pg_20010531955613
auf 3DCenter und bringt als Zitat folgendes:


3dcenter.de (nVidia GeForce2 Treibervergleich 12.41 vs. 21.81 - 16/9/01)
nVidia und ihre Detonatoren-Treiber sind ein Kapitel für sich :-). Man ist öfters geneigt, über die wöchentlich geleakten inoffiziellen Version als auch die vollmundigen Versprechnungen nVidia´s von 50% mehr Performance bei jedem Release eines offiziellen Treibers zu lächeln. Fest steht jedoch auch, daß nVidia bei allen trotzdem vorhandenden kleinen Haken die wohl besten Treiber aller Grafikkarten-Hersteller produziert. Oder anders: Niemand versteht es so gut wie nVidia, aus seinen Treibern im Laufe der Entwicklung immer noch ein Stückchen mehr an Leistung herauszuholen.




-> Man beachte das selbst in diesem Zitat ein dicker Seitenhieb auf nVidia enthalten ist und auch sonst der von nVidia gelinkte Artikel nicht 100%ig rosig für nVidia aussieht.

Muhahha

Sorry aber ich mach ja nichts sagen, aber das ist ein Angriff auf meine Lachmuskeln.

Gruss Labberlippe

Razor
2001-12-06, 01:28:35
Wieso ?
???

"Nothing is perfect !"
Dem auch die Treiber von nVidia Rechnung tragen...

Aber man kann sich bemühen.
Und man wird nVidia nicht nachsagen können, daß sie das nicht tun.
Aus welchen Gründen heraus ist hier erst mal egal, denn es kommt letztendlich dem Nutzer zugute.

Und wer tatsächlich noch an die Marketing-SingSangs der Hersteller glaubt, dem ist wirklich nicht zu helfen.
(und das glit für ALLE Hersteller ;-)

In diesem Sinne

Razor

Haarmann
2001-12-06, 09:53:07
Razor,

Genau deswegen glaubte man den 3dfx Gründern...
Genau deswegen war die Firma Kult...
Es waren keine Marketing Affen, sondern Technik Freaks - und wenn die was sagten, dann hatte es Hand und Fuss - kein Marketing Palaver (Man Beachte, dass auch 3dfx Marketingleute hatte - deren Gewäsch war auch ned Sinnvoller).

Das is wie Tesla vs Edison ;-) Der eine is als Erfinder bekannt und hat eigentlich wohl nur den elektrischen Stuhl erfunden, aber anderer Erfindungen in seinem Namen gut verkauft, der andere war ein Genie im Erfinden, aber ne 0 im Vermarkten.

Pengo
2001-12-06, 11:08:24
Originally posted by Haarmann
Razor,

Genau deswegen glaubte man den 3dfx Gründern...
Genau deswegen war die Firma Kult...
Es waren keine Marketing Affen, sondern Technik Freaks

3DFX war die Inkarnation von Marketingaffen, bei v3 - nur Geschwindigkeit ist wichtig (60 FPS Anzeigen in US-Zeitschriften), bei v5 - nur Bildqualität ist wichtig (und dann die miese SQ).

Kult war es nur bei den Leuten die so viel für die Grakas ausgegeben haben (für Schüler wie mich damals waren es horrende Preise), daß um dies zu rechtfertigen se einen Glauben drauß gemacht haben. Wenn jemand ein Kilo Bohnen für 500DM kauft glaubt er doch auch es sind Zauber - oder Kultbohnen :)

Haarmann
2001-12-06, 11:22:07
Du hast ned per Zufall nen Tintendrucker Pengo? ;-)
Der muss dann wohl megalkultige Tinte haben *harhar*

Die V5 hat beste Signalqualität, solange man keine DAU Karte kauft - ähm resp solange man nicht in der EU wohnt und ne "Deutsche" Karte mit "Deutschem" Handbuch und "Deutschem" Treiber samt "Deutscher" Schachtel braucht, die natürlich dann CE verseucht is.
Wo immer Deutsch draufsteht in der Compibranche - is fast nur Scheisse drin. Das Gleiche gilt für Französisch, Italienisch usw...

Wenns nach mir ginge, würde eine Sprache auf dieser Erde reichen... und das wäre wohl Indonesisch, da dort die überflüssige Konjugation gleich eingespart wurde.

the_MAD_one
2001-12-06, 11:58:27
Originally posted by Pengo


3DFX war die Inkarnation von Marketingaffen, bei v3 - nur Geschwindigkeit ist wichtig (60 FPS Anzeigen in US-Zeitschriften), bei v5 - nur Bildqualität ist wichtig (und dann die miese SQ).



Was denn das stimmt doch sogar. Zu zeiten der v3 wars noch extrem wichtig hohe Frameraten zu erreichen da man mit den meisten Grafikkarten schon probleme hatte 30 fps zu halten. Zu zeiten der v5 waren die Grakas dann bereits so leistungsfähig(sprich eigentlich immer Über 60 fps) das man ruhig mehr wert auf Imagequality legen konnte.

aths
2001-12-06, 12:20:55
the_MAD_one,

Pengo ist nicht in der Lage, den Sinn der 3dfx-Aussagen nachzuvollziehen. Dass eine Voodoo5 effektiv mehr als doppelt so schnell wie eine Voodoo3 ist, und deshalb (2x) FSAA auch mit hohen Frameraten einsetzbar, hat er wohl nicht bedacht.

Andre
2001-12-06, 12:36:25
Originally posted by aths
the_MAD_one,

Pengo ist nicht in der Lage, den Sinn der 3dfx-Aussagen nachzuvollziehen. Dass eine Voodoo5 effektiv mehr als doppelt so schnell wie eine Voodoo3 ist, und deshalb (2x) FSAA auch mit hohen Frameraten einsetzbar, hat er wohl nicht bedacht.

Hmm, also sind die Marketingaussagen von 3DFX in Ordnung und haben einen Sinn, die von NV wieder nicht - erklär mir bitte den Unterschied.
Wenn ich mich recht entsinne, dann waren die Aussagen von 3DFX (jedes zu dem Zeitpunkt aktuelle Game mit mind. 60 FPS spielbar -> jedoch ohne Angaben zur Auflösung und Farbtiefe) teilweise genauso übertrieben.
Und wenn 3DFX Deiner Ansicht nach damit Recht hatte, dann hat auch NV Recht, wenn sie sagen, dass eine Geforce3 in manchen Games eben doppelt so schnell ist wie eine Voodoo5.

Andre
2001-12-06, 12:37:54
Ich möchte noch anfügen, dass es natürlich leicht ist, die Aussagen einer Firma zu beurteilen, die nicht mehr existiert und somit deren Aussagen eben auch nicht mehr.

aths
2001-12-06, 12:49:38
Andre,

als 3dfx die Parole ausgab, 60 Hz seien ein Muss, und des weiteren sollte man sich hierfür die Voodoo3 kaufen, bot die Voodoo3 bei allen mir bekannten damals aktuellen Spielen bei 1024x768 im Durchschnitt in der Tat 60 fps - sofern die CPU das brachte.

Ich muss mich jedoch für einen Formulierungsfehler entschuldigen. Es sollte heissen: "den Sinn der 3dfx-Aussage (ohne "n" hinten) nachzuvollziehen", womit diese spezielle Aussage gemeint war.

Ich wüsste nicht, generell "die" Marketingaussagen von nVidia als Unsinn bezeichnet zu haben. Dass sie gehörig Stuss verzapfen, wirst du vermutlich auch so sehen, oder?

Es sollte angemerkt werden, dass das 3dfx-PDF zum VSA-100 ein Marketing-PDF war. Beim Vergleich der lokalen Speichergrößen wurde beim VSA-100 von 64 MB ausgegangen. Die kann er zwar ansprechen, aber es gibt im Retail Market keine Voodoo4 oder 5-Karte mit 64 MB pro Chip. Ebenso wurde 4x AGP angepriesen. Das bringt der Chip zwar, aber nicht das Boardlayout. Das single pass single clock trilineare Filtering soll zwar bei den VSA-100-basierenden Produkten von Quantum3D möglich sein, ist jedoch auf herkömmlichen V4/5-Karten nicht realisiert.

Was einmal mehr beweist, dass das Studium von White Papers und Marketing-PDFs nicht ausreicht, um ein Produkt zu beschreiben und zu bewerten. Viele nVidia-Fanseiten tun jedoch überwiegend das, und festigten so den guten Ruf.

Kai
2001-12-06, 13:06:10
Warum erinnern mich diese 3Dfx Anhänger immer so sehr an Heutige Atari und Commodore User?

Übrigens scheint nach wie vor immernoch keiner das Argument gelten lassen zu wollen das nVidia ganz und gar nicht für die Treiberentwicklung zuständig ist ... und dafür hängen sie sich ganz schön rein.

Haarmann
2001-12-06, 13:22:24
Kai,

ich sagte doch sogar mal, dass dies im Prinzip Aufgabe des Grakaherstellers wäre... nur gibts einfach so gut wie keine der alten Grakahersteller mehr ;-).
S3 machte auch Referenztreiber und trotzdem wurden diese nicht von allen mitgeliefert. Diamond, Spea und Konsorten hatten immer ihre eigene Suppe mit drin. Auch beim Kartenbios.
Die meisten "Grakahersteller" der Neuzeit sind einfach Assemblierer - mehr ned.
Das is so in etwa, wie wenn man die NV oder ATI Chips mit z.B. TMSC oder UMC anschreiben würde, statt NV oder ATI...
Aber eben... das sehen offenbar ned alle so wie Du ;-).

Andre
2001-12-06, 13:47:50
Originally posted by aths
Andre,

als 3dfx die Parole ausgab, 60 Hz seien ein Muss, und des weiteren sollte man sich hierfür die Voodoo3 kaufen, bot die Voodoo3 bei allen mir bekannten damals aktuellen Spielen bei 1024x768 im Durchschnitt in der Tat 60 fps - sofern die CPU das brachte.

Ich muss mich jedoch für einen Formulierungsfehler entschuldigen. Es sollte heissen: "den Sinn der 3dfx-Aussage (ohne "n" hinten) nachzuvollziehen", womit diese spezielle Aussage gemeint war.

Ich wüsste nicht, generell "die" Marketingaussagen von nVidia als Unsinn bezeichnet zu haben. Dass sie gehörig Stuss verzapfen, wirst du vermutlich auch so sehen, oder?

Es sollte angemerkt werden, dass das 3dfx-PDF zum VSA-100 ein Marketing-PDF war. Beim Vergleich der lokalen Speichergrößen wurde beim VSA-100 von 64 MB ausgegangen. Die kann er zwar ansprechen, aber es gibt im Retail Market keine Voodoo4 oder 5-Karte mit 64 MB pro Chip. Ebenso wurde 4x AGP angepriesen. Das bringt der Chip zwar, aber nicht das Boardlayout. Das single pass single clock trilineare Filtering soll zwar bei den VSA-100-basierenden Produkten von Quantum3D möglich sein, ist jedoch auf herkömmlichen V4/5-Karten nicht realisiert.

Was einmal mehr beweist, dass das Studium von White Papers und Marketing-PDFs nicht ausreicht, um ein Produkt zu beschreiben und zu bewerten. Viele nVidia-Fanseiten tun jedoch überwiegend das, und festigten so den guten Ruf.

Zu 1.

In jeder Auflösung ?
Auch 1280x1024, welche auch damals möglich war ?

zu 2.

Ok, hab ich verstanden.

zu 3.

Manchmal schon, aber mehr dazu bei Punkt 4+5.

zu 4.-5.

Dass viele NV-Seiten das machen, ist doch logisch - es erpart einem selbst viel Arbeit.
Ich bezweifle, dass dies bei den ehemaligen 3DFX-Fanseiten anders war.
Mir fällt da konkret voodoofiles.com ein, die selbst nachdem das Ende von 3DFX schon nah war, dies nicht wahrhaben wollten und die überlegene Technik publizierten.
Aber Deine Aussage ist äußerst interessant.
Du sagst, dass man sich kein Gesamtbild über Hardware bilden kann, wenn man nur auf Marktingpapers zurückgreift und Du sagst somit, dass es im Falle von 3DFX nicht (so) schlimm war.
Nun, dann frage ich mich, warum Du pro Woche mind. einen Thread aufmachst, indem Du genau diese Paper von NV auseinandernimmst ?
Und Du entschuldigst die Marketingaussagen von 3DFX im Falle des genannten PDF-Dokuments, aber bei NV ist das Kundenverarsche ?
Hmm, ich hab ja nichts dagegen, aber man sollte wenigstens eine durchgängige Argumentation verwenden und das machst Du einfach nicht bzw. setzt je nach Sympathie unterschiedliche Maße an.

Pengo
2001-12-06, 13:47:54
Originally posted by aths
Andre,

als 3dfx die Parole ausgab, 60 Hz seien ein Muss, und des weiteren sollte man sich hierfür die Voodoo3 kaufen, bot die Voodoo3 bei allen mir bekannten damals aktuellen Spielen bei 1024x768 im Durchschnitt in der Tat 60 fps - sofern die CPU das brachte.


Dann war dir nicht viel bekannt, sowohl bei Shogo als auch bei Quake 3 brachte eine Voodoo 3000 zum damaligen Zeitpunkt um die 40 fps, und das auf nem P3 500. (Hab damals bei nem Kumpel selbst gebencht).

Legolas
2001-12-06, 14:26:29
Originally posted by Pengo


Dann war dir nicht viel bekannt, sowohl bei Shogo als auch bei Quake 3 brachte eine Voodoo 3000 zum damaligen Zeitpunkt um die 40 fps, und das auf nem P3 500. (Hab damals bei nem Kumpel selbst gebencht).

Nur das Quake 3 über ein halbes Jahr nach der V3 auf dem Markt kam...

Pengo
2001-12-06, 15:37:02
Das war Ende 99 und es gab schon den Quake 3 Test, man konnte also benchen.

Razor
2001-12-06, 16:00:04
@Haarmann

Gegen die 3dfx-'Gründer' sach ich ja auch gar nets...
;-)

Aber was die Leut's dann so im Laufe der zeit von sich gegeben haben, ist dann net mehr so witzig gewesen.
Mehr als nur einmal wurden 'Versprechen' net gehalten...
Wär'n sie doch bei ihrer ursprünglichen Intention geblieben.

Und leider gehört Marketing zum Geschäft !
(wenn's auch net alles is ;-)

Und net alles, was aus D kommt ist sch... !
ELSA tut sich da wohltuend hervor (zumindest bei der gfddr/gf3).

@Pengo

Haarmann hat ja auch deswegen den Begriff '3dfx-Gründer' benutzt !
Mit der V3 begann der Anfang vom Ende und ab da ham se sich kräftig verzettelt...

Und die V2 (zuvor die V1) war echt kult !
;-)

@Andre

Bis zur V2 hat's ja noch gestimmt !
Aber dann ham'se angefangen zu übertreiben (in fast jeder Hinsicht ;-)...
"Friede ihrer Asche !"
;-)

Und nicht über aths aufregen... mittlerer Weile ist doch bekannt, daß er mit zweierlei Maßstäben mißt.
(auch wenn er es net so 'sieht' ;-)

In diesem Sinne

Razor

Legolas
2001-12-06, 16:34:10
Originally posted by Pengo
Das war Ende 99 und es gab schon den Quake 3 Test, man konnte also benchen.

V3 kam im Mai.. und Q3 Test ein paar Monate drauf, nur daß das nicht mal ne Demo, sondern eben nur ne Testversion war.. und die Performance vom Test hat sich ja auch von der Performance des Endprodukts unterschieden, eben weils noch ne Beta war.

aths
2001-12-06, 17:48:26
Pengo,

du nervst langsam mit deinen Schnellschüssen. Ich schrieb 60 fps bei damals aktuellen SPIELEN (das Spiel Quake3 kam deutlich später als die V3), und außerdem, wenn die CPU mitmacht. Ein P3-500 reizt die V3 (3000) nicht aus.


Andre,

ich schrieb 1024x768, was damals absolut Stand der Technik war. 3dfx-Fanseiten machten sich selten die Mühe, die Überlegenheit der Voodoo mit white papers nachzuweisen, da sie davon überzeugt waren. Wie die meisten der Zielgruppe. Man kaufte vom Marktführer. Es waren nVidia-Fans, die verzweifelt belegten, dass nVidia-Chips fortschrittlichere Features hatte. Dabei griffen sie, teilweise mangels Erfahrung, zu unsauberen Mitteln. (Screenshot-Vergleich, obwohl das Voodoo3-Monitorbild besser ist als der Screenshot, anprangern des fehlenden AGP-Texturings, obwohl das Fehlen absolut keine Nachteile bringt etc.)

Ich mache nicht jede Woche einen neuen Thread auf. Mir fallen da genau 2 Threads ein, in denen ich nVidias Marketing-Politik kritisiere. Das wird jawohl erlaubt sein, zumal ernsthafte Marktführer-Kritik bei nVidia-Fans lange Tradition hat. Die Reaktionen haben jene ja teilweise realisiert.

Es waren die Auseinandersetzungen um die Features, die mein Verständnis förderten. Ohne Forenkriege wäre ich noch heute im Verständnis von 3D-Features völlig unbeleckt.

Die Marketing-Aussagen von 3dfx im angesprochenen Papers zum VSA-100 sind allesamt wahr, aber teilweise wird der Unterschied zwischen Chip und Board verschwiegen. Marketing-Material von nVidia geht - siehe als Extrembeispiel Kyro - schon mal andere Wege.


Wenn es vorranging um Sympathie geht, müsste ich täglich auf ATI fluchen, auf die ich wegen dem Rage noch immer einen Rochus habe. Des weiteren stelle ich fest, dass viele ihre GeForce aus reiner Sympathie verteidigen bzw. anpreisen. Ich habe eben von 3dfx-Produkten einen guten Eindruck.

edit: Ich darf ergänzen, dass ich den 60-Hz-Wirbel von 3dfx als Schwachsinn empfand, da 30 oder 40 *vollkommen* ausreichend seien. Erst in Unreal/UT/Q2/Q3-Session lernte ich 60 fps schätzen, so dass ich heute in Multiplayer-Games immer so viel Qualität opfere bzw. die Auflösung senke, um im Schnitt mit 60-75 fps spielen zu können.

Labberlippe
2001-12-06, 18:18:45
Originally posted by Razor
@Haarmann

Gegen die 3dfx-'Gründer' sach ich ja auch gar nets...
;-)

Aber was die Leut's dann so im Laufe der zeit von sich gegeben haben, ist dann net mehr so witzig gewesen.
Mehr als nur einmal wurden 'Versprechen' net gehalten...
Wär'n sie doch bei ihrer ursprünglichen Intention geblieben.

Und leider gehört Marketing zum Geschäft !
(wenn's auch net alles is ;-)

Und net alles, was aus D kommt ist sch... !
ELSA tut sich da wohltuend hervor (zumindest bei der gfddr/gf3).

@Pengo

Haarmann hat ja auch deswegen den Begriff '3dfx-Gründer' benutzt !
Mit der V3 begann der Anfang vom Ende und ab da ham se sich kräftig verzettelt...

Und die V2 (zuvor die V1) war echt kult !
;-)

@Andre

Bis zur V2 hat's ja noch gestimmt !
Aber dann ham'se angefangen zu übertreiben (in fast jeder Hinsicht ;-)...
"Friede ihrer Asche !"
;-)

Und nicht über aths aufregen... mittlerer Weile ist doch bekannt, daß er mit zweierlei Maßstäben mißt.
(auch wenn er es net so 'sieht' ;-)

In diesem Sinne

Razor

Sorry aber wo hat 3dfx es übertrieben?
Damals hatten Sie nur Add on Karten und mussten sich erst an die Kombitechnik gewöhnen.
(Den Rush vergessen wir mal, der war ne totale Pleite)

3dfx hat gesagt das 32 Bit noch nicht soweit ist und bis auf Quake3 auch kaum ein Game gab welches es hatte.
Das stimmte ja sogar, dafür haben Sie aber den 16 Bit Modus verfeinert und der war der damaligen Konkurrenz weit überlegen.
Die Leistung war auch gegenüber der TNT2 höher.

Zum Schluss wurde nur noch eine V3-2000 gegen eine TnT2Ultra getestet.

Wie auch immer die Entscheidung war nicht die falsche.

Mich wundert nur wie sich die nv Jünger in Ihren Meinungen immer wieder drehen, so nach den Motto Hauptsache es passt.

3dfx war schneller, dann hies es, päh 16 Bit, 32 Bit ist in.
Als die Radeon kam war diese auf 32 Bit fast gleichschnell mit geballter Technik.
Dann hiess pah 16 Bit Leistung zu schwach weil ich ja hohe Frames brauche und die Treiber sowieso....
Ja was jetzt?

FSAA auf der V5.
Pah braucht keine S.. T&L ist der Hit.
Jetzt wo sich herraus gestellt hat das T&L nicht der Hammer war, heist es FSAA und Aniso.
Abgesehen davon das Qi mehr verwäscht als glätte, wird dieses mit Ani als State of the Art angesehen.

Und wenn alle Strike reissen gehen wir wieder auf 16 Bit.

GeForce3: Nö ist eine DX8 Karte.
Jetzt kommt eine DX8.1 wird wieder auf OpenGL und DX7 Games gespielt oh Wunder.


Naja wie auch immer.
Es ist immer wieder ein Lächeln Wert wie weit man vom eigentlichen Thema abkommen kann.

Um auf das Thema zurück zu kehren.

Muhahahahah
Der Link kann nur ein Gag sein oder liest nv nicht was Sie verlinken.

Gruss Labberlippe

StefanV
2001-12-06, 21:59:46
Ihr solltet euch mal die aktuelle CHIP reinziehen...

OH WUNDER, DIE BEIDEN ATI KARTEN WURDEN TESTSIEGER!!

WIE KONNTE DAS BLOSS PASSIEREN??

Und das, obwohl die Gewichtung des Aquamark 'angepasst' wurde, weil es nicht mit dem DETO XP läuft und das mit 12.90 getestet wurde...

Und am Ende wird es meistens doch immer so hingedreht, daß NV vorne ist...

Sind denn alle von NV geschmiert??

Oder sind sie so blind, daß sie es nicht merken??

Als es noch OS/2 gab, da haben alle es 'zerlegt' und heute schimpfen die gleichen Typen auf M$...

Wie kurzsichtig kann man sein??

Labberlippe
2001-12-06, 22:24:39
Originally posted by Stefan Payne
Ihr solltet euch mal die aktuelle CHIP reinziehen...

OH WUNDER, DIE BEIDEN ATI KARTEN WURDEN TESTSIEGER!!

WIE KONNTE DAS BLOSS PASSIEREN??

Und das, obwohl die Gewichtung des Aquamark 'angepasst' wurde, weil es nicht mit dem DETO XP läuft und das mit 12.90 getestet wurde...

Und am Ende wird es meistens doch immer so hingedreht, daß NV vorne ist...

Sind denn alle von NV geschmiert??

Oder sind sie so blind, daß sie es nicht merken??

Als es noch OS/2 gab, da haben alle es 'zerlegt' und heute schimpfen die gleichen Typen auf M$...

Wie kurzsichtig kann man sein??

PST nicht zu laut!

Den jetzt gibt es mehrer Möglichkeiten.
A: Unser Spezies hier werden Chip als lächerlich darstellen.
B: Es kommt keine Antwort
C: Es werden wieder vergleiche mit irgendwelchen Treiber oder Giants benches entgegen getreteten.

Das gleiche wie bei PC Magazin.

Gruss Labberlippe

Pengo
2001-12-06, 22:37:41
Originally posted by aths
[B]Pengo,

du nervst langsam mit deinen Schnellschüssen. Ich schrieb 60 fps bei damals aktuellen SPIELEN (das Spiel Quake3 kam deutlich später als die V3), und außerdem, wenn die CPU mitmacht. Ein P3-500 reizt die V3 (3000) nicht aus.


Beim v3 release war P500 top. Du bringst bei jeder 2ten nVIDIA Diskussion Ultima IX als Beispiel - und jetzt konntest du plötzlich U9 auf einer Voodoo 3000 mit 60 fps spielen oder wie?

Pengo
2001-12-06, 22:40:20
@aths

da 30 oder 40 *vollkommen* ausreichend seien

Meinst du Minimal oder Mittelwerte?

Razor
2001-12-06, 22:48:37
@Laberlippe

Sag mal, geht's noch ?
???

Ich kann ja verstehen, wenn sich mal jemand auskotzen will...
Und ? Geht's Dir wieder gut ?
;-)

Aber zumindest Dein letzter Satz ist erwiederungswürdig:
Sicher werden sie leden, was sie verlinken !

Und nicht aufregen, schadet nur der Gesundheit.
;-)

@Stefan

Ist doch schön, daß ATI nun auch mal Testsieger ist !
Wie war das noch ?
"Ein blindes Huhn findet auch mal ein Korn"
(nicht ganz ernst gemeint ;-)

Bin zur Zeit aber eher an echten Erfahrungsberichten interssiert, zu denen Du übrigens so gut wie gar nichts beiträgst. Haarmann ist da schon auskunftsfreudiger, aber von Dir hört man noch immer Marketing-SingSang. Wie wärs mal mit nen paar Trueform-Benches oder ähnlichem... irgendetwas halt, was die Leute hier wirklich interessiert.

@Pengo

30-40fps minimal mit 'ner V3 ?
???

Ich hoffe inständig, daß Du diese Frage nicht ernst gemeint hast !
;-)

In diesem Sinne

Razor

MadManniMan
2001-12-06, 23:13:57
"30-40fps minimal mit 'ner V3 ?"

wo nicht? bedenke, wir reden von anfang/mitte 99!


"Ich hoffe inständig, daß Du diese Frage nicht ernst gemeint hast !
;-)"

ähnlich gehts mir im mom... zu schade, daß man dem razor net ernst nehmen darf(stichwort: gerstenkorn), denn sonst müßte man sich echt fragen, warum er sich über dem lapperlippe sein post beschweren tut

aths
2001-12-06, 23:35:07
Pengo:

"Beim v3 release war P500 top. Du bringst bei jeder 2ten nVIDIA Diskussion Ultima IX als Beispiel - und jetzt konntest du plötzlich U9 auf einer Voodoo 3000 mit 60 fps spielen oder wie?"

Dennoch reizte er die Voodoo nicht aus. U9 war noch längst (!) nicht im Handel. Wie gesagt, Quake3 auch nicht.

"Meinst du Minimal oder Mittelwerte?"

Natürlich den Durchschnitt.

edit: Manni, der Razor hat wohl was durcheinander gebracht. Ich redete davon, bei der 60-fps-Werbung für die Voodoo3 reichten mir noch 30-40 fps. Erst später lernte ich 60 fps schätzen, was die Voodoo3 ihrerzeit tatsächlich brachte, wenn die CPU stark genug war.

Andre
2001-12-06, 23:41:16
Originally posted by Labberlippe


PST nicht zu laut!

Den jetzt gibt es mehrer Möglichkeiten.
A: Unser Spezies hier werden Chip als lächerlich darstellen.
B: Es kommt keine Antwort
C: Es werden wieder vergleiche mit irgendwelchen Treiber oder Giants benches entgegen getreteten.

Das gleiche wie bei PC Magazin.

Gruss Labberlippe

Danke, ich wollte schon immer mal in eine Schublade gesteckt werden.
Ohh, ist das schön hier.

aths
2001-12-07, 00:09:17
Andre, ich denke, du wurdest in keine Schublade gesteckt, da du dich recht differenziert äußerst.

Labberlippe
2001-12-07, 00:28:04
Neue Variante

D: Man geht auf den Poster Direkt los.

Immer wieder nett zu sehen wie manche sich persönlich angesprochen fühlen.


*rofl*

Gruss Labberlippe

Quasar
2001-12-07, 01:05:35
Aths:
"Die Marketing-Aussagen von 3dfx im angesprochenen Papers zum VSA-100 sind allesamt wahr, aber teilweise wird der Unterschied zwischen Chip und Board verschwiegen. Marketing-Material von nVidia geht - siehe als Extrembeispiel Kyro - schon mal andere Wege."
Soso :) diese Marketing-Aussagen sind also wahr? Ich will lieber nicht fragen, ob du das irgendwie belegen kannst....
Und ferner ist es doch auch 3dfx's Schuld, wenn sie 'nen Chip designen, der das alles kann, aber leider nach x Monaten Verspätung immer noch kein Board hinbekommen haben, das auch in der Lage ist, das umzusetzen.

Aths:
"als 3dfx die Parole ausgab, 60 Hz seien ein Muss, und des weiteren sollte man sich hierfür die Voodoo3 kaufen, bot die Voodoo3 bei allen mir bekannten damals aktuellen Spielen bei 1024x768 im Durchschnitt in der Tat 60 fps - sofern die CPU das brachte."
Wie meinst du das? im Durchschnitt aller dir bekannten Spiele, oder im Durchschnitt bei allen dir bekannten Spielen? Deine Formulierungen sind ja beinahe Marketinreif....nichts worauf man dich festnageln könnte ;)

Labberlippe:
"Die Leistung [der Voodoo3]war auch gegenüber der TNT2 höher."
In ausgesuchten Titeln sicherlich....

Stefan:
"Und das, obwohl die Gewichtung des Aquamark 'angepasst' wurde, weil es nicht mit dem DETO XP läuft und das mit 12.90 getestet wurde..."
Sowas....bist du dir da gaaaanz sicher? Ich hab schon des öfteren Scores mit dem Aquamark und nem DetXP gesehen.... :) :)

Labberlippe
"GeForce3: Nö ist eine DX8 Karte.
Jetzt kommt eine DX8.1 wird wieder auf OpenGL und DX7 Games gespielt oh Wunder."
Naja, wie man's nimmt. Würdest du eine DX8-Karte kaufen, die keinen brauchbaren oGL ICD bietet? Oder die nicht abwärtskompatibel zum älteren DX-Versionen ist (wenn das technisch überhaupt geht?)?
Zur Leistung einer Karte gehört immer das Gesamtbild. Aber auch unter DX8 sieht ne GF3 für meine Begriffe ziemlich gut aus gegen die R8500. Aquamark läuft bei niedrigerem Takt annähernd gleich schnell, und vom Nature-Test im 3DMark brauchen wir wohl (noch?) nicht zu reden. Wenn du mehr DX8-Titel benennen kannst, nur zu. Mir fallen momentan keine ein.

Labberlippe:
"Den jetzt gibt es mehrer Möglichkeiten.
A: Unser Spezies hier werden Chip als lächerlich darstellen.
B: Es kommt keine Antwort
C: Es werden wieder vergleiche mit irgendwelchen Treiber oder Giants benches entgegen getreteten."

A) Chip ist großartig....
B) doch, schon...und nicht nur eine :)
C) Giants is ja schön und gut, aber es ist nur ein Spiel...genau wie von anderer Seite ein anderes Spiel...

Aths:
"Pengo:

"Beim v3 release war P500 top. Du bringst bei jeder 2ten nVIDIA Diskussion Ultima IX als Beispiel - und jetzt konntest du plötzlich U9 auf einer Voodoo 3000 mit 60 fps spielen oder wie?"

Dennoch reizte er die Voodoo nicht aus. U9 war noch längst (!) nicht im Handel. Wie gesagt, Quake3 auch nicht."
Hm. Bei CPUs läßt du Dinge gelten, die noch nicht im Handel waren, bei Games nicht? Also wenn schon Markteinführung (Mai 1999) als Meßpunkt nehmen, dann auch bitte bei den anderen Komponenten.


P.S.: Worum gings hier eigentlich?

Quasar
2001-12-07, 01:31:14
Sorry für den Doppelpost, aber im "edit" kann man keine Bilder einfügen...

Also:
Was mir noch zum DX8-lastigen 3DMark2k1 einfällt (Siehe Bild unten, von Hartware.net...ja, ich weiß ;) )

Die "Überlegenheit" scheint sich der Radeon ja nur durch diesen einen HQ-Dragothic Test zu holen, in dem keine wirklichen Riesenansprüche an die Graka gestellt werden. Texturen sind deutlich weniger groß, als z.B. im Car Chase. Nur Lobby ist noch detailärmer.

Das einzige, was ins Auge sticht, ist die sehr hohe Polygonzahl (99.000 im Schnitt). Es spiegelt sich auch im High-Polygon Count und Vertex-Shader Test wider, das ATi hier wohl bessere Arbeit geleistet zu haben scheint.
Die sonstige Rendereinheit scheint aber eher durchwachsen zu sein, wenn sie mit 37,5% höherem Takt beim Core und 19,5% mehr beim Speicher "nur" etwa gleiche Leistungen vollbringt...

Naja, aber eigentlich wollten wir den 3DMark ja in Ruhe sterben lassen. Aber außer Aquamark fällt mir wirklich nix DX8iges ein....sorry.

Haarmann
2001-12-07, 09:27:49
Quasar,

Also ich hab Windows XP und den bekanntlichen Dual Athlon XP 1600+...
Und oh Wunder der Natur, hab ich leicht höhere Werte im 3d Murks... Car 38.5 Lobby 45.6 Nature 30.6 Dragothic 78.8
Interessant sind nun aber nicht meine Werte an sich, sondern der Vergleich zu denen mit (zu) langsamer CPU von Hartware.net.
Nur 2 Werte steigern sich da nicht wirklich sind ergo nicht durch die CPU ausgebremst.
Auf gut DE, nur die Tests, die sich nicht gross durch CPU Power steigern lassen, dies gilt nur für HW T+L, VS und PS Karten, kann ich ernst nehmen.
Cartest und Nature sehen aus meiner Sicht eher wie Grafisch aufgemotzer CPU Bench aus... und das will ich ned testen, wenn ich verschiedene Grakas gegeneinander antreten lasse.

Wie schnell ne Radeon2 taktet, is egal... Wie schnell deren Speicher taktet is auch egal. NV taktet den gleichen Speicher ja freiwillig langsamer denn möglich (vom Speicher her). ATI scheint das halt besser im Griff zu haben...
Auch die Chips sind am gleichen Ort gefertigt worden - weil ATIs offenbar schneller läuft bei gleicher Technologie, wird er höher getaktet.
Auch ein aktueller P4 kann wohl bei gleicher Fertigungstechnologie schneller getaktet werden, denn ein Thunderbird. Aber das hat bekanntlich auch seine Gründe und nicht nur Vorteile.
Wenn ich mir NVs Riesenkühler betrachte für die 240/250 MHz und dann ATIs für 275 ansehe, drängt sich mir der Verdacht auf, dass NVs DX8 Lösung wohl etwas wärmer wird... Könnte da nicht auch ein Grund für deren tieferen Takt liegen?

P.S. Mir ist die pro MHz Leistung meiner Graka sowas von egal... und vom 3dmurks selber halte ich wie geschidert sehr wenig...

Quasar
2001-12-07, 12:17:18
Moin!

Also lass' es mich nochmal zusammenfassen:
Für dich sind Dragotic und Lobby die einzigen beiden Graka-Tests, da sie im Gegensatz zu den beiden anderen nicht mit der CPU-Leistung zu skalieren scheinen, du in diesen beiden Tests also Graka-limitiert bist.

Richtig?

Gut. Das scheint aber bei der GF3 etwas anders zu sein. Ich habe zwar meine GF3 um 17,5% für Speicher und Core hochgesetzt, bekomme aber durch die Bank bei allen 4 Tests mind. 33% (Nature) bis 40% (Car HQ) höhere Werte im gegensatz zum Standardtakt.

Dieses unterschiedliche Verhalten interessiert mich, unabhängig vom Sonstigen Verhalten des 3DMark2k1. Und andere DX8-Benchmarks sind ja auch nicht soo weit gestreut.

Ich habe, ehrlich gesagt, nVidias Treiber seit dem Release des DetonatorXP ein wenig im Verdacht, bei einigen DX8-Funktionen, namentlich dem Vertex-Shader, Load-Balancing eingeführt zu haben, was diese deutlich bessere Skalierung erklären würde.

Vielleicht könnte sich hierzu mal jemand mit mehr Ahnung von Programmierung und Treibern äußern....mich macht es ziemlich stutzig, wie eine Graka mit 17,5% mehr Takt und einer 30% höher getakteten CPU 33% mehr Leistung in einem Graka-Bench erreichen kann....


Auf die pro-MHz Leistung so direkt einzugehen, war auch nicht meine Absicht, nur ist es irgendwie schon komisch...ähnlich wie beim P4 vs. Athlon...wer weiß, vielleicht führt nVidia ja auch ein Power-Rating ein.

Pengo
2001-12-07, 12:27:58
Originally posted by Haarmann
.
Cartest und Nature sehen aus meiner Sicht eher wie Grafisch aufgemotzer CPU Bench aus... und das will ich ned testen, wenn ich verschiedene Grakas gegeneinander antreten lasse.

Aber Dragonic nicht? Etwas deswegen nicht weil R8500 hier so gut abschneidet? Cartest kann man immerhin (mit einer Serienummer) spielen, auch wenn das Spiel keine 2 Minuten dauert.

nggalai
2001-12-07, 12:48:31
Quasar,

zum Thema Dragothic: lies mal aufmerksam die Help-Files zum 3DMark2k1 durch, die infos auf madonion.com sind auch nicht zu verachten (musst ein wenig suchen, aber einige Programmierer haben sich in mehreren Threads zum Thema Dragothic geäussert, da dieser Test am meisten Mühe zu machen scheint).

Kurz gesagt scheint Dragothic sehr schön vom Multitexturing der R8500 resp. der Treiberunterstützung zu profitieren. Eine GF3 braucht da im schlimsten Fall von Haus doppelt soviele passes pro pixel als die R8500. Vertex shader werden auf DX8-Hardware in sämtlichen Spiele-Tests verwendet, wenn man auf die Pure-HAL umschaltet (was bei GF3 und R8500 der default-Einstellung entspricht).

Ansonsten können R8500 Besitzer hier einen recht einfachen Test machen: lasst den Dragothic High-Detail mal im Pure- und mal im HW-TnL-HAL laufen, und vergleicht die Framerate. Würde mich auch mal interessieren, was "echte" Leute für Resultate kriegen, so.

ta,
.rb

nggalai
2001-12-07, 12:59:28
Wenn wer zu faul zum suchen sein sollte:

http://discuss.madonion.com/forum/showflat.pl?Cat=&Board=mo3dmark2001&Number=118009&page=&view=&sb=&o=&fpart=all&vc=1

Schaut euch die Infos von Patric durch, und Neeyik hat das so zusammengefasst:To further explain what he means, I did a quick search of the ORB to compare my overclocked GF3 score to a standard Radeon 8500 (to get the clock levels equivalent). My compare URL is in the signature below and here is the Radeon one: click here

Take a look at the Fill Rate test scores:

GF3 (@ 230/515) vs. R200

Single = 734 vs. 735
Multi = 1511 vs. 1971

Ratios = 1 to 2.05 vs. 1 to 2.68

Both cards have 2 texture units per pipeline (and 4 pipes each) but the R200 can render 6 texture layers in a single pass, whereas the GF3 is limited to 4 texture layers. In fact, the ratio of their ratios (!) is 1 to 1.27 in favour of the ATi card which ties in fairly close to 4 : 6 (1 : 1.5)Dies ist deshalb relevant, weil der Dragothic Test mit 3 Textur-Layern arbeitet.

ta,
.rb

Labberlippe
2001-12-07, 13:18:00
Vorrallem wird auch bei Dragothic auch noch das HyperZ2 eine feste Rolle spielen.

Am Anfang erblickt man die Umgebung relativ von oben, teilweise aber auch Blickpunkt unten am Platz.
Der Overdraw wird hier sicher nicht so hoch sein aber bischen schätze ich mal wird es mitbringen.

Gruss Labberlippe

nggalai
2001-12-07, 13:27:30
Labberlippe,

Ich denke nicht, dass HyperZ-II hier bedeutend mehr bringt als die Z-occlusion detection der GF3. Eine Standard-GF3 kommt auf rund 50fps, Dragothic-Hi--eine R8500 mit bedeutend höherer Taktung auf rund 80fps. Würde die R8500 einen grossen Vorteil durch HyperZ-II geniessen, wäre der Unterschied grösser.

Kann vielleicht mal ein R8500-Besitzer die Karte auf 200/240 runtertakten? Die R8500 sollte immernoch deutlich schneller als eine GF3 sein, aber halt eben in der von Neeyik geschilderten Art und Weise.

Hmm. Aber das wird zu off-topic. Wenn das wer macht, soll diese Person doch bitte gleich einen neuen Thread starten. :)

ta,
.rb

Labberlippe
2001-12-07, 13:28:20
@Quasar
Labberlippe:
"Die Leistung [der Voodoo3]war auch gegenüber der TNT2 höher."
In ausgesuchten Titeln sicherlich....

=> Die Leistung war eigentlich meiner Erinnerung nach fast bei jeden Game höher.
+ die Glide Unterstützung den diese war damals noch fest vertreten.
Glide und D3D lassen wir mal lieber nicht Direkt antreten. :)
Nix ausgesuchte Titeln, das einzige Argument blieb 32 Bit.
Wobei im laufe der Zeit nVIDIA dann eine TNT2 Ultra nachgeschoben hat und fest an den Treiber gefeilt hat.
Da kamm dann was ich noch weis der erste Deto ins Leben.

........................................................

@Razor

Jetzt mal im Ernst, lese den Artikel auf 3DCenter nochmal durch.
Unter dem Strich gesehen was ist bitte da Positiv?
Wieviele hatten mit diesen Treiber Probleme? Massig

Aber eines muss man den jungs von nVIDIA lassen Selbstmotivation wird hoch geschrieben.
Ich habe selten so gelacht wie gestern.

.........................................................

@All

Mich wundert es immer wieder, wie schnell von eigentlich Thema abgelenkt wird und wieder schnell vergleiche Postet.

Ich habe eigentlich mehr als nur eine Schubladen Meldung gepostet aber auf die anderen Argumente ala Meinung drehen wird wieder nicht darauf eingegangen.
Genau das ist das was die 3dfx User damals immer auf die Palme gebracht hat.
Diese haben meisten Technisches Wissen vermittelt und wurden mit sinnlossen Argumenten nieder gebügelt.
(Nein hat nichts mit den Untergang von 3dfx zu tun)
Sachliches Posten ja.

Sachliches Posten betrachte ich aber nicht nur bei Effekten zu plauderen sondern auch bei den allgemeinen Sachen.
Ob jetzt jemand mit Technischen Wörten um sich wirft bleibt natürlich den jenigen selbst überlassen.

Gruss Labberlippe

Quasar
2001-12-07, 13:30:26
Moin!

Danke erst mal für die Antwort, aber irgendwie kommt mir das trotzdem komisch vor...

Originally posted by nggalai
Kurz gesagt scheint Dragothic sehr schön vom Multitexturing der R8500 resp. der Treiberunterstützung zu profitieren. Eine GF3 braucht da im schlimsten Fall von Haus doppelt soviele passes pro pixel als die R8500.

Ich glaube, das bezog sich noch auf die alten Radeons im Vergleich zur GF2....beide können kein Loop-Back und die Radeon hatte die entscheidende dritte Textureinheit mehr, die aber in der R8500 wieder gekippt wurde.

Vertex shader werden auf DX8-Hardware in sämtlichen Spiele-Tests verwendet, wenn man auf die Pure-HAL umschaltet (was bei GF3 und R8500 der default-Einstellung entspricht).

Das ist richtig, aber erst in den HQ-Tests steigen die durchschnittlichen PpS so stark an, daß die VS der DX8-Chips überhaupt ernsthaft gefordert werden.


Ansonsten können R8500 Besitzer hier einen recht einfachen Test machen: lasst den Dragothic High-Detail mal im Pure- und mal im HW-TnL-HAL laufen, und vergleicht die Framerate. Würde mich auch mal interessieren, was "echte" Leute für Resultate kriegen, so.

Gute Idee....aber mich würden auch die Einzel-Werte im LQ-Test interessieren....das könnte recht aufschlußreich sein, wenn sich meine Theorie bestätigt.

HyperZ-II spielt sicher auch eine Rolle. Die Effizienz könnte man ganz einfach mal prüfen.

Ich werd heute nachmittag mal ein paar Benches machen...mit LMA und ohne und auch die LQ-Tests posten. Wäre schön, wenn wir einen Vergleich von ner R8500 bekommen könnten (@Haarmann...)

StefanV
2001-12-07, 13:33:50
Originally posted by Haarmann
Auch die Chips sind am gleichen Ort gefertigt worden - weil ATIs offenbar schneller läuft bei gleicher Technologie, wird er höher getaktet.
Auch ein aktueller P4 kann wohl bei gleicher Fertigungstechnologie schneller getaktet werden, denn ein Thunderbird. Aber das hat bekanntlich auch seine Gründe und nicht nur Vorteile.
Wenn ich mir NVs Riesenkühler betrachte für die 240/250 MHz und dann ATIs für 275 ansehe, drängt sich mir der Verdacht auf, dass NVs DX8 Lösung wohl etwas wärmer wird... Könnte da nicht auch ein Grund für deren tieferen Takt liegen?

P.S. Mir ist die pro MHz Leistung meiner Graka sowas von egal... und vom 3dmurks selber halte ich wie geschidert sehr wenig...

Radeon 8500 OEM hat 1,6V VCore.
Die GF3 User könnten ja mal nachmessen, wie hoch die Spannung ist...
Solange behaupte ich mal, daß die GF3 1,8V Core hat...
Hm, interessant:

Die Radeon 8500 OEM hat 0,2V weniger Spannung bei 50Mhz (pi mal daumen 25%) mehr takt.

Die Fertigung ist bei beiden Chips IDENTISCH!!

Beide 0,15µ bei TMSC...

Labberlippe
2001-12-07, 13:40:11
Originally posted by Stefan Payne


Radeon 8500 OEM hat 1,6V VCore.
Die GF3 User könnten ja mal nachmessen, wie hoch die Spannung ist...
Solange behaupte ich mal, daß die GF3 1,8V Core hat...
Hm, interessant:

Die Radeon 8500 OEM hat 0,2V weniger Spannung bei 50Mhz (pi mal daumen 25%) mehr takt.

Die Fertigung ist bei beiden Chips IDENTISCH!!

Beide 0,15µ bei TMSC...

Man sollte aber auch erwähnen das die Radeons GPU immer niedriger in der Leistungsaufnahme waren.
Für den Endkunden spielt es mit der heutigen Hardware kaum eine Rolle.
Schliesslich werden die Karten schon dementsprechenden mit eine vernünftigen Kühlung ausgeliefert.

Quasar
2001-12-07, 14:19:01
Originally posted by Stefan Payne


Radeon 8500 OEM hat 1,6V VCore.
Die GF3 User könnten ja mal nachmessen, wie hoch die Spannung ist...
Solange behaupte ich mal, daß die GF3 1,8V Core hat...
Hm, interessant:

Die Radeon 8500 OEM hat 0,2V weniger Spannung bei 50Mhz (pi mal daumen 25%) mehr takt.

Die Fertigung ist bei beiden Chips IDENTISCH!!

Beide 0,15µ bei TMSC...

Laut x-bit hat die GF3 auch 1,45v bzw. 1,48v (Asus) Core-Spannung. Sowie 2,5v extern und 3,3v intern für den Speicher....

http://www.xbitlabs.com/video/geforce3-overclocking/

Razor
2001-12-07, 14:34:21
@Laberippe

Ich hoffe wirklich, daß Du meinen Post nicht flasch verstanden hast...
(kein 'böses' Smilie, nur 'Unverständnis'und ein bissel 'Spaß' ;-)

Aber Leonidas hat was zu nem Link von nVidia auf einen kritischen Artikel seine Seite zum besten gegeben. Das Thema ist dann (wie immer ;-) irgendwie auf 3dfx gekommen und dazu habe ich meinen Senf gegeben...

Und Du kommst mit:
- 32-Bit/TNT2...
- 16-Bit (bei Voodoo's) hat Vorteile...
- FSAA vs. T&L ?
- DX8 und DX7...
usw.

Was hat denn das alles mit meinem Posting zu tun ?

Stefan ist mit üblichen Merketing-Zeugs gekommen und hält nun einen einzigen Test für die absolute Wahrheit und alle anderen sind (natürlich ;-) von nVidia gekauft...

Und dem wollte ich Ausdruck verleihen...
Also nix für ungut !
;-)

@Quasar

Zum 3DMurks2001:
Ich könnte mir vorstellen, daß gerade bei Dragothic das HyperZ2 der R8500 zum Tragen kommt. Denn schließlich sind die Hälfte der 100T Poly's ja wohl verdeckt und hier hat sie hat erhebliche Vorteile (was sicher auch auf die gute Vertex-Shader-Leistung mit zurück zu führen ist)... und da in dieser Scene auch keine Pixel-Shader benutzt werden, kann die Radeon hier halt sehr gut punkten (was auch zu erwarten war). Allerdings ist die reine Pixel-Shader-Leistung net so dolle (im Verleich !) und hier muß sie sich dann geschlagen geben...

@Haaramnn

Hab' jetzt mal 'ne kleine Zusammenfassung gemacht:
Sys1R: hardware.net Radeon 8500 (CPU ??? / RAM ???)
Sys2R: Haarmann Radeon8500 (AthlonXP 1600+ / DDR-Speicher)
Sys3G: hardware.net gf3 (CPU ??? / RAM ???)
Sys4G: Razor gf3 (PIII 900 / SDR-Speicher @129MHz)

Test -> Sys1R / Sys2R / Sys3G / Sys4G
CarChase -> 33,3 / 38,5 / 34,5 / 25,9
Dragothic -> 78,3 / 78,8 / 49,4 / 47,6
Lobby -> 45,5 / 45,6 / 47,4 / 40,9
Nature -> 27,3 / 30,6 / 29,3 / 30,9

Was lernen wir daraus ?
CarChase = CPU-abhängig
Dragothic = GPU-abhängig
Lobby = CPU-Abhängig
Nature = GPU-abhängig

Nun fehlt also lediglich noch ein High-Performance PC mit gf3...
(die übrigens sehr gut mit der CPU skaliert !)

Wenn wir also nur Dragothic und Nature 'ernst nehmen' kommen wir doch zu folgendem Schluß:
Dragothic: einfachste Darstellungsoption, aber massig Polygone -> geht an R8500 (dank Multitexturing)
Nature: sehr komplexe Darstellung -> geht an gf3 (dank guter allround Performance)

Hier ist es doch interessant, daß mein PIII900 mit SDRAM und einer gf3 mit Standard-Taktung (200/430) sogar einem High-Performance PC, wie Deinem AthlonXP1600+ mit DDR und einer R8500 (275/275), noch schlagen kann...

Und ich würde, schon oben dargestellt, nicht CarChase und Nature 'draußen' lassen, sondern eben CarChase und Lobby, da diese eindeutig CPU-Limitiert sind...

Wenn schon 'synthetische Tests' dann ist hier wirklich nur der Nature-Test entscheidend, da dieser eine komplexe Scene darstellt, der alle DX8-festures fordert...

Und was die Taktung der Kontrahenten angeht: ATI geht ans Maximum, während vNidia eben noch 'Luft nach oben' hat. Von 'besser im Griff' kann bei ATI keine Rede sein. So läft meine gf3 (ohne Kühler-Mod !) auch stabil bei 220/270 und mit Kühler-Mod (AS2 statt Pad) sogar bei 245/270... Wenn man das nun mit der R8500 vergleicht sieht's net mehr so dolle für ATI aus: max 8% Steigerung möglich (300/300), bei meiner gf3 sind's dann 22%/17% (245/270)... Wer hat also was 'besser im Griff' ?

Übrigens hat meine gf3 (ELSA) 'nen Mini-Lüfter und keinen 'Riesen-Lüfter'. Ist wohl nur ein Marketing-Gag, der eben auch ein bischen was zeigt für's Geld... aber das hatten wir schon mal.

@nggalai

Das mit Dragothic kann ich nachvollziehen, das mit Nature allerdings nicht...
Wie ist es denn zu erklären, daß mein betagter PIII900 ebenfalls 'gut' punkten kann ?

Ich vermute einfach mal, daß die Pixel-Shader-Implementierungen der beiden halt sehr unterschiedlich ist. Was dann im Nature (auch im Pixel-Shader-Test) dann zu den entsprechenden Ergebnissen führt.

Zusammenfassend könnte man also sagen:
Vertex-Shader: R8500 hui, gf3 pfui
Pixel-Shader(1.1): gf3 hui, R8500 pfui

That's all !
;-)

@Laberlippe

Wäre auch meine Vermutung. Nicht nur Vertex-Shader-Implementierung (Multitexturing), sondern auch das effiziente HyperZ2 trägt hier zu der sehr guten Performance bei...

@nggalai

Man müsste mal einen Test bei aktiviertem FSAA machen, das Verhalten beider Karten miteinander zu vergleichen. Zumindest bei der gf3 fällt dann ja das Zocc weg, gell ?
;-)

***

Ist ja mal wieder kräftig OT geworden...
Aber was solls ?
;-)

In diesem Sinne

Razor

Labberlippe
2001-12-07, 14:48:28
Was hat denn das alles mit meinem Posting zu tun ?


Genau genommen relativ wenig.

Der erste Absatz war an Dich gerichtet und die unteren eher an die allgemeinheit. :-)

Muss mir mal angwehonnen @all zu schreiben. .-)
Aber ich schrieb doch das das eigentliche Thema umgangen geworden ist.


Gruss Labberlippe

Razor
2001-12-07, 14:57:46
Und ich hab' auf Dein ganzes Posting regiert !
So war's dann wohl einfach (wie so oft ;-) ein Mißverständnis, gell ?
;-)

Bis denne

Razor

Haarmann
2001-12-07, 15:59:56
Hi nggalai,

Hab ich gleich mal gemacht... 78.3 fps gabs mit HW TnL und 78.8 im Pure... is also eigentlich ziemlich gleich schnell.

Also ich hab kein PStrip istalliert... mag das Tool ned mehr... verstellte früher zuviel beim Aufrufen.
Ansonsten kann ich Dir gerne mal die Benches bei 200/240 liefern - falls ich ein Tool für finde.

Quasar, bitte genau sagen welche Werte Du willst... und ich werd se liefern.
Und das NV mitm T+L im 3dmark wohl zu gut mit der CPU skaliert weiss ich schon sehr lange ;-). Hab mal mit nem unlocked Duron getestet - da gabs nen richtigen "Schlag" zwischen 700 und 750 oder so MHz... plötzlich waren mit ner GF DDR 3 mio Polygone mehr da denn vorher...

Haarmann
2001-12-07, 16:07:46
Füllrate 866 / 1808
Drag Low 129.4 fps
XP 3286 Treiber
Drag Hi ned Pure HW D3D TnL 78.3

Falls noch andere Angaben erwünscht sind nur sagen... für Tests mit anderen MHz brauchte ich nen Tool, welches NICHT Pstrip heisst... das Teil kommt mir nimmer auf die Platte...

Quasar, die Sache mit den sehr CPU abhängigen "HW" TnL Werten von NVs Treibern is ned neu...

AlfredENeumann
2001-12-07, 16:33:06
Originally posted by nggalai
Ansonsten können R8500 Besitzer hier einen recht einfachen Test machen: lasst den Dragothic High-Detail mal im Pure- und mal im HW-TnL-HAL laufen, und vergleicht die Framerate. Würde mich auch mal interessieren, was "echte" Leute für Resultate kriegen, so.

ta,
.rb

Athlon XP1700+
Radeon 8500LE
Win XP

250/250
Pure HW T&L 73.4fps
HW T&L 73.3fps

279/266
Pure HW T&L 80.1fps
HW T&L 79.4fps


wie du siehst kein unterschied.

AlfredENeumann
2001-12-07, 16:39:27
Originally posted by nggalai
Wenn wer zu faul zum suchen sein sollte:

http://discuss.madonion.com/forum/showflat.pl?Cat=&Board=mo3dmark2001&Number=118009&page=&view=&sb=&o=&fpart=all&vc=1

Schaut euch die Infos von Patric durch, und Neeyik hat das so zusammengefasst:Dies ist deshalb relevant, weil der Dragothic Test mit 3 Textur-Layern arbeitet.

ta,
.rb


bei mir kein unterschied zw. Pure HW und normal HW.

AlfredENeumann
2001-12-07, 16:44:28
Originally posted by nggalai
Kann vielleicht mal ein R8500-Besitzer die Karte auf 200/240 runtertakten? Die R8500 sollte immernoch deutlich schneller als eine GF3 sein, aber halt eben in der von Neeyik geschilderten Art und Weise.


@210/240 (200 ging leider nicht, powerstrip will nicht weniger machen)

63,5fps mit Pure HW T&L

Quasar
2001-12-07, 16:51:34
Originally posted by Haarmann
Füllrate 866 / 1808
Drag Low 129.4 fps
XP 3286 Treiber
Drag Hi ned Pure HW D3D TnL 78.3

Falls noch andere Angaben erwünscht sind nur sagen... für Tests mit anderen MHz brauchte ich nen Tool, welches NICHT Pstrip heisst... das Teil kommt mir nimmer auf die Platte...

Quasar, die Sache mit den sehr CPU abhängigen "HW" TnL Werten von NVs Treibern is ned neu...

Ok ok....ich habs verstanden ;)

Was mich jetzt interessierte, war der LQ-Wert von Dragothic. Den haste oben ja schon geliefert. Nur zum verifizieren wär' noch mal der 16bit Wert interessant, dazu noch beide mit ausgeschaltetem HyperZ-2.

Ich geb dann die Werte von ner GF3 dazu, mit und ohne LMA (das in 16bit anscheinend ja eh nicht geht) und schon haben wir's, warum der R8500 in Dragothic HQ sooo abgeht.

Thx

Haarmann
2001-12-07, 17:01:03
81.8
152.2

unter 16Bit

Quasar
2001-12-07, 17:03:43
Ist das ohne HyperZ-2 (81,8) und mit (152,2)?

Wenn ja, wie ist der 32Bit wert ohne HyperZ-2...

AlfredENeumann
2001-12-07, 17:05:18
Originally posted by Quasar


Was mich jetzt interessierte, war der LQ-Wert von Dragothic. Den haste oben ja schon geliefert. Nur zum verifizieren wär' noch mal der 16bit Wert interessant, dazu noch beide mit ausgeschaltetem HyperZ-2.


LQ 32Bit: 126.4fps
16Bit: 136.7fps

Wenn mir jemand sagt wie ich HyperZ2 ausschalte kannich es auch benchen.

Haarmann
2001-12-07, 17:10:38
Also ich hab disablehyperz in der reg auf 1 gestellt... allerdings ging das der Karte am Arsch vorbei ... Die Werte blieben konstant... Ev weiss ja einer wie man das sicher abschaltet ;-)

nggalai
2001-12-07, 17:32:01
Hi Alfred, Hi Haarmann,

danke für eure Benches. Die bestätigen offenbar die Vermutung, dass die Unterschiede zwischen GF3 und R8500 nicht auf die Vertex-Shader zurückzuführen sind, oder wie Alfred sagte:

> bei mir kein unterschied zw. Pure HW und normal HW.

Ergo keine Speed-Verbesserung durch/der Vertex-Shader. Andererseits zeigen die Resultate der übertakteten Karte klar, dass bei Dragothic gilt mehr fillrate -> mehr fps.

Danke für den Input,

ta,
.rb

Achill
2001-12-07, 17:35:36
hi, also es geht ja hier richtig ab... doch einige artikel kann ich nicht verstehen... speziel 3dfx/tnt... beide karten sind tot... und tot sollen ja bekanntlich ruhen... das einzige argument was man zu gunsten 3dfx immer noch anführen kann, ist für mich das, dass sie die ersten waren die die 3d-krafik so ermöglicht haben wie wir sie jetzt kennen (v1&v2)... und das alle anderen hersteller gezwungen waren ähnliche resultate zu liefern... zur marktpolitik von nv, was soll man da sagen, das ist ein ami-aktiengesellschaft, da geht es um kohle und das versucht man mit allen mitteln zu erreichen und wenn man sich über das PR von NV beschwert, dann kann ich das nicht verstehen, das ist kapitalismus live, sonst müsst ihr das system ändern... ich denke man sollt die radeon(2) nicht runter taken oder so was ähnliches, weil das eigendlich irrelevant ist, jeder spielt mit dem realtakt oder höher, darum ist nur die leistung bei max. taktung noch interessant... wenn man sie runter takten will um sie mit ne G3 zu vergleichen is das doch ein grummes ding... man hat die GTS auch nicht runter getaktet (chip) um sie mit ne Radeon zu vergleichen (schon wieder diese nv anhänger mit ihren schlechten vergleichen) der Radeon die speziellen featurs weg zu nehmen um die die bandbreite reduzieren ist genauso falsch, niemand macht sowas wenn es damit keine probleme gibt und ich denke das ist auch der punkt... man sollt nich in erster line benchen sonderen erst mal schauen ob die grafik und kopatibilität von der einen karte mit der anderen mithalten kann, und das nicht über einen langen zeitraum sondern immer mit dem besten treiber die es für die karte gibt verglichen... (g3 und mipmap qualität / Radeon und artefakte in manchen games wgen hyperz) und solange diese kreterien nicht wirklich fast gleich sind hinkt ein vergleich immer zwischen verschiedenen produkten und deren geschwindigkeit und ist zweitrangig...., und eine karte runter zu *tunen* nur weil die andere es nicht schaft... neee darum ist diese ja neuer... und wenn ne g3 mehr kostet ist das nicht ati's schuld... ich finde es immer nur schade das so viele leute (auch hier) auf das geflüßter von PR-agenturen hören ... und viele leute das glauben was kumpels ihnen erzählen ohne sich selber zu informieren... sorry aber musst ich nach dem lesen von diesem artikel los werden...

Quasar
2001-12-07, 17:39:24
Also hier erstmal zum Vergleich die GF3-Werte:
_____________GF3(32bit)____R8500(32Bit)___GF3(16Bit)___R8500(16Bit)
Dragothic LQ:__120,0__________129,4__________123,0______152,2
Dragothic HQ:___66,5___________78,3___________67,7_______81,8

Bei 16Bit ist Rendering Depth, Z-Buffer und Texture Size auf 16Bit gestellt.
(Ich hab Haarmanns Werte genommen, weil unsere Systeme ähnlicher zu sein scheinen...)

LMA kann ich über meinen RivaTuner mit den 23.11er Treibern nicht mehr abschalten...es zeigt jedenfalls keine Wirkung mehr.

Also mal abgesehen von der Effizienz der beiden HSR-Techniken, scheint folgendes herauszukommen:

-Die Radeon ist trotz ihres 17%igen Taktvorsprunges unter 32Bit-LQ nur etwa 7% schneller.
-unter 32Bit-HQ erhöht sich dieser Vorsprung auf 17% (analog ihrer Frequenz)
- Unter 16Bit-LQ zieht die Radeon weit davon. Entweder ist die GF3 ein sehr effizientes 32Bit Design, oder irgendwas mit den HSR-Techniken funktioniert unter 16Bit nicht so wie es soll. Jedenfalls kann die R8500 hier ihren Taktvorteil und HyperZ-2 mehr als ummünzen..
-In 16Bit HQ trifft nun auch die R8500 das Schicksal einer Limitierung, wie es die GF3 schon im 16Bit-LQ Test erfahren musste.


Totally OT!!!

/edit:
Nun geht's mit der LMA....
16Bit LQ (mit/ohne)
123,0 / 115,0

16Bit HQ (mit/ohne)
67,7 / 63,7

32Bit HQ (mit/ohne)
120,0 / 110,5

32Bit HQ (mit/ohne)
66,5 / 61,6

Quasar
2001-12-07, 17:45:15
Originally posted by nggalai
Hi Alfred, Hi Haarmann,

danke für eure Benches. Die bestätigen offenbar die Vermutung, dass die Unterschiede zwischen GF3 und R8500 nicht auf die Vertex-Shader zurückzuführen sind, oder wie Alfred sagte:

> bei mir kein unterschied zw. Pure HW und normal HW.

Ergo keine Speed-Verbesserung durch/der Vertex-Shader. Andererseits zeigen die Resultate der übertakteten Karte klar, dass bei Dragothic gilt mehr fillrate -> mehr fps.

Danke für den Input,

ta,
.rb

Bei der GF3 verhält es sich auch so.

Mit Pure HW TnL, siehe oben, ohne jeweils einen halben Frame weniger...

Dann bleibt ja nur effektive Füllrate...

Hat mal jemand einen K2 auf einer hochgetakteten CPU gebencht...?

StefanV
2001-12-07, 19:54:52
Originally posted by Quasar
Laut x-bit hat die GF3 auch 1,45v bzw. 1,48v (Asus) Core-Spannung. Sowie 2,5v extern und 3,3v intern für den Speicher....

http://www.xbitlabs.com/video/geforce3-overclocking/

Hm, haben die mit einem Multimeter gemessen oder sich auf die Angabe vom HW Monitoring Chip verlassen??

Selbst das schlechteste Multimeter liefert bessere Werte als ein HW Monitoring Chip...