PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Das wird ein heisser Marketing-Herbst


Seiten : [1] 2

jedi
2002-05-07, 23:06:44
nVidia's nächster Chip im August (der wahrscheinlich nicht mehr GeForce heissen soll) wird "der wichtigste Beitrag von nVidia zur Grafik-Industrie seit der Gründung der Firma".

ATI möchte "crush the GeForce".

Matrox und 3DLabs haben nichts zu verlieren und hauen deshalb schon jetzt auf die Vaporware-Marketingpauke.

Das wird also ein heisser Marketing-Herbst. Trommeln tun sie also alle. Wir werden uns genüsslich zurücklehen und zusehen, wer dann auch wirklich zum Weihnachtsgeschäft liefern kann.

;)

Micron
2002-05-07, 23:15:00
Originally posted by jedi
nVidia's nächster Chip im August (der wahrscheinlich nicht mehr GeForce heissen soll) wird "der wichtigste Beitrag von nVidia zur Grafik-Industrie seit der Gründung der Firma".

ATI möchte "crush the GeForce".

Matrox und 3DLabs haben nichts zu verlieren und hauen deshalb schon jetzt auf die Vaporware-Marketingpauke.

Das wird also ein heisser Marketing-Herbst. Trommeln tun sie also alle. Wir werden uns genüsslich zurücklehen und zusehen, wer dann auch wirklich zum Weihnachtsgeschäft liefern kann.

;)

Ist doch gut, umso mehr Konkurenz um so billiger wird das angebotene Produkt. Uns kann es ja nur recht sein.

jedi
2002-05-07, 23:19:45
Auf jeden Fall.
Nur: solange ein Produkt nur Vaporware ist, stellt es keine Konkurrenz dar.

Micron
2002-05-07, 23:32:31
Da hast du auch wieder recht. Bestes beispiel die Kyro 3 . Die ersten Gerüchte kamen schon vor einem Jahr auf und bis heute noch nix, ich persönlich glaube auch nicht dran das da noch was kommt.

Doomtrain
2002-05-07, 23:45:01
Originally posted by Blackmagic
Da hast du auch wieder recht. Bestes beispiel die Kyro 3 . Die ersten Gerüchte kamen schon vor einem Jahr auf und bis heute noch nix, ich persönlich glaube auch nicht dran das da noch was kommt.

Ich doch. Schau mal wie die den Kyro-Chip ausgeschlachtet haben. (Kyro, KyroII, KyroIISE) Der KyroIII kommt so sicher wie das Amen in der Kirche.

Micron
2002-05-08, 00:30:51
Originally posted by Doomtrain


Ich doch. Schau mal wie die den Kyro-Chip ausgeschlachtet haben. (Kyro, KyroII, KyroIISE) Der KyroIII kommt so sicher wie das Amen in der Kirche.

Aber wann? Eigentlich sollte er schon vor einem Jahr erscheinen

Doomtrain
2002-05-08, 00:33:58
Originally posted by Blackmagic


Aber wann? Eigentlich sollte er schon vor einem Jahr erscheinen

Wenn ich das nur wüßte....

HOT
2002-05-08, 10:56:31
Originally posted by jedi
nVidia's nächster Chip im August (der wahrscheinlich nicht mehr GeForce heissen soll) wird "der wichtigste Beitrag von nVidia zur Grafik-Industrie seit der Gründung der Firma".

ATI möchte "crush the GeForce".

Matrox und 3DLabs haben nichts zu verlieren und hauen deshalb schon jetzt auf die Vaporware-Marketingpauke.

Das wird also ein heisser Marketing-Herbst. Trommeln tun sie also alle. Wir werden uns genüsslich zurücklehen und zusehen, wer dann auch wirklich zum Weihnachtsgeschäft liefern kann.

;)

Woher nimmst deine Weissheit? Mit Löffel gefressen? :D

Das wird ein sehr Konkurrenzreicher Herbst und das kann nur gut für uns Konsumenten werden. Matrox und 3DLabs können es sich übrigens weder grosse Verzögerungen leisten noch schlechte Produke Leisten - da stecken ihre kompletten Ressourecen drin! Wenn der Pahelia bzw. V10 schlecht werden sollten ist derjenige Hersteller sicherlich erstmal weg vom Markt. Angesichts dieser Tatsache aber werden die Dinger aber wohl eher der Hammer wogegen NV mit ihrer popeligen G4 Ti nicht anstinken können :D Da muss schon der NV30 her.

aths
2002-05-08, 14:33:01
In diesem Jahr wird es Karten geben, wogegen eine GeForce4 Ti4600 absolut ärmlich aussieht. Die GeForce4 wird sowohl featuremäßig als auch performanceseitig in den Schatten gestellt. Vermutlich ist ihr schon bald der Weg der GTS beschieden: Arbeitstier für die Massen.

ow
2002-05-08, 15:03:19
Wenn dem so ist aths (was ich mal bezweifele), dann sehe ich aber schwarz fuer u.a. Ati.

StefanV
2002-05-08, 15:11:48
Originally posted by ow
Wenn dem so ist aths (was ich mal bezweifele), dann sehe ich aber schwarz fuer u.a. Ati.

ATI wird sich über Wasser halten können, da ihre Karten nicht nur schnell sind, sondern auch guter TV Out und HW Deinterlacing haben.
ATI muß bei der 8k5 also 'nur' eine billigst Version rausbringen, schon ist wieder alles in Butter.

NV wird aber untergehen, wenn eine Karte mal schneller ist, denn außer Game Performance gibt es absolut KEINEN Grund NV zu kaufen!!

Mit einer Passiv Gekühlten Radeon 8500LELE@200/200MHz für ca. 100€ ist ein ziehmlich heißes Eisen, was auf den Bereich der G550/7500/GF4 MX ziehlt, wogegen NV nix anzubieten hat.

Selbst MGA hat in diesem Bereich nix einzuwenden, da hat nur SIS ein Wörtchen mitzureden...

ERGO:

Wenn eine Karte rauskommt, die deutlich schneller ist, als aktuelle NV Karten, dann hat NV ein Großes Problem!

ATI kann sich vorläufig in andere Gebiete zurückziehen und mit ihren neuen Karten zurückkommen...

Richthofen
2002-05-08, 15:12:54
ist doch prima wenn die GF4Ti4600 Arbeitstier für die Massen wird.
Für Nvidia lebt das Produkt sowieso nur 4 bis 6 Monate und danach ist wieder was neues angesagt und so wirds auch weiter gehen.
NV30 im Herbst und im Frühjahr schon wieder ne Ultra Variante - immer schön flexibel am Markt, wie die Erfordernisse sind.

@ow
da muss ich dir Recht geben :)
Aber ich sehe bereits jetzt schon wieder schwarz, eil die weil die Radeons zu teuer sind und wohl oder übel im Preis fallen werden.

Andre
2002-05-08, 15:38:47
@ Stefan Payne

:lol: :rofl:

1+ für die unübetroffen logische Struktur deines Postings.
Von Wirtschaft keine Ahnung, sorry.

Andre
2002-05-08, 15:38:47
*ups, doppelt*

Micron
2002-05-08, 16:15:06
Originally posted by Stefan Payne


ATI wird sich über Wasser halten können, da ihre Karten nicht nur schnell sind, sondern auch guter TV Out und HW Deinterlacing haben.
ATI muß bei der 8k5 also 'nur' eine billigst Version rausbringen, schon ist wieder alles in Butter.

NV wird aber untergehen, wenn eine Karte mal schneller ist, denn außer Game Performance gibt es absolut KEINEN Grund NV zu kaufen!!

Mit einer Passiv Gekühlten Radeon 8500LELE@200/200MHz für ca. 100€ ist ein ziehmlich heißes Eisen, was auf den Bereich der G550/7500/GF4 MX ziehlt, wogegen NV nix anzubieten hat.

Selbst MGA hat in diesem Bereich nix einzuwenden, da hat nur SIS ein Wörtchen mitzureden...

ERGO:

Wenn eine Karte rauskommt, die deutlich schneller ist, als aktuelle NV Karten, dann hat NV ein Großes Problem!

ATI kann sich vorläufig in andere Gebiete zurückziehen und mit ihren neuen Karten zurückkommen...

Wenn es knapp für NV werden sollte haben die bestimmt noch ein As im Ärmel eine hochgezüchtete TI4600 die dann wieder schneller ist als die Konkurenz. NV ist nun mal bei Gamern die No.1 und da wird Matrox und 3DLabs auch nix dran ändern könne. Wenn die ihre Karten überhaupt rechzeitig rausbringen können. ATI und Kyro werden da wohl viel mehr Probleme bekommen. Warum sollte jemand noch eine Kyro 2 kaufen? Wenn die nicht schnell die Kyro 3 drauss bringen sind sie bald weg vom Fenster. ATI hat noch den Vorteil das sie viel im Ofice Bereich machen können den an die Qualität kommt keine Kyro und keine NV ran. Aber wenn Matrox eine ähnlich gute Qualität bringt wie früher dann könnte es da auch eng werden. Mal abwarten was passier, wenn überhaupt was passiert

Lightning
2002-05-08, 16:24:48
Originally posted by Blackmagic

NV ist nun mal bei Gamern die No.1 und da wird Matrox und 3DLabs auch nix dran ändern könne.


Erst durch die GeForce4 ist nVidia wieder klar an der Leisungs-Spitze. Ein paar Monate davor ist ATI mit der Radeon 8500 klar mit der GeForce 3 gleichgezogen. Und in niedrigeren Preisregionen hat und hatte NV sowieso starke Konkurrenz. Die Kyro2 hat jede Gf2mx plattgemacht, und die Radeon 7500 konnte sehr gut mit der Gf2Ti mithalten.

Andre
2002-05-08, 16:56:29
[tec]Lightning,

"Erst durch die GeForce4 ist nVidia wieder klar an der Leisungs-Spitze. Ein paar Monate davor ist ATI mit der Radeon 8500 klar mit der GeForce 3 gleichgezogen."

Richtig, Blackmagic meinte aber, dass bei den meisten Gamern NV immer noch 1. Wahl ist - das muss nicht immer was mit der Performancekrone zu tun haben.

"Und in niedrigeren Preisregionen hat und hatte NV sowieso starke Konkurrenz."

Umso deutlicher wird es, dass die Konkurrenz zwar groß ist, aber im Moment imagemäßig keine Chance gegen NV hat.

"Die Kyro2 hat jede Gf2mx plattgemacht, und die Radeon 7500 konnte sehr gut mit der Gf2Ti mithalten."

Dann schau Dir mal den Marktanteil der Kyro 2 und der R 7500 an - mehr brauch ich nicht zu sagen.

Lightning
2002-05-08, 17:08:09
Originally posted by Andre
[tec]Lightning,

"Erst durch die GeForce4 ist nVidia wieder klar an der Leisungs-Spitze. Ein paar Monate davor ist ATI mit der Radeon 8500 klar mit der GeForce 3 gleichgezogen."

Richtig, Blackmagic meinte aber, dass bei den meisten Gamern NV immer noch 1. Wahl ist - das muss nicht immer was mit der Performancekrone zu tun haben.

"Und in niedrigeren Preisregionen hat und hatte NV sowieso starke Konkurrenz."

Umso deutlicher wird es, dass die Konkurrenz zwar groß ist, aber im Moment imagemäßig keine Chance gegen NV hat.

"Die Kyro2 hat jede Gf2mx plattgemacht, und die Radeon 7500 konnte sehr gut mit der Gf2Ti mithalten."

Dann schau Dir mal den Marktanteil der Kyro 2 und der R 7500 an - mehr brauch ich nicht zu sagen.

1. Eben. Mit der Radeon 8500 hatte ATI NV nämlich nicht nur die Performnace-Krone gestohlen. In den anderen Berreichen wie BQ, Tv-Out usw. war ATI schon vorher überlegen.

2. Imagemäßig hat NV natürlich ohne Zweifel noch Vorteile. Allerdings hauptsächlich unter den Usern, die sich nicht so gut auskennen. Unter den adneren ist es mittlerweile ziemlich ausgeglichen. Und dass wird sich mit der Zeit immer weiter verbreiten.

StefanV
2002-05-08, 17:23:33
Originally posted by Blackmagic
Wenn es knapp für NV werden sollte haben die bestimmt noch ein As im Ärmel eine hochgezüchtete TI4600 die dann wieder schneller ist als die Konkurenz. NV ist nun mal bei Gamern die No.1 und da wird Matrox und 3DLabs auch nix dran ändern könne. Wenn die ihre Karten überhaupt rechzeitig rausbringen können. ATI und Kyro werden da wohl viel mehr Probleme bekommen. Warum sollte jemand noch eine Kyro 2 kaufen? Wenn die nicht schnell die Kyro 3 drauss bringen sind sie bald weg vom Fenster. ATI hat noch den Vorteil das sie viel im Ofice Bereich machen können den an die Qualität kommt keine Kyro und keine NV ran. Aber wenn Matrox eine ähnlich gute Qualität bringt wie früher dann könnte es da auch eng werden. Mal abwarten was passier, wenn überhaupt was passiert
Ach, ein Gamer wird eine nVidia Karte einer Karte vorziehen, die grundsätzlich 30% schneller ist, oder wie??
Auch ist MGA bekannt dafür, daß sie ersteinmal 'auf Nummer sicher' Gehen, soll heißen:
Produkt muss so gut wie möglich funzen, Performance liefern wir nach.
NVidia hat außer Gamer nix zu bieten, ATI schon!!
Angenommen MGA schafft eine Karte, die Preislich in GF4 TI Regionen anzusiedeln ist, aber eine deutlich schnellere Karte, WER würde dann noch die GF4 TI nehmen??
Und darunter hat MGA 'Rückendeckung' seitens ATI.
WAS glaubst du, von welcher Karte man reden wird, wenn die MGA 20-30% Schneller als die GF4 TI4k6 ist??
Von der NV??

Und MGA hat auch ein sehr gutes Image...

ERGO:

MGA hat die Chance NV zu stürzen...

aths
2002-05-08, 17:27:16
nV bekommt mächtig Dampf. Von unten SiS und ATI, von oben ebenfalls ATI, sowie Matrox und 3DLabs. Wo sich PowerVR einordnen wird, wird mal sehen. Eine noch so hoch gezüchtete GF4 nützt NV nix, Richthofen. Sie haben natürlich den NV30 in Hinterhand. ATI den R300. Dieses Jahr wird mit dem Trend, dass nV fast solo in der Oberliga spielt, endlich gebrochen.

Uns Kunden kann das nur recht sein.

Frank
2002-05-08, 17:38:40
Originally posted by Stefan Payne
MGA hat die Chance NV zu stürzen...
:lol:
übertreiben brauchen wir das aber nicht. Selbst wenn Matrox eine Konkurrenkarte wie die damalige G400 rausbringt, wird das trotzdem nix mit nV stürzen. Denn für viele entscheidet neben Qualität/Features/&Co auch der Preis. Und dort wird man wohl die selbe Situtation haben wie damals. Für den selben Preis eine Top TNT2 bekam man eben auch nur ein G400 SingleHead!!. Und da nimmt man eben das, was im Laden auch auf Lager ist, da sich solche Karten dann nich mehr viel nehmen.

Xmas
2002-05-08, 17:39:18
Originally posted by Andre
@ Stefan Payne

:lol: :rofl:

1+ für die unübetroffen logische Struktur deines Postings.
Von Wirtschaft keine Ahnung, sorry.
Volle Zustimmung, Andre. Und die Produktpalette von NVidia ist ihm offensichtlich auch nicht bekannt.

Unregistered
2002-05-08, 17:54:13
irgendwie labern mir hier zu viele Leute scheisse.
Von einem Produkt wird niemand gestürtzt.
Nvidia bekommt mehr Konkurenz aber das wars dann auch schon.
Ich prophezeie mal das in 2 jahren diese wieder in großen Teilen verschwunden ist.

Von einem High End Produkt das ganz oben steht, wird noch lange nicht ein riesen Marktanteil aufgebaut.
Einige vergessen hier nämlich das das wichtigste eine komplette Produktpalette ist und die können momentan nur Nvidia und ATI bieten.
Der entscheidende Punkt ist aber, was machen die anderen um es zu schaffen, den Nvidia Rythmus mitzugehen. Will sagen Matrox kann nur dann erfolgreich sein, wenn ihr Produkt ständig ein Update bekommt.
Ansonsten werden sie weiterhin wie bisher im Hintergrund bleiben und hier und da mals was feines bringen.
Bei 3D Labs ist es genau das selbe. Bei SIS ebenfalls sofern sie oben mitspielen wollen ansonsten bleiben sie halt in der Low Cost Ecke.
Und nochwas. Die großen OEM Deals werden nur dann gemacht, wenn da zuverlässigkeit vorhanden ist. Ein OEM will sichergehen, das sein Lieferant auch in den folgenden Monaten immer up to date ist.
Große Experimente machen die Jungs nicht. Die mögen Nvidia nämlich deshalb, weil sie da 100% wissen, das nach ein paar Monaten der nächste große Produktlaunch ansteht, und weil die Karten problemlos sind. Großer Treiberaufwand ist dort nicht vorhanden.

Und ein weiterer Punkt ist interessant. Wie wollen es Matrox und 3DLabs schaffen ihre Ingineure zu behalten die die neuen "Wunder" vollbracht haben.
Ich zitiere mal den Nvidia CEO auf dem letzten Conference Call:
Er wurde nämlich gefragt wie er denn die Konkurenz in Zukuntf sieht vor allem 2002 und die Auswirkungen langfristig.
Seine Antwort kurz und knapp:
2002 wird ein schwierigeres Jahr durch zunehmende Konkurenz, allerdings gibt er diese nur wenig Überlebenschancen langfristig, weil die Big Player die guten Leute sofort abkaufen werden.
Wird wohl jedem klar sein, das Nvidia einer der ersten sein wird der das macht. Die haben schlichtweg die Kohle um das zu machen und es ist ja auch nicht das erste Mal das sie sowas machen.
Den Ti4600 zu überflügeln ist nicht schwer und 256 Bit sind wahrlich nichts weltbewegendes. Das hätten ATI und Nvidia auch schon längst machen können aber das haben sie aus Kostengründen vermieden bisher.
Jetzt wo die anderen Druck machen, werden ATI und vor allen Nvidia in dieser Richtung gar nix kennen. Da wird voll gepowert egal was es kostet denn wie gesagt die beiden können es sich leisten die anderen nicht.
Wer an diesem Markt langfristig Big Player sein will, der muss alle 4 bis 6 Monate top sein und genauso wie Nvidia und ATI eine wahnsinns Produktflut betreiben. Glaube ehrlich gesagt nicht das Matrox dafür die Ressourcen hat.
Und bei 3DLabs.... wie der CHip wird, muss man abwarten aber einen dickes Minus haben sie von mir schon und zwar weil sie der Bugbude Creative gehören.
Die bringens fertig und setzen das noch in den Sand - das trau ich Creative mit ihrer Schlamperei durchaus zu.

Gohan
2002-05-08, 18:07:21
Der umstieg von einem 32 zu 63 Bit Interface war nicht bewegend? Der unterschied von sdr-ram zu ddr-ram soll nicht bewegend gewesen sein? Erzähl mir was vom Pferd!
Da traut sich mal endlich jemand was!

StefanV
2002-05-08, 18:21:06
Originally posted by Gohan
Der umstieg von einem 32 zu 63 Bit Interface war nicht bewegend? Der unterschied von sdr-ram zu ddr-ram soll nicht bewegend gewesen sein? Erzähl mir was vom Pferd!
Da traut sich mal endlich jemand was!

'erstaunlicherweise' it es Matrox, die als erste eine Karte mit 64bit MEM Interface hatten (wars die Ultima oder Impression??) *eg*.

Und 'seltsamerweise' sind ALLE nachgezogen...

Eine einzige Karte, die schneller ist, als alle NV Karten, kann NV durchaus in bedrängnis bringen, da NV so 'gezwungen' ist nachzulegen...

Was das für Auswirkungen haben könnte...

Xmas
2002-05-08, 19:09:31
Gohan,
was der Unreg damit ausdrücken wollte war wohl dass es performancemäßig durchaus ein Sprung ist, aber ein evolutionärer, kein revolutionärer. Jetzt wo es sich langsam wirtschaftlich lohnt, 256Bit-Interfaces zu verwenden, werden in kurzer Zeit höchstwahrscheinlich die meisten Chiphersteller darauf setzen (außer Bitboys und PowerVR vielleicht).

Stefan,
NVidia macht das große Geld nicht im High-End-Geschäft. Und sie sind dann wohl genauso "gezwungen" nachzulegen, wie man es aktuell bei PowerVR und dem Kyro III sehen kann... Und ATI?

Doomtrain
2002-05-08, 19:27:45
Originally posted by aths
Dieses Jahr wird mit dem Trend, dass nV fast solo in der Oberliga spielt, endlich gebrochen.

Uns Kunden kann das nur recht sein.

Das will ich auch hoffen. Nvidia wird eine harte Konkurrenz bekommen-endlich mal ein Preiskampf wie zwischen Intel und AMD.

StefanV
2002-05-08, 19:50:35
Originally posted by Xmas
Stefan,
NVidia macht das große Geld nicht im High-End-Geschäft. Und sie sind dann wohl genauso "gezwungen" nachzulegen, wie man es aktuell bei PowerVR und dem Kyro III sehen kann... Und ATI?

1. nein, sie werden aber nicht mehr 'gehypt' werden, denn das wird nur der Hersteller mit dem schnellsten Produkt.
Insbesondere bei den Gamern wird es wohl 'bleibenden Schaden' hinterlassen...
Das Große Geld macht ATI wohl eher mit der 7500/VE, bald mit der 8k5LELE...

2. Das 'Problem' von NV ist nicht, daß sie mal 'übertrumpft' wurden, sondern die Reaktion, die darauf folgen könnte.
Wenn sie genauso Panisch Reagieren, wie beim Launch der 8k5, dann hat NV echt ein Problem (ankündigung der TI200/TI500, Release der (damals) ziehmlich buggy Deto XP)...

3. Bei PowerVR sieht es wie immer anders aus, als beim Rest.
Wobei ich die Kyro 2 nicht wirklich gut find...
ATI hat wie gesagt die Möglichkeit die Radeon 8k5LELE passiv gekühlt an den Mann zu bringen...

4. das Beste Beispiel dürfte AMD mit dem K6(/2) gewesen sein, die alles auf den Athlon gesetzt haben und die bisherige Produktlinie kaum/garnicht weiterentwickelt haben.
Das Negativ Beispiel dürfte wohl Intel mit dem Launch des P3/1GHz und insbesondere der 1,13GHz Version sein...

WAS sinnig ist, sollte jeder selbst entscheiden...

Andre
2002-05-08, 21:24:47
Stefan,

nochmal für Dich:
Prozesse in der Marktwirtschaft vollziehen sich langsam - sehr langsam.
Selbst wenn jetzt irgendeiner eine Karte rausbringt, die die GF 4 TI 4600 in Grund und Boden performt, dauert die Reaktion auf dem Markt mind. 2-3 Quartale - denn nicht jeder hat ja mal eben 500-600 € rumliegen, die er sofot investiert.
Schau Dir die Marktdurchdringung der GF4 und ATI 8K500 an und das wird deutlich.
Bis dahin ist NV mit einem Konter auf dem Markt, da kannst Du sicher sein - diese Position hat sich NV lange erarbeitet und das wird sich so schnell nicht ändern.
Konkurrenz ist gut, wird aber in absehbarer Zeit nichts an der Position von NV ändern.
Ich könnte Dir noch eine ellenlange Liste von Gründen nennen, aber da Du sie eh ignorierst und mit irgendwelchen Kampfparolen durch nicht vorhandene Kenntnis in Marktwirtschaft ignorierst, spar ich mir das.

ow
2002-05-08, 21:34:46
Originally posted by Andre
@ Stefan Payne

:lol: :rofl:

1+ für die unübetroffen logische Struktur deines Postings.
Von Wirtschaft keine Ahnung, sorry.


Da muss ich zustimmen.

Sollten wir Stefan nicht den Titel eines Forums-Clown verpassen? Das wird echt immer witziger, was er von sich gibt. :rofl:

Unregistered
2002-05-08, 21:47:48
@Moderatoren

Und sowas wie ihr nennt sich Moderator!!
Euch sollte man den Titel Nvidiots verpassen!!

HOT
2002-05-08, 22:01:42
Originally posted by Unregistered
irgendwie labern mir hier zu viele Leute scheisse.
Von einem Produkt wird niemand gestürtzt.
Nvidia bekommt mehr Konkurenz aber das wars dann auch schon.
Ich prophezeie mal das in 2 jahren diese wieder in großen Teilen verschwunden ist.

Von einem High End Produkt das ganz oben steht, wird noch lange nicht ein riesen Marktanteil aufgebaut.
Einige vergessen hier nämlich das das wichtigste eine komplette Produktpalette ist und die können momentan nur Nvidia und ATI bieten.
Der entscheidende Punkt ist aber, was machen die anderen um es zu schaffen, den Nvidia Rythmus mitzugehen. Will sagen Matrox kann nur dann erfolgreich sein, wenn ihr Produkt ständig ein Update bekommt.
Ansonsten werden sie weiterhin wie bisher im Hintergrund bleiben und hier und da mals was feines bringen.
Bei 3D Labs ist es genau das selbe. Bei SIS ebenfalls sofern sie oben mitspielen wollen ansonsten bleiben sie halt in der Low Cost Ecke.
Und nochwas. Die großen OEM Deals werden nur dann gemacht, wenn da zuverlässigkeit vorhanden ist. Ein OEM will sichergehen, das sein Lieferant auch in den folgenden Monaten immer up to date ist.
Große Experimente machen die Jungs nicht. Die mögen Nvidia nämlich deshalb, weil sie da 100% wissen, das nach ein paar Monaten der nächste große Produktlaunch ansteht, und weil die Karten problemlos sind. Großer Treiberaufwand ist dort nicht vorhanden.

Und ein weiterer Punkt ist interessant. Wie wollen es Matrox und 3DLabs schaffen ihre Ingineure zu behalten die die neuen "Wunder" vollbracht haben.
Ich zitiere mal den Nvidia CEO auf dem letzten Conference Call:
Er wurde nämlich gefragt wie er denn die Konkurenz in Zukuntf sieht vor allem 2002 und die Auswirkungen langfristig.
Seine Antwort kurz und knapp:
2002 wird ein schwierigeres Jahr durch zunehmende Konkurenz, allerdings gibt er diese nur wenig Überlebenschancen langfristig, weil die Big Player die guten Leute sofort abkaufen werden.
Wird wohl jedem klar sein, das Nvidia einer der ersten sein wird der das macht. Die haben schlichtweg die Kohle um das zu machen und es ist ja auch nicht das erste Mal das sie sowas machen.
Den Ti4600 zu überflügeln ist nicht schwer und 256 Bit sind wahrlich nichts weltbewegendes. Das hätten ATI und Nvidia auch schon längst machen können aber das haben sie aus Kostengründen vermieden bisher.
Jetzt wo die anderen Druck machen, werden ATI und vor allen Nvidia in dieser Richtung gar nix kennen. Da wird voll gepowert egal was es kostet denn wie gesagt die beiden können es sich leisten die anderen nicht.
Wer an diesem Markt langfristig Big Player sein will, der muss alle 4 bis 6 Monate top sein und genauso wie Nvidia und ATI eine wahnsinns Produktflut betreiben. Glaube ehrlich gesagt nicht das Matrox dafür die Ressourcen hat.
Und bei 3DLabs.... wie der CHip wird, muss man abwarten aber einen dickes Minus haben sie von mir schon und zwar weil sie der Bugbude Creative gehören.
Die bringens fertig und setzen das noch in den Sand - das trau ich Creative mit ihrer Schlamperei durchaus zu.

Netter Vortrag, aber hält der Realität leider nicht Stand. Wir reden hier vom High Tech Chip Business. Intel hat es jahrelang geschafft, eine Art Monopoö zu erhälten, doch es bröckelt vor sich hin. Trotz das Intel jetzt wieder die schnellste CPU hat (mit gewissem Abstand sogar), gewinnt MAD weiterhin Marktanteile.
Mit NV verhält es sich nicht anders. Gut, die Situation ist hier ein bisschen anders, aber es liegt allein an NV, wie sie wie sie weiter vorgehen. Ich prophezeie jetzt mal was anderes: NV WIRD irgendwann einen Fehler machen. Und genau dann ist jemand da, um in die Bresche zu springen. Der Markt wird jetzt überschwemmt mit neuen guten Grafikchips, sodass eigentlich niemand vorhersagen kann, was passieren wird. Aber die Wahrscheinlichkeit ist sehr gross, dass ein anderer einen Technologievorsprung erreichen wird. Ob das ATI, NV, Matrox, PowerVR, 3DLabs oder ein ganz anderer sein wird, wag ich nicht zu spekulieren.
Meine Hoffnung ist, dass NV die Marktführerschaft verliert und alle Firmen relativ ähnlich schnelle Chips haben mit unterschiedlichen Technologieansätzen. Dann kann sich die beste Technologie durchsetzen und wir haben recht günstige aktuelle Hardware und relativ schnell DX9 / OpenGL 2.0 Spiele :)

Xmas
2002-05-08, 22:21:19
Originally posted by Stefan Payne
1. nein, sie werden aber nicht mehr 'gehypt' werden, denn das wird nur der Hersteller mit dem schnellsten Produkt.
Insbesondere bei den Gamern wird es wohl 'bleibenden Schaden' hinterlassen...
Nehmen wir nur mal an, die angeblichen Specs entsprechen der Wahrheit. Die Karte wäre deutlich schneller als eine Ti4600... und mindestens ebenso teuer. Matrox wird nun "gehypt" - aber solange sie kein Produkt im Mainstream haben ändert das für NVidias Verkäufe dort fast gar nichts.

2. Das 'Problem' von NV ist nicht, daß sie mal 'übertrumpft' wurden, sondern die Reaktion, die darauf folgen könnte.
Wenn sie genauso Panisch Reagieren, wie beim Launch der 8k5, dann hat NV echt ein Problem (ankündigung der TI200/TI500, Release der (damals) ziehmlich buggy Deto XP)...
Panische Reaktion??? :lol:

3. Bei PowerVR sieht es wie immer anders aus, als beim Rest.
Wobei ich die Kyro 2 nicht wirklich gut find...
ATI hat wie gesagt die Möglichkeit die Radeon 8k5LELE passiv gekühlt an den Mann zu bringen...
Ich weiß nicht ganz was du mir da jetzt mit PVR erzählen willst. Ich behaupte lediglich, dass NVidia genau wie PVR nicht auf ein absolutes High-End-Produkt angewiesen ist. Es passte nur bisher bestens zur Unternehmensstrategie.

NVidia hat wie ATI die Möglichkeit, diverse Chips an den Mann zu bringen. Und wenn sie wollen, vermutlich auch günstiger als ATI, denn sie können sich eher einen Preiskrieg erlauben.

4. das Beste Beispiel dürfte AMD mit dem K6(/2) gewesen sein, die alles auf den Athlon gesetzt haben und die bisherige Produktlinie kaum/garnicht weiterentwickelt haben.
Das Negativ Beispiel dürfte wohl Intel mit dem Launch des P3/1GHz und insbesondere der 1,13GHz Version sein...
Ach, und wen siehst du hier jetzt in den Rollen von AMD und Intel?

Xmas
2002-05-08, 22:31:14
Originally posted by Unregistered
@Moderatoren

Und sowas wie ihr nennt sich Moderator!!
Euch sollte man den Titel Nvidiots verpassen!!
Begründung?

zeckensack
2002-05-08, 22:45:22
Ich hab's schonmal gesagt und ich sage es gerne nochmal:
Ansehen erarbeitet man sich am High-End, die Kohle verdient man am Low-End.

Sobald irgendeine Firma was geileres als NV rausbringt, was meint ihr, wie schnell alle Entwickler umsteigen?
Was meint ihr, was dir Kunden beim nächsten Upgrade machen?
Richtig, sie machen das, was sie immer gemacht haben, sie lassen sich von den High-End-Produkten blenden und kaufen dann Low-End, Hauptsache vom 'besten' Hersteller.

Das ist genauso müßig wie die ganzen Intel/AMD Diskussionen. Wenn Intel einen 2.53GHz-Prozessor rausbringt, der 700€ kostet und den sich keine Sau kauft, dann sagen trotzdem alle "Oh, jetzt ist Intel wieder deutlich schneller als AMD! Ich will auch einen P4!"
Genau so läuft das, und das war schon immer so.

Ich kenne reichlich Leute, die sich damals eine TNT2 (nicht mal Ultra) gekauft haben, statt einer Voodoo3, nur weil sie die Geforce - und damit NVIDIA - so geil fanden.

zeckensack
2002-05-08, 22:46:52
@Xmas, @ow:

Von einem Moderator erwarte ich tatsächlich, daß er sich solche Kommentare verkneift. Egal was ihr von Stefan haltet, das ist so nicht richtig.

Razor
2002-05-08, 22:59:02
@Stefan

Sorry Stefan, ich weiß, daß Du mich nicht ab kannst (was zum Teil auf Gegenseitigkeit beruht), dennoch bin ich der Meinung, daß Du durchaus vernünftigen Argumenten zugänlich bist, aber manchmal eben auch nicht und hier schlägt's dem Faß wirklich den Boden aus.

Du tust hier so, als ob nur irgendwer einen Mega-Chip heraus bringen muß, um nVidia von der Bildfläche verschwinden zu lassen. Laß Dir das bitte nochmal durch den Kopf gehen und versuche das sachlich nachzuvollziehen, was Du hier postuliertst.

nVidia verliert langsam aber sicher den Status eines Newcomers im Vergleich zu ATI und Matrox. Aber mittlerer Weile sind sie, was ihre Größe anbelangt, ebenso etabliert wie diese. Und das nicht nur im Gamer-Markt.

Würdest Du behaupten wollen, daß ein einziges Produkt in der Lage ist, ATI oder Matrox vom Markt zu fegen ?
Eher nicht, osder ?

Warum also soll das mit nVidia passieren ?

Klar, wenn sie langfristig (wie Andre schon sagte, so 2-3 Quartale - ich sage etwa ein Jahr) 'unten' bleiben und keine andere Indentität finden, als DER Technologie- und Performance-Führer, dann könnte es gut sein, daß sie dann (noch langfristiger) vom Markt verschwinden.

Das sind aber eine Menge "Wenn's", und das erste "Wenn es die Konkurenz schafft ein Produkt zu bringen, was NV nicht toppen kann" steht schon auf sehr wackeligen Füssen und das wäre dann erst der Anfang und nicht das Ende eines sehr, sehr langen Weges...

Sorry, Stefan, aber ich kann den anderen nur Recht geben und hoffe inständig, daß Du ein Einsehen hast. Das was Du hier postulierst ist übelste Marktschreierei, wie man es von Leuten erwarten würde, die einfach keine Argumente haben und irgendwelchen windigen Behauptungen in die Welt setzen, ohne auch nur den Hauch einer Grundlage dafür zu haben.

Sag uns doch einfach, wie dieser Prozeß denn Deiner Meinung nach in unserer Marktwitschaft ablaufen soll, der es ermöglicht, mit nur einem Produkt die Konkurrenz (also nicht nur NV, sondern auch die anderen verbleibenden, oder soll NV plötzlich schlechter, als alle anderen wernde ?) zu vernichten !

Wenn Dir das plausibel gelingt, nehme ich alles zurück und behaupte das Gegenteil !

Ich hoffe auf Dein Einsehen.

@Xmas

"Ach, und wen siehst du hier jetzt in den Rollen von AMD und Intel?"

Und genau das scheinen einige hier kräftig durcheinander zu bringen.
Wenn man schon INTEL/AMD in einem Verhältnis zu ATI/nVidia setzen möchte, dann doch bitte genau so: INTEL=ATI und AMD=nVidia...

ATI ist von Volumen her sehr viel größer als nVidia (deswegen können sie sich die jetzigen Preise auch leisten). Nur gewinnt nVidia immer größere Marktanteile (ähnlich AMD), nur merkwürdiger Weise ist das dort OK. Hmmm...

@HOT

"Intel hat es jahrelang geschafft, eine Art Monopoö zu erhälten, doch es bröckelt vor sich hin. Trotz das Intel jetzt wieder die schnellste CPU hat (mit gewissem Abstand sogar), gewinnt MAD weiterhin Marktanteile."

Wie Xmas schon sagte: Wer ist hier AMD und wer Intel ?

"NV WIRD irgendwann einen Fehler machen. Und genau dann ist jemand da, um in die Bresche zu springen."

Und wie soll der aussehen ?
???

"Der Markt wird jetzt überschwemmt mit neuen guten Grafikchips"

Was sich erst noch zeigen muß...

"Aber die Wahrscheinlichkeit ist sehr gross, dass ein anderer einen Technologievorsprung erreichen wird."

Warum ?

"Ob das ATI, NV, Matrox, PowerVR, 3DLabs oder ein ganz anderer sein wird, wag ich nicht zu spekulieren."

Wieso soll es dann nicht weiterhin nVidia bleiben ?
(was wirklich nicht sein müsste... aber trotzdem: wieso ?)

"Meine Hoffnung ist, dass NV die Marktführerschaft verliert und alle Firmen relativ ähnlich schnelle Chips haben mit unterschiedlichen Technologieansätzen."

Das hatten wir schon mal und in dieser Situation kommt dann ein anderer, der sich 'absetzt'. Der ist dann sehr viel 'besser' als nVidia ?

"Dann kann sich die beste Technologie durchsetzen und wir haben recht günstige aktuelle Hardware und relativ schnell DX9 / OpenGL 2.0 Spiele"

Falsch, denn genau dann wird diese Entwicklung eingefroren.
Das Thema hatten wir doch nun schon wirklich oft, aber was passiert denn, wenn es keine einheitlichen Standarte (mehr) gibt ? Eben, es wird der kleinste gemeinsame Nenner genommen und was das bei 'vielen [unterschiedlichen] Technologieansätzen' bedeutet, brauche ich ja wohl nicht extra zu erwähnen, oder ?

[]

Sorry Leute, aber irgendwie...

Ich bin dafür, daß die Konkurrenz größer wird und sich möglichst viel Konkurrenz um nVidia schart. Aber irgendwer muß den Ton angeben. Und warum nicht nVidia ? Die Konkurrenz muß sich halt was einfallen lassen, um sich von nVidia(-Produkten) abzusetzen, was aber nichts Neues hier bei uns ist, wenn man überleben möchte. Ich möchte nicht wissen, was NV alles investieren muß, um sich (momentan) diese Stellung zu erhalten und andere Firmen (und auch ATI könnte das wieder lernen) müssen es halt gleich tun (Support, Unterstützung der Entwickler, Einbeziehung der Endbenutzer in die Produktentwicklung - z.Bsp. Treiber).

Schaun' wir mal...

Die Karten werden dieses Jahr wieder neu gemischt, mal schauen, ob es wieder Schumacher sein wird !
:D

In diesem und in keinem anderen Sinne

Razor

Razor
2002-05-08, 23:03:59
Originally posted by zeckensack
@Xmas, @ow:

Von einem Moderator erwarte ich tatsächlich, daß er sich solche Kommentare verkneift. Egal was ihr von Stefan haltet, das ist so nicht richtig.
Du vergißt wohl ganz, daß Stefan mal Moderator war, oder ?
Insofern muß er sich das schon gefallen lassen, wenn er einen vor den Latz bekommt (nicht von mir !).

Und ich finde es ganz hervorragend, daß die Mods hier nicht igendwelche anonymen Geister sind, sondern Persönlichkeiten, mit Stärken und Schwächen und vor allem auch einer eigenen Meinung.

Und zu Deinem Kommetar zu Thema fällt mir nicht allzu viel ein...
Wie lange, meinst Du, sollte es dauern, bis die vielen Leute, die nicht täglich in Foren wie diesen hier schnuppern, mitbekommen, daß 'GeForce' nicht mehr 'gut' ist, sondern daß 'GeForce' jetzt schlecht ist ?

Und vor allem: Warum ?

Bis denne

Razor

Xmas
2002-05-08, 23:26:31
Originally posted by zeckensack
Ich hab's schonmal gesagt und ich sage es gerne nochmal:
Ansehen erarbeitet man sich am High-End, die Kohle verdient man am Low-End.

Sobald irgendeine Firma was geileres als NV rausbringt, was meint ihr, wie schnell alle Entwickler umsteigen?
Was meint ihr, was dir Kunden beim nächsten Upgrade machen?
Richtig, sie machen das, was sie immer gemacht haben, sie lassen sich von den High-End-Produkten blenden und kaufen dann Low-End, Hauptsache vom 'besten' Hersteller.
Die Entwickler steigen recht langsam um, dafür muss es eben mehr als eine gute Generation sein. Insbesondere wenn die Zahl der Konkurrenten wieder steigt.

Das Geld wird im Low-End gemacht, genau. Aber hat Matrox da überhaupt etwas zu bieten? Ich weiß es nicht was sie genau anbieten wollen, aber ich erwarte ehrlich gesagt kein Low-End Produkt.
Und wenn sie das nicht haben, werden sich die billigen Karten von NVidia weiter hervorragend verkaufen.

StefanV
2002-05-09, 00:25:21
Originally posted by Razor
Du vergißt wohl ganz, daß Stefan mal Moderator war, oder ?
Insofern muß er sich das schon gefallen lassen, wenn er einen vor den Latz bekommt (nicht von mir !).

Dennoch war das eben, 'etwas' viel des guten, meinst nicht??

Hat auch nix damit zu tun, ob ich mal Moderator war oder nicht!

Das da eben war 'etwas' unter der Gürtellinie, in sofern stimme ich dem 'Unregistred' vollkommen zu.

zeckensack
2002-05-09, 00:36:29
Originally posted by Razor
Du vergißt wohl ganz, daß Stefan mal Moderator war, oder ?
Insofern muß er sich das schon gefallen lassen, wenn er einen vor den Latz bekommt (nicht von mir !).Ich wußte nicht, daß er Moderator war. Ich bin wohl noch nicht lange genug hier, um das zu wissen.
Und ich finde es ganz hervorragend, daß die Mods hier nicht igendwelche anonymen Geister sind, sondern Persönlichkeiten, mit Stärken und Schwächen und vor allem auch einer eigenen Meinung.Das schon. Aber jemanden zum Forumsclown vorzuschlagen ist nicht sooo nett. Außerdem, wenn man das schon machen muß, dann doch bitteschön auch direkt an den Betreffenden gerichtet, und nicht in öffentlicher Absprache mit einem anderen.
Ich fand's jedenfalls nicht so toll.

Und zu Deinem Kommetar zu Thema fällt mir nicht allzu viel ein...
Wie lange, meinst Du, sollte es dauern, bis die vielen Leute, die nicht täglich in Foren wie diesen hier schnuppern, mitbekommen, daß 'GeForce' nicht mehr 'gut' ist, sondern daß 'GeForce' jetzt schlecht ist ?

Und vor allem: Warum ?

Bis denne

RazorWeil auch in Zeitschriften wie der Gamestar ( :bonk: ), der Computerbild ( ?-) ) und der PCG ( :jump2: ) steht, welche Karte die schnellste ist. Nehmen wir exemplarisch den Einkaufsführer der Gamestar. Ein kurzer Blick darauf genügt, und man weiß "NVIDIA sind die coolsten von allen". Wenn da demnächst eine Matrox oder SiS( *eg*) auf dem ersten Platz steht, dann ist NVIDIA für die Gamestar-Leser eben nicht mehr das geilste. Wo ist da mein Denkfehler?

Außerdem war das garnicht mal so sehr auf Matrox bezogen. Ich wollte damit nur sagen, daß ich NVIDIAs Marktposition nicht für unantastbar halte. Wer den Spitzenplatz übernehmen könnte, da will ich mich nicht festlegen, zumindest dauerhaft nicht.
Anhand der Spezifikationen erscheint es wahrscheinlich, daß Matrox für ein paar Monate NV die Performance-Krone abnehmen kann. Ein paar Monate reichen natürlich nicht, um den Markt komplett umzukrempeln. :)

Womit wir bei
@Xmas wären:
Guter Punkt. Ein High-End Produkt alleine genügt nicht, um richtig Reibach zu machen, Recht hast du. Man braucht ein großes Spektrum, um jeden 'Price Point', wie der Südwester sagt, abzudecken. NVIDIA war hier in den letzten Jahren sehr stark.
Wenn also der Fall eintritt, daß NV im Overkill-Segment geschlagen wird, dann muß dazu auch ein passendes Billigprodukt her, sonst nützt es dem Hersteller herzlich wenig.
Wenn Matrox hier bei der G550 bleiben sollte, sehe ich schonmal schwarz.

Andre
2002-05-09, 01:06:11
Originally posted by zeckensack
Außerdem, wenn man das schon machen muß, dann doch bitteschön auch direkt an den Betreffenden gerichtet, und nicht in öffentlicher Absprache mit einem anderen.

ow und ich haben uns nicht abgesprochen - weder öffentlich noch privat.
Ich kann nichts dafür, wenn ich gequotet werde und das von mir gesagte weiter verhärtet und gepostet wird.

Desti
2002-05-09, 02:12:18
Originally posted by Xmas

Die Entwickler steigen recht langsam um, dafür muss es eben mehr als eine gute Generation sein. Insbesondere wenn die Zahl der Konkurrenten wieder steigt.

Das Geld wird im Low-End gemacht, genau. Aber hat Matrox da überhaupt etwas zu bieten? Ich weiß es nicht was sie genau anbieten wollen, aber ich erwarte ehrlich gesagt kein Low-End Produkt.
Und wenn sie das nicht haben, werden sich die billigen Karten von NVidia weiter hervorragend verkaufen.

Von glide sind sie aber recht schnell weggekommen. Dazu hat es auch nur eine Generation von Geforce karten gebraucht.

Exxtreme
2002-05-09, 08:05:24
Originally posted by Desti


Von glide sind sie aber recht schnell weggekommen. Dazu hat es auch nur eine Generation von Geforce karten gebraucht.
Sicherlich sind sie von Glide weggekommen. Selbst 3dfx hatte Glide mehr oder weniger für tot erklärt. Als dann 3dfx komplett von der Bildfläche verschwand, gab es wirklich keinen Grund mehr für Glide zu entwickeln.

Gruß
Alex

Razor
2002-05-09, 08:55:13
@Stefan

"Dennoch war das eben, 'etwas' viel des guten, meinst nicht??"

Mag sein...
Oder eben auch nicht !

Du hast wirklich eine Menge (technischen) Sachverstand und bringst dieses auch zum Ausdruck. Aber manchmal, scheinst Du regelrecht auszurasten und irgendwelche wilden Behauptungen aufzustellen, die jeder Grundlage entbehren und bist dann auch keiner sachlichen Argumentation mehr zugänglich. Und wenn das andere merken, kann es sehr gut sein, daß diese dann ebenfalls den 'sachlichen' Weg verlassen...

Wenn Du so etwas nicht willst, hast Du es selber in der Hand, so etwas nicht zu provozieren !

"Hat auch nix damit zu tun, ob ich mal Moderator war oder nicht!"

Sicher hat es was damit zu tun, denn Du solltest es eigentlich besser wissen...

"Das da eben war 'etwas' unter der Gürtellinie,..."

Seh' ich auch so, aber Du hast es selber provoziert...

@zeckensack

"Ich wußte nicht, daß er Moderator war. Ich bin wohl noch nicht lange genug hier, um das zu wissen."

Sorry !
Konntest Du somit auch nicht wissen...

"Das schon. Aber jemanden zum Forumsclown vorzuschlagen ist nicht sooo nett. Außerdem, wenn man das schon machen muß, dann doch bitteschön auch direkt an den Betreffenden gerichtet, und nicht in öffentlicher Absprache mit einem anderen. Ich fand's jedenfalls nicht so toll."

Nun ja, Stefan will provozieren, beschwert sich dann aber, wenn dann genauo unsachliches Zeugs zurück kommt, wie er es selber verbreitet. Er hat wirklich viel Hintergrund und weiß dieses auch zu vermitteln, aber manchmal - so wie hier jetzt auch - scheint er sein Hintergrundwissen und seine Erfahrungen als Mod einfach zu ignorieren und schmettert wild drauf los, ohne sich von irgendwelchen sachlichen Argumenten beeindrucken zu lassen. Und das macht dann jede (sinnvolle) Diskussion kaputt.

Die Mod's versuchen ihr bestes, um dies wieder hinzubiegen, aber wenn dies nicht gelingt, insbesondere wenn derjenige jemand ist, der es besser wissen sollte, müssen andere Mittel gefunden werden und so etwas erzwingt geradezu unsachliche Anmerkungen.

Stefan hat es selber in der Hand so etwas nicht zu provozieren !

Ich fand die Bemerkungen der Mods auch nicht 'schön', erkenne diese aber als gerechtfertigte Mittel an, jemanden wie Stefan in die Schranken zu weisen, wenn dieser es eindeutig übertreibt...

---

So nun aber zu dem eigentlichem Thema, gell?

"Weil auch in Zeitschriften wie der Gamestar ( ), der Computerbild ( ) und der PCG ( ) steht, welche Karte die schnellste ist. Nehmen wir exemplarisch den Einkaufsführer der Gamestar. Ein kurzer Blick darauf genügt, und man weiß "NVIDIA sind die coolsten von allen". Wenn da demnächst eine Matrox oder SiS( ) auf dem ersten Platz steht, dann ist NVIDIA für die Gamestar-Leser eben nicht mehr das geilste. Wo ist da mein Denkfehler?"

Warum sollte da 'demnächst' so etwas stehen ?
Diese Karten sind noch überhaupt nicht da und selbst wenn sie offiziell angekündigt sind, wird man noch laaaaange brauchen, bis dann im Laden stehen. Und ob die (kaufbaren) Produkte tatsächlich das halten, was in Ankündigen und 'Vorabtests' versprochen wird, muß sich dann ebenfalls noch heraus stellen.

Und gesetz dem Fall, es kommt etwas wirklich 'besseres' und das Marketing der herstellenden Firma ist auch in der Lage das zu vermitteln, auch die Spieleprogrammierer dazu zu bewegen, ihre Neuerscheinungen ebenfalls auf dieser neuen HW zu testen (oder gar zu optimieren) und ggf. Patches für alte heraus zu bringen. Dies dann so aufgenommen wird und die Medien entsprechend reagiern, dann ist schon wieder eine ganze Menge Zeit ins land gegangen.

Setzt auch voraus, daß sich nVidia die ganze Zeit ruhig verhält und nicht gegensteuert (was ziemlich unwahrscheinlich ist) oder gar ein 'besseres' Produkt an den Markt bringt.

Sind also viele, viele "Wenn" und "Aber" und das über einen langen Zeitraum (IMHO ca. ein Jahr).

Du wirst also zugeben müssen, daß es nicht reicht, einfach einen neuen Chip anzukündigen (!) und schon ist die Konkurrenz vom Tisch. Das würde wirklich jedem Wissen über unsere Marktwirtschat, deren Gesetzen und Methoden wiedersprechen, sorry !

"Ich wollte damit nur sagen, daß ich NVIDIAs Marktposition nicht für unantastbar halte."

Für unantastbar halte ich diese auch nicht...
Aber zur Zeit für fundiert und sicher.

"Anhand der Spezifikationen erscheint es wahrscheinlich, daß Matrox für ein paar Monate NV die Performance-Krone abnehmen kann. Ein paar Monate reichen natürlich nicht, um den Markt komplett umzukrempeln. ;)"

Und mehr wird hier ja auch gar nicht gesagt !
Klar kann ihnen die Performance-Krone weg genommen werden (wie in Teilbereichen ja sogar schon passiert), aber bis der Mark darauf reagiert, vergehen sehr viele Monate und setzt eben voraus, daß nVidia untätig bleibt.

"Man braucht ein großes Spektrum, um jeden 'Price Point', wie der Südwester sagt, abzudecken."

Und vor allem ein entsprechendes Marketing, was vermitteln kann, daß die Low-End-Produkte ebenso gut sind, wie das Flagschiff (was natürlich unsinn ist, aber 'zieht' :D)

Bis denne

Razor

HOT
2002-05-09, 12:16:03
@ Razor
meine Ansicht war 1.) reine Spekulation und 2.) völlig neutral. Ich freue mich lediglich über die Konkurrenz und erwarte bessere Chips von verschiedenen Herstellern in der Zukunft. Wer die herstellt ist mir egal.
Du beschreibst Nvidia als gerade erst erwachsen geworden. Das ist Blödsinn, denn NV ist nur unwesentlich jünger als alle anderen der Branche. Die ganze Branche ist gerade erst erwachsen geworden. Es haben so ziemlich alle Firmen gleichzeitig angefangen 3D zu entwickeln, was für ziemliche Gleichwertigkeit auf dem Markt sorgt (auch wenn es im mom nicht so aussieht). NVidia hatte bisher einen Höhenflug, der aber einfach nicht ewig dauern kann, dafür ist die Branche einfach zu innovationsabhängig. Man sieht es ja schon an PowerVR; ein kleinese Nebenprodukt, modifiziert von ST, schafft es auf einmal neben dem ganzen Geforcewust (in kleinem Rahmen, der K2 war nicht wirklich ein Massenprodukt) zu konkurrieren, nur weil hier eine andere effizientere Technologie werkelt.
NV fährt da meiner Meinung nach die falsche Strategie. Sie sind bisher mit Druck und Marketing rangegangen, das sind die klassischen Strategien. Doch so langsam wirkt das nicht mehr, weswegen ich keine Quasimonopolstellung von NV mehr erwarte (und ich glaube auch NV hat das erkannt). Die Nummer1 wird in Zukunft wieder öfter wechseln.
Deswegen finde ich es Blödsinn NV als Mass aller Dinge anzugeben.

Micron
2002-05-09, 12:18:29
Eigentlich hat NV nichts zu befürchten. Wenn Matrox jetzt so eine Hammerkarte rausbringen sollte, dauert es noch gute 5-6 Monate bis sie in der Preisregion ist das sich das Normale User leisten könne, bis dahin kann NV schon eine neue Karte rausgebracht haben die besser ist. NV hat lange gebraucht um 3DFX die Performence Krone abzu jagen und da wird NV alles dran setzten das es auch so bleibt. Vielleich bringen sie den NV30 Chipssatz schon früher draus wenn es eng wird.

Gohan
2002-05-09, 12:37:48
Originally posted by Blackmagic
Eigentlich hat NV nichts zu befürchten. Wenn Matrox jetzt so eine Hammerkarte rausbringen sollte, dauert es noch gute 5-6 Monate bis sie in der Preisregion ist das sich das Normale User leisten könne, bis dahin kann NV schon eine neue Karte rausgebracht haben die besser ist. NV hat lange gebraucht um 3DFX die Performence Krone abzu jagen und da wird NV alles dran setzten das es auch so bleibt. Vielleich bringen sie den NV30 Chipssatz schon früher draus wenn es eng wird.

nope das glaube ich nicht. nVidia wird es sich, falls Matrox denn schneller ist, gefallen lassen nicht die Nummer 1 zu sein. Sie haben nämlich GeForce4 MX und diese karte läuft ja anscheinend blendend. Und wenn die Ti4200 a ist, wer kauft sich dann für vielleicht 600 $ eine Matrox, wenn es eine Karte für 220 $ gibt die völlig ausreicht?

Das meißte Geld wird im Mid-End Berreich gemacht, nicht im High-End. Und da ist nVidia halt am stärksten etabliert.

Quasar
2002-05-09, 13:03:22
@HOT:
nV ist wesentlich jünger als die meisten anderen, denn die (Matrox, ATi, 3Dlabs) machten schon 2D-Karten, als nV noch nicht einmal gegründet war. Man hat somit eigentlich eine deutlich längere Erfahrung im Grakasektor und hätte auch die Chance gehabt, beim losrollen des 3D-Zuges alles klar zu machen und den Kuchen mit 3dfx (damals ja noch 3Dfx) unter sich aufzuteilen. Aufgrund extrem armseliger Produktpolitik, was den 3D-Sektor anging, hat man diesen Markt über lange Jahre an zwei Newcomer verloren (3Dfx und nV), wobei das Erstlingswerk der letzteren auch ein grandioser, weil seiner Zeit deutlich überlegener, Flop war.

@Razor:
Danke, daß du mir mal wieder so viel Tipparbeit abgenommen hast (...weil kürzer ;))

@all:
Selbst wenn Matrox am 14.5 den Verkauf des "Sonnenhundes" starten sollte, glaubt ihr doch wohl nicht im Ernst, daß man das bei allen anderen Firmen lange auf sich sitzen lassen wird, oder?

Auf der CeBit habe ich mit einem "Bekannten" bei nV gesprochen, und er sagte wörtlich: "Believe me, when ATi announces their new product, we will have something ready."
der nV30 ist schon lange mehr als nur ein Entwurf auf dem Reißbrett, JC wird sicher schon nahezu finales Silizium (F***!, beinahe schon wieder Silikon geschrieben) zum Spielen für die Doom3-Engine haben und einige andere auch. Sogar Dinge, die im Moment völlig unwahrscheinlich erscheinen werden parallel entwickelt, einfach um am Markt zu bleiben, selbst wenn diese niemals erscheinen würden (welcher Consumer-Chip würde wohl am meisten von einem Dual-Channel DDR-Interface profitieren?).

Richthofen
2002-05-09, 14:04:30
@Quasar

Genau das ist der Punkt den ich auch meine. Ich war übrigens der Unreg da oben sorry nochmal Guys.
Die Ti4600 zu toppen ist nicht schwer. Ein ähnlicher Chip mit 256 Bit Interface oder mit Quad DDR RAM oder was auch immer.

Nehmen wir also an das nächste Produkt von Matrox und CO übertrumpft die Ti4600 wovon ich ausgehe.
Dann dauert es erstmal mindestens 2 bis 3 Monate bis überhaupt das Teile überall angekommen sind. Die richtige Resonanz gibt es wenn überhaupt in der breiten Masse erst ein 3/4 Jahr später wie Andre breits meinte.
Die Frage ist doch was bietet Matrox um zb die Ti4200 die ein ziemlicher Schlager wird zu überbieten.
Ein High End Produkt zu machen koste es was es wolle, ist kein Problem. Die ganze Produktpallete machts und die muss so sein das am Ende Geld verdient wird.
Matrox zb hat aber keine Zeit ein 3/4 Jahr zu warten.
In dieser Zeit hat NV wenn sie es wollen bereits 2 mal refresht.

Zu gauben Nvidia würde nicht an 256 Bit rumprobieren oder ähnlichem ist naiv.
Das hätten die schon längst in den Markt gebracht wenn sie es gemusst hätten, denn wie gesagt mit den Top Produkten muss NV kein Geld verdienen. Die müssen nur wenns geht ganz vorne liegen egal wie teuer. Das und die Verlässlichkeit und Beständigkeit in der Nvidia neue Produkte bringt, hat sie zu dem gemacht der sie sind.
Am BSP 3dfx hat doch Nvidia deutlich gesehen was passiert wenn man sich zu lange Zeit lässt.

Ich glaube ziemlich fest daran, das wenn etwas neues kommt, Nvidia mir nichts dir nichts irgendeine prollige aufgebohrte Porsche Version der GF4 bringt und zur Not per Treiber auf der Featureseite noch so einiges veranstaltet.

Der CEO von Nvidia wusste auf dem Konferenz Call ziemlich genau was noch so kommen wird. Das konnte man unterschwellig raushören und trozdem hat er die Prognosen auf der Ertragsfront erhöht für 2002.
Und nebenbei erwähnt, das egal was kommt sie etwas haben werden als Antwort und vor allem das die Top Ingineneure bei den Konkurenten nicht lange bleiben werden.

Beides kann ich voll und ganz nachvollziehen. Die bringen wirklich immer nur so viel wie sie müssen aber decken nicht alles auf.
Man will ja schließlich profitabel bleiben. Und Leute abwerben ist das einfachste auf der Welt. Jeder ist Käuflich. Die wissen sehr genau an was die anderen arbeiten und ich glaube ATI weiss das auch das gehört zum Geschäft so etwas auszukundschaften.
Da fließen ein paar Dollar und schon hat man was man will.

Also wie gesagt die GF4Ti4600 zu toppen ist einfach. Das beständig zu tun ist für so ne kleine Firma wie Matrox ziemlich schwierig. Sogar der Big Player ATI hat es schwer und die sind um ein vielfaches größer als Matrox.
Wenn Nvidia muss, dann bringen die auch alle 3 Monate was neues. Die Kunst ist einfach die anderen von der Publicity wegzudrängen. Das wird nicht immer gehen aber wenn die anderen maximal 3 bis 4 Monate Publicity haben, und dann wieder 1 Jahr oder mehr entwickeln müssen, dann wird NV ziemlich gut damit leben können.
Da sie ja jetzt auch ziemlich fett im Chipsatzgeschäft, Workstationgeschäft, Simulationsgeschäft (Quantum3D) sind und nach wie vor trotz des Streites mit MS gut an dem x-Box Zeug verdienen können die sich auch wahrlich jeden Wahnsinn im 3D High End Bereich leisten.

Unantastbar ist ihre Führung nicht aber wer die knacken will muss den Speed mitgehen den sie vorgeben werden.
Den Kunden kanns freuen aber ich glaube in den nächsten 2 Jahren werden einige wieder auf der Strecke bleiben und das wird nicht NV sein, dafür sind die zu abgekocht - trust me.

Haarmann
2002-05-09, 14:41:27
Eigentlich gehörte sowas ja bisher noch ins Speku Forum...

Wenn Matrox nun mit nem DX9 Chip rauskommen würde, der alles was zur Zeit verkauft wird wegfegt (und das wär mit nem 256Bit Interface ned wirklich schwer), dann hat NV 2 Probleme. NV verkauft ihre Grakas eigentlich hauptsächlich wegen GForce=Schnell. Niemand kauft sich ne Geforce wegen Multimedia, Dual Head oder guter Bildqualität (Multimedia is ATI, der Rest is schon Matrox). Alles was NVidia auf ihrer Seite hat sind Benches - sonst steht nix da. Und genau der Teil wird fehlen. GForce heisst eben dann nimmer schnell. Matrox ist dann eben schneller.
Zum 2en lebt NVidia von ihren "Fans", die deren guten Ruf weiterposaunen und all ihren Kumpels etc sagen was nun gut is. Was passiert nun mit denen wenn...
Sagen wir mal NVidia könnte nun kontern und nen neuen Chip liefern, wieviele vergraulte GF4Ti Kunden gäb denn das wohl? Die Ti4200 gibts noch nedmals zu kaufen und schon wieder ein neuer Chip? Da kommen sich die early adopters wohl etwas verarscht vor. NV tut also gut daran, gar nicht erst zu kontern. Deren Ruf wär nämlich damit ziemlich im Arsch.
Auch die Kartenhersteller wären sicher absolut happy auf nem grossen Spael nun vollkommen wertloser Hardware zu sitzen, für welche sie vollkommen überteurte Preise bezahlt haben (gemessen am neuen Wert).

Bei frühren Matrox Launches war übrigens die HW nach ca 7 Tagen lieferbar. Aber mal abwarten wie lange es diesmal dauert. Der Bedarf jedenfalls wäre sicherlich sehr hoch. Eine Graka mit DualHead, klarem Bild und hohem Speed ist seit langem gefragt.

P.S. Nimmst 3 Versionen der Karte... 64/128/256MB wovon die 64er nur 128Bit des Bus nützt... das is dann die Ti4200. Genau so billig aber mit nem besseren Ruf vom grossen Bruder ausgestattet ;).

Xmas
2002-05-09, 14:47:18
Originally posted by zeckensack
@Xmas, @ow:

Von einem Moderator erwarte ich tatsächlich, daß er sich solche Kommentare verkneift. Egal was ihr von Stefan haltet, das ist so nicht richtig.
Meinst du jetzt den "Forums-Clown" oder auch die Bemerkung von Andre und meine Zustimmung dazu?

Nun, ich fand Stefans erstes Posting wirklich völlig unlogisch.

Originally posted by Stefan Payne
ATI wird sich über Wasser halten können, da ihre Karten nicht nur schnell sind, sondern auch guter TV Out und HW Deinterlacing haben.
ATI muß bei der 8k5 also 'nur' eine billigst Version rausbringen, schon ist wieder alles in Butter.
Dinge, die nur ein kleiner Teil des Marktes wirklich braucht.
Eine Billigst-Version der R8500 bringt ATI nur geringe Margen, weil der Chip in der Fertigung (noch) nicht wirklich billig ist. Für ATI ist dann mitnichten alles in Butter.

NV wird aber untergehen, wenn eine Karte mal schneller ist, denn außer Game Performance gibt es absolut KEINEN Grund NV zu kaufen!!
NVidias Produktpalette ist dir offensichtlich nicht bekannt. www.nvidia.de

Mit einer Passiv Gekühlten Radeon 8500LELE@200/200MHz für ca. 100€ ist ein ziehmlich heißes Eisen, was auf den Bereich der G550/7500/GF4 MX ziehlt, wogegen NV nix anzubieten hat.
Wieso denkst du, dass ATI in der Lage ist ihre Produkte so günstig anzubieten, NVidia aber nicht? Sie könnten z.B. den Preis der GeForce3 Ti200 weiter senken.

Wenn eine Karte rauskommt, die deutlich schneller ist, als aktuelle NV Karten, dann hat NV ein Großes Problem!

ATI kann sich vorläufig in andere Gebiete zurückziehen und mit ihren neuen Karten zurückkommen...
Genauso wie NVidia.

aths
2002-05-09, 15:08:07
Xmas,

ein völlig unlogisches Posting zu verfassen ist sicher keine spezielle Eigenart von Stefan. ows Reaktion ist in meinen Augen überzogen gewesen, da er in seiner jetzigen Moderator-Funktion immer "weiser" reagieren sollte, als ein normales Member - egal, ob Stefan auch mal Mod war, oder nicht. Da auch Mods nur Menschen sind, ist herbe Kritik an ow wohl nun auch nicht angebracht. Im Prinzip denke ich aber schon, dass sich Member mit Mod-Rechten gegenseitig dazu anhalten sollten, nach Möglichkeit als Vorbild fungieren zu können.


Zum Thema: Ich sehe mittelfristig nVs Marktführerposition in Gefahr. Meiner Meinung nach werden die Karten neu gemischt. Viele sind gut gerüstet, die Spitze einzunehmen. Das kann natürlich auch weiterhin nVidia sein. Einige scheinen sich nicht vorstellen zu können, dass andere bessere Karten bauen können. Vor dieser Vorstellung kann ich nur warnen - nVidia ist so groß geworden, dass sie wohl früher oder später träge werden. Ich denke, dass Stefan ungefähr das sagen wollte.

Allerdings ist es auch kein Geheimnis, dass der NV30 das Zeug zum Knaller hat. Ohne weitere Infos über den Chip zu haben - meinereiner traut nV das ohne weiteres zu, erst recht, nach dem sie mit der Creme der 3dfx-Belegschaft frische Ideen bekamen.

Ikon
2002-05-09, 19:42:46
Guter Standpunkt, aths. meiner Meinung nach ist NV schon träge geworden, im Vergleich zu früher. Ich kann mich da noch an große Reden von NV erinnern betreff ihres 6-Monate-Produktzyklus. Und was ist heute? Sie haben gemerkt, dass die Nummer nicht mehr läuft. Die GF3 geht langsam der 2-Jahresgrenze entgegen, ist aber schließlich der ältere Bruder der GF4TI . Sie haben dieses Design ja immer bloß recycled seit dem: GF3 -> GF3Ti200/500 -> GF4TI/MX. Man sieht: ein "revoluionäres" Produkt kann einen Hersteller lange an der Spitze halten, zumindest wenn die Konkurrenz für ihn nicht zu groß ist. Und genau das ist der Punkt, NV hat sich in letzter Zeit ganz schon Zeit gelassen mit Innovationen. Mal sehen ob sie auf einem belebteren Markt wieder einen Gang hochschalten können, wenn nötig.
Aber noch ein anderer Hersteller hat ein sehr gut recyclebares Produkt (diesmal im Positiven Sinne): der 3DLabs P10 - das Design ist mehr als flexibel und er lässt sich an zukünftige Grafikeffekte per Treiber anpassen. Der Chip könnte sich rein vom zugrundeliegenden Design mehrere Jahre auf dem Markt halten. Ich glaube nicht, dass NV und Konsorten da so schnell (Ende des Jahres) was entgegensetzen können, vorallem nichts derart langlebiges.

/me tritt vom Rednerpult zurück, verneigt sich und geht nach links aus dem Bild. Sobald er hinter dem Vorhang verschwunden ist wird er von einer Gruppe wütender Moderatoren, die anderer Meinung sind, brutal niedergeschlagen und verblutet noch an Ort und Stelle in den Händen eines weinenden Unregs *g* (sorry leute, der musste einfach sein)

Ikon

Exxtreme
2002-05-09, 19:42:54
Ich muss mich Haarmann mehr oder weniger anschliessen. Wenn nVidia die Leistungskrone (deutlich) verliert, bekommen die IMHO zwangsläufig ein Problem. Dann sind die nicht mehr die #1 im Gamer-Markt. In Sachen Multimedia hat nVidia auch nichts anzubieten, was ATi das Wasser reichen könnte. Und ich bezweifle, daß nVidia mit der GF4MX im Office-Bereich Erfolg haben wird. Wenn sich die IT-Verantwortlichen den Test in der c't wg. der Signalqualität durchlesen, dann werden sie IMHO von nVidia Abstand nehmen. Und im Office-Bereich sind Matrox und ATi eh' die Platzhirsche, da dürfte es für nVidia keinen Platz geben. Die GF4MX ist die typische Aldi/Norma/Lidl-PC-Karte bei denen mit hohen MHz-Zahlen gelockt wird aber an der sonstigen Austattung gespart wird.
Die breitgefächerte Produktpalette ist wiederum ein grosser Vorteil in der Produktpolitik von nVidia nur dummerweise macht es ATi genauso. Und das dürfte bei Matrox z.Zt. das grösste Manko sein. Ein Spitzenprodukt aber kein Produkt für die Massen.
Alles in Allem: nVidia wird nicht untergehen nur ich glaube, daß denen dieses Jahr ein verdammt rauher Wind ins Gesicht wehen wird.

Gruß
Alex

StefanV
2002-05-09, 19:52:28
Originally posted by Ikon
/me tritt vom Rednerpult zurück, verneigt sich und geht nach links aus dem Bild. Sobald er hinter dem Vorhang verschwunden ist wird er von einer Gruppe wütender Moderatoren, die anderer Meinung sind, brutal niedergeschlagen und verblutet noch an Ort und Stelle in den Händen eines weinenden Unregs *g* (sorry leute, der musste einfach sein)

LOL, der war gut ;)

@Extreme

Sehe ich genauso ;)

Sobald NV nicht mehr die Schnellste Karte hat, dann haben sie ein Problem...

Und bis jetzt weiß ich immer noch nicht, wie 'gut' nView unter W2k/XP funzt...

Bei ATI funzt es ja zumindest unter XP sehr gut, bei Matrox unter allen OS...

Hm, irgendwie erinnert mich NV an 3DFX *eg*

TBird
2002-05-09, 19:55:55
Ja bin ich hier im "heiße Luft Thread" gelandet oder was ? ;)

Abwarten und Tee trinken Leute !!!

Frank
2002-05-09, 20:05:20
oha
Tbird betritt den Hardwareteil des Forums

Was können wir dir jetzt für ne Graka anleiern?

Exxtreme
2002-05-09, 20:07:24
Originally posted by Frank
oha
Tbird betritt den Hardwareteil des Forums

Was können wir dir jetzt für ne Graka anleiern?
Eine mit CDU-Logo. :lol: ;D

*scnr*


Gruß
Alex

TBird
2002-05-09, 20:12:56
Originally posted by Frank
oha
Tbird betritt den Hardwareteil des Forums


Ohja Frank,
mal sehen wie hier so "diskutiert" wird ;)


Was können wir dir jetzt für ne Graka anleiern?


Na "die Beste" natürlich. (so Jungs jetzt mal los...;))

Exxtreme
2002-05-09, 20:15:15
Originally posted by TBird


Ohja Frank,
mal sehen wie hier so "diskutiert" wird ;)

Ein typischer ATi vs. nVidia vs. Matrox-Flamewar.


Originally posted by TBird

Na "die Beste" natürlich. (so Jungs jetzt mal los...;))
Wenn man ausschliesslich spielen will z.Zt wohl die GF4Ti4600, welche aber nicht ganz billig ist.

Gruß
Alex

zeckensack
2002-05-09, 20:29:25
@Razor, Xmas, zum Thema Stefan Payne:

So ist's besser. Immer schön erklären, warum man etwas für eine Entgleisung hält. Auch wenn es nur ganz kurz ist, wie bei dir Xmas. So gebt ihr Stefan wenigstens die Chance, darauf einzugehen. Schade nur, daß da erst nachgebohrt werden musste, bevor ihr eure 'Beleidigungen' begründet habt.

@Andre: Dich meinte ich damit nicht.
Ich finde es nur ein wenig unhöflich so wie es gelaufen ist (nennt mich altmodisch...). Wenn mich jemand schon für bekloppt erklären will, dann erwarte ich auch, direkt angesprochen zu werden. Zwei Varianten:

1) Zeckensack, du bist total bekloppt
2) Andre, ich glaub' der Zeckensack ist total bekloppt

#1 wäre mir lieber.

@Razor, bezüglich deiner Antwort auf meine Antwort ;)
Im Grunde denken wir glaube ich ganz ähnlich. Du hast dir sehr viel Mühe gegeben, den Anfang meines Postings zu zerpflücken, dabei habe ich doch nachfolgend vieles eingeräumt und Einschränkungen gemacht.
Der Name Matrox fällt hier, weil der Produktlaunch offenbar kurz bevor steht. Und es ist wahrscheinlich - bei den derzeit 'bekannten' Specs - daß der Chip NV die Performancekrone zumindest für kurze Zeit! entreißen kann. Daß ein kurzzeitiger Vorsprung nicht über Nacht die gesamte 3D-Landschaft ändern kann, das hatte ich bereits versucht, dir einzugestehen.

Wissen tun wir eh' nix, insofern auch in diesem Sinne
*TBirdanschließ*

TBird
2002-05-09, 20:33:25
Originally posted by Exxtreme

Eine mit CDU-Logo. :lol: ;D

*scnr*


Gruß
Alex

Wird wohl mal wieder Zeit für nen Avatarwechsel ;)
Mal auf suche gehen...

Legolas
2002-05-09, 20:46:25
Originally posted by TBird


Wird wohl mal wieder Zeit für nen Avatarwechsel ;)
Mal auf suche gehen...

Eigentlich hätte er dann CSU-Logo sagen müssen.. nur mal so nebenbei :D.

TBird
2002-05-09, 20:54:56
Originally posted by Legolas


Eigentlich hätte er dann CSU-Logo sagen müssen.. nur mal so nebenbei :D.

Ist doch fast das selbe Legolas. ;)

Haarmann
2002-05-09, 20:59:55
Eigentlich sollte man daraus gleich nen Poll machen...

Wieso kauftet ihr eure NVidia Karte...

3D Leistung
Signalqualität
Multimedia Tauglichkeit
Multimonitor

Ich rate mal und ahne 3d Leistung würde gewinnen ;)

Quasar
2002-05-09, 21:57:46
@Zeckensack:

Wie? Was? Wann hab' ich hier was zum Thema SP gesagt? Eher weniger, da ich seine Postings nicht sehe... ;)

Und welches deiner Postings soll ich zerpflückt haben? *Aufmschlauchsteh*

Oder hast du mich einfach nur verwechselt....

zeckensack
2002-05-09, 23:26:22
Originally posted by Quasar
@Zeckensack:

Wie? Was? Wann hab' ich hier was zum Thema SP gesagt? Eher weniger, da ich seine Postings nicht sehe... ;)

Und welches deiner Postings soll ich zerpflückt haben? *Aufmschlauchsteh*

Oder hast du mich einfach nur verwechselt.... Ieeek. Verwechselt.

*indieeckeschleichundeditier*

zeckensack
2002-05-09, 23:26:47
Hmm. falsches knobf :bonk:

Quasar
2002-05-09, 23:28:19
Ah...jetzt! JA!

zeckensack
2002-05-09, 23:35:44
Originally posted by Quasar
Ah...jetzt! JA! Eine Insel! :naughty:

ernesto.che
2002-05-09, 23:39:07
Originally posted by Haarmann
Eigentlich sollte man daraus gleich nen Poll machen...

Wieso kauftet ihr eure NVidia Karte...

3D Leistung
Signalqualität
Multimedia Tauglichkeit
Multimonitor

Ich rate mal und ahne 3d Leistung würde gewinnen ;)
Ich plädiere dafür, das als Wahlmöglichkeit auch noch Aldi zur Wahl steht:D

Quasar
2002-05-10, 10:52:02
Originally posted by zeckensack
Eine Insel! :naughty:

...mit zwei Bergen!

Micron
2002-05-10, 13:59:50
NV hat genug Karten die gegen die SIS und die 7500 Karte von ATI antretten können. Und wenn die TI4200 ein totaler Verkaufsschlager wird nehmen die Leute die Karte auch. Schon alleine weil sie von anderen Usern höhren das die Karte gut ist. Woher wollen wir wissen ob die Matrox überhaupt so gut ist wie es alle sagen? Bis jetzt habe ich nur Benchmarks von Quake 3 gesehen. Das wars aber auch schon. Und in Q3 war auch die Kyro2 super aber in allem anderen ... . Am besten warten wir ab bis die Karten draussen sind. Weil eigentlich sind das bis jetzt alles nur Vermutungen. Es kommt bestimmt sowie so anders als wir denken. Matrox hat mit der G550 auch eine beschissene Karte raus gebracht. Und so weit ich mich erinner kann hat die zu ihrer Einführung auch 800DM gekostet. Also wieso sollte ich von einer Marke unsteigen wo ich weis das sie bei allen Spielen funzt auf eine "unbekannte" Marke umsteigen? Na gut Matrox ist nicht unbekannt aber wir wissen nicht wie kompatible sie zu Games ist.

So das war das Wort zum Freitag


Blackmagic

HOT
2002-05-10, 18:28:36
1.) Matrox ist der Generation 78 und älter sehr wohl bekannt, da dürfte sich noch nahezu JEDER an die Millennium erinnern :)
2.) Als nächstes ist Q3 für die Kyro kein sonderlich guter Benchmark
3.) hat die G550 nie soviel gekostet
4.) war die G550 nicht für Gamer gedacht und hatte eine ganz andere Zielgruppe
5.) hat Matrox selbst angekündigt endlich wieder einen 3D Beschleuniger auf den Mart bringen zu wollen. Desweiteren ist beim Displacementmapping, als dies aufkam, immer im Zusammenhang mit dem Namen Matrox gefallen und Matrox war massgeblich an der Entwicklung von Dx9 beteiligt.
6.) ein solches Marketing braucht man nicht für einen normalochip
7.) ist in der Grafikchipbranche niemand mehr wirklich Markentreu. Die 3Dfx Zeiten sind lange vorbei.

Razor
2002-05-10, 19:04:35
Ähm...

@Zeckensack

Ganz kurz zum Thema SP:
"Schade nur, daß da erst nachgebohrt werden musste, bevor ihr eure 'Beleidigungen' begründet habt."

Da Du mich hier mit angesprochen hast: Wo soll ich ihn 'beleidigt' haben ?
???

Und ebenfalls kurz:
Und es ist wahrscheinlich - bei den derzeit 'bekannten' Specs - daß der Chip NV die Performancekrone zumindest für kurze Zeit! entreißen kann. Daß ein kurzzeitiger Vorsprung nicht über Nacht die gesamte 3D-Landschaft ändern kann, das hatte ich bereits versucht, dir einzugestehen.
Stimme Dir soweit zu, aber dazu weiter unten mehr !
;-)

@all

Wer glaubt, daß man einen neuen Chip (oder gar eine 'Revolution') mal so eben aus der Tasche zaubert, der sollte sich wirklich mal ernsthaft mit großen Unternehemen und ihren Entwicklungsabteilungen auseinander setzen.

So bin ich mir ziemlich sicher, daß nVidia sehr genau weiß, was ATI da demnächst ankündigen wird und sich schon laaaaange darauf vorbereitet hat. Auch ist der P10 von 3DLabs keine wirkliche Überraschung, im Zeitalter progrtammierbarer Vertex- und Pixel-Shader. Nein, er ist geradezu die logische Konsequenz, aber u.U. ein bischen verfrüht. Denn bei aller Flexibilität des Chip-Designs sollte man nicht außer acht lessen, daß dann die gesamte 'Intelligenz' in den Treibern zu suchen ist. Wenn also ein Chip mit 60Mio+ Transistoren schon als komplex erscheint... wie komplex soll dann ein Treiber sein, der eine voll programmierbare 'VPU' ansprechen muß ?

Ein heheres Zeil, aber noch lange nicht realisiert. Auf dem Papier schaut alles immer sehr gut aus, aber erst die Praxis wird zeigen, ob es auch umzusetzen ist. Zumal 3DLabs bisher nur wenig mit dem Gamer-Segment zu tun gehabt hat.

-

Wie dem auch sei, eine Chipentwicklung dürftre so mit 3 - 4 Jahren zu Buche schlagen. Also 'mal eben' einen neuen (revolutionären) Chip entwicklen is nich' !

nVidia ist zeimlich neu im Geschäft (im Vergleich zu den anderen ala Matrox und ATI - auch wenn HOT dies anders sieht ;-). Aber mit ungeheurer Entwicklungs- und Marketing-Leistung ist es ihnen gelungen einen festen Platz in Grafik-/Consumer-Geschäft zu besetzen. Nich zuletzt dadurch, daß sie mit Abstand die größte (und teuerste) Entwicklungsabteilung besitzen, welche nach dem 3dfx-Untergang (ein 'Newcomer' der es nicht schaffte !) so ca. 120+ hochklassige Entwickler umfaßt. Dort wird parallel gearbeitet, so werkeln die einen noch an dem Feinschliff des demnächst erscheinenden Produktes, während die anderen schon an dem Chip für 'übermorgen' arbeiten.

Man hat nVidia vorgeworfen, daß es niemals möglich sei, solch teure Grafikkarten an den Markt zu bringen und dort zu etwablieren. Sie haben aber bewiesen, daß es geht (mit großem Erfolg sogar), auch weil sie es nicht übertrieben haben und die Produktpreise so ausgelegt haben, daß es der Markt tragen konnte. So war eine gf2ultra schon sehr hart an der Grenze (oder sogar schon darüber hinaus), aber dieses Produkt war auch nur ein Lückenbüsser und sollte den Ruf, wie auch die Marktpräsenz nVidia's stabilisieren, was dann ja auch der Fall war. So war eine gf3 für 900 Mäker (ca. 460 € ;-) nicht wirklich teuer, wenn man bedenkt, daß eine V2-SLI mit weit über 1000DM zu buche geschlagen hat und die gf2ultra zuletzt gar mit 1400DM dotiert (und gekauft !) wurde.

Das ist auch der Grund, warum ich mir selbst dann nicht vorstellen könnte, daß Matrox Erfolg hat, wenn sie ein (zur Zeit !) wirklich überlegenes Produkt an den Markt bringen. Matrox hat nun nicht gerade den Ruf, besionders günstig zu sein, auch sind sie strukturell nicht so besonders gut auf den Consumer-Markt ausgelegt (wie ATI übrigens auch, wie man ja am R8500-Launch gesehen hat). Insofern könnte es sehr gut sein, daß sie zwar ein revolutionäres Produkt ankündigen werden, es aber in breiter Masse (wenn überhaupt) erst sehr viel später kommen wird, wenn ATI und nVidia ihren Next-Gen-Chip präsentieren. Auch wird er (Matrox-like) sehr viel Geld kosten (wie wohl auch der P10, der zeitlich noch gar nicht eingeordnet werden kann). Aber eben, nix genaues weiß man nicht, also abwarten...

Daß man mit solchen High-End-Chips nicht viel verdienen kann, ist klar (was auf die gf3 allerdings nicht zugetroffen hat !), so wird sich Martox (und auch Creative) für diesen Zweck schon etwas 'zurechtgelegt' haben. Auch das werden wir sehen...

-

Was ich nun damit sagen will ?

NICHTS, aber auch gar nichts steht heute fest !
Auch dann nicht, wenn Matrox jetzt etwas ähnlich 'revolutionäres' ankündigt, wie vor kurzem Creative.

Niemand weiß wirklich, was da demnächst von ATI und nVidia kommen wird, denn auch diese legen sich zur Zeit sehr weit aus dem Fenster, aber merkwürdiger Weise ist darüber noch so gut, wie nichts bekannt.

Es könnte also gut sein, daß von einem der beiden (oder gar von beiden gleichzeitg) etwas kommen wird, was die jetzigen Ankündiger wie Scharlatane aussehen lassen wird.

-

Der einzige Unterschied ist heute, daß nVidia nicht die erste Firma ist, die 'revolutionäres' ankündigt, sondern diesmal allen anderen den Vortritt läßt (ganz entscheidend anders, als bei gf1 und gf3 !). Was ich persönlich sogar sehr geschickt finde !

Alle anderen kommen jetzt nach und nach mit 'ihren' Revolutionen, so daß sie sich gegenseitig die Schau stehlen. nVidia wartet erst einmal ganz gelassen ab. Wenn sich die ganze Aufregung dann etwas gelegt hat und klar wird, daß diese 'Revolutionen' noch etwas auf sich warten lassen, wird nVidia das Marketing-As aus dem Ärmel ziehen und die Bome platzen lassen.

Der Markt ist schnell vergeßlich, denn wenn sie es dann schaffen, den Ankündigungen recht schnell auch Produkte folgen zu lassen, dann haben sie (wieder mal) gewonnen...

Letztgenanntes ist natürlcih reine Spekulation, aber würde gut in das Gesamtgeschehen passen. Auch würde das wieder mal zeigen, inwieweit nVidia in Sachen Marketing den anderen überlegen ist.

Und wenn ATI nur ein wenig in dieser Richtung gelernt hat, wied dies mit Sicherheit ein spannender Herbst !

In diesem Sinne

Razor

nocturne
2002-05-10, 21:53:53
Originally posted by Razor
Der einzige Unterschied ist heute, daß nVidia nicht die erste Firma ist, die 'revolutionäres' ankündigt, sondern diesmal allen anderen den Vortritt läßt (ganz entscheidend anders, als bei gf1 und gf3 !). Was ich persönlich sogar sehr geschickt finde !

Alle anderen kommen jetzt nach und nach mit 'ihren' Revolutionen, so daß sie sich gegenseitig die Schau stehlen. nVidia wartet erst einmal ganz gelassen ab. Wenn sich die ganze Aufregung dann etwas gelegt hat und klar wird, daß diese 'Revolutionen' noch etwas auf sich warten lassen, wird nVidia das Marketing-As aus dem Ärmel ziehen und die Bome platzen lassen.

Der Markt ist schnell vergeßlich, denn wenn sie es dann schaffen, den Ankündigungen recht schnell auch Produkte folgen zu lassen, dann haben sie (wieder mal) gewonnen...


Ganz Deiner Meinung. Abgesehen davon hat es nVidia einfach nicht nötig, schon ewig lange vorher Marketing-Hype um nicht erhältliche Produkte zu produzieren. Schliesslich sind sie an der Spitze und haben die schnellsten Karten, die man kaufen kann. Und die wollen sie natürlich lieber verkaufen als Vaporware-Seifenblasen so wie die Konkurrenz.

aths
2002-05-10, 23:21:41
Das ändert nichts daran, dass nV voraussichtlich für eine Weile entthrohnt wird. Ich wundere mich, dass einige an ein Naturgesetz zu glauben scheinen, dass nV immer die schnellsten Chips anbieten würde.

jedi
2002-05-11, 00:12:00
Originally posted by aths
Das ändert nichts daran, dass nV voraussichtlich für eine Weile entthrohnt wird.
Dieser Gedanke scheint aths ja mächtig aufzugeilen. *eg*

Erinnert mich an den Matrox G200 damals. Der wurde als Riva128/Voodoo-Killer gehypt, doch 2 Monate später kam der TNT und übernahm gelassen die Führung.

Ausserdem ist Matrox momentan nur auf dem Hype-Thron. Sie kündigen ihre Vaporware bisher nur früher an als so mancher Konkurrent.

Erinnert mich an die damalige Ankündigung des S3 Savage 2000. Der wurde mit Gewalt exakt einen Tag früher angekündigt als der GeForce1, weil S3 unbedingt als erster einen T&L-Chip ankündigen wollte. Wie gut das funktioniert hat und was aus S3 geworden ist, wissen wir ja.

Quasar
2002-05-11, 00:19:30
Ist doch auch ok, wenn mal andere schneller sind, so ist das eben. Wenn nV dann nichts entgegnen kann, werden sie über kurz oder lang eben untergehen.

Die besseren werden überleben und um unsere Kohle konkurrieren.

ernesto.che
2002-05-11, 00:27:40
Originally posted by jedi

Dieser Gedanke scheint aths ja mächtig aufzugeilen. *eg*

Erinnert mich an den Matrox G200 damals. Der wurde als Riva128/Voodoo-Killer gehypt, doch 2 Monate später kam der TNT und übernahm gelassen die Führung.

Ausserdem ist Matrox momentan nur auf dem Hype-Thron. Sie kündigen ihre Vaporware bisher nur früher an als so mancher Konkurrent.

Erinnert mich an die damalige Ankündigung des S3 Savage 2000. Der wurde mit Gewalt exakt einen Tag früher angekündigt als der GeForce1, weil S3 unbedingt als erster einen T&L-Chip ankündigen wollte. Wie gut das funktioniert hat und was aus S3 geworden ist, wissen wir ja.

Ever heard about SLI? :D
Und gegen eine Banshee hat die TNT auch tw. verkackt :D

ow
2002-05-11, 01:10:24
Originally posted by ernesto.che


Und gegen eine Banshee hat die TNT auch tw. verkackt :D

Nein, die TNT ist ein gutes Stück schneller. Und hat die besseren Treiber.

ernesto.che
2002-05-11, 01:20:05
Originally posted by ow


Und hat die besseren Treiber. Soll das ein Frage darstellen?
Und du scheinst sämtliche Glide Spiele vergessen zu haben.

aths
2002-05-11, 01:20:39
ow,

gegen Voodoo2 war TNT aber keine Konkurrenz. (Aus Gamer-Sicht.) Voodoo3 wiederum war schneller als die (später releaste) TNT2. ((Damals war die Welt noch in Ordnung..))

Quasar
2002-05-11, 01:37:08
Ja...damals. Als man für 1200DM noch nichteinmal ein 2D-Bild auf den Monitor bekam. Und die V2(-SLI) jede Textur, die auch nur in der Nähe eines ihrer 6 Chips durch irgendeinen Bus rauschte gnadenlos verschmierte (Hey, Quincunx ist die 3Dfx-Technik, die angeblich im nV20 enthalten ist...).

Das waren noch Zeiten....hauptsache nVidia war noch kein Marktführer...

StefanV
2002-05-11, 01:37:28
Originally posted by ow


Nein, die TNT ist ein gutes Stück schneller. Und hat die besseren Treiber.

LOL

Damals wurden alle Games noch auf 3DFX HW geschrieben!!

Das war also scheiß egal, wie scheiße die Treiber der Banshee waren (zu der ich bald auch was sagen kann!!)

Dennoch gabs kaum Probleme mit dieser Karte, seltsam :|

ow
2002-05-11, 01:38:44
Nein aths, bei gleichen grafischen Einstellungen waren sowohl TNT schneller als Banshee als auch TNT2 schneller als V3. Banshee hab ich erst gestern auf meinem XP1700 getestet. Lief gar nicht schlecht, aber die TNT holt noch ein Stück mehr raus.

3DM2k 16Bit, Banshee/TNT:

640: 3038/3742
800: 2101/2793
1024: 1459/2066

3dM2k1 16Bit, Banshee/TNT

640: 1705/2001
800: 1423/1654
1024: 1093/1224


Q3 normal, demo001 640x16 Bit

Banshee: 45fps, TNT: 50fps

Quasar
2002-05-11, 01:40:36
Obacht....ich freu mich schon auf den ersten, der TnL-Optimierung als Gegenargument gegen die 3DMark ins Feld führt :lol:

Wo sich AFAIR die Überlegenheit der nV-Treiber immer schon zeigte, war die Quake2-Crusher Demo. Seltsamerweise kam damit kaum eine andere Karte so gut zurecht, wie die mit nV-Chips, auch wenn sie im Demo1.dm2 schneller gewesen sein mag.

ow
2002-05-11, 01:41:55
Originally posted by Stefan Payne


LOL

Damals wurden alle Games noch auf 3DFX HW geschrieben!!

Das war also scheiß egal, wie scheiße die Treiber der Banshee waren (zu der ich bald auch was sagen kann!!)

Dennoch gabs kaum Probleme mit dieser Karte, seltsam :|


LOL


Ich hatte GESTERN noch die Banshee im Rechner.

Treiber: D3D grauenvoll, OGL brauchbar mit leichten Fehlern (wieso vergisst der 3dfx ICD in vielen Frames das MG in RTCW zu rendern???).

ow
2002-05-11, 01:46:03
Originally posted by Quasar
Obacht....ich freu mich schon auf den ersten, der TnL-Optimierung als Gegenargument gegen die 3DMark ins Feld führt :lol:

Wo sich AFAIR die Überlegenheit der nV-Treiber immer schon zeigte, war die Quake2-Crusher Demo. Seltsamerweise kam damit kaum eine andere Karte so gut zurecht, wie die mit nV-Chips, auch wenn sie im Demo1.dm2 schneller gewesen sein mag.


Ich auch.:lol:

3dfx hätte sich eher im Profi-OGL Sektor versuchen sollen.
Da schneidet die Banshee erstaunlich gut ab.

Banshee:

# OpenGL Benchmark version 1.6.1
# quarter mode
# function auto check mode

Vendor : 3Dfx Interactive Inc.
Renderer : 3Dfx/Voodoo Banshee (tm)/1 TMU/16 MB SGRAM/3DNow!/ICD (Nov 2 2000)
Version : 1.1.0
Extensions : GL_EXT_abgr
GL_EXT_bgra
GL_EXT_clip_volume_hint
GL_EXT_compiled_vertex_array
GL_EXT_packed_pixels
GL_EXT_point_parameters
GL_EXT_stencil_wrap
GL_EXT_texture_env_add
GL_EXT_vertex_array
GL_SGIS_texture_edge_clamp
GL_EXT_paletted_texture
GL_EXT_shared_texture_palette
WGL_EXT_extensions_string
WGL_3DFX_gamma_control
WGL_EXT_swap_control
WGL_ARB_extensions_string

# 3D testing environment (double buffer)
RED Bits : 5
GREEN Bits : 6
BLUE Bits : 5
DEPTH Bits : 16
STENCIL Bits : 8
ACCUM_RED Bits : 16
ACCUM_GREEN Bits : 16
ACCUM_BLUE Bits : 16

# 2D testing environment (single buffer)
RED Bits : 5
GREEN Bits : 6
BLUE Bits : 5

# result : 100.0 or higher is best

3D swap_buffer : 1988.705144

3D lines : 119.031463
3D lines fog : 109.263958
3D lines smooth : 13.046408
3D points : 241.223448
3D points fog : 223.929989
3D wire : 201.882100
3D wire fog : 175.936963
3D polygon color smooth : 89.749066
3D polygon color : 476.304410
3D polygon color fog : 282.458984
3D vertex color : 435.839228
3D vertex color fog : 263.635963
3D stencil buffer : 10.252687
3D accumlation buffer : 26.774511
3D blur : 11.748541
3D flat shading : 399.213219
3D smooth shading : 211.850616
3D spot light : 212.643723
3D T-Map GL_CLAMP fast : 398.914617
3D T-Map GL_CLAMP real : 395.746233
3D T-Map GL_REPEAT fast : 392.417826
3D T-Map GL_REPEAT real : 388.117954


TNT:

# OpenGL Benchmark version 1.6.1
# quarter mode
# function auto check mode

Vendor : NVIDIA Corporation
Renderer : RIVA TNT/PCI/3DNOW!
Version : 1.3.1
Extensions : GL_ARB_imaging
GL_ARB_multitexture
GL_ARB_texture_env_add
GL_ARB_transpose_matrix
GL_EXT_abgr
GL_EXT_bgra
GL_EXT_compiled_vertex_array
GL_EXT_draw_range_elements
GL_EXT_fog_coord
GL_EXT_multi_draw_arrays
GL_EXT_packed_pixels
GL_EXT_point_parameters
GL_EXT_rescale_normal
GL_EXT_secondary_color
GL_EXT_separate_specular_color
GL_EXT_stencil_wrap
GL_EXT_texture_edge_clamp
GL_EXT_texture_env_add
GL_EXT_texture_env_combine
GL_EXT_texture_lod_bias
GL_EXT_texture_object
GL_EXT_vertex_array
GL_EXT_vertex_weighting
GL_IBM_texture_mirrored_repeat
GL_KTX_buffer_region
GL_NV_blend_square
GL_NV_evaluators
GL_NV_fog_distance
GL_NV_packed_depth_stencil
GL_NV_texgen_reflection
GL_NV_texture_env_combine4
GL_WIN_swap_hint
WGL_EXT_swap_control

# 3D testing environment (double buffer)
RED Bits : 5
GREEN Bits : 6
BLUE Bits : 5
DEPTH Bits : 16
STENCIL Bits : 0
ACCUM_RED Bits : 16
ACCUM_GREEN Bits : 16
ACCUM_BLUE Bits : 16

# 2D testing environment (single buffer)
RED Bits : 5
GREEN Bits : 6
BLUE Bits : 5

# result : 100.0 or higher is best

3D swap_buffer : 141.735507

3D lines : 44.835821
3D lines fog : 44.966775
3D lines smooth : 38.847414
3D points : 86.612356
3D points fog : 86.420544
3D wire : 87.195120
3D wire fog : 86.920362
3D polygon color smooth : 201.067420
3D polygon color : 239.938690
3D polygon color fog : 239.228783
3D vertex color : 242.839243
3D vertex color fog : 246.382914
3D stencil buffer : skipped
3D accumlation buffer : 19.078155
3D blur : 14.463395
3D flat shading : 219.435777
3D smooth shading : 219.835497
3D spot light : 231.335076
3D T-Map GL_CLAMP fast : 248.478159
3D T-Map GL_CLAMP real : 250.143358
3D T-Map GL_REPEAT fast : 240.905152
3D T-Map GL_REPEAT real : 232.617927

StefanV
2002-05-11, 01:47:00
Originally posted by ow

Ich hatte GESTERN noch die Banshee im Rechner.

Treiber: D3D grauenvoll, OGL brauchbar mit leichten Fehlern (wieso vergisst der 3dfx ICD in vielen Frames das MG in RTCW zu rendern???).


LOL

Sag mal, welchen Sinn macht das eine Banshee mit aktuellen Titeln zu benchen??

Wenig bis garkeinen??

Was hältst du, wenn du die Karten mit den Spielen Benchst, dies damals gab??

+1 Jahr 'Fenster'???

Bei der Banshee also alle Titel aus dem Jahre 1998 und 1999, mit gutem Willen auch noch ein paar 2k Titel...

Ich kann ja auch mal wieder meine Riva 128 rausholen, mal sehen wie scheiße die läuft...

Ach ja, stimmt ja, 3DMark 2001 startet ja garnicht erst...

ernesto.che
2002-05-11, 01:47:54
Originally posted by Quasar
Ja...damals. Als man für 1200DM noch nichteinmal ein 2D-Bild auf den Monitor bekam. Und die V2(-SLI) jede Textur, die auch nur in der Nähe eines ihrer 6 Chips durch irgendeinen Bus rauschte gnadenlos verschmierte (Hey, Quincunx ist die 3Dfx-Technik, die angeblich im nV20 enthalten ist...).

Das waren noch Zeiten....hauptsache nVidia war noch kein Marktführer...
Darum geht es nicht. Es war damals aber dir mit Abstand beste Gamer Lösung. Aber du hast natürlich aus Überzeugung bis zum Erscheinen des TNT mit dem grandiosen NV 1 gespielt ;)

ow
2002-05-11, 01:50:04
Originally posted by Quasar
Obacht....ich freu mich schon auf den ersten, der TnL-Optimierung als Gegenargument gegen die 3DMark ins Feld führt :lol:

Wo sich AFAIR die Überlegenheit der nV-Treiber immer schon zeigte, war die Quake2-Crusher Demo. Seltsamerweise kam damit kaum eine andere Karte so gut zurecht, wie die mit nV-Chips, auch wenn sie im Demo1.dm2 schneller gewesen sein mag.


Vorsicht;)

Hab noch nicht alle meine gestrigen Banshee Benches ausgewertet, aber der Polygondurchsatz des Chips ist sehr hoch.
Siehst du oben auch im 3DM2k.
Die Banshee kommt auch mit komplexeren Szenen gut zurecht.

ow
2002-05-11, 01:51:25
Originally posted by Stefan Payne



LOL

Sag mal, welchen Sinn macht das eine Banshee mit aktuellen Titeln zu benchen??




Denselben wie auch bei allen aktuellen Karten: Man ermittlet ihre Leistung.

StefanV
2002-05-11, 01:51:47
Originally posted by ernesto.che

Darum geht es nicht. Es war damals aber dir mit Abstand beste Gamer Lösung. Aber du hast natürlich aus Überzeugung bis zum Erscheinen des TNT mit dem grandiosen NV 1 gespielt ;)

Zwischenzeitlich wurde auch die NV3 releast (Riva128)...

War ein Bescheidener Chip mit miesen Treibern, der 'ab und an' fehler verursacht hat...

StefanV
2002-05-11, 01:54:07
Originally posted by ow



Denselben wie auch bei allen aktuellen Karten: Man ermittlet ihre Leistung.

Meinst du nicht, daß die Programme 'eventuell' nicht laufen könnten??

Oder Fehler verursachen??

Aber eine Karte aus dem Jahre 1998 ist Mist, wenn sie mit Spielen aus dem Jahre 2005 nicht läuft, und ihr Treiber aus dem Jahre 1999 zur Ferfügung stehen...

ernesto.che
2002-05-11, 01:55:09
Originally posted by ow



Denselben wie auch bei allen aktuellen Karten: Man ermittlet ihre Leistung.
Nein, es macht weniger Sinn. Mit der Banshee wollte 3dfx zeigen, das sie auch gut 2D Einheiten bauen können. Das Alliance Desaster der Rush wiederholte sich also nicht.
Und Glide dominierte damals. DirectX 5 war eine reine Krankheit, es gab ja auch für fast alles Glide Patches. Nur damit haben die Magazine halt leider nicht getestet, also dank Glide Verzicht einge fps verloren.
Und ein 3dmark 2001 hat nicht wirklich glide support ;)

ernesto.che
2002-05-11, 01:56:17
Originally posted by Stefan Payne


Zwischenzeitlich wurde auch die NV3 releast (Riva128)...

War ein Bescheidener Chip mit miesen Treibern, der 'ab und an' fehler verursacht hat...
oh stimmt ja, den scharfzeichner hatte ich so eben vergessen. aber bei der performance genausp wenig schlimm, wie eine voodoo rush zu vergessen...

ow
2002-05-11, 02:01:27
Originally posted by Stefan Payne


Meinst du nicht, daß die Programme 'eventuell' nicht laufen könnten??

Oder Fehler verursachen??




Nein meine ich nicht.
RTCW läuft sogar fehlerfrei auf meinem uralten Permedia2 im Rahmen dessen, was dieser Chip darstellen kann.

Im übrigen startet der Permedia2 auch alle (bis auf 2) Kyro D3D Demos und läuft absturzfrei dadurch. Sogar FSAA funzt in der D3D Tree Demo.:D

Quasar
2002-05-11, 02:24:04
@ow:
Vorsicht ist immer geboten, aber aus der guten alten Zeit meine ich mich noch zu erinnern, daß, obwohl in Quake2 die Voodoo immer eine Macht darstellte, sie mit der Crusher-Demo überhaupt nicht gut zurechtkam. Ich vermute mal, daß es an den Partikeln der Rocket Launcher (?) und Explosionen lag. Ich werde es ja bald sehen :)

@ernesto.che:
Aus Überzeugung hätte ich das wohl tun müssen, da sie ein Konzept besaß, das ihrer Zeit weit voraus war (keine schnöde Polys als Geometrie-Basis!), nur eben nicht mit dem bösen bösen DirectX von Microsoft vereinbar.
Leider war auch die Rohleistung noch viel zu gering, um das Konzept wirkungsvoll umsetzen zu können. In gewisser Weise ein ähnliches Schicksal, wie es auch dem Pyramid3D von den Bitboys (Ja, es gab funktionsfähige Samples), einem Ur-Shader, der weitgehend programmierbar war, dem Rendition v2200 (durch Mikrocode-Patches auch angeblich in Grenzen programmierbar) und der VSA-100 Linie ergangen ist.
Allerdings mit dem Unterschied, daß nV sich davon erholt hat und heute Marktführer und Besitzer der "Assets" von 3dfx ist und Rendition an Micron verkauft und nie wieder gesehen wurde.


Um auf deine Anspielung zu antworten, ich hatte 1998 tatsächlich eine Riva128 und dazu eine Voodoo Graphics. Später eine Voodoo2, die dann aber nach dem Kauf der TNT von CL zunehmend arbeitslos wurde, besonders, nachdem der "unified" herausgekommen war, ein sehr brauchbarer GLide-Wrapper.

nocturne
2002-05-11, 02:34:00
Originally posted by ow
Nein, die TNT ist ein gutes Stück schneller. Und hat die besseren Treiber.

Sowieso. Die Banshee konnte (im Gegensatz zum TNT) ja noch nicht mal single-pass-Multitexturing. Ihr müsst nicht immer jeden Anti-nVidia-Kommentar von aths so ernst nehmen. Ist eben noch sein übriggebliebener Hass aus seinem alten 3dfx-vs-nV kalten Krieg.

ernesto.che
2002-05-11, 02:37:34
Originally posted by nocturne


Sowieso. Die Banshee konnte (im Gegensatz zum TNT) ja noch nicht mal single-pass-Multitexturing. Ihr müsst nicht immer jeden Anti-nVidia-Kommentar von aths so ernst nehmen. Ist eben noch sein übriggebliebener Hass aus seinem alten 3dfx-vs-nV kalten Krieg.
Du weißt, welche Karte er im Gehäuse hat?
Es ist übrigens meiner Meinung nach nicht Anti-Nvidia. Er bejubelt nur nicht jede Fickpisse, die auf einer Nvidia Karte draufsteht. Das dürfte wohl auch sein gutes Recht sein.

Desti
2002-05-11, 02:41:37
Originally posted by ow
Nein aths, bei gleichen grafischen Einstellungen waren sowohl TNT schneller als Banshee als auch TNT2 schneller als V3. Banshee hab ich erst gestern auf meinem XP1700 getestet. Lief gar nicht schlecht, aber die TNT holt noch ein Stück mehr raus.

3DM2k 16Bit, Banshee/TNT:

640: 3038/3742
800: 2101/2793
1024: 1459/2066

3dM2k1 16Bit, Banshee/TNT

640: 1705/2001
800: 1423/1654
1024: 1093/1224


Q3 normal, demo001 640x16 Bit

Banshee: 45fps, TNT: 50fps

Hast du irgend eine optimierte dll benutzt? Damit sollte die Banshee (btw, welche?) die TNT überholen können (Q2/3). Hast du mal UT gebencht, glide vs d3d vs openGL ?

ernesto.che
2002-05-11, 02:43:21
Originally posted by Desti


Hast du irgend eine optimierte dll benutzt? Damit sollte die Banshee (btw, welche?) die TNT überholen können (Q2/3). Hast du mal UT gebencht, glide vs d3d vs openGL ?
Unter Glide bencht man nicht! :D Ich frage mich auch, warum immer dieses hässliche Quake genommen wird.

Quasar
2002-05-11, 02:45:34
Dann frage ich mich im Gegenzug aber, warum man für die Banshee eine "optimierte" DLL nehmen sollte...???

ernesto.che
2002-05-11, 02:49:28
Originally posted by Quasar
Dann frage ich mich im Gegenzug aber, warum man für die Banshee eine "optimierte" DLL nehmen sollte...??? Das ist ein 'weitgehender' Treiber.
Warum soll man die nicht nehmen, wenn die Banshee auf diese DLL ausgelegt ist? Das war ja auch nicht irgendeine Fan Datei. Also nehmen, basta.

Quasar
2002-05-11, 02:53:28
Na, was kann ich da noch für Argumente bringen, wenn du das so [BASTA] entscheidest, wird das wohl so sein.

Quasar
2002-05-11, 02:54:55
Originally posted by ernesto.che

Unter Glide bencht man nicht! :D Ich frage mich auch, warum immer dieses hässliche Quake genommen wird.

Vielleicht weil Glide keinen fairen Vergleich zuläßt, indem einfach einige Effekt anders dargestellt werden oder ganz unterschlagen sind?


Außerdem hat ow doch nicht nur Quake, sondern auch beide 3DMarks genommen...

ernesto.che
2002-05-11, 02:56:41
Originally posted by Quasar
Na, was kann ich da noch für Argumente bringen, wenn du das so [BASTA] entscheidest, wird das wohl so sein. *lol* nun sag schon! Ich reagiere nur immer sehr empfindlich, wenn Glide und auch optimierte DLL Dateien bei Benchmarks einfach so wegfallen sollen. Damals war halt noch nicht alles so plug&play. und schon gar nicht bei 3dfx, aber es zählt doch was hinten rauskommt. Und heute optmiert Nvidia wie blöde auf 3dmark. wer sagt, das da nicht auch nur dafür optmierte dll teile vorkommen?

ernesto.che
2002-05-11, 02:58:33
Originally posted by Quasar


Vielleicht weil Glide keinen fairen Vergleich zuläßt, indem einfach einige Effekt anders dargestellt werden oder ganz unterschlagen sind?


Außerdem hat ow doch nicht nur Quake, sondern auch beide 3DMarks genommen... der letzte wirklich für alle karten faire bench war 3dmark 99max. den sehe ich da aber nicht. zwar hat ne tnt kein t&l, aber auf nvidia ist der trotzdem zugeschnitten.

ernesto.che
2002-05-11, 03:01:12
Originally posted by Quasar


Vielleicht weil Glide keinen fairen Vergleich zuläßt, indem einfach einige Effekt anders dargestellt werden oder ganz unterschlagen sind?


Außerdem hat ow doch nicht nur Quake, sondern auch beide 3DMarks genommen...
dann darf aber auch nicht mit Dx8 T&L gebencht werden.

Quasar
2002-05-11, 03:05:34
Auf welchen Teil des Quotes bezieht sich deine Aussage?

ernesto.che
2002-05-11, 03:07:41
Originally posted by Quasar
Auf welchen Teil des Quotes bezieht sich deine Aussage?
auf den ersten, als Gegenpol zu deiner Glide Aussage.

Quasar
2002-05-11, 03:12:37
1tens, es klingt ziemlich lächerlich, wenn du behauptest, die neueren 3DMarks seinen auf nVidia zugeschnitten, und zwar unabhängig vom TnL. Meinst du allen Ernstes, daß Madonion für jeden Chip und jede Speichergröße eigens einen Codepath eingebaut haben?

Sorry, aber das klingt, als würdest du jetzt ausreden erfinden.
Trotzdem sollte man den 3DMarkMAX auch miteinbeziehen.

2tens, DX8-Effekte haben die Angewohnheit, die Grafik eher aufzuwerten, als sie zu simplifizieren, im Gegensatz zu GLide.

ernesto.che
2002-05-11, 03:17:42
Originally posted by Quasar
1tens, es klingt ziemlich lächerlich, wenn du behauptest, die neueren 3DMarks seinen auf nVidia zugeschnitten, und zwar unabhängig vom TnL. Meinst du allen Ernstes, daß Madonion für jeden Chip und jede Speichergröße eigens einen Codepath eingebaut haben?

Sorry, aber das klingt, als würdest du jetzt ausreden erfinden.
Trotzdem sollte man den 3DMarkMAX auch miteinbeziehen.

2tens, DX8-Effekte haben die Angewohnheit, die Grafik eher aufzuwerten, als sie zu simplifizieren, im Gegensatz zu GLide.
zu 1. natürlich nicht auf jeden einzelnen genau zugeschnitten, aber so scheußlich unterschiedlich sind Nvidia Chips nun auch wieder nicht.
Auf 3DMark bestehe ich, wenn 3DMark denn überhaupt verwendet werden sollte.
Bei gleichen Einstellungen muss ein System ohne T&L - wenn denn so vom Programmierer vorgesehen - diese Effekte in der CPU berechnen lassen. Also nicht vergleichbar.

Quasar
2002-05-11, 03:21:36
Pixelshader-Effekte werden nicht emuliert, da sie zu aufwendig sind. Nur Vertex-Shader...

Aber darum geht's mir jetzt auch nicht, da weder TNT noch Banshee auch nur entfernt etwas damit zu tun haben.

Ich finde, für TnL-lose Karten und Chips sind auch die neueren 3DMarks ein fairer Vergleich.

Hast du bessere Vorschläge?

Am besten womöglich Turok, was?

ernesto.che
2002-05-11, 03:24:25
Originally posted by Quasar
Pixelshader-Effekte werden nicht emuliert, da sie zu aufwendig sind. Nur Vertex-Shader...

Aber darum geht's mir jetzt auch nicht, da weder TNT noch Banshee auch nur entfernt etwas damit zu tun haben.

Ich finde, für TnL-lose Karten und Chips sind auch die neueren 3DMarks ein fairer Vergleich.

Hast du bessere Vorschläge?

Am besten womöglich Turok, was? *lol* nein, Turok wäre aber ein ganz gutes Pflaster für die Banshee;)
Es ist nur das Problem, das Schader in Spielen beim Erscheinen des 3DMark 2001 in eigentlich keinen Spiel richtig genutzt wurden, alle non-T&L Karten aber auf einmal ungerechtfertigt sehr schlecht aussahen.

Quasar
2002-05-11, 03:26:05
Jajaja, aber es ging um TNT und Banshee. Die haben AFAIK beide keine Shader, also muss bei beiden die CPU ran, fair oder nicht?

ernesto.che
2002-05-11, 03:27:25
Wohl gemerkt eine Banshee mit nur 8MB ;)

Quasar
2002-05-11, 03:29:20
Seit wann hat eine Banshee 8MB???

ernesto.che
2002-05-11, 03:29:28
Originally posted by Quasar
Jajaja, aber es ging um TNT und Banshee. Die haben AFAIK beide keine Shader, also muss bei beiden die CPU ran, fair oder nicht? Da hast du recht *g* der Vergleich TNT/Banshee ist (unter 16bit :D ) prinzipiell fair, jo.

ernesto.che
2002-05-11, 03:30:57
Originally posted by Quasar
Seit wann hat eine Banshee 8MB???

Die 8MB Version ist in Europa nie in den Handel gekommen, wenn doch, dann nur in OEMs.

Quasar
2002-05-11, 03:34:27
Ich werde bei Gelegenheit T-Mark mal ausprobieren. AFAIK skaliert die TNT deutlich besser mit starken CPUs.

Außerdem glaube ich nicht, daß die 8MB hier der Banshee zum Nachteil gereicht haben, da Turok auch auf Voodoo Graphics noch gut lief, und das mit nur 2MB-Texturspeicher.

Was mir an Turok nicht gefällt (im Glide-Modus) ist, das bei D3D ein Nebelschleier über dem Boden liegt, den es in der GLide-Variante nicht gibt. Das meinte ich mit unfairem Vergleich...

ernesto.che
2002-05-11, 03:37:47
Originally posted by Quasar
Ich werde bei Gelegenheit T-Mark mal ausprobieren. AFAIK skaliert die TNT deutlich besser mit starken CPUs.

Außerdem glaube ich nicht, daß die 8MB hier der Banshee zum Nachteil gereicht haben, da Turok auch auf Voodoo Graphics noch gut lief, und das mit nur 2MB-Texturspeicher.

Was mir an Turok nicht gefällt (im Glide-Modus) ist, das bei D3D ein Nebelschleier über dem Boden liegt, den es in der GLide-Variante nicht gibt. Das meinte ich mit unfairem Vergleich...
Das stimmt, TNT und auch TNT 2 habe 'hinten raus' mehr puste. Allerdings für Besitzer einer schwächeren CPU nicht das geschickteste.
Ob es nun ein Nachteil mit 8MB weiß ich nicht, ich denke aber auch, das wenn nur marginal. Hat Turok eigentlich Single Pass Multitexturing unterstützt? Ich kann mich nicht mehr erinnern :(

Quasar
2002-05-11, 03:39:59
Soweit ich weiß, nutzt Turok nur ganz selten MultiTexturing (das Wasser..).

Ansonsten: Du bist ein schlimmer Betrüger!!
Dein Turok-Screenie ist von einem Test, wo die TNT nur mit 70 statt mit 90MHz lief...

So isses richtig:
http://www6.tomshardware.com/graphic/98q3/980818/images/image17a.gif

ernesto.che
2002-05-11, 03:43:53
Originally posted by Quasar
Soweit ich weiß, nutzt Turok nur ganz selten MultiTexturing (das Wasser..).

Ansonsten: Du bist ein schlimmer Betrüger!!
Dein Turok-Screenie ist von einem Test, wo die TNT nur mit 70 statt mit 90MHz lief...

So isses richtig:
http://www6.tomshardware.com/graphic/98q3/980818/images/image17a.gif
Mo Mo Moment mal! Davon weiß ich nichts, das war für mich nirgends sichtbar vermerkt.

Quasar
2002-05-11, 03:47:20
Das steht ein paar Seiten weiter vorne unter "Benchmark Setup"

Ich unterstelle dir auch keine Absicht :)

Und weils so schön ist, noch ein kleiner Nachschlag zum AGP-Texturing
http://www6.tomshardware.com/graphic/98q3/980818/images/image28a.gif

ernesto.che
2002-05-11, 03:49:10
Originally posted by Quasar
Das steht ein paar Seiten weiter vorne unter "Benchmark Setup"

Ich unterstelle dir auch keine Absicht :)

Und weils so schön ist, noch ein kleiner Nachschlag zum AGP-Texturing
http://www6.tomshardware.com/graphic/98q3/980818/images/image28a.gif

Danke :)
NVIDIA RIVA TNT Referenz Treiber:
4.10.01.0032
"Flip on Vsync disabled"
Chip Takt 95 MHz
Memory Takt 112.5 MHz
RAM Typ: SGRAM

steht da bei mir. Ich bezieh mich auf diesen Link http://www.de.tomshardware.com/graphic/98q3/980818/3d-graphic-12.html

Der AGP Performance Bench ist ja schön und gut. Entscheidend ist doch aber das Endergebnis.

Quasar
2002-05-11, 03:52:36
Das wäre dann aber passend zu "meinem" Bild, richtig?

Welches Endergebnis?

ernesto.che
2002-05-11, 03:54:34
Originally posted by Quasar
Das wäre dann aber passend zu "meinem" Bild, richtig?

Welches Bild jetzt *lange Leitung hab*?
Da ich nicht denke, das eine TNT mit 100MHz wesentlich schneller als mit 95MHz ist, dürfte das Endergebnis stimmen, ja

Quasar
2002-05-11, 03:56:32
Eigentlich zu beiden...
Oh, das hab ich ganz übersehen. Ich dachte, die TNT wäre nominal mit 90MHz gelaufen, nicht mit 100 und erst recht nicht mit 95MHz.

ernesto.che
2002-05-11, 04:04:41
Originally posted by Quasar
Eigentlich zu beiden...
Oh, das hab ich ganz übersehen. Ich dachte, die TNT wäre nominal mit 90MHz gelaufen, nicht mit 100 und erst recht nicht mit 95MHz.
Im Test mit 95MHz, augelifert wurde er mit 90Mhz Chip und 110Mhz Speicher

ernesto.che
2002-05-11, 04:06:12
Originally posted by ernesto.che

Im Test mit 95MHz/112,5MHz, augelifert wurde er mit 90Mhz Chip und 110Mhz Speicher

Quasar
2002-05-11, 04:06:43
Siehste, mein ich doch.

Ich geh' jetzt pennen.

ernesto.che
2002-05-11, 04:10:02
Originally posted by Quasar
Siehste, mein ich doch.

Ich geh' jetzt pennen. Ähem - der Test fand mit einer höheren Taktung statt als ausgeliefert wurde. Somit dürfte nsie späteren Ergebnisse schlechter ausgefallen sein.
Gute Nacht!

Razor
2002-05-11, 08:35:24
@aths

"Das ändert nichts daran, dass nV voraussichtlich für eine Weile entthrohnt wird. Ich wundere mich, dass einige an ein Naturgesetz zu glauben scheinen, dass nV immer die schnellsten Chips anbieten würde."

Hier geht's weniger um ein Naturgesetz, denn um geschicktes Marketing und die zugrunde gelegte Strategie...

Wenn Matrox oder Creative (oder auch ATI) es nicht schaffen lange (!) vor dem Release des NV30 ein Produkt auf den Markt zu bringen, hat es niemals jemanden gegeben der irgendwen 'enttrohnt' hat. 'Enttrohnen' geht nur mit erhältlichen Produkten...

So erklär mir doch bitte, welches Produkt (Regal-Release) denn in nächster Zeit in der Lage sein wird, wen auch immer zu 'entthronen' und vor allem: Woraus schließt Du das ?

@jedi

"Ausserdem ist Matrox momentan nur auf dem Hype-Thron. Sie kündigen ihre Vaporware bisher nur früher an als so mancher Konkurrent."

DAS laß ich zu 100% gelten !
(wollte das nur nicht so deutlich schreiben :D)

@Quasar

"... ich hatte 1998 tatsächlich eine Riva128 und dazu eine Voodoo Graphics. Später eine Voodoo2, die dann aber nach dem Kauf der TNT von CL zunehmend arbeitslos wurde, besonders, nachdem der "unified" herausgekommen war, ein sehr brauchbarer GLide-Wrapper."

Me too !
Mit ein paar kleinen Abweichungen...

Erst S3Trio32, S3Trio64V+, Matrox-Millenium (hab' ich hier noch irgendwo rumliegen), der sich dann eine V1 (Diamond Monster) zugesellte, dann V2 (Diamond Monster II ;-) und ziemlich kurz darauf eine TNT (Diamond Viper 550 TV)...

Das letzgenannte Gespann, war der absolute Hit:
TNT & Voodoo2

Wurde dann erst duch die GFDDR abgelöst (seither werkelt das 'Gespann' im AMD K6/2-300@350 Rechner, welches nicht mit der gfddr zurecht kam), die dann auch 2 Jahre im Rechner verblieb, bis dann von 'nem Jahr meine GF3 kam und auch dieses gute Stück (welches nun neben der Matrox im Schrank liegt) ablöste...

Ja ja, die gute alte Zeit !
;D

@ernesto.che

Herzlichen dank auch, daß Du den Tread ins absolute Abseits gebracht hast !
Was bitte hat eine V2-SLI mit dem Thread-Thema zu tun ?
???

Falls Du es schon vergessen hast: 3dfx ist tot !
Und das wird auch so bleiben...

In diesem Sinne

Razor

TBird
2002-05-11, 09:16:06
:lol:

Was man hier schon wieder alles so liest.
Ich hoffe wir müssen uns nicht auf Artikel über die neue Matrox-Karte der Art: "NVidia von Matrox in Grund und Boden gestampft !!!", "NVidia vernichtend ein für allemal von Matrox geschlagen !!!", "Matrox der einzig wahre König triumphiert und enttrohnt NVidia !!!"
und unten links in der Ecke quasi als Fußnote in 1-Punkt Schrift steht dann: Preis = 800 - 1000€
:rofl:
Toll, da kann ich auch heute schon eine NVidia-"enttrohnende" Karte haben.

Ich hoffe mal dass all diejenigen die sich über NVidias angeblich so teure und unverschämte Preispolitik aufgeregt haben dann auch bei Matrox zuerst die Hände heben wenn sie zeitgleich Ihren Anti-NVidia-Feixtanz aufführen.
Wie war das nochmal mit der Kyro 3 ? Leistung der GF4TI4600 und mehr (natürlich ;)) zum Preis von einer GF4MX420 ? :lol:

Sorry fiel mir nur so beim Lesen dieses Threads ein.
Also nichts für Ungut und schön weiter "diskutieren". ;)

zeckensack
2002-05-11, 09:40:08
Originally posted by ow
Nein aths, bei gleichen grafischen Einstellungen waren sowohl TNT schneller als Banshee als auch TNT2 schneller als V3. Banshee hab ich erst gestern auf meinem XP1700 getestet. Lief gar nicht schlecht, aber die TNT holt noch ein Stück mehr raus.

3DM2k 16Bit, Banshee/TNT:

640: 3038/3742
800: 2101/2793
1024: 1459/2066

3dM2k1 16Bit, Banshee/TNT

640: 1705/2001
800: 1423/1654
1024: 1093/1224


Q3 normal, demo001 640x16 Bit

Banshee: 45fps, TNT: 50fps Ein höchst unfairer Vergleich. Alle diese Benchmarks verwenden Lightmaps für beinahe alles, was sie darstellen.
Single-Texturing Hardware muß hier Mulitpass machen, also salopp gesagt alles doppelt rendern. Doppelte Geometrielast, doppelter Fillrateverbrauch und dazu läuft der zweite Pass auch noch mit aktiviertem Blending.
Jede ST-Graka bricht hier ein. Die Banshee schlägt sich garnicht mal so übel, wenn man die Umstände bedenkt.

Wenn du wirklich einen fairen Architekturvergleich 3dfx/NV durchführen willst, dann hast du IMHO genau drei Möglichkeiten:
1)Riva128 contra Voodoo 1 (gleicher Takt, vergleichbare Speicherbestückung)
2)RivaTNT 8MB contra Voodoo 2 12MB (dito)
3)TNT 2 Ultra contra Voodoo 3 3000/3500

Haarmann
2002-05-11, 10:02:44
Quasar

Ich gehe mit Dir jede Wette ein, dass ne Voodoo3 ne TnT2 und ne Voodoo2 SLI ne TnT im Crusher wegfegt. Ich hatte das "Experiment" früher schon am eigenen PC erfahren ;). Allerdings müssteste bei der CPU Auswahl fair bleiben und keine P4 oder Tualatin verwenden (Voodoo Treiber sind ja nie auf die optimiert worden).

Und man nimmt optimierte DLLs, weils se gibt und für die NV gibts keine (resp es gibt sie, aber keiner von euch würde je nen ogl Bench zulassen, bei welchem mal alle NV, ATI und Konsorten Extensions abgeschaltet sind)... Unreal und UT z.B. sind wie Q1 und Q2 durch Glide spielbar geworden... und daher ists auch zulässig so zu vergleichen. Immerhin ging in Q1 die Gamma auf Voodoo und auf NV nicht. Q2 war richtig gelb im DM1 und nicht so hässlich orange (SW Modus verwendet auch Gelb). Orange machen das leider auch ATI Karten... Es ist also ned nur NVs Mist den man dort ertragen muss.

Zeckensack

Bingo

TBird

Also ne Karte für 1000€ die ne GF4TI4600 in Games schlägt? Bitte ich höre welche das zZ tut.

Unregistered
2002-05-11, 10:03:31
Originally posted by Quasar
Ich werde bei Gelegenheit T-Mark mal ausprobieren. AFAIK skaliert die TNT deutlich besser mit starken CPUs.

Außerdem glaube ich nicht, daß die 8MB hier der Banshee zum Nachteil gereicht haben, da Turok auch auf Voodoo Graphics noch gut lief, und das mit nur 2MB-Texturspeicher.

Was mir an Turok nicht gefällt (im Glide-Modus) ist, das bei D3D ein Nebelschleier über dem Boden liegt, den es in der GLide-Variante nicht gibt. Das meinte ich mit unfairem Vergleich...

Nene der Nebelschleier am Boden passt schon und gehört auch hin.
Das Problem war nur das Turok nie auf die neue Glide Version abgeändert wurde.

Gruss Labberlippe

ow
2002-05-11, 10:59:58
Originally posted by ernesto.che
*lol* nun sag schon! Ich reagiere nur immer sehr empfindlich, wenn Glide und auch optimierte DLL Dateien bei Benchmarks einfach so wegfallen sollen.


Mit irgendwelchen Speed-Hacks um ungleiche Vorraussetzungen zu schaffen fange ich erst gar nicht an. Wenn ich Äpfel mit Birnen vergleichen soll, dann kann ich´s gleich sein lassen.

Falls du auf WickelGL anspielst, der lieferte auch nicht mehr fps als 3dfx´ ICD.

Im übrigen hab ich nicht behauptet, dass die Leistung der Banshee schlecht ist. Sie erreicht aber (insbesondere in Games) meist nicht das Niveau der TNT.

ow
2002-05-11, 11:01:21
Originally posted by ernesto.che
Und heute optmiert Nvidia wie blöde auf 3dmark.


Und stell dir vor, ALLE anderen tun das auch. ALLE!

ow
2002-05-11, 11:03:21
Originally posted by ernesto.che

zu 1. natürlich nicht auf jeden einzelnen genau zugeschnitten, aber so scheußlich unterschiedlich sind Nvidia Chips nun auch wieder nicht.



Welche anderen Chips sind das denn? -> KEINE.

ow
2002-05-11, 11:05:55
*topic bereits abgehandelt*:D

ow
2002-05-11, 11:17:37
Originally posted by zeckensack
Ein höchst unfairer Vergleich. Alle diese Benchmarks verwenden Lightmaps für beinahe alles, was sie darstellen.
Single-Texturing Hardware muß hier Mulitpass machen, also salopp gesagt alles doppelt rendern. Doppelte Geometrielast, doppelter Fillrateverbrauch und dazu läuft der zweite Pass auch noch mit aktiviertem Blending.
Jede ST-Graka bricht hier ein. Die Banshee schlägt sich garnicht mal so übel, wenn man die Umstände bedenkt.

Wenn du wirklich einen fairen Architekturvergleich 3dfx/NV durchführen willst, dann hast du IMHO genau drei Möglichkeiten:
1)Riva128 contra Voodoo 1 (gleicher Takt, vergleichbare Speicherbestückung)
2)RivaTNT 8MB contra Voodoo 2 12MB (dito)
3)TNT 2 Ultra contra Voodoo 3 3000/3500


Da TNT und Banshee direkte Kontrahenten waren ist der Vergleich schon fair. Dass 3dfx den Banshee der 2. TMU beraubt hat ist auch nicht NVs 'Schuld'.
Die V2 scheidet teilweise als Gegner aus, weil es eine Addon Karte ist und dafür AFAIK kein ICD existiert.

Bei allen obigen Vergleichen 3dfx/NV müsste man ausserdem die max. Textursize auf 256^2 begrenzen da sonst die NV Chips benachteiligt werden. Im 3DMark ist das schon gar nicht möglich und daher gesehen sind die Ergebnisse des TNT noch etwas besser einzustufen. Er verarbeitet nämlich mehr Texel als die Banshee.

Quasar
2002-05-11, 11:52:09
Auch wenn ow es teilweise schon gesagt hat:

@ernesto.che
Danke, dir auch!
Takte einfach die TNT 5MHz runter und sie veliert weniger als 5%...so wie ich das gesehen habe, würde das nur einen Sieg für die Banshee in T-Mark Glide bedeuten..

@Zeckensack:
Multipass oder nicht, so etwas gab es auch schon zu Lebzeiten der Banshee, das ist allein ihr Problem.

Exxtreme
2002-05-11, 11:56:23
Originally posted by Quasar

@Zeckensack:
Multipass oder nicht, so etwas gab es auch schon zu Lebzeiten der Banshee, das ist allein ihr Problem.
Wobei es zur Lebzeit der Banshee ein nicht so grosses Manko gewesen ist weil es damals kaum Games gab, die excessiv MT nutzten.

Gruß
Alex

Thowe
2002-05-11, 12:12:50
Originally posted by Quasar
(Hey, Quincunx ist die 3Dfx-Technik, die angeblich im nV20 enthalten ist...).

Endlich, das Geheimnis ist gelüftet. Ich danke dir Quasar, vor allem endlich der nachvollziehbare, da optisch sichtbar, Beweis. :D


Originally posted by ernesto.che
Aber du hast natürlich aus Überzeugung bis zum Erscheinen des TNT mit dem grandiosen NV 1 gespielt ;)

Hey, nix gegen den NV1. Seitdem ich am Donnerstag mal wieder aufgeräumt habe, habe ich doch tatsächlich wieder 2 NV1-Karte. Eine Diamond Edge Original und ein Nachbau. Der Nachbau sogar mit Virtua Fighter Remix und Panzer Dragoon. Die Qualität war damals als die Karte aktuell war schon sehr beeindruckend.


Originally posted by Stefan Payne
Aber eine Karte aus dem Jahre 1998 ist Mist, wenn sie mit Spielen aus dem Jahre 2005 nicht läuft, und ihr Treiber aus dem Jahre 1999 zur Ferfügung stehen...

Wenn die Funktionen der Karte angesprochen werden die diese unterstützt, ggf. der Rest in Software, dann sollte sie funktionieren. Hier spielt das Alter der Karte keinerlei Rolle und der Treiber muss dies in den gesetzten Umfang ermöglichen. Natürlich ist es legetim auch eine alte Karte mit aktuellen Benchmarks zu messen, wüsste nicht was dagegen sprechen sollte.


Originally posted by ow
Sogar FSAA funzt in der D3D Tree Demo.:D

Cool, Slideshow mit 5sec Verzögerung. ;-)



Schöne "Diskussion" hier ;-)

Quasar
2002-05-11, 12:13:47
:lol:

Gerade das damalige 3dfx-Vorzeigespiel, Quake2 sollte dich da schon eines besseren belehren. Dazu alles was auf dieser Engine basierte, Expendable, Incoming sowie eigentlich alles, was danach noch erschien.

Multi-Texturing fängt schon bei mehr als einer Texturschicht an (Lightmaps, Alpha-Effekte usw.).

nocturne
2002-05-11, 13:59:45
Originally posted by TBird
:lol:

Was man hier schon wieder alles so liest.
Ich hoffe wir müssen uns nicht auf Artikel über die neue Matrox-Karte der Art: "NVidia von Matrox in Grund und Boden gestampft !!!", "NVidia vernichtend ein für allemal von Matrox geschlagen !!!", "Matrox der einzig wahre König triumphiert und enttrohnt NVidia !!!"
und unten links in der Ecke quasi als Fußnote in 1-Punkt Schrift steht dann: Preis = 800 - 1000€

Falls unser alter nVidia-Hasser aths die Finger in so einem Artikel hat, könnte das leider passieren. Man merkt seinen Hass ja schon an der Wortwahl und Einseitigkeit seiner Forumsbeiträge... :nono:

Ich hoffe mal dass all diejenigen die sich über NVidias angeblich so teure und unverschämte Preispolitik aufgeregt haben dann auch bei Matrox zuerst die Hände heben wenn sie zeitgleich Ihren Anti-NVidia-Feixtanz aufführen.
Wie war das nochmal mit der Kyro 3 ? Leistung der GF4TI4600 und mehr (natürlich ;)) zum Preis von einer GF4MX420 ? :lol:

Sehr gut beobachtet. ;)
Und die anderen kaufen sich sowieso einen GF4-Ti4200 für 200 EUR.

ernesto.che
2002-05-11, 14:59:40
Originally posted by Razor
@aths

@ernesto.che

Herzlichen dank auch, daß Du den Tread ins absolute Abseits gebracht hast !
Was bitte hat eine V2-SLI mit dem Thread-Thema zu tun ?
???

Falls Du es schon vergessen hast: 3dfx ist tot !
Und das wird auch so bleiben...

In diesem Sinne

Razor

Sag mal, hast du überhaupt den ganzen Thread gelesen? Dann hättest du mitbekommen, das sich der Verlauf so entwickelt hat, ich habe ihn nicht so gelenkt.
Und das 3dfx nicht mehr aktiv ist, hat mich gestern erstmalig erreicht...

ernesto.che
2002-05-11, 15:06:00
Originally posted by nocturne

Falls unser alter nVidia-Hasser aths die Finger in so einem Artikel hat, könnte das leider passieren. Man merkt seinen Hass ja schon an der Wortwahl und Einseitigkeit seiner Forumsbeiträge... :nono:



Du scheinst zu wenig zu lesen...

TBird
2002-05-11, 16:24:40
Originally posted by ernesto.che


Du scheinst zu wenig zu lesen...

Ich glaube schon dass er SEHR SEHR VIEL dazu gelesen hat.

aths
2002-05-11, 16:32:32
nocturne,

du machst dich mit der Behauptung ich würde nVidia hassen, einfach nur lächerlich². Guck mal auf www.aths.net/system welche Karte in meinem PC eingebaut ist. Es ist armseelig, dass du zu solch denunzierenden Mitteln greifst.

ernesto.che
2002-05-11, 16:33:52
Originally posted by aths
nocturne,

du machst dich mit der Behauptung ich würde nVidia hassen, einfach nur lächerlich². Guck mal auf www.aths.net/system welche Karte in meinem PC eingebaut ist. Es ist armseelig, dass du zu solch denunzierenden Mitteln greifst.

Das hatte ich bereits heute Nacht erwähnt, es möchte wohl aber nicht jeder wahr haben.

StefanV
2002-05-11, 17:21:45
Um es offiziell zu machen:
Ich habe momentan eine ELSA GLADIAC 721-TV in meinem Pentium4 Rechner

Dunkeltier
2002-05-11, 17:31:08
AHHHHHHHHHHHHHHHHHHHHHHHHHHHHHH!

Edit: Jetzt bist du mein Erzfeind, ein P4 und eine G3... :P

Leonidas
2002-05-11, 17:49:51
TBird & nocture: Gelbe Karte wegen Anti-aths-Äußerung.

Blackhand
2002-05-11, 17:50:23
Hier wird von der nV Fraktion doch einfach zu viel Scheiße gelabert.

Fangen wir mal bei den alten karten an.
Hauptsache man lässt die Benchumgebung so gut wie Pro nVidiistisch aussehen oder was? nV hat mit der Riva 128 vielleicht in manchem kurzzeitig die V1 geschlagen, aber die V2 war dann im SLi-Mode der König. Da konnte die TNT1 auch nichts machen. Im Spiele Sektor hatte die Banshee damals auch einige Vorzüge gegenüber der TNT1. Und eine Voodoo mit zusätzlichen Treibern wie WickedGL ist bestimmt kein Apfel- und Birnen Vergleich. nV tunt seine Treiber anscheinend nicht oder was. Oder wieso haben die Voodootreiber den WickedGL überholt? Vielleicht haben sie ja verbotenes Tuning betrieben oder wie? Außerdem war nur der V4 und eventuell der V3 Treiber in der letzten Version schneller als der WGL. Die Voodoo2 und der Banshee profitieren wohl heute noch davon. Und da ist der Vorsprung der TNT1 mit SP MT wohl etwas arm. Außerdem ging die Masse mit den Voodoos noch besser ab. Quake und 3DMurks waren lange Zeit die einzigen Sachen, was dazu bewegte ne nV Karte zu kaufen, weils ja so viele Leute gab die dem 3DMurks glauben schenkten. Dann noch der Vergleich in Profi OGL Bnchmarks. DIe Voodoos waren ausschließlich auf SPiele spezialisiert und nur das gilt hier. Wer hier wohl Äpfel mit Birnen vergleicht ow! Die TNT2 war garantiert auch nicht schneller als ne V3. Vielleicht in dem einen Test wo eine Ultra mit 183/200 antrat. Das wars auch schon. Und wenn dann war sie auch nur in Q3 und 3DMark besser. Genauso wie die V5 vs GF2 GTS. Quake3 war der einzige Grund für ne GTS. Alle anderen SPiele waren mit ner Voodoo5 besser bedient. Entweder wegen Glide oder wegen FSAA, weil Frames nicht so wichtig sind, sei es ob die GTS schneller war oder nicht. Außerdem hatten die Voodoos eh ne bessere Bildquali, die in Kombi mit FSAA noch mehr ausmachte. Schnell genug waren beide. Die V5 war aber billiger. Was auch noch ein deutlicher Grund gegen TNT1/2 ist, da sie ne miese 16bit Umsetzung haben. Außerdem waren die Voodoos kompatibler zu Spielen. Ich finde nur mit GeForce1 und 3 war nV eindeutig der Performance King bis die Radeon8500 kam. Jetzt kam halt die GeForce4 und nV ist wieder King.

Aber die Radeon8500 hatte sich trotzdem gut verkauft, obwohl ATi nen schlechten Ruf hatte. Wieso sollte das denn mit der Matrox nicht so werden? DIe haben schließlich einen guten Ruf. AUßer vielleicht was den Preis angeht. Aber Matrox bringt mehrerere Versionen raus, das hab ich auch schon wo gelesen. Preislich wird Matrox gezwungen sein ihn unten zu halten, weil jetzt viel Konkurrenz droht. Die werden in der Marketing ABteilung auch nicht hinterm Mond leben. Schließlich haben sie ja 25 Jahre Berufserfahrung und haben den Markt bis jetzt wohl gut beobachtet ohne selber irgendetwas preis geben zu müssen. Außerdem hat Matrox eine höhere Qualität, die einen höheren Preis auch rechtfertigen würde im Gegensatz zu nVidia.

Und wo kündigt denn Matrox sein Produkt nur früher an als nV, soll aber vielleicht später ausliefern? Meint ihr jetzt etwa ernsthaft nVidia bringt mal eben von heute auf morgen den NV30 ohne den vorherigen Marketing Standard Rummel ein paar Monate vorher, der sagt dass der NV30 min. doppelt so schnell ist wie die Ti4600(was wie immer nicht stimmen wird), auf den Markt? Der Matrox Chip kommt schon am 14. Mai (nicht erst im Herbst) und Matrox rückt die Specs immer ziemlich spät raus. Und am G550 konnte man ja sehen, dass es nicht lange dauert bis der CHip auf dem Markt ist.

ABer was mich am meisten ankotzt ist, dass etwas, was sich schon früher im 3DConcept Forum angebahnt hat, hier anscheinend normal geworden ist.
z.B.

"Ach, nvidia hat das bessere Marketing und kann dies und jenes machen und außerdem noch Leute abwerben usw., die werden die Chefs bleiben, du hast ja keine Ahnung von Marktwirtschaft."

Man, hier gehts doch überhaupt nicht darum welche Firma den besten Erfolg durch irgendwelche Marketingshalbwahrheiten bekommt, sondern was für uns Kunden am besten ist. Aber am besten immer den größten Platzhirsch unterstützen. Das kotzt mich vor allem an Richthofen so besonders an. Wo lebst du eigentlich?? Im sonnigen Kalifornien im Abstellschrank von David Kirk der dir mehr essen zukommen lässt, wenn du im Ausland mehr und mehr für nVidia posaunst?

Ich fänds geil, wenn Matrox nVidia erstmal für ein paar Monate deutlich entthront und noch kleinere Varianten ihres Chip rausbringen. Konkurrenz belebt das Geschäft und nV sollte mal einen Dämpfer bekommen, vor allem wegen ihren Scheiß halb oder kompletten Unwahrheiten, die das Marketing vorantreibt. Wir sollten lieber den leuten im Netz sagen was Sache ist und nicht was aus Marketinggrüden besser sein wird. Schließlich belebt Konkurrenz das Geschäft. Und das ist für uns Kunden schließlich das beste.

Birdman
2002-05-11, 18:11:07
also ich hab selber über lange Zeit mit einer
TNT - V2 Combo, später
TNT - V2SLI combo, danach
TNT2Ultra - V2SLI combo, und zu guter letzt mit ner
Voodoo3 3000 gezockt.

In Q2 waren bei mir die nvidia Karten immer deutlich langsamer, was aber sicher auch daran gelegen hat dass ich einige Details ausgeschaltet hatte, welche den voodoo's entgegenkamen und Optionen aktvierte, welche nur die voodoo's konnten. (8bit paletized textures)

Und auch sonst....ich mag mich eigentlich an kein einziges Spiel erinnern, welches ich mit nvidia hardware gezockt habe. Nur zum benchen hab ich TNT und TNT2Ultra gebraucht, und zum kukken wie viel besser der 32bit Mode aussah.
Aber zum spielen war nvidia "grottenschlecht", jedenfalls von der flüssigkeit und auch grafikqualität her. (oh ja, es gab diverse games, wo die voodoo2's deutlich besser aussahen als jeder andre chip, auch wenn der im 32bit mode lief)
Erst mit dem geforce256DDR zog nvidia davon, haupsächlich weil der speicher erstmals 32bit im grossen Stil zuliess, damals die ersten echten 32bit games rauskamen, (Quake3) und nvidia mittlerweile recht gute treiber hatte und auch die gameprogrammieren die Nvidia karten mittlerweile zum entwickeln hernahmen.

Razor
2002-05-11, 18:31:02
@Birdman

Du hast eine TNT2U/V2SLI-Kombo gegen eine v3 getauscht ?
UNGLAUBLICH !

Kann doch wirklich nicht Dein ernst gewesen sein...
(oder hast Du etwa Geld gebraucht ? :D)

Hmmm...

Razor

Quasar
2002-05-11, 18:41:54
Originally posted by Blackhand
Hier wird von der nV Fraktion doch einfach zu viel Scheiße gelabert.
Danke für die Blumen, aber selbst wenn es so sein sollte, beruht das groteils auf Gegenseitigkeit


Fangen wir mal bei den alten karten an.
Hauptsache man lässt die Benchumgebung so gut wie Pro nVidiistisch aussehen oder was? nV hat mit der Riva 128 vielleicht in manchem kurzzeitig die V1 geschlagen, aber die V2 war dann im SLi-Mode der König.
Das bestreitet auch keiner (bis auf die Benchmarkumgebung...wie meinst du das?)


Da konnte die TNT1 auch nichts machen. Im Spiele Sektor hatte die Banshee damals auch einige Vorzüge gegenüber der TNT1.
Doch, die TNT konnte einiges machen, aber trotzdem hatte auch die Banshee ihre Vorteile.


Und eine Voodoo mit zusätzlichen Treibern wie WickedGL ist bestimmt kein Apfel- und Birnen Vergleich. nV tunt seine Treiber anscheinend nicht oder was. Oder wieso haben die Voodootreiber den WickedGL überholt? Vielleicht haben sie ja verbotenes Tuning betrieben oder wie? Außerdem war nur der V4 und eventuell der V3 Treiber in der letzten Version schneller als der WGL. Die Voodoo2 und der Banshee profitieren wohl heute noch davon.
WickedGL hin oder her, getunte DLLs sind etwas völlig anderes als ein kompletter Treiber


Und da ist der Vorsprung der TNT1 mit SP MT wohl etwas arm. Außerdem ging die Masse mit den Voodoos noch besser ab.[Quote]
Auch hier tust du genau das, was du der nV-Fraktion vorwirfst: pauschalisieren!

[Quote]
Quake und 3DMurks waren lange Zeit die einzigen Sachen, was dazu bewegte ne nV Karte zu kaufen, weils ja so viele Leute gab die dem 3DMurks glauben schenkten.

Welcher 3DMark soll bitteschön TNT-Karten bevorzugen? TnL, ok, das sehe ich ja noch ein, aber es ist halt ein TnL-Bench. Die TNT hatte jedoch noch kein TnL!


Dann noch der Vergleich in Profi OGL Bnchmarks. DIe Voodoos waren ausschließlich auf SPiele spezialisiert und nur das gilt hier. Wer hier wohl Äpfel mit Birnen vergleicht ow!

Spezialisierung hin oder her, auch wenn für die meisten Games wichtiger sind, gibt's doch nichts dran zu rütteln, daß ein ICD, insbesondere, wenn er als solcher beworben wird, auch komplexere Funktionen fehlerfrei ausführen können muss.


Die TNT2 war garantiert auch nicht schneller als ne V3. Vielleicht in dem einen Test wo eine Ultra mit 183/200 antrat. Das wars auch schon. Und wenn dann war sie auch nur in Q3 und 3DMark besser.
Deine Pauschalisierungen sucken Big Time! So hätte die TNT nach deinen Maßstäben gegen eine V3-2k antreten müssen und dort sieht sie so manchen Stich.


Genauso wie die V5 vs GF2 GTS. Quake3 war der einzige Grund für ne GTS. Alle anderen SPiele waren mit ner Voodoo5 besser bedient. Entweder wegen Glide oder wegen FSAA, weil Frames nicht so wichtig sind, sei es ob die GTS schneller war oder nicht. Außerdem hatten die Voodoos eh ne bessere Bildquali, die in Kombi mit FSAA noch mehr ausmachte. Schnell genug waren beide. Die V5 war aber billiger. Was auch noch ein deutlicher Grund gegen TNT1/2 ist, da sie ne miese 16bit Umsetzung haben. Außerdem waren die Voodoos kompatibler zu Spielen.

Und wieder Pauschalisierungen! Klar, das FSAA auf der Voodoo5 war besser, weil nicht nur per Treiber emuliert, aber andere Dinge liefen halt auf der GTS besser und sei es, weil die Entwickler zu der Zeit schon von der3dfx-Titanic abgesprungen waren.


Ich finde nur mit GeForce1 und 3 war nV eindeutig der Performance King bis die Radeon8500 kam. Jetzt kam halt die GeForce4 und nV ist wieder King.

Mit der TNT2ultra war nV noch geteilter Speed-King, zusammen mit G400MAX, V3-3K5. GeForce256 war ohne DDR net so dolle und mit der DDR-Version gab's dann erstmal reinen Tisch. GeForce2 war schneller als alles andere am Markt. GeForce3 ebenso, wurde dann teilweise wieder durch R8k5 abgelöst.


Aber die Radeon8500 hatte sich trotzdem gut verkauft, obwohl ATi nen schlechten Ruf hatte. Wieso sollte das denn mit der Matrox nicht so werden? DIe haben schließlich einen guten Ruf. AUßer vielleicht was den Preis angeht. Aber Matrox bringt mehrerere Versionen raus, das hab ich auch schon wo gelesen. Preislich wird Matrox gezwungen sein ihn unten zu halten, weil jetzt viel Konkurrenz droht.

R8k5 verkauft(e?) sich gut, weil es sehr ordentlich Hardware ist(war) und die Leute den Treiberversprechungen ATis glaub(t?)en. Matrox hat zwar einen guten Ruf, aber schon seit einiger Zeit nicht mehr im Gamersegment. Auch waren sie nie dafür bekannt, besonders preiswerte Karten herauszubringen, unabhängig von der Leistung. Auch mit einer 64MB-Version wird ein 256Bit-Bus und eine 100M-Transistoren GPU nicht billiger herzustellen sein.


Die werden in der Marketing ABteilung auch nicht hinterm Mond leben. Schließlich haben sie ja 25 Jahre Berufserfahrung und haben den Markt bis jetzt wohl gut beobachtet ohne selber irgendetwas preis geben zu müssen. Außerdem hat Matrox eine höhere Qualität, die einen höheren Preis auch rechtfertigen würde im Gegensatz zu nVidia.

Ja, was die 2D-Qualität angeht, waren sie schon seit langer Zeit unangefochtener Spitzenreiter. Ich frage mich nur, wieviel mehr die Leute bereit wären, dafür zu zahlen. Die Treiber...naja, mit der G400 sind sie gut geworden, während die G200-Käufer während des gesamten Produktzyklus ihrer Karte auf einen ICD warten mussten. So etwas würde ihnen heute absolut das Genick brechen, das wird Matrox wissen und entsprechend handeln.


Und wo kündigt denn Matrox sein Produkt nur früher an als nV, soll aber vielleicht später ausliefern? Meint ihr jetzt etwa ernsthaft nVidia bringt mal eben von heute auf morgen den NV30 ohne den vorherigen Marketing Standard Rummel ein paar Monate vorher, der sagt dass der NV30 min. doppelt so schnell ist wie die Ti4600(was wie immer nicht stimmen wird), auf den Markt? Der Matrox Chip kommt schon am 14. Mai (nicht erst im Herbst) und Matrox rückt die Specs immer ziemlich spät raus. Und am G550 konnte man ja sehen, dass es nicht lange dauert bis der CHip auf dem Markt ist.

Präsentation GF4 am 6.2, erhältlich ab Anfang März. Monate??
Bei Matrox ist die G550 sicher ein gutes Beispiel, aber ein schlechtes wäre die G450, die wirklich ziemlich lange auf sich hat warten lassen. Am 14.5. wird der Parhelia präsentiert, wann er erhältlich sein wird, werden wir dann sehen, ich schätze frühestens im Juli!


ABer was mich am meisten ankotzt ist, dass etwas, was sich schon früher im 3DConcept Forum angebahnt hat, hier anscheinend normal geworden ist.
z.B.

"Ach, nvidia hat das bessere Marketing und kann dies und jenes machen und außerdem noch Leute abwerben usw., die werden die Chefs bleiben, du hast ja keine Ahnung von Marktwirtschaft."

Man, hier gehts doch überhaupt nicht darum welche Firma den besten Erfolg durch irgendwelche Marketingshalbwahrheiten bekommt, sondern was für uns Kunden am besten ist. Aber am besten immer den größten Platzhirsch unterstützen. Das kotzt mich vor allem an Richthofen so besonders an. Wo lebst du eigentlich?? Im sonnigen Kalifornien im Abstellschrank von David Kirk der dir mehr essen zukommen lässt, wenn du im Ausland mehr und mehr für nVidia posaunst?

Wenn's dich ankotzt, gibt's dafür die Ignore List, die hilft bei sowas Wunder, glaub' mir!
Außerdem darf hier AFAIK jeder seine freie Meinung äußern, sofern er dabei niemandes Persönlichkeitsrechte verletzt.
Und mit der Einbeziehung des Marketings in die Produktdiskussionen darfst du dich bestimmt nicht primär bei Richthofen bedanken!


Ich fänds geil, wenn Matrox nVidia erstmal für ein paar Monate deutlich entthront und noch kleinere Varianten ihres Chip rausbringen. Konkurrenz belebt das Geschäft und nV sollte mal einen Dämpfer bekommen, vor allem wegen ihren Scheiß halb oder kompletten Unwahrheiten, die das Marketing vorantreibt. Wir sollten lieber den leuten im Netz sagen was Sache ist und nicht was aus Marketinggrüden besser sein wird. Schließlich belebt Konkurrenz das Geschäft. Und das ist für uns Kunden schließlich das beste.

"Unwahrheiten" betreibt sicher keine Marketing-Abteilung von irgendeiner Firma, es werden nur die Wahrheiten so weit wie möglich ausgedehnt, und darin nimmt sich keiner der Big Player etwas.

Trotzdem stimme ich deinem Schlußabsatz weitgehend zu, Konkurrenz ist gut für uns Kunden und treibt den Fortschritt voran!

Ich habe fertig!

Dunkeltier
2002-05-11, 18:48:15
"Unwahrheiten" betreibt sicher keine Marketing-Abteilung von irgendeiner Firma, es werden nur die Wahrheiten so weit wie möglich ausgedehnt, und darin nimmt sich keiner der Big Player etwas."


Ha, ha. Guter Witz Quasar, ich möchte nur an das dunkle NVIDIA Papier erinnern wo die Kyro I/II ohne Ende ungerechtfertigt (!) und mit Lügerei durch den Schlamm gezogen wurde!

Razor
2002-05-11, 18:50:18
@Blackhand

Bitte folgendes zu bedenken:
Die V2SLI (=2xV2) hat ca. 1200 Öcken gezogen, während die TNT zu diesem Zeitpunkt nur mit 350 Märkern zu Buche schlug. Ein kleiner, und gar nicht mehr feiner Unterscheid, den Du vergessen hast zu erwähnen. Die TNT stand doch nicht in Konkurrenz zur V2SLI, sondern war schlicht der erste vernünftige Versuch, 3D-Beschleunigung mit 'normaler' 2D-Darstellung zu vereinen. Zudem bot sie auch noch 32Bit in der 3D-Beschleunigung, was damals einzigartig war (wenn auch wenig brauchbar)... die Banshee war absolter Schrott, sorry ! Erst die V3 war der erste brauchbare Ansatz, der erst mit der V4 vernünftige Formen annahm...

Nun ja, aber 3dfx ist tot und Friede ihrer Asche. Sie waren schlicht zu gierig und haben sich zu lange auf ihrem Ruhm und ihrer Marktstellung ausgeruht, so daß der Untergang nur noch eine Frage der Zeit war.

"Aber die Radeon8500 hatte sich trotzdem gut verkauft, obwohl ATi nen schlechten Ruf hatte."

Falsch ! Weil sie schlicht einfach 'billig' waren...

"Wieso sollte das denn mit der Matrox nicht so werden?"

Weil sie vermutlich nicht so preisgünstig zu haben sind und Matrox kein anderes LowSegment-Standbein hat...
Die Vermutung, daß dies nur zur Präsentation lizensierungsfähiger Patente dient, ist sehr plausibel !

"Preislich wird Matrox gezwungen sein ihn unten zu halten..."

Vielleicht sollten wir erst einmal auf das Produkt warten, bevor solcher Art Spekulationen geäussert werden...

"Und am G550 konnte man ja sehen, dass es nicht lange dauert..."

Die G550 war ein absolutes Low-End Produkt mit ein paar Business-Features...
Nicht zu vergleichen mit dem, was da z.Bsp. von Creative/3DLabs kommen wird, bzw. angekündigt wurde.

"Man, hier gehts doch überhaupt nicht darum welche Firma den besten Erfolg durch irgendwelche Marketingshalbwahrheiten bekommt, sondern was für uns Kunden am besten ist."

Und wieder falsch !
Nie ging es darum, was für den Kunden am besten ist, sondern darum, wie sich was am besten verkaufen läßt.

"Das kotzt mich vor allem an <gestrichen> so besonders an. Wo lebst du eigentlich?? Im sonnigen Kalifornien im Abstellschrank von David Kirk der dir mehr essen zukommen lässt, wenn du im Ausland mehr und mehr für nVidia posaunst?"

Musste das jetzt sein ?
Wäre gut, wenn Du versuchen würdest, sachlich zu bleiben...

"Schließlich belebt Konkurrenz das Geschäft. Und das ist für uns Kunden schließlich das beste."

Dem stimme ich uneingeschränkt zu. Das Zeugs, was Du direkt davor von Dir gegeben hast, werde ich nicht nochmal wiederholen, denn das war absoluter dünnsch... - nein, ich sach's net !
:D

In diesem Sinne

Razor

ernesto.che
2002-05-11, 18:52:40
Originally posted by Quasar

"Unwahrheiten" betreibt sicher keine Marketing-Abteilung von irgendeiner Firma, es werden nur die Wahrheiten so weit wie möglich ausgedehnt, und darin nimmt sich keiner der Big Player etwas.

Trotzdem stimme ich deinem Schlußabsatz weitgehend zu, Konkurrenz ist gut für uns Kunden und treibt den Fortschritt voran!

Ich habe fertig!
*rofl* Trap, hast du die grosspurigen Ankündigen der TNT vergessen? "Faster than Voodoo 2". :D

Quasar
2002-05-11, 18:53:06
Originally posted by Black Cow



Ha, ha. Guter Witz Quasar, ich möchte nur an das dunkle NVIDIA Papier erinnern wo die Kyro I/II ohne Ende ungerechtfertigt (!) und mit Lügerei durch den Schlamm gezogen wurde!

Wo siehst du darin klare Lügen? Es kommt immer sehr stark auf den Standpunkt an, Black Cow.

Ich bleibe dabei, in Punkto Marketing-Wahrheit nehmen sich die Großen heutzutage nichts mehr!

aths
2002-05-11, 18:53:18
Quasar,

ich stimme mit dir darin überein, dass unsinnige Äußerungen von allen Seiten kommen.

Viele nervt es, dass nV durch den guten Ruf ihrer (natürlich teuren) Spitzen-Produkte auch viel durchschnittliche, teilweise auch unterdurchschnittliche Hardware absetzt. Das ist nV natürlich eher deswegen "anzulasten" weil sie seit geraumer Zeit Marktführer sind, und nicht weil nV nV ist. Ob sie "berechtigt" genervt sind oder nicht, ist eine Frage der Sichtweise.


Allgemein:

Beispiel Radeon gegen GTS. Letztere war oft schneller. Radeon hatte dafür weitaus mehr Features. Die wurden entweder in Reviews nicht beachtet, da sie kaum einer kannte, oder in 3D-Spielen nicht genutzt, da man auf GF256/GTS-Basis programmierte. Ich kann mir gut vorstellen, dass das einige Radeon-Besitzer tierisch genervt hat.

Es gibt eine Reihe Fraktionen, die sich mit Lust gegenseitig verletzen. Dabei ist mir ein Zusammenhang aufgefallen: Je weniger der einzelne weiss, umso lieber macht er andere nieder.



edit: Lügen kamen marketingseitig sowohl von nVidia als auch von ATI. Vermutlich auch von jeder anderen Firma, 3dfx nicht ausgeschlossen.

Quasar
2002-05-11, 18:55:56
Originally posted by ernesto.che

*rofl* Trap, hast du die grosspurigen Ankündigen der TNT vergessen? "Faster than Voodoo 2". :D

Auch hier gilt: Es gibt mehr als genügend Benches, die auch das belegen können.
-> siehe die von THG von gestern Nacht.

Razor
2002-05-11, 18:57:11
@aths

"Je weniger der einzelne weiss, umso lieber macht er andere nieder."

Jemand, der im Glashaus sitzt, sollte nicht mit Steinen werfen...
Hast Du das jetzt wirklich ernst gemeint ?
???

Hmmm...

Razor

Razor
2002-05-11, 18:59:38
Originally posted by ernesto.che

*rofl* Trap, hast du die grosspurigen Ankündigen der TNT vergessen? "Faster than Voodoo 2". :D
In 800x600 bei 16Bit ?
Sicher gab's da so einige Beispiele !
Und GLIDE-Games waren das nicht allzu viele...
:D

Razor

ow
2002-05-11, 19:02:34
Originally posted by Black Cow



Ha, ha. Guter Witz Quasar, ich möchte nur an das dunkle NVIDIA Papier erinnern wo die Kyro I/II ohne Ende ungerechtfertigt (!) und mit Lügerei durch den Schlamm gezogen wurde!



a) war diese Papier nur zur INTERNEN Schulung der Merketing Abteilung

und

b) ist dennoch alles wahr was in dem Papier steht und nicht ein Wort gelogen AFAIK

Quasar
2002-05-11, 19:02:56
aths,
Sicher, das nervt bestimmt viele Radeoniker, IMHO auch durchaus verständlich! Und genau da muss ATi sich am meisten Verbessern, wenn sie wirklich auf lange Sicht Erfolg haben wollen:
Beispiel hier aus dem Forum, die SoF2-Beta. Nutzt offenbar einige nV-Extensions, aber keine von ATi. Hier wird von vielen immer gleich Bestechung und Betrug vermutet, was ich auch nicht völlig ausschließen will, Fakt ist aber, daß ATi sich zu Zeiten der Radeon sträflich schlecht um die Versorgung der Entwickler mit funktionierenden, komfortablen Entwicklungstools für ihre Hardware versorgt hat.
Nun scheint man auf dem Wege der Besserung, aber ich habe ehrlich gesagt bislang noch kein Spiel gesehen, das als Beta auf den ATis lief und nicht auf nV!

BTW, ich bin auch genervt, daß TnL immer noch nicht to the fullest extend ausgenutzt wird....

ow
2002-05-11, 19:04:47
Originally posted by ernesto.che

*rofl* Trap, hast du die grosspurigen Ankündigen der TNT vergessen? "Faster than Voodoo 2". :D


Da wette ich sogar darauf, dass die TNT schneller ist als die V2 BEI GLEICHEN VORAUSSETZUNGEN.

ow
2002-05-11, 19:07:48
Originally posted by aths

Allgemein:

Beispiel Radeon gegen GTS. Letztere war oft schneller. Radeon hatte dafür weitaus mehr Features. Die wurden entweder in Reviews nicht beachtet,...


Zurecht!
Es sei denn du kannst mir erklären was ich denn von den Features meiner Radeon1 habe.

Dunkeltier
2002-05-11, 19:08:30
Ich habe selber eine Voodoo Banshee eine zeitlang übergangsweise im Rechner gehabt, sie war bis 1024x768 im 3D Betrieb zu gebrauchen. Weswegen du so über diese Karte urteilst, verstehe ich nicht ganz. Schnell, saubere Darstellung, preiswert. Was wollte man damals mehr?

StefanV
2002-05-11, 19:12:20
Originally posted by aths
Es gibt eine Reihe Fraktionen, die sich mit Lust gegenseitig verletzen. Dabei ist mir ein Zusammenhang aufgefallen: Je weniger der einzelne weiss, umso lieber macht er andere nieder.

Richtig, die mit 'Durchblick' benehmen sich nicht wie ein Elefant im Porzelanladen...


Auch halten sich die, die wirklich 'durchblick' haben nicht für welche, die Durchblick haben...

Aber NVidia rockt!!


Kann mir mal einer erklären warum??

ernesto.che
2002-05-11, 19:13:06
Originally posted by ow



Da wette ich sogar darauf, dass die TNT schneller ist als die V2 BEI GLEICHEN VORAUSSETZUNGEN.
Die natürlich du festlegst, ist schon klar.

Ikon
2002-05-11, 19:56:46
@Voodoo-Leute
Bitte hört endlich mit der Forderung nach Vergleichen zwischen NV und 3dfx auf Glide-Games auf. Glide war eine proprietäre API, die speziell auf 3dfx-Hardware zugeschnitten war. So ein Vergleich hinkt einfach, weil NV und die Konkurrenz keine eigene API haben mit der man benchen könnte. Schon klar, dass da die 3dfx-Hardware besser abschneidet, die Voruassetzungen sind einfach nicht gleich.

Ikon

ow
2002-05-11, 20:04:02
Vorsicht Ikon, sonst musst auch du dir anhören, dass du die Gleichheit nicht festlegst.;);)

ernesto.che
2002-05-11, 20:06:06
Originally posted by Ikon
@Voodoo-Leute
Bitte hört endlich mit der Forderung nach Vergleichen zwischen NV und 3dfx auf Glide-Games auf. Glide war eine proprietäre API, die speziell auf 3dfx-Hardware zugeschnitten war. So ein Vergleich hinkt einfach, weil NV und die Konkurrenz keine eigene API haben mit der man benchen könnte. Schon klar, dass da die 3dfx-Hardware besser abschneidet, die Voruassetzungen sind einfach nicht gleich.

Ikon
Das ist doch aber vollkommen uninteressant. Es zählt doch nur, was als nutzbares Ergebnis herauskommt.
Du würdest doch als Voodoo Besitzer auf einer LAN auch nicht bei UT auf Glide verzichten, nur weil es damit besser läuft, als auf einer Nvidia, Ati, MAtrox etc. und du dadurch keinen Mouse LAG wie unter D3D haben kannst.
Was zählt ist das nutzbare Ergebnis und es nun wirklich nicht die Schuld von 3dfx, das Nvidia nicht auch eine eigene properitäre API entwickelt oder in den neueren Karten Glide integriert hat.

StefanV
2002-05-11, 20:07:29
Originally posted by Ikon
@Voodoo-Leute
Bitte hört endlich mit der Forderung nach Vergleichen zwischen NV und 3dfx auf Glide-Games auf. Glide war eine proprietäre API, die speziell auf 3dfx-Hardware zugeschnitten war. So ein Vergleich hinkt einfach, weil NV und die Konkurrenz keine eigene API haben mit der man benchen könnte. Schon klar, dass da die 3dfx-Hardware besser abschneidet, die Voruassetzungen sind einfach nicht gleich.

Ikon

Aber warum soll man nicht Funktion einer Karte ignorieren??

Glide ist für mich ein Feature, das nutzbar ist, warum es nicht nutzen??

Auch bei Benches sollte man JEDES nutzbare feature mitbenchen, sonst ist der Bench nix wert...

Also:

Wenn Voodoo, dann gefälligst auch mit Glide ('neben' D3D)...

Quasar
2002-05-11, 20:09:38
Originally posted by ernesto.che

Das ist doch aber vollkommen uninteressant. Es zählt doch nur, was als nutzbares Ergebnis herauskommt.

Und was ist mit "nutzbaren" Features, die die eine Karte nicht kann, die auf der anderen aber eine deutliche Verbesserung der Bildqualität bewirken? Aktivieren? Oder sein lassen?

ernesto.che
2002-05-11, 20:16:15
Originally posted by Quasar


Und was ist mit "nutzbaren" Features, die die eine Karte nicht kann, die auf der anderen aber eine deutliche Verbesserung der Bildqualität bewirken? Aktivieren? Oder sein lassen?
Das ist auch für mich strittig. ;) Weil bei besserer Optik ist immer die Frage, wie erreiche ich die gleiche Optik mit einer anderen Karte.
Z.B. wenn ich eine Voodoo 5 5500 mit UT und 2x FSAA benche(ja - unter Glide), welchen Modus benötigt dann eine andere Karte um eine gleich gute Optik zu erzielen? Das ist mir aber dann auch ehrlich gesagt müßig.
Du spielst aber ganz offensichtlich auf Shader an. Wenn der Benchmark einen fairen Vergleich liefern soll, dann müßte man bei einem Vergleich einer T&L (auch nach Art des verw. T&L) und einer nicht T&L Karte beide Methoden benchen.
Letzlich sollte IMHO ausschließlich mit Spielen und nicht mit 3DMark&Konsorten gebencht werden.

StefanV
2002-05-11, 20:16:34
Originally posted by Quasar


Und was ist mit "nutzbaren" Features, die die eine Karte nicht kann, die auf der anderen aber eine deutliche Verbesserung der Bildqualität bewirken? Aktivieren? Oder sein lassen?

Tja, womit wir wieder bei Glide und 3DFX wären *eg*

Glide ist auch ein feature, daß man nutzen kann, wenn man es aktiviert...

Es verbessert auch die Bildqualität (WCP), was soll man jetzt machen??

Aktivieren oder es lassen??

ernesto.che
2002-05-11, 20:18:02
Originally posted by Stefan Payne


Aber warum soll man nicht Funktion einer Karte ignorieren??

Glide ist für mich ein Feature, das nutzbar ist, warum es nicht nutzen??

Auch bei Benches sollte man JEDES nutzbare feature mitbenchen, sonst ist der Bench nix wert...

Also:

Wenn Voodoo, dann gefälligst auch mit Glide ('neben' D3D)...

Bei einem Auto Vergleichstest verlangt ja auch kein S-Klasse Fahrer Fahrer, das der Porsche gefälligst auf seine Keramik Bremsscheiben verzichten soll.

Quasar
2002-05-11, 20:24:03
Originally posted by ernesto.che

Das ist auch für mich strittig. ;) Weil bei besserer Optik ist immer die Frage, wie erreiche ich die gleiche Optik mit einer anderen Karte.
Z.B. wenn ich eine Voodoo 5 5500 mit UT und 2x FSAA benche(ja - unter Glide), welchen Modus benötigt dann eine andere Karte um eine gleich gute Optik zu erzielen? Das ist mir aber dann auch ehrlich gesagt müßig.
Du spielst aber ganz offensichtlich auf Shader an. Wenn der Benchmark einen fairen Vergleich liefern soll, dann müßte man bei einem Vergleich einer T&L (auch nach Art des verw. T&L) und einer nicht T&L Karte beide Methoden benchen.
Letzlich sollte IMHO ausschließlich mit Spielen und nicht mit 3DMark&Konsorten gebencht werden.

Nein, ich spiele eher auf Allerweltsfeatures, wie z.B. große Texturen an, die bis V3 herunterskaliert werden.

Wird in so einem Fall ein "Did not Finish" gewertet, oder einfach drüberhinweggesehen, obwohl das bei der Karte, die es beherrscht, Leistung kostet??

ernesto.che
2002-05-11, 20:28:23
Originally posted by Quasar


Nein, ich spiele eher auf Allerweltsfeatures, wie z.B. große Texturen an, die bis V3 herunterskaliert werden.

Wird in so einem Fall ein "Did not Finish" gewertet, oder einfach drüberhinweggesehen, obwohl das bei der Karte, die es beherrscht, Leistung kostet??

Zu Zeiten einer V3 haben 256² große Texturen gereicht, 2k² gabs ja kaum. Ich denke aber, das es bei Anwendungen, bei denen dieser "Konflikt" auftritt gewertet werden sollte. Es wird vom Hersteller als ein Vorteil angedacht worden sein, der Kunde wird es evtl. auch deshalb gekauft haben.

Leonidas
2002-05-11, 20:28:50
Originally posted by Leonidas
TBird & nocture: Gelbe Karte wegen Anti-aths-Äußerung.



Zur Erklärung:

An alle: Wer was gegen aths in beleidigenden Art und Weise sagt, sagt das auch gegen mich. Und ich lasse mir das nicht bieten. Der Forums-Server ist zu teuer, als das ich mir für 279 Euro im Monat auch noch Beleidigungen anhören muß.

TBird
2002-05-11, 20:29:02
Originally posted by Leonidas
TBird & nocture: Gelbe Karte wegen Anti-aths-Äußerung.

Leonidas
2002-05-11, 20:31:44
TBird: Zensur wäre, wenn ich Euch rausgeworfen hätte. Hab ich aber nicht.


Und es ist ein Unterschied, ob ich was gegen Eure Meinungen sage oder aber gegen Eure Beleidigungen. Siehe Real-Life: Meinungsfreiheit ja - das heißt aber nicht, daß es das Recht zur Beleidigung gibt.

ow
2002-05-11, 20:39:25
Originally posted by ernesto.che


Zu Zeiten einer V3 haben 256² große Texturen gereicht,


256^2 ist einfach lächerlich, selbst ein S3Virge kann mit 512^2 umgehen. Nicht sehr zukunftsorientiert von 3dfx.

Gibt es überhaupt andere Chips die derart kastriert sind wie die Vodoos bis V3?

Richthofen
2002-05-11, 20:39:39
kann mir mal einer erklären worüber man sich hier aufregt?

Des sind doch alles olle Kamellen. 3dfx hat das bekommen was sie verdient haben und Punkt. Die sind schneller untergegangen als die Titanik. Der Markt hat sie für ihre Stümperei vor allem was 2D / 3D anging bestraft wie es sich gehört.

Punkt aus Ende im Gelände. Sie haben geloost und Nv gesiegt und darauf sauf ich nun einen beim Fussball :)

ernesto.che
2002-05-11, 20:42:21
Originally posted by Richthofen
kann mir mal einer erklären worüber man sich hier aufregt?

Des sind doch alles olle Kamellen. 3dfx hat das bekommen was sie verdient haben und Punkt. Die sind schneller untergegangen als die Titanik. Der Markt hat sie für ihre Stümperei vor allem was 2D / 3D anging bestraft wie es sich gehört.

Punkt aus Ende im Gelände. Sie haben geloost und Nv gesiegt und darauf sauf ich nun einen beim Fussball :)
offensichtlich hast du mit dem Trinken schon begonnen oder was gibt es bei Grafikkarten außer 2D und 3D denn sonst?

TBird
2002-05-11, 20:43:05
Originally posted by Leonidas
TBird: Zensur wäre, wenn ich Euch rausgeworfen hätte. Hab ich aber nicht.


Und es ist ein Unterschied, ob ich was gegen Eure Meinungen sage oder aber gegen Eure Beleidigungen. Siehe Real-Life: Meinungsfreiheit ja - das heißt aber nicht, daß es das Recht zur Beleidigung gibt.

Unterscheide bitte:

Meinung = "aths Artikel SIND NVidia gegenüber feindlich gesinnt"

Beleidigung = "aths ist ein Ar..."

Wo hab ich bitte hier beleidigt ???

ernesto.che
2002-05-11, 20:44:18
Originally posted by ow



256^2 ist einfach lächerlich, selbst ein S3Virge kann mit 512^2 umgehen. Nicht sehr zukunftsorientiert von 3dfx.

Gibt es überhaupt andere Chips die derart kastriert sind wie die Vodoos bis V3?
512^2 ist ebene nicht alles.
Und ob lächerlich oder nicht: das Ergebnis zählt.

Exxtreme
2002-05-11, 20:45:09
Originally posted by Richthofen

Punkt aus Ende im Gelände. Sie haben geloost und Nv gesiegt und darauf sauf ich nun einen beim Fussball :)
Loose heisst AFAIK im englischen 'lösen'. Du meinst sicher 'lose'. ;) Und nVidia hat gesiegt? Gegen wen?

Gruß
Alex

ernesto.che
2002-05-11, 20:46:49
Originally posted by TBird


Unterscheide bitte:

Meinung = "aths Artikel SIND NVidia gegenüber feindlich gesinnt"

Beleidigung = "aths ist ein Ar..."

Wo hab ich bitte hier beleidigt ???

Wenn es dir wirklich wichtig ist, benutze doch bitte die PM Funktion, das muss nicht in aller Öffentlichkeit stattfinden.

Ikon
2002-05-11, 20:49:31
@Stefan Payne
Glide war wohl ein bisschen mehr als ein "einfaches" Feature. Programmierung für Glide hatte aber zur Folge, dass die Konkurrenz benachteiligt wurde, grafikqualitäts- und speedtechnisch. Zum Nutzen von Glide: für Voodoo-Besitzer toll, für alle anderen doof. Ich wollte mit meinem Kommentar zu Glide nur ausdrücken, dass Vergleichsbenchmarks gegen andere Karten beim Einsatz von Glide einfach nicht aussagekräftig sind, weil unter ungleichen Voraussetzungen. Trotzdem bin ich froh, dass dieses API-Monopol Geschichte ist. Wenn es soetwas heute noch gäbe, dann würden wir wohl alle über NV3D (tm) spielen.

Ikon

TBird
2002-05-11, 20:52:05
Originally posted by ernesto.che


Wenn es dir wirklich wichtig ist, benutze doch bitte die PM Funktion, das muss nicht in aller Öffentlichkeit stattfinden.

Die Anschuldigung hat öffentlich stattgefunden also wird auch die Entschuldigung öffentlich stattfinden.


EDIT: Auf PMs antworte ich GRUNDSÄTZLICH nicht. Entweder öffentlich oder gar nicht.

ernesto.che
2002-05-11, 20:52:36
Originally posted by Ikon
@Stefan Payne
Glide war wohl ein bisschen mehr als ein "einfaches" Feature. Programmierung für Glide hatte aber zur Folge, dass die Konkurrenz benachteiligt wurde, grafikqualitäts- und speedtechnisch. Zum Nutzen von Glide: für Voodoo-Besitzer toll, für alle anderen doof. Ich wollte mit meinem Kommentar zu Glide nur ausdrücken, dass Vergleichsbenchmarks gegen andere Karten beim Einsatz von Glide einfach nicht aussagekräftig sind, weil unter ungleichen Voraussetzungen. Trotzdem bin ich froh, dass dieses API-Monopol Geschichte ist. Wenn es soetwas heute noch gäbe, dann würden wir wohl alle über NV3D (tm) spielen.

Ikon
Hat der Händler gesagt: "Ikon - neee, dir verkaufe ich keine Voodoo!"?
DX war damals noch nicht so weit und Glide ist übrigens schon lange Open Source...

TBird
2002-05-11, 20:55:14
Originally posted by Black Cow

ich möchte nur an das dunkle NVIDIA Papier erinnern wo die Kyro I/II ohne Ende ungerechtfertigt (!) und mit Lügerei durch den Schlamm gezogen wurde!

ungerechtfertigt ???

:lol::rofl:

Quasar
2002-05-11, 20:56:03
Originally posted by ernesto.che


Zu Zeiten einer V3 haben 256² große Texturen gereicht, 2k² gabs ja kaum. Ich denke aber, das es bei Anwendungen, bei denen dieser "Konflikt" auftritt gewertet werden sollte. Es wird vom Hersteller als ein Vorteil angedacht worden sein, der Kunde wird es evtl. auch deshalb gekauft haben.

Was heisst gewertet?

256K² hat versagt, deswegen ein "6, setzen"?

TBird
2002-05-11, 20:58:37
Originally posted by aths

Es gibt eine Reihe Fraktionen, die sich mit Lust gegenseitig verletzen. Dabei ist mir ein Zusammenhang aufgefallen: Je weniger der einzelne weiss, umso lieber macht er andere nieder.


Na zum Glück gibt es Dich aths, der genung "Ahnung" hat um Artikel wie "T&L - Das nicht eingelöste Versprechen" oder "GF4 - Pro und Contra" zu schreiben und uns damit alle zu erleuchten.

(Gott ich LIEBE diese Selbstbeweihräucherung)

Blackhand
2002-05-11, 21:00:32
"Danke für die Blumen, aber selbst wenn es so sein sollte, beruht das groteils auf Gegenseitigkeit"

Was für eine unausgeglichene und vor allem Überflüssige Gegenseitigkeit. Typisch für nVidioten.

"Das bestreitet auch keiner (bis auf die Benchmarkumgebung...wie meinst du das?)"

Das war ne Anspielung auf ow.

"WickedGL hin oder her, getunte DLLs sind etwas völlig anderes als ein kompletter Treiber"

Ich glaub, das sehen nV User nur so, weil sie es so sehen wollen. Es kommt aber aufs Endergebnis an. Außerdem ist "Tuning" hier wohl etwas falsch. Wo besteht denn da der Unterschied zu den dlls in den Treibern. Die werden nach und nach auch getunt. Aber das habe ich auch schon gesagt.

"Welcher 3DMark soll bitteschön TNT-Karten bevorzugen? TnL, ok, das sehe ich ja noch ein, aber es ist halt ein TnL-Bench. Die TNT hatte jedoch noch kein TnL!"

3DMurks ist komplett unwichtig. TNL hin oder her. Aber leider haben so viele Leute an ihn geglaubt

"Spezialisierung hin oder her, auch wenn für die meisten Games wichtiger sind, gibt's doch nichts dran zu rütteln, daß ein ICD, insbesondere, wenn er als solcher beworben wird, auch komplexere Funktionen fehlerfrei ausführen können muss."

Da hast du insofern recht, nur spielt das absolut keine Rolle, wenn man hier von Gamermarkt redet, nur versucht ow das miteinzubeziehen. Wenn, dann sollte er sagen, das die Voodookarten damals für sehr sehr wenige Leute unattraktiv war, weil man damit keine professionellen OGL Apps gut bedienen konnte.

"Deine Pauschalisierungen sucken Big Time! So hätte die TNT nach deinen Maßstäben gegen eine V3- 2k antreten müssen und dort sieht sie so manchen Stich."
"Und wieder Pauschalisierungen! Klar, das FSAA auf der Voodoo5 war besser, weil nicht nur per Treiber emuliert, aber andere Dinge liefen halt auf der GTS besser und sei es, weil die Entwickler zu der Zeit schon von der3dfx-Titanic abgesprungen waren."

1. Absatz steht irgendwie in keinem Verhältnis zu meinem geschriebenem und das andere scheinst du nicht so ganz verstanden zu haben. Klar liefen ein paar Sachen auf der GTS besser(Q3A und 3DMurks mal weggelassen). Aber das waren dann weniger Spiele wie bei der V5 und meistens Sachen, bei denen es nicht so sehr um fps ging und deswgen unwichtiger. Und wenn die GTS dann in alten Games wie z.B Quake2 schneller war wie die V5 war das kein Kaufgrundgrund für die GTS, weil die V5 dafür auch genügend Power hat und sich trotzdem eher FSAA leisten konnte als die GTS. Dann gabs noch UT, wo die GTS nichts entgegenzusetzen hatte. Und was heißt hier immer Pauschalisieren. Ich hab nunmal versuch in Kurzform ein paar Sachen klarzustellen. Ich wüsste nicht in welchem Widerspruch das zu meiner Meinung steht, erklär mir das mal bitte.

"Mit der TNT2ultra war nV noch geteilter Speed-King, zusammen mit G400MAX, V3-3K5. GeForce256 war ohne DDR net so dolle und mit der DDR-Version gab's dann erstmal reinen Tisch. GeForce2 war schneller als alles andere am Markt. GeForce3 ebenso, wurde dann teilweise wieder durch R8k5 abgelöst."

Na gut, die Voodoo3 war nicht klarer Speed-King, war aber trotzdem die insgesamt schnellste karte. Die GeForce SDR war auch net so toll, aber trotzdem schneller als alles bisherige, die DDR-Version hats dann natürlich geroppt. Die geForce2 war bei ihrem Release dann auch schneller als alles bisherige, bis dann kurze Zeit später die V5 verkauft wurde. Da war die GF2 eben nur noch 3DMurks und Quake3 König. Die GeForce3 hat das dann wieder geregelt bis eben die R8500 kam, schon logisch. Damals war sie noch nicht wirklich schneller, hatte aber mehr Rohpower, die heute mehr und mehr über die GeForce3 dominiert.

"R8k5 verkauft(e?) sich gut, weil es sehr ordentlich Hardware ist(war) und die Leute den Treiberversprechungen ATis glaub(t?)en. Matrox hat zwar einen guten Ruf, aber schon seit einiger Zeit nicht mehr im Gamersegment. Auch waren sie nie dafür bekannt, besonders preiswerte Karten herauszubringen, unabhängig von der Leistung. Auch mit einer 64MB-Version wird ein 256Bit-Bus und eine 100M-Transistoren GPU nicht billiger herzustellen sein."

Ja die Radeon8500 ist ein ordentliches Stück Hardware und die Treiberprobs halten sich in Grenzen und ist von PC zu PC unterschiedlich, das ist bei nVidia auch nicht viel anders. Trotzdem hatte die ATi vorher eher ne schlechteren Ruf, der sich allerdings schon mit der R100 langsam besserte. So etabliert sich ATi mehr und mehr. Was Matrox betrifft, heißt es abwarten. Die Top version wird garantiert sehr teuer, aber die kleinen Versionen müssen ja nicht unbedingt 256bit haben. Aber trotzdem fallen so schonmal die Preise für 256bit Speicher, der im Herbst hoffentlich schon wesentlich erschwinglicher sein wird, wenns richtig losgeht. Und wenn Matrox schon ne kleine Version bringt, dann wird sie wohl aufgrund ihres Zielbereichs hoffentlich recht preiswert sein. Wer weiß, was Matrox so alles dazu gelernt hat. Schließlich haben sie jetzt mit ATi eine sehr preiswerte Konkurrenz, was DH usw. betrifft, wieso sollten sie da nicht den Preis weiter unten ansiedeln?

"Ja, was die 2D-Qualität angeht, waren sie schon seit langer Zeit unangefochtener Spitzenreiter. Ich frage mich nur, wieviel mehr die Leute bereit wären, dafür zu zahlen. Die Treiber...naja, mit der G400 sind sie gut geworden, während die G200-Käufer während des gesamten Produktzyklus ihrer Karte auf einen ICD warten mussten. So etwas würde ihnen heute absolut das Genick brechen, das wird Matrox wissen und entsprechend handeln."

Erstmal die 2D-Quali, dann noch die gute funktionstüchtigkeit, die mit Built by Matrox auch ziemlich hoch sein wird und was bei bisherigen Matrox-Karten bekannt ist. Das mit den OGL Treiberungereimtheiten sind wohl eher Erinnerungen aus einer lange vergangenen Zeit. Das wird sich garantiert nicht wiederholen und das weißt du wie erwähnt auch.

"Präsentation GF4 am 6.2, erhältlich ab Anfang März. Monate??
Bei Matrox ist die G550 sicher ein gutes Beispiel, aber ein schlechtes wäre die G450, die wirklich ziemlich lange auf sich hat warten lassen. Am 14.5. wird der Parhelia präsentiert, wann er erhältlich sein wird, werden wir dann sehen, ich schätze frühestens im Juli!"

Hier sollte man prinzipiell zwischen Ankündigung und Präsentation unterscheiden. Es könnte diesmal aber auchgut sein, dass sich Matrox zwischen Präsentation und AUslieferung ein bsichen Zeit lässt, was aber eigentlich absolut zu verschmerzen wäre.

"Wenn's dich ankotzt, gibt's dafür die Ignore List, die hilft bei sowas Wunder, glaub' mir!
Außerdem darf hier AFAIK jeder seine freie Meinung äußern, sofern er dabei niemandes Persönlichkeitsrechte verletzt.
Und mit der Einbeziehung des Marketings in die Produktdiskussionen darfst du dich bestimmt nicht primär bei Richthofen bedanken!"

Auf die Ignore List muss man eigentlich keinen so schnell setzen, es sei denn es kommt ein Troll ins Forum. Außerdem muss man ja immer mal mit Gegnargumentan kontern, weil man ja bestimmte Sachen einfach nicht stehen lassen kann. Ich denke das kennt jeder.

Aber ich denke doch dass gerade Richthofen ein sehr gutes Beispiel für solche Art von Diskussion ist. So war er schon immer und ist er auch heute noch. Wen könnte man denn noch dafür verantwortlich machen? Ich kenne da nicht so viele Leute.

""Unwahrheiten" betreibt sicher keine Marketing-Abteilung von irgendeiner Firma, es werden nur die Wahrheiten so weit wie möglich ausgedehnt, und darin nimmt sich keiner der Big Player etwas.

Trotzdem stimme ich deinem Schlußabsatz weitgehend zu, Konkurrenz ist gut für uns Kunden und treibt den Fortschritt voran!"

Unwahrheiten gibts sehr wohl. Ich meine damit hauptsächlich den Hype aufs nächste produkt. GF2 GTS 2-4mal so schnell wie GF1-DDR. GF3 bei simplen Szenen doppelt so schnell wie GF2 Ultra. Bei komplexen sogar bis zu 7mal schneller. Und alles was absolut falsch. Außer vielleicht, dass die Gf3 mit effizienterem FSAA bei extrem DX8 optimierten Szenen viiieeelleicht gerademal so knapp 7mal schneller ist. Beim Kyro-Dokument wurde auch noch gelogen, und das es wirklich nur internen Zwecken diente vermutlich auch.

"Ich habe fertig!"
Ich auch!

ernesto.che
2002-05-11, 21:03:52
Originally posted by TBird


Na zum Glück gibt es Dich aths, der genung "Ahnung" hat um Artikel wie "T&L - Das nicht eingelöste Versprechen" oder "GF4 - Pro und Contra" zu schreiben und uns damit alle zu erleuchten.

(Gott ich LIEBE diese Selbstbeweihräucherung)
Machst du ab jetzt jeden Redakteur so an?

ernesto.che
2002-05-11, 21:04:43
Originally posted by Quasar


Was heisst gewertet?

256K² hat versagt, deswegen ein "6, setzen"?
Also mir ist jetzt gerade kein Spiel bekannt, das nicht auch mit nur 256² laufen würde. oder irre ich da?

Ikon
2002-05-11, 21:07:57
Originally posted by ernesto.che

Hat der Händler gesagt: "Ikon - neee, dir verkaufe ich keine Voodoo!"?
DX war damals noch nicht so weit und Glide ist übrigens schon lange Open Source...

Nur zur Info: Ich hatte selbst eine Voodoo-Rush, danach eine 6MB Voodoo Graphics (Miro Highscore 3D) + NV Riva128 und dann der Übergang zu Direct3D und damit NV -> TNT2-Model64 -> Hercules GF2MX -> KyroII und bald -> Elsa GF3-Ti200.
Großer Gott, nur weil man Glide nicht für das Ei des Columbus, sondern "nur" für eine proprietäre API hält, die den Wettbewerb behindert, wird man von den 3dfx-Nostalgikern gleich an die Wand gestellt. War doch ned als Angriff gemeint *handreich* *schulterklopf*

Ikon

Exxtreme
2002-05-11, 21:08:03
Originally posted by Quasar

Und wieder Pauschalisierungen! Klar, das FSAA auf der Voodoo5 war besser, weil nicht nur per Treiber emuliert, aber andere Dinge liefen halt auf der GTS besser und sei es, weil die Entwickler zu der Zeit schon von der3dfx-Titanic abgesprungen waren.
Err, bei den anderen GraKas wird nichts per Treiber emuliert. Die machen das AA, genauso wie die V5, in Hardware.
Originally posted by Quasar

Mit der TNT2ultra war nV noch geteilter Speed-King, zusammen mit G400MAX, V3-3K5. GeForce256 war ohne DDR net so dolle und mit der DDR-Version gab's dann erstmal reinen Tisch. GeForce2 war schneller als alles andere am Markt. GeForce3 ebenso, wurde dann teilweise wieder durch R8k5 abgelöst.
*zustimm*
Wobei die R100 der GF2 dann doch sehr dicht auf den Fersen war. Sie war bei 32 Bit Farbtiefe bis zur 1024'er Auflösung nur etwas langsamer. Bei 1600x1200 war sie dann meist schneller.

Gruß
Alex

ernesto.che
2002-05-11, 21:11:14
Originally posted by Ikon


Nur zur Info: Ich hatte selbst eine Voodoo-Rush, danach eine 6MB Voodoo Graphics (Miro Highscore 3D) + NV Riva128 und dann der Übergang zu Direct3D und damit NV -> TNT2-Model64 -> Hercules GF2MX -> KyroII und bald -> Elsa GF3-Ti200.
Großer Gott, nur weil man Glide nicht für das Ei des Columbus, sondern "nur" für eine proprietäre API hält, die den Wettbewerb behindert, wird man von den 3dfx-Nostalgikern gleich an die Wand gestellt. War doch ned als Angriff gemeint *handreich* *schulterklopf*

Ikon
Es war damals aber das beste was es gab. Aber halt nur ein Übergang, wie so vieles im IT Bereich.*cubasunrisemitIkonschlürf*

StefanV
2002-05-11, 21:18:10
Originally posted by TBird


Unterscheide bitte:

Meinung = "aths Artikel SIND NVidia gegenüber feindlich gesinnt"

Beleidigung = "aths ist ein Ar..."

Wo hab ich bitte hier beleidigt ???

1. Sie sind NV Gegenüber sehr kritisch!!!

War klar, daß das als 'feindlich gegen XX' interpretiert wird...

Wenn er NV Feindlich wäre, warum sollte er 500 Teuros für eine GF4 TI46000 ausgeben??

Leonidas
2002-05-11, 21:19:43
Originally posted by TBird


Unterscheide bitte:

Meinung = "aths Artikel SIND NVidia gegenüber feindlich gesinnt"

Beleidigung = "aths ist ein Ar..."

Wo hab ich bitte hier beleidigt ???



Hehe, ich meinte was anderes:

Wer schreibt, daß 3DCenter den kommenden Matrox-Chip hochjubeln wird, der lehnt sich meiner Meinung viel zu weit aus dem Fenster und greift im übrigen auch mich direkt an. DIES meinte ich im übrigen - und nicht die Anti-nVidia-Aussage. Eine Kritik an einem noch nicht geschriebene Artikel zu äußern, ist IMHO ein ganz fetter Hund, oder? Du wirst Dir in Zukunft leider vorwerfen lassen müssen, das DUUUU tendenziell bist, wenn Du Vorab-Urteile wie hier fällst.


PS: nVidia-feindlich ist ok. "Hass auf nVidia" ist nicht ok.

Quasar
2002-05-11, 21:22:18
@ernesto.che:

Funktionieren ist eine Sache, aber auf Kosten der Image Quality die Performance steigern und dann von einem fairen Vergleich reden?

Ich habe das Gefühl, du versuchst dich rauszureden.
Fair verglichen werden kann nur, wenn ein identisches Featureset genutzt wird. Glide fällt z.B. nicht darunter, weil, wie in der Turok-Demo zu sehen, einfach bestimmte Effekt unterschlagen werden, ohne den Spieler zu informieren. So denkt er sich "Hey, prima, mit Glide is alle goil", kennt aber in Wirklichkeit nur die eine Hälfte der Medaille.
-> So funktioniert das nicht! Du musst identische Rahmenbedingungen schaffen, und kannst bei evtlem Gleichstand dann meinetwegen Glide als Bonus anführen (Genausogut kann man 32Bit als Bonus anführen, oder große Texturen).

@Exxtreme:
Dedizierte Hardware für's FSAA haben und einfach nur in einen vergrößterten Buffer rendern sind zwei verschieden Dinge, insofern ist das FSAA der GF2 imho ein Soft-FSAA.

Exxtreme
2002-05-11, 21:27:17
Originally posted by Quasar

@Exxtreme:
Dedizierte Hardware für's FSAA haben und einfach nur in einen vergrößterten Buffer rendern sind zwei verschieden Dinge, insofern ist das FSAA der GF2 imho ein Soft-FSAA.
Nö. Das AA wird von der HW gemacht und nicht per Software.

Gruß
Alex

StefanV
2002-05-11, 21:27:42
Originally posted by Richthofen
kann mir mal einer erklären worüber man sich hier aufregt?

Des sind doch alles olle Kamellen. 3dfx hat das bekommen was sie verdient haben und Punkt. Die sind schneller untergegangen als die Titanik. Der Markt hat sie für ihre Stümperei vor allem was 2D / 3D anging bestraft wie es sich gehört.

Punkt aus Ende im Gelände. Sie haben geloost und Nv gesiegt und darauf sauf ich nun einen beim Fussball :)

DEN Spruch werd ich mir merken, könnte ja sein, daß man ihn mal gegen eine andere Firma anwenden könnte :eyes:

ernesto.che
2002-05-11, 21:29:22
Originally posted by Quasar
@ernesto.che:

Funktionieren ist eine Sache, aber auf Kosten der Image Quality die Performance steigern und dann von einem fairen Vergleich reden?

Ich habe das Gefühl, du versuchst dich rauszureden.
Fair verglichen werden kann nur, wenn ein identisches Featureset genutzt wird. Glide fällt z.B. nicht darunter, weil, wie in der Turok-Demo zu sehen, einfach bestimmte Effekt unterschlagen werden, ohne den Spieler zu informieren. So denkt er sich "Hey, prima, mit Glide is alle goil", kennt aber in Wirklichkeit nur die eine Hälfte der Medaille.
-> So funktioniert das nicht! Du musst identische Rahmenbedingungen schaffen, und kannst bei evtlem Gleichstand dann meinetwegen Glide als Bonus anführen (Genausogut kann man 32Bit als Bonus anführen, oder große Texturen).

Gleiches denke ich von dir auch ;)
Glide ist eine API.

ow
2002-05-11, 21:29:52
Originally posted by Stefan Payne


Wenn er NV Feindlich wäre, warum sollte er 500 Teuros für eine GF4 TI46000 ausgeben??


Aths IST NV-feindlich und hat nur mangels echter Alternative zur GF4 gegriffen.

ernesto.che
2002-05-11, 21:30:14
Originally posted by Exxtreme

Nö. Das AA wird von der HW gemacht und nicht per Software.

Gruß
Alex Weil Software auf Hardware zurückgreift? :D

ernesto.che
2002-05-11, 21:34:09
Originally posted by ow



Aths IST NV-feindlich und hat nur mangels echter Alternative zur GF4 gegriffen.
Er wird sich über diese Entscheidung schon noch ärgern.

Quasar
2002-05-11, 21:34:16
Aber eine minderwertige und proprietäre, die erst freigegeben wurde, als sie schon klinisch tot war und die mit den von ihre unterstützten Chips viele Dinge nicht darstellen kann.

Du nimmst btw für UT ja auch nicht OpenGL für nV-Chips und D3D für Kyros nur weil die sich da jeweils besser machen, oder?

Tststs, fangen wir demnächst noch an, die MipMaps vor dem Benchen auf "Best Performance" zu stellen, damit auch ja jedes Quentchen Speed genutzt wird?

Sorry, aber ich würde langsam gerne mal etwas konstruktives hören:
Wie stellst du dir konkret einen Vergleich von, sagen wir Savage3D, Voodoo Banshee, nVidia TnT vor?

StefanV
2002-05-11, 21:36:43
Originally posted by Exxtreme

Nö. Das AA wird von der HW gemacht und nicht per Software.

Gruß
Alex

Die Hardware hat kaum 'FSAA Features'.

Auch wurde das FSAA nur 'nachgereicht' und ist in der Architektur der GF1/2 nicht vorgesehen.

Gleiches bei Radeon 1.

'Hardware' FSAA haben nur R200, NV2x, NV17 und VSA-100...

ernesto.che
2002-05-11, 21:37:33
Originally posted by Quasar
Aber eine minderwertige und proprietäre, die erst freigegeben wurde, als sie schon klinisch tot war und die mit den von ihre unterstützten Chips viele Dinge nicht darstellen kann.

Du nimmst btw für UT ja auch nicht OpenGL für nV-Chips und D3D für Kyros nur weil die sich da jeweils besser machen, oder?

Tststs, fangen wir demnächst noch an, die MipMaps vor dem Benchen auf "Best Performance" zu stellen, damit auch ja jedes Quentchen Speed genutzt wird?

Sorry, aber ich würde langsam gerne mal etwas konstruktives hören:
Wie stellst du dir konkret einen Vergleich von, sagen wir Savage3D, Voodoo Banshee, nVidia TnT vor?
Ich gehe mal von UT: Glide für die Banshee, MeTal für die Savage und D3D für die TNT. Von mir aus darf sogar der 4.36 installiert sein, damit es auf der TNT überhaupt vernünftig läuft.

Dunkeltier
2002-05-11, 21:37:57
Originally posted by Quasar
Aber eine minderwertige und proprietäre, die erst freigegeben wurde, als sie schon klinisch tot war und die mit den von ihre unterstützten Chips viele Dinge nicht darstellen kann.

Du nimmst btw für UT ja auch nicht OpenGL für nV-Chips und D3D für Kyros nur weil die sich da jeweils besser machen, oder?

Tststs, fangen wir demnächst noch an, die MipMaps vor dem Benchen auf "Best Performance" zu stellen, damit auch ja jedes Quentchen Speed genutzt wird?

Sorry, aber ich würde langsam gerne mal etwas konstruktives hören:
Wie stellst du dir konkret einen Vergleich von, sagen wir Savage3D, Voodoo Banshee, nVidia TnT vor?


Treiber auf "Default" stellen, in den Spieloptionen nichts ändern außer einer bestimmten Auflösung (@ 1024x768). Eine für damalige Zeit normale Farbtiefe einstellen (@ 32 Bit). Sich auf eine API die alle können einigen (D3D oder OpenGL). BENCHEN...

ernesto.che
2002-05-11, 21:40:45
Originally posted by Black Cow



Treiber auf "Default" stellen, in den Spieloptionen nichts ändern außer einer bestimmten Auflösung (@ 1024x768). Eine für damalige Zeit normale Farbtiefe einstellen (@ 32 Bit). Sich auf eine API die alle können einigen (D3D oder OpenGL). BENCHEN...


Der Anwender zu Hause wird das doch aber auch nicht machen! Der wird sich das raussuchen, was mit seiner Hardware am besten läuft.

Quasar
2002-05-11, 21:40:48
Originally posted by Exxtreme

Nö. Das AA wird von der HW gemacht und nicht per Software.

Gruß
Alex

Ach so, na dann wundert mich es, wie die Hardware weiß, daß sie nun auf einmal in einen viel größeren Buffer rendern soll, als von der Applikation vorgegeben wird und wieso sie diesen Riesenbuffer auf einmal nicht an der RAMDAC schicken darf...

Ikon
2002-05-11, 21:42:52
Originally posted by ernesto.che

Ich gehe mal von UT: Glide für die Banshee, MeTal für die Savage und D3D für die TNT. Von mir aus darf sogar der 4.36 installiert sein, damit es auf der TNT überhaupt vernünftig läuft.

Gerade das ist ja das Problem: Glide und MeTal sind proprietär - D3D aber nicht. Somit wäre die TNT automatisch benachteiligt. Ausserdem ist UT wohl das einzige Spiel, das derart viel APIs unterstützt, soetwas gibbet nicht nochmal.

Ikon

Quasar
2002-05-11, 21:43:53
Originally posted by ernesto.che



Der Anwender zu Hause wird das doch aber auch nicht machen! Der wird sich das raussuchen, was mit seiner Hardware am besten läuft.

Egal, wie's hinterher aussieht?

Ich glaube kaum....

Ich kenne eine Menge Leute, die nach dem Erscheinen des S3TC-Renderers auf einmal nur noch OpenGL in UT benutzten. Ich denke, sie gehen danach, was ihnen die beste Bildqualität bietet.

ernesto.che
2002-05-11, 21:44:59
Originally posted by Ikon


Gerade das ist ja das Problem: Glide und MeTal sind proprietär - D3D aber nicht. Somit wäre die TNT automatisch benachteiligt.

Ikon Niemand hat Nvidia oder Ati daran gehindert, auch eine properitäre API zu schreiben.

ernesto.che
2002-05-11, 21:46:20
Originally posted by Quasar


Egal, wie's hinterher aussieht?

Ich glaube kaum....

Ich kenne eine Menge Leute, die nach dem Erscheinen des S3TC-Renderers auf einmal nur noch OpenGL in UT benutzten. Ich denke, sie gehen danach, was ihnen die beste Bildqualität bietet.
UT sieht aber mit Glide besser aus.

StefanV
2002-05-11, 21:46:33
Originally posted by Ikon
@Stefan Payne
Glide war wohl ein bisschen mehr als ein "einfaches" Feature. Programmierung für Glide hatte aber zur Folge, dass die Konkurrenz benachteiligt wurde, grafikqualitäts- und speedtechnisch. Zum Nutzen von Glide: für Voodoo-Besitzer toll, für alle anderen doof. Ich wollte mit meinem Kommentar zu Glide nur ausdrücken, dass Vergleichsbenchmarks gegen andere Karten beim Einsatz von Glide einfach nicht aussagekräftig sind, weil unter ungleichen Voraussetzungen. Trotzdem bin ich froh, dass dieses API-Monopol Geschichte ist. Wenn es soetwas heute noch gäbe, dann würden wir wohl alle über NV3D (tm) spielen.

Ikon

Dennoch ist Glide ein Feature der Grafikkarte ;)

Wer verlangt, daß man alle Features der Karten bewertet, der muß auch Glide bewerten, da es sonst nicht fair ist.

Du siehst, wir drehen uns im Kreis ;)

Kurz:

Wenn Karte und Spiel Glide kann->Glide und D3D/OGL Benchen mit Karte

Quasar
2002-05-11, 21:46:46
...aber TnL und Shader-Effekte empfindest du als unfair? :lol:

Niemand hat 3dfx daran gehindert, in ihre Produkte Shader zu integrieren....

Quasar
2002-05-11, 21:47:39
Originally posted by ernesto.che

UT sieht aber mit Glide besser aus.

Du willst mir nicht ernsthaft erzählen, daß du UT mit Glide schöner findest, als mit den S3TC-Texturen??

ernesto.che
2002-05-11, 21:51:04
Originally posted by Quasar


Du willst mir nicht ernsthaft erzählen, daß du UT mit Glide schöner findest, als mit den S3TC-Texturen?? wenn ich die Texturen und bei einer Voodoo nicht nehme nicht. Die Texturen gibts aber auch als FXT1 Version. Und FXT1 ist S3TC auch noch überlegen :D

Ikon
2002-05-11, 21:51:45
@Stefan Payne
Ich denke auch, das wäre der fairste Weg.

@ernesto.che
Wenn jeder Hersteller seine eigene API hätte, dann gäbe es wohl heute wesentlich weniger PC-Spiele, da der Programmieraufwand pro Spiel unverhältnismäßig ansteigen würde (auch gegenüber Konsolen). Ausserdem wären dann John Carmack und Tim Sweeney wahrscheinlich schon verrückt geworden.

Ikon

zeckensack
2002-05-11, 21:54:57
Originally posted by Quasar


Ach so, na dann wundert mich es, wie die Hardware weiß, daß sie nun auf einmal in einen viel größeren Buffer rendern soll, als von der Applikation vorgegeben wird und wieso sie diesen Riesenbuffer auf einmal nicht an der RAMDAC schicken darf... Quizfrage: Woher weiß die Grafikkarte überhaupt, was sie machen soll?
Hmm, Treiber?
*eg*

ernesto.che
2002-05-11, 21:55:43
Originally posted by Ikon
@Stefan Payne
Ich denke auch, das wäre der fairste Weg.

@ernesto.che
Wenn jeder Hersteller seine eigene API hätte, dann gäbe es wohl heute wesentlich weniger PC-Spiele, da der Programmieraufwand pro Spiel unverhältnismäßig ansteigen würde (auch gegenüber Konsolen). Ausserdem wären dann John Carmack und Tim Sweeney wahrscheinlich schon verrückt geworden.

Ikon
Ich halte besonders Sweeny für verrückt, obwohl "sein" Unreal IMHO der beste Shooter ever ist.
Die Glide Zeit ist doch tw. mit der V5 auch bei 3dfx ausgelaufen. Beim Rampage wäre Glide nahezu unwichtig gewesen. Also wäre es dort Mitte 2001 wieder auf OGL und D3D hinausgelaufen.
Vorher war aber Glide die beste Lösung zum zocken.

Dunkeltier
2002-05-11, 21:56:08
Wieso läßt man nicht endlich D3D und OpenGL verschmelzen, Microsoft & das OpenGL Gremium hatten dies ja mal angestrebt und dann abgebrochen gehabt? Hätte doch nur Vorteile, für Gamer und den Profi CAD Markt.

ernesto.che
2002-05-11, 21:56:14
Originally posted by zeckensack
Quizfrage: Woher weiß die Grafikkarte überhaupt, was sie machen soll?
Hmm, Treiber?
*eg* Lüge!!!!

ernesto.che
2002-05-11, 21:57:02
Originally posted by Black Cow
Wieso läßt man nicht endlich D3D und OpenGL verschmelzen, Microsoft & das OpenGL Gremium hatten dies ja mal angestrebt und dann abgebrochen gehabt? Hätte doch nur Vorteile, für Gamer und den Profi CAD Markt.
Ich denke mal Microsoft hat eine API Freischaltung integrieren wollen ;)

Ikon
2002-05-11, 21:57:16
Originally posted by ernesto.che

Ich halte besonders Sweeny für verrückt, obwohl "sein" Unreal IMHO der beste Shooter ever ist.
Die Glide Zeit ist doch tw. mit der V5 auch bei 3dfx ausgelaufen. Beim Rampage wäre Glide nahezu unwichtig gewesen. Also wäre es dort Mitte 2001 wieder auf OGL und D3D hinausgelaufen.
Vorher war aber Glide die beste Lösung zum zocken.


*zustimm*

Ikon

Dunkeltier
2002-05-11, 21:57:22
Originally posted by zeckensack
Quizfrage: Woher weiß die Grafikkarte überhaupt, was sie machen soll?
Hmm, Treiber?
*eg*


Der Treiber setzt nur die ankommenden Befehle in eine für die Grafikkarte verständliche Sprache um.... *eg*

Quasar
2002-05-11, 21:59:17
Originally posted by ernesto.che
wenn ich die Texturen und bei einer Voodoo nicht nehme nicht. Die Texturen gibts aber auch als FXT1 Version. Und FXT1 ist S3TC auch noch überlegen :D

Die Texturen-Version liegt UT aber nicht beu...

Kriege ich noch eine Antwort auf meine Frage?
Wie willst du _fair_ vergleichen??


@Zeckensack:
Genau, und wenn dieser Treiber die Hardware nur anders anspricht, ohne jedoch zusätzliche Hardware-Funktionen zu nutzen, sehe ich das als Emulation an.

ernesto.che
2002-05-11, 22:04:03
Originally posted by Quasar


Die Texturen-Version liegt UT aber nicht beu...

Kriege ich noch eine Antwort auf meine Frage?
Wie willst du _fair_ vergleichen??


@Zeckensack:
Genau, und wenn dieser Treiber die Hardware nur anders anspricht, ohne jedoch zusätzliche Hardware-Funktionen zu nutzen, sehe ich das als Emulation an. habe ich doch längst geschriben. Einer Grafikkarte liegt auch nicht der für immer aktuelleste Treiber bei.

Quasar
2002-05-11, 22:06:24
Nein, hast du nicht geschrieben.

Und Glide entspräche in der relevanten Eigenschaft deinem Ablehnungsgrund für DX8-Shader...wie gesagt, niemand hat 3dfx daran gehindert Shader einzubauen.

ernesto.che
2002-05-11, 22:10:28
Originally posted by Quasar
Nein, hast du nicht geschrieben.

Und Glide entspräche in der relevanten Eigenschaft deinem Ablehnungsgrund für DX8-Shader...wie gesagt, niemand hat 3dfx daran gehindert Shader einzubauen.

*argl* du wirfts jetzt alles durcheinander, du kannst doch auch nicht Sahnetorte und Gummireifen ausmuliplizieren.
In 3DMark, da theoretischer&syntethischer Bench, sollte so lange nicht alle getesteten Karten über DX8 Shader verfügen nicht damit getestet werden. In realen Anwedungen (Spielen) natürlich immer so, das jede Karte die besten Einstellungen bekommt. Unterstützt ein Spiel DX8Shader, soll die Grafikkarte auch davon profitieren. Genauso wie bei Glide.

Quasar
2002-05-11, 22:17:31
Nicht ich werfe alles durcheinander....

Aber es hat eh keinen Sinn mit dir. Over 'n out.

TBird
2002-05-11, 22:18:57
Originally posted by Leonidas

Hehe, ich meinte was anderes:

Wer schreibt, daß 3DCenter den kommenden Matrox-Chip hochjubeln wird, der lehnt sich meiner Meinung viel zu weit aus dem Fenster und greift im übrigen auch mich direkt an. DIES meinte ich im übrigen - und nicht die Anti-nVidia-Aussage. Eine Kritik an einem noch nicht geschriebene Artikel zu äußern, ist IMHO ein ganz fetter Hund, oder? Du wirst Dir in Zukunft leider vorwerfen lassen müssen, das DUUUU tendenziell bist, wenn Du Vorab-Urteile wie hier fällst.


PS: nVidia-feindlich ist ok. "Hass auf nVidia" ist nicht ok.

Hehe, und ich schrieb, dass ich hoffe dass dies nicht geschieht und nicht dass dies auf jeden Fall so sein wird.
Ein kleiner aber feiner Unterschied oder ???

Unregistered
2002-05-11, 22:19:21
Originally posted by Quasar
@Zeckensack:
Genau, und wenn dieser Treiber die Hardware nur anders anspricht, ohne jedoch zusätzliche Hardware-Funktionen zu nutzen, sehe ich das als Emulation an. Arrglll.
Software-Emulation wäre zum Beispiel das:
Graka rendert Bild in 1600x1200.
Treiber holt sich das Bild von der Graka, filtert (auf der CPU/im System-RAM) auf 800x600 runter und schickt's zurück an die Graka.
So macht das aber kein Chip.

Was ist bitte Software-Emulation daran, wenn der Treiber der Graka mitteilt, sie möchte doch bitte jetzt in FSAA rendern?
Das ist doch nix anderes, als der Graka mitzuteilen, sie soll einen Framebuffer klarmachen.
Das sieht dann so aus:
Applikation sagt "Hallo, 800x600x32 bitte!"
Treiber sagt "Psst, 1600x1200x32, zur Ausgabe runterfiltern, aber nicht weitersagen!"
Graka sagt "Hnkey"

Tatsache ist, daß für deine sogenannte Software-Emu kein einziges gerendertes Pixel über den PCI-Bus wandern muß. Es geschieht alles auf der Graka, also in Hardware.

zeckensack
2002-05-11, 22:20:59
Der Mr Arglll war ich.

ernesto.che
2002-05-11, 22:22:58
Originally posted by Quasar
Nicht ich werfe alles durcheinander....

Aber es hat eh keinen Sinn mit dir. Over 'n out.
*lol* ich fühle mich mit dir auch so. Seis drum.

Xmas
2002-05-11, 22:24:29
Originally posted by Quasar
Dedizierte Hardware für's FSAA haben und einfach nur in einen vergrößterten Buffer rendern sind zwei verschieden Dinge, insofern ist das FSAA der GF2 imho ein Soft-FSAA.
Dann behaupte ich einfach mal dass GeForce-Chips "dedizierte" Hardware für FSAA haben...

Originally posted by Stefan Payne
Die Hardware hat kaum 'FSAA Features'.

Auch wurde das FSAA nur 'nachgereicht' und ist in der Architektur der GF1/2 nicht vorgesehen.
Die Hardware hat genau die "FSAA-Features" die sie für die gewählte FSAA-Art benötigt. Das es eine sehr einfache Variante ist, spielt keine Rolle.

Woher willst du wissen dass FSAA in der Architektur nicht vorgesehen war?


Und den Rest hat Zeckensack schon geschrieben... ;)