PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : erst 3dfx dann S3 und nun XGI?


Gast
2003-10-24, 14:27:10
Hallo erstmal,

ich möchte mal berechtigte Kritik bezüglich einiger niederschmetternder Aussagen bezüglich bestimmter Grafikkarten anbringen.

1. Ja, Riva hatte mit dem TNT einen 32 bit Grafikchip und 3dfx nicht, aber es hat beim TNT nichts gebracht da er unter dem Modi für den er unendlich gelobt wurde nicht genügend Leistung brachte.

2. Ja, die GeForce hatte T&L und 3dfx nicht, aber sind wir mal ehrlich von den hochgelobten Spielen war bis vor kurzem noch nichts zu sehen, nach mittlerweile fast 4 Jahren.

3. Ja, GeForce war schneller als der Savage 4, aber der Savage hatte die eindeutig bessere Bildqualität zu bieten, zudem beherrschte die GeForce noch nicht einmal fehlerfrei die Texturkompression.

Usw. usf. Fakt ist ich habe manchmal das Gefühl, das etwas vorgeplappert wird und und dann Leute mit gefährlichem Halbwissen losrennen und nachplappern, das Prob dabei ist, es müssen nur genug Leute eine These vertreten, dann wird sie auch wahr.

Z.B. lese ich etwas von der Volari Duo von XGI, der beherrscht nur 4 fach Anti-Aliasing Sampling, ein Schrott von Grafikchip blabla bla und tralala...... Bullshit

Fakt ist in letzter Zeit wurden, wenn die Marketingabteilung gut genug war, einfach die Vorzüge bis ins unendliche gelobt und über den einen oder anderen Fehler mal lässig hinweggesehen.

Zum Vergleich, bei NVidia und ATI ist auch nicht immer alles Gold was glänzt, seit dem 8500 glaube ich nicht wirklich, dass die ATI Chips um Dimensionen besser geworden sind, ich gehe vielmehr davon aus, dass ATI jetzt mit den gleichen harten Bandagen spielt wie NVidia.
Sprich die nachgewiesenen Treiberoptimierungen bei bestimmten Benchmarks, vermehrte Kooperation mit Engine-Programmierern, vielleicht auch finanzielle Kooperation?
Stichworte,Carmack Doom 3 NVidia, Valve Half Life 2 ATI
(Bestechung ist so ein hässliches Wort)

Gehen wir mal davon aus, seinerzeit wäre 32bit nicht so maßlos übertrieben dargestellt worden, sondern es wären auch die Vorzüge der 3dfx Chips in gleichem Maß befeuert worden: Spielekompatibilität, Geschwindigkeit unter Glide, Bildqualität usw...
Wie würde es heute aussehen???

Ein ähnliches Spielchen mit S3, Matrox usw...

Z.B. las ich (sehr interessant), wie hätte ein Vergleich der Matrox Pahelia mit ähnlich optimierten Schummeltreibern ausgesehen, vielleicht wäre der Abstand dann nicht so niederschmetternd?

Alles spekulativ, Fakt ist die gleiche Soße wird grade wieder aufgewärmt, indem man bei dem Volari Duo ansetzt, bitteschön entweder objektiv an die Sache rangehen, oder sein lassen.

Bin damals nämlich auch schön blöd an die Sache rangegangen, erst die Voodoo 2000 raus, dann TNT2, zu langsam und nur 16 MB, gefolgt von Savage 4, gefolgt von GeForce und dem Märchen von unendlich besseren Grafikeffekten, Pustekuchen.

Die Voodoo 2000 war gut, war sehr zufrieden, habe nur wegen dem Hype gewechselt, Savage 4 war ich auch sehr zufrieden habe nur wegen dem Hype gewchselt.

Heute älter, klüger und nicht meht so leicht zu beeinflussen, aber da draussen sind jede Menge Leute
die warten doch nur darauf, dass man ihnen was vorbetet.
Frühstück für Marketingabteilungen

Gruß

Mordred
2003-10-24, 14:37:38
Naja dieses gehype ist wirklich shice aber was soll man machen ...

Klar wen MAtrox mal losrotzen würden mit ihren Features wie triple screen displacementmapping (funzt da eigntlich mittlerweile) bla und sülz die könnten auch den ein oder anderen Kunden begeistern.

Die Aufteilung ist ja an und für sich so:
Innovationen/Denkansäze kommen von den kleinen Firmen.
Die großen Firman schnappen das auf verballern das selbst inner hardware machen dickes trara und dann wirds bei ihnen gekauft.

Imho hat Matrox auf dem Gebiet mehr skill als Nvidia und ATI zusammen.

Ebenso die BitBoys was ja leider nur bei der Theorhie blieb.

ICh für meien Teil kaufe jedenfall keine NVIDIA/ATI Produkte mehr.

Pirx
2003-10-24, 14:38:33
Tja, Geld regiert die Welt, der Vogel, der am lautesten schreit, wird zuerst gefüttert,... Es gibt leider in dem Geschäft kaum Platz für Sentimentalitäten, ist doch immer so, wenn ein Markt vom "Kapital";) als solcher entdeckt wird.

Aquaschaf
2003-10-24, 14:45:41
Ich wüsste nicht, was an Matrox Karten inovativer als an denen von NV oder ATI sein sollte, und unabhängig davon wie die Treiber "optimiert" sind... der Parhelia fehlt es es an Rohleistung und Bandbreite (und PS2.0 Support).

Mordred
2003-10-24, 14:48:34
Original geschrieben von Aquaschaf
Ich wüsste nicht, was an Matrox Karten inovativer als an denen von NV oder ATI sein sollte, und unabhängig davon wie die Treiber "optimiert" sind... der Parhelia fehlt es es an Rohleistung und Bandbreite (und PS2.0 Support).

Es ging jetzt mehr drum was Matrox so an entwicklungen rausrotzt. Displacement Mapping, Environmental BumpMapping, Triple Screen ....

Gibt genuch.

Was die KArten betrifft ok die sind meistens bisschen langsamer aber MAtrox is halt mehr fürn Profibereich die wollen scheinbar nicht aufn GmaeMarkt auch wenn sie da mit sicherheit gut mitmischen könnten.

StevenB
2003-10-24, 14:56:06
Ihmo glaub ich, wenn Matrox wollte, könnten sie im Gamer Markt mitmischen. Nur läst sich nicht wirklich viel Geld verdienen im Gamer Markt. Das meiste ist immernoch OEM.

tb
2003-10-24, 15:00:59
Original geschrieben von [GHN]Steven
Ihmo glaub ich, wenn Matrox wollte, könnten sie im Gamer Markt mitmischen. Nur läst sich nicht wirklich viel Geld verdienen im Gamer Markt. Das meiste ist immernoch OEM.

Matrox fehlt es wohl einfach am Geld(sind ja keine Aktiengesellschaft wie ATi und NVIDIA) um leistungsfähige Gamerkarten zu entwickeln, da die Entwicklung einer DX9 / DX10 VPU doch recht teuer ist und ein paar Tage dauert. Die Preise der Parhelia waren doch recht hoch, Profikarten könne ruhig >500€ kosten, für Gamer sollte es vom Low-End bis zum High-End eine Auswahl geben, siehe ATi und NVIDIA etc. - gab es sowas je bei Matrox!?

Thomas

Mordred
2003-10-24, 15:05:23
Original geschrieben von tb
Matrox fehlt es wohl einfach am Geld(sind ja keine Aktiengesellschaft wie ATi und NVIDIA) um leistungsfähige Gamerkarten zu entwickeln, da die Entwicklung einer DX9 / DX10 VPU doch recht teuer ist und ein paar Tage dauert. Die Preise der Parhelia waren doch recht hoch, Profikarten könne ruhig >500€ kosten, für Gamer sollte es vom Low-End bis zum High-End eine Auswahl geben, siehe ATi und NVIDIA etc. - gab es sowas je bei Matrox!?

Thomas

joar aber laaaaaaaaaange her. g400 gabs in verschiedenen Ausbaustufen. Um genau ztu sein 2 :> Die nromale und die Max ^^

Gut waren etwas teurer als Nvidia zu der Zeit aber dafür ham se die auch wech geputzt :>

Lag wohl am Marketing das der g400 net grad nen renner geworden is.

Dann gabs ja auch noch mystique und Millenium Karten ne Zeitlang. Glaub beim g100 gabs noch beide...

ShadowXX
2003-10-24, 15:12:30
Original geschrieben von [KoC]Mordred
joar aber laaaaaaaaaange her. g400 gabs in verschiedenen Ausbaustufen. Um genau ztu sein 2 :> Die nromale und die Max ^^

Gut waren etwas teurer als Nvidia zu der Zeit aber dafür ham se die auch wech geputzt :>

Lag wohl am Marketing das der g400 net grad nen renner geworden is.

Dann gabs ja auch noch mystique und Millenium Karten ne Zeitlang. Glaub beim g100 gabs noch beide...

So dolle war die G400 nun auch wieder nicht.....

J.S.Shadow

StefanV
2003-10-24, 15:15:41
Original geschrieben von [KoC]Mordred
joar aber laaaaaaaaaange her. g400 gabs in verschiedenen Ausbaustufen. Um genau ztu sein 2 :> Die nromale und die Max ^^

Gut waren etwas teurer als Nvidia zu der Zeit aber dafür ham se die auch wech geputzt :>

Lag wohl am Marketing das der g400 net grad nen renner geworden is.

Dann gabs ja auch noch mystique und Millenium Karten ne Zeitlang. Glaub beim g100 gabs noch beide...

nö, in 7 :naughty:

Wir wollen ja genau sein...

Gab 'ne G400SH mit:

16MB/SDRAM
16MB/SGRAM
32MB/SGRAM

Und es gab 'ne G400DH mit:

16MB SGRAM
16MB SDRAM
und 32MB SGRAM

Dann gabs noch 'ne G400 MAX...

StefanV
2003-10-24, 15:17:39
Original geschrieben von ShadowXX
So dolle war die G400 nun auch wieder nicht.....

J.S.Shadow
Zur damaligen Zeit wars das beste, wo gab...

War unter 32bit deutlich schneller als 'ne Riva 128, funzte besser als 'ne Rage, hatte als erste Karte im Consumerbereich 2 Display Controller...

€dit:

Achja, die G400 hatte eine superbe SQ, was damals auch nicht alle TNTs und Banshees hatten..

Quasar
2003-10-24, 15:24:41
Original geschrieben von [KoC]Mordred
Lag wohl am Marketing das der g400 net grad nen renner geworden is.

Nö, eher an Anfangs durch D3D-Wrapper kränkelnder OpenGL-Leistung.

Dummerweise zu der Zeit, als alle Welt Quake2 im Multiplayer spielte, sich an Half-Life im Single-Player erfreute und Quake3 DER Hype war.

IMHO hat das ihnen viel eher die Luft weggegraben, als mangelndes Marketing, denn es gab zu der Zeit eine Menge SpieleMags, die die G400 zu recht für ihre (D3D-)Schnelligkeit und Featureumfang lobten.

mapel110
2003-10-24, 15:24:59
Original geschrieben von Gast
Hallo erstmal,

ich möchte mal berechtigte Kritik bezüglich einiger niederschmetternder Aussagen bezüglich bestimmter Grafikkarten anbringen.

1. Ja, Riva hatte mit dem TNT einen 32 bit Grafikchip und 3dfx nicht, aber es hat beim TNT nichts gebracht da er unter dem Modi für den er unendlich gelobt wurde nicht genügend Leistung brachte.

2. Ja, die GeForce hatte T&L und 3dfx nicht, aber sind wir mal ehrlich von den hochgelobten Spielen war bis vor kurzem noch nichts zu sehen, nach mittlerweile fast 4 Jahren.

3. Ja, GeForce war schneller als der Savage 4, aber der Savage hatte die eindeutig bessere Bildqualität zu bieten, zudem beherrschte die GeForce noch nicht einmal fehlerfrei die Texturkompression.

Usw. usf. Fakt ist ich habe manchmal das Gefühl, das etwas vorgeplappert wird und und dann Leute mit gefährlichem Halbwissen losrennen und nachplappern, das Prob dabei ist, es müssen nur genug Leute eine These vertreten, dann wird sie auch wahr.

Z.B. lese ich etwas von der Volari Duo von XGI, der beherrscht nur 4 fach Anti-Aliasing Sampling, ein Schrott von Grafikchip blabla bla und tralala...... Bullshit

Fakt ist in letzter Zeit wurden, wenn die Marketingabteilung gut genug war, einfach die Vorzüge bis ins unendliche gelobt und über den einen oder anderen Fehler mal lässig hinweggesehen.

Zum Vergleich, bei NVidia und ATI ist auch nicht immer alles Gold was glänzt, seit dem 8500 glaube ich nicht wirklich, dass die ATI Chips um Dimensionen besser geworden sind, ich gehe vielmehr davon aus, dass ATI jetzt mit den gleichen harten Bandagen spielt wie NVidia.
Sprich die nachgewiesenen Treiberoptimierungen bei bestimmten Benchmarks, vermehrte Kooperation mit Engine-Programmierern, vielleicht auch finanzielle Kooperation?
Stichworte,Carmack Doom 3 NVidia, Valve Half Life 2 ATI
(Bestechung ist so ein hässliches Wort)

Gehen wir mal davon aus, seinerzeit wäre 32bit nicht so maßlos übertrieben dargestellt worden, sondern es wären auch die Vorzüge der 3dfx Chips in gleichem Maß befeuert worden: Spielekompatibilität, Geschwindigkeit unter Glide, Bildqualität usw...
Wie würde es heute aussehen???

Ein ähnliches Spielchen mit S3, Matrox usw...

Z.B. las ich (sehr interessant), wie hätte ein Vergleich der Matrox Pahelia mit ähnlich optimierten Schummeltreibern ausgesehen, vielleicht wäre der Abstand dann nicht so niederschmetternd?

Alles spekulativ, Fakt ist die gleiche Soße wird grade wieder aufgewärmt, indem man bei dem Volari Duo ansetzt, bitteschön entweder objektiv an die Sache rangehen, oder sein lassen.

Bin damals nämlich auch schön blöd an die Sache rangegangen, erst die Voodoo 2000 raus, dann TNT2, zu langsam und nur 16 MB, gefolgt von Savage 4, gefolgt von GeForce und dem Märchen von unendlich besseren Grafikeffekten, Pustekuchen.

Die Voodoo 2000 war gut, war sehr zufrieden, habe nur wegen dem Hype gewechselt, Savage 4 war ich auch sehr zufrieden habe nur wegen dem Hype gewchselt.

Heute älter, klüger und nicht meht so leicht zu beeinflussen, aber da draussen sind jede Menge Leute
die warten doch nur darauf, dass man ihnen was vorbetet.
Frühstück für Marketingabteilungen

Gruß

der parhelia fehlts vor allem an speicherbandbreitenschonenden massnahmen. ausserdem bot er nen kaputtes AA und nur 2xAF.
der volarie nur 4xSSAA und 4xAF, wobei über die AF quali noch nix bekannt ist.
der volarie hat nunmal das problem, dass er auch bildqualitätsfeatures bieten muss. rohpower haben heute aktuelle high end chips genug.

Endorphine
2003-10-24, 15:48:22
Die ganzen kleinen Firmen haben wohl neben ATI und nVidia mittelfristig nur eine Chance, wenn sie sich zusammenschliessen und nicht mehr gegeneinander kämpfen müssen.

Und - wer weiss - Intel muss demnächst DX9-Grafik in die hauseigenen Chipsätze integrieren, damit Windows Longhorn kommen kann. Ich bezweifle, dass das Real3D know-how dazu ausreichen wird. Vielleicht entwickelt sich ja aus diesem Notstand etwas für die kleinen Hersteller. Intel wird sich sicher nicht von ATI oder nVidia abhängig machen (obwohl mit dem ATI RS300 ja schon eine tolle Basis da wäre).

Quasar
2003-10-24, 16:03:49
Hat Intel nicht unlängst schon DX9-Technologie von jemandem lizenziert, oder trügt meine Erinnerung da?

mapel110
2003-10-24, 16:10:19
Original geschrieben von Quasar
Hat Intel nicht unlängst schon DX9-Technologie von jemandem lizenziert, oder trügt meine Erinnerung da?

jo, sind doch ne kooperation mit ATI eingegangen.
/edit
lizenzen gekauft triffts glaube eher. find dazu allerdings nix mehr. wurde ja hier im forum auch durchgekaut.

Matrix316
2003-10-24, 16:22:05
Die kleinen haben nur eine Chance, wenn sie

a) die gleichen Features bieten
b) mindestens die gleiche Leistung bieten (wenn nicht mehr)
c) gleich teuer oder besser billiger sind

wie die großen.

Tigerchen
2003-10-24, 16:36:18
Original geschrieben von Gast
Hallo erstmal,

ich möchte mal berechtigte Kritik bezüglich einiger niederschmetternder Aussagen bezüglich bestimmter Grafikkarten anbringen.

1. Ja, Riva hatte mit dem TNT einen 32 bit Grafikchip und 3dfx nicht, aber es hat beim TNT nichts gebracht da er unter dem Modi für den er unendlich gelobt wurde nicht genügend Leistung brachte.

Das ist korrekt.War trotzdem eine Karte die für die damalige Zeit in D3D und OpenGL brauchbare Framereaten brachte.


2. Ja, die GeForce hatte T&L und 3dfx nicht, aber sind wir mal ehrlich von den hochgelobten Spielen war bis vor kurzem noch nichts zu sehen, nach mittlerweile fast 4 Jahren.

Ein bißchen übertrieben.Die Einführung von T&L und anderen Techniken wie Bump mapping war trotzdem der richtige Schritt.Daß Spieleentwickler so lange für ältere Hardware programmieren ist ärgerlich aber verständlich.Die können sich ja noch nicht mal überwinden endlich Spiele auf DVD auszuliefern.Trotzdem war die Einführung der DVD genausowenig falsch wie T&L.


3. Ja, GeForce war schneller als der Savage 4, aber der Savage hatte die eindeutig bessere Bildqualität zu bieten, zudem beherrschte die GeForce noch nicht einmal fehlerfrei die Texturkompression.

Aber der Nachfolger Savage 2000 war wirklich fehlerhaft.Und die Treiber ein Alptraum.Wenn ich mich recht erinnere war nur Unreal unter METAL ein wirklicher Hingucker.


Usw. usf. Fakt ist ich habe manchmal das Gefühl, das etwas vorgeplappert wird und und dann Leute mit gefährlichem Halbwissen losrennen und nachplappern, das Prob dabei ist, es müssen nur genug Leute eine These vertreten, dann wird sie auch wahr.

Es gibt kein gefährliches Halbwissen.Unsere Welt ist so kompliziert daß man wirklich nur auf wenigen Feldern richtig gut sein kann.Trotzdem liegt es in der Natur des Menschen über Gott und die Welt zu philosophieren.Leider gibt es im Moment die Tendenz Diskussionen mit dem Hinweis auf "gefährliches Halbwissen" abzuwürgen.


Z.B. lese ich etwas von der Volari Duo von XGI, der beherrscht nur 4 fach Anti-Aliasing Sampling, ein Schrott von Grafikchip blabla bla und tralala...... Bullshit

Fakt ist in letzter Zeit wurden, wenn die Marketingabteilung gut genug war, einfach die Vorzüge bis ins unendliche gelobt und über den einen oder anderen Fehler mal lässig hinweggesehen.

So ist es nun mal.Jede Mutter lobt ihre Butter.


Zum Vergleich, bei NVidia und ATI ist auch nicht immer alles Gold was glänzt, seit dem 8500 glaube ich nicht wirklich, dass die ATI Chips um Dimensionen besser geworden sind, ich gehe vielmehr davon aus, dass ATI jetzt mit den gleichen harten Bandagen spielt wie NVidia.
Sprich die nachgewiesenen Treiberoptimierungen bei bestimmten Benchmarks, vermehrte Kooperation mit Engine-Programmierern, vielleicht auch finanzielle Kooperation?
Stichworte,Carmack Doom 3 NVidia, Valve Half Life 2 ATI
(Bestechung ist so ein hässliches Wort)

Doch.Die ATI-Chips sind um Welten besser geworden.Noch vor eineinhalb Jahren wär ich nie auf die Idee gekommen ATI zu empfehlen geschweige denn selbst zu verwenden.


Gehen wir mal davon aus, seinerzeit wäre 32bit nicht so maßlos übertrieben dargestellt worden, sondern es wären auch die Vorzüge der 3dfx Chips in gleichem Maß befeuert worden: Spielekompatibilität, Geschwindigkeit unter Glide, Bildqualität usw...
Wie würde es heute aussehen???

Kann ich dir genau sagen.3Dfx hätte durch Glide das Monopol bei den 3D-Beschleunigern.Die Folgen kannst du dir selbst ausmalen.Bin froh daß dieser propietäre Standart gestorben ist.

Ein ähnliches Spielchen mit S3, Matrox usw...

Z.B. las ich (sehr interessant), wie hätte ein Vergleich der Matrox Pahelia mit ähnlich optimierten Schummeltreibern ausgesehen, vielleicht wäre der Abstand dann nicht so niederschmetternd?

Nein.John Carmack selbst hat in einem Interview erklärt daß die Parhelia einfach nicht die Leistung bringt.Und daß ist sicher jemand der genau weiß was er redet.

Alles spekulativ, Fakt ist die gleiche Soße wird grade wieder aufgewärmt, indem man bei dem Volari Duo ansetzt, bitteschön entweder objektiv an die Sache rangehen, oder sein lassen.

Dann müßten alle Diskussionen bis zum erscheinen der Karte + finale Treiber eingestellt werden.Nur warum stellen die ihre Karte vor?Das mit der Vorstellung eine öffentliche Diskussion einsetzt dürfte ja wohl klar wie Klossbrühe sein.


Bin damals nämlich auch schön blöd an die Sache rangegangen, erst die Voodoo 2000 raus, dann TNT2, zu langsam und nur 16 MB, gefolgt von Savage 4, gefolgt von GeForce und dem Märchen von unendlich besseren Grafikeffekten, Pustekuchen.

Guck dir Quake 2 und No one lives forever 2 doch mal an.Wirklich keine Verbesserung?


Die Voodoo 2000 war gut, war sehr zufrieden, habe nur wegen dem Hype gewechselt, Savage 4 war ich auch sehr zufrieden habe nur wegen dem Hype gewchselt.

Heute älter, klüger und nicht meht so leicht zu beeinflussen, aber da draussen sind jede Menge Leute
die warten doch nur darauf, dass man ihnen was vorbetet.
Frühstück für Marketingabteilungen

Immer das selbe.
Die Glorifizierung der Vergangenheit so bald die Leute älter werden.

Aquaschaf
2003-10-24, 17:40:02
Bei dieser ganzen 3DFX Nostalgie, die schlechten Dinge vergessen einige Leute wohl recht schnell.

DrumDub
2003-10-24, 17:55:51
Original geschrieben von Aquaschaf
Bei dieser ganzen 3DFX Nostalgie, die schlechten Dinge vergessen einige Leute wohl recht schnell.

das liegt in der menschlichen natur begründet. ;)

technologisch hat 3dfx nicht so viel falsch gemacht, aber wenn man sich das management sowie marketing im nachhinein anschaut, dann bekommt man das kalte grausen...

ow
2003-10-24, 17:58:43
Original geschrieben von Stefan Payne
Zur damaligen Zeit wars das beste, wo gab...

War unter 32bit deutlich schneller als 'ne Riva 128, funzte besser als 'ne Rage, hatte als erste Karte im Consumerbereich 2 Display Controller...

€dit:

Achja, die G400 hatte eine superbe SQ, was damals auch nicht alle TNTs und Banshees hatten..

:rofl:
geiler Vergleich! Ein G400 war auch direkter Konkurrent zu Riva128 und Rage. :bonk:

ow
2003-10-24, 18:01:10
Original geschrieben von [KoC]Mordred
Es ging jetzt mehr drum was Matrox so an entwicklungen rausrotzt. Displacement Mapping, Environmental BumpMapping, Triple Screen ....


Environmental Bumpmapping ist keine Erfindung von Matrox.
Und Triple-Screen als besondere Innovation hervorzuheben ist ja wohl lächerlich.
Displacement Mapping funzt übrigens bisher nicht auf Matroxkarten weil es kein Treiber unterstützt.

KM
2003-10-24, 18:23:45
Mit solchen Diskussionen werden wir nie fertig. Es spielt keine Rolle, wie gut man ist, sondern wie gut man sich verkaufen kann. Sonst wäre einiges ganz anders gelaufen.

StefanV
2003-10-24, 19:17:25
Original geschrieben von ow
Environmental Bumpmapping ist keine Erfindung von Matrox.
Und Triple-Screen als besondere Innovation hervorzuheben ist ja wohl lächerlich.

1. nö, aber MGA waren die ersten, dies in HW gegossen haben, ebenso wie S3 die ersten mit Texturkompression waren...

2. warum ist das keine Innovation??
Meinermeinung nach, ists eine...

ow
2003-10-24, 19:26:48
Original geschrieben von Stefan Payne
2. warum ist das keine Innovation??
Meinermeinung nach, ists eine...


Weil es für keine Chiphersteller ein Problem wäre, auch ein halbes Dutzend Screens anzusteuern mit einer Karte. Das Problem ist, dass sowas keiner braucht.

Und für den Preis einer Matrox kannst du dir auch 2 Karten mit ATi oder NV Chip holen und dann 4 Monitore ansteuern.

Mordred
2003-10-24, 19:33:38
Original geschrieben von ow
Weil es für keine Chiphersteller ein Problem wäre, auch ein halbes Dutzend Screens anzusteuern mit einer Karte. Das Problem ist, dass sowas keiner braucht.

Und für den Preis einer Matrox kannst du dir auch 2 Karten mit ATi oder NV Chip holen und dann 4 Monitore ansteuern.

Schön aber 3 kann man locker brauchen weil 3 unterbringen is nu echt kein großes Problem, macht aber neimand ausser matrox :>

EBM mag nicht von ihnen entwickelt worden sein aber sie habens auf den Martkgeworfen.

Displacementmapping allerdings ist in der tat von matrox und jetzt sach mir bitte nicht das DAS keine innovation ist.

Das sist die einzig Methode die ich kenne die REALE Tiefen bringt.

Corrail
2003-10-24, 20:10:25
Also ich verstehe noch immer nicht, was an Displacement Mapping so innovativ ist? Durch das reine Displacemapping werden ja nur Eckpunkte abhängig von einer Textur in der Vertex Pipeline bearbeitet. Es findet ja keine Tesslation statt, man muss der API die Dreiecke von vorn herein geben. Und ob ich die Vertices jetzt abhängig von einer Textur oder von per Vertex mitgelieferten Parameter ändere ist doch auch schon egal. Also wo ist das die Innovation?

Mordred
2003-10-24, 20:13:40
Original geschrieben von Corrail
Also ich verstehe noch immer nicht, was an Displacement Mapping so innovativ ist? Durch das reine Displacemapping werden ja nur Eckpunkte abhängig von einer Textur in der Vertex Pipeline bearbeitet. Es findet ja keine Tesslation statt, man muss der API die Dreiecke von vorn herein geben. Und ob ich die Vertices jetzt abhängig von einer Textur oder von per Vertex mitgelieferten Parameter ändere ist doch auch schon egal. Also wo ist das die Innovation?

Es macht tiefen und simmuliert sie nicht.
Es hatte vorhr keiner und es ist quasi das perfecte BumpMapping. Besser als echte Tiefen dürfte jedenfalls schwer werden :>

also was bitte willst du noch?!

zeckensack
2003-10-24, 20:15:58
Original geschrieben von Corrail
Also ich verstehe noch immer nicht, was an Displacement Mapping so innovativ ist? Durch das reine Displacemapping werden ja nur Eckpunkte abhängig von einer Textur in der Vertex Pipeline bearbeitet. Es findet ja keine Tesslation statt, man muss der API die Dreiecke von vorn herein geben. Und ob ich die Vertices jetzt abhängig von einer Textur oder von per Vertex mitgelieferten Parameter ändere ist doch auch schon egal. Also wo ist das die Innovation? Echtes DM tesseliert sehr wohl, und noch dazu dynamisch (vergleichbar mit der Miplevel-Auswahl).

Das was du beschreibst ist 'presampled DM', und ist in der Tat ziemlich überflüssig - mal abgesehen von der Checkbox auf der Verpackung :bonk:

Corrail
2003-10-24, 20:19:49
Ah! Ok, da wird mir einiges klar! :-)
Aber afaik gibt es noch keine Karten/Treiber Combos, die das unterstützten, oder lieg ich das falsch?

zeckensack
2003-10-24, 20:23:06
Original geschrieben von Corrail
Ah! Ok, da wird mir einiges klar! :-)
Aber afaik gibt es noch keine Karten/Treiber Combos, die das unterstützten, oder lieg ich das falsch? Richtig.
Parhelia soll es angeblich in Hardware können. Nur der Treiber bietet es AFAIK nicht an :sick:

Demirug
2003-10-24, 20:28:02
Original geschrieben von zeckensack
Richtig.
Parhelia soll es angeblich in Hardware können. Nur der Treiber bietet es AFAIK nicht an :sick:

Ja, es gibt leider keinen DX9 Treiber. Angeblich gibt es aber im DX8 Treiber eine Trick mit dem man es von DX8 aus nutzen kann.

PS: presampled DM funktioniert auch mit Tesselation. Allerdings muss man dabei einen Konstanten Faktor benutzten und braucht für jeden Faktor eine andere Displacement Map.

Radeonator
2003-10-24, 20:57:38
Wieder pfeilschnell am Thema vorbei...ich glaube eher der Gast will folgendes sagen : Seid nicht so dumm und fresst alles was PR und Medien euch einspeisen, selbst denken macht schlau...

Ich für meinen Teil hab alles was ich in die Finger bekomen habe ausführlich "genossen", das eine mehr, das andere weniger. Selbst wenn alle "das doch Sh1c3, das Teil..." gerufen haben, kaufte ich mir die jeweilige HW. Gerade im Graka Bereich, bin ich sehr oft sehr positiv überrascht worden und kann darum viele Gerüchte einfach als sinnfrei einstufen ( Ich hatte damals schon das Talent, alles ohne Probs zum laufen zu kriegen und nie große oder gar unlösbare Probs mit Grakas zu haben... ) .

Deshalb verstehe ich dieses Fanboy gehabe (das hat allerdings wohl auch noch andere Gründe, die eher in einem psychologie, denn einem HW Forum besprochen wreden sollten), einsitiges popularitäts Denken etc. nicht. Aber man merkt in vielen Antworten bereits diese "Das ist halt so und alles andere ist Sh1c3" Mentalitet. Es ist IMO sogar förmlich zu spüren, wie viele das durch PR eingespeiste Bild schlucken (natürlich nicht alle, es gibt hier einige die das nicht tun!) , um es dann als eigene Gedanken wiedergeben. Dieses ganze gelaber "Eine Graka muss dieses und jenes Feature haben, kommt doch direkt aus der Marketing Abteilung von den "großen". Gott sei dank hat so etwas andere Firmen nicht davon abgehalten, auch mal andere Wege zu gehen (Kyros TBR, 3dFX T-Buffer und AA, S3´s TC usw. )

Aquaschaf
2003-10-24, 21:22:30
Original geschrieben von Radeonator
Wieder pfeilschnell am Thema vorbei...ich glaube eher der Gast will folgendes sagen : Seid nicht so dumm und fresst alles was PR und Medien euch einspeisen, selbst denken macht schlau...



Es kommt da eben auch aber eine etwas übertriebene Glorifizierung der "kleinen" Grafikchiphersteller durch.

HOT
2003-10-24, 22:12:48
Das 3Dfx pleite gegangen ist, ist kein zufall. Ich finde man sollte das berücksichtigen. Dem nachzuheulen halte ich für überflüssig, da sie ja auch technologisch (auch fertigungstechnisch) dem markt etwas hinterherhinkten.
S3 ist auch net pleite, die haben die Grafiksparte nur abgegeben. Und XGI ist ein sehr ehrgeiziges Projekt, in das sehr viel Geld investiert wird. Vielleicht sogar mehr als NV und ATI in neue Grafikchips investieren. Von daher wäre es ein Fehler XGI über lange Sicht zu unterschätzen. Sicher, von der Volari Familie muss man nicht wirklich das allerbeste erwarten, schliesslich wird das die letzte Entwicklung von SIS allein sein, die eher als Mainstreamlösung die sich billig produzieren lässt konzipiert wurde. Die Idee mit den Dual Volari ist meiner Meinung nach ein genialer Einfall, ohne lange Entwicklungszeiten einen vorhandenen Mainstreamchip HiEnd-tauglich zu machen - und man braucht nicht weiter an kompliziertem Entwicklungsprozess für 100Mio + Transistorchips mitzuwirken.
Auf lange sicht wird XGI wohl eher keine Duallösungen mehr anbieten, sondern auch onechiplösungen mit vernünftiger Fertigung herzustellen. Um die Entwicklungszeit mit möglichst wenig Verlust zu überbrücken finde ich die Volari serie jedoch gut (vorraussichtlich, bbisher gibts ja keine praxiserfahrungen).
Für S3 gilt ähnliches. Auch VIA will das vorhandene Potenzial ausnutzen, um etwas Geld im GraKamarkt zu verdienen und auch performante integrierte Lösungen zu bieten. Entwicklung allein kann mit integrierter Grafik nicht bezahlt werden.
Der Grund dafür wird longhorn sein, da dies ja auf DX9 aufbauen soll.
Und PowerVR steht ganz im Dunkeln. Wenn sie einen Chip bringen können, d.h. wenn sie einen Fertigungspartner haben (z.B. Intel) dann haben wir von der seite her sicher recht viel zu erwarten ;)

Fazit: ATI und NV bauen einfach die besten Chips im Moment. Zu TNT/Geforce2/3 Zeiten hat NV die besten Chips gebaut (aus Entwicklersicht), und so ist es auch nicht verwunderlich das sie die stärksten sind. Das liegt sicher nicht nur am Marketing ;).
Und der R300 IST ein Geniestreich, da gibts nix dran zu rütteln. Erst SEIT der Einführung dieses Chips ist ATI wieder dabei, vorher waren die im 3D Bereich eher ne lachnummer.

ernesto.che
2003-10-25, 16:28:58
Original geschrieben von ow
Weil es für keine Chiphersteller ein Problem wäre, auch ein halbes Dutzend Screens anzusteuern mit einer Karte. Das Problem ist, dass sowas keiner braucht.


Wenn das keiner braucht, an wen verkauft Matrox denn dann? Für professionelle Bereiche ist das eine Lösung, für daheim eher weniger.

ow
2003-10-25, 16:46:06
Original geschrieben von ernesto.che
Wenn das keiner braucht, an wen verkauft Matrox denn dann?


An irgendwelche Freaks, die meinen, man bräuchte sowas.:D


Für professionelle Bereiche ist das eine Lösung, für daheim eher weniger.

Für professionelle Bereiche kann man auch mehrere Karten nutzen.
Oder Mehrchip-Karten. wie zB. diese hier: http://www.nvidia.de/page/quadronvs.html

StefanV
2003-10-25, 16:50:28
Original geschrieben von ow
An irgendwelche Freaks, die meinen, man bräuchte sowas.:D



Für professionelle Bereiche kann man auch mehrere Karten nutzen.

Hm, an solche 'Freaks', die genau 3 Schirme udn nicht 4 Schirme bräuchten und sich deshalb 'ne PH zugelegt haben und kein Board mit 2 GF4 MXen drauf?? :eyes:

Oder an solchen, die einfach keinen Platz mehr im Gehäuse haben, u.A. für künftige erweiterungen...

ernesto.che
2003-10-25, 16:56:58
Original geschrieben von ow
An irgendwelche Freaks, die meinen, man bräuchte sowas.:D



Für professionelle Bereiche kann man auch mehrere Karten nutzen.
Oder Mehrchip-Karten. wie zB. diese hier: http://www.nvidia.de/page/quadronvs.html

z.B.....nVidia. Ohne persönlich werden zu wollen ow, bekommst du eigentlich Bafög o.ä.von denen?
nVidia baut sicherlich sehr gute Karten, ist aber nicht überall erste Wahl, nicht mal eindeutig im Gaming Sektor, im Business Bereich sicherlich noch weniger.

ernesto.che
2003-10-25, 16:58:21
Original geschrieben von Stefan Payne
Hm, an solche 'Freaks', die genau 3 Schirme udn nicht 4 Schirme bräuchten und sich deshalb 'ne PH zugelegt haben und kein Board mit 2 GF4 MXen drauf?? :eyes:

Oder an solchen, die einfach keinen Platz mehr im Gehäuse haben, u.A. für künftige erweiterungen...

Also für eine tolle MX nimmt sicherlich jeder, aber auch wirklich jeder, gerne die Investition eines neuen Gehäuses in Angriff.

Mordred
2003-10-25, 17:27:04
Original geschrieben von ernesto.che
Also für eine tolle MX nimmt sicherlich jeder, aber auch wirklich jeder, gerne die Investition eines neuen Gehäuses in Angriff.

Najqa vorallem kann der Parhelia doch ein enig mehr wie ne MX :>

Was Quadros betrifft kann ich jetzt wenig zu sagen hab mit dem professionellem Bereich seit längerem nix mehr zu tun.

Aber ich gehe einfach mal von aus das es seine Gründe hat das MAtrox seine Kohle in den Bereichen verdient :>

Ach und zieht euch nu nich so am Tripple Screen hoch :> Das war bisschen fehl am Platz in der Auflistung aber tatsache is nunmal keiner ausser MAtrox machts bis jetzt :>

Ausserdem meinte ich damit nicht das Matrox die besseren KArten hat wie NV ich sagte lediglich das von matrox eineige dch recht ansprechenden Techniken eingeführt/entwickelt wurden.

Da hört man von den großen weniger.

Ebenso so 3D Labs mit dem p10, BitBoys mit ondieRam

So richtig viel haben die Großemn da nicht entgeenzusetzen was das rein Technische betrifft.
Dafür allerdings sind die Produkte der großen meist leistungsmäßig "ein wenig" höher angesiedelt.

An und für sich isses doch auch gut so. Die kleinen kümmern sich um die neuen Techniken die großen machen das ganze dann massenmarkt tauglich und sparen sich die entwicklung derartiger Sachen.

Die kleinen die ich genannt hab sind ja so soder so in nem ganz anderen ereich angesiedelt wie NV und ATI. Oder kennt hier spontan jemand Leute die auf ner Wildcat zocken :> ICh net.
So gesehen konkureiren sie noch nichtmal. Da die "kleinen" haben ihre Produkte im Profibereich früher zur Verfügung da können sie die Profs die was mit anfangen können sofort nutzen und ATI und NV bringen es gegebenfalls dann zu uns.

Obige Uassagen beziohen sich übrigens nur auf meine Beobactungen Erfahrungen wenn da jemand was sinnvolles zu erweitern bemängeln bla hat tut euch keinen zwang an :> Aber bitte net anfagen rumzuflamen.

Piffan
2003-10-25, 17:52:39
Ich finde den Thread- Aufmacher grob übertrieben.....Sicher gibts Feature, die nur dazu da sind, die Verpackung mit wahnsinnig fortschrittlich wirkenden Begriffen zu schmücken.....

Aber andererseits möchte man eine Karte haben, die 1. möglichst viel Power hat, denn letztlich ist ja das Spielen etwas, was mit Lust und Spaß zu tun hat und nicht mit Rationalität. 2. Soll die Power dann auch auf den Boden gebracht werden, dh. heißt einen nutzbaren Wert haben, also soll es klappen mit bildqualitätssteigernden Einstellungen, 3. Soll sie alle Features aufweisen, die von den Proggern jetzt und in der nächsten Zukunft in Spiele eingesetzt werden, 4. Möchte man eine möglichst hohe Kompatibilität, also dass die Karten "Entwicklers" Liebling sind. usw. usf..

Nur wenn einem die Eignung für die Arbeit an erster Stelle steht, und man eher selten oder gelegentlich mal zocken möchte, dann kann man die Sache locker angehen und auch mal ne "alternative" Karte ins Auge fassen....Imho aber nur sinnig, wenn der Preis stimmt. Wenn ich fürs selbe Geld ne Karte von den "Großen" kriegen kann, dann nehme ich auch eine Karte mit "Brauchbarkeitsgarantie".......

Xmas
2003-10-25, 18:29:37
Original geschrieben von [KoC]Mordred Ausserdem meinte ich damit nicht das Matrox die besseren KArten hat wie NV ich sagte lediglich das von matrox eineige dch recht ansprechenden Techniken eingeführt/entwickelt wurden.

Da hört man von den großen weniger.

Ebenso so 3D Labs mit dem p10, BitBoys mit ondieRam

So richtig viel haben die Großemn da nicht entgeenzusetzen was das rein Technische betrifft.
Dafür allerdings sind die Produkte der großen meist leistungsmäßig "ein wenig" höher angesiedelt.

An und für sich isses doch auch gut so. Die kleinen kümmern sich um die neuen Techniken die großen machen das ganze dann massenmarkt tauglich und sparen sich die entwicklung derartiger Sachen.
Kann es irgendwie sein dass dir die drei bisherigen Radeon/GeForce-Generationen entgangen sind?
Innovationen kommen von vielen Firmen, und die "Großen" hängen da den kleinen in keinster Weise hinterher, eher andersrum.

Mordred
2003-10-25, 18:58:38
Original geschrieben von Xmas
Kann es irgendwie sein dass dir die drei bisherigen Radeon/GeForce-Generationen entgangen sind?
Innovationen kommen von vielen Firmen, und die "Großen" hängen da den kleinen in keinster Weise hinterher, eher andersrum.

ne das weniger :> Bin seit ner Ciruus Logic mit 1 MB bei Grakas dabei.

Naja ich eh da jetzt nicht so die reisen Sachen. Das einzig wirklich gute imho wr HArdware T&L dann kam lange nichts dann kam wieder der Pixel/Sahder kram.

Also maybee übersehe ich da wirklich die ein oder andere Sache da ich mich hauptsächlich für die kleinen Firmen interessiere.

Wie gesagt das waren meine Eindrücke Efahrungen das ich da mal die ein oder andere Sache übersehen hab ist nicht auszuschließen bin ja auch nurn Mensch :>

ernesto.che
2003-10-25, 20:07:24
Original geschrieben von [KoC]Mordred
ne das weniger :> Bin seit ner Ciruus Logic mit 1 MB bei Grakas dabei.

Naja ich eh da jetzt nicht so die reisen Sachen. Das einzig wirklich gute imho wr HArdware T&L dann kam lange nichts dann kam wieder der Pixel/Sahder kram.

Also maybee übersehe ich da wirklich die ein oder andere Sache da ich mich hauptsächlich für die kleinen Firmen interessiere.

Wie gesagt das waren meine Eindrücke Efahrungen das ich da mal die ein oder andere Sache übersehen hab ist nicht auszuschließen bin ja auch nurn Mensch :>

Hättest du ein großes Problem damit, deine Rechtschreibung ein wenig zu verbessern? So wirklich schlau werde ich aus deinen Beiträgen nicht.

Mordred
2003-10-25, 20:29:37
Original geschrieben von ernesto.che
Hättest du ein großes Problem damit, deine Rechtschreibung ein wenig zu verbessern? So wirklich schlau werde ich aus deinen Beiträgen nicht.

Kann ich gerne tun.

Hab nur etwas viel Asche in der Tastatur deswegen teilweise diese Aussetzer ;)

Hat weniger mit meinen Rechtschreibkenntnissen zu tun :p

Ultron
2003-10-27, 16:35:17
Original geschrieben von mapel110
der parhelia fehlts vor allem an speicherbandbreitenschonenden massnahmen.


Nö, sie hat einen 4fach unterteilten Speicher-Controller. Siehe 3dc-Preview. Auch wenn man genauere Details nicht genau wissen sollte ist die Speicherbandbreite mit Sicherheit kein Problem.

Das kann man ganz leicht herausfinden indem man den Ramtakt der Parhelia mal auf 200MHz stellt und dann mit 300MHz vergleicht, man merkt fast keinen Unterschied.

Die Parhelia hätte 280-300MHz Coretakt gebraucht, dann wäre das was geworden im Vergleich zu Ti4600 / R8500 ...

Meta
2003-10-28, 16:39:59
@ full ack Ultron

Immerhin war sie die erste Gamerkarte mit 256 Speicherinterface...

Füllrate war das Problem, das hörte man von allen Seiten...

Meta

LOCHFRASS
2003-10-28, 17:02:39
Hatte nicht mal einer hier im Forum ne Vapo PE auf seine Parhelia gepackt und auf >300 getaktet?

Aquaschaf
2003-10-28, 18:04:30
Original geschrieben von Ultron
Nö, sie hat einen 4fach unterteilten Speicher-Controller. Siehe 3dc-Preview.


Das ist aber nichts, was unter Speicherbandbreite schonender Maßnahme verstanden wird, die Parhelia hat nichts mit Hyper Z oder LMA vergleichbares weswegen die Speicherbandbreite afaik doch zum Flaschenhals werden kann.

HOT
2003-10-28, 18:23:51
kann ich mir net vorstellen, für 4 pipes ist 256bit auch so mehr als genug.
das problem ist einfach das rendering... fillrate eben.

ow
2003-10-28, 21:49:03
Original geschrieben von Aquaschaf
Das ist aber nichts, was unter Speicherbandbreite schonender Maßnahme verstanden wird, die Parhelia hat nichts mit Hyper Z oder LMA vergleichbares weswegen die Speicherbandbreite afaik doch zum Flaschenhals werden kann.


Füllrate muss man einsparen, wenn man nicht genug davon hat. Die Speicherbandbreie der Parhelia sollte nicht das Problem sein.

Demirug
2003-10-28, 22:20:44
Original geschrieben von Aquaschaf
Das ist aber nichts, was unter Speicherbandbreite schonender Maßnahme verstanden wird, die Parhelia hat nichts mit Hyper Z oder LMA vergleichbares weswegen die Speicherbandbreite afaik doch zum Flaschenhals werden kann.

Ein unterteilten Speicher-Controller gehört indirekt auch schon zu den schonenden Massnahmen weil man Speicher in kleineren Blöcken anfordern und schreiben kann.

R360
2003-10-28, 22:21:44
Original geschrieben von Gast
Hallo erstmal,

ich möchte mal berechtigte Kritik bezüglich einiger niederschmetternder Aussagen bezüglich bestimmter Grafikkarten anbringen.


Völlig falscher Ansatz.......

Hallo,

mein Name ist Hase und ich möchte nun völlig unkontrolliert behaupten das du mir gestern ein Mettbrötchen auf meine Grafikkarte gelegt hast.

Morgen werde ich das Gegenteil behaupten und wir haben trotzdem 51 Antworten auf eine Kritik die fachlich gesehen sofort gelöscht werden müßte und hoffentlich ins Playmobil gebeamt wird.

;D

Tigerchen
2003-10-29, 15:42:07
Original geschrieben von R360
Völlig falscher Ansatz.......

Hallo,

mein Name ist Hase und ich möchte nun völlig unkontrolliert behaupten das du mir gestern ein Mettbrötchen auf meine Grafikkarte gelegt hast.

Morgen werde ich das Gegenteil behaupten und wir haben trotzdem 51 Antworten auf eine Kritik die fachlich gesehen sofort gelöscht werden müßte und hoffentlich ins Playmobil gebeamt wird.

;D

Ich finde er hat durchaus das Recht seine Meinung zu vertreten.Auch wenn sie nicht mit meiner eigenen Meinung konform geht.