PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Matrox scheint ein paar Probleme zu haben!


Judge
2002-10-17, 08:47:50
Hmh, was ist denn mit Matrox los? Schaut euch mal die News auf http://www.matroxusers.com an. Aber es scheint ja auch wieder bergauf zu gehen. Bin mal gespannt ob das stimmt, dass der Parhelia so gut wie fertig sein soll. Er soll angeblich Features haben die noch auf keiner anderen Karte existieren sollen. Keine Ahnung was die meinen, das FAA soll aber auch verbessert worden sein. Lassen wir uns mal Überraschen.

Gohan
2002-10-17, 09:19:23
Hm... also wenn ich meiner jetztige P. verkaufe und das Geld für Weichnachten nehme, dürfte eine Parhelia 2 drin sein :stareup:

Nero
2002-10-17, 16:44:05
Was dürfte denn die P. 2 kosten?

nero

Unreal Soldier
2002-10-17, 17:14:50
Dieses Statement ist recht interessant, aber man muss beachten dass MATROX keine AG ist und so nur schwer genaue Infos über ihre Projekte und Wirtschaft zu bekommen. Matrox ist ein Privatunternehmen und ist nicht gezwungen irgendwelche Börsianer Details über ihre Produkte vor der Veröffentlichung zu geben. Wenn der Autor der News bei MURCNEWS recht hat, dann kann ich nur MAtrox nur alles Gute hoffen, denn aus diesem Unternehmen kamen schon immer gute Produkte obwohl nicht alle immer die billigsten waren/sind.

MfG
Unreal Soldier

Matrix316
2002-10-17, 20:56:01
Matrox hätte sich viel eher und viel mehr im Spielesektor engagieren sollen. Im Bürobereich reicht auch noch eine Karte von vor 4 Jahren, aber die "Gamer" brauchen viel öfter eine neue Karte. Nvidia hats gemerkt, genau wie ATI. Nur Matrox macht ein Produkt für eine Nische, die es praktisch nicht gibt oder kaum. Bei uns an der FH wurden ganz neue Rechner für CAE installiert. Und was ist drinnen? Neben Dual PIV 1800 Xeon und 2 GB Ram eine Geforce 4TI4400. =) Obwohl hier eine Parhelia Ideal gewesen wäre.

Unregistered
2002-10-18, 01:54:57
Hier direkt der Link zum Editorial und zum Thread dazu bei MURC (http://forums.matroxusers.com/showthread.php?s=&threadid=36922).
Trotz allem verhaltenen Optimismus:Matrox is ill right now.
Die Parhelia bietet schlechtere Signalqualität als die G550 - wer nur 2D verwendet, kann also unbesorgt bei der G550 bleiben.
Matrox kündigt Win98-Support an, nur um ihn einige Wochen später definitiv auszuschließen. Nur 2K/XP werden unterstützt, damit bleiben knapp 30% aller Computerbesitzer als Kunden ausgeschlossen, solange sie nicht aufrüsten.
So recht ist mir die Zielgruppe der Parhelia nicht klar, vielleicht ein paar Spieleprogrammierer, die ihr Game auf drei Monitoren zeigen wollen, bei 640x480 und 25fps. Oder Leute, die sich ein virtuelles Aquarium (Sharkmark) auf drei Monitoren anschauen wollen; das läuft auch einigermaßen "flüssig".
Selbstzufriedenheit und Selbstüberschätzung, "Mismanagement" (so im Editorial), haben Matrox in diese Situation gebracht. "Wir sind die Kings in 2D, und unsere Kunden sind verschwenderische Großbetriebe."
Es wäre zwar schade, wenn ein weiterer Player im Graka-Markt von der Bildfläche verschwinden würde, aber wenn die Parhelia2 nicht bald kommt und nicht die schwersten Mängel der Parhelia behebt, kann die Graka-Abteilung von Matrox wohl endgültig dicht machen.

Schnitzl
2002-10-18, 02:43:59
@ unreg:

das trifft es ziemlich genau,...leider

MfG

Judge
2002-10-18, 08:56:03
Ich denke mal das Matrox nur eine Chance hat, wenn sie so bald wie möglich die Parhelia 2 auf den Markt werfen. Allerdings muss die Performance dann stimmen, d.h. sie müsste mit der R300 gleichziehen oder besser noch überholen. Die Features wie FAA und AF sollten dann auch korrekt funktionieren. Das wichtigste wäre natürlich der Preis, wenn man den etwas unterhalb der R300 ansiedeln könnte, dann denke ich das sich die Karte von selbst verkauft. Na ja, wollen wir mal hoffen das alles noch gut geht.

Unregistered
2002-10-18, 18:04:43
alles in allem stimm ich mit den vorherigen meinung überein, nur den preis sollte man doch in einem für matrox "würdigen" rahmen legen. schließlich ist matrox kein massenvertrieb. natürlich ist das alles relativ zu sehen, denn zu G1 zeiten hat man 500DM für ein spitzenprodukt bezahlt, heute sind wir bei >600€.
das heist der erlesene kreis wird immer kleiner und da muss sich matrox schon gedanken machen.

Doomtrain
2002-10-18, 18:42:51
Originally posted by Unregistered

Es wäre zwar schade, wenn ein weiterer Player im Graka-Markt von der Bildfläche verschwinden würde, aber wenn die Parhelia2 nicht bald kommt und nicht die schwersten Mängel der Parhelia behebt, kann die Graka-Abteilung von Matrox wohl endgültig dicht machen.

Auch wenn ihr es nicht glauben wollt, Matrox macht auf jeden fette Gewinne. Ein Kollege von mir ist Händler und er verkauft Parhelias am laufenden Meter. Ich hab mal irgendwo gehört, das Matrox geschätzt schon über 600000 Exemplare verkauft hat.

Matrox will live forever...

Richthofen
2002-10-18, 19:48:17
600.000?
Wow das ist aber viel.
Nimm mir es nicht übel wenn ich für diese Zahl ein kleines Gelächter übrig habe nach der Zeit die der Parhelia schon am Markt ist und vor allem bei den Produktionskosten dieses Monsters.
Der R300 ist in der Produktion zwar noch teurer aber verkauft sich für ganz andere Margen.
Matrox sollte sich imho mal entscheiden.

Entweder ich bediene eine Niesche und verdiene da und halte somit meine Kosten niedrig, oder ich spiele im HIgh End Bereich mit und subventioniere meine High End Schleuder mit den Billig Karten.
Das geht dann auf, wenn man Billig Karten an Private User verkauft auf Grund des Images was man sich mit der High End Schleuder aufbaut.
Der Firmen Bereich ist davon völlig unbeeindruckt.
Dem ist es scheiss egal ob die Parhelia oder GF4 oder wer auch immer den 3DMark Contest gewinnt.

Die Strategie lässt jegliche Konstistenz vermissen bei Matrox.

Schnitzl
2002-10-19, 01:22:31
Matrox hat schon ganz andere Zeiten überstanden.
Wer weiss denn über die finanzielle Lage von Matrox Bescheid ?
Du vielleicht, Richthofen?

Matrox hat sich sehr lange mit ner Karte wie der G550 über Wasser gehalten.
Als alle Matrox für tot erklärt haben haben sie die Paella rausgebracht.
Ich glaube nicht das das Anfang 2002 jemand für möglich gehalten hätte!

btw: Matrox hat noch mehr als nur Grakfikkarten...

Radeonator
2002-10-19, 04:27:15
Trotzdeben sind Matrox Karten definitiv zu teuer, Auf eine damalige Anfrage, wieso Matrox keine 128Bit DDR Steinchen benutzt (G450) kam nur ne stumpfe antwort alla "Wir bauen keine Gamer karten" antwort. Für ne reine 2D Karte gibt aber kein schwanz soviel Kohle aus wie Matrox verlangt...Die Parhelia ist nix halbes und nix ganzes, darum eher für Minderheiten, welche sich vom BQ Mythos blenden lassen.Verstehe sowieso nicht, wie die sich so lange halten können. Ich denke Richthofen hat da schon den richtigen kasus knaktus gefunden.

StefanV
2002-10-19, 10:12:08
Originally posted by Radeonator
Trotzdeben sind Matrox Karten definitiv zu teuer, Auf eine damalige Anfrage, wieso Matrox keine 128Bit DDR Steinchen benutzt (G450) kam nur ne stumpfe antwort alla "Wir bauen keine Gamer karten" antwort. Für ne reine 2D Karte gibt aber kein schwanz soviel Kohle aus wie Matrox verlangt...Die Parhelia ist nix halbes und nix ganzes, darum eher für Minderheiten, welche sich vom BQ Mythos blenden lassen.Verstehe sowieso nicht, wie die sich so lange halten können. Ich denke Richthofen hat da schon den richtigen kasus knaktus gefunden.

Schon mal dran gedacht, daß die G450 mit 128bit RAM Interface keine reine Office Karte mehr ist??

Mit 166MHz Core und mehr und 128bit DDR-SDRAM würde sie in GF2 MX Gefilden fischen, was Matrox wohl zu wenig war...

Und was zur Hölle macht ein (halber) Vertex Shader auf der G550??

Schnitzl
2002-10-19, 11:55:15
@ Radeonator: denk was du willst.
Die G450 war Matrox´s Griff ins Klo, auch da gibts nix dran zu rütteln.
ich hab vor´n paar Tagen ne Par. gegen ne R8500 getauscht und das war deutlich,
obwohls nur 1024er Auflösung war.

Bleib einfach bitte bei den wirklichen Problemen (16FAA, Speed)

MfG

StefanV
2002-10-19, 12:07:46
Originally posted by Schnitzl
@ Radeonator: denk was du willst.
Die G450 war Matrox´s Griff ins Klo, auch da gibts nix dran zu rütteln.
ich hab vor´n paar Tagen ne Par. gegen ne R8500 getauscht und das war deutlich,
obwohls nur 1024er Auflösung war.

Bleib einfach bitte bei den wirklichen Problemen (16FAA, Speed)

MfG

Die Frage ist, ob sich die Probleme von Matrox mit einer G450 mit 128bit DDR-SGRAM vergrößert hätten oder nicht...

Das Problem ist, daß die Karte ja auch nicht zu schnell sein sollte, denn sonst kaufen sich eventuell manche Gamer diese Karte...

BTW:

SGRAM hab ich geschrieben, weil die MGA Chips SGRAM unterstützen, mit SDRAM ist die G400 'ne Krücke (G400/16MB ist deutlich langsamer als G400/32MB, die 16MB hat SDRAM, die 32MB hat SGRAM)...

robbitop
2002-10-19, 12:22:56
das FAA ist das RGMS oder OGMS?

ich denke in dieser Kurzen zeit kann man nicht die ganze Architektur auf den Kopf stellen, aber ich denke DX9 Complaint und vor Allem Tri TMUs wären nett...ein überarbeitetes TriSetup für bessere Nutzung der 4VS, ein RGMS 16xFAA das gewissenhafter arbeitet, 8xAF, einen XBar Controller und ein bissi Occluded- und Hirachial Z.

Dann dürfte sie ganz gut gehen...aber die Frage ist ob MGA das will oder schafft....vieleicht ist sie ja nur leicht überarbeitet (wäre schade)...

was sagen die Experten???

StefanV
2002-10-19, 12:27:08
FAA ist OGMS...

robbitop
2002-10-19, 12:29:05
könnten sie es auf RG ändern???

warum hat man OG genommen???

StefanV
2002-10-19, 12:41:25
Originally posted by robbitop
könnten sie es auf RG ändern???

warum hat man OG genommen???

OG ist viel einfacher...

16x FAA als RG wäre sehr aufwändig.

robbitop
2002-10-19, 12:43:11
naja aber OG is nich dolle vonner Qualli dann müssten sie schon nen hhöeren Wert nehmen...

wäre RGMS denn bei FAA mgl?

Unregistered
2002-10-19, 12:51:29
Originally posted by Stefan Payne


Schon mal dran gedacht, daß die G450 mit 128bit RAM Interface keine reine Office Karte mehr ist??

Mit 166MHz Core und mehr und 128bit DDR-SDRAM würde sie in GF2 MX Gefilden fischen, was Matrox wohl zu wenig war...

Und was zur Hölle macht ein (halber) Vertex Shader auf der G550?? Doch, Matrox-Karten sind reine Office-Karten mit einem lustlosen Pseudo-Gamer-Beiwerk, damit die Angestellten der verschwenderischen Großbetriebe in der Mittagspause Moorhuhn flüssig zocken können, mit allen Grafik-Optionen auf extrem. Bei der G550 gab es das Super-Feature "Talking Heads"(TM). Ich frage mich, in wievielen Betrieben diese Sensation eingesetzt wurde und heute noch eingesetzt wird. Vermutlich in weniger als 85% aller Betriebe.
Die Parhelia kauft man sich aus Prestige-Gründen, oder weil man dem Marketing-Geblubbere auf den Leim gegangen ist. Dass man vor andern und besonders vor sich selbst diese Fehlinvestition verteidigen will, ist menschlich verständlich, ändert an der tatsächlichen Situation aber nix.
Ich hab ja selber nach der Parhelia geschielt, wegen der angekündigten Super-2D-Qualität. Nach drei verwaschenen Jahren Nvidia war ich auch bereit, ordentlich Kohle dafür lockerzumachen.
Als Win9x-User musste ich aber leider draußen bleiben. Wenigstens zunächst "leider", bis ich dann die Test gelesen hab, dass die Signalqualität der Parhelia nur Durchschnitt ist.
Richtig, Matrox mag als Gesamtkonzern ganz gut dastehen. Aber die Graka-Abteilung schrumpft durch Entlassungen und Abwanderungen, wobei man auch über die Motive der Abwanderungen nachdenken dürfen sollte.

Gohan
2002-10-19, 12:57:55
Weniger als 85% nutzen die Headcast Engine? Ich bin beeindruckt. Ich hätte nich einmal mit 10% gerechnet ;)

Und wo hat Matrox versprechungen gemacht? Sie haben immer gesagt, die Parhelia wird KEIN GeForce4 killer.

Und im vergleich zu nVidia und ATI hat Matrox immer noch das beste Bild.

Matrix316
2002-10-19, 13:28:42
Matrox kann sagen was sie wollen. Bei DEM Verkaufspreis, müssen sie sich eben den Vergleich mit nvidia gefallen lassen.

Wobei die P. ja nicht mal ein GF3 Killer ist!

Gohan
2002-10-19, 13:37:17
Schalte AA an und die P. rammt die GeForce3 in den boden und ist mit der GeForce4 gleich auf bzw. darüber... manche wollens nicht begreifen, oder?

MeLLe
2002-10-19, 14:33:22
Nur, dass alle anderen Karten ALLE Polygonkanten glätten - im Gegensatz zur Parhelia ...
Ich hab nichts gegen Matrox, noch gegen die Parhelia. Coole Karte. Aber viel zu teuer für viel zu wenig Gamer-Freundlichkeit in Sachen Performance und Features ...

robbitop
2002-10-19, 16:51:04
jap der P512 is ein Sahne Chip aber es bedarf wohl einer mittelkomplexen Überarbeitung (meine Wunschliste kennt ihr...)

ich denke der Vorteil am P512 is dass er selbst bei sehr hohen Qualli Settings noch smoothes Spielgefühl vermittelt (also Worstcase FPS = gut)...naja und soo schlecht is das Edge FAA nich...wenn das mal rchtig laufen sollte dürfte es trotz OG in sachen Qualli das beste sein (kA was im NV30 steckt)

Richthofen
2002-10-19, 23:38:34
"
Matrox hat sich sehr lange mit ner Karte wie der G550 über Wasser gehalten.
Als alle Matrox für tot erklärt haben haben sie die Paella rausgebracht.
Ich glaube nicht das das Anfang 2002 jemand für möglich gehalten hätte!
"

Ja richtig sie haben mit der G550 überlebt aber da war das Ziel auch klar definiert. Office Bereich.
Und weil dieses Ziel klar definiert war, waren die Kosten niedrig. Das ist genau das was ich sagen wollte.
Ich muss mich entscheiden.

Entweder ich produziere nur für Office, dann muss ich das wettrüsten nicht mitmachen, habe geringe Kosten und fahre regelmäßig mein Geld ein. Ist zwar nicht viel aber ich fahre es ein. Natürlich nur so lange, wie die anderen nicht auch auf die Ideen mit Mehrfachausgabe etc.. kommen und das ist ja eingetreten. Das hat Matrox sicherlich auch nicht gut getahn, weswegen sie wohl auch den Schritt mit dem Parhelia gemacht haben.

oder aber

ich entwickel und produziere ein 80 Mio Transistormonster in 0.15 und sehe zu, das ich diese Ausgaben schnellstens mit irgendwelchen billigeren Karten wieder reinhole. Also die typische Quersubventionierung, die ATI und NV auch betreiben.
Und genau hier ist der Haken. Matrox hat eine Parhelia entwickelt die als Gesamtprodukt nicht gerade rund ist. Sie ist teuer in der Produktion, hat nicht wenig in der Entwicklung gekostet und trozdem habe ich nix zum quersubventionieren.

Das ist einfach keine vernünftige Geschäftsstrategie. Mal abgesehen davon das der Preis der Parhelia auch gut verfallen is seit dem Release.
Wer beim Gamer High End Markt mitspielen will, muss dies ernsthaft wollen und sich damit auch auseinandersetzen, das dieses Vorhaben ständig hohe Investitionen nötig macht und zwar in dem Rythmus den der schnellste vorgibt. Andernfalls kann das schnell ein Grab werden.
Die Parhelia ist nicht so ein billig Teil wie die G550. Das Teil hat Geld gekostet und nicht zu knapp. Dann muss ich auch zusehen das ich das wieder reinhole. Aber mit der Strategie siehts da nicht gut aus, denn die Firmen und Büros interessieren sich 0 für die Parhelia. Viel zu teuer und vor allem nix was sie unbedingt brauchen und was eine G550 oder andere karten nicht auch liefern. Für das dolle Displacement Mapping oder FAA geben Firmen kein Geld aus.

Matrix316
2002-10-20, 01:06:38
Naja, NUR mit Office-Karten dürfte keine Firma überleben können, denn für die nächste (und übernächste - und bestimmt auch die über-über nächste :D) Office Version wird man keine neue Grafikkarte brauchen.

Natürlich werden in neuen Office PCs neue Grafikkarten verbaut, aber wie oft tauscht ein Unternehmen die Hardware aus?

Radeonator
2002-10-20, 04:27:09
Kommt auf das Untrenehmen und das Miet Modell aus. In größeren Firmen ist es oft ein 2-3Jahres Takt, bei anderen gibts einmal pro Jahr neue HW. Hab schon diverse Perverse neue HW "ausrollen" müssen ;)

Axel
2002-10-20, 07:25:48
Originally posted by Richthofen

ich entwickel und produziere ein 80 Mio Transistormonster in 0.15 und sehe zu, das ich diese Ausgaben schnellstens mit irgendwelchen billigeren Karten wieder reinhole. Also die typische Quersubventionierung, die ATI und NV auch betreiben.


Woher hast du nur die Idee der Quersubventionierung? Wenn ein Unternehmen Produkte subventionieren muss, dann läuft etwas falsch. Grundsätzlich muss jedes einzelne Produkt seine Kosten erwirtschaften und möglichst einen Gewinn abwerfen.


Originally posted by Richthofen
Und genau hier ist der Haken. Matrox hat eine Parhelia entwickelt die als Gesamtprodukt nicht gerade rund ist. Sie ist teuer in der Produktion, hat nicht wenig in der Entwicklung gekostet und trozdem habe ich nix zum quersubventionieren.


Die Parhelia ist meiner Meinung nach eine durchaus gelungene Karte. Sie ist sowohl im Office-Bereich (2D-Qualität), im CAD-Bereich (Heidi-Treiber) als auch für Spiele (3D-Geschwindigkeit) nutzbar.
Über die Kosten kann ich nur spekulieren. Wenn du unbedingt eine Quersubventionierung suchst, was ich für falsch halte, wie wärs damit: Die Entwicklungskosten der Parhelia entstanden als Matrox die G450/550 verkaufte und mit diesen Einnahmen die Parhelia "subventionierte".
Mit der Parhelia ist Matrox seit 2 Jahren in einem höherpreisigen Segment vertreten. Sie kostet immerhin das 3-fache einer G550. Deshalb nehme ich an, daß auch die Produktionkosten gedeckt sind.

Originally posted by Richthofen
Das ist einfach keine vernünftige Geschäftsstrategie. Mal abgesehen davon das der Preis der Parhelia auch gut verfallen is seit dem Release.


Ob die Geschäftsstrategie vernünftig ist, will ich nicht beurteilen. Matrox ist seit über 25 Jahren im Geschäft. Das heißt nicht, daß das Managment deshalb keine Fehlentscheidungen trifft.


Originally posted by Richthofen
Wer beim Gamer High End Markt mitspielen will, muss dies ernsthaft wollen und sich damit auch auseinandersetzen, das dieses Vorhaben ständig hohe Investitionen nötig macht und zwar in dem Rythmus den der schnellste vorgibt. Andernfalls kann das schnell ein Grab werden.
Die Parhelia ist nicht so ein billig Teil wie die G550. Das Teil hat Geld gekostet und nicht zu knapp. Dann muss ich auch zusehen das ich das wieder reinhole. Aber mit der Strategie siehts da nicht gut aus, denn die Firmen und Büros interessieren sich 0 für die Parhelia. Viel zu teuer und vor allem nix was sie unbedingt brauchen und was eine G550 oder andere karten nicht auch liefern. Für das dolle Displacement Mapping oder FAA geben Firmen kein Geld aus.

Matrox hat nicht Absicht im "Gamer High End"-Markt. Zum Grab wird dies nur, wenn die Kosten dauerhaft höher sind als die Einnahmen. das bedeutet wiederum: Wenn ich nicht mithalten kann, dann versuche es auch nicht. Ich denke, Matrox ist ein Bsp. dafür.
Ich habe schon erwähnt, daß die Parhelia das 3-fache der G550 kostet. Diese Karten zu vergleichen, ist unangebracht. Die G550 war die letzte Karte die auf der G400 basierte. Die Parhelia ist aber die Grundlage für die Chips der nächsten 2 Jahre.
Wer sich für die Parhelia interessiert und wieviele davon verkauft wurden, daß weis nur Matrox.

Das Matrox bzw. die Grafikkarten-Sparte momentan Schwierigkeiten hat, kann ich mir vorstellen. Dies liegt dann wohl weniger an der Parhelia als an der allg. schwächelnden Halbleiterindustrie.
Die Parhelia ist eine Karte die auf 3 Märkten (s.o.) gleichzeitig abzielt. Im 2D-Sektor ist sie nach wie vor führend. Im CAD-Bereich muss sie sich mit 3dlabs-Karten messen lassen. Ich persönlich kann nur die techn. Daten und den Preis vergleichen und da scheint die Parhelai konkurrenzfähig. Im 3D-Spiele-Sektor ist sie sehr gut zu gebrauchen. Sie ist vielleicht nicht die schnellste Karte, aber es gibt kein Spiel, daß nicht vernünftig spielbar wäre.

Gohan
2002-10-20, 10:26:26
Kann mir mal bitte jemand eine Karte nennen die mehr als 2 Monitore gleichzeitig ansteuern kann und dabei unter 500 ? Kostet?

Beispiel: Die GeForce4 Quadro mit 2 GPU's, Kostst ca. 980 €. Kann dann aber auch 4 Monitore ansteuern. Konkurenzprodukte?
Parhelia, mit 3 Monitoren. Und die kostet ca. 2 mal weniger.

robbitop
2002-10-20, 10:40:31
OT:
die Quadro hat 2GPUs...bringt das auch Performance beim Gamen???

*tischumschmeissunddahintervoreinschlagendenmaschinengewehrkugelnverkriech*

Gohan
2002-10-20, 11:01:42
Nein. Die Chips arbeiten nicht zusammen.

StefanV
2002-10-20, 12:57:35
Originally posted by Gohan
Kann mir mal bitte jemand eine Karte nennen die mehr als 2 Monitore gleichzeitig ansteuern kann und dabei unter 500 ? Kostet?

Beispiel: Die GeForce4 Quadro mit 2 GPU's, Kostst ca. 2600 ?. Kann dann aber auch 4 Monitore ansteuern. Konkurenzprodukte?
Parhelia, mit 3 Monitoren. Und die kostet ca. 5,5 mal weniger.

Naja, aber die Parhelia hat auch 'nur' 2 Display Controller, sie splittet ein Bild halt auf 2 oder 3 Monitore auf.

Xmas
2002-10-20, 14:09:58
Originally posted by Gohan
Die GeForce4 Quadro mit 2 GPU's, Kostst ca. 2600 ?.
2600 ? < ~400$ ???

Was ist ? für eine Währung? ;)

Gohan
2002-10-20, 14:16:16
€ Natrülich. K.A. warum es ein ? geworden ist. Wobei ich meinen Preis auf 959 runterkoregieren muss...

http://www.computeruniverse.net/products/90055685.asp?agent=185

StefanV
2002-10-20, 14:50:54
Originally posted by Gohan
€ Natrülich. K.A. warum es ein ? geworden ist. Wobei ich meinen Preis auf 959 runterkoregieren muss...

http://www.computeruniverse.net/products/90055685.asp?agent=185

Das ist eine mit einem Quadro drauf, nicht die mit 2 Quadro Chips drauf ;)

Gohan
2002-10-20, 14:59:05
Sroll mal weiter zur Übersicht runter, da findest du dann das:

http://www.computeruniverse.net/info.asp?id=90055687&language=deutsch

Xmas
2002-10-20, 17:48:46
LOL

http://www.pagecomputers.com/cgi-bin/page/M0824879.html
375$

http://www1.alternate.de/cgi-bin/go.pl?stop=1&c=AQEMCSFCZQ&main=/html/nodes_info/j8gr06.html&partner=preistrend
570€

cyjoe
2002-10-20, 18:07:08
btw hält die parhelia in ut2k3 in hohen auflösungen unter aa auch schonmal mit einer r9700 mit :)
[quelle: http://www.darkcrow.co.kr/englishdirectory/englishcontent.asp?idx=3&contentpage=1 ]

find' ich irgendwie interressant - die Parhelia liefert nirgends monsterframeraten, ist aber überall im spielbaren Bereich. Und das auch in neuen high-poly games wie UT. Das ist BTW genau das, was matrox selbst über die Parhelia gesagt haben: FPS haben wir mittlerweile genug

das klingt mir zwar ziemlich metaphysisch, weil ich's mir irgendwie nicht erklären kann, aber sollte sich das in weiteren kommenden Spielen verifizieren, könnte die Parhelia doch noch einen zweiten Frühling erleben :D

ernesto.che
2002-10-20, 21:23:34
Matrox hat doch McDoanlds als Kunden, das sichert für eine Zeit lang. Ich sehe da keine Probleme, Parhelia 2 wird garantiert Fehler ausbügeln und wohl auch schneller sein - wie es scheint sogar noch in diesem Jahr.
Manch einer scheint zu vergessen, das Parhelia auf Kantenglättung etc ausgelegt ist. Schalte ich das ein, ist sie auch zu einer GF4 TI 4600 konkurrenzfähig.

robbitop
2002-10-20, 21:34:31
leider werden nicht alle Kanten geglättet...laut Demirug ist es aber machbar ein FAA zu entwickeln das das kann..

Liszca
2002-10-20, 22:07:53
Originally posted by Gohan
Kann mir mal bitte jemand eine Karte nennen die mehr als 2 Monitore gleichzeitig ansteuern kann und dabei unter 500 ? Kostet?

Beispiel: Die GeForce4 Quadro mit 2 GPU's, Kostst ca. 980 €. Kann dann aber auch 4 Monitore ansteuern. Konkurenzprodukte?
Parhelia, mit 3 Monitoren. Und die kostet ca. 2 mal weniger.

16 monitore geforce 4 ??? reicht dir das ??? brauchst halt mehrere pci slots, aber es soll funzen!

Unregistered
2002-10-20, 22:20:35
Ich habe gerade nochmal in die Murc-Diskussion geschaut. VigilAnt (Autor des Editorials) hat jetzt verlauten lassen:The way things look, it will be a miracle if Matrox survives at all.Damit meint er wahrscheinlich nur die Grafikabteilung.
Ich find eine Firma, die WinMe-Unterstützung erst ankündigt und dann ablehnt, nicht sehr zuverlässig. Das mag zwar nur eine unwichtige Kleinigkeit sein, aber es ist wohl nicht der einzige Makel bezüglich der Support-Bereitschaft bei Matrox.
Der Trend geht dahin, als Minimum 200 fps bei Spielen zu erwarten (für alte Spiele wie Q3A mind. 350 fps). Das schafft die Parhelia nicht bei allen Spielen, noch nicht einmal, wenn AA / AF deaktiviert sind. Nach den ganzen Informationen, insbesondere von Seiten treuer Matrox-Fans, hege ich keine großen Hoffnungen mehr, dass von Matrox noch ein Überflieger-Chip kommt.

Matrix316
2002-10-20, 23:26:18
Das mit den FPS ist so eine Sache. Wenn man bei einem aktuellen Spiel 50 FPS hat, ist es durchaus Spielbar. Wenns aber bei einem Aktuellen Game nur 50 sind, wie soll es erst Dann bei Zukünftigen aussehen? Wer 400 € für eine Grafikkarte ausgibt, der erwartet auch ein wenig Zukunftssicherheit. Direct X 9 hin oder her, die Parhelia ist einfach zu langsam getaktet. Was meint ihr warums die Parhelia 2 so (relativ) schnell geben wird?

aths
2002-10-21, 12:58:28
Originally posted by robbitop
DX9 Complaint DX9 Beschwerde? Du meinst sicher DX9 Compliant.
Originally posted by robbitop
und vor Allem Tri TMUs wären nett...Bei 4 TMUs pro Pipe dürfen die ruhig bilinear sein. GeForce2/3/4 haben z.B. nur 2 bilineare TMUs pro Pipeline.

aths
2002-10-21, 13:02:03
Originally posted by Matrix316
Das mit den FPS ist so eine Sache. Wenn man bei einem aktuellen Spiel 50 FPS hat, ist es durchaus Spielbar. Wenns aber bei einem Aktuellen Game nur 50 sind, wie soll es erst Dann bei Zukünftigen aussehen? Wer 400 € für eine Grafikkarte ausgibt, der erwartet auch ein wenig Zukunftssicherheit. Direct X 9 hin oder her, die Parhelia ist einfach zu langsam getaktet. Was meint ihr warums die Parhelia 2 so (relativ) schnell geben wird? Die "Grundgeschwindigkeit" vom Parhelia ist nicht berauschend, aber mit 16x FAA und 2x trilinearem AF sinkt die Geschwindigkeit erstaunlich wenig.

Schnitzl
2002-10-21, 13:49:45
Originally posted by aths
Die "Grundgeschwindigkeit" vom Parhelia ist nicht berauschend, aber mit 16x FAA und 2x trilinearem AF sinkt die Geschwindigkeit erstaunlich wenig.
hi,
genau das ist das Problem der Karte.
Wenn einem die Grundgeschw. zu niedrig ist,
dann kann man fast nix machen.
Will sagen, es bringt dann nix wenn man Details reduziert usw. - es wird einfach nicht mehr schneller.

MfG

Edit: ganz extrem ist das bei NWN und UT2003.
Wenn man da keine schnelle CPU hat (>2 Ghz/XP2000+) dann ists echt gülle.

cyjoe
2002-10-21, 14:07:59
Originally posted by Matrix316
Das mit den FPS ist so eine Sache. Wenn man bei einem aktuellen Spiel 50 FPS hat, ist es durchaus Spielbar. Wenns aber bei einem Aktuellen Game nur 50 sind, wie soll es erst Dann bei Zukünftigen aussehen? Wer 400 € für eine Grafikkarte ausgibt, der erwartet auch ein wenig Zukunftssicherheit. Direct X 9 hin oder her, die Parhelia ist einfach zu langsam getaktet. Was meint ihr warums die Parhelia 2 so (relativ) schnell geben wird?

anscheinend bricht sie aber nicht so stark ein wie beispielsweise eine geforce - das verhältnis [frames bei ut2003] / [frames bei q3a] ist bei der parhelia besser als z.B. bei 'ner geforce ;)

robbitop
2002-10-21, 15:08:29
@Aths

bist du sicher dass die TMUs der GF3/4 Serie nur Bilinear sind ?
(im Falle von Tri wäre es dann nur eine 4x1 Version und die P512 eine
4x2...aber warum is die P512 so langsam? sie hat doch doppelte Texelfüllrate...? )

ich dachte bisher dass NUR die TMUs der P512 bilinear sind..naja

Demirug
2002-10-21, 15:35:53
robbitop,

bin zwar nicht gemeint aber ich kann dir sagen das sich aths was die bi-TMUs bei der GF4 angeht sehr sicher ist.

Und theoretisch ist ja auch genügend Texelfillrate da (s. 3d Mark Fillrate Test). Ein 4*4 Aufbau neigt aber leider etwas zur Ineffektivität. Wobei IMO die Bremse nicht bei den TMUs zu suchen ist.

Das Trisetup scheint recht früh aufzugeben und die davor befindlichen Vertexshader erreichen wohl nicht ganz die Leistungsqualität der Konkurrenz.

Und die sehr grosszügig ausgelegte Pixelpipeline ist mit derzeitigen Spielen eher unterfordert und deshalb macht sich der geringe Chiptakt bemerkbar.

robbitop
2002-10-21, 15:38:18
könnte man das Trisetup ändern so dass die Ineffizienz bei den VS geringer ausfällt und dass die Texelfüllrate in Games besser genutzt werden könnte?

Demirug
2002-10-21, 15:47:36
Ändern kann man grundsätzlich alles. Es ist nur eine Frage des Aufwands.

Wobei man durch Änderungen im Trisetup natürlich nicht die VS schneller bekommt. Das Trisetup des P512 kämpft wohl am meisten mit der geringen Taktrate. Und die VS Einheiten bräuchten wohl noch ein paar Stages mehr. NVIDIA hat ja mit dieser Technik die Performancen einer VS Einheit des NV20 zum NV25 um den Faktor 1,5 gesteigert (laut aussage von David Kirk). Im Gegenzug braucht man aber auch mehr Transitoren für solche Sachen.

robbitop
2002-10-21, 15:51:41
und was is mit der ungenutzten Füllrate?

Demirug
2002-10-21, 16:43:56
Originally posted by robbitop
und was is mit der ungenutzten Füllrate?

Was soll damit sein? Der geneigte Besitzer einer P512 kann ja mal das Testprogrammvon Xmas durchlaufen lassen um festzustellen welche Leistungseinbrüche sich ergeben.

robbitop
2002-10-21, 16:47:36
???
ich versteh leider nich worauf du hinaus willst...sorry...


aber wenn die TMUs bilinear sind dann dürfte sich bei Trilinearer Filterung die Texelfüllrate bemerkbar machen, oder?
denn 2 Texturschichten hat doch fast jedes game??

aber es is leider nich so....warum wird die Texelfillrate nich genutzt?

gibt es ne Möglichkeit das eleganz zu fixen?
denn ansonsten wäre die Parhelia für immer Füllratenlimitiert und bräuchte kein XBar....oder???

Demirug
2002-10-21, 16:52:50
robbitop,

ich habe leider was die Fillrate unter Tri/AF Situationen angeht keine Zahlen mit denen ich einen Analyseversuch starten könnte. Deswegen der Verweis auf das Testprogramm. Weil man damit relativ gut nachweisen kann wie sich die TMUs verhalten.

robbitop
2002-10-21, 17:29:31
habe leider keine Parhelia...

wie wäre es mit jmd der eine hat??

Stefan?? (hat eine)

ow
2002-10-21, 19:12:50
Originally posted by aths
GeForce2/3/4 haben z.B. nur 2 bilineare TMUs pro Pipeline.


Wofür immer noch ein Beweis deinerseits aussteht.
Wie sind denn die TMUs eines Chip, der mit 2TMUs keine trilinear Multitexturing kann, wie zB. V3, VSA100?

StefanV
2002-10-21, 19:21:35
Originally posted by robbitop
habe leider keine Parhelia...

wie wäre es mit jmd der eine hat??

Stefan?? (hat eine)

Hab gerad den 3DMark 99 mit Patch nicht drauf ;)

Sobald ich den drauf hab, kann ich mal Werte mit Pointsampling, Bilinear, Tri und AF posten ;)

robbitop
2002-10-21, 19:50:19
danke Stefan ... is sehr nett von dir...

ich denke spätestens mit dem Parhelia NAchfolger wird eine Karte rauskommen die mich wirklich befriedigt (BQ+Treiber+Smoothes Spielgefühl)

ernesto.che
2002-10-21, 21:37:53
Originally posted by ow



Wofür immer noch ein Beweis deinerseits aussteht.
Wie sind denn die TMUs eines Chip, der mit 2TMUs keine trilinear Multitexturing kann, wie zB. V3, VSA100?
Also der VSA-100 kann das anscheinend doch unter zu Hilfenahme des T-Buffers.;)

Demirug
2002-10-21, 22:19:47
Originally posted by ow



Wofür immer noch ein Beweis deinerseits aussteht.
Wie sind denn die TMUs eines Chip, der mit 2TMUs keine trilinear Multitexturing kann, wie zB. V3, VSA100?

Das Thema ist wohl auch ein Dauerbrenner?

um es mal mathematisch auszudrücken:

bi TMU + bi TMU != tri TMU
bi TMU + bi TMI + Interpolations Element = tri TMU

Der Nachweis welche Art von TMUs in einem Chip sind kann nur indirekt geführt werden.

Fillrate bei bi messen.
Fillrate bei tri messen.

Halbiert sich die Fillrate bei tri ist das ein Indiz für bi TMUs. Um auszuschliessen das es sich um eine Bandbreitelimitierung dreht den Test entweder mit einem anderem Chip zu Ram Takt verhältniss wiederholen oder den Bandbreiten bedarf durch zuschalten/abschalten eines Z-Buffers verändern.

Bei allen Chips die primär noch auf 16 bbp Farbe optimiert sind (z.B. GF1/2) sollte man diese Tests natürlich auch mit 16 bpp machen.

aths
2002-10-21, 22:20:26
Originally posted by ow
Wofür immer noch ein Beweis deinerseits aussteht.Die Beweise sind längst erbracht, ow. Anhand von Xmas' Füllraten-Programm lässt sich das zweifelsfrei zeigen.
Originally posted by ow
Wie sind denn die TMUs eines Chip, der mit 2TMUs keine trilinear Multitexturing kann, wie zB. V3, VSA100? Du scheinst Probleme damit zu haben, TMUs von Texture Stages zu trennen. Dass hier eine Abbildung von Texture Stages auf die TMUs stattfindet und einige Chips über Loop Back für MT verfügen, schrieb ich im GF4-AF-Thread schon mal. (Sorry dass ich so genervt bin, aber das hatten wir alles schon mal durchgekaut.) GeForce3/4 z.B. benötigen für Trilinear und Multitexturing 2 Takte und haben dafür eine Art "internes Loopback". Das hat Voodoo nicht, deshalb können die beiden TMUs entweder TF oder MT machen.

ow
2002-10-21, 22:57:01
Originally posted by Demirug


Das Thema ist wohl auch ein Dauerbrenner?

um es mal mathematisch auszudrücken:

bi TMU + bi TMU != tri TMU
bi TMU + bi TMI + Interpolations Element = tri TMU

Der Nachweis welche Art von TMUs in einem Chip sind kann nur indirekt geführt werden.

Fillrate bei bi messen.
Fillrate bei tri messen.

Halbiert sich die Fillrate bei tri ist das ein Indiz für bi TMUs. Um auszuschliessen das es sich um eine Bandbreitelimitierung dreht den Test entweder mit einem anderem Chip zu Ram Takt verhältniss wiederholen oder den Bandbreiten bedarf durch zuschalten/abschalten eines Z-Buffers verändern.

Bei allen Chips die primär noch auf 16 bbp Farbe optimiert sind (z.B. GF1/2) sollte man diese Tests natürlich auch mit 16 bpp machen.


Auf der GF2MX kann ich aber kein Halbierung der Füllrate bei trilinear feststellen. Dagegen aber auf einem Savage2k sehr wohl.

Und trilineare TMUs scheint es dann wohl derzeit bei keinem Chip zu geben.

ow
2002-10-21, 23:00:16
Originally posted by aths
Die Beweise sind längst erbracht, ow. Anhand von Xmas' Füllraten-Programm lässt sich das zweifelsfrei zeigen.


Dann erklär mir nochmal, warum die von mir gemessene Werte mit Xmas´ Programm bei bilinear und trilinear identisch sind, was lt. Demirug nicht so sein sollte bei bilinearen TMUs ("Halbiert sich die Fillrate bei tri ist das ein Indiz für bi TMUs").

Demirug
2002-10-22, 07:31:17
ow,

Das Programm von Xmas unterstützt leider keine 16 bpp framebuffer (nur 16 bpp Texturen). Die GF1/2 schalten aber bei 32 bpp automatisch auf ein Pipeline combinding um. Bei der GF1 hab ich noch nicht nachgebeprüft wie sich das auf die bi\tri Filterung auswirkt. Beim MT hat es Auswirkung. Bei der GF2 ergibt sich aber im 32 bit modus eine halbierung der Pipelines (und damit auch der Pixelfillrate). Nun sind aber für jede dieser "32 bit Pipelines" 4 TMUs vorhanden. Da die Registercombiner der GF2 aber nur auf 2 Texturern pro Pass ausgelegt sind macht der Chip eben aus 4 bi TMUs 2 Tri TMUs.

ow
2002-10-22, 09:42:31
thx @ Demi

Das ist dann aber ganz schoene 'TMU-Verschwendung', wenn ich aus 4 bilinearen 2 trilineare machen muss.

aths
2002-10-22, 23:24:15
... Demirug hat das alles schon mal erklärt, ow. Ich wäre froh, wenn du erst mal lesen würdest bevor du scharfe Gegenfragen stellst.

ow
2002-10-23, 09:45:39
Und ich waere froh, wenn du deine arrogante besserwisserische Art einmal ablegen koenntest.

Andre
2002-10-23, 09:57:37
Kriegt Euch wieder ein, ihr Dickköpfe.

Demirug
2002-10-23, 10:24:51
Was geht den hier ab?

aths, du kannst doch von ow nicht verlangen das er jeden meiner geistigen ergüsse liest und sich dann spontan bei Bedarf daran erinnert.

aths
2002-10-23, 11:12:43
Originally posted by ow
Und ich waere froh, wenn du deine arrogante besserwisserische Art einmal ablegen koenntest. Sorry für meinen Tonfall vorhin, aber man ist halt manchmal genervt wenn ewig die gleichen Sachen kommen, die man für längst geklärt gehalten hat und weiterhin fest behauptet wird, Sacherhalt XYZ sei nicht belegt. Was die Sache dann so aussehen lässt, als würde ich nur aus dem Bauch heraus rumlabern.

ow
2002-10-23, 14:01:08
Zurueck zu den GF Pixelpipes:

Demi, kann es sein, dass die kompletten einzelnen Pixelpipes der Gfs nur 16Bit breit sind und bei 32Bit einfach 2 Pipes 'parallel' laufen?

Damit meine ich kein Pipeline combining derart, dass aus zB. 2 16Bit-Pipes mit 2 16Bit-TMUs eine Pipe mit 4 TMUs wird (das kann zB. der Savage2k, der meldet 4Tex/pass), sondern eben 1Pipe in 32Bit Breite mit 2TMUs (zu 32Bit).


Das wuerde die (annaehernde) Halbierung von Pixel- und Texelfillrate bei Umschalten auf 32Bit erklaeren.

Du hattest mal vermutet, dass die Register Combiner nur 16Bit breit sind. Das macht bei 32Bit breiten Pixelpipes IMO aber keinen Sinn.
Entweder Pipes UND Combiner in 16Bit oder beides in 32Bit.

Oder ist das jetzt alles Quatsch, was ich mir da so ausdachte?:D

Demirug
2002-10-23, 14:41:32
Wir reden jetzt erst mal nur von der GF2, oder?

AFAIK haben die bpp bei der Textur keine Auswirkung auf die Fillrate. Ergo gehe ich davon aus das die TMUs 32 Bit verarbeiten können.

Desweiteren ist bei einem 32 bit Framebuffer ganz klar eine Halbierung der Pixelfillrate zum 16 bit Framebuffer zu erkennen.

Irgendwo zwischen dem Ausgang der TMUs bis zum Ende der Pipeline ist eine Reduktion von 32 auf 16 bit. Wo diese aber nun genau ist vermag ich auch nicht zu sagen. Sinnvollerweise aber wohl so früh wie möglich.



Eine Pixelpipeline aleine kann nur 16 bit verarbeiten. Durch ein bischen zusatzlogic lassen sich aus zwei 16 bit eine 32 bit pipeline machen.

Die Datenbusse einer Pipelines sind dann nur 16 Bit breit.

Die Anbindung einer TMU zur Pipe ist ebenfalls jeweils nur 16 Bit breit. Werden nun aber 2 Pipes zusammengeschaltet ergibt sich ein 4*16 = 64 Bit breiter bus von dem TMUs zur Pipe. Das reicht um 2 32 Bit sample pro Takt zu übertragen. Das ganze erfordert zwar eine recht interesante Datenbusverschaltung zwischen den TMUs und der Pipe aber sowas gehört zu den leichteren übungen eines Chipdesigners.

StefanV
2002-10-23, 16:42:21
@Demirug

Demnach sind die Chips von TNT bis GF2 16bit Chips mit 'angebasteltem' 32bit Modus, oder??

Wie lange würde man brauchen, um aus einem Chip, der nur 16bit kann, wie z.B. dem Riva 128, einen 32bit Chip zu machen, wie es NV getan hat??

meine Vermutung ist, daß NV für den TNT den 32bit Modus nicht wirklich geplant hat.

ow
2002-10-23, 16:46:28
@Demi

Ja, ist auf GF2 bezogen (und evtl. GF1?), die GF3/4 zeigt diese Halbierung der Fillrate ja nicht mehr AFAIK.

Und ja, die TMUs hab ich etwas 'vergessen';). Die koennen wohl schon 32Bit verarbeiten (ich werd nachher mal die 3DM Fillrate Tests bei beiden FB-Farbtiefenund beiden Tex-Farbtiefen mal durchmessen).

Aber die Praezision des Restes der Pixelpipes koennte eben nur 16Bit sein, so dass 2 Pipes parallel als 32Bit Pipe arbeiten.

Ist aber alles Spekulation.

Ich nehme mal an, dass es nicht so einfach moeglich ist, denn internen Aufbau eines Chips durch 'externe' Messungen klar zu erkennen?



@SP: hast du was sinnvolles beizutragen oder willst du nur flamen??

"Angebastelt" ist da sicher nichts bei den NV Chips. Und deren Designentscheidungen wird wohl kaum jemand beurteilen koennen.

btw. hat der TNT keine register combiner, dort wird das ganze also etwas anders funzen als auf den GFs.

Demirug
2002-10-23, 17:26:06
Originally posted by ow
@Demi

Ja, ist auf GF2 bezogen (und evtl. GF1?), die GF3/4 zeigt diese Halbierung der Fillrate ja nicht mehr AFAIK.

Und ja, die TMUs hab ich etwas 'vergessen';). Die koennen wohl schon 32Bit verarbeiten (ich werd nachher mal die 3DM Fillrate Tests bei beiden FB-Farbtiefenund beiden Tex-Farbtiefen mal durchmessen).

Aber die Praezision des Restes der Pixelpipes koennte eben nur 16Bit sein, so dass 2 Pipes parallel als 32Bit Pipe arbeiten.

Ist aber alles Spekulation.


GF1 ist IMO wiederum anders aufgebaut (es gibt da auch ein Patent das wohl den Aufbau beschreibt):

Das bei der GF1 ja jede Pipe nur eine TMU hat müssen fürs MT sowieso zwei Pipes verbunden werden. ob die register combiner nun 16 oder 32 bit habe hängt davon ab ob es pro Pipe einen oder zwei davon gibt (laut Patent nur einen). Der Final combiner scheint ein ganz nettes Teil zu sein. Es gibt wohl für jeweils 2 Pipes nur einen davon. Dieser kann pro Takt entweder 2 16 Bit Pixel erzeugen oder ein 32 Bit Pixel. Also bei der GF1 Pipe gibt es kein "tri for free" bei 32 Bit dafür ist das MT for free bei 32 bit.

GF3/4 enthalten AFAIK keine 16 bit Optimierung mehr. NV30 dürfte aber wieder sowas im Bezug auf 64/128 bit einführen.

Ich nehme mal an, dass es nicht so einfach moeglich ist, denn internen Aufbau eines Chips durch 'externe' Messungen klar zu erkennen?

Reverse-engineering ist nie ganz einfach aber wenn man genung Zeit und Nerven investiert bekommt man eine ganze Menge raus.

StefanV
2002-10-23, 19:24:57
Originally posted by ow
@SP: hast du was sinnvolles beizutragen oder willst du nur flamen??

"Angebastelt" ist da sicher nichts bei den NV Chips. Und deren Designentscheidungen wird wohl kaum jemand beurteilen koennen.

btw. hat der TNT keine register combiner, dort wird das ganze also etwas anders funzen als auf den GFs.

War eigentlich eine ernst gemeinte Frage, ob man so einen 16bit Chip schnell zu einem 32bit Chip machen könnte!!

ow
2002-10-23, 19:35:51
SO einfach dürfte das nicht sein.

Ich nehme an, das NV beim Design vor der Entscheidung stand, den Chip intern komplett auf 32Bit auszulegen und dann bei 16Bit, 'die Hälfte' des Chips ungenutzt zu lassen, oder gleich eine Architektur zu entwerfen, die beides gut kann.

Wir wissen derzeit nicht, wie die GFs 1/2 intern aufgebaut sind, ebenso die TNTs.

Das mit dem variablen Final-Combiner was Demi sagte, klingt (zumindest für mich) plausibel.

ow
2002-10-23, 19:47:56
@ Demi:

Ich hab mit der Gf2MX mal Fillrate -Tests gemacht.
Takt ist 160/160. Auflösung immer 1024x768.

(FB, Tex, Z)

3DM2000:


16,16,16 / 32,32,16 / 32,32,24

286,4 165,3 157,0
560,7 338,3 303,0



3DM2k1SE


16,16,16 / 16,32,16 / 32,16,16 / 32,32,16 / 32,16,24 / 32,32,24

294,5 291,2 173,5 170,7 163,7 161,2
578,5 567,8 363,7 362,6 322,3 313,0




Unter 32Bit sind es etwa 55% der Fillrate bei 16Bit.

Mit nur einer Pipe scheint der Gf2 bei 32Bit nicht zu arbeiten (da 160MPix = theoret. Max. und da liegt er drüber).

Demirug
2002-10-23, 19:52:04
Originally posted by Stefan Payne


War eigentlich eine ernst gemeinte Frage, ob man so einen 16bit Chip schnell zu einem 32bit Chip machen könnte!!

Theoretisch ja. In der Praxsis hätte sich dann eben das Problem ergeben das man mit 16 und 32 Bit Framebuffer in etwa die gleiche Speed bekommen hätte. Als man die entsprechenden Karten entwickelte war die 16 Bit Leistung noch sehr wichtig. Und ein Chip der die volle 16 Bit Leistung auch bei 32 Bit bringen kann war wohl einfach noch nicht drin.