PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : BitBoys-Meldung: Bandbreite berechnen


Ceiser Söze
2001-08-05, 20:49:37
Hi 3D-Center Team,

ich weiss ja nicht, aber in meinen Augen stimmt da etwas mit der angegebenen Bandbreite zum BitBoys-Chip (News vom 4. August) nicht so ganz: Es heisst da "16Gbyte/sec durch den eigentlichen Grafikspeicher". Aber bei einem normalen 128bit-Interface mit DDR-Ram komme ich nur auf 8Gbyte/sec. Für 16GB/sec müsste da wohl QDR-Ram (gibts noch nicht), eine Dual-Channel Lösung à la nForce (ist vermutlich sehr teuer bei solchen Taktungen) oder ein 256bit-Interface (viel zu teuer) her, was ich alles für ziemlich unrealistisch halte.

Die Aussage "16Gbyte/sec für den PixelShader" würde ich eher als interne Bandbrefür auffassen. Bei einem Chiptakt von 250Mhz und einer Busbreite von 512Bit kommt man auch exakt auf 16Gbyte/sec. Wie die restlichen 14Gbyte/sec realisiert werden sollen? Keine Ahnung. Vielleicht haben sie ja die interne Busbreite innerhalb des vergangenen Jahres auf 1024bit vergrössern können (das bezweifle ich aber - auch wenn es mittlerweile knapp 1 1/2 Jahre her ist, seit wir das letzte Mal etwas Konkretes zur XBA-Technologie direk von den Bitboys gehört haben).

tikiman
2001-08-05, 20:52:14
Hey Ceiser, schön dich mal hier zu sehen!

Dein Thema überlasse ich aber mal den...äh, Profis.

Ceiser Söze
2001-08-05, 21:04:17
Ich bin regelmässig hier - aber eigentlich nicht zum posten... ;-)

Ceiser Söze
2001-08-05, 22:46:39
Der Chip wird nach den auf der Asssembly präsentierten Zahlen in 0.17 Mikron gefertigt. Nach dieser (veralteten) Spec-Tabelle kommt dadurch evt. doch ein 1024 Bit breiter Bus zum Einsatz: http://bbs.pcstats.com/beyond3d/attachments/Glaze3d%2Ejpg

Mit einer Taktrate von 235Mhz kommt man dann auch auf die 30Gbyte/sec Bandbreite. Naja, lassen wir uns überraschen...

Thowe
2001-08-05, 23:20:01
Die wissen es doch selbst nicht

http://www.bitboys.fi/xba.html

im Bild 512

im Text drunter "can be 1024"

da denk ich einfach an Rudi "Las dich überraschen"

Ceiser Söze
2001-08-06, 00:40:44
Vermutlich 1024bit. In 0.20 Mikron wären es 512bit, in 0.17 sind 1024bit. Bedenkt man zudem, dass all die Angaben, Spec-Sheets etc. mindestens ein Jahr alt sind, erscheint das Ganze gar nicht mal so unplausibel, da die Spezifikationen in diesem Jahr evt. noch nach oben korrigiert wurden.
Naja, evt. gibt es im September ja bereits eine offizielle Ankündigung und dann wissen wir mehr. Jedenfalls scheint einiges daraufhin zu deuten, dass die BitBoys dieses Mal mehr als nur Vaporware auf Lager haben...

Thowe
2001-08-06, 00:55:11
Wenn nicht können sie ja noch auf brochureware wechseln, das passt eh besser zu denen.

Aber meine echte Meinung und Hoffnung ist das die bald Samples liefern, wäre auch gut für meine nicht vorhandenen Infineon-Aktien.

Ceiser Söze
2001-08-06, 10:35:18
Funktionierende Samples haben sie vermutlich schon, ansonsten würden sie nicht reden - den gleichen Fehler wie beim Glaze3D machen die mit Sicherheit kein zweites Mal. Ausserdem: Ist irgendwem bereits aufgefallen, dass die "grossen" Sites (Tomshardware, Anandtech, Sharkyextreme) kein Wort über die aktuellen Gerüchte um die BitBoys verlieren? NDA anyone?

Problematisch könnte es für sie nur werden, einen AIB-Hersteller zu finden - das bedeutete ja damals (u.A.) auch das Ende für den Pyramid3D-Chip. Vielleicht können sie ja Hercules für ihre Sache gewinnen, die gehen ja bereits mit dem Kyro2 fremd ;-) Wahrscheinlich wäre auch Matrox, denn sowohl BitBoys, als auch Matrox reden in letzter Zeit auffällig viel von Displacement Mapping (und der G550 kann bekanntlich kein Displacement Mapping, also muss da doch irgendwo noch ein HighEnd-Produkt sein). Naja, abwarten und Tee trinken...

ow
2001-08-06, 13:24:29
Originally posted by Ceiser Söze
Jedenfalls scheint einiges daraufhin zu deuten, dass die BitBoys dieses Mal mehr als nur Vaporware auf Lager haben...


Was denn??

StefanV
2001-08-06, 13:38:12
@ow

Ich hab irgendwo mal ein Interview von denen gelesen (war glaube ich 3dconcept)...

Also was der von sich gegeben hat fande ich war der reinste BS!!!

Jedenfalls wurde da die XBA Architectur in den Höchsten Tönen als 'gut' befunden...

Da finde ich ist TBR 'interessanter'...

Ich hau ja keinen Nagel mit einem Lehmann rein;)...

Ceiser Söze
2001-08-06, 13:57:46
Originally posted by ow

Was denn??

Naja, als die BitBoys damals in grossen Tönen den Glaze3D ankündigten, bestand das Unternehmen gerade mal aus ein Paar ambitionierten Ingenieuren. Nach dem Fiasko zu Beginn des letzten Jahres (das vermutlich auf Probleme mit dem Fertigungsprozess bei Infenion zurückzuführen ist), hat man aus den Fehlern gelernt und (u.A. mit Ex-3dfx Vizepräsidenten Shane Long) endlich mal ein Management zusammengestellt. Wie vor einigen Monaten auch irgendwo zu lesen war, haben ja die BitBoys darauf ihre PR-Abteilung komplett abgeschaltet mit der Absicht, erst wieder konkrete Informationen über XBA an die Öffentlichkeit sickern zu lassen, wenn ihr Produkt so gut wie bereit sei. Und das scheint vermutlich jetzt der Fall zu sein (ich glaube nicht, dass die ein zweites Mal denselben Fehler machen würden und bisher wurde eigentlich auf der Assembly immer nur der Chip verschoben, aber nie eine handfeste Präsentation geboten). Ausserdem muss man bedenken, dass Bitboys mittlerweile ein Unternehmen mit 50+ Angestelten ist - im Gegensatz zu den Paar Technikern zu Glaze3D-Zeiten - und daher auch bezüglich PR etwas kompetenteres Personal haben.

Der andere Hinweis wären die überall vorhandenen Vermutungen über eine Matrox/BitBoys-Zusammenarbeit:
-Matrox redet über Displacement Mapping, BitBoys auch.
-Zwischen Matrox und den BitBoys besteht spätestens seit der G400 ein "freundschaftliches" Verhältnis: Enviromental BumpMapping kommt von den Bitboys und Matrox hat das Feature als erster Hersteller in ein Produkt implementiert.
-Die Gerüchte über ein bald kommendes HighEnd-Produkt (alias G800) von Matrox sind nicht aus der Welt zu schaffen, doch es gibt noch nicht mal den G550 zu kaufen. Das HighEnd-Produkt soll zudem Displacement Mapping unterstützen.
-Matrox ist Chips von Drittherstellern nicht abgeneigt, wie man vermuten könnte. Die Firma ging mit dem PowerVR-Chip auch bereits einmal fremd (zwar mit mässigem Erfolg).

Und zu guter Letzt: Die Bitboys haben nicht bloss Vaporware produziert. Der vom gleichen Team entwickelte Pyramid3D-Chip war zu Voodoo1/2-Zeiten marktreif (mit T&L-Unit, BumpMapping usw.) - doch leider ging die Firma an einer Klage, die nichts mit der 3d-Abteilung zu tun hatte, zu Grunde...

Was die XBA betrifft: Ich finde den Ansatz durchaus interessant. Mit der gigantischen internen Bandbreite bekäme man eine GeForce3 OHNE Bandbreitenmangel. Natürlich ist die Architektur nicht so effizient wie ein Tiler. Sie ist genau genommen kein Bisschen effizienter als eine GF3 - nur hat XBA halt keine Flaschenhälse.
Dafür hat der Chip jedoch einen anderen Vorteil: Er kann (angeblich) hoch getaktet werden. Ein Tiler hat da wegen der längeren Pipeline ziemliche Probleme (siehe Kyro2: Ein Die-Shrink genügte für die 60Mhz nicht - der Chip musste modifiziert werden). Ich will damit nicht gegen das Tiling wettern - ehrlich gesagt finde ich den Kyro ziemlich genial. Aber das Verfahren hat halt auch seine Nachteile. Genau wie die XBA auch ihre Nachteile hat. Aber eine eDRAM-Lösung gleich zu Beginn als... sagen wir mal "suboptimal" zu bezeichnen, halte ich für unfair. Warten wir ab. Wenn die Spezifikationen stimmen, sieht die GeForce3 möglicherweise gegenüber dem Chip wie eine MX-200 aus ;)

Kai
2001-08-06, 14:01:51
Sagen wir mal so ... ich, der sich in solcherlei Fachgesimpel wenig auskennt und gerade eine Geforce3 gekauft hat, weil er die Leistung anhand von Pre-Benches abgeschätzt hat, nehme die BitBoys und ihre Schöpfung irgendwo nicht so sehr ernst.

Das kann an deren relativer "Sensationslosigkeit" wie auch an den tausend Spezifikationstabellen liegen mit denen die um sich werfen.

Wenn man mal mehr Infos rauslassen würde, würde sich das bestimmt ändern - aber so sieht das nur danach aus als würden unter Millionen von Ameisen drei oder vier den Finger heben wollen und keiner sieht sie. Will sagen - man unterschätzt die BB's wohl allgemein - oder eben auch nicht.

Ceiser Söze
2001-08-06, 14:22:06
Die BitBoys sind halt Neueinsteiger und die haben es immer schwer.
Siehe z.B. PowerVR (ok, Neueinsteiger sind das nicht, aber seit 1997 hat man im PC-Markt fast nichts mehr von ihnen gehört):
Der Kyro1 war etwa so schnell wie eine GeForceMX: Ein solides Stück Hardware, eine gute Alternative - nicht mehr, nicht weniger --> Kein Mensch interessierte sich dafür.
Der Kyro2 hingegen ist schneller als eine GTS bei einem Preis, der sich eher in MX-Regionen bewegt. Daneben gibt es noch gratis Publicity durch die Partnerschaft mit dem Markenhersteller Hercules (und durch eine ziemlich lustige Schmierkampagne von nVidia *ggg*) --> Plötzlich ist der Chip interessant und er räumt im LowCost-Bereich ab.

Das gleiche hatten wir bei der Voodoo1: Mit einem in allen Punkten komplett überlegenen Produkt setzt sich ein StartUp-Unternehmen mit Links gegen die Grossen in der Branche (damals S3 und ATI) durch.

Oder im CPU-Markt AMD: Dank des Athlons wurde AMD von einem Tag auf den anderen plötzlich ein Thema für den Zocker.

Was ich damit sagen will? Wenn man im PC-Markt Erfolg haben will, muss man ein überragendes Produkt liefern. Gleich gut wie die Konkurrenz zu sein genügt nicht (siehe Kyro1). Man muss sie überholen und wenn möglich weit hinter sich lassen (und im besten Fall auch noch billiger sein). Die BitBoys wissen das und versuchen daher auch dieses Ziel zu erreichen. Momentan glaubt die Mehrheit noch nicht so Recht an das Unternehmen (auch ich will es noch nicht so richtig glauben, aber als Vaporware möchte ich das Ganze dann doch nicht abstempeln - das wäre zu einfach und zudem wäre doch eine kleinere Revolution bei den Grafikkarten etwas ganz nettes für den Konsumenten *gg*), aber wenn(!!) das Produkt in ersten Benches plötzlich die HighEnd-Konkurrenz (am besten aus dem Hause nVidia) auf den zweiten Platz versetzt, ist der Erfolg gewiss. Anderfalls will niemand ein solches Produkt. "Der erste Platz oder nichts" lautet wohl die allgemeine Regel für Neueinsteiger in diesem Markt.

StefanV
2001-08-06, 14:44:14
...Es sei denn, man lizensiert den Chip an einen 'großen'!!

Inklusive Markenrecht und so weiter (Bitboys ist drin, Mehl steht drauf)...

Was hat Matrox einst gesagt:

1. Man wolle weiterhin Karten für den High END Gamer anbieten(!!)

2. es ist nicht wirtschaftlich Chip UND Karte in einem Hause zu fertigen (im 6 mon Rythmus)...

Ohne 'Schützenhilfe' werden die Bitboys untergehen...

Leonidas
2001-08-06, 19:19:15
Ich finde es extrem Mist, das selbst in meiner Korrektur noch ein (Schreib)-Fehler drin ist.

Es sollte ein 256 Bit DDR-Interface sein, kein 128 Bit DDR-Interface.

Und dann passt die Rechnung auch:


GraKa-Speicher: 256 Bit * DDR * 250 MHz = 16 Milliarden Byte/sec.

eingebetteter Speicher: 512 Bit * 219 MHz = 14 Milliarden Byte/sec.

Leonidas
2001-08-06, 19:26:27
Allgemein @ Ceizer Söze:


Logisch, es könnte auch umgedreht sein, eingebetter mit 250 MHz = 16 und normaler mit 219 MHz = 14. Allerdings sprach der Typ im PC Stats Forum von 250 MHz Speichertakt, also hab ich es so ausgelegt.


1024 halte ich für genauso machbar, allerdings wäre dann die gesamte Bandbreite des Chips nicht mehr 30 GB, sondern mehr, weil ja die Bandbreite des eingebetteten und des normalen zusammegzählt werden. PS: Infineon hat immer nur von 512 Bit gesprochen.


Das einzige an der XBA-Lösung negative halte ich im übrigen die Produktionskosten ...

Kai
2001-08-06, 19:28:07
Das schreiben die Jungs von 3Dchipset in ihren News zu diesem "Vapor Theme" ;)

I just noticed this bit over at nV News and I just have to laugh about this whole BitBoys shit. They do get the pulitzer prize for scamming investors to fund their vaporware. I wonder if the investors at least received some vasoline to ease the pain of insertion. Muhaha. If 3dfx could not have received any funds to carry on. What makes this BSBoys any different? Anyways, before I laugh myself to death about this company here is the link to where you can too get a chuckle at the good ole BSBoys.

StefanV
2001-08-06, 19:34:23
Originally posted by Leonidas
Das einzige an der XBA-Lösung negative halte ich im übrigen die Produktionskosten ...

Und, was schätzt du, wie hoch die sein würde???

Ich schätze, daß bei einer GF2 ca. 2/3 des DIEs auf das eDRAM fallen...

Bei einer GF3 immer noch so um die Hälfte, je nach Menge!!!

Es kommt halt auf den Fertigungsprozess an...

Unter 15nm halte ich das für nicht sehr sinnvoll...

Alles in allem wird dieser Chip nicht billig!!!

Produktionskosten WEIT ÜBER einer GF3...

Da wäre IMHO ein '2 Chip design' (a la PPro) oder ein Serielles Interface sinniger...

Ceiser Söze
2001-08-06, 20:03:34
Teuer wird das Zeug ziemlich sicher.
Um genaue Zahlen bezüglich der Chipgrösse zu liefern: Glaze3D hätte dazumal im 0.20 Mikron Prozess gefertigt werden sollen und wäre 150mm^2 gross geworden. Nehmen wir an, dass auch der jetzige Chip im 0.17 Mikron Prozess etwa diese Fläche einnehmen darf, kommt man bei 0,38mm^2 pro Mbit für den 0,17-Prozess (Angaben von einer BB-Präsentation von 1999) auf 36,5mm^2 für die 96Mbit, die verbaut werden sollen. Damit blieben noch etwa 113mm^2 für die Chiplogik, was etwa für 40Mio. Transistoren ausreichen sollte. Ein DirectX 8.1-compliant Chip wäre somit theoretisch möglich.
Kostenpunkt? Keine Ahnung (weiss jemand zufällig die Chipfläche einer GeForce3?). Der Chip selbst wird mit ziemlicher Sicherheit teurer als ein GF3-Chip. Allerdings benötigt man dank der XBA keinen so schnellen externen Speicher (200Mhz sDDR-SDRam sollten eigentlich problemlos ausreichen - und der kostet mittlerweile auch nicht mehr alle Welt), womit sich die Kosten wieder ausgleichen sollten. Rechnet man dann noch dazu, dass sich die BitBoys zu Beginn niemals so hohe Margen wie nVidia leisten können, dürfen wir vielleicht mit einem Preis um die 700 - 800 DM rechnen. Mehr dürfen die BitBoys gar nicht verlangen, wenn sie Erfolg haben wollen

Kein Gewähr auf alle von mir gestellten Vermutungen. Vielleicht sieht am Ende ja alles anders aus.

Ceiser Söze
2001-08-06, 20:11:27
Originally posted by Leonidas

Es sollte ein 256 Bit DDR-Interface sein, kein 128 Bit DDR-Interface.


Klar, dann geht's. Aber ich bezweifle, dass die BitBoys ein 256bit-Speicherinterface einsetzen werden. Sie sagen ja selbst auf ihrer Site folgendes:

There are two methods for increasing the performance of external memory. Either the bus width or the bus operating frequency must be increased. However, 256-bit interfaces have issues with having sufficient pad space on the chip for the extra data lines and much higher speed MHz DDR external bus speeds are not practical or cost-effective.

Ok, gewisse Angaben dort sind mehr als widersprüchlich (512bit-Interface im Schema / 1024bit im Text usw.), aber die BitBoys haben eigentlich auch sonst immer betont, dass ein 256bit-Interface unwirtschaftlich ist. Fragt sich ausserdem, wie genau Petri Nordlund auf der Präsentation das Ganze nahm. Es wurden ja eigentlich gar keine finalen Spezifiaktionen geliefert, sondern "nur" etwas über die Technologie im Chip geplaudert. 30Gbyte/sec sind also möglicherweise gar nicht der exakte Wert...

PS: Über Dinge spekulieren, auf die eigentlich gar niemand eine Antwort geben kann, ist schon eine lustige Sache :D :D :D

Leonidas
2001-08-06, 20:39:02
@ Design: Ursprünglich sollten die 9 MB eDRAM und der Chip selber mal auf 6 Mill. Transistoren untergebracht werden. Eventuell aber nur eine Vaporangabe.


@ Kosten: Gigantisch. 512 Bit eDRAM + Vertex/Pixel Shader gehen IMHO in Richtung 50-60 Mill. Transistoren. Kosten kann sich jeder ausrechnen.


@ Bandbreite. Anders als mit einem 256 Bit DDR Interface funktioniert die ganze Rechnung mit 30 GB gar nicht. Außerdem wird über 256 Bit auch schon seit drei Jahren gemeckert, das es zu teuer ist - irgendwann muß der Preis ja nun einmal gesunken sein. Auch von 64 auf 128 Bit kostete Geld - und trotzdem hat es jeder gemacht. 256 Bit wird definitiv kommen - wenn nicht mit dem BitBoys-Chip, so denn später. Schnellerer Speicher ist einfach nicht beliebig herstellbar und wird außerdem inzwischen auch hübsch warm - ein 256 Bit Interface kostet zwar ein Heidengeld, ist aber wenigstens technisch realisierbar.

Ceiser Söze
2001-08-08, 14:08:20
Der Bitboys-Site wurde ein Update verpasst. Nun ist nirgendwo mehr von einem 512bit Speicherinterface die Rede und auch die Diagramme haben nun ein 1024bit Interface, womit zumindest diese Frage geklärt wäre.
Jetzt müssen sie "nur" noch ein Produkt in die Läden bringen... ;)

Leonidas
2001-08-08, 14:17:41
Ist es wirklich ein Update oder war das vorher schon drauf?

Ceiser Söze
2001-08-08, 14:56:57
Das ist definitiv ein Update - gestern war das Zeug jedenfalls noch nicht da. Da gab es nur ein Editorial und im "Innovation"-Bereich hatte z.B. das XBA-Schema noch 512bit (jetzt hat es 1024bit). Auch neu sind die Vergleiche zur GeForce3 und zum Radeon (interessant: Der Bitboys Chip soll auf gewöhnlichen 128bit SDRAM mit 200Mhz setzen).

Leonidas
2001-08-08, 16:02:52
Jo, das Server-Datum der Dateien ist von heute Mittag.

Thowe
2001-08-08, 16:10:20
Unglaublich, sollte es jetzt tatsächlich soweit sein?

Ceiser Söze
2001-08-08, 16:26:38
Originally posted by Thowe
Unglaublich, sollte es jetzt tatsächlich soweit sein?

Vielleicht schon. Der User auf Beyond3d, der mit dem ganzen Hype begonnen hat (derjenige, der letzte Woche von der Präsentation berichtet hat), scheint eigentlich ein ganz vernünftiger Typ zu sein, der mit seinen Postings nicht einfach nur für Aufmerksamkeit sorgen will. Ebenfalls von Beyond3D kommen die ständigen Kommentare und Hinweise von Dave Barron (ehemals Webmaster der Site, nach kurzer "Karriere" bei 3dfx zu den Bitboys gewechselt - auch zweifellos ein vernünftiger Typ) zum Thema (natürlich darf er keine genauen Specs verrraten, aber ein Paar "Hints" dürfen es schon sein). Und dann wäre da noch die Tatsache, dass die Bitboys-Site vor knapp einem Jahr das letzte Mal geupdatet wurde (da ging es aber "nur" darum, dass neue Geldmittel aufgetrieben wurde) und jetzt urplötzlich neues Material erscheint. Erinnert man sich dann noch an die Aussage des CEOs (das war glaube ich etwa im April/Mai 2001), dass erst dann neue Details veröffentlicht werden, wenn man auch wirklich ein Produkt habe, könnte man wirklich fast glauben, dass das Unmögliche plötzlich wahr wird.
Vielleicht ist das Ganze ja nur ein Wunschdenken meinerseits und der Chip wird trotz allem in Kürze um ein weiteres Jahr verschoben - aber irgendwie will ich das dieses Mal nicht so recht glauben ;)

StefanV
2001-08-08, 16:40:01
@Ceisar

Nur so eine Idee:

Wann sollte der Glaze denn erscheinen??

Und wann sollte die G800 erscheinen???

Ceiser Söze
2001-08-08, 16:52:48
Da bin ich mir nicht so sicher. Der erste Glaze3D hätte soviel ich weiss im Herbst 1999 in den Läden stehen müssen - was bekanntlich nicht geklappt hat.
Anfang 2000 kündigte Shane Long bei seinem Antritt als CEO noch gross an, dass man Ende 2000 den zweiten Versuch wagen will. Kurz darauf herrschte aber für immer Funkstille (man hat wohl eingesehen, dass man es doch nicht schafft).
Wenn ich es mir aber so überlege: Im Herbst 2000 geisterten Dutzende von Gerüchten durchs Netz, dass Matrox zum Weihnachtsgeschäft die erste DX8-GraKa ausliefern will. Hmmmm, wenn das mal kein Zufall ist ;) ;)
Und jetzt spricht man wieder davon, dass Matrox noch ein HighEnd-Produkt auf Lager hat (nicht nur haltlose Gerüchte übrigens: Im offiziellen Matrox Forum hat ein Customer Support Typ auf die Frage, ob man sich für Gaming-GraKas in Zukunft bei der Konkurrenz umsehen müsse mit einem schlichten "No ;)" geantwortet). Irgendwie könnte so alles wunderbar aufgehen... könnte...
(ich liebe diese Spekulationen. Das macht den GraKa-Markt erst richtig spannend *ggg*).

StefanV
2001-08-08, 18:28:39
@Ceisar

Hab ich mir auch so gedacht ;)...

Dann noch die Meldung, daß es unwirtschaftlich ist Chip für Gamer UND die Karte selber zu Produzieren...

Dann wieder die Meldung, daß es Karten für High End Gamer geben wird (Betonung auf High END!!!)...

ERGO:

Matrox hat nie an einem Chip für Gamer gearbeitet (betonung auf CHIP)...

Aber sie wollen eine Gamer Karte anbieten ;)...

Kai
2001-08-08, 19:40:31
Bei euch jagt ja eine Spekulation die nächste ;) Matrox mit Fremdchips? Das glaube ich erst wenn ich's seh ...

Ceiser Söze
2001-08-08, 19:48:43
Originally posted by Kai
Bei euch jagt ja eine Spekulation die nächste ;) Matrox mit Fremdchips? Das glaube ich erst wenn ich's seh ...

Das kannst du bereits jetzt sehen. Es wäre nämlich nicht das erste Mal, dass Matrox Chips von anderen Firmen verbaut: Der erste Refresh des PowerVR-Chips (das Ding hiess PCX2 oder so...) wurde von Matrox lizenziert und verbaut. Ehrlich gesagt traue ich Matrox am ehesten so etwas zu: ATI ist dafür etwas unflexibel und nVidia macht so etwas aus Prinzip nicht ("Wir sind ja sowieso die besten und haben es nicht nötig..." *eg* ).

Ausserdem: Spekulationen sind cool (solange man sie auch als solche deklariert!) ! Sonst wäre der Grafikkarten-Markt ja mehr als nur langweilig ;)

StefanV
2001-08-08, 20:19:33
Hey, Spekus sind doch gut ;)...

Kai
2001-08-08, 20:36:43
Originally posted by Ceiser Söze
("Wir sind ja sowieso die besten und haben es nicht nötig..." *eg* ).

Sind sie ja auch (stichel) *eg*

Thowe
2001-08-08, 23:19:02
Originally posted by Ceiser Söze


1. Das kannst du bereits jetzt sehen. Es wäre nämlich nicht das erste Mal, dass Matrox Chips von anderen Firmen verbaut: Der erste Refresh des PowerVR-Chips (das Ding hiess PCX2 oder so...) wurde von Matrox lizenziert und verbaut.

2. Ehrlich gesagt traue ich Matrox am ehesten so etwas zu: ATI ist dafür etwas unflexibel und nVidia macht so etwas aus Prinzip nicht ("Wir sind ja sowieso die besten und haben es nicht nötig..." *eg* ).

3. Ausserdem: Spekulationen sind cool (solange man sie auch als solche deklariert!) ! Sonst wäre der Grafikkarten-Markt ja mehr als nur langweilig ;)

zu 1. Yep, die m3D eine meiner Lieblingskarten - mit der muss man einfach mal TR1 gespielt haben.

zu 2. Da gab es ja auch mal so ne nette Aussage, like that "Wir haben so und so viele Techniker/Ingenieure usw. die nicht nur auf der faulen Haut liegen". Ok nicht ganz so aber ähnlich, war glaube ich vom CEO.

zu 3. Yep, macht mehr spass als das Endprodukt.

Hatte vor kurzem gesehen das du dich scheinbar häufiger auf B3D rumtreibst. Wollte gestern schon fragen ob das Posting vielleicht von diesem "ng nam" oder so ähnlich gestartet wurde. Das war doch der der die Technik der Kyro so excellent kannte.

Frank
2001-08-08, 23:23:58
Eine M3D liegt bei mir auch noch rum. Mit 4MB Unreal total flüssig in 1024x768. Das das die Karte noch pakt. *freu*

Ceiser Söze
2001-08-08, 23:30:56
Originally posted by Frank
Eine M3D liegt bei mir auch noch rum. Mit 4MB Unreal total flüssig in 1024x768. Das das die Karte noch pakt. *freu*

Nur blöd, dass nur gerade eine handvoll Spiele auch reibungslos mit der Karte liefen (scheiss Polyhedras - warum konnten sich die Chipentwickler nicht schon zu Beginn auf Dreiecke einigen? Naja PowerVR hat ja mittlerweile auch viel dazugelernt...)

Ceiser Söze
2001-08-08, 23:46:39
Originally posted by Thowe

1. Da gab es ja auch mal so ne nette Aussage, like that "Wir haben so und so viele Techniker/Ingenieure usw. die nicht nur auf der faulen Haut liegen". Ok nicht ganz so aber ähnlich, war glaube ich vom CEO.

2. Hatte vor kurzem gesehen das du dich scheinbar häufiger auf B3D rumtreibst. Wollte gestern schon fragen ob das Posting vielleicht von diesem "ng nam" oder so ähnlich gestartet wurde. Das war doch der der die Technik der Kyro so excellent kannte.

zu 1: Besser als die Sprüche "We're nearly the heroes of every 18 years old...." und "In 10 years time we're going to transform your computer into a lifeform...." sind sie sowieso (beide von Jen-Hsung Huang, CEO von nVidia und offensichtlich eine unter chronischem Realitätsverlust leidende Person *eg* ). Am besten gefällt mir aber immer noch die seelenruhige Reaktion der Matrox-Leute, wenn man irgendwelche Fragen im Stil von "Wieso entwickeln Sie eigentlich keine HighEnd-Produkte mehr?" stellt: "Wissen Sie, wir haben unseren Markt..." ;)

zu 2: Hmmm, nam ist mir ehrlich gesagt nicht besonders positiv in Erinnerung geblieben (ich glaube, der wurde auf dem alten Board sogar gebanned, weil er ständig Flamewars produzierte und so...). Wie dem auch sei: Der ganze Bitboys-Rummel wurde von einem gewissen "Nappe1" gestartet. Er ist Finne und scheint die Bitboys ziemlich gut zu kennen. Jedenfalls behauptet er das und ich sehe keinen Grund, ihm nicht zu glauben, da er wie bereits gesagt einen sehr vernünftigen Eindruck macht. Ich schenke jedenfalls den von ihm stammenden Infos mehr Glauben als den Dingen, die z.B. auf The Register oder The Inquirer stehen ;)

Thowe
2001-08-08, 23:56:32
Originally posted by Ceiser Söze


Wie dem auch sei: Der ganze Bitboys-Rummel wurde von einem gewissen "Nappe1" gestartet. Er ist Finne und scheint die Bitboys ziemlich gut zu kennen. Jedenfalls behauptet er das und ich sehe keinen Grund, ihm nicht zu glauben, da er wie bereits gesagt einen sehr vernünftigen Eindruck macht. Ich schenke jedenfalls den von ihm stammenden Infos mehr Glauben als den Dingen, die z.B. auf The Register oder The Inquirer stehen ;)


Si, Finnland ist ja auch nicht so gross :|

Nein denke auch, wenn nicht jetzt dann können die eh einpacken. Bleibt nur die Hoffnung das die Karten dann auch eine gewisse Marktakzeptanz finden.

The Register/Inquirer errinnert mich an den Spruch das Engländer die Zukunft in Regentropfen lesen.

BTW: Ich hatte den Thread auf B3D nur überflogen, aber er schien wirklich zu wissen wovon er redet.

Kai
2001-08-09, 00:01:53
Originally posted by Frank
Mit 4MB Unreal total flüssig in 1024x768. Das das die Karte noch pakt. *freu*

Nach deinen Masstäben flüssig, eh? *eg*

Aber was ich noch fragen wollte ... mit den Matrox-Karten kenne ich mich nicht allzusehr aus. Ich weiß aber das mein Kumpel sich damals ne Beschleuniger-Addon Karte zu seiner Mystique gekauft hatte die auch von Matrox war. War das vielleicht diese M3D? Hat so ca. 200 Märker gekostet und auf der Verpackung war das Gesicht einer Frau (glaub ich zumindest noch so in Erinnerung zu haben ...)

Dabei eine Handvoll Demos (unter anderem auch Tomb Raider 1) die ziemlich impressive damit aussahen. Nur die anderen Spiele konnt'ste getrost knicken weil die Unterstützung fehlte.

Aufgefallen ist mir nur, das die damals nicht mit der Grafikkarte per Durchschleifkabel gebundlet wurde wie z.B. die Voodoo2 ...

Thowe
2001-08-09, 00:06:44
Hat die über den PCI Bus gemacht, naja somit ohne "Filtereigenschaften" des LoopThroughCable.

Wobei Ultimate Race + UR Pro sahen auch supi aus.

Kai
2001-08-09, 00:09:21
Ja, an das Game erinnere ich mich noch - lief Aalglatt. Aber welche Karte war's denn nu?

Frank
2001-08-09, 00:12:47
Originally posted by Kai


...gekostet und auf der Verpackung war das Gesicht einer Frau (glaub ich zumindest noch so in Erinnerung zu haben ...)


Woran du dich wieder erinnerst...

Legolas
2001-08-09, 00:21:28
@Kai

Das war wohl sicher die M3D mit PowerVR PCX2 Chip... naja meine alte Voodoo1 hat wohl mit mehr Spielen funktioniert :D:D

Thowe
2001-08-09, 00:27:27
Originally posted by Legolas
@Kai

Das war wohl sicher die M3D mit PowerVR PCX2 Chip... naja meine alte Voodoo1 hat wohl mit mehr Spielen funktioniert :D:D

Bingo m3D

Kai
2001-08-09, 08:14:14
Damals hab ich mir ne Mega Monster mit je 8 MB zusammengespart ... Mann war das krass! Alles ruckelte schöner :D