Archiv verlassen und diese Seite im Standarddesign anzeigen : Was wisst Ihr über die Bitboys?
Unregistered
2001-10-09, 10:23:16
Im Internet gibt es Gerüchte, dass Matrox mit Bitboys' Technologie eine Karte herausbringen wird, die das Spielkartensegemnt aufschütteln wird.
Bitboys scheint ein skandinavischer Laden zu sein, der viel Hype macht, aber bisher nichts produziert hat. Angeblich gibt es dort jetzt 3dfx Ingeneure und Infineon ist ein Partner. Bitboys werben mit ihrer Technology, die die Specherbandbreitenproblem heutiger Chips umgehen soll.
Wisst ihr mehr? Die Webseite ist übrigens bitboys.com.
Ceiser Söze
2001-10-09, 10:56:07
Ich weiss so einiges, aber um meine Quellen zu respektieren, halte ich schön brav meine Klappe. Ich stehe zwar nicht unter einem NDA, wurde aber ausdrücklich darum gebeten, das Zeug für mich zu behalten.
Dieses Posting hört sich vielleicht wie eines von der Sorte "Ich kenne hochgeheime GeForce4 und GeForce5 Spezifikationen!!!!!" und darum nehme ich es auch niemandem übel, wenn dieses Posting von niemandem ernst genommen wird...
Sagen wir es ganz einfach einmal so: Ich werde mir ziemlich sicher dieses Jahr KEINEN Radeon8500 kaufen ;)
/me überlegt sich, was er hier noch posten könnte, ohne gegen das "selbst auferlegte NDA" zu verstossen ;)
Edit:
Das habe ich hier schon mal gepostet, ist aber immer noch interessant:
http://tarr.uspto.gov/servlet/tarr?regser=serial&entry=76020383
http://tarr.uspto.gov/servlet/tarr?regser=serial&entry=76020382
Das ist neu und nicht weniger interessant:
http://tess.uspto.gov/bin/showfield?f=doc&state=620ehi.2.1
Unregistered
2001-10-09, 11:14:32
Okay, dann denk mal drüber nach was du rausrücken kannst...
Was ist aber der Sinn (aus PR Sicht) so lange nichts bekanntzugeben? Mit konkreten Ankündigunegn könnte man doch potentielle 8500 oder Geforce3 Käufer zumindest zum Nachdenken zwingen. Wenn Matrox involviert ist, müssen die doch Ihren Aktionären was erzählen. Das spricht IMHO gegen Matrox.
Unregistered
2001-10-09, 11:19:25
Originally posted by Ceiser Söze
Ich weiss so einiges, aber um meine Quellen zu respektieren, halte ich schön brav meine Klappe. Ich stehe zwar nicht unter einem NDA, wurde aber ausdrücklich darum gebeten, das Zeug für mich zu behalten.
Dieses Posting hört sich vielleicht wie eines von der Sorte "Ich kenne hochgeheime GeForce4 und GeForce5 Spezifikationen!!!!!" und darum nehme ich es auch niemandem übel, wenn dieses Posting von niemandem ernst genommen wird...
Sagen wir es ganz einfach einmal so: Ich werde mir ziemlich sicher dieses Jahr KEINEN Radeon8500 kaufen ;)
/me überlegt sich, was er hier noch posten könnte, ohne gegen das "selbst auferlegte NDA" zu verstossen ;)
Edit:
Das habe ich hier schon mal gepostet, ist aber immer noch interessant:
http://tarr.uspto.gov/servlet/tarr?regser=serial&entry=76020383
http://tarr.uspto.gov/servlet/tarr?regser=serial&entry=76020382
Das ist neu und nicht weniger interessant:
http://tess.uspto.gov/bin/showfield?f=doc&state=620ehi.2.1
Die kündigen doch jedes Jahr Ihren Wunderchip an.
Angeblich sollen sich im Q1/02 Ihren Chip auf der Messe vorstellen.
*rofl*
Mich wundert es das die Bitboys bis jetzt überhaupt überlebt haben.
Sorry, aber das sieht eher schlecht aus und es wird wieder nur versucht Sponsoren an Land zuziehen.
Mehr kann ich momentan daraus nicht erkennen.
Gruss Labberlippe
Unregistered
2001-10-09, 11:19:45
Originally posted by Ceiser Söze
Edit:
Das habe ich hier schon mal gepostet, ist aber immer noch interessant:
http://tarr.uspto.gov/servlet/tarr?regser=serial&entry=76020383
http://tarr.uspto.gov/servlet/tarr?regser=serial&entry=76020382
Das ist neu und nicht weniger interessant:
http://tess.uspto.gov/bin/showfield?f=doc&state=620ehi.2.1
Okay, da steht dann "Further action on the application has been suspended.", was unterschiedliche Sachen bedeuten kann. Wahrscheinlich ist, dass ein Partner reingekommen ist bzw. ein Joint Venture gegründet wurde. Wenn man sich etwas die Namen "Avalanche Duo" ansieht, scheint es eine Multichip-Lösung werden, a la 3dfx, was ja recht smart ist, ie ma kann billig die Performance anpassen. Das würde bestätigen, dass 3dfx Leute im Team sind.
Aber was sind neuere Entwicklungen, deine Links sind ja schon etwas älter.
StefanV
2001-10-09, 11:22:28
Denke es ist ein Joint Venture oder eine 'Alibifirma' (damit der Eigene Name nicht auf dem Chip steht, da bei Spielern nicht so beliebt).
Aber es gibt weiter Unten noch so einen Thread ;)...
Ceiser Söze
2001-10-09, 11:26:01
Die Strategie macht aus drei Gründen Sinn:
1. Die Bitboys haben schon mehrmals den Über-Chip angekündigt und jedes Mal den Termin verpasst (Pyramid3D, Glaze3D, Glaze3D #2). Ein weiteres mal kann man sich so eine Niederlage nicht leisten.
2. Matrox und Bitboys sind beides privat geführte Unternehmen, die haben also keine Aktionäre, die man zufrieden Stellen muss ;)
3. Der PR-Effekt ist grösser, wenn man an einem Tag urplötzlich die Bombe platzen lässt: D.h. Spezifikationen bekanntgeben und gleichzeitig lauffähige Boards präsentieren. Der Radeon8500 oder die GeForce3 sind gute Gegenbeispiele: Zwischen Präsentation und Erhältlichkeit vergingen mind. 1 1/2 Monate...
Was Matrox betrifft: Es ist unklar, ob das Unternehmen in irgendeiner Weise beteiligt ist. Fakt ist jedenfalls, dass Matrox und Bitboys schon seit längerem gut miteinander auskommen (Matrox lizenzierte für den G400 EMBM von Bitboys worauf Microsoft es ebenfalls für DX6 lizenzierte) und dass Matrox angeblich den High-End Markt noch nicht aufgegeben hat.
Aber Matrox ist nicht das einzige Unternehmen, das für den Bitboys-Chip in Frage käme. Denkt mal darüber nach: Die Chips werden von Infenion hergestellt ;) ;)
Ceiser Söze
2001-10-09, 11:28:08
Das sind nur registrierte Markennamen.
"Avalanche" und "Dual Avalanche" ist ganz offensichtlich der Chip selbst, während "Matrix AA"... naja, wofür steht wohl das "AA"??? ;-)
StefanV
2001-10-09, 11:30:46
Originally posted by Unregistered
Wenn Matrox involviert ist, müssen die doch Ihren Aktionären was erzählen. Das spricht IMHO gegen Matrox.
Seit wann ist Matrox eine Aktiengesellschaft??
Hab ich hier etwas nicht mitbekommen??
Also Matrox wird privat Geführt!!
Da is nix mit Aktionären, die was ausplaudern könnten.
Scheiden also NICHT aus...
PS: Vor einiger Zeit hab ich mal auf Antilles gelesen, daß einer von Matrox gesagt hat, daß man den Gamer Markt NICHT aufgeben wird!!
Es wird weiterhin Karten für den Gamer Markt geben (NICHT Aber Chips von Matrox!!)
Unregistered
2001-10-09, 11:38:56
Originally posted by Ceiser Söze
Die Strategie macht aus drei Gründen Sinn:
...
3. Der PR-Effekt ist grösser, wenn man an einem Tag urplötzlich die Bombe platzen lässt: D.h. Spezifikationen bekanntgeben und gleichzeitig lauffähige Boards präsentieren. Der Radeon8500 oder die GeForce3 sind gute Gegenbeispiele: Zwischen Präsentation und Erhältlichkeit vergingen mind. 1 1/2 Monate...
...
Das ist ja was bei Intel gelobt wird. Bei Chipvorstellung werden sind käufliche boards da. Mal sehen....
Verstehe ich das richtig: eien Firma wie Matrox hätte einen zu schelchten Ruf, wenn Matrox auf dem Chip stände?
Ceiser Söze
2001-10-09, 11:42:35
Originally posted by Unregistered
Aber was sind neuere Entwicklungen, deine Links sind ja schon etwas älter.
Sorry, kein Kommentar zu den neueren Entwicklungen...
Aber folgendes kann man sich problemlos von den Angaben auf der Bitboys-Site selber zusammenreimen:
Chiparchitektur:
-4 Pipelines mit 2 TMUs
-175 Mhz Taktung
-700 Mpixel/sec bzw. 1,4Gtexel/sec Füllrate
-12Mbyte eDRAM
-1024bit eDRAM-Interface --> Interne Bandbreite von 21,8Gbyte/sec
-200Mhz externer SDRAM: 3,1Gbyte/sec externe Bandbreite
Multichip wären dann:
1,4Gpixel/sec bzw. 2,8Gtexel/sec
43,6Gbyte/sec interne Bandbreite
6,2Gbyte/sec externe Bandbreite
hehe, bin mal gespannt auf das Teil *freu*
wieder ein Mitbewerber auf dem Markt ;)
Wenn jetzt noch S3 Graphics mit irgendwas kommt, sind alle "alten" bis auf 3Dfx sind wieder im Rennen. Gut, 3Dfx vielleicht in Form der Bitboys, immerhin ist ja der ehemalige CEO und Mitbegründer von 3Dfx (korrigiert mich wenn ich mich irre) massgeblich am Bitboys Projekt beteiligt. Das kann nur Gutes für die Preise bedeuten. :D
Ceiser Söze
2001-10-09, 12:00:46
Shane Long war zwar Vice President bei 3dfx, aber kein Mitbegründer. Er kam, wenn ich mich richtig erinnere, von STB zum 3dfx Verwaltungsrat, als man die verhängnisvolle Fusion durchführte.
Unregistered
2001-10-09, 12:22:59
Danke für die Daten. Wie sind die denn im Vergleich zur Radeon 8500?
Wer kommt ausser Matrox noch in Frage? Ein Laden wie Via?
Infineon mit seine Cashflow Problemen als Grafikchiphersteller?
Hat Infineon als Aktiengesellschaft nichts über seine Zusammenarbeit mit Bitboys veröffentlicht?
Razor
2001-10-09, 12:24:29
Originally posted by Ceiser Söze
Chiparchitektur:
-4 Pipelines mit 2 TMUs
-175 Mhz Taktung
-700 Mpixel/sec bzw. 1,4Gtexel/sec Füllrate
-12Mbyte eDRAM
-1024bit eDRAM-Interface --> Interne Bandbreite von 21,8Gbyte/sec
-200Mhz externer SDRAM: 3,1Gbyte/sec externe Bandbreite
Multichip wären dann:
1,4Gpixel/sec bzw. 2,8Gtexel/sec
43,6Gbyte/sec interne Bandbreite
6,2Gbyte/sec externe Bandbreite
Wenn DAS stimmen sollte, dann braucht's keine Tiler mehr...
Schade eigentlich, für ImgTech und Co...
;-)
Auch dürfte man gespannt sein, was ATI und nVidia dann aus der Tasche 'zaubern'...
Razor
Ceiser Söze
2001-10-09, 12:31:02
Originally posted by Unregistered
Danke für die Daten. Wie sind die denn im Vergleich zur Radeon 8500?
Wer kommt ausser Matrox noch in Frage? Ein Laden wie Via?
Infineon mit seine Cashflow Problemen als Grafikchiphersteller?
Hat Infineon als Aktiengesellschaft nichts über seine Zusammenarbeit mit Bitboys veröffentlicht?
a) Die maximale Füllrate ist zwar niedriger, aber man muss gleichzeitig bedenken, dass durch den eDRAM die effektive Füllrate weit näher am Maximum liegt als die einer GeForce3 oder Radeon8500. Ich vermute daher, dass der Single Chip Avalanche etwas schneller als eine Ti-500 ist (ehrlich gesagt vermute ich nicht nur... hab da nämlich etwas über den ersten lauffähigen Prototypen des Glaze3D gehört ;) ), während der Dual Avalanche... naja, sagen wir mal: Die Karte wird zwar relativ teuer, aber das Preis/Leistungsverhältnis stimmt trotzdem :D
b) Via? Halte ich für unwahrscheinlich. Sorry, wenn ich weitere Tipps geben würde, ginge ich schon ziemlich bald mal zu weit. Ich sag nur: Infineon = Chipfabrikant :) (apropos: Soviel ich weiss hat Infineon einen der besten eDRAM Prozesse überhaupt. Da ist man TSMC und UMC meilenweit voraus).
c) Von Infineon kommen keine Infos... leider...
Unregistered
2001-10-09, 12:47:44
Originally posted by Ceiser Söze
a) ... dass durch den eDRAM die effektive Füllrate weit näher am Maximum liegt als die einer GeForce3 oder Radeon8500...
Fieses eDram scheint der Schlüssel zu sein. Habe leider keien Ahnung was es ist, un das mit den Schwiriegkeiten bei der Herstellung habe jetzt mehrmals gehört.
Also kommt der BB Chip noch im ersten Quartal 2002?
Legolas
2001-10-09, 13:10:16
Naja, ich glaube TBR wird trotzdem nicht überflüssig.. ist halt ein etwas anderer Ansatz um das Bandbreitenproblem zu lösen...
Quasar
2001-10-09, 13:17:54
TBR löst überhaupt keine Bandbreitenprobleme, es schiebt sie nur *eine* Stufen zurück. Wenn alle Chips HSR (auf welche Weise auch immer) haben, geht alles wieder zurück zum Brute Force...siehe KyroII!!!
Mehr als Entfernen kann man verdeckte oberflächen eben nicht...
Ceiser Söze
2001-10-09, 13:25:43
Originally posted by Unregistered
Also kommt der BB Chip noch im ersten Quartal 2002?
Ich rechne mit einer baldigen Ankündigung und einem Verkaufsstart in diesem Jahr. Könnte sein, dass die AIB-Hersteller etwas länger brauchen, da das PCB-Design wegen des eDRAM etwas speziell ist.
Um ein User aus dem 3dGPU-Forum zu zitieren:
<quote>Bitboys :D
<Matt slowly regains his breath after a hearty chuckle from just hearing that name referenced on a 3D graphics site>
</quote>
What is today? October 6th. Hmmm, let's see if you're still chuckling by the end of this month, Matt.
StefanV
2001-10-09, 13:27:09
Originally posted by Unregistered
Fieses eDram scheint der Schlüssel zu sein. Habe leider keien Ahnung was es ist, un das mit den Schwiriegkeiten bei der Herstellung habe jetzt mehrmals gehört.
Also kommt der BB Chip noch im ersten Quartal 2002?
eDRAM->Embedded DRAM (NICHT ZU VERWECHSELN MIT EDRAM(->Enhanched DRAM, FPM mit Cache)!!)
Also dieses RAM wirst du nie 'sehen' es ist aber da ;).
Ist also ein Teil des Grafikchips.
@ceisar
Meinst du vielleicht ELSA oder ATI (Diamond reste->reste von SPEA)??
Wobei ich sagen muß, daß sich der Avalance 'etwas' nach G800 anhört, oder irre ich mich da??
Kann es vielleicht sein, daß der Avalance ein FC-DRAM interface haben könnte??
@guest
Matrox würden die meisten Gamer wohl kaum anfassen.
Die Qualität stimmt zwar, wer seinerzeit eine G400 hatte, der würde sicher auch zu einer G800 greifen.
Deshalb hat Matrox kaum chancen auf dem Gaming Sektor...
@rest
TBR hat den Vorteil, daß es recht preiswert herzustellen ist, also ich denke, daß beide Techniken parrallel existieren können!
TBR auf Low Cost/Mid Range Systemen, eDRAM auf absoluten High End Systemen...
Na ja, für TBR gibt es ja schon einen relativ grossen internen Speicher, der sich Tilebuffer nennt.
Ceiser Söze
2001-10-09, 13:49:34
@Stefan
Sorry, kann mich nicht genauer zu den AIB-Herstellern äussern. Nur dies: Nicht wenige Hersteller sind mit den harten Vertragsbedingungen und den teuren Preisen von nVidia zufrieden und sehen sich ständig nach "freundlicheren" Alternativen um. Nicht alle sind aber so mutig wie z.B. Hercules. Sprich: Man will nicht nur in einer einzigen Preisklasse auf nVidia verzichten können, da man sonst in einer anderen den Zorn des Unternehmens zu spüren kriegt (siehe Hercules: Die müssen die GF3-Chips angeblich auf dem Graumarkt einkaufen...).
Bitboys würde diese Lücke wunderbar schliessen: Avalanche für die GF3-Klasse und Dual Avalanche für absolute HighEnd-Technologie. Das LowCost-Segment wird mit Kyro- und Kyro2-Karten abgedeckt.
Namen will ich keine nennen. Was Elsa betrifft: Die haben doch so ein Exklusiv-Abkommen mit nVidia. Ich weiss nicht, ob die problemlos zur Konkurrenz wechseln könnten...
Exxtreme
2001-10-09, 14:31:31
Originally posted by Ceiser Söze
Sorry, kein Kommentar zu den neueren Entwicklungen...
Aber folgendes kann man sich problemlos von den Angaben auf der Bitboys-Site selber zusammenreimen:
Chiparchitektur:
-4 Pipelines mit 2 TMUs
-175 Mhz Taktung
-700 Mpixel/sec bzw. 1,4Gtexel/sec Füllrate
-12Mbyte eDRAM
-1024bit eDRAM-Interface --> Interne Bandbreite von 21,8Gbyte/sec
-200Mhz externer SDRAM: 3,1Gbyte/sec externe Bandbreite
Multichip wären dann:
1,4Gpixel/sec bzw. 2,8Gtexel/sec
43,6Gbyte/sec interne Bandbreite
6,2Gbyte/sec externe Bandbreite
Hi,
ich denke 12MB Video-RAM sind nicht der Hit.
Man könnte damit keine Auflösung von 1280*1024 bei 32 Bit
Farbtiefe erreichen.
Und AFAIK stimmt deine zweite Rechnung so nicht, da alle
Texturen doppelt gespeichert sein müssen !
Es würde sich nur die Pixelfüllrate und die interne
Speicherbandbreite verdoppeln. Das war schon bei der
Voodoo2 SLI so.
Gruß
Alex
Ceiser Söze
2001-10-09, 14:41:30
Originally posted by Exxtreme
Und AFAIK stimmt deine zweite Rechnung so nicht, da alle
Texturen doppelt gespeichert sein müssen !
Es würde sich nur die Pixelfüllrate und die interne
Speicherbandbreite verdoppeln. Das war schon bei der
Voodoo2 SLI so.
Wer sagt denn, dass die Multichip-Lösung genau gleich wie SLI funktioniert? ;);)
Für 1280x1024x32 reicht der eDRAM problemlos aus - hat genug Platz für Back- und Z-Buffer. Der Frontbuffer kommt sowieso in den externen Speicher.
Quasar
2001-10-09, 14:45:50
Es gab da ja auch noch das AFR....auch wenn es bei ATI etwas...naja...gefloppt ist.
Ansonsten hat Ceiser, wie meistens, recht :)
@Ceiser Söze:
Wie kommst du auf die 200 MHz beim externen RAM? Hab ich da was überlesen?
Außerdem verwirren mich die Markennamen etwas... nach der Beschreibung sind Avalanche und Avalanche Dual eher die Karten ("COMPUTER GRAPHIC ACCELERATORS AND MICROPROCESSORS AND INSTRUCTION MANUALS SOLD AS A UNIT"), während der Chip wohl Arias heißt ("three-dimensional graphics processors and semi-conductors for visual computing"). So verstehe ich zumindest diese Beschreibungen.
Hm, da muss ich mich wohl korrigieren... die "Goods & Services" sagen überhaupt nichts aus... bei Matrix AA und XBA steht dassselbe :D
Iceman346
2001-10-09, 18:16:02
Ich sag zu dem Thema nur:
Solange die Bitboys keine lauffähige Karte präsentieren die in Benchmarks die entsprechenden Werte bringt glaub ich denen nichts.
Unregistered
2001-10-11, 21:58:06
wie realsitsich ist es denn von so eienr kleine klitsche zu erwarten, dass die die ganzen directx 8.1 features auf ihrem chip integrieren können? das ist doch sicherlich auch wichtig für einen chip, so genial der auch designed sein marg.
Ceiser Söze
2001-10-11, 22:19:35
Originally posted by Unregistered
wie realsitsich ist es denn von so eienr kleine klitsche zu erwarten, dass die die ganzen directx 8.1 features auf ihrem chip integrieren können? das ist doch sicherlich auch wichtig für einen chip, so genial der auch designed sein marg.
Ich nehme mal an, dass der Chip durchaus DirectX 8 bzw. DirectX 8.1 compliant ist (bezüglich der Features besitze ich leider keine allzu genauen Angaben). Aber ich bezweifle, dass er eine solche Featurefülle aufweisen kann, wie der Radeon 8500 (z.B. keine Pixel Shader Version 1.4).
Aber eine programmierbare T&L-Unit hat das Ding mit Sicherheit: Bereits der Thor des Glaze3D sollte programmierbar sein (der hatte sogar einen 100% programmierbaren Microkernel), hier sehe ich also keine Probleme. Evt. gibt's sogar Higher Order Surfaces. PixelShading sollte eigentlich auch möglich sein - das konnte 1997 bereits der Pyramid3D.
Dual Head sollte das Ding ausserdem auch können - jedenfalls hatten die auf der diesjährigen Assembly gezeigten Bilder der Referenzboards zwei VGA-Buchsen.
Dennoch: Ich wäre sehr (angenehm) überrascht, wenn der Chip auch featuremässig der Überhammer ist. Aber die Features, die in den nächsten 12-18 Monate gebraucht werden, werden zweifellos unterstützt.
Was man noch über die Chipgrösse sagen muss: Da das Design brandneu ist, fallen für den Logikteil vermutlich weniger Transistoren pro Funktion an. Im Gegensatz zu Weiterentwicklungen der Konkurrenz, bei denen häufig Teile der alten Generation fast 1:1 in die neue Hardware eingesetzt werden (ist weniger aufwendig, frisst aber in der Regel mehr Transistoren), können die Bitboys dank dem neuen Design auf ein besseres Verhältnis "Transistor-Count : integrierte Funktionen" hoffen.
Der eDRAM verschlingt zwar verdammt viel Platz, da aber dieser Teil des Chips relativ einfach gehalten ist, treten hier in der Regel weniger Fabrikationsfehler auf und somit sollten die Yields auch nicht so stark unter dem hohen Transistor-Count liegen. Dadurch (und durch die Tatsache, dass man nicht auf teuren DDR-Ram angewiesen ist), kann evt. sogar die Dual-Version zu einem fairen Preis verkauft werden...
Razor
2001-10-12, 08:33:42
@Legolas
Wozu diese umständliche Methode der Bandbreitenoptimierung, wenn's auch einfacher geht ?
;-)
@Quasar
Über 20Gig interne Bandbreite + Multichip ?
Majm !
;-)
@Stefan
Wenn man erst einmal anfängt, embeddedRAM in Masse herzutstellen, dann wird's auch nicht mehr so teuer...
Könnte mir in diesem Zusammenhang vorstellen, daß die Kyro's nur Nieschenprodukte waren, weswegen jetzt ev auch keine mehr kommen werden (siehe Verschiebung der 'neuen' Produkte).
@HOT
Wie groß ist denn Dein 'relativ großer' Tilebuffer ?
;-)
@Exxtreme
12MB embeddedRAM + 128MB externer RAM = ?
;-)
UND das Voodoo-SLI ist mehr, als nur ineffizient.
Man bräuchte lediglich eine andere Nethode für den Speicherzugriff annehmen und schon würde das Gnaze ganz anders aussehen, i.e.:
2xChip mit je 12MB embedded RAM + 1x128MB für gemeinsamen Zugriff = ?
;-)
@Iceman346
Seh' ich auch so...
Ich glaub's erst wenn ich's sehe !
;-)
Aber dazu ist ja schließlich ein Speku-Forum da, über etwas zu sinnieren, das noch gar nicht da ist, oder ?
@Ceiser Söze
Daß Herkules seine gf3-Chips auf dem Graumarkt kaufen mußte ist doch wohl nur ein Gerücht, oder ? Könnte mir das Ganze wohl eher als mißlungenen Markting-Gag vorstellen.
Auch daß ein Bitboy's Chip noch diesen Monat vorgestellt werden soll, halte ich zum jetzigen Zeitpunkt noch mehr als Fraglich. Dafür gab's aus dieser Richtung zuviel 'Seifenblasen'...
;-)
Und jetzt schon über Preise zu reden, halt ist für etwas mehr, als nur abwegig...
***
Schaun' wir ma...
Ich würd mich auf jeden Fall freuen, wenn's endlich mal etwas frischen Wind im GraKa-Geschäft geben würde. Von der TBR-Technik der Kyro's war ich nie ganz überzeugt, so könnte ein neuer Ansatz auf Basis von SGI-Renderern gewisse Probleme einfach eleminieren, die zur Zeit noch vorherrschen, ohne gleich den technologischen Ansatz über Bord zu werfen. Auch würden nVidia & ATI dazu gezwungen werden, dann auch in diese Richtung gehen und das dürfte dann mehr als nur 'Interessant' werden.
In diesem Sinne
Razor
P.S.: hübsche Oberfläche hat dieses Forum... WinXP ? Ist mein erstes Post in dieser 'neuen' Umgebung...
;-)
Ceiser Söze
2001-10-12, 10:30:35
Originally posted by Razor
Auch daß ein Bitboy's Chip noch diesen Monat vorgestellt werden soll, halte ich zum jetzigen Zeitpunkt noch mehr als Fraglich. Dafür gab's aus dieser Richtung zuviel 'Seifenblasen'...
;-)
Und jetzt schon über Preise zu reden, halt ist für etwas mehr, als nur abwegig...
Naja, aber seit über einem Jahr gab's keine 'Seifenblasen' mehr von den Bitboys. Die Heisse Luft®, welchbe Bitboys davor verkaufte, führe ich hauptsächlich darauf zurück, dass halt die Ingenieure das Marketing erledigten (hey, bestand die Firma ja nur aus Ingenieuere *g*) und es daher auch ziemlich unprofessionell ausfiel. Natürlich glaube ich das Ganze auch erst wirklich, wenn ich ein Board in den Händen halte oder zumindest dann, wenn erste AIB-Hersteller Karten mit BB-Chips ankündigen. Dennoch weiss ich seit einigen Tagen soviel, dass ich mich dazu entschlossen habe, keinen R8500 zu kaufen und noch ein wenig zu warten. Soviel ich weiss wurde z.B. schon das "Verfalldatum" des NDAs festgelegt, was eigentlich nur heissen kann, dass das Produkt fertig ist und man im Moment nur noch am Optimieren der Treiber ist. Ausserdem ist der Chefingenieur momentan im Urlaub und wenn das bei den Grafikchipherstellern gleich wie bei den Spielentwicklern abläuft ("Keine Ferien bis nicht Goldstatus erreicht wurde"), kann das eigentlich nur etwas Gutes bedeuten :D
Wie dem auch sei, die Bitboys haben in den letzten Jahren nicht einfach nur heisse Luft produziert - vom Glaze3D (0.20 Mikron, 12bit Interface, 9Mbyte eDRAM) existierten z.B. lauffähige Prototypen. Ich habe auch einige QuakeIII-Scores des Glaze3D-Prototypen gehört, aber die sollte ich wohl nicht preisgeben. Nur soviel: Die Kinnlade ist mir im wahrsten Sinne des Wortes heruntergeklappt, als ich die Scores vor einigen Tagen gehört habe und ich hätte wohl jeden ausgelacht, der mir so etwas erzählt hätte, wenn ich nicht gewusst hätte, dass die Quelle absolut zuverlässig war (und nicht "zuverlässig" im The Inquirer-schen Sinne :D ). Und das war der Glaze3D, nicht der aktuelle Chip (der hat ein doppelt so breites Interface und 3Mbyte mehr eDRAM).
Naja, wie gesagt: Auch ich habe trotz allem noch ein Paar wenige Zweifel an der ganzen Sache - aber nicht, weil ich meiner Quelle nicht glaube, sondern weil ich irgendwie immer noch nicht so recht glauben will, das plötzlich eine halbe Revolution auf uns zukommt ;)
Was die Preise betrifft: Ich habe ein Paar Preise, die im Juni dieses Jahres von Bitboys genannt wurden - und sie sind fair. Bedenkt man dann noch die Ereignisse in den letzten Wochen (Ti-500 Ankündigung, aggressive Preisstrategie von ATI), halte ich es für Wahrscheinlich, dass der endgültige Preis noch etwas tiefer angesetzt wird - und dann kann man auch bei den Bitboys von aggressiver Preisstrategie sprechen (sorry, auch hier keine genauen Zahlen).
Exxtreme
2001-10-12, 13:56:36
Originally posted by Razor
@Exxtreme
12MB embeddedRAM + 128MB externer RAM = ?
;-)
Ähm, AFAIK:
12 MB eDRAM Video RAM + 128 MB Texturspeicher;
Es sei denn die benutzen das eDRAM als Cache.
Gruß
Alex
Originally posted by Ceiser Söze
Ausserdem waren die Bitboys nicht nur intern aktiv, sondern haben z.B. auch vor etwa einem Jahr eine ganze Ladung neuer, hochtalentierter Ingenieuere an Bord geholt (sorry, keine genaueren Details - und nein: Es waren keine Ex-3dfx Ingenieuere).
PixelFusion? ;)
Legolas
2001-10-12, 17:05:08
@ Razor: Warum so kompliziert Bandbreite sparen??
Ganz einfach, weil es viel teurer ist 75 Mio Transistoren für eDRAM zu verbraten, als seinen Grips ein wenig anzustrengen, und einen bandbreitenschonenden Chip zu entwerfen... Mit 15 Mio Transistoren hat der Kyro 2 1 Mio mehr Transistoren, wie ein VSA-100 ist aber um einiges Leistungsfähiger.. Auch im Vergleich zu GF-Serie bietet er höhere Performace pro Transistorcount.
Razor
2001-10-13, 11:58:18
@Ceiser Söze
Nun ja, Ceiser...
Wenn ich, wie Du, auf verlässliche Quellen zurück greifen könnte, dann würde meine Meinung zur 'Seifenblasen-Problematik' der Bitboys sicherlich auch anders aussehen. Ein eindeutiges Plus ist in jedem Fall, daß sie sich in letzter Zeit ruhig verhalten haben...
Und wenn (ja, wenn ;-) das alles so stimmt, dann könnte uns tatsächlich eine kleine (halbe oder sonstwas) Revolution ins Haus stehen. Und wenn so eine Karte auf dem jetzigem ur-gf3/Radeon8500 Preisniveau zu haben wäre, würde ich mir so eine Karte sicherlich auch noch zulegen (und wenn's einfach nur darum geht, endlich was von den Bitboys in Händen zu halten ;-). Der technologische Ansatz eines solchen Chips wäre auf jeden Fall mehr, als nur interessant...
Na, dann drück ich den Bitboys mal die Daumen, daß sie nicht zu spät kommen, denn viele versuchen sich gerade zwischen gf3 und Radeon8500 zu entscheiden. Und bei den wenigsten wird das Geld so dermaßen locker sitzen, um sich dann gleich wieder eine Karte in dieser Leistungsklasse zu zu zulegen (auch ich wäre nicht sonderlich begeistert, oder doch ? ;-).
@Exxtreme
Nicht genaues weiß man nicht !
Aber 12MBeRAM Cache wären doch sehr interessant, oder ?
;-)
@Legolas
Bei immer besser werdenenden Fertigungsprozessen, ist das Einsparen von Transistoren nicht mehr so interessant, wie es noch vor 2 Jahren der Fall war. Auch müssen zur Zeit die Prozessoren herhalten, um nicht verfügbare Funktionalität (T&L) auszugleichen. Und solange mir ImgTech nicht ein Produkt zeigt, welches auf Tiler-Basis so etwas wie Hardware T&L (DX7/8) realisiert, haben solch zukünftige Produkte den gleichen Nährwert, wie zur Zeit noch die von den Bitboys...
Wenn es aber einen KyroIII (ImgTech) und eine Avalanche (Bitboys) geben sollte... was meinst Du, welcher dann schneller und vor allem kompatibler wäre ?
***
Interessant wird es allemal !
;-)
Razor
Ceiser Söze
2001-10-13, 13:06:58
Zum eDRAM:
Die 12Mbyte kommen nicht als Cache zum Einsatz, sondern einfach als unglaublich Schneller Grafikspeicher. Der Glaze3D hatte nämlich neben dem eDRAM noch zwei zusätzliche Caches: 16Kbyte für Basistexturen und gerade Mipmaps, 8Kbyte für Lightmaps und ungerade Mipmaps.
Damit wäre bilineares Filtering schon "gratis". Ausserdem nehme ich an, dass Bitboys für die nächste Generation den Cache erweitert hat, um auch trilineares Filtering ohne nennenswerten Leistungsverlust zu bieten (ansonsten wäre ich sehr enttäuscht).
Was das Thema ImgTec vs. Bitboys betrifft:
Die beiden Unternehmen haben ganz verschiedene Geschäftspläne. Bitboys will die Performancekrone, ImgTec/STMicro wollen hauptsächlich den LowEnd und MidEnd-Markt mit günstigen Karten abdecken. In einem Direktvergleich Kyro III (ob er nun DX8 compliant ist oder nicht) vs. Dual Bitboys-Karte würde daher klar Bitboys in Punkto Performance als Sieger herauskommen (unter der Annahme, dass Bandbreite nie ein Problem darstellt, sollte z.B. die Dual-Karte in der Lage sein, 200 - 250Fps bei QuakeIII Demo001 in 1600x1200x32 zu leisten).
Was die Kompatibilität betrifft: Hier hat ImgTec natürlich den Vorteil, schon länger am Markt zu sein - aber auch den Nachteil, eine etwas exotischere Renderingarchitektur zu haben, die durchaus Probleme bereiten kann (siehe z.B. Gothic)...
Naja, abwarten und Tee trinken...
Rushman
2001-10-13, 18:51:05
ich glaub ich hab den Nachfolger für meine V5 gefunden *g* :)
PS: Welche CPU braucht's denn um die Graka auszureizen ?
Unregistered
2001-10-15, 23:44:52
eDRAM ist quasi eine Mischung der Technologien vom reinen Speicher und Logic Chipdesgin. Sehr vereinfacht gesagt. Man nimmt alle Kenntnisse vom Logic Desgin und bringt noch zusätzlich etwas Speicher (RAM Fläche) unter. Das "e" bei eDRAM steht für embeded DRAM.
Der Glaze3D sollte ja eigentlich schon gefertigt werden, nur wollten die Bitboys damals dann eine höhere Taktrate zum Verkaufstart. Das war mit dem im Vorfeld festgelegten Prozessen natürlich nicht so einfach mehr möglich, bis dann die Bitboys den Glaze3D ganz abgesagten.
Es sollte 3 Versionen geben von 4 bis 12 MB RAM onDie.
Ich hoffe ich bekomme hier keine drüber. Anderseits sind die Information ja schon so alt dass hier nichts passieren dürfte.
Tschau
Ceiser Söze
2001-10-16, 00:00:47
Nicht ganz korrekt:
Der erste Glaze3D hatte standardmässig 9Mbyte eDRAM und einen 512bit Speicherbus. Die 3 Versionen beziehen sich auf die Anzahl Chips pro Board:
Es hätte eine 1-Chip, eine 2-Chip und eine 4-Chip Karte gegeben. Der Chip war eigentlich fertig, aber Infineon hatte Probleme mit dem Fertigungsprozess (eDRAM, 0.2 Micron).
Der neue Glaze3D (der möglicherweise Avalanche heissen wird) hat 12Mbyte eDRAM, einen 1024bit Speicherbus und wird in einem kleineren Prozess gefertigt. Ich bezweifle im Moment, dass es eine 4-Chip Karte geben wird (nach dem V5 6000-Debakel wagt sich vermutlich keiner mehr so schnell an ein solch waghalsiges Unternehmen *g*), aber eine 2-Chip Karte wird es bestimmt geben (Dual Avalanche wurde ja als Warenzeichen registriert).
Unregistered
2001-10-16, 00:04:26
Na dann träumt schön weiter, ich jedenfalls glaubs erst wenn ich den Chip in aktion sehe, und gebe mich nicht mit irgendwelchen Spekulationen ab. Nichts für ungut ist nicht böse gemeint! :o)
Ceiser Söze
2001-10-16, 00:36:44
Wie ich schon anfangs gesagt habe: Fast alles, was ich in diesem Thread über den Bitboys-Chip gesagt habe, sind keine Spekulationen aus eigenem Hause, sondern harte (wenn auch noch nicht öffentlich zugängliche) Fakten.
Und wie ich auch schon gesagt habe, muss mir das Ganze niemand glauben. Das bleibt jedem selber überlassen ;)
Auch ich würde viel lieber einfach kurz die Feature-Liste, den Ankündigungstermin und die voraussichtlichen Preise posten. Aber das wäre mehr als nur unfair gegenüber meiner Quelle, die mir ja auch ein gewisses Vertrauen entgegengebringt, indem sie mir all diese Informationen unter der Annahme, dass ich es für mich behalte, mitteilt. Also muss ich es halt bei mehr oder weniger vagen Andeutungen belassen...
Ehrlich gesagt habe ich in meinen anderen Postings eher etwas zu viel gesagt, als vielleicht gut gewesen wäre.
Naja, wie gesagt: Lange sollte es nicht mehr dauern und dann plaudert Bitboys auch offiziell :)
nggalai
2001-10-16, 08:51:44
@unreg,Na dann träumt schön weiter, ich jedenfalls glaubs erst wenn ich den Chip in aktion sehe, und gebe mich nicht mit irgendwelchen Spekulationen ab.Je nachdem, wie Du "Spekulation" und "Produktions-Betas" definierst wärst Du erstaunt, wie wenig Spekulation hinter in Ceisers Info steckt ... ;)
Also, sagen wir's mal so--meine Quellen sind warscheinlich komplett andere als Ceisers, aber ich werde mir auch keine R8500 ziehen, dieses Jahr. :D Vielleicht mal als Drittkarte im Q2/2002 oder so ...
ta,
.rb
M.I.C.
2001-10-16, 21:57:55
Naja, wenn man die wirklich UNGLAUBLICHE Entwicklungszeit des Chips bedenkt, MUSS er ja eigentlich die nächsten Nvidia und ATI Chipgenerationen leistungsstechnisch einfach überspringen. Technische Spezifikationen sind da denke ich erstmal zweitrangig, wenn man z.B. bedenkt, das die Radeon 8500 auch ne Ecke schneller sein müsste als die GF3 und sich das bis jetzt nicht wirklich bestätigt hat. Die Treiber- und Kompatibilitätsproblematik gehört nämlich auch zu den kleinen Unannehmlichkeiten, die bis jetzt von den Nvidia Ingenieuren am ehesten beherrscht werden. Jedoch... eine derartige Leistung wie die oben erwähnten 200-250 Fps unter Quake3 in 1600*1200 32bit (hüstel) würde natürlich jeden Skeptiker auf der Stelle verstummen lassen, wäre aber andererseits natürlich ne durchaus plausible Erklärung für die eine knappe halbe Dekade währende Entwicklungsphase :-). Abgesehen von all den nicht geklärten Details (programmierbare T&L Einheit ja oder eher nich, z.B.) is das Konzept natürlich genauso interessant wie vor ein paar Jahren, ob die Entwickler allerdings tatsächlich derart prophetische Züge tragen, das dieselbe Hardware durch die blosse Verbreiterung des Busses und das Hinzufügen von zusätzlichen 3Mb eDRAM auch heute noch in der Lage ist, sämtliche Konkurrenzentwicklungen mal eben um ein paar Generationen zu überflügeln, wird sich in der grausamen Praxis zeigen müssen. Sollte aus den unglaublichen Mengen heisser Luft, die die Bitboys bis jetzt abgesondert haben allerdings ein echter Nvidia Konkurrent entstehen, können wir eigentlich nur dankbar sein dafür, logisch...
robbitop
2001-10-17, 09:22:34
Also bisher hat Bitboys Oy (auch wenn das schon oft gesagt worden ist), die Chips nur gehyped und wurden niemals rausgebracht.
Ich denke die wollen nur den Grafikkartenmarkt ab und zu aufmöbeln.
Vieleicht haben die nicht mal ein Design sondern sich nur ein paar Features ausgedacht ;-).
Mal ehrlich...Bitboys bekommt die Fertigungsprozesse nicht in Griff oder Infineon (einer von beiden).
Dann kommt hinzu, dass 12MB eDRAM bei 1024 direkt onChip
VERDAMMT teuer sind.
Weiterhin ist dann kaum Platz auf dem Chip für DX7/8 T&L
und die ganzen anderen Teile.
Ansonsten wird das ein grosser heisser langsamer Chip.
-> für vernünftige Taktraten SEHR kleiner Fertigungsprozess,
der auch zur Richtigen Zeit verfügbar (von beiden) sein muss.
Sie sollten einen Extra T&L Chip (für DX7/8 (2xDX8 T&L))
bauen wie 3DFX das wollte. -> TEUER.
Weiterhin haben sich Multichipvarianten als teurer Flop erwiesen und somit sind diese auch nicht allzuleicht zu verkaufen. ATI hat die Multichipproduktion mit dem R8,5k auch aufgegeben, trotz fertiger AGP4x Bridge.
Selbst wenn sie dies machen würden, fehlte ihnen immer noche eine effektive (NICHT SLI) Multichipmethode (so wie beim RAGE 128MAXX), die auch skalliert. Weiterhin ist es teuer 2 Chips genau zu synchronisieren in Massenfertigung.
Weiterhin muss sich jmd bereiterklären diese Karten zu fertigen, wer will das schon bei aussicht auf einen FLOP!!
Zu viele Transistoren für den Speicher und zu teuer.
Wie verdient dieses Unternehmen überhaupt Geld, wenn sie kein vernünftiges produkt launchen??
Wenn sie es wieder nicht in den Griff kriegen diese Schwierigkeiten in den Griff zu bekommen, wird das wieder nix...denn die Specs werden zu schnell alt.
Ich glaube persönlich, dass dieser Chip nicht in nächster Zeit kommt.
Ausserdem ist das Konzept von ST besser.
Bandbreite Sparen und gute Features und verdammt günstig.
Die Bandbreite beträgt effektiv fast das 3-Fache von gewöhnlichen Chips.
Mit 250Mhz DDR haben sie Quasi 24GByte/s an Bandbreite und das noch günstig.
Ausserdem ist das FSAA for Free drin. Ich glaube im preisleistungsverhältnis wird der Kyro3 ein Hit und der Avanlanche (Dual), wenn er denn diesmal kommt ein FLOP.
Die sind einfach nur unglaubwürdig.
StefanV
2001-10-17, 10:55:56
Originally posted by robbitop
Weiterhin muss sich jmd bereiterklären diese Karten zu fertigen, wer will das schon bei aussicht auf einen FLOP!!
Zu viele Transistoren für den Speicher und zu teuer.
-> Das macht Matrox ;)...
Ceiser Söze
2001-10-17, 11:51:34
@robbitop
Ich könnte jetzt deine 'Argumente' problemlos auseinandernehmen und widerlegen, aber dann würde ich wohl schon etwas zu viel sagen. Daher nur ein Paar 'leere Behauptungen' ohne Begründungen:
-Der Chip wird nicht so teuer, wie man vermuten könnte.
-Tile Based Rendering ist nicht die einzige Möglichkeit, um FSAA praktisch(!) gratis realisieren zu können.
-Mit einem dafür ausgelegten Memory-Controller sollte Multichip ohne AGP-Bridge absolut problemlos funktionieren.
-Der Chip wird nicht heiss und schon gar nicht langsam - dank dem eDRAM kann man endlich mal effektive Füllrate erhöhen.
-Der Glaze3D hatte eine externe T&L-Unit - aber wieso hat dann automatisch der neue Chip auch eine externe T&L-Unit?
-Wer sagt, dass man für die Chiplogik allein bereits 50Mio Transistoren braucht, um DirectX 8 compliant zu sein?
-Wer sagt, dass sich Bitboys nicht eine clevere Mutlichiplösung ausgedacht hat. SLI ist nicht das Mass aller Dinge.
-Wenn STM endlich mal ein HighEnd-Produkt launcht, bin ich von der Überlegenheit des TBR überzeugt - aber nicht vorher...
Naja, abwarten. Ich bin ziemlich überzeugt, dass hier in Kürze nicht mehr so gelabert und über die Bitboys hergezogen wird...
Originally posted by Ceiser Söze
Naja, abwarten. Ich bin ziemlich überzeugt, dass hier in Kürze nicht mehr so gelabert und über die Bitboys hergezogen wird...
Ich noch nicht.
Solange kein lauf- und marktfaehiger Chip existiert, glaube ich den Bitboys nichts.
Und selbst wenn demnaechst dieser angebliche Wunderchip erscheinen sollte, dann sollten sich die Bitboys zuerst ueber ihre Produktzyklen Gedanken machen, denn wenn nochmal 5 Jahre vergehen bis zum naechsten..... dann wird es ihr erster und einziger Chip bleiben.
Unregistered
2001-10-17, 13:18:24
jau dann hoffen wir mal. Denn ich muss meine neue Graka erst kaufen wenn DNF rauskommt und dann hoffen wir dass da ein Lebenszeichen von den Bitboys auftaucht :)
paganez
2001-10-17, 20:09:33
.
Originally posted by paganez
was brauch ich so für ne CPU? ich meine auf einem worksation könnte ich auch in software zoggn.
Jaja... wenn du ein System ohne Bandbreitenprobleme und entsprechend vielen Prozessoren findest... kein Problem :D
robbitop: Über Chip-Fertigung und Wärmeentwicklung kannst du noch einiges lernen...
robbitop
2001-10-17, 21:58:34
Mir gehts genauso, der Chip wurde sosehr gehyped, dass auch ich erst glaube, wenn ich Samples und Banchmars sehe.
Weiterhin sehe ich die meisten Argumente von mir nocht nicht sonderlich Widerlegt.
1. 12MB eDRAM braucht viele Transistoren. Selbst wenn
mann 0,13micron baut (was ich nicht glaube), passt dort nix anderes bei vernünftigen Taktfrequwnzen rein.
ca 250Mhz -> ca 55Mio Transistoren und die verbraucht allein
die GF3, und Bitboys wird warscheinlich keine DX8 T&L in diesen Chip legen können, wenn da 12MB eDRAM drin sind.
Einzige Lösung wie bei 3dfx geplant Externe T&L Units (DX7/8).
Dann wäre es machbar.
Ich werde sehen, wie es wird, aber von den Transistoren kommt es nicht hin!!!
Ceiser Söze
2001-10-17, 22:29:37
Stark vereinfacht gesagt liegt der Grund darin:
Das Design ist brandneu und braucht daher auch weniger Platz. Wie ich schon mehrmals gesagt habe, ist es meistens platzsparender, einen Chip von Grund auf neu zu designen, als einige Teile von der älteren Generation zu übernehmen, wie das praktisch alle Entwickler tun (ich stelle jetzt mal die Behauptung in den Raum, dass die GeForce3 noch einiges an TNT2-Technologie besitzt - und der Radeon8500 ebenso noch Rage128-Zeug in sich hat).
Der weniger ökonomische Weg (das Ausbauen alter Architekturen) braucht halt dafür in der Regel weniger Entwicklungszeit, weil man bereits funktionsfähiges und bewährtes Material hat. Daher ist es gut möglich, dass der Bitboys-Chip weniger Transistoren für all die Funktionen braucht, als die Konkurrenz. So hätte z.B. der Glaze3D (4 Pipelines, 2 TMUs, praktisch alle DX7-Features, ausser T&L-Unit) nur 6 Mio. Transistoren für den Logik-Teil benötigt.
Was das eDRAM betrifft: Speicher ist wesentlich einfacher im Design als z.B. ein Rasterizer und entwickelt dadurch auch etwas weniger Wärme (und macht auch kaum Probleme bei der Fertigung).
Was die Taktung betrifft: Nach den Angaben auf www.bitboys.com wird ein Chip mit 175Mhz getaktet sein. Dies scheint zwar etwas wenig zu sein (1,4 Gtexel/sec), aber man muss bedenken, dass durch den eDRAM der Chip praktisch komplett ausgelastet werden kann - im Gegensatz zu einer GeForce3 oder Radeon8500, welche einen beachtlicher Teil ihrer Zeit statt mit Rendern immer noch mit Warten auf Daten aus dem (zu) langsamen externen Speicher verbringen - und damit niemals ausgelastet werden können.
Als Test sollte man mal den Chip einer GeForce3 oder GeForce2 schrittweise untertakten und dann als Test nicht gerade den Fillrate-Bench von 3dMark nehmen. Ich bin nämlich ziemlich sicher, dass sich dann die Performance nur unwesentlich verändert...
Frank
2001-10-17, 22:52:07
Korrigier mich Ceiser falls ich jetztwas verwechsle...
Ich denk mal die Implementation von Speicher mit in den Grafikchip stellt in keinster Weise ein Problem dar - egal ob Transistorzahl oder Wärme
---> siehe ATI M1 & M3 - das sind zwar andere Taktfrequenzrewionen und ander Datenbreite ... aber mehr als die 12 MB (beim M3)
Ceiser Söze
2001-10-17, 22:57:38
Naja, ich weiss, dass BB Hitzeprobleme hatten, also scheint es schon eine Rolle zu spielen :)
Originally posted by Ceiser Söze
Naja, ich weiss, dass BB Hitzeprobleme hatten, also scheint es schon eine Rolle zu spielen :)
Aber nicht beim eDRAM, oder? Da scheint mir dass andere Teile des Chips eher heißer werden...
Unregistered
2001-10-18, 09:13:46
wieso braucht man bei 250 mhz und dx8 wohl 55mio transistoren? kannste mir das erklären? ich meine ein vsa 100 hat 14mio, und ich denke zum die paar features zu integrieren und ne tnl einheit braucht es nicht 40mio transistoren, ne geforce 1 hat soweit ich mich erinnere knapp 30 und hat ja auch schon tnl... und der radeon auch... und wenn tnl sowieso extern wird wie ceisar sagt, dann denke ich werden die gut mit weniger als 55mio durchkommen, eher regionen wie die vsa 100 oder kyro, mit knapp 20 + die zahl für edram....
Ceiser Söze
2001-10-18, 10:20:35
Ich bezweifle, dass die T&L-Unit extern ist. Würde mich wirklich sehr verwundern, wenn das der Fall sein sollte.
Zum VSA-100: Der Chip hatte nur 2 Pipelines mit 1 TMU. Die Bitboys setzen voraussichtlich auf 4 Pipelines mit 2 TMUs.
Zu den Hitzeproblemen: Ich weiss nicht, woher die kamen. Ich weiss nur, dass man mit solchen zu kämpfen hatte. :)Könnte aber sein, dass der Core Probleme machte - der scheint ja verdammt dicht konstruiert zu sein für eine 4 Pipeline-Architektur (habe es nochmals überprüft: 6 Mio. Transistoren für den Core des Glaze3D - unglaublich, aber ich habe keine anderen Angaben gefunden).
Unregistered
2001-10-18, 11:34:48
Originally posted by Ceiser Söze
Wie ich schon anfangs gesagt habe: Fast alles, was ich in diesem Thread über den Bitboys-Chip gesagt habe, sind keine Spekulationen aus eigenem Hause, sondern harte (wenn auch noch nicht öffentlich zugängliche) Fakten.
Genauso wie die Kyro 3 News auf 3dconcept Fakten waren.
Unregistered
2001-10-18, 11:37:26
Originally posted by Ceiser Söze
Naja, wie gesagt: Lange sollte es nicht mehr dauern und dann plaudert Bitboys auch offiziell :)
wie jedes jahr halt, immer wenn denen die knete ausgeht kommen die mit neuen vaporware ankündigungen, wieso sollte es dieses jahr anders sein? oder vielleicht haben sie genug geld gesammelt um sich nach bora bora abzusetzen.
Pengo
2001-10-18, 11:43:12
Originally posted by robbitop
Mir gehts genauso, der Chip wurde sosehr gehyped, dass auch ich erst glaube, wenn ich Samples und Banchmars sehe.
Weiterhin sehe ich die meisten Argumente von mir nocht nicht sonderlich Widerlegt.
1. 12MB eDRAM braucht viele Transistoren. Selbst wenn
mann 0,13micron baut (was ich nicht glaube), passt dort nix anderes bei vernünftigen Taktfrequwnzen rein.
ca 250Mhz -> ca 55Mio Transistoren und die verbraucht allein
die GF3, und Bitboys wird warscheinlich keine DX8 T&L in diesen Chip legen können, wenn da 12MB eDRAM drin sind.
Einzige Lösung wie bei 3dfx geplant Externe T&L Units (DX7/8).
Dann wäre es machbar.
Ich werde sehen, wie es wird, aber von den Transistoren kommt es nicht hin!!!
Da gebe ich dir Recht, 12MB eDRAM auf einem Chip und das günstig ist absoluter Schwachsinn, wäre sowas möglich dann hätte der Athlon oder P4 Längst 4-12 MB Second Level Cache und nicht weniger als 1MB.
Ceiser Söze
2001-10-18, 11:48:16
Originally posted by Unregistered
Genauso wie die Kyro 3 News auf 3dconcept Fakten waren.
Ich zwinge niemanden, meine Informationen für bare Münze zu nehmen. Aber wenn man mir nicht glaubt, wäre es gegenüber den restlichen Usern mehr als nur höflich, auf dumme, der Diskussion in keiner Weise nützlichen Kommentare zu verzichten.
Irgendwie habe ich zudem den durchaus berechtigten Verdacht, dass evt. ein gewisser 'shark' seinen Weg in dieses Forum gefunden hat...
Oh well, another board goes to hell... :-/
StefanV
2001-10-18, 12:25:07
Schade, daß man User nicht nach der IP aussperren kann...
Sonst hätte sich das 'Problem' schon erledigt...
Andre
2001-10-18, 12:29:37
Wo, wie, was ?
Hab ich da was verpasst ?
Welche Postings sindn gemeint ?
Hat jemand einen Link zu eDRAM? Ich dachte eigentlich auch daß es sehr teuer ist, sonst gäbe es schon mehr solcher Lösungen. IMHO hat die PS2 eDRAM, aber nur 4MB davon, stimmt das?
Die Bitboys haben schon viele Sachen angekündigt und am ende war es immer Vaporware. Viele der Gerüchte waren "Fakten aus sicheren Quellen", am Ende ohne Ausnahme nur heiße Lust. Ich glaube nicht dass es sich ändert.
Gruss
Mark
Unregistered
2001-10-18, 12:37:41
Originally posted by Ceiser Söze
Ich zwinge niemanden, meine Informationen für bare Münze zu nehmen. Aber wenn man mir nicht glaubt, wäre es gegenüber den restlichen Usern mehr als nur höflich, auf dumme, der Diskussion in keiner Weise nützlichen Kommentare zu verzichten.
Irgendwie habe ich zudem den durchaus berechtigten Verdacht, dass evt. ein gewisser 'shark' seinen Weg in dieses Forum gefunden hat...
Oh well, another board goes to hell... :-/
Wenn jemand Gerüchte postet wieso darf jemand anders siese nicht anzweifeln? Die Masse der Gerüchte stellt sich am Ende als ein Pups in den Wald heraus.
Auch wenn du sagst daß du sie aus einer sicheren Quelle hast, es kann doch durchaus sein dass deine Quelle einfach Bullshit erzählt, genauso viele andere sog. sichere Quellen es tun.
Die Geschichte der Bitboys ist eine Geschichte von Gerüchten und Ankündigungen bei denen am Ende nichts rauskommt. Da sind Zweifelt MEHR als angebracht.
Ceiser Söze
2001-10-18, 12:45:20
Natürlich darf man Gerüchte anzweifeln (mal abgesehen davon, dass meine Angaben keine Gerüchte sind), aber dafür muss man nicht auf dumme Kommentare zurückgreifen, die im schlimmsten Falle nur wieder einen Flamewar provozieren (das betrifft jetzt nicht nur diesen Thread, sondern auch andere im Forum). Es gibt nämlich User, die gerne seriös über das Thema diskutieren möchten...
Unregistered
2001-10-18, 12:52:41
Originally posted by Ceiser Söze
Natürlich darf man Gerüchte anzweifeln (mal abgesehen davon, dass meine Angaben keine Gerüchte sind), aber dafür muss man nicht auf dumme Kommentare zurückgreifen, die im schlimmsten Falle nur wieder einen Flamewar provozieren (das betrifft jetzt nicht nur diesen Thread, sondern auch andere im Forum). Es gibt nämlich User, die gerne seriös über das Thema diskutieren möchten...
Wenn deine Aussagen wirklich auf Fakten beruhen, kannst du sie irgendwie Zeitlich eingrenzen? *Bald* ist nämlich relativ, es hieß ja schon vor 2 Jahren es kommt bald was von den BitBoys, es gab sogar Videosequencen zum download. Was nützen solche Fakten wenn wir auf ein Bitboys Produkt noch 1 Jahr oder länger warten müssen. Wenn man Fakten lange Zeit nicht verifizieren kann sind es keine Fakten.
Ceiser Söze
2001-10-18, 13:04:37
Genaue Daten will/kann/darf ich nicht sagen, aber dafür folgendes:
Der Zeitpunkt, an dem das NDA über dem Produkt endgültig abläuft, wurde bestimmt. Zur Erklärung: Befindet sich ein Produkt in der Entwicklung, dauert ein NDA theoretisch "unendlich". Erst wenn das Produkt fertig ist und mit einer baldigen Markteinführung gerechnet werden kann, wird ein "Verfalldatum" bestimmt. Den Rest könnt ihr euch selber ausdenken...
Und nochmals: Wenn die Bitboys dieses Mal ein Produkt ankündigen, dann werden sie es auch liefern können. In Punkto Marketing haben sie nämlich, seit sie ein richtiges Management haben, ganz offensichtlich dazugelernt. Shane Long hat im März 2001 klar gesagt, dass es erst wieder Ankündigungen gibt, wenn man ein fertiges Produkt hat. Ganz offensichtlich stimmt diese Aussage auch, denn sonst hätten wir schon lange eine offizielle Ankündigung gehört...
Unregistered
2001-10-18, 13:22:04
ging das NDA an viele leute oder nur an einen sehr begrenzten kreis (<20)?
ich denke ohne das NDA zu verletzen kannst du sagen ob wir was in H1 2002 erwarten können oder nicht.
Unregistered
2001-10-18, 14:01:19
"Der Zeitpunkt, an dem das NDA über dem Produkt endgültig abläuft, wurde bestimmt."
Verletzt es das NDA, wenn man sagt, wann das NDA abläuft? Ist das Ende des NDA auch unter NDA?
Das mag so klingen, als ob ich micht über die BBs oder deren NDAs lustig machen wollte, ist aber nicht so gemeint. Ich habe mich zwar ganz köstlich amüsiert bei manchen Satire-Seiten über die BBs, aber beteilige mich nicht an Anti-BB-Witzen.
Sehr gut fand ich immer, dass BB auch über die Bedeutung von 2D gesprochen hat. 2D muss schnell sein (wer mit CorelDraw arbeitet, weiß das). Außerdem haben die BBs angekündigt, sie wollten das Tearing unter 2D (z.B. wenn man in Tabellenkalkulationen scrollt) beheben.
Also: Darf man erfahren, wann das NDA endet.
Labberlippe
2001-10-18, 16:22:54
Angenommen die Bitboys stellen im Q1/2002 den Chip vor.
Nur dieser wird aufgrund der Architektur sündhaft teuer werden.
Auch die Mitbewerber schlafen nicht und diese werden dann sofort kontern, damit meine ich nv.
Alleine wenn man bedenkt wie lange Sie jetzt die Bremse der GeForce3 angezogen haben, damit noch Reserver gegen die R8500 besteht.
Diese werden dann eine GeForce5 vermutlich bringen oder ankündigen.
Auch wenn die Bitboys auf der Messe den "Glaze" Presäntieren, wird es eine Zeit dauern bis dieser am Markt ist.
Anhand von den vorigen Ankündigungen, glaube ich wird dieser erst im 3 Quartal kommen und dann müste der Bitboys Chip DX9 fähig sein, damit dieser akzeptiert wird.
Minimum DX 8 mit Pixel und Vertexshader.
Wenn nicht muss er soviel Power unter der Haube haben, damit dieser dann vom Preis akzeptiert wird.
Gruss LAbberlippe
Unregistered
2001-10-18, 16:43:14
ich denke der chip müsste genausowenig dx9-fähig sein wie ein chip heute dx8-fähig sein muss wenn die performance passt.
Labberlippe
2001-10-18, 16:51:11
Originally posted by Unregistered
ich denke der chip müsste genausowenig dx9-fähig sein wie ein chip heute dx8-fähig sein muss wenn die performance passt.
Dann müsste die Performance aber mehr als nur passen.
128 Anisotropisches Filtering mit Trilinear fast Verlustfrei.
Kurz Q3 1600x1200 32 Bit mit allen Funktionen, siehe oben + Realistischen, FSAA lockere 100fps :-)
Ich denke mal das der Chip alle Preise sprengen wird in der Form. Somit muss die Leistung passen.
Gruss Labberlippe
Unregistered
2001-10-18, 18:03:46
ein kyro 2 @ 200 mhz mit 4 rendering pipelines, 2 texture units / pipeline + 200 MHz DDR würde einer Ti500/R8500 vom speed mindestens ebenbürtig sein. auch ohne hw t&l oder dx8 support würde er für sagen wir 400 DM wie warme semmeln weggehen.
ist wirklich ein rätsel wieso sowas nicht rasukommt - was treiben die dort seit jahren - ne kyro1 zu übertakten und kyro2 zu nennen kann doch nicht die gesamten resourcen schlucken. der oben beschriebene chip müßte doch problemlos möglich sein!?
paganez
2001-10-18, 19:05:49
.
Die neuesten Systeme schaffen in Q3 640x480 über 200 Frames... wenn die Grafikkarte nun so enorm viel Power hat, was spricht dann gegen 200 fps bei 1600x1200? Natürlich könnte für so eine Karte die CPU erst mal gar nicht schnell genug sein, schließlich wird sie dann meist zum limitierenden Faktor.
Aber ich bin viel eher auf die Treiber gespannt! Die Leute haben sicher vom Programmieren eine Menge Ahnung, aber einen Treiber, der unter realen Bedingungen bestehen musste, haben sie bisher noch nicht rausgebracht... Ich bin mir nicht ganz sicher, ob sie da auf Anhieb einen stabilen Treiber hinbekommen - und das kann einen Launch gehörig versalzen :D
Labberlippe: Q3/2002? Findest du nicht, das wär ein bisschen spät?
Razor
2001-10-18, 19:49:50
Das, Xmas, ist auch der Punkt, um den ich mir gerade in letzer Zeit gedanken mache...
;-)
Die Treiber sind das A-und-O, denn die erst diese entscheiden über Sieg und Niederlage. Nun ja, wenn Matrox da mit drin steckt, dann werden sie das sicherlich irgendwann hinbekommen...
Aber wenn, wie Ceiser ja schon sagte, sie erst dann ankündigen, wenn sie ein lauffähiges Produkt zeigen können (was dann ja die Treiber mit einschließt, denke ich, daß es genau das ist, mit dem sich die BB's gerade beschäftigen. Das Silizium wird ja unter umständen schon laufen. Nun müssen halt nur noch die Treiber 'rund' gemacht werden...
Schaun' wir ma !
;-)
Razor
paganez
2001-10-18, 20:04:20
.
Ceiser Söze
2001-10-18, 20:11:15
Natürlich nehme ich das niemandem übel. Ich stehe selbstverständlich dafür gerade, wenn es nicht stimmt. Aber wenn ich mir nicht sicher wäre, dass sich in der nächsten Zeit etwas tun wird, würde ich mir doch wohl nicht die Mühe nehmen, all das Zeug zu posten - ich traue jedenfalls meiner Quelle...
Naja, mal abwarten :)
Labberlippe
2001-10-18, 20:38:30
Originally posted by Xmas
Die neuesten Systeme schaffen in Q3 640x480 über 200 Frames... wenn die Grafikkarte nun so enorm viel Power hat, was spricht dann gegen 200 fps bei 1600x1200? Natürlich könnte für so eine Karte die CPU erst mal gar nicht schnell genug sein, schließlich wird sie dann meist zum limitierenden Faktor.
Aber ich bin viel eher auf die Treiber gespannt! Die Leute haben sicher vom Programmieren eine Menge Ahnung, aber einen Treiber, der unter realen Bedingungen bestehen musste, haben sie bisher noch nicht rausgebracht... Ich bin mir nicht ganz sicher, ob sie da auf Anhieb einen stabilen Treiber hinbekommen - und das kann einen Launch gehörig versalzen :D
Labberlippe: Q3/2002? Findest du nicht, das wär ein bisschen spät?
wäre 03/2002 Spät, aber bis jetzt haben die Bitboys immer im Q1 geredet und behauptet der Chip wäre im 3Quartal in der Produktion.
Ich hoffe mal das Sie es wirklich schaffen.
Sollte Sie ein lauffähiges Sample schon vorher präsentieren, dann wird früher kommen.
Aber moment können wir nur abwarten.
Gruss Labberlippe
Unregistered
2001-10-19, 09:38:38
ich denke das war eher zufall, wenn du en produkt fertig hast wirst du auch nicht warten mit vorstellen nur damit es dem business plan entspricht, auf jeden fall nicht wenn es soviel konkurrenz gibt.....
also ich glaube ceisar, wieso sollte er lügen... aber im moment bin ich mit meiner voodoo 5 glücklich, n schönerers bild gibt es nicht...
Labberlippe
2001-10-19, 10:58:10
Originally posted by Unregistered
ich denke das war eher zufall, wenn du en produkt fertig hast wirst du auch nicht warten mit vorstellen nur damit es dem business plan entspricht, auf jeden fall nicht wenn es soviel konkurrenz gibt.....
also ich glaube ceisar, wieso sollte er lügen... aber im moment bin ich mit meiner voodoo 5 glücklich, n schönerers bild gibt es nicht...
Ich glaube auch nicht das er lügt.
Aber bedenken darf man ja anbringen. ;-)
Gruss Labberlippe
paganez
2001-10-19, 14:56:11
.
Exxtreme
2001-10-19, 15:17:42
Originally posted by Labberlippe
wäre 03/2002 Spät, aber bis jetzt haben die Bitboys immer im Q1 geredet und behauptet der Chip wäre im 3Quartal in der Produktion.
Ich hoffe mal das Sie es wirklich schaffen.
Sollte Sie ein lauffähiges Sample schon vorher präsentieren, dann wird früher kommen.
Aber moment können wir nur abwarten.
Gruss Labberlippe
Jo.
Solange die Bitboys kein lauffähiges Silizium präsentieren, glaube ich nicht daran, daß die in absehbarer Zeit was rausbringen. Bis dahin habe ich bestimmt meine R8500. Andere Frage ist, ob der Chip der Bitboys tatsächlich schneller ist als die Konkurrenz.
Gruß
Alex
paganez
2001-10-19, 21:07:41
.
Ceiser Söze
2001-10-19, 21:29:42
Originally posted by paganez
also ich würde behaupten dass es in den low einstellungen wohl eher scheisse aussehen wird, dafür wird es in besagten 1600x1200 x32bit so aussehen wie bei anderen in 1024x768 32 oder so.... weis nicht genau wie die rechnung geht - kann die mir mal einer sagen?
Hä, verstehe nicht, was du damit meinst?
Was die Bandbreite betrifft, die berechnet man folgendermassen:
[Speichertakt in Mhz] * [Speicherinterface in Bytes] = Bandbreite in Mb/sec.
Der eDRAM des Bitboys-Chip hat ein 1024bit-Interface, der Chiptakt beträgt voraussichtlich 175Mhz. Also rechnet man folgendermassen:
175Mhz * (1024bit / 8) = X
175Mhz * 128byte = 22,4Gbyte/sec interne Bandbreite.
Der externe Speicher ist ein 128bit SDRAM-Interface, das mit 200Mhz getaktet ist ---> 3,2Gbyte/sec externe Bandbreite.
Exxtreme
2001-10-19, 21:56:59
Originally posted by Ceiser Söze
Hä, verstehe nicht, was du damit meinst?
Was die Bandbreite betrifft, die berechnet man folgendermassen:
[Speichertakt in Mhz] * [Speicherinterface in Bytes] = Bandbreite in Mb/sec.
Der eDRAM des Bitboys-Chip hat ein 1024bit-Interface, der Chiptakt beträgt voraussichtlich 175Mhz. Also rechnet man folgendermassen:
175Mhz * (1024bit / 8) = X
175Mhz * 128byte = 22,4Gbyte/sec interne Bandbreite.
Der externe Speicher ist ein 128bit SDRAM-Interface, das mit 200Mhz getaktet ist ---> 3,2Gbyte/sec externe Bandbreite.
Hallo.
Man sollte bei den obigen Rechnungen nicht vergessen, daß es nur theoretische Angaben sind. Der Bitboys-Chip erreicht die anvisierten 22,4 GB/s nie und nimmer. Man sollte auch das "Gesetz des abnehmenden Ertrages" nicht vergessen. Nur weil der Chip der Bitboys einen 4x breiteren Datenbus hat, heisst es noch lange nicht, daß er die 4-fache Bandbreite praktisch zur Verfügung hat. Denn je breiter ein Bus ist, desto ineffektiver wird er pro Anzahl der Bit. Deswegen würde ich diese Zahlen nicht überbewerten. Die PS2 hat AFAIK einen 2254 Bit breiten Datenbus zum Grafikchip. Trotzdem kann er kaum richtig ausgenutzt werden.
Gruß
Alex
Ceiser Söze
2001-10-19, 22:54:24
Der Grafikchip der PS2 ist ein Krüppel - in keiner Weise mit dem BB-Chip zu vergleichen. z.B. können vom gigantischen Speicherinterface des Graphic Synthesizer nur 512bit für Texturen genutzt werden usw. Und die beste Bandbreite nützt nix, wenn man keinen externen Speicher für Texturen hat - in den mickrigen 4Mbyte eDRAM hat's ja kaum Platz für den Frame- und den Z-Buffer. Und da sollen dann noch Texturen rein? Pfui!! Das Ganze ist in meinen Augen Pfusch pur. In allen Belangen!
Das 1024bit Interface des BB-Chips ist übrigens segmentiert (das des Glaze3D war 4x128bit. Wie das beim aktuellen Chip ist, weiss ich leider nicht), also ist es etwas effizienter :)
PS: DDR-RAM leistet in der Praxis auch nur etwa 75% seiner maximalen Bandbreite...
Exxtreme
2001-10-20, 00:08:59
Originally posted by Ceiser Söze
Der Grafikchip der PS2 ist ein Krüppel - in keiner Weise mit dem BB-Chip zu vergleichen. z.B. können vom gigantischen Speicherinterface des Graphic Synthesizer nur 512bit für Texturen genutzt werden usw. Und die beste Bandbreite nützt nix, wenn man keinen externen Speicher für Texturen hat - in den mickrigen 4Mbyte eDRAM hat's ja kaum Platz für den Frame- und den Z-Buffer. Und da sollen dann noch Texturen rein? Pfui!! Das Ganze ist in meinen Augen Pfusch pur. In allen Belangen!
Das 1024bit Interface des BB-Chips ist übrigens segmentiert (das des Glaze3D war 4x128bit. Wie das beim aktuellen Chip ist, weiss ich leider nicht), also ist es etwas effizienter :)
PS: DDR-RAM leistet in der Praxis auch nur etwa 75% seiner maximalen Bandbreite...
Hallo.
OK, den BB-Chip mit den PS2-Chip zu vergleichen war nicht so toll ;). Andererseits werden am PC deutlich höhere Auflösungen gefahren als auf einer Konsole. Das relativiert das Ganze etwas. Nicht so gut finde ich auch die Anbindung zum externen Speicher. Ein DDR-Speichercontroller wäre doch IMHO besser gewesen da deutlich leistungsfähiger und z.Zt. auch nicht mehr so teuer. Ich denke der BB-Chip wird sehr leistungfähig sein, aber bei Weitem nicht so leistungfähig, wie es seine theoretischen Specs vermuten lassen. 12 MB Video-RAM könnten bei sehr hohen Auflösungen auch knapp werden. Der Chip muss dann auf den externen Speicher (wenn er dies überhaupt kann) ausweichen und dies würde IMHO starke Leistungseinbrüche bedeuten. Ich würde warten bis der Chip rauskommt und dann mein Urteil fällen. Ich bin auch auf die Features des BB-Chips gespannt.
Gruß
Alex
Ceiser Söze
2001-10-20, 00:34:14
12Mbyte reichen, um Back- und Z-Buffer bei einer Auflösung von 1280x1024x32 komplett in den eDRAM abzulegen (braucht genau 10Mbyte - dann bleiben noch 2 als schneller Cache).
Was dann kommt, hängt in meinen Augen einzig und allein von der FSAA-Implementierung ab. Das FSAA von Bitboys ist ja mit ziemlicher Sicherheit ein neues Verfahren - es wurde ja sogar von ihnen patentiert. Wenn sie es nun geschafft haben, ein FSAA zu entwickeln, dass kaum zusätzlichen Speicher benötigt, könnte man evt. in 1280x1024x32 mit FSAA flüssig zocken, da dann immer noch Front- und Z-Buffer im eDRAM Platz haben. Leider weiss ich zu wenig über dieses Matrix AntiAliasing, um genaue Prognosen zu treffen...
Bei der Multichip-Karte muss man zudem bedenken, dass da 24Mbyte RAM zur Verfügung stehen. Und das reicht problemlos für Z- und Back-Buffer in 1600x1200x32.
Solange jedenfalls Back- und Z-Buffer im eDRAM-Platz haben, braucht man sich kaum Sorgen um die Bandbreite zu machen. DDR-Ram brauchts da nicht mehr :)
Zum PS2-Chip: 1,8Mbyte von den 4Mbyte werden für Z- und Framebuffer benötigt - dann bleiben schlappe 2,2 Mbyte für Texturen und das Ding beherrscht nicht einmal eine vernünftige Texturenkompression. Kein Wunder, dass die Grafik der PS2 Sch***** ist :D
Exxtreme
2001-10-20, 01:15:00
Ich dachte, daß der Front-,Back- und Z-Buffer im V-RAM Platz finden müssen. Deswegen dachte ich auch, daß es knapp wird mit 12 MB V-RAM. Ich bin trotzdem gespannt, welche 3D-Features der Chip beherrscht, wenn er rauskommt.
Zum PS2-Chip. AFAIK beherrscht er überhaupt keine Texturkompression. Er entspricht also technisch einer TNT2 mit 4 MB V-RAM, das aber sehr gut zum Chip angebunden ist.
Da der Chip, aufgrund des sehr kleinen V-RAM, sicherlich sehr oft die Texturen vom Arbeitsspeicher swappen muss, ist der Bandbreitenvorteil weitgehend dahin.
Gruß
Alex
Ceiser Söze
2001-10-20, 01:41:29
Originally posted by Exxtreme
Zum PS2-Chip. AFAIK beherrscht er überhaupt keine Texturkompression. Er entspricht also technisch einer TNT2 mit 4 MB V-RAM, das aber sehr gut zum Chip angebunden ist.
Da der Chip, aufgrund des sehr kleinen V-RAM, sicherlich sehr oft die Texturen vom Arbeitsspeicher swappen muss, ist der Bandbreitenvorteil weitgehend dahin.
Der PS2-Chip beherrscht Texturenkompression - aber einen äusserst minderwertigen und nutzlosen GIF-Algorithmus (fragt mich bitte nicht, wie die Deppen auf eine solche Idee kamen...), den die Entwickler gar nicht erst versuchen einzusetzen...
Noch schlimmer wird das Ganze übrigens dadurch, dass der Grafikchip keine direkte Anbindung zum Arbeitspeicher hat, sondern dort abgelegte Daten über die CPU anfordern muss und damit den Bus "CPU/RAM" und "CPU/Grafikspeicher" belastet. Zudem leistet die Verbindung CPU zu Grafikspeicher sagenhafte 1,2Gbyte/sec :-/
Naja, ich kauf mir sowieso einen Gamecube. DAS ist eine gut durchdachte Architektur :)
Unregistered
2001-10-20, 10:12:26
bei gamecube ist das prob das 80% der spiele für 8-14 jährige sind, andere zielgruppe halt.
Ceiser Söze
2001-10-20, 10:47:19
Originally posted by Unregistered
bei gamecube ist das prob das 80% der spiele für 8-14 jährige sind, andere zielgruppe halt.
Ich zocke Spiele, die primär Spass machen - und dafür brauche ich keine in 25 Trefferzonen unterteilte Gegner mit realistischsten Sterbeanimationen und viel Blut und und und... Dafür brauche ich nur ein gutes Gameplay und da hatte Nintendo schon immer die Nase vorn :)
Wenn man so die aktuell erhältlichen PS2-Spiele betrachtet, muss nach dieser Logik eigentlich die ältere Zielgruppe B-Games bevorzugen - denn über 90% der momentan erhältlichen PS2-Spiele sind spielerisch klar im Mittelmass anzusiedeln...
paganez
2001-10-20, 23:00:45
.
Ceiser Söze
2001-10-20, 23:42:16
Hmmm, ich gehöre wohl zu diesen Leuten:
Emuliere so ziemlich jedes Nintendo-System auf meinem PC: NES, SNES, Gameboy Color und Gameboy Advance :)
So viele geniale Spiele wie auf dem SNES gab es in meinen Augen sonst nirgendwo. Und viele davon sind einfach Kult (z.B. Starfox - das erste Spiel mit 3D-Beschleunigung. Grafik pfui, aber Gameplay (sogar noch heute) hui :D ).
Exxtreme
2001-10-21, 00:29:08
Originally posted by Unregistered
bei gamecube ist das prob das 80% der spiele für 8-14 jährige sind, andere zielgruppe halt.
Hallo.
Also ich finde die Nintendo-Spiele auch sehr gut. Sie sind das krasse Gegenteil zu den PC-Spielen. Gute Rollen- und Geschicklichkeitsspiele. Desweiteren finde ich PS2-Spiele sehr mittelmässig. Sie sind IMHO irgendwie ein Abklatsch der PC-Spiele, nur irgendwie leerer und möglichst auf einfach zu steuern gemacht.
Nur meine Meinung.
Gruß
Alex
paganez
2001-10-21, 22:09:38
.
Unregistered
2001-10-22, 18:29:45
Wenn die BitBoys den Chip wirklich fertig haben wie konnten sie dann bezüglich ihrer Specs oder Geschwindigkeit in Spielen so dicht halten, dass bis jetzt noch nichts genaues an die Öffentlichkeit geraten ist? Sei durch diverse Hardwareseien, die oft nur Spekulationen posten? Bist du (Ceiser Söze) der einzige der diese Informationen hat? Anders kann ich mir nicht erklären, dass noch nichts über die Fertigstellung des Chips bekannt ist, da einer der die Information hatte , sie garantiert verraten hätte. Sorry so fällt es mir etwas schwer dir Glauben zu schenken. Ich würde mich freuhen wenn du dazu Stellung nehmen würdest.
Unregistered
2001-10-22, 19:32:25
Genau, mal wieder zurück zum eigentlichen Thema.
Ich hoffe dass deine Angaben stimmen, mir fällt es aber trotzdem schwer dir zu glauben.
Das wäre endlich mal wieder ein HAMMERCHIP nach dem Bankrott von 3dfx.
Aber wie kommt man bitte an solche Informationen???
Und mich wundert es immer wieder dass diese Stillschweigeerklärungen auch wirklich eingehalten werden.
Und wie wäre es wenn du alle entbehrlichen Angaben nochmals in einem Post zusammenfassen könntest???
Ausserdem bin ich mir fast zu 100% sicher dass das Datum an dem die Stillschweigeerklärung ausläuft nichtmehr zu dieser gehört. Es wurden ja schon einige Daten genannt an denen solche Teile ausgelaufen sind.
Ceiser Söze
2001-10-22, 19:40:39
Originally posted by Unregistered
Wenn die BitBoys den Chip wirklich fertig haben wie konnten sie dann bezüglich ihrer Specs oder Geschwindigkeit in Spielen so dicht halten, dass bis jetzt noch nichts genaues an die Öffentlichkeit geraten ist? Sei durch diverse Hardwareseien, die oft nur Spekulationen posten? Bist du (Ceiser Söze) der einzige der diese Informationen hat? Anders kann ich mir nicht erklären, dass noch nichts über die Fertigstellung des Chips bekannt ist, da einer der die Information hatte , sie garantiert verraten hätte. Sorry so fällt es mir etwas schwer dir Glauben zu schenken. Ich würde mich freuhen wenn du dazu Stellung nehmen würdest.
Bitboys ist eine privat geführte Firma - wie Matrox. Und da kommt man nur sehr schwer an Infos heran: Keine Aktionärsversammlungen, keine grossen PR-Feldzüge um die Investoren zu befriedigen und vor dem Launch des ersten Produkts auch keinerlei andere PR-Arbeit. Kurz: Eine private Firma hält dicht :)
Wie ich trotzdem an Infos herankomme?
Erstens gibt es auf der Bitboys-Site relativ viele verstecke Infos - wer das Zeug genau liest, erfährt überraschend viel über den Chip.
Zweitens habe ich mehr oder weniger zufällig eine recht ergiebige Quelle kennengelernt (sorry, keine weiteren Angaben).
Du musst mir nicht glauben, aber betrachte es doch einmal anders herum: Ich setze hier mit diesen Aussagen meine Glaubwürdigkeit als regelmässiger Poster in diesem Forum und als Redakteur von within3D aufs Spiel. Sollte also alles wider erwarten anders herauskommen, schade ich ja schliesslich nur mir selbst. Und das wäre doch wirklich nicht wünschenswert :)
Ich kenne nicht jedes kleinste Detail über den Launch, den Chip und die Bitboys - aber ich glaube soviel zu wissen und halte meine Quelle für so zuverlässig, dass ich es trotzdem wage, hier etwas zu plaudern :)
Unregistered
2001-10-23, 14:44:49
@ Ceiser Söze
Ja es wäre wirklich wünschenswert wenn du alles was du Preis geben kannst bezüglich Specs und Releasedatumm noch mal zusammenfassen könntest. Großes THX in voraus.
Ceiser Söze
2001-10-23, 16:26:20
Ok, Zusammenfassung von allem, was ich weiss und mitteilen darf/kann/will/möchte, inkl. Quelle (wobei die angegebenen Quellen nicht zwingend die Einzigen zum Thema sein müssen, die ich habe, sondern nur die sind, die ich preisgeben darf/kann/will/möchte):
-Es wird zwei Karten geben: Eine Single- und eine Dual-Chip Karte.
Quelle: Bitboys haben die Warenzeichen "Avalanche" und "Dual Avalanche" registriert.
-Der Chip ist voraussichtlich mit 175 Mhz getaktet, hat 4 Pipelines mit je 2 TMUs und besitzt 12Mbyte eDRAM mit 1024bit breiten Datenpfaden. Demnach leistet ein einzelner Chip 700Mpixel/sec bzw. 1,4Gtexel/sec und hat eine interne Speicherbandbreite von 22,4Gbyte/sec. Die externe Bandbreite beträgt 3,2Gbyte/sec.
Quelle: Bitboys Site
-Das Dual-Chip Monster leistet natürlich das Doppelte: 2,8Gtexel/sec, 44,8Gbyte/sec interne und 6,4Gbyte/sec externe Bandbreite.
Quelle: Eigener Kopf :)
-Der Chip ist ein immediate Renderer, der aber trotzdem mit Tiles rendert, um den eDRAM besser ausnutzen zu können und weil Tilting eine effizientere Multichip-Architektur ermöglicht.
Quelle: 3DConcept, Glaze3D-Whitepaper
-Das FSAA des Chips ist ein neues Verfahren und soll nur einen geringen Performanceverlust mit sich ziehen.
Quelle: Bitboys haben Patente für "Matrix AntiAliasing", Dave Barron, Mitarbeiter von Bitboys, hat im Beyond3D-Forum etwas in dieser Art gesagt
-Das Produkt existiert und der Launch findet in absehbarer Zeit statt.
Quelle: Sorry, keine Angaben, auch keine genauen Daten
-Der Chip wird einige hochinteressante Features unterstützen.
Quelle: Auch hier leider no comment
-Matrox könnte mit Bitboys zusammenarbeiten
Quelle: Dutzende von 'Zufällen' in den letzten Monaten - habe aber (und das möchte ich betonen) keine gesicherten Informationen dazu
Hmmm, ich glaube, ich habe alles :)
Kleine Anmerkung am Rande: Dual Avalanche kann auch einfach eine Singlechipkarte mit Dualhead sein (obwohl ich auch eher zu 2-Chip Lösung tendiere).... es sind noch zu viele Fragen offen. Aber trotzdem ist einigermassen Licht im Dukeln :D
Unregistered
2001-10-23, 17:01:07
Originally posted by Ceiser Söze
-Matrox könnte mit Bitboys zusammenarbeiten
Quelle: Dutzende von 'Zufällen' in den letzten Monaten - habe aber (und das möchte ich betonen) keine gesicherten Informationen dazu
Hmmm, ich glaube, ich habe alles :)
auf dem matrox board (link war im beyond3d thread) wo ein matrox typ immer etwas angedeutet hatte, wird jetzt von 2002 gesprochen. schade eigentlich.
MadManniMan
2001-10-23, 17:59:17
du sagst, das bitboys-teil ist ein tiler??? heiliger mist! freude!
ich hoffe mal das dingens arbeitet auch mit tile-buffern(im edram?)... was das noch zusätzlich an bandbreite rausholen könnte... juhu!
Legolas
2001-10-23, 18:05:44
Der Chip soll zwar ein Tiler sein, aber auch nicht mehr.. also kein Deferred Renderer wie die Kyroserie...
Unregistered
2001-10-23, 18:17:10
Hi, danke für die zusammengfassten Infos!!!
Aber wäre es nicht dochh möglich dass du das datum nennst an dem die Stillschweigeerklärung ausläuft???
Plz!!!
Dauert es zu lang ersteigere ich nämlich die Voodoo 5 6k *g*
Ceiser Söze
2001-10-23, 19:05:09
Sorry, das kann und will ich nicht sagen. Erstens weiss ich das genaue Datum nicht, ich habe lediglich ein Paar Angaben, durch die ich das Datum auf 2-3 Wochen genau schätzen kann. Aber ich wurde von meiner Quelle ausdrücklich (und damit meine ich wirklich ausdrücklich) gebeten, diese Angaben für mich zu behalten. Also, sorry aber: No Comment...
HiddenGhost
2001-10-23, 19:13:29
dat Teil hat ja ne Wahnsinnige bandbreite.
Da die doch hooffentlich noch vor den AMD K8s erscheinen,die dann ja auch AGP8x haben sollen(stand jedenfalls auf diesen Architektur Pics),wieviel Power sollte man wohl für de eventuelle Dual brauchen ?? AMD XP 2100 (1,7 GHZ) oder was .anwelche größenprdnung müsste ich da wohl rechnen.
Ceiser Söze
2001-10-23, 19:34:20
Keine Sorge, eine über-CPU braucht's nicht - es wird zwar auf dem BB-Chip vermutlich eher die Möglichkeit auftreten, dass man CPU-limitiert ist (weil man eben nicht wie üblich bandbreitenlimitiert ist), aber so schlimm ist es dann auch wieder nicht. Besser setzt man die Bandbreite halt einfach für coole Effekte wie FSAA und anisotropic Filtering ein :)
Was die Aussage des Matrox-Typen betrifft: Scheinbar lagen wir hier falsch und Bitboys und Matrox werden doch nicht zusammenarbeiten. Die Tatsache, dass Matrox evt. doch ebenfalls auf eDRAM setzt, könnte allerdings ein Cross-Licensing Deal vermuten lassen. Aber alles in diesem Thread über Matrox war sowieso immer rein spekulativ und beruhte auf Annahmen und Zufällen - meine Quelle steht Bitboys nahe und nicht Matrox :)
Andererseits wäre eine solche Situation auch nicht schlecht: Zwei Konkurrenten sind schliesslich besser als nur einer :)
Trotzdem hätte ich eine "Fusion" von Bitboys-3D und Matrox-2D mehr als nur gerne gesehen...
Originally posted by Ceiser Söze
-Matrox könnte mit Bitboys zusammenarbeiten
Originally posted by Unregistered
auf dem matrox board (link war im beyond3d thread) wo ein matrox typ immer etwas angedeutet hatte, wird jetzt von 2002 gesprochen.
Originally posted by Ceiser Söze
Scheinbar lagen wir hier falsch und Bitboys und Matrox werden doch nicht zusammenarbeiten.
Kein Kommentar... *eg**eg*
Ceiser Söze
2001-10-27, 19:49:33
Puh, jetzt hat endlich ein anderer gesagt, was ich schon lange sagen wollte, aber nicht konnte, also bringen wir den Thread noch einmal nach oben:)
Aus dem Beyond3D-Forum:
Oh yeah, the Bitboys "Matrix FSAA". Ahaha.
Well, their second tape-out last month produced final grade silicon so we should see if it's any good in a few weeks, and how the duallie fares
(Smiley intended...)
Quelle: http://bbs.pcstats.com/beyond3d/messageview.cfm?catid=3&threadid=345
paganez
2001-10-27, 20:15:13
.
Unregistered
2001-10-27, 22:54:07
Heißt das, dass in einigen Wochen die ersten Karten samt Treibern, zum Test, an die verschiedenen Hardwareseiten verschickt werden?
Ceiser Söze
2001-10-27, 23:15:30
Es heisst, dass der Chip seit dem zweiten Tape-Out im September marktreif ist und die Massenproduktion vermutlich bereits läuft.
Und das heisst, dass die offizielle Ankündigung nicht mehr lange auf sich warten lassen wird und wir die Bitboys-Karte mit etwas Glück noch vor Weihnachten kaufen können :)
Jackie
2001-10-28, 00:44:48
hoffen wir es! S3 ist weg, 3DFX ist weg, powerVR lassen von sich nichts mehr hören! ATI schummelt und NVIDIA ist zu überteuert und wirft nur noch scheisse auf den markt!
syronth
2001-10-28, 12:02:19
Ich wünsche NVidia geradezu einen Schlag vor den Kopf, der ganzen Branche, damit wieder ordentlich Schwung hineinkommt.
Aber bis ich hier ins Forum schaute, waren mir die "Bitboys" nahezu vollkommen unbekannt. Entweder die hauen beím Release derart auf die Werbetrommel, daß "Bitboys" zum Synonym für 3D-Grafik wird oder die werden vom ungnädigen Markt schlicht gar nicht wahrgenommen und bleiben auf ihrer tollen Karte sitzen.
Ohne Namen hilft das tollste Produkt nichts. Mir kommt das alles ziemlich diffus vor, als nichts weiter als ein Kindermärchen über unglaubliche "Wunderdinge". Sorry, für meine Offenheit, aber wann hat es das letzte Mal eine echte Sensation auf dem PC-Markt gegeben?
Ich bin nur sehr, sehr skeptisch, totreden will ich nichts.
HiddenGhost
2001-10-28, 13:15:39
Die Avalnche wird doch ein Neuentwickeltes FSSA haben. was könntne die unterscgiede werden ,im vergleich zud en anderen Multisampling Teiolen. Das solldoch Matrix FSAA haießen oder ??
Ceiser Söze
2001-10-28, 14:18:45
Wie schon gesagt: Wie das FSAA im Detail funktioniert, weiss ich leider nicht. Aber Dave Barron (Mitarbeiter bei Bitboys) hat auf dem Beyond3D-Forum mal angetönt, dass ihr FSAA praktisch "gratis" ist (ok, natürlich ist nichts wirklich gratis bei 3D-Chips ;) ). Ich nehme daher an, dass der Chip erstens einmal Multisampling nutzt, denn das frisst keine zusätzliche Füllrate. Zweitens muss irgendwie auch verhindert werden, dass Frame- und Z-Buffer durch aktivieren von AntiAliasing nicht grösser werden, weil sie sonst nicht mehr im eDRAM Platz hätten. Wenn dies gelingt, ist nämlich auch Bandbreite kein Problem mehr, da der eDRAM ja genug davon zur Verfügung stellt :)
Daher: Multisampling ohne eine damit verbundene Vergrösserung von Frame- und Z-Buffer sollten eigentlich "(almost) free FSAA" liefern. Ob dies möglich ist und wenn ja, wie es genau funktioniert, weiss ich leider nicht...
HiddenGhost
2001-10-28, 19:22:07
Ach das bedeutet das "for free".
Ich hab eigentlich das 4 Free on der Finanziellen Setie gedeutet,da ja ehem. 3Dfx Techniker bei den BitBoys angestellt sein sollen, die dann ihr KnowHow in die Entwicklung eingebrcht haben und somit Entwicklungskosten gespart haben.
Wenn das Matrix wirklich keinen eDram Speicher belegt, würde das doch bedeuten ,dass man bedenkenlos hohes FSAA nutzen kann ohne wirklich Einbußen bei der Spielbarkeit zu haben.
Vielleicht ist sogar 8x FSAA bei der Dual möglich,wenn nicht sogar mehr.
Ich hoffe der Release kommt doch noch in absehbarer Zukunft.
MfG PC
MadManniMan
2001-10-28, 22:31:04
is ja alles toll, dass das multisampling nix schluckt, aber was bringts denn feines?
multisampling ist kein aa im klassischen sinne, früher galt es, durch zusätzliche informationen die bildquali hochzuschrauben... und nun? nun werden einfach hier und da ein paar pixel verschoben, dann wird das ganze ordentlich verrührt und schwupps, schon hat man kantenglättung!
toll, auf sowas kann ich verzichten, wenn ich glattere kanten will, schraube ich die auflösung höher und laß mir nich irgendwas verschmieren.... habt ihr schonmal n pic von irgendnem 2xms vonner gf3 gesehen, in dem irgendwo im hintergrund ein maschendrahtzaun dargestellt wird? wenn ja, wißt ihr, was ich meine
und as bringt auch nur bessere texturen, den zaun heilts nicht -> pixelflimmern(böse!)
Legolas
2001-10-28, 22:37:37
Aber Multisampling bringt eben schon neue Informationen ins Bild... es müssen ja immer noch 2 oder 4 Subsamples berechnet werden...
Originally posted by Ceiser Söze
Es heisst, dass der Chip seit dem zweiten Tape-Out im September marktreif ist und die Massenproduktion vermutlich bereits läuft.
Und das heisst, dass die offizielle Ankündigung nicht mehr lange auf sich warten lassen wird und wir die Bitboys-Karte mit etwas Glück noch vor Weihnachten kaufen können :)
Träum weiter;)
MadManni, Multisampling ist Antialiasing, wirkt aber nur an den Kanten von Polygonen. Gegen das Texturflimmern hilft anisotropes Filtern. Bei Multisampling wird auch nichts verschmiert... Das macht nur der Quincunx-Modus der GF3.
HiddenGhost
2001-10-28, 22:50:17
Originally posted by ow
Träum weiter;)
Warum soll das so abwegig sein,oder hast du irgendwelche Beweise,die gegen die Produktion sprechen, zumal es ja noch nich mal welche für diese gibt .....
Unregistered
2001-10-28, 23:07:53
alter latz, das haut mich aus den socken!!!
lassen wir uns doch mal überraschen.
aber wisst ihr was mit allen firmen geschah die ihrer ezit voraus waren???
3dfx, s3, aureal,
die gibts alle nichtmehr.
und seit dem voodoo graphics hat es kein hammerprodukt mehr auf den markt geschafft das die konkurrenz und frund und boden gestampft hätte.
Ceiser Söze
2001-10-28, 23:19:11
Abwarten. Jedenfalls decken sich die Informationen, die nun vermehrt im Beyond3D-Forum auftauchen (0.15 mikron Fertigungsprozess, TapeOut im September etc.) mit denen, die ich gekriegt habe (und, nein: Der Typ, der diese Dinge im Beyond3D-Forum gepostet hat, ist nicht meine Quelle...), und das spricht eigentlich dafür, dass das Ganze nicht nur Träumerei ist :)
Ich glaube, Bitboys haben die billigste PR-Abteilung der Welt. Erst haben die Ingenieure das alles übernommen, jetzt schicken sie ein paar durchgeknallte Finnen in diverse Hardware-Foren, die häppchenweise neue Informationen fallen lassen, die bereitwillig weitergegeben werden. Dazu kommt geradezu eine Legendenbildung, und sogar die Webseite generiert kaum Traffic, da jeder zweite Besucher den Inhalt sowieso schon seit Monaten im Cache liegen hat... *eg**eg*
Clever, clever...
Ceiser Söze
2001-10-28, 23:52:22
Originally posted by Xmas
Ich glaube, Bitboys haben die billigste PR-Abteilung der Welt. Erst haben die Ingenieure das alles übernommen, jetzt schicken sie ein paar durchgeknallte Finnen in diverse Hardware-Foren, die häppchenweise neue Informationen fallen lassen, die bereitwillig weitergegeben werden. Dazu kommt geradezu eine Legendenbildung, und sogar die Webseite generiert kaum Traffic, da jeder zweite Besucher den Inhalt sowieso schon seit Monaten im Cache liegen hat... *eg**eg*
Clever, clever...
LOL, das könnte natürlich auch sein *eg**eg*
Naja, wenigstens ist ihr Marketing in diesem Fall frei von idiotischen Namen wie GPU, Smoothvision, nFiniteFX und Quincunx (der Letzte ist übrigens mein persönlicher Favorit :D ).
Legolas
2001-10-29, 00:21:31
Originally posted by Ceiser Söze
LOL, das könnte natürlich auch sein *eg**eg*
Naja, wenigstens ist ihr Marketing in diesem Fall frei von idiotischen Namen wie GPU, Smoothvision, nFiniteFX und Quincunx (der Letzte ist übrigens mein persönlicher Favorit :D ).
Wobei Quincunx nur ein Name für ne geometrische Form ist :D:D
Unregistered
2001-10-29, 09:55:17
Originally posted by Ceiser Söze
a) Die maximale Füllrate ist zwar niedriger, aber man muss gleichzeitig bedenken, dass durch den eDRAM die effektive Füllrate weit näher am Maximum liegt als die einer GeForce3 oder Radeon8500. Ich vermute daher, dass der Single Chip Avalanche etwas schneller als eine Ti-500 ist (ehrlich gesagt vermute ich nicht nur... hab da nämlich etwas über den ersten lauffähigen Prototypen des Glaze3D gehört ;) ), während der Dual Avalanche... naja, sagen wir mal: Die Karte wird zwar relativ teuer, aber das Preis/Leistungsverhältnis stimmt trotzdem :D
b) Via? Halte ich für unwahrscheinlich. Sorry, wenn ich weitere Tipps geben würde, ginge ich schon ziemlich bald mal zu weit. Ich sag nur: Infineon = Chipfabrikant :) (apropos: Soviel ich weiss hat Infineon einen der besten eDRAM Prozesse überhaupt. Da ist man TSMC und UMC meilenweit voraus).
c) Von Infineon kommen keine Infos... leider...
Mich würden ja eher die Treiber interessieren -- die beste Grafikkarte ist nur Schrott, wenn die Treiber Mist sind. ATI (z.B.) hat zwar lange Schwierigkeiten in dem Sektor gehabt, aber so langsam machen sie sich.
Bei den Bitboys sehe ich das gleiche Problem -- die haben doch noch nie ein Produkt auf den Markt geworfen, also auch keine Reaktion von Konsumenten erhalten. WENN sie mit Matrox zusammenarbeiten, können die vielleicht helfen, aber dennoch -- ich persönlich werde schön abwarten, in welchem Zustand die Treiber sind, denn was nützt ewig viel Bandbreite etc., wenn kein Spiel läuft bzw. massive Probleme hat?
Gruß
Sepp
Originally posted by PCgenius
Warum soll das so abwegig sein,oder hast du irgendwelche Beweise,die gegen die Produktion sprechen, zumal es ja noch nich mal welche für diese gibt .....
Eben genau das. Absolut nichts deutet auf ein Erscheinen dieses Chips hin.
Oder sollte hier wieder eine Firma meinen, sie haette Ankuendigungen & Marketing nicht noetig??
Wer soll den die Karten produzieren?
Von der Ankuendigung zur Auslieferung von Karten vergehen schnell mal 10-12 Wochen, also vor Weinachten wird das nix (darauf bezog sich mein 'traeum'-Kommentar).
Originally posted by Ceiser Söze
Abwarten. Jedenfalls decken sich die Informationen, die nun vermehrt im Beyond3D-Forum auftauchen (0.15 mikron Fertigungsprozess, TapeOut im September etc.) mit denen, die ich gekriegt habe (und, nein: Der Typ, der diese Dinge im Beyond3D-Forum gepostet hat, ist nicht meine Quelle...), und das spricht eigentlich dafür, dass das Ganze nicht nur Träumerei ist :)
Aber du musst zugeben, dass ohne vorherige Ankuendigung keine Karten verkauft werden, oder?
Warten wir also erst mal die offizielle Ankuendigung ab und sehen dann weiter...
Unregistered
2001-10-30, 21:46:55
Originally posted by Ceiser Söze
Ich nehme daher an, dass der Chip erstens einmal Multisampling nutzt, denn das frisst keine zusätzliche Füllrate.
Du meinst bestimmt Bandbreite. Normalerweise werden die SubSamples eines Pixels doch in einem Pixel zusammengefasst und dann erst in den Framebuffer geschrieben. De Facto muessen aber die 4 Subpixel gerendert werden. Nur beim Quincunx erhoeht sich nicht die Fuellrate, weil sich dieses die Informationen einfach aus schon berechneten Pixel nimmt. Glaub ich mal...
Originally posted by Unregistered
Du meinst bestimmt Bandbreite. Normalerweise werden die SubSamples eines Pixels doch in einem Pixel zusammengefasst und dann erst in den Framebuffer geschrieben. De Facto muessen aber die 4 Subpixel gerendert werden. Nur beim Quincunx erhoeht sich nicht die Fuellrate, weil sich dieses die Informationen einfach aus schon berechneten Pixel nimmt. Glaub ich mal...
Eben das was du dir jetzt unter dem Begriff Qunicunx vorstellst, ist Multisampling. Es wird nur ein Farbwert pro Pixel berechnet, der wird aber jedem Subsample zugeordnet, das vom momentan gerenderten Dreieck überdeckt wird.
Quincunx dagegen ist eine besondere Filtervariante von NVidia, die zum Berechnen des endgültigen Farbwerts eines Pixels auch Subsamples von benachbarten Pixeln mit einbezieht.
Originally posted by Unregistered
3dfx, s3, aureal,
die gibts alle nichtmehr.
und seit dem voodoo graphics hat es kein hammerprodukt mehr auf den markt geschafft das die konkurrenz und frund und boden gestampft hätte.
S3 gibt es sehr wohl noch, nur dass sie sich auf Audioprodukte Spezialisiert haben und Sonicblue heissen.
Das Grafikchipgeschäft hat S3 Graphics (Jointventure, gehört Sonicblue und VIA, VIA hat die Ausführung und Sonicblue die Patente) übernommen. Also verdient ehemals S3 Sonicblue immernoch Geld an Grafikchips. Mit solche Aussagen wäre ich immer vorsichtig.
Unregistered
2001-11-01, 12:41:34
Im B3D-Forum schreibt jemand namens Nappe1 schon seit längerem immer wieder, dass die Bitboys doch noch was ganz dolles bringen werden, und zwar bald. Doch nun erzählt Nappe1, dass die BBs vielleicht wieder gescheitert sind, weil "etwas schiefgegangen ist" (bei dem Pyramid-Chip waren es bekanntlich oder angeblich äußere Faktoren, nicht das Produkt selbst). Nappe1 ringt sich nur noch zu verhaltenem Optimismus durch; der neue Slogan im B3D-Forum lautet daher:
"Bitboys is cursed".
http://bbs.pcstats.com/beyond3d/messageview.cfm?catid=3&threadid=1164
Die BBs sollten Avalanche besser endgültig abblasen und statt dessen jetzt ihre ganze Anstrengung auf einen Superchip konzentrieren, der im Jahre 2007 alles bisher dagewesene mühelos absolut in den Schatten stellen wird. Solange werden alle BBs-Fans gerne warten.
Unregistered
2001-11-01, 14:22:58
Alles klar, also kommt der BB doch nicht, wie schon von so vielen vermutet :-( , immer nur Gerüchte, ob die jemals eine Grafikkarte verkaufen werden können, b.z.w was der Offentlichkeit vorzuzeigen haben! Ich denke bis 2007 sind die pleite.
paganez
2001-11-01, 14:58:16
.
MadManniMan
2001-11-01, 15:47:28
wiewaswo? ich sitz hier grad iner schule und krieg die verlinkte site nich zu laden.... was is passiert?
HiddenGhost
2001-11-01, 18:22:03
Das die Produktion nicht läuft ist genauso unbestätigt wie das die Produktion läuft.Ich werde die Hoffnung auf den MegaChip nicht aufgebn ,vieleicht wird er ja doch noch was.
MfG PCgenius
Razor
2001-11-01, 20:20:38
Fakt ist, daß die BB es auf jeden Fall verstehen, im Gespräch zu bleiben !
(mehr aber auch -noch- nicht...)
;-)
In diesem sinne
Razor
HiddenGhost
2001-11-02, 18:17:23
Originally posted by Razor
Fakt ist, daß die BB es auf jeden Fall verstehen, im Gespräch zu bleiben !
(mehr aber auch -noch- nicht...)
;-)
In diesem sinne
Razor
Langsam regt mich das auf. Jedes kleine Fitzelchen an Infos wird gepostet, ohne dass man das Beurteilt. Man sollte zumindest sagen ,dass das unbestätigte Infos sind und nicht gleich sagen ," sch**** wird wohl nichs mehr mit ner Avalanche".
Und ich muss mich dir anschließen. Solange die im Gespräch bleiben wollen, haben die noch was in der Hinterhand,und ich kann mir gut vorstellen ,dass irgendein Typ der BB Leuten irgendwelche Infos abläßt ,nur um die WSemiPromo durch diese Gerüchte in gang zu halten.
*das musste jetzt mal gesagt werden*
MfG PC
paganez
2001-11-09, 14:05:29
/
Scheinbar produziert Infineon nun doch:
http://bbs.pcstats.com/beyond3d/messageview.cfm?catid=3&threadid=1273
Wenn doch wenigstens mal ne offizielle Aussage von Bitboys kommen würde...
nggalai
2001-11-09, 16:25:37
PCGenius,
> Langsam regt mich das auf. Jedes kleine Fitzelchen an Infos wird gepostet, ohne dass man das Beurteilt. Man sollte zumindest sagen ,dass das unbestätigte Infos sind und nicht gleich sagen ," sch**** wird wohl nichs mehr mit ner Avalanche".
Falls Du dich auf dieses Forum beziehst: hast Du schon den Titel dieses Boardes gesehen? Sagt dir das Wort "Spekulation" etwas? ;)
Nix für ungut,
-Sascha.rb
Thowe
2001-11-09, 18:05:28
Originally posted by nggalai
Falls Du dich auf dieses Forum beziehst: hast Du schon den Titel dieses Boardes gesehen? Sagt dir das Wort "Spekulation" etwas? ;)
Nix für ungut,
-Sascha.rb
Eben, dafür wollte ich es haben. Ist doch sauber getrennt, wissen unter Graka und Co. Spekulationen unter Spekulationen. :)
HiddenGhost
2001-11-09, 20:16:07
Originally posted by nggalai
PCGenius,
> Langsam regt mich das auf. Jedes kleine Fitzelchen an Infos wird gepostet, ohne dass man das Beurteilt. Man sollte zumindest sagen ,dass das unbestätigte Infos sind und nicht gleich sagen ," sch**** wird wohl nichs mehr mit ner Avalanche".
Falls Du dich auf dieses Forum beziehst: hast Du schon den Titel dieses Boardes gesehen? Sagt dir das Wort "Spekulation" etwas? ;)
Nix für ungut,
-Sascha.rb
Man sollte dennoch realistisch bleiben. Wenn man was postet sollte man IMHO auch darauf hinweisen, was man bisher weis. Specs hin oder her. Wir wissen weder ob oder doch nich produziert wird.
wenigstens kan man ja dazu schreiben wie sicher die Quelle in etwa is und man dann ein wenig die Qualität der Vermutung beurteilen kann.
Sch**** Deutsch - ich weiß,aber das ist halt in etwa meine Meinung dazu.
Gohan
2001-11-11, 18:02:40
Weiß jetzt jemand was genaueres zu Infineon und Bitboys oder werden wir für immer im dunklen Tappen? :(
Pengo
2001-11-16, 15:44:13
Originally posted by Xmas
MadManni, Multisampling ist Antialiasing, wirkt aber nur an den Kanten von Polygonen. Gegen das Texturflimmern hilft anisotropes Filtern. Bei Multisampling wird auch nichts verschmiert... Das macht nur der Quincunx-Modus der GF3.
Wenn ich 2x FSAA auf meiner Ti200 einschalte wird alle verschmiert, besonders gut an der Schrift zu sehen.
Originally posted by Pengo
Wenn ich 2x FSAA auf meiner Ti200 einschalte wird alle verschmiert, besonders gut an der Schrift zu sehen.
Bei welchen Spielen?
Die Texturen werden sicher nicht verschmiert, daran ändert Multisampling nämlich gar nichts, nur Quincunx. Und die Polygonkanten werden geglättet, nicht verschmiert.
Pengo
2001-11-16, 19:25:13
Originally posted by Xmas
Bei welchen Spielen?
Die Texturen werden sicher nicht verschmiert, daran ändert Multisampling nämlich gar nichts, nur Quincunx. Und die Polygonkanten werden geglättet, nicht verschmiert.
Ich habs mal kurz bei RTCW getestet, bei Quincunx ist es äußerst störend, da gibt es ohne 8x aniso nur nen pixelbrei, bei 2x ist das Bild nicht mehr so verschmiert, es kostet aber zu viel Performance.
nggalai
2001-11-17, 11:17:02
Pengo,
könntest Du ein Konfigurationsproblem haben? Auf meinem System ist Quincunx immer langsamer als 2xFSAA. Ohne Ausnahme.
???
ta,
.rb
Pengo
2001-11-17, 13:32:18
Kann schon sein, hab wohl zu viele Detos nacheinander installiert, der nächste der kommt wird sauber installiert (d.h. reg-einträge und alte files weg). Zumindestens ohne FSAA schwankt die Framerate bei RTCW 1024x768x32 HQ++ zwichen 15 und 140 fps (im Schnitt so 80).
Unregistered
2001-12-14, 12:37:11
Design der Bitboys angeblich fertig - Grafikchip wird hergestellt
Sehr lange hat man von den Bitboys nichts mehr gehört und viele machen sich nur noch lustig über diese finnische Firma mit den vielen Ideen für ein besseres Grafikchipdesign. Nun aber scheint sich konkretes anzudeuten, obwohl offizielle Informationen noch fehlen. In einem Artikel des gestern erschienenen finnischen IT-Magazins ''Micro PC'' wird behauptet, dass ein Grafikchip der Bitboys nun in Silizium gegossen, d.h. hergestellt wird.
Der neue Chip ist eine Weiterentwicklung des ''Glaze3D'', dessen Produktion im letzten Jahr bereits vor Beginn der ersten Sample-Fertigung aufgegeben wurde. Angeblich ''Avalanche'' (Lawine) genannt, besitzt der Grafikchip integrierte 12MB RAM und einen internen Speicherbus von 1024bit. Zum Vergleich: heutige High-End Grafikchips besitzen einen Speicherbus von 128bit.
Nach Angaben von Juha Taipale, General Manager der Bitboys, ist das Chip-Design beendet und der Chip selbst wird hergestellt.
Allerdings sagt der Artikel nichts darüber aus, ob es sich dabei um die Fertigung einiger weniger Sample-Chips oder schon um eine geplante Massenproduktion handelt. Da müssen wir wohl doch noch abwarten, bis man den Chip tatsächlich in Aktion sehen und seine Leistung einschätzen kann.
Quelle: hartware.net
Unregistered
2001-12-14, 14:34:49
Seufz;
wieder mal die Kopie von der Kopie :)
hier ist das originale Posting von eSa auf dem Beyond3D-Forum :From Finnish IT magazine called Micro PC, out today ;
(Sorry about bad translation).
Bitboys chip gets to the silicon
Limits of the modern silicon process are being tested in gfx chip development. Noormarkku based Bitboys was plannig to introduce PC-display adapters based on companys own graphics technology a year ago in Comdex. Instead they gave up the whole silicon implementation of chip, called Glaze3D at the time. A new, further developed design is in the silicon process at the moment. Also a follower to this chip is being designed. Chip under manufacturing has increased embedded memory, leading to the total size of 12 MB. Also the internal bus has been doubled to the width of 1024 bits.
"I know we have been shallow in our comments, but I can reveal that chip design is complete and chip is being manufactured", says Juha Taipale, general manager.
One aspect making the chip design harder was difference between embedded ram and logic. Embedded ram benefits from large capasitance (sp?) of the chips silicon, when on the other hand, it's vice versa with the logic. Large capacitance allows the use of small size memory cells, but same time increases the size chips area used for logic operations.
"In a sense, our graphics process is as hard to manufacture as state of art main cpu's.", comments ASIC-designer Harri Syrjä.
Manfred
GilGaMesch
2001-12-15, 13:55:27
Na Na Na!!
Die Bitboys haben nun schon einige Male derartige Ankündigungen gemacht, also ich schätze, das ist wieder nur eine ENTE von den BB... Nachdem noch kein Chip vorgestellt wurde (bzw. vorgezeigt), geh ich von einer noch langen Verzögerung von mehr als nem 1/2 Jagr aus... Aber man kann sich ja irren (*hoff*)
Doomtrain
2001-12-16, 03:18:03
Originally posted by GilGaMesch
Na Na Na!!
Die Bitboys haben nun schon einige Male derartige Ankündigungen gemacht, also ich schätze, das ist wieder nur eine ENTE von den BB... Nachdem noch kein Chip vorgestellt wurde (bzw. vorgezeigt), geh ich von einer noch langen Verzögerung von mehr als nem 1/2 Jagr aus... Aber man kann sich ja irren (*hoff*)
So ein Quatsch.
Fragman
2001-12-16, 12:12:00
ich hab nun mal alle 9seiten der postings gelesen, teilweise recht interessant, teilweise aber auch ziemlich "abgehoben".
ich verfolge das mit den bitboys nun auch schon seit den anfaengen und muss sagen, dass man heute eigentlich nicht mehr an einen graphikchip glauben kann, sorry, aber wenn uns die vergangenheit eins gelehrt hat, dann, dass bitboys keine graphikchips baut oder auch entwickelt. bitboys scheint meiner meinung nach nur techs zu entwickeln, um diese dann zu lizensieren, mehr nicht, und das ist auch der grund fuer das fortbestehen des unternehmens, die leben von den lizenzgebuehren. ich muss sagen, das sich die daten vom "neuen"
wirklich gut anhoeren, aber da gebe ich doch einiges zu bedenken.
warum sollte es eine multi chip loesung geben, wen die leistung eines chips angeblich schon so hoch ist? da macht eine multi chip loesung ueberhaupt keinen sinn, ausser das sie teuer ist. wenn sie sinn macht, dann kann die leistung eines chips bei weitem nicht so hoch sein, wie hier oft vermutet. das naechste was mich stutzig macht ist die hohe bandbreite. wohin damit? der chip kann doch die bandbreite gar nicht bedienen. jemand im netz hat sich mal die muehe gemacht, auszurechnen, wieviel bandbreite der geforce2 haben muesste, damit er nicht bandbreitenlimitiert ist. das waren dann bei 200 mhz chiptakt so um die 13 gb/s. der "neue" soll bei 175 mhz satte 23 gb/s haben?
also bitte, man kann sich zu weihnachten ja was wuenschen, aber das ist nun wirklich ein bisschen zu extrem. er hat nur 2 textureinheiten, da wird bandbreite verschenkt wie noch nie, da koennte man glatt noch ne geforce3 mit bedienen.
also folgende spekulation von mir:
der "neue" hat keine vertex shader, sondern der wird extra, naemlich in form des nv25 von nvidia ohne deren pixelshader mit auf die karte gebastelt, nur so kann und muss die karte dann aussehen.
gruss, Fragman
[fu]121Ah
2001-12-16, 14:50:53
naja, hohe bandbreite schadet nie. genau wie riesige leistung. man vergleiche mit der v2 (SLI) welche 2 oder 3 generationen überlebte, featuremässig und geschwindigkeitsmässig.
ich denke der vertex und pixelshader ist bei den karten gar nicht das überzeugungsargument. evnt. haben sie ja noch ein bisschen mehr edram, pumpen dort code rein und lassen das softwaremässig vom grafikprozessor rechnen (auf ne art RISC verfahren). dann hätte die riesige bandbreite auch nen nutzen und ohne die transistorzahl der vertex und pixelshader hat auch mehr anderes in dem chip platz. dann würden auch eine dualvariante sinn machen --> noch höhere geschwindigkeit.
Unregistered
2001-12-17, 13:30:05
hallo,
also von ceiser steht ja hier seit 7 Wochen nix mehr geschrieben. Ich würde es aber gut finden, wenn er mir ein paar antworten gäbe.
1.)
"Du musst mir nicht glauben, aber betrachte es doch einmal anders herum: Ich setze hier mit diesen Aussagen meine Glaubwürdigkeit als regelmässiger Poster in diesem Forum und als Redakteur von within3D aufs Spiel. Sollte also alles wider erwarten anders herauskommen, schade ich ja schliesslich nur mir selbst."
und
"Ehrlich gesagt habe ich in meinen anderen Postings eher etwas zu viel gesagt, als vielleicht gut gewesen wäre."
sowie
"Ich kenne nicht jedes kleinste Detail über den Launch, den Chip und die Bitboys - aber ich glaube soviel zu wissen und halte meine Quelle für so zuverlässig, dass ich es trotzdem wage, hier etwas zu plaudern"
Das ist eigentlich mein wichtigster punkt. Ist es nicht auch schädlich (für einen redakteur) offensichtlich vertrauliche infos weiterzugeben? verarscht man damit nicht seine quelle? ist das nicht ein widerspruch in sich - so nach dem motto "ich bin seriös, aber trotzdem plaudere ich aus dem nähkästchen"? ist das nicht genauso glaubwürdig, wie wenn die BUNTE einen differenzierten bericht über afghanistan oder den konflikt im nahen osten schreiben würde?
oder geht deine quelle davon aus, dass du's weitergibst? dann ist das ne klasse methode, um marketing zu brtreiben, aus welchen gründen auch immer. ich kenne da jemanden, der jemanden kennt, der hat gehört - aber FAKT ist, es wird ein raumschiff...
ceiser, ich versteh' dich nicht. entweder hast du als redakteur wenig zu befürchten, oder du willst deinen job aufgeben, oder genau das ist dein job - nämlich das verbreiten von unbestätigten spekulationen. oder ich hab' was vergessen..
Ein zweiter punkt betrifft die zweifel über den "hammerchip" die hier auch zu lesen waren. seit dem start des threats mit den stichworten "...bald..." und "...ende des NDA..." sind zwei monate vergangen. nichts ist passiert, außer, dass mal wieder eine ankündigung zu lesen war/ist.
"Und nochmals: Wenn die Bitboys dieses Mal ein Produkt ankündigen, dann werden sie es auch liefern können. In Punkto Marketing haben sie nämlich, seit sie ein richtiges Management haben, ganz offensichtlich dazugelernt. Shane Long hat im März 2001 klar gesagt, dass es erst wieder Ankündigungen gibt, wenn man ein fertiges Produkt hat. Ganz offensichtlich stimmt diese Aussage auch, denn sonst hätten wir schon lange eine offizielle Ankündigung gehört..."
tja, zwei monate sind seit start des threats vergangen.
ich war jedenfalls ziemlich euphorisch, als ich vor'n paar jahren das erste mal was vom glaze gehört habe. dann habe ich die story über den pyramid gelesen. ideen haben die boys auf jeden fall, nur in sachen umsetzung scheint's zu hapern.
schönen gruß...
der nichtangemeldete
ps: was aber nicht heißen soll, das andere firmen besser wären. ich weiß nicht, auf wieviel spieleverpackungen etwas von lebensechter darstellung oder fotorealismus steht. ich habe noch keine solche darstellung in 'nem game gesehen bzw. in den screenies, die veröffentlicht werden. marketing isses, was zählt. der rest ist egal.
StefanV
2001-12-17, 13:56:32
Ich denke mal, daß der Ausstieg von Infineon für alle Seiten sehr plötlich und unerwartet kam.
Was natürlich ein Schlag ins Gesicht der Bitboys war.
Zu dem Zeitpunkt, als Ceiser das gepostet hat, da war noch nix über den Infineon Ausstieg bekannt (ev. noch nichteinmal den Bitboys) und alle gingen davon aus, daß man in Serienproduktion gehen könnte.
Was aber duch den Ausstieg von Infineon für diesen Chip verunmöglicht wurde.
Labberlippe
2001-12-17, 14:39:50
Wobei ich aber auch sagen muss das die Bitboys nichteinmal Ihre HP überarbeiten.
Die letzten Infos von der Presse sind auf okt. 2000 und da frage ich mich schon was das soll.
Ich kann eine Firma nicht ernst nehmen welche nicht einmal ein Muh oder Mah ablassen.
Gruss Labberlippe
Vielleicht mussten sie aus finanziellen Gründen den Webmaster entlassen :D
nggalai
2001-12-17, 14:50:09
Hi there,
> Die letzten Infos von der Presse sind auf okt. 2000 und da frage
> ich mich schon was das soll.
> Ich kann eine Firma nicht ernst nehmen welche nicht einmal ein Muh
> oder Mah ablassen.
Das ist aber noch häufiger der Fall, bei kleineren Buden--meist steht nur wenig Geld für PR zur Verfügung, und vorhandene Resourcen werden als erstes in Kundenprojekte gesteckt. War noch bei keiner Newcomer-Firma, mit denen ich zu tun hatte, gross anders (und über unsere eigene Web-Seiten breite ich mal ganz keck den Mantel des Schweigens aus ;) ).
Ehrlich gesagt finde ich es viel lustiger, dass so viele Leute bei Bitboys Oy von "PR/Spin Firma" sprechen, obwohl doch ziemlich schnell klar wird, dass die Leute echt kaum Aufwand in die Bewerbung ihrer "fiktiven" Hardware stecken.
ta,
.rb
Ceiser Söze
2001-12-17, 17:58:35
Originally posted by Unregistered
also von ceiser steht ja hier seit 7 Wochen nix mehr geschrieben. Ich würde es aber gut finden, wenn er mir ein paar antworten gäbe.
Dann nehme ich halt mal Stellung:
1. Ich unterstehe keinem NDA und darf also rechtlich gesehen alles weitererzählen, was ich will.
2. Ich habe hier nichts erzählt, was man nicht durch ausgiebige Recherche im Netz nicht selber herausfinden könnte. Das Einzige, was mich von all meinen Aussagen ehrlich gesagt etwas nervös gemacht hat, ist die Tatsache, dass hier jemand soz. "herausgefunden" hat, dass die Bitboys mit den Pixelfusion-Leuten zusammenarbeitet. Diese Pixelfusion-Sache war auch der einzige Grund für meine Aussage "Ehrlich gesagt habe ich in meinen anderen Postings eher etwas zu viel gesagt, als vielleicht gut gewesen wäre". Das war etwas heiss. Mittlerweile hat sich die Sache aber auch abgekühlt, da die Infos nun auch problemlos per Google im Netz zu finden sind.
3. Nur weil ich hier etwas plaudere, heisst das noch lange nicht, dass ich alle Informationen preisgebe, die ich habe. Auch wenn ich nicht unter einem NDA stehe, so gebe ich keine Infos weiter, bezüglich denen ich von meiner gebeten wurde, gefälligst die Klappe zu halten.
4. Meine Quelle arbeitet nicht bei Bitboys und steht ebenfalls nicht unter einem NDA, ich bringe sie also mit diesen Postings nicht in Schwierigkeiten. Er/sie/es hat den Thread mit meiner und Babelfishs Hilfe (ok, v.A. mit meiner :D ) mittlerweile auch durchgelesen und hatte überhaupt keine Probleme mit dem, was ich hier ausplauderte.
5. Ich würde diese Informationen nicht weitergeben, wenn ich deren Richtigkeit anzweifeln würde. Natürlich kann ich mich irren, aber in diesem Falle halte ich das wirklich für sehr, sehr unwahrscheinlich. Ich habe keinerlei Bedürfnisse, meine Glaubwürdigkeit zu verlieren und/oder Gerüchte ohne jeglichen Wahrheitsgehalt in die Welt zu setzen.
Was die aktuelle Lage betrifft: Es herrscht so ziemlich überall Unklarheit und darum habe ich mich auch nicht mehr in diesem Thread zum Thema geäussert. Irgendetwas ist jedenfalls schiefgelaufen und das war mit ziemlicher Sicherheit der Ausstieg Infineons aus dem Deal. Zwar hat Infineon irgendwo mal gesagt, dass man alle Verträge noch erfüllen wird (es war keine öffentliche Stellungsnahme, sondern nur eine E-Mail-Korrespondenz, also hängt mich an dieser Aussage bitte nicht auf), bevor man die Produktion einstelle. Leider wissen wir nicht, wie der Vertrag mit Bitboys ausgesehen hat - möglicherweise waren für den Anfang nur eine geringe Anzahl Karten zu Promotionszwecken vorgesehen.
Unregistered
2001-12-19, 00:30:23
Na ja wenn's die Bitboys trotz allem nicht schaffen, koennte man sich eventuell auch auf Malaik3D konzentrieren. :D
Originally posted by Ceiser Söze
Das Einzige, was mich von all meinen Aussagen ehrlich gesagt etwas nervös gemacht hat, ist die Tatsache, dass hier jemand soz. "herausgefunden" hat, dass die Bitboys mit den Pixelfusion-Leuten zusammenarbeitet. Diese Pixelfusion-Sache war auch der einzige Grund für meine Aussage "Ehrlich gesagt habe ich in meinen anderen Postings eher etwas zu viel gesagt, als vielleicht gut gewesen wäre".
Hui, was hab ich da angerichtet...;)
Das mit PixelFusion hatte übrigens jemand im B3D-Forum geschrieben (nein, nicht du ;)). Insofern hätte es dich nicht zu stören brauchen.
"Advanced New Technology" - hehe
Unregistered
2001-12-19, 15:39:57
Ich halte den Thread und vor allem Caiser Sülze für eine Quatschblase. Blablabla, "großer Wunderdinge werden nahen, Freunde, glaubet mir! Und alle bösen Buben werden zum Teufel gehen und das Licht wird kommen über uns..." -> LoL.
Es sind schon ganz andere Propheten erfolglos gewesen.
Thowe
2001-12-19, 19:47:04
Originally posted by Unregistered
Ich halte den Thread und vor allem Caiser Sülze für eine Quatschblase. Blablabla, "großer Wunderdinge werden nahen, Freunde, glaubet mir! Und alle bösen Buben werden zum Teufel gehen und das Licht wird kommen über uns..." -> LoL.
Es sind schon ganz andere Propheten erfolglos gewesen.
Deine Ansicht.
Aber ANT wird es uns allen zeigen, Malaik3D wird das Licht am Himmel neu definieren. Das hat mir der Oberguru "Jørn Nystad" ins Ohr gefüstert.
Nein, deine Meinung in allen Ehren nicht zuletzt da ich selbst immer "Laberboys UI" gesagt hatte, aber man kann immer hinterher sagen: "Das habe ich gleich gesagt", das ist wesentlich einfacher als vorher über etwas zu diskutieren.
Ich halte das Produkt der BitBoys nicht für fiktiv, es ist daran gearbeitet worden und ich denke auch das es bis zum Ende entwickelt wurde oder geworen wäre.
mirage
2001-12-19, 22:46:45
Was soll'n der Malaik 3D sein??? Ist das etwa schon wieder ein von den Bitboys entwickelter Chip, der nie kommen wird:-(???
Unregistered
2001-12-20, 00:33:37
*ahem* Ich erwaehnte Malaik3D eher als einen Scherz. Die Spezifikationsliste klingt in meinen Ohren zweifelhaft im besten Sinne.
In einem Interview das ich erst kuerzlich las, wurde angegeben das obwohl der chip als einzel-chip Loesung entwickelt wurde sollte er trotz allem sehr skalierbar sein. Wenn's nur das einzige waere was nicht ganz so stimmt....
Thowe,
Bei allem Respekt, 5 Studenten die nur sehr wenig Erfahrung mit 3D haben klingt wirklich nicht allzu ernsthaft. Selbst wenn die Hartware stimmt, moecht ich nicht wissen was fuer Treiber so 'n Ding haben koennte. Selbst BB haetten es ziemlich schwer mit den Treibern gehabt.
Meiner Meinung nach sind Treiber genauso wichtig wie die Hartware :)
Ceiser Söze
2001-12-20, 09:53:06
Die Jungs bei Bitboys sind alles andere als grün hinter den Ohren. Auch wenn sie nicht wie gewöhnlich aus der Hardware-Ecke (SGI & Co.) stammen, so sind die Jungs wahre Software-Zauberer. Schon mal die Demos, welche sie als Future Crew gemacht haben, angesehen? Bedenkt man, dass das Zeug Anfang der 90er entstanden ist, ist das mehr als nur überwältigend.
Und die Bitboys hatten zumindest einmal lauffähige Hardware (ok, sie hatten es sogar schon mehrmals, aber das glaubt mir hier sowieso wieder kaum einer): Pyramid3D. So ein Teil gab es kürzlich mal auf eBay zu ersteigern - leider ist ja der Fabrikationspartner damals hops gegangen, bevor man die Boards in grossen Stückzahlen fertigen konnte.
Kein reguläres Studium oder Erfahrung bei den ehemals grossen im Geschäft (SGI, 3Dlabs & Co.) muss auch noch lange nicht heissen, dass man nichts zu Stande bringt. So hat z.B. David Kirk, Chief Scientist bei nVidia und der Mann, der erst richtig Schwung in das damals ziemlich marode Unternehmen gebracht hat (ich sag nur: Quadratic Texture Maps :D), zuvor auch beim Spielentwickler Crystal Dynamics gearbeitet...
Unregistered
2001-12-20, 12:52:24
Ich glaube dir das schon :)
Ich will nicht nerven aber warum ist 3dfx im ar... und die schei... Bitboys gibt es noch also wer schafft es wohl nützlich Technik die zu bauen (entwickeln) ich könnte hier nun noch ewig weiter machen aber ich denke die Passage von der guten alten Seite 3dconcept wird wohl reichen um zu untermauern das die Jungs richtig fit in der Rübe sind
Pixel und Vertex-Shader? Alter Kaffee!
3 D- C o n c e p t- N e w s
Pyramid3D bot Pixel Shader
Da haben wir Ihnen in unseren Technik-Artikel zu den neuen Buzz-Words Pixel- und Vertex-Shader untergejubelt, die Features seien etwas gänzlich neues in der 3D-Hardware-Welt. Ein Blick in eines unserer älteren Chippreviews belehrte uns selbst eines besseren. Pixel- sowie auch Vertex-Shader implementierte bereits einmal ein lauffähiger, für den PC-Markt geplanter Grafikchip von einer nicht ganz so unbekannten Truppe: Den Bitboys!
Als die finnischen Jungs 1996 noch unter den fittichen von TriTech Micro arbeiteten (die Firma gibt es mittlerweile nicht mehr), konnten sie, im Gegensatz zu heute, tatsächlich funktionsfähiges Silizium präsentieren. Die damaligen Pyramid3D-Bausteine des Typs TR25201 und TR25202 konnten bereits vor 1997 (vor 4 Jahren) sowohl die Pixelberechnungen wie auch die Eckpunkttransformationen und Lichtberechnungen mittels Microcode verändern. Der Begriff "Pixel Shader" taucht auch in den für OEMs gedachten Datenblatt des TR25202 auf, der Sparversion des Pyramid3D (ohne Geometrieprozessor).
"Die Pixelfarbe wird bestimmt durch die Ausführung eines Schattierungs-Programms, welches vom User programmiert wird und im Ausführungsspeicher des Prozessors abgelegt wird. Der Pixel Prozessor ist frei programmierbar [...]", heisst es unter anderem in dem Datenblatt, welches die Rendering-Features des Prozessors umfassen beschreibt.
Die Pyramid3D-Chips boten eigentlich alles, was heutige Grafik-Prozessoren auch bieten. Dem damals als State-of-the-Art geltenden Voodoo Graphics war der Pyramid3D bezüglich Features meilenweit überlegen, selbst ein einst als "fortschrittlich" geltender RivaTNT (1998) würde angesichts der Feature-Masse blass aussehen. Optionales 32bit-Rendering, 2 Texturen in einem Pass, Dependend Texture Reads und Environmental Bump Mapping, trilineares Filtering, Texturen bis 1024x1024 Texel Grösse, Stencil Buffer (allerdings nur 1 bit), bis zu 32 MB Speicher (EDO oder SD-/SGRAM) sowie eine programmierbare TNL-Einheit mit Specular Lighting und volumerischem Nebel zählten zu den Merkmalen des Grafikchips.
Tritech bot 1997 zwei Versionen des Bausteins an. Zuerst den TR25202 ohne Vertex Shader für 50 US-Dollar, später den TR25201 mit integrierter programmierbarer TNL-Einheit (0.8 MTris/s) für 70 US-Dollar bei 10'000 Stück. Der Preis dieser Chips war auch einer der Haken an der ganzen Geschichte. TriTech fand keinen Abnehmer für ihre teuren Beschleunigerchips. In der heutigen Sole-Source-Situation lassen sich Kartenhersteller mit Preisen in der Grössenordnung von 70 US-Dollar problemlos finden, doch 1997 buhlten neben TriTech auch Rendition, S3, Videologic, 3dfx, Number 9, Oak, Trident, 3DLabs und NVidia um die Gunst der Kartenbauer.
Pyramid3D-Prototyp mit Loop-Through-Anschluss:
VGA funktionierte nicht richtig
TriTech hatte mit dem Pyramid3D schlechte Karten, zumal der Chip in den ersten Versionen auch keinen voll funktionsfähigen VGA-Teil vorweisen konnte. Zwar boten auch Voodoo Graphics und PowerVR-Boards keinen VGA-Teil, doch waren diese Chips günstiger, bekannter und vor allem leistungsfähiger. Der Pyramid3D war zwar in der Theorie schneller als 3dfx' Voodoo Graphics (50 MPix/s bzw. 100 MTex/s vs. 45 MPix/s), doch in der Praxis galt der TriTech-Chip gemäss Erfahrungsberichten als vergleichsweise lahme Ente. Im Gegensatz zum Voodoo - Chip (2x64bit Speicherinterface) verfügte der Pyramid3D nur über ein einheitliches 64bit-Speicherinterface für Textur-, Z- und Framebufferzugriffe. Er war daher - Sie ahnen es - bandbreitenlimitiert. Auch um den Chip mit Geometrieprozessor stand es schlecht, offenbar war dieser schlicht zu komplex. TriTech entwickelte den Pyramid3D jedoch fleissig weiter, an der CeBit '98 stellte die in Singapur beheimate Firma den TR25204 (ohne TNL, aber mit VGA) vor und kündigte die Lizenzierung des selbst entwickelten EMBM an Microsoft an. Doch der Erfolg blieb aus. Die Branche, verunsichert durch diverse Ankündigungen überspezifizierter 2D/3D-Prozessoren, machte weite einen Bogen um TriTech's Angebote, die mittlerweile preislich deutlich attraktiver wurden (TriTech verlangte weniger als 20 USD für den TR25204). Kurze Zeit später, im Mai 1998, enthüllte Bitboys Chefentwickler Mika Tuomi in unserem Interview, dass TriTech aus dem Grafikgeschäft ausgestiegen ist. Das Pyramid3D-Projekt war gestorben, der Glaze3D entstand.
Letzterer ist zwar mittlerweile auch wieder Geschichte, ohne jemals funktionsfähiges Prototypenstadium erreicht zu haben. Doch vielleicht haben wir Sie dennoch etwas schmackhaft gemacht? Nun, die Aussage, dass man den Pyramid3D nicht kaufen kann, stimmt eben doch nicht ganz. Seit dieser Woche findet sich bei eBay, dem grössten Auktionshaus der Welt, eine funktionstüchtige Pyramid3D-Karte (TR25202) mit 8 MB SGRAM im Angebot. Die Karte wird mit Handbuch, Windows NT4 und Windows 95-Treibern sowie Loop-Through-Kabel geliefert. Das aktuelle Gebot liegt bei 200 US-Dollar. Doch Vorsicht - so manch ein Angebot bei eBay hat sich im Nachhinein als übler Scherz erwiesen. [ ram ] Mittwoch 28. März 2001
Unregistered
2001-12-22, 13:19:06
Kein Kommentar was D.Kirk betrifft. :D
C.S.,
Ich habe keinen Zweifel was Pyramid3D oder deren Tech-demos betrifft. Ich sagte dass sie es schwer gehabt haetten, nicht das ihre Treiber von Grund auf schlecht gewesen waeren.
Jeh komplizierter der Chip, desto schwerer gute Treiber dafuer zu coden. Alle Firmen haben groessere oder kleiner Probleme mit Treibern wenn sie auf eine neue Generation (lies komplizierte Architektur) umsteigen und ich bezweifle ernsthaft dass die BB's so genial sind derartigen Problemen komplett zu entgehen.
Letztenendes Tech-demos ueberzeugen mich nicht allzusehr. Haettest Du Avalanche in Deinen Haenden und wuerdest es durch mehrere Stress-tests rennen lassen wuerde ich es glauben.
Auf Papier erscheint vieles wundervoll. Realitaet ist ein ganz anderes Bier. Spekulationen ueber Spekulationen ueber Vaporware in einem Spekulationsforum sind nur dass was es sind. Und wenn so manche Zweifel aufweisen dann erscheint es nicht unbedingt unlogisch.
Es ist ausserst bedauerlich aber die BB's sind ja allen Ernstes die groessten Pechvoegel der letzten Jahre. Zweifel und ironische Bemerkungen die dann von so manchen auftauchen sind eher normal.
Unregistered
2001-12-29, 20:25:57
Neues, allerdings spanisches, Futter für Spekulationen bei http://www.noticias3d.com/.
Diskussion bei Beyond3D (http://bbs.pcstats.com/beyond3d/messageview.cfm?catid=3&threadid=1775).
Max Payne Patch 1,02 VGA-demo Scene of 3dcenter.de
1024 FSAA4x- > 75fps
1280 FSAA4x- > 71 fps
1600x1200 - > 120 fps
Athlon XP 1600+ (1.4Ghz)
Crucial 512Mb DDR Cas 2
Epox 8kha+ (Kt266a)
DirectX 8.1
Windows Me
Hey, in Spanien wird eine Demo von 3dcenter.de benutzt!
Ceiser Söze
2001-12-29, 20:32:17
Die haben uns alle verarscht...
http://www.within3d.net/index.php?show=news&type=shownews&id=226
So ein Dreck, aber irgendwie kann ich darüber nur lachen (bleibt einem ja sonst nichts anderes übrig) :D:D
Unregistered
2001-12-30, 00:39:22
Man kann den Spaniern nicht böse sein, daß sie uns knapp einen Tag lang zum Narren halten.
Die Bitboys haben die Welt immerhin vier lange Jahre zum Narren gehalten.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.