PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Endlich: DeltaChrome S8 gelistet!! (Liefertermin: Juni)


Seiten : 1 [2]

Shodan Veritas
2004-05-28, 04:52:59
Ich kann einfach nur nicht verstehen, daß Multichip so selten oder so verkrampft wie bei der Volari Duo umgesetzt wird. Hat da jemand ein paar entscheidende Patente und wir bekommen aus rechtlichen Gründen keine vernünftigen Multichip-Grakas oder gibt es da wirklich technische Probleme? Irgendwie befürchte ich ersteres, sind da eventuell gar die stinkenden Logikpatente bereits die Fußangel? Bitte höflichst um Erleuchtung diesbezüglich.

misterh
2004-05-28, 04:55:50
Original geschrieben von Shodan Veritas
Ich kann einfach nur nicht verstehen, daß Multichip so selten oder so verkrampft wie bei der Volari Duo umgesetzt wird. Hat da jemand ein paar entscheidende Patente und wir bekommen aus rechtlichen Gründen keine vernünftigen Multichip-Grakas oder gibt es da wirklich technische Probleme? Irgendwie befürchte ich ersteres, sind da eventuell gar die stinkenden Logikpatente bereits die Fußangel? Bitte höflichst um Erleuchtung diesbezüglich.

wenn du mehr über volari duo wissen willst, sprecht mich über icq an oder pn. ich hab volari duo im rechner.

Shodan Veritas
2004-05-28, 05:19:31
Tut mir leid, aber bereits die Aufteilung der Rechenlast auf die beiden GPUs hört sich nicht wirklich effizient an, außer natürlich beim Transistorcount. 1 Frame pro GPU klingt für mich nach dem OGSSAA in Sachen Multichip, einfach umzusetzen, aber längst nicht so elegant wie SLI. So lange es da keine rechtlichen oder technischen Hürden gibt könnte sich das je nach Treiber noch ändern, horchen wir mal, ob sich dazu ein Wissender ausläßt.

Gast
2004-05-28, 08:58:47
Original geschrieben von Ailuros
Ich wuenschte ich koennte aber Deinen Hoffnungen genauso folgen. Obwohl 2xRGSS ist die Begrenzung auf 1024*768 auch nicht gerade optimal.

Was aeltere Spiele betrifft: wenn diese nicht mit alphas vollgepumpt sind, dann kannst Du die geringere Leistungsanfrage auf einer RV360 in hoeheren Aufloesungen als 1024 mit 6x sparse MSAA und AF verbrutzeln. Aeltere Spiele sind sowieso ein lahmer Punkt; seit wann ruestet ein Verbraucher nur fuer diese auf?

Fuer die arithmetische Effizienz des DC ist die kleine Anzahl der FPUs verantwortlich und hier ist es zweifelhaft dass Compiler+Treiber Dir irgendwelche Wunder vorzaubern werden, ausser es kommt zu fraglichen Optimierungen.

DC ist eine sehr gelungene Mainstream-Loesung von S3 nach so langer Zeit; besser als die Konkurrenz definitiv nicht. Und wenn Du schon aeltere Spiele als Punkt bringen willst, dann zaehl doch bitte auch alle aelteren OpenGL Spiele mit.

Dein Fazit ist n1, jedoch wurde Pro Treiber release jeweils eine gewaltige "Schippe" draufgelegt. Endlich neuer Wind im Mainstream Markt, das kommt uns allen zu gute!!!
Aber mal ehrlich, viel mehr als 2xFSAA+8-16AF ist für Mainstream Karten in den Meisten Fällen eh nicht drin(Ausnahmen bestätigen die Regel) , sofern man nicht gerade eine Radeon9500 sein eigen nennt!

Radeonator
2004-05-28, 08:59:27
Schmecken meine Keckse so gut??? ^ ich war das!

ow
2004-05-28, 09:29:35
.

Ailuros
2004-05-28, 09:56:08
Original geschrieben von Gast
Dein Fazit ist n1, jedoch wurde Pro Treiber release jeweils eine gewaltige "Schippe" draufgelegt. Endlich neuer Wind im Mainstream Markt, das kommt uns allen zu gute!!!
Aber mal ehrlich, viel mehr als 2xFSAA+8-16AF ist für Mainstream Karten in den Meisten Fällen eh nicht drin(Ausnahmen bestätigen die Regel) , sofern man nicht gerade eine Radeon9500 sein eigen nennt!

Natuerlich und dagegen ist auch nichts einzuwenden. Der einzige Unterschied im gegebenen Fall ist dann dieser:

Theorie:

8 * 300MHz = maximal theoretische Fuell-rate 2.4 GPixels/s

2xRGSS = maximal theoretische Fuell-rate 1.2 GPixels/s
2xRGMS = maximal theoretische Fuell-rate 2.4 GPixels/s

Je hoeher die Aufloesung je mehr spiegeln sich dann die Unterschiede wieder und ich hab hier Bandbreite als Faktor noch gar nicht mitberechnet. Ja Farben-Komprimierung + MSAA macht da auch einen nenneswerte Unterschied.

robbitop
2004-05-28, 13:41:48
Multichipbetrieb ist teuer.
2 hochintegrierte Chips 2x RAM Menge, teures PCB. Das kann man nur machen wenn man billig VPUs wie den Volari auf ein PCB pflanzt. Erfahrungsgemäß ist höhere Integration besser als Multichip. Von der Performance als auch von der ökonomie. Zumal bei hoher Integration viel Redundanz entfällt.
Weiterhin ist es heuzutage technisch einfach zu kompliziert, ein effizientes Multichipdesign zu machen, das dann auch noch effizient arbeiten soll.
Am besten ginge das mit einem vorgezogenen Trisetup, die Chips müssten also auf Multichip betrieb explizit designed sein und aus oben genannten Gründen ist das sinnlos.
Selbst 3dfx sah das ein und wollte in ihrer Entwicklung hin zu hoher Integration (Fusion). Der Vorteil von Mutlichip: man muss nicht so viel R & D aufwenden um einen schwächer integrierten Chip zu entwickeln. Wenn die Performance und der Preis letztentlich einigermaßen stimmt, wäre das ok. Aber das hat bisher noch niemand vermocht.

Radeonator
2004-05-28, 16:13:27
Multichip ist nicht nur teurer sondern auch unwirtschaftlich in mehrfacher Hinsicht :

1. Anbindung zwischen den Chips
2. Max ~40% Mehrleistung
3. Teurer sh1c3 ;)

reunion
2004-05-28, 16:23:32
Original geschrieben von robbitop
Multichipbetrieb ist teuer.
2 hochintegrierte Chips 2x RAM Menge, teures PCB. Das kann man nur machen wenn man billig VPUs wie den Volari auf ein PCB pflanzt. Erfahrungsgemäß ist höhere Integration besser als Multichip. Von der Performance als auch von der ökonomie. Zumal bei hoher Integration viel Redundanz entfällt.
Weiterhin ist es heuzutage technisch einfach zu kompliziert, ein effizientes Multichipdesign zu machen, das dann auch noch effizient arbeiten soll.
Am besten ginge das mit einem vorgezogenen Trisetup, die Chips müssten also auf Multichip betrieb explizit designed sein und aus oben genannten Gründen ist das sinnlos.
Selbst 3dfx sah das ein und wollte in ihrer Entwicklung hin zu hoher Integration (Fusion). Der Vorteil von Mutlichip: man muss nicht so viel R & D aufwenden um einen schwächer integrierten Chip zu entwickeln. Wenn die Performance und der Preis letztentlich einigermaßen stimmt, wäre das ok. Aber das hat bisher noch niemand vermocht.

Naja, ich finde 3dfx hat durchaus gezeigt welches Potenzial in einer vernünftigen Miltichip-lösung steckt, so war die V5 mit AA meistens doppelt so schnell wie die V4 mit nur einem Chip. Und hätte sich der VSA-100 nicht so stark verspätet hätte man vermutlich auch keine Probleme gehabt gegen die Konkurrenz zu bestehen. Der nie erschienen Rampage hätte sogar einen externen Vertex Shader-Chip gehabt, und wäre auch als Multichip lösung erschienen. Und hatte die V2(der der Konkurrenz damals um längen vorraus war) nicht sogar 3Chips auf einem Board, wo man dann sogar 2 Platinen im SLI betrieb zusammenstecken konnte?

strickjackenscheitel
2004-05-28, 18:01:18
ach ich denke das ist nicht so vernuenftig.
mit dem neuen chip sollen sicherlich keine grossen einbußen gemacht werden, weswegen man sich auf solche "spielereien" nicht einlassen wird.
obwohls sicherlich als "neo-voodoo5 " einige anhaenger finden wuerde! =)

Shodan Veritas
2004-05-28, 20:14:15
Was macht den Multichip denn nun so teuer? Natürlich die RAM-Menge, die bei herkömmlichen Multichip-Architekturen linear mit der GPU-Anzahl mitwächst. Eine Architektur mit einem relativ kleinem CacheRAM pro GPU (16MB bis 32MB) und einem zentralen, großen Speicher, evtl. an eine vorgezogene VS-bis-TriSetup-Einheit angebunden, dürfte vom Kostenpunkt her weit effizienter in der Leistung pro Euro skalieren. Und sie dürfte weit leichter zu kühlen sein als eine ähnlich leistungsfähige Single-Chip-Graka, die Abwärme entsteht ja nicht punktuell, sondern über die ganze Karte verteilt.
So etwas kann man natürlich nicht von der nicht dafür konstruierten DC erwarten, aber eine DualDC auf Basis des Volarisystems oder technisch ähnlich wie wie das Alienware-Dual-Graka-System (by Wicked3D) wäre wohl in jedem Fall machbar, wenn es denn keine rechtlichen Querelen dabei gibt.
Die Single-DC ist... interessant. Eine Dual-DC wäre sofort gekauft, gerne auch zum doppelten Preis. RGSSAA ist in der DX9-Klasse ein Alleinstellungsmerkmal, vor allem 4 Sample RGSSAA im guten alten Voodoo5-Style bekommt auch die hartnäckigsten PixelShader und Alphatests sauber gebügelt. Und sagt jetzt nicht, das Ding würde sich nicht verkaufen, V5-6000 bei Ebay für über 700 Euronen spricht für mich eine deutliche Sprache, was vernünftiges RGSSAA manchem wert ist.

strickjackenscheitel
2004-05-28, 20:30:37
ah da hat jmd. "euronen" aufgegriffen! =)

find ich sehr gut!

nunja du hast zwar soweit recht viel und korrektes gesagt, nur hast du leider offenbar vergessen, dass ein 2ter chip nur 40-60% mehr an leistung bringt.
(oder ich hab mich ueberlesen)
ausserdem muss die platine aufwendiger produziert werden, als bei einem chip.

Shodan Veritas
2004-05-28, 21:36:03
Ich denke, die Leistungserhöhung hängt sehr stark von der konkreten Umsetzung des Multichipprinzips ab, da dürfte zwischen 40% und 80% Mehrleistung drin sein, je nachdem, wie man es macht und was man macht. Für höhere SSAA-Modi braucht man nur mehr Füllrate, nicht mehr Geometrieleistung. Die Platine wird weit komplexer, selbstverständlich, aber die Kostenerhöhung dürfte sich in Grenzen halten. Außerdem sieht man an der Voodoo5 auch die weit höhere Wertstabilität von Multichipkarten.
Die verhalten sich beim Wertverlust verglichen mit Singlechipkarten wie Immobilien vs. Automobilien.
( :freak: man nehme diesen Absatz nicht zu ernst :freak: )

misterh
2004-05-28, 21:39:37
Original geschrieben von Shodan Veritas
Ich denke, die Leistungserhöhung hängt sehr stark von der konkreten Umsetzung des Multichipprinzips ab, da dürfte zwischen 40% und 80% Mehrleistung drin sein, je nachdem, wie man es macht und was man macht. Für höhere SSAA-Modi braucht man nur mehr Füllrate, nicht mehr Geometrieleistung. Die Platine wird weit komplexer, selbstverständlich, aber die Kostenerhöhung dürfte sich in Grenzen halten. Außerdem sieht man an der Voodoo5 auch die weit höhere Wertstabilität von Multichipkarten.
Die verhalten sich beim Wertverlust verglichen mit Singlechipkarten wie Immobilien vs. Automobilien.
( :freak: man nehme diesen Absatz nicht zu ernst :freak: )

hast recht, volari soll Fillrate um 5280 haben. aber jetzt ist es noch laut Fillrate Tester 25xx und 3DMark2003 2000. naja ka ob sie auch schaffen 5000 hinzukriegen. aber ich kann es mir denken dass sie auch schaffen werden.

Shodan Veritas
2004-05-28, 21:55:20
Im speziellen Fall der vom VolariDuo benutzten Technik der Lastaufteilung sind meine Bedenken nicht mal im flüssigen/fast flüssigen Bereich, sondern wie das in Bewegung aussieht, wenn die Karte so unter Last steht, das jeder einzelne Chip nur noch knapp zweistellige FPS schafft. Zusammen hiefen sich die Chips wieder auf halbwegs flüssiges Niveau (30fps+ bei gemütlichen, 60 fps+ bei hektischen Games), aber ich kann einfach nicht umhin, da ein sehr merkwürdiges Ansprechverhalten und Mikroruckeln zu vermuten.

robbitop
2004-05-28, 22:22:31
lest ihr nicht mit?
damals =! heute.
Heutzutage ist es eben aufgrund der hohen Integration und der Vielfalt der Funktionen schwierig, ein effizientes Design zu machen.
3Dfx hat schon erkannt, dass das in zukunft schwerer werden würde und strebte deshalb mittelfristig ebenfalls hohe integration an. Es ist nunmal einfach teuer. 3Dfx hatte deswegen auch extreme Lieferschwierigkeiten bei der Voodoo5.
Teuer = sh1ce

ich weiss gar nicht was die Diskussion überhaupt soll, ist erstens OT, zweitens wurde das mehrfach durchgekaut und ist praktisch jedesmal als ökonomisch schlechte Lösung dabei weggekommen.

misterh
2004-05-28, 22:30:28
[SIZE=1]Original geschrieben von robbitop
lest ihr nicht mit?
damals =! heute.
Heutzutage ist es eben aufgrund der hohen Integration und der Vielfalt der Funktionen schwierig, ein effizientes Design zu machen.
3Dfx hat schon erkannt, dass das in zukunft schwerer werden würde und strebte deshalb mittelfristig ebenfalls hohe integration an. Es ist nunmal einfach teuer. 3Dfx hatte deswegen auch extreme Lieferschwierigkeiten bei der Voodoo5.
Teuer = sh1ce

ich weiss gar nicht was die Diskussion überhaupt soll, ist erstens OT, zweitens wurde das mehrfach durchgekaut und ist praktisch jedesmal als ökonomisch schlechte Lösung dabei weggekommen. [SIZE]

Nur weil 3DFX an Anbieter nicht den Chip verkauft haben. Sonst hätten sie mehr erfolg gehabt.

Shodan Veritas
2004-05-28, 23:03:09
Damals und heute kann man nur recht begrenzt vergleichen, richtig. Damals war vor der ersten turbinengekühlten Graka (NV30U im Landeanflug...). Damals war vor dem Presskot-Desaster, nach dem auch Intel auf mehrere physikalisch vorhandene CPU-Kerne umsattelt. Damals war vor der Erkenntnis, daß 90nm-Technologie nicht immer kühler bleibt als 130nm-Technologie. Damals hat sich Multichip nur begrenzt gelohnt, weil die kritische Schwelle an Voodoo5ern nicht erreicht wurde, ab der die Mundpropaganda wirklich einschlägt. 3dfx hätte sich die Voodoo4 sparen und mehr Voodoo5 ausspucken sollen, dann hätten sich die Leute nicht auf Balkenvergleiche verlassen müssen, sondern den Bildqualitätsvergleich mit der GTS bei einem Kumpel live begutachten können. Es waren Managementfehler, die Technologie war leistungsfähig und mit Gewinn verkaufbar, nur die Stückzahlen erklommen die nötigen Höhen nicht und 3dfx Rücklagen reichten nicht aus, den Rechtsstreit mit NV zu Ende zu bringen.

strickjackenscheitel
2004-05-28, 23:55:47
Original geschrieben von Shodan Veritas
Damals und heute kann man nur recht begrenzt vergleichen, richtig. Damals war vor der ersten turbinengekühlten Graka (NV30U im Landeanflug...). Damals war vor dem Presskot-Desaster, nach dem auch Intel auf mehrere physikalisch vorhandene CPU-Kerne umsattelt. Damals war vor der Erkenntnis, daß 90nm-Technologie nicht immer kühler bleibt als 130nm-Technologie. Damals hat sich Multichip nur begrenzt gelohnt, weil die kritische Schwelle an Voodoo5ern nicht erreicht wurde, ab der die Mundpropaganda wirklich einschlägt. 3dfx hätte sich die Voodoo4 sparen und mehr Voodoo5 ausspucken sollen, dann hätten sich die Leute nicht auf Balkenvergleiche verlassen müssen, sondern den Bildqualitätsvergleich mit der GTS bei einem Kumpel live begutachten können. Es waren Managementfehler, die Technologie war leistungsfähig und mit Gewinn verkaufbar, nur die Stückzahlen erklommen die nötigen Höhen nicht und 3dfx Rücklagen reichten nicht aus, den Rechtsstreit mit NV zu Ende zu bringen.

ok. was soll das jetzt?
Thema: Endlich: DeltaChrome S8 gelistet!! (Liefertermin: Juni)

gibts eigentlich noch einen anderen hersteller nebst club 3d fuer europa?
warum gibts die in den staaten erst spaeter als in europa?
klar ist, dass in den staaten sowas wie stromsparen nicht zieht! sehr schlimm dort! (war lange, ueberall in den staaten)
ausserdem zieht da eher eine echt dicke graka, erstmal auch nicht so wichtig was sie leistet!
aber ist das wirklich der grund?

robbitop
2004-05-29, 00:26:29
@misterh
ich empfehle Dir ein besseren Überblick über die Geschichte von 3dfx zu verschaffen.

Radeonator
2004-05-29, 01:49:29
Yehaa!

KlickMich (http://www.geizhals.at/deutschland/a100557.html)

Endlich gehts los :)

Ailuros
2004-05-29, 02:10:41
Original geschrieben von robbitop
lest ihr nicht mit?
damals =! heute.
Heutzutage ist es eben aufgrund der hohen Integration und der Vielfalt der Funktionen schwierig, ein effizientes Design zu machen.
3Dfx hat schon erkannt, dass das in zukunft schwerer werden würde und strebte deshalb mittelfristig ebenfalls hohe integration an. Es ist nunmal einfach teuer. 3Dfx hatte deswegen auch extreme Lieferschwierigkeiten bei der Voodoo5.
Teuer = sh1ce

ich weiss gar nicht was die Diskussion überhaupt soll, ist erstens OT, zweitens wurde das mehrfach durchgekaut und ist praktisch jedesmal als ökonomisch schlechte Lösung dabei weggekommen.

VSA-100 Nachfolger Spectre waere der letzte multi-chip Design auf der roadmap von 3dfx gewesen; dabei war ihnen intern bewusst dass high end dual chip Spectre (9600) das Leben vom NV20 damals womoeglich erschwert haette (1600MPixels/sec und 12.8GB/sec Bandbreite), aber der pfiffige geschaetzte 500$ Preis haette nicht allzu viel geholfen. Man hoffte mit den folgenden nur single chip Produkten wie Fear und Mojo besser konkurrieren zu koennen und das auch natuerlich teilweise mit dem dazugewonnenen Gigapixel engineering Talent.

Das dummste am VSA-100 multi-chip war dass alle chips jedes Dreieck neu aufsetzen musste, was wohl eine unheimliche Verschwendung war. Bei Spectre wurde die Sache leicht besser, aber denkt mal an folgendes:

dual chip Spectre: 2* (4*1) bei 200MHz/200MHz DDR
Fear: 4*1 bei 250-300MHz/250-300MHz DDR

Muesste eine neue Generation nicht schneller sein als der Vorgaenger?

Ja die Sache ist tatsaechlich verdammt OT.

Radeonator
2004-05-29, 04:30:54
Original geschrieben von Ailuros
VSA-100 Nachfolger Spectre waere der letzte multi-chip Design auf der roadmap von 3dfx gewesen; dabei war ihnen intern bewusst dass high end dual chip Spectre (9600) das Leben vom NV20 damals womoeglich erschwert haette (1600MPixels/sec und 12.8GB/sec Bandbreite), aber der pfiffige geschaetzte 500$ Preis haette nicht allzu viel geholfen. Man hoffte mit den folgenden nur single chip Produkten wie Fear und Mojo besser konkurrieren zu koennen und das auch natuerlich teilweise mit dem dazugewonnenen Gigapixel engineering Talent.

Das dummste am VSA-100 multi-chip war dass alle chips jedes Dreieck neu aufsetzen musste, was wohl eine unheimliche Verschwendung war. Bei Spectre wurde die Sache leicht besser, aber denkt mal an folgendes:

dual chip Spectre: 2* (4*1) bei 200MHz/200MHz DDR
Fear: 4*1 bei 250-300MHz/250-300MHz DDR

Muesste eine neue Generation nicht schneller sein als der Vorgaenger?

Ja die Sache ist tatsaechlich verdammt OT.

Nicht nur das, dann gabs da noch die Story das ein Mitarbeiter vergessen hatte, nen Engineer Sample mitzunehmen...:bonk:

robbitop
2004-05-29, 11:25:48
das war beim Spectre oder? =)

@AiL
vieleicht war Mojo aufgrund des Early Z Cullings besser?

strickjackenscheitel
2004-05-29, 12:57:05
offenbar weinen hier sehr viele leute 3dfx hinterher...

jaja ich hatte auch die v2(sli) und die v5 5500.
buhu...
sowas arg aergerliches das die nicht mehr sind.
wenn es eine firma gibt um deren ableben (und leben irgendwo auch) ein mysterium, ein kult gebaut wird, dann ist das wohl 3dfx.
aber hier gehts doch um den dc! der ist jetzt auch lieferbar!
also was nun?!

reunion
2004-05-29, 15:18:31
Original geschrieben von Ailuros
VSA-100 Nachfolger Spectre waere der letzte multi-chip Design auf der roadmap von 3dfx gewesen;

War der VSA-100 Nachfolger nicht der Rampage und dann erst der Spectre? :kratz2:

robbitop
2004-05-29, 18:16:36
Spectre = Rampage + Sage
VPU + VertexProzessor (vorgezogenes Trisetup??)

strickjackenscheitel
2004-05-29, 18:16:45
ich mein ... HEE
s8 und so?!
gibts eigentlich mal wieder ein paar infos ueber die leistungsfaehigkeit?

robbitop
2004-05-29, 18:21:18
im Moment ca NV31/RV350 Niveau (jeweils die NonUltra/Pro).
Man müsste schon mit dem Takt hochgehen und in den Treibern was machen und ein wenig Cheat0rn. ;)

Ich hoffe, dass es auch ohne Cheats klappt. Ich bin echt gespannt auf den GammaChrome.

Ailuros
2004-05-30, 01:52:50
Original geschrieben von robbitop
das war beim Spectre oder? =)

@AiL
vieleicht war Mojo aufgrund des Early Z Cullings besser?

Mojo war ein TBDR mit Komplianz die man damals auf dem Kreideboard als dx9.0 Level Features empfand (nur FP16).

(Wahrscheinlich pre-sampled) DM gab es schon auf Fear (Fusion+Sage2) und Kombinationen von hierarchical Z, early-Z usw. Man nannte die Verschmelzung von Hydra und GP-X = Fusion, einen "hybriden" Tiler. Es gab im Fear Feature-set M-buffer MSAA "for free" was wohl darauf deutete dass MSAA im Gegenteil zu Spectre endlich komplett Fuellraten frei war.

robbitop
2004-05-30, 02:14:51
ich möchte bezweifeln, dass man so schnell von IMR auf einen TBDR umsteigen hätte können, zumal die TBDR Arbeitsweise der GP Chips afair denen von PVR unterlegen war.
Und das alles mit so wenig R & D? ein Wunschtraum imo.

Gast
2004-05-30, 03:49:28
Original geschrieben von strickjackenscheitel
offenbar weinen hier sehr viele leute 3dfx hinterher...

jaja ich hatte auch die v2(sli) und die v5 5500.
buhu...
sowas arg aergerliches das die nicht mehr sind.
wenn es eine firma gibt um deren ableben (und leben irgendwo auch) ein mysterium, ein kult gebaut wird, dann ist das wohl 3dfx.
aber hier gehts doch um den dc! der ist jetzt auch lieferbar!
also was nun?!

Lieferbar ab 31.05.04 heisst es. Vorerst wird nur Club3D Europa versorgen. Über Chaintechs 345MHz Monster schweigt sich Chaintech noch aus.Jedoch gibt es auf der Chaintech Seite unter VGA Grakas einen neuen leeren Punkt...Selbst S3 weiss nicht, was Chaintech im Retail markt mit dem DC vor hat...

p.s.: Verlagert eure OffTopic "wir weinen losern nach" Thematik doch bitte in einen separaten Thread, thnx :P

Ailuros
2004-05-30, 09:39:24
Original geschrieben von robbitop
ich möchte bezweifeln, dass man so schnell von IMR auf einen TBDR umsteigen hätte können, zumal die TBDR Arbeitsweise der GP Chips afair denen von PVR unterlegen war.
Und das alles mit so wenig R & D? ein Wunschtraum imo.

Fusion hatte den XBox Design und nicht GP-3 inkorporiert. Der Rampage texturing computer war verdammt nahe an dem was GP vorhatte und die Verschmelzung ist tatsaechlich ziemlich schnell vorgegangen. Sage2 war schon im Labor vor dem Ende und Fusion haette sehr kurz danach gefolgt. Uebrigens benutzte bis zum Napalm keine Simulationen bei der Entwicklung; bei Rampage/Spectre kam man endlich zu fortschrittlicheren Methoden. Aehnlich GP (danke Manfred):

http://users.otenet.gr/~ailuros/hutchins_draft.pdf

Fuer die Geometrie beim immer noch unabhaengigen Sage2, haette man etwas Speicher dem Ding beigefuegt und hierarchical Z/tiling benutzt.

Natuerlich hatte GP einen ganz anderen Arbeitsvorgang und natuerlich gab es viel marketing-Rauch ohne analogen Hintergrund, aber es ist auch nicht ganz unmoeglich dass sie einen IMR aehnlichen tri-setup irgendwo versteckt hatten. Ich konnte das hybride Tiler Zitat nie richtig entziffern. Theoretisch haette Fear sehr gut mit NV25 konkurriert (auf jeden Fall besser als Spectre), ausser natuerlich sie haetten den Spectre "quasi-AF" Algorithmus nochmal benutzt, der wirklich nichtmal den Namen AF wert war.

Auf dem Kreideboard stand dann noch Mojo (ohne externe Geometrie Einheit) und Fearless fuer PDA/mobile wo sich 3dfx einen dicken Batzen von Umsatz erhoffte wenn der bulk von 3D in diesem Markt begonnen haette. Das was GP dafuer hatte (GP-LP) war im Vergleich zu MBX wirklich nichts besonderes; hier steht die Frage ob sie noch Zeit gehabt haetten viel daran zu aendern. Alle GP Designs hatten quadratische Tile-Groessen; PC/console chips 32*32, PDA/mobile 16*16.

Gigapixel hatte im guten Ganzen sehr interessante Patente was caching und Speicher Optimierungen betrifft (siehe auch MO-bus) und da kannst Du Dir sicher sein dass die 40+ alte SGI Hasen nicht unbenutzt in einer Ecke bei NV hocken, und das schon seit dem NV25.

Alles nur von geschichtlichem Interesse natuerlich und einen Batzen vaporware von GP.

Gast
2004-05-30, 22:45:36
Es ist soweit!
Wir haben die Club3d DC für €169

up

Tigerchen
2004-05-31, 06:07:48
Original geschrieben von misterh
Nur weil 3DFX an Anbieter nicht den Chip verkauft haben. Sonst hätten sie mehr erfolg gehabt.

Das ist Wunschdenken.

Tigerchen
2004-05-31, 06:21:45
Original geschrieben von Shodan Veritas
Damals und heute kann man nur recht begrenzt vergleichen, richtig. Damals war vor der ersten turbinengekühlten Graka (NV30U im Landeanflug...). Damals war vor dem Presskot-Desaster, nach dem auch Intel auf mehrere physikalisch vorhandene CPU-Kerne umsattelt. Damals war vor der Erkenntnis, daß 90nm-Technologie nicht immer kühler bleibt als 130nm-Technologie. Damals hat sich Multichip nur begrenzt gelohnt, weil die kritische Schwelle an Voodoo5ern nicht erreicht wurde, ab der die Mundpropaganda wirklich einschlägt. 3dfx hätte sich die Voodoo4 sparen und mehr Voodoo5 ausspucken sollen, dann hätten sich die Leute nicht auf Balkenvergleiche verlassen müssen, sondern den Bildqualitätsvergleich mit der GTS bei einem Kumpel live begutachten können. Es waren Managementfehler, die Technologie war leistungsfähig und mit Gewinn verkaufbar, nur die Stückzahlen erklommen die nötigen Höhen nicht und 3dfx Rücklagen reichten nicht aus, den Rechtsstreit mit NV zu Ende zu bringen.

Die Hoffnung stirbt zuletzt nicht wahr?
Multichip war nie konkurrenzfähig da nützt auch deine Schönrederei nichts. Das ist eben so.
- viel teurer RAM wird verbraucht
- niedrige Effizienz
- 3dfx ist es nie gelungen die V5/V6 AGP-fähig zu machen.
- V5 kam zu spät (2 manuelle Redesigns)
- V5 fehlte nicht nur T&L sondern auch Bumpmapping und S3TC (Eigenbrödeleien wie T-Buffer und die eigene Texturkompression konnten sich nie durchsetzen)

Ailuros
2004-05-31, 09:24:58
Man sollte die aelteren multi-chip Loesungen mit dem was in der absehbaren Zukunft moeglich ist nicht vergleichen. Wenn dann waeren dual cores auf einem einzelnen die schon eher moeglicher und auch wirtschaftlicher.

Wenn es zu solchen "packages" kommt, werdet ihr es schon merken im CPU Markt z.B.

StefanV
2004-05-31, 10:44:31
Original geschrieben von Tigerchen

- V5 fehlte nicht nur T&L sondern auch Bumpmapping und S3TC (Eigenbrödeleien wie T-Buffer und die eigene Texturkompression konnten sich nie durchsetzen)



Öhm, AFAIK war FXT1 S3TC Kompatibel...

Wobei es auch noch Open Source war, AFAIK verlangte 3DFX auch nichts, wenn es jemand implementiert.

Es war auch besser als S3TC...

HOT
2004-05-31, 10:49:28
Original geschrieben von Stefan Payne
Öhm, AFAIK war FXT1 S3TC Kompatibel...

Wobei es auch noch Open Source war, AFAIK verlangte 3DFX auch nichts, wenn es jemand implementiert.

Es war auch besser als S3TC...

War es ;) Aber ich glaube 3dfx hatte es nicht für nötig befunden eine OpenGL Lizenz von S3 zu erwerben.

Tigerchen
2004-05-31, 11:26:53
Original geschrieben von Stefan Payne
Öhm, AFAIK war FXT1 S3TC Kompatibel...

Wobei es auch noch Open Source war, AFAIK verlangte 3DFX auch nichts, wenn es jemand implementiert.

Es war auch besser als S3TC...

Konnte man die S3TC Texturen von Unreal mit einer V5 nutzen?

HOT
2004-05-31, 11:58:13
Original geschrieben von Tigerchen

Konnte man die S3TC Texturen von Unreal mit einer V5 nutzen?


nein konnte man nicht, weil eben genau die OpenGL Lizenz fehlte und die V5 MeTal nicht unterstützte. Die S3TC Texturen waren AFAIK unter D3D nicht zur Mitarbeit zu bewegen, ist also ein anderes Problem. DXTC Texturformate wurden von der V5 unterstützt.