PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Ich werde verrückt ???!!!


RyoHazuki
2002-12-18, 11:54:14
Also warum ich diesen Thread starte ist ....

http://www.s3graphics.com/index.html

deshalb !!!!!!


wenn man auf der rechten seite beobachtet, wird man bemerken das da "Advanced Deffered Rendering" steht!!!

zur zeit kann man keine whitepapers downloaden !!
da man aber lesen kann wie sie heissen,

zum einen wäre mal das white paper "V8 Pipeline" !
Das verrät mir meiner meinung nach das der chip 8 Pipelines hat

!!! oder !!!

es handelt sich um eine 4x4 architektur (eher wahrscheinlich )

denn wenn man recht überlegt, ist ein V8 motor wie folgt aufgebaut ! 4 zylinder recht und 4 links vom V !!

Das nächste wäre Advanced Deffered Rendering, da bräuchte ich mal etwas hilfe von euch ! Deffered rendering verhilft dem Chip (soweit ich weiss) bis zu 3 fache füllrate oder ? Das Advanced hat für mich keine bedeutung, denn ich hab mal gelesen das es schwer sein soll Deffered Rendering in einen DX8 oder DX9 chip zu integrieren! Mit Advanced denke ich nur daran das es bedeutet das es auf einem DX8/9 chip geht!

zum fertigungsprozess :

S3 typisch werden sie gleich auf den neusten prozess umsteigen! Sprich 0,13 micron, bei einer so komplexen architektur denke ich mal an max. 350 MHZ ( immerhin 175 mehr als beim KyroII )

zum speicherinterface :

falls es 300 MHZ auf der GPU werden sollten + Deffered rendering wäre das Maximal 3600 Mpixel, da sollte man ein 256bit speicherinterface benutzen, oder ??? Was sagt ihr dazu OW, Demirug, Aths !!??

zur 4x4 architektur :

meiner meinung nach OK ! Allerdings nur mit Extrem hohen taktraten ala 500 MHZ (GFFX) ! Siehe Parhelia super architektur, zu lahme taktraten!!!! Allerdings gleicht sich das beim "neuen" S3 chip mit deffered rendering aus! Also werden 4 Gpixel zu erreichen sein !??

zum speicher selbst :

Also DDR/II scheint mir nicht so .... eher DDR/I, am besten wäre der von Hynix 1GHZ ! allerdings bräuchte der chip dann kein 256bit speicherinterface mehr ! Ausser S3 will wirklich lange an der Spitze bleiben ! Dann wären 256bit interface + 1 GHZ unbedingt nötig !

alles in allem :

Wenns nach mir geht wird der chip ( wenn die treiber gut sind ) ganz gut ! Was mich irgendwie stört ist die niedrige Füllrate ! außer Sie schaffen es den chip mit 400 - 500 MHZ zum laufen zu bringen !

Realistisch,

300 - 350 MHZ GPU
300 - 1000 MHZ RAM mit 128bit interface

Performance KING,

400 - 500 MHZ GPU
min. 800 MHZ RAM mit 256bit interface


SO DIE BÜHNE IST FREI ! *gg*

RyoHazuki
2002-12-18, 12:15:58
VIA/S3 hat Kentrons QBM lizensiert !!! Hmmm.....

Pirx
2002-12-18, 13:37:24
Originally posted by RyoHazuki
...( wenn die treiber gut sind )...

Bin da eher sehr skeptisch, habe schon mehrfach erlebt, daß S3 viel "versprochen" hat, es aber dann nicht einhalten konnte.

FormatC
2002-12-18, 13:48:52
Wenn ich diesen Auszug der HP richtig interpretiere wird das ein Mobilchip.

"The AlphaChrome family is the latest in the S3Graphics range high performance graphics processors designed specifically for the demanding commercial and consumer mobile notebook sector. Featuring integrated memory solutions and ultra compact discrete gives customers maximum flexibility in their choice of cost/space/performance considerations."

Oder?

RyoHazuki
2002-12-18, 15:52:25
ALPHACROME = Mobile Solution

DELTACHROME = HIGH END Solution (Desktop)

ich war am anfang auch etwas verwirrt!!! :-))

FormatC
2002-12-18, 16:11:34
Originally posted by RyoHazuki
ALPHACROME = Mobile Solution

DELTACHROME = HIGH END Solution (Desktop)

ich war am anfang auch etwas verwirrt!!! :-))


Ah. :)

Desti
2002-12-18, 18:18:08
Der Chip wird 8 pipes haben :)

MeLLe
2002-12-18, 19:07:20
Und nach hinten losgehn.
Sorry aber da bin ich einfach mal pessimistisch. Savage(2000) sollte auch schnell sein, mit T&L und allem Schnickschnack. Und? Hab einen auf Arbeit im PC - totaler Murks. Allein die Treiber ... :|

ActionNews
2002-12-18, 19:18:59
AUßerdem haben wir dazu schon einen Thread im Spekulationsforum (wo's auch hingehört ;) :D)!
Ob das wirklich ein Hardware deferred renderer wird glaube ich jetzt mal nicht! Ich vermute es ist eine Art Softwarelösung!

CU ActionNews

ow
2002-12-18, 19:51:54
Originally posted by MeLLe
Und nach hinten losgehn.
Sorry aber da bin ich einfach mal pessimistisch. Savage(2000) sollte auch schnell sein, mit T&L und allem Schnickschnack. Und? Hab einen auf Arbeit im PC - totaler Murks. Allein die Treiber ... :|

Die Treiber sind Murks, das ist richtig.
Der Chip selbst ist ganz in Ordnung (von der etwas verunglückten HWT&L mal abgesehen:D) und war auch schnell seinerzeit.

ow
2002-12-18, 19:52:50
Originally posted by ActionNews
AUßerdem haben wir dazu schon einen Thread im Spekulationsforum (wo's auch hingehört ;) :D)!
Ob das wirklich ein Hardware deferred renderer wird glaube ich jetzt mal nicht! Ich vermute es ist eine Art Softwarelösung!

CU ActionNews

Nö, Software-Lösung ist unmöglich. Kann es also nicht sein.

RyoHazuki
2002-12-19, 09:28:31
@ action und all

Also, stell dir mal vor du hast eine grafikfirma, du hast vor 2 jahren mit einem Grafikchip totalen mist gebaut ! du hast nun die chance etwas gescheites zu machen, würdest du es nicht gescheit machen ???
#
meiner meinung nach wird S3 genau durch Ihre fehler diesmal vernüftig arbeiten ! zweimal fehler kann sich keine firma richtig leisten!

Zumal muss ich dazu sagen das die S3 techniker ein wunder vollbracht haben ! Eine defekte T&L einheit zum laufen zu bringen und dann noch bis zum letzten treiber realese alle fehler zu beheben ! gut die T&L einheit war LAHM im wahrsten sinne des wortes, aber überleg mal !

glaube mir, die Viper 2 steht im gegensatz zur GF1SDR in nichts nach !

Zu den 8 Pipes die jemand erwähnt hat, warum bist du dir so sicher ???

FRAGE !!!

UM WIEVIEL ERHÖT SICH DIR FILLRATE DURCH DEFFERED RENDERING ???

RyoHazuki
2002-12-19, 09:30:28
und wenn man ehrlich ist, hat man schon vom S3 Colubia vor genau einem Jahr schon was gehört !!! Da war er schon in der entwicklung !

Also ein JAHR für Chip und treiber und evtl. NOCH MEHR ! Müssten reichen um ein vernüftiges Konkurenzprodukt zu bauen !

Quasar
2002-12-19, 10:33:50
Die gesamte Argumentation kommt mir sehr bekannt von SiS' Xabre und (mit Vorbehalt) Trident's XP vor. Die hatten auch alle Zeit der Welt ein richtiges Killerprodukt auf den Markt zu werfen, haben es dann aber nur zu einer Low-Cost Lösung gebracht.

Gerade die lange Abwesenheit vom High-End Markt kann den Devs eventuell schnell den Blick für die Geschwindigkeit nehmen, mit der sich der Markt weiterentwickelt.

Ein weiteres Problem ist auch, dass es sehr sehr kostspielig ist, ein High-End Produkt nicht nur zu entwickeln, sondern auch zu supporten. Beispielsweise sind solche Dinger hautpsächlich im Retailmarkt interessant, so dass man Brand Awareness schaffen muss, was bei Mid-Range und OEM-Produkten nicht so unbedingt nötig ist ("Grafiklösung mit 128MB DDR-RAM" anyone?).

Dazu ist die Zielgruppe solcher Produkte auch anders, High-End Käufer neigen viel eher dazu (siehe hier (http://www.forum-3dcenter.de)), die Schuld am nicht-funktionieren eines Spiels/Programmes einer bestimmten Komponente in die Schuhe zu schieben. Otto Normalverbraucher hingegen denkt sich "der Computer geht halt nicht." (Alternativ: "Das Spiel is scheisse") Die Treiber müssen also Top-Qualität haben, was auch wieder eine Menge Geld für Programmierer kostet, die entgegen anderslautenden Gerüchten nicht nur für einen Lebenslangen Vorrat an K&K (Kaffee und Kippen) arbeiten. Auch (Game-)Developer-Relations wollen aufgebaut und gepflegt sein....kostet alles einen Haufen Geld, und wofür das Ganze?

Richtig, um eine breite, konkurrenzfähige Produktpalette in allen Marktsegmenten gut verkaufen zu können. Diese bieten momentan nur ATi und nVidia an, selbst der zu seiner Zeit sehr konkurrenzfähige Kyro(II) konnte keine wirkliche Marktbedeutung gewinnen, da PowerVR/ImgTech/STMicro nur ein einziges, wenn auch recht gutes Produkt anzubieten hatten. Dann sprang STM ab und der Rest ist bekannt...

Insofern glaube ich mehr an einen weiteren Papiertiger von S3, da bislang alles auf eine weniger als halbherzige Kampagne hindeutet. Eines ist ihnen allerdings gut gelungen: Sich wieder ins Gespräch zu bringen.

Unregistered
2002-12-19, 10:41:46
Originally posted by RyoHazuki
und wenn man ehrlich ist, hat man schon vom S3 Colubia vor genau einem Jahr schon was gehört !!! Da war er schon in der entwicklung !

Also ein JAHR für Chip und treiber und evtl. NOCH MEHR ! Müssten reichen um ein vernüftiges Konkurenzprodukt zu bauen !


Ja reichen sollte das schon aber wie man bei den finen gesehen hat kannst du die übertechnik bauen und wenn de sie produzieren kannst kommt raus das sich in keinem fall die kosten decken würden!

Soetwas geht nur mit genügend kapital um einen markt aller ms zu überrollen um ihn später allein zu haben!

und der s3 columbia nja

Also, stell dir mal vor du hast eine grafikfirma, du hast vor 2 jahren mit einem Grafikchip totalen mist gebaut ! du hast nun die chance etwas gescheites zu machen, würdest du es nicht gescheit machen


Ich würde das schon aber was den nun 1 oder 2 jahre zeit,
also da das ja nur 1 sein kann ist der chip wohl doch nicht so lang in der entwicklung was aber ja auch egal wäre!

entwerder kommt nichts oder die specs werden weit nach unten korriegiert!

robbitop
2002-12-19, 10:59:05
zum PipelineDesign:
heutzutage ist es ineffizient mehr als 1xtriTMU pro Pipe zu verbaun.
somit wären bei 8 TMUs der ebste Weg 8x1.

weiterhin kann ich nur zustimmen dass es ein interessantes Projet ist, aber S3/Via dazu nicht das KnowHow und die richtigen Ingeneure hat um ein solch komplexen Chip mit vergleichbaren anderen Chips mitlaufen zu lassen. Was passieren kann sah man leider am Parhelia, die Specs beeindruckend (ein NextGen chip zu der Zeit als es noch der Einzige war) aber die Leistung leider sehr schwach.

Wenn jmd einen schnellen DR bauen kann dann ist es PowerVR und an Serie5 glaube ich eher. Wer weiss ob dieser Chip nicht reine Vaporware bleibt, oder sich wie Tridents XP4 ewig verzögert?

Die Frage bleibt nach wie vor, ob PowerVR und/oder S3/Via ihren Chip wirklich HJighEnd setzen (oder eine HigEnd Variante des Chips) und alles rausholen was machbar ist (TBR/DR +256bit DDR2 +0,13µ Kupfer +extreme Taktraten usw) oder sich auf TBR/DR ausruhen und nur mittelmässige Taktraten/Buisbreiten verwenden.

Weiterhin zweifle ich die Effizienz und überhaupt ein TBRDR bei Via/S3 an. Denn 3DLabs Slipstream ist auch kein TBRDR sondern nur ein teilweise DR Renderer. Denn einen TBR/DR zu konzipieren ist afaik nicht so einfach.

Zu QBM: für Grafikkarten nicht sinnvoll (gab schonmal nen Threat)

ist hauiptsächlich für Mainboardcjipsätze/Integrierte Lösungen gedacht (zb als ersatz für DualChannel Rambus/DDR oder Rambus mit 32bit)

just my 2 cents...

Desti
2002-12-19, 11:38:04
Originally posted by RyoHazuki
[...]

Zu den 8 Pipes die jemand erwähnt hat, warum bist du dir so sicher ???
[...]
.

Desti
2002-12-19, 11:39:13
Thx an den S3 Spion Mr Z. :D

ActionNews
2002-12-19, 13:29:49
Originally posted by ow


Nö, Software-Lösung ist unmöglich. Kann es also nicht sein.

Hmm...wieso nicht möglich? Für mich hört sich das eher nach einer Treiberoptimierung an:

Advanced Deferred Rendering
Hierachical Z
In addition to conventional z buffering, where z values are computed and compared at the pixel level, Columbia supports another coarser z buffering scheme in advance of the standard z buffering stage. An incorporated zero-cycle clear and optional deferred rendering (two pass) mode further optimizes color/z-buffer memory traffic and pixelperformance. Deferred rendering virtually eliminates opaque (redundant) back-to-front overdraw and saves also precious conventional z write traffic.

"Optional" sounds like it does not always work. Two-pass sounds like they might be doing this :

1) Render geometry with depth only enabled hence building a Z buffer for the complete scene. Store state and geometry data at the same time (driver level).
2) Render the stored data again this time enabling the Pixel Shader. Since you already have the Z information for the whole scene from pass 1 your early Z should work independent of the render order.

This would effectively remove the EarlyZ dependence on the render order but at which cost ? DoomIII style rendering at the driver level.

They need to store all the scene data but where is this storage pre-VS or post-VS... if its pre-VS it will be a lot of data... and if the driver is doing this its a lot of overhead work (CPU bottleneck).

What about bandwidth... geometry flows into the design twice possibly meaning VS has to work twice as well. The building of the depth information costs pixel shader clocks. They still use a depth buffer that needs to be accessed in external memory.

Dunno just guessing. This all does not look like final material, me thinks someone is building the site but accidentially updated the real thing...

And "silky smooth" ? Thats what my washing powder claims as well... :D ( Kristof Beets (PowerVR) im www.beyond3d Forum)

Natürlich heißt das nicht, dass es so sein muss, aber klingt für mich zumindest plausibel. Oder habe ich Kristof da falsch verstanden? Naja und heutzutage fördern die Marketingexperten so etliche verwirrende Schlagwörter aus der Tasche nur um den DAU zu beeindrucken (siehe Trident XP4 und deren "Tiling Architektur").

CU ActionNews

ActionNews
2002-12-19, 13:36:31
Originally posted by RyoHazuki
(...)

FRAGE !!!

UM WIEVIEL ERHÖT SICH DIR FILLRATE DURCH DEFFERED RENDERING ???

Die Fillrate erhöht sich nicht, sie wird nur besser ausgenutzt. Allerdings lässt sich Videologic gerne dazu hinreißen sowas "hoch" zurechnen, also im vergleich zu einem IMR anzugeben. Da wurden dann schnell mal aus 350MTexel/s schnell 1,4GTextel/s wenn ich mich recht erinnere :)!

CU ActionNews

robbitop
2002-12-19, 13:46:07
bitte schicke mal jmd die PDFs an mich robbitop@yahoo.de
oder per ICQ 128821389 (steht beides im Profile).

aber die beiden ausschnitte (wenn sie so realisiert werden) scheinen als meinte es S3 ernst (nur Frage ich mich wo sie das knowhowund die Ingeneure her nehmen).

bis denne ;-)

Unregistered
2002-12-19, 20:48:37
weiss nicht was alle immer auf S3 rumhacken, ich hab ne supersavage im ntb und die treiber sind erstklassig und auf dem 1GhzPIII+SS16MB+512MBRAMPC133 läuft ofp schneller als auf den meisten desktoprechnern. sprich in 1024 vollkommen flüssig resistance mein ich.

MeLLe
2002-12-20, 10:57:58
Originally posted by Unregistered
weiss nicht was alle immer auf S3 rumhacken, ich hab ne supersavage im ntb und die treiber sind erstklassig und auf dem 1GhzPIII+SS16MB+512MBRAMPC133 läuft ofp schneller als auf den meisten desktoprechnern. sprich in 1024 vollkommen flüssig resistance mein ich.
Gut, in 16bit Farbtiefe, mit Minimal-Details. Und ohne AA/AF. Das mag sein.
In allen anderen Fällen (AA/AF an, Max. Details, 32bit Farbtiefe...) schnauft sich Dein SuperDuperMegaMonsterSavage einen ab, ohne was ergonomisches abzuliefern ...

Henry
2002-12-20, 17:59:31
quark nicht rum. aa/af ist ja wohln witz.
die deteils sind nicht auf minimum!aber selbstverständlich auch nicht auf max!
32bit werd ich testen:P

du hast vollkommen überzogene anforderungen.

BlueRaven
2002-12-22, 01:11:30
Ich glaube S3 hat aus seinen fehler gelernt und bringt jetzt eine Ultimative Desktop Grafikkarte.

Das ist echt Mutig was die machen, ich dachte nicht das ausser ATI & Nvidia noch jemand ein DirectX 9 Chip herstellen könne. S3 <-- no risk no money ;-)

MFG
BlueRaven

ActionNews
2002-12-22, 08:56:37
Also PowerVR würde ich auch einen DX9-Chip zutrauen :)! Wieso sollte auch Trident keinen DX9-Chip bauen können. Die Frage ist doch wann ein solcher Chip fertig ist und wie gut!

CU ActionNews

Doomtrain
2002-12-22, 10:17:54
Originally posted by BlueRaven
Ich glaube S3 hat aus seinen fehler gelernt und bringt jetzt eine Ultimative Desktop Grafikkarte.

Das ist echt Mutig was die machen, ich dachte nicht das ausser ATI & Nvidia noch jemand ein DirectX 9 Chip herstellen könne. S3 <-- no risk no money ;-)



Ich glaube eine solche Karte zu bauen ist gar nicht mal so schwer für einen Chipentwickler. Nur halt die Kosten sind enorm.

SIS hat doch auch einen DX9 Chip angekündigt, PowerVR auch, und von Matrox wirst du nächstes Jahr auch einen DX9 Hammer sehen....

Bis denne

robbitop
2002-12-22, 13:28:20
obs ein Hammer oder ein Jammer wird ist abzuwarten...

Henry
2002-12-22, 17:45:13
Originally posted by robbitop
obs ein Hammer oder ein Jammer wird ist abzuwarten...
im vergleich zur jetztigen bestimmt;D

robbitop
2002-12-22, 18:00:06
ich war sehr enttäuscht was sie aus ihren vielvrsprechenden Specs gemacht hat...

ein NexGen Chip mass sich mit der alten Generation und hat sie nicht in den Boden gerammt, dank massig Designfehlern (ich glaube mal es liegt auch an der Architektur selbst..sie ist nich auf HighSpeed entwickelt...4x4TMU Design/kein XBar..und das zu der Zeit..)

Radeonator
2002-12-23, 09:16:05
Originally posted by Unregistered
weiss nicht was alle immer auf S3 rumhacken, ich hab ne supersavage im ntb und die treiber sind erstklassig und auf dem 1GhzPIII+SS16MB+512MBRAMPC133 läuft ofp schneller als auf den meisten desktoprechnern. sprich in 1024 vollkommen flüssig resistance mein ich.

Darum : KlickMich (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=37431)

:lol: soviel zu diesem erstklassigen GPU´s

Henry
2002-12-24, 23:04:52
Originally posted by Radeonator


Darum : KlickMich (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=37431)

:lol: soviel zu diesem erstklassigen GPU´s

vielleicht wollen die ja die TNT2 schlagen;D, und das haben sie geschafft;D