PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Power VR Kyro


rookz
2006-01-15, 16:40:43
Was ist eigentlich aus der Schmiede geworden?
Ich habe mir eine Kyro2 gekauft (3DProphet 4500 (zum sammeln)) und erinnere mich noch das es vor einigen Jahren hieß das es eine Kyro2 Ultra geben sollte und dann eine Kyro3.
Was ist daraus geworden.
Ich habe da schon ewig nicht mehr von gehört!
Die Kyro 2 war doch gar nicht mal schlecht fande ich :rolleyes:

saaya
2006-01-15, 17:11:36
kyro3 wurde gecancelt, ich glaub es gab irgendwie n problem mit den glaeubigern von power vr, die haben auf einmal satt mittel gestrichen gekriegt und hatten nicht mehr genug kapital um sinnvoll weiter zu arbeiten :(

Raff
2006-01-15, 17:14:22
Die Kyro 2 "Ultra" gibt es doch, z.B. in Form der 3D Prophet 4800. 200-MHz-Takte statt 175 MHz und im Treiber integrierte T&L-Simulation (En-T&L).

MfG,
Raff

rookz
2006-01-15, 17:20:08
Dann sind die Ultras aber verdammt selten!
gibt es benches zu den Ultras? (ich geh mal suchen ;) )

€: kann nichts finden , bzw. gibt es auch nicht viel Info zu der Karte.

mapel110
2006-01-15, 17:42:13
Die Kyro 2 "Ultra" gibt es doch, z.B. in Form der 3D Prophet 4800. 200-MHz-Takte statt 175 MHz und im Treiber integrierte T&L-Simulation (En-T&L).

MfG,
Raff
Ja, nur gabs davon sehr wenige Exemplare, die iirc im Hercules Shop verkauft wurden.

Da steht eigentlich alles weitere.
http://de.wikipedia.org/wiki/PowerVR
Dann sind die Ultras aber verdammt selten!
gibt es benches zu den Ultras? (ich geh mal suchen ;) )

€: kann nichts finden , bzw. gibt es auch nicht viel Info zu der Karte.
Viel hat der Takt nicht gebracht und auch die enT&L Geschichte brachte quasi nichts, wohl weil die Software-Emulation dafür in DirectX schon sehr gut war (hat jedenfalls damals Demirug vermutet).

Raff
2006-01-15, 18:08:25
Ich behaupte mal frech, dass die 14% mehr Takt nur wenig brachten, weil die Kyros damals ähnliche Probleme hatten wie die Voodoos: Sie brauch(t)en eine starke CPU. Was bringen einem die tollsten 400 Mtex/s, die dank TBR-Prinzip extrem effizient genutzt wurden, wenn die CPU keine Daten anschiebt?

MfG,
Raff

mapel110
2006-01-15, 18:17:39
Ich behaupte mal frech, dass die 14% mehr Takt nur wenig brachten, weil die Kyros damals ähnliche Probleme hatten wie die Voodoos: Sie brauch(t)en eine starke CPU. Was bringen einem die tollsten 400 Mtex/s, die dank TBR-Prinzip extrem effizient genutzt wurden, wenn die CPU keine Daten anschiebt?

MfG,
Raff
Nö, das kann ich klar ausschließen. Loewe hatte damals ein recht aktuelles System iirc. Jedenfalls für den Test geeignet. Und er sagte schon als er die Karte im Rechner hatte und mit dem Review schreiben anfing, man solle nicht zuviel erwarten und um etwas Positives im Review erwähnen zu können, wollte er auch auf den TV-Out eingehen. :ugly:


/edit
gefunden :)
focus-tv-out chip
http://www.mitrax.de/phpBB2/viewtopic.php?t=2483&highlight=positives

p.s. interessant, wer schon damals alles dabei war. :)

rookz
2006-01-15, 18:18:10
Ich stand zu der Zeit(~2001) vor der Entscheidung Kyro2 oder Geforce2 Pro ( Haben meine ich beide etwa 300 Mark gekostet) und ich habe mich für die Geforce entschieden und war auch zufrieden, denn ein Bekannter hatte die Kyro und ich fand die Texturen nicht so schön !

Scud
2006-01-15, 20:28:14
Also es war ja auch noch die Rede von einer Kyro4 oder 5, aber in letzter Zeit hört man nichts mehr. Außerdem habe ich noch im Kopf, dass PowerVR keine Chips mehr fertigt sondern nur noch entwickelt und dann sozusagen die Schablonen verkauft...naja ist schon länger her.

rookz
2006-01-15, 21:45:13
Mal sehen ob ich wo eine Kyro2 Ultra Karte bekommen kann!
Dann mache ich mal benches gegen eine Kyro2!

stickedy
2006-01-15, 21:46:49
PowerVR hat noch nie Chips gefertigt, sondern hatte immer Lizenznehmer, die dies übernommen haben. Im PC-Bereich war das zuerst NEC für die Series 1 und 2 (PowerVR PCX1, PCX2 und Neon 250) und dann ST Micro für die Series 3 (Kyro, Kyro II und Kyro II SE (aka Kyro II Ultra). ST Micro hat dann wegen "Konzentration auf die Kerngeschäfte" sie Grafiksparte dicht gemacht nachdem ein Verkauf vermutlich an zu hohen Erlöserwartungen gescheitert ist (VIA war damals im Gespräch und fast hätte es auch geklappt). Ursprünglich hatte ST Micro Series 4 und 5 lizensiert und wollte entsprechende Grafikchips auf den Markt bringen. Jedenfalls wird es den Namen Kyro auch nie mehr geben, da dies eine geschützte Marke von ST Micro ist.

Aktuell hat PowerVR Series 5 (Series 4 - ein DirectX 7 Chip mit Hardware T&L wurde übersprungen) an Sega für Arcade-Maschinen lizensiert. Series 5 ist voll DirectX 9 fähig und besitzt Pixel- und Vertex-Shader 3.0, für den PC-Bereich wird sich aber wohl kein Lizenznehmer mehr finden. Wie es weitergeht ist unbekannt.

Neben dem Arcade und PC-Bereich gibt es mit dem PowerVR MBX noch einen 3D-Chip für Handies, Handhelds und ähnlichem. PowerVR is Pionier und Marktführer in diesem Bereich. Dazu noch seit neuestem der PowerVR SGX, der auf Series 5 basiert und dementsprechend mit mindestens Shadern 3.0 daherkommt. Allerdings auch nur für Handhelds.

Tja, und da gibts dann noch das etwas mysteriöse "Eurasia", welches Intel vor geraumer Zeit lizensiert hat. PowerVR SGX beinhaltet Technik von Eurasia, ist aber nicht Eurasia. Intel hat also anscheinend irgendwas lizensiert, was mit Series 5 zu tun hat (Prototypen existieren wohl schon), aber es nicht wirklich bekannt, was das ist und vor allem wofür. Denkbar ist, dass Intel damit einen DirectX 9 SM 3.0 fähigen IGP für Vista bauen will, aber das ist spekulativ. Ein reiner Grafikchip wird es wohl nicht werden...

Sie dazu auch http://de.wikipedia.org/wiki/PowerVR - http://www.powervr.com/Products/Graphics/SGX/Index.asp# - http://www.mitrax.de/

Mal sehen ob ich wo eine Kyro2 Ultra Karte bekommen kann!
Dann mache ich mal benches gegen eine Kyro2!
Wirst du wohl nicht bekommen! Die Dinger sind quasi nicht verkauft worden und lohnen würd sichs auch nicht, die Kyro II SE ist quasi nicht schneller, max. 5%. Lohnt der Mühe nicht...

up¦²
2006-01-15, 22:04:29
Tony Hawk's Pro Skater 2 mit PowerVR MBX und Dell Axim X50/51v (http://www.pdaground.com/pocket-pc-games-reviews/sport/tony-hawks-pro-skater-2.html)

eigentlich ein muß für pvr-ler :wink:

rookz
2006-01-15, 22:17:42
Wenn sie wirklich nur den Takt geändert haben lohnt es sich wirklich nicht!

Haben will ich sie aber dennoch :D

stickedy
2006-01-15, 22:24:23
"Sie" (also ST Micro, nicht PowerVR) haben nur das gemacht. EnT&L wurde dann später in den 2.x-Treibern eh für alle Chips freigeschalten.

Naja, jedenfalls viel Glück bei der Suche! Ne Voodoo 6000 dürfte einfacher aufzutreiben sein...

rookz
2006-01-15, 22:28:31
Will sie ja nicht heute haben und auch nicht diese Woche!
hauptsache sie liegt in einer anderen Preisregion als die Voodoo ;)

saaya
2006-01-15, 22:45:49
wow interessant stickedy!
eurasia ist bestimmt ne unified shader architectur die intel lizensiert hat oder?

Xmas
2006-01-15, 23:13:14
Aktuell hat PowerVR Series 5 (Series 4 - ein DirectX 7 Chip mit Hardware T&L wurde übersprungen) an Sega für Arcade-Maschinen lizensiert. Series 5 ist voll DirectX 9 fähig und besitzt Pixel- und Vertex-Shader 3.0, für den PC-Bereich wird sich aber wohl kein Lizenznehmer mehr finden. Wie es weitergeht ist unbekannt.

Neben dem Arcade und PC-Bereich gibt es mit dem PowerVR MBX noch einen 3D-Chip für Handies, Handhelds und ähnlichem. PowerVR is Pionier und Marktführer in diesem Bereich. Dazu noch seit neuestem der PowerVR SGX, der auf Series 5 basiert und dementsprechend mit mindestens Shadern 3.0 daherkommt. Allerdings auch nur für Handhelds.

Tja, und da gibts dann noch das etwas mysteriöse "Eurasia", welches Intel vor geraumer Zeit lizensiert hat. PowerVR SGX beinhaltet Technik von Eurasia, ist aber nicht Eurasia. Intel hat also anscheinend irgendwas lizensiert, was mit Series 5 zu tun hat (Prototypen existieren wohl schon), aber es nicht wirklich bekannt, was das ist und vor allem wofür. Denkbar ist, dass Intel damit einen DirectX 9 SM 3.0 fähigen IGP für Vista bauen will, aber das ist spekulativ. Ein reiner Grafikchip wird es wohl nicht werden...
SGX ist Eurasia.
http://www.imgtec.com/news/Release/index.asp?ID=259
The PowerVR SGX cores for wireless applications are part of Imagination’s PowerVR Series5 scalable and fully programmable multi-threaded universal shader graphics and video core family, previously codenamed Eurasia.
Zum Rest sage ich mal lieber nichts.

stickedy
2006-01-16, 06:35:23
Laut Loewe und einer Presseerklärung vom ImcTec gibt es da sehr wohl Unterschiede:


ImgTec gab heute in einer Presseerklärung bekannt, dass die neuesten Prototypen und ihre gesamte Produktpalette in Japan auf der PACIFICO in Yokohama gezeigt wird.

...as well as enjoying demonstrations of Imagination’s latest IP cores. This included a demonstration of prototype silicon of Imaginations’ new programmable shader graphics technology. This technology is being adapted in the PowerVR SGX shader-based graphics and video architecture ...

Es wird also gegenwärtig Eurasia schon in Prototyp Silikon gezeigt, das ist sehr viel mehr, als ich zu diesem Zeitpunkt erwartet hatte. Meiner Meinung nach kann es sich dabei nur um erste Prototypen von intel handeln.
Wie wir wissen hat intel ja vor einiger Zeit Eurasia lizensiert, was sie damit vorhaben entzieht sich bisher unserer Kenntnis, aber die Lizenz bezog sich nicht auf SGX, sondern wirklich Serie 5.
http://www.mitrax.de

Und du hast das bei deinem Link übrigens auch drin stehen:
The PowerVR SGX cores for wireless applications are part of Imagination’s PowerVR Series5 scalable and fully programmable multi-threaded universal shader graphics and video core family, previously codenamed Eurasia. The first cores from this family target mainstream and performance mobile graphics with state-of-the-art support for 2D and 3D and an industry leading feature set that exceeds OGL 2.0 shader and Microsoft Vertex and Pixel Shader Model 3 requirements.
Also muss es noch andere Cores dieser Familie (Eurasia) geben.

zeckensack
2006-01-16, 06:48:14
stickedy ... es gibt da etwas das du vielleicht wissen solltest.
... (http://www.beyond3d.com/forum/showthread.php?t=24877)

*schnellwegrenn*

stickedy
2006-01-16, 07:04:05
OK, dann nehm ich alles zurück und behaupte Xmas weiss was er sagt!! :biggrin:

Trotzdem seltsam formuliert alles und Loewe denk ja auch anderes. Aber nun gut, bei der Firma weiss man ja nie... :rolleyes:

stickedy
2006-01-16, 07:07:09
wow interessant stickedy!
eurasia ist bestimmt ne unified shader architectur die intel lizensiert hat oder?
Hm, also ob unified oder nicht, kann ich nicht sagen, da gibt Spezialisten, die sich viel besser auskennen mit der Architektur. Aber SM 3.0 bei DirectX 9 auf jeden Fall. Wobei es anscheinend doch "nur" PowerVR SGX ist.

Laut Loewe soll es aber auch einen WGF 2.0 / SM 4.0 fähigen PowerVR SGX geben.

Ailuros
2006-01-16, 07:43:04
Ich behaupte mal frech, dass die 14% mehr Takt nur wenig brachten, weil die Kyros damals ähnliche Probleme hatten wie die Voodoos: Sie brauch(t)en eine starke CPU. Was bringen einem die tollsten 400 Mtex/s, die dank TBR-Prinzip extrem effizient genutzt wurden, wenn die CPU keine Daten anschiebt?

MfG,
Raff

Alle GPUs sind fuer bestimmte CPUs ausgelegt. STG4800 war eine reine ST Micro Initiative und deren bloede Idee.

Ailuros
2006-01-16, 07:46:41
Hm, also ob unified oder nicht, kann ich nicht sagen, da gibt Spezialisten, die sich viel besser auskennen mit der Architektur. Aber SM 3.0 bei DirectX 9 auf jeden Fall. Wobei es anscheinend doch "nur" PowerVR SGX ist.

Laut Loewe soll es aber auch einen WGF 2.0 / SM 4.0 fähigen PowerVR SGX geben.

SGX/Eurasia duerfte D3D10 kompliant sein wenn man die jeweiligen PRs auch sorfaeltig durchliest. Natuerlich ist es ein USC.

Altes Block Diagramm:

http://www.pvrgenerations.co.uk/articles/2005/pvrsgx/SGX2big.jpg

Neues Block Diagramm:

http://www.pvrgenerations.co.uk/articles/2005/pvrsgx/SGXbig.jpg

***edit: Xmas hat natuerlich recht (koennte auch nicht anders sein). SGX = Eurasia.

Scud
2006-01-16, 17:38:15
und schon wieder was gelernt...
Schade, schade, dass die kyro nicht mehr zurückkommt, eigentlich hatte sie schon sehr gute Ansätze.
Vielleicht kommt irgendwann doch noch eine Kyro, wer weiß...

saaya
2006-01-17, 01:44:18
naja nur unter andrem nahmen wahrscheinlich... :D
wenn...

Ailuros
2006-01-17, 07:16:04
und schon wieder was gelernt...
Schade, schade, dass die kyro nicht mehr zurückkommt, eigentlich hatte sie schon sehr gute Ansätze.
Vielleicht kommt irgendwann doch noch eine Kyro, wer weiß...


Es ist wohl offensichtlich dass IMG's Konzentration in den letzten Jahren auf andere Maerkte ausserhalb dem PC gefallen ist und dazu natuerlich Maerkte wo der Verkauf von IP optimal ist.

KYRO (wie schon oefters bemerkt) gehoerte als Name ST Micro und ob in der absehbaren Zukunft je eine (standalone) GPU fuer den PC kommen wird will ich ernsthaft bezweifeln.

IMG muss erstmal zumindest den gleichen Erfolg mit der zweiten Generation von PDA/mobile chips erreichen wie mit MBX in der Zukunft. Viel wahres Interesse an 3D gab es im Markt bisher nicht und Konkurrenten wie ATI/NVIDIA hatten eigentlich nur multimedia orientierte chips/IP im Angebot. Kommen die letzteren jetzt zeitig mit potentielleren Angeboten an, kann es durchaus sein dass die Karten vielleicht neu gemischt werden.

Zumindest Intel ist aber offiziell schonmal fuer SGX/Eurasia gesichert.

Raff
2006-01-17, 10:06:42
Alle GPUs sind fuer bestimmte CPUs ausgelegt. STG4800 war eine reine ST Micro Initiative und deren bloede Idee.

Klar sind sie es. Aber dennoch profitieren manche mehr von besseren CPUs als andere. Ich hätte anno 2000 auch nicht gedacht, dass eine Voodoo5 stellenweise noch mit 2+ GHz skaliert. Kann das nicht mal einer testen? Kann ja auch mit einer "normalen" (zur Not einfach etwas übertakten) Kyro 2 geschehen.

MfG,
Raff

mapel110
2006-01-17, 10:48:14
Klar sind sie es. Aber dennoch profitieren manche mehr von besseren CPUs als andere. Ich hätte anno 2000 auch nicht gedacht, dass eine Voodoo5 stellenweise noch mit 2+ GHz skaliert. Kann das nicht mal einer testen? Kann ja auch mit einer "normalen" (zur Not einfach etwas übertakten) Kyro 2 geschehen.

MfG,
Raff
Raff, irgendwann ist die Füllrate zu Ende. Und die wahr sehr schnell am Ende bei den Kyro-Chips. Trilinear war zum Beispiel sehr teuer ohne Texture compression. Da nutzt die eingesparte Bandbreite und das auf die CPU abgewälzte T&L nicht mehr viel.

Raff
2006-01-17, 10:57:54
Ich will Zahlen, Theorie mag ich in dem Fall garnicht. :D Denn die sagt auch, dass eine Voodoo5 nur 1 GHz braucht.

MfG,
Raff

aths
2006-01-17, 11:50:44
Ich will Zahlen, Theorie mag ich in dem Fall garnicht. :D Denn die sagt auch, dass eine Voodoo5 nur 1 GHz braucht.Welche Theorie sagt das?

robbitop
2006-01-17, 12:07:25
Die V5 skaliert doch nur so gut mit den CPUs, da TnL emuliert werden muss. In damaligen Spielen ohne TnL wäre das nicht der Fall gewesen.

Ailuros
2006-01-17, 12:40:32
Klar sind sie es. Aber dennoch profitieren manche mehr von besseren CPUs als andere. Ich hätte anno 2000 auch nicht gedacht, dass eine Voodoo5 stellenweise noch mit 2+ GHz skaliert. Kann das nicht mal einer testen? Kann ja auch mit einer "normalen" (zur Not einfach etwas übertakten) Kyro 2 geschehen.

MfG,
Raff

Kommt ganz drauf an wie man die CPU-Limitierung empfindet. Radeon1, GF2, KYRO, V4/5 wurden als Architekturen mehr oder weniger um den gleichen Zeitpunkt enwickelt. Nach 1.4/5GHz skalierte jegliche dieser GPUs nur noch minimal, aber natuerlich stets von meiner Perspektive, damit es jetzt nicht wieder eine oede Debatte gibt dass hier und da nochmal 4-5 fps dazukommen.

***edit: da Du unbedingt Zahlen sehen willst

http://www.anandtech.com/showdoc.aspx?i=1650&p=7
http://www.anandtech.com/showdoc.aspx?i=1650&p=5
http://www.anandtech.com/showdoc.aspx?i=1650&p=6

up¦²
2006-01-17, 12:50:48
Interessant in dem zusammenhang:
Intel’s GMA 900 employs the tile-based architecture – “Zone Rendering Technology 3” is Intel’s term for it. This technology works like that:

-Before drawing the image, the driver first waits till the application provides all the polygons necessary for the rendering. Then, for each tile (a “zone” in Intel’s terminology, it is a rectangular fragment of the image) lists of triangles that fully or partially cover it are produced.

-When rendering a frame, the graphics processor renders tile after tile, using the polygon lists created at Step 1 as source data, until the entire frame is rendered.

http://www.xbitlabs.com/articles/chipsets/display/i915g_2.html

Ailuros
2006-01-17, 12:56:42
Raff, irgendwann ist die Füllrate zu Ende. Und die wahr sehr schnell am Ende bei den Kyro-Chips. Trilinear war zum Beispiel sehr teuer ohne Texture compression. Da nutzt die eingesparte Bandbreite und das auf die CPU abgewälzte T&L nicht mehr viel.

Geschichten aus der Antiquitaet und so oft wiedergekaut dass rechtmaessig bald jemand wieder meckert darueber. ST Micro hatte einen Vogel als sie die STG5000 aka K3@166MHz fuer die K2@175MHz zeitlich verlegt hat. Mit doppelt so vielen Pipelines, tri-TMUs, DDR und eine T&L Einheit waere das Ding nicht nur zweimal so schnell gewesen, aber es haette auch eine laengere Lebenszeit gehabt. Deshalb ist auch besser wenn IP Firmen so wenig wie moeglich mit dem PC zu tun haben, weil man eben viel zu viel von den bloeden Entscheidungen des Lizenznehmers abhaengt.

Ailuros
2006-01-17, 12:58:09
Interessant in dem zusammenhang:


http://www.xbitlabs.com/articles/chipsets/display/i915g_2.html


Speicheroptimierungen durch tiles gab es schon seit der originalen Voodoo. GMA900 hat gar nichts mit deferred rendering zu tun.

Coda
2006-01-17, 19:54:49
Ich würde als PowerVR versuchen meine IP auch Chipsatzherstellern anzudrehen. Warum macht Intel das eigentlich nicht wenn sie eh eine Lizenz dafür haben? Besser als ihr GMA-Crap muss es sein und für die geringe Speicherbandbreite ist es auch optimal.

Speicheroptimierungen durch tiles gab es schon seit der originalen Voodoo.Das wäre mir aber neu. Ich glaube nicht dass Voodoo schon irgendwelche bandbreitenschonenden Features hatte.

Und hört bitte auf mit dem T&L-Argument. Vertexarbeit ist auf CPUs ganz gut zu machen.

stav0815
2006-01-17, 20:15:30
Ich würde als PowerVR versuchen meine IP auch Chipsatzherstellern anzudrehen. Warum macht Intel das eigentlich nicht wenn sie eh eine Lizenz dafür haben? Besser als ihr GMA-Crap muss es sein und für die geringe Speicherbandbreite ist es auch optimal.


Für schnelle onBoard Chips ist kein Bedarf da.

Ailuros
2006-01-17, 21:28:08
Für schnelle onBoard Chips ist kein Bedarf da.

Im Fall von Intel wuerde es eher um D3D10 Komplianz gehen als alles andere.

Das wäre mir aber neu. Ich glaube nicht dass Voodoo schon irgendwelche bandbreitenschonenden Features hatte.

Es schrieb als nie eine GPU seither in chunks oder tiles seither in den Speicher oder wie?

Gast
2006-01-17, 21:38:31
Und hört bitte auf mit dem T&L-Argument. Vertexarbeit ist auf CPUs ganz gut zu machen.


Dann probier' doch mal UT2003/4 mal auf einer TnL-losen Grafikkarte aus... Ich habe das vor einiger Zeit hier in diesem Unterforum mal gemacht – ohne TnL ist da alles zusammengebrochen.


Q

saaya
2006-01-17, 21:58:19
Für schnelle onBoard Chips ist kein Bedarf da.

weiss ich nicht... das sagen immer alle aber ich glaube dem ist gar nicht so... also ich haette mir ein board mit schneller onboard grafik a la 6600gt geholt... und ich glaub ich waere bei weitem nicht der einzige gewesen!
dann spaeter kann man mit ner graka nachruesten... wunderbar...

sorry is n bisschen ot :D

Simon Moon
2006-01-17, 22:17:24
weiss ich nicht... das sagen immer alle aber ich glaube dem ist gar nicht so... also ich haette mir ein board mit schneller onboard grafik a la 6600gt geholt... und ich glaub ich waere bei weitem nicht der einzige gewesen!
dann spaeter kann man mit ner graka nachruesten... wunderbar...

sorry is n bisschen ot :D

Das Problem ist viel eher der Speicher, als der Chip. Um anständige Performance zu erreichen, müsste man wohl zwangsweise VRAM direkt auf das Mainboard löten. Dies würde es unnötig verteuern. Ist schon gut so wie es ist.

aths
2006-01-17, 23:11:39
Das wäre mir aber neu. Ich glaube nicht dass Voodoo schon irgendwelche bandbreitenschonenden Features hatte.Der Speicher war jedenfalls nicht in Pixelzeilen organisiert.

Coda
2006-01-17, 23:28:50
Dann probier' doch mal UT2003/4 mal auf einer TnL-losen Grafikkarte aus... Ich habe das vor einiger Zeit hier in diesem Unterforum mal gemacht – ohne TnL ist da alles zusammengebrochen.Was für ne Emulation? Die von DX und nVIDIA ist ganz anständig, das EnT&L eher nicht.

Der Speicher war jedenfalls nicht in Pixelzeilen organisiert.Warum nicht? Voodoo war ein Scanline-Renderer, da macht das eigentlich schon Sinn.

Ailuros
2006-01-18, 01:11:51
Was für ne Emulation? Die von DX und nVIDIA ist ganz anständig, das EnT&L eher nicht.

Nur mal so nebenbei aber GMA900 ist auch hier besonders mies.

Warum nicht? Voodoo war ein Scanline-Renderer, da macht das eigentlich schon Sinn.

In was genau war der Speicher auf Voodoos denn organisiert?

Coda
2006-01-18, 01:18:10
Nur mal so nebenbei aber GMA900 ist auch hier besonders mies.Intel bietet soweit ich weiß gar keine T&L-Emulation.

In was genau war der Speicher auf Voodoos denn organisiert?Ich weiß es ja nicht, aber ich denke es war einfach ein linearer Framebuffer. Ich sehe nicht was für andere Strukturen da für einen Sinn gehabt hätten :|

Aber wenn jemand was genaueres weiß dann zecke.

Ailuros
2006-01-18, 01:38:45
Intel bietet soweit ich weiß gar keine T&L-Emulation.

Ja eben. Uebrigens verwirft das Ding auch ueberhaupt keine Geometrie ganz im Gegenteil zum PowerVR.

Das Problem ist viel eher der Speicher, als der Chip. Um anständige Performance zu erreichen, müsste man wohl zwangsweise VRAM direkt auf das Mainboard löten. Dies würde es unnötig verteuern. Ist schon gut so wie es ist.

Uhmmm besondere 3D Leistung sollte man sowieso nicht von einem IGP theoretisch erwarten. Die Speicher-ansprueche mit UMA Architekturen die auf TBDR basieren sind sowieso nicht besonders hoch. Schon gar nicht wenn es zu FSAA kommt, was man zumindest fuer das Aero-Glass Zeug brauchen wuerde.

robbitop
2006-01-18, 09:48:14
Intel bietet soweit ich weiß gar keine T&L-Emulation.
Aber DirectX bietet sie. Sonst würden doch heutige Spiele gar nicht mit nem GMA900 laufen, was sie jedoch tun. Aufgrund der Emu u.A. auch recht langsam.

Demirug
2006-01-18, 10:13:12
Aber DirectX bietet sie. Sonst würden doch heutige Spiele gar nicht mit nem GMA900 laufen, was sie jedoch tun. Aufgrund der Emu u.A. auch recht langsam.

Spiele die auf einem Hardware Vertexshader bestehen laufen damit allerdings nicht.

robbitop
2006-01-18, 10:26:51
Spiele die auf einem Hardware Vertexshader bestehen laufen damit allerdings nicht.
Kann man diesen nicht emulieren lassen? (zur Not mittels externem Tool müsste das ja möglich sein)

Demirug
2006-01-18, 10:33:17
Kann man diesen nicht emulieren lassen? (zur Not mittels externem Tool müsste das ja möglich sein)

Mann muß eben die entsprechend Caps vortäuschen und dann Softwarevertex processing erzwingen.

Xmas
2006-01-18, 15:14:13
In was genau war der Speicher auf Voodoos denn organisiert?
Bei Voodoo 1 und 2 linear in 2MiB-Blöcke. Voodoo3 bot die Option, den Speicher als Tiles zu adressieren (jeweils 128 Bytes * 32).

Gast
2006-01-18, 16:43:14
Kann man diesen nicht emulieren lassen? (zur Not mittels externem Tool müsste das ja möglich sein)

3danalyze kann es ;)

zeckensack
2006-01-18, 17:08:03
Ich weiß es ja nicht, aber ich denke es war einfach ein linearer Framebuffer. Ich sehe nicht was für andere Strukturen da für einen Sinn gehabt hätten :|

Aber wenn jemand was genaueres weiß dann zecke.So genau weiß ich das jetzt auch nicht, aber es spricht einiges dafür, dass der Framebuffer flach und linear ist.

Neben der Tatsache dass die Hardware nur horizontale Spans rendern kann, wofür ein flacher Framebuffer optimal wäre, spricht auch das Verhalten bei "Locks" für eine lineare Organisation.

Natürlich hätte die Voodoo 1 die ganze Welt verarschen können, indem einfach direkt Speichercontroller Adressbits vertauscht werden. Von der restlichen Architektur besteht dazu nur überhaupt kein Grund, und dann halte ich mich an Occam's Razor (http://en.wikipedia.org/wiki/Occam's_razor).

Die endgültige Antworte müsste irgendwo im CSIM-Code herumfliegen.

Coda
2006-01-18, 17:30:20
Was ist CSIM-Code?

zeckensack
2006-01-18, 17:54:30
Was ist CSIM-Code?Chip-Simulator.
Die Software-Simulation (in C) der Voodoo Graphics, die zur Verifikation des Designs genutzt wurde, bevor das Silizium existierte.

edit:
Normalsterbliche dürfen den Simulator nicht haben, vom Quellcode ganz zu schweigen.

Coda
2006-01-18, 23:23:07
Bist du ein Normalsterblicher? ;)

Bis zu welchem Level geht das runter? Wird nur die Funktionalität in einem Software Rasterizer nachgebildet (weil dann sieht man sowas ja nicht) oder gehts auch bis zum Gate-Level?

Demirug
2006-01-18, 23:28:06
Bist du ein Normalsterblicher? ;)

Bis zu welchem Level geht das runter? Wird nur die Funktionalität in einem Software Rasterizer nachgebildet (weil dann sieht man sowas ja nicht) oder gehts auch bis zum Gate-Level?

In der Regel irgendwo dazwischen. Man bildet die einzelnen Teil Module nach. Man muss sich das ähnlich vorstellen wie bei einem Emulator für "alte" Hardware. Da muß ja häufig auch Taktsyncronität sicher gestellt werden.

Xmas
2006-01-19, 01:38:35
Das ganze ist durchaus auch von 3dfx dokumentiert. ;)

saaya
2006-01-19, 01:55:38
Das Problem ist viel eher der Speicher, als der Chip. Um anständige Performance zu erreichen, müsste man wohl zwangsweise VRAM direkt auf das Mainboard löten. Dies würde es unnötig verteuern. Ist schon gut so wie es ist.
hmmm naja, im moment wuerden 128mb + system memory doch schon reichen, so viel kosten 128mb doch garnicht...

stickedy
2006-01-19, 08:30:46
Tja, im OEM-Markt macht es aber schon nen Unterschied, ob ein Mainboard 30,50 € oder 35,60 € kostet...

Und für den Retail-Markt lohnt sich sowas genauso wenig wie irgendwelche High-End AGP-Karten

Thowe
2006-01-19, 12:08:57
Der OEM Markt hat nicht unbedingt Preisprobleme, die meisten Systeme die verkauft werden beruhen nicht unbedingt auf "Schrott", gerade in den westlichen Ländern ist der Preis zwar wichtig, aber auf die letzten paar Euros kommt es dann doch nicht mehr an.

Nun wird aber die Leistung der Grafikkarte auch bei normaler Desktop-Arbeit nicht mehr eine so unwichtige Rolle spielen wie heute, Windows Vista Aero Glass geht ja schon in diese Richtung und würde wohl kaum auf heutige IGPs von Intel laufen.

Kommt nun also in der 2 Jahreshälfte Windows Vista, dann hätte Intel seinen Abnehmern eigentlich nichts interessantes mehr zu bieten, wenn man von der Istsituation ausgeht. Wobei ich zugeben muss, das ich in Vergleich zu früher nur noch wenig Überblick über die Marktsituation habe.

Bietet Intel also nicht die benötigte Leistung, dann müssten OEMs eben eine zustätzliche Grafikkarte verbauen, was auch bedeutet, das sie Boards mit x16 Steckplätzen wählen müssten. So ein Board kostet in der Regel so um die 3,- Euro mehr, dazu kommt dann die, z.b., 6200TC mit 64MB für ~ 25,- Euro (bei Stückzahlen) und mit der Grafikkarte auch eine Baugruppe die Ausfallen kann, rechnen wir dafür noch mal 2,- Euro pro System an mögliche Kosten. Dann sind das rund 30,- Euro mehr an Herstellungskosten.

Da es eben Schwellenpreise gibt, müssten OEMs sich um Alternativen bemühen und würden vielleicht bei ATI und NVIDIA landen. Was allerdings Intel sehr wenig gefallen dürfte und es bliebe noch das Problem mit den Notebooks, wo ein IGP noch wichtiger ist als bei einem Desktop-PC.

saaya
2006-01-19, 14:27:39
Tja, im OEM-Markt macht es aber schon nen Unterschied, ob ein Mainboard 30,50 € oder 35,60 € kostet...

Und für den Retail-Markt lohnt sich sowas genauso wenig wie irgendwelche High-End AGP-Karten

ich wuerde bis zu 50€ mehr ausgeben fuer ein zukuenftiges mainboard wenn es eine onboard grafikloesung hat die ausreicht um momentan aktuelle spiele in 10x7 oder 12x10 zu zocken, und ich bi sicher ich waere nicht der einzige.
ich glaube schon das sich ne kleine serie solcher boards gut verkaufen lassen wuerde... bisher hats nur niemand gewagt.

als 6200 igp boards von nvidia anounced wurden waren alle derbe gespannt und dachten man koennte mit den boards in geringen aufloesungen zocken, und viele waren begeistert.
aber nvidia hat die igp loesung ja echt hart kastriert... der preis ist meiner meinung nach niedriger als er haette sein koennen um mit den boards erflogreich sein zu koennen.

hoeherer preis und mehr grafik power haette sich meiner meinung nach deutlich ausgezahlt!

Coda
2006-01-19, 14:32:46
hoeherer preis und mehr grafik power haette sich meiner meinung nach deutlich ausgezahlt!Unfug. Das Ding ist für OEM-PCs auf denen auch Vista noch mit allem Schnickschnack laufen soll. Kein Spieler kauft sich nen IGP.

Ailuros
2006-01-19, 15:32:24
Unfug. Das Ding ist für OEM-PCs auf denen auch Vista noch mit allem Schnickschnack laufen soll. Kein Spieler kauft sich nen IGP.

Kein Zweifel; die Frage ist aber dann ob tatsaechlich Intel und wie in den low-end professionellen Markt mit IGPs eindringen will. In dem Fall und kommt es auf Intel's Ziele generell an und dann unter der Logik der "synergy" welcher Grad von Leistung genug oder ueberfluessig ist.

SGX soll mit 200MHz/90nm und 9mm^2 die-Flaeche (nach IMG selber) 13.2 MTris/s erreichen und normalerweise sind es bei IMG "echte" Dreiecke. Ich weiss jetzt zwar nicht wieviel Flaeche fuer einen IGP normal waere, aber es duerfte noch genug Platz geben um weiterhin Einheiten zu skalieren.

Coda
2006-01-19, 16:50:46
Also die Vertextransformation muss immer alles transformieren, da ist noch nix mit verwerfen.

zeckensack
2006-01-19, 20:31:59
Also die Vertextransformation muss immer alles transformieren, da ist noch nix mit verwerfen.Ich glaube er meint einfach nur echte Dreiecke.
Andere Hersteller schreiben Dreiecke, zählen aber Vertices, mit der Argumentation im Hinterkopf, dass das bei großen Strips oder Fans theoretisch das gleiche ist. ZB beim NV25 kam das allerdings vorne und hinten nicht hin, weil das Tri-Setup zu langsam war.

Demirug
2006-01-19, 20:39:09
Also die Vertextransformation muss immer alles transformieren, da ist noch nix mit verwerfen.

Damals schon. Inzwischen gilt das nur noch eingeschränkt.

Coda
2006-01-19, 20:44:06
Wie soll man denn vor dem Vertexshader schon wissen was verworfen werden kann?

Demirug
2006-01-19, 20:51:21
Wie soll man denn vor dem Vertexshader schon wissen was verworfen werden kann?

Conditional Rendering. Abhängig von vorhergehenden Ereignissen kann ein Rendercall komplett verworfen werden. Ist ein D3D10 Feature

zeckensack
2006-01-19, 21:02:04
Bzw NVX_conditional_render. Gibt's auf NV40/G70 ab den 60er-Treibern (http://www.delphi3d.net/hardware/extsupport.php?extension=GL_NVX_conditional_render).

Demirug
2006-01-19, 21:03:52
Bzw NVX_conditional_render. Gibt's auf NV40/G70 ab den 60er-Treibern (http://www.delphi3d.net/hardware/extsupport.php?extension=GL_NVX_conditional_render).

Ja nur weigert sich nVidia beharlich die Dokumentation dazu heraus zu geben und als NVX kann es jederzeit wieder verschwinden.

Coda
2006-01-19, 21:05:04
Conditional Rendering. Abhängig von vorhergehenden Ereignissen kann ein Rendercall komplett verworfen werden. Ist ein D3D10 FeatureAch das. Ja gut, das ist ja nichts automatisches.

zeckensack
2006-01-19, 21:13:40
Ja nur weigert sich nVidia beharlich die Dokumentation dazu heraus zu geben und als NVX kann es jederzeit wieder verschwinden.Das (http://www.opengl.org/discussion_boards/cgi_directory/ultimatebb.cgi?ubb=get_topic;f=3;t=011740) sollte als Dokumentation völlig reichen.
Ja, NVIDIA scheint diese Extension aus irgendeinem Grund nicht fertiggestellt zu haben, und ebenfalls ja, sie könnte jederzeit wieder aus den Treibern rausfliegen. Aber sie funktioniert. Wenn sie nicht (mehr) funktioniert, verliert man Performance, aber das Ergebnis bleibt gleich.

Ailuros
2006-01-19, 22:38:50
Ich glaube er meint einfach nur echte Dreiecke.
Andere Hersteller schreiben Dreiecke, zählen aber Vertices, mit der Argumentation im Hinterkopf, dass das bei großen Strips oder Fans theoretisch das gleiche ist. ZB beim NV25 kam das allerdings vorne und hinten nicht hin, weil das Tri-Setup zu langsam war.

IMG's Partner waren alle bisher ziemlich ueberrascht dass die angegeben Raten von IMG fuer die jeweiligen cores ziemlich nahe an der Realitaet lagen. Intel's 2700G (MBX-Lite/no VGP) kommt auf ~830K Tris/sec bei 75MHz.

Im Gegensatz gibt es einen konkurrierenden chip der angeblich fuer 3D ausgelegt ist, der aber bei gleicher Taktrate auf dem devboard gerade noch 60K Tris/sec erreichen kann. Wenn es sogar ein engineer der Firma noch off the record zugibt, desto schlimmer. Im Marketingfirlefanz steht natuerlich 1M Polys/s drin....

Ailuros
2006-01-19, 22:44:03
Also die Vertextransformation muss immer alles transformieren, da ist noch nix mit verwerfen.


Ich hab es zwar schwer solche Diagramme zu entziffern, aber ich sehe ganz links den HSR Prozessor (ISP = image synthesis processor) als ersten:

http://www.pvrgenerations.co.uk/articles/2005/pvrsgx/SGX2big.jpg

davidzo
2006-01-22, 11:45:22
Schade dass es keinen lizenznehmer im pc oder konsolenbereich gibt. eine portable Konsole mit nem Via C7M 1ghz @4watt und nem SGX530 würde die PSP sicherlich das fürchten lehren, wenn überhaupt möglich.
Ich warte ja immer noch auf eine Series5 für den PC. Schoneinmal gut zu wissen, das es PowerVR finanziell gut geht und sie auch technologisch auf dem akuellsten stand sind, selbst wenn für handys so aufwändige pixelshaderhardware außer der funktion die shader auch als videoprozessor zu nutzen wohl wenig bringt.


@Thowe: Dass Intel für Windows Vista nicht doof dasteht haben die schon gesorgt. Intel hat doch den Chipsatzdeal mit ATI gemacht und demnächst kommt schon das zweite Xpress200 mobo mit S775 und DDR2 unterstützung. ATI hat außerdem einen neuen Chipsatz für Intel in der hinterhand, welcher mit einer vollen x1300like quadpipe befeuert werden soll.

Thowe
2006-01-22, 11:56:38
...


@Thowe: Dass Intel für Windows Vista nicht doof dasteht haben die schon gesorgt. Intel hat doch den Chipsatzdeal mit ATI gemacht und demnächst kommt schon das zweite Xpress200 mobo mit S775 und DDR2 unterstützung. ATI hat außerdem einen neuen Chipsatz für Intel in der hinterhand, welcher mit einer vollen x1300like quadpipe befeuert werden soll.

Jein, Intel verkauft ja nicht nur Prozessoren, sie haben ja eben auch das mitlerweile sehr wichtige Paket Centrino mit eigenem Chipsatz und WLAN. Auch gibt es von den wichtigsten Großhändler meines Wissens immer noch keine Rechner mit Chipsätzen außerhalb der von Intel.

Gast
2006-01-22, 12:01:23
Schade dass es keinen lizenznehmer im pc oder konsolenbereich gibt. eine portable Konsole mit nem Via C7M 1ghz @4watt und nem SGX530 würde die PSP sicherlich das fürchten lehren, wenn überhaupt möglich.


der stromverbrauch wäre wahrscheinlich immer noch zu hoch.

robbitop
2006-01-22, 12:03:18
Schade dass es keinen lizenznehmer im pc oder konsolenbereich gibt. eine portable Konsole mit nem Via C7M 1ghz @4watt und nem SGX530 würde die PSP sicherlich das fürchten lehren, wenn überhaupt möglich.
4W allein für die CPU bei ner portablen Konsole?? Wie lange soll man damit spielen können? 5 min?
Nicht grundlos besitzt die PSP SoC Komponenten. Hier liegt CPU und GPU in einem DIE und das Ganze befindet sich im x00 mW Bereich.
SGX ist sicher schneller und fortschrittlicher, als das was eine PSP zu bieten hat. Allerdings müßte das gute Stück auch mal verbaut werden.

Und mal eben eine Konkurrenzkonsole zur PSP zu bauen ... uha. Das wird teuer in der Entwicklung und außerdem muss ein sehr großer Hersteller dahinter stehen, da bei solcher Minimalisten HW ein breiter Devrel Support da sein sollte und eine entsprechende Käuferschicht. Da muss überall optimiert werden.

davidzo
2006-01-22, 14:05:23
Und wie erklärt ihr euch, dass die PSP bei einem erstklassigen LION 1800mah 3,6V Akku schon nach 2std schlapp macht? So richtig sparsam ist die auch nicht. sicherlich wäre die viacpu hart an der grenze, aber wenn man ein etwas grßeres gewicht+akku einkalkuliert könnte das klappen, alternativ müsste man zum xscale greifen, der ist definitiv sparsamer als sonys dreifacher mediaprozessor und leistet zusammen mit SGX sicher mehr. linux gibts für beide und PoverVR sollte die nötigen Mittel haben um OpenGL darauf zum laufen zu bekommen (siehe Doku vom SGX linux unterstützung). Dann benötigt man lediglich eine gute OpenGL Engine eventuell vom pc geportet o.ä. und kann darauf relativ easy eine ganze reihe an netten spielchen entwickeln, texturdaten, polygonmassen und shader sind bei so wenig auflösenden games um ein zigfaches kleine rund schneller zu erledigen als bei nem richtigen pc game. Sicherlich bräuchte man einen hersteller der einige Millionen locker mact und die Konsole würde vermutlich dem preis eines highendPDAs näher kommen als dem der PSP, aber nen markt gäbe es afaik. durch einspaarung von dem blöden UMDdrive un nutzung einfacher CFcards ließe sich akkulaufzeit gewinnen und der preis drastisch reduzieren, eine Lizenzkontrolle könnte man über multiplayergaming im Internet bei den meisten spielern erzwingen, kostenlose softwareupdates und bugfixes die sich nur automatisch online installieren köntnen ein anreiz dafür sein.
Mein Tungsten E2 hält mit viel kleinerem akku mehrere Wochen bei normalem Gebrauch und bei durchgängigem 3dspielen selbst übertaktet locker seine 8std.

Gast
2006-01-22, 14:13:30
Und wie erklärt ihr euch, dass die PSP bei einem erstklassigen LION 1800mah 3,6V Akku schon nach 2std schlapp macht?


macht einen durchschnittlichen verbrauch von 3,25W des GANZEN gerätes, wenn man davon ausgeht dass der akku kaum zu 100% geladen ist eher um die 3W.

bei dir braucht die cpu alleine schon 4W, dazu kommt noch mal eine GPU, speicher, nicht zu vergessen der bildschirm...

wenn du alle 15min akku-wechseln willst geht das vielleicht ;)

robbitop
2006-01-22, 14:19:48
Problem ist immer, das Maximum aus einer HW herauszuholen. Sieht man sich den PC an und vergleicht ihn mit den Daten einer Konsole sieht man, was man nach reichlicher Optimierung auf eine einzige HW herausholen kann und wie sehr die Entwickler mit den PC Ressourcen asen.
Dazu braucht es allerdings eine recht große Marktmacht und einen kräftigen Hersteller dazu. Das muss mehr sein als irgendein Port.

dmxfighter
2006-01-22, 14:25:51
Laut Loewe und einer Presseerklärung vom ImcTec gibt es da sehr wohl Unterschiede:


http://www.mitrax.de

Und du hast das bei deinem Link übrigens auch drin stehen:

Also muss es noch andere Cores dieser Familie (Eurasia) geben.



stimmt sogar hab ich auch gelesen

Thowe
2006-01-22, 14:50:37
Der größte Stromfresser der PSP ist das optische Laufwerk. Wenn man Musik vom MS Duo hört oder auch Videos damit schaut, läuft die PSP deutlich länger. Gleiches gilt auch für Spiele, doch die meisten greifen irgendwie recht häufig aufs Laufwerk zurück. Nimmt man allerdings irgendwelche Homebrew Emulatoren und spielt damit, was so oder so immer eine recht hohe CPU Last erzeugt, dann sind die Laufzeiten auch besser als von Disk.

Nebenbei dürfte gerade die CPU deutlich effizienter sein als der VIA C3, der leider schnarchlahm ist. Bei der Grafik sehe ich natürlich massive Vorteile für PowerVR.

Ailuros
2006-01-22, 14:56:49
SGX ist sicher schneller und fortschrittlicher, als das was eine PSP zu bieten hat. Allerdings müßte das gute Stück auch mal verbaut werden.

Intel hat wohl mit der Integration schon angefangen. Darum geht es aber trotztdem auch nicht. Es muesste eine Firma geben die erstmal den Willen und die Resourcen hat mit SONY und dessen PSP zu konkurrieren. Ohne fette Resourcen und Marketing-gelder geht das nicht so mir nichts dir nichts.

aths
2006-01-22, 18:25:07
Conditional Rendering. Abhängig von vorhergehenden Ereignissen kann ein Rendercall komplett verworfen werden. Ist ein D3D10 FeatureIst and der Auswertung jenes Ereignisses die CPU beteiligt?

Da jeder Drawcall CPU-Last erzeugt sollte man doch bemüht sein, eine Szene mit möglichst wenig Calls zu rendern. Damit sinkt die Wahrscheinlichkeit, einen komplett Call sparen zu können.

Was beinhaltet so ein Call? Einstellung von Texturen, Shadern, und dann die Liste mit den weiteren Befehlen/Vertexdaten? Gibts in D3D10 endlich die Möglichkeit, den Texturwechsel zu verschnellern?

RLZ
2006-01-22, 18:29:19
Ist and der Auswertung jenes Ereignisses die CPU beteiligt?
Nein.

Gibts in D3D10 endlich die Möglichkeit, den Texturwechsel zu verschnellern?
Es gibt Texturarrays, so dass Texturwechsel wesentlich seltener notwendig sind.

aths
2006-01-22, 18:40:11
Nein.Gut :) Aber das heißt dann ja auch, dass die CPU den Drawcall trotzdem vorbereitet und die Daten zur Graka sendet, nur dass jene den Call einfach übergeht, oder?

Es gibt Texturarrays, so dass Texturwechsel wesentlich seltener notwendig sind.Das klingt nach endlich mal einer durchdachten Lösung. Müssen D3D10-Karten auch virtuelle Speicheradressierung beherrschen?

RLZ
2006-01-22, 18:55:52
Gut :) Aber das heißt dann ja auch, dass die CPU den Drawcall trotzdem vorbereitet und die Daten zur Graka sendet, nur dass jene den Call einfach übergeht, oder?
Ich hab jetzt nochmal in der SDK nachgelesen und bin da nicht mehr ganz sicher, ob es nicht doch eine Treiberangelegenheit sein könnte.
Die Anwendung kann aber auf den Predictionhint zugreifen ohne auf das Ergebnis warten zu müssen. Allerdings gibt es auch keine Garantie, dass es zum benötigten Zeitpunkt schon vorliegt. In dem Fall wird das ganze Mesh gerendert.
Da kann man sich eine Realisierung in GPU, wie auch in Treiber vorstellen.
Das klingt nach endlich mal einer durchdachten Lösung. Finde ich auch. Allerdings habe ich noch nichts dazu gefunden, ob es eine maximale Anzahl von Texturen pro Array und eine maximale Anzahl von Texturearrays pro Shader gibt.
Müssen D3D10-Karten auch virtuelle Speicheradressierung beherrschen?
Keine Ahnung...

Demirug
2006-01-22, 19:27:59
Was verstehst du in diesem Zusammenhang unter virtueller Speicheradressierung?

Es können 128 Resource, 16 Sampler und 16 Kostanten Buffer an einen Shader gebunden werden.

aths
2006-01-22, 19:42:44
Darunter verstehe ich, dass man mehr Speicher adressieren kann als die Karte hat, und jene selbstständig ein- und auslagert. Das heißt, die Speicheradressen die der Treiber nutzt stimmen mit den physikalischen Adressen nicht überein, da eine Memory-Unit mappt. Was ist ein Resource-Buffer? Kann man pro Buffer nur ein natives Datenformat nutzen oder sind auch "structs" möglich? Auch D3D10 erlaubt nur 16 Sampler??

Demirug
2006-01-22, 19:56:04
Darunter verstehe ich, dass man mehr Speicher adressieren kann als die Karte hat, und jene selbstständig ein- und auslagert. Das heißt, die Speicheradressen die der Treiber nutzt stimmen mit den physikalischen Adressen nicht überein, da eine Memory-Unit mappt. Was ist ein Resource-Buffer? Kann man pro Buffer nur ein natives Datenformat nutzen oder sind auch "structs" möglich? Auch D3D10 erlaubt nur 16 Sampler??

Der speicher ist vollkommen virtualisiert. Im Zweifel wird sogar auf die Festplatte ausgelagert. Das geht aber auch schon mit D3D9EX

Bei D3D10 ist alles nur noch eine Resource und man hat einen Sicht darauf die auch das Format enthält. Das Format muss dabei eines aus einer vorgegeben Liste sein.

Die Sampler bei D3D10 sind nicht mehr fest an eine Texture gebunden sondern man kann sie mit jeder der 128 Resourcen nutzten. Der Sampler definiert dabei nur das genaue Verhalten beim Auslesen (Filter usw.).

RLZ
2006-01-22, 19:57:54
Was ist ein Resource-Buffer? Kann man pro Buffer nur ein natives Datenformat nutzen oder sind auch "structs" möglich? Auch D3D10 erlaubt nur 16 Sampler??
Arg zu langsam.

Vielleicht sollte man bei mehr Fragen einen eigenen Thread aufmachen.

vinacis_vivids
2021-02-25, 16:13:39
Ich muss sagen ich bereue es die Kyro II 4500 nicht gekauft zu haben und stattdessen damals Aufgrund der wenigen Informationen das Geld in Nvidia`s Rachen geschmissen zu haben für ne deutlich langsamere Geforce 2 MX mit schlechterer Technik.
Zur meiner Verteidigung muss ich auch sagen dass die Informationszugriffe schon damals sehr sehr Nvidia-lastig waren und mein Wissen noch nicht so stabilisiert und tief verwurzelt ist wie heute.
Was wäre die Welt mit noch einem dritten oder vierten GPU-Hersteller? Natürlich viel besser und viel fortschrittlicher.
Heutzutage kann der Marktführer (wie Nvidia) Müll bringen und es wird noch von den Redaktionen als Fortschritt gefeiert. Traurige Technikwelt.

Alter Löwe
2021-02-25, 18:21:44
Ich muss sagen ich bereue es die Kyro II 4500 nicht gekauft zu haben und stattdessen damals Aufgrund der wenigen Informationen das Geld in Nvidia`s Rachen geschmissen zu haben für ne deutlich langsamere Geforce 2 MX mit schlechterer Technik.
Zur meiner Verteidigung muss ich auch sagen dass die Informationszugriffe schon damals sehr sehr Nvidia-lastig waren und mein Wissen noch nicht so stabilisiert und tief verwurzelt ist wie heute.
Was wäre die Welt mit noch einem dritten oder vierten GPU-Hersteller? Natürlich viel besser und viel fortschrittlicher.
Heutzutage kann der Marktführer (wie Nvidia) Müll bringen und es wird noch von den Redaktionen als Fortschritt gefeiert. Traurige Technikwelt.

Ich bereue es auch etwas, einfach weil die Firma Cool war und sie interessante Techniken gebracht haben (Hidden Surface Removal und Tile Based Rendering) Hab aber zumindest bei einem Kumpel eine Kyro 2 verbaut.

Wäre schön hätten wir mehr Auswahl bei den Herstellern. 99/00 war doch die geilste Zeit mit 3dfx Voodoo3, nvidia TNT2, Matrox g400,S3 Savage, ATI Rage. Da war noch Auswahl!
Ne G400 hatte ich auch ins Auge gefasst mich aber für die V3 3000 entschieden, bereue es auch bisschen keine gehabt zu haben. Durfte aber mal ein System aufsetzen wo eine drin war und konnte sie live begutachten:)

Wuge
2021-02-25, 19:09:47
Ich hatte eine :)

Shink
2021-03-31, 20:48:29
Hmm und die goldene Schaufel geht an...
Jedenfalls: Tatsächlich hatte ich in dieser Zeit eine S3 Savage 2000 und dann später eine Kyro.

Tatsächlich fand ich die Kyro ziemlich langweilig. Die S3 war mal superschnell und hatte Dinge wie z.B. Triple Buffer ohne Performanceverlust und Texturen sahen (aufgrund einer falschen Konfiguration beim Mipmapping) recht scharf aus. Dafür hat jede Menge nicht funktioniert und wehe, man hat ein anderes Betriebssystem als Win 9x verwendet.
Bei der Kyro konnte man Dinge wie Supersampling oder AF nutzen, aber... eigentlich war sie dafür viel zu langsam. Tatsächlich hätte ich mir eine G400 holen sollen, alleine wegen Dungeon Keeper 2: https://www.anandtech.com/show/380/7

Meridian12
2021-03-31, 21:54:05
Hatte die Kyro mir damals gekauft und war mehr als zufrieden mit der Karte. War ein klasse Teil und fast so gut wie die doppelt so teure NVIDIA Spitzenkarte.

Hat bei mir paar Jahre durchgehalten, bis ich sie gegen eine NVIDIA 8800 getauscht habe. Die war tatsächlich noch besser :D

Aber habe meine Kyro II gemocht.

Raff
2021-03-31, 22:40:41
Ich muss sagen ich bereue es die Kyro II 4500 nicht gekauft zu haben und stattdessen damals Aufgrund der wenigen Informationen das Geld in Nvidia`s Rachen geschmissen zu haben für ne deutlich langsamere Geforce 2 MX mit schlechterer Technik.
Zur meiner Verteidigung muss ich auch sagen dass die Informationszugriffe schon damals sehr sehr Nvidia-lastig waren und mein Wissen noch nicht so stabilisiert und tief verwurzelt ist wie heute.
Was wäre die Welt mit noch einem dritten oder vierten GPU-Hersteller? Natürlich viel besser und viel fortschrittlicher.
Heutzutage kann der Marktführer (wie Nvidia) Müll bringen und es wird noch von den Redaktionen als Fortschritt gefeiert. Traurige Technikwelt.

Früher waren die Tester irgendwie speziell. Alles, was neu war, wurde als bahnbrechend dargestellt. Und trotzdem war's nach sechs Monaten schon wieder veraltet. Das Zeug war vergleichsweise spottbillig - gerade die Klasse Kyro, GF2 MX oder V4 4500. Vieles, was damals geschrieben wurde, kann ich auch nicht nachvollziehen. Vor allem das Gelaber um 32 Bit ... was haben wir hier schon Diskussionen geführt. ;)

Die Kyro-Chips brauchten eine fette CPU, um aufzublühen. Dann hat der Effizienzhammer schon mal eine ausgewachsene Geforce 2 vermöbelt. Das war aber die Ausnahme. Der extrem hübsche 16-Bit-Modus, welcher sogar 3dfx' 22-Bit-Filter überflügelte, half leider nur wenig, denn da der Kern intern mit 32 Bit Genauigkeit rechnete, beschleunigte das gegenüber nativem 32 Bit kaum.

In die Kategorie Fakten gehören jedoch die Treiberprobleme der Kyro-Chips. Ein guter Freund hatte um 2001 eine Kyro 2 und ich war live dabei, wie er mit Grafikfehlern und nicht funktionierenden Treiberschaltern zu kämpfen hatte. Sicher war Nvidia nicht fehlerfrei (und ist es bis heute nicht, nebenbei bemerkt), aber meine Geforce 3 lehrte mich damals, was Fortschritt ist - gegenüber der Voodoo 3 zuvor war das schon eine andere Liga. Mangelnde Glide-Kompatibilität und absolut null Retrofaktor ausgenommen.

Insgesamt wäre es natürlich unfassbar geil, wenn uns sowas nochmal passieren würde. Intel wird es versuchen. Das ist aber nicht ansatzweise mit der "Butze" ST Microelectronics bzw. PowerVR von damals vergleichbar. David mit Skill gegen Goliath mit Gear. ;)

MfG
Raff

Meridian12
2021-03-31, 23:17:47
Sorry, ich hatte bei der Kyro2 nie irgendwelche Treiberprobleme.Lief alles immer einwandfrei.

MadManniMan
2021-04-01, 08:47:08
... ich erinnere mich daran, immer mal wieder, per Software TnL gefaket haben zu müssen, damit einige Titel überhaupt starteten.

Raff
2021-04-01, 08:53:50
Das war aber erst nach 2002, als Voodoo und Kyro so langsam nicht mehr für neue Spiele tauglich wurden.

MfG
Raff

MadManniMan
2021-04-01, 09:20:17
Hm ... wie war das mit BF42? Ich weiß noch, dass einer von uns mit einer V1 (!) TnL faken musste und die Performance war ... nicht gut. Aber musste ich das mit meiner Kyro 2?

Raff
2021-04-01, 09:28:52
Yep, da brauchtest du EnT&L, also eine Funktion des Treibers, die Spielen das Vorhandensein von HTnL vorgaukelt. 3dfx hat eine solche TnL-Emulation (Geometry Assist) ebenfalls in die letzten Treiber gepfuscht, die leider nicht immer funktionierte. Daher musste man hin und wieder mit dem Tool 3DAnalyze herumkaspern - mit einer V1 lief BF1942 aber niemals, das geht IIRC nicht mal auf einer V3, weil Tonnen an Features fehlen. ;)

MfG
Raff

Crazy_Borg
2021-04-01, 10:15:02
Hatte auch längere Zeit eine KYRO II, und Treiberprobleme hatte ich damit kaum.
Ja, T&L musst man über Treiber faken, da hat nVidia "tolle" Lobbyarbeit bei den Spieleentwicklern gemacht um das feature als Pflicht einzubinden ohne das es eine für den Spieler brauchbare Verbesserung brachte.

Das einzige Spiel an welches ich mir erinnere, was damals auf KYRO Karten nicht korrekt lief, war C&C Renegade.
Die KYRO Karten waren damals echt Preis/Leistungskracher.

MadManniMan
2021-04-01, 10:15:28
Stimmt! 3DAnalyze hieß das Ding ...

Und doch, auch Ronny konnte mit der V1 damals mitspielen, ich schwör!

DevilX
2021-04-01, 10:19:00
Muss ich Zustimmen die Kyro2 lief topp!

mboeller
2021-04-01, 10:53:45
Insgesamt wäre es natürlich unfassbar geil, wenn uns sowas nochmal passieren würde. Intel wird es versuchen. Das ist aber nicht ansatzweise mit der "Butze" ST Microelectronics bzw. PowerVR von damals vergleichbar. David mit Skill gegen Goliath mit Gear. ;)

MfG
Raff

könnte passieren, ist aber unwahrscheinlich:

https://www.imaginationtech.com/powervr-gpu/img-bxt-32-1024-mc4/
https://www.imaginationtech.com/blog/back-in-the-high-performance-game/

und
https://www.imaginationtech.com/blog/rosc-for-inferencing/
es geht ein wenig um die Internas des Series4 NNA

Corny
2021-04-01, 13:25:59
Stimmt! 3DAnalyze hieß das Ding ...

Und doch, auch Ronny konnte mit der V1 damals mitspielen, ich schwör!


BF1942 kam im September 2002, brauchte eine Grafikkarte mit mindestens 32MB. Das lief niemals auf einer V1. Vielleicht war die V1 neben einer potenteren Grafikkarte im System, aber es hat nicht BF1942 gerendert.

HOT
2021-04-01, 13:41:42
Die Kyro-Karten waren anfangs massiv von Treiberproblemen geplagt, das bekam PowerVR aber nach und nach in den Griff. Es lief dann aber die Zeit der DX7-Karten langsam ab, die Geforces und Radeons hielten aber auch einige DX8-Titel mit Fallback noch aus, während die non-TnL-Karten langsam doch zu schwach wurden.

Aber 16Bit Farbtiefe Raff? Ernsthaft? Das war schon zu 3DConcept-Zeiten ein Voodoo-FB-Mythos, dass das reichen würde :freak:.
Truecolor (also 24Bit) mit 8 Transparenzbits (damals ja alles Int!) war schon ein gewaltiger Fortschitt in der Optik der Spiele, das beherrschten die Voodoos halt nicht, aber alle anderen.

Raff
2021-04-01, 13:45:26
True-Fps-Killing-Color wurde seit 1998 mit Hype bedacht, war aber erst im Jahr 2000 relevant, da Spiele mehr Rundungsfehler zeigten und Hardware verfügbar war, die selbst mit dem typischen 50-Prozent-Drop noch ordentliche Bildraten erzeugen konnte. Als Voodoo-Nutzer verstand man den Hype gerade vor dem Millennium nicht, da besagter 22-Bit-Filter gerade unter Glide eine Qualität erreichte, die 32 Bit fast nie vermissen ließ, aber stets geil lief. Das wird gern vergessen oder einfach nicht beachtet. Mit lilastichigem Riva-16-Bit oder superbröseligem Rage-16-Bit schrie man da natürich lauter. ;) Und VSA-100 beherrscht natürlich auch 32 Bit.

MfG
Raff

HOT
2021-04-01, 13:47:28
Naaaa, da lass ich mal den Nostalgiefaktor gelten. Aber schon TNTs und Savages konnten schon 32Bit ohne Einschränkungen. Riva128 und RageII/Pro oder sowas waren eh keine ernsthafte Konkurrenz für Voodoo.

Raff
2021-04-01, 13:53:28
"Ohne Einschränkungen" ist gut. :ugly: Denn ob ich nur 15 statt 30 Fps habe, ist durchaus 'ne Einschränkung, zumal das nicht zu einem vergleichbaren Qualitätsgewinn führte (aber immer kostete). Hier gibt's paar post-zeitgenössische Ausführungen dazu: https://www.3dcenter.org/artikel/3dfx-voodoo5-6000-review/22-bit-postfilter-z-buffer :)

MfG
Raff

Crazy_Borg
2021-04-01, 15:19:06
Leistungseinbussen mit 50% für 32 Bit Rendering?
So schlecht waren die meisten Karten dann doch nicht. Eher 20-30%.
Forsaken und Incomming in 16 Bit oder 32 Bit waren sogar fps-technisch gefühlt gleichauf.
Wir haben damals auf der TNT1 eines Kumpels oft TOCA 2 oder N.I.C.E. 2 gespielt, welche beide Modi boten, und der 32 Bit Modus war jeweils deutlich hübscher, aber frass nicht die Hälfte der FPS weg. Lag aber auch daran dass frühe Spiele die Texturen auch nur in 8 Bit vorliegen hatten, nur selten mal in 16 Bit, die frassen im 32 Bit Farbmodus dann noch nicht viel Bandbreite weg.
Es gab auch Spiele, wo man 32 Bit Texturen direkt forcen konnte. Da brachen dann natürlich aufgrund der Datenmengen die Karten reihenweise weg, die Savages allein weil S3TC nicht für 32 Bit Texturen griff. Das waren Einzelfälle, 16 Bit Texturen haben sich echt lange gehalten.

MadManniMan
2021-04-01, 15:39:37
BF1942 kam im September 2002, brauchte eine Grafikkarte mit mindestens 32MB. Das lief niemals auf einer V1. Vielleicht war die V1 neben einer potenteren Grafikkarte im System, aber es hat nicht BF1942 gerendert.

Ich erinnere mich gut daran, dass der Ärmste mit der V1 immer wieder an nicht dargestellter Geometrie hängen blieb - vielleicht war das ein Ausweg?

Corny
2021-04-01, 15:55:31
Ich erinnere mich gut daran, dass der Ärmste mit der V1 immer wieder an nicht dargestellter Geometrie hängen blieb - vielleicht war das ein Ausweg?


Wenn nur ein Teil gerendert wurde, war die Performance bestimmt besser. War ja auch ein wenig das Prinzip der Kyro - nur das man dort alles gesehen hat was man sehen wollte :freak:

robbitop
2021-04-01, 16:10:57
Leistungseinbussen mit 50% für 32 Bit Rendering?
So schlecht waren die meisten Karten dann doch nicht. Eher 20-30%.
Forsaken und Incomming in 16 Bit oder 32 Bit waren sogar fps-technisch gefühlt gleichauf.
Wir haben damals auf der TNT1 eines Kumpels oft TOCA 2 oder N.I.C.E. 2 gespielt, welche beide Modi boten, und der 32 Bit Modus war jeweils deutlich hübscher, aber frass nicht die Hälfte der FPS weg. Lag aber auch daran dass frühe Spiele die Texturen auch nur in 8 Bit vorliegen hatten, nur selten mal in 16 Bit, die frassen im 32 Bit Farbmodus dann noch nicht viel Bandbreite weg.
Es gab auch Spiele, wo man 32 Bit Texturen direkt forcen konnte. Da brachen dann natürlich aufgrund der Datenmengen die Karten reihenweise weg, die Savages allein weil S3TC nicht für 32 Bit Texturen griff. Das waren Einzelfälle, 16 Bit Texturen haben sich echt lange gehalten.
Wenn es kaum Leistungsverlust gab, dann war man mit 16 bit wahrscheinlich noch im CPU Limit. ;)
32 bit verdoppelt die Anforderung der Bandbreite an den Framebuffer. Die TBDRs hat das wegen ihrer onchip Tilebuffer nicht gestört.

ZT waren auch die TMUs und ROPs noch nicht singlecycle 32 bit. Entsprechend wurde dann ggf auch die Füllrate halbiert. Je nach Aufbau der GPU.

Crazy_Borg
2021-04-01, 19:19:13
20-30% würde cih klaum als "kaum" bezeichnen. :freak:
Bei Forsaken und Incoming könnte man natürlich auf irgendwelche Enginetricks spekulieren.
Mit Incoming konntest du sogar SiS Grafikkarten verkaufen. ;D

Das viele Karten damals intern nicht 32 Bit single-cycle rechneten will ich auch nicht bestreiten. Nur führt eine halbierte Füllrate automatisch gleich zur halber Framerate? :confused:

Raff
2021-04-02, 11:17:20
20-30 Prozent Verlust von 16 auf 32 Bit erreichte man erst mit Modellen auf Geforce-Leistungsniveau, früher war das mehr. Einfach mal ab hier durchklicken und die Benchmarks vergleichen, es gibt stets 1.024×768 mit 16 und 32 Bit - und 1.600×1.200, aber da stirbt dann eh alles: https://www.3dcenter.org/artikel/3dfx-voodoo5-6000-review/benchmarks-heavy-metal-fakk2 ;)

MfG
Raff

aths
2021-04-03, 01:08:49
32-Bit-Framebuffer ... waren gut für Screenshots :D

Die aufpolierte 16-Bit-Ansicht der Voodoo-Karten wurde auf Screenshots ja leider nicht festgehalten. GeForce 2 MX hatte je nach Modell genug Dampf um gängige Spiele in 32 Bit zu zocken. Aber TNT? Eher nicht, wenn man es flüssig mag.

Leider gibts oft den Denkfehler, dass 32-Bit-Rendering doppelt so viele Bits nutzt. Die Farbe wurde aber nur mit 24 Bit gespeichert.

Simon Moon
2021-04-05, 23:38:04
20-30 Prozent Verlust von 16 auf 32 Bit erreichte man erst mit Modellen auf Geforce-Leistungsniveau, früher war das mehr. Einfach mal ab hier durchklicken und die Benchmarks vergleichen, es gibt stets 1.024×768 mit 16 und 32 Bit - und 1.600×1.200, aber da stirbt dann eh alles: https://www.3dcenter.org/artikel/3dfx-voodoo5-6000-review/benchmarks-heavy-metal-fakk2 ;)

MfG
Raff


Also ich konnte UT auf 1600*1200 mit meiner Kyro 2 zocken. Da konnte man dann doch sogar noch irgendwelche speziellen Texturen nutzen, wenn ich mich richtig erinnere.

Crazy_Borg
2021-04-06, 08:23:15
Laut dem Benchmark ja knapp 30 fps. Damals (tm) war man ja schon fast mit 24 fps aufwärts zufrieden.

Die KYRO 2 unterstützte bereits S3TC.
Die Highres Texturen von UT waren später ja auch unter Direct3D und OpenGL möglich, und nicht nur unter S3metal.

Der verlinkte Artikel zeigt ja eine die angesprochenen 20-30% Verlust bei 32Bit unter Geforce Karten.
Zu TNT 1 und 2 finde ich im Netz keine zeitgenössischen Benchmarks. Die welche online sind, vergleichen die gegen Voodoo 2 & 3 und verzichten aus "Gründen der Fairness" :freak: auf 32 Bit Tests.

Simon Moon
2021-04-06, 17:56:41
Bei Pings von ~200 - 300ms mit 56k waren auch nicht die FPS das Problem ^^

Crazy_Borg
2021-04-07, 10:59:48
Auch wieder wahr. :biggrin:

Leute haben damals teilweise mit >=400er Ping CS gespielt. Kannste heute keinem mehr erzählen, sowas. Bei unter 120 warst du schon der King.

Modulor
2021-06-21, 00:49:56
Ich war damals Mod in Loewes "Deferred Power" Forum (Mitrax.de). Er war unbestritten Deutschlands PowerVR Guru schlechthin mit Kontakten nach England. Auf der Cebit 2002 hatten wir beide eine 30 minütige "Audienz" in der Backstage Box bei Imagination Technologies mit dem damaligen Cheftentwickler David Harold um uns über den bevorstehenden launch des "Kyro 2 Se" zu informieren.
Es waren sehr spannende Zeiten, die neuen Grafikkarten eröffneten den Spieleentwicklern neue und immer spektakulärere Darstellungsmöglichkeiten. Danke auch an Leonidas und das 3DCenter dass bereits damals zur Jahrtausendwende schon mit fundiertem Wissen, Linksamlungen, spannenden reviews und natürlich einem Forum voll mit genau so Verrückten wie man selber einer war die eigene Begierde gestillt hat!
Loewe ist im Mai 2019 verstorben, seine Seite offline. Meine 3 Karten mit PowrVR Chips stauben irgendwo in Kisten vor sich hin.
RIP Kyro.

=Floi=
2021-06-21, 02:45:10
warum stellten nv und amd erst so spät auf TBDR um?
Wartete man ab, bis patente ausliefen?#

Ich finde diese technilogie war der größte sprung und key changer für bessere grafik in der modernen grafik.

MadManniMan
2021-06-21, 09:48:45
Loewe ist im Mai 2019 verstorben, seine Seite offline.

RIP :frown:


Die Kyro 2 SE mit (IIRC) 225/225 MHz hätte nochmal ordentlich drauf gelegt.

Tigershark
2021-06-21, 10:03:45
RIP :frown:


Die Kyro 2 SE mit (IIRC) 225/225 MHz hätte nochmal ordentlich drauf gelegt.

Schließe mich an. Im mitrax.de Forum war ich damals auch gerne aktiv. Hach, was habe ich zu Zeiten der Kyro 1 über jedes MHz mehr an Takt gefreut und gleich mit 3DMark gegengetestet... :biggrin:

aths
2021-06-22, 02:20:12
Wie "Loewe ist verstorben", stimmt das? Quelle?