PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Power VR Kyro


rookz
2006-01-15, 16:40:43
Was ist eigentlich aus der Schmiede geworden?
Ich habe mir eine Kyro2 gekauft (3DProphet 4500 (zum sammeln)) und erinnere mich noch das es vor einigen Jahren hieß das es eine Kyro2 Ultra geben sollte und dann eine Kyro3.
Was ist daraus geworden.
Ich habe da schon ewig nicht mehr von gehört!
Die Kyro 2 war doch gar nicht mal schlecht fande ich :rolleyes:

saaya
2006-01-15, 17:11:36
kyro3 wurde gecancelt, ich glaub es gab irgendwie n problem mit den glaeubigern von power vr, die haben auf einmal satt mittel gestrichen gekriegt und hatten nicht mehr genug kapital um sinnvoll weiter zu arbeiten :(

Raff
2006-01-15, 17:14:22
Die Kyro 2 "Ultra" gibt es doch, z.B. in Form der 3D Prophet 4800. 200-MHz-Takte statt 175 MHz und im Treiber integrierte T&L-Simulation (En-T&L).

MfG,
Raff

rookz
2006-01-15, 17:20:08
Dann sind die Ultras aber verdammt selten!
gibt es benches zu den Ultras? (ich geh mal suchen ;) )

€: kann nichts finden , bzw. gibt es auch nicht viel Info zu der Karte.

mapel110
2006-01-15, 17:42:13
Die Kyro 2 "Ultra" gibt es doch, z.B. in Form der 3D Prophet 4800. 200-MHz-Takte statt 175 MHz und im Treiber integrierte T&L-Simulation (En-T&L).

MfG,
Raff
Ja, nur gabs davon sehr wenige Exemplare, die iirc im Hercules Shop verkauft wurden.

Da steht eigentlich alles weitere.
http://de.wikipedia.org/wiki/PowerVR
Dann sind die Ultras aber verdammt selten!
gibt es benches zu den Ultras? (ich geh mal suchen ;) )

€: kann nichts finden , bzw. gibt es auch nicht viel Info zu der Karte.
Viel hat der Takt nicht gebracht und auch die enT&L Geschichte brachte quasi nichts, wohl weil die Software-Emulation dafür in DirectX schon sehr gut war (hat jedenfalls damals Demirug vermutet).

Raff
2006-01-15, 18:08:25
Ich behaupte mal frech, dass die 14% mehr Takt nur wenig brachten, weil die Kyros damals ähnliche Probleme hatten wie die Voodoos: Sie brauch(t)en eine starke CPU. Was bringen einem die tollsten 400 Mtex/s, die dank TBR-Prinzip extrem effizient genutzt wurden, wenn die CPU keine Daten anschiebt?

MfG,
Raff

mapel110
2006-01-15, 18:17:39
Ich behaupte mal frech, dass die 14% mehr Takt nur wenig brachten, weil die Kyros damals ähnliche Probleme hatten wie die Voodoos: Sie brauch(t)en eine starke CPU. Was bringen einem die tollsten 400 Mtex/s, die dank TBR-Prinzip extrem effizient genutzt wurden, wenn die CPU keine Daten anschiebt?

MfG,
Raff
Nö, das kann ich klar ausschließen. Loewe hatte damals ein recht aktuelles System iirc. Jedenfalls für den Test geeignet. Und er sagte schon als er die Karte im Rechner hatte und mit dem Review schreiben anfing, man solle nicht zuviel erwarten und um etwas Positives im Review erwähnen zu können, wollte er auch auf den TV-Out eingehen. :ugly:


/edit
gefunden :)
focus-tv-out chip
http://www.mitrax.de/phpBB2/viewtopic.php?t=2483&highlight=positives

p.s. interessant, wer schon damals alles dabei war. :)

rookz
2006-01-15, 18:18:10
Ich stand zu der Zeit(~2001) vor der Entscheidung Kyro2 oder Geforce2 Pro ( Haben meine ich beide etwa 300 Mark gekostet) und ich habe mich für die Geforce entschieden und war auch zufrieden, denn ein Bekannter hatte die Kyro und ich fand die Texturen nicht so schön !

Scud
2006-01-15, 20:28:14
Also es war ja auch noch die Rede von einer Kyro4 oder 5, aber in letzter Zeit hört man nichts mehr. Außerdem habe ich noch im Kopf, dass PowerVR keine Chips mehr fertigt sondern nur noch entwickelt und dann sozusagen die Schablonen verkauft...naja ist schon länger her.

rookz
2006-01-15, 21:45:13
Mal sehen ob ich wo eine Kyro2 Ultra Karte bekommen kann!
Dann mache ich mal benches gegen eine Kyro2!

stickedy
2006-01-15, 21:46:49
PowerVR hat noch nie Chips gefertigt, sondern hatte immer Lizenznehmer, die dies übernommen haben. Im PC-Bereich war das zuerst NEC für die Series 1 und 2 (PowerVR PCX1, PCX2 und Neon 250) und dann ST Micro für die Series 3 (Kyro, Kyro II und Kyro II SE (aka Kyro II Ultra). ST Micro hat dann wegen "Konzentration auf die Kerngeschäfte" sie Grafiksparte dicht gemacht nachdem ein Verkauf vermutlich an zu hohen Erlöserwartungen gescheitert ist (VIA war damals im Gespräch und fast hätte es auch geklappt). Ursprünglich hatte ST Micro Series 4 und 5 lizensiert und wollte entsprechende Grafikchips auf den Markt bringen. Jedenfalls wird es den Namen Kyro auch nie mehr geben, da dies eine geschützte Marke von ST Micro ist.

Aktuell hat PowerVR Series 5 (Series 4 - ein DirectX 7 Chip mit Hardware T&L wurde übersprungen) an Sega für Arcade-Maschinen lizensiert. Series 5 ist voll DirectX 9 fähig und besitzt Pixel- und Vertex-Shader 3.0, für den PC-Bereich wird sich aber wohl kein Lizenznehmer mehr finden. Wie es weitergeht ist unbekannt.

Neben dem Arcade und PC-Bereich gibt es mit dem PowerVR MBX noch einen 3D-Chip für Handies, Handhelds und ähnlichem. PowerVR is Pionier und Marktführer in diesem Bereich. Dazu noch seit neuestem der PowerVR SGX, der auf Series 5 basiert und dementsprechend mit mindestens Shadern 3.0 daherkommt. Allerdings auch nur für Handhelds.

Tja, und da gibts dann noch das etwas mysteriöse "Eurasia", welches Intel vor geraumer Zeit lizensiert hat. PowerVR SGX beinhaltet Technik von Eurasia, ist aber nicht Eurasia. Intel hat also anscheinend irgendwas lizensiert, was mit Series 5 zu tun hat (Prototypen existieren wohl schon), aber es nicht wirklich bekannt, was das ist und vor allem wofür. Denkbar ist, dass Intel damit einen DirectX 9 SM 3.0 fähigen IGP für Vista bauen will, aber das ist spekulativ. Ein reiner Grafikchip wird es wohl nicht werden...

Sie dazu auch http://de.wikipedia.org/wiki/PowerVR - http://www.powervr.com/Products/Graphics/SGX/Index.asp# - http://www.mitrax.de/

Mal sehen ob ich wo eine Kyro2 Ultra Karte bekommen kann!
Dann mache ich mal benches gegen eine Kyro2!
Wirst du wohl nicht bekommen! Die Dinger sind quasi nicht verkauft worden und lohnen würd sichs auch nicht, die Kyro II SE ist quasi nicht schneller, max. 5%. Lohnt der Mühe nicht...

up¦²
2006-01-15, 22:04:29
Tony Hawk's Pro Skater 2 mit PowerVR MBX und Dell Axim X50/51v (http://www.pdaground.com/pocket-pc-games-reviews/sport/tony-hawks-pro-skater-2.html)

eigentlich ein muß für pvr-ler :wink:

rookz
2006-01-15, 22:17:42
Wenn sie wirklich nur den Takt geändert haben lohnt es sich wirklich nicht!

Haben will ich sie aber dennoch :D

stickedy
2006-01-15, 22:24:23
"Sie" (also ST Micro, nicht PowerVR) haben nur das gemacht. EnT&L wurde dann später in den 2.x-Treibern eh für alle Chips freigeschalten.

Naja, jedenfalls viel Glück bei der Suche! Ne Voodoo 6000 dürfte einfacher aufzutreiben sein...

rookz
2006-01-15, 22:28:31
Will sie ja nicht heute haben und auch nicht diese Woche!
hauptsache sie liegt in einer anderen Preisregion als die Voodoo ;)

saaya
2006-01-15, 22:45:49
wow interessant stickedy!
eurasia ist bestimmt ne unified shader architectur die intel lizensiert hat oder?

Xmas
2006-01-15, 23:13:14
Aktuell hat PowerVR Series 5 (Series 4 - ein DirectX 7 Chip mit Hardware T&L wurde übersprungen) an Sega für Arcade-Maschinen lizensiert. Series 5 ist voll DirectX 9 fähig und besitzt Pixel- und Vertex-Shader 3.0, für den PC-Bereich wird sich aber wohl kein Lizenznehmer mehr finden. Wie es weitergeht ist unbekannt.

Neben dem Arcade und PC-Bereich gibt es mit dem PowerVR MBX noch einen 3D-Chip für Handies, Handhelds und ähnlichem. PowerVR is Pionier und Marktführer in diesem Bereich. Dazu noch seit neuestem der PowerVR SGX, der auf Series 5 basiert und dementsprechend mit mindestens Shadern 3.0 daherkommt. Allerdings auch nur für Handhelds.

Tja, und da gibts dann noch das etwas mysteriöse "Eurasia", welches Intel vor geraumer Zeit lizensiert hat. PowerVR SGX beinhaltet Technik von Eurasia, ist aber nicht Eurasia. Intel hat also anscheinend irgendwas lizensiert, was mit Series 5 zu tun hat (Prototypen existieren wohl schon), aber es nicht wirklich bekannt, was das ist und vor allem wofür. Denkbar ist, dass Intel damit einen DirectX 9 SM 3.0 fähigen IGP für Vista bauen will, aber das ist spekulativ. Ein reiner Grafikchip wird es wohl nicht werden...
SGX ist Eurasia.
http://www.imgtec.com/news/Release/index.asp?ID=259
The PowerVR SGX cores for wireless applications are part of Imagination’s PowerVR Series5 scalable and fully programmable multi-threaded universal shader graphics and video core family, previously codenamed Eurasia.
Zum Rest sage ich mal lieber nichts.

stickedy
2006-01-16, 06:35:23
Laut Loewe und einer Presseerklärung vom ImcTec gibt es da sehr wohl Unterschiede:


ImgTec gab heute in einer Presseerklärung bekannt, dass die neuesten Prototypen und ihre gesamte Produktpalette in Japan auf der PACIFICO in Yokohama gezeigt wird.

...as well as enjoying demonstrations of Imagination’s latest IP cores. This included a demonstration of prototype silicon of Imaginations’ new programmable shader graphics technology. This technology is being adapted in the PowerVR SGX shader-based graphics and video architecture ...

Es wird also gegenwärtig Eurasia schon in Prototyp Silikon gezeigt, das ist sehr viel mehr, als ich zu diesem Zeitpunkt erwartet hatte. Meiner Meinung nach kann es sich dabei nur um erste Prototypen von intel handeln.
Wie wir wissen hat intel ja vor einiger Zeit Eurasia lizensiert, was sie damit vorhaben entzieht sich bisher unserer Kenntnis, aber die Lizenz bezog sich nicht auf SGX, sondern wirklich Serie 5.
http://www.mitrax.de

Und du hast das bei deinem Link übrigens auch drin stehen:
The PowerVR SGX cores for wireless applications are part of Imagination’s PowerVR Series5 scalable and fully programmable multi-threaded universal shader graphics and video core family, previously codenamed Eurasia. The first cores from this family target mainstream and performance mobile graphics with state-of-the-art support for 2D and 3D and an industry leading feature set that exceeds OGL 2.0 shader and Microsoft Vertex and Pixel Shader Model 3 requirements.
Also muss es noch andere Cores dieser Familie (Eurasia) geben.

zeckensack
2006-01-16, 06:48:14
stickedy ... es gibt da etwas das du vielleicht wissen solltest.
... (http://www.beyond3d.com/forum/showthread.php?t=24877)

*schnellwegrenn*

stickedy
2006-01-16, 07:04:05
OK, dann nehm ich alles zurück und behaupte Xmas weiss was er sagt!! :biggrin:

Trotzdem seltsam formuliert alles und Loewe denk ja auch anderes. Aber nun gut, bei der Firma weiss man ja nie... :rolleyes:

stickedy
2006-01-16, 07:07:09
wow interessant stickedy!
eurasia ist bestimmt ne unified shader architectur die intel lizensiert hat oder?
Hm, also ob unified oder nicht, kann ich nicht sagen, da gibt Spezialisten, die sich viel besser auskennen mit der Architektur. Aber SM 3.0 bei DirectX 9 auf jeden Fall. Wobei es anscheinend doch "nur" PowerVR SGX ist.

Laut Loewe soll es aber auch einen WGF 2.0 / SM 4.0 fähigen PowerVR SGX geben.

Ailuros
2006-01-16, 07:43:04
Ich behaupte mal frech, dass die 14% mehr Takt nur wenig brachten, weil die Kyros damals ähnliche Probleme hatten wie die Voodoos: Sie brauch(t)en eine starke CPU. Was bringen einem die tollsten 400 Mtex/s, die dank TBR-Prinzip extrem effizient genutzt wurden, wenn die CPU keine Daten anschiebt?

MfG,
Raff

Alle GPUs sind fuer bestimmte CPUs ausgelegt. STG4800 war eine reine ST Micro Initiative und deren bloede Idee.

Ailuros
2006-01-16, 07:46:41
Hm, also ob unified oder nicht, kann ich nicht sagen, da gibt Spezialisten, die sich viel besser auskennen mit der Architektur. Aber SM 3.0 bei DirectX 9 auf jeden Fall. Wobei es anscheinend doch "nur" PowerVR SGX ist.

Laut Loewe soll es aber auch einen WGF 2.0 / SM 4.0 fähigen PowerVR SGX geben.

SGX/Eurasia duerfte D3D10 kompliant sein wenn man die jeweiligen PRs auch sorfaeltig durchliest. Natuerlich ist es ein USC.

Altes Block Diagramm:

http://www.pvrgenerations.co.uk/articles/2005/pvrsgx/SGX2big.jpg

Neues Block Diagramm:

http://www.pvrgenerations.co.uk/articles/2005/pvrsgx/SGXbig.jpg

***edit: Xmas hat natuerlich recht (koennte auch nicht anders sein). SGX = Eurasia.

Scud
2006-01-16, 17:38:15
und schon wieder was gelernt...
Schade, schade, dass die kyro nicht mehr zurückkommt, eigentlich hatte sie schon sehr gute Ansätze.
Vielleicht kommt irgendwann doch noch eine Kyro, wer weiß...

saaya
2006-01-17, 01:44:18
naja nur unter andrem nahmen wahrscheinlich... :D
wenn...

Ailuros
2006-01-17, 07:16:04
und schon wieder was gelernt...
Schade, schade, dass die kyro nicht mehr zurückkommt, eigentlich hatte sie schon sehr gute Ansätze.
Vielleicht kommt irgendwann doch noch eine Kyro, wer weiß...


Es ist wohl offensichtlich dass IMG's Konzentration in den letzten Jahren auf andere Maerkte ausserhalb dem PC gefallen ist und dazu natuerlich Maerkte wo der Verkauf von IP optimal ist.

KYRO (wie schon oefters bemerkt) gehoerte als Name ST Micro und ob in der absehbaren Zukunft je eine (standalone) GPU fuer den PC kommen wird will ich ernsthaft bezweifeln.

IMG muss erstmal zumindest den gleichen Erfolg mit der zweiten Generation von PDA/mobile chips erreichen wie mit MBX in der Zukunft. Viel wahres Interesse an 3D gab es im Markt bisher nicht und Konkurrenten wie ATI/NVIDIA hatten eigentlich nur multimedia orientierte chips/IP im Angebot. Kommen die letzteren jetzt zeitig mit potentielleren Angeboten an, kann es durchaus sein dass die Karten vielleicht neu gemischt werden.

Zumindest Intel ist aber offiziell schonmal fuer SGX/Eurasia gesichert.

Raff
2006-01-17, 10:06:42
Alle GPUs sind fuer bestimmte CPUs ausgelegt. STG4800 war eine reine ST Micro Initiative und deren bloede Idee.

Klar sind sie es. Aber dennoch profitieren manche mehr von besseren CPUs als andere. Ich hätte anno 2000 auch nicht gedacht, dass eine Voodoo5 stellenweise noch mit 2+ GHz skaliert. Kann das nicht mal einer testen? Kann ja auch mit einer "normalen" (zur Not einfach etwas übertakten) Kyro 2 geschehen.

MfG,
Raff

mapel110
2006-01-17, 10:48:14
Klar sind sie es. Aber dennoch profitieren manche mehr von besseren CPUs als andere. Ich hätte anno 2000 auch nicht gedacht, dass eine Voodoo5 stellenweise noch mit 2+ GHz skaliert. Kann das nicht mal einer testen? Kann ja auch mit einer "normalen" (zur Not einfach etwas übertakten) Kyro 2 geschehen.

MfG,
Raff
Raff, irgendwann ist die Füllrate zu Ende. Und die wahr sehr schnell am Ende bei den Kyro-Chips. Trilinear war zum Beispiel sehr teuer ohne Texture compression. Da nutzt die eingesparte Bandbreite und das auf die CPU abgewälzte T&L nicht mehr viel.

Raff
2006-01-17, 10:57:54
Ich will Zahlen, Theorie mag ich in dem Fall garnicht. :D Denn die sagt auch, dass eine Voodoo5 nur 1 GHz braucht.

MfG,
Raff

aths
2006-01-17, 11:50:44
Ich will Zahlen, Theorie mag ich in dem Fall garnicht. :D Denn die sagt auch, dass eine Voodoo5 nur 1 GHz braucht.Welche Theorie sagt das?

robbitop
2006-01-17, 12:07:25
Die V5 skaliert doch nur so gut mit den CPUs, da TnL emuliert werden muss. In damaligen Spielen ohne TnL wäre das nicht der Fall gewesen.

Ailuros
2006-01-17, 12:40:32
Klar sind sie es. Aber dennoch profitieren manche mehr von besseren CPUs als andere. Ich hätte anno 2000 auch nicht gedacht, dass eine Voodoo5 stellenweise noch mit 2+ GHz skaliert. Kann das nicht mal einer testen? Kann ja auch mit einer "normalen" (zur Not einfach etwas übertakten) Kyro 2 geschehen.

MfG,
Raff

Kommt ganz drauf an wie man die CPU-Limitierung empfindet. Radeon1, GF2, KYRO, V4/5 wurden als Architekturen mehr oder weniger um den gleichen Zeitpunkt enwickelt. Nach 1.4/5GHz skalierte jegliche dieser GPUs nur noch minimal, aber natuerlich stets von meiner Perspektive, damit es jetzt nicht wieder eine oede Debatte gibt dass hier und da nochmal 4-5 fps dazukommen.

***edit: da Du unbedingt Zahlen sehen willst

http://www.anandtech.com/showdoc.aspx?i=1650&p=7
http://www.anandtech.com/showdoc.aspx?i=1650&p=5
http://www.anandtech.com/showdoc.aspx?i=1650&p=6

up¦²
2006-01-17, 12:50:48
Interessant in dem zusammenhang:
Intel’s GMA 900 employs the tile-based architecture – “Zone Rendering Technology 3” is Intel’s term for it. This technology works like that:

-Before drawing the image, the driver first waits till the application provides all the polygons necessary for the rendering. Then, for each tile (a “zone” in Intel’s terminology, it is a rectangular fragment of the image) lists of triangles that fully or partially cover it are produced.

-When rendering a frame, the graphics processor renders tile after tile, using the polygon lists created at Step 1 as source data, until the entire frame is rendered.

http://www.xbitlabs.com/articles/chipsets/display/i915g_2.html

Ailuros
2006-01-17, 12:56:42
Raff, irgendwann ist die Füllrate zu Ende. Und die wahr sehr schnell am Ende bei den Kyro-Chips. Trilinear war zum Beispiel sehr teuer ohne Texture compression. Da nutzt die eingesparte Bandbreite und das auf die CPU abgewälzte T&L nicht mehr viel.

Geschichten aus der Antiquitaet und so oft wiedergekaut dass rechtmaessig bald jemand wieder meckert darueber. ST Micro hatte einen Vogel als sie die STG5000 aka K3@166MHz fuer die K2@175MHz zeitlich verlegt hat. Mit doppelt so vielen Pipelines, tri-TMUs, DDR und eine T&L Einheit waere das Ding nicht nur zweimal so schnell gewesen, aber es haette auch eine laengere Lebenszeit gehabt. Deshalb ist auch besser wenn IP Firmen so wenig wie moeglich mit dem PC zu tun haben, weil man eben viel zu viel von den bloeden Entscheidungen des Lizenznehmers abhaengt.

Ailuros
2006-01-17, 12:58:09
Interessant in dem zusammenhang:


http://www.xbitlabs.com/articles/chipsets/display/i915g_2.html


Speicheroptimierungen durch tiles gab es schon seit der originalen Voodoo. GMA900 hat gar nichts mit deferred rendering zu tun.

Coda
2006-01-17, 19:54:49
Ich würde als PowerVR versuchen meine IP auch Chipsatzherstellern anzudrehen. Warum macht Intel das eigentlich nicht wenn sie eh eine Lizenz dafür haben? Besser als ihr GMA-Crap muss es sein und für die geringe Speicherbandbreite ist es auch optimal.

Speicheroptimierungen durch tiles gab es schon seit der originalen Voodoo.Das wäre mir aber neu. Ich glaube nicht dass Voodoo schon irgendwelche bandbreitenschonenden Features hatte.

Und hört bitte auf mit dem T&L-Argument. Vertexarbeit ist auf CPUs ganz gut zu machen.

stav0815
2006-01-17, 20:15:30
Ich würde als PowerVR versuchen meine IP auch Chipsatzherstellern anzudrehen. Warum macht Intel das eigentlich nicht wenn sie eh eine Lizenz dafür haben? Besser als ihr GMA-Crap muss es sein und für die geringe Speicherbandbreite ist es auch optimal.


Für schnelle onBoard Chips ist kein Bedarf da.

Ailuros
2006-01-17, 21:28:08
Für schnelle onBoard Chips ist kein Bedarf da.

Im Fall von Intel wuerde es eher um D3D10 Komplianz gehen als alles andere.

Das wäre mir aber neu. Ich glaube nicht dass Voodoo schon irgendwelche bandbreitenschonenden Features hatte.

Es schrieb als nie eine GPU seither in chunks oder tiles seither in den Speicher oder wie?

Gast
2006-01-17, 21:38:31
Und hört bitte auf mit dem T&L-Argument. Vertexarbeit ist auf CPUs ganz gut zu machen.


Dann probier' doch mal UT2003/4 mal auf einer TnL-losen Grafikkarte aus... Ich habe das vor einiger Zeit hier in diesem Unterforum mal gemacht – ohne TnL ist da alles zusammengebrochen.


Q

saaya
2006-01-17, 21:58:19
Für schnelle onBoard Chips ist kein Bedarf da.

weiss ich nicht... das sagen immer alle aber ich glaube dem ist gar nicht so... also ich haette mir ein board mit schneller onboard grafik a la 6600gt geholt... und ich glaub ich waere bei weitem nicht der einzige gewesen!
dann spaeter kann man mit ner graka nachruesten... wunderbar...

sorry is n bisschen ot :D

Simon Moon
2006-01-17, 22:17:24
weiss ich nicht... das sagen immer alle aber ich glaube dem ist gar nicht so... also ich haette mir ein board mit schneller onboard grafik a la 6600gt geholt... und ich glaub ich waere bei weitem nicht der einzige gewesen!
dann spaeter kann man mit ner graka nachruesten... wunderbar...

sorry is n bisschen ot :D

Das Problem ist viel eher der Speicher, als der Chip. Um anständige Performance zu erreichen, müsste man wohl zwangsweise VRAM direkt auf das Mainboard löten. Dies würde es unnötig verteuern. Ist schon gut so wie es ist.

aths
2006-01-17, 23:11:39
Das wäre mir aber neu. Ich glaube nicht dass Voodoo schon irgendwelche bandbreitenschonenden Features hatte.Der Speicher war jedenfalls nicht in Pixelzeilen organisiert.

Coda
2006-01-17, 23:28:50
Dann probier' doch mal UT2003/4 mal auf einer TnL-losen Grafikkarte aus... Ich habe das vor einiger Zeit hier in diesem Unterforum mal gemacht – ohne TnL ist da alles zusammengebrochen.Was für ne Emulation? Die von DX und nVIDIA ist ganz anständig, das EnT&L eher nicht.

Der Speicher war jedenfalls nicht in Pixelzeilen organisiert.Warum nicht? Voodoo war ein Scanline-Renderer, da macht das eigentlich schon Sinn.

Ailuros
2006-01-18, 01:11:51
Was für ne Emulation? Die von DX und nVIDIA ist ganz anständig, das EnT&L eher nicht.

Nur mal so nebenbei aber GMA900 ist auch hier besonders mies.

Warum nicht? Voodoo war ein Scanline-Renderer, da macht das eigentlich schon Sinn.

In was genau war der Speicher auf Voodoos denn organisiert?

Coda
2006-01-18, 01:18:10
Nur mal so nebenbei aber GMA900 ist auch hier besonders mies.Intel bietet soweit ich weiß gar keine T&L-Emulation.

In was genau war der Speicher auf Voodoos denn organisiert?Ich weiß es ja nicht, aber ich denke es war einfach ein linearer Framebuffer. Ich sehe nicht was für andere Strukturen da für einen Sinn gehabt hätten :|

Aber wenn jemand was genaueres weiß dann zecke.

Ailuros
2006-01-18, 01:38:45
Intel bietet soweit ich weiß gar keine T&L-Emulation.

Ja eben. Uebrigens verwirft das Ding auch ueberhaupt keine Geometrie ganz im Gegenteil zum PowerVR.

Das Problem ist viel eher der Speicher, als der Chip. Um anständige Performance zu erreichen, müsste man wohl zwangsweise VRAM direkt auf das Mainboard löten. Dies würde es unnötig verteuern. Ist schon gut so wie es ist.

Uhmmm besondere 3D Leistung sollte man sowieso nicht von einem IGP theoretisch erwarten. Die Speicher-ansprueche mit UMA Architekturen die auf TBDR basieren sind sowieso nicht besonders hoch. Schon gar nicht wenn es zu FSAA kommt, was man zumindest fuer das Aero-Glass Zeug brauchen wuerde.

robbitop
2006-01-18, 09:48:14
Intel bietet soweit ich weiß gar keine T&L-Emulation.
Aber DirectX bietet sie. Sonst würden doch heutige Spiele gar nicht mit nem GMA900 laufen, was sie jedoch tun. Aufgrund der Emu u.A. auch recht langsam.

Demirug
2006-01-18, 10:13:12
Aber DirectX bietet sie. Sonst würden doch heutige Spiele gar nicht mit nem GMA900 laufen, was sie jedoch tun. Aufgrund der Emu u.A. auch recht langsam.

Spiele die auf einem Hardware Vertexshader bestehen laufen damit allerdings nicht.

robbitop
2006-01-18, 10:26:51
Spiele die auf einem Hardware Vertexshader bestehen laufen damit allerdings nicht.
Kann man diesen nicht emulieren lassen? (zur Not mittels externem Tool müsste das ja möglich sein)

Demirug
2006-01-18, 10:33:17
Kann man diesen nicht emulieren lassen? (zur Not mittels externem Tool müsste das ja möglich sein)

Mann muß eben die entsprechend Caps vortäuschen und dann Softwarevertex processing erzwingen.

Xmas
2006-01-18, 15:14:13
In was genau war der Speicher auf Voodoos denn organisiert?
Bei Voodoo 1 und 2 linear in 2MiB-Blöcke. Voodoo3 bot die Option, den Speicher als Tiles zu adressieren (jeweils 128 Bytes * 32).

Gast
2006-01-18, 16:43:14
Kann man diesen nicht emulieren lassen? (zur Not mittels externem Tool müsste das ja möglich sein)

3danalyze kann es ;)

zeckensack
2006-01-18, 17:08:03
Ich weiß es ja nicht, aber ich denke es war einfach ein linearer Framebuffer. Ich sehe nicht was für andere Strukturen da für einen Sinn gehabt hätten :|

Aber wenn jemand was genaueres weiß dann zecke.So genau weiß ich das jetzt auch nicht, aber es spricht einiges dafür, dass der Framebuffer flach und linear ist.

Neben der Tatsache dass die Hardware nur horizontale Spans rendern kann, wofür ein flacher Framebuffer optimal wäre, spricht auch das Verhalten bei "Locks" für eine lineare Organisation.

Natürlich hätte die Voodoo 1 die ganze Welt verarschen können, indem einfach direkt Speichercontroller Adressbits vertauscht werden. Von der restlichen Architektur besteht dazu nur überhaupt kein Grund, und dann halte ich mich an Occam's Razor (http://en.wikipedia.org/wiki/Occam's_razor).

Die endgültige Antworte müsste irgendwo im CSIM-Code herumfliegen.

Coda
2006-01-18, 17:30:20
Was ist CSIM-Code?

zeckensack
2006-01-18, 17:54:30
Was ist CSIM-Code?Chip-Simulator.
Die Software-Simulation (in C) der Voodoo Graphics, die zur Verifikation des Designs genutzt wurde, bevor das Silizium existierte.

edit:
Normalsterbliche dürfen den Simulator nicht haben, vom Quellcode ganz zu schweigen.

Coda
2006-01-18, 23:23:07
Bist du ein Normalsterblicher? ;)

Bis zu welchem Level geht das runter? Wird nur die Funktionalität in einem Software Rasterizer nachgebildet (weil dann sieht man sowas ja nicht) oder gehts auch bis zum Gate-Level?

Demirug
2006-01-18, 23:28:06
Bist du ein Normalsterblicher? ;)

Bis zu welchem Level geht das runter? Wird nur die Funktionalität in einem Software Rasterizer nachgebildet (weil dann sieht man sowas ja nicht) oder gehts auch bis zum Gate-Level?

In der Regel irgendwo dazwischen. Man bildet die einzelnen Teil Module nach. Man muss sich das ähnlich vorstellen wie bei einem Emulator für "alte" Hardware. Da muß ja häufig auch Taktsyncronität sicher gestellt werden.

Xmas
2006-01-19, 01:38:35
Das ganze ist durchaus auch von 3dfx dokumentiert. ;)

saaya
2006-01-19, 01:55:38
Das Problem ist viel eher der Speicher, als der Chip. Um anständige Performance zu erreichen, müsste man wohl zwangsweise VRAM direkt auf das Mainboard löten. Dies würde es unnötig verteuern. Ist schon gut so wie es ist.
hmmm naja, im moment wuerden 128mb + system memory doch schon reichen, so viel kosten 128mb doch garnicht...

stickedy
2006-01-19, 08:30:46
Tja, im OEM-Markt macht es aber schon nen Unterschied, ob ein Mainboard 30,50 € oder 35,60 € kostet...

Und für den Retail-Markt lohnt sich sowas genauso wenig wie irgendwelche High-End AGP-Karten

Thowe
2006-01-19, 12:08:57
Der OEM Markt hat nicht unbedingt Preisprobleme, die meisten Systeme die verkauft werden beruhen nicht unbedingt auf "Schrott", gerade in den westlichen Ländern ist der Preis zwar wichtig, aber auf die letzten paar Euros kommt es dann doch nicht mehr an.

Nun wird aber die Leistung der Grafikkarte auch bei normaler Desktop-Arbeit nicht mehr eine so unwichtige Rolle spielen wie heute, Windows Vista Aero Glass geht ja schon in diese Richtung und würde wohl kaum auf heutige IGPs von Intel laufen.

Kommt nun also in der 2 Jahreshälfte Windows Vista, dann hätte Intel seinen Abnehmern eigentlich nichts interessantes mehr zu bieten, wenn man von der Istsituation ausgeht. Wobei ich zugeben muss, das ich in Vergleich zu früher nur noch wenig Überblick über die Marktsituation habe.

Bietet Intel also nicht die benötigte Leistung, dann müssten OEMs eben eine zustätzliche Grafikkarte verbauen, was auch bedeutet, das sie Boards mit x16 Steckplätzen wählen müssten. So ein Board kostet in der Regel so um die 3,- Euro mehr, dazu kommt dann die, z.b., 6200TC mit 64MB für ~ 25,- Euro (bei Stückzahlen) und mit der Grafikkarte auch eine Baugruppe die Ausfallen kann, rechnen wir dafür noch mal 2,- Euro pro System an mögliche Kosten. Dann sind das rund 30,- Euro mehr an Herstellungskosten.

Da es eben Schwellenpreise gibt, müssten OEMs sich um Alternativen bemühen und würden vielleicht bei ATI und NVIDIA landen. Was allerdings Intel sehr wenig gefallen dürfte und es bliebe noch das Problem mit den Notebooks, wo ein IGP noch wichtiger ist als bei einem Desktop-PC.

saaya
2006-01-19, 14:27:39
Tja, im OEM-Markt macht es aber schon nen Unterschied, ob ein Mainboard 30,50 € oder 35,60 € kostet...

Und für den Retail-Markt lohnt sich sowas genauso wenig wie irgendwelche High-End AGP-Karten

ich wuerde bis zu 50€ mehr ausgeben fuer ein zukuenftiges mainboard wenn es eine onboard grafikloesung hat die ausreicht um momentan aktuelle spiele in 10x7 oder 12x10 zu zocken, und ich bi sicher ich waere nicht der einzige.
ich glaube schon das sich ne kleine serie solcher boards gut verkaufen lassen wuerde... bisher hats nur niemand gewagt.

als 6200 igp boards von nvidia anounced wurden waren alle derbe gespannt und dachten man koennte mit den boards in geringen aufloesungen zocken, und viele waren begeistert.
aber nvidia hat die igp loesung ja echt hart kastriert... der preis ist meiner meinung nach niedriger als er haette sein koennen um mit den boards erflogreich sein zu koennen.

hoeherer preis und mehr grafik power haette sich meiner meinung nach deutlich ausgezahlt!

Coda
2006-01-19, 14:32:46
hoeherer preis und mehr grafik power haette sich meiner meinung nach deutlich ausgezahlt!Unfug. Das Ding ist für OEM-PCs auf denen auch Vista noch mit allem Schnickschnack laufen soll. Kein Spieler kauft sich nen IGP.

Ailuros
2006-01-19, 15:32:24
Unfug. Das Ding ist für OEM-PCs auf denen auch Vista noch mit allem Schnickschnack laufen soll. Kein Spieler kauft sich nen IGP.

Kein Zweifel; die Frage ist aber dann ob tatsaechlich Intel und wie in den low-end professionellen Markt mit IGPs eindringen will. In dem Fall und kommt es auf Intel's Ziele generell an und dann unter der Logik der "synergy" welcher Grad von Leistung genug oder ueberfluessig ist.

SGX soll mit 200MHz/90nm und 9mm^2 die-Flaeche (nach IMG selber) 13.2 MTris/s erreichen und normalerweise sind es bei IMG "echte" Dreiecke. Ich weiss jetzt zwar nicht wieviel Flaeche fuer einen IGP normal waere, aber es duerfte noch genug Platz geben um weiterhin Einheiten zu skalieren.

Coda
2006-01-19, 16:50:46
Also die Vertextransformation muss immer alles transformieren, da ist noch nix mit verwerfen.

zeckensack
2006-01-19, 20:31:59
Also die Vertextransformation muss immer alles transformieren, da ist noch nix mit verwerfen.Ich glaube er meint einfach nur echte Dreiecke.
Andere Hersteller schreiben Dreiecke, zählen aber Vertices, mit der Argumentation im Hinterkopf, dass das bei großen Strips oder Fans theoretisch das gleiche ist. ZB beim NV25 kam das allerdings vorne und hinten nicht hin, weil das Tri-Setup zu langsam war.

Demirug
2006-01-19, 20:39:09
Also die Vertextransformation muss immer alles transformieren, da ist noch nix mit verwerfen.

Damals schon. Inzwischen gilt das nur noch eingeschränkt.

Coda
2006-01-19, 20:44:06
Wie soll man denn vor dem Vertexshader schon wissen was verworfen werden kann?

Demirug
2006-01-19, 20:51:21
Wie soll man denn vor dem Vertexshader schon wissen was verworfen werden kann?

Conditional Rendering. Abhängig von vorhergehenden Ereignissen kann ein Rendercall komplett verworfen werden. Ist ein D3D10 Feature

zeckensack
2006-01-19, 21:02:04
Bzw NVX_conditional_render. Gibt's auf NV40/G70 ab den 60er-Treibern (http://www.delphi3d.net/hardware/extsupport.php?extension=GL_NVX_conditional_render).

Demirug
2006-01-19, 21:03:52
Bzw NVX_conditional_render. Gibt's auf NV40/G70 ab den 60er-Treibern (http://www.delphi3d.net/hardware/extsupport.php?extension=GL_NVX_conditional_render).

Ja nur weigert sich nVidia beharlich die Dokumentation dazu heraus zu geben und als NVX kann es jederzeit wieder verschwinden.

Coda
2006-01-19, 21:05:04
Conditional Rendering. Abhängig von vorhergehenden Ereignissen kann ein Rendercall komplett verworfen werden. Ist ein D3D10 FeatureAch das. Ja gut, das ist ja nichts automatisches.

zeckensack
2006-01-19, 21:13:40
Ja nur weigert sich nVidia beharlich die Dokumentation dazu heraus zu geben und als NVX kann es jederzeit wieder verschwinden.Das (http://www.opengl.org/discussion_boards/cgi_directory/ultimatebb.cgi?ubb=get_topic;f=3;t=011740) sollte als Dokumentation völlig reichen.
Ja, NVIDIA scheint diese Extension aus irgendeinem Grund nicht fertiggestellt zu haben, und ebenfalls ja, sie könnte jederzeit wieder aus den Treibern rausfliegen. Aber sie funktioniert. Wenn sie nicht (mehr) funktioniert, verliert man Performance, aber das Ergebnis bleibt gleich.

Ailuros
2006-01-19, 22:38:50
Ich glaube er meint einfach nur echte Dreiecke.
Andere Hersteller schreiben Dreiecke, zählen aber Vertices, mit der Argumentation im Hinterkopf, dass das bei großen Strips oder Fans theoretisch das gleiche ist. ZB beim NV25 kam das allerdings vorne und hinten nicht hin, weil das Tri-Setup zu langsam war.

IMG's Partner waren alle bisher ziemlich ueberrascht dass die angegeben Raten von IMG fuer die jeweiligen cores ziemlich nahe an der Realitaet lagen. Intel's 2700G (MBX-Lite/no VGP) kommt auf ~830K Tris/sec bei 75MHz.

Im Gegensatz gibt es einen konkurrierenden chip der angeblich fuer 3D ausgelegt ist, der aber bei gleicher Taktrate auf dem devboard gerade noch 60K Tris/sec erreichen kann. Wenn es sogar ein engineer der Firma noch off the record zugibt, desto schlimmer. Im Marketingfirlefanz steht natuerlich 1M Polys/s drin....

Ailuros
2006-01-19, 22:44:03
Also die Vertextransformation muss immer alles transformieren, da ist noch nix mit verwerfen.


Ich hab es zwar schwer solche Diagramme zu entziffern, aber ich sehe ganz links den HSR Prozessor (ISP = image synthesis processor) als ersten:

http://www.pvrgenerations.co.uk/articles/2005/pvrsgx/SGX2big.jpg

davidzo
2006-01-22, 11:45:22
Schade dass es keinen lizenznehmer im pc oder konsolenbereich gibt. eine portable Konsole mit nem Via C7M 1ghz @4watt und nem SGX530 würde die PSP sicherlich das fürchten lehren, wenn überhaupt möglich.
Ich warte ja immer noch auf eine Series5 für den PC. Schoneinmal gut zu wissen, das es PowerVR finanziell gut geht und sie auch technologisch auf dem akuellsten stand sind, selbst wenn für handys so aufwändige pixelshaderhardware außer der funktion die shader auch als videoprozessor zu nutzen wohl wenig bringt.


@Thowe: Dass Intel für Windows Vista nicht doof dasteht haben die schon gesorgt. Intel hat doch den Chipsatzdeal mit ATI gemacht und demnächst kommt schon das zweite Xpress200 mobo mit S775 und DDR2 unterstützung. ATI hat außerdem einen neuen Chipsatz für Intel in der hinterhand, welcher mit einer vollen x1300like quadpipe befeuert werden soll.

Thowe
2006-01-22, 11:56:38
...


@Thowe: Dass Intel für Windows Vista nicht doof dasteht haben die schon gesorgt. Intel hat doch den Chipsatzdeal mit ATI gemacht und demnächst kommt schon das zweite Xpress200 mobo mit S775 und DDR2 unterstützung. ATI hat außerdem einen neuen Chipsatz für Intel in der hinterhand, welcher mit einer vollen x1300like quadpipe befeuert werden soll.

Jein, Intel verkauft ja nicht nur Prozessoren, sie haben ja eben auch das mitlerweile sehr wichtige Paket Centrino mit eigenem Chipsatz und WLAN. Auch gibt es von den wichtigsten Großhändler meines Wissens immer noch keine Rechner mit Chipsätzen außerhalb der von Intel.

Gast
2006-01-22, 12:01:23
Schade dass es keinen lizenznehmer im pc oder konsolenbereich gibt. eine portable Konsole mit nem Via C7M 1ghz @4watt und nem SGX530 würde die PSP sicherlich das fürchten lehren, wenn überhaupt möglich.


der stromverbrauch wäre wahrscheinlich immer noch zu hoch.

robbitop
2006-01-22, 12:03:18
Schade dass es keinen lizenznehmer im pc oder konsolenbereich gibt. eine portable Konsole mit nem Via C7M 1ghz @4watt und nem SGX530 würde die PSP sicherlich das fürchten lehren, wenn überhaupt möglich.
4W allein für die CPU bei ner portablen Konsole?? Wie lange soll man damit spielen können? 5 min?
Nicht grundlos besitzt die PSP SoC Komponenten. Hier liegt CPU und GPU in einem DIE und das Ganze befindet sich im x00 mW Bereich.
SGX ist sicher schneller und fortschrittlicher, als das was eine PSP zu bieten hat. Allerdings müßte das gute Stück auch mal verbaut werden.

Und mal eben eine Konkurrenzkonsole zur PSP zu bauen ... uha. Das wird teuer in der Entwicklung und außerdem muss ein sehr großer Hersteller dahinter stehen, da bei solcher Minimalisten HW ein breiter Devrel Support da sein sollte und eine entsprechende Käuferschicht. Da muss überall optimiert werden.

davidzo
2006-01-22, 14:05:23
Und wie erklärt ihr euch, dass die PSP bei einem erstklassigen LION 1800mah 3,6V Akku schon nach 2std schlapp macht? So richtig sparsam ist die auch nicht. sicherlich wäre die viacpu hart an der grenze, aber wenn man ein etwas grßeres gewicht+akku einkalkuliert könnte das klappen, alternativ müsste man zum xscale greifen, der ist definitiv sparsamer als sonys dreifacher mediaprozessor und leistet zusammen mit SGX sicher mehr. linux gibts für beide und PoverVR sollte die nötigen Mittel haben um OpenGL darauf zum laufen zu bekommen (siehe Doku vom SGX linux unterstützung). Dann benötigt man lediglich eine gute OpenGL Engine eventuell vom pc geportet o.ä. und kann darauf relativ easy eine ganze reihe an netten spielchen entwickeln, texturdaten, polygonmassen und shader sind bei so wenig auflösenden games um ein zigfaches kleine rund schneller zu erledigen als bei nem richtigen pc game. Sicherlich bräuchte man einen hersteller der einige Millionen locker mact und die Konsole würde vermutlich dem preis eines highendPDAs näher kommen als dem der PSP, aber nen markt gäbe es afaik. durch einspaarung von dem blöden UMDdrive un nutzung einfacher CFcards ließe sich akkulaufzeit gewinnen und der preis drastisch reduzieren, eine Lizenzkontrolle könnte man über multiplayergaming im Internet bei den meisten spielern erzwingen, kostenlose softwareupdates und bugfixes die sich nur automatisch online installieren köntnen ein anreiz dafür sein.
Mein Tungsten E2 hält mit viel kleinerem akku mehrere Wochen bei normalem Gebrauch und bei durchgängigem 3dspielen selbst übertaktet locker seine 8std.

Gast
2006-01-22, 14:13:30
Und wie erklärt ihr euch, dass die PSP bei einem erstklassigen LION 1800mah 3,6V Akku schon nach 2std schlapp macht?


macht einen durchschnittlichen verbrauch von 3,25W des GANZEN gerätes, wenn man davon ausgeht dass der akku kaum zu 100% geladen ist eher um die 3W.

bei dir braucht die cpu alleine schon 4W, dazu kommt noch mal eine GPU, speicher, nicht zu vergessen der bildschirm...

wenn du alle 15min akku-wechseln willst geht das vielleicht ;)

robbitop
2006-01-22, 14:19:48
Problem ist immer, das Maximum aus einer HW herauszuholen. Sieht man sich den PC an und vergleicht ihn mit den Daten einer Konsole sieht man, was man nach reichlicher Optimierung auf eine einzige HW herausholen kann und wie sehr die Entwickler mit den PC Ressourcen asen.
Dazu braucht es allerdings eine recht große Marktmacht und einen kräftigen Hersteller dazu. Das muss mehr sein als irgendein Port.

dmxfighter
2006-01-22, 14:25:51
Laut Loewe und einer Presseerklärung vom ImcTec gibt es da sehr wohl Unterschiede:


http://www.mitrax.de

Und du hast das bei deinem Link übrigens auch drin stehen:

Also muss es noch andere Cores dieser Familie (Eurasia) geben.



stimmt sogar hab ich auch gelesen

Thowe
2006-01-22, 14:50:37
Der größte Stromfresser der PSP ist das optische Laufwerk. Wenn man Musik vom MS Duo hört oder auch Videos damit schaut, läuft die PSP deutlich länger. Gleiches gilt auch für Spiele, doch die meisten greifen irgendwie recht häufig aufs Laufwerk zurück. Nimmt man allerdings irgendwelche Homebrew Emulatoren und spielt damit, was so oder so immer eine recht hohe CPU Last erzeugt, dann sind die Laufzeiten auch besser als von Disk.

Nebenbei dürfte gerade die CPU deutlich effizienter sein als der VIA C3, der leider schnarchlahm ist. Bei der Grafik sehe ich natürlich massive Vorteile für PowerVR.

Ailuros
2006-01-22, 14:56:49
SGX ist sicher schneller und fortschrittlicher, als das was eine PSP zu bieten hat. Allerdings müßte das gute Stück auch mal verbaut werden.

Intel hat wohl mit der Integration schon angefangen. Darum geht es aber trotztdem auch nicht. Es muesste eine Firma geben die erstmal den Willen und die Resourcen hat mit SONY und dessen PSP zu konkurrieren. Ohne fette Resourcen und Marketing-gelder geht das nicht so mir nichts dir nichts.

aths
2006-01-22, 18:25:07
Conditional Rendering. Abhängig von vorhergehenden Ereignissen kann ein Rendercall komplett verworfen werden. Ist ein D3D10 FeatureIst and der Auswertung jenes Ereignisses die CPU beteiligt?

Da jeder Drawcall CPU-Last erzeugt sollte man doch bemüht sein, eine Szene mit möglichst wenig Calls zu rendern. Damit sinkt die Wahrscheinlichkeit, einen komplett Call sparen zu können.

Was beinhaltet so ein Call? Einstellung von Texturen, Shadern, und dann die Liste mit den weiteren Befehlen/Vertexdaten? Gibts in D3D10 endlich die Möglichkeit, den Texturwechsel zu verschnellern?

RLZ
2006-01-22, 18:29:19
Ist and der Auswertung jenes Ereignisses die CPU beteiligt?
Nein.

Gibts in D3D10 endlich die Möglichkeit, den Texturwechsel zu verschnellern?
Es gibt Texturarrays, so dass Texturwechsel wesentlich seltener notwendig sind.

aths
2006-01-22, 18:40:11
Nein.Gut :) Aber das heißt dann ja auch, dass die CPU den Drawcall trotzdem vorbereitet und die Daten zur Graka sendet, nur dass jene den Call einfach übergeht, oder?

Es gibt Texturarrays, so dass Texturwechsel wesentlich seltener notwendig sind.Das klingt nach endlich mal einer durchdachten Lösung. Müssen D3D10-Karten auch virtuelle Speicheradressierung beherrschen?

RLZ
2006-01-22, 18:55:52
Gut :) Aber das heißt dann ja auch, dass die CPU den Drawcall trotzdem vorbereitet und die Daten zur Graka sendet, nur dass jene den Call einfach übergeht, oder?
Ich hab jetzt nochmal in der SDK nachgelesen und bin da nicht mehr ganz sicher, ob es nicht doch eine Treiberangelegenheit sein könnte.
Die Anwendung kann aber auf den Predictionhint zugreifen ohne auf das Ergebnis warten zu müssen. Allerdings gibt es auch keine Garantie, dass es zum benötigten Zeitpunkt schon vorliegt. In dem Fall wird das ganze Mesh gerendert.
Da kann man sich eine Realisierung in GPU, wie auch in Treiber vorstellen.
Das klingt nach endlich mal einer durchdachten Lösung. Finde ich auch. Allerdings habe ich noch nichts dazu gefunden, ob es eine maximale Anzahl von Texturen pro Array und eine maximale Anzahl von Texturearrays pro Shader gibt.
Müssen D3D10-Karten auch virtuelle Speicheradressierung beherrschen?
Keine Ahnung...

Demirug
2006-01-22, 19:27:59
Was verstehst du in diesem Zusammenhang unter virtueller Speicheradressierung?

Es können 128 Resource, 16 Sampler und 16 Kostanten Buffer an einen Shader gebunden werden.

aths
2006-01-22, 19:42:44
Darunter verstehe ich, dass man mehr Speicher adressieren kann als die Karte hat, und jene selbstständig ein- und auslagert. Das heißt, die Speicheradressen die der Treiber nutzt stimmen mit den physikalischen Adressen nicht überein, da eine Memory-Unit mappt. Was ist ein Resource-Buffer? Kann man pro Buffer nur ein natives Datenformat nutzen oder sind auch "structs" möglich? Auch D3D10 erlaubt nur 16 Sampler??

Demirug
2006-01-22, 19:56:04
Darunter verstehe ich, dass man mehr Speicher adressieren kann als die Karte hat, und jene selbstständig ein- und auslagert. Das heißt, die Speicheradressen die der Treiber nutzt stimmen mit den physikalischen Adressen nicht überein, da eine Memory-Unit mappt. Was ist ein Resource-Buffer? Kann man pro Buffer nur ein natives Datenformat nutzen oder sind auch "structs" möglich? Auch D3D10 erlaubt nur 16 Sampler??

Der speicher ist vollkommen virtualisiert. Im Zweifel wird sogar auf die Festplatte ausgelagert. Das geht aber auch schon mit D3D9EX

Bei D3D10 ist alles nur noch eine Resource und man hat einen Sicht darauf die auch das Format enthält. Das Format muss dabei eines aus einer vorgegeben Liste sein.

Die Sampler bei D3D10 sind nicht mehr fest an eine Texture gebunden sondern man kann sie mit jeder der 128 Resourcen nutzten. Der Sampler definiert dabei nur das genaue Verhalten beim Auslesen (Filter usw.).

RLZ
2006-01-22, 19:57:54
Was ist ein Resource-Buffer? Kann man pro Buffer nur ein natives Datenformat nutzen oder sind auch "structs" möglich? Auch D3D10 erlaubt nur 16 Sampler??
Arg zu langsam.

Vielleicht sollte man bei mehr Fragen einen eigenen Thread aufmachen.