PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Showdown der Next-Gen. GPUs von Nvidia, ATi und PowerVR?


ActionNews
2004-01-07, 06:10:13
Hmm.... ich hab die neue PC Games Hardware noch nicht gelesen, aber wie hier zu lesen: http://www.pvr-world.de/index.php?section=single-news&id=241 berichtet die neue PC Games Hardware von einem "Showdown der drei Next-Generation Grafikchips im Frühjahr 2004" von Nvidia, ATi und PowerVR :)! Gezeigt werden auch Fotos von PowerVR Shader 3.0 Demos.
Ich muss mir die neue Ausgabe heute mal kaufen :)!

Na dann ... auf einen schönen Dreikampf :)!

CU ActionNews

mapel110
2004-01-07, 06:16:12
aber sofort berichten, ob mehr drin steht, sonst :bad1:

;)

eigentlich ists ja nichts neues. powervr hat in den letzten interviews ja immer wieder gesagt, dass sie auch was für den desktopmarkt haben.

Mehrpack
2004-01-07, 06:34:07
hi,
also es ging dabei mehr um die technische seite von PS & VS 3.0 und mit aussicht auf 4.0.
die bilder von power vr demo wurden nur gezeigt um einen möglichen "effekt" in der anwendung zu verdeutlichen.
mehr war das nicht.

Mehrpack

nagus
2004-01-07, 07:59:00
Original geschrieben von mapel110
aber sofort berichten, ob mehr drin steht, sonst :bad1:

;)

eigentlich ists ja nichts neues. powervr hat in den letzten interviews ja immer wieder gesagt, dass sie auch was für den desktopmarkt haben.


außer screenshots von PV3 PS3.0 und VS3.0 demos steht praktisch nichts genaueres über NV40 und R420 drin... außer dass bei nv40 175mio transistoren und 600mhz coretakt / 800mhz speichertakt anvisiert sind (IMHO zu optimistisch)

über r420 steht absolut nix drin. der einzige lichtblick: VS4.0 vorschau deutet evtl drauf hin, dass R420 vielleicht VS4.0 kann... hab da mal was im rage3d forum gelesen... könnte vielleicht ein weiteres indiz dafür sein :)

Gast
2004-01-07, 08:06:32
Was bitte soll ein VS4.0 sein - wo es im 4.0-Modell unified Shader gibt?

Gast
2004-01-07, 08:35:59
Original geschrieben von nagus
außer screenshots von PV3 PS3.0 und VS3.0 demos steht praktisch nichts genaueres über NV40 und R420 drin... außer dass bei nv40 175mio transistoren und 600mhz coretakt / 800mhz speichertakt anvisiert sind (IMHO zu optimistisch)

über r420 steht absolut nix drin. der einzige lichtblick: VS4.0 vorschau deutet evtl drauf hin, dass R420 vielleicht VS4.0 kann... hab da mal was im rage3d forum gelesen... könnte vielleicht ein weiteres indiz dafür sein :)

Genau das ist ja da Problem, über alle diese Chips ist überhaupt nichts bekannt, oder und die Leute, die etwas Wissen, werden sich nicht dazu äußern.

Ich bin z.b. bezüglich PowerVR wesentlich sicherer was seine VS und PS Version 3.0 anbelangt, also z.b. bei ATI.

Also stehen wir immer wieder alle bei der Aussage, sowohl ATi als auch Nvidia als auch PowerVR arbeiten an einem nextgen Chip, welche wohl alle auch irgendwann im Frühjahr das Licht der Welt erblicken sollen.

Bezüglich PowerVR kommt ja zu der Aussage der PCGH auch noch "das Gerücht" mit Valve.
http://www.computerandvideogames.com/r/?page=http://www.computerandvideogames.com/news/news_story.php(que)id=99674
Leider kann ich dazu nicht mehr sagen. ;)

Demirug
2004-01-07, 09:20:47
Solange DX-Next nicht fertig ist kann kein IHV sagen ob und was davon seine Hardware beherschen wird. Zudem sieht es gerade bei den Shadern so aus das wen ein Treiber 4.0 Shader unterstützung meldet alles 4.0 unterstützen muss.

Ich weiss ja nun auch nicht warum viele das "deferred rendering" von Brian Jacobson mit PowerVR in Verbindung bringt. Wenn ein Software Entwickler von DR spricht heist das in der Regel nichts anderes als das beim Rendern zuerst eine Reihe von Informationen in mehrern Buffern abgelegt werden und daraus in einem finalen Durchlauf das entgültige Bild erzeugt wird. Im Prinzip fallen alle Fullscreen Effekte in diesen Bereich. Richtig Spass macht DR allerdings erst mit PS 3.0.

Tigerchen
2004-01-07, 14:19:32
Das haben die in der PCGH auch gesagt. Deshalb meinen die ja auch daß die ATI/nVIDIA mit Shadern 3.0 kommen. Ich frag mich allerdings ob Displacement mapping wirklich so gefragt ist. J.C. hat sich ja nicht soooo positiv darüber geäußert.

Ailuros
2004-01-07, 14:57:27
Original geschrieben von Demirug
Solange DX-Next nicht fertig ist kann kein IHV sagen ob und was davon seine Hardware beherschen wird. Zudem sieht es gerade bei den Shadern so aus das wen ein Treiber 4.0 Shader unterstützung meldet alles 4.0 unterstützen muss.

Ich weiss ja nun auch nicht warum viele das "deferred rendering" von Brian Jacobson mit PowerVR in Verbindung bringt. Wenn ein Software Entwickler von DR spricht heist das in der Regel nichts anderes als das beim Rendern zuerst eine Reihe von Informationen in mehrern Buffern abgelegt werden und daraus in einem finalen Durchlauf das entgültige Bild erzeugt wird. Im Prinzip fallen alle Fullscreen Effekte in diesen Bereich. Richtig Spass macht DR allerdings erst mit PS 3.0.

Ich hab gerade einen ganzen Schluck Kaffee ueber den Monitor verpritzt....

Ailuros
2004-01-07, 15:00:20
ActionNews,

Was schon gesagt wurde gilt bis jetzt ohne Abweichung. Es macht keinen Sinn darueber zu diskuttieren, vor jeglicher Ankuendigung.

TheCounter
2004-01-07, 15:46:00
Original geschrieben von nagus
außer dass bei nv40 175mio transistoren und 600mhz coretakt / 800mhz speichertakt anvisiert sind (IMHO zu optimistisch)

Beim Coretakt könnte das hinkommen bzw. noch mehr sein. Guck dir nurmal EVGA an, die FX5950U von denen kann man mit stabilen 600 MHz Coretakt sowie 550 MHz Speichertakt betreiben.

Aber lieber erstmal abwarten, dauert ja noch ein bissi :)

Hauptsache PowerVR kommt wieder, ein starker dritter (Wobei das nicht an die Leistung angelehnt ist sondern da es ja schon ATI & NVIDIA gibt fehlt ein dritter, nur um Missverständnisse klarzustellen ;)) fehlt nämlich noch.

del_4901
2004-01-07, 15:54:01
Original geschrieben von Tigerchen

Das haben die in der PCGH auch gesagt. Deshalb meinen die ja auch daß die ATI/nVIDIA mit Shadern 3.0 kommen. Ich frag mich allerdings ob Displacement mapping wirklich so gefragt ist. J.C. hat sich ja nicht soooo positiv darüber geäußert.

J.C. liebt ja auch seine HeightMaps über alles. Da braucht es nach seiner Meinung kein Displacement Mapping mehr. Was ich durchaus nachvollziehen kann. Nur in Sachen Landscape-Rendering bringt DM wirkl. was. Alles andere ist die Sinnlose Verschwendung von Füllrate. Figuren sehen mit HeightMaps genauso schoen aus, DM währe hier purer Overkill.
Und Trueform mag J.C sowieso nicht, da er dann keine Kontrolle über die Geometrie mehr hat.

Demirug
2004-01-07, 16:07:21
Original geschrieben von AlphaTier
J.C. liebt ja auch seine HeightMaps über alles. Da braucht es nach seiner Meinung kein Displacement Mapping mehr. Was ich durchaus nachvollziehen kann. Nur in Sachen Landscape-Rendering bringt DM wirkl. was. Alles andere ist die Sinnlose Verschwendung von Füllrate. Figuren sehen mit HeightMaps genauso schoen aus, DM währe hier purer Overkill.
Und Trueform mag J.C sowieso nicht, da er dann keine Kontrolle über die Geometrie mehr hat.

DM erzeugt für JC das gleiche Problem wie Truform. Die Grafikkarte erzeugt dabei zusätzliche Geometrie. Da er die Schattenvolumen aber nur mit der CPU errechnen kann ist alles was zusätzliche Geometrie erzeugt für in nicht zu gebrauchen.

Wobei man das Auslesen von Texturen im Vertexshader nicht auf DM beschränken sollte. Damit kann man noch ganz andere Spielereien machen. Wobei auch DM ganz nette Sachen zulässt. Es sieht echt witzig aus wenn man mit einem Baseballschläger Dellen in ein Auto hauen kann. Bei den ganzen Sachen ist es aber von Vorteil wenn der Pixelshader auch FP32 rechnen kann.

TheCounter
2004-01-07, 16:18:21
@Demirug

Hab mal ne kurze Frage, bis jetzt ist es ja nur möglich Vertexpunkte zu verschieben oder?

Und ich hab gehört das durch DX10 (PPP) es dann möglich sein soll dynamisch Vertexpunkte zu erstellen & zu löschen, stimmt das? Und würde das heißen das z. B. echte Einschusslöcher möglich sind?

Danke.

DrumDub
2004-01-07, 16:25:29
Original geschrieben von TheCounter
Beim Coretakt könnte das hinkommen bzw. noch mehr sein. Guck dir nurmal EVGA an, die FX5950U von denen kann man mit stabilen 600 MHz Coretakt sowie 550 MHz Speichertakt betreiben.

haste den xbitlabs artikel überhaupt gelesen? die karte konnte nur mit diesen taktraten betrieben werden, nachdem ein voltmod für gpu und ram an der karte durchgeführt und noch ne wasserkühlung installliert wurde...

mit luftkühlung wär die karte sehr wahrscheinlich abgeraucht...

Demirug
2004-01-07, 16:27:21
Original geschrieben von TheCounter
@Demirug

Hab mal ne kurze Frage, bis jetzt ist es ja nur möglich Vertexpunkte zu verschieben oder?

Jaein. Im Vertexshader kann man sie nur verschieben. Das dynamische erzeugen von Punkte ist ja mit Verfahren wie Truform schon jetzt möglich. Das ist aber eben sehr unflexible.

Und ich hab gehört das durch DX10 (PPP) es dann möglich sein soll dynamisch Vertexpunkte zu erstellen & zu löschen, stimmt das? Und würde das heißen das z. B. echte Einschusslöcher möglich sind?

Danke.

Es soll wohl irgendwas in der Richtung geben aber ob es für einen vollständigen PPP reicht ist zweifelhaft.

Demirug
2004-01-07, 16:41:51
Ich weiss gar nicht was ihr wegen der Takterhöhung habt. Das sind nicht mal 27%. Das gab es früher auch schon.

Gast
2004-01-07, 17:22:08
Es gab auch schonmal 66,67% bzw. auf der anderen Seite 'nur' 18,1% - Trotzdem hat derjenige mit der kleineren Prozentzahl den größeren Sprung gemacht. So what?

Tigerchen
2004-01-07, 17:42:06
Original geschrieben von AlphaTier
J.C. liebt ja auch seine HeightMaps über alles. Da braucht es nach seiner Meinung kein Displacement Mapping mehr. Was ich durchaus nachvollziehen kann. Nur in Sachen Landscape-Rendering bringt DM wirkl. was. Alles andere ist die Sinnlose Verschwendung von Füllrate. Figuren sehen mit HeightMaps genauso schoen aus, DM währe hier purer Overkill.
Und Trueform mag J.C sowieso nicht, da er dann keine Kontrolle über die Geometrie mehr hat.


Na Trueform ist ja sowieso tot.

loewe
2004-01-07, 19:16:24
Original geschrieben von Demirug
DM erzeugt für JC das gleiche Problem wie Truform. Die Grafikkarte erzeugt dabei zusätzliche Geometrie. Da er die Schattenvolumen aber nur mit der CPU errechnen kann ist alles was zusätzliche Geometrie erzeugt für in nicht zu gebrauchen.

Mir ist zwar klar das JC die Schattenvolumen durch die CPU berechnen läßt, aber das könnte man doch auch einem Grafikchip überlassen, wenn da einer wäre der das kann und JC bereit wäre die Engine darauf an zu passen?
Auf einen Pfad mehr oder weniger sollte es doch nicht ankommen? ;)

Demirug
2004-01-07, 19:26:25
Original geschrieben von loewe
Mir ist zwar klar das JC die Schattenvolumen durch die CPU berechnen läßt, aber das könnte man doch auch einem Grafikchip überlassen, wenn da einer wäre der das kann und JC bereit wäre die Engine darauf an zu passen?
Auf einen Pfad mehr oder weniger sollte es doch nicht ankommen? ;)

Im Prinzip können die aktuellen Chips auch Schattenvolumen berechnen sind dabei aber herlich ineffektiv. Beim 3dmark wird das ja gemacht. Das Problem bei dieser Technik ist aber auch das sie sich nicht mit Truform oder ähnlichen Dingen verträgt.

Ein PPP im Chip könnte aber durchaus mit beidem klarkommen. In Verbindung mit DM müsste dann aber auch der PPP auf Texturen zugreifen können weil das DM ja auch für das Schattenvolumen durchgeführt werden müsste. Verdammt kompliziert das ganze.

Was einen zusätzlichen Renderpfad angeht so muss man sich natürlich erst einmal fragen ob das erzeugen der Schattenvolumen überhaupt ein bestandteil der anpassbaren Renderpfade ist oder zum GPU-unabhänigen Teil der Engine gehört. Falls das zweite zutrifft müsste man zuerst die Engine so umschreiben das sie es überhaupt erlaubt das Schattenvolumen von der GPU berechnet werden können.

Ailuros
2004-01-08, 02:39:53
Mir klingt der Umstand fuer Doom3 zu gross fuer Implementierungen die dann nur auf 2004 high end HW laufen kann, oder auch 2-5% im besten Fall.

Doom3 klingt schon jetzt sehr anspruchsvoll fuer heutige GPUs; ueberpumpen koennte man das Ganze natuerlich aber wenn das Resultat dann schlimmer ist als bei Halo-PC + dx9 Kram, dann hat es wohl auch nicht mehr viel Sinn.

Ailuros
2004-01-08, 02:45:23
Original geschrieben von Tigerchen

Na Trueform ist ja sowieso tot.


On-chip tesselation ist alles andere als tot.

Truform war einfach seiner Zeit voraus und machte wenig Sinn fuer Modelle die NICHT mit Truform als Gedanke entwickelt wurden.

Demirug
2004-01-08, 06:51:06
Original geschrieben von Ailuros
Mir klingt der Umstand fuer Doom3 zu gross fuer Implementierungen die dann nur auf 2004 high end HW laufen kann, oder auch 2-5% im besten Fall.

Doom3 klingt schon jetzt sehr anspruchsvoll fuer heutige GPUs; ueberpumpen koennte man das Ganze natuerlich aber wenn das Resultat dann schlimmer ist als bei Halo-PC + dx9 Kram, dann hat es wohl auch nicht mehr viel Sinn.

Anspruchsvoll? Aber nur aus der Sicht der Leistung. Technologisch bewegen wir uns eigentlich immer noch auf einem GeForce 1 Level mit kleinen Zusätzen.

AlfredENeumann
2004-01-08, 11:55:33
Original geschrieben von TheCounter
Beim Coretakt könnte das hinkommen bzw. noch mehr sein. Guck dir nurmal EVGA an, die FX5950U von denen kann man mit stabilen 600 MHz Coretakt sowie 550 MHz Speichertakt betreiben.



Glaube ich nicht. Schließlich werden die kommenden Chips um einige Transis fetter und da wird anfangs nicht viel Spiel sein um den Coretakt zu erhöhen.

del_4901
2004-01-08, 13:50:14
Original geschrieben von AlfredENeumann
Glaube ich nicht. Schließlich werden die kommenden Chips um einige Transis fetter und da wird anfangs nicht viel Spiel sein um den Coretakt zu erhöhen.

Aber wozu gib's das Moorsche-Gesetz? Und noch ist es gültig. Wir werden sehen, wenn das Gigaherzrennen bei den GPUs losgeht, was da alles aufeinmal wieder möglich ist.

Tigerchen
2004-01-08, 14:00:33
Original geschrieben von Ailuros
On-chip tesselation ist alles andere als tot.

Truform war einfach seiner Zeit voraus und machte wenig Sinn fuer Modelle die NICHT mit Truform als Gedanke entwickelt wurden.

Warum hat ATI dann die Transistoren beim R300 für Trueform eingespart?
Wirklich überzeugend fand ichs nur bei den Low Polygon Modellen von Half-life. Bei RTCW/Serious Sam hab ich kaum einen Unterschied bemerkt.
Außerdem muß sowas immer herstellerunabhängig sein. nVIDIA hat da ja seine eigene Methode die auch keiner haben wollte oder?

del_4901
2004-01-08, 14:04:55
Original geschrieben von Tigerchen

Warum hat ATI dann die Transistoren beim R300 für Trueform eingespart?
Wirklich überzeugend fand ichs nur bei den Low Polygon Modellen von Half-life. Bei RTCW/Serious Sam hab ich kaum einen Unterschied bemerkt.
Außerdem muß sowas immer herstellerunabhängig sein. nVIDIA hat da ja seine eigene Methode die auch keiner haben wollte oder?

du meinst N-Patches.

AlfredENeumann
2004-01-08, 14:09:50
Original geschrieben von AlphaTier
Aber wozu gib's das Moorsche-Gesetz? Und noch ist es gültig. Wir werden sehen, wenn das Gigaherzrennen bei den GPUs losgeht, was da alles aufeinmal wieder möglich ist.

Kann ich mir keinesfalls vorstellen.
Takterhöhung mit kleinerem Produktionsprozess ja, aber nicht bei einem Neudesign mit erheblich mehr Transis.

Ailuros
2004-01-08, 15:01:30
Original geschrieben von Tigerchen

Warum hat ATI dann die Transistoren beim R300 für Trueform eingespart?
Wirklich überzeugend fand ichs nur bei den Low Polygon Modellen von Half-life. Bei RTCW/Serious Sam hab ich kaum einen Unterschied bemerkt.
Außerdem muß sowas immer herstellerunabhängig sein. nVIDIA hat da ja seine eigene Methode die auch keiner haben wollte oder?


107M auf 150nm waren schon verdammt eng, wenn nicht schon gefaehrlich am Rand vorbei; die sich immer wiederholende Fragen warum ATI hier oder da mit Transistoren gespart hat, hat immer nur die gleiche Antwort. Gleiches gilt fuer Anisotropy oder LOD Praezision als weitere Beispiele.

Wie schon gesagt was Du an TruForm gesehen hast war in der Mehrzahl der Faelle, nur auf existierende Modelle, die nie mit TruForm als Gedanken entwickelt wurden. Haetten Entwickler Modelle von Anfang an mit Truform als Ansatz entwickelt, haette die Sache auch ganz anders ausgesehen.

Und ja low-poly Modelle profitieren davon wahrscheinlich am meisten; prinzipiell geht es ja darum als Idee ohne groesseren Aufwand low-poly Modelle als komplizierter erscheinen zu lassen. Obwohl eine total andere Technik etwa das gleiche Ziel hat z.B. auch CryTek's Polybump.

Es kann sein dass TruForm vielleicht in einer Schublade in der Zukunft verrottet, aber on-chip tesselation in der Zukunft - zu der die Technik eigentlich gehoert, wenn auch sehr primitiv - wohl eher nicht.

Um es noch klarer zu machen nimm als paralleles Beispiel ein paar Effekte vom T-buffer vom seligen 3dfx; spezifischer motion blur. Ausser dass die Implementierung zu langsam war damals und wohl kein Entwickler sich damit beschaeftigt hat, heisst es nicht dass es als Methode keine Zukunft haben wird.

Lies nochmal den DX-Next preview bei B3D durch und mach mal halt bei Tesselation/Topology; vielleicht hilft das.

Ailuros
2004-01-08, 15:11:28
Original geschrieben von Demirug
Anspruchsvoll? Aber nur aus der Sicht der Leistung. Technologisch bewegen wir uns eigentlich immer noch auf einem GeForce 1 Level mit kleinen Zusätzen.

Leistung ist doch nicht unwichtig oder (ueberhaupt fuer Entwickler *hust*)? Natuerlich haette JC noch viel mehr mit Doom3 anrichten koennen, aber es waere dann fraglich gewesen ob das heutige Doom3 + X-beliebige Erweiterungen auch anstaendig selbst auf einer 5900U laufen wuerde.

Kann GF1 das Ding ueberhaupt mit halbwegs anstaendigen Frameraten in 640*480 rennen? Oder sollte ich eher aus der 1 eine 3 machen? ;)

del_4901
2004-01-08, 15:14:29
Original geschrieben von Ailuros
Leistung ist doch nicht unwichtig oder (ueberhaupt fuer Entwickler *hust*)? Natuerlich haette JC noch viel mehr mit Doom3 anrichten koennen, aber es waere dann fraglich gewesen ob das heutige Doom3 + X-beliebige Erweiterungen auch anstaendig selbst auf einer 5900U laufen wuerde.

Kann GF1 das Ding ueberhaupt mit halbwegs anstaendigen Frameraten in 640*480 rennen? Oder sollte ich eher aus der 1 eine 3 machen? ;)
Das hat J.C bestimmt auch so gemacht, der will siene Engine, ja auch die nächsten Jahre noch verkaufen.
DooM3 ist nur die Grafikdemo der Engine, welche auf vielleicht 60% des möglichen gefahren wird, um spielbar zu bleiben (wenn das Game released wird)

Tigerchen
2004-01-08, 15:28:16
Original geschrieben von Ailuros
107M auf 150nm waren schon verdammt eng, wenn nicht schon gefaehrlich am Rand vorbei; die sich immer wiederholende Fragen warum ATI hier oder da mit Transistoren gespart hat, hat immer nur die gleiche Antwort. Gleiches gilt fuer Anisotropy oder LOD Praezision als weitere Beispiele.

Wie schon gesagt was Du an TruForm gesehen hast war in der Mehrzahl der Faelle, nur auf existierende Modelle, die nie mit TruForm als Gedanken entwickelt wurden. Haetten Entwickler Modelle von Anfang an mit Truform als Ansatz entwickelt, haette die Sache auch ganz anders ausgesehen.

Und ja low-poly Modelle profitieren davon wahrscheinlich am meisten; prinzipiell geht es ja darum als Idee ohne groesseren Aufwand low-poly Modelle als komplizierter erscheinen zu lassen. Obwohl eine total andere Technik etwa das gleiche Ziel hat z.B. auch CryTek's Polybump.

Es kann sein dass TruForm vielleicht in einer Schublade in der Zukunft verrottet, aber on-chip tesselation in der Zukunft - zu der die Technik eigentlich gehoert, wenn auch sehr primitiv - wohl eher nicht.

Um es noch klarer zu machen nimm als paralleles Beispiel ein paar Effekte vom T-buffer vom seligen 3dfx; spezifischer motion blur. Ausser dass die Implementierung zu langsam war damals und wohl kein Entwickler sich damit beschaeftigt hat, heisst es nicht dass es als Methode keine Zukunft haben wird.

Lies nochmal den DX-Next preview bei B3D durch und mach mal halt bei Tesselation/Topology; vielleicht hilft das.

Kann sein daß man aus Trueform mehr machen könnte.
Was ich meine ist aber vor allem daß Stand-alone Lösungen immer eine Totgeburt sind. Ich hatte damals auch was gegen Motion blur oder depth of field von 3dfx. Nicht generell sondern weils das eben nur von 3dfx gab. Wer solche Innovationen nicht zeitig in DirectX einbringt fährt halt 100%ig vor die Wand. Dasselbe gilt auch in anderen Bereichen. Aureal 3D ist ein prominentes Beispiel.

Ailuros
2004-01-08, 15:42:19
Man braucht nicht unbedingt API support fuer Effekte wie motion blur und API support hilft bei Totgeburten - wie Du sie nennst - wohl meistens auch gar nichts. Blendende Beispiele die API support hatten waren Matrox's EMBM (DirectX 6.0) oder HW displacement mapping (DirectX 9.0).

EMBM war und ist die elegantere bump mapping Methode IMO, wurde aber erst seit NV20 unterstuetzt und wurde seit dem Erscheinen der Pixel Shader ueberfluessig (in relativem Sinn).

Alle IHVs haben Erfolge oder Misserfolge mit dem Durchsatz spezifischer Features, d.h. aber nicht dass sie entweder nutzlos sind oder auch die jeweiligen Techniken auf den sie basieren nutzlos sind.

Im Fall von Displacement Mapping kuemmerte sich sowieso niemand mit der Parhelia und Implementierung beiseite, selbst Matrox unterstuetzt es nichtmal in ihren eigenen Treibern. Ab VS3.0 werden wir aber von HW basierendem DM hoechstwahrscheinlich doch was sehen.

Ailuros
2004-01-08, 15:47:44
Original geschrieben von AlphaTier
Das hat J.C bestimmt auch so gemacht, der will siene Engine, ja auch die nächsten Jahre noch verkaufen.
DooM3 ist nur die Grafikdemo der Engine, welche auf vielleicht 60% des möglichen gefahren wird, um spielbar zu bleiben (wenn das Game released wird)

Die generelle Taktik von JC ist mir schon klar; ich warte auch darauf bis jemand ein Spiel entwickelt mit der game engine ;)

60% von was?

Demirug
2004-01-08, 16:20:29
Original geschrieben von Ailuros
Leistung ist doch nicht unwichtig oder (ueberhaupt fuer Entwickler *hust*)? Natuerlich haette JC noch viel mehr mit Doom3 anrichten koennen, aber es waere dann fraglich gewesen ob das heutige Doom3 + X-beliebige Erweiterungen auch anstaendig selbst auf einer 5900U laufen wuerde.

Kann GF1 das Ding ueberhaupt mit halbwegs anstaendigen Frameraten in 640*480 rennen? Oder sollte ich eher aus der 1 eine 3 machen? ;)

Leistung hat man nie genügend das ist klar.

Ich habe hier noch eine GF1 rumliegen und könnte es dann mal ausprobieren aber Hoffnung habe ich da eigentlich keine.

Demirug
2004-01-08, 16:24:34
Original geschrieben von AlphaTier
du meinst N-Patches.

Truform = N-Patch

nVidia hatte in den GF3 Chips die sogenanten RT-Patches. Die sind noch schlimmer als N-Patches.

Tigerchen
2004-01-08, 18:28:32
Original geschrieben von Ailuros
Man braucht nicht unbedingt API support fuer Effekte wie motion blur und API support hilft bei Totgeburten - wie Du sie nennst - wohl meistens auch gar nichts. Blendende Beispiele die API support hatten waren Matrox's EMBM (DirectX 6.0) oder HW displacement mapping (DirectX 9.0).

EMBM war und ist die elegantere bump mapping Methode IMO, wurde aber erst seit NV20 unterstuetzt und wurde seit dem Erscheinen der Pixel Shader ueberfluessig (in relativem Sinn).

Alle IHVs haben Erfolge oder Misserfolge mit dem Durchsatz spezifischer Features, d.h. aber nicht dass sie entweder nutzlos sind oder auch die jeweiligen Techniken auf den sie basieren nutzlos sind.

Im Fall von Displacement Mapping kuemmerte sich sowieso niemand mit der Parhelia und Implementierung beiseite, selbst Matrox unterstuetzt es nichtmal in ihren eigenen Treibern. Ab VS3.0 werden wir aber von HW basierendem DM hoechstwahrscheinlich doch was sehen.

Matrox hat das EMBM zwar als Spezialfall in DX eingebracht aber das nutzt wenig weil Matrox halt die einzige Firma war die das zu dem Zeitpunkt implementierte. Wenns alle gehabt hätten wäre es wohl für die Spieleentwickler interessanter gewesen. So aber blieb Drakan das einzige mir bekannte Spiel welches EMBM nutzte. So toll fand ichs auc nicht muß ich dabei sagen.

grakaman
2004-01-08, 19:08:03
Original geschrieben von Tigerchen

Kann sein daß man aus Trueform mehr machen könnte.
Was ich meine ist aber vor allem daß Stand-alone Lösungen immer eine Totgeburt sind. Ich hatte damals auch was gegen Motion blur oder depth of field von 3dfx. Nicht generell sondern weils das eben nur von 3dfx gab. Wer solche Innovationen nicht zeitig in DirectX einbringt fährt halt 100%ig vor die Wand. Dasselbe gilt auch in anderen Bereichen. Aureal 3D ist ein prominentes Beispiel.


Naja, damals hatten die angesprochenen Parteien aber auch die entsprechenden Marktanteile und konnten sich durchaus Stand-alone Lösungen leisten. Dass 3dfx oder Aureal das zeitliche gesegnet hat, lag sicherlich nicht an den propritären Features.

Aquaschaf
2004-01-08, 19:08:39
Original geschrieben von AlphaTier
Aber wozu gib's das Moorsche-Gesetz? Und noch ist es gültig. Wir werden sehen, wenn das Gigaherzrennen bei den GPUs losgeht, was da alles aufeinmal wieder möglich ist.

AFAIK besagt das Moorsche Gesetz bloß, dass sich die Transistorzahl alle 18 Monate verdoppelt.

grakaman
2004-01-08, 19:10:55
Original geschrieben von Tigerchen

Matrox hat das EMBM zwar als Spezialfall in DX eingebracht aber das nutzt wenig weil Matrox halt die einzige Firma war die das zu dem Zeitpunkt implementierte. Wenns alle gehabt hätten wäre es wohl für die Spieleentwickler interessanter gewesen. So aber blieb Drakan das einzige mir bekannte Spiel welches EMBM nutzte. So toll fand ichs auc nicht muß ich dabei sagen.


Imo war Expendable das Vorzeigespiel für EMBM.

betasilie
2004-01-09, 02:28:37
Original geschrieben von grakaman
Imo war Expendable das Vorzeigespiel für EMBM.
Ack, aber da hat man nicht viel von gesehen bei dem Effektgewitter.

Ailuros
2004-01-09, 03:04:00
Original geschrieben von Tigerchen

Matrox hat das EMBM zwar als Spezialfall in DX eingebracht aber das nutzt wenig weil Matrox halt die einzige Firma war die das zu dem Zeitpunkt implementierte. Wenns alle gehabt hätten wäre es wohl für die Spieleentwickler interessanter gewesen. So aber blieb Drakan das einzige mir bekannte Spiel welches EMBM nutzte. So toll fand ichs auc nicht muß ich dabei sagen.


Ironie ist dass EMBM weitgehend in Spielen benutzt wurde und wird, seit NVIDIA es unterstuetzte.

Obwohl ein Entwickler tonnenweise mehr und bessere Effekte mit Pixel shader und dessen Flexibilitaet entwickeln kann, verstehe ich allen Ernstes die "oohs und ahhhs" ueber ein paar zeitigen Wasserspiegelungen in Spielen/Applikationen nicht, wenn diese bis zu einem Grad schon mit EMBM moeglich waren. Wo immer heute EMBM benutzt wird, wissen es sowieso nicht viele, denn es wird meistens uebersehen.

Jetzt mal allen Ernstes wenn das eine oder andere Feature nicht der Rede wert ist im Endeffekt, dann sind wohl jegliche Versuche seit der Voodoo-Aera umsonst gewesen.

Ich bin jetzt zu faul eine Liste auszugraben wo EMBM benutzt wurde und wird in heutigen Spielen, aber Du bist wohl wahrscheinlich in der G200-Aera steckengeblieben und selbst da war die Liste um einiges laenger als nur Drakan.

betasilie
2004-01-09, 03:19:15
Original geschrieben von Ailuros
Ich bin jetzt zu faul eine Liste auszugraben wo EMBM benutzt wurde und wird in heutigen Spielen, aber Du bist wohl wahrscheinlich in der G200-Aera steckengeblieben und selbst da war die Liste um einiges laenger als nur Drakan.
:???: Echt? Also ich meine, dass nur sehr weniger Games EMBM unterstützt haben. Kannst Du wenigstens mal ein paar aufzählen?

Ailuros
2004-01-09, 03:26:23
F1 2002 und alle Spiele die die gleiche engine benutzen, Echelon usw usw. ich muss da wirklich stark herumgraben um eine Liste machen zu koennen und dazu hab ich momentan keine Zeit.

Bin mir zwar nicht mehr sicher aber ich glaube dass die Spiegelungen auf dem Eis in Rallisport Challenge auch durch EMBM realisiert werden.

del_4901
2004-01-09, 04:01:44
Original geschrieben von Ailuros
Die generelle Taktik von JC ist mir schon klar; ich warte auch darauf bis jemand ein Spiel entwickelt mit der game engine ;)

60% von was?

von allem, z.B Anz. der Lichter, Schatten, Shaderlänge, max. Texturgröße, Polycount, eventuelle Extrafeatures (von denen wir noch nichts wissen) etc.
Ich wollte nur ausdrücken, das die Engine sicherlich viel mehr kann als DooM3 benötigt.

Er hält sich da immer sehr bedeckt, und rückt einige Sachen auch mit dem release des Games nicht raus. Warscheinl. auch deswegen, weil er jede Nacht davon träumt, was man noch so alles mit der Engine anstellen könnte. Und dann fällt ihm ein, ups das geht ja auch, oder es wird schnell ein Patch nachgeschoben.

Ailuros
2004-01-09, 04:30:16
Die Moeglichkeiten und/oder Limitierungen einer game engine sind sehr genau. Wie man auch daran drehen mag, Doom3 verbleibt ein GF1-Level Spiel.

Spiele nach Q3a die auf der gleichen engine basierten, waren zur Mehrzahl (wenn nicht alle) CPU limitiert, wobei im Gegensatz q3a zu seiner Zeit rein Fuellraten limitiert war. Texturgroesse war wohl skalierbar, aber nicht die Anzahl von Texturen pro pass.

Ich hab ernsthafte Zweifel dass die Geschichte mit Doom3 um vieles anders sein wird (ueberhaupt wenn poly counts nach oben skaliert werden). Doom3 sieht mir nicht als "shader-limitiert" aus und was wohl uns allen klar ist, ist dynamische Schatten =! shader. Wuerde es die Unmenge von stenciling nicht geben, haette eine GF1 um einiges weniger Probleme das Ding zu rennen.

Ich weiss zwar nicht was genau CroTeam mit der Serious Sam 2 engine angerichtet hat, nur dass sie shaders und dynamische Schatten implementiert haben, bis zu welchem Grad weiss wohl keiner. Trotzdem hab ich da mehr Hoffnung eine flexiblere game-engine zu sehen als bei Doom3.

del_4901
2004-01-09, 04:52:04
Original geschrieben von Ailuros
Die Moeglichkeiten und/oder Limitierungen einer game engine sind sehr genau. Wie man auch daran drehen mag, Doom3 verbleibt ein GF1-Level Spiel.

Spiele nach Q3a die auf der gleichen engine basierten, waren zur Mehrzahl (wenn nicht alle) CPU limitiert, wobei im Gegensatz q3a zu seiner Zeit rein Fuellraten limitiert war. Texturgroesse war wohl skalierbar, aber nicht die Anzahl von Texturen pro pass.

Ich hab ernsthafte Zweifel dass die Geschichte mit Doom3 um vieles anders sein wird (ueberhaupt wenn poly counts nach oben skaliert werden). Doom3 sieht mir nicht als "shader-limitiert" aus und was wohl uns allen klar ist, ist dynamische Schatten =! shader. Wuerde es die Unmenge von stenciling nicht geben, haette eine GF1 um einiges weniger Probleme das Ding zu rennen.

Ich weiss zwar nicht was genau CroTeam mit der Serious Sam 2 engine angerichtet hat, nur dass sie shaders und dynamische Schatten implementiert haben, bis zu welchem Grad weiss wohl keiner. Trotzdem hab ich da mehr Hoffnung eine flexiblere game-engine zu sehen als bei Doom3.

Ich komm darauf zurück wenn meine Vorbestelle Doom3 version bei mir eingetrudelt ist, und ich ne Woche Zeit hatte mit der CmdKonsole zu spielen.

Was jetzt nicht direkt dazugeört:
D3 kann mit LightwaveModdels umgehen!
D3 hat einen integrierten MayaImporter, der auch gleich den Polycount runternimmt, und entsprechende Heightmaps sich bastellt. Sprich ich bau mir mein fettes NurbsModdel, und der Importer erledigt den Rest für mich. Ich muss mich nicht mehr drum kümmern, wieviel Polys das Moddel hat bzw. bin nicht nur auf Polys beschränkt.

Welche Engine hat das schon?
Allein schon die Sache mit Lightwave kriegt'n fettes Respekt von mir.

Und dann noch die Sache mit Maya + den Heightmaps gibt's auch nirgendwo ander's.

Sunrise
2004-01-09, 07:51:35
Original geschrieben von Aquaschaf
AFAIK besagt das Moorsche Gesetz bloß, dass sich die Transistorzahl alle 18 Monate verdoppelt. Exakt.

Ich spekuliere zwar auch gerne über die Coretakte von NVIDIA und ATI, allerdings sagt uns dieser leider herzlich wenig über die tatsächliche Leistung (gerade auch in Bezug auf die Shader), deshalb sind solche Spekulationen zwar ganz lustig, aber im Endeffekt interessiert uns doch eher, wieviele Ops er bei diesem Takt dann ausführen kann.

betasilie
2004-01-09, 17:59:55
Original geschrieben von Ailuros
F1 2002 und alle Spiele die die gleiche engine benutzen, Echelon usw usw. ich muss da wirklich stark herumgraben um eine Liste machen zu koennen und dazu hab ich momentan keine Zeit.

Bin mir zwar nicht mehr sicher aber ich glaube dass die Spiegelungen auf dem Eis in Rallisport Challenge auch durch EMBM realisiert werden.
*hüst* Ok, aber F1-2002 ist nicht gearde alt und auhc nicht die Games, die diese Engine nutzen.

Bei RalliSport Challenge wird imo EMBM genutz bei dem Eisboden, aber das Game ist vom letzten Jahr.

Du hast aber behauptet, dass es 1999 einige Spiele mehr gab, als Tigerchen aufgeführt hat, die EMBM genutzt haben. Da kommt F1-2002 und RallisportChallenge dann aber nicht in Frage.

ram
2004-01-09, 19:38:12
Original geschrieben von Tigerchen

Matrox hat das EMBM zwar als Spezialfall in DX eingebracht aber das nutzt wenig weil Matrox halt die einzige Firma war die das zu dem Zeitpunkt implementierte. Wenns alle gehabt hätten wäre es wohl für die Spieleentwickler interessanter gewesen.

Matrox hat EMBM nicht in DX eingebracht. Es war Bitboys, von welchen Microsoft die Technik lizenzierte und in DX integrierte.

Matrox waren nur die einzigen, welche den Aufwand nicht scheuten, das Feature schon in ihrer DX6-Generation zu implementieren.


So aber blieb Drakan das einzige mir bekannte Spiel welches EMBM nutzte. So toll fand ichs auc nicht muß ich dabei sagen.


Eine nicht mehr aktuelle Liste der Games mit EMBM findet man hier: http://www.matrox.com/mga/3d_gaming/enhanced.cfm .

Colin McRae Rally 2.0 hatte IMO einen netten Effekt.

Darkstar
2004-01-09, 21:13:23
Original geschrieben von Ailuros
Ironie ist dass EMBM weitgehend in Spielen benutzt wurde und wird, seit NVIDIA es unterstuetzte.Das stimmt nicht. Die große Mehrheit der in der Liste im vorigen Post aufgeführten Spiele gab es schon vor dem Erscheinen der GeForce 3.

Ailuros
2004-01-10, 02:55:20
Original geschrieben von betareverse
*hüst* Ok, aber F1-2002 ist nicht gearde alt und auhc nicht die Games, die diese Engine nutzen.

Bei RalliSport Challenge wird imo EMBM genutz bei dem Eisboden, aber das Game ist vom letzten Jahr.

Du hast aber behauptet, dass es 1999 einige Spiele mehr gab, als Tigerchen aufgeführt hat, die EMBM genutzt haben. Da kommt F1-2002 und RallisportChallenge dann aber nicht in Frage.

Ich hab mich sowohl auf die Vergangenheit als auch auf heute bezogen.

ram hat freundlicherweise das Matrox flash demo geposted dass Du Dir anschauen kannst was aeltere Spiele betrifft und darunter ist auch Echelon dass ich auch erwaehnt habe.

Hier nochmal mein originaler Kommentar auf den Du selber geantwortet hast:

Ich bin jetzt zu faul eine Liste auszugraben wo EMBM benutzt wurde und wird in heutigen Spielen, aber Du bist wohl wahrscheinlich in der G200-Aera steckengeblieben und selbst da war die Liste um einiges laenger als nur Drakan.

Auf's flash demo klicken und dann sehen wir ob ich uebertrieben habe fuer die Vergangenheit genauso wie heute.

Ailuros
2004-01-10, 02:58:40
Original geschrieben von Darkstar
Das stimmt nicht. Die große Mehrheit der in der Liste im vorigen Post aufgeführten Spiele gab es schon vor dem Erscheinen der GeForce 3.

Das aber nur auf Matrox's flash demo Inhalt bezogen. Mein Kommentar ist nur dann ungueltig wenn Du es schaffst eine Liste von heutigen Spielen zu praesentieren die die Quantitaet vom obrigen demo NICHT uebertreffen kann. Viel Spass damit ich bin zu faul dazu.

Tigerchen
2004-01-10, 07:36:42
Original geschrieben von ram
Matrox hat EMBM nicht in DX eingebracht. Es war Bitboys, von welchen Microsoft die Technik lizenzierte und in DX integrierte.

Matrox waren nur die einzigen, welche den Aufwand nicht scheuten, das Feature schon in ihrer DX6-Generation zu implementieren.

Nun bei mir ist das immer so rübergekommen daß dies auf dem Mist von Matrox gewachsen ist. Danke für die Info.




Eine nicht mehr aktuelle Liste der Games mit EMBM findet man hier: http://www.matrox.com/mga/3d_gaming/enhanced.cfm .

Ich kannte nur Drakan. EMBM wurde 1999 sehr stark von Matrox beworben. Da hatte ich den Eindruck daß das zu diesem Zeitpunkt nur von Demos und ein paar Games genutzt wurde.

betasilie
2004-01-10, 13:17:31
Original geschrieben von Ailuros
Ich hab mich sowohl auf die Vergangenheit als auch auf heute bezogen.

ram hat freundlicherweise das Matrox flash demo geposted dass Du Dir anschauen kannst was aeltere Spiele betrifft und darunter ist auch Echelon dass ich auch erwaehnt habe.

Hier nochmal mein originaler Kommentar auf den Du selber geantwortet hast:



Auf's flash demo klicken und dann sehen wir ob ich uebertrieben habe fuer die Vergangenheit genauso wie heute.
So, jetzt konnte ich auch sehen, dass es doch relativ viele Spiele gab, die EMBM nutzten. ... Ich glaube das ist vielen entgangen. ;)

Modulor
2004-01-10, 13:38:07
Original geschrieben von Demirug
...
Was einen zusätzlichen Renderpfad angeht so muss man sich natürlich erst einmal fragen ob das erzeugen der Schattenvolumen überhaupt ein bestandteil der anpassbaren Renderpfade ist oder zum GPU-unabhänigen Teil der Engine gehört. Falls das zweite zutrifft müsste man zuerst die Engine so umschreiben das sie es überhaupt erlaubt das Schattenvolumen von der GPU berechnet werden können.

Deine Einschätzung bitte:
Hat JC den ehemals im Gespräch befindlichen Renderpfad für die 3DLabs VPUs noch weiterentwickelt bzw. wird er überhaupt noch angeboten in D3?
Ihm lag der P10 damals ob seiner Funktionalität doch so sehr...

Demirug
2004-01-10, 13:51:51
Original geschrieben von Modulor
Deine Einschätzung bitte:
Hat JC den ehemals im Gespräch befindlichen Renderpfad für die 3DLabs VPUs noch weiterentwickelt bzw. wird er überhaupt noch angeboten in D3?
Ihm lag der P10 damals ob seiner Funktionalität doch so sehr...

Angeblich gibt es ja sogar einen Pfad für die Parhelia.

Der OpenGL 2.0 Testpfad dürfte allerdings inzwischen nicht mehr funktionieren.

Im Zweifelsfall kan der P10 ja den NV2X Pfad benutzten da er ja die notwendigen Extensions unterstützt. Es könnte sogar sein das der NV2X Pfad schlau genug ist das er die zusätzlichen Slots welche der P10 bei den NV2X Extensions zur verfügung stellt nutzen kann.

Aquaschaf
2004-01-10, 14:15:02
Original geschrieben von AlphaTier

Was jetzt nicht direkt dazugeört:
D3 kann mit LightwaveModdels umgehen!
D3 hat einen integrierten MayaImporter, der auch gleich den Polycount runternimmt, und entsprechende Heightmaps sich bastellt. Sprich ich bau mir mein fettes NurbsModdel, und der Importer erledigt den Rest für mich. Ich muss mich nicht mehr drum kümmern, wieviel Polys das Moddel hat bzw. bin nicht nur auf Polys beschränkt.
Welche Engine hat das schon?
Allein schon die Sache mit Lightwave kriegt'n fettes Respekt von mir.
Und dann noch die Sache mit Maya + den Heightmaps gibt's auch nirgendwo ander's.

Sowas ist doch nebensächlich, welche Formate man importieren kann da die ja eigentlich untereinander kompatibel sind.
Die Polygonmenge bestimmen möchte man als Grafiker sowieso lieber selber. Funktionen um die Polygonanzahl zu reduzieren besitzt praktisch jede gängige 3D Software, und die sind auch nur bedingt brauchbar. Da kontrolliere ich meine Models lieber von Hand und um die Polygonzahl kümmere ich mich auch bestimmt nicht zum Schluss.
Jetzt mal im Ernst... wer benutzt bitteschön Nurbs für organische Modelle?

Ailuros
2004-01-10, 14:41:39
Original geschrieben von betareverse
So, jetzt konnte ich auch sehen, dass es doch relativ viele Spiele gab, die EMBM nutzten. ... Ich glaube das ist vielen entgangen. ;)

Die Verbreitung ueber Spiele muesste nach Schaetzung heutzutage um einiges groesser sein fuer neuere Spiele, nur kuemmert sich keiner darum eine neue Liste zu machen oder nachzudenken wie Effekt A oder B zustande kommt, ausser man ist natuerlich Profi (ich nehme ja immer zwangsweise den Laien-POV).

Was aber nicht gesagt wurde, ist dass wo immer auch EMBM benutzt wurde und wird sind es meistens nur Stellen wo man es leicht uebersehen kann, aber so arg verschieden ist es wohl mit den ersten pixel shader oder anderen Effekten wohl auch nicht oder? ;)

Hauwech
2004-01-11, 10:30:16
Original geschrieben von Demirug
DM erzeugt für JC das gleiche Problem wie Truform. Die Grafikkarte erzeugt dabei zusätzliche Geometrie. Da er die Schattenvolumen aber nur mit der CPU errechnen kann ist alles was zusätzliche Geometrie erzeugt für in nicht zu gebrauchen.

*snip*

OT:

Da duerften Dual-CPU-Systeme doch ordentliche Werte liefern, oder? SMP-Unterstuetzung ist fuer JC ja so gesehen nichts neues.

Demirug
2004-01-11, 10:53:13
Original geschrieben von Hauwech
OT:

Da duerften Dual-CPU-Systeme doch ordentliche Werte liefern, oder? SMP-Unterstuetzung ist fuer JC ja so gesehen nichts neues.

Das hängt stark davon ab in wie fern die Engine diese Arbeit wirklich auf 2 CPUs verteilt. Da lassen sich wirklich schwer vorhersagen machen.

Ailuros
2004-01-11, 11:29:42
Original geschrieben von Hauwech
OT:

Da duerften Dual-CPU-Systeme doch ordentliche Werte liefern, oder? SMP-Unterstuetzung ist fuer JC ja so gesehen nichts neues.

Also wenn es schon sein muss waeren mir persoenlich selbst in dem Fall, application stack/multi-threading basierende CPUs lieber.

Bringhimup
2004-01-11, 12:55:24
Original geschrieben von Demirug
Es sieht echt witzig aus wenn man mit einem Baseballschläger Dellen in ein Auto hauen kann.

Kannst Du da mehr zu sagen und vielleicht sogar zeigen (Screenshot)? Falls nicht reicht mir ein einfaches nein!

Gast
2004-01-11, 14:12:00
Original geschrieben von Aquaschaf
Sowas ist doch nebensächlich, welche Formate man importieren kann da die ja eigentlich untereinander kompatibel sind.
Die Polygonmenge bestimmen möchte man als Grafiker sowieso lieber selber. Funktionen um die Polygonanzahl zu reduzieren besitzt praktisch jede gängige 3D Software, und die sind auch nur bedingt brauchbar. Da kontrolliere ich meine Models lieber von Hand und um die Polygonzahl kümmere ich mich auch bestimmt nicht zum Schluss.
Jetzt mal im Ernst... wer benutzt bitteschön Nurbs für organische Modelle?
Poolygonanz. runterzudrehen, ist ja auch nicht das besondere, das Besondere ist die autom. Generierung von Heightmaps. (um die Polyanz. runterdrehen zu können, ohne das es jem. auffallen würde(bis auf die Ränder)).
Und in maya5 ist die Generierung von Heightmaps aus Highpoly-Moddels ein Knochenjob.

robbitop
2004-01-11, 18:54:41
@AEN
die erreichbare Taktfrequenz hängt nicht direkt mit der Anzahl der Transistoren zusammen (was meinst du warum R300 so hohe Takte erreicht hat).

Primär hängt die machbare Taktfrequenz mit dem Design, der Refie des Prozesses und gewissen Optimierungen (siehe R350/360) zusammen.

Die Taktraten haben allerdings ab einem gewissen Punkt einfluß auf die Yields, aber das haben Transistoranzahlen wohl auch.

Ich erwarte für beide IHVs >= 500Mhz Core Clock.



Bei PowerVR eher nicht so viel.
Solche Firmen stecken generell nicht so viel Aufwand in die Prozess/ Designoptimierung auf Taktraten. Zeit und Geld fehlen [Zeit = Geld also Geld^2 ;) ] Für PVR erwarte ich Taktungen zw 350-450Mhz Core. Speicherinterface 128bit nach meinem Wissenstand und ähnliche Taktung wie der Core.

Und "extreme kind of Pipelines" :D

also das Techlevel der Series5 soll wohl recht hoch sein ^^

Demirug
2004-01-11, 19:16:13
Original geschrieben von Bringhimup
Kannst Du da mehr zu sagen und vielleicht sogar zeigen (Screenshot)? Falls nicht reicht mir ein einfaches nein!

Das ganze ist eine Kombination aus DM und Physiksimulation im Pixelshader.

In einer Textur werden die Dellen gespeichert und über DM auf das Fahrzeug aufgebraucht. Ein Pixelshader verändert die DM Textur dann immer dort wo Druck auf diese wirkt indem er die delle tiefer macht.

Ailuros
2004-01-12, 04:52:05
Bei PowerVR eher nicht so viel.
Solche Firmen stecken generell nicht so viel Aufwand in die Prozess/ Designoptimierung auf Taktraten. Zeit und Geld fehlen [Zeit = Geld also Geld^2 ]

Woher kommt das jetzt schon wieder her?

Welcher Prozess wird genau im gegebenen Fall benutzt und welcher bei den konkurrierenden Loesungen?

Wieviel Transistoren genau haben A,B oder C?

Wie sieht das Feature-set genau im Vergleich zwischen A,B und C aus?

Was soll A,B oder C kosten?

Wie lange dauerte es fuer A,B oder C fuer die Entwicklung bis heute und wieviel Resourcen wurden in allen drei Faellen aufgeopfert?

Es ist schon klar dass in dem Fall core und ram mit hoechster Wahrscheinlichkeit synchron laufen werden, aber da ist die Entscheidung mehr auf das Niveau des Finalpreises konzentriert, ueberhaupt wenn man Unmengen von hochratigem DDRx und dessen Preis in Betracht nimmt.

Ohne eine klare Antwort auf alle obrige Fragen zu haben, ist Deine Schlussvolgerung momentan nicht viel wert.

robbitop
2004-01-12, 11:05:17
das ist mir bewußt Ailuros.
Ich habe letztendlich nur das geschlußfolgert was ich über Jahre gesehen habe.
Ist die 9600 teuer? Nein. Hat sie hohe Taktraten: oh ja.
Vergleichen wir mal mit Volari/Xabre/DC/Savage/Kyroreihe ect ect ect.

Außer ATi/nVIDIA scheint keiner der IHVs solche Taktraten bieten zu können und die Konkurenz war selten günstiger.

Aber du musst diese Schlußfolgerung in keinster Weise für dich übernehmen. Ist letztendlich nur eine Ansammlung eigener Beobachtung. Vieleicht ist diese nicht 100%ig wahr aber ich mutmaße mal, daß doch ein wenig Wahrheit dahinter steckt. ;)

Und nein, ist völlig klar daß ich deine ganzen Fragen als Normalsterblicher nicht beantworten kann :)

Aber ich lasse mich in meinen Ansichten gern korrigieren.
Bitte erzähle mir mehr über Taktraten bei anderen IHVs

Ailuros
2004-01-12, 14:26:35
Mit der Transistoren-Anzahl die ich schaetze, sieht es nicht nach weniger als low-k 130nm aus.

Ich habe letztendlich nur das geschlußfolgert was ich über Jahre gesehen habe.
Ist die 9600 teuer? Nein. Hat sie hohe Taktraten: oh ja.
Vergleichen wir mal mit Volari/Xabre/DC/Savage/Kyroreihe ect ect ect.

Den einzig moeglichen Vergleich den Du mit einer KYRO2 machen koenntest, waere wohl eine R100. Dass diese auf 183MHz getaktet war wirst Du wohl wissen.

STG5500@13nm war fuer 250MHz geplant und der refresh STG5800 fuer 300MHz. Ja ich weiss dx7, vaporware etc etc aber ich sah fuer diesen Zeitraum eine R200@15nm und 275MHz und die NV25@15nm - 300MHz.

Jetzt erklaer mir nochmal bitte wo genau das Taktraten/Herstellungsprozess Argument reinpasst.

robbitop
2004-01-12, 14:57:55
Ich verglich Kyro1 mit der GF2 MX.
Später kam der Kyro2. Gut hier wurde einiges in die Taktraten optimiert. Und dennoch war bei 183Mhz schluss.
GF2U kam auf 250Mhz. Radeon7500 (R100 mit Prozessoptimierung+shrink) auf 275Mhz.

Und ich ziehe ja noch andere IHVs hinzu. S3, SiS->XGI
Diese waren niemals/selten auf ähnliche Taktraten getrimmt wie ATi/NV. Sicher ist das eine Frage des Preises, aber ich will nicht wissen was für Zacken sich ATi beim R300 aus der Krone gebrochen hat beim Fertigen und hin zum R350.
Oder nV beim NV30 ohne LowK bis 500Mhz.
Das kostet wie du sagtest. Und deswegen tun das andere IHVs eher weniger.
Bei der P512 war das auch der Fall. 200Mhz bei 150nm...naja. Bei 300Mhz wäre die wirklich ganz gut drangewesen (jmd aus unserem Forum hat ihn mit VCoreMod und Kompressorkühlung bis ~300Mhz geprügelt).
Vom NV20 auf den NV25. Das waren immerhin 60Mhz Differenz.
usw usw

Über nichtexistente HW lohnt es sich imo nichtzu diskutieren AiL, da diese eben nicht produziert worden ist und eine prozessbezogene Diskussion ist doch hier ungangebracht oder? ;)

wobei damals noch nichteinmal an 130nm für GPUs zu denken war....das war Anfang 2003 schon schwer genug...

Gast
2004-01-12, 15:42:55
Original geschrieben von robbitop

Und ich ziehe ja noch andere IHVs hinzu. S3, SiS->XGI
Diese waren niemals/selten auf ähnliche Taktraten getrimmt wie ATi/NV.


Dann frage ich jetzt auch mal:

Wo unterschieden sich die Takte eines SiS Xabre von denen einer GF4/R8500??
War ein Savage2k schneller oder langsamer getaktet als eine Gf1??

Denk mal nach.

robbitop
2004-01-12, 16:06:04
ja der Savage2000 war deutlich langsamer als die Geforce 256. Dieser war mit 166Mhz Chiptakt geplant. Realisiert worden sind nur 125Mhz.

Auch der Xabre war langsamer als seine Konkurenten GF3/GF4.
Die Takte waren allerdings für 150nm in Ordnung.

Aber ich weiss nicht ob diese Diskusion sinnvoll ist oder nicht. Ich bin eher der Meinung sie ist es nicht.
Ich sagte ja auch nicht daß es keinen "ähnlich" getakteten Chip gibt, sondern dass mir auffiel, dass es selten ähnlich getaktete Modelle von anderen IHVs gibt.

Gaestle
2004-01-12, 16:25:15
Original geschrieben von ram
Matrox hat EMBM nicht in DX eingebracht. Es war Bitboys, von welchen Microsoft die Technik lizenzierte und in DX integrierte.

Matrox waren nur die einzigen, welche den Aufwand nicht scheuten, das Feature schon in ihrer DX6-Generation zu implementieren.


IMHO hat die KYRO-Reihe auch EMBM in HW.

Grüße

robbitop
2004-01-12, 16:45:09
@Gaestle
darum ging es nicht direkt.
MGA hat es zwar als erste Desktopgrafikkarte dies in HW umgesetzt, jedoch hat lt. ram Bitboys dies in die Specs gebracht

HOT
2004-01-12, 17:39:34
Der Savage2k war ähnlich schnell wie eine Geforce mit SDR. Dass sie langsmaer war als eine Geforce mit DDR war klar, da müsste man ja einen S2k mit DDR gegensetzen :D

Ach ja, Geforce SDR war glaub ich 120/166 getaktet und die ViperII Z200 115/150 (so wie meine damals; es soll auch versionen mit 120/160 und 115/160 gegeben haben).

robbitop
2004-01-12, 18:00:13
http://www6.tomshardware.com/graphic/19991102/
eher nicht.
THG ist zwar heutzutage verachtet, aber damals haben sie noch wirklich gute Artikel gebracht..

Der Savage kam nur an die GF1 herran wenn viele Texturlagen an der Tagesordnung waren. Der Author spricht von extremen FPS Drops bei 16x12 bei 16bit Farben...

Mit geplanten 166/200 und einer brauchbaren TnL Unit wäre das Ding evl ein GeForce Killer geworden.

stickedy
2004-01-12, 18:18:06
Ach komm schon, dass ist ein Preview mit Beta-Treibern und Beta-Hardware! Das ist für deine Argumentation tödlich!

Da halt dich doch lieber an digit-life http://www.digit-life.com/articles2/over2003/index.html

Wobei man natürlich berücksichtigen sollte, das die Treiber des S2K natürlich nicht mit denen für die GeForce256 SDR vergleichbar sind, da S3 im Prinzip den S2K nicht mehr supported. Außerdem wurden nur neuere Spiele gestestet... Wie das damals aussah steht imho auf nem anderen Blatt... Aber der S2K so gut gewesen wäre, dann wäre S3 net an ihm zugrunde gegangen...

robbitop
2004-01-12, 18:56:30
offiziell hat man ein joint venture mit VIA gegründet. Also sind sie nicht zugrunde gegangen, wie man am DC sieht ;)

ow
2004-01-12, 18:57:22
.

robbitop
2004-01-12, 19:01:29
was zählt sind die games von damals, denn die Karte ist eben auch aus dieser Zeit.
Aber diese Diskussion ist eh OT...
ich führ mir jetzt mal deinen Link zu gemüte (thx übrigens)

robbitop
2004-01-12, 19:08:14
habe deinene Link angeschaut und auch hier ist der Savage unterlegen ;)

Gast
2004-01-12, 19:26:51
Original geschrieben von Demirug
Das ganze ist eine Kombination aus DM und Physiksimulation im Pixelshader.

In einer Textur werden die Dellen gespeichert und über DM auf das Fahrzeug aufgebraucht. Ein Pixelshader verändert die DM Textur dann immer dort wo Druck auf diese wirkt indem er die delle tiefer macht.

Du könntest das doch als Techdemo rausbringen :D

Mr. Lolman
2004-01-12, 19:41:27
Nö, sonst werden die Shader gehackt ...



... oder?

LovesuckZ
2004-01-12, 21:35:29
Wozu'ne Techdemo "manipulieren"?
Ich meine, solange wie dadraus kein "Schnullervergleich" gemacht wird, passiert auch nichts.

Mr. Lolman
2004-01-12, 21:39:44
Sry, aber Schnullervergleich ist ein sh1ce Wort X-D

Ich kanns mir ja auch nicht ganz vorstellen, aber ganz von der Hand zu weisen ist es ja nicht, da Demis AFTester auch schon gehackt wurde. Ausserdem gab Demi folgendes Statement (zum ein und demselben Proggi? :naughty: )ab:

Original geschrieben von Demirug
Ich würde das Testprogramm ja öffentlich machen befürchte dabei jedoch das sich die IHVs wie Geier darauf stürzen würden um die ganzen Shader zu cheaten. Deswegen bleibt es bei mir.

edit: Ausserdem würde mir das als Entwickler kräftig gegen den Sack gehen, wenn ich merken müsste, wie diverse GraKatreiber meine Shader austauschen (neu compilieren ist ja ok)

Demirug
2004-01-12, 22:16:02
Original geschrieben von Mr. Lolman
Sry, aber Schnullervergleich ist ein sh1ce Wort X-D

Ich kanns mir ja auch nicht ganz vorstellen, aber ganz von der Hand zu weisen ist es ja nicht, da Demis AFTester auch schon gehackt wurde. Ausserdem gab Demi folgendes Statement (zum ein und demselben Proggi? :naughty: )ab:

Das eine hat mit dem anderen nichts zu tun.

Der Delleneffekt kann durchaus mal in einer öffentlichen Techdemo auftauchen. Aber erst muss mal entsprechenden Hardware verfügbar sein. Solche Refrast Geschichten wie PowerVR mache ich nicht mit.

Ailuros
2004-01-13, 04:17:55
Original geschrieben von robbitop
Ich verglich Kyro1 mit der GF2 MX.
Später kam der Kyro2. Gut hier wurde einiges in die Taktraten optimiert. Und dennoch war bei 183Mhz schluss.

*hust* STG4800 aber generell so weit so gut.

GF2U kam auf 250Mhz. Radeon7500 (R100 mit Prozessoptimierung+shrink) auf 275Mhz.

Was zum Henker hat eine GF2MX mit einer GF2U zu tun?

Und ich ziehe ja noch andere IHVs hinzu. S3, SiS->XGI
Diese waren niemals/selten auf ähnliche Taktraten getrimmt wie ATi/NV. Sicher ist das eine Frage des Preises, aber ich will nicht wissen was für Zacken sich ATi beim R300 aus der Krone gebrochen hat beim Fertigen und hin zum R350.
Oder nV beim NV30 ohne LowK bis 500Mhz.
Das kostet wie du sagtest. Und deswegen tun das andere IHVs eher weniger.

Wenn Du Aepfel mit Birnen vergleichst und alles in einen Topf wirfst dann ist eine andere Geschichte. Respektier erstmal welchen Markt jegliche Loesung ueberhaupt anpeilt und die Spezifikationen jeglicher Loesung.


Über nichtexistente HW lohnt es sich imo nichtzu diskutieren AiL, da diese eben nicht produziert worden ist und eine prozessbezogene Diskussion ist doch hier ungangebracht oder? ;)

Du hast ja das Thema begonnen und wirfst alles in einen Topf nicht ich. Ja K3 ist vaporware aber operative test-samples existieren. Genauso unangebracht wie eine RV350 oder GF2U mit einer K2 zu vergleichen.

wobei damals noch nichteinmal an 130nm für GPUs zu denken war....das war Anfang 2003 schon schwer genug...

Wer hat was von low-k im Zusammenhang mit STG5k5 erwaehnt? Das Ding hatte niedrige Komplexitaet und war Produktionsreif.

seahawk
2004-01-13, 06:54:13
Wird es von Pwoer VR wirklich einen Next Gen Chip zu kaufen geben ??

Man sollte doch langsam auch offiziell mehr hören.

Gast
2004-01-13, 07:06:34
Warum? Man hört ja auch weder von ATI noch von NVidia offiziell "mehr"...
Du hörst dann "mehr" von PowerVR wenn der Chip vorgestellt wird. Was sollen sie auch sagen?

Quasar
2004-01-13, 07:46:43
Original geschrieben von robbitop
[...]hohe Taktraten[...]
Vergleichen wir mal mit Volari/Xabre/DC/Savage/Kyroreihe ect ect ect.
Außer ATi/nVIDIA scheint keiner der IHVs solche Taktraten bieten zu können und die Konkurenz war selten günstiger.

Die Xabre z.B. kam mit durchaus konkurrenzfähiger Taktrate auf den Markt, ähnlich der, die eine entsprechende GF4Ti zu der Zeit bot.

Original geschrieben von robbitop
Ich verglich Kyro1 mit der GF2 MX.
Später kam der Kyro2. Gut hier wurde einiges in die Taktraten optimiert. Und dennoch war bei 183Mhz schluss.
GF2U kam auf 250Mhz. Radeon7500 (R100 mit Prozessoptimierung+shrink) auf 275Mhz.
R100 kam auf 290MHz bei den BBA-Karten...aber, wie du schon sagtest, mit Shrink. Die GF2Ti war mit Shrink ebenfalls bei 250MHz, wie die GF2U, ohne Shrink.

Original geschrieben von robbitop
Und ich ziehe ja noch andere IHVs hinzu. S3, SiS->XGI
Diese waren niemals/selten auf ähnliche Taktraten getrimmt wie ATi/NV.

s.o. SiS war's, geholfen hat's nichts.

ActionNews
2004-01-13, 16:19:20
Original geschrieben von seahawk
Wird es von Pwoer VR wirklich einen Next Gen Chip zu kaufen geben ??

Man sollte doch langsam auch offiziell mehr hören.

Naja offiziell wirst du erst was hören, wenn PowerVR den/die Chips vorstellt. Genau wie bei Nvidia oder ATi. Da gibt es bisher auch nur Gerüchte.

Das "offizielleste" was ich bisher gelesen habe steht in besagter PC Gamesharware Ausgabe:

NV40, R420, PowerVR Serie 5: Gleich mehrere komplett neue Grafikprozessoren erblicken nächstes Jahr das Licht der Welt. PC Games Hardware blickt in die Zukunft.

Im nächsten Frühling steht der große GPU-Showdown an. Noch sind sie streng geheim, die Spezifikationen und Eckdaten der kommenden Grafikchipgeneration. Doch hinter den Kulissen bereiten sich die Chipentwickler PowerVR, Nvidia und ATi bereits darauf vor, ihre neuesten Entwicklungen zur Marktreife zu bringen.

(...)

Die Zukunft beginnt im Frühjahr 2004. Ob ATi, Nvidia oder gar PowerVR die beste Feature-Liste der nächsten Chipgeneration bieten wird? Wir sind gespannt.

Naja ich auch :)! Aber PCGH wollte ja etwas vorsichtiger sein was PowerVR angeht nach dem KyroIII-Debakel. So hoffe ich mal die haben sich dabei was gedacht :)!

CU ActionNews

haifisch1896
2004-01-13, 16:56:37
Wenn ich mich aber nicht irre, haben die von der PCGH auch mal geschrieben, dass die S5 2003 kommen sollte. Irgendwo war da mal was.
Insofern gebe ich auf derlei Gerüchte erstmal gar nichts, bis von PVR was kommt.

Anhand eines Gespenstes wird die Stofffaltung der neuen Shader demonstriert.

Na gut, ich bin bereit, meine Meinung zu überdenken. Denn das wäre ja die Cloth-Demo, welche die sicher nicht auf ner ATI- oder nv-Karte haben laufen lassen.

loewe
2004-01-13, 18:13:02
Original geschrieben von hendrikhey

Na gut, ich bin bereit, meine Meinung zu überdenken. Denn das wäre ja die Cloth-Demo, welche die sicher nicht auf ner ATI- oder nv-Karte haben laufen lassen.

Was soll denn das?

http://www.mitrax.de/bilder/ghost.jpg

Das ist die Cloth Demo, kannst du auch bei dir laufen lassen, "-refdevice" machst möglich! :)

haifisch1896
2004-01-13, 22:34:02
Auf der Seite von PVR-Dev steht doch, dass da PS und VS 3.0 vorausgesetzt wird.... aber mal ausprobieren. Danke für den Tip´.

robbitop
2004-01-13, 22:54:31
@AiL
habe etw durcheinandergeworfen sorry.
Klar kann man das nicht vergleichen, das ist eben ein subjektiver Eindruck der sich bei mir nach Jahren einfach gefestigt hat. Und ich könnte Wetten, daß S5 auch nicht sonderlich hoch getaktet werden wird. Warum nicht?
Der DC wurde wegen seiner Leistungsaufnahme niedrig getaktet. Aber der F1 könnte einiges mehr an Taktraten vertragen. Der Volari Duo muss niedrig getaktet sein wegen der ohnehin schon schlimmen Verlustleistung.

Aber irgendwie habe ich das Gefühl, daß die 500Mhz Coretaktmarke die seit einem Jahr steht, nicht so schnell von anderen IHVs gebrochen wird.Aus welchem Grund sei mal dahin gestellt. Es ist imo viel Haarspalterei.

@nochmal AiL
130nm war Anfang 2002 für ~60Mio Trans produktionsreif? :O

stickedy
2004-01-13, 23:08:46
Warum nicht? TSMC fertigt seit Mitte 2001 die VIA C3 CPUs in 0,13 µm mit ca. 15,5 Mio. Transistoren.
Außerdem wäre STG5500 wohl nicht Anfang 2002, sondern eher im März/April erschienen.
Also sollten wohl 60 Mio Transistoren mit 250 MHz machbar gewesen sein, auch wenn man CPUs und Grafikchips nicht wirklich vergleichen kann bei der Produktion...

Man ging aber afaik bei STM von einer noch früheren Verfügbarkeit von 0,13 µm aus...

Ailuros
2004-01-14, 03:49:07
Und ich könnte Wetten, daß S5 auch nicht sonderlich hoch getaktet werden wird. Warum nicht?

Kann wahr sein aber aus mehreren Gruenden. Beispiele waeren weil er es vielleicht die Entwickler empfanden dass er eine hoehere Taktung gar nicht noetig hat, wenn ihrer Meinung nach die Effizienz hoch genug ist, oder dass es durch die hohe Chipkomplexitaet und dass es ein TBDR ist, eine hoehere Taktung eher eine schlechte Idee waere. Woher soll ich jetzt schon alle diese Kleinigkeiten wissen? Nach der Veroeffentlichung kann ich mich ueber das Ding hinsetzen und es durchtesten und PVR endlose Fragen stellen.

Verfuegbar sind momentan nur Spekulationen ueber die Transistoren-Anzahl von NV40 und das ist immer noch keine Garantie; sonst verbleiben die restlichen in dem Aspekt ein Fragezeichen.

Der DC wurde wegen seiner Leistungsaufnahme niedrig getaktet. Aber der F1 könnte einiges mehr an Taktraten vertragen. Der Volari Duo muss niedrig getaktet sein wegen der ohnehin schon schlimmen Verlustleistung.

arggghhh pfeif auf den DC und Volari. Wenn Du S5 und dessen Komplexitaet vergleichen willst, dann bleib mal gefaellig auf R420/NV40 Niveau.

Aber irgendwie habe ich das Gefühl, daß die 500Mhz Coretaktmarke die seit einem Jahr steht, nicht so schnell von anderen IHVs gebrochen wird.Aus welchem Grund sei mal dahin gestellt. Es ist imo viel Haarspalterei.

Genau das fettgedruckte ist es. Wenn angenommen der eine chip mit 400MHz und der andere mit 500MHz ankommt, dann heisst es immer noch nicht dass Effizienz gleich ist, dass das Featureset gleich ist, dass Implementierungen diverser Feature gleich sind usw usw. Ich wiederhole ja das gleiche Zeug schon ueber mehrere posts auf die eine oder andere Weise und Du wirfst ja staendig die irrelevantesten Vergleich die Du finden kannst in die Debatte.

NV30= 500MHz
R300= 325MHz

Hilft das vielleicht die Sache auf ihren wahren Punkt zu bringen?

130nm war Anfang 2002 für ~60Mio Trans produktionsreif?

Ich weiss zwar nicht woher das oede Transistoren-gewarkel wieder her kommt, aber ich sehe nichts dass in H1 2002 dagegen gesprochen haette.

Man ging aber afaik bei STM von einer noch früheren Verfügbarkeit von 0,13 µm aus...

Yupp. Q4 2001 aber daran war eher TSMC dran schuld.

robbitop
2004-01-14, 11:04:32
sorry wegen der Meinungsverschiedenheit AiL :)

die 60Mio Transistoren waren aus der Hüfte geschossen, aber du musst zugeben, daß das sicher einigermaßen zugetroffen hätte oder?

Ich weiss das S5 komplex ist und ich weiss, daß Takt=/ Effizienz ist (das sollte dir klar sein ;) ).
Dennoch schließt komplexität und Effizienz hohe Takte keinesfalls (R300 damals waren das hohe Takte) aus. Gerade für die HighEnd Version könnte man nochmal alles bringen. Für Midrange reicht ja ein niedriger Takt zumeist aus wie DC bewies. Aber stell dir mal den DC mit 400 oder 450Mhz vor...(nicht im Vergleich mit S5 ich weiss ich weiss).

Das ist einfach ein subjektiver Eindruck. Mal schauen ob sich das noch Ändert. Sicher kann es tausend Gründe gegen Hohe Taktraten geben. Jedoch machen ATi/nVIDIA es vor. Hohe Taktraten, bei hoher Effizienz und hoher Komplexität.
Das kostet eben auch -> Materialschlacht.

wie auch immer in deinen Aussagen steckt viel Wahrheit und ich möchte sie eigendlich nicht bestreiten...ist eben subjektiv


€dit: habe gerade noch einmal recherchiert. Da fiel es mir wieder ein: Der S4 sollte ja gar keine VS/PS gehabt haben. Stimmt dann sind 60Mio Transistoren wirklich sehr hoch gegriffen und es steht überhaupt kein Vergleich zur heutigen 130nm Fertigung.

Gast
2004-01-14, 12:07:43
@robbitop

bitte nicht ursache und wirkung miteinander vertauschen.

Der S3 DC ist deshalb midrange, weil er so leistungsschwach ist.

Aber er wurde nicht als midrange konzipiert und ist als folge dessen so leistungsschwach.

Das hier:
"Für Midrange reicht ja ein niedriger Takt zumeist aus wie DC bewies" ist also Unfug.

robbitop
2004-01-14, 12:16:52
schau dir mal das PCB an und evl in einger zeit die Preise, dann siehst du dass es Midrange ist. Das Teil wurde imo eindeutig für den Mobilen Markt und für OnBoard konzipiert.

Ich kenne keine Offizielle aktuelle Aussage seitens S3, daß es anders sein sollte. Zumindist für die S8. F1 haben wir noch nichts von gesehen.

Fakt ist, daß DC Midrange ist. Ursprünglich sollte DC ein etwas anderer Chip werden, und ja ich weiss dass es HighEnd werden sollte (16xMSAA zB), aber das interessiert den Endanwender wenig.
Außerdem ist die Diskussion leider länger OT, was sehr schade ist.

Gast
2004-01-14, 12:27:50
Original geschrieben von robbitop
schau dir mal das PCB an und evl in einger zeit die Preise, dann siehst du dass es Midrange ist. Das Teil wurde imo eindeutig für den Mobilen Markt und für OnBoard konzipiert.




Was das Teil jetzt ist und wofuer er damals konzipiert wurde, dass sind 2 paar Schuhe.

Schade, dass du nicht in der Lage scheinst, das trennen zu koennen.

robbitop
2004-01-14, 12:37:18
nicht von oben herrab bitte..
sowas macht die Stimmung total kapputt.

ich habe es im obrigen Posting getrennt.
lies nochmal :)
Ich weiss dass es so ist aber S3 hat es eben anders gewollt und den Endanwender interssiert soetwas nicht.
Der Columbia ist imo nicht mehr derselbe, der er für HighEnd werden sollte.

Denn wenn du eine GPU auf HighEnd auslegst hast du nach dem Gesetz für maximalen Nutzen nicht linear höheren Aufwand. Sondern eher expotential hohen Aufwand.
Schau dir die 4W der GPU mal an, aus so einem Chip wird kein High End Chip. Er müsste ca 2x so schnell sein wie er jetzt ist, um Highend zu werden. Und dort sind geringe Leistungsaufnahmen nicht möglich. (auch anders herrum geht das nicht). S3 hat es im Designstadium vermulich bereits "eingesehen" und hat eben einen mobile Chip gemacht. So sieht es jedenfalls für mich aus


ich weiss nicht, ob es gut ist sich über OT (wobei es nicht extem OT ist) hier zu fetzen. Lass uns lieber einen Splitt aufmachen oder das anders besprechen.

Gast
2004-01-14, 12:52:38
Das klingt doch schon besser.

Und wie es in Wirklichkeit war wird man wohl nie erfahren.
Es ging mir nur darum zu erklaeren, das man von Jetzt-Zustand nicht darauf schliessen kann, was vor laengerem mal geplant war.

Die Entwicklung des S3 DC muesste imo ab Mitte 2001 begonnen haben und das war noch zu GF3/R8500 Zeiten.
Da plant man dann sicher keinen 8x1 Chip als Midrange.

Aber genug des OT jetzt.:)

Ailuros
2004-01-14, 16:26:49
Original geschrieben von robbitop
Dennoch schließt komplexität und Effizienz hohe Takte keinesfalls (R300 damals waren das hohe Takte) aus. Gerade für die HighEnd Version könnte man nochmal alles bringen. Für Midrange reicht ja ein niedriger Takt zumeist aus wie DC bewies. Aber stell dir mal den DC mit 400 oder 450Mhz vor...(nicht im Vergleich mit S5 ich weiss ich weiss).

Das ist einfach ein subjektiver Eindruck. Mal schauen ob sich das noch Ändert. Sicher kann es tausend Gründe gegen Hohe Taktraten geben. Jedoch machen ATi/nVIDIA es vor. Hohe Taktraten, bei hoher Effizienz und hoher Komplexität.
Das kostet eben auch -> Materialschlacht.




DC ist Deiner Meinung nach mehr fuer den PC oder mobile Markt konzentriert?

Welcher der drei high end Architekturen die komplizierteste ist, werden wir wohl bald sehen. Von dem abgesehen kann ich wetten dass R420/NV40 zu ihrer geplanten Zeit erscheinen werden; eine Wette die ich nicht mit IMG wagen will, wegen ihrem schlechten track record ihrer gesamten Geschichte.

Ailuros
2004-01-14, 16:28:21
Die Entwicklung des S3 DC muesste imo ab Mitte 2001 begonnen haben und das war noch zu GF3/R8500 Zeiten.
Da plant man dann sicher keinen 8x1 Chip als Midrange.

Spaeter; genauer kann ich leider nicht sein.

Gast
2004-01-14, 19:53:39
Original geschrieben von Ailuros
Spaeter; genauer kann ich leider nicht sein.

Du machst Witze...machst du nicht;oder?

Wenn die Entwicklung erst ~Ende 2002 gestartet wurde ist es kein Wunder, das der Chip erst jetzt kommt, bzw es ist ein Wunder das der Chip schon jetzt kommt und auch noch einigermassen gut funktioniert. Bei max. 1.5 Jahren reiner Entwicklungszeit beginnend von fast 0 ist es schon eine Meisterleistung das S3 so weit gekommen ist.

Das rückt die Werbefrizen in der Firma aber in ein sehr schlechtes Licht. 1Jahr bevor man realistisch damit rechnen konnte, einen Chip auf den Markt zu bringen fangen die schon an alle Pferde scheu zu machen. Von außen sieht es dann natürlich so aus, als ob die Ingenieure Bockmist bebaut hätten und viel zu spät dran wären, aber in Wirklichkeit sind die PR-Leute mal wieder die Verrückten (siehe Nvidia).
<kopfschüttel>

StefanV
2004-01-14, 20:08:26
Original geschrieben von Gast
Du machst Witze...machst du nicht;oder?

Wenn die Entwicklung erst ~Ende 2002 gestartet wurde ist es kein Wunder, das der Chip erst jetzt kommt, bzw es ist ein Wunder das der Chip schon jetzt kommt und auch noch einigermassen gut funktioniert. Bei max. 1.5 Jahren reiner Entwicklungszeit beginnend von fast 0 ist es schon eine Meisterleistung das S3 so weit gekommen ist.

Nein, nicht von 0 an.

Es gab ja auch noch den Unichrome...

Der Unichrome war zu spät für den Retail Markt, diese Zeilen schreibe ich aber von einem Rechner aus, der eine Unichrome Grafikeinheit besitzt...

stickedy
2004-01-14, 21:37:08
War/ist UniChrome nicht AlphaChrome aka Savage XP?

StefanV
2004-01-14, 21:46:29
Original geschrieben von stickedy
War/ist UniChrome nicht AlphaChrome aka Savage XP?

Wenn ich mich nicht irre, dann ists so.

Momentaner Stand:

EMBM -> no go
Dot3 -> jep
TnL -> scheint so
Tri -> jap, schaut aber nicht sehr schön aus, IMO
AF -> jap, aber Winkeladaptiv a la ATI (und lt. Demis Tester Bi (und auch nur an)aus möglich, vermutlich aber 16x).

to be continued...

stickedy
2004-01-14, 21:58:25
Wie hoch ist denn der Verlust wenn man AF einschaltet bzw. Trilinear?
Über den Savage XP ist ja net besonders viel bekannt geworden. Kann mich nur an einen "Test" bei digit-life erinnern und da hat afaik T&L nicht funktioniert. Ansonsten wars grottig...

StefanV
2004-01-14, 22:14:06
Original geschrieben von stickedy
Wie hoch ist denn der Verlust wenn man AF einschaltet bzw. Trilinear?
Über den Savage XP ist ja net besonders viel bekannt geworden. Kann mich nur an einen "Test" bei digit-life erinnern und da hat afaik T&L nicht funktioniert. Ansonsten wars grottig...

1. wenn du mir ein Proggie gibst, mit dem ich das testen kann...
Der 99er 3DMark läuft ja nicht unter XP (2k ginge aber)...

2. hm, schaut momentan auhc nicht besser aus...


PS: neue Erkenntnisse:

TnL geht nicht (HW Lights -> 0), das Teil hat 2 TMUs

Hm, strange, Textur Compression wird nicht unterstütz (lt. 3D Mark), Anisotropic steht aber drin...

robbitop
2004-01-14, 22:29:11
DC eher mobile/OnBoard ..wie ich bereits sagte ;)
siehe Gesetz von Kosten/Nutzen...

Ok keine Wette ;)
*GeldnotenuntermLadentischweitergibt*

Ailuros
2004-01-15, 02:32:45
Original geschrieben von Gast
Du machst Witze...machst du nicht;oder?

Wenn die Entwicklung erst ~Ende 2002 gestartet wurde ist es kein Wunder, das der Chip erst jetzt kommt, bzw es ist ein Wunder das der Chip schon jetzt kommt und auch noch einigermassen gut funktioniert. Bei max. 1.5 Jahren reiner Entwicklungszeit beginnend von fast 0 ist es schon eine Meisterleistung das S3 so weit gekommen ist.

Das rückt die Werbefrizen in der Firma aber in ein sehr schlechtes Licht. 1Jahr bevor man realistisch damit rechnen konnte, einen Chip auf den Markt zu bringen fangen die schon an alle Pferde scheu zu machen. Von außen sieht es dann natürlich so aus, als ob die Ingenieure Bockmist bebaut hätten und viel zu spät dran wären, aber in Wirklichkeit sind die PR-Leute mal wieder die Verrückten (siehe Nvidia).
<kopfschüttel>

Ich mach selten Witze mit solchem Zeug; man kann die Entwicklung auch waehrend dem Prozess aufbrechen und von einem gewissen Punkt aufwaerts "neu" anfangen. Das ist jetzt genauso verwirrend ich weiss, aber wenn man scharf nachdenkt kommt man schon darauf.

Gast
2004-01-15, 07:09:30
Original geschrieben von Ailuros
Ich mach selten Witze mit solchem Zeug; man kann die Entwicklung auch waehrend dem Prozess aufbrechen und von einem gewissen Punkt aufwaerts "neu" anfangen. Das ist jetzt genauso verwirrend ich weiss, aber wenn man scharf nachdenkt kommt man schon darauf.


Mit anderen Worten (und zwischen den Zeilen gelesen) S3 hat die UniChrome - Mannschaft + Managemant vor die Tür gesetzt, und mit dem wenigen vorhandenen das halbwegs tauglich war von vorne angefangen, denn wie man weiter oben von Stefan Payne so schön sieht funktioniert beim UniChrome fast nichts, und wenn S3 darauf aufgebaut hätte hätten wir jetzt 2 Firmen ( S3 + XGI ) die Schrott-GPU's auf den Markt schmeißen.

robbitop
2004-01-15, 08:50:01
ich glaube eher nicht an den Rausschmiss von Ingeniueren. Solche Leute sind schwer zufinden. Meist ist für das Resultat der Chiefscientist zuständig.
Man wird sich bewusst gewesen sein, dass der UR-DC aus irgendeinem Grund danebengeht (Zeit/Transistorcounts/schlechtes Design...). Und da man eh für VIA ein paar OnBoard Dinge bauen darf, und für Mobilemarkt evl auch Geld machn kann und HighEnd Karten sowieso nur das "Vorzeigeschild" sind, hat Nan sich eben zum heutigen DC entschieden. Ich finde den neuen sympathisch :D

stickedy
2004-01-15, 09:16:44
Ich würd mal sagen, dass VIA nach dem Savage XP Debakel - anders kann man das nicht nennen: eine Neuvorstellung bestenfalls auf dem Level einer GeForce4 MX, die noch dazu anscheinend total verbugt ist - ein Machtwort gesprochen hat und dann werden wohl einige Köpfe gerollt sein.
Man findet bei S3 ja auch nichts mehr über den Savage XP (OK, macht Sinn, da nie erschienen) bzw. AlphaChrome oder den alten SuperSavage IX Chips für Notebooks.
Nein, der DeltaChrome ist gut so wie er ist. Die S8-Variante wurde im Desktop für Mainstream konzipiert und genau da ist er gelandet. Früher wäre zwar besser gewesen, aber immerhin, man hat es trotz der späten Markeinführung gepackt.
Die F1-Variante (Highend) macht mit den ursprünglich geplanten Taktraten imho keinen Sinn mehr, da haben ATI und NVidia inzischen zu viel vorgelegt.
Aber der Chips wurde ähnlich wie der RV350 für verschiedene Segmente entwickelt: Desktop und Notebook (vgl. Radeon 9600 & Mobility Radeon 9600). Und irgendwann wird der DeltaChrome-Grafikkern in den integrierten Chipsätzen landen (genauso wie RV350 bei ATI).

VIA hat doch viel höhere Ziele als nur Grafik für integrierte Chipsätze zu bauen. Man will im Grafiksegment auch ganz oben mitspielen.
Ich möchte wetten, dass man ganze Legionen neuer chinesische Ingenieure eingstellt hat, die jetzt fleißig in VIAs-Technikzentren in China an den nächsten S3-Grafickhips werkeln. In Fremont, Kalifornien wird imho nur noch die Verwaltung sein...

Gast
2004-01-15, 10:17:36
Original geschrieben von robbitop
ich glaube eher nicht an den Rausschmiss von Ingeniueren. Solche Leute sind schwer zufinden. Meist ist für das Resultat der Chiefscientist zuständig.


OK, die "normalen" Ingenieure wird man nicht rausgeschmissen haben, aber (fast) alle Manager und auch die Chefentwickler incl. Abteilungsleiter, mit anderen Worten die gesamte Hierarchie die für die UniChrome-Entwicklung zuständig war.
Ich würde es nicht anders machen, da der UniChrome nicht ein Ausrutscher war wie die NV3x-Serie, sondern der klägliche Endpunkt einer langen Entwicklung. Da muss man dann einen harten Schnitt machen, damit es wieder besser wird.

haifisch1896
2004-01-15, 10:46:06
So langsam passt das aber nicht mehr zu Threadtitel.....

:topic:

stickedy
2004-01-15, 11:09:03
Und? Ist der Sinn einer Diskussion nicht die Diskussion an sich?
So lange das ganze nicht zum sinnlosen Geflame wird, sehe ich keinen Grund, eine sehr interessante Diskussion zu beenden, nur weil sie sich vom ursprünglichen Thread-Titel entfernt hat!

haifisch1896
2004-01-15, 12:02:23
Ich finde, da würde sich eher ein neuer Thread lohnen.
Dann können diese Diskussionen auch Leute lesen, die sich für die ursprüngliche Diskussion nicht interessiert hat und das hier deswegen überhaupt nicht sehen.

Aber mich störts ja auch nicht weiter. Sollte nur ein Hinweis sein.

Blutgrätsche
2004-01-15, 12:08:05
Die Seite 6 dieses Threads verdient die Bezeichnung Spekulation nun wirklich. Die Anzahl der unbewiesenen Behauptungen/Meinungen rauscht mit Lichtgeschwindigkeit gegen 100%.

ShadowXX
2004-01-15, 12:30:37
Original geschrieben von Blutgrätsche
Die Seite 6 dieses Threads verdient die Bezeichnung Spekulation nun wirklich. Die Anzahl der unbewiesenen Behauptungen/Meinungen rauscht mit Lichtgeschwindigkeit gegen 100%.

Sind Spekulationen nicht meist "unbewiesenen Behauptungen/Meinungen" ??

J.S.Shadow

Gast
2004-01-15, 12:32:33
Nana, du kannst dich drauf verlassen, das alles was Ailuros sagt hochgradig wahrscheinlich ist!

Blutgrätsche
2004-01-15, 12:51:29
Spekulationen sollten entweder auf minimalen Fakten basieren oder eine logische, theoretische Argumentation verfolgen. Ailuros' diffuse Andeutungen bringen mir gar nichts und Fehlinterpretationen sind auch bei Aussagen, die klar und eindeutig gemeint waren, in diesem Forum nicht selten anzutreffen. Ich kann genauso gut einfach das komplette Gegenteil aller hier gemachten Aussagen behaupten. Es soll ja Leute geben, die (zumindest teilweise) glauben, was hier geschrieben wird. Was bringt mir diese Diskussion?

Edit: Der Thread "Gerüchte — Erfindung von Fakten" diskutiert mein Anliegen wohl bereits besser.

Gaestle
2004-01-15, 13:05:40
Original geschrieben von Ailuros
DC ist Deiner Meinung nach mehr fuer den PC oder mobile Markt konzentriert?

Welcher der drei high end Architekturen die komplizierteste ist, werden wir wohl bald sehen. Von dem abgesehen kann ich wetten dass R420/NV40 zu ihrer geplanten Zeit erscheinen werden; eine Wette die ich nicht mit IMG wagen will, wegen ihrem schlechten track record ihrer gesamten Geschichte.

Wie lange wurde eigentlich bei Serie4 verlautbart: "wir sind im Zeitplan" und "die anderen sind auch nicht weiter"? Bis vor 2-3 Wochen waren IIRC solche Statements bezüglich S5 von Dir zu lesen. Zeichnet sich jetzt eine Verzögerung ab? Man, die Frage ist ganz schön direkt...

Grüße

haifisch1896
2004-01-15, 14:11:43
Die S4 wurde ja auch erst kurz vorm Verkauf gecancelt. Es soll ja auch lauffähige Boards geben. Aber die sind nicht zu kaufen. Leider...
Und das hat ja mit der S5 nix zu tun.

Ailuros
2004-01-15, 14:43:58
Original geschrieben von Blutgrätsche
Spekulationen sollten entweder auf minimalen Fakten basieren oder eine logische, theoretische Argumentation verfolgen. Ailuros' diffuse Andeutungen bringen mir gar nichts und Fehlinterpretationen sind auch bei Aussagen, die klar und eindeutig gemeint waren, in diesem Forum nicht selten anzutreffen. Ich kann genauso gut einfach das komplette Gegenteil aller hier gemachten Aussagen behaupten. Es soll ja Leute geben, die (zumindest teilweise) glauben, was hier geschrieben wird. Was bringt mir diese Diskussion?

Edit: Der Thread "Gerüchte — Erfindung von Fakten" diskutiert mein Anliegen wohl bereits besser.

Es mag Dir komisch vorkommen aber ich glaube trotz allem dass Du eine sehr gesunde Denkweise hast und es ist bei weitem nicht ironisch gemeint.

Ich bin hier fuer zwei Gruende:

a) Mein Deutsch wieder zu verbessern.
b) Wertvolle Informationen auszutauschen und soweit klappt es da wo es auch stattfinden sollte und zwar hinter den Kulissen.

Diejenigen die meistens als "Spekulanten" bezeichnet werden, gewinnen eigentlich in Realitaet nie; die negativen Anteile der ganzen Sache sind viel zu ueberwiegend. Fuer den gesunden Denker wie Dich sind "wir" in dem Fall nur freaks die auf irgend eine Art und Weise sich als wichtig aufspielen moechten.

Wieso poste ich diese mini-Analyse gerade? Entweder hab ich meine Methode viel zu gut erdacht/analysiert und weiss genau wie das Publikum unter jeder Situation reagieren wird und kann getroffen wetten, oder es steckt doch was dahinter was im Grunde aber auch wieder keinen angeht.

Macht es nicht zu kompliziert. Jeder kann glauben was er will :)

Ailuros
2004-01-15, 14:49:23
Original geschrieben von Gaestle
Wie lange wurde eigentlich bei Serie4 verlautbart: "wir sind im Zeitplan" und "die anderen sind auch nicht weiter"? Bis vor 2-3 Wochen waren IIRC solche Statements bezüglich S5 von Dir zu lesen. Zeichnet sich jetzt eine Verzögerung ab? Man, die Frage ist ganz schön direkt...

Grüße

Direkter geht's gar nicht :D

Es war nur ein Gedankensporn und ich wuerde tatsaechlich die besagte Wette nicht eingehen nicht heute und auch nicht vor einem Monat oder frueher.

DrumDub
2004-01-15, 15:23:34
Original geschrieben von Ailuros
Ich bin hier fuer zwei Gruende:

a) Mein Deutsch wieder zu verbessern.

wenigstens da kann ich helfen... ;D

Ich bin hier aus zwei Gruenden:

Ailuros
2004-01-15, 15:27:19
Danke. Ich denke einfach zuviel in Englisch in letzter Zeit. Vor Jahren klang mein Englisch wie schlecht uebersetztes Deutsch. Na irgendwann werde ich es doch noch schaffen. Je mehr Hilfe desto besser ;)

haifisch1896
2004-01-15, 15:28:22
@Ailuros
Was sprichst Du eigentlich und wo kommst Du her?

Ailuros
2004-01-15, 15:34:15
Griechisch, Deutsch und Englisch (u.a.). Geboren und aufgewachsen in Deutschland; praktisch bin ich zweispraching erzogen worden, aber da ich schon seit 20 Jahren wieder in Griechenland bin, habe ich mein Deutsch viel zu viel vernachlaessigt.

Mehr OT geht's wohl wirklich nicht. :)