PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NV40 und R420 mit PS.3.0? — Wie geht es performancetechnisch weiter?


aths
2003-08-28, 19:32:27
Folgende Überlegung: NV40 unterstützt PS.3.0. Dazu sind weitere Entkopplungen notwendig, so dass die Performance nicht per se steigt.

ATI muss früher oder später auch 3.0-er HW anbieten. Schaffen sie es, das in gewohnter PS.2.0-Geschwindigkeit zu bringen? Oder müssen sie auch auf eine "langsame" Methode ausweichen, und dann die Geschwindigkeit bisheriger 2.0-Shader durch puren HW-Einsatz kompensieren?

Demirug
2003-08-28, 20:08:29
Sehr schwer zu sagen solange man nicht weiss wie ATI die für 3.0 notwendigen dynamischen Programmsprünge lösen möchte

Mehrpack
2003-08-29, 01:58:06
hi,
mhh ich würde vielleicht eher letzters tippen.

PS 3.0 sind ja im moment sowieso eher Angeberfeatures (schuldigung nen besseres wort ist mir im moment net eingefallen *g*).
Da ja im moment sowieso erstmal begonnen wird PS 1.X und noch eher weniger PS 2.0 einzusetzen.

Deswegen schätze ich mal wird sich ATI da eher erstmal Zeit lassen und eben etwas bringen was technisch nicht so aufwendig ist aber den anschluss nicht verliert an NV.

Mehrpack

Razor@Work
2003-08-29, 11:50:08
Original geschrieben von Mehrpack
Deswegen schätze ich mal wird sich ATI da eher erstmal Zeit lassen und eben etwas bringen was technisch nicht so aufwendig ist aber den anschluss nicht verliert an NV.
Versteh' ich nicht...
Bei nVidia wird die bestehende Architektur nur 'aufgebohrt' werden müssen, während bei ATI wohl eine größere Architektur-Umstellung ansteht (mal von den Treibern abgesehen). Inwiefern soll also etwas von ATI kommen, was "technisch nicht so aufwändig" ist ? Keine PS3.0 ?
???

Razor

Ailuros
2003-08-29, 13:20:59
Original geschrieben von Mehrpack
hi,
mhh ich würde vielleicht eher letzters tippen.

PS 3.0 sind ja im moment sowieso eher Angeberfeatures (schuldigung nen besseres wort ist mir im moment net eingefallen *g*).
Da ja im moment sowieso erstmal begonnen wird PS 1.X und noch eher weniger PS 2.0 einzusetzen.

Deswegen schätze ich mal wird sich ATI da eher erstmal Zeit lassen und eben etwas bringen was technisch nicht so aufwendig ist aber den anschluss nicht verliert an NV.

Mehrpack

Etwas mehr Angeberfeatures als Shader2.0 momentan. Da der ganze Kram hauptsaechlich fuer Entwickler wichtig ist, wuerde ich persoenlich sagen, dass es nicht in ATI's bestem Interesse liegt, wenn Entwickler in der Zukunft eher NVIDIA Alternativen ausschlieschlich fuer Shader3.0 Spiele als Entwicklungs-Plattformen benutzen werden.

Oder müssen sie auch auf eine "langsame" Methode ausweichen, und dann die Geschwindigkeit bisheriger 2.0-Shader durch puren HW-Einsatz kompensieren?

Ich bezweifle dass das ueberhaupt moeglich ist fuer heutige Standards. Mit Shader2.0 (danke nochmals an den Informanten) muss man wohl alle Anweisungen durchlaufen lassen, was aber bei den 3.0 Shadern durch dynamic branching (heisst doch so oder?) nicht mehr der Fall ist.

Man benutzt einen ekelhaften langen Shader mit 3.0 ergo z.B. 600 Anweisungen und es wird in Realitaet nur ein Bruchteil davon gerendert, nehmen wir mal an es werden nur 60 (womoeglich schlechtes Beispiel aber es ist ja auch nur ein Beispiel).

Mal angenommen man hat jetzt keine volle 3.0 HW, bekommt aber extrem viele Anweisung durch eine Art loops die nicht viel in Leistung kosten werden bis zu einer gewissen Marge (unbegrenzt kann es wohl auch nicht sein). Angenommen man loopt die Shader 8 bis 10 mal durch um den obrigen 600-er shader durchlaufen zu lassen, welche Methode klingt - zumindest theoretisch - dann als die schnellere und effizientere?

Demirug
2003-08-29, 13:34:20
Original geschrieben von Ailuros
Ich bezweifle dass das ueberhaupt moeglich ist fuer heutige Standards. Mit Shader2.0 (danke nochmals an den Informanten) muss man wohl alle Anweisungen durchlaufen lassen, was aber bei den 3.0 Shadern durch dynamic branching (heisst doch so oder?) nicht mehr der Fall ist.

Als kleine Ergänzung. Es gibt auch schon bei den 2.0 Shader eine Anweisung welche den Pixel als ungültig erklärt und die Pixelshader sobald sie auf diese Anweisung auflaufen eigentlich sofort aufhören könnten an diesem Pixel zu arbeiten. AFAIK setzen die Chips aber in diesem Fall nur ein Flag um die ROPs später daran zu hinter diesen Pixel weiter zu verarbeiten. Eine PS 3.0 Hardware könnte in diesem Fall wirklich abbrechen und Leistung einsparen.

Man benutzt einen ekelhaften langen Shader mit 3.0 ergo z.B. 600 Anweisungen und es wird in Realitaet nur ein Bruchteil davon gerendert, nehmen wir mal an es werden nur 60 (womoeglich schlechtes Beispiel aber es ist ja auch nur ein Beispiel).

Mal angenommen man hat jetzt keine volle 3.0 HW, bekommt aber extrem viele Anweisung durch eine Art loops die nicht viel in Leistung kosten werden bis zu einer gewissen Marge (unbegrenzt kann es wohl auch nicht sein). Angenommen man loopt die Shader 8 bis 10 mal durch um den obrigen 600-er shader durchlaufen zu lassen, welche Methode klingt - zumindest theoretisch - dann als die schnellere und effizientere?

Ein bischen was schlaueres lässt sich ATI da hoffentlich einfallen.

Ailuros
2003-08-29, 13:47:52
Ein bischen was schlaueres lässt sich ATI da hoffentlich einfallen.

Oder sie haben doch wahre 3.0 HW letztenendes und wir haben uns alle verschaetzt, wozu ich aber bis jetzt noch keinen Anhand habe es auch zu glauben. Was mir nicht so ganz in das ganze passt, ist dass es so aussieht als ob sie trotz allem NACH NV ankuendigen/veroeffentlichen werden.

Der originale R400 war eine genauso ueberdimensional verrueckte Idee wie der originale NV30. Auf jeden Fall hatten beide mehr als 12 pipelines....

ActionNews
2003-08-29, 14:25:09
Naja ich kenn mich da nicht so aus, aber ATi und Nvidia sind anscheinend nicht die einzigen :D:

Aus dem Beyond3D Interview mit PowerVR ( http://www.beyond3d.com/interviews/pvrmbx/ )
Would you say it's likely that PS/VS 3.0 would be part of the development of Series 5?

It's obviously something we've been looking at so that we can make decisions on product specifics.

CU ActionNews

Demirug
2003-08-29, 14:30:54
Original geschrieben von ActionNews
Naja ich kenn mich da nicht so aus, aber ATi und Nvidia sind anscheinend nicht die einzigen :D:

Aus dem Beyond3D Interview mit PowerVR ( http://www.beyond3d.com/interviews/pvrmbx/ )


CU ActionNews

Bei PowerVR stellt sich die Situation aber anders da. Dort hat man den Zwischenschritt der PS 2.0 ja dann gar nicht gemacht.

Demirug
2003-08-29, 14:32:49
Original geschrieben von Ailuros
Der originale R400 war eine genauso ueberdimensional verrueckte Idee wie der originale NV30. Auf jeden Fall hatten beide mehr als 12 pipelines....

Hör mir bitte mit Pipelines auf. Ich weiss bis heute noch nicht sicher ob R300 nun eine oder doch wie ich vermute eher 2 hat.

Quasar
2003-08-29, 15:03:23
Original geschrieben von Demirug
Hör mir bitte mit Pipelines auf. Ich weiss bis heute noch nicht sicher ob R300 nun eine oder doch wie ich vermute eher 2 hat.

R300? Eine? Zwei?? Wovon sprichst du genau?

Demirug
2003-08-29, 15:08:53
Original geschrieben von Quasar
R300? Eine? Zwei?? Wovon sprichst du genau?

Von der Anzahl der Pixelpipelines. NV3X Chips haben alle nur eine.

Quasar
2003-08-29, 15:12:17
Ah so....dann hat nV sich also doch nicht sooo drumrumgedrückt, als sie damals sagten, man müsse sich von dem starren Pipeline-Denken lösen.

nV3x ist also mehr P10 als gedacht...

(Erklärungen kommen später, richtig?)

Demirug
2003-08-29, 15:16:37
Original geschrieben von Quasar
Ah so....dann hat nV sich also doch nicht sooo drumrumgedrückt, als sie damals sagten, man müsse sich von dem starren Pipeline-Denken lösen.

nV3x ist also mehr P10 als gedacht...

(Erklärungen kommen später, richtig?)

Ach du meine güte nein zwischen NV3X und P10 gibt es riessige unterschiede. Aber wenn ich schon gerade dabei bin verwirre ich gleich noch ein bischen weiter.

NV25 dürfte wohl auch nur eine Pixelpipeline haben.

Quasar
2003-08-29, 15:26:49
Ich meinte im Hinblick auf die Loslösung aus der "Pipeline"-Struktur.

ShadowXX
2003-08-29, 15:32:42
ist das bezogen auf Pixelshaderpipelines gemeint??

sonst klär uns (mich) doch bitte mal näher auf was du meinst, damit wir (oder ich) nicht dumm sterbe....

J.S.Shadow

Ailuros
2003-08-29, 15:38:30
Original geschrieben von Demirug
Hör mir bitte mit Pipelines auf. Ich weiss bis heute noch nicht sicher ob R300 nun eine oder doch wie ich vermute eher 2 hat.

ROFL :D

So ne Reaktion hatte ich erwartet. Soweit ich weiss (und ich weiss was Du meinst) ist es 2 fuer R3xx, und es war 3 fuer vaporware R400.

Demirug
2003-08-29, 16:21:27
hehe.

Die primare Frage ist natürlich wie man nun eine Pixelpipeline definiert. Ich spreche beim NV30/NV35 von nur einer und nicht 4 weil man zwar 4 Pixel pro Takt aus der Pipeline bekommen kann aber diese in einem bestimmten verhältniss zueinander stehen müssen. Sie müssen als 2*2 Pixel Block angeordent sein.

Aber wir sollten vielleicht aufhören von Pixelpipelines zu sprechen und das Teil Pixelprozessor nennen.

StefanV
2003-08-29, 16:30:01
Original geschrieben von Quasar
R300? Eine? Zwei?? Wovon sprichst du genau?

Na, wieviele UNABHÄNGIGE Pixel-Pipelines hat denn der NV25?? ;)

Richtig, eine...
Gerüchten zu folge hat der R300 2 unabhängige Pixelpipes.
Also 2x4x1 und nicht 1x8x1, soweit verstanden?? ;)

Quasar
2003-08-29, 18:16:59
Danke, Stefan Payne. Die sieben Postings über deinem habe ich schon gelesen...

Ailuros
2003-08-29, 20:46:45
Aber wir sollten vielleicht aufhören von Pixelpipelines zu sprechen und das Teil Pixelprozessor nennen.

Ich bin ja nicht derjenige der wissen will wieviele "pipelines" zukuenftige Produkte haben werden :P

Also 2x4x1 und nicht 1x8x1, soweit verstanden??

Deshalb war es auch so leicht bei 9500 z.B. einen Block zu de-aktivieren.

Mehrpack
2003-08-30, 00:49:26
Original geschrieben von Razor@Work
Versteh' ich nicht...
Bei nVidia wird die bestehende Architektur nur 'aufgebohrt' werden müssen, während bei ATI wohl eine größere Architektur-Umstellung ansteht (mal von den Treibern abgesehen). Inwiefern soll also etwas von ATI kommen, was "technisch nicht so aufwändig" ist ? Keine PS3.0 ?
???

Razor

hi,
demi hat mal die möglichkeit angesprochen das es auch möglich wäre mit der jetztigen architektur unter ein paar veränderungen auch PS3.0 anzubieten, das das natürlich nicht so schnell ist wie eine ordentliche lösung ist klar.
das könnte man aber evt übern takt soweit kompensieren das ATI geschwindigkeitstechnik nicht zu roten laterne wird.
das meinte ich mit technisch nicht so aufwendig.
kann auch sein das ich da was falsch verstanden hatte.

Mehrpack

Ailuros
2003-08-30, 01:31:14
...das könnte man aber evt übern takt soweit kompensieren das ATI geschwindigkeitstechnik nicht zu roten laterne wird.

Ich unterschaetze zwar ATI´s engineering Talent nicht, aber irgendwie sehe ich nicht sehr gute alternativen dabei (alles natuerlich von meiner sehr einfachen Perspektive).

Wie dem auch sei:

xbit labs

This leads us to conclude that there will be no next-generation NV40 products this calendar year since no NVIDIA’s AIB partners want to release two high-end products in one quarter due to very obvious business reasons.

Es ist zwar nicht der wahre Grund, aber auf jeden Fall war die Moeglichkeit einer Veroeffentlichung noch in diesem Jahr schon seit einiger Zeit gering. Ob man doch zu einem Paper-launch greift, steht wohl noch offen.

aths
2003-08-30, 01:38:08
Original geschrieben von Demirug
NV25 dürfte wohl auch nur eine Pixelpipeline haben. ... mit 4x SIMD-Logik, um die Konfusion mal zu klären :)

Demirug
2003-08-30, 01:50:06
Original geschrieben von Mehrpack
hi,
demi hat mal die möglichkeit angesprochen das es auch möglich wäre mit der jetztigen architektur unter ein paar veränderungen auch PS3.0 anzubieten, das das natürlich nicht so schnell ist wie eine ordentliche lösung ist klar.
das könnte man aber evt übern takt soweit kompensieren das ATI geschwindigkeitstechnik nicht zu roten laterne wird.
das meinte ich mit technisch nicht so aufwendig.
kann auch sein das ich da was falsch verstanden hatte.

Mehrpack

Nein, du hast das schon richtig verstanden. Es ging darum wie man die F-Buffer technik unter Umständen für dynamische Programmsprünge erweitern könnte. Performancemässig ist das natürlich schwer abzuschätzen weil man ja noch nicht einmal verlässliche Informationen bekommt wie sich den nun der F-Buffer in diesem Bereich verhält.

Mehrpack
2003-08-30, 06:58:37
Original geschrieben von Demirug
Nein, du hast das schon richtig verstanden. Es ging darum wie man die F-Buffer technik unter Umständen für dynamische Programmsprünge erweitern könnte. Performancemässig ist das natürlich schwer abzuschätzen weil man ja noch nicht einmal verlässliche Informationen bekommt wie sich den nun der F-Buffer in diesem Bereich verhält.

hi,
*g* das freut mich.

ich denke wir sollten die sache von hinten aufrollen und uns fragen wie wichtig sind die 3.0 versionen für den endverbraucher und spielehersteller.

fangen wir erstmal beim den entwicklern an.
wie wichtig sind ihnen 3.0?
die andere frage wie schnell kann man das in eine engine reinbringen und würde es sich überhaupt für einen spielehersteller lohnen zeit zu investieren um effekte über 3.0 zurealisieren?
Und besteht schon ein wirklicher bedarf sehr schnelle 3.0 hardware zuhaben oder würde es nur schon ausreichen erstmal was zum Experimentieren zu haben?

das andere beim endverbraucher.
wie wichtig wird dem normaluser 3.0 sein?
wird er überhaupt sehen das es ihm ein vorteil bringt und was er schnell haben muss?
(mir ist schon klar das wir natürlich das schnellste wollen und das das auch mit auf dem OEM-Markt auswirkungen hat, aber ich sehe Marketingtechnisch das Problem wie die Hersteller dem Kunden es wirklich nahe Bringen wollen das PS und VS Shader 3.0 das beste sind, da ja die grosse stütze über die neue DX-Version entfällt welcher ja jeder normalsterblicher kennt, ich selber schätze PS und VS sind in dem Bereich wissenstechnisch nicht so vertreten das es ausreichen würde nur mit PS und VS in version 3 als Werbung zu kommen.)

Warum ich das Anspreche, weil ich glaube wenn wir uns ein Bild über die Anfoderungen von Beiden seiten machen, können wir Abschätzen wie Wichtig es unseren Beiden Streithähnen ist mit performanten lösungen im Bereich VS und PS 3.0 zukommen.

Mehrpack

Ailuros
2003-08-30, 07:19:29
Warum ich das Anspreche, weil ich glaube wenn wir uns ein Bild über die Anfoderungen von Beiden seiten machen, können wir Abschätzen wie Wichtig es unseren Beiden Streithähnen ist mit performanten lösungen im Bereich VS und PS 3.0 zukommen.

Wenn ein IHV mit kleinem zeitlichem Abstand behauptet dass die aktuellsten Shader (ie 2.0) sehr wichtig sind (nur weil er mit diesen die bessere Leistung bringen kann), und nicht so lange spaeter behauptet dass die naechste Shader-Generation (ie 3.0) von wenig Nutzen sind (weil da die Leistung eher enttaeuschend ist), dann ist das ein gigantischer Widerspruch.

Und obwohl es keiner mitberechnen will, sind es zumindest 3 high end Produkte naechstes Fruehjahr, von diesen mit groesster Sicherheit zwei mit PS/VS3.0. PowerVR mag zwar klein sein, aber es wird ATI nicht besonders helfen, egal mit welchen Argumenten sie ihre Produkte verteidigen werden.

Natuerlich ist der Idealfall dass alle drei volle 3.0 Architekturen sind, dann steigt die Temperatur umso mehr was Streitigkeiten betrifft.

aths
2003-08-30, 08:26:32
3.0 beinhaltet ja alle 2.0+ Caps. Deshalb halte ich 3.0 schon für sinnvoll :) weil man damit garantiert jede 2.0-Feinheit ausnutzen kann. Nur, die Performance muss natürlich auch stimmen. Machen wir uns nichts vor, Z-Pass hin oder her, 8 "Pipelines" reichen da kaum aus, wenn jede Oberfläche nicht nur pixelgenau beleuchtet werden soll, sondern auch noch andere schöne Effekte gefragt sind.

Ailuros
2003-08-30, 08:41:52
Damit ich jetzt Demi nicht weiter aergere mit pipeline Quatsch, ich wuerde sagen dass zwei oder drei sehr effiziente Pixelprozessoren genug sein sollten als Anfang.

Gast
2003-08-30, 11:47:50
mal so nebenbei sin die pixelshader 3.0 eigentlich schon irgendwie definiert, was sie können müssen? Denn bisher wird das doch mehr oder weniger von microsoft mit directx gemacht und da gehts doch nur bis ps2.0???

Demirug
2003-08-30, 11:58:07
Original geschrieben von Gast
mal so nebenbei sin die pixelshader 3.0 eigentlich schon irgendwie definiert, was sie können müssen? Denn bisher wird das doch mehr oder weniger von microsoft mit directx gemacht und da gehts doch nur bis ps2.0???

DX 9 geht schon bis PS und VS 3.0.

Wie technisch soll den die Erklärung der erweiterungen sein?

Razor
2003-08-30, 12:19:02
Original geschrieben von Ailuros
...sind es zumindest 3 high end Produkte naechstes Fruehjahr ... PowerVR ...
Da glaubst Du ernsthaft dran ?
:lol:

Sorry, aber von denen kommt rein gar nichts mehr.
Und ich hoffe inständig, dass ich eines Besseren belehrt werde...
(dann aber bitte mit Fakten ;-)

Razor

ram
2003-08-30, 18:58:39
Original geschrieben von Demirug
Die primare Frage ist natürlich wie man nun eine Pixelpipeline definiert. Ich spreche beim NV30/NV35 von nur einer und nicht 4 weil man zwar 4 Pixel pro Takt aus der Pipeline bekommen kann aber diese in einem bestimmten verhältniss zueinander stehen müssen. Sie müssen als 2*2 Pixel Block angeordent sein.

Interessant, und wieso müssen sie so angeordnet sein?

Demirug
2003-08-30, 19:04:42
Original geschrieben von ram
Interessant, und wieso müssen sie so angeordnet sein?

Weil die Interpolatoren so blöd sind und nur als 2*2 Pixel Block arbeiten.

ram
2003-08-30, 19:18:02
??? Welche Interpolatoren?

Demirug
2003-08-30, 19:38:52
Original geschrieben von ram
??? Welche Interpolatoren?

Die für die Z-Koordinate, 1/W, 8 Texturekoordinaten sowie die 2 Vertexfarben.

ram
2003-08-30, 19:56:29
Hmm, das sind ja Inputs für die Pixelpipes. Du sprichst von den Interpolatoren im Triangle Setup?

Demirug
2003-08-30, 20:03:10
Original geschrieben von ram
Hmm, das sind ja Inputs für die Pixelpipes. Du sprichst von den Interpolatoren im Triangle Setup?

Nein nVidia interpoliert in den Pixelshadern. :D

ram
2003-08-30, 20:59:14
Hoi,

Ich dachte zuerst, du sprichst von etwas hypotetischem, dass die TMUs und ALUs theoretisch daran hindern würde, parallel zu arbeiten, wenn das Pixel in der paralellen ALU nicht zum gleichen 2x2 Block gehören würde. :)

OK, im Endeffekt ist das bis zum gewissen Grad eine Definitionsfrage, was man in welcher Abstraktionsebene und in welchem Techlevel alles zur Definition der "Pixelpipeline" zählt. Geht man davon aus, dass alle Chips, welche 4 Pixel pro Clock erzeugen, ihre Dreiecke sinnigerweise in 2x2 Blocks zerlegen, impliziert dies auch solche Vereinfachungen der Interpolatoren, welche die heruntergebrochenen Werte an die folgenden Units weiterreicht. Die "Pipeline" Definition aber an der Beschaffenheit dieser Unit aufzuhängen, stellt die "gängige Definition" IMO unnötig auf den Kopf, ohne dass es wirklich einen Mehrwert bringt. Mit der Aussage "4 Pipelines" wird die Architektur einer NVDA-GPU zwar nicht umfassend, aber heute immerhin noch besser und vergleichbarer charakterisiert als mit der Aussage 1 Pipeline. Bei letzterem muss man gleich noch anhängen, dass eine Pipeline 4 Pixel ausspuckt. ?-)

Grundsätzlich bin ich aber auch der Meinung, dass das gängige Beschreibungsschema "Pipeline x Textureinheit" überholt ist. :) Da nichts vergleichbar ähnlich einfaches in Sicht ist, dürfte sich diese Definition wohl noch eine ganze Weile halten.

Razor@Work
2003-08-30, 21:31:16
Ähm...

Demirug hat da etwas konkretere Informationen.
Er kann in diesem Fall auf Dokumente zurück greifen, die wohl über die Architektur der NV3x-Chips Aufschluss geben.

Sehr viel wollte er uns darüber aber nicht verraten...
So warten wir denn alle gespannt darauf, nähere Informationen hierzu zu erhalten.

Er spricht übrigens auch nicht unbedingt von Pixel-Pipelines, sondern vielmehr von einem (!) Pixel-Prozessor. Insofern ich mir schon vorstellen könnte, dass er den Singular hier sehr bewußt wählte.

Razor

StefanV
2003-08-30, 21:35:18
Tjo, und die R3x0 haben wohl doppelt so viele wie die NV Chips *eg*

Razor@Work
2003-08-30, 21:43:59
Original geschrieben von Stefan Payne
Tjo, und die R3x0 haben wohl doppelt so viele wie die NV Chips
Sehr schön Stefan...
Hast Du überhaupt begriffen, um was es ging ?
???

Razor

Demirug
2003-08-30, 21:46:44
Original geschrieben von ram
Hoi,

Ich dachte zuerst, du sprichst von etwas hypotetischem, dass die TMUs und ALUs theoretisch daran hindern würde, parallel zu arbeiten, wenn das Pixel in der paralellen ALU nicht zum gleichen 2x2 Block gehören würde. :)

Die Recheneinheiten (mit Aussnahme der besagten Interpolatoren) sind davon nicht betroffen. Das sind einfach SIMD Einheiten denen es egal ist wo die daten nun herkommen. Bei den TMUs könnte es durchaus Auswirkungen haben den dort kann man ja die normaleriweise vorhandene räumliche nähe der Samples ausnutzen.

OK, im Endeffekt ist das bis zum gewissen Grad eine Definitionsfrage, was man in welcher Abstraktionsebene und in welchem Techlevel alles zur Definition der "Pixelpipeline" zählt. Geht man davon aus, dass alle Chips, welche 4 Pixel pro Clock erzeugen, ihre Dreiecke sinnigerweise in 2x2 Blocks zerlegen, impliziert dies auch solche Vereinfachungen der Interpolatoren, welche die heruntergebrochenen Werte an die folgenden Units weiterreicht. Die "Pipeline" Definition aber an der Beschaffenheit dieser Unit aufzuhängen, stellt die "gängige Definition" IMO unnötig auf den Kopf, ohne dass es wirklich einen Mehrwert bringt. Mit der Aussage "4 Pipelines" wird die Architektur einer NVDA-GPU zwar nicht umfassend, aber heute immerhin noch besser und vergleichbarer charakterisiert als mit der Aussage 1 Pipeline. Bei letzterem muss man gleich noch anhängen, dass eine Pipeline 4 Pixel ausspuckt. ?-)

Deswegen mag ich ja auch die Bezeichnung Piepline nicht mehr sonderlich da sie einfach nicht mehr passt.

Grundsätzlich bin ich aber auch der Meinung, dass das gängige Beschreibungsschema "Pipeline x Textureinheit" überholt ist. :
) Da nichts vergleichbar ähnlich einfaches in Sicht ist, dürfte sich diese Definition wohl noch eine ganze Weile halten.

Shaderleistung sollte man in Instructions/clock und Instructions/sec angeben und falls nötig nach Anweisungsgruppen unterteilt. Für die Aufteilung schlage ich folgendes vor:

Prozessoren * Pixel * Texturkommandos

Demirug
2003-08-30, 21:48:11
Original geschrieben von Stefan Payne
Tjo, und die R3x0 haben wohl doppelt so viele wie die NV Chips *eg*

Doppelt so viele was?

StefanV
2003-08-30, 21:59:15
Original geschrieben von Demirug
Doppelt so viele was?

Unabhängige Pixel Pipelines.

Demirug
2003-08-30, 22:00:29
Original geschrieben von Stefan Payne
Unabhängige Pixel Pipelines.

Dann ist deine Formulierung aber nicht ganz richtig da ja auch R3X0 Chips mit nur einem Pixelprozessor verkauft werden.

StefanV
2003-08-30, 22:00:39
Original geschrieben von Razor@Work
Sehr schön Stefan...
Hast Du überhaupt begriffen, um was es ging ?
???

Razor

Natürlich hab ich das.

Hab ja auch diverse Diskussionen um dieses Thema mit Demirug verfolgt.

Demnach hat ATI 2 Pixelpipe Blöcke, NV nur einen, was auch der Grund ist, daß ATI bei der R9500 die hälfte der Pixelpipes abschalten konnte...

StefanV
2003-08-30, 22:01:12
Original geschrieben von Demirug
Dann ist deine Formulierung aber falsch.

Ok, das mag sein.

Hab im Moment auch keine Idee, wie ich das nennen sollte...

Demirug
2003-08-30, 22:03:05
Original geschrieben von Stefan Payne
Ok, das mag sein.

Hab im Moment auch keine Idee, wie ich das nennen sollte...

Du bist zu schnell :D

Ich habe das ganze schon relativiert.

StefanV
2003-08-30, 22:13:02
Original geschrieben von Demirug
Du bist zu schnell :D

Ich habe das ganze schon relativiert.

1. was glaubst du wohl, warum ich soviele Postings hab *eg*

2. naja, DAS ist ja auch DER Grund, warum ich den Edit Button soweit es geht meide ;)
Kann ja mal vorkommen, daß einer schneller gequotet hat, als ich editiert, wonach ich dann nicht selten ziemlich dumm dargestanden hab ;)

ALso von daher lasse ich den Mist meist stehen ;)

Ailuros
2003-08-31, 01:11:31
Original geschrieben von Razor
Da glaubst Du ernsthaft dran ?
:lol:

Sorry, aber von denen kommt rein gar nichts mehr.
Und ich hoffe inständig, dass ich eines Besseren belehrt werde...
(dann aber bitte mit Fakten ;-)

Razor

Ich hab Fakten aber es sollte verstaendlich sein dass ich nicht so bloed bin und diese nach aussen lassen werde. Du kannst glauben was Du willst, wie oft und inwiefern ich zeitlich mit so einigen Details was alle IHVs betrifft recht habe oder nicht, zeigt sich ja sowieso meistens mit der Zeit.

Von Dir bekommt ja sowieso kein Produkt eine faire Chance wenn es nicht von NVIDIA produziert wurde, oder?

Razor
2003-08-31, 09:31:45
Original geschrieben von Ailuros
Von Dir bekommt ja sowieso kein Produkt eine faire Chance wenn es nicht von NVIDIA produziert wurde, oder?
Nein.
ImgTech hat schon ein wenig zu oft viel versprochen und nichts gehalten.
Man bringt ein (gutes midrange) Produkt und verschwindet wieder in der Versenkung. Nach 2-3 Jahren taucht man wieder auf und bringt wieder ein (gutes midrange) Produkt... so geschehen zuletzt mit dem Kyro's. Jetzt ist die Zeit bald wieder um (na ja, eben noch nicht ganz 3 Jahre ;-) und es wird wieder ein Midrange-Produkt kommen und dann ? Ja richtig, man wird wieder in der Versenkung verschwinden...

Dieser ganze PowerVR-Quatsch geht mir dermaßen auf den Geist !

Razor

Ailuros
2003-08-31, 09:43:16
Nein.
ImgTech hat schon ein wenig zu oft viel versprochen und nichts gehalten.
Man bringt ein (gutes midrange) Produkt und verschwindet wieder in der Versenkung. Nach 2-3 Jahren taucht man wieder auf und bringt wieder ein (gutes midrange) Produkt... so geschehen zuletzt mit dem Kyro's. Jetzt ist die Zeit bald wieder um (na ja, eben noch nicht ganz 3 Jahre ;-) und es wird wieder ein Midrange-Produkt kommen und dann ? Ja richtig, man wird wieder in der Versenkung verschwinden...

Ja und? Hab ich vielleicht einen ausschliesslichen Vertrag mit ATI oder NVIDIA? Oder bleiben Karten im Durchschnitt mehr als ein Jahr in meinen Systemen hocken?

Ich hab ja nicht versucht das Ding jemand anzudrehen, nur sterbe ich persoenlich aus Neugierde endlich mal einen wahren high end TBDR zu sehen und das ist dann eher persoenliche Geschmacksache. Ob sie diesmal auch es schaffen werden sich im Markt zu halten wissen die wohl selber oder um genauer zu sein, deren Partner.

Ausserdem wenn NV40 Anfang naechstes Jahres das einzige PS/VS3.0 Produkt sein wird, wird es ja aeusserst langweilig werden. ;)

Dieser ganze PowerVR-Quatsch geht mir dermaßen auf den Geist !

Huang wohl auch, da er es nicht geschafft hat diese kleine Nichen-Firma auf seine Vernichtungsliste hinzufuegen zu koennen :D

Der ImgTec Quatsch wird Dir noch viel mehr auf die Nerven gehen in absehbarer Zeit glaubs mir ;)

Razor
2003-08-31, 10:26:23
Original geschrieben von Ailuros
Huang wohl auch, da er es nicht geschafft hat diese kleine Nichen-Firma auf seine Vernichtungsliste hinzufuegen zu koennen :D
Huang dürfte diese Firma nie interessiert haben...
;-)

Und 3dfx hat sich selber vernichtet, wenn Du darauf anspielen wolltest.
Original geschrieben von Ailuros
Der ImgTec Quatsch wird Dir noch viel mehr auf die Nerven gehen in absehbarer Zeit glaubs mir ;)
Nö, tut er schon lange nicht mehr.
Ich bin felsenfest der Meinung, dass wir vor Mitte/Ende 2004 bzw. 2005 nix von den Jungens sehen werden (wenn überhaupt jemals ;-). Werde ich eines Besseren belehrt gut, wenn nicht... für mich liegen die Leutz in der gleichen Kategorie wie die BitBoys.

Razor

aths
2003-08-31, 10:32:04
Original geschrieben von Razor
Ich bin felsenfest der Meinung, dass wir vor Mitte/Ende 2004 bzw. 2005 nix von den Jungens sehen werden (wenn überhaupt jemals ;-). Werde ich eines Besseren belehrt gut, wenn nicht... für mich liegen die Leutz in der gleichen Kategorie wie die BitBoys.PowerVR hatte mehrfach anständige Karten im PC-Segment, Kyro wird bis heute verkauft. Bitboys Oy haben nie jemals eine fertige Karte mit ihrem Chip verkauft.

Razor
2003-08-31, 10:49:23
Original geschrieben von aths
PowerVR hatte mehrfach anständige Karten im PC-Segment, Kyro wird bis heute verkauft. Bitboys Oy haben nie jemals eine fertige Karte mit ihrem Chip verkauft.
Sie tauchen auf... und verschwinden wieder...
Keine Weiterentwicklung, keine Innovation.
Insofern sind sie tatsächlich nicht mit den BitBoys zu vergleichen ;)

Und Kyro-Karten sind heute in der gf2mx-Klasse einzuordnen.

"Produkte, die eigentlich nicht mehr verkauft werden sollten !"
;D

Razor

Gast
2003-08-31, 11:38:40
Original geschrieben von aths
PowerVR hatte mehrfach anständige Karten im PC-Segment, Kyro wird bis heute verkauft. Bitboys Oy haben nie jemals eine fertige Karte mit ihrem Chip verkauft.

Tja aber wir leben in einer Gewinnerwelt. Für Verlierer und kleine Fische interessiert sich einfach keiner.
Entweder sie mischen konstant in allen Segmenten mit oder sie lassen es bleiben. Solange sie das nicht schaffen werden sie von mir und auch dem Großteil des Marktes mit Nichtachtung gestraft.
Bevor ich mich für PowerVR interssiere will ich erstmal Produkte und Benchmarks sehen. Bis dahin sind die für mich nicht existent.
Für den 2 und 3. Platz gibts nunmal keinen Preis.

aths
2003-08-31, 13:18:22
Richthofen, es gibt Leute, die die Welt mit anderen Augen sehen, als du.


Original geschrieben von Razor
Sie tauchen auf... und verschwinden wieder...
Keine Weiterentwicklung, keine Innovation.Du scheinst dich in der Kyro-Technik nicht auszukennen.
Original geschrieben von Razor
Und Kyro-Karten sind heute in der gf2mx-Klasse einzuordnen.

"Produkte, die eigentlich nicht mehr verkauft werden sollten !"Natürlich werden GeForce2 MX-Karten auch heute noch verkauft.

StefanV
2003-08-31, 14:00:48
Original geschrieben von Razor
Sie tauchen auf... und verschwinden wieder...
Keine Weiterentwicklung, keine Innovation.
Insofern sind sie tatsächlich nicht mit den BitBoys zu vergleichen ;)

Und Kyro-Karten sind heute in der gf2mx-Klasse einzuordnen.

"Produkte, die eigentlich nicht mehr verkauft werden sollten !"
;D

Razor

Razor, du scheinst wohl keine Ahnung von dem Geschäftsmodell von ImgTec zu haben.

Imgtec verkauft Designs, für die Weiterentwicklung ist DER PARTNER zuständig!!!

Und die Serie 4 ist auch nur verschütt gegangen, ist ST Micros schuld!!

StefanV
2003-08-31, 14:02:26
Original geschrieben von Gast
Tja aber wir leben in einer Gewinnerwelt. Für Verlierer und kleine Fische interessiert sich einfach keiner.
Entweder sie mischen konstant in allen Segmenten mit oder sie lassen es bleiben. Solange sie das nicht schaffen werden sie von mir und auch dem Großteil des Marktes mit Nichtachtung gestraft.
Bevor ich mich für PowerVR interssiere will ich erstmal Produkte und Benchmarks sehen. Bis dahin sind die für mich nicht existent.
Für den 2 und 3. Platz gibts nunmal keinen Preis.

Sprichst du von ImgTec??

Wenn ja dann :rofl::rofl:

Ganauso wie nVidia locker VIA kaufen könnte :rofl:

WENN, dann höchstens umgekehrt!!

Ailuros
2003-08-31, 17:50:19
Huang dürfte diese Firma nie interessiert haben...
;-)

Wenn Du schon keine Ahnung hast von was ich rede, lass es doch gleich bleiben. Es handelt sich ja nur um einen von Huang's Geschmacklosen Witzen.

Nö, tut er schon lange nicht mehr.
Ich bin felsenfest der Meinung, dass wir vor Mitte/Ende 2004 bzw. 2005 nix von den Jungens sehen werden (wenn überhaupt jemals ;-). Werde ich eines Besseren belehrt gut, wenn nicht... für mich liegen die Leutz in der gleichen Kategorie wie die BitBoys.

ImgTec hat 4 Subdivisionen mit mehr als nur einem SoC der in der Vergangenheit und heute verkauft wurde.

Videologic hat dem damaligen Marktfuehrer einen high end Konsolen-deal aus den Haenden gerissen, drei Generationen von veroeffentlichter PC Hardware und momentan haben sie ueber 10 SoCs unter Entwicklung unter denen auch MBX fuer die sie schon die haelfte von den Top10 Semikonduktoren unter Vertrag haben. Wo genau ist Bitboy's Hardware oder wenigstens EINE angekuendigte Lizenz fuer ihren Acceleon?

Und Kyro-Karten sind heute in der gf2mx-Klasse einzuordnen.

Yupp so etwa. Was ist da so schlecht daran fuer ein drei jahre altes Produkt?

Keine Weiterentwicklung, keine Innovation.

Nur ein einziges Beispiel:

http://www.metagence.com/MetagenceAnnouncesLinuxForMeta.asp

Und wenn es zu Features kommen wuerde hat ja eigentlich die GF2 Linie nur noch als grossen Vorteil T&L/cube maps, sonst ist KYRO eigentlich ueberlegen in manchen Kleinigkeiten oder auf Gleichstand.

Tja aber wir leben in einer Gewinnerwelt. Für Verlierer und kleine Fische interessiert sich einfach keiner.
Entweder sie mischen konstant in allen Segmenten mit oder sie lassen es bleiben. Solange sie das nicht schaffen werden sie von mir und auch dem Großteil des Marktes mit Nichtachtung gestraft.
Bevor ich mich für PowerVR interssiere will ich erstmal Produkte und Benchmarks sehen. Bis dahin sind die für mich nicht existent.
Für den 2 und 3. Platz gibts nunmal keinen Preis.

Gibt es einen Grund warum die in letzter Zeit fast nur noch als Gast postest? :D

Gast
2003-09-01, 00:53:31
Original geschrieben von Ailuros
Gibt es einen Grund warum die in letzter Zeit fast nur noch als Gast postest? :D

Ja gibt es. Ich wurde hier von irgendeiner Pfeife gebanned mal. Seit dem bin ich Gast. Ich könnte mich einloggen aber wozu?
Ich hab Gefallen am Gast gefunden.


Ganauso wie nVidia locker VIA kaufen könnte


Lol Payne. Kaufen kann man nur den, von dem auch genug Anteile im Umlauf sind. Aber wie bei AMD liegen auch hier die meissten Anteile fest in der Hand weniger (Gründer)
Die haben kein Interesse daran einer Stümperbude wie VIA die Aktien zu verkaufen.
VIA ist doch momentan voll am loosen im Sockel A Markt.

Richtig so. Die brauchen wa sicher nicht. Die sollen sich mit Intel kaputbekriegen mir egal. Sockel A ist Nvidia Land.
Da wird jetzt eingesackt so viel wie geht.

MadManniMan
2003-09-01, 01:52:18
Bevor ich mich darüber aufregen werde, daß hier gerade die Diskussion geschreddert wird, nochmal 2, 3 Sätzchen...

:D

@Razorle: hm... - insert CapM's Avatar -

@Richthofen: als Gast wirst du genauso belächelt wie einst - was macht dir daran spaß?

:D


So! Jetzt aber zurück zum eigentlichen Thema! Demi, seit wann arbeitet "eine Pipe" diese Pixelblöcke bei nV ab?

Ailuros
2003-09-01, 02:06:09
Ja gibt es. Ich wurde hier von irgendeiner Pfeife gebanned mal. Seit dem bin ich Gast. Ich könnte mich einloggen aber wozu?
Ich hab Gefallen am Gast gefunden.

Keine Ahnung wie es dazu kam und mich interessiert es auch besonders nicht den Grund herauszufinden. Im Grunde bin ich persoenlich gegen "bans", ausser sehr seltenen Ausnahmefaellen.

Ein messageboard ohne Vielfalt in Meinungen und POVs ist IMO langweilig; solange sich Debatten sich zivil halten und niemand persoenlich angegriffen wird, bin ich eigentlich aeusserst tolerant.

Hier moecht ich nochmals hinzufuegen dass wer immer messageboards zu ernst nimmt, braucht wohl dringend professionelle Hilfe. So genug mit dem OT.

Demi, seit wann arbeitet "eine Pipe" diese Pixelblöcke bei nV ab?

Darf ich? :D (alles ist ja zur Korrigierung frei...)

Koennen wir das Ding Pixelprozessor nennen, oder PP wenn´s besser passt? Soweit ich weiss seit NV2x.

MadManniMan
2003-09-01, 02:08:08
Original geschrieben von Ailuros
Koennen wir das Ding Pixelprozessor nennen, oder PP wenn´s besser passt? Soweit ich weiss seit NV2x.

Ergo DER Grund, warum es keine GF3MX oder GF4TiMX gab? Also eine richtige mit 2 "Pipes"?

Ailuros
2003-09-01, 02:59:39
Nochmal NV2x/3x haben nur einen Pixelprozessor, wie kommst Du jetzt auf zwei fuer low end Produkte?

GF4MX oder NV17 war eine Loesung der letzten Minute da nicht alles nach Plan lief durch die Verzoegerungen vom NV2A chip Aufwand; wo man einfach zur vorigen GF2MX griff und ein paar extra features hinzufuegte.

Die uralte roadmap sah etwa so aus:

Q1 2001: NV20
Q3 2001: NV25
Q1 2002: NV30

Der obrige NV30 war ein eher ueberdimensionales Produkt fuer damals und die Zeit wurde zu gering da weiter an dem Ding herumzubasteln. Ergo wurde die NV25 verschoben und die Ti200/500 dazwischengeschoben.

Als man spaeter dann mit dem heutigen NV30 fertig war, kamen die low k 13nm Probleme noch dazu, die schon Mitte Sommer 2002 zum Vorschein kamen. Ich werde aber trotzdem den Verdacht nicht los dass NVIDIA umso einiges beim Design des NV3x unterschaetzt hat.

(also nur historischer Kram soweit)

Eine absolute low-end NV20 mit reduzierten Specs (sowie heute NV34=2*2) waere wohl moeglich gewesen, aber die Konkurrenz hatte ja auch nichts besseres zu bieten als nur dx7 Produkte. Ausserdem waren sie ja sowieso unter enormen Zeitdruck (siehe oben). Erst als ATI begann fuer den low-end dx8.1 Karten anzubieten und sie nur mit dx7 dastanden wurden dx9 budget Karten fuer die NV3x Linie entwickelt.

Es war effektiv der schwache Punkt von ATI´s Produktlinie und der wurde auch angegriffen, weil es unmoeglich war bessere Eindruecke zu gewinnen als ATI im high end Bereich.

Reicht das als Grund? Und wenn es nicht klar sein sollte alles IMHO :)

MadManniMan
2003-09-01, 07:49:41
Original geschrieben von Ailuros
Nochmal NV2x/3x haben nur einen Pixelprozessor, wie kommst Du jetzt auf zwei fuer low end Produkte?

GF4MX oder NV17 war eine Loesung der letzten Minute da nicht alles nach Plan lief durch die Verzoegerungen vom NV2A chip Aufwand; wo man einfach zur vorigen GF2MX griff und ein paar extra features hinzufuegte.

Die uralte roadmap sah etwa so aus:

Q1 2001: NV20
Q3 2001: NV25
Q1 2002: NV30

Der obrige NV30 war ein eher ueberdimensionales Produkt fuer damals und die Zeit wurde zu gering da weiter an dem Ding herumzubasteln. Ergo wurde die NV25 verschoben und die Ti200/500 dazwischengeschoben.

Als man spaeter dann mit dem heutigen NV30 fertig war, kamen die low k 13nm Probleme noch dazu, die schon Mitte Sommer 2002 zum Vorschein kamen. Ich werde aber trotzdem den Verdacht nicht los dass NVIDIA umso einiges beim Design des NV3x unterschaetzt hat.

(also nur historischer Kram soweit)

Eine absolute low-end NV20 mit reduzierten Specs (sowie heute NV34=2*2) waere wohl moeglich gewesen, aber die Konkurrenz hatte ja auch nichts besseres zu bieten als nur dx7 Produkte. Ausserdem waren sie ja sowieso unter enormen Zeitdruck (siehe oben). Erst als ATI begann fuer den low-end dx8.1 Karten anzubieten und sie nur mit dx7 dastanden wurden dx9 budget Karten fuer die NV3x Linie entwickelt.

Es war effektiv der schwache Punkt von ATI´s Produktlinie und der wurde auch angegriffen, weil es unmoeglich war bessere Eindruecke zu gewinnen als ATI im high end Bereich.

Reicht das als Grund? Und wenn es nicht klar sein sollte alles IMHO :)

Diese Darlegung ist sehr wohl schlüssig und ich habe sie auch bisher nicht bedacht, aber dennoch hast du mich nicht ganz 100%ig richtig verstanden... :)

"Zwei Pipes" sagte ich deshalb, weil diese Benennung beim NV11 wie beim NV17/18 noch real war, denn NV10 und NV15 hatten ja noch 4 Pipes im eigentlichen Sinne. Durch die Zusammenfassung derer 4 auf eine Logik entfiel die Möglichkeit, einen "MX"-Ableger mit halbierten Pipes auf NV2X-Basis zu launchen. <- OK so?

Ailuros
2003-09-01, 08:38:16
Wie gesagt mit NV34 war es doch auch moeglich oder?

NV30= 4*2 oder 8*1
NV31= 4*1 oder 2*2
NV34= 2*2

Im Falle wo es eine dx8.1 GF4MX gegeben haette, waere es eben eine Art GF4MX mit sehr schwacher PS Leistung gewesen.

Razor
2003-09-01, 22:25:53
Original geschrieben von Stefan Payne
Razor, du scheinst wohl keine Ahnung von dem Geschäftsmodell von ImgTec zu haben.

Imgtec verkauft Designs, für die Weiterentwicklung ist DER PARTNER zuständig!!!

Und die Serie 4 ist auch nur verschütt gegangen, ist ST Micros schuld!!
Offensichtlich ist dieses Geschäftsmodell dann aber nicht sonderlich wirtschaftlich. Oder wie sollen FuE für einen Chip wieder rein kommen, der nie produziert wurde ? Wie sehr das daneben gehen kann, haben die BitBoys ja auch am eigenen Leibe gespürt... aber gut, so richtig tot sind sie (noch) nicht...
:D

Razor

Razor
2003-09-01, 22:27:00
Original geschrieben von aths
Du scheinst dich in der Kyro-Technik nicht auszukennen.
Oh doch... und TBR's gab' schon zu Voodoo-Zeiten...
Was also war daran zu GF2-Zeiten neu ?
???

Razor

Razor
2003-09-01, 22:34:12
Original geschrieben von Ailuros
Wenn Du schon keine Ahnung hast von was ich rede, lass es doch gleich bleiben.
Nö.
Original geschrieben von Ailuros
ImgTec hat 4 Subdivisionen mit mehr als nur einem SoC der in der Vergangenheit und heute verkauft wurde.

Videologic hat dem damaligen Marktfuehrer einen high end Konsolen-deal aus den Haenden gerissen, drei Generationen von veroeffentlichter PC Hardware und momentan haben sie ueber 10 SoCs unter Entwicklung unter denen auch MBX fuer die sie schon die haelfte von den Top10 Semikonduktoren unter Vertrag haben. Wo genau ist Bitboy's Hardware oder wenigstens EINE angekuendigte Lizenz fuer ihren Acceleon?
Ich rede hier von der PC-Sparte... der Rest interesiert mich nicht die Bohne.

Ach ja, IMO haben sie die BitBoys u.a. durch die Lizensierung von eigenen Patenten über Wasser gahalten.
Original geschrieben von Ailuros
Yupp so etwa. Was ist da so schlecht daran fuer ein drei jahre altes Produkt?
Weil es auch damals kein High-End war...
Wie kommst Du also darauf, dass sie es bei ihrem 3. 'Versuch' schaffen werden ?
Wäre immerhin das erste mal...
:D
Original geschrieben von Ailuros
Nur ein einziges Beispiel:

http://www.metagence.com/MetagenceAnnouncesLinuxForMeta.asp

Und wenn es zu Features kommen wuerde hat ja eigentlich die GF2 Linie nur noch als grossen Vorteil T&L/cube maps, sonst ist KYRO eigentlich ueberlegen in manchen Kleinigkeiten oder auf Gleichstand.
Schade nur, dass die gf2 vor der Kyro da war...
Wie ich schon sagte... keine oder sagen wir kaum Innovation.
Zumindest aber haben sie ihre 'Inseltechnik' verfeinert.
;-)
Original geschrieben von Ailuros
Gibt es einen Grund warum die in letzter Zeit fast nur noch als Gast postest? :D
Was genau hast Du an dem "@Work" nicht verstanden ?
:bonk:

Razor

P.S.: Ups, das letzte Kommentar passt irgendwie nicht... oder doch ? ;)
Vielleicht sollte sich Ailuros mal angewöhnen, den ursprünglichen Poster eines Quotes dazu zu schreiben...

mapel110
2003-09-01, 22:37:50
Original geschrieben von Razor
Weil es auch damals kein High-End war...
Wie kommst Du also darauf, dass sie es bei ihrem 3. 'Versuch' schaffen werden ?
Wäre immerhin das erste mal...
:D


was powerVR designed hängt vom lizenznehmer ab. imgtec wollte kein high end.

Razor
2003-09-01, 22:42:06
Original geschrieben von mapel110
was powerVR designed hängt vom lizenznehmer ab. imgtec wollte kein high end.
Das erste mal kein High-End... das zweite mal kein High-End... warum also beim 3. mal ?
???

Sorry, aber das glaub' ich erst, wenn ich's mit eigenen Augen sehe.

Razor

mapel110
2003-09-01, 22:46:38
Original geschrieben von Razor
Das erste mal kein High-End... das zweite mal kein High-End... warum also beim 3. mal ?
???


weils ein anderer lizenznehmer sein wird.

StefanV
2003-09-01, 22:52:05
Original geschrieben von Razor
Das erste mal kein High-End... das zweite mal kein High-End... warum also beim 3. mal ?
???

Sorry, aber das glaub' ich erst, wenn ich's mit eigenen Augen sehe.

Razor

1. NEC
2. AFAIK ST-Micro
3. ST-Micro

4. garkeiner
5. unbekannt

Also wenn der aktuelle Lizensnehmer beschließt, alle Marktsegmente abzudecken, dann kanns durchaus was werden.

Es liegt an den LIZENSNEHMERN, was mit dem Design passiert, nicht an ImgTec bzw PowerVR, denn die Stellen nur das Umfeld bzw die Technologie und Treiber zur Verfügung, was andere daraus machen ist nicht deren Tasse Tee!!

PS: sollte eigentlich bekannt sein, daß der Kyro Serie3 war und damit das 3. Design, was es aufm PC Markt gab...
Das 2. Design war leider a bisserl zu stark auf die Dreamcast zugeschnitten und auf der Neon 250 saß nur ein 64bit RAM Interface...

Razor
2003-09-01, 23:07:05
Original geschrieben von mapel110
weils ein anderer lizenznehmer sein wird.
Nicht ImgTech oder meinst Du ST Micro ?
Wer dann ?
???

Ein Witz...
;-)

Über diesen uminösen Lizenznehmer ist noch nichts bekannt. Würde micht nicht wundern, wenn er gar nicht existiert... aber wer weiß ?
:D

Razor

P.S.: Dieser Post passt auch auf den Payne... ;)

Razor
2003-09-01, 23:11:04
Original geschrieben von Stefan Payne
PS: sollte eigentlich bekannt sein, daß der Kyro Serie3 war und damit das 3. Design, was es aufm PC Markt gab...
Das 2. Design war leider a bisserl zu stark auf die Dreamcast zugeschnitten und auf der Neon 250 saß nur ein 64bit RAM Interface...
1 - da und wieder weg
2 - totgeburt (aber immerhin gab's die ganz kurz zu kaufen ;-)
3 - da und wieder (fast ;-) weg
4 - totgeburt (bzw. wurde ja nicht einmal geboren ;-)
5 - ...

... na ja, der Logic nach müsste da jetzt wieder was kommen...
Aber die Zeit ist noch nicht ganz reif. Ergo: frühestens Mitte 2004, eher 2005 !
:D

Razor

MadManniMan
2003-09-01, 23:22:12
Razor und PowerVR...

...das ist wie ein Uli Hoeneß, der sich über ein plötzlich um UEFA-Cup Plätze spielenden TSV Vestenbergsgreuth äußern müßte. i.e. da will gar kein Verständnis aufgebracht werden.

StefanV
2003-09-01, 23:46:32
Original geschrieben von MadManniMan
Razor und PowerVR...

...das ist wie ein Uli Hoeneß, der sich über ein plötzlich um UEFA-Cup Plätze spielenden TSV Vestenbergsgreuth äußern müßte. i.e. da will gar kein Verständnis aufgebracht werden.

*zustimm*

Razor
2003-09-02, 00:27:55
Original geschrieben von MadManniMan
Razor und PowerVR...

...das ist wie ein Uli Hoeneß, der sich über ein plötzlich um UEFA-Cup Plätze spielenden TSV Vestenbergsgreuth äußern müßte. i.e. da will gar kein Verständnis aufgebracht werden.
Hab' ich Euch damals nicht 'vorausgesagt', dass da nichts mehr von PowerVR kommt ?
Und was ist jetzt ?

Der Series 4 wurde eingestampft und das sogar VOR Produktionsstart (vom Neo der Series 2 wurden ja wenigstens ein paar hergestellt... wenn auch ein bissel - viel - zu spät ;-).

Und was habe ich mir damals alles anhören müssen...
:D

Razor

Ailuros
2003-09-02, 01:53:29
Ich rede hier von der PC-Sparte... der Rest interesiert mich nicht die Bohne.

Ach ja, IMO haben sie die BitBoys u.a. durch die Lizensierung von eigenen Patenten über Wasser gahalten.

Das Vergleichsverhaeltnis ist trotzdem schlecht.

Weil es auch damals kein High-End war...
Wie kommst Du also darauf, dass sie es bei ihrem 3. 'Versuch' schaffen werden ?
Wäre immerhin das erste mal...

Serie3 war nie als high end gedacht. Ja es wird das erste Mal im PC Raum sein. Serie2 war high end fuer SEGA/Dreamcast, ergo ein Konsolen-chip.

Schade nur, dass die gf2 vor der Kyro da war...
Wie ich schon sagte... keine oder sagen wir kaum Innovation.
Zumindest aber haben sie ihre 'Inseltechnik' verfeinert.
;-)

a) Wie schon gesagt Target war GF2MX mit einem Preis von 150$ MSRP ist auch nicht mehr zu erwarten.

b) Innovation siehe oben. PSX2 unterstuetzte schon damals 32bpp, 1024*1024 Texturen, bi/trilinear/anisotropic und FSAA. Man kann es ja zu 256*256, 16bpp, bilinear fuer den Gegenvorschlag von 3Dfx damals vergleichen. Wie es heute steht geht Dich ja ausser dem PC nichts an also macht es auch keinen Sinn ueber Ensigma oder Metagence erstmal Zeit zu verschwenden.

c) Inseltechnik klingt interessant als Begriff.

Sorry, aber das glaub' ich erst, wenn ich's mit eigenen Augen sehe.

Es ist ein high end chip. Irgend ein Grund zur Unruhe? Ich wuerde sagen nein. Die Markt-penetration ist dafuer zu klein.

...... na ja, der Logic nach müsste da jetzt wieder was kommen...
Aber die Zeit ist noch nicht ganz reif. Ergo: frühestens Mitte 2004, eher 2005 !

Hab' ich Euch damals nicht 'vorausgesagt', dass da nichts mehr von PowerVR kommt ?
Und was ist jetzt ?

Der Series 4 wurde eingestampft und das sogar VOR Produktionsstart (vom Neo der Series 2 wurden ja wenigstens ein paar hergestellt... wenn auch ein bissel - viel - zu spät ;-).

Und was habe ich mir damals alles anhören müssen...

Madame Razor ich hab Liebeskummer, was sagt ihre Kugel dazu? :D

Obwohl es wenig Sinn macht nochmal den gleichen Mist zu erklaeren, hier nochmal schnell zusammengefasst.

ST Micro hat einen recht dicken Vertrag mit TSMC und da sie noch Platz hatten, dachten sie an ein paar Graphikkarten. Der Antrag an ImgTec war budget und mainstream Architekturen am Anfang. Also erstand schnell Serie3 von der KYRO und spaeter KYROII resultierte. Ein bisschen spaeter stellte ST Micro einen Antrag fuer weitere zwei Generationen und so gab es Serie4 (doppelt so gross wie K2, dx7) und (Serie5 hoeherer Takt, mehr TMUs, entry level dx9***), die auch von ST Micro lizensiert wurden.

ST kam in finanzielle Schwierigkeiten nach der K2 als Konzern da sie auch von der Krise betroffen wurden, also mussten sie Leute entlassen oder weniger wichtige Spalten fuer ihr Kern-geschaeft loswerden. Ergo wurde die Graphiks-abteilung zum Verkauf freigesetzt.

Kyro3 war Produktionsreif und es gab zwei Interessenten, die eine war VIA aber sie wollten ihre eigenen Treiber schreiben, was fuer PowerVR gar nicht in Frage kam und noch einer den ich aus Sicherheitsgruenden nicht erwaehnen werde. Mit dem zweitem wurde dann abgemacht dass es zu spaet fuer einen dx7 chip im Fruehling 2002 ist und wie die Geschichte von da ab weitergeht werde ich wohl erst nach Ende 2003 erklaeren koennen.

Die Luecke von Serie4 wurde mit MBX gefuellt, der Teile von Serie3 und Serie4 hat, ist aber als PDA/mobile SoC effektiv ein Dreamcast auf Kleinformat. Dabei verdienen sie an dem Ding mehr als 5x so viel als an jedem PC standalone chip.

In Wahrheit ist der PDA/mobile Markt soooo langweilig, dass sich NVIDIA gerade MediaQ geschnappt hat um in ungefaehr 16 Monaten oder spaeter auch in diesem Markt einzutreten, um die freistellenden Resourcen der Konsolen-Abteilung eizusetzen.

Nur wenn sie es mit den Spezifikationen ein bisschen uebertreiben muss man wohl nach jedem Telefonat nach einer Steckdose suchen ;)

Wie gesagt da selbst nach einer moeglichen Veroeffentlichung keine Chance gibt, dass irgend etwas ausser NVIDIA Produkten eine faire Chance von Dir bekommt, lass es lieber bleiben. Selbst wenn sie zeitig eine PS/VS3.0 Karte veroeffentlichen, haben ATI oder NV wenig zu befuerchten. Obwohl PowerVR schon immer intern von grossen IHVs angegriffen wurde komischerweise und man nannte es dann einfach internes Informationsmaterial.

***edit: dieser alte Design hat nichts mit dem heutigen zu tun.

Gast
2003-09-02, 08:07:45
Original geschrieben von Ailuros

Kyro3 war Produktionsreif und es gab zwei Interessenten, die eine war VIA aber sie wollten ihre eigenen Treiber schreiben, was fuer PowerVR gar nicht in Frage kam und noch einer den ich aus Sicherheitsgruenden nicht erwaehnen werde. Mit dem zweitem wurde dann abgemacht dass es zu spaet fuer einen dx7 chip im Fruehling 2002 ist und wie die Geschichte von da ab weitergeht werde ich wohl erst nach Ende 2003 erklaeren koennen.


Die Sache mit ST-Micro sehe ich ähnlich. Für die war der Kyro so ein "oh nett, das hätten wir auch gern" - Produkt; das sie mehr oder weniger aus Versehen aufgeschnappt haben und dann entsprechend schnell wieder fallen gelassen haben.

Ach ja;

Danke für die Info, das ImgTec seit Frühjahr 2002 einen Lizenznehmer für den neuen Chip hat. Das war mir neu. Deshalb haben die ImgTec-Leute ( JohnH, SimonF, CaptainCickenpants(sp,?) und natürlich Kristof ) so gute Laune in der letzten Zeit. Anscheinend ist der auch Chip soweit fertig, und die Sache kann losgehen.

Bin schon gespannt, was die zusammen gebraut haben.

seahawk
2003-09-02, 13:27:55
Ich habe aber auch nicht mehr Hoffnung auf ein Power VR Highend Produkt als der gute Razor.

Dabie hatte ich mal während der Voodoozeiten eine Karte von Videologic mit so einem Chip....

Power VR : Hoffen ja - Glauben nein

Ailuros
2003-09-02, 13:40:43
Danke für die Info, das ImgTec seit Frühjahr 2002 einen Lizenznehmer für den neuen Chip hat.

Ich dachte mir schon als ich es nochmal durchgelesen hab dass es vielleicht falsch rueberkommt. Der Grund warum ich den zweiten Interessenten nicht gepostet habe ist aus Sicherheitsgruenden, weil ich weiss dass das Verhaeltnis zwischen den Firmen mehr als nur sehr gut ist. Ich weiss wer es ist aber ich weiss nicht ob es derjenige ist der vorhat Serie5 zu produzieren.

Kein Deal der nicht offiziell angekuendigt wird, wird je von den PVR Kerlen bestaetigt oder erwaehnt.

Dabie hatte ich mal während der Voodoozeiten eine Karte von Videologic mit so einem Chip....

Blah die hatten zu viele API Inkompatibilitaeten damals, die aber schon seit einiger Zeit ueberwaeltigt wurden (in der Mehrheit schon seit Neon250).

ShadowXX
2003-09-02, 14:16:40
Original von Ailuros:
Ich dachte mir schon als ich es nochmal durchgelesen hab dass es vielleicht falsch rueberkommt. Der Grund warum ich den zweiten Interessenten nicht gepostet habe ist aus Sicherheitsgruenden, weil ich weiss dass das Verhaeltnis zwischen den Firmen mehr als nur sehr gut ist. Ich weiss wer es ist aber ich weiss nicht ob es derjenige ist der vorhat Serie5 zu produzieren.

Kein Deal der nicht offiziell angekuendigt wird, wird je von den PVR Kerlen bestaetigt oder erwaehnt.


Das du keine Namen nennen willst ist ok....
aber könntest du zumindest sagen, ob der unbekannte Zweite einen Namen hat, der gross/bekannt genug ist, dass sich jemand traut Karten mit dem Series5-Chip zu kaufen?? (ausser Insidern & Grafikgurus)

J.S.Shadow

P.S. ja oder nein reicht im Prinzip schon....;D

seahawk
2003-09-02, 14:20:47
Original geschrieben von Ailuros

Blah die hatten zu viele API Inkompatibilitaeten damals, die aber schon seit einiger Zeit ueberwaeltigt wurden (in der Mehrheit schon seit Neon250).

Ach so schlecht waren de gar nicht. Die optimierte Tomb Raider Version sah schon super aus. Und ich hatte keine großen Probleme.

Kilbert
2003-09-02, 20:25:03
Original geschrieben von Demirug
Weil die Interpolatoren so blöd sind und nur als 2*2 Pixel Block arbeiten.

Das ist nicht blöd sondern beabsichtigt. Auf diese Weise lassen sich die Differential-Operatoren trivial implementieren, einfach als Differenz benachbarter Pixel. Braucht man für das Bestimmen der Mipmap-Level und die ddx/ddy Shader-Befehle. Das ist auch der Grund warum Mipmap-Grenzen immer aus 2x2 Pixel-Blöcken bestehen (kann man leicht sehen wenn man auf bilinear mit Farbkodierung schaltet).

loewe
2003-09-02, 20:38:08
Original geschrieben von ShadowXX
Das du keine Namen nennen willst ist ok....
aber könntest du zumindest sagen, ob der unbekannte Zweite einen Namen hat, der gross/bekannt genug ist, dass sich jemand traut Karten mit dem Series5-Chip zu kaufen?? (ausser Insidern & Grafikgurus)

Ich antworte einfach mal für Ailuros,

Ja :)

Demirug
2003-09-02, 20:42:04
Original geschrieben von Kilbert
Das ist nicht blöd sondern beabsichtigt. Auf diese Weise lassen sich die Differential-Operatoren trivial implementieren, einfach als Differenz benachbarter Pixel. Braucht man für das Bestimmen der Mipmap-Level und die ddx/ddy Shader-Befehle. Das ist auch der Grund warum Mipmap-Grenzen immer aus 2x2 Pixel-Blöcken bestehen (kann man leicht sehen wenn man auf bilinear mit Farbkodierung schaltet).

hehe ich weiss doch das dies Absicht ist. ram wollte wissen welche Komponeten dafür verantwortlich ist und das sind eben die Interpolatoren. Bei Chips benutze ich blöd immer dann gerne wenn man auf einfache Lösungen zurückgreift wo eine schlauere Lösung durchaus die Performance steigern könnte aber eben zu lasten des Transitorcounts.

Ailuros
2003-09-03, 01:03:03
Original geschrieben von ShadowXX
Das du keine Namen nennen willst ist ok....
aber könntest du zumindest sagen, ob der unbekannte Zweite einen Namen hat, der gross/bekannt genug ist, dass sich jemand traut Karten mit dem Series5-Chip zu kaufen?? (ausser Insidern & Grafikgurus)

J.S.Shadow

P.S. ja oder nein reicht im Prinzip schon....;D

Ich hab ja VIA erwaehnt. Im Vergleich zu diesen im Qualitaetsbereich und Kundenvertrauen sieht es wohl eher so aus:

VIA<<<<>>>>>>>>>>>>>>>>>>Anonymous ;)

Gast
2003-09-03, 11:05:51
Bleibt ja eigentlich nur Matrox, die mit dem Parhelia ja keine wirklichen Gamerwünsche befriedigen konnten und sich noch eine Fehlentwicklung in-house kaum leisten dürften.

Dann könnte man den Parhelia512 einstellen und für Gamer/Pro-Anwendungen das PowerVR-Design nutzen und für 2D-Lösungen die kleinen P650/P750.

q@w
;)

ShadowXX
2003-09-03, 11:15:36
@Ailuros & @loewe

Danke....

J.S.Shadow

Gast
2003-09-03, 11:31:17
Original geschrieben von Ailuros
Ich hab ja VIA erwaehnt. Im Vergleich zu diesen im Qualitaetsbereich und Kundenvertrauen sieht es wohl eher so aus:

VIA<<<<>>>>>>>>>>>>>>>>>>Anonymous ;)

Können wir das Ratespiel nicht noch ein wenig ausdehnen?

Frage :
ist der Lizenznehmer im Grafikkarten - Segment schon tätig ( embedded oder stand-a-lone ist wurscht )? ja/nein reicht.

Wurde der Lizenznehmer in Zusammenhang mit der neuen Lizenzierung des Kyro 3 und 4 Designs schon einmal öffentlich erwähnt? ja/nein reicht.


Danke :D

StefanV
2003-09-03, 12:05:51
Original geschrieben von Gast
Bleibt ja eigentlich nur Matrox, die mit dem Parhelia ja keine wirklichen Gamerwünsche befriedigen konnten und sich noch eine Fehlentwicklung in-house kaum leisten dürften.

Dann könnte man den Parhelia512 einstellen und für Gamer/Pro-Anwendungen das PowerVR-Design nutzen und für 2D-Lösungen die kleinen P650/P750.

q@w
;)

Hm, nö, warum sollte man...

Wenn MGA PowerVR lizensiert, dann wären sie durchaus in der Lage ihren eigenen 2DCore in den Serie 5 einzubauen.

Wozu dann noch die Paellas? ;)

Das einzige Problem wären halt die Treiber, denn da glaube ich auch kaum, daß Matrox sich ganz auf PowerVR verlassen wird...

ShadowXX
2003-09-03, 12:28:52
Glaube nicht das es Matrox ist...ich denke da an jemand ganz anderen......

!ATI
!nV
!Matrox
!SIS
!Creative

Bleibt nicht mehr so viel übrig.....(auf Reputation bezogen):
Intel???
AMD???
Apple??


J.S.Shadow

Ailuros
2003-09-03, 13:03:39
Original geschrieben von Gast
Können wir das Ratespiel nicht noch ein wenig ausdehnen?


Wurde der Lizenznehmer in Zusammenhang mit der neuen Lizenzierung des Kyro 3 und 4 Designs schon einmal öffentlich erwähnt? ja/nein reicht.


Danke :D

NEIN.

(hey das macht Spass :D)

Ailuros
2003-09-03, 13:08:57
Original geschrieben von Stefan Payne
Hm, nö, warum sollte man...

Wenn MGA PowerVR lizensiert, dann wären sie durchaus in der Lage ihren eigenen 2DCore in den Serie 5 einzubauen.

Wozu dann noch die Paellas? ;)

Das einzige Problem wären halt die Treiber, denn da glaube ich auch kaum, daß Matrox sich ganz auf PowerVR verlassen wird...

2D war alles andere als miserabel auf PVR's Produkten und bevor man zu weiteren Schlussvolgerungen kommt, es kam in letzter Zeit zu so manchen Innovationen was diesen Bereich betrifft.

Nur weil Matrox mal lizensiert hat heisst das gar nichts. Matrox ist so dick verschuldet dass sie ueberhaupt keine Risikos eingehen koennen. Haetten sie die Parhelia nicht veroeffentlicht waere es vielleicht noch besser. Matrox ist gar nicht interessiert um es klar zu setzen.

Es geht gar nicht anders dass jemand anders Treiber schreibt. Wieviel haben Erfahrung bei Matrox was TBDRs betrifft? Auf jeden Fall nie so ausfuehrlich wie bei PVR.

Gast
2003-09-03, 13:09:01
Original geschrieben von Ailuros
NEIN.

(hey das macht Spass :D)

Was ist das für ein Nein, für die erste Frage, die zweite, oder gleich beide?

so so Spaß macht dir das...Ts Ts du bist nicht besser als die anderen Teaser. :D :D

Ailuros
2003-09-03, 13:14:01
Original geschrieben von ShadowXX
Glaube nicht das es Matrox ist...ich denke da an jemand ganz anderen......

!ATI
!nV
!Matrox
!SIS
!Creative

Bleibt nicht mehr so viel übrig.....(auf Reputation bezogen):
Intel???
AMD???
Apple??


J.S.Shadow

Ich hab klargemacht dass es sich nicht ueber den Zukunftspartner handeln muss, da ich keinen Schimmer habe wer es ist. Die Raterei ist sinnlos, aber die oben aufgefuehrten machen keinen Sinn wenn Du schaerfer darueber nachdenkst. ATI, NV, SiS, Creative haben ihre eigenen Produkte bzw Graphikabteilungen/Subdivisionen und Matrox siehe oben.

Zu den anderen drei habe ich zwar keine Ahnung ob jeglicher von denen geheime Traeume fuer den Grafikmarkt haben, aber ich wuerde auch nicht an die denken. Intel hat sich schon geholt was sie brauchten.

Ailuros
2003-09-03, 13:16:33
Original geschrieben von Gast
Was ist das für ein Nein, für die erste Frage, die zweite, oder gleich beide?

so so Spaß macht dir das...Ts Ts du bist nicht besser als die anderen Teaser. :D :D

Ich hab's gerade korrigiert, da fuer die erste Frage wohl ein "nein" eine Luege gewesen waere :P

ShadowXX
2003-09-03, 13:44:09
@Ailuros

! als not

J.S.Shadow

Ailuros
2003-09-04, 02:59:51
Uhmmmm ups :D

zeckensack
2003-09-04, 08:30:17
Original geschrieben von Ailuros
Ich hab ja VIA erwaehnt. Im Vergleich zu diesen im Qualitaetsbereich und Kundenvertrauen sieht es wohl eher so aus:

VIA<<<<>>>>>>>>>>>>>>>>>>Anonymous ;) Hmmmm.
Die einzige Firma, die im ganzen ein so deutlich besseres Image hat als VIA, dürfte IBM sein.

Wenn du darauf nicht mit "nein" antwortest, dann muß ich das als "ja" werten :D

Ailuros
2003-09-04, 16:34:23
Nein es war es nicht die Firma die ich meinte und ja der Thread koennte sterben :D