PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Hat Kristof (PowerVR) sich verplappert?


Demirug
2003-08-09, 15:43:21
Bei Beyond3D gab stellte ein Hobby programmier ein paar Fragen (http://www.beyond3d.com/forum/viewtopic.php?t=7325)und Kristof wie immer bemüht zu helfen hat die Fragen beantwortet.

Dabei ist folgendes herauskommen:

krychek: I'm very confused about the current generation of texture units. How are they arranged? 4 pipelines with 1 unit each, 4 pipelines with 2 units each.. how do these differ? How do they support more textures than there are texture units on a pipeline.

Kristof: Forget about pipelines and texture units... all that matters now is how many instructions you can do per clock and of those instructions how many can be texture instructions and how many arithmetic instructions. The back-end might still be pipelined with some pixel pipe width limitations. Supporting more textures than texture instructions available is easy through loopback which is like automated multipass.

Uttar: You wouldn't be hinting at Series 5 being non-traditional like the NV30, would you, Kristof? ;)

Kristof: I thought NV30 was very traditional ???
And I don't hint... I tease...


Was will uns Kristof damit sagen wenn er die Sprüche von nVidia übernimmt? Ubbewusstes versehen oder geschickter Zug?

Fragen über Fragen aber es ist ja nicht mein Kopf der daran zerbricht.

Gast
2003-08-09, 16:13:03
das die alle in die gleiche Richtung gehen, ist doch klar.
Nvidia ist da bereits Vorreiter im Consumerbereich. Sie brauchen die wenigsten Änderungen von allen bei den nächsten Produkten.

nggalai
2003-08-09, 16:27:26
Hola,

Kristof ist in solchen Sachen eigentlich immer sehr vorsichtig und geht meist geschickt vor. i.e. ich schaetze mal, dass er sich da ned verplappert hat. ;)

93,
-Sascha.rb

Demirug
2003-08-09, 16:29:55
Original geschrieben von Gast
das die alle in die gleiche Richtung gehen, ist doch klar.
Nvidia ist da bereits Vorreiter im Consumerbereich. Sie brauchen die wenigsten Änderungen von allen bei den nächsten Produkten.

Kristof scheint das ja etwas anzuzweifeln das sich nVidia von der klasischen Pipeline gelöst hat.

Trotzdem ist es natürlich richtig das sich kurz bis mittelfristig alle davon lösen müssen und auf eine Art SIMD-FPU mit einer TMU als Nebeneinheit umsteigen müssen.

Demirug
2003-08-09, 16:31:53
Original geschrieben von nggalai
Hola,

Kristof ist in solchen Sachen eigentlich immer sehr vorsichtig und geht meist geschickt vor. i.e. ich schaetze mal, dass er sich da ned verplappert hat. ;)

93,
-Sascha.rb

Ich weiss deswegen hat mich das ja sehr überrascht. Wahrscheinlich fehlt es mir da aber einfach zu sehr an den Feinheiten in der Englischen Sprache um zwischen den Zeilen lesen zu können.

EDIT: OT: der Spruch von Derek in deiner Sig kommt ohen genauen Kontext wirklich gut. So als universal Antwort auf alles was Inquirer schreibt.

Ailuros
2003-08-09, 17:51:57
Original geschrieben von Gast
das die alle in die gleiche Richtung gehen, ist doch klar.
Nvidia ist da bereits Vorreiter im Consumerbereich. Sie brauchen die wenigsten Änderungen von allen bei den nächsten Produkten.

Eher die meisten....*grins*

Ailuros
2003-08-09, 17:58:30
Original geschrieben von Demirug
Kristof scheint das ja etwas anzuzweifeln das sich nVidia von der klasischen Pipeline gelöst hat.

Trotzdem ist es natürlich richtig das sich kurz bis mittelfristig alle davon lösen müssen und auf eine Art SIMD-FPU mit einer TMU als Nebeneinheit umsteigen müssen.

Wie schwer ist es fuer unseren jungen Belgier eine NV3x im Labor unter die Lupe zu nehmen?

Uebrigens der originale Series5 Design den ST Micro damals lizensiert hatte war eher in dem Sinn "traditionell" ergo naeher an NV3x Logik. Aber von dem Zeug ist fast nichts mehr gleich in dem zu was es sich in den letzten zwei Jahren entwickelte. Ach ja beide designs waren TBDRs :weg:

Demirug
2003-08-09, 18:11:58
Original geschrieben von Ailuros
Wie schwer ist es fuer unseren jungen Belgier eine NV3x im Labor unter die Lupe zu nehmen?

Bei über 100 Mio Transitoren ist Aufsägen und nachschauen jedenfalls nicht mehr einfach so drin. Aber es gibt ja noch andere Möglichkeiten. Da ich seine Art von Humor nicht gut genug kenne ist es schwer einen einzelnen Satz zu deuten.

Das "I thought NV30 was very traditional" könnte auch durchaus bedeuten. Ich weiss es aber ihr sollte euch mal einig werden.

Uebrigens der originale Series5 Design den ST Micro damals lizensiert hatte war eher in dem Sinn "traditionell" ergo naeher an NV3x Logik. Aber von dem Zeug ist fast nichts mehr gleich in dem zu was es sich in den letzten zwei Jahren entwickelte. Ach ja beide designs waren TBDRs :weg:

Mit einer "normalen" Pipeline wäre die PS 3.0 wohl auch nur noch ein Feature für den Verpackungaufdruck.

Das man nicht vom TBDR Verfahren abweicht ist ja verständlich.

PS: Die Pixelpipline eines NV3X könnte man sehr wahrscheinlich ohne grosse Änderung direkt in einem TDBR verbauen. ;)

Ailuros
2003-08-09, 18:31:07
Bei über 100 Mio Transitoren ist Aufsägen und nachschauen jedenfalls nicht mehr einfach so drin. Aber es gibt ja noch andere Möglichkeiten. Da ich seine Art von Humor nicht gut genug kenne ist es schwer einen einzelnen Satz zu deuten.

Ich schaetze er meinte wohl das Zeug dass NV noch drin liess aus Kompatibilitaets-Gruenden.

Mit einer "normalen" Pipeline wäre die PS 3.0 wohl auch nur noch ein Feature für den Verpackungaufdruck.

STG6000=PS/VS2.0

Die Pixelpipline eines NV3X könnte man sehr wahrscheinlich ohne grosse Änderung direkt in einem TDBR verbauen.

Es wuerde mich nicht wundern wenn man die Pipeline von S5 mit gleicher Leichtheit auch in einem IMR verbauen koennte.

Demirug
2003-08-09, 18:37:48
Original geschrieben von Ailuros
Es wuerde mich nicht wundern wenn man die Pipeline von S5 mit gleicher Leichtheit auch in einem IMR verbauen koennte.

Ja das ist sehr wahrscheinlich.

Ailuros
2003-08-09, 18:54:13
PM check ;)

Xmas
2003-08-09, 19:20:16
Original geschrieben von Ailuros
STG6000=PS/VS2.0
STG6000 = Series 5 nach alter Planung?

Ailuros
2003-08-09, 19:22:35
Ja der Kreide-Tafel Design den damals ST Micro lizensiert hat. STGxxx sind ja sowieso ST Micro Codenamen.

egdusp
2003-08-10, 07:23:10
Original geschrieben von Ailuros
Eher die meisten....*grins*

performance- oder featuremäßig?

mfg
egdusp

Ailuros
2003-08-10, 07:50:36
Original geschrieben von egdusp
performance- oder featuremäßig?

mfg
egdusp

Features. Leistung war nie soweit ich mich erinnern kann ein Problem fuer NVIDIA.

Ich lass mal den Shader3.0 Krampf weg (der sowieso fast wenn nicht absolut sicher ist), allein neue AA/AF Algorithmen zu entwerfen und diese dann mit hoechster Kompatibilitaet zu implementieren kostet so einige Zeit und Aufwand.

Am liebsten wuerde ich im NV40 eine Architektur sehen, die zwar auf die CPU Logik von NV3x aufbaut, aber etwas revolutionaerer waere und dazu noch einen exotischen problemslosen fragment-AA (als Beispiel) Algorithmus. Der Grund dass ich bezweifle dass NVIDIA so grosse Abstaende vom NV3x nehmen wuerde auf einem Schlag, ist wohl dass sie logischerweise nicht nochmal leicht ein groesseres Risiko eingehen werden (nein mit revolutionaerer meine ich nicht deferred rendering, sondern das alte Komptabilitaets-zeug loszuwerden).

Was ich damit sagen will; mal ganz vereinfacht: ich sehe im naechsten NVIDIA/ATI Kampf einen Gewinner was PS/VS3.0 Leistung betrifft, und ansonsten in derzeitigen und heutigen Spielen keine allzu grossen Leistungs-Unterschiede zwischen R420 & NV40. Was ich mir eigentlich wuensche ist dass NVIDIA so fauststark einschlaegt, dass ATI in wirkliche Verlegenheit gelangt, so etwa wie NVIDIA eigentlich mit dem R300 ueberrascht wurde; und dass natuerlich sowohl in Leistung, als auch in Bildqualitaet.

Ich finde diese staendigen Refresh-Zyklen sowieso unattraktiv; nun gut man braucht sie fuer die OEM deals, selbst wenn die High end Karten mehr dazu dienen Eindruecke zu gewinnen. Mein Ideal-Fall waere wenn IHVs die Resourcen die fuer refreshes verschwendet werden, im Gegenteil in jegliche naechste Generation investieren wuerden.

Oooops somebody STOP ME :D

*edit: damn typos and syntax; na irgendwann wird mein Deutsch schon besser *seufz*

Quasar
2003-08-10, 10:29:51
Original geschrieben von Ailuros
(nein mit revolutionaerer meine ich nicht deferred rendering, sondern das alte Komptabilitaets-zeug loszuwerden).


Dürfte jetzt auch problemloser möglich sein, da man mit nV40-Leistung selbst ohne Kompatibilitäts-Einheiten eher die Pre-Last-Generation nV28 schlägt, als es dem nV30 bsw. nicht möglich gewesen wäre.

nV35 dürfte etwa auf demselben Niveau liegen, wie der nV28, wenn man mal die "recycleten" Einheiten weglässt und alles nur über die neuen Einheiten "regelt".

P.S.:
Dein Deutsch ist besser, als das der meisten anderen. Ich hatte erst einmal probleme, zu verstehen, was du meinst. ;)

P.P.S.:
Sachen wie "chalk board blueprint" o.ä. brauchst nicht unbedingt eindeutschen.. ;)

Demirug
2003-08-10, 11:14:37
Ja im NV35 wurden wohl "Kompatibilitäts"-Einheiten entfernt. Wobei bei NV30 diese von der Seite nv ja nicht als reine "Kompatibilitäts"-Einheiten gedacht waren dann aber dazu verdammt wurden und nun von den nv-Treiberprogrammiern höchstleistungen verlangt.

"William R. Mark" wäre ein guter Mann für den Job gewesen aber der macht ja jetzt auf Prof.

Kekoa Proudfoot wäre noch eine alternative aber was der geraden macht?

Schon wieder viel zu viel geschrieben.

Oh man juckt es mir in den Fingern aber ich kann mich beherschen. ;)

Gast
2003-08-10, 11:52:12
Ich gehe mal davon aus das die neuen PROZESSOREN auch 64 bit farbtiefe anbieten werden!
Solangsam sind die 2 jahre um :)

Und das die pipline wie wir sie kennen sich ändert ist auch klar!

Das I thought (ich dacht letzte form):)

Demirug
2003-08-10, 12:06:07
Original geschrieben von Gast
Ich gehe mal davon aus das die neuen PROZESSOREN auch 64 bit farbtiefe anbieten werden!
Solangsam sind die 2 jahre um :)

Wir sind doch schon bei 64/128 Bit (nv) und 96Bit (ATI).

Oder meist du etwas anderes mit der Betonung auf PROZESSOREN?

Gast
2003-08-10, 12:52:09
Original geschrieben von Demirug
Wir sind doch schon bei 64/128 Bit (nv) und 96Bit (ATI).

Oder meist du etwas anderes mit der Betonung auf PROZESSOREN?
Also, du kannst auf 64 Bit farbtiefe stellen WO bitte sag mir Wo :)
Intern und extern ist hier das Stichwort!

Ja und PROZESSOREN sind stark betont :)

Razor
2003-08-10, 12:57:05
Und mit was willst Du Dir 64Bit vor die Augen holen ?
???

'extern' macht dies überhaupt keinen Sinn !

Viel wichtiger ist es, dass Farbverläufe/Übergänge korrekt berechnet werden und dazu ist ein größerer Farbraum ('intern' ?) notwendig, um Rundungsfhler etc. zu vermeiden.

Zeig mit bitte ein Medium, welches in der Lage ist, mehr als 32Bit Farbtiefe auszugeben !

Razor

Gast
2003-08-10, 13:05:29
Original geschrieben von Razor
Und mit was willst Du Dir 64Bit vor die Augen holen ?
???

'extern' macht dies überhaupt keinen Sinn !

Viel wichtiger ist es, dass Farbverläufe/Übergänge korrekt berechnet werden und dazu ist ein größerer Farbraum ('intern' ?) notwendig, um Rundungsfhler etc. zu vermeiden.

Zeig mit bitte ein Medium, welches in der Lage ist, mehr als 32Bit Farbtiefe auszugeben !

Razor das ist zwar alles schön und gut aber wird kommen bzw google mal :)

Ps gabs nicht mal ne diskussion das man dan nen neuen Monitor bräuchte :)

Demirug
2003-08-10, 13:22:13
Original geschrieben von Gast
Also, du kannst auf 64 Bit farbtiefe stellen WO bitte sag mir Wo :)
Intern und extern ist hier das Stichwort!

Ja und PROZESSOREN sind stark betont :)

Wenn man einen Pixel komplett in einem Pass rendern kann ist ein 64Bit Framebuffer relative nutzloss weil das verhältniss Bandbreite/Qualitätsverbesserung nicht gegeben ist. Bei den bisherigen Chips war ein grosses Problem das für komplexe Effekte ein Pass nicht gereicht hat und man den Framebuffer als zwischenspeicher missbrauchen musste und für Zwischenergebnisse sind 32 Bit teilweise einfach etwas zu wenig.

zeckensack
2003-08-10, 18:53:07
Original geschrieben von Demirug
Wenn man einen Pixel komplett in einem Pass rendern kann ist ein 64Bit Framebuffer relative nutzloss weil das verhältniss Bandbreite/Qualitätsverbesserung nicht gegeben ist. Bei den bisherigen Chips war ein grosses Problem das für komplexe Effekte ein Pass nicht gereicht hat und man den Framebuffer als zwischenspeicher missbrauchen musste und für Zwischenergebnisse sind 32 Bit teilweise einfach etwas zu wenig. Ack.

Das Problem ist falsch formuliert. Statt einem höher aufgelösten Framebuffer braucht's höher aufgelöste Zwischenwerte (denglisch "temporaries").
Solange man den Framebuffer für die temporaries verwendet (hat), ist die Unterscheidung irrelevant, aber heutzutage sieht das eben anders aus.

Ailuros
2003-08-10, 19:39:48
Original geschrieben von Gast
das ist zwar alles schön und gut aber wird kommen bzw google mal :)

Ps gabs nicht mal ne diskussion das man dan nen neuen Monitor bräuchte :)

Die Frage ist nicht wann im gegebenen Fall aber fuer was man momentan und fuer die vorhersehbare Zukunft 64bpp output braucht.

Ich wuerde X gerne sehen, weiss aber nicht zu was es gut ist, macht wenig Sinn; wenn man nicht zu weiteren Erlaeuterungen kommt.

Ailuros
2003-08-10, 19:45:56
Uebrigens hatte mein voriger Post nur aus purem Zufall Gemeinsamkeiten mit dem hier:

http://www.theinquirer.net/?article=10952

Ja ich weiss FUAD Alarm ;D

Exxtreme
2003-08-10, 19:48:03
Original geschrieben von Ailuros

Ja ich weiss FUAD Alarm ;D
Nö, Mike Magee. :D

Und wenn man FUAD-Alarm ausruft, dann macht man das so:

:cop: FUAD :cop:

:D

Ailuros
2003-08-10, 19:49:39
Original geschrieben von Demirug
Ja im NV35 wurden wohl "Kompatibilitäts"-Einheiten entfernt. Wobei bei NV30 diese von der Seite nv ja nicht als reine "Kompatibilitäts"-Einheiten gedacht waren dann aber dazu verdammt wurden und nun von den nv-Treiberprogrammiern höchstleistungen verlangt.

"William R. Mark" wäre ein guter Mann für den Job gewesen aber der macht ja jetzt auf Prof.

Kekoa Proudfoot wäre noch eine alternative aber was der geraden macht?

Schon wieder viel zu viel geschrieben.

Oh man juckt es mir in den Fingern aber ich kann mich beherschen. ;)

Hauptsache Du hast verstanden was ich damit meinte :bäh:

Zur Frage: Rente so weit ich weiss ;)

Ailuros
2003-08-10, 19:54:06
Original geschrieben von Exxtreme
Nö, Mike Magee. :D

Und wenn man FUAD-Alarm ausruft, dann macht man das so:

:cop: FUAD :cop:

:D

Na ich war wohl zu faul die smilies zu suchen :D

Auf jeden Fall - egal ob die story von Inquirer der Wahrheit entspricht oder nicht - es ist wohl durchaus logisch dass IHVs einsehen dass man mit dem staendigen Refresh-Zyklus nicht sehr weit kommt, ueberhaupt bei heutiger Chip-Komplexitaet und mit denen verbundenen Unkosten.

Das jetzt Orton sich zaertliche Kleinigkeiten von Huang ins Ohr beim Candlelight-dinner zufluestern laesst, klingt mir schon wieder uebertrieben. *kicher*

Gast
2003-08-11, 11:32:22
Original geschrieben von Ailuros
Die Frage ist nicht wann im gegebenen Fall aber fuer was man momentan und fuer die vorhersehbare Zukunft 64bpp output braucht.

Ich wuerde X gerne sehen, weiss aber nicht zu was es gut ist, macht wenig Sinn; wenn man nicht zu weiteren Erlaeuterungen kommt. in 2d gibt es sogar lösungen die es da auf 256 bpp bringen :)

Gebraucht wird 64 bpp heute schon :)

Razor@Work
2003-08-11, 11:36:11
Von welchen Formen der Visualierung redest Du denn hier ?
???

Razor

ShadowXX
2003-08-11, 12:04:08
Das würde ich auch gerne wissen....
64 Bit Farbtiefe bei 2D würden vielleicht von Adlerauge noch von 32 Bit unterschieden werden können...aber 256Bit Farbtiefe?

Also momentan sind wir bei 24 Bit Farbtiefe (der Rest ist ja Transparenz, Alpha usw...).
Das sind ca. 16,7 Mio Farben.
Echte '32 Bit Farbtiefe' wären schon über 4 Milliarden Farben
Echte '64 Bit Farbtiefe' wären 18.446.744.073.709.551.616 (etwas über 18 Trillionen Farben...;D )

Und 256 Bit Farbtiefe wäre:
1,1579208923731619542357098500869e+77 Farben.....

Und wo willst du mehr als sagen wir mal 'echte' 32Bit Farbtiefe benutzen??

Mackg
2003-08-11, 15:09:59
naja auch ein adlerauge wird 64 bit nicht von 32 bit in 2d unterscheiden können.

Wenn 32 bit 4300 millionen farben sind und
aufm desktop heutzutage etwa 1-3 Millionen Pixel sind, ist das ein Ding der Unmöglichkeit.(Selbst wenn es nur Farbtöne einer Farbe/Tönung gäbe)

StefanV
2003-08-11, 15:11:04
Original geschrieben von Mackg
naja auch ein adlerauge wird 64 bit nicht von 32 bit in 2d unterscheiden können.

Wenn 32 bit 4300 millionen farben sind und
aufm desktop heutzutage etwa 1-3 Millionen Pixel sind, ist das ein Ding der Unmöglichkeit.(Selbst wenn es nur Farbtöne einer Farbe/Tönung gäbe)

1. och, das gibt da schon 'ne Möglichkeit, man muss nur anfangen mit Farben zu rechnen...
Hm, Bildbearbeitung im 2D Bereich??

Mackg
2003-08-11, 15:20:27
doppelpost

Mackg
2003-08-11, 15:21:07
zum Berechnen möglicherweise.(glaub ich nicht), aber für output?.Ich glaube da setzen eher die Monitore die Grenze.

Razor@Work
2003-08-11, 15:34:58
Original geschrieben von Mackg
zum Berechnen möglicherweise.(glaub ich nicht), aber für output?.Ich glaube da setzen eher die Monitore die Grenze.
Klar tun sie das...
Und intern rechnen die Chips ja nun schon mit 128Bit (fp). Auch lassen sich die Einheiten einer FX vermutlich auch für's Offline-Rendering (z.Bsp. PhotoShop) nutzen.

Was allerdings mehr als 24/32Bit am Output (=NACH Berechnung ;-) zu suchen haben sollen, dürfte Payne hier wohl nochmal darlegen müssen...

Razor

Aquaschaf
2003-08-11, 16:06:22
Für Maya lassen die sich afair nutzen, bei Photoshop ist sowas wenn ich micht nicht sehr irre nicht möglich [das ist doch ein 2D Bildbearbeitungsprogramm :spock:].

mapel110
2003-08-11, 17:39:23
Original geschrieben von Aquaschaf
Für Maya lassen die sich afair nutzen, bei Photoshop ist sowas wenn ich micht nicht sehr irre nicht möglich [das ist doch ein 2D Bildbearbeitungsprogramm :spock:].

3dlabs und creative bieten sowas doch an mit der picture view perfect oder wie das ding heisst.
gehen tuts also. muss nur im treiber und von der anwendung unterstützt werden.

HOT
2003-08-11, 19:38:33
Monitore sind analoge Geräte. Man kann sie nur net unendlich präzise machen. Das einzige was man braucht sind sehr hochqualitative Röhren. TFT vergessen wir an dieser Stelle mal besser :D

ow
2003-08-11, 19:59:00
Original geschrieben von HOT
Monitore sind analoge Geräte. Man kann sie nur net unendlich präzise machen. Das einzige was man braucht sind sehr hochqualitative Röhren. TFT vergessen wir an dieser Stelle mal besser :D

Und was ist mit der Ansteuerelektronik der Röhre? Braucht es die nicht?

zeckensack
2003-08-11, 20:03:35
Original geschrieben von ShadowXX
Das würde ich auch gerne wissen....
64 Bit Farbtiefe bei 2D würden vielleicht von Adlerauge noch von 32 Bit unterschieden werden können...aber 256Bit Farbtiefe?

Also momentan sind wir bei 24 Bit Farbtiefe (der Rest ist ja Transparenz, Alpha usw...).
Das sind ca. 16,7 Mio Farben.
Echte '32 Bit Farbtiefe' wären schon über 4 Milliarden Farben
Echte '64 Bit Farbtiefe' wären 18.446.744.073.709.551.616 (etwas über 18 Trillionen Farben...;D )

Und 256 Bit Farbtiefe wäre:
1,1579208923731619542357098500869e+77 Farben.....

Und wo willst du mehr als sagen wir mal 'echte' 32Bit Farbtiefe benutzen?? Meine damalige Kunstlehrerin hat das auch nie verstanden ;)

Aber 24 bit Farbe sind nur 256 Helligkeitsstufen, das Auge ist nur dummerweise sehr empfindlich und präzise bei Luminanz.
32 bpp ala Parhelia (10-10-10-2) sind 1024 Stufen. Für Perfektion (=Überforderung des Sehorgans) immer noch zu wenig.

Und zusätzlich natürlich noch die Sache mit dem Blending und den Rundungsfehlern.

HOT
2003-08-11, 23:47:22
Der Monitor bekommt ein analoges signal, dem isses egal was für ne farbtiefe der bekommt. Das einzige wass probleme machen könnte is die Plug und Play fähigkit.

Gast
2003-08-12, 00:13:34
Schauen wir mal

32 bits to 384 bit per pixel with 64+ bit color and Z buffer

Ailuros
2003-08-12, 03:25:25
Original geschrieben von Gast
in 2d gibt es sogar lösungen die es da auf 256 bpp bringen :)

Gebraucht wird 64 bpp heute schon :)

Wofuer?

Ich moechte eine ausfuerhliche Erklaerung, nicht einen einzigen Satz der mir nur sagt dass ich es brauche. Jeder kann etwas in die Luft schmeissen nur weil es toll oder realisierbar klingt.

Gast
2003-08-12, 09:40:36
Original geschrieben von Ailuros
Wofuer?

Ich moechte eine ausfuerhliche Erklaerung, nicht einen einzigen Satz der mir nur sagt dass ich es brauche. Jeder kann etwas in die Luft schmeissen nur weil es toll oder realisierbar klingt. sehr nützlich für motion blur nebel über feuer verläufe partikel effekte die sich überschneiden volumetrische texturen die sich wiederum über ander legen müssen usw (8layer).
Aja und 5d effekte! Soweit das ich das kapiere! Habe ich die pdfs noch nicht durch sorry :)

Razor@Work
2003-08-12, 10:02:39
Ich versteh' immer noch nicht, was das mit Ausgabe auf 'nem Moni zu tun haben soll...

Dass interne Präzision hier hilft, ist ja verständlich und auch nachvollziehbar, aber extern (also NACH Erzeugung des Outputs) macht dies überhaupt keinen Sinn.

Razor

StefanV
2003-08-12, 11:15:48
Original geschrieben von Razor@Work
Ich versteh' immer noch nicht, was das mit Ausgabe auf 'nem Moni zu tun haben soll...

Dass interne Präzision hier hilft, ist ja verständlich und auch nachvollziehbar, aber extern (also NACH Erzeugung des Outputs) macht dies überhaupt keinen Sinn.

Razor

Doch, wenn man die Werte nochmal ausm Framebuffer holt z.B. oder bei Multipass Rendering...

Razor@Work
2003-08-12, 13:19:34
Dann stimmst Du mir also zu, Payne, dass mehr als 32Bit Farben am Eingang des Moni's keinen Sinn machen ?

Razor

Ailuros
2003-08-13, 01:44:58
Original geschrieben von Gast
sehr nützlich für motion blur nebel über feuer verläufe partikel effekte die sich überschneiden volumetrische texturen die sich wiederum über ander legen müssen usw (8layer).
Aja und 5d effekte! Soweit das ich das kapiere! Habe ich die pdfs noch nicht durch sorry :)

Endlich :D

Fuer 16-layer ist FP32 mit 32bpp finalem output ausreichend. Schmeiss auf heutige high end Karten 16-layers und hunderte von Shader-Instruktionen, da geht die Leistung sowieso schnell spazieren. Ergo selbst wenn man heute oder auf naechster Generations-Karten die volle Kapazitaet versucht auszunutzen, ist man schon in der Sackgasse.

Es wird noch ein paar Jahre dauern bis wir erstmal 4D Effekte sehen, wieso man jetzt Transistoren verbraten muss (wenn die momentan sowieso schon knapp sind) und mit extrem vieler Bandbreite Karten ausruesten, fuer Effekte die viel zu weit in die Zukunft greifen, verstehe ich trotzdem nicht.

Fuer die ersten Spiele mit ein paar dx9.0 Effekten fuer 2004, sieht es eher so aus (wenn man Leistung beeintraegt und dementsprechend Shader Instruktionen limitiert) dass selbst FP16 genug sein wird.

robbitop
2003-08-18, 22:21:32
"Wie schwer ist es fuer unseren jungen Belgier eine NV3x im Labor unter die Lupe zu nehmen? "

@Ailuros
ich denke mal wenn man in so einem Metier ist wie Kristof, dann gibt es leute, die einem ein paar infos über solche Sachen geben. Ich denke diese Leute wissen viel mehr als wir normalsterblich eben durch beziehungen.

weiterhin hat Kristof doch auch bei 3dfx gearbeitet afair, und der NV30 hat afair einige Pipelinekonstruktionsüberlegungen des "Fusion" übernommen.

Ich denke er weiss wovon er spricht

die Richtung ist wie ihr sagt klar, ATi hat diesen Weg auch vor sich und imo wird es im R500 wahr. Der NV30 war wohl ein Versuch ein solch revolutionärer Chip zu werden doch ist man auf halbem wege stecken geblieben. Man hätte noch weiter in die neue Richtung der Architektur gehen sollen und die Treiber speziell langwieriger auslegen...PPP und Z3/FAA...dann wäre es das was es werden sollte...Tja Zeit mag ein Faktor sein und vieleicht hat man diesen Weg eben mit den folgenden Chips "zuende beschritten"....wer weiss..?

Demirug
2003-08-18, 23:07:30
weiterhin hat Kristof doch auch bei 3dfx gearbeitet afair, und der NV30 hat afair einige Pipelinekonstruktionsüberlegungen des "Fusion" übernommen.

Wer erzählt den sowas? Das Teil ist eindeutig auf dem Mist von Kirk und Lindholm gewachsen. Das Design entspricht den nv-Design und wenn ich mir die Vorstellungen von 3dfx bezüglich Pixelshader danebenlege liegen da welten dazwischen.

robbitop
2003-08-18, 23:10:10
gut ..dann is da etwas durcheinander geradten..danke für den Hinweis Demi :)

jedoch lässt es sich nicht abstreiten, dass 3dfx sehr ähnliche dinge vorhatte...du beritetest ja selbst Sachen wie TMU Arrays...das scheint mir in eine Richtung zu laufen..

Demirug
2003-08-18, 23:25:35
Original geschrieben von robbitop
gut ..dann is da etwas durcheinander geradten..danke für den Hinweis Demi :)

jedoch lässt es sich nicht abstreiten, dass 3dfx sehr ähnliche dinge vorhatte...du beritetest ja selbst Sachen wie TMU Arrays...das scheint mir in eine Richtung zu laufen..

Das TMU-Array wird 3dfx angedichtet ob es wirklich stimmt kann dir nur einer von der Sippe sagen.

Der Pixelteil von CineFX ist eine auseinadergebaute dann neuzusammengesetzt und um fehlende Teile ergänzte nfiniteFX II Pixelengine. Man glaubt gar nicht was man so alles wiederverwerten kann.

Ailuros
2003-08-19, 01:23:31
ich denke mal wenn man in so einem Metier ist wie Kristof, dann gibt es leute, die einem ein paar infos über solche Sachen geben. Ich denke diese Leute wissen viel mehr als wir normalsterblich eben durch beziehungen.

Wozu braucht man Beziehungen fuer solche Angelegenheiten? IHVs haben meistens alle Karten der Konkurrenz, was die damit anstellen ist wohl deren Sache.

weiterhin hat Kristof doch auch bei 3dfx gearbeitet afair, und der NV30 hat afair einige Pipelinekonstruktionsüberlegungen des "Fusion" übernommen.

Hat Demi schon beantwortet. Er hat zwar nicht erwaehnt dass die heutigen ROPs eine Weiterentwicklung vom alten 3dfx Zeug ist, aber aehnliche (etwas primitevere Ideen) gab es schon in Rampage.

Fusion war schon im Vergleich zu NV25 ein ganz anderes Bier.

Der NV30 war wohl ein Versuch ein solch revolutionärer Chip zu werden doch ist man auf halbem wege stecken geblieben.

IMO sind es seit dem NV20 nur evolutionaere Aenderungen, aber das ist auch reine Ansichtssache.

Man hätte noch weiter in die neue Richtung der Architektur gehen sollen und die Treiber speziell langwieriger auslegen...PPP und Z3/FAA...dann wäre es das was es werden sollte...

PPP koennte zwar schon seine Nutzen haben mit PS/VS2.0 aber ohne API Unterstuetzung, schaetze ich waere eine solche Einheit um einiges mehr begrenzt in Funktionalitaet als mit Shadern 3.0. IHVs koennen nicht so freihaendig Transistoren erhoehen, ueberhaupt wenn die Funktionalitaet begrenzt ist.

Z3/FAA (oder deren Kombination) sind nicht sooo leicht zu implementieren. Matrox´s Versuch fuer´s letztere ist ja eigentlich gescheitert. Ich bezweifle dass ATI oder NVIDIA einen Algorithmus implementieren wuerden der nicht 100% Kompatibilitaet und problemlos unter allen Situationen leisten kann. Hoechstwahrscheinlich stehen aehnliche Alternativen schon unter Forschung, aber es braucht seine Zeit bis das Ganze ausreift. Momentan ist Multisampling noch immer kein Problem. Wenn es Zeit wird fuer mehr als 16x sample AA, wird auch die Zeit kommen fuer alternative Algorithmen die dann auch billiger in Hardware zu implementieren sind und tonnenweise Bandbreite sparen koennen.

Wenn es zur Bandbreite allein kommt, ist selbst >16xMSAA kein groesseres Problem fuer einen TBDR; aber fragment oder Z3 Algorithmen sparen da eben genauso in Transistoren. Ergo der Trend wird schon in die Richtung gehen, aber dann erst wenn Karten mit 16xMSAA als langweilig erscheinen.

robbitop
2003-08-19, 01:28:21
1. MGA hatte nur seeeehr wenige Ingeneure an der P512
->somit ist dies ein Vorteil für NV
2. Seit 3,5 Jahren ist NICHTS passiert im FSAA Bereich bei nVidia
->das dürfte doch für eine solche Implementation reichen
3. ich habe mal FAA gezockt und ich muss sagen es ist sehr gut. DIe wenigen Kanten, die nicht geglättet werden, sieht man kaum/selten

für einen Chip von 2 Jahren Entwicklungszeit mit einem 20Mann Team nicht schlecht oder? ^^

Ailuros
2003-08-19, 01:48:46
Original geschrieben von robbitop
1. MGA hatte nur seeeehr wenige Ingeneure an der P512
->somit ist dies ein Vorteil für NV
2. Seit 3,5 Jahren ist NICHTS passiert im FSAA Bereich bei nVidia
->das dürfte doch für eine solche Implementation reichen
3. ich habe mal FAA gezockt und ich muss sagen es ist sehr gut. DIe wenigen Kanten, die nicht geglättet werden, sieht man kaum/selten

für einen Chip von 2 Jahren Entwicklungszeit mit einem 20Mann Team nicht schlecht oder? ^^

1. Wieviele Jahre brauchte Matrox fuer die Parhelia Entwicklung? Und wie obsolet sah der Design schon bei der Vorstellung aus?

2. 2001--->2003 Multisampling = 2 Jahre.

3. Die "wenigen" Kanten sind aber wichtig. Entweder wird eine Szene voll geglaettet oder nicht. Im Vergleich zu einem 16xFAA Verfahren wo selbst nur 10% einer Szene immer noch aliased bleibt, ist mir selbst ein einfaches voll operatives 4xOGMS lieber.


2 Jahre fuer Parhelia? NV gibt =/< 18 Monate vom Design bis zur Veroeffentlichung an und Matrox brauchte nur ~24 Monate? Setz mal das hypothetische 20 Mann Team gegen die Anzahl von engineers ein IHV wie NVIDIA einstellt. Wenn es nur 2 Jahre gewesen waeren dann sind entweder die Matrox engineers Zauberkuenstler oder die NV engineers von sehr schlechter Qualitaet... Was klingt hier moeglicher?

***edit:

Matrox´s FAA, trotz seiner Nachteile, ist eines der interessantesten Algorithmen in letzter Zeit. Jedoch bin ich ueber den 4*4 grid bei 16x samples auch wiederum nicht so verrueckt. Wenn es schon zu einer FAA/Z3 Kombination oder aehnlichen kommt, dann bitte auch dann sparse sampled grid fuer >16x samples. Sonst bei =/< 16x samples, ist mir dann 8x sparse grid lieber. 4*4 vs. 8*8 ja?

robbitop
2003-08-19, 01:52:04
Die GF3 war ende 1999 mit Sicherheit zum Grossteil fertigdesigned. Ok 2,5-3 Jahre.

Ok MGA hat dann eben ein paar Jahre länger gebraucht, aber es waren angeblich nicht viel mehr als 20 Mann. nVidia beschäftigt über 1000Engeneers.

Ailuros
2003-08-19, 02:04:48
Original geschrieben von robbitop
Die GF3 war ende 1999 mit Sicherheit zum Grossteil fertigdesigned. Ok 2,5-3 Jahre.

Ok MGA hat dann eben ein paar Jahre länger gebraucht, aber es waren angeblich nicht viel mehr als 20 Mann. nVidia beschäftigt über 1000Engeneers.

Also brauchte NV von der Fertigstellung des Designs bis zur Veroeffentlichung mehr als ein Jahr fuer NV20? Wann wurde das Teil nochmal veoeffentlicht?

Und alle 1000 hocken auf einem Projekt? Boy oh boy sind die aber lahm hehehe :D

1000 fuer alle Divisionen bzw. Projekte und dabei sind es nicht alle engineers so wie Du sie verstehst. Selbst ein developer relations Kerl hat den engineer Titel.

Parhelia lag uebrigens knapp unter 4 Jahre in der Entwicklung.

robbitop
2003-08-19, 02:10:04
Das ist mir klar.
es gibt 3 Designteams. 2 für GPUs 1 für den Chipsatz. Vermutlich gibt es dann noch ein Treiberteam ;) (bei ATi is das ja nur der eine Praktikannt).

du willst mir doch nich sagen, der Hausmeister sei ein engineer ;D ?

sei es wie es wolle, du weisst jedoch was ich meine (auch wenn die genannten Zeiten nicht ganz stimmen) oder?

Es ist jedenfalls seit der Fertigstellung des NV20 recht viel Zeit vergangen in der nichts neues im Bereich AA passiert ist (diese minimalen Änderungen zähle ich jetz nicht auf)

Ailuros
2003-08-19, 03:21:02
Das ist mir klar.
es gibt 3 Designteams. 2 für GPUs 1 für den Chipsatz. Vermutlich gibt es dann noch ein Treiberteam.

Ein Treiberteam? Bei NVIDIA sind es momentan an die ~1700 Angestellte. Wo ist das Team fuer XBox? Und wo sind die Teams die an zukuenftigen Projekten ausserhalb dem PC space arbeiten?

NV30 kam durch einen moderaten re-design (ram schleppt den Link ja schon seit einiger Zeit in seiner Unterschrift:

http://www.hwzone.it/html/text.php?id=205

Yes, more or less, but I don't know for sure.it is our spring 02 product.

...wobei AA/AF Algorithmen fast nicht beruehrt wurden (ok die neuen AF modi kamen dazu und die hybriden SS/MS AA modi).

Nach dem NV20 war nach 6 Monaten gleich die NV25 Linie gedacht, wobei aber die Ti200/Ti500/NV17 dazwischengeschoben wurde und keiner merkte was darueber. Eines der Gruende damals war der Xbox Design der andere Projekte um so einiges disorientierte. Wie dem auch sei wahre engineers die sich mit solchen Projekten beschaeftigen (ergo hardware design) muessten es an die 400 sein.

Da so langsam der support fuer XBox zum phase out kommen wird, werden einige Resourcen zurueck auf die PC standalone Produkte und andere zu Projekten die alternative Maerkte (um die Konsolen-Revenue-Luecke zu schliessen) angeordnet.

Ausserdem gibt es meistens immer teams bei grossen IHVs fuer einen Markt die an verschiedenen Projekten arbeiten. Selbst bei ATI hoerte man vom R200 und R300 team (oder auch east und west).

So einfach ist das alles nicht und nicht eine Sache von einfacher Mathematik.

Wie dem auch sei ich bin mir sicher dass NVIDIA ihre AA/AF Algorithmen diesmal fundamentaler geaendert hat, aber ich sehe nichts von allen IHVs momentan das vom Multisampling abschlaegt.

betasilie
2003-08-19, 03:32:38
Original geschrieben von Ailuros
Wie dem auch sei ich bin mir sicher dass NVIDIA ihre AA/AF Algorithmen diesmal fundamentaler geaendert hat
Dein Wort in Gottes Ohr. ... Ich wüde mich jedenfalls freuen, wenn NV mal wieder die Muskeln spielen lässt.

Ailuros
2003-08-19, 04:05:40
Ist ja auch nur Spekulation von mir, da sie sich zumindest auf gleichem oder besserem Niveau zeigen muessen als die Konkurrenz.

Von der Bandbreiten-Perspektive macht IMO ein 8x sparse mehr Sinn als 16x ordered grid. Ich hab vor ein paar Tagen von einer loop Moeglichkeit der sample-Anzahl gehoert (4*(4xOGMS))z.B.; anfangs dachte ich dass es an Leistung viel zu viel kosten wuerde, nur hatte ich eine sehr wichtige Kleinigkeit vergessen die doch keinen Leistungs-Einfluss fuer den loop hat. Es funktioniert zwar unter gewissen Bedingungen, aber das ist wohl beim "filter on scanout" auch nicht anders.

ow
2003-08-19, 09:06:38
Original geschrieben von robbitop
Die GF3 war ende 1999 mit Sicherheit zum Grossteil fertigdesigned. Ok 2,5-3 Jahre.




Mit Sicherheit nicht würde ich sagen, da Ende 1999 gerade mal DX7 erschien und noch überhaupt nix von DX8 spezifiziert war.

robbitop
2003-08-19, 10:58:01
naja vom Designende bis zur Produktion ist 1 Jahr keine Besonderheit
ausserdem sind meist sehr weitreichend vorher die DX Specs fertig, bevor der Endanwender etwas bekommt. diesen Eindruck habe ich aus Demis Berichten gewonnen und es funktioniert wohl auch so.

@Ailuros
gut ok das mit den Mitarbeitern ist nicht so einfach, wie man sich das vorstellt, jedoch wollte ich damit nur folgendes audrücken:
MGA: wenige Leute normaler Zeitraum.
NV: viele viele wusel Ingenieure und vieleicht kürzerer Zeitraum
->NV macht FAA wahr
da du jedoch sagtest, dass man disorientiert und aufgehalten worden ist, war es nicht im NV30 drin, vieleicht oder mit Sicherheit auch nicht im NV40...aber es wird kommen und ich sprach eigendlich nur von der Möglichkeit, dass es jetzt kommt aus den bereits genannten Gründen.
Das wäre doch mal ein Quantensprung, oder?
[BTW das mit den 4 Jahren lieber Ailuros wage ich zu bezweifeln. AFAIK hatte man nur ein GPU Designteam und nVidia kaufte ja freundlicherweise im Jahre 99/00 einen Grossteil der Ingeneure von MGA auf (ach ja DH wart geobhren). Somit canclete man den G800 (würde wohl nicht rechtzeitig fertig) und startete das Parhelia Projekt mit einer Schulklassengrösse von Ingeneuren. So kenne ich die Hintergründe ...]

ow
2003-08-19, 11:06:59
Original geschrieben von robbitop
naja vom Designende bis zur Produktion ist 1 Jahr keine Besonderheit



???

Und was soll in diesem Jahr passieren? Alles einfach mal ruhen lassen?
Ich glaube nicht, dass mehr als max. 6 Monate vom Designende zur Produktion vergehen.

robbitop
2003-08-19, 11:12:26
tja ich bin auf diesem Gebiet leider völlig unwissend, aber die Herren Ailuros, Demirug usw können deine Frage sicher besser beantworten.
Ich glaube dass diese Kreidetafelzeichnung bis zur Produktion einige Reisen durch Rechnerfarmen und nochmalige Korrekturen macht. Dann werrden Testsamples gemacht, dann evl wieder ändern usw. (auch zum Zweck des Taktes so darf man sagen). ATi hatte im Juni 2002 den R300 auf 250Mhz gehabt bei standard Ausbeuten. Die 325Mhz waren ein steiniger Weg und selbiges mit grsseren Änderungen gelten für den R350.

jedenfalls sind die DX Spezifikationen recht lang vorher bekannt. Denn wie sollte man sonst zukünftige Chips konstruieren...erstma warten bis die Specs raus sind :D Soweit ich das mal in einem Interview gelesen habe sind bereits jetzt Teile des NV50 in Rechnerfarmen (irgendwelche neuen Algorythmen...ich muss das mal raussuchen...)

Demirug
2003-08-19, 12:02:39
Original geschrieben von ow
???

Und was soll in diesem Jahr passieren? Alles einfach mal ruhen lassen?
Ich glaube nicht, dass mehr als max. 6 Monate vom Designende zur Produktion vergehen.

Es hängt davon ab wann man das Design als beendet ansieht.

Aber von nichts zur Massenprofuktion in 18 Monate nach nVidia.

3 Monate Definition
3 Monate Architektur Design
3 Monate Verifikation
3 Monate Physikalisches Design
3 Monate Prototypen und Testen
3 Monate Starten der Massenproduktion.

Nach 6 Monaten ist die Spec des Chips eigentlich fest und das logische Design beendet. Das Gesamtdesign braucht 12 Monate.

Ailuros
2003-08-19, 12:56:28
[BTW das mit den 4 Jahren lieber Ailuros wage ich zu bezweifeln. AFAIK hatte man nur ein GPU Designteam und nVidia kaufte ja freundlicherweise im Jahre 99/00 einen Grossteil der Ingeneure von MGA auf (ach ja DH wart geobhren). Somit canclete man den G800 (würde wohl nicht rechtzeitig fertig) und startete das Parhelia Projekt mit einer Schulklassengrösse von Ingeneuren. So kenne ich die Hintergründe ...]

Das Featureset von Parhelia schreit nach einem H1 2001 Release im besten Fall und selbst dann ist das ganze so verkorkst dass es selbst fuer den Zeitpunkt nichts ausserordentliches gewesen waere.

Ja Parhelia ist ein re-design des G800, nur wurde damals so wenig daran geaendert dass das ganze nicht mal als re-design gennent werden sollte.

Ich bin jetzt zu faul das ganze Punkt fuer Punkt zu analysieren. Nach Deinem Szenario blieb die besagte "Schulklasse" in einem Zeit-Vakuum isoliert, bekamen nichts von der Aussenwelt mit, waehrend die Konkurrenz fleissig weiterentwickelt hat. Nichtmal eine GF4Ti kann das Ding schlagen.

NV: viele viele wusel Ingenieure und vieleicht kürzerer Zeitraum
->NV macht FAA wahr
da du jedoch sagtest, dass man disorientiert und aufgehalten worden ist, war es nicht im NV30 drin, vieleicht oder mit Sicherheit auch nicht im NV40...aber es wird kommen und ich sprach eigendlich nur von der Möglichkeit, dass es jetzt kommt aus den bereits genannten Gründen.
Das wäre doch mal ein Quantensprung, oder?

Schoen waers schon, aber zwischen den Traumsequenzen sollte man auch bedenken dass nicht alles von einem Tag auf den anderen passieren kann. Wenn man sich streng 18 Monate ansetzt und nichts schief lauft, ist alles nicht sooo einfach und aus dem Aermel gezaubert wie manche sich das Vorstellen. Ausserdem wird meistens auf vorige Generationen aufgebaut und weiterentwickelt. Sieht der NV40 wirklich nach einem fundamentalen neuen chip aus der gar nichts mehr mit NV30 zu tun hat?

Ich hab einen chip mit X Einheiten fuer Loesung A. Im naechsten chip kann ich entweder X auf 2*X erhoehen oder diese so modifizieren dass sich die Effizienz verdoppelt um 2*A zu bekommen. Einheiten X sind aber mit Einheiten Y,Z usw usw verbunden. Wieviel Zeit habe ich nun fundamentale Balancen aufzubrechen ueberhaupt wenn ich frueher als die Konkurrenz veroeffentlichen will? Na wie klingt das? :)

robbitop
2003-08-19, 13:11:06
ja normalerweise gibt es keine NEUEN Chips in der Form, das ist mir wohl bekannt, doch laut MURC Recherchen ist es ein Neuanfang gewesen. Gut die liegen 1 Jahr zurück und ich bin auch nur ein Mensch :D
Aber VS2.0 schreit nicht nach HJ 2001, der Rest jedoch : Fullack....es musste eben mangels ressourcen sehr einfach gehalten werden

zur Entwicklung neuer Technologien: da hast du dann wohl absolut Recht
;)

ShadowXX
2003-08-19, 15:20:15
Das der nv30 wirklich ein völlig neues Design ist, glaube ich erst wenn mir jemand die Designpläne zuschickt und ich das dann von jemanden verifizieren lassen kann......

J.S.Shadow

Ailuros
2003-08-19, 21:19:59
Original geschrieben von robbitop
ja normalerweise gibt es keine NEUEN Chips in der Form, das ist mir wohl bekannt, doch laut MURC Recherchen ist es ein Neuanfang gewesen. Gut die liegen 1 Jahr zurück und ich bin auch nur ein Mensch :D
Aber VS2.0 schreit nicht nach HJ 2001, der Rest jedoch : Fullack....es musste eben mangels ressourcen sehr einfach gehalten werden

zur Entwicklung neuer Technologien: da hast du dann wohl absolut Recht
;)

denk mal nochmal schaerfer nach:

4*4 mit 4-layer MT

Spectre: 4*1 mit 8-layer MT
R200: 4*2 mit 6-layer MT
KYRO: 2*1 mit 8-layer MT

Kein occlusion culling, hierarchical Z, early Z, fast Z clear, memory controller, Leistungs-optimiertes Anisotropic usw usw.

Von dem abgesehen brauchten sie nicht unbedingt viel Zeit VS2.0 zu implementieren, die T&L Implementation ist ja sowieso zum heulen schwach.

Parhelia's Bandbreiten-Effizienz bricht zu 16% herunter wenn man an das Ding sehr kleine Dreiecke schmeisst, die ja auch wichtig fuer T&L sind.

Sie bricht gerade noch die 30fps Grenze in RtCW in 1024*768*32, was sowieso keinen Sinn macht da das Spiel CPU limitiert ist.

Sehr einfach oder sehr "dumm"?

Demirug
2003-08-19, 21:25:26
Original geschrieben von ShadowXX
Das der nv30 wirklich ein völlig neues Design ist, glaube ich erst wenn mir jemand die Designpläne zuschickt und ich das dann von jemanden verifizieren lassen kann......

J.S.Shadow

Wie viel muss geändert worden sein damit es für dich ein neues Design ist? Das keiner mehr bei Null anfängt dürfte ja klar sein.

Über das Zuschicken können wir uns dann einigen.

robbitop
2003-08-19, 22:08:21
mit einfach meine ich simpel
das ist so als müsstest du allein innerhalb von 30min das ganze haus sauber machen..da kannst du nicht wirklich gründlich sein (nein ich mag Hausarbeiten nicht :D )...somit haben sie solche Sachen eben einfach nicht implementieren können und doll taktoptimiert ist es auch nicht. Zu wenig Ressourcen und keine Gamerambitionen...heutzutage ist das eben nur eine grosse Materialschlacht...was kommt bei raus? oft rote Zahlen...ok viele Leute haben arbeit (nicht nur die Firma sondern eine ganze Branche), aber man hat nichts zu verschenken. Letztendlich sind es natürlich die hohen nebenkosten die das bewirken, das ist klar.

Aber der Grund dafür ist, dass man nur so an das grosse Geld kommen KANN. (deswegen baut AMD auch CPUs ;) hat Jerry Sanders mal in nem Interview gesagt)

robbitop
2003-08-20, 01:06:55
Ailuros ich danke dir für die Richtigstellungen und Gedankenanstösse

man lernt eben nie aus ;)

P.S. komm ma wieder online, ma wieder lustich debattieren wieder..

Ailuros
2003-08-20, 01:39:13
Original geschrieben von ShadowXX
Das der nv30 wirklich ein völlig neues Design ist, glaube ich erst wenn mir jemand die Designpläne zuschickt und ich das dann von jemanden verifizieren lassen kann......

J.S.Shadow

Da der Thread hier am Anfang auf PVR zielte, kann ich Dir auch sagen dass die Serie5 die damals ST Microelectronics lizenziert hat, nur eine einzige Gemeinsamkeit hat: sie sind beide TBDR Designs.

Wenn Dan Vivoli damals sagte dass NV30 ihr 2002 Fruehlings-Produkt war, dann kann man schwer erwarten dass der NV30 den Vivoli damals meinte, identisch mit dem heutigen ist.

Ailuros
2003-08-20, 01:54:50
Original geschrieben von robbitop
mit einfach meine ich simpel
das ist so als müsstest du allein innerhalb von 30min das ganze haus sauber machen..da kannst du nicht wirklich gründlich sein (nein ich mag Hausarbeiten nicht :D )...somit haben sie solche Sachen eben einfach nicht implementieren können und doll taktoptimiert ist es auch nicht. Zu wenig Ressourcen und keine Gamerambitionen...heutzutage ist das eben nur eine grosse Materialschlacht...was kommt bei raus? oft rote Zahlen...ok viele Leute haben arbeit (nicht nur die Firma sondern eine ganze Branche), aber man hat nichts zu verschenken. Letztendlich sind es natürlich die hohen nebenkosten die das bewirken, das ist klar.

Aber der Grund dafür ist, dass man nur so an das grosse Geld kommen KANN. (deswegen baut AMD auch CPUs ;) hat Jerry Sanders mal in nem Interview gesagt)

Fuer den Preis fuer den Parhelia erhaeltlich war und ist, koennte man wenigstens eine high end Gamerkarte erwarten, die nicht nach einem halben Jahr fast schon obsolet aussieht.

Es ist eine Schande fuer einen IHV wie Matrox. Genauso enttaeuscht war ich als einen Review der Creative Picture Blaster las. Ich glaube schon dass so einiges Talent in Matrox und 3dLabs steckt; entweder veroeffentlichen sie Produkte die wirklich so manche Eindruecke gewinnen koennen, oder sie sollten es gleich bleiben lassen um auch R&D Unkosten zu sparen. Gleiches gilt natuerlich auch fuer die anderen kleinen IHVs.

Der Verbraucher braucht so manchen guten Grund um ihn zu ueberreden. Wenn man um vieles weniger als die Konkurrenz liefert, darf man auch nicht viel erwarten. Und nein Leistung ist nicht alles. Eine gute stabile Leistung ohne grosse Schwankungen und dementsprechende hohe Bildqualitaet helfen da umso einiges. Ein anderes Beispiel war die SIS Xabre; mit besseren Treibern und gleicher Texturen und AA-Qualitaet wie bei der Konkurrenz, mit der Leistung die sie bis jetzt bieten konnten, waeren sie anstaendigere Konkurrenten zu ATI/NVIDIAs mainstream Loesungen gewesen.

Uebrigens: Gedankenanstellungen ja, Richtigstellungen nein. Alles kommt von meiner Perspektive und alles ist IMHO. Wenn es anders herueberkommen sollte, dann hapert´s an der Sprach-barierre. :)

ShadowXX
2003-08-20, 11:00:24
@Ailuros

ok ok...war etwas OT...wollte nur reagieren...

@Demirug

Tja, ab wann es ein neuer Chip ist...prinzipiel würde ich das sagen was Ailuros zur Series5 gesagt hat:

Wenn nur nur das Grundkonzept übereinstimmt (in diesem Fall das beide IR's sind) und nur Sachen übernommen wurden, bei denen ausser Frage steht das man da nicht mehr viel anders machen kann.

Vielleicht geht das aber schon zu weit...und auch ich weiss, dass man meist keine Lust hat das Rad neu zu erfinden (und es teilweise auch unsinnig wäre).

J.S.Shadow

P.S.
Ist zwar auch OT, bezieht sich aber auf VR:
Bin mal gespannt ob wirklich noch jemand den Chip(bzw. sein Design) lizensiert und rechtzeitig auf den Markt bringt.

Ailuros
2003-08-21, 07:41:49
P.S.
Ist zwar auch OT, bezieht sich aber auf VR:
Bin mal gespannt ob wirklich noch jemand den Chip(bzw. sein Design) lizensiert und rechtzeitig auf den Markt bringt.

Ich versuch mal die heutige Situation zu beschreiben in einfachen Worten (und halte mich natuerlich nur an dass was meistens bekannt ist):

ImgTec hat frueher alle 18 Monate einen chip entwickelt und bis zur Ausreife geholfen. Im letzten 1.5 Jahr liegen insgesamt 10 verschiedene chips in Entwicklung oder Produktion, wobei unter denen nicht Series5 mitinbegriffen ist in den oeffentlichen Statements.

ImgTec geht vom chalkboard design bis zur Prototypen Produktion, stellt Resultate vor, gewinnt Lizenzen und dann werden mit eigenen Inginieuren vom Lizenznehmer und von ImgTec die chips zur finalen Produktion gebracht. All das passiert (ausser der Massenproduktion) in den ImgTec Headquarters und die Anzahl vom Personal waechst staendig. Deren Ziel ist in absehbarer Zeit mit aehnlichem Arbeitszyklen bis zu 30-40 verschiedene chips entwickeln zu koennen.

Serie5 (es ist genauso bei allen IHVs) wird hinter geschlossenen Tueren entwickelt und nur sehr wenige wissen genaue Details darueber.

Ob dass ganze jetzt rechtzeitig hinhaut kann wohl keiner momentan bis jetzt sagen. Auf jeden Fall waren sie bis jetzt mit allen ihren Terminen die letzten zwei Jahre puenktlich dran, aber diese chips haben auch bei weitem nicht die monstroese chip-Komplexitaet die Shader3.0 chips haben werden.

Ich bin erstmal neugierig ob das Ding erstmal das tape out hinter sich hat und dazu noch auch ein erfolgreiches.

Auf jeden Fall erwartet eine Ankuendigung des Lizenznehmers NICHT vor der Ankuendigung bzw. Praesentation von Serie5.

***edit:

Nur interessant fuer Linux-freaks:

http://www.metagence.com/MetagenceAnnouncesLinuxForMeta.asp

ShadowXX
2003-08-21, 09:18:02
Gibt es denn eigentlich (zumindest nebulöse) Gerüchte über einen möglichen Lizenznehmer für die Series5 ??

J.S.Shadow

P.S.
33

Ailuros
2003-08-21, 09:31:17
Original geschrieben von ShadowXX
Gibt es denn eigentlich (zumindest nebulöse) Gerüchte über einen möglichen Lizenznehmer für die Series5 ??

J.S.Shadow

P.S.
33

Ich weiss immer noch nicht was genau fuer ein Taechtelmaechtel sie mit Samsung haben, aber es kann sich nur um eine MBX Lizenz handeln (wenn ueberhaupt). Ich wusste um diese Zeit letztes Jahr dass Mitsubishi, Samsung und Texas Instruments unter Verhandlungen liegen. TI wurde angekuedigt, das Mitsubishi Raetsel hat sich geloest da Renesas= Hitachi+Mitsubishi, bleibt also noch Samsung uebrig.

Sonst hab ich allen Ernstes nicht die blasseste Ahnung. Vom Partner allein und wieviel dieser das ganze vermarkten will, bzw. dafuer ausgeben will, haengt ja auch der Erfolg dieses Projektes ab.