PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : "Graphics Blaster Picture Perfect"


Unregistered
2003-01-10, 21:09:59
In den 3D-Center news vom 10 Januar steht was Interessantes über den ""Graphics Blaster Picture Perfect".Der soll Bildbearbeitungsaufgaben übernehmen können.Wie siehts da eigentlich theoretisch mit der Geforce FX aus.Reicht deren Programmierbarkeit (zumindest theoretisch) nicht für solche Aufgaben aus?
Stefan

Demirug
2003-01-10, 21:50:49
Hier gibt es ein bischen was zu dem Thema:

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=37749

Unregistered
2003-01-10, 22:00:49
Danke Demirug,
da ich eigentlich schon nvidia Fan bin,würde es mich schon sehr freuen,wenn das auch eine Geforce FX könnte.Ich bin Fotograf und mache viel mit ziemlich grossen Bilddateien,da bist Du auch mit dem schnellsten Processor und "unendlichem" Speicher immer am Warten.
stefan

Modulor
2003-01-10, 22:24:57
Wenn Du das beruflich machst solltest Du dir durchaus überlegen doch eher eine dieser "Picture Perfect" Karten mit VPU zuzulegen - vorrausgesetzt natürlich, die Versprechen der Presseerklärung werden eingehalten und die Ausführung div. Filter wird wirklich spürbar gesteigert.
Zudem läßt die Bildqualität der bisherigen Karten mit dem P10/P9 keinerlei Wünsche offen - und daran, daß 3DLabs resp. Creative den Rest auch noch richtig gut hinkriegen hege ich keinen Zweifel.

Unregistered
2003-01-10, 22:47:59
Du hast Recht,Modulor,ich werd` mir die Karte auf alle Fälle genauer ansehen,wenn sie auf dem Markt ist.
Stefan

Leonidas
2003-01-11, 03:19:19
Möglich auf einer GeForceFX? Sicher. Wird es aber die dafür benötigten Treiber geben? Kaum. So lange das ein Nischenprodukt ist, wird nVidia da keine Arbeit reinstecken.

Außerdem ist der P10 dafür viel besser geeignet, weil der ja gleich wie eine CPU aufgebaut ist. Die Programmierung solcher Bildbearbeitungs-Treiber ist für P10 wohl einfacher als für GeForceFX, da diese nie für solche Aufgaben gedacht war, während der P10 universell einsetzbar ist.

Razor
2003-01-11, 05:47:09
Originally posted by Leonidas
Möglich auf einer GeForceFX? Sicher. Wird es aber die dafür benötigten Treiber geben? Kaum. So lange das ein Nischenprodukt ist, wird nVidia da keine Arbeit reinstecken.

Außerdem ist der P10 dafür viel besser geeignet, weil der ja gleich wie eine CPU aufgebaut ist. Die Programmierung solcher Bildbearbeitungs-Treiber ist für P10 wohl einfacher als für GeForceFX, da diese nie für solche Aufgaben gedacht war, während der P10 universell einsetzbar ist.
Sicher ?
Soweit ich informiert bin (was nicht unbedings was heissen muss ;-), ist die gffx doch gerade im Hinblick auf's Offline-Rendern entwicklet worden. Könnte mir schon vorstellen, dass es dort den einen oder anderen PhotoShop-Filter geben wird, der das zu nutzen weiß oder aber auch 3DSM, welches mit Sicherheit so einige Plugins verpasst bekommen wird.

Und dann wäre da ja noch die Quadro-Geschichte...
Wenn, ja wenn es diese im Bereich gffx tatsächlich noch geben wird.

Schaun' wir mal...

Auf jeden Fall hört sich das neue Teil von 3DLabs sehr interessant an, ist mir persönlich aber nich breit genug einsetzbar, i.e. zum Spielen wohl weitestgehend ungeeignet. Aber andere mögen da andere Prämissen haben...

Razor

Leonidas
2003-01-11, 16:58:00
Ich denke:

Creative: (2D-) Bild*nach*bearbeitung.
nVidia: Bild*erstellung* bzw. 3D-Rendering.


Das trifft sich teilweise, aber es diffieriert auch.



Und ja, auch ich halte die Creative für Spiele wohl für ungeeignet. Es wird eine Office-Karte mit möglicherweise superben Bildbearbeitungsfunktionen - in dem Sinne eine Konkurrenz zu Matrox, denn diese sind momentan die einzigen, die noch klassische Office-Karten herstellen.

Unregistered
2003-01-11, 22:23:53
Dann quote ich mich mal selber, das hab ich mal vor wochen im speku-forum unter GFFX @ 550 - 600MHz gepostet, ist lustigerweise niemand drauf eingeganegn, keine argumente/gegenargumente?:

Ich glaube kaum das sich die NV-Lösung im Rendering-Bereich durchsetzt. Shader sind was feines für Techdemos und Games wird aber so nie im Proff. Bereich eingesetzt werden.
Ich arbeite selber mit Maya, dort hat mann jetzt schon 2 Rendering verfahren : den normalen Software Renderer und nen Hardwarebuffer Renderer für Partikel Effekte. Und das wird schon sehr kompliziert bei grossen Szenen weil es getrennt gerendert wird und später z.b. mit After-Effekts wieder reingebracht wird.
Wenn mann jetzt bei komplexen Szenen auch noch nen teil der normalen Shader mal in Software mal in Hardware renderen würde gäbe das nen ganz schönes Chaos. Ende vom Lied--> mehr Aufwand als wenn alles normal über Software Shader gemacht wird. Ist aber vom Prinziep her nen Schritt in die richtige Richtung und wird irgendwann, wenn die Karten mal wirklich leistungsfähig genug dafür sind, das Software Rendern ablösen.

:
alles IMO

Razor
2003-01-12, 01:55:10
Und Du wunderst Dich, warum darauf keiner eingeht ?
???

Das ist Deine persönliche Meinung und zudem noch hochgradig spekulativ.
Woher willst Du wissen, dass sich die nVidia-Lösung hier nicht durchsetzen kann ?
Warum sollen die Offline-Rederfähigkeiten einer gffx nicht für solche Zwecke ausreichen ?

Wenn Du mir das beantworten kannst, werde ich meine Meinung zu dem von Dir geposteten vielleicht nochmal überdenken, ab so ists einfach nur eine Meinung von vielen. Pauschal und unbelegt und damit leider auch wertlos...

Wie hätte man denn Deiner Meinung darauf reagieren sollen ?

Razor

Demirug
2003-01-12, 02:09:25
In diesem ganzen Zusammenhang kann ich nur daran erinnern das NVIDIA sich exluna gekauft hat. Mit Entropy hatte exluna ein Konkurenzprodukt zu Pixars Renderman. Nachdem exluna von NVIDIA gekauft wurde hat man dort die Weiterentwicklung und den Vertrieb eingestellt. Der primäre Grund dafür dürfte ein drohender Rechtsstreit mit Pixar gewessen sein aber warum sollte NVIDIA einen Firma kaufen wenn sie genau wissen das sie mit den Podukten der Firma nichts anfangen können?

Wegen des Know-Hows ist wohl die einzige Antwort die übrig bleibt.

Was macht also exluna im Moment für NVIDIA?

Man hat dort Erfahrung mit Offlinerendere und Raytracer und dem Renderman interface. IMO arbeitet man dort an einem Renderman renderer/raytracer welcher einen möglichst Grossen teil der Rechenarbeit auf eine FX auslagern kann.

Unregistered
2003-01-12, 03:57:30
@Razor
Wer Lesen kann is klar im Vorteil:

"Das ist Deine persönliche Meinung"
gut erkannt,hab ich drunter geschrieben

" und zudem noch hochgradig spekulativ."
was ist hochgradig spekulativ? das ich das von meinem Arbeitsablauf
kenne, das es dort schon sehr lästig ist wenn nen Teil des Projekt´s (z.b. Pixeleffekte für Rauch usw.)im Hardwarerenderbuffer der Quadro gemacht wird und das nachher von Hand "combosed" werden muss?

"Woher willst Du wissen, dass sich die nVidia-Lösung hier nicht durchsetzen kann ?"
Hab nicht geschrieben das ich das weiß, siehe oben, wenn du mir so kommst, woher weißt du das sie sich durchsetzt?

"Warum sollen die Offline-Rederfähigkeiten einer gffx nicht für solche Zwecke ausreichen ?"
Wo wir wieder bei der Pisa-Studie, respektieve lesen sind. Hab nie behauptet das die Fähigkeiten nicht ausreichen werden.

"Pauschal und unbelegt und damit leider auch wertlos..."
Belegt mir das Gegenteil oder lass deine wertlosen Postings. "Darfst" nochmal Posten wenn du mir was von Wert zu sagen hast.
Wohl´n bissel Stumpf das Rasiermesser.

@Demirug
Ok,exluna is mir bekannt. Was mich etwas verwundert ist das zum "Paperlaunch" in der Richtung nix angekündigt wurden ist.
Dort ist zwar viel von CineFX Shadern usw gesprochen worden, aber die beziehen sich in DER Form auf die Anwedung im Game bereich, ist aber, so denke ich bei weitem noch nicht genug "ernsthafte" Anwendungen.
Also müßte wirklich nen komplett eigenständiger Renderer her der die speziellen Fähigkeiten der GfFX unterstützt und ausreizt.
Wenn man bedenkt das solche Renderer wie z.b. Renderman oder Mental Ray vom Preis her in die zich tausende Euro gehen, bin ich mal gespannt was für ne Lösung die da Präsentieren werden.

Salvee
2003-01-12, 04:02:11
Originally posted by Unregistered
Wenn man bedenkt das solche Renderer wie z.b. Renderman oder Mental Ray vom Preis her in die zich tausende Euro gehen, bin ich mal gespannt was für ne Lösung die da Präsentieren werden.

Wo Geld zu verdienen ist, da ist nV nicht weit...
nV ist (imo) schon seit längerem eine bessere Software- denn Hardwarefirma.

Demirug
2003-01-12, 12:34:17
Originally posted by Unregistered
@Demirug
Ok,exluna is mir bekannt. Was mich etwas verwundert ist das zum "Paperlaunch" in der Richtung nix angekündigt wurden ist.
Dort ist zwar viel von CineFX Shadern usw gesprochen worden, aber die beziehen sich in DER Form auf die Anwedung im Game bereich, ist aber, so denke ich bei weitem noch nicht genug "ernsthafte" Anwendungen.
Also müßte wirklich nen komplett eigenständiger Renderer her der die speziellen Fähigkeiten der GfFX unterstützt und ausreizt.
Wenn man bedenkt das solche Renderer wie z.b. Renderman oder Mental Ray vom Preis her in die zich tausende Euro gehen, bin ich mal gespannt was für ne Lösung die da Präsentieren werden.

Da NVIDIA ja nicht als lieferant von Fertiglösungen auftritt sondern nur als Chip hersteller ist es IMO nicht verwunderlich das man im Bezug auf diese Sachen nichts beim offiziellen Launch gehört hat. Im Verhältniss zum Gamermarkt/OEM Markt ist der Markt für solche Speziallösungen sehr klein. In wie weit hätte man dieser Zielgruppe also bei dem Launch gerrecht werden können? Um es richtig zu machen hätte man viel Zeit gebraucht und dabei hätte man die aufmerksamkeit der daran nicht interessierten verloren.

Da man die Kunden die das nötige Kleingeld und Bedarf für eine solche lösung haben doch sehr genau kennt wird man da wohl einen etwas persönlicheren Kontakt pflegen. Und für Leute die nicht ganz so viel geld haben wird diese Feature dann möglicherweise auf den Quadros freigegeben. Wobei IMO ist es gar nicht so schwer das offline Rendern zu beschleunigen.

1. Feststellen welche Material sich in einen GPU Beschleunigten Shader umsetzen lassen.
2. Rendern aller Oberfläche welche solche Materialen benutzen.
3. Auslesen des Z und Colorbuffers aus der Grafikkarte (wurde extra in den neueren Treibern beschleunigt).
4. Rendern der nicht umsetzbaren Materialien druch die CPU.
5. Ein Postfilter könnte man möglicherweise auch noch auf die Grafikkarte auslagern.

Xmas
2003-01-12, 20:34:47
Da stellt sich mir die Frage ob GFFX auch 32 Bit Z unterstützt.

Unregistered
2003-01-12, 22:34:23
@Demirug

so oder so ähnlich könnte es natürlich ablaufen, aber mal im ernst, die reinen Shader/Oberflächenmaterialien nehmen ja nur einen ganz kleinen Teil beim Rendern ein.
Die zeitaufwändigsten Sachen sind ja viele Lichtquellen/Caustics/Reflexions/Refractions/Blur/DoF usw., wäre sowas auch durch nen Shader machbar?
Hm, zu DoF fällt mir ein das ich mal gelesen hab ,daß das schon die GeForce3 in Hardware kann?
Displacement fehlt auch,naja mal sehen was dann dabei rauskommt, will ja nicht PAUSCHAL und UNBELEGT aussagen treffen ;)

@Xmas,
gute frage als offline-renderer müsste sie es ja dann können.
Vielleicht gibts ja nen pures 32bit format ohne stencil?

Demirug
2003-01-12, 22:47:52
Originally posted by Unregistered
@Demirug

so oder so ähnlich könnte es natürlich ablaufen, aber mal im ernst, die reinen Shader/Oberflächenmaterialien nehmen ja nur einen ganz kleinen Teil beim Rendern ein.
Die zeitaufwändigsten Sachen sind ja viele Lichtquellen/Caustics/Reflexions/Refractions/Blur/DoF usw., wäre sowas auch durch nen Shader machbar?
Hm, zu DoF fällt mir ein das ich mal gelesen hab ,daß das schon die GeForce3 in Hardware kann?
Displacement fehlt auch,naja mal sehen was dann dabei rauskommt, will ja nicht PAUSCHAL und UNBELEGT aussagen treffen ;)

Im Zweifelsfall kann man aus dem FX Chip ja sogar einen Raytracer machen aber die von dir angesprochenen Effekte lassen sich durchaus auf den Chip verlagern. Und Displacement liesse sich über "Render To Vertexstream" im 2 Pass verfahren realisieren. Machbar ist also vieles. Es wird nur darauf ankommen wie am ende das Preis/Leistungsverhältniss einer solchen Lösung ist.

@Xmas,
gute frage als offline-renderer müsste sie es ja dann können.
Vielleicht gibts ja nen pures 32bit format ohne stencil?

Ein solches Format für den Z-Buffer gibt es ja nur hat NVIDIA es bisher nicht unterstützt. Möglicherweise gibt es ja beim NV30 auch einen 32 Bit FP Z-Buffer.

Ikon
2003-01-13, 04:10:15
Die Radeons können alle zumindest 32bit-Z ohne Stencil-Buffer.

Xmas
2003-01-13, 07:59:03
Originally posted by Ikon
Die Radeons können alle zumindest 32bit-Z ohne Stencil-Buffer.
Der R300 nicht, ebenso kein NVidia-Chip bisher.

Quasar
2003-01-13, 10:44:09
Meine R9000Pro kann's auch nicht, wenn ich dem DX9-Caps Viewer glauben darf.

@unreg:
Ich weiss ja nicht, was genau du beruflich renderst, aber soweit ich informiert bin und spekulativ mal ein wenig herumschätze, würde ich durchaus sagen, dass zur Not auch das final compositing per Hand durchaus lohnen kann.
CGI wird z.Zt in ziemlich genau zwei Sparten massiv eingesetzt: Hollywood-Filme und Werbung. Während die Effekte bei der Werbung meist eh als Animation kenntlich und dementsprechend weniger aufwendig sind, als in Filmen (ja, es gibt auch einige High-Budget Spots..) dürfte dort das Rendern in relativ gut ausgestatteten Studios mit dem Rechnernetzwerk quasi über Nacht in-house passieren können. Dieser Markt ist nicht so sehr interessant, weil er nicht PR-trächtig ist. Werbung wird von den allermeisten nur als (notwendiges) Übel empfunden.
Hollywood-Filme dagegen sind ein absolutes Prestigeobjekt, und wenn dort sagen wir 60% der Effekte durch eine GPU doppelt so schnell berechnet werden können, wie mit zigtausend-Dollar Workstations, und nVidia hinterher in den Credits bzw. vorher im Making-Of erwähnt wird, ergibt das eine wahnsinnig gute PR.

"LotR - Return of the King" -Brought to you with the Power of the GFFX and cg - damit könnte man sein Image aufpolieren als Grafikchiphersteller.
Und angesichts der Unmengen an Renderfarm-Rechnern, die für sowas angeschafft werden, könnte man, eine entsprechend mächtige mitgelieferte Software vorausgesetzt (entweder als eigenständiges Programm oder als plug-in für "die Grossen") hier auch kräftig im Preis zuschlagen, da nunmehr ein einfacher Rechner mit 1-2GB RAM ausreichen würde, anstelle eines aufwendig supporteten Dual-Xeon Workstation Dingenskirchens.

edit:
Gleiches gilt natürlich auch für den P10 oder die R300, wenn sie denn entsprechend vermarktet würden.

edit2:
Schon verdächtig lange nichts bahnbrechendes mehr von Quantum3D gehört... *eg*

Unregistered
2003-01-13, 11:00:09
Ja Quasar, aber wärend du hier über die marketingtechnischen Vorteile sinnst, diskutiert der Rest über die technische Machbarkeit.


Originally posted by Quasar
"LotR - Return of the King" -Brought to you with the Power of the GFFX and cg
Jetzt bist du dran...:D

Demirug
2003-01-13, 11:04:14
Quantum3D baut die Hardware
exluna scheibt die Software
und NVIDIA bekommt das Image

So würde das durchaus Sinn machen. und Technisch ist der NV30 mächtig genung um eine grosse Anzahl der effekte auch rechnen zu können.

Quasar
2003-01-13, 11:35:18
originally posted by unregistered
Ja Quasar, aber wärend du hier über die marketingtechnischen Vorteile sinnst, diskutiert der Rest über die technische Machbarkeit.

Während du hier Dinge bezweifelst, weil sie für deine Projekte nicht lohnen, erlaube ich mir, ein Marktsegment zu sehen, wo es sich trotz eventuell nötigem (merke: Ich streite nicht ab (wie auch oben schon), dass dies eventuell nötig sein könnte.) manuellem Zusammensetzen der Ergebnisse lohnen kann, einen möglichst hohen Anteil der Arbeit auf die Grafikkarte zu verlagern.

Und wenn du mein obiges Posting mal ganz genau liest, wirst du sehen, dass ich noch etwas mehr als nur das Marketing angesprochen habe.
Kosten/Nutzen-Verhältnis dürfte bei Firmen noch immer im Vordergrund stehen....

originally posted by unregistered
Jetzt bist du dran...:D
Häh? Erzähl doch mal, was deiner Meinung nach technisch nicht machbar sein soll? Ist das allgemeingültig oder betrifft das am Ende nur dein spezielles Anwendungsprofil?

Unregistered
2003-01-13, 12:09:32
Sorry Quasar, du musst mich verwechseln. Ich habe dafür kein Anwendungsgebiet. Und ich will auch nicht die Untauglichkeit von nVidias ungelegten Eiern nachweisen.

Unregistered
2003-01-13, 12:11:08
Regpflicht!!!:D

Unregistered
2003-01-13, 12:15:39
Originally posted by Demirug
Quantum3D baut die Hardware
exluna scheibt die Software
und NVIDIA bekommt das Image

So würde das durchaus Sinn machen. und Technisch ist der NV30 mächtig genung um eine grosse Anzahl der effekte auch rechnen zu können.


Was heisst eigentlich mächtig. Ich lese das immer im Zusammenhang mit dem Nv30 von dir. Du scheinst ja sehr beeindruckt von dem Chip zu sein.

Ist der so besonders? Mächtig gewaltig?

TeK
2003-01-13, 12:27:49
Originally posted by Quasar

Während du hier Dinge bezweifelst, weil sie für deine Projekte nicht lohnen, erlaube ich mir, ein Marktsegment zu sehen, wo es sich trotz eventuell nötigem (merke: Ich streite nicht ab (wie auch oben schon), dass dies eventuell nötig sein könnte.) manuellem Zusammensetzen der Ergebnisse lohnen kann, einen möglichst hohen Anteil der Arbeit auf die Grafikkarte zu verlagern.


Richtig, ich habe so meine Zweifel ob es sich vom Arbeitsablauf her lohnt diese Teile in Hardware zu rendern. Wie auch immer, der post dort oben war nicht von mir. Werde wohl ab jetzt mein kürzel druntersetzten.


"Und angesichts der Unmengen an Renderfarm-Rechnern, die für sowas angeschafft werden, könnte man, eine entsprechend mächtige mitgelieferte Software vorausgesetzt (entweder als eigenständiges Programm oder als plug-in für "die Grossen") hier auch kräftig im Preis zuschlagen, da nunmehr ein einfacher Rechner mit 1-2GB RAM ausreichen würde, anstelle eines aufwendig supporteten Dual-Xeon Workstation Dingenskirchens."

Dazu, auch da sehe ich ein kleines Problem. Die reinen RenderBoxen bestehen (bei uns, werden da wohl nicht die einzigen sein) aus Dual-Xeon 1U-Racks. Dort is schonmal nix mit GeforceFX einbauen. Diese gibts auch in der Bauform 2U mit AGP und 64-Bit PCI. So weit so schön,nen AGP port, leider liegt der bei 2U FLACH und mit dem "netten" Staubsauger der als Lösung bei der GeForceFX herhalten muss,dürfte ein einbauen dort nicht möglich sein (siehe,1PCI platz belegt durch kühlung).

Demirug
2003-01-13, 14:27:01
Originally posted by Unregistered



Was heisst eigentlich mächtig. Ich lese das immer im Zusammenhang mit dem Nv30 von dir. Du scheinst ja sehr beeindruckt von dem Chip zu sein.

Ist der so besonders? Mächtig gewaltig?

Ja, ich bin beindruckt von dem Chip. Dabei meine ich jetzt aber nicht die Leistungsdaten in aktuellen Anwendungen/Spielen. Denn darüber gibt es im Moment nur sehr unzureichende Angaben, die zudem auch nicht aus unabhängigen Quellen stammen.

Das "Mächtig" benutzte ich hier im Zusammenhang mit der Programmierbarkeit der Shader. Davon hat der normale Anwender natürlich erst mal gar nichts. Mir als Entwickler zeigt es aber in welche Richtung der Zug fährt und mit welchen Mitteln ich langfristig planen kann. NVIDIA hat mit dem NV30 auf rein technologischer Ebene eine gute Vorlage gegeben und die Konkurenz unter Druck gesetzt. Auch wenn diese Features erst mal wie gesagt nichts bringen werden bleibt den anderen Chipherstellern kaum eine andere Wahl als sie früher oder später auch zu unterstützen.