PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 3DLabs Chip


Meta
2002-04-19, 08:53:32
Hi.

Creative und 3DLabs. Nun wollen sie einen Consumerchip herausbringen so im Herbst.

Was denkt ihr, können wir erwarten. Eine abgespeckte Workstation Karte die für DirectX zugeschnitten ist?
Eine Neuentwicklung?
Wer weiß mehr über 3DLabs Technologie?

Bitte um Meinungen...

Euer Meta

ow
2002-04-19, 09:04:51
Mit Workstation Karten ist im Gaming Sektor nichts zu gewinnen.
Ich tippe auf eine Neuentwicklung.

Meta
2002-04-19, 09:10:39
Auch bei einer Neuentwicklung würd ich denken, dass sie einiges vom Wissen der Workstation karten hernehmen, leider kenn ich mich mit Workstation nicht so aus.

Aber eines leuchtet mir eben nicht ein, wenns ne Neuentwicklung ist, wie kann die dann schon im Herbst fertig sein, der Cretive Deal ist noch nicht so lang her. Neuentwicklung in 3/4 Jahr??

HOT
2002-04-19, 09:42:12
Weil 3DLabs diesn Chip unabhängig von Creative schon seit geraumer Zeit in Entwicklung hat. Das Teil soll ja laut aceshardware 72Mio Transistoren auf die Waage bringen.

Meta
2002-04-19, 09:47:27
Oh, sorry, *ichnichtgewussthab*

72mio, das ist recht viel würd ich sagen, was könnte da alles verpackt sein...?

8pipes?
256bit Speicherinterface?
wohl auch gleich DirectX 9 Unterstützung denk ich...obwohl das erst im Frühjahr rauskommen soll...
bin echt gespannt auf die Specs des Chips
glaubt ihr der kann HSR vor dem Rendering oder wirds nur ein Brute Force

zeckensack
2002-04-19, 10:18:03
Vergiss DirectX9.
3DLabs ist die treibende Kraft hinter OpenGL 2.0, jetzt rate mal, auf welche Spec die hinarbeiten werden.
MS können mit ihrem Sandkastenzeugs einpacken.

Ansonsten: wahrscheinlich kein Tiler
8 Pipes erscheint mir zu hoch gegriffen. Ich tippe auf 4Pipes*2TMUs, dann sind wir von der Transistorzahl in realistischen Bereichen (vergleiche: R200 60Mio, Geforce3 auch so um den Dreh), vielleicht auch 4*4.

StefanV
2002-04-19, 10:22:03
Der Unterschied zwischen den meisten 'Profi GL' Karten und Game Karten ist die Füllrate...

Eine 'normaler' WS Karte hat in etwa die Füllrate einer TNT...

Fragman
2002-04-19, 12:12:18
superscene aa. 16-faches aa ohne geschwindigkeitsverlust.
dazu kommt noch die hohe geometrieleistung (kein performanceverlust
der polyzahlen bei 8 hardwarelichtern). wenn man diese daten der wildcat serie auf die consumerkarte uebertragen kann, darf sich die konkurenz warm anziehen. und dann natuerlich ogl2.0, womit ich fest rechne. dann wird sich bei dx endlich mal was bewegen muessen und wir werden nicht immer mit den mini versionen beglueckt (damit meine ich dx8.1 und dx9).

Unregistered
2002-04-19, 15:07:26
Komisch, viele meinen noch immer, OGL 2.0 und DX9 wären bereits Ende 2002 fertig.
Für DX9 hat bereits Microsoft dieses Gerücht zerschlagen, aber bei OGL 2.0 hält sich das noch.
Ich meine: Wenn die für Ende 2002 angekündigte 3DL-Karte tatsächlich eine OGL 2.0-Karte wäre, würde das doch ein bereits vom Marketing her wichtigeres Feature sein als noch so viele Millionen Transistoren. Die Karte wird nur als sauschnell gerühmt, aber von OGL 2.0 ist dabei nicht die Rede. Aus dem Interview von within3d mit 3DLabs (http://www.within3d.de/index.php?show=articles&type=showarticle&id=11&page=3):3Dlabs war bisher sehr aktiv in der Entwicklung von OpenGL 2.0 tätig. Wird die Übernahme diese Entwicklung in irgendeiner Art beeinflussen?
Es wird keine direkten Auswirkungen geben. Wir werden unser Engagement bezüglich der Entwicklung von OpenGL 2.0 fortsetzen.Das wäre doch die Gelegenheit gewesen, von der OGL-Fähigkeit der neuen Karte zu sprechen.

Xmas
2002-04-19, 15:50:38
Wo hat Microsoft denn erwähnt dass DX9 nicht noch 2002 auf den Markt kommt?
Wann die OpenGL 2.0 Specs feststehen hängt natürlich auch stark vom ARB ab. Ich bin aber der festen Überzeugung, dass auch hier noch 2002 eine entgültige Fassung zu erwarten ist.
Ob die 3DLabs-Ingenieure nun komplette OpenGL 2.0 Unterstützung in Hardware schaffen oder nicht, sie werden sich auf jeden Fall daran orientieren. Programmierbarkeit steht für 3DLabs jedenfalls an vorderster Stelle.

StefanV
2002-04-19, 18:13:45
Gerüchten zu Folge soll sich MGA mit dem Parhelia auch an OGL 2.0 orientieren...

Richthofen
2002-04-20, 03:25:28
"Vergiss DirectX9.
3DLabs ist die treibende Kraft hinter OpenGL 2.0, jetzt rate mal, auf welche Spec die hinarbeiten werden.
MS können mit ihrem Sandkastenzeugs einpacken.
"

so drastisch würde ich das aber nicht sehen.
Mindestens 70% der Spiele sind DirectX Spiele und keine OGL Spiele mehr. Die Zeiten sind vorbei. Insofern kann es sich keiner leisten, das sein Produkt bei DX versagt. Genauso kann es sich keiner leisten das man bei OGL versagt. Man muss bei beiden Schnittstellen dick im Geschäft sein.

Meta
2002-04-20, 10:25:48
So sehe ich das auch. Für 3DLabs ist OpenGL sicher genauso ein Kriterium wie DirectX, auch wenn sie sich mehr an OpenGL orientieren werden. Aber DirectX 9.0 wird sicher ein Thema für den Chip sein, denn zu dieser Zeit noch einen 8.0 Chip rauszubringen kann gefährlich sein, zumindest wenn man die Spitze will.

Denn so wie es aussieht werden ATI, Nvidia vielleicht auch Matrox DX 9 Chips bringen...

Ob die Transistoren Zahl dann noch stimmt ist schwierig, da Vertex und Pixel Shader viele Transitoren brauchen und somit können sie wohl keine 8 Pipes verbauen. Ergo müssten sie andere Maßnahmen zur Leistungsverbesserung haben, möglicherweise eben deffered Rendering oder vielleicht onchip Ram oder etwas ganz anderes...?

Euer Meta

StefanV
2002-04-20, 11:28:32
Originally posted by Meta
Denn so wie es aussieht werden ATI, Nvidia vielleicht auch Matrox DX 9 Chips bringen...

Siehe mein letztes Posting ;)

Vermutlich wird sich MGA an OGL 2.0 orientieren und NICHT an DX9...

Meta
2002-04-20, 11:34:13
Ja schon, aber auch wenn sie sich an OpenGL orientieren, sie müssen um genauso DirectX (9) Performance bieten sonst haben sie keine chance, den sie müssen sich nun mal auch an die Spiele richten und die nutzen nunmal zum größtenteil DirectX.

StefanV
2002-04-20, 12:54:44
Originally posted by Meta
Ja schon, aber auch wenn sie sich an OpenGL orientieren, sie müssen um genauso DirectX (9) Performance bieten sonst haben sie keine chance, den sie müssen sich nun mal auch an die Spiele richten und die nutzen nunmal zum größtenteil DirectX.

Eben nicht!!

Ich denke, daß die OGL Performance VIEL wichtiger als die D3D Performance ist, da es ja mehr Benchmarks gibt, die OGL nutzen...

Deshalb denke ich, daß D3D langsam aber sicher unwichtiger wird...

Pussycat
2002-04-20, 13:09:26
3Dmurks benutzt D3D, UT2 auch. Andere benchmarks werden eh nich benutzt :(

(ausser vielleicht Doom 3)

HOT
2002-04-20, 13:21:50
Viele Spielefirmen haben ja nur DircetX bevorzugt, weil hier alles, was man so braucht relativ einfach implementiert werden kann.
OpenGL kann in der Version 2.0 einfach mehr als DX:
- Es sind alle wichtigen Funktionen für Spiele (vor allem dank OpenML) integriert
- Es gibt eine Hochsprasche für Shadereffekte
- Es kann platformübergreifen genutzt werden
usw

Deshalb denke ich auch, dass OpenGL in Zukunft eine grössere Bedeutung erhalten wird als DirectX.

zeckensack
2002-04-20, 14:18:56
Was kann denn DX9 schon so tolles?
Displacement Mapping wird doch eh wieder optional wie die Shader in DX8/8.1.
PS2.0/VS2.0? Höhöhö ... OpenGL2 gewinnt in Punkto Shader-Flexibilität gegen alles, auch gegen ein hypothetisches DX12. Und optional wird's wohl auch wieder werden.
'Unterstützung' für 64bit Farbtiefe? Gähn. OpenGL1.0 aus anno 1991 unterstützt bereits unbegrenzte Rendering-Farbtiefen und 128 bit Texturen/Pixelzugriffe.

Wer eine ordentliche GL2-Hardware abliefert, dem können DX9-Features total egal sein, die hat er dann nämlich sowieso schon. Und Displacement Mapping macht man in OpenGL2.0 direkt im Vertex Shader ...

grakaman
2002-04-20, 17:25:07
direct3d wird schon mal aus dem grund nicht an bedeutung verlieren, weil dx ja viel mehr als direct3d ist. und wenn man dx eh benötigt, dann kann man genauso gut auf die ensprechende d3d funktionen zugreifen. zumal alle nötigen funktionen eh immer in d3d integriert sind, die von den top spielebeschleunigern unterstützt werden.

zeckensack
2002-04-20, 17:38:13
Toll. Für Sound/Input brauch ich aber nicht mehr als DirectX5. DirectPlay interessiert auch kein Schwein mehr, das wurde über all die Jahre insgesamt von vielleicht fünfzehn Spielen überhaupt benutzt, vA von Bullfrog und von MS selber.

StefanV
2002-04-20, 18:42:53
die meisten OGL Games laufen auch unter NT4...

Also nutzen sie KEIN DX Müll usw...

Noch dazu kommt, daß man OGL Games leichter auf andere Plattformen portieren kann (BTW: braucht Starcraft eigentlich DX??).

Doomtrain
2002-04-20, 21:01:54
Originally posted by Stefan Payne


BTW: braucht Starcraft eigentlich DX??.

Jap!

StefanV
2002-04-20, 21:18:07
Ich mein, weils SC auch auf MAC gibt und es angeblich auch auf NT4 laufen soll...

Exxtreme
2002-04-20, 21:47:18
Originally posted by Stefan Payne
Ich mein, weils SC auch auf MAC gibt und es angeblich auch auf NT4 laufen soll...
Es läuft unter WinNT, ich habe es ausprobiert. WinNT hat aber auch DirectX in der 3'er Version. Und mehr braucht Starcraft nicht.

Gruß
Alex

Xmas
2002-04-21, 02:05:31
Originally posted by zeckensack
Toll. Für Sound/Input brauch ich aber nicht mehr als DirectX5.
Unterstützt DX5 schon Force Feedback und 3D-Sound? Und wie siehts mit DirectMusic aus?

Meta
2002-04-21, 06:27:50
Nein, ich denke DirectX kann man nicht einfach so abtun, als wäre es für die Zukunft nicht relevant, auch wenn es nicht so viel leisten mag wie OpenGL 2.0.

1.) die Spiele entscheiden und die meisten Entwickler entwickeln vordergründig für DX. Siehe UT und nachfolgende Spiele, das sind viele die die Engine nutzen. +MS Games

2.) Ne riesen Firma steht hinter DX, Minisoft hätte was dagegen würde DX einfach nicht mehr akzeptiert werden, die würden dann schon dafür sorgen...

3.) So schlimm ist DX 9.0 doch gar nicht von der Leistung her, mann muss sich doch nur vor Augen halten, dass kein Spiel noch heute nicht, DX 8.0 ausnützt, ergo wird es noch lange den Ansprüchen genügen. Und hey, die Spiele heute sehen mit DX 7/8 gut aus, mit 9 sicher noch besser, also was mehr?
OpenGL kann vielleicht mehr, aber das is dann wohl mehr für Workstaitions und a bissl für Spiele, aber wohl nicht grundlegend, auch wenn es viele gern hätten.

DX kann man nicht in 1-2 Jahren vom Markt drängen, meine Meinung.

StefanV
2002-04-21, 09:51:46
Für OGL2.0 spricht noch was anderes:

OGL2 ist AFAIK eine komplette neuentwicklung!! (ev. sogar direkt gegen DX Positioniert.)

ERGO:

Schleppt keine Altlasten mit sich, was die Performance steigern sollte...

Wenn M$ mal Direct X entschlacken würde, dann würde das auch richtig abgehen, aber DX8 schleppt ja teilweise noch DX3 code mit rum ;)

Xmas
2002-04-21, 12:44:49
Originally posted by Stefan Payne
Für OGL2.0 spricht noch was anderes:

OGL2 ist AFAIK eine komplette neuentwicklung!! (ev. sogar direkt gegen DX Positioniert.)

ERGO:

Schleppt keine Altlasten mit sich, was die Performance steigern sollte...

Wenn M$ mal Direct X entschlacken würde, dann würde das auch richtig abgehen, aber DX8 schleppt ja teilweise noch DX3 code mit rum ;)
OpenGL 2.0 ist immer noch abwärtskompatibel und beinhaltet alle Funktionen von OpenGL 1.0. Allerdings wird es wohl im Laufe der Zeit einen Übergang zu "Pure OGL 2.0" Anwendungen geben, die nur noch die neue Funktionalität nutzen.

DX8 schleppt keinen DX3-Code mit sich rum (außer dort wo der DX3-Code schon gut genug war), zumindest nicht in dem Sinne dass DX3-Code den DX8-Code beeinflussen würde. Durch die COM-Interfaces kann jede Version völlig eigenständig sein, die Abwärtskompatibilität ist trotzdem gewährleistet.

zeckensack
2002-04-21, 13:56:50
Originally posted by Xmas

Unterstützt DX5 schon Force Feedback und 3D-Sound? Und wie siehts mit DirectMusic aus?

AFAIK kamen Force Feedback und DirectSound3d in DX6, DirectMusic in DX8.

DX9 geht mir aber trotzdem am Ar*** vorbei :P

zeckensack
2002-04-21, 14:00:43
Originally posted by Xmas
DX8 schleppt keinen DX3-Code mit sich rum (außer dort wo der DX3-Code schon gut genug war), zumindest nicht in dem Sinne dass DX3-Code den DX8-Code beeinflussen würde. Durch die COM-Interfaces kann jede Version völlig eigenständig sein, die Abwärtskompatibilität ist trotzdem gewährleistet.
Die Abwärtskompatibilität wird durch interne Emulation erreicht, dh ein Treiber hat zB nur DX8-Funktionalität, darauf aufsetzend wird dann die Funktionalität von DX3-7 nachgebildet. Das passiert in den MS-Libraries, nicht im Treiber. Funktioniert so ähnlich wie ein Glide-Wrapper oä.

HOT
2002-04-21, 14:15:24
OpenGL war eigentlich bisher keine Konkurrenz zu DX, weil OpenGL bisher nur eine Grafikschnittstelle war und nicht mehr. Sound, Netzwerk usw. mussten entweder so über Windows oder über DX (oder über MacOS oder Linux oder was auch immer) laufen, da blieb bisher keine andere Möglichkeit. Jetzt aber bietet OpenGL einen Standart für alle relevanten Dinge und ist damit zum ersten Mal vollkommen konkurrenzfähig zu DX. Da OpenGL aber Plattformübergeifend ist und somit den Softwareherstellern die Arbeit erleichtert, wird es sich IMHO in weiterer Zukunft durchsetzen, da kann sich auch M$ noch so querstellen. Dass jetzt noch für DX entwickelt wird und auch DX9 erstmal die Vorreiterrolle spielen wird ist klar, es hat bisher ja keiner Praxiserfahrung mit Treiber und Software für OpenGL 2.0 gemacht. Jedenfalls ist die Hardwareindustrie gut darauf beraten, Hardware für OpenGL zu bauen, da doch eine gute Chance besteht, dass dies sich letztendlich durchsetzen wird.

zeckensack
2002-04-21, 14:22:31
Originally posted by Meta
Nein, ich denke DirectX kann man nicht einfach so abtun, als wäre es für die Zukunft nicht relevant, auch wenn es nicht so viel leisten mag wie OpenGL 2.0.

1.) die Spiele entscheiden und die meisten Entwickler entwickeln vordergründig für DX. Siehe UT und nachfolgende Spiele, das sind viele die die Engine nutzen. +MS Games
Erstmal unterstützt UT OpenGL, Eigentor.
Die meisten Dev-Häuser tun das aus politischen Gründen, weil zB das Management 'nen Hintern nicht von 'ner Straßenlaterne unterscheiden kann. Diese Leute werden dann auch massiv von MS-Geblubber vollgebombt, zB
1)DirectX ist ja sooo portabel ... läuft auf allen Microsoft-Systemen ... bis auf Windows CE ... und so :bonk:
2)DirectX funktioniert auf jedem Rechner und jeder Graka gleich ... bis auf T&L ... und Shader ... und EMBM ... und DOT3 ... und paletted textures ... und blending modes ... und und und ...:bonk:

Die Stimmung gegenüber DX ist aber im Moment eher schlecht, gerade weil sich immer mehr zeigt wie sehr Argument #2 auseinanderfällt.
2.) Ne riesen Firma steht hinter DX, Minisoft hätte was dagegen würde DX einfach nicht mehr akzeptiert werden, die würden dann schon dafür sorgen...
Was willst du uns damit sagen? Sprich dich doch ruhig aus ???
In der Zwischenzeit erzähl ich dir mal einen kleinen Witz:
Es gab mal eine Entwicklerfirma namens 'Bungie', die haben ein Spiel namens Oni rausgebracht. Das läuft ausschließlich unter OpenGL.
Selbige Firma startete dann die Arbeiten an einem Vielversprechenden Titel namens 'Halo'. Grafikplattform für die ersten Tech-Demos? Jau, DX7-Grakas ... aber unter OpenGL.
Also kauft Microsoft einfach jedes Devhaus, das in Gefahr geraten könnte, OpenGL zu benutzen und lässt sie dann allesamt XBox-Spiele machen, die dann keiner kauft.
3.) So schlimm ist DX 9.0 doch gar nicht von der Leistung her, mann muss sich doch nur vor Augen halten, dass kein Spiel noch heute nicht, DX 8.0 ausnützt, ergo wird es noch lange den Ansprüchen genügen. Und hey, die Spiele heute sehen mit DX 7/8 gut aus, mit 9 sicher noch besser, also was mehr?
Was faselst du da?OpenGL kann vielleicht mehr, aber das is dann wohl mehr für Workstaitions und a bissl für Spiele, aber wohl nicht grundlegend, auch wenn es viele gern hätten.Dem zweiten Teil hab ich keinen Sinn abringen können, sorry.
Dieses 'für blablabla' ist doch Dummfug. Ich pflanze Bananen an, klebe auf die eine Hälfte Chiquita-Aufkleber und auf die anderen 'Speziell für die Raumfahrt'-Aufkleber. Intel behauptet ja auch in der Fernsehwerbung, der P4M sei speziell 'für' Notebooks entwickelt worden.
OpenGL und Direct3D sind beide nicht 'für' irgendwas. Direct3D ist für Workstation-Anwendung einfach zu schrottig und zu unportabel, OpenGL nicht, so einfach ist das.
DX kann man nicht in 1-2 Jahren vom Markt drängen, meine Meinung.Aber man kann's ignorieren. Schließlich hat es auch keiner geschafft DirectPlay vom Markt zu drängen, wird immer noch mit jedem Spiel in der DirectX-Redist ausgeliefert. Nur nutzen tut's halt keine Sau.

GloomY
2002-04-21, 18:10:05
Man sollte eher

Direct3D Version 9 <-> OpenGL Version 2.0

betrachten. Der Rest von DirectX wird ja noch für Sound/Input/ForceFdb usw. benötigt. Deshalb wird DirectX in Zukunft sicher nicht aussterben. Die Frage ist, ob Direct3D dann noch genutzt wird, oder ob dann die gesamte Grafikberechnung mit OpenGL gemacht wird (was eher wahrscheinlich ist). Mir wäre letzteres lieber...

Meta
2002-04-22, 06:48:51
@Zeckensack

NR. uno, ich fasle nicht.

Mehr will ich zu dir gar nicht sagen.

Meta
2002-04-22, 06:54:03
Es gab schon mal ne Diskussion hier im Forum über das Thema DX und OpenGL und da wurde lange diskutiert...jeder hat halt andere Meinungen.

Diesen Thread hab ich eigentlich aufgemacht um ein wenig mit euch über den neuen sagenumwobenen 3dLabs Chip zu spekulieren. Vor allem möchte ich heraus finden, wie er von der Performance her, die anderen Chips schlagen wird, weil er dazu schon etwas mehr braucht als die anderen "Zukunft-Chips" wohl haben. Und über das mehr wollt ich gern ein wenig diskutieren.

Die Diskussion über DX und OpenGL ist ein wenig über den Tellerrand gelaufen und kommt wohl zu nix fantastischem mehr ausser ein paar Beleidigungen die man sich sparen könnte. Deshalb dieses Thema bitte in einen eigenen Thread und zurück

zum neuen super Chip.

Thanks Meta

zeckensack
2002-04-22, 12:40:34
Originally posted by Meta
@Zeckensack

NR. uno, ich fasle nicht.

Mehr will ich zu dir gar nicht sagen.
Okay, entschuldige bitte die harten Worte. Ich will nochmal kurz erklären, warum ich mich dazu habe hinreissen lassen.
"3.) So schlimm ist DX 9.0 doch gar nicht von der Leistung her"
DX9.0 gibt es noch nicht. Aussagen über die Leistung sind reine Spekulation, hängen aber im Zweifelsfall eher vom Grafikchip ab, als von der DX-Version. Bei Features sieht es anders aus, aber du meintest doch die Leistung ???

"mann muss sich doch nur vor Augen halten, dass kein Spiel noch heute nicht, DX 8.0 ausnützt, ergo wird es noch lange den Ansprüchen genügen."
Eine wenige Spiele tun das, zumeist aber als abschaltbare Bonus-Option für Leute mit neuester Hardware. Dieses Jahr kommen noch ein paar hinzu. Ansonsten hast du natürlich recht.
"Und hey, die Spiele heute sehen mit DX 7/8 gut aus, mit 9 sicher noch besser, also was mehr?"
Damit Spiele mit DX9 tatsächlich besser aussehen, müssen die neuen Features auch genutzt werden. Wie du selber angemerkt hast, dauert es immer sehr lange, bis neue Features auch in Spielen auftauchen. Man braucht dazu nicht nur DX9 als installierte Software, sondern eben auch die passende Graka und angepaßte Spiele.
GL2 bietet Entwicklern hier wesentlich mehr Freiraum, da die Entwicklung nicht wie bei Direct3D im Jahreszyklus in relativ kleinen Schritten vor sich geht. Das geht hier mehr in richtig Rundum-Befreiungsschlag, was Beschränkungen in der Programmierbarkeit angeht. Dadurch bietet es auch den Chipherstellern die grösseren Chancen, mal ordentlich auf den Putz zu hauen und richtig große Entwicklungssprünge zu machen.

Was solls, am Ende müssen wir ja doch auf die finalen Specs und die passenden Grafikchips und die passenden Spiele warten. Also nochmal Entschuldigung, wenn ich dir auf den Schlips getreten habe.
Die Diskussion über DX und OpenGL ist ein wenig über den Tellerrand gelaufen und kommt wohl zu nix fantastischem mehr ausser ein paar Beleidigungen die man sich sparen könnte. Deshalb dieses Thema bitte in einen eigenen Thread und zurück

zum neuen super Chip.

Thanks Meta*zustimm*
Jetzt mag ich auch nicht mehr. Wenn mir noch was neues dazu einfällt, mach ich den Thread notfalls auch selber auf :)

grakaman
2002-04-22, 14:02:41
[Dadurch bietet es auch den Chipherstellern die grösseren Chancen, mal ordentlich auf den Putz zu hauen und richtig große Entwicklungssprünge zu machen.]

---------> muahahahahhahahahahahahahah

klar, deswegen hat intel auch schon n 256bit cpu draussen und windows kann diese ausnutzen...

// die dx zyklen kommen den chipentwicklern viel mehr entgegen. wenn ich ogl2 unterstützen würde, was vielleicht mehr features etc. erlaubt, müsste meine hardware das auch unterstützen, und so das man sie auch nutzen kann. damit würde man wohl dann auch eine ewigkeit erst mal hinkommen und neuentwicklungen wären sinnlos -------> demzufolge wird das auch nie geschehen.

zeckensack
2002-04-22, 14:55:35
grakaman:
Jetzt isses wieder soweit. Weiter geht's hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=210569&t=7896#post210569).

Meta
2002-04-22, 20:22:31
So, jetzt mach ich aber Dampf, los Leute, was denkt ihr, was für Specs hat der neue Chip von 3dLabs....

Nur Spekulationen erlaubt....

LOS LOS

Doomtrain
2002-04-22, 20:52:00
Core 300Mhz
Speicher 400MhzDDR
~15GB Memory
Vorbereiung für GL2.0
Bestimmt nur DX 8.1


Schon ganz schön schnell!!!!

Ceiser Söze
2002-04-22, 21:06:37
Irgendwas sehr flexibles... ;)

zeckensack
2002-04-22, 21:24:24
Rosa PCB mit 12 Layern, FCBGA-Speicher und Zerstäubungskühler mit externem Wasserbehälter, im VoodooVolt-ähnlichem Stromzufuhrkasten mit eingebaut *eg*

Abkehr vom klassischen Graka-BIOS, stattdessen ein direkt auf der Karte verlötetes Mini-CD-RW-Laufwerk und ein Boot-Menü. Außerdem kann man auf dem Laufwerk gleich noch Treiber abspeichern und das Speichermedium auch im als Zubehör mitgelieferten MP3-Player nutzen.
Alternativ Tesa-ROM! :biggrin:

Quasar
2002-04-22, 22:45:16
:lol:

Ihr seid ja echte Spinner ;)

Der neue 3DLabs-Chip wird natürlich externer Natur sein und sich per USB 2.0 oder Firewire direkt an den Chipsatz anbinden lassen, um den AGP zu entlasten.

Unregistered
2002-04-22, 23:12:43
Die AA-Fähigkeiten der Wildcat sind sowohl hinsichtlich Geschwindigkeit als auch Qualität fantastisch. Es ist nicht unwahrscheinlich, dass auch die Consumer-Karte über gute AA-Fähigkeiten verfügen wird.
Da DX9 und OGL 2.0 bei Erscheinen der Karte noch nicht verfügbar sein werden, wird ansonsten nur das übliche geboten, also DX 8.1 und OGL 1.4.
Ich tippe auf eine durchschnittlich schnelle Karte (im Vergleich zu R300 und NV30), die vermutlich bei der Bildqualität (besonders AA) punkten kann.

HOT
2002-04-23, 00:52:13
Ähhmmm... 3DLabs haben OpenGL 2.0 entwickelt, schon vergessen? also werden sie auch mit entsprechender Hardware aufwarten - das wär sonst ziemlich arm. Desweiteren machen sowohl NV als auch ATI über beachtliche FSAA Fortschritte - man muss auch bei 3DLabs/Creative mit der konkurrenz mithalten.
Was zum henker soll eigentlich OGL 1.4 sein? ich glaube nicht dass es eine solche Spezifikation geben wird.

zeckensack
2002-04-23, 11:19:37
Originally posted by HOT
Ähhmmm... 3DLabs haben OpenGL 2.0 entwickelt, schon vergessen? also werden sie auch mit entsprechender Hardware aufwarten - das wär sonst ziemlich arm. Desweiteren machen sowohl NV als auch ATI über beachtliche FSAA Fortschritte - man muss auch bei 3DLabs/Creative mit der konkurrenz mithalten.
Was zum henker soll eigentlich OGL 1.4 sein? ich glaube nicht dass es eine solche Spezifikation geben wird.
Es kann sehr wohl sein, daß noch eine 1.4er Spec verabschiedet wird. Die soll voraussichtlich einige der auch auf älteren Grakas verfügbaren Managementfunktionen für Geometriedaten uä integrieren, um wieder ein paar Extensions abschaffen zu können und das ganze für alle Hersteller zu vereinheitlichen. Genaueres steht allerdings noch nicht fest. Wenn es die Spec geben wird, dann ist es auf jeden Fall die letzte Version vor dem großen Sprung auf 2.0, und gleichzeitig das Maximum, was nicht-programmierbare Chips unterstützen können.
Aber eigentlich sollte das im "D3D contra GL"-Thread weiterdiskutiert werden ;)

Noch etwas ernsthafteres zum Thema: ziemlich sicher ist wohl Support für PS/VS nach DX8.1, wahrscheinlich sogar noch wesentlich besser/flexibler. Bezüglich Displacement Mapping möchte ich mich nicht festlegen, irgendwie glaube ich da nicht so recht dran. Mit dem anderen 'großen DX9-Feature', 64bit-Support, rechne ich dagegen definitiv.

Unregistered
2002-04-23, 13:59:58
Originally posted by HOT
Ähhmmm... 3DLabs haben OpenGL 2.0 entwickelt, schon vergessen?OGL 2.0 ist noch nicht entwickelt.
Des weiteren bin ich mit Spekulationen über Displacement Mapping und 64bit-Support vorsichtig. Ich erwarte für 2002 keine großen Neuerungen, sondern eher Konsolidierung bereits spezifizierter und gängiger Features. Dazu gehört eine relativ breite Unterstützung der in OGL 1.2 und DX8.1 enthaltenen und bereits jetzt üblichen Parameter, nicht unbedingt Leckerlis wie Displacement Mapping und 64bit-Support. 2003 wird dann mit DX 9 (Frühjahr) und später OGL 2.0 interessant werden.
Die einzige Firma, die sich noch kräftig über 2D-Leistung auslässt, ist Matrox, für alle anderen ist 2D gerade mal einen Nebensatz im Marketing wert. Ob das nun an der schwachen 3D-Leistung aktueller Matrox-Karten oder an der phänomalen 2D-Leistung des Parhelia-Mythos liegt, bleibt abzuwarten.
Für einen im Profi-Segment tätigen Hersteller wie 3DLabs dürfte gute 2D-Leistung zur Pflicht gehören.

HOT
2002-04-23, 15:31:47
OpenGL kann doch jetzt schon bis 128 Bit hochskaliert werden, oder irre ich mich da? Also ist 64Bit sowieso absolut kein Thema.

Im Moment, wenn man sich die ganzen Präsentationen auf www.3dlabs.com so ansieht, gibt es in OpenGL kein DM. Aber was nicht ist, kann ja noch werden :D

zeckensack
2002-04-23, 15:53:32
Originally posted by HOT
OpenGL kann doch jetzt schon bis 128 Bit hochskaliert werden, oder irre ich mich da? Also ist 64Bit sowieso absolut kein Thema.Rendering-Farbtiefen praktisch unbegrenzt. Allerdings kann man Pixeltransfers (wozu auch Textur-Uploads gehören) höchstens als (GL_RGBA,GL_UNSIGNED_INT) deklarieren, was dann auf deine 128 bit hinausläuft.
*edit*
Man könnte natürlich auch gleich 32bit-Fließkomma pro Kanal nehmen :D

Meta
2002-04-24, 06:59:29
Meine Speckulationen:

350 MHZ Core
350 - 450 MHZ Speicher
256 Bit Anbindung
VS + PS 2.0
64Bit Farbtreue
Bandbreitenschonendes Feature
8x Fsaa in perfekter Qualität in Hardware!
gute 2D Bildquali
Multichiptauglich

Sowas ungefähr mit der ganzen Featurebandbreite heutiger Chips und mindestens der Geschwindigkeit einer NV30 oder R300 und dann eben noch Multichip.

Und Eure Specs...

Meta

Meta
2002-04-25, 09:12:14
Was glaubt ihr, FSAA in Hardware, das könnte doch durchaus sein und wär ein riesenhafter Sprung, weil fast for free. Aber da die Workstaion Karten ja anscheinend so gut sind in FSAA, könnte das wohl ein großes Thema sein...

HOT
2002-04-25, 10:48:23
Wirkliches Hardware FSAA -> nur mit TBR!

ow
2002-04-25, 13:06:11
Software FSAA gibt es nicht.

StefanV
2002-04-25, 14:14:38
Originally posted by ow
Software FSAA gibt es nicht.

Anscheinend doch, schließlich hatte ich mit meiner G400 eine Erscheinung, die ich nur mit 'Software FSAA' erklären kann ;)

Grandia 2 ruckelte nämlich wie sau (normalerweise läuft es recht 'sauber' auf einer G400)...

Bei genauerem hinschauen waren die Kanten recht 'glatt'.

Verstanden hab ich es dennoch nicht, wird wohl irgend ein NV Treiber dran schuld sein *eg*

zeckensack
2002-04-25, 15:41:11
Ich würde die FSAA-Erwartungen für den Chip nicht allzu hoch schrauben.
Die dicken Wildcats können zwar bombastisches 4x4FSAA (16-fach Supersampling), aber die Geschwindigkeit wird darunter ganz sicher schwer zu leiden haben. Im angepeilten Zielmarkt ist die Option zur massiven Qualitätsaufwertung sinnvoll, hohe FPS sind da weniger gefragt. Im Consumermarkt sieht's da wie wir wissen ganz anders aus.

Xmas
2002-04-25, 15:54:05
Originally posted by zeckensack
Die dicken Wildcats können zwar bombastisches 4x4FSAA (16-fach Supersampling
SuperScene AA ist weder Ordered Grid noch Supersampling, sondern pseudozufälliges Multisampling. Aber ansonsten stimme ich dir zu.

zeckensack
2002-04-25, 16:12:46
Originally posted by Xmas

SuperScene AA ist weder Ordered Grid noch Supersampling, sondern pseudozufälliges Multisampling. Aber ansonsten stimme ich dir zu. Hm, wie üblich hast du auch hier wieder Recht.
Hab noch was leckeres dazu (http://www.3dlabs.com/product/technology/superscene_antialiasing.htm) gefunden ;)

Meta
2002-04-26, 07:07:44
Auch wenns Geschwindigkeit wegnimmt, so wird es hoffentlich und spekulativ von der Qualität her wohl viel besser, als die heutigen Sachen von NV oder ATI oder Kyro.

Frage, weiß einer welche interne Genauigkeit ne Wildcat hat, würd mich interessieren.

Ceiser Söze
2002-04-26, 18:24:38
Originally posted by zeckensack
Hm, wie üblich hast du auch hier wieder Recht.
Hab noch was leckeres dazu (http://www.3dlabs.com/product/technology/superscene_antialiasing.htm) gefunden ;)

Hoffentlich müssen solch ausgezeichnete Präsentationen nicht nVIDIA/ATi-schem PR-Geblubber weichen, wenn die Consumer-Markt Chips kommen. Wäre irgendwie schade...

ZilD
2002-04-28, 10:38:02
also diese wildcat und oxygen dinger sind karten die für folgende programme optimiert sind

discreet 3d studio max
soft image

das war es auch schon =)

so eine karte hat 100%ige open gl implementierung in der hardware wodurch modelling in der software 100% hardwarebeschleunigt wird.
so karten sind reine polygonschleudern.. wenn du bei nem spiel ~15 000 polys / s echtzeit hast (aktueller standard in etwa bei aktuellen games). dann ist das nicht gerade viel leistung.

wenn du modellierst dann hast du im 'preview' fenster auf ner akzeptablen darstellung nen polygon counter..
wenn du jetzt ne szene hernimmst die sehr aufwendig ist (zb.: FF der film) , dann hast du pro frame ~ 500 000 bis 1 000 000 polys zu berechnen.
damit das dann net im darstellungsfenster ruckelt wie sau braucht man eben so karten.
voll texturiert und mit lichtern und was weis ich für zeugs kann man aber auch solche szenen nicht in echtzeit darstellen.
somit wird das ganze in ner renderfarm gerendert..

also alles im allem dient die karte _nur_ für 3d max & soft image zur ruckelfreien darstellung aufwendiger szenen mit vielen polys. (ohne lichter! ohne texturen!)
rein nur das _mesh_ & surface.

wenn du da texturen raufhaust in auflösungen von 2000xirgendwas .. dann kannst du das mit _keiner_ grafikkarte der welt echtzeitmässig berechnen.
naja und von lichtern , reflektionen etc. just like mental ray .. davon träumt man noch (echtzeitmässig)

www.softimage.com

Exxtreme
2002-04-28, 11:24:17
Originally posted by zeckensack
Hm, wie üblich hast du auch hier wieder Recht.
Hab noch was leckeres dazu (http://www.3dlabs.com/product/technology/superscene_antialiasing.htm) gefunden ;)
Scheint ein Hybride aus MultiSampling und SMOOTHVISION zu sein. Hoffentlich ist auch SuperSampling möglich auch wenn es viel Leistung kostet, da MS qualitativ IMHO bei Weitem nicht an das SuperSampling heranreicht.

Gruß
Alex

zeckensack
2002-05-03, 16:50:31
Er ist angekündigt!!
http://www.reactorcritical.com/#l1113

http://www.3dlabs.com/whatsnew/pressreleases/pr02/02-05-03-vpu.htm

Xmas
2002-05-03, 17:35:16
Und da soll mal noch einer sagen der Chip wär nicht für OpenGL 2.0...

Quasar
2002-05-03, 17:38:26
Dann haben die ewigen ATi vs. nV-Diskussionen endlich ein Ende....

3Dlabs wird rulen.

Besonders das "Scalable" macht Lust auf mehr...

HOT
2002-05-03, 17:52:50
Vor allem scheint ja das Design komplett zu sein :) ;) :D ;D

Meta
2002-05-03, 18:23:28
JA, endlich mal was gescheites, das Teil wird auf alle Fälle wieder ganz frischen neuen Wind in dieses langweilige Grafikkartengeschäft von heute bringen. Ich bin gespannt was die Karte in der Praxis alles kann, aber ich bin sehr, sehr zuversichtlich, dass ich ne offene Kinnlade haben werde....

Ach ja und, trotzdem bin ich immer noch gespannt auf Matrox, denn wenn die auch sowas ähnliches auf die Füße stellen für Gamer, dann werden die 2 Hersteller erst mal rulen...


....und ich bin schon mal gespannt welche Karte ich mir dann holen werde und eins ist sicher, es wird keine mehr von NVidia sein..!

Euer Meta

Meta
2002-05-03, 18:24:42
ähm und ich muss mal eines loswerden

256 BIT Speicherinterface....

mann, hört sich das GUT an...

HOT
2002-05-03, 18:29:40
http://www.anandtech.com/video/showimage.html?u=http://images.anandtech.com/reviews/video/3dlabs/p10/pipeline.gif

Wenn man sich das Bild genau ansieht, passiert der Z-Check VOR dem Rendering!!!

Anandtech schreibt jedenfalls das der Chip kein deferred Renderer ist.

Tomp
2002-05-03, 18:35:42
Yeah Baby, 256Bit! ;)

Jetzt wo 3dLabs einen 256Bit bis benutzt müssen die anderen auch nachziehen, weil sie sonst gnadenlos abgehängt werden. 256Bit wird also bald Standard sein. Und ich denke, wenn das erstmal Standard ist, wird die Produktion auch billiger werden. Endlich kommt mal etwas frischer Wind von einer anderen Firma.

Meta
2002-05-03, 18:40:41
Also ich würd sagen, das Teil wird noch ein paar viele Überraschungen haben, die dann alle zum Standard machen müssten. Kurz, dieser Chip WIRD Maßstäbe setzen. So siehts zumindest aus. Auch wenn wir auf das fertige Silizium warten müssen....mir hängt jetzt schon der Sabber runter...

Mann, wird das aufregend...

HOT
2002-05-03, 18:49:09
Urgs, wenn ich mir den 10-Bit-pro-Kanal-DAC so ansehe wird das Teil die 256Bit auch brauchen *ggg*

Tomp
2002-05-03, 18:51:05
Originally posted by Meta
Also ich würd sagen, das Teil wird noch ein paar viele Überraschungen haben, die dann alle zum Standard machen müssten. Kurz, dieser Chip WIRD Maßstäbe setzen. So siehts zumindest aus. Auch wenn wir auf das fertige Silizium warten müssen....mir hängt jetzt schon der Sabber runter...

Mann, wird das aufregend...


Ich les mir grad den Artikel bei anandtech durch. Da stand noch was sehr interessantes zu dem Vertex Shader.

Der P10 hat 16(!) Vertexshader, wobei man aber dazu sagen muss, dass jeder davon nicht so Leistungsstark ist, wie bei einer Geforce4. Die Vertex Shader von Ati und Nvidia sind auf "4 element vector data" (kann mal bitte jemand genau erklären, was das heißt?) spezialisiert. diesen können sie in einem durchgang berechnen. Bei allem anderen arbeiten sie ineffizienter. Die Vertex Shader des P10 können eine Skalaroperation in einem Durchgang durchführen. Für einen "4 element vector data" bräuchten sie 4 Durchgänge. Aber das bedeutet trotzdem, dass man sie mit 4 Vertexshadern bei einer Geforce3 oder Radeon8500 vergleichen könnte, selbst wenn diese bei optimaler Effizenz arbeiten würden. Da die Vertexshader beim P10 aber immer bei voller Effizenz arbeiten, ist sogar eine bessere Leistung zu erwarten.

Hoffentlich hab ich jetzt keinen Mist gelabert. ;)

HOT
2002-05-03, 18:56:09
4-Element-Vector-Data hört sich stark nach SIMD an.

Meta
2002-05-03, 19:08:30
Also über die VS mach ich mir keine Sorgen, die werden sicher mehr als schneller und vor allem schnelller als G4. Nur, die G5 und R300 wird dann auf dem Markt sein, wie siehts dann aus....

Aber egal, mir reicht die heutige VS Leistung, weil es eh nur in 3DMurks genutzt wird und ach ja, in der Zukunft....

Aber wie auch immer der Chip wird sicher ne gute Leistung erreichen mit 100% effektiven VS x16!!

Euer MEta

HOT
2002-05-03, 19:32:34
Wenn der Chip wirklich HSR VOR dem Rendering durchführt, ist er durchaus sehr konkurrenzfähig zu den Pixelschleudern von ATI und NV, auch mit 4 Pipes.
Es sieht wirklich so aus, als würde der Chip HSR durchführen, nur eben beim Rendering nicht Tile based, nur vorher. D.h. beim Rendering ist das komplette Bild verfügbar und wird Pixel für Pixel aufgebaut. Danach wird das Bild wieder geteilt, um es cachebar zu machen. Das Ding ist echt mal krank :D

Bringhimup
2002-05-03, 21:24:45
Gibts das ganze auch schon irgendwo auf deutsch? Für soviel englischen Text bin ich im Moment nicht mehr Fit genug.

Gruss
Maik

ActionNews
2002-05-03, 21:42:49
Hat eigentlich irgendjemand von euch an den Preis gedacht? Klingt verdammt teuer! Und findet ihr es nicht auch seltsam solch detailierte Infos über einen Chip der erst Ende des Jahres kommen soll?
Naja die Specs klingen zumindest genial! Und ein kleiner Preiskampf ist sicher gut für uns Kunden :)! Aber ich bin ja gespannt, was Nvidia (NV30), ATi(R300), Matrox (Parhelia) und PowerVR (Serie5) sich da alles ausdenken! Die schlafen sicher auch nicht!

CU ActionNews

[ncp]EasyChiller
2002-05-03, 22:19:41
lest euch das ma durch!!!!
(ist übrigens in DEUTSCH - aber leider nicht ganz so umfangreich - für die/den die gefrag hatten *G*)
http://www.onlinekosten.de/news/artikel.php3?id=8844


da steht auch das der noch VOR WEIHNACHTEN im LADEN SEIN SOLL!!!!!!
wie soll das gehen - und dann mit DX9 und OGL2.0 - da müsste ja DX9 echt bald fertig sein - zumindest mal ne Beta zu sehen sein!

hmmm - noch leichte Wiedersprüche.. bei anandtech steht och nur was von: "- Full DX8 pixel and vertex shader support" AHA!

och oder doch?: "This array of 16 VPs is the P10's version of NVIDIA's vertex shaders and they do offer full support for all current DX8 vertex shaders. 3DLabs believes that they will be able to claim full support for the Vertex Shader 2.0 specification in DirectX 9 but given that DX9 isn't out they cannot officially claim support yet."

Hmm - aber der Pixelshader erfüllt ja noch nicht die Gleitkommaanforderungen von DX9 - also 100%-ige DX9-Kompatiblität ist somit definitv net gegeben! tzztzz.... Onlinekosten!

Unregistered
2002-05-04, 01:31:02
Das ist doch der Witz! Da der Chip programmier bar ist, kann er einfach per Software (Treiber) an neuen 3D-Funktionen einer neuen API angepaßt werden! Der Chip kommt raus als Dx 8.1, dann kommt Dx9, es gibt neuen Treiber von 3Dlabs und *bang* kann der Chip alle Dx9-Funktionen usw.

siehe auch hier:
http://www.vr-zone.com/cgi-bin/vb/showthread.php?threadid=3914

und hier:
http://www.vr-zone.com/cgi-bin/vb/showthread.php?threadid=3915

Letztes Diagramm unten: Tiler

[ncp]EasyChiller
2002-05-04, 01:40:48
es ging mir auch nicht um die programmierbarkeit, sondern um die Tatsache, das der Pixelshader net mit Gleitkommazahlen umgehen kann.

ich zitiere:


It is important to note that although the P10 does offer a superset of all DX8 Pixel Shaders, this isn't a true DX9 part. One of the requirements for DX9 are floating-point pixel pipelines from start to finish, and as we just mentioned this simply isn't the case for the P10. Moving to floating point processors throughout the pipeline simply isn't economically viable for 3DLabs with the P10 when you take into account the increase in gates over the present mixed fp/integer setup. 3DLabs hypothesizes that they will need to be on at least a 0.13-micron process and maybe even a 0.1-micron process before full DX9 compliance will be possible. TSMC's 0.13-micron process isn't mature enough for 3DLabs to feel comfortable with from an economic standpoint, so we'll have to wait until next year for DX9 to be brought to this platform. You should also keep in mind that NVIDIA's next-generation part (NV30) will be made on TSMC's 0.13-micron process and will most likely be a full DX9 part when it comes out this fall.


Sprich auf deutsch: es wären für diesen Chip zu viele zusätzliche log.-Gatter (=viel mehr Transistoren) notwendig um durchgängige FP-Pipelines zu erreichen, das das aus der Sicht von 3Dlabs seblst das erst von ihrer Seite aus mit zeitigstens 0,13 Mykron - wenn nicht sogar erst mit 0,1 Mykron Strukturgröße machbar ist!

Irgendwo in dem Artikel wird auch gesagt, das dies der erste Chip einer neuen Ära/Serie ist ... und noch viele techn. Neuerungen von 3DLabs kommen werden.. also wird schon noch einer kommen, wo DX9 komplett unterstützt wird, sofern mal dierser Standard das Licht der Welt erblicken sollte.

Unregistered
2002-05-04, 01:53:01
Das sagt Anandtech! Und? Wer sagt das das richtig ist?

Wichtig ist, was 3DLabs sagt:
"Boards based on P10 VPUs will ship with 3Dlabs' custom Windows® drivers, widely acknowledged as the most reliable in the industry, and are planned to support current and upcoming versions of DirectX and OpenGL application program interfaces (APIs)."

[ncp]EasyChiller
2002-05-04, 02:11:46
Dazu sag ich nur: auch eine stinknormale DX6-Karte unterstützt/läuft mit DX8 - aber es nutzt eben nicht alle Features die in den Specs von DX8 stehen. Insofern ist dieser Satz zu vernachlässigen.
Es gibt da halt nen Unterschied zw. "suports" und "full compliant".

Zu den Treibern von 3dlabs generell - das die verdammt gute und effiziente Treiber schreiben können hat man ja schon an den Wildcat-Karten bewundern können. Und in OGL ist 3dlabs eh eine DER Größen - wäre für mich schon nen Argument so eine Karte ner NVDA-karte vorzuziehen.

zeckensack
2002-05-04, 05:29:39
Wenn MS für DX9 fordert, daß alle Chips FP-Texturkoordinaten liefern, dann wird sich MS eben wundern. Das ist nämlich Unsinn. DirectX, in welcher Version auch immer, ist sowieso irrelevant. Mehr habe ich dazu nicht zu sagen.

[ncp]EasyChiller
2002-05-04, 05:43:43
jo, für mich ist OGL2.0 irgendwie auch der wichtigere Standard als DX9.

Tomp
2002-05-04, 11:35:40
Hat jeamnd den Teil zum Antialiasing bei anandtech verstanden? Zuerst schreibt der, dass praktisch alle möglichen Antialiasing Methoden möglich sind. Danach schreibt er, was von Edge-, Super- und Multisampling und sagt, dass bei Multisampling nur höchstens 8 Samples möglich sind. Ist es jetzt möglich die Samples beliebig zu platzieren? Und was ist mit ganz exotischen Antialiasingarten? Die müssten doch jetzt auch drinsein.

HOT
2002-05-04, 11:45:54
Es muss überigens kein Nachteil sein, dass der Chip nur Int Zahlen Rendern kann. Es gibt ja die Möglichkeit bei relativ genauen Float Zahlen das Komma nach rechts zu verschieben und die restlichen Stellen einfach zu vergessen. Das war auch bei MMX eine Methode, aber nicht effizient. Beim Rendering könnte es anders sein... wer weiss, was sich 3DLabs da noch hat einfallen lassen, aber ein solches Feature könnte man mit Programmierbarkeit erreichen ;)

Tomp
2002-05-04, 12:14:50
Bei extremetech.com gibt es noch ein paar Informationen:

http://www.extremetech.com/print_article/0,3428,a=26271,00.asp


"3Dlabs quotes the P10's peak vertex rate at 192 million vertices per second. That's a conservative estimate, based on a 250MHz core clock. In comparison, Nvidia's GeForce4 Ti 4600 core clock is 300MHz, and it's capable of a peak output of 136 million vertices per second."


Nur 250Mhz Taktfrequenz? Wahrscheinlich sind 76Mio Transistoren auch etwas viel für 0.15µm. Weiß jemand, wann TSMC auf 0.13µm umsteigen will? Die Consumerversion kommt eh erst etwas später raus, vielleicht werden sie dann schon in 0.13µm hergestellt. Ich hab eigentlich über 200 Millionen vertices pro Pekunde erwartet, aber 192 klingt auch schonmal nicht schlecht. ;) Außerdem arbeiten die Vertexshader viel effizenter als bei einer Geforce4 und es steht viel mehr Bandbreite zur Verfügung. Man wird also näher an den theretischen Wert kommen.


"3DLabs is expecting A2 silicon back any day, and that will be final silicon. (The demos we saw were running on A1 silicon). We can't say when the first products will be out, but "soon" would be a fairly accurate estimation."

Es gibt gibt also schon das A1 Stepping und wenn das A2 Stepping wirklich schon das Endgültige ist, dann kann es wirklich nicht mehr lange dauern.

[ncp]EasyChiller
2002-05-04, 12:28:58
Hat eigentlich irgendwo jemand gefunden wieviel Clocks der für einen Multitexturing-Pass braucht?! Ich mein ja 8-fach ist ja gut - wie beim Kyro halt - aber der braucht dafür auch verdammt lange! :(

Tomp
2002-05-04, 12:34:41
Originally posted by [ncp]EasyChiller
Hat eigentlich irgendwo jemand gefunden wieviel Clocks der für einen Multitexturing-Pass braucht?! Ich mein ja 8-fach ist ja gut - wie beim Kyro halt - aber der braucht dafür auch verdammt lange! :(

"- 4 pixel rendering pipelines, can process two textures per pipeline"

Also 2 Texturen pro Clock und 8 Pro pass.

Xmas
2002-05-04, 12:54:48
Originally posted by Tomp
Nur 250Mhz Taktfrequenz? Wahrscheinlich sind 76Mio Transistoren auch etwas viel für 0.15µm. Weiß jemand, wann TSMC auf 0.13µm umsteigen will?
TSMC fertigt teilweise schon in 0.13µm, laut einer Aussage von NVidia auch schon GeForce4-Chips.
Der Umstieg muss bei 3DLabs erfolgen, aber die sind momentan noch nicht an 0,13 interessiert.

[ncp]EasyChiller
2002-05-04, 15:07:40
Originally posted by Tomp


"- 4 pixel rendering pipelines, can process two textures per pipeline"

Also 2 Texturen pro Clock und 8 Pro pass.

Sehe ich das richtig, nach den Angaben bei extremtech die Leistung der Textureneinheit vom P10 mindestens die doppelt Leistung wie die vom NV25 bzw. 50% mehr als der R200 bringen wird? (jetzt mal das Virtual-Memmory-Konzept außer Acht gelassen - also bloß, der theoretische Wert)?

Tomp
2002-05-04, 15:23:49
Originally posted by [ncp]EasyChiller


Sehe ich das richtig, nach den Angaben bei extremtech die Leistung der Textureneinheit vom P10 mindestens die doppelt Leistung wie die vom NV25 bzw. 50% mehr als der R200 bringen wird? (jetzt mal das Virtual-Memmory-Konzept außer Acht gelassen - also bloß, der theoretische Wert)?


Die theretische Leistung ist bei gleichem Takt genauso hoch. Aber der P10 kann 8 Texturen in einem Pass berechnen, das heißt er muss dabei nur einmal auf den Speicher zugreifen. Eine Geforce4 schafft 4 Texturen pro Pass, eine Radeon8500 schafft 6. Das wird dann eine Rolle spielen, wenn viele Maps gleichzeitig benutzt werden. Bei Doom3 sollen glaub ich bis zu 10 auf einmal benutzt werden. Frag mich nicht wofür man 10 Maps braucht. Bei heutigen Spielen ist es schon selten, dass mehr als 3 benutzt werden. Neben der höheren Leistung bei vielen Maps hat man bei 8 Texturen pro Pass auch eine höhere Genauigkeit, weil beim Zugriff auf den Speicher immer wieder Rundungsfehler auftreten.

[ncp]EasyChiller
2002-05-04, 15:33:25
THX! hatte mir schon gedacht, das die Angaben in der Tabelle bei extremtech net pro Clock sondern pro Pass heissen soll!

Dann ist der P10 aber eher relativ schwach in Bezug auf die Texturenleistung (für nen Gamerchip - für nen Pro-Chip ist das natürlich nen Spitzenwert) - wenn mann bedenkt was der für eine Vektoren-Leistung hat - bin gespannt, wie erste Samples performen - und vor allem auf die Treiber bin ich mehr als gespannt! *fg*

Unregistered
2002-05-04, 18:14:59
Originally posted by ActionNews
Hat eigentlich irgendjemand von euch an den Preis gedacht? Klingt verdammt teuer! Und findet ihr es nicht auch seltsam solch detailierte Infos über einen Chip der erst Ende des Jahres kommen soll?Was soll daran seltsam sein? Das haben die Bitboys doch auch gemacht - ein Super-Produkt relativ früh angekündigt.

Fragman
2002-05-04, 18:20:49
das mit den texturen pro passes wird sich mit der zeit auch erledigen.
wenn man wie bei renderman oder mental ray nur prozedurale shader bibliotheken benutzt wirds keinen mehr jucken ob der chip nun 8 oder 16 texturen kann, wichtig ist dann naemlich nur, wie schnell er diese shader erzeugen und natuerlich auch auftragen kann. deshalb finde ich die diskussion bei einem high level shading chip unsinnig. jc wird sich sicher schon auf den chip freuen, hat er wieder was neues zum spielen, oder er hat ihn schon?! endlich gehts mal vorwaerts. bleibt nur die frage was dx9 soll.

Tomp
2002-05-04, 18:58:19
Originally posted by Fragman
das mit den texturen pro passes wird sich mit der zeit auch erledigen.
wenn man wie bei renderman oder mental ray nur prozedurale shader bibliotheken benutzt wirds keinen mehr jucken ob der chip nun 8 oder 16 texturen kann, wichtig ist dann naemlich nur, wie schnell er diese shader erzeugen und natuerlich auch auftragen kann. deshalb finde ich die diskussion bei einem high level shading chip unsinnig. jc wird sich sicher schon auf den chip freuen, hat er wieder was neues zum spielen, oder er hat ihn schon?! endlich gehts mal vorwaerts. bleibt nur die frage was dx9 soll.


Man kann aber nicht für alles prozedurale Maps verwenden. Ich kann mir aber auch kaum vorstellen was man mit mehr als 8 nichtprozeduralen Maps anstellen will. Wahrscheinlich wird man wirklich kaum mehr als 8 Texturen pro Pass brauchen. Benutzt Domm3 eigentlich viele prozeduralen Texturen?

Doomtrain
2002-05-05, 16:31:30
Originally posted by Tomp



Man kann aber nicht für alles prozedurale Maps verwenden. Ich kann mir aber auch kaum vorstellen was man mit mehr als 8 nichtprozeduralen Maps anstellen will. Wahrscheinlich wird man wirklich kaum mehr als 8 Texturen pro Pass brauchen. Benutzt Domm3 eigentlich viele prozeduralen Texturen?

Du wirst dich noch wundern was John sich da ausgedacht hat. 10 Texturen pro Pass kann man schon verwenden!!! Also eine GF3 wird vielleicht alles darstellen können, im Endeffekt aber wird nur ein next Gen. Chip das Spiel perfekt aussehen lassen.:grhargh:
:grhargh:

Tomp
2002-05-05, 16:46:40
Originally posted by Doomtrain


Du wirst dich noch wundern was John sich da ausgedacht hat. 10 Texturen pro Pass kann man schon verwenden!!! Also eine GF3 wird vielleicht alles darstellen können, im Endeffekt aber wird nur ein next Gen. Chip das Spiel perfekt aussehen lassen.:grhargh:
:grhargh:


Jo, 10 Texuten pro Pass, aber da sind die prozeduralen Texturen schon dazugezählt.

Unreal Soldier
2002-05-06, 00:50:27
Hi leute,
was 3DLabs angeht muß man eine Revolution erwarten.
Die GPU gehen ihn richtung CPU-Segment heute

MFG
Unreal Soldier

PS: Unbedingt hier in 3DCenter den Artikel lesen.

ow
2002-05-06, 09:17:18
Originally posted by Tomp



Jo, 10 Texuten pro Pass, aber da sind die prozeduralen Texturen schon dazugezählt.


10 Texturen/pass sind weder unter D3D noch OGL moeglich. Die APIs lassen das nicht zu.
Max. ist 8tex/pass fuer D3D und 4tex/pass fuer OGL

zeckensack
2002-05-06, 10:11:01
Originally posted by ow
10 Texturen/pass sind weder unter D3D noch OGL moeglich. Die APIs lassen das nicht zu.
Max. ist 8tex/pass fuer D3D und 4tex/pass fuer OGL OGL erlaubt 32, sofern der Chip das unterstützt, und das seit der ersten Multitexturing-Extension. Ab Version 1.2 gehört das zur Core-Spec.

ow
2002-05-06, 10:23:33
Na sowas???

Mir wurde erzaehlt, dass der Grund dafuer, dass der Kyro nur 4fach MT unter OGL unterstuetzt in der Beschraenkung dieses API liegt.

/edit: und zwar hier http://www.mitrax.net/apboard/thread.php?id=2066

Ich hab jetzt mal dein Postiung dort zitiert.

Tomp
2002-05-06, 12:37:26
4-faches Multitexturing wäre schon extrem wenig. Ich glaub sogar Serious Sam benutzt schon 5-faches. Ich hab mal irgendwo gelesen, wofür bei Doom3 die 10 Texturen verwendet werden können, aber ich weiß leider nicht mehr wo.

[fu]121Ah
2002-05-06, 12:46:34
hier gabs ja mal nen artikel in dem das beschrieben war...

anscheinend scheinen 10 nicht sooo viel zu sein..

ow
2002-05-06, 13:01:31
Originally posted by [fu]121Ah
hier gabs ja mal nen artikel in dem das beschrieben war...

anscheinend scheinen 10 nicht sooo viel zu sein..


Dafuer, das Q3 AFAIK max. 3 Lagen benutzt sind 10 schon seeeeeeeeeeeehr viel IMO;)

ow
2002-05-06, 13:03:36
Originally posted by Tomp
4-faches Multitexturing wäre schon extrem wenig. Ich glaub sogar Serious Sam benutzt schon 5-faches. Ich hab mal irgendwo gelesen, wofür bei Doom3 die 10 Texturen verwendet werden können, aber ich weiß leider nicht mehr wo.


Es ging hier um die Faehigeiten der APIs und darum, dass der Kyro unter OGL nur 4-fach (D3D: 8-fach) texturiert in einem rendering pass.

zeckensack
2002-05-06, 13:09:23
http://www.bluesnews.com/plans/1/
Der gute John hat dies hier geschrieben:The fragment level processing is clearly way better on the 8500 than on the
Nvidia products, including the latest GF4. You have six individual textures,
but you can access the textures twice, giving up to eleven possible texture
accesses in a single pass, and the dependent texture operation is much more
sensible. This wound up being a perfect fit for Doom, because the standard
path could be implemented with six unique textures, but required one texture
(a normalization cube map) to be accessed twice. The vast majority of Doom
light / surface interaction rendering will be a single pass on the 8500, in
contrast to two or three passes, depending on the number of color components
in a light, for GF3/GF4 (*note GF4 bitching later on).
Er kommt also meistens mit sechs Texturen aus. Könnte zB Base, Detail, Gloss, Bump, Light*, Normalization** sein.
*Keine 'normale' Textur, sondern eine Lichteinfallsvektor(TM)-Texur oä.
**Braucht man zB, um krumm interpolierte Oberflächenvektoren beleuchtungstauglich zu kriegen.

Hier (http://www.rage3d.com/board/showthread.php?threadid=33611830) ist übrigens der Beweis dafür, daß OpenGL mindestens bis 6fach-Multitexturing mitspielt. Wie gesagt, bis 32fach ist vorgesehen, bei der Kyro scheint dies eine künstliche Treiberlimitation zu sein.

ow
2002-05-06, 13:21:00
Originally posted by zeckensack


Hier (http://www.rage3d.com/board/showthread.php?threadid=33611830) ist übrigens der Beweis dafür, daß OpenGL mindestens bis 6fach-Multitexturing mitspielt. Wie gesagt, bis 32fach ist vorgesehen, bei der Kyro scheint dies eine künstliche Treiberlimitation zu sein.


Ich hab diesbezueglich mal eine Anfrage im PVR-Forum gestellt.
Hab's oben ja verlinkt. Warte noch auf Antwort.

Karümel
2002-05-06, 20:33:14
Mal ne ganz doofe Frage.

Wieso haben die jetzt eigentlich schon die "genauen" Daten des Chips bekanntgegeben? Schließlich dauert das ja noch über ein halbes Jahr mit der "Veröffentlichung" Auch wenn man so einen Chip nicht in der Mittagspause entwicklet, sind die anderen Herstller ja vorgewarnt was auf sie in nächster Zeit zukommt.

Ist die Sache mit dem Kacheln der Texturen im P10 ähnlich wie das des Flippers im GC, oder vergleichbar?

Ist eigentlich OT, aber trotzdem:
Könnte mir bitte jemand den Begriff "Tiler" genau erkären, so ganz versteh ich das nicht. Danke

[ncp]EasyChiller
2002-05-06, 21:16:19
Originally posted by Karümel
Mal ne ganz doofe Frage.

Wieso haben die jetzt eigentlich schon die "genauen" Daten des Chips bekanntgegeben? Schließlich dauert das ja noch über ein halbes Jahr mit der "Veröffentlichung" Auch wenn man so einen Chip nicht in der Mittagspause entwicklet, sind die anderen Herstller ja vorgewarnt was auf sie in nächster Zeit zukommt.

Ist die Sache mit dem Kacheln der Texturen im P10 ähnlich wie das des Flippers im GC, oder vergleichbar?

Ist eigentlich OT, aber trotzdem:
Könnte mir bitte jemand den Begriff "Tiler" genau erkären, so ganz versteh ich das nicht. Danke

beim P10 steht Tiler nur für Zerlegen eines Bildes in 8*8Pixel große Abschnitte und diese werden dann Block für Block gerendert.

Ein echter "Tiler" steht für Tile-Based-Rendere - und ist hier:
http://www.mitrax.de/artikel/geschichte/tbr.pdf
eigentlich gut erklärt! (in englisch)

Greetz, Easy

StefanV
2002-05-06, 21:27:49
Originally posted by [ncp]EasyChiller
Ein echter "Tiler" steht für Tile-Based-Rendere - und ist hier:
http://www.mitrax.de/artikel/geschichte/tbr.pdf
eigentlich gut erklärt! (in englisch)

Beides sind 'echte' Tiler!

Nur ist das eine ein immidieate Renderer und das andere ein Tile Based Deffered Renderer...

[ncp]EasyChiller
2002-05-06, 21:36:01
Originally posted by Stefan Payne


Beides sind 'echte' Tiler!

Nur ist das eine ein immidieate Renderer und das andere ein Tile Based Deffered Renderer...

Jo, das kommt darauf an, ob mann mit "Tiler" eine einfachen Tiler meint oder eben einen "deffered Renderer" - für mich sind nur letzteres "echter" Tile-Based-Renderer! ;)

Richthofen
2002-05-07, 01:39:36
"
Wenn MS für DX9 fordert, daß alle Chips FP-Texturkoordinaten liefern, dann wird sich MS eben wundern. Das ist nämlich Unsinn. DirectX, in welcher Version auch immer, ist sowieso irrelevant.
"

Mag für dich irrelevant sein, für einen Spieleentwickler ist es das ganz sicher nicht.
2/3 der PC Spiele sind DirectX und nicht OpenGL und du vergisst hier eine Kleinigkeit.
Der größte Vertreiber von Computerspielen ist mittlerweile Microsoft, nachdem sie ja nun seid 2 Jahren gewaltig auf Einkaufstour waren.
DirectX ist genauso wichtig wie OpenGL auch.
Richtig vermarkten, bewerben und verkaufen lässt sich momentan nur DirectX weils halt von MS ist.
MS hat das OS Monopol für die Gamer und an dem kommst du nunmal nicht herum egal wie toll OpenGL ist.
Ich find beides prima und beides wirds auch weiterhin geben und beides wird von den ernsthaften und ambitionierten Herstellern in vollem Umfang unterstützt werden.

Ich wage mal die Vermutung, das wenn 2 Karten identische Leistungsdaten haben und identische Performance, sich die Karte besser verkauft, die sich 100% Microsoft DirecX9 kompatibel schimpfen darf, als die die 100% OpenGL 2.0 kompatibel ist.
Das nur nebenbei.

zeckensack
2002-05-07, 03:25:01
Richthofen,

Die Specs der DirectX-Versionen sind aber tatsächlich irrelevant. In den frühen DX-Zeiten haben die neuen Direct3D-Versionen noch eine Art Leitfunktion für die Industrie gehabt, indem sie Standards für alle 3D-Chips und Spieleentwickler gesetzt haben. Auch in der 3D-Steinzeit nicht immer ganz erfolgreich, mal ganz nebenbei.
Spätestens seit DX6 halten sich die Chiphersteller aber nicht mehr an die Direct3D-Vorgaben. Wir sind jetzt auf halbem Weg zu DirectX9 während der Marktführer nochmal neue Chips ohne EMBM, DOT3, Vertex Shader, Pixel Shader und ein paar andere (DX5-)Kleinigkeiten herausbringt. Dann haben wir noch Kyro 1/2, Radeon 7500, SiS315 und VIA ProSavage am Markt, die sich alle zu Recht mit "Supports DirectX8.1" schmücken. Die Vorgaben sind eben so lasch.
Warum sollte sich 3DLabs jetzt ans Bein pinkeln, nur weil sie eine IMHO völlig absurde Teilvoraussetzung für DX9-Compliance nicht erfüllen können?

Es kann einem Chiphersteller doch völlig Latte sein, was die nächste D3D-Version vorgibt.

Ich seh's schon kommen, zB dies hier könnte im nächstenn Frühjahr bei Mr Tom zu lesen sein:MS-Lakai Tom könnte das oder ähnliches schreiben
Der neue 3DLabs Chip ist aufgrund seiner weitgehenden Programmierbarkeit - zumindest oberflächlich betrachtet - ein wahres Wunderwerk an Zukunftssicherheit. Veröffentlicht Monate vor dem offiziellen Erscheinen von DirectX9 hat es 3DLabs durch ein simples Treiber-Update geschafft, alle neuen Effekte sofort zu unterstützen. 3DLabs zeigte sich außerdem zuversichtlich, auch kommende DirectX-Versionen voll unterstützen zu können. Nochmal zur Verdeutlichung: Die Nachfolgechips werden lediglich komplexe Dinge schneller lösen, die Funktionalität an sich wird weitgehend nicht erweitert werden müssen. Leider hat die Sache im Moment einen Haken:
DirectX9 fordert, daß alle Texturkoordinaten intern als Fließkommazahlen dargestellt werden. 3DLabs hielt dies für den P10 wohl für übertrieben, doch wir denken, daß dies ein Schwachpunkt ist. Sowohl ATI als auch NVIDIA haben Chips vorgelegt, die dieses Kriterium erfüllen.
Obwohl diese mit der nächsten DirectX-Version wieder zum alten Eisen gehören werden, während 3DLabs einfach alle neuen Effekte per Treiberupdate nachlegt, könnte diese Schwäche durchaus dazu führen, daß im Extremfall bis zu zwei Pixel pro Frame um bis zu 1% farblich danebenliegen. Dies können wir als in die Zukunft blickende Hardwareseite nicht gutheissen und müssen daher vom aktuellen 3DLabs-Chip generell abraten.

Sowas in der Art? Absurd, ne? ;)

StefanV
2002-05-07, 07:30:54
Ich verstehe den Sinn von der Nutzung von Fließkomma Daten gegenüber Festkomma Daten bei DX9 auch nicht soo ganz...

WAS soll das bringen??

Pussycat
2002-05-07, 10:46:47
Originally posted by zeckensack
Richthofen,

Die Specs der DirectX-Versionen sind aber tatsächlich irrelevant. In den frühen DX-Zeiten haben die neuen Direct3D-Versionen noch eine Art Leitfunktion für die Industrie gehabt, indem sie Standards für alle 3D-Chips und Spieleentwickler gesetzt haben. Auch in der 3D-Steinzeit nicht immer ganz erfolgreich, mal ganz nebenbei.
Spätestens seit DX6 halten sich die Chiphersteller aber nicht mehr an die Direct3D-Vorgaben. Wir sind jetzt auf halbem Weg zu DirectX9 während der Marktführer nochmal neue Chips ohne EMBM, DOT3, Vertex Shader, Pixel Shader und ein paar andere (DX5-)Kleinigkeiten herausbringt. Dann haben wir noch Kyro 1/2, Radeon 7500, SiS315 und VIA ProSavage am Markt, die sich alle zu Recht mit "Supports DirectX8.1" schmücken. Die Vorgaben sind eben so lasch.
Warum sollte sich 3DLabs jetzt ans Bein pinkeln, nur weil sie eine IMHO völlig absurde Teilvoraussetzung für DX9-Compliance nicht erfüllen können?

Es kann einem Chiphersteller doch völlig Latte sein, was die nächste D3D-Version vorgibt.

Ich seh's schon kommen, zB dies hier könnte im nächstenn Frühjahr bei Mr Tom zu lesen sein:

Sowas in der Art? Absurd, ne? ;)

Ist eher ironisch gemeint glaub' ich...

zeckensack
2002-05-07, 10:56:50
Originally posted by Pussycat


Ist eher ironisch gemeint glaub' ich... Nix Ironie. Ich habe hier eine Kristallkugel, die mir die Zukunft zeigt. Genau das wird auf THG zu lesen sein.

StefanV
2002-05-07, 13:21:11
Originally posted by Pussycat
Ist eher ironisch gemeint glaub' ich...

Nein, das war ernst gemeint...

Einige Typen (insbesondere bei THG) haben keine Peilung von Hardware...

Schlecht ist es, wenn ein Produkt etwas nicht kann (was eine NV Karte kann)...

Tomp
2002-05-07, 18:35:40
Originally posted by Stefan Payne


Nein, das war ernst gemeint...

Einige Typen (insbesondere bei THG) haben keine Peilung von Hardware...

Schlecht ist es, wenn ein Produkt etwas nicht kann (was eine NV Karte kann)...


Naja, ich würde nicht unbedingt behaupten, dass der Typ keine Peilung von Hardware hat. Der hat bloß manchmal das Problem, dass er sich zu sehr auf eine Sache einschießt.

MadManniMan
2002-05-07, 23:56:24
mich würden mal die defizite von integer-pixel-shadern anhand von alltagstauglichen screenies interessieren...

achja, nur so nebenbei: schön, wieder im forum zu sein! :naughty:

Quasar
2002-05-08, 00:02:00
Originally posted by zeckensack
3XXx-Lakai xxxx könnte das oder ähnliches schreiben
Der neue 3DLabs Chip ist aufgrund seiner weitgehenden Programmierbarkeit - zumindest oberflächlich betrachtet - ein wahres Wunderwerk an Zukunftssicherheit. Veröffentlicht Monate vor dem offiziellen Erscheinen von DirectX9 hat es 3DLabs durch ein simples Treiber-Update geschafft, alle neuen Effekte sofort zu unterstützen. 3DLabs zeigte sich außerdem zuversichtlich, auch kommende DirectX-Versionen voll unterstützen zu können. Nochmal zur Verdeutlichung: Die Nachfolgechips werden lediglich komplexe Dinge schneller lösen, die Funktionalität an sich wird weitgehend nicht erweitert werden müssen. Leider hat die Sache im Moment einen Haken:
DirectX9 fordert, daß alle Texturkoordinaten intern als Fließkommazahlen dargestellt werden. 3DLabs hielt dies für den P10 wohl für übertrieben, doch wir denken, daß dies ein Schwachpunkt ist. Sowohl ATI als auch NVIDIA haben Chips vorgelegt, die dieses Kriterium erfüllen.
Obwohl diese mit der nächsten DirectX-Version wieder zum alten Eisen gehören werden, während 3DLabs einfach alle neuen Effekte per Treiberupdate nachlegt, könnte diese Schwäche durchaus dazu führen, daß im Extremfall bis zu zwei Pixel pro Frame um bis zu 1% farblich danebenliegen. Dies können wir als in die Zukunft blickende Hardwareseite nicht gutheissen und müssen daher vom aktuellen 3DLabs-Chip generell abraten.

Mir würde da glatt noch jemand einfallen, der sowas schreiben könnte. Allerdings in einer anderen Firmenkonstellation!

[ncp]EasyChiller
2002-05-08, 04:06:44

StefanV
2002-05-08, 12:27:01
Originally posted by Tomp
Naja, ich würde nicht unbedingt behaupten, dass der Typ keine Peilung von Hardware hat. Der hat bloß manchmal das Problem, dass er sich zu sehr auf eine Sache einschießt.

Dann schau dir mal die Reviews zur Voodoo3 oder Voodoo5 an...

Wie sehr die Voodoos damals mit Features niedergemacht wurden, die sich nicht hatten und damals auch nicht brauchten...

Das beste Beispiel dürften 32bit Rendering und TnL sein...

Ersteres ist bei Voodoos nicht ganz so wichtig, da der 16bit Modus alle anderen Karten schlägt und sehr nahe an 32bit rankommt.

Letzteres ist, wie wir heute wissen, vollkommener Schwachsinn, außerdem kann nur die CPU etwas entlasten.
Allerdings gibt es kaum 'richtige' TnL Games, bei denen das fehlen spürbar wäre...

ERGO:

Manche haben einfach keinen durckblick und können nicht zwischen Features unterscheiden, die nix bringen und welchen, bei dem das Vorhandensein egal ist.

Sicher, eine VOodoo3 kann kein 32bit, aber damals war der 32bit Modus eh nur eine 'nette dreingabe' und alle Welt hat auf 16bit gezockt, weil 32bit zu lahm war, der 32bit Modus hat sich erst mit den DDR Karten durchgesetzt...

ow
2002-05-08, 12:30:21
Aha, Mr. Payne entscheidet mal wieder darueber, welche Features ein Grafikchip braucht und was man seinen Kunden ruhig vorenthalten darf.
Da kann ich nur lachen.
Ich nehme mal an, dass man AF auch nicht braucht, sonst haetten die Voodoos das ja...*LOL*

StefanV
2002-05-08, 12:41:46
Originally posted by ow
Aha, Mr. Payne entscheidet mal wieder darueber, welche Features ein Grafikchip braucht und was man seinen Kunden ruhig vorenthalten darf.
Da kann ich nur lachen.
Ich nehme mal an, dass man AF auch nicht braucht, sonst haetten die Voodoos das ja...*LOL*

Kannst du auch mal sinnvolle Kommentare auf meine Postings abgeben??

Das TnL ein Marketing GAG war, DAS dürften jetzt wohl alle wissen, oder??

Und WANN hat sich denn AF durchgesetzt??

Zu Voodoo Zeiten??

Oder war 3DFX damals schon 1 Jahr pleite??

Tomp
2002-05-08, 13:30:13
Originally posted by ow
Aha, Mr. Payne entscheidet mal wieder darueber, welche Features ein Grafikchip braucht und was man seinen Kunden ruhig vorenthalten darf.
Da kann ich nur lachen.
Ich nehme mal an, dass man AF auch nicht braucht, sonst haetten die Voodoos das ja...*LOL*

Dann nenn mir doch mal ein Beispiel, wofür man TnL braucht, oder wo es wirklich etwas bringt. Die Voodoo5 sind damals runtergemacht worden, weil sie ja nur AA konnten. Komischerweise reden jetzt alle auf einmal von AA und keiner von DX7 TnL.

Xmas
2002-05-08, 13:41:47
Originally posted by Stefan Payne
Das TnL ein Marketing GAG war, DAS dürften jetzt wohl alle wissen, oder??
Nein.

Und bei mir hat sich der 32-Bit Modus schon vor DDR-RAM durchgesetzt...

Simon Moon
2002-05-08, 13:52:54
Originally posted by ow
Aha, Mr. Payne entscheidet mal wieder darueber, welche Features ein Grafikchip braucht und was man seinen Kunden ruhig vorenthalten darf.
Da kann ich nur lachen.
Ich nehme mal an, dass man AF auch nicht braucht, sonst haetten die Voodoos das ja...*LOL*

öh... bsp. War vor etlichen Jahren. Hatte ne Elsa (RIP) mit Voodoo (RIP) Banshee Chip drauf. Diese unterstützte eine Maximale auflösung von 1600*1200. Ich hatte aber damals nen 15" Monitor der mir 1024*768 in augenfreundlichen 60Hz anzeigte.
Nun die Frage, was brachte mir die maximale Auflösung? -> Nix. Weil ich sie nicht nutzen konnte. Hier ists eben 32Bit (btw. 3dfx hatte ja noch nen 22Bit Filter und 32Bit zeigt ja sowieso nur 24Bit Farben an) das man damals noch nicht sinnvoll nutzen konnte. Oder TnL das mir nie wirklich was gebracht hat (-> von MX auf Kyro2 umgestiegen).

ow
2002-05-08, 13:55:35
Originally posted by Stefan Payne


Kannst du auch mal sinnvolle Kommentare auf meine Postings abgeben??

Das TnL ein Marketing GAG war, DAS dürften jetzt wohl alle wissen, oder??

Und WANN hat sich denn AF durchgesetzt??

Zu Voodoo Zeiten??

Oder war 3DFX damals schon 1 Jahr pleite??


Kannst DU ueberhaupt noch was sinnvolles posten?

Frag mal u.a. die OGL Profis, was sie von T&L halten.
Seltsamerweise haben heute alle Karten HW T&L, obwohl es deiner Meinung nach nur ein Marketing Gag war.
Kannst du das mal erklaeren?
Oder soll hier nur wieder der Technologie-Fueher runtergemacht werden, weil er als ERSTER T&L auch auf Konsumerkarten im Angebot hatte?

Schreib doch bitte an ATi, Matrox u. 3DLabs ne Mail und bitte sie T&L aus ihren Chips zu entfernen, weil du es nur fuer einen Marketing Gag haeltst und das nicht haben moechtest. Vielleicht folgen die deiner 'Argumentation' ja.

ow
2002-05-08, 13:56:52
Originally posted by Tomp


Dann nenn mir doch mal ein Beispiel, wofür man TnL braucht, oder wo es wirklich etwas bringt.


Was ist besser:

10Mio Polygone zu transformieren und beleuchten bei 100% CPU-Last oder dasselbe bei nur 30% CPU-Last zu erreichen??

ow
2002-05-08, 13:59:16
Originally posted by Xmas


Und bei mir hat sich der 32-Bit Modus schon vor DDR-RAM durchgesetzt...


Bei mir auch. Bin alter 3dlabs Permedia2-Geschaedigter.:D
Da kann man nur 32Bit nutzen weil 16(15)Bit einfach grauenvoll aussieht.

ow
2002-05-08, 14:04:46
Originally posted by El-Diablo


öh... bsp. War vor etlichen Jahren. Hatte ne Elsa (RIP) mit Voodoo (RIP) Banshee Chip drauf. Diese unterstützte eine Maximale auflösung von 1600*1200. Ich hatte aber damals nen 15" Monitor der mir 1024*768 in augenfreundlichen 60Hz anzeigte.
Nun die Frage, was brachte mir die maximale Auflösung? -> Nix. Weil ich sie nicht nutzen konnte. Hier ists eben 32Bit (btw. 3dfx hatte ja noch nen 22Bit Filter und 32Bit zeigt ja sowieso nur 24Bit Farben an) das man damals noch nicht sinnvoll nutzen konnte. Oder TnL das mir nie wirklich was gebracht hat (-> von MX auf Kyro2 umgestiegen).


Die max. Aufloesung kannst du auch heute noch auf KEINEM Chip sinnvoll nutzen. Und das war schon immer so.

16Bit war vielleicht zu V1 Zeiten ertraeglich.
Alle nach dem TNT erschienenen Grafikchips konnten 32Bit, ausser 3dfx natuerlich. Und seltsamerweise gibt es alle diese Firmen noch, ausser 3dfx natuerlich.
Nicht unser S. Payne entscheidet was man braucht, sondern die Masse des Marktes. Und die wusste schon die Vorteile von 32Bit gg. 16Bit zu schaetzen.

StefanV
2002-05-08, 14:07:12
Originally posted by Xmas
Nein.

Und bei mir hat sich der 32-Bit Modus schon vor DDR-RAM durchgesetzt...

Bei mir auch...

Hatte auch damals eine G400, da wars mehr oder minder egal, ob ich 16bit oder 32bit nehme *eg*

Aber bei der Breiten masse war es erst ab den DDR Karten, da man sonst zuviel Performance verloren hat...

@ow

3DCenter ist eine Benchmarking Seite, die mit SPIELEN benchmarkt!!

Wenn einer sagt, daß das nix bringt, dann kommst du gleich mit deinen CAD Anwendungen, was wohl kaum jemanden interessieren dürfte...

Dann nenne mir doch mal ein SPIEL, das von TnL WIRKLICH Profitiert hat!!

Ich kenne keins, wo das mehr als ein paar FPS gebracht hat...

ow
2002-05-08, 14:13:53
Originally posted by ow



Was ist besser:

10Mio Polygone zu transformieren und beleuchten bei 100% CPU-Last oder dasselbe bei nur 30% CPU-Last zu erreichen??


ALLE Spiele profitieren von HW T&L wie du siehst.

Simon Moon
2002-05-08, 14:24:46
Originally posted by ow



Die max. Aufloesung kannst du auch heute noch auf KEINEM Chip sinnvoll nutzen. Und das war schon immer so.

16Bit war vielleicht zu V1 Zeiten ertraeglich.
Alle nach dem TNT erschienenen Grafikchips konnten 32Bit, ausser 3dfx natuerlich. Und seltsamerweise gibt es alle diese Firmen noch, ausser 3dfx natuerlich.
Nicht unser S. Payne entscheidet was man braucht, sondern die Masse des Marktes. Und die wusste schon die Vorteile von 32Bit gg. 16Bit zu schaetzen.

Es konnten auch alle nach TNT2 TnL... ausser Kyro2 natürlich... scheisse... Imgtech gibts ja noch.
Das Problem bei 3Dfx war nicht so sehr die Technik, sondern das miese Marketing und der Aufkauf von STB bzw. der Entscheid Grakas selbst zu produzieren.
Dadurch das das Marketing nicht wirklich wirksam war und im Laden vielleicht neben etlichen GeForce Karten irgendwo ganz versteckt auch mal ne V5500 auftauchte... naja.

btw. die Masse des Marktes hört aufs Marketing. Bsp? Als die V5500 kam, wollten alle TnL und FSAA war nur ne Speed Bremse. Nun wollen alle FSAA weil es damit ja soo toll aussieht und TnL ist nach vielen die es hypten gestorben.
Und die Masse kauft fertig PC's in denen z.t. immer noch TNT2M64 Karten stecken, soll nVidia etwa die wieder in die Regale stellen??

Simon Moon
2002-05-08, 14:26:25
Originally posted by ow



ALLE Spiele profitieren von HW T&L wie du siehst.

Auch Civ 3?

MadManniMan
2002-05-08, 14:28:49
gesundheit!

ow
2002-05-08, 14:54:55
@El-Diablo

T&L gestorben??
Es wird kein Chip mehr ohne HW T&L erscheinen.
Also was soll das gestorben sein? Mittlerweile ist es Standard!

StefanV
2002-05-08, 14:55:19
Originally posted by ow
ALLE Spiele profitieren von HW T&L wie du siehst.

:rofl:

DER war gut!!!
KAUM ein Spiel Profitiert von TnL!!!


WAS soll denn TnL bei Games bringen??

Mehr Poligone und besseres Lightning anscheinend nicht...

StefanV
2002-05-08, 15:04:11
Originally posted by ow
T&L gestorben??
Es wird kein Chip mehr ohne HW T&L erscheinen.
Also was soll das gestorben sein? Mittlerweile ist es Standard!

Ja, weil sich ein Chip ohne HW TnL nur schwer verkaufen lässt!!!

Nur ist es völlig Banane, ob ein Chip HW TnL hat oder nicht!!

Bei den Low Cost Chips macht man anscheinend wieder den Schritt zu SW TnL...

ow
2002-05-08, 15:52:28
Stefan


Ist der Unterschied zwischen einer leistungsfaehigen HW und einer lahmen SW Implementierung so schwer zu verstehen?

Vielleich sollte man den 3D Markt ganz aufgeben und in 10 Jahren dann die CPUs als Rasterizer nutzen, bis dahin sind die dafuer auch schnell genug.


Wozu brauchen wir Soundkarten, wenn die CPU das auch alles nebenbei mit erledigen kann? Wozu HW Modems?


Worin siehtst DU eigentlich den Vorteil einer Radeon bei DVD? Braucht man doch auch kein HW dafuer...

MadManniMan
2002-05-08, 15:55:31
naja, zwecklos isses sicherlich nich. immerhin war es der quasi-wegbereiter für vertex-shader und letztendlich fre programmierbare welche.

allerdings ist die liste der profitierenden spiele-apps arg kurz. wirklich sinnig ists imho momentan nur bei dungeon siege

Ganon
2002-05-08, 16:07:33
Also ich bin manchmal echt froh das ich ne T&L-Einheit (GF1DDR) hab! Mein P3@700 macht nicht gerade viele Polygone! Bei Black&White merk ich das! Wenn ich auf SoftwareT&L spiele ruckelt es ziehmlich stark (volle Details)!
Nehme ich HardwareT&L ruckelt es zwar auch (;)), aber nciht mehr ganz so stark und es ist spielbar (volle Details)!

Aber ist klar! Wer hier einen 1-2Ghz Prozessor hat der zieht aus T&L nicht gerade viel nutzen!

Simon Moon
2002-05-08, 16:53:39
Originally posted by ow
@El-Diablo

T&L gestorben??
Es wird kein Chip mehr ohne HW T&L erscheinen.
Also was soll das gestorben sein? Mittlerweile ist es Standard!

Gestorben als Hype. Und auf dauer wird es zwar in den Grakas bleiben aber wohl nicht mehr so verwendet werden. Die Zukunft geht eher in Richtung Vertex Shader (Was nicht heissen soll, der nun auch sicher ein Standart wird).

ow
2002-05-08, 17:46:10
Originally posted by Ganon


Aber ist klar! Wer hier einen 1-2Ghz Prozessor hat der zieht aus T&L nicht gerade viel nutzen!



Jein, meine GF2MX ist zwar unter SW T&L genauso schnell wie unter HW T&L auf meinem XP1700, aber die CPU -Last ist nicht dieselbe. Die CPU kann weitaus sinnvolleres tun als stupides T&L. Das kann und sollte man ruhig dafuer spezialisierter HW ueberlassen.


/edit: auf meinem K6-400 sieht das Verhaeltnis SW T&L zu HW T&L ganz anders aus. Dort ist HW T&L etwa doppelt so schnell bei fillrate limitierten Szenarien.

ow
2002-05-08, 17:49:48
Originally posted by El-Diablo


Die Zukunft geht eher in Richtung Vertex Shader (Was nicht heissen soll, der nun auch sicher ein Standart wird).


Klar geht die Zukunft Richtung VS, aber du kannst ja in der Entwicklung einer Technologie nicht mir der Zukunft anfangen!
VS ist die Weiterentwicklung von HW T&L.

Der groesste Teil der VS-geshaderten Vertices duerfte uebrigens auch in absehbarer Zukunft mit DX7 T&L 'geshadert' werden.

Wozu sollte ich denn beispielsweise auch die Level-Geometrie in Q3 mit komplizierten VS bearbeiten?

StefanV
2002-05-08, 17:55:46
Originally posted by ow
Stefan

Ist der Unterschied zwischen einer leistungsfaehigen HW und einer lahmen SW Implementierung so schwer zu verstehen?

Vielleich sollte man den 3D Markt ganz aufgeben und in 10 Jahren dann die CPUs als Rasterizer nutzen, bis dahin sind die dafuer auch schnell genug.

Wozu brauchen wir Soundkarten, wenn die CPU das auch alles nebenbei mit erledigen kann? Wozu HW Modems?

Worin siehtst DU eigentlich den Vorteil einer Radeon bei DVD? Braucht man doch auch kein HW dafuer...

1. eine lahme HW Implementierung ist aber dämlicher als eine schnellere SW Implementierung.
Siehe 3D Mark bei GF1 DDR.
Außerdem hat mein 2,13GHz P4 mächtig feuer unterm Arsch (2,13GHz waren noch nicht das letzte Wort *eg*).
Aber deine CAD Programme interessieren hier NIEMANDEN!!
Hier interessieren nur SPIELE und bei SPIELEN ist TnL schwachsinn, da es bei aktuellen CPUs kaum was bringt!!

2. Die SB Live/Audigy zieht mehr CPU Leistung als AC97 Sound.
HW (analog) Modems sind seit USB selten geworden...
Nur klingen 'richtige' Soundkarten wie meine 6Fire besser denn mancher Onboardsound, deshalb Sounkarten nehmen :P

3. weil die Radeon auch in Notebooks eingebaut wird und das MC und IDCT die Akkulaufzeit verlängert, bei heutigen Rechnern kann man drüber streiten. (das alles kann übrigens schon ein Rage 128, AFAIK hat ATI die ersten DVD Features in den Rage 2 eingebaut)
NICHT aber das adaptive Deinterlacing!!
Denn DAS kann man nicht per Software emulieren!!

Quasar
2002-05-08, 18:03:23
Originally posted by ow
Worin siehtst DU eigentlich den Vorteil einer Radeon bei DVD? Braucht man doch auch kein HW dafuer...

Sehe ich auch so. Zu Zeiten der P2-300er war es mnöglicherweise sinnvoll, aber ob ich heute beim DVD-schauen eine CPU-Last von 15% oder von mir aus auch 50% erzeuge, ist nebensächlich, da hier die CPU nichts nebenbei zu tun hat.

zeckensack
2002-05-08, 18:10:44
Originally posted by Quasar


Sehe ich auch so. Zu Zeiten der P2-300er war es mnöglicherweise sinnvoll, aber ob ich heute beim DVD-schauen eine CPU-Last von 15% oder von mir aus auch 50% erzeuge, ist nebensächlich, da hier die CPU nichts nebenbei zu tun hat. Also irgendwie seh' ich da schon das gleiche Problem wie Stefan, Interlacing lüppt nur mit HW-Support. Kannst ja mal versuchen, im Player von FlaskMPEG kann man Interlacing frei einstellen, viel Spaß. Teilweise geht's da bei mir doch arg in die Knie. Hab jetzt die genauen Zahlen nicht im Kopf, schätze aber so um die 5-10fps.

Quasar
2002-05-08, 18:22:13
Stefan? Wieso, was sagt der?

Eigentlich ist alles nur eine Frage der CPU-Leistung, da diese eigentlich recht flexibel ist, sollte sich so gut wie ALLES darauf emulieren lassen. Die Geschwindigkeit der emulation nimmt mit der CPU-Geschwindigkeit zu, und lt. Leonidas haben "wir" ja nächstes Jahr 3,5GHz-CPUs, so daß ein vernünftig geschriebener Algorhytmus ausreichende Leistung liefern sollte.

BTW, ist irgendwie dasselbe, wie mit HW-TnL, oder? Wenn da nicht die "absichtlich vermurksten" Software-Emulationen wären, würde alles deutlich flüssiger laufen, aber die Software-Hersteller sind ja eh alle gekauft. HW-De-Intelacing ist doch nur ein Marketing-Gag, den kein Mensch braucht.

Außer vielleicht denjenigen, die das dann über den ach so wundervollen TV-out ihrer Graka jagen, um sich den HQ-Content auf einem flimmrigen 34cm-Fernseher anzugucken und auch noch von DVD-Genuß schwatzen.


Aber interessieren würde mich der Player schon, hast du da eine URL oder ist das "The Playa"?

StefanV
2002-05-08, 18:53:25
@Quasar

In Games macht sich TnL kaum bemerkbar, auch senkt es die CPU Last nicht nennenswert.

IDCT und MC sind bei einem Desktop Chip ansichtssache, nicht aber Deinterlacing!!
Die Software Deinterlacing Verfahren, die in den Programmen (meist Weave und BOB) sind unbrauchbar, nur Hardware Deinterlacing (adaptives Deinterlacing) schaut besser aus.

Allerdings:

Bei einem Notebook Chips ieht die Sache Anders aus, da sind gutes IDCT und MC PFLICHT!!

DAS erhöht nämlich die Akkulaufzeit, was Tom ja eindrucksvoll bewiesen hat...

Pussycat
2002-05-08, 19:13:04
Originally posted by ow
Ich nehme mal an, dass man AF auch nicht braucht, sonst haetten die Voodoos das ja...*LOL*

WAS ist AF um himmelswillen?

StefanV
2002-05-08, 19:58:40
Originally posted by Pussycat
WAS ist AF um himmelswillen?

Anisotrope Filterung.

Diese Filter Art, die sich mit den DX8 Karten 'durchgesetzt' hat...

PS: gibts überhaupt DX8 Treiber für meine Voodoo 5??

zeckensack
2002-05-08, 21:37:38
Originally posted by Quasar
Aber interessieren würde mich der Player schon, hast du da eine URL oder ist das "The Playa"? Nee, was du meinst ist Divix-Zeug. Ich rede nur von FlaskMPEG. Das nutzt ja bekanntlich, externe Codecs, um Videos zu konvertieren, daher wahrscheinlich die Divix-Verwechslung.

Jedenfalls kann man sich mit dem Programm vorher die Videos auch anschauen, das ist dann ein Software-Decoder. Wenn du jetzt einen Interlaced-MPEG2-Stream hast (gibt's übrigens zum Teil auch ganz legal ;) ), dann schaut's halt ohne Interlacing scheiße aus, läuft aber recht flüssig.

Interlacing angeschaltet und die Qualität ist wieder in Ordnung, nur bricht dann jeder mir bekannte Rechner gnadenlos weg.

ow
2002-05-09, 08:34:56
Originally posted by Stefan Payne
@Quasar

In Games macht sich TnL kaum bemerkbar, auch senkt es die CPU Last nicht nennenswert.




Falsch.
Selbstverständlich wird die CPU Last ERHEBLICH gesenkt.
Nämlich um die enorme T&L Last.

ow
2002-05-09, 08:37:56
Originally posted by Stefan Payne


Anisotrope Filterung.

Diese Filter Art, die sich mit den DX8 Karten 'durchgesetzt' hat...

PS: gibts überhaupt DX8 Treiber für meine Voodoo 5??


Du meinst DX7.
AF ist seit DX6 Bestandteil der D3D Specs und in praktisch jedem DX7 Chip drin. Ausser den Voodoos. Savage2k weiss ich nicht.

ow
2002-05-09, 08:41:28
Originally posted by zeckensack
Nee, was du meinst ist Divix-Zeug. Ich rede nur von FlaskMPEG. ....

Interlacing angeschaltet und die Qualität ist wieder in Ordnung, nur bricht dann jeder mir bekannte Rechner gnadenlos weg.



Da könnte auch ein 'Fehler' in der SW-Implementierung des De-interlacing liegen. Hast du für andere Player auch solche Beobachtungen gemacht?

MadManniMan
2002-05-09, 10:00:31
Originally posted by ow



Du meinst DX7.
AF ist seit DX6 Bestandteil der D3D Specs und in praktisch jedem DX7 Chip drin. Ausser den Voodoos. Savage2k weiss ich nicht.

uh... da is wer sauer auf 3dfx...

gabs da nich nochwas, das ab dx6 genauso option war? war das nich was, das bei irgendsonem komischen gpu-hersteller erst mit den pixel-shadern einzug fand?

btw kam auch schon dx5 mit af klar

HOT
2002-05-09, 12:22:13
Originally posted by ow



Du meinst DX7.
AF ist seit DX6 Bestandteil der D3D Specs und in praktisch jedem DX7 Chip drin. Ausser den Voodoos. Savage2k weiss ich nicht.

Ist sogar im Savage4 drin :D
Aber leider zu langsam. Es gab 1-2 Treiberversionen, bei denen man es nutzen konnte.
Im S2k war es wie fast alle Feature buggy und unbrauchbar.

ow
2002-05-09, 12:25:12
Sauer auf 3dfx??? Wieso? Nur weil sie technologisch hinter allen anderen zurück waren? Mir doch egal.:D

Ausserdem, wer redet hier von Optionen der D3D Specs?

Das AF schon in DX5 drin ist, war mir neu. Hast du da eine Quelle dafür?


/edit: ok. AF ist schon in DX5, FSAA übrigens seit DX3.

StefanV
2002-05-09, 12:41:24
Originally posted by ow
Falsch.
Selbstverständlich wird die CPU Last ERHEBLICH gesenkt.
Nämlich um die enorme T&L Last.

ENORME TnL Last bei Games??

Ist das ernst gemeint??

Games nutzen idR nicht soo viele Poligone, als das sich TnL Bemerkbar machen würde.

Außerdem haben die aktuellen 1GHz+ CPUs genug Power, um das nebenbei zu erledigen...

Du hast mir immer noch kein SPEIL gezeigt, bei dem TnL was bringt!!

StefanV
2002-05-09, 12:44:02
Originally posted by ow
Du meinst DX7.
AF ist seit DX6 Bestandteil der D3D Specs und in praktisch jedem DX7 Chip drin. Ausser den Voodoos. Savage2k weiss ich nicht.

Schön, aber hats wer mit 'ner GF2 genutzt??
Denke eher nicht...

Breit durchgesetzt hat es sich erst mit GF3/Radeon 8k5...

ERGO:

Fehlen war zu verschmerzen.
Was VIEL schlimmer wiegt, ist, daß NV EMBM ignoriert hat!!
Denn DAS bringt auch eine Menge!!!

StefanV
2002-05-09, 12:46:43
Originally posted by HOT
Ist sogar im Savage4 drin :D
Aber leider zu langsam. Es gab 1-2 Treiberversionen, bei denen man es nutzen konnte.
Im S2k war es wie fast alle Feature buggy und unbrauchbar.

Kanns sein, daß das meine G400 auch kann??

Ceiser Söze
2002-05-09, 13:05:49
Der G400 war afaik der erste Consumer-Chip, welcher eine Art AF bot (ob es performancemässig auch drin lag, sei hier mal dahingestellt), daher habe ich auch hohe Erwartungen an die AF-Möglichkeiten von Parhelia...

Quasar
2002-05-09, 13:15:09
Wie aktiviert man dieses?

Thowe
2002-05-09, 14:46:59
Originally posted by Stefan Payne


Schön, aber hats wer mit 'ner GF2 genutzt??
Denke eher nicht...

Breit durchgesetzt hat es sich erst mit GF3/Radeon 8k5...

ERGO:

Fehlen war zu verschmerzen.
Was VIEL schlimmer wiegt, ist, daß NV EMBM ignoriert hat!!
Denn DAS bringt auch eine Menge!!!

Das funktioniert auch andersherum: Hat wer EMBM benutzt mit der Matrox?

EMBM bringt keine Menge, ist zwar nett, aber nichts im Vergleich zu den heute besseren Möglichkeiten. Während die anisotropische Filterung i.d.R. ohne Implementierung als Feature in die 3D-Engine überall etwas bringt. Kannst ja schon mal anfangen 10 Spiele aufzuzählen wo EMBM etwas "bringt" und anisotropische Filterung nichts.

Und ergo schreibt man nicht gross und hör auf zu schreien, das nervt.

Quasar
2002-05-09, 21:38:50
Ist EMBM auf den G400ern nicht irgendwie analog zum vielbemängelten 32Bit auf der TNT? Sieht nett aus, wurde damals eher selten verwandt und ist viel zu lahm?

Der 3DMark2k1-EBMB-Test spuckte auf einer G400 grade mal 13fps aus...

HOT
2002-05-10, 11:03:46
Auf meiner Kyro hab ich mal EMBM bei Drakan benutzt :D Das Wasser sah wirklich KLASSE aus.
Bei BI4 hingegen hat man leider nicht viel vom EMBM sehen können.

zeckensack
2002-05-10, 12:15:35
Ich kann mich noch recht deutlich erinnern, daß damals bei den ersten Präsentationen auch dem Riva TNT die Fähigkeit zur Anisotropen Filterung unterstellt wurde ...

ow
2002-05-11, 00:33:47
Originally posted by zeckensack
Ich kann mich noch recht deutlich erinnern, daß damals bei den ersten Präsentationen auch dem Riva TNT die Fähigkeit zur Anisotropen Filterung unterstellt wurde ...


Ja das ist so.
Es gibt sogar einen alten Deto (2.??) mit dem der TNT das tatsächlich hinbringt.

/edit: http://www.voodooextreme.com/lux3d/comparison.htm

oder einfach mal google nach "TNT anisotropic" befragen.

aths
2002-05-11, 01:38:32
ow,

so enorm ist die T&L-Last bei den gängigen PC-Spielen kaum. Sonst wäre man mit Voodoo5 oder Kyro2 erschossen.

ow
2002-05-11, 01:57:55
aths

Wie gross die T&L Last ist, spielt keine Rolle. Bei SW T&L bürde ich diese Last der CPU auf, durch HW T&L wird die CPU entlastet.
Je komplexer die Szene (Polygonmenge) desto höher die Last.

aths
2002-05-11, 02:18:27
ow,

natürlich spielt das eine Rolle. Je geringer die Polygonzahl, desto eher kommt man ohne T&L aus.

Quasar
2002-05-11, 02:32:20
Die Spiele haben in letzter Zeit aber ziemlich die Tendenz zu mehr Polys gezeigt....

Wenn sich endlich mal ein Publisher trauen würde, auf TnL-only-Basis zu proggen, könnten schöne Dinge dabei herauskommen, weil sich die CPU dann anderen Dingen widmen könnte.

Ja, ich weiß, das klingt stark nach nV-Marketing Geblubber, aber spielt mal Trespasser (das außer mir sicher niemand gekauft hat) und ihr werdet erahnenn, wie wertvoll eine funktionierende, realistische Physik-Engine für die Spieltiefe eines Games sein kann.

zeckensack
2002-05-11, 06:38:37
Originally posted by Quasar
Die Spiele haben in letzter Zeit aber ziemlich die Tendenz zu mehr Polys gezeigt....

Wenn sich endlich mal ein Publisher trauen würde, auf TnL-only-Basis zu proggen, könnten schöne Dinge dabei herauskommen, weil sich die CPU dann anderen Dingen widmen könnte.Das Problem ist, daß man mit T&L nach DX7/Basis-OpenGL nur für statische Geometrie richtig gut geeignet ist. Bei animierten Dingen wie Charakteren und im Wind schwingenden Gräsern muß man für jedes Frame die Daten bearbeiten. Dafür braucht man entweder Vertex Shader oder man nimmt halt die CPU.

Das tückische ist dabei, daß gerade bei Animation der optische Gewinn von hochaufgelöster Geometrie zum Tragen kommt, während es relativ sinnlos ist, 150k Polys auf Landschaft zu verblasen - wie bei Aquamark zB, dafür daß es so lahm ist, sieht's nicht toll aus -> Polygone verschwendet.

ZilD
2002-05-11, 08:20:53
und warum nehmen die dann nicht true form ?

source code währe dann ein 'low poly mesh'
die GPU rundet das ganze ding mit bestimmten 'befehlen' wo & was & wie stark nach.

somit hätten wir einen hardwaremässigen vorhandenen 'mesh rounder' und daher auch mehr polys ohne das die kiste in die knie geht.

zeckensack
2002-05-11, 09:21:21
Originally posted by ZilD
und warum nehmen die dann nicht true form ?

source code währe dann ein 'low poly mesh'
die GPU rundet das ganze ding mit bestimmten 'befehlen' wo & was & wie stark nach.

somit hätten wir einen hardwaremässigen vorhandenen 'mesh rounder' und daher auch mehr polys ohne das die kiste in die knie geht. Das fällt dann aber nicht mehr unter T&L nach DX7 ;)
Programmierbares T&L ist richtig cool. Erst damit kann man die CPU vernünftig entlasten. Das führt immer wieder dazu, daß Leute behaupten T&L-Einheiten seien sinnlos. Ich glaube das nicht, aber es ist halt schwer das zu beweisen, solange sich Spielentwickler gerade mal auf DX7-T&L 'einschießen'.

Tomp
2002-05-11, 11:19:19
Originally posted by zeckensack
Das Problem ist, daß man mit T&L nach DX7/Basis-OpenGL nur für statische Geometrie richtig gut geeignet ist. Bei animierten Dingen wie Charakteren und im Wind schwingenden Gräsern muß man für jedes Frame die Daten bearbeiten. Dafür braucht man entweder Vertex Shader oder man nimmt halt die CPU.

Das tückische ist dabei, daß gerade bei Animation der optische Gewinn von hochaufgelöster Geometrie zum Tragen kommt, während es relativ sinnlos ist, 150k Polys auf Landschaft zu verblasen - wie bei Aquamark zB, dafür daß es so lahm ist, sieht's nicht toll aus -> Polygone verschwendet.


Das seh ich auch so. Ich hab nie was von statischem TnL gehalten, erst mir Vertexshader wird es richtig interessant.

Quasar
2002-05-11, 11:56:49
Originally posted by zeckensack
Das Problem ist, daß man mit T&L nach DX7/Basis-OpenGL nur für statische Geometrie richtig gut geeignet ist. Bei animierten Dingen wie Charakteren und im Wind schwingenden Gräsern muß man für jedes Frame die Daten bearbeiten. Dafür braucht man entweder Vertex Shader oder man nimmt halt die CPU.

Das tückische ist dabei, daß gerade bei Animation der optische Gewinn von hochaufgelöster Geometrie zum Tragen kommt, während es relativ sinnlos ist, 150k Polys auf Landschaft zu verblasen - wie bei Aquamark zB, dafür daß es so lahm ist, sieht's nicht toll aus -> Polygone verschwendet.

Heyheyhey...bitte nicht ohne den Zusammenhang quoten!
Ich wollte nicht auf drastische Verbesserungen in der Grafik hinaus, sondern auf das Gamedesign, welches durch freie CPU-Zeit nur gewinnen kann!

Auch Levelgeometrie kann schon einigermaßen anspruchsvoll sein (je schlechter die Engine, dest anspruchsvoller die Lv-Geo...bislang jedenfalls).

zeckensack
2002-05-11, 14:37:58
Originally posted by Quasar
Heyheyhey...bitte nicht ohne den Zusammenhang quoten!Doch! *eg*
Ich wollte nicht auf drastische Verbesserungen in der Grafik hinaus, sondern auf das Gamedesign, welches durch freie CPU-Zeit nur gewinnen kann!Da sind wir uns absolut einig :)Auch Levelgeometrie kann schon einigermaßen anspruchsvoll sein (je schlechter die Engine, dest anspruchsvoller die Lv-Geo...bislang jedenfalls).Was eigentlich keine Performance-Probleme verursacht, wenn man einfach konsequent alles Richtung statischer T&L-Einheit schmeißt. Die meisten Spiele sind aber dann doch auf TNT2 oä 'optimiert' und vergeuden wertvolle Zeit auf 'dynamic terrain LOD' und anderes Rumgeschisse.

Wenn du jetzt Aquanox meintest, jau, sauschlecht :devil:

aths
2002-05-11, 15:02:41
Originally posted by Quasar
Die Spiele haben in letzter Zeit aber ziemlich die Tendenz zu mehr Polys gezeigt....

Wenn sich endlich mal ein Publisher trauen würde, auf TnL-only-Basis zu proggen, könnten schöne Dinge dabei herauskommen, weil sich die CPU dann anderen Dingen widmen könnte.

Ja, ich weiß, das klingt stark nach nV-Marketing Geblubber, aber spielt mal Trespasser (das außer mir sicher niemand gekauft hat) und ihr werdet erahnenn, wie wertvoll eine funktionierende, realistische Physik-Engine für die Spieltiefe eines Games sein kann.

Quasar,

T&L (nach DX7) beschleunigt vor allem statische Geometrie. Das ist mir nicht gut genug. Wenn schon, dann möchte ich exessiven VertexShader-Einsatz sehen. Verkürzt gesagt sehe das so: DX7 T&L an sich ist nur in Spezialfällen der wundersame Heilsbringer. Man kann ich aber auch als Wegbereiter für VS sehen. Wobei natürlich der VS 1.1 im Gegensatz zum 2.0-er auch wieder ziemlich bescheiden aussieht.

Du hast natürlich Recht, dass ein Spiel extra für T&L programmiert sein muss, um daraus Nutzen zu ziehen. Das automatische HW T&L in OpenGL beispielsweise bringt wenig, wenn die Engine darauf nicht optimiert ist.

Quasar
2002-05-11, 18:01:29
@Z-Bag:
Naja, aufgrund der großen Areale ist bei Aquanox wohl nicht so einfach, z.B. mit portalling zu arbeiten, was bei Indoor-Games mehr Sinn macht.

Aber das wäre eh alles wurscht, wenn man die Level-Geo der TnL übergeben würde und sich nachher gar net mehr drum kümmern müßte.

BTW, da fällt mir ein: Kennst du den nV15-Bunker?
So ein extremes Zusatzlevel für Quake 3...kann es sein, daß da das Portalling abgeschaltet wurde, um es künstlich ein wenig einzubremsen?

@aths:
Gut genug oder nicht, IMHO ist alles was uns potentiell bessere Games bringt (nicht nur von der Grafik her!) begrüßenswert. Und wenn ich die CPU um 15% entlaste, indem ich die GPU die stupide Levelarbeit machen laste, so kann ich diese 15% woanders hin investieren...und ich will KORREKTE PHYSIK-ENGINES!

Trespasser rulz!

Karümel
2002-05-11, 19:05:27
Bei Q3A kann man das Portalling meiner Meinung nicht abschalten, sondern nur weglassen. Sprich während des Mappens einfach alle Hint- und Areaportale weglassen, evtl. noch alle kleinen und nicht zu Levelbegrenzung gehörigen Brushes nicht zu Detailbrushes machen und schon sackt die Performance in den Keller.

Quasar
2002-05-11, 19:30:57
Kennst du den nV15-Level?

Klingt fast so, als könnte deine Beschreibung zutreffen...

Karümel
2002-05-12, 09:54:35
Die NV 15 Map kenn ich nicht, ich weiß nur das das ne Map ist die sehr viele Brushes hat.
Bei den "normalen" Q3A Maps sollte die Anzahl der von der Engine zu berechnenden Polygone eigentlich nicht über 8000 steigen, da aber pro Spielfigur 800 Polygone hinzukommen, ist das nur ein ungefährer Wert, der sich dann je nach Anzahl der Modells sehr verändern kann, je nach Anzahl der Spieler im Sichtfeld.
Aber wenn ich mir ne andere Map mir sehr vielen Polygonen anschaue, z.B. Ente´s PADShop, dort kommt man auf knapp 19000 Polygone ohne Player (nur Geometrie und Items) und so ähnlich wird das wohl auch bei den NV 15 Level sein.

Legolas
2002-05-12, 13:10:26
Mit /r_novis 1 kann man die 'Sichtbarkeitsberechnungen' der Q3A Engine abschalten. Allerdings muss man dazu /sv_cheats auf 1 setzen.

Karümel
2002-05-12, 14:13:42
Öhm was macht r_novis eigentlich genau?

Ich kenn nur r_speeds um mir die Polygone anzeigen zu lassen

zeckensack
2002-05-12, 23:53:57
Originally posted by Karümel
Öhm was macht r_novis eigentlich genau?

Ich kenn nur r_speeds um mir die Polygone anzeigen zu lassen Mit r_novis 1 kann man das Software-Culling komplett abschalten, dh, daß dann nicht nur die Teile des Levels an die Graka gehen, die zumindest teilweise sichtbar sind, sondern alles.

DR.DEATH
2002-05-13, 00:43:37
@ Quasar

jo in ne Physic Engine stecken das waere gut

Aber ich hoffe mal du meinst Trespasser nur so aus Witz oder ?
Das Spiel und ne realistische Engine ? ROFL
Mal schauen was wir zur naechsten LAN Party wieder an Bugs ( Polygonverzerrungen, Gewichtsbugs usw. ) rausfinden.
Das Spiel hat ja mehr Bugs als Windows:D. ( schwer vorzustellen )

Quasar
2002-05-13, 00:51:53
Nee, das Game hat nichtmal soviele Zeiche Sourcecode, wie Windows Bugs hat -> kann's nicht so viele Bugs haben ;)

Aber mir hat das Game wirklich extrem gut gefallen, auch wenn's ein wenig Buggy war (btw, mit GeForce keinen einzigen Absturz gehabt ;)).

Der Ansatz, die Physik-Engine als Basis für diverse Puzzles oder alternative Lösungswege zu nutzen, anstatt sich durchzuballern, allein war den Kaufpreis wert!

ZilD
2002-05-13, 01:45:32
also ich kenn die ganzen functions nur aus soft image 3d und 3d studio max (kotz *g*)

na gut 3d max ist sowieso schrott..

also in soft image haste die parablen für point to point oder 'area' rounding, wenn jetzt die software das vorhandene mesh roundet dann wird dadurch je nach parameter ein neues 'teilmesh' errechnet.
bei guten programmen funktioniert das , bei schlechten programmen kommt meist irgendwas raus was dein restliches mesh zerstört (3d studio max *fg*)

wenn ich jetzt angenommen was programmiere (kann ich nicht , aber ist ja egal *g*) was genaus diese point to point oder area rounding 'hardwaremässig' unterstützt .. könnten sich spielentwickler in zukunft quasi das low poly modelling ersparen.
sie könnten voll loslegen..
das zeug müsste natürlich mit allen anderen functions harmonisieren...

hmm

[fu]121Ah
2002-05-13, 13:17:29
Originally posted by Stefan Payne


Anisotrope Filterung.

Diese Filter Art, die sich mit den DX8 Karten 'durchgesetzt' hat...

PS: gibts überhaupt DX8 Treiber für meine Voodoo 5??

also offiziell gibt es dx8 treiber von 3dfx. (die 1.04.0x)

übrigens, ein team von programmieren sagen, dass sie den source für die treiber haben. sie wollen ein neues ICD machen, welches auch AF unterstützt. der vsa müsste das nämlich anscheinend können. (quantum3d gibt das zumindest bei der aalchemy familie auch an!)

pub43.ezboard.com/bx3dfx

für alle die das board mal durchsuchen wollen... dort hats auch screenshots von AF usw...

zeckensack
2002-05-13, 17:57:03
Ich hab's gewußt ...Meine Kristallkugel
MS-Lakai Tom könnte das oder ähnliches schreiben
Der neue 3DLabs Chip ist aufgrund seiner weitgehenden Programmierbarkeit - zumindest oberflächlich betrachtet - ein wahres Wunderwerk an Zukunftssicherheit. Veröffentlicht Monate vor dem offiziellen Erscheinen von DirectX9 hat es 3DLabs durch ein simples Treiber-Update geschafft, alle neuen Effekte sofort zu unterstützen. 3DLabs zeigte sich außerdem zuversichtlich, auch kommende DirectX-Versionen voll unterstützen zu können. Nochmal zur Verdeutlichung: Die Nachfolgechips werden lediglich komplexe Dinge schneller lösen, die Funktionalität an sich wird weitgehend nicht erweitert werden müssen. Leider hat die Sache im Moment einen Haken:
DirectX9 fordert, daß alle Texturkoordinaten intern als Fließkommazahlen dargestellt werden. 3DLabs hielt dies für den P10 wohl für übertrieben, doch wir denken, daß dies ein Schwachpunkt ist. Sowohl ATI als auch NVIDIA haben Chips vorgelegt, die dieses Kriterium erfüllen.
Obwohl diese mit der nächsten DirectX-Version wieder zum alten Eisen gehören werden, während 3DLabs einfach alle neuen Effekte per Treiberupdate nachlegt, könnte diese Schwäche durchaus dazu führen, daß im Extremfall bis zu zwei Pixel pro Frame um bis zu 1% farblich danebenliegen. Dies können wir als in die Zukunft blickende Hardwareseite nicht gutheissen und müssen daher vom aktuellen 3DLabs-Chip generell abraten.Und jetzt das hier (http://www.computerbase.de/article.php?id=90):Matrox' neuestes Kind war eigentlich als einer der ersten Direct X 9 Chips gehandelt worden, bevor 3DLabs vor kurzem ihren Beinahe- DirectX-9-Chip P10 vorstellten.
Beinahe deswegen, weil einige Schlüsselfunktionen noch nicht zur Gänze erfüllt worden sind, wie zum Beispiel eine durchgehende Pipeline, die mit Fließkommagenauigkeit arbeitet und erst am Ende das Ergebnis bei Bedarf auf ein Integerergebnis herunterrechnet. Sehen wir uns also zunächst kurz einige Erfordernisse von DirectX-9 an.
Wie schon angesprochen, sind für DirectX9-Compliance, also vollständige Erfüllung der Spezifikation, Werte in Fließkommagenauigkeit unerläßlich, da sogar das 32Bit-Rendering langsam aber sicher an seine Grenzen zu stoßen scheint. blablabla...

Quasar
2002-05-13, 18:34:44
Zeckensack, leihst du mir mal deine Kristallkugel?

Ich will schauen, wann das erste DX9-only Game kommt ;)

Doomtrain
2002-05-13, 19:15:31
Originally posted by Quasar
Zeckensack, leihst du mir mal deine Kristallkugel?

Ich will schauen, wann das erste DX9-only Game kommt ;)

AbraKadabra, ich sehe eine Zahl......... ich sehe 2005!!!

Quasar
2002-05-13, 19:17:39
Du sollst doch nicht spammen!

Doomtrain
2002-05-13, 19:26:23
Originally posted by Quasar
Du sollst doch nicht spammen!

Du doch auch nicht!! Ach spammen ist cool

Karümel
2002-05-22, 19:47:14
Da der Chip programierbar ist, könnte es doch auch bedeuten das 3DLabs, für unterschiedlich Anforderngen auch unterschiedliche Treiber anbietet.
Sprich optmierte Treiber für z.B. CAD oder Grafikanwendungen, oder sogar optimierte Treiber für OpenGl oder D3D, evtl. sogar für einzelne Engines. Wo man denn je nachdem was gerdae macht bzw. spielt zwischen den Teibern "umschaltet"
Wäre das möglich oder denkbar?

Demirug
2002-05-22, 20:06:02
Originally posted by Karümel
Da der Chip programierbar ist, könnte es doch auch bedeuten das 3DLabs, für unterschiedlich Anforderngen auch unterschiedliche Treiber anbietet.
Sprich optmierte Treiber für z.B. CAD oder Grafikanwendungen, oder sogar optimierte Treiber für OpenGl oder D3D, evtl. sogar für einzelne Engines. Wo man denn je nachdem was gerdae macht bzw. spielt zwischen den Teibern "umschaltet"
Wäre das möglich oder denkbar?

Möglich ist das schon aber ob es wirklich sinnvoll ist steht auf einem anderen blatt.

Es wäre auch zuviel von 3dlabs verlangt bei jedem Spiel zu prüfen wie man die Karte ideal programmieren mus damit die Leistung optimal ist.

Am Ende stelt sich noch die Frage wieviel Spieler sind bereist für jedes Spiel den Treiber zu wechseln.

Resüme:
Zu Aufwendig und teuer für 3dlabs.
Minimaler Nutzen
Zu Kompliziert für die meisten Nutzer wenn es nicht automatisiert wird.

zeckensack
2002-05-22, 21:22:01
Die Sache mit den 'auf eine Anwendung optimierten' Treibern schmeckt mir sowieso nicht.

Entweder ein Treiber unterstützt die jeweilige API, oder eben nicht. Wenn ein Spiel lahm ist und das andere schnell, dann kann das höchstens daran liegen, daß Features oder Kombinationen von Features genutzt werden, die die Treiberprogger bisher nicht richtig ernstgenommen haben.

Endziel sind doch Treiber, die alle Möglichkeiten einer API so schnell wie möglich und so allgemeingültig wie möglich (also Fehlerfrei) ausführen. Letzteres macht ersteres komplizierter, da könnte ich euch echt einen vom Pferd erzählen, nach all den Sachen, die ich schon an meinem Glide-Wrapper rummurksen mußte, um gute Performance ohne Grafikbugs zu kriegen ... ich fühl' mich irgendwie momentan auch wie ein Treiberprogger ...

Beispiel: OpenGL erlaubt keine direkten Framebuffer-Zugriffe (DX8 anscheinend auch nicht mehr ...). Glide aber sehr wohl. Mehrere aufeinanderfolgende LFB-Zugriffe kann man wunderbar cachen, in einigen Spielen (MDK ...) läßt sich die Performance dadurch locker vervierfachen. Man sollte aber tunlichst darauf achten, diesen Cache auszuleeren, sobald wieder Dreiecke gemalt werden, sonst geht alles den Bach runter ...

Ziel der Optimierung sollte es sein, daß der Treiber die notwendigen Umwege nur dann beschreitet, wenn sich sonst Fehler ergeben würden.

Demirug
2002-05-22, 21:35:02
@Zeckensack:

Full Ack

Ich dachte Karümel ging es vorallem un die technische Machbarkeit.

Was den Zugriff auf den Framebufferangeht. Das hängt ein bischen von der Grafikkarten Treiber ab. Aber selbst wenn es geht ist das aus Performancegründen nicht zu empfehlen.

Karümel
2002-05-23, 18:04:12
Originally posted by Demirug
@Zeckensack:

Ich dachte Karümel ging es vorallem un die technische Machbarkeit.



Erstmal Danke für die Antwort..

mir ging/geht es zum einen um die technische Machbarkeit, zum anderen auch um den wirklichen Nutzen des programierbaren Chips.
Aus Spaß haben die sich das ja bestimmt nicht ausgedacht, die müssen ja davon ausgehen das diese Feature auch genutzt wird. Sprich es müssen Anwendungen auch extra dann für diese Karte, ich sag mal optimiert werden. Nur frage ich mich wer dann dafür verantwortlich sein wird. Das optimeren für bestimmte Engines war wahrscheinlich etwas hochgegriffen, aber was ist mit prof. Bildbearbeitung und CAD?
Sollen die Hersteller der Programme extra ihre Produkte für diese eine Karte erweitern bzw. anpassen. So da z.B. die Berechnung schneller läuft, oder wasweißich was alles möglich ist.
Ich möchte auf folgendes hinaus: Da die Karte ja High-End sein wird und bestimmt nicht gerade billig, wird auch die Verbreitung der Karte nicht gerade sehr groß sein. Deswegen bezweifel ich das die Hersteller von Anwendungssoftware, extra für eine kleine Gruppe von usern, ihre Programme erweitern. Deswegen bin ich auf die Idee gekommen das es verschiedene Treiber vom 3DLabs geben könnte.
Die programierbarkeit des Chips ist doch die größte Stärke des Chips, aber was bringt das wenn es nicht vernünftig genutzt wird.

Demirug
2002-05-23, 18:19:27
@Karümel:

Wie du schon gemerkt hast macht es bei Spielen im Moment nicht viel sinn die Programmierbarkeit der Karte zu nutzen.

Für den Profi Bereich hat 3dLabs extra eine neue Version von OpenGL vorgeschlagen mit der man die Karte voll ausnutzen kann.