PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Radeon2 vs GeForce3


Dr.Snuggles
2001-08-16, 21:19:20
Hallo Leutz!!!
Geht euch das Geplänkel zwischen der Radeon2 und der GeForce3 nicht auf die Nerven?
Ist mir doch Scheißegal ob die Radeon2 ein paar Frames mehr darstellt als die GeForce3.Ich weiß nur, daß die GeForce3 der Grafikkarten-Standard ist und bleibt.
Bitte Postet eure Meinung!
AMD Athlon 1200@1333
Abit KT7
Elsa Gladiac 920 230\540

PrimeTime
2001-08-16, 21:35:41
Stimmt, leider ist die Gf3 der Standart. Aber erst einmal abwarten, bis die ganzen Features der GF3 benutzt werden. Bei Nvidia war es bis jetzt ja immer so, das die ersten Karten mit neuen Features dann zu langsam wurden, als diese benutzt wurden (Komischer Satzbau, ich weiss. Hier sind Beispiele: 32Bit,Grosse Texturen auf TNT bis GF1, T&L auf GF1).
Also mal sehen wie sich die GF3 schlägt wenn die Shader usw. benutzt werden. Und als Geheimtipp schwebt ja immer noch die Kyro3 in der Luft. Falls die ganzen Gerüchte stimmen könnte diese Karte ein absoluter Überflieger werden.

StefanV
2001-08-16, 21:37:05
Bei gleichem Takt mag die GF3 zwar schneller sein, aber wenn der Preis bei beiden gleich ist, dann bietet die R200 VIEL Mehr als die GF3...

Ich will hier garnicht auf die Spielefeatures eingehen (Truform wird sicher massig Unterstützung finden)...

Was bietet die R200, was die G3 nicht kann:

Gute Dual Monitor Untestützung...
DVD Features...

PS: es gibt auch noch Leute, die NICHT primär FPS spielen, und für diese Leute ist NVidia nunmal nicht soo dolle (NVidia->U9)...

Ceiser Söze
2001-08-16, 22:33:10
Noch was interessantes zum Radeon 8500, das unbedingt erwähnt werden sollte:
In einem Renderingpass kann der Chip nämlich beide Geometrieprozessoren, den programmierbaren Vertex-Shader, als auch die festverdrahtete T&L-Unit parallel nutzen.
Die GeForce3 kann pro Pass nur entweder den Vertex-Shader ODER die T&L-Unit nutzen. Dies erklärt auch die auf Tomshardware gemessene, trotz Alpha-Treibern und Beta-Boards wesentlich höher liegende Geometrieleistung der Radeon 8500. Sollten endlich mal T&L-Spiele erscheinen, die Vertex-Shader & Co. nutzen, hat der Radeon 8500 hier evt. einen entscheidenden Vorteil...

Unregistered
2001-08-16, 22:57:27
>In einem Renderingpass kann der Chip nämlich beide
>Geometrieprozessoren, den programmierbaren Vertex-Shader,
>als auch die festverdrahtete T&L-Unit parallel nutzen.

Quelle?

In DirectX geht das kaum, das ist eine Beschränkung der API.

ow
2001-08-16, 23:03:27
Jetzt fängt das schon wieder an ...:D:D

Ceiser Söze
2001-08-16, 23:11:48
Originally posted by Unregistered

Quelle?

In DirectX geht das kaum, das ist eine Beschränkung der API.

Bitteschön:
http://bbs.pcstats.com/beyond3d/messageview.cfm?catid=3&threadid=333

Offiziell wurde das Ganze natürlich (noch) nicht bestätigt, aber es wäre zumindest ein Glaubwürdiger Grund, weshalb der Radeon 8500 in den Geometrietests selbst auf Beta-Boards mit Alpha-Treibern wesentlich besser als die GeForce3 abschneidet (3DMark 2001, Dreiecksdurchsatz: 5.7 Millionen Dreiecke vs. 3.1 Millionen / VertexShader-Test: 70Fps vs. 40Fps. Quelle: Anandtech). Dass die T&L-Unit von ATI um so viel besser ist als die von nVidia, will ich nämlich irgendwie nicht so recht glauben...

Was die Beschränkung in DirectX betrifft: Kenne mich leider nicht mit DirectX-Programmierung aus, kann also da nicht mitreden ;)

Unregistered
2001-08-17, 10:09:56
Originally posted by Ceiser Söze
Bitteschön:
http://bbs.pcstats.com/beyond3d/messageview.cfm?catid=3&threadid=333

Offiziell wurde das Ganze natürlich (noch) nicht bestätigt

Da steht aber etwas anderes. In diesem Thread wird nur darüber diskutiert, was ATI mit "in parallel" meint, das ist keineswegs Tatsache. Gemäss einigen Postern in dem Thread kann man die beiden T&L-Einheiten gar nicht kombinieren, wegen den unterschiedlichen Präzisionen!

StefanV
2001-08-17, 10:36:24
Nur so nebenbei bemerkt:

Die R200 hat 2 VS, die GF3 nur 1...

Unregistered
2001-08-17, 11:20:21
deswegen tun mir ja die leute leid, die sich schon eine g3 gekauft haben. nvidia wird sicher bald eine neue generation bringen, die auch mind. 2 vs hat. der nv20 in der xbox hat ja auch 2. ist halt wie mit g1, bis es wirklich nötig ist, gibts schon die übernächste generation.

Mein PC (http://www.nethands.de/athlon/show.php3?user=gbm31)

HOT
2001-08-17, 11:30:08
Leider nicht. Der R200 hat EINEN Vertexshader. Der R300 soll 4 haben ;) Aber die theoretische Geometrieleistung der R200 ist wirklich wesentlich höher als bei der G3. Der G3 schafft maximal 50Mio Triangles pro sec und der R200 75Mio. Das entspricht in etwa der Steigerung, die man im High Polygon count messen kann. Diese überaus hohen Vertexshaderleistungen kann ich mir allerdings auch nicht erklären. Wenn man die Werte so vergleicht, sind die Steigerungen einfach zu hoch, als dass man dies nur auf blosse Optimierungen der Geometriepipeline zurückführen kann. Jedoch weiss ich, dass der Vertexshadertest sowohl von Hardwired-T&L als auch von Vertexshading profitiert. So abwegig ist das also doch nicht, dass im R200 Hardwired und Vertexshader zusammen laufen. Aussderdem bitte ich um eine erklarung, warum DX8.1 das nicht zulassen soll... rein theoretisch steht dem nichts im Wege. in OpenGL wird es auf jeden Fall möglich sein. Schon allein deshalb, weil Hardwired in v1.2 immer funktioniert, wenn es verfügbar ist ;)

StefanV
2001-08-17, 12:36:50
Selbst wenn DX8 das nicht zulassen soll...

Schon mal daran gedacht, daß es der Treiber regelt??

BZW es 'Hardwired' ist??

Also die Radeon das intern verteilt??

Unregistered
2001-08-17, 12:41:06
Also Leute...

Jetzt kommt doch mal auf den Boden der Tatsachen zurück !

Natürlich haben gf3 und r2 nur einen Vertex-Shader...
Hardware T&L wird von DirectX 7 benutzt, während der Vertex-Shader von DirectX 8 benutzt wird. Was auch der Grund für die Implementierung beider Einheiten in den GraKa's ist. Die XBox setzt nur auf DirectX 8, wofür dann auch keine Hardware T&L-Einheit mehr benötigt wird und somit 2 Vertex-Shader implementiert wurden.

Verstanden ?

Den Entwicklern ist es nicht möglich, einen Mix aus D3D-Versionen zu benutzen (Grafik-Teil von DirectX). Somit gibt es zur Zeit 2 Versionen der D3D-API, welche entweder HW T&L ODER Vertex-Shader (Vers. 7 oder 8) benutzt.

Der Vertex-Shader löst in Verbindung mit dem Pixel-Shader die Hardware T&L-Einheit ab und ist kein AddOn. Punkt.

Und jetzt schleiße ich mich dem Wunsch anderer hier aus diesem Thread an und möchte endlich wissen, wo stehen soll, daß ein Mix aus diesen beiden API's möglich sein soll !

Der Vertex-Shader der r2 (Radeon 8500) ist schlicht besser, als der der gf3 (3DMArk 2001), wenn auch die RealWorld-Tests unterschiedliche Aussagen zutage fördern, der der Vertex-Shader ja in der Regel nicht isoliert genutzt wird. So ist die Leistung der r2 in DroneZMark besser, während die gf3 in AquaMark besser ist. Auch hat der 3DMark-Test gezeigt, daß die Leistung des Pixel-Shaders offensichtlich bei der gf3 besser ist. Was wohl darauf zurück zu führen ist, daß die r2 die Pixel-Shader-Instruktionen der Versionen 1.0-1.3 erst auf die der Version 1.4 portieren muß, um diese dann zu interpretieren. So ist ein eigentlicher Vorteil (Pixel-Shader 1.4) noch ein Nachteil, da heutige (oder besser morgige) Spiele-Engines erst einmal die kompatibelsten Pixel-Shader (Version 1.0-1.3, die ja von beiden DX8'ern unterstützt werden) benutzen und damit der r2 einen Mehraufwand 'schenken'.

Das Erscheinen der gf3mx (Sep. 2001) wird das ganze nicht besser machen, da die breitere Plattform dann immer mehr und mehr in Richtung nVidia gehen wird, wenn es ATI nicht schafft, ebenfalls einen LowCost DX8'er auf den Markt zu bringen.

So, nun seit Ihr dran !

Razor

P.S.: Nur für den Fall, daß hier irgend jemand was in den falschen Hals bekommt, BEIDE Karten sind DX8.1-Kompatibel, da wohl alle Effekte des Pixel-Shaders 1.4 auch mit den Versionen 1.0-1.3 zu realisieren sind.

Unregistered
2001-08-17, 12:50:22
@Stafan Payne

Informier Dich doch bitte erst, bevor Du hier so etwas abläßt ! Die Radeon kann wie die GeForce entweder die HW T&L-Einheit ODER den Vertex-Shader in einen Rendering-Pass benutzen.

Razor

StefanV
2001-08-17, 12:58:05
@Guest

Theoretisch wäre es dennoch möglich beide zu benutzen, wenn man die HW darauf ausgelegt hat, oder?

Die HW muß nur entsprechend ausgeleg sein...

Und die Instruktionen kommen ja als VS Befehle ;)...

Unregistered
2001-08-17, 13:37:01
@Stafan Payne

Theoretisch ist alles möglich, auch, daß die gf3 genauso arbeitet... aber eben nur theoretisch...

Das Problem ist doch, daß dies wohl nur die Hardware-Entwickler genaueres darüber wissen und solange es keine eindeutigen Aussagen dieser gibt, daß ganze eben nur eine rein hyothetische Überlegung ist, oder ?

Bis dann

Razor

StefanV
2001-08-17, 14:12:11
Eben ;)...

Man könnte ja auch einen VS mit einer HW T&L Einheit verknüpfen, oder??

Unregistered
2001-08-17, 14:16:15
Originally posted by Unregistered
da wohl alle Effekte des Pixel-Shaders 1.4 auch mit den Versionen 1.0-1.3 zu realisieren sind.

Das stimmt nicht.

Razor
2001-08-17, 16:33:45
@Stefan Payne

Wozu sollte das gut sein ?

@Guest

Welche Effekte können denn durch die Pixel-Shader 1.0-1.3 nicht realisert werden ? Wär doch mal echt interessant...

StefanV
2001-08-17, 16:47:51
Originally posted by Razor
@Stefan Payne

Wozu sollte das gut sein ?

Ich glaub auf 3DConcept hab ich mal gesehen, wie schnell/lahm ein VS in Gegensatz zu HW T&L ist...

Mit anderen Worten:

Dadurch könnte man beim 3ecks Durchsatz Vorteile haben...

Und WOZU brauche ich zum 'formatieren' der Polygone einen VS??

Den brauche ich doch eher für andere Sachen...

Und da sich Diese Befehle gut Parallelisieren lassen könnte man doch eine HW T&L Einheit in einen VS integrieren, die sich dann um die 3Ecke kümmer, oder nicht??

Razor
2001-08-18, 13:30:45
@ Stefan Payne

Das wär genauso, als würde man Äpfel und Birnen kombinieren, ne Birnel sozusagen...
;-)

Aber mal im ernst, die HW T&L-Einheit ist die 3. Generation, der Vertex-Sader aber erst die erste...

ATI kommt nun (6 Monate später) mit einer neueren Version des Vertex-Shaders und siehe da... er ist schneller !

Sicher kann man auf einen Vertex-Shader, bzw. HW T&L sogar ganz verzichten (siehe KyroII), zumal der Vertex-Shader ja eigentlich nichts anderes ist, als eine ausgekoppelte CPU-Funktionalität. Auch MMX, SSE und 3Dnow hatten unter anderem zum Ziel, die Bereitstellung von Polygondaten zu beschleunigen, obwohl dies ja eigentlich vom Grafik-Subsystem zu erledigen sein sollte...

Dem hat man nun Rechnung getragen und eine Vertex-Shader-Einheit gebastelt, welche die CPU nun um diese Arbeit entlastet.

Der Pixel-Shader, das ist die eigentliche 'Revolution', kann aber nicht von der CPU übernommen werden, da dieser Funktionalitäten beinhaltet, für die heutige CPU's einfach nicht ausgelegt sind (Punkt-Basierte Effekte). Besonders gut zu beobachten, wenn man bei gf2-Karten die NV20emu aktivierte, um dann DX8-Demo's zu betrachten... So ein Frame, alle 2-3 Sekunden !

Wie dem auch sei, ich bin kein Hardware-Spezialist für Grafikkarten, so sollte ein solcher Deine Gedankengänge kommentieren. Ich bin mir aber fast sicher, daß es sich mit der DX7/8-Geometrie ähnlich verhält, wie bei den heutigen Hybrid-Auto's, welche z.Bsp. mit Wasserstoff ODER Benzin betrieben werden können...

Bis denne

Razor