PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Xabre400 Benchmark


egdusp
2002-05-07, 19:11:34
Was haltet ihr von den Xabre Benchmarks? (http://www.vr-zone.com/#2339) Sehe nicht den großen Überflieger Chip. Denn:
1. Hat der Xabre keine hardware Vertex Shader (DX7 T&L weiß ich nicht)und braucht deswegen eine mächtige CPU um mit Radeon8500 und Geforce3/4 mitzuhalten. In diesen Benchs einen P4 2,56 Ghz.
2. So sehr viel billiger als eine Radeon 8500 oder eine Geforce3 Ti 200 ist er auch nicht. Wer sich ein solches Powersystem kauft (P4 2,56 Ghz), wird nicht bei der GraKa sparen, oder er braucht die GraKa kaum (nur 2D), dann holt er sich eine billige Ati/nVidia Karte (bzw. Matrox).
3. Im business/oem Markt hat die Karte auch wohl kaum eine Chance, da dort die Bekanntheit von nVidia/Matrox/Ati wichtiger ist als die DX8 Kompatibilität. Die 2D Funktionen der Karten sind kaum unterscheidbar.

Eure Meinung bitte.

Simon Moon
2002-05-07, 20:02:33
Nunja, so wie ich das sehe ist er etwa gleich schnell wie ne Ti200 und etwas billiger. Wieso sollte er nun keine Daseinsberichtigung haben? Bzw. wieso sollte die Ti200 mehr Daseinsberichtigung haben als dieser?
Er ist vielleicht nicht der überflieger, aber ne überlegung durchaus wert...

HOT
2002-05-07, 20:40:38
Man bedenke, dass das Teil keinen Vertexshader hat und die 3DMark extrem Polygonintensiv ist. In Games sollte noch wesentlich mehr drin sein.

Tomp
2002-05-07, 20:48:54
Originally posted by HOT
Man bedenke, dass das Teil keinen Vertexshader hat und die 3DMark extrem Polygonintensiv ist. In Games sollte noch wesentlich mehr drin sein.

Der Vertexshader wird ja nur bei der Nature Demo eingesetzt. Aber das kostet immerhin auch schon einige Punkte.

Quasar
2002-05-07, 21:08:00
Falsch, der Vertex-Shader wird in jedem HQ-Test eingesetzt, und das nicht zu knapp. Einzig der Pixelshader beschränkt sich auf den Nature-Test und dort auch nur auf den See...

ow
2002-05-07, 21:11:00
Originally posted by El-Diablo
Nunja, so wie ich das sehe ist er etwa gleich schnell wie ne Ti200 und etwas billiger. Wieso sollte er nun keine Daseinsberichtigung haben? Bzw. wieso sollte die Ti200 mehr Daseinsberichtigung haben als dieser?
Er ist vielleicht nicht der überflieger, aber ne überlegung durchaus wert...



Hängt viel von den Treibern ab.
Und da erwarte ich nicht viel von SiS.

Aber ich lass mich gerne positiv überraschen, wenn die Treiber wenigstens auf Ati Niveau lägen....

ow
2002-05-07, 21:13:07
Originally posted by HOT
Man bedenke, dass das Teil keinen Vertexshader hat und die 3DMark extrem Polygonintensiv ist. In Games sollte noch wesentlich mehr drin sein.


Sooo polygonintensiv ist der 3DMark nicht.
Passt immerhin noch alles in des Kyros display list (ausser die polygon tests).

Tomp
2002-05-07, 21:23:57
Originally posted by Quasar
Falsch, der Vertex-Shader wird in jedem HQ-Test eingesetzt, und das nicht zu knapp. Einzig der Pixelshader beschränkt sich auf den Nature-Test und dort auch nur auf den See...

Das hab ich nicht gewusst. Aber der Xabre hat DX7 TnL oder?

Quasar
2002-05-07, 21:32:00
Denke schon, aber bei den Vertex-Shadern hilft ihm das nicht besonders. Man sieht's ja auch gut am Vertex-Shader Test: Trotz 2,5GHz CPU ist die mit nur 175MHz getaktete GF3Ti200 schneller.

Ob er sich beim 3DMark zumindest als Teilzeit-Vertexshader ausgibt, wie die GF4MX als PureDevice, weiß ich auch nicht, aber evtl. hat er ja die eine oder andere Funktion zum Vertices schattieren.

Trotzdem scheint die Speed durchaus brauchbar zu sein....jetzt müssen nur noch Treiber und Preis stimmen.

Mot
2002-05-07, 21:47:43
Ausserdem sollte man den Xabre 600 auch nicht vergessen, ist allerdings nur höher getaktet und preislich dann natürlich auch höher angesiedelt... der sollte einer GF3-Normaloversion aber schon Konkurrenz machen können.

Vom Preis sollte die 400'er Version an die 100€ kosten wenn Sis wirklich jmd. zum Kauf überreden will (z.B. mich :D).

aths
2002-05-07, 21:50:15
Mir ist alles recht, sobald es endlich auch für die breite Masse Chips mit DX8 Pixelshader Fähigkeit gibt :)) Vertexshader-Hardware tut letztlich nichts als die CPU zu entlasten, Pixelshader ermöglichen völlig neue Effekte.

Leonidas
2002-05-07, 23:32:29
Originally posted by egdusp

1. Hat der Xabre keine hardware Vertex Shader (DX7 T&L weiß ich nicht)und braucht deswegen eine mächtige CPU um mit Radeon8500 und Geforce3/4 mitzuhalten. In diesen Benchs einen P4 2,56 Ghz.



Das würde bedeuten, der Vertex Shader wäre Performance-kritisch. Ist er aber überhaupt nicht. Vielleicht halbwegs noch in 3DMark2001, aber nicht in realen Spielen. Diese Einheiten sind glatt überpowert, werden kaum ausgelastet außer in TechDemos.

Quasar
2002-05-07, 23:32:41
Originally posted by aths
Vertexshader-Hardware tut letztlich nichts als die CPU zu entlasten...

Du siehst ja an den Benches, wie sehr eine 2,5GHz CPU entlastet wird. Und das, wo sich die CPU um nicht viel anderen kümmern muss, als das Berechnen der Vertices.

IMHO sind VS-Emulationen auf breiter Basis, sprich komplett in "Software", bis Minimum 3,5GHz illusorisch.

Leonidas
2002-05-07, 23:34:28
Der SiS-Chip bedeutet vor allem: DX8-HW für Asien. Und nur wenn sich im preiskritischen asiatischen Markt DX8-HW durchsetzt, kommen auch wir Europäer in den Genuß von DX8-Spielen.

Leonidas
2002-05-07, 23:35:43
Originally posted by Quasar


IMHO sind VS-Emulationen auf breiter Basis, sprich komplett in "Software", bis Minimum 3,5GHz illusorisch.

3,5 sind aber Mitte nächsten Jahres erreicht.

Quasar
2002-05-07, 23:51:30
Originally posted by Leonidas


3,5 sind aber Mitte nächsten Jahres erreicht.

Sicher, aber das sind dann High-End Chips zu den üblichen Preisen.

Wieviele Leute mit 2,4GHz-CPU kennst du, die eine TNT2M64 drin haben?

Doomtrain
2002-05-08, 00:15:28
Originally posted by Quasar




Wieviele Leute mit 2,4GHz-CPU kennst du, die eine TNT2M64 drin haben?

So blöd sollten wirklich auch Laien nicht sein. Das muß man doch merken!! :kotz:

Quasar
2002-05-08, 00:19:15
Gut beobachtet, Doomtrain.

Und nun Schritt zwei...

(Beobachten, Folgern...)

Doomtrain
2002-05-08, 00:37:44
Originally posted by Quasar
Gut beobachtet, Doomtrain.

Und nun Schritt zwei...

(Beobachten, Folgern...)

Das ist natürlich noch viel schwerer.. *eg*

Wenn man aber keinen Vergleich zu seine miserablen Leistung hat, wird das sogar sehr schwer!!!

PS: Verarsch mich nicht ;D;D

Quasar
2002-05-08, 01:03:45
Nein, das war absolut ernstgemeint!

Die logische Folgerung aus deinem letzen Posting "So blöd sollten wirklich auch Laien nicht sein. Das muß man doch merken!!" im Zusammengang mit meiner vorhergehenden Behauptung "Wieviele Leute mit 2,4GHz-CPU kennst du, die eine TNT2M64 drin haben?" als Reaktion auf Leonidas' "3,5 sind aber Mitte nächsten Jahres erreicht." ist doch wohl, daß sich kein Mensch, der bei Sinnen ist, Mitte nächsten Jahres eine absolute High-End CPU für geschätzte €750+ kauft um sie dann mit einem (dann) Low-Cost-Chip des letzten Jahres zu kombinieren, um fehlende Vertex-Shader zu emulieren.

Doomtrain
2002-05-08, 01:09:29
Originally posted by Quasar


Der mitte nächsten Jahres eine absolute High-End CPU für geschätzte €750+ kauft um sie dann mit einem (dann) Low-Cost-Chip des letzten Jahres zu kombinieren, um fehlende Vertex-Shader zu emulieren.

Tssss, wer kommt nur auf so einen Schwachsinn! Aber es wird auch diese "Profis" geben, warte nur ab! So N8 jetzt.

Quasar
2002-05-08, 01:24:17
dito.

Simon Moon
2002-05-08, 11:30:35
Originally posted by Quasar
Nein, das war absolut ernstgemeint!

Die logische Folgerung aus deinem letzen Posting "So blöd sollten wirklich auch Laien nicht sein. Das muß man doch merken!!" im Zusammengang mit meiner vorhergehenden Behauptung "Wieviele Leute mit 2,4GHz-CPU kennst du, die eine TNT2M64 drin haben?" als Reaktion auf Leonidas' "3,5 sind aber Mitte nächsten Jahres erreicht." ist doch wohl, daß sich kein Mensch, der bei Sinnen ist, Mitte nächsten Jahres eine absolute High-End CPU für geschätzte €750+ kauft um sie dann mit einem (dann) Low-Cost-Chip des letzten Jahres zu kombinieren, um fehlende Vertex-Shader zu emulieren.


Du nimmst hier mal die TNT2M64 weil man ja mit einem aktuellen CPU Vertex Shader ersetzen können soll, oder? Das ist aber absolut blödsinnig. Wenn du einen richtigen Vergleich machen willst, bräuchtest du eine aktuelle Karte ohne Vertex Shader und eine aktuelle mit Vertex Shader. (also bspw. Xabre400 - Geforce3Ti200)
Nun hättest du also zwei gut Vergleichbare Karten.
Ich mein, niemand bezweifelt das ne TNT2M64 auf 2,54Ghz zu langsam ist, aber auch niemand behauptet, das ne Voodoo1 auf nem P3 500 soo geeignet sei...

Quasar
2002-05-08, 11:36:53
Nein, ich nehme eine TN2M64, weil sie in etwa den Stand repräsentiert, den Mitte nächsten Jahres die GF4MX, Radeon7500 und Xabre (wenn er denn nich extrem zulegen sollte) einnehmen werden. Diesen Chip dann mit einem High-End Prozessor zu koppeln (wie es heute eine TNT2M64 mit 2GHz-CPU wäre) ist Schwachsinn, darum ging es mir!

Und daraus folgend zieht auch das Argument, man könne einen fehlenden Vertexshader per CPU emulieren (zumindestens in akzeptabler Geschwindigkeit), nicht mehr so wirklich, zumal die CPU in realen Games ja auch noch ein paar andere Dinge zu tun hat, als nur Vertices zu transformieren, wie sie es im VS-Test des 3DMark tut.

ow
2002-05-08, 12:21:38
QUasar:

Ganz so schlimm wuerde ich das mit den VS nicht sehen.

Wenn du dir die Benches mal anschaust, dann ist die GF4MX440 mit SW VS noch erheblich schneller als eine GF3ti200 mit HW VS. Und der Xabre auch.

Quasar
2002-05-08, 14:24:12
Eigentlich habe ich mir die Benches angeschaut, und da hatten der Xabre und die MX440 irgendwas 50,x, die ti200 52,x und die MX460 53,x.

Und das bei absoluter High-End CPU ggü. einem Low-Cost DX8-Chip...

Wohlgemerkt, ich rede nur von den Vertex-Shader Tests!

Guckst du hier:

http://www.vr-zone.com/cgi-bin/vb/showthread.php?postid=36655#post36655

ow
2002-05-08, 14:51:29
Ich hab mir nur den synthetischen VS Test angeschaut.

Mehr Sorgen als der VS bereitet mir der PS.
Scheint nicht so sehr leistungsfaehig.
Also kann man echte DX8 Games mit dem Xabre vergessen, fuer DX7 taugt er sicher.

Aber warten wir's ab, es ist noch sehr frueh, das endgueltig zu beurteilen.

Quasar
2002-05-08, 15:00:39
Ich hab mal wieder Mist erzählt:)

Gestern Nacht habe ich die Chips am CPU-Limitierten und auch VS-lastigen Car-HQ-Test verglichen, die Werte sind mir dabei im Gedächtnis hängengeblieben....

Die VS-Tests auf den Xabres sind somit also wirklich flotter, als auf der Ti200.

Dabei finde ich allerdings etwas anderes seltsam:
Wenn Vertex-Shader per CPU emuliert werden, sollten doch die VS-losen Karten nahezu identisch performen (bei vergleichbarer Bandbreite)....warum ist die MX dann so deutlich schneller als die Xabre? Kann man etwa doch einige VS-Befehle per GPU machen und einige per CPU???

Vor ein paar Tagen wurde das hier im Forum ja noch vehement bestritten.

Pussycat
2002-05-08, 18:57:10
Originally posted by Quasar
Ich hab mal wieder Mist erzählt:)

Gestern Nacht habe ich die Chips am CPU-Limitierten und auch VS-lastigen Car-HQ-Test verglichen, die Werte sind mir dabei im Gedächtnis hängengeblieben....

Die VS-Tests auf den Xabres sind somit also wirklich flotter, als auf der Ti200.

Dabei finde ich allerdings etwas anderes seltsam:
Wenn Vertex-Shader per CPU emuliert werden, sollten doch die VS-losen Karten nahezu identisch performen (bei vergleichbarer Bandbreite)....warum ist die MX dann so deutlich schneller als die Xabre? Kann man etwa doch einige VS-Befehle per GPU machen und einige per CPU???

Vor ein paar Tagen wurde das hier im Forum ja noch vehement bestritten.

Die einzige erklärung auf der ich kommen könnte, ist das die MX eine eigene VS-emulierung benutzt (wie das gute alte 'geometry assist') und die Xabre das ganze von DX machen lässt.

Xmas
2002-05-08, 19:36:30
Originally posted by Quasar
Kann man etwa doch einige VS-Befehle per GPU machen und einige per CPU???

Vor ein paar Tagen wurde das hier im Forum ja noch vehement bestritten.
Ich glaube nicht dass David Kirk diese Aussage völlig aus der Luft gegriffen hat, es ist sehr wahrscheinlich dass der MX das kann.

Quasar
2002-05-08, 19:53:22
Das habe ich ja auch vertreten, zumal sich die GF4MX im 3DMark und DX8 SDK als Pure Device ausgibt....aber mir hat keiner geglaubt :...(

zeckensack
2002-05-08, 21:42:56
Originally posted by Quasar
Das habe ich ja auch vertreten, zumal sich die GF4MX im 3DMark und DX8 SDK als Pure Device ausgibt....aber mir hat keiner geglaubt :...( Ich glaube dir =)
Matt Craighead hat irgendwo im Opengl.org-Forum mal erwähnt, daß die Gf4MX tatsächlich Hardware besitzt, um ein paar Teile von Vertex Shadern zu beschleunigen. Das ist angeblich keine reine Software-Lösung, sondern eine Mischung aus SW/HW. Die Details kenne ich nicht, aber jedenfalls muß die Software nicht alles machen, sie muß lediglich dem 'halben' Hardware-VS die Sachen ein bißchen vorkauen.

Quasar
2002-05-08, 21:44:34
Danke *knuddel* ;)

Ich habe auch eine Mail von einem "technischen" Mitarbeiter von nV, der mir ähnliches bestätigt hat. Offiziell ist das allerdings nicht.

Unregistered
2002-05-09, 13:03:27
Ich hab zu dem Thema gerade die Aussage von Richard Huddy (nv devrel) im Kopf, daß beim 3dmark VS test die nvidia lösung auf der gf4mx bis zu 40% mehr Leistung bietet. Nicht zu verachten, auch wenn sich das ganze in Realworldsituationen nicht so stark auswirkt....

Btw, ich weiß nicht, wie ihr das seht, aber schaut euch doch an, welchen Schrott die großen Kistenschieber in ihre PCs stecken und dann HighEnd 2 Gigahertz draufschreiben. Da waren bis vor kurzem tatsächlich TNT2 noch gar nicht so unüblich, und die kleinste GF4MX mit SDR RAM ist auch nicht gerade adäquat. Und das ist hier in Europa, wie es woanders aussieht, kann ich mir denken.... Ottonormaluser hat wirklich nur wenig Möglichkeiten anhand der Werbung die echten Leistungsdaten abzulesen und der Takt der CPU und evtl. Hauptspeicher und Festplatte ist dann schon alles wichtige. Und gerade deshalb kommt es durchaus häufig vor, daß sehr schwache Karten in sehr schnellen Rechner stecken und deshalb ist die Sis Karte gar nicht so verkehrt, weil sie durch die Pixelshader wenigstens alle wichtigen Features unterstützt.

Pitchfork

ow
2002-05-21, 16:59:41
Originally posted by ow
Ich hab mir nur den synthetischen VS Test angeschaut.

Mehr Sorgen als der VS bereitet mir der PS.
Scheint nicht so sehr leistungsfaehig.
Also kann man echte DX8 Games mit dem Xabre vergessen, fuer DX7 taugt er sicher.

Aber warten wir's ab, es ist noch sehr frueh, das endgueltig zu beurteilen.


*schieb*

korrigiere meine Aussage:
Der SIS taugt weder fuer DX7 noch DX8 noch OGL.

jedi
2002-05-21, 18:52:02
Falls Ihr die heutige Meldung im 3dcenter-Newsteil noch nicht gesehen habt, kopiere ich sie hier mal rein:


Ein erstes Review einer Grafikkarte mit SiS Xabre Chip ist bei t-break zu visitieren. Dort hat man sich die mittlere Variante Xabre 400 des DirectX8 LowCost-Chips in Form eines Vorserienboards des asiatischen Boardhersteller Triplex gegriffen und gegen die unmittelbaren Kontrahenten nVidia GeForce4 MX440, nVidia GeForce3 Ti200 und ATi Radeon 8500LE verglichen. Leider sieht es derzeit so aus, als hätte SiS ein wenig zu hoch gegriffen, als man behauptete, sich direkt gegen die GeForce4 MX Serie positionieren zu können - denn die Performance des Xabre 400 liegt doch noch ein gewaltiges Stück entfernt von der GeForce4 MX440 ...

... Ob jene im Schnitt 100 Prozent (!), welche der Xabre 400 zulegen müsste, um die GeForce4 MX440 noch zu erreichen, von SiS mittels zukünftiger Treiber realisiert werden kann, steht derzeit zudem zu bezweifeln. Sicherlich sind diese Karten noch nicht auf dem Markt, die Xabre 400 trat also nur mit Vorserien-Treibern an, und demzufolge wird sich bis zum Auslieferungsstart auch beim Treiber (hoffentlich) noch einiges tun. Dennoch scheint - bei der Hälfte der Frameraten einer GeForce4 MX440 - der Rückstand für SiS eigentlich kaum noch vollständig aufholbar. Wir werden hier für ein entgültiges Urteil natürlich noch weitere Tests dieser Karten abwarten müssen, dennoch stehen die Vorzeichen für den SiS Xabre nach diesem Test denkbar ungünstig.

Unregistered
2002-05-21, 19:06:16
Die Frage ist nur, welches Ergebniss stimmt?
Aber wenn die Karte echt 8GB/s hat, dann wäre das um Welten zu schwach.

Gruss Labberlippe

jedi
2002-05-21, 19:16:04
Oops, hab gar nicht gesehen, dass es schon einen Thread zum Thema gibt:

"SiS Xabre400 - Wirklich so schlecht?" (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=20339)

Quasar
2002-05-21, 19:27:54
Originally posted by Unregistered
Die Frage ist nur, welches Ergebniss stimmt?
Aber wenn die Karte echt 8GB/s hat, dann wäre das um Welten zu schwach.

Gruss Labberlippe

Das ist wie mit 'nem Rolls Royce. 350PS aber keine 180 Sachen schaffen :D

Unregistered
2002-05-21, 19:44:03
Originally posted by Quasar


Das ist wie mit 'nem Rolls Royce. 350PS aber keine 180 Sachen schaffen :D

Der war gut. :D
Hmm bin gespannt was die nächsten benches sagen.
Wäre eine Kunst eine solche Karte so derart auszubremsen.

Gruss Labberlippe

Leonidas
2002-05-21, 21:31:33
Originally posted by Unregistered
Die Frage ist nur, welches Ergebniss stimmt?
Aber wenn die Karte echt 8GB/s hat, dann wäre das um Welten zu schwach.

Gruss Labberlippe



Siehe SiS 315: Technisch gesehen GeForce2 MX400 Level, rein praktisch nicht viel besser als GeForce2 MX200. Liegt am Treiber, den Jungs von SiS fehlt da die jahrelange Entwicklung unter Leistungsdruck wie bei ATi und nVidia.

mapel110
2002-05-21, 23:20:08
das wird sich zeigen, wie gut die jungs ihr eingens entworfenes stück hardware ausreizen können. ich kann es mir eingentlich nicht vorstellen, dass es nur an den treibern liegt. die entwickler müssen "IHR" machwerk doch aus dem FF kennen. sicher haben nvidia und ati leitstungsdruck.

aber sis kann doch nicht freiwillig so schlechte benchmarkergebnisse auf die menschheit los lassen. nvidia schickt eigens für benches gegen eine radeon 8500 nen neuen detonator ins rennen und sis macht den fehler mit absoluten alphatreibern benchen zu lassen. also ich glaube das nicht.