PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Test 5900U/9800xt/Volari-Duo-V8-Ultra


Merlin31
2003-10-02, 03:45:56
http://www.chip.de/artikel/c_artikel_10958273.html

Axel
2003-10-02, 04:10:49
Netter Test, aber das einzig interessante sind die Kommentare zum Catalyst 3.8.

-3Dprophet-
2003-10-02, 07:14:40
Leicht überlastet :|

Interessant finde ich einen Test von einer R9800 XT gegen eine Volari schon!:)

Gohan
2003-10-02, 07:32:33
Die ham doch einfach den 3DMark wert von der Computex genommen und verglichen...

Gast
2003-10-02, 11:44:07
Echt?

(Hab nicht auf den Link geklickt, Chip ist es einfach nicht wert. Dagegen ist sogar THG eine hochtechnische Fachpublikation...)

Wenn ja, dann hat Chip mittlerweile echt unterstes Niveau erreicht.

Echt arm :down:

q@w

Gaestle
2003-10-02, 12:16:34
Original geschrieben von Gohan
Die ham doch einfach den 3DMark wert von der Computex genommen und verglichen...

Allerdings. Einen "TEST" würde ich das nicht nennen, was zum Volari gesagt wird, kann man auch (schon seit 'ner Woche?) hier auf 3dc nachlesen. Aber naja, die Überschrift des Chip-Artikels sieht erstmal gut aus...

Grüße

-3Dprophet-
2003-10-02, 13:47:00
Der Titel ist dann wohl Ver*rschung! :( :down: :down:

Und ich hab mich schon gefreut...

Endorphine
2003-10-02, 14:01:52
Zum Abschluss der Benchmark-Reihe wollen wir Ihnen noch einen ersten Benchmarkwert mit XGIs neuer Volari-Duo-V8-Ultra-Grafikkarte liefern. Zwar verliert der Newcommer im direkten Vergleich gegen ATI und Nvidia, 5.641 Punkte sind aber - gerade für die Zukunft - äußerst vielversprechend und lassen auf Großes hoffen. Insgesamt gewinnt aber ATIs Neueste mit 6.449 3DMarks den Wettbewerb, die GeForce 5900 Ultra belegt mit 5.924 3DMarks den zweiten Rang.

http://www.chip.de/ii/14622567_2ce46edf4a.jpg

r@w
2003-10-02, 14:16:18
Jup.

Das einzige, was auf einen Vergleich 'hindeutet', war das hier:

http://www.chip.de/ii/14622567_2ce46edf4a.jpg

Insofern darf man die 'Artikel'-Überschrift
"Radeon 9800 XT und Volari: Alarmstufe Rot für Nvidia"doch wohl hoffentlich nur als Scherz ansehen...

Oder inwiefern soll eine Dual-Chip-Lösung (V8Dual) für nVidia 'Alarm' bedeuten, wenn diese Performance-seitig nicht einmal an die eigene (Single-Chip-) Leistung heran reicht ?
???

Razor

r@w
2003-10-02, 14:17:10
Mist ! Endorphine war schneller...
;-)

Razor

P.S.: Und ich kann's nicht mal editieren... ;)

-3Dprophet-
2003-10-02, 15:17:36
Original geschrieben von Endorphine
http://www.chip.de/ii/14622567_2ce46edf4a.jpg

Klar, aber die Werte waren doch schon von der Computex bekannt... :(

Endorphine
2003-10-02, 17:00:47
Original geschrieben von -3Dprophet-
Klar, aber die Werte waren doch schon von der Computex bekannt... :( ... und passen damit überhaupt nicht in das Diagramm. Wie will man aussagekräftig vergleichen, wenn die Karten nicht auf dem selben System liefen? :bonk:

betasilie
2003-10-02, 17:11:02
Original geschrieben von r@w
Oder inwiefern soll eine Dual-Chip-Lösung (V8Dual) für nVidia 'Alarm' bedeuten, wenn diese Performance-seitig nicht einmal an die eigene (Single-Chip-) Leistung heran reicht ?
???
Es kommt ja nicht darauf an, ob SingleChip oder Dual oder Tripple, sondern wer zu welchem Preis welche Karte anbietet.

Wenn die V8-Duo-ultra mit weiterentwickelten Treibern schneller als die 5900Ultra ist und das sogar für weniger Geld, bedeutet das sehr wohl Alramstufe:Rot für NV., egal ob der Konkurrent nun zwei GPUs auf der Karte hat oder nicht.

DrumDub
2003-10-02, 17:20:48
Original geschrieben von betareverse
Wenn die V8-Duo-ultra mit weiterentwickelten Treibern schneller als die 5900Ultra ist und das sogar für weniger Geld, bedeutet das sehr wohl Alramstufe:Rot für NV., egal ob der Konkurrent nun zwei GPUs auf der Karte hat oder nicht.

trotzdem hat der artikel eine unnötig reißerische überschrift wegen eines geklauten 3dmark03-scores. die chip ist halt müll...

kmf
2003-10-02, 17:38:49
Original geschrieben von DrumDub
trotzdem hat der artikel eine unnötig reißerische überschrift wegen eines geklauten 3dmark03-scores. die chip ist halt müll...

Radeon 9800 XT und Volari: Alarmstufe Rot für Nvidia

Das ist die Überschrift - was ist daran reißerisch?

Ich glaube nämlich auch, daß es für nv gar nicht mehr so rosig ausschaut - in Zukunft.

DrumDub
2003-10-02, 17:46:36
Original geschrieben von kmf
Radeon 9800 XT und Volari: Alarmstufe Rot für Nvidia

Das ist die Überschrift - was ist daran reißerisch?

Ich glaube nämlich auch, daß es für nv gar nicht mehr so rosig ausschaut - in Zukunft.

na ja, wartens wir ab. die nummer eins ist nvidia momentan nicht mehr, aber sie könnten es schneller wieder sein, als manche denken. ;)

auf jeden fall gibt es schon erste anzeichen, dass man bi nv so langsam die kurve bekommt.

betasilie
2003-10-02, 19:53:44
Original geschrieben von DrumDub
auf jeden fall gibt es schon erste anzeichen, dass man bi nv so langsam die kurve bekommt.
ähm. Was für Anzeichen. :???:

-3Dprophet-
2003-10-02, 20:07:54
???

Sehe auch kein..., aber vielleicht brauch ich eine Brille? :| :P

BigBen
2003-10-02, 20:25:37
Original geschrieben von -3Dprophet-
Sehe auch kein..., aber vielleicht brauch ich eine Brille? :| :P
Ich bin mir sicher das Quasar oder Lovesuckz Dir gerne eine passende Brille leihen werden ;D ;)

Shice Chip! Ich habe mich so auf einen ersten Vergleichstest gefreut und dann sowas :down:

Zum Glück dauert es nicht mehr lange, bis die ersten "echten" Previews kommen!

greez
ben

BigBen
2003-10-02, 20:30:48
Doh! Nicht schon wieder http://home.t-online.de/home/bullitt667/smilies/data/uglysad.gif

kmf
2003-10-02, 21:33:31
Original geschrieben von DrumDub
na ja, wartens wir ab. die nummer eins ist nvidia momentan nicht mehr, aber sie könnten es schneller wieder sein, als manche denken. ;)

auf jeden fall gibt es schon erste anzeichen, dass man bi nv so langsam die kurve bekommt.

Ich hoffe auch, daß nv sich auf seine Möglichkeiten besinnt.
Sie sind bei den Highend-Karten wahrscheinlich nicht mehr die Nummer 1. Ich Grakageschäft allgemein sind sie es immer noch. Den Intelkram berücksichtige ich hier mal nicht.

-3Dprophet-
2003-10-02, 21:52:41
Original geschrieben von BigBen
Ich bin mir sicher das Quasar oder Lovesuckz Dir gerne eine passende Brille leihen werden ;D ;)

Shice Chip! Ich habe mich so auf einen ersten Vergleichstest gefreut und dann sowas :down:

Zum Glück dauert es nicht mehr lange, bis die ersten "echten" Previews kommen!

greez
ben

:D ;D Jemand ders verstanden hat!

Asuka
2003-10-02, 22:03:18
Original geschrieben von DrumDub
na ja, wartens wir ab. die nummer eins ist nvidia momentan nicht mehr, aber sie könnten es schneller wieder sein, als manche denken. ;)"Momentan nicht" !? :freak:
Erde an DrumDub! Die sind schon seit dem 9700 Pro letzes Jahr nicht mehr Nummer 1! Auch der mit mächtig Verspätung fertiggestellte FX konnte daran nicht ändern, also haben sie kräftig angefangen zu cheat0rn, denn ohne das haben sie keine Chance.

auf jeden fall gibt es schon erste anzeichen, dass man bi nv so langsam die kurve bekommt. Guter Witz :lolaway:
Du spielst doch wohl hoffentlich nicht auf die FX5950 an, die mit lächerlichen Core- und Speichererhöhungen wohl keinen Hund hinterm Ofen hervorlocken wird...

kmf
2003-10-02, 22:26:33
Original geschrieben von Asuka
"Momentan nicht" !? :freak:
Erde an DrumDub! Die sind schon seit dem 9700 Pro letzes Jahr nicht mehr Nummer 1! Auch der mit mächtig Verspätung fertiggestellte FX konnte daran nicht ändern, also haben sie kräftig angefangen zu cheat0rn, denn ohne das haben sie keine Chance.

Guter Witz :lolaway:
Du spielst doch wohl hoffentlich nicht auf die FX5950 an, die mit lächerlichen Core- und Speichererhöhungen wohl keinen Hund hinterm Ofen hervorlocken wird...

Nr 1 ist nicht der, der vielleicht die schnellste Karte hat. Nr 1 ist der, der aus seinen Möglichkeiten den größten Gewinn erzielt. Geld regiert die Welt. Und wie man das letztendlich zustande bringt, interessiert am Ende keinen.

-3Dprophet-
2003-10-02, 22:52:37
Original geschrieben von kmf
Nr 1 ist nicht der, der vielleicht die schnellste Karte hat. Nr 1 ist der, der aus seinen Möglichkeiten den größten Gewinn erzielt. Geld regiert die Welt. Und wie man das letztendlich zustande bringt, interessiert am Ende keinen.

Mal ehrlich, was soll der Quatsch?

Es geht in dem Thread(und auch generell) nicht darum wer die meiste Kohle schäfelt, sondern um die Leistung von GraKas!

Uns interessiert doch in erster Linie die Leistung und wenn die stimmt noch das Preis/Leistungs Verhältniss.
Ansonsten hätten wir alle GraKas von Intel im Rechner... :freak:

SKYNET
2003-10-02, 23:11:00
zu den punkten der volari.....

habt ihr bemerkt das die volari den bench auf der computex 4x AF anhatte ? und dann noch mit "nur" 350/900 lief anstelle von 400/1000 die sie final haben wird ?

http://www.pcwelt.de/news/hardware/34175/

also wird die karte zumindest bei 3Dmurks 03 ne 9800XT alt aussehn lassen, und dank nette futures wie 16 pipes wird sie auch in games nen gutes gesicht machen :)

a new kind of fast is born... XGI VOLARI DUO V8 ULTRA :)

Asuka
2003-10-02, 23:46:56
Original geschrieben von SKYNET
zu den punkten der volari.....

habt ihr bemerkt das die volari den bench auf der computex 4x AF anhatte ? und dann noch mit "nur" 350/450 lief anstelle von 400/1000 die sie final haben wird ?

http://www.pcwelt.de/news/hardware/34175/

also wird die karte zumindest bei 3Dmurks 03 ne 9800XT alt aussehn lassen, und dank nette futures wie 16 pipes wird sie auch in games nen gutes gesicht machen :)

a new kind of fast is born... XGI VOLARI DUO V8 ULTRA :) Ja, gerade die 16 Pipes machen schon ordentlich was her - sollte man zumindest meinen. Bin ja mal gespannt, wann die ersten Reviews auftauchen :D

AlfredENeumann
2003-10-02, 23:52:54
Also wenn da bald nix von XGI kommt wird diese komische DUAL-Karte zum Start von NV40 und R420 auf den europäischen Markt erscheinen.

Außerdem unglaublich was für ein Hype u mdie Karte gemacht wird, obwohl bisher keiner die Bildqualität zu sehen bekommen hat. Und wieder werden Murks-Werte gehypt ohne Ende.

Hui 16 Pipes. Ich lach mich tot. Ne Dual RV360 mit 8 Pipes würde die Karte versägen ohne Ende.

Iceman346
2003-10-03, 01:47:43
Original geschrieben von SKYNET
zu den punkten der volari.....

habt ihr bemerkt das die volari den bench auf der computex 4x AF anhatte ? und dann noch mit "nur" 350/450 lief anstelle von 400/1000 die sie final haben wird ?

http://www.pcwelt.de/news/hardware/34175/

also wird die karte zumindest bei 3Dmurks 03 ne 9800XT alt aussehn lassen, und dank nette futures wie 16 pipes wird sie auch in games nen gutes gesicht machen :)

a new kind of fast is born... XGI VOLARI DUO V8 ULTRA :)

Wer weiss wie das AF bei XGI aussieht, von den Xabre Karten ist man da ja nicht viel positives gewöhnt ;)
Grundsätzlich finde ich es eher peinlich, dass die 2 Chips und 16 Pipelines brauchen um gegen Karten anzustinken die die Hälfte der Pipes haben. Aber ich warte mal die ersten richtigen Tests ab, vielleicht steckt ja mehr in der Karte als man so denkt.

SKYNET
2003-10-03, 02:12:46
Original geschrieben von Iceman346
Wer weiss wie das AF bei XGI aussieht, von den Xabre Karten ist man da ja nicht viel positives gewöhnt ;)
Grundsätzlich finde ich es eher peinlich, dass die 2 Chips und 16 Pipelines brauchen um gegen Karten anzustinken die die Hälfte der Pipes haben. Aber ich warte mal die ersten richtigen Tests ab, vielleicht steckt ja mehr in der Karte als man so denkt.

warum peinlich ? dann ist es auch peinlich das ATI 8 pipes brauch um NV auf den 2. platz zuverweisen, die haben nur 4 und sind dennoch annähernd gleichschnell :P

und dual ? warum nicht, umsogrößer die karte umsomehr lohnt sich nen fenster im case ;) weil sonen monster sieht schon extrem geil aus :)

Razor
2003-10-03, 02:30:10
Original geschrieben von betareverse
Es kommt ja nicht darauf an, ob SingleChip oder Dual oder Tripple, sondern wer zu welchem Preis welche Karte anbietet.

Wenn die V8-Duo-ultra mit weiterentwickelten Treibern schneller als die 5900Ultra ist und das sogar für weniger Geld, bedeutet das sehr wohl Alramstufe:Rot für NV., egal ob der Konkurrent nun zwei GPUs auf der Karte hat oder nicht.
"Weiterentwickelte Treiber " ?
:lol:

DER war echt gut !

Razor

Razor
2003-10-03, 02:32:54
Original geschrieben von Asuka
"Momentan nicht" !? :freak:
Erde an DrumDub! Die sind schon seit dem 9700 Pro letzes Jahr nicht mehr Nummer 1! Auch der mit mächtig Verspätung fertiggestellte FX konnte daran nicht ändern, also haben sie kräftig angefangen zu cheat0rn, denn ohne das haben sie keine Chance.
So, wie ATI beim AF ?
Checheatet habe hier beider Hersteller mächtig...

Razor

Razor
2003-10-03, 02:38:08
Original geschrieben von SKYNET
zu den punkten der volari.....

habt ihr bemerkt das die volari den bench auf der computex 4x AF anhatte ? und dann noch mit "nur" 350/900 lief anstelle von 400/1000 die sie final haben wird ?

http://www.pcwelt.de/news/hardware/34175/

also wird die karte zumindest bei 3Dmurks 03 ne 9800XT alt aussehn lassen, und dank nette futures wie 16 pipes wird sie auch in games nen gutes gesicht machen :)

a new kind of fast is born... XGI VOLARI DUO V8 ULTRA :)
Was redest Du denn da für einen Schnurz ?

Wenn Du die "Max Anisotropy: 4" meinst, dann ist das die Standard-Einstellung vom Murks03 und damit liefen die anderen Karten auch.

Bleibt also die Feststellung, dass es XGI (bisher zumindest) nicht geschafft hat, ATI oder nVidia zu schlagen... nicht einmal mit einer Dual-Chip-Lösung.

Insofern frage ich mich ernsthaft, was die "16 Pipes" da so treiben...
:D

Razor

Razor
2003-10-03, 02:41:01
Original geschrieben von SKYNET
warum peinlich ? dann ist es auch peinlich das ATI 8 pipes brauch um NV auf den 2. platz zuverweisen, die haben nur 4 und sind dennoch annähernd gleichschnell
Genau genommen hat nVidia sogar nur eine einzige Pipe...
:D

Razor

Iceman346
2003-10-03, 04:36:08
Original geschrieben von SKYNET
warum peinlich ? dann ist es auch peinlich das ATI 8 pipes brauch um NV auf den 2. platz zuverweisen, die haben nur 4 und sind dennoch annähernd gleichschnell :P

Was Nvidia da hat lässt sich sowieso nicht so ganz übersehen was das jetzt nun sind, ob 8 oder 4 Pipes ;)
Und ich finde es schon peinlich, dass eine Karte mit theoretisch mehr als doppelter Füllrate nicht mehr Leistung bringt.

und dual ? warum nicht, umsogrößer die karte umsomehr lohnt sich nen fenster im case ;) weil sonen monster sieht schon extrem geil aus :)

Das Board welches hier als Bild kursierte kriege ich in meinen Computer nicht rein, da wurds bereits mit ner FX 5900 Ultra eng. Und von Fenstern im Case halte ich per se wenig.

SKYNET
2003-10-03, 04:44:50
Original geschrieben von Iceman346

Das Board welches hier als Bild kursierte kriege ich in meinen Computer nicht rein, da wurds bereits mit ner FX 5900 Ultra eng. Und von Fenstern im Case halte ich per se wenig. [/SIZE]


1. banause, beimir hängt netmal nen kabel rum, alles sauber hinterm mobo / mobo schlitten / laufwerkskäfigen verlegt ~ also fenster ;)

2. wie währe es mal mit nem größerem case ?

Ailuros
2003-10-03, 04:54:42
Original geschrieben von Razor
Genau genommen hat nVidia sogar nur eine einzige Pipe...
:D

Razor

Uhmmm jein. ;)

SKYNET
2003-10-03, 04:56:35
Original geschrieben von Razor
Was redest Du denn da für einen Schnurz ?

Wenn Du die "Max Anisotropy: 4" meinst, dann ist das die Standard-Einstellung vom Murks03 und damit liefen die anderen Karten auch.

Bleibt also die Feststellung, dass es XGI (bisher zumindest) nicht geschafft hat, ATI oder nVidia zu schlagen... nicht einmal mit einer Dual-Chip-Lösung.

Insofern frage ich mich ernsthaft, was die "16 Pipes" da so treiben...
:D

Razor

du vergisst das chiptakt 50MHz und ram 100MHz unter normal lief und dann noch nen beta treiber.....
also wird sie locker mit den topkarten mithalten können :P :P

Ailuros
2003-10-03, 05:01:31
Insofern frage ich mich ernsthaft, was die "16 Pipes" da so treiben...

Genauso viel was die 8 Zixel pipes auf NV3x machen. Schneller als NV3x beim stenciling sind sie anscheinend auch nicht.

Angenommen duoV8 haben tatsaechlich 16Z/stencil units, hat der NV3x auch im Gegensatz 16 ROPs (wo Du im vorigen Post recht hastest ist wohl dass alle ROPs nur von einer Pipeline gefuettert werden). Auch R3xx haben 16Z/stencil units so wie es aussieht.

Ailuros
2003-10-03, 05:03:11
Original geschrieben von SKYNET
du vergisst das chiptakt 50MHz und ram 100MHz unter normal lief und dann noch nen beta treiber.....
also wird sie locker mit den topkarten mithalten können :P :P

Um die Shader-Leistung einer 9800PRO zu erreichen, muessten sie wohl auf 800MHz getaktet werden, wenn das ueberhaupt ausreicht.

SKYNET
2003-10-03, 05:16:10
Original geschrieben von Ailuros
Um die Shader-Leistung einer 9800PRO zu erreichen, muessten sie wohl auf 800MHz getaktet werden, wenn das ueberhaupt ausreicht.

woher willst das wissen ? wer sagt nicht das die treiber das ausmerzen ? ich mein: wieschlecht war denn bitte die leistung von ner 9700pro wo sie gelaucht wurde ? da war sie grade minimal schneller als ne Ti4600, jetzt ist sie wesentlich schneller als ne 4600er, grund: die treiber

alles eine sache der treiber, und da traue ich SiS ne menge zu 8)

Ailuros
2003-10-03, 05:41:38
Original geschrieben von SKYNET
woher willst das wissen ? wer sagt nicht das die treiber das ausmerzen ? ich mein: wieschlecht war denn bitte die leistung von ner 9700pro wo sie gelaucht wurde ? da war sie grade minimal schneller als ne Ti4600, jetzt ist sie wesentlich schneller als ne 4600er, grund: die treiber

alles eine sache der treiber, und da traue ich SiS ne menge zu 8)

a) DuoV8 liefert ~20 fps in Mother Nature/3dmark2003, nur einen halben frame mehr als eine 9600PRO.

b) Die Ti4600 ist heutzutage fast auch noch in CPU limitierten Spielen ohne AA/AF genauso schnell wie eine 9700PRO. Mit AA/AF war die 9700PRO schon beim Lauch um bis zu 250% schneller in hohen Aufloesungen als eine NV25.

c) Treiber geben Dir nicht etwa 2.5x mal soviel Bandbreite wie im Vergleichsfall einer R300 mit einer NV25.

***edit:

Juli 2002:

http://www.anandtech.com/video/showdoc.html?i=1656&p=23

August 2002:

http://www.anandtech.com/video/showdoc.html?i=1683&p=18
http://www.anandtech.com/video/showdoc.html?i=1683&p=19
http://www.anandtech.com/video/showdoc.html?i=1683&p=20
http://www.anandtech.com/video/showdoc.html?i=1683&p=21

SKYNET
2003-10-03, 08:12:16
AA lasse ich ent gelten ;) zocke ich eh net mit, ich bin nen frame-hunter, das passt mit AF/FSAA net zusammen ;)

LovesuckZ
2003-10-03, 08:46:17
Original geschrieben von SKYNET
AA lasse ich ent gelten ;) zocke ich eh net mit, ich bin nen frame-hunter, das passt mit AF/FSAA net zusammen ;)

in 640*480, no Details und de Kram wahrscheinlich

:freak:

Da würde sich aber nen Athlon FX deutlich bemerkbarer machen...

Gast
2003-10-03, 09:10:49
Original geschrieben von SKYNET
AA lasse ich ent gelten ;) zocke ich eh net mit, ich bin nen frame-hunter, das passt mit AF/FSAA net zusammen ;)

Die Problematik mit den beschränkten Schaltzeiten der Flachbildschirme bzw. den Bildwiederholraten der Röhrenmonitore ist dir schon bekannt, oder? Mit jedem Frame, das du nicht sehen kannst, heizt du deinen Rechner auf, ohne dafür einen Gegenwert zu erhalten/sehen. Vielleicht solltest du spätestens dann in Erwägung ziehen, AA & AF zu nutzen, um die Energie nicht sinnlos zu verschwenden!

Ailuros
2003-10-03, 10:09:17
Original geschrieben von SKYNET
AA lasse ich ent gelten ;) zocke ich eh net mit, ich bin nen frame-hunter, das passt mit AF/FSAA net zusammen ;)

Come again? :D

Heutige high end/enthusiast GPUs sind fuer hohe AA/AF Leistungen optimiert.

Frame-hunter? Also Quantitaet ueber Qualitaet? Geschmacksache.

Ich hingegen bevorzuge die hoechst-moegliche Qualitaet mit spielbarer Leistung. Dabei bin ich auch ein wahrer Gamer; Benchmarks sind nur gut um Schwaechen zu finden oder zum optimieren. Wuerde ich VPUs fuer "bragging rights" kaufen, wuerde ich wohl in Foren herumrennen und wie ein Platzhirsch ueber 100fps in 1280*960 mit 4xAA/16xAF in Spiel X angeben pfffff....

Razor
2003-10-03, 10:37:29
Original geschrieben von SKYNET
du vergisst das chiptakt 50MHz und ram 100MHz unter normal lief und dann noch nen beta treiber.....
also wird sie locker mit den topkarten mithalten können
Auch in der BQ ?
:D

Warten wir doch leiber erst mal offizielle Leistungswerte ab, OK ?
(und hoffen inständig, dass diese noch dieses Jahr kommen ;-)

Razor

Razor
2003-10-03, 10:39:56
Original geschrieben von Ailuros
Genauso viel was die 8 Zixel pipes auf NV3x machen. Schneller als NV3x beim stenciling sind sie anscheinend auch nicht.

Angenommen duoV8 haben tatsaechlich 16Z/stencil units, hat der NV3x auch im Gegensatz 16 ROPs (wo Du im vorigen Post recht hastest ist wohl dass alle ROPs nur von einer Pipeline gefuettert werden). Auch R3xx haben 16Z/stencil units so wie es aussieht.
Ah ja... und wieder was gelernt...
Thx for the Info !

Razor

Razor
2003-10-03, 10:42:32
Original geschrieben von SKYNET
wieschlecht war denn bitte die leistung von ner 9700pro wo sie gelaucht wurde ? da war sie grade minimal schneller als ne Ti4600, jetzt ist sie wesentlich schneller als ne 4600er, grund: die treiber

alles eine sache der treiber, und da traue ich SiS ne menge zu 8)
Jo, ATI hat auch 'nen satten 'Performance'-Schub aus der AF-Geschichte (Cheat ? ;-) heraus geholt. Und wenn man SiS/Trident gut kennt, dann haben die das auch drauf' !
:lol:

Razor

Iceman346
2003-10-03, 11:33:49
Original geschrieben von SKYNET
1. banause, beimir hängt netmal nen kabel rum, alles sauber hinterm mobo / mobo schlitten / laufwerkskäfigen verlegt ~ also fenster ;)

2. wie währe es mal mit nem größerem case ?

Kabel hab ich auch halbwegs aus dem Weg geräumt damit der Luftweg für meine Gehäuselüfter frei ist. Aber nen Fenster brauch ich dafür nicht :P

Und das die Karte nicht passt liegt am Festplattenkäfig (hab nen CS 601), da würde die Karte anstossen bzw. sich wahrscheinlich garnicht einbauen lassen. Ausserdem hab ich ne 9700 Pro, die ich noch etwas übertakten kann zur Not, da brauch ich keine Volari Duo ;)

Ailuros
2003-10-03, 12:03:05
Na ja so schlecht waere ein Schaufenster fuer einen Fliegen-Zirkus nun auch wieder nicht :D

SKYNET
2003-10-03, 16:46:16
Original geschrieben von LovesuckZ
in 640*480, no Details und de Kram wahrscheinlich

:freak:

Da würde sich aber nen Athlon FX deutlich bemerkbarer machen...

nana, augenkrebs will ich nun net bekommen ;)

singleplayer: 1600*1200
multiplayer je nach game 1024*768 oder 1280*1024

SKYNET
2003-10-03, 16:47:14
Original geschrieben von Gast
Die Problematik mit den beschränkten Schaltzeiten der Flachbildschirme bzw. den Bildwiederholraten der Röhrenmonitore ist dir schon bekannt, oder? Mit jedem Frame, das du nicht sehen kannst, heizt du deinen Rechner auf, ohne dafür einen Gegenwert zu erhalten/sehen. Vielleicht solltest du spätestens dann in Erwägung ziehen, AA & AF zu nutzen, um die Energie nicht sinnlos zu verschwenden!

ich sehe sie net.....
aber der der framecounter der immer mitläuft :D

SKYNET
2003-10-03, 16:48:31
Original geschrieben von Razor
Auch in der BQ ?
:D

Warten wir doch leiber erst mal offizielle Leistungswerte ab, OK ?
(und hoffen inständig, dass diese noch dieses Jahr kommen ;-)

Razor


hehe, im november soll sie käuflich erwerbbar sein.... also können es noch fast 2 monate werden :eek:

Gaestle
2003-10-03, 16:50:40
Original geschrieben von SKYNET
ich sehe sie net.....
aber der der framecounter der immer mitläuft :D


STRIKE!

SKYNET
2003-10-03, 16:51:33
Original geschrieben von Iceman346
Kabel hab ich auch halbwegs aus dem Weg geräumt damit der Luftweg für meine Gehäuselüfter frei ist. Aber nen Fenster brauch ich dafür nicht :P

Und das die Karte nicht passt liegt am Festplattenkäfig (hab nen CS 601), da würde die Karte anstossen bzw. sich wahrscheinlich garnicht einbauen lassen. Ausserdem hab ich ne 9700 Pro, die ich noch etwas übertakten kann zur Not, da brauch ich keine Volari Duo ;)

tzz tzz, ,warum kaufste dri auch sonen mainstream case ?
das ding ist doch grottig hässlich, und wenn ich das auf den lans schon immer sehe wird mir schlecht..... 2 von 3 leuten haben sonen ding stehn *schüttel und gänsehaut bekomm*
ich bleibe da lieber bei exklusiven marken wie Lian-Li und Coolermaster :)