PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Volari News Sammelthread


Radeonator
2003-10-29, 20:40:33
So, nun mal was interessantes...

Erste Volari Karten sollen in kleinen Mengen bereits ab dem 10 November erhältlich sein!!!

http://www.theinquirer.net/?article=12362

Hersteller bekamen eine Vorführung auf der System 03

http://www.volarigamers.com/modules/news/article.php?storyid=33

mapel110
2003-10-29, 21:18:20
Original geschrieben von Radeonator
So, nun mal was interessantes...

Erste Volari Karten sollen in kleinen Mengen bereits ab dem 10 November erhältlich sein!!!

http://www.theinquirer.net/?article=12362

Hersteller bekamen eine Vorführung auf der System 03

http://www.volarigamers.com/modules/news/article.php?storyid=33

ab 10. november? und dann jetzt noch nicht mal vorabreviews? :kratz:

/edit
ahhhhhhh,

:cop: FUAD :cop:

KM
2003-10-30, 09:54:34
Original geschrieben von mapel110
ab 10. november? und dann jetzt noch nicht mal vorabreviews? :kratz:

/edit
ahhhhhhh,

:cop: FUAD :cop:
Vielleicht will XGI Spannung erzeugen oder die Chips haben nicht die Leistung, die wir uns erhoffen?

KEINPLAN
2003-10-30, 11:40:03
Oder sie möchten das es die Karten schon zu kaufen gibt, wenn sie getestet werden!

ernesto.che
2003-10-30, 22:14:46
Original geschrieben von KEINPLAN
Oder sie möchten das es die Karten schon zu kaufen gibt, wenn sie getestet werden!
Oder bevor sie getestet werden können :D

MadManniMan
2003-10-31, 00:05:42
Also ich habe ein Äquivalent zu Valve im Sinn:

XGI hielt sich lange zurück, präsentierte dann Portfolio (Valve: "guckt unsere Gameplaydemos!") und 3DMurks (Valve: "guckt Performance von Grafikdemos mit Karten von IHV's!"), um letztendlich mit utopischen Releasedaten (Valve: "guckt am 30.09. zu euren SW-Händlern!") viel Marketing zu machen und aus irgendwelchen Gründen zu verschieben.
Jetzt muß mir nur noch ein Grund für nen HW-Leak einfallen! :D

AMC
2003-10-31, 01:28:08
Original geschrieben von MadManniMan
Jetzt muß mir nur noch ein Grund für nen HW-Leak einfallen! :D

Nee Manni,
ich glaube, du bist mit deinem HW Leak auf dem Holzweg!! Ich schätze, dass es sich eher um eine Art Diebstahl handeln wird.
Folgendes Szenario:

Nächste Woche heisst es plötzlich in einer Pressemitteilung von XGI, dass Volari Karten gestohlen worden seien und zwischen den Reviewer Seiten kursieren. Man solle sich aber kein Bild über die Leistungsfähigkeit der Karten machen, da sich die gestohlenen Exemplare alle noch im beta Stadium befinden. Dann tritt ein dicker Mann aus den inneren Reihen der XGI Führung vor die Presse und behauptet, dass NUR ein paar Karten abhanden gekommen wären und einen Tag später tauchen dann plötzlich die Treiberquellcodes im Internet auf! ;D
Ein paar Tage später erscheinen dann erste Treiber-mods im Internet und die Reviewer haben allerhand zu tun. Dann wird angefangen nach den Dieben zu suchen und Val.. pardon, XGI, lässt erklären, dass die dreisten Diebe extra eigene Schlüssel für die Lagerhalle gebastelt haben und ruft alle Menschen auf, sich an der Jagd zu beteiligen. Dann spriessen überall auf der Welt möchtegern Sherlock Holmes, extra Mirc Channel und Webseiten aus dem Boden und die Leute bespitzeln sich DDR-like, bis fast jeder inklusive der eigenen Mutter verdächtigt wird, die Karten gestohlen zu haben. :freak:

AMC :D

P.S. Vielleicht findet sich ja auch etwas System V Code in den Treibern, dann kann SCO ja auch noch ne Klage nachreichen. löl!

Gast
2003-10-31, 10:04:13
Vielleicht gehört euer angesammeltes geschwätz auch nicht in diesen thread, sondern auf die Spielwiese bzw in den Müll.

Wenn euch neues nicht interessiert, dann sabbelt doch weiterhin über ATi vs Nvidia :zzz:

Matrix316
2003-10-31, 13:01:44
Also bei ganz neuen Grafikkarten wäre ich vorsichtig. Das letzte Mal als eine ganz neue Grafikkarte eines neuen Herstellers wirklich eingeschlagen hat war die Voodoo1 von 3DFX ;D

Börk
2003-10-31, 13:15:06
Original geschrieben von Matrix316
Also bei ganz neuen Grafikkarten wäre ich vorsichtig. Das letzte Mal als eine ganz neue Grafikkarte eines neuen Herstellers wirklich eingeschlagen hat war die Voodoo1 von 3DFX ;D
Die Karte ist ja kein Erstprodukt.
Die Kerle haben schlisslich schonmal Grakas gebaut :naughty:

MadManniMan
2003-10-31, 14:40:33
Original geschrieben von AMC
Nee Manni,
ich glaube, du bist mit deinem HW Leak auf dem Holzweg!! Ich schätze, dass es sich eher um eine Art Diebstahl handeln wird.
Folgendes Szenario:

Nächste Woche heisst es plötzlich in einer Pressemitteilung von XGI, dass Volari Karten gestohlen worden seien und zwischen den Reviewer Seiten kursieren. Man solle sich aber kein Bild über die Leistungsfähigkeit der Karten machen, da sich die gestohlenen Exemplare alle noch im beta Stadium befinden. Dann tritt ein dicker Mann aus den inneren Reihen der XGI Führung vor die Presse und behauptet, dass NUR ein paar Karten abhanden gekommen wären und einen Tag später tauchen dann plötzlich die Treiberquellcodes im Internet auf! ;D
Ein paar Tage später erscheinen dann erste Treiber-mods im Internet und die Reviewer haben allerhand zu tun. Dann wird angefangen nach den Dieben zu suchen und Val.. pardon, XGI, lässt erklären, dass die dreisten Diebe extra eigene Schlüssel für die Lagerhalle gebastelt haben und ruft alle Menschen auf, sich an der Jagd zu beteiligen. Dann spriessen überall auf der Welt möchtegern Sherlock Holmes, extra Mirc Channel und Webseiten aus dem Boden und die Leute bespitzeln sich DDR-like, bis fast jeder inklusive der eigenen Mutter verdächtigt wird, die Karten gestohlen zu haben. :freak:

AMC :D

P.S. Vielleicht findet sich ja auch etwas System V Code in den Treibern, dann kann SCO ja auch noch ne Klage nachreichen. löl!

Auch wenns den Gast stört :D ...

...man sollte die Vorgeschichte etwas ausarbeiten:
>Jener dicke Mann bemerkte irgendwann, daß die letzten Wochen jemand durch die Fabs und Entwicklerstuben streifte, der eigentlich gar nicht zur Firma gehörte. So irritierte ihn zB seine Angewohnheit, immer von einem großen Objekt zum nächsten zu springen und die Kleidung der jeweiligen Umgebung anzupassen. Nachdem dann Wochen später erste "geleakte" HW-Samples, sowie Treibersources und Pläne der Nachfolger auf dem Schwarzmarkt auftauchten, bemerkte der dicke Mann letztendlich, daß man wohl ein wenig unvorsichtig gewesen ist. Daß die Liefer- und Firmenwagen allesamt einige hundert Kilometer mehr als üblich auf dem Buckel hatten, war natürlich niemandem aufgefallen...

Matrix316
2003-10-31, 20:39:16
Original geschrieben von burk23
Die Karte ist ja kein Erstprodukt.
Die Kerle haben schlisslich schonmal Grakas gebaut :naughty:

Aber was für welche...;)

Ailuros
2003-11-01, 02:10:54
Original geschrieben von Matrix316
Also bei ganz neuen Grafikkarten wäre ich vorsichtig. Das letzte Mal als eine ganz neue Grafikkarte eines neuen Herstellers wirklich eingeschlagen hat war die Voodoo1 von 3DFX ;D

Karten die bis jetzt Usern am meisten imponiert haben sind:

3Dfx Voodoo1.
GeForce 3
Radeon 9700 PRO

Ich persoenlich stimme da zu, und hab auch keine von diesen ausgelassen :)

robbitop
2003-11-01, 11:10:06
wenn du die 9700PRO zählst solltest du auch die V2 zählen...zT neue Technologie (zB BumpMapping)und das einzige ma neben der voodoo dass es einen sooo grossen Leistungssprung gab ;)

ich weiss noch die Voodoo2 hat mich damals echt umgehauen und die SLI Variante sowieso :D

Gast
2003-11-01, 11:15:03
.

Ice-Kraem
2003-11-01, 13:23:44
Original geschrieben von robbitop
wenn du die 9700PRO zählst solltest du auch die V2 zählen...zT neue Technologie (zB BumpMapping)und das einzige ma neben der voodoo dass es einen sooo grossen Leistungssprung gab ;)

ich weiss noch die Voodoo2 hat mich damals echt umgehauen und die SLI Variante sowieso :D

ja das mit 2 voodoo2 karten war der urknall bei den grakas überhaupt...

Radeonator
2003-11-01, 21:29:49
In deiner Aufzählung hast du IMO die Kyro vergessen!!!
Aber bitte liebe Leute, eure Skepsis in allen ehren, aber dies soll ein info thread werden und kein "Alles ausser ATi und Nv ist sowieso Sh1c3" thread...wenn ihrs alle so drauf habt, warum macht ihr dann nicht eure eigene Firma auf :lol: Zudem möchte ich dann von einem von Euch die Kristallkugel haben, die ihr zu besitzen scheint:|

MadManniMan
2003-11-01, 23:09:44
Original geschrieben von Radeonator
In deiner Aufzählung hast du IMO die Kyro vergessen!!!
Aber bitte liebe Leute, eure Skepsis in allen ehren, aber dies soll ein info thread werden und kein "Alles ausser ATi und Nv ist sowieso Sh1c3" thread...wenn ihrs alle so drauf habt, warum macht ihr dann nicht eure eigene Firma auf :lol: Zudem möchte ich dann von einem von Euch die Kristallkugel haben, die ihr zu besitzen scheint:|

Mal ganz davon ab, daß hier keiner so abgeht, wie du es gerade umschreibst...

...erinnert mich deine Beschreibung doch extrem an dich, als du deine R95P hattest :wink:

Radeonator
2003-11-02, 00:42:43
Erstens stimmt das nicht und zweitens ein armer provokations Versuch :zzz:

BTW Was haben die Threads über die einzig waren "Meilensteine" nun denn mit Volari News zu tun ???

MadManniMan
2003-11-02, 01:17:54
Original geschrieben von Radeonator
Erstens stimmt das nicht und zweitens ein armer provokations Versuch :zzz:

Sollen jetzt wirklich die Leichen aus dem Keller geholt werden? :ratlos:

Du warst der Inbegriff deines Namens. Wundert mich schon fast, daß du dich nicht hast in "RivaTuner" umbenennen lassen. Aber lassen wir das, ist eh sinnlos. Ich will dich nicht irgendwie provozieren - wozu auch? Daß Einzige wäre, daß du zugäbest, wie du vor nem halben Jahr warst...

:|

Ailuros
2003-11-02, 06:05:09
Original geschrieben von Radeonator
In deiner Aufzählung hast du IMO die Kyro vergessen!!!
Aber bitte liebe Leute, eure Skepsis in allen ehren, aber dies soll ein info thread werden und kein "Alles ausser ATi und Nv ist sowieso Sh1c3" thread...wenn ihrs alle so drauf habt, warum macht ihr dann nicht eure eigene Firma auf :lol: Zudem möchte ich dann von einem von Euch die Kristallkugel haben, die ihr zu besitzen scheint:|

KYRO war ein langweiliges budget Produkt die fuer nur maessiges Aufsehen und Verkaufszahlen erregte, im Vergleich zu den Mega-Monstern die ich erwaehnte. Die 3 kann man schwer bezweifeln.

Threads gehen oefters OT; momentan gibt es leider keine weiteren Details zu Volari. Anstatt zu meckern sei froh dass der Thread auf die eine Art und Weise lebendig bleibt, bis etwas handfesteres aufkreuzt.

Wie ist das Wetter heute? *rennt um sein Leben*

aths
2003-11-02, 06:29:37
Original geschrieben von robbitop
wenn du die 9700PRO zählst solltest du auch die V2 zählen...zT neue Technologie (zB BumpMapping)und das einzige ma neben der voodoo dass es einen sooo grossen Leistungssprung gab ;)

ich weiss noch die Voodoo2 hat mich damals echt umgehauen und die SLI Variante sowieso :D Voodoo2 war letztlich eine sehr schnelle Voodoo1, und eben mit Multitexturing. Der "Urknall" kam mit Voodoo Graphics, Voodoo2 "nur" ein Update.

Piffan
2003-11-02, 08:55:35
Original geschrieben von Ailuros
KYRO war ein langweiliges budget Produkt die fuer nur maessiges Aufsehen und Verkaufszahlen erregte, im Vergleich zu den Mega-Monstern die ich erwaehnte. Die 3 kann man schwer bezweifeln.



Also langweilig ist die Kyro sicher nicht gewesen....warum sonst hat sich NV zu der Hetzkampagne hinreissen lassen?

Langweilig höchstens von der Marktbedeutung, das wohl...

robbitop
2003-11-02, 11:34:06
Ja die 9700PRO war auch kein "Urknall"..schon beeindruckend die Karte ...aber kein Urknall eben radikal mehr Performance und das war eben nur bei der Voodoo2 auch in dem Maße ggü ihrem Vorgänger (Nachfolgeprodukt mehr als 200% Performance vom Vorgänger)

Gast
2003-11-02, 12:26:38
Die 9700er reihe war schon nen "urknall" immerhin hat damit erst der AA und AF wahn richtig angefangen

ernesto.che
2003-11-02, 12:32:00
Original geschrieben von Gast
Die 9700er reihe war schon nen "urknall" immerhin hat damit erst der AA und AF wahn richtig angefangen
Also AA hat bei Qualitätsbewussten schon mit einer Voodoo5 angefangen ;)

robbitop
2003-11-02, 12:43:02
naja
es war die GESCHWINDIGKEIT die das machbar machte...

und bei der Voodoo2 war das ein sehr ähnlicher Speedup...somit wurden höhere Auflösungen und Detailstufen machbar.

Piffan
2003-11-02, 13:38:07
Original geschrieben von Gast
Die 9700er reihe war schon nen "urknall" immerhin hat damit erst der AA und AF wahn richtig angefangen

Also ich habe schon bei der GF3 mit AA und AF angefangen. Halt in kleinerem Maßstab, aber RTCW oder MoHAA war schon mit 2x AF und 4xBiAF kein Problem.....Dank Optimierungen des AF ging es auch bei Dungeon Siege, Mafia und dergl....ältere Titel waren eh kein Thema....Ältere Titel gingen sogar auf der Herkules MX (dezent getunt) mit Supersampling einwandfrei, so Jedi 1 und Mission....

Ich würde es nicht als Wahn bezeichnen....man könnte ja auch andersrum argumentieren und sagen, dass es nicht so drauf ankommt, darum zocke man besser in 640x480, alles andere ist übertrieben :D

Apropo: Damals sah Tombraider 1 auf der Voodoo graphics doch so gut aus, viel besser als Tomb 2 in D3D...der Grund war, dass der Voodoo schon Edge- AA bot ! Voodoo 1 war klar der Urknall....

Radeonator
2003-11-02, 19:16:06
Also ich war damals von meiner PoCo Kyro begeistert. Ein gutes Stück HW, blos gegen die PR Maschienen von Nv hatte admals fast keine GPU eine Chance.

Jo, das Wetter ist sh1c3 ;)

Voodoo Graphics war damals wirklich ein Urknall(Würde sogar sagen, der Urknall...obwohl vom Feature Set war die Savage4(Pro) eigentlich auch ein Knaller. Nur schade das zu der Zeit niemand mit PR (ausser Nv) umgehen konnte :(
Wer einmal Games mit s3metal Unterstützung gesehen hat, weiss was ich meine ;)

In ein paar Tagen sollte es im Volari Bereich wirklich interessant werden, entweder Top oder Flop...

@mmm :

Original geschrieben von MadManniMan
Sollen jetzt wirklich die Leichen aus dem Keller geholt werden? :ratlos:

Du warst der Inbegriff deines Namens. Wundert mich schon fast, daß du dich nicht hast in "RivaTuner" umbenennen lassen. Aber lassen wir das, ist eh sinnlos. Ich will dich nicht irgendwie provozieren - wozu auch? Daß Einzige wäre, daß du zugäbest, wie du vor nem halben Jahr warst...

:|

Das stimmt einfach nicht, kannst auch gerne Leichen ausgraben!!! Vielleicht willst du es nicht verstehen, ich bin kein Fanboy und werde nie einer werden!!! Ich hatte btw als ich die R9500Pro hatte auch die Xabre...das hast du natürlich vergessen , non ? Ich bin eher jemand, den alle GPU´s interessieren und der sich gerne in realer Praxis ein Bild macht, denn einer der sich an nur eine GPU klammert. Das wirsd du, wenn du alte Threads ausgräbst, mehr als einmal lesen (such mal in sonstiges nach meiner GPU Historie... )!
Aber wir lassen es echt besser so bewenden, da ich keine Lust habe, alles x mal zu wdh. ...

Darkness
2003-11-03, 01:06:44
hmm auch wenns jetzt nicht direkt hier zu passt:

Mit was für einer Verlustleistung muss man eigentlich bei dem neuen XGI Topmodell rechnen ?

Würde sich sicher gut machen neben meiner Voodoo 5 (PCI) im AGP Slot ;)

Ailuros
2003-11-03, 05:27:04
Original geschrieben von robbitop
Ja die 9700PRO war auch kein "Urknall"..schon beeindruckend die Karte ...aber kein Urknall eben radikal mehr Performance und das war eben nur bei der Voodoo2 auch in dem Maße ggü ihrem Vorgänger (Nachfolgeprodukt mehr als 200% Performance vom Vorgänger)

aths wuerde Dir liebend gerne sagen, dass die R300 effektiv dreimal so hohen EER als die Konkurrenz mit Multisampling schaffte *aetsch*

Ailuros
2003-11-03, 05:29:14
Original geschrieben von ernesto.che
Also AA hat bei Qualitätsbewussten schon mit einer Voodoo5 angefangen ;)

Nur im PC-desktop Bereich und um genauer zu sein mit einer sparse grid sampling Methode. OGSS gab's auf PC Graphikkarten schon zuvor.

Ailuros
2003-11-03, 05:31:59
Original geschrieben von Darkness
hmm auch wenns jetzt nicht direkt hier zu passt:

Mit was für einer Verlustleistung muss man eigentlich bei dem neuen XGI Topmodell rechnen ?

Würde sich sicher gut machen neben meiner Voodoo 5 (PCI) im AGP Slot ;)

Was genau meinst Du mit Verlustleistung? Volari wird meiner Meinung nach gute Vorteile mit stencil ops haben; wenn sie einen Shader Optimizer einbauen werden kann es sein dass sie es auf NV's Shader Leistung schaffen.

deekey777
2003-11-03, 10:29:21
Was war das für ein Thread mal?

Ein "Test" (da von PCWelt): http://www.pcwelt.de/news/hardware/35182/

[dzp]Viper
2003-11-03, 10:38:03
Original geschrieben von deekey777
Was war das für ein Thread mal?

Ein "Test" (da von PCWelt): http://www.pcwelt.de/news/hardware/35182/

super - hat jemand einen PC Welt Premium account? :|

KM
2003-11-03, 10:38:40
Original geschrieben von deekey777
Was war das für ein Thread mal?

Ein "Test" (da von PCWelt): http://www.pcwelt.de/news/hardware/35182/
Der 14 seitige Artikel ist nur im Premium-Bereich abrufbar.
Schaaade. Da hat XGI PC-Welt wohl nicht ausreichend .... :) (Achtung: Ironie)

Edit
[dzp]Viper, du warst einen tick schneller.

Radeonator@work
2003-11-03, 10:47:02
Nun müsste man lediglich wissen, ob die Pipes in die Länge oder Breite designed wurden, denn :

Falls die Pipes in die Breite gebaut und mit mehr Registern versorgt wurden, erwarte ich sogar eine bessere Shader Leitung als bei den Nv Karten.

Angesichts der Standart Kühlung dürfte die Verlustleistung in annehmbarem Rahmen liegen.

Gaestle
2003-11-03, 12:05:29
Bei einem holl. Anbieter (MaxPC) ist die V8 Duo (von Club3d) für 429,- gelistet. (Allerdings "Lieferzeit unbekannt" bzw. "Levertijd onbekend")

siehe:
http://www.maxpc.nl/N_grp_31_141-1.html

(im unteren Drittel der Seite)

Grüße

Ailuros
2003-11-03, 13:13:32
4 euro zu zahlen um ein paar Resultate zu lesen ist wohl uebertrieben.

[dzp]Viper
2003-11-03, 13:21:38
Original geschrieben von Ailuros
4 euro zu zahlen um ein paar Resultate zu lesen ist wohl uebertrieben.

im ersten monat nur 2 € :money:

CrazyIvan
2003-11-03, 14:12:21
Da es scheinbar noch keiner hier gepostet hat:

Auf Tecchannel gibbet nen ersten Test vom nem Sample der Volari Duo V8 Ultra mit Beta - Treibern.

IMHO nix, was man auf die Goldwaage legen sollte, aber immerhin ein Anhaltspunkt. Leider war mit dem Treiber weder AA noch AF möglich - aber was solls.

Zum Bericht gehts hier (http://www.tecchannel.de/hardware/1271/index.html) lang.

/edit: Mit der Kommasetzung haperts um die Uhrzeit noch e bissl ;D

Ailuros
2003-11-03, 14:24:51
Schade dass noch kein AA/AF im Treiber moeglich ist. Wen zum Henker interessieren 200+fps in Q3a heutzutage ohne AA/AF....

SS:SE und UT2k3 Resultate waeren schon um einiges interessanter. Hat jemand die 2 euros schon ausgelegt oder nicht? (komischerweise bin ich bis zur Kreditkarten-Verifikation vorgegangen und es blieb auf knapp unter 4 euros, was hab ich uebersehen?).

[dzp]Viper
2003-11-03, 14:26:20
Original geschrieben von CrazyIvan
Da es scheinbar noch keiner hier gepostet hat:

Auf Tecchannel gibbet nen ersten Test vom nem Sample der Volari Duo V8 Ultra mit Beta - Treibern.

IMHO nix, was man auf die Goldwaage legen sollte, aber immerhin ein Anhaltspunkt. Leider war mit dem Treiber weder AA noch AF möglich - aber was solls.

Zum Bericht gehts hier (http://www.tecchannel.de/hardware/1271/index.html) lang.

/edit: Mit der Kommasetzung haperts um die Uhrzeit noch e bissl ;D

Also die karte KÖNNTE was werden, wenn sie günstig ist - also max 300€ und nicht mehr...

Exxtreme
2003-11-03, 14:31:43
Also laut dem tecchannel-Test ist das Teil ganz schön flott. Wo ich eher skeptisch bin, sind die Treiber. Ich glaube nicht, daß XGI so schnell ATi-Niveau (R300 und Drivate) erreicht.

Naja, mal andere Tests abwarten. Tecchannel haben sich schon einige Dinger geleistet bezüglich Reviews.

mapel110
2003-11-03, 14:33:39
hm, nach den bisherigen zahlen zu urteilen, scheint der chip einigermassen konkurrenzfähig. jetzt hängts an den AA/AF modi und am preis. hoffentlich gibts keinen turbo tex mode ;(


Mehr Details, Benchmarks und spielebezogene Messungen finden Sie in den nächsten Ausgaben unserer Schwesterzeitschriften GameStar. und PC-Welt.

:freak:

:schlag:

nagus
2003-11-03, 14:54:37
also ich finde das dieses Dual-ding ziehmlich lächerlich!

mit fast 400Mhz für beide VPUs UND 900Mhz DDR2 ist das ding beim 3dmark2003 grotten schelcht! halb so schnell wie eine 9800erXT?!?! was soll der dreck überhaupt??? hamse den typen ins hirn gesc*****???? welche idioten bauen solche grafikkarten??? in der herstellung sicher doppelt so teuer wie eine 9800er, dafür ~ 50% langsamer?!

der LETZTE dreck das teil. vielleicht können die kleinen, nicht-dual-dingis was reißen, aber die doppelte ist definitiv ein griff ins klo.

Exxtreme
2003-11-03, 14:56:27
Nagus,

bitte keine Kraftausdrücke. :nono:

Erstens wurde mit frühen Beta-Treibern getestet und zweitens... Tecchannel halt. ;)

[dzp]Viper
2003-11-03, 14:56:57
Original geschrieben von nagus
also ich finde das dieses Dual-ding ziehmlich lächerlich!

mit fast 400Mhz für beide VPUs UND 900Mhz DDR2 ist das ding beim 3dmark2003 grotten schelcht! halb so schnell wie eine 9800erXT?!?! was soll der dreck überhaupt??? hamse den typen ins hirn gesc*****???? welche idioten bauen solche grafikkarten??? in der herstellung sicher doppelt so teuer wie eine 9800er, dafür ~ 50% langsamer?!

der LETZTE dreck das teil. vielleicht können die kleinen, nicht-dual-dingis was reißen, aber die doppelte ist definitiv ein griff ins klo.

mäßige deine ausdrucksweise oder sind wir hier im Kindergarten?

Ausserdem ist es doch egal wie sie an die leistung kommen - hauptsache die karte kostet nicht so viel!

Was spricht gegen die Karte, wenn sie "nur" 250 € kosten würde? Nix - oder?

Also calm down ;)

nagus
2003-11-03, 15:02:01
Original geschrieben von Exxtreme
Nagus,

bitte keine Kraftausdrücke. :nono:

Erstens wurde mit frühen Beta-Treibern getestet und zweitens... Tecchannel halt. ;)

"... außerdem unterstüzten die jetzigen treiber noch kein fsaa und af..."

hmmm.... ich frage mich warum wohl?

1. mit fsaa und af "kackt" das ding vollkommen ab?
2. fsaa und af funzen nicht korrekt und fabrizieren bildfehler?
3. schlechte bildqualität?

... ich tippe eher auf ersteres

ich wette nächstes jahr sind "die" mit dieser "VPU" wieder von der bildfläche verschwunden.

ich frage mich was die typen damit bezwecken? haben doch sowieso NULL chancen gegen Nvidia und ATi. ( es sei denn sie verschenken die grafikkarten ;)

nagus
2003-11-03, 15:03:52
Original geschrieben von [dzp]Viper
mäßige deine ausdrucksweise oder sind wir hier im Kindergarten?

Ausserdem ist es doch egal wie sie an die leistung kommen - hauptsache die karte kostet nicht so viel!

Was spricht gegen die Karte, wenn sie "nur" 250 € kosten würde? Nix - oder?

Also calm down ;)


wenn das dual-dingi 250euro kostet fress ich einen besen sammt putzfrau

NIE und NIMMER gibts das ding um 250euro. außerdem würde ich mich niemals dieses "trumm" kaufen. selbst für 100 euro nicht.

[dzp]Viper
2003-11-03, 15:04:34
Original geschrieben von nagus
"... außerdem unterstüzten die jetzigen treiber noch kein fsaa und af..."

hmmm.... ich frage mich warum wohl?

1. mit fsaa und af "kackt" das ding vollkommen ab?
2. fsaa und af funzen nicht korrekt und fabrizieren bildfehler?
3. schlechte bildqualität?

... ich tippe eher auf ersteres

ich wette nächstes jahr sind "die" mit dieser "VPU" wieder von der bildfläche verschwunden.

ich frage mich was die typen damit bezwecken? haben doch sowieso NULL chancen gegen Nvidia und ATi. ( es sei denn sie verschenken die grafikkarten ;)

gehts noch?

Du weisst NIX über die treiber uns stellst irgendwelche behauptungen in den Raum...

Es wäre 10 mal besser wenn das ding erfolg hat! Und wenn die Preise niedrig sind, dann wird das sicher ein erfolg...


Original geschrieben von nagus
wenn das dual-dingi 250euro kostet fress ich einen besen sammt putzfrau

NIE und NIMMER gibts das ding um 250euro. außerdem würde ich mich niemals dieses "trumm" kaufen. selbst für 100 euro nicht.

na und- was DU willst, müssen ja auch nicht alle anderen wollen...

wenn ich mir deine letzten posts durchlese (mit den ganzen kraftausdrücken und co.) dann frage ich mich wirklich wie alt du bist...

edit:

wenn du in so einem Ton schreibst wie oben, dann provozierst du ja nur einen flamethread!
Vielleicht solltest du mal mit etwas abstand an die sache rangehen!

P.S. Das ist ein Newsthread und kein Diskussions/Streitthread - oder? :D

[dzp]Viper
2003-11-03, 15:05:44
hab mich selbst zitiert :|

ow
2003-11-03, 15:13:57
Original geschrieben von mapel110
hm, nach den bisherigen zahlen zu urteilen, scheint der chip einigermassen konkurrenzfähig.

Soll das ein Witz sein??

Mit 2 Chips noch unter dem Niveau der Einchip-Loesungen von NV/Ati nennst du konkurrenzfaehig?
IMO ist der XGi Chip nur eines: Silizium-Schrott.

nagus
2003-11-03, 15:15:08
ok, bleiben wir mal realistisch


1. die dual-lösung ist in der produktion extrem aufwendig und fehleranfällig
2. 256MB DDR2 ram ist nicht unbedingt billig
3. die größe und komplexität des boardlayouts lassen auf kein "billiges" schnäppchen schließen
4. die treiber sind vermutlich noch in einem sehr, sehr frühen stadium, ODER es gibt wirklich probleme mit FSAA und/oder AF, deshalb sind diese features nicht aktiv
5. halb so schnell wie eine 9800erXT beim 3dmark2003 in 1600x1200 sind nicht unbedingt "toll"
6. praktisch überall anders auch deutlich langsamer auch nicht...
7. diese karte könnte sich evtl NUR über den preis durchsetzen, was aber durch die ersten 3 punkte nicht unbedingt leicht wird
8. probleme und inkompatibilitäten müssen erst noch aufgedeckt werden, evtl. cheats ebenfalls.
8a. praktisch jeder hersteller hat in irgendwie probleme mit gewissen spielen, warum solle das bei einer vollkommen neu entwickelten VPU und nicht ausgereiften treibern anders sein? im gegenteil.

ow
2003-11-03, 15:15:08
Original geschrieben von Exxtreme
Nagus,

bitte keine Kraftausdrücke. :nono:

Erstens wurde mit frühen Beta-Treibern getestet und zweitens... Tecchannel halt. ;)

Aber drittens hat er hier ganz recht.:D

nagus
2003-11-03, 15:16:11
Original geschrieben von ow
Soll das ein Witz sein??

Mit 2 Chips noch unter dem Niveau der Einchip-Loesungen von NV/Ati nennst du konkurrenzfaehig?
IMO ist der XGi Chip nur eines: Silizium-Schrott.

genau das trifft den nagel auf den kopf. SCHROTT

ow
2003-11-03, 15:16:25
Original geschrieben von [dzp]Viper


Was spricht gegen die Karte, wenn sie "nur" 250 € kosten würde? Nix - oder?



Und was spraeche dafuer? Nix - oder?

[dzp]Viper
2003-11-03, 15:22:03
Original geschrieben von ow
Und was spraeche dafuer? Nix - oder?

WENN AA und AF funzt und der performanceverlust nicht alzu groß ist, dann spräche der Preis für die Karte - aber das wird sich erst zeigen müssen. (genauso auch der preis :D)

P.S. Viel habe ich eh nie von der duallösung erwartet, da schon immer gesagt wurde, dass man mit der karte ca 9700pro bis 9800 niveau erreichen wollte (3dmark03 5000 punkte)

Ich bezweifle zwar auch, dass der Preis der Karte bei 250€ liegen wird aber mal sehen :)

Exxtreme
2003-11-03, 15:22:34
Original geschrieben von [dzp]Viper

Was spricht gegen die Karte, wenn sie "nur" 250 € kosten würde? Nix - oder?

Also calm down ;)
250€? Eher das Doppelte. Schau dir mal das Teil an. Ist zwar nicht ganz so schlimm wie der FX-Fön aber das Board ist IMHO nicht ganz billig herzustellen. Ausserdem musst du den Speicher doppelt vorhalten. Wenn die GraKa also 256 MB physikalisch hat dann sind nur praktisch 128 MB nutzbar da alle Texturen doppelt gespeichert werden.

reunion
2003-11-03, 15:24:22
Also meinermeinung nach ist die Karte Selbstmord!
Sauteuren DDRII Speicher, 2 Chips, extrem aufwendiges PCB, aufwendige Treiberproggramierung,...
Also um einiges teurer in der herstellung als die Topmodelle von NV und ATi, trozdem reicht die Leistung geradeinmal um sich gegen die 9600XT bzw. 5700U durchzusetzten, also "darf" die Karte auch nicht vielmehr kosten als 200-250€, was wohl nicht machbar sein wird.

Die Single V8 die eigendlich oberes Midrageprodukt sein sollte wird sich vermutlich geradeinmal, wenn überhaupt gegen die 9600 non pro behaupten können wo da die V5 liegt will ich gar nicht wissen...

Die Treiber dürfte vermutlich auch nicht das wahre sein und auch die AA bzw. AF Qualität ist unter deren der Konkurrenz...

...Somit wird die Karte wohl ein reiner Defizitgeschäft werden und wie XGI wieder in der Versenkung verschwinden...

[dzp]Viper
2003-11-03, 15:25:19
Original geschrieben von Exxtreme
250€? Eher das Doppelte. Schau dir mal das Teil an. Ist zwar nicht ganz so schlimm wie der FX-Fön aber das Board ist IMHO nicht ganz billig herzustellen. Ausserdem musst du den Speicher doppelt vorhalten. Wenn die GraKa also 256 MB physikalisch hat dann sind nur praktisch 128 MB nutzbar da alle Texturen doppelt gespeichert werden.

jau ich weiss

wenn XGI jetzt aber selber weiss, dass die karte bei 400-500€ ein Flopp wird, dann werden die sicher nicht die karte für den Preis raushauen. Dann wird man eher auf 300€ runter gehen und damit zwar verlust machen aber die karten würden sich sicher mehr verbreiten als wenn sie für 500€ wie Blei in den regalen stehen würden und noch damit noch mehr verlust machen würden.

Aber das sind ja alles nur spekulationen und die wahrheit (tamm tamm) werden wir wohl erst in 1-2 monaten erfahren :D

daflow
2003-11-03, 15:27:49
AFAIK war die V8 duo mit 399,- angesezt. Wenn die tc-Benches wirklich das Endergebniss darstellen sollten, währe das natürlich ganz schön schwach; da diese Benches aber mit Betatreibern und ohne AA/AF gemacht wurden, lässt sich hier wohl kaum eine sinnvolle Aussage über das Endprodukt treffen.

Exxtreme
2003-11-03, 15:28:43
Erinnert mich irgendwie an die Voodoo5 und zwar in doppelter Hinsicht. :D

[dzp]Viper
2003-11-03, 15:30:19
Original geschrieben von Exxtreme
Erinnert mich irgendwie an die Voodoo5 und zwar in doppelter Hinsicht. :D

hrhr der war fies :naughty:

reunion
2003-11-03, 15:32:50
Original geschrieben von Exxtreme
Erinnert mich irgendwie an die Voodoo5 und zwar in doppelter Hinsicht. :D

Die Voodoo 5 hatte zumindest den Vorteil von damals einzigartiger und qualitativ extrem hochwertiger Kantenglättung, sowie 3dfx Glide und den 3dfx Mythos :naughty:

Die V8-Duo hingegen hat absolut garnichts und ist der Konkurrenz in jeder hinsicht unterlegen...

DrumDub
2003-11-03, 15:33:06
Original geschrieben von Exxtreme
Erinnert mich irgendwie an die Voodoo5 und zwar in doppelter Hinsicht. :D

bingo. aber wenigstens hatte die v5 das qualitätsmäßig beste fsaa, das es mitte 1999 gab.

mit welchen features die volaris glänzen wollen, ist mir hingegen völlig schleierhaft.

ow
2003-11-03, 15:41:21
Original geschrieben von PeTa
AFAIK war die V8 duo mit 399,- angesezt. Wenn die tc-Benches wirklich das Endergebniss darstellen sollten, währe das natürlich ganz schön schwach; da diese Benches aber mit Betatreibern und ohne AA/AF gemacht wurden, lässt sich hier wohl kaum eine sinnvolle Aussage über das Endprodukt treffen.


???
Was denkst du denn, wieviel sich da noch tut, wenn XGI die Karten schon oeffentlich testen laesst?

Viel wird da auch zum Endprodukt nicht mehr passieren.

reunion
2003-11-03, 15:42:17
Original geschrieben von DrumDub
bingo. aber wenigstens hatte die v5 das qualitätsmäßig beste fsaa, das es mitte 1999 gab.


Du meinst wohl das bis heute noch immer unerreichte höchwertigste AA (Stichwort SS und 8x AA der V5 6K)...

reunion
2003-11-03, 15:46:49
Original geschrieben von PeTa
AFAIK war die V8 duo mit 399,- angesezt. Wenn die tc-Benches wirklich das Endergebniss darstellen sollten, währe das natürlich ganz schön schwach; da diese Benches aber mit Betatreibern und ohne AA/AF gemacht wurden, lässt sich hier wohl kaum eine sinnvolle Aussage über das Endprodukt treffen.

Also erstens wird sich da vermutlich kaum noch was ändern und zweitens deutet das fehlen von AA bzw AF eher auf nicht konkurrenzfähige Leistung bzw. Qualität hin als auf extrem frühe Beta-Treiber....

Gaestle
2003-11-03, 16:02:32
Also ich bin sehr für ABWARTEN. Was OW und NAGUS hier abziehen ist IMHO daneben.

ATi und NV können die Treiber seit mehr als 12 Monaten (unter anderem) auf 3dM01, 3dM03 und Q3 optimieren. XGI nicht. Und dummerweise ist genau bei dem Bench, der noch nicht so lange raus ist (AM3) der Abstand auch am geringsten, nämlich zw. 8 und 10% zur XT und 3-8% zum 5950U. Ansonsten sind's (immerhin) max. 20%.

Ich hab' leider grade keinen Vergleich der Entwicklung der Benchmarkwerte z.B. einer R9700Pro gefunden, vielleicht kann die jemand nachreichen...

Was soll also bitte das Getöse von "der letzte Dreck", "nur halb so schnell" und "silizium-Schrott"?

Und wegen dem Treiber: ich würde da erstmal gar nix sagen und abwarten

Grüße

ow
2003-11-03, 16:14:23
Original geschrieben von Gaestle

Was soll also bitte das Getöse von "der letzte Dreck", "nur halb so schnell" und "silizium-Schrott"?


Grüße


Weisst du, ich gehoere nicht zu denen, die sich selbst gerne froh machen. Ich bin Realist und werde das auch bleiben.

nagus
2003-11-03, 16:25:44
Original geschrieben von Gaestle
....

Was soll also bitte das Getöse von "der letzte Dreck", "nur halb so schnell" und "silizium-Schrott"?

Und wegen dem Treiber: ich würde da erstmal gar nix sagen und abwarten

Grüße

3dmark2003 1600x1200.... da is das ding leider halb so schnell. und das ist für eine DUAL-chip lösung doch eher eine enttäuschung.

außerdem hat XGI sicher auch genug zeit damit verbracht, die ersten treiber aufs 3dmark2003 zu trimmen... vielleicht sogar gecheatet, wer weiß. jedenfalls gibts auch keine bildqualitätsvergleiche, was mich wiederum stutzig macht

außerdem: träume sind schäume... davon zu träumen XGI könnte vielleicht gegen Nvidia und ATi was ausrichten ist in meinen augen verkehrt und unrealistisch.

Exxtreme
2003-11-03, 16:27:22
Original geschrieben von nagus
3dmark2003 1600x1200.... da is das ding leider halb so schnell. und das ist für eine DUAL-chip lösung doch eher eine enttäuschung.

außerdem hat XGI sicher auch genug zeit damit verbracht, die ersten treiber aufs 3dmark2003 zu trimmen... vielleicht sogar gecheatet, wer weiß. jedenfalls gibts auch keine bildqualitätsvergleiche, was mich wiederum stutzig macht
Deswegen würde ich auch für ABWARTEN plädieren. Der Tecchannel-Test ist mehr schlecht als recht. Mit frühen Treibern war auch der R200 damals kein Top-Performer.

nagus
2003-11-03, 16:30:31
Original geschrieben von Exxtreme
Deswegen würde ich auch für ABWARTEN plädieren. Der Tecchannel-Test ist mehr schlecht als recht. Mit frühen Treibern war auch der R200 damals kein Top-Performer.

stimmt, da hast du recht. der R200 war aber im vergleich single vs. single GPU. jetzt heißts aber dual vs. single... und da schauts sehr düster aus.

warum wohl pfeift ati seit der rage fury maxx auf dual-lösungen bzw. hat nvidia nie dual-chips auf den markt gebracht. weil die dinger einfach unrentabel sind. da wirds xgi auch nicht besser damit gehen.

stickedy
2003-11-03, 16:32:55
Man sollte bedenken: Es gibt nur einen richtigen, öffentlichen Test, der ist von tecchannel, zwar immerhin etwas, aber man sollte wohl bis zur finalen Verurteilung noch min. zwei, drei andere Reviews abwarten.

Außerdem sollte man bedenken, dass es noch keine Berichte über BQ-Cheats bei den XGI-Treibern gibt, während die von ATI und NVidia bewiesen sind. Man muss die Ergebnisse auch unter diesem Blickwinkel betrachten!!

Frank
2003-11-03, 16:33:45
Original geschrieben von nagus
stimmt, da hast du recht. der R200 war aber im vergleich single vs. single GPU. jetzt heißts aber dual vs. single... und da schauts sehr düster aus.

warum wohl pfeift ati seit der rage fury maxx auf dual-lösungen bzw. hat nvidia nie dual-chips auf den markt gebracht. weil die dinger einfach unrentabel sind. da wirds xgi auch nicht besser damit gehen. Man kann ihnen ja aber wohl kaum den Vorwurf machen, dass sie jetzt versuchen den Fuß in den Türspalt zu drücken.

tsss'ss

nagus
2003-11-03, 16:35:12
Original geschrieben von Frank
Man kann ihnen ja aber wohl kaum den Vorwurf machen, dass sie jetzt versuchen den Fuß in den Türspalt zu drücken.

tsss'ss

macht ja auch keiner. nur mit dem ding hat xgi keine chance.

Gast
2003-11-03, 16:36:23
Ihr schreit hier ja ganz schön rum, und warum das ganze???

Anscheinend wollt ihr nicht begreifen, das es XGI ziemlich egal ist, wieviel die Karte in der Herstellung kostet und wieviel Gewinn oder Verlust sie mit der Karte machen.

Hier geht es XGI nur darum, an der Leistungsspitze mitzumischen. Frei nach dem Motto, Highend sells Midrange and Lowend.

Bleibt also mal schön am Teppich. XGI weiß sehr gut was sie machen, und warum. Dafür sind sie schon viel zu lange im Geschäft (als SiS-Zweig).

Exxtreme
2003-11-03, 16:38:58
Original geschrieben von nagus
macht ja auch keiner. nur mit dem ding hat xgi keine chance.
Naja, ATi hat auch 3 Anläufe gebraucht bis sie endgültig an NV vorbeigezogen sind. Und für den ersten Anlauf sieht der Volari auch nicht übel aus auch wenn es 2 Chips sind. Mir ist im Endeffekt egal wieviele Chips auf dem Board werkeln solange die Leistung und der Preis stimmt.

[dzp]Viper
2003-11-03, 16:43:17
Original geschrieben von Exxtreme
Naja, ATi hat auch 3 Anläufe gebraucht bis sie endgültig an NV vorbeigezogen sind. Und für den ersten Anlauf sieht der Volari auch nicht übel aus auch wenn es 2 Chips sind. Mir ist im Endeffekt egal wieviele Chips auf dem Board werkeln solange die Leistung und der Preis stimmt.

bingo :up: genau meine meinung :)

robbitop
2003-11-03, 16:44:50
ist mal wieder wie im Kindergarten hier...

-ein V8 hat eine Taktfrequenz von 350Mhz nicht "fast" 400Mhz ;)
-DDR2 Speicher ist nicht unbedingt teurer

Weiterhin ist XGi was die Ressourcen und Erfahrung angeht längst nicht so weit wie seine Mitstreiter. Es scheint ein sehr aufgebohrter Xabre1 zu sein (unschwer am SSAA zu erkennen). Allerdings war der forschungsaufwand wohl entsprechend gering, da diese Chips mitnichten so hoch integriert sind wie die von ATi/NV

ich habe ehrlich gesagt nie erwartet, dass er mit den Taktfrequenzen alle schlägt.
Ich finde die Endleistung (egal wie es dazu kommt) für eine Firma wie XGI recht gut, es ist im Prinzip ein erster Versuch für den HighEnd Markt.
Kein Grund dieses Produkt zu beschimpfen und im Vorhinein mit massenweise Wissenslücken in den Bodenzustampfen...

abwarten und XGI einfach eine Chance geben...es ist schliesslich noch kein Meister vom Himmel gefallen

und ATi sah vor dem R300 auch ziemlich schlecht aus wenn ich das mal so sagen darf und NVIDIA vor dem TNT2/Geforce auch...

CrazyIvan
2003-11-03, 16:57:03
Full ACK.

Scheinbar gibts hier für viele auch nur "eine Art" Chip.
Ist hier noch niemandem eingefallen, dass der Volari Chip vielleicht nich ganz so komplex bzw. kompliziert herzustellen ist, wie die nV oder ATI Chips.

War bei 3dfx doch auch so. Und wenn 2 Chips soviel kosten, wie ein einziger bei der Konkurrenz, dann ist mir das doch Rille ob ich 2 oder einen Chip auf meiner Karte habe.

Aber nein, hier wird erstmal rumgeflamed, als wär der jüngste Tag.

Erinnere mich, dass es die Diskussion schon zwischen Anhängern von hochintegrierten Chips bei MoBos und den NB/SB Konzept Verfechtern stattfand.

Nicht Ihr kalkuliert die Kosten von XGI, Ati, nVidia und Co., sondern die selber.

Ich hab manchmal echt das Gefühl, dass einige schneller Posts schreiben als Nachdenken können...

ow
2003-11-03, 16:58:40
Original geschrieben von Gast


Hier geht es XGI nur darum, an der Leistungsspitze mitzumischen. Frei nach dem Motto, Highend sells Midrange and Lowend.



Nur dumm, wenn man keinen Highend-Chip hat.
2 lahme Chips auf einem Brett ergeben noch lange kein Highend.

zeckensack
2003-11-03, 16:59:47
Ich weiß nicht welchen Test ihr gelesen habt, aber ich bin eigentlich positiv überrascht ;)

TC testet nur gegen 'das beste' am Markt. Daß ein Vergleich inklusive 9800 vanilla/Pro und 5900 vanilla/Ultra weit weniger verheerend aussehen würde, kann man sich ausrechnen.
TC hat leider keine Füllraten-Tests gemacht, was eine Aussage "woran es liegt" extrem erschwert. Die Aussage bzgl Abwesenheit jeglicher Darstellungsfehler läßt aber die Vermutung zu, daß die Treiber im Moment auf bloßes Funktionieren getrimmt sind (und das ist IMO gut, nur für den Fall, daß das nicht klar sein sollte).

Daß mir Dual-Chip-Lösungen, und vor allem AFR (oder wie das bei XGI nun heißt ...) im Grunde zuwider sind, will ich der Vollständigkeit halber auch noch erwähnen:
*erwähn*

Trotzdem wahrlich nicht schlecht. Die Karte ist in jedem Fall als High-End einzustufen. Die paar Prozent die da noch fehlen: siehe oben, beide Punkte beachten.

Und nein, kaufen werde ich mir das Ding nicht, aber ich kaufe mir ja auch keine 9800XT und/oder FX5950U.

edit: Beim Zählen der Pipelines ist aber in jedem Fall ein größerer Unfall passiert. Es bleibt zu hoffen, daß hier eine Zixel-Optimierung ala NV30 gemeint ist (die dank TC's grenzenloser Kompetenz natürlich nicht gemessen werden konnte), und keine DDR-Verdopplung oder sowas ;)

stickedy
2003-11-03, 16:59:58
Original geschrieben von Exxtreme
Naja, ATi hat auch 3 Anläufe gebraucht bis sie endgültig an NV vorbeigezogen sind. Und für den ersten Anlauf sieht der Volari auch nicht übel aus auch wenn es 2 Chips sind. Mir ist im Endeffekt egal wieviele Chips auf dem Board werkeln solange die Leistung und der Preis stimmt.

Genau! Selbst wenns zwanzig Chips wären!

Für den Endanwender ist der Preis und die Leistung interessant. That's all!

Ob XGI damit gut oder schlecht fährt, die Gewinne, hoch niedrig oder nicht vorhanden sind, kann einem als Käufer egal sein...

ow
2003-11-03, 17:01:56
Original geschrieben von Exxtreme
Naja, ATi hat auch 3 Anläufe gebraucht bis sie endgültig an NV vorbeigezogen sind.


Sind sie das?


Und für den ersten Anlauf sieht der Volari auch nicht übel aus auch wenn es 2 Chips sind. Mir ist im Endeffekt egal wieviele Chips auf dem Board werkeln solange die Leistung und der Preis stimmt.

Genau da liegt der Haken: man braucht 2 Chips und ist immer noch langsamer als NV/Ati.

Wenn die Entwicklung bei XGI/SiS so weitergeht, dann brauchen sie spaetestens in 2 Jahren gar 4 Chips, um mit den 1-Chip Karten von NV/ATi mitzuhalten.:D

CrazyIvan
2003-11-03, 17:06:04
@ ow

Auch wenn Du ein Mod bist, aber das muss ich Dir sagen:

DU REDEST QUARK!!!

Was interessiert es Dich, wie viele Chips in Deinem Rechner werkeln?
Oder hast Du nen Single Chip PC???
Nein? Warum nicht? Vielleicht, weil das nicht immer die beste Lösung sein muss?

Ich will hiermit nicht behaupten, dass Multichip Lösungen besser sind. Aber vielleicht kommt man auf diesem Wege auch ans Ziel. Und vielleicht, auch wenn Ihr hier alle Kindergarten - BWL betreiben wollt, ist das sogar kostendeckend.


Sorry for flaming. Don't feed me, I'm a troll!!! ;D

ernesto.che
2003-11-03, 17:07:08
Original geschrieben von ow
Sind sie das?

Mit der Radeon 9700 Pro hat ATi die Spitze übernommen und nVidia kann ATi auch jetzt nicht toppen.
ATi ist momentan ein bisschen eher der König ;)

ernesto.che
2003-11-03, 17:08:35
Original geschrieben von ow
Wenn die Entwicklung bei XGI/SiS so weitergeht, dann brauchen sie spaetestens in 2 Jahren gar 4 Chips, um mit den 1-Chip Karten von NV/ATi mitzuhalten.:D


Möchtest du damit sagen, wenn ein Motor für 350 PS 8 Zylinder benötigt, ist er prinzipiell schlechter als ein 350 PS V6?

Immerhin scheint dann ja jeder Zylinder schwächer zu sein als bei dem V6 :D

Frank
2003-11-03, 17:09:18
Original geschrieben von ow
Wenn die Entwicklung bei XGI/SiS so weitergeht, dann brauchen sie spaetestens in 2 Jahren gar 4 Chips, um mit den 1-Chip Karten von NV/ATi mitzuhalten.:D Wohl eher anders rum, wenn ich jetzt an SIS305 & Co denke. ;)

LovesuckZ
2003-11-03, 17:13:57
Original geschrieben von ernesto.che
Mit der Radeon 9700 Pro hat ATi die Spitze übernommen und nVidia kann ATi auch jetzt nicht toppen.


Exxtreme's Aussage ist nen bissl angreifbar, wenn man sich die openGL Ergebnisse beide Karte sich anguckt.
Ingesamt steht ATi ein wenig besser dar und mit AA dann ein wenig deutlicher. Aber von "endgültig" zu reden, ist noch zu früh.

[dzp]Viper
2003-11-03, 17:19:12
Original geschrieben von LovesuckZ
Exxtreme's Aussage ist nen bissl angreifbar, wenn man sich die openGL Ergebnisse beide Karte sich anguckt.
Ingesamt steht ATi ein wenig besser dar und mit AA dann ein wenig deutlicher. Aber von "endgültig" zu reden, ist noch zu früh.

och nöeeee bitte lasst den thread nicht zum flamethread verkommen ;(

können sich (damit bist nicht unbdingt du angesporchen lovesuck) nicht mit solchen ausserungen in einem solchen thread zurückhalten? Ihr wisst doch genau wohin das führt ;(

reunion
2003-11-03, 17:19:13
Original geschrieben von LovesuckZ
Exxtreme's Aussage ist nen bissl angreifbar, wenn man sich die openGL Ergebnisse beide Karte sich anguckt.
Ingesamt steht ATi ein wenig besser dar und mit AA dann ein wenig deutlicher. Aber von "endgültig" zu reden, ist noch zu früh.

Und mit der PS2.0 leistung noch deutlicher :D

reunion
2003-11-03, 17:27:45
Original geschrieben von robbitop
ist mal wieder wie im Kindergarten hier...

-ein V8 hat eine Taktfrequenz von 350Mhz nicht "fast" 400Mhz ;)
-DDR2 Speicher ist nicht unbedingt teurer

Weiterhin ist XGi was die Ressourcen und Erfahrung angeht längst nicht so weit wie seine Mitstreiter. Es scheint ein sehr aufgebohrter Xabre1 zu sein (unschwer am SSAA zu erkennen). Allerdings war der forschungsaufwand wohl entsprechend gering, da diese Chips mitnichten so hoch integriert sind wie die von ATi/NV

ich habe ehrlich gesagt nie erwartet, dass er mit den Taktfrequenzen alle schlägt.
Ich finde die Endleistung (egal wie es dazu kommt) für eine Firma wie XGI recht gut, es ist im Prinzip ein erster Versuch für den HighEnd Markt.
Kein Grund dieses Produkt zu beschimpfen und im Vorhinein mit massenweise Wissenslücken in den Bodenzustampfen...

abwarten und XGI einfach eine Chance geben...es ist schliesslich noch kein Meister vom Himmel gefallen

und ATi sah vor dem R300 auch ziemlich schlecht aus wenn ich das mal so sagen darf und NVIDIA vor dem TNT2/Geforce auch...

Und???
Die Karte ist den Konkurrenzprodukten in jeder(!) hinsicht unterlegen! Warum sollte man sich dann bitte eine soche Karte kaufen???

Oder kann mir jemand auch nur ein Argument nennen wo die Duo V8 "besser" als die 9800XT bzw. 5950U ist???

Und das noch kein Meister vom Himmel gefallen ist(außer 3dfx ;)) ist auch klar, nur wird man mit dieser Karte wohl schnll wieder Pleite sein...

CrazyIvan
2003-11-03, 17:31:49
Um mal wieder zum Thema zurückzukommen:

Der Abstand zu den beiden Highest End Chips ist ja unter AM3 und 1600x1200 nur marginal.

IMHO ist das doch ein sensationelles Ergebnis, da:

1. Treiber Optimierungen seitens ATI und nVidia für AM3 wohl noch nicht verfügbar sind.

2. Der XGI Treiber ja wie gesagt noch ne beta ist.

3. Die ganze Karte nur ein Testsample ist (gut zu sehen an den beiden externen Stromanschlüssen).

4. Laut XGI höhere Taktraten möglich sind - also könnte es noch ne Volari XT geben *GGG*

Ich denke auch, dass das ein ziemlich sauberes Debüt war. Zumal man schon Anfang 2004 Refresh Chips nachschieben will.

P. S.

Bin mir der Tatsache bewusst, dass es für manche von Euch wie ein Klammern an nen Strohhalm klingen muss. Aber dafür kann ich ja nix ;D

reunion
2003-11-03, 17:34:54
Original geschrieben von CrazyIvan
1. Treiber Optimierungen seitens ATI und nVidia für AM3 wohl noch nicht verfügbar sind.


Aber vielleicht schon von XGI :naughty:

CrazyIvan
2003-11-03, 17:36:18
@ reunion

Deinen Ausführungen zufolge müsste ja nVidia nach dem HL2 Debakel klinisch tot sein ;D

Aber zum Glück ist nicht alles so simpel, wie Du das siehst :asshole:

CrazyIvan
2003-11-03, 17:37:38
Original geschrieben von reunion
Aber vielleicht schon von XGI :naughty:

Dann benehmen die sich wenigstens schon wie die Marktführer ;D ;D

aths
2003-11-03, 17:43:18
Original geschrieben von ow
Soll das ein Witz sein??

Mit 2 Chips noch unter dem Niveau der Einchip-Loesungen von NV/Ati nennst du konkurrenzfaehig? Den Käufer interessiert der Preis und was er dafür an Leistung erhält, nicht die Anzahl der Chips die da werkeln. Es ist imo völlig nebensächlich, mit wievielen Chips diese (noch nicht so richtig konkurrenzfähige) "Leistung" gebracht wird.

Original geschrieben von ow
Sind sie das?Japp. Seit dem R300 hat NV den Kanadiern nichts wirklich entgegenzusetzen. Frühestens mit dem NV40 haben sie eine Chance, "King of the Hill" zu werden.

Gaestle
2003-11-03, 17:44:09
Original geschrieben von nagus
3dmark2003 1600x1200.... da is das ding leider halb so schnell.

@nagus
Also ich setze mal voraus, wir diskutieren hier auf Basis des verlinkten Artikels (siehe s.3 diese Threads).
Stimmst Du mir soweit zu?

Ein kleiner Ausschnitt daraus:

http://www.tecchannel.de/hardware/1271/images/0014162_PIC.gif

Wie kommst Du bitte auf dieser Basis zu Deiner Aussage? Ich kann hier leider keinerlei Angaben bezüglich 1600x1200 und "halb so schnell" entdecken.

Grüße

stickedy
2003-11-03, 17:46:57
Wie schon von mir wieter oben geschrieben: Es gibt zZ keinerlei Hinweise auf BQ/Treiber-Cheats seitens XGI!

Man sollte also die Möglichkeit in Betracht ziehen, dass XGI/SiS diesmal nicht cheatet!

reunion
2003-11-03, 17:49:54
Original geschrieben von stickedy
Wie schon von mir wieter oben geschrieben: Es gibt zZ keinerlei Hinweise auf BQ/Treiber-Cheats seitens XGI!

Man sollte also die Möglichkeit in Betracht ziehen, dass XGI/SiS diesmal nicht cheatet!

Ja, man sollte aber auch die Möglichkeit in Betracht zieh das sie sehrwohl wieder cheaten...

stickedy
2003-11-03, 17:52:59
Das ist richtig, aber ich würde mal sagen, bis zum Beweis der Schuld ist der Angeklagte unschuldig! :D

Aber im Prinzip drehen wir uns im Kreis: Ohne weitere Benchmark-Ergebnisse sagt der der tecchannel-Test doch eigentlich nichts aus! Das kann man drehen und wenden wie man will!
Aber ich denke doch, dass in den nächsten Stunden/Tagen noch mehr Tests kommen werden, dann hoffentlich mit BQ-Analyse und mehr Benchmarks, va aussagekräftigeren!

aths
2003-11-03, 17:58:09
Original geschrieben von reunion
Ja, man sollte aber auch die Möglichkeit in Betracht zieh das sie sehrwohl wieder cheaten... Früher oder später werden sie für Benchmarks optimieren, sofern ihnen was am Absatz ihrer Hardware liegt.

Darkness
2003-11-03, 18:23:06
Original geschrieben von aths
Früher oder später werden sie für Benchmarks optimieren, sofern ihnen was am Absatz ihrer Hardware liegt.

oder sie enden wie Matrox ;-)

Also Benchmarks hin oder her.... mich würds schon extrem reizen so ne XGI Karte mir zu besorgen ^^
Weil wie bereits gesagt: Ein Partner für meine Voodoo 5 PCI wird gesucht ;)

Und auch dieser gewisse "Bonzeneffekt" .. hey Jungs ich hab 4 Grafikchips :D hätte seine Reize ;D

ow
2003-11-03, 18:27:29
Original geschrieben von robbitop

Kein Grund dieses Produkt zu beschimpfen und im Vorhinein mit massenweise Wissenslücken in den Bodenzustampfen...

abwarten und XGI einfach eine Chance geben...es ist schliesslich noch kein Meister vom Himmel gefallen

und ATi sah vor dem R300 auch ziemlich schlecht aus wenn ich das mal so sagen darf und NVIDIA vor dem TNT2/Geforce auch...

Kein Grund dieses Produkt zu hypen.
Davin abgesehen hatte SiS (=XGI) schon einige Chancen und die alle vermasselt. Zuletzt mit dem Xabre, der auch weit hinter den in ihn gesteckte Erwertungen zurückblieb.

Vergleiche zu ATi/NV finde ich hier unpassend. ATi sah nie schlecht aus, sie waren halt immer nur zeitlich etwas hinter NV zurück (seit TNT Zeiten).
Und Nv sah lediglich mit dem NV1 schlecht aus.

ow
2003-11-03, 18:31:23
Original geschrieben von CrazyIvan
Full ACK.

Scheinbar gibts hier für viele auch nur "eine Art" Chip.
Ist hier noch niemandem eingefallen, dass der Volari Chip vielleicht nich ganz so komplex bzw. kompliziert herzustellen ist, wie die nV oder ATI Chips.



Ist dir noch nie in den Sinn gekommen, das solche Produkte wie XGIs V8 deshalb als technisch rückständig zu betrachten sind?

Nur mit Highend Chips kann man sich einen guten Ruf erwerben, nicht indem man mehrere schwache Chips auf eine Platine klatscht. Was meinst du denn, warum es R360 und NV38 gibt und ATi/NV nicht einfach mehrere RV350/NV36 Chips auf einem Board unterbringen?

ow
2003-11-03, 18:36:10
Original geschrieben von ernesto.che
Mit der Radeon 9700 Pro hat ATi die Spitze übernommen und nVidia kann ATi auch jetzt nicht toppen.
ATi ist momentan ein bisschen eher der König ;)


Das ist doch wohl sehr situationsabhängig würde ich meinen.

Ailuros
2003-11-03, 18:39:29
edit: Beim Zählen der Pipelines ist aber in jedem Fall ein größerer Unfall passiert. Es bleibt zu hoffen, daß hier eine Zixel-Optimierung ala NV30 gemeint ist (die dank TC's grenzenloser Kompetenz natürlich nicht gemessen werden konnte), und keine DDR-Verdopplung oder sowas.

Sagte ich auch schon. Und es war auch Anteil einer eher sehr erhitzten Debatte bei der Ankuendigung der chips. Leistung hab ich persoenlich nie bezweifelt wenn es zu SiS/XGi kommt, eher Qualitaet. Xabre hatte bei Launch auch sehr gute Leistungsnummern.

Was mich persoenlich interessiert an Volari ist:

a) Default Texturen-Qualitaet (keine Toleranz fuer dual bilinear Approximierungen).
b) Anti-aliasing Methode, sampling grid und dessen Leistung (keine Toleranz fuer Schmierfilter die als 4x sample AA dem User angedreht werden).
c) Anisotropic filtering mit geringem Leistungsverlust (ob die jetzt "brilinear" herumschmieren ist mir egal solange die anderen beiden es auch schon machen auf die eine oder andere Art und Weise).

Wenn all das obrige so sein sollte wie man es fuer einen heutigen high end Preis erwarten sollte, dann wiederhole ich bin ich dem Publikum hier eine Entschuldigung schuldig. :weg:

I am a man of my word.

ow
2003-11-03, 18:39:42
Original geschrieben von Frank
Wohl eher anders rum, wenn ich jetzt an SIS305 & Co denke. ;)


Wer weiß?;)
Vielleicht wäre zu SiS315 und Xabre Zeiten Dualchip.Lösungen angebrachter gewesen. Die wären ihren jeweilgen 1Chip-Konkurrenten von NV/ATi leistungsmässig wohl mindestens ebenbürtig gewesen.

ow
2003-11-03, 18:46:01
Original geschrieben von stickedy
Man sollte also die Möglichkeit in Betracht ziehen, dass XGI/SiS diesmal nicht cheatet!

Hihi, der war gut.;D

ow
2003-11-03, 18:51:49
Original geschrieben von aths
Den Käufer interessiert der Preis und was er dafür an Leistung erhält, nicht die Anzahl der Chips die da werkeln. Es ist imo völlig nebensächlich, mit wievielen Chips diese (noch nicht so richtig konkurrenzfähige) "Leistung" gebracht wird.



Den Käufer interessiert aber schon, was für Features so ein Chip denn beherrscht, zB. so AA- und AF-mässig.
Was Benches angeht hast du recht. Da wird nur auf die Länge des Balken geschaut. 3DMark Punkte geteilt durch Preis und schon haben wir das Preis-Leistungsverhältnis.:D

ernesto.che
2003-11-03, 18:55:22
Original geschrieben von ow
Das ist doch wohl sehr situationsabhängig würde ich meinen.
Ich kanm dir für nVidia maximal ein Pari einbieten, mehr ist wirklich nicht drin.

ow
2003-11-03, 19:00:55
Original geschrieben von ernesto.che
Ich kanm dir für nVidia maximal ein Pari einbieten, mehr ist wirklich nicht drin.

Na, das ist doch schonmal was, mehr sehe ich da nämlich auch nicht.;)

ernesto.che
2003-11-03, 19:06:14
Original geschrieben von ow
Na, das ist doch schonmal was, mehr sehe ich da nämlich auch nicht.;)

deswegen hatte ich ja auch

ATi ist momentan ein bisschen eher der König ;)
geschrieben ;)

stickedy
2003-11-03, 19:06:14
Original geschrieben von ow
Vergleiche zu ATi/NV finde ich hier unpassend. ATi sah nie schlecht aus, sie waren halt immer nur zeitlich etwas hinter NV zurück (seit TNT Zeiten).
Und Nv sah lediglich mit dem NV1 schlecht aus.

Hm... Intersssante These...

Allerdings: Wenn SiS den Xabre zur Zeit der TNT auf den Markt gebracht hätte, dann wären sie auch absolut High-End gewesen! So gesehen war SiS auch immer nur der zeit hinterher...

aths
2003-11-03, 19:06:24
Original geschrieben von ow
Den Käufer interessiert aber schon, was für Features so ein Chip denn beherrscht, zB. so AA- und AF-mässig.Leider nein. Mich interessiert sowas zwar brennend (und da erwarte ich beim Volari nichts tolles, weshalb er für mich sowieso uninteressant ist) aber die meisten Käufer interessiert höchstens der 3DMark, und dann sind es schon eher die, die ihre Graka bewusst auswählen (und nicht nur das kaufen, das im PC halt eingebaut ist.) Ich halte einige "Features" für ziemlich lächerlich, allerdings hatte Nvidia die Farbsättigungs-Regelung ja auch aggressiv vermarktet, bzw. ATI die tollen Video-Shader-Funktionen, die meines Wissens nur auf dem Papier existieren...

LovesuckZ
2003-11-03, 19:06:28
Original geschrieben von ernesto.che
Ich kanm dir für nVidia maximal ein Pari einbieten, mehr ist wirklich nicht drin.

Spielst wohl nicht viel OpenGL :)

nagus
2003-11-03, 19:08:49
Original geschrieben von robbitop
ist mal wieder wie im Kindergarten hier...

-ein V8 hat eine Taktfrequenz von 350Mhz nicht "fast" 400Mhz ;)
-DDR2 Speicher ist nicht unbedingt teurer

Weiterhin ist XGi was die Ressourcen und Erfahrung angeht längst nicht so weit wie seine Mitstreiter. Es scheint ein sehr aufgebohrter Xabre1 zu sein (unschwer am SSAA zu erkennen). Allerdings war der forschungsaufwand wohl entsprechend gering, da diese Chips mitnichten so hoch integriert sind wie die von ATi/NV

ich habe ehrlich gesagt nie erwartet, dass er mit den Taktfrequenzen alle schlägt.
Ich finde die Endleistung (egal wie es dazu kommt) für eine Firma wie XGI recht gut, es ist im Prinzip ein erster Versuch für den HighEnd Markt.
Kein Grund dieses Produkt zu beschimpfen und im Vorhinein mit massenweise Wissenslücken in den Bodenzustampfen...

abwarten und XGI einfach eine Chance geben...es ist schliesslich noch kein Meister vom Himmel gefallen

und ATi sah vor dem R300 auch ziemlich schlecht aus wenn ich das mal so sagen darf und NVIDIA vor dem TNT2/Geforce auch...


die 8500er konnte aber wenigstens mit features überzeugen. außerdem war die gute alte 8500er im vergleich zur 4600er manchmal sogar schneller... z.b. bei serious sam.

und was hat der/die volarie zu bieten? außer der gewaltigen größe, 2 stromanschlüssen und mittelmäßiger leistung???

genau. ÜBERHAUPT NIX. die karte ist für die tonne. nicht mehr und nicht weniger. is leider so. tut mir leid, aber darann kann ich auch nix ändern. auch wenn ich das ding schön reden will....

außerdem sollte jeder nach dem NV30 debakel eher das schlimmste und nicht das beste hoffen... die gefahr enttäuscht zu werden ist zu groß.

reunion
2003-11-03, 19:10:56
Original geschrieben von LovesuckZ
Spielst wohl nicht viel OpenGL :)

Beispiel???

StefanV
2003-11-03, 19:12:21
Original geschrieben von LovesuckZ
Spielst wohl nicht viel OpenGL :)

Nunja, gibt nur ein Problem:

OGL ist momentan nicht wirklich verbreitet bei Spielen...

StefanV
2003-11-03, 19:14:50
Original geschrieben von Darkness
oder sie enden wie Matrox ;-)

Also Benchmarks hin oder her.... mich würds schon extrem reizen so ne XGI Karte mir zu besorgen ^^
Weil wie bereits gesagt: Ein Partner für meine Voodoo 5 PCI wird gesucht ;)

Und auch dieser gewisse "Bonzeneffekt" .. hey Jungs ich hab 4 Grafikchips :D hätte seine Reize ;D

1. naja, DAS dürfte schwer sein, da XGI förmlich mit Geld vollgepumt wird *eg*
Wenn sie keine enormen Mist bauen, dann müssen sie irgendwann dazu in der Lage sein mit nV und ATI mithalten zu können, wenn nicht, dann haben sie irgendwas falsch gemacht...

2. hm, jo, mir auch.
Ich warte erstmal ab, wies mitm FSAA ausschaut...
Da ich momentan keine 'wirklich' gute Karte hab ('nur' 'ne FX5800), besteht die Möglichkeit, daß ich mir 'ne Volari anschaffe, wenn sie mir gefällt, was ich aber eher nicht denke...

aths
2003-11-03, 19:16:03
Original geschrieben von nagus
die 8500er konnte aber wenigstens mit features überzeugen. außerdem war die gute alte 8500er im vergleich zur 4600er manchmal sogar schneller... z.b. bei serious sam. Gilt das auch für 2x FSAA / 8° AF? http://www.aths.net/files/smilies/bescheuert.gif

aths
2003-11-03, 19:18:54
Original geschrieben von nagus
und was hat der/die volarie zu bieten? außer der gewaltigen größe, 2 stromanschlüssen und mittelmäßiger leistung???

genau. ÜBERHAUPT NIX. die karte ist für die tonne.Sie ist abgesehen von Produkten der beiden Marktführer die schnellste 3D-Karte. Die Leistung liegt zudem über den Mittelklasse-Lösungen der beiden Marktführer.

LovesuckZ
2003-11-03, 19:20:27
Original geschrieben von reunion
Beispiel???

NWM, Jedi Acadamy, RTCW, Call of Duty, SeSam, Q3 etc.

stickedy
2003-11-03, 19:21:53
Original geschrieben von nagus
und was hat der/die volarie zu bieten? außer der gewaltigen größe, 2 stromanschlüssen und mittelmäßiger leistung???

genau. ÜBERHAUPT NIX. die karte ist für die tonne. nicht mehr und nicht weniger. is leider so. tut mir leid, aber darann kann ich auch nix ändern. auch wenn ich das ding schön reden will....


Woraus leitest du ab? Vom tecchannel-Test? Entschuldige, aber das ist lächerlich!

Außerdem scheinst du ihn nicht gelesen zu haben, sonst wüßtest du, dass das ne Prototypen-Karte ist und der zweite Stromanschluss auch noch wegfällt, die Verkaufskarten sehen also ganz anders aus...
Die Leistung würde ich nicht als mittelmäßig einstufen, sondern als High-End, auch wenns nicht für ganz höchste Leistungsstufe reicht. VGL: Ne Radeon 9800 Pro sehe ich auch als High-End an, obwohl die XT schneller ist, gleiches gilt für die GF 5900 und die 5950...

LovesuckZ
2003-11-03, 19:23:49
Original geschrieben von Stefan Payne
Nunja, gibt nur ein Problem:

OGL ist momentan nicht wirklich verbreitet bei Spielen...

Dafür ist die Qualitaet der Spiele durchgehend hervorragend bis sehr gut (natuerlich spielt der eigene Geschmack auch eine Rolle :) ).

betasilie
2003-11-03, 19:36:13
Original geschrieben von LovesuckZ
Dafür ist die Qualitaet der Spiele durchgehend hervorragend bis sehr gut (natuerlich spielt der eigene Geschmack auch eine Rolle :) ).
Also imo sind die D3D-Spiele momentan technologisch wesentlich fortschrittlicher als die OGL-Konkurrenz.

LovesuckZ
2003-11-03, 19:37:40
Original geschrieben von betareverse
Also imo sind die D3D-Spiele momentan technologisch wesentlich fortschrittlicher als die OGL-Konkurrenz.

Das stand ja auch nicht zur Debatte (wobei technisch fortschrittlicher auch ein Fluch sein kann -> siehe halo).

stickedy
2003-11-03, 19:38:31
Original geschrieben von betareverse
Also imo sind die D3D-Spiele momentan technologisch wesentlich fortschrittlicher als die OGL-Konkurrenz.

Ich glaube Lovesuckz gings mehr um den Spielspaß und die Atmosphäre als um die Technik...

AlfredENeumann
2003-11-03, 19:54:08
Original geschrieben von Gaestle
Ein kleiner Ausschnitt daraus:

http://www.tecchannel.de/hardware/1271/images/0014162_PIC.gif



Nur so schnell wie mein XP1700+ mit 9700Pro (oder ne 9800nonPro). Sprich die Karte darf keine 250€ kosten.

AlfredENeumann
2003-11-03, 19:58:29
Original geschrieben von aths
ATI die tollen Video-Shader-Funktionen, die meines Wissens nur auf dem Papier existieren...


Nö. Tun sie nicht.

ow
2003-11-03, 20:00:22
Original geschrieben von stickedy
Hm... Intersssante These...

Allerdings: Wenn SiS den Xabre zur Zeit der TNT auf den Markt gebracht hätte, dann wären sie auch absolut High-End gewesen! So gesehen war SiS auch immer nur der zeit hinterher...

Das ist richtig. Vor einem Jahr wäre Dual-Volari sicher der Renner gewesen.

Crushinator
2003-11-03, 20:00:27
Original geschrieben von stickedy
Ich glaube Lovesuckz gings mehr um den Spielspaß und die Atmosphäre als um die Technik... :kratz2: Wenn's mir nur darum ginge, würde ich alles nur mit WarCraft III messen wollen, und da ist es völlig egal, welche API man nimmt. http://home.t-online.de/home/bullitt667/smilies/data/uglyparanoid.gif

angesehen davon, daß die Radeons da warum auch immer etwas bis viel schneller sind :weg:

Crushinator
2003-11-03, 20:11:37
Original geschrieben von AlfredENeumann
Nö. Tun sie nicht. Da aths vermutlich iDCT und adaptives De-Interlacing meint, hat er recht. Allerdings vergißt er dabei, daß dies nirgendwo als Funktion innerhalb der Video-Shader beworben wird. Wenn er aber Video-Shader als Post-Processing Filter in Frage stellen täte - was er IMHO nicht tut - befände er sich im Irrtum. =)

Xmas
2003-11-03, 20:56:59
Ich sehe die Preview-Ergebnisse von tc eher positiv als negativ. Es hätte mich schon sehr überrascht, wenn die Karte dort eine Radeon9800XT hätte schlagen können.

Lightning
2003-11-03, 21:01:56
Original geschrieben von Xmas
Ich sehe die Preview-Ergebnisse von tc eher positiv als negativ. Es hätte mich schon sehr überrascht, wenn die Karte dort eine Radeon9800XT hätte schlagen können.

Sehe ich auch so. Das ist immerhin die Leistung einer Radeon 9700 Pro/9800, von daher gar nicht so übel. Übel wird wahrscheinlich nur der Preis, es sei denn, die Produktionskosten sind wider aller Einschätzungen doch nicht so hoch.

Demirug
2003-11-03, 21:09:45
Im Verhältniss was sonst so von der Unterdogs in der letzten Zeit geliefert wurde gar nicht mal so schlecht.

Allerdings fehlt es noch ein wenig an Detailinformationen und vorallem Tests unter Nutzung von Qualitätfeatures (AA und AF).

Quasar
2003-11-03, 21:23:32
Ich bin auch positiv überrascht, allerdings sollte man nicht zu früh in Jubel ausbrechen, man denke nur daran, wie lange es dauerte, bis man die TurboTex-Filterung beim Xabre entdeckte...

reunion
2003-11-03, 21:36:43
Original geschrieben von LovesuckZ
NWM, Jedi Acadamy, RTCW, Call of Duty, SeSam, Q3 etc.

Und was läuft bei der FX bei diesen Spieln besser???

aths
2003-11-03, 21:43:56
Original geschrieben von AlfredENeumann
Nö. Tun sie nicht.
Original geschrieben von crushinator
Da aths vermutlich iDCT und adaptives De-Interlacing meint, hat er recht. Allerdings vergißt er dabei, daß dies nirgendwo als Funktion innerhalb der Video-Shader beworben wird. Wenn er aber Video-Shader als Post-Processing Filter in Frage stellen täte - was er IMHO nicht tut - befände er sich im Irrtum. =) Ich rede nicht von iDCT usw., das hat die Hardware seit dem Rage, sondern von den supertollen Deblocking-Filtern usw., die ATI in einem Flash bewirbt.

reunion
2003-11-03, 21:49:41
Also ich finde die KArte absoluten Bullshit.
Die Karte ist den Konkurrenzprodukten in jeder hinsicht unterlegen (sowohl was AA bzw. AF als auch PS2.0-Leiszung usw. betrifft). Es gibt einfach keinen einzigen Grund sich nicht einen 9800er anstatt einer V8 Duo zu kaufen.

Außerdem finde ich die Leistung eigendlich sogar extrem schwach, denn ohne AA bzw AF kann selbst einen G4ti mithalten, erst mit AA bzw. AF wird man sehen wieviel leistung wirklich in der Karte steckt...

[dzp]Viper
2003-11-03, 21:54:19
Original geschrieben von reunion
Also ich finde die KArte absoluten Bullshit.
Die Karte ist den Konkurrenzprodukten in jeder hinsicht unterlegen (sowohl was AA bzw. AF als auch PS2.0-Leiszung usw. betrifft).


wow kennst du tests die wir noch nicht kennen? :D

MadManniMan
2003-11-03, 22:06:18
Original geschrieben von Quasar
Ich bin auch positiv überrascht, allerdings sollte man nicht zu früh in Jubel ausbrechen, man denke nur daran, wie lange es dauerte, bis man die TurboTex-Filterung beim Xabre entdeckte...

Naja, nachdem wir hier die übelsten Filterschweinskeraden von nV und ATi (:wink: @Piffan! ) entdeckt haben, sollte sich soetwas nicht allzulang verstecken können.
Nachdem "uns" Artikel zur Quali Leo sei Dank immermehr Zuspruch gefunden haben...

deekey777
2003-11-03, 23:10:21
Ist das nicht ein Newssammelthread der neuen XGI-Kreationen? Vorschlag Seite 2-8 löschen.
Zu den Treibern: Warum wurde die Xabre-Serie zu keinem Erfolg? Es lag an den Treibern, denn die Hardware stimmte (zB Pixelshader waren bei der Xabre 600 vorhanden...).

AlfredENeumann
2003-11-03, 23:26:09
Original geschrieben von aths
... sondern von den supertollen Deblocking-Filtern usw., die ATI in einem Flash bewirbt.


Dafür brauchst du die Bezahlversion vom REAL-Player. Das ist soweit ich weis derzeit der einzige Player der das anbietet. Frag mich nicht warum das so ist.

betasilie
2003-11-04, 00:01:16
Original geschrieben von LovesuckZ
Das stand ja auch nicht zur Debatte (wobei technisch fortschrittlicher auch ein Fluch sein kann -> siehe halo).
Original geschrieben von stickedy
Ich glaube Lovesuckz gings mehr um den Spielspaß und die Atmosphäre als um die Technik...
´Habe überlesen worauf sich das Posting bezog.

Ailuros
2003-11-04, 00:19:40
Original geschrieben von deekey777
Ist das nicht ein Newssammelthread der neuen XGI-Kreationen? Vorschlag Seite 2-8 löschen.
Zu den Treibern: Warum wurde die Xabre-Serie zu keinem Erfolg? Es lag an den Treibern, denn die Hardware stimmte (zB Pixelshader waren bei der Xabre 600 vorhanden...).

Dass Xabre keine hardwired T&L unit hatte wusste ich selber nicht bis vor kurzem, aber es ist ein sehr wichtiger HW-Nachteil zumindest IMO. Die PS haben natuerlich fuer hoehere 3dmark scores geholfen, aber es ist offen zur Debatte ob es doch nicht besser gewesen waere wenn er HW Vertex Shader gehabt haette. Dadurch haetten sie dx8.1 VS und auch dx7 T&L Unterstuetzung auf einen Schlag gehabt und nein die extra CPU-Last ist keine gute Idee.

***edit: PS hatten alle Xabre-Varianten AFAIK.

mapel110
2003-11-04, 00:24:53
Original geschrieben von Ailuros
***edit: PS hatten alle Xabre-Varianten AFAIK.

jo, bis auf den takt waren sie doch identisch. gab keine weiteren unterschiede.

stickedy
2003-11-04, 00:35:23
Xabre600 wurde in 0,13 µm gefertig, aber von den 3D-Features etc. her waren sie alle identisch...

aths
2003-11-04, 01:18:42
Original geschrieben von AlfredENeumann
Dafür brauchst du die Bezahlversion vom REAL-Player. Das ist soweit ich weis derzeit der einzige Player der das anbietet. Frag mich nicht warum das so ist. Im Flash stand nichts davon, dass das extra kostet. Es wurde der Eindruck erweckt, als würde das automatisch auf jedes Video appliziert.

VooDoo7mx
2003-11-04, 02:36:27
Original geschrieben von AlfredENeumann
Dafür brauchst du die Bezahlversion vom REAL-Player. Das ist soweit ich weis derzeit der einzige Player der das anbietet. Frag mich nicht warum das so ist.

Der DivX Player bietet in Verbindung mit einen DivX Video auch das Hardware Deblocking der Radeon 9500 aufwärts an. Kann man sogar ein und ausschalten.

Quasar
2003-11-04, 03:08:22
War das nicht auch 'nur' in der Bezahlversion? (Was ja eigentlich unerheblich ist, da man die 3D-Fähigkeiten einer Graka auch erst für separat zu erwerbende Spiele so richtig nutzen kann)

Gast
2003-11-04, 09:33:46
Original geschrieben von Quasar
War das nicht auch 'nur' in der Bezahlversion? (Was ja eigentlich unerheblich ist, da man die 3D-Fähigkeiten einer Graka auch erst für separat zu erwerbende Spiele so richtig nutzen kann)

Nö, ging glaub ich ab DivX Ver. 5.04 in der kostenlosen Version mit Player (Bundle).

DrumDub
2003-11-04, 10:56:27
was ist dennn mit dem ati mmc? unterstützt das denn nicht auch dieses feature?

Crushinator
2003-11-04, 11:10:31
Original geschrieben von aths
Ich rede nicht von iDCT usw., das hat die Hardware seit dem Rage, sondern von den supertollen Deblocking-Filtern usw., die ATI in einem Flash bewirbt. Dann darf ich Dich enttäuschen, denn sie können und werden über Shader realisiert. Real- und der DiVX-Player sind u.A. lebende Beweise und es gibt genügend Source-Beispiele von ATi, wie man es realisiert. =)

StefanV
2003-11-04, 11:16:04
Original geschrieben von LovesuckZ
NWM, Jedi Acadamy, RTCW, Call of Duty, SeSam, Q3 etc.

Hm :|

Irre ich mich oder sind 'einige' davon 'etwas' älter, ergo 'schnell genug'??...

Also NWM, RtcW, SeSam (Multi API!!) sowie Beben3 sind schon 'etwas' älter, von daher würd ich mal sagen, daß OGL an Wichtigkeit verliert...

StefanV
2003-11-04, 11:16:14
Original geschrieben von aths
Ich rede nicht von iDCT usw., das hat die Hardware seit dem Rage, sondern von den supertollen Deblocking-Filtern usw., die ATI in einem Flash bewirbt.

Hm, der DivX Player?? :|

GUEST
2003-11-04, 12:34:22
was haltet ihr von den Benchmark werten von tecchannel?
also ich finde wenn die V8 Karte nicht zu teuer wird das ist sie ein gutes Mittelstück zwichen z.B. 9600 pro und 9800 pro
@Stefan Payne
Deblocking-Filtern sollten doch zur verbesserten DivX wieder gabe führen...
MFG GUEST

Gaestle
2003-11-04, 12:37:47
Original geschrieben von GUEST
was haltet ihr von den Benchmark werten von tecchannel?
also ich finde wenn die V8 Karte nicht zu teuer wird das ist sie ein gutes Mittelstück zwichen z.B. 9600 pro und 9800 pro


lies am besten mal die Seiten 2 - 4 oder so. Die V8 Duo Ultra steht bei einem holl. Versand für 429,-€ im der Liste...

Achso und ignorier die/den Profi-Basher einfach... :chainsaw:

Grüße

Gast^1337
2003-11-04, 12:41:28
Wenigstens konnte die Karte beweisen, dass die schneller ist als die Mainstreamlösungen von den beiden "Dicken". Das ist schonmal viel wert. Leider war der Test (bei TC haben die Redakteure den Kopf nur zum Haare schneiden) nicht wirklich augeglichen. Ich bin auch kein Freund von Tests, die mit Vorserienmodellen gemacht werden.

Es war eh klar, dass es für die Creme de la Creme nicht reichen kann. Es darf auch stark bezweifelt werden, dass die "Enthusiasten" sich für eine Karte von XGI interessieren werden.

Aber letzten Endes ist man genau so schlau wie vorher, da man keinen Schimmer hat, wie sich die Karte unter AF&AA schlägt. Schnell war der NV25 ja schließlich auch. Schnell kann halt jeder ;)

AlfredENeumann
2003-11-04, 13:01:01
Original geschrieben von VooDoo7mx
Der DivX Player bietet in Verbindung mit einen DivX Video auch das Hardware Deblocking der Radeon 9500 aufwärts an. Kann man sogar ein und ausschalten.

Das Hauptfeauture beim DivX-Player ist die videobeschleunigung. Ein Deblockingfeature habe ich auf dem DivX-Player (in keiner Version) jemals gesehen.

AlfredENeumann
2003-11-04, 13:01:25
Original geschrieben von aths
Im Flash stand nichts davon, dass das extra kostet. Es wurde der Eindruck erweckt, als würde das automatisch auf jedes Video appliziert.


Die Player-Enginge muß es unterstützen.

AlfredENeumann
2003-11-04, 13:01:49
Original geschrieben von Gast
Nö, ging glaub ich ab DivX Ver. 5.04 in der kostenlosen Version mit Player (Bundle).
Nö.

AlfredENeumann
2003-11-04, 13:02:00
Original geschrieben von DrumDub
was ist dennn mit dem ati mmc? unterstützt das denn nicht auch dieses feature?

Nein.

DrumDub
2003-11-04, 13:14:16
Original geschrieben von AlfredENeumann
Nein.

das ist allerdings etwas unsinnig von ati. die ps-effekte im mmc haben also nichts damit zu tun, richtig?

AlfredENeumann
2003-11-04, 13:20:53
Original geschrieben von DrumDub
das ist allerdings etwas unsinnig von ati. die ps-effekte im mmc haben also nichts damit zu tun, richtig?


Welche Effekte im MMC? )Das ganz neue habe ich mir noch nicht installiert)
Bisher waren die effekte die dort verankert sind IMHO nur für Videoaufnahme und nicht Wiedergabe.

andr_gin
2003-11-04, 13:29:07
Ich habe das jetzt in Excel durchgerechnet und im Durchschitt sind die 9800XT und 5950Ultra nur um 15% bzw. 16% schneller. das ist nicht besonders viel, wenn man bedenkt, dass das nur eine Betaboard und Betatreiber sind. Dazu kommt noch, dass ATI und Nvidia über 500€ verlangen und XGI nur 400€. Es hat hoffentlich keine erwartet, dass XGI jetzt auf einmal kommt und gleich die dreifache Leistung vorweisen kann und ob das jetzt 2Chips oder einer sind ist mir ziemlich egal. Die Leistung und der Preis zählt. Außerdem ist XGI meines Wissens nicht bei TCPA/TCG dabei und Nvidia und ATI schon, was schon einmal ein großer Pluspunkt ist.
Bisher kann man aber nicht allzu viel sagen, da ja bis auf Q3 nur syntetische Benchmarks verwendet wurden und auch da ist es schon egal, ob man jetzt 200 oder 300 fps hat. Ist schon wer zu dem Test von PCWelt duchgedrungen? Habe mich selber versucht anzumelden, aber die Kreditkartennummer 123456789 hat er nicht wirklich akzeptiert.:D :D :D

DrumDub
2003-11-04, 13:39:10
Original geschrieben von AlfredENeumann
Welche Effekte im MMC? )Das ganz neue habe ich mir noch nicht installiert)
Bisher waren die effekte die dort verankert sind IMHO nur für Videoaufnahme und nicht Wiedergabe.

find jetzt natürlich keinen link mahr, aber ich erinnere mich, dass es ähnlich den ps-effekten im cat 3.8 solche effekte für die video-wiedergabe gibt... kann aber auch nur ne demo oder so gewsen sein. auf jeden fall kann ich mich an entsprechende screenshots mit ps-effekten erinnern.

Ice-Kraem
2003-11-04, 13:41:46
ich freue mich eher auf screenshots und um die bildqualität bei aa+af....das ist wichtig und wenn sie da noch genau so gut dastehen wie jetzt ist das echt ne alternative....
axo mir ist auch scheiss egal wie viele chips auf dem teil arbeiten, hauptsache die bq stimmt...

WeyounTM
2003-11-05, 15:44:13
Meiner Meinung nach sollte man XGI noch die Chance für Verbesserung geben. Alles jetzt in Bausch und Bogen zu verurteilen, wie es hier einige anhand eines popeligen Previews/Tests gemacht haben, ist jedenfalls gänzlich Fehl am Platze. Ich finde es jedenfalls interessant, dass man sich auch mal mit Grakas abseits der zwei Big-Player beschäftigen kann.

Radeonator
2003-11-29, 22:41:00
Bei den jetzt bekannten Preisen wird die Volari wieder ein Rohr krepierer de luxe. Wenn die Wirklich glauben mit Club3D was reissen zu können, sind die dümmer als ich dachte...schade und wieder nix vernünftiges!

Ailuros
2003-11-30, 06:14:04
Original geschrieben von Radeonator
Bei den jetzt bekannten Preisen wird die Volari wieder ein Rohr krepierer de luxe. Wenn die Wirklich glauben mit Club3D was reissen zu können, sind die dümmer als ich dachte...schade und wieder nix vernünftiges!

Hat CP-tech jetzt doch weltweite Exclusivitaet bekommen?

mapel110
2003-11-30, 06:16:33
Original geschrieben von Ailuros
Hat CP-tech jetzt doch weltweite Exclusivitaet bekommen?

nö, aber wohl für europa.

ehm, oder war das jetzt ironisch gemeint?! :kratz:

Ailuros
2003-11-30, 06:36:15
Original geschrieben von mapel110
nö, aber wohl für europa.

ehm, oder war das jetzt ironisch gemeint?! :kratz:

Kein bisschen ironisch. Basierend auf CP-tech's eigenen Aussagen und Moeglichkeiten; deshalb auch die Frage.

Radeonator
2003-12-01, 11:16:13
Nö die wollen es EU basierend versuchen. Nur ist der tolle Brandname "Club3D" nicht gerade Musik in des Konsumenten Ohren...als Beilage jibbet dann bestimmt (wenn überhaupt) quasi Builk Zubehör und ein uralt Spiel :kotz:

MadManniMan
2003-12-01, 18:16:34
Das Risiko eines Imageverlusts sehe ich eher auf Seiten von Club3D, da diese einen Ruf zu verlieren haben (quasi der "Value"-Anbieter), während sich XGI erst eine gewisse Reputation erarbeiten muß.
Wenn nun die Volaris - wie ich vermute - richtig Floppen sollten...

:eyes:

Asuka
2003-12-01, 19:45:14
Original geschrieben von MadManniMan
Das Risiko eines Imageverlusts sehe ich eher auf Seiten von Club3D, da diese einen Ruf zu verlieren haben (quasi der "Value"-Anbieter), während sich XGI erst eine gewisse Reputation erarbeiten muß.
Wenn nun die Volaris - wie ich vermute - richtig Floppen sollten...

:eyes: Würde ich ganz genau so sehen - wenn sich Club3D mit der Volari jetzt ein faules Ei ins Nest gelegt hat (was wir mal alle nicht hoffen wollen), dann würde das ihren Ruf durchaus ankratzen :-(

Radeonator
2003-12-01, 22:04:01
Glaub ich kaum, da PoCo schon immer alles im Angebot hatte, welchem Ruf sollen Sie denn schaden ??? Zu breite Produkt Palette = Image Verlust ??? Denkt mal nach, ihr scheint immer zu glauben das jede Firma nur ein Standbein hat, Club3D aka PoCo ist garantiert nicht von einer GPU abhängig, jedoch wollen Sie immer alles anbieten können und das tun Sie mit u.a. dem Anbieten von Volari basierten Karten. Auch wenn das Teil nicht so wirklich der Bringer zu sein scheint , aber das wird sich erst noch zeigen müssen...

stickedy
2003-12-01, 22:11:33
Genau, PowerColor hat auch Xabre-Karten verkauft und vorher auch so ziemlich alles, was es gab...

Ailuros
2003-12-02, 04:36:33
Original geschrieben von Radeonator
Nö die wollen es EU basierend versuchen. Nur ist der tolle Brandname "Club3D" nicht gerade Musik in des Konsumenten Ohren...als Beilage jibbet dann bestimmt (wenn überhaupt) quasi Builk Zubehör und ein uralt Spiel :kotz:

I am pleased to inform you that
CP tech might get worldwide exclusitity for XGI.

12.November 2003

Club3D gehoert zu welchem Konzern nochmal?

***edit:

<snip>

CPtech will top it's own financial forecast from $103 to $149 million in 2003 year, the range up is around 45% ; the expected EPS before tax will be rised from $3.97 to $6.1 million, the range up is around 54% ; the expected EPS after tax is $0.133. The target for the graphics card delivery in 2003 year will be 2.228 million pieces and the real financial forecast will be published next week. As for Power Color, the gross rate for fiscal third-quarter has a 3% comeback which is 12.84%, but it's still in the slight red at this quarter.
CPtech joined the ATI group from the end of last year and got the investment from Foxconn this year; Along with the improvement for the quality and the enlargement of the ATI market share, there's a big jump in sales for CPtech. The third-quarter financial report which was published yesterday, the revenue for the first 3 quarters is $1.206 million with the $4.1million EPS before tax and $3.7million EPS after tax. It had achieved the original financial forecast at 104.3% with the average gross rate at 8.8% and EPS after tax at $0.104. Based on this achievement for financial forecast upfront, CPtech will top it's financial forecast and become the first graphics card company with this action in Taiwan this year.

The updated real financial forecast will be published next week according to CPtech, it is expected that the change will be rised as following : revenue:$149 million with the range up at 45% ; EPS before tax :$6.1 million with range up at 54% ; EPS after tax :$5.3million with the range up at 49%, based on current circulating stocks which is $14.7million, the EPS after tax should be $0.106.

CPtech had reached 80% of it's original graphics card delivery target based on the 1.44million pieces shipping for the first 3 quarters. And long with the topping of the financial forecast , the target for the delivery will be at 2.228 million pieces with the range up at 24%. Moreover, the unit price for graphics card ASP will increase from $55 to $60 based on the rise of the delivery in high cost graphics card. CPtech predicted that the revenue for the forth-quarter will be $50.6 million which is 25% higher than that of third-quarter and have a performance better than average 2 quarters in a row. As for the monthly base, the revenue in October will be accelerated by the surging demand and reaches a historic goal.



Alicia Yu
C.P.Technology Co. Ltd.

MadManniMan
2003-12-02, 16:05:44
Uppsa :D

Ändert aber nichts an der Intention hinter meiner Äußerung!

haifisch1896
2003-12-02, 17:37:18
Jetzt muss ich mich mal zu Wort melden.
Was habt Ihr gegen club3D? Okay, ich hab von denen meine erste Karte drin, aber meckern kann ich nicht. Bin vorher von ner KyroII auf ne 9000Pro umgestiegen. Da merkt man den Unterschied der Bildqualität. Was ich aber nicht bemängeln kann, ist der qualitativ angeblich schlechte TV-Out der Karte. Bin ich nicht der Meinung, der von der HIS 9000 Pro ViVo war im Gegensatz dazu schlecht.
Auch hab ich mal in diesem Forum gelesen (fragt mich nicht welcher Thread), dass das Layout nicht gut sein soll. Stimmt auch nicht, da 100% Referenzdesign made by ATI.

Aber gut, ich will nicht provozieren, sondern mir mal Eure Meinung anhören.

BTW: Die Beigaben sind aber wirklich nicht das Gelbe vom Ei.:-(

PCGH_Thilo
2003-12-02, 17:41:31
Original geschrieben von MadManniMan
Uppsa :D

Ändert aber nichts an der Intention hinter meiner Äußerung!

es gibt ne neue PM von Club 3D. Ich zitiere:

The highly acclaimed 1st DUAL GPU graphic board, the Volari V8 Ultra will be equipped with ultra fast 256 MB of DDR2 Memory, with 16 real rendering pipelines, the Volari™ Duo V8 Ultra takes on the task of graphics processing with twice the firepower as other graphics cards, blowing away 3D benchmark challenges like a pair of 9 millimeters bullets.

Gast
2003-12-02, 18:15:08
Hoffentlich wird die Karte nicht so heiß, daß man das mit der Firepower wörtlich zu nehmen hat...
[/Sarkasmus]

Aber, hat XGI völlig den Sinn für die Realität verloren? Ich meine, bei nVidia ist die Hardware zwar unter DX9 momentan hinter ATi, aber nicht durch die Bank von der Mittelklasse der Konkurrenz völlig vernichtet, wie bei XGI.

WAS rauchen die??

Q

[dzp]Viper
2003-12-02, 18:44:53
Club 3D liefert XGI Volari Duo V8 Ultra aus

02.12.2003 17:57 Uhr - Der niederländische Grafikkartenhersteller Club 3D hat heute die Auslieferung erster Platinen mit Duo V8 Ultra GPUs bekannt gegeben. Die Boards mit Dual-GPUs sind mit 256 MByte DDR-II-Speicher bestückt und verfügen laut Hersteller über insgesamt 16 Rendering Pipelines. Die Grafikkarten sollen noch vor Weihnachten im Handel angeboten werden, einen Preis gab Club 3D noch nicht bekannt.

Quelle - www.pcgames.de

MadManniMan
2003-12-02, 21:41:39
Original geschrieben von PCGH_Thilo
es gibt ne neue PM von Club 3D. Ich zitiere:

The highly acclaimed 1st DUAL GPU graphic board, the Volari V8 Ultra will be equipped with ultra fast 256 MB of DDR2 Memory, with 16 real rendering pipelines, the Volari™ Duo V8 Ultra takes on the task of graphics processing with twice the firepower as other graphics cards, blowing away 3D benchmark challenges like a pair of 9 millimeters bullets.

Also so langsam verwirrts mich total... ists denn nur Color Power oder PowerColor oder wie oder was oder Club3D :balla:

Ach noch was: schreibt jetzt Daniel alle Marktübersichten?

reunion
2003-12-02, 22:00:44
Original geschrieben von [dzp]Viper
Club 3D liefert XGI Volari Duo V8 Ultra aus

02.12.2003 17:57 Uhr - Der niederländische Grafikkartenhersteller Club 3D hat heute die Auslieferung erster Platinen mit Duo V8 Ultra GPUs bekannt gegeben. Die Boards mit Dual-GPUs sind mit 256 MByte DDR-II-Speicher bestückt und verfügen laut Hersteller über insgesamt 16 Rendering Pipelines. Die Grafikkarten sollen noch vor Weihnachten im Handel angeboten werden, einen Preis gab Club 3D noch nicht bekannt.

Quelle - www.pcgames.de

:lol: Mit was wird die denn ausgeliefert mit den auch so tollen Beta Treibern und 2 externen Stromanschüssen oder hab ich das was verpasst???

Exxtreme
2003-12-02, 22:07:14
Original geschrieben von PCGH_Thilo
The highly acclaimed 1st DUAL GPU graphic board, the Volari V8 Ultra will be equipped with ultra fast 256 MB of DDR2 Memory, with 16 real rendering pipelines, the Volari™ Duo V8 Ultra takes on the task of graphics processing with twice the firepower as other graphics cards, blowing away 3D benchmark challenges like a pair of 9 millimeters bullets.
:lolaway: Geiler Text. :up:

Das Teil soll erstmal an den bestehenden Konkurrenz-GraKas vorbeiziehen und zwar auch mit aktiven Antidetect-Modus im 3DA.

Radeonator
2003-12-02, 23:47:00
PoCo = CoPo ;) = Club3D ...

Aber bitte wer, soll soviel für eine Newcomer Karte ausgeben ?

MadManniMan
2003-12-02, 23:56:37
Original geschrieben von Radeonator
PoCo = CoPo ;) = Club3D ...

Aber bitte wer, soll soviel für eine Newcomer Karte ausgeben ?

Echt? ???

Whoa...


/Edit: was ist mit dem Smiley passiert? ???

Quasar
2003-12-03, 01:07:47
Liest du hier (http://www.forum-3dcenter.org/vbulletin/forumdisplay.php?s=&forumid=35), dann weißt du.

Er wird jetzt so gemacht :???:

Leonidas
2003-12-03, 07:11:02
Original geschrieben von andr_gin
Ich habe das jetzt in Excel durchgerechnet und im Durchschitt sind die 9800XT und 5950Ultra nur um 15% bzw. 16% schneller.


Also wenn ich mir ein paar Benchmarks der XGI-Karte außerhalb der üblichen verdächtigen Benchmarks ansehe, bezweifle ich diese 15 bzw. 16%.

Radeonator
2003-12-03, 09:15:53
Viel mehr beschäftigt mich da auch die Aussage, das nicht Anwendungs spezifisch , sondern overall Opimierungen gemacht werden müssen. Soll wohl heissen : IQ/BQ = :-(

[dzp]Viper
2003-12-03, 15:41:48
Es gibt seit gestern neue treiber - NUR 50 MB :freak:

http://www.club-3d.nl/de/club-3D.html

mapel110
2003-12-03, 16:16:37
Original geschrieben von [dzp]Viper
Es gibt seit gestern neue treiber - NUR 50 MB :freak:

http://www.club-3d.nl/de/club-3D.html

ist auch noch directx9 mit drin.

/edit
hehe, ohne sinds dann gerade mal noch 8 mb treiber. da sieht man mal, wieviel optimierungen ATI und nvidia drin haben :)
/edit2
ein neues graka bios samt flashutility ist auch im package. scheint wohl drigend zu sein, wenn sie es mitliefer im treiber.

betasilie
2003-12-03, 16:43:21
Kann das Ding denn jetzt AA und AF?

Exxtreme
2003-12-03, 16:44:31
Original geschrieben von betareverse
Kann das Ding denn jetzt AA und AF?
Können ja, ob's im Treiber freigeschaltet ist, weiss ich nicht.

PCGH_Thilo
2003-12-03, 18:30:25
Original geschrieben von MadManniMan
Also so langsam verwirrts mich total... ists denn nur Color Power oder PowerColor oder wie oder was oder Club3D :balla:

Ach noch was: schreibt jetzt Daniel alle Marktübersichten?

daniel macht hauptverantwortlich die marktübersichten, ja.

PCGH_Thilo
2003-12-03, 18:33:06
Original geschrieben von Exxtreme
Können ja, ob's im Treiber freigeschaltet ist, weiss ich nicht.

ich krieg erst die tage eine neue karte =)

LovesuckZ
2003-12-03, 18:35:33
Original geschrieben von PCGH_Thilo
daniel macht hauptverantwortlich die marktübersichten, ja.

Wer ist Daniel?
*im editorial stand nichts über ihm*
...

betasilie
2003-12-03, 18:37:00
Original geschrieben von Exxtreme
Können ja, ob's im Treiber freigeschaltet ist, weiss ich nicht.
:eyes: Mit "Ding" meinte ich den Treiber.

Ich hoffe es kommen bald die ersten Benchmarks mit AA und AF.

DjDino
2003-12-04, 03:28:29
Falls noch nicht gepostet : Für die Karte wird ein 400Watt-Netzteil empfohlen :

XGI™ Volari™ DUO V8 requires a 400 Watt power supply..." :
http://www.club-3d.nl/archivos/XGI%20Guide.pdf

Meine Meinung :
Wer dieses nicht hat und sich dazubesorgen muss für dem ist das Preis-Leistungsverhältnis wohl leider nicht mehr so gut. (+ ca. 100Euro Markennetzteil)

Gast
2003-12-04, 04:41:12
Ich würds ja sehr nett finden wenn die SLI- Idee wieder kommen würde. Aber wahrscheinlich geht das nciht weil die qualität leiden würde. PCI-Express würds endlich seit dem AGP-Bus wieder möglich machen!
Die idee ist super. Ein Karte kaufen die super ist und sobald die veraltet ist , noch eine bereits verbilligte kaufen und weiterspielen !

Demirug
2003-12-04, 08:01:56
Original geschrieben von Gast
Ich würds ja sehr nett finden wenn die SLI- Idee wieder kommen würde. Aber wahrscheinlich geht das nciht weil die qualität leiden würde. PCI-Express würds endlich seit dem AGP-Bus wieder möglich machen!
Die idee ist super. Ein Karte kaufen die super ist und sobald die veraltet ist , noch eine bereits verbilligte kaufen und weiterspielen !

PCI-Express bringt einen da nicht wirklich weiter. Solange es keine Boards mit 2 16x PCI-Express Slots gibt wird das nichts.

ShadowXX
2003-12-04, 08:40:24
Und jetzt kennen wir auch die Taktraten:

Volari V8 Ultra: 350 MHz Core / 400 MHz Speicher

(siehe auch http://www.hartware.de/news.html?id=35245
und http://www.hardtecs4u.com)

Damit unterbieten Sie den Speichtakt gegenüber den Beta-Test-Karten nochmals um 50MHz und gegenüber ihrer Vorankündigung sogar um 100MHz.....

Das ganze zu einem Preis von 400Euro....

Für weniger bekommt man eine 9800Pro (oder auch fx5900).

XGI scheint auf einem anderen Stern zu leben, was ihre Preispolitik und Einschätzung der Leistungsfähigkeit Ihrer Grafikkarten angeht....

Von den Treibern will ich gar nicht reden....

J.S.Shadow

stickedy
2003-12-04, 10:29:14
Also den Preis legt ja Club3D/PowerColor festund nicht XGI! Wenn die nix verkaufen, dann werden die Preise ganz schnell nach unten korrigiert werden...

stickedy
2003-12-04, 10:30:52
Original geschrieben von DjDino
Falls noch nicht gepostet : Für die Karte wird ein 400Watt-Netzteil empfohlen :

XGI™ Volari™ DUO V8 requires a 400 Watt power supply..." :
http://www.club-3d.nl/archivos/XGI%20Guide.pdf


Wesentlich befremdlicher finde ich die Tatsache, dass die Karte offensichtlich immer noch 2 Stromanschlüsse hat und nicht wie angekündigt nur noch einen...

ShadowXX
2003-12-04, 10:49:14
Original geschrieben von stickedy
Also den Preis legt ja Club3D/PowerColor festund nicht XGI! Wenn die nix verkaufen, dann werden die Preise ganz schnell nach unten korrigiert werden...

Also für die Preisregionen, in denen sich eine GraKa (zumindest innerhalb der ersten Monate) bewegt, gibt es durchaus "Richtlinien" und/oder "Empfehlungen" der IHVs.

J.S.Shadow

Radeonator
2003-12-04, 12:01:32
Eben, XGI haben den Preis schon bei der ersten Presentation in diese Regionen geparkt. Wie heissts so schön : "Echt blöd!"

PCGH_Thilo
2003-12-04, 15:39:51
Original geschrieben von LovesuckZ
Wer ist Daniel?
*im editorial stand nichts über ihm*
...

daniel waadt. ist seit einigen monaten fest an board, vorher schon lange zeit freier, ständiger mitarbeiter. steht in jedem impressum ;-)

betasilie
2003-12-04, 17:08:55
Original geschrieben von Radeonator
Eben, XGI haben den Preis schon bei der ersten Presentation in diese Regionen geparkt. Wie heissts so schön : "Echt blöd!"
Das ist garnicht blöd.

Die Leute, die aus welchen Gründen auch immer diese Karte haben müssen/wollen direkt zum Launch, werden den Preis bezahlen müssen und der IHV macht guten Gewinn. Dann werden die Kartenpreise in 4-8Wochen purzeln. Dieses Vorgehen ist sicherlich klug und durchdacht, nicht nur weil die Verfügbarkeit anfangs sowieso nicht so groß sein wird.

reunion
2003-12-04, 17:15:34
Also ich muss mich jetzt auch mal zur Volari Duo V8 äußern:

Meinermeinung noch ist die Karte eine Frechheit, leistungmäßig ungefair so schnell wie eine 9600 non pro (zumindest bei nicht "optimierten" anwendungen) und das troz bi Texturfilterung (wodurch sie bei tri filterung nochmal 50% Füllrate verliert und somit hoffnugslos untergehen dürfte) 2 externen Stromanschlüssen, 130W(!!!) Leistungsaufnahme in 3D, bis jetzt weder AA noch AF fähig, extrem schlechten treibern, viel zu laut (über 5 Sone), viel zu heiß und noch dazu extrem schwer...nichtsdestotroz kostet die Karte hoffnugslos überteuerte 400€ :bonk:

Wie blöd schätzt XGI die PC-spieler eigendlich ein??
Die Karte ist den Konkurrenzprodukten in jeder Hinsicht unterlegen und absolut wertloser Transitorschrott!

Einfach erbärmlich...

Asuka
2003-12-04, 18:10:29
Original geschrieben von betareverse
Das ist garnicht blöd.

Die Leute, die aus welchen Gründen auch immer diese Karte haben müssen/wollen direkt zum Launch, werden den Preis bezahlen müssen und der IHV macht guten Gewinn. Dann werden die Kartenpreise in 4-8Wochen purzeln. Dieses Vorgehen ist sicherlich klug und durchdacht, nicht nur weil die Verfügbarkeit anfangs sowieso nicht so groß sein wird. Da muß ich widersprechen. Was du sagst, wäre nur der Fall, wenn eine neue Karte von Ati oder nVidia rauskäme, wo es bei beiden schon genug Fanboys gibt, die immer das neueste haben wollen, so daß sich das dann lohnt.
Bei XGI handelt es sich jedoch um einen vollkommenen Neuling, so daß die kaufwütigen Fanboys hier relativ gering sein dürften... zudem hat die Karte im Vorabtest (der weitere Fanboys anziehen könnte) nicht gerade sonderlich gut abgeschnitten.
Dazu kommt dann noch, daß die Karte keine "echten" 256MB hat, sondern jeweils 128MB für beide Speicherchips, wo dann alles doppelt, für jeden Chip einmal, abgelegt wird, wodurch die Karte effektiv eigentlich nur eine 128MB Karte ist.
Der Preis von 400€ ist also aus vier Gründen maßlos überteuert:
- leistungsmäßig kann sie mit anderen Karten auf dem selben Preisniveau nicht mithalten (bisherigen Ergebnissen zufolge)
- selbst wenn sie jetzt doch mithalten kann: es ist eigentlich nur eine 128MB Karte, und diese sind bei der Konkurrenz ganz drastisch billiger (z.B. 9800Pro: 312€)
- eventuell muß noch ein 400W Netzteil gekauft werden
- da XGI neu ist, kaum Fanboys, die meinen, sie müßten immer das neueste haben

Mit dem aktuellen Wucherpreis glaube ich nicht, daß sie sich gut verkaufen wird :(
Maximal 300€ wären angebracht gewesen, besser noch darunter, um wirklich konkurrenzfähig zu sein.

Ailuros
2003-12-05, 04:45:50
Maximal 300€ wären angebracht gewesen, besser noch darunter, um wirklich konkurrenzfähig zu sein.

Wenn man aber unter die 300 Marge purzelt, verkauft man aber auch wieder schnell mit Verlust. Wenn ich jetzt nochmal erwaehne warum ich multi-chip Loesungen als eine rundum schlechte Idee empfinde, dann heisst es schnell wieder dass ich voreingenommen bin.

Wie man es auch ansieht die Unkosten sind zu gross, ueberhaupt wenn man an die ~160M Transistoren erstmal denkt. FX5900 und 9800 werden stellenweise in der US mit rebates schon fuer 199$ verkauft; wie lange wird es dauern bis sich die Preise hier in Europa diesen so langsam anpassen werden? So manche Weihnachtsbaeume haben mehr als nur Lebkuchen als Geschenke darunter...;)

ShadowXX
2003-12-05, 08:01:23
Tja, und jetzt hat es sich wohl erst mal bis Januar mit den Volari V8 DUO Ultra erledigt...
Zumindest wenn Leos Quellen recht haben...

Jetzt ist nur die Frage ob das mit dem DDR2 Hitzeproblem wirklich stimmt, oder ob XGI inzwischen mitbekommen hat, dass Grafikkartenkäufer durchaus Lesen und im Web Surfen können;D ;D

Zumal die Anforderungen die die Grafikkarte an das Netzteil stellt, ja wohl der Hammer schlechthin sind....

400 Watt ist ja nooooch halbwegs "ertragbar" (davon abgesehen, das 400Watt Markennetzteile auch nicht gerade umsonst von den Dächern fallen)...aber das man dann auch noch 2 unterschiedliche Kabelstränge benutzen muss (nix Y-Adapter...siehe auch www.hardtecs4u.de) ist langsam doch zuviel des guten...

Vielleicht ist es ganz gut das XGI die Karten nochmals zurückzieht, etwas überarbeitet und dann auch mit besseren Treibern nochmals im Januar startet....

Oder wie Henry Maske sagen würde:
Time to say g... ähhhh Time will tell...

J.S.Shadow

P.S.
wo ist eigentlich der putzige Gast, der uns immer über die Vorzüge der XGI Karten aufklären wollte...;D

betasilie
2003-12-05, 16:26:50
Original geschrieben von ShadowXX
400 Watt ist ja nooooch halbwegs "ertragbar" (davon abgesehen, das 400Watt Markennetzteile auch nicht gerade umsonst von den Dächern fallen)...aber das man dann auch noch 2 unterschiedliche Kabelstränge benutzen muss (nix Y-Adapter...siehe auch www.hardtecs4u.de) ist langsam doch zuviel des guten...

Es ist bei der Empfehlung wohl ein 400W-noName NT gemeint, daher sollte ein gutes 350W NT allemal ausreichen.

ow
2003-12-05, 18:07:06
Original geschrieben von ShadowXX
...aber das man dann auch noch 2 unterschiedliche Kabelstränge benutzen muss (nix Y-Adapter...siehe auch www.hardtecs4u.de) ist langsam doch zuviel des guten...



Das halte ich für unsinnig.
Man sollte nur darauf achten, dass die Kartenversorgung nicht am Ende eines Stranges sitzt, sondern möglichst den ersten Stecker nutzt. Dann ist der Spannungsabfall über die gesamte Kabellänge nicht so gross.

Gast
2003-12-05, 18:14:52
http://www.forumdeluxx.de/forum/showthread.php?s=&threadid=36439&perpage=25&pagenumber=3

ich habe die karte seit heute sie taktet aber mit

328 // 450 !!

und sie läuft auch mit einem 250 watt netzteil

mapel110
2004-01-26, 01:39:58
http://www.driverheaven.net/reviews/Volari/index.htm
so läuft also ein review mit dem volari. man muss erstmal games finden, die überhaupt laufen.

Ailuros
2004-01-26, 03:48:33
Spass beiseite (ich hab ja schon selber ueber den Stromverbrauch geulkt), aber man sollte ueber hohen Stromverbrauch und eine minimale 400W PSU Vorraussetzung nicht allzu viel laestern oder als schwachen Punkt benutzen, wenn man genau weiss was in absehbarer Zeit kommen wird.

Ja es handelt sich um andere Generationen, Architekturen, um viel schnellere und effiziente Loesungen, aber den spezifischen Punkt moechte ich mir persoenlich nicht als Boomerang ins Gesicht fliegen lassen dieses Quartal *kicher*

;)