PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : XGI Volari Duo


Seiten : [1] 2

FMIDA
2003-09-15, 14:04:08
Hallo zusammen,

hat jemand Infos zu dieser Karte? Benchmarks o.ä.?

http://www.xgitech.com/

L. Trotzkij
2003-09-15, 14:20:41
Ich schaus mir gerad an.
Nur eine Frage zur Feststellung:
Sind das die, für die ich sie halte??

edit: Sie sinds mit Sicherheit, da der eine Chip ne BEzeichnung von Trident enthält(vor ein paar Monaten von SiS bzw. XGI aufgekauft).
Und noch eins, wenn ich was von Dual Lsg. höre, könnte ich mir vorstellen, dass XGI wirklich Highend bedienen will oder ein Chip ist zu schwach um das Ziel zu erreichen und so kommt man wenigstens halbwegs ran.

Hier Spezifikationsvergleich (http://www.xgitech.com/products/XGIPRPBComp09032003En.pdf) Vorsicht pdf Datei.

FMIDA
2003-09-15, 14:51:05
Den Spezifikationen nach zu urteilen müssen das schon recht potente Karten sein! 2x256 MB RAM ist ja auch nicht zu verachten! Würde gerne mal wissen wie sich die Karten im Benchmark schlagen. Vielleicht gibt es ja doch noch einen Hersteller der ATI und NV das Wasser reichen kann... Matrox ist ja mittlerweile raus.

Gast
2003-09-15, 16:01:57
neues Futter für die Massen :

http://www.xgitech.com/


die ehemaligen Leute von SiS sind etwas früh dran. Ich dachte die neuen XGI-Karten werden erst am 22.9. vorgestellt.

Volari klingt aber irgendwie "strange" ;D ;D

StefanV
2003-09-15, 16:06:01
Original geschrieben von Gast
neues Futter für die Massen :

http://www.xgitech.com/


die ehemaligen Leute von SiS sind etwas früh dran. Ich dachte die neuen XGI-Karten werden erst am 22.9. vorgestellt.

Volari klingt aber irgendwie "strange" ;D ;D

1. Hm, ich fürchte, du warst NICHT der erste...
Schau mal hier (http://forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=94367)

2. nujo, man kann die aber schonmal ankündigen ;)
Man is ja nicht ATI *eg*

3. naja, klingt irgendwie nach Londo...

Gast
2003-09-15, 16:29:08
Cool; wer hat den nun die beiden Treads zusammen gelegt? Danke.

Anmerkungen, soweit man das bisher sehen kann :

XP5 und Volari V3 sind nur DX8.1. Anscheinend sind es nur umgelabelte XP4-Chips von Trident.
Die Spec's passen jedenfalls IMHO wie die Faust auf's Auge.

V5 und V8 sind die wirklichen Neuentwicklungen. Einmal mit 4, und einmal mit 8 Pipelines. Und
komplett DX9-Compliant in Hardware. Die schreiben sogar "fully DX9-complaint" nett.

V-duo ist dann die Krönung. 8-16 Pipelines in 2 Chips auf einem Board; je nach dem ob das
Duo-Board mit einem V5 oder V8 bestückt ist. UFF. Die machen ja wirklich ernst mit Highend.
Obwohl ein V5-Duo imho keinen Sinn macht, außer der Chip ist wesentlich höher getaktet als der V8.

Jetzt bleibt nur eine Frage: Wann kommen die auf den Markt.


Achja; das Marketing-Geblubber ist nochmal ein Stück besser geworden. ;D Die lernen es auch nie.
Oder ist die Asiatische Mentalität hier komplett anders. ???

L. Trotzkij
2003-09-15, 16:59:27
Ich frage mich nur, ob die V5 und V8 wirklich nur Weiterentwicklungen vom Xabre sind und ob dieses Mal die richtige Anordnung der Pipelines eingehalten wird(siehe Xabre 2x4 Architektur nicht 4x2).

Ich freu mich diebisch auf erste Tests, vor allem mit den Dual Teilen, das wird sicher lustig, weil es einfach XGI ist;D .

AMC
2003-09-15, 17:17:05
Sehr geil.

Allerdings sind mir da ein, zwei Ungereimtheiten aufgefallen. Schaut euch mal das Spezifikations-PDF an
XGI Product Specs (http://www.xgitech.com/products/XGIPRPBComp09032003En.pdf). Da steht was von 8 Pipelines und NUR 4 PIXELSHADERN. Das kann aber net, denn JEDE Pipeline hat nen Pixelshader. Das ist keine extra TTL Logik, sondern ein Bestandteil der Pipeline. (Im Gegensatz zum Vertexshader.) Sehr merkwürdig.
Naja, lassen wir uns überraschen, ich find die Ankündigung schon mal sehr gut. XGi würden von mir auf jeden Fall ne Chance kriegen, denn nVidia kommt mir nicht mehr so schnell in den Rechner und auf ATI Treiber werde ich mich auch nach wie vor nicht einlassen. Meine Favoriten sind S3´s DeltaChrome und XGi.

AMC

AlfredENeumann
2003-09-15, 17:56:20
Original geschrieben von AMC
XGi würden von mir auf jeden Fall ne Chance kriegen, denn nVidia kommt mir nicht mehr so schnell in den Rechner und auf ATI Treiber werde ich mich auch nach wie vor nicht einlassen. Meine Favoriten sind S3´s DeltaChrome und XGi.


Ach, S3 und XGI haben natürlich erstklassige Treiber, oder was ?

mapel110
2003-09-15, 18:02:36
Original geschrieben von AlfredENeumann
Ach, S3 und XGI haben natürlich erstklassige Treiber, oder was ?

dem ist nichts hinzuzufügen ;D

- High quality anisotropic filtering <-- na dabei erwarte ich von powerVR und s3 mehr, als von nvidia(siehe wunder-deto51) und ATI.
sollte ja nicht schwer sein, die beiden etablierten hierbei zu übertreffen :)

Ailuros
2003-09-15, 18:09:14
Mir sagen die Daten momentan gar nichts, bis ich die Dinger von unabhaengigen Quellen getestet sehe.

Die machen ja wirklich ernst mit Highend.

Multichip Loesungen haben dafuer auch einen aeusserst ernsthaften Preis.

- High quality anisotropic filtering <-- na dabei erwarte ich von powerVR und s3 mehr, als von nvidia(siehe wunder-deto51) und ATI.

Wenn es nur ein revamp des XabreII Designs sein sollte (auf was mich die Spezifikationen auch momentan verdaechtigen) handelt es sich wohl hier um 4x sample Anisotropic filtering. Hoffentlich ist es zumindest ein adaptiver Algorithmus, dass die Leistung dabei auch demenstrechend hoch ist.

Und bitte XGI diesmal richtiges AA unter allen modi, RGMS am idealsten.

Demirug
2003-09-15, 18:51:41
Das mit dem Pipelines und Pixelshader scheint mal wieder eine creative Zählweise zu sein.

Die Verbidnung zwischen den beiden Chips scheint mir etwas schwach zu sein. Letzten Endes ein properitäres AGP 8X Interface.

Ailuros
2003-09-15, 19:13:25
Original geschrieben von Demirug
Das mit dem Pipelines und Pixelshader scheint mal wieder eine creative Zählweise zu sein.

Die Verbidnung zwischen den beiden Chips scheint mir etwas schwach zu sein. Letzten Endes ein properitäres AGP 8X Interface.

Wenn der triangle setup zwischen den chips nicht gleich verteilt wird, will ich schon gar nichts davon wissen.

ow
2003-09-15, 19:15:54
Oh, und DVC gibt´s auch, als ColorAmp(TM) Engine.:D;D

http://www.xgitech.com/products/Coloramp.pdf


Die Marketingnamen find ich echt witzig.

HOT
2003-09-15, 19:19:17
Original geschrieben von AlfredENeumann
Ach, S3 und XGI haben natürlich erstklassige Treiber, oder was ?

Das scheinst du ja sehr genau zu wissen :D

lassen wir uns mal überraschen bevor wir voreilige schlüsse über treiberqualität ziehen

HOT
2003-09-15, 19:22:51
Das Teil (vor allem der Duale) könnten interessant werden. Ach was schreib ich, neue Grafikchips, vor allem von nicht so bewährten entwicklern sind IMMER interessant :D

Von der Produktpalette her macht das SIS Trident Joinventure anscheinend echt ernst. Die wollen gross raus ;)

Was die 4 Pixelshader angeht, scheint der Chip entweder eine NV ähnliche Lösung zu besitzen (als eine eigentliche 4x2 architektur) oder nur jede 2. Pipe ist für DX8/9 Funktionen nutzbar.

Ailuros
2003-09-15, 19:23:59
Original geschrieben von ow
Oh, und DVC gibt´s auch, als ColorAmp(TM) Engine.:D;D

http://www.xgitech.com/products/Coloramp.pdf


Die Marketingnamen find ich echt witzig.


Sieht nach einer Art von DigitalVibrance aus. Komischerweise sieht das Bild mit ColorAmp schlechter aus als das Original. Solcher Quatsch ist nur fuer newbies die keine Ahnung von colour callibration haben.

Demirug
2003-09-15, 19:53:18
Original geschrieben von Ailuros
Wenn der triangle setup zwischen den chips nicht gleich verteilt wird, will ich schon gar nichts davon wissen.

Irgendwie habe ich das Gefühl das die beiden Chips im AFR verfahren arbeiten.

Gast
2003-09-15, 20:43:39
Original geschrieben von Demirug
Das mit dem Pipelines und Pixelshader scheint mal wieder eine creative Zählweise zu sein.


Wieso? Schaut doch so aus wie beim FX5600.

Der V5 hat 4Pipelines und 2Pixelshader. Ergo der direkte Konkurrent zum FX5600/Ultra.

Es wäre schon scharf, wenn XGI die Pixelshader ohne die ganzen Probleme, die Nvidia hat gebacken bekommen hätte. Dann wäre die V5 schneller als eine FX5600, und die V5-Ultra schneller als eine FX5600-Ultra bei DX9-Spielen. < DROLL >

Die V5-Ultra Duo wäre dafür dann die direkte Konkurrenz zum FX5900. In älteren Spielen etwas langsamer, in neuen DX9-Spielen dafür schneller. Hängt natürlich davon ab, wie gut das AGP-Bridge - Interface ist.

XGI scheint die Chips von Anfang an für diese Art der Dual-Chip Karten ausgelegt zu haben, da die "Bridge" direkt im Chip ist (so wie beim R300 ??? ).


Auf den Vergleich bin ich schon gespannt. ATi werden sie nicht erreichen können, aber bei Nvidia bin ich mir da gar nicht so sicher, da die bei den FX-Karten ja ziemlich tief in das Güllefass gelangt haben.

Demirug
2003-09-15, 20:51:28
nVidia hat ja auch einen creative Zählweise wenn sie den mal mit Zahlen um sich werfen.

Das der R300 einen Bridge im Chip hat glaube ich jetzt eigentlich nicht. Die Multichip lösungen waren AFAIK bisher PCI-Karten.

Black-Scorpion
2003-09-15, 21:05:45
Original geschrieben von Demirug
nVidia hat ja auch einen creative Zählweise wenn sie den mal mit Zahlen um sich werfen.

Das der R300 einen Bridge im Chip hat glaube ich jetzt eigentlich nicht. Die Multichip lösungen waren AFAIK bisher PCI-Karten.

Die "RAGE FURY MAXX" war eine AGP Karte.
http://www.ati.com/products/rage128pro/ragefurymaxx/index.html

StefanV
2003-09-15, 21:16:07
Original geschrieben von Anonym_001
Die "RAGE FURY MAXX" war eine AGP Karte.
http://www.ati.com/products/rage128pro/ragefurymaxx/index.html

Schon, nur war die MaXX zu NT inkompatibel und funzte nur unter W9x einigermaßen...

Pussycat
2003-09-15, 21:32:27
unter 9x hätte sie aber mit guten Treibern funktioniert, oder?

Demirug
2003-09-15, 21:36:36
Original geschrieben von Anonym_001
Die "RAGE FURY MAXX" war eine AGP Karte.
http://www.ati.com/products/rage128pro/ragefurymaxx/index.html

Ich meinte R300 Multichip Lösungen.

Die "RAGE FURY MAXX" war irgendwie leicht an den standards vorbei gebaut.

StefanV
2003-09-15, 21:37:10
Original geschrieben von Pussycat
unter 9x hätte sie aber mit guten Treibern funktioniert, oder?

Die MaXX??

Nunja, mehr schlecht als recht, waren ja auch nur 2 Rages drauf *eg*

AlfredENeumann
2003-09-15, 22:07:57
Original geschrieben von HOT
Das scheinst du ja sehr genau zu wissen :D

lassen wir uns mal überraschen bevor wir voreilige schlüsse über treiberqualität ziehen

Da wo NV und ATI JAhrelang gebraucht haben um annähernd passable Treiber zu schreiben wird das XGI mitnichten soauf die schnelle hinbekommen.

AlfredENeumann
2003-09-15, 22:10:04
Original geschrieben von Demirug
nVidia hat ja auch einen creative Zählweise wenn sie den mal mit Zahlen um sich werfen.

Das der R300 einen Bridge im Chip hat glaube ich jetzt eigentlich nicht. Die Multichip lösungen waren AFAIK bisher PCI-Karten.

Der R300 hat keinen Bridge-Chip. ATI hat allerding eine AGP-Bridge, welche auch bei den neueren AiW-Karten Anwendung findet.

AlfredENeumann
2003-09-15, 22:10:58
Original geschrieben von Stefan Payne
Schon, nur war die MaXX zu NT inkompatibel und funzte nur unter W9x einigermaßen...

Ich fand sie sehr gut. Ne schnelle CPU vorrausgesetzt hat war sie fast GF1 Niveau.

Modulor
2003-09-15, 23:22:08
Die deutsche Autobahn scheint ja wirklich einen legandären Ruf im Ausland zu haben: "Broadbahn(TM) Memory Architecture"...
Scheinbar hat sich das noch nicht rumgesprochen daß man gerade bei hohem Verkehrsaufkommen zumeist im Stau steht - wenn das mal kein böses Omen ist ;D

(del676)
2003-09-15, 23:42:45
naja ... im Jeep hab ich schon keinen V8, dann wenigstens einen im PC :D

Radeonator
2003-09-15, 23:51:49
Die MAXX lief sehr gut, war in etwa auf GF1 Niveau.
3dFX´s MultiChip Lösungen sind hier niemandem eingefallen ?

Ich muss OW recht geben, die Namen sind gar köstlich, vor allem heisst der Treiber Reactor, was schon irgendwie kewl klingt und besser passt als detonator oder catalyst ;)

Ich hoffe das die Karte was wird und nicht wieder nur ein Stroh feuer...die Xabre Treiber waren übrigens i.O. (ab rev 3.8)

(del676)
2003-09-16, 00:00:20
Original geschrieben von Radeonator
Die MAXX lief sehr gut, war in etwa auf GF1 Niveau.
3dFX´s MultiChip Lösungen sind hier niemandem eingefallen ?

Ich muss OW recht geben, die Namen sind gar köstlich, vor allem heisst der Treiber Reactor, was schon irgendwie kewl klingt und besser passt als detonator oder catalyst ;)

Ich hoffe das die Karte was wird und nicht wieder nur ein Stroh feuer...die Xabre Treiber waren übrigens i.O. (ab rev 3.8)

ja hoffen wir mal das die ned am falschen ende sparen - ich will rechtecksignale und keine sinussignale :D

betasilie
2003-09-16, 00:10:55
Ich freue mich schon auf die ersten Reviews und hoffe die Karten werden zur echten Konkurrenz avancieren.

Übrigens glaube ich, dass die Karten lediglich AA mit OG machen werden, da XGI ansonsten wohl in den Specs mit RG geworben hätte.

Und Multichiplösungen finde ich optisch einfach nur super. Dann kann man ja gleich zwei schöne GPU-WaKü verbauen. :D

Radeonator
2003-09-16, 00:17:43
Hauptsache das Special WischiWaschi AA kommt net mit ;)
Wie lange es wohl dieses mal dauern wird, bis erste Boards an die reviewer "gefeuert" werden???

Aber die Jungs verstehen sich auf Überraschungen im großen Stil, wer hätte schon mit ner DualChip Lösung gerechnet und das in so "kurzer" Zeit!!! Sh1c3 ich werd ungeduldig ;)

Ailuros
2003-09-16, 03:37:14
Einfache Logik wuerde anzeigen dass ein multichip board auch doppelt so viele samples als single chip anwenden kann, ergo 8x sample AA mit etwa gleicher Leistung wie 4xAA auf single chip.

Wenn´s nur ordered grid ist dann ist es im besten Fall mit 8x samples ein 2*4 oder 4*2 grid, was eher unattraktiv klingt. Bei einem pfiffigen Preis von etwa schaetzungsweise 450-500$ (zumindest 256mb ram, zwei chips etc.) koennte man wirklich mehr erwarten.

Leistung ohne AA - wenn der triangle setup nicht zwischen den chips geteilt ist - wird ja nur um 30-40% in dem Fall ueber single chip liegen.

Ailuros
2003-09-16, 03:48:40
Aber die Jungs verstehen sich auf Überraschungen im großen Stil, wer hätte schon mit ner DualChip Lösung gerechnet und das in so "kurzer" Zeit!!! Sh1c3 ich werd ungeduldig.

Wieso "kurze" Zeit?

Verdoppelt sich tatsaechlich in allen Situationen die Leistung zwischen single und dual-chip, nehme ich denen den Hut erst ab.


3dFX´s MultiChip Lösungen sind hier niemandem eingefallen ?

Das ist ja gerade das was mir Angst macht. Siehe oben und vorigen Post.

Radeonator@work
2003-09-16, 08:48:58
Was mir im Text aufgefallen ist :

For the first time in gaming history, you can harness the brute force of true , dual GPUs on a single, DX9 Compliant board.

Also keine AFR Lösung die sich den Speicher teilt ?

Bei der MAXX war es ja wie folgt :

2xGPU für die jeweils 32MB zur Verfügung standen, also eigentlich einfach 2 Grafikkarten auf einem Board. Deshalb auch relativ schwer ins OS einzubinden. Ich hoffe das die XGI Karte zeitgleiche Zugriffe zulässt also reale 128/256/512 MB genutzt werden, ansonsten wäre die 256MB Version das minimum, um brauchbare Vergleiche ziehen zu können.

Radeonator@work
2003-09-16, 10:01:03
Shit, hab gerade das Whitepaper nochmals durchgeschaut...

Jeder Chip bekommt IMO also jeweils die hälfte des Speichers / frame buffers : Ergo ist eine 128MB in Wirklichkeit eine Dual 64MB Karte und man muss eine 256MB Karte mit einer 128MB Karte vergleichen, hoffentlich vergessen das die Reviewer später nicht!!! Allerdings verarbeiten die GPU´s die command queues Zeitgleich/Paralel im Gegensatz zur damaligen AFR Lösung oder SLi und die Chips sind in der Lage Quasi autark daten zu verarbeiten. Wie es nun genau ausschaut kann ich daraus aber nicht herbei führen, soll jedoch über den Treiber gesteuert werden...möge der Treibergott ihnen beistehen!

Quasar
2003-09-16, 10:01:38
Glaube nicht, daß das geht, da Si.. äh.. XGI sonst wohl eher was von 512MB und nicht 2x256MB geschrieben hätte.

Aber hoffen wir's Beste.

Frank
2003-09-16, 11:15:24
Original geschrieben von Gast
Volari klingt aber irgendwie "strange" ;D ;D *freu* - endlich was neues. Ich kann diese bis zum Erbrechen ausgelatschten Namen wie Radeon oder Geforce nicht mehr hören.

Modulor
2003-09-16, 11:51:29
Volare (it.) = fliegen

Hilfe, die Fliegen kommen ! :D

Xmas
2003-09-16, 17:04:14
Wenn man sich die Specs anschaut, dann braucht XGI die Dual-Chip-Variante auch ganz dringend, um im High-End-Bereich Fuß zu fassen. Und mir wird nicht ganz klar, welchen Bereich die V5 Duo abdecken soll, wenn es auch die V8 gibt.

Xmas
2003-09-16, 17:07:07
Original geschrieben von Ailuros
Wenn´s nur ordered grid ist dann ist es im besten Fall mit 8x samples ein 2*4 oder 4*2 grid, was eher unattraktiv klingt.
*-*-
-x-x
*-*-
-x-x

Im besten Fall ist es dann eher eine Art 4x4-Grid.

Gaestle
2003-09-16, 17:26:32
Was ist den das?


SmartTileTM Memory Architecture

- 64/128-bit Double-Data Rate (DDR) memory at up to 500Mbps
- Up to 128MBytes of local frame buffer with 8Mx32 memory
- Supports 8Mx32, 4Mx32, 16Mx16, 8Mx16 and 4Mx16
- Supports hierachical pixel tiling


Und warum steht das nur beim V5 in den Specs und nicht beim V8?

Any ideas?

Dankeschön.
---
Rock and Roll aint noise pollution...

Radeonator
2003-09-16, 17:51:15
Wenn XGI die "tugenden" von SiS/Trident in Punkto Grakas übernommen haben, können wir frühestens in 3-6mon mit einer funtzenden Karte rechnen...dann wäre das Teil zu 100% zu lahm :(

Ailuros
2003-09-16, 18:13:46
Original geschrieben von Xmas
*-*-
-x-x
*-*-
-x-x

Im besten Fall ist es dann eher eine Art 4x4-Grid.

Im schlimmsten? :D Ich kann mir immer noch nicht vorstellen wie man einen solchen grid schaffen kann wenn man schon parallel an verschiedenen frames arbeitet, aber dafuer ist auch mein Wissen viel zu begrenzt.

Ailuros
2003-09-16, 18:15:18
Original geschrieben von Modulor
Volare (it.) = fliegen

Hilfe, die Fliegen kommen ! :D

ROFL :D

Jedes Mal wenn ich den Namen hoere kommt mir der uralte Schlager von Domenico Mondugno in den Kopf...

Volaaaaare oh oh cantaaaaaare oh oh oh...

Ailuros
2003-09-16, 18:19:04
Original geschrieben von Gaestle
Was ist den das?



Und warum steht das nur beim V5 in den Specs und nicht beim V8?

Any ideas?

Dankeschön.
---
Rock and Roll aint noise pollution...

Steht es wirklich in den V5 specs oder hast Du auf Versehen auf die mobile chips geklickt?

Trident hatte ja schon das "revolutionaere tiling" schon im XP4, nicht dass nicht schon seit einer Ewigkeit IMR's Daten in chunks oder tiles im ram speichern...

Gast
2003-09-16, 18:26:10
Original geschrieben von Gaestle
Was ist den das?



Und warum steht das nur beim V5 in den Specs und nicht beim V8?

Any ideas?

Dankeschön.
---
Rock and Roll aint noise pollution...


Ist wohl ein System zum Speichermanagement. V5 wird nur ein 128Bit Interface haben, der V3 vielleicht nur 64Bit. V8 hat 256Bit.

Gaestle
2003-09-16, 18:32:09
Original geschrieben von Ailuros
Steht es wirklich in den V5 specs oder hast Du auf Versehen auf die mobile chips geklickt?



Stimmt, wahr nicht vom V5. War vom V3:
http://www.xgitech.com/products/products_v3_spc.htm


Trident hatte ja schon das "revolutionaere tiling" schon im XP4, nicht dass nicht schon seit einer Ewigkeit IMR's Daten in chunks oder tiles im ram speichern...

Also eher ein Datenmanagement (Speicher zu GPU).
Aber wieso "Supports Hierarchical Pixel Tiling"?

Und:
*spekulation*
Hat SiS nicht Trident geschluckt? Und könnte der V3 nicht der (nicht erschienene) XP8 sein?

Grüße
---
Rfock and Roll aint noise pollution....

Ailuros
2003-09-16, 18:40:13
Ja das Patent stammt hoechstwahrscheinlich von Trident oder ist sogar eine Weiterentwicklung.

Was soll an hierarchischem tiling (ich wuerde es lieber als hierarchisches Z-buffering bezeichnen) so komisch sein? Eine Abart von hierarchischem Z (siehe z.B. HyperZ bei ATI).

Zuerst groessere (macro) dann kleinere (micro) tiles.

Gast
2003-09-16, 18:50:29
stolen from Elite Bastards (http://www.elitebastards.com/forum/viewtopic.php?t=2036)


Chris Lin at XGI:

I guess you would want to know where our performance is:
Simplier way of remembering our product segments:

3DMark2003

Volari Duo V8 Ultra - 5600+

Volari Duo V5 Ultra - 4000+

Volari V8 Series - 3000+

Volari V5 Series - 2000+

Volari V3 Series - 1000+

==========================

Comment from Digitalwanderer :

And they're coming out a whole lot sooner than you'd think, stay tuned!



na mal schauen. Das wäre doch was, oder? 3DMark03 mit TurboTex - Einstellung laufen lassen. ;D ;D ;D

Gast
2003-09-16, 18:58:54
Wenn sie das halten könnten und die Dinger dieses Jahr noch kaufbar würden, wär' das 'ne geile Sache und ein schöner frischer Wind für den Markt.
=)

mapel110
2003-09-16, 19:06:07
Original geschrieben von Gast
na mal schauen. Das wäre doch was, oder? 3DMark03 mit TurboTex - Einstellung laufen lassen. ;D ;D ;D

welcher hersteller tut das nicht?! *eg*

Ailuros
2003-09-16, 19:08:31
Original geschrieben von Gast
stolen from Elite Bastards (http://www.elitebastards.com/forum/viewtopic.php?t=2036)



na mal schauen. Das wäre doch was, oder? 3DMark03 mit TurboTex - Einstellung laufen lassen. ;D ;D ;D

Was soll da so toll an den scores sein? Was die dual V8 da schafft sollte genauso mit einer 9800PRO erreichbar sein.

Ich wart erst mal unabhaengige Tests ab und lieber reale Spiele mit AA/AF.

BavariaBlade
2003-09-16, 19:22:01
Original geschrieben von Ailuros
Was soll da so toll an den scores sein? Was die dual V8 da schafft sollte genauso mit einer 9800PRO erreichbar sein.

Ich wart erst mal unabhaengige Tests ab und lieber reale Spiele mit AA/AF.

Also ich wär schon ziemlich froh wenn ein anderer Hersteller es auch nur ansatzweise schafft in diese Gefilde vorzudringen.
Konkurrenz belebt das Geschäft.

Und 3 Hersteller im High END Gamer markt ...das wär doch schon was.

servus

(del676)
2003-09-16, 19:30:09
Original geschrieben von Ailuros
Was soll da so toll an den scores sein?

dass es vielleicht endlich wieder einen dritten 3d karten hersteller gibt

wenn der z.b. auch wie ein irrer auf 2d signalqualität schaut, keine cheat treiber baut :eyes: und super linux treiber bietet schlägt er schon in eine Marktlücke :D

AMC
2003-09-16, 19:41:49
Die meisten erwarten wohl einen absoluten-mega-über-knaller-hammer-chip von einem weiteren Chiphersteller, bevor sie glauben, dass er ATI und nVidia gefährlich werden könnte. Sind wir denn alle schon so verwöhnt, dass wir uns nicht freuen sollten, dass es eben einen weiteren Hersteller mit den Scores einer 9800Pro geben könnte? Ich sehs wie BavariaBlade, wenn XGI tatsächlich auf diesem Niveau punkten könnte, dann hab ich endlich wieder mehr Auswahl auch im HighEnd Sektor. Davon mal ab, was erwartet ihr denn z.B. vom DeltaChrome? Muss der auch 2x 9800Pro Niveau erreichen, bevor er nicht auf 3DCenter und ähnlichen Seiten als
"zu-spät-zu-langsam" zerissen wird? Wenn der DC auch nur 9700Pro Niveau erreicht und seine Treiber in Ordnung sind, dann kommt meine altgediente GeForce 4 Ti in den Ruhestand und ein DeltaChrome (oder halt eine nette Chipkombi von XGI) in meinen Rechner. Ich freue mich wirklich, dass meine G4 so lange so gute Dienste geleistet hat (und immer noch leistet), wodurch ich diese peinliche FX-Serie von nVidia überspringen konnte. Jetzt, wo sie sogar ihren letzten grossen Vorteil, die Texturqualität (Tri+AF), nach und nach einbüssen und immer weiter verschlechtern, haben sie erstmal jegliches Ansehen bei mir verloren. Schade, die GeForce 1 - 4 waren wirklich sehr gut, aber nun wird es Zeit, den Neuankömmlingen eine Chance einzuräumen. Ich schätze, nach wochenlangen Diskussion über Treibercheats, schlecht programmierten Benchmarks a la 3DM03 und der ganzen Marketingschmutzwäsche, sind nicht wenige Zocker bereit, S3 oder XGI eine Chance zu geben. Ich warte auf jeden Fall bis beide Firmen ihre Produkte liefern können, bevor ich mir eine neue Graka zulege!

So long,
AMC

Ailuros
2003-09-16, 19:42:52
SiS war schon immer da im Markt schon seit 1998 meine Herren und sie haben konstant jedes Jahr etwa eine neue Karte veroeffentlicht.

Ach ja ein neuer Name und die Acquisition von Trident machen wohl noch den Unterschied.

Mehr Konkurrenz ist auch eine schoene Sache und es ist auch willkommen, aber wenn das dual V8 high end board nicht billiger als NV35/R350 sein wird (was wohl auch schwer sein wird durch die hoeheren Unkosten) sehe ich wenig Grund damit den User ueberreden zu koennen.

Und dabei muessen die Produkte von Bildqualitaet, Treiberstabilitaet, AA/AF Leisung und Qualitaet zumindest auf Gleichstand mit den anderen zwein liegen.

Plus der Marketing-hype ist mir selbst in den Spezifikationen oder whitepapers viel zu viel ubertrieben.

Korrigiert mich aber V8 sieht in etwa so aus:

8 Texturen ops
4 arithmetic ops
2 VS
4*2

16 pipelines my a**

Ailuros
2003-09-16, 19:51:10
Original geschrieben von AMC
Die meisten erwarten wohl einen absoluten-mega-über-knaller-hammer-chip von einem weiteren Chiphersteller, bevor sie glauben, dass er ATI und nVidia gefährlich werden könnte. Sind wir denn alle schon so verwöhnt, dass wir uns nicht freuen sollten, dass es eben einen weiteren Hersteller mit den Scores einer 9800Pro geben könnte? Ich sehs wie BavariaBlade, wenn XGI tatsächlich auf diesem Niveau punkten könnte, dann hab ich endlich wieder mehr Auswahl auch im HighEnd Sektor. Davon mal ab, was erwartet ihr denn z.B. vom DeltaChrome? Muss der auch 2x 9800Pro Niveau erreichen, bevor er nicht auf 3DCenter und ähnlichen Seiten als
"zu-spät-zu-langsam" zerissen wird? Wenn der DC auch nur 9700Pro Niveau erreicht und seine Treiber in Ordnung sind, dann kommt meine altgediente GeForce 4 Ti in den Ruhestand und ein DeltaChrome (oder halt eine nette Chipkombi von XGI) in meinen Rechner. Ich freue mich wirklich, dass meine G4 so lange so gute Dienste geleistet hat (und immer noch leistet), wodurch ich diese peinliche FX-Serie von nVidia überspringen konnte. Jetzt, wo sie sogar ihren letzten grossen Vorteil, die Texturqualität (Tri+AF), nach und nach einbüssen und immer weiter verschlechtern, haben sie erstmal jegliches Ansehen bei mir verloren. Schade, die GeForce 1 - 4 waren wirklich sehr gut, aber nun wird es Zeit, den Neuankömmlingen eine Chance einzuräumen. Ich schätze, nach wochenlangen Diskussion über Treibercheats, schlecht programmierten Benchmarks a la 3DM03 und der ganzen Marketingschmutzwäsche, sind nicht wenige Zocker bereit, S3 oder XGI eine Chance zu geben. Ich warte auf jeden Fall bis beide Firmen ihre Produkte liefern können, bevor ich mir eine neue Graka zulege!

So long,
AMC

Dann kannst Du ja dem Verbraucher gerne an den Kragen gehen, warum er in dem Fall nicht ueberredet werden kann. Und in dem Fall ist es auch nicht anders mit allen anderen kleineren IHVs.

SiS veroeffentlicht konstant graphics HW schon seit Jahren. Ob budget, mainstream oder high end man hinkte der Konkurrenz staendig hinterher, ob es nun Treiber- oder Bildqualitaet oder was auch immer war man konnte das Vertrauen des Verbrauchers nicht leicht gewinnen. Ob sich das jetzt geaendert hat will ich wohl hoffen, aber das uebertriebene und merkwuerdige Marketing-gehype geht von SiS/XGI selber aus wobei dieses selten wenn nie bis heute bestaetigt wurde.

Unter high end wuerde ich eine faehige single chip Loesung verstehen die zumindest genausoviel leisten kann wie eine NV35/R350 heute und auch nicht mehr als diese kostet. Zu multichip Loesungen greifen meiner Meinung nach nur IHVs die es schon eingesehen haben dass sie unter normalen Bedingungen mit der Konkurrenz nicht mithalten koennen. Die V8 Spezifikationen sind schon ein Jahr alt und nur im sehr teuren multichip config kann man da noch mithalten.

Hoeflich kann ich das leider nicht erklaeren. Alles IMHO.

***edit:

Apropos Treiber-cheats: turbo Tex hardware cheat war um einiges schlimmer.

BavariaBlade
2003-09-16, 20:02:47
Original geschrieben von Ailuros
SiS war schon immer da im Markt schon seit 1998 meine Herren und sie haben konstant jedes Jahr etwa eine neue Karte veroeffentlicht.

Ach ja ein neuer Name und die Acquisition von Trident machen wohl noch den Unterschied.

Finde ich nicht,aber das sie bei den gehobenen Gamer Karten mitmischen wollen spricht mich an.

[B]
Mehr Konkurrenz ist auch eine schoene Sache und es ist auch willkommen, aber wenn das dual V8 high end board nicht billiger als NV35/R350 sein wird (was wohl auch schwer sein wird durch die hoeheren Unkosten) sehe ich wenig Grund damit den User ueberreden zu koennen.



*Zustimm*
Die Gforce Karten können sich, des guten Namens wegen, einen höheren Preis erlauben. Sis wird mit einem höheren Preis als die ATI Karte (bei gleicher Leistung) keine Chance haben in den Markt einzusteigen.

[B]
Und dabei muessen die Produkte von Bildqualitaet, Treiberstabilitaet, AA/AF Leisung und Qualitaet zumindest auf Gleichstand mit den anderen zwein liegen.


*auch zustimm*

[B]
Plus der Marketing-hype ist mir selbst in den Spezifikationen oder whitepapers viel zu viel ubertrieben.

Korrigiert mich aber V8 sieht in etwa so aus:

8 Texturen ops
4 arithmetic ops
2 VS
4*2

16 pipelines my a**

damit kenn ich mich nicht aus, ist das schlecht im vergleich zur zur R 9800 oder FX 5900 ?!

StefanV
2003-09-16, 20:18:31
Original geschrieben von Gast
Ist wohl ein System zum Speichermanagement. V5 wird nur ein 128Bit Interface haben, der V3 vielleicht nur 64Bit. V8 hat 256Bit.

Nein, alles Chips mit 128bit RAM Anbindung.

StefanV
2003-09-16, 20:22:25
Original geschrieben von BavariaBlade damit kenn ich mich nicht aus, ist das schlecht im vergleich zur zur R 9800 oder FX 5900 ?!

vernichtend...

Die R300 Chips haben AFAIK 4 Vertex Shader Pipes, können max 12 oder 16 ops durchführen (AFAIK 8Texture + 4 oder 8 Rechenops (ist nicht wirklich gesichert))
Und natürlich 8 Pipes mit je einer TMU, verteilt auf 2 Pixelprozessoren....

Ailuros
2003-09-16, 20:39:33
Original geschrieben von Stefan Payne
vernichtend...

Die R300 Chips haben AFAIK 4 Vertex Shader Pipes, können max 12 oder 16 ops durchführen (AFAIK 8Texture + 4 oder 8 Rechenops (ist nicht wirklich gesichert))
Und natürlich 8 Pipes mit je einer TMU, verteilt auf 2 Pixelprozessoren....

Wenn man Taktraten in betracht nimmt ist eine single chip V8 wohl so etwa auf 9600PRO Niveau (mehr oder weniger)

R3xx:

8 texture ops
8 arithmetic ops
4 VS
8*1

Finde ich nicht,aber das sie bei den gehobenen Gamer Karten mitmischen wollen spricht mich an.

Ja aber wenn schon dann bitte richtig von Anfang an. Wenn die Shader Leistung pro Takt sehr nahe an R3xx liegen sollte haetten sie so manches Ansehen gewonnen wenn sie 6 Monate frueher einen hoeher getakteten single chip V8 herausgebracht haetten.

Sis wird mit einem höheren Preis als die ATI Karte (bei gleicher Leistung) keine Chance haben in den Markt einzusteigen.

Ich las gerade dass dual V8 ungefaehr auf dem gleichem Niveau der Konkurrenz liegen wird, was wohl an >400$ MSRP deuten koennte. Bei multichip reduzieren sich auch Preise mit der Zeit schlecht.

aths
2003-09-16, 20:40:52
Original geschrieben von Stefan Payne
vernichtend...

Die R300 Chips haben AFAIK 4 Vertex Shader Pipes, können max 12 oder 16 ops durchführen (AFAIK 8Texture + 4 oder 8 Rechenops (ist nicht wirklich gesichert))
Und natürlich 8 Pipes mit je einer TMU, verteilt auf 2 Pixelprozessoren.... Du bringst einiges durcheinander http://www.aths.net/files/smilies/D.gif

R300, R350: Pro Takt 8 bilineare Textursamples und 8 Instruktionen.

NV30: Pro Takt 8 bilineare Textursamples oder 4 Instruktionen

NV35: Pro Takt 8 bilineare Textursamples und 4 Instruktionen, oder 8 Instruktionen.


Treten bestimmte Instruktionen in einer bestimmten Anordnung auf, können sie beide gleichzeitig ausgeführt werden. Deshalb gibt ATI 16 Instruktionen pro Takt an, bzw. 24 insgesamt (+ 8 Textursamples.)

Radeonator
2003-09-16, 20:48:05
Original geschrieben von Ailuros
SiS war schon immer da im Markt schon seit 1998 meine Herren und sie haben konstant jedes Jahr etwa eine neue Karte veroeffentlicht.

Ach ja ein neuer Name und die Acquisition von Trident machen wohl noch den Unterschied.

Mehr Konkurrenz ist auch eine schoene Sache und es ist auch willkommen, aber wenn das dual V8 high end board nicht billiger als NV35/R350 sein wird (was wohl auch schwer sein wird durch die hoeheren Unkosten) sehe ich wenig Grund damit den User ueberreden zu koennen.

Das soll ja gerade der Trick sein : Das Teil soll weniger kosten aber mehr power haben. Selbst wenn Sie "nur" Gleichstand schaffen, wäre das ein gigantischer Schritt, da Sie dies eigentlich erst in 2-3 Jahren schaffen wollten (siehe das alte Interview)

Original geschrieben von Ailuros
SiS veroeffentlicht konstant graphics HW schon seit Jahren. Ob budget, mainstream oder high end man hinkte der Konkurrenz staendig hinterher, ob es nun Treiber- oder Bildqualitaet oder was auch immer war man konnte das Vertrauen des Verbrauchers nicht leicht gewinnen. Ob sich das jetzt geaendert hat will ich wohl hoffen, aber das uebertriebene und merkwuerdige Marketing-gehype geht von SiS/XGI selber aus wobei dieses selten wenn nie bis heute bestaetigt wurde.


SiS hat noch nie den HighEnd oder ga Enthusiast Markt bedienen wollen!!! Sie haben jahr für Jahr low Power, low Cost heraus gebracht, die Xabre sollte z.B. den LowBudget und den Mainstream angreifen und nicht mehr.Das

Marketing Gehype macht jede Firma, was sollen Sie denn schreiben [kifferStimme]Eh, du, die Karte ist voll langsam und schlechter als alles bisher gesehene...glaub ich mal...zudem sind die Treiber der letzte Müll und, ähm, was wollte ich schreiben, ähm, ach ja, die Bildquali ist auch unter aller Sau...haha...aber kauft mal bitte...ähm...glaub ich...wäre nett und so...[/kifferStimmeOff]

Ich erinnere mal an Matroxs "Unbelivable Gaming experience..." bzw. Nvidias oder ATi s gebrabbel mit den tollen FlashIntros etc. ;)

Wenn die Zahlen bei vergleichbarer BQ erreicht werden und auch in Games ähnliche Werte erzielt werden, wäre das mehr als eine Überraschung!

p.s.: Ich denk bei dem Namen auch immer an das Lied ;)

StefanV
2003-09-16, 20:52:59
Original geschrieben von aths
Du bringst einiges durcheinander http://www.aths.net/files/smilies/D.gif

R300, R350: Pro Takt 8 bilineare Textursamples und 8 Instruktionen.

NV30: Pro Takt 8 bilineare Textursamples oder 4 Instruktionen

NV35: Pro Takt 8 bilineare Textursamples und 4 Instruktionen, oder 8 Instruktionen.


Treten bestimmte Instruktionen in einer bestimmten Anordnung auf, können sie beide gleichzeitig ausgeführt werden. Deshalb gibt ATI 16 Instruktionen pro Takt an, bzw. 24 insgesamt (+ 8 Textursamples.)
1. hm, eigentlich nicht...
Ich sagte nur, daß es bei meinem Kenntnisstand nicht wirklich sicher ist, ob die R300/R350 Chips nun 12 oder 16 Ops pro Takt ausführen können...
Wobei man neuerdings von 16 Ops (8 Rechen ops + 8 Texture ops) ausgeht...

2. hm, interessant, THX für die Infos über den NV35.

Leonidas
2003-09-16, 21:11:48
Original geschrieben von Gast
Achja; das Marketing-Geblubber ist nochmal ein Stück besser geworden. ;D Die lernen es auch nie.
Oder ist die Asiatische Mentalität hier komplett anders. ???


Sie ist komplett anders. Die glauben das, was die dort sagen.

Leonidas
2003-09-16, 21:15:13
Original geschrieben von Gaestle
Was ist den das?



Und warum steht das nur beim V5 in den Specs und nicht beim V8?

Any ideas?

Dankeschön.
---
Rock and Roll aint noise pollution...



Es steht beim V3. Warum? Weil V3 ein Trident-Werk ist und V5/V8 SiS-Werke. Völlig unterschiedliche Architekturen also.

Demirug
2003-09-16, 22:58:44
Original geschrieben von aths
Du bringst einiges durcheinander http://www.aths.net/files/smilies/D.gif

R300, R350: Pro Takt 8 bilineare Textursamples und 8 Instruktionen.

NV30: Pro Takt 8 bilineare Textursamples oder 4 Instruktionen

NV35: Pro Takt 8 bilineare Textursamples und 4 Instruktionen, oder 8 Instruktionen.


Treten bestimmte Instruktionen in einer bestimmten Anordnung auf, können sie beide gleichzeitig ausgeführt werden. Deshalb gibt ATI 16 Instruktionen pro Takt an, bzw. 24 insgesamt (+ 8 Textursamples.)

aths hast du es immer noch nicht gelernt? (Sorry)

Textursamples sind nicht das gleiche wie Texturoperationen.

Eine Sample ist wenn wirklich Werte aus einer textur geholt und verrechnet werden.

Eine Textureoperation gibt ein Sample in Auftrag.

Sowohl ATIs wie auch nVidias SpitzenChips können pro Takt ein bisample berechnen. Der Unterschied liegt in der Anweisungsausführung.

aths
2003-09-16, 23:12:57
Original geschrieben von Demirug
Sowohl ATIs wie auch nVidias SpitzenChips können pro Takt ein bisample berechnen.Pro Takt und TMU meinst du?

Demirug
2003-09-16, 23:23:58
Original geschrieben von aths
Pro Takt und TMU meinst du?

Ja natürlich. 15 Stunden Arbeit sind einfach zu viel um danach noch eideutig zu formulieren.

aths
2003-09-16, 23:28:46
Genau so wollte ich mich auch verstanden wissen. "Textursamples sind nicht das gleiche wie Texturoperationen." Pro Takt 8 Samples stimmt doch??!

Demirug
2003-09-16, 23:37:22
Original geschrieben von aths
Genau so wollte ich mich auch verstanden wissen. "Textursamples sind nicht das gleiche wie Texturoperationen." Pro Takt 8 Samples stimmt doch??!

Ja, du schreibst aber

NV30: Pro Takt 8 bilineare Textursamples oder 4 Instruktionen

NV35: Pro Takt 8 bilineare Textursamples und 4 Instruktionen, oder 8 Instruktionen.

und das ist falsch.

Richtig wäre:

NV30: 8 Bi-samples + (8 Textureops oder 4 FP-Rechenops) + 8 Integer rechen ops (combiner)

NV35: 8 Bi-samples + (8 Textureops oder 4 FP-Rechenops) + (4 FP Rrechenops oder 8 Integer rechen ops) Das kursive ist ein klein wenig spekulativ aber Messungen deuten eben darauf hin das es funtioniert.

R300/R350: 8 Bi-samples + 8 Textureops + 8 FP Rechenops. Wobei sich die Rechenops unter bestimmten Vorraussetzungen (Vector 3 + skalar sowie mit bestimmten Read und Writemasken) auf 16 erhöhen lassen.

aths
2003-09-16, 23:40:14
Original geschrieben von Demirug
Ja, du schreibst aber



und das ist falsch.

Richtig wäre:

NV30: 8 Bi-samples + (8 Textureops oder 4 FP-Rechenops) + 8 Integer rechen ops (combiner)

NV35: 8 Bi-samples + (8 Textureops oder 4 FP-Rechenops) + (4 FP Rrechenops oder 8 Integer rechen ops) Das kursive ist ein klein wenig spekulativ aber Messungen deuten eben darauf hin das es funtioniert.

R300/R350: 8 Bi-samples + 8 Textureops + 8 FP Rechenops. Wobei sich die Rechenops unter bestimmten Vorraussetzungen (Vector 3 + skalar sowie mit bestimmten Read und Writemasken) auf 16 erhöhen lassen. Hm, ich habe Samples und Textur-Ops zusammengezogen. Ist das so falsch? Samples müssen doch eh verrechnet werden...?

Funktioniert das mit den + Int Ops auch in DX?

StefanV
2003-09-16, 23:50:12
Original geschrieben von Demirug
R300/R350: 8 Bi-samples + 8 Textureops + 8 FP Rechenops. Wobei sich die Rechenops unter bestimmten Vorraussetzungen (Vector 3 + skalar sowie mit bestimmten Read und Writemasken) auf 16 erhöhen lassen.

:O:O

Also unter äußerst günstigen Umständen wäre es also möglich, daß der R300 COre bis zu 24 Ops/Takt ausführt??

aths
2003-09-16, 23:50:56
Original geschrieben von Stefan Payne
Also unter äußerst günstigen Umständen wäre es also möglich, daß der R300 COre bis zu 24 Ops/Takt ausführt?? Ja.

Demirug
2003-09-17, 00:02:30
Original geschrieben von aths
Hm, ich habe Samples und Textur-Ops zusammengezogen. Ist das so falsch? Samples müssen doch eh verrechnet werden...?

Du darfst samples und Textur-Ops nur zusammenziehen wenn wenn rein mit bi-samples gearbeitet wird. Sobald tri und/oder AF ins spiel kommt darf man das nicht mehr. Die Texturop ist unabhänig vom Filter was die Anzahl der benötigten Takten angeht. Beim tri-Filter brauchen die TMUs 2 Takte für die Textureop ist weiterhing nur einer fällig. so das im Shadercore ein weitere Takt zur Verfügung steht in dem man eben etwas anderes machen kann.

Das Verrechnen der sample geschieht ja mit den Rechenops.

Funktioniert das mit den + Int Ops auch in DX?

Bis PS 1.3 ja. Mit 1.4 unter umständen und mit 2.0 unter ganz bestimmten umständen. Bei 1.4 und 2.0 muss der Treiber dieses aber genau erkennen.

Demirug
2003-09-17, 00:05:34
Original geschrieben von Stefan Payne
:O:O

Also unter äußerst günstigen Umständen wäre es also möglich, daß der R300 COre bis zu 24 Ops/Takt ausführt??

Ja 24 Ops/Takt ist die Peak performance. Worst case ist 8 wobei ich auch schonmal eine Andeutung gehört haben das es auch der Worstcase Fall bei 0 liegt.

VooDoo7mx
2003-09-17, 01:04:18
Also ich finde die neue Volari Linie klasse!

Ich verstehe das ziemlich kontraproduktive Anti-SIS äh XGI gemotze einiger hier nicht...
Z.B. das der V8 erst dann gut währe wenn er als Single Chip so gut wie ein R350/NV35 wäre.
Warscheinlich wurde der Chip schon von Anfang an so geplant das er nur als Duo Lösung in den High-end Bereich vordringen kann. Was meiner Meinung nach auch überhaupt nicht schlimm ist! So kann man sich die aufwendige Entwicklung eines Mainstream (V8) und eines High end Chips (V8 Duo) sparen indem man einfach 2 Chips auf eine karte packt.
Und ich denke auch das XGI bei der Preisgestaltung defenitiv den Bogen nicht überspannen wird.

Auf jeden Fall bin ich schon gespannt wie ein Flitzebogen auf die ersten Reviews und freue mich auch schon auf den 3Dcenter Artikel der das Marketing Bla-Bla fürmich entziffert :D

aths
2003-09-17, 01:18:10
Original geschrieben von Demirug
Du darfst samples und Textur-Ops nur zusammenziehen wenn wenn rein mit bi-samples gearbeitet wird. Sobald tri und/oder AF ins spiel kommt darf man das nicht mehr. Die Texturop ist unabhänig vom Filter was die Anzahl der benötigten Takten angeht. Beim tri-Filter brauchen die TMUs 2 Takte für die Textureop ist weiterhing nur einer fällig. so das im Shadercore ein weitere Takt zur Verfügung steht in dem man eben etwas anderes machen kann.Stimmt, das war wieder einer meiner typischen Schnellschüsse.

aths
2003-09-17, 01:19:12
Original geschrieben von VooDoo7mx
Also ich finde die neue Volari Linie klasse!Ich befürchte, dass eine 9600 in Nexgen-Engines bei Quality-Settings (4x AA, 8x AF) schneller sein wird, als eine Karte mit 2 V8-Chips.

Ailuros
2003-09-17, 02:26:28
Ich verstehe das ziemlich kontraproduktive Anti-SIS äh XGI gemotze einiger hier nicht...

Wieviele Produkte von SiS hast Du bis jetzt schon ausprobiert? Ich schon alle seit dem ersten 68xx von 1998.

Z.B. das der V8 erst dann gut währe wenn er als Single Chip so gut wie ein R350/NV35 wäre.

Nach der Veroeffentlichung wenn die Preise bekannt gegeben werden und die ersten unabhaengigen Tests und Analysen erscheinen, kann ich mich ja immer noch entschuldigen fuer mein Bedenken oder meine "Vorurteile". Obwohl es wohl keinen Grund dafuer geben wird.

So kann man sich die aufwendige Entwicklung eines Mainstream (V8) und eines High end Chips (V8 Duo) sparen indem man einfach 2 Chips auf eine karte packt.

Multichip kostet mehr in Unkosten und Entwicklungs-zeit als single chip. Andere dachten auch dass man es mit der Umdrehung eines Handgelenks schaffen koennte. 9 Monate Verzoegerung fuer die V5 5500 im Jahr 2000.

aths
2003-09-17, 02:53:56
Original geschrieben von Ailuros
Andere dachten auch dass man es mit der Umdrehung eines Handgelenks schaffen koennte. 9 Monate Verzoegerung fuer die V5 5500 im Jahr 2000. Das lag ja nun nicht nur daran, dass Voodoo5 mit 2 Chips arbeitet.

Ailuros
2003-09-17, 03:27:06
Nachdem die Idee der V3 4000 (32MB Framebuffer/32bpp faehig) Anfang 1999 gestrichen wurde, hiess es dass der VSA-100 nur 6 Monate brauchen wird, was wohl die eigentliche Ueberschaetzung noch verlaengert. So falsch lieg ich wohl gar nicht mit den timeframes, obwohl es schon sehr lange her ist.


http://firingsquad.gamers.com/hardware/v34000/default.asp

Das wohl die V5 6k mehrere motherboards mit dem ersten bridge chip verbruzelte, ist wohl auch nur der Fehler des letzteren (uebrigens immer noch problematisch selbst Monate nach der V5 Veroeffentlichung).

Nach Colourless leidet uebrigens seine V5 6k unter ernstem colour bleeding stellenweise mit 32bpp.

aths
2003-09-17, 05:01:17
Original geschrieben von Ailuros
Nachdem die Idee der V3 4000 (32MB Framebuffer/32bpp faehig) Anfang 1999 gestrichen wurde, hiess es dass der VSA-100 nur 6 Monate brauchen wird, was wohl die eigentliche Ueberschaetzung noch verlaengert. So falsch lieg ich wohl gar nicht mit den timeframes, obwohl es schon sehr lange her ist.Von Quantum3D gab es Boards mit 4x Avenger http://www.aths.net/files/smilies/lol.gif. 3dfx hat sich mit dem Napalm wirklich verschätzt. Ich finde es auch blöd, dass dieser überhaupt notwendig wurde. Möchte mal wissen, was die alles an Ressourcen im Rampage versenkt haben.
Original geschrieben von Ailuros
Das wohl die V5 6k mehrere motherboards mit dem ersten bridge chip verbruzelte, ist wohl auch nur der Fehler des letzteren (uebrigens immer noch problematisch selbst Monate nach der V5 Veroeffentlichung).

Nach Colourless leidet uebrigens seine V5 6k unter ernstem colour bleeding stellenweise mit 32bpp. 4 Chips sind natürlich deutlich schwieriger zu handhaben als nur 2 Chips. Quantum3D bot trotzdem Boards mit 8x Napalm an http://www.aths.net/files/smilies/lol.gif. Wo ein Wille ist, ist ein Weg.

Natürlich sind Boardlayouts komplexer wenn es gilt, 2 Chips zu befeuern. Multichip-Lösungen lehne ich jedoch nicht per se ab, nur weil sie neue Probleme aufwerfen. Die ganze VSA-100-Entwicklung hing bei 3dfx Monate im Rückstand, die Boardprobleme mit Voodoo5 waren ja nicht die einzigen Verzögerungsgründe. Hätte 3dfx vernünftige Tools gekauft, und die 6000-er gar nicht erst angefangen, also kurz nach GeForce256 die Voodoo5 5500 gehabt, würden Multichip-Lösungen heute wohl in einem anderen Lichte betrachtet werden.

VooDoo7mx
2003-09-17, 05:15:47
Sagt mal schlafen tut ihr beiden nicht oder?

Original geschrieben von Ailuros
Multichip kostet mehr in Unkosten und Entwicklungs-zeit als single chip. Andere dachten auch dass man es mit der Umdrehung eines Handgelenks schaffen koennte. 9 Monate Verzoegerung fuer die V5 5500 im Jahr 2000.


Ist ja wohl auch logisch! Das nen Multichip Layout kostenaufwendiger ist als Singlechip.
Aber nen Multichip-Board zu entwerfen dürfte immer noch um einiges billiger sein als 2 komplett oder gar 3 eigene Chips zu entwickeln.(Bsp: NV30,NV31,NV34)

So hab ich das gemeint und nicht anders...

Ailuros
2003-09-17, 08:00:59
...also kurz nach GeForce256 die Voodoo5 5500 gehabt, würden Multichip-Lösungen heute wohl in einem anderen Lichte betrachtet werden.

Wenn V5 = 15nm / 4*2 / 200-225MHz / DDR / T&L gehabt haette, waere 3dfx heute vielleicht sogar noch lebendig.

Man war so bloed und beautragte eine dritte Firma einen Geometrie Prozessor zu entwickeln aber das Resultat war viel zu lahmar***ig um ueberhaupt der Rede wert zu sein.

Die V4 wurde intern von den 3dfx Kerlen als "Looser" bezeichnet, und dass nicht wegen des "L"-Formats der Prototypen.

Ihr werdet's mir wohl verzeihen muessen aber ich kann multichip Loesungen nur als Notloesung ansehen im Desktop Markt.

4 Chips sind natürlich deutlich schwieriger zu handhaben als nur 2 Chips. Quantum3D bot trotzdem Boards mit 8x Napalm an . Wo ein Wille ist, ist ein Weg.

Es gab sogar Configs fuer Sonderbestellungen mit 16x chips, aber sauteuer. Das sind professionelle Systeme und man brauchte fuer diese Giganten auch keinen externen PSU.

Aber nen Multichip-Board zu entwerfen dürfte immer noch um einiges billiger sein als 2 komplett oder gar 3 eigene Chips zu entwickeln.(Bsp: NV30,NV31,NV34)

Mal sehen:

1.NV30
2.NV31
3.NV34
4.NV35


XGI:

1.V3
2.V5
3.V8
4.2*V5
5.2*V8

----------------------------------------

1.GF2 MX
2.GF2 GTS
3.GF2 PRO
4.GF2 Ultra

1.V4 4500
2.V5 5000 (storniert)
3.V5 5500
4.V5 6000 (storniert)

Radeonator@work
2003-09-17, 09:10:01
@Demirug : Was hälst du von den bisher bekannten Spezifikationen, evtl. interessant ?

Angeblich sollen fertige Boards viel schneller als von uns erwartet kommen...angeblich halt ;)

BavariaBlade
2003-09-17, 10:08:39
[B]Nach der Veroeffentlichung wenn die Preise bekannt gegeben werden und die ersten unabhaengigen Tests und Analysen erscheinen, kann ich mich ja immer noch entschuldigen fuer mein Bedenken oder meine "Vorurteile". Obwohl es wohl keinen Grund dafuer geben wird.


Gibt es auch nicht. Ich kann Deine bedenken SIS gegenüber gut verstehen. In meinem Notebook werkelt ein ST630 Chipsatz für den es bis heute keine 3D Settings unter W2K/XP gibt, aber für win98 schon.

Irgendwie hab ich auch so ein Gefühl das die neuen Chips auch wieder mit irgendwelchen "Optimierungen" daherkommen, die mir gar nicht gefallen. Nichts desto trotz, bin ich sehr gespannt was die da "zusammengewurschtelt" haben ;)

servus

Demirug
2003-09-17, 10:30:35
Original geschrieben von Radeonator@work
@Demirug : Was hälst du von den bisher bekannten Spezifikationen, evtl. interessant ?

Angeblich sollen fertige Boards viel schneller als von uns erwartet kommen...angeblich halt ;)

Genau angeblich. Es gab in letzer Zeit zu viele angeblich.

Die spec sagt leider nicht alzu viel aus. Der gesamte Pixelbereich ist sehr oberflächlich beschrieben. Was die Dual-Chips Lösung letzten Endes bringt lässt sich ohne Kenntniss des benutzten Verfahrens auch schwer einschätzen.

ShadowXX
2003-09-17, 10:54:18
Dazu kommt das ich kein rechtes Vertrauen in die Treiberprogrammierer von (SiS)/XGI habe.....ich erinnere mich mit schaudern an Treiber für irgendeine Low-Cost Karte von SiS die ich in ein Billigsystem einbauen wollte (nur Office & I-Net Rechner).
Keiner der auf den Websiten 'versteckten' Treiber (die waren wirklich sehr gut versteckt..und ich meine damit die offiziellen die es gab) funktionierte.
Nur Blue-Screens, sogar unter Win2000.

J.S.Shadow

Darkness
2003-09-17, 10:55:55
Also ich persönlich wünsche SIS ein gelungenes Comeback in dem Grafikmarktsektor ;)

Hab hier noch ne alte SIS 4 MB Grafikkarte :-)... okay die 3D Qualität konntest in die Tüte kloppen, aber für einen Office Rechner bzw. zum aufrüsten eines betagten PI mit 90 Mhz hat Sie auf jeden Fall getaugt ^^

Achja hat sich SIS eigentlich irgendwie näher auf den Treibersupport für die in Entwicklung befindlichen Karten geäußert ?

Gaestle
2003-09-17, 11:09:52
Original geschrieben von Ailuros Korrigiert mich aber V8 sieht in etwa so aus:

8 Texturen ops
4 arithmetic ops
2 VS
4*2

und:

Original geschrieben von Ailuros
Wenn man Taktraten in betracht nimmt ist eine single chip V8 wohl so etwa auf 9600PRO Niveau (mehr oder weniger)

R3xx:

8 texture ops
8 arithmetic ops
4 VS
8*1


Wenn die Vermutung stimmt, wäre das doch gut. Wenn man mal spekuliert, dass die Dual-V8 Version 150% Leistung der Single-V8 erreicht, sollte der Dual-V8 dann auch ein bissle schneller als R9800P / FX5900U sein.

Hoffentlich versau'n die nicht die Treiber, das Filtern und den ganzen anderen Kram...

Grüße
---
Rock and Roll aint noise pollution...

Radeonator@work
2003-09-17, 11:26:41
Also mit den Xabre Treibern gibts eigentlich kaum Probs. Bleibt mal aktuell und kommt aus dem jahr 1800 ins heute...

Das gleiche geseiere musste ATi auch über sich ergehen lassen ( und komischerweise liefen die Karten auch alle ohne Probs bei mir, vielleicht sollten einige hier mal den Rechner vernünftig aufsetzen lassen ;) ) und hat allen den Mund per Catalyst gestopft :)
Wenn von 1000 leuten 100 Probleme haben, ist evtl. nicht der Treiber Schuld ;)

Meine Herren, ihr seid wie die OMAs aus der Waschmittel Werbung "Was viel kostet ist auch gut..."

Anstatt froh zu sein das endlich Bewegung in den Markt kommt nur dieses eingefahrene immer gleiche gesabbel...es tut mir leid, da muss ich :kotz:

ShadowXX
2003-09-17, 11:26:47
Original geschrieben von Gaestle
und:




Wenn die Vermutung stimmt, wäre das doch gut. Wenn man mal spekuliert, dass die Dual-V8 Version 150% Leistung der Single-V8 erreicht, sollte der Dual-V8 dann auch ein bissle schneller als R9800P / FX5900U sein.

Hoffentlich versau'n die nicht die Treiber, das Filtern und den ganzen anderen Kram...

Grüße
---
Rock and Roll aint noise pollution...

Na super...dann hat die 'teure' Duallösung die Performance einer 9800Pro....und kostet 500Euro.....

J.S.Shadow

ShadowXX
2003-09-17, 11:28:58
Original geschrieben von Radeonator@work
Also mit den Xabre Treibern gibts eigentlich kaum Probs. Bleibt mal aktuell und kommt aus dem jahr 1800 ins heute...

Das gleiche geseiere musste ATi auch über sich ergehen lassen ( und komischerweise liefen die Karten auch alle ohne Probs bei mir, vielleicht sollten einige hier mal den Rechner vernünftig aufsetzen lassen ;) ) und hat allen den Mund per Catalyst gestopft :)
Wenn von 1000 leuten 100 Probleme haben, ist evtl. nicht der Treiber Schuld ;)

Meine Herren, ihr seid wie die OMAs aus der Waschmittel Werbung "Was viel kostet ist auch gut..."

Anstatt froh zu sein das endlich Bewegung in den Markt kommt nur dieses eingefahrene immer gleiche gesabbel...es tut mir leid, da muss ich :kotz:

Für die Karte die ich damals gekauft habe, gibt es bis heute keinen funktionierenden Treiber unter Windows2000.

Damit ist SiS/XGI für mich gestorben, wenn Sie nicht einen Chip rausbringen der mindestens die Leistung einer 9800Pro für ca. 80% des Preises anbietet.....

J.S.Shadow

Gast
2003-09-17, 11:43:24
Entschulding für das schlechtes Deutsch, aber warum sind Sie so anti-XGI??? XGI existiert nur seit Mai une hat keine Produkte früher gemacht...

Die ATI Rage Pro war auch ein schlechtes GPU mit schlecten Treibern, und ATI hat seine Produkte verbessert, oder ?

StefanV
2003-09-17, 11:54:44
Original geschrieben von Gast
Entschulding für das schlechtes Deutsch, aber warum sind Sie so anti-XGI??? XGI existiert nur seit Mai une hat keine Produkte früher gemacht...

Die ATI Rage Pro war auch ein schlechtes GPU mit schlecten Treibern, und ATI hat seine Produkte verbessert, oder ?

1. XGI = SIS Grafikabteilung + Trident.
SIS hat ihre Grafikabteilung ausgelagert und dem Kindchen einen neuen Namen gegeben...
Da wir das wissen, sind wir natürlich 'etwas' skeptisch...

2. verschone uns bitte mit den Rages :)
PS: aber immerhin gibts von ATI selbst Treiber für Windows 2k und XP...

Radeonator@work
2003-09-17, 13:09:34
Hmm ist zwar OT aber was solls...

Ich habe auf der RageFury ViVo und auf der MAXX z.B. selbst Hitman ohne Probs zockern können...ich muss wohl ein Graka Wizard sein ;)

HINT: Wartet es doch einfach ab, wie gut/schlecht der "Reactor" wird!

Wer Fehler produzieren möchte bekommt es auch irgendwann hin, wer Fehler beheben möchte ebenfalls. Me zählt sich zur zweiten Kategorie und ich konnte selbst mit der Xabre z.B. UT2003/Genrals ohne Ruckler spielen (medium Details und Anpassungen in der ut2003.ini)

MojoMC
2003-09-17, 13:15:54
Original geschrieben von ShadowXX
Na super...dann hat die 'teure' Duallösung die Performance einer 9800Pro....und kostet 500Euro...Ja und? Eine FX5900 hat sogar weniger Performance als eine 9800Pro und kostet 500 Euro. Da kannste meckern...;D

Radeonator@work
2003-09-17, 13:29:59
Original geschrieben von ShadowXX
Na super...dann hat die 'teure' Duallösung die Performance einer 9800Pro....und kostet 500Euro.....

J.S.Shadow

Na Super...3d-center ist derzeit mit vielen Hellsehern/Wahrsagern gesegnet...:crazy:

Warum funtzen bei anderen Usern die Karten und bei dir nicht...

Das gebashe gegen ein nicht getestet Produkt ist ziemlich kindisch...

ShadowXX
2003-09-17, 13:36:04
Original geschrieben von MojoMC
Ja und? Eine FX5900 hat sogar weniger Performance als eine 9800Pro und kostet 500 Euro. Da kannste meckern...;D

Ja und? Das tun doch auch die meisten....

Aber wenn du es möchtest:
IMHO ist die Fx5900U zu teuer im P/L-verhalten!

ok so...?

Es ging hier um XGI...und da bleibe ich bei meiner Meinung.
Wenn die Dinger nicht die Qualität von nV und/oder ATI erreichen (den Treibern gebe ich 3-4Monate Weiterentwicklungszeit, nach Release), und das zu einem Preis der unter ATI ist, werden diese Karten zumindest in US und Europa kein Renner....

J.S.Shadow

P.S.
und ja...ich mag SIS nicht...alles was ich von denen bisher gekauft habe war entweder Schrott,Unbrauchbar oder funktinierte von Anfang an nicht....
(Ausnahme: SiS735 Chipsatz...der funktionierte nach ein paar Anbetungsversuchen...habe aber trotzdem 'freiwillig' auf VIA gewechselt....)

ShadowXX
2003-09-17, 13:39:30
Original geschrieben von Radeonator@work
Na Super...3d-center ist derzeit mit vielen Hellsehern/Wahrsagern gesegnet...:crazy:

Warum funtzen bei anderen Usern die Karten und bei dir nicht...

Das gebashe gegen ein nicht getestet Produkt ist ziemlich kindisch...

Du must auch mal die Zusammenhänge lesen.

Meine Antwort bezog sich auf ein paar Posts vorher...natürlich kenne ich die Leistung der XGI-Garfikkarten nicht.
Ich habe nur aufgezählt unter welchen Vorraussetzungen ich vielleicht wieder eine Gfx-Karte von SiS/XGI kaufen würde...

J.S.Shadow

ShadowXX
2003-09-17, 13:41:55
Original geschrieben von Radeonator@work
Na Super...3d-center ist derzeit mit vielen Hellsehern/Wahrsagern gesegnet...:crazy:

Warum funtzen bei anderen Usern die Karten und bei dir nicht...

Das gebashe gegen ein nicht getestet Produkt ist ziemlich kindisch...

Ach ja...wenn du möchtest schicke ich dir die erwähnte Karte...und wenn du sie dann unter Windows 2000 ohne den dazugehörigen Treiber zum Laufen bringst (nicht als Standard-VGA wohlgemerkt) bist du wirklich gut....
(es ist keine Xabre...)

J.S.Shadow

Gaestle
2003-09-17, 14:42:48
Original geschrieben von Radeonator@work
Meine Herren, ihr seid wie die OMAs aus der Waschmittel Werbung "Was viel kostet ist auch gut..."

Anstatt froh zu sein das endlich Bewegung in den Markt kommt nur dieses eingefahrene immer gleiche gesabbel...

Mir persönlich ist es relativ egal, wer was baut. Im Gegenteil ich finde es gut, wenn jemand was neues bringt. Und noch viel besser finde ich, wenn's dazu noch preiswert ist.

Prinzipiell ist die (High-End)Karte ausserdem sowieso die nächsten zwei bis drei Jahre nicht in meiner Preisklasse. Für mich käme evtl. eher ein Single-V5 in Frage.

Was ich persönlich aber schlecht finde: wenn etwas versprochen wird und dann bewußt nicht gehalten. Sei es ATi mit den Treiberoptimierungen ab Cat3.2 (oder seit wann auch immer), NV mit Treiberverbesserungen seit Deto4x.xx und aktuell mit dem neuen "Beta"-Treiber oder eben eine andere Firma (wie z.B. PowerVR mit ihrem "EnT&L"). Alles das finde ich zum Mäuse melken.

Nun ist da das Problem, dass das neue (unbekannte) Produkt auf einem bekannten aufsetzt (und sicherlich auch weit darüber hinaus geht), welches in KEINEM mir bekannten Review bei den Kritierium Geschwindigkeit MIT Qualität gut abgeschnitten hat. Wenn das neue Produkt aber in diesen Punkten nicht besser als das alte wird (relativ zu den dann aktuellen Anforderungen), weshalb sollte ich mir dann für ein solches Produkt entscheiden oder mich auch nur dafür interessieren? Warum sollte ich dann nicht bei meinem alten Schrott bleiben, wenn dann alles genauso schlecht "zockbar" bleibt (oder Fortschritte in Sphären gemacht werden, die sowieso mehr als ausreichend sind)?

Skepsis (die sich auch überwinden lässt) finde ich persönlich die bessere Herangehensweise als Vorschusslorbeeren, noch dazu wenn die Geschichte dazu keinen Anlass zu geben scheint.

Ich habe natürlich aus meiner subjektiven Perspektive geschrieben, so wie das wahrscheinlich jeder hier (und anderswo) nicht anders macht.

Grüße
---
Rock and Roll aint noise pollution...

ShadowXX
2003-09-17, 15:01:37
Original geschrieben von Gaestle
Mir persönlich ist es relativ egal, wer was baut. Im Gegenteil ich finde es gut, wenn jemand was neues bringt. Und noch viel besser finde ich, wenn's dazu noch preiswert ist.

Prinzipiell ist die (High-End)Karte ausserdem sowieso die nächsten zwei bis drei Jahre nicht in meiner Preisklasse. Für mich käme evtl. eher ein Single-V5 in Frage.

Was ich persönlich aber schlecht finde: wenn etwas versprochen wird und dann bewußt nicht gehalten. Sei es ATi mit den Treiberoptimierungen ab Cat3.2 (oder seit wann auch immer), NV mit Treiberverbesserungen seit Deto4x.xx und aktuell mit dem neuen "Beta"-Treiber oder eben eine andere Firma (wie z.B. PowerVR mit ihrem "EnT&L"). Alles das finde ich zum Mäuse melken.

Nun ist da das Problem, dass das neue (unbekannte) Produkt auf einem bekannten aufsetzt (und sicherlich auch weit darüber hinaus geht), welches in KEINEM mir bekannten Review bei den Kritierium Geschwindigkeit MIT Qualität gut abgeschnitten hat. Wenn das neue Produkt aber in diesen Punkten nicht besser als das alte wird (relativ zu den dann aktuellen Anforderungen), weshalb sollte ich mir dann für ein solches Produkt entscheiden oder mich auch nur dafür interessieren? Warum sollte ich dann nicht bei meinem alten Schrott bleiben, wenn dann alles genauso schlecht "zockbar" bleibt (oder Fortschritte in Sphären gemacht werden, die sowieso mehr als ausreichend sind)?

Skepsis (die sich auch überwinden lässt) finde ich persönlich die bessere Herangehensweise als Vorschusslorbeeren, noch dazu wenn die Geschichte dazu keinen Anlass zu geben scheint.

Ich habe natürlich aus meiner subjektiven Perspektive geschrieben, so wie das wahrscheinlich jeder hier (und anderswo) nicht anders macht.

Grüße
---
Rock and Roll aint noise pollution...

full ack....

Tesseract
2003-09-17, 15:06:03
Original geschrieben von Gaestle
wenn etwas versprochen wird und dann bewußt nicht gehalten. Sei es ATi mit den Treiberoptimierungen ab Cat3.2 (oder seit wann auch immer)...

???

was meinst du damit?

Gaestle
2003-09-17, 15:20:26
siehe z.B. hier:

http://www.3dcenter.org/artikel/ati_nvidia_treiberoptimierungen/

Für speziell ATi in diesem Artikel ab Seite 6


Grüße
---
Rock and Roll aint noise pollution...

Radeonator@work
2003-09-17, 15:29:30
Original geschrieben von Gaestle
Skepsis (die sich auch überwinden lässt) finde ich persönlich die bessere Herangehensweise als Vorschusslorbeeren, noch dazu wenn die Geschichte dazu keinen Anlass zu geben scheint.

Ich habe natürlich aus meiner subjektiven Perspektive geschrieben, so wie das wahrscheinlich jeder hier (und anderswo) nicht anders macht.

Grüße
---
Rock and Roll aint noise pollution...

Skepsis ist ja auch soweit OK, aber hast du vielleicht mal daran gedacht das Objektivität viel sinnvoller ist ??? Bashen und Biasen eines neuen unbekannten Produkts ist definitiv der falsche Weg!!!

Tesseract
2003-09-17, 15:29:54
Original geschrieben von Gaestle
siehe z.B. hier:

http://www.3dcenter.org/artikel/ati_nvidia_treiberoptimierungen/

Für speziell ATi in diesem Artikel ab Seite 6


das hat aber nichts mit der versprochenen treiberoptimierung zu tun

diese gab es von cat 3.2 auf 3.4 und das wurde auch wirklich gemacht und ist nachprüfbar

StefanV
2003-09-17, 15:58:59
Original geschrieben von Radeonator@work
Skepsis ist ja auch soweit OK, aber hast du vielleicht mal daran gedacht das Objektivität viel sinnvoller ist ??? Bashen und Biasen eines neuen unbekannten Produkts ist definitiv der falsche Weg!!!

Objektivität findest vielleicht aufm Vulkan, nur auf der Erde kannst lange danach suchen...

Man kann sich nur bemühen objektiv zu sein, man kann es nicht nur sein...

Ailuros
2003-09-17, 17:15:20
Original geschrieben von Gaestle

Wenn die Vermutung stimmt, wäre das doch gut. Wenn man mal spekuliert, dass die Dual-V8 Version 150% Leistung der Single-V8 erreicht, sollte der Dual-V8 dann auch ein bissle schneller als R9800P / FX5900U sein.

Hoffentlich versau'n die nicht die Treiber, das Filtern und den ganzen anderen Kram...

Grüße


Schneller als eine R350 bezweifle ich erstmal ueberhaupt in normalen Spielen. Ich will hoffen dass es sich beim FSAA um mindestens um 4xRGMS handelt aber von den alten XabreII specs sieht es nicht mehr als Level 4x Anisotropic hier aus.

Ailuros
2003-09-17, 17:17:23
Original geschrieben von MojoMC
Ja und? Eine FX5900 hat sogar weniger Performance als eine 9800Pro und kostet 500 Euro. Da kannste meckern...;D

Wer sagt dass wir diese auch als toll empfinden? :ups:

Gaestle
2003-09-17, 17:19:28
Original geschrieben von Tesseract
das hat aber nichts mit der versprochenen treiberoptimierung zu tun


Oh, ich meinte die Optimierungen natürlich in Anführungsstrichen. Ich wollte damit ausdrücken, dass man mit neuen Treibern zwar vielleicht einen Geschwindigkeitsvorteil erhält (also quasi mehr Leistung bzw. Produktivität "versprochen" wird), dieser Speed aber mit Qualitätsverlusten erkauft (und somit die Leistung nur "umverteilt", aber nicht gesteigert) wurde.
Somit wurde das "Versprechen" nach mehr Leistung nicht gehalten und der Kunde wurde wissentlich getäuscht.

Grüße
---
Rock and Roll aint noise pollution...

Ailuros
2003-09-17, 18:14:05
Original geschrieben von Radeonator@work
Skepsis ist ja auch soweit OK, aber hast du vielleicht mal daran gedacht das Objektivität viel sinnvoller ist ??? Bashen und Biasen eines neuen unbekannten Produkts ist definitiv der falsche Weg!!!

Das "bashen" geht erstmal an das idiotische Marketing-gehype, wobei schon die Spezifikationen keinen Sinn machen. Wenn schon da verwirrt und gelogen wird, ist es wohl klar dass der Verbraucher erst mal verdaechtig wird und man kann sich zwar dazu zwingen den track-record der Vergangenheit zu vergessen, aber der oede Geschmack im Mund, bis man vom Gegenteil ueberzeugt wird, bleibt.

Wie unbekannt ist uns Xabre eigentlich? Ja die bekloppte TurboTex Qualitaet war schon seit mehreren Generationen in SiS chips und V5/V8 sehen von den Specs erstmal nach gar nichts anderem aus als XabreII.

V3 und die mobile chips sind ja auch nur anscheinend XP4 mit einem neuen Namen. Wobei XP4 4 Pipelines auf Papier behauptete aber in Wahrheit nur Logik fuer eine pipeline hatte und deshalb auch die sehr wenigen Transistoren. Das waere ja auch nicht so schlimm wenn damals Trident nicht breit und dick behauptet haette, dass das Ding sogar eine R300 schlagen koennte. Die Tests die es ins Netz schafften waren wohl zum Heulen enttaeuschend.

Nochmal ich moechte allen Ernstes neue und auch noch wachsende Konkurrenten im Graphiks Markt sehen, aber ich erwarte weniger Hype und mehr Qualitaet. Ich gebe mein Geld grundsaetzlich persoenlich fuer Qualitaet aus und nicht fuer den Hype.

Nehmen wir mal die "Kleinen" unter die Lupe:

Matrox: ein gescheiteter Versuch der Firma mit Parhelia wieder in den Markt einzutreten, mit einem sehr teuren Produkt, wo vor dem Launch uns gesagt wurde dass sie selbstverstaendlich schneller als eine GF4Ti sein wird, was ich aber leider nicht sehen konnte. Ein paar Monate spaeter veroeffentlichte ATI ihre 9700PRO und es war aus damit. Die sind so verschuldet momentan, dass es schwer nach noch einem solchen Versuch in absehbarer Zeit aussieht.

3DLabs: eine imposante Architektur im P10 aber nicht fuer den Verbrauchermarkt. Dabei sind nicht alle engineers nach der Creative Aquisition heruebergewandert, sondern ein paar grosse Talente wurden schon von NVIDIA geschnappt. Wir warten immer noch auf eine performante Mainstream-Loesung, aber stattdessen bekamen wir dieses PicturePerfect Dingsda was mir persoenlich gar nichts sagt.

XGI (SiS/Trident): Trident baut schon seit 1985 Visual accelerators und obwohl mal vor Jahren ein oder zwei Versuche Hoffnung haette erregen koennen wurde wohl nie was daraus. SiS veroeffentlichte ihren ersten 3D Graphikschip im Dezember 1997 (SiS 6326) und seitdem jeweils eine Generation pro Jahr, ohne jemals wirkliche Eindruecke gewinnen zu koennen. Xabre war wohl das erste Produkt fuer dass sich wirklich ein paar Koepfe umdrehen konnten; sobald aber die unangenehmen TurboTex und SSAA Seiteneffekte entdeckt wurden, war wohl nicht mehr viel Interesse dafuer da. Schlecht verkauft haben die sich sicher nicht, aber die Treiber und Bildqualitaet liessen immer noch viel zu wuenschen uebrig.

S3: Nach der Virge3D und der ViperII hab ich hier auch keine exzellenten Erinnerungen. Innovativ waren die Kerle schon, aber das gewisse "hoppla da kommt was" hatte ich bei denen nicht verspuert bis jetzt. Das "hoppla" Gefuehl bekam ich natuerlich nachdem ich die Spezifikationen von DeltaChrome sah, aber das Ding haette schon Anfang dieses Jahres verfuegbar sein sollen.

Videologic/PowerVR: Fundamental verschiedene rendering Methode von Anfang an, was sie meistens zu exotischen Paradiesvoegeln schon von Anfang an machte. Erste Produkte waren mit einigen API Kompatibilitaetsproblemen geplagt und im PC Bereich wurde auch nur alle paar Jahre mal ein mainstream Produkt veroeffentlicht. Enormes Aufsehen erregte damals als PVR dem Marktleader 3dfx den Sega Dreamcast deal aus der Hand schnappte, aber die Console erleidete leider einen schnellen und unwuerdigen Tot. Dann war's wieder Still bis man ein bisschen Interesse mit der KYRO und um einiges mehr KYROII erweckte. Die meisten API Probleme waren zwar geloest aber es fehlten so einige Industrie-Standard Funktionalitaeten die man nicht haette auslassen sollen. Seit mehr als 2 Jahren ist da tote Hose und die kassieren momentan fett mit dem PDA/mobile chip MBX ein.

Bitboys OY: Die Kerle koennte man ganz schnell mit drei Worten beschreiben: Megahype/Vaporware/Pech.

Megahype weil immer schoen dick ueber die Ueberlegenheit deren Architekturen gehypt wurde, aber ich ernsthaft bezweifle dass selbst dual chip Avalanche es geschafft haette eine GF4Ti gnadenlos in den Boden zu stampfen; immer noch mehr mit Treibern die von einer dritten Firma gekommen waeren.

Vaporware weil es nie bis jetzt ein einziges Produkt veroeffentlicht wurde (nein EMBM ist keine Hardware).

Pech weil denen staendig etwas unangenehmes passiert was alles noch schlimmer macht. Acceleon (deren PDA/mobile chip) ist auch nichts gerade besonderes in Spezifikationen, ist immer noch im FPGA Format und kein einziger Lizenznehmer bis jetzt in Sicht. Ein Umbenennen der Firma in BlackRaven koennte vielleicht helfen oder sogar ernstes Voodoo gegen ATI/NV.. :D

Als all diese Firmen angefangen haben (sowie 3dfx und NVIDIA) war der 3D graphics Markt noch sehr klein und auf seinen ersten Schritten, da war es relativ leicht ein paar talentierte Leute zusammenzukratzen und ploetzlich Erfolg zu haben aus dem Nichts.

Heutzutage sind die Verhaeltnisse meilenweit entfernt. ATI und NVIDIA haben sich zu Mega-Konzernen entwickelt, wobei jeder an die 1700-1800 Angestellte hat. Jede Produkt-Generation kostet in R$D ueber 300-400M$ und beide schicken ganze Horden von Developer-Relations Affen aus um Entwickler-support und Kompatibilitaet zu sichern.

Natuerlich koennten die Kleinen es versuchen da einzusteigen aber es wird verdammt schwer sein und das Risiko ist ernorm. Das kleinste Risiko geht natuerlich PowerVR/ImgTec durch deren IP Lizenzierungs-Modell ein, aber grosse Sachen wuerde ich da auch nicht erwarten.

Vorraussetzung fuer alle Kleinen ist dass sie mit konstanter Regelmaessigkeit klar bessere Produkte veroeffentlichen die auch mit besserer Qualitaet, Leistung, Preis und Treibern ankommen und das nicht nur einmal sondern mehrere Male, damit man auch Stueck fuer Stueck die Verbrauchermasse ueberzeugen kann.

Xabre kommt IMHO garantiert nicht in die obrigen Kategorie und ich will nur hoffen dass es sich inzwischen mit XGI geaendert hat. Die uebertriebenen Spezies aber bringen mir aber wieder mal schlechte Errinnerungen zurueck.

***edit: typos

egdusp
2003-09-17, 18:25:11
Original geschrieben von Ailuros
Heutzutage sind die Verhaeltnisse meilenweit entfernt. ATI und NVIDIA haben sich zu Mega-Konzernen entwickelt wobei jeder an die 1700-1800 Angestellte hat. Jede Produkt-Generation kostet in R$D ueber 300-400M$ und beide schicken ganze Horden von Developer-Relations Affen aus um Entwickler-support und Kompatibilitaet zu versichern.

Natuerlich koennten die kleinen es versuchen da einzusteigen aber es wird verdammt schwer sein und das Risiko ist ernorm. Das kleinste Risiko geht natuerlich PowerVR/ImgTec durch deren IP Lizenzierungs-Modell ein, aber grosse Sachen wuerde ich da auch nicht erwarten.

Vorraussetzung fuer alle Kleinen ist dass sie mit konstanter Regelmaessigkeit klar bessere Produkte veroeffentlichen die auch mit besserer Qualitaet, Leistung, Preis und Treibern ankommen und das nicht nur einmal sondern mehrere Male, damit man auch Stueck fuer Stueck die Verbrauchermasse ueberzeugen kann.


Full Ack.

Aber warst du nicht einer derjenigen, die PowerVR und die Series 5 (oder 6, naja die kommende halt) für konkurrenzfähig halten? Oder verwechsel ich dich gerade mit jemanden und ich meine damit nicht loewe.

mfg
egdusp

Ailuros
2003-09-17, 18:33:49
Original geschrieben von egdusp
Full Ack.

Aber warst du nicht einer derjenigen, die PowerVR und die Series 5 (oder 6, naja die kommende halt) für konkurrenzfähig halten? Oder verwechsel ich dich gerade mit jemanden und ich meine damit nicht loewe.

mfg
egdusp

Kommt ganz drauf an wie man "konkurrenzfaehig" meint und was Du aus meinen Posts herauslesen wolltest. Konkurrenzfaehig wird Serie5 zu den naechster Generation high end chip in Features und Leistung sein, aber in Verkaufszahlen ist es eher zweifelhaft da es sich um ein sehr teures Produkt handelt.

Es wird vielleicht nach unten skaliert zu einem mainstream Produkt, aber von low end ist momentan keine Sicht. Fuer starke Konkurrenz braucht man eine von "top to bottom" Produktlinie, wobei hier natuerlich XGI tatsaechlich es versucht alle Maerkte zu decken.

Du kannst mir ja gerne zeigen wo ich persoenlich behauptet habe dass PowerVR in dem Sinn wie Du es verstehst als 3rd contender gegen ATI/NV eintreten wird.

PowerVR wird es auch nur schaffen wenn es etwa so aussieht:

2004: Serie5
2005: Serie6
2006: Serie7 usw.

Und nicht alle zwei oder drei Jahre mal ein Produkt.

Wobei man aber auch budget Loesungen brauchen wird. Keine Angst Scheuklappen stehen mir schlecht :P

***edit:

falls Du's uebersehen hast; mein eigenes Zitat:

Das kleinste Risiko geht natuerlich PowerVR/ImgTec durch deren IP Lizenzierungs-Modell ein, aber grosse Sachen wuerde ich da auch nicht erwarten.

Merlin31
2003-09-18, 03:36:11
wie sieht es den mit der Kühlung aus.
2 GPU`s strahlen doch bestimmt ne Menge Wärme ab.

stickedy
2003-09-18, 03:42:35
Um nochmal auf XGI und der Volari-Serie zurück zukommen:

Ich versteh nicht, wie manche hier so stark Anti-XGI auftreten, obwohl es dazu bis jetzt keinen Grund gibt!
Natürlich ging XGI aus der Grafiksparte von SiS und Trident hervor und weder die SiS-Chips noch die Trident-Chips konnten in bezug auf 3D-Leistung oder Features überzeugen. Und ums gleich vorweg zu nehmen: Ich mag keine SiS-Produkte! Bis jetzt hat die Firma nur Müll abgeliefert...
Aber: XGI ist eine neue Firma! Zwar gehört sie noch zu SiS/UMC, aber sie ist so gesehen eigenständig im Konzernverbund. Und allem anschein nach distanziert man sich auch scharf von den Xabre-Chips und den anderen alten SiS-Creationen: Bei xabre.com findet sich nichts von XGI, alles verweist auf SiS und auch bei sis.com findet sich kein Wort von XGI. Umgekehrt ist auch bei xgitech.com nichts von SiS oder Xabre zu finden.
So gesehen, muss man erstmal davon ausgehen, dass XGI anders als SiS früher an die Sache herangehen will. Ansonsten könnte man sich ja mit den Xabre-Chips und dem Nachfolger etc. prüsten. Auch könnte man dann die alten Xabre-Chips als LowCost-Version anbieten und müßte nicht auf Tridents XP4-Design zurückgreifen, der ja auf jeden Fall eine völlig andere Treiber-Architektur erfordern und so die unified Treiber "unnötig" verkomplizieren.

Auch denke ich, dass es dem Endkunden egal sein kann, wie die Leistung einer Grafikkarte zustande kommt, soll heißen, es ist egal ob 1, 2 oder gar 4 Grafikchips für die Leistung verantwortlich sind. Für den Kunden zählt letztlich nur das Preis/Leistungsverhältnis! Das muss passen! Der Weg des Herstellers ist dafür doch erstmal unerheblich.
Mag sein, dass ein Dual-Chip-Design teuerer, ineffizienter und komplizierter als eine Single-Chip-Lösung ist, aber das ist doch das alleinige "Privatvergnügen" von XGI, wenn ihre Lösung in der Produktion/Entwicklung teuerer kommt als das was ATI und NVidia abliefern! Wenn der Endkundenpreis stimmt, ist doch alles in Ordnung.

Auch sehe ich nicht, was prinzipiell an der Multi-Chip-Lösung so verkehrt sein soll: NVidia und ATI haben anscheinend massive Probleme die neuen High-End-Designs in 0,13 µm fertigen zu lassen. NVidia hat deswegen sogar die Foundry gewechselt. Wenn die Probleme zu gross werden (und das befürchte ich spätestens mit den übernächsten richtigen neuen Generation, also NV50 und R500 in 0,09 µm), dann wird sich zeigen, ob nicht alle Hersteller zu Multi-Chip-Lösungen gezwungen werden, weil es anders einfach technisch nicht möglich ist.

So betrachtet erscheint mir der Weg von XGI auch erstmal logisch: Man designt günstige/kleine Grafikchips für den großen Massenmarkt und für den sehr kleinen High-End-Markt (wird ja oft genug betont, dass der eigentlich nur fürs Image gut ist) werden einfach zwei dieser günstigen Chips zusammengeschaltet um auf die entsprechende Performance zu kommen. Das erscheint mir persönlich günstiger/vernüftiger als ein 120 Mio.-Transitor-Monster zu kreieren nur damit man ein paar Wochen den schnellsten High-End-Chip hat.
Das alles natürlich unter der Prämisse, dass Volari V8 Duo tatsächlich mit R360/NV38 mithalten kann! Wenn dem so ist, ist der XGI-Weg imho sinnvoller. "Größer, weiter, höher" ist nicht immer der richtige Weg.

Auch sollte man die Produktions-Situation von XGI berücksichtigen: Man ist als Konzern-Tochter an UMC als Fertigungspartner gebunden, während ATI und NVidia prinzipiell da freie Hand haben und den besten Partner wählen können. Und da UMC es vor einem Jahr noch nicht mal geschafft hat den (von der Transistoranzahl betrachteten)lächerlichen XP4-Chip von Trident in 0,13 µm zu fertigen, kann man wohl davon ausgehen, dass sie dieses Jahr nicht in der Lage wären, einen 120-Mio-Transitor-Grafikchip mit annehmbaren Taktraten und Yields zu produzieren. Wenn man sich das vor Augen führt, dann hat XGI gar keine andere Chance als kleine, einfachere Chips.


Der langen Rede kurzer Sinn: Ich denke man sollte etwas weniger vorurteilsbehaftet gegenüber XGI sein! Vorurteile gibt es weiß Gott genug auf der Welt, dass muss man nicht auch noch auf Grafikchips ausdehnen.
Wenn XGI die Versprechungen und Erwartungen (Performance, IQ, Treiberqualität etc.) nicht erfüllen kann, dann kann man noch früh genug über die Firma bzw. den Chip urteilen! Jetzt ist es imho noch zu früh dazu...


Just my two cents

Ailuros
2003-09-18, 04:17:13
Ich versteh nicht, wie manche hier so stark Anti-XGI auftreten, obwohl es dazu bis jetzt keinen Grund gibt!

Anti-hype wohl eher hm? Primaerer Grund: ungenaue Spezifikationen. Gibt es wenigstens einen Grund zum luegen?

Natürlich ging XGI aus der Grafiksparte von SiS und Trident hervor und weder die SiS-Chips noch die Trident-Chips konnten in bezug auf 3D-Leistung oder Features überzeugen. Und ums gleich vorweg zu nehmen: Ich mag keine SiS-Produkte! Bis jetzt hat die Firma nur Müll abgeliefert...

Moment mal zuerst beginnst Du Deinen "rant" mit Andeutungen wie voreingenommen manche sind und dann ploetzlich magst Du keine SiS Produkte und die sind Muell?

Mal sehen NVIDIA aendert morgen ihren Namen auf BORGO und alle die ihre Produkte nicht bis jetzt mochten werden in die Laeden stroemen und nur noch die BORGO FX-en kaufen....

Aber: XGI ist eine neue Firma! Zwar gehört sie noch zu SiS/UMC, aber sie ist so gesehen eigenständig im Konzernverbund. Und allem anschein nach distanziert man sich auch scharf von den Xabre-Chips und den anderen alten SiS-Creationen: Bei xabre.com findet sich nichts von XGI, alles verweist auf SiS und auch bei sis.com findet sich kein Wort von XGI. Umgekehrt ist auch bei xgitech.com nichts von SiS oder Xabre zu finden.

Muss reiner Zufall sein dass die XabreII Spezifikationen identisch sind mit den von V5/V8.

So gesehen, muss man erstmal davon ausgehen, dass XGI anders als SiS früher an die Sache herangehen will. Ansonsten könnte man sich ja mit den Xabre-Chips und dem Nachfolger etc. prüsten. Auch könnte man dann die alten Xabre-Chips als LowCost-Version anbieten und müßte nicht auf Tridents XP4-Design zurückgreifen, der ja auf jeden Fall eine völlig andere Treiber-Architektur erfordern und so die unified Treiber "unnötig" verkomplizieren.

Hierarchical Z des V3 wird gar nichts verkomplizieren.

Auch denke ich, dass es dem Endkunden egal sein kann, wie die Leistung einer Grafikkarte zustande kommt, soll heißen, es ist egal ob 1, 2 oder gar 4 Grafikchips für die Leistung verantwortlich sind. Für den Kunden zählt letztlich nur das Preis/Leistungsverhältnis! Das muss passen! Der Weg des Herstellers ist dafür doch erstmal unerheblich.

Vorraussetzung das ein multichip board auch tatsaechlich billiger sein wird. Und da es total wieder unter den Teppich gekehrt wurde, multichip Loesungen haben es schwerer billiger zu werden mit der Zeit wobei single chip Loesungen gleich zwei grosse Vorteile haben.

Auch sehe ich nicht, was prinzipiell an der Multi-Chip-Lösung so verkehrt sein soll: NVidia und ATI haben anscheinend massive Probleme die neuen High-End-Designs in 0,13 µm fertigen zu lassen. NVidia hat deswegen sogar die Foundry gewechselt.

Nur NVIDIA hatte Probleme mit low k 13nm weil sie auch gegen TSMC Ratschlaege operiert haben low k noch nicht zu benutzen.

Gibt es irgend eine zuverlaessige Quelle oder Link die bestaetigt dass:

a) Beide massive Probleme mit 13nm und der naechsten Generation haben.

b) NVIDIA zuerst bei foundry A und spaeter bei foundry B gearbeitet hat? Frag ich Dich wo NV40 hergestellt wird hast Du wohl auch keine Ahnung.

Uebrigens sind NV40/R420 naechster Generation Karten und dagegen kann dual V8 wohl schlecht eine Kerze halten. Selbst wenn sie sich sehr performant und stabil gegen R350/R360 stellen wird lange wird sie sich nicht im high end segment halten koennen wenn sie nicht noch dieses Jahr veroeffentlicht werden.


So betrachtet erscheint mir der Weg von XGI auch erstmal logisch: Man designt günstige/kleine Grafikchips für den großen Massenmarkt und für den sehr kleinen High-End-Markt (wird ja oft genug betont, dass der eigentlich nur fürs Image gut ist) werden einfach zwei dieser günstigen Chips zusammengeschaltet um auf die entsprechende Performance zu kommen. Das erscheint mir persönlich günstiger/vernüftiger als ein 120 Mio.-Transitor-Monster zu kreieren nur damit man ein paar Wochen den schnellsten High-End-Chip hat.
Das alles natürlich unter der Prämisse, dass Volari V8 Duo tatsächlich mit R360/NV38 mithalten kann! Wenn dem so ist, ist der XGI-Weg imho sinnvoller. "Größer, weiter, höher" ist nicht immer der richtige Weg.

Aehnliche Argumente gab es auch zu den V5 Zeiten. Selbst 3dfx selber plante multichip Loesungen aufzugeben weil sie endlich eingesehen hatten dass sie total unrentabel sind.

Und da UMC es vor einem Jahr noch nicht mal geschafft hat den (von der Transistoranzahl betrachteten)lächerlichen XP4-Chip von Trident in 0,13 µm zu fertigen, kann man wohl davon ausgehen, dass sie dieses Jahr nicht in der Lage wären, einen 120-Mio-Transitor-Grafikchip mit annehmbaren Taktraten und Yields zu produzieren. Wenn man sich das vor Augen führt, dann hat XGI gar keine andere Chance als kleine, einfachere Chips.

Mal langsam hier mit der Aufreihung endloser Entschuldigungen; wenn man die Funktionalitaeten des V8 verdoppelt (namend arithmetic ops, VS units, pipelines) dann sind es <100M Transistoren, und da haette selbst 15nm ausgereicht. Die Taktrate ist ja so bescheiden dass ich ueberhaupt keinen Grund fuer 13nm sehe.

Der langen Rede kurzer Sinn: Ich denke man sollte etwas weniger vorurteilsbehaftet gegenüber XGI sein! Vorurteile gibt es weiß Gott genug auf der Welt, dass muss man nicht auch noch auf Grafikchips ausdehnen.

Deine eigenen Worte:

Ich mag keine SiS-Produkte! Bis jetzt hat die Firma nur Müll abgeliefert...

Ja ich weiss blah blah blah XGI neue Firma blah blah blah; um es ganz einfach zu halten: new name.

Wenn XGI die Versprechungen und Erwartungen (Performance, IQ, Treiberqualität etc.) nicht erfüllen kann, dann kann man noch früh genug über die Firma bzw. den Chip urteilen! Jetzt ist es imho noch zu früh dazu...

Wo sind meine 16 pipelines huh? :D

mrdigital
2003-09-18, 10:27:42
ocworkbench hat erste Benchmarks von den Volari Karten gepostet, wonach eine Duo V8 Ultra auf 5600 Punkte kommt (eine Ati 9700Pro im selben System auf 4800). Das klingt doch nicht uninteressant, mal ganz von dem pro / contra XGI Gestreite hier....

Gaestle
2003-09-18, 10:33:34
Die 5600 Punkte sind keine Bench-Ergebnisse, sondern Versprechungen von XGI.

Siehe:
http://www.elitebastards.com/forum/viewtopic.php?t=2036 (wurde hier in diesem Topic schonmal weiter oben gepostet)...

Grüße
---
Rock and Roll aint noise pollution...

stickedy
2003-09-18, 11:46:20
Ailuros, ich möchte hier bestimmt keinen Streit mit dir vom Zaun brechen, aber manches von dir ist sehr voreingenommen.

Zu deinen Äußerungen:
Es sollte jedem klar sein, dass XGI aus der Grafiksparte von SiS und Trident hervorgegangen ist und es sollte auch jedem klar sein, dass Volari V5 und V8 nichts weiter sind als das was zu CeBIT als Xabre II angekündigt wurde.
Trotz allem ist Volari VX/XabreII ein neues Produkt dieser (neuen) Firma. Die Tatsache, dass man sich strikt von SiS und Xabre abgrenzt, deutet doch daraufhin, dass man völlig unbelastet neu starten möchte. Man hatt sich ja nicht nur umbenannt und führt alles so wie bisher weiter...
Das macht aber nur Sinn, wenn das neue Produkt nicht genauso vermurkst ist/wird wie Xabre (Treiber etc.), denn ansonsten hätte man sich die Mühe sparen können. Wenn der Name Volari das gleiche schlecht Image wie Xabre bekommt, dann wäre das alles vergebens. Von dem Geld, dass das gekostet hat mal zu schweigen und SiS hat alles andere als genug davon...
Aus diesem Umstand leite ich erstmal her, dass XGI anständige Arbeit abliefern wird. Zumindest sollte man das neutral so annehmen. Wie gesagt, wenn Sie es nicht tun, kann man immer drüber urteilen.


Hierarchical Z des V3 wird gar nichts verkomplizieren.

DAS meinte ich eigentlich nicht primär! Dir sollte eigentlich auch klar sein, dass sich die interne Architektur eines XabreII und eines Trident XP4 fundemental unterscheidet. Es müssen also zwei völlig unterschiedliche Treiber für beide Chips geschrieben werden. Wenn XabreII und Xabre die Volari-Serie bilden würden, wäre das sicherlich einfacher zu bewerkstelligen. Darauf wollte ich hinaus...


Vorraussetzung das ein multichip board auch tatsaechlich billiger sein wird. Und da es total wieder unter den Teppich gekehrt wurde, multichip Loesungen haben es schwerer billiger zu werden mit der Zeit wobei single chip Loesungen gleich zwei grosse Vorteile haben.


Aehnliche Argumente gab es auch zu den V5 Zeiten. Selbst 3dfx selber plante multichip Loesungen aufzugeben weil sie endlich eingesehen hatten dass sie total unrentabel sind.

Nun ja, wenn die Karten mit XGI-Chips zu teuer werden, das P/L-Verhältnis also nicht paßt, dann werden sie halt nicht gekauft. Diese Preis-Regulierung übernimmt der Markt. Das ist das Problem von XGI und ihren Kartenherstellern wenn die Produktionskosten zu hoch sind und der Verkauf unrentabel wird. Das hat den Endkunden aber an sich nicht zu interessieren! Wie gesagt, das Privatvergnügen von XGI...
Und nur weil 3dfx von Multichip zu Singlechip wechseln wollte heißt noch lange nicht, dass die Entscheidung richtig gewesen wäre. Aber wie ich oben schon schrieb, das ist die Sache von XGI wie man das löst. Als Kunde interssiert die Leistung die rauskommt und der Preis...


Nur NVIDIA hatte Probleme mit low k 13nm weil sie auch gegen TSMC Ratschlaege operiert haben low k noch nicht zu benutzen.

Gibt es irgend eine zuverlaessige Quelle oder Link die bestaetigt dass:

a) Beide massive Probleme mit 13nm und der naechsten Generation haben.

b) NVIDIA zuerst bei foundry A und spaeter bei foundry B gearbeitet hat? Frag ich Dich wo NV40 hergestellt wird hast Du wohl auch keine Ahnung.

Uebrigens sind NV40/R420 naechster Generation Karten und dagegen kann dual V8 wohl schlecht eine Kerze halten. Selbst wenn sie sich sehr performant und stabil gegen R350/R360 stellen wird lange wird sie sich nicht im high end segment halten koennen wenn sie nicht noch dieses Jahr veroeffentlicht werden.


Seit Monaten ließt man in diesem und in anderen Foren, wie schwierig es ist, einen Grafikchip mit hohen Transistorzahlen und Taktraten in 0,13 µm zu produzieren und plötzlich stellst du diese Problematik in Frage! Das kann nicht dein Ernst sein...
Ich glaube, mehr muss man dazu nicht sagen...

Ansonsten geh ich mal davon aus, dass Volari noch im Oktober auf den Markt kommen, also kaufbar sind, wobei die Duo-Versionen wohl etwas später (November oder Anfang Dezember) kommen werden. Anosnsten könnten Sie es wirklich sein lassen mit den Duo-Karten und ich denke XGI weiß das auch. Das ist natürlich reine Spekulation meinerseits mit den Erscheinungsterminen

Radeonator@work
2003-09-18, 12:25:58
@ Stickedy : Vergiss es...diese Sturrköpfe fühlen sich halt nur wohl wenn sie bashen können, einen Versuch der Objektivität, können und wollen sie offensichtlich nicht starten. Vor allem wissen Sie alles Vorher, kennen zudem sogar die Komplette Architektur (XabreII) und untermauern ihr gebashe mit unhaltbaren Vermutungen, die Sie dann als Fakten darstellen, echt Supi ;)...wie gesagt : Was der Bauer nicht kennt...

p.s.: Die Mobo Chipsätze von SiS sind sehr gut :)

Winter[Raven]
2003-09-18, 12:37:48
Nur NVIDIA hatte Probleme mit low k 13nm weil sie auch gegen TSMC Ratschlaege operiert haben low k noch nicht zu benutzen.


Wat ?.... jetzt ist chon wieder Nvidia schuld ? ... löl .. echt Junge komm mal wieder schnell auf den Boden der Tatsachen, und diese wären das TSMC hoch und heilig Nvidia versprochen hat, das sie Low-K bis ende 2003 herstellen können. Was am Ende nicht der Fall war !

ShadowXX
2003-09-18, 12:41:46
Original geschrieben von stickedy
Es sollte jedem klar sein, dass XGI aus der Grafiksparte von SiS und Trident hervorgegangen ist und es sollte auch jedem klar sein, dass Volari V5 und V8 nichts weiter sind als das was zu CeBIT als Xabre II angekündigt wurde.
Trotz allem ist Volari VX/XabreII ein neues Produkt dieser (neuen) Firma. Die Tatsache, dass man sich strikt von SiS und Xabre abgrenzt, deutet doch daraufhin, dass man völlig unbelastet neu starten möchte. Man hatt sich ja nicht nur umbenannt und führt alles so wie bisher weiter...
Das macht aber nur Sinn, wenn das neue Produkt nicht genauso vermurkst ist/wird wie Xabre (Treiber etc.), denn ansonsten hätte man sich die Mühe sparen können. Wenn der Name Volari das gleiche schlecht Image wie Xabre bekommt, dann wäre das alles vergebens. Von dem Geld, dass das gekostet hat mal zu schweigen und SiS hat alles andere als genug davon...
Aus diesem Umstand leite ich erstmal her, dass XGI anständige Arbeit abliefern wird. Zumindest sollte man das neutral so annehmen. Wie gesagt, wenn Sie es nicht tun, kann man immer drüber urteilen.


Was sollen Sie denn sonst tun...
Wenn Sie öffentlich sagen:"Eigentlich sind wir immer noch SIS, nennen uns nur XGI jetzt", dann sind die Karten sofort 'Totgeburten'.
Das was du sagts entspricht doch fast einer PR-Mitteilung von XGI (damit will ich dich jetzt nicht persönlich angreifen).
"Wir sind neu...und machen gar nix was unserer 'Mutter' uns sagt....ausserdem machen wir jetzt alles besser"


Ansonsten geh ich mal davon aus, dass Volari noch im Oktober auf den Markt kommen, also kaufbar sind, wobei die Duo-Versionen wohl etwas später (November oder Anfang Dezember) kommen werden. Anosnsten könnten Sie es wirklich sein lassen mit den Duo-Karten und ich denke XGI weiß das auch. Das ist natürlich reine Spekulation meinerseits mit den Erscheinungsterminen

Du meinst also das ich ab Oktober in einen beliebigen HW-Laden marschieren kann um eine Volari zu kaufen....
Bis jetzt gibt es noch nicht mal Verlautbarungen über Partnerschaften mit GraKa-Herstellern...aber irgendwo müssen die Chips raufgepappt werden....

Das hat jetzt übrigens IMO wenig mit gebashe zu tun:
Ja, ich mag SIS nicht...aber das was ich und viele andere hier im Thread sagen ist eher als extreme Vorsicht zu bewerten.
So können wir 'basher' uns noch Positiv überraschen lassen....

J.S.Shadow

stickedy
2003-09-18, 12:59:18
Original geschrieben von ShadowXX
Was sollen Sie denn sonst tun...
Wenn Sie öffentlich sagen:"Eigentlich sind wir immer noch SIS, nennen uns nur XGI jetzt", dann sind die Karten sofort 'Totgeburten'.
Das was du sagts entspricht doch fast einer PR-Mitteilung von XGI (damit will ich dich jetzt nicht persönlich angreifen).
"Wir sind neu...und machen gar nix was unserer 'Mutter' uns sagt....ausserdem machen wir jetzt alles besser"

Aber genau das ist doch springende Punkt! Bis jetzt hat SiS das negativ-Image nicht gestört, auch nicht als man die Xabre-Chips vorgestellt hat. Und verglichen mit dem Murks davor war Xabre ja richtig "gut". Aber jetzt plötzlich will man von den alten Sachen nichts mehr wissen! Wenn man trotzdem wieder so einen Murks abliefern will oder würde, hätte man sich das gleich sparen können...


Du meinst also das ich ab Oktober in einen beliebigen HW-Laden marschieren kann um eine Volari zu kaufen....
Bis jetzt gibt es noch nicht mal Verlautbarungen über Partnerschaften mit GraKa-Herstellern...aber irgendwo müssen die Chips raufgepappt werden....

Das hat jetzt übrigens IMO wenig mit gebashe zu tun:
Ja, ich mag SIS nicht...aber das was ich und viele andere hier im Thread sagen ist eher als extreme Vorsicht zu bewerten.
So können wir 'basher' uns noch Positiv überraschen lassen.[/SIZE]

Naja, beliebig wohl nicht, dafür ist die Firma noch zu unbekannt! Kyro-Karten gab es ja auch nicht überall... Aber ich rechne mit der Verfügbarkeit.

Sie dazu auch hier: http://www.xgitech.com/about/about_press7_31.htm

VooDoo7mx
2003-09-18, 13:36:38
Original geschrieben von Radeonator@work
@ Stickedy : Vergiss es...diese Sturrköpfe fühlen sich halt nur wohl wenn sie bashen können, einen Versuch der Objektivität, können und wollen sie offensichtlich nicht starten. Vor allem wissen Sie alles Vorher, kennen zudem sogar die Komplette Architektur (XabreII) und untermauern ihr gebashe mit unhaltbaren Vermutungen, die Sie dann als Fakten darstellen, echt Supi ;)...wie gesagt : Was der Bauer nicht kennt...

p.s.: Die Mobo Chipsätze von SiS sind sehr gut :)

Sehr gut! Da hast es wirklich auf den Punkt gebracht!
Genau sowas wollte ich auch posten aber deine Formulierung ist astrein!
Und wir wissen warscheinlich alle wer hier gemeint ist...

ShadowXX
2003-09-18, 14:32:25
Original geschrieben von stickedy
Aber genau das ist doch springende Punkt! Bis jetzt hat SiS das negativ-Image nicht gestört, auch nicht als man die Xabre-Chips vorgestellt hat. Und verglichen mit dem Murks davor war Xabre ja richtig "gut". Aber jetzt plötzlich will man von den alten Sachen nichts mehr wissen! Wenn man trotzdem wieder so einen Murks abliefern will oder würde, hätte man sich das gleich sparen können...

Sie dazu auch hier: http://www.xgitech.com/about/about_press7_31.htm

Du sagst es doch selber:
Man will durch den Namenswechsel vom SIS-Image weg....

Man könnte es auch anders formulieren:
Man möchte auch mal ein paar (mehr) Grafikkarten verkaufen und da stört der Name SIS gewaltig.
Und nicht alle wissen das XGI aus SIS/Trident hervorgegengen ist.
Für diese Leute ist es ein wirklich 'neuer' Player und diese Kaufen die Karten dann, obwohl Sie es wenn SIS draufgestanden hätte nicht getan hätten....

Natürlich werden Sie versuchen besser zu sein als SIS vorher....aber ich erwarte keine Wunder....
Und wenn dann schon 'vorlaut' mit riesiger 3DMarks03 rumgetönt wird (und das ohne zu Messen), wird man eher noch skeptischer.....

J.S.Shadow

Ailuros
2003-09-18, 15:19:48
Original geschrieben von Winter[Raven]
Wat ?.... jetzt ist chon wieder Nvidia schuld ? ... löl .. echt Junge komm mal wieder schnell auf den Boden der Tatsachen, und diese wären das TSMC hoch und heilig Nvidia versprochen hat, das sie Low-K bis ende 2003 herstellen können. Was am Ende nicht der Fall war !

Patronieren kannst Du jemand anderen. TSMC hat Anfang 2002 NVIDIA von der Benutzung von lowk 13nm gewarnt dass es problematisch ist, was sich auch Mitte 2002 voll bestaetigt hat.

Ailuros
2003-09-18, 15:24:21
Original geschrieben von Radeonator@work
@ Stickedy : Vergiss es...diese Sturrköpfe fühlen sich halt nur wohl wenn sie bashen können, einen Versuch der Objektivität, können und wollen sie offensichtlich nicht starten. Vor allem wissen Sie alles Vorher, kennen zudem sogar die Komplette Architektur (XabreII) und untermauern ihr gebashe mit unhaltbaren Vermutungen, die Sie dann als Fakten darstellen, echt Supi ;)...wie gesagt : Was der Bauer nicht kennt...

p.s.: Die Mobo Chipsätze von SiS sind sehr gut :)

Deine Sandkasten-Argumentation lass ich lieber mal so stehen, ueberhaupt wenn Du nicht mal die Courage hast jemand voll zu konfrontieren, weil es Dir eigentlich an Argumentations-Punkten und Beweisen fehlt und nicht anders rum.

Was ich weiss koennte Dir eigentlich egal sein. Du kannst alle Kommentare aufheben und diese mir dann nach den oeffentlichen Tests unter die Nase reiben und weisst Du was ich bin dann so anstaendig und entschuldige auch noch dafuer. Wer hat mehr Chancen sich verstecken zu wollen danach Du oder ich?

Ich bleib auf jeden Fall hier.

Ailuros
2003-09-18, 15:26:31
Original geschrieben von VooDoo7mx
Sehr gut! Da hast es wirklich auf den Punkt gebracht!
Genau sowas wollte ich auch posten aber deine Formulierung ist astrein!
Und wir wissen warscheinlich alle wer hier gemeint ist...

Komischerweise sehe ich eine 9500 in System-specs. Wo ist die Xabre600? ;D

Ailuros
2003-09-18, 15:59:22
Das macht aber nur Sinn, wenn das neue Produkt nicht genauso vermurkst ist/wird wie Xabre (Treiber etc.), denn ansonsten hätte man sich die Mühe sparen können. Wenn der Name Volari das gleiche schlecht Image wie Xabre bekommt, dann wäre das alles vergebens. Von dem Geld, dass das gekostet hat mal zu schweigen und SiS hat alles andere als genug davon...

Waere es nur ein Gefuehl dass sich wenig geaendert hat, wuerde ich gar nicht so stur darauf bestehen.

DAS meinte ich eigentlich nicht primär! Dir sollte eigentlich auch klar sein, dass sich die interne Architektur eines XabreII und eines Trident XP4 fundemental unterscheidet. Es müssen also zwei völlig unterschiedliche Treiber für beide Chips geschrieben werden. Wenn XabreII und Xabre die Volari-Serie bilden würden, wäre das sicherlich einfacher zu bewerkstelligen. Darauf wollte ich hinaus...

Das aendert aber im Grundsatz nichts was einen unified Treiber betrifft im Vergleich zur Konkurrenz. Wieviele chipsets unterstuetzen heute ATI/NV Treiber in einem einzigen Treiber? So kompliziert sind unified drivers nun auch wieder nicht.

Nun ja, wenn die Karten mit XGI-Chips zu teuer werden, das P/L-Verhältnis also nicht paßt, dann werden sie halt nicht gekauft. Diese Preis-Regulierung übernimmt der Markt. Das ist das Problem von XGI und ihren Kartenherstellern wenn die Produktionskosten zu hoch sind und der Verkauf unrentabel wird. Das hat den Endkunden aber an sich nicht zu interessieren! Wie gesagt, das Privatvergnügen von XGI...

Wie schon gesagt, es heisst dass sie ungefaehr auf dem gleichen Niveau mit anderen high end Karten liegen werden. Wenn dabei Launch MSRP gemeint sein sollte, dann sind es mindestens 400$ US MSRP.

Und nur weil 3dfx von Multichip zu Singlechip wechseln wollte heißt noch lange nicht, dass die Entscheidung richtig gewesen wäre. Aber wie ich oben schon schrieb, das ist die Sache von XGI wie man das löst. Als Kunde interssiert die Leistung die rauskommt und der Preis...

Mit 3dfx auch alle anderen die multichip Loesungen im Markt ausprobiert haben. Und ja den Endkunden interessiert der Preis. Nochmal multichip Loesungen haben es schwer ihre Preise mit der Zeit zu reduzieren.

Seit Monaten ließt man in diesem und in anderen Foren, wie schwierig es ist, einen Grafikchip mit hohen Transistorzahlen und Taktraten in 0,13 µm zu produzieren und plötzlich stellst du diese Problematik in Frage! Das kann nicht dein Ernst sein...
Ich glaube, mehr muss man dazu nicht sagen...

Single chip V8 hat wohl schaetzungsweise 45-50M Transistoren.
Wieso ist das doppelte ein Problem entweder mit 15 oder 13nm? NV35 kam nach nur ein paar Monaten nach der NV30 auf den Markt mit 130M Transistoren auf 13nm ohne low-k diesmal aber. Siehst Du irgendeine Problematik mit dem NV35 Release.

NV40/R420 = >150M Transistoren. Und ja das ist eine ganz andere Kategorie durch die um weites hoehere chip-Komplexitaet, ueberhaupt wenn einer der beiden auch dann an den Randwert von 200M Transistoren naeher kommt. Wieso braucht man mehr als 100M fuer einen einfachen PS/VS2.0 single chip?

Ansonsten geh ich mal davon aus, dass Volari noch im Oktober auf den Markt kommen, also kaufbar sind, wobei die Duo-Versionen wohl etwas später (November oder Anfang Dezember) kommen werden. Anosnsten könnten Sie es wirklich sein lassen mit den Duo-Karten und ich denke XGI weiß das auch. Das ist natürlich reine Spekulation meinerseits mit den Erscheinungsterminen.

Es sprechen mehr Chancen dafuer dass dual V8 innerhalb von einem halben Jahr maximum von der Konkurrenz total ueberrent wird, ausser sie waren klug genug und haben sehr gutes und sehr schnelles AA/AF was aber zumindest zwei mal so gut als die Konkurrenz sein muesste, eventuell 8xRGMS fuer dual V8 (8xAF ist genug). Multichip Karten haben den gigantischen Vorteil dass man schnell FSAA Leistung und Qualitaet verdoppeln kann. Wenn man hier mit einem 8*8 grid ankommt, dann gaebe es theoretisch die Vorraussetzung dass man doppelt so hohe Qualitaet wie jede Konkurrenz zumindest liefern kann mit gleicher Leistung als andere mit 4xAA. Dabei macht es nur Sinn auf einem dual board 2*4xAA zu benutzen, wobei aber OGMS trotzdem immer noch unattraktiv ist, genauso wie die doofen gaussian blur filter die NV ja leider eingefuehrt hat.

Ailuros
2003-09-18, 16:06:10
Ailuros, ich möchte hier bestimmt keinen Streit mit dir vom Zaun brechen, aber manches von dir ist sehr voreingenommen.

Weisst Du warum ich in wenigeren Faellen falsch liege? Weil ich viel frage und zu dem Leute die wissen wo es lang geht. Das was ich ueber den spezifischen chipsatz zugeschossen bekam, sieht nicht gut aus.

Und nochmal sollte es total anders sein, stehe ich zu meinem Wort und entschuldige mich in aller Oeffentlichkeit. Ich hab's schon oefters in der Vergangenheit gemacht und ich scheue auch nie davon ab.

stickedy
2003-09-18, 16:58:54
Nun ja, wenn du so gute Informationsquellen hast und diese den Chip schon kennen und damit deine Einwände berechtigt sind, dann nehme ich das so zur Kenntnis und glaube dir das auch!
Leider kam das in deinen vorherigen Kommentaren nicht so rüber als hättest du schon verschiedene konkretere Informationen zum Chip erhalten und es ließt sich daher halt sehr negativ!

Ailuros
2003-09-18, 17:09:10
Original geschrieben von stickedy
Nun ja, wenn du so gute Informationsquellen hast und diese den Chip schon kennen und damit deine Einwände berechtigt sind, dann nehme ich das so zur Kenntnis und glaube dir das auch!
Leider kam das in deinen vorherigen Kommentaren nicht so rüber als hättest du schon verschiedene konkretere Informationen zum Chip erhalten und es ließt sich daher halt sehr negativ!

Quellen sind nicht immer 100% zuverlaessig und man kann sich oft schnell in den Fuss schiessen, aber mir ist das Risiko schon bewusst.

So konkret ist die Information nun auch wieder nicht, es wurde nur notiert dass es nicht viel zu vorigen Loesungen geaendert hat. Und die Ungenauigkeit der 16 pipelines steckt mir schon jetzt zum Hals raus. Effektiv ist V8 nach allen Indizien eine RV350 mit einer extra texturing unit.

Gast
2003-09-18, 20:30:45
Die 16 Pipelines beziehen sich aber doch auf die V8-Duo - Version und nicht auf die normale V8.

Das die V8 in etwa einem RV350 mit einer 4x2 Architektur ähnelt ist schon klar. Aber wieso soll das so schlecht sein? Es kommt wirklich nur noch darauf an, das die V5 / V8 auch "gute" PS2.0 hat und nicht so uneffektive wie die NV3x-Serie.

Und natürlich auf das AA, AF, und darauf, das sie richtiges BF machen. :D :D

Demirug
2003-09-18, 20:48:30
Original geschrieben von Gast
Die 16 Pipelines beziehen sich aber doch auf die V8-Duo - Version und nicht auf die normale V8.

Das die V8 in etwa einem RV350 mit einer 4x2 Architektur ähnelt ist schon klar. Aber wieso soll das so schlecht sein? Es kommt wirklich nur noch darauf an, das die V5 / V8 auch "gute" PS2.0 hat und nicht so uneffektive wie die NV3x-Serie.

Und natürlich auf das AA, AF, und darauf, das sie richtiges BF machen. :D :D

Ailuros: Effektiv ist V8 nach allen Indizien eine RV350 mit einer extra texturing unit.

Ein RV350 hat 4 FP-Rechenwerke (die intern nochmal in 3 teile zerlegt sind) und 4 TMUs. Baut man da jetzt noch 4 TMUs dazu haben wir defakto einen NV30. Mit etwas Glück etwas unproblematischer was das erreichen der Peakleistung angeht. Der NV30 hat nun aber moch 8 Int12 Einheiten und läuft mit 500 Mhz was ihn bei der verwendung von DX8 Shadern noch gut aussehen lässt. Hat die V8 also wirklich nur 4 "normale" FP-Einheiten und dann nicht wenigsten auch noch ein paar Int-Einheiten sehe ich schwarz was die Shaderleistung (auch schon bei DX8/DX7) angeht. Bei der Verwendung von tri/AF Filtern sinken bei DX7/DX8 Shadern ja die Anforderungen an die Shaderleistung aber bei den DX9 Shadern dominieren im Moment doch die Rechenlastigen Versionen bei denen tri/AF Filter die FP-Units nicht wirklich entlasten können.

Radeonator
2003-09-18, 22:40:52
Ach so, das ist also Sandkastenargumentation, wo bitte schön sind Fakten , die dein sogenannten Argumente unterstützen?
Werde erstmal erwachsen und lerne zu diskutieren, du wiederholst dich in einer Tour mit der Sturheit eines Kleinkindes...

Vielleicht solltest du die Postings anderer mal lesen und darüber nachdenken, bevor du immer den selben Müll gebetsmühlen artig zum besten gibst...:crazy:

Du hast überhaupt keine Ahnung, wie der Chip letztendlich aussehen wird, wie die Architektur ist oder sonstetwas und tönst hier rum als könntest du es dir aus den Fingern saugen, und hälst das dann für Argumente (für echte Argumente braucht man Fakten , falls du weisst was das ist... )

Eine Bewertung des Chips ist vollkommen sinnfrei, begreif das doch endlich einmal!

Dein ewiges rumreiten auf der PR von XGI ist genauso unsinnig : ES GEHT UM WERBUNG UND DAS MACHT JEDE Firma, geht das nicht in dein Köpflein ?

Ailuros
2003-09-19, 04:43:11
Ach so, das ist also Sandkastenargumentation, wo bitte schön sind Fakten , die dein sogenannten Argumente unterstützen?

Wo sind Deine? Beschissene Texturen-qualitaet und substandard Treiber fuer genau 5 Jahre jetzt sind mir genug um mehr als nur Zweifel zu haben.

Werde erstmal erwachsen und lerne zu diskutieren, du wiederholst dich in einer Tour mit der Sturheit eines Kleinkindes...

Wirst Du wohl ertragen muessen da ich auf keinen Fall damit gegen die Regeln dieses Boards stosse.

Vielleicht solltest du die Postings anderer mal lesen und darüber nachdenken, bevor du immer den selben Müll gebetsmühlen artig zum besten gibst...

Beruhigungspillen rechte Schublade oben.

Du hast überhaupt keine Ahnung, wie der Chip letztendlich aussehen wird, wie die Architektur ist oder sonstetwas und tönst hier rum als könntest du es dir aus den Fingern saugen, und hälst das dann für Argumente (für echte Argumente braucht man Fakten , falls du weisst was das ist... )

Ze proof will be in ze pudding. Mal abwarten ja? Ich bookmark auf jeden Fall den Thread fuer spaetere Referenz. Bessere persoenliche Angriffe als das kannst Du Dir nicht leisten oder? Wenn Du glaubst dass ich mit solchem Quatsch auch noch nervoes werde, hast Du mich wohl unterschaetzt.

Eine Bewertung des Chips ist vollkommen sinnfrei, begreif das doch endlich einmal!

Was Du vielleicht begreifen solltest ist dass Demokratie mir die Freiheit meiner Meinung sichert ob sie nun korrekt oder falsch ist, ist ein anderes Kapitel. Ich werde weiterhin meine Meinung aeussern und ob es Dir passt oder nicht ist mir auch gleichgueltig.


Dein ewiges rumreiten auf der PR von XGI ist genauso unsinnig : ES GEHT UM WERBUNG UND DAS MACHT JEDE Firma, geht das nicht in dein Köpflein ?

Ein ziemlich schlechter Demagoge bist Du wohl auch noch unter anderem ja? :D Koepflein? *kicher*

Nichts gegen Werbung, so lange diese der Wahrheit entspricht. Wie weit bist Du eigentlich vorm Herzinfarkt? Spar Dir den Stress fuer die ersten oeffentlichen XGI Tests, wo die besagten Ueber-chips die Konkurrenz gnadenlos in den Boden stampfen werden. :P

Ailuros
2003-09-19, 04:50:33
Original geschrieben von Demirug
Ein RV350 hat 4 FP-Rechenwerke (die intern nochmal in 3 teile zerlegt sind) und 4 TMUs. Baut man da jetzt noch 4 TMUs dazu haben wir defakto einen NV30. Mit etwas Glück etwas unproblematischer was das erreichen der Peakleistung angeht. Der NV30 hat nun aber moch 8 Int12 Einheiten und läuft mit 500 Mhz was ihn bei der verwendung von DX8 Shadern noch gut aussehen lässt. Hat die V8 also wirklich nur 4 "normale" FP-Einheiten und dann nicht wenigsten auch noch ein paar Int-Einheiten sehe ich schwarz was die Shaderleistung (auch schon bei DX8/DX7) angeht. Bei der Verwendung von tri/AF Filtern sinken bei DX7/DX8 Shadern ja die Anforderungen an die Shaderleistung aber bei den DX9 Shadern dominieren im Moment doch die Rechenlastigen Versionen bei denen tri/AF Filter die FP-Units nicht wirklich entlasten können.

Ich bin mal davon ausgegangen dass die von XGI stammenden 3dmark2003 Resultate der Wahrheit enstsprechen (uebrigens 3.0GHz CPU nicht dass es bei dem Test wichtig ist aber nur mal so). Nach diesen Resultaten koennte ich eventuell schaetzen dass die Shaderleistung mehr oder weniger auf RV350 Niveau liegt.

Die DX7/T&L Leistung lies ja auch bei Xabre zu wuenschen uebrig. Die Leistung in UT2k3 botmatch ist so niedrig wo ich mich oft gewundert habe ob die Dinger ueberhaupt eine T&L Einheit besitzen.

Gast
2003-09-19, 11:07:57
Original geschrieben von Ailuros
Wo sind Deine? Beschissene Texturen-qualitaet und substandard Treiber fuer genau 5 Jahre jetzt sind mir genug um mehr als nur Zweifel zu haben.

Woher willst du wissen wie die Texturquali der Volari Chips ist ? Ach ja, du bist ja Hellseher...:bonk:

Original geschrieben von Ailuros
Wirst Du wohl ertragen muessen da ich auf keinen Fall damit gegen die Regeln dieses Boards stosse.

Habe ich das behauptet, es ist nur Aufgrund deiner verstocktheit und Unfähigkeit zu diskutieren nicht möglich mit dir eben dieses zu tun...

Original geschrieben von Ailuros
Beruhigungspillen rechte Schublade oben.

Kindergarten zweite Starße links...

Original geschrieben von Ailuros
Ze proof will be in ze pudding. Mal abwarten ja? Ich bookmark auf jeden Fall den Thread fuer spaetere Referenz. Bessere persoenliche Angriffe als das kannst Du Dir nicht leisten oder? Wenn Du glaubst dass ich mit solchem Quatsch auch noch nervoes werde, hast Du mich wohl unterschaetzt[QUOTE][SIZE=1]Original geschrieben von Ailuros

Liest du deinen eigenen Müll eigentlich auch manchmal ???

[QUOTE][SIZE=1]Original geschrieben von Ailuros
Was Du vielleicht begreifen solltest ist dass Demokratie mir die Freiheit meiner Meinung sichert ob sie nun korrekt oder falsch ist, ist ein anderes Kapitel. Ich werde weiterhin meine Meinung aeussern und ob es Dir passt oder nicht ist mir auch gleichgueltig.

Eben...dumm ist nur wer dummes tut ;)

Original geschrieben von Ailuros
Ein ziemlich schlechter Demagoge bist Du wohl auch noch unter anderem ja? :D Koepflein? *kicher*.

Ach ja, ich bin also auf Sandkasten Niveau...:lol:

Original geschrieben von Ailuros
Nichts gegen Werbung, so lange diese der Wahrheit entspricht.

Werbung und Warheit...MUHAHAHA...komm mal in die Realität, ein weiteres Null Argument, was nur zeigt, wie haltlos deine Behauptungen sind.Den restlichen Kinderkram hab ich mal abgeschnitten.

Noch ein letztes mal : Ich bewerte den Chip erst dann wenn ich erste unabhängige Tests sehe, das solltest du auch tun.

Kleines Zitat von 3dChip : Da uns noch keine Leistungsvergleiche vorliegen, 3DChips aber Interesse bekundet hat, Grafikkarten von XGI ebenfalls in das Testprogramm aufzunehmen, ist ein "Vergleich auf dem Papier" vorerst noch sinnlos.

ShadowXX
2003-09-19, 13:26:22
Original geschrieben von Gast
Werbung und Warheit...MUHAHAHA...komm mal in die Realität, ein weiteres Null Argument, was nur zeigt, wie haltlos deine Behauptungen sind.Den restlichen Kinderkram hab ich mal abgeschnitten.

Noch ein letztes mal : Ich bewerte den Chip erst dann wenn ich erste unabhängige Tests sehe, das solltest du auch tun.

Kleines Zitat von 3dChip : Da uns noch keine Leistungsvergleiche vorliegen, 3DChips aber Interesse bekundet hat, Grafikkarten von XGI ebenfalls in das Testprogramm aufzunehmen, ist ein "Vergleich auf dem Papier" vorerst noch sinnlos.

Aha...du bewertest den Chip also erst wenn er erscheint....aber verteidigts ihn jetzt schon....

Jeder der hier den V8 verteidigt, macht genau das gleiche wie die die ihn jetzt schon 'angreifen'...er spekuliert...

Und wenn du die Posts mal durchliest (auch meine, auch wenn diese Anti-SIS ähhhh XGI sind), wirst du feststellen, dass wir durch die Bank weg nur seeeeeeeeehr skeptisch sind (und ja, auch die eine oder andere Vorverurteilung....).

Das der V8 ein völlig neues Design ist, dass mit dem XabreII nix zu tun hat glaubst du doch nicht wirklich, oder?

Davon ab gibt XGI ja qasi zu, dass der V8 nicht mit den grossen Chips von ATI/NV mithalten kann, warum würden Sie sonst eine Multichip-Lösung dagegen antreten lassen.

(Ich weiss was jetzt kommt: '...die waren von vorherein als Multi-Chip geplant"....und darauf Antworte ich: '...dann wussten Sie also von Anfang an das Sie sonst nicht Konkurenzfähig wären....')

J.S.Shadow

Radeonator@Work
2003-09-19, 14:00:51
Falsch, ich warne davor falsche Schlüsse, egal ob positiv oder negativ, zu ziehen. Es gibt bissher nur einen PR Paper launch, die Computex wird wohl Licht ins Dunkel bringen!!!

Ich hoffe lediglich, das XGI etwas konkurrents fähiges auf den Markt schmeisst und keinen Müll ;)

Gast
2003-09-19, 14:18:53
Original geschrieben von Ailuros
Die DX7/T&L Leistung lies ja auch bei Xabre zu wuenschen uebrig. Die Leistung in UT2k3 botmatch ist so niedrig wo ich mich oft gewundert habe ob die Dinger ueberhaupt eine T&L Einheit besitzen.

Irgendwie verstehe ich dich nicht Ailuros. Da versuchst du mit allen Mitteln die neuen Chips schlecht zu reden, obwohl du dich doch einfach zurück lehnen könntest und es einfach auf dich zukommen lässt.

PS.: ( ich dachte eigentlich das weißt du ), ABER die XABRE-Chips haben keine T&L-Einheit. Die hat SiS wegrationalisiert und durch DX8.1-PS-Shader ersetzt (oder so). Für SiS waren Pixelshader wichtiger als Vertex-Shader, da diese von der CPU immer noch gut ersetzt werden können, PS aber nicht. Die lausige PS-Performance der Xabre spricht aber nicht gerade für SiS (und die neuen Chips ).

Ailuros
2003-09-19, 15:51:21
Irgendwie verstehe ich dich nicht Ailuros. Da versuchst du mit allen Mitteln die neuen Chips schlecht zu reden, obwohl du dich doch einfach zurück lehnen könntest und es einfach auf dich zukommen lässt.

Natuerlich koennte ich das machen und es waere auch viel logischer. Schlecht reden ist weit uebertrieben.

PS.: ( ich dachte eigentlich das weißt du ), ABER die XABRE-Chips haben keine T&L-Einheit. Die hat SiS wegrationalisiert und durch DX8.1-PS-Shader ersetzt (oder so). Für SiS waren Pixelshader wichtiger als Vertex-Shader, da diese von der CPU immer noch gut ersetzt werden können, PS aber nicht. Die lausige PS-Performance der Xabre spricht aber nicht gerade für SiS (und die neuen Chips ).

Ich wusste dass sie keine VS engines haben; was ich tatsaechlich nicht wusste ist dass ich auch keine fixed function T&L Einheit haben. Das eine schliesst das andere nicht aus.

So schlecht war die Idee von der Rationalisierung mit VS nun auch wieder nicht; schlecht ist die fehlende T&L Einheit, denn heutige Spiele brauchen absolut T&L und da koennen die PS leider nicht helfen.

Ailuros
2003-09-19, 16:14:12
Nun zurueck zum restlichen Spass des Tages:

Woher willst du wissen wie die Texturquali der Volari Chips ist ? Ach ja, du bist ja Hellseher...

Das als Antwort zu dem hier:

Beschissene Texturen-qualitaet und substandard Treiber fuer genau 5 Jahre jetzt sind mir genug um mehr als nur Zweifel zu haben.

Sagt Dir das Wort Zweifel vielleicht was?

Habe ich das behauptet, es ist nur Aufgrund deiner verstocktheit und Unfähigkeit zu diskutieren nicht möglich mit dir eben dieses zu tun...

Wer hat gesagt dass ich um jeden Preis mit Dir diskuttieren will? Ich wurde indirekt provoziert und ich schreie nur aus dem Wald heraus wie Du rein geschrien hast. Ich wollte nur sehen wie weit der Nervenkitzel mit so manchen Fanboys gehen kann, wenn man wirklich die Katze aus dem Sack laesst. Bis jetzt ist alle so wie erwartet. Schoen nicht?

Kindergarten zweite Starße links...

Muss ich drauf jetzt noch reagieren? Wenn's schon Sarkasmus sein muss dann sollte zumindest ein bisschen Geist dazu kommen, sonst ist es langweilig.

Eben...dumm ist nur wer dummes tut.

*yawn* siehe oben...

Ach ja, ich bin also auf Sandkasten Niveau...

Ist das ein Eingestaendnis? :D

Werbung und Warheit...MUHAHAHA...komm mal in die Realität, ein weiteres Null Argument, was nur zeigt, wie haltlos deine Behauptungen sind.

Es handelt sich nicht um eine TV-Werbung fuer Zahnpasta oder Waschmittel sondern von rohen Spezifikationen eines Stueck Silizium's. Meine Argumente sind so haltlos dass wenn ich morgen ein Auto kaufe und in den technischen Daten drin steht dass es sich um einen 6-Zylinder Motor mit 150PS handelt, aber ich spaeter herausfinde dass es nur ein 4-Zylinder mit 100PS letztendes ist, dass es nur "Werbung" war und ich nicht alles ernst nehmen muss. Etwa so in dem Sinn.

Den restlichen Kinderkram hab ich mal abgeschnitten.

Ach Du liebst den Kinderkram doch, seh es endlich ein. Sonst wuerdest Du nicht hier hocken und vergebens versuchen mit als kompletten Idioten hizustellen. *winkedy wink*

Noch ein letztes mal : Ich bewerte den Chip erst dann wenn ich erste unabhängige Tests sehe, das solltest du auch tun.

Nichts dagegen. Ich erwarte trotzdem nichts sehenswertes, darf ich das, darf ich das? ;D

Kleines Zitat von 3dChip : Da uns noch keine Leistungsvergleiche vorliegen, 3DChips aber Interesse bekundet hat, Grafikkarten von XGI ebenfalls in das Testprogramm aufzunehmen, ist ein "Vergleich auf dem Papier" vorerst noch sinnlos.

Na entschuldige dass ich trotzdem mit nur 4xAA (von jeglicher Abart) und PS/VS2.0 nicht gerade vom Hocker falle. Ich bin eben leider mal verdammt anspruchsvoll und ich bezahl auch gutes Geld dafuer.

aths
2003-09-19, 16:19:11
Original geschrieben von Gast
Habe ich das behauptet, es ist nur Aufgrund deiner verstocktheit und Unfähigkeit zu diskutieren nicht möglich mit dir eben dieses zu tun... Mit Ailuros kann man nicht nur sehr gut diskutieren, man kann sogar was von ihm lernen. Er gehört zu den bestinformierten Leuten im Forum, die ich kenne.

DrumDub
2003-09-19, 16:27:38
Original geschrieben von aths
Mit Ailuros kann man nicht nur sehr gut diskutieren, man kann sogar was von ihm lernen. Er gehört zu den bestinformierten Leuten im Forum, die ich kenne.

jupp. und er bemüht sich sehr neutral zu sein, was man nicht von vielen hier im forum (da schließ ich mich ein ;D) behaupten kann.

Tesseract
2003-09-19, 16:31:25
Original geschrieben von ShadowXX
(Ich weiss was jetzt kommt: '...die waren von vorherein als Multi-Chip geplant"....und darauf Antworte ich: '...dann wussten Sie also von Anfang an das Sie sonst nicht Konkurenzfähig wären....')

das kann aber andere gründe auch haben

müssten nicht 2 60M (mio. transistoren) chips billiger sein als ein einziger mit 120M weil das yield besser ist?
ausserdem kann man mit 2 chips auch einfacher "beschneiden"(sprich: einen weglassen) als am chip zu deaktivieren weil dann auch jede menge intakte transen mit verbaut werden die nie verwendet werden (siehe radeon 9500 - riesen chip wo sehr viel brach liegt)

bitte nicht flamen das is nur eine überlegung :D

DrumDub
2003-09-19, 16:52:34
Original geschrieben von Tesseract
das kann aber andere gründe auch haben

müssten nicht 2 60M (mio. transistoren) chips billiger sein als ein einziger mit 120M weil das yield besser ist?
ausserdem kann man mit 2 chips auch einfacher "beschneiden"(sprich: einen weglassen) als am chip zu deaktivieren weil dann auch jede menge intakte transen mit verbaut werden die nie verwendet werden (siehe radeon 9500 - riesen chip wo sehr viel brach liegt)

bitte nicht flamen das is nur eine überlegung :D

nein. multichip ist eigentlich immer schlechter. zumindest was die kosten angeht. demirug (oder wars zeckensack?) hatte dazu mal in nem thread was geschrieben, aber leider find ich das jetzt auf die schnell ohne die suchfunktion nicht. deshalb bin ich auch sehr skeptisch, was die hier diskutierte noch zu erscheinende graka angeht.

wobei multichip schon geil aussieht. ;)

Ailuros
2003-09-19, 17:33:58
Ich muss mich wohl fuer die Schmeicheleien bedanken ja? Merci.


müssten nicht 2 60M (mio. transistoren) chips billiger sein als ein einziger mit 120M weil das yield besser ist?

Anfangs hoert sich dass so an, aber es ist nicht so leicht. Man braucht normalerweise einen bridge chip der extra entwickelt werden muss fuer AGP Funktionalitaeten, und die chips muessen von Anfang an fuer parallelisierung ausgelegt sein, dass es ueberhaupt erstmal moeglich ist. Auch hier kommt extra R&D drauf, denn die zwei chips muessen sich auf die eine oder andere Art und Weise den Renderungsprozess fuer jeden Frame und auch die verfuegbaren Resourcen teilen (im Idealfall). Treiber entwicklung braucht auch noch extra Arbeit usw usw.

ausserdem kann man mit 2 chips auch einfacher "beschneiden"(sprich: einen weglassen) als am chip zu deaktivieren weil dann auch jede menge intakte transen mit verbaut werden die nie verwendet werden (siehe radeon 9500 - riesen chip wo sehr viel brach liegt)

Ich hab keine Ahnung ob ATI's Methode doch rentabel ist am Ende, es war auch das erste Mal dass eine solche benutzt wurde. Viele dachten dass nach der Vorstellung von der 9600PRO solche Methoden aufgegeben werden aber es wurde weitergemacht mit der 9800SE, was wohl Anzeige ist dass es genug chips gibt die die internen Qualitaets-test nicht durchstehen koennen, nur wenn man was bei denen abschaltet.

Man koennte hier endlos ueber die pro und kontras diskuttieren aber theoretisch gibt es immer ein Prozentual von 'schlechten' chips egal wie hoch die Transistoren-Anzahl selbst bei den theoretischen 60M chips die fuer multichip vorgesehen werden. ATI nutzt einfach so gut wie moeglich die "halb defekten" chips aus und verkauft sie trotzdem.


...deshalb bin ich auch sehr skeptisch, was die hier diskutierte noch zu erscheinende graka angeht.

Die groessten Probleme bisher mit multichip Loesungen war dass jeder chip seinen eigenen Speicher brauchte und dass das triangle setup zwischen der chips nicht geteilt wurde (ergo jeder chip renderte das gleiche Dreieck zweimal was eigentlich so doof ist wie es klingt).

Anscheinend jedoch hat XGI versucht diese Probleme zu uebergehen aber die Loesung macht mir hier groessere Sorgen als die obrigen Probleme. Es heisst dass duo boards gleichzeitig an unabhaengigen frames arbeiten will. Ueber diese sehr wichtige Kleinigkeit hab ich bis jetzt noch nichts gehoert, aber wer ein bisschen Ahnung von real time interactivity in Spielen hat, kann sich wohl vorstellen dass es hier auch kritisch werden kann. Der Teil der Architektur ist tatsaechlich noch offen zur Spekulation und ist auch der einzige Teil der meine Neugierde kitzelt.

Ailuros
2003-09-19, 17:46:17
Es hatte mal vor kurzer Zeit einen bloeden Geistesblitz ueber einen TBDR der an unterschiedlichen tiles zur gleichen Zeit arbeiten wuerde. Hier ist eine Antwort von einem Herrn der gute Erfahrung mit TBDR hat, aber nicht bei ImgTec arbeitet:

A frame N is rendered and stored in a buffer, then in frame n+1 only the tiles that are different would be written to the buffer and it would be rendered. While not necessarily impossible, I see several possible drawbacks to this approach.

First, would it not be necessarily to compare the frame n pixel-by-pixel to frame n+1 to determine what need to be updated? Maybe in a TBDR case you could calculate a checksum for each tile and then compare them instead of individual pixels, cutting the workload somewhat. Second, consider a scene in the FPS.

Let's say I slowly move the mouse and change my POV by 10 degrees. The whole translation takes a second (60 frames at 60 fps). Now, during the shift, frame-to-frame difference will be minimal...but not tile-to tile difference. Let's say the frame is broken into 800 tiles. Since each frame is singly different, the contents of each tile would be slightly different as well ( a black pixel that was in tile #145 is now in tile #245). You would still need to update every tile, because while the contents of the frame changed very little, the position of said contents would change, and thus the contents of every tile would change a well. The only feasible way to re-use already-rendered data would be to do pixel-by-pixel comparison, and then copy shifted pixels to the new position - doesn't exactly sound feasible.

However, there is another example. Let's say I am still playing this same fps, only this time the screen is divided into 16 tiles. I am standing perfectly still (and there is no movement whatsoever of the screen) and then fire a gun, which fits into tile 8. All I'd need to do would be to make 16 checksum comparisons retain 15 tiles and update tile number 7 with new data. It sounds plausible, until you hit on the key word compare. To compare two frames in determining what tiles should be updates implies that you need to well - calculate all the data for the n+1 frame - how else will you perform the comparison? And since you already have to do all the work, why not simply render n+1 instead of tacking the additional steps of doing tile-to-tile (or worse, pixel-to-pixel) comparison, selective over-writing and rendering?

Unless I am missing a huge part of the picture, I just don't see how creating two frame, comparing them and then writing only updated tiles to the frame buffer is better then just rendering the two frames, especially considering that example 1 shows that it is very likely you'll need to update every tile anyway.

DrumDub
2003-09-19, 18:04:55
Original geschrieben von Ailuros
Anfangs hoert sich dass so an, aber es ist nicht so leicht. Man braucht normalerweise einen bridge chip der extra entwickelt werden muss fuer AGP Funktionalitaeten, und die chips muessen von Anfang an fuer parallelisierung ausgelegt sein, dass es ueberhaupt erstmal moeglich ist. Auch hier kommt extra R&D drauf, denn die zwei chips muessen sich auf die eine oder andere Art und Weise den Renderungsprozess fuer jeden Frame und auch die verfuegbaren Resourcen teilen (im Idealfall). Treiber entwicklung braucht auch noch extra Arbeit usw usw.

jupp. darauf wollte ich hinaus. siehe auch 3dfx probleme mit der v5 6000. v5 5500 war ja auch nur pci 66 bzw. agp 2x obwohl der vsa100 ja agp 4x kann.

Ich hab keine Ahnung ob ATI's Methode doch rentabel ist am Ende, es war auch das erste Mal dass eine solche benutzt wurde. Viele dachten dass nach der Vorstellung von der 9600PRO solche Methoden aufgegeben werden aber es wurde weitergemacht mit der 9800SE, was wohl Anzeige ist dass es genug chips gibt die die internen Qualitaets-test nicht durchstehen koennen, nur wenn man was bei denen abschaltet.

Man koennte hier endlos ueber die pro und kontras diskuttieren aber theoretisch gibt es immer ein Prozentual von 'schlechten' chips egal wie hoch die Transistoren-Anzahl selbst bei den theoretischen 60M chips die fuer multichip vorgesehen werden. ATI nutzt einfach so gut wie moeglich die "halb defekten" chips aus und verkauft sie trotzdem.

das geht eben nur wegen der internen 4x2x1 verschaltung, die es afaik vorher noch nicht gab.

Die groessten Probleme bisher mit multichip Loesungen war dass jeder chip seinen eigenen Speicher brauchte und dass das triangle setup zwischen der chips nicht geteilt wurde (ergo jeder chip renderte das gleiche Dreieck zweimal was eigentlich so doof ist wie es klingt).

siehe v5.

Anscheinend jedoch hat XGI versucht diese Probleme zu uebergehen aber die Loesung macht mir hier groessere Sorgen als die obrigen Probleme. Es heisst dass duo boards gleichzeitig an unabhaengigen frames arbeiten will. Ueber diese sehr wichtige Kleinigkeit hab ich bis jetzt noch nichts gehoert, aber wer ein bisschen Ahnung von real time interactivity in Spielen hat, kann sich wohl vorstellen dass es hier auch kritisch werden kann. Der Teil der Architektur ist tatsaechlich noch offen zur Spekulation und ist auch der einzige Teil der meine Neugierde kitzelt.

hmm... das ist tatsächlich eine interessanter ansatz, aber ich kan mir auch nicht vorstellen, wie das technisch funktioniern soll, bei der heutigen komplexität der games.

zeckensack
2003-09-19, 18:08:04
Ailuros,
die ATI Rage Fury MAXX hatte so ein Verfahren. Nannte sich "AFR" für "alternate frame rendering" (duh!).
IMO eine ziemlich blöde Idee (eben wegen der zusätzlichen Latenz), da nehme ich lieber SLI, oder TLI. Am aller liebsten nehme ich aber single chip :)

Nochmal kurz wg Multichip: zweimal Packaging
doppelt soviele Leiterbahnen auf dem PCB (evtl mehr Layer = mehr Kosten)
doppelt soviel Platz (größeres PCB = ...)
man braucht mehr Speicher (worst case: doppelt so viel), und kann ihn eigentlich nicht nutzen. Texturen müssen idR auf beiden Speicherbänken gespiegelt werden. Bei HW-T&L/VS gilt das auch für Vertex Buffer
... es sei denn, nur der erste Chip macht aktiv T&L/VS und gibt die Transformierten Daten fix und fertig an den zweiten Chip weiter. Dabei sprechen wir bei DX9-Anforderungen von bis zu 268 Bytes pro Vertex, so ca 60 Millionen mal pro Sekunde ... also eher nicht.
Große Teile der Arbeit werden doppelt verrichtet. So ca alles bis auf den Pixel Shader. Das bedeutet de facto unnütz verballerte Energie (Strom => Wärme) und Transistoren.
edit: dieser Punkt gilt nicht für AFR-Techniken, sondern nur für SLI

Daten müssen zwischen den Chips ausgetauscht werden können. Insbesondere render to texture ist höllisch kompliziert (das gab's zu 3dfx-Zeiten noch nicht).
Last but not least:
Die Kühllösung und auch das Chip-Package und die Montage selbst müssen mechanisch viel präziser sein, weil das ganze auf zwei großen Chips plan aufliegen muß. Getrennte Kühllösungen können helfen, sind aber nicht wirklich billig, und je nach Leistungsaufnahme auch nicht sinnvoll machbar.

Demirug
2003-09-19, 18:32:39
Original geschrieben von DrumDub
hmm... das ist tatsächlich eine interessanter ansatz, aber ich kan mir auch nicht vorstellen, wie das technisch funktioniern soll, bei der heutigen komplexität der games.

AFR ist sogar das einfachste aller Multichip verfahren. Gehen wir von einer nicht CPU limitieren Situation aus. Wir teilen unseren AGP-Bereich für den Kommandobuffer in 2 teile auf und verbinden jeden Teil mit einem Chip. Die CPU beginnt nun die Daten für Frame 1 in den ersten Buffer zu übertragen welcher gleizeitig von GPU 1 bearbeitet wird. Da wir aber wie gesagt nicht CPU limitiert sind füllt die CPU schneller als die GPU entnehmen kann. Nachdem Frame 1 komplett ist macht die CPU sofort mit Frame 2 weiter welcher in den zweiten Bereich geschrieben wird und GPU 2 beginnt sofort mit der bearbeitung. Wir sind wie gesagt nicht CPU limitiert was bedeutet das GPU 1 immer noch an Frame 1 arbeitet und die CPU nun auf das beenden dieser arbeit warten muss. Ist GPU 1 dann fertig erklärt sie Frame 1 zu aktuellen Bild und die CPU füllt Buffer 1 wieder mit Daten für Frame 3. Dann heist es warten auf GPU 2 welche nachdem sie Frame 2 zum aktuellen Bild erklärt hat die CPU veranlasst die Daten von Frame 4 zu schicken. Und dann geht es immer so weiter.

Das verfahren bringt drei generelle Probleme mit sich.

1.Die CPU 2 Screen Zeit steigt an. (Darauf wollte wohl Ailuros hinaus)

2.Folgt einem Aufwendigen Frame ein einfacher Frame so kann es passieren das die GPU welchen diesen Frame gerendert hat noch vor der anderen fertig wird. In diesem Fall muss diese GPU eigentlich den nächsten Frame übernehmen. Aber selbst wenn man diesen Bruch im Chipswap berücksichtigt hat bekommt man das Problem wenn der nächste Frame auch so einfach ist das der andere Chip immer noch rechnte wenn der letzte Frame schon berechnet ist. Es gehen einem dann einfach die Backbuffer aus.

3. Der umgekehrte Fall: Ein Aufwendiger Frame folgt einem Einfachen kann genauso problematisch werden. In einem solchen Fall kann der einfache Frame schon fertig sein während die CPU noch den anderen Chip füttert. In diesem Fall müsste man dann allerdings von einer CPU limitierung sprechen die es wenn auch in etwas anderer Form beim Single Chip lösungen gibt.

Edit: ZBag war schneller

Demirug
2003-09-19, 18:40:59
Original geschrieben von zeckensack
Große Teile der Arbeit werden doppelt verrichtet. So ca alles bis auf den Pixel Shader. Das bedeutet de facto unnütz verballerte Energie (Strom => Wärme) und Transistoren.
edit: dieser Punkt gilt nicht für AFR-Techniken, sondern nur für SLI


Die verlorene Rechenleistung tut mir da viel mehr weh als der Strom und die Transitoren.

Tesseract
2003-09-19, 18:42:44
@zeckensack: da kann man ja noch etwas optimieren :D

zB ein chip auf jeder seite die gerade durch die platine durch daten austauschen, dann fallen die zusätzlichen layer weg

speicher könnten sich die beiden chips teilen ähnlich wie beim K8, also über den einen chip auf den anderen zugreifen
mit guter aufteilungslogik wird dann erreicht das jeder chip möglichst auf den eigenen speicher zugreift weil sonst die latenz steigt

dabei könnten sich die beiden GPUs noch die arbeit so aufteilen das engpässe auf einem zum anderen weitergegeben werden um eine höhere effizienz zu erreichen

aber das is wohl sowieso nicht zu realisieren bzw. nicht sinnvoll bzw. überhaupt totaler schwachsinn meinerseits ;)

stickedy
2003-09-19, 18:50:28
Naja, die Idee mit den gegenüberliegenden Chips auf einer Platinen hört sich interessant an! Wobei afaik die AGP-Spezifikation keinen Kühler o.ä. auf der Rückseite der Karten vorsieht, d.h. selbst wenn es Sinn machen würde, dies so zu bauen, würden die Karten gegen die AGP-Spezifikationen verstossen und es würde wohl bei einigen Mainboards zu Problemem kommen...

Tesseract
2003-09-19, 18:52:20
Original geschrieben von stickedy
Naja, die Idee mit den gegenüberliegenden Chips auf einer Platinen hört sich interessant an! Wobei afaik die AGP-Spezifikation keinen Kühler o.ä. auf der Rückseite der Karten vorsieht, d.h. selbst wenn es Sinn machen würde, dies so zu bauen, würden die Karten gegen die AGP-Spezifikationen verstossen und es würde wohl bei einigen Mainboards zu Problemem kommen...

der BTX standard und PCI express lassen grüßen ;D

im prinzip dürfte sich die kühlung dann aber nicht wesentlich von zB zalmans grakakühlungen unterscheiden

edit: ich hab da noch eine idee:
statt dem zweiten chip auf der anderen seite könnte man zB einen großen cache draufschnallen um den flaschenhals speicherbandbreite etwas zu erweitern

zeckensack
2003-09-19, 19:12:07
Original geschrieben von Tesseract
@zeckensack: da kann man ja noch etwas optimieren :D

zB ein chip auf jeder seite die gerade durch die platine durch daten austauschen, dann fallen die zusätzlichen layer weg

speicher könnten sich die beiden chips teilen ähnlich wie beim K8, also über den einen chip auf den anderen zugreifen
mit guter aufteilungslogik wird dann erreicht das jeder chip möglichst auf den eigenen speicher zugreift weil sonst die latenz steigt

dabei könnten sich die beiden GPUs noch die arbeit so aufteilen das engpässe auf einem zum anderen weitergegeben werden um eine höhere effizienz zu erreichen

aber das is wohl sowieso nicht zu realisieren bzw. nicht sinnvoll bzw. überhaupt totaler schwachsinn meinerseits ;) Wie gesagt, bei AFR-ähnlichen Verfahren entfällt ein Teil der Probleme. Dafür ist dann das AFR selbst ein ziemliches Problem :|

Wenn ich das richtig gelesen habe, dann handelt es sich bei Volari Duo nicht um den SLI-Ansatz (den ich oben primär beschrieben habe), sondern eben um AFR, oder etwas sehr nah verwandtes.

Zum Thema "dynamische Arbeitsteilung zwischen getrennten Chips" fällt mir auch nur wieder ein, daß man dafür sehr schnelle externe Busse braucht, und das im Chip-Inneren sehr viel einfacher wäre ;)

Tesseract
2003-09-19, 19:18:03
Original geschrieben von zeckensack
Zum Thema "dynamische Arbeitsteilung zwischen getrennten Chips" fällt mir auch nur wieder ein, daß man dafür sehr schnelle externe Busse braucht, und das im Chip-Inneren sehr viel einfacher wäre ;)

wie gesagt, durch die 2-seiten-technik könnte man den durchsatz ähnlich hoch ansetzen wie chipintern weil die leitungen ja nur "eine platinendicke" lang sind


die R300 und FX chips sind ja auch multichipfähig
was verwenden die für eine technik? wahrscheinlich auch AFR oder?

Demirug
2003-09-19, 19:35:51
Original geschrieben von Tesseract
die R300 und FX chips sind ja auch multichipfähig
was verwenden die für eine technik? wahrscheinlich auch AFR oder?

R300 benutzt TIL.

Bei den FXen habe ich bisher noch keine Multichip lösung gesehen.

Tesseract
2003-09-19, 19:42:58
Original geschrieben von Demirug
R300 benutzt TIL.

und wie funktioniert das?

Demirug
2003-09-19, 20:07:11
Original geschrieben von Tesseract
und wie funktioniert das?

Die ATI Implemetierung arbeitet wie folgt. Der gesamte Backbuffer wird in einzelne Tiles zerlegt. Diese Tiles werden nun den einzelnen Chips zugeteilt. Beim rendern gehen alle Aufträge an alle Chips und dieses berechnen auch alle sämtliche Verticen und Dreiecken. Beim Rasterisieren prüft aber nun jeder Chip ob die Pixel überhaupt in einer Tile liegen für die er zuständig ist falls nicht werden diese gleich verworfen. Dafür wird die Hir-Z Einheit benutzt. Am Ende werden dann die einzelnen Tiles zu einem Buffer zusammengefasst und ausgegeben.

Wie man das Render2Texture Problem gelösst hat ist aber nicht bekannt.

Tesseract
2003-09-19, 20:22:59
also im prinzip wie SLI nur mit anderer aufteilung des bildes oder?

Demirug
2003-09-19, 20:39:24
Original geschrieben von Tesseract
also im prinzip wie SLI nur mit anderer aufteilung des bildes oder?

Ja

Börk
2003-09-19, 21:13:20
Original geschrieben von Tesseract
edit: ich hab da noch eine idee:
statt dem zweiten chip auf der anderen seite könnte man zB einen großen cache draufschnallen um den flaschenhals speicherbandbreite etwas zu erweitern
Würde kaum was bringen weil:
1. Bei aktuellen Grakas eher die Füllrate als die Bandbreite der limitierende Faktor ist
2. Man nie einen groß genugen Texturecache auf eine so kleine Fläche kriegen würde. Und von anderem cache haben aktuelle Grakas genug.
Alternative wäre natürlich eDRAM möglich, dieser müsste dann aber schon 16 MB mind. groß sein, damit wenigstens der Z-Buffer reinpasst.
So Konzept wäre aber bei weitem zu unwirtschaftlich und auch nicht wirklich nötig, da man die benötigte Speicherbandbreite viel billiger über nen hohen Ram-Takt erreicht. Diese ganze Sache wurde aber schon X mal durchdiskutiert (NV40...) und jedes mal war man der Meinung, dass es nicht sinnvoll ist...

Radeonator
2003-09-19, 22:35:25
Original geschrieben von Ailuros
Wer hat gesagt dass ich um jeden Preis mit Dir diskuttieren will? Ich wurde indirekt provoziert und ich schreie nur aus dem Wald heraus wie Du rein geschrien hast. Ich wollte nur sehen wie weit der Nervenkitzel mit so manchen Fanboys gehen kann, wenn man wirklich die Katze aus dem Sack laesst. Bis jetzt ist alle so wie erwartet. Schoen nicht?
Muss ich drauf jetzt noch reagieren? Wenn's schon Sarkasmus sein muss dann sollte zumindest ein bisschen Geist dazu kommen, sonst ist es langweilig.
*yawn* siehe oben...

*schnipp*

http://www.fffc.de/modules/PNphpBB2/images/smiles/haha2.gif
Dieser arme Versuch dein Sinnloses geschreibsel als überlegenen Intellekt darzustellen, untemauert nur deine Hilflosigkeit, weiter so!!! Jetzt ist man also Fanboy von nur auf dem Papier existenten GPU´s ...ehm...ah ja ...immer das einfachste wenn einem nichts mehr einfällt, gelle ;)

Original geschrieben von Ailuros
Es handelt sich nicht um eine TV-Werbung fuer Zahnpasta oder Waschmittel sondern von rohen Spezifikationen eines Stueck Silizium's. Meine Argumente sind so haltlos dass wenn ich morgen ein Auto kaufe und in den technischen Daten drin steht dass es sich um einen 6-Zylinder Motor mit 150PS handelt, aber ich spaeter herausfinde dass es nur ein 4-Zylinder mit 100PS letztendes ist, dass es nur "Werbung" war und ich nicht alles ernst nehmen muss. Etwa so in dem Sinn.


Und noch ein Beweis deiner Sinnfreien Argumentation :
Schau dir bitte mal die PR von Nvidia, Matrox und ATi an.
Ich weiss es ist schwer für dich aber : Werbung soll einen Kunden dazu bringen das vorgestellte Produkt zu Konsumieren.

Hint : Autos können auch keinen LKW durch schnelles Vorbeifahren auf 200Klamotten beschleunigen (Audi), Schokolade macht nicht schlank weil sie leicht schmeckt (Joghurette), durch einnahme eine Getränkes kann man nicht fliegen (RedBull)...etc ;)

Original geschrieben von Ailuros
Ach Du liebst den Kinderkram doch, seh es endlich ein. Sonst wuerdest Du nicht hier hocken und vergebens versuchen mit als kompletten Idioten hizustellen. *winkedy wink*


Dafür sorgst du schon selber, da brauch ich rein gar nichts machen...

Original geschrieben von Ailuros
Nichts dagegen. Ich erwarte trotzdem nichts sehenswertes, darf ich das, darf ich das? ;D


Natürlich, wer solls dir verbieten. Du solltest jedoch lernen eine Erwartungshaltung nicht mit vermeindlichen Argumenten zu verwechseln...

Original geschrieben von Ailuros
Na entschuldige dass ich trotzdem mit nur 4xAA (von jeglicher Abart) und PS/VS2.0 nicht gerade vom Hocker falle. Ich bin eben leider mal verdammt anspruchsvoll und ich bezahl auch gutes Geld dafuer.

Endlich ein absolut vernünftiger Absatz!!! GEHT DOCH !!!

Crushinator
2003-09-19, 23:07:44
Original geschrieben von Radeonator
Dieser arme Versuch dein Sinnloses geschreibsel als überlegenen Intellekt darzustellen, untemauert nur deine Hilflosigkeit, weiter so!!! Jetzt ist man also Fanboy von nur auf dem Papier existenten GPU´s ...ehm...ah ja ...immer das einfachste wenn einem nichts mehr einfällt, gelle ;) (...) Falls es Dir noch keiner gesagt hat: Dein Gesprächspartner ist Dir z.Z. nicht nur argumentativ überlegen, sondern auch was Diskussionsfähigkeit angeht. ;)

StefanV
2003-09-19, 23:12:47
@Radeonator

Ich würd an deiner Stelle mal davon ausgehen, daß Ailuros mehr Infos über den Volari hat, als wir alle zusammen in diesem Forum...

Auch würde ich, als außenstehender, eher dazu tendieren, Ailuros meinen Glauben zu schenken, rate mal warum...

aths
2003-09-20, 00:50:51
Radeonator,

ich würde doch sehr um einen gemäßigteren Tonfall bitten.


SP,

Ailuros ist über zukünftige HW meistens, aber nicht immer besser informiert als der Rest. Das ist hier aber auch gar nicht sooo wichtig. Er hat jahrelange Erfahrung bezüglich Ankündigungen und tatsächlichem Produkt, quer über alle möglichen Firmen, und gehört zu jenen, die nicht immer einen Sieg für ihre Lieblingsfirma sehen, sondern kann ziemlich neutrale Bewertungen vornehmen.

Radeonator
2003-09-20, 02:29:31
@ATHS : Ich werde meinen Ton nicht mässigen , da Ailuros auf dieser Basis angefangen hat, du urteilstseit ein wenig sehr einseitig!Zudem wird die Karte auf der vor. auf Computex , das Licht der Welt erblicken. Ich weiss zwar net was Ailuros beruflich macht, aber ich glaube kaum das er exklusiv von allen GPU Herstellern einen Sample vor allen anderen erhält...

@SP : Ich rufe zur Neutralität auf und du schreibst ich würde Ailuros glauben... ehm was bitteschön glauben ???

@ Crush: Ich hab das Gefühl du weisst gar nicht was eine Diskussion ist. Deshalb für dich : Es geht nicht darum irgendjemand zu "besiegen", sondern man nimmt Pro und Kontra und versucht auf ein "ergo conclusio" zu kommen. Wenn also eine Partei ständig, ohne wirkliche Grundlage, daß immer gleiche Wiederholt, handelt es sich, obwohl es sich um eine Vielzahl von eben diesen Wiederholungen handelt, noch immer nicht um ein Argument. Erst wenn man seine Aussage faktisch belegen kann ist dies der Fall...
Letztendlich hat Ailuros aber das von ihm zuvor geschriebene revidiert, da er es als eine Annahme bezeichnete.

Ailuros
2003-09-20, 03:57:36
Dieser arme Versuch dein Sinnloses geschreibsel als überlegenen Intellekt darzustellen, untemauert nur deine Hilflosigkeit, weiter so!!!

Hab ich persoenlich nicht behauptet; schon die Tatsache dass Du es selber erwaehnst deutet eher auf ein Charlie Brown Syndrom.

Jetzt ist man also Fanboy von nur auf dem Papier existenten GPU´s ...ehm...ah ja ...immer das einfachste wenn einem nichts mehr einfällt, gelle

Nein es war eine indirekte Anspielung auf Meinungen der Vergangenheit die Xabre betrafen.

Seite5 von Dir selber:

Also mit den Xabre Treibern gibts eigentlich kaum Probs. Bleibt mal aktuell und kommt aus dem jahr 1800 ins heute...

Das gleiche geseiere musste ATi auch über sich ergehen lassen ( und komischerweise liefen die Karten auch alle ohne Probs bei mir, vielleicht sollten einige hier mal den Rechner vernünftig aufsetzen lassen ) und hat allen den Mund per Catalyst gestopft.


Und noch ein Beweis deiner Sinnfreien Argumentation :
Schau dir bitte mal die PR von Nvidia, Matrox und ATi an.
Ich weiss es ist schwer für dich aber : Werbung soll einen Kunden dazu bringen das vorgestellte Produkt zu Konsumieren.

Zeig mir wenigstens ein oeffentliches Dokument von allen diesen, die klar falsche Spezifikationen angeben.

Dafür sorgst du schon selber, da brauch ich rein gar nichts machen...

tsk tsk tsk ;)

Endlich ein absolut vernünftiger Absatz!!! GEHT DOCH !!!

Och ich koennte noch mehr dazufuegen um die Langeweile zu retten, aber es wuerde den Spass verderben.

@ATHS : Ich werde meinen Ton nicht mässigen , da Ailuros auf dieser Basis angefangen hat, du urteilstseit ein wenig sehr einseitig!Zudem wird die Karte auf der vor. auf Computex , das Licht der Welt erblicken.

Seite7 dieses Threads:

@ Stickedy : Vergiss es...diese Sturrköpfe fühlen sich halt nur wohl wenn sie bashen können, einen Versuch der Objektivität, können und wollen sie offensichtlich nicht starten. Vor allem wissen Sie alles Vorher, kennen zudem sogar die Komplette Architektur (XabreII) und untermauern ihr gebashe mit unhaltbaren Vermutungen, die Sie dann als Fakten darstellen, echt Supi ...wie gesagt : Was der Bauer nicht kennt...

Wie schon gesagt es war klar wer damit primaer gemeint war und ich hab auch dementsprechend geantwortet.

Ich weiss zwar net was Ailuros beruflich macht, aber ich glaube kaum das er exklusiv von allen GPU Herstellern einen Sample vor allen anderen erhält...

Mein Beruf ist irrelevant. Was den Rest betrifft kommt es auf den IHV an und ob ich erst mal danach frage. Nicht immer bekomm ich eine positive Antwort, aber es gab schon mehrere Faelle in der Vergangenheit wo ich reference board bekam. Wenn nicht, reicht eine einfache e-mail an Entwickler A oder B oder sogar Site reviewer der gerade etwas unter die Lupe nimmt, mit ein paar Fragen wie X oder Y aussieht.

Die besagte Quelle fuer den Fall von XGI stammt von jemand der bei einer sehr grossen Software-Firma arbeitet.

Letztendlich hat Ailuros aber das von ihm zuvor geschriebene revidiert, da er es als eine Annahme bezeichnete.

Ich hab nachgefragt und da kam nichts positives zurueck, obwohl keine Details angegeben wurden. Mehr sag ich nicht dazu.

Crushinator
2003-09-20, 04:27:53
Original geschrieben von Radeonator
(...)
@ Crush: Ich hab das Gefühl du weisst gar nicht was eine Diskussion ist. Aha, das ist zugegebenermaßen argumentativ dermaßen untermauert, daß ich ab sofort ohne Zweifel davon ausgehe, daß Du mich besser kennst als ich mich selbst. :eyes:
Deshalb für dich : Es geht nicht darum irgendjemand zu "besiegen", sondern man nimmt Pro und Kontra und versucht auf ein "ergo conclusio" zu kommen. Sehr interessant das, Du meinst man sollte bei einer "Diskussion" auf ...
Original geschrieben von Radeonator
Dieser arme Versuch dein Sinnloses geschreibsel als überlegenen Intellekt darzustellen, untemauert nur deine Hilflosigkeit, weiter so!!! ... verzichten? Ja, da stimme ich Dir voll und ganz zu. *eg*
Wenn also eine Partei ständig, ohne wirkliche Grundlage, daß immer gleiche Wiederholt, handelt es sich, obwohl es sich um eine Vielzahl von eben diesen Wiederholungen handelt, noch immer nicht um ein Argument. *einrahmundfürdiesignaturaufbewahr*
Erst wenn man seine Aussage faktisch belegen kann ist dies der Fall...Letztendlich hat Ailuros aber das von ihm zuvor geschriebene revidiert, da er es als eine Annahme bezeichnete. Ich befürchte leider, daß Du in letzter Zeit zuviel annimmst, aber laß Dich nicht stören, nur weiter so, denn wer interessiert sich schon für die Meinung von jemandem, der nicht weiß was eine Diskussion ist.

aths
2003-09-20, 05:01:17
Original geschrieben von Radeonator
@ATHS : Ich werde meinen Ton nicht mässigen , da Ailuros auf dieser Basis angefangen hat, du urteilstseit ein wenig sehr einseitig!Nö, ich lese hier neutral mit.
Original geschrieben von Radeonator
@ Crush: Ich hab das Gefühl du weisst gar nicht was eine Diskussion ist.Ich fürchte dass du nicht weißt, wie die Gepflogenheiten bei uns sind. Gelbe Karte.

Ailuros
2003-09-20, 05:35:53
Zum Thema "dynamische Arbeitsteilung zwischen getrennten Chips" fällt mir auch nur wieder ein, daß man dafür sehr schnelle externe Busse braucht, und das im Chip-Inneren sehr viel einfacher wäre.

Zeckensack,

Hmmm wie waere es mit verschiedener interner und externer Busbreite? (nein ich mein jetzt nicht edram)

Demirug
2003-09-20, 09:21:32
Original geschrieben von Ailuros
Zeckensack,

Hmmm wie waere es mit verschiedener interner und externer Busbreite? (nein ich mein jetzt nicht edram)

Viele verschiedene Bandbreiten hat man ja heute schon im innere eines Chips.

StefanV
2003-09-20, 11:10:57
Original geschrieben von Radeonator
@ATHS : Ich werde meinen Ton nicht mässigen , da Ailuros auf dieser Basis angefangen hat, du urteilstseit ein wenig sehr einseitig!Zudem wird die Karte auf der vor. auf Computex , das Licht der Welt erblicken. Ich weiss zwar net was Ailuros beruflich macht, aber ich glaube kaum das er exklusiv von allen GPU Herstellern einen Sample vor allen anderen erhält...

@SP : Ich rufe zur Neutralität auf und du schreibst ich würde Ailuros glauben... ehm was bitteschön glauben ???

1. *autsch*
Da hast du dir eben selbst ans Bein gepinkelt und dir 3 Punkte verpasst!!
Du solltest öfter Threads im 'über 3DCenter Forum' lesen, denn dann wüsstest du, daß das ignorieren bzw 'anmachen' eines Mods in moderierender Funktion mit 3 Punkten bestraft wird...

Diese maßnahmen wurden eingeführt, weil die Moderatoren in moderierender Funktion allzuoft ignoriert wurden...

2. das einzige, was du hier machst, ist Ailuros anfronten und SIS schönzureden.
Ailuros hat seine nur Skepsis über die Volari Serie geäuert, dazu hat er vermutlich mehr Erfahrungen im PC Bereich als z.B. ich...

Ich tendiere auch eher dazu Ailuros zuzustimmen, zum einen, weil er einen besseren tonfall als du hast zum anderen weil die Geschichte eher auf seiner Seite ist...
Außerdem neigen die Asiaten hin und wieder zu Übertreibungen, siehe Trident oder VIA mit dem KT600...

Ailuros
2003-09-20, 12:52:39
Original geschrieben von Demirug
Viele verschiedene Bandbreiten hat man ja heute schon im innere eines Chips.

Schon seit Matrox G400 oder irre ich mich da? Ich meinte eher etwas momentan noch nicht realisierbares, wie den einen Teil der Busbreite auf 512bits zu steigern.

zeckensack
2003-09-20, 13:05:55
Original geschrieben von Ailuros
Schon seit Matrox G400 oder irre ich mich da? Ich meinte eher etwas momentan noch nicht realisierbares, wie den einen Teil der Busbreite auf 512bits zu steigern. Es gibt Teile im Chip-Inneren, die noch viel breitere Pfade brauchen.
Mal so als kleinen Anfang, Rasterizer => 'Combiner':
Man nehme zwei Sätze Texturkoordinaten (2D), 1/w (für LOD-Bestimmung und Perspektivkorrektur der Texturlookups), und Farbe.
Macht fünf floats + 4 Bytes=24 Bytes (konservativ gerechnet, nur für diesen speziellen Fall).
Das ist die Datenmenge, die pro Pixel vom Rasterizer/Z-Check zum Backend muß.
Bei 4 Pipes sind das 96 Bytes pro Takt (etwa im Falle NV25).
Und das ist das Minimum das man braucht, um das Backend überhaupt auslasten zu können.


Textursampler:
Wieder NV25, 8 Samples pro Takt=32 Bytes pro Takt in Richtung Combiner, 8*4 floats=128 Byte pro Takt vom Rasterizer zu den Samplern.

8*4*4=128 Byte pro Takt vom Texturcache (bi-Samples).

etc


Ganz besonders heftig wird's im Vertex-Bereich.

Demirug
2003-09-20, 13:35:00
zbag das setzt aber vorraus das der NV25 noch im Rasterbereich interpoliert und nicht wie der NV30 im Pixelbereich.

zeckensack
2003-09-20, 13:51:52
Original geschrieben von Demirug
zbag das setzt aber vorraus das der NV25 noch im Rasterbereich interpoliert und nicht wie der NV30 im Pixelbereich. ???
Ja, ich bin davon ausgegangen daß der Rasterizer die Interpolation macht. Das ist doch der Grund für die Quads ...

Interpolation in der Pixelpipeline erscheint mir auch etwas ... nun ja ... dämlich :D

Demirug
2003-09-20, 14:02:21
Original geschrieben von zeckensack
???
Ja, ich bin davon ausgegangen daß der Rasterizer die Interpolation macht. Das ist doch der Grund für die Quads ...

SIMD ist der Grund für Quads.

Interpolation in der Pixelpipeline erscheint mir auch etwas ... nun ja ... dämlich :D

Warum? Für mich macht es durchaus Sinn arbeit solange hinauszuzögern bis man sie wirklich tun muss. Zudem braucht man weniger Platz wenn man nicht die Interpolierten Werte irgendwo speichert sondern nur die Daten für die Plane.

zeckensack
2003-09-20, 14:32:15
Original geschrieben von Demirug
SIMD ist der Grund für Quads.



Warum? Für mich macht es durchaus Sinn arbeit solange hinauszuzögern bis man sie wirklich tun muss. Zudem braucht man weniger Platz wenn man nicht die Interpolierten Werte irgendwo speichert sondern nur die Daten für die Plane. SIMD ist variabel auslegbar, das ist also wohl kein Grund für Quads (natürlich spricht es auch nicht dagegen).

Ich bezweifle allerdings, daß die fertig interpolierten Daten größer sein können, als die Daten aus denen sie erzeugt werden. So weit ich das mitbekommen habe, wird in den Interpolatoren nur mit Basis+Addition gearbeitet.

Demirug
2003-09-20, 15:21:32
Original geschrieben von zeckensack
SIMD ist variabel auslegbar, das ist also wohl kein Grund für Quads (natürlich spricht es auch nicht dagegen).

Ein festes SIMD ist aber günstiger.

Ich bezweifle allerdings, daß die fertig interpolierten Daten größer sein können, als die Daten aus denen sie erzeugt werden. So weit ich das mitbekommen habe, wird in den Interpolatoren nur mit Basis+Addition gearbeitet.

Bemühen wir die Mathematik:

Zum Berechnen eines Wertes brauchen wir Base, DeltaX und DeltaY. Also 3 Werte. Erzeugen wir daraus die 4 Werte für 4 Pixel bei bedarf haben wir die Speichermenge auf 75% reduziert. Wenn ich mich recht erinnere sind die NV25 Chips auf 16 oder mehr Pixel pro Dreieck optimiert. Da die Daten für die Plane sich ja nur pro Dreieck ändern braucht man sie auch nur auf diesem Level zu speichern. Wenn meine 16 Pixel richtig sind gibt es für jeweils 4 Quads eine Speicherzelle dafür. Damit wären wir bei einer weiteren Einsparungen. Anstelle von 16 Werten müssen wir nur noch 3 speichern.

In Verbindung mit PS 3.0 wird das ganze noch interesanter weil man ja unter umständen gar nicht mehr alle Werte wirklich braucht.

zeckensack
2003-09-20, 15:58:27
Original geschrieben von Demirug
Ein festes SIMD ist aber günstiger.Ja, ich meinte auch eher "variabel beim Design" und nicht "variabel zur Laufzeit" :)


Bemühen wir die Mathematik:

Zum Berechnen eines Wertes brauchen wir Base, DeltaX und DeltaY. Also 3 Werte. Erzeugen wir daraus die 4 Werte für 4 Pixel bei bedarf haben wir die Speichermenge auf 75% reduziert. Wenn ich mich recht erinnere sind die NV25 Chips auf 16 oder mehr Pixel pro Dreieck optimiert. Da die Daten für die Plane sich ja nur pro Dreieck ändern braucht man sie auch nur auf diesem Level zu speichern. Wenn meine 16 Pixel richtig sind gibt es für jeweils 4 Quads eine Speicherzelle dafür. Damit wären wir bei einer weiteren Einsparungen. Anstelle von 16 Werten müssen wir nur noch 3 speichern.Das leuchtet auch alles ein, aber die interpolierten Daten müssen doch in die Pipelines gedrückt werden, und das am besten gleichzeitig. Ab da sind die Wege wieder getrennt.
Was du beschreibst, ist sinnvoll für Trisetup und Rasterizer, aber doch nicht als Aufgabe innerhalb der Pixel-Bearbeitung ???
Das würde ja bedeuten, daß diese selbst noch die Gleichung auflösen müsste, woraus sich wieder der gleiche (breitere) Datenpfad ergibt, nur eben etwas später. Irgendwie kann ich den Vorteil nicht erkennen :|
In Verbindung mit PS 3.0 wird das ganze noch interesanter weil man ja unter umständen gar nicht mehr alle Werte wirklich braucht. "Dynamisches flow control auf SIMD ist eine Illusion" <- ich, heute, nagel mich bei Gelgenheit darauf fest ;)

Demirug
2003-09-20, 16:12:26
Original geschrieben von zeckensack
Das leuchtet auch alles ein, aber die interpolierten Daten müssen doch in die Pipelines gedrückt werden, und das am besten gleichzeitig. Ab da sind die Wege wieder getrennt.
Was du beschreibst, ist sinnvoll für Trisetup und Rasterizer, aber doch nicht als Aufgabe innerhalb der Pixel-Bearbeitung ???
Das würde ja bedeuten, daß diese selbst noch die Gleichung auflösen müsste, woraus sich wieder der gleiche (breitere) Datenpfad ergibt, nur eben etwas später. Irgendwie kann ich den Vorteil nicht erkennen :|

Die Interpolierten Werten können nur als Eingangsdaten für die ALU/FPU dienen. Dort braucht man sowieso eine Crossbar. Wenn man an diese Crossbar nur direkt die Interpolatoren hängt muss man diese Werte nicht durch die Pipeline drücken. Man erzeugt die Werte unmittelbar wenn man sie braucht. Vor den Interpolatoren muss dann noch eine Crossbar welche die richtige Ebene auswählt und das wars. IMHO ist das die Variante die mit dem minimalsten Aufwand an Transitoren.

"Dynamisches flow control auf SIMD ist eine Illusion" <- ich, heute, nagel mich bei Gelgenheit darauf fest ;)

Da brauche ich dich nicht darauf festzunageln weil ich das ähnlich sehe.

Gast
2003-09-20, 20:33:58
Original geschrieben von Stefan Payne
1. *autsch*
Da hast du dir eben selbst ans Bein gepinkelt und dir 3 Punkte verpasst!!
Du solltest öfter Threads im 'über 3DCenter Forum' lesen, denn dann wüsstest du, daß das ignorieren bzw 'anmachen' eines Mods in moderierender Funktion mit 3 Punkten bestraft wird...


Mal OT,

ab wievielen Punkten verliert man den hier seinen Führerschein...

StefanV
2003-09-20, 20:39:51
Original geschrieben von Gast
Mal OT,

ab wievielen Punkten verliert man den hier seinen Führerschein...

über 10 und unter 20 *eg*

Gasts
2003-09-20, 22:16:28
Warum sind Sie alle anti-XGI????

Volari ist nur die erste Produkte aus XGI...

Haben Sie schon vergessen, dass ATI damals schlechte Treibern für die Rage Pro series hat???

Gast
2003-09-20, 22:17:26
Haben Sie alle die ATI Quack fiasco so schon vergessen?
Das war nicht besser als SiS Texturbo.

Aquaschaf
2003-09-20, 22:19:23
so ganz vergleichbar ist das nicht.

Gast
2003-09-20, 22:20:21
Das "hoppla" Gefuehl bekam ich natuerlich nachdem ich die Spezifikationen von DeltaChrome sah, aber das Ding haette schon Anfang dieses Jahres verfuegbar sein sollen.


Hast du vergessen, dass Deltachrome nur FSAA 2x supersampling hat???

Videologic/PowerVR: Fundamental verschiedene rendering Methode von Anfang an, was sie meistens zu exotischen Paradiesvoegeln schon von Anfang an machte. Erste Produkte waren mit einigen API Kompatibilitaetsproblemen geplagt und im PC Bereich wurde auch nur alle paar Jahre mal ein mainstream Produkt veroeffentlicht. Enormes Aufsehen erregte damals als PVR dem Marktleader 3dfx den Sega Dreamcast deal aus der Hand schnappte, aber die Console erleidete leider einen schnellen und unwuerdigen Tot. Dann war's wieder Still bis man ein bisschen Interesse mit der KYRO und um einiges mehr KYROII erweckte. Die meisten API Probleme waren zwar geloest aber es fehlten so einige Industrie-Standard Funktionalitaeten die man nicht haette auslassen sollen. Seit mehr als 2 Jahren ist da tote Hose und die kassieren momentan fett mit dem PDA/mobile chip MBX ein.[/QUOTE]

PowerVR hat geschläft seit 1999...

Gast
2003-09-20, 22:24:09
Anti-hype wohl eher hm? Primaerer Grund: ungenaue Spezifikationen. Gibt es wenigstens einen Grund zum luegen?

Du bist ein Hypokrit.
PowerVR Series 5 hat AUCH ungenaue Spezifikationen, aber du sagst immer, dass PowerVR so toll ist...

Crushinator
2003-09-20, 22:40:40
Original geschrieben von Gasts
Warum sind Sie alle anti-XGI???? Das ist hier vermutlich Keiner ernsthaft. Wir (ich lese eher) diskutieren gerade darüber, ob die angekündigten Produkte den etablierten Größen überhaupt das Wasser reichen könnten, und ob die bisher bekannten Details nur Marketingshype sind (wie teilweise bei den beiden großen) oder es sich dabei endlich mal um was richtig cooles handelt. *hoff*
Volari ist nur die erste Produkte aus XGI... ...und darauf warten wir schon seit... ;)
Haben Sie schon vergessen, dass ATI damals schlechte Treibern für die Rage Pro series hat??? Ja, das haben wir vegessen, weil seit dem mehr als 4 Jahre vergangen sind und der RagePro in relativ kurzer Zeit durch die Rage 128 ersetzt wurde, genau so wie das "Quack Fiasco" nach 4 Wochen aus dem Treiber gebannt wurde. Aber das ist jetzt völlig egal, denn wir erinnern uns gerne jederzeit wieder daran. :D

TheGast
2003-09-21, 05:56:55
:lol: Is ja Lustig, dieser Ailuros verliert nen Schreibfight und tut dann so als ob er extra so nen schlunz geschrieben hätte. Danach kommen noch ein paar Leuchten und checken nicht mal, dass das nur eine Ausflucht ist. :bonk:

Wartets doch bis dienstag, dann wissts mehr und habts überhaupt mal etwas zum schreiben (mit- und vor allem gegen einander , wie immer ;) )

mfg

TheGast

Radeonator
2003-09-21, 06:36:03
Original geschrieben von Stefan Payne
1. *autsch*
Da hast du dir eben selbst ans Bein gepinkelt und dir 3 Punkte verpasst!!
Du solltest öfter Threads im 'über 3DCenter Forum' lesen, denn dann wüsstest du, daß das ignorieren bzw 'anmachen' eines Mods in moderierender Funktion mit 3 Punkten bestraft wird...

Diese maßnahmen wurden eingeführt, weil die Moderatoren in moderierender Funktion allzuoft ignoriert wurden...


Mir egal, wenn es nun gang und gebe werden soll Schützenhilfe für seine persönlichen ForumFavs zu geben, nehme ich die Strafpunkte gerne in kauf.

Original geschrieben von Stefan Payne
2. das einzige, was du hier machst, ist Ailuros anfronten und SIS schönzureden.
Ailuros hat seine nur Skepsis über die Volari Serie geäuert, dazu hat er vermutlich mehr Erfahrungen im PC Bereich als z.B. ich...


Zeige mir bitte wo ich SiS bzw XGI schön rede ??? Ich schrieb lediglich, das man nichts bewerten kann wo nichts zu bewerten ist. Zudem finde ich es lächerlich, hier plötzlich einen Aufstand zu machen, weil eine Firma Werbung für ihr Produkt macht. Andere Firmen übertrieben(übertreiben) da schon weit mehr und da wurde (wird) auch nicht rumgeheult.

Original geschrieben von Stefan Payne
Ich tendiere auch eher dazu Ailuros zuzustimmen, zum einen, weil er einen besseren tonfall als du hast zum anderen weil die Geschichte eher auf seiner Seite ist...


Sehen andere anders, schau mal wieviele hier dem gebashe verständnislos gegenüber standen. Zudem ist Herr A. ab Seite 7 persönlich geworden (ich schrieb zuvor ein Posting Plural, hatte eine Zusammenfassung der ersten Seiten damit gemeint und niemanden Primär), woraufhin ich mich verteidigte und immer wieder versuchte darauf hinzuweisen, dass es nicht möglich ist ein Stück Papier zu benchen und das PR immer übertrieben ist.Wie immer werden diese Inhalte einfach überlesen, damit feinfein geflamed werden kann.

Original geschrieben von Stefan Payne
Außerdem neigen die Asiaten hin und wieder zu Übertreibungen, siehe Trident oder VIA mit dem KT600...


Nicht nur Asiaten auch US-Amerikaner und gerade letzere neigen dazu ;)

Naja, morgen beginnt die Computex und dort soll u.a. die Volari vorgestellt werden, danach sind wir alle schlauer.
ComputexSite (http://www.computextaipei.com.tw/)

*gespanntbin :)

Ailuros
2003-09-21, 10:05:18
Original geschrieben von Gast
Du bist ein Hypokrit.
PowerVR Series 5 hat AUCH ungenaue Spezifikationen, aber du sagst immer, dass PowerVR so toll ist...

Volari Spezifikationen sind veroeffentlicht und melden hoehere Spezis, weil fuer Series5 noch nichts veroeffentlicht wurde. Du kannst mir ja gerne zeigen wo es schon specs dafuer gibt.

Ein Hypokrit werde ich erst wenn ich PowerVR ohne Kritik gehen lasse, wenn sie auch falsche Spezifikationen in der Zukunft angeben werden.

Ailuros
2003-09-21, 10:07:11
Original geschrieben von Gast
Hast du vergessen, dass Deltachrome nur FSAA 2x supersampling hat???

Videologic/PowerVR: Fundamental verschiedene rendering Methode von Anfang an, was sie meistens zu exotischen Paradiesvoegeln schon von Anfang an machte. Erste Produkte waren mit einigen API Kompatibilitaetsproblemen geplagt und im PC Bereich wurde auch nur alle paar Jahre mal ein mainstream Produkt veroeffentlicht. Enormes Aufsehen erregte damals als PVR dem Marktleader 3dfx den Sega Dreamcast deal aus der Hand schnappte, aber die Console erleidete leider einen schnellen und unwuerdigen Tot. Dann war's wieder Still bis man ein bisschen Interesse mit der KYRO und um einiges mehr KYROII erweckte. Die meisten API Probleme waren zwar geloest aber es fehlten so einige Industrie-Standard Funktionalitaeten die man nicht haette auslassen sollen. Seit mehr als 2 Jahren ist da tote Hose und die kassieren momentan fett mit dem PDA/mobile chip MBX ein.

PowerVR hat geschläft seit 1999... [/QUOTE]

Und es steht auch nichts anderes drin in dem quote von mir. Oder hast Du dich verlesen?

***edit: zu dem Zeitpunkt als ich den Post schrieb, war der Tech-Report Artikel noch nicht veroeffentlicht. Relevante Reaktion im Thread hier (nach dem Techreport Artikel):

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=94775

Ailuros
2003-09-21, 10:08:37
Original geschrieben von TheGast
:lol: Is ja Lustig, dieser Ailuros verliert nen Schreibfight und tut dann so als ob er extra so nen schlunz geschrieben hätte. Danach kommen noch ein paar Leuchten und checken nicht mal, dass das nur eine Ausflucht ist. :bonk:

Wartets doch bis dienstag, dann wissts mehr und habts überhaupt mal etwas zum schreiben (mit- und vor allem gegen einander , wie immer ;) )

mfg

TheGast

Get a life :D

Ailuros
2003-09-21, 10:24:23
Mir egal, wenn es nun gang und gebe werden soll Schützenhilfe für seine persönlichen ForumFavs zu geben, nehme ich die Strafpunkte gerne in kauf.

Das ist im besten Fall ein Witz. Ich hab mit aths auch schon etwas geheizte Debatten gehabt und da haette er eher Grund auf die andere Seite der Waage zu setzen. Forum-Favourites von wegen. Ich hab weder fuer Hilfe beantragt (weder offiziell oder inoffiziell) noch habe ich solche eigentlich noetig. Es waere mir auch lieber gewesen wenn er sich nicht auf die eine Seite gestellt haette und einfach eine Warnung gepostet haette dass beide erstmal mit dem Mist aufhoeren.

Andere Firmen übertrieben(übertreiben) da schon weit mehr und da wurde (wird) auch nicht rumgeheult.

Wenn man nur waehlerisch liest dann kann man zu solchen Schlussvolgerungen kommen. Kein einziger IHV bleibt bei mir immun von Kritik von etwas aehnliches vorkommt und diejenigen die mich kennen wissen es auch. Ich hab mich genauso stark gegen die NV30- 8 zixel pipelines gewehrt, obwohl NVIDIA eigentlich nie eine klare Aussage machte wieviele pipelines sie haben und es wurde immer um den Brei geredet wenn gefragt. Dabei hinterliesen die zwielichtigen Antworten von NV den Eindruck bei manchen dass es sich doch um 8 pipes handelt, was aber genauso streng konfrontiert wurde.

Zudem ist Herr A. ab Seite 7 persönlich geworden (ich schrieb zuvor ein Posting Plural, hatte eine Zusammenfassung der ersten Seiten damit gemeint und niemanden Primär), woraufhin ich mich verteidigte und immer wieder versuchte darauf hinzuweisen, dass es nicht möglich ist ein Stück Papier zu benchen und das PR immer übertrieben ist.Wie immer werden diese Inhalte einfach überlesen, damit feinfein geflamed werden kann.

Mit dem Unterschied dass es unmoeglich ist sich von dem besagten "Plural" nicht betroffen zu fuehlen wenn man als einziger so lautstark mehr als nur einen Zweifel ausdrueckt. Andere halten lieber ihre Klappe weil sie keine Lust haben mit aehnlichem Quatsch konfrontiert zu werden, ich hingegen hab leider keine Angst meine Meinung klipp und klar auszusprechen. Ob diese dann falsch ist wird sich tatsaechlich mit der Zeit zeigen.

StefanV
2003-09-21, 12:08:14
Original geschrieben von Radeonator
Mir egal, wenn es nun gang und gebe werden soll Schützenhilfe für seine persönlichen ForumFavs zu geben, nehme ich die Strafpunkte gerne in kauf.

Dann wünsch ich dir schonmal viel Spaß beim Bann und beim Hausverbot, welches ja 'richterlich' angedroht wird...


Original geschrieben von Radeonator
Zeige mir bitte wo ich SiS bzw XGI schön rede ??? Ich schrieb lediglich, das man nichts bewerten kann wo nichts zu bewerten ist. Zudem finde ich es lächerlich, hier plötzlich einen Aufstand zu machen, weil eine Firma Werbung für ihr Produkt macht. Andere Firmen übertrieben(übertreiben) da schon weit mehr und da wurde (wird) auch nicht rumgeheult.

Öhm, darüber sollte man eigentlich fallen :eyes:
Sind ja recht viele in diesem Thread.

Außerdem solltest du dir mal die Infos zu den SIS Chips durchlesen, da sind einige Fehler drin...

Original geschrieben von Radeonator
Sehen andere anders, schau mal wieviele hier dem gebashe verständnislos gegenüber standen. Zudem ist Herr A. ab Seite 7 persönlich geworden (ich schrieb zuvor ein Posting Plural, hatte eine Zusammenfassung der ersten Seiten damit gemeint und niemanden Primär), woraufhin ich mich verteidigte und immer wieder versuchte darauf hinzuweisen, dass es nicht möglich ist ein Stück Papier zu benchen und das PR immer übertrieben ist.Wie immer werden diese Inhalte einfach überlesen, damit feinfein geflamed werden kann.

Jaja, immer schön die Schuld auf andere schieben, was??
Ich würde mal vorschlagen, daß du dir den Thread nochmal von vorne durchlies und mal darüber nachdenkst, was du hier geschrieben hast...

Mit den Beleidigungen dürftest du deutlich vor Ailuros führen...
Original geschrieben von Radeonator
Nicht nur Asiaten auch US-Amerikaner und gerade letzere neigen dazu ;)

Tja, nur anscheinend neigen die Asiaten dazu besonders stark...
Dafür wirst du auch kaum einen Asiaten finden, der Fehler eingesteht, denn Fehler = versagen, was auch der Grund ist, warum VIA den 686B Bug nicht offen zugegeben haben -> sie hätten in Asien ihr Gesicht verloren...

Aber von uns dürfte wohl kaum einer die Asiaten verstehen :eyes:

Original geschrieben von Radeonator
Naja, morgen beginnt die Computex und dort soll u.a. die Volari vorgestellt werden, danach sind wir alle schlauer.
ComputexSite (http://www.computextaipei.com.tw/)

*gespanntbin :)

Schlauer sind wir erst, wenn hier einige neutralere die Schüssel im Rechner haben, nicht eher...

Gast
2003-09-21, 14:39:37
PowerVR hatte auch schlechten Treibern

Anandtech :

The second thing to point out is that it was in Mercedes-Benz Truck Racing that we experienced some driver problems with the Kyro II. During the benchmark, we noticed textures that were supposed to be invisible actually appearing in some frames during playback. Looks like the Kyro II still needs some driver work.

http://images.anandtech.com/reviews/video/Kyro2/messed1_sm.jpg

Finally, at 1600x1200x32, the Kyro II remains near the bottom of the charts. Still beating out the Radeon SDR as well as the Voodoo5 5500, the Kyro II could be limited by its broken drivers. Let's hope STMicroelectronics can fix this problem in the near future. Although the visual abnormalities were only noticed in this benchmark, it is possible that other games may be effected by the improper rendering.

StefanV
2003-09-21, 14:44:34
Original geschrieben von Gast
PowerVR hatte auch schlechten Treibern

Anandtech :
Bestreitet ja auch keiner...

Nur MBTR als Beispiel anzuführen ist 'etwas schwach', da MBTR mit so ziemlich allen Probleme hatte...

Radeonator
2003-09-21, 20:07:18
@Ailuros : Du hast geschrieben das XGI dir eine Antwort gab, welche eher negativ ausgefallen ist. Bedeutet das negativ = ohne wirklichen Inhalt oder eher eine Bestätigung dessen, was du dir gedacht hattest ???

Ailuros
2003-09-22, 05:12:04
Original geschrieben von Radeonator
@Ailuros : Du hast geschrieben das XGI dir eine Antwort gab, welche eher negativ ausgefallen ist. Bedeutet das negativ = ohne wirklichen Inhalt oder eher eine Bestätigung dessen, was du dir gedacht hattest ???

Nein die Antwort kam von einer Software Firma die so klein ist dass sie Dir Dein OS liefert. Was und wie das heissen kann, ueberlass des jedem Phantasie.

Und wenn Du schon fragst meine Fragen waren eher positiv ausgerichtet und die Antwort begann mit: "Don't get your hopes too high..."

Ist das klar genug?

Ailuros
2003-09-22, 05:51:41
Original geschrieben von Gast
PowerVR hatte auch schlechten Treibern

Anandtech :

Das Spiel sucht nach einem Z-buffer um es zu vereinfachen. Anand wusste nicht zur Zeit dass man den externen Z-buffer haette einstellen sollen im Treiber fuer's Spiel um die rendering errors zu umgehen.

In dem Fall handelt es sich um eine Hardwaren Affaere in relativem Sinn und nicht um die Treiber. Heutzutage ist KYRO weit entfernt von dem was ich brauchbar nennen koennte, aber bei der Xabre600 in den Review hier sah es auch nicht gerade blendend aus:

http://www.mitrax.de/review.php?id=11

Und es wundert mich auch kein bisschen dass NV25 absolut fehlerfrei in dem Review ankommt, mit knappem zweiten eine 9500, was Kompatibiliaet betrifft. Solche "Kleinigkeiten" muessen die "Kleinen" zum Vorrang nehmen wenn sie mit den beiden Grossen konkurrieren wollen und nein PowerVR ist hier auch keine Ausnahme. Im Falle der KYRO2, ist es dann eher der fehlende cube map support und keine T&L Einheit (siehe weiter unten).

-----------------------------------

Jetzt mal ein bisschen OT:

Normalerweise erwaehne ich selten Namen aus prinzipiellen Gruenden ueberhaupt wenn erwaehnte Personen nicht da sind um ein Gegenwort zu haben, also sollte man das hier als Ausnahme ansehen.

KYRO2 erschien im Fruehling 2001 und obwohl ich froh war dass wenigstens ein low end TBDR wieder erscheint war ich ueber die Idee einer hoeher getakteten KYRO nicht gerade verrueckt. Mir war bewusst dass Serie4 schon marktreif war auf 15nm, ~166MHz, 4 pipelines, DDR und T&L aber besagte STG5000 wurde von ST Micro gestrichen weil sie entfanden dass Kyro2@175MHz ein besseres Preis/Leistungs-Verhaeltnis haben wuerde. Kurzsichtiger bullshit und ich hab auch damals genauso lautstark dagegen protestiert. Ich kaufte das Ding und setzte es in ein zweites System ein, wobei das andere eine CLAPS2 hatte (nur mein Freund Sharkfood weiss wohl fuer was der acronym stand LOL).

Bei B3D gabs gleich nach der Veroeffentlichung eine noch hitzigere Debatte ueber K2 vs GF2, wo ein gewisser Herr names HypermanDCX mich als NVIDIOT und Hornochse bezeichnete (unter anderen kosmetischen Benennungen) weil ich ihm klarzusetzen versuchte dass eine K2 nicht eine GTS ueberrent in allen Situationen und man die letztere nur als GF2MX Konkurrenz ansehen sollte. Fuer derartigen Quatsch waren natuerlich auch sites wie Anand die K2 unter viel zu optimalen Konditionen gebencht haben unter anderen verantwortlich. Hyperman wurde kurze Zeit spaeter durch noch schlimmere Angriffe in anderen Faellen von B3D gebannt was eigentlich eine Seltenheit dort drueben ist.

Hyperman wusste natuerlich dass ich persoenlich nichts damit zu tun hatte, also hatte ich ihn schnell in einem Forum das ich moderierte. Gott sei Dank war es genug seinen hitzigen Character mit einer hoeflichen Verweisung (privat) und keinen Ban loszuwerden. Unter welchem Handle er heute erscheint wissen nur wenige, sagen brauch ich es auch nicht.

Und wenn ich schon dabei bin Hyperman ist und war nicht der einzige Fall von pathologischen "NV-Hassern"; wer frueher mal die Delphi boards besuchte und den Namen Ultron sah weiss vielleicht was und wen ich hier meine. Aus rein historischen Gruenden bin ich ueber 10 Jahre aktiv auf messageboards, wobei der Username zuerst auf den alten 3dfx-messageboards als "ailuros21" erschien. Da kamen auch die meisten online "Freundschaften" an, als erste mit Chris Stevens der dort moderierte und auch teilweise fuer die boards verantwortlich war. Die Liste wurde laenger und viele dieser Leute haben sich auf mehrere IHVs oder andere Firmen verteilt.

Einen eigentlichen Grund zu dem Klein-Roman gibt es eigentlich nicht, aber meine "Pingelligkeit" kommt oft auch nicht ohne Konsequenzen. Im Herbst 2001 brachte mir ein Verwandter ein reference board von einer sehr bekannten Karte, die ich nach ein paar Runden von Spielen zurueckgab und es als Hardware-Virus im besten Fall bezeichnete, was mich wohl effektiv in "Ungnade" mit dem IHV (in relativem Sinn) brachte. Morgen kann es genauso gut ImgTec oder jeglicher andere sein. Ich hab keine Interessen und auch keine Aktien in keinem der IHVs und die Freiheit meiner Meinung und meine Integritaet ist mir viel zu kostbar; als einfacher Benutzer/Gamer hab ich diesen Luxus dann zu meckern wenn mir was nicht gefaellt.

Und glaubt mir eine Sache: fuer ihre Fehler sich zu entschuldigen machen sehr wenige dort draussen. Falls es eine Moeglichkeit geben sollte dass ich hier falsch liege, werde ich auch mein Versprechen einhalten und es wird auch nicht das erste Mal sein.

My 2000 cents :P

***edit:

Und um es auch auf eine gewisse Balance zu schieben: wenn es zur Serie5 kommt, hab ich auch jetzt schon so manche Bedenken fuer einzelne Teile der Architektur, die rein relativ zu Design-Entscheidungen sind. Mir ist lieber wenn man Transistoren anderswo verschwendet als an Funktionalitaeten die wahre und universale Brauchbarkeit erst wahrscheinlich in 2005 finden werden.

Ailuros
2003-09-22, 06:05:33
Original geschrieben von Stefan Payne
Bestreitet ja auch keiner...

Nur MBTR als Beispiel anzuführen ist 'etwas schwach', da MBTR mit so ziemlich allen Probleme hatte...

Auf GF3 bei Vorstellung verschwanden ganze Teile der Szene in MBTR; wurde aber in folgenden Treibern korrigiert.

Radeonator
2003-09-22, 08:34:30
Klingt ja net wirklich gut :(

In dem Review auf Mitrax sieht man deutlich wie unbrauchbar und schlecht das gelogene 4xFSAA auf der Xabre ist, grottig!!!

Überraschend ist immer wieder die GF4, die selbst mit 2xFSAA noch gut mithalten kann.

Gast
2003-09-22, 13:11:41
ocworkbench has published some pics of the real cards and 3dmark03 scores:

http://www.ocworkbench.com/ocwb/ultimatebb.php?ubb=get_topic;f=39;t=000013
http://www.ocworkbench.com/ocwb/ultimatebb.php?ubb=get_topic;f=39;t=000015
http://www.ocworkbench.com/ocwb/ultimatebb.php?ubb=get_topic;f=39;t=000014

Volari Duo V8 Ultra got 5618 3dmarks with P4 3.2G, 8KNXP Intel 875, 2 x 256M DDR400.


aus dem Beyond3D-Forum. Es gibt also bereits Karten für Reviews. Da kann es ja nicht mehr lange dauern, bis wir die ersten Artikel sehen. Hätte nie gedacht, das es soo schnell geht. Schaun wir mal.

Gast
2003-09-22, 13:15:48
Original geschrieben von Gast
aus dem Beyond3D-Forum. Es gibt also bereits Karten für Reviews. Da kann es ja nicht mehr lange dauern, bis wir die ersten Artikel sehen. Hätte nie gedacht, das es soo schnell geht. Schaun wir mal.

Ouch, da hab ich mich wohl verguckt. Die Photos wurden auf der Computex 2003 aufgenommen.

Ailuros
2003-09-22, 13:42:28
Original geschrieben von Radeonator
Klingt ja net wirklich gut :(

In dem Review auf Mitrax sieht man deutlich wie unbrauchbar und schlecht das gelogene 4xFSAA auf der Xabre ist, grottig!!!

Überraschend ist immer wieder die GF4, die selbst mit 2xFSAA noch gut mithalten kann.

http://www.3dcenter.de/artikel/2002/10-20_a.php

2x Multisampling auf NV25 ist in relativem Sinn Fuellraten frei.

Radeonator
2003-09-22, 13:43:07
Jo, nicht schlecht soweit...aber ZWEI STROMANSCHLÜSSE!!!
Wieviel Power saugt dieses Teil wohl ???

ShadowXX
2003-09-22, 13:59:54
Original geschrieben von Radeonator
Jo, nicht schlecht soweit...aber ZWEI STROMANSCHLÜSSE!!!
Wieviel Power saugt dieses Teil wohl ???

Was daran ist nicht schlecht...das man tatsächlich Grafikkarten sehen kann aud denen der Chip sitzt oder beziehst du das auf die Bench-Resultate??

Falls auf letzteres:
Sind genaus repräsentativ/aussagekräftig wie die HL2-Benches...eigentlich mit noch weniger Aussagekraft, da die Messungen wohl nur von XGI-Leuten getätigt wurde....

J.S.Shadow

Ailuros
2003-09-22, 14:17:03
Original geschrieben von Radeonator
Jo, nicht schlecht soweit...aber ZWEI STROMANSCHLÜSSE!!!
Wieviel Power saugt dieses Teil wohl ???

Wieviel saugt eine 9600PRO? Ich wuerde sagen dass bei multichip es zumindest zweimal so hoch sein muesste.

MadManniMan
2003-09-22, 14:17:40
Original geschrieben von ShadowXX
Was daran ist nicht schlecht...das man tatsächlich Grafikkarten sehen kann aud denen der Chip sitzt oder beziehst du das auf die Bench-Resultate??

Falls auf letzteres:
Sind genaus repräsentativ/aussagekräftig wie die HL2-Benches...eigentlich mit noch weniger Aussagekraft, da die Messungen wohl nur von XGI-Leuten getätigt wurde....

J.S.Shadow

:| da hast du ihn glaub ich vollkommen misverstanden!

Es ging ihm wohl eher darum, daß der V8 Duo mit zwei Plattenanschlüssen zur Stromversorgung daherkommt. Und da wir von FX5800/5900 und R300+ wissen, daß das aus einer verdammich hohen Leistungsaufnahme resultiert... Prost Mahlzeit!

MadManniMan
2003-09-22, 14:18:30
Original geschrieben von Ailuros
Wieviel saugt eine 9600PRO? Ich wuerde sagen dass bei multichip es zumindest zweimal so hoch sein muesste.

IIRC warens irgendwas roundabout 26W bei Hochkonjuktur.

Radeonator
2003-09-22, 14:21:53
Naja, die Benchmurks sind eher net so wichtig, man weiss halt nicht unter welchen Bedingungen ( wie vergleichbar ist die IQ zu den ATi/NV Karten etc.) diese entstanden sind.

Ich meinte eher das es lauffähige Karten gibt!

Ailuros
2003-09-22, 14:41:05
Original geschrieben von MadManniMan
IIRC warens irgendwas roundabout 26W bei Hochkonjuktur.

Klingt mir viel zu wenig; bist Du sicher?

Bei 50-55W waere es fraglich ob ueberhaupt nur ein floppy connector notwendig waere.

ShadowXX
2003-09-22, 14:44:47
Original geschrieben von Radeonator
Naja, die Benchmurks sind eher net so wichtig, man weiss halt nicht unter welchen Bedingungen ( wie vergleichbar ist die IQ zu den ATi/NV Karten etc.) diese entstanden sind.

Ich meinte eher das es lauffähige Karten gibt!

Dann entschuldige....

Das es jetzt schon tatsächlich lauffähige GraKas gibt hat mich auch positiv überrascht....
Das mit den zwei Stromanschlüssen ist allerdings lustig....ich hoffe mal das man sich einen aussuchen darf;D

J.S.Shadow

P.S.
seeeeehr unzuverlässigern Grrüchten zufolge, hat XGI ein Technologie-Parnter-Abkommen mit Enermax abgeschlossen...die DuoV8 kommen in'D' als 'Kalkar²'-raus mit integrierten 800Watt Netzteil....

DrumDub
2003-09-22, 14:51:48
Original geschrieben von Ailuros
Klingt mir viel zu wenig; bist Du sicher?

Bei 50-55W waere es fraglich ob ueberhaupt nur ein floppy connector notwendig waere.

die 9600pro hat keinen externen stromanschluss.

Original geschrieben von ShadowXX
seeeeehr unzuverlässigern Grrüchten zufolge, hat XGI ein Technologie-Parnter-Abkommen mit Enermax abgeschlossen...die DuoV8 kommen in'D' als 'Kalkar²'-raus mit integrierten 800Watt Netzteil....

:lolaway:

Ailuros
2003-09-22, 14:54:35
Original geschrieben von DrumDub
die 9600pro hat keinen extrnen stromanhschluss.

Tatsaechlich....aechz ich brauch nen Kaffee :D

Schlecht zu vergleichen dann.

Gast
2003-09-22, 15:01:48
Original geschrieben von Ailuros
Zeig mir wenigstens ein oeffentliches Dokument von allen diesen, die klar falsche Spezifikationen angeben.


Bitte sehr: http://www.ati.com/products/radeon8500/radeon8500/features.html

Schau mal unter "best Visual Effects" den letzten Punkt an....

StefanV
2003-09-22, 15:04:36
Original geschrieben von Gast
Bitte sehr: http://www.ati.com/products/radeon8500/radeon8500/features.html

Schau mal unter "best Visual Effects" den letzten Punkt an....

...was wohl daran liegt, daß der R200 eigentlich mit 300MHz geplant war...

Solche Karten gibts tatsächlich, sind aber extrem selten...

Gast
2003-09-22, 15:06:57
Original geschrieben von Stefan Payne
...was wohl daran liegt, daß der R200 eigentlich mit 300MHz geplant war...

Solche Karten gibts tatsächlich, sind aber extrem selten...

Falsche Spec is falsche Spec, was geplant war is doch völlig wurst. Die hatten nun zwei Jahre Zeit von ihrer mißglückten Planwirtschaft auf das real exisitierende Produkt zu wechseln und die Seite anzupassen.

StefanV
2003-09-22, 15:11:46
Original geschrieben von Gast
Falsche Spec is falsche Spec, was geplant war is doch völlig wurst. Die hatten nun zwei Jahre Zeit von ihrer mißglückten Planwirtschaft auf das real exisitierende Produkt zu wechseln und die Seite anzupassen.

Der R200 ist also in der Lage das zu schaffen, da es ihn mit 'up to 300MHz Core Clock' gibt, wenn man es so betrachtet, ist diese Spec von ATI nicht direkt gelogen, DAS ist der Unterschiede...

MadManniMan
2003-09-22, 15:11:51
:lol:

...integriertes 800W Netzteil - Geil!

Zum RV350: tjo, der hat doch gar keinen HDD-Connector! Meine R95P dürfte auf Standardtakt gerade so in dem Bereich ziehen, den mein normaler AGP-Slot noch versorgen kann, aber mit 380/320...

:

Crushinator
2003-09-22, 15:20:33
Original geschrieben von Gast
Falsche Spec is falsche Spec, was geplant war is doch völlig wurst. Die hatten nun zwei Jahre Zeit von ihrer mißglückten Planwirtschaft auf das real exisitierende Produkt zu wechseln und die Seite anzupassen. Abgesehen davon, daß die 8500XT (http://www6.tomshardware.com/business/20020607/computex4-02.html) mit 300 MHz auch hierzulande nur kurze Zeit verkauft wurde...

Radeonator
2003-09-22, 15:25:40
Naja, das war wohl eher nen Witz mit dem Integriertem 800Watt Netzteil...

Aber angenommen man geht von 50W je GPU aus...


egal, abwarten!

Gast
2003-09-22, 16:01:22
blabla...

Die Spec steht auf der Seite von ATI und von denne hat's nie was höheres als 275MHz gegeben.

Also ist's gelogen111

Crushinator
2003-09-22, 16:08:43
Original geschrieben von Gast
(...)
Die Spec steht auf der Seite von ATI und von denne hat's nie was höheres als 275MHz gegeben. Doch und zwar von GIGABYTE zu einem exorbitant hohen Preis und zwar mit ViVo. Ich hätte mir damals beinahe eine geholt. :P

egdusp
2003-09-22, 16:11:43
Was mich wundert sind die 6 Speicherchips auf der Karte.

Andererseits hat der eine Chip Vielleicht 2 auf der Vorder- und 2 auf der Rückseite, während der andere 4 auf der Vorderseite hat.

mfg
egdusp

DrumDub
2003-09-22, 17:09:14
Original geschrieben von egdusp
Was mich wundert sind die 6 Speicherchips auf der Karte.

Andererseits hat der eine Chip Vielleicht 2 auf der Vorder- und 2 auf der Rückseite, während der andere 4 auf der Vorderseite hat.

mfg
egdusp

wieso 6? ich zähl hier acht: http://www.ocworkbench.com/ocwb/ultimatebb.php?ubb=get_topic;f=39;t=000013

Konne
2003-09-22, 17:39:25
vielleicht hat er die 2 Speicher-Chips übersehen, die von der Schrift fast ganz überdeckt sind?

Gaestle
2003-09-22, 17:51:35
5618 3D03 Marks@P4-2,8GHz

http://www.ocworkbench.com/ocwb/ultimatebb.php?ubb=get_topic;f=39;t=000015




und hier wird bei einigen Features von der
"4th generation" gesprochen:

http://www.ocworkbench.com/ocwb/ultimatebb.php?ubb=get_topic;f=39;t=000014

Worauf könnten sich die "Generationen" beziehen?


Grüße
---
Rock and Roll aint noise pollution...

Gast
2003-09-22, 17:51:39
Original geschrieben von crushinator
Doch und zwar von GIGABYTE zu einem exorbitant hohen Preis und zwar mit ViVo. Ich hätte mir damals beinahe eine geholt. :P

selber :P


Gigabyte ist nicht ATi...

Gaestle
2003-09-22, 17:52:47
Sorry, war auf einem p4 mit 3,2GHz

Grüße
---
Rock and Roll aint noise pollution...

egdusp
2003-09-22, 17:54:04
Original geschrieben von DrumDub
wieso 6? ich zähl hier acht: http://www.ocworkbench.com/ocwb/ultimatebb.php?ubb=get_topic;f=39;t=000013

Hast recht, die Schrift hat die 2 unteren verdeckt.

mfg
egdusp

Gast
2003-09-22, 17:55:26
Original geschrieben von DrumDub
wieso 6? ich zähl hier acht: http://www.ocworkbench.com/ocwb/ultimatebb.php?ubb=get_topic;f=39;t=000013

ich zähle je zwei externe Stromanschlüsse...

Gast
2003-09-22, 17:57:13
Original geschrieben von Gast
ich zähle je zwei externe Stromanschlüsse...


*räusper*
wie ungefähr 80 Leute vor mir auch....

DrumDub
2003-09-22, 17:59:28
Original geschrieben von egdusp
Hast recht, die Schrift hat die 2 unteren verdeckt.

mfg
egdusp

6 wär sonst auch irgendwie unlogisch. ;)

Original geschrieben von Gast
ich zähle je zwei externe Stromanschlüsse...

tatsächlich? ich auch. aber was hat das mit der fragestellung zu tun?

Ailuros
2003-09-22, 20:24:37
Original geschrieben von Gast
Falsche Spec is falsche Spec, was geplant war is doch völlig wurst. Die hatten nun zwei Jahre Zeit von ihrer mißglückten Planwirtschaft auf das real exisitierende Produkt zu wechseln und die Seite anzupassen.

Wie schon gesagt kann man die Taktrate umd 10% leicht erhoehen unter normalen Bedingungen. Wie lange hast Du danach suchen muessen?

Alles wenn Du schon so heiss danach bist, dann bemuehe Dich wenigstens ein bisschen mehr; es gibt einen fundamentalen Unterschied zwischen Takrate und rendering pipelines. Taktrate kann man erhoehen, nur leider kannst Du keine extra pipes dazuschrauben oder?

***edit: ihr koennt gerne den Thread hier unendlich durchkaemmen, anstatt Euch auf wichtigere Sachen zu konzentrieren wie z.B. die Einzelheiten ueber die Volari's.

LovesuckZ
2003-09-22, 20:50:22
LOL, 2 Stromanschluesse.

Radeonator
2003-09-22, 23:48:03
Das sollen nun ja Apetizer sein, die zukünftige Vertreiber locken sollen...wer beist an ?

Also bei der Xabre war es ja ne ziemliche Palette die angebissen hatte.

Gigabyte, Asus, PowerColor, Triplex, Palit, Abit, Aliuros, ECS, Soltek, Apollo, Chaintech, Inno3D...etc.

Sind einige Abgesprungen aber viele geblieben. Wenn diese Vertreiber wieder gewonnen werden, schauts gut aus...

Es gibt übrgiens eine neue Site VolariGamers (http://www.volarigamers.com/modules/news/) und ja ist von den XabreGamers Jungs ins Leben gerufen worden...
Dort finden sich einige interessante Bilder !!!

http://www.volarigamers.com/pic/v/computex.JPG

Wenn das mal nicht nach Fertigungs reifen Karten ausschaut ;)

stickedy
2003-09-23, 00:03:49
Wesentlich interessanter finde ich, dass XGI schon min. 2 Partner hat: Und zwar PowerColor und Gigabyte!

Wobei PowerColor nach eigenem Bekunden der größte Hersteller von ATI-Grafikkarten ist und sich mit Gigabyte ja immerhin ein namhafter Hersteller gefunden hat. DAS verwundert mich wirklich. Was kann XGI bieten, was ATI nicht bietet?

Übern Preis soll es ja angeblich nicht gehen und ich denke mal Gigabyte und PowerColor haben sich von der Qualität der Chips/Treiber überzeugt bevor sie Verträge unterschrieben *grübel*

BlueRaven
2003-09-23, 01:31:27
es scheint ja das XGI so richtig ernst meint mit ihren Grafikkarten und einen frontal angriff auf Nvidia & ATI wagt.

Ich bin am überlegen ob ich mir net auch eine hole wenn die leistung natürlich stimmt ansonsten kommt es nicht in mein Rechner rein.

Omnicron
2003-09-23, 01:39:33
Hier das Statement von Volarigamers ist interessant :

"The full range of graphics chips will become available in November in quantity through its growing add-in partners which currently include Power Color and Gigabyte. Right now XGI are still working on beta 2 silicon and perfecting their drivers for optimal performance and compatibility. Pricing is expected to match nVidia and ATi on all levels, ranging from $99 US to $499 US"

Also nach den Preisen zu gehen wollen sie doch auch den Highendmarkt angreifen.

BlueRaven
2003-09-23, 01:44:45
Ich hoffe das es stimmt, dann haben wir noch einen Grafikchip hersteller in der runde und es wird dann wenigsten net so langweilig und einseitig was jetzt zurzeit ist z.B nur ATI & Nvidia im Gamer Bereich.



MFG
BlueRaven