PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Gammachrome S18 Review by X-bit Labs


misterh
2005-04-20, 20:15:13
grade mal von gestern

http://www.xbitlabs.com/articles/video/display/s3-gammachrome-s18-2.html

ich schau mir auch grade an.

Quasar
2005-04-20, 20:45:37
Vorbehaltlich des Vorserienstatus: Schade, hätte was werden können. Aber theoretisch nur auf X600-Niveau und praktisch eher auf X300-Niveau zu sein, dafür ist die Karte zu spät.
Ein vergleichbares System mit dem DC wäre interessant gewesen.

So reicht's eventuell, um XGI von der Erringung der Marktführerschaft (darf man das F-Wort am 20.4. schreiben?) abzuhalten.

robbitop
2005-04-20, 22:54:43
Ist ja auch nur die Pro Version. Ultra (450/450) und Nitro (500/450) wird es noch geben.

edit: zumindist im 3DM03 ist es in sämtlichen Gametests schneller als mein Deltachrome S8. Und das trotz 400/350 Taktung des S18.

Wechselbalg
2005-04-20, 23:21:37
Aber auch wenn noch mehr Takt kommt, so wäre es wünschenswert gewesen, wenn die Leistung pro Takt (schon) stimmen würde. So muss man sehen was Treiber und finale Revision noch rausholen können und ob man da zumindest in dem Preissegment überzeugen kann.

Odal
2005-04-21, 00:06:18
woaaaa was is denn das für ne gurke? was soll das gute stück denn mal kosten? unter 50€?

RyoHazuki
2005-04-21, 01:28:33
Also, das ganze sieht so aus:

Durch die Design Verbesserung erwarte ich etwa

- 5 % Leistungsgewinn

Durch den "deutlich Höheren" Takt der Ultra erwarte ich etwa

- 20 % Leistungsgewinn
(Xbit Modell: 350/350, Ultra Modell: 500/450)

Und der Treiber ist das "erste" Release für den GammaChrome überhaupt

- bis zu 50 % Leistungsgewinn

Also meiner meinung nach, wird sich der S18 Ultra zwischen X600 Pro und GF 6600 quetschen.

Der S19 (Ultra?) dann irgendwo bei 6600 GT, vielleicht (optimistisch gesehen) auch bei niedriger Taktenden 6800 er. (Eher Unwahrscheinlich)

Jedenfalls ist das Potential "ENORM" wenn es durch Treiber ausgereitzt wird.

mapel110
2005-04-21, 01:40:25
Also ich bin da pessimistischer. Das wird nix attraktives. Zumindest nicht für 100 € oder wie viel das Teil kosten soll.

Adam D.
2005-04-21, 06:22:58
Och man, sehr schade ;( Ich hatte so gehofft, dass der S18 endlich mal 'ne günstige Alternative zu ATi und Nvidia ist. War wohl nur ein Traum...

SKYNET
2005-04-21, 06:26:04
Also ich bin da pessimistischer. Das wird nix attraktives. Zumindest nicht für 100 € oder wie viel das Teil kosten soll.


stimmt, da es ja schon 6600GT für 130€ gibbet.
der preisbrecher überhaupt. :cool:

q@w
2005-04-21, 08:15:47
Das stimmt. Wenn sich der Preis demnächst etabliert und nicht nur eine befristete Sonderaktion ist, wird der so ziemlich allem über 64Bit-Entry-Level den Absatz kaputtmachen, denn der Leistungsgewinn, den man von bsw. 80-90 EUR Karten zur 6600GT bekommt, ist schon nicht schlecht.
Special-Interest-Kunden jetzt mal aussen vor gelassen.

Shink
2005-04-21, 08:47:49
Ich finde es schon einmal nicht schlecht, wie die Pixelshadereffizienz im Vergleich zur Deltachrome verbessert wurde. Die Füllrateneffizienz sieht auch schon mal nicht schlecht aus... Für unter 100€ würd ich das Teil durchaus kaufen (wenn ich meine Radeon 9700Pro nicht hätte - so wirds sicher nix).
Wann soll denn nochmal die Version mit 8 Pipelines rauskommen?

ShadowXX
2005-04-21, 09:23:14
Ist ja auch nur die Pro Version. Ultra (450/450) und Nitro (500/450) wird es noch geben.

edit: zumindist im 3DM03 ist es in sämtlichen Gametests schneller als mein Deltachrome S8. Und das trotz 400/350 Taktung des S18.

Wenn diese dann wirklich noch kommen werden.....wenn man ganz an den Anfang des Artikel guckt, wird von XBit-Labs vermutet, das Sie scheinbar Probleme mit dem Chip haben (genauer gesagt, Probleme den Chip auf höhere Frequenzen zu hieven).


The GammaChrome appears to be a complex device, with numerous small elements scattered all around its deep-blue PCB. Like the GeForce 6600 GT, the GammaChrome has a 128-bit memory bus, but the former works at much higher clock rates. So, why all this complexity? The S3 engineering team may have encountered instability in the operation of the graphics card and had to make the wiring of the PCB more complex. If it’s true, this fact also explains why the company has so far refused to launch the GammaChrome S18 Ultra whose core was going to work at 500MHz.

quelle: http://www.xbitlabs.com/articles/video/display/s3-gammachrome-s18-2_2.html

Klar....ist noch im Vorserienstatus (bzw. soll es noch sein)....aber ich hab da ein ungutes Bauchgefühl, welches mir sagt, das sich da nicht mehr viel tun wird.
Im schlimmsten Fall kommt nur noch eine weite mit 400MHz Chiptakt raus und dann hat dieser Chip/diese Karten kaum noch eine Daseinsberechtigung.

Speziell, da der S18 nicht mal besondern im 2D-Bereich Punkten kann (ist schon interessant zu sehen an der 6600, wie es aussieht wenn der VP von nV richtig funktioniert).

Für 50Euro würd ich mir spasseshalber so ein Ding holen.....aber bei 100Euro leg ich lieber etwas Geld rauf und hol ne 6600GT.

P.S.
BTW....kann mir jemand sagen, warum der Deltachrome immer noch um die 100Euro kostet und warum man nur 256MB Varianten bekommt??

robbitop
2005-04-21, 09:31:59
(Xbit Modell: 350/350, Ultra Modell: 500/450)



1.The tag proved to be wrong eventually as the real frequencies of the GPU and memory were 400MHz and 350 (700DDR) MHz, respectively.



Durch die Design Verbesserung erwarte ich etwa

- 5 % Leistungsgewinn


absoluter Leistungsgewinn oder Leistungsgewinn bei gleicher Rawpower?
Und in welchen Situationen?
Bei gleicher Rohpower (DC: 250MHz GC: 500MHz) dürfte das schon um Einiges mehr sein. Ich tippe auf ~40%.
Selbst das 400/350 Modell ist deutlich schneller als mein DeltaChrome sobald es um Pixelshader oder Vertexshader geht.


Durch den "deutlich Höheren" Takt der Ultra erwarte ich etwa

- 20 % Leistungsgewinn
(Xbit Modell: 350/350, Ultra Modell: 500/450)


Bis zu 25% ggü der PRO Version.


Und der Treiber ist das "erste" Release für den GammaChrome überhaupt

- bis zu 50 % Leistungsgewinn

Der GammaChrome ist nichts anderes als ein leicht aufgebohrtes Columbia Design. Die Treiber dafür sind in Punkto D3D Performance schon recht am Ende, wenn mich meine Messungen nicht trügen. Im PS-Bereich kommt seit vielen Monaten gar keine Verbesserung mehr. Jetzt geht's ums Bugfixing.


Der S19 (Ultra?) dann irgendwo bei 6600 GT, vielleicht (optimistisch gesehen) auch bei niedriger Taktenden 6800 er. (Eher Unwahrscheinlich)

In Sachen Shaderperformance wird er relativ zur 6600GT/X700PRO genauso schlecht aussehen wie S18 zu X600pro. Das ist nicht zu vermeiden, da beim Columbia gerade hier massiv gespart worden ist und die Shaderarchitektur von NV/ATI extrem ausgefeilt ist (Splitting und sehr gute Compiler).


Jedenfalls ist das Potential "ENORM" wenn es durch Treiber ausgereitzt wird.


Ich fürchte nein. ;(
Columbia ist eben zu sehr von Kompromissen und Mängel an Tools und Simulatoren entstanden. Man wird irgendwie "mithalten" können. Sprich meistens ein Stück langsamer als die Konkurenz beim gleichen Modell sein und ab und an gleichschnell. Erst mit Destinantion Films kann dies maßgeblich besser werden.

stickedy
2005-04-21, 10:45:54
Der verwendete GammaChrome-Treiber macht aber auch beim DeltaChrome erhebliche Probleme und ist ein gutes Stück (ca. 20% langsamer) als die offizielle Version vorher (die für DeltaChrome freigegen wurde). Evtl. ham die da was beim Treiber verhagelt und er läuft auch net mit GammaChrome optimal?
Ich finde die Ergebnisse jedenfalls auch eher enttäuschend. Und wenn die finale Pro tatsächlich nur mit 400/300 getaktet wird, dann schauts imho noch viel mauer aus...
Auch möcht ich mal wissen, gegen wen S18 CE antrete soll u.v.a wiviel das Ding dann kosten soll, das kann sich ja gar net rechnen. Von S12 mal ganz zu schweigen...

up¦²
2005-04-21, 11:41:01
Ne 6600gt ist heuer doch schon bis 129€ durchgereicht ;D
Tja, und dann die 'Uhnpäßlichkeiten' :rolleyes:
Leider, wird wohl eher nix ...

Wechselbalg
2005-04-21, 11:47:15
Ein Schritt in die richtige Richtung war es sicherlich und ob der vielen Abstürze die anscheinend vorkamen würde ich auch erwarten, dass beim Treiber noch etwas möglich ist. Nur wird es mMn erst interessant, wenn sie es wirklich schaffen in nahezu allen Bereichen bei gleicher Taktrate und Anzahl an Ausführungseinheiten konkurrenzfähig zu sein, da dies auch für die 8 Piper interessant wird und man dann nicht über den Preis gehen muss, um sie in den Markt zu bekommen.

Hier war es des öfteren eine X300 die als Konkurrent auftrat und die läge bei rund 65€ würde ich mal sagen, aber die würde auch kein Spieler wohl anpacken. Weitere Konkurrenten wären wohl eher die X700 und GF 6600 und die sind beide bei gerade mal 100€ angesiedelt und haben viel Perfomance vorraus vermutlich. Die X600 Pro sehe ich hingegen eher als Auslaufmodell. Also muss die Preisbildung recht niedrig sein, will man eine Lücke im Markt finden und die Karte sollte schnell kommen, denn ich denke wenn 2-3 Monate vergehen steht bei Ati z.B. schon wieder ein neuer und dann auch featuremäßig (teilweise) überlegener Chip.

Ein Schritt in die richtige Richtung ist es sicher, aber die Karte muss dann schnell kommen und vielleicht noch vorhandene Bremsen müssen schnell gelockert werden.

Shink
2005-04-21, 11:51:45
Wegen Pro/CE/Ultra/S12: S3 ist ja bekannt dafür, Chipversionen anzukündigen, die es nie geben wird.
Ich glaub, neben der S18 Pro (mit 400/300 bis 400/400 - liegt wahrscheinlich fast ausschließlich an den Boardherstellern) wirds wohl noch irgendeine langsamere Version (S18 CE oder S12) um die 50€ geben - durchaus zu Recht: Schließlich verkaufte sich von XGIs Volari-Serie auch die V3XT am besten und in dem Preisbereich gibts sonst nicht gerade viele PCIe-Karten (X300SE, 6200TC).

Vielleicht machen sie es aber auch wie beim DC S4: Sie bessern eventuelle Bugs aus, was durchaus ordentlich Leistung bringt (DC S4 ist eigentlich viel effizienter als DC S8) aber den Chip noch um ein paar Jährchen verschiebt...

Zu den Treiberproblemen: Ich würde vermuten, im Gammachrome-Treiber sind ein paar ineffiziente Workarounds für bekannte HW-Probleme eingebaut. Könnte natürlich noch etwas besser werden.

PCGH_Thilo
2005-04-21, 11:59:16
Ist ja auch nur die Pro Version. Ultra (450/450) und Nitro (500/450) wird es noch geben.



sagen wir besser: Soll es geben... =)

robbitop
2005-04-21, 13:14:55
sagen wir besser: Soll es geben... =)
Aus meinem persönlichen Gespräch mit Nadeem ging hervor, dass es diese geben wird.


---
Die Erwartungen an den S18pro scheinen hier ziemlich hoch gewesen zu sein. Im Vergleich mit dem Deltachrome und dem Faktum, dass es nur noch ein Quad ist, sind meine Erwartungen derzeit mehr als erfüllt.
Von einem Refresh sollte man nicht zuviel erwarten.

Oblivion
2005-04-21, 13:45:56
Aus meinem persönlichen Gespräch mit Nadeem ging hervor, dass es diese geben wird.

wann solln die kommen?

allgemein hätt ich mir schon mehr erhofft :frown:

robbitop
2005-04-21, 13:52:34
wann solln die kommen?

allgemein hätt ich mir schon mehr erhofft :frown:
Dazu kann ich dir leider auch nichts sagen. ;(

Wechselbalg
2005-04-21, 14:02:01
Hmm. Sagen wir mal, dass eher die Hoffnungen sehr hoch waren, wenn auch nicht zwingend die Erwartungen. Dennoch muss der Refresh sich nicht an seinem Vorgänger, sondern eher an der Konkurrenz der anderen Firmen messen und hier kann der klare Schritt nach vorne auch bedeuten, dass der Abstand gleich bleibt, weil eben die anderen auch einen Schritt gesetzt haben.

Momentan würde ich sagen, dass der Gammachrome halt wirklich sehr günstig in den Markt gedrückt werden muss, um eine Existenzberechtigung zu haben. Ich sehe auch weniger das Problem darin, dass der Chip schlecht wäre, würde ich auch beim Deltachrome nicht sagen, aber beide kamen eigentlich zu spät in den Markt, um dort wirklich Erfolg zu haben. (Da sie sich an der recht alten 9600 Pro weiterhin die Zähne ausbeißen)

Nun ja. Warten wir auf Destination Films und hoffen, dass sie Fertigungs und Treiberprobleme noch lösen können, um ihre Stellung am Markt zu finden.

Odal
2005-04-21, 14:26:52
mag ja sein das ein paar sachen im vergleich zum deltachrome verbessert wurden...aber wenn man realistisch ist ist das ding für die tonne...
das kann man nur ein paar DAUs andrehen oder leuten die was ausgefallenes wollen

robbitop
2005-04-21, 14:40:05
Naja das Columbia Design hat eindeutig Stärken in Sachen Leistungsaufnahme. Gerade für MediaCenterPCs und Notebooks ein IMO brauchbarer Chipsatz.

Das größte Problem des Columbia Designs ist, dass es deutlich zu spät kam mit unreifen Treibern. Weiterhin war die Produktpalette zu schmal und die Verfügbarkeit schlecht. Nur ankündigen reicht eben nicht.

zeckensack
2005-04-21, 15:04:14
Ich bin auf die Werte des S19 gespannt. Hier wird sich wirklich zeigen wieviel S3 in den letzten beiden Jahren dazugelernt hat.

mapel110
2005-04-21, 15:08:20
Ich bin auf die Werte des S19 gespannt. Hier wird sich wirklich zeigen wieviel S3 in den letzten beiden Jahren dazugelernt hat.
http://www.3dcenter.org/artikel/2005/03-21_b.php
Ist zu dem Chip mittlerweile mehr bekannt, als hier steht? Oder warum der Optimismus?

Gummikuh
2005-04-21, 15:14:15
Ist voraussichtlich 2.Halbjahr 2005 eigentlich net bissel spät für so nen Chip?

zeckensack
2005-04-21, 15:16:51
http://www.3dcenter.org/artikel/2005/03-21_b.php
Ist zu dem Chip mittlerweile mehr bekannt, als hier steht? Oder warum der Optimismus?Das Fragezeichen hinter den 8 Pipelines kann mittlerweile gestrichen werden :)
IMO hatte S3 große Probleme mit der Bandbreiteneffizienz und der Abstimmung der zwei Quads im DeltaChrome S8. Der Performance-Gewinn ggü der S4-Version war viel zu gering.
Der hier getestet S18 ist quasi ein S4-Respin. Dass dies nicht gerade inspirierende Performance-Werte bringen kann, sieht man ja an diesem Thread (insbesondere an den Reaktionen ...).
S19 könnte irgendwo zwischen 50 und 100% schneller sein, je nach Takt. Das finde ich schon interessanter.

Gast
2005-04-21, 15:20:42
in notebooks wäre das ding vielleicht interessant, hab ich allerdings noch nie gesehen, ansonsten eigentlich ziemlich umsonst.

up¦²
2005-04-21, 16:38:02
http://www.it.com.cn/f/diy/053/21/050321_news_ljf_0951_2_01.jpg

Na dann hoffen wir mal ganz dolle ... :rolleyes:

Oblivion
2005-04-21, 18:04:30
[IMG]http://www.it.com.cn/f/diy/053/21/050321_news_ljf_0951_2_01.jpg[IMG]

Na dann hoffen wir mal ganz dolle ... :rolleyes:

Selbst wenn das genauso passieren wird, wies auf der Roadmap steht, dann kommt der S19 einfach zu spät um da noch ordentlich mitreden zu können

Wechselbalg
2005-04-21, 18:05:52
Gut. Die Stromaufnahme ist der Serie wirklich zu gute zu halten und in den angesprochenen Segmenten wirklich auch ein interessanter Faktor.

Ansonsten sehe ich aber wenig Chancen am Markt Fuß zu fassen und das selbst wenn eine gute Verfügbarkeit gegeben wäre. Ich finde die Karten generell auch interessant und würde vielleicht sogar mal eine antesten, aber als Gesamtbild hätte man das ganze wirklich früher präsentieren müssen.

Auch beim S19 interessiert es mich zwar sehr wie das ganze gelöst wird, aber habe so meine Bedenken wie er positioniert werden soll. Sollte die hier auch gepostete Grafik stimmen, so wird die Vertexpower ja anscheinend nicht ansteigen, während eine X700 hier um einiges gegenüber der X600 zulegt. Daher würde ich erwarten, dass der S19 hier nicht vorbeizieht, wenn nicht noch größere Änderungen integriert werden und so ist es zwar eine sehr interessante Sache für die Zukunft, wie sich S3 verbessert, aber außer im Mobilesegment wird es schwierig Marktanteile zu erobern.

EDIT: Hört sich vielleicht zu negativ an und ich wünsche auch, dass S3 aufschließen oder zumindest ein gutes Nieschenprodukt bringen kann, aber rein auf Marktsituationen bezogen sehe ich leider wenig Erfolgsaussichten und das kann eine Firma ja auch nicht ignorieren, selbst wenn große Geldgeber dahinterstecken.

DanMan
2005-04-21, 18:30:39
Selbst wenn das genauso passieren wird, wies auf der Roadmap steht, dann kommt der S19 einfach zu spät um da noch ordentlich mitreden zu können
Das kommt zum größten Teil auf den Preis an. 4W Leistungsaufnahme (für den Chip) können immerhin die Wenigsten von sich behaupten.

Oblivion
2005-04-21, 18:48:20
Das kommt zum größten Teil auf den Preis an. 4W Leistungsaufnahme (für den Chip) können immerhin die Wenigsten von sich behaupten.

Die Leistungsaufnahme is spitze - keine frage

jedoch kommt der Chip für mich einfach zu spät - wenn er überhaupt noch 2005 kommt - und der preis wird auch nicht der hammer werden, sieht man ja am heute vorgestellten :wink:

Popeljoe
2005-04-21, 19:09:54
Naja das Columbia Design hat eindeutig Stärken in Sachen Leistungsaufnahme. Gerade für MediaCenterPCs und Notebooks ein IMO brauchbarer Chipsatz.

Das größte Problem des Columbia Designs ist, dass es deutlich zu spät kam mit unreifen Treibern. Weiterhin war die Produktpalette zu schmal und die Verfügbarkeit schlecht. Nur ankündigen reicht eben nicht.
Ich denke auch, daß das Teil eher was für den Notebook Bereich sein könnte, denn diese 3D Leistung bei einem so geringen Stromverbrauch zu bringen, das schaftt keiner der aktuellen Chips der "grossen" Hersteller!
Nur sind sie leider damit mal wieder ein halbes Jahr zu spät dran! ;(
September 2004 hätten sie damit so einiges mehr gerissen bekommen!
Der Umstieg von meiner ollen 9700pro fällt wohl frühestens mit dem S19 an!
Popeljoe

LordDeath
2005-04-21, 19:12:33
hab da ne frage: ist es möglich, diese chips, die nur 4w leistung verbraten, so weit hoch zu takten, bis sie die gleiche verlustleistung wie die chips der anderen hersteller erreichen, oder sehe ich das zu einfach? weil irgendeinen grund müssten sie ja haben es nicht zu machen, wenn das, was ich denke, stimmt.

Gast
2005-04-21, 19:22:14
hab da ne frage: ist es möglich, diese chips, die nur 4w leistung verbraten, so weit hoch zu takten, bis sie die gleiche verlustleistung wie die chips der anderen hersteller erreichen, oder sehe ich das zu einfach? weil irgendeinen grund müssten sie ja haben es nicht zu machen, wenn das, was ich denke, stimmt.

nicht wirklich, das design scheint nicht auf den hohen takt ausgelegt zu sein.

ein a64 erreicht ja trotz der geringeren leistungaufnahme auch nicht den takt eines p4

Oblivion
2005-04-21, 19:29:39
hab da ne frage: ist es möglich, diese chips, die nur 4w leistung verbraten, so weit hoch zu takten, bis sie die gleiche verlustleistung wie die chips der anderen hersteller erreichen, oder sehe ich das zu einfach? weil irgendeinen grund müssten sie ja haben es nicht zu machen, wenn das, was ich denke, stimmt.

Theoretisch --> ja

praktisch --> nein, weil das design das nicht vorsieht

LordDeath
2005-04-21, 19:31:25
Theoretisch --> ja

praktisch --> nein, weil das design das nicht vorsieht

tja, und das ist, was isch nisch verstehe :D

stickedy
2005-04-21, 19:47:13
BTW: https://s3gstore.s3graphics.com/cgi-bin/shopper.cgi?display=home

GammaChrome S18 Pro kostet 149,99 US$ = ca. 115 Euro

https://s3gstore.s3graphics.com/cgi-bin/shopper.cgi?preadd=action&key=PCIE0002

Sogar "in stock"!!

Interessant ist auch das hier:
https://s3gstore.s3graphics.com/cgi-bin/shopper.cgi?preadd=action&key=PCIE0001
https://s3gstore.s3graphics.com/cgi-bin/shopper.cgi?preadd=action&key=PCIE0003

crusader4
2005-04-21, 20:03:13
BTW: https://s3gstore.s3graphics.com/cgi-bin/shopper.cgi?display=home

GammaChrome S18 Pro kostet 149,99 US$ = ca. 115 Euro

https://s3gstore.s3graphics.com/cgi-bin/shopper.cgi?preadd=action&key=PCIE0002

Sogar "in stock"!!

Interessant ist auch das hier:
https://s3gstore.s3graphics.com/cgi-bin/shopper.cgi?preadd=action&key=PCIE0001
https://s3gstore.s3graphics.com/cgi-bin/shopper.cgi?preadd=action&key=PCIE0003Irgendwas stimmt doch da nicht. Warum sind denn die abgespeckten Versionen viel teurer als die Pro-Version? Oder steh ich grad auf dem Schlauch und überseh was?

GammaChromeS18 Pro (https://s3gstore.s3graphics.com/cgi-bin/shopper.cgi?preadd=action&key=PCIE0002) -> $149.99
GammaChromeS18 (https://s3gstore.s3graphics.com/cgi-bin/shopper.cgi?preadd=action&key=PCIE0001) -> $199.99
GammaChromeS18 VE (https://s3gstore.s3graphics.com/cgi-bin/shopper.cgi?preadd=action&key=PCIE0003) -> $269.99

Da haben die sich doch wohl gründlich vertan, oder?

Grüße, Crusader

Popeljoe
2005-04-21, 20:03:57
GammaChrome S18 Pro kostet 149,99 US$ = ca. 115 Euro

Naja, angesichts eines Preises von 130 Euro für ne 6600 GT nicht wirklich reizvoll...! Schade, aber der Gigant macht grade mal wieder den Markt kaputt! ;(
P1

Gast
2005-04-21, 20:05:57
tja, und das ist, was isch nisch verstehe :D

das design ist nicht für hohe frequenzen gemacht. um einen stabilen chip zu haben müsstest du die spannung extrem erhöhen, haltbarkeit und elektromigration ahoi.

ich frag mich nur für was die einen aktiven lüfter brauchen.

4W sollten auch mit einem sehr kleinen passivkühler einfach zu kühlen sein.

Popeljoe
2005-04-21, 20:11:28
das design ist nicht für hohe frequenzen gemacht. um einen stabilen chip zu haben müsstest du die spannung extrem erhöhen, haltbarkeit und elektromigration ahoi.

ich frag mich nur für was die einen aktiven lüfter brauchen.

4W sollten auch mit einem sehr kleinen passivkühler einfach zu kühlen sein.
Die Karte is doch bei X Bits zu sehen!
Der Lüfter ist imo recht groß, aber wieviele U/min der macht...?
P1

Gast
2005-04-21, 20:24:03
Die Karte is doch bei X Bits zu sehen!


ja eben, ich hab eine passive lösung erwartet, man sollte doch den einzigen großen vorteil gegenüber der konkurrenz wenigstens ausnutzen.

BlackArchon
2005-04-21, 20:48:02
Das mit den 4 Watt wurde auch schon beim Deltachrome gesagt. Das kann aber irgendwie nicht ganz stimmen, weil ein testweise montierter Zalman ZM-NB32J schon auf dem Desktop feuerheiß wurde.

ZM-NB32J:
http://www.zalman.co.kr/upload/product/zm_nb32j_f.jpg

RyoHazuki
2005-04-21, 22:55:27
http://www.it.com.cn/f/diy/053/21/050321_news_ljf_0951_2_01.jpg

Na dann hoffen wir mal ganz dolle ... :rolleyes:

Irgendwie macht mich das "New 32-Bit/64-Bit/128-Bit" Stutzig.

Scheinbar ein neuer Memory Controller.

@ Robbitop

Wie stickedy schon sagte, ich glaube auch nicht so ganz das der Treiber am ende ist. Aber naja, wird sich zeigen.

Und die 5 % Mehr leistung vom Redesign, war gegenüber dem Testmodell von Xbitlabs gemeint. Nicht ggü. Deltachrome.

Sorry, du hast natürlich recht mit 400 / 350.

Jedenfalls hab ich den Verdacht das endlich ein "Intelligent" Memory Controller im S19 zum einsatz kommt, was dann durchaus die 8 Pipelines "besser" auslasten würde.

Ich hoffe auch, das im S19 auch leistungsstärkere Schader zum einsatz kommen, immerhin sind es noch "über" 6 Monate bis zum S19.

Frag doch mal Nadeem, ob die "selben" Shader des S18 auch im S19 genutzt werden!!

Wenn der S19 die Shader des S18 benutzt, dazu 4Pipes mehr und einen etwas besseren Memory Controller benutzt, brauch S3 den Chip nicht auf den Markt bringen.

Frage:

Würde eine seperate Tex ALU mehr Power bringen ? Dann würden meiner meinung nach die "Spezialfunktionen" nebenbei effizenter über die Makros ausgeführt werden.

Nochwas:

S18 ist ein aufgebohrter S4 OK! Aber da wurde eher nüchtern aufgebohrt.
S19 ist ein Aufgebohrter S8 OK! Da wurde anscheinend deutlich mehr geändert, siehe schonmal Memory Controller.

Man S3 wird doch echt nicht so Blöd sein und den selben fehler nochmal machen ?!

robbitop
2005-04-21, 23:30:43
Irgendwie macht mich das "New 32-Bit/64-Bit/128-Bit" Stutzig.

Scheinbar ein neuer Memory Controller.

@ Robbitop

Wie stickedy schon sagte, ich glaube auch nicht so ganz das der Treiber am ende ist. Aber naja, wird sich zeigen.

Und die 5 % Mehr leistung vom Redesign, war gegenüber dem Testmodell von Xbitlabs gemeint. Nicht ggü. Deltachrome.

Sorry, du hast natürlich recht mit 400 / 350.

Jedenfalls hab ich den Verdacht das endlich ein "Intelligent" Memory Controller im S19 zum einsatz kommt, was dann durchaus die 8 Pipelines "besser" auslasten würde.

Ich hoffe auch, das im S19 auch leistungsstärkere Schader zum einsatz kommen, immerhin sind es noch "über" 6 Monate bis zum S19.

Frag doch mal Nadeem, ob die "selben" Shader des S18 auch im S19 genutzt werden!!

Wenn der S19 die Shader des S18 benutzt, dazu 4Pipes mehr und einen etwas besseren Memory Controller benutzt, brauch S3 den Chip nicht auf den Markt bringen.

Frage:

Würde eine seperate Tex ALU mehr Power bringen ? Dann würden meiner meinung nach die "Spezialfunktionen" nebenbei effizenter über die Makros ausgeführt werden.

Nochwas:

S18 ist ein aufgebohrter S4 OK! Aber da wurde eher nüchtern aufgebohrt.
S19 ist ein Aufgebohrter S8 OK! Da wurde anscheinend deutlich mehr geändert, siehe schonmal Memory Controller.

Man S3 wird doch echt nicht so Blöd sein und den selben fehler nochmal machen ?!

Im S18 scheint alles mehr ausbalanciert zu sein. Hier limitiert die Füllrate nicht mehr all zu sehr. Es gibt mehr Bandbreite. Ob der Speichercontroller bereits unterteilt ist, weiß ich noch nicht. Man hat dank mehr Takt auch endlich mehr VS Power die dringend nötig ist!! Besonders bei Far Cry, Doom und anderen neuen Spielen ist die Beleuchtung (auf Dreiecksebene) sehr VS Intensiv und ich vermute hier einen Flaschenhals. Ich nehme an, dass auch das Culling und die ROPs aufgebohrt wurden. Das müsste ich aber nachmessen. Pro Takt und Pipe ist das GammaChrome Design jedoch über meine Erwartungen hinausgeschossen. Beachte, dass der S18 eben nur ein bisher sehr niedrig getakteter 1 Quad Chip ist.

Das mit dem Treiber kann natürlich stimmen.

Viel wird der Memorycontroller beim S19 nicht bringen. Die 2 Quads im DC hatten neben Mangel an Bandbreite noch ein andere Problem: sie konnten immer nur in einem Dreieck gemeinsam agieren. Bei kleinen Dreiecken ist das eine Verschwendung von Rohleistung noch und nöcher!
Das 128 Bit DDR Interface bräuchte kaum eine Unterteilung bei 2 tatsächlich unabhängigen Quads im S19 (wird aber vorhanden sein denke ich). Es sollte kaum Verschnitt geben. Auch die größeren Texturecaches sorgen dafür. Dennoch ist es kaum möglich 8 Farbwerte pro Takt (dazu noch tri) in den Framebuffer zu schreiben mit nur so wenig Bandbreite. Aber ich nehme an im Sub 200$ Bereich ist ein 256 Bit DDR Interface zu teuer.

Zum Thema Pixelshader. Diese wurden bereits verbessert. Splitting kann man im Columbia nicht erwarten (das wäre nötig, um mit NV und ATI schritthalten zu können. War aber nicht vorgesehen Columbia ist insgesamt 1-2 Jahre verspätet). Sie haben nun FP24 Full Speed. Eine Vec4 ALU pro Pipe und scheinbar mehr Register. Im S19 wird dasselbe zum Einsatz kommen. Ich habe nie von Columbia erwartet, dass sie in Punkto Shaderleistung je mit ATI/NV konkurieren können. Aber sie ist relativ zum DC deutlich besser geworden.
Was meinst du mit einer Tex ALU? Sowas gibt es AFAIK nicht, das haben irgendwelche Leute mal in ATI R300 Schaubilder mal eingemalt.
Seit SM2 müssen Texturkoordinaten über Crossbars an die Textureinheiten geleitet werden. Aus Transistorgründen tat NV das über die ALUs, was natürlich diese für einen Takt blockierte. Ist aber nicht weiter schlimm, da das nur alle 10-100 Takte vorkommt (je nach Shader). Der Columbia ist laut S3 allerdings dazu fähig, aritmetische Operationen durchzuführen und nebenher auch Texturkoordinaten durchzuschleifen. Ich würde relativ zu ATI/NV nicht zuviel vom S19 erwarten. Nur relativ zum S18 und zum S8 ;)
Columbia ist der erste Schritt. Da kann man leider nicht viel reissen. Das Design ist auf R&D-, Transistor- und Strom-sparen ausgelegt.
Man sollte/wollte damit eigentlich nur Erfahrungen sammeln und ein wenig Geld verdienen.
Bei Letzterem stellt S3 sich IMO an wie die letzten Idioten. Ich habe mit Steffen Bruch, dem Channel Manager von Club3D Europe telefoniert. Sie überlegen, S3 aus dem Programm zu nehmen. Das wars dann erstmal für S3@Europa.
Warum? Nun, weil S3 anscheinend nur den S8 liefern kann. Der S18, der S4, der CE, der ULV der OmniChrome (damit wollte man Geld machen!!) sind nicht wirklich verfügbar. Eine breite Produktpalette, die wirklich existiert!!, und Marketing sind nötig, um hier Umsätze zu machen. Der S8 soll sich schleppend verkaufen.
XGI mache dies mit einer breiten und verfügbaren Palette und vorhandenem Marketing besser. Der V3XT verkauft sich wohl recht gut.
Wäre schade, wenn S3 an solchen Problemen scheitert.
Sie brauchen Geld. Jedes Tapeout und jede Bestellung kostet welches. Und man muss welches ausgeben, damit man welches verdienen kann. Dazu neue Simulatoren und Tools kaufen.
Ich hoffe, denke, dass es alles erst ab dem Destinantion Films maßgeblich besser wird.
Ernste Konkurenz wird S3 mit dem Columbia nicht geben können. Dazu lief es zu schlecht und zu verspätet.

zeckensack
2005-04-22, 00:16:12
Das mit den 4 Watt wurde auch schon beim Deltachrome gesagt. Das kann aber irgendwie nicht ganz stimmen, weil ein testweise montierter Zalman ZM-NB32J schon auf dem Desktop feuerheiß wurde.

ZM-NB32J:
http://www.zalman.co.kr/upload/product/zm_nb32j_f.jpgExakt mit dem Ding kühle ich mittlerweile meine S8 (300/300) und habe keine Probleme damit :|

BlackArchon
2005-04-22, 00:35:53
Na das ist ja merkwürdig... :|
Ich hatte das nicht auf meiner DC, sondern auf einer mit 128 MB und 300/250 ausprobiert. Wie gesagt, schon auf dem Desktop wurde der Kühler so heiß, dass man sich die Finger verbrennen konnte. Kannst du den Kühler noch anfassen, wenn du ein paar 3D-Spiele laufen lässt?

RyoHazuki
2005-04-22, 02:47:22
Meine Club 3D S8 @ 300/300 wird auch "HEIß"

Trotz Aktive Kupferkühlung inkl. Artic Silver 5, IC Chips Passiv, Speicher Chips Passiv.

Allerdings ist das ganze PCB Heiß.

robbitop
2005-04-22, 07:46:45
Meine wird trotz miniquirl nicht mal handwarm. :|

Gast
2005-04-22, 09:05:49
Na das ist ja merkwürdig... :|
Ich hatte das nicht auf meiner DC, sondern auf einer mit 128 MB und 300/250 ausprobiert. Wie gesagt, schon auf dem Desktop wurde der Kühler so heiß, dass man sich die Finger verbrennen konnte. Kannst du den Kühler noch anfassen, wenn du ein paar 3D-Spiele laufen lässt?

das sollte eigentlich normal sein, der passivkühler auf meinem chipsatz hat in etwa die selbe größe und ist auch kaum anzufassen.

die "handmessmethode" taugt da nicht wirklich was, da wirst du dir bei passiver kühlung immer die finger verbrennen.

robbitop
2005-04-22, 09:21:10
Exakt mit dem Ding kühle ich mittlerweile meine S8 (300/300) und habe keine Probleme damit :|
Vieleicht ist der Zeckinator einfach nur hitzeresistent oder es ist sehr kalt in deiner Wohnung :D

Ailuros
2005-04-22, 12:48:31
DirectX 9.0 + ? :| (*seufz* zum Marketing-Geblubber).

Shink
2005-04-22, 17:11:27
Also an "Marketinggeblubber" bekamen wir beim Deltachrome ja mehr zu hören. Und, ja: Es ist durchaus interessant, wie hoch die Erwartungen an die S18 offenbar sind, zumal es ja nur ein Refresh-Chip ist. Offenbar hat S3 schon einiges an Ernsthaftigkeit dazugewonnen seit dem Launch des Deltachrome. Ich hoffe nur, sie können etwas damit anfangen und das ihr Destination Films tatsächlich was wird. Erinnert mich irgendwie an S3's Geschichte:
Virge 3D: 3D war noch kein Verkaufskriterium; durchaus innovativ (für die Zeit), aber langsam. Für 2D gabs besseres, 3D war kaum sinnvoll nutzbar, Windows-Treiber waren nicht so toll. Es gab viele Versionen (z.B. VX für VRAM, MX für Mobile).
Virge DX: Refresh-Chip; nichts wirklich neues, obwohl er doch etwas besser war. Verkaufte sich lange gut als Chip für billig-Grakas.
Trio 3D: Grottenschlechte 3D-Leistung; kaum verbreitet. Rückzug von S3 aus der Branche.

Savage 3D: Kaum verbaut; hatte durchaus Potenzial, aber einige Probleme. Davon gabs schneller getaktete Versionen ("ultracharged" oder so), die aber den Markt nie wirklich sahen. Wohl kaum ein finanzieller Gewinn für S3.
Savage 4: Verkaufte sich lange gut für billig-Grakas. Eigentlich hauptsächlich ein Refresh-Chip mit besserer Effizienz und höherem Takt; keine wirklich neuen Technologien (aber AGP 4x).
Savage 2000: Teilweise schneller als die Konkurrenz, aber Treiber- und Hardwareprobleme; viele Features funktionierten nicht. Rückzug von S3 aus der Branche.

Deltachrome: Kaum verbaut; durchaus Potenzial, aber Probleme und nicht konkurrenzfähig; viele Versionen die den Markt nicht sahen. Kaum ein Gewinn für S3.
Gammachrome: Refresh-Chip mit besserer Effizienz und höherem Takt, ...
Destination Films: ???

mapel110
2005-04-28, 14:29:19
http://www.beyond3d.com/previews/s3/s18/
und da gehts weiter. Muss selbst erstmal lesen.

/edit
Gutes Review, sogar die Temps und Stromverbrauch haben sie verglichen.

reunion
2005-04-28, 14:44:51
Wie war das nochmal mit der geringen Leistungsaufnahmen?

http://www.beyond3d.com/previews/s3/s18/chart/image001.gif

Der Gammachrome verbraucht unter Last ca. 40W mehr als eine X600/GF6600!

robbitop
2005-04-28, 14:47:13
Wie war das nochmal mit der geringen Leistungsaufnahmen?

http://www.beyond3d.com/previews/s3/s18/chart/image001.gif

Der Gammachrome verbraucht unter Last ca. 40W mehr als eine X600/GF6600!
Die Differenzmessmethode ist äuserst ungenau. Die ganze Karte verbraucht ka nicht einmal 40W.
Die S3 Treiber neigen dazu, das ganze System enorm auszulasten.
Wenn dann müsste man das so testen, wie es xbit macht.

edit: außerdem handelt es sich hier um die Nitro Version

Oblivion
2005-04-28, 15:17:35
edit: außerdem handelt es sich hier um die Nitro Version

Was kann die besonderes? würd ich english besser können würd ich nicht fragen :wink: :redface:

stickedy
2005-04-28, 15:23:10
Die Nitro-Version ist höher getaktet. Das ist "alles"

ShadowXX
2005-04-28, 15:23:18
Die Differenzmessmethode ist äuserst ungenau. Die ganze Karte verbraucht ka nicht einmal 40W.
Die S3 Treiber neigen dazu, das ganze System enorm auszulasten.
Wenn dann müsste man das so testen, wie es xbit macht.

edit: außerdem handelt es sich hier um die Nitro Version

Aber selbst dann kann es IMHO nicht mit den geringen "Watt-Zahlen" die S3 so angibt nicht hinkommen.

Zumal Sie auch im IDLE "Spitzenreiter" ist....und da wird der Treiber das System noch nicht so "unter Feuer" setzen....

stickedy
2005-04-28, 15:35:42
Naja, der RAM kommt ja auch noch zum Chip dazu. Und der ist bei der S18 Nitro mit 450 MHz natürlich deutlich höher als bei der Konkurrenz getaktet und verbraucht deshalb natürlich auch deutlich mehr Leistung. Und da sich der RAM afaik im 2D-Betrieb nicht runtertaktet hat man eben den Salat

robbitop
2005-04-28, 16:28:18
Was kann die besonderes? würd ich english besser können würd ich nicht fragen :wink: :redface:
mehr Takt als die Pro Version (450/450). Die Pro hat (400/350).


Naja, der RAM kommt ja auch noch zum Chip dazu. Und der ist bei der S18 Nitro mit 450 MHz natürlich deutlich höher als bei der Konkurrenz getaktet und verbraucht deshalb natürlich auch deutlich mehr Leistung. Und da sich der RAM afaik im 2D-Betrieb nicht runtertaktet hat man eben den Salat
Und man hat 256MiB davon, das macht auch nochmal etwas aus.

Bevor ich keine genauen Angaben habe, ist diese Messung einfach unbrauchbar.

Gast
2005-04-28, 17:18:11
Die Differenzmessmethode ist äuserst ungenau. Die ganze Karte verbraucht ka nicht einmal 40W.
Die S3 Treiber neigen dazu, das ganze System enorm auszulasten.
Wenn dann müsste man das so testen, wie es xbit macht.

edit: außerdem handelt es sich hier um die Nitro Version

trotzdem dürfte der stromverbrauch nicht höher als bei konkurrenzkarten sein. vor allem da unter last in der regel die cpu immer komplett ausgelastet ist, äußert sich das höchstens in niederen frameraten in cpu-limitierten szenarien aber sicher nicht in höherem stromverbrauch.

ist schon klar dass die leistungsdifferenz nicht alleine der karte zuzuschreiben ist, aber die angaben von S3 können einfach nicht stimmen.

aber eigentlich ist es egal was an der hohen leistungsaufnahme schuld ist, die berechtung als stromsparkarte hat der gammachrome jedenfalls verloren, ebenso der einsatz als notebook-grafikchip. mit ähnlicher leistungsaufnahme gibt es wesentlich leistungsfähigere modelle und wenn es auf den stromverbrauch ankommt sind integrierte chips zu bevorzugen.

reunion
2005-04-28, 17:25:43
Die Differenzmessmethode ist äuserst ungenau. Die ganze Karte verbraucht ka nicht einmal 40W.
Die S3 Treiber neigen dazu, das ganze System enorm auszulasten.
Wenn dann müsste man das so testen, wie es xbit macht.


Selbst wenn die Angaben nicht exakt stimmen lässt sich ein Trend ablesen.
Und dieser bescheinigt dem Gammachrome eine in meinen Augen inakzeptable Leistungsaufnahme im Vergleich zur Konkurrenz, was im totalen Gegensatz zu den Angaben von S3 steht.


edit: außerdem handelt es sich hier um die Nitro Version

Die trozdem nicht die Leistung der zum Vergleich herangezogenen Karten erreicht.

robbitop
2005-04-28, 17:44:25
Bis ich keine 2. Messung habe, ist das für mich noch kein Faktum.
Die Werte sehen dazu einfach zu seltsam aus.

reunion
2005-04-28, 17:52:33
Bis ich keine 2. Messung habe, ist das für mich noch kein Faktum.
Die Werte sehen dazu einfach zu seltsam aus.

Inwiefern?
Die Angaben der anderen Karten dürften jedenfalls stimmen.

IVN
2005-04-28, 20:14:12
Benutzt S3 fuer die Nitro Version die DDR 1 900mhz???? :eek:
Imho das ist die Erklerung fuer den hohen Stromverbarauch.

Gast
2005-04-28, 20:33:38
Bis ich keine 2. Messung habe, ist das für mich noch kein Faktum.
Die Werte sehen dazu einfach zu seltsam aus.


klingt schon irgendwie logisch, denn wenn die niedrige leistungsaufnahme stimmen würde, dann würde S3 bestimmt einen passivkühler einsetzen, der in dieser größenordnung wahrscheinlich sogar billiger wäre.

robbitop
2005-04-28, 22:30:28
klingt schon irgendwie logisch, denn wenn die niedrige leistungsaufnahme stimmen würde, dann würde S3 bestimmt einen passivkühler einsetzen, der in dieser größenordnung wahrscheinlich sogar billiger wäre.
aber nicht delta 40W.

stickedy
2005-04-28, 23:09:15
Benutzt S3 fuer die Nitro Version die DDR 1 900mhz???? :eek:
Imho das ist die Erklerung fuer den hohen Stromverbarauch.
Nein, 450 MHz

Ailuros
2005-04-29, 07:08:36
Die Differenzmessmethode ist äuserst ungenau. Die ganze Karte verbraucht ka nicht einmal 40W.
Die S3 Treiber neigen dazu, das ganze System enorm auszulasten.
Wenn dann müsste man das so testen, wie es xbit macht.

edit: außerdem handelt es sich hier um die Nitro Version

Du sagst ja selber dass die die S3 Treiber dazu neigen das System enorm auszulasten. Der Graph stellt ja eigentlich auch System-Stromverbrauch dar und dabei spielt es wohl doch eine Rolle wenn man alles mitrechnet.

Wenn GPU X mehr Ansprueche auf die CPU stellt, dann duerfte es wohl egal sein woher der extra "overhead" kommt.

Zu guter letzt werden hier ein 130nm chip@ 450MHz, ein low-k 130nm@ 400MHz und zwei 110nm chips@ 300MHz verglichen. Dazu kommt natuerlich auch die groessere Speichermenge auf S18 und die um einiges hoehere Speicher-frequenz.

Alles obrige in Betracht genommen, was genau soll an der Messung hier ungenau sein?

robbitop
2005-04-29, 09:11:03
Du sagst ja selber dass die die S3 Treiber dazu neigen das System enorm auszulasten. Der Graph stellt ja eigentlich auch System-Stromverbrauch dar und dabei spielt es wohl doch eine Rolle wenn man alles mitrechnet.

Wenn GPU X mehr Ansprueche auf die CPU stellt, dann duerfte es wohl egal sein woher der extra "overhead" kommt.

Zu guter letzt werden hier ein 130nm chip@ 450MHz, ein low-k 130nm@ 400MHz und zwei 110nm chips@ 300MHz verglichen. Dazu kommt natuerlich auch die groessere Speichermenge auf S18 und die um einiges hoehere Speicher-frequenz.

Alles obrige in Betracht genommen, was genau soll an der Messung hier ungenau sein?

Nicht nur Fertigungsprozesse sind wichtig. Das Design spielt eine sehr sehr große Rolle. Das Columbia Design hat es bsw geschafft, bei 2 Quads und 130nm (DeltaChrome) bei 4W TDP zu liegen (nur der Chip itself). Oder bsw der VIA C3 oder der K8 ggü dem P4 usw.
Bei 8x DDR1 450MHz BGA's geht ggü 4 noch deutlich sparsamerer (da niedriger getaktet) sicherlich auch einiges drauf.
Bevor ich keine akuraten Messergebnisse ala xbit habe, halte ich das für zu ungenau. punkt.

Ailuros
2005-04-29, 09:27:09
Nicht nur Fertigungsprozesse sind wichtig. Das Design spielt eine sehr sehr große Rolle. Das Columbia Design hat es bsw geschafft, bei 2 Quads und 130nm (DeltaChrome) bei 4W TDP zu liegen (nur der Chip itself). Oder bsw der VIA C3 oder der K8 ggü dem P4 usw.
Bei 8x DDR1 450MHz BGA's geht ggü 4 noch deutlich sparsamerer (da niedriger getaktet) sicherlich auch einiges drauf.
Bevor ich keine akuraten Messergebnisse ala xbit habe, halte ich das für zu ungenau. punkt.

Erstens hab ich mich nicht nur auf Fertigungsprozesse bezogen und zweitens wird es so langsam Zeit dass Du Deinen Hocker um ein paar Drehungen nach unten schraubst. Die Anzahl der Schlusspunkte kannst Du dann der Anzahl der Drehungen anpassen.

Gast
2005-04-29, 11:18:31
Bei 8x DDR1 450MHz BGA's geht ggü 4 noch deutlich sparsamerer (da niedriger getaktet) sicherlich auch einiges drauf.
Bevor ich keine akuraten Messergebnisse ala xbit habe, halte ich das für zu ungenau. punkt.

ungenau schon, aber eines zeigt sich eindeutig. der gammachrome ist nicht sparsamer als grafikchips der konkurrenz in der gleichen leistungsklasse.

ShadowXX
2005-04-29, 11:30:30
ungenau schon, aber eines zeigt sich eindeutig. der gammachrome ist nicht sparsamer als grafikchips der konkurrenz in der gleichen leistungsklasse.

Juppss...und dabei ist es völlig egal, woher dieser Verbrauch kommt.

robbitop
2005-04-29, 13:27:04
ungenau schon, aber eines zeigt sich eindeutig. der gammachrome ist nicht sparsamer als grafikchips der konkurrenz in der gleichen leistungsklasse.
Full Ack!
Eine zweite Messung wird aber IMO zeigen müssen, wie akurat diese Werte sind. (jeder misst mal Mist ;-) Außerdem ist's die Nitro Variante. Die ist nicht wirklich zum Stromsparen ausgelegt. Ich denke hier musste man die VCore sicher erhöhen, um 450MHz mit dem Columbia zu erreichen. Außerdem sprechen die 8 BGA's für sich. Die Pro Version ist schon eher was für Stromsparer.
Dass das Verhältnis trotzdem irgendwie ungünstig für S3 ausfällt ist natürlich klar.


Erstens hab ich mich nicht nur auf Fertigungsprozesse bezogen

Las sich jedoch so. Du schreibst IMO oft sehr uneindeutig.

stav0815
2005-04-29, 13:44:18
Full Ack!
Eine zweite Messung wird aber IMO zeigen müssen, wie akurat diese Werte sind. (jeder misst mal Mist ;-) Außerdem ist's die Nitro Variante. Die ist nicht wirklich zum Stromsparen ausgelegt. Ich denke hier musste man die VCore sicher erhöhen, um 450MHz mit dem Columbia zu erreichen. Außerdem sprechen die 8 BGA's für sich. Die Pro Version ist schon eher was für Stromsparer.
Dass das Verhältnis trotzdem irgendwie ungünstig für S3 ausfällt ist natürlich klar.

war aber irgendwie klar, da das Design IMHO so ineffizient ausgelegt ist, dass man durchaus dem NV30 Konkurrenz machen köönte.

Las sich jedoch so. Du schreibst IMO oft sehr uneindeutig.
kein kommentar (ok, ein bisschen hat er recht).

robbitop
2005-04-29, 13:48:15
war aber irgendwie klar, da das Design IMHO so ineffizient ausgelegt ist, dass man durchaus dem NV30 Konkurrenz machen köönte.

kein kommentar (ok, ein bisschen hat er recht).

1. Columbia ist nicht ineffizient im Sinne von NV30. Columbia ist für 2003 designed worden. Nun kam es erst 2004/05. Es wurde auf Transistor-/R&D-/Strom-sparen ausgelegt. Dafür lief es auch IMO recht gut.
Der GammaChrome ist relativ zum DeltaChrome in der pro Takt Leistung (wenn man bedenkt dass es nur 1 Quad ist) deutlich gestiegen.
Um der Konkurenz einigermaßen standhalten zu können, musste man Takt und damit auch die VCore anheben. Sowas ist natürlich ungesund für die Leistungsaufnahme. Ging eben zu viel daneben. Ein wenig Hoffnung habe ich noch für den S19.

2. warum quotest du es dann? :|

IVN
2005-04-29, 14:11:33
Nein, 450 MHz

*snip* :ddr1 450= 2*450=effective 900
Bitte etwas weniger unfreundlich ausdrücken. Danke.

robbitop
2005-04-29, 14:17:22
ddr1 450= 2*450=effective 900
Vorsicht, Beleidigungen sind hier unerwünscht und werden mit Strafpunkten geahndet!

Wenn man von Takt spricht, dann haben diese "effektiven" PR Werte keine Bedeutung. Pro Takt werden 2 Signale übertragen. Dadurch bleiben es 450MHz. Technisch sind 900MHz nicht korrekt.

Danke fürs Quoten. :rolleyes:

IVN
2005-04-29, 14:46:14
Vorsicht, Beleidigungen sind hier unerwünscht und werden mit Strafpunkten geahndet!

Wenn man von Takt spricht, dann haben diese "effektiven" PR Werte keine Bedeutung. Pro Takt werden 2 Signale übertragen. Dadurch bleiben es 450MHz. Technisch sind 900MHz nicht korrekt.

Das ist egal.16 pipelines sind auch nicht korrekt,denoch benutzt es jeder. :wink: Auch 3ghz oder andere Werte beim P4 sind nicht korrekt (ALUs arbeiten mit dem doppelten Takt=6ghz) und keiner zerbricht sich den Kopf darueber.Es ist einfach leichter sich diese Werte zu merken.


P.S. KONSTRUKTIVE KRITIK (du solltest dir wegen deiner Aroganz manchmal auch ein bisl sorgen machen) :|

stav0815
2005-04-29, 14:49:48
1. Columbia ist nicht ineffizient im Sinne von NV30. Columbia ist für 2003 designed worden. Nun kam es erst 2004/05. Es wurde auf Transistor-/R&D-/Strom-sparen ausgelegt. Dafür lief es auch IMO recht gut.
Der GammaChrome ist relativ zum DeltaChrome in der pro Takt Leistung (wenn man bedenkt dass es nur 1 Quad ist) deutlich gestiegen.
Um der Konkurenz einigermaßen standhalten zu können, musste man Takt und damit auch die VCore anheben. Sowas ist natürlich ungesund für die Leistungsaufnahme. Ging eben zu viel daneben. Ein wenig Hoffnung habe ich noch für den S19.

2. warum quotest du es dann? :|

1. NV30 war auch für seine Sache anbelangt nicht ineffizient ;)
Genau weil das Ding für 2003 designed wurde, ist es ineffizient:
Es wäre kein so hoher Takt erforderlich gewesen, denn bei diesem Design sinkt die Effizienz mit steigendem Takt so wie ich das sehe sehr stark!

2. weil ich einfach ne große klappe hab ;(

IVN
2005-04-29, 14:50:07
Was ich eigentlich sagen wollte,ist dass diese Taktraten fuer DDR1 sehr hoch sind,und wenn der Schpeicher in dieser Menge verbaut worden (256mb) ist wundert es mich nicht das der Stromverbrauch so hoch ist.

robbitop
2005-04-29, 14:54:30
Das ist egal.16 pipelines sind auch nicht korrekt,denoch benutzt es jeder. :wink: Auch 3ghz oder andere Werte beim P4 sind nicht korrekt (ALUs arbeiten mit dem doppelten Takt=6ghz) und keiner zerbricht sich den Kopf darueber.Es ist einfach leichter sich diese Werte zu merken.


P.S. KONSTRUKTIVE KRITIK (du solltest dir wegen deiner Aroganz manchmal auch ein bisl sorgen machen) :|

1. in welchem Sinne unkorrekt. Solange die 16 Pipelines auch 16 Farbwerte schreiben können, sehe ich da kein Problem. Jede Pipeline besitzt eigene ALU's. Erst wenn man "Pixelpipelines" sagen würde, wäre es IMO falsch, da es nur pro Quad eine Steuerlogik gibt und nicht pro Pipeline.

2. Ich bin nicht, der Meinung, dass ich arrogant bin. Das kann man im Forum wohl kaum beurteilen. Dazu solltest du mich persönlich kennen. Aber danke für die Kritik :up:


1. NV30 war auch für seine Sache anbelangt nicht ineffizient
Genau weil das Ding für 2003 designed wurde, ist es ineffizient:
Es wäre kein so hoher Takt erforderlich gewesen, denn bei diesem Design sinkt die Effizienz mit steigendem Takt so wie ich das sehe sehr stark!
Woran machst du das fest?


Was ich eigentlich sagen wollte,ist dass diese Taktraten fuer DDR1 sehr hoch sind,und wenn der Schpeicher in dieser Menge verbaut worden (256mb) ist wundert es mich nicht das der Stromverbrauch so hoch ist.
Ack.

IVN
2005-04-29, 15:01:15
2. Ich bin nicht, der Meinung, dass ich arrogant bin. Das kann man im Forum wohl kaum beurteilen. Dazu solltest du mich persönlich kennen. Aber danke für die Kritik :up:


Sry OT:
''Wenn man von Takt spricht, dann haben diese "effektiven" PR Werte keine Bedeutung. Pro Takt werden 2 Signale übertragen. Dadurch bleiben es 450MHz. Technisch sind 900MHz nicht korrekt.''

Du sprich so als waere ich ein totaler noob.Ich bin schon laenger dabei,und du kennst mich sicherlich schon,denoch erklerst du es so als waere ich ein kleines Kind,und das mein liber Robi ist das erste Zeichen fuer Aroganz.(Selbsueberschezung ist einer der grosten menschlichen Laster) :wink:

Ailuros
2005-04-29, 15:11:53
Las sich jedoch so. Du schreibst IMO oft sehr uneindeutig.

Mehr als oft aber nicht unbedingt in diesem Fall. Entweder doch oder jemand hat etwas zu oberflaechlich gelesen...

Du sagst ja selber dass die die S3 Treiber dazu neigen das System enorm auszulasten. Der Graph stellt ja eigentlich auch System-Stromverbrauch dar und dabei spielt es wohl doch eine Rolle wenn man alles mitrechnet.

Wenn GPU X mehr Ansprueche auf die CPU stellt, dann duerfte es wohl egal sein woher der extra "overhead" kommt.

Zu guter letzt werden hier ein 130nm chip@ 450MHz, ein low-k 130nm@ 400MHz und zwei 110nm chips@ 300MHz verglichen. Dazu kommt natuerlich auch die groessere Speichermenge auf S18 und die um einiges hoehere Speicher-frequenz.

Alles obrige in Betracht genommen, was genau soll an der Messung hier ungenau sein?

Ist ja auch nur eine unwichtige Kleinigkeit.

Ich kann xbitlabs momentan nicht erreichen; was fuer eine CPU haben die denn mit der einfachen S18 verwendet?

***edit: ich hab quote-tags vergessen...

robbitop
2005-04-29, 15:12:26
Sry OT:
''Wenn man von Takt spricht, dann haben diese "effektiven" PR Werte keine Bedeutung. Pro Takt werden 2 Signale übertragen. Dadurch bleiben es 450MHz. Technisch sind 900MHz nicht korrekt.''

Du sprich so als waere ich ein totaler noob.Ich bin schon laenger dabei,und du kennst mich sicherlich schon,denoch erklerst du es so als waere ich ein kleines Kind,und das mein liber Robi ist das erste Zeichen fuer Aroganz.(Selbsueberschezung ist einer der grosten menschlichen Laster) :wink:

Da schätzt du mich fehl ein. Ich mache keinen Unterschied bei meinen Erklärungen. Egal mit wem ich spreche, ich versuche es möglichst einfach zu halten, damit es jeder versteht. Nicht nur für dich allein sondern auch Leute, die die Threads einfach nur lesen. Und außerdem weiß ich, dass englisch deine native language ist und somit versuche ich noch mehr, die Sprache einfach zu halten. Das hat IMO mit Arroganz nichts zu tun. Sorry, wenn es arrogant bei dir ankam.
Nun aber genug OT ;)

IVN
2005-04-29, 17:24:11
Da schätzt du mich fehl ein. Ich mache keinen Unterschied bei meinen Erklärungen. Egal mit wem ich spreche, ich versuche es möglichst einfach zu halten, damit es jeder versteht. Nicht nur für dich allein sondern auch Leute, die die Threads einfach nur lesen. Und außerdem weiß ich, dass englisch deine native language ist und somit versuche ich noch mehr, die Sprache einfach zu halten. Das hat IMO mit Arroganz nichts zu tun. Sorry, wenn es arrogant bei dir ankam.
Nun aber genug OT ;)

Na gut,jetzt ein bisl on T: :biggrin:
Ich bin von der Leistung des s18 chips garnicht enttaeuscht fuer ein 1 quad design ist es sehr performant.Wurde es sehr gerne kaufen,aber ich habe kein PCIe mainboard. ;(

P.S. noch etwas Robi:
plural schreibt man ohne Apostroph ( ' )

DrumDub
2005-04-29, 17:32:28
Ich kann xbitlabs momentan nicht erreichen; die sind seit gestern nicht erreichbar. heute steht da aber zumindest folgendes: Performing maintenance to better serve you.
Visit us soon.

stav0815
2005-04-29, 19:06:02
Woran machst du das fest?

dass sich der GammaChrome S18 nurnoch in der glechen Liga wie seine Konkurrenten - X300 & 6200 - bewegt, wo der Deltachrome seinen Konkurrenten - GeForce 5600/5700 & Radeon 9500/9600 - weit voraus war.

Robbitop@away
2005-04-30, 08:49:33
dass sich der GammaChrome S18 nurnoch in der glechen Liga wie seine Konkurrenten - X300 & 6200 - bewegt, wo der Deltachrome seinen Konkurrenten - GeForce 5600/5700 & Radeon 9500/9600 - weit voraus war.
GammaChrome hat auch nur einen Quad.

stav0815
2005-04-30, 09:19:38
GammaChrome hat auch nur einen Quad.
ich dachte wir reden von Leistungsaufnahme?
(im übrigen haben die genannten auch nur ein Quad...)