PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R480/R430/NV41/NV48 Spekulationen und News


Seiten : 1 [2] 3

Dancer
2004-11-17, 13:33:44
:lol:

Als neutraler Betrachter kann ich nur sagen, daß X700XT und 6600GT gleichwertig sind. Kann deine Lobeshymnen nicht ganz nachvollziehen.
also irgendwie haben da ca. 90% der Reviews etwas anderes zu Tage gebracht.

Gast
2004-11-17, 14:33:22
[QUOTE=reunion] Die Produktionskosten des NV40 dürften auch wesentlich höher sein als beim R420.

-Wesentlich

Blade345
2004-11-17, 14:39:31
[QUOTE=reunion] Die Produktionskosten des NV40 dürften auch wesentlich höher sein als beim R420.

-Wesentlich höher werden die Produktionkosten des NV40 auch nicht sein.
Die kaputten Chips, bei denen nicht alle 16 Pixelpipelines funktionieren, werden für die 6800nU und 6800LE verwendet. Außerdem besitz nVidia angeblich einen Vertrag mit IBM, der beinhaltet, dass sie nur funktionfähige Chips bezahlen müssen.
Dazu kommt dass beim R420 Low-K verwendet wird, was die Produktionkosten erheblich erhöht und die kleinere Chipgröße wieder relativiert.

Edit: Der Gast war ich, hatte mich verklickt ;)

Gast
2004-11-17, 14:48:19
also irgendwie haben da ca. 90% der Reviews etwas anderes zu Tage gebracht.
Wo das denn?
Muss zwar zugeben, daß ich nicht alle Reviews gelesen habe, aber die wichtigsten habe ich mir vorgenommen.
Den Test von XbitLabs finde ich sehr gut.
http://www.xbitlabs.com/articles/video/display/ati-radeon-x700-games.html
Dieser bestätigt auch meine Aussage, daß 6600GT und X700XT in etwa gleichwertig sind.
Oder der Test von firingsquad:
http://firingsquad.com/hardware/ati_radeon_x700_xt/page5.asp

Quasar
2004-11-17, 14:55:59
[QUOTE=reunion] Die Produktionskosten des NV40 dürften auch wesentlich höher sein als beim R420.

-Wesentlich höher werden die Produktionkosten des NV40 auch nicht sein.
Die kaputten Chips, bei denen nicht alle 16 Pixelpipelines funktionieren, werden für die 6800nU und 6800LE verwendet. Außerdem besitz nVidia angeblich einen Vertrag mit IBM, der beinhaltet, dass sie nur funktionfähige Chips bezahlen müssen.
Dazu kommt dass beim R420 Low-K verwendet wird, was die Produktionkosten erheblich erhöht und die kleinere Chipgröße wieder relativiert.

Edit: Der Gast war ich, hatte mich verklickt ;)

lowK-Copper wird sich TSMC sicherlich ein wenig bezahlen lassen, umsonst ist nur der Tod und selbst der kostet das Leben.
Der Vertrag, den nV hatte und um den sich viele Gerüchte ranken, bezog sich IIRC aber auf TSMC und den nV30 - keine anderen Chips.

Allerdings sollte man durchaus die unterschiedlichen Produktionskosten mal belegen und nicht nur anhand der Transistorzahlen versuchen, ein Urteil zu fällen. Schließlich ist die letztendliche Die-Größe nur runde 11% höher beim nV40 - wer weiß, wieviel davon durch den Verzicht auf Copper LowK egalisiert und/oder durch die unterschiedlichen Konditionen bei IBM sogar überholt wird?

Quasar
2004-11-17, 14:57:18
Dieser bestätigt auch meine Aussage, daß 6600GT und X700XT in etwa gleichwertig sind.

Das würde ich auch so sehen - allerdings sind 6600GT erhältlich, von der X700 dagegen nur die Pro-Modelle und die kosten noch nichtmal weniger, als die 6600er (ok, dafür haben sie mehr onboard-RAM). ;)

wuzetti
2004-11-17, 15:00:15
Und wenn dann so eine Meldung noch so einen offensichtlichen Schwachsinn wie R430 tritt auch gegen die GF6600GT enthält und mir nichts dir nichts zitiert und als Argumentationsbasis herangezogen wird, dann frage ich mich wer hier zu schnell das Marketing im Kopf hatte - Du oder ich?

entschuldigung, aber soweit ich das sehe hat reunion den inq artikel lediglich gepostet, und zwar zur info. zumindest habe ich das so verstanden.
zeig mir bitte die stelle wo dieser artikel von ihm als weitere argumentationsbasis herangezogen wurde! ich kann's nämlich nicht finden..... :confused:

ansonsten gebe ich dir in diesem punkt recht, ich glaube auch nicht, dass R430 mit NV43 sprich 6600GT konkurrieren soll.

robbitop
2004-11-17, 15:02:34
lowK-Copper wird sich TSMC sicherlich ein wenig bezahlen lassen, umsonst ist nur der Tod und selbst der kostet das Leben.


Du meinst hier Kupferverdrahtungsebenen?
Warum zählst du das auf? Im Gegensatz zu LowK ist dies keine Prozessoption im 130nm LV Prozess. Was anderes produzieren die schon gar nicht mehr.

Dancer
2004-11-17, 15:50:35
Wo das denn?
Muss zwar zugeben, daß ich nicht alle Reviews gelesen habe, aber die wichtigsten habe ich mir vorgenommen.
Den Test von XbitLabs finde ich sehr gut.
http://www.xbitlabs.com/articles/vi...x700-games.html
Dieser bestätigt auch meine Aussage, daß 6600GT und X700XT in etwa gleichwertig sind.
Oder der Test von firingsquad:
http://firingsquad.com/hardware/ati...00_xt/page5.asp


Das würde ich auch so sehen - allerdings sind 6600GT erhältlich, von der X700 dagegen nur die Pro-Modelle und die kosten noch nichtmal weniger, als die 6600er (ok, dafür haben sie mehr onboard-RAM). ;)

Also das sehe ich nicht so. Ich würde jetzt zwar nicht von so einem Unterschied zu Gunsten der 6600GT reden wie beim Vergleich GF6800Gt vs X800pro aber er ist schon vorhanden.
Meisstens in der Performance minimal besser und dann zieht eben die Technik und da ist Nvidia einfach besser.
SM3.0, VP, SLI Option bei der PCI-E Variante und sehr gutes OC Potential.
Deswegen hat die große Mehrheit der Tester die GF6600GT ein wenig besser als die X700XT gesehen.

Anandtech, Hardocp, tech-report, sudhian, hexus um mal ein paar zu nennen. Selbst bei xbit hatte die X700XT doch noch so einige Probleme.
Wie gesagt alles in allem hat die Mehrheit der Tester die 6600GT leicht vorn gesehen und so sehe ich es eigentlich auch. Sie gibt halt einfach das bessere Gesamtbild ab.

Quasar
2004-11-17, 16:00:09
Mit "in etwa gleichwertig" bezeichne ich keine Differenzen von +/- 2,5%.

Quasar
2004-11-17, 16:02:45
Du meinst hier Kupferverdrahtungsebenen?
Warum zählst du das auf? Im Gegensatz zu LowK ist dies keine Prozessoption im 130nm LV Prozess. Was anderes produzieren die schon gar nicht mehr.
Öhm, ja keine Ahnung - "der Prozess" halt. Ist doch ein 0,13µ - Prozess mit lowK Dielektrika und copper interconnects, oder?

robbitop
2004-11-17, 16:27:27
Öhm, ja keine Ahnung - "der Prozess" halt. Ist doch ein 0,13µ - Prozess mit lowK Dielektrika und copper interconnects, oder?

Ja richtig, ich frage mich wieso du Cu Interconnects explizit erwähnst. Was anderes bauen die gar nicht mehr. Ist als wenn man bei einem Auto als Feature das Vorhandenseins eines Lenkrad oder des Getriebes erwähnt (überzogen ich weiss) :)

Gast
2004-11-17, 16:27:55
Wie gesagt alles in allem hat die Mehrheit der Tester die 6600GT leicht vorn gesehen und so sehe ich es eigentlich auch.
Genau. Leicht vorne, wenn überhaupt.
So wie du hier die 6600GT beschreibst, so würde ich noch nichtmal eine 9800PRO gegenüber einer FX5900 loben, obwohl es da angebrachter wäre.
Und wie Quasar schon schreib, ein paar % hin oder her ist für mich gleichwertig.
Zum Thema Technik. Es wird hier im Forum diskutiert, daß der NV40 für SM3-Effekte zu langsam ist, siehe PF, und du bringst das als Argument bei der 6600GT. Kann ich nicht nachvollziehen.
Dass SLI bei der 6600GT Unsinn ist, hatten wir auch schon geklärt. Eine einzelne 6800GT ist preiswerter und schneller.

Quasar
2004-11-17, 19:43:20
Zum Thema Technik. Es wird hier im Forum diskutiert, daß der NV40 für SM3-Effekte zu langsam ist, siehe PF, und du bringst das als Argument bei der 6600GT. Kann ich nicht nachvollziehen.
Das wiederum kann ich nachvollziehen - denn während im absoluten High-End die XTPE teilweise nicht nur meß- sondern auch merkbar schneller als die 6800u ist, scheint dies in der Mittelklasse nicht zu gelten (auch hier mag es andere Ansichten geben).

Von daher kommt hier IMO nicht die Diskussion auf, ob man sich Features mit niedrigeren FPS erkauft und man kann die SM3- und sonstige Funktionalität als Bonus sehen, der sonst keine Einschränkungen mit sich bringt.

robbitop
2004-11-18, 01:38:21
Das wiederum kann ich nachvollziehen - denn während im absoluten High-End die XTPE teilweise nicht nur meß- sondern auch merkbar schneller als die 6800u ist, scheint dies in der Mittelklasse nicht zu gelten (auch hier mag es andere Ansichten geben).

Von daher kommt hier IMO nicht die Diskussion auf, ob man sich Features mit niedrigeren FPS erkauft und man kann die SM3- und sonstige Funktionalität als Bonus sehen, der sonst keine Einschränkungen mit sich bringt.

Liegt wie du selbst schon oftmals betont hast an den höheren Taktraten im High End Bereich bei ATi. Im Midrangebereich ist das allerdings recht ausgeglichen.
Wobei NV43 schon durch seine 4 ROPs leidet. Die X700 sollte ja 16 haben.
2 pro Pixelpipeline.

Xmas
2004-11-18, 02:47:43
Wobei NV43 schon durch seine 4 ROPs leidet. Die X700 sollte ja 16 haben.
2 pro Pixelpipeline.
Wenn du auf diese Weise vergleichst, solltest du bei X700 8 angeben.

q@w
2004-11-18, 08:18:55
Liegt wie du selbst schon oftmals betont hast an den höheren Taktraten im High End Bereich bei ATi. Im Midrangebereich ist das allerdings recht ausgeglichen.
Ist mir bekannt - aber Fakt ist nunmal, daß in normalen Games der 30% höhere Takt für die X800 XTPE bisher meistens genügt, um schneller zu sein.
Im Mid-Range ist das nicht so - richtig.


Wobei NV43 schon durch seine 4 ROPs leidet. Die X700 sollte ja 16 haben.
2 pro Pixelpipeline.
Ist mir auch bekannt, aber, und das hast du selbst schon öfter eingeräumt, zu Zeiten von MT, trilinearer Filterung, AF und Pixelshadern ist längst nicht jeden Takt ein Quad fertig.
Und wenn, was mir bisher nicht bekannt ist, die ROPs (vermutlich 4 C-ROPs plus 4 Z-ROPs, wobei erstere wiederum als letztere fungieren können) pro Takt ein Quad durchschleusen können, dann dürfte da nur sehr selten ein schlimmer Verschnitt entstehen, der sich auch ausserhalb von ST-Fillrate bemerkbar macht.

Mit FSAA sieht's vermutlich wieder anders aus.

Dancer
2004-11-18, 08:51:30
Genau. Leicht vorne, wenn überhaupt.
So wie du hier die 6600GT beschreibst, so würde ich noch nichtmal eine 9800PRO gegenüber einer FX5900 loben, obwohl es da angebrachter wäre.
Und wie Quasar schon schreib, ein paar % hin oder her ist für mich gleichwertig.
Zum Thema Technik. Es wird hier im Forum diskutiert, daß der NV40 für SM3-Effekte zu langsam ist, siehe PF, und du bringst das als Argument bei der 6600GT. Kann ich nicht nachvollziehen.
Dass SLI bei der 6600GT Unsinn ist, hatten wir auch schon geklärt. Eine einzelne 6800GT ist preiswerter und schneller.

Ja wie gesagt leicht vorne reicht ja. Wieso soll ich da eine X700XT kaufen?
Preis der gleiche, Performance minimal schlechter insgesamt, kein VP, und vor allem kein SM3.0.
Ich bezahle ja fürs SM3.0 nicht extra. Es ist ein Bonus also kaufe ich das, wo ich für mein bezahltes Geld nunmal das meisste bekomme und das ist die GF6600GT und nunmal nicht die X700Xt.
Ist doch ziemlich simpel. Den Vorteil der XT-PE zur Ultra hat ATI nunmal einfach im Midrange nicht mehr und dann fällt die Entscheidung leicht.
Wenn ich 2 Autos habe die absolut gleichwertig oder einer minimal schlechter ist, dann zählt auch die Ausstattung. Da nehm ich immer das wo ich am meissten bekomme für mein Geld. Warum soll ich da die X700XT nehmen? Da wär ich doch bekloppt. Als Kunde bin ich nunmal nur mir selbst der Nächste.

Das größere Problem sehe ich für ATI sowieso im nicht Vorhandensein einer AGP Variante. Die alten 0.15er High End Chips da zu verkaufen halte ich für unklug. Aber das ist jetzt halt der Nachteil, weil man von Beginn an nur auf natives PCI-E gesetzt hat. Das erfordert dann verschiedene Chips, was beim Bridge Chip nicht der Fall ist. Deswegen dürfte Nvidia hier einen 3 monatigen Zeitvorteil haben um sein Produkt GF6600 und GF6600GT in der AGP Variante zu platzieren.

Gast
2004-11-18, 09:37:47
Ja wie gesagt leicht vorne reicht ja. Wieso soll ich da eine X700XT kaufen?
Preis der gleiche, Performance minimal schlechter insgesamt, kein VP, und vor allem kein SM3.0.
Ich bezahle ja fürs SM3.0 nicht extra. Es ist ein Bonus also kaufe ich das, wo ich für mein bezahltes Geld nunmal das meisste bekomme und das ist die GF6600GT und nunmal nicht die X700Xt.
Ist doch ziemlich simpel. Den Vorteil der XT-PE zur Ultra hat ATI nunmal einfach im Midrange nicht mehr und dann fällt die Entscheidung leicht.
Wenn ich 2 Autos habe die absolut gleichwertig oder einer minimal schlechter ist, dann zählt auch die Ausstattung. Da nehm ich immer das wo ich am meissten bekomme für mein Geld. Warum soll ich da die X700XT nehmen? Da wär ich doch bekloppt. Als Kunde bin ich nunmal nur mir selbst der Nächste.

Das größere Problem sehe ich für ATI sowieso im nicht Vorhandensein einer AGP Variante. Die alten 0.15er High End Chips da zu verkaufen halte ich für unklug. Aber das ist jetzt halt der Nachteil, weil man von Beginn an nur auf natives PCI-E gesetzt hat. Das erfordert dann verschiedene Chips, was beim Bridge Chip nicht der Fall ist. Deswegen dürfte Nvidia hier einen 3 monatigen Zeitvorteil haben um sein Produkt GF6600 und GF6600GT in der AGP Variante zu platzieren.

...eine Behauptung jagd die andere!

Der mit den Bauptungen tanzt = Dancer, das sollte deine Sig. werden.


;) Was meinst du passiert am 01.12 ? Richti der Weihnachtsmonat beginnt und zu Weihnachten werden meist die Wünsche erfüllt die wir haben*g*

Mal schaun was von ATI kommt!

robbitop
2004-11-18, 10:46:44
Mit FSAA sieht's vermutlich wieder anders aus.
Darauf wollte ich hinaus. Alles andere ist bei diesen Karten auch ziemlich irrelevant, nicht?
IIRC hat NV43 nur 4 ROPs. Allerdings können diese mehr als die von ATi.
Beim R3xx/4xx bringen die 2 ROPs pro Pipeline nur bei MSAA etwas.

q@w
2004-11-18, 11:41:02
Darauf wollte ich hinaus. Alles andere ist bei diesen Karten auch ziemlich irrelevant, nicht?
Nein, das ist es IMO nicht, nicht? ;)

Diese Karten sind in der preislichen Größenordnung von Vernunftkäufern - die geniessen AA so lange, bis die Leistung dafür nicht mehr ausreicht und schalten es dann ab.

AA wird IMO nur von einer sehr sehr kleinen Gruppe als Pflichtfeature gesehen, ohne welches sie meinen, nicht mehr leben zu können. Für die große Mehrheit, so sie denn überhaupt weiß, was das ist, ist AA ein Luxus wie für 'uns' bsw. HDR - abschalt- und verzichtbar, wenn die Leistung zu knapp wird.

robbitop
2004-11-18, 12:11:06
Nein, das ist es IMO nicht, nicht? ;)

Diese Karten sind in der preislichen Größenordnung von Vernunftkäufern - die geniessen AA so lange, bis die Leistung dafür nicht mehr ausreicht und schalten es dann ab.

AA wird IMO nur von einer sehr sehr kleinen Gruppe als Pflichtfeature gesehen, ohne welches sie meinen, nicht mehr leben zu können. Für die große Mehrheit, so sie denn überhaupt weiß, was das ist, ist AA ein Luxus wie für 'uns' bsw. HDR - abschalt- und verzichtbar, wenn die Leistung zu knapp wird.

Hrn, du darfst nicht den ReviewfaktorTM unterschätzen.
Die meisten Redakteure kennen nur 2 Settings. NoAA/AF und Volle Pulle.
Ohne überhaupt sich die Zielstellung der Karte anzusehen. Und bei 4xMS ist die Leistung der Karte eben essig. Sehr ungünstig für den Meinungsmultiplikator und die Verkäufe.

Wenn man bedenkt, wie "günstig" ROPs sind, ist es lächerlich diese auf 4 zu beschränken, nur um der 6800 nicht das Wasser abzugraben.

4xMS ist heutzutage durch Colorcompression/ Z Compression / gute Cachelines / EarlyZ / X-Bar sehr günstig.
Man bedenke ich kann mit meinem Radeon 9600XT Sample soziemlich alles @4xMS spielen. Und das gute Stück hat nur ~50% der Leistung eines NV43GT.
Sinnvoll wären mehr ROPs auf jeden Fall.

reunion
2004-11-18, 12:48:48
Ja wie gesagt leicht vorne reicht ja. Wieso soll ich da eine X700XT kaufen?
Preis der gleiche, Performance minimal schlechter insgesamt, kein VP, und vor allem kein SM3.0.
Ich bezahle ja fürs SM3.0 nicht extra. Es ist ein Bonus also kaufe ich das, wo ich für mein bezahltes Geld nunmal das meisste bekomme und das ist die GF6600GT und nunmal nicht die X700Xt.
Ist doch ziemlich simpel. Den Vorteil der XT-PE zur Ultra hat ATI nunmal einfach im Midrange nicht mehr und dann fällt die Entscheidung leicht.
Wenn ich 2 Autos habe die absolut gleichwertig oder einer minimal schlechter ist, dann zählt auch die Ausstattung. Da nehm ich immer das wo ich am meissten bekomme für mein Geld. Warum soll ich da die X700XT nehmen? Da wär ich doch bekloppt. Als Kunde bin ich nunmal nur mir selbst der Nächste.

Das größere Problem sehe ich für ATI sowieso im nicht Vorhandensein einer AGP Variante. Die alten 0.15er High End Chips da zu verkaufen halte ich für unklug. Aber das ist jetzt halt der Nachteil, weil man von Beginn an nur auf natives PCI-E gesetzt hat. Das erfordert dann verschiedene Chips, was beim Bridge Chip nicht der Fall ist. Deswegen dürfte Nvidia hier einen 3 monatigen Zeitvorteil haben um sein Produkt GF6600 und GF6600GT in der AGP Variante zu platzieren.

X700XT hat allerdings den Vorteil von 6VS und 8ROPs.
Insgesamt würde ich sagen liegen Radeon X700XT und GeForce 6600GT ungefähr gleichauf.

robbitop
2004-11-18, 12:55:30
X700XT hat allerdings den Vorteil von 6VS und 8ROPs.
Insgesamt würde ich sagen liegen Radeon X700XT und GeForce 6600GT ungefähr gleichauf.
16 ROPs ;)
in den 6xVS sehe ich keinen signifikanten Vorteil. (nicht für Spiele jedenfalls).

reunion
2004-11-18, 12:59:13
16 ROPs ;)



Was?
Geht das auch genauer? :|

BodyLove
2004-11-18, 13:11:46
AA wird IMO nur von einer sehr sehr kleinen Gruppe als Pflichtfeature gesehen, ohne welches sie meinen, nicht mehr leben zu können. Für die große Mehrheit, so sie denn überhaupt weiß, was das ist, ist AA ein Luxus wie für 'uns' bsw. HDR - abschalt- und verzichtbar, wenn die Leistung zu knapp wird.

Kann ich bestätigen. Als ich in meinem Kurs meinte, dass ich HL² mit 90FPS zocke, machten die meisten komische Gesichter. Als ich sagte, dass ich mit 4xAA und 16xAF spiele, wurde ich gefragt, was denn das sei...

robbitop
2004-11-18, 13:21:11
Was?
Geht das auch genauer? :|
Eine R3xx/4xx Pipeline besitzt genau wie eine NV2x/3x Pipeline 2xROPs.
Allerdings können sie die nur mit MSAA nutzen.
NV3x kann das sogar ohne MSAA.

DrumDub
2004-11-18, 13:26:29
also wenn ich mir so die leistung der x700xt mit 4xmsaa ansehe, dann begeistert die mich nicht gerade. soviel schneller als die 6600gt, wie sie theoretisch danke vierfacher (doppelter?) rop-menge sein sollte, ist sie nämlich nicht.

bei techreport.com (http://www.techreport.com/reviews/2004q4/geforce-6600gtagp/index.x?pg=17) gewinnt diie 6600gt von acht spielbenchmarks mit 4xmsaa (meistens mit 8xaf) fünf, die x700xt zwei und einer geht unentschieden aus.

hier (http://www.firingsquad.com/hardware/nvidia_geforce_6600_gt_agp/page6.asp) ergibt sich ein ähnliches bild gegenüber der 9800pro. die 9800xt kann dank 256mb die 6600gt dann häufiger schlagen bei 4xmsaa, aber auch nicht immer.

The GeForce 6600 GT doesn’t boast a 256-bit memory interface, but thanks largely to its screaming 8 pipeline graphics core which operates at 500MHz, the GeForce 6600 GT was able to outperform the RADEON 9800 PRO 128MB in our testing, in fact the 6600 GT was actually more competitive with the RADEON 9800 XT, which is a 256MB graphics card that retailed for $500 this time last year. It’s pretty remarkable to see how far the mainstream segment has come in such a short period of time.
http://www.firingsquad.com/hardware/nvidia_geforce_6600_gt_agp/page20.asp

robbitop
2004-11-18, 13:44:51
also wenn ich mir so die leistung der x700xt mit 4xmsaa ansehe, dann begeistert die mich nicht gerade. soviel schneller als die 6600gt, wie sie theoretisch danke vierfacher (doppelter?) rop-menge sein sollte, ist sie nämlich nicht.

bei techreport.com (http://www.techreport.com/reviews/2004q4/geforce-6600gtagp/index.x?pg=17) gewinnt diie 6600gt von acht spielbenchmarks mit 4xmsaa (meistens mit 8xaf) fünf, die x700xt zwei und einer geht unentschieden aus.

hier (http://www.firingsquad.com/hardware/nvidia_geforce_6600_gt_agp/page6.asp) ergibt sich ein ähnliches bild gegenüber der 9800pro. die 9800xt kann dank 256mb die 6600gt dann häufiger schlagen bei 4xmsaa, aber auch nicht immer.


http://www.firingsquad.com/hardware/nvidia_geforce_6600_gt_agp/page20.asp


Natürlich limitieren die ROPs nicht zu hundert Prozent. Wäre naiv, sowas zu denken. Auch die Bandbreite ist bei 128bit DDR knapp. Aber ein paar % kostet es sicher.

DrumDub
2004-11-18, 13:49:13
Natürlich limitieren die ROPs nicht zu hundert Prozent. Wäre naiv, sowas zu denken. Auch die Bandbreite ist bei 128bit DDR knapp. Aber ein paar % kostet es sicher.

nun ja. mir gings halt nur darum, das auch speedmäßig bei 4xmsaa nicht viel für die x700xt spricht. ihre vs-power kann sie irgendwie auch nicht gegenüber der 6600gt ausspielen. für mich ist die 6600gt auf jeden fall der neue king unter den midrange-karten. kann natürlich sein, dass ati nochmal an der taktschraube fpür die x700xt dreht. bisher ist ja noch nichts erschienen, obwohl die x700 xt im september vorgestellt wurde.

Gast
2004-11-18, 13:54:53
X700XT hat allerdings den Vorteil von 6VS und 8ROPs.

Da ich Fan von Strategiespielen mit massenweise (gleicher) Einheiten bin, werde ich wohl zur X700PRO/XT greifen, weil hier dürfte sich der Vorteil der 6VS gegenüber den 3VS bei der 6600GT bemerkbar machen.
Oder nicht?

aths
2004-11-18, 14:08:13
Eine R3xx/4xx Pipeline besitzt genau wie eine NV2x/3x Pipeline 2xROPs.
Allerdings können sie die nur mit MSAA nutzen.
NV3x kann das sogar ohne MSAA.Aber nur bei reinem Z/Stencil-Rendering.

robbitop
2004-11-18, 14:19:28
nun ja. mir gings halt nur darum, das auch speedmäßig bei 4xmsaa nicht viel für die x700xt spricht. ihre vs-power kann sie irgendwie auch nicht gegenüber der 6600gt ausspielen. für mich ist die 6600gt auf jeden fall der neue king unter den midrange-karten. kann natürlich sein, dass ati nochmal an der taktschraube fpür die x700xt dreht. bisher ist ja noch nichts erschienen, obwohl die x700 xt im september vorgestellt wurde.

Taktschraube wäre irgentwie sinnlos. Das würde NV dann auch machen.
Bei 128bit DDR ist 2xRGMS natürlich optimal. Aber ich sehe oft an meiner R9600XT wie flott diese mit 4xMS noch sein kann (natürlich nicht bei ganz neuen PS Krachern)

Gast
2004-11-18, 14:47:11
X700XT hat allerdings den Vorteil von 6VS und 8ROPs.
Insgesamt würde ich sagen liegen Radeon X700XT und GeForce 6600GT ungefähr gleichauf.

Der Vorteil hat sich aber in den Spielen nicht niedergeschlagen wie die Reviews ja gezeigt haben.
Die zusätzlichen VertexShader sind sowieso für die Tonne. Bis auch nur irgendein Spiel dort limitiert, ist es noch lange hin.
Deshalb ändert sich nix. Die 6600GT bietet das bessere Gesamtpaket.

DrumDub
2004-11-18, 15:39:08
Taktschraube wäre irgentwie sinnlos. Das würde NV dann auch machen.
Bei 128bit DDR ist 2xRGMS natürlich optimal. Aber ich sehe oft an meiner R9600XT wie flott diese mit 4xMS noch sein kann (natürlich nicht bei ganz neuen PS Krachern)

komisch ist nur, dass die 6600gt die 9800pro trotz 128bit interface überlegen ist bei 4xmsaa.

Gast
2004-11-18, 15:58:27
Wann soll denn der R430 kommen?
Wenn der R430 wirklich zwischen 200 und 300$ kosten soll, wäre das der Tod für X700XT und 6600GT.

reunion
2004-11-18, 16:22:06
Wann soll denn der R430 kommen?
Wenn der R430 wirklich zwischen 200 und 300$ kosten soll, wäre das der Tod für X700XT und 6600GT.


ATI's R430 to fight 6600GT and 6800 STD

IT IS TIME to reveal some of the details of the R430 chip. ATI will anounce this chip in early December, together with R480 and its variations.
R430 is a 110 nanometre version of the R420 core, or the R423 to be precise. It's a PCI Express only card but we know that ATI might be able to bridge those cards down to AGP sometime in Q1 2005. If it finds it necessary.

It will introduce three version os the cards XL, PRO and SE. XL comes with sixteen pipelines, the Pro will have twelve, while the SE will end up with eight pipes. We hope that we haven't mistyped XL from XT.

The clocks haven't been discused yet, but they will sit in 350MHz to 400MHz range for the clock speeds.

R430 will compete against the NV41, Geforce 6800 Standard, 6800 LE and of course let's not forget about the very strong and good 6600GT.

Those cards should be in the shops in the middle to the end of December, maybe too late for Yule shopping craziness, but still in time to give Nvidia a hard time.

Let's see how it will perform but ATI doesn't have too many naming slots open as X800, X700, X600 are already taken. They might have to go for the not so recognisable 50s in the name. µ

http://www.the-inquirer.net/?article=19620

Gast
2004-11-18, 16:36:30
@reunion
Danke. :)

Schade nur, daß ATI sich mit der AGP Variante so lange Zeit lassen will. ;(

DrumDub
2004-11-18, 16:37:04
ahh... also wird sich der r430 in der se-version mit der 6600gt messen müssen. da bin ich ja mal gespannt, wie es mit preis und leistung aussieht.

robbitop
2004-11-18, 17:22:03
komisch ist nur, dass die 6600gt die 9800pro trotz 128bit interface überlegen ist bei 4xmsaa.

Naja du musst natürlich auch den Takt berücksichtigen.

NV43 128bit bei 500MHZ macht 16GB/s
R350 128bit bei 340MHz macht 21,7GB/s

So riesig ist da der Unterschied nicht. Gerade mal 35%.
Und da die Reviewer noch immer zu den 4xMS max AF hinzunehmen, limitiert die Bandbreite natürlich nicht allein. Es kommt die Füllrate als 2. Flaschenhals hinzu.
Meinetwegen als 3. Komponente noch die Shaderleistung (Es ist extrem selten und meist nur bei Synthies, dass es nur 1 Flaschenhals gibt).
2 von 3 Flaschenhälse bewältigt die NV43 dann besser. Somit ist es schon möglich, dass sie je nach Umständen gewinnt. Besonders, wenn die Berechnung eines Pixels mindestens sowieso 8 Takte benötigt. Denn dann gibt es keine Stalls wegen ROP Mangel.

Xmas
2004-11-18, 19:28:39
16 ROPs ;)
RV410 hat nicht die vierfache Anzahl an ROPs wie NV43, sondern effektiv die doppelte, in einem Fall (Z/S-only, noAA) ist die ROP-Rate sogar gleich.

Demirug
2004-11-18, 19:31:51
RV410 hat nicht die vierfache Anzahl an ROPs wie NV43, sondern effektiv die doppelte, in einem Fall (Z/S-only, noAA) ist die ROP-Rate sogar gleich.

Deswegen würde ich eher von 8 Dual-ROPs sprechen.

Quasar
2004-11-18, 19:55:45
Hrn, du darfst nicht den ReviewfaktorTM unterschätzen.
Die meisten Redakteure [...]
Hier habe ich aufgehört zu lesen - sry.

"Die meisten Redakteure" interessieren mich ehrlich gesagt nicht mehr, als die einfachste Lösung den hartnäckigen Popel aus meiner Nase zu pulen, der mich gerade eben angefangen hat, zu nerven.

robbitop
2004-11-18, 20:24:16
Hier habe ich aufgehört zu lesen - sry.

"Die meisten Redakteure" interessieren mich ehrlich gesagt nicht mehr, als die einfachste Lösung den hartnäckigen Popel aus meiner Nase zu pulen, der mich gerade eben angefangen hat, zu nerven.

Ich argumentiere so, da es mir um den Meinungsmultiplikator geht.
Meine Persönliche Meinung ist davon, wie du weisst, natürlich unabhängig. Aber die Masse ist nun mal ...nicht so ...gut ...informiert ...und ...kritisch*hust*


Schade dass du meine Argumentationen überliesst. Ist IMO keine gute Diskussionsgrundlage.

Quasar
2004-11-18, 20:37:30
Kann ich bestätigen. Als ich in meinem Kurs meinte, dass ich HL² mit 90FPS zocke, machten die meisten komische Gesichter. Als ich sagte, dass ich mit 4xAA und 16xAF spiele, wurde ich gefragt, was denn das sei...
Kannst ja fast schon froh sein, daß die nicht "ch34t0r" gerufen haben. ;)

Wenn man bedenkt, wie "günstig" ROPs sind, ist es lächerlich diese auf 4 zu beschränken, nur um der 6800 nicht das Wasser abzugraben.
Wie "günstig" sind die denn - DoubleZ-ROPs mit FP16-Alphablendern und davon direkt vier Stück.... Immerhin musste man auch so schon deutlich mehr Transistoren mit sich rumschleppen, als der X700 und trotzdem noch möglichst denselben Taktpunkt erreichen.
Ich denke da z.B. an den nV17 - kein DoubleZ, kein FP16-Alphablending und trotzdem hat man ihm die ROPs beschnitten.

Dazu noch ein Argument: 17"-TFT sind im Kommen - mit eine nativen Auflösung von 1280x1024. 4xMSAA mit Filter at Scanout und evtl. Triple-Buffering sowie stetig steigender Texture-load in Games lassen grüßen.

Und wie 'gut' 4xMSAA mit 128Bittigem-500MHz-RAM ist, davon konnte und kann ich mich ganz gut überzeugen.

robbitop
2004-11-18, 20:50:31
Und wie 'gut' 4xMSAA mit 128Bittigem-500MHz-RAM ist, davon konnte und kann ich mich ganz gut überzeugen.
Wenn du da an deinen NV30U denkst:
NV43 schafft mit der gleichen Rohbandbreite und Rohfüllrate 4xMS deutlich schneller :)

Quasar
2004-11-18, 21:05:08
Wenn du da an deinen NV30U denkst:
NV43 schafft mit der gleichen Rohbandbreite und Rohfüllrate 4xMS deutlich schneller :)
Zeig' her. Aber bitte etwas, wo nicht die zweifellos schnelleren Shaderkerne zum Tragen kommen - am besten was MT-lastiges älteres.

robbitop
2004-11-18, 21:15:44
Zeig' her. Aber bitte etwas, wo nicht die zweifellos schnelleren Shaderkerne zum Tragen kommen - am besten was MT-lastiges älteres.

War ehehr eine Antizipation. Aber 4xMS sah in Far Cry schonmal brauchbar aus. (schneller als R350)

Quasar
2004-11-18, 21:41:42
Was bedeutet "sah brauchbar aus"?

robbitop
2004-11-18, 21:42:48
Was bedeutet "sah brauchbar aus"?
1280 4xMS flüssig. Und dabei schneller als eine 9800pro.

Quasar
2004-11-18, 21:46:55
Welche FarCry Demo?

Dancer
2004-11-18, 21:58:00
Wann soll denn der R430 kommen?
Wenn der R430 wirklich zwischen 200 und 300$ kosten soll, wäre das der Tod für X700XT und 6600GT.

nicht der Tod für GT und XT sondern einfach nur eine Preisstufe tiefer. Allerdings habe ich meine Zweifel das ATI die 200 Dollar Marke mit einem R430 erreicht - höchstens in einer abgespeckten Variante bzw. mit Ausschuss.

robbitop
2004-11-18, 22:01:49
training demo

Dancer
2004-11-18, 22:05:21
ahh... also wird sich der r430 in der se-version mit der 6600gt messen müssen. da bin ich ja mal gespannt, wie es mit preis und leistung aussieht.

Da hast du es schon betont - SE Version.
Wir wissen ja, dass die 6600GT als der derzeitige Mainstream King schon arg nah an die 6800nonUltra heranreicht.
Deswegen bin ich skeptisch was eine Konkurenzsituation zwischen R430 und NV43 angeht.

ATI hat da eigentlich nur 2 Möglichkeiten so etwas umzusetzen:
a) irgendeine abgespeckte R430 Variante bzw. Ausschuss
oder
b) Preis erheblich drücken.

Variante B bringt schonmal gar nichts, weil dann die X700XT im Preis fallen muss und vor allem wird Nvidia dann genau das gleiche machen - sprich Preis der GF6600GT wird fallen und eine NV41SE wird kommen.

Variante A ist eigentlich auch keine wirkliche Lösung aber noch besser als B. Man gefährdet die X700XT nicht ganz so und kann R430 Ausschuss noch verkaufen. Wettbewerbsvorteil ist allerdings ebenfalls bei so gut wie 0, da auch Nvidia dann seinen NV41 Ausschuss an den Mann bringen wird.
Irgendwie sehe ich keine so rechte Änderung der Lage im Mainstreamsegment dadurch, da Nvidia exakt die gleichen Produkte in der Pipeline hatte sprich einen 16, einen 12 und einen 8Piper. Mit NV44 kommt dann noch ein 4 Piper wahrscheinlich.
Nvidia hat auch die wichtigen Mainstream Positionen mit 6800nonU, 6800LE, 6600GT, 6600 und auch 6200 eher besetzt als ATI. Die waren da mit den Produkten irgendwie einen Tick schneller. Interessant auch deshalb, weil sich der Markt in einer Übergangsphase zwischen PCI-E und AGP befindet. Das heisst es muss in jedem Preissegment Produkte für beide Plattformen geben. Da hilft das Bridging natürlich ungemein, weil es Produktentwicklung und Einführung erheblich vereinfacht.

Quasar
2004-11-18, 22:31:26
training demo
Settings? Und, ums etwas zu entspammen: Sonstige Bedingungen, wie Test-Setup, Far Cry Version (v1.2 oder 1.3 - du erinnerst dich was das für einen Effekt hat?) usw usf.

Am Besten ein Link.

robbitop
2004-11-18, 22:36:58
Settings? Und, ums etwas zu entspammen: Sonstige Bedingungen, wie Test-Setup, Far Cry Version (v1.2 oder 1.3 - du erinnerst dich was das für einen Effekt hat?) usw usf.

Am Besten ein Link.

Seite 13. Drumdub hat da auf firingsquad verlinkt.

reunion
2004-11-18, 22:39:06
Irgendwie sehe ich keine so rechte Änderung der Lage im Mainstreamsegment dadurch, da Nvidia exakt die gleichen Produkte in der Pipeline hatte sprich einen 16, einen 12 und einen 8Piper. Mit NV44 kommt dann noch ein 4 Piper wahrscheinlich.

R430 soll 16pipes haben, NV41 nur 12.

Dancer
2004-11-18, 23:47:34
R430 soll 16pipes haben, NV41 nur 12.

Dann wirds aber noch schwieriger, weil kein DIE Größenvorteil mehr vorhanden ist. Kann ich mir nicht vorstellen.
Wenn dann wirds ein R430 mit deaktivierten Pipes oder mit den vollen 16 und dafür deutlich niedrigere Taktraten.
Der Fertigungsprozess ist der Gleiche.
16 Piper auf dem neuen Fertigungsprozess wird es zudem von Nvidia auch geben.
Irgendwie kein so richtiger Vorteil.

aths
2004-11-19, 01:44:53
Wie "günstig" sind die denn - DoubleZ-ROPs mit FP16-Alphablendern und davon direkt vier Stück.... Ich bin nicht davon überzeugt, dass NV43 pro Takt 8 Z-Werte in den ROPs testen kann, allerdings kann der NV43 pro Takt 8 Z-Werte rendern.

Ich denke da z.B. an den nV17 - kein DoubleZ, kein FP16-Alphablending und trotzdem hat man ihm die ROPs beschnitten.NV17 ist in erster Linie ein Office-Chip (inkl. VPE die der NV25 nicht hat.) Der Office-Chip NV17 hat halt noch ne überarbeitete GF2 MX drin, damit man gelegentlich ein Spielchen zocken kann.

aths
2004-11-19, 01:49:47
RV410 hat nicht die vierfache Anzahl an ROPs wie NV43, sondern effektiv die doppelte, in einem Fall (Z/S-only, noAA) ist die ROP-Rate sogar gleich.Sofern MSAA aktiv ist, kann der R410 chipseitig 16 Subpixel in den Framebuffer schreiben, NV43 nur 4. Allerdings wird die Bandbreite nicht reichen, damit der R410 diese ROP-Power voll ausnutzen kann. Durch Color- und Z-Compression dürfte man aber recht nahe ans theoretische Maximum kommen.

aths
2004-11-19, 01:55:36
Ja doch. Kleine Optimierungen halt, die die Effizienz des Chips steigern sollten.;) Am Speichercontroller wurde afaik in diesem Fall nicht gearbeitet. Ich wollte eigentlich nur eine Anspielung auf die "kleinen Optimierungen" machen.Außer den "brilinearen" Texturfiltern kenne ich keine "kleine Optimierung" vom R300 zum R350. Erst beim R420 wurde ein bisschen was gemacht, um die Leistung in 1600x1200 zu verbessern.

Xmas
2004-11-19, 05:54:13
Sofern MSAA aktiv ist, kann der R410 chipseitig 16 Subpixel in den Framebuffer schreiben, NV43 nur 4. Allerdings wird die Bandbreite nicht reichen, damit der R410 diese ROP-Power voll ausnutzen kann. Durch Color- und Z-Compression dürfte man aber recht nahe ans theoretische Maximum kommen.
Das ist AFAIK nicht richtig.
NV43 kann mit aktivem AA 8 Samples schreiben, ein Viertel von NV40 (mit 2xAA kann NV40 immer noch 16 Pixel/Takt schreiben).
Interessanterweise wurde die Blending-Performance gegenüber NV40 nur halbiert, d.h. NV43 kann pro Takt 4 Pixel blenden (das ist sicher und durch Benches bestätigt), bzw. 2 FP-Blends.

robbitop
2004-11-19, 07:55:39
Außer den "brilinearen" Texturfiltern kenne ich keine "kleine Optimierung" vom R300 zum R350. Erst beim R420 wurde ein bisschen was gemacht, um die Leistung in 1600x1200 zu verbessern.

Bri kam erst im RV350 hinzu.


16 Piper auf dem neuen Fertigungsprozess wird es zudem von Nvidia auch geben.
Meinst du 110nm? Nein, dem ist AFAIK nicht so. Es wird nicht mal einen 3 Quad NV4x @110nm geben.
Scheinbar liegt die Grenze der Belastbarkeit dieses low cost/high volume Prozesses bei knapp über 160Mio Transistoren.

Quasar
2004-11-19, 09:02:29
Seite 13. Drumdub hat da auf firingsquad verlinkt.
Hm, auf Seite 13 ist bei mir ein Link von einem Gast auf Firingsquid:
http://firingsquad.com/hardware/ati_radeon_x700_xt/page17.asp
Dort wird auf allen Karten SM2.0 verwendet (schreibt Firingsquid...) und entsprechend fällt die 6600GT mit 4xAA teils deutlich zurück - im Gegensatz zu 2xAA.

Auf Seite 14 (zumindest bei meinen Foren-Einstellungen, IIRC default) gibt Drumdub folgenden Link:
http://www.firingsquad.com/hardware/nvidia_geforce_6600_gt_agp/page13.asp
Dort wird allerdings Patch 1.3 verwendet - was das für die Vergleichbarkeit von R350/360 und Karten mit mehr als SM2.0 bedeutet, weißt du ja selbst - an den ROPs würde ich das nicht so sehr festmachen hier.

Quasar
2004-11-19, 09:14:20
INV17 ist in erster Linie ein Office-Chip (inkl. VPE die der NV25 nicht hat.) Der Office-Chip NV17 hat halt noch ne überarbeitete GF2 MX drin, damit man gelegentlich ein Spielchen zocken kann.
In erster Linie sicherlich - allerdings hat er weit mehr zu bieten, als eine GF2MX. Sogar im 3D-Bereich teilweise mehr als eine GF4 TI. ;)

mapel110
2004-11-19, 11:03:08
http://www.theinquirer.org/?article=19773
1 Dezember soll launch Tag sein vom X850(?!). schon bekannt?

btw
He didn’t talked about Shaders as Doom 3 is OpenGL and this API uses different things to visualize all this cool looking effects.

Ich sollte öfter Inquirer lesen, macht Laune. :D

reunion
2004-11-19, 11:22:28
Dann wirds aber noch schwieriger, weil kein DIE Größenvorteil mehr vorhanden ist. Kann ich mir nicht vorstellen.


Warum nicht?
R430(16pipes, wie R420) soll 160mio Transitoren besitzten und in 110nm gefertigt werden, NV41(12pipes) soll 190mio Trasistoren haben und in 130nm gefertigt werden.


Wenn dann wirds ein R430 mit deaktivierten Pipes oder mit den vollen 16 und dafür deutlich niedrigere Taktraten.


Wir werden sehen.


Der Fertigungsprozess ist der Gleiche.


Der gleiche wie bei welchen Chip?

16 Piper auf dem neuen Fertigungsprozess wird es zudem von Nvidia auch geben.


Nein, wird es nicht

Irgendwie kein so richtiger Vorteil.

Warum nicht?

robbitop
2004-11-19, 13:49:06
Hm, auf Seite 13 ist bei mir ein Link von einem Gast auf Firingsquid:
http://firingsquad.com/hardware/ati_radeon_x700_xt/page17.asp
Dort wird auf allen Karten SM2.0 verwendet (schreibt Firingsquid...) und entsprechend fällt die 6600GT mit 4xAA teils deutlich zurück - im Gegensatz zu 2xAA.

Auf Seite 14 (zumindest bei meinen Foren-Einstellungen, IIRC default) gibt Drumdub folgenden Link:
http://www.firingsquad.com/hardware/nvidia_geforce_6600_gt_agp/page13.asp
Dort wird allerdings Patch 1.3 verwendet - was das für die Vergleichbarkeit von R350/360 und Karten mit mehr als SM2.0 bedeutet, weißt du ja selbst - an den ROPs würde ich das nicht so sehr festmachen hier.

ROPs machen natürlich nur einen Teil aus. Der Großteil ist dem Speicherinterface zuzuschreiben.
Für 35% Bandbreitenrückstand ist die 4xMS Leistung akzeptabel.
Je länger die aritmetischen Shader werden, desto mehr rückt die Bandbreite in den Hintergrund.

Quasar
2004-11-19, 13:59:37
Ich meinte eigentlich eher die Tatsache, daß Patch 1.3 ein paar Veränderungen am Renderpfad bringt - wenn man ROP-Leistung vergleichen will, sollte man sich IMO eher auf Situationen konzentrieren, die auch maßgeblich dadurch beeinflusst werden.

robbitop
2004-11-19, 14:06:53
Ich meinte eigentlich eher die Tatsache, daß Patch 1.3 ein paar Veränderungen am Renderpfad bringt - wenn man ROP-Leistung vergleichen will, sollte man sich IMO eher auf Situationen konzentrieren, die auch maßgeblich dadurch beeinflusst werden.

Dann kommen Synthies am besten (Fablemark zB).
Ansonsten wirst du immer andere Einflüsse haben, auch wenn du sie relativ geschwächt bekommst.

Quasar
2004-11-19, 14:17:25
...maßgeblich beeinflusst...

Das hast du sogar mitzitiert. :rolleyes:

aths
2004-11-19, 16:07:05
In erster Linie sicherlich - allerdings hat er weit mehr zu bieten, als eine GF2MX. Sogar im 3D-Bereich teilweise mehr als eine GF4 TI. ;)Was hat NV17 im 3D-Bereich dem NV25 voraus?

Abgesehen von 2x RGMSAA hat NV17 3D-featuremäßig nicht mehr zu bieten als eine GF2 (MX), nur ist die Leistung etwa auf GF2 GTS-Niveau anzusiedeln.

aths
2004-11-19, 16:44:34
Das ist AFAIK nicht richtig.
NV43 kann mit aktivem AA 8 Samples schreiben, ein Viertel von NV40 (mit 2xAA kann NV40 immer noch 16 Pixel/Takt schreiben).Hrm, dann wundern mich die 4xAA-Ergebnisse gar nicht mehr. Mit den NV40-ROPs kann man ja statt Blending auch 1x Z machen, sofern kein Blending stattfindet wären das dann 8 Z-Tests, ja.

Quasar
2004-11-19, 17:02:52
Was hat NV17 im 3D-Bereich dem NV25 voraus?

Abgesehen von 2x RGMSAA hat NV17 3D-featuremäßig nicht mehr zu bieten als eine GF2 (MX), nur ist die Leistung etwa auf GF2 GTS-Niveau anzusiedeln.
Sehr performantes HSR zum Beispiel.

aths
2004-11-19, 17:07:40
Sehr performantes HSR zum Beispiel.Hat NV25 auch. Fällt vielleicht nicht so auf, da die Rohleistung erheblich größer ist.

Quasar
2004-11-19, 17:21:51
Kann der auch so schön fix Stencils 'cullen'?

aths
2004-11-19, 22:15:54
Kann der auch so schön fix Stencils 'cullen'?Seit wann es Early Stencil Occlusion gibt, weiß ich nicht.

Quasar
2004-11-20, 00:17:21
Offenbar seit dem nV17 - mit ein paar Chips zwischendrin, die übersprungen wurden.

edit:
So, wie die GF4 Ti offenbar:
http://www.forum-3dcenter.de/vbulletin/showpost.php?p=1491549&postcount=63

aths
2004-11-20, 16:32:39
Offenbar seit dem nV17 - mit ein paar Chips zwischendrin, die übersprungen wurden.

edit:
So, wie die GF4 Ti offenbar:
http://www.forum-3dcenter.de/vbulletin/showpost.php?p=1491549&postcount=63
Es böte sich noch eine andere Erklärungsmöglichkeit an, die mit dem EarlyZ-Problem der GF4 Ti zusammenhängt. In OpenGL und einigen D3D-Benches beweist die Karte, dass sie EarlyZ Occlusion kann, aber für D3D-Spiele ist es standardmäßig deaktiviert. Komischerweise. Vielleicht ist auch in OpenGL nicht alles aktiv, was der Chip kann. Eine Erklärung dafür, warum EarlyZ nicht immer aktiv ist, habe ich nicht, ich bin mir lediglich sicher, diesen Fakt als solchen nachgewiesen zu haben. Ich sehe keinen Grund, NV17 mit Early Stencil Occlusion zu versehen und das der GF4 Ti vorzuenthalten. Dass NV25 die VPE nicht hat, und das seltsame Verhalten beim bi-AF, wäre mit Transistormangel zu erklären, doch auch beim NV17 musste ja auf den Count geachtet werden (siehe ROP-Problematik.)

Jesus
2004-11-20, 16:46:07
Außer den "brilinearen" Texturfiltern kenne ich keine "kleine Optimierung" vom R300 zum R350. Erst beim R420 wurde ein bisschen was gemacht, um die Leistung in 1600x1200 zu verbessern.

naja HyperZ wurde auch erweitert und die Z Kompressionsrate wurde erhöht (1:16 auf 1:32 afaik).

robbitop
2004-11-20, 22:03:42
Was hat NV17 im 3D-Bereich dem NV25 voraus?

Abgesehen von 2x RGMSAA hat NV17 3D-featuremäßig nicht mehr zu bieten als eine GF2 (MX), nur ist die Leistung etwa auf GF2 GTS-Niveau anzusiedeln.

je nach Auflösung und Farbtiefe bis zu 40% schneller als eine GF2U (IIRC).
LMA2 bringt da gut Leistung.

Quasar ohne Keks
2004-11-20, 23:33:32
Es böte sich noch eine andere Erklärungsmöglichkeit an, die mit dem EarlyZ-Problem der GF4 Ti zusammenhängt. In OpenGL und einigen D3D-Benches beweist die Karte, dass sie EarlyZ Occlusion kann, aber für D3D-Spiele ist es standardmäßig deaktiviert. Komischerweise. Vielleicht ist auch in OpenGL nicht alles aktiv, was der Chip kann. Eine Erklärung dafür, warum EarlyZ nicht immer aktiv ist, habe ich nicht, ich bin mir lediglich sicher, diesen Fakt als solchen nachgewiesen zu haben. Ich sehe keinen Grund, NV17 mit Early Stencil Occlusion zu versehen und das der GF4 Ti vorzuenthalten. Dass NV25 die VPE nicht hat, und das seltsame Verhalten beim bi-AF, wäre mit Transistormangel zu erklären, doch auch beim NV17 musste ja auf den Count geachtet werden (siehe ROP-Problematik.)

Hier zum Vergleich der relevante Teil der nV17
ArchMark 0.22.05
Driver GeForce4 MX 460/AGP/SSE v1.4.0
Resolution 1024x768 @ unknown refresh rate
Comment GF4 MX460 Det45.23
Method Flush
Timer 701.590 MHz

Fillrate
--32 bits---------------------------------------
Mode RGBA8888 Z24 S8
Col 595.965 MPix/s
Z 1.167 GPix/s
ColZ 594.918 MPix/s
ZPassColZ 585.547 MPix/s
ZCullLEqual 4.505 GPix/s
ZCullGEqual 4.505 GPix/s
ZCullEqual 4.505 GPix/s
S 4.505 GPix/s
SCull 4.505 GPix/s
----stencil test passed-------------------------
S 4.480 GPix/s
ZFailS 698.993 MPix/s
------z test passed (LEQUAL)--------------------
S 698.871 MPix/s
ZS 698.924 MPix/s
Col 555.542 MPix/s
ColZ 510.749 MPix/s
ColS 557.824 MPix/s
ColZS 508.313 MPix/s



--16 bits---------------------------------------
Mode RGBA5650 Z16 S0
Col 598.287 MPix/s
Z 598.314 MPix/s
ColZ 598.311 MPix/s
ZPassColZ 598.352 MPix/s
ZCullLEqual 4.557 GPix/s
ZCullGEqual 4.493 GPix/s
ZCullEqual 4.557 GPix/s



Vielleicht ist auch in OpenGL nicht alles aktiv, was der Chip kann.
Tut mir leid, aber wenn weder unter D3D noch OpenGL irgendwelche Chipteile aktiv sind, dann ist es 3d-featuretechnisch dasselbe, als wären sie nicht vorhanden.

robbitop
2004-11-21, 09:36:21
Hier (http://www.beyond3d.com/previews/nvidia/nv43agp/index.php?p=6) hast du dein DX7 MT 4xAA Test. NV43 ist bei 4xAA 1xAF in UT2004 deutlich schneller als NV30.
LMA scheint extrem besser geworden zu sein. Ohne AA und ohne PS beide Karten ähnlich schnell. Allerdings bringen die 2 unabhängigen Quads ggü dem tieferen einzelnen der NV30u ab und an Vorteile von fast 10% wenn die Füllrate limitiert.

Quasar
2004-11-21, 09:56:29
Ich habe mich schon gefragt, wann du mir diesen B3D-Graphen um die Ohren hauen wirst. :)
UT2004 scheint wirklich ein dankbares Opfer hierfür zu sein. Ich hoffe, wir sehen irgendwann noch mal ein paar Benchmarks, die aufzeigen, daß es nicht einer Besonderheit von UT2004 zu verdanken ist, daß die 6600GT-AGP hier sowohl ihre PCIe-Schwester (die allerdings auf einer anderen Plattform läuft), als auch die FX5800u deutlich abhängt.

Natürlich bedeuten weniger konzentrierte TMUs einen Vorteil. Bsw. immer dann, wenn man eine ungerade Anzahl an Texturlayern hat, verliert die einzelne Pipeline eines nV30 quasi 50% ihrer Leistung für den finalen Loop dieses Pixels.

robbitop
2004-11-21, 17:22:52
Natürlich bedeuten weniger konzentrierte TMUs einen Vorteil. Bsw. immer dann, wenn man eine ungerade Anzahl an Texturlayern hat, verliert die einzelne Pipeline eines nV30 quasi 50% ihrer Leistung für den finalen Loop dieses Pixels.

Du zweifelst das Ganze also an?

Heutzutage wird eh alles trilinear gefiltert, somit spielt die Anzahl an Texturlagen keine relevante Rolle mehr.

Demirug
2004-11-21, 17:25:20
Du zweifelst das Ganze also an?

Heutzutage wird eh alles trilinear gefiltert, somit spielt die Anzahl an Texturlagen keine relevante Rolle mehr.

BRI Linear?

Render To Texture Effekte?

aths
2004-11-21, 17:52:57
Tut mir leid, aber wenn weder unter D3D noch OpenGL irgendwelche Chipteile aktiv sind, dann ist es 3d-featuretechnisch dasselbe, als wären sie nicht vorhanden.Das braucht dir nicht leid tun :) "dasselbe" ist es zu dem Zeitpunkt, in dem man die betroffenen Treiber nutzt. Mittels undokumentiertem Registry-Eintrag (den ich von Unwinder hatte), der bis 45.xx oder so funzt, konnte die GF4 Ti ja dazu überredet werden, in D3D generell EarlyZ Occlusion zu aktivieren. Hat die GF4 Ti das nun in D3D, oder nicht?

In Doom3 scheint treiberseitig Triple Buffering aktiv (jedenfalls habe ich trotz VSync mit der 5900 keine Limitierung auf die berühmten FPS-Teilwerte) aber man kanns nicht generell im Treiber umschalten. Kann NV35 nun Triple Buffering in OpenGL oder nicht?

Da ist es imo sinnvoll, zu fragen was der Chip kann, und erst im zweiten Schritt zu gucken was der Treiber davon (und unter welchen Umständen) erlaubt.

aths
2004-11-21, 17:59:43
BRI Linear?

Render To Texture Effekte?Naja, "brilinear" akzeptiere ich persönlich ja bei einer Highend-Karte nicht als akzeptablen Texturfilter. Wie viele Texturschichten verwenden moderne Spiele? 3, 4, 5? Nur bei 3 würde man deutlich Füllrate verlieren – sofern weder trilinear noch anisotrop gefiltert würde.

Bei Render2Texture, wie viele Takte kostet die Erzeugung eines Pixels? Wenn man pro Takt doppelt so viele Texel schreiben könnte, kommt die Karte überhaupt mit der Erzeugung hinterher?

Angesichts der Verschiebung von Texturfüllrate hin zu arithmetischer Leistung ist es aber sicher günstig, viele Pipes mit vielen Shader Units und eben nur einer bi-TMU zu verbauen.

Quasar
2004-11-21, 20:46:22
Du zweifelst das Ganze also an?
Jein. ;) Ich zweifle nicht an, daß B3D bei der von ihnen genutzten Timedemo, mit den von ihnen genutzten Treibern mit den von ihnen genutzten Einstellungen die präsentierten Ergebnisse 'erfahren' hat.

Allerdings und das habe ich heute morgen in der Eile wirklich übersehen: Wo ist der Test mit nur FSAA aktiv? Also ohne AF?


Heutzutage wird eh alles trilinear gefiltert, somit spielt die Anzahl an Texturlagen keine relevante Rolle mehr.
Schön wär's, wenn heutzutage alles trilinear gefiltert würde... Die nötige Leistung wäre durchaus vorhanden.

edit:
The 6600 GT's have again got fairly large performance gains over the FX boards. In the case of the 5700 Ultra some of this performance difference will be dues to the difference in texturing performance. However, given the performance difference between the newer generation boards and the 5800 Ultra, which has the same theoretical texture performance as the 6600 GT's, some of the performance difference may also be due to more effective FSAA compression routines.
...and none of which is of course attributable to the reduced-quality anisotropic filtering introduced with the GeForce6-series. Neither the angle-dependancy nor the newly introduced driver optimization "anisotropic sample optimization" (of which the FX might not be capable) could possibly have affected the outcomes of this test - never ever can a reduced workload lead to higher performance.
:freak:

Demirug
2004-11-21, 21:05:59
Naja, "brilinear" akzeptiere ich persönlich ja bei einer Highend-Karte nicht als akzeptablen Texturfilter. Wie viele Texturschichten verwenden moderne Spiele? 3, 4, 5? Nur bei 3 würde man deutlich Füllrate verlieren – sofern weder trilinear noch anisotrop gefiltert würde.

Sicherlich ich erwarte aber durchaus auch AF Filter die mit einer ungeraden Anzahl von Samples arbeiten.

Bei Render2Texture, wie viele Takte kostet die Erzeugung eines Pixels? Wenn man pro Takt doppelt so viele Texel schreiben könnte, kommt die Karte überhaupt mit der Erzeugung hinterher?

Ich meinte damit eigentlich eher das einlesen einer solchen mit R2T erzeugen Texturen. Die haben in der Regel keine Mipmaps.

Angesichts der Verschiebung von Texturfüllrate hin zu arithmetischer Leistung ist es aber sicher günstig, viele Pipes mit vielen Shader Units und eben nur einer bi-TMU zu verbauen.

Eigentlich wäre es günstig die Pipeline Idee entgültig über board zu werfen.

robbitop
2004-11-21, 23:23:59
edit:

...and none of which is of course attributable to the reduced-quality anisotropic filtering introduced with the GeForce6-series. Neither the angle-dependancy nor the newly introduced driver optimization "anisotropic sample optimization" (of which the FX might not be capable) could possibly have affected the outcomes of this test - never ever can a reduced workload lead to higher performance.
:freak:

Hm ich meinte den Test ohne AF ;).

Quasar
2004-11-22, 00:16:39
Hm ich meinte den Test ohne AF ;).
Den da?
Hier (http://www.beyond3d.com/previews/nvidia/nv43agp/index.php?p=6) hast du dein DX7 MT 4xAA Test.

Wenn ja, bitte mal genau auf das Bild verlinken - irgendwie finde ich da nur einen ohne alles, einen mit AA&AF und einen, wo nur die 6600GT gegen sich selbst antritt.
Habe wahrscheinlich Tomaten auf den Augen.

robbitop
2004-11-22, 09:39:42
Habe wahrscheinlich Tomaten auf den Augen.

nein sorry ...ich hatte Tomaten auf den Augen.

hrn aber schon ein interessanter Vergleich, schade dass Wavey hier nicht sehr genug geschaut hat.
Das wäre doch mal ein Test für dich Quasar :-)

Gast
2004-11-22, 10:43:46
http://www.theinq.com/images/articles/X850.jpg

http://www.theinq.com/?article=19813

Tarkin
2004-11-22, 10:44:31
sorry, ich war das ;)

http://www.theinq.com/?article=19813

http://www.theinq.com/images/articles/X850.jpg

Winter[Raven]
2004-11-22, 10:58:18
sorry, ich war das ;)

http://www.theinq.com/?article=19813

http://www.theinq.com/images/articles/X850.jpg

Welch eine Ironie, ein Föhn....! und Double Slot!!!!!

Tjö, so trifft man sich wieder, jetzt ist ja fast der letze Vorteil von ATI FUTSCH... *eg*

robbitop
2004-11-22, 11:05:00
Nunja wenn ich bedenke, dass die "großen" ATi Karten eh nicht stabil liefen, wenn man den 1.PCI Platz mit einer Karte belegte (thermische Gründe) und die Lüfter schon eine ganze Weile nicht mehr die Leisesten sind, ist dieser Vorteil schon lange "futsch".

Aber eine Kühllösung ist natürlich jedem PCB Hersteller selbst überlassen. Wenn ich mich da an meine gute alte FX5900 von Sparkle erinnere....die besass einen 1 Slot Kühler und der Lüfter war extra so weit vorn, dass keine PCI Karte den Luftstrom blockieren konnte.

In sofern sollte man sich vieleicht nicht allzuviel aus einer Standard Kühlung machen.
Zumal ein VGA Silencer ja auf einem sehr ähnlichen Prinzip basiert und von der Lautstärke und Kühlleisung gut ist.
Die Umsetzung ist eben entscheident ;-)

reunion
2004-11-22, 11:09:46
ATI's R430, X800 XL/X800 details revealed

THE X800 BRAND is about to get some more followers. ATI plants to introduce two cards that will continue to carry the X800 brand but, as it is the case with X850 new X800 cards will be PCIe only.
This time ATI managed to shrink the marchitecture to 110 nanometres and squeezed all to a much cheaper for production single slot thing.

Radeon X800XL is based on the R430XL chip. Its core is clocked to 400MHz and the memory runs at 500, 1000MHz. The card comes with sixteen pipelines, 256MB RAM and VGA, DVI and TV out. The suggested retail price for this card is $349.

The second of the 110 nanometre based X800s is going to be positioned between the X800 XL and X800PRO. The Radeon X800 without suffixes is based on R430PRO core and it has twelve pipelines. Its core rocks at 400MHz while its memory is clocked to 350, 700MHz. Suggested retail price for this card is a very affordable $249, provided you have a spare $250.

ATI will announce these cards on December the first and expects to have them on retail shelves and distribution channels on the first working day of the New Year. Impressive if it manage to achieve it. But then again this means that these cards are Q1 2005 products even few press chaps will manage to reveal them in week 49 of this year.

Those cards are meant to fight Nvidia's quietly announced NV41. µ


http://www.the-inquirer.net/?article=19814

reunion
2004-11-22, 11:12:11
Zumal ein VGA Silencer ja auf einem sehr ähnlichen Prinzip basiert und von der Lautstärke und Kühlleisung gut ist.
Die Umsetzung ist eben entscheident ;-)

ACk, das Bild sagt im Prinzip überhauptnichts, außer das der Kühler nicht schlecht aussieht ;)

reunion
2004-11-22, 11:14:34
sorry, ich war das ;)

http://www.theinq.com/?article=19813

http://www.theinq.com/images/articles/X850.jpg

It will launch these cards on the first of December early in the morning but expects to have those cards on the market in early January 2005.

ATI will claim the X850 will have much better availability than the disastrously not available X800 XT PE AGP card. Let's hope that it is right and bear in mind that the cards are PCIe only. µ

//EDIT: Irgendwie seltsam das die Bodenplatte aus Alu und die Lamellen aus Kupfer sind. Wäre das nicht umgekehrt interligenter?

betasilie
2004-11-22, 11:33:46
//EDIT: Irgendwie seltsam das die Bodenplatte aus Alu und die Lamellen aus Kupfer sind. Wäre das nicht umgekehrt interligenter?
Gut möglich, dass der Rahmen aus Kupfer ist und der Kupferkühler lediglich in diesen Alurahmen eingefasst ist.

Für mich sieht die Kühllösung der vielversprechend aus.

Black-Scorpion
2004-11-22, 11:37:44
//EDIT: Irgendwie seltsam das die Bodenplatte aus Alu und die Lamellen aus Kupfer sind. Wäre das nicht umgekehrt interligenter?
Man sieht ja nicht ob die Platte durchgehend ist.
Kann ja auch sein das die Platte nur als Rahmen aufgebaut ist und der Kühler auf der GPU aufsitzt.

'edit' Ich sollte schneller schreiben.

reunion
2004-11-22, 12:53:16
X850 pricing, availability and performance are here: $399 for PRO to $549 for X850 XT PE

WE HAVE TO NECESSARILY add a few more details about the soon to be launched X850 cards. They won't be cheap, they won't be cheap at all.
The X850 XT Platinum edition will be available for $549. ATI just manage to break all the limits of common sense with this pricing. I believe that they want to ensure that not many people will go out and buy them. Many people would like them, but only a few can afford them. ATI certainly wants to make some revenues from these babies.

The X850 XT will cost $499 when available, and just like X850 XT PE will have dual DVI slots, TV out and sixteen pipelines. Just a slightly different clock.

The X850 PRO and its twelve pipelines, DVI, VGA and TV-out connectors will cost $399.

ATI claims that X850 XT Platinum edition will end up twenty per cent faster than Geforce 6800 Ultra in 3Dmark05, almost forty per cent faster in Far Cry and around 55 per cent faster in Unreal Tournament 2004. Those numbers come from ATI.

The cards are expected to be on retail shelves and through distribution channels on the first working day of 2005. ATI partners have faith that ATI will ship these cards this time as they don't want to go through the unavailability pain again. I sense that 2005 won't chill down the graphic wars at all. µ

http://www.the-inquirer.net/?article=19816

//EDIT: Naja, die Nachfrage regelt den Preis, oder besser der Preis regelt die Nachfrage ;)

Quasar
2004-11-22, 12:57:58
nein sorry ...ich hatte Tomaten auf den Augen.

hrn aber schon ein interessanter Vergleich, schade dass Wavey hier nicht sehr genug geschaut hat.
Das wäre doch mal ein Test für dich Quasar :-)

Dafür fehlen mir ein paar der nötigen Zutaten. ;)

robbitop
2004-11-22, 13:30:05
Dafür fehlen mir ein paar der nötigen Zutaten. ;)

Ich kenne da jemanden der sowas ggf. besorgen könnte ;)

seahawk
2004-11-22, 13:39:50
Wenn mir jetzt noch einer den Sinn von X800XL 16 Pipes @ 400Mhz / 500MHz RAM und X850PRO 12 Pipes @ 520 / 540 MHz RAM erklärt ...

Besonders wenn die X800XL deutlich billiger ist.

[ncp]EasyChiller
2004-11-22, 13:56:14
Zum Kühler: sehr interessant .. großer Lüfter .. SAUGEND montiert .. dürfte einiges an Lautstärkenreduktion bringen!


Zur Bodenplatte: ich glaube das diese nicht aus CU ist hat evtl. Gewichts-Gründe! :biggrin:

Ob die Lamellen aus CU oder Alu besser sind ist immer ne Konstruktionsfrage. Wenn ich mir die so anschaue sehen die Lamellen sehr dünn (dafür recht dicht) aus .. d.h. da wird wohl CU besser angebracht sein. Ob die Bodenplatte aus Alu oder CU ist wird nicht sooo einen grossen Einfluss haben .. ich vermute sogar mal, das ein CU-Heatspreder in die Bodenplatte eingefasst ist! Wenn du sie eben aus ALU fertigst, kannst du sie bei geringeren Kosten und wesentlich größerer Dicke bei gleichem Gewicht herstellen. So und ob nun ne 2,5 mal so dicke ALU-Platte besser die Wärme großfläche verteilen kann wie eine um diesen Faktor dünnere CU-Platte könnte mann drüber diskutieren. ;D

Durch die sehr dünnen CU-Fins könnte die Lautstärke auch sehr schön reduziert werden, da an diesen dann weniger Verwirbelungen auftreten sollten. Und der Lüfter schein (wenn ich mir da die Fins anschaue ... oder sollte mann schon Finlets sagen?! ) auch sehr auf "leise sein" optimiert zu sein. Also auf mich macht dieser Kühler einen sehr gut durchdachten Eindruck! ;)


Edit: muss mich hier einigen Vorredner anschliessen: Kann mich ja auch irren, aber für mich sieht das so aus als ob der Kühlteil noch ne eigene Bodenplatte aus CU hat! Also als ob das Aludings da nur wie ein Eifassungs- oder Halterahmen wirkt! :|

Warten wir erste Tests ab!

deekey777
2004-11-22, 15:49:05
Wenn mir jetzt noch einer den Sinn von X800XL 16 Pipes @ 400Mhz / 500MHz RAM und X850PRO 12 Pipes @ 520 / 540 MHz RAM erklärt ...

Besonders wenn die X800XL deutlich billiger ist.


Vermutung: Da die beiden Grafikkarten auf unterschiedlichen Chips basieren, könnte es durchaus möglich sein, dass die X850 Pro mehr zu bieten haben wird(mehr Transistoren, mehr Features?), die X800XL dagegen "nur" ein "Shrink" des R423 auf 0,11 Technologie. Auch ist ein R480 als Chip vielleicht teurer in der Herstellung, und die "Differenz" wird auf den Kunden weitergeleitet.
ATi wird wohl für jeden, der 50€ zu viel hat, eine Grafikkarte anbieten. :D

Bitte nicht steinigen.

[ncp]EasyChiller
2004-11-22, 16:08:52
*denerstensteinwirft*

für den 0.11'er nen shrink vom alten zu nehmen halte ich eher für unwarscheinlich! Wenn dann werden sie schon gleich die etwas optimierte Variante einsetzten! :biggrin:

dean
2004-11-22, 19:05:47
Vom 480er gibt es wohl: sehr gut(16)<--- gut(16)<--- gut, aber 1 Quad defekt(12)<---Müll
Beim 430 reichen scheinbar 3 aus, um ihn so anzubieten: sehr gut-gut(16)<---1Quad defekt(12)<---Müll

Irgendwo müssen die mit defektem Quad ja noch hin!

Wer weiss!
Gruss

Gast
2004-11-22, 19:25:48
Vom 480er gibt es wohl: sehr gut(16)<--- gut(16)<--- gut, aber 1 Quad defekt(12)<---Müll
Beim 430 reichen scheinbar 3 aus, um ihn so anzubieten: sehr gut-gut(16)<---1Quad defekt(12)<---Müll

Irgendwo müssen die mit defektem Quad ja noch hin!

Wer weiss!
Gruss

Bisher:

X800XT PE 16 Pipes Ulta High End
X800XT 16 Pipes High End
X800Pro 12 Pipes High End
X800SE 8 Pipes Midrange/OEM

dean
2004-11-22, 19:38:38
Bisher:

X800XT PE 16 Pipes Ulta High End
X800XT 16 Pipes High End
X800Pro 12 Pipes High End
X800SE 8 Pipes Midrange/OEM

Ich denke mal, dass glauben in etwa (X800Pro als High-End?) die meisten in diesem Thread;)

Aber generell gesagt, ich denke ATI wird da schon vernünftig validiert haben. Sie wissen´s sicher am besten, wie sie die Ausbeute ausnutzen.

Die beiden 850Pro<->800XL könnten ein interessantes und vielleicht dann aufschlussreiches Duell haben.-->freuen wir uns auf Tests;)

Am wichtigsten ist sicher der Speicher-Conroller, gerade für die 12-Piper.


Gruss

[ncp]EasyChiller
2004-11-22, 19:59:41
Welcher Chip würd denn das bessere OC-Potential haben? ich denke mal das unter Betrachtung von eben diesem der 16-piper auf 430-basis dem 12-piper auf 480 den Rang mehr als streitig machen wird. (ne entsprechende Kühlung / Wakü vorrausgesetzt) :confused:

seahawk
2004-11-22, 20:27:46
Außer der X800 ist irgendow abgespeckt. Weniger ROps oder sowas. Oder gar ein 128-Bit Businterface. Aber das wäre nun wirklich ein Witz.

Tarkin
2004-11-23, 09:09:50
http://www.theinq.com/?article=19820

Radeon X800 XL (0.11er Fertigung, 16 Pipes... sieht ja richtig "zierlich" aus ;-)
... man beachte: kein zus. Power Connector!

http://www.theinq.com/images/articles/X800XL.jpg

WE INFORMED you yesterday about ATI's 0.11µm/110 nanometre marchitecture X800 cards and it's time to finish the story. We want to do it before the Muenchen briefing begins.
Here is a picture below of a card that artfully reminds me of Abit's X700 card. Its cooler definitely reminds me of the X700 cards. It's very easy to notice that this card doesn’t have any power connector which means that it has to operate under 75W. It comes with TV out, DVI and S-video out.

It uses UHE architecture and we don’t know what that actually means. We forget to say that X800XL comes with 256 MB memory, 16 pipelines at $349 while X800 plan comes with 128 MB and its 12 pipelines for $249.

From charts we've seen, we notice that old Radeon X800PRO sits in-between two new X800 members. X800XL is faster in most cases expect in number of Vertices / second while X800 plan ends up slower than pro which does not surprises at all.

X800 plain should end up with 9000 3Dmarks obviously version 2003. In 3Dmark05 X800 plain is suppose to end up around twenty five percent faster than Nvidia 6800 twelve part counter part. Radeon 800 XL might end up just a few percent faster from 6800 GT. In Far Cry X800 twelve pipes is still twenty five percent faster from 6800 PCIe and this time X800XL ends up around twenty percent faster from sixteen pipes 6800 GT.

In Unreal Tournament ATI claims that X800 Plain gets up to fifty percent faster than Nvidia 6800 PCI an NV41 card, while X800XL ends up around twenty percent faster from its Nvidia 6800 GT counterpart. I have to remind you that those numbers are coming from ATI.

Even though we know that the X850 is now in the hands of "press" reviewers the slightly newer new X800 hasn't found its way into reviewer's hands. This may happen soon. The circle is finally completed but surely the reviewers must be muttering to themselves: "What next? What next". And if they aren't, I worry about their sanity. Mine is safe in four blondes' hands. Fnarr...

das neue Line-Up wird also so aussehen:

PCI-E

X800 XT PE (0.13, 16 pipes, $549) ... vielleicht $499 ?
X800 XT (0.13, 16 pipes, $499) ... vielleicht $449 ?
X800 PRO (0.13, 12 Pipes, $399)
X800 XL (0.11, 16 Pipes, $349)
X800 (0.11, 12 Pipes, $249)

.. wobei der Geschwindigkeitsunterschied zwischen XL und PRO gering sein dürfte...

Die 0.11er X800 sehen verdammt interessant aus! (ob sich die XL auf 500MHz übertakten lässt? *gg*)

seahawk
2004-11-23, 09:45:10
Könnte da nicht doch ein Stromanschluss dran sein. (Floppy wie bei der seligen 9700pro)

reunion
2004-11-23, 10:21:47
das neue Line-Up wird also so aussehen:

PCI-E

X800 XT PE (0.13, 16 pipes, $549) ... vielleicht $499 ?
X800 XT (0.13, 16 pipes, $499) ... vielleicht $449 ?
X800 PRO (0.13, 12 Pipes, $399)


X850 ;)

.. wobei der Geschwindigkeitsunterschied zwischen XL und PRO gering sein dürfte...


Gering?
Die X800XL hat eine höhere Füllrate kostet aber trozdem weniger?!

reunion
2004-11-23, 10:26:30
Könnte da nicht doch ein Stromanschluss dran sein. (Floppy wie bei der seligen 9700pro)

Glaub ich nicht, PCIe-Karten haben AFAIK alle diesen 6-poliger Spezialstecker.
Außerdem düfte die Karte kaum mehr verbrauchen als eine X700XT (+50mio Transistoren, dafür deutlich weniger Chiptakt)

robbitop
2004-11-23, 10:28:23
naja der PCI-E kann bis zu 75W ohne Stromanschluss an die Karte liefern.
Laut den Messungen von xbit schafft selbst eine 6800U die 75W bei Volllast nicht :)

Tarkin
2004-11-23, 10:53:05
X850 ;)

Gering?
Die X800XL hat eine höhere Füllrate kostet aber trozdem weniger?!

... dafür ist der Speicher der XL langsamer.

wir werden es sehen

deekey777
2004-11-23, 12:21:06
Könnte da nicht doch ein Stromanschluss dran sein. (Floppy wie bei der seligen 9700pro)


Video In/Out-Anschlüsse für ein Frontpanel?

[ncp]EasyChiller
2004-11-23, 13:17:17
Der Kühler auf der XL iss ja mal wieder niedlich .. ich glaub mit ner ordentlichen WaKü sollte da einiges an Potential (evtl. kombiniert mit Voltage-Mods) drin sein! :biggrin: Und so viel lahmer ist der Speicher ja nun bei der XL im Gegensatz zur Pro auch nicht! (erstmal sehen, was für module verbaut werden. Werden wohl im Gross aller Fälle 2ns sein, aber evtl. findet sich ja auch der ein oder andere Hersteller der 1,6ns verbaut, einfach aus dem Grund, das er da dann in verbindung mit den anderen X850 und X800-Varianten dort ne größere Bestellung der Chips plazieren kann) :cool:

MechWOLLIer
2004-11-23, 14:48:42
Könnte da nicht doch ein Stromanschluss dran sein. (Floppy wie bei der seligen 9700pro)
Imo ist der Anschluss den du da siehst der selbe wie der Gelbe auf den X800 Platinnen, aber ich weiß nicht mehr, für welche Videofunktion der nun war.
Wie ein Floppyanschluss sieht er aber wenger aus, wäre imo auch unlogisch.
Wenn die Karte zusätzlich Sztrom verbrauhen würde, würde man es wohl eher durch einen PCI-E Stecker(wie heißt das Ding?) oder einen normalen ATX Stecker regeln.

Quasar
2004-11-24, 23:38:57
Offenbar seit dem nV17 - mit ein paar Chips zwischendrin, die übersprungen wurden.

edit:
So, wie die GF4 Ti offenbar:
http://www.forum-3dcenter.de/vbulletin/showpost.php?p=1491549&postcount=63

Die Werte sind gerade frisch bestätigt mit dem FW67.02.

Darüberhinaus ist EarlyZ in D3D ebenso inaktiv, wie aths beschrieb. Ich bekomme nicht mehr als ein Pixel pro Takt und Pipeline verworfen.

seahawk
2004-12-01, 17:56:01
Nachdem wir jetzt den R480 kennen, was gibt es neues vom NV48 ??

LordDeath
2004-12-01, 18:19:58
also nochmal zum nv25: hab mal vor paar wochen den detonator 44.65 gegen den 61.77 antreten lassen, vobei ich das early z culling mit dem atuner beim 44iger erzwungen hatte:
doom3: der 60iger war 1,5fps schneller
thief3: ganze 1fps schneller :D
kann ich irgendwie genau testen, ob ealry z an ist?

MechWOLLIer
2004-12-01, 18:36:17
Nachdem wir jetzt den R480 kennen, was gibt es neues vom NV48 ??
Irgendwie gar nichts, man weiß einfach nichts über ihn.
Das ist irgendwie die Ruhe vor dem Sturm, auch wenn kein Sturm kommen wird.

Aber wer weiß, vielleicht rüstet Nvidia auch mit dem NV48 gegen den R520 auf?

Amun-Re
2004-12-01, 19:11:03
Der R430 in Inkarnation einer Radeon X800XL könnte wirklich äußerst attraktiv werden einziges Manko was mich ein wenig skeptisch bleiben lässt ist die Tatsache das die XL der X850Pro das Wasser abgräbt da die XL 50€ günstiger quantifiziert wird während aber beide Karten ungefähr auf demselben Leistungsniveau rangieren.

Wenn da preislich keineHarmonie reingebracht wird wäre es vielleicht denkbar das die XXL nicht AMR kompatibel ist
Mit der X700XT hat es sich ja nun auch erledigt diese Position wird ja offenkundig von der X800 ausgefüllt.

Interessant werden dürfte auch inwieweit der 0,11 Fertigungsprozess noch Headroom für OC offeriert auch wenn es hier an low-k mangelt.

deekey777
2004-12-02, 01:02:25
Nachdem wir jetzt den R480 kennen, was gibt es neues vom NV48 ??

Nvidia has canned NV48

No point making 20 MHz faster card


By Fuad Abazovic: Mittwoch 01 Dezember 2004, 22:01

ATI's RADEON X850XT PE is the last speed refresh that we will see this winter. Usually ATI's announcement comes close to Nvidia announcement but this time it won't happen.
Nvidia decided to cancel its NV48 project and reliable sources are claiming that you won't see those cards at all. According to the original plan we were supposed to see those cards in Q1 2005 but Nvidia realised that it made no sense at all to push a 20 to 30 MHz faster card.

NV40 and R420 chips will be known forever as the ones that companies pushed to their limits and Nvidia didn’t want to disappoint its customers with a marginally faster card. All it could manage was a 20-30MHz push, hardly anything to scream home about.

Nvidia will make NV45 cards available to market to fill PCIe high end market and that’s how it will remain until the new chip walks down the red carpet.

Nvidia has a good workhorse and a colt to beat X850, it's called SLI and includes two graphic cards working together. X850 XT PE can not match two NV45, 6800 Ultra cards in action.

We are in the dark about Nvidia's next move but it does count a lot of SLI. Who knows, it may be in the dark too? µ

http://www.theinquirer.net/?article=19992

Nix mit einem NV48?

[ncp]EasyChiller
2004-12-02, 03:20:58
wen ma dem glauben schenken könnte, dann käme ja erstmal ne ganze weile nix mehr von NVDA? oder?

Dann würde ja der nächste noch anstehende Chip der R520 werden?

Hmm andernseits hätte NVDA dann nun viel Zeit und könnte auch alle Energie in einen komplett neuen Chip - kein reines Refresh stecken! :D

Jedoch ... wenn ich dann nun (bin eh keni High-End-Käufer) eine der Top-Modelle wählen müsste würd ich mich für ne R850 entscheiden! :biggrin:


Oh mann .. ich will endlich was zum OC-Potential der X800XT wissen! *lechtz* :smile:

Ailuros
2004-12-02, 06:50:23
Die Konzentration bei NV liegt momentan bei SLI. Da die grossen Mobo-vendors fieberhaft an der nForce4 Massenproduktion arbeiten, schaetze ich dass die erste Verfuegbarkeit etwa vor dem Auslauf des Jahres eintreten wird.

Die Frage fuer NV48 ist ob noch ein ueberseltenes Modell wirklich der Rede wert ist am Ende. Es geht um breitere Verfuegbarkeit bei dieser Refresh-Runde, ich hab es vor Wochen schon mal betont und es scheint sich von Seiten ATI nichts geaendert zu haben.

Ja es kann tatsaechlich auch sein dass man die Puste bis zum R520 einhaelt; irgendwie hab ich hier aber das Gefuehl dass die Rumour-Muehle wieder mal an der Nase herumgefuehrt wurde was den letzteren betrifft. Ich frage mich so langsam ob das Ding die 5 ueberhaupt verdient....

seahawk
2004-12-02, 09:51:26
Also was FUAD da mal wieder schreibt ist afaik falsch. NV48 könnte mehr als 20-30 mhz Takt bringen. 475 für die Ultra wurde so geflüstert.Immerhin wird der NV45 jetzt teilweise gelistet.

Ailuros kannst Du das näher erklären ? (gerne auch per PM)

robbitop
2004-12-02, 10:24:51
Ja es kann tatsaechlich auch sein dass man die Puste bis zum R520 einhaelt; irgendwie hab ich hier aber das Gefuehl dass die Rumour-Muehle wieder mal an der Nase herumgefuehrt wurde was den letzteren betrifft. Ich frage mich so langsam ob das Ding die 5 ueberhaupt verdient....
Naja X800 hat IMO auch keine 4 "verdient" ;)

aths
2004-12-02, 10:25:58
Irgendwie gar nichts, man weiß einfach nichts über ihn.
Das ist irgendwie die Ruhe vor dem Sturm, auch wenn kein Sturm kommen wird.

Aber wer weiß, vielleicht rüstet Nvidia auch mit dem NV48 gegen den R520 auf?Das glaube ich nicht. Es könnte zwar sein, dass NV mit dem NV48 gegen den R520 antreten muss, aber das wäre vermutlich kein würdiger Gegner.

Szenario A: Beide kochen nur mit Wasser. R520 wird schnell und gut, ist aber featuremäßig dem NV40 nur ein wenig überlegen. NV50 wird ein NV40-Aufguss.

Szenario B: R520 ist (fast) ein WGF-Chip, der jedoch mangels WGF als DX9 SM3-Chip verkauft werden muss. NV50 bietet überarbeitete NV40-Technik, also keine weltbewegenden Neuerungen.

Szenario C: Sowohl R520 als auch NV50 orientieren sich bereits stark an WGF. Beide IHVs gingen wie üblich unterschiedliche Wege in der konkreten Realisierung, aber beide Chips sind extrem performante SM3-Chips.

seahawk
2004-12-02, 10:45:36
An C kann ich nicht so richtig glauben. Solche Chips erwarte ich erst für die folgende Generation.

reunion
2004-12-02, 10:59:19
Ja es kann tatsaechlich auch sein dass man die Puste bis zum R520 einhaelt; irgendwie hab ich hier aber das Gefuehl dass die Rumour-Muehle wieder mal an der Nase herumgefuehrt wurde was den letzteren betrifft. Ich frage mich so langsam ob das Ding die 5 ueberhaupt verdient....

Wie kommst du zu einer solchen vermutung?
R520 wird ein SM3.0 Chip der in 90nm lowk gefertigt wird, das wurde von ATi bereits bestätigt.
Außerdem wird R500 immerhin in der Xbox II stecken sollte also featuremäßig auf der höhe der Zeit sein, wenn nicht mehr als das.

Demirug
2004-12-02, 11:39:23
Wie kommst du zu einer solchen vermutung?
R520 wird ein SM3.0 Chip der in 90nm lowk gefertigt wird, das wurde von ATi bereits bestätigt.
Außerdem wird R500 immerhin in der Xbox II stecken sollte also featuremäßig auf der höhe der Zeit sein, wenn nicht mehr als das.

Aus dem Untergrund hört man allerdings im Moment das der R500 auf die PC Linie erst beim R6XX Auswirkungen haben wird. Der R520 würde damit etwas in der Luft hängen.

wuzetti
2004-12-02, 12:01:50
Aus dem Untergrund hört man allerdings im Moment das der R500 auf die PC Linie erst beim R6XX Auswirkungen haben wird. Der R520 würde damit etwas in der Luft hängen.

ja, das hört man jetzt interessanterweise immer öfter. wenn das so stimmt, wäre der R520 ja doch wieder nur ein R3xx/R4xx mit addierten SM3 features. allerdings kann ich mich an einige postings von den experten hier im forum erinnern, die meinten, das wäre so ohne weiteres gar nicht möglich.
gibts noch andere möglichkeiten? :confused:

seahawk
2004-12-02, 12:15:46
Ich glaube, dass Demi mal erklärte, dass es eine Lösung gäbe, die aber relativ schlecht im Hinblick auf die Performance wäre.

wuzetti
2004-12-02, 12:56:19
Ich glaube, dass Demi mal erklärte, dass es eine Lösung gäbe, die aber relativ schlecht im Hinblick auf die Performance wäre.

was aber wieder im gegensatz zu der aussage in einer ATI präsentation (hab leider grad keinen link parat) steht, die da sinngemäss sagte: .... wait until R520 arrives with adequate branching performance" .... so hab ichs halt im kopf, wenns nicht stimmt, wird sich auf jeden fall wer finden, der mich korrigiert. ;D

mal abgesehen davon würde sich ATI ziemlich blamieren, wenn sie erst ein jahr nach NV einen SM3 chip herausbringen der dann noch dazu keine vernünftige (SM3) performance bietet.

Demirug
2004-12-02, 12:59:25
was aber wieder im gegensatz zu der aussage in einer ATI präsentation (hab leider grad keinen link parat) steht, die da sinngemäss sagte: .... wait until R520 arrives with adequate branching performance" .... so hab ichs halt im kopf, wenns nicht stimmt, wird sich auf jeden fall wer finden, der mich korrigiert. ;D

mal abgesehen davon würde sich ATI ziemlich blamieren, wenn sie erst ein jahr nach NV einen SM3 chip herausbringen der dann noch dazu keine vernünftige (SM3) performance bietet.

IIRC war diese Aussage in den Sprecherkommentaren die niemals hätten öffentlich werden sollen.

Zudem ist "adequate" als Begriff auch dehnbar.

betasilie
2004-12-02, 13:02:38
Aus dem Untergrund hört man allerdings im Moment das der R500 auf die PC Linie erst beim R6XX Auswirkungen haben wird. Der R520 würde damit etwas in der Luft hängen.
Mhh, was kommt dann? Mehr "Pipes" oder ein breiteres Speicherinterface?

Demirug
2004-12-02, 13:11:51
Mhh, was kommt dann? Mehr "Pipes" oder ein breiteres Speicherinterface?

Mehr ALUs pro Pipe wäre mein Tipp.

wuzetti
2004-12-02, 13:13:04
IIRC war diese Aussage in den Sprecherkommentaren die niemals hätten öffentlich werden sollen.

Zudem ist "adequate" als Begriff auch dehnbar.

natürlich ist der begriff dehnbar bzw. sagt er nix genaues über die tatsächliche leistung aus. allerdings sollte die branching performance dann zumindest besser sein als die vom NV40, denn sonst schaut das ziemlich dumm für ATI aus. ich würde das halt so sehen.....

wuzetti
2004-12-02, 13:17:03
Mehr ALUs pro Pipe wäre mein Tipp.

wie wäre unter diesem gesichtspunkt die mögliche SM3 performance zu bewerten?

ziemlich dumme frage, ich weiss :redface: aber ich wüsste nicht, wie ich's anders formulieren soll, sorry.

betasilie
2004-12-02, 13:17:35
Mehr ALUs pro Pipe wäre mein Tipp.
Ja, das wäre auch eine gute und recht einfach realisierbare Möglichkeit die Performance zu heben. Ich bin wirklich mal gespannt, was der R520 sein wird.

Schade, dass der NV50 erst so spät kommt. ;(

Demirug
2004-12-02, 13:24:14
wie wäre unter diesem gesichtspunkt die mögliche SM3 performance zu bewerten?

ziemlich dumme frage, ich weiss :redface: aber ich wüsste nicht, wie ich's anders formulieren soll, sorry.

Weitgehend neutral. Die Sprungschritte werden etwas grösser aber das dürfte sich weniger auswirken. Notfalls muss der Treiber Branches durch predicates ersetzen.

robbitop
2004-12-02, 14:57:34
Schon die Die Size, die der Anallyst andeutete, ließ auf einen nicht ganz so weit entwickelten R520 schliessen, wie viele dachten.

aths
2004-12-02, 15:13:25
Mehr ALUs pro Pipe wäre mein Tipp.Meiner auch :)

aths
2004-12-02, 15:16:07
natürlich ist der begriff dehnbar bzw. sagt er nix genaues über die tatsächliche leistung aus. allerdings sollte die branching performance dann zumindest besser sein als die vom NV40, denn sonst schaut das ziemlich dumm für ATI aus. ich würde das halt so sehen.....Wie gut die Performance beim dynamischen Springen ist, hängt beim NV40 davon ab. Die "Grundperformance" ist eigentlich recht gut. Es gibt aber Situationen, in denen beide Branches berechnet werden auch wenn nur einer genutzt wird. Um das zu verhindern (bzw. stark abzuschwächen) wäre erhöhter Verwaltungaufwand für die Quads erforderlich. Das erwarte ich beim NV50, und erhoffe es beim R520.

reunion
2004-12-02, 15:25:12
Schon die Die Size, die der Anallyst andeutete, ließ auf einen nicht ganz so weit entwickelten R520 schliessen, wie viele dachten.

Inwiefern?
Die Die Size reduziert sich durch den 90nm lowk Prozess laut ATi um 50%, d.h. selbst mit 300mio Transitoren wäre die Die Size des R520 noch geringer als beim R420.

wuzetti
2004-12-02, 15:47:35
Wie gut die Performance beim dynamischen Springen ist, hängt beim NV40 davon ab. Die "Grundperformance" ist eigentlich recht gut. Es gibt aber Situationen, in denen beide Branches berechnet werden auch wenn nur einer genutzt wird. Um das zu verhindern (bzw. stark abzuschwächen) wäre erhöhter Verwaltungaufwand für die Quads erforderlich. Das erwarte ich beim NV50, und erhoffe es beim R520.

ok, danke. aber ich probiers noch mal andersrum :D

ist es, ausgehend von dem gedanken, dass der R520 möglicherweise doch nur ein R3XX/R4XX aufguss (von mir aus mit mehr ALU's pro pipe) sowie SM3 funktionalität ist, möglich, dass dieser "vernünftig" performt und SM3 so implementiert ist, dass es kein reines checklistenfeature ist? ui, sehr verschachtelter satz ;D

Ailuros
2004-12-02, 20:30:04
Wie kommst du zu einer solchen vermutung?
R520 wird ein SM3.0 Chip der in 90nm lowk gefertigt wird, das wurde von ATi bereits bestätigt.
Außerdem wird R500 immerhin in der Xbox II stecken sollte also featuremäßig auf der höhe der Zeit sein, wenn nicht mehr als das.

Was ATI off oder on the record blubbert, ist meistens so zwielichtig und irrefuehrend dass man leichter Hyroglyphen entziffern koennte stattdessen.

R5xx/Xenon soll ein SM3.0 chip sein; deshalb frage ich mich auch ob der PC chip die 5 im Codenamen verdienen wird. Logischerweise muesste R520 SM3.0 kompliant sein; garantiert hat es bis jetzt aber noch keiner.

Ailuros
2004-12-02, 20:38:27
Wie gut die Performance beim dynamischen Springen ist, hängt beim NV40 davon ab. Die "Grundperformance" ist eigentlich recht gut. Es gibt aber Situationen, in denen beide Branches berechnet werden auch wenn nur einer genutzt wird. Um das zu verhindern (bzw. stark abzuschwächen) wäre erhöhter Verwaltungaufwand für die Quads erforderlich. Das erwarte ich beim NV50, und erhoffe es beim R520.

Der gesamte NV40 Design ist etwas merkwuerdig von vorne bis hinten. Ich erwaehnte den MIPmap aliasing bug Anfang Sommer und erst jetzt mit den beta 67.02 wurde ein "clamp" in die Treiber eingebaut der nichts anderes tut, als die Applikationen auf default 0.0 LOD zu forcen. Zwar ein irrelevant erscheinendes Problem, aber fuer so stinknormale Funktionen braucht man normalerweise nicht fast ein halbes Jahr und schon gar nicht einen Treiber-switch.

Als Laie wuerde ich NV40 eher als umstaendlich in vielen Regionen bezeichnen.

Xmas
2004-12-02, 22:50:25
Was das Branchen angeht, so erwarte ich mittlerweile beim R520 dass ATI den F-Buffer noch einmal aufwertet und darüber Sprünge realisiert. Vom NV50 verspreche ich mir auch deutlich verbesserte Branch-Performance.

Sollte NV50 wirklich deutlich später als R520 erscheinen, kann ich mir nicht vorstellen dass NVidia in der Zwischenzeit keinen Refresh bringt.

robbitop
2004-12-02, 22:53:06
falls man das über den F-Buffer macht, sollte das nicht so sehr schnell werden.
Wie stehts mit dynamischer Flusskontrolle? Kann man das mal eben einbauen?

Ailuros
2004-12-03, 06:45:38
Sollte NV50 wirklich deutlich später als R520 erscheinen, kann ich mir nicht vorstellen dass NVidia in der Zwischenzeit keinen Refresh bringt.

Eben.

seahawk
2004-12-03, 08:10:39
Sollte NV50 wirklich deutlich später als R520 erscheinen, kann ich mir nicht vorstellen dass NVidia in der Zwischenzeit keinen Refresh bringt.

Also ist es wirklich denkbar, das NV den NV48 bis zum R520 zurückhält. Für den R480 bräuchte man ja nur NV40/45 etwas höher takten, was durchaus denkbar sein sollte.

Ich kann mir z.B. durchaus 450 Mhz NV45 vorstellen, die von einzelnen Herstellern ausgeliefert werden.

[ncp]EasyChiller
2004-12-03, 16:25:56
Höhö .. also der Preis von 519,- für ne X800XL ist ja MINIMAL über den 349$ welche sie angelbich kosten sollten! (laut HT4U von heute) :mad:

dildo4u
2004-12-03, 16:36:44
Jetzt wirds lächerlich
http://www.theinquirer.net/?article=20034

deekey777
2004-12-03, 16:49:24
Jetzt wirds lächerlich
http://www.theinquirer.net/?article=20034


Da scheint einer auf Drogen zu sein.

Oder nVidia bringt gleich einen "NV55" und will es keinem sagen. :D

betasilie
2004-12-03, 16:55:27
Da scheint einer auf Drogen zu sein.

Oder nVidia bringt gleich einen "NV55" und will es keinem sagen. :D
Es geht wohl eher darum, dass der eigentlich geplante NV50 eingestampft wurde und sie auf ein anderes Konzept ausweichen.

ShadowXX
2004-12-03, 17:34:42
EasyChiller']Höhö .. also der Preis von 519,- für ne X800XL ist ja MINIMAL über den 349$ welche sie angelbich kosten sollten! (laut HT4U von heute) :mad:

Ich glaube, das sie sich da verschrieben haben und XT, anstatt XL meinten.....im Fliestext, wird einmal zwischendurch nämlich auch von einer XT (und damit ist an der Stellle nicht die XT-PE gemeint) geredet.

aths
2004-12-03, 22:41:29
Der gesamte NV40 Design ist etwas merkwuerdig von vorne bis hinten. Ich erwaehnte den MIPmap aliasing bug Anfang Sommer und erst jetzt mit den beta 67.02 wurde ein "clamp" in die Treiber eingebaut der nichts anderes tut, als die Applikationen auf default 0.0 LOD zu forcen. Zwar ein irrelevant erscheinendes Problem, aber fuer so stinknormale Funktionen braucht man normalerweise nicht fast ein halbes Jahr und schon gar nicht einen Treiber-switch.

Als Laie wuerde ich NV40 eher als umstaendlich in vielen Regionen bezeichnen.Zum NV40 gibts bald noch Teil 3 eines gewissen Artikels.

robbitop
2004-12-03, 22:57:35
ich kann mir vorstellen, dass man statt dem NV50 den NV40 aufbohrt und dupliziert, wie ATi es mit dem R420 tat.
Das Transistoren/Leistungsverhälltnis könnte sich damit ändern.

Wenn man schon soweit geht und eine Generation einstampft (R400 z.B.), muss es ernste Probleme oder Bedenken geben.

Ailuros
2004-12-03, 23:08:00
ich kann mir vorstellen, dass man statt dem NV50 den NV40 aufbohrt und dupliziert, wie ATi es mit dem R420 tat.
Das Transistoren/Leistungsverhälltnis könnte sich damit ändern.

Wenn man schon soweit geht und eine Generation einstampft (R400 z.B.), muss es ernste Probleme oder Bedenken geben.

Nein. NVIDIA's Aufgabe (und sie sind sich auch diesem bewusst) ist einen chip zu bauen der die "pitfalls" des NV40 nicht nochmal wiederholt. Chipdesigner lernen aus ihren eigenen Fehlern und waehrend man NV40 schwer einen schlechten Design nennen kann, heisst es nicht dass man das Ganze nicht um einiges besser machen kann in der absehbaren Zukunft. An einfaches Aufbohren wuerde ich nicht denken; eher an einen potentiellen Revamp der tiefer in die Aenderung der gesamten Logik eingeht als wir uns momentan vorstellen koennen.

Ailuros
2004-12-03, 23:16:35
Source The Inquirer

NVIDIA to change it's business model entirely

More groundbreaking news emerge

We have been told today that besides NVIDIA canning NV48 and NV50, the company plans to abandon any graphics venture from now on. Rumour has it that NVIDIA is planning to move into the cosmetic products market as a straight competitor to Loreal and their first to be announced product will be digital curlers. We'll keep you informed as more news will emerge.

Godmode
2004-12-04, 00:11:08
???

Ailuros
2004-12-04, 00:17:48
???

Jetzt sag bloss dass Du den offensichtlichen Sarkasmus nicht erkannt hast :D

Godmode
2004-12-04, 00:31:33
Nicht sofort :) ich hab zuerst versucht diese News zu finden, bis ich verstanden hab dass das eine Verarschung sein soll.

Ailuros
2004-12-04, 05:54:08
Nicht sofort :) ich hab zuerst versucht diese News zu finden, bis ich verstanden hab dass das eine Verarschung sein soll.

Digitale Lockenwickler? Also bitte.... :lol:

aths
2004-12-04, 10:27:26
Nein. NVIDIA's Aufgabe (und sie sind sich auch diesem bewusst) ist einen chip zu bauen der die "pitfalls" des NV40 nicht nochmal wiederholt. Chipdesigner lernen aus ihren eigenen Fehlern und waehrend man NV40 schwer einen schlechten Design nennen kann, heisst es nicht dass man das Ganze nicht um einiges besser machen kann in der absehbaren Zukunft. An einfaches Aufbohren wuerde ich nicht denken; eher an einen potentiellen Revamp der tiefer in die Aenderung der gesamten Logik eingeht als wir uns momentan vorstellen koennen.Ich könnte mir einiges vorstellen :) allerdings ist NV ja oft für seltsam komplizierte Lösungen bekannt – weil sie mal weder hypergenial sein wollten, das dann aber nicht so hinbekamen wie gedacht. Beim NV50 erwarte ich: Kleinere Quadbatches für die entschieden werden kann, welche Branches berechnet werden, und Texturfilter im VS, sowie Änderung der Fähigkeiten der Shader Units.

Dort könnte die Rohleistung gesteigert werden, aber vielleicht zieht das komplexe Optimierungsregeln nachsich. Oder sie belassen die Rechenkraft der Pipe im Wesentlichen und versuchen lieber, die Auslastung noch zu steigern und über die Anzahl der Pipes zu skalieren.

Ailuros
2004-12-04, 12:45:17
Oder sie belassen die Rechenkraft der Pipe im Wesentlichen und versuchen lieber, die Auslastung noch zu steigern und über die Anzahl der Pipes zu skalieren.

Das klingt mir eben am unwahrscheinlichsten und tendiert eher in die Richtung eines Refreshes. Werden die Umstaendlichkeiten des NV40 erstmal beseitigt, wird auch IMHO der Bandbreiten-Verbrauch und ergo die Leistung der schon existierenden SIMD Kanaele nach oben skalieren.

Ich will bezweifeln dass die Rechenkraft bis jetzt voll ausgenutzt oder maximalisiert wurde. Egal wie kompliziert NV mit ihren neuen Designs ankommt, geschichtlich wuchs das Potential jeglichen "zweiten" Versuchs stets um einiges. Ist aber auch nichts Neues was HW-Entwicklung generell betrifft.

Demirug
2004-12-04, 13:14:39
Das klingt mir eben am unwahrscheinlichsten und tendiert eher in die Richtung eines Refreshes. Werden die Umstaendlichkeiten des NV40 erstmal beseitigt, wird auch IMHO der Bandbreiten-Verbrauch und ergo die Leistung der schon existierenden SIMD Kanaele nach oben skalieren.

Ich will bezweifeln dass die Rechenkraft bis jetzt voll ausgenutzt oder maximalisiert wurde. Egal wie kompliziert NV mit ihren neuen Designs ankommt, geschichtlich wuchs das Potential jeglichen "zweiten" Versuchs stets um einiges. Ist aber auch nichts Neues was HW-Entwicklung generell betrifft.

Genau hier haben wir doch aber das Problem. Einen echten "zweiten" Versuch kann es IMHO nicht geben. Wenn der nächste Chip schon ein WGF Chip ist wäre dieser automatisch wieder ein "erster" Versuch weil scih zu viel ändert. Für einen weiteren DX9 Chip als Lückenfüller lohnt es sich aber eigentlich nicht einen "echten" zweiten Versuch zu starten.

StefanV
2004-12-04, 13:19:50
@Demi

Könnte man nicht einen Chip, die im Kern ein 'WGF Chip' ist (ergo 'Unified Shader') basteln, aber einige, momentan nicht so recht benötigte Features, einfach weglassen??

Oder gibts da ein paar Dinge, die unbedingt implementiert werden müssen??

Demirug
2004-12-04, 13:24:52
@Demi

Könnte man nicht einen Chip, die im Kern ein 'WGF Chip' ist (ergo 'Unified Shader') basteln, aber einige, momentan nicht so recht benötigte Features, einfach weglassen??

Oder gibts da ein paar Dinge, die unbedingt implementiert werden müssen??

Soweit ich das WGF Design bisher verstehe ist so ein Chip eine Ansammlung von Shadercores mit ein paar Zusatzeinheiten (wahrscheinlich Texturefilter wegen der Geschwidnigkeit). Da ist nicht viel mit weglassen.

saaya
2004-12-04, 14:20:38
wie genau sieht sm4.0 denn jetzt aus? MUESSEN da schon vs und ps komplett zusammengefasst sein?

Demirug
2004-12-04, 14:42:18
wie genau sieht sm4.0 denn jetzt aus? MUESSEN da schon vs und ps komplett zusammengefasst sein?

Es gibt kein SM 4. Aber bei dem was zur Zeit so im Umlauf ist sicher das alle Shadereinheiten Funktional identisch sein müssen. Das sie auch Hardwaremässig identisch sein müssen steht zwar nicht 100% explizit in diesen Unterlagen aber man gewinnt den Eindruck. Zudem wäre es ja auch im Gesamtmodel logisch.

Ailuros
2004-12-05, 07:38:40
Genau hier haben wir doch aber das Problem. Einen echten "zweiten" Versuch kann es IMHO nicht geben. Wenn der nächste Chip schon ein WGF Chip ist wäre dieser automatisch wieder ein "erster" Versuch weil scih zu viel ändert. Für einen weiteren DX9 Chip als Lückenfüller lohnt es sich aber eigentlich nicht einen "echten" zweiten Versuch zu starten.

Das dumme ist dass ich in letzter Zeit die WGF Entwicklung nicht versucht habe von meiner Position aus etwas mehr zu verfolgen wie am Anfang.

Sieht es jetzt nach einem reduzierten WGF ~2006 und WGF"2" irgendwo ~2007 aus, oder kommt das volle von Anfang an geplante Paket nun doch spaeter als 2006?

Falls es der zweite Fall ist, dann ist mir die Luecke zwischen NV40 und einem jeglichen WGF-chip zu gross.

Mir geht der ganze WGF-Wirrwarr so langsam auf die Nerven und dabei bin ich nur ein Laie; ich will mir gar nicht vorstellen wie umstaendlich das Ganze fuer die Profis generell und/oder die IHVs am Ende ist.

Frage: bist Du Dir sicher dass OpenGL als Konzept doch am Ende vielleicht nicht eine bessere Loesung waere?

Demirug
2004-12-05, 11:31:43
Das dumme ist dass ich in letzter Zeit die WGF Entwicklung nicht versucht habe von meiner Position aus etwas mehr zu verfolgen wie am Anfang.

Sieht es jetzt nach einem reduzierten WGF ~2006 und WGF"2" irgendwo ~2007 aus, oder kommt das volle von Anfang an geplante Paket nun doch spaeter als 2006?

Falls es der zweite Fall ist, dann ist mir die Luecke zwischen NV40 und einem jeglichen WGF-chip zu gross.

Mir geht der ganze WGF-Wirrwarr so langsam auf die Nerven und dabei bin ich nur ein Laie; ich will mir gar nicht vorstellen wie umstaendlich das Ganze fuer die Profis generell und/oder die IHVs am Ende ist.

Frage: bist Du Dir sicher dass OpenGL als Konzept doch am Ende vielleicht nicht eine bessere Loesung waere?

Das was als WGF 1 in die Runde geworfen wurde ist das was mal als DX9L (L=Longhorn) bezeichnet wurde. Longhorn braucht wegen dem 3D Desktop eine leicht modifizierte DX9 Version.

WGF 2 wäre dann das was ursprünglich WGF war.

Termine für all das kennen wohl nur die IHVs und MS.

Die meisten Profis setzten sich mit der Sache wohl noch nicht auseinader da es noch nicht mal ein Beta Programm für WGF gibt.

Ich wüsste nicht wie OpenGL da viel helfen könnte. Mit OpenGL schreibt sich eben erst mal jeder IHV seine eigene API und als Entwickler kann man nur hoffen das sie sich schnell einig werden.

Ailuros
2004-12-06, 01:42:49
Das was als WGF 1 in die Runde geworfen wurde ist das was mal als DX9L (L=Longhorn) bezeichnet wurde. Longhorn braucht wegen dem 3D Desktop eine leicht modifizierte DX9 Version.

WGF 2 wäre dann das was ursprünglich WGF war.

Termine für all das kennen wohl nur die IHVs und MS.

Die meisten Profis setzten sich mit der Sache wohl noch nicht auseinader da es noch nicht mal ein Beta Programm für WGF gibt.

Ich wüsste nicht wie OpenGL da viel helfen könnte. Mit OpenGL schreibt sich eben erst mal jeder IHV seine eigene API und als Entwickler kann man nur hoffen das sie sich schnell einig werden.

Interpretiere ich Wavey's kryptisches Geblubber richtig (siehe den anderen Thread hier ueber R520) sollte ATI ihr "Longhorn-Teil" Mitte/Ende 2006 vorstellen. Irgendwie klingt mir das nicht unbedingt nach einem WGF2 chip, koennte aber auch total falsch liegen.

Was OGL betrifft, hast Du natuerlich recht, aber so toll sieht die DX bzw. zukuenftige WGF-Geschichte mir persoenlich nun auch wieder nicht aus. Dass WGF2.0 sich staendig verschiebt kann bei weitem nicht nur an Microsoft liegen oder?

deekey777
2004-12-20, 11:48:02
Nvidia will NV48 im Frühjahr 2005 bringen (http://www.tomshardware.de/news/20041220_095329.html)

Nivida hat seine Pläne zur Produktion der NV48-GPU offenbar doch nicht aufgegeben. Sie soll nun Mitte kommenden Jahres erscheinen und wird in Taiwan anstelle von IBM produziert, berichten unternehmensnahe Quellen.

Die NV48 soll im 0.11-Micron -Prozeß hergestellt werden. Die höhere Produktionslast für die GeForce 6600 und 6200 sollen der Grund für die Verschiebung sein.

Mit der NV48 will Nvidia direkt gegen ATIs neue Hochleistungs-GPU R520 konkurrieren, die ebenfalls im Frühjahr 2005 erscheinen soll.

Verstehe das einer... :D

reunion
2004-12-20, 11:54:40
Schlecht abgeschrieben: :D

http://www.digitimes.com/news/a20041220A7039.html

Dave Baumann dazu:

That would certainly make sense from everything I'm hearing. (Although DT isn't all that reliable)

http://www.beyond3d.com/forum/viewtopic.php?t=19069&postdays=0&postorder=asc&start=40

ShadowXX
2004-12-20, 12:37:28
Nvidia will NV48 im Frühjahr 2005 bringen (http://www.tomshardware.de/news/20041220_095329.html)

Nivida hat seine Pläne zur Produktion der NV48-GPU offenbar doch nicht aufgegeben. Sie soll nun Mitte kommenden Jahres erscheinen und wird in Taiwan anstelle von IBM produziert, berichten unternehmensnahe Quellen.

Die NV48 soll im 0.11-Micron -Prozeß hergestellt werden. Die höhere Produktionslast für die GeForce 6600 und 6200 sollen der Grund für die Verschiebung sein.

Mit der NV48 will Nvidia direkt gegen ATIs neue Hochleistungs-GPU R520 konkurrieren, die ebenfalls im Frühjahr 2005 erscheinen soll.

Verstehe das einer... :D

Hmmmmm...der 0.11-Micron -Prozeß soll ja nicht gerade das "Taktratenwunder" sein (Bildlich gesprochen)...

Die Meldung an ich halte ich durchaus für halbwegs glaubwürdig, schätze aber auch, dass dieser dann erscheinende nv48 nicht der nv48 ist, den wird für jetzt (also als Antwort auf x850) erwartet haben...

Genausogut kann es natürlich auch sein, das der nv48 von Anfang an "anders" (sprich z.B. 24Pipes?) geplant gewesen war....und nV ihn tatsächlich auf Grund des x850 verschoben hat....allerdings aus einem anderen Grund als zuvor gedacht...

Wissen werden wir es nie......

Nur das mit den 0.11-Micron stört mich.....ich glaube irgendwie nicht, das nV einen High-End-Chip mit 0.11 bauen kann, aber ATI es nicht können soll...speziell da der nv48 auch bei TMSC hergestellt werden soll (lt. Artikel).

Winter[Raven]
2004-12-20, 12:44:19
@ ShadowXX

Keiner hätte es gedacht das Nvidia beim NV40 mit 222Millionen kommt ^_^.

reunion
2004-12-20, 13:00:38
Hmmmmm...der 0.11-Micron -Prozeß soll ja nicht gerade das "Taktratenwunder" sein (Bildlich gesprochen)...

Die Meldung an ich halte ich durchaus für halbwegs glaubwürdig, schätze aber auch, dass dieser dann erscheinende nv48 nicht der nv48 ist, den wird für jetzt (also als Antwort auf x850) erwartet haben...

Genausogut kann es natürlich auch sein, das der nv48 von Anfang an "anders" (sprich z.B. 24Pipes?) geplant gewesen war....und nV ihn tatsächlich auf Grund des x850 verschoben hat....allerdings aus einem anderen Grund als zuvor gedacht...

Wissen werden wir es nie......

Nur das mit den 0.11-Micron stört mich.....ich glaube irgendwie nicht, das nV einen High-End-Chip mit 0.11 bauen kann, aber ATI es nicht können soll...speziell da der nv48 auch bei TMSC hergestellt werden soll (lt. Artikel).

Irgendwo liegt da ein Fehler drin, der 110nm Prozess @TSMC ist als Lowcost prozess ausgelegt, mehr als ungeeignet für einen High-End Chip. Also entweder hat sich das geändert oder NV wird den Chip in einen anderen prozess herstellen.

Godmode
2004-12-20, 13:15:12
Naja Nvidia schaft aber auch 500 MHz beim NV43, ich denke es kommt einfach sehr darauf an wie man den Chip designt!

reunion
2004-12-20, 13:23:41
Naja Nvidia schaft aber auch 500 MHz beim NV43, ich denke es kommt einfach sehr darauf an wie man den Chip designt!

Trozdem, nicht umsonst wird der NV41 wieder in 130nm gefertigt, nicht umsonst ist bei 110nm kein lowk verfügbar, nicht umsonst wird R520 in 90nm lowk gefertigt,...

seahawk
2004-12-20, 13:49:27
Außer es gibt NV47 und NV48 für komendes Frühjahr. NV48 ist 0,11 und ersetzt die GeForce 6800GT und NV47 ist 0,09 oder 0,13 low-k und ersetzt die 6800Ultra. Das könnte dann evtl. sogar wirklich ein 24 Pipe-Design sein.

robbitop
2004-12-20, 15:02:53
ich glaube eigentlich nicht daran, dass mit 110nm High End Geschosse mit hohem Transistorcount möglich sind.

Andererseits hat NV aus dem 130nm Fiasko gelernt und setzt vieleicht lieber auf bewährte Prozesstechniken.
Ein Wechsel von IBM zu TSMC macht IMO keinen Sinn. Dann hätte man nie zu IBM wechseln brauchen (zumal IBM verdammt gute Produktionsstätten hat). Das kostet Geld und eine Menge Zeit (wobei es kein echter Wechsel wäre, da man ja sowieso noch nebenbei bei TSMC produziert)..

Gast
2004-12-20, 15:35:07
Es ist auch immer eine Frage wieviel Kapazitäten TSMC in 90nm hat und wer wie wieviel gebucht hat.

robbitop
2004-12-20, 16:13:09
Es ist auch immer eine Frage wieviel Kapazitäten TSMC in 90nm hat und wer wie wieviel gebucht hat.
Laut TSMC ist die Kapazität bei 90nm deutlich besser als bei 130nm. Mehr Fabriken sollen darauf umgestellt werden.

seahawk
2004-12-20, 17:29:45
Es macht imho nur Sinn, wenn der NV48 die Antwort auf die X800XL ist.

Gast
2004-12-20, 20:44:50
Laut TSMC ist die Kapazität bei 90nm deutlich besser als bei 130nm. Mehr Fabriken sollen darauf umgestellt werden.

Sollen oder sind?

Gast
2004-12-20, 21:06:32
Laut TSMC ist die Kapazität bei 90nm deutlich besser als bei 130nm. Mehr Fabriken sollen darauf umgestellt werden.


deutlich besser ? das muß gewaltig besser werden selbst ein 3/4 jahr nach vorstellung sind die karten nicht gut verfügbar

robbitop
2004-12-20, 21:13:00
Sollen oder sind?
stand in irgendeinem EE-Times Interview ...muss ich mal schauen ob ich das noch finde.

Godmode
2004-12-21, 13:14:50
Es könnte ja sein, das der NV48 dann weniger Strom verbraucht => weniger Abwärme und es so möglich wird 2 davon auf ein Board zu löten! => und dann wieder 2 solche Karten in ein SLI-System rein!

[ncp]EasyChiller
2004-12-21, 13:24:35
ich denke mal der 48 wird ein nur leicht verbesserter bzw. gebugfixter *g* nv40 werden .. in 0.11 bei tsmc. Taktbar wird dieser IMHO wohl minimal über oder aber zumindest genauso hoch sein wie der NV40. über kurz oder lang wird er diesen somit auf allen Karten wo der 40 verbaut wird ablösen, da der 48 mit wesentlich geringeren Kosten produzierbar sein wird.

Dennoch wird er wohl auch (falls der 520 mit 24 pipes kommt) nicht dauerhaft ein Gegner für den 520 darstellen können ... insofern glaube ich das am 47 mit 24 pipes dann doch etwas wahres dran sein könnte ...

Was mich dann jedoch stuzig machen täte: ist dann der 47 ein quasi verbreiterter 40? oder ein verbreiterter 48?!?! wenns letzteres wäre, müsste doch der Codname höher sein oder?! z.b. 49? Irgendwie ergibt das alles aus der Sicht keinen wirklich Sinn - und ich wees echt nicht was ich da reininterpretieren soll! :|

Godmode
2004-12-21, 14:18:02
Njaja auf die Codenamen würde ich mich sowiso nicht verlassen, weil sie teilweise sehr unlogisch sind!

Ailuros
2004-12-21, 20:30:02
Nur mal ein kleiner Ansporn zu "logischeren" Spekulationen:

24 SIMD channels * 400 MHz = 9600 MPixels/sec bilinear
16 SIMD channels * 600 MHz = 9600 MPixels/sec bilinear

Und das war jetzt schon wieder mal zu viel des Guten :P

ShadowXX
2004-12-21, 20:45:09
Nur mal ein kleiner Ansporn zu "logischeren" Spekulationen:

24 SIMD channels * 400 MHz = 9600 MPixels/sec bilinear
16 SIMD channels * 600 MHz = 9600 MPixels/sec bilinear

Und das war jetzt schon wieder mal zu viel des Guten :P

Wobei ich glaube, dass Sie weder das eine noch das andere mit 110nm hinbekommen....

Demirug
2004-12-21, 20:47:24
Nur mal ein kleiner Ansporn zu "logischeren" Spekulationen:

24 SIMD channels * 400 MHz = 9600 MPixels/sec bilinear
16 SIMD channels * 600 MHz = 9600 MPixels/sec bilinear

Und das war jetzt schon wieder mal zu viel des Guten :P

Das wirft aber gleich die nächste Frage auf. Wieviel Rechenleistung pro Channel?

Wenn man ein bestimmtes nVidia Tool etwas missbräuchlich benutzt sieht man schnell das sie in Zukunft noch eine zweite SBC pro Pipe brauchen könnten. Bei ATI dürfte es ähnlich aussehen. Zudem wird rechenleistung sowieso wichtiger wenn man im Shader noch einen Teil des Texturefilters übernehmen muss.

Ailuros
2004-12-21, 21:23:15
Das wirft aber gleich die nächste Frage auf. Wieviel Rechenleistung pro Channel?

Wenn man ein bestimmtes nVidia Tool etwas missbräuchlich benutzt sieht man schnell das sie in Zukunft noch eine zweite SBC pro Pipe brauchen könnten. Bei ATI dürfte es ähnlich aussehen. Zudem wird rechenleistung sowieso wichtiger wenn man im Shader noch einen Teil des Texturefilters übernehmen muss.

Deine Frage macht natuerlich Sinn, aber ich wollte die ganze Sache mal in die logischere Richtung wenden (und nein solche Details sind mir auch nicht bekannt). So besonders performant ausser der hohen Taktrate wird ATI's Loesung nun auch wieder nicht sein, ausser den zu vorsehbaren Bandbreiten-irrelevanten Situationen. Ein paar Pflaster noch dazu fuer bessere Speicherverwaltung....

Wobei ich glaube, dass Sie weder das eine noch das andere mit 110nm hinbekommen....

Nur ein Beispiel wie man zwei verschiedene Produkte rein theoretisch auf die gleiche Ebene bringen kann. So genau wird's sicher nicht sein und ATI setzt ja sowieso auf 90nm. Wenn sie sich tatsaechlich rund um die ~250M Grenze gehalten haben, dann sind 600MHz durchaus moeglich.

Demirug
2004-12-21, 21:32:17
Deine Frage macht natuerlich Sinn, aber ich wollte die ganze Sache mal in die logischere Richtung wenden (und nein solche Details sind mir auch nicht bekannt). So besonders performant ausser der hohen Taktrate wird ATI's Loesung nun auch wieder nicht sein, ausser den zu vorsehbaren Bandbreiten-irrelevanten Situationen. Ein paar Pflaster noch dazu fuer bessere Speicherverwaltung....

Nun ja es geistert ja das Gespenst der zweiten ALU pro Kanal auch bei ATI durch die Gegend. Sogar noch stärker als bei nVidia den ATI hat ja schon angekündigt das sie das Rechen zu Texure Verhältniss zugunsten der Rechenanweisungen verschieben wollen. Es ist eben nur die Frage wann das kommt. R520 oder erst beim R600. Wobei R600 da durchaus die logischere Antwort wäre denn dort erbt man das ja vom R500.

nVidia hat sich zu dem Thema ja nicht geäussert allerdings ist der Codename NV48 ja auch keine Gewährleistung das es nicht doch CineFX IV wird. Vorallem weil sie ja in der Zwischenzeit wieder genügend Shader durch ihr Tool jagen konnten das ihnen sagt was ihnen im Durchschnitt am meisten fehlt bzw was sie zuviel haben.

Ailuros
2004-12-21, 21:55:38
Nun ja es geistert ja das Gespenst der zweiten ALU pro Kanal auch bei ATI durch die Gegend. Sogar noch stärker als bei nVidia den ATI hat ja schon angekündigt das sie das Rechen zu Texure Verhältniss zugunsten der Rechenanweisungen verschieben wollen. Es ist eben nur die Frage wann das kommt. R520 oder erst beim R600. Wobei R600 da durchaus die logischere Antwort wäre denn dort erbt man das ja vom R500.

Wenn ich mir das relevante schon durchgesickerte Zeug das zu Hypermemory gehoert etwas mehr ueberdenke, kann es durchaus schon im R520 erscheinen. Sicher als Laie bin ich mir natuerlich nicht, denn ich verstehe ja meistens nur die Haelfte oder weniger davon.

nVidia hat sich zu dem Thema ja nicht geäussert allerdings ist der Codename NV48 ja auch keine Gewährleistung das es nicht doch CineFX IV wird. Vorallem weil sie ja in der Zwischenzeit wieder genügend Shader durch ihr Tool jagen konnten das ihnen sagt was ihnen im Durchschnitt am meisten fehlt bzw was sie zuviel haben.

Ich muesste eigentlich zu dem Thema theoretisch mehr wissen, aber irgendwie bekomme ich immer wieder Zeug ab was mich weniger interessiert LOL. Ich schaetze mal dass die NV43 Entwicklung so einiges hier mitgeholfen hat oder? (nein nicht der Herstellungsprozess).

Demirug
2004-12-21, 22:13:30
Wenn ich mir das relevante schon durchgesickerte Zeug das zu Hypermemory gehoert etwas mehr ueberdenke, kann es durchaus schon im R520 erscheinen. Sicher als Laie bin ich mir natuerlich nicht, denn ich verstehe ja meistens nur die Haelfte oder weniger davon.

Irgendwas soll der R520 ja schon vom R500 abbekommen haben. Vielleicht ist es ja das Verhältniss Rechenleistung zu Textureleistung. Gesichert ist da schwer etwas zu sagen.

Ich muesste eigentlich zu dem Thema theoretisch mehr wissen, aber irgendwie bekomme ich immer wieder Zeug ab was mich weniger interessiert LOL. Ich schaetze mal dass die NV43 Entwicklung so einiges hier mitgeholfen hat oder? (nein nicht der Herstellungsprozess).

Soweit ich das verstanden habe ist das weitgehend unabhängig von echten Chips. Sie können wohl mit dem Tool verschiedene denkbare Configs testen bevor sie anfangen diese wirklich in das Design einzubauen. Dummerweise lässt die Version die ich hier habe nur die Chips <= NV40 zu. Ich kann also nicht ausprobieren ob der NV43 schon eine veränderte Pipe hat.

Gast
2004-12-21, 22:28:38
Gibt es eigentlich Tools um einen Die-Shrink zu machen, wo man zb den NV40 in 130nm durchjagt und dann einen NV40 in 90nm oder so machen könnte?

Godmode
2004-12-21, 22:33:03
Wenn sie sich tatsaechlich rund um die ~250M Grenze gehalten haben, dann sind 600MHz durchaus moeglich.

Also mir kommen 250M für 6Quads etwas wenig vor, der NV40 hat ja mit 4 Quads schon 220M? Oder denkst du/ihr dass beim R520 wieder jeder Transistor 2 mal umgedreht ;D wird?

Ailuros
2004-12-21, 22:36:17
Also mir kommen 250M für 6Quads etwas wenig vor, der NV40 hat ja mit 4 Quads schon 220M? Oder denkst du/ihr dass beim R520 wieder jeder Transistor 2 mal umgedreht ;D wird?

Wer redet denn ueberhaupt von 6 quads hm? (siehe weiter oben). Den Sarkasmus haettest Du Dir leicht schenken koennen.

ShadowXX
2004-12-21, 22:38:57
Nur ein Beispiel wie man zwei verschiedene Produkte rein theoretisch auf die gleiche Ebene bringen kann. So genau wird's sicher nicht sein und ATI setzt ja sowieso auf 90nm. Wenn sie sich tatsaechlich rund um die ~250M Grenze gehalten haben, dann sind 600MHz durchaus moeglich.

Ist schon klar....ich bezog mich dem Moment nur auf den nv48 der ja als "gegner" des 520 antritt....und dieser soll laut Gerüchten ja in 110nm kommen.

Und in 110nm glaube ich weder an 600MHz noch an 24Pipes..

Das ATI das eine oder das andere in 90nm schaffen könnte ist wahrscheinlich....

robbitop
2004-12-21, 22:43:40
R300 @325MHz und 150nm hat auch niemand dran geglaubt.
NV scheint seit dem 130nm NV30 Debakel vorsichtiger geworden zu sein.
B.s.w. haben sie von LowK bisher die Finger gelassen.
Wer weiß was mit diesem 110nm Prozess noch so alles möglich ist. Vor Monaten wurde er noch als low cost prozess belächelt..

Demirug
2004-12-21, 22:44:54
Gibt es eigentlich Tools um einen Die-Shrink zu machen, wo man zb den NV40 in 130nm durchjagt und dann einen NV40 in 90nm oder so machen könnte?

Nicht in dieser Art. Aber Chips werden ja sowieso aus dem Sourcecode compiliert. Ergo kann man anstelle des 130nm Compilers einfach den 90nm Compiler nehmen. Leider gibt es es dabei aber zwei Probleme.

1. Diese Compiler sind nicht zu 100% perfekt und so muss man unter umständen die Masken von hand nachbessern nachdem man merkt das der Tapeout nicht funktioniert hat.

2. Beim Chipdesign benutzt man in der Regel fertige Funktionssammlungen die für häufig benötigte Funktion fertig optimierte Vorlagen haben. Diese Sammlungen sind aber immer Processspezifisch. wenn man also den Process wechselt braucht man für all diese Funktionen neue Vorlagen. Das gleiche Problem entsteht wenn man die FAB wechselt. Wenn man Glück hat und sich die Funktionssammlung eingekauft hat bekommt man dort die gleiche Sammlung auch für einen anderen Prozess. Hat man die Sammlung aber zusammen mit dem FAB Betreiber selbst entwickelt fängt der ganze Spass von vorne an.

Demirug
2004-12-21, 22:46:27
R300 @325MHz und 150nm hat auch niemand dran geglaubt.
NV scheint seit dem 130nm NV30 Debakel vorsichtiger geworden zu sein.
B.s.w. haben sie von LowK bisher die Finger gelassen.
Wer weiß was mit diesem 110nm Prozess noch so alles möglich ist. Vor Monaten wurde er noch als low cost prozess belächelt..

Wenn ich bei IBM produzieren würde hätte ich auch die Finger von LowK gelassen.

Ailuros
2004-12-21, 22:47:19
Ist schon klar....ich bezog mich dem Moment nur auf den nv48 der ja als "gegner" des 520 antritt....und dieser soll laut Gerüchten ja in 110nm kommen.

Und in 110nm glaube ich weder an 600MHz noch an 24Pipes..

Das ATI das eine oder das andere in 90nm schaffen könnte ist wahrscheinlich....

Ich hab bei beiden chips keinen Herstellungs-Prozess angezeigt, obwohl der hoeher getaktete wohl doch wahrscheinlich 90nm sein wird. Selbst weniger als 400MHz koennten im ersten Fall ausreichen.

Ailuros
2004-12-21, 22:49:42
Wenn ich bei IBM produzieren würde hätte ich auch die Finger von LowK gelassen.

ROFL :D Vor nicht allzu langer Zeit wurde ich fuer aehnliche Kommentare fast in Stuecke gerissen.

Godmode
2004-12-21, 22:49:58
Wer redet denn ueberhaupt von 6 quads hm? (siehe weiter oben). Den Sarkasmus haettest Du Dir leicht schenken koennen.

Der Sarkasmus war eigentlich auf ATI bezogen, weil sie ja überall sparen wo nur geht! Mir ist der Audruck "jeden Transitor zweimal umdrehen" etwas witzig vorgekommen , da man diesen normalerweise bei Finanzen verwendet.

Ok 600 MHz @ 4 Quads in 90nm klingt plausibel, ebenfalls 400 MHz @ 6 Quads in 90nm.

Mal ein ganz anderer Denkanstoss: ist eigentlich DualCore für R520 ausgeschlossen? Man könnte ja die Ausbeute sicherlich ziemlich stark erhöhen wenn man zb 2 Cores mit je 150 Mio Transitoren bauen würde und diese dann auf ein Substrat geben? Oder ist dann die Syncronisation von diesen 2 Kernen wieder ein Problem?

Ailuros
2004-12-21, 22:56:11
Der Sarkasmus war eigentlich auf ATI bezogen, weil sie ja überall sparen wo nur geht! Mir ist der Audruck "jeden Transitor zweimal umdrehen" etwas witzig vorgekommen , da man diesen normalerweise bei Finanzen verwendet.

Ok 600 MHz @ 4 Quads in 90nm klingt plausibel, ebenfalls 400 MHz @ 6 Quads in 90nm.

Mal ein ganz anderer Denkanstoss: ist eigentlich DualCore für R520 ausgeschlossen? Man könnte ja die Ausbeute sicherlich ziemlich stark erhöhen wenn man zb 2 Cores mit je 150 Mio Transitoren bauen würde und diese dann auf ein Substrat geben? Oder ist dann die Syncronisation von diesen 2 Kernen wieder ein Problem?

Ich hab keine Ahnung was fuer einen Herstellungs-Prozess die Konkurrenz benutzen soll, aber mit den 6 quads war offensichtlich mal nicht ATI gemeint ;)

Wieso dual core fuer R520? Weder die spekulierte Transistoren-anzahl, noch low-k 90nm zeigen sich problematisch oder zu "eng" fuer die bis jetzt bekannten Geruechte. 300M wuerde auf jeden Fall keine so hohe Taktrate vorschlagen....

mapel110
2004-12-21, 22:56:48
Mal ein ganz anderer Denkanstoss: ist eigentlich DualCore für R520 ausgeschlossen? Man könnte ja die Ausbeute sicherlich ziemlich stark erhöhen wenn man zb 2 Cores mit je 150 Mio Transitoren bauen würde und diese dann auf ein Substrat geben? Oder ist dann die Syncronisation von diesen 2 Kernen wieder ein Problem?

das boardlayout würde teurer werden und weniger effizient in bezug auf Leistung ist so eine Lösung auch.

Demirug
2004-12-21, 22:58:22
Mal ein ganz anderer Denkanstoss: ist eigentlich DualCore für R520 ausgeschlossen? Man könnte ja die Ausbeute sicherlich ziemlich stark erhöhen wenn man zb 2 Cores mit je 150 Mio Transitoren bauen würde und diese dann auf ein Substrat geben? Oder ist dann die Syncronisation von diesen 2 Kernen wieder ein Problem?

Multicores wie bei den CPUs ist für GPUs keine Lösung. Dort arbeitet man sowieso bereits mit vielen Subprozessoren die man bei defekten deaktivieren kann ohne das der Chip seine Funktion verliert. Er verliert nur Leistung. Wobei das nVidia derzeit noch eine Spur besser drauf hat als ATI. Das ganze könnte allerdings in Zukunft problematisch werden wenn 3dlabs das Patent darauf bekommt und anfängt Lizenzgebühren zu verlangen.

[ncp]EasyChiller
2004-12-21, 22:59:20
ich sehe den NV48 nicht wirklich als direkten Konkurrenten zum R520. Der 48 wird wenn dann doch eher vielmher nen Konkurrent zur x800xl und x850 werden. Notgedrungen, da wohl wenn es nen nv47 geben sollte dieser wohl erst ne weile nach dem r520 kommen wird (welcher ja schon sein tape-out gehabt haben soll), wird der 48 auch zu Beginn das einzige sein was NV gegen den R520 zu bieten hat. Wenn sie es nicht mit der Leistung wirklich erreichen, wo werden sie dies wieder über den Preis und durch übermäßiges propagieren von SLI (von dem ich in dieser Form wie es es im Moment gibt garnix halte) wieder versuchen wett zu machen - bis zum direkten Pendant, was dann der NV47 mit 6 quads werden könnte.

Ich bin fest davon überzeugt das der 48 "nur" 4 quads in 110nm haben wird, da sonst in der Produktpalette von NV einfach ein Chip fehlt der im gehobenen Mainstream gegen den x800xl positioniert werden könnte. :redface:

Demirug
2004-12-21, 22:59:56
ROFL :D Vor nicht allzu langer Zeit wurde ich fuer aehnliche Kommentare fast in Stuecke gerissen.

Dann weisst du ja wie sich ein von IBM produzierter LowK Chip füllt. ;)

robbitop
2004-12-21, 23:00:14
Wenn ich bei IBM produzieren würde hätte ich auch die Finger von LowK gelassen.

naja offenbarhatten sie große Probleme mit SiLK.
Hat IBM nun ein neues Dielektrikum gefunden?
Warum wechselte man eigentlich zu IBM??

Godmode
2004-12-21, 23:07:21
Ich hab keine Ahnung was fuer einen Herstellungs-Prozess die Konkurrenz benutzen soll, aber mit den 6 quads war offensichtlich mal nicht ATI gemeint ;)

Wieso dual core fuer R520? Weder die spekulierte Transistoren-anzahl, noch low-k 90nm zeigen sich problematisch oder zu "eng" fuer die bis jetzt bekannten Geruechte. 300M wuerde auf jeden Fall keine so hohe Taktrate vorschlagen....

Ich hab deshalb Multicore vorgeschlagen, weil ich dachte so die schlechte Verfügbarkeit der jetztigen Serie bei dern neuen Serie zu verbessern!

Ailuros
2004-12-21, 23:35:30
EasyChiller']ich sehe den NV48 nicht wirklich als direkten Konkurrenten zum R520. Der 48 wird wenn dann doch eher vielmher nen Konkurrent zur x800xl und x850 werden. Notgedrungen, da wohl wenn es nen nv47 geben sollte dieser wohl erst ne weile nach dem r520 kommen wird (welcher ja schon sein tape-out gehabt haben soll), wird der 48 auch zu Beginn das einzige sein was NV gegen den R520 zu bieten hat. Wenn sie es nicht mit der Leistung wirklich erreichen, wo werden sie dies wieder über den Preis und durch übermäßiges propagieren von SLI (von dem ich in dieser Form wie es es im Moment gibt garnix halte) wieder versuchen wett zu machen - bis zum direkten Pendant, was dann der NV47 mit 6 quads werden könnte.

Ich bin fest davon überzeugt das der 48 "nur" 4 quads in 110nm haben wird, da sonst in der Produktpalette von NV einfach ein Chip fehlt der im gehobenen Mainstream gegen den x800xl positioniert werden könnte. :redface:

Wer blickt denn heutzutage (mal wieder) mit NV's Codenamen genau durch? Aehnliches passierte auch mit dem NV45 Gewarkel, aber diesmal weiss man schon gar nicht mehr was genau was ist. Eine potentielle Preissenkung der 6800GT's wuerde auch im gegebenen Fall ausreichen. Von besonderer Verfuegbarkeit der R430 wuerde ich ja sowieso nicht reden; man "erhofft" im Januar mit befriedigenden Zahlen liefern zu koennen.

Wie dem auch sei mein Fragezeichen geht nur auf welchem Herstellungsprozess der hypothetische 6 quad chip hergestellt werden koennte.

Ailuros
2004-12-21, 23:41:39
Ich hab deshalb Multicore vorgeschlagen, weil ich dachte so die schlechte Verfügbarkeit der jetztigen Serie bei dern neuen Serie zu verbessern!

Nach ATI's Angaben laeuft alles bis jetzt wie nach Plan mit low-k 90nm. Transistoren-Zahl wie Du schon selber sagtest ist ja stets klein bei ATI, ergo gibt es keinen besonderen Grund fuer eine quasi "Notmassnahme" wie dual-core.

Gaebe es Probleme mit low-k 90nm und der bisherigen Entwicklung mit sehr komplizierten GPUs, haetten wir schaetze ich bestimmt schon was davon gehoert. Verfuegbarkeit ist natuerlich eine ganz andere Geschichte; das finden wir wohl eher erst nach der Ankuendigung heraus.

seahawk
2004-12-22, 08:55:51
Wer blickt denn heutzutage (mal wieder) mit NV's Codenamen genau durch? Aehnliches passierte auch mit dem NV45 Gewarkel, aber diesmal weiss man schon gar nicht mehr was genau was ist. Eine potentielle Preissenkung der 6800GT's wuerde auch im gegebenen Fall ausreichen. Von besonderer Verfuegbarkeit der R430 wuerde ich ja sowieso nicht reden; man "erhofft" im Januar mit befriedigenden Zahlen liefern zu koennen.

Wie dem auch sei mein Fragezeichen geht nur auf welchem Herstellungsprozess der hypothetische 6 quad chip hergestellt werden koennte.

Da wir nicht wissen, dass NV seine Partnerschaft mit IBM gekündigt hat, muss man davon ausgehen, dass auch IBM weiter für NV fertigen wird. Imho beduetet das, dass ein & Quad Chip wahrscheinlich bei IBM gefertigt wird. Denkbar ist imho 0,13 oder 0,09.

Der NV48 würde dann wohl die X800XL von NV werden.

Gast
2004-12-22, 13:05:26
Da wir nicht wissen, dass NV seine Partnerschaft mit IBM gekündigt hat, muss man davon ausgehen, dass auch IBM weiter für NV fertigen wird. Imho beduetet das, dass ein & Quad Chip wahrscheinlich bei IBM gefertigt wird. Denkbar ist imho 0,13 oder 0,09.

Der NV48 würde dann wohl die X800XL von NV werden.

Nvidia hat auch keinen Grund seine Partnerschaft bei IBM zu kündigen. Genauso wenig wird Nvidia seine Partnerschaft mit TSMC kündigen.
2 Partner zu haben ist doch für Nvidia besser als nur einer. Man wird so immer aktuell entscheiden, welches Produkt bei wem Sinn macht.
So kann der nächste High End Chip von Nvidia von TSMC sein und der übernächste wieder von IBM.
Oder High End bei TSMC und Mainstream bei IBM oder umgedreht.

Das ist ein Buch mit vielen Fragezeigen und wird niemals eine langfristige Gültigkeit haben.
Zum Beispiel gibt es Informationen, nach denen Nvidia seinen nForce5 bei IBM fertigen wird.

robbitop
2004-12-22, 13:11:02
Das ist ein Buch mit vielen Fragezeigen und wird niemals eine langfristige Gültigkeit haben.
Zum Beispiel gibt es Informationen, nach denen Nvidia seinen nForce5 bei IBM fertigen wird.

Wieso sollte man? Mainboardchipsätze müssen billig sein und besotzen einen meist sehr geringen Transistorcount. Da nimmt man einen billigen und ausgereiften Prozess (aktuell 150nm..später sicher mal 110nm).
IBM wäre für Chipsätze viel zu teuer.

Godmode
2004-12-22, 13:29:16
IBM wäre für Chipsätze viel zu teuer.

Warum das? weist du ihre Preise?

Ailuros
2004-12-22, 13:33:16
Warum das? weist du ihre Preise?

Ich hab zwar keine Ahnung was chipsaetze betrifft, aber ich wuerde schon eher denken dass IBM eben NVIDIA nicht als Kunden verlieren will. Falls die Angaben von NV fuer den NV40 stimmten, klingt es nicht nach einem besonders Gewinn-reichen Geschaeft fuer IBM.

robbitop
2004-12-22, 13:34:02
Warum das? weist du ihre Preise?
Mutmaßung. Aber laut EE Times ist IBM einer der teuersten Semiconductors.
Ist ja auch klar I B M ;-)
TSMC hat seine Fab in Taiwan stehen ...wenn das nicht billiger ist, weiß ich auch nicht

Gast
2004-12-22, 15:57:12
Mutmaßung. Aber laut EE Times ist IBM einer der teuersten Semiconductors.
Ist ja auch klar I B M ;-)
TSMC hat seine Fab in Taiwan stehen ...wenn das nicht billiger ist, weiß ich auch nicht

Naja, wenn ich danach gehe wer wo bei wen produzieren lässt bzw seine Fab(s) hat, dann dürften so manche Sachen entsprechend billiger sein... sowas wie den Europa-Aufschlag dürfte es dann schon mal nicht geben.

reunion
2004-12-23, 11:59:19
R300 @325MHz und 150nm hat auch niemand dran geglaubt.


Klar kann man auch aus einem ältern Prozess noch einiges rausholen, trozdem schaffte NV30 mit mehr Transistoren 500mhz (wenn auch mit entsprechender Kühlung :D).


NV scheint seit dem 130nm NV30 Debakel vorsichtiger geworden zu sein.
B.s.w. haben sie von LowK bisher die Finger gelassen.


Hoffentlich nicht zu vorsichtig, ATi hat mit dem R520 zum einen den Vorteil des kleinern Fertigungsprozesses (90 vs. 110nm) und zum anderen den Vorteil von lowk, dessen nutzen sich deutlich bei RV350 vs. Rv360 gezeigt hat, immerhin ließ sich der RV360 nicht nur deutlich höher takten, sondern verbraucht auch weniger Strom als RV350.

Natürlich könnte ATi sich auch wie Nv damals verkalkuliert haben und probleme mit dem 90nm lowk prozess bekommen, aber momentan läuft offensichtlich alles problemlos.


Wer weiß was mit diesem 110nm Prozess noch so alles möglich ist. Vor Monaten wurde er noch als low cost prozess belächelt..

Der 110nm Prozess von TSMC ist auch eigendlich als lowcost Prozess gedacht, es ist ja nicht umsonst kein lowk verfügbar. Und NV43 ist auch nicht gerade Kühl und verbraucht einiges an Strom.

Ailuros
2004-12-23, 14:52:47
Mutmaßung. Aber laut EE Times ist IBM einer der teuersten Semiconductors.
Ist ja auch klar I B M ;-)
TSMC hat seine Fab in Taiwan stehen ...wenn das nicht billiger ist, weiß ich auch nicht

Es gibt einen netten Scherz ueber I.B.M. Es soll eine Kurzschreibung fuer Idiots Buy Me sein :D

Ailuros
2004-12-23, 14:58:06
Der 110nm Prozess von TSMC ist auch eigendlich als lowcost Prozess gedacht, es ist ja nicht umsonst kein lowk verfügbar. Und NV43 ist auch nicht gerade Kühl und verbraucht einiges an Strom.

Geruechte wollten auch den R480 auf 110nm; dahingegen war es doch nur am Ende R430. Das soll jetzt gar nichts absolutes heissen, aber fuer sehr hohe Komplexitaet ist 110nm tatsaechlich knapp (hauptsaechlich auf >4 quads konzentriert).

ShadowXX
2004-12-23, 15:45:35
Es gibt einen netten Scherz ueber I.B.M. Es soll eine Kurzschreibung fuer Idiots Buy Me sein :D

IBM = Ich bin müde......ist auch häufiger vertreten....

reunion
2004-12-23, 21:18:35
Geruechte wollten auch den R480 auf 110nm; dahingegen war es doch nur am Ende R430. Das soll jetzt gar nichts absolutes heissen, aber fuer sehr hohe Komplexitaet ist 110nm tatsaechlich knapp (hauptsaechlich auf >4 quads konzentriert).

Ich glaube sowieso nicht an Nv48 in 110nm. R430 zeigt recht deutlich die nachteile des 110nm Prozesses bei TSMC. Zum einen erreicht man nichtmal annähernd die Taktraten des R480 in 130nm lowk und zum anderen verbraucht man trozdem beinahe genausoviel Strom wie eine X800XT (non PE) troz 100mhz weniger Chiptakt, der einzige Vorteil sind die geringern Herstellungskosten (was bei einem High End Chip eher unwichtig ist).

Jesus
2004-12-23, 21:33:41
IBM = Ich bin müde......ist auch häufiger vertreten....

FIAT - Fehler in allen Teilen...

Solche Sprüche gibts wohl für alles ;)

LordDeath
2004-12-25, 15:46:49
Ich glaube sowieso nicht an Nv48 in 110nm. R430 zeigt recht deutlich die nachteile des 110nm Prozesses bei TSMC. Zum einen erreicht man nichtmal annähernd die Taktraten des R480 in 130nm lowk und zum anderen verbraucht man trozdem beinahe genausoviel Strom wie eine X800XT (non PE) troz 100mhz weniger Chiptakt, der einzige Vorteil sind die geringern Herstellungskosten (was bei einem High End Chip eher unwichtig ist).

ja, aber bei den kommenden chips hat man ja den vorteil, wissen aus der jetztigen 110nm produktion nutzen zu können!

achja: bmw=bald mein wagen :D

Benedikt
2004-12-25, 16:45:55
IBM = Ich bin müde......ist auch häufiger vertreten.... OT: Auch SchreIBMaschine u. a....

Ailuros
2004-12-26, 11:24:10
ja, aber bei den kommenden chips hat man ja den vorteil, wissen aus der jetztigen 110nm produktion nutzen zu können!

achja: bmw=bald mein wagen :D


Wenn ich dieses "Wissen" richtig interpretiere, dann ist der Stromverbrauch mit 2 quads@500MHz(ca.140M)/110nm hoeher als mit 3/4 quads@325MHz(222M)/130nm.

Fuer sehr hohe Chip-komplexitaet gibt es bis jetzt keine einzige Anzeige, dass 110nm geeignet ist.

Demirug
2004-12-26, 11:50:18
Wenn ich dieses "Wissen" richtig interpretiere, dann ist der Stromverbrauch mit 2 quads@500MHz(ca.140M)/110nm hoeher als mit 3/4 quads@325MHz(222M)/130nm.

Fuer sehr hohe Chip-komplexitaet gibt es bis jetzt keine einzige Anzeige, dass 110nm geeignet ist.

Der Stromverbrauch bei CMOS skaliert ja leider nicht linear mit der Taktfrequenz sondern eher überproportional. Das ist ja die Stelle wo Fast14 eine Lösung darstellen sollen. Zudem wissen wir auch nicht in wie weit bei 130nm und 110nm auf die gleiche Layer Anzahl gesetzt wurde. Das kann durchaus auch Auswirkungen haben.

Ailuros
2004-12-26, 12:03:48
Der Stromverbrauch bei CMOS skaliert ja leider nicht linear mit der Taktfrequenz sondern eher überproportional. Das ist ja die Stelle wo Fast14 eine Lösung darstellen sollen. Zudem wissen wir auch nicht in wie weit bei 130nm und 110nm auf die gleiche Layer Anzahl gesetzt wurde. Das kann durchaus auch Auswirkungen haben.

Kein Einwand. Es geht mir ja nur eher ueber chips die die 220M Grenze um einiges uebertreffen. Wuerden wir ueber einen 6 quad/350-400MHz mit ~280-290M spekulieren, klingt mir das Ganze immer noch verdammt knapp auf non-low-k 110nm, irrelevant wieviel layer fuer den PCB benutzt werden koennen.

Was hat denn die Geruechtekueche uberhaupt ueber IBM's (non-low-k) 90nm Prozess zu sagen (eher was die geschaetzte Verfuegbarkeit betreffen koennte)?

robbitop
2004-12-26, 12:16:02
... irrelevant wieviel layer fuer den PCB benutzt werden koennen....

...Was hat denn die Geruechtekueche uberhaupt ueber IBM's (non-low-k) 90nm Prozess zu sagen (eher was die geschaetzte Verfuegbarkeit betreffen koennte)?..

Es geht Demirug sicher um die Anzahl der Verdrahtungsebenen.

Sicher, dass IBM bei 90nm noch kein lowk verwendet? AFAIK haben die PPCs @90nm bereits lowk Dielektrika und die werden bei IBM gefertigt.

Demirug
2004-12-26, 12:17:55
Kein Einwand. Es geht mir ja nur eher ueber chips die die 220M Grenze um einiges uebertreffen. Wuerden wir ueber einen 6 quad/350-400MHz mit ~280-290M spekulieren, klingt mir das Ganze immer noch verdammt knapp auf non-low-k 110nm, irrelevant wieviel layer fuer den PCB benutzt werden koennen.

Was hat denn die Geruechtekueche uberhaupt ueber IBM's (non-low-k) 90nm Prozess zu sagen (eher was die geschaetzte Verfuegbarkeit betreffen koennte)?

Ich meinte Kupfer Layer auf dem Chip. Da kann man ja inzwischen recht frei wählen. Aber mit der Anzahl der Layer steigen auch die Arbeitsschritte und mit jedem schritt wird der Yield in der Regel etwas schlechter.

Welchen non LowK Prozess? 90nm gibt es AFAIK nur mit LowK. Was ich in diesem ganze Zusammenhang aber viel wichtiger finde ist in wie weit diese Neuentwicklung welche IBM zusammen mit AMD gemacht hat in die Unterschiedlichen Prozesse einfliesst?

robbitop
2004-12-26, 12:19:54
Welchen non LowK Prozess? 90nm gibt es AFAIK nur mit LowK. Was ich in diesem ganze Zusammenhang aber viel wichtiger finde ist in wie weit diese Neuentwicklung welche IBM zusammen mit AMD gemacht hat in die Unterschiedlichen Prozesse einfliesst?

meinst du Strained P-MOS?

Demirug
2004-12-26, 12:26:29
meinst du Strained P-MOS?

Nein, ich meine DSL (Dual Stress Liner). Das Problem dabei ist das man wiedersprüchliche Aussagen bekommt. Manchmal hört man das es bei 130nm Prozess schon eingesetzt wird dann hört man aber wiederum das es erst im Laufe von 2005 überhaupt zum Einsatz kommen soll.

[ncp]EasyChiller
2004-12-26, 12:33:11
Wenn ich dieses "Wissen" richtig interpretiere, dann ist der Stromverbrauch mit 2 quads@500MHz(ca.140M)/110nm hoeher als mit 3/4 quads@325MHz(222M)/130nm.

Dazu wären noch die jeweiligen Versorgungspannungen ganz interessant!
:rolleyes: Weil ich kann mir ganz gut vorstelln, das für 500mhz mit 110nm sogar um einige Prozente höhere Spannungen nötig sind als für 325mhz mit 130nm

Ailuros
2004-12-26, 14:13:41
EasyChiller']Dazu wären noch die jeweiligen Versorgungspannungen ganz interessant!
:rolleyes: Weil ich kann mir ganz gut vorstelln, das für 500mhz mit 110nm sogar um einige Prozente höhere Spannungen nötig sind als für 325mhz mit 130nm

Ausser 90nm waeren IMHO >400MHz mit >4 quads sowieso auf keinem anderen Prozess moeglich.

robbitop
2004-12-26, 14:18:38
Ausser 90nm waeren IMHO >400MHz mit >4 quads sowieso auf keinem anderen Prozess moeglich.

Wie kommst du zu dieser Erkenntnis?
IMO ist das sehr sehr designabhängig.