PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : RV410


RV410
2004-08-12, 01:00:11
Die News von heute gehört EINDEUTIG in die Speku-Ecke...

Zitat:

Mit dem Punkt, daß der NV43-Chip nur ein 128 Bit Speicherinterface hat, kann man im übrigen davon ausgehen, daß dies auch beim ATi-Gegenpart, dem RV410-Chip, so sein wird ...

Ende:

Das ist schlichtweg falsch und zeigt mal wieder welchen schlechten Kontakt Ihr zu ATI habt!

Es wird ein Highend Midrange Chip werden und wohl kaum ein Low Midrange Produkt wie NV43 Pfui 128Bit DDR1 :-) sein.

Quasar
2004-08-12, 08:00:40
Das ist schlichtweg falsch und zeigt mal wieder welchen schlechten Kontakt Ihr zu ATI habt!

Es wird ein Highend Midrange Chip werden und wohl kaum ein Low Midrange Produkt wie NV43 Pfui 128Bit DDR1 :-) sein.
Falsch? Wo sind den Fakten, die das Gegenteil beweisen? Ich würde es momentan zwar auch als Spekulation (oder eben sehr guten Kontakt zu ATi ;) ) bezeichnen, aber wenn du es als schlichtweg falsch abtust, solltest du im Gegenzug Fakten bringen, die deine Behauptung untermauern.

edit:
Ein möglicher Anhaltspunkt _für_ die 3DCenter-Spekulation und gegen dein "High-End" MidRange wäre natürlich das "V" im Codenamen...

seahawk
2004-08-12, 08:16:17
Da hätte ich auch gerne erstmal Hinweise für einen 256Bit Chip. Momentan deutet nichts daraufhin.

LovesuckZ
2004-08-12, 09:51:11
Der RV410 muss sich auch mit den NV41 messen lassen und nicht mit dem NV43*.
Sagen wir's so:Mit der 6800NU hat Nvidia eine Karte, die ATi erstmal schlagen muss.

*Der Gegenpart zum NV43NGT ist die X600 (XT?).

wuzetti
2004-08-12, 11:12:11
Der RV410 muss sich auch mit den NV41 messen lassen und nicht mit dem NV43*.
Sagen wir's so:Mit der 6800NU hat Nvidia eine Karte, die ATi erstmal schlagen muss.

*Der Gegenpart zum NV43NGT ist die X600 (XT?).

sehe ich nicht so. der RV410 ist mit 2 quads das gegenstück zum NV43. der nv41 wird aus heutiger sicht als chip mit 3 quads beurteilt, wohl um einen chip bringen zu können, der sich billiger produzieren laesst als der NV40 mit einem deaktivierten quad. wie ati darauf reagiert muss man abwarten.

robbitop
2004-08-12, 12:22:54
@LS
laut meinen Infos ist der RV410 das Gegenstück zum NV43. Also midrange nicht unteres HighEnd (bis 200$).

NV41 wird 3 Quads besitzen (ist nur die Frage in welchem Fertigungsprozess...ob dass der 110nm Prozess noch schafft??). Kontrahent ist ersteinmal die X800pro. Allerdings weiss ich nicht ob ATi auch da ein Pendant in petto hat.

---
Da ein 256bit DDR Interface in so ziemlich jedem Falle teurer ist als ein 128bit Interface und da in diesem Markt um jeden cent gekämpft wird, sollte 128bit wahrscheinlich sein.
Der Chip wird teurer durch die Anz an Mehrpins und das größere Speicherinterface. Das PCB ebenfalls durch die doppelte Anzahl an Datenleitungen.

reunion
2004-08-12, 13:05:20
Da ein 256bit DDR Interface in so ziemlich jedem Falle teurer ist als ein 128bit Interface und da in diesem Markt um jeden cent gekämpft wird, sollte 128bit wahrscheinlich sein.
Der Chip wird teurer durch die Anz an Mehrpins und das größere Speicherinterface. Das PCB ebenfalls durch die doppelte Anzahl an Datenleitungen.

Und extrem hochgetakteter GDDR3 Speicher mit 2ns Zugriffszeit ist nicht teuer?
Ob ein paar mehr pins und vielleicht ein zusätzlicher Layer am PCB das rechtfertigen?
Mit einem 256-bit Speicheranbindung könnte man auf günstigen DDR1 Speicher mit 3,3ns Zugriffszeit zurückgreifen und hätte noch immer mehr bandbreite als NV.

LovesuckZ
2004-08-12, 13:10:01
ATi hat erst vor kurzem ihre Produktpalette fuer das Segment von 100 - 200€ vorgestellt und in diesen moechte Nvidia nun wildern.
Wenn der RV410 nun ebenfalls hier rein sollte, was macht ATi dann mit den X600 Chips?
Und aus diesem grund sehe ich nicht, dass der RV410 der Konkurent zum NV43 waere.

wuzetti
2004-08-12, 13:25:14
ATi hat erst vor kurzem ihre Produktpalette fuer das Segment von 100 - 200€ vorgestellt und in diesen moechte Nvidia nun wildern.
Wenn der RV410 nun ebenfalls hier rein sollte, was macht ATi dann mit den X600 Chips?
Und aus diesem grund sehe ich nicht, dass der RV410 der Konkurent zum NV43 waere.

:confused: was mit dem RV380/X600 passiert, werden wir sehen. könnte ein kandidat für "unteres" mid-end sein. ausserdem hat NV trotz NV43 ankündigung den NV36/FX5700u nicht abgekündigt, von da her brauchts auch ein gegenstück ala X600.
alles in allem also kein grund, warum RV410 nicht gegen NV43 antreten sollte.

und wie robbitop schon ergänzt hat, wird NV41 wohl gegen die X800 pro antreten müssen, wenn ATI dort nichts anderes bringt.

LovesuckZ
2004-08-12, 13:33:43
Fuer das "untere" Segment wurde die X300 praesentiert.
Es ist also fuer mich ausgeschlossen, dass innerhalb von 3-4 Monaten ploetzlich die Situation in diesen Segment zwischen 50 - 200€ bei ATi mit dem RV410 aendern wird.
Dagegen sieht das Bild zwischen 200€ - 400€ deutlich schlechter aus, da man hier nichts anbietet.
Und dort passt ein RV410 sehr gut rein und deswegen denke ich, dass der RV410 der Konkurent zum NV41 sein wird.

robbitop
2004-08-12, 14:41:06
@reunion
das schloss ich damit ein. Meine bisherigen Infos sprechen von höherem Kostenaufwand. Gründe betreffen hier eben nicht nur das PCB sondern auch den Chip. (siehe oben).

@LS
NV43 wurde für den 200$ Markt gemacht. Da ist die X600 gar nicht drin. Die kostet unter 150$. Vieleicht eher ein 6600NonGT Konkurent??
ATi hätte in diesem Bereich nichts. Und mit 2 Quads und ~500MHz würde man bei gleicher Bandbreite vieleicht nicht mal mit dem NV43 mithalten können. Wie soll man denn mit dem NV41 (max 300$) mithalten?
NV44U könnte ja ein X600 Konkurent werden und NV44NU ein X300 Konkurent.
Alle Chips hätten 1 Quad und Differenzen im Takt/Speicherinterface.

wuzetti
2004-08-12, 15:45:50
@LS

ich hatte "unteres" mid-end und nicht low-end geschrieben.

guckst du z.b. hier, die sehen die X600 und die GF6600 (non GT) auch als mögliche konkurrenten.
http://www.hothardware.com/viewarticle.cfm?articleid=566
;)

Leonidas
2004-08-14, 05:56:20
Die News von heute gehört EINDEUTIG in die Speku-Ecke...

Zitat:

Mit dem Punkt, daß der NV43-Chip nur ein 128 Bit Speicherinterface hat, kann man im übrigen davon ausgehen, daß dies auch beim ATi-Gegenpart, dem RV410-Chip, so sein wird ...

Ende:

Das ist schlichtweg falsch und zeigt mal wieder welchen schlechten Kontakt Ihr zu ATI habt!

Es wird ein Highend Midrange Chip werden und wohl kaum ein Low Midrange Produkt wie NV43 Pfui 128Bit DDR1 :-) sein.




Meiner Meinung nach bietet sich die von mir in den News geäußerte Schlußfolgerung absolut an. Und sie hat auch nix mit ATI/NV zu tun, ich hätte diese Schlußfolgerung auch getroffen, wenn ich vom RV410 auf den NV43 schließen sollte.

Leonidas
2004-08-14, 05:58:59
ATi hat erst vor kurzem ihre Produktpalette fuer das Segment von 100 - 200€ vorgestellt und in diesen moechte Nvidia nun wildern.
Wenn der RV410 nun ebenfalls hier rein sollte, was macht ATi dann mit den X600 Chips?
Und aus diesem grund sehe ich nicht, dass der RV410 der Konkurent zum NV43 waere.



Jein. Der X600 ist in dem Sinne kein neues Produkt, sondern nur die PCIe-Version der Radeon 9600XT. Faktisch hat ATi seit dem RV360 im Mainstream-Markt nix neues getan - wie nVidia beim NV36. Nun hat nVidia mit dem NV43 vorgelegt und ATi wird sicherlich alsbald mit dem RV410 nachlegen.

Leonidas
2004-08-14, 06:00:27
und wie robbitop schon ergänzt hat, wird NV41 wohl gegen die X800 pro antreten müssen, wenn ATI dort nichts anderes bringt.


Der NV41 wird sich wohl schlicht GeForce 6800 nennen ... insofern braucht ATi dort nix neues zu bringen. Der NV41 wird mehr eine interne Ablösung darstellen: Anstatt die GeForce 6800 mit NV40-Chips produziert wird, wird sie dann mit NV41-Chip produziert.

Leonidas
2004-08-14, 06:02:17
@LS
guckst du z.b. hier, die sehen die X600 und die GF6600 (non GT) auch als mögliche konkurrenten.
http://www.hothardware.com/viewarticle.cfm?articleid=566
;)


Sorry, aber das ist die Darstellung von NV. Seit wann hat das was mit der Realität zu tun? NV versucht hier nur, den für NV besten Vergleich hinzubekommen - und da die X600 technisch der 6600 klar unterlegen ist, ist es ein schöner Vergleich für NV.

wuzetti
2004-08-14, 17:35:40
damit hast du natürlich recht. allerdings ist das meiner meinung nach auch legitim von NV, solange sie mit ihrem neuen midrange produkt als erste da sind und ATI den RV410 noch nicht offiziell vorgestellt hat.

ich bin vielmehr gespannt ob der RV410 tatsächlich mit dem von dir vermuteten 128 bit speicherinterface kommt. glaube aber auch, dass dem so sein wird.

TheGood
2004-08-15, 17:56:35
damit hast du natürlich recht. allerdings ist das meiner meinung nach auch legitim von NV, solange sie mit ihrem neuen midrange produkt als erste da sind und ATI den RV410 noch nicht offiziell vorgestellt hat.

ich bin vielmehr gespannt ob der RV410 tatsächlich mit dem von dir vermuteten 128 bit speicherinterface kommt. glaube aber auch, dass dem so sein wird.
Wann soll dennd er RV410 denn erscheinen??

Ailuros
2004-08-15, 19:04:50
Der NV41 wird sich wohl schlicht GeForce 6800 nennen ... insofern braucht ATi dort nix neues zu bringen. Der NV41 wird mehr eine interne Ablösung darstellen: Anstatt die GeForce 6800 mit NV40-Chips produziert wird, wird sie dann mit NV41-Chip produziert.

Ich will hoffen dass es dann auch 256MB ram Varianten geben wird. Nur aus dem Grund weil ich das Gefuehl habe dass zu viele in letzter Zeit den Leistungs-Unterschied zwischen 6800nonU und 6800GT zu stark mit der Menge des onboard Speichers verbinden. Einen Unterschied macht doppelt so viel Speicher schon, aber es sieht mir nicht nach dem ausschlagebensten Punkt fuer die Leistungs-differenzen aus.

LovesuckZ
2004-08-17, 13:08:15
RV410
- GPU : 500MHz
- 500MHz GDDR3
- 128 bits Memory bus
- 8 Pipelines
- 0,11 micron
- Shader Model 2.0B
- Vertex Shaders : 6
- PCI Express 16x
- 199$
- Available in september


Evildeus (http://www.beyond3d.com/forum/viewtopic.php?p=349762#349762)

Nun, auch ein LovesuckZ kann irren :wink:
Sieht aber von den Specs nicht berauschend an. Einzig postiv sollte der geringere Transistorcount und damit der noch geringere Stromverbauch sein. Aber ansonsten?

Xmas
2004-08-17, 13:17:31
Brachiale VS-Leistung, aber ansonsten sehe ich den RV410 mit diesen Specs knapp hinter 6600GT.

deekey777
2004-08-17, 13:35:24
Sechs VS??? Ist das nicht etwas übertrieben??? :|

Gast
2004-08-17, 13:46:10
Vielleicht wissen die IHVs was, was wir noch nicht wissen?
Ich fand die drei VS bei der FX5700 auch ziemlich übertrieben - trotzdem waren sie drin.

IVN
2004-08-17, 14:01:43
@LovesuckZ

These 6 VSs look good.
Compared with other specs. ,this must be a mistake.

HOT
2004-08-17, 14:04:45
Die ATI dinger müssen doch zwangsweise 8 ROPs bei 8 Pipes haben oder? Das wäre ein nicht zu verachtender Vorteil. Jedenfalls würde das Ding bei D3 net viel schlechter abschneiden als der NV43 IMHO.
6VS bei 500MHz sind ne ganze Menge Holz und könnte sich durchaus ggü. dem NV43 mit seinen 3(?) VS auswirken, abr nur in ganz bestimmten Situationen.
Die werden wohl ziemlich gleichwertig, wenn die Spekus stimmen.

LovesuckZ
2004-08-17, 14:08:05
@LovesuckZ
These 6 VSs look good.


Ich kenn jedoch kein Spiel, welches durch die VS limitiert ist.

StefanV
2004-08-17, 14:12:33
Ich kenn jedoch kein Spiel, welches durch die VS limitiert ist.

Wer spricht den von Spielen :urolleyes

Die brutale VS Leistung schaut eher so aus, als wolle ATI nV im Professionellen Bereich angreifen...

wuzetti
2004-08-17, 14:13:05
an die 8 rops hab ich auch zuallererst gedacht, weil das wohl neben der vs power die einzige pluspunkt gegenüber NV43 sein könnte. aber ganz so sicher bin ich mir da nicht, vielleicht könnte das jemand aufklären.

6VS klingt irgendwie "komisch". ich hätte à la Mobility Radeon 9800 auf maximal 4 getippt.

IVN
2004-08-17, 14:13:46
@LovesuckZ
No of corse not,but try FarCry with Object Instancing.

LovesuckZ
2004-08-17, 14:13:52
Die brutale VS Leistung schaut eher so aus, als wolle ATI nV im Professionellen Bereich angreifen...

Wer kauft dort schon ATi?

Gast
2004-08-17, 14:18:15
Leute, die die Eigenschaften benötigen, die ATi zu bieten hat?

LovesuckZ
2004-08-17, 14:23:20
@LovesuckZ
No of corse not,but try FarCry with Object Instancing.

In Farcry scheinen aber mit OI auch nicht die VS zu limitieren, sonst muessten sich die Pro und XTPE Karten jeweils von der Konkurenzkarte deutlich absetzen koennen.

IVN
2004-08-17, 14:27:25
@LovesuckZ

Battle for Middle Earth shuld also support Frequency divider for vertex program streams. :wink:

LovesuckZ
2004-08-17, 14:30:58
@LovesuckZ
Battle for Middle Earth shuld also support Frequency divider for vertex program streams. :wink:

Ist es auch bei ATi Karten verfuegbar? ;)

IVN
2004-08-17, 14:35:23
@LovesuckZ

With IO enabled r420 is faster in FarCry, an x800pro manages to defeat an 6800gt,and 800xt does the same with an 6800u.
Look at Xbitlabs article about SM 2.b.

IVN
2004-08-17, 14:36:38
Ist es auch bei ATi Karten verfuegbar? ;)

Of corse it is.Frequency divider for vertex program streams is OI.

LovesuckZ
2004-08-17, 14:39:34
Look at Xbitlabs article about SM 2.b.

Bei Firingsquad (http://www.firingsquad.com/hardware/far_cry_ps2.0b/page4.asp) sieht es nicht so gut aus. =)
Fuer mich limitiert daher nicht die VS beim Einsatz von OI in farcry. Es bleibt daher noch ein bisschen in Dunkeln, ob OI wirklich die VS zum limitierenden Faktor macht.

IVN
2004-08-17, 14:52:44
Bei Firingsquad (http://www.firingsquad.com/hardware/far_cry_ps2.0b/page4.asp) sieht es nicht so gut aus. =)
Fuer mich limitiert daher nicht die VS beim Einsatz von OI in farcry. Es bleibt daher noch ein bisschen in Dunkeln, ob OI wirklich die VS zum limitierenden Faktor macht.

Maybe you are right.But imagine all those litle unites in an RTS game like BfME.Without OI you must make a CPU call for every of them so you can calculate the geometry,with OI you just need one call.The Cpu sends the data and needed instructions so that VSs in the GPU can calculate from one data stream for all those litle objects,and that is VS power limited,but saves CPU power. :up:

Gast
2004-08-17, 15:14:19
OI requires that all vertex data are const per instance and only small params blocks are used per instance.

So RTS units are usually skinned. They could be skinned in the vertex shader, but this would require a unique matrix palette per instance, something that is not viable using OI.
Or they could be skinned in the CPU which results to a unique vertex buffer per instance. Still no OI possible.... ups.

IVN
2004-08-17, 15:19:04
@Gast
Could you repeat that but without short cuts,and in German if posible?So i can understand you.

LovesuckZ
2004-08-17, 15:27:03
Evildeus (http://www.beyond3d.com/forum/viewtopic.php?p=349858#349858) auf die Antwort von jemanden, dass er eher 3 oder 4 VS erwartet haette:

Yeah, i think you are right about the 3-4 VS.

Gast
2004-08-17, 17:10:23
@Gast
Could you repeat that but without short cuts,and in German if posible?So i can understand you.

Brah. Object Instancing verträgt sich nicht mit dynamischen Daten. Figuren müssen geskinnt werden, um die Animationen abzuspielen. Skinning in der GPU bedeutet, daß die Matrix Palette pro Object Instance anders ist. Geht technisch aber nicht. Skinning in der CPU bedeutet aber, daß die Vertex Daten pro Instanz verschieden sind. Also auch kein Object Instancing.

Geometric Instancing lohnt sich afaik nur für "kleine" massenhaft eingesetzte Objekte, die nicht individuell animiert sind etc.pp.

LovesuckZ
2004-08-17, 17:13:36
Geometric Instancing lohnt sich afaik nur für "kleine" massenhaft eingesetzte Objekte, die nicht individuell animiert sind etc.pp.

Das heißt, es sei perfekt fuer RTS Spiele, welche "kleine" massenhaft eingesetzte Objekte" verwenden.

IVN
2004-08-17, 17:31:06
@Gast

Read my posting and think again.I said that Battle for middle Earth is going to support OI,and in this case it can really bring much performance,becouse the CPU doesn't has to send data for every litle unit (of same typ)separately.It only sands one data stream with the data for one unit,calculations (in VS) for other units are made based on the instructions that are sent with that data stream.All units are identical,but in an other animation phase.

IVN
2004-08-17, 17:33:55
@Gast
The same is valid for trees and vegetation in FarCry. :rolleyes:

robbitop
2004-08-17, 18:54:10
was sagt denn die Anzahl an ROPs über das Ergebnis aus?
Was muss eine ROP können um eine ROP zu sein und was kann eine NV40 ROP?
AFAIK können die NV4x ROPs gewisse Dinge effektiver/schneller als die R3xx/4xx ROPs. AFAIK kann eine NV4x ROP 2 Z/Stencil Tests oder auch Ops/Takt eine R3xx/4xx ROP nicht.
Somit sollte hier (ROP Issue) Gleichstand bzwl leichte Vorteile beim RV410 vorliegen.

aths
2004-08-17, 18:55:27
Brachiale VS-LeistungKein Nachteil – besser als Gefahr zu laufen, dass die Pixelpipelines aufgrund fehlender VS-Power leer laufen.

Vielleicht sparte ATI hier aber auch einfach den Aufwand, die VS-Logik nach unten zu skalieren. (Hat ATI eigentlich SIMD- oder MIMD-VS?)


Vielleicht wissen die IHVs was, was wir noch nicht wissen?
Ich fand die drei VS bei der FX5700 auch ziemlich übertrieben - trotzdem waren sie drin.Imo ist das keine Verschwendung – die FX-Vertexshader können ja sehr lange Programme ausführen, und mit 3 VS-Einheiten ist auch dann noch hohe T&L-Leistung gegeben.

reunion
2004-08-17, 18:56:18
RV410
- GPU : 500MHz
- 500MHz GDDR3
- 128 bits Memory bus
- 8 Pipelines
- 0,11 micron
- Shader Model 2.0B
- Vertex Shaders : 6
- PCI Express 16x
- 199$
- Available in september


Evildeus (http://www.beyond3d.com/forum/viewtopic.php?p=349762#349762)

Nun, auch ein LovesuckZ kann irren :wink:
Sieht aber von den Specs nicht berauschend an. Einzig postiv sollte der geringere Transistorcount und damit der noch geringere Stromverbauch sein. Aber ansonsten?

Sorry aber das halte ich für Blödsinn, warum sollte man bei einem Midragechip 6VS verbauen?
Ich bleibe bei einem in 130nm lowk gefertigtem Chip mit 256-bit Speicherinfance wie beim M18. Denn warum sollte man für zwei beinahe identische Chips eine neue Fertigungsstraße aufmachen?

aths
2004-08-17, 18:59:43
Somit sollte hier (ROP Issue) Gleichstand bzwl leichte Vorteile beim RV410 vorliegen.Ich sehe recht große Vorteile für den R410 – die Frage ist nur, inwiefern diese ausgespielt werden können. Bekanntlich kommt es bei aufwändigen Pixelshadern auf die ROP-Power kaum noch an. Bei einfachen Spielen und aktiviertem AA müsste R410 dem NV43 davon ziehen.

LovesuckZ
2004-08-17, 19:04:30
Bei einfachen Spielen und aktiviertem AA müsste R410 dem NV43 davon ziehen.

Dafuer muessten sie die jetzigen Probleme mit dem memorycontroller behebt haben.
Wieviel Rops hat ein 16 Pipeline R420?

Gast1
2004-08-17, 19:09:08
Wer spricht den von Spielen :urolleyes

Die brutale VS Leistung schaut eher so aus, als wolle ATI nV im Professionellen Bereich angreifen...

Aber doch nicht bei der bescheidenen Rechenpräzision der ATi-Chip, ich bitte ich...

robbitop
2004-08-17, 19:39:43
Bei einfachen Spielen und aktiviertem AA müsste R410 dem NV43 davon ziehen.
nur wenn AF nicht an ist. Wenn es an ist muss die ganze Pipeline eh ein paar mal loopen.

robbitop
2004-08-17, 19:40:49
Wieviel Rops hat ein 16 Pipeline R420?

R420XT: 16 ROPs
NV40: 16ROPs
RV410: 8 ROPs
NV43: 4 ROPs

Wobei NV ROPs mehr können als ATi ROPs.
Der NV35 stand dem R350 um nichts nach in Punkto ROP Leistung und das bei 1/2 der ROP Anzahl.

Gast
2004-08-17, 20:43:01
R420XT: 16 ROPs
NV40: 16ROPs
RV410: 8 ROPs
NV43: 4 ROPs

Wobei NV ROPs mehr können als ATi ROPs.
Der NV35 stand dem R350 um nichts nach in Punkto ROP Leistung und das bei 1/2 der ROP Anzahl.

Jaja und nachts ist es kälter als draussen!

Wenn du solche Behauptungen in den Raum stellst, erwarte ich von einem Member of 3D Center mehr Qualität im Posting.

Das heißt: Link zum Benchmark, Berücksichtigung der Bild-Qualtität und Rechner-Konfig.

Solche pauschale Aussagen sind ungenügend!

Gast
2004-08-17, 20:45:24
Aber doch nicht bei der bescheidenen Rechenpräzision der ATi-Chip, ich bitte ich...


Naja,

immerhin ist 5% weniger Leistung bei ca. 300€ ERSPARNIS für einen CAD-Anwender ne Menge Kohle, die 5% Mehrleistung spürst du auch nicht.

Surf ma was rum, da gab es kürzlich einen CAD Vergleich und ATI hat mächtig aufgeholt.

Link reiche ich nach!

StefanV
2004-08-17, 20:50:01
Aber doch nicht bei der bescheidenen Rechenpräzision der ATi-Chip, ich bitte ich...

Man braucht nicht immer volle Präzision, ab und an kommts auch darauf an wie produktiv ein Gegenstand ist.

In dem Fall erhöht die ATI Karte die Produktivität der Mitarbeiter, die weniger auf die HW warten müssen, was viel Geld spart...

Xmas
2004-08-17, 20:57:46
Ich sehe recht große Vorteile für den R410 ? die Frage ist nur, inwiefern diese ausgespielt werden können. Bekanntlich kommt es bei aufwändigen Pixelshadern auf die ROP-Power kaum noch an. Bei einfachen Spielen und aktiviertem AA müsste R410 dem NV43 davon ziehen.
Ich sehe praktisch keine Vorteile für den RV410, da ich immer noch davon Ausgehe dass NV43 in dieser Hinsicht ein halber NV40 ist.

Gast
2004-08-17, 20:59:37
Ich sehe praktisch keine Vorteile für den RV410, da ich immer noch davon Ausgehe dass NV43 in dieser Hinsicht ein halber NV40 ist.

JA dann leg mal deine Qullen auf den Tisch.

Wenn ich mir das 23 Monatstief auf ww.ntw. Börseninfo nvidia anschaue frage ich mich ernsthaft woher nehmen die die Kohle für so ein Chipdesign.

ATI hat ein 12-Monate hoch btw.

Xmas
2004-08-17, 21:03:36
Naja,

immerhin ist 5% weniger Leistung bei ca. 300? ERSPARNIS für einen CAD-Anwender ne Menge Kohle, die 5% Mehrleistung spürst du auch nicht.
Im professionellen Bereich sind 5% Mehrleistung aber häufig mehr wert als 300?.

Surf ma was rum, da gab es kürzlich einen CAD Vergleich und ATI hat mächtig aufgeholt.

Link reiche ich nach!
Geht es um die aktuelle oder die vorherige Generation?

Quasar
2004-08-17, 21:17:20
Wenn ich mir das 23 Monatstief auf ww.ntw. Börseninfo nvidia anschaue frage ich mich ernsthaft woher nehmen die die Kohle für so ein Chipdesign.

So ein Chipdesign macht man nicht on-the-fly, je nach tagesaktuellem Börsenkurs. Das dauert eher Jahre als Monate. ;)

aths
2004-08-17, 21:33:40
R420XT: 16 ROPs
NV40: 16ROPs
RV410: 8 ROPs
NV43: 4 ROPs

Wobei NV ROPs mehr können als ATi ROPs.
Der NV35 stand dem R350 um nichts nach in Punkto ROP Leistung und das bei 1/2 der ROP Anzahl.Das kann man alles nicht so pauschal sagen. Allerdings kommt es in modernen Spielen nicht darauf an, so viele ROPs zu haben wie Pipes.

StefanV
2004-08-17, 21:35:55
Geht es um die aktuelle oder die vorherige Generation?
Die aktuelle Generation, die Vorherige war Mist...

Quasar
2004-08-17, 21:37:07
Oh, da würde mich ein Test auch mal interessieren - bisher gab's AFAIK ja nur große Ankündigungen.

StefanV
2004-08-17, 21:39:00
Oh, da würde mich ein Test auch mal interessieren - bisher gab's AFAIK ja nur große Ankündigungen.
Auf THG oder so gabs mal einen 'kurztest' der aktuellen Generation.

Die ging richtig heftig ab, verglichen mti den alten und auch die 6800er Quadros konnte die X800 basierte Fire GL schlagen.

Quasar
2004-08-17, 21:41:41
"Mal" ist gut - gestern. ;)

edit:
Wobei, der erste THG-Brüller:
"The NV38GL matches the NV35 in many respects. For example, both chips house 16 pixel pipelines."... :|

Xmas
2004-08-17, 21:51:00
JA dann leg mal deine Qullen auf den Tisch.
Ich gehe einfach nur davon aus, wenn ich falsch liege, dann liege ich eben falsch und stehe dazu.

Wenn ich mir das 23 Monatstief auf ww.ntw. Börseninfo nvidia anschaue frage ich mich ernsthaft woher nehmen die die Kohle für so ein Chipdesign.

ATI hat ein 12-Monate hoch btw.
Sehr hohe Reserven aus der "Dominanz-Zeit". Außerdem schreibt NVidia schwarze Zahlen.

Ich werde mich hüten, den Aktienkurs einer Firma als Indikator für Markterfolg oder -chancen zu sehen.

Xmas
2004-08-17, 21:51:45
Die aktuelle Generation, die Vorherige war Mist...
Von welcher Seite, in welcher Hinsicht, im professionellen Bereich?

StefanV
2004-08-17, 21:54:39
Von welcher Seite, in welcher Hinsicht, im professionellen Bereich?
Hauptsächlich Performance bei Geometrielastigen Dingen.

aths
2004-08-17, 21:56:59
Dafuer muessten sie die jetzigen Probleme mit dem memorycontroller behebt haben.Welche Probleme jetzt?
Wieviel Rops hat ein 16 Pipeline R420? Sofern AA aktiv ist, kann R420 pro Takt 32 Z/Stencil-Tests ausführen. (R410: 16 Z/Stencil.) Meinen Informationen nach kann NV43 pro Takt (egal ob mit oder ohne AA) 8 Z/Stencil-Tests ausführen.

robbitop
2004-08-17, 22:08:05
Welche Probleme jetzt?
Sofern AA aktiv ist, kann R420 pro Takt 32 Z/Stencil-Tests ausführen. (R410: 16 Z/Stencil.) Meinen Informationen nach kann NV43 pro Takt (egal ob mit oder ohne AA) 8 Z/Stencil-Tests ausführen.

naja die theoretischen Z/Stencil Angaben der R3xx/4xx sollte man mit Vorsicht genießen ;)

Aber wer spielt schon mit hohem AA und ohne AF? ;)
AF kaschiert den Nachteil von wenig ROPs durch ohnehin nötiges Loopen.

@Gast
solche Specs kann man kaum an Benches belegen. Wobei es bei B3D glaube ich mal ein paar Fablemark Benches gab. Dort sah man sehr schön wie AF das Loopen der ROPs kaschierte (ab 4x AA müssen Radeon/Geforce loopen) und das Loopen an sich.
Die Ansonsten müsste man den Archmark vll ein wenig weiterentwickeln. Ich bin mir sicher, Zecki findet all das raus was nötig wäre.

natürlich gibt es zu nicht releasten Produkten keine Fakten/Beweise sondern nur Annahmen und Quellen. Wenn ich falsch liege ...naja dann liege ich eben falsch...geb ich gern zu dann ;)

Quasar
2004-08-17, 22:10:08
Auf THG oder so gabs mal einen 'kurztest' der aktuellen Generation.

Die ging richtig heftig ab, verglichen mti den alten und auch die 6800er Quadros konnte die X800 basierte Fire GL schlagen.

Also der Test (http://graphics.tomshardware.com/graphic/20040816/index.html) von "gestern" (16.8.) sieht eher vernichtend für die FireGL aus - selbst die 12-Pipe QuadroFX 3400 dominiert die V5100 in der Mehrzahl der Fälle, teils deutlich.

edit:
Allerdings scheint's hier mal wieder THG at it's best zu geben. Ich würde lieber noch einen weiteren Test von anderer Seite abwarten.

StefanV
2004-08-17, 22:11:36
Also der Test von "gestern" (16.8.) sieht eher vernichtend für die FireGL aus - selbst die 12-Pipe QuadroFX 3400 dominiert die V5100 in der Mehrzahl der Fälle, teils deutlich.
hm, nö, nicht so recht...

Aber irgendwie kostet die 3400 auch 1000 Dollar mehr als die FireGL...

Quasar
2004-08-17, 22:19:04
war die 5100 nicht mit der X600 verwandt und die 7100 mit der X800??

Nicht, daß ich wüßte - die 5100 (http://www.ati.com/products/fireglv5100/index.html) sollte aber eventuell nur die "Pro"-Version des R423GL sein. THG dürfte somit auch hier daneben liegen.

Also schlägt "nur" die 12-Pipe QuadroFX die 12-Pipe FireGL, und nicht das Topmodell - beruhigend.


edit:
errr.... stand da nicht eben noch was anderes? Sorry, wenn ich dich falsch zitiert habe.

Spake
2004-08-17, 22:23:22
ati schreibt auf ihrer page dass die 5100 12 pipes hat also wohl mit der x800pro verwandt
die 7100 hat dagegen 16pipes
die 3100 und 3200 haben dagegen beide 4pipes und sind sommit x600 basiert

StefanV
2004-08-17, 22:25:05
ati schreibt auf ihrer page dass die 5100 12 pipes hat also wohl mit der x800pro verwandt
die 7100 hat dagegen 16pipes
die 3100 und 3200 haben dagegen beide 4pipes und sind sommit x600 basiert
Ahjo, dann hab ichs wohl doch richtig mitbekommen =)

Xmas
2004-08-17, 22:30:13
edit:
Allerdings scheint's hier mal wieder THG at it's best zu geben. Ich würde lieber noch einen weiteren Test von anderer Seite abwarten.
Allerdings, schon allein die Pipeline-Angaben zu den Quadros sind sowas von daneben...

IVN
2004-08-18, 00:26:33
@Quasar

Judgeing by other specs,i would say that quadro Fx 3400 has 16 pipes.

256MB ram and 28.8 GB of bandwidth just look like to much resources for a 12 pipe GPU.

Xmas
2004-08-18, 00:31:37
QuadroFX 3400 hat 12 Pipelines.

http://www.nvidia.com/object/IO_11761.html

QuadroFX 3400: 4,2 GTexel/s = 350MHz * 12
QuadroFX 4400: 6.4 GTexel/s = 400MHz * 16

IVN
2004-08-18, 00:45:40
@Xmas

But why :uthink: are they using such expensive memory for a card with an 12 p. chip on it.

robbitop
2004-08-18, 07:03:21
because it's a professional card for a few thousend bugs? ;)

DrumDub
2004-08-18, 11:19:01
because it's a professional card for a few thousend bugs? ;)

bucks. keine käfer. ;)

Xmas
2004-08-18, 11:38:27
@Xmas

But why :uthink: are they using such expensive memory for a card with an 12 p. chip on it.
Dass die IHVs bei ihren Mainstream-Karten auf relativ niedrig getakteten GDDR3-Speicher setzen, hinterlässt bei mir den Eindruck dass dieser Speicher gar nicht mehr so teuer ist (oder ein Preisrutsch erwartet wird).

256MiB @ 425MHz hat ja auch schon die QuadroFX 3000, und die hat gerade mal 4 Pipelines...

Spake
2004-08-18, 12:43:51
nv verlangt aber ganz ordentliche preise bei ihren gpus:

NVIDIA Quadro FX 1000 AGP 1049 € $1295
NVIDIA Quadro FX 1100 AGP 799 € $999
NVIDIA Quadro FX 1300 PCIe 719 € $899
NVIDIA Quadro FX 2000 AGP 1599 € $1995
NVIDIA Quadro FX 3000 AGP 1359 € $1699
NVIDIA Quadro FX 3000G AGP 2399 € $2999
NVIDIA Quadro FX 3400 PCIe 1439 € $1799

weis jm wo der unterschied zwischen einer 3000 und einer 3000G liegt
immerhin liegt der preisunterschied bei schönen 1000€

Demirug
2004-08-18, 12:50:13
nv verlangt aber ganz ordentliche preise bei ihren gpus:

NVIDIA Quadro FX 1000 AGP 1049 € $1295
NVIDIA Quadro FX 1100 AGP 799 € $999
NVIDIA Quadro FX 1300 PCIe 719 € $899
NVIDIA Quadro FX 2000 AGP 1599 € $1995
NVIDIA Quadro FX 3000 AGP 1359 € $1699
NVIDIA Quadro FX 3000G AGP 2399 € $2999
NVIDIA Quadro FX 3400 PCIe 1439 € $1799

weis jm wo der unterschied zwischen einer 3000 und einer 3000G liegt
immerhin liegt der preisunterschied bei schönen 1000€

Das G steht für Genlock. Damit kann man die Grafikkkarte mit einer externen Videoquelle syncronisieren. Das braucht man zum Beispiel wenn man in ein Livebild etwas einmischen möchte. Zusätzlich kann man auch noch mehrer Karten von G Type syncronisieren. Das ist wichtig wenn man Multidisplaysysteme baut.

deekey777
2004-08-18, 13:00:11
Das G steht für Genlock. Damit kann man die Grafikkkarte mit einer externen Videoquelle syncronisieren. Das braucht man zum Beispiel wenn man in ein Livebild etwas einmischen möchte. Zusätzlich kann man auch noch mehrer Karten von G Type syncronisieren. Das ist wichtig wenn man Multidisplaysysteme baut.


Und sieht aus wie ein BNC-Anschluss?

DrumDub
2004-08-18, 13:10:08
Und sieht aus wie ein BNC-Anschluss?

jupp. http://www.nvidia.com/page/quadrofx_3000g.html

W1zzard
2004-08-26, 11:18:39
mehr rv410 infos: http://www.techpowerup.com/#373

Quasar
2004-08-26, 12:19:12
Sind diese dort anders, als diese hier (http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2145230&postcount=20)?

StefanV
2004-08-26, 12:21:51
mehr rv410 infos: http://www.techpowerup.com/#373
Nö, nur anders zusammengefasst...

MadManniMan
2004-08-27, 09:25:13
Der NV41 wird sich wohl schlicht GeForce 6800 nennen ... insofern braucht ATi dort nix neues zu bringen. Der NV41 wird mehr eine interne Ablösung darstellen: Anstatt die GeForce 6800 mit NV40-Chips produziert wird, wird sie dann mit NV41-Chip produziert.

Sicher?

Ich persönlich gehe eher vonn einer leicht abgewandelten Nomenklatur aus, da ich nicht unbedingt davon ausgehe, daß nV für diesen reinen 12Piper bei 325MHz bleiben wird - der Unterschied noch oben wäre wohl zu groß!
Jedoch gehe ich auch nicht von GF6700 aus - dieser Name wird vielleicht eher für ein Refresh der 8Piper verwendet.

Hm. Wobei... vielleicht bietet sich durch die größere Aufsplittung des NV40 verglichen mit den vorherigen Generationen auch an, auf Updates a la 5600 -> 5700 zu verzichten.

Ich lehne mich nun aus dem Fenster:

1Quad -> GF 6400
2Quad -> GF 6600 klar
3Quad -> GF 6700
4Quad -> GF 6800 - mit den aktuellen Ausnahmen 6800 "pure" und LE

Was meint ihr?

LovesuckZ
2004-08-27, 09:51:25
http://www.hardware.fr/medias/photos_news/00/08/IMG0008958.gif

Evildeus (http://www.beyond3d.com/forum/viewtopic.php?p=356923#356923)

x-dragon
2004-08-27, 10:03:35
Na toll, jetzt müßte man nur noch wissen was da statt NDA eigentlich hingehört, um sie leistungsmäßig überhaupt einordnen zu können ...

Aber hab hier noch das da gefunden:
Nach neusten Informationen soll ATI demnächst den neuen R410 Chipsatz vorstellen, dabei wurde der 15.September als Datum genannt.
http://www.winfuture.de/news,16279.html

reunion
2004-08-27, 12:56:34
http://www.hardware.fr/medias/photos_news/00/08/IMG0008958.gif

Evildeus (http://www.beyond3d.com/forum/viewtopic.php?p=356923#356923)


Hm, ziemlich heftiger Preis für die X700XT?!

Xmas
2004-08-28, 03:34:07
Ich lehne mich nun aus dem Fenster:

1Quad -> GF 6400
2Quad -> GF 6600 klar
3Quad -> GF 6700
4Quad -> GF 6800 - mit den aktuellen Ausnahmen 6800 "pure" und LE

Was meint ihr?
*mitlehn*
NV40 -> 6800Ultra, 6800GT, 6800, 6800SE
NV41 -> 6800 (PCIE)
NV43 -> 6600, 6600GT
NV44 -> 6200, 6200GT
NV45 -> 6800Ultra, 6800GT (PCIE)
NV46 -> 6700 ?
NV48 -> 6900 ?

Leonidas
2004-08-28, 05:20:15
QuadroFX 3400 hat 12 Pipelines.

http://www.nvidia.com/object/IO_11761.html

QuadroFX 3400: 4,2 GTexel/s = 350MHz * 12
QuadroFX 4400: 6.4 GTexel/s = 400MHz * 16


Wahrscheinlich ist die 3400er ein NV41.

Leonidas
2004-08-28, 05:22:36
http://www.hardware.fr/medias/photos_news/00/08/IMG0008958.gif

Evildeus (http://www.beyond3d.com/forum/viewtopic.php?p=356923#356923)


Wenn ATi mit der X700XT wirklich 299 Dollar einnehmen will, dann brauchen sie allerdings ein 256 Bit Interface. Will es allerdings immer noch nicht so recht glauben. Aber warten wir es ab.

robbitop
2004-08-28, 08:16:07
Wahrscheinlich ist die 3400er ein NV41.

die NV41 hat doch noch nicht mal das TapeOut hinter sich, oder irre ich mich da?

MadManniMan
2004-08-28, 10:01:52
NV41 -> 6800 (PCIE)

*Hand vor die Stirn klatscht*

Plausibel! :)

Quasar
2004-08-28, 16:46:41
Wahrscheinlich ist die 3400er ein NV41.
Eher nicht, die 3400er QuadroFX gibt es schon 'eine Weile' und gerade bei den Margen könnte man es sich problemlos leisten, den Verschnitt der nV40 hier anzubieten.

Xmas
2004-08-28, 18:28:36
Wahrscheinlich ist die 3400er ein NV41.
Dass es eine PCIE-Karte ist, deutet zumindest darauf hin. Für NV41 ist sie aber IMO schon zu lange angekündigt.

stav0815
2004-08-28, 19:00:08
*mitlehn*
NV40 -> 6800Ultra, 6800GT, 6800, 6800SE
NV41 -> 6800 (PCIE)
NV43 -> 6600, 6600GT
NV44 -> 6200, 6200GT
NV45 -> 6800Ultra, 6800GT (PCIE)
NV46 -> 6700 ?
NV48 -> 6900 ?

NV46 -> 6600 Ultra ?

Quasar
2004-08-28, 19:10:29
Ultras haben eigentlich immer denselben Chip genutzt, wie ihre kleineren Verwandten mit der gleichen Hausnummer.

Tarkin
2004-08-30, 15:22:31
die ersten Bilder einer X700XT:

http://www.elsakorea.co.kr/review/2004/FALCOX%20X70XT/ELSA%20FALCOX%20X70XT.jpg

http://www.elsakorea.co.kr/review/2004/FALCOX%20X70XT/ELSA%20FALCOX%20X70XT_01.jpg

reunion
2004-08-30, 19:17:40
die ersten Bilder einer X700XT:

http://www.elsakorea.co.kr/review/2004/FALCOX%20X70XT/ELSA%20FALCOX%20X70XT.jpg

http://www.elsakorea.co.kr/review/2004/FALCOX%20X70XT/ELSA%20FALCOX%20X70XT_01.jpg

Kann irgendjemand erkennen wieviele Leitungen zum Speicher führen? :ugly:

zeckensack
2004-08-30, 19:23:54
Kann irgendjemand erkennen wieviele Leitungen zum Speicher führen? :ugly:Zwei. Und sie sind scheinbar für sehr hohe Ströme ausgelegt :ugly:

MadManniMan
2004-08-30, 19:31:58
Zwei. Und sie sind scheinbar für sehr hohe Ströme ausgelegt :ugly:

Das stinkt nach Kurzschluß :ugly2:

reunion
2004-08-30, 20:14:12
Zwei. Und sie sind scheinbar für sehr hohe Ströme ausgelegt :ugly:

HighVoltageMemory :uwoot:

Xmas
2004-08-31, 00:08:33
8 Pipelines, 6 VS, 128bit Speicherinterface, 256MiB GDDR3. Sagt der koreanische Text.

MadManniMan
2004-08-31, 00:57:40
Xmas, da du ja selbst den RV410 eher unterhalb des NV43 ansetzt - 6 VS bringen bei den anderen Roh-Specs wohl nicht so viel?

robbitop
2004-08-31, 08:26:01
hm naja in Spielen zumindist sollten 4VS des NV43 nicht limitieren (spätestens mit HQ Settings nicht).
Wobei es es bei z First Pass Engines schonmal an die Grenzen gehen kann.
Und dennoch sollten 4VS genug sein.

wuzetti
2004-08-31, 08:29:02
laut aths hat das ding nur 3 geometrie pipelines.....

Xmas
2004-08-31, 12:31:32
Xmas, da du ja selbst den RV410 eher unterhalb des NV43 ansetzt
Bei identischer "Umgebung" (gleicher Takt, gleicher Speicher), ja. Aber die 256MiB könnten in neueren Spielen ein entscheidender Vorteil sein. Mal sehen ob X700 Pro und XT so weit auseinander liegen wie 6600 und 6600GT.

6 VS bringen bei den anderen Roh-Specs wohl nicht so viel?
Ich schätze den Unterschied durch die VS eher als gering ein. Zu wenige Spiele zeigen bisher ein geometrielimitiertes Verhalten.

Quasar
2004-08-31, 12:38:54
robbitop, Xmas:

Welches wären denn Games oder Benchmarks, die _auch_ etwas mehr als nur Geometrie machen, die am ehesten eurer Meinung nach VS-limitiert sind?

3DMark03, GT2&3?

robbitop
2004-08-31, 15:06:57
Doom 3 Engine generell (Z First frisst enorm sowas), dann spiele die Vertex Animated Skins mehr nutzen werden und sicherlich wenn Offsetmapping mehr in Mode kommt.
Sprich: es könnte passieren, dass auf einmal mehr VS Performance nötig wird.

@wuzetti
ja du hast Recht. Es sind 3x VS MIMDs.

Quasar
2004-08-31, 15:23:04
Ich glaube nicht, daß Z-First generell VS-Leistung frisst - eher die Schattenvolumes bei D3 - deswegen auch meine Frage, ob die GT2&3 vom Murks da ebenfalls gültig sind.

Ich wage mich zu der Behauptung zu versteigen, dass selbst 2VS eine 6800nu nicht (ausserhalb der Messtoleranz) in D3, GT2 oder GT3 bremsen würden.

robbitop
2004-08-31, 16:58:59
Ich wage mich zu der Behauptung zu versteigen, dass selbst 2VS eine 6800nu nicht (ausserhalb der Messtoleranz) in D3, GT2 oder GT3 bremsen würden.

müsste man mal untersuchen.

Xmas
2004-08-31, 17:57:31
Warum sollte Offset Mapping mehr VS-Performance beanspruchen? Eher wird der PS hier noch mehr zum Flaschenhals.

GT2&3 sollten eigentlich eine deutlich höhere VS-Belastung als D3 mit sich bringen, weil sie die Shadow Volume Extrusion im VS machen und dafür auch ein Mehrfaches an Eckpunkten benötigen. Auch muss alles Skinning bei D3 auf der CPU erfolgen.

robbitop
2004-08-31, 18:04:20
hm findet die Tesslation nicht im VS statt?

Demirug
2004-08-31, 18:14:18
hm findet die Tesslation nicht im VS statt?

Nein, die Tesslation findet vor den VS statt. Bei WGF gibt es deswegen dann auch zwei VS. Einen vor und einen nach der Tesslation.

Quasar
2004-08-31, 19:38:38
Ich wage mich zu der Behauptung zu versteigen, dass selbst 2VS eine 6800nu nicht (ausserhalb der Messtoleranz) in [...]GT2 oder GT3 bremsen würden.
Ich glaube nunmehr, daß ich obiges zurücknehmen muss...

robbitop
2004-08-31, 19:46:45
Ich glaube nunmehr, daß ich obiges zurücknehmen muss...
Begründung?

Quasar
2004-08-31, 19:50:21
Weil es falsch ist.

robbitop
2004-08-31, 21:09:28
danke für deine ausführliche Begründung.

Quasar
2004-08-31, 21:42:48
Weil es erwiesenermaßen falsch ist....

(gleich gibt's .4SPAM)

robbitop
2004-08-31, 22:16:04
Details bitte ;)

StefanV
2004-08-31, 22:23:01
Könntet ihr mal bitte euer geflirte einstellen und mal auf den Punkt kommen, und einem kleinen, dicken, ausenstehenden erklären, worum es hier gerade geht? ;)

Würd mich auch interessieren, warum es wie ist...

Xmas
2004-09-01, 14:32:56
hm findet die Tesslation nicht im VS statt?
Kann es sein dass du Offset Mapping (Parallax Mapping, Virtual Displacement Mapping) und Displacement Mapping verwechselst? Nur bei letzterem braucht man Tessellation.

robbitop
2004-09-01, 14:36:43
ja klar, stimmt nun fällts mir wieder ein.
Thx Xmas.

reunion
2004-09-02, 12:43:32
Laut tweakpc.de soll die X700Xt über ein 256-bit Speicherinfance verfügen:

"Die Gerüchteküche um die Radeon X700 Grafikkarten brodelt, doch jetzt verdichten sich die Informationen. Erste Hersteller präsentieren bereits ihre X700 Karten, unter anderem ELSA.


Der RV410 Kern wird in 110 Nanometer angefertigt und soll mit 500 MHz getaktet werden. 6 Vertex Pipelines und 8 Pixel Pipelines soll der Shader 2.0b zur Verfügung haben. Als Speicher werden 256 MByte GDDR III RAM eingesetzt. Bei der Radeon X700 XT werden die 256 MByte RAM mit einen 256 Bit breiten Speicherinterface angebunden. Die Radeon X700 Pro hingegen wird nur ein 128 Bit breites Speicherinterface besitzen.

Die Radeon X700 XT soll 300 US-Dollar kosten, die Radeon X700 Pro nur 199 US-Dollar."

http://www.tweakpc.de/?news_id=6517

robbitop
2004-09-02, 12:49:25
dann muss die XT wohl gegen NV41 (preislich) antreten.
Die Pro ist dann für 200? verfügbar und sollte mit der GT konkurieren.
Für 300EUR die XT dann gegen den NV41 (12 Pipelines +256bit Taktrate und Fertigung unbekannt).
Und die X600 muss gegen die 6600NonGT antreten.

IVN
2004-09-02, 12:52:05
@reunion

256bit memory controler and 256 MB of extrem expensive GDDR3 is to much for the main stream market.x700XT can have the 1st or the 2nd,but not both.

Ailuros
2004-09-02, 12:55:32
Es gibt gerade eine Debatte ueber R410 und die vollen 6VS units auf diesem bei B3D. Grund dass ATI diese nicht nach unten skaliert, koennte tatsaechlich sein dass ATI auch gleichzeitig damit den profi-Markt damit bedienen will.

wuzetti
2004-09-02, 13:01:40
mir fällt als einziger logischer grund für die 6 VS derzeit auch nur die bedienung des profi marktes ein. angeblich ist ATI ja auch dran, den OGL treiber massiv zu überarbeiten, was sicher auch notwendig ist, um hier besser reussieren zu können.

allerdings mag ich noch immer nicht an das 256 bit memoryinterface glauben. :|

Wechselbalg
2004-09-02, 13:09:18
Bei dem Preis wo er eher gegen eine normale 6800er antritt, wäre es meiner Meinung nach durchaus möglich, auch wenn ich denke, dass Ati bei den niedrigeren Modellen fast nur über den Preis sich einen Vorteil verschaffen kann. Bei gleichem Takt würde ich die X700 Pro etwas schwächer einschätzen als die 6600 GT und die X600XT kann durch den Takt mMn nicht ganz 4 fehlende Pipelines ausgleichen.

6 VS für den Profi Markt hört sich aber durchaus glaubwürdig an, wenn ich sehe welche Preise Ati dort teilweise bietet. Der Test bei Tomshardware war zwar recht fehlerbehaftet, aber langsam scheint Ati da doch aufzuholen.

Ailuros
2004-09-02, 13:10:24
Ob man fuer OGL wirklich so viel VS-Leistung braucht, kann ich zwar nicht wissen, aber mir klingt das zu merkwuerdig. Das einzige an was ich denken kann, ist dass man Angst von den billigeren Modellen von 3DLabs haben koennte.

6 VS2.0+ Einheiten sind ja auch im relativen Sinn ziemlich billig.

Ailuros
2004-09-02, 13:12:16
Bei dem Preis wo er eher gegen eine normale 6800er antritt, wäre es meiner Meinung nach durchaus möglich, auch wenn ich denke, dass Ati bei den niedrigeren Modellen fast nur über den Preis sich einen Vorteil verschaffen kann. Bei gleichem Takt würde ich die X700 Pro etwas schwächer einschätzen als die 6600 GT und die X600XT kann durch den Takt mMn nicht ganz 4 fehlende Pipelines ausgleichen.



So lange wird die 6800 wohl NVIDIA auch nicht behalten. Dafuer soll ja die NV41 antreten.

IVN
2004-09-02, 13:14:04
@wuzetti

I can belive in an 256bit mem.con. with 350 or 400 MHz,or 128bit with 500 MHz.But there is no way it could be 256 bit + 500 MHz GDDR3.

MadManniMan
2004-09-02, 13:18:52
Ack.

Mehr Bandbreite denn ein X800 Pro wird ein X700 nicht bekommen ;)

Xmas
2004-09-02, 13:19:56
Laut tweakpc.de soll die X700Xt über ein 256-bit Speicherinfance verfügen:

"Die Gerüchteküche um die Radeon X700 Grafikkarten brodelt, doch jetzt verdichten sich die Informationen. Erste Hersteller präsentieren bereits ihre X700 Karten, unter anderem ELSA.


Der RV410 Kern wird in 110 Nanometer angefertigt und soll mit 500 MHz getaktet werden. 6 Vertex Pipelines und 8 Pixel Pipelines soll der Shader 2.0b zur Verfügung haben. Als Speicher werden 256 MByte GDDR III RAM eingesetzt. Bei der Radeon X700 XT werden die 256 MByte RAM mit einen 256 Bit breiten Speicherinterface angebunden. Die Radeon X700 Pro hingegen wird nur ein 128 Bit breites Speicherinterface besitzen.

Die Radeon X700 XT soll 300 US-Dollar kosten, die Radeon X700 Pro nur 199 US-Dollar."

http://www.tweakpc.de/?news_id=6517
Lustig, dass tweakpc gerade auf Elsa Korea verweist, denn gerade dort stand dass die X700XT ein 128bit Speicherinterface hat...

robbitop
2004-09-02, 13:23:51
@IVN
X700XT would be the price of NV41/6800NU (250-300$). Thats not Mainstream anymore. Its lower Enthudisast.
X700XT can have 256bit AND 500MHz GDDR3 für around 300$.
The X700pro would be mainstream w/ 128bit and 500MHz.

@AiL
gerade für CAD brauchst du viiiel Geometrieleistung

wuzetti
2004-09-02, 13:30:59
@ Xmas

genaus das macht mich ja bei der tweakpc meldung so stutzig.....

@ robbitop

vielleicht gehts sichs mit 256 bit und 500 mhz GDDR3 preismässig aus, dass man auf 300$ kommt. ich glaube aber nicht dran, dass die X700XT mehr bandbreite (auch wenns nicht viel ist) als die X800 pro spendiert bekommt.

für mich ist immer noch am wahrscheinlichsten, dass sie im moment am takt und an der kühlung "schrauben", um besser als 6600GT zu sein. ist aber reine spekulation!!

IVN
2004-09-02, 13:31:17
@robbitop

Can you imagine x700xt (with his 300€ price) to have more mem. badwidth than his 100€ more costly Brother (x800pro )??

Sunrise
2004-09-02, 20:23:13
@reunion
256bit memory controler and 256 MB of extrem expensive GDDR3 is to much for the main stream market.x700XT can have the 1st or the 2nd,but not both.
In the past, we had much bigger chips that didn´t prove cost-efficient enough to push them (including a 256bit mem-interface) to the mainstream. However, on 110nm, there is more room on the DIE to include a 256bit interface without eating into the margins that much. What i´m not entirely sure of, is the exact memory speed, but 475MHz-500MHz GDDR3 is definately in reach, even with samsung 2.0ns this should be no problem at all.
-
Wir müssen auch die Retail/OEM-AGP/PCI-E-Märkte getrennt betrachten.

ATI ist derzeit sehr gut im OEM-PCI-E-Markt positioniert, allerdings fehlt ihnen momentan noch ein Produkt bei $299 im Retail PCI-E-Bereich. Antreten wird ATI mit X700Pro und X700XT gegen die 6600/GT, welche derzeit vornehmlich nur als PCI-E-Versionen geplant sind. NV wird laut ihnen selbst "probably" eine AGP-Version nachliefern, was meiner Meinung nach aber aus diversen Gründen nur bedingt Sinn macht.

Zusätzlich wird es wohl bald die X800SE im Retail-AGP-Markt geben, und dies natürlich mit 256Bit-Interface (Sources aus Taiwan).

Quasar
2004-09-02, 20:25:47
In the past, we had much bigger chips that didn´t prove cost-efficient enough to push them (including a 256bit mem-interface) to the mainstream. However, on 110nm, there is more room on the DIE to include a 256bit interface without eating into the margins that much. What i´m not entirely sure of, is the exact memory speed, but 475MHz-500MHz GDDR3 is definately in reach, even with samsung 2.0ns this should be no problem at all.

I am not entirely sure whether this is a question of die space or rather a matter of PCB-Layout and it's subsequent costs for the board-partners.

Sunrise
2004-09-02, 20:39:31
I am not entirely sure whether this is a question of die space or rather a matter of PCB-Layout and it's subsequent costs for the board-partners.
Da hast du sicherlich Recht Quasar. Genau dies ist auch der Grund, warum ich mir hier nicht sicher bin. Falls ATI den Chip aber hoch genug taktet, sollten auch gewisse Reserven in Form von Bandbreite vorhanden sein, analog zum R360.

IVN
2004-09-02, 20:40:24
I am not entirely sure whether this is a question of die space or rather a matter of PCB-Layout and it's subsequent costs for the board-partners.


ATI's last chip generation has less transistors than nvidia's,so they can give them selves a go,and put an 256bit mem. con. in the chip. But 256MBs of very costly GDDR3 with 500MHz clock is inpossible at that price point (300€).

Quasar
2004-09-02, 20:44:27
As i said, i do not consider this to be a matter of chip (aka GPU) design or die space. It is a matter of forcing one's board-partners to produce a complex PCB layout at a minimal cost.
Do not forget, that we are not talking ultra-high-end here.

IVN
2004-09-02, 20:50:26
@Quasar

Count the transistors of an 6600 and an x700xt.
Even with an 256 bit M.C. x700xt wont have that much transistora like an 6600.



P.S. Read my sig. and write in German.

Sunrise
2004-09-02, 20:55:25
ATI's last chip generation has less transistors than nvidia's,so they can give them selves a go,and put an 256bit mem. con. in the chip. But 256MBs of very costly GDDR3 with 500MHz clock is inpossible at that price point (300€).
There currently is a rumour that the original plans for X700XT have changed, but since we have no clarification and no material to base this information on, i´m highly skeptical on 500MHz GDDR3, too. It just makes no sense in terms of chip:ram - ratio to push an 8-pipe part to 500MHz and leave the mem at only 350-400MHz, that would definately limit the abilities of the whole card -> but maybe that´s intentional, since the GT runs either @ 1024x with 4xAA or @ 1600 without, but i don´t think so.

Quasar
2004-09-02, 21:01:39
Na gut, wenn du unbedingt willst, kann ich auch deutsch schreiben.

Zum dritten Mal:
Daß der Chip es problemlos verkraften könnte will ich gar nicht bestreiten (das könnte der nV43 IMO allerdings auch). Es geht doch vielmehr darum, daß das PCB (also das Board, das die Grafikkarte später hat) durch ein 256Bit-Interface deutlich komplexer und teurer wird, so daß hier eventuell die Grafikkartenhersteller wie Powercolor, Asus, Inno, MSI usw. irgendwann keine Lust mehr haben, mit Margen nahe der Nullgrenze ihre Mid-Range Produkte, die im Retail schon einen großen Batzen ausmachen.

Ich weiß, zu Zeiten der FX5900 und R9800 war im 200EUR Bereich auch ein 256Bit-Interface drin, aber dort war die Situation anders - nVidia musste irgendwie im Mid-Range punkten, weil es im High-End leistungsmäßig nicht ging und so drückte man die 5900XT ins 200EUR-Segment - ATi musste nachziehen. Das war für die GPU-Hersteller noch eher verkraftbar, als für die Boardhersteller, obwohl man das PCB der 5900XT wirklich recht simpel gewurschtelt hatte.

Auf Dauer wäre dieses Preisgefüge wohl ziemlich ruinös geworden.

IVN
2004-09-02, 21:08:24
@Sunrise

It's not the speed that i'm worried about,it's the amount (256MBs).

IVN
2004-09-02, 21:15:19
Na gut, wenn du unbedingt willst, kann ich auch deutsch schreiben.

Zum dritten Mal:
Daß der Chip es problemlos verkraften könnte will ich gar nicht bestreiten (das könnte der nV43 IMO allerdings auch). Es geht doch vielmehr darum, daß das PCB (also das Board, das die Grafikkarte später hat) durch ein 256Bit-Interface deutlich komplexer und teurer wird, so daß hier eventuell die Grafikkartenhersteller wie Powercolor, Asus, Inno, MSI usw. irgendwann keine Lust mehr haben, mit Margen nahe der Nullgrenze ihre Mid-Range Produkte, die im Retail schon einen großen Batzen ausmachen.

Ich weiß, zu Zeiten der FX5900 und R9800 war im 200EUR Bereich auch ein 256Bit-Interface drin, aber dort war die Situation anders - nVidia musste irgendwie im Mid-Range punkten, weil es im High-End leistungsmäßig nicht ging und so drückte man die 5900XT ins 200EUR-Segment - ATi musste nachziehen. Das war für die GPU-Hersteller noch eher verkraftbar, als für die Boardhersteller, obwohl man das PCB der 5900XT wirklich recht simpel gewurschtelt hatte.

Auf Dauer wäre dieses Preisgefüge wohl ziemlich ruinös geworden.



Yes,i'm aware of that.PCB is the big problem with an 256bit mem.con.
Not only the number of layers,but also the number of lines on that PCB.
Money,money,money.

reunion
2004-09-03, 12:33:05
"THE X700 IS GETTING CLOSE to being announced and we have a few details that we would like to share with you. There will be three versions of these cards.
The flagship X700XT will rock with a 500MHz core and will use 1000MHz memory just like Nvidia's 6600GT. You know that you cannot judge the speed from the clock as both chips work differently, but we know that the ATI chip will score approximately 8000 in 3Dmark03 - just as much as Nvidia scores at this test.

The nasty fact is that according to current plans, the ATI card will cost $249, that's fifty bucks more than the Nvidia card with similar performance. I guess ATI will change its pricing because otherwise it will be price gutted against the 6600 GT.

The second version, the X700PRO will rock the boat with a 420MHz core and 864MHz memory and it doesn't compete against an Nvidia card. Nvidia only has 6600 standard and 6600GT while this card should sit in between. This card will score around 7000 in 3Dmark03. Pricewise, it's going to be difficult to position this card as according to current prices the X700 will cost $199.

The last X700 card will be known as the X700 Standard by distributors and will be clocked at 400MHz core and 600MHz memory. This card, we believe will fight against Nvidia's 6600 standard and SRP – the suggested retail price for this part is $149.

All cards are supposed to have eight pipelines and to be introduced just after 20th of September. µ"

http://www.theinquirer.net/?article=18233

wuzetti
2004-09-03, 12:38:02
sorry, aber manchmal macht mich fuad ziemlich müde....
und wenn er schon so genau bescheid weiss (z.b. 864 mhz speichertakt bei der pro), wieso erzählt er uns nicht etwas über das memoryinterface der X700XT?

deekey777
2004-09-03, 13:17:22
...wieso erzählt er uns nicht etwas über das memoryinterface der X700XT?


Vielleicht um die Überraschung nicht zu vermiesen?

wuzetti
2004-09-03, 13:32:41
ja, vielleicht.

kommt nur drauf an für wen (ATI od. NV fangemeinde) ;D

reunion
2004-09-03, 14:36:53
"Ich hab hier ne X7..... aber leider kann ich euch keine Daten verraten.... nur soviel: sie ist schnell, sehr schnell... wenn die Karte offiziell vorgestellt ist schreib ich mal was zu..."

...aus dem CB Forum

http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/september/atis_rv410_geruechte/

Quasar
2004-09-03, 15:31:17
Wo genau soll das dort stehen? Ich scheine meine Augen methylisiert zu haben...

deekey777
2004-09-03, 15:38:11
Wo genau soll das dort stehen? Ich scheine meine Augen methylisiert zu haben...


Hast wohl schnell gelöscht. ;D

Quasar
2004-09-03, 15:45:45
Dann würde dort "geändert von Carsten blablabla" stehen...

reunion
2004-09-03, 16:51:10
Wo genau soll das dort stehen? Ich scheine meine Augen methylisiert zu haben...

Hm, seltsam, ich habe das von einem gewissen Slider oder so ähnlich kopiert, war der 14. Beitrag, jetzt steht dort das: :|

"Die X700 XT soll, ebenso wie nVidias Gegenstück, die GeForce 6600 GT, in 3DMark03 etwa 8000 Punkte erreichen. Die X700 Pro wird kein direktes Konkurrenzprodukt auf nVidias Seite haben und soll etwa 7000 Punkte erreichen.

mit was für einem System soll die x700xt 8000 Punkte erreichen? ich hab da ein paar andere Infos..."

Quasar
2004-09-03, 17:00:49
Er scheint's grad editiert zu haben, als du's hier gequotet hast. Na, mal schauen, ob er wirklich was dazu schreiben wird,wenn die Karte offiziell ist.

Xmas
2004-09-03, 20:35:12
Nanu, das hatte ich eigentlich heut mittag schon geschrieben, nur wohl nicht losgeschickt:

Ich glaube nicht dass ATI der Mainstream-Karte 85% mehr Bandbreite pro Pipeline zur Verfügung stellt als der High-End-Karte X800XTPE.
Sprich, wenn die 500MHz Speichertakt stimmen, halte ich 256bit für ausgeschlossen. Und andersrum.

reunion
2004-09-03, 20:41:58
Nanu, das hatte ich eigentlich heut mittag schon geschrieben, nur wohl nicht losgeschickt:

Ich glaube nicht dass ATI der Mainstream-Karte 85% mehr Bandbreite pro Pipeline zur Verfügung stellt als der High-End-Karte X800XTPE.
Sprich, wenn die 500MHz Speichertakt stimmen, halte ich 256bit für ausgeschlossen. Und andersrum.

Naja, das man der High-End Karte nicht mehr Bandbreite zur verfügung stellt liegt wohl eher daran das zurzeit einfach kein höher getakteter Speicher erhältlich ist. Es ist ja inzwischen schon bekannt das die X800XT Bandbreitenlimitiert ist. Im Grunde hast du aber natürlich recht, 500mhz an einem 256-bit Speicherinfance erscheint doch arg überdimensioniert für einen 8piper. Vorallem da nichtmal die X800pro mit deutlich mehr Füllrate soviel Bandbreite bekommt.

Jesus
2004-09-04, 00:35:27
Nanu, das hatte ich eigentlich heut mittag schon geschrieben, nur wohl nicht losgeschickt:

Ich glaube nicht dass ATI der Mainstream-Karte 85% mehr Bandbreite pro Pipeline zur Verfügung stellt als der High-End-Karte X800XTPE.
Sprich, wenn die 500MHz Speichertakt stimmen, halte ich 256bit für ausgeschlossen. Und andersrum.

naja man kann auch nicht unbedingt die Masseinheit Bandbreite pro Pipeline für sinnvoll erachten ... ;) Das eine hat mit dem anderen recht wenig zu tun.

Xmas
2004-09-04, 01:41:10
naja man kann auch nicht unbedingt die Masseinheit Bandbreite pro Pipeline für sinnvoll erachten ... ;) Das eine hat mit dem anderen recht wenig zu tun.
Wieso? Jede Pipeline kann pro Takt eine gewisse Menge an Daten konsumieren und produzieren. Wenn ich 16 Pipelines mit 36GB/s annähernd auslasten kann, brauche ich für 8 Pipelines bei 20MHz niedrigerem Takt keine 32GB/s.

Ailuros
2004-09-04, 04:57:39
Wieso? Jede Pipeline kann pro Takt eine gewisse Menge an Daten konsumieren und produzieren. Wenn ich 16 Pipelines mit 36GB/s annähernd auslasten kann, brauche ich für 8 Pipelines bei 20MHz niedrigerem Takt keine 32GB/s.

Du weisst genau dass jedesmal wenn Daten durchsickern, dass viel zu viele Chancen bestehen dass jemand etwas falsch verstanden hat.

Hier kommt es darauf an fuer was der R410 genau benutzt wird, und was wer und wie genau verstanden hat.

Ein einfacher Blick auf ATI's existierende AGP Profi-Karten:

Fire GL Z1-128 (9500 VPU): 256bit, 1 quad / 4 VS (19.8GB/s - 1.3GPixels/s)
Fire GL X1-128 (9700 VPU): 256bit, 2 quads / 4 VS (19.8GB/s - 2.6GPixels/s)

Natuerlich hast Du recht mit dem was Du meinst, aber es koennte durchaus sein dass jemand irgend ein generelles Dokument gesehen hat und dadurch falsche Schlussvolgerungen gezogen hat. Eine 9500 Variante mit nur einem quad und einem 256bit bus ist ja auch nicht fuer den PC desktop Markt erschienen; wieso jetzt das Ganze fuer den Profi-Markt Sinn machen koennte kann ich mir zwar auch nicht unbedingt vorstellen, aber ich versuche nur zu spekulieren um was genau es sich hier handeln koennte.

Und natuerlich macht Dein originaler Kommentar auch Sinn fuer mich.

Leonidas
2004-09-04, 06:28:01
IMO kommt alles auf den exakten Preis an. Wenn es wirklich 299$ für die X700XT werden, sind 256 Bit durchaus nicht unwahrscheinlich. Denn dann positioniert ATi die Karten nicht gegen den NV41 (NV41 ist keine neue Karte, sondern wird die GeForce 6800 still beerben), sondern will schlicht einfach die Benchmarks gegen die 6600GT gewinnen und im Zuge dieses Ruhms dann X700 Pro Karten verkaufen ...

Gast
2004-09-04, 08:29:52
IMO kommt alles auf den exakten Preis an. Wenn es wirklich 299$ für die X700XT werden, sind 256 Bit durchaus nicht unwahrscheinlich. Denn dann positioniert ATi die Karten nicht gegen den NV41 (NV41 ist keine neue Karte, sondern wird die GeForce 6800 still beerben), sondern will schlicht einfach die Benchmarks gegen die 6600GT gewinnen und im Zuge dieses Ruhms dann X700 Pro Karten verkaufen ...

X600 = R9600
X700 = Nachfolger von R9600 sprich RV410

6600 wird bewußt von nvidia mit TSOP-Mem. auf 199 gedrückt!

Der Rest wird sich zeigen*ggg*

LovesuckZ
2004-09-04, 10:29:26
Erste Leistungsvergleiche zwischen X700pro, Geforce 6600 und GT:
http://www.bodnara.co.kr/bbs/?imode=view&D=6&num=51357&&category=33

http://file.bodnara.co.kr/webedit/news/1094269823-chart2copy.jpg

http://file.bodnara.co.kr/webedit/news/1094269825-chart4copy.jpg

Gast
2004-09-04, 11:04:21
Erste Leistungsvergleiche zwischen X700pro, Geforce 6600 und GT:
http://www.bodnara.co.kr/bbs/?imode=view&D=6&num=51357&&category=33

http://file.bodnara.co.kr/webedit/news/1094269823-chart2copy.jpg

http://file.bodnara.co.kr/webedit/news/1094269825-chart4copy.jpg

1. Gibt es noch keine X700 oder X700Pro für die Presse zum testen!

2. Warum??? Es ist noch gar nicht das FINAL- Design festgelegt, sprich 128Bit oder 256Bit

3. Wurden alles Spiele verwendet die:

a. Uralt sind, zb. Quake, UT2003
b. Keine PS.2.0 Shader verwenden, bis auf D3*ggg*
c. Bekanntlicherweise schon immer auf nv-HW schneller liefen

Dieser Benchmark ist eine REINE WERBEMASSNAHME, aber gut gemacht!

Die Dausis werden das natürlich glauben, aber ich gebe die Hoffnung nicht auf das die Puristen unter euch den "BIN-LADEN" gleich erkennen hier*g*

Ich hoffe, das Stammuser und Stammgäste künftig solche Benchmarks selber als nicht verwendbar erkennen und sowas direkt in die Spaßecke verschieben!

Nice Weekend noch!

LovesuckZ
2004-09-04, 11:13:39
1. Gibt es noch keine X700 oder X700Pro für die Presse zum testen!

Ja?
Das weißt du vorher?
Geforce 6600 Karten haben Tester schon seit mindesten letzte Woche.
Warum sollte das bei ATi nicht gwenauso sein?

2. Warum??? Es ist noch gar nicht das FINAL- Design festgelegt, sprich 128Bit oder 256Bit

Du weißt, dass dies eine Designfrage ist?
Du weißt auch, wenn diese Designfrage noch nicht beantwortet ist, dass die Karte noch kein Tape Out hatte?
Und das bedeutet, dass die Karte nicht vor Weihnachten auf dem Markt komme wuerde.

3. Wurden alles Spiele verwendet die:

a. Uralt sind, zb. Quake, UT2003
b. Keine PS.2.0 Shader verwenden, bis auf D3*ggg*
c. Bekanntlicherweise schon immer auf nv-HW schneller liefen

a) und?
b) und?
c) deswegen fuehrt auch eien X700pro in UT2003...

Dieser Benchmark ist eine REINE WERBEMASSNAHME, aber gut gemacht!

Stimmt, immer nieder mit dem NDA brecher^^
Aber gut verteidigt deinen Gott, ich hoffe er haelt sein verprechen mit den 5 Jungfrauen im roten Himmel :ugly:

reunion
2004-09-04, 12:06:02
Erste Leistungsvergleiche zwischen X700pro, Geforce 6600 und GT:
http://www.bodnara.co.kr/bbs/?imode=view&D=6&num=51357&&category=33

http://file.bodnara.co.kr/webedit/news/1094269823-chart2copy.jpg

http://file.bodnara.co.kr/webedit/news/1094269825-chart4copy.jpg

Hm, bis auf die schon seit jeher von NV dominierten Spiele Doom3 und Gunmetal liegt die X700PRO eigendlich nichtmal so schlecht und schlägt teilweise sogar die 6600GT. Jetzt stellt sich natürlich noch die Frage ob die X700PRO gegen die 6600GT oder die normale 6600er antritt.

Der vollständigkeit halber:

http://file.bodnara.co.kr/webedit/news/1094269822-chart1copy.jpg

deekey777
2004-09-04, 12:20:56
Die X700Pro scheint richtig Power zu haben - mal sehen, wie stark die X700XT sein wird.

LovesuckZ
2004-09-04, 12:40:46
Die X700Pro scheint richtig Power zu haben - mal sehen, wie stark die X700XT sein wird.

Rechne 15% dazu, ;)
Natuerlich kommt die erhoehte Speichermenge noch dazu, aber in nicht limitierenden Situationen sollte die GT und XT aehnlich schnell sein.
Also die selbe Situation wie bei der X800pro und 6800GT.
Gut fuer den Kunden und den Markt.

reunion
2004-09-04, 13:14:22
Rechne 15% dazu, ;)
Natuerlich kommt die erhoehte Speichermenge noch dazu, aber in nicht limitierenden Situationen sollte die GT und XT aehnlich schnell sein.
Also die selbe Situation wie bei der X800pro und 6800GT.
Gut fuer den Kunden und den Markt.

Hast du schon infos über die Taktrate der Karte oder wie kommst du auf 15%?
Außerdem soll ja die X700XT über ein 256-bit Speicherinface verfügen.

robbitop
2004-09-04, 13:45:19
@Leo

man kann nicht einfach zwei Karten aus zwei verschiedenen Preissegmenten gegeneinander direkt antreten lassen.
Das wäre als wenn man eine FX5950 gegen eine Radeon 9600 antreten lassen würde. Unsinnig.

Wenn die X700XT ein 256bit Interface besitzt und 256MB RAM, dann wird die Karte für das Sub 300$ Segment bestimmt sein und hat mit der 6600GT nichts mehr zu tun. Ihr Gegner ist dann die gleichteure 6800/NV41.

X700PRO sollte dann die 6600GT als Gegner haben.
Die X700 dann die 6600.

Zumindist wenn die Preisregionen ungefähr so stimmen, wie man es bisher vermutet.

LovesuckZ
2004-09-04, 14:22:03
Hast du schon infos über die Taktrate der Karte oder wie kommst du auf 15%?

Von 425 auf 500 und ca. 860 auf 1000 sind es ca. 15%.

Außerdem soll ja die X700XT über ein 256-bit Speicherinface verfügen.

Das glaube ich noch nicht.

robbitop
2004-09-04, 14:43:43
so wie ich das sehe, hat ATi offensichtlich 2 Chips mit 2 Quads der aktuellen Generation in der Fertigung bei TSMC.

M18
lowk 130nm
2 Quads
4x VS
256bit DDR

RV410
110nm FSG
2 Quads
6x VS
128bit DDR

Schon 2x 2Quad Chips draussen zu haben ist finanziell ein unnötiger Aufwand. An 3 glaube ich nicht.
Und das Interface ist nach dem Tapeout ja festgelegt. X700XT müsste schon ein M18 (umgelabelt) sein, um 256bit DDR zu bekommen.
Wenn es ein RV410 ist, sollte es bei 128bit bleiben.

RLZ
2004-09-04, 15:24:46
X700XT müsste schon ein M18 (umgelabelt) sein, um 256bit DDR zu bekommen.
Wenn es ein RV410 ist, sollte es bei 128bit bleiben.

Ein Desktop M18 wäre doch garnichtmal so schlecht.
Die Taktraten müssten sie inzwischen auch schaffen (die anderen gehen halt in Notebooks) und die 2 VS-Units würde wohl jeder gerne gegen das Speicherinterface tauschen :D
Vielleicht sind beim M18 ja auch nur 2 Stück deaktiviert *spekulier*
Mit 0.13 lowk wäre er zwar doch schon teuer, aber er liegt mit fast 300 € ja auch nicht mehr im Massenmarktbereich und wäre eher ein Zugpferd für die X700 Serie.
Ich glaub aber ehrlich gesagt auch nicht an das 256 Bit Interface.
Obwohl die Karte es gegen die 6800nu/NV41 brauchen würde...

robbitop
2004-09-04, 15:46:51
Die Taktraten sind nicht das Problem.
Nur macht sich weniger Geometrieleistung immer schlecht bei der PR.

Ich verstehe sowieso nicht, warum die Notebookversion 256bit und 130nm bekommt. Angeblich sollen von beiden IHVs neben 2 Quad auch 3 und 4Quad GPUs dieses Jahr für den mobilen Markt kommen.
IMO einfach nur Schwachsinn. Letztendlich ist das nicht mehr mobile. Es lebe der Schlepptop.

reunion
2004-09-04, 16:28:59
Schon 2x 2Quad Chips draussen zu haben ist finanziell ein unnötiger Aufwand. An 3 glaube ich nicht.
Und das Interface ist nach dem Tapeout ja festgelegt.

Aber es mussen deshalb ja nicht alle verdrahtungen angeschlossen werden. Soll bedeuten man kann ja auch die X700PRO troz 256-bit Speicherinface nur über 128-bit anbinden, soviele Transistoren dürfte das auch wieder nicht kosten.

reunion
2004-09-04, 16:33:09
Ich verstehe sowieso nicht, warum die Notebookversion 256bit und 130nm bekommt.


Vielleicht weil ein niedrig getaktetes 256-bit Speicherinface weniger Strom frisst als ein recht hoch getakteter Speicher mit 128 Anbindugen. Der gleiche grund drüfte auch für den 130nm lowk Prozess sprechen, ich habe jetzt schon desöfteren gelesen das diese Stromsparender als der 110nm Prozess ohne lowk sein soll.


Angeblich sollen von beiden IHVs neben 2 Quad auch 3 und 4Quad GPUs dieses Jahr für den mobilen Markt kommen.
IMO einfach nur Schwachsinn. Letztendlich ist das nicht mehr mobile. Es lebe der Schlepptop.

Nv auch?
Bis jetzt habe ich solche Gerüchte nur von ATi gehört.

Xmas
2004-09-04, 16:59:53
Nv auch?
Bis jetzt habe ich solche Gerüchte nur von ATi gehört.
Es wird einen NV41M geben. Wieviele Pipelines der hat, ist unschwer zu erraten ;)

MadManniMan
2004-09-04, 17:10:48
Naa, der M18 wird kein X700 XT - genausowenig verpaßt man dem Top-2Quader weniger VS-Leistung als der Pro aus der gleichen Reihe, wie mehr Bandbreite als der 400€ X800 Pro ... 256bit? No way!

LovesuckZ
2004-09-04, 17:13:34
Aber es mussen deshalb ja nicht alle verdrahtungen angeschlossen werden. Soll bedeuten man kann ja auch die X700PRO troz 256-bit Speicherinface nur über 128-bit anbinden, soviele Transistoren dürfte das auch wieder nicht kosten.

Wenn ich schon das breitere Speicherinterface mit produziere, wird es auch verwendet.
Sonst bezahlt man zweimal: Einmal fuer das Interface (mehr Transistoren) und dann fuer den teureren Speicher.

RLZ
2004-09-04, 18:09:35
Wenn ich schon das breitere Speicherinterface mit produziere, wird es auch verwendet.
Sonst bezahlt man zweimal: Einmal fuer das Interface (mehr Transistoren) und dann fuer den teureren Speicher.
Naja wäre ja nicht das erste Mal bei ATI.
Siehe 9500/9700.
Bei der Grösse des Chips ist der Tranisistoraufpreis wohl auch vernachlässigbar...

LovesuckZ
2004-09-04, 18:16:47
Naja wäre ja nicht das erste Mal bei ATI.
Siehe 9500/9700.


Die 9500 mit 128MB hatte eine 256Bit Speicherinterface.

RLZ
2004-09-04, 18:20:11
Die 9500 mit 128MB hatte eine 256Bit Speicherinterface.
Manche aber nicht alle.
Und die 9500pro schonmal garnicht.

Tut aber ja nichts zu Sache.
So ne Konstruktion werden sie wohl wegen der XT nicht machen.

Ailuros
2004-09-04, 18:25:12
Die 9500 mit 128MB hatte eine 256Bit Speicherinterface.

Ich kann mich im PC mainstream Markt nur an 128bit 9500 Modelle erinnern; genauer genommen 1 quad = 9500, 2 quads = 9500PRO. Dabei hatte die 9500PRO gleich Takt- und Speicherfrequenzen wie eine 9700nonPRO, mit dem Unterschied das die letztere ein 256bit Speicherinterface hatte. Oder mein Gedaechtnis betruegt mich mal wieder ganz uebel.

Der Profi-Markt war und ist eine ganz andere Geschichte.

***edit: weil eben die Preise im letzteren auch um einiges hoeher sind.

RLZ
2004-09-04, 18:29:56
Ich kann mich im PC mainstream Markt nur an 128bit 9500 Modelle erinnern; genauer genommen 1 quad = 9500, 2 quads = 9500PRO. Oder mein Gedaechtnis betruegt mal wieder ganz uebel.

Es gab Anfange 9500er mit 128MB die aufs 9700er Boardlayout setzten. Bei denen konnte man einfach per Softmod auf die 256 Bit kommen.

robbitop
2004-09-04, 18:31:54
Ich kann mich im PC mainstream Markt nur an 128bit 9500 Modelle erinnern; genauer genommen 1 quad = 9500, 2 quads = 9500PRO. Dabei hatte die 9500PRO gleich Takt- und Speicherfrequenzen wie eine 9700nonPRO, mit dem Unterschied das die letztere ein 256bit Speicherinterface hatte. Oder mein Gedaechtnis betruegt mich mal wieder ganz uebel.

Der Profi-Markt war und ist eine ganz andere Geschichte.

***edit: weil eben die Preise im letzteren auch um einiges hoeher sind.

Die 9500 im L Design hatte 256bit. Aber es fehlte an ROP Leistung um das für 4x/6x Sparse sinnvoll nutzen zu können.

@reunion
nunja man bräuchte 4 statt 2 64bit Interfaces. Sind sicher ein paar Mio Transistoren mehr aber gewiss nicht ernsthaft viel mehr. Besser als würde man 2 eigene Fertigungsstrassen nutzen. Wenn es nicht verdratet wird, spart man eine Menge Geld (Pins und Datenleitungen und PCB Lagen sind teuer).
Letztendlich ist das alles nur Kaffeesatzleserei.


Es gab Anfange 9500er mit 128MB die aufs 9700er Boardlayout setzten. Bei denen konnte man einfach per Softmod auf die 256 Bit kommen.

nein. Das Interface musste man nicht freischalten nur den 2 Quad.

deekey777
2004-09-04, 20:18:08
http://www.xbitlabs.com/news/video/display/20040904105510.html

Sollte die X800SE tatsächlich auf den Markt gelangen und die X700XT ein 256bit-Speicherinterface haben, dann gäbe es einen internen Konkurrenzkampf.

Gast
2004-09-04, 20:37:13
Ich schätze mal das die X800SE genauso wie die Geforce6800LE vor ihr auf den Retailmarkt kommen wird. Somit wäre dann eine der beiden Grakas flüssiger als Wasser. Hatte mir auch vorher nicht vorstellen können, dass die X700XT ein 256bit interface bekommt.

Ailuros
2004-09-05, 10:33:41
Es gab Anfange 9500er mit 128MB die aufs 9700er Boardlayout setzten. Bei denen konnte man einfach per Softmod auf die 256 Bit kommen.

Ich meinte offensichtlich die offiziellen Versionen und nicht was man via SW eventuell doch noch freischalten konnte. Vielleicht hilft es anders rum gefragt: gab es eine 9500 die bei default ohne Modifikationen auf 256bit setzten?

----------------------------------

Zur restlichen Komoedie: es gibt einen Unterschied zwischen NDA und IWLTHANDA :D

LovesuckZ
2004-09-05, 10:36:52
Vielleicht hilft es anders rum gefragt: gab es eine 9500 die bei default ohne Modifikationen auf 256bit setzten?


Ja, am Anfang hatte jede 128MB Karte ein 256bit Interface.
Erst nachdem ATi die Speicherumstellung von "L" auf "I" geaendert hat, war nur noch ein 128Bit Speicherinterface verfuegbar.

robbitop
2004-09-05, 10:38:10
Ich meinte offensichtlich die offiziellen Versionen und nicht was man via SW eventuell doch noch freischalten konnte. Vielleicht hilft es anders rum gefragt: gab es eine 9500 die bei default ohne Modifikationen auf 256bit setzten?



Die 9500 im L Design hatte 256bit. Aber es fehlte an ROP Leistung um das für 4x/6x Sparse sinnvoll nutzen zu können.


Das ist damals nur durch unwissende Presseleute so rübergekommen. Die 9500 im L Design hatte ohne jegliche Modifikation 256bit DDR.
Sowas konnte man NIE modifizieren ;)

Ailuros
2004-09-05, 10:42:53
Nun das ist mir tatsaechlich neu. Schau an was man alles dazulernt :)

wuzetti
2004-09-06, 08:43:00
http://www.xbitlabs.com/news/video/display/20040904105510.html

Sollte die X800SE tatsächlich auf den Markt gelangen und die X700XT ein 256bit-Speicherinterface haben, dann gäbe es einen internen Konkurrenzkampf.

meines wissens stimmt das so nicht. X800SE wird nur in der AGP version auf den retail markt gelangen und bei X700XT reden wir bis dato nur von PCI-E.

DrumDub
2004-09-06, 15:17:49
meines wissens stimmt das so nicht. X800SE wird nur in der AGP version auf den retail markt gelangen und bei X700XT reden wir bis dato nur von PCI-E.

für den retailmarkt mag das stimmen, nur verbaut dell momentan die x800ses als pci-e in ihren rechnern, weils die x800xts wohl nicht in aureichender stückzahl gibt. also werden die x800ses auch als pci-e verkauft... es wundert mich eh, dass es für nen kunden wie dell nicht genug x800xts gibt (aufpreis-option nur bei dem dimension xps)... und x700er wären für dell eh sinnvoller. da hat ati wohl gepennt...

Quasar
2004-09-06, 22:25:12
Details bitte ;)
Da der RivaTuner heute veröffentlicht worden ist:
Spiel' mal ein bissel mit den VS herum - selbst wenn du nur einen deaktivierst, geht die Leistung im 3DMark03 GT2&3 deutlich runter (andere Bottlenecks natürlich weitgehend ausschließen)...

:)

ShadowXX
2004-09-07, 09:59:40
für den retailmarkt mag das stimmen, nur verbaut dell momentan die x800ses als pci-e in ihren rechnern, weils die x800xts wohl nicht in aureichender stückzahl gibt. also werden die x800ses auch als pci-e verkauft... es wundert mich eh, dass es für nen kunden wie dell nicht genug x800xts gibt (aufpreis-option nur bei dem dimension xps)... und x700er wären für dell eh sinnvoller. da hat ati wohl gepennt...

Selbst bei den x800se scheint DELL Lieferprobleme zu haben...ein Kumpel von mir hat sich bei DELL einen PC mit eben dieser Karte bestellt und Dell kann seit 3 (!!!) Wochen nicht Liefern, weil Sie keine x800se haben....

wuzetti
2004-09-07, 10:13:41
am ende gibts ja überraschenderweise solche karten (Connect 3D X800XT AGP 500/1000)

http://www.overclockers.co.uk/acatalog/X800_XT.html

doch noch in grösseren mengen.....
und lieferbar auch noch innerhalb von 1-3 tagen. kann ich ja gar nicht glauben :D

robbitop
2004-09-07, 11:11:39
Da der RivaTuner heute veröffentlicht worden ist:
Spiel' mal ein bissel mit den VS herum - selbst wenn du nur einen deaktivierst, geht die Leistung im 3DMark03 GT2&3 deutlich runter (andere Bottlenecks natürlich weitgehend ausschließen)...

:)

ohne eine NV40 ist das etwas schwierig.
Wie kamst du denn an eine prerelease Version heran?

reunion
2004-09-14, 17:03:15
Radeon X700 series to launch on 21st

AS WE PREVIOUSLY revealed, ATI is finally going to launch its Geforce 6600 counter attack also known as Radeon X700 series. You can check our original part here.
On the 21st of September it will launch three cards of the flagship variety sexily known as X700XT clocked at 500/1000 MHz the one that can score 8000 3Dmark03. Nvidia 6600GT can score close to 8000 in the same test and use the same clock speeds. So it's tight in this test, but I have to remind you that ATI's card should be $49 more expensive.

The X700PRO will use its 420MHz core and weird clocked 864MHz memory speeds but won't have any Nvidia counter part to compete against. It will score 7000 3Dmark03 and we have every reason to believe that the ATI's flagship clock speeds will fire cannons against Nvidia, which has not revealed its Geforce 6600GT scores. Yet. Yes, we believe that X700XT is a card rushed out to run at 500/1000MHz because of great 6600GT scores.

The X700 non XT and non PRO will work at 400/600 MHz and will still end up much faster then Nvidia's Geforce 6600 non GT clocked to a modest 300/500 MHz. Modest? Nvidia? The X700 non XT and non PRO - let's call it Standard - will come with $149 SRP (suggested retail price) as much as the Nvidia 6600 standard card costs. The big difference is that Nvidia cards score 4300 in 3Dmark03 while the ATI card will score as much as the 6000 due to its much faster memory and clock.

I expect that Nvidia will suddenly announce better yields or something and change its mind all of a sudden about its 6600 - for example by using a faster core and memory clock, as it don’t stand any chance at all against the current X700 Standard card.

The mainstream PCI Express wars are heating up.

http://www.theinquirer.net/?article=18411

deekey777
2004-09-16, 11:41:16
http://www.theinq.com/?article=18474

ATI WILL DROP the price of the X700XT card to compete with Nvidia's $199 mark. The original price slated was $249.
You don’t have to be Einstein to learn that even 1000 marks faster in 3Dmark03 X700XT would have serious problems selling versus the slower but much cheaper Geforce 6600GT.

Now both Nvidia's and ATI's mainstream offerings will cost the same and it will be one hell of a fight.

The X700XT will remain a 128MB card only, while the X700PRO will come as a 256MB card, but clocked slower of course.

The launch date remains September 21st.


Fudo weiss alles. :biggrin:

deekey777
2004-09-17, 18:51:45
http://www.theinq.com/?article=18535

ATI DECIDED TO change its frequencies at pretty much the last moment leaving us and its partners amazed.
The good thing is that the performance numbers of 8000 3Dmarks will remain on target.

We believe that yields were not that good to get these chips running at 500 MHz, but there is a possible scenario that the chip itself will benefit from a higher memory clock due to its higher bandwidth.

Whatever happens, you will end up with a card that should be either tighter or faster than Nvidia's flagship 6600GT.

The launch date remains the 21st. µ



Seltsam...

Ailuros
2004-09-18, 04:02:34
Dieser unendliche Inquirer Quark wird immer mehr laecherlich. Wenn ich mir das Rennen zwischen 9800XT und 6600GT ansehe, dann sieht es mit einem R410 eher nach Gleichstand im Durchschnitt aus.

Den 8000 3dmark03 Quatsch hab ich auch nicht ganz verstanden, da die 6k6GT aehnliche Werte erreicht.

reunion
2004-09-19, 12:04:09
keine Ahnung ob das schon gepostet wurde:

Radeon X700pro/XT Benchs:

http://hkepc.com/hwdb/rv410-4.htm


Radeon X700XT:

http://hkepc.com/hwdb/rv410/xtcard.jpg

http://hkepc.com/hwdb/rv410/xtcore.jpg

So wies aussieht taktet die X700XT mit 475/1040, die X700pro mit 425/864 und die X700 mit 400/550, alle Chips besitzten ein 128-bit Speicherinfance. Und die X700XT kann offensichtlich ziemlich gut mit der 6600GT mithalten, und das troz weniger Füllrate, wo ist denn da die auch so tolle "pro-mhz" Leistung des NV40 geblieben?

Quasar
2004-09-19, 12:19:09
Nett - großes Die und "einfacher" Kühler sieht schonmal vielversprechend aus.

robbitop
2004-09-19, 13:14:39
man sollte Benches von quallifizierten Leuten abwarten...

diese Benches sind extrem unaussagekräftig

Quasar
2004-09-19, 13:18:54
Klar - der Murks03 geht an die X700 wegen ihrer vielen VS, der Murks01 weil ATi noch die Sinus/Cosinus-Optimierungen drinhaben könnte (?) und der AM3 an die GF, weil da auch ein wenig - err - optimiert wurde.

Aber hoffentlich bleiben sie so knapp zusammen - das wäre gut für die Preise!

robbitop
2004-09-19, 15:03:22
ATi hat keine sincos Optimierung, es war NVidia. Weil die VS der GeForces im Gegensatz zu den ATi VS sincos nicht in einem Takt bewälltigen können (irrelevant).

Quasar
2004-09-19, 15:40:19
ATi hat keine sincos Optimierung, es war NVidia. Weil die VS der GeForces im Gegensatz zu den ATi VS sincos nicht in einem Takt bewälltigen können (irrelevant).

Ich glaube nicht. ;)
Der VS der nV30 konnte das - ATi brauchte 8 Takte (hatte dafür aber sowohl sinus als auch cosinus, wofür dann nV wieder 2 Takte gebraucht hätte).

robbitop
2004-09-19, 16:50:44
umgekehrt - ganz sicher

Quasar
2004-09-19, 16:54:47
Umgekehrt was - Optimierungen oder Takte für SinCos?

-> http://www.3dcenter.org/artikel/2004/06-01.php
-> http://www.computerbase.de/artikel/hardware/grafikkarten/2004/ati_radeon_x800_pro_x800_xt/3/

http://pics.computerbase.de/artikel/333/60.jpg

edit:
Das ganze ist eine Neuerung für die X800-Serie (vermutlich auch für X700), die alten Dinger konnten das, wie gesagt nicht, und daher gibt's da Optimierungen..

robbitop
2004-09-19, 17:11:46
ATi kann schnelles sincos. NV nicht. Das war schlecht beim Naturetest, da man für die Schwingungen der Blätter die sinus funktion brauchte. NV brauchte 8 Takte. Also nahm man eine ähnliche aber dennoch andere Funktion (kostet weniger Takte) für die Blätter als Cheat. Den Unterschied sieht man nicht. Nur wenn man mal per Programm den Cheat rausnahm. In der Praxis ist die Funktion nicht sooo relevant. (kA ob die NV VS für sinus Fkt eine umständliche Taylorreihe rechnen).

Quasar
2004-09-19, 18:32:49
Lies' doch bitte mal wenigstens den Link zum 3DCenter-Artikel - wenn du mir schon nicht glaubst.

StefanV
2004-09-19, 18:36:51
umgekehrt - ganz sicher
ganz sicher nicht.

robbitop
2004-09-19, 18:47:55
achso du sprichst vom R4xx/RV4xx.

Ich meinte eigentlich die VS vom NV3x/R3xx.
Die VS vom NV2x/3x konnten SinCos nur sehr langsam (vermutlich keine eigene SFU Unit für diese Fkt sondern über eine Taylorreihe realisiert), das konnte die R2xx/R3xx deutlich schneller.

Ich kann mich noch sehr gut an das Replacement bei 3DM01 im Naturetest errinnern.

Quasar
2004-09-19, 18:53:59
achso du sprichst vom R4xx/RV4xx.

Ich meinte eigentlich die VS vom NV3x/R3xx.
Die VS vom NV2x/3x konnten SinCos nur sehr langsam (vermutlich keine eigene SFU Unit für diese Fkt sondern über eine Taylorreihe realisiert), das konnte die R2xx/R3xx deutlich schneller.

Ich kann mich noch sehr gut an das Replacement bei 3DM01 im Naturetest errinnern.

Nein, ich sprach vom nV3x und Rx3xx. :)

edit:

Die Sincos-Instruktion wurde im R420-Pixelshader verschnellert: Von acht Takten im 2_0-Profil zu einem Takt im 2_B-Profil. Das mag wie ein unbedeutender Tweak aussehen, jedoch leiten wir daraus einiges ab. Zunächst sieht ATI ein, dass man Funktionen lieber berechnen sollte als mit einem Texture Lookup zu arbeiten, weil die arithmetische Methode genauer ist. Nur sollte die Arithmetik auch schneller sein, und das ist jetzt endlich gewährleistet. Außerdem reagierte ATI hier wohl auf CineFX, welches von vornherein eine gegenüber 2_0 sehr schnelle Berechung bietet (soweit wir wissen, mit zwei Takten).

Daraus folgt dann wieder, dass R420 eben nicht nur ein zweifacher R360 mit einigen Bugfixes ist. ATI entwickelte die Pipelines dort weiter, wo sie sich den größten Nutzen versprachen. Bislang wurde Sincos über ein Makro realisiert, welches immerhin 8 Slots belegt (und die ersten Schritte der Taylor-Reihe ausführt). Der Verzicht auf das Shader Modell 3.0 ist bewusst gewählt. ATIs Hardware nutzt, genau wie Nvidia, "tiefe" Pipelines, mit denen sich Latenzen gut verstecken lassen. (so ist die "Durchlaufzeit" beim Sincos z. B. natürlich deutlich länger als ein Takt, aber man kann nach der "Anlaufphase" pro Takt eine solche Instruktion rechnen lassen).


Nachtrag: Die Verschnellerung der Sincos-Berechnung gilt nur für den Vertexshader. Im Pixelshader werden nach wie vor acht Takte benötigt. Der Vertexshader kann pro Takt entweder Sinus oder Cosinus berechnen.

robbitop
2004-09-19, 19:20:12
das Zitat sagt nicht viel über die SinCos Fkt beim VS im R3xx aus.
Die Taylorreihe gilt AFAIR nur für die SIMD Units.
Die MIMD VS konnten schon immer relativ schnelles SinCos. Vieleicht verkauft ATi das aber auch nur als Neuerung im R420 oder dort ist SinCos noch ein bisschen schneller.
NV2x/3x und vieleicht 4x realisieren es über eine T-R.

Quasar
2004-09-19, 19:21:11
das Zitat sagt nicht viel über die SinCos Fkt im R3xx aus.
Meinst du, ATi würde es als Neuerung anpreisen, wenn es die alten Chips schon konnten?
(ok, würden sie vermutlich versuchen...trotzdem.)

edit:
Nachtrag: Die Verschnellerung der Sincos-Berechnung gilt nur für den Vertexshader. Im Pixelshader werden nach wie vor acht Takte benötigt. Hm? ;)

robbitop
2004-09-19, 19:23:45
sie war bei ATi schon immer sehr schnell ...ich bin mir sicher dass es im VS nie eine T-R war bei ATi.

btw: hab den obigen Post editiert

Ailuros
2004-09-19, 19:28:58
So wies aussieht taktet die X700XT mit 475/1040, die X700pro mit 425/864 und die X700 mit 400/550, alle Chips besitzten ein 128-bit Speicherinfance.
Und die X700XT kann offensichtlich ziemlich gut mit der 6600GT mithalten, und das troz weniger Füllrate, wo ist denn da die auch so tolle "pro-mhz" Leistung des NV40 geblieben?

Dass die R410 mit der NV43 gut mithalten wird, war wohl eher schon um einige Zeit offensichtlich, bevor Inquirer seinen eigenen Mist etliche Male korrigierte. Mehr oder weniger wird der Durchschnitt auf Gleichstand tendieren.

Wo die bessere pro-MHz Leistung des NV40 geblieben ist? Genauso wo die pro-MHz Leistung der R3xx Linie steckengeblieben ist. Nichtsdestominder reden wir hier ueber NV43 und nicht NV40 und dann eher 2 quads/4 ROPs und nicht 4 quads/16 ROPs wie beim NV40.

Ailuros
2004-09-19, 19:33:59
das Zitat sagt nicht viel über die SinCos Fkt beim VS im R3xx aus.
Die Taylorreihe gilt AFAIR nur für die SIMD Units.
Die MIMD VS konnten schon immer relativ schnelles SinCos. Vieleicht verkauft ATi das aber auch nur als Neuerung im R420 oder dort ist SinCos noch ein bisschen schneller.
NV2x/3x und vieleicht 4x realisieren es über eine T-R.

Ich hoffe Du meinst MIMD nur fuer NV4x.

robbitop
2004-09-19, 19:56:24
NV3x hat ebenfalls MIMD VS Units.
R3xx/4xx kA.

Warten wir mal die ersten brauchbaren benches ab. In PS aufwändigen Szenen sollte NV43 vorn liegen und in First Z ebenfalls. Ansonsten Gleichstand klar.

Die ROPs limitieren (signifikant) wenn dann nur wenn man MSAA ohne AF betreibt.

Quasar
2004-09-19, 20:11:40
sie war bei ATi schon immer sehr schnell ...ich bin mir sicher dass es im VS nie eine T-R war bei ATi.

btw: hab den obigen Post editiert

Schön, daß du dir sicher bist - aber ausser Behauptungen sehe ich in diesem Thread keinen Anflug eines Beweises. Wie kommt's? Sonst diskutierst du auch meist "vernünftig" mit Belegen...


Nochmal zusammengefasst mein Standpunkt:
R200/nV2x: sincos über Umwege (ob nun Taylor-Reihe oder was - k.A und ist auch egal)

R300: sincos als VS-Makro mit 8 Takten

nV3x: sincos als VS-Makro mit 1 (resp.2) Takt(en)

Der Nature-Test (bzw. die Bewegung der Blätter), als DX8-Test, musste vorher natürlich über die Taylor-Reihe mit errechnet werden. Das wurde hüben wie drüben vereinfacht.

Der nV3x konnte das relativ flott per VS2.0 und so wurde diese Rechnung anstatt über Taylor-Reihen nun "nativ" errechnet*, beim R300 brauchte man vergleichsweise die vierfache Zeit und ließ aus diesem Grunde die "Vereinfachungen" drin.

Ich bin gern bereit, diese Meinung zu revidieren, aber nicht lediglich aufgrund von Behauptungen und "ich glaube" oder "ist sicher". :)



*auch wenn das ebenfalls "Cheating" im Sinne von VS1.1-Ersetzung durch VS2.0 wäre..

robbitop
2004-09-19, 20:23:59
ja du hast ja Recht, dass ich nichts in der Hand habe. Es gibt leider keine Quellen die das belegen. Ein paar Unterhaltungen mit Demi und XMas brachten mich zu diesem Standpunkt.

Vieleicht könnte einer der beiden das aufklären.

Sorry für mein ungestümes Auftreten. Ich lasse mich auch gern belehren, aber der gute aths hat auch nicht immer Recht (ist eine Sache die ich inzwischen begriffen habe ;)).

Ailuros
2004-09-20, 05:46:17
NV3x hat ebenfalls MIMD VS Units.
R3xx/4xx kA.

Lese ich zum ersten Mal. Womoeglich kommt es wohl eher darauf an was man genau mit MIMD meint.

robbitop
2004-09-20, 10:29:18
Multiple Instruction Multiple Data. :D

BTW: ein Grundlagenartikel SIMD/MIMD ist geplant (BlackBirdSR und meine Wenigkeit werden das nach 2 anderen Grundlagenartikeln aufgreifen)


---
(ich kann mich mit den VS Units auch irren..werde das mal genauer erfragen)

Ailuros
2004-09-20, 19:41:20
Multiple Instruction Multiple Data. :D

BTW: ein Grundlagenartikel SIMD/MIMD ist geplant (BlackBirdSR und meine Wenigkeit werden das nach 2 anderen Grundlagenartikeln aufgreifen)


---
(ich kann mich mit den VS Units auch irren..werde das mal genauer erfragen)

AFAIK hat nur NV4x MIMD (und natuerlich weiss ich fuer was das Ding steht).

robbitop
2004-09-20, 20:49:13
und natuerlich weiss ich fuer was das Ding steht

etwas Anderes hätte mich ehrlich gesagt auch gewundert.
Der Grundlagenartikel ist nur als Info gedacht. Für dich vermutlich alles schon bekannt.

Also sind die VS Units im NV3x SIMD basierend?

aths
2004-09-20, 22:16:32
Also sind die VS Units im NV3x SIMD basierend?Da müsste jemand mal die Performance beim Branching testen.

robbitop
2004-09-20, 23:07:13
könntest du ja mal machen ;)

Ailuros
2004-09-21, 04:27:00
Da müsste jemand mal die Performance beim Branching testen.

Wieso unbedingt branching? Wie sieht´s mit den Resultaten hier aus?

http://www.beyond3d.com/previews/nvidia/nv43/index.php?p=10#vs

Irrelevant zum Thema, wieviele instruction slots gibt der NV35 eigentlich an? Wenn mich mein Gedaechtnis nicht betruegt, sind es 544 bei NV40.

Ailuros
2004-09-22, 01:15:06
Dieser unendliche Inquirer Quark wird immer mehr laecherlich. Wenn ich mir das Rennen zwischen 9800XT und 6600GT ansehe, dann sieht es mit einem R410 eher nach Gleichstand im Durchschnitt aus.

Den 8000 3dmark03 Quatsch hab ich auch nicht ganz verstanden, da die 6k6GT aehnliche Werte erreicht.


*ahem*