PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller Speku-Thread R420 (war R420 12 Pipelines)


Seiten : 1 2 3 4 [5] 6 7 8 9 10 11 12

Gast
2004-04-11, 10:00:31
Original geschrieben von r@e
Ökonomisch ?
Eher nicht...

Ökonomischer dürfte es sein, pro funktionierendem Die zu bezahlen. Schlißlich wäre so ein 16-Pipe-Die nach ATI-Methode genauso teuer, wie ein 12-Piper oder auch ein 8-Piper.

Von dem aufwändigen PCB und dem Stromhunger eines 8-Pipers mal ganz abgesehen.

Razor

Wieso?

Man verkauft die 12-Pipe Chips als X800Pro und hebt die wenigen funktionierenden 16-Pipe Chips auf und released sie als X800XT einen Monat später. Man bekommt 2-3 Chips mit 8-16 funktionierenden Pipes auf einmal mit einem "Sweet Spot" bei 12 Pipes. Das ist schon sehr ökonomisch, da man gleichzeitig ja auch noch die Highspeed-Chips mit 16 Pipes als Marketing-Instrument erhält.

Wenn beim NV40 gilt "ganz oder gar nicht" und der Ausschuss gleich groß ist, na dann gute Nacht, egal ob Nvidia oder IBM den Ausschuss zahlt.

r@e
2004-04-11, 10:02:59
Ist eine Sache der Kalkulation...
Und wer sagt, dass der "Sweet-Spot" bei dem 12-Piper liegt ?
:???:

Razor

Ailuros
2004-04-11, 10:18:07
Mir persoenlich ist es wurscht wie es die IHVs anrichten und wo die sweet spots liegen.

Dass ATIs Methode mit dem abschalten von Blocks angeblich unrentabel sein soll hoere ich jetzt schon seit 1.5 Jahren. Da hiess es dass ATI sich nicht lange halten wird, dass sie keinen Gewinn sehen werden usw usw.

Sunrise
2004-04-11, 10:26:54
Original geschrieben von Ailuros
Mir persoenlich ist es wurscht wie es die IHVs anrichten und wo die sweet spots liegen.

Dass ATIs Methode mit dem abschalten von Blocks angeblich unrentabel sein soll hoere ich jetzt schon seit 1.5 Jahren. Da hiess es dass ATI sich nicht lange halten wird, dass sie keinen Gewinn sehen werden usw usw.
Wurde ja auch schon eingehend darüber diskutiert. Ich denke der Hauptgrund für diese Strategie ist vornehmlich "time to market" und weniger "maximum profit". Da ATI damit bisher ganz gut gefahren ist, und NV gerade jetzt mit aller Macht dagegen hält, werden sie damit wohl noch so einige Zeit fortfahren. In dieser Runde wird das Ganze wohl noch um eine Stufe aufgebohrt werden (wären auf dem aktuellen Kenntnissstand ja sogar min. 3 Chips).

r@e
2004-04-11, 10:39:54
Original geschrieben von Ailuros
Mir persoenlich ist es wurscht wie es die IHVs anrichten und wo die sweet spots liegen.

Dass ATIs Methode mit dem abschalten von Blocks angeblich unrentabel sein soll hoere ich jetzt schon seit 1.5 Jahren. Da hiess es dass ATI sich nicht lange halten wird, dass sie keinen Gewinn sehen werden usw usw. Merkwürdig nur, dass ATI erst dann Gewinn eingefahren hat, als die R9600 das Licht der Welt erblickte.
Aber klar, das eine wird nicht viel mit dem anderen zu tun gehabt haben.
:D

Razor

Winter[Raven]
2004-04-11, 10:57:45
@Ailuros

Ich vertrau mal Nvidia und Sage Spätestens Ende Mai in Deutschland!

Nvidia kann sich nicht leisten eien Paperlunch zu veranstalten.

Ailuros
2004-04-11, 11:04:39
Original geschrieben von r@e
Merkwürdig nur, dass ATI erst dann Gewinn eingefahren hat, als die R9600 das Licht der Welt erblickte.
Aber klar, das eine wird nicht viel mit dem anderen zu tun gehabt haben.
:D

Razor

Genau eben dass. Gewinn vom RV350 kann ja erst nach mehr als einem Quartal nach dessen Veroeffentlichung reinfliessen.

Ich hab zwar deren finanziellen Quatsch nicht eng verfolgt, aber wenn ich davon ausgehe dass der Gewinn bei ATI einsetzte als sie RV350 veroeffentlichten, dann kommt der Gewinn sicher aus der Zukunft in die Vergangenheit. :P

Ailuros
2004-04-11, 11:10:25
Original geschrieben von Winter[Raven]
@Ailuros

Ich vertrau mal Nvidia und Sage Spätestens Ende Mai in Deutschland!

Nvidia kann sich nicht leisten eien Paperlunch zu veranstalten.

Kann sein dass entweder Du oder razor recht hast; um das ging es mir auch gar nicht.

Schau her:

NVIDIA erhoffte Mitte 2003 im Februar vorstellen zu koennen; dann nach dem finalen tape-out hoffte man auf eine CeBIT Vorstellung und heute warten wir auf Mitte April. Dabei wurden keine Aenderungen am NV40 in der Zwischenzeit vorgenommen (siehe "alt/neu" rocky horror picture show).

Wieso jetzt angeblich ATI im letzten Moment die 4 extra pipes entschieden haben soll und daher spaeter damit antanzen soll ist mir fremd. ATI war schon seit sehr langer Zeit bekannt dass sie es nicht mehr schaffen vor NVIDIA vorzustellen und es hiess letztes Jahr Ende Fruehling/Anfang Sommer. Finale tape outs kamen bei denen genauso mit voller Konfiguration und nicht mit abgespeckten was immer, die man in letzter Minute doch noch freischaltet.

Gast
2004-04-11, 11:25:05
das mit dem gewinn naja sie haben wie es intel schon seit je her und amd auch seit kurzem auch macht gemacht und verkaufen chips die sonst in den müll kommen (soetwas ist gewin optimierung)ja und es dauert 1 jahr bis man das sehen kann. Es heist ja auch nicht umsonst gewinn im vergleich zum vorjahr.

Nun die 12 pipes dan 16 mag ich noch nicht dran glauben sonnst hätte nv beim nv 30 auch schwub die wubs 8 volle pipes gebracht.

ironMonkey
2004-04-11, 11:57:53
Es ist für ATI teurer pro DIE zu zahlen.



Gruß

aths
2004-04-11, 12:38:10
Original geschrieben von Winter[Raven]
Naja, Borsti sagt ja, bei ATI wird derzeit hastig am neuem Roadmap gearbeitet. Es kurzieren ja Gerüchte das Nvidia von Anfang an im klaren war, dass der R420 ein 16Piper werden sollte/wird und sich nicht von den 12x1 Gerüchten ablenken ließ. Man arbeitete mit allen Kräften daran den R420 im Falle von 16 Pipes auch in die Tasche stecken zukönnen.Man arbeitet höchstens daran, gerade so als "Sieger" aus dem Rennen rauszugehen.

Ob das gelingt, wird man sehen.

misterh
2004-04-11, 14:10:16
weiss nicht ob das schon bekannt ist

http://www.rage3d.de/img/Tabelle_X800.png


Die Radeon X800 SE ist doch keine absolute Softmodder
Grafikkarte, denn nicht nur die Pipelineanzahl wurde
halbiert, sondern auch das Speicherinterface von 256bit
auf 128bit. Auch verfügt die Karte im Gegensatz zu den
Radeon X800 Pro und X800 XT Karten nur über DDR1 statt
GDDR3 Speicher. Auch bei den Taktraten ist der Unterschied
zwischen X800 Pro und X800 SE groß. Die Radeon X800 SE
taktet nur mit 450MHz Chip- und 400MHz Speichertakt, wobei
die Radeon X800 Pro auf satte 500MHz Chip- und 500MHz
Speichertakt kommt.
Durch den Taktnachteil und das halbierte Speicherinterface
kommt die X800 SE nur auf eine Speicherbandbreite von
12,8GB im Gegensatz zu den 32GB einer X800 Pro, oder den
38,4GB einer X800 XT.
Dafür ist der Preis der X800SE mit 299$ deutlich geringer
als der der X800 Pro (399$) oder gar der X800 XT (499$).
Darüber hinaus wird die X800 SE 8 Pipelines, die X800 Pro
12 und die X800 XT 16 Pipelines haben. Wie bereits
berichtet, verwenden alle Karten AGP8x als Schnittstelle
und basieren auf dem R420 Chip mit ca. 160-180 Millionen
Transistoren und werden im 0.13µ low-k Verfahren
gefertigt.
Die theoretische Pixel Füllrate der Radeon X800 Pro würde
6000 MPix/s betragen, die der X800 XT gar 9600MPix/s, eine
Radeon 9800 XT verfügt dagegen lediglich über 3296 MPix/s.
Die neue Highendkarte schlechthin wird die X800 XT sein.
Mit ihren 9600MPix/s und der 38,4GB großen
Speicherbandbreite stellt das mit 600MHz Chip- und 600MHz
Speichertakt getaktete "Grafikmonster" alles bisherige in
den Schatten.
Später, ab dem 14. Juni wird dann die X880 XT released
werden. Dabei handelt es sich um die PCI-Express Variante
der Radeon X800 XT. An den Taktraten und technischen
Details ändert sich, bis auf die Schnittstelle und den
R423 Chip nichts.
Auch der Preis bleibt mit 499$ gleich.

[dzp]Viper
2004-04-11, 14:27:46
langsam verhärten sich ja die 600 mhz gpu und 600 mhz RAM für die x800xt :o

Wenn ATI das wirklich so hinbekommt, dann ist das wohl die extremste optimierung eines chips die man je gesehen hat X-D

Der April/Mai wird wirklich interessant :D

dildo4u
2004-04-11, 14:28:28
sehr geil erst hies es der r420 is doppelt so schnell wie ne 9700 und jetzt ist es schon doppelt so schnell wie eine 9800xt

WEGA
2004-04-11, 14:44:45
Original geschrieben von [dzp]Viper
langsam verhärten sich ja die 600 mhz gpu und 600 mhz RAM für die x800xt :o

Wenn ATI das wirklich so hinbekommt, dann ist das wohl die extremste optimierung eines chips die man je gesehen hat X-D

Der April/Mai wird wirklich interessant :D

richtig interessant wird was PCI-E bringen wird

Dafür ist der anvisierte Verkaufspreis von 299 Dollar (330 Euro) relativ gering is ein auszug aus der ATInews news

299$ sind aber keine 330€

LovesuckZ
2004-04-11, 14:48:07
Original geschrieben von [dzp]Viper
langsam verhärten sich ja die 600 mhz gpu und 600 mhz RAM für die x800xt :o


Hm, warte, ich werde schnell auch ne Seite machen und das Geruecht in die Welt setzen, dass Nvidia mit 600MHZ kommt...
Nunja, ich erwarte max. 500, da nur wenige RV360 Chips wirklich über die 600MHZ grenze kommen, bezweifel ich stark, dass ein r420XT diesen takt als default hat.

WEGA
2004-04-11, 14:48:14
Original geschrieben von dildo4u
sehr geil erst hies es der r420 is doppelt so schnell wie ne 9700 und jetzt ist es schon doppelt so schnell wie eine 9800xt

und die 10800XT is 3 mal so schnell wie ne 9800XT (theoretisch).

Demirug
2004-04-11, 14:58:40
Original geschrieben von [dzp]Viper
langsam verhärten sich ja die 600 mhz gpu und 600 mhz RAM für die x800xt :o

Wenn ATI das wirklich so hinbekommt, dann ist das wohl die extremste optimierung eines chips die man je gesehen hat X-D

Der April/Mai wird wirklich interessant :D

Bisher kann ich nur erkennen das einer diese Zahlen vom anderen abschreibt.

Gast
2004-04-11, 15:00:10
Original geschrieben von misterh
weiss nicht ob das schon bekannt ist

http://www.rage3d.de/img/Tabelle_X800.png

Was meint ihr wird dieser 100 Mhz Unterschied zwischen der Pro und der Xt groß sein , 5% ?

LovesuckZ
2004-04-11, 15:04:38
Original geschrieben von Gast
Was meint ihr wird dieser 100 Mhz Unterschied zwischen der Pro und der Xt groß sein , 5% ?

Du meinst neben dem um 20% erhöhten Coretakt und den zusaetzlichen 4 Pipelines? Da kommst du schon auf einen Unterschied von fast 50%...
Tipp: Geh an die Sache ein klein wenig pessimistischer ran.

[dzp]Viper
2004-04-11, 15:07:30
Original geschrieben von Demirug
Bisher kann ich nur erkennen das einer diese Zahlen vom anderen abschreibt.

ja kann natürlich auch sein :D

Aber ich sagte ja nicht, dass es so ist.. Ich gehe persönlich auch eher von 500-550 mhz für die XT version aus... mal gucken :)

Super Grobi
2004-04-11, 15:10:53
Theoretisch sollte ja dann die Pro Variante den selben Takt wie die XT vertagen, oder? Zumindestens die GPU.

SG

Gast
2004-04-11, 15:11:46
Original geschrieben von LovesuckZ
Du meinst neben dem um 20% erhöhten Coretakt und den zusaetzlichen 4 Pipelines? Da kommst du schon auf einen Unterschied von fast 50%...
Tipp: Geh an die Sache ein klein wenig pessimistischer ran.

50% schneller O.o glaub ich nicht,in hohen Auflösungen ist sie vielleicht 20 % schneller.

LovesuckZ
2004-04-11, 15:16:01
Original geschrieben von Gast
50% schneller O.o glaub ich nicht,in hohen Auflösungen ist sie vielleicht 20 % schneller.

Du dürfst die Karten natuerlich nicht in Spielen wie Q3 oder UT1 vergleichen. Die neuen karten werden erst richtig gefördert, wenn viele PS2.0 oder höher zum Einsatz kommen, abgesehen vom AA und AF. Wobei hier wieder die bandbreite limitieren werde.
Und DX9 Anwendungen koennte sich die XT version nach diesen, für meinen Geschmack unsinnigen Specs, bis zu ca. 40 - 50% vor die normale Version setzen. Ein bissl viel, nicht?

LovesuckZ
2004-04-11, 15:18:22
Original geschrieben von Super Grobi
Theoretisch sollte ja dann die Pro Variante den selben Takt wie die XT vertagen, oder? Zumindestens die GPU.
SG

Es kommt drauf an, wie man die Sache betrachtet: Wenn beide 12 Pipelines hätten, dann nicht. Da die XT version mit anscheinend mit 16 kommt, dann ja. Deswegen ist es unsinnig, die XT neben den vier zusaetzlichen pipes auch noch einen 20% hoeherem Coretakt zu verpassen. Da stellst sich ATi wegem dem Preis/Leistungsverhältnis beider Karte selbst ein Bein -> 20% Auspreis: 50% Mehrleistung ...

WEGA
2004-04-11, 15:24:24
Original geschrieben von LovesuckZ
Es kommt drauf an, wie man die Sache betrachtet: Wenn beide 12 Pipelines hätten, dann nicht. Da die XT version mit anscheinend mit 16 kommt, dann ja. Deswegen ist es unsinnig, die XT neben den vier zusaetzlichen pipes auch noch einen 20% hoeherem Coretakt zu verpassen. Da stellst sich ATi wegem dem Preis/Leistungsverhältnis beider Karte selbst ein Bein -> 20% Auspreis: 50% Mehrleistung ...

is marketingstrategie

Börk
2004-04-11, 15:40:45
Original geschrieben von LovesuckZ
Es kommt drauf an, wie man die Sache betrachtet: Wenn beide 12 Pipelines hätten, dann nicht. Da die XT version mit anscheinend mit 16 kommt, dann ja. Deswegen ist es unsinnig, die XT neben den vier zusaetzlichen pipes auch noch einen 20% hoeherem Coretakt zu verpassen. Da stellst sich ATi wegem dem Preis/Leistungsverhältnis beider Karte selbst ein Bein -> 20% Auspreis: 50% Mehrleistung ...
Auf keinen Fall 50% Mehrleistung, weil ganz einfahc die Bandbreite limitiert.
Die 12 Pipe Version würde in dieser Form in aktuellen Spielen gar nicht viel langsamer sein. In zukünftigen Games mit mehr Shader Einsatz könnte Unterschied allerdings etwas größer werden...

Godmode
2004-04-11, 16:04:35
http://www.computerbase.de/news/software/spiele/2004/april/halflife_2_tuer/

Wenn das stimmen würde, was ich zwar fast nicht glauben kann, dann wär das sicher ne tolle Sache für den R420 Chip.

In der PCGH haben sie geschrieben das Nvidia Probleme in Deutschland bekommen könnte, wenn sie wirklich D3 mit dem NV40 bundeln würden wegen Indizierung.

Besteht die Gefahr, dass HL2 auch indiziert wird?

Und kann man da die Graka erst ab 18 kaufen?;D :bonk:

Demirug
2004-04-11, 16:10:48
Original geschrieben von misterh
weiss nicht ob das schon bekannt ist

http://www.rage3d.de/img/Tabelle_X800.png

An dieser Tabelle wundern mich zwei Sachen.

1. Wie kann ein gleicher Chip eine unterschiedliche Anzahl von Transistoren haben. OK hier bin ich bereit einzuräumen das man nur die aktiven zählt.

2. Nur 10M Transistoren für 4 zusätzliche Pixel/takt erscheinen mir ehrlich gesagt verdammt wenig.

robbitop
2004-04-11, 16:44:35
die Tabelle kann man zu Recht (imo) skeptisch betrachten..

WEGA
2004-04-11, 16:48:28
Original geschrieben von burk23
Auf keinen Fall 50% Mehrleistung, weil ganz einfahc die Bandbreite limitiert.
Die 12 Pipe Version würde in dieser Form in aktuellen Spielen gar nicht viel langsamer sein. In zukünftigen Games mit mehr Shader Einsatz könnte Unterschied allerdings etwas größer werden...

genau das hat LovesuckZ gasagt

WEGA
2004-04-11, 16:52:16
Original geschrieben von bans3i
http://www.computerbase.de/news/software/spiele/2004/april/halflife_2_tuer/

Wenn das stimmen würde, was ich zwar fast nicht glauben kann, dann wär das sicher ne tolle Sache für den R420 Chip.

In der PCGH haben sie geschrieben das Nvidia Probleme in Deutschland bekommen könnte, wenn sie wirklich D3 mit dem NV40 bundeln würden wegen Indizierung.

Besteht die Gefahr, dass HL2 auch indiziert wird?

Und kann man da die Graka erst ab 18 kaufen?;D :bonk:

deutshcland wird warscheinlcih von allem ausgeschlossen. also bei uns kein bündel. deutschland bekommt wie immer ne sonderbehandlung.

Gast
2004-04-11, 16:53:59
was ich net ganz verstehe ist, dass die SE und die Pro so niedrige taktraten haben.

die müssten sich doch, weil die pipes nicht verfügbar sind doch recht gut takten lassen, oder?

LovesuckZ
2004-04-11, 16:58:24
Original geschrieben von Gast
was ich net ganz verstehe ist, dass die SE und die Pro so niedrige taktraten haben.
die müssten sich doch, weil die pipes nicht verfügbar sind doch recht gut takten lassen, oder?

Eigentlich schon. Geringere Waermeentwicklung, höhrerer Takt. Warum sollte also der Chip mit dem meisten Pipelines und der hoeheren Waermeentwicklung, sich am hoechsten takten lassen...

ironMonkey
2004-04-11, 17:20:24
Vieleicht hats auch einer verdreht und die Pro taktet mit 600mhz und die XT mit 500mhz, kann ja gut sein.

Wobei ATI vieleicht eine absolute high end Karte haben will wo man selbst mit OC'en der anderen Versionen nicht richtig rankommen kann, wenn hat den schon die 9800XT Intressiert???????Die liegt wie Blei inm den Regalen.



Gruß

thop
2004-04-11, 17:30:11
Also die X800Pro gefällt mir, auch vom Preis. Jetzt muss man nur die Leistung abwarten, und die Kühlung.

MarioK
2004-04-11, 18:42:26
Original geschrieben von Demirug
An dieser Tabelle wundern mich zwei Sachen.

1. Wie kann ein gleicher Chip eine unterschiedliche Anzahl von Transistoren haben. OK hier bin ich bereit einzuräumen das man nur die aktiven zählt.

2. Nur 10M Transistoren für 4 zusätzliche Pixel/takt erscheinen mir ehrlich gesagt verdammt wenig.

im orginal tabele steht 160-180 für alle chips ...

reunion
2004-04-11, 20:07:23
Original geschrieben von LovesuckZ
Eigentlich schon. Geringere Waermeentwicklung, höhrerer Takt. Warum sollte also der Chip mit dem meisten Pipelines und der hoeheren Waermeentwicklung, sich am hoechsten takten lassen...

Weil ATI beim X800XT nur die besten Chips auswählt die eben auch diese "600mhz" schaffen und bei der SE Version soll möglichst jeder "kaputte" Chip reinkommen, auch die die sich nicht sonderlich hoch takten lassen . War doch damals mit der 9500 auch nicht anders, die lief auch troz vier deaktivierter Pipes nur mit 275mhz während die 9700pro troz acht pipes mit 325mhz lief...

LovesuckZ
2004-04-11, 20:20:52
Original geschrieben von reunion
Weil ATI beim X800XT nur die besten Chips auswählt die eben auch diese "600mhz" schaffen

ATi sortiert nicht nach dem Chiptakt, sondern nach den kaputten Bereichen. Ein Chip, der bei 16 Pipes die 600MHz schafft, wird dies auch bei 12 tun, wahrscheinlich ist sogar, dass noch Raum nach oben ist. Sollte also das erklärte Ziel sein 16 Pipes mit 600MHz zu erreichen, gibt es entweder noch eine Pro variante mit 16 und einen geringeren Chiptakt oder die normale Version wird auch mit 600MHz kommen.

War doch damals mit der 9500 auch nicht anders, die lief auch troz vier deaktivierter Pipes nur mit 275mhz während die 9700pro troz acht pipes mit 325mhz lief...

Der Durchschnitt ließ weit über den takten, was die ganzen r300 Cores geschafft haben.
Es macht daher keinen Sinn, nur die XT version mit 600MHz zu bringen. Warum sollte man also diese Chips im Takt senken?

/edit: Sollte ATi nach deinem beispiel vorgehen, sollten sich die SE und normalen Karten bis auf fast 600MHz takten lassen...

CrazyIvan
2004-04-11, 20:25:25
Nicht zu vergessen, dass auch deaktivierte Pipelines Wärme abgeben. Ist genau so wie bei CPUs, bei denen man den Cache halbiert.

Daher kann ein SE oder Pro Chip gar nicht besser taktbar sein als ein XT. Hat die gleiche Verlustleistung, wurde aber bei der Selektion geringer spezifiziert...

LovesuckZ
2004-04-11, 20:31:11
Original geschrieben von CrazyIvan
Nicht zu vergessen, dass auch deaktivierte Pipelines Wärme abgeben. Ist genau so wie bei CPUs, bei denen man den Cache halbiert.
Daher kann ein SE oder Pro Chip gar nicht besser taktbar sein als ein XT. Hat die gleiche Verlustleistung, wurde aber bei der Selektion geringer spezifiziert...

Sie ziehen zwar Strom, aber verrichten kaum arbeit, wenn sogar keine. Dadurch entsteht keine Wärme, die abgegeben werden muss -> Chip ist kühler. Dadurch lässt er sich weiter takten.
Das ganze kann man sehr schoen an den 9500 Karten sehen, die ohne Modifikation fast immer 370-400MHZ schafften. Vom defaulttakt 270 ausgehend...
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=70735&highlight=ATi+%DCbertaktung

Demirug
2004-04-11, 20:51:25
Mal eine ganz dumme Frage. Für wie blöd haltet ihr ATI eigentlich?

Schnellere Speicher als 600MHz scheint im Moment nicht zu bekommen zu sein und es sieht auch nicht danach aus als würde sich daran in den nächsten Wochen etwas ändern.

Ergo ist mehr als etwas über 38GB/s nicht drin. Dabei ist nun aber noch nicht mal der Verlust durch Latenzen und Verschnitt abgezogen. Damit will ATI einen 16Pixel/takt Chip mit 600MHz glücklich machen? Alleine die 16 TMUs fressen ja schon 38GB/s.

Selbst die vorrausgesagte 400/550 Kombination von nVidia bekommt schon Bandbreiten problem. Dem Chip stehen bei dieser Taktung maximal 704 Bit pro Takt zur Verfügung (512*1,375). Die TMUs werden davon 512 verheitzen können. Bleiben noch 192 Bit für den Rest. Wenn man das jetzt nur für den Framebuffer benutzt (Z-Read+C-Write+Z-Write) sollte man von mindestens 80 Bit pro Pixel ausgehen. Pro Takt könnten also 2,4 Pixel über den Framebuffer laufen. Oder anders ausgedrückt. Jeder Shadingvorgang der weniger als 7 Takte braucht wird mit der Bandbreite zu kämpfen haben. Den Bandbreitenbedarf für den Vertexshader habe ich jetzt nicht berücksichtigt genauso wenig die Bandbreite für Early-Z. Das einzige was noch helfen kann ist eine hohe Hitrate beim texturcache aber so gross sind die in der Regel ja auch nicht.

CrazyIvan
2004-04-11, 21:47:48
Original geschrieben von Demirug
Mal eine ganz dumme Frage. Für wie blöd haltet ihr ATI eigentlich?

Schnellere Speicher als 600MHz scheint im Moment nicht zu bekommen zu sein und es sieht auch nicht danach aus als würde sich daran in den nächsten Wochen etwas ändern.

Ergo ist mehr als etwas über 38GB/s nicht drin. Dabei ist nun aber noch nicht mal der Verlust durch Latenzen und Verschnitt abgezogen. Damit will ATI einen 16Pixel/takt Chip mit 600MHz glücklich machen? Alleine die 16 TMUs fressen ja schon 38GB/s.

Selbst die vorrausgesagte 400/550 Kombination von nVidia bekommt schon Bandbreiten problem. Dem Chip stehen bei dieser Taktung maximal 704 Bit pro Takt zur Verfügung (512*1,375). Die TMUs werden davon 512 verheitzen können. Bleiben noch 192 Bit für den Rest. Wenn man das jetzt nur für den Framebuffer benutzt (Z-Read+C-Write+Z-Write) sollte man von mindestens 80 Bit pro Pixel ausgehen. Pro Takt könnten also 2,4 Pixel über den Framebuffer laufen. Oder anders ausgedrückt. Jeder Shadingvorgang der weniger als 7 Takte braucht wird mit der Bandbreite zu kämpfen haben. Den Bandbreitenbedarf für den Vertexshader habe ich jetzt nicht berücksichtigt genauso wenig die Bandbreite für Early-Z. Das einzige was noch helfen kann ist eine hohe Hitrate beim texturcache aber so gross sind die in der Regel ja auch nicht.

Mal ne ganz dumme Frage zurück.
Wo werden eigentlich komprimierte Texturen dekomprimiert? Werden die "im Chip" dekomprimiert oder liegen sie schon unkomprimiert im GraKa Speicher (kann ich mir eher net vorstellen - wo läge da der Sinn)?
Was die Bandbreite angeht, hast Du wohl recht. Aber AFAIR sind doch die meisten High End Chips zu Beginn bandbreitenlimitiert gewesen - oder täuscht mich da meine Erinnerung.

StefanV
2004-04-11, 21:52:51
Original geschrieben von CrazyIvan
Mal ne ganz dumme Frage zurück.
Wo werden eigentlich komprimierte Texturen dekomprimiert? Werden die "im Chip" dekomprimiert oder liegen sie schon unkomprimiert im GraKa Speicher (kann ich mir eher net vorstellen - wo läge da der Sinn)?
Was die Bandbreite angeht, hast Du wohl recht. Aber AFAIR sind doch die meisten High End Chips zu Beginn bandbreitenlimitiert gewesen - oder täuscht mich da meine Erinnerung.

Werden im Chip dekomprimiert.

Demirug
2004-04-11, 22:05:40
Original geschrieben von CrazyIvan
Mal ne ganz dumme Frage zurück.
Wo werden eigentlich komprimierte Texturen dekomprimiert? Werden die "im Chip" dekomprimiert oder liegen sie schon unkomprimiert im GraKa Speicher (kann ich mir eher net vorstellen - wo läge da der Sinn)?
Was die Bandbreite angeht, hast Du wohl recht. Aber AFAIR sind doch die meisten High End Chips zu Beginn bandbreitenlimitiert gewesen - oder täuscht mich da meine Erinnerung.

Die werden natürlich erst im Chip dekomprimiert. Aber wer spielt bei einer Highend Karte schon mit komprimierten Texturen?

Bandbreiten limiterungen sind nicht ungewöhnlich aber das was hier vorhergesagt wird wäre eine absolute Steigerung. 500/600 könnte ich mir unter dem Gesichtspunkt noch gefallen lassen aber 600/600 ist einfach nicht durchdacht. Das einzige was man noch vermuten könnte ist das alle auf schnelleren Speicher gabut haben.

Exxtreme
2004-04-11, 22:08:17
Original geschrieben von Demirug
Das einzige was man noch vermuten könnte ist das alle auf schnelleren Speicher gabut haben.
Hmmm, eine verlustfreie Kompression könnte das Problem auch stark entschärfen. Aber ich glaube nicht, daß sowas eingebaut wurde. Andererseits war ATi schon immer ziemlich kreativ was Einsparen von Bandbreite angeht.

Demirug
2004-04-11, 22:11:31
Original geschrieben von Exxtreme
Hmmm, eine verlustfreie Kompression könnte das Problem auch stark entschärfen. Aber ich glaube nicht, daß sowas eingebaut wurde. Andererseits war ATi schon immer ziemlich kreativ was Einsparen von Bandbreite angeht.

Ja, aber woher willst du die Transitoren dafür nehmen? ATI ist auch schon immer sehr kreativ was das Einsparen von Transitoren angeht.

Demirug
2004-04-11, 23:58:49
Sind eigentlich schon irgendwo Zahlen aufgetaucht wie viel Watt diese Monsterchips benötigen sollen?

(del676)
2004-04-12, 00:29:25
angeblich 150-160 watt für den nv40

betasilie
2004-04-12, 00:37:13
Original geschrieben von Ulukay
angeblich 150-160 watt für den nv40
Alleinje für die GPU? :kratz: Wieviel soll dann ein ganze Karte deiner Meinung nach verbraten?

Winter[Raven]
2004-04-12, 00:40:30
Original geschrieben von betareverse
Alleinje für die GPU? :kratz: Wieviel soll dann ein ganze Karte deiner Meinung nach verbraten?

Es war von Ulukay im Bezug aud die gesammte Karte gemeint.

Demirug
2004-04-12, 00:44:01
Ich meinte eigentlich für den R420.

aths
2004-04-12, 01:13:04
Original geschrieben von Demirug
Die werden natürlich erst im Chip dekomprimiert. Aber wer spielt bei einer Highend Karte schon mit komprimierten Texturen? Hängt davon ab, wie sehr es auf die Qualität schlägt.

DrumDub
2004-04-12, 01:50:50
Original geschrieben von aths
Hängt davon ab, wie sehr es auf die Qualität schlägt.

also die s3tc-kompression hat mich damals (ut) schon ziemlich beeindruckt. ist die nicht mittlerweile teil von dxtc?

thop
2004-04-12, 01:53:23
Das gleiche muss ich für Serious Sam feststellen.

reunion
2004-04-12, 10:13:58
Original geschrieben von LovesuckZ
Der Durchschnitt ließ weit über den takten, was die ganzen r300 Cores geschafft haben.
Es macht daher keinen Sinn, nur die XT version mit 600MHz zu bringen. Warum sollte man also diese Chips im Takt senken?


Wie schon gesagt, um die Ausbeute zu erhöhn...

/edit: Sollte ATi nach deinem beispiel vorgehen, sollten sich die SE und normalen Karten bis auf fast 600MHz takten lassen...

Und wo liegt da das Problem?
Die 9500 konnte man auch fast immer auf 400mhz hochjagen...

Ailuros
2004-04-12, 10:54:10
Original geschrieben von Demirug
Ich meinte eigentlich für den R420.

Wavey zeigt sich sicher dass mehr als ein molex nicht noetig sei wird fuer R420.

Wuerden 120-130W nicht doch einen zweiten molex aus Sicherheitsgruenden vorraussetzen?

Lost Prophet
2004-04-12, 10:56:53
hm, mir faellt da der r300 launch ein.
damals hatte keiner mit 256bit bus gerechnet, deshalb die frage: mal ausgehend davon dass die transistorzahlen nicht stimmen, waeren 512bit von anderen gesichtspunkten aus ueberhaupt moeglich?
ich persoenlich finds auch nicht sehr realistisch, was mich (unerwarteterweise) zu einer weiteren frage fuehrt: macht bei einem bus die 2er potenzen sache was aus? sprich: waere ein 384bit bus eine gute idee?

cya, axel

Demirug
2004-04-12, 11:14:33
Original geschrieben von Ailuros
Wavey zeigt sich sicher dass mehr als ein molex nicht noetig sei wird fuer R420.

Wuerden 120-130W nicht doch einen zweiten molex aus Sicherheitsgruenden vorraussetzen?

Gehen würde das wohl noch mit einem. Allerdings gibt das dann wieder einen komplizierten Spannungteil auf der Karte.

Demirug
2004-04-12, 11:17:30
Original geschrieben von Lost Prophet
hm, mir faellt da der r300 launch ein.
damals hatte keiner mit 256bit bus gerechnet, deshalb die frage: mal ausgehend davon dass die transistorzahlen nicht stimmen, waeren 512bit von anderen gesichtspunkten aus ueberhaupt moeglich?
ich persoenlich finds auch nicht sehr realistisch, was mich (unerwarteterweise) zu einer weiteren frage fuehrt: macht bei einem bus die 2er potenzen sache was aus? sprich: waere ein 384bit bus eine gute idee?

cya, axel

Im Prinzip könnte man auch Busse ausserhalb der zweier Potenzen verwenden. Allerdings müsste dann auch die Speichermenge davon abweichen. Da ATI aber schon, wenn auch unbeabsichtigt, eine 512MB R420 Karte angekündigt hat muss es eine Busbreite im Bereich der 2er Potenzen sein.

Wenn ich mir anschaue welcher Aufwand schon das verteilen der 256 Datenleitungen ist würde ich nicht auf einen 512 Bit Bus hoffen.

Ailuros
2004-04-12, 11:19:39
Uebrigens moechte ich hierbei meinen persoenlichen Grabstein ueber das Geruecht legen, dass ATI sich fuer 16 SIMDs in der letzten Minute entschieden hat.

Das heisst wohl dass der original layout dafuer geplant wurde und die bisher angegebenen sign off speeds auch dafuer gelten.

Demi,

Dann sind es entweder 2 oder der Stromverbrauch liegt niedriger als das. Ein solches Risiko wuerde ein IHV schwer eingehen IMHO.

Gast
2004-04-12, 11:29:41
Hmm irgendwie habe ich das Gefuehl das mit 256 Bit schon fast das Ende der Fahnenstange erreicht ist. Wie Demi schon sagte, der Aufwand bei noch mehr Datenleitungen duerfte enorm hoch liegen.

Es gab doch mal QuadRAM oder so aehnlich wo mit Phasenverschiebung gearbeitet wurde. Waere das eine Alternative oder die von Intel in einem anderen Thread hier angedachte serielle Schnittstelle fuer Speicher? Oder von AMD Hypertransport in einer modifizierten Form vielleicht?

Demirug
2004-04-12, 11:44:03
Original geschrieben von Ailuros
Uebrigens moechte ich hierbei meinen persoenlichen Grabstein ueber das Geruecht legen, dass ATI sich fuer 16 SIMDs in der letzten Minute entschieden hat.

Das heisst wohl dass der original layout dafuer geplant wurde und die bisher angegebenen sign off speeds auch dafuer gelten.

Relative, die sign off speeds könnte auch für einen 4 Quad R420 bei dem aber ein Quad deaktiviert ist gegolten haben.

Demi,

Dann sind es entweder 2 oder der Stromverbrauch liegt niedriger als das. Ein solches Risiko wuerde ein IHV schwer eingehen IMHO.

Da sich der Verbrauch im Vorfeld schlecht schätzen lässt. Man kommt in der Regel auf mehr würde ich zumindestens auf die Prototypen boards 2 Anschlüsse setzten. Wenn man dann später merkt das man mit weniger auskommt kann man einen der beiden Stecker bei den Verkaufskarten ja weglassen.

Gast
2004-04-12, 11:44:10
würde man eigentlich durch die bandbreitenlimitierung noch einen unterschied zwischen einer X800pro auf 600/600 (wohl schwer zu schaffen, vor allem mit dem speicher) und einer X800XT merken?
und: wird sich der unterschied 12 zu 16 pipes bei r420 / nv40 dann überhaupt so stark bemerkbar machen bei der "geringen" speicherbandbreite?
und mal ganz blöd gefragt: wenn der unterschied nich allzu groß ausfällt, isses doch eigentlich ein schwachsinn einen chip mit 16 pipes zu designen anstatt 12 weil man ja unmengen transistoren einsparen könnte, was die produktionskosten und den stromverbrauch des chips senken würde ?(

reunion
2004-04-12, 11:47:42
Original geschrieben von Gast
würde man eigentlich durch die bandbreitenlimitierung noch einen unterschied zwischen einer X800pro auf 600/600 (wohl schwer zu schaffen, vor allem mit dem speicher) und einer X800XT merken?


Mal angenommen die Werte stimmen, würde man sicherlich trozdem einen Unterschied zwischen der Pro und der XT-Version merken, er wäre nur nicht so groß wie der Füllratenunterschied. Selbst die 9500pro skaliert noch etwas mit dem Takt und die ist sicherlich ähnlich stark Bandbreitenlimitiert wie ein R420 mit 600/600.

Demirug
2004-04-12, 11:50:56
Original geschrieben von Gast
würde man eigentlich durch die bandbreitenlimitierung noch einen unterschied zwischen einer X800pro auf 600/600 (wohl schwer zu schaffen, vor allem mit dem speicher) und einer X800XT merken?
und: wird sich der unterschied 12 zu 16 pipes bei r420 / nv40 dann überhaupt so stark bemerkbar machen bei der "geringen" speicherbandbreite?
und mal ganz blöd gefragt: wenn der unterschied nich allzu groß ausfällt, isses doch eigentlich ein schwachsinn einen chip mit 16 pipes zu designen anstatt 12 weil man ja unmengen transistoren einsparen könnte, was die produktionskosten und den stromverbrauch des chips senken würde ?(

Es wird vom test Abhängen. wenn viel gerechnet wird und die Bandbreite weniger wichtig ist kann die zusätzliche rechenleistung genutzt werden. Derzeit hängen aber viele Spiele eher an der Bandbreite.

Ich gehe davon aus das nVidia und ATI fest mit der Verfügbarkeit von 800MHz Speicher gerechnet haben. Da es diesen jetzt nicht gibt habe sie ein Problem. Ich vermute deshalb auch das die 400MHz Core bei nVidia eine Folge davon sind.

Ailuros
2004-04-12, 11:54:28
Original geschrieben von Demirug
Relative, die sign off speeds könnte auch für einen 4 Quad R420 bei dem aber ein Quad deaktiviert ist gegolten haben.


Wenn ich von der Vergangenheit ausgehe, dann aendert sich selbst da nichts was den Stromverbrauch ergo Abwaerme betrifft. 9k5PRO kam auch mit einem molex oder?

Macht es ueberhaupt Sinn von tape-outs mit verschnippelten chips zu reden?

Demirug
2004-04-12, 12:07:28
Original geschrieben von Ailuros
Wenn ich von der Vergangenheit ausgehe, dann aendert sich selbst da nichts was den Stromverbrauch ergo Abwaerme betrifft. 9k5PRO kam auch mit einem molex oder?

Macht es ueberhaupt Sinn von tape-outs mit verschnippelten chips zu reden?

Ich kenne jetzt nur die 9500 die auf dem 9700er PCB aufgebaut haben und dort war der Spannungswandler AFAIR auf die zusätzliche Versorung angewisen weil er nicht genung aus dem AGP holen konnte.

Tape-outs macht man natürlich nur mit dem gesamten Chip. Allerdings erfolgt das Speed binning ja normalerweise erst nachdem man die unbenutzten Teile deaktiviert hat. Bei der Vorproduktion wird ja meist gar kein Binnig in der FAB gemacht.

aths
2004-04-12, 12:14:45
Original geschrieben von Demirug
Wenn ich mir anschaue welcher Aufwand schon das verteilen der 256 Datenleitungen ist würde ich nicht auf einen 512 Bit Bus hoffen. Irgendwann wird auch das kommen müssen. Bestimmte neue Features sind auf zusätzliche Bandbreite angewiesen.

aths
2004-04-12, 12:15:29
Original geschrieben von DrumDub
also die s3tc-kompression hat mich damals (ut) schon ziemlich beeindruckt. ist die nicht mittlerweile teil von dxtc? S3TC ist in DX lizensiert und heißt dort DXTC. Die bewussten UT-Texturen sind nicht nur komprimiert, sondern ja auch gleichzeitig extrem hoch aufgelöst (für die damalige Zeit.)

Demirug
2004-04-12, 12:27:53
Original geschrieben von aths
Irgendwann wird auch das kommen müssen. Bestimmte neue Features sind auf zusätzliche Bandbreite angewiesen.

Ich gehe eher von mehr Daten pro Leitung als von mehr Leitungen aus.

Fiber2Chip könnte hier durchaus Interesant werden.

CrazyIvan
2004-04-12, 14:13:02
Wie siehts denn mit der Entwicklung von QDR RAM aus? Hat man das inzwischen begraben, oder wird das der nächste Schritt nach DDR2/GDDR3?

reunion
2004-04-12, 15:05:05
Original geschrieben von Demirug
Ich gehe davon aus das nVidia und ATI fest mit der Verfügbarkeit von 800MHz Speicher gerechnet haben. Da es diesen jetzt nicht gibt habe sie ein Problem. Ich vermute deshalb auch das die 400MHz Core bei nVidia eine Folge davon sind.

Vielleicht ist das der Grund warum die XT-Version des R420 mit 16pipes erst einem Monat später erhältlich sein wird, besteht die möglichkeit das bis zum 31 Mai 800mhz GDDR3 Ram vefügbar ist?

Demirug
2004-04-12, 15:27:07
Original geschrieben von reunion
Vielleicht ist das der Grund warum die XT-Version des R420 mit 16pipes erst einem Monat später erhältlich sein wird, besteht die möglichkeit das bis zum 31 Mai 800mhz GDDR3 Ram vefügbar ist?

Hoffnung habe ich da eigentlich keine.

Offiziel bekommt man weder bei Samsung noch bei micron überhaupt GDDR3. micron gibt 3Q04 an Samsung hat überhaupt keinen Termin angegeben.

Die einzigen die behaupten sie hätten den Speicher sind hynix. Dort bekommt man aber noch nicht mal datenblätter zum GDDR3 Speicher.

Exxtreme
2004-04-12, 15:41:10
Original geschrieben von aths
Irgendwann wird auch das kommen müssen. Bestimmte neue Features sind auf zusätzliche Bandbreite angewiesen.
Oder verlustfreie Kompression im Chip. Ich denke, das ist im Endeffekt effektiver zu haben als ein 512 Bit Speicherinterface.

robbitop
2004-04-12, 15:44:14
hm wieviel ist von einer lossless Farbkompressionen im Normalfall zu erwarten?
Ich denk ma in der Praxis nicht allzuviel, da selten ganze Farbblöcke mit gleichen Farbwerten auftreten.
Oder irre ich mich hier?

Zumindist müsste man irgendwas bei den Farbwerten machen, die hauen am Meisten rein, und die jetzige CC ist ja nur eine Pseudokompression.

Exxtreme
2004-04-12, 15:49:09
Original geschrieben von robbitop
hm wieviel ist von einer lossless Farbkompressionen im Normalfall zu erwarten?
Ich denk ma in der Praxis nicht allzuviel, da selten ganze Farbblöcke mit gleichen Farbwerten auftreten.
Oder irre ich mich hier?

Zumindist müsste man irgendwas bei den Farbwerten machen, die hauen am Meisten rein, und die jetzige CC ist ja nur eine Pseudokompression.
Es muss nicht unbedingt eine Farbkompression sein. Und der Komprimierungsgrad hängt vom Algorhythmus und zu komprimierendem Material ab.

robbitop
2004-04-12, 15:51:06
naja aber gerade die Farbe haut gut rein. Die Z Werte werden ja schon komprimiert afaik und das sogar recht gut.

Und eine (leicht) Verlustbehaftete Kompression will keiner?
(gut senkt die BQ aber wenn mans so macht wie bei UT mit S3TC wäre es im Endeffekt ok)

aths
2004-04-12, 16:03:36
Original geschrieben von robbitop
hm wieviel ist von einer lossless Farbkompressionen im Normalfall zu erwarten?"Hängt davon ab". Je höher die Auflösung, desto bessere Chancen. 2:1 ist zumindest stellenweise drin.

aths
2004-04-12, 16:05:43
Original geschrieben von Exxtreme
Oder verlustfreie Kompression im Chip. Ich denke, das ist im Endeffekt effektiver zu haben als ein 512 Bit Speicherinterface. Alle Finessen sind bereits eingeplant. Man kann das Interface sicher noch weiter verbessern, und sagen wir weitere 10%, meinetwegen 20% Effizienz rausschinden. Das muss auch erst mal reichen, aber um 1024 Bit logische Breite (egal ob mit 256 Leitungen und "QDR" oder 512 Leitungen und DDR) kommen wir letztlich nicht herum.

Ailuros
2004-04-12, 16:16:16
Zustimm. Obwohl gewagt, schaetze ich aber nicht vor 2006.

robbitop
2004-04-12, 17:09:20
hm womit wären denn 10-20% drin?
Bereits das jetzige Aufgebohre (LMA/HyperZ) hat zweistellige Zuwächse gebracht. Alles was nach LMA/HyperZ 1 kam brachte dann nicht mehr soo viel. ->Das Gesetz des abnehmenden Ertrages. Meinst du wirklich dass da soviel Zuwachs noch zu holen sind. (ist nur als Frage gemeint)

Gast
2004-04-12, 17:56:46
Original geschrieben von aths
"Hängt davon ab". Je höher die Auflösung, desto bessere Chancen. 2:1 ist zumindest stellenweise drin.

Im Mittel 4:1

siehe :

http://www.beyond3d.com/forum/viewtopic.php?t=6626&sid=ce954abb4707495e7f874e20823ae4c1

http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=133093


Allerdings scheinen laut der Leute die es wissen müssen Huffmann-Codes ziemlich schlecht zu funktionieren; (D)DPCM mit adaptivem Golomb-Rice coding scheint schneller (1Takt laut einem PDF) zu sein und nahezu die gleichen, bzw sogar geringfügig bessere Kompressionsraten zu ermöglichen.

Gast
2004-04-12, 17:58:07
Original geschrieben von reunion
Vielleicht ist das der Grund warum die XT-Version des R420 mit 16pipes erst einem Monat später erhältlich sein wird, besteht die möglichkeit das bis zum 31 Mai 800mhz GDDR3 Ram vefügbar ist?


Also auf beyond3D behauptet {Sniping}Waste seit Wochen (!) das Micron seit geraumer Zeit bis zu 833MHz GDDR3-RAM herstellt und exklusiv an ATi verkauft, da sie zusammen mit ATi die GDDR3-Spec. entwickelt haben, während Nvidia auf das schlechtere GDDR3-RAM von Samsung angewiesen ist.

Deshalb meine Hoffnung :

X800 Pro mit 12 Pipe's : 500 MHz Core / 600 MHz RAM
X800 XT mit 16 Pipe's : 500MHz Core / 800 MHz RAM

Schaun wir mal

reunion
2004-04-12, 18:09:21
Original geschrieben von Gast
Also auf beyond3D behauptet {Sniping}Waste seit Wochen (!) das Micron seit geraumer Zeit bis zu 833MHz GDDR3-RAM herstellt und exklusiv an ATi verkauft, da sie zusammen mit ATi die GDDR3-Spec. entwickelt haben, während Nvidia auf das schlechtere GDDR3-RAM von Samsung angewiesen ist.

Deshalb meine Hoffnung :

X800 Pro mit 12 Pipe's : 500 MHz Core / 600 MHz RAM
X800 XT mit 16 Pipe's : 500MHz Core / 800 MHz RAM

Schaun wir mal

Ich glaube das hat er von Hellbinder, der behauptet das auch des öfteren ;)

http://www.rage3d.com/board/showthread.php?threadid=33752386&perpage=30&pagenumber=2

Demirug
2004-04-12, 18:15:45
Original geschrieben von Gast
Also auf beyond3D behauptet {Sniping}Waste seit Wochen (!) das Micron seit geraumer Zeit bis zu 833MHz GDDR3-RAM herstellt und exklusiv an ATi verkauft, da sie zusammen mit ATi die GDDR3-Spec. entwickelt haben, während Nvidia auf das schlechtere GDDR3-RAM von Samsung angewiesen ist.

Deshalb meine Hoffnung :

X800 Pro mit 12 Pipe's : 500 MHz Core / 600 MHz RAM
X800 XT mit 16 Pipe's : 500MHz Core / 800 MHz RAM

Schaun wir mal

Micron selbst sagt das sie nicht vor 3Q04 liefern können. Wahrscheinlich läuft die Vorproduktion wie bei Samsung auch und ATI und nVidia werden alles aufkaufen was sie in die Finger bekommen. Nur dürften dort so wenige 800er dabei sein das man damit nicht mal eine Kleinserie auflegen kann.

Exxtreme
2004-04-12, 19:17:41
Original geschrieben von Demirug
Micron selbst sagt das sie nicht vor 3Q04 liefern können. Wahrscheinlich läuft die Vorproduktion wie bei Samsung auch und ATI und nVidia werden alles aufkaufen was sie in die Finger bekommen. Nur dürften dort so wenige 800er dabei sein das man damit nicht mal eine Kleinserie auflegen kann.
Hmmm...
http://www.rage3d.net/board/showthread.php?s=&postid=1332760721#post1332760721

Also wenn ATi tatsächlich die Möglichkeit hat 833 MHz GDDR3-Speicher in halbwegs grösseren Mengen zu bekommen dann könnte der Plan aufgehen mit der 600/800 MHz-Taktung.

Demirug
2004-04-12, 19:32:41
Original geschrieben von Exxtreme
Hmmm...
http://www.rage3d.net/board/showthread.php?s=&postid=1332760721#post1332760721

Also wenn ATi tatsächlich die Möglichkeit hat 833 MHz GDDR3-Speicher in halbwegs grösseren Mengen zu bekommen dann könnte der Plan aufgehen mit der 600/800 MHz-Taktung.

Die grössere Menge ist es die ich bezweifle.

Sunrise
2004-04-12, 19:40:49
Original geschrieben von Demirug
Micron selbst sagt das sie nicht vor 3Q04 liefern können. Wahrscheinlich läuft die Vorproduktion wie bei Samsung auch und ATI und nVidia werden alles aufkaufen was sie in die Finger bekommen. Nur dürften dort so wenige 800er dabei sein das man damit nicht mal eine Kleinserie auflegen kann.
Falls diese Info direkt von der Micron-Seite stammt, die "öffentlichen" Daten sind ja schon länger bekannt. Micron ist derzeit sehr still was deren Produktion angeht, anscheinend hat man durch den direkten Sprung auf 0.11µm einiges an Zeit verloren und will das jetzt so schnell als möglich wieder aufholen.

Von Samsung hört man mittlerweile wieder Gutes (Sprung auf 0.10µm erfolgreich), wer weiß. "Mass-availabiliy around June ? Sounds possible."

Ich würde die Möglichkeiten folgendermaßen abschätzen:

[Spekulation]
Sollte es bei der R420XT-Variante wirklich zu 600MHz Core reichen, dann macht alles unter 600MHz GDDR3 sicherlich auch keinen Sinn (davon gehe ich einfach mal aus).

Sollten 800MHz GDDR3 nicht ausreichend verfügbar sein, macht wiederrum 600MHz keinen Sinn.

Der R480 sollte sicherlich ursprünglich die 16-Pipe-Version mit 800MHz GDDR3 werden, ich kann nur hoffen, dass wir Ende Mai keinen Chip bekommen werden, bei dem Abstriche gemacht wurden.
[Spekulation]

LovesuckZ
2004-04-12, 19:44:02
Original geschrieben von Demirug
Die grössere Menge ist es die ich bezweifle.

Wie sieht es eigentlich mit den Modellen 550 und 600MHz aus?
Was man so im Beyond3d.com Forum liest, scheint es wohl, dass Nvidia 500MHz Speicher hat und diesen auf 550 übertaktet...

Demirug
2004-04-12, 19:49:10
Original geschrieben von LovesuckZ
Wie sieht es eigentlich mit den Modellen 550 und 600MHz aus?
Was man so im Beyond3d.com Forum liest, scheint es wohl, dass Nvidia 500MHz Speicher hat und diesen auf 550 übertaktet...

Ich kann mir denken woher diese Vermutung stammt ob sie allerdings richtig ist steht auf einem anderen Blatt. Wenn nVidia wirklich nur 500MHz bekommen konnte dann hätten sie in aufgrund von anderen Gerüchte sogar auf 600MHz gebracht weil die GDC Karten ja noch 475/600 gewesen sein sollen.

ironMonkey
2004-04-12, 19:50:12
Original geschrieben von Exxtreme
Hmmm...
http://www.rage3d.net/board/showthread.php?s=&postid=1332760721#post1332760721

Also wenn ATi tatsächlich die Möglichkeit hat 833 MHz GDDR3-Speicher in halbwegs grösseren Mengen zu bekommen dann könnte der Plan aufgehen mit der 600/800 MHz-Taktung.

Die X800XT soll ja ende Mai vorgestellt werden, ein paar Wochen danach wird sie wohl in den Regalen stehen und bis dahin könnte es hinhauen schnellen Speicher zu bekommen, dann müsste man aber jetzt langsam anfangen 800mhz Speicher vorrätig auf Lager zu haben, soviel werden sich die Karte ja am anfang nicht holen von daher könnte das durchaus aufgehen.


Gruß

LovesuckZ
2004-04-12, 19:53:47
Original geschrieben von Demirug
Wenn nVidia wirklich nur 500MHz bekommen konnte dann hätten sie in aufgrund von anderen Gerüchte sogar auf 600MHz gebracht weil die GDC Karten ja noch 475/600 gewesen sein sollen.

Was wiederum die Fehler in der UT2004 Vorführung auf dem NV40 erklären koennten.
Genug OT :)

Sunrise
2004-04-12, 19:53:57
Original geschrieben von LovesuckZ
Wie sieht es eigentlich mit den Modellen 550 und 600MHz aus?
Was man so im Beyond3d.com Forum liest, scheint es wohl, dass Nvidia 500MHz Speicher hat und diesen auf 550 übertaktet...
Das ist auch (wie schon von mir gepostet) einer der wenigen Gründe die ich mir vorstellen kann, warum NV so eine "dicke" Kühlung über dem Speicher hat. Es sind sicherlich keine Module die "in spec" laufen. Man sprach bei der GDC auch von "Artefakten" welche anscheinend ein Ergebniss dieses hohen Taktes waren, aber das ist mir zu spekulativ.

robbitop
2004-04-12, 19:57:00
eine Kleinserie bedeutet eine 2 maximal 3 stellige Stückzahl. Und Bedarf ist allerdings für 5 stellige Stückzahlen mindistens da...
zumal eine Kleinserie sehr kostspielig ist da extra produktion

ironMonkey
2004-04-12, 20:02:08
Kleinserie ist für mich bis 9999.


Gruß

kami
2004-04-12, 20:04:28
Mal angenommen ATi bekommt wirklich von Micron die 800 Mhz Bausteine. Irgendwie find ich es da merkwürdig, dass die als nächstes ( für NVIDIA ) Verfügbaren nur 500 Mhz haben. :kratz:

Sieht es da wirklich so mau aus ?

Exxtreme
2004-04-12, 20:13:53
Original geschrieben von kami
Mal angenommen ATi bekommt wirklich von Micron die 800 Mhz Bausteine. Irgendwie find ich es da merkwürdig, dass die als nächstes ( für NVIDIA ) Verfügbaren nur 500 Mhz haben. :kratz:

Hmmm, AFAIK verwendet Nvidia keine Bausteine von Micron sondern von Samsung. :kratz:

kami
2004-04-12, 20:16:59
Ja, das habe ich auch mitbekommen. Meinte jetzt die für NVIDIA allg. Verfügbaren und nicht speziell von Micron.

Exxtreme
2004-04-12, 20:25:05
Original geschrieben von kami
Ja, das habe ich auch mitbekommen. Meinte jetzt die für NVIDIA allg. Verfügbaren und nicht speziell von Micron.
Naja, vlt. hat ATi mit Micron einen Exclusiv-Vertrag abgeschlossen und Samsung ist noch nicht soweit, daß sie mehr als 500 MHz schaffen in grösseren Stückzahlen.

robbitop
2004-04-12, 20:25:35
Original geschrieben von ironMonkey
Kleinserie ist für mich bis 9999.


Gruß
für dich vieleicht ^^

ich denke mal, das es keine wirkliche Definition gibt. Das wird einfach die Relation zur Massenproduktion sein.
Aber 9999 x 8-16BGAs wirds wohl (noch) nicht geben von diesem hochwertigen RAM. Und wenn dann wären sie SCHWEINETEUER ;)

kami
2004-04-12, 20:29:23
Original geschrieben von Exxtreme
Naja, vlt. hat ATi mit Micron einen Exclusiv-Vertrag abgeschlossen und Samsung ist noch nicht soweit, daß sie mehr als 500 MHz schaffen in grösseren Stückzahlen.

Darum fragte ich ja, ob es da wirklich so mau aussieht.

Wenn Micron es wirklich schafft 800er zu liefern und Samsung grade mal bei 500 angelangt sind wär das schon schwach irgendwie. Naja hab da auch keine Ahnung. X-D

Gandharva
2004-04-12, 22:01:25
http://home.arcor.de/herbertschindler/ati.gif

Quelle: http://www.digit-life.com/news.html?103811

Thomas_B
2004-04-12, 22:14:12
Original geschrieben von Striper
http://home.arcor.de/herbertschindler/ati.gif

Quelle: http://www.digit-life.com/news.html?103811

Die Preise müßten USD-Preise sein, Netto ohne MwSt.!

reunion
2004-04-12, 22:16:02
Original geschrieben von Thomas_B
Die Preise müßten USD-Preise sein, Netto ohne MwSt.!

Dann kann man wohl mit 600€ für das Topmodel rechnen bei uns...

Gandharva
2004-04-12, 22:16:43
das neue logo ->

http://www.pcpop.com/popimages/2004-4-10-9-57-57-8763.jpg

WEGA
2004-04-13, 00:26:18
tut mir leid das is nicht nue :-P *g*

CrazyIvan
2004-04-13, 01:21:28
Original geschrieben von kami
Darum fragte ich ja, ob es da wirklich so mau aussieht.

Wenn Micron es wirklich schafft 800er zu liefern und Samsung grade mal bei 500 angelangt sind wär das schon schwach irgendwie. Naja hab da auch keine Ahnung. X-D

AFAIK produziert Micron in 0.11 und Samsung (noch) in 0.13. Ob das jetzt bei Speichern einen Vorteil von 60 % in der Taktung ausmacht, weiß ich auch net...
Sunrise hatte es übrigens vor knapp ner Seite erwähnt

Original geschrieben von Sunrise
Falls diese Info direkt von der Micron-Seite stammt, die "öffentlichen" Daten sind ja schon länger bekannt. Micron ist derzeit sehr still was deren Produktion angeht, anscheinend hat man durch den direkten Sprung auf 0.11µm einiges an Zeit verloren und will das jetzt so schnell als möglich wieder aufholen.

Von Samsung hört man mittlerweile wieder Gutes (Sprung auf 0.10µm erfolgreich), wer weiß. "Mass-availabiliy around June ? Sounds possible."

CrazyIvan
2004-04-13, 01:24:46
Original geschrieben von Striper
das neue logo ->

-snip-


Ist es denn eigentlich auch offiziell? Hab es zwar bei einigen anderen Seiten gesehen, aber von offiziell war da nicht die Rede. Zu erst wurde von "relativ gesicherten Informationen" bezüglich der Bezeichnung geredet und dann kam nen Tag später das Bild. Vielleicht nur 'n Fake?

WEGA
2004-04-13, 01:45:37
also die 512 Mb für normal user grafikkarten is aller größter schwachsinn. aber die kommen ja erst später

Ailuros
2004-04-13, 02:36:49
Original geschrieben von reunion
Dann kann man wohl mit 600€ für das Topmodel rechnen bei uns...

Leider. Was wohl heisst dass ich mir eine der naechsten Generation Karten nicht vor H2 2004 kaufen werde, wenn die Preise erstmal etwas logischer werden.

betasilie
2004-04-13, 03:00:53
Original geschrieben von Ailuros
Leider. Was wohl heisst dass ich mir eine der naechsten Generation Karten nicht vor H2 2004 kaufen werde, wenn die Preise erstmal etwas logischer werden.
Geht mir auch so. ... Aber ich kann bei meiner ja noch einen Voltmod machen, um die Zeit zu überbrücken.

MadManniMan
2004-04-13, 04:03:02
Warum gibts in der aktuellen Betrachtung eigentlich nur A) 500 b) 600 oder c) 800 MHz? :|

PP
2004-04-13, 08:26:03
Sind zwar keine neuen Infos dabei… aber die Geruechte werden als "solid but unconfirmed" eingestuft;D
HardOCP (http://www.hardocp.com/)
"ATI Radeon R420 Roadmap:
Secret double agents in Zimbabwe have turned over classified ATI documents. The below specifications outline a whole host of information about the upcoming flagship VPU from ATI.
First we have the names that will be attached to the VPUs that will scale across three levels of performance with the same VPU. The "X800XT" and the "X880XT" being the "same" card but with a different interface, with the latter being a PCI-Express X16 card. You will see that the PCI-Express core is labeled "R423" as it is in fact a native PCI-Express part and not the same CPU as the R420 with an adaptive bridge to allow the VPU to work on both interfaces. (It is yet to be seen if there is a performance impact from using a bridged VPU/GPU.) Notice as the clocks and memory speeds scale across the product line, so does the pixel pipelines that are turned on or off to further define performance levels.

Last but certainly not least are the projected release dates and MSRP prices in US dollars.

This information did not come from ATI but a source that has proven to be correct in the past. I would categorize this information as "solid but unconfirmed".

http://www.hardocp.com/images/news/1081819095xDxNGnqwG1_1_1_l.gif

reunion
2004-04-13, 10:03:09
Hm, das Gerücht mit den 600mhz Chiptakt scheint sich zu verhärten, allerdings soll jetzt auf einmal nurmehr die PRO verion am 26.April rauskommen, alle anderen erst irgendwann im Mai/Juni...

LovesuckZ
2004-04-13, 10:04:43
Original geschrieben von reunion
Hm, das Gerücht mit den 600mhz Chiptakt scheint sich zu verhärten, ...

Nein, es wird nur von der selben Quelle auf jeder Seite veröffentlicht...
Nunja, hoffen wir, dass es am Ende auch wirklich 600MHz sind, ansonsten koennte das noch boes für ATi enden (FUD Kampagne).

reunion
2004-04-13, 10:31:30
Original geschrieben von LovesuckZ
Nein, es wird nur von der selben Quelle auf jeder Seite veröffentlicht...
Nunja, hoffen wir, dass es am Ende auch wirklich 600MHz sind, ansonsten koennte das noch boes für ATi enden (FUD Kampagne).

Naja, wir werden sehn, vielleicht hat der X800XT ja auch nur 550mhz Chiptakt und die zusätzlichen 50mhz erreicht man durch Overdrive oder so ähnlich...

ironMonkey
2004-04-13, 10:36:00
9800XT ist auch mit 412 angegeben da sie nur diesen Takt auch wirklich zu 100% hat da Overdrive von der Temp abhängig ist, der Referenztakt aber nicht.


Gruß

LovesuckZ
2004-04-13, 10:39:16
Original geschrieben von reunion
Naja, wir werden sehn, vielleicht hat der X800XT ja auch nur 550mhz Chiptakt und die zusätzlichen 50mhz erreicht man durch Overdrive oder so ähnlich...

Rechne mit 500MHz. Da der Prozeß wohl der selbe sei wie beim RV360 Core, bezweifel ich es, dass ATi ein 160+ Transistormonster besser taktet als diese Karte.

reunion
2004-04-13, 10:46:01
Original geschrieben von LovesuckZ
Rechne mit 500MHz. Da der Prozeß wohl der selbe sei wie beim RV360 Core, bezweifel ich es, dass ATi ein 160+ Transistormonster besser taktet als diese Karte.

So würd ich das nicht sehn, ein fertigungsprozess wird ja auch immer besser um so "ausgereifter" er ist, den R300 konnte man ja auch von 325mhz auf 412mhz ein Jahr später hochprügeln...

//Edit: Andererseits, vermutlich hast du recht, man wird sich ja auch noch ein paar mhz für ein Refresh aufheben wollen, außerdem würde es ja im endeffekt nicht viel bringen da sowieso die Speicherbandbreite fehlt...

reunion
2004-04-13, 10:47:11
Original geschrieben von ironMonkey
9800XT ist auch mit 412 angegeben da sie nur diesen Takt auch wirklich zu 100% hat da Overdrive von der Temp abhängig ist, der Referenztakt aber nicht.


Gruß

Jaja, ich weiß, war ja nur eine Idee... =)

ShadowXX
2004-04-13, 10:47:29
Das wird ab morgen sowieso lustig....überall im Web nv40 reviews und noch keinen endgültigen r420 TechSpecs...

Da werden bestimmt "interessante" Mutmassungen über das Abschneiden der verschiedenen r420-Modelle gegen den nv40 aufgestellt...

Mal sehen wie lange das denn ATI mitmacht (wenn die grösste Zahl der reviews den nv40 in den Himmel lobt), oder ob Sie dann vielleicht doch noch vor dem 26.04. eine Vorstellung machen....

Am meisten interessiert mich momentan ob ATI gleich alle drei Karten vorstellen wird, oder ob Sie wirklich Step-By-Step vorgehen werden.
Vielleicht machen Sie es aber auch von den Benchmarks des nv40 abhängig....

seahawk
2004-04-13, 11:13:24
Ich würde sagen

X800SE unter 9800Pro
X800Pro gleich 6800Ultra
X800 XT :O

LovesuckZ
2004-04-13, 11:16:07
Original geschrieben von seahawk
X800 XT :O

Hoffen wir, dass er auch mit dem X800 vorgestellt und ausgeliefert wird.
Ansonsten ist es nicht wirklich überwältigend, denn Nvidia kann ja ganz geschickt mit einen NV45 (PCI-E, 475MHZ Core und 600-700MHZ Speicher) nachlegen.

seahawk
2004-04-13, 11:17:41
Den XT wird NV nicht kontern können. Der soll 20% auf ne X800PRO (bei gleichem Speicher) im Minimum holen und das holt NV aus dem NV40 nicht raus.

BodyLove
2004-04-13, 11:22:33
Je nachdem, wie gut NV ist, wird ATI versuchen sich an diesem Wert zu halten. Imho versucht hier keiner den anderen den knockout zu verpassen, sondern viel eher gerade soviel Leistung zu bieten, dass ihre Karten knapp vorne sind. Aus diesem Grund halte ich sowohl 600Mhz Chiptakt für möglich, als auch die 500Mhz. Bei der XT-Variante wohlgemerkt. Ob es Sinn macht sei mal dahingestellt.

Und 1 Monat ist viel Zeit. Da kann NV auch ein Refresh mit höheren Taktraten bringen.

ow
2004-04-13, 11:23:30
.

Gast
2004-04-13, 11:23:55
woher willste denn wissen das die x800pro auf 6800U niveau is ? ;D

seahawk
2004-04-13, 11:24:51
Original geschrieben von ow
Wieso soll NV denn da was kontern muessen, wenn der NV40 non ultra eh schon alle Ati Chips versaegt??

Merkst du was?

Nur kommt ne normale X800Pro schon locker an die bisher bekannten Werte der 6800Ultra.

seahawk
2004-04-13, 11:25:29
Original geschrieben von Gast
woher willste denn wissen das die x800pro auf 6800U niveau is ? ;D

warte es einfach ab :D

WEGA
2004-04-13, 11:25:53
woher wisst ihr das? gibts shcon ergebnisse?

Gast
2004-04-13, 11:25:56
link ?

Winter[Raven]
2004-04-13, 11:27:05
:zzz::zzz::zzz:

Die Seiten schreiben bei sich einander ab, und ihr haltet es für bares Gold.

Jedesmal immer das gleiche Gerede ... man Wartets doch erst ab.

LovesuckZ
2004-04-13, 11:27:11
Original geschrieben von seahawk
Nur kommt ne normale X800Pro schon locker an die bisher bekannten Werte der 6800Ultra.

Und hier haben wir ein Problem: Wir wissen etwas über die 6800U für 399$, die Konkurenzkarte zur X800. Was wir nicht wissen ist, was Nvidia für 499$ anbieten will. Und hier haette ein NV45 mit den oberen Daten einen sehr guten Erfolg. Damit waere man zu ATi konkurenzfaehig. Und wenn ATi nur 20% schneller waere, waere dies Nvidia mit 475MHz auch...

seahawk
2004-04-13, 11:27:30
Ab dem 26. April. :D

Allerdings bin ich mal auf die Kommentare der FanATIker zur Kühlung vom X800Pro gespannt. :D

Gast
2004-04-13, 11:27:34
Wieso las ich mich eigentlich immer wieder anstecken von Euch ;D

Nun bin ich schon wieder ganz grelle auf die Reviews ^^ ;)

LovesuckZ
2004-04-13, 11:28:36
Original geschrieben von seahawk
Ab dem 26. April. :D
Allerdings bin ich mal auf die Kommentare der FanATIker zur Kühlung vom X800Pro gespannt. :D

Hm Zwei-Slot-Dustbuster?
Vielleicht hat ja ATi auch die Restposten des NV30 aufgekauft und verwendet deren Kühlösung *eg*

seahawk
2004-04-13, 11:28:42
Original geschrieben von LovesuckZ
Und hier haben wir ein Problem: Wir wissen etwas über die 6800U für 399$, die Konkurenzkarte zur X800. Was wir nicht wissen ist, was Nvidia für 499$ anbieten will. Und hier haette ein NV45 mit den oberen Daten einen sehr guten Erfolg. Damit waere man zu ATi konkurenzfaehig. Und wenn ATi nur 20% schneller waere, waere dies Nvidia mit 475MHz auch...

Ja, eine 6850Ultra ist sicher denkbar.

ow
2004-04-13, 11:28:52
.

WEGA
2004-04-13, 11:29:12
Original geschrieben von seahawk
Ab dem 26. April. :D

Allerdings bin ich mal auf die Kommentare der FanATIker zur Kühlung vom X800Pro gespannt. :D

komm sei still. entweder erzählst du was oder häldst die fresse

Gast
2004-04-13, 11:30:10
Original geschrieben von seahawk
Ab dem 26. April. :D

Allerdings bin ich mal auf die Kommentare der FanATIker zur Kühlung vom X800Pro gespannt. :D

hey hey ... das ist nicht fein. ;D Bin auch gespannt ;)

Ailuros
2004-04-13, 11:31:58
NV45 konkurriert sowieso mit R423.

Zum Rest der Behauptungen, seit wann gibt es R4xx Leistungszahlen die ich verpasst habe....? :(

BodyLove
2004-04-13, 11:32:12
Original geschrieben von seahawk
Ab dem 26. April. :D

Allerdings bin ich mal auf die Kommentare der FanATIker zur Kühlung vom X800Pro gespannt. :D

Ist doch nichts über deren Kühllösung bekannt. Imho ist es zumindest leiser als die des NV40.:eyes:;)

seahawk
2004-04-13, 11:33:05
Original geschrieben von BodyLove
Ist doch nichts über deren Kühllösung bekannt. Imho ist es zumindest leiser als die des NV40.:eyes:;)

So wie die 9800XT der aktuellen Serie auch leiser als eine FX5950 sind :D

LovesuckZ
2004-04-13, 11:34:44
Original geschrieben von Ailuros
NV45 konkurriert sowieso mit R423.
Zum Rest der Behauptungen, seit wann gibt es R4xx Leistungszahlen die ich verpasst habe....? :(

Nehmen wir an, dass die Daten bis auf den Coretakt von (als Beispiel) Hardocp.com stimmen, dann waere der r423 nur die XT version mit einem PCI-E Interface.
Womit der NV45 also auch mit der XT konkurieren würde :)
Was wiederum die geruechte bestaetigen koennte, dass erst der r423 mit den 16 Pipelines kommen sollte.

Ailuros
2004-04-13, 11:37:05
R4xx wurde fuer 4 quads von Anfang an ausgelegt; die restlichen sind Varianten davon.

Im Bereich quads liegen die beiden auf Gleichstand, jetzt kommt eigentlich die Frage der Effizienz jeglicher Architektur und da kann ich mir nichts ausraten selbst wenn ich die Taktraten wissen wuerde.

pp@work
2004-04-13, 11:37:32
Original geschrieben von LovesuckZ
Hm Zwei-Slot-Dustbuster?
Vielleicht hat ja ATi auch die Restposten des NV30 aufgekauft und verwendet deren Kühlösung *eg*

Vielleicht drehen sie auch ein Video wie das von Nv :)

P.S.: Ich kann kaum noch auf die ersten Reviews warten, also wer etwas neues hat... nur her damit. Wir erzaehlen es auch keinem weiter...

Winter[Raven]
2004-04-13, 11:38:10
Original geschrieben von seahawk
So wie die 9800XT der aktuellen Serie auch leiser als eine FX5950 sind :D

Hört auf hier zu spammen und flammen ... *sauer*

Nur soviel, die Lautstärke des Lüftern auf dem NV40 ist ähnlich in der Lautstärke eines NV35.

seahawk
2004-04-13, 11:40:07
600Mhz für die X800XT würde mich allerdings überraschen.

Besonders schon im Mai. Für den X880XT ist es wahrscheinlicher.

Sorry, ich sage schon nichts mehr.

Aber Winter Raven denk noch einmal bitte darüber nach, was ich mit der Post sagen wollte. Und guck Dir mal Sonne-Werte der 9800XT Karten mit der Referenzkühlung in letzten Tests an.

DrumDub
2004-04-13, 11:55:55
Original geschrieben von seahawk
Aber Winter Raven denk noch einmal bitte darüber nach, was ich mit der Post sagen wollte. Und guck Dir mal Sonne-Werte der 9800XT Karten mit der Referenzkühlung in letzten Tests an.

biste dir da sicher, seahawk?

referenzkühlung 9800xt: 2,7 sone (lt. pcgh)

referenzkühlung fx5950u: 4,4 sone(2d), 5,8 sone(3d) (lt. chip.de)

ABER fx5950u von msi: 0,7 sone (3d)

BodyLove
2004-04-13, 11:58:31
@drumdub

echt? so leise bei MSI? hatten die nicht diesen großen Kupferkühler? Imho sah es nicht gerade sehr perfomant aus. Naja, nach dem Aussehen sollte man es nicht beurteilen, waS?

Winter[Raven]
2004-04-13, 12:03:55
Habe ich NV38 gesagt? Oder wieso redet ihr von der 5950ultra ?

Ich hbae doch eindeutig NV35 geschrieben: Also die Radiallüfter auf der Referenzkarte von der GF 5900 und ultra.

WEGA
2004-04-13, 12:05:14
war sogra nur alu soweit ich weis @ BodyLove

DrumDub
2004-04-13, 12:08:09
Original geschrieben von BodyLove
@drumdub

echt? so leise bei MSI? hatten die nicht diesen großen Kupferkühler? Imho sah es nicht gerade sehr perfomant aus. Naja, nach dem Aussehen sollte man es nicht beurteilen, waS?

die msi ist echt genial, was die kühllösung angeht. das wird dir stefan payne bestätigen.
können auch 0,9 sone sein, hab ich das an anderer stelle gelesen. auf jeden fall seeehr leise.

Gast
2004-04-13, 12:11:28
Original geschrieben von seahawk
Für den X880XT ist es wahrscheinlicher.


1. Was ne Wortkreation... X880XT, des ist doch der Zungenbrecher schlecht hin.
2. Woher weisst dud as?

WEGA
2004-04-13, 12:13:51
Original geschrieben von Gast
1. Was ne Wortkreation... X880XT, des ist doch der Zungenbrecher schlecht hin.
2. Woher weisst dud as?

das x is ne römichse 10 also 10800xt gesprochen

stav0815
2004-04-13, 12:17:25
is des jetzt nicht auch eher vermutung ? Übrigens spricht man X als X aus und nich als 10 *klugscheiss* *feststell dass sich Latein doch gelohnt hat*

DrumDub
2004-04-13, 12:21:49
Original geschrieben von WEGA
war sogra nur alu soweit ich weis @ BodyLove

richtig. aluminium mit kupferbeschichtung.

DrumDub
2004-04-13, 12:21:50
doppel. bitte löschen.

reunion
2004-04-13, 12:59:57
Original geschrieben von Gast
1. Was ne Wortkreation... X880XT, des ist doch der Zungenbrecher schlecht hin.
2. Woher weisst dud as?

Der R423 mit PCIe-Schnittstelle wird auf den namen X880XT hören.

AlfredENeumann
2004-04-13, 13:04:19
Original geschrieben von Ailuros
Mir persoenlich ist es wurscht wie es die IHVs anrichten und wo die sweet spots liegen.

Dass ATIs Methode mit dem abschalten von Blocks angeblich unrentabel sein soll hoere ich jetzt schon seit 1.5 Jahren. Da hiess es dass ATI sich nicht lange halten wird, dass sie keinen Gewinn sehen werden usw usw.

Eben.
Und ich möchte gerne mal sehen wo geschrieben steht das NV pro DIE bezahlt.
Soweit ich weis war es auschl. beim NV30 so.

Ailuros
2004-04-13, 13:15:50
Der Gewinn im high end ist ja eh minimal. Hauptsache IHVs verkaufen ultra high end Loesungen nicht mit Verlust, was wohl sehr selten vorkommen sollte.

LovesuckZ
2004-04-13, 13:18:39
Original geschrieben von Ailuros
Der Gewinn im high end ist ja eh minimal. Hauptsache IHVs verkaufen ultra high end Loesungen nicht mit Verlust, was wohl sehr selten vorkommen sollte.

Das ist jetzt aber ein Widerspruch zu dem, was im Quote von AEN steht...
Wenn ATi schon einen Verlust im High End (hier XT) haette, dann waere eine Rentabilitaet der kleineren version ins keinster Weise erreichbar.

Ailuros
2004-04-13, 13:23:48
Wer sagte was von einem Verlust bei der XT? Ich muss was verpasst haben.

Obwohl ich nicht weiss ob der NV30 tatsaechlich mit Verlust oder ohne verkauft wurde, waere er der einzige Kandidat in letzter Zeit an den ich denken koennte. Ich konnte die re-spins schon gar nicht mehr mitzaehlen durch 2002....

LovesuckZ
2004-04-13, 13:25:29
Original geschrieben von Ailuros
Wer sagte was von einem Verlust bei der XT? Ich muss was verpasst haben.


Nein, aber allgemein, dafür auch konjunktiv 2 :):

Der Gewinn im high end ist ja eh minimal. Hauptsache IHVs verkaufen ultra high end Loesungen nicht mit Verlust, was wohl sehr selten vorkommen sollte.

Siehe letzten Abschnitt.

Ailuros
2004-04-13, 13:28:27
Ich hatte keine bestimmte Loesung oder IHV im Kopf als ich den Satz schrieb. Nur ein genereller Kommentar.

Sunrise
2004-04-13, 14:17:38
Der große Vorteil der ATI-Strategie liegt meiner Meinung nach eindeutig in der sehr schnellen Verfügbarkeit von Mid-(Ultra)-High-End. (time to market approach)

[Spekulation]
Man benötigt 1 PCB, welches -womöglich- durch verschiedenste Layout-Tests und Absicherungen zwar etwas teurer in der Produktion ist, kann es dafür aber auch sofort bei o.g. Produkten nutzen. Dies ist mittlerweile vornehmlich dem Board-Partner überlassen. (Sapphire als Hauptpartner)

Übrigens teile ich nicht die Meinung, dass man bei ATI mit dem High-End keine Gewinne macht, ich schätze gerade bei ATI dürfte das Verhältniss konträr zu dem bei NVIDIA stehen.

Die "günstigen" Varianten (statt Ausschuss, schöpft man hier allerdings noch vielleicht 10% des Umsatzes ab) dürften weitaus schlechtere Margen haben, als jede High-End-Karte von ATI.
[Spekulation]

Gast
2004-04-13, 14:25:09
trotzdem, was man verkauft statt auf die Halde zu werden bringt ned so viel verlust als laute kaputte nichmehr verwendete

Quasar
2004-04-13, 14:33:22
Was aber, wenn man an z.B. 5 EUR Gewinn an jedem dieser so vertickten Chips macht.

Später bringt man dan eine echte Mid-Range Serie, bei der man dann 15 EUR Gewinn je Chip macht.

Selbst wenn nur jeder zweite der "Abgespeckt"-Käufer dann später zur echten Mid-Range-Karte gegriffen hätte, wäre im Endeffekt ein "entgangener Gewinn" da.

Sunrise
2004-04-13, 14:42:01
Original geschrieben von Quasar
Was aber, wenn man an z.B. 5 EUR Gewinn an jedem dieser so vertickten Chips macht.

Später bringt man dan eine echte Mid-Range Serie, bei der man dann 15 EUR Gewinn je Chip macht.

Selbst wenn nur jeder zweite der "Abgespeckt"-Käufer dann später zur echten Mid-Range-Karte gegriffen hätte, wäre im Endeffekt ein "entgangener Gewinn" da.
Es ist sicher nicht der "eleganteste" Weg, da stimme ich dir vollkommen zu Quasar. Nur scheint man dadurch relativ schnell o.g. Segmente abzudecken, und fast jeder Käufer hat in seinem Segment die entsprechende Karte fast zeitgleich verfügbar (falls die restlichen Randbedingungen stimmen).

ATI scheint jedenfalls gewillt zu sein, diese 10EUR / Chip zu opfern, um damit eine größere Klientel ansprechen zu können. Zumindest auf der Basis meiner "Vermutungen" macht alles andere keinen Sinn.

NV hat durch die 5200er Serie und deren Erfahrung im OEM-Markt natürlich ordentlich Gewinn eingefahren, und ich gehe davon aus, dass die neuen "Kleinen" wohl einen ähnlichen Weg gehen werden. Ob 0.11µm jetzt schon dafür vorbereitet wird ist mir leider nicht bekannt, dieses Mal wird ATI aber sicher gegenhalten. (RV370 oder/und RV380).

Demirug
2004-04-13, 14:43:09
Was mich bei dieser ganzen Sache mit den Pipelines am meisten wundert ist die sache mit der 8 Pipe Variante. Die Wahrscheinlichkeit das man zwei Kills auf einem Chip hat die zwei Pipelines töten ist eigentlich nicht sonderlich hoch.

Wenn es also wirklich nur um eine bessere Ausbeute geht kann das IMHO nur heisen das TSMC den Prozess immer noch nicht so richtig im Griff hat und man daher heftige Probleme hat die Chips mit der normalen Spannung auf die Taktraten zu bekommen. Pipes abschalten wirkt sich da ja gut auf die dynamische Energieverteilung aus was ein grosses Problem bei CMOS ist.

ShadowXX
2004-04-13, 14:54:40
Original geschrieben von Demirug
Was mich bei dieser ganzen Sache mit den Pipelines am meisten wundert ist die sache mit der 8 Pipe Variante. Die Wahrscheinlichkeit das man zwei Kills auf einem Chip hat die zwei Pipelines töten ist eigentlich nicht sonderlich hoch.

Wenn es also wirklich nur um eine bessere Ausbeute geht kann das IMHO nur heisen das TSMC den Prozess immer noch nicht so richtig im Griff hat und man daher heftige Probleme hat die Chips mit der normalen Spannung auf die Taktraten zu bekommen. Pipes abschalten wirkt sich da ja gut auf die dynamische Energieverteilung aus was ein grosses Problem bei CMOS ist.

Da hast du recht...die 16-Pipe Ausbeute muss dafür wirklich super-mies sein...im Prinzip fast die Ausnahme darstellen.
Das Taktproblem käme ja sogar noch als Verschlimmerung dazu...(hoffentlich wirds kein zweiter r200....)

Allerdings soll die SE-Variante auch erst sehr viel später vorgestellt werden (sogar erst nach der XT).
Vielleicht müssen sie erst genügend Chips einsammeln, bei denen nur ein quad funktioniert....;D

LovesuckZ
2004-04-13, 14:57:36
Wie wollen sie eigentlich XT und r423 unter einen Hut bringen? Chipmenge aufteilen? Eins auslaufen lassen?

ShadowXX
2004-04-13, 15:07:26
Original geschrieben von LovesuckZ
Wie wollen sie eigentlich XT und r423 unter einen Hut bringen? Chipmenge aufteilen? Eins auslaufen lassen?

Sind doch zwei verschiedene Chips??

Die r420 ist nativ AGP und der r423 ist nativ PCI-E...

Den Rest regelt die Nachfrage...

Gast
2004-04-13, 15:24:38
Original geschrieben von ShadowXX
Sind doch zwei verschiedene Chips??

Die r420 ist nativ AGP und der r423 ist nativ PCI-E...

Den Rest regelt die Nachfrage... Die Frage ist ja ob die bisherige Planung von R420 == AGP-only und R423 == PCI-Express only eingehalten wird. Da habe ich so meine Zweifel. Entweder wird es den R420 deutlich länger geben als geplant oder der R423 wird ganz verschoben und kommt erst nach einem Refresh des R420 mit AGP.

WEGA
2004-04-13, 15:31:57
im juli kommt r423 ...

Gast
2004-04-13, 15:33:39
Original geschrieben von WEGA
im juli kommt r423 ... Wer's glaubt ;). Bis jetzt gibt es noch nicht mal Ankündigungen von PCI-Express Boards für den AMD K8...

WEGA
2004-04-13, 15:38:30
Original geschrieben von Gast
Wer's glaubt ;). Bis jetzt gibt es noch nicht mal Ankündigungen von PCI-Express Boards für den AMD K8...

die kommen auch ohne ankündigung

Gast
2004-04-13, 15:40:44
Original geschrieben von WEGA
die kommen auch ohne ankündigung Nicht wirklich. Ohne Chipsätze keine Mainboards.

WEGA
2004-04-13, 16:00:15
Original geschrieben von Gast
Nicht wirklich. Ohne Chipsätze keine Mainboards.

die gibts doch auch schon. zwar nicht zu kaufen aber es gibt sie shcon. VIA pt880 kann auch shcon pci-E udn den kann man schon kaufen. edit: ach ne das war pci-x

aber was solls ich hab doch shcon duzende pci-e mainboards auf der cebit gesehen

Exxtreme
2004-04-13, 16:10:38
Neuer Teaser:

http://m3.doubleclick.net/864178/ATI_1820_Teaser_120x600.gif

deekey777
2004-04-13, 16:16:00
Auf THG.com?

betasilie
2004-04-13, 16:28:49
Original geschrieben von Exxtreme
Neuer Teaser:

http://m3.doubleclick.net/864178/ATI_1820_Teaser_120x600.gif
So langsam sollte wohl klar sein, worum es sich handelt. ;D

thop
2004-04-13, 16:31:48
Ist das nicht die Dame aus Hl2? :o

LovesuckZ
2004-04-13, 16:32:24
Ja, ATi hat die umwerfende Idee gehabt, ihre neuen Karten mit einen weiblichen, aus bits und byte bestehenden Model zu verkaufen...
Waere es ein mann, dann koennte man Innovations sagen. bei der Frau wird es nur ein "Klon".

Mr. Lolman
2004-04-13, 16:36:07
Original geschrieben von LovesuckZ
Ja, ATi hat die umwerfende Idee gehabt, ihre neuen Karten mit einen weiblichen, aus bits und byte bestehenden Model zu verkaufen...
Waere es ein mann, dann koennte man Innovations sagen. bei der Frau wird es nur ein "Klon".


Stimmt. Ein Elfenverprügelnder Wrestler wär schon lustig...

DrumDub
2004-04-13, 16:37:20
Original geschrieben von LovesuckZ
Waere es ein mann, dann koennte man Innovations sagen.

das wär DER schachzug für die masse der schwulen 3d-gamer. *eg*

aber bitte was ist an ner sexy dame als werbemittel innovativ?


thop

die hl2-tussi isses wohl nicht. die sieht nicht so gut aus und hat nicht so volle lippen.

thop
2004-04-13, 16:39:18
stimmt ist ne andere. aber irgendwo hab ich die auch schon mal gesehen :kratz2:

Mehrpack
2004-04-13, 16:46:34
Original geschrieben von Mr. Lolman
Stimmt. Ein Elfenverprügelnder Wrestler wär schon lustig...

hi,
rofl, das hätte dann schon was von vergleichender werbung, aber ob dann nicht alle karten ab 18 verkauft werden müssten oder sogar indiziert würden :D

Mehrpack

WEGA
2004-04-13, 17:05:29
Original geschrieben von Mehrpack
hi,
rofl, das hätte dann schon was von vergleichender werbung, aber ob dann nicht alle karten ab 18 verkauft werden müssten oder sogar indiziert würden :D

Mehrpack

na dann kommt der NV Höllenschmied und macht den wrestler kalt *fg*

ironMonkey
2004-04-13, 17:16:23
Aber wenn das ein Schwuler Wrestler ist dann ist der Höllenschmied gefi......;D


Gruß

Endorphine
2004-04-13, 17:47:19
Original geschrieben von Mr. Lolman
Stimmt. Ein Elfenverprügelnder Wrestler wär schon lustig... Mensch Lolman, kannst du solche Postings nicht einfach mal sein lassen? Wir sind hier nicht im Kindergarten. Wenn dich LovesuckZ stört klicke einfach auf diesen Link (http://www.forum-3dcenter.org/vbulletin/member2.php?s=&action=addlist&userlist=ignore&userid=1970).

Endorphine
2004-04-13, 17:48:06
Und alle steigen noch auf diesen Flamemüll ein. Was soll das?

Endorphine
2004-04-13, 17:52:54
Original geschrieben von WEGA
die gibts doch auch schon. zwar nicht zu kaufen aber es gibt sie shcon. VIA pt880 kann auch shcon pci-E udn den kann man schon kaufen. edit: ach ne das war pci-x

aber was solls ich hab doch shcon duzende pci-e mainboards auf der cebit gesehen Es gibt nur welche für den P4, aber keinen einzigen für den AMD K8. Ohne Chipsätze keine Mainboards.

Gast
2004-04-13, 17:53:14
Wie die kleinen Kinder, die sich auf ihr neustes Spielzeug freuen.

Radeonator
2004-04-13, 18:01:16
Hmmm, ist das eigentlich absicht das ATi sich so mit Infos zurück hält? Eine PR Strategie ala ATi ?

So nach dem Motto : Da habter Se, ohne viel Werbung, mit viel Power! ???

So langsam ist das komisch...:-(

Gast
2004-04-13, 18:01:23
Original geschrieben von Endorphine
Und alle steigen noch auf diesen Flamemüll ein. Was soll das?
LS ist doch bekannt dafür sowas loszutreten. Also beschwer dich bei der Moderation.

deekey777
2004-04-13, 18:05:35
Original geschrieben von betareverse
So langsam sollte wohl klar sein, worum es sich handelt. ;D

Hm, Denise Richards ist es nicht.

@Endorphine: Der Post mit dem Link ("Hier klicken") war nicht lustig, aber wirksam.

Endorphine
2004-04-13, 18:07:42
Original geschrieben von Gast
LS ist doch bekannt dafür sowas loszutreten. Also beschwer dich bei der Moderation. Lolman hat das Niveau nach unten gebracht, nicht LS. Augen auf junger Jedi.

ironMonkey
2004-04-13, 18:08:40
Original geschrieben von Radeonator
Hmmm, ist das eigentlich absicht das ATi sich so mit Infos zurück hält? Eine PR Strategie ala ATi ?

So nach dem Motto : Da habter Se, ohne viel Werbung, mit viel Power! ???

So langsam ist das komisch...:-(


Die Offentlichkeit weiß an sich schon alles über den R420, was aber an sich egal ist da ja auch einiges verbessert wurd und das kann man nicht ganz einfach einschätzen, aber im großen und ganzen wird sich nichts mehr ändern.


Werbung wird noch genug kommen.


Gruß

deekey777
2004-04-13, 18:11:44
Original geschrieben von Radeonator
Hmmm, ist das eigentlich absicht das ATi sich so mit Infos zurück hält? ...

Purer Zufall...

seahawk
2004-04-13, 18:12:08
Die typische Taktik bei einem Release des Konkurrenten.

Verwirren, Verunsichern und Verarschen umd es mal auf Deutsch zu sagen.

WEGA
2004-04-13, 19:27:17
Original geschrieben von Endorphine
Es gibt nur welche für den P4, aber keinen einzigen für den AMD K8. Ohne Chipsätze keine Mainboards.

OMG ?!!? waren die pci-E mainboards samt grafikkarte dii ich gesehen habe nur aus pape ??!?! gehts noch O_o

und zwar ist das k8T890

stav0815
2004-04-13, 19:50:40
keine Mainboards mit PCI-E für K8 ? naja, ULi, SiS und VIA haben welche angekündigt und tlw. auf Cebit vorgestellt... aber mal so nebenbei :asshole:

WEGA
2004-04-13, 19:58:35
gleich sagt er wieder: ohne chips keine meinboards O_o

nVIDIA hast du vergessen *g*

Hellfire-Torrod
2004-04-13, 21:11:36
Ati hat sich was Neues (http://www.ati.com) ausgedacht
hm..scheint so als würde es auch bei Ati bald so weit sein?!

deekey777
2004-04-13, 21:15:43
Original geschrieben von Hellfire-Torrod
Ati hat sich was Neues (http://www.ati.com) ausgedacht
hm..scheint so als würde es auch bei Ati bald so weit sein?!

Die Rockerbraut...

LovesuckZ
2004-04-13, 21:34:17
Original geschrieben von Hellfire-Torrod
Ati hat sich was Neues (http://www.ati.com) ausgedacht
hm..scheint so als würde es auch bei Ati bald so weit sein?!

Ja, am 26. Ich koennte aber wetten, morgen werden wir ein paar mehr Einzelheitene erfahren, vielleicht auch schon eine Karte sehen.

Hellfire-Torrod
2004-04-13, 21:34:52
Die soll nur aufpassen das sie mit ihrem blöden motorfahrad nicht die arme arme meerjungfrau überfährt :D :-(

betasilie
2004-04-13, 21:35:54
Original geschrieben von LovesuckZ
Ja, am 26. Ich koennte aber wetten, morgen werden wir ein paar mehr Einzelheitene erfahren, vielleicht auch schon eine Karte sehen.
Denke ich auch.

Windi
2004-04-13, 21:41:37
Ich glaub auf dem Teaser ist wirklich die HL² Lady.
Dazu passen auch die Handschuhe auf der ATI Homepage. www.ati.com
Hab gerade ein HL² Poster zur Hand ;D und sie trägt dieselben Handschuhe, die Hautfarbe ist auch sehr ähnlich, nur der Mund passt nicht so ganz.

betasilie
2004-04-13, 21:50:35
http://www.forum-3dcenter.org/vbulletin/attachment.php?s=&postid=1699729
Der teaser war vor ein paar Tagen bei www.gamespy.com geschaltet. Mehr muss man wohl nicht wissen. ... Der HL2-Benchmark ist das mindeste, was mit dem R420 erscheint.

egdusp
2004-04-13, 21:53:05
Original geschrieben von Windi
Ich glaub auf dem Teaser ist wirklich die HL² Lady.
Dazu passen auch die Handschuhe auf der ATI Homepage. www.ati.com
Hab gerade ein HL² Poster zur Hand ;D und sie trägt dieselben Handschuhe, die Hautfarbe ist auch sehr ähnlich, nur der Mund passt nicht so ganz.

Wer sagt denn, dass Valve die Dame nicht noch etwas umgemodelt hat?
Sozusagen als Kaufanreiz für alle die die Alpha schon haben: "Jetzt mit noch volleren Lippen und weniger Textilien." :)

mfg
egdusp

Windi
2004-04-13, 22:02:11
@ betaserve
Das war wohl ein kleiner Marketingfehler von ATI. :asshole: Auf ihrer Hompage wollen sie ja noch richtig Spannung erzeugen.

@egdusp
Sie hat eigentlich keine Änderungen nötig. Hauptsache aus ihr wird keine Lara Croft gemacht.

Neo69
2004-04-13, 22:02:48
sieht wohl so aus, als ob ATI HL2 bundelt und zum hype benutzt, und nvidia das ganze mit doom3...schon witzig.

WEGA
2004-04-13, 22:04:03
Original geschrieben von Windi
@egdusp
Sie hat eigentlich keine Änderungen nötig. Hauptsache aus ihr wird keine Lara Croft gemacht.

die figur is doch nur gezeichnet und nicht die "echte" ausm spiel

WEGA
2004-04-13, 22:05:51
Original geschrieben von Neo69
sieht wohl so aus, als ob ATI HL2 bundelt und zum hype benutzt, und nvidia das ganze mit doom3...schon witzig.

ich hoffe nur sehr, dass man HL2 auch normal mit ner NV und Doom3 anständig mit ner ATI zocken kann

Odal
2004-04-13, 22:45:49
Original geschrieben von WEGA
ich hoffe nur sehr, dass man HL2 auch normal mit ner NV und Doom3 anständig mit ner ATI zocken kann

kann man, verlass dich drauf

ironMonkey
2004-04-13, 23:06:24
Original geschrieben von WEGA
ich hoffe nur sehr, dass man HL2 auch normal mit ner NV und Doom3 anständig mit ner ATI zocken kann

Stell auf Einfach, dann sollte es keine Probleme geben;D ...


Ich sehe keinen Grund warum die Spiele nicht auf einer der beiden Karten laufen sollten, sicher hat der eine hier und der andere dort Vorteile, aber damit hts sich auch schon.



Gruß

Godmode
2004-04-13, 23:21:13
http://www.3dfestival.com/2004/conferences/speakers.php

Ganz oben ist ein Banner mit ner Frau drauf die so ähnlich aussieht wie die auf ATI.com und Handschuhe hat sie auch an :)

Gast
2004-04-14, 09:35:04
Original geschrieben von LovesuckZ
Ja, am 26. Ich koennte aber wetten, morgen werden wir ein paar mehr Einzelheitene erfahren, vielleicht auch schon eine Karte sehen.


Glaube ich nicht.

Nachdem ATi Monatelang so dicht gehalten hat werden die Journalisten, die heute bei ATi zum Briefing sind bestimmt keine Infos leaken. Nach dem Briefing bei Nvidia vor 2 Wochen sind ja auch keine Infos zu Tage gekommen. Erst in den letzten Tagen gab es kleine Häppchen.

Sollten die Core/RAM-Taktraten stimmen die man von beiden Konkurrenten so kennt (400<->500; 550<->800) dann dürfte ATi sowieso keinen Grund haben sich vor Nvidia zu fürchten. Der einzige Mangel wird wohl der schlechtere PS3.0-Support sein, weshalb sie hier ja auch extrem gemauert haben.

ShadowXX
2004-04-14, 10:22:00
Original geschrieben von Gast
Glaube ich nicht.

Nachdem ATi Monatelang so dicht gehalten hat werden die Journalisten, die heute bei ATi zum Briefing sind bestimmt keine Infos leaken. Nach dem Briefing bei Nvidia vor 2 Wochen sind ja auch keine Infos zu Tage gekommen. Erst in den letzten Tagen gab es kleine Häppchen.

Sollten die Core/RAM-Taktraten stimmen die man von beiden Konkurrenten so kennt (400<->500; 550<->800) dann dürfte ATi sowieso keinen Grund haben sich vor Nvidia zu fürchten. Der einzige Mangel wird wohl der schlechtere PS3.0-Support sein, weshalb sie hier ja auch extrem gemauert haben.

a.) Die Sachlage ist jetzt allerdings eine etwas andere...nV hat die Karten (im warsten sinne des Wortes) ja nun auf den Tisch gelegt, deshalb würde es mich durchaus nicht Wundern, wenn ATI nun anfangen würde stückchenweise Infos rauszulassen...wenn nicht offiziell, dann eben "geduldet" inoffiziel.
Es würde mich zumindest Wundern, wenn ATI lange tatenlos zuguckt, wie nV von allen Seiten mit "ahhhhhs" und "ooohhhhs" zugehimmelt wird.
Es wird der eine oder andere von ATI unkommentierte einzelne Benchmarkvergleich zwischen r420Pro/XT und der nv40Ultra im Netz auftauchen...natürlich selektiert auf Benches, wo der r420 besser aussieht...

b.) gar kein PS3.0....vielleicht VS3.0

WEGA
2004-04-14, 10:39:47
Original geschrieben von ironMonkey
Stell auf Einfach, dann sollte es keine Probleme geben;D ...


Ich sehe keinen Grund warum die Spiele nicht auf einer der beiden Karten laufen sollten, sicher hat der eine hier und der andere dort Vorteile, aber damit hts sich auch schon.



Gruß

ich spiele kein singelplayer =P

Sphinx
2004-04-14, 13:23:32
Original geschrieben von ShadowXX

a.) Die Sachlage ist jetzt allerdings eine etwas andere...nV hat die Karten (im warsten sinne des Wortes) ja nun auf den Tisch gelegt, deshalb würde es mich durchaus nicht Wundern, wenn ATI nun anfangen würde stückchenweise Infos rauszulassen...wenn nicht offiziell, dann eben "geduldet" inoffiziel.

Ich denke mal wie immer wird es Schlupflöcher geben die was durchschimmern lassen werden...


Es würde mich zumindest Wundern, wenn ATI lange tatenlos zuguckt, wie nV von allen Seiten mit "ahhhhhs" und "ooohhhhs" zugehimmelt wird.


^^ Was wenn sie gar keinen Grund haben neidisch zu Reagieren ? Schon mal ein nachgefragt ob die Mitarbeiter bei Ati heute Betrübt die Firma verlassen oder mit einem Grinsen im Gesicht (Siehe Ankündigung Ati). Ich glaube im ernst das R420 der Überflieger schlecht hin sein wird... Erinnert mich sehr stark wie sie den R300 Released hatten...



Es wird der eine oder andere von ATI unkommentierte einzelne Benchmarkvergleich zwischen r420Pro/XT und der nv40Ultra im Netz auftauchen...natürlich selektiert auf Benches, wo der r420 besser aussieht...


^^Ich glaub nicht.

][immy
2004-04-14, 13:36:52
nun.. noch ist mein performance-könig für diese generation ATi

zwar hat nvidia eindeutig einen technologievorteil, doch die vergangenheit hat schon gelehrt, das diese technologien meist nichts bringen, da sie nicht genutzt werden


einen entscheidenen vorteil hat ATi gegenüber nvidia auf jeden fall.
dadurch das sie vorher eigendlich nichts über den chip gesagt haben, können sie ansich niemanden enttäuschen ;)
aber dieser "Vorteil" wird meiner meinung nach nicht genutzt werden müssen.
durch diese geheimhaltungspolitik kann man natürlich auch einen schnellen chip entwickeln, mit dem die konkurenz einfach nicht rechnet (siehe R300)
das ATi nochmals so ein überaschungserfolg gelingt hoffe ich zwar, aber wirklich glauben kann ich es nicht

da es anfangs noch hieß 8 pipes und trotzdem sehr viel höhere geschwindigkeit als der R300 (es war die rede von 2-3fache geschwindigkeit) sollte dies mit 12-16 nochmals deutlich auffallender sein. ich glaub zwar nicht an eine 3fache steigerung der geschwindigkeit, aber doppelte könnte es durchaus sein

nur frage ich mich noch wo die bandbreite herkommen soll. ok, das 256 bit speicherinterface + recht hohe taktraten sollten mehr als genug für die 8 pipes bieten (selbst mit AA) aber bei 12-16 pipes. obwohl mit gddr3 speicher sollte man auch einiges an bandbreite herausholen können

ShadowXX
2004-04-14, 14:15:30
Original geschrieben von Sphinx
^^ Was wenn sie gar keinen Grund haben neidisch zu Reagieren ? Schon mal ein nachgefragt ob die Mitarbeiter bei Ati heute Betrübt die Firma verlassen oder mit einem Grinsen im Gesicht (Siehe Ankündigung Ati). Ich glaube im ernst das R420 der Überflieger schlecht hin sein wird... Erinnert mich sehr stark wie sie den R300 Released hatten...


Mein Kommentar war nicht negativ gegenüber ATI gemeint, falls du das missinterpretiert haben solltest...

Ob der r420 der Überflieger wird, müssen wir abwarten, nV hat die Latte zumindest nicht gerade tief angesetzt.

Klar, es kann sein, dass bei ATI momentan alle lachend auf dem Boden liegen, weil schon die r420SE die nV werte erreicht (nicht ernst gemeint..).
Ebensogut kann es sein, das ATI nun sieht, das Sie eine Punktlandung hinbekommen haben, und sich die beiden Chips nichts nehmen.

Zugeben würde keiner von beiden, wenn Sie ihr "internes" Ziel nicht erreicht haben...und eine vorgabe gabs bestimmt.

Bei nV wohl...schneller/gleichschnell als ATI, um fast jeden Preis. Und bei ATI....Zeigen, dasss es keine Eintagsfliege war...

Noch viel interner (da gibts bestimmt keine Steigerung, deshalb schon mal sorry an aths), werden diese Vorgaben vielleicht noch ganz anders ausgesehen haben...

Aber man kennt das doch von Fussballtrainern...egal wie hoch man verloren hat, hat man eigentlich gar nicht verloren.....

Ailuros
2004-04-14, 15:22:43
Ich will wagen zu spekulieren, dass der X800PRO verdammt nahe an 6800U liegt; es haengt wohl von der finalen Taktrate vom X800XT am Ende ab.

Endorphine
2004-04-14, 17:18:32
Original geschrieben von Ailuros
Ich will wagen zu spekulieren, dass der X800PRO verdammt nahe an 6800U liegt; es haengt wohl von der finalen Taktrate vom X800XT am Ende ab. Da der NV40U ja nun die Messlatte hoch gelegt hat ist ATI nun genau im selben Zugzwang wie NV mit dem NV30 auf den R300. Ich könnte es mir gut vorstellen, dass ATI mit einem Extrem-OC R420 einen hauchdünnen Vorsprung erarbeitet, dafür aber dann monatelang nur homöopathische Dosen an R420XT ausliefern wird...

Gast
2004-04-14, 17:35:39
Also ich persölich finde jetzt die Messlatte nicht so dolle. Nett isser der NV40.

Denke eher, dass ATI mit dem R420 den NV 40 mal so nebenbei in die Tasche steckt - ohne oc.

Endorphine
2004-04-14, 17:44:08
Original geschrieben von Gast
Also ich persölich finde jetzt die Messlatte nicht so dolle. Nett isser der NV40.

Denke eher, dass ATI mit dem R420 den NV 40 mal so nebenbei in die Tasche steckt - ohne oc. Die Hoffnung stirbt zuletzt. Sry X-D.

p.s. Mit OC meinte ich natürlich dass die Karten bereits ab Werk am absoluten Limit laufen, so wie der NV30U.

WEGA
2004-04-14, 17:45:43
selbst die x800pro steckt die nv40u weg wie nix. und noch dazu brauhct die nicht so viel strom. die hat ja auhc weniger transistoren

das si meine vermutung^^

Endorphine
2004-04-14, 17:50:19
Ich hab meinen Spam mal hier hin "verschoben": http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=137019

:sulkoff:

DrumDub
2004-04-14, 18:01:48
endo

wartens wir einfach ab. ;)

nv hat auf jeden fall (bis auf die ansio-geschichte), die beste hardware seit der gf3 vorgelegt. technologisch haben sie jetzt sowieso die nase vorn.

Gast
2004-04-14, 18:02:49
muß denn der R420 den nv40 performancetechnisch nicht zwingend in die tasche stecken? denn wenn sich die gerüchte bewahrheiten und ihm ps3.0-support gänzlich abgeht und sie darüberhinaus noch ein paar prozentpunkte hintendranhängt - dann können sie vielleicht für die x800xt max. 250-300euronen verlangen. und ob sich das rentiert?

Winter[Raven]
2004-04-14, 18:08:24
technologisch haben sie jetzt sowieso die nase vorn

Wieso jetzt?

Die ahben sie mit dem NV30 auch nicht abgegeben, den R320 kommt ned man das ran was ein NV30 konnte.

Endorphine
2004-04-14, 18:09:28
Original geschrieben von Winter[Raven]
Wieso jetzt?

Die ahben sie mit dem NV30 auch nicht abgegeben, den R320 kommt ned man das ran was ein NV30 konnte. Die Rx3xx Reihe ist den FXen so ziemlich überall überlegen. AA, Shaderleistung, Rohleistung, Leistungsaufnahme, Preis, Platinengrösse, Verfügbarkeit und zeitweise auch bei den Treibern.

Gast
2004-04-14, 18:09:38
Original geschrieben von Endorphine
Die Hoffnung stirbt zuletzt. Sry X-D.

p.s. Mit OC meinte ich natürlich dass die Karten bereits ab Werk am absoluten Limit laufen, so wie der NV30U.

Mit dem oc hab ich dich schon verstanden!

Als "Nixwisser" nehm ich die 9800XT, spendiere dieser gedanklich 8 weitere Pipes und spekuliere, dass das leicht reichen sollte.

Also Hoffnung ist das bei mir eher nicht. Wenig Ahnung triffts genau.

Winter[Raven]
2004-04-14, 18:13:09
@ Endo

ES GEHT UM TECHNIK und nicht ob der Schnell odr langsamm ist, ob er viel verbraucht oder wenig, TECHNIK, das was der CHIP KANN.

Endorphine
2004-04-14, 18:18:11
Original geschrieben von Winter[Raven]
ES GEHT UM TECHNIK und nicht ob der Schnell odr langsamm ist, ob er viel verbraucht oder wenig, TECHNIK, das was der CHIP KANN. Wenn niemand die erweiterten Fähigkeiten des NV3x nutzt und wegen mangelnder Leistung manchmal sogar empfohlen wird, die FXen als DX8-Generation zu behandeln kann von technischem Vorsprung keine Rede sein. Theoretisch vielleicht, praktisch nicht. Und wenn schon Technik: das AA der Rx3xx-Reihe ist technisch überlegen, die (Shader-) Architektur ebenso. Zudem ist 8&times;1 einfach flexibler als 4&times;2. Der NV30 hatte ausserdem nur ein 128-Bit Speicherinterface, der R300 von Anfang an eines mit 256-Bit Breite.

Xmas
2004-04-14, 18:31:13
Original geschrieben von Gast
Sollten die Core/RAM-Taktraten stimmen die man von beiden Konkurrenten so kennt (400<->500; 550<->800) dann dürfte ATi sowieso keinen Grund haben sich vor Nvidia zu fürchten.
800 MHz RAM für X800Pro/XT? Vergiss es.
Ansonsten kommt viel auf den Preis und die Verfügbarkeit an. Wenn es z.B. ATI erst schafft, 16 Pipes zu liefern, wenn NVidia schon wieder an der Taktschraube drehen kann... da gibt es viele mögliche Szenarien. Andererseits könnte ATI der höhere Takt reichen. Zumal wir nicht wissen, wie die pro-Takt-Leistung wirklich aussieht.

ironMonkey
2004-04-14, 18:41:58
Original geschrieben von Xmas
800 MHz RAM für X800Pro/XT? Vergiss es.
Ansonsten kommt viel auf den Preis und die Verfügbarkeit an. Wenn es z.B. ATI erst schafft, 16 Pipes zu liefern, wenn NVidia schon wieder an der Taktschraube drehen kann... da gibt es viele mögliche Szenarien. Andererseits könnte ATI der höhere Takt reichen. Zumal wir nicht wissen, wie die pro-Takt-Leistung wirklich aussieht.

ATI will kurz nach dem Erscheinen die Karten so schnell es geht im Handel haben, X800Pro wird in 12 Tagen vorgestellt und kurz danach erhältlich sein, 1 Monat später kommt schon X800XT und da X800Pro und 6800 Ultra so ziemlich gleich in die Läden kommen sollen, müßte NV also jetzt schon eine schnellere Karte haben und wenn X800Pro der 6800Ultra das Wasser reichen kann................


Gruß

BodyLove
2004-04-14, 19:04:46
imho ist es auch für NV nicht wesentlich schwerer als bei ATI an der Taktschraube zu drehen. Schnellerer Speicher, 50Mhz mehr, und schon haben wir ein Refresh. Ein Alternativplan haben die ganz sicher. Wenn X800xt schneller ist, und ich es mir leisten kann, bzw. es weiträumig verfügbar ist, dann ist es meins. Imho sind diese AF-Optimierungen ein Dorn im Auge. Falls ATI solche Spielereien nicht (mehr) macht, dann werde ich mir eine ATi kaufen, egal ob knapp langsamer oder nicht.

DrumDub
2004-04-14, 19:50:17
Original geschrieben von Winter[Raven]
Wieso jetzt?

sagt dir der bedeutung des wortes sowieso etwas?

Winter[Raven]
2004-04-14, 19:53:21
Original geschrieben von DrumDub
sagt dir der bedeutung des wortes sowieso etwas?

Hrhr ... klaro ^^. *eg*

DrumDub
2004-04-14, 20:02:54
Original geschrieben von Winter[Raven]
Hrhr ... klaro ^^. *eg*

also. mit dem nv3x ist von der technologischen seite schon immer mehr möglich gewesen als mit dem r3x0, aber eben nicht schnell genug, um diese technologie in spielen sinnvoll einsetzen zu können. das hat nv jetzt eben mit dem nv4x ausgebügelt.

Godmode
2004-04-14, 20:07:18
Das mit dem AF regt mich auch wahnsinnig auf, warum müssen sie blos das übernehmen, was an ATI Karten am meisten kritisiert wird?

Naja würd mal sagen wir müssen uns da bei den DAU Reviewern beschweren die dass alles unter den Tisch kehrten.

Ich bin jedenfalls zufrieden mit meiner MSI.;D

Winter[Raven]
2004-04-14, 20:10:44
Angeblich kann man den Müll abstellen in demnächsten forceware. ;D

Odal
2004-04-14, 20:14:41
Original geschrieben von bans3i
Das mit dem AF regt mich auch wahnsinnig auf, warum müssen sie blos das übernehmen, was an ATI Karten am meisten kritisiert wird?

Naja würd mal sagen wir müssen uns da bei den DAU Reviewern beschweren die dass alles unter den Tisch kehrten.

Ich bin jedenfalls zufrieden mit meiner MSI.;D

naja und bei den DAU kaeufern die nur auf performance aus sind......


wenn der R420 kein winkelabhaengiges AF bzw. besseres AF bietet und nicht hoffnungslos unterlegen ist, kommt ein solches derivat in meinen rechner

Godmode
2004-04-14, 20:25:19
Original geschrieben von Winter[Raven]
Angeblich kann man den Müll abstellen in demnächsten forceware. ;D

Wondernice, wollte gerade fragen ob die den Adaptivenmodus in Sw oder Hw implementiert haben.

-error-
2004-04-14, 21:11:09
Um was für eine Karte handelt es sich?

http://pcweb.mycom.co.jp/news/2003/10/09/28ml.jpg