PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R520 schon Anfang 2005?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 [38] 39 40 41 42

reunion
2005-09-24, 12:40:09
ATi noch gar nichts *hust*

Man zeigte schon voll funktionsfähige Samples des R520 auf der E3.

Coda
2005-09-24, 12:43:50
Was soll denn bitte an einem Library-Wechsel so problematisch sein? Das hat nVIDIA in ihrer Geschichte schon zig-mal gemacht.

reunion
2005-09-24, 12:47:58
Was soll denn bitte an einem Library-Wechsel so problematisch sein? Das hat nVIDIA in ihrer Geschichte schon zig-mal gemacht.

Keine Ahnung. Ich habe hier allerdings eine relativ junge nV-Roadmap, wonach G71/73 schon erhältlich sein müssten - warum das wohl nicht so ist?

Coda
2005-09-24, 12:49:17
Weil es nicht nötig ist? Altes Zeug noch teurere verkaufen und so. Die Dinger sind definitiv schon in Mass-Production. NVIDIA wartet nur auf ATi...

Die gelbe Eule
2005-09-24, 12:56:22
Ich denke das kommt schon so hin und NV wird seine Karten schon rdy haben. ATI musste nachziehen, NV hat vorgelegt, falls einer das vergessen hat ...
Übrigens kann NV preislich locker dagegenhalten, da "alte" Chips fürs gleiche Geld mehr leisten.

http://www.hwupgrade.it/immagini/roadmap_ati_nvidia_luglio.jpg

robbitop
2005-09-24, 12:59:11
Das waren Design-Probleme, keine Prozess-Probleme. Das ist ein großer Unterschied.
wie sicher bist du dir da, dass Prozessprobleme völlig dabei rausfielen?
Yield und Taktrate gehören für mich zur Prozessreife natürlich dazu.
Ein paar Samples könnte man bestimmt auch schon irgendwo in 65nm produzieren, wenn man wollte.

-error-
2005-09-24, 13:00:03
Seiten die keine Ahnung von 3D haben, sollten sich die Details sparen.

Sei nicht so arrogant ;)

Jedenfalls haben die sicherlich Quellen die du nicht hast.

Die gelbe Eule
2005-09-24, 13:00:38
Das Design orientiert sich doch stark an NV, das ist nicht von der Hand zu weisen ...

robbitop
2005-09-24, 13:01:07
Man wird sehen, bis auf den relativ simplen C51 hat man bei nV in punkto 90nm noch nicht viel zeigen können.



G71 ist defintiv ein Mainstream G7x.
Diese IBM-Gerüchte sind Bullshit.
Weil sie noch nicht fertig sind ;)
IBM Gerüchte?

reunion
2005-09-24, 13:05:08
IBM Gerüchte?


Es gibt Gerüchte, wonach G71 ein bei IBM in 90nm gefertigter G70-Nachfolger ist.

Die gelbe Eule
2005-09-24, 13:07:40
Was ist eigentlich mit den besagten 512MB? Schaut man sich die Specs an, wird die CF Karte nur 256MB haben. Da frag ich mich warum? Ist das nicht eigentlich der Enthusiast Bereich, wo man gerne mehr RAM für hohe Auflösungen mit besten Filtereinstellungen hätte? Wieso die Beschneidung, wenn doch da die Performancekrone liegt?

Mumins
2005-09-24, 13:10:43
Das Design orientiert sich doch stark an NV, das ist nicht von der Hand zu weisen ...

Wenn man nahe am Optimum sein will gibts manchmal nur eine Lösung, das muss nicht bedeuten, dass da was abgekupfert wurde.

Coda
2005-09-24, 13:14:47
Das Design orientiert sich doch stark an NV, das ist nicht von der Hand zu weisen ...Welches Design?

Mumins
2005-09-24, 13:17:56
Welches Design?

Kartenlayout!

Die gelbe Eule
2005-09-24, 13:19:30
War ja auch nur so in den Raum geworfen, bleibe ja sachlich.

Sunrise
2005-09-24, 13:26:32
wie sicher bist du dir da, dass Prozessprobleme völlig dabei rausfielen?
Yield und Taktrate gehören für mich zur Prozessreife natürlich dazu.
Ein paar Samples könnte man bestimmt auch schon irgendwo in 65nm produzieren, wenn man wollte.

Die Taktrate und der Yield hängen natürlich direkt beeinander. Die Prozess-Reife insgesamt ist natürlich auch ausschlaggebend für die entsprechenden Yields und die Taktraten. Worum es mir aber geht ist, dass ATi schon seit Anfang Taktraten von >600MHz beim R520 anpeilte (sie mussten es, da sie den Weg mit den 4 Quads gingen) und die FAB bestätigte das Design mit den allseits bekannten Sign-Off-Werten. Dass der Yield sich mit der Zeit natürlich steigert, ist bei diesen Werten aber weniger von Belang, sondern bei Prozessen allgemein auch völlig normal.

Was ATi aber beim R520 dazwischen kam:

1. Probleme mit dem neuen Ring-Bus -> Design-bedingt
2. "Soft-Ground" Probleme -> Design-bedingt

Resultierend aus Problem 2 waren natürlich Taktraten, die nicht den Sign-Off-Werten entsprachen und die GPU übermäßig heiß wurde. RV530 hatte ähnliche Probleme, RV515 lief laut ATi dagegen von Anfang an völlig problemlos vom Band.

Für mich spricht dies alles, inklusive der Äußerungen seitens Dave Orton eindeutig für Probleme, die Design-bedingt waren. Dies war historisch gesehen bisher auch sehr oft der Fall, wenn völlig neue Designs auf einen völlig neuen und relativ unerprobten Prozess losgelassen wurden.

BlackBirdSR
2005-09-24, 13:36:38
2. "Soft-Ground" Probleme -> Design-bedingt



Und was sind deine Soft-Ground Probleme denn ausgeführt?
Es gibt einige Hinweise auf Gegenmaßnahmen und Symptome von typischen Leckströmen.

Ailuros
2005-09-24, 14:50:55
Da wird sich nV schnell was einfallen lassen müssen, mit ihrer GF6200.

Ich sehe zwar keine 3dmark Resultate mehr auf jeglicher der 3 Seiten dieses Threads, aber bei B3D steht dass es knapp unter 2900 Punkten in 3dmark05 sind.

Eine X600XT (500/370) erreicht 2082 Punkte hier:

http://www.xbitlabs.com/articles/video/display/2005-17gpu_39.html

Der score klingt mir als ziemlich normal.

Ailuros
2005-09-24, 14:55:34
Man zeigte schon voll funktionsfähige Samples des R520 auf der E3.

Prototypen bei ~565MHz von dem Haufen die schon zu Entwicklern im Maerz gezeigt wurden. Nach dem re-spin eben wo der memory controller zurecht gebiegt wurde. Pre-production samples.

http://www.hexus.net/content/beanz/beanz.php?dXJsX3Jldmlld19JRD0xNjI5

http://img.hexus.net/v2/graphics_cards/ati/avivo_early_look/images/x1800xt_big.jpg

Note the GPU on its 2nd silicon and 3rd metal spin.

*ahem*

Coda
2005-09-24, 14:56:02
Kartenlayout!Wenn man Spannungs- und Logikteil trennt dann wird jede Karte so aussehen. Finde ich jetzt nicht besonders spannend.

Ailuros
2005-09-24, 14:56:37
Die Taktrate und der Yield hängen natürlich direkt beeinander. Die Prozess-Reife insgesamt ist natürlich auch ausschlaggebend für die entsprechenden Yields und die Taktraten. Worum es mir aber geht ist, dass ATi schon seit Anfang Taktraten von >600MHz beim R520 anpeilte (sie mussten es, da sie den Weg mit den 4 Quads gingen) und die FAB bestätigte das Design mit den allseits bekannten Sign-Off-Werten. Dass der Yield sich mit der Zeit natürlich steigert, ist bei diesen Werten aber weniger von Belang, sondern bei Prozessen allgemein auch völlig normal.

Was ATi aber beim R520 dazwischen kam:

1. Probleme mit dem neuen Ring-Bus -> Design-bedingt
2. "Soft-Ground" Probleme -> Design-bedingt

Resultierend aus Problem 2 waren natürlich Taktraten, die nicht den Sign-Off-Werten entsprachen und die GPU übermäßig heiß wurde. RV530 hatte ähnliche Probleme, RV515 lief laut ATi dagegen von Anfang an völlig problemlos vom Band.

Für mich spricht dies alles, inklusive der Äußerungen seitens Dave Orton eindeutig für Probleme, die Design-bedingt waren. Dies war historisch gesehen bisher auch sehr oft der Fall, wenn völlig neue Designs auf einen völlig neuen und relativ unerprobten Prozess losgelassen wurden.


:up:

Horimoto
2005-09-24, 14:58:00
Wenn die X1300Pro also knapp 2900Punkte bekommt, wäre sie schneller als das MidEnd Produkt der jetzigen generation. Und wenn man jetzt davon ausgeht, dass die Karte dann ~100€ kosten dürfte, wäre das schon phantasitisch wie ich finde.
man kann zwar jetzt, anhand von einem 3dmark Ergebnisses keine Vorschnellen Urteile fällen, aber der 3dmark hat imo schon immer gut gezeigt, wie schnell eine Karte ist, ich meine:
6800Ultra: ~5500P
X850XTPE: ~6000P
7800GT: ~6500P
7800GTX: ~7500P
das spielgt imo die Leistung der Karten sehr gut wieder, oder was kann man daggegn sagen?

Sollte das 100$ produkt also knapp 3000Punkte bekommen, wäre das um einiges schneller als das 100$ Produkt von nVidia, und ads mit 4PP (3ALus?), was hier einige vergessen.
Mit 4PP also 3000Punkte, dann will ich gar nciht wissen, wie schnell die andren karten sind, weil ATi die Effizienz allen anschsins nach extrem erhöht hat.

deekey777
2005-09-24, 14:59:13
Welche Messe war im Mai?
http://www.beyond3d.com/news/images/image.php?img=http://www.beyond3d.com/news/images/20050519_r520.jpg&comment=R520

:|

LordDeath
2005-09-24, 15:02:32
3dmurks zeigt uns doch nur, dass ati und nvidia in der lage sind gleichwertig gute treiberoptimierungen für paar sekunden benchmarks bereitzustellen. über die wahre leistung der karten können wir daraus schonmal garnicht schließen...

Mastersdeath
2005-09-24, 15:03:35
Welche Messe war im Mai?
http://www.beyond3d.com/news/images/image.php?img=http://www.beyond3d.com/news/images/20050519_r520.jpg&comment=R520

:|

E3 :confused:

Ailuros
2005-09-24, 15:08:12
Wenn die X1300Pro also knapp 2900Punkte bekommt, wäre sie schneller als das MidEnd Produkt der jetzigen generation. Und wenn man jetzt davon ausgeht, dass die Karte dann ~100€ kosten dürfte, wäre das schon phantasitisch wie ich finde.
man kann zwar jetzt, anhand von einem 3dmark Ergebnisses keine Vorschnellen Urteile fällen, aber der 3dmark hat imo schon immer gut gezeigt, wie schnell eine Karte ist, ich meine:
6800Ultra: ~5500P
X850XTPE: ~6000P
7800GT: ~6500P
7800GTX: ~7500P
das spielgt imo die Leistung der Karten sehr gut wieder, oder was kann man daggegn sagen?

Sollte das 100$ produkt also knapp 3000Punkte bekommen, wäre das um einiges schneller als das 100$ Produkt von nVidia, und ads mit 4PP (3ALus?), was hier einige vergessen.
Mit 4PP also 3000Punkte, dann will ich gar nciht wissen, wie schnell die andren karten sind, weil ATi die Effizienz allen anschsins nach extrem erhöht hat.


Wenn dass die X1600XT@550MHz sein sollte mit den knapp 2900 Punkten dann sehe ich nicht die Uebersteigerung an Effizienz die ihr alle sehen moechtet. Nochmal:

http://www.xbitlabs.com/images/video/2005-17gpu/5dm_total.gif

http://www.xbitlabs.com/articles/video/display/2005-17gpu_39.html

Dabei (nochmal) steht eine 4*1/2VS X600XT@500MHz bei 2082 Punkten oben. Hat jetzt die X1600XT 4*1/4VS@550MHz ist der score stinknormal.

***edit: typo oben, sollte X1300XT heissen.

deekey777
2005-09-24, 15:16:15
Die X1300Pro soll doch 2900 3D Marks in 2005 erreichen, oder?

Mumins
2005-09-24, 15:17:51
Wenn man Spannungs- und Logikteil trennt dann wird jede Karte so aussehen. Finde ich jetzt nicht besonders spannend.

Ich auch nicht, wollte nur darauf hinweisen was wohl gemeint war.

Ailuros
2005-09-24, 15:19:33
Die X1300Pro soll doch 2900 3D Marks in 2005 erreichen, oder?

Mein typo; siehe oben. Eine PRO? Also 500MHz?

Ailuros
2005-09-24, 15:20:04
Welche Messe war im Mai?
http://www.beyond3d.com/news/images/image.php?img=http://www.beyond3d.com/news/images/20050519_r520.jpg&comment=R520

:|

Die Hexus Bilder sind nur ein paar Tage alt ;)

deekey777
2005-09-24, 15:23:22
Mein typo; siehe oben. Eine PRO? Also 500MHz?

http://www.coolaler.com/ipb/index.php?showtopic=67545&st=20

X1300Pro: 550/500 MHz.
Pro bedeutet für alle ab jetzt 550 MHz oder?

Horimoto
2005-09-24, 15:26:44
X600XT: 2000P
X1300: 2900P
bei selber Anzahl von PS und gleichem takt(? war es Pro oder SE?).
Das ist ein Unterschied von knapp 40%, und das ist viel, da kannste sagen was du willst.
Wenn eine
X850XT: 6000P
X1800XT: 8700P

Stimmt sogar, oder? Also können (Milchmädchnrechnung!) für einen X1800XT@600/700Mhz ~8700Punkte erwarten, grob geschätzt, was man eigentlih cniht sagen kann.....

Ailuros
2005-09-24, 15:28:04
Falscher Name, aber Taktrate war doch korrekt :P

deekey777
2005-09-24, 15:30:32
Falscher Name, aber Taktrate war doch korrekt :P

Du verwirrst mich. ;D

Wie es aussieht, tanzt die X1300 aus der Reihe, denn die XI600Pro und die XI800Pro sind beide mit 500MHz getaktet.

robbitop
2005-09-24, 15:43:10
Es gibt Gerüchte, wonach G71 ein bei IBM in 90nm gefertigter G70-Nachfolger ist.
Bei dem 90nm Prozess den IBM anzubieten hat? Klingt sofort absurt IMO.

Ailuros
2005-09-24, 15:44:28
X600XT: 2000P
X1300: 2900P
bei selber Anzahl von PS und gleichem takt(? war es Pro oder SE?).
Das ist ein Unterschied von knapp 40%, und das ist viel, da kannste sagen was du willst.
Wenn eine
X850XT: 6000P
X1800XT: 8700P

Stimmt sogar, oder? Also können (Milchmädchnrechnung!) für einen X1800XT@600/700Mhz ~8700Punkte erwarten, grob geschätzt, was man eigentlih cniht sagen kann.....


Es ist eine X1300PRO@550MHz. Mir imponiert das Zeug kein bisschen weil erstens wie schon oefters gesagt 3dfart fuer die Tonne ist und zweitens ihr noch nicht gesehen habt was die Konkurrenz unterm Aermel hat.

Wie rechnet ihr eigentlich? Und natuerlich sind es Milchmaedchenrechnungen aber nehmen wir mal an dass der RV515 tatsaechlich 4VS hat, dann:

2200 MTexels/s + 550 MVertices/s

Eine XL@550MHz hat dann mit 8VS:

8800 MTexels/s + 1100 MVertices/s

Moeglich waere X1800XL = 2.5* X1300PRO oder X1800XT = ~2.7* X1300PRO. Natuerlich will ich die Moeglichkeit der 8600-8700 Punkte nicht ausschliessen, aber mit 600MHz erscheint mir das ein wenig zu viel.

Auf 500MHz erreiche ich mit der G70 etwa 8700 Punkte und das sind 12 GTexels/s + 1080 MVertices/s.

****edit: die X600XT ist uebrigens auf 500MHz getaktet und hat nur 2VS Einheiten.

robbitop
2005-09-24, 15:45:28
Die Taktrate und der Yield hängen natürlich direkt beeinander. Die Prozess-Reife insgesamt ist natürlich auch ausschlaggebend für die entsprechenden Yields und die Taktraten. Worum es mir aber geht ist, dass ATi schon seit Anfang Taktraten von >600MHz beim R520 anpeilte (sie mussten es, da sie den Weg mit den 4 Quads gingen) und die FAB bestätigte das Design mit den allseits bekannten Sign-Off-Werten. Dass der Yield sich mit der Zeit natürlich steigert, ist bei diesen Werten aber weniger von Belang, sondern bei Prozessen allgemein auch völlig normal.

Was ATi aber beim R520 dazwischen kam:

1. Probleme mit dem neuen Ring-Bus -> Design-bedingt
2. "Soft-Ground" Probleme -> Design-bedingt

Resultierend aus Problem 2 waren natürlich Taktraten, die nicht den Sign-Off-Werten entsprachen und die GPU übermäßig heiß wurde. RV530 hatte ähnliche Probleme, RV515 lief laut ATi dagegen von Anfang an völlig problemlos vom Band.

Für mich spricht dies alles, inklusive der Äußerungen seitens Dave Orton eindeutig für Probleme, die Design-bedingt waren. Dies war historisch gesehen bisher auch sehr oft der Fall, wenn völlig neue Designs auf einen völlig neuen und relativ unerprobten Prozess losgelassen wurden.
Klingt sehr plausibel. Kannst du etwas zum Ringbus sagen? Ich habe bisher nur das Schlagwort gelesen aber keine Erläuterung irgendwo gefunden.

Ailuros
2005-09-24, 15:49:21
Du verwirrst mich. ;D

Wie es aussieht, tanzt die X1300 oder Reihe, denn die XI600Pro und die XI800Pro sind beide mit 500MHz getaktet.

Ich hab das groesste RV515 Modell X1300XT genannt, obwohl es nur X1300PRO gibt und diese ist tatsaechlich bei 550MHz.

Demirug
2005-09-24, 16:30:28
Klingt sehr plausibel. Kannst du etwas zum Ringbus sagen? Ich habe bisher nur das Schlagwort gelesen aber keine Erläuterung irgendwo gefunden.

Ringbus ist eigentlich sowieso der falsche Begriff dafür. Entweder man hat einen Ring oder einen Bus. Cell nutzt zum Beispiel einen Ring.

Mir wurde vor langer Zeit dieser Artikel in diesem Zusammenhang empfohlen: http://www.techonline.com/community/ed_resource/feature_article/20070

BlackArchon
2005-09-24, 16:42:29
Wird beim R520 AA funktionieren, wenn man sowas wie Bloom oder Motion Blur im Spiel aktiviert hat? Bisher verhindern solche Effekte doch ziemlich effektiv die Nutzung von AA. ;(

Demirug
2005-09-24, 16:53:08
Wird beim R520 AA funktionieren, wenn man sowas wie Bloom oder Motion Blur im Spiel aktiviert hat? Bisher verhindern solche Effekte doch ziemlich effektiv die Nutzung von AA. ;(

Seit DX 9.0b kann beides durchaus gleichzeitig benutzt werden. 100% funktioniert das aber bisher nur bei nVidia. Bei ATI gibt es leider immer noch Fälle bei denen man kein AA bekommen kann. Angeblich ja nur ein Treiberproblem aber so langsam glaube ich nicht mehr daran.

Es muss aber auf jeden Fall im Spiel entsprechend programmiert worden sein automatisch geht das nicht.

LordDeath
2005-09-24, 16:54:19
Wird beim R520 AA funktionieren, wenn man sowas wie Bloom oder Motion Blur im Spiel aktiviert hat? Bisher verhindern solche Effekte doch ziemlich effektiv die Nutzung von AA. ;(

demirug meinte mal, dass sowas nur bei shadern unterhalb 2.0 probleme macht. mit dx9 hardware wäre dies kein problem nur müssen wir warten, bis auch keine spiele mehr mit dx8 karten support rauskommen...

edit: demi war schneller und hat besser geantwortet :D

Die gelbe Eule
2005-09-24, 17:01:45
Ringbus ist eigentlich sowieso der falsche Begriff dafür. Entweder man hat einen Ring oder einen Bus. Cell nutzt zum Beispiel einen Ring.

Mir wurde vor langer Zeit dieser Artikel in diesem Zusammenhang empfohlen: http://www.techonline.com/community/ed_resource/feature_article/20070

Was aber ziemlich kompliziert ist ;)

Also nach paarmaligen reinlesen, hängt vieles von Latenzen ab und nur ein wirklich perfektes System, kann gleichzeitig Daten empfangen und gleichzeitig an die richtige Adresse weiterleiten. Ob nun Nodes über FIFOs paarweise über den Ring kommunizieren oder Nodes in einer Gruppe mit dem Ring kommunizieren ist wohl der größte Unterschied. Wenn ich das dann richtig verstanden habe, brauch man dafür aber eine garantierte Bandbreite damit das dann klappt.

Nur was würde dieser Bus in Ringform performancetechnisch überhaupt bringen? Oder ist es einfach nur Spielerei um Aufgaben besser durch Multicasting zu verteilen?

Sunrise
2005-09-24, 17:18:42
Ringbus ist eigentlich sowieso der falsche Begriff dafür. Entweder man hat einen Ring oder einen Bus. Cell nutzt zum Beispiel einen Ring.

Mir wurde vor langer Zeit dieser Artikel in diesem Zusammenhang empfohlen: http://www.techonline.com/community/ed_resource/feature_article/20070

Der EIB ist auch ein Ring-Bus. Beides schließt sich prinzipiell nicht aus. Ring-Bus heißt es deshalb, weil die Grundregeln eines Busses bestehen, der Aufbau aber einem Ring ähnelt. Das mag sicher nicht ganz korrekt sein, ist aber eine durchaus gültige Bezeichnung.

BlackArchon
2005-09-24, 17:44:08
Seit DX 9.0b kann beides durchaus gleichzeitig benutzt werden. 100% funktioniert das aber bisher nur bei nVidia. Bei ATI gibt es leider immer noch Fälle bei denen man kein AA bekommen kann. Angeblich ja nur ein Treiberproblem aber so langsam glaube ich nicht mehr daran.

Es muss aber auf jeden Fall im Spiel entsprechend programmiert worden sein automatisch geht das nicht.
Aha, dann scheint das also eher eine Fleißsache der Programmierer zu sein. Danke für die Antwort. :)

horn 12
2005-09-24, 20:05:14
wieviel punkt dürfte dann ne X1600 XT so erreichen in 3d mark 2005 ?
dann dürfte diese ja sogar den X800 PRO locker schlagen ,
in allen disziplinen ( mit und ohne AA + AF )
PS : ( falls dies mit den + 40% stimmen sollte )

was meint ihr ?

Horimoto
2005-09-24, 20:26:21
Nun ja die X1600XT hat ja nur ein 128Bit Interface, also tippe ich mal auf eine perf., die etwas unter der einer Pro liegt

horn 12
2005-09-24, 20:37:40
also der perf. einer x1300 pro ,
oder der einer x800 pro ?

wohl eher letzteres .

Horimoto
2005-09-24, 20:54:30
einer x800pro

-error-
2005-09-24, 21:38:29
einer x800pro

Hmm, vielleicht kann man ja die restlichen 4 Pipes freischalten ;D

Bringt aber nicht so viel bei 128 Bit, oder?

Was soll die denn kosten? 200€?

Horimoto
2005-09-24, 21:57:35
yo die X1600XT dürfte um den Dreh 200€ kosten, vllt. bisschne drunter
Das mit den pipes freischalten war ein Witz, oder?

Franzmann-Jan
2005-09-24, 22:02:49
Die X1600XT müsste doch ein ganz andres Layout haben + andere Chip (RV530).
Da lässt sicher nichts freischalten :wink:

-error-
2005-09-24, 22:04:28
yo die X1600XT dürfte um den Dreh 200€ kosten, vllt. bisschne drunter

Sehr schön


Das mit den pipes freischalten war ein Witz, oder?

Eigendlich nicht :redface:

r3ptil3
2005-09-24, 22:17:20
yo die X1600XT dürfte um den Dreh 200€ kosten, vllt. bisschne drunter
Das mit den pipes freischalten war ein Witz, oder?

Die X1600, vorallem die XT Version wird so schneller sicher nicht für 200.-€ zu kaufen sein.

-error-
2005-09-24, 22:26:36
Die X1600, vorallem die XT Version wird so schneller sicher nicht für 200.-€ zu kaufen sein.

Achja? Und warum?

Ohne 256 BIT Interface gehört die numal in diese Preisregion.

Horimoto
2005-09-24, 23:11:54
Ich dekne auch dass sie 200€ max. kosten dürfte, weil sie eben nur so schnell ist wie ne X800Pro, und die gibts für unter 200€, natürlich PS3 usw. dann kommt man auf ~200€

Ich denk mal so:
X1300SE/HM: 79$
X1300SE : 99$
X1300Pro: 129$

X1600: 149$
X1600Pro: 179$
X1600XT: 199$

hier leigt die alte Generation von X8xx, für 200$-349$ (X800Pro-X850XT)

X1800Pro: 349$
X1800XL: 449$
X1800XT: 549$

Winter[Raven]
2005-09-24, 23:32:06
Sagen wir so ...

Sollte ATI versuchen Ihre Chips zum Kostenpunkt der Konkurrenzchips verkaufen wollen, wird ATI bluten...!

-error-
2005-09-24, 23:55:04
']Sagen wir so ...

Sollte ATI versuchen Ihre Chips zum Kostenpunkt der Konkurrenzchips verkaufen wollen, wird ATI bluten...!

Die Herstellung der ATI GPUs sollte günstiger sein...

mapel110
2005-09-24, 23:58:58
Die Herstellung der ATI GPUs sollte günstiger sein...
Kommt auf die Ausbeute an. Beim High End Modell wird die wohl nicht toll werden.

dargo
2005-09-25, 00:13:20
Kommt auf die Ausbeute an. Beim High End Modell wird die wohl nicht toll werden.
Das dickste Geschäft macht ATI aber mit den X1300-ern und X1600-ern. ;)

up¦²
2005-09-25, 00:20:49
Die Yields sollen sehr gut sein und 90nm auf 300er Wafern ist momentan Top :wink:
Sollte also extrem profitabel sein!

up¦²
2005-09-25, 00:24:45
Das dickste Geschäft macht ATI aber mit den X1300-ern und X1600-ern. ;)

Das Gerücht, das es vorläufig keine x1800er geben wird hält sich hartnäckig, gerade in China/Taiwan :rolleyes:

BTW, Wieviel alte Kamellen hat Ati wohl noch auf Halde?

Hauwech
2005-09-25, 01:24:29
Das dickste Geschäft macht ATI aber mit den X1300-ern und X1600-ern. ;)

Im OEM Bereich sieht das aber ein wenig anders aus und der Zug ist fuer ATI da erstmal ein bisschen abgefahren. Ein guter Preis nuetzt nichts, wenn ich nicht liefern kann. Imho im Moment schlechte Karten fuer ATI.

Neue Chips von Nvidia wird es auch geben und sollten sie, wie bei der 7800GTX, sofort eine hohe Verfuegbarkeit ermoeglichen, dann wird es wirklich schwer fuer ATI.

Franzmann-Jan
2005-09-25, 01:37:35
Im OEM Bereich sieht das aber ein wenig anders aus und der Zug ist fuer ATI da erstmal ein bisschen abgefahren. Ein guter Preis nuetzt nichts, wenn ich nicht liefern kann. Imho im Moment schlechte Karten fuer ATI.

Neue Chips von Nvidia wird es auch geben und sollten sie, wie bei der 7800GTX, sofort eine hohe Verfuegbarkeit ermoeglichen, dann wird es wirklich schwer fuer ATI.

Warum??? Gerade im OEM-Bereich ist ATI saustark vertrehten. Die X550 läuft bombig, und da die X1300, X1600 sofort verfügbar sein werden und nvidia keine Anzeichen macht bald eine 7er Low-End Variante zu veröffentlich, sehe ich absolut kein Problem für ATI.

Bis auf die anfänglichen Produktionsproblemen mit dem R520 und RV530, kann man ja wohl ganz klar sagen, dass ATI seine Sache zurzeit sehr gut macht.

dargo
2005-09-25, 01:45:47
Im OEM Bereich sieht das aber ein wenig anders aus und der Zug ist fuer ATI da erstmal ein bisschen abgefahren. Ein guter Preis nuetzt nichts, wenn ich nicht liefern kann. Imho im Moment schlechte Karten fuer ATI.

Neue Chips von Nvidia wird es auch geben und sollten sie, wie bei der 7800GTX, sofort eine hohe Verfuegbarkeit ermoeglichen, dann wird es wirklich schwer fuer ATI.
Naja, erstmal Benchmarks abwarten. Der Preis den ATI (bzw. die Kartenhersteller) verlangen werden spielt auch eine große Rolle. Und wenn ATI ein gleichwertiges (schnelles) Produkt wie NVIDIA günstiger anbietet sieht es wieder gar nicht schlecht aus für ATI.
In einen 300-er Wafer passen einiges mehr an 90nm Chips als 110nm. ;)
Vorrausgesetzt die Ausbeute ist bei den kleineren Chips hoch genug.

Außerdem sollte man eins nicht vergessen. Wenn ATI bei den X1300-ern und X1600-ern auch schnell AGP Versionen anbietet haben die sowieso schon gewonnen.

mapel110
2005-09-25, 01:47:48
Außerdem sollte man eins nicht vergessen. Wenn ATI bei den X1300-ern und X1600-ern auch schnell AGP Versionen anbietet haben die sowieso schon gewonnen.
Nur spielt das im OEM-Bereich keine Rolle mehr. Da wird PCIe zusammengebaut.

Ailuros
2005-09-25, 01:48:57
Der EIB ist auch ein Ring-Bus. Beides schließt sich prinzipiell nicht aus. Ring-Bus heißt es deshalb, weil die Grundregeln eines Busses bestehen, der Aufbau aber einem Ring ähnelt. Das mag sicher nicht ganz korrekt sein, ist aber eine durchaus gültige Bezeichnung.

Auf Anfrage murmelte jemand ueber ein paar Vorteile was die externen Speicherzugriffe betrifft; aber es gab natuerlich auch einen Anhang dass man keine Wunder erwarten sollte.

Ailuros
2005-09-25, 01:54:02
Im OEM Bereich sieht das aber ein wenig anders aus und der Zug ist fuer ATI da erstmal ein bisschen abgefahren. Ein guter Preis nuetzt nichts, wenn ich nicht liefern kann. Imho im Moment schlechte Karten fuer ATI.

Neue Chips von Nvidia wird es auch geben und sollten sie, wie bei der 7800GTX, sofort eine hohe Verfuegbarkeit ermoeglichen, dann wird es wirklich schwer fuer ATI.

Der Grund warum ich gute yields ueberhaupt im mainstream erwarte, ist dass sie den Vorteil haben mit mehr Einheiten zu spielen und ergo keine besonders hohen Taktraten benoetigen.

Bei </= 550MHz scheint ATI kein Problem zu haben was die yields betrifft bei low-k 90nm und dass fuer RV515, RV530 und R520.

dargo
2005-09-25, 01:55:32
Nur spielt das im OEM-Bereich keine Rolle mehr. Da wird PCIe zusammengebaut.
Jetzt vielleicht ja. Aber was ist mit denen die sich einen Fertig-PC vor einem Jahr gekauft haben und jetzt einfach ihre R9600Pro oder XT aufrüsten möchten.

Außerdem, wenn die schnellste X1600 eine X800Pro schlägt und als AGP erscheint werden das viele R300/350/360 User sehr begrüssen, denke ich. :)

Ailuros
2005-09-25, 02:02:08
Naja, erstmal Benchmarks abwarten. Der Preis den ATI (bzw. die Kartenhersteller) verlangen werden spielt auch eine große Rolle. Und wenn ATI ein gleichwertiges (schnelles) Produkt wie NVIDIA günstiger anbietet sieht es wieder gar nicht schlecht aus für ATI.
In einen 300-er Wafer passen einiges mehr an 90nm Chips als 110nm. ;)
Vorrausgesetzt die Ausbeute ist bei den kleineren Chips hoch genug.

Es gab ein endloses hin-und her bei B3D als ich fragte warum XL und XT nur als 512MB Versionen erwaehnt werden und ob es nicht doch eine Moeglichkeit fuer 256MB Versionen dieser geben wuerde.

Viel zu viele haben sich darauf konzentriert die paar laecherlichen Beispiel aufzusuchen wo ein 512MB Framebuffer einen Vorteil hat.

Mein eigentlicher Punkt war das Preis/Leistungs-Verhaeltnis dass bei einem 256MB board zweifellos besser ist; ebenso Quark ist die Ausrede dass es zu umstaendlich zich verschiedene Modelle zu haben, da wir ja regelrecht ueberflutet wurden von allen moeglichen R4xx configs. Von dem abgesehen mir klingt es eher danach dass die moegliche Seltenheit der ultra-high end Modelle dahinter steckt.

Ailuros
2005-09-25, 02:04:46
Jetzt vielleicht ja. Aber was ist mit denen die sich einen Fertig-PC vor einem Jahr gekauft haben und jetzt einfach ihre R9600Pro oder XT aufrüsten möchten.

Außerdem, wenn die schnellste X1600 eine X800Pro schlägt und als AGP erscheint werden das viele R300/350/360 User sehr begrüssen, denke ich. :)

Duerfte aber nur fuer DX9.0 Applikationen gelten, wenn ueberhaupt. Mit 4 ROPs und der Bandbreite, laesst sich auch nicht besonders viel anstellen in hoeheren Aufloesungen mit AA/AF. 3dmark05 default ist 1024 noAA/AF ;)

Ailuros
2005-09-25, 02:09:28
OT: Dave hatte schon vor ein paar Tagen erwaehnt dass RV515 etwa auf R360 Niveau liegen wuerde in 3dmark; er fuegt aber noch hinzu dass man von NV etwa die gleiche Leistung fuer budget erwarten sollte.

Meine Scherzfrage war natuerlich ob die letzte dann mit 1.5x quads und 450MHz ankommt :biggrin:

StefanV
2005-09-25, 02:17:20
Es gab ein endloses hin-und her bei B3D als ich fragte warum XL und XT nur als 512MB Versionen erwaehnt werden und ob es nicht doch eine Moeglichkeit fuer 256MB Versionen dieser geben wuerde.

Viel zu viele haben sich darauf konzentriert die paar laecherlichen Beispiel aufzusuchen wo ein 512MB Framebuffer einen Vorteil hat.

Mein eigentlicher Punkt war das Preis/Leistungs-Verhaeltnis dass bei einem 256MB board zweifellos besser ist; ebenso Quark ist die Ausrede dass es zu umstaendlich zich verschiedene Modelle zu haben, da wir ja regelrecht ueberflutet wurden von allen moeglichen R4xx configs. Von dem abgesehen mir klingt es eher danach dass die moegliche Seltenheit der ultra-high end Modelle dahinter steckt.
Richtig, musst nur mal an den K6-3 denken, den sich AMD auch hat vergolden lassen...

Eben weil sie nicht in der Lage waren, den in ausreichender Menge zusammen zu basteln,leider...

In diesem Fall wirds auch nicht mhr als 'seht mal her, was wir haben, könnt ihr sogar kaufen', sein...

Das typische Top Produkt, was sich keine Sau leisten kann bzw kaufen wird, außer einer Hand voll...

Ferengie
2005-09-25, 02:24:44
Ich weiß die Frage ist bisserl früh, aber nach den Bilder zu urteilen, ist die Chip/Speicher beim Topmodell konform zur nVidia 7800.

Demnach müßten doch keine neuen Wakü Lösungen entwickelt werden?

Weiß wer schon, wie das Chip/Speicher Design bei den X1600 aussehen wird?

up¦²
2005-09-25, 03:23:40
Interessantes PR:
ATI Technologies Inc., 4th Quarter Financial Results Conference Call (http://apps.ati.com/ir/PressReleaseText.asp?compid=105421&releaseID=760002)

Nach diesem PR zu urteilen:
TSMC in Volume Production of 90nm Graphics Chips for ATI (http://apps.ati.com/ir/PressReleaseText.asp?compid=105421&releaseID=758490)

muß alles bestens sein! Sonst würde Ati die Shareholder ja prellen weil die Aktien steigen: :biggrin:
http://apps.ati.com/ir/pressreleaselist.asp

... und das kommt in den USA teuer zu stehn! :wink:

Ailuros
2005-09-25, 03:46:30
Interessantes PR:
ATI Technologies Inc., 4th Quarter Financial Results Conference Call (http://apps.ati.com/ir/PressReleaseText.asp?compid=105421&releaseID=760002)

Nach diesem PR zu urteilen:
TSMC in Volume Production of 90nm Graphics Chips for ATI (http://apps.ati.com/ir/PressReleaseText.asp?compid=105421&releaseID=758490)

muß alles bestens sein! Sonst würde Ati die Shareholder ja prellen weil die Aktien steigen: :biggrin:
http://apps.ati.com/ir/pressreleaselist.asp

... und das kommt in den USA teuer zu stehn! :wink:

However, ATI isn't "completely out of the woods," according to Bear Stearns.

ATI's key concern remains the performance of its 5xx product family compared to products from Nvidia (nasdaq: NVDA - news - people ), the research firm said. ATI's R520 product has shown mixed performance, according to Bear Stearns, though ATI's chief executive did make positive comments regarding the product on a recent call.

http://www.forbes.com/markets/2005/08/30/ati-technology-nvidia-0830markets10.html?partner=yahootix

Tomcat70
2005-09-25, 06:59:21
Sonst würde Ati die Shareholder ja prellen weil die Aktien steigen: :biggrin:
http://apps.ati.com/ir/pressreleaselist.asp

... und das kommt in den USA teuer zu stehn! :wink:

err, lol, so funktioniert das aber nicht ;)

es bestimmen schon die aktionäre/anleger alleine durch ihre käufe/verkäufe wie sich der kurs entwickelt. momentan hat halt die mehrheit vertrauen auf die finanzielle als auch allgemeine entwicklung bei ATI, darum stiegen die kurse.
manchmal ist es auch nur die phantasie die beflügelt, umso besser wenn diese durch zahlen bestätigt wird.

Mumins
2005-09-25, 07:54:55
Mein typo; siehe oben. Eine PRO? Also 500MHz?

Es war eine 1300LE 128bit, die die 2900 3DMark05 macht, getaktet 450/400.
http://chilehardware.com/modules.php?op=modload&name=PNphpBB2&file=viewtopic&t=9308

Auf der Karte ist nur 2,5ns VRAM, die Pro bräuchte besseren Speicher.

http://img254.imageshack.us/img254/7758/44nq.th.jpg

Ailuros
2005-09-25, 08:09:43
Es war eine 1300LE 128bit, die die 2900 3DMark05 macht, getaktet 450/400.
http://chilehardware.com/modules.php?op=modload&name=PNphpBB2&file=viewtopic&t=9308

Auf der Karte ist nur 2,5ns VRAM, die Pro bräuchte besseren Speicher.

http://img254.imageshack.us/img254/7758/44nq.th.jpg

Je mehr desto besser natuerlich; dann liegt die PRO eben doch bei =/>3500.

Der Speicher spielt keine besondere Rolle bei 3dmark; zu was braucht man viel Bandbreite wenn das Ding in 1024 ohne AA/AF laeuft?

Mumins
2005-09-25, 08:29:43
Je mehr desto besser natuerlich; dann liegt die PRO eben doch bei =/>3500.

Der Speicher spielt keine besondere Rolle bei 3dmark; zu was braucht man viel Bandbreite wenn das Ding in 1024 ohne AA/AF laeuft?

Ich meinte, damit, dass die Karte keine Pro sein kann, da anderer Speicher verbaut sein müsste.

Horimoto
2005-09-25, 12:06:24
Hmm, dann wäre die LE aber verdammt schnell wenn ich das so sagen darf.
Wenn das LowEnd produkt auf ~3500Punkte kommt, dann MUSS nVidia sehr schnell den G71/G76 releasen, weil sonst nVidia das LowEnd, und wie wir alle wissen ist das das entscheidende geschäft, davonläuft. Weil dann wäre das 100$ Produkt von ATi so schnell wie die 6800/6600GT, und das wäre net so toll fürs Geschäft.

Und eine andere Überlegung ist, wenn der X1300Pro 3500P erhällt, mit 4PP, dann hat er ja mehr Punkte als die 6600GT/X700Pro mit jeweils 8PP und fast genauso hohem Takt, dann hätte ATi die Effizienz erheblich erhöht, oder nicht?

Was mich auch verwundert:
Wir wissen mitlerweile nahezu fest stehende zahlen bezüglich der PS, aber nix über VSEinheiten. Doch US???????

noch was:
LowEnd: 3500P
MidEnd: 5000P????????
hiGhEnd: 9000P??????

horn 12
2005-09-25, 12:28:05
Außerdem, wenn die schnellste X1600 eine X800Pro schlägt und als AGP erscheint werden das viele R300/350/360 User sehr begrüssen, denke ich. :)

sehe ich genauso !
bin auch 9800 pro user und will mind. auf X1600 XT umsteigen , oder auf X1800 XL
denke mal dass ati beim launch bereits AGP Karten der X1300 / 1600 Karten anbieten wird / verfügbar sein werden !
der X1800 XL auf agp kommt denke ich mal ende oktober raus , und wenn der Preis stimmen sollte ( unter 270 euro ) dann wird dies die Sensation schlechthin ,
denn ich denke an dem Preis müsste sich ati orientieren müssen , um effektiv sehr höhe gewinne fahren zu können ,
alles über 300 Euro wäre zu teuer , und nicht rentabel ; da der Preissprung zu extrem würde .

[MK2]Mythos
2005-09-25, 17:53:16
Tach,
kennt jemand diesen Test der X1800XT / Pro ?
http://www.hardwareanalysis.com/content/article/1813/

ich würde mal spontan sagen das es ein Fake ist, weiß jemand was darüber?

mapel110
2005-09-25, 17:57:39
Mythos']Tach,
kennt jemand diesen Test der X1800XT / Pro ?
http://www.hardwareanalysis.com/content/article/1813/

ich würde mal spontan sagen das es ein Fake ist, weiß jemand was darüber?
Jo, ist nen Fake. Wurde seinerzeit (16/17.9.05)auch hier im thread besprochen.

Coda
2005-09-25, 18:23:08
Jo, ist nen Fake. Wurde seinerzeit (16/17.9.05)auch hier im thread besprochen.Da wäre ich mir nicht so sicher.

Die gelbe Eule
2005-09-25, 18:31:06
Gibt es eigentlich was neues von der Ibiza Party, die war doch jetzt am WE?

Horimoto
2005-09-25, 18:36:22
War ja alles 'hinter Verschlossenen Riegeln', ich schätze mal die Infos über den RV515LE, mit Benches usw. satmmen davon. Ich denke stark, dass ab nächster Woche die Werbung startet, und dass wir paar benches bekommen.

Die gelbe Eule
2005-09-25, 20:20:21
Hab mal was gefunden, hört sich sehr interessant an, auch wenn es nur für Nintendo Revolution gedacht ist:

Revolution GPU

ATI Custom based RN520 core. The "N" stands for Nintendo, and is because the ArtX team is with them, that is why it’s an "N". GPU core at 600 MHz. Will support up to 2048x1268 resolution, HD support is still being decided. Will have 256 MB’s of 1T-SRAM (the RAM is much better due to some tweaking, compared to GC’s RAM. The latency and Cells are much more efficient and faster. Around 1.2 ns is the latency, on average).

:eek: 32 :eek: parallel floating-point dynamically scheduled shader pipelines.


*edit*

Revolution GPU

2 GPU cores running at 500 MHz. Now this says there will be HD support up to the resolution as above...

Each GPU will have 256 MB of GDDR4 RAM

28 way parallel floating-point dynamically scheduled shader pipelines for each core with unified shader architecture.

Das wäre die GPU für das zweite System, da sie noch nicht sicher sind welches sie nehmen. SLI System für Konsolen ;)
Außerdem würde das heißen, der R520 wird unifed shader haben, nur ob das Konsole only ist, bleibt abzuwarten.

horn 12
2005-09-25, 21:19:25
Uni chip; also doch denkbar wiederum !!
das würde wiederum die enorme Leistung der X1800 wiederspiegeln !
somit ist es ein leischtes dass sogar die X1600 XL die X800 pro um Längen schlagen sollte , trozu des nur 128 bit Speicherinterfaces !
rechne somit mit + 15 % Mehrle3istung in 1280 x 1024 und 4AA + AF !!

DAS WÄRE ZU SCHÖN UM WAHR ZU SEIN ; ABER HOFFEN kann man ja schon mal .

-error-
2005-09-25, 21:23:34
Uni chip; also doch denkbar wiederum !!
das würde wiederum die enorme Leistung der X1800 wiederspiegeln !
somit ist es ein leischtes dass sogar die X1600 XL die X800 pro um Längen schlagen sollte , trozu des nur 128 bit Speicherinterfaces !
rechne somit mit + 15 % Mehrle3istung in 1280 x 1024 und 4AA + AF !!

DAS WÄRE ZU SCHÖN UM WAHR ZU SEIN ; ABER HOFFEN kann man ja schon mal .

Dann wäre die X1600 XT wie maßgeschneidert für mich, 1280x1024 bei 4x FSAA und 8x AF.

Hoffendlich kommt sowas wie TAA, ich zähle auf ATI ;)

Winter[Raven]
2005-09-25, 21:25:49
wie jetzt, 32 Pipes oder USA?

deLuxX`
2005-09-25, 21:35:05
Moment. Wer zur Hölle sagt, dass US = +x % Leistung?

Ich glaub' ihr verrennt euch da grad (mal wieder) in etwas. :)

-deLuxX`

LordDeath
2005-09-25, 21:35:58
kann mir einer erklären, warum ein uni chip schneller wäre? die architektur wäre komplizierter und man hätte weniger unified pipelines als fixe pixel und vertexpipelines. oder seht ihr das anders?

edit: @deLuxX`: zwei dumme, ein gedanke :D

mbee
2005-09-25, 21:44:05
Uni chip; also doch denkbar wiederum !!
das würde wiederum die enorme Leistung der X1800 wiederspiegeln !
somit ist es ein leischtes dass sogar die X1600 XL die X800 pro um Längen schlagen sollte , trozu des nur 128 bit Speicherinterfaces !
rechne somit mit + 15 % Mehrle3istung in 1280 x 1024 und 4AA + AF !!

DAS WÄRE ZU SCHÖN UM WAHR ZU SEIN ; ABER HOFFEN kann man ja schon mal .

Weia...nicht schon wieder!
Leute, die Specs sind doch nun wirklich so gut wie bekannt und was die grobe Leistung angeht ist das doch wohl auch der Fall.

-error-
2005-09-25, 21:45:31
Weia...nicht schon wieder!
Leute, die Specs sind doch nun wirklich so gut wie bekannt und was die grobe Leistung angeht ist das doch wohl auch der Fall.

Hmm, bisher konnte man nirgends lesen, wieviel Vertaxshader der R520 haben wird, bzw. ob die seperat sind ;D

tEd
2005-09-25, 21:49:43
Hmm, bisher konnte man nirgends lesen, wieviel Vertaxshader der R520 haben wird, bzw. ob die seperat sind ;D

ich glaube das war sogar das erste was man lesen konnte.

8

Tarkin
2005-09-25, 22:02:05
meine 3DMark2005 Schätzungen (basierend auf dem Score der RV515LE)

rv515LE 2.900
rv515pro 3.500

rv530pro 5.200
rv530xt 6.300

r520le 6.400
r520pro 7.800
r520xl 8.900
r520xt 10.100

Winter[Raven]
2005-09-25, 22:03:48
Hmm, bisher konnte man nirgends lesen, wieviel Vertaxshader der R520 haben wird, bzw. ob die seperat sind ;D

Meine Fresse, wie oft den noch ... es sind 8!!!

Manchmal frag ich mich echt...

dargo
2005-09-25, 22:05:41
r520le 6.400
r520pro 7.800
r520xl 8.900
r520xt 10.100
Das wäre zu schön um wahr zu sein. ;D

deLuxX`
2005-09-25, 22:08:10
meine 3DMark2005 Schätzungen (basierend auf dem Score der RV515LE)

rv515LE 2.900
rv515pro 3.500

rv530pro 5.200
rv530xt 6.300

r520le 6.400
r520pro 7.800
r520xl 8.900
r520xt 10.100

Da lehnst du dich aber sehr weit aus dem Fenster.
Aber man ist ja hier im Spekulatius Forum.
Die gibt's übrigens schon hier im Discountermarkt. =)

-deLuxX`

deekey777
2005-09-25, 22:12:12
...
Die gibt's übrigens schon hier im Discountermarkt. =)

-deLuxX`

Aber ziemlich früh dieses Jahr. :biggrin:

Der Wert der XI300Pro von 3500 hat Ailuros vor einigen Seiten geschätzt.

PS: Die R5x0-Generation ist eine US-Architektur: Pixel- und Vertexeinheiten sind alle auf einem Chip drauf. :biggrin:

Franzmann-Jan
2005-09-25, 22:20:38
Aber ziemlich früh dieses Jahr. :biggrin:

Der Wert der XI300Pro von 3500 hat Ailuros vor einigen Seiten geschätzt.

PS: Die R5x0-Generation ist eine US-Architektur: Pixel- und Vertexeinheiten sind alle auf einem Chip drauf. :biggrin:

Kann man Deekeys Behauptungen vertrauen? :biggrin: OK, ein paar Leute werden jetzt wohl wieder ausrasten, aber was ist wenn ATI schon Shadermodell 4 onboard hat? :rolleyes: Dann würde das mit der Farcry-Techdemo und der jungen Microsoftankündigung, dass es DX10 noch für XP geben wird, doch irgendwie Sinn ergeben, oder?

Übrigens wäre es Rache für Shadermodell 3, dass ATI nie wollte....

Horimoto
2005-09-25, 22:25:46
Nee Sm4 ist noch cniht drinnen, obwohl:
Crytek und ATi sind partener, Crytek hat ne neue Engine, die PS4 hat, und es ist bereits lauffähig, nur auf welcher Hardware?
kombiniere..........ATi hat bereits PS4 Karten!!!!! Nur sind es Prototypen des R600 oder doch der R520??????????? Träumen wir lieber nciht weiter, von US und PS4 :D

Ich denke es wird eher so sein:

X1300LE: 2900P
X1300Pro: 3500P

X1600Pro: 5000P
X1600XT: 5500P

X1800LE: 6000P
X1800Pro: 7000P
X1800XL: 8000P
X1800XT: 9000P

Das könnt so hinkommen, denke ich, ausser wir haben PS4 und US, dann müsste man sich das ncohmals überlegen :P

Enterprise
2005-09-25, 22:26:37
Hat nicht mal jemand von nV vor kurzer Zeit (1 Monat oder 2) darüber gesprochen, dass ATi bestimmte Feature hat, die man in längerer Zeit nicht braucht!?


Radeon X1300Pro 512MB

Performance:
• MHz ATI™ R515Pro GPU
• MHz 128BIT memory
• 512MB GDDR3 memory
• 400MHz RAMDAC
• DirectX® pixel-pipelines
• x16 lane PCI Express™


Features:
• DirectX® 9.x compliant
• Shader Model 3 support
• High Dimension Floating-Point Textures
• Multiple Render Targets
• Up to 16x Anisotropic Filtering
• Up to 6x Multi Sampling Anti Aliasing
• Up to 12x Temporal Multi Sampling Anti Aliasing
• Full Screen Anti Aliasing Gamma Correction
• Avivo™
• Video Gamma Correction
• 3Dc™ Normal Map Compression
• Video in, Video Out

Sollten nicht das mit den DirectX® pixel-pipelines für keine Unified Shader aussreichen?

Horimoto
2005-09-25, 22:31:51
Nicht das ich wüsste, aber ATi spricht von einer Riesenüberraschung beim launch, etwas, das niemand erwartet hätte.........
Ausserdem ein Countdown.................

nein ich will nciht länger darüber nachdenken..............

Wobei:
3500P für einen LowEnd Chip sind doch ne extrem gute Sache, und ads mit 4PP..........

Die gelbe Eule
2005-09-25, 22:33:50
Mal langsam hier ;)

Das unified shader model kommt nur bei der Nintendo Revolution zum tragen. Das dort dann ein oder zwei RN520 werkeln, amcht die Sache interessant, aber nicht für den Mainstreammarkt tauglich. Es gibt noch keine Revo Konsole, da nichtmal der Prototyp zur Verfügung steht. Aber es ist ganz gut zu wissen, was man mit dem R520 anstellen kann.

Franzmann-Jan
2005-09-25, 22:38:44
Es wäre nur Intelligent mit, mit Shadermodell 3 nicht nur nachzuziehen, sondern mit SM4 die Technologie-Krone wiederzuerlangen. Die Geschichte hat uns gezeigt, dass dies beim Kauf einer neuen Karte ein sehr sehr wichtiges Argument ist. Dieser Schritt würde Nvidia sehr weh tun und den Spieß umdrehen. Für unrealistisch halte ich den Schritte aus dem Grund schon nicht, da sich ATI immer sehr negativ zu SM3 geäußert hat. Zurecht, da der Unterschied zu SM2 wirklich nur marginal ist.

Die gelbe Eule
2005-09-25, 22:47:00
Nur sieht DX9.X kein SM 4.0 vor. Wenn dann wäre es schon länger bekannt, als das es Karten dafür geben würde.
Vor Q2 2006 kommt kein SM 4.0, wenn überhaupt erst mit Vista.

LordDeath
2005-09-25, 22:53:26
...da sich ATI immer sehr negativ zu SM3 geäußert hat. Zurecht, da der Unterschied zu SM2 wirklich nur marginal ist.

pass bloß auf, dass das keiner ließt, der auf seiner sm3 karte rumproggt :D

Die gelbe Eule
2005-09-25, 22:57:47
ATI hatte sich vorher negativ geäußert, weil kaum ein Spiel SM3.0 untestüzt hatte. Doch jetzt sehen es sie so langsam ein, das es kommen muss ...

LordDeath
2005-09-25, 22:59:49
es ist ja auch fakt, dass man das feature, was man nicht anbieten kann(will), schlechtredet. was anderes wäre einfach nur dumm...

Die gelbe Eule
2005-09-25, 23:15:38
Shaderlastige Benchmarks lassen sich kaum mit SM 2.0 gewinnen ;)

Iwan
2005-09-25, 23:18:55
allerdings, wenn jetzt plötzlich ein 3dmurks06 mit ps3 auftaucht, dann wird sogar eine mainstream-nv gegen die aktuellen high-end-atis gewinnen, allein aus dem grund das ati nicht alle tests fahren kann.

Hauwech
2005-09-25, 23:26:07
Es wäre nur Intelligent mit, mit Shadermodell 3 nicht nur nachzuziehen, sondern mit SM4 die Technologie-Krone wiederzuerlangen. Die Geschichte hat uns gezeigt, dass dies beim Kauf einer neuen Karte ein sehr sehr wichtiges Argument ist. Dieser Schritt würde Nvidia sehr weh tun und den Spieß umdrehen. Für unrealistisch halte ich den Schritte aus dem Grund schon nicht, da sich ATI immer sehr negativ zu SM3 geäußert hat. Zurecht, da der Unterschied zu SM2 wirklich nur marginal ist.

Wie soll ATI einen SM4 Chip bringen, wenn die Specs letztes Jahr noch gar nicht fertig waren? Bin mir noch nicht mal sicher ob sie es mittlerweile ueberhaupt schon sind.

Es ist vielleicht ein nicht unwichtiges Argument fuer Leute, die ihre Karte laenger behalten wollen. Fuer Dauerupgrader nicht unbedingt. Komisch, als NV40 SM3 mitbrachte hiess es aus dem roten Lager, dass es noch gar nicht notwendig und reine Transistorverschwendung sei. Jetzt auf einmal, weil ATI natuerlich, soll es bei SM4 wichtig sein?

Was ich selber nicht habe, muss ich schlechtreden weil sonst eventuell noch mehr Leute sich Karten vom Wettbewerber kaufen.

Ailuros
2005-09-25, 23:29:32
allerdings, wenn jetzt plötzlich ein 3dmurks06 mit ps3 auftaucht, dann wird sogar eine mainstream-nv gegen die aktuellen high-end-atis gewinnen, allein aus dem grund das ati nicht alle tests fahren kann.

Es reicht wenn der naechste 3dmark ziemlich ALU-lastig sein sollte.

Die gelbe Eule
2005-09-25, 23:33:18
Mit HL²:LostCoast würde man sich ja ins eigene Fleisch schneiden, das wird nunmal Vorzeigeobjekt werden ...

Ailuros
2005-09-25, 23:41:38
Wie soll ATI einen SM4 Chip bringen, wenn die Specs letztes Jahr noch gar nicht fertig waren? Bin mir noch nicht mal sicher ob sie es mittlerweile ueberhaupt schon sind.

Die Vorraussetzungen stehen schon seit einer geraumen Zeit fest; oder anders formuliert es kommt schon seit 2002 nicht Neues mehr dazu; es werden verschiedene Kleinigkeiten eher entfernt. Zuerst wollte man auf programmierbare Tesselation gehen ganz am Anfang, dann wurde die Programmierbarkeit stets weniger und es wurde eine optionale quasi fixed function Einheit daraus, bis dass das Ding jetzt ganz von den drafts entfernt wurde und das ist nur ein Beispiel.

Es ist vielleicht ein nicht unwichtiges Argument fuer Leute, die ihre Karte laenger behalten wollen. Fuer Dauerupgrader nicht unbedingt. Komisch, als NV40 SM3 mitbrachte hiess es aus dem roten Lager, dass es noch gar nicht notwendig und reine Transistorverschwendung sei. Jetzt auf einmal, weil ATI natuerlich, soll es bei SM4 wichtig sein?

Shaders in DX10 werden nicht allzu viel mehr sein als SM3.0 + Geometrie Shader. Von programmierbarer Tesselation und/oder procedural geometry hatte ATI sowieso bis jetzt nicht sehr viel gehalten.

Was ich selber nicht habe, muss ich schlechtreden weil sonst eventuell noch mehr Leute sich Karten vom Wettbewerber kaufen.

Typische Marketing-Schranzen die ziemlich ueblich sind bei den meisten Firmen.

Ehrlich gesagt wurde ich ein sehr ehrliches Eingestaendnis in der Art "wir hatten keine Zeit/Resourcen mehr dafuer" oder "wir haben einfach verpatzt" wuerde mich eigentlich freuen und ich haette auch vollen Respekt von solchen Aussagen. Leider kommt es meistens dann viel zu spaet; eben wie es um einiges dauerte bis NVIDIA endlich oeffentlich eingestanden hat dass die NV3x-Linie doch nicht der groesste Schreier war.

Aber Firmen muessen ihr Zeug auch so oder so verkaufen; uebertriebene Ehrlichkeit kann zu einer sehr ueblen Falle werden.

Redneck
2005-09-25, 23:43:04
Nee Sm4 ist noch cniht drinnen, obwohl:
Crytek und ATi sind partener, Crytek hat ne neue Engine, die PS4 hat, und es ist bereits lauffähig, nur auf welcher Hardware?
kombiniere..........ATi hat bereits PS4 Karten!!!!! Nur sind es Prototypen des R600 oder doch der R520??????????? Träumen wir lieber nciht weiter, von US und PS4 :D

Ich denke es wird eher so sein:

X1300LE: 2900P
X1300Pro: 3500P

X1600Pro: 5000P
X1600XT: 5500P

X1800LE: 6000P
X1800Pro: 7000P
X1800XL: 8000P
X1800XT: 9000P

Das könnt so hinkommen, denke ich, ausser wir haben PS4 und US, dann müsste man sich das ncohmals überlegen :P

wäre ja doll, wenn's so kommen würde...
dann würden zumindest auch die Preise stimmig sein, die zirkuliert wurden.
schließlich würde die XL mit solchen Werten direkt gegen die GTX antreten (USD 499 für die XL, und machen wir uns nichts vor... die kommen dann 1:1 auch im EURO Raum).

Winter[Raven]
2005-09-25, 23:50:23
Typische Marketing-Schranzen die ziemlich ueblich sind bei den meisten Firmen.

Ehrlich gesagt wurde ich ein sehr ehrliches Eingestaendnis in der Art "wir hatten keine Zeit/Resourcen mehr dafuer" oder "wir haben einfach verpatzt" wuerde mich eigentlich freuen und ich haette auch vollen Respekt von solchen Aussagen. Leider kommt es meistens dann viel zu spaet; eben wie es um einiges dauerte bis NVIDIA endlich oeffentlich eingestanden hat dass die NV3x-Linie doch nicht der groesste Schreier war.

Das selbstverarschungs Video von Nvidia sagt mehr als tausend Worte... ^^

Hauwech
2005-09-25, 23:55:09
Die Vorraussetzungen stehen schon seit einer geraumen Zeit fest; oder anders formuliert es kommt schon seit 2002 nicht Neues mehr dazu; es werden verschiedene Kleinigkeiten eher entfernt. Zuerst wollte man auf programmierbare Tesselation gehen ganz am Anfang, dann wurde die Programmierbarkeit stets weniger und es wurde eine optionale quasi fixed function Einheit daraus, bis dass das Ding jetzt ganz von den drafts entfernt wurde und das ist nur ein Beispiel.

*snip*



Hmm ok, allerdings, je nachdem was rausgeflogen ist, kann man das Chipdesign eventuell ganz von vorne anfangen und von daher ist es imho praktisch unmoeglich, dass der R520 ein SM4 Chip sein koennte.
Nebenbei aendern sich ueber die Zeit ja auch die Herstellungsprozesse und einen Chip "mal so eben" auf einen anderen Prozess umzudesignen geht auch nicht so wirklich.

deekey777
2005-09-26, 00:00:00
Es reicht wenn der naechste 3dmark ziemlich ALU-lastig sein sollte.

Bis der Neue draußen ist, haben wir schon den R580. X-D
Was aber dem R520 nicht helfen wird.
Mit HL²: LostCoast würde man sich ja ins eigene Fleisch schneiden, das wird nunmal Vorzeigeobjekt werden ...

Würdest du das bitte erklären?
']Das Selbstverarschungsvideo von Nvidia sagt mehr als tausend Worte... ^^

Es gab genug Leute, die dieses Video gar nicht lustig fanden und eher als Armutszeugnis von nVidia empfanden.

Franzmann-Jan
2005-09-26, 00:06:47
Es gab genug Leute, die dieses Video gar nicht lustig fanden und eher als Armutszeugnis von nVidia empfanden.

Weiß jemand wo man sich dieses Video anschauen bzw. runterladen kann?

Ailuros
2005-09-26, 00:13:11
Hmm ok, allerdings, je nachdem was rausgeflogen ist, kann man das Chipdesign eventuell ganz von vorne anfangen und von daher ist es imho praktisch unmoeglich, dass der R520 ein SM4 Chip sein koennte.
Nebenbei aendern sich ueber die Zeit ja auch die Herstellungsprozesse und einen Chip "mal so eben" auf einen anderen Prozess umzudesignen geht auch nicht so wirklich.

Νein. PowerVR hat in der Serie5 mehr als man fuer DX10 braucht.

***edit: das koennte leicht falsch verstanden werden; R520 ist ein SM3.0 chip (obwohl es ein paar kleine Zweifel dafuer geben wird). Nichtmal Xenos hat einen Geometrie-Shader und ist ergo auch nur ein SM3.0 chip. Das obrige Beispiel sollte nur zeigen dass es nicht absolut notwendig ist ueberfluessiges Zeug zu entfernen, wenn man vor einiger Zeit die Spezifikationen zu optimistisch eingeschaetzt hat.

Ailuros
2005-09-26, 00:14:46
Bis der Neue draußen ist, haben wir schon den R580. X-D
Was aber dem R520 nicht helfen wird.

Ich hab bis jetzt nur erwaehnt dass R580 nicht zu unterschaetzen ist, aber kein Wort ueber was die Konkurrenz im Aermel versteckt hat ;)

deekey777
2005-09-26, 00:19:02
Ich hab bis jetzt nur erwaehnt dass R580 nicht zu unterschaetzen ist, aber kein Wort ueber was die Konkurrenz im Aermel versteckt hat ;)

Hm, XGI? ;D

Die gelbe Eule
2005-09-26, 00:20:29
Würdest du das bitte erklären?


HL²:LostCoast ist immernoch Teil des JointVentures mit ATI. Dort schaut bald die ganze Welt hin, da nicht nur 100.000 das Spiel haben werden, sondern 1mio+.

Ailuros
2005-09-26, 00:22:02
Hm, XGI? ;D

LOL die dominieren den Markt immer noch in ihren Traeumen ;)

-error-
2005-09-26, 00:23:57
Wenn derzeit mehr oder weniger noch jede Information über ATIs kommende Grafikchip-Generation auf nicht verifizierten Gerüchten basiert, so kann man sich doch wenigstens auf die mehr oder weniger hochoffiziellen Aussagen von Chiphersteller TSMC verlassen, welcher laut Hard Tecs 4U derzeit die Serienproduktion von R520 (HighEnd), RV530 (Mainstream) und RV515 (LowCost) am laufen hat und diese Grafikchips nun auch an die Grafikkarten-Hersteller ausliefert. Angeblich sollen entsprechende Karte noch im September in den Markt kommen, dies erscheint uns allerdings als kaum noch realisierbar. Gerüchteweise war dagegen der 5. Oktober als Launch-Termin für den R520 HighEnd-Grafikchip zu hören.

Was macht euch da so sicher? Kurz nach der Release werden die ersten Karten erhältlich sein.

deekey777
2005-09-26, 00:24:33
HL²:LostCoast ist immernoch Teil des JointVentures mit ATI. Dort schaut bald die ganze Welt hin, da nicht nur 100.000 das Spiel haben werden, sondern 1mio+.

Und warum schneiden sie sich ins eigene Fleisch? :confused:

Die gelbe Eule
2005-09-26, 00:25:09
Νein. PowerVR hat in der Serie5 mehr als man fuer DX10 braucht.

***edit: das koennte leicht falsch verstanden werden; R520 ist ein SM3.0 chip (obwohl es ein paar kleine Zweifel dafuer geben wird). Nichtmal Xenos hat einen Geometrie-Shader und ist ergo auch nur ein SM3.0 chip. Das obrige Beispiel sollte nur zeigen dass es nicht absolut notwendig ist ueberfluessiges Zeug zu entfernen, wenn man vor einiger Zeit die Spezifikationen zu optimistisch eingeschaetzt hat.

Meinst also das sie SM 3.0 anders interpretieren, da dort ja auch Raum für Spielereien gegeben ist?

Die gelbe Eule
2005-09-26, 00:28:13
Und warum schneiden sie sich ins eigene Fleisch? :confused:

Bezog sich auf die Wichtigkeit der Implementierung von SM3.0 .
Jetzt brauchen sie es ja um mitzuhalten, ganz egal ob es genutzt wird oder nicht. Vorher haben sie es verschrien.

Ailuros
2005-09-26, 00:37:55
Meinst also das sie SM 3.0 anders interpretieren, da dort ja auch Raum für Spielereien gegeben ist?

Sagen wir es mal so dass ein Teil der "tollen" SM3.0 Implementierung erst mal spazieren gegangen ist; und das ist schon zu viel gesagt ;)

deekey777
2005-09-26, 00:49:31
Aus dem Computer-Bild Gewinnspiel:
http://img160.imageshack.us/img160/892/computerbld7jv.th.jpg (http://img160.imageshack.us/my.php?image=computerbld7jv.jpg)

Woher wissen die das? :biggrin:

Das Bißchen SM 3.0 in Lost Coast wird niemand mitkriegen.

Die gelbe Eule
2005-09-26, 01:07:09
Sagen wir es mal so dass ein Teil der "tollen" SM3.0 Implementierung erst mal spazieren gegangen ist; und das ist schon zu viel gesagt ;)

Dann wird es ja gar keine richtigen Vergleiche geben was SM 3.0 Performance angeht ... so ein Verdauungsspaziergang soll gut tuen, hörte ich ;)

Aus dem Computer-Bild Gewinnspiel:
http://img160.imageshack.us/img160/892/computerbld7jv.th.jpg (http://img160.imageshack.us/my.php?image=computerbld7jv.jpg)

Woher wissen die das? :biggrin:

Das Bißchen SM 3.0 in Lost Coast wird niemand mitkriegen.

Achja die Bild. Die ist noch schlimmer als Fuad, die erfinden sogar neue Dinge hinzu, auch wenn es sie gar nicht gibt. Auslegungssache nennt man das bei denen ;)

Coda
2005-09-26, 06:17:49
Shaderlastige Benchmarks lassen sich kaum mit SM 2.0 gewinnen ;)Was hat das Shadermodell mit der ALU-Performance zu tun? Nix.

Bitte einfach raushalten, wenn man eh keine Ahnung hat was Shader eigentlich sind *sigh*

Dann wird es ja gar keine richtigen Vergleiche geben was SM 3.0 Performance angeht ... so ein Verdauungsspaziergang soll gut tuen, hörte ich Wird es. ATi muss die komplette PS3.0 Spezifikation erfüllen, nur wie ist die Frage.

Ailuros
2005-09-26, 07:28:50
Gerade aus dem B3D forum gefischt:

http://www.hardspell.com/pic/2005/9/26/002cee46-6ca2-4129-bff7-2ed5c6a4f7d3.jpg

Interessante Platzierung was die vertikale Achse betrifft...

mapel110
2005-09-26, 07:34:41
http://www.hardspell.com/pic/2005/9/26/002cee46-6ca2-4129-bff7-2ed5c6a4f7d3.jpg
.
Bevor man da über fehlendes AGP jammert, darüber steht PCI-Express Roadmap. ;)

Inwiefern ist die Performancerelation unerwartet?! Seh da nix besonderes.

Ailuros
2005-09-26, 07:54:14
Dass die RV530 und RV515 zu GPUs der vorigen Generation relativiert ist kannst Du wohl sehen oder? Noch ein kleines Stueckchen weiter oben....

mapel110
2005-09-26, 07:55:32
Dass die RV530 und RV515 zu GPUs der vorigen Generation relativiert ist kannst Du wohl sehen oder? Noch ein kleines Stueckchen weiter oben....
Ja und?! Ist doch auf dem Niveau, wo man die Chips erwartet. Oder etwa nicht?! :confused:

Ailuros
2005-09-26, 07:56:53
Sag das nicht mir *hust* ;)

Asmodeus
2005-09-26, 08:24:23
Interessant an der neuen Roadmap ist auch, dass bei den neuen Chips jetzt an jeder Ecke eines der "ganz tollen, neuen Features" dransteht. Sieht ein wenig wirklich danach aus, als ob man das kaum vorhandene Mehr an zusätzlicher Leistung gegenüber der älteren Generation nun mit diesen Features "überdecken" möchte.

Gruss, Carsten.

SentinelBorg
2005-09-26, 08:33:34
Jo, ATI scheint da voll auf den H.264 und HDMI Support zu setzen. Ist aber sicher auch ein wichtiges Feature für die Zukunft.

Sentinel

Coda
2005-09-26, 08:34:01
Ich frag mich warum SM 3.0 nicht auf der Roadmap steht. Das ist doch eigentlich der wichtigste Teil an R520...

Winter[Raven]
2005-09-26, 08:46:17
Ich frag mich warum SM 3.0 nicht auf der Roadmap steht. Das ist doch eigentlich der wichtigste Teil an R520...

Haben wir dann beim Launch eine Weihrauchorige wie toll doch Shader Model 3.0 ist? :biggrin:

Ailuros
2005-09-26, 09:09:08
Jo, ATI scheint da voll auf den H.264 und HDMI Support zu setzen. Ist aber sicher auch ein wichtiges Feature für die Zukunft.

Sentinel

Wenn man den PC ins Wohnzimmer stellt sicher.

Coda
2005-09-26, 09:40:40
']Haben wir dann beim Launch eine Weihrauchorige wie toll doch Shader Model 3.0 ist? :biggrin:Vermutlich. Aber so würde die Marketingstrategie jedes GPU-Herstellers aussehen, da mach ich ATi keinen Vorwurf.

Wenn man den PC ins Wohnzimmer stellt sicher.Zumal eine Dual-Core-CPU keine Probleme damit hat HD-Videos zu dekodieren ;)

Winter[Raven]
2005-09-26, 10:29:53
Vermutlich. Aber so würde die Marketingstrategie jedes GPU-Herstellers aussehen, da mach ich ATi keinen Vorwurf.

Nun, das wird aber bei ATI nicht wirlich gut aussehen, und erst garnicht bei den Dev's, nicht nachdem man bei diesen zubesuch war und alle davon überzeugen wollte, kein Mensch braucht SM3.0...

Ich glaube da wird sogar kleine/schöne comparison folien von Nvidia geben zu der ganzen "nimmand braucht es, jetzt ist es wichtig" Sache...

Hätte ATI die 3.0 HW gleich nach Nvidia geliefert, würde man es noch verstehen, aber nicht nach so langer Zeit.

//Edit:

wenigstens hat die ganze Sache einen Vorteil, nähmlich die Verbreitung der SM3.0 Games.

Ronny145
2005-09-26, 10:36:02
Die X1800 XL soll 7016 Punkte im 3dmark05 erhalten haben.
http://www.hkepc.com/bbs/viewthread.php?tid=477628

HanSolo78
2005-09-26, 10:38:53
Neuer Spekustoff:

http://www.hkepc.com/bbs/viewthread.php?tid=477628

Edit: Upsa.. 2Min. zu spät

Coda
2005-09-26, 10:49:39
']Nun, das wird aber bei ATI nicht wirlich gut aussehen, und erst garnicht bei den Dev's, nicht nachdem man bei diesen zubesuch war und alle davon überzeugen wollte, kein Mensch braucht SM3.0...Es gibt schon zig Folien zu SM 3.0 auf developer.ati.com. Man hat den Entwicklern nur von dynamic branching abgeraten - was nVIDIA auch tut und auch sinnvoll ist.

']wenigstens hat die ganze Sache einen Vorteil, nähmlich die Verbreitung der SM3.0 Games.Wer nämlich mit h schreib ist... :tongue:

Zum 3dfart score: Die Werte stimmen wohl, aber in Spielen wird es vermutlich sehr viel anders aussehen.

dildo4u
2005-09-26, 11:06:38
Ich find den score der XL eher niedrig normalerweise ist ATI ja immer der 3Dmark Champ aber da kommt die 7800GT auf 7300 Punkte auf dem selben system.

X1800XL
http://www.hkepc.com/bbs/attachment.php?aid=289492&noupdate=yes

7800GT
http://www.hkepc.com/bbs/attachment.php?aid=289493&noupdate=yes

Und die Karten Spielen ja Preislich in der selben Klasse so um 350-390€.

Die gelbe Eule
2005-09-26, 11:14:57
Man weiß nichtmal ob sie den 81.26 genommen haben, der nochmal mehr Benchmarkperformance gibt. Steht also 1:0 für Nvidia.

Also GTX vs. XT wird interessant.

dildo4u
2005-09-26, 11:17:10
Also GTX vs. XT wird interessant.
Für die meisten nicht wirklich die GT und die XL sind für viele whol die Preis Leistung technisch interesantesten Karten mein persönliches Preislimit liegt bei 400€.

dargo
2005-09-26, 11:20:30
Naja, cool bleiben.
Mir fehlen immer noch sehr wichtige Informationen.

Wurde die G7800GT mit dem flimmerfreien Treiber in HQ gebencht ?
Flimmert die X1800XL ?
Bricht die X1800XL stärker oder schwächer ab bei AA/AF, in Games ?
Wie ausgereift sind die Treiber für den R520 ?

Fragen über Fragen die noch beantwortet werden müssen. ;)

Winter[Raven]
2005-09-26, 11:24:46
Für die meisten nicht wirklich die GT und die XL sind für viele whol die Preis Leistung technisch interesantesten Karten mein persönliches Preislimit liegt bei 400€.

Die Gtx liegen jetzt schon fast bei 450€, und weiter fallend..

Die gelbe Eule
2005-09-26, 11:28:48
410€ (http://shop.strato.de/epages/Store.storefront/?ObjectPath=/Shops/15322312/Products/1090103) für ne GTX ;)

Trotzdem kann man nur hoffen das NV auch nachlegt, damit die Preise weiter fallen bei beiden Herstellern. So wäre es vielleicht noch einfach auf PCI-E umzusteigen.

Winter[Raven]
2005-09-26, 11:30:28
Bis zum 0.9µ Refresh wird es seitens NV nichts wirklich neues geben, ausser einer 512 MB 7800 GTX Edition.

dildo4u
2005-09-26, 11:30:35
410€ (http://shop.strato.de/epages/Store.storefront/?ObjectPath=/Shops/15322312/Products/1090103) für ne GTX ;)

475,00 € / Stück?

Die gelbe Eule
2005-09-26, 11:35:16
Hab wohl nicht auf den Preis geschaut, haben die wohl wieder geändert :(

Naja Amazon (http://www.amazon.de/exec/obidos/ASIN/B000A7MMTU/hardwareschot-21/ref%3Dnosim/028-4236750-8398935) bietet eine für 429€ an ...

dargo
2005-09-26, 11:35:52
Die Benchmarks von www.hkepc.com sind entweder ein Fake oder es wurde eine G7800GT mit 430/550Mhz verwendet.

Eine "normale" G7800GT mit 400/500Mhz liegt bei ~6750 mit einem A64 4000+.
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_aopen_aeolus_7800_gt/6/

Der FX55 von www.hkepc.com hat aber 200Mhz mehr Takt.

Ich kann mir aber kaum vorstellen, daß diese 200Mhz ~600 Punkte mehr beim 3DMark05 bringen sollen.

dildo4u
2005-09-26, 11:43:22
Die Benchmarks von www.hkepc.com sind entweder ein Fake oder es wurde eine G7800GT mit 430/550Mhz verwendet.

Eine "normale" G7800GT mit 400/500Mhz liegt bei ~6750 mit einem A64 4000+.
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_aopen_aeolus_7800_gt/6/

Der FX55 von www.hkepc.com hat aber 200Mhz mehr Takt.

Ich kann mir aber kaum vorstellen, daß diese 200Mhz ~600 Punkte mehr beim 3DMark05 bringen sollen.Ja und warum sollte man die nicht Benchen die Aopen z.B hat den Takt ist lieferbar und nicht teurer als die anderen 7800GTs http://www.geizhals.at/deutschland/a161753.html

Vieleicht gibts ja von der X1800XL auch Spzielle OC versionen.

robbitop
2005-09-26, 11:43:39
Vermutlich. Aber so würde die Marketingstrategie jedes GPU-Herstellers aussehen, da mach ich ATi keinen Vorwurf.

Nur dass ATI als einziger IHV betonte SM3 sei sinnlos. Naja wen interessiert das Geschwätz von Gestern? Auch das ist leider bei jedem IHV so...

Die gelbe Eule
2005-09-26, 11:46:04
Die Benchmarks von www.hkepc.com sind entweder ein Fake oder es wurde eine G7800GT mit 430/550Mhz verwendet.

Eine "normale" G7800GT mit 400/500Mhz liegt bei ~6750 mit einem A64 4000+.
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_aopen_aeolus_7800_gt/6/

Der FX55 von www.hkepc.com hat aber 200Mhz mehr Takt.

Ich kann mir aber kaum vorstellen, daß diese 200Mhz ~600 Punkte mehr beim 3DMark05 bringen sollen.

Stimmt. 3D05 ist eher Grafikkartenlimitiert als CPUlimitiert. 200MHz Takt machen da keinen so großen Unterschied aus. 200 Punkte ja aber nicht 600.

Coda
2005-09-26, 11:49:36
Nur dass ATI als einziger IHV betonte SM3 sei sinnlos. Naja wen interessiert das Geschwätz von Gestern? Auch das ist leider bei jedem IHV so...Haben sie das wirklich so deutlich? Kann ich mich schon gar nicht mehr dran erinnern...

Ich weiß nur dass sie sagten dynamic branching sei zu lahm. Was ja auch teilweise richtig ist.

Ich find den score der XL eher niedrig normalerweise ist ATI ja immer der 3Dmark Champ aber da kommt die 7800GT auf 7300 Punkte auf dem selben system.Sie haben diesmal den Füllratennachteil. Das muss ich immer wieder betonen.

Die gelbe Eule
2005-09-26, 11:52:24
Sie haben diesmal den Füllratennachteil. Das muss ich immer wieder betonen.

Ist da jemand traurig deswegen? Sie hätten das Design ja anders auslegen können, aber sie haben sich nunmal für diesen Weg entschieden.

BodyLove
2005-09-26, 11:54:00
Nur dass ATI als einziger IHV betonte SM3 sei sinnlos. Naja wen interessiert das Geschwätz von Gestern? Auch das ist leider bei jedem IHV so...

hatten sie damals nicht die Variable Zeit in dieser Aussage mit einbezogen? Ich meine mich daran erinnern zu wollen, dass sie dies taten.

dargo
2005-09-26, 11:58:03
Ja und warum sollte man die nicht Benchen die Aopen z.B hat den Takt ist lieferbar und nicht teurer als die anderen 7800GTs http://www.geizhals.at/deutschland/a161753.html

Hier gehts ums Prinzip.
Wenn man schon Grakas vergleicht dann bitte mit den vorgegebenen Taktraten von NV und ATI.
Sonst wird ein völlig falsches Bild erzeugt. Was ist wenn sich die GPU der X1800XL um 80Mhz und der Speicher um 50Mhz übertakten lässt ?

Wenn ein Noob die Benchmarks sieht ist er sofort der Meinung - eine G7800GT schlägt die X1800XL (in diesem Fall beschränkt auf den 3DMark05).
Das stimmt aber nicht, denn die X1800XL ist schneller (gehen wir mal davon aus, die Werte stimmen).


Vieleicht gibts ja von der X1800XL auch Spzielle OC versionen.
Durchaus möglich.
Bei diesen Benchmarks war es aber sicherlich keine OC Version.

up¦²
2005-09-26, 12:04:37
Laut neusten Gerüchten hat es Anfang Sept. einen schweren (tödlichen!) Unfall bei TSMC gegeben i.Z.m. Lk. Die Ausbeute (Yields) soll dramatisch sein: 3% :eek:

Es wird handverlesene 520 16er geben ... Kartenbäcker in Taiwan wollen scheinbar den 515er aufmotzen: etwa mit 256bit Speicher? :confused:

Eben kam bei Digitimes folgende Meldung:
ATI turns to UMC for 90nm R-series orders (http://www.digitimes.com/news/a20050926A1002.html)


UMC will enter volume production of the R521, RV531 and RV516 chips for ATI from the end of this year, the sources noted.

Sollte doch stutzig machen, oder? Dann kämen erst Anfang 2006 Karten in den Handel.

robbitop
2005-09-26, 12:10:05
Ja und warum sollte man die nicht Benchen die Aopen z.B hat den Takt ist lieferbar und nicht teurer als die anderen 7800GTs http://www.geizhals.at/deutschland/a161753.html

Vieleicht gibts ja von der X1800XL auch Spzielle OC versionen.
Ich kann mir vorstellen, dass NV zum R5xx launch XFX oder Gainward 7800GTX Karten an die Presse ausgiebt. Die laufen von Werk aus mit Übertaktung (im G70 ist ja auch Luft nach oben). Dazu vermutlich ein A64 X2 und einen FW8x.xx. Vieleicht aber auch nicht. Wer weiß das schon...?

Wirklich ankreiden kann man das kaum, da es ja bereits lieferbar ist. Sapphire wird in den spezial Editionen gewiss auch wieder standard OC ab Werk liefern.

robbitop
2005-09-26, 12:15:12
Laut neusten Gerüchten hat es Anfang Sept. einen schweren (tödlichen!) Unfall bei TSMC gegeben i.Z.m. Lk. Die Ausbeute (Yields) soll dramatisch sein: 3% :eek:

Es wird handverlesene 520 16er geben ... Kartenbäcker in Taiwan wollen scheinbar den 515er aufmotzen: etwa mit 256bit Speicher? :confused:

Eben kam bei Digitimes folgende Meldung:
ATI turns to UMC for 90nm R-series orders (http://www.digitimes.com/news/a20050926A1002.html)




Sollte doch stutzig machen, oder? Dann kämen erst Anfang 2006 Karten in den Handel.

man lagert lediglich etwas aus. Da kann man vieleicht bessere Preise ereichen. Das mit den Yields sind erstmal nur Gerüchte. Ich nehme an, dass die Kapazitäten noch nicht groß genug sein könnten.
90nm sollte eigentlich mittlerweile reif genug sein. Vieleicht strebt ATI einfach zu hohe Taktraten an. Dann würde der Yield natürlich einbrechen. Ich hoffe wir erleben nicht schon wieder eine Press Edition.
Das fand ich schon zum NV40U und zur X800XT PE unpassend. Dann braucht man diese Karten nicht vorzustellen.

Coda
2005-09-26, 12:15:43
hatten sie damals nicht die Variable Zeit in dieser Aussage mit einbezogen? Ich meine mich daran erinnern zu wollen, dass sie dies taten.Auch das ist Humbug. Es gab schon einiges was man auch dieses und letztes Jahr an SM 3.0 brauchen können hätte. Z.B. mehr Interpolatoren, statisches Branching und beliebiges Swizzeling.

mapel110
2005-09-26, 12:19:57
Sollte doch stutzig machen, oder? Dann kämen erst Anfang 2006 Karten in den Handel.
Sieht für mich eher nach AGP-Versionen aus, wobei es merkwürdig ist, weils ja den Rialto-Chip gibt.
Kann natürlich dennoch sein, dass ATI den Chips neue Codenamen verpasst und eben den Boardherstellern das Entwickeln von AGP-Boards abnimmt.

up¦²
2005-09-26, 12:33:48
Most of these info can be seem at
http://forum.pcdvd.com.tw/showthread.php?t=527060&page=5&pp=40
although the original info mostly came out on Gzeasy's forum

first is that recently the die size of R520 got slightly bigger
from 18.2mm x 19mm to 19.3mm x 19mm

there was an accident during early september, during an experiemntabout the PECVD process, one person was seriously wounded, and at least another one was hurt as well.

ATI is still trying to get a 24ps model out before october 5th, although at best its very difficult....

ATI still have not speced the # of ps on the XT version of R520

X1300 is actually the one to watch right now.

ATI released X1xxx Media Sample but only X1800XL and X1300Pro.

R520's TDP have increased due to processes tuning.

In order to get better yeild, TSMC increased the K value of the dielectric in the process. However this change brings about a 5%~15% increase in TDP. And this increase is far more pronounced in the high clocked versions than the low-end. (so they say the effect on low end is minimal)

The problem is that this sacrifice didn't bring the yield up, the change in yield was about 1% only.

The total yield of RV530 and R520 is about 30%, so the yielf on R520 was 3% is probabily correct. RV515 on the other hand is a whole lot better...

So some board makers are planing to ship highly overlocked 512MB version on RV515 boards in the mid-end.

The problem regarding RV530 and R520 seems to be low-k, while the RV515 is using low-k as well, it did got affected as badly. (NV's G72/G73 is not using low-K)

Most of the 25%~35% of RV530 yielded got onyl 8ps, not the 16ps ATI hope for.

http://www.digitimes.com.tw/n/article.asp?id=9A82FE09B3943223482570850045797F

There R521, RV531, and RV516 designs, which are basically the -1 models with newly tuned libraries. However the R520 design will not work withough low-k, while the RV stuff may work without it.

RV515 design seems t work without low-k.

RV530 design may work without low-k but the clock speed will be hampered.

NV stays out of using low-K.

Idiot (ein Chinese und alles, ausser das! :wink: ) vom Aceshardware-Forum (http://www.aceshardware.com/forums/read_post.jsp?id=115141736&forumid=1) hat mal alles kurzerhand zusammengefaßt! :smile:

robbitop
2005-09-26, 12:35:57
Sieht für mich eher nach AGP-Versionen aus, wobei es merkwürdig ist, weils ja den Rialto-Chip gibt.
Kann natürlich dennoch sein, dass ATI den Chips neue Codenamen verpasst und eben den Boardherstellern das Entwickeln von AGP-Boards abnimmt.
Neuer Codename da andere Foundry ... outsourcing.
AGP Chips wirds IMO nicht mehr wirklich geben.

Die gelbe Eule
2005-09-26, 12:37:17
Aua aua, das hört sich gar nicht gut an und ATI muss wohl kräftig improvisieren.

Coda
2005-09-26, 12:46:02
Idiot (ein Chinese und alles, ausser das! ) vom Aceshardware-Forum hat mal alles kurzerhand zusammengefaßt!Das DIE ist kleiner als R480 (ja, das sieht man anhand der Kartenbilder) und nein es sind nur 16 Pipelines. Den Rest den ich überflogen habe ist genauso erfunden.

deekey777
2005-09-26, 13:38:42
Wenn man den PC ins Wohnzimmer stellt sicher.

Steht dein Rechner im Wohnzimmer, weil deine Grafikkarte einen Videoausgang hat? ;)

Von Sony und V7 (oder irgendwas mit "Video" im Namen) gibt es mehrere PC-LCDs mit einem HDMI-Eingang (und natürlich mit HDCP). Es wäre doch für den Verbraucher eine tolle Sache, wenn die frischgekaufte HD-DVD verlangt, nur über den per HDCP-geschützten digitalen Ausgang ausgegeben zu werden.

...

Eben kam bei Digitimes folgende Meldung:
ATI turns to UMC for 90nm R-series orders (http://www.digitimes.com/news/a20050926A1002.html)


Ach, die RV516 heißt doch RV516 und nicht R516.

up¦²
2005-09-26, 14:43:17
RV531 aka x1600
V= value?

StefanV
2005-09-26, 15:06:49
RV531 aka x1600
V= value?
Richtig!

Nur die Top Modelle haben kein V im Namen, siehe z.B. R350 zu RV350

Horimoto
2005-09-26, 15:29:48
Hatd ie XL jetzt 500/500, so hiess es doch von HKEPC, oder hat sie 550/600 Mhz???

Laut VRZone, HKEPC hat doch die XL dann die 500/500, dann wären 7000P aber seh gut denke ich, doe Pro wäre dann preislich wie perf. mässig der GTX gleich, und die XT wäre das TopProdukt überhaupt.

LAut VRZone sollen XT und XL ab launch verfügbar sein..........wers glaubt ;)

robbitop
2005-09-26, 16:24:58
Man sollte nicht vergessen, dass 3DM05 Vertexpower anrechnet, wovon R5xx deutlich mehr haben sollte als eine G70. IMO sollte man Realworldbenches abwarten. Ich bin ja mal auf FEAR gespannt.

Horimoto
2005-09-26, 17:06:26
Ow ja FEAR, das dürfte wohl die höchste PS Power verlangen.
Aber auch ElderScrolls4 dürfte die GraKa extrem beanspruchen

Coda
2005-09-26, 17:24:28
Elder Scrolls 4 sieht für mich aber eher nach Vertexpower und Füllrate aus.

Horimoto
2005-09-26, 17:28:01
Ja da haste schon Recht,
trotzdem, welche Grafikintensiven Spiele kommen denn ncoh raus? NFSMW? Eher weniger denke ich, und auch Quake4 kann man nicht (mehr) dazuzählen.

3d
2005-09-26, 17:35:29
duke nuken forever :biggrin:
kommt stalker eigentlich noch vor 2010 raus? (was machen die russen den ganzen tag? saufen?)

ich denke in nächster zeit kommen schon einige gute neue spiele raus.
muss ja nicht immer alles 2 jahre vorher gehypt werden.

horn 12
2005-09-26, 17:43:41
ich blicke nun KOMPLETT nicht mehr durch ,
muss ich mir doch noch eine X800 pro / X800 XT holen auf AGP
da die x1600 nun erst im dezember kommen sollen ( und auf agp ?? )
wohl erst nä. jahr ??

oder ist dies alles mist ;
und die X1600 XT Karten kommen doch schon am 5 Oktober raus und zu kaufen bereits ?
da blicke einer noch durch ,
WILL NUN ENDLICH ein STATEMENT von ati haben und dies noch heute !

so kann man doch mit treuen Kunden NICHT umgehen !
oder sollen alle zu Nvidia wechseln ?

Coda
2005-09-26, 17:43:57
Ja da haste schon Recht,
trotzdem, welche Grafikintensiven Spiele kommen denn ncoh raus? NFSMW? Eher weniger denke ich, und auch Quake4 kann man nicht (mehr) dazuzählen.Project Offset z.B. :)

Winter[Raven]
2005-09-26, 17:47:49
Project Offset kommt aber nicht in nächster Zeit raus... bis dahin sind die Refreshs da wenn nicht sogar die WGF2.0....

dildo4u
2005-09-26, 17:49:39
Es wird nästes Jahr schon massig Umsetzungen von Next Gen Kosnolen Games geben und die Unreal Engine 3 Steht an(UT2007).

Coda
2005-09-26, 17:50:22
']Project Offset kommt aber nicht in nächster Zeit raus... bis dahin sind die Refreshs da wenn nicht sogar die WGF2.0....Klar. Vorteil für ATi :D
Die schummeln sich doch immer irgendwie durch...

3d
2005-09-26, 17:55:20
Project Offset kommt aber nicht in nächster Zeit raus... bis dahin sind die Refreshs da wenn nicht sogar die WGF2.0.... so ein gutes neues spiel braucht ja auch mittleweile längere entwicklungszeit als ein neuer grafikchip. (entwickeln ATI und nvidia eigentlich im 3 schichten betrieb?)

für die x1800xt wäre alles unter 8000 punkte ne riesen enttäuschung.
ich hoffe auf 9000punkte.

mapel110
2005-09-26, 17:58:03
(entwickeln ATI und nvidia eigentlich im 3 schichten betrieb?)

Für die Desktop Chips sinds afaik wirklich bei beiden (nvidia und ATI) 2 Teams.


für die x1800xt wäre alles unter 8000 punkte ne riesen enttäuschung.
ich hoffe auf 9000punkte.
Najo, wenn man 3DMark zockt ... ;)

-error-
2005-09-26, 18:15:03
Vielleicht habe ich es ja überlesen.

Aber warum legt man sich nicht auf 24 Pipes fest und senkt dafür den Takt auf sagen wir mal 430 Mhz.

Liegt das direkt jetzt nur am 0.09µ Fertigungsprozess?

deekey777
2005-09-26, 18:15:50
ich blicke nun KOMPLETT nicht mehr durch ,
muss ich mir doch noch eine X800 pro / X800 XT holen auf AGP
da die x1600 nun erst im dezember kommen sollen ( und auf agp ?? )
wohl erst nä. jahr ??

oder ist dies alles mist ;
und die X1600 XT Karten kommen doch schon am 5 Oktober raus und zu kaufen bereits ?
da blicke einer noch durch ,
WILL NUN ENDLICH ein STATEMENT von ati haben und dies noch heute !

so kann man doch mit treuen Kunden NICHT umgehen !
oder sollen alle zu Nvidia wechseln ?

Poste doch auch mal, wo du es gelesen hast. :)
RV530, Radeon X1600 to come in December (http://www.theinq.com/?article=26470)
Radeon X1300, RV515 goes AGP (http://www.theinq.com/?article=26471)

Sollte das mit der XI600er stimmern, kann ich nur den Kopf schütteln... Das ist Shice hoch neun.

3d
2005-09-26, 18:29:46
Für die Desktop Chips sinds afaik wirklich bei beiden (nvidia und ATI) 2 Teams. wie dann jetzt? in 2 schichten? nachts wird nicht gearbeitet?

3dmark ist ja wohl das zweit wichtigste auf der welt. nur darauf kommt es an. :smile:

mapel110
2005-09-26, 18:35:50
wie dann jetzt? in 2 schichten? nachts wird nicht gearbeitet?

Abwechselnd designen sie wohl die jeweils nächste Generation. Ein Team R300, das andere bereits R400, dann übernimmt das R300-Team die Arbeit am R500 und so weiter ...

-error-
2005-09-26, 18:39:42
wie dann jetzt? in 2 schichten? nachts wird nicht gearbeitet?

3dmark ist ja wohl das zweit wichtigste auf der welt. nur darauf kommt es an. :smile:

Tja, Benchmarks haben ihre Vor- als auch Nachteile.

Pro

Sie treiben dem Wettbewerb, bzw. die Entwicklung an

Contra

Unter Cheatz leidet die Bildqualität erheblich, die Bildqualität rückt in den Hintergrund, Performance in den Vodergrund.

Futuremark hat die Szene verändert ;)

seahawk
2005-09-26, 18:40:16
Für die meisten nicht wirklich die GT und die XL sind für viele whol die Preis Leistung technisch interesantesten Karten mein persönliches Preislimit liegt bei 400€.

Ich habe 349- für meine GT bezahlt.

3d
2005-09-26, 18:41:49
Abwechselnd designen sie wohl die jeweils nächste Generation. Ein Team R300, das andere bereits R400, dann übernimmt das R300-Team die Arbeit am R500 und so weiter ...
ja aber mir ging es um die arbeitszeit. 8h/tag, 16h/tag oder 24h/tag?

seahawk
2005-09-26, 18:42:25
Da ist man mal einige Tage offline und wundert sich wi e der Thread hier abgeht. Witzigerweise sind hier alle wichtigen Informationen zur neuen Generation bereits drinne. Aber niemand (von denen die es nicht sowieso schon wissen) merkt es.

Die gelbe Eule
2005-09-26, 18:44:50
Nun ist die Frage wann sie denn kommen mögen ^^

-error-
2005-09-26, 18:51:45
Ich habe 349- für meine GT bezahlt.

Dafür das nächstes Jahr eine nächste Generation kommt sind 700 DM nicht gerade wenig ;)

Coda
2005-09-26, 18:52:12
Das lass doch mal seine Sorge sein.

seahawk
2005-09-26, 19:04:42
Dafür das nächstes Jahr eine nächste Generation kommt sind 700 DM nicht gerade wenig ;)

Nicht, von vorher im privaten PC noch ne R300 drinne war. Habe ich erwähnt, dass TSAA ein Killerfeature ist. Zu hause habe ich ja mal die Zeit bewußt zu zocken.

up¦²
2005-09-26, 19:19:03
Warst wohl auf Ibiza? :tongue:

Leg mal los!

up¦²
2005-09-26, 19:22:25
*Fuad*Radeon X1300, RV515 goes AGP (http://67.19.9.2/?article=26471) *Fuad*

HOW ABOUT $100 for a low end board with 512MB? At the same time the board is AGP or PCIe and will have support for HDR and Shader model 3.0? There will be solution for you. It's called RV515 and will be known as Radeon X1300, AGP of course.

... :tongue:

RV530, Radeon X1600 to come in December (http://67.19.9.2/?article=26470)

THINGS ARE finally starting to make sense.

Wurde auch ZeiT... :rolleyes:

Die gelbe Eule
2005-09-26, 19:23:06
Wer es schlau angeht, zahlt jedes Jahr nur 100€ drauf und hat die zweitschnellste GPU. Das rechnet sich schon.

Oblivion
2005-09-26, 19:27:12
*Fuad*Radeon X1300, RV515 goes AGP (http://67.19.9.2/?article=26471) *Fuad*

HOW ABOUT $100 for a low end board with 512MB? At the same time the board is AGP or PCIe and will have support for HDR and Shader model 3.0? There will be solution for you. It's called RV515 and will be known as Radeon X1300, AGP of course.

... :tongue:

Naja naja naja .... so toll find i des net

aber was anderes: ist das links aufm Bild der Fuad :biggrin:

http://67.19.9.2/images/ads/Surplus/weathergirl.jpg

TheGood
2005-09-26, 19:31:26
Da ist man mal einige Tage offline und wundert sich wi e der Thread hier abgeht. Witzigerweise sind hier alle wichtigen Informationen zur neuen Generation bereits drinne. Aber niemand (von denen die es nicht sowieso schon wissen) merkt es.
h.264 encoding/decoding
ringbus
16 pp
SM3.0 aber wohl doch ned ganz
hohe vertex power, dafür weniger ps power
neue antialising modi, nur ohne infos.

kannst gerne noch mehr beitragen ;)

Winter[Raven]
2005-09-26, 19:33:04
+ Heiß
+ Laut
+ Schlecht verfügbar mit Ausnahmen
+ Performance unterhalb des G70

Coda
2005-09-26, 19:36:08
']+ HeißNicht sicher.
']+ LautNicht sicher.
']+ Schlecht verfügbar mit AusnahmenDas schon eher.
']+ Performance unterhalb des G70Das muss sich noch zeigen, auch wenn diesmal der Füllratenvorteil nicht da ist.

-error-
2005-09-26, 19:42:14
']+ Heiß
+ Laut
+ Schlecht verfügbar mit Ausnahmen
+ Performance unterhalb des G70

Dafür das du so gut informiert sein willst, schreibst du viel Stuss ;)

Zumindest die Stromaufnahme ist sensationell niedrig, liegt bei etwas über 60 Watt (X1800 XT)

Daraus kann man schon sehr viel ableiten.

Performance unterhalb des G70? Kläre uns mal bitte auf :)

mapel110
2005-09-26, 19:43:48
Kläre uns mal bitte auf :)
Klär du uns auf, wo du die 60 Watt hergezaubert hast. Find ich jedenfalls unrealistischer als geringer Performance gegenüber G70.

Coda
2005-09-26, 19:45:11
60W ist absolut unrealistisch. Wenn es so wäre würde man einfach höher takten bis man wieder bei >90W ist...

Außerdem bräuchte man für 60W sicherlich keine Dual-Slot-Kühlung bei der XT.

dildo4u
2005-09-26, 19:47:15
60W ist absolut unrealistisch. Wenn es so wäre würde man einfach höher takten bis man wieder bei >90W ist...
EDIT zu langsam:Ebend und für 60w brauchts auch keine Dual Slot Kühlung.

Die gelbe Eule
2005-09-26, 19:50:24
ATI Technologies has placed orders with United Microelectronics Corporation (UMC) to produce its R521, RV531 and RV516 graphics processing units (GPUs) using 90nm technology, according to industry sources. The GPUs have similar designs as the upcoming R520, RV530 and RV515 GPUs, which are being manufactured at Taiwan Semiconductor Manufacturing Corporation (TSMC), noted the sources.

Sind das die gleichen Chips mit anderem Namen weil sie von UMC kommen?

-error-
2005-09-26, 19:57:55
60W ist absolut unrealistisch. Wenn es so wäre würde man einfach höher takten bis man wieder bei >90W ist...

Außerdem bräuchte man für 60W sicherlich keine Dual-Slot-Kühlung bei der XT.

Achja?


Interessant sind noch die Angaben der Kollegen, dass die Pro in voll ausgebauter Form knapp 40 Watt und die XT zirka 55 bis 60 Watt verbrauchen soll

In der CT hat ATI auch letztens gemeint, dass die Stromaufnahme eher sinken als steigen soll, ich kann den Teil auch gerne hier reinschreiben ;)

Winter[Raven]
2005-09-26, 19:58:36
Nicht sicher.
Nicht sicher.
Das schon eher.
Das muss sich noch zeigen, auch wenn diesmal der Füllratenvorteil nicht da ist.

Ich sage nur was unser lead technologist sagt ^^, bzw. das was ich auf der GC gesehn habe im Bezug auf Lautstärke und Hitze.

//EDIT

Mit Pef. beziehe ich mich nicht auf die heutigen Games, da werden die beiden nah einander liegen.

Coda
2005-09-26, 20:01:31
Achja?Ja.

-error-
2005-09-26, 20:01:35
EDIT zu langsam:Ebend und für 60w brauchts auch keine Dual Slot Kühlung.

Völlig falsch!

Warum wird der Winchester wärmer als der New Castle, obwohl der Winchester eine deutlich geringere Leistungsaufnahme hat?

Vielleicht wegen der kleineren Die, das man die Wärme schlechter abführen kann? :rolleyes:

-error-
2005-09-26, 20:02:11
Ja.

Woher willst du das wissen, hmm?

Es spricht mehr dafür als dagegen!

deLuxX`
2005-09-26, 20:04:17
Völlig falsch!

Warum wird der Winchester wärmer als der New Castle, obwohl der Winchester eine deutlich geringere Leistungsaufnahme hat?

Vielleicht wegen der kleineren Die, das man die Wärme schlechter abführen kann? :rolleyes:

Hast du einen Link der das zeigt? Gerade das Beispiel mit Winchester und Newcastle.

-deLuxX`

Die gelbe Eule
2005-09-26, 20:04:43
S3 wollte doch auch mit einem Chip kommen der hohe Taktraten aber nur 5-15W Leistungsaufnahme hat. Also 60W ist dagegen schon ne Menge.

seahawk
2005-09-26, 20:05:58
Dafür das du so gut informiert sein willst, schreibst du viel Stuss ;)

Zumindest die Stromaufnahme ist sensationell niedrig, liegt bei etwas über 60 Watt (X1800 XT)

Daraus kann man schon sehr viel ableiten.

Performance unterhalb des G70? Kläre uns mal bitte auf :)

Sensationell ? Hmm ne 7800GT liegt um 60Watt, im 110nm Prozess und ohne low-k.

Coda
2005-09-26, 20:06:32
Woher willst du das wissen, hmm?

Es spricht mehr dafür als dagegen!Eh. Ein Dual-Slot-Kühler spricht für 60W? Bitte bitte bitte, seid doch mal etwas realistischer.

ATi hatte ewig Probleme mit dem Fertigungsprozess. Die werden sicher nicht von heute auf morgen verschwunden sein.

Sunrise
2005-09-26, 20:11:53
Zumindest die Stromaufnahme ist sensationell niedrig, liegt bei etwas über 60 Watt (X1800 XT)

Das sind Schätzungen basierend auf "pre-production boards" der X1600 Pro / XT, nicht von X1800 XL / XT.

-error-
2005-09-26, 20:17:00
Hast du einen Link der das zeigt? Gerade das Beispiel mit Winchester und Newcastle.

-deLuxX`

Stand in mehreren Threads bei Hardwarelux.

-error-
2005-09-26, 20:17:53
Sensationell ? Hmm ne 7800GT liegt um 60Watt, im 110nm Prozess und ohne low-k.

Die Taktraten sind ja auch geringer ;)

deLuxX`
2005-09-26, 20:23:05
Stand in mehreren Threads bei Hardwarelux.

Aha. :|
Soll ich dir was sagen. Das ist Quatsch. Stimmt einfach nicht.

Aber gut, ist Offtopic.

-deLuxX`

deLuxX`
2005-09-26, 20:24:43
Die Taktraten sind ja auch geringer ;)

Dafür hast du aller Vorraussicht nach (bedeutend) weniger Transen im R520. :eek:

-deLuxX`

seahawk
2005-09-26, 20:26:39
Die Taktraten sind ja auch geringer ;)

Tja, irgendwo muss der Vorteil von 90nm ja auch zu finden sein. Sensationell finde ich dies (auch im Hinblick auf den aktiven Transistorcount) nicht.

-error-
2005-09-26, 20:28:46
Dafür hast du aller Vorraussicht nach (bedeutend) weniger Transen im R520. :eek:

-deLuxX`

Das wissen wir noch nicht, AVIVO kostet auch Transistoren.

-error-
2005-09-26, 20:29:45
Aha. :|
Soll ich dir was sagen. Das ist Quatsch. Stimmt einfach nicht.

Aber gut, ist Offtopic.

-deLuxX`

Wenn du meinst, ich habe eben danach gesucht, über 14 Seiten als Suchergebnis wollte ich nicht durchforsten.

dargo
2005-09-26, 20:40:28
Eh. Ein Dual-Slot-Kühler spricht für 60W? Bitte bitte bitte, seid doch mal etwas realistischer.

Dann kannst du mir vielleicht erklären wieso die X850XT einen Dual-Slot-Kühler hat ?
Die liegt nämlich bei ~63W.

horn 12
2005-09-26, 20:48:01
diskutiert bitte nciht über die Leistungsaufnahme ,
ob nun 60 oder 90 wATT ; wichtig ist die Leistung und die Lautstärke ( ok = abhängig von den WATT die verbraucht werden )

viel wichtiger ist doch dass die karten verfügbar sein müssten / sollten / dürften !!!!!!!!!!! Hoffe ich mal Stark !

NUR dies mit der X1600 XT bringt mich komplett durcheinander !
ati weiss ja , das der R520 kommen sollte , und da werden sie doch nicht noch einige 1000 alte GPU liegen haben im Lager oder wie !

hoffe das war ein schetz um nvidia zu verunsichern , und dann voll zuzuschlagen -
aber ab Nä. Mittwoch werden wir es wohl wissen ,
ODER gibt es neue --> offizielle <--- Meldungen zum X1600 XT - auch auf AGP bezogen ?

mindfaq
2005-09-26, 20:48:59
Warum wird der Winchester wärmer als der New Castle, obwohl der Winchester eine deutlich geringere Leistungsaufnahme hat?Das ist ganz einfach Quatsch. Kein Winchester wird wärmer als ein Newcastle, solange kein DAU am Werk war.

dargo
2005-09-26, 20:53:21
diskutiert bitte nciht über die Leistungsaufnahme ,
ob nun 60 oder 90 wATT ; wichtig ist die Leistung und die Lautstärke ( ok = abhängig von den WATT die verbraucht werden )

Du hast es erkannt. ;)
Wenn das Topmodell des R520 90W verbraten sollte dann bin ich gezwungen den G70 zu nehmen. Denn 90W nahezu lautlos mit Luft zu kühlen ist fast unmöglich.

dargo
2005-09-26, 20:57:41
Warum wird der Winchester wärmer als der New Castle, obwohl der Winchester eine deutlich geringere Leistungsaufnahme hat?

Kannst du das eventuell näher erklären. Ist für mich total unlogisch :

http://www.hardtecs4u.com/images/reviews/2005/amd_90nm/leistung.png

Wie soll der Winchester wärmer sein wenn seine Verlustleistung kleiner ist ? :|

-error-
2005-09-26, 21:05:54
Das ist ganz einfach Quatsch. Kein Winchester wird wärmer als ein Newcastle, solange kein DAU am Werk war.

Kommt ja nicht von mir, ich habe es bei Hardwareluxx gelesen ;)

-error-
2005-09-26, 21:07:32
Kannst du das eventuell näher erklären. Ist für mich total unlogisch :

http://www.hardtecs4u.com/images/reviews/2005/amd_90nm/leistung.png

Wie soll der Winchester wärmer sein wenn seine Verlustleistung kleiner ist ? :|

Durch die größere Fläche der Die, die eine bessere Übertragung der Wärme gewährleistet, aber wie bereits geschrieben, ich habe das so gelesen und da für mich die Erklrung pausibel klingt, habe ich es hier gepostet :)

Franzmann-Jan
2005-09-26, 21:12:04
']Mit Pef. beziehe ich mich nicht auf die heutigen Games, da werden die beiden nah einander liegen.

Diese Aussage deutet aber ein wenig auf eine US-Architektur hin. Wie bist du denn als "Zivilist" an diese Informationen auf der GC rangekommen?

dargo
2005-09-26, 21:13:52
Durch die größere Fläche der Die, die eine bessere Übertragung der Wärme gewährleistet ...

Naja, die Fläche ist aber eigendlich gleich durch den HS ...

Lassen wir aber lieber diese Diskussion. Hier gehts um den R520. :)

Die gelbe Eule
2005-09-26, 21:19:54
Bleibt mal beim Thema, die Leistungsaufnahme ist doch nun nicht relevant.

Ronny145
2005-09-26, 21:21:18
Bleibt mal beim Thema, die Leistungsaufnahme ist doch nun nicht relevant.

Nicht relevant? Ich sehe das anders. Ich schaue nicht nur auf die Balkenlänge.

Die gelbe Eule
2005-09-26, 21:25:42
X800XL wird single slot, also leise und geringe Leistungsaufnahme. X800XT wird wohl Dualslot, was aber auch auf die Kühlung der BGA und der nicht größergewordenen DIE zu schließen ist. Da wir aber bei 90nm sind, muss die Leistungsaufnahme nicht bei 90W+ liegen. 60-70W ist schon ein Wert der ok geht und niemanden in Bedrängnis stürzen wird.

reunion
2005-09-26, 21:28:50
Die X1800 XL soll 7016 Punkte im 3dmark05 erhalten haben.
http://www.hkepc.com/bbs/viewthread.php?tid=477628


Realistisch, die Karte ordnet sich genau dort ein, wo sie Füllratenmäßig mit ihren 550Mhz Chiptakt sein müsste: Zwischen 7800GT und GTX. Die XT wird vermutlich knapp unter der GTX liegen. Hoffentlich hört jetzt endlich dieser Vertexmist auf.

dargo
2005-09-26, 21:31:55
X800XL wird single slot, also leise und geringe Leistungsaufnahme. X800XT wird wohl Dualslot, was aber auch auf die Kühlung der BGA und der nicht größergewordenen DIE zu schließen ist. Da wir aber bei 90nm sind, muss die Leistungsaufnahme nicht bei 90W+ liegen. 60-70W ist schon ein Wert der ok geht und niemanden in Bedrängnis stürzen wird.
Das will ich stark hoffen. Denn Single-Slot-Kühlung muss nicht automatisch leise, bzw. wenig Verlustleistung bedeuten. Siehe Referenzkühler einer G6800U. X-D

Winter[Raven]
2005-09-26, 21:33:06
Realistisch, die Karte ordnet sich genau dort ein, wo sie Füllratenmäßig mit ihren 550Mhz Chiptakt sein müsste: Zwischen 7800GT und GTX. Die XT wird vermutlich knapp unter der GTX liegen. Hoffentlich hört jetzt endlich dieser Vertexmist auf.

3DMurks != Games...

Die gelbe Eule
2005-09-26, 21:34:55
Man hat ja immernoch den Silencer in der Hinterhand und der wird auch auf die R520 losgelassen werden.

Franzmann-Jan
2005-09-26, 21:36:07
Denkt ihr wirklich alle das ATI eine verspätete High-End Karte bringen wird, die dem Monate alten Konkurrenten im prestigereichesten Benchmark unterelegen sein wird? Sowas kann sich niemand erlauben, und ganz bestimmt nicht ATI. Die Masse schaut nun mal auf diesen Benchmark und wer da unterliegt, hat die Masse bestimmt nicht auf seiner Seite. Aus reinem Überlebensinteresse kann ATI dort eigentlich nur schneller sein.