PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R520 schon Anfang 2005?


Seiten : 1 2 3 4 5 6 [7] 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42

seahawk
2005-03-11, 17:35:52
Für mich sind solche Ankündigungen ja der beste Grund jetzt ne NV zu kaufen. Wenn ATI sein ganzes Line-Up noch auf SM3.0 umstellt, dann kann die SM3.0 Fähigkeit wohl nicht so unbedeutent sein.

TheCounter
2005-03-11, 18:44:03
Für mich sind solche Ankündigungen ja der beste Grund jetzt ne NV zu kaufen. Wenn ATI sein ganzes Line-Up noch auf SM3.0 umstellt, dann kann die SM3.0 Fähigkeit wohl nicht so unbedeutent sein.

Wär auch Schwachsinn wenn man nur neue Highend Karten einführt.

seahawk
2005-03-11, 18:59:25
Wieso, bis jetzt haben sie doch immer argumentiert, dass NVs SM3.0 Karten für SM3.0 zu langsam wären. Ich wette aber, dass ne 6800Ultra deutlich schneller sein wird als ein X300 Ableger mit SM3.0.
Für mich jedenfalls der Grund im April/Mai/Juni keine ATI sondern eine NV zu kaufen.

Jesus
2005-03-11, 19:20:26
Wieso, bis jetzt haben sie doch immer argumentiert, dass NVs SM3.0 Karten für SM3.0 zu langsam wären. Ich wette aber, dass ne 6800Ultra deutlich schneller sein wird als ein X300 Ableger mit SM3.0.
Für mich jedenfalls der Grund im April/Mai/Juni keine ATI sondern eine NV zu kaufen.

hä? das eine ist low end das andere ist high end...

Coda
2005-03-11, 19:23:54
Für SM 3.0 kann keine Karte langsam sein, weil die Features auch zur Vereinfachung bei gleicher Performance dienen können.

Jesus
2005-03-11, 19:30:12
Für SM 3.0 kann keine Karte langsam sein, weil die Features auch zur Vereinfachung bei gleicher Performance dienen können.

eh naja, SM3->viel neue Effekte sehr einfach machbar-> Entwickler machen viele Effekte->Spiel wird langsamer->auf langsamen Karten schon zu langsam (und wie man sieht auch auf den schnellsten zur Zeit)

Coda
2005-03-11, 19:37:05
Splinter Cell 3 :rolleyes:

Mehr aktuelle Spiele die wirklich SM 3.0 nutzen kenn ich nicht. Riddick ist auch nur 2.a eigentlich.

Jesus
2005-03-11, 19:55:21
Splinter Cell 3 :rolleyes:

Mehr aktuelle Spiele die wirklich SM 3.0 nutzen kenn ich nicht. Riddick ist auch nur 2.a eigentlich.

PF, Riddick, Painkiller sind alle solche Negativ beispiele wo die Entwickler der HW wohl etwas zu viel zugemutet haben (teilw. unspielbar) und SC3 ist nicht vergleichbar da niemand beweisen kann dass es mit SM2(b) nicht ähnlich (langsam) laufen könnte.

Coda
2005-03-11, 19:58:02
Riddick ist kein SM 3.0. Painkiller weiß ich gar nix von SM 3.0, was macht das da?

SM 3.0 ist auch nicht langsamer als SM 2.0. Und nur weil man SM 3.0 benützt muss man der HW noch lange nicht mehr zumuten.

SC3 wäre mit SM 2.0 auf SM 3.0 HW auf jeden Fall langsamer -> Zweck erfüllt.

ShadowXX
2005-03-11, 20:56:42
Für mich sind solche Ankündigungen ja der beste Grund jetzt ne NV zu kaufen. Wenn ATI sein ganzes Line-Up noch auf SM3.0 umstellt, dann kann die SM3.0 Fähigkeit wohl nicht so unbedeutent sein.

ATI gibt inzwischen selbst zu, das man gewisse Dinge nur mit SM3.0 oder SM2.a machen kann (in ihren eigenen Folien)

Siehe auch:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=210154


- Auch ATI warnt vor der sorglosen Verwendung von Dynamic Branching.
- Sie gestehen ein das es Dinge gibt die man nur mit 2.A und 3.0 machen kann.
- Es gibt einen netten Vergleich bezüglich der "doppelten Z-Leistung" auf ATI und nVidia Hardware. Das ganze allerdings mit einem schönen Trick von Seiten ATIs.

seahawk
2005-03-11, 21:08:25
hä? das eine ist low end das andere ist high end...

Und hatte ATI nicht argumentiert, dass der NV40 für die Ausführung von SM3.0 zu langsam wäre. Warum bringen sie dann SM3.0 low-end Karten ??

dildo4u
2005-03-11, 21:17:34
Und hatte ATI nicht argumentiert, dass der NV40 für die Ausführung von SM3.0 zu langsam wäre. Warum bringen sie dann SM3.0 low-end Karten ??
Hä X300 Könnnen auch SM2.0 sind die Karten schnell genug dafür nich wirklich.ATI ist das selbe in rot.


http://pics.computerbase.de/news/10260/3.jpg

G.Ast
2005-03-11, 21:19:59
Und hatte ATI nicht argumentiert, dass der NV40 für die Ausführung von SM3.0 zu langsam wäre. Warum bringen sie dann SM3.0 low-end Karten ??

Also bitte. So weit kannste sicher selbst denken.

Coda
2005-03-11, 21:21:43
Die Frage ist wohl eher rhetorischer Natur :rolleyes:

Exxtreme
2005-03-11, 21:29:17
Und hatte ATI nicht argumentiert, dass der NV40 für die Ausführung von SM3.0 zu langsam wäre. Warum bringen sie dann SM3.0 low-end Karten ??
Beim Marketing gibt es u. A. eine Regel:

"Was interessiert mich mein Geschwätz von gestern."


-r

Sunrise
2005-03-11, 22:30:31
Und hatte ATI nicht argumentiert, dass der NV40 für die Ausführung von SM3.0 zu langsam wäre. Warum bringen sie dann SM3.0 low-end Karten ??
Du weißt schon, welche Bedeutung besonders die Low-End-Karten im Line-Up haben, oder ? Du weiß schon, warum NVIDIAs FX5200 den Händlern letztes Jahr praktisch aus den Händen gerissen wurden ? Wenn du die Möglichkeit hast, so eine "cash cow" bei TSMC in 90nm mit Low-K auf 12"-Wafern zu produzieren, gibt es nicht einen einzigen Grund, warum ATI diese SM 3.0 - Generation nicht nach unten ausbauen sollte.

Noch einmal ausdrücklich hinweisend auf ATIs geleakte Präsentation "Saving the Nanosecond" mit dem Kommentar: "Steer people away from flow control in ps3.0 because we expect it to hurt badly. [Also it’s the main extra feature on NV40 vs R420 so let’s discourage people from using it until R5xx shows up with decent performance...]".

Was also das Marketing von ATI als auch NVIDIA hinsichtlich SM 3.0 anbelangt, "I couldn´t care less". Die Intentionen sind schlussendlich immer die gleichen, "they just play the ball differently".

Coda
2005-03-11, 22:42:25
Naja SM 3.0 wäre für die Entwickler auch für das Low End interessant eigentlich.
Macht einiges einfacher :rolleyes:

Hauwech
2005-03-12, 00:22:59
Neues von Fuad ;)

ATI has two more R5XX cards (http://www.theinquirer.net/?article=21744)

Ist ja eine wahnsinnige Überraschung..

Zugegeben, bis jetzt hatte ATI weder ein durchgehendes PS 2.0 noch ein durchgehendes PS 2.0b Portfolio, da macht es schon Sinn. Vor allem da man jetzt mit PS 3.0 was "Neues" anbieten kann.

R4xx war wahrscheinlich zu kurzfristig als man da auch groß was für LowEnd hätte anbieten können. Abgesehen von dem Aus-Alt-Mach-Neu Spielchen in 2ter Auflage wobei PCIe ihnen da gerade Recht kam. Imho würden sie mit einer 3ten Auflage davon bei den OEMs unter die Räder kommen. Der Erfolg der FX5200 dürfte sie also in Zugzwang gebracht haben, vor allem da Nvidia mittlerweile auch Top-to-bottom in PCIe anbieten kann.

Uns kann es nur Recht sein. :)

Tigerchen
2005-03-12, 10:01:35
Und hatte ATI nicht argumentiert, dass der NV40 für die Ausführung von SM3.0 zu langsam wäre. Warum bringen sie dann SM3.0 low-end Karten ??

Die Experten hier im Forum die die Technologieführerschaft der FX5200 über den grünen Klee gelobt haben müßten eigentlich begeistert sein.

Für mich ist eine SM 3.0 Low-End Karte eher unsinnig. Auch wenn sie rot ist!:)

Coda
2005-03-12, 10:53:20
Nö überhaupt nicht. Static Branching ist ein Feature das eigentlich schon in PS 2.0 drin sein hätte müssen imho.
Das kann man auch wunderbar für Low End verwenden. SM 3.0 ist nicht unbedingt gleich lange Shader.

Oder andersrum, wenn die Karte SM 2.0 packt, dann ist sie auch für SM 3.0 geeignet. Hauptsache halbwegs ordentliche PS Leistung und gut is.

Bartträger
2005-03-12, 10:58:10
Die Experten hier im Forum die die Technologieführerschaft der FX5200 über den grünen Klee gelobt haben müßten eigentlich begeistert sein.

Für mich ist eine SM 3.0 Low-End Karte eher unsinnig. Auch wenn sie rot ist!:)


Ach Tigerchen, solche Karten sind nunmal der Geldbringer für die IHVs. Wie die Publisher bei der Budgetzuweisung für ein neues Spiel entscheiden, weißt du ja. Daraus geht ja mehr oder minder direkt die Techlvlunterstützung hervor. Von daher kann jede verkaufte Low-End Karte nur gut für Spieler sein.

Wenn die Leistung einigermassen stimmt, ist sie auch für ältere Rechner durchaus interessant. Hauptsache, es werden keine DX7/8 Karten mehr gekauft. :)

q@CBit
2005-03-12, 13:31:51
Für mich ist eine SM 3.0 Low-End Karte eher unsinnig. Auch wenn sie rot ist!:)
[/COLOR]

:) Für mich ist eine SM2.x-High-End Karte ebenso unsinnig, egal, ob sie blau, grün, rot oder gelb ist.
Was ist an einer SM3-Low-End Karte unsinnig? Nichts - im Gegenteil wird sie aus durch die Bank besser performen, als eine ansonsten baugleiche SM2- und erst recht SM1.x-Karte, alldieweil sich Instruktionen zusammenfassen lassen, durch Pass-Reduktion Bandbreite gespart werden kann usw.

Nicht zuletzt aber auch, weil dadurch die installed Base bedeutend größer werden wird und somit auch High-End Karten früher die Möglichkeit haben werden, stärker von SM3 zu profitieren.

Je einheitlicher das Portfolio (herstellerübergreifend!!) desto eher werden Dinge am PC auch mal ausgenutzt - siehe Konsolenmarkt. :)
Für Splinter Cell: Chaos Theory genügt ein Celeron/P3-Hybrid mit 733MHz, 64MB UMA-RAM und ein niedrig getakteter GF3/GF4-Hybrid.

Spiel das mal aufm PC.

Coda
2005-03-12, 13:34:53
Für Splinter Cell: Chaos Theory genügt ein Celeron/P3-Hybrid mit 733MHz, 64MB UMA-RAM und ein niedrig getakteter GF3/GF4-Hybrid.Der Vergleich hinkt. Der PC hat keine UMA und auch nicht die hohe Speicherbandbreite, außerdem muss er viel höhere Auflösungen berechnen :rolleyes:

mapel110
2005-03-12, 13:43:14
Je einheitlicher das Portfolio (herstellerübergreifend!!) desto eher werden Dinge am PC auch mal ausgenutzt - siehe Konsolenmarkt. :)

Solange Entwickler offenbar auch die Performance berücksichtigen, die ein Chip bietet, wird garnichts "ausgenutzt".

xL|Sonic
2005-03-12, 14:03:53
Der Vergleich hinkt. Der PC hat keine UMA und auch nicht die hohe Speicherbandbreite, außerdem muss er viel höhere Auflösungen berechnen :rolleyes:

Gibt aber auch schon genug Konsolenspiele die HDTV Auflösungen unterstützen und dabei genauso gut laufen, von daher ist das Argument, dass eine höhere Auflösung berechnet werden muss auch nicht mehr so wirklich ein Argument, wir man ja bei den next gen Konsolen dann auch sehen.

Coda
2005-03-12, 14:06:16
Auf der XBox 1 läuft aber SC3 sicher nicht in HDTV Auflösung.
Das die neue Konsolen das können ist ja wohl etwas anderes...

Schon klar, dass man bei Konsolen mehr rausholen kann, das liegt aber auch an der anderen Architektur. Die XBox ist nicht einfach nur ein PC im Kleinformat.

Jesus
2005-03-12, 15:10:04
Gibt aber auch schon genug Konsolenspiele die HDTV Auflösungen unterstützen und dabei genauso gut laufen, von daher ist das Argument, dass eine höhere Auflösung berechnet werden muss auch nicht mehr so wirklich ein Argument, wir man ja bei den next gen Konsolen dann auch sehen.

Stimmt GT4 auf der PS2 bspw:) läuft mit oder ohne HDTV (1080i) output mit 60fps

Coda
2005-03-12, 15:21:46
Mal rein aus Interesse, aber woher nimmst du diese 60fps?

1920x1080 passt doch gar nicht in den Framebuffer der PS2, wie soll das überhaupt gehen?

dildo4u
2005-03-12, 15:25:54
Mal rein aus Interesse, aber woher nimmst du diese 60fps?

1920x1080 passt doch gar nicht in den Framebuffer der PS2, wie soll das überhaupt gehen?
1080i ist 1280*960 1080p ist 1920*1080

Coda
2005-03-12, 15:29:01
Das passt immer noch nicht

1280*960*2*4 Byte = 9830400 Byte = 9,375MB

Oh ich vergaß. Natürlich noch den Z-Buffer :rolleyes:

+ 1280x960*2 Byte = 2457600 Byte = 2,34375MB

Macht zusammen schöne 11,71875MB

http://de.wikipedia.org/wiki/1080i
Hier steht sehr wohl dass 1080i 1920x1080 ist. Ist aber auch egal, weil die PS2 garantiert nix über 800x600 kann.

sepperator
2005-03-12, 16:11:10
Es gibt 1080 und 720 jeweils in i (interlaced / Halbbilder) und p (progressiv / Vollbilder)

1080p = 1920x1080 Vollbilder = 1920 x 1080
1080i = 1920x1080 Halbbilder entspricht für die Bandbreite 1920 x 540 pro Bild

720p = 1280x720 Vollbilder
720i = 1280x720 Halbbilder = 1280x360 pro Bild

Und die GT4 Bilder sind sicher nicht in 1080p/i sondern entweder 720p oder 720i, ich schätze mal interlaced.

Coda
2005-03-12, 16:18:11
1280x720 passt auch nicht rein :rolleyes:

dildo4u
2005-03-12, 16:45:46
1280x720 passt auch nicht rein :rolleyes:
UMA Vieleicht borgt sich PD da was vom "Arbeitsspeicher"

Es ist auf jedenfall der echte 1080i modus


"We imported Gran Turismo 4 at the beginning of January from NCSX (where incidentally we’ve imported every other Gran Turismo game for the PS2). While our game was in transit, a startling rumor began to pop up on message boards: GT4 supported HDTV resolutions. No one believed the rumors at first – Sony had never mentioned it before, and with only 4MB of eDRAM in the PlayStation 2, the framebuffer would need at least 3MB, leaving no room for textures. Polyphony Digital would have to be using some magic streaming voodoo technology to copy data into memory and delete it as soon as it was used to make room for the next bit of data

Well, the rumor is true, GT4 will run at HDTV 1080i resolutions in single player mode (or LAN play) with a notable improvement in image quality.

but with an HDTV, the geometry and anti-aliased look to the game is there. The cars in these still shots look just as good in-game.

It’s honest HDTV gaming. There’s no slowdown at 60 fps. With a regular non-high-definition TV, the graphics are still better than the images from Gran Turismo 3, although they continue to be similar. The pre-calculated lighting and textures look better, but the big difference is that there’s a superb flicker filter that removes a lot of the shimmer associated with PS2 games. Suffice it to say that GT4 on a HDTV looks closer to the photo mode shots than it does to images captured with a standard video capture card,"

http://www.firingsquad.com/games/gran_turismo_4/


Ziemlich OT hier *G*

Coda
2005-03-12, 17:06:39
Nö, der RAMDAC kann nur den lokalen VRAM auslesen. Das ist unmöglich.
3MB für den Framebuffer + Z ist ja schon bei der normalen Auflösung der Fall.

Das muss mir erstmal jemand auf nem 1080i HDTV zeigen, dann glaub ich's.

Bei Google kommen z.B. immer wider solche Aussagen raus:
GT4 1080i is FAKE!!! It's just a lower resolution stretched to widescreen not to mention it's only available in replays.1080i is interlaced so it's a tradeoff. The actual resolution of the 1080i mode of GT4 is 640x540p. True 1080i resolution is 1920x540p. 720p resolution is 1280x720p. Oh and yes the 1080i is available ingame since it's not true 1080i.
Wie auch immer. Richtiges 1080i ist auf PS2 definitiv nicht möglich, dafür ist der Framebuffer zu klein.

Jesus
2005-03-12, 18:13:52
Nö, der RAMDAC kann nur den lokalen VRAM auslesen. Das ist unmöglich.
3MB für den Framebuffer + Z ist ja schon bei der normalen Auflösung der Fall.

Das muss mir erstmal jemand auf nem 1080i HDTV zeigen, dann glaub ich's.

Bei Google kommen z.B. immer wider solche Aussagen raus:

Wie auch immer. Richtiges 1080i ist auf PS2 definitiv nicht möglich, dafür ist der Framebuffer zu klein.


jaja ok... dann ist der 1080i schalter nur ein Fake und der HDTV zeigt nur zum Spass ein Bild an welches auch noch deutlich besser aussieht als im Standardmodus. Wie sies machen ist doch scheiss egal - FAKT ist das es geht und besser aussieht:

http://img18.exs.cx/img18/6703/gt4compare1qf.jpg

Coda
2005-03-12, 18:43:37
From early reports it appears that it's using not a true 1080i res frame buffer internally, ie it's using something like 640x960i res and the crtc part of the chip is upscalling it to a 1080i signal. Although from initial screen comparisons it does help reduce jaggies in the vertical domain. Here are some comparison shots.Das klingt doch schon plausibler. Aber echtes 1080i geht einfach nicht.

DrumDub
2005-03-12, 18:50:45
Das klingt doch schon plausibler. Aber echtes 1080i geht einfach nicht.

danke für die aufklärung. ich konnte mir nämlich nicht erklären, wie das funktioniert. wurde auch schon im ingame screenshot-therad dikutiert.

hmx
2005-03-12, 18:51:31
Genauso sieht das Bild auch imo aus. Wie scharfgezeichnet.

ShadowXX
2005-03-12, 19:38:48
Genauso sieht das Bild auch imo aus. Wie scharfgezeichnet.

Jupss...von höherer Auflösung ist da wirklich nicht viel zu sehen.

Jesus
2005-03-12, 20:34:30
Jupss...von höherer Auflösung ist da wirklich nicht viel zu sehen.

Die Auflösung ist garantiert (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2815658&postcount=1234) höher als der standard, wohl etwas wie 725x1080 (interpoliert).

Coda
2005-03-12, 20:35:21
Bestreitet ja auch keiner, aber es ist kein echtes 1080i. Insofern ist die 60fps Aussage zu relativieren.

Jesus
2005-03-12, 20:36:25
Bestreitet doch auch keiner, aber es ist kein echtes 1080i.

ja klar, aber es ist wesentlich höher als normal und auch hochskaliert auf die native 1080i Auflösung, sonst könnte es wohl kein HDTV in diesem Modus anzeigen.

Coda
2005-03-12, 21:10:39
Dann sind wir uns ja ausnamsweise mal einig ;)

reunion
2005-03-14, 11:18:53
ASUS has decided to make and now show off the world’s fastest graphics card that will remain the fastest even after the launch of next-generation products, such as ATI’s R520[...]The company insists that the dual GeForce 6800 Ultra will be faster compared to the forthcoming chips, namely R520, which will allow users to remain on the leading edge of technology without upgrading the graphics card.

http://www.xbitlabs.com/articles/editorial/display/cebit2005-2_3.html

Glaubt oder weiss Asus das?

robbitop
2005-03-14, 11:36:46
etwas Anderes hätte mich aufgrund des derzeitigen Bandbreitenproblems auch gewundert.

TheCounter
2005-03-14, 15:46:38
Mit 2*R520 und AMR sieht das ganze dann schon wieder anders aus ;)

Wird auch nicht lange dauern bis es dann Dual Karten mit dem R520 gibt, da bin ich mir sicher.

Coda
2005-03-14, 15:48:57
Kommt drauf an. Wenn sie das Speicherinterface wirklich verbreitern, dann sicher nicht.

robbitop
2005-03-14, 16:02:51
daran glaube ich, ehrlich gesagt, nicht.

aths
2005-03-14, 17:16:09
[COLOR="#000088"]
Die Experten hier im Forum die die Technologieführerschaft der FX5200 über den grünen Klee gelobt haben müßten eigentlich begeistert sein.

Für mich ist eine SM 3.0 Low-End Karte eher unsinnig. Auch wenn sie rot ist!:) Eine Lowend-SM2-Karte ist dann aber sinnig? Oder darf Lowend maximal DX8-Technik sein, damit sie deiner Meinung nach nicht unsinnig ist?

aths
2005-03-14, 17:17:40
Nö überhaupt nicht. Static Branching ist ein Feature das eigentlich schon in PS 2.0 drin sein hätte müssen imho.Auch dass man an die du- und dv-Werte kommt, hätte eigentlich schon in PS 2.0 drin sein müssen. (Wenn man selbst am LOD spielen will, z. B. für Aliasingvermeidung bei procedural textures.)

Coda
2005-03-14, 17:23:51
Mhm mit welcher Instruction geht das denn?

aths
2005-03-14, 17:41:50
Mhm mit welcher Instruction geht das denn?dsx und dsy.

Jesus
2005-03-14, 17:44:54
ASUS has decided to make and now show off the world’s fastest graphics card that will remain the fastest even after the launch of next-generation products, such as ATI’s R520[...]The company insists that the dual GeForce 6800 Ultra will be faster compared to the forthcoming chips, namely R520, which will allow users to remain on the leading edge of technology without upgrading the graphics card.

http://www.xbitlabs.com/articles/editorial/display/cebit2005-2_3.html

Glaubt oder weiss Asus das?


Asus muss das ja sagen, sonst können sie keine dieser sinnlosen Karten mehr verkaufen :rolleyes: (ich finde auch SLI / AMR sinnlos da zu teuer ;) )

Coda
2005-03-14, 17:45:43
Hm ja du hast glaub ich recht, aber schau mal hier:

http://www.flipcode.com/cgi-bin/fcmsg.cgi?thread_show=8733

Den Thread hatte ich noch in Erinnerung, aber damals hab ich ihn noch nicht so ganz verstanden...

Botcruscher
2005-03-14, 19:27:25
Gabs den auf der CBIT nicht die berühmten Vorführungen hinter verschlossenen Türen? Sonst sickert da doch auch immer was durch.

robbitop
2005-03-14, 19:31:47
Gabs den auf der CBIT nicht die berühmten Vorführungen hinter verschlossenen Türen? Sonst sickert da doch auch immer was durch.
R520? Nein.
ATI ist genau wie NV was zukünftige Produkte angeht zur diesjährigen CeBIT gar nicht auskunftsfreudig.

nagus
2005-03-14, 19:41:43
R520? Nein.
ATI ist genau wie NV was zukünftige Produkte angeht zur diesjährigen CeBIT gar nicht auskunftsfreudig.

ähnlich wie letztes jahr... da gabs seitens ATI auch nichts bezüglich R4xx

robbitop
2005-03-14, 19:47:47
offensichtlich war ATI beim R4xx nicht stolz auf diesen Chip ;)
(ich habe das Gefühl, die Hersteller reden mehr im Vorfeld, wenn sie stolz auf ihr "Baby" sind).

Botcruscher
2005-03-14, 19:54:23
offensichtlich war ATI beim R4xx nicht stolz auf diesen Chip ;)
(ich habe das Gefühl, die Hersteller reden mehr im Vorfeld, wenn sie stolz auf ihr "Baby" sind).

NV war beim NV40 auch im vorfeld sehr still.

Endotherm
2005-03-14, 22:08:53
NV war beim NV40 auch im vorfeld sehr still.

Ja, aber da ging es um einen quasi neuen Chip, nicht wie beim R4xx um ein Refresh.

robbitop
2005-03-15, 08:10:38
zur Presse war NV aber nicht still. Diesmal ist ATI und NV auch zur Presse still.

ShadowXX
2005-03-15, 08:11:18
offensichtlich war ATI beim R4xx nicht stolz auf diesen Chip ;)
(ich habe das Gefühl, die Hersteller reden mehr im Vorfeld, wenn sie stolz auf ihr "Baby" sind).

Ich glaube eher, das Sie inzwischen so gut wie alle undichten Stellen "abgedichtet" haben.

Sie haben beide (speziell nV) geziehlt falsche Infos verbreitet, die dann von INQ & Co verbreitet wurden.....So konnte man allerdings die Leaks ganz gut ausmachen, da man einfach gegenüber gewissen "verdächtigen" Personen diese falschen Infos geäussert hat (verschiedenen falsche Infos an verschiedenen Personenen) und dann man geguckt, was so durchsickert und wie schnell.

Dadurch weiss man jetzt, welchen Personen man welche Daten anvertrauen kann....

Zusätzlich sind Sie wohl in diesem Bereich wesentlich verschlossener geworden....und auch vorsichtiger, nV spielt nun mal nicht mehr alleine auf der Bühne.
Solange ATI nocht nicht "da" war, konnte es sich nV ja auch leisten mit irgendwelchen Features & Speeds schon ewigkeiten vor dem Launch durch die Gegend zu tratschen.....
Jetzt könnte dies Gefährlich sein, weil durch jede solche äusserungen das "gegenüber" besser den Konkurenzchip einschätzen kann...und gegebenenfalls vielleicht noch reagieren kann.

ATI war sowieso immer etwas ruhiger in diesem Bereich.....

ShadowXX
2005-03-15, 08:15:01
@Robbitop:
ja....und genau die unter NDA stehende Presse hat die Details dann doch immer wieder über "nebulöse" Mittelsmänner rausgegeben....
Ernsthaft....der schreibenden Zunft würde ich als allerletztes Infos geben, wenn ich will das diese auch halbwegs "Geheim" bleiben.
Wenn du es so willst, büssen momentan die ehrlichen Journalisten für die "netten" Jungs vom INQ & Co.

Ailuros
2005-03-15, 09:23:19
ja....und genau die unter NDA stehende Presse hat die Details dann doch immer wieder über "nebulöse" Mittelsmänner rausgegeben....
Ernsthaft....der schreibenden Zunft würde ich als allerletztes Infos geben, wenn ich will das diese auch halbwegs "Geheim" bleiben.
Wenn du es so willst, büssen momentan die ehrlichen Journalisten für die "netten" Jungs vom INQ & Co.

Nur mal so nebenbei (obwohl vieles davon schon bekannt ist):

a) Ein NDA heisst auf jeden Fall nicht dass man um auch gleich vertrauliche Informationen zugeschossen bekommt, egal ob man ein Mitglied der Presse ist oder nicht.

b) Nichtdestominder jemand der ein NDA unterschrieben hat, wird wohl nicht so bloed sein und infos an trash-tabloid Seiten wie INQ weiterleiten.

NDA = Klappe halten, vereinfacht und dabei ist es wohl egal ob die Infos was wert sind oder nicht.

Zu vertraulichen Informationen kommt man leicht auch ohne NDA, solange einem jemand vertrauen kann und dabei wird derjenige der Infos in diesem Fall weiterschleusst auch sicher sein, dass der Empfaenger das Zeug auch nicht weiterleiten wird und schon gar nicht der Presse. Aber selbst dann sind die Infos so karg dass man schwer davon eine komplette Feature-liste/Spezifikationen daraus ziehen kann; man kann eben davon etwas weiterspekulieren; hat man dann einen Treffer gelandet heisst dass dann auch dass man getroffen und logisch geraten hat.

reunion
2005-03-15, 10:31:03
Wiedermal was von FUAD:

ATI R520 "Fudo" has 300 - 350 millions of transistors (http://www.the-inquirer.net/?article=21823)

mapel110
2005-03-15, 10:34:31
Wiedermal was von FUAD:

ATI R520 "Fudo" has 300 - 350 millions of transistors (http://www.the-inquirer.net/?article=21823)
Wo ist da was Neues? Sehe nix. ;(

robbitop
2005-03-15, 10:35:07
klingt eher nach R500 X-D

DrumDub
2005-03-15, 10:58:26
klingt eher nach R500 X-D

genau. mit 24 pipes... X-D

robbitop
2005-03-15, 11:13:37
genau. mit 24 pipes... X-D
WTF? Pipes? was für Pipes?
Ölpipes? Crackpipes? X-D

Raff
2005-03-15, 11:32:27
WTF? Pipes? was für Pipes?
Ölpipes? Crackpipes? X-D

Ich sag' da mal nix zu, robbi ... ;) Er meint sicher 6 Quads. ;)

MfG,
Raff

MechWOLLIer
2005-03-15, 15:23:50
Ich sag' da mal nix zu, robbi ... ;) Er meint sicher 6 Quads. ;)
MfG,
Raff
Mhm, lieber sechs Quads von Pixelprozessoren :D

Nunuja, einfach mal abwarten, mehr bleibt einem wohl kaum übrig.

r3ptil3
2005-03-15, 22:05:19
erste dual gpu mainboards von asus für ati karten sind aufgetaucht auf der cebit! (vielleicht kann es sein das es hier schon erwähnt wurde) http://www.giga.de/index.php?storyid=116293

Ailuros
2005-03-17, 09:12:35
genau. mit 24 pipes... X-D

R500 = 4 quads (oder eben "16 pipes"). Die Transistoren-Anzahl klingt trotz allem normal fuer Xenon, wegen dem eDRAM eben.

DrumDub
2005-03-17, 11:06:16
R500 = 4 quads (oder eben "16 pipes"). Die Transistoren-Anzahl klingt trotz allem normal fuer Xenon, wegen dem eDRAM eben.

ähmm... das war oben als witz gemeint... ;)

deekey777
2005-03-18, 18:28:59
Auch die Gamestar hat was zum Thema zu sagen:
ATIs Radeon-X800-Nachfolger: 600 MHz schneller Shader-3.0-Chip? (http://www.gamestar.de/news/hardware/24265/)
Wie GameStar in seiner am 23. März erscheinenden Ausgabe 05/2005 berichtet, unterstützt ATIs kommende Chipgeneration R520 das Shader Model 3.0 und sie entsteht im fortschrittlichen 90-nm-Prozess. Laut einer internen ATI-Roadmap startet die schnelle XT-Version mit Taktraten zwischen 500 und 600 MHz. Der je nach Version 256 oder 512 MByte große GDDR3-Speicher läuft vermutlich mit 1.400 bis 1.600 MHz DDR. Leistungsreduzierte Standard- und SE-Varianten sind ebenfalls geplant.

Oder so.

r3ptil3
2005-03-18, 18:29:07
es gibt neue informationen zum kommenden high end chip von ati -> http://www.gamezoom.de/artikel/show/0,162843,1,10773.html

mapel110
2005-03-18, 18:34:10
hehe, munteres Taktraten ist wohl gerade in.
Spekus über das Speicherinterface und Anzahl der Pipes wären interessanter. :)

Xmas
2005-03-18, 19:33:52
hehe, munteres Taktraten ist wohl gerade in.
Spekus über das Speicherinterface und Anzahl der Pipes wären interessanter. :)
256MiB GDDR3 -> 256bit Speicherinterface, wohl höchstens 700MHz.

Adam D.
2005-03-18, 19:36:14
Das ist ja schon ziemlich viel. Ich bin mal gespannt, wie der wird.

dildo4u
2005-03-18, 19:36:39
256MiB GDDR3 -> 256bit Speicherinterface, wohl höchstens 700MHz.
jo und damit sind Geschwindigkeits zuwächse von über 50% wunsch denken.

ShadowXX
2005-03-18, 19:38:27
hehe, munteres Taktraten ist wohl gerade in.
Spekus über das Speicherinterface und Anzahl der Pipes wären interessanter. :)

Wobei die 600MHz GPU-Takt in dem Bereich sind, was viele hier getippt haben und sich IMHO auch realistisch anhört.
Es würde auch ganz gut zu 700MHz GDDR3-Ram passen.

Adam D.
2005-03-18, 19:39:07
jo und damit sind Geschwindigkeits zuwächse von über 50% wunsch denken.
Warum? Kann die Architektur nicht stark genug sein, um das rauszuholen?

mapel110
2005-03-18, 19:43:26
256MiB GDDR3 -> 256bit Speicherinterface
Wieso bedingt das eine das andere?

Warum? Kann die Architektur nicht stark genug sein, um das rauszuholen?
Wenn die Speicherbandbreite nur um ca 15 % steigt, kann man wohl nicht von 50 % Leistungszuwachs ausgehen.

dildo4u
2005-03-18, 19:43:57
Warum? Kann die Architektur nicht stark genug sein, das rauszuholen?
Man sieht bei der heutigen ATI Genration wie extrem die karten an der Speicherbandbreite hängen da könne se 32pipes reinhaun ohne mher ram speed oder 512bit Speicherinterface wird das nix der Speichertaktsprung von 9800pro auf x800XT war von 340mhz auf 560mhz so ein sprung ist sicher nicht nochmal möglich.

Adam D.
2005-03-18, 19:45:55
Könnte es nicht sein, dass die Architektur komplett geändert wurde? Denn irgendwie glaub ich nicht, dass das Teil der Überbringer wird, wenn die Taktraten das einzige sind, wo sich wirklich viel Performance rausschlagen lässt.
BTW: Ich bin in dem Gebiet ein ziemlicher n00b :(

dildo4u
2005-03-18, 19:48:11
Könnte es nicht sein, dass die Architektur komplett geändert wurde? Denn irgendwie glaub ich nicht, dass das Teil der Überbringer wird, wenn die Taktraten das einzige sind, wo sich wirklich viel Performance rausschlagen lässt.
BTW: Ich bin in dem Gebiet ein ziemlicher n00b :(
Speed wird die karte vor allem bei PS3.0 bringen da das leihenhaft von mir ausgedrückt auf die pipes/shader power geht.Also um so moderner die games um so mher wird sich die karte von der "alten" Generation absetzen können wenn sie 24pipes hat.

ShadowXX
2005-03-18, 19:49:12
Könnte es nicht sein, dass die Architektur komplett geändert wurde? Denn irgendwie glaub ich nicht, dass das Teil der Überbringer wird, wenn die Taktraten das einzige sind, wo sich wirklich viel Performance rausschlagen lässt.
BTW: Ich bin in dem Gebiet ein ziemlicher n00b :(

Davon das die Architektur komplett geändert wurde, geht eigentlich keiner aus....eher im Gegenteil.

Aber ganz davon abgesehen....Speicherbandbreite braucht man immer. Das einzige was momentan da wirklich extrem was bringen würde, wäre ein 512Bit-Interface.
Und das ATI das bringt glaube ich einfach nicht.....

Xmas
2005-03-18, 19:55:17
Wieso bedingt das eine das andere?
Weil es GDDR3 AFAIK nur als 8Mx32 gibt. Um aber eine 256MiB-Karte mit 512bit-Speicherinterface zu bauen, bräuchte man entweder acht 4Mx64-Chips oder 16 4Mx32-Chips.

Cenmocay
2005-03-18, 20:16:00
also können wir keinen sprung erwarten wie ihn früher die 9700pro gemacht hat ?

denkt ihr karten die für longhorn gebaut werden könnten mal wieder einen großen sprung machen ?

ShadowXX
2005-03-18, 20:30:40
also können wir keinen sprung erwarten wie ihn früher die 9700pro gemacht hat ?

denkt ihr karten die für longhorn gebaut werden könnten mal wieder einen großen sprung machen ?

Es kommt darauf an, wie man "grossen Sprung" definiert, bzw. sieht.

Die Karte wird im durchschnitt wohl 15-20% schneller sein und zusätzlich noch SM3.0 und auch "echtes" HDR bieten.

Technologisch schon ein grösserer Sprung und auch noch schneller.....ob das jetzt für dich ein grosser Sprung ist, musst du selbst entscheiden.

Ich für meinen Teil sehe die r520 als die Karte an, die ATI eigentlich schon gerne zum Launch des nv40 gebracht hätte....die r420 ist IMHO ein Notnagel, geboren aus dem "muss" einen Chip zu bringen und den Entwicklungsresourcen-Problemen, die Sie durch den r500 hatten.

Der Vorteil den Sie durch die Verzögerung haben ist, das Sie ihn schon in 90nm herstellen können und dadurch mit dem Takt höher gehen können.

Cenmocay
2005-03-18, 20:47:23
hauptsache wir erleben nicht den gleichen mist wie mit dem x800 der nichtmal eine halbes jahr nach vorstellung vernünftig verfügbar war

reunion
2005-03-18, 21:01:38
Weil es GDDR3 AFAIK nur als 8Mx32 gibt. Um aber eine 256MiB-Karte mit 512bit-Speicherinterface zu bauen, bräuchte man entweder acht 4Mx64-Chips oder 16 4Mx32-Chips.

Da R520 sicherlich auch mit 512MB VRAM kommt benötigt man ohnehin 16 Speicherbausteine, außer INQ liegt außnahmsweise mal richtig:

512 Mbit-GDDR3 fast marktreif (http://www.computerbase.de/news/hardware/arbeitsspeicher/2004/dezember/512_mbit-gddr3/)

deekey777
2005-03-18, 21:09:54
Da R520 sicherlich auch mit 512MB VRAM kommt benötigt man ohnehin 16 Speicherbausteine, außer INQ liegt außnahmsweise mal richtig:

512 Mbit-GDDR3 fast marktreif (http://www.computerbase.de/news/hardware/arbeitsspeicher/2004/dezember/512_mbit-gddr3/)

Hm, man sollte lernen, richtig zu lesen: Anstelle von 512 Mbit-GDDR3 hat mein Hirn R520 eingeblendet, dann wunderte ich gewaltig, warum die R520 so seltsam auf den Pics aussah. ;(

-error-
2005-03-18, 21:16:18
Es kommt darauf an, wie man "grossen Sprung" definiert, bzw. sieht.

Die Karte wird im durchschnitt wohl 15-20% schneller sein und zusätzlich noch SM3.0 und auch "echtes" HDR bieten.



Ich würde mal von 60% unter hohen Settings ausgehen, 24 Pipes, die neuere Architektur, der höhere Core- und Speichertakt.

Cenmocay
2005-03-18, 21:36:23
Ich würde mal von 60% unter hohen Settings ausgehen, 24 Pipes, die neuere Architektur, der höhere Core- und Speichertakt.

das ist auch so eine sache,der x800 hat sich auch nur gelohnt wenn man extreme auflösungen plus aa/af anschalltet.

will mal einen karte die auch in normalen 1024 60% schneller ist :cool:

reunion
2005-03-18, 21:44:13
das ist auch so eine sache,der x800 hat sich auch nur gelohnt wenn man extreme auflösungen plus aa/af anschalltet.


Logisch, wenn eine Graka (fast) nichts zu tun hat hilft auch eine schnellere nichts.


will mal einen karte die auch in normalen 1024 60% schneller ist :cool:

...sollte man sich nach einer schnelleren CPU umsehen. ;)

Distroia
2005-03-18, 21:52:37
das ist auch so eine sache,der x800 hat sich auch nur gelohnt wenn man extreme auflösungen plus aa/af anschalltet.

will mal einen karte die auch in normalen 1024 60% schneller ist :cool:


Dann brauchst du keine neue Karte sondern einen neuen Prozessor. ;)

Man kann sich auch einen Ferrari kaufen und den nur in der Stadt fahren und sich dann beschweren, dass man nicht schneller ankommt als jemand anderes der einen Polo fährt...


@Shadow

Das mit den nur 15-20% glaubst du doch selber nicht. Nenn mir mal den letzten Ati Chip, der nicht mindestens die doppelte Leistung des Vorgängers hatte - Refreshes natürlich ausgenommen.

Edit: Da war ich mal wieder zu langsam. :)

ShadowXX
2005-03-18, 21:53:00
Ich würde mal von 60% unter hohen Settings ausgehen, 24 Pipes, die neuere Architektur, der höhere Core- und Speichertakt.

Na gut...die 15-20% waren vielleicht etwas zu niedrig gegriffen, aber 60% höchstens in Ausnahmesituationen.

Davon abgesehen glauben ich nicht an 24 Pipes (bzw. 6 Quads).

Xmas
2005-03-18, 21:53:52
Da R520 sicherlich auch mit 512MB VRAM kommt benötigt man ohnehin 16 Speicherbausteine, außer INQ liegt außnahmsweise mal richtig:

512 Mbit-GDDR3 fast marktreif (http://www.computerbase.de/news/hardware/arbeitsspeicher/2004/dezember/512_mbit-gddr3/)
Ja, nur sind ja nicht die 16 Speicherbausteine das Problem (es gab ja schon 6800Ultra-Karten mit 512MiB, also 16 256Mib-Chips auf der CeBit), sondern dass es jene 4Mx32 bzw. 4Mx64-Chips schlicht nicht gibt.

xL|Sonic
2005-03-18, 21:57:34
Jep, bisher hat ATI so gut wie immer eine ~50% Steigerung gehabt bei einem neuen Produkt...mind. 50%
Wenn man nur knappe 10-20% erreicht, dann ist das nichts anderes als ein Refreshchip und ich glaube kaum, dass ATI quasi 2 Refreshchips auf den Markt bringt, weil man so Nvidia wohl kaum paroli bieten können wird.

Coda
2005-03-18, 21:58:36
Kommt drauf an. Mit 24 Pipelines und Shaderintensiven Spielen wären durchaus 100% drin.

Ich freu mich auf den Chip. Durch SM 3.0 wird ATi zu ziemlich viel gezwungen was lange überfällig war.

xL|Sonic
2005-03-18, 21:59:45
Ja, nur sind ja nicht die 16 Speicherbausteine das Problem (es gab ja schon 6800Ultra-Karten mit 512MiB, also 16 256Mib-Chips auf der CeBit), sondern dass es jene 4Mx32 bzw. 4Mx64-Chips schlicht nicht gibt.

Und wie siehts mit 384-Bit aus?

Xmas
2005-03-18, 22:03:59
Und wie siehts mit 384-Bit aus?
Dann wären es Karten mit 384MiB oder 786MiB.

Winter[Raven]
2005-03-18, 22:04:43
Zitat von dildo4u
jo und damit sind Geschwindigkeits zuwächse von über 50% wunsch denken.


Ich tippe einfach mal und sage die Karte wird sich irgendwo in ~ 45% bei HQ bewegen... Eine höhere Steigerung halte ich für ausgeschlossen. Leider scheint ATI den selben Fehler zumachen wie Intel mit dem MHz "gehype", bei 600 Mhz bezweifle ich beim R520 einen 24pipe core. Sollte Nvidia wirklich mit 24pipes beim Refresh kommen hätten wir wieder einen "Patt".

Angenommen R520 @ 16pipes @ 600 Mhz = NV(was auch immer) @ 24pipes @ ~400 Mhz ***.

*** sollte der R520 ähnliche Pro/Mhz leistung haben wie Nvidia mit NV(was auch immeR).

ShadowXX
2005-03-18, 22:05:01
Jep, bisher hat ATI so gut wie immer eine ~50% Steigerung gehabt bei einem neuen Produkt...mind. 50%
Wenn man nur knappe 10-20% erreicht, dann ist das nichts anderes als ein Refreshchip und ich glaube kaum, dass ATI quasi 2 Refreshchips auf den Markt bringt, weil man so Nvidia wohl kaum paroli bieten können wird.

nV hat doch selbst nichts, was Sie grossartig "dagegenschmeissen" können.

Das grosse Problem bei Beiden IHVs ist die Bandbreite....mehr als 700MHz GDDR3-Chips wird beiden nicht zur Verfügung stehen.

Und damit bekommt man IMHO (von Ausnahmesituationen mal abgesehen) wohl keine 50% Steigerung hin...geschweige denn mehr.

Cenmocay
2005-03-18, 22:15:02
Logisch, wenn eine Graka (fast) nichts zu tun hat hilft auch eine schnellere nichts.



...sollte man sich nach einer schnelleren CPU umsehen. ;)

auf den spruch hab ich gewartet :uattack4: ,dann sollen die hersteller besser mit den spielerfirmen zusammen arbeiten und endlich grakalastiges bringen die sie seid jahren versprechen

und nochmal zum klugscheisser reunion mehr als die beste cpu kaufen geht nicht :unono:

skynetwork
2005-03-18, 23:19:33
gibbet neben dem ganzen rumspekuliere hier schon irgendwelche handfesten daten? oder setzt sich der ganze thread nur aus blicken in die glaskugel zusammen?

bin imo zu faul den durchzuwälzen :ulol:

dildo4u
2005-03-18, 23:21:22
gibbet neben dem ganzen rumspekuliere hier schon irgendwelche handfesten daten? oder setzt sich der ganze thread nur aus blicken in die glaskugel zusammen?

bin imo zu faul den durchzuwälzen :ulol:
Klar was sonst is doch das speku forum

aths
2005-03-18, 23:54:30
nV hat doch selbst nichts, was Sie grossartig "dagegenschmeissen" können.

Das grosse Problem bei Beiden IHVs ist die Bandbreite....mehr als 700MHz GDDR3-Chips wird beiden nicht zur Verfügung stehen.Wozu brauchen wir aktuell mehr Bandbreite?

Coda
2005-03-18, 23:59:31
Größere Texturen, Blending, HDR, Anti Aliasing...

deekey777
2005-03-19, 00:03:07
Aber wie sieht es bei der Wildcat Realizm 800 mit dem Speicherinterface aus? 640 bit bzw. 512+128? Oder so???

Dennoch war mir die Meldung/News der Gamestar etwas zu selbstsicher (außer den Taktangaben), ob gleich nach dem Erscheinen der Maiausgabe der R520 käme.

Coda
2005-03-19, 00:06:53
256+256+128

deekey777
2005-03-19, 00:12:19
256+256+128


Hm, auf der 3DLabs Homepage steht stolz was von 512bit Speicherinterface (512 MB per 512bit Speicherinterface angebunden plus 128MB per 128bit speicherinterface angebunden). Marketing...

Coda
2005-03-19, 00:21:15
Jopp. Definitiv.

aths
2005-03-19, 07:30:29
Größere Texturen, Blending, HDR, Anti Aliasing...HDR bzw HDR mit Antialiasing ist das einzige, was mir da einfallen würde.

Allerdings wird die NV50-Generation genauso wenig wie die R520-Generation dafür gebaut werden, dass die Applikationen durchgehend im HDR (lt. "meiner" Definition eigentlich nur MDR) rendern.

Adam D.
2005-03-19, 08:07:08
Anscheinend existiert ja eine interne Roadmap, die natürlich nur Gamestar sehen durfte :rolleyes:
So langsam glaube ich, dass ich meine Pläne umwerfe: Hatte eigentlich vor, mir Mitte des Jahres 'ne neue Kiste zusammen zu stellen, mit Dual-Core-Prozessor und R520 (weil ich mir viel von ihm erhofft hatte). Daraus wird jetzt wohl nichts, ich behalte meine 6800GT wohl ersteinmal.

Noch eine Frage: Kann man jetzt schon über die Verfügbarkeit spekulieren? Wie sieht's damit aus?

Godmode
2005-03-19, 10:22:15
nV hat doch selbst nichts, was Sie grossartig "dagegenschmeissen" können.

Das grosse Problem bei Beiden IHVs ist die Bandbreite....mehr als 700MHz GDDR3-Chips wird beiden nicht zur Verfügung stehen.

Und damit bekommt man IMHO (von Ausnahmesituationen mal abgesehen) wohl keine 50% Steigerung hin...geschweige denn mehr.

Weil hier alle von der Bandbreite sprechen, ATI hat schon mal eine Vergrößerung des Speicherinterfaces gemacht, was eigentlich nicht erwartet wurde (R300). Wenn die GPU wirklich so extrem an der Bandbreite hängt wie von den meisten hier angenommen, warum sollten sie dann nicht ein 512Bit Interface implementiern? Ich meine für einen UltraHighEnd-chip sollte sowas schon möglich sein! Irgendwann muss 512 Bit kommen! Wenn die Karte dadurch nicht mehr als 700€ kostet wärs noch OK

Wie schauts mit Kompressionsverfahren aus, kann man da noch was optimieren?

Und was ist mit XDR-Speicher? könnte es sein, das wir heuer noch solche Chips sehn, die XDR Unterstutzung haben?

Coda
2005-03-19, 10:23:51
Warum sollten sie dann nicht ein 512Bit Interface implementiern?Weil das PCB dann extrem teuer wird. Es gibt da im Massenmarkt gewisse Grenzen. Das Problem ist dass man beim Computer vieles verkleinern kann, aber bei den PCBs geht das einfach nicht.

Selbst 3DLabs verwendet nur 256bit für einen Chip.

Godmode
2005-03-19, 10:26:32
Weil das PCB dann extrem teuer wird. Es gibt da im Massenmarkt gewisse Grenzen. Das Problem ist dass man beim Computer vieles verkleinern kann, aber bei den PCBs geht das einfach nicht.

Selbst 3DLabs verwendet nur 256bit für einen Chip.

Und wenn man mehr Layer dazufügt?

Coda
2005-03-19, 10:29:31
Das ist ja eben was teuer ist.

Ailuros
2005-03-19, 10:32:36
HDR bzw HDR mit Antialiasing ist das einzige, was mir da einfallen würde.

Allerdings wird die NV50-Generation genauso wenig wie die R520-Generation dafür gebaut werden, dass die Applikationen durchgehend im HDR (lt. "meiner" Definition eigentlich nur MDR) rendern.

Lasst es sich bloss nicht so anhoeren als ob Bandbreite nicht analog zur Taktrate weiterhin skalieren wird und ich sag es nur weil ich es haeufiger in letzter Zeit in anderen Foren lese.

R520 wird nicht nur fuer GDDR3 ausgelegt sein sondern auch fuer um einiges effizienteren Speicher; mit dessen Verfuegbarkeit wird R520 seine relativ enorme Bandbreiten-Limitierung auch uebergehen kann.

Nichtdestominder GPU-Gems2/Kapitel 29 und eine Einschaetzung fuer die Zukunft. Wie genau sieht der Trend der Bandbreite fuer GPUs in der Zukunft aus?

Ailuros
2005-03-19, 10:36:20
Weil hier alle von der Bandbreite sprechen, ATI hat schon mal eine Vergrößerung des Speicherinterfaces gemacht, was eigentlich nicht erwartet wurde (R300). Wenn die GPU wirklich so extrem an der Bandbreite hängt wie von den meisten hier angenommen, warum sollten sie dann nicht ein 512Bit Interface implementiern? Ich meine für einen UltraHighEnd-chip sollte sowas schon möglich sein! Irgendwann muss 512 Bit kommen! Wenn die Karte dadurch nicht mehr als 700€ kostet wärs noch OK

Wie schauts mit Kompressionsverfahren aus, kann man da noch was optimieren?

Und was ist mit XDR-Speicher? könnte es sein, das wir heuer noch solche Chips sehn, die XDR Unterstutzung haben?

R520 = GDDR3/XDR ram support, 256bit wide bus, internal memory efficiency changes (**edit: stay tuned(tm)).

Godmode
2005-03-19, 10:37:58
Interessante Graphik und danke für die XDR Info! Also ist ja noch alles offen, was die Bandbreite anbelangt.

Ailuros
2005-03-19, 10:40:41
Interessante Graphik und danke für die XDR Info! Also ist ja noch alles offen, was die Bandbreite anbelangt.

Ich schaetze den naechsten Schub bei etwa =/>10GPixels/sec mit ~45GB/sec Bandbreite ein. Mit XDR wird die Balance zwischen Fuellrate und Bandbreite um einiges besser sein und da werden erst Produkte wie R520 oder NV-wasauchimmer einen groesseren Unterschied machen. Schaetzungsweise nach Q3 2005.

***edit:

was das Bild oben betrifft, mein Fehler war dass ich Bandbreite im Zusammenhang mit Taktraten erwaehnt habe; es haette eigentlich Bandbreite mit eingeschaetzten Transistoren sein sollen. Obwohl zwar nur ein zufaelliger Vergleich, bei 10x mehr Transistoren werden auch 10x mehr Bandbreite eingeschaetzt. Taktraten werden konservativer eingeschaetzt, da von 475MHz auf 1.9GHz der Unterschied relativ klein ist.

Coda
2005-03-19, 10:46:06
Woher kommt die XDR Info?

Ailuros
2005-03-19, 10:48:33
Woher kommt die XDR Info?

Ich kann mich leider nicht oeffentlich auf die Quelle beziehen; auf jeden Fall soll R520 nicht nur fuer GDDR3 ausgelegt sein (wird wohl bei NV auch nicht anders sein).

Coda
2005-03-19, 10:57:43
Ich würde mich aber sehr wundern wenn man über die gleichen Pins XDR und GDDR3 betreiben könnte :|

Iwan
2005-03-19, 11:21:17
Ich würde mich aber sehr wundern wenn man über die gleichen Pins XDR und GDDR3 betreiben könnte :|

evtl sind ja pins für beide ram-arten vorgesehn und es liegt dann am GraKa-Hersteller welchen RAM er den verbaut. vllt hat es ati so geplant, das für die kleinen karten DDR3 verwendet wird und für die XT/PE-Riege dann XDR zum einsatz kommt.

Tesla Spule
2005-03-19, 11:27:59
Ich weiss nicht ob es hier reinpasst, oder ob es schon wer vor mir gepostet hat, trotzdem glaub ich ist ne interessante Nachricht: http://www.gamestar.de/news/hardware/24265/

meiner Ansicht nach würd das hinkommen-keine Pipelines mehr-einfach wegen der marginalen Ausbeute von 24 Pipelines Chips.....

Igittipfui
2005-03-19, 11:28:05
evtl sind ja pins für beide ram-arten vorgesehn und es liegt dann am GraKa-Hersteller welchen RAM er den verbaut. vllt hat es ati so geplant, das für die kleinen karten DDR3 verwendet wird und für die XT/PE-Riege dann XDR zum einsatz kommt.

Hmm dann kann ich aber das Speicherinterface direkt so auslegen. Verfügbarkeit spielt auch eine große Rolle und die dürfte im Moment alles andere als gut aussehen. Für einen Refreshchip kann ich es verstehen der im Q3/4 vielleicht kommt aber jetzt schon?

Coda
2005-03-19, 11:32:02
Was Gamestar über HW schreibt ist generell uninteressant.

Tesa Spule
2005-03-19, 11:33:00
TheInquirer schreibt AUCH VIEL MÜLL^^

Coda
2005-03-19, 11:35:52
Ja. Und Gamestar schreibt es ab.

Tesla Spule
2005-03-19, 11:43:13
Wofür wird dann hier geredet? Spekulationsforum???????häh????

Ich weiss nicht, aber dafür sind ja die zweifelhaften Quellen da, dass man Gesprächsstoff hat, diese Daten diskutiert und nicht einfach sagt Gamestar schreibt generell viel Müll! Woher willst du das wissen, das das eine falsche Meldung seitens Gamestar ist?

Dafür wird hier diskutiert, sodass es nicht einfach als Müll abgestempelt wird. Diese Meinung kommt mir so vor als ob man nie Noname kaufen würd nur weil es nicht eine bekannte Marke hat-die Qualität der Noname Produkte ist oftmals dieselbe; dafür um die Hälfte billiger.

Coda
2005-03-19, 11:47:42
Weil ich bisher jede HW Meldung von Gamestar auf irgendwelche Spekulationen zurückführen konnte die irgendwo im Internet kursiert sind.

reunion
2005-03-19, 12:25:24
und nochmal zum klugscheisser reunion mehr als die beste cpu kaufen geht nicht :unono:

Du erwartest bei offensichtlich CPU-limitierten Szenarien mehr fps durch eine schnellere Grafikkarte, wenn dir nicht einleuchtet dass das nicht möglich ist dann kann ich dir auch nicht helfen.

Gast
2005-03-19, 17:23:24
Weil ich bisher jede HW Meldung von Gamestar auf irgendwelche Spekulationen zurückführen konnte die irgendwo im Internet kursiert sind.

Nur weil es im Internet Spekulationen gibt, heißt das nicht, dass wir dort abschreiben.Bei Spekulationen schreiben wir von "Gerüchten" oder verlinken die Quelle. Die R520-News basiert aber in keinster Weise auf Internet-Spekulationen, sondern auf harter Recherche-Arbeit. Das gleiche galt für den Artikel über WGF 1.0/2.0/DX10 und damals über SM3.0 in DX9.0c.

Daniel Visarius
GameStar

seahawk
2005-03-19, 17:41:30
Weil ich bisher jede HW Meldung von Gamestar auf irgendwelche Spekulationen zurückführen konnte die irgendwo im Internet kursiert sind.

Ne, der Text in der Gamestar liest sich imho äußerst vernünftig. :smile:

Botcruscher
2005-03-19, 17:45:55
Ne, der Text in der Gamestar liest sich imho äußerst vernünftig. :smile:

Nur die Taktraten sollte man mit vorsicht geniesen.

Xmas
2005-03-19, 18:35:55
R520 = GDDR3/XDR ram support, 256bit wide bus, internal memory efficiency changes (**edit: stay tuned(tm)).
Bist du sicher dass das XDR und nicht GDDR4 heißen soll?

Coda
2005-03-19, 18:58:10
Nur weil es im Internet Spekulationen gibt, heißt das nicht, dass wir dort abschreiben.Bei Spekulationen schreiben wir von "Gerüchten" oder verlinken die Quelle. Die R520-News basiert aber in keinster Weise auf Internet-Spekulationen, sondern auf harter Recherche-Arbeit. Das gleiche galt für den Artikel über WGF 1.0/2.0/DX10 und damals über SM3.0 in DX9.0c.

http://www.gamestar.de/news/pc-spiele/action/13247/

Hier wird DirectX 9.1 schonmal als Fakt angenommen. Und das ist nur ein Beispiel für solche Dinge.

Oder sowas hier: http://www.gamestar.de/news/hardware/12472/

Das war doch schon damals klar dass das nicht so sein kann.

Gast
2005-03-19, 19:03:48
http://www.gamestar.de/news/pc-spiele/action/13247/

Hier wird DirectX 9.1 schonmal als Fakt angenommen. Und das ist nur ein Beispiel für solche Dinge.

Oder sowas hier: http://www.gamestar.de/news/hardware/12472/

Das war doch schon damals klar dass das nicht so sein kann.


"Hier die Zusammenfassung der unbestätigten Gerüchte" ????? Wo ist eigentlich dein Problem ?

Cenmocay
2005-03-19, 19:08:37
coda gamestar bezieht sich auf andere quellen also braucht mal gamestar nicht unwissend darstellen
das sind normale news die tausende seiten posten

reunion
2005-03-19, 19:52:46
coda gamestar bezieht sich auf andere quellen also braucht mal gamestar nicht unwissend darstellen
das sind normale news die tausende seiten posten

Nein, Coda hat zu 100% Recht, Gamestar schreib fast immer von unglaubwürdigen Quellen wie INQ ab und stellt diese dann als Tatsachen hin bzw. ergänzt noch ein paar unlogische "Fakten". Les dir mal den Hardwareteil von Gamestar durch und du wirst sehen wie wenig Ahnung die Jungs von der Materie haben. Die bekommen mit Sicherheit keine Exklusivinformationen von irgendeinen IHV.

VoodooJack
2005-03-19, 20:20:56
Wurde das hier schon gepostet? Quelle ist TechPowerUp.

Cebit 2005 - Day 4

Manufacturer: Cebit Germany Author: W1zzard Date: March 17th 2005


ATI R520

ATI's new GPU chip R520 is internally called "Fudo". The design has been ready for quite some time now. One source is telling us "the chip is working, now ATI is designing the boards, and after that they have to fix the boards to get them working [laughs]".

The chip is produced using a 90nm process at TSMC and will have 300 to 350 million transistors.

We have confirmed the 24 pipelines rumors from several independant sources. However, these 24 pipelines are not comparable to 24 of today's pipelines - multiply by 1.3. So the 24 pipelines will have the performance of 32 "normal" pipelines.
The result of this is that the R520 will be two times as fast as the currently fastest X850s.

ATI will most probably present the chip in June at Computex, Taiwan.

The most important architectural change is support for WGF 1.0 (Windows Graphics Foundation). This is the successor to DirectX9, often called DirectX Next. WGF will be included as standard in Microsoft Longhorn.
WGF offers new exciting features for game developers like "unlimited" shader length, Geometry Shaders, Much lower overhead than DirectX9 and many more.

Obviously ShaderModel 3.0 is supported by R520 as well.

Memory configurations will be 256-bit memory interface (definitely not 512-bit) with 256 MB and 512 MB GDDR3. The internal registers of R520 support even 1GB memory size. With current GDDR3 prices we will definitely not see a 1GB design at least not in the near future and not for gaming cards. However, this shows that ATI is planning for the future.

The boards will be available in PCI-Express only. When asked about an AGP version, one source said "most probably not". Please note that this is not a definite "no". My guess is that if the market really demands an AGP version, it will be implemented via the Rialto bridge chip.

In the S3 part of this report we talked about OmniChrome supporting 10-bit-per-color display depths, so does R520. HDTV and HDCP output will be supported as well.

Clocks are not finalized yet, but expect something around 700 MHz core and 800 MHz memory (1.25ns).

The first boards will be VERY expensive people are talking $600-$700 range. It all depends on how the graphics memory prices develop in the next months and if TSMC can get good yields out of the 90nm process.


ATI SLI

Not much is known on this topic. Some people say the name is AMR "ATI Multi Rendering", others say MVP "Multi Visual Processing".
Our information differs from source to source. MVP and "neither AMR nor MVP" being the most popular answers.

ATI's technology is superior to NVIDIA's SLI in several ways:

While NVIDIA SLI splits the screen into two parts and one GPU renders each half, ATI's solution breaks the screen into little squares. Remember the chessboard effect you had when pipelines were bad with the softmod?
That's how it is going to work, just on a bigger scale, called "Super Tiling". Any GPU from R300 and up supports Super Tiling in hardware and they can be mixed when in SLI mode.
However, ATI most probably will not enable SLI for GPUs other than the R4xx and R520 series.

ATI's SLI is also not limited to two video cards. There will be one master card which presents the rendered data to the screen and coordinates the slaves which transfer their rendered data into the master's framebuffer. A physical PCB to link the video cards is not required, everything is done via PCI-Express bus.

ShadowXX
2005-03-19, 20:24:42
Nein, Coda hat zu 100% Recht, Gamestar schreib fast immer von unglaubwürdigen Quellen wie INQ ab und stellt diese dann als Tatsachen hin bzw. ergänzt noch ein paar unlogische Fakten. Les dir mal den Hardwareteil von Gamestar durch und du wirst sehen wie wenig Ahnung die Jungs von der Materie haben. Die bekommen mit Sicherheit keine Exklusivinformationen von irgendeinen IHV.

Sagen wirs mal so....ganz früher, konnte man den HW-Teil der GS auch gleich ungelesen in den Müll schmeissen.

Bis vor ca. einem halben Jahr musste man sich beim lesen oftmal zusammenreissen nicht einen Lachanfall zu bekommen...zumal nicht mal kritik reagiert wurde.

Aber seit dem (ca. ab Relaunch des GS-Outfits) hat sich der HW-Teil immerhin so stark gebessert, das man ihn durchlesen kann, ohne gleich völlig am Sachverstand der Redakteure zu zweifeln.

Was zum grössten Teil wohl daran liegt, das inzwischen die Meldungen wenigsten grösstenteils nachgeprüft werden, bevor Sie abgedruckt werden.

Das es meistens etwas hinterherhinkt und nicht unbedingt in dem Stil geschreiben ist, den die meisten hier auf dem Board erwarten, liegt a.) am Medium (Printmedien brauchen nunmal etwas länger als das I-Net) und b.) am anderen Zielpublikum.

@GS-Daniel:
Nimms nicht so schwer.....Meister sind noch keine vom Himmel gefallen und um die User hier auf dem Board zufriedenzustellen muss man schon sehr schwere Geschütze auffahren.
Speziel ein Satz wie "haben wir durch harte Recherche..." kommt hier meistens ohne direkte Quellenangaben nicht so gut an...

Eure Artikel/Test über HW sind den meisten hier einfach zu Oberflächlich....und ein paar Halbwahrheiten und Flüchtigskeitsfehler stecken meistens auch noch drinne.
Sowas wird hier allerdings auf die Goldwaage gelegt....

Denk einfach daran, das hier Seiten wie Toms Hardware als "Running Gag" genommen werden (wenn jemand eine Aussage belegen will)...und der INQ im GraKa-Bereich als schlechte kopie der Bild-Zeitung gilt.

ShadowXX
2005-03-19, 20:38:30
Wurde das hier schon gepostet? Quelle ist TechPowerUp.

Cebit 2005 - Day 4

Manufacturer: Cebit Germany Author: W1zzard Date: March 17th 2005


ATI R520

ATI's new GPU chip R520 is internally called "Fudo". The design has been ready for quite some time now. One source is telling us "the chip is working, now ATI is designing the boards, and after that they have to fix the boards to get them working [laughs]".


Zuviel INQ gelesen? (Fudo....AFAIK hat ATI schon öfter mal gesagt, das er nicht "fudo" heisst)


The chip is produced using a 90nm process at TSMC and will have 300 to 350 million transistors.

We have confirmed the 24 pipelines rumors from several independant sources. However, these 24 pipelines are not comparable to 24 of today's pipelines - multiply by 1.3. So the 24 pipelines will have the performance of 32 "normal" pipelines.
The result of this is that the R520 will be two times as fast as the currently fastest X850s.


Und Kaffee kochen kann er auch.....

Ich würde gerne mal nur eine der "indepandant sources" wissen, die 24 Pipelines "confirmen".

Das mit den Super-Special-Pipelines hatte wir schon mal beim r420.....
(der damalige Name dafür, ist mir gerade entfallen).


The most important architectural change is support for WGF 1.0 (Windows Graphics Foundation). This is the successor to DirectX9, often called DirectX Next. WGF will be included as standard in Microsoft Longhorn.
WGF offers new exciting features for game developers like "unlimited" shader length, Geometry Shaders, Much lower overhead than DirectX9 and many more.

Obviously ShaderModel 3.0 is supported by R520 as well.


Unlimited Shaders und Geometry Shader kommen AFAIK erst mit WGF2.0

reunion
2005-03-19, 20:40:37
ATI R520

ATI's new GPU chip R520 is internally called "Fudo". The design has been ready for quite some time now. One source is telling us "the chip is working, now ATI is designing the boards, and after that they have to fix the boards to get them working [laughs]".

The chip is produced using a 90nm process at TSMC and will have 300 to 350 million transistors.


Bis hierhin 1:1 von INQ abgeschrieben. ;)


We have confirmed the 24 pipelines rumors from several independant sources. However, these 24 pipelines are not comparable to 24 of today's pipelines - multiply by 1.3. So the 24 pipelines will have the performance of 32 "normal" pipelines.
The result of this is that the R520 will be two times as fast as the currently fastest X850s.


Oh, die "extremen"-pipes sind wieder da. :rolleyes:


ATI will most probably present the chip in June at Computex, Taiwan.


Bin gespannt ob das stimmt.


The most important architectural change is support for WGF 1.0 (Windows Graphics Foundation). This is the successor to DirectX9, often called DirectX Next. WGF will be included as standard in Microsoft Longhorn.
WGF offers new exciting features for game developers like "unlimited" shader length, Geometry Shaders, Much lower overhead than DirectX9 and many more.


WGF 1.0 wird bereits ab R300 unterstützt.


Obviously ShaderModel 3.0 is supported by R520 as well.


Wurde längst von ATi bestätigt, ist also keine Kunst das zu wissen.


Clocks are not finalized yet, but expect something around 700 MHz core and 800 MHz memory (1.25ns).


Unwarscheindlich

ShadowXX
2005-03-19, 20:46:41
Oh, die "extremen"-pipes sind wieder da. :rolleyes:


Danke....das war das Wort was ich in meinem Post gesucht habe.....

........irgendwie haben wir wohl das gleiche gedacht, das wir den "Artikel" gelesen haben.

Cenmocay
2005-03-19, 21:49:19
leute kommt mal von eurer überheblichkeit runter,das nervt

die über die ihr euch immer lustig macht haben hundertpro mehr ahnung als ihr also bleibt sachlich

Coda
2005-03-19, 22:10:58
Ach so ist das ;)

Zum Thema: WGF 2.0 Support ist sehr unwahrscheinlich.

Ailuros
2005-03-20, 00:58:49
Bist du sicher dass das XDR und nicht GDDR4 heißen soll?

Um ganz genau zu sein, hiess es nur "higher speced ram support".

Ailuros
2005-03-20, 01:02:10
leute kommt mal von eurer überheblichkeit runter,das nervt

die über die ihr euch immer lustig macht haben hundertpro mehr ahnung als ihr also bleibt sachlich

Ich kann es ja tagtaeglich sehen, ergo gibt es wohl keinen einzigen Zweifel diesbezueglich ;D :|

Xmas
2005-03-20, 01:06:30
Um ganz genau zu sein, hiess es nur "higher speced ram support".
Dann würde ich mal stark von GDDR4 ausgehen, denn das ist zumindest halbwegs bestätigt.
http://www.beyond3d.com/forum/viewtopic.php?t=17745
http://www.theregister.co.uk/2004/11/03/ati_tapes_out_r5xx/

Ailuros
2005-03-20, 01:06:49
Ach so ist das ;)

Zum Thema: WGF 2.0 Support ist sehr unwahrscheinlich.

In dem Zeug steht eigentlich WGF1.0 drin....

The most important architectural change is support for WGF 1.0 (Windows Graphics Foundation). This is the successor to DirectX9, often called DirectX Next. WGF will be included as standard in Microsoft Longhorn.
WGF offers new exciting features for game developers like "unlimited" shader length, Geometry Shaders, Much lower overhead than DirectX9 and many more.

Bis jetzt wissen wir wohl dass:

WGF1.0 = DX9.0
WGF2.0 = (DX10?) Shaders, Geometry Shader etc.

Ailuros
2005-03-20, 01:12:06
Dann würde ich mal stark von GDDR4 ausgehen, denn das ist zumindest halbwegs bestätigt.
http://www.beyond3d.com/forum/viewtopic.php?t=17745
http://www.theregister.co.uk/2004/11/03/ati_tapes_out_r5xx/

Merci bien. Auf jeden Fall klingen >65GB/sec wuerdiger der spekulierten Fuellrate einer R5x0, als GDDR3 liefern kann fuer den Anfang. 1200 klingt mir ein bisschen zu optimistisch fuer das Ende von 2005.

Gast
2005-03-20, 14:52:24
@ reunion:

Liest Du eigentlich den _aktuellen_ Hardware-Teil? IHVs: Was Du alles glaubst, zu wissen.

@ ShadowXX:

Es ist ja nicht so, als würde ich nicht regelmäßig dieses Forum lesen. Insofern habe ich auch nichts gegen die Goldwaage. Ich habe aber was gegen Behauptungen, die einfach nicht stimmen - unter anderem lassen wir keine Informationen ungeprüft ins Heft. Thema Quellenangabe: Das haben wir schon im GameStar-Forum x-fach durchgenudelt. Es gibt in Deutschland - zu Recht - Quellenschutz. Ich kann einfach nicht genauer als "ATI-Roadmap", "interne Kreise" oder "großer Grafikkarten-Hersteller" werden, ohne den Job einiger Leute zu gefährden. Stellt Euch vor, ein SPD-Politiker gibt dem Spiegel Auskunft über wichtige Strategie, die noch geheim bleiben soll, und der Spiegel druckt den Namen. Als Effekt gäbe es ein riesen Theater und die Quelle würde wahrscheinlich versiegen. Wenn sie nicht sogar ihren Posten räumen muss.

@ all:

R520 ist laut der aktuellen ATI-Roadmap, die ich gesehen habe, WGF 1.0 compliant und das passt auch zu allem, was ich sonst weiß.

Coda
2005-03-20, 15:00:05
WGF 1.0 ist ja DX9, also nix besonderes.

reunion
2005-03-20, 15:16:56
@ reunion:

Liest Du eigentlich den _aktuellen_ Hardware-Teil? IHVs: Was Du alles glaubst, zu wissen.


Ja, ich kaufe mir die Gamestar fast jeden Monat da ich den Spieleteil für sehr gelungen halte. Das der Hardwareteil für mich unbefriedigend ausfällt habe ich ja schon geschrieben. Ich gebe allerdings zu das man sich inzwischen stark gebessert hat.


@ all:

R520 ist laut der aktuellen ATI-Roadmap, die ich gesehen habe, WGF 1.0 compliant und das passt auch zu allem, was ich sonst weiß.

Höchstwarscheindlich ist selbst Intels GMA900 aka 'Extreme-Grafics' WGF 1.0 kompatibel. Und diese hat nichtmal VS.

Und das war schon wieder ein gutes Beispiel für den schwachen Hardwareteil der GS. Man glaubt einfach zu oft der Autor weiss selbst nicht wovon wer schreibt.

seahawk
2005-03-20, 16:22:02
Nur die Taktraten sollte man mit vorsicht geniesen.

500-600Mhz ist doch vergleichsweise konservativ im Gegensatz zu den Schätzungen im Web.

Gast
2005-03-20, 17:47:52
Höchstwarscheindlich ist selbst Intels GMA900 aka 'Extreme-Grafics' WGF 1.0 kompatibel. Und diese hat nichtmal VS.

Und das war schon wieder ein gutes Beispiel für den schwachen Hardwareteil der GS. Man glaubt einfach zu oft der Autor weiss selbst nicht wovon wer schreibt.

Nachfragen ist besser als Reininterpretieren. Die WGF-1.0-Zeile sollte klären, dass R520 nicht WGF 2.0 ist, wie es in diesem Thread mal zur Sprache kam.

reunion
2005-03-20, 18:08:19
Nachfragen ist besser als Reininterpretieren. Die WGF-1.0-Zeile sollte klären, dass R520 nicht WGF 2.0 ist, wie es in diesem Thread mal zur Sprache kam.

Das R520 nicht WGF2.0 fähig ist war ohnehin schon klar. Oder was will man jetzt mit einem solchem Chip wo Longhorn erst irgendwann 2006 kommt?

Im übrigen bestätigte Dave Orton (CEO von Ati) schon desöfteren das R520 ein SM3.0-Chip wird.

Gast
2005-03-20, 18:47:34
Nachfragen ist besser als Reininterpretieren. Die WGF-1.0-Zeile sollte klären, dass R520 nicht WGF 2.0 ist, wie es in diesem Thread mal zur Sprache kam.
Das wäre nun aber mal reininterpretiert... :)
Schließlich ist jeder WGF2.0-Chip auch WGF1.0-fähig.

Mantikor
2005-03-20, 20:13:48
Das wäre nun aber mal reininterpretiert... :)
Schließlich ist jeder WGF2.0-Chip auch WGF1.0-fähig.

Wäre allerdings auch WGF 2.0 fähig, dann hätte man eine solche wichtige Information sicherlich nicht vergessen, oder?! ;)

Mfg der Mantikor

ShadowXX
2005-03-20, 20:17:35
Nachfragen ist besser als Reininterpretieren. Die WGF-1.0-Zeile sollte klären, dass R520 nicht WGF 2.0 ist, wie es in diesem Thread mal zur Sprache kam.


The most important architectural change is support for WGF 1.0 (Windows Graphics Foundation). This is the successor to DirectX9, often called DirectX Next. WGF will be included as standard in Microsoft Longhorn.
WGF offers new exciting features for game developers like "unlimited" shader length, Geometry Shaders, Much lower overhead than DirectX9 and many more.


Dann vermisse ich in diesem Satzkonstukten aber die Worte "not" und "WGF2".

Selbst bei viel wohlwollen, liesst sich das eher so, als wenn WGF1 all das beinhaltet, was dort aufgezählt wird.

Das es WGF2 gibt und das die Features die dort aufgezählt zu eben diesem gehören (und nicht zu WGF1) wird nichtmal erwähnt.....

Gast
2005-03-20, 20:20:22
Dann vermisse ich in diesem Satzkonstukten aber die Worte "not" und "WGF2".

Selbst bei viel wohlwollen, liesst sich das eher so, als wenn WGF1 all das beinhaltet, was dort aufgezählt wird.

Das es WGF2 gibt und das die Features die dort aufgezählt zu eben diesem gehören (und nicht zu WGF1) wird nichtmal erwähnt.....

Aber der Text, den Du zitierst, stammt weder von mir noch basiert unsere Online-News darauf.

ShadowXX
2005-03-20, 22:37:25
Aber der Text, den Du zitierst, stammt weder von mir noch basiert unsere Online-News darauf.

Das war auch nicht auf euch oder eure News gemüntzt, sondern nur als Bemerkung auf diesen Text gemüntzt....

War wohl etwas aus dem Zusammenhang der Diskussion herausgerissen und konnte so missverstanden werden.

reunion
2005-03-21, 10:37:48
Falls es jemanden intressiert: FUAD x 2 :D

R520, "Fudo" is Longhorn WGF 1.0 compliant: To launch in June (http://www.theinquirer.net/?article=21982)

ATI R580 spotted on the back burner
(http://www.theinquirer.net/?article=21981)

seahawk
2005-03-21, 11:02:59
Das tut langsam körperlich weh.

Winter[Raven]
2005-03-21, 12:27:52
Falls es jemanden intressiert: FUAD x 2 :D

R520, "Fudo" is Longhorn WGF 1.0 compliant: To launch in June (http://www.theinquirer.net/?article=21982)

ATI R580 spotted on the back burner
(http://www.theinquirer.net/?article=21981)

Was R520 doch nicht so "schnell" wie erhofft um gegen Nvidia's *was auch immer* bestehen zu können?

Langsamm wird es aber etwas lächerlich für ATI ...

Ailuros
2005-03-21, 12:31:06
Falls es jemanden intressiert: FUAD x 2 :D

R520, "Fudo" is Longhorn WGF 1.0 compliant: To launch in June (http://www.theinquirer.net/?article=21982)

ATI R580 spotted on the back burner
(http://www.theinquirer.net/?article=21981)


Der zweite Link ist nicht ganz wertlos; geht man von der R420/480 Masche aus, kann es durchaus sein dass der Refresh vom R520 einen R580 Codenamen traegt. Wobei der letztere eben mit hoechster Wahrscheinlichkeit dann mit GDDR4 ausgestattet sein wird.

Kleinigkeiten; mich interessiert momentan eher fuer was die PC-R5xx Architektur eigentlich steht, wie die Pipeline ausgelegt ist und zu was das Ding genau faehig ist. Solches Zeug finden wir ja erst nach der Veroeffentlichung heraus; bis dahin sind jegliche 16*650 etc Spekulationen natuerlich nur halbwegs wertloses Zahlen-Gewarkel, was aber an fuer sich normal ist vor jeder Veroeffentlichung. Was dabei hinten rauskommt zeigt sich dann eben eher in den ersten Reviews.

Cenmocay
2005-03-21, 13:53:45
']Was R520 doch nicht so "schnell" wie erhofft um gegen Nvidia's *was auch immer* bestehen zu können?

Langsamm wird es aber etwas lächerlich für ATI ...

:crazy2:

Winter[Raven]
2005-03-21, 13:59:08
Was den?

Überleg dir doch mal, wieso sollte ATI einen R580 bringen wenn der R520 der "Wunderchip" ist?

Es sieht so aus als nimmt ATI an dass Nvidia mit ihrem NV** irgendetwas bringen wird das >= einem R520 schnell ist, anders ist die Strategie nicht zu erklären.

dildo4u
2005-03-21, 14:01:35
']Was den?

Überleg dir doch mal, wieso sollte ATI einen R580 bringen wenn der R520 der "Wunderchip" ist?

Es sieht so aus als nimmt ATI an dass Nvidia mit ihrem NV** irgendetwas bringen wird das >= einem R520 schnell ist, anders ist die Strategie nicht zu erklären.
Der refresh kommt so oder so egal wie schnell nvidia ist.

reunion
2005-03-21, 14:14:44
']Was den?

Überleg dir doch mal, wieso sollte ATI einen R580 bringen wenn der R520 der "Wunderchip" ist?

Es sieht so aus als nimmt ATI an dass Nvidia mit ihrem NV** irgendetwas bringen wird das >= einem R520 schnell ist, anders ist die Strategie nicht zu erklären.

Also deine Logik soll mal einer verstehen. Glaubst du ATi plant mit dem R520 nVidia den Totdesstoß zu geben um dann keine neuen Chips mehr produzieren zu müssen?

Oder anders gefragt: Hat nVidia zu NV10/15/20 Zeiten als man der Konkurrenz weit vorraus war etwa keine neuen Chips mehr hergestellt?

Das ein Refreshchip mit GDDR4 Ende 2005 kommt düfte klar sein und hat nichts mit der Performace von R520 zu tun.

Demirug
2005-03-21, 14:36:32
Der refresh kommt so oder so egal wie schnell nvidia ist.

Ein Refresh kommt "As market requires".

dildo4u
2005-03-21, 14:39:11
Ein Refresh kommt "As market requires".
Also bis jetzt wurden die 6-8monate eigentlich immer eingehalten und welcher markt braucht eine X850XT-PE boah 20mhz mher wenns die X800XT-PE auch für PCI-E gibt.

Demirug
2005-03-21, 14:40:35
Also bis jetzt wurden die 6-8monate eigentlich immer eingehalten und welcher markt braucht eine X850XT-PE boah 20mhz mher wenns die X800XT-PE auch für PCI-E gibt.

Das bewegt sich doch sowieso schon in einem Bereich der mit Logik nicht mehr viel zu tun hat.

Winter[Raven]
2005-03-21, 14:44:09
Ein Refresh kommt "As market requires".

Sag ich doch ... XD

robbitop
2005-03-21, 14:48:40
auf der CeBIT haben mir soziemlich alle IHVs bestätigt, dass es in der nächsten Zeit auf Grafikkarten maximal GDDR3 geben wird. XDR/GDDR4 würde man später vieleicht darüber nachdenken.

ShadowXX
2005-03-21, 14:52:41
Das bewegt sich doch sowieso schon in einem Bereich der mit Logik nicht mehr viel zu tun hat.

Der r480 ist ja im Prinzip auch nichts als eine fertigungsoptimierte Version des r420, die "zufälligerweise" etwas höher getaktet werden kann....das wurde dann quasi mitgenommen.

Das Marketing bauscht es dann etwas hoch....

Macht sich halt besser als r480 als als r420 Rev2.

MarioK
2005-03-21, 15:13:46
Wurde das hier schon gepostet? Quelle ist TechPowerUp.

HDTV and HDCP output will be supported as well.


frage für profi spekulierer: wird das wie jetzt (R3xx >) HDCP nur mit extra chip auf karte (speicher für schlusseln!), oder integriert und mit driver support (AN/AUS, geschutzte direkte schreiben in framebuffer(TCPA?) und solche sachen ...)?

es geht um HDTV/DRM ...

mario

Leonidas
2005-03-21, 18:18:20
The most important architectural change is support for WGF 1.0 (Windows Graphics Foundation). This is the successor to DirectX9, often called DirectX Next. WGF will be included as standard in Microsoft Longhorn.
WGF offers new exciting features for game developers like "unlimited" shader length, Geometry Shaders, Much lower overhead than DirectX9 and many more.



Es gibt keine architekturellen Änderungen für WGF 1.0! WGF1 ist schlicht DX9, nur ergänzt um einen Treiber, der die Longhorn-Oberfläche aufbauen kann. Am Chip muß dafür nix verändert werden, es reichen banale Shader 2.0 Fähigkeiten.

Ailuros
2005-03-22, 13:14:47
Es gibt keine architekturellen Änderungen für WGF 1.0! WGF1 ist schlicht DX9, nur ergänzt um einen Treiber, der die Longhorn-Oberfläche aufbauen kann. Am Chip muß dafür nix verändert werden, es reichen banale Shader 2.0 Fähigkeiten.

Nun ja falls es Intel schafft fuer ihren Krempel WGF1.0 erreichen zu koennen, dann sind HW-VS schon gar nicht noetig dafuer.

Ailuros
2005-03-22, 13:20:38
Das ein Refreshchip mit GDDR4 Ende 2005 kommt düfte klar sein und hat nichts mit der Performace von R520 zu tun.

Anscheinend wird R580 vielleicht doch nicht nur schnelleren Speicher haben. Man redet momentan bei B3D ueber:

R520 = 16/1/1/1
R580 = 16/1/3/1

...von irgend einem nicht offiziellen Dokument. Meine persoenliche Spekulation ist dass die Zahlen fuer folgendes stehen:

SIMD channel / TMU / ALU / ROP

Muss aber auch nicht unbedingt so sein.

deekey777
2005-03-22, 13:41:14
Es gibt keine architekturellen Änderungen für WGF 1.0! WGF1 ist schlicht DX9, nur ergänzt um einen Treiber, der die Longhorn-Oberfläche aufbauen kann. Am Chip muß dafür nix verändert werden, es reichen banale Shader 2.0 Fähigkeiten.


Vielleicht ist die "WGF 1.0 Fähigkeit" eine Art Gütesiegel, mit dem eine DX9.0 Compiliant auch unter Longhorn laufen werden. Vielleicht auch nicht.

DrumDub
2005-03-22, 14:37:45
Anscheinend wird R580 vielleicht doch nicht nur schnelleren Speicher haben. Man redet momentan bei B3D ueber:

R520 = 16/1/1/1
R580 = 16/1/3/1

...von irgend einem nicht offiziellen Dokument. Meine persoenliche Spekulation ist dass die Zahlen fuer folgendes stehen:

SIMD channel / TMU / ALU / ROP

Muss aber auch nicht unbedingt so sein.

interessant. also geht ati über den takt. 600mhz müssen sie mindestens packen. besser wären 700mhz.

Godmode
2005-03-22, 19:04:04
Ich denke die wissen schon was sie tun! ATI war immer sehr konservativ was die Fertigungsprozesse betrifft, deshalb denke ich dass sie genau wissen ob 90nm geht oder nicht geht!

Wird aber echt interessant, welches Design schneller wird? NVs 24*1 oder ATIs 16*1. Ich denke aber dass sie mit 90nm sicherlich wieder mit dem Takt verdammt hoch gehen könnten/werden.

Ist die R520 @ 16 Pipe Version recht spekulativ oder doch eher einleuchtend? Was ich nicht so ganz verstehe ist, warum sie 300Mio Transitoren brauchen(wenn das überhaupt stimmt). Das wären 80Mio Mehr als beim NV40!

Könnte es sein, das sie die Dynamic Branching anders/besser implementiert haben als Nvidia, oder ist das ganze einfach nur dumme Speku seitens B3D?

Gast
2005-03-22, 19:10:37
r520 spekulation
1. 24pipes(1alu/tmu/z) 16rops

2. 16pipes(1alu/tmu/z) 16rops erhöhte effizienz pro pipe im vergleich zum r4x0 @ 600-700mhz

seahawk
2005-03-22, 19:16:37
interessant. also geht ati über den takt. 600mhz müssen sie mindestens packen. besser wären 700mhz.

Dann müssen wir annehmen, dass beide IHV vollkommen Unterschiedlich Wege gehen. ATI über den Takt, NV über eine breitere Struktur.

So gesehen machen auch die jeweiligen Entscheidungen bei den Fertigungsprozessen Sinn. ATI braucht einen kleinen Prozess um am Takt zu drehen. NV braucht einen ausgereiften Prozess um einen solch komplexen Chip zuverlässig fertigen zu können.

Botcruscher
2005-03-22, 19:21:36
r520 spekulation
1. 24pipes(1alu/tmu/z) 16rops

2. 16pipes(1alu/tmu/z) 16rops erhöhte effizienz pro pipe im vergleich zum r4x0 @ 600-700mhz


Halte ich führ sehr unwahrscheinlich. Die Leistungssteigerung bei 2. währe einfach zu gering. 24 pipes a 600 MHz sind wohl realistisch.

Gast
2005-03-22, 19:33:56
zu gering zu was?

ich denke beide möglichkeiten sind sehr gut möglich

ShadowXX
2005-03-22, 19:37:04
zu gering zu was?

ich denke beide möglichkeiten sind sehr gut möglich

Aber kein 24Pipes bei 600MHz....das schafft ATI IMHO auch bei 90nm nicht.

Coda
2005-03-22, 20:02:25
Wieso nicht? Ich finde das durchaus realistisch...

Exxtreme
2005-03-22, 20:09:37
Aber kein 24Pipes bei 600MHz....das schafft ATI IMHO auch bei 90nm nicht.Hehe, ich kann mich noch daran erinnern als es hieß, daß ATi keine 107 Mio. Transistoren @ 0.15µm mit 325 MHz betreiben kann. :D

Winter[Raven]
2005-03-22, 20:31:00
Na hoffentlich werden einige hier nicht entteuscht sein wenn dat Ding auf den Markt kommt...

Ich halte die Theorie 24 @ 600 MHz für EXTREM übertrieben. 16 @ 600 Klingen schon ehe nach der Realität.

ShadowXX
2005-03-22, 20:53:16
Hehe, ich kann mich noch daran erinnern als es hieß, daß ATi keine 107 Mio. Transistoren @ 0.15µm mit 325 MHz betreiben kann. :D

Selbst wenn es machbar sein sollte....womit willst du die 24Pipeline bei 600MHz "füttern".

Bei 700MHz GDDR3-Spicher "verhungern" die ja quasi.

Und jetzt komm nicht damit, das ATI auch noch gleich ein 512Bit-Speicherinterface baut.

Beim r580 sieht die Sache schn wieder anders auch...da könnte ich mir durchaus ein 24Pipe (bzw. 6Quads) Design vorstellen.

reunion
2005-03-22, 23:10:54
Wird aber echt interessant, welches Design schneller wird? NVs 24*1 oder ATIs 16*1. Ich denke aber dass sie mit 90nm sicherlich wieder mit dem Takt verdammt hoch gehen könnten/werden.


Über den Takt zu gehen ist aufjedenfall effizienter, da zB bei kleineren Dreiecken manche Pipes im Leerlauf arbeiten.

Durch 90nm sollten Taktraten über 600mhz möglich sein.


Ist die R520 @ 16 Pipe Version recht spekulativ oder doch eher einleuchtend? Was ich nicht so ganz verstehe ist, warum sie 300Mio Transitoren brauchen(wenn das überhaupt stimmt). Das wären 80Mio Mehr als beim NV40!


Die 300mio Transistoren sind AFAIK aus der Luft gegriffen, sollte man also nicht zu ernst nehmen.

Coda
2005-03-22, 23:16:09
In 90nm hätte ATi aber wirklich genügend Platz für 300 Mio Transistoren...

reunion
2005-03-22, 23:19:28
NV braucht einen ausgereiften Prozess um einen solch komplexen Chip zuverlässig fertigen zu können.

So einfach ist das nicht.
Klar, 130nm ist ausgereift. Nur steigt auch die Die-Fläche mit der wachsenden Transistorenanzahl an. Was die Kosten steigert und die Ausbeute sinken lässt.

Coda
2005-03-22, 23:21:54
24 Pipelines in 130nm find ich unwahrscheinlich. Mir kamen die 220 Mio vom NV40 schon reichlich viel vor.

reunion
2005-03-22, 23:29:42
In 90nm hätte ATi aber wirklich genügend Platz für 300 Mio Transistoren...

Kommt drauf an wie weit TSMC mit ihrem 90nm Prozess ist.
Früher oder später ist es sicher möglich.

Coda
2005-03-22, 23:31:00
Das einzige was hinderlich sein könnte ist die Ausbeute und 300 Mio 90nm sind nur ca. 3/4 der Fläche von NV40.

reunion
2005-03-22, 23:32:58
24 Pipelines in 130nm find ich unwahrscheinlich. Mir kamen die 220 Mio vom NV40 schon reichlich viel vor.

ACK, nur was wird nV dann machen?
Über den Takt wird man mit dem R520 nicht mithalten können, 110nm halte ich für ungeeignet für einen Highend-Chip. Man sieht ja die verhältnismäßig hohe Leistungsaufnahmen sowie die bescheidene Taktbarkeit der heutigen Chips.
Ich würde 90nm noch nicht ganz ausschließen.

reunion
2005-03-22, 23:42:45
Das einzige was hinderlich sein könnte ist die Ausbeute und 300 Mio 90nm sind nur ca. 3/4 der Fläche von NV40.

Ich weiss. Könnte durchaus sein das TSMC eine gewisse "Transistorengrenze" für eine vernünftige Ausbeute angegeben hat.

Falls das nicht so sein sollte bleibt noch immer eine Frage:
Womit willst du diesen Füttern?

Demirug
2005-03-22, 23:50:56
Ich weiss. Könnte durchaus sein das TSMC eine gewisse "Transistorengrenze" für eine vernünftige Ausbeute angegeben hat.

Es gibt eine Formel um den Yield vorherzusagen. Da spielen aber viele Faktoren eine Rolle. Zudem berechnet man damit die Anzahl der komplett korrekt arbeitenden Chips. GPUs werden ja aber zunehmend unanfälliger gegenüber Chipfehler weil fast alle Einheiten mehrfach vorhanden sind.

Ailuros
2005-03-23, 01:17:21
In 90nm hätte ATi aber wirklich genügend Platz für 300 Mio Transistoren...

Fuer R500/Xenon sicher....

***edit: mal anders rum gefragt; hat R520 tatsaechlich 300M, wieviel wuerdest Du dann R500 einschaetzen? Vereinte Shader + 10MB eDRAM und >500MHz.

Ailuros
2005-03-23, 01:28:29
Die ultra high end version von R520 wird wahrscheinlich mit mehr als 650MHz getaktet sein, high end Modelle </=650MHz.

Ausser ich bekam wieder mal verwirrende Infos (was auch oefters der Fall ist), hoere ich von 4 quads fuer jegliche R5xx und das schon seit fast einem Jahr.

16*675 sind fast 11 GPixels/sec als Beispiel; mit dem zeitigen verfuegbaren Speicher wird eine 10-11 GPixels/sec sowieso ziemlich Bandbreiten-limitiert sein, bis Ende des Jahres schnellerer Speicher verfuegbar ist.

Sagt mir jetzt jemand dass Fuellrate fuer z.B. PS und/oder AF-Leistung einen Unterschied machen wird, hab ich natuerlich nichts einzuwenden, aber es wird auch Faelle geben wo die Leistungssteigerung im Vergleich zu heutigen ultra high end GPUs eben auch nur analog der hoeheren Bandbreite sein koennte. Wieviele reine Shader- bzw. GPU-limitierte Spiele gibt es heutzutage genau?

Ailuros
2005-03-23, 01:38:45
ACK, nur was wird nV dann machen?
Über den Takt wird man mit dem R520 nicht mithalten können, 110nm halte ich für ungeeignet für einen Highend-Chip. Man sieht ja die verhältnismäßig hohe Leistungsaufnahmen sowie die bescheidene Taktbarkeit der heutigen Chips.
Ich würde 90nm noch nicht ganz ausschließen.

6 quads mit ~NV40 Taktraten waeren schon moeglich auf 110nm@TSMC. Stromsparend wird das Ding auf jeden Fall nicht sein, ausser NVIDIA wartet bis zum Herbst wo der erste 90nm chip zum Vorschein kommen soll (nach allen Indizien).

Mal angenommen:

24*400 = 9600
16*675 = 10800

In solch einem theoretischen Fall waere NV sogar naeher was die Fuellrate betrifft, als im Vergleich NV40/R420.

aths
2005-03-23, 02:50:21
Wird aber echt interessant, welches Design schneller wird? NVs 24*1 oder ATIs 16*1. Persönlich finde ich das uninteressant, da aktuelle Chips schnell genug sind. Was mich interessiert ist, welcher die bessere 3D-Bildqualität erzeugen kann.

mapel110
2005-03-23, 03:01:52
Persönlich finde ich das uninteressant, da aktuelle Chips schnell genug sind. Was mich interessiert ist, welcher die bessere 3D-Bildqualität erzeugen kann.
Ich gehe mal schwer davon aus, dass sich beim AA und AF rein gar nichts verändern wird, weder bei ATI noch bei nvidia;zumindest was die Hardware angeht. Treiberspielchen wirds immer geben.

Xmas
2005-03-23, 03:24:55
Angesichts dessen, dass ATI doch einiges in den TMUs verändern muss (4096²-Texturen, FP32-Präzision, voller NPOT-Support) rechne ich schon damit, dass sich auch am AF etwas ändert. Wie sich diese Änderung allerdings auswirken wird, bleibt abzuwarten.

aths
2005-03-23, 03:32:50
Ich gehe mal schwer davon aus, dass sich beim AA und AF rein gar nichts verändern wird, weder bei ATI noch bei nvidia;zumindest was die Hardware angeht. Davon gehe ich nicht aus. ATI muss einfach genauer werden.

seahawk
2005-03-23, 07:26:19
Davon gehe ich nicht aus. ATI muss einfach genauer werden.

Nur wenn es sie keine Balkenlänge kostet. Das dürfte leider die Realität sein.

Die in der PC Welt genannten 24Pipes @ >540mhz mit 600 mhz Speicher kann ichmir allerdings kaum vorstellen. Aber schön wärs. :smile: Hoffentlich reicht mir meine 9700pro noch bis zur Präsentation des R520s.

JFZ
2005-03-23, 08:39:17
Die in der PC Welt genannten 24Pipes @ >540mhz mit 600 mhz Speicher kann ichmir allerdings kaum vorstellen. Aber schön wärs.

Naja, das werden wohl die Zielvorgaben für die Extreme Platinum Edition sein... Die normale XT wird dann bestimmt 10% weniger Takt (Core und Speicher ) haben, und wenn die derzeitigen Planungen nicht eingehalten werden, wird halt doch ein bissle die Taktschraube runtergedreht...

Wobei der Chip aber auch mit etwas weniger Takt eine gute Sache sein wird.

Aber eigentlich wollte ich mir Ende Mai nen neuen Rechner bauen und da komme ich wohl dafür zu früh :(

robbitop
2005-03-23, 09:13:40
Über den Takt zu gehen ist aufjedenfall effizienter, da zB bei kleineren Dreiecken manche Pipes im Leerlauf arbeiten.


Da die Quads in je unabhängigen Dreiecken agieren können, stimmt das nicht. Pro Quad gibts immer Verschnitt. Egal ob mehr Quads oder mehr Takt, der Verschnitt pro Quad bleibt gleich.

robbitop
2005-03-23, 09:17:03
r520 spekulation
1. 24pipes(1alu/tmu/z) 16rops

2. 16pipes(1alu/tmu/z) 16rops erhöhte effizienz pro pipe im vergleich zum r4x0 @ 600-700mhz

bereits R420 besitzt 32 ROPs. Warum sollte man runter auf 16 gehen? :|

Coda
2005-03-23, 09:18:12
Vielleicht gibt's ja auch 32 Pipelines in 90nm X-D

bereits R420 besitzt 32 ROPsMhm wie kommst du drauf?

robbitop
2005-03-23, 09:24:14
Mhm wie kommst du drauf?

Bereits R300 kann pro Pipeline und Takt 2 Z Werte Werte testen oder 1x Z-Test + 1 Alphapblending oder 32 Z/Stencilops bei 2xMSAA. Was meinst du, woher das kommt? ;)

Quasar
2005-03-23, 09:25:55
Vermutlich, weil ATi angibt, auch sie können 32 Z-Werte pro Takt durchsetzen - mit 2xFSAA.

ROPs sind es trotzdem weiterhin nur 16.

edit:
Das war eigentlich als Antwort auf Coda gedacht - Ich sollte öfter mal F5 betätigen, wenn ich so gemütlich beim Lesen mal was poste...

Demirug
2005-03-23, 09:27:26
Bereits R300 kann pro Pipeline und Takt 2 Z Werte Werte testen oder 1x Z-Test + 1 Alphapblending oder 32 Z/Stencilops bei 2xMSAA. Was meinst du, woher das kommt? ;)

Es sind keine 32 ROPs sondern 16 doppel ROPs. Das ist ein entscheidender Unterschied.

Godmode
2005-03-23, 09:32:06
Persönlich finde ich das uninteressant, da aktuelle Chips schnell genug sind. Was mich interessiert ist, welcher die bessere 3D-Bildqualität erzeugen kann.

Ja da geb ich dir recht! Ich möchte auch wieder mein schönes Geforce4 AA zurückhaben!

edit: danke an Coda! natürlich ist der Ansiotropische Filter gemeint ;D

robbitop
2005-03-23, 09:42:04
Es sind keine 32 ROPs sondern 16 doppel ROPs. Das ist ein entscheidender Unterschied.
NV40 besitzt ebenfalls 16 Doppel ROPs.
M.E. warens beim NV25 und R3xx/4xx 2 echte ROP's pro Pipeline.
Aber ok, man lernt nie aus.

Ailuros
2005-03-23, 10:07:01
Es sind keine 32 ROPs sondern 16 doppel ROPs. Das ist ein entscheidender Unterschied.

Man sagte mir dass der NV2A auch schon "doppel"-ROPs haben soll (C+Z ROP); stimmt das?

reunion
2005-03-23, 10:14:31
Da die Quads in je unabhängigen Dreiecken agieren können, stimmt das nicht. Pro Quad gibts immer Verschnitt. Egal ob mehr Quads oder mehr Takt, der Verschnitt pro Quad bleibt gleich.


Du sagst es ja selbst.
Ja, pro Quad gibts immer Verschnitt, also umso mehr Quads umso mehr Verschnitt insgesamt. Den Takt zu erhöhen vergrößert allerdings nicht den Verschnitt.

robbitop
2005-03-23, 10:19:25
Du sagst es ja selbst.
Ja, pro Quad gibts immer Verschnitt, also umso mehr Quads umso mehr Verschnitt insgesamt. Den Takt zu erhöhen vergrößert allerdings nicht den Verschnitt.
Korrekt, dann habe ich dich missverstanden :)

Demirug
2005-03-23, 10:19:46
NV40 besitzt ebenfalls 16 Doppel ROPs.
M.E. warens beim NV25 und R3xx/4xx 2 echte ROP's pro Pipeline.
Aber ok, man lernt nie aus.

Beim NV40 sind es hybride ROPs. Diese können pro Takt zwei Quads bearbeiten wenn es sich nur um Z/Stencil Ops handelt. Bei ATI ist es ein Quad mit 2 Samples.

Demirug
2005-03-23, 10:20:58
Man sagte mir dass der NV2A auch schon "doppel"-ROPs haben soll (C+Z ROP); stimmt das?

Ich meinte mit "doppel" ROPs Einheiten die zwei AA-Samples gelichzeitig bearbeiten können. Das ein ROP C+Z gleichzeitig bearbeitet war eigentlich schon immer so.

Coda
2005-03-23, 11:25:48
Ja da geb ich dir recht! Ich möchte auch wieder mein schönes Geforce4 AA zurückhaben!Du meinst wohl AF :rolleyes:

Ailuros
2005-03-23, 11:44:54
Ich meinte mit "doppel" ROPs Einheiten die zwei AA-Samples gelichzeitig bearbeiten können. Das ein ROP C+Z gleichzeitig bearbeitet war eigentlich schon immer so.

Anders rum gefragt: sind die ROPs auf NV2A gleich wie auf NV20/25?

Demirug
2005-03-23, 12:04:28
Anders rum gefragt: sind die ROPs auf NV2A gleich wie auf NV20/25?

AFAIK Ja. Aber gerade beim NV2A wurde ja immer noch nicht alles offen gelegt wenn man nicht gerade an ein XDK rankommt.

ShadowXX
2005-03-23, 12:05:40
Nur wenn es sie keine Balkenlänge kostet. Das dürfte leider die Realität sein.

Die in der PC Welt genannten 24Pipes @ >540mhz mit 600 mhz Speicher kann ichmir allerdings kaum vorstellen. Aber schön wärs. :smile: Hoffentlich reicht mir meine 9700pro noch bis zur Präsentation des R520s.

Wär bei um die 600MHz Speichertakt etwas wenig Bandbreite für dieses extreme Füllratenmonster (24x600 oder sogar 650MHz).....

Ich schätze mal eher, das der r580 24Pipes haben wird.....

Ailuros
2005-03-24, 10:54:11
Wär bei um die 600MHz Speichertakt etwas wenig Bandbreite für dieses extreme Füllratenmonster (24x600 oder sogar 650MHz).....

Ich schätze mal eher, das der r580 24Pipes haben wird.....

Hoechstwahrscheinlich auch nicht. Ich erinnere nochmal:

R520 = 16/1/1/1
R580 = 16/1/3/1

Die letzte Zahl (1) soll fuer Z/stencil stehen; was nun die 3 betrifft sollte wohl eher jemand wie Xmas erklaeren, ich blicke bei dem Zeug sowieso nicht ganz durch...

Ailuros
2005-03-24, 10:57:32
AFAIK Ja. Aber gerade beim NV2A wurde ja immer noch nicht alles offen gelegt wenn man nicht gerade an ein XDK rankommt.

Es gab mal frueher einen hint dass NV2A, ROPs von anderen Generationen haette (ergo >NV25); deshalb die Frage.

Leonidas
2005-03-24, 16:42:24
Nun ja falls es Intel schafft fuer ihren Krempel WGF1.0 erreichen zu koennen, dann sind HW-VS schon gar nicht noetig dafuer.



Intel wird für seinen "Krempel" (GMA900, GMA950) WGF1-Treiber schreiben, nur deswegen hat man letztes Jahr diesen hochen Sprung von DX7 auf DX9 überhaupt gemacht.

Leonidas
2005-03-24, 16:44:47
Vielleicht ist die "WGF 1.0 Fähigkeit" eine Art Gütesiegel, mit dem eine DX9.0 Compiliant auch unter Longhorn laufen werden. Vielleicht auch nicht.



Nein, eigentlich nicht. Die "WGF 1.0 Fähigkeit" bezieht sich eher auf die Fähigkeit, die Longhorn-Oberfläche unter Nutzung der Shader 2.0 Fähigkeiten aufbauen zu können. Das DX9.0 für Spiele ist da eher nur eine Beigabe.

Demirug
2005-03-24, 17:27:05
Nein, eigentlich nicht. Die "WGF 1.0 Fähigkeit" bezieht sich eher auf die Fähigkeit, die Longhorn-Oberfläche unter Nutzung der Shader 2.0 Fähigkeiten aufbauen zu können. Das DX9.0 für Spiele ist da eher nur eine Beigabe.

Wenn ich es richtig verstanden habe bezieht sich das WGF aber auch darauf das ein nativer Longhorn Treiber verfügbar sein muss.

Die Oberfläche selbst kommt eigentlich weitgehend sogar mit DX7 Fähigkeiten aus. Das sieht man auch an den 3d Fähigkeiten von Avalon.

ShadowXX
2005-03-25, 11:09:27
Hoechstwahrscheinlich auch nicht. Ich erinnere nochmal:

R520 = 16/1/1/1
R580 = 16/1/3/1

Die letzte Zahl (1) soll fuer Z/stencil stehen; was nun die 3 betrifft sollte wohl eher jemand wie Xmas erklaeren, ich blicke bei dem Zeug sowieso nicht ganz durch...

Hast schon recht....mein:

Ich schätze mal eher, das der r580 24Pipes haben wird.....

sollte auch eigentlich mehr ein "wenn überhaupt, könnte vielleicht der r580....." sein.

Ailuros
2005-03-26, 09:48:53
Wenn ich es richtig verstanden habe bezieht sich das WGF aber auch darauf das ein nativer Longhorn Treiber verfügbar sein muss.

Die Oberfläche selbst kommt eigentlich weitgehend sogar mit DX7 Fähigkeiten aus. Das sieht man auch an den 3d Fähigkeiten von Avalon.

Um das Ganze ein bisschen klarer zu machen: Avalon wird wohl nichts haben was mit irgend einer T&L-Funktion zu tun haben koennte.

Wenn ich mich nicht irre, hast Du mich darauf aufmerksam gemacht dass Intel's Treiber nichtmal ueber SW T&L faehig sind oder?

Ergo wohl eher DX7.0 sans T&L?

Ailuros
2005-03-26, 09:52:13
Nein, eigentlich nicht. Die "WGF 1.0 Fähigkeit" bezieht sich eher auf die Fähigkeit, die Longhorn-Oberfläche unter Nutzung der Shader 2.0 Fähigkeiten aufbauen zu können. Das DX9.0 für Spiele ist da eher nur eine Beigabe.

Ich frage mich immer noch zu was man fuer selbst einen 3D-desktop ueberhaupt PS2.0 genau brauchen wuerde....kann mir das jemand mal besser aufklaeren was Avalon genau anstellt?

Demirug
2005-03-26, 10:22:48
Um das Ganze ein bisschen klarer zu machen: Avalon wird wohl nichts haben was mit irgend einer T&L-Funktion zu tun haben koennte.

Wenn ich mich nicht irre, hast Du mich darauf aufmerksam gemacht dass Intel's Treiber nichtmal ueber SW T&L faehig sind oder?

Ergo wohl eher DX7.0 sans T&L?

T&L gibt es schon bei Avalon. Bezüglich dem Intel Treiber hast du mich falsch verstanden. Der Treiber selbst enthält keine T&L Software emulation. Nimmt man die Software emulation die zur DirectX Runtime gehört funktioniert es. Das Problem ist nur das einige Spiele nicht mit Software T&L laufen wollen.

Ronny145
2005-03-26, 23:09:07
Laut Gamestar soll Ati angeblich eine Radeon X900 im Mai vorstellen. Kann das sein und ist das der R520 Chip?

mapel110
2005-03-26, 23:12:32
Kann das sein und ist das der R520 Chip?
Ja, wobei ich da den Namen X900 als Spekulation seitens Gamestar betrachten würde. ;)

Ailuros
2005-03-27, 01:13:39
T&L gibt es schon bei Avalon. Bezüglich dem Intel Treiber hast du mich falsch verstanden. Der Treiber selbst enthält keine T&L Software emulation. Nimmt man die Software emulation die zur DirectX Runtime gehört funktioniert es. Das Problem ist nur das einige Spiele nicht mit Software T&L laufen wollen.

Ach so....und zu was braucht Avalon T&L?

Demirug
2005-03-27, 09:39:45
Ach so....und zu was braucht Avalon T&L?

Für Avalon 3D. Es gibt in Avalon einen Controltype der 3D Objekte darstellen kann und sie müssen natürlich T&L bekommen.

Ailuros
2005-03-27, 11:32:55
Für Avalon 3D. Es gibt in Avalon einen Controltype der 3D Objekte darstellen kann und sie müssen natürlich T&L bekommen.

Soweit hab ich schon gedacht. Hier duerfte eigentlich der Belichtungs-teil am wichtigsten sein; Transformationen konnten ja selbst dx6.0 cores ausfuehren.

Entschuldige dass ich so dumm frage, aber ich konnte bis jetzt nur einen Haufen transparente 3-dimensionale Fenster sehen die wohl dann noch antialiasing abbekommen werden. Von irgendwelchem lighting oder sogar moeglichen pixel shader-Effekten konnte ich bis jetzt nichts sehen.

Texturierte bzw. bump mapped interfaces und irgend eine Art von "Beleuchtungen" fuer "highlights" als Beispiel?

Demirug
2005-03-27, 11:53:59
Soweit hab ich schon gedacht. Hier duerfte eigentlich der Belichtungs-teil am wichtigsten sein; Transformationen konnten ja selbst dx6.0 cores ausfuehren.

Entschuldige dass ich so dumm frage, aber ich konnte bis jetzt nur einen Haufen transparente 3-dimensionale Fenster sehen die wohl dann noch antialiasing abbekommen werden. Von irgendwelchem lighting oder sogar moeglichen pixel shader-Effekten konnte ich bis jetzt nichts sehen.

Texturierte bzw. bump mapped interfaces und irgend eine Art von "Beleuchtungen" fuer "highlights" als Beispiel?

Pixelshader gibt es nicht. Avalon 3d entspricht ja wie gesagt etwa dem DX7 Techlevel. Das was du gesehen hast war der neue Longhorn Windowmanager. Ich spreche hier von Avalon 3D. Das ist ein großer Unterschied. Der Windowmanger bestimmt wie die Fenster angezeigt werden. Avalon bestimmt was man in den Fenstern sieht. Bei Longhorn rendert Avalon daher in eine Texture welche dann vom Windowmanager zur Anzeige genutzt wird.

Ein Beispiel für Avalon 3D gibt es dort: http://channel9.msdn.com/ShowPost.aspx?PostID=34528

Ailuros
2005-03-27, 12:34:19
Aha! Herzlichen Dank :)

Godmode
2005-03-30, 12:22:07
:cop:FUDO:cop: spricht ;)

http://theinquirer.net/?article=22202

32 Pipes? mit was will er die füttern :| ich denk der träumt wieder mal etwas zuviel

Ronny145
2005-03-30, 12:36:54
:cop:FUDO:cop: spricht ;)

http://theinquirer.net/?article=22202

32 Pipes? mit was will er die füttern :| ich denk der träumt wieder mal etwas zuviel


Da kommt mir selbst die Gamestar Angabe von 20 bis 24 Pipes realistischer vor :rolleyes: