Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : R520 schon Anfang 2005?


Seiten : 1 2 3 4 5 6 7 8 9 [10] 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42

Xmas
2005-05-04, 16:19:12
physical heißt übrigens nicht nur physisch, sondern auch technisch oder physikalisch - Ailuros "Verdeutschung" war schon richtig so. Dass er bei seinen Sätzen eher "Englisch" denkt, ist wohl unumstritten :)
Stimmt, physical kann beides bedeuten. In diesem Fall hat er eben die falsche Übersetzung gewählt.

Ailuros
2005-05-04, 16:28:06
Stimmt, physical kann beides bedeuten. In diesem Fall hat er eben die falsche Übersetzung gewählt.

Ihr habt sicher beide Recht, aber zu meiner Verteidigung probiert mal in babelfish von deutsch auf englisch "physikalische Einheiten" einzugeben. Jeglicher Ratschlag fuer eine schnelle und effektive online Hilfe was Deutsch betrifft, wuerde mir natuerlich um einiges helfen.

Gasvonanandtech
2005-05-04, 18:35:22
http://www.anandtech.com/news/shownews.aspx?i=24206

Two industry insider sources revealed that both ATI and NVIDIA have plans to unveil their latest graphics solutions at Computex this year, which usually takes place around the beginning of June. Computex is the largest hardware tradeshow, globally.

Ich hoffe das ist was handfestes, die Spannung steigt ^^

Ailuros
2005-05-05, 01:09:21
http://www.anandtech.com/news/shownews.aspx?i=24206



Ich hoffe das ist was handfestes, die Spannung steigt ^^

Duerfte stimmen; ich rate die Aussage dass es G70/R520 Prototypen bei hochratigen ISVs schon seit Maerz gibt als aeusserst zuverlaessig. Die Zeitspanne stimmt IMO schon.

Gast
2005-05-05, 01:26:47
http://www.anandtech.com/news/shownews.aspx?i=24206



Ich hoffe das ist was handfestes, die Spannung steigt ^^

und wehe die sind nicht spätestens august kaufbar....will wieder ne neue,die x800pro muß ins altersheim

r3ptil3
2005-05-05, 01:29:56
Wann findet die Computex statt? (genaus datum bitte)

Coda
2005-05-05, 01:39:08
Das wird dir auch nix bringen, weil von der Vorstellung bis zum erhältlich sein einiges an Zeit ins Land streichen dürfte.

ShadowXX
2005-05-05, 09:44:16
und wehe die sind nicht spätestens august kaufbar....will wieder ne neue,die x800pro muß ins altersheim

Rechne lieber mit Ende September/ Anfang Oktober......und freue dich dann, wenns wider erwarten doch etwas früher wird.

Wenn ich mir dieses Daten so durch den Kopf schiessen lasse, bezweifle ich übrigens langsam das es Longhorn bis Mitte 2006 wirklich schafft bzw.falls MS den Termin doch einhalten kann (vielleicht streichen Sie ja noch ein, zwei andere Sachen) WGF2.0-Kompatible Karten wohl nicht mit den Start von LH rauskommen.

Ailuros
2005-05-05, 13:29:43
Wenn ich mir dieses Daten so durch den Kopf schiessen lasse, bezweifle ich übrigens langsam das es Longhorn bis Mitte 2006 wirklich schafft bzw.falls MS den Termin doch einhalten kann (vielleicht streichen Sie ja noch ein, zwei andere Sachen) WGF2.0-Kompatible Karten wohl nicht mit den Start von LH rauskommen.

Von "streichen/hinzufuegen" kann so spaet wohl nicht mehr die Rede sein. Sonst stimme ich dem Rest voll zu.

r3ptil3
2005-05-05, 16:20:23
R520 soll wohl X900 heissen. - http://www.gamezoom.de/artikel/show/0,162843,1,11125.html -

Da frage ich mich aber wie dan R515 und R530 heissen?

mrt
2005-05-05, 16:26:48
Von "streichen/hinzufuegen" kann so spaet wohl nicht mehr die Rede sein. Sonst stimme ich dem Rest voll zu.

Könnte es vielleicht sein, dass WGF2 nicht von anfang an dabei ist?

Nur so ein Gedanke meinerseits.

reunion
2005-05-05, 16:27:05
R520 soll wohl X900 heissen. - http://www.gamezoom.de/artikel/show/0,162843,1,11125.html -

Da frage ich mich aber wie dan R515 und R530 heissen?

Das ist auch Bullshit, auch bei R420 wurde lange von Radeon 9900 gesprochen.

Man wird wie bei jeder neuen Generation auch einen neue "Namenreihe" beginnen.
Vermutlich wird er schlicht X² 800 heißen.

mapel110
2005-05-05, 16:29:12
R520 soll wohl X900 heissen. - http://www.gamezoom.de/artikel/show/0,162843,1,11125.html -

Da frage ich mich aber wie dan R515 und R530 heissen?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2858834&postcount=1742
Nicht gerade neu, der Name X900. :)

Ailuros
2005-05-05, 16:34:30
Könnte es vielleicht sein, dass WGF2 nicht von anfang an dabei ist?

Nur so ein Gedanke meinerseits.

Seit 2002 wurde festgelegt dass Longhorn mit WGF1.0/dx9.0L veroeffentlicht wird und WGF2.0/DX10 erst etwas spaeter.

Bisher erwartete man die Veroeffentlichung von Longhorn etwa Mitte 2006, aber es gibt so langsam Zweifel ob es auch nicht am Ende doch noch Weinachten wird. Es kann durchaus sein dass in dem Fall WGF2.0 nun doch mit Longhorn ankommt, oder eben naeher als vorher geschaetzt.

Auf jeden Fall wuerde es theoretisch den IHVs den Luftraum geben irgendwo Ende 2006/Anfang 2007 die WGF2.0 GPUs zu veroeffentlichen.

Alles nur Spekulation momentan.

Ailuros
2005-05-05, 16:38:10
R520 soll wohl X900 heissen. - http://www.gamezoom.de/artikel/show/0,162843,1,11125.html -

Da frage ich mich aber wie dan R515 und R530 heissen?

Auf jeden Fall werden die PCBs rot sein :P (alter albener Scherz).

***edit: wie waere es mit:

(high end)
Fudo XT PE
Fudo XT
Fudo PRO

(mainstream)
Fudo Junior XT
Fudo Junior PRO

(budget)

Baby Fudo PRO
Baby Fudo SE :D ;D :|

r3ptil3
2005-05-05, 17:22:29
Mal so nebenbei, wie siehts aus wen man z.B. SLI oder AMR mit Dual-Core Prozessoren bencht?

Vielleicht heissen dei Chips auch XI800

mrt
2005-05-05, 17:22:33
X900 kann ich mir nicht vorstellen.
Das wäre zu wenig Abstand zur x800.

Vielleicht Radeon 11xxx :biggrin:


Also werden wir wahrscheinlich erst Anfang 2007 die ersten WGF2 Karten kaufen können. :|

Coda
2005-05-05, 17:31:30
Mal so nebenbei, wie siehts aus wen man z.B. SLI oder AMR mit Dual-Core Prozessoren bencht?Was soll da anders sein? Das hat nichts miteinander zu tun. Ein Spiel profitiert wegen SLi nicht plötzlich von 2 CPUs.

Quasar
2005-05-05, 17:33:24
Aber ein synthetischer Benchmark (*hinthint*) könnte das durchaus tun.

Demirug
2005-05-05, 17:35:12
Aber ein synthetischer Benchmark (*hinthint*) könnte das durchaus tun.

Vorallem wenn er Vertexshader lastig ist...

r3ptil3
2005-05-05, 17:35:24
Was soll da anders sein? Das hat nichts miteinander zu tun. Ein Spiel profitiert wegen SLi nicht plötzlich von 2 CPUs.

Ich dachte das vielleicht dann die Grafikkarten nicht mehr soo ausbegremst werden.

mapel110
2005-05-05, 17:37:17
Ich dachte das vielleicht dann die Grafikkarten nicht mehr soo ausbegremst werden.
Jo, sofern die Software drauf ausgelegt ist, wirkt das eben wie eine Taktsteigerung bei einer Single core CPU.

Quasar
2005-05-05, 17:42:54
Vorallem wenn er Vertexshader lastig ist...
*gg*

Coda
2005-05-05, 17:45:31
Vorallem wenn er Vertexshader lastig ist...Darf ich auch mitlachen? Ich kapier's grad nicht :frown:

WEGA
2005-05-05, 17:51:35
R520 soll wohl X900 heissen. - http://www.gamezoom.de/artikel/show/0,162843,1,11125.html -

Da frage ich mich aber wie dan R515 und R530 heissen?

hab ich mir fast gedacht ; ) warscheinlich kommt dann erst ne X950 und dann möglicherweise XI800

Ailuros
2005-05-05, 17:56:50
Darf ich auch mitlachen? Ich kapier's grad nicht :frown:

Ich war grad froh dass endlich mal ein Schuss Humor in den Thread kam.... :D

Ich verschleiere es mal unter Zukunftsmuenze; vielleicht faellt der Groschen hehehe ;D

r3ptil3
2005-05-05, 18:16:52
hab ich mir fast gedacht ; ) warscheinlich kommt dann erst ne X950 und dann möglicherweise XI800

Irgendwie glaube ich es kommt gleich XI800 (R520) dan XI850 (R580).

Quasar
2005-05-05, 18:48:31
Darf ich auch mitlachen? Ich kapier's grad nicht :frown:
Im Gegensatz zu Pixelshadern kann eine CPU Vertexshader noch halbwegs performant ausführen.
Dummerweise wird die eine CPU meistens noch für den Rest des Programms gebraucht.

seahawk
2005-05-05, 21:25:15
Im Gegensatz zu Pixelshadern kann eine CPU Vertexshader noch halbwegs performant ausführen.
Dummerweise wird die eine CPU meistens noch für den Rest des Programms gebraucht.

Außer batürlich ist es ist ein reiner GPU Bench, der dei CPU unausgelastet läst.
Und nun stelle man sich vor man nehme eine Doppelkern CPU und nutze einen vollständig für gewisse Dinge ....... :wink:

Coda
2005-05-05, 22:08:16
Im Gegensatz zu Pixelshadern kann eine CPU Vertexshader noch halbwegs performant ausführen.
Dummerweise wird die eine CPU meistens noch für den Rest des Programms gebraucht.Da gibt's aber mehrerere Probleme
1.) Vertex Texturen bei Shader 3.0
2.) Woher soll der Treiber wissen ob das Spiel nicht multithreaded ist und die 2 CPUs doch braucht?

mapel110
2005-05-05, 22:17:32
Da gibt's aber mehrerere Probleme
1.) Vertex Texturen bei Shader 3.0
2.) Woher soll der Treiber wissen ob das Spiel nicht multithreaded ist und die 2 CPUs doch braucht?
einen 3dmark hat bislang noch jeder IHV im Treiber erkennen können. :biggrin:

Quasar
2005-05-05, 22:21:56
Da gibt's aber mehrerere Probleme
1.) Vertex Texturen bei Shader 3.0
2.) Woher soll der Treiber wissen ob das Spiel nicht multithreaded ist und die 2 CPUs doch braucht?
Klar, aber neben der Applikationserkennung sprach ich eigentlich von synthetischen Tests - und wie mapel110 schon sagt: einen 3DMark (namentlich den 05 und den 01) kann vermutlich sogar XGI ohne Probleme in ihren Treibern erkennen. ;)

WEGA
2005-05-06, 15:02:49
Irgendwie glaube ich es kommt gleich XI800 (R520) dan XI850 (R580).

halte ich auch für wahrscheinlicher. aber dann hätten sie die X850 ( was ein totaler scheißname ist) lieber X900 nennen sollen

Gast
2005-05-06, 15:11:53
werden wohl beide next gen auf der computex gezeigt hm,wann ist die messe genau ?

ist aber nicht grad clever wenn man zur gleichen zeit und sogar auf der gleichen messe seine babys zeigt o.O

Ailuros
2005-05-06, 16:01:21
halte ich auch für wahrscheinlicher. aber dann hätten sie die X850 ( was ein totaler scheißname ist) lieber X900 nennen sollen


Eigentlich haette R480 auf 520/560MHz bleiben und weiterhin X800XT PE heissen koennen.

r3ptil3
2005-05-06, 16:07:20
Eigentlich haette R480 auf 520/560MHz bleiben und weiterhin X800XT PE heissen koennen.

Ja, aber mit was sollte ATI dan werben können? Mit 540/590mhz takt kann man wenigstens sagen höherer Takt und dadurch mehr Performance!

Ailuros
2005-05-06, 16:31:20
Ja, aber mit was sollte ATI dan werben können? Mit 540/590mhz takt kann man wenigstens sagen höherer Takt und dadurch mehr Performance!

Der Leistungsunterschied zwischen R420 und R480 ist minimal; jeglichem interessiertem Verbraucher war bewusst wie schnell eine X800XT PE ist, muss man das Ganze nun wirklich mit einem neuem Namen und marginal hoeheren Taktraten servieren?

Der wahre Zweck von R480 war eigentlich die zu schlechte Verfuegbarkeit von R420 zu decken.

r3ptil3
2005-05-06, 17:42:56
Der Leistungsunterschied zwischen R420 und R480 ist minimal; jeglichem interessiertem Verbraucher war bewusst wie schnell eine X800XT PE ist, muss man das Ganze nun wirklich mit einem neuem Namen und marginal hoeheren Taktraten servieren?

Der wahre Zweck von R480 war eigentlich die zu schlechte Verfuegbarkeit von R420 zu decken.

Nicht alle haben soviel ahnung das sie gleich den Unterschied von X800 und X850 bemerken. Da denken die Anfänger eher ah X850 geill ist sicher viel besser als X800.

Gast
2005-05-06, 17:48:44
Nicht alle haben soviel ahnung das sie gleich den Unterschied von X800 und X850 bemerken. Da denken die Anfänger eher ah X850 geill ist sicher viel besser als X800.


was heisst nicht alle, 5% aller spieler wissen sowas nur,ihr hier im forum und die anderen hanvoll leute sind ne minderheit

nur freaks wissen sowas,der normale spieler weiß nicht weiß was AA oder S 3.0 ist

ich hab in games schon leute getroffen die haben ne dicke 6800u haben aber nichtmal gewußt das man kanten glätten kann also das es überhaupt sowas gibt

Ailuros
2005-05-06, 18:21:43
Nicht alle haben soviel ahnung das sie gleich den Unterschied von X800 und X850 bemerken. Da denken die Anfänger eher ah X850 geill ist sicher viel besser als X800.

Es ist eher selten dass ein totaler n00b sich gleiche eine ultra-high end GPU zulegen wuerde. Selbst wenn es mal vorkommt lange wird es nicht dauern bis er den Unterschied merkt.

r3ptil3
2005-05-06, 18:26:36
was heisst nicht alle, 5% aller spieler wissen sowas nur,ihr hier im forum und die anderen hanvoll leute sind ne minderheit

nur freaks wissen sowas,der normale spieler weiß nicht weiß was AA oder S 3.0 ist

ich hab in games schon leute getroffen die haben ne dicke 6800u haben aber nichtmal gewußt das man kanten glätten kann also das es überhaupt sowas gibt

Eben genau!
In meinem Freundeskreis bin ich auch der einzige der was über Hardware versteht! Wen die einen neuen Pc kaufen dann schauen sie nur auf den Prozessor wieviel Gigahertz der hat.

Gast
2005-05-06, 19:31:13
Es ist eher selten dass ein totaler n00b sich gleiche eine ultra-high end GPU zulegen wuerde. Selbst wenn es mal vorkommt lange wird es nicht dauern bis er den Unterschied merkt.
Also ich arbeite in einem großen Computershop im Verkauf und die Highend Käufer sind bei weitem nicht immer informiert. Viele haben einfach nur Geld und wollen was richtig schnelles haben.

Hätte ich auch nicht gedacht.

Kf

pF3NG
2005-05-07, 11:13:41
werden wohl beide next gen auf der computex gezeigt hm,wann ist die messe genau ?Wie steht's jetzt eigentlich mit MVP, ich dachte das wollte ATi zur Computex vorstellen, jedoch noch VOR dem R520...

Was haltet ihr davon: http://www.computerbase.de/news/hardware/grafikkarten/ati/2005/mai/atis_mvp_von_meistern_sklaven/

Winter[Raven]
2005-05-07, 12:02:13
Wie steht's jetzt eigentlich mit MVP, ich dachte das wollte ATi zur Computex vorstellen, jedoch noch VOR dem R520...

Was haltet ihr davon: http://www.computerbase.de/news/hardware/grafikkarten/ati/2005/mai/atis_mvp_von_meistern_sklaven/

Nvidia hat die Zeit der Welt, den Nvidia ist meiner Meinung derzeit klar im Vorteil, Leistung + Technik und was den Preis angeht.

Man hat nichts zu beweisen in dem Sinne, den mit der NV4x Serie hat Nvidia schon einiges bewiesen.

Gast
2005-05-07, 12:11:02
']Nvidia hat die Zeit der Welt, den Nvidia ist meiner Meinung derzeit klar im Vorteil, Leistung + Technik und was den Preis angeht.

Technik ja, Leistung und Preis nein.

Gast
2005-05-07, 14:35:21
']Nvidia hat die Zeit der Welt, den Nvidia ist meiner Meinung derzeit klar im Vorteil, Leistung + Technik und was den Preis angeht.

.

nv hat 0 vorteil im gegenteil nv muß erstmal aufholen

Winter[Raven]
2005-05-07, 14:39:19
Als Gast kann ich auch posten und große Sprüche klopfen, was muss den Nvidia aufholen?

Erklär mal doch...

reunion
2005-05-07, 14:46:41
']Nvidia hat die Zeit der Welt, den Nvidia ist meiner Meinung derzeit klar im Vorteil, Leistung + Technik und was den Preis angeht.

Man hat nichts zu beweisen in dem Sinne, den mit der NV4x Serie hat Nvidia schon einiges bewiesen.

Deine Lobeshymnen in aller Ehre, aber zumindest ein bisschen was mit dem Thema sollte es auch zutun haben.

robbitop
2005-05-08, 01:40:38
Die Verkäufe der GF6 Serie sind IIRC durchaus besser als die der X700/800 Serie von ATI. IMO sind die Preise auch ok. Lediglich in Punkto Leistung ziewht die X850XT der 6800U davon. NV hat Zeit, denn SM3 scheint sich gut zu verkaufen.

r3ptil3
2005-05-08, 09:25:27
Die Verkäufe der GF6 Serie sind IIRC durchaus besser als die der X700/800 Serie von ATI. IMO sind die Preise auch ok. Lediglich in Punkto Leistung ziewht die X850XT der 6800U davon. NV hat Zeit, denn SM3 scheint sich gut zu verkaufen.

Ja und mit SLi hat Nvidia den Vorsprung noch grösser gemacht.

reunion
2005-05-08, 11:23:01
Die Verkäufe der GF6 Serie sind IIRC durchaus besser als die der X700/800 Serie von ATI. IMO sind die Preise auch ok. Lediglich in Punkto Leistung ziewht die X850XT der 6800U davon. NV hat Zeit, denn SM3 scheint sich gut zu verkaufen.

http://www.xbitlabs.com/images/news/2005-04/jpr_q105_gpus.jpg

Im High-End Segment kann ich mir das durchaus vorstellen, insgesamt verkauft ATi allerdings nach wie vor gut 50% mehr Chips pro Quartal.
Also wirklich unter zugzwang ist man bei ATi sicherlich nicht.

http://www.xbitlabs.com/news/video/display/20050426103105.html

Gast
2005-05-08, 11:25:27
Die Verkäufe der GF6 Serie sind IIRC durchaus besser als die der X700/800 Serie von ATI. IMO sind die Preise auch ok. Lediglich in Punkto Leistung ziewht die X850XT der 6800U davon. NV hat Zeit, denn SM3 scheint sich gut zu verkaufen.

so siehts aus. Die Mercury Zahlen belegen das auch.
Den Kampf GF6 zu X800/700 hat Nvidia gewonnen da sie deutlich mehr verkaufen.
Zum Thema SLI hat Nvidiai wirklich Zeit. Ihre Lösung funktioniert, liefert die gewünschte Performance und ist zu kaufen. Sie haben genug Zeit gehabt die noch weiter im stillen Kämmerchen zu verbessern.
ATI dagegen ist voll mit heruntergelassenen Hosen erwischt worden. Sie hatten und haben in dieser Richtung im Consumer Markt noch gar nix und bleiben erstmal Beweise schuldig. PR Mitteilungen mit großen Ankündigungen hat ATI seit dem X800 Launch ein paar zu viele rausgelassen und nur wenig wurde gehalten. z.B. X700XT. Noch heute ist ATI im Mainstream sowas von deutlich geschlagen. Die X800 ist viel zu teuer. Bleibt die 6600GT als der P/L Knaller für kleinere Geldbeutel.

r3ptil3
2005-05-08, 11:32:11
so siehts aus. Die Mercury Zahlen belegen das auch.
Den Kampf GF6 zu X800/700 hat Nvidia gewonnen da sie deutlich mehr verkaufen.
Zum Thema SLI hat Nvidiai wirklich Zeit. Ihre Lösung funktioniert, liefert die gewünschte Performance und ist zu kaufen. Sie haben genug Zeit gehabt die noch weiter im stillen Kämmerchen zu verbessern.
ATI dagegen ist voll mit heruntergelassenen Hosen erwischt worden. Sie hatten und haben in dieser Richtung im Consumer Markt noch gar nix und bleiben erstmal Beweise schuldig. PR Mitteilungen mit großen Ankündigungen hat ATI seit dem X800 Launch ein paar zu viele rausgelassen und nur wenig wurde gehalten. z.B. X700XT. Noch heute ist ATI im Mainstream sowas von deutlich geschlagen. Die X800 ist viel zu teuer. Bleibt die 6600GT als der P/L Knaller für kleinere Geldbeutel.

Hast du oben nicht gesehen wer vorne ist?
Und es ist sicher nicht nur wegen den X300 X600 Karten.

Demirug
2005-05-08, 11:37:41
Hast du oben nicht gesehen wer vorne ist?
Und es ist sicher nicht nur wegen den X300 X600 Karten.

Richtig. ATI hat gute Umsätze im Mobil Bereich. Da hat nVidia im letzten Quartal recht alt ausgesehen. Hinzum kommt noch das nVidia defakto keinen Chipsätze mit Grasfik mehr hat.

Ohne eine genauere Aufschlüsselung sind die Daten entsprechend recht operflächlich.

reunion
2005-05-08, 11:40:31
Ohne eine genauere Aufschlüsselung sind die Daten entsprechend recht operflächlich.


Klick --> http://www.xbitlabs.com/news/video/display/20050426103105.html

Demirug
2005-05-08, 11:49:28
Klick --> http://www.xbitlabs.com/news/video/display/20050426103105.html

Da steht auch nicht mehr als in der Pressemitteilung von Jon Peddie Research. Zum anderen weiss ich auch nicht wie groß der zu erwartende Fehler bei der Schätzmethode von Jon Peddie Research ist.

Winter[Raven]
2005-05-08, 11:59:28
http://www.xbitlabs.com/images/news/2005-04/jpr_q105_gpus.jpg

Im High-End Segment kann ich mir das durchaus vorstellen, insgesamt verkauft ATi allerdings nach wie vor gut 50% mehr Chips pro Quartal.
Also wirklich unter zugzwang ist man bei ATi sicherlich nicht.

http://www.xbitlabs.com/news/video/display/20050426103105.html

Werden wir am 12ten mehr wissen ... da gibts die Quartalergebnisse seitens Nvidia.

Gast
2005-05-08, 13:18:41
']Werden wir am 12ten mehr wissen ... da gibts die Quartalergebnisse seitens Nvidia.

so siehts aus. Zumal Mercury Research verlässlicher ist und in dem für uns relevanten Teil des Marktes liegt Nvidia deutlich vorn. Wie ich bereits sagte GF6 vs X800/700.
Kann auch nicht anders sein, da ATI sowohl gegen die 6600GT wie auch 6200 gar nichts hat. Legt Nvidias Umsatz im Vergleich zum Vorqaurtal zu, hat ATI zwangsläufig Marktanteile verloren, da ihr Umsatz eher gering rückläufig war und der Markt zudem im 1. Quartal kleiner war als im Weihnachtsquartal.

Am Donnerstag wissen wir mehr.

reunion
2005-05-08, 16:29:36
so siehts aus. Zumal Mercury Research verlässlicher ist und in dem für uns relevanten Teil des Marktes liegt Nvidia deutlich vorn. Wie ich bereits sagte GF6 vs X800/700.


Was ist denn der für "uns" relevante Teil?
ATi liegt laut Mercury sowohl im Desktop- als auch im Mobilesegment vor nV.

Gast
2005-05-08, 17:11:25
Was ist denn der für "uns" relevante Teil?
ATi liegt laut Mercury sowohl im Desktop- als auch im Mobilesegment vor nV.

Mercury Report:
NVIDIA Corp. commanded 70% of the performance DirectX 9.0-supporting graphics processors market, whereas ATI Technologies supplied 30% of such graphics chips in the fist quarter of this year, sources indicated citing the most recent PC Graphics Report from Mercury Research. In Q4 2004 NVIDIA’s share in the market of what Mercury calls “performance DirectX 9.0” was 67%, whereas a quarter before it was 64%. ATI Technologies’ market share in the “DirectX 9.0 value” market segment was slightly higher compared to NVIDIA’s – 51% versus 49% in Q1 2005.

[dzp]Viper
2005-05-08, 17:34:14
/edit: Nach bitten verschiedener Leute könnt ihr hier weiter drüber diskutieren. Hat zwar meiner meinung nach nur im entferntesten mit dem r520 zu tun und wäre in einem extra thread besser aufgehoben aber egal. Mal gucken was draus wird...

-error-
2005-05-08, 23:03:29
@ Topic

Hat sich was Neues ergeben?

Gast
2005-05-08, 23:08:26
ja.....die zeit bis zur vorstellung hat sich verkürzt...das wars :)

robbitop
2005-05-08, 23:10:37
ATI macht viele Umsätze mit dem RV250/RV350/RV360/RV380/M10/M11/M2x.
Hingegen die Verkäufe im Midrange/High End führt NV derzeit an.

-error-
2005-05-08, 23:30:52
ja.....die zeit bis zur vorstellung hat sich verkürzt...das wars :)

Und wann? Juni?

Iwan
2005-05-08, 23:40:21
also ich geh mal von vorstellung im sommer und breite verfügbarkeit herbst/winter aus.

Gast
2005-05-08, 23:41:26
juni vorstellung,die verfügabrkeit soll viel schneller als letztes jahr sein also kein paperlaunch

einige meinten spätestens august

-error-
2005-05-09, 02:20:48
Also dann ist die Release der R520 vor der nVidia?

Gaestle
2005-05-09, 10:39:31
Und wann? Juni?
also ich geh mal von vorstellung im sommer und breite verfügbarkeit herbst/winter aus.
Also dann ist die Release der R520 vor der nVidia?

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2993693#post2993693

Grüße

reunion
2005-05-09, 12:19:42
INQ: ATI's R520 delayed until autumn: July launch put on hold (http://www.theinquirer.net/?article=23097)

Winter[Raven]
2005-05-09, 12:36:27
INQ: ATI's R520 delayed until autumn: July launch put on hold (http://www.theinquirer.net/?article=23097)

Wie war das nochmal ... R520 gonna be ATI's NV30? ...XD

Bauer
2005-05-09, 13:19:20
jetzt dacht ich schon:
"kewl, nur noch 3 wochen bis das ganze rätselraten vorbei is"
:uhammer:
so'n scheiss. echt...

robbitop
2005-05-09, 13:20:47
offenbar hat ATI sich da mit dem 90nm Prozess ziemlich übernommen. (Ich habe ja schon Ende 2004 von R520 TapeOuts gelesen).

DrumDub
2005-05-09, 13:33:54
offenbar hat ATI sich da mit dem 90nm Prozess ziemlich übernommen. (Ich habe ja schon Ende 2004 von R520 TapeOuts gelesen). du hast den artikel bei inq aber schon gelsen, oder?

ShadowXX
2005-05-09, 13:44:28
du hast den artikel bei inq aber schon gelsen, oder?

Der INQ-Text widerspricht sich aber auch teilweise selbst:


We believe that if Nvidia managed to push G70 earlier to the market then ATI would be able to respond instantly with the R520. We know that R520 is taped out, in good shape and real, just not ready for an announcement.


Er ist Taped-Out.....er ist in guter Verfassung.....er ist real......aber (!!!) er soll noch nicht fertig für eine Vorstellung sein :confused:

Auch die Begründung für die r520 verschiebung ist IMHO nonsense....Sie müssen jetzt unbedingt eine MVP-Lösung des r480 bringen um gegen SLI von nV zu bestehen.....warum machen Sie das denn nicht gleich mit einem r520-MVP und "blasen" nV weg, wenn der r520 Taped out, in good shape und real ist???

Ich glaube langsam wirklich, das ATI doch ein paar Probs mit dem r520 hat....welcher Art auch immer.(Und wenn es nur das ist, das er nicht auf den Speed kommt, auf den er kommen sollte...)

Quasar
2005-05-09, 13:51:54
Ich glaube langsam wirklich, das ATI doch ein paar Probs mit dem r520 hat....welcher Art auch immer.(Und wenn es nur das ist, das er nicht auf den Speed kommt, auf den er kommen sollte...)
Sagte oben ja schon jemand: Das wäre dann ATis "nV30". Bin gespannt, ob, falls diese Gerüchte über Probleme überhaupt stimmen, dann eher zu einer fetten Kühlung und Werksübertaktung ("Fön v2.0") gegriffen wird, oder ob man sich die Blöße geben würde, ein Next-Gen Produkt abzuliefern, daß "nur" so schnell ist, wie die Topmodelle der alten Generation.

Wobei das dann unter Berücksichtigung von MVP und der hohen Grundgeschwindigkeit des R480/1 ja nicht so dramatisch wäre.

Gast
2005-05-09, 14:12:19
INQ: ATI's R520 delayed until autumn: July launch put on hold (http://www.theinquirer.net/?article=23097)

mist ,noch länger warten

Gast
2005-05-09, 14:13:25
offenbar hat ATI sich da mit dem 90nm Prozess ziemlich übernommen. (Ich habe ja schon Ende 2004 von R520 TapeOuts gelesen).

nein sie konzentrieren sich nur z.z auf diese avm chips oder wie die heissen

DrumDub
2005-05-09, 14:16:33
shadowxx

ich bezweifle nicht, dass es eventuell probleme mit dme r520 gibt, aber dass es offenbar am fertigungsprozess liegt, bezweifle ich schon.

Gast
2005-05-09, 14:20:56
We haven’t heard of any technology problems with the R520 and we are informed that this is pure strategy, and a marketing decision.

ShadowXX
2005-05-09, 14:48:20
We haven’t heard of any technology problems with the R520 and we are informed that this is pure strategy, and a marketing decision.

Was hat das denn mit Marketingstrategie zu tun??

Ich bringe erstmal ein MVP r480, obwohl ich genausogut ein MVP-r520 bringen könnte??
Tolle Strategie....

Das ist in ungefähr so, als wenn nV sagen würde...."wir haben zwar schon eine voll funktionsfähigen G70, der doppelt so schnell ist wie der nv40, könnten diesen auch bringen....aber machen jetzt lieber erst mal in SLI mit 4 nv40-Karten".

@DrumDub
ich sagte ja...."egal woran es liegt".

nein sie konzentrieren sich nur z.z auf diese avm chips oder wie die heissen

Auf MVP könnten Sie sich auch mit dem r520 konzentrieren.....da Sie es für dieses ja ebenso rausbringen wollen.

Gast
2005-05-09, 14:53:22
shadow du als top manager eines weltkonzerns mußt natürlich wissen was ne bessere strategie wäre :D

wuzetti
2005-05-09, 14:57:08
Was hat das denn mit Marketingstrategie zu tun??

Ich bringe erstmal ein MVP r480, obwohl ich genausogut ein MVP-r520 bringen könnte??
Tolle Strategie....



ich hätte den inq artikel eher so verstanden, dass mvp + R520 zeitgleich vorgestellt werden müssen, denn sonst schlägt man ein 6800ultra sli gespann nicht. von da her würde ich mvp + R480 eher mal aussen vor lassen.....

Demirug
2005-05-09, 14:58:04
R4XX MVP macht gegenüber R520 (MVP) eigentlich nur dann einen Sinn wenn

a) R520 noch nicht richtig läuft
b) noch zu viele R4XX im Lager liegen
c) ATI meint noch was gegen den G70 in der Hinterhand habe zu müssen.

ShadowXX
2005-05-09, 15:54:19
ich hätte den inq artikel eher so verstanden, dass mvp + R520 zeitgleich vorgestellt werden müssen, denn sonst schlägt man ein 6800ultra sli gespann nicht. von da her würde ich mvp + R480 eher mal aussen vor lassen.....


Once this marchitecture is launched, ATI will follow with R520 announcement. We suggest that ATI will use a similar strategy it used with the R300, Radeon 9700 introduction when it announced cards in late July/August to have them in shops in September. This is what we expect to see this time again.


Das "Once this marchitecture is launched...." bezieht sich auf die r480 MVP-Lösung...."....ATI will follow with R520 announcement." dann erst folgt die Vorstellung des r520.

Und vorher wird ja erwähnt, das man sich die Vorstellung des r520 um Juni "abschminken" soll, weil Sie sich eben auf r4x0-MVP konzentrieren wollen um was gegen nV-SLI zu haben.

Aber wie ich schon erwähnte....der Text im INQ ist IMHO etwas verworrem.
Es scheint so, als wenn "unser Kumpel" Fuad selbst nicht so genau weiss, wie er die eine oder andere Info deuten soll....

@Gast
Ja, auch wenn unsere Firma etwas kleiner ist als ATI, würde ich dieses vorgehen nicht unbedingt als sehr sinnig sehen...speziell, wenn der r520 schon fertig und startbereit ist.
Wenn er natürlich noch nicht "fertig" ist, dann siehts anders aus, dann macht dieses vorgehen sinn.

@Demi
vielleicht ist es eine Mischung aus a.) b.) und c.)

robbitop
2005-05-09, 16:14:10
du hast den artikel bei inq aber schon gelsen, oder?
Ich habe zwischen den Zeilen gelesen und meinen Verstand genutzt ;)
Stupides Lesen war noch nie meine Stärke. Gewisse Skepsis und Hinterfragen kommt immer gut :up:

@ShaddowXX
Du hast es scheinbar auch erkannt :)

reunion
2005-05-09, 17:23:04
offenbar hat ATI sich da mit dem 90nm Prozess ziemlich übernommen.



Ziemlich voreiliger Schluss, wenn man bedenkt, dass es sich hierbei um eine INQ-Meldung handelt und diese, falls überhaupt was dran ist, nur von einer Verschiebung um wenige Wochen berichtet, findest du nicht?



(Ich habe ja schon Ende 2004 von R520 TapeOuts gelesen).


War es nicht immer so, dass vom ersten Tapeout bis zur Vorstellung ca. ein halbes Jahr verging?

reunion
2005-05-09, 17:27:16
Er ist Taped-Out.....er ist in guter Verfassung.....er ist real......aber (!!!) er soll noch nicht fertig für eine Vorstellung sein :confused:

Auch die Begründung für die r520 verschiebung ist IMHO nonsense....Sie müssen jetzt unbedingt eine MVP-Lösung des r480 bringen um gegen SLI von nV zu bestehen.....warum machen Sie das denn nicht gleich mit einem r520-MVP und "blasen" nV weg, wenn der r520 Taped out, in good shape und real ist???

Ich glaube langsam wirklich, das ATI doch ein paar Probs mit dem r520 hat....welcher Art auch immer.(Und wenn es nur das ist, das er nicht auf den Speed kommt, auf den er kommen sollte...)

Ich denke es gibt vier Möglichkeiten:
1.) Der Konsolenchip (R500) hat höhere Priorität und deshalb verschiebt sich R520.
2.) ATi will erstmal abwarten was nV abliefert und dann erst vorstellen, denn liefern werden beide wohl erst einige Zeit später können, also wozu die Eile?
3.) Es gibt doch Probleme mit dem Chip selbst.
4.) Die Meldung ist falsch.

reunion
2005-05-09, 17:37:32
Ich habe zwischen den Zeilen gelesen und meinen Verstand genutzt ;)
Stupides Lesen war noch nie meine Stärke. Gewisse Skepsis und Hinterfragen kommt immer gut :up:


Und wo bleibt die Skepsis bei dieser INQ-Meldung, der du normalerweise fast nie Glauben schenkst?
Oder schonmal an eine rein taktische Lösung seitens ATi gedacht?
Aber schon klar, man glaubt eben das, was man auch glauben will. :D


@ShaddowXX
Du hast es scheinbar auch erkannt :)

Achso, jeder, der deiner Meinung ist hat's "erkannt"?
Interessante Logik. :|

robbitop
2005-05-09, 17:47:19
Und wo bleibt die Skepsis bei dieser INQ-Meldung, der du normalerweise fast nie Glauben schenkst?
Oder schonmal an eine rein taktische Lösung seitens ATi gedacht?
Aber schon klar, man glaubt eben das, was man auch glauben will. :D





Fuad hat seine Quellen. In der Vergangenheit kam vieles so, wie seine Quellen es voraussagten. Was er lediglich nicht kann, ist diese Fakten zu verarbeiten IMO. Auch ich habe meine Quellen. Beide sagen zu dieser Situation in etwa dasselbe.

BTW: so eine Taktik erscheint ziemlich lächerlich. Wenn man einen marktreifen R520 hätte, würde man ihn bringen, um Marktanteile im Midrange/High End Bereich zu holen.

Ich sehe es nicht als Faktum aber als eine Möglichkeit. Ich habe mich vieleicht etwas unklar und radikal ausgedrückt. Ok.


Achso, jeder, der deiner Meinung ist hat's "erkannt"?
Interessante Logik. :|

Du hast Recht. Jedoch ließt sich die Meldung ziemlich seltsam und viele nehmen es wortwörtlich ohne nachzudenken. Das wollte ich damit ausdrücken.

Sorry für die ungenaue Formulierung.

robbitop
2005-05-09, 17:50:16
Ich denke es gibt vier Möglichkeiten:
1.) Der Konsolenchip (R500) hat höhere Priorität und deshalb verschiebt sich R520.
2.) ATi will erstmal abwarten was nV abliefert und dann erst vorstellen, denn liefern werden beide wohl erst einige Zeit später können, also wozu die Eile?


1. Beide Chips sind lange fertig mit der Entwicklung. Es dürfte IMO keine Probleme geben, 2 fertige Designs gleichzeitig zur Marktreife zu bringen. Kapazitäten bei TSMC sind für 90nm NexSys ebenfalls genug da.

2. ATI sollte im Zugzwang sein, wenn man sich die Verkäufe im DX9/Midrange/HighEndbereich anschaut. Seit der GFFX5200 und der GF6 Series ist es nicht mehr so einfach. ATI hat im Moment viel Verkäufe durch IGP's und den RV250 und die mobilen Chips.

Sunrise
2005-05-09, 17:59:26
Fuad hat seine Quellen. In der Vergangenheit kam vieles so, wie seine Quellen es voraussagten. Was er lediglich nicht kann, ist diese Fakten zu verarbeiten IMO. Auch ich habe meine Quellen. Beide sagen zu dieser Situation in etwa dasselbe.

Deine Quellen bestätigen die Aussagen des INQ ? Und somit auch deine Aussage, bzgl. des 90nm-Problems ?

Irgendwas passt da nicht zusammen robbitop ;)

reunion
2005-05-09, 18:00:26
Fuad hat seine Quellen. In der Vergangenheit kam vieles so, wie seine Quellen es voraussagten. Was er lediglich nicht kann, ist diese Fakten zu verarbeiten IMO. Auch ich habe meine Quellen. Beide sagen zu dieser Situation in etwa dasselbe.

BTW: so eine Taktik erscheint ziemlich lächerlich. Wenn man einen marktreifen R520 hätte, würde man ihn bringen, um Marktanteile im Midrange/High End Bereich zu holen.

Ich sehe es nicht als Faktum aber als eine Möglichkeit. Ich habe mich vieleicht etwas unklar und radikal ausgedrückt. Ok.


Ich will mich ja hier nicht als allwissend darstellen, aber an Probleme mir der 90nm Fertigung glaube ich alleine schon wegen R500 nicht.

Desweiteren behaupte ich ja nicht, dass man R520-Karten schon zu tausenden im Lager hat, aber wenn man z.B. weiß, dass man ohnehin erst ab Juli in ausreichenden Stückzahlen liefern kann, warum sollte man dann nicht abwarten was nV macht?


Du hast Recht. Jedoch ließt sich die Meldung ziemlich seltsam und viele nehmen es wortwörtlich ohne nachzudenken. Das wollte ich damit ausdrücken.

Sorry für die ungenaue Formulierung.

Kein Problem. :)

robbitop
2005-05-09, 18:01:03
Deine Quellen bestätigen die Aussagen des INQ ? Und somit auch deine Aussage, bzgl. des 90nm-Problems ?

Irgendwas passt da nicht zusammen robbitop ;)

Habe ich das so formuliert? Nein. Mehr sage ich dazu nicht ;)

Sunrise
2005-05-09, 18:02:42
Habe ich das so formuliert? Nein. Mehr sage ich dazu nicht ;)

Ja, die Antwort war mir fast klar ;)

Lies dir mal deine Posts durch, und worauf du dich jeweils beziehst. Entweder formulierst du extrem unpräzise, oder du redest an den Tatsachen vorbei.

robbitop
2005-05-09, 18:02:51
Desweiteren behaupte ich ja nicht, dass man R520-Karten schon zu tausenden im Lager hat, aber wenn man z.B. weiß, dass man ohnehin erst ab Juli in ausreichenden Stückzahlen liefern kann, warum sollte man dann nicht abwarten was nV macht?


Image und Profitgier. Ist natürlich aber auch eine Variante.
Ich persönlich denke, dass es wichtig ist, einen SM3 Chip für den Desktopmarkt zu bringen. Die Dinger verkaufen sich anscheinend wie warme Semmeln. Somit würde ich nicht sagen, dass es keinen Druck gibt. :)

robbitop
2005-05-09, 18:04:06
Ja, die Antwort war mir fast klar ;)

Lies dir mal deine Posts durch, und worauf du dich jeweils beziehst. Entweder formulierst du extrem unpräzise, oder du redest an den Tatsachen vorbei.
Manchmal kann man nicht so präzise formulieren, wie man es gern hätte ;)
(Kritik ist jedoch angekommen)

reunion
2005-05-09, 18:10:28
Image und Profitgier. Ist natürlich aber auch eine Variante.
Ich persönlich denke, dass es wichtig ist, einen SM3 Chip für den Desktopmarkt zu bringen. Die Dinger verkaufen sich anscheinend wie warme Semmeln. Somit würde ich nicht sagen, dass es keinen Druck gibt. :)

Natürlich, nur was nützt das, wenn man noch nicht liefern kann, vom Vorstellen alleine wird man nicht viel Profit machen. ;)

robbitop
2005-05-09, 18:19:53
Natürlich, nur was nützt das, wenn man noch nicht liefern kann, vom Vorstellen alleine wird man nicht viel Profit machen. ;)
Nunja, aus dem selben Grund, warum man immer vorher vorstellt. Gutes Image holen und damit die Verkäufe aller Radeon Produkte aufzubessern und natürlich um eine Art Warteeffekt zu erzielen.

Ich glaube auch, dass R520 noch nicht soweit ist. Das ist IMO keine pure Taktik. Und der Flaschenhals kann kaum die Produktionskapazität bei TSMC sein, denn sie haben mehrere Fabriken, die 90nm Nexsys beherschen. Ergo: man muss noch "feilen" ;) [wie gesagt, konnte man schon Ende 04 von R520 TapeOuts lesen. Ich denke, man brauchte mehrere Tapeouts, damit das gute Stück für die Massenproduktion unter gewünschten Specs tauglich ist. Wer weiß, vieleicht ist der Prozess noch zu jung oder das Design etwas zu ehrgeizig, um es so schnell umzusetzen.]

Gast
2005-05-09, 19:19:52
ATI hat im Moment viel Verkäufe durch IGP's und den RV250 und die mobilen Chips.

Ja nur bringen die natürlich für die relevante DX9 Marktdurchdringung nur wenig. In den entscheidenden Feldern verlieren sie momentan gegenüber der Konkurenz. Dafür muss man allerdings kein Prophet sein.
Die 6600GT grast gehörig ab und ist zudem in Unmengen und zu super Preisen lieferbar.
Die Große X800XL Euphorie ist auch erstmal vorbei, da die 6800GT dummerweise (jedoch logisch) im Preis gefallen ist.
DX9 Performance Market verlief 70:30 für Nvidia in Q12005. Das ist imho ziemlich deutlich und je mehr die Preise fallen, desto mehr wirkt sich dieser Trend auch in niedrigeren Preisgefilden aus. Durch die 6200er Reihe hat Nvidia hier allerdings auch ein super Angebot an verschiedenst ausgestatteten Karten bzw. Chips.

Gast
2005-05-09, 20:11:02
Ja nur bringen die natürlich für die relevante DX9 Marktdurchdringung nur wenig. In den entscheidenden Feldern verlieren sie momentan gegenüber der Konkurenz. Dafür muss man allerdings kein Prophet sein.
Die 6600GT grast gehörig ab und ist zudem in Unmengen und zu super Preisen lieferbar.
Die Große X800XL Euphorie ist auch erstmal vorbei, da die 6800GT dummerweise (jedoch logisch) im Preis gefallen ist.
DX9 Performance Market verlief 70:30 für Nvidia in Q12005. Das ist imho ziemlich deutlich und je mehr die Preise fallen, desto mehr wirkt sich dieser Trend auch in niedrigeren Preisgefilden aus. Durch die 6200er Reihe hat Nvidia hier allerdings auch ein super Angebot an verschiedenst ausgestatteten Karten bzw. Chips.

Also, wenn ich deine Zeilen so lese, kann ich dich fast verstehen, nur das der Markt seit April stark RÜCKLÄUFIG ist, dürfte dir niet de fremde sein! ;)

Nichts ist unendlich, so ist auch deine WERTE Markteinschätzung eher Wunschdenken nach WONNE-Monaten", die Realität sieht eher so aus:
Crazy Pricing, Stock "on mast", quasi die Hütten voll! & co. and hey Mr. Alleswisser where you gonna rock tonight?

Wollen wir uns mal deine Zeilen zu Gemüte ziehen....

Ja nur bringen die natürlich für die relevante DX9 Marktdurchdringung nur wenig. In den entscheidenden Feldern verlieren sie momentan gegenüber der Konkurenz. Dafür muss man allerdings kein Prophet sein.

Jaklar muss mann kein Prohet zu sein um gegen die Übermacht Intel zu bestehen, das weiss mann an der dritten Position besonders gut!



Die 6600GT grast gehörig ab und ist zudem in Unmengen und zu super Preisen lieferbar.

Jaklar für 149€ auf Alternate der Ausverkauf von PNY ;) und in Umengen bei den anderen Partnern verfügbar! Genial daneben die Strategie, das irgendwann der Herr Ichnicht den alten Stock erneut bewertet! ;)


Die Große X800XL Euphorie ist auch erstmal vorbei, da die 6800GT dummerweise (jedoch logisch) im Preis gefallen ist.


Was meinst du denn wohin die Preise bei der X800 gehen? ;) Träumer
Eine Euphorie kann mann sich auch einreden!



DX9 Performance Market verlief 70:30 für Nvidia in Q12005.

Welche Zahlen nimst du denn? Wenn die solche Wirkungen haben, wie deine Euphorie, dann schick rüber das Zeug! ;)

Rang Hersteller Marktanteile:http://www.hartware.net/news_37925.html
Q4 2004 Marktanteile
Q1 2005

1 Intel 40,2% 43,1%
2 ATI Technologies 27,6% 26,1%
3 nVidia 18,6% 17,9%
4 VIA Technologies 7,3% 6,9%
5 Silicon Integrated Systems (SiS) 5,7% 5,4%
6 Matrox Graphics 0,35% 0,33%
7 XGI 0,28% 0,25%
8 3Dlabs (gehört seit 2002 zu Creative) 0,02% 0,02%


Durch die 6200er Reihe hat Nvidia hier allerdings auch ein super Angebot an verschiedenst ausgestatteten Karten bzw. Chips.

LoL, Nach dem Motto: "Ich mal mir die Welt wie ich sie will!"

Las Gras drüber wachsen! :) Greetings

Jesus
2005-05-09, 20:16:34
ich quote mal dildo hier rein:

Hier whol die Finalen HW Specs



"360 HW:
1. Support for DVD-video, DVD-Rom, DVD-R/RW, CD-DA, CD-Rom, CD-R, CD-RW, WMA CD, MP3 cd, JPEG photo CD
2. All games supported at 16:9, 720p and 1080i, anti-aliasing
3. Customizable face plates to change appearance
4. 3 USB 2.0 ports
5. Support for 4 wireless controllers
6. Detachable 20GB drive
7. Wi-Fi ready

Custom IBM PowerPC-based CPU
- 3 symmetrical cores at 3.2 GHz each
- 2 hardware threads per core
- 1 VMX-128 vector unit per core
- 1 MB L2 cache

CPU Game Math Performance
- 9 billion dots per second

Custom ATI Graphics Processor
- 500 MNz
- 10 MB embedded DRAM
- 48-way parallel floating-point shader pipelines
- unified shader architecture

Memory
-512 MB GDDR3 RAM
- 700 MNz DDR

Memory Bandwidth
- 22.4 GB/s memory interface bus bandwidth
- 256 GB/s memory bandwidth to EDRAM
- 21.6 GB/s frontside bus

Audio
- Mulitchannel surround sond output
- Supports 48khz 16-bit audio
- 320 independent decompression channels
- 32 bit processing
- 256+ audio channels"

Quelle ist das Teamxbox forum

realistisch?

mapel110
2005-05-09, 20:20:20
Rang Hersteller Marktanteile:http://www.hartware.net/news_37925.html
Q4 2004 Marktanteile
Q1 2005

1 Intel 40,2% 43,1%
2 ATI Technologies 27,6% 26,1%
3 nVidia 18,6% 17,9%
4 VIA Technologies 7,3% 6,9%
5 Silicon Integrated Systems (SiS) 5,7% 5,4%
6 Matrox Graphics 0,35% 0,33%
7 XGI 0,28% 0,25%
8 3Dlabs (gehört seit 2002 zu Creative) 0,02% 0,02%


Das was du postest, ist der Gesamtmarkt.

http://www.xbitlabs.com/news/video/display/20050502125621.html
Im DX9-Markt sieht es anders aus.
NVIDIA Corp. commanded 70% of the performance DirectX 9.0-supporting graphics processors market, whereas ATI Technologies supplied 30% of such graphics chips in the fist quarter of this year


p.s. bevor du darauf antwortest, schau erstmal nach, was "supplied" heißt. Danke.

Godmode
2005-05-09, 20:21:41
haben sie diese 70% durch die FX5200 geschaft, oder hat da NV4x auch nen großen Anteil gebracht?

robbitop
2005-05-09, 20:37:35
haben sie diese 70% durch die FX5200 geschaft, oder hat da NV4x auch nen großen Anteil gebracht?
beides IMO. Nach der NV3x Misere erholt man sich nun. Nun muss man lediglich noch im mobilen Markt Boden gut machen.

@Jesus

512MB GDDR3 in einer Konsole?

Xmas
2005-05-09, 20:38:09
haben sie diese 70% durch die FX5200 geschaft, oder hat da NV4x auch nen großen Anteil gebracht?

Mercury’s estimates on DX9 and DX9c accelerators differentiate value and performance by transistor count, with devices at and about 100 million transistors being considered as “performance”.

Dazu gehören:
R300, R350, R360, R420, R423, R430, R480, R481, RV410
NV30, NV35, NV38, NV40, NV41, NV42, NV43, NV45
Wobei natürlich nicht mehr alle im letzten Quartal verkauft wurden. Es ist deshalb anzunehmen dass dieser Anteil praktisch nur durch NV4x zustande kommt.

Gast
2005-05-09, 20:38:35
Das was du postest, ist der Gesamtmarkt.

http://www.xbitlabs.com/news/video/display/20050502125621.html
Im DX9-Markt sieht es anders aus.
NVIDIA Corp. commanded 70% of the performance DirectX 9.0-supporting graphics processors market, whereas ATI Technologies supplied 30% of such graphics chips in the fist quarter of this year


p.s. bevor du darauf antwortest, schau erstmal nach, was "supplied" heißt. Danke.

Jaklar, würde ATI auf jede 9250'er DX9 kleben hätte ATI 80% des DX9 Marktes und nvdia nur 20%!

Die 5200'er ist ja nicht gerade Highend DX9! Immer locker bleiben!

Coda
2005-05-09, 20:41:15
Das glaubst du doch wohl selber nicht. Ein bischen realistisch sollte man schon bleiben, auch wenn man Fanatiker ist.

Die 5200 wurde gar nicht gezählt weil die unter 100 Mio Transistoren hat.

Xmas
2005-05-09, 20:41:57
Jaklar, würde ATI auf jede 9250'er DX9 kleben hätte ATI 80% des DX9 Marktes und nvdia nur 20%!

Die 5200'er ist ja nicht gerade Highend DX9! Immer locker bleiben!
Weder die 5200 noch die 6200 zählen bei dieser Angabe mit.

dildo4u
2005-05-09, 20:43:46
512MB GDDR3 in einer Konsole?
Man muss ja den Speicher sowohl als Textur und Arbeitsspeicher verwenden können ist GDDR3 überhaupt als Arbeitspeicher geeignet? Von der Latenzen und so?

Coda
2005-05-09, 20:47:54
Nein, das Ding ist für Punkt zu Punkt Verbindungen gebaut, das kann nix werden als Hauptspeicher. Aber 512MB klingt einigermaßen plausibel.

Gast
2005-05-09, 20:56:31
Was meinst du denn wohin die Preise bei der X800 gehen? ;) Träumer
Eine Euphorie kann mann sich auch einreden!

Jedenfalls nicht dorthin wo die 6600GT liegt.
Bei PCI-Express sind es um die 50 bis 60 Euro zur ersten X800SE und bei AGP das nach wie vor mehrheitlich verkauft wird sieht es dann ganz dunkel in Richtung X800 aus. Da ist weit und breit nix zu finden.

Das einzige was es aus ATIs Sicht gibt derzeit ist die X700pro nur wer will die schon, wenn er fürs gleiche GEld eine SM3 Karte bekommen kann die zudem auch leistungstechnisch deutlich besser ist als die X700pro.


Welche Zahlen nimst du denn? Wenn die solche Wirkungen haben, wie deine Euphorie, dann schick rüber das Zeug! ;)


Ganz einfach die Zahlen von Mercury Research. Ein Auschnitt wurde bereits von einem der Vorredner gepostet. Diese sind aktuell für das abgelaufene 1. Quartal 2005. 70:30 für Nvidia im DX9 Performance Market. Ich denke mehr muss man dazu dann auch nicht sagen. Ist ja ziemlich eindeutig was den relevanten DX9 Markt angeht.
Wenn man ein wenig Verstand mitbringt und sich ATIs Probleme mit der X700XT, X800 incl. derganzen Lieferprobleme und das AGP Problem anschaut sowie die Preislisten bei aktuellen online Preisvergleichen, dann kann man sich das auch selber ausrechnen.
Zugegebener Maßen hätte ich selber so einen UNterschied nicht erwartet. Aber ich nehme mal an, dass die hervorragende 6600GT hier den Ausschlag gibt.

robbitop
2005-05-09, 20:59:02
GDDR3 ist nicht als Hauptspeicher geeignet.
Ich tippe auf Shared Memory. Denn 10MiB sind schnell angebunden. Der Rest läuft dann über den Hauptspeicher. Das spart Platz und Kosten. Hätte man GDDR3, bräuchte man kein eDRAM.

dildo4u
2005-05-09, 21:02:09
GDas spart Platz und Kosten. Hätte man GDDR3, bräuchte man kein eDRAM.
Der edram wird hier aber mit 256GB/sec angegeben.

Godmode
2005-05-09, 21:06:54
Der soll ja für den Framebuffer verwendet werden oder? Wie soll da ein HDTV Bild reinpassen das braucht doch viel mehr oder?

Coda
2005-05-09, 21:08:18
Das ist bei eDRAM ja nichts ungewöhnliches.

Hauwech
2005-05-09, 21:25:30
ich quote mal dildo hier rein:



realistisch?

Sollte die Bandbreite mit 700MHz GDDR3 nicht höher liegen?

Jesus
2005-05-09, 21:26:49
Der soll ja für den Framebuffer verwendet werden oder? Wie soll da ein HDTV Bild reinpassen das braucht doch viel mehr oder?

Es wird wohl keine 1920x1080er Spiele geben... etwas niedriger und skalieren tuts auch (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3008345&postcount=65) (*hust*). :rolleyes:

Sollte die Bandbreite mit 700MHz GDDR3 nicht höher liegen?

Stimmt ist schon verdächtig niederig.

robbitop
2005-05-09, 21:37:04
so eine hohe Bandbreite kann man mit heutigen Chips schlichtweg nicht nutzen. Schon gar nicht auf einer Konsole.

Godmode
2005-05-09, 23:48:30
so eine hohe Bandbreite kann man mit heutigen Chips schlichtweg nicht nutzen. Schon gar nicht auf einer Konsole.

meinst du jetzt die 256GB/s vom Edram?

xL|Sonic
2005-05-09, 23:54:38
Vielleicht will ATI auch einfach noch warten mit der R520 Vorstellung, weil sie wissen, wann sie die ersten Chips in wirklich ausreichend Stückzahlen liefern können um so einen Paperlaunch wie bei der X800er Reihe zu verhindern.
Man würde sich sonst wohl der eigenen X800er Reihe ein Bein stellen,
weil diese werden sich dann ja noch schlechter verkaufen, wenn genau bekannt wird, wann die neue ATI Karte mit welchen Daten herauskommt bzw. vielleicht wechseln dann auch noch viele ins nvidia Lager über.

robbitop
2005-05-10, 00:02:14
meinst du jetzt die 256Gbit/s vom Edram?
ja

btw:
eDRAM ...EDRAM ist noch etwas Anderes

Coda
2005-05-10, 00:04:21
so eine hohe Bandbreite kann man mit heutigen Chips schlichtweg nicht nutzen. Schon gar nicht auf einer Konsole.Wieso? "MSAA for free"

Godmode
2005-05-10, 00:10:32
Wieso? "MSAA for free"

Das Sampling dauert doch auch ne Weile, oder?

Coda
2005-05-10, 00:12:02
2 Samples sind auf heutigen Chips schon "for free" bei der Füllrate, bei mehr wird geloopt. Das macht aber trotzdem nix weil man eh keine einfach texturierten Flächen mehr hat und somit der Pixelshader limitiert.

Man muss beachten das bei MSAA alle Subpixel die gleiche Farbe haben und somit nur der Rasterizer mehr Arbeit hat. Es kostet auch ein wenig mehr Füllrate, weil die Polygone durch die Subpixel etwas "größer" werden, das spielt aber imho kaum eine Rolle.

Ailuros
2005-05-10, 02:57:58
Mehrere Thesen wuerden bezueglich dem R520 und seiner Verspaetung Sinn machen. Ein Faktor der traditionell in letzter Zeit mitspielt ist der angepeilte Speicher und dessen Verfuegbarkeit. Dieser hat unter Umstaenden auch einen Anteil der Verspaetung von R420-NV40 in der Vergangenheit gehabt.

Mal sehen wie die Thesen aussehen koennten:

1. Es gibt Probleme mit dem Herstellungsprozess.
2. R500 und R4xx-MVP nehmen Vorsprung und man versetzt nochmals R520.
3. Einfach nur Taktik.

(3) macht mir persoenlich keinen Sinn und fuer (1) bin ich mir sicher dass Xenon und R520 beide low-k 90nm benutzen. Jegliche moegliche Probleme duerften daher eher beide betreffen und falls Xenon zur vorgesehenen Zeit in Massenproduktion liegen sollte, stimmt etwas mit dieser These wohl nicht so ganz. Die Taktrate mag zwar um einiges niedriger zu sein als bei R520, aber die Komplexitaet ist nicht unbedingt kleiner. Uebrigens gaben in der Vergangenheit IHVs stets ihren Consolen-Designs eine hoehere Prioritaet. Ich wuerde nicht ausschliessen dass vielleicht auch NVIDIA spaeter mit 90nm zu aehnlichen Strategien kommt.

Man schickt uebrigens auch kein A0 Silizium zu hochwertigen ISVs, wenn dieses noch einige bugs haben sollte. Seit Maerz R520 und G70 und dabei macht dann eine Juni-Vorstellung fuer beide auch Sinn.

Ich schliesse zwar (3) aus, die anderen zwei Thesen momentan noch nicht. Es wird sich erst zeigen falls die XBox360 Auslieferung wohl doch nicht nach Plan laufen wird.

Quasar
2005-05-10, 07:13:52
Es könnte doch auch sein, daß man einfach ein bißchen Verspätung mit dem R500 hatte und diesem nun erstmal mehr Produktionskapazitäten bei TSMC eingeräumt werden müssen, um die vertraglich vereinbahrte Launch-Stückzahl erreichen zu können.

Oder produziert jemand anderes den R500?

seahawk
2005-05-10, 08:23:21
Es dürfte wohl eher ein Mischrpblem sein. R500 bedarf momentan maximaler Aufmerksamkeit von Seiten ATIs, da dort hohe Koventionalstrafen drohen. Man muss die Massenverfügbarkeit zum Launch garantieren. Das hat Personal auf der Entwicklerseite gebunden.

Als Notlösung wird man AMR + R480 launchen umd NV etwas Druck zu machen. Das Problem des fehlenden SM3.0s wird damit aber nicht gelöst.

Imho eine gute Situation für NV. Auf die R480+AMR Kombo können sie mit dem G70 antworten oder sie ziehen den NV48 (aka höhere taktender NV45) aus dem Hut.

Demirug
2005-05-10, 08:30:13
"aka höhere taktender NV45"?

Wer erzählt den sowas?

seahawk
2005-05-10, 09:06:38
Niemand. Solte NV48 nicht einfach nur ein NV45 ohne Bridge-Chips sein, also nativ PCE ?

Ich vermute nur, dass da evtl. noch ein gewisses Taktpotential drinne schlummern könnte.

robbitop
2005-05-10, 09:07:23
Wieso? "MSAA for free"
Ist es dennoch nicht ein wenig zu viel? ;)

ShadowXX
2005-05-10, 09:15:28
Nebenbei.....was noch keiner so richtig mit beachtet hat.

Falls die Aussagen des INQ halbwegs in die richtige Richtung gehen (und dabei ist es völlig egal, warum der r520 nun später kommt), wurde damit auch etwas über die Leistung des r520 verraten:

ATI will den r480 MVP ja nach der Meldung auch deshalb vorziehen, weil ein r520 nicht ausreicht um ein nV-SLI-Gespann zu toppen.

(Da gibt es zwar irgendwie den kleiner widerspruch drinne, man hätte ja auch gleich ein r520 MVP zeigen könnte, was IMHO tatsächlich auf Probleme irgendeiner art hindeutet....aber egal).

Andesrherum betrachtet, weiß man nun dadurch, das ein einzelner r520 definitiv langsamer als ein nV-SLI-Gespann ist.....im gegensatz zu dem was viele insgeheim erhoffft / geglaubt haben (ich erinnere mal an diesen ominösen 3DMark05 Screenshot, auf den mehr als einer angesprungen ist) ....3DGurus mal ausgenommen.

IMHO zeigt das in die Richtung, das der r520 nicht wesentlich schneller als ein r480 sein wird.....weil wenn ATI mit einem r520 zumindest in die nähe eines SLI-Gespanns gekommen wären, dann hätten Sie ihn trotzdem gezeigt. (In der Art von "Wir haben mit einer Karte 80-90% der Leistung von dem was nV mit 2 Karten hat....und das in jedem Spiel und ohne Treiberanpassungen).

Meiner ganz persönliche Vermutung über den r520 ist die, dass ATI Ihn nicht auf die gewünschten Taktfrequenzen bekommt.
AiL hatte es schon angesprochen...die Komplexität von r500/r520 wird sich nicht viel nehmen, der r500 wir aber wohl niedriger getaktet.
Vielleicht bekommt ATI den r520 nicht großartig über den Takt, den auch der 500 hat.....

robbitop
2005-05-10, 09:23:22
Die verfügbare Bandbreite läßt einen doppelt so schnellen Nextgen Chip gar nicht erst zu.

q@w
2005-05-10, 10:37:59
Die verfügbare Bandbreite läßt einen doppelt so schnellen Nextgen Chip gar nicht erst zu.
Doch natürlich. Nur wird er das nicht mit einer lediglich 256 Bit breiten Anbindung zum Speicher in allen Situationen zeigen können.

Coda
2005-05-10, 10:44:44
Ist es dennoch nicht ein wenig zu viel? Wahrscheinlich sind es 128GB/s up und 128GB/s down

robbitop
2005-05-10, 10:46:16
Doch natürlich. Nur wird er das nicht mit einer lediglich 256 Bit breiten Anbindung zum Speicher in allen Situationen zeigen können.
Das ist natürlich besser formuliert als meine Generalisierung. Aber diese Situationen sind eben so selten, dass die Generalisierung der Einfachheit halber schon repräsentativ ist.
UT200x sollte profitieren. Hoch PS limitierte Szenen würden ebenfalls profitieren oder bei Nutzung von SSAA. Aber im "normalen" Spielealltag würde dieser Chip IMO keine 200% Leistung eines NV40U oder R420XT bringen.

robbitop
2005-05-10, 10:48:23
Wahrscheinlich sind es 128GB/s up und 128GB/s down
Klingt nach P2P und so gar nicht nach eDRAM. Wie wird das realisiert?

Coda
2005-05-10, 10:52:21
Wieso, das eDRAM der PS2 hatte ja auch 1024bit Up und 1024bit Down und insgesamt 48GB/s. Da erscheint mir im Jahre 2005 128GB/s eher wenig.

Gaaasssstttt
2005-05-10, 10:54:55
Wieso, das eDRAM der PS2 hatte ja auch 1024bit Up und 1024bit Down und insgesamt 48GB/s. Da erscheint mir im Jahre 2005 128GB/s eher wenig.

Jupp, vorallem war das nur mit 147.5 MHz getaktet.

Coda
2005-05-10, 10:58:26
Ja, aber hatte auch 2560bit anstatt 1024.

robbitop
2005-05-10, 11:08:53
Wieso, das eDRAM der PS2 hatte ja auch 1024bit Up und 1024bit Down und insgesamt 48GB/s. Da erscheint mir im Jahre 2005 128GB/s eher wenig.
Hast du eine Idee, wie das realisiert wird?
Klingt für mich nach 2 seperaten Interfaces. Diese allerdings nur in eine Richtung zu zulassen klingt sehr verschwenderisch.
Wenn ich 2048 Bit Anbindung hätte, würde ich diese ersteinmal groß unterteilen wegen des Verschnittes. So große Cachelines zu bursten kommt sicher selten vor (1024 Bit).
Werden bei eDRAM pro Takt eigentlich eine oder zwei Singalflanken benutzt?

Coda
2005-05-10, 11:10:03
Naja man kann dann parallel lesen und schreiben, ist doch toll ;)

Wenn ich 2048 Bit Anbindung hätte, würde ich diese ersteinmal groß unterteilen wegen des Verschnittes. So große Cachelines zu bursten kommt sicher selten vor (1024 Bit).kA was Söny damals gemacht hat. Aber ich vermute einfach mal dass das auf die 16 Pipelines aufgeteilt war.

Werden bei eDRAM pro Takt eigentlich eine oder zwei Singalflanken benutzt?Gute Frage, müsste man eigentlich ausrechnen können.

256GB/s = 2.199.023.255.552Bit/s
2.199.023.255.552Bit/s / 500.000.000Hz ~ 4096bit/s

Öh. Komisch, oder? Anscheinend sind die 256GB/s doch Unfug. Außer der eDRAM ist irgendwie intern mit 1Ghz getaktet und zusätzlich noch mit DDR angebunden...

robbitop
2005-05-10, 11:18:13
Naja man kann dann parallel lesen und schreiben, ist doch toll ;)

kA was Söny damals gemacht hat. Aber ich vermute einfach mal dass das auf die 16 Pipelines aufgeteilt war.

Gute Frage, müsste man eigentlich ausrechnen können.

128GB/s = 1.099.511.627.776Bit/s
1.099.511.627.776Bit/s / 500.000.000Hz ~ 2048bit/s

Also sieht es nach DDR aus.
1. Wenn du die beiden Interfaces nicht auf Lesen/Schreiben limitieren würdest, sondern beide beides können würden, wäre das doch auch hier kein Nachteil oder? ;)

2. Sony hat in der PS2 16xPipelines? WTF (wußte ich noch nicht)

3. Danke, was Anderes hätte mich aber auch verwundert.
Was mich verwundert ist die geringe Granularität, die schönen Verschnitt verspricht. So große Cachelines zu schreiben ist selten drin.

Coda
2005-05-10, 11:18:53
Sorry, du hast meinen Edit zu spät gesehen anscheinend :(

2. Sony hat in der PS2 16xPipelines? WTF (wußte ich noch nicht)Ja, wenn das Ding etwas hat dann ist es perverse Füllrate. Dafür muss man auch alles in Multipass machen ;)

robbitop
2005-05-10, 11:25:25
Hm das dachte ich mir schon fast. 256GiB/sek sind selbst für R500 einfach viel zu viel. Man kann eh nicht so mit Auflösung und AA aasen, da man ja nur 10MiB für den Framebuffer hat. Danach muss man auf den relativ langsamen Hauptspeicher zugreifen. So viel Bandbreite ist relativ sinnfrei.

Warum muss beim PS2 Grafikchip in Multipass gerendert werden? Rückständige ALUs/TMUs? Aber gerade dann sind 16Pipes sicher nett, wenn eh Multipass gebraucht wird, damit man überhaupt mal aus dem Knick kommt. :)

Coda
2005-05-10, 11:27:21
Was glaubst du wie die damals 16 Pipelines auf den Chip gequetscht haben? Die Dinger können nur halt Singlepass (aber immerhin auch DOT3).
Andererseits muss man dann auch dauernd die Geometriedaten neu übertragen.

Allgemein will ich die Playstation 2 nicht wirklich programmieren müssen :rolleyes:

robbitop
2005-05-10, 11:30:33
Was glaubst du wie die damals 16 Pipelines auf den Chip gequetscht haben? Die Dinger können nur halt Singlepass (aber immerhin auch DOT3).

Andererseits muss man dann auch dauernd die Geometriedaten neu übertragen.

Allgemein will ich die Playstation 2 nicht wirklich programmieren wollen :rolleyes:

1. Dot3 im Multi oder single pass? Selbst die Combiner einer TNT würden Dot3 im Multipass schaffen (16 Passes IIRC ;D)

2. Warum das? Keine Vertexbuffer?

3. Ist doch mal eine "alternative" Architektur ;)

Coda
2005-05-10, 11:50:32
DOT3 Single.

Keine Vertexbuffer. Wie auch bei 4MB VRAM? Es gibt einen speziellen Link zwischen Emotion Engine und Graphics Synthesizer für die Geschichte.

Ja, "Alternativ" ist sehr blumig ausgedrückt für "§=&%"$.

robbitop
2005-05-10, 11:54:08
DOT3 Single.

Keine Vertexbuffer. Wie auch bei 4MB VRAM? Es gibt einen speziellen Link zwischen Emotion Engine und Graphics Synthesizer für die Geschichte.

Ja, "Alternativ" ist sehr blumig ausgedrückt für "§=&%"$.

Autsch...da kann ich deine Ansichten natürlich verstehen ^^

Godmode
2005-05-10, 12:06:07
Ich schliesse zwar (3) aus, die anderen zwei Thesen momentan noch nicht. Es wird sich erst zeigen falls die XBox360 Auslieferung wohl doch nicht nach Plan laufen wird.

War der X-Box Launch nicht immer für Anfang Sommer geplannt gewesen? Ich habe bei X-Bit gelesen dass sie erst im November kommen soll? Wenn ich mich da nicht verlesen habe, dann könnte das doch auf Produktionsprobleme deuten!

X-Bit:
Vorstellung:
Ads currently broadcasted by MTV promise that a special feature dedicated to Xbox 360 to be shown on the 12th of May will include “trailers of the newest games that are due out in November for the new Xbox”, reports Gamespot web-site.

Verfügbarkeit:
The listing seems to bolster suspicions that the next Xbox will launch on the fourth anniversary of the original Xbox’s release in mid-November 2001.

Vorstellung im Mai Verfügbarkeit im November! Warum?

robbitop
2005-05-10, 12:20:03
Irgendwie muss man das gute Stück ja auch erstmal in Massen produzieren. Das geht nicht von heute auf morgen ;)

DrumDub
2005-05-10, 13:31:27
Irgendwie muss man das gute Stück ja auch erstmal in Massen produzieren. Das geht nicht von heute auf morgen ;) exakt. außerdem ist das weihnachstgeschäft numal ideal, um eine neue konsole auf den markt zu bringen. die xbox gabs ja auch im november 2001 in den vsa zu kaufen, die ps2 kam dort im oktober 2000 auf dem markt... passt also. :)

Godmode
2005-05-10, 13:36:36
exakt. außerdem ist das weihnachstgeschäft numal ideal, um eine neue konsole auf den markt zu bringen. die xbox gabs ja auch im november 2001 in den vsa zu kaufen, die ps2 kam dort im oktober 2000 auf dem markt... passt also. :)

Ok das klingt logisch!

seahawk
2005-05-10, 13:56:58
Darin vermute ich auch den Hauptgrund für die "Probleme" bei ATI. R500 muss langsam in Mengen vom Band laufen. Es war wahrscheinlich wichtiger den R500 in Produktion zu kriegen, als den R520. Die für die Premiere des XBOX notwendige Menge an R500 dürfte die Jahresproduktion an R420 locker übersteigen. (global gesehen)

Mr. Tweety
2005-05-10, 17:58:02
Wie schon im NVIDIA Thread gepostet war ich heute auf einer Intel Veranstaltung wo ein paar NVIDIA/MSI Leute vor Ort waren.

Hab ihn ein paar Fragen über den G70 gestellt und danach ob er was über den R520 weiss.

Er meinte nur 0,09µ (war ja schon bekannt)
Der "Die" muss ziemlich groß sein.
Shader 3.0 aber anders als NVIDIA implementiert.
Laut gerüchten intern soll er woll 32 Pipes haben.
Über Speicher- und Coretakt konnte er nix sagen.

Bei AMR verdrehte er die Augen und meinte nur ATI sind alles Nachmacher.
Ob das jetzt TurboCache oder SLI ist.
ATI soll seinen Aussagen sogar intern AMR als SLI bezeichnen.
(Aber was soll er sonst sagen als NVIDIA Mitarbeiter)

Coda
2005-05-10, 17:59:23
Wenn er wirklich 32 Pipelines hat, dann wird nV sich aber die Zähne dran ausbeißen imho.

Mr. Tweety
2005-05-10, 18:06:08
Wie gesagt es sind Gerüchte die bei ihnen intern rumgeistern. Schau mal in den NVIDIA Thread rüber da hab ich es schon geschrieben. Er meinte das der G70 wirklich schnell ist und sie ihn schlagen können.

Gast
2005-05-10, 18:08:25
Wie gesagt es sind Gerüchte die bei ihnen intern rumgeistern. Schau mal in den NVIDIA Thread rüber da hab ich es schon geschrieben. Er meinte das der G70 wirklich schnell ist und sie ihn schlagen können.

das sagten die nv typen auch beim nv30 das der schnell wird ;D

robbitop
2005-05-10, 18:09:45
Wenn er wirklich 32 Pipelines hat, dann wird nV sich aber die Zähne dran ausbeißen imho.
Dann versuch mal 32 Farbwerte on the road zu bringen. Das bekommt man ja nicht mal mit 16 hin. Vieleicht hat er einfach mal die Vertexpipes mitgezählt.


---
Das mit dem Nachmachen stimmt schon (IMO), aber eine andere Chance als das hat man auf diesem Markt nunmal nicht. NV hat sich einiges von HyperZ abgeschaut und ATI sich von LMA. Das ist doch seit Jahren standard.

Black-Scorpion
2005-05-10, 18:14:03
Wer weis ob nVidia SLI auch gebracht hätten wenn sie 3Dfx nicht aufgekauft hätten.
So viel zum Thema nachmachen.
ATI hatte bereits vor ein paar Jahren eine Dualkarte auf dem Markt und wer macht es jetzt nach?
Alles Marketinggeblubber.

r3ptil3
2005-05-10, 18:16:49
Ich könnte wetten der R520 als die XT version hat 32 Pipelines! Denn schon auf 0.13nm würden sogar 24 Pipelines draufpassen (habe ich mal gelesen) also wären 32Piplines sehr glaubwürdig! Die Pro Version könnte dan 24 haben.

Gast
2005-05-10, 18:28:18
32 pipes ausgelegt aber die kommenden karten werden erstmal nur 24 "freigeschaltet " sein

robbitop
2005-05-10, 18:30:06
Wer weis ob nVidia SLI auch gebracht hätten wenn sie 3Dfx nicht aufgekauft hätten.
So viel zum Thema nachmachen.
ATI hatte bereits vor ein paar Jahren eine Dualkarte auf dem Markt und wer macht es jetzt nach?
Alles Marketinggeblubber.

SLI != SLi

Dual Karte != SLI/AMR

Außerdem ist Aquisation keine Nachahmung ;)

r3ptil3
2005-05-10, 19:04:33
32 pipes ausgelegt aber die kommenden karten werden erstmal nur 24 "freigeschaltet " sein

Woher willst du wissen wiviel Pipelines es gibt? Ich habe nur behauptet wieviel es wahrscheinlich sind!

Jesus
2005-05-10, 19:09:49
Dann versuch mal 32 Farbwerte on the road zu bringen. Das bekommt man ja nicht mal mit 16 hin. Vieleicht hat er einfach mal die Vertexpipes mitgezählt.

Viell. doch eDRAM? :rolleyes:

Coda
2005-05-10, 19:11:56
Nö, das bringt nix bei TSMC. Hatten wir doch schon.

reunion
2005-05-10, 19:12:19
Viell. doch eDRAM? :rolleyes:


Oder 512-bit Speicheranbindung.

Coda
2005-05-10, 19:17:06
Auch nicht :D

Naja ist ja das Speku Forum ;)

Gast
2005-05-10, 19:17:44
Oder 512-bit Speicheranbindung.

ja bitte aber wenn der g70 nur 24 hat wird ati das nicht nötig haben die schaffen das auch so

Coda
2005-05-10, 19:18:14
Ich liebe diese Gäste :rolleyes:

robbitop
2005-05-10, 19:21:26
Viell. doch eDRAM? :rolleyes:
Damit du in die Regionen kommst, wo Massen an Bandbreite und Füllrate brauchbar sind, bräuchtest du schon 256MiB eDRAM ;)
Außerdem kann TSMC derzeit maximal 256 Bit 1-T eDRAM fertigen.


---

@512 Bit DDR

das stirbt wohl nie aus, was? ;) Das benötigt derzeit 16 Chips und viel zu viele PCB Layer. -> nicht bezahlbar.

reunion
2005-05-10, 19:35:50
@512 Bit DDR

das stirbt wohl nie aus, was? ;)


Ist ja wohl auch ein logischer Schritt, und die einzige Möglichkeit das Bandbreitenproblem auf längere Sicht zu lösen.


Das benötigt derzeit 16 Chips und viel zu viele PCB Layer. -> nicht bezahlbar.


16 Chips benötigt man für 512MB VRAM zurzeit ohnehin.
Und dass das wirklich nicht bezahlbar ist, ist reine Spekulation. ;)

pF3NG
2005-05-10, 19:38:51
Ähm........ Sorry für Offtopic, aber auch wenn die Frage jetzt Blöd ist ICH HABE ECHT KEINEN PLAN WAS IMO bzw. IMHO BEDEUTET!! (nicht lachen Bitte) kann mich mal jemand aufklären??

ShadowXX
2005-05-10, 19:41:11
Wenn er wirklich 32 Pipelines hat, dann wird nV sich aber die Zähne dran ausbeißen imho.

Nennt man dann wohl "Zeckoptimismus" von seiten des nV-Mitarbeiters.

Wenn der r520 wirklich 32Pipes bei > 600MHz hat, sieht der G70 ganz ganz alt aus mit 24Pipes@400.

Bauer
2005-05-10, 19:50:15
IMHO = In My Humble Opinion (meiner bescheidenen Meinung nach)
IMO = selbes ohne humble

so zeug lernt man erst mit der zeit
hättest aber auch einfach mal google anschmeissen können.. :wink:

BodyLove
2005-05-10, 19:53:30
Nennt man dann wohl "Zeckoptimismus" von seiten des nV-Mitarbeiters.

Wenn der r520 wirklich 32Pipes bei > 600MHz hat, sieht der G70 ganz ganz alt aus mit 24Pipes@400.

wenn es dem so wäre, dann hätte NV wohl auch eine 512bit Speicheranbindung.;D

beide Theorien halte ich für etwas unwahrscheinlich, wobei ich beide sehr begrüßen würde.

robbitop
2005-05-10, 19:59:02
16 Chips benötigt man für 512MB VRAM zurzeit ohnehin.
Und dass das wirklich nicht bezahlbar ist, ist reine Spekulation. ;)

Natürlich, aber schon die 8 Layer für NV40/R420 waren teuer. 16 BGA's, 512MiB und dazu noch die nötigen 16 Layer und doppelte Anzahl an Leiterbahnen. Das klingt für mich jedenfalls unbezahlbar, wenn der Rahmen 500EUR ist und es eine Marge geben soll ;)

Ich erwarte diesen Schritt erst später (64 Bit 512MBit BGA's zu GDDR4 Zeiten).

Godmode
2005-05-10, 19:59:18
Nennt man dann wohl "Zeckoptimismus" von seiten des nV-Mitarbeiters.

Wenn der r520 wirklich 32Pipes bei > 600MHz hat, sieht der G70 ganz ganz alt aus mit 24Pipes@400.

Das wären dann 19,2 GigaPixis das glaub ich erst wenn ich es sehe! Dann braucht man noch 100GB Speicherbandbreite um das Monster zu versorgen. Das wäre mehr als die doppelte Füllrate einer X850XTPE!

@robittop: weißt du was das PCB alleine ungefähr kostet?

reunion
2005-05-10, 20:05:50
Natürlich, aber schon die 8 Layer für NV40/R420 waren teuer.


AFAIK hat sowohl NV40 als auch R420 zehn Layer.


16 BGA's, 512MiB und dazu noch die nötigen 16 Layer und doppelte Anzahl an Leiterbahnen. Das klingt für mich jedenfalls unbezahlbar, wenn der Rahmen 500EUR ist und es eine Marge geben soll ;)


Bei den heutigen High-End-Karten liegt die Marge um einiges höher als so mancher glauben würde IMHO.
Im übrigen ist man mit dem Verkaufspreis ja flexibel. ;)

mbee
2005-05-10, 20:06:42
Slightly OT: Laut heise.de soll der R500 48 Pipes haben...
http://www.heise.de/newsticker/meldung/59419


EDIT: Noch mehr OT: Warum wird hier bei "direkt antworten" auf einmal immer gequotet? ;)

Bauer
2005-05-10, 20:21:26
Täusche ich mich, oder sind die specs die da genannt werden unbezahlbares wunschdenken... :confused:

Ein mit 500 MHz getakteter Graphics-Prozessor von ATI soll angeblich mit 48 parallelen Shader-Pipelines arbeiten. Dies deutet darauf hin, das ATI drei Grafik-Kerne mit jeweils 16 Pipelines parallel geschaltet hat. In der GPU sind 10 MByte eDRAM Speicher von NEC integriert, die eine schnelle Kommunikation der drei Kerne ermöglichen sollen und angeblich auf eine Transferrate von 256 GByte/s kommen. Dazu müsste der Speicher bei 500 MHz über acht parallele 256-Bit-Leitungen angebunden sein.

Gast
2005-05-10, 20:23:24
bezahlbar ist alles,wenn m$ die beste konsole will dann geht alles

Jesus
2005-05-10, 20:24:47
Slightly OT: Laut heise.de soll der R500 48 Pipes haben...
http://www.heise.de/newsticker/meldung/59419


EDIT: Noch mehr OT: Warum wird hier bei "direkt antworten" auf einmal immer gequotet? ;)

Das sind doch dieselben dummen Spekulationen wie vorgestern nur jetzt hats heise auch aufgeschnappt.

deekey777
2005-05-10, 20:25:08
Täusche ich mich, oder sind die specs die da genannt werden unbezahlbares wunschdenken... :confused:

Ist das nicht der R500?

mbee
2005-05-10, 20:27:42
Ja, schrieb ich doch extra in fett ;)

Bauer
2005-05-10, 20:28:59
Sorry falls ich was verpasst habe, aber dass der aus drei kernen mit so einer "perversen" speicheranbindung bestehen soll war mir neu.. :eek:

Gast
2005-05-10, 20:43:48
Slightly OT: Laut heise.de soll der R500 48 Pipes haben...
http://www.heise.de/newsticker/meldung/59419


EDIT: Noch mehr OT: Warum wird hier bei "direkt antworten" auf einmal immer gequotet? ;)


hmm.. der Preis der gesamten Konsole -so wird spekuliert- soll bei $299 (nackt ohne HD) liegen.

Kann mir mal einer sagen mit welcher Berechtigung ATI den Dosen Usern
für eine Graka USD 499 und mehr aus der Tasche ziehen will ?
Wer kauft sich dann noch eine Highend Graka, wenn die Konsole aus dem Supermarkt a)guenstiger, b) leistungsfähiger, c) mehr Funktionen bietet ?

Wenn das die realen Specs der neuen XBOX sind , wie will ATI denn
noch mehr Power in den R520 stecken (oder wie wollen Sie Ihr Hauptgeschäft halten , wenn der Absatz zugunsten von verkauften Konsolen wegbricht)?
Hat wer 'ne Idee ?

Ich würde mich jedenfalls verarscht fühlen , falls ATI für den R520 mit schlechteres Specs, aber dafür umso höheren Preis ankommen würde.

Gruß

mbee
2005-05-10, 20:46:54
Das "Argument" ist, dass MS bei der XBOX360 (wie bei der XBOX auch schon) eine Menge draufzahlen wird. Das Ding ist hoch subventioniert und es geht vornehmlich um die Gewinnung von Markanteilen. Den Verlust schreiben die locker ab. Mit ATI hat das ganze nichts zu tun, die werden ja für die Lieferung "normal" bezahlt.
Auch beim Verkauf der PS3 wird Sony IMO keinen Gewinn machen. Der wird später durch die Spiele gemacht.

Godmode
2005-05-10, 20:50:19
hmm.. der Preis der gesamten Konsole -so wird spekuliert- soll bei $299 (nackt ohne HD) liegen.

Kann mir mal einer sagen mit welcher Berechtigung ATI den Dosen Usern
für eine Graka USD 499 und mehr aus der Tasche ziehen will ?
Wer kauft sich dann noch eine Highend Graka, wenn die Konsole aus dem Supermarkt a)guenstiger, b) leistungsfähiger, c) mehr Funktionen bietet ?

Gruß


Das wird alles quersubventioniert durch die Spiele/Microsoft. M$ hat soviel Kaptial, dass sie die ganze Xbox-Geschichte so extrem aufziehen können. Ich denke die wollen die Kunden einfach davon abhalten eine PS3 zu kaufen!

Gast
2005-05-10, 21:00:55
Das wird alles quersubventioniert durch die Spiele/Microsoft. M$ hat soviel Kaptial, dass sie die ganze Xbox-Geschichte so extrem aufziehen können. Ich denke die wollen die Kunden einfach davon abhalten eine PS3 zu kaufen!

Das sich die Konsolen über die Software finanzieren ist klar...
Ati wird sicherlich noch an den verkauften Chips an MS verdienen , aber
ich denke ATI macht den größten Teil Ihres Umsatzes/Gewinnes mit PC Karten.

Die Frage war, wie ATI es fertig bringen will eine noch performantere Lösung
für die Windows User anzubieten um einh Abwandern in das Konsolenlager
zu verhindern ?

Black-Scorpion
2005-05-10, 21:06:20
Was gibt es da zu verhindern?
Das sind zwei paar Schuhe und kann man so garnicht vergleichen.

Bauer
2005-05-10, 21:06:29
das konsolen krass subventioniert sind, und erst recht bei M$ war mir auch klar..

blos erschien mir speziell das:
Dazu müsste der Speicher bei 500 MHz über acht parallele 256-Bit-Leitungen angebunden sein.
als etwas abgehoben.

berichtigt mich wenn ich falsch liege ;(

Coda
2005-05-10, 21:18:26
Die Frage war, wie ATI es fertig bringen will eine noch performantere Lösung für die Windows User anzubieten um einh Abwandern in das Konsolenlager
zu verhindern ?Schon der Grafikchip der XBox war stärker als eine GeForce 3 damals. Hat es jemanden interessiert? Mich nicht.

Godmode
2005-05-10, 21:24:50
das konsolen krass subventioniert sind, und erst recht bei M$ war mir auch klar..

blos erschien mir speziell das:

als etwas abgehoben.

berichtigt mich wenn ich falsch liege ;(

das ist der eDRAM gemeint, der auf dem Chip direkt drauf ist!

Quasar
2005-05-10, 21:25:12
das konsolen krass subventioniert sind, und erst recht bei M$ war mir auch klar..

blos erschien mir speziell das:

als etwas abgehoben.

berichtigt mich wenn ich falsch liege ;(
Jein.
Schon das integrierte RAM der Playstation 2 war mit 2560 Bit angebunden. Chipintern macht sowas keine allzu großen Probleme. Bandbreite sollte erst auf dem Weg zum Framebuffer und damit zum externen Grafikspeicher zum Flaschenhals werden.

Gast
2005-05-10, 21:25:53
Was gibt es da zu verhindern?
Das sind zwei paar Schuhe und kann man so garnicht vergleichen.
jo klar... kann man überhaupt nicht vergleichen... tsts....

Volle HDTV Auflösung bei Spielen (voraussichtlich an VGA anschließbar), Tastatur und Maus wird man auch anschliessen koennen...

Merkste was ? Diese Konsole kann/wird das koennen (auch von den Spielengenres das abdecken) was der PC jetzt bietet.
Früher und auch noch zur Zeit galt generell, daß der PC für 1st Person, Strategie und Simulation besser sein (warum wohl ?)
Dies wird sich jetzt ändern. Zwar nicht über Nacht aber der Trend ist abzusehen.
Ati sägt an dem Ast, auf dem sie sitzen.....

xL|Sonic
2005-05-10, 21:29:33
Nvidia doch genauso wenn es danach geht ;)

Coda
2005-05-10, 21:29:35
Tastatur und Maus gibt's auch für die XBox. Außerdem läuft kein Windows drauf und mit Linux hatte man schon damals Probleme mit der HW Verschlüsselung. Das wird bei der XBox 360 sicher nicht einfacher.

Black-Scorpion
2005-05-10, 21:31:51
Du kannst eine Konsole nicht mit einem PC vergleichen.

Was meinst du warum die meisten neben dem PC noch eine oder mehrere Konsolen haben?

Iwan
2005-05-10, 21:38:05
m$ wär ja auch schön blöd, wenn die mit den konsolen die pcs ausnocken würden. irgendwo wollen die ja auch auch noch windows verkaufen. und mehrere programme auf einer konsole laufen lassen wir auch schwirig, ohne vernünftiges betriebssystem. deswegen werden auf absehbare zukunft wohl konsole UND pc eine daseinsbrechtigung haben.

mapel110
2005-05-10, 21:43:24
PC vs Konsole hat hier im Thread nun wirklich nix zu suchen, sofern es sich nicht um R500/R520-Vergleiche handelt.

ShadowXX
2005-05-10, 21:52:41
Die Zahl 48 bezieht sich wohl nicht auf die Pipes, sondern auf die ALUs...

Das ganze stammt wohl hiervon:

GPU
The Xenon GPU is a custom 500+ MHz graphics processor from ATI. The shader core has 48 Arithmetic Logic Units (ALUs) that can execute 64 simultaneous threads on groups of 64 vertices or pixels. ALUs are automatically and dynamically assigned to either pixel or vertex processing depending on load. The ALUs can each perform one vector and one scalar operation per clock cycle, for a total of 96 shader operations per clock cycle. Texture loads can be done in parallel to ALU operations. At peak performance, the GPU can issue 48 billion shader operations per second.
The GPU has a peak pixel fill rate of 4+ gigapixels/sec (16 gigasamples/sec with 4× antialiasing). The peak vertex rate is 500+ million vertices/sec. The peak triangle rate is 500+ million triangles/sec. The interesting point about all of these values is that they’re not just theoretical—they are attainable with nontrivial shaders.
Xenon is designed for high-definition output. Included directly on the GPU die is 10+ MB of fast embedded dynamic RAM (EDRAM). A 720p frame buffer fits very nicely here. Larger frame buffers are also possible because of hardware-accelerated partitioning and predicated rendering that has little cost other than additional vertex processing. Along with the extremely fast EDRAM, the GPU also includes hardware instructions for alpha blending, z-test, and antialiasing.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=1941304#post1941304

Das ganze wird wohl dann mit 16 TMUs "verknüpft" (wie man das dann auch immer nennt) werden.

Zumindest konnte sich Demi so ein Szenario vorstellen:

IMHO kann man X*Y bei sowas entgültig nicht mehr benutzten. Wie gesagt vermute ich das wenn die Daten stimmen zu den 48 ALUs noch 16 TMUs kommen.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=1943600#post1943600

Das ganze wäre also quasi weiterhin ein quasi "16Piper"....nur kann man das ganze dann nicht mehr so nennen...

Viel interesannter finde ich, das die damals geleakten Xenon-Docs verdammt genau mit den jetzt veröffentlichten Specs übereinstimmer (wenn wir mal davon absehen, das es nur 3.2 anstatt der erwähnten 3.5GHz sind bei der CPU).

Entweder waren das damals wirklich echte geleakte Xenon-Docs oder diese neuen Specs sind ein Fake und basieren auf den alten leaked Docs....

Quasar
2005-05-10, 21:56:15
Laut ATi eher ein 8-Piper.

Godmode
2005-05-10, 22:03:37
Laut ATi eher ein 8-Piper.

mit extremer ALU Power! Was sollen diese ALUs überhaupt können? Mad, Dot3, RCP, RSQ, Sin, Cos,..... Weiß man was genaues?

ShadowXX
2005-05-10, 22:12:45
Laut ATi eher ein 8-Piper.

2 TMUs "hintereinander" geschaltet?? (Also das was man heute 8x2 nennen würde?)

Hauwech
2005-05-10, 22:18:08
mit extremer ALU Power! Was sollen diese ALUs überhaupt können? Mad, Dot3, RCP, RSQ, Sin, Cos,..... Weiß man was genaues?

Hmm könnten hier mal wieder die schon dem R4xx angedichteten "Extreme Pipelines" in Erscheinung treten...? ;)

Ailuros
2005-05-11, 02:21:26
Die verfügbare Bandbreite läßt einen doppelt so schnellen Nextgen Chip gar nicht erst zu.

Im ueblichen "bis zu" Sinn schon.

Ailuros
2005-05-11, 02:33:13
Laut ATi eher ein 8-Piper.

Input/Output ist bei 2 pixel quads + MSAA. Das heisst aber nicht dass Xenon ein 2 quad design ist und wohl auch nicht dass er nicht mehr quads bearbeiten kann.

Architekturen wie Xenon sollte man eher wohl doch nicht mit der "quad-Masche" beurteilen. Sie sind einfach flexibler als die heutigen "quad-Designs".

Bei 500MHz liegt die Fuellrate bei 8.0 GPixels/s bilinear.

Ailuros
2005-05-11, 02:35:35
Viel interesannter finde ich, das die damals geleakten Xenon-Docs verdammt genau mit den jetzt veröffentlichten Specs übereinstimmer (wenn wir mal davon absehen, das es nur 3.2 anstatt der erwähnten 3.5GHz sind bei der CPU).

Als ich das Dokument in meine Haende bekam, fragte ich nach ob es der Wahrheit entspricht und die Antwort war positiv. Hatte ich glaube damals schon gepostet.

Ailuros
2005-05-11, 02:44:36
Wie manche auf die hypothetischen 32 pipelines auf R520 kommen koennten ist mir kein besonderes Raetsel, wenn ich angebliche 48 pipelines fuer Xenon sehe :D

robbitop
2005-05-11, 09:22:26
Bei 500MHz liegt die Fuellrate bei 8.0 GPixels/s bilinear.

8GTex/s bi meinst du wohl. Denn ich habe es so verstanden, dass er maximal 8 Farbwerte pro Takt schreiben kann.


Im ueblichen "bis zu" Sinn schon.

ACK. Hatten wir ein paar Seiten vorher mit Quasar schon. :)


mit extremer ALU Power! Was sollen diese ALUs überhaupt können? Mad, Dot3, RCP, RSQ, Sin, Cos,..... Weiß man was genaues?
SinCos kann ich mir vorstellen über ein Makro. Ansonsten sicher das Übliche. Native SFU's kosten nämlich. Man entscheidet anhand Shaderanalysen, welche man braucht. RCP, RSQ, Dot3 waren schon beim R3xx nativ IIRC, sollte also auch drin sein.
Ich gehe mal von splittingfähigen ALU's aus. Also Vec3+1 und/oder Vec2+2.

Quasar
2005-05-11, 09:45:54
Input/Output ist bei 2 pixel quads + MSAA. Das heisst aber nicht dass Xenon ein 2 quad design ist und wohl auch nicht dass er nicht mehr quads bearbeiten kann.

Architekturen wie Xenon sollte man eher wohl doch nicht mit der "quad-Masche" beurteilen. Sie sind einfach flexibler als die heutigen "quad-Designs".

Bei 500MHz liegt die Fuellrate bei 8.0 GPixels/s bilinear.
Laut ATis Marketingabteilung heisst es das sehr wohl. ;D Ein GF6600 hat ja auch nur vier Pipelines. ;D

Zum Rest: Da hast du sicherlich Recht, das will ich auch gar nicht bestreiten. 64 simultane "Threads" (48 ALU Ops und 16 Texture-Ops) sind natürlich flexibler als das, was man im PC Bereich derzeit bekommt. Warum in dem alten Xenon-Doc die VS/PS "nur" als Load-Balanced beschrieben werden, ist mir allerdings noch nicht klar.

Xmas
2005-05-11, 14:08:09
Wie sollte man es denn "besser" beschreiben?

Damit du in die Regionen kommst, wo Massen an Bandbreite und Füllrate brauchbar sind, bräuchtest du schon 256MiB eDRAM ;)
Wozu?

Tarkin
2005-05-11, 16:24:00
ka ob das schon gepostet wurde

FarCry Patch 1.32 change log:

- Fixed a Shader Model 3.0 issue that caused graphics corruption on new ATI hardware.

... Crytek hat ne R520... und das nicht erst seit gestern ;-)

mapel110
2005-05-11, 16:29:29
... Crytek hat ne R520... und das nicht erst seit gestern ;-)
seit März...
zumindest laut Aussagen von Ailuros

Gast
2005-05-11, 17:01:44
ka ob das schon gepostet wurde

FarCry Patch 1.32 change log:

- Fixed a Shader Model 3.0 issue that caused graphics corruption on new ATI hardware.

... Crytek hat ne R520... und das nicht erst seit gestern ;-)

Na und? Etliche ISVs hatten auch schon NV30 Karten lange vor der Veröffentlichung, so what?

Gast
2005-05-11, 17:03:15
seit März...
zumindest laut Aussagen von Ailuros

und nicht nur die :/

man sollte die ctytek typen mal ausfragen wie schnell sie ist,irgend einer mach schon den mund auf

robbitop
2005-05-11, 17:12:38
Wozu?

Framebuffer, Texturen, Vertexbuffer. Da kommt einiges zusammen. Wenn ich einen performanten Chip habe, will ich das mit hoher Auflösung und hohem MSAA nutzen. Dazu der restliche Kram. Wenn dir dann der Speicher ausgeht, nutzt dir die größte Bandbreite gar nichts. Ergo 256MiB schnellen Speicher (in der Praxis gehen 128MiB VRAM in aktuellen Spielen bei 4xAA und 1280 die Luft aus).

Gast
2005-05-11, 17:18:37
und nicht nur die :/

man sollte die ctytek typen mal ausfragen wie schnell sie ist,irgend einer mach schon den mund auf

Es gibt sowas namens NDA. Wenn rauskommt wer es bricht, bekommt bei nächsten Mal keine neue Hardware, Software wasauchimmer.

Gast
2005-05-11, 17:21:31
Es gibt sowas namens NDA. Wenn rauskommt wer es bricht, bekommt bei nächsten Mal keine neue Hardware, Software wasauchimmer.

sach bloß ;D

es gibt immer möglichkeiten infos loszuwerden ohne erkannt zu werden

crusader4
2005-05-11, 17:24:21
sach bloß ;D

es gibt immer möglichkeiten infos loszuwerden ohne erkannt zu werdenMit Sicherheit nicht, da du die Leute, die entsprechende Infos haben, an einer Hand abzählen kannst.
ATI weiß sicher ganz genau, wer welche Infos hat.
Der Kreis der Schuldigen wäre sehr schnell sehr klein und dann wird es haarig für denjenigen.

Grüße, Crusader

BodyLove
2005-05-11, 17:25:49
sach bloß ;D

es gibt immer möglichkeiten infos loszuwerden ohne erkannt zu werden

und du würdest dein Job riskieren, nur um damit der "Gesellschaft" einen Gefallen zu tun... :rolleyes:

Hauwech
2005-05-11, 18:22:22
ka ob das schon gepostet wurde

FarCry Patch 1.32 change log:

- Fixed a Shader Model 3.0 issue that caused graphics corruption on new ATI hardware.

... Crytek hat ne R520... und das nicht erst seit gestern ;-)

Kann mir mal jemand erklären wie man das jetzt deuten soll:

SM3 hat(te) ein Problem und der R520 hat es aufgedeckt oder
R520 hat(te) (mit neuem Stepping vllt nicht mehr?) ein Problem mit SM3 und es wird geschönt?

Nach meinem Verständnis entwickeln MS und die IHVs die DX Spezifikationen zusammen und danach bauen sie ihre Hardware. Solange das Ergebnis stimmt, ist es eigentlich egal wie es erreicht wird. Ist das korrekt?

Weil: Zum NV40 und SM3 in FC habe ich so eine Meldung eigentlich nicht gesehen, also, was ist daran so ungewönlich, dass es so einer Meldung bedarf?

Coda
2005-05-11, 18:32:23
Die DX Spezifikation ist nicht in jedem Detail ganz eindeutig. Womöglich ist es auch eine Treibergeschichte...

Juerg
2005-05-11, 18:41:23
Set the game to detect nVidia hardware to avoid shaders being compiled at run time.Heisst das, dass die Shader in FarCry zur Laufzeit mit nVidia eigenen Implementationen ersetzt werden?
Heisst das, dass ohne diese Änderungen nVidia Grafikkarten langsam wären?

mapel110
2005-05-11, 18:43:55
Heisst das, dass die Shader in FarCry zur Laufzeit mit nVidia eigenen Implementationen ersetzt werden?
Heisst das, dass ohne diese Änderungen nVidia Grafikkarten langsam wären?
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3017226#post3017226
das könnte eher passen.

Juerg
2005-05-11, 18:48:28
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3017226#post3017226
das könnte eher passen.Sorry nicht gesehen... Danke

Xmas
2005-05-11, 20:24:34
Framebuffer, Texturen, Vertexbuffer. Da kommt einiges zusammen. Wenn ich einen performanten Chip habe, will ich das mit hoher Auflösung und hohem MSAA nutzen. Dazu der restliche Kram. Wenn dir dann der Speicher ausgeht, nutzt dir die größte Bandbreite gar nichts. Ergo 256MiB schnellen Speicher (in der Praxis gehen 128MiB VRAM in aktuellen Spielen bei 4xAA und 1280 die Luft aus).
Das muss man nun wirklich nicht alles in eDRAM packen. Back- und Z-Buffer reichen schon, evtl. sogar nur Teile davon, und dass 4xAA auch die vierfache Menge an Speicher benötigt ist ein Implementationsdetail, das keineswegs unumstößlich ist, wie es 3DLabs schon seit langem und bald wohl auch der R500 zeigen wird.

Coda
2005-05-11, 20:35:27
Naja, das wird man wohl nicht erfahren, außer man kommt irgendwie an das XDK ran.

robbitop
2005-05-11, 20:47:49
Das muss man nun wirklich nicht alles in eDRAM packen. Back- und Z-Buffer reichen schon, evtl. sogar nur Teile davon, und dass 4xAA auch die vierfache Menge an Speicher benötigt ist ein Implementationsdetail, das keineswegs unumstößlich ist, wie es 3DLabs schon seit langem und bald wohl auch der R500 zeigen wird.
spielst du auf eine "echte" Farbkompression an, die auch Platz spart?

r3ptil3
2005-05-11, 20:51:48
Ich würde gerne mal was offizielles von der Leistung hören.

BodyLove
2005-05-11, 21:07:47
offizielles, und dabei was handfastes, wird man von der Leistung sicherlich nichts hören.

Gast
2005-05-11, 21:13:11
offizielles, und dabei was handfastes, wird man von der Leistung sicherlich nichts hören.

zumindest in den nächsten tagen nicht

Coda
2005-05-11, 21:51:23
spielst du auf eine "echte" Farbkompression an, die auch Platz spart?Ja tut er. Aber ich bin da auch sehr skeptisch. Das würde mindestens ein Indirektionslevel mehr bedeuten.

Xmas
2005-05-11, 23:02:00
Es gibt auch ein Patent dazu, das allerdings schon etwas älter ist.

http://www.beyond3d.com/forum/viewtopic.php?t=22260

Godmode
2005-05-11, 23:06:47
Das muss man nun wirklich nicht alles in eDRAM packen. Back- und Z-Buffer reichen schon, evtl. sogar nur Teile davon, und dass 4xAA auch die vierfache Menge an Speicher benötigt ist ein Implementationsdetail, das keineswegs unumstößlich ist, wie es 3DLabs schon seit langem und bald wohl auch der R500 zeigen wird.


Aber was bringt das ganze dann wenn ich meine Farbwerte zwar schnell in den Backbuffer schreiben kann, aber vorne die Geometrie/Texturdaten über den dünnen normalen Speicherbus kommen?

edit: der ganze eDRAM dient dann quasi als großer Cache, der die Latenzen eines normalen Speicherzugriff verbergen soll?

Quasar
2005-05-12, 00:06:50
Na und? Etliche ISVs hatten auch schon NV30 Karten lange vor der Veröffentlichung, so what?
AFAIK welche, die mit gigantischen 300MHz liefen - zur Fehlersuche und Applikationsanpassung genügen solche Samples ja auch. Die Frage ist nur, ob der entsprechende IHV damit auf den Markt will.

Quasar
2005-05-12, 00:08:38
ka ob das schon gepostet wurde

FarCry Patch 1.32 change log:

- Fixed a Shader Model 3.0 issue that caused graphics corruption on new ATI hardware.

... Crytek hat ne R520... und das nicht erst seit gestern ;-)
Ob der Patch wohl für die Engine gilt? Denn es gibt ja noch sowas wie Far Cry Instincts... R500.

Quasar
2005-05-12, 00:22:02
Es gibt auch ein Patent dazu, das allerdings schon etwas älter ist.

http://www.beyond3d.com/forum/viewtopic.php?t=22260
Das ist aus dem Jahre 2000.... IMO bezieht sich das auf die "stinknormale" Color Compression des R300 für MSAA. Pixel, die komprimierbar sind, also mehrere Subpixel mit derselben Farbe haben, werden halt komprimiert, der Rest wird referenziert in Buffern abgelegt.

Botcruscher
2005-05-12, 00:24:24
AFAIK welche, die mit gigantischen 300MHz liefen - zur Fehlersuche und Applikationsanpassung genügen solche Samples ja auch. Die Frage ist nur, ob der entsprechende IHV damit auf den Markt will.

Hauptsache das Rätselraten um die Archietektur hat ein Ende. :rolleyes:

Xmas
2005-05-12, 01:22:06
Aber was bringt das ganze dann wenn ich meine Farbwerte zwar schnell in den Backbuffer schreiben kann, aber vorne die Geometrie/Texturdaten über den dünnen normalen Speicherbus kommen?

edit: der ganze eDRAM dient dann quasi als großer Cache, der die Latenzen eines normalen Speicherzugriff verbergen soll?
Naja, dünn ist der normale Speicherbus ja auch nicht, und die Geometrie kostet ja traditionell relativ wenig Bandbreite. Frame- und Z-Buffer-Zugriff sind heute der Löwenanteil. Fällt das mit eDRAM weg (und nur am Ende des Frames wird der Backbuffer ohne Z in den normalen Speicher geschrieben, wie bei TBDR), dann steht ja auch für den Rest wie Texturen und Vertexbuffer deutlich mehr zur Verfügung, schätzungsweise das 2 bis 3-fache.


Das ist aus dem Jahre 2000.... IMO bezieht sich das auf die "stinknormale" Color Compression des R300 für MSAA. Pixel, die komprimierbar sind, also mehrere Subpixel mit derselben Farbe haben, werden halt komprimiert, der Rest wird referenziert in Buffern abgelegt.
Nun, zum einen macht das R300 nicht so sondern reserviert immer den vollen Speicher für alle Samples, zum anderen passt die Beschreibung nicht zum R300 oder anderen bisherigen ATI-Chips. Oder hat ATI schon mal irgendwo "custom memory" eingesetzt?

"The present invention provides a method and apparatus for performing video graphics anti-aliasing in a system that utilizes a custom memory. The custom memory includes a memory array, which may be a DRAM memory array, that stores the frame buffer for the system. Also included within the custom memory is a portion of the blending circuitry used to blend newly generated pixel fragments with stored pixel data."


Im Übrigen...
Wie alt das doch schon ist...
Z/Stencil testing, alpha blending, and MSAA down-sampling are done in the EDRAM module"

Und nochmal...
Eight pixels (where each pixel is color plus z = 8 bytes) can be sent to the EDRAM every GPU clock cycle, for an EDRAM write bandwidth of 32 GB/sec. Each of these pixels can be expanded through multisampling to 4 samples, for up to 32 multisampled pixel samples per clock cycle. With alpha blending, z-test, and z-write enabled, this is equivalent to having 256 GB/sec of effective bandwidth!

Coda
2005-05-12, 02:18:08
Was mich immer wieder wundert ist diese ungerade Zahl beim eDRAM. 10MB, wo gibt's denn sowas?

Ailuros
2005-05-12, 04:37:52
seit März...
zumindest laut Aussagen von Ailuros

Die Quelle war nao/B3D nicht ich.

robbitop
2005-05-12, 09:01:54
@xmas

Dennoch sind 10MiB ziemlich wenig, selbst für den Color und Z Buffer.

TheCounter
2005-05-12, 11:27:22
Ob der Patch wohl für die Engine gilt? Denn es gibt ja noch sowas wie Far Cry Instincts... R500.

Imo ausgeschlossen. Crytek arbeitet nicht an Farcry Instincts, sondern eine extra Abteilung von Ubisoft. Crytek arbeitet zurzeit an einem Spiel mit der CryEngine 2.0 und an einem Farcry Addon (Ein weiteres Spiel befindet sich "wartemodus" durch das Addon). Außerdem soll Farcry Instincts ja noch für die X-Box 1 kommen.

Gast
2005-05-12, 12:12:44
@xmas

Dennoch sind 10MiB ziemlich wenig, selbst für den Color und Z Buffer.

genug für 720p und 1080i

chrisihamm
2005-05-12, 15:25:46
http://www.theinquirer.net/?article=23101

Fudo R520 wird doch auf der Computex vorgestellt!!!

pF3NG
2005-05-12, 15:46:52
JUHU EIN INQ BERICHT!!!!! DEM MÜSSEN WIR JETZT ALLE SOFORT GLAUBEN!!!!! Nein mal im Ernst: Ich halte den Inquirer nicht für eine Seriöse Quelle, deswegen stehe ich der Meldung mehr als Skeptisch gegenüber. Auch wenn es oft so kommt wie sie es sagen, denke ich dass es nicht gut ist ohne Quellenangabe irgendwelche Fadenscheineige News zu schreiben.

Wenn er aber stimmen könnte, wäre es nicht schlecht.

mapel110
2005-05-12, 15:52:35
http://www.theinquirer.net/?article=23101

Fudo R520 wird doch auf der Computex vorgestellt!!!
Man, die müssen echt Pagehits nötig haben und schlachten den kommenden Grakalauch richtig aus. :|

Quasar
2005-05-12, 17:54:22
Nun, zum einen macht das R300 nicht so sondern reserviert immer den vollen Speicher für alle Samples, zum anderen passt die Beschreibung nicht zum R300 oder anderen bisherigen ATI-Chips. Oder hat ATI schon mal irgendwo "custom memory" eingesetzt?

" Also included within the custom memory is a portion of the blending circuitry used to blend newly generated pixel fragments with stored pixel data."
Der Satz überzeugt mich ehrlich gesagt eher, als das Gerede von "custom memory" in der Patentschrift, die nichtsdestotrotz wohl von 2000 ist.

Daß der R300 den vollen Speicher für alle Samples reserviert, widerspricht meiner Annahme von weiter oben IMO allerdings nicht.