PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R520 schon Anfang 2005?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 [35] 36 37 38 39 40 41 42

Quasar
2005-09-13, 22:01:25
Ich glaube, ich habe es schon vor ein paar hundert Seiten gesagt, aber ich wiederhole es der Aktualität wegen nochmal:

Definiert "Pipeline" und "ALU".

Schon der R300 hatte, bei kreativer Zählweise, rund 48 ALUs. Soviel hat auch Xenos. Nur sind die absolut nicht miteinander vergleichbar.

aths
2005-09-13, 22:09:46
Also erstmal versägt ein G70 eine Radeon auch mit FP32 und zweitens heißt es 1 Cycle und nicht 1 Hz (1/s). NRM ist ein Spezialfall, der in einem Shader zwar häufiger vorkommen kann, aber trotzdem nicht so unglaublich wichtig ist wie du vielleicht meinst. Wenn bei NV40 das Registerfile nicht zu klein wird sind alle Ops außer NRM gleich schnell mit FP32/FP16.Ich vermute, dass die Wurzelfunktion auch Kandidat für schnellere FP16-Ausführung ist. Allerdings habe ich da keine Shader-Benchmarks zur Hand.

Und ja, FP16 nutzt man (abgesehen vom NRM_PP) auf dem NV40 und G70 nur, um Platz im Tempregister-File zu sparen, und nicht um schneller zu rechnen.
Eigentlich ist das nur etwas Kontrollogik. FP32 Einheiten können auch FP16 rechnen.Gerechnet wird beim NV40 und G70 in FP32, das Ergebnis wird dann auf FP16 gerundet.

Xmas
2005-09-13, 23:28:13
Mit ein paar Dutzend viewports und miserabler Leistung kann es Xenos sicher. Zum letzten Mal: entweder 4xMSAA oder 64bpp (bei Xenos).
Oder beides - mit gar nicht miserabler Leistung.

Ist ueberhaupt in WGF2.0 nur FP32 eine Pflicht? (ehrliche Frage).
Bleibt es bei dem, was früher mal verkündet wurde, so wird es nur FP32 (annähernd IEEE754) und hoffentlich ein Integer-Format geben (Int24 ließe sich gut mit FP32 abbilden, aber vielleicht ist es auch Int32).


Den Eindruck habe ich auch; selbst IMG hat in Eurasia AFAIK geteilte Praezision und TBDRs haben auch keine besonderen Kopfschmerzen mit floating point generell. Ausser natuerlich ich interpretiere das folgende falsch:
Ich habe mich über diese Aussage auch zunächst gewundert, aber in Zusammenhang mit dem "Internal True Color" macht das ganze auch ohne geteilte Präzision Sinn. Ich denke damit ist gemeint, dass im On-Chip-Framebuffer verschiedene Pixelformate bis zu FP32 verwendet werden können (entsprechend kleiner wird die maximale Tilegröße), aber die ALUs immer mit FP32 rechnen.

micki
2005-09-13, 23:33:02
Also erstmal versägt ein G70 eine Radeon auch mit FP32
und zweitens heißt es 1 Cycle und nicht 1 Hz (1/s).

1. ja und wer hat was anderes behauptet?
2. diese unnötige pingeligkeit bringt uns weiter? ;) du hast mich verstanden und es wird oft als synonym benutzt, und da wir niemals in einer perfekten welt leben werten, get used to that *fg*



NRM ist ein Spezialfall, der in einem Shader zwar häufiger vorkommen kann, aber trotzdem nicht so unglaublich wichtig ist wie du vielleicht meinst. Wenn bei NV40 das Registerfile nicht zu klein wird sind alle Ops außer NRM gleich schnell mit FP32/FP16.
schön dass du nun auch den grund kundtust, was mit ein grund für NVs fp16 ist... mir ist ehrlichgesagt auch nicht so wichtig weshalb fp16 schneller ist, fakt ist, dass es selbst bei kurzen shadern was bringt sie auf fp16 zu optimieren... wenn man sich also fragt, wieso ati auch fp16 nutzen könnte wie nv es macht -> bei nv sind shader mit fp16 optimierungen normalerweise fixer *punkt*


Eigentlich ist das nur etwas Kontrollogik. FP32 Einheiten können auch FP16 rechnen.
aber mit fp16 kann man sehr viel besser optimieren und nrm ist wohl nur ein erster schritt der relativ viel bringt, andere befehle die zZ wenig verwendet werden, werden in zukunft mit fp16 ebenfalls in einem takt ausgeführt wie z.b. sin... das wäre jedenfalls ein logischer schritt mit den möglichkeiten die sich durch fp16 bieten.



Wieso bekommt ATI die FP16 Leistung nicht mit FP32 hin?
Hast du eine ganz gute Kristallkugel?
hast du dir diesen schwachen spruch von den großen hier im forum abgeschaut?? wie suess... aber durch solche jahrmarktssprüche, die man als subtile angriffe werten kann, wirkst du leicht lächerlich, nimm dir lieber ein beispiel an "coder", er kann seine meinung ohne persönliche angriffe vertretten



FP16 hat dem NV3x auch nicht geholfen gegen den R300 der nur mit FP24 rechnet.
Soviel zu deiner Theorie.

fp16 war die einzige möglichkeit für den NV30 überhaupt mit dem R300 mitzuhalten, mit fp32 war er ca halb so schnell, deswegen hat nVidia auch im treiber unerwünschterweise auf annahme hin berechnungen von fp32 auf fp16 umgestellt. q.e.d.


Zu M$: Was meinst du warum bei SM2 die Mindestvoraussetzung FP24 und nicht FP16 ist und nur auf Anforderung der Anwendung genutzt wird?
FP24 auch nur da ATI kein FP32 hat.
Wäre es nach M$ gegangen wäre FP16 und FP24 bestimmt schon da rausgeflogen.

du redest am thema vorbei, es geht nicht darum was minimalanforderung ist, um SMx auf die packung zu schreiben. es geht darum ob <fp32 rausfliegt nur weil fp32 unterstützt werden muss.

meine meinung dazu war: genau sowenig wie fp16 bisher rausgeflogen ist, wird es wohl auch in zukunft sein, es gibt ja praktisch keinen grund für ms dafür es zu verbieten (esseiden sie haben hass auf nv), solange die entwickler selektiv fp16 nutzen können.

MfG
micki

deekey777
2005-09-14, 00:04:55
Findet ihr nicht, da HKEPC und Vr-Zone zusammenarbeiten und auch der Admin die Specs im Forum bestätigt hat es für Glaubwürdig, dass es tatsächlich 24PP sein können. Ich weiß PP sagen nichts alleine aus aber trotzdem hätte ich das mal gerne angemerkt.

Das einzige, was mich wundern würde, wäre, daß jemand bei einer X1800 mit "24pp"* den Kühler abnimmt und einen halbgaren R580 findet. Das wäre die Sensation.

*Ausgehend von der Zählweise, die RV530 hätte 12 Pixelpipelines, wie es fast auf jeder Seite 1:1 von Anandtechs Roadmap übernommen wurde.

Coda
2005-09-14, 00:10:00
du hast mich verstanden und es wird oft als synonym benutzt, und da wir niemals in einer perfekten welt leben werten, get used to that *fg*Öh nein. Das macht absolut keinen Sinn.

schön dass du nun auch den grund kundtust, was mit ein grund für NVs fp16 ist... mir ist ehrlichgesagt auch nicht so wichtig weshalb fp16 schneller ist, fakt ist, dass es selbst bei kurzen shadern was bringt sie auf fp16 zu optimieren... wenn man sich also fragt, wieso ati auch fp16 nutzen könnte wie nv es macht -> bei nv sind shader mit fp16 optimierungen normalerweise fixer *punkt*Es macht absolut keinen Unterschied ob sie lang oder kurz sind, sondern welche Instructions verwendet wurden.

aber mit fp16 kann man sehr viel besser optimierenBei NV40 eigentlich nicht mehr so stark.

Frank1974
2005-09-14, 01:01:01
Hallo

Ich würde mir auch wünschen das der R520 24pp hat,aber das ist wohl nicht möglich,wenn der angebliche 3dmark05 Test wirklich -> 8600Punkte ergibt mit 650 CHip Takt und 1400MHz Speicher,dann können es nur 16pp sein,mit 24pp müsste ein deutlich höcheres Ergebniss rauskommen bei dem Takt.
Man kann es ja beim G70 sehen der hat 24pp,der kommt ja schon wenn er Übertaktet ist, mit 500 Chip und 1300 Speichertakt auf 8700Punkte.Also mit deutlich weniger Takt meine ich damit.
Und bitte macht mich jetzt nicht gleich nieder,ich bin Hauptsächlich Praktischer Anwender,nicht so der Theoretiker :smile:
Auf den Punkt wollte ich auch nur sagen 24pp +650Chip +1400Speicher müsste ein sehr viel höheres Ergebnis geben,aber ich glaube das die 8600Punkte eh nie getestet wurden,weil sie noch gar kein Modell haben dürften was Final ist,laut NDA erst ab 05.10.2005. :smile:
Ps. Das ist aber auch von mir nur reine Spekulation,dafür ist ja der Thread auch da :wink:

MFG
Frank

dr_mordio
2005-09-14, 02:10:08
endlich ist es gelungen, durch eine backdoor auf den fileserver von HKEPC zu kommen.
dort finden sich noch weit aus mehr fotos der r520 karte. viele sind noch nicht zur veröffentlichung freigegeben, da die zurückverfolgbare nummer noch nicht verwischt ist.
interessant ist, das auf einigen chips r580 steht. das wird dann wohl die 32pipe- (r580 xt-version) und die 24pipe gerüchte (r580 pro) erklären....

aber leider ist die oben genannte tatsache nur aus den fingern gesaugt, angeregt durch deekeys post... also sorry für die falschen hoffnungen.

Das einzige, was mich wundern würde, wäre, daß jemand bei einer X1800 mit "24pp"* den Kühler abnimmt und einen halbgaren R580 findet. Das wäre die Sensation.

aber nun spaß bei seite und zurück zum thema: :biggrin:

Hallo

Ich würde mir auch wünschen das der R520 24pp hat,aber das ist wohl nicht möglich,wenn der angebliche 3dmark05 Test wirklich -> 8600Punkte ergibt mit 650 CHip Takt und 1400MHz Speicher,dann können es nur 16pp sein,mit 24pp müsste ein deutlich höcheres Ergebniss rauskommen bei dem Takt.
Man kann es ja beim G70 sehen der hat 24pp,der kommt ja schon wenn er Übertaktet ist, mit 500 Chip und 1300 Speichertakt auf 8700Punkte.Also mit deutlich weniger Takt meine ich damit.
Und bitte macht mich jetzt nicht gleich nieder,ich bin Hauptsächlich Praktischer Anwender,nicht so der Theoretiker :smile:
Auf den Punkt wollte ich auch nur sagen 24pp +650Chip +1400Speicher müsste ein sehr viel höheres Ergebnis geben,aber ich glaube das die 8600Punkte eh nie getestet wurden,weil sie noch gar kein Modell haben dürften was Final ist,laut NDA erst ab 05.10.2005. :smile:
Ps. Das ist aber auch von mir nur reine Spekulation,dafür ist ja der Thread auch da :wink:

MFG
Frank

möglich wären 24 pipes schon...
aber möglich wär es auch, das die 24pipe version ein aufgebohrter r520 für den nächsten refresh ist/wird (x1850xt)...
denn wer den r580 schon im 1Q 2006 kaufen möchte oder für verfügbar hällt, der macht sich da leider falsche hoffnungen.
denn ein so frühes erscheinen eines viel besseren nachfolgers würde die möglichen absätze an r520 und deren kleineren ablegern sehr mindern.
viel wahrscheinlicher ist in der tat das früher oder später refreshes folgen.

MfG
Alex

Ailuros
2005-09-14, 02:18:05
Oder beides - mit gar nicht miserabler Leistung.

Hilf mir mal auf die Beine hier, denn ein paar alte Dokumente erwaehnen eher "entweder/oder".


Ich habe mich über diese Aussage auch zunächst gewundert, aber in Zusammenhang mit dem "Internal True Color" macht das ganze auch ohne geteilte Präzision Sinn. Ich denke damit ist gemeint, dass im On-Chip-Framebuffer verschiedene Pixelformate bis zu FP32 verwendet werden können (entsprechend kleiner wird die maximale Tilegröße), aber die ALUs immer mit FP32 rechnen.

Dumme Frage: kann man das Zeug intern irgendwie auch komprimieren?

Ailuros
2005-09-14, 02:23:20
R580 hat genauso viele quads wie R520, nur sind sie im ersten um einiges aufgebohrt.

deekey777
2005-09-14, 02:34:35
Wieviele Vertexpipelines wird eigentlich der RV530 haben? :confused:

Ailuros
2005-09-14, 02:44:30
Wieviele Vertexpipelines wird eigentlich der RV530 haben? :confused:

Keine Ahnung; das was bis jetzt durchgesickert ist, betrifft nur die Pixel-pipeline. 6 waeren fuer mainstream mehr als genug, ausser das Zeug mit den verzapften VS stimmt und sie haben auch 8 im mainstream und im high end wie zwischen X700<->X800.

Tomcat70
2005-09-14, 06:00:32
AnandTech's R520, RV530 and RV515 Pre-NDA Extravaganza

http://www.anandtech.com/video/showdoc.aspx?i=2532


X1800 XT 16 600MHz 700MHz 512MB GDDR3
X1800 XL 16 550MHz 625MHz 512MB GDDR3
X1800 Pro 16 500MHz 500MHz 256MB GDDR3
X1800 LE 12 450MHz 450MHZ 256MB GDDR3

Ailuros
2005-09-14, 06:57:19
Kein Kommentar von mir dazu ;D :biggrin: :D :|

seahawk
2005-09-14, 07:07:03
AnandTech's R520, RV530 and RV515 Pre-NDA Extravaganza

http://www.anandtech.com/video/showdoc.aspx?i=2532


X1800 XT 16 600MHz 700MHz 512MB GDDR3
X1800 XL 16 550MHz 625MHz 512MB GDDR3
X1800 Pro 16 500MHz 500MHz 256MB GDDR3
X1800 LE 12 450MHz 450MHZ 256MB GDDR3

Seriöse Quelle - seröse Werte :biggrin:

Die gelbe Eule
2005-09-14, 07:16:14
The roadmap also refers to R580, and that the card is working in-house at the moment. R580 is essentailly a clock ramp and pipe ramp of R520, but both of those details have not been disclosed yet (even to AIBs). Unforunately, the R580 will not ship at the same time as R520.


Das Puzzle fügt sich so langsam zusammen. Wenn 24pipes+ dann mit R580.
Bin gespannt was die Verfechter der 24pipes beim R520 nun als Ausrede haben :lol:

599$ wären ~490€, was noch lange nicht der Straßenpreis ist. Geringe Verfügbarkeit treibt den Preis noch ne ganze Ecke höher. Da aber schon 7800GTX für unter 499$ real Preis zu haben sind, könnte ATI sehr ins Rudern kommen ...

seahawk
2005-09-14, 07:32:13
Naja piperamp muss (und wird) nicht mehr Pipes bedeuten, sondern ehere eine erhöhte Leistungsfähigkeit der vorhandenen, aber diese Spekaultaion ist ja schon alt.

Ailuros
2005-09-14, 07:36:32
Das Puzzle fügt sich so langsam zusammen. Wenn 24pipes+ dann mit R580.
Bin gespannt was die Verfechter der 24pipes beim R520 nun als Ausrede haben :lol:

R580:

I would put say that the pipelines will still be arranged in 4 MIMD, regionalised "quads".

http://www.beyond3d.com/forum/showthread.php?p=547840&highlight=R580#post547840

;)

Tomcat70
2005-09-14, 07:41:29
599$ wären ~490€, was noch lange nicht der Straßenpreis ist. Geringe Verfügbarkeit treibt den Preis noch ne ganze Ecke höher. Da aber schon 7800GTX für unter 499$ real Preis zu haben sind, könnte ATI sehr ins Rudern kommen ...

das ist aber auch eine 512MB karte und es warum bitte soll ati laut dir dauernd "sehr" ins rudern kommen....

es könnte ja auch nvidia ins rudern kommen wenn die x1800xt einiges schneller ist oder es könnte das frühstück ins rudern kommen weil es jeden morgen gegessen wird oder die erde könnte ins rudern kommen weil sie vielleicht irgendwann ein meteorit trifft.....

Die gelbe Eule
2005-09-14, 07:47:03
Und was bringt bitteschön 5125MB mit 700MHZ Takt? Welches weltbewegende Spiel wird davon profitieren? Rechtfertig das 100€+ Mehrpreis?

Einiges schneller wäre für mich 10-15%+ und das wird man nicht schaffen können. Nv kann ja eh mit 500MHz Chips nachlegen, die 7800GTX gehen ja nicht umsonst auf 490 stable.

Naja das rudern bezieht sich auf die Infos die vorher Publik gemacht wurden. Jeder hat geglaubt mit 24 pipes kommt sie, doch nun wird jeder sagen: Doch nur 16 pipes, reicht das denn? ATI hat vielleicht gleichgezogen, aber technisch was neues bringen sie nicht.

Tomcat70
2005-09-14, 07:52:19
Und was bringt bitteschön 5125MB mit 700MHZ Takt? Welches weltbewegende Spiel wird davon profitieren? Rechtfertig das 100€+ Mehrpreis?

Einiges schneller wäre für mich 10-15%+ und das wird man nicht schaffen können. Nv kann ja eh mit 500MHz Chips nachlegen, die 7800GTX gehen ja nicht umsonst auf 490 stable.

um das gehts aber hier nicht was nvidia alles kann. und warum sollen 10% mehrleistung nicht drinnen sein, du kennst ja die effizienz des r520 noch absolut gar nicht, wie willst du dann das als unmöglich hinstellen?
für leute die das geld haben, und das ist bei dem mini-marktanteil der hi-end karten bei genau den leuten der fall, spielen 100€ für ein paar prozent mehrleistung keine rolle, so einfach ist das, siehe mein bereits gemachter vergleich zu den prozessoren (den du ja flissentlich ignoriert hast um erneut dasselbe zu wiederholen :D).

Die gelbe Eule
2005-09-14, 08:01:41
CPUs sind nicht GPUs. Komme ja auch nicht mit Äpfeln und Birnen an, obwohl beides Obst ist. Vergleich also unangebracht.

Stimmt, nun geht es darum was ATI alles besser kann, NV hat ja vorgelegt.
Besser können heißt, Karten ankündigen und lieferbar haben, angenehmer Treiber der mit aktuellen Spielen keine Probleme macht.

Ailuros
2005-09-14, 08:07:40
Schoen ruhig bleiben, es dauert noch eine Weile bis wir Analysen sehen. IMO hatte ATI einfach genug mit dem 24/32p Scheiss und gab Anand das gruene Licht etwas darueber zu blubbern.

Es wird genuegend Gruende zum jubeln aber auch zum meckern geben was R520 betrifft.

Was jetzt den Speicher betrifft, also wenn es nach mir ginge koennte die G70 hier auch gerne 512MB@700MHz Speicher haben. Kein Wunder NVIDIA hat die G70 Preise so schnell reduziert; 512MB G70 ahoi ;)

Tomcat70
2005-09-14, 08:08:45
CPUs sind nicht GPUs. Komme ja auch nicht mit Äpfeln und Birnen an, obwohl beides Obst ist. Vergleich also unangebracht.

Stimmt, nun geht es darum was ATI alles besser kann, NV hat ja vorgelegt.
Besser können heißt, Karten ankündigen und lieferbar haben, angenehmer Treiber der mit aktuellen Spielen keine Probleme macht.

hi-end cpus und hi-end gpus kann man durchaus schön vergleichen was das preisverhältnis in relation zum käuferverhalten und den minimalen marktanteil betrifft, auch wenn du das nicht wahrhaben willst.

wie immer reguliert der markt in der kapitalismus-welt ja solche dinge sowie weitgehend automatisch, soll heissen der der mehr bietet kann auch mehr verlangen, tut er das nicht(leistungsmässig) muss er den preis senken um nicht auf seiner ware sitzenzubleiben. noch dazu gibts im bereich grafikkarten genug stammkundschaften die versorgt werden wollen ;D

Die gelbe Eule
2005-09-14, 08:16:19
Die aber bei 15-20% Yieldrate bestimmt besonders gut wegkommen ...

Ailuros
2005-09-14, 08:24:32
hi-end cpus und hi-end gpus kann man durchaus schön vergleichen was das preisverhältnis in relation zum käuferverhalten und den minimalen marktanteil betrifft, auch wenn du das nicht wahrhaben willst.

Was das Preis/Leistungsverhaeltnis-Verhaeltnis betrifft aber nicht.

Wenn ich als Spieler z.B. entweder 300 oder 600 euro in eine GPU investiere dann bekomm ich auch bis zu doppelt so hohe Leistung; nehme ich jetzt aber eine aehnliche parallele mit einer 300 und einer 600 euro CPU, bin ich um einiges weiter entfernt von der Leistungssteigerung bei GPUs.

Nettes Beispiel:

http://www.pricewatch.com/prc.aspx?i=3&a=272402

http://www.pricewatch.com/prc.aspx?i=3&a=130888

Tomcat70
2005-09-14, 08:33:19
Was das Preis/Leistungsverhaeltnis-Verhaeltnis betrifft aber nicht.

Wenn ich als Spieler z.B. entweder 300 oder 600 euro in eine GPU investiere dann bekomm ich auch bis zu doppelt so hohe Leistung; nehme ich jetzt aber eine aehnliche parallele mit einer 300 und einer 600 euro CPU, bin ich um einiges weiter entfernt von der Leistungssteigerung bei GPUs.

Nettes Beispiel:

http://www.pricewatch.com/prc.aspx?i=3&a=272402

http://www.pricewatch.com/prc.aspx?i=3&a=130888

du willst und/oder kannst es nicht verstehen.

du vergleichst mainstream mit hi-end. ich rede aber nur von hi-end.
im absolut obersten segment gibts nunmal keine 50% mehrleistung für genau dieselben 50% mehrpreis, sondern "immer weniger" mehrleistung zu "viel mehr" mehrpreis. siehe auch SLI bzw. crossfire. und die aussage gilt sowohl für cpus als auch gpus.

mehr darüber zu reden bringt anscheinend eh nichts.....

Mumins
2005-09-14, 08:40:59
das ist aber auch eine 512MB karte und es warum bitte soll ati laut dir dauernd "sehr" ins rudern kommen....

es könnte ja auch nvidia ins rudern kommen wenn die x1800xt einiges schneller ist oder es könnte das frühstück ins rudern kommen weil es jeden morgen gegessen wird oder die erde könnte ins rudern kommen weil sie vielleicht irgendwann ein meteorit trifft.....

Genau richtig, es interessiert einen Scheiß, ob eine Karte 500€ oder 600€ kostet, erst recht wenn sie dann noch 512MB hat, die wird trotzdem gekauft. F.E.A.R. profitiert von den 512MB.
Im übrigen war zu Zeiten der 5950 Ultra Nvidia teurer als ATI mit der 9800XT, obwohl die Nvidia Karte relativ bescheiden war.

Die gelbe Eule
2005-09-14, 08:58:10
Ich würde mal gerne wissen wieviele von den 427 Seiten reines ATIgetrolle ist. Die 24pip0r reden sich nun raus oder verschwinden erstmal aus dem Thread. Die 16pip0r werden nun niedergemacht, weil es ja schon die ganze Zeit klar war, das hier nur spekuliert wurde!

micki
2005-09-14, 08:59:23
Öh nein. Das macht absolut keinen Sinn.
klar macht das sinn, wenn ein rechenwerk bei 100hz, 100 mal mul kann, dann hat man 1mul/hz und in worten kann man dann sagen "ein mul pro hertz" bzw invers "ein herz verbrauch pro mul". dazu ist natürlich ein wenig abstrakte transferleistung nötig. klar, wenn man Hz nur als einheit sieht, dann sind es cycles/second und dann ist eine angabe wie "mul braucht ein cycle/second" total blödsinnig... aber wie gesagt, ist ein wenig abstrakter.

ich versteh zwar worauf du hinaus willst, aber das wäre nur ein meinungsstreit wenn wir das hier weiter ausleben.



Es macht absolut keinen Unterschied ob sie lang oder kurz sind, sondern welche Instructions verwendet wurden.
klar, aus codersicht gibt es da nur diesen unterschied welche instructionen verwendet werden bzw. bei xLSL welche typedeclaration man nimmt, was aber im endeffect das selbe resultat ist.


Bei NV40 eigentlich nicht mehr so stark.
das meinte ich aus sicht der gpu-hersteller... dass man z.b. nährungs-algorithmen und LUTs anwenden kann, weil es viel weniger iterationen gibt bzw kleinere LUTs vorhanden sein müssen damit man fp16 genauigkeit erreicht. bei cos/sin z.b. eventuell nur ne LUT mit ein paar einträgen zwischen denen man learped und danach noch ein nrm(2dimensional) damit es wirklich cos^2+sin^2=1 sind.
das natürlich im hinblick darauf, dass jemand der fp16 nutzt, nur performance und nicht genauigkeit will. (würde es nur fp16 geben, wäre die sache eventuell anders).

MfG
micki

micki
2005-09-14, 09:00:54
das hier nur spekuliert wurde!
deswegen ist es wohl im specuforum, auch wenn manche das nicht wahrhaben wollen ;)

Die gelbe Eule
2005-09-14, 09:03:19
Manche verspekulieren sich aber so fernab der Realität das dieses Halbwissen beim lesen mehr als weh tut.

Majestic
2005-09-14, 09:13:38
Ist eigendlich irgendein Termin Seitens ATI zum Launch genannt worden? Ich meine kein verstreichen imaginärer NDA-Frtisten oder Infos ala hkepc.com usw. :)

Die gelbe Eule
2005-09-14, 09:16:03
Mitte Oktober soll die Vorstellung sein, Launch wird sich zeigen. ATI selbst hält sich noch zu allem bedeckt.

TheGood
2005-09-14, 09:31:07
Kann mir mal jemand den Unterschied zwischen SIMD und MIMD wie die jeweiligen Vor und Nachteile näherbringen?

Bin schon auf die ersten test des R520 gespannt, vor allem was überrascht und was enttäuschen wird.

Asmodeus
2005-09-14, 09:31:49
Auch ich kann mich angesichts der neuen Meldungen nur wiederholen, es kann uns doch allen gar nichts besseres passieren, als dass ATi High End Karten mit 512 MB zu einem moderaten Preis anbieten wird. Nvidia wird über kurz oder lang nachziehen (müssen) und schon gibt es 512 MB Grafikkarten zu Preisen, von denen vor 3 Monaten noch niemand zu träumen wagte. Und immer daran denken, es gibt nicht nur Computerspieler die auf "bezahlbare" 512 MB Grafikkarten warten. :wink:

Gruss, Carsten.

seahawk
2005-09-14, 09:42:05
Kann mir mal jemand den Unterschied zwischen SIMD und MIMD wie die jeweiligen Vor und Nachteile näherbringen?

Bin schon auf die ersten test des R520 gespannt, vor allem was überrascht und was enttäuschen wird.

Man braucht sich nur die Daten anzusehen, um zu erahenen wie sich die beiden Konkurrenten in de nüblichen Benchmarks schlagen werden. :smile:

dildo4u
2005-09-14, 11:02:13
http://www.vr-zone.com/?i=2679&s=1

ATi Radeon X1800 XL Performance

We got hold of some performance figures of the Radeon X1800 XL and using the beta Catalyst 8.172 drivers, it outperforms the Radeon X850 XT PE slightly. For 3DMark05, you are probably looking at a close 7K. However, the beta drivers still aren't looking too good at the moment and ATi is working hard to get their drivers ready and optimized for the launch.

robbitop
2005-09-14, 11:14:09
Ich glaube, ich habe es schon vor ein paar hundert Seiten gesagt, aber ich wiederhole es der Aktualität wegen nochmal:

Definiert "Pipeline" und "ALU".

Schon der R300 hatte, bei kreativer Zählweise, rund 48 ALUs. Soviel hat auch Xenos. Nur sind die absolut nicht miteinander vergleichbar.
Ein IMO sehr guter Einwurf, Quasar.
Die Pipelines sind eh kaum noch vergleichbar. ATI hatte bis zum R480 noch traditionelle Pipelines und NVIDIA seit dem NV30 (und viel mehr im NV40) nicht mehr.

Sinn machen würde:
-nur Vec4 ALUs werden gezählt (ob splittingfähig oder nicht)
(miniALUs sind eh meist nur für kleine Dinge wie modifier da, und eine "Tex ALU" gibt es AFAIR in dem Sinne gar nicht. Damit will man nur sagen, dass man die Texturdaten nicht über die Crossbars der ALU fetched ...macht S3 übrigens auch)
-Eine Pixelpipeline muss grob gesehen dedizierte Vec4 Rechenwerke, mind eine Textureinheit (mit allem was dazugehört)besitzen
[früher hätte ich wohl noch hinzugefügt, dass jede Pipeline Z/Stencil/Color/Alphablending können muss ... aber davon sind wir seit entkoppelten ROPs ja weg und es limitiert nur selten)

Ich schätze, was jetzt gerade so noch erkennbar ist, wird bald schon nicht mehr erkennbar sein. Dann zählt man nur noch aritmetischen und texturoutput.

Franzmann-Jan
2005-09-14, 11:14:39
Ein absolut enttäuschende Grafikkartengeneration und das von beiden Seiten. Aber gut, so ein Sprung wie von 9800 auf X800 oder vergleichbar, gibt es nur selten. Als X850 User ist mir mein Geld für eine 7800/X1800 auf jeden Fall zu schade.

Gaestle
2005-09-14, 11:48:31
Ein absolut enttäuschende Grafikkartengeneration und das von beiden Seiten. Aber gut, so ein Sprung wie von 9800 auf X800 oder vergleichbar, gibt es nur selten. Als X850 User ist mir mein Geld für eine 7800/X1800 auf jeden Fall zu schade.

Es geht wohl nicht mehr primär um Füllrate, sondern immer mehr um Arithmetik. Die wird aufgrund der immer komplexer werdenden Shader notwendig. Dort hat der G70 aufgestockt, beim R520 wird's nicht anders sein.
Die Vorteile der neuen Generationen werden sich also vermutlich in Games zeigen, die sehr komplexe Shader haben, d.h. MAxPayne2, Half-Life2 und 3DMark werden wohl nicht dazu gehören. Vielleicht eher Fear und AoE3, vielleicht auch FarCry oder vielleicht auch Serious Sam2 (obwohl das schon sehr gut lief, auf dem Video in der PC Powerplay, wo die Details auf Maximum waren - bei einer 6800Ultra).


edit: und wie Mapel schon schrub: bei ultra-hohen Auflösungen sieht man's auch...

Grüße

mapel110
2005-09-14, 11:48:42
IMO hatte ATI einfach genug mit dem 24/32p Scheiss und gab Anand das gruene Licht etwas darueber zu blubbern.

Die XT PE fehlt aber in der Auflistung. 24 Pipes ahoi. ;D
Srykthx. ;(
Ein absolut enttäuschende Grafikkartengeneration und das von beiden Seiten. Aber gut, so ein Sprung wie von 9800 auf X800 oder vergleichbar, gibt es nur selten. Als X850 User ist mir mein Geld für eine 7800/X1800 auf jeden Fall zu schade.
Also Tombman freut sich über wesentlich mehr Performance bei 2048x1536 und darüber. :)
p.s. Ich finds schade, dass sich viele über ihn aufregen. Ich teile da eher seine Freude über soviel Power. Einigen hier fehlt offenbar die Begeisterungsfähigkeit dafür. Sry für etwas Offtopic, aber das wollt ich mal gesagt haben.

micki
2005-09-14, 12:12:50
Manche verspekulieren sich aber so fernab der Realität das dieses Halbwissen beim lesen mehr als weh tut.
wenn man die realität kennen würde, wäre es nicht mehr spekulation ;), hier im forum gab es schon oft soviel gelaber von sachen die garnicht sein können und die dann trotzdem waren.
vielleicht sehen es manche einfach viel zu ernst.

MfG
micki

MadManniMan
2005-09-14, 12:14:57
p.s. Ich finds schade, dass sich viele über ihn aufregen. Ich teile da eher seine Freude über soviel Power. Einigen hier fehlt offenbar die Begeisterungsfähigkeit dafür. Sry für etwas Offtopic, aber das wollt ich mal gesagt haben.



Wenn er bei all seiner Begeisterungsfähigkeit zumindest etwas an Diskussionskultur behalten hätte und nicht so abartig arrogant schreiben würde, wie er es tut, könnte ich Deine Anliegen teilen.

seahawk
2005-09-14, 12:42:08
Die neue Generation sit in bekannten Spielen unter normalen Auflösungen nicht erhbelich viel schneller, das stimmt.

Aber zumindest durch die Einführung des des Alphatest AAs im G70 ist imho ein absolutes Killerfeature. Was bringt mer FPS oder ein höherer AA Grad, wenn die Aplhatexies nicht behandelt werden ?

Ich finde die neue Generation insgesamt gelungen.

Iwan
2005-09-14, 12:47:15
g70 istfür mich auch keine neue generation, der chip ist ein etwas aufgebohrter nv40 mit ein paar optimierungen und neuen features, von daher ist der leistungssprung ok.

MadManniMan
2005-09-14, 12:54:09
g70 istfür mich auch keine neue generation, der chip ist ein etwas aufgebohrter nv40 mit ein paar optimierungen und neuen features, von daher ist der leistungssprung ok.

Ganz schön bemerkenswert, daß der Gegner einer völlig neuen ATi-Generation ein nV-Refresh ist ... ;)

Aber um nochmal auf den spekulativen 600MHz 16pp R520 XT zu kommen: ROPs, die wirklich 9600 MPix/s schaffen ... sind diese heute noch ein Vorteil gegenüber der tatsächlichen Texel-Leistung des G70?

Black-Scorpion
2005-09-14, 13:06:50
hast du dir diesen schwachen spruch von den großen hier im forum abgeschaut?? wie suess... aber durch solche jahrmarktssprüche, die man als subtile angriffe werten kann, wirkst du leicht lächerlich, nimm dir lieber ein beispiel an "coder", er kann seine meinung ohne persönliche angriffe vertretten
1. Du hast die Behauptung aufgestellt.
2. Hast du Beweise das es so ist? -> Wenn nein, Kristallkugel
3. Ich weiß ja nicht wie alt du bist, aber ich brauche mich in meinem Alter von dir bestimmt nicht anmachen zu lassen.
4. Wo habe ich dich persönlich angegriffen?

Damit ist für mich EoD.

robbitop
2005-09-14, 13:19:30
Aber um nochmal auf den spekulativen 600MHz 16pp R520 XT zu kommen: ROPs, die wirklich 9600 MPix/s schaffen ... sind diese heute noch ein Vorteil gegenüber der tatsächlichen Texel-Leistung des G70?
Nicht wirklich.

MadManniMan
2005-09-14, 13:23:32
Nicht wirklich.

Dieses Phänomen hatten wir wohl mit dem R300/NV30 zuletzt.
Es deutet wohl darauf hin, daß die 10320 MTexel/s gegenüber den 9600 MTexel/s mehr Vorteile mit sich bringen, als die 6880 MPixel/s gegenüber den 9600 MPixel/s Nachteile, aight?

deekey777
2005-09-14, 13:26:21
AnandTech's R520, RV530 and RV515 Pre-NDA Extravaganza

http://www.anandtech.com/video/showdoc.aspx?i=2532


X1800 XT 16 600MHz 700MHz 512MB GDDR3
X1800 XL 16 550MHz 625MHz 512MB GDDR3
X1800 Pro 16 500MHz 500MHz 256MB GDDR3
X1800 LE 12 450MHz 450MHZ 256MB GDDR3

Jaja, immer interessieren sich alle für die Großen. ;(
"Radeon X1600 will actually be very similar to X1800LE, but with a smaller internal bus (256-bits) and a smaller memory bus (128-bits). ..."

Ich glaub, irgendwas ist das nicht richtig.

Annihilator
2005-09-14, 14:37:08
Also Tombman freut sich über wesentlich mehr Performance bei 2048x1536 und darüber. :)
p.s. Ich finds schade, dass sich viele über ihn aufregen. Ich teile da eher seine Freude über soviel Power. Einigen hier fehlt offenbar die Begeisterungsfähigkeit dafür. Sry für etwas Offtopic, aber das wollt ich mal gesagt haben.



da muss ich dir voll zustimmen, er ist halt enthusiast, und zwar durch und durch...
darum baut er sich auch grade ein dual dual-core opteron system zusammen!
bin sehr auf ergebnisse gespannt, und arrogant kommt er mir im übrigen nicht wirklich vor, mehr wie ein kleines kind das sich sehr über sein spielzeug freut.... andere haben halt ihr auto, tombman sein rechner.

micki
2005-09-14, 14:47:40
1. Du hast die Behauptung aufgestellt.
2. Hast du Beweise das es so ist? -> Wenn nein, Kristallkugel
3. Ich weiß ja nicht wie alt du bist, aber ich brauche mich in meinem Alter von dir bestimmt nicht anmachen zu lassen.
4. Wo habe ich dich persönlich angegriffen?

1. ich bleibe bei der behauptung, dass fp16 schneller ist als (bei ati) fp32 sein kann.
2. klar hab ich beweise, dass fp16 schneller ist als fp32, starte dir den fx-composer, compilier alle shader auf fp16 und bench sie gegen fp32, dann hast du deinen beweis, alternativ kannst du auch drüber nachdenken, dann kommst du drauf, dass es keinen anderen grund für die co-existenz von fp16 mit fp32 gibt, als performancegewinn.
3. dito.
4. "Hast du eine ganz gute Kristallkugel?" oder was sollte der spruch?

MfG
micki

micki
2005-09-14, 14:49:24
http://www.hartware.de/news_38514.html

leider steht dort keine quellenangabe woher die information kommen soll.

MfG
micki

ShadowXX
2005-09-14, 14:54:15
http://www.hartware.de/news_38514.html

leider steht dort keine quellenangabe woher die information kommen soll.

MfG
micki

Du darft 3x raten, von wo die das haben.

Wer hat vor nicht langer Zeit eine quasi Identsiche Tabelle und fast noch identischere Aussagen (allerdings in Englisch) ins Netz gestellt?

(Fängt mit A an und hört mit tech auf......dir schreiben doch sowieso immer alle voneinander ab.)

Tomcat70
2005-09-14, 14:58:02
http://www.hartware.de/news_38514.html

leider steht dort keine quellenangabe woher die information kommen soll.

MfG
micki

ganz unten steht ja von wo es kommt: Anandtech

mapel110
2005-09-14, 15:24:14
dann kommst du drauf, dass es keinen anderen grund für die co-existenz von fp16 mit fp32 gibt, als performancegewinn ...

... bei dem Chipdesign von nvidia!
So muss es nicht bei ATI sein. Wenn der Chip für FP32 keine Flaschenhälse bietet, warum sollte dann noch FP16 schneller sein?!
Auf heutigen Grakas entsteht durch 16bit Farbtiefe beim Rendern auch kein Vorteil (mehr).

Coda
2005-09-14, 15:45:26
klar macht das sinn, wenn ein rechenwerk bei 100hz, 100 mal mul kann, dann hat man 1mul/hz und in worten kann man dann sagen "ein mul pro hertz" bzw invers "ein herz verbrauch pro mul". dazu ist natürlich ein wenig abstrakte transferleistung nötig. klar, wenn man Hz nur als einheit sieht, dann sind es cycles/second und dann ist eine angabe wie "mul braucht ein cycle/second" total blödsinnig... aber wie gesagt, ist ein wenig abstrakter.Das ist kein Meinungsstreit, weil 1Hz = 1/s. Wenn du sagst 1mul/Hz bedeutet das, 1mul*s, d.h. das Ding würde nicht pro Cycle ein Mul ausführen, sondern pro Sekunde. Sinnvoll? Hertz ist die Frequenz und hat in diesem Zusammenhang absolut nichts verloren.

Ich sag doch auch nicht, ich hab ein km/h Weg zurückgelegt oder 1 Watt Strom verbraucht. Das ist genau der gleiche Blödsinn.

1. ich bleibe bei der behauptung, dass fp16 schneller ist als (bei ati) fp32 sein kann.G70 wird auch mit FP32 mehr Shaderleistung als R520 haben, d.h. es spielt eigentlich keine Rolle.

Aber um nochmal auf den spekulativen 600MHz 16pp R520 XT zu kommen: ROPs, die wirklich 9600 MPix/s schaffen ... sind diese heute noch ein Vorteil gegenüber der tatsächlichen Texel-Leistung des G70?Pixelleistung. Und nein.

tombman
2005-09-14, 15:48:57
darum baut er sich auch grade ein dual dual-core opteron system zusammen!
bin sehr auf ergebnisse gespannt,
Nö, is nur ein einfaches dual opt. System, aber mit 2x3ghz ;)
Aber das ganze ist noch unter tombman-NDA, also PSSSSSSSSSSSSSST :)
(da kann noch einiges schiefgehen und es könnte niemals Wirklichkeit werden, aber wenn es funkt hab ich NUMA speed ram, pci-x hdd speed usw.. :))

MadManniMan
2005-09-14, 15:57:37
Ooooh Schreck, hab ich gestern völlig überlesen: es kommen X1600 Pros mit 64bit Interface :ucatch: Hat der Wahnsinn je ein Ende?

Coda
2005-09-14, 15:58:46
Hat der Wahnsinn je ein Ende?Nein, natürlich nicht. DDR Speicher wird eh nur noch mit Takt skaliert werden. 64/128/256 eben.

robbitop
2005-09-14, 16:03:44
Dieses Phänomen hatten wir wohl mit dem R300/NV30 zuletzt.
Es deutet wohl darauf hin, daß die 10320 MTexel/s gegenüber den 9600 MTexel/s mehr Vorteile mit sich bringen, als die 6880 MPixel/s gegenüber den 9600 MPixel/s Nachteile, aight?
Das lag an etwas anderem. NV30 bot ja sogar 8 ROPs bei nur 4 Pixelpipes an.
Er konnte 8x blending/Z-/Stencil. Dir geht es anscheinend um reines MT, oder? Dann kann man getrost mal auf UT2004 schauen. Dort hatte NV30 nur ein paar Nachteile durch das arbeitsaufwändigere AF. Ohne AF und 16x12 und bis 2xAA (wo also auch die niedrigere Bandbreite nicht mit reinspielt) war NV30 deutlich in Front.
Die schlechten Ergebnisse des NV30 ergaben sich eigentlich immer aus Bandbreitenmangel, arbeitsaufwändigeres AF oder auch aritmetische Defizite.
Schau mal, was allein HQ vs. Q in UT04 beim NV40 kostet (UT04 ist ein super Bsp für Füllratenlimitierung).

@micki
dass FP16 bei NV Designs schneller ist, liegt lediglich an Designtradeoffs, die man eingehen musste, um Transistoren sinnvoll woanders investieren zu können.
Interne Datenpfade, temporäre Register oder auch NRM_PP sind dafür verantwortlich. Sollte man ein paar Mio Transistoren mehr investieren ist FP32 genausoschnell wie FP16. FP16 reicht ja auch für das Meiste aus, warum also ständig FP32?
Sollte R520 FP32 only sein, wird die Hardware auch so ausgelegt sein.

Coda
2005-09-14, 16:08:38
dass FP16 bei NV Designs schneller ist, liegt lediglich an Designtradeoffs, die man eingehen musste, um Transistoren sinnvoll woanders investieren zu können.
Interne Datenpfade, temporäre Register oder auch NRM_PP sind dafür verantwortlich. Sollte man ein paar Mio Transistoren mehr investieren ist FP32 genausoschnell wie FP16. FP16 reicht ja auch für das Meiste aus, warum also ständig FP32?Das größte Problem ist soweit ich weiß das Tempregisterfile. Da passen iirc 16 FP16 Werte oder 8 FP32 rein.

robbitop
2005-09-14, 16:10:51
Das größte Problem ist soweit ich weiß das Tempregisterfile. Da passen iirc 16 FP16 Werte oder 8 FP32 rein.
Ist mir bekannt, ich habe das passende Developer PDF. Ich wollte allerdings alle Issues auflisten.

Coda
2005-09-14, 16:27:50
Was passiert eigentlich, wenn die Tempregister ausgehen? Wird dann im Speicher ausgelagert?

aths
2005-09-14, 17:09:08
Das größte Problem ist soweit ich weiß das Tempregisterfile. Da passen iirc 16 FP16 Werte oder 8 FP32 rein.4x FP32, bzw. 8x FP16 (oder 2x FP32, 4x FP16 ... klar.)

robbitop
2005-09-14, 17:13:49
Was passiert eigentlich, wenn die Tempregister ausgehen? Wird dann im Speicher ausgelagert?
Ein wunderschöner Pipelinestall ereignet sich dann IIRC.

aths
2005-09-14, 17:17:45
Was passiert eigentlich, wenn die Tempregister ausgehen? Wird dann im Speicher ausgelagert?Das wäre extrem langsam. Angeblich werden gesampelte Texturwerte im Texturcache gespeichert, aber das habe ich noch nicht bestätigt.

Wenn die Temp-Register ausgehen, werden statt neuer Pixel "Blasen" in die Pipe geschoben, so dass die Temps garantiert reichen. Hat Demirug im CineFX-Artikel beschrieben.

NV ist sich darüber im Klaren, dass man mit 4 FP-Temps die beiden Shader-Units nicht voll auslasten kann. Insofern fragt man sich, was dann das ADD bei der SU1 noch soll. Ein DP kann schon mal 3 Temps verbraten. Die Antwort ist, dass sich der Code besser shedulen lässt, wenn man in beiden SUs ADD, MAD und DP hat.

Demirug spricht hin und wieder (reichlich nebulös) von Pipeline-internen temporären Registern.

Ich sehe ein großes Problem beim Texture Sampling: Man sollte einerseits große Abstände zwischen Sampling und Nutzung erzielen, damit AF nicht die Pipeline zum Stocken bringt. Andererseits: Je eher das Sample eingesetzt wird, umso eher ist der Speicherplatz wieder frei. Der Texturcache hat nicht den Platz, um viel vorrätig zu halten, falls es denn stimmt, dass er erst mal die fertigen Samples aufnimmt (wovon ich nicht überzeugt bin.) Geht das Sample gleich in ein Temp-Register, ist es so lange belegt bis es genutzt wird. Für normale Texturen reicht natürlich FP16-Genauigkeit. Lange Rede, kurzer Sinn: Für den NV40 und G70 zu optimieren, ist diffizil.

3d
2005-09-14, 17:20:56
könnte es nicht sein, daß der R520 nur mit 16 piplines lief, weil 24 vom treiber noch nicht unterstüzt werden?

und was meint ihr eigentlich zu der verlustleistung. die interessiert mich mindestens genausoviel wie die leistung.

MadManniMan
2005-09-14, 17:21:39
Robbi, ich meinte eher, daß zu diesen Zeiten ST-Wirken noch deutlicheren Anteil hatte - ist ja schließlich auch schon wieder 3 Jahre her.

Wirklich erfahren, ob der höhere Takt die fehlenden ROPs wett macht würden wir nur, wenn die Chips sonst identisch wären. Darum: who cares...

robbitop
2005-09-14, 17:25:51
könnte es nicht sein, daß der R520 nur mit 16 piplines lief, weil 24 vom treiber noch nicht unterstüzt werden?

und was meint ihr eigentlich zu der verlustleistung. die interessiert mich mindestens genausoviel wie die leistung.
1. glaube ich nicht
2. müsste erst einmal gemessen werden (sollte aber spekulativ im aktuellen Rahmen liegen. Ca G70 Niveau)

deekey777
2005-09-14, 17:27:49
Nö, is nur ein einfaches dual opt. System, aber mit 2x3ghz ;)
Aber das ganze ist noch unter tombman-NDA, also PSSSSSSSSSSSSSST :)
(da kann noch einiges schiefgehen und es könnte niemals Wirklichkeit werden, aber wenn es funkt hab ich NUMA speed ram, pci-x hdd speed usw.. :))
Hoffentlich fällt dir der Penixx ab, und ein reudiger Hund läuft mit ihm weg. :biggrin:

könnte es nicht sein, daß der R520 nur mit 16 piplines lief, weil 24 vom treiber noch nicht unterstüzt werden?
Nein, definitiv nicht.

und was meint ihr eigentlich zu der verlustleistung. die interessiert mich mindestens genausoviel wie die leistung.
Und die Verlustleitung ist auch so ein Geheimnis wie der Rest.

3d
2005-09-14, 17:35:02
Nein, definitiv nicht.
warum so sicher?
gibts welche beweise?

robbitop
2005-09-14, 17:35:17
Robbi, ich meinte eher, daß zu diesen Zeiten ST-Wirken noch deutlicheren Anteil hatte - ist ja schließlich auch schon wieder 3 Jahre her.

Wirklich erfahren, ob der höhere Takt die fehlenden ROPs wett macht würden wir nur, wenn die Chips sonst identisch wären. Darum: who cares...
Nein auch vor 3 Jahren nicht mehr. Lightmaps, Env Maps, Texturschichten, all das ist ewig Standard. Außerdem filterte man damals auch schon trilinear ;)
NV30 ist sobald Füllrate limitiert und kein AF im Spiel ist (unfair) schneller als eine R300.
Nur hat es damals niemals so gebencht. Das könnte man aber mal nachstellen.

Schau dir doch mal NV43 vs RV410 an. Und..sind weniger ROPs ein Nachteil? ;)

Coda
2005-09-14, 17:43:22
Demirug spricht hin und wieder (reichlich nebulös) von Pipeline-Internen temporären Registern.Das ist logisch. nach jeder Pipelinestufe müssen ja die Zwischenergebnisse irgendwo gehalten werden, d.h. man braucht eigentlich für Tempregister-Anzahl * Pipelinestufen Speicherplatz.

aths
2005-09-14, 17:46:15
Das ist logisch. nach jeder Pipelinestufe müssen ja die Zwischenergebnisse irgendwo gehalten werden, d.h. man braucht eigentlich für Tempregister-Anzahl * Pipelinestufen Speicherplatz.Das sowieso. 4 FP-Temps heißt, 4 pro Stufe. Das sind RGBA x 32 Bit x 4 (da Quad-basiert) pro Stufe. Insgesamt kommen da einige kiB zusammen. Was Demirug meint, sind wohl noch andere, spezielle Register (oder Latches, oder Fifos, ... Demirug sollte mal genauer werden :))

Ailuros
2005-09-14, 18:01:05
du willst und/oder kannst es nicht verstehen.

du vergleichst mainstream mit hi-end. ich rede aber nur von hi-end.
im absolut obersten segment gibts nunmal keine 50% mehrleistung für genau dieselben 50% mehrpreis, sondern "immer weniger" mehrleistung zu "viel mehr" mehrpreis. siehe auch SLI bzw. crossfire. und die aussage gilt sowohl für cpus als auch gpus.

mehr darüber zu reden bringt anscheinend eh nichts.....

Wenn Du mir so ankommst dann lohnt es sich sowieso nicht zu antworten.

Wie dem auch sei ich bekomme auf einem SLI/CF bis zu 85% mehr Leistung was ich aber nie und nimmer in Echtzeit als Spieler mit einem 4000+ vs. FX-"wasauchimmer" bekommen werde, trotz dem radikaleren Aufpreis fuer den letzten.

Ein 4000+ mainstream? Bon apetit.

Tomcat70
2005-09-14, 18:19:40
Wenn Du mir so ankommst dann lohnt es sich sowieso nicht zu antworten.

nett von dir das du es dann trotzdem machst ;D


Wie dem auch sei ich bekomme auf einem SLI/CF bis zu 85% mehr Leistung was ich aber nie und nimmer in Echtzeit als Spieler mit einem 4000+ vs. FX-"wasauchimmer" bekommen werde, trotz dem radikaleren Aufpreis fuer den letzten.

da fällt mir nur ein: thema verfehlt. sorry. um das gings überhaupt nicht.......
alles weitere hab ich zu dem thema bereits gesagt.


Ein 4000+ mainstream? Bon apetit.

es ging um die preisregion ~300€ bei cpus.
z.b. den x2 3800+ im deutschland pc vi würde ich auch durchaus als aktuellen oberen mainstream bezeichnen.

tombman
2005-09-14, 18:43:04
Hoffentlich fällt dir der Penixx ab, und ein reudiger Hund läuft mit ihm weg. :biggrin:

Und du rennst ihm dann nach? ;D

ONT: btw, wärs ned besser gleich auf den R580 zu warten, denn dieser soll laut anandtech mehr clock UND mehr pipes haben und sogar schon lauffähig sein?

deekey777
2005-09-14, 18:48:32
Und du rennst ihm dann nach? ;D

ONT: btw, wärs ned besser gleich auf den R580 zu warten, denn dieser soll laut anandtech mehr clock UND mehr pipes haben und sogar schon lauffähig sein?

Was soll ich mit noch einem Penix? ;(

Der R580 wird mehr in der Pipeline haben und nicht mehr Pipelines. :biggrin:

"Unforunately, the R580 will not ship at the same time as R520."
Ja, sehr schade.

mapel110
2005-09-14, 18:55:10
Und du rennst ihm dann nach? ;D

ONT: btw, wärs ned besser gleich auf den R580 zu warten, denn dieser soll laut anandtech mehr clock UND mehr pipes haben und sogar schon lauffähig sein?
The roadmap also refers to R580, and that the card is working in-house at the moment. R580 is essentailly a clock ramp and pipe ramp of R520, but both of those details have not been disclosed yet (even to AIBs). Unforunately, the R580 will not ship at the same time as R520.

Macht Anand immer so viele Tippfehler?! :|

Selbst wenn Anand Infos hat über R580, dann hätten sie schon was verraten, wenn sie nur von Clock Ramp gesprochen hätten. Und das dürfen sie laut eigenere Aussage noch nicht. :)

Coda
2005-09-14, 19:19:40
R580 wird auch nicht mehr Quads haben.

Ich weiß aber echt nicht was R520 reißen soll. Das Ding hat weniger Füllrate und weniger Shaderleistung als G70 :|

deekey777
2005-09-14, 20:14:40
...

Ich weiß aber echt nicht was R520 reißen soll. Das Ding hat weniger Füllrate und weniger Shaderleistung als G70 :|

Du zweifelst wieder an der Macht. Und ATi hat die Macht.
http://www.theinq.com/?article=26168 :ulol:

mapel110
2005-09-14, 20:20:04
Du zweifelst wieder an der Macht. Und ATi hat die Macht.
http://www.theinq.com/?article=26168 :ulol:
We don't know all the details but we believe that 512 bit memory controller can help you to use less chips on your board. I believe that you don’t have enough interconnections on the PCB to take the full advantage of 512 bit memory controller.

hrhr, sehr abenteuerlich. BUT WE BELIEVE. YES WE DO. :massa:

Tomcat70
2005-09-14, 20:30:18
was is das nun wieder?:

http://www.x800gt.com/xxx/

Majestic
2005-09-14, 20:34:16
was is das nun wieder?:

http://www.x800gt.com/xxx/

Vielleicht kommt jetzt noch ne X800GTL, GTA, GTD, G.... Der Schrott muß raus :hammer:

Juerg
2005-09-14, 20:35:03
was is das nun wieder?:

http://www.x800gt.com/xxx/Triple-X X=Cross dreifach-Crossfire :confused: :biggrin:

dargo
2005-09-14, 20:41:33
was is das nun wieder?:

http://www.x800gt.com/xxx/
Gehts da nicht um die X800GTO ?

-error-
2005-09-14, 21:01:06
Interessant sind noch die Angaben der Kollegen, dass die Pro in voll ausgebauter Form knapp 40 Watt und die XT zirka 55 bis 60 Watt verbrauchen soll.

Ist aber ehrlich gesagt keine Überraschung, da im Netzteiltest von der CT stand, dass ATI davon ausgeht, dass die Stromaufnahme fallen wird, oder konstant bleibt, nicht aber weiter steigt :)

-error-
2005-09-14, 21:03:59
Vielleicht kommt jetzt noch ne X800GTL, GTA, GTD, G.... Der Schrott muß raus :hammer:

Hmm, ich glaube es geht um Freischaltung der Pixelpipelines, irgendjemand hat da wohl den Durchbruch geschafft.

deekey777
2005-09-14, 21:26:26
Gehts da nicht um die X800GTO ?

Doch. :biggrin:
http://www.theinquirer.net/?article=26126
Ich warte lieber auf die XI600.

Tomcat70
2005-09-14, 21:36:29
Gehts da nicht um die X800GTO ?

sieht irgendwie eher wie eine testwebsite aus, vielleicht probelauf für den X1x00-launch. keine ahnung....

Enterprise
2005-09-14, 21:56:19
http://digitimes.com/news/a20050914A7037.html

Denen gehts wohl nicht gut^^

Redneck
2005-09-14, 22:10:47
>http://digitimes.com/news/a20050914A7037.html

>Denen gehts wohl nicht gut^^

eines ist jedenfalls sicher.... die haben nicht von Anand abgepinselt http://www.forum-3dcenter.org/vbulletin/newreply.php#
Wink

deekey777
2005-09-14, 22:14:20
ATi R520 Core Revisions (http://www.vr-zone.com/?i=2692&s=1)
Faule Ausreden.
:|

Iwan
2005-09-14, 22:20:03
ATi R520 Core Revisions (http://www.vr-zone.com/?i=2692&s=1)
Faule Ausreden.
:|

wenn jetzt schon vr-zone als verfechter eines 24pipe-r520 nur 16pipe für den r520 angibt, dann kann man das jetzt als fakt ansehndas er nur 16pipes haben wird.

Ronny145
2005-09-14, 22:22:17
ATi R520 Core Revisions (http://www.vr-zone.com/?i=2692&s=1)
Faule Ausreden.
:|


Jetzt sollten es auch die letzten Zweifler einsehen.

cR@b
2005-09-14, 22:41:08
wenn jetzt schon vr-zone als verfechter eines 24pipe-r520 nur 16pipe für den r520 angibt, dann kann man das jetzt als fakt ansehndas er nur 16pipes haben wird.


:( man wird der R520 floppen ... der Flop des Jahres 2005 :D Das wars dann also mit ATi, werden jetzt wohl nur noch rote Zahlen schreiben ?! Egal was man wählt, ob Grün oder Rot... beide sind teuer und bringen nicht viel mehr, hihi.

Warte lieber die nächste Generation ab. Das einzigste mit was ATi noch trumpfen könnten, wäre all ihre Karten auch in AGP-Version anzubieten hrhr

Xmas
2005-09-14, 23:17:13
Hilf mir mal auf die Beine hier, denn ein paar alte Dokumente erwaehnen eher "entweder/oder".
Die müssen aber sehr alt sein. Schon in den ersten geleakten Specs die ich sah gab es in dieser Hinsicht keine Limitierung. Und woher dies stammt, dürftest du wissen:
The ROP's are fully orthogonal so Multi-Sampling can operate with all pixel formats supported.

Dumme Frage: kann man das Zeug intern irgendwie auch komprimieren?
Das würde sich nicht lohnen. Wir reden immer noch von einem relativ kleinen On-Chip-Tilebuffer. Die entsprechende Komprimierungslogik würde wahrscheinlich komplexer ausfallen als eine entsprechende Vergrößerung des Tilebuffers. Das heißt aber nicht, dass man sich die einfacheren Pixelformate spart und gleich alles mit FP32 speichert.

up¦²
2005-09-15, 00:00:25
BTW: :biggrin:
R520, Radeon X1800 has 512 bit internal memory controller

Can use 512 Mbit chips


By Fuad Abazovic: woensdag 14 september 2005, 18:48

THE MEMORY controller was among the last surprises about Radeon X1800 cards or the chip that we knew as R520 or its nick name "Fudo".
ATI managed to make some kind of internal 512 bit controller that will enable them to use 512 bit memory. This memory is available at Samsung and ATI prototype showed here is using those 1600 MHz 512 Mbit chips. You can find some additional details about this memory here.

Geforce 7800 GTX and all Nvidia 6800 generation cards are using 256 bit memory and 256 bit memory controller so this kind of comes as a surprise to us. ATI won't be able to take the full advantage of 512 bit memory and that the memory will operate as a 256 memory but will save some cost to ATI.

We don't know all the details but we believe that 512 bit memory controller can help you to use less chips on your board. I believe that you don’t have enough interconnections on the PCB to take the full advantage of 512 bit memory controller.

As top range Radeon X1800XT is going to be launched as 600 / 1400 MHz card we believe that there will be much overclocking headroom as this memory is actually specified to work at 1600 MHz. it still won't save ATI for having limited availability of those super high end parts. µ

http://www.theinquirer.net/?article=26168

Sorry, aber ich konnte es nicht lassen ... :tongue:

robbitop
2005-09-15, 00:02:46
R580 wird auch nicht mehr Quads haben.

Ich weiß aber echt nicht was R520 reißen soll. Das Ding hat weniger Füllrate und weniger Shaderleistung als G70 :|
War doch klar. Sonst gäbe es diese Verspätung nicht (das krampfhafte Getakte von ATI senkte die Yields ... erinnert mich an die Taktungsverspätung des NV30).
Gegen R580 wird G80 antreten, dann auch mit 90nm. Ergo wird man ohne Taktvorteil mit nur 4 Quads dann ähnlich darstehen wie jetzt (IMO).

mapel110
2005-09-15, 00:08:17
BTW: :biggrin:


http://www.theinquirer.net/?article=26168

Sorry, aber ich konnte es nicht lassen ... :tongue:
Wenigstens die aktuelle Threadseite 430 könnte man sich vor dem Posten anschauen. :tongue:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3483391&postcount=8583
btw Texte komplett per Copy/Paste hierherholen ist nicht fein.
War doch klar. Sonst gäbe es diese Verspätung nicht (das krampfhafte Getakte von ATI senkte die Yields ... erinnert mich an die Taktungsverspätung des NV30).
Gegen R580 wird G80 antreten, dann auch mit 90nm. Ergo wird man ohne Taktvorteil mit nur 4 Quads dann ähnlich darstehen wie jetzt (IMO).
Beim NV30 lag es doch imo doch eher am neuen Fertigungspozess, den TSMC nicht in den Griff bekam. Die Dustbuster-Edition sollte doch keinen Respin benötigt haben?! Und die 5800 Non-Ultra sah mir nach dem eigentlichen, geplanten Spitzenmodell aus.

mbee
2005-09-15, 00:19:27
Jetzt sollten es auch die letzten Zweifler einsehen.


Hach, das läßt mein "schlechtes Gewissen" bzw. meine Befürchtungen, etwas falsch gemacht zu haben aufgrund des Wechsels ins grüne Lager nach 2 Jahren ATI doch fast ganz verschwinden ;)

Die hätten sich IMO, was Crossfire angeht, auch wirklich ein wenig früher und mehr ins Zeug legen können: Man kann nur hoffen, dass sich das im Laufe der Zeit bzw. schnellstmöglich als ernsthafte Konkurrenz zu SLI etabliert und ATI auch finanziell die Kurve kriegt. Sollte Crossfire nicht aus den Puschen kommen, sehe ich nämlich trotz des R580 schwere Zeiten auf ATI zukommen.

up¦²
2005-09-15, 00:32:13
@mapel110/deekey777 alles klar, sorry :redface:

Ailuros
2005-09-15, 01:21:04
War doch klar. Sonst gäbe es diese Verspätung nicht (das krampfhafte Getakte von ATI senkte die Yields ... erinnert mich an die Taktungsverspätung des NV30).
Gegen R580 wird G80 antreten, dann auch mit 90nm. Ergo wird man ohne Taktvorteil mit nur 4 Quads dann ähnlich darstehen wie jetzt (IMO).

Ich weiss zwar nicht ob RSX tatsaechlich 6 quads hat, aber lass mich mal von der Tatsache ausgehen. Ergo 48 fragment shaders * 550MHz = 26400 fragments/s.

Ich zaehle aber auch auf R580 insgesamt 48; wenn ich von der Frequenz des R520 ausgehe, sollten noch hoehere Taktraten kein Problem sein.

Ailuros
2005-09-15, 01:27:46
Sollte Crossfire nicht aus den Puschen kommen, sehe ich nämlich trotz des R580 schwere Zeiten auf ATI zukommen.

IMO auf keinen Fall so schwer wie NV es mit der NV3x Linie hatte und selbst da hat NV es in Null komma nichts verschmerzt. R5xx wird sehr konkurrenzfaehig sein was die Leistung betrifft, NV3x waren -egal wie man es verdreht- Leistungsmaessig ihrer Konkurrenz um einiges unterlegen (und ja egal aus welchen Gruenden). Nur eben nicht der "G70-Killer" den viele erwartet haben.

Ich weiss gar nicht wie oft ich erwaehnt habe dass NV keine Ultra geplant hat. Den single-slot Vorteil wollte NV wohl nicht so einfach verscherpeln und es macht auch absoluten Sinn; noch mehr wenn man multi-GPU Systeme bauen will.

seahawk
2005-09-15, 08:02:09
Es entspricht ja eigentlich aich der Tatsache, dass seit der 8500 gegen de GeForce 3 bei Hersteller immer mehr oder weniger nahe beeinnander lagen. ATI hatte Porbleme gege ndie GeForce 4, NV gegen den R300. Absolute KillerGPUs darf man nicht erwarten, wenn nicht einer der beiden einen groben Fehler macht.

robbitop
2005-09-15, 11:22:04
Beim NV30 lag es doch imo doch eher am neuen Fertigungspozess, den TSMC nicht in den Griff bekam. Die Dustbuster-Edition sollte doch keinen Respin benötigt haben?! Und die 5800 Non-Ultra sah mir nach dem eigentlichen, geplanten Spitzenmodell aus.
NV30 war ursprünglich für 400MHz und weniger Transistoren geplant (AFAIK).
Als man erfuhr, wie stark R300 war, musste laut Rumors ein Respin her, mit deutlich mehr Massetransistoren, damit man wenigstens etw mehr über den Takt machen kann. Natürlich wird R520 nicht annähernd so grottig wie NV30, doch ich sehe eine Analogie. Man benötigt hohe Taktraten um konkurenzfähig zu sein, höhere als man dachte...


Ich weiss zwar nicht ob RSX tatsaechlich 6 quads hat, aber lass mich mal von der Tatsache ausgehen. Ergo 48 fragment shaders * 550MHz = 26400 fragments/s.

Ich zaehle aber auch auf R580 insgesamt 48; wenn ich von der Frequenz des R520 ausgehe, sollten noch hoehere Taktraten kein Problem sein.
Naja RSX kommt in eine Konsole, also muss man auf Yields und Wärmeentwicklung sehr stark achtgeben. Im PC Sektor mit vorhandener Konkurenz sieht das anders aus. Da wird man das gute Stück hoch genug takten können. Ein G70 @90nm mit >= ~600MHz mit 6 Quads sollte genügen, damit R580 nicht gefährlich wird.
Aktuell kann ATI beim R520 durch einen besseren Fertigungsprozess ja mit höheren Taktraten auflaufen. Zum G80 entschwindet dieser Vorteil.
Natürlich wird NV nicht an die Grenzen des Prozesses gehen. Das werden sie nicht müssen. Lieber etw bessere Yields und nicht ganz so einen großen Vorsprung (IMO alles).

robbitop
2005-09-15, 11:22:59
Es entspricht ja eigentlich aich der Tatsache, dass seit der 8500 gegen de GeForce 3 bei Hersteller immer mehr oder weniger nahe beeinnander lagen. ATI hatte Porbleme gege ndie GeForce 4, NV gegen den R300. Absolute KillerGPUs darf man nicht erwarten, wenn nicht einer der beiden einen groben Fehler macht.
So wie NV30 und vieleicht auch R5xx? ;)
Beide mit geringerer Anzahl an Pipelines.

mapel110
2005-09-15, 11:23:26
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=248662
Die Diskussion um die älteren Generationen hab ich mal rausgesplittet.

seahawk
2005-09-15, 11:33:44
So wie NV30 und vieleicht auch R5xx? ;)
Beide mit geringerer Anzahl an Pipelines.

Glaube ich nicht. De R520 paßt schon.

micki
2005-09-15, 12:32:11
Das ist kein Meinungsstreit, weil 1Hz = 1/s. Wenn du sagst 1mul/Hz bedeutet das, 1mul*s, d.h. das Ding würde nicht pro Cycle ein Mul ausführen, sondern pro Sekunde. Sinnvoll? Hertz ist die Frequenz und hat in diesem Zusammenhang absolut nichts verloren.
schade dass du meine erklärung nicht verstanden hast, dass es nicht um einheitendrehen, sondern eine geläufige umschreibung von cycles geht.


G70 wird auch mit FP32 mehr Shaderleistung als R520 haben, d.h. es spielt eigentlich keine Rolle.
es geht aber nicht um g70 vs r520, sondern fp16 vs fp32. und fp16 ist schneller. aber du darfst mir gerne sagen, aus welchem grund, außer performancegewinn, nv fp16 supported?

MfG
micki

HOT
2005-09-15, 12:46:39
Die Pipeline des NV40 rechnet doch eh immer FP32, oder? Ganz schön dreist da von Performancegewinnen zu sprechen :D
FP16 ist relevant für SM2.0 aber doch nicht für SM3.0 oder gar 4.0.

mapel110
2005-09-15, 12:46:47
aber du darfst mir gerne sagen, aus welchem grund, außer performancegewinn, nv fp16 supported?

MfG
micki
Um Transistoren zu sparen.

Gaestle
2005-09-15, 13:55:15
'Tschuldigung für Crossposting und OT, aber ich findes es wichtig.


hi-end cpus und hi-end gpus kann man durchaus schön vergleichen was das preisverhältnis in relation zum käuferverhalten und den minimalen marktanteil betrifft [...]

Was das Preis/Leistungsverhaeltnis-Verhaeltnis betrifft aber nicht.

Wenn ich als Spieler z.B. entweder 300 oder 600 euro in eine GPU investiere dann bekomm ich auch bis zu doppelt so hohe Leistung; nehme ich jetzt aber eine aehnliche parallele mit einer 300 und einer 600 euro CPU, bin ich um einiges weiter entfernt von der Leistungssteigerung bei GPUs.

Nettes Beispiel:

http://www.pricewatch.com/prc.aspx?i=3&a=272402

http://www.pricewatch.com/prc.aspx?i=3&a=130888

Die enthaltenen Links beziehen sich auf einen A64 4000+ für ca. 350€ und einen FX55 für etwa 750€...



du vergleichst mainstream mit hi-end. ich rede aber nur von hi-end.
im absolut obersten segment gibts nunmal keine 50% mehrleistung für genau dieselben 50% mehrpreis, sondern "immer weniger" mehrleistung zu "viel mehr" mehrpreis. siehe auch SLI bzw. crossfire. und die aussage gilt sowohl für cpus als auch gpus.
[...]

BTW: Es heißt High-End


Wie dem auch sei ich bekomme auf einem SLI/CF bis zu 85% mehr Leistung was ich aber nie und nimmer in Echtzeit als Spieler mit einem 4000+ vs. FX-"wasauchimmer" bekommen werde, trotz dem radikaleren Aufpreis fuer den letzten.
[...]

[...]
da fällt mir nur ein: thema verfehlt. sorry. um das gings überhaupt nicht.......
alles weitere hab ich zu dem thema bereits gesagt.
es ging um die preisregion ~300€ bei cpus.
z.b. den x2 3800+ im deutschland pc vi würde ich auch durchaus als aktuellen oberen mainstream bezeichnen.

Ich frage mich, wer hier was nicht kapiert hat, und vor allem, warum bzw. wo und mit welchem Argument AiL das Thema verfehlt haben soll....

Hochverehrtes Thommy-Kätzchen, da ja nun die bösen Gäste draußen sind, wäre ich Dir sehr dankbar, wenn Du es schaffen würdest, anderen nicht die Argumente zu verdrehen und nebenbei auch sinnlos auf die Füsse treten. Es handelt sich hierbei IMHO um ein hervorragendes Beispiel, wie Regs ohne zutun irgendwelcher Gäste die Diskussionskultur versauen.

Warum ich mich einmische? Nun, ich hab' ähnlich viel Plan wie Du, liebes Thommy-Kätzchen, und stelle deswegen an AiL auch gern ab und an eine Frage. Und ich ich finde es gut, wenn er mir als Fast-DAU auch 'ne sinnvolle Antwort gibt. Ich möchte diese Antworten von ihm auch in Zukunft nicht missen, bloß weil er aus Erfahrung gelernt hat, dass es ein verdammt undankbarer Job ist, Leuten, die keinen Plan haben (wie DU und ich), irgendwas zu erklären.

Dankeschön.


Weitere Diskussionen gern hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=10046&highlight=Diskussionskultur

Grüße

robbitop
2005-09-15, 13:56:46
Glaube ich nicht. De R520 paßt schon.
Ja sie wird konkurrenzfähig sein. Sonst wäre die Verspätung durch das Hochtakten auch nicht nötig gewesen.

Coda
2005-09-15, 14:26:25
schade dass du meine erklärung nicht verstanden hast, dass es nicht um einheitendrehen, sondern eine geläufige umschreibung von cycles geht.Also ich habe das noch nie gehört. Wieso muss man andere verwirren?

es geht aber nicht um g70 vs r520, sondern fp16 vs fp32. und fp16 ist schneller. aber du darfst mir gerne sagen, aus welchem grund, außer performancegewinn, nv fp16 supported?FP16 ist nicht immer schneller. Aber bei NV40+ lohnt sich dieser Optimerungsaufwand für viele Entwickler eh nicht mehr (HL² benützt z.B. keine PP-Flags soweit ich weiß).

Die Pipeline des NV40 rechnet doch eh immer FP32, oder?Nein.

FP16 ist relevant für SM2.0 aber doch nicht für SM3.0 oder gar 4.0.Falsch. Auch in PS-3.0-Shadern kann man mit FP16 rechnen.

Um Transistoren zu sparen.Auch nicht. FP16 ist ja optional zu FP32, d.h. es braucht mehr Transistoren.

Tomcat70
2005-09-15, 14:44:14
Warum ich mich einmische? Nun, ich hab' ähnlich viel Plan wie Du, liebes Thommy-Kätzchen, und stelle deswegen an AiL auch gern ab und an eine Frage. Und ich ich finde es gut, wenn er mir als Fast-DAU auch 'ne sinnvolle Antwort gibt. Ich möchte diese Antworten von ihm auch in Zukunft nicht missen, bloß weil er aus Erfahrung gelernt hat, dass es ein verdammt undankbarer Job ist, Leuten, die keinen Plan haben (wie DU und ich), irgendwas zu erklären.

Dankeschön.

Grüße


erstens: ist hi-end eine abkürzung für high-end.....was soll die unnötige/unrichtige anmerkung btw?

zweitens: jemand der sich einer gewissen diskussionskultur brüstet und dann laufend statt tomcat "thommy-kätzchen" oder ähnliches schreibt handelt wider seines anspruchs. ich seh es zwar keineswegs als beleidigung, aber deine absicht dahinter zählt.

drittens: zum eigentlichen thema solltest du dir vielleicht genauer lesen wie das thema aufkam und was ich dazu alles gepostet habe, dann verstehst du eventuell worum es dabei ging (anmerkung: eigenliches thema war die extrem abfallende preis/leistungs-verhältnis-kurve innerhalb eines segments, im speziellen im hi-end des jeweiligen segments, prinzipiell gültig bei jeglicher pc-hardware, sei es cpu, gpu, ram, harddisk, etc.. es ging nicht darum welche investition sinnvoller sei). Ailuros ist für mich weder ein genie noch ein dummkopf, ich hab keinerlei persönlichen bezug zu ihm, halte aber seine meinung für genauso wertvoll wie die von 95% der user dieses forums.

BlackBirdSR
2005-09-15, 15:26:03
Also ich habe das noch nie gehört. Wieso muss man andere verwirren?

FP16 ist nicht immer schneller. Aber bei NV40+ lohnt sich dieser Optimerungsaufwand für viele Entwickler eh nicht mehr (HL² benützt z.B. keine PP-Flags soweit ich weiß).

Nein.

Falsch. Auch in PS-3.0-Shadern kann man mit FP16 rechnen.

Auch nicht. FP16 ist ja optional zu FP32, d.h. es braucht mehr Transistoren.

Ich dachte bisher immer, dass alle Einheiten und Register die mit FP32 arbeiten, auch genauso FP16 vetragen.
Die Präzision halt einfach geringer ist, aber sonst kein extra Aufwand getrieben werden muss?

Quasar
2005-09-15, 15:43:17
Die müssen aber sehr alt sein. Schon in den ersten geleakten Specs die ich sah gab es in dieser Hinsicht keine Limitierung. Und woher dies stammt, dürftest du wissen:
Einige der Videos, die in letzter Zeit für die XBox 360 auftauchten, bsw. Unreal 2007 (oder wie das hiess) und Gears of War, zeigten aber definitiv Aliasing-Erscheinungen, die mit aktivem AA so nicht hätten sein dürfen.

Ich wundere mich gerade selbst darüber.

Enterprise
2005-09-15, 16:01:43
Wie kommts eigentlich das der G70 nicht so einen Hammerlangen Thread hatte?

deekey777
2005-09-15, 16:02:50
Wie kommts eigentlich das der G70 nicht so einen Hammerlangen Thread hatte?

Hatte er - relativ gesehen.

Coda
2005-09-15, 16:07:16
Einige der Videos, die in letzter Zeit für die XBox 360 auftauchten, bsw. Unreal 2007 (oder wie das hiess) und Gears of War, zeigten aber definitiv Aliasing-Erscheinungen, die mit aktivem AA so nicht hätten sein dürfen.

Ich wundere mich gerade selbst darüber.Kann ja sehr gut sein, dass das noch auf einem G70-PC gefilmt wurde.

Wie kommts eigentlich das der G70 nicht so einen Hammerlangen Thread hatte?Erstens war nicht ganz soviel Müll im Umlauf wie bei R520 und zweitens hat er sich nicht so stark verschoben.

Ich dachte bisher immer, dass alle Einheiten und Register die mit FP32 arbeiten, auch genauso FP16 vetragen.
Die Präzision halt einfach geringer ist, aber sonst kein extra Aufwand getrieben werden muss?Also erstmal ist für FP16 natürlich zusätzliche Kontrollogik nötig, aber Aths sagt auch, dass erstmal alles mit FP32 gerechnet wird und danach auf FP16 konvertiert bevor es in die Register kommt. D.h. dafür braucht man auch nochmal Transistoren.

Quasar
2005-09-15, 17:14:35
Kann ja sehr gut sein, dass das noch auf einem G70-PC gefilmt wurde.
Möglich, aber hatten die Dev-Kits für die Xbox 360 wirklich einen G70 drin?

Coda
2005-09-15, 17:19:43
Nein eigentlich nen R480 soweit ich weiß. Aber EPIC hat die Unreal Engine 3 ja auf dem PC entwickelt.

mapel110
2005-09-15, 17:22:34
Also erstmal ist für FP16 natürlich zusätzliche Kontrollogik nötig, aber Aths sagt auch, dass erstmal alles mit FP32 gerechnet wird und danach auf FP16 konvertiert bevor es in die Register kommt. D.h. dafür braucht man auch nochmal Transistoren.
Aber offenbar ist das günstiger als genügend Temp Register für FP32 zur Verfügung zu stellen, was den Transistorcount angeht.

Coda
2005-09-15, 17:24:29
Was heißt hier "nicht genügend". NV40/G70 sind auch mit FP32 Shadern sehr schnell.

mapel110
2005-09-15, 17:26:34
Was heißt hier "nicht genügend". NV40/G70 sind auch mit FP32 Shadern sehr schnell.
Ja, aber beim NV30 war das offenbar nicht der Fall. Und deswegen eben FP16 mit ein bisschen FP32, damit man nicht soviele Transistoren für vollen FP32-Speed brauchte.

dargo
2005-09-15, 17:49:28
Wie kommts eigentlich das der G70 nicht so einen Hammerlangen Thread hatte?
Weil er rechtzeitig erschienen ist. :D

micki
2005-09-15, 17:54:44
Also ich habe das noch nie gehört. Wieso muss man andere verwirren?
ich höre das seit 20jahren und bin sicherlich nicht derjenige der sich das ausgedacht hat ;)


FP16 ist nicht immer schneller. Aber bei NV40+ lohnt sich dieser Optimerungsaufwand für viele Entwickler eh nicht mehr (HL² benützt z.B. keine PP-Flags soweit ich weiß).
ach komm, wir beide sind doch nicht naiv, oder? .... dann wissen wir doch wer ein paar mille dafür hingeleg hat, damit es auf ihren grakas schneller läuft.

Um Transistoren zu sparen.
kommt wohl auf die sichtweise an. fp16+fp32 braucht natürlich mehr transistoren als pure fp32 (wenn man also fp16 einfach nur weglässt). aber wenn man mit fp32 genausoviel performance haben wollen würde, wie mit fp16+fp32, bräuchte man natürlich mehr transistoren als mit dem fp16+fp32-mix.
was aber im endeffekt nur aussagt, dass fp16 mit integriert wurde um mehr performance zu haben, also genau meine behauptung.

oder hab ich deinen kurzen satz falsch verstanden? wenn ja, bitte um erklärung, aus einem einzigen satz werd ich sonst nicht schlauer ;)

MfG
micki

MikBach
2005-09-15, 18:06:33
ich höre das seit 20jahren und bin sicherlich nicht derjenige der sich das ausgedacht hat ;)


ach komm, wir beide sind doch nicht naiv, oder? .... dann wissen wir doch wer ein paar mille dafür hingeleg hat, damit es auf ihren grakas schneller läuft.


kommt wohl auf die sichtweise an. fp16+fp32 braucht natürlich mehr transistoren als pure fp32 (wenn man also fp16 einfach nur weglässt). aber wenn man mit fp32 genausoviel performance haben wollen würde, wie mit fp16+fp32, bräuchte man natürlich mehr transistoren als mit dem fp16+fp32-mix.
was aber im endeffekt nur aussagt, dass fp16 mit integriert wurde um mehr performance zu haben, also genau meine behauptung.

oder hab ich deinen kurzen satz falsch verstanden? wenn ja, bitte um erklärung, aus einem einzigen satz werd ich sonst nicht schlauer ;)

MfG
micki
Das sehe ich auch so.
Es wäre sinnlos FP16 einzubauen, wenn FP32 die gleiche Leistung bringen würde.

Coda
2005-09-15, 18:06:58
ach komm, wir beide sind doch nicht naiv, oder? .... dann wissen wir doch wer ein paar mille dafür hingeleg hat, damit es auf ihren grakas schneller läuft.Es gibt auch noch genügend andere Beispiele.

aths
2005-09-15, 18:59:22
Die Pipeline des NV40 rechnet doch eh immer FP32, oder? Ganz schön dreist da von Performancegewinnen zu sprechen :D
FP16 ist relevant für SM2.0 aber doch nicht für SM3.0 oder gar 4.0.SM4 wird es so wohl nicht geben. In SM3 ist FP16 durchaus erlaubt, wenn im Shader die PP-Flags gesetzt sind. Der Performancegewinn durch FP16 kommt zustande, dass einige Operationen (Vektor-Normalisierung, sowie eine bestimmte Operation beim Fogging) in FP16 dank Extra-Einheiten "kostenlos" sind, und dass FP16-Register weniger Platz verbrauchen. Je mehr Werte man zwischenspeichern kann, umso besser die Auslastung der Pipeline.

aths
2005-09-15, 19:07:15
Aber offenbar ist das günstiger als genügend Temp Register für FP32 zur Verfügung zu stellen, was den Transistorcount angeht.Von FP32 auf FP16 zu kürzen ist kein großes Problem. (Auf Inf prüfen, ansonsten Mantisse und Exponenten kürzen.) Von FP16 auf FP32 zu expandieren ist noch einfacher. Angeblich unterstützt auch der G70 bei FP16 noch Denorms, dann wird es ein wenig aufwändiger, da der Denorm-Sonderfall speziell behandelt werden muss (gilt für die Umwandlung in beide Richtungen.) Aber nur mit Denorms kann man den mit FP16 möglichen Dynamik-Umfang voll ausnutzen. (FP32 bietet auch ohne Denorms eine deutlich höhere Dynamik als FP16, so dass sie bei FP32 nicht unterstützt werden.)

Ob im G70 alle Datenpfade für FP32 ausgelegt sind, weiß ich nicht. Beim NV40 scheint es mir noch nicht so.

Normalenvektoren kommen meistens mit 8 Bit Genauigkeit pro Komponente. NRM_PP ist da sozusagen schon "zu" genau. Dass zusätzliche NRM-Einheit nur in FP16 rechnet, ist also kein Problem.

3d
2005-09-15, 22:46:48
was sagt ihr denn zu der x technologie?
hat man bis jetzt noch nix von gehört.
ist die technik nichts besonderes oder hat der r520 es gar nicht?
ich hab früher mal gelesen der r520 soll es haben.
(also daß leiterbahnen auch quer gezogen werden)

Enterprise
2005-09-15, 22:52:26
Wisst ihr wieso Einstein seine Relativitättherorie nach ATi bestimmt hat?

mapel110
2005-09-15, 22:56:10
was sagt ihr denn zu der x technologie?
hat man bis jetzt noch nix von gehört.
ist die technik nichts besonderes oder hat der r520 es gar nicht?
ich hab früher mal gelesen der r520 soll es haben.
(also daß leiterbahnen auch quer gezogen werden)
Es wurde damals spekuliert, dass die neuen Mid Range Produkte von ATI sowas haben werden. Aber seit dem gabs dazu keine neuen News bzw Gerüchte dazu.

Enterprise
2005-09-15, 22:56:56
Er war relativ begeistert von ihnen.

Demirug
2005-09-15, 23:00:17
SM4 wird es so wohl nicht geben.

Doch es gibt SM4 aber nicht für DX9/WGF1. Habe hier gerade die neusten Infos von der PDC vor mir.

Coda
2005-09-15, 23:32:02
Doch es gibt SM4 aber nicht für DX9/WGF1. Habe hier gerade die neusten Infos von der PDC vor mir.Gibt's auch Details?

mrt
2005-09-15, 23:46:40
Longhorn only?

Coda
2005-09-15, 23:52:28
Das sowieso. Das neue Treibermodell funktioniert nicht mit XP.

mindfaq
2005-09-16, 00:30:37
Ist ja so gut wie nix los hier, seit die Gäste nicht mehr mitdiskutieren dürfen. :(

mrt
2005-09-16, 00:31:34
Was ja nich unbedingt heißen muss dass es kein DX10 für XP gibt.
Gab ja mal ein paar Gerüchte in die Richtung.

Coda
2005-09-16, 00:34:02
Was ja nich unbedingt heißen muss dass es kein DX10 für XP gibt.
Gab ja mal ein paar Gerüchte in die Richtung.Kannst du mit Sicherheit vergessen. Alle Dokumente von MS die pulbiziert wurden sagen, dass WGF 2 Longhorn-only ist.

Ist ja so gut wie nix los hier, seit die Gäste nicht mehr mitdiskutieren dürfen.Sieh dir mal den Thread durch. Es gibt sehr wenige Gast-Postings.

deekey777
2005-09-16, 00:37:15
Ist ja so gut wie nix los hier, seit die Gäste nicht mehr mitdiskutieren dürfen. :(

Hier ist eher deshalb nichts mehr los, seit der Quatsch mit 24 Pixelpipelines für Blödsinn erklärt wurde und jeder, der dies trotzdem postet, einen Schlag mit'ner Bratpfahne mitten in die Freße des Gaysichts riskiert. :uup:

Es gibt spätestens seit der Vorschau von Anandtech nichts mehr zu posten, was neu wäre und man darüber diskutieren würde. :)

mrt
2005-09-16, 01:07:20
Kannst du mit Sicherheit vergessen. Alle Dokumente von MS die pulbiziert wurden sagen, dass WGF 2 Longhorn-only ist.

Ich weiß :(
Aber die Hoffnung stirbt zuletzt...

Demirug
2005-09-16, 01:08:23
Gibt's auch Details?

Ja, allerdings nicht viel mehr als bisher bekannt war. Ich muss aber erst noch mit meinem Sponsor klären was ich davon für welche Kanäle nutzen kann.

Im großen und ganzen ist die Linie aber immer noch die gleiche wie schon auf der WinHEC.

Ailuros
2005-09-16, 03:23:28
Naja RSX kommt in eine Konsole, also muss man auf Yields und Wärmeentwicklung sehr stark achtgeben. Im PC Sektor mit vorhandener Konkurenz sieht das anders aus. Da wird man das gute Stück hoch genug takten können. Ein G70 @90nm mit >= ~600MHz mit 6 Quads sollte genügen, damit R580 nicht gefährlich wird.
Aktuell kann ATI beim R520 durch einen besseren Fertigungsprozess ja mit höheren Taktraten auflaufen. Zum G80 entschwindet dieser Vorteil.
Natürlich wird NV nicht an die Grenzen des Prozesses gehen. Das werden sie nicht müssen. Lieber etw bessere Yields und nicht ganz so einen großen Vorsprung (IMO alles).

Und was garantiert mir momentan dass R580 nicht 650/800MHz sein koennte? Die Logik ist verdammt einfach: auf gleichem Herstellungsprozess ist eine hoehere Taktung wahrscheinlicher wenn man weniger Einheiten hat.

Wo genau verschwindet der Vorteil?

Ailuros
2005-09-16, 03:49:28
Hier ist eher deshalb nichts mehr los, seit der Quatsch mit 24 Pixelpipelines für Blödsinn erklärt wurde und jeder, der dies trotzdem postet, einen Schlag mit'ner Bratpfahne mitten in die Freße des Gaysichts riskiert. :uup:

Es gibt spätestens seit der Vorschau von Anandtech nichts mehr zu posten, was neu wäre und man darüber diskutieren würde. :)


Eigentlich wenn man so oft wie ich die Klappe aufmacht ueber solches Zeug, wird man in der Mehrzahl als Idiot oder Wichtigtuer deklassiert. Es waere um einiges leichter gewesen einfach still darueber zu sein und einfach im geheimen darueber zu kichern was ich gerade lese. Mein Glas ist aber zu voll geworden als ich Beweise bekam woher genau der 24/32p kommt und dieses war dann auch der Zeitpunkt wo mir das Ganze ganz schoen gestunken hat.

Es gibt noch viel mehr Einzelheiten ueber R520 die mir momentan bekannt sind aber erstens werden diese mit absoluter Sicherheit einen falschen Eindruck machen und zweitens wird es genug Debatten ueber diesen Mist nach der Veroeffentlichung geben.

Ehrlich gesagt mir ist schnuppe was jeder denkt oder sich vorstellt; wuerde ich das Zeug erwaehnen nur um Eindruecke zu gewinnen oder zum angeben, gaebe es noch viel mehr dass ich erwaehnen koennte. Weiterhin trage ich die volle Verantwortung fuer mein jegliches Geblubber und natuerlich auch meine zahlreichen Fehler oder Missverstaendnisse.

Uebrigens lache ich immer noch ueber den Spruch (ich kann mich bei bestem Willen wer ihn gepostet hat)....Arroganz ist die Kunst auf seine eigene Dummheit stolz zu sein ;) LOL. Es mag wohl sein dass ich in bei 3DCenter als irgendeine Art merkwuerdiger "Spekulations-Heini" ankomme, aber mein eigentliches Ziel war stets so viel wie moeglich Usern zu helfen, genauso wie mir zahllose von online "Freunden" geholfen haben und immer noch helfen.

Altruismus ist nur fuer diejenigen verstaendlich die auch etwas mit diesem Sport zu tun haben.

Die gelbe Eule
2005-09-16, 04:12:33
Hehe, ist schon lustig das wir als 16pipe Verfechter nun niedergemacht werden ;)


Es gibt noch viel mehr Einzelheiten ueber R520 die mir momentan bekannt sind aber erstens werden diese mit absoluter Sicherheit einen falschen Eindruck machen und zweitens wird es genug Debatten ueber diesen Mist nach der Veroeffentlichung geben.

Hört sich ja nicht gerade begeistert an ... ^^

Ailuros
2005-09-16, 04:43:33
Enttaeuschung ist es aber auch nicht. Eigentlich nur sinnlose Einzelheiten die IMO einen falschen Eindruck geben wuerden.

Der Durchschnitt zaehlt und das was hinten rauskommt, ueberhaupt fuer den Otto-Normal-Verbraucher ;)

***edit: edits fettgedruckt wie auch im vorigen Post.

mapel110
2005-09-16, 04:53:36
Enttaeuschung ist es aber auch nicht. Eigentlich nur sinnlose Einzelheiten die IMO einen falschen Eindruck geben wuerden.

Der Durchschnitt zaehlt und das was hinten rauskommt, ueberhaupt fuer den normalen Otto-Verbraucher ;)
Otto-Normal-Verbraucher

Arroganz ist die Kunst auf seine eigene Dummheit stolz zu sein.

Gibts eigentlich keine XT PE mehr? Hofft darauf keiner? Die fehlt doch in der Liste von Anand?!

Derzeit hoffe ich wenigstens darauf, dass die Mid Range Produkte von ATI gut verfügbar werden. Wenn dann von nvidia noch was in dem Bereich kommt, lohnt sich vielleicht ein "Side-grade". :)

Die gelbe Eule
2005-09-16, 05:17:01
Enttaeuschung ist es aber auch nicht. Eigentlich nur sinnlose Einzelheiten die IMO einen falschen Eindruck geben wuerden.

Der Durchschnitt zaehlt und das was hinten rauskommt, ueberhaupt fuer den normalen Otto-Verbraucher ;)

Hmm dann sagen wir mal Ernüchterung. Oder grober ausgedrückt, ATI kocht auch nur mit Wasser und es ist nicht alles gold was bei ATI glänzt ;)

Ailuros
2005-09-16, 05:46:54
;)

Traxx
2005-09-16, 07:10:39
Hmm dann sagen wir mal Ernüchterung. Oder grober ausgedrückt, ATI kocht auch nur mit Wasser und es ist nicht alles gold was bei ATI glänzt ;)

Oder das Gold glänzt auch nicht aus jedem Winkel gleich...

Greetings
Traxx

HOT
2005-09-16, 07:26:22
Kannst du mit Sicherheit vergessen. Alle Dokumente von MS die pulbiziert wurden sagen, dass WGF 2 Longhorn-only ist.

Sieh dir mal den Thread durch. Es gibt sehr wenige Gast-Postings.

Das mag zwar stimmen, jedoch kann ich mir nicht vorstellen, dass die IHVs damit einverstanden sind. Ich denke doch, dass es eine Kompromisslösung geben wird.

Ailuros
2005-09-16, 07:32:13
Das mag zwar stimmen, jedoch kann ich mir nicht vorstellen, dass die IHVs damit einverstanden sind. Ich denke doch, dass es eine Kompromisslösung geben wird.

Was fuer eine Kompromiss-loesung? WGF2.0 frueher als Windows Vista? Wozu denn ueberhaupt? Den IHVs ist es lieber wenn Vista Ende 2006 kommt.

Beide IHVs haben noch ein DX9.0 high end Produkt fuer ~Anfang 2006 geplant und ATI will auch ein bisschen was einkassieren von der SM3.0 Produkt-linie bis R600 erscheint.

Ailuros
2005-09-16, 07:33:46
Derzeit hoffe ich wenigstens darauf, dass die Mid Range Produkte von ATI gut verfügbar werden. Wenn dann von nvidia noch was in dem Bereich kommt, lohnt sich vielleicht ein "Side-grade". :)

Keine Ahnung, aber RV530 hatte auch ein "soft-ground" Problem.

robbitop
2005-09-16, 11:15:41
Und was garantiert mir momentan dass R580 nicht 650/800MHz sein koennte? Die Logik ist verdammt einfach: auf gleichem Herstellungsprozess ist eine hoehere Taktung wahrscheinlicher wenn man weniger Einheiten hat.

Wo genau verschwindet der Vorteil?
Der mögliche Takt eines ASIC ist abhängig vom Design und vom Fertigungsprozess. Nicht jedoch (zumindist nicht direkt) von der Anzahl der Transistoren. Beides beeinflußt lediglich den Yield. (wir haben das Thema nun schon zich mal durchgekaut und die urban legend stirbt nicht aus.
Bestes Bsp: R3xx hatte nie einen Taktnachteil ggü NV25 trotz 2x Transistorenanzahl.)
Ich würde nicht sagen, dass G70 ein schlecht taktbares Design hat. Aber irgendwo hat jeder Prozess seine Grenzen.
@90nm wird NV hoch genug takten können denke ich. ATI scheint ja beim R520 auch nicht mehr als 600MHz rausholen zu können, jedenfalls nicht ohne 3 Respins und verdammt geringe Yields. Ein aufgebohrtes Design kann dort nochmal etwas holen, aber IMO nicht viel. Die 600MHz sollte G80 @90nm wirklich holen können. Und dann braucht es 900MHz um damit von der Füllrate her gleichzuziehen. Von der der Aritmetik ist sicher deutlich weniger Mehrtakt nötig.

BlackBirdSR
2005-09-16, 12:00:18
Der mögliche Takt eines ASIC ist abhängig vom Design und vom Fertigungsprozess. Nicht jedoch (zumindist nicht direkt) von der Anzahl der Transistoren. Beides beeinflußt lediglich den Yield.

Du musst hier schwer differenzieren zwischen der Yield der Chips hinsichtlich der Defekte und dem Yield nach dem Binning der Chips.

Mehr Transistoren benötigen mehr und stärkere Treiber, das Taktsignal verbraucht mehr Saft, Signalwege werden kritischer und das Routing komlplizierter. Der Chip benötigt höhere Spannung und es laufen insgesamt mehr Ampere durch den Chip. Das Alles kann!! dazu beitragen, dass der Chip am Ende weniger Takt erreicht als geplant. Damit fällt er beim Binning durch und drückt die Yields.
Deswegen bringt es auch gar nichts, von 24pp (6 Quads oder was auch immer) einen Teil zu deaktivieren, um einen höheren Takt zu erreichen.
Das geht in dieser Hinsicht nur, wenn man die Anzhal an Transistoren verringert

Omega2
2005-09-16, 12:45:12
Hiho,

ich bin Otto Normaluser.
80% der Themen, die in diesem Thread angesprochen wurden, verstehe ich noch nicht mal im Ansatz. ;)

Was mich allerdings interessieren würde ist folgendes:

Ein R520 mit 16Pipes, gefertigt in 90nm, kann!? also bei 650 MHz mit der 7800GTX mithalten.
Wenn dem so sein sollte, warum geht Nvidia dann hin und treibt den erhöhten Aufwand 24Pipes bei 110nm?

Liegt es nur daran, daß sie "zu früh" den NV70 aufgelegt habe und deswegen noch nicht in 90nm fertigen konnten, oder verfolgen die schlichtweg eine ganz andere Strategie als ATI?

Wenn ersteres der Fall sein sollte, dann stelle ich mir gleich die nächste Frage. Warum haben die dann nicht den NV70 so lange weiterentwickelt, bis er in 90nm zu fertigen ist? Dauert das so lange?
Immerhin ist z.Zt. die 6800er Reihe ein passables Teil und NV brauchte sich mit dem NV70 gar nicht so zu beeilen.

Sollte der zweite Teil meiner Frage mit ja beantwortet werden, dann frag ich mich, wo der Vorteil der verschiedenen Strategien liegt? Ist ATI smarter, weil sie gleich 90nm genommen haben und über den Takt die Pipelines einsparen oder ist NV smarter, weil die "brute Force" Methode schneller zu höherer Performance führt. Immerhin hat NV zur Zeit keinen Gegner zum NV70 auf dem Markt.

Fragen über Fragen..

Cu Omega

robbitop
2005-09-16, 12:45:15
Du musst hier schwer differenzieren zwischen der Yield der Chips hinsichtlich der Defekte und dem Yield nach dem Binning der Chips.

Mehr Transistoren benötigen mehr und stärkere Treiber, das Taktsignal verbraucht mehr Saft, Signalwege werden kritischer und das Routing komlplizierter. Der Chip benötigt höhere Spannung und es laufen insgesamt mehr Ampere durch den Chip. Das Alles kann!! dazu beitragen, dass der Chip am Ende weniger Takt erreicht als geplant. Damit fällt er beim Binning durch und drückt die Yields.
Deswegen bringt es auch gar nichts, von 24pp (6 Quads oder was auch immer) einen Teil zu deaktivieren, um einen höheren Takt zu erreichen.
Das geht in dieser Hinsicht nur, wenn man die Anzhal an Transistoren verringert
Das ist nichts anderes als was ich beschrieben habe (zugegeben ausführlicher, aber das wäre OT gewesen).
Letztendlich ist es nur ein indirekter Einfluß. Und dieser kann durch gewisse Mittel umgangen werden (mehr Spannung, Massetransistoren/Pins, guter Floorplan, passendes Design usw). Letztendlich ist es sicher aufwändiger einen großen hochtaktenden ASIC zu designen als einen kleinen. Aber das heißt nicht, dass die Transistoranzahl dem im Wege steht. R3xx zeigt es ja. Oder NV30. Oder sogar der P4.

robbitop
2005-09-16, 12:49:56
Hiho,

ich bin Otto Normaluser.
80% der Themen, die in diesem Thread angesprochen wurden, verstehe ich noch nicht mal im Ansatz. ;)

Was mich allerdings interessieren würde ist folgendes:

Ein R520 mit 16Pipes, gefertigt in 90nm, kann!? also bei 650 MHz mit der 7800GTX mithalten.
Wenn dem so sein sollte, warum geht Nvidia dann hin und treibt den erhöhten Aufwand 24Pipes bei 110nm?

Liegt es nur daran, daß sie "zu früh" den NV70 aufgelegt habe und deswegen noch nicht in 90nm fertigen konnten, oder verfolgen die schlichtweg eine ganz andere Strategie als ATI?

Wenn ersteres der Fall sein sollte, dann stelle ich mir gleich die nächste Frage. Warum haben die dann nicht den NV70 so lange weiterentwickelt, bis er in 90nm zu fertigen ist? Dauert das so lange?
Immerhin ist z.Zt. die 6800er Reihe ein passables Teil und NV brauchte sich mit dem NV70 gar nicht so zu beeilen.

Sollte der zweite Teil meiner Frage mit ja beantwortet werden, dann frag ich mich, wo der Vorteil der verschiedenen Strategien liegt? Ist ATI smarter, weil sie gleich 90nm genommen haben und über den Takt die Pipelines einsparen oder ist NV smarter, weil die "brute Force" Methode schneller zu höherer Performance führt. Immerhin hat NV zur Zeit keinen Gegner zum NV70 auf dem Markt.

Fragen über Fragen..

Cu Omega

110nm war deutlich unaufwändiger. 90nm war zu diesem Zeitpunkt einfach nicht ausgereift genug, um eine GPU schnell in Massen zu geplanten Yields und Taktraten auf den Markt drücken zu können. 110nm war da deutlich geeigneter. Der Prozess ist sehr ausgereift und wenn man auf den Launchtermin des G70 und die Verfügbarkeit schaut...eine hervoragende Entscheidung. Wann es R520XT in Massen zu kaufen gibt, ist IMO nicht wirklich kurzfristig absehbar.
NVidia ging diesemal die Strategie, die ATI damals ging. Kein Risiko eingehen, breite Architektur, hohe Verfügbarkeit. Das kann natürlich auch daneben gehen, wenn der neue Fertigungsprozess schon eher reif ist als man denkt und der Konkurrent den Vorteil nutzt. Siehe NV40 vs R420.

Im GPU Markt ist es einfach wichtig, eine hohe Verfügbarkeit zu gewährleisten und zu jedem Zyklus eine neue GPU auf den Markt zu werfen. Man sieht ja, dass das mit neusten Fertigungsverfahren nicht immer klappt.
Anscheinend war es die richtige Strategie.

ShadowXX
2005-09-16, 12:58:16
110nm war deutlich unaufwändiger. 90nm war zu diesem Zeitpunkt einfach nicht ausgereift genug, um eine GPU schnell in Massen zu geplanten Yields und Taktraten auf den Markt drücken zu können. 110nm war da deutlich geeigneter. Der Prozess ist sehr ausgereift und wenn man auf den Launchtermin des G70 und die Verfügbarkeit schaut...eine hervoragende Entscheidung. Wann es R520XT in Massen zu kaufen gibt, ist IMO nicht wirklich kurzfristig absehbar.
NVidia ging diesemal die Strategie, die ATI damals ging. Kein Risiko eingehen, breite Architektur, hohe Verfügbarkeit. Das kann natürlich auch daneben gehen, wenn der neue Fertigungsprozess schon eher reif ist als man denkt und der Konkurrent den Vorteil nutzt. Siehe NV40 vs R420.

Im GPU Markt ist es einfach wichtig, eine hohe Verfügbarkeit zu gewährleisten und zu jedem Zyklus eine neue GPU auf den Markt zu werfen. Man sieht ja, dass das mit neusten Fertigungsverfahren nicht immer klappt.
Anscheinend war es die richtige Strategie.

Dem würde ich noch hinzufügen, das eher die ATI-Stratiegie (16Pipes + hoher Takt) Brute-Force ist.

nV braucht nun für den G70 Nachfolger "nur" einem Die-Shrink auf 90nm machen und diesen dann mit 550 oder mehr MHz takten um Leistungsfähig genug zu bleiben.

ATI muss (wenn Sie nicht doch noch auf 24Pipes beim r580 gehen, wovon ich allerdings nicht ausgehe) stärker am Chips selbst "rumschrauben" (aka ALU-Effizens erhöhen), da großartige Takterhöhungen wohl nicht mehr drinne sein werden für r580.

BlackBirdSR
2005-09-16, 12:58:26
Das ist nichts anderes als was ich beschrieben habe (zugegeben ausführlicher, aber das wäre OT gewesen).
Letztendlich ist es nur ein indirekter Einfluß. Und dieser kann durch gewisse Mittel umgangen werden (mehr Spannung, Massetransistoren/Pins, guter Floorplan, passendes Design usw). Letztendlich ist es sicher aufwändiger einen großen hochtaktenden ASIC zu designen als einen kleinen. Aber das heißt nicht, dass die Transistoranzahl dem im Wege steht. R3xx zeigt es ja. Oder NV30. Oder sogar der P4.

Ob der Einfluss jetzt direkt oder indirekt ist, spielt doch keine größere Rolle.
Der Punkt ist, dass ein Chip mit einer höheren Anzhal an Transistoren sich schwerer auf hohen Takt bringen lässt. Damit sinken nunmal die Yields nach dem Binning.
Die Mittel die du beschreibst sorgen alle dafür, dass der Chip teurer wird.

Aber nur zum Verständnis: Wenn es schwieriger ist einen solchen Chip mit mehr Transistoren zu Designen, warum steht die Anzhal der Transistoren dann nicht im Weg?
Das ist so, als würde ich sagen, dass die Wärmeabgabe nicht im Weg steht, ihr kann man ja durch teure Mittel entgegenwirken.
Du kannst nicht an diesem Punkt festhalten.

Genausowenig mag ich hier den Vergleich mit dem R300.
Störfaktoren skalieren leider gar nicht linear mit. Und wenn 107 Millionen Transistoren bei 325MHz in 150nm noch realtiv einfach zu erreichen waren, muss das nicht heissen, dass man mit 250+ in 90nm plötzlich viel weniger Probleme damit hat, oder es genauso schwierig ist.
Es wird eher noch schwieriger.

Der Vergleich zum P4 hinkt etwas, da dessen Design ganz anders ist, und explizit auf hohen Takt ausgelegt ist. Ausserdem reden wir hier z.B nur von ca 60 Millionen Logitransistoren. Da sind R520 und G70 ja wirklich weit drüber.

BlackBirdSR
2005-09-16, 12:59:52
Ein R520 mit 16Pipes, gefertigt in 90nm, kann!? also bei 650 MHz mit der 7800GTX mithalten.
Wenn dem so sein sollte, warum geht Nvidia dann hin und treibt den erhöhten Aufwand 24Pipes bei 110nm?



Im Endeffekt hatte doch ATI den höheren Aufwand, und zwar um Einiges.
Die Entscheidung den NV zu optimieren und zu verbreitern war anscheinend die billigere und einfachere Entscheidung.

robbitop
2005-09-16, 14:16:44
Dem würde ich noch hinzufügen, das eher die ATI-Stratiegie (16Pipes + hoher Takt) Brute-Force ist.

nV braucht nun für den G70 Nachfolger "nur" einem Die-Shrink auf 90nm machen und diesen dann mit 550 oder mehr MHz takten um Leistungsfähig genug zu bleiben.

ATI muss (wenn Sie nicht doch noch auf 24Pipes beim r580 gehen, wovon ich allerdings nicht ausgehe) stärker am Chips selbst "rumschrauben" (aka ALU-Effizens erhöhen), da großartige Takterhöhungen wohl nicht mehr drinne sein werden für r580.
Wieso bruteforce?
Beim Rest full ack. Ich persönlich glaube nicht, dass ATI bis zum R600 mehr als konkurenzfähig sein wird. Sicher nicht so arg wie beim NV3x, jedoch ohne Tron eben.

Enterprise
2005-09-16, 14:25:27
Es wird doch desöfteren davon gesprochen, dass der R520 16 TMUs hat. HAt doch auch der R420 ! Eine TMU pro Pipe mal 16 Pipes ist doch das gleiche nur manchmal hört sich das eben seltsam bei eingigen an.

robbitop
2005-09-16, 14:27:43
Ob der Einfluss jetzt direkt oder indirekt ist, spielt doch keine größere Rolle.
Der Punkt ist, dass ein Chip mit einer höheren Anzhal an Transistoren sich schwerer auf hohen Takt bringen lässt. Damit sinken nunmal die Yields nach dem Binning.
Die Mittel die du beschreibst sorgen alle dafür, dass der Chip teurer wird.

Aber nur zum Verständnis: Wenn es schwieriger ist einen solchen Chip mit mehr Transistoren zu Designen, warum steht die Anzhal der Transistoren dann nicht im Weg?
Das ist so, als würde ich sagen, dass die Wärmeabgabe nicht im Weg steht, ihr kann man ja durch teure Mittel entgegenwirken.
Du kannst nicht an diesem Punkt festhalten.

Genausowenig mag ich hier den Vergleich mit dem R300.
Störfaktoren skalieren leider gar nicht linear mit. Und wenn 107 Millionen Transistoren bei 325MHz in 150nm noch realtiv einfach zu erreichen waren, muss das nicht heissen, dass man mit 250+ in 90nm plötzlich viel weniger Probleme damit hat, oder es genauso schwierig ist.
Es wird eher noch schwieriger.

Der Vergleich zum P4 hinkt etwas, da dessen Design ganz anders ist, und explizit auf hohen Takt ausgelegt ist. Ausserdem reden wir hier z.B nur von ca 60 Millionen Logitransistoren. Da sind R520 und G70 ja wirklich weit drüber.

1. nichts anderes habe ich behauptet. Teure Mittel sind desübrigen schon lange in dieser Branche übrig. Was meinst du wie teuer NV40 und G70 waren?
Klar ist es nicht so einfach, aber es ist wenn nötig machbar. Und man tut es, wenn es nötig ist. Schau mal was ATI noch aus dem 150nm Prozess herausholen konnte. 420MHz. Meinst du das war nicht teuer? Sorry, aber ich kann daran festhalten, weil es eben üblich ist ;)
Und natürlich beeinflusst der Count immer die Taktrate...aber nur indirekt. Wäre der Einfluss direkt, hätte man keine Mittel, um dem entgegen zu wirken.
Und so teuer sind die Chips in der Produktion auch nicht. Letztendlich muss eben R&D reingeholt werden.

2. Der Vergleich ist IMO durchaus legitim. 107Mio Transistoren waren auf 150nm keinesfalls "einfach". TSMC's Empfehlung als Obergrenze lag bei IIRC 96Mio. Ergo ~11% mal eben drüber gegangen. Bei 78% Mehrtransistoren als der NV25 bekam man anfangs gleiche Taktraten hin, eine bessere Übertaktbarkeit. Und letztendlich sogar mit 420MHz (R9800XT) ganze 40% mehr Chiptakt als der NV25 bei gleichem Prozess. Und das war IMO teuer. Fast schon ein Wunder...ein Wunder der Ingenieurskunst. Aber das ist eben üblich in dieser Branche.
Klar ist es ein Apfel Birne Vergleich zu 90nm ...aber ich sehe dort Analogien. Letztendlich wird in der Praxis R580 sicher höher takten als G80. Aber IMO nur, weil G80 nicht höher takten muss. Es wäre für NV dann auch sicher teurer als für ATI, den gleichen Takt zu erreichen. Aber wenn ich mir anschaue, wie taktbar G70 bereits im 110nm Prozess ist, denke ich, dass viel Designabhängig ist. Und ich denke nur wenige haben an ~300Mio Transistoren bei so guter Taktbarkeit auf dem 110nm ursprünglichen low cost Prozess geglaubt (ich selbst auch nicht).
Fakt ist, dass der größte Taktvorteil zu G80 bei ATI weg ist..der Fertigungsprozess.

3. Siehst du, du sagst es bereits. Der P4 wurde so designed. Und das war teuer. Aber es muss so sein. Warum soll das bei GPUs nicht auch gehen?
GPUs hingegen mit CPUs zu vergleichen ist nicht immer sinnvoll aber CPUs untereinenader zu vergleichen für eine Analogie IMO schon eher. Wobei du natürlich Recht hast. Die Designs bei CPUs unterscheiden sich in dieser Hinsicht viel zu sehr. Und natürlich sind Fertigungsprrozesse nicht vergleichbar.

DrumDub
2005-09-16, 14:30:17
nV braucht nun für den G70 Nachfolger "nur" einem Die-Shrink auf 90nm machen und diesen dann mit 550 oder mehr MHz takten um Leistungsfähig genug zu bleiben. wobei man dazu sagen muss, dass die libraries bei 130nm und 110nm sehr änlich sind, was bei 90nm nicht der fall ist... insofern ist der shrink auf 90nm wesentlich schwieriger als der von 130nm auf 110nm. das könnte noch ein vorteil für den r580 gegenüber g80 sein.

mich würde mal interssieren, ob nvidia wirklich schon einen g70/g80@90nm vorliegen hat... so recht glauben kann ich es nicht.

Omega2
2005-09-16, 14:32:43
Danke für die Antworten. Trotzdem hab ich noch eine Sache nicht verstanden.

Stellen wir mal die beiden Konzepte gegenüber:

16 Pipes vs 24 Pipes dürfte doch einen Vorteil für ATI darstellen, da die Zahl der Transistoren und die dafür benötigte Die Fläche bei ATI niedriger ist.
90nm vs 110nm, ebenfalls Vorteil für ATI, weil die benötigte Fläche nochmals geringer wird.

Im Endergebnis müßte also ATI pro Wafer wesentlich mehr GPUs rausbekommen. Sicher nicht alle mit 650 MHz aber der Markt will ja auch noch billigere, d.h. niedriger getaktete Chips haben. Genau das hatte ich im Kopf, als ich von Brute Force im Zusammenhang mit dem NV70 sprach. NV macht es einfach über den Hubraum, währen ATI an der Drehzahl optimiert ;).

Da ich keine Ahnung von Dingen, wie Ausbeute, Yield rate etc. habe, wäre es sehr interessant, wenn mit einer mal in etwa vorrechnen könnte, wie genau die Zahlenverhältnisse sind d.h. Zahl der Transistoren bei ATI, Dies/Wafer etc. Ist jemand in der Lage, da vernünftige Annahmen zu machen, oder gibt es da noch zu viele Unbekannte?

Cu Omega

robbitop
2005-09-16, 14:36:10
wobei man dazu sagen muss, dass die libraries bei 130nm und 110nm sehr änlich sind, was bei 90nm nicht der fall ist... insofern ist der shrink auf 90nm wesentlich schwieriger als der von 130nm auf 110nm. das könnte noch ein vorteil für den r580 gegenüber g80 sein.

mich würde mal interssieren, ob nvidia wirklich schon einen g70/g80@90nm vorliegen hat... so recht glauben kann ich es nicht.
Da arbeitet man sicher nicht erst seit gestern dran. Den RSX haben sie ja auch hinbekommen trotz sogar einer völlig anderen Foundry.
G80 sollte zeitig kommen denke ich. Nur läßt man sicher IMO Zeit, bis der Prozess ein wenig reifer ist und man keine vielen Respins benötigt und an schlechten Yields leidet.

mapel110
2005-09-16, 14:49:50
Danke für die Antworten. Trotzdem hab ich noch eine Sache nicht verstanden.

Stellen wir mal die beiden Konzepte gegenüber:

16 Pipes vs 24 Pipes dürfte doch einen Vorteil für ATI darstellen, da die Zahl der Transistoren und die dafür benötigte Die Fläche bei ATI niedriger ist.
90nm vs 110nm, ebenfalls Vorteil für ATI, weil die benötigte Fläche nochmals geringer wird.

Im Endergebnis müßte also ATI pro Wafer wesentlich mehr GPUs rausbekommen. Sicher nicht alle mit 650 MHz aber der Markt will ja auch noch billigere, d.h. niedriger getaktete Chips haben. Genau das hatte ich im Kopf, als ich von Brute Force im Zusammenhang mit dem NV70 sprach. NV macht es einfach über den Hubraum, währen ATI an der Drehzahl optimiert ;).

nvidia hat die Vorteile weniger Takt zu benötigen und auf einen ausgereiften Fertigungsprozess zurückgreifen zu können. Das fällt offenbar stärker ins Gewicht.

Nochmal eine Theorie, warum ATI auf 16 Pipes beim R520 gesetzt hat:
ATI brach den ursprünglichen SM3-Chip ab und entwickelte einen Chip mit brachialer Power um dem Kunden auf die Schnelle noch was bieten zu können, eben weil der SM3-Chip nicht viel taugte.
Man ging auf 16 Pipes und wesentlich höheren Takt und dachte sich wohl, nvidia bringt SM3. Das kostet sehr viele Transistoren und da werden sie wohl kaum mit 16 Pipes und genügend Takt ankommen gegen uns.
Deswegen ging man wohl auch davon aus, dass es beim Nachfolger reicht, bei 16 Pipes zu bleiben, den Takt anzuheben und um eben bei 90nm nochmal SM3 zu bringen mit einem neuen Design, dass besseren Speed bietet als der alte SM3-Chip.
Da arbeitet man sicher nicht erst seit gestern dran.
Davon gehe ich auch aus. Schließlich musste nvidia gerade in den letzten 1.5 Jahren nicht mehr allzuviel designtechnisch(Featuretechnisch) machen.

Sunrise
2005-09-16, 14:55:49
Und letztendlich sogar mit 420MHz (R9800XT) ganze 40% mehr Chiptakt als der NV25 bei gleichem Prozess. Und das war IMO teuer. Fast schon ein Wunder...ein Wunder der Ingenieurskunst. Aber das ist eben üblich in dieser Branche.
Teuer war es, keine Frage. ATi nutzte zwischen R300 und R350/R360 aber andere "targets", insofern war es nicht wirklich "der gleiche Prozess".

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2006347#post2006347

Sunrise
2005-09-16, 15:15:51
Nochmal eine Theorie, warum ATI auf 16 Pipes beim R520 gesetzt hat:
ATI brach den ursprünglichen SM3-Chip ab und entwickelte einen Chip mit brachialer Power um dem Kunden auf die Schnelle noch was bieten zu können, eben weil der SM3-Chip nicht viel taugte.
Man ging auf 16 Pipes und wesentlich höheren Takt und dachte sich wohl, nvidia bringt SM3. Das kostet sehr viele Transistoren und da werden sie wohl kaum mit 16 Pipes und genügend Takt ankommen gegen uns.
Deswegen ging man wohl auch davon aus, dass es beim Nachfolger reicht, bei 16 Pipes zu bleiben, den Takt anzuheben und um eben bei 90nm nochmal SM3 zu bringen mit einem neuen Design, dass besseren Speed bietet als der alte SM3-Chip.

ATi macht seit R300 eigentlich nur das Nötigste.

Einer der Hauptgründe sind die "per die margins", die bei ATi nicht wirklich zufriedenstellend sind, was mitunter auch direkt mit dem "starren" R300-Design zusammenhängt. Auf diversen Investorenkonferenzen hatte man den Plan geäußert, dies deutlich verbessern zu wollen.

Man machte also einen logischen Schritt, und nahm sich (die Entscheidung von MS und ATi, Xenos auch auf 90nm auszulegen hatte darauf auch einen direkten Einfluss) gleich 90nm als "target" vor. Um den Chip möglichst klein zu halten, wurden beim R520 noch 4 Quads beibehalten, dafür musste man aber wieder den Umweg über die Takte gehen. Womit man anfangs allerdings wahrscheinlich nicht gerechnet hat, waren die Probleme, die ATi mit ihren Designs hatte:

1. Generell die Taktbarkeit
2. Neuer Speicherkontroller (Ring-Bus)
3. Soft-ground Probleme (s. 1.)

RV515 läuft problemlos und sollte in Massen verfügbar sein, RV530 wiederum hatte ähnliche Probleme wie R520, dazu lassen sich derzeit noch keine Aussagen bzgl. Verfügbarkeit machen. Alles in allem sind es Design-abhängige Probleme, wie von mir auch schon vor Monaten vermutet.

Sunrise
2005-09-16, 15:24:32
Da arbeitet man sicher nicht erst seit gestern dran. Den RSX haben sie ja auch hinbekommen trotz sogar einer völlig anderen Foundry.
G80 sollte zeitig kommen denke ich. Nur läßt man sicher IMO Zeit, bis der Prozess ein wenig reifer ist und man keine vielen Respins benötigt und an schlechten Yields leidet.
NV hat da sicher keinen Zeitdruck, G80 wird zudem wahrscheinlich wieder eine völlig neue Serie werden. R580 sollte allerdings auch nahe an der Fertigstellung sein, ich bin mir nur noch nicht ganz sicher, wie ATI das Teil im Markt positionieren will, zudem folgen hier auch wieder dutzende, davon abgewandelte SKUs.

Momentan kann man wirklich nicht behaupten, es gäbe im GPU-Markt keine Bewegung. Man sieht hier direkt, wie Konkurrenz die Preise drücken kann, denn im Mid-Range sieht es aktuell so gut aus, wie schon seit R300-Zeiten nichtmehr.

deekey777
2005-09-16, 15:28:57
Der RV530 soll ja auch eher mit dem R580 verwandt sein als mit dem R520. Vielleicht hängt es ua auch damit zusammen.

Ronny145
2005-09-16, 15:29:45
Erste Benchmarks:
http://www.hardwareanalysis.com/content/article/1813.1/

Horimoto
2005-09-16, 15:40:20
hmm,
man sollte keinen vorschnellen Urteile fällen (treiber, AF quali und AA quali?) aber wie es aussieht, wird der R520 nciht an den G70 rankommen, also habe ich paar Wochen umsonst gewartet........

Der R520 doch ein neuer NV30?

Blaire
2005-09-16, 15:42:01
Der Gedanke kam mir auch gerade.
Sieht bissl mager aus, wie ich finde.
Aber die Ergebnisse könnten auch gefakt sein. :tongue:

deekey777
2005-09-16, 15:42:46
Erste Benchmarks:
http://www.hardwareanalysis.com/content/article/1813.1/
Spätestens nach dem Lesen des letzten Absatzes erster Seite müßte man denken, daß der Autor irgendwie eine Scheißeinstellung haben könnte und das "Sneak-Preview" sehr subjektiv werde.

Ronny145
2005-09-16, 15:43:03
Der R520 doch ein neuer NV30?

Auf die Bildqualität, Leistungsaufnahme und Lautstärke noch abwarten.

Franzmann-Jan
2005-09-16, 15:45:08
Das kann doch nicht stimmen!! Warum zur Hölle sollte ATI einen 90nm Chip designen ,um bei gleicher Pixelpipelines Anzahl wie der des Vorgängers, den Takt nur um 60 Mhz zu erhöhen??? Wenn das wiklich stimmen sollte, vor allem in Bezug auf denhohen Preis von 599 US-Dollar, dann lautet mein Fazit "Burn in Hell ATI"

Horimoto
2005-09-16, 15:47:01
Mir erscheint es auch sehr subjetiv, und warum gibt es keine Details zum Treiber/Einstellungen (hat er 4xadaptive(was auch immer das ist) benutzt) oder BIlder zur Karte, geschweige denn Infos zum Kühler usw?
Der R520 würde nach dem Review nach zu folgen, noch cniht mal die Effizenz haben wie ein R480@600/700, der sollte den R520 nämlich teils wegrocken, und das kann ich mri nciht vorstellen, wobei ich mcih da an die Presserklärung erinnere:
'der r520 sollte in den meisten benches den G70 besiegen, falls die Taktraten erreicht werden' das hatte bei mir Angst hervorgerufen)

StefanV
2005-09-16, 15:49:20
hmm,
man sollte keinen vorschnellen Urteile fällen (treiber, AF quali und AA quali?) aber wie es aussieht, wird der R520 nciht an den G70 rankommen, also habe ich paar Wochen umsonst gewartet........

Der R520 doch ein neuer NV30?
hm?!

In dem Test schauts doch eher so aus, das der R520 so ziemlich gleichauf mit der g70 ist...

Das der Rückstand gewaltig ist, würd ich so nicht sagen, erstmal abwarten und Tee rauchen...

Ronny145
2005-09-16, 15:50:12
Mir erscheint es auch sehr subjetiv, und warum gibt es keine Details zum Treiber/Einstellungen (hat er 4xadaptive(was auch immer das ist) benutzt) oder BIlder zur Karte, geschweige denn Infos zum Kühler usw?
Der R520 würde nach dem Review nach zu folgen, noch cniht mal die Effizenz haben wie ein R480@600/700, der sollte den R520 nämlich teils wegrocken, und das kann ich mri nciht vorstellen, wobei ich mcih da an die Presserklärung erinnere:
'der r520 sollte in den meisten benches den G70 besiegen, falls die Taktraten erreicht werden' das hatte bei mir Angst hervorgerufen)


Das würde ich mir an Atis Stelle nicht gefallen lassen, falls die Benchmarks so nicht stimmen.

StefanV
2005-09-16, 15:51:32
Auf die Bildqualität, Leistungsaufnahme und Lautstärke noch abwarten.
FULL ACK!!

Es besteht ja immer noch die Möglichkeit, das man das AF leicht verbessert hat, man neue FSAA Modi einführte und die Leistungsaufnahme nicht über derer der x850XT liegt...

Von daher erstmal abwarten, was der R520 so alles an neuen Features mitbringt, die bisher NICHT bekannt sind aber dennoch recht nützlich...

Horimoto
2005-09-16, 15:52:03
Mir ging es aber auch um den Unterschied X850XTPE und X1800XT, da sind meistens paar Prozent unterschied, und zum G70 fehlt immer ein Stückchen, oder, wie bei D3 und SC3, sogar ein grosses Stück.

MadManniMan
2005-09-16, 15:53:49
Wenn das kein Fake ist ... :|

Horimoto
2005-09-16, 15:57:09
Kann auch sein, dass es ein fake ist. Wenn es keiner ist, werden wir eine Erklärung von Ati bekommen, sollte es einer sein, wird Ati ECHTE benches veröffentlichen, um sein Gesicht zu wahren, denn jetzt scheinen viele nciht mehr auf den R520 warten zu wollen, wenn er doch so ein 'flopp' ist(für die die nur auf perf. achten)

Ronny145
2005-09-16, 15:57:28
Mir ging es aber auch um den Unterschied X850XTPE und X1800XT, da sind meistens paar Prozent unterschied, und zum G70 fehlt immer ein Stückchen, oder, wie bei D3 und SC3, sogar ein grosses Stück.


Naja, die PE hatte auch schon 540 Mhz bei 16 pipes. Und bis auf die 1600er Auflösung bei Half-Life 2 ist dort schon die Pro schneller als die PE. So viel mehr war nicht zu erwarten.

Horimoto
2005-09-16, 16:00:23
FarCry 68 zu 64--------------sollte das wahr sein, wäre es ein flop, denn ein R480@600/700 würde hier sicherlich mehr als 70 fps haben.
Schenken wir dem Review keinen glauben

Franzmann-Jan
2005-09-16, 16:04:49
Woher sollte er den R520 denn auch haben? Und was wären die Folgen für die Site, bei möglicher Anklage von ATI durch NDA-Bruch..

Horimoto
2005-09-16, 16:07:55
Sie veröffentlichen nur, erklärt er, den NDA Bruch hat eine Firma aus taiwan betrieben, ohne NDA Vertag mit ATi, kein bRuch, keine Klage

Franzmann-Jan
2005-09-16, 16:15:01
Mich würde ein Statement seitens ATI zu diesen Benchmarkergebnissen sehr interessieren. Aus eigenem Überlebensinteresse sollte ATI schon reagieren.

Obwohl irgendwie habe ich das miese Gefühl, dass diese Benchmarks wirklich echt sein könnten. Wenn sich ATI schon so lange Zeit mit den Spezifikationen des R520 zurückhält, dann ganz bestimmt nicht weil er überragende Leistung zeigen wird. Vielleicht einfach nur um seine Schwäche bis aufs letzte zu verheimlichen. Nur wie soll eine so große und erfahrene Firma wie ATI so einen potenziellen Flop-Chip rechtfertigen????

Really Confused :confused:

VoodooJack
2005-09-16, 16:19:12
Hardwareanalysis hat doch gar keine Hardware in Händen, sondern hat Benchmarkprotokolle zu AIBs geschickt und dort die 4 Spiele benchen lassen.

Nichtsdestotrotz sind die Ergebnisse ernüchternd für einen X850 XTPE Besitzer wie mich. Ich meine jetzt die Ergebnisse in 1600x1200. In Doom3 ist die X1800 XT zwar 30% schneller als meine X850 XTPE, aber in HL2 nur um 5%! Gegen eine 7800 GTX kann die X1800 XT in den hohen Auflösungen nur in Far Cry mithalten, aber das kann meine X850 XTPE auch, in den anderen 3 Spielen kann sie nicht mithalten.

Natürlich muss man noch die eigentlichen Reviews Anfang Oktober abwarten, was neuere Treiber bringen und was die X1800 an neuen Features zu bieten hat, aber diese Vorabbenchmarks sind schon mal ernüchternd.

Der eigentliche Hammer des heutigen Tages ist aber das, was ich auf Rage3D gelesen hab. Ratchet, der Admin von Rage3D, will herausgefunden haben, dass Crossfire auf CRTs nur eine maximale Auflösung von 1600x1200 mit 60 Hz zulassen wird. Also, wenn das stimmt, dann ist für mich ein Crossfire System gestorben. Ich hab nämlich einen 21" CRT und spiel nur in 1600x1200 mit 85 Hz. Oh, oh.

Kein guter Tag für mich. News-mäßig.

Horimoto
2005-09-16, 16:22:11
Das mit CF ist schon hart...... vor allem für CRtler (wie mich).
Hoffen wir mal dass das Fehlinfos sind :D

BEIDES :D

deekey777
2005-09-16, 16:27:23
...
Der eigentliche Hammer des heutigen Tages ist aber das, was ich auf Rage3D gelesen hab. Ratchet, der Admin von Rage3D, will herausgefunden haben, dass Crossfire auf CRTs nur eine maximale Auflösung von 1600x1200 mit 60 Hz zulassen wird. ...

Was absoluter Quatsch ist. Warum? Es gibt schon zwei Threads dazu. Wer genau auf diesen Quatsch gekommen ist, weiß ich aber nicht. Doch ist es nicht seltsam, daß fast gleichzeitig solche "Sensationen" im Internet landen, wo zwei fast neue Produkte von ATi (endlich) kommen: CrossFire und die R5x0-Generation?
Für mich klingt es eher, daß da jemand Angst davor hat.

Coda
2005-09-16, 16:27:27
In Doom3 ist die X1800 XT zwar 30% schneller als meine X850 XTPE, aber in HL2 nur um 5%! HL² ist übelst CPU-limitiert. Da hatte die 7800GTX teilweise auch ähnliche Ergebnisse.

Was absoluter Quatsch ist. Da wäre ich mir aber nicht so sicher, da dieser Chip der die Signale zusammenmischt anscheinend ein FPGA ist...

Franzmann-Jan
2005-09-16, 16:29:40
Hardwareanalysis hat doch gar keine Hardware in Händen, sondern hat Benchmarkprotokolle zu AIBs geschickt und dort die 4 Spiele benchen lassen.

Nichtsdestotrotz sind die Ergebnisse ernüchternd für einen X850 XTPE Besitzer wie mich. Ich meine jetzt die Ergebnisse in 1600x1200. In Doom3 ist die X1800 XT zwar 30% schneller als meine X850 XTPE, aber in HL2 nur um 5%! Gegen eine 7800 GTX kann die X1800 XT in den hohen Auflösungen nur in Far Cry mithalten, aber das kann meine X850 XTPE auch, in den anderen 3 Spielen kann sie nicht mithalten.

Natürlich muss man noch die eigentlichen Reviews Anfang Oktober abwarten, was neuere Treiber bringen und was die X1800 an neuen Features zu bieten hat, aber diese Vorabbenchmarks sind schon mal ernüchternd.

Der eigentliche Hammer des heutigen Tages ist aber das, was ich auf Rage3D gelesen hab. Ratchet, der Admin von Rage3D, will herausgefunden haben, dass Crossfire auf CRTs nur eine maximale Auflösung von 1600x1200 mit 60 Hz zulassen wird. Also, wenn das stimmt, dann ist für mich ein Crossfire System gestorben. Ich hab nämlich einen 21" CRT und spiel nur in 1600x1200 mit 85 Hz. Oh, oh.

Kein guter Tag für mich. News-mäßig.

Same for me, VoodooJack

Meine X850 XT PE wird noch einige Zeit in meinem Rechner verweilen. Sm3 ist mir keine 599 € Wert. Und die Crossfire-Geschichte ist nun wirklich der Gipfel, nicht nur das man das ganze System mehrere Monate verschiebt und damit den größten Paperlaunch in der Geschichte der gesamten Hardware veranstallt, mit der Intention schwerwiegende Bugs zu bereinigen...NEIN...jetzt bietet man dem Enthusiast-User sogar 1920x1200 bei 52 Hz an. Wo bleibt der wahre Nachfolger des R300!!!!

Edit: Natürlich bezieht sich meine Kritik auf unbestätigten Gerüchten und sind daher bedingt ernstzunehmen. Aber was ist wenns stimmt??

deekey777
2005-09-16, 16:33:21
HL² ist übelst CPU-limitiert. Da hatte die 7800GTX teilweise auch ähnliche Ergebnisse.

Da wäre ich mir aber nicht so sicher, da dieser Chip der die Signale zusammenmischt anscheinend ein FPGA ist...

Da ist aber ein zusätzlicher RAMDAC drauf, der mindestens 1900x1600@75 verkraftet.
Und der Chip, der die Signale zusammenmixt ist ein FPGA. Es ist alles seit dem 30. Mai bekannt. Wirklich alles. Doch erst jetzt, wo CF endlich/nächste Woche seinen echten Launch erfährt, kommt so eine Sensation.

Coda
2005-09-16, 16:41:57
Da ist aber ein zusätzlicher RAMDAC drauf, der mindestens 1900x1600@75 verkraftet.Wollen wir's hoffen. Vielleicht war das 1600x1200@60Hz ja auch auf DVI bezogen...

deekey777
2005-09-16, 16:47:36
Wollen wir's hoffen. Vielleicht war das 1600x1200@60Hz ja auch auf DVI bezogen...


http://www.hardware.fr/articles/573-2/ati-crossfire-presentation.html

Man sollte sich eh vorher Gedanken machen, wer für diese "Limitierung" zuständig ist: die X800 Sklaven-Edition mit deren integrieretem 165 MHz TDMS Transmitter für den DVI-Ausgang oder der SiL 1161? Und dann überlegt man, wie genau CrossFire funktioniert, was ich bisher nicht ganz herausgekriegt habe.

Es kann aber eine andere Limitierung geben.

Tomcat70
2005-09-16, 16:48:15
bezüglich der vorigen benchmarks:

von overclockers UK:
--------
Hi there

Just spoken to ATI and they claim these benchmarks aint real as the only samples out there at the moment are X1800 XL's, they have not released any X1800 XT's to the press yet.

So take these benchmarks with a pinch of salt.....
--------
http://forums.overclockers.co.uk/showthread.php?t=17470409

deekey777
2005-09-16, 17:02:05
bezüglich der vorigen benchmarks:

von overclockers UK:
--------
Hi there

Just spoken to ATI and they claim these benchmarks aint real as the only samples out there at the moment are X1800 XL's, they have not released any X1800 XT's to the press yet.

So take these benchmarks with a pinch of salt.....
--------
http://forums.overclockers.co.uk/showthread.php?t=17470409

Ich bezweifle, daß dieser Frustrierte überhaupt je eine XI800XT von ATi sieht:
"With the help of a board partner we’ve been able to run the same set of benchmarks we’ve previously run on NVIDIA’s GeForce 7800GT and GTX, although we could only submit our benchmark scripts and testing configuration to them. The numbers you see reflected in the next few pages are therefore provided AS IS, as we have no way to verify them as we don’t physically have a board, they are accurate as far as we can see and in line what we’ve been expecting. So without further ado, let’s take a look at what the R520 architecture is capable of."
Die haben gar nichts, sondern nur Ergebnisse von einem Hersteller zugesandt bekommen.

MadManniMan
2005-09-16, 17:17:04
Die haben gar nichts, sondern nur Ergebnisse von einem Hersteller zugesandt bekommen.

Und selbst das wage ich anzuzweifeln :| Die haben einfach ein wenig aus dem Bauch raus und mit nem Taschenrechner Zahlen zusammengebastelt [/speku]

r3ptil3
2005-09-16, 17:24:32
lol -> http://www.hardwareanalysis.com/content/article/1813.3/

X850 XT PE 1024x768 4xAA 8xAF - 30fps :ulol: , ich hatte mit meiner X800 Pro 1280x1024 6xAA 8xAF über 40fps!

Was hatten die für einen Prozessor, P4 2.4ghz?

Ronny145
2005-09-16, 17:27:16
lol -> http://www.hardwareanalysis.com/content/article/1813.3/

X850 XT PE 1024x768 4xAA 8xAF - 30fps :ulol: , ich hatte mit meiner X800 Pro 1280x1024 6xAA 8xAF über 40fps!

Was hatten die für einen Prozessor P4 2.4ghz?


Stimmt, die Werte sind dort sehr niedrig. Und vom FX57 kann man nicht von einer schwachen CPU reden.

Coda
2005-09-16, 17:28:36
Hattest du auch den gleichen "custom benchmark"? :| Doom 3 war noch nie ATi-Territorium, das kann durchaus stimmen.

Der Rest sieht auch ziemlich stimmig aus...

deekey777
2005-09-16, 17:28:58
Und selbst das wage ich anzuzweifeln :| Die haben einfach ein wenig aus dem Bauch raus und mit nem Taschenrechner Zahlen zusammengebastelt [/speku]

Du hast das geschrieben, was ich nicht zu schreiben wagte. :biggrin:

Und jetzt wird wieder ein Theater daraus gemacht.

mapel110
2005-09-16, 17:29:56
Und selbst das wage ich anzuzweifeln :| Die haben einfach ein wenig aus dem Bauch raus und mit nem Taschenrechner Zahlen zusammengebastelt [/speku]
Jawoll. Sieht für mich auch so aus. Deswegen ist der Thread im Grafikchipforum auch dicht.


r3ptil3, eben genauso diese Umstimmigkeiten sind es. Das kann nur Blödsinn sein, auch wenn da Costum Timedemo dabei steht. So Costum kann die gar nicht sein. :D

r3ptil3
2005-09-16, 17:30:49
Hattest du auch den gleichen "custom benchmark"? :|

Doom 3 war noch nie ATi-Territorium, das kann durchaus stimmen.

Ich hatte mit der Timedemo1 gebencht, aber 1024x768 4xAA 8xAF 30fps ist doch deutlich zu wenig.

@ronny

Hatten145 die etwa einen FX-57?

Coda
2005-09-16, 17:31:45
Wenn das gefaked ist, dann hat der Mensch aber trotzdem Insider-Infos oder er kennt sich sehr gut aus...

Die Werte stimmen, da bin ich mir ziemlich sicher.

r3ptil3
2005-09-16, 17:34:04
Wenn das gefaked ist, dann hat der Mensch aber trotzdem Insider-Infos oder er kennt sich sehr gut aus...

Die Werte stimmen, da bin ich mir ziemlich sicher.


Ich weis nicht recht, die Werte in D3 sind sehr komisch, wobei sie in Far Cry wieder realistischer sind.

Ronny145
2005-09-16, 17:34:05
Ich hatte mit der Timedemo1 gebencht, aber 1024x768 4xAA 8xAF 30fps ist doch deutlich zu wenig.

@ronny

Hatten145 die etwa einen FX-57?

Angeblich.

Considering the fact that we’ve used a top-of-the-line AMD Athlon FX57 processor, with 1GB of OCZ DDR400 memory on the popular Asus A8N-SLI Deluxe motherboard...

MadManniMan
2005-09-16, 17:36:58
lol -> http://www.hardwareanalysis.com/content/article/1813.3/

X850 XT PE 1024x768 4xAA 8xAF - 30fps :ulol: , ich hatte mit meiner X800 Pro 1280x1024 6xAA 8xAF über 40fps!

Was hatten die für einen Prozessor, P4 2.4ghz?

Man muß ihnen zugute halten, daß sie "Custom Benchmark" hingeschrieben haben ;)

Coda
2005-09-16, 17:40:40
Ich weis nicht recht, die Werte in D3 sind sehr komisch, wobei sie in Far Cry wieder realistischer sind.Das Verhältnis NV4x/R4xx passt doch. Das ist halt nicht das Standard-Timedemo.

Black-Scorpion
2005-09-16, 17:41:31
Jawoll. Sieht für mich auch so aus. Deswegen ist der Thread im Grafikchipforum auch dicht.
Wenn du einmal dabei bist, kannst du den Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3489632) im ATI Forum auch gleich zumachen. ;)

deekey777
2005-09-16, 17:42:12
Hattest du auch den gleichen "custom benchmark"? :| Doom 3 war noch nie ATi-Territorium, das kann durchaus stimmen.

Der Rest sieht auch ziemlich stimmig aus...

Daß die XI800XT kein G70 Killer wird, bestreitet hoffentlich niemand. Ob die Werte jetzt stimmen oder nicht, ist IMHO irrelevant. Es geht mir eher um die Wirkung, die dieser Frustrierte mit diesem Artikel verursacht. Bisher scheinen nur sehr wenige überhaupt die erste Seite gelesen zu haben, die anderen wissen gar nicht, daß der Text gelesen werden sollte: Alle schauen nur auf diese Balken, der Rest ist ihnen egal. Niemand wird sich mit diesen Werten wirklich auseinandersetzen. Und dann heißt es: "Ich bin enttäuscht; die ganze Warterei für den Arsch; Blah-Blah..."

Coda
2005-09-16, 17:46:40
Ich hatte nichts anderes erwartet. Das R520 und G70 sich die Waage halten war für mich schon lange klar.

Das schönste ist SC3, da sieht man deutlich das G70 mehr Shaderleistung hat, auch wenn das hier wieder einige heftigst dementieren werden.

Majestic
2005-09-16, 17:53:03
Daß die XI800XT kein G70 Killer wird, bestreitet hoffentlich niemand. Ob die Werte jetzt stimmen oder nicht, ist IMHO irrelevant. Es geht mir eher um die Wirkung, die dieser Frustrierte mit diesem Artikel verursacht. Bisher scheinen nur sehr wenige überhaupt die erste Seite gelesen zu haben, die anderen wissen gar nicht, daß der Text gelesen werden sollte: Alle schauen nur auf diese Balken, der Rest ist ihnen egal. Niemand wird sich mit diesen Werten wirklich auseinandersetzen. Und dann heißt es: "Ich bin enttäuscht; die ganze Warterei für den Arsch; Blah-Blah..."

Stimmt schon das sie explezit sagen das sie Zahlen so wie sie bekommen haben weiter geben und keine Karte "physisch" da haben um die Zahlen zu verifizieren.... Doch warum sollten die Werte deswegen gleich umstimmg sein? Es könnte an noch unausgereiften Treiber bis hin zu sonst was liegen... Und trotzdem performt die Karte im direkten Vergleich mit einer GTX doch sehr gut. Auch wenn es für manche wackere ATI Anhänger :massa: vielleicht nocht nicht gut genug ist.:ulol: Ich bin auf jeden Fall sehr gespannt wie die Finalversion der Karte mit ausgreiften Treibern performt und werde dann meine Kaufentscheidung treffen.

P.s.: Nur die Preisvorstellung sollte ATI, falls die Zahlen stimmen, noch einmal gründlich überdenken ;D

kelo
2005-09-16, 17:54:58
Angeblich sind die Benchmarks vor Ort beim Grafikkarten-Hersteller gemacht worden. Auf welcher Basis? P-4 3 GHz? Athlon 64 3000+?
Wenn die X1800 XLs an die Presse geschickt haben, welcher war der Glückliche? :D

Black-Scorpion
2005-09-16, 17:57:27
@Coda

Kann es ein das dir die Ergebnisse so gut gefallen das du sie für dich echt sind?
Keiner weiß wie die zustande gekommen sind und du kommst gleich wieder mit der überlegenen Shaderpower des G70.

Nur weil (wie du in einem anderen Post geschrieben hast) das Verhältnis NV4x/R4xx in etwa stimmt, heißt das noch lange nicht das der Rest auch stimmt.

Sunrise
2005-09-16, 17:57:44
P.s.: Nur die Preisvorstellung sollte ATI, falls die Zahlen stimmen, noch einmal gründlich überdenken ;D

Zahlen ? Who gives ?

(Einige hier wissen, wie die Karte leistungsmäßig letztendlich einzuschätzen ist - but there is more ...)

Diese Art des Journalismus ist mir reichlich zuwider. Ich kann deekey777 da nur zustimmen. Wenn Sassen das nur deshalb macht, weil er bei ATi ausgeschlossen wurde, ist dieses Verhalten etwa das, was ich von einem 5-Jährigen erwarten würde, aber nicht von einem Journalisten, auf den zudem einiges gehalten wird.

Coda
2005-09-16, 17:59:05
@Coda

Kann es ein das dir die Ergebnisse so gut gefallen das du sie für dich echt sind?
Keiner weiß wie die zustande gekommen sind und du kommst gleich wieder mit der überlegenen Shaderpower des G70.Es gefällt mir insofern, dass es genau meinen Erwartungen entspricht und zwar in jedem Benchmark. Das wäre schon ein ziemlicher Zufall.

Und so daneben lag ich bisher noch nicht...

Majestic
2005-09-16, 18:07:46
Zahlen ? Who gives ?

(Einige hier wissen, wie die Karte leistungsmäßig letztendlich einzuschätzen ist - but there is more ...)

Diese Art des Journalismus ist mir reichlich zuwider. Ich kann deekey777 da nur zustimmen. Wenn Sassen das nur deshalb macht, weil er bei ATi ausgeschlossen wurde, ist dieses Verhalten etwa das, was ich von einem 5-Jährigen erwarten würde, aber nicht von einem Journalisten, auf den zudem einiges gehalten wird.

Naja die Preise meine ich im vergleich zu dem was eine GTX im moment in den USA kostet und sicher in einigen Wochen wohl auch hier....
http://www.pricewatch.com/prc.aspx?i=37&a=718592

Vorrausgesetzt die öfter in den News angenommenden Preise stimmen so ungefähr...;)

Black-Scorpion
2005-09-16, 18:15:00
Was du erwartest und wie weit du daneben liegst ist deine Sache.

Ohne irgendeinen Hinweis wie, was, wo von wem gebencht wurde zu sagen die Werte simmen, da bin ich mit ziemlich sicher ist eine andere.

Bevor nicht Benches von seriösen Quellen mit genauen Angaben veröffentlich werden glaube ich erstmal garnichts.
Aber wenn einem etwas in den Kram passt ist die Quelle schon fast egal.

Sunrise
2005-09-16, 18:16:45
Naja die Preise meine ich im vergleich zu dem was eine GTX im moment in den USA kostet und sicher in einigen Wochen wohl auch hier....
http://www.pricewatch.com/prc.aspx?i=37&a=718592

Vorrausgesetzt die öfter in den News angenommenden Preise stimmen so ungefähr...;)

Wenn du rein nach dem Preis gehst, ist die GT/X sicher eine sehr gute Karte.

Bevor man als potentieller Kunde hier aber Kaufentscheidungen treffen kann, wäre (ich kann da nur für mich sprechen) ich an einer unvoreingenommenen, ausführlichen und vor allem authentischen Berichterstattung beider Kontrahenten interessiert.

Da ich nicht einen dieser Punkte in seinem "Artikel" erkennen kann, ist er für mich nichts wert. Auch wenn das etwas hart klingt. ;)

Coda
2005-09-16, 18:20:52
Was du erwartest und wie weit du daneben liegst ist deine Sache.

Ohne irgendeinen Hinweis wie, was, wo von wem gebencht wurde zu sagen die Werte simmen, da bin ich mit ziemlich sicher ist eine andere.

Bevor nicht Benches von seriösen Quellen mit genauen Angaben veröffentlich werden glaube ich erstmal garnichts.
Aber wenn einem etwas in den Kram passt ist die Quelle schon fast egal.Was du glaubst ist mir auch herzlich egal. Die Ergebnisse sind auf jedenfall realistisch, da kannst du dich auf den Kopf stellen.

reunion
2005-09-16, 18:29:42
Erste Benchmarks:
http://www.hardwareanalysis.com/content/article/1813.1/


Realistisch, allerdings wäre es auch ein leichtes, soetwas zu erfinden.

Uebrigens lache ich immer noch ueber den Spruch (ich kann mich bei bestem Willen wer ihn gepostet hat)....Arroganz ist die Kunst auf seine eigene Dummheit stolz zu sein ;) LOL.

Das war ich.

Black-Scorpion
2005-09-16, 18:30:24
Wo ich mich wie hinstelle mußt du schon mir überlassen.

Es ist nur seltsam das fast jeder den Artikel und die Benches anzweifelt.
Nur du kommst nichtmal auf die Idee das sie falsch sein könnten.

Aber ob und wie realistich die sind werden wir sehen wenn seriöse Quellen Ergebnisse veröffentlichen.

A.Wesker
2005-09-16, 18:31:52
Ich hatte mit der Timedemo1 gebencht, aber 1024x768 4xAA 8xAF 30fps ist doch deutlich zu wenig.

@ronny

Hatten145 die etwa einen FX-57?
die haben nicht die timedemo 1 gebenched. dort schafft eine GTX 130 FPS mit 4AA/16AF

Coda
2005-09-16, 18:32:03
Es ist nur seltsam das fast jeder den Artikel und die Benches anzweifelt.Man möchte ja auch eigentlich meinen, dass ATi nach fast einem halben Jahr mehr zu bieten hat. Nur leider ist dem nicht so.

Ich habe übrigens nur gesagt, dass ich ziemlich sicher bin, dass die Benchmark-Werte stimmen. Wenn ich dir dabei auf den Schlips getreten bin, weil dein lieblings GPU-Hersteller nicht so toll dasteht tut mir das leid ;(

reunion
2005-09-16, 18:35:25
wenn jetzt schon vr-zone als verfechter eines 24pipe-r520 nur 16pipe für den r520 angibt, dann kann man das jetzt als fakt ansehndas er nur 16pipes haben wird.

Das war schon lange Fakt, nur manche schaffen sich nunmal leider ihre eigene Realität.

reunion
2005-09-16, 18:38:53
Man möchte ja auch eigentlich meinen, dass ATi nach fast einem halben Jahr mehr zu bieten hat. Nur leider ist dem nicht so.


Das war nur die XT, es fehlt ja noch immer die XT-PE mit 650Mhz Takt. :D

Coda
2005-09-16, 18:40:34
Die XT hat 600Mhz, die XT-PE (Preview Edition) wohl 650 oder 700.

reunion
2005-09-16, 18:42:26
Es deutet wohl darauf hin, daß die 10320 MTexel/s gegenüber den 9600 MTexel/s mehr Vorteile mit sich bringen, als die 6880 MPixel/s gegenüber den 9600 MPixel/s Nachteile, aight?

Die 6880MPixel/s beim G70 bringen überhaupt keine Nachteile, die höhere Pixelfüllrate beim R520 verpufft.

Coda
2005-09-16, 18:43:44
Naja, bei Stencil-Schatten mit MSAA schon. Aber das ist dann wirklich auch das einzige was mir einfällt ;)

MadManniMan
2005-09-16, 18:44:59
Die 6880MPixel/s beim G70 bringen überhaupt keine Nachteile, die höhere Pixelfüllrate beim R520 verpufft.

Und ich bin mit meiner Wahlentscheidung 100% zufrieden? :usweet:

Natürlich bringt die fehlende ST-Leistung Nachteile - fragt sich nur, in welchem Ausmaß.

Coda
2005-09-16, 18:47:13
Nein eben nicht. Selbst mit einfachem Trilinear liegt der Bottleneck sofort bei den Pixelshadern. (12Pixel/Cycle Output für 16 ROPs)

Es gibt absolut keinen Reallife-Benchmark wo die 16 ROPs in irgendeinerweise limitieren, außer vielleicht bei D3 mit Antialiasing. Das war's dann aber auch schon.

BvB123
2005-09-16, 18:54:45
Ich weiß aus ziemlich sicherer Quelle das die Werte stimmen. Aber die Treiber sind noch ziemlich unausgereift. Leider weiß ich nichts über den Stromverbrauch.

PingpiN
2005-09-16, 18:57:19
Aha ein Insider. :rolleyes:

BvB123
2005-09-16, 19:07:27
Musst mir ja nicht glauben ;)

reunion
2005-09-16, 19:09:06
Erste Benchmarks:
http://www.hardwareanalysis.com/content/article/1813.1/


However this time around ATI decided to just not bother with us and go with pro-ATI media, or rather media that would paint a more favorable picture of its latest graphics architecture. They made it very clear that we did not make the cut, as we have written some articles about CrossFire, R520 and ATI’s financial situation that were not apparently not appreciated. Hence we’ve not been briefed by ATI, nor did we sign an NDA, or have been invited to the launch event, so basically they decided to cut us off.

Unfortunately for ATI we have other sources to get detailed information from, for example the board partners that will be manufacturing and selling the majority of these new graphics cards. Obviously because we’re not bound by any NDA or other agreement with ATI we’ve worked hard to get you some benchmark results prior to the launch which is scheduled for the end of this month. To ATI we’d like to comment that it is a two-way street really, we’d like to be briefed about your products and have early access to them, if that requirement is met we will have no issues with signing and adhering to NDAs. By cutting us off however we’ve just been given a new incentive to work harder to break the news when we get a chance, in our usual no holds barred fashion.

Nachdem ich diesen Text gelesen haben, frage ich mich, wie man an die Karte gekommen sein will.

seahawk
2005-09-16, 19:25:34
However this time around ATI decided to just not bother with us and go with pro-ATI media, or rather media that would paint a more favorable picture of its latest graphics architecture. They made it very clear that we did not make the cut, as we have written some articles about CrossFire, R520 and ATI’s financial situation that were not apparently not appreciated. Hence we’ve not been briefed by ATI, nor did we sign an NDA, or have been invited to the launch event, so basically they decided to cut us off.

Unfortunately for ATI we have other sources to get detailed information from, for example the board partners that will be manufacturing and selling the majority of these new graphics cards. Obviously because we’re not bound by any NDA or other agreement with ATI we’ve worked hard to get you some benchmark results prior to the launch which is scheduled for the end of this month. To ATI we’d like to comment that it is a two-way street really, we’d like to be briefed about your products and have early access to them, if that requirement is met we will have no issues with signing and adhering to NDAs. By cutting us off however we’ve just been given a new incentive to work harder to break the news when we get a chance, in our usual no holds barred fashion.

Nachdem ich diesen Text gelesen haben, frage ich mich, wie man an die Karte gekommen sein will.

Ich vermute von einem Boardpartner. Und ich vermute jemand, der ATI und NV im Programm hat. Es gab einige Unzufriedenheiten bei den Boardpartnern in letzter Zeit.

Spannender und intressanter ist aber die Antwort von ATI, wenn bsiher selbst an die Presse nur XL Karten verschickt wurden, dann würde ich nicht mit einer schnellen oder breiten Verfügbarkeit der XT Version rechnen.

Das deckt sich übrigens mit älteren Informationen.z.B. aus der PCGH 10/05.

Winter[Raven]
2005-09-16, 19:33:18
Es gab einige Unzufriedenheiten bei den Boardpartnern in letzter Zeit.

Unzufriedenheit? Wenn, dann ehe im bezug auf ATi, Nvidia macht derzeit echt tollen Job.

MadManniMan
2005-09-16, 19:34:25
Huppa, natürlich Stencil + MSAA, vergessen...

Nein eben nicht. Selbst mit einfachem Trilinear liegt der Bottleneck sofort bei den Pixelshadern. (12Pixel/Cycle Output für 16 ROPs)

Es gibt absolut keinen Reallife-Benchmark wo die 16 ROPs in irgendeinerweise limitieren, außer vielleicht bei D3 mit Antialiasing. Das war's dann aber auch schon.

(der PS spuckt 12/Cycle aus?)

Du vergißt, daß heutzutage Brilinear gefiltert wird. Single Texturing tritt immernoch auf - und wenn es nur bei Partikeln oder Explosionen ist. Dort, wo das "Bri-Band" wirkt, brauchst Du auch nur eine TMU und einen Cycle.

seahawk
2005-09-16, 19:36:54
']Unzufriedenheit? Wenn, dann ehe im bezug auf ATi, Nvidia macht derzeit echt tollen Job.

Ja im Hinblick auf ATI.

Coda
2005-09-16, 19:39:00
Du vergißt, daß heutzutage Brilinear gefiltert wird. Single Texturing tritt immernoch auf - und wenn es nur bei Partikeln oder Explosionen ist. Dort, wo das "Bri-Band" wirkt, brauchst Du auch nur eine TMU und einen Cycle.Ach, das ist doch vernachlässigbar. Schau dir nur mal die 6600GT an, die hat auch "nur" 4 ROPs.