PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: Alles rund um die neue Generation, Teil 5


Seiten : 1 [2] 3 4

Gast
2007-02-27, 17:23:46
oh ja ich habe mich für jede weitere diskussion disqualifiziert, weil ich behaupte das nVidia mit der gF6 und 7 eine miese BQ hat?Du hast gesagt, dass das 4x MSAA auf GF7 eine schlechtere Glättung bietet als das 4x MSAA auf aktuellen ATI-Karten. Das ist aber definitiv falsch. Die Muster sind absolut gleichwertig.und das noch von einem gast, er sich nicht mal traut sich anzumelden ... wie süß ;DMuss sowas denn sein? Kannst du nicht sachlich auf die Argumente anderer eingehen?

Ailuros
2007-02-27, 17:28:40
R700 will be the real test (http://www.theinquirer.net/default.aspx?article=37880)

Eine Analyse seitens des Inq zur aktuellen Situation bei AMD/ATI

Man muss ein Kuenstler sein wenn man so viel Mist auf eine Seite bekommt. Nichtdestominder sollte er als sowohl auch ATI bitteschoen mal die Klappe halten was die Treiber betrifft, denn erstens liegen R5x0/G7x Vista Treiber etwa auf gleichem Niveau und da ATI keine D3D10 HW + Vista Treiber momentan vorzuzeigen hat, heisst es wohl eher put up or shut up.

Wer zum Henker hat ueberhaupt erzaehlt dass die R600 Vista Treiber momentan optimal sind? Wenn man schon die Klappe aufmachen muss weil einem das Glas zu voll wird: die Dinger sind momentan eine absolute Blamage *aechz*

Ailuros
2007-02-27, 17:32:04
oh ja ich habe mich für jede weitere diskussion disqualifiziert, weil ich behaupte das nVidia mit der gF6 und 7 eine miese BQ hat?
und das dort gerne mal wie bei ATI auch zu filtertricks gegriffen wird, nur in ausgeprägterer form.

und das noch von einem gast, er sich nicht mal traut sich anzumelden ... wie süß ;D

Probier mal in der Zwischenzeit ein bisschen am Gamma herumzuschrauben; je nach Bildschirm sieht stellenweise das eine oder andere besser aus (Vorraussetzung gamma correction ist auf beiden aktiv).

Gast
2007-02-27, 19:06:50
oh ja ich habe mich für jede weitere diskussion disqualifiziert, weil ich behaupte das nVidia mit der gF6 und 7 eine miese BQ hat?


Klar, weil es absolut lächerlich ist. nvidia hat die etwas bessere Bildqualität.

Black-Scorpion
2007-02-27, 19:11:52
Klar, weil es absolut lächerlich ist. nvidia hat die etwas bessere Bildqualität.
Bei GF6 und GF7?
Bestimmt nicht.

K4mPFwUr$t
2007-02-27, 19:12:17
mit dem G80 allerdings erst. vorher konnte nVidia nicht mit der BQ mithalten und das bei weitem! man weiss nicht was der R600 an qualitässettings anbieten wird. aber ein 8xAAA modus wäre schon was feines.

Gast
2007-02-27, 19:14:33
Ansichtssache, müsst ihr immer eure Ansicht anderen aufzwingen?

Das MSAA ist auch nicht 100% gleichwertig, auch wenn Gamma AA aktiv ist, da es ja 90° gedreht ist ;) Je nach ultra spezial Fall und Winkelung glättet mal das eine mal das andere Grid besser, aber das ist Kaffeesatz Lesen. Genauso wie Quality vs AI-High. Beides Schrott, entweder alles aus oder jeder Benchmark kann mich mal gern haben.

Gast
2007-02-27, 19:17:18
Klar, weil es absolut lächerlich ist. nvidia hat die etwas bessere Bildqualität.
falsch,seit dem r300 hat ATI klar die bessere.

The_Invisible
2007-02-27, 19:51:41
mit dem G80 allerdings erst. vorher konnte nVidia nicht mit der BQ mithalten und das bei weitem! man weiss nicht was der R600 an qualitässettings anbieten wird. aber ein 8xAAA modus wäre schon was feines.

gibts schon bei G80, wäre also nix neues

mfg

Ailuros
2007-02-27, 19:53:55
mit dem G80 allerdings erst. vorher konnte nVidia nicht mit der BQ mithalten und das bei weitem! man weiss nicht was der R600 an qualitässettings anbieten wird. aber ein 8xAAA modus wäre schon was feines.

8x sparse MSAA + 8x Transparency Supersampling gibt es schon seit November 2006:

http://www.3declipse.com/images/stories/ailN/2.jpg

Was besseres als das haette man mit der Unmenge an Bandbreite schon bieten koennen.

Gast
2007-02-27, 20:16:44
mit dem G80 allerdings erst. vorher konnte nVidia nicht mit der BQ mithalten


wie kommst du denn darauf?
Nvidia hat die besseren Texturfilter als der R420 und das AA ist genauso gut.
Also insgesamt leichte Vorteile für nvidia.

kruemelmonster
2007-02-27, 20:19:23
Schon traurig wie sich manch einer bei dem Red vs. Green Thema aufgeilt als hätte jemand seine Mutter beleidigt.

@K4mPFwUr$t: Meinstest du vielleicht AF und nicht AA? In dem Falle kann ich dir nur zustimmen. Hätte ich meine 6800 fast GT nicht gegen eine X800 fast XT getauscht, ich würde heute definitiv an Augenkrebs leiden. Ist letztlich aber alles subjektiv da jederman eine andere optische Empfindlichkeit/Sensibilität hat, gerade was AA/AF/Texturflimmern etc. betrifft.

@topic: Ich setz schonmal Teewasser auf, alles andere hat doch bis zum Release eh keinen Sinn. Der R600 wird schneller werden als der G80, das kann man wohl als unbestätigten Fakt gelten lassen. Ob er das nun mit Clock Domains oder ohne erreicht, ist für mich genauso wichtig wie der chinesische Reissack.

/edit:

@Gast über mir: Richtig ist, dass das AA in 2x und 4x bei beiden IHVs gleichwertig ist. Definitiv falsch ist, dass die Chips die zwischen dem NV25 und G80 liegen, bessere Texturfilter als die Radeons haben. Auf Screenshots sieht das NV Bild nur schärfer aus weil es in Bewegung unerträglich flimmert.

deekey777
2007-02-27, 20:54:23
Bei noch mehr OT gibt nur rote Karten.

Ailuros
2007-02-27, 21:14:26
http://www.techreport.com/onearticle.x/11927

http://www.xbitlabs.com/news/cpu/display/20070222134901.html

http://www.xbitlabs.com/news/cpu/display/20070226095032.html

Gast
2007-02-27, 21:20:41
mit dem G80 allerdings erst. vorher konnte nVidia nicht mit der BQ mithalten und das bei weitem! man weiss nicht was der R600 an qualitässettings anbieten wird. aber ein 8xAAA modus wäre schon was feines.
8xTSSAA gibt's doch auf der G8x. Wo wäre da der Vorteil?

K4mPFwUr$t
2007-02-27, 22:19:27
da der herr gast wohl endlos weiter machen würde, blocke ich mal an der stelle *an dk777's post denk*

@ailuros
hast du eigentlich irgendwellche infos über neue qualitätsmodi oder verbesserungen beim r600 gegenüber r5xx?

Ailuros
2007-02-28, 05:42:19
@ailuros
hast du eigentlich irgendwellche infos über neue qualitätsmodi oder verbesserungen beim r600 gegenüber r5xx?

Nur eine kleine Erhoehung der AA Sample-Anzahl afaik. Worueber ich keine Ahnung habe ist AVIVO; da duerfte sich schon einiges bewegt haben, weil:

http://www.xbitlabs.com/articles/video/display/video-playback.html

Ailuros
2007-03-01, 06:05:02
Separately, AMD gave one of the first public demos of the R600, its next-generation graphics controller that uses 320 multiply-accumulate units. The company showed a Barcelona-based system using two 200W R600 graphics cards to hit a terabit/second benchmark.

http://www.eetimes.com/news/latest/showArticle.jhtml?articleID=197700269

*zwitscher* *floet* :biggrin:

http://www.beyond3d.com/forum/showpost.php?p=938514&postcount=22

Well, that they are referring to "320" would suggest that they might be all functionally scalar, even tho grouped as 64 5D (our guess) or 80 4D (certainly not impossible). To the degree the scheduling allows them to be treated as scalar, then which it is won't be all that important for most purposes. Scalar at all is the big thing, as vec4 will not be as efficient (tho you could get a lively argument going about how much control logic you have to add to make that happen in calculating the relative efficiency).

....ach wie gut dass niemand weiss dass ich Rumpelstilzchen heiss ;)

Uebrigens eine nette Notiz fuer all diejenigen die ueber die angeblichen "128 SPs" des G80 gemeckert oder gelacht haben. Mit nutzlosen Marketingnummern kann jede Firma ankommen nur sind 320 SPs um noch vieles mehr laecherlich als Marketing-stunt. Erstens weil alle Einheiten nicht die gleichen Faehigkeiten haben (eher 256+64 wenn's schon sein muss), zweitens handelt es sich nicht um reine skalare Einheiten und drittens dachte man sich einfach dass die "96 ALUs" die frueher Orton geleakt hatte (wobei man 64*MADD + 64*(1/2MADD) zaehlte, ergo die skalare Einheiten als "halb-ALUs") sich nicht besonders gut gegen angebliche 128 vermarkten lassen. Und jetzt soll mir jemand nochmal erklaeren warum ich die SFs beim G80 auch noch nicht mitzaehlen sollte um es noch laecherlicher zu machen pffff.......

***edit: 200W hm? just say I didn't say so....:P

Godmode
2007-03-01, 07:10:24
Ende Juni, ich dachte er kommt Ende Mai? Barcelona ist 40 % schneller, ok schön und gut, ich will jetzt aber auch noch wissen um wieviel der R600 schneller ist, als der G80!

AnarchX
2007-03-01, 08:36:34
[R600 Clocks Higher Than 800MHz]
Hardspell is reporting that R600 GDDR3 card uses 12 layers PCB while the R600 GDDR4 card uses 12-16 layers PCB. The silicon for R600 only reaches A13 revision and there are no A14, 15 or 17 revisions. According to them, currently all the ATi R600 benchmarks out there aren't real and R600 core clock is not lower than 800MHz. VR-Zone has learned about some updates on R600 availability. Apparently R600 GDDR3 will be available in early May while R600 GDDR4 will be available in mid May but in limited quantities. We will see some R600 demos at CeBIT but behind doors
http://www.vr-zone.com/index.php?i=4713

[AMD Demo R600 Crossfire on Quad Core Barcelona Setup]
[...]Our sources told us that X2900XTX will only be available in limited quantities when launched.
http://www.vr-zone.com/index.php?i=4712

James Ryan
2007-03-01, 08:42:26
Interessant, also die Verschiebung doch nicht nur aufgrund des Wunsches das beim Launch auch Karten kaufbar sind. ;D
Man sieht IMO ganz gut dass der R600 nochmal überarbeitet wird bezüglich Taktfrequenzen, weil höherer Takt = geringere Ausbeute = weniger kaufbare Karten.
Ich hoffe inständig dass es beim R700 anders laufen wird, ATi fährt mit ihrer Strategie gegen die Wand.

MfG :cool:

K4mPFwUr$t
2007-03-01, 08:44:46
@bans3i
die 40% sind PR gelabber!
werden eh nur in hoch spezialisierten task vorkommen, wenn überhaupt.

@R600@800Mhz
fragt sich nur wieviel luft für OC noch vorhanden ist bei dieser hohen taktung.

@james ryan
sehe ich genau so, durch die hohe grundtaktung ist die yield zu niedrig.
am ende fährt man genau so wie intel gegen die wand mit netcrap äh netburst.

Lawmachine79
2007-03-01, 08:49:07
Den R600 kann man mittlerweile abhaken, den bringt ATI nur noch aus Prinzip auf den Markt...man sollte sich dort jetzt auf den R700 konzentrieren. Wenn das Ding erst im Mai auf den Markt kommt, gibt es den G80 schon 7 Monate, der G81 wird auf Kommando von der Leine gelassen und der G90 nimmt scharfe Konturen an. Es geht nicht mehr darum, wie leistungsfähig der R600 ist sondern darum, mit dem R700 das ganze wieder auszulöffeln, der R600 ist einfach viel zu spät, egal wie leistungsfähig er ist. Vom R600 zum G90 wird weniger Zeit vergehen als vom G80 zum R600.

James Ryan
2007-03-01, 08:54:45
Bleibt nur zu hoffen dass AMD einen R700 noch zulässt.

MfG :cool:

Gast
2007-03-01, 09:06:55
Bleibt nur zu hoffen dass AMD einen R700 noch zulässt.

MfG :cool:
Das glaube ich schon. Selbst wenn sie die Strategie nicht mehr ändern können, werden sie sie sicher beim R800 ändern und dort etwas konservativer, was den Fertigungsprozess betrifft, angehen.

Anarchy-HWLUXX
2007-03-01, 11:19:40
Bleibt nur zu hoffen dass AMD einen R700 noch zulässt.

MfG :cool:

Was heisst hier bitte zulassen ? Eine andere option gibt es nicht wenn se die Milliarden investition nicht in den Sand setzen wollen :rolleyes:

Ausserdem wird der einfluss und das Know-How von AMD sowie die Manpower erst beim R700 richtig einsetzen ... Wegen einem verspäteten Produkt die Segel Streichen, sowas ist mal voll lächerlich.

Weiterhin braucht AMD die GPUs als Stream (Co- ?)Prozessoren - die entwicklung muss also weitergehen so oder so ;)

PCGH_Carsten
2007-03-01, 11:20:58
Was heisst hier bitte zulassen?

[def]Zulassen
IF Radeon X2900 XTX = 699 Dollar
OR FireGL/FireSTREAM X2900 XTX = 1999 Dollar
THEN ?

James Ryan
2007-03-01, 11:48:18
Was heisst hier bitte zulassen ? Eine andere option gibt es nicht wenn se die Milliarden investition nicht in den Sand setzen wollen :rolleyes:

Wieso Milliarden Investition in den Sand setzen? Verdonnert AMD die ATi-Abteilung nur noch mit IGPs dürfte für AMD deutlich mehr Gewinn bei rauskommen als mit der momentanen Situation.
Wenn die ATi-Leute nicht fähig sind, eine HighEnd GPU zu bauen und marktreif zu bekommen wird dieser Teil eben gestrichen. Ganz einfach!
Im Moment verliert AMD Geld weil ATi nicht fertig wird.

Ausserdem wird der einfluss und das Know-How von AMD sowie die Manpower erst beim R700 richtig einsetzen ... Wegen einem verspäteten Produkt die Segel Streichen, sowas ist mal voll lächerlich.


Es ist bereits das zweite massiv(!) verspätete ATi-Produkt! Wie oft wollen die das noch wiederholen?
Ich hoffe sehr dass AMD beim R700 mehr seine Finger drin haben wird, es kann für den Kunden nur besser werden.
Sollte ATi beim R700 wieder Murks machen, wird AMD spätestens dann auf die Notbremse treten müssen.

MfG :cool:

Enterprise
2007-03-01, 11:48:22
[def]Zulassen
IF Radeon X2900 XTX = 699 Dollar
OR FireGL/FireSTREAM X2900 XTX = 1999 Dollar
THEN ?


Deine NDA nicht gebrochen? Ganz schöner Happen, aber ich hol sie auch für den Preis, wird ja ne gute Leistung bringen.


mfg

Gast
2007-03-01, 11:52:04
Na ich denke auch mal stark, dass AMD nicht so kurzsichtig ATI gekauft hat. Die werden da schon konkrete Pläne in der Schublade haben.
Und das schon seit geraumer Zeit.

PCGH_Carsten
2007-03-01, 12:02:17
Deine NDA nicht gebrochen? Ganz schöner Happen, aber ich hol sie auch für den Preis, wird ja ne gute Leistung bringen.


mfg
a) Habe ich diesbezüglich kein NDA (erinnerst du dich? Techday wurde gecancelt...)

b) Das sind lediglich fiktive Zahlen. :)

deekey777
2007-03-01, 12:03:27
[def]Zulassen
IF Radeon X2900 XTX = 699 Dollar
OR FireGL/FireSTREAM X2900 XTX = 1999 Dollar
THEN ?
GOTO G90. :biggrin:

Und jetzt zu den R600-Daten.
64 5D-ALUs also. Hm, so schlimm ist es auch wieder nicht. Damit beantwortet sich aber eine andere Frage: 16 TMUs (vier per Quad-ALU). Es sei denn, sie sind Xenos-Like außerhalb der ALU-Blöcke und sind wirklich physisch entkoppelt. Klingt das sinnvoll? Dann wären auch 24 TMUs (6 Quad-TMUs) drin. Und die ROPs könnten auch G80-Like vom Rest entkoppelt werden. Dann hätte man ein sehr modulares Design.
Enterprise: Da braucht man kein NDA zu brechen, denn der aktuelle AMD Stream Processor kostet wirklich um die 2 Riesen und es ist bloß ein R580 (mit Support, Tools...).

dargo
2007-03-01, 12:07:15
[def]Zulassen
IF Radeon X2900 XTX = 699 Dollar
OR FireGL/FireSTREAM X2900 XTX = 1999 Dollar
THEN ?
X2900XT = 599$
X2900XL = 449-499$

???

Vorallem die Leistung der XL würde mich interessieren. Wie groß ist die Chance, dass die XL leistungsmäßig zwischen einer GTS und GTX liegen wird?
Ich weiß, ist ne blöde Frage zum jetzigen Zeitpunkt. :cool:

AnarchX
2007-03-01, 12:32:30
Wenn X2900XT(X) erst im Mai kommen, könnte ich mir vorstellen, dass die XL vielleicht erst im frühen H2 kommt und schon auf einen R600@65nm setzt, vergleichbar mit der X800XL(R410).

@DK777:
Glaubst du nicht das 16/24TMUs etwas wenig sein könnten, selbst bei 800MHz+?
Imo werden es wohl eher 32 herkömmliche TMUs werden.
Oder ATi setzt auch auf Bi-TMUs, da sollten es aber min. 24 sein.

Gast
2007-03-01, 12:33:33
[AMD Demo R600 Crossfire on Quad Core Barcelona Setup]

http://www.vr-zone.com/index.php?i=4712


2 R600 erreichen "nur" 1 TFlop? das erreichen ja 2 G8800GTX (mit MUL) auch schon.

deekey777
2007-03-01, 12:41:33
2 R600 erreichen "nur" 1 TFlop? das erreichen ja 2 G8800GTX (mit MUL) auch schon.
Darum spricht NV in den CUDA-Papieren von 342 GFLOP/s.

AnarchX
2007-03-01, 12:47:19
2 R600 erreichen "nur" 1 TFlop? das erreichen ja 2 G8800GTX (mit MUL) auch schon.

Mit kreativer Zählweise erreicht das G80GTX-SLI auch ohne MUL die 1TFLOPs, mit sind es 1.38TFLOPs.;)

Zudem galt das 1TFLOP bei der AMD-Präsentation AFAIK für das ganze System, also auch den Barcelona Quadcore, wodurch der dort gezeigte R600 unter 500GFLOPs liegen könnte.

z.B.
64*9*0.850 = 490GFLOPs

Enterprise
2007-03-01, 12:53:45
http://translate.google.com/translate?u=http%3A%2F%2Fnews.mydrivers.com%2F1%2F78%2F78496.htm&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools

R600 Renderings?

PCGH_Carsten
2007-03-01, 12:57:40
Darum spricht NV in den CUDA-Papieren von 342 GFLOP/s.
CUDA und CTM sind etwas weniger Marketing-lastig als sonstige Präsentationen.

deekey777
2007-03-01, 13:00:55
Wenn X2900XT(X) erst im Mai kommen, könnte ich mir vorstellen, dass die XL vielleicht erst im frühen H2 kommt und schon auf einen R600@65nm setzt, vergleichbar mit der X800XL(R410).

@DK777:
Glaubst du nicht das 16/24TMUs etwas wenig sein könnten, selbst bei 800MHz+?
Imo werden es wohl eher 32 herkömmliche TMUs werden.
Oder ATi setzt auch auf Bi-TMUs, da sollten es aber min. 24 sein.

"Herkömmliche" TMUs sollen es nicht sein, sondern "fette" TMUs. Fett klingt mindestens nach G80-TMUs.
Die Anzahl und Fähigkeit der TMUs des R600 ist wirklich ein Mysterium. ATi hatte hier einiges nachzuholen: VTF, Filtern von FP-Texturen... Vielleicht haben sie was ganz neues entwickelt.

Gast
2007-03-01, 13:04:06
Darum spricht NV in den CUDA-Papieren von 342 GFLOP/s.

342GFLOP/s sind es ohne MUL, mit MUL 5xx.

Gast
2007-03-01, 13:05:03
Mit kreativer Zählweise erreicht das G80GTX-SLI auch ohne MUL die 1TFLOPs, mit sind es 1.38TFLOPs.;)

Zudem galt das 1TFLOP bei der AMD-Präsentation AFAIK für das ganze System, also auch den Barcelona Quadcore, wodurch der dort gezeigte R600 unter 500GFLOPs liegen könnte.

z.B.
64*9*0.850 = 490GFLOPs

selbst wenn, im vergleich zu GPUs haben CPUs so wenig FLOPs dass man sie in der berechnung schon fast vernachlässigen kann.

PCGH_Carsten
2007-03-01, 13:07:38
"Herkömmliche" TMUs sollen es nicht sein, sondern "fette" TMUs. Fett klingt mindestens nach G80-TMUs.
Die Anzahl und Fähigkeit der TMUs des R600 ist wirklich ein Mysterium. ATi hatte hier einiges nachzuholen: VTF, Filtern von FP-Texturen... Vielleicht haben sie was ganz neues entwickelt.
So ähnlich wie die "extremen" Pipelines?

btw, VTF ist mit einer USA zu einem "No-Cost"-Feature in Sachen Hardware geworden.

deekey777
2007-03-01, 13:12:13
So ähnlich wie die "extremen" Pipelines?

btw, VTF ist mit einer USA zu einem "No-Cost"-Feature in Sachen Hardware geworden.

16 extreme Pipelines wären 22 echte oder?:biggrin:
(12 Extreme Pipelines der R420 waren 16 echte)
VTF war ja doofes Beispiel, bei USA gibt es nur TF.

PCGH_Carsten
2007-03-01, 13:30:16
selbst wenn, im vergleich zu GPUs haben CPUs so wenig FLOPs dass man sie in der berechnung schon fast vernachlässigen kann.
Laut einem Nvidia-Dokument zu Cuda liegt ein 3-GHz-C2D bei rund 50 GFLOPs.

Ailuros
2007-03-01, 13:37:27
Der winzige Happen an Info den man herauslass und die merkwuerdige Stille von Seiten der ISVs die die Dinger schon seit einiger Zeit in der Hand haben geben mir ein merkwuerdiges Gefuehl. Es wuerde mich kein bisschen wundern wenn die Aufkauf-Geruechte fuer AMD doch nicht bestandlos sind und es kocht sich irgend etwas extrem merkwuerdiges im Hintergrund...

Gmax
2007-03-01, 14:04:27
Wieso Milliarden Investition in den Sand setzen? Verdonnert AMD die ATi-Abteilung nur noch mit IGPs dürfte für AMD deutlich mehr Gewinn bei rauskommen als mit der momentanen Situation.
Wenn die ATi-Leute nicht fähig sind, eine HighEnd GPU zu bauen und marktreif zu bekommen wird dieser Teil eben gestrichen. Ganz einfach!
Im Moment verliert AMD Geld weil ATi nicht fertig wird.



Es ist bereits das zweite massiv(!) verspätete ATi-Produkt! Wie oft wollen die das noch wiederholen?
Ich hoffe sehr dass AMD beim R700 mehr seine Finger drin haben wird, es kann für den Kunden nur besser werden.
Sollte ATi beim R700 wieder Murks machen, wird AMD spätestens dann auf die Notbremse treten müssen.

MfG :cool:

Wenn mit dem R700 wieder alles gut werden soll, dann müßte dieser schon im Oktober/November rauskommen, und genau das ist schwer vorstellbar.
D.h., der R600 würde bereits nach einem halben Jahr abgelöst werden.

AMD Demo R600 Crossfire on Quad Core Barcelona Setup (http://www.vr-zone.com/?i=4712)

Gaestle
2007-03-01, 14:21:59
Es wuerde mich kein bisschen wundern wenn die Aufkauf-Geruechte fuer AMD doch nicht bestandlos sind und es kocht sich irgend etwas extrem merkwuerdiges im Hintergrund...

Wie bitte?

Nakai
2007-03-01, 14:25:43
Tjo...aber wie sehen dann wohl die ALUs aus?
:wink:

Um mehr Flexibilität zu erhalten müsste man entweder die Vec4 in 2 Vec2 spalten oder diese ALU ziemlich splitten.
Nun für was wird dieses kleine Miniadd den benutzt?

Jedenfalls wird er R600 wohl an die 900Mhz Coretakt haben, ich schätze an die 850 bis 900Mhz um etwa max 518,4 Gflops zu erhalten.
Wenn diese ALUs noch sehr flexibel sind, und das Ding genug Füllrate hat, dann wird er den G80 schlagen.

mfg Nakai

James Ryan
2007-03-01, 14:33:34
Der R600 wird schon schneller sein als der G80, das steht denke ich mal außer Frage. Nur auch besser?
Wird er auch bei gleicher Bildqualität schneller sein? Wird ATi endlich mal das AI im Treiber überarbeiten? Wird der R600 im Idle stromsparender sein als der G80? Wird er ebenso viele FSAA-Modi besitzen und ein noch besseres AF als die R5xx Reihe?
Schneller heißt nicht besser, der R600 muss das überzeugendere Gesamtpaket bieten da der G80 schon recht gut vorgelegt hat.
Das schlimme ist auch dass sich der R600 nicht mehr gegen den G80 messen lassen muss, der G80 Refresh steht quasi vor der Tür.

MfG :cool:

Nakai
2007-03-01, 14:54:11
Der R600 sollte einen besseren AA-Modi haben, jedoch ist die AA-Qualität des R5x0 schon fast G80-Niveau.
Soviel muss nicht gesteigert werden.

noch besseres AF als die R5xx Reihe?

Er muss von der BQ nur etwas besser zum G80 werden.

Das schlimme ist auch dass sich der R600 nicht mehr gegen den G80 messen lassen muss, der G80 Refresh steht quasi vor der Tür.

Welcher der G90 ist und wohl zweites Halbjahr kommt. Es wird wohl nur einen Mini-Refresh geben wie die Geforce 7800GTX 512.

mfg Nakai

Raff
2007-03-01, 15:05:35
Es wäre aber langsam schon an der Zeit, immerhin bietet man das aktuelle (sehr gute) MSAA quasi unverändert schon seit viereinhalb Jahren. Nur AAA kam hinzu.

MfG,
Raff

pipin
2007-03-01, 16:06:45
AMD Demo R600 Crossfire on Quad Core Barcelona Setup (http://www.vr-zone.com/?i=4712)

Das hat VR-Zone falsch von EETimes uebernommen. System war ein Dual-Core Opteron.

Komplette Pressemitteilung findet man hier: http://biz.yahoo.com/bw/070301/20070228006340.html?.v=1

PCGH_Carsten
2007-03-01, 16:12:09
Das hat VR-Zone falsch von EETimes uebernommen. System war ein Dual-Core Opteron.

Komplette Pressemitteilung findet man hier: http://biz.yahoo.com/bw/070301/20070228006340.html?.v=1
Auszug:
"AMD Opteron(TM) dual-core processor technology"
Nicht "AMD Opteron(TM) dual-core processor". Barcelona-CPUs werden sicherlich auch auf "AMD Opteron(TM) dual-core processor technology" basieren.

R300
2007-03-01, 16:42:51
Es wäre aber langsam schon an der Zeit, immerhin bietet man das aktuelle (sehr gute) MSAA quasi unverändert schon seit viereinhalb Jahren. Nur AAA kam hinzu.

MfG,
Raff


Naja und selbst AAA läuft auf dem R300 genauso wie auf allen Radeons danach.
An ATi's MSAA kann man eig nichts verbessern außer eine höhere Sample Anzahl oder man macht SSAA, aber das halte ich für sehr unwahrscheinlich.

Gast
2007-03-01, 16:46:55
Wo sind denn die Ergebnisse?

Nakai
2007-03-01, 17:06:38
Auf dem Mond, da hat ATI ein geheimes Forschungslager.;)

Es gibt noch keine wahren Ergebnisse von Benchmarks. Aber langsam kristallisiert sich die Leistung des R600 aus.

mfg Nakai

deekey777
2007-03-01, 17:18:11
Wo sind denn die Ergebnisse?
Lies doch die News: 1 TFLOP/s an MADD-Leistung. Es war nur eine "wissenschaftliche" Demonstration der Rechenleistung. ;)

Kurze Zusammenfassung: 64 5D-ALUs mit 10 FLOP per ALU? So kommt man auf 512 GFLOP/s (800 MHz). Irgendwie zu wenig, reicht gerade noch für UT3. :biggrin:
Der G80 erreicht theoretisch über 540 GFLOP/s.
---------------------------------------------
Zeit für mehr Spinnerei:
http://www.eetimes.com/news/latest/showArticle.jhtml?articleID=197700269
Separately, AMD gave one of the first public demos of the R600, its next-generation graphics controller that uses 320 multiply-accumulate units. The company showed a Barcelona-based system using two 200W R600 graphics cards to hit a teraflop/second benchmark.
200 Watt also...
http://img265.imageshack.us/img265/9191/r600boardspec1ay2.jpg
Entweder wurde die Leitung von einem TFLOP/s mit weniger als 800 MHz erreicht, oder die Stromaufnahme wurde gesenkt.
Übrigens war es kein Barcelona-System, sondern nur ein DC-Opteron.

Nakai
2007-03-01, 17:38:54
Wieso immer 800 Mhz?
Das Ding kann ruhig höher getaktet sein.^^

Der G80 wird wohl nie die komplette MUL-Leistung erreichen, da diese nicht wirklich für den Shadercore konzipiert sind. Erinnert mich am G70 mit der ALU vor der TMU.

MADD-Leistung

Mhh nenn ganzes MADD?! Das ist interessant, denn dann kann der R600 wohl kaum nur ein zusätzliches ADD verfügen.
Bei 800 Mhz und 2 R600 wären das nur 819,2 Gflops.
Dann könnte man den R600 als Vec5-MADD darstellen, aber aus Vec4- und Scalar-MADD....

mfg Nakai

deekey777
2007-03-01, 18:03:45
Warum heben sie hervor:
and two next-generation AMD R600 Stream Processors capable of performing more than 1 trillion floating-point calculations per second using a general “multiply-add” (MADD) calculation. This achievement represents a ten-fold performance increase over today’s high-performance server platforms, which deliver approximately 100 billion calculations per second.
wenn nicht alle einzelnen ALUs gleich aufgebaut wären?
Oder es sind 80 "alte" Vec4-ALUs bzw. 80 Xenos-ALUs (Vec4+1: 4 MADD+1 ADD), was unwahrscheinlich ist.
Oder wird zu dem TFLOP/s auch die MADD-Leistung des Opteron hinzugerechnet?:|

laser114
2007-03-01, 18:12:04
...

Ob die Tabelle noch aktuell ist?

Zumindest das "Availability" deckt sich ja nicht mehr mit den Aussagen von AMD (ATI). Daher bin ich mir bei den angegebenen Informationen auch nicht so sicher...

AnarchX
2007-03-01, 19:42:15
Radeon X2300 für AGP?
http://www.fudzilla.com/index.php?option=com_content&task=view&id=41&Itemid=34

Da sich der G84-AGP auch als Ente herausstellte, sollte man diese Info von Fuad doch mit Vorsicht nehmen. ;)

Raff
2007-03-01, 19:54:35
Nur in diesem Fall gingen noch keine Aussagen um etwaige Inkompatibilitäten zwischen Rialto und neuen GPUs um.

MfG,
Raff

laser114
2007-03-01, 19:55:19
Radeon X2300 für AGP?
http://www.fudzilla.com/index.php?option=com_content&task=view&id=41&Itemid=34

Da sich der G84-AGP auch als Ente herausstellte, sollte man diese Info von Fuad doch mit Vorsicht nehmen. ;)

Wobei ATI ja sowieso noch mehr AGP unterstützt als nVidia, zumindest in neuerer Zeit. ;)

AnarchX
2007-03-01, 20:05:25
Nunja, als Abzocke an ahnunglosen DAUs könnte eine RV610@AGP durchaus etwas Geld bringen, aber eine sinnvolle AGP-Karte wird dies eher nicht sein(64Bit SI).
Aber was solls allein schon weil DX10 drauf steht, werden sich da bestimmt Käufer finden. ;)

Wobei ATI ja sowieso noch mehr AGP unterstützt als nVidia, zumindest in neuerer Zeit. ;)
Das liegt aber nur indirekt an ATi, der Grund für den Aufschwung an ATi-AGP-Karten, ist eher der dass ATi für X1950Pro/XT den Herstellern Kits zur Verfügung gestellt hat, mit den sie sich eigene Lösungen bauen können mit den ATi-GPUs, was somit auch gleich eine Freifahrtkarte für die AGP-Lösungen war.

AnarchX
2007-03-01, 20:15:52
Hier scheint es noch ein paar Photos der R600-Karte zu geben, die gestern bei der AMD-Präsentation gezeigt wurde:
AMD says the R600 breaks teraFLOPS barrier (http://techreport.com/onearticle.x/11944)
[...]
In related news, ZDNet blogger David Berlind was at the event in San Francisco yesterday and snapped a few pictures of the R600. AMD allowed him to release the pictures on condition that he refer to the product as an R600 prototype. The photos are similar to other leaked shots of the card we saw last month, but they show just a bit more detail. Interestingly, beneath the card's massive (and reportedly foot-long) cooler lives a PCB that actually looks somewhat shorter than that of Nvidia's GeForce 8800 GTX. Let's hope the final retail cooler isn't quite as gargantuan.

>Link zu den Bildern< (http://content.zdnet.com/2346-10741_22-57089-1.html)

Raff
2007-03-01, 20:32:32
Hm, das dürfte das OEM-Design sein.

MfG,
Raff

Black-Scorpion
2007-03-01, 20:36:59
ATI R600 Prototype
Quelle: http://content.zdnet.com/2346-10741_22-57089-1.html

Da braucht man doch nicht erst anfangen zu rätseln. ;)
Steht doch alles da.

reunion
2007-03-01, 20:55:37
Und jetzt zu den R600-Daten.
64 5D-ALUs also. Hm, so schlimm ist es auch wieder nicht. Damit beantwortet sich aber eine andere Frage: 16 TMUs (vier per Quad-ALU). Es sei denn, sie sind Xenos-Like außerhalb der ALU-Blöcke und sind wirklich physisch entkoppelt. Klingt das sinnvoll? Dann wären auch 24 TMUs (6 Quad-TMUs) drin. Und die ROPs könnten auch G80-Like vom Rest entkoppelt werden. Dann hätte man ein sehr modulares Design.


Ich rechne fest mit 16 bi-TMUs, nachdem AiL mehrmals von einem ALU/Tex-Verhältnis von 4:1 oder 2:1 je nach zählweise gesprochen hat.

AnarchX
2007-03-01, 21:15:35
Aber wie soll man mit nur 16 bi-TMUs gegen den G80 bestehen?

Zwar gibt es bestimmt da Raum für Optimierungen, aber der G80 nutzt halt seine Texelfüllrate schon ziemlich effizient, sodass ich die 35% höhere Texelfüllrate des G80 im Falle eines R600 mit 16 bi-TMUs @850MHz nicht wirklich einholbar sehe.

Gast
2007-03-01, 21:24:02
Zwar gibt es bestimmt da Raum für Optimierungen, aber der G80 nutzt halt seine Texelfüllrate schon ziemlich effizient, sodass ich die 35% höhere Texelfüllrate im Falle eines R600 mit 16 bi-TMUs @850MHz nicht wirklich einholbar sehe.

Wer hat "die 35% höhere Texelfüllrate"?
Der r600 wird entweder 16 TRI - TMUs oder 32 BI-TMUs haben.
Mit was anderen braucht AMD garnicht erst antreten, da der G80 dann von der Texturleistung deutlich im Vorteil wäre.

Raff
2007-03-01, 21:26:15
32 bi-TMUs wären bei über 800 MHz aber schon ein ganz anderes Kaliber als ein G80. Doch Halt ... warum eigentlich nicht? Immerhin kommt er spät. Und es würde zu 512 Bit + GDDR4 passen. :naughty:

MfG,
Raff

AnarchX
2007-03-01, 21:30:02
Wer hat "die 35% höhere Texelfüllrate"?
G80, hatte es auch gerade nochmal editiert da es nicht ganz eindeutig war. ;)


Der r600 wird entweder 16 TRI - TMUs oder 32 BI-TMUs haben.
Mit was anderen braucht AMD garnicht erst antreten, da der G80 dann von der Texturleistung deutlich im Vorteil wäre.

Der R600 wird dies haben, was schon lange geplant ist.

Und mir kommt immer mehr der Verdacht, dass ATi auch den Fehlinfos zum G80 aufgessen sein könnte und der R600 einfach nicht konkurrenzfähig ist gegenüber dem "überraschenden" G80, der im November 2006 den Markt erreichte.

32 bi-TMUs wären bei über 800 MHz aber schon ein ganz anderes Kaliber als ein G80. Doch Halt ... warum eigentlich nicht? Immerhin kommt er spät. Und es würde zu 512 Bit + GDDR4 passen. :naughty:

Natürlich wäre solche eine Texelleistung sehr nett und damit wäre auch bei ATi hoffentlich die Filteroptimierungen überflüssig, nur scheinen Ailuros' Quellen da etwas anderes zu sagen. ;)

reunion
2007-03-01, 21:30:51
Aber wie soll man mit nur 16 bi-TMUs gegen den G80 bestehen?

Zwar gibt es bestimmt da Raum für Optimierungen, aber der G80 nutzt halt seine Texelfüllrate schon ziemlich effizient, sodass ich die 35% höhere Texelfüllrate des G80 im Falle eines R600 mit 16 bi-TMUs @850MHz nicht wirklich einholbar sehe.

Theoretische Zahlen sind bei den immer komplexer werdenden GPUs bestenfalls noch ein grober Anhaltspunkt. G71 hat eine um 50% höhere Texelfüllrate als R580, und kann gegen diesen nicht bestehen.

Gast
2007-03-01, 21:31:32
32 bi-TMUs wären bei über 800 MHz aber schon ein ganz anderes Kaliber als ein G80.

Sollten sich die 16 ROPs als wahr herausstellen, dann benötigt der r600 den hohen Takt, um mit der breiteren Architektur vom G80 mithalten zu können.
Der G80 hat ja nicht nur Textur Adress Units sondern nochmal zusätzlich doppelt zuviele Filterung Units.

reunion
2007-03-01, 21:34:33
32 bi-TMUs wären bei über 800 MHz aber schon ein ganz anderes Kaliber als ein G80. Doch Halt ... warum eigentlich nicht? Immerhin kommt er spät. Und es würde zu 512 Bit + GDDR4 passen. :naughty:

MfG,
Raff

Das er spät kommt, ist kein Argument, da man am fertigen Design mit Sicherheit nichts mehr ändert.

/Edit: IMO verstehen hier mache unter "bi-TMUs" traditionelle TMUs, die ein bi-Sampel pro Takt filtern können, und mache verstehen darunter bi(=zwei)-TMUs, also TMUs nach G80-Muster.

AnarchX
2007-03-01, 21:37:48
Theoretische Zahlen sind bei den immer komplexer werdenden GPUs bestenfalls noch ein großer Anhaltspunkt. G71 hat eine um 50% höhere Texelfüllrate als R580, und kann gegen diesen nicht bestehen.

Der G80 ist aber keine CineFX-GPU mehr und nutzt seine Texelfüllrate wie schon gesagt mit deutlich höherer Effizienz, sodass eben schwierig werden könnte für ATi diese Effizienz deutlich zu übertreffen um somit mit theoretisch unterlegenem Maximum hier zu punkten.

deekey777
2007-03-01, 21:39:36
Ich rechne fest mit 16 bi-TMUs, nachdem AiL mehrmals von einem ALU/Tex-Verhältnis von 4:1 oder 2:1 je nach zählweise gesprochen hat.
Ich hab doch die Verhältnis-Frage in die Runde geworfen nachdem Demirug mich darauf aufmerksam gemacht hat.
;(
Und dazu kommt noch, dass 64 nicht durch drei teilbar ist.
Auch meinte mal Demirug, dass die Anzahl der TMUs steigt, ihre Fähigkeiten aber vereinfacht werden (siehe G80).

robbitop
2007-03-01, 21:41:08
32 bi-TMUs wären bei über 800 MHz aber schon ein ganz anderes Kaliber als ein G80.
Ja naemlich ein unterlegenes. Das mit den doppel TMUs rafft irgendwie keiner X-D

robbitop
2007-03-01, 21:42:42
Theoretische Zahlen sind bei den immer komplexer werdenden GPUs bestenfalls noch ein grober Anhaltspunkt. G71 hat eine um 50% höhere Texelfüllrate als R580, und kann gegen diesen nicht bestehen.
Das lag an der Entkopplung und am guenstigen ATI AA (schau dir mal only AF Benches an). Die Fuellrate limitierte R580 naemlich nicht so arg.
G80 ist ja nun auch entkoppelt.

reunion
2007-03-01, 21:43:59
Der G80 ist aber keine CineFX-GPU mehr und nutzt seine Texelfüllrate wie schon gesagt mit deutlich höherer Effizienz, sodass eben schwierig werden könnte für ATi diese Effizienz deutlich zu übertreffen um somit mit theoretisch unterlegenem Maximum hier zu punkten.

Das ist zwar richtig, nur hat ATi auch nicht geschlafen. Wofür sollte man 700mio Transistoren benötigen, wenn man fast überall weniger Einheiten als G80 hat, wenn nicht, um eine höhere Effizienz zu ermöglichen?

AnarchX
2007-03-01, 21:47:16
Das ist zwar richtig, nur hat ATi auch nicht geschlafen. Wofür sollte man 700mio Transistoren benötigen, wenn man fast überall weniger Einheiten als G80 hat, wenn nicht, um eine höhere Effizienz zu ermöglichen?

Das 512Bit SI und die Flexibilität der ALUs, dass man sie als "320 multiply-accumulate units" verkaufen kann, dürften imo nicht gerade wenig Transistoren verbrauchen.

Gast
2007-03-01, 21:47:34
G71 hat eine um 50% höhere Texelfüllrate als R580, und kann gegen diesen nicht bestehen.

sofern es auf texelfüllrate ankommt schon.

reunion
2007-03-01, 21:59:31
Ich hab doch die Verhältnis-Frage in die Runde geworfen nachdem Demirug mich darauf aufmerksam gemacht hat.
;(
Und dazu kommt noch, dass 64 nicht durch drei teilbar ist.
Auch meinte mal Demirug, dass die Anzahl der TMUs steigt, ihre Fähigkeiten aber vereinfacht werden (siehe G80).

16 ist nach heutigem Kenntnisstand IMHO sehr wahrscheinlich, vorallem, da es auch perfekt zu den 4 Shaderclustern passen würde.

Das lag an der Entkopplung und am guenstigen ATI AA (schau dir mal only AF Benches an). Die Fuellrate limitierte R580 naemlich nicht so arg.
G80 ist ja nun auch entkoppelt.

Sie wurde AFAIK nur "teilweise" entkoppelt. Aber darauf lässt sich die Effizienz eines Grafikchips ohnehin nicht reduzieren. Als einfacher Kunde kann man bei solch komplexen Chips so oder so nie und nimmer beurteilen, wo es überall zu Flaschenhälse kommen könnte. Nachteile werden bei einer neuen Architektur immer erst sehr spät bekannt. Deshalb ist eine Architektur so lange effizient, bis es eine andere besser macht. Jedenfalls ist mit G80 mit Sicherheit nicht das Ende der Fahnenstange erreicht.

Das 512Bit SI und die Flexibilität der ALUs, dass man sie als "320 multiply-accumulate units" verkaufen kann, dürften imo nicht gerade wenig Transistoren verbrauchen.

Sicherlich nicht so teuer wie die skalaren ALUs des G80. Dass das SI was kostet, ist klar, allerdings erklärt das IMO nicht solche Differenzen.

horn 12
2007-03-01, 22:00:32
Wie sicher ist es nun langsam dass:
a) der R600 X2900 XT/X und die X2900 XL vor allem erst Anfang Mai zu kaufen sein werden?

b) der R600 ein Flop werden wird?

c) der R600 den G80 Locker wegsteckt,- und mit dem G81 auch weitgehend konkurrieren kann.

Ich persönlich tippe auf Ende April für die XL/ Mitte April für die XT/X und auf die Lösung Nr. C

robbitop
2007-03-01, 22:02:47
Sie wurde AFAIK nur "teilweise" entkoppelt.
Das ist richtig. Das gilt fuer G80 als auch fuer R580 als auch fuer jede GPU. Logischerweise basieren Ergebnisse aufeinander und vor dem Shading muss gefiltert werden. Das laesst sich natuerlich nur begrenzt entkoppeln. Aber ich denke das ist in den Regionen entkoppelt, dass da kein grosser Flaschenhals draus werden sollte. Die Effizienz der Pipe ist seitdem nicht mehr so arg vom Tex:ALU Verhaeltnis abhaengig.

AnarchX
2007-03-01, 22:06:34
Sicherlich nicht so teuer wie die skalaren ALUs des G80. Dass das SI was kostet, ist klar, allerdings erklärt das IMO nicht solche Differenzen.

Deshalb hat der G80 aber auch nur 128 davon, welche durch den hohen Takt ihrer Domain ihre Leistung erreichen.

Beim R600 will man aber nun 2.5mal so viele skalare Einheiten vermarkten, was durchaus einige Transitoren gekostet haben könnte, die man imo besser in anderen Einheiten investiert hätte.

reunion
2007-03-01, 22:07:26
Wie sicher ist es nun langsam dass:
a) der R600 X2900 XT/X und die X2900 XL vor allem erst Anfang Mai zu kaufen sein werden?

b) der R600 ein Flop werden wird?

c) der R600 den G80 Locker wegsteckt,- und mit dem G81 auch weitgehend konkurrieren kann.

Ich persönlich tippe auf Ende April für die XL/ Mitte April für die XT/X und auf die Lösung Nr. C

Von April kannst du dich IMO verabschieden. Ich rechne mit einer Veröffentlichung gemeinsam mit Barcelona frühestens Ende Mai, eher Juni.

reunion
2007-03-01, 22:17:39
Deshalb hat der G80 aber auch nur 128 davon, welche durch den hohen Takt ihrer Domain ihre Leistung erreichen.

Beim R600 will man aber nun 2.5mal so viele skalare Einheiten vermarkten, was durchaus einige Transitoren gekostet haben könnte, die man besser an anderen Einheiten investiert hätte.

Was man vermarkten will, interessiert niemanden. Die 128 ALUs des G80 sind alle "vollwertig", beherrschen also MADD + ziemlich sicher auch MUL und können auch sonst jede Berechnung ausführen. ATI vermarktet bei R600 offenbar jede Mini-ALU als eigene SP, um gegen nV gut dazustehen. Momentan sieht es nach vec4 MADD plus skalar ADD aus, was nichtmal reichen würde, um den höheren Takt des G80 auszugleichen. Von 2.5x kann also keine Rede sein. Zwar wird es natürlich einige gewichtige Verbesserungen im Vergleich zu R580 geben, welche Transistoren kosten, allerdings sollte das im Vergleich zu den skalaren ALUs von G80 überschaubar bleiben. Zumindest solange nicht noch irgendetwas wichtiges zum Vorschein kommt

robbitop
2007-03-01, 22:22:55
Der Sinn eines skalaren ADDs entzieht sich mir allerdings. Fuer Inputmodifiere und perspektivkorrektur braeuchte man natuerlich Vec3 oder Vec4.

Gast
2007-03-01, 22:35:36
16 ist nach heutigem Kenntnisstand IMHO sehr wahrscheinlich, vorallem, da es auch perfekt zu den 4 Shaderclustern passen würde.


Xenos hat drei SIMD - Arrays und 16 BI - TMUs.
Wenn ATi auf dieses Design aufgebaut hat, dann wären auch 20/24/28/32... BI-TMUs möglich mit 4 SIMD - Arrays.

Gast
2007-03-01, 22:38:08
Als einfacher Kunde kann man bei solch komplexen Chips so oder so nie und nimmer beurteilen, wo es überall zu Flaschenhälse kommen könnte.

----

Sicherlich nicht so teuer wie die skalaren ALUs des G80. Dass das SI was kostet, ist klar, allerdings erklärt das IMO nicht solche Differenzen.

Vieleicht solltest du mal dein eigenes geschriebens nochmal Lesen. Wie kannst du Beurteilen das der Shader Teil beim G80 teuer ist im Gegensatz zum R600?

TMUs sind aus alten Erfahrungswerten heraus teuer, deswegen gibts keinen Chip mehr seit der Geforce1 der Tri-TMUs hat. Und der G80 hat zwar 32TMUs aber diese können eben mehr als bisherige TMUs, sind somit Effizienter, auch wenn sie dadurch viel teurer geworden sind. Gegenüber der G70 TMU kam ja nicht nur die quasi Winkelunabhängigkeit mit rein + die Entkopplung sondern auch das Filtern auf ner FP32 Texture und halt das 2fache Bi-Sampeln

reunion
2007-03-01, 23:08:23
Vieleicht solltest du mal dein eigenes geschriebens nochmal Lesen. Wie kannst du Beurteilen das der Shader Teil beim G80 teuer ist im Gegensatz zum R600?


Natürlich kann ich das noch nicht beurteilen. Deshalb schrieb ich ja auch solange nicht noch was anderes zum Vorschein kommt. Was man allerdings sagen kann, ist, dass skalare ALUs teurer sind als vec4-ALUs.


TMUs sind aus alten Erfahrungswerten heraus teuer, deswegen gibts keinen Chip mehr seit der Geforce1 der Tri-TMUs hat. Und der G80 hat zwar 32TMUs aber diese können eben mehr als bisherige TMUs, sind somit Effizienter, auch wenn sie dadurch viel teurer geworden sind. Gegenüber der G70 TMU kam ja nicht nur die quasi Winkelunabhängigkeit mit rein + die Entkopplung sondern auch das Filtern auf ner FP32 Texture und halt das 2fache Bi-Sampeln

Die G80-TMUs können zwei bi Samples pro Takt filtern, sind deshalb natürlich schneller als welche die nur ein Sample pro Takt schaffen, effizienter macht sie das allerdings nicht.

Ailuros
2007-03-02, 05:59:45
Der R600 sollte einen besseren AA-Modi haben, jedoch ist die AA-Qualität des R5x0 schon fast G80-Niveau.

Wer erzaehlt denn den Mist schon wieder? R5x0 kann sich nicht gegen 8x sparse MSAA messen und schon gar nicht gegen 16xQ (was noch einen kleinen Schritt ueber 8x MSAA liegt).

Soviel muss nicht gesteigert werden.

Weisst Du denn ueberhaupt von was Du gerade redest?


Er muss von der BQ nur etwas besser zum G80 werden.

Es kann auch so bleiben; die 45 gradigen Winkel sind so gut wie scheissegal. Besser als G80 heisst um einen fundamental anderen Filterungs-Algorithmus der auf einem ganz anderem Niveau als AF hockt und momentan doch etwas zu teuer fuer heutige HW waere.


Welcher der G90 ist und wohl zweites Halbjahr kommt. Es wird wohl nur einen Mini-Refresh geben wie die Geforce 7800GTX 512.

mfg Nakai

Spricht aber nicht besonders fuer die angenommene "Staerke" des R600, denn umso viel schneller war die GTX512 im Vergleich zur GTX256 nun auch wieder nicht. OT: ich hab Dir auf B3D nicht geantwortet da ich Rys nicht wiederholen will.

Ailuros
2007-03-02, 06:15:15
Ein paar Kleinigkeiten zum ganzen Schlammasel: es sind 700M weil man versucht hat die Effizienz von skalaren Einheiten auszugleichen. In der Mehrzahl der Faelle koennte man sie tatsaechlich als skalar betrachten; der Haken hier ist dass wenn ATI 320 zaehlt, haette NV nicht "nur" 128 zaehlen sollen.

Den Marketing-Schwachsinn koennt Ihr Euch sparen; die Zahlen-Waerkelei ist wirklich nutzlos.

Was jetzt den Rest der Einheiten betrifft, die ROPs hatten ein "Wehwehchen" das beseitigt wurde, aber es fehlt ihnen ein klein bisschen etwas an Flexibilitaet und deshalb begrenzt man sich auch auf nur 2 loops. Es wird wohl auch kein Schwein merken bei der Bandbreite, aber zu was jede ROP genau faehig ist behalte ich lieber fuer nach dem Launch da es wohl keiner so leicht sagen wird.

Reunion,

Natürlich kann ich das noch nicht beurteilen. Deshalb schrieb ich ja auch solange nicht noch was anderes zum Vorschein kommt. Was man allerdings sagen kann, ist, dass skalare ALUs teurer sind als vec4-ALUs.

Vec4 ALUs die aber so ausgelegt sind um die Effizienz von skalaren ALUs zu erreichen sind trotz allem teurer als reine skalare ALUs. Es ist eben genau DER Punkt auf den man in der Vergangenheit deutete dass R600 = Xenos done right. Warum sie nicht gleich auf skalar gegangen sind? R&D Unkosten und es wird Xenos noch fuer einige Zeit geben (stets IMHLO).

Die G80-TMUs können zwei bi Samples pro Takt filtern, sind deshalb natürlich schneller als welche die nur ein Sample pro Takt schaffen, effizienter macht sie das allerdings nicht.

Entwickler wollen eigentlich noch schnelleres bilinear sehen, was ich aber auch fuer R600 bezweifle. So wie es aussieht haette so eine Idee noch mehr Transistoren gekostet und so viel Platz hatten wohl beide doch nicht am Ende.

micki@work
2007-03-02, 08:09:57
Was man allerdings sagen kann, ist, dass skalare ALUs teurer sind als vec4-ALUs.eigentlich meussten sie guenstiger sein, weil man sich einiges an logik sparen kann z.b. braucht man meine spezielle logik fuer dot2,dot3,dot4,swizzling. und da NV die shader in clustern arbeiten laesst, werden sie auch nicht unabhaengige logik zur steuerung brauchen. mir ist echt nicht ersichtlich wieso skalare ALUs teurer sein sollten, kannst du da quellen sagen oder dein wissen teilen? :)

PCGH_Carsten
2007-03-02, 09:26:38
[...] dass man sie als "320 multiply-accumulate units" verkaufen kann, dürften imo nicht gerade wenig Transistoren verbrauchen.
Im Gegenteil - das kostet sogar überhaupt keine Transistoren. :)
Ich kann auch einen R580/G71 mit 192 "multiply-accumulate units" bewerben; und das hätte vor Gericht bestand.

Da steht kein einziges Wort davon, dass die in irgendeiner Weise unabahängig voneinander arbeiten können.

PCGH_Carsten
2007-03-02, 09:28:51
Übrigens war es kein Barcelona-System, sondern nur ein DC-Opteron.
... steht wo? "blabla Opteron processor technology"

Der Sinn eines skalaren ADDs entzieht sich mir allerdings. Fuer Inputmodifiere und perspektivkorrektur braeuchte man natuerlich Vec3 oder Vec4.
In früheren Chips hatte Ati doch das "ADD" "genutzt", um Spezialfunktionen über mehrere Taktzyklen zu berechnen. Dass zusätzlich ein ADD abfiel, war, AFAIK, sogar eher ein Nebenprodukt.

robbitop
2007-03-02, 09:38:24
In früheren Chips hatte Ati doch das "ADD" "genutzt", um Spezialfunktionen über mehrere Taktzyklen zu berechnen. Dass zusätzlich ein ADD abfiel, war, AFAIK, sogar eher ein Nebenprodukt.
Das war aber kein skalares ADD.

PCGH_Carsten
2007-03-02, 09:42:07
Warum heben sie hervor:

wenn nicht alle einzelnen ALUs gleich aufgebaut wären?
Oder es sind 80 "alte" Vec4-ALUs bzw. 80 Xenos-ALUs (Vec4+1: 4 MADD+1 ADD), was unwahrscheinlich ist.
Oder wird zu dem TFLOP/s auch die MADD-Leistung des Opteron hinzugerechnet?:|
Vielleicht heben Sie es hervor, um zu unterstreichen, dass der R600 für "general calculations" geeignet ist - nicht nur für grafikspezifische Dinge. Immerhin - das alles ist Marketing.

Und ja, anhand der ungenauen Formulierung gehe ich fest davon aus, dass

a) es sich um einen Barcelona Prototypen gehandelt hat und
b) dass dessen FLOPs mit eingerechnet wurden - Single-Precision, SIMD :-)

Denn ansonsten hätte man eher etwas in der Richtung formuliert: "blablba 1 TFLOPs of computing power generated by the stream processors alone" und nicht "... Opteron technology" sondern schlicht "Opteron" geschrieben.

Ich rechner mit rund 420-520 GFLOPs MADD-Leistung bei einem einzelnen R600 - je nachdem, ob die Haupt-ALUs 4D oder 5D sind, tendiere eher zu ersterem, hoffe auf das zweitere.


Das war aber kein skalares ADD.
Vielleicht haben Sie es hier noch weiter abgespeckt, sodass Spezialfunktionen noch länger dauern? Ich weiß, kaum wahrscheinlich.

MadManniMan
2007-03-02, 09:48:17
/OT: Q (wenn man Dich noch so nennen kann ;) ), arbeitest Du eigentlich grade? :D

PCGH_Carsten
2007-03-02, 09:54:33
/OT: Q (wenn man Dich noch so nennen kann ;) ), arbeitest Du eigentlich grade? :D
OT: Ja :) Weiteres bitte per PM

Gast
2007-03-02, 10:01:54
eigentlich meussten sie guenstiger sein, weil man sich einiges an logik sparen kann z.b. braucht man meine spezielle logik fuer dot2,dot3,dot4,swizzling. und da NV die shader in clustern arbeiten laesst, werden sie auch nicht unabhaengige logik zur steuerung brauchen. mir ist echt nicht ersichtlich wieso skalare ALUs teurer sein sollten, kannst du da quellen sagen oder dein wissen teilen? :)
Ich bin immer noch der Meinung, dass man die G80 Alus nicht als skalare ALUs bezeichnen sollte. Diese Cluster sind doch auch nur eine nette Umschreibung dafür, dass man 16fach SIMD hat. Nur durch Umordnung von horiziontalen zu vertikalen Daten wird aus SIMD nicht Skalar. Ansonsten könnten Intel und AMD ihre SSE Einheiten als 4 Skalareinheiten in einem Cluster verkaufen.

PCGH_Carsten
2007-03-02, 10:07:41
Ich bin immer noch der Meinung, dass man die G80 Alus nicht als skalare ALUs bezeichnen sollte.
Wo ist der Unterschied für Programmierer oder Kunden zwischen Vec4 mit 1:1:1:1-Split und 4 skalaren Einheiten? (Erweitere es meinetwegen auf 16)

Klar, es geht ein wenig Effizienz flöten, wenn du mal nicht 16 Pixel zusammenbekommst, aber sonst?

Ailuros
2007-03-02, 10:12:05
Das war aber kein skalares ADD.

Huh?

R5x0 ALU=

# ALU 1

* 1 Vec3 ADD + Input Modifier
* 1 Scalar ADD + Input Modifier

# ALU 2

* 1 Vec3 ADD/MUL/MADD
* 1 Scalar ADD/MUL/MADD

Ailuros
2007-03-02, 10:22:36
Im Gegenteil - das kostet sogar überhaupt keine Transistoren. :)
Ich kann auch einen R580/G71 mit 192 "multiply-accumulate units" bewerben; und das hätte vor Gericht bestand.

Da steht kein einziges Wort davon, dass die in irgendeiner Weise unabahängig voneinander arbeiten können.

Wieso "nur" 192 fuer R580? Wenn Du jegliche Vec3 Einheit auf R580 als skalar zaehlen wuerdest + VS ALUs, liegt das Resultat um einiges hoeher als die "320" auf R600.

Der Punkt wo wir nicht uebereinstimmen ist dass in diesem Bereich R580 eben nicht vergleichbar ist mit R600. Wenn Du beim R580 die VS mit den PS FLOPs addierst kommst Du fast auf die R600 GFLOP Rate; das dumme ist dann eben dass R600 tatsaechlich mehr oder weniger um 2x mal schneller als R580 ankommt.

Die Aenderungen was die ALUs betrifft (GS Faehigkeiten mal zur Seite) mit u.a. den notwendigen Splits die ich vermute waren mit Sicherheit nicht umsonst. Eine andere verkorkste Rechnung waere 4* 12 (+2 fuer VS) vs. 4*16.

Gast
2007-03-02, 10:30:10
Wo ist der Unterschied für Programmierer oder Kunden zwischen Vec4 mit 1:1:1:1-Split und 4 skalaren Einheiten? (Erweitere es meinetwegen auf 16)

Klar, es geht ein wenig Effizienz flöten, wenn du mal nicht 16 Pixel zusammenbekommst, aber sonst?
Die ganze Bezeichnung als Skalar ist NUR eine Effizienzgeschichte. Jetzt zu sagen, dass es NUR eine schlechtere Effizenz verursacht, dass es keine richtigen Skalareinheiten sind, ist schon irgenwie :ucrazy4:.
Die Effizienz ist der Grund warum alle CPUs noch (richtige) Skalareinheiten haben und daneben hochoffiziell SIMD Einheiten.
Eine Bezeichnung der G80 Cluster als Skalareinheiten bringt marketingtechnisch, dass sie in der Effizenz über die CPU-SIMD Einheiten gestellt werden. Die (CPU-Hersteller) kriegen ja nichtmal ohne Skalar einen Bruchteil unserer (GPU-Hersteller) Rechenleistung hin.
Ideal für den GPU wird GPGPU Trend.
Dabei stehts eigentlich SIMD4 gegen SIMD16.

Ailuros
2007-03-02, 10:38:10
Dabei stehts eigentlich SIMD4 gegen SIMD16.

"SIMD8" dann eher fuer G80.

PCGH_Carsten
2007-03-02, 10:47:51
Wieso "nur" 192 fuer R580? Wenn Du jegliche Vec3 Einheit auf R580 als skalar zaehlen wuerdest + VS ALUs, liegt das Resultat um einiges hoeher als die "320" auf R600.
Ich habe jetzt mal nur die PS-ALUs, die MADD-fähig sind hergenommen. Die VS-Dinger können ja nichtmal direkt auf Texturen zugreifen und wären für GPGPU damit schwerlich zu gebrauchen. ;)

Klar wird der R600 einige/etliche Verbesserungen in Sachen Effzienz gegenüber dem R5xx haben, aber "nur" Faktor 2 ist aktuell zu wenig - ich bin gespannt.

Die ganze Bezeichnung als Skalar ist NUR eine Effizienzgeschichte. Jetzt zu sagen, dass es NUR eine schlechtere Effizenz verursacht, dass es keine richtigen Skalareinheiten sind, ist schon irgenwie :ucrazy4:.
Die Effizienz ist der Grund warum alle CPUs noch (richtige) Skalareinheiten haben und daneben hochoffiziell SIMD Einheiten.
Eine Bezeichnung der G80 Cluster als Skalareinheiten bringt marketingtechnisch, dass sie in der Effizenz über die CPU-SIMD Einheiten gestellt werden. Die (CPU-Hersteller) kriegen ja nichtmal ohne Skalar einen Bruchteil unserer (GPU-Hersteller) Rechenleistung hin.
Ideal für den GPU wird GPGPU Trend.
Dabei stehts eigentlich SIMD4 gegen SIMD16.
Ich vergleiche CPUs eigentlich nicht mit GPUs. Noch nicht. Und im GPU-Bereich ist es nunmal üblich, mindestens auf Quad-Basis zu arbeiten - darüber wäre der Aufwand für die Steuerungs- und Hilfslogik einfach zu groß.

Und was reine Skalareinheiten kosten - inklusive des Aufwandes, sie beschäftigt zu halten - sieht man ja an den CPUs. Die haben AFAIK ja nicht umsonst im Vergleich zu den xx kByte bei GPUs enorm große Caches.

robbitop
2007-03-02, 11:02:59
Ein paar Kleinigkeiten zum ganzen Schlammasel: es sind 700M weil man versucht hat die Effizienz von skalaren Einheiten auszugleichen. In der Mehrzahl der Faelle koennte man sie tatsaechlich als skalar betrachten;

Inwiefern das? Entweder steuert eine Vec5 ALU fuenf verschiedene Pixel mit je einem Kanal an, was dann irgendwie als skalar gelten koennte (wie beim G80) oder sie steuert nur einen Pixel an und kann per split unabhaengige Instruktionen fuer die einzelnen Komponenten eines Pixels machen.

der Haken hier ist dass wenn ATI 320 zaehlt, haette NV nicht "nur" 128 zaehlen sollen.
Wieso? Der Vergleich passt doch. 64x Vec5 sind nunmal 320 Kanaele.
Genauso wie 16x Vec8 ALUs vom G80.

->

Den Marketing-Schwachsinn koennt Ihr Euch sparen; die Zahlen-Waerkelei ist wirklich nutzlos.
:up:



Vec4 ALUs die aber so ausgelegt sind um die Effizienz von skalaren ALUs zu erreichen sind trotz allem teurer als reine skalare ALUs. Es ist eben genau DER Punkt auf den man in der Vergangenheit deutete dass R600 = Xenos done right. Warum sie nicht gleich auf skalar gegangen sind? R&D Unkosten und es wird Xenos noch fuer einige Zeit geben (stets IMHLO).
siehe oben. Das verstehe ich noch nicht so ganz und ich haette es gern ein bisschen erklaert. :)
Vieleicht meinst du ja ein sehr starkes Splitting im Sinne von 1:1:1:1+1. Das waere schon sehr nett (und teuer), kaeme aber IMO nicht an die Effizienz der Steuerung verschiedener Pixel pro ALU zur gleichen Zeit heran.



Entwickler wollen eigentlich noch schnelleres bilinear sehen, was ich aber auch fuer R600 bezweifle. So wie es aussieht haette so eine Idee noch mehr Transistoren gekostet und so viel Platz hatten wohl beide doch nicht am Ende.
Ja die Doppel TMUs vom G80 sind sicher etw teurer als normale bilineare TMUs. Allerdings kann man die klasse fuer gute Filterung nutzen.

Wenn ATI nur normale bi TMUs mitbringt, fuerchte ich, dass sie den Fuellratennachteil durch AI Spielereien wieder auszugleichen versuchen. Und ich mag kein Flimmern. :(

PCGH_Carsten
2007-03-02, 11:06:36
Wieso? Der Vergleich passt doch. 64x Vec5 sind nunmal 320 Kanaele. Genauso wie 16x Vec8 ALUs vom G80.
Vielleicht sind es aber auch die spekulierten 64 4D MADD plus 64 1D ADD. In dem Falle hätte Nvidia das "missing MUL" auch separat zählen können und wäre auf 256 gekommen.

/OT:
Ich frage mich, warum die nicht auch anfangen die TMUs, SFUs und ROPs mitzuzählen - gäbe immerhin höhere Zahlen.

robbitop
2007-03-02, 11:16:15
Vielleicht sind es aber auch die spekulierten 64 4D MADD plus 64 1D ADD. In dem Falle hätte Nvidia das "missing MUL" auch separat zählen können und wäre auf 256 gekommen.

/OT:
Ich frage mich, warum die nicht auch anfangen die TMUs, SFUs und ROPs mitzuzählen - gäbe immerhin höhere Zahlen.
64xVec4 MAD + 64x1D ADD = 64 x 5 D = 320.
Da fliessen noch keine Faehigkeiten ein.

Weil die nicht frei programmierbar sind. Wenn man das taete, haette schon eine Voodoo 1 ne fette FLOP rate gehabt X-D.
Kannst ja mal auf einem Blatt papier nachzaehlen, wieviele instruktionen eine bilineare Interpolation enthaellt (am besten auf skalarer Basis). ^^

Ailuros
2007-03-02, 11:21:10
Wieso? Der Vergleich passt doch. 64x Vec5 sind nunmal 320 Kanaele.
Genauso wie 16x Vec8 ALUs vom G80.

Eben nicht "genauso" denn R600 ist 4*Vec16 (ausser das Ding ist 8*Vec8). Die 320 Einheiten haben nicht die gleichen Faehigkeiten afaik; wenn man schon so zaehlt koennte man auf G80 auch gleich 256 zaehlen.

siehe oben. Das verstehe ich noch nicht so ganz und ich haette es gern ein bisschen erklaert. :)
Vieleicht meinst du ja ein sehr starkes Splitting im Sinne von 1:1:1:1+1. Das waere schon sehr nett (und teuer), kaeme aber IMO nicht an die Effizienz der Steuerung verschiedener Pixel pro ALU zur gleichen Zeit heran.

Fuer die Mehrzahl der Faelle schon.

Ja die Doppel TMUs vom G80 sind sicher etw teurer als normale bilineare TMUs. Allerdings kann man die klasse fuer gute Filterung nutzen.

Du hast mich nicht verstanden; die bilinear Leistung auf G80 (und hoechstwahrscheinlich auch auf R600) ist gleich geblieben.

Ailuros
2007-03-02, 11:22:45
64xVec4 MAD + 64x1D ADD = 64 x 5 D = 320.
Da fliessen noch keine Faehigkeiten ein.

G80 = 128 MADD + 128 MUL alus = 256. Merkst Du was?

PCGH_Carsten
2007-03-02, 11:27:48
Scheint so, als wäre das GTFLOP (1018 MGFLOPs) doch rein auf das Konto der beiden R600 gegangen. Und es sieht nicht nach einem normalen DC-Opteron aus:
http://www.beyond3d.com/forum/showpost.php?p=939315&postcount=152

robbitop
2007-03-02, 11:30:57
Eben nicht "genauso" denn R600 ist 4*Vec16 (ausser das Ding ist 8*Vec8). Die 320 Einheiten haben nicht die gleichen Faehigkeiten afaik; wenn man schon so zaehlt koennte man auf G80 auch gleich 256 zaehlen.
Das ist aber was ganz Anderes als 64 Vec4 oder 5 ALUs.
Klingt eher in Richtung G80...


Fuer die Mehrzahl der Faelle schon.
Interessant...auch wenn mein Bild darueber noch sehr verschwommen ist.


Du hast mich nicht verstanden; die bilinear Leistung auf G80 (und hoechstwahrscheinlich auch auf R600) ist gleich geblieben.
Wen interessiert schon die bilineare Leistung? Pro Texel faellt so gut wie immer mehr als ein bi Sample an. :)

robbitop
2007-03-02, 11:32:11
G80 = 128 MADD + 128 MUL alus = 256. Merkst Du was?
+ 128 verstecke MULs waeren das dann 384. Mir platzt gleich der Kopf bei diesem sinnfreien Kindergartengezaehle. X-D

Gast
2007-03-02, 11:32:17
Wie es aussieht, kann man wohl die 10 FLOPs pro ALU nun schon als gesichert nehmen.

Wenn es nur 9 FLOPs wäre, da bräuchte man ja fast 900MHz, die ich dem R600-Sample nicht zutraue.

deekey777
2007-03-02, 11:32:27
Scheint so, als wäre das GFLOP (1018 MFLOPs) doch rein auf das Konto der beiden R600 gegangen. Und es sieht nicht nach einem normalen DC-Opteron aus:
http://www.beyond3d.com/forum/showpost.php?p=939315&postcount=152
Etwas wenig, so ein GFLOP/s?:|

Agena (Dual-Core) basiert doch auf der Barcelona-Technologie?:confused:

Ailuros
2007-03-02, 11:32:31
Scheint so, als wäre das GFLOP (1018 MFLOPs) doch rein auf das Konto der beiden R600 gegangen. Und es sieht nicht nach einem normalen DC-Opteron aus:
http://www.beyond3d.com/forum/showpost.php?p=939315&postcount=152

Es sind eben nicht nur 800MHz wie die meisten schaetzen.

Ailuros
2007-03-02, 11:33:12
+ 128 verstecke MULs waeren das dann 384. Mir platzt gleich der Kopf bei diesem sinnfreien Kindergartengezaehle. X-D

Nein es sind 256 und nicht 384.

Gast
2007-03-02, 11:34:53
Es sind eben nicht nur 800MHz wie die meisten schaetzen.


Mehr als 800MHZ ist aber nicht vorstelbar...

Ailuros
2007-03-02, 11:37:56
Wie es aussieht, kann man wohl die 10 FLOPs pro ALU nun schon als gesichert nehmen.

Wenn es nur 9 FLOPs wäre, da bräuchte man ja fast 900MHz, die ich dem R600-Sample nicht zutraue.

Dafuer muesste es aber Vec4 MADD + Skalar MADD sein oder irgend etwas aehnliches.

Meine Infos sprachen von Vec4 MADD + Scalar ADD und ich dass nicht nur von einer zuverlaessigen Quelle. Da es mir gerade einblitzt (obwohl es keinen Sinn macht) blubbert nicht jemand in einer ATI Praesentation von "17 Shadern"? Nur kann ich mir bei bestem Willen nicht vorstellen was das Zeug sein koennte.

Ailuros
2007-03-02, 11:38:53
Mehr als 800MHZ ist aber nicht vorstelbar...

Die Taktrate wurde aber auch nie finalisiert und A15 lief mit Sicherheit bei 820MHz absolut stabil.

AnarchX
2007-03-02, 11:39:08
Es sind eben nicht nur 800MHz wie die meisten schaetzen.

Wenn deine 9 FLOPs stimmen würden, dann müssten die R600 dort ja mit über 880MHz gelaufen sein, was wiederum etwas unwahrscheinlich scheint.
Oder nicht? :|

Ailuros
2007-03-02, 11:41:38
Wenn deine 9 FLOPs stimmen würden, dann müssten die R600 dort ja mit über 880MHz gelaufen sein, was wiederum etwas unwahrscheinlich scheint.
Oder nicht? :|

880 ist tatsaechlich etwas viel, aber es steht aber auch nirgends mit welcher Frequenz genau die Dinger liefen.

deekey777
2007-03-02, 11:45:38
Dafuer muesste es aber Vec4 MADD + Skalar MADD sein oder irgend etwas aehnliches.

Meine Infos sprachen von Vec4 MADD + Scalar ADD und ich dass nicht nur von einer zuverlaessigen Quelle. Da es mir gerade einblitzt (obwohl es keinen Sinn macht) blubbert nicht jemand in einer ATI Praesentation von "17 Shadern"? Nur kann ich mir bei bestem Willen nicht vorstellen was das Zeug sein koennte.
http://ati.amd.com/developer/brighton/05%20Graphics%20Performance.pdf
Or why Homer Simpson was right to keep shouting “U.S.A.”
:biggrin:
This has implications for VS, GS and PS in USA SM4 hardware
•Lets pretend that R600 has work blocks of 17 shaders and look at the consequences…
•[XXX -Ramble on here for a while because they reallyneed to get this bit…]
Übrigens, Huddy spricht in dieser Präsentattion, dass die VS 5D sind.
Our VS is a 5-way vector
•So we can schedule an explicit 4-D instruction in the same clock cycle as a scalar operation
•You should use explicit xyzwchannel masking to help us see scalar operations…

PCGH_Carsten
2007-03-02, 11:47:09
880 ist tatsaechlich etwas viel, aber es steht aber auch nirgends mit welcher Frequenz genau die Dinger liefen.
Man könnte auch ein wenig übertaktet haben, um das Teraflop zu schaffen.

robbitop
2007-03-02, 11:51:45
Huh?

R5x0 ALU=

# ALU 1

* 1 Vec3 ADD + Input Modifier
* 1 Scalar ADD + Input Modifier

# ALU 2

* 1 Vec3 ADD/MUL/MADD
* 1 Scalar ADD/MUL/MADD
Siehst du es war ein splitbare 3:1 ADD ;)
Fuer input modifier braucht man genausoviele kanaele wie die Instruktion braucht. Sonst wartet man ewig.

Enterprise
2007-03-02, 11:52:17
Ich schätz mal das der R600 entweder 815 Mhz odre 900 Mhz hat!

robbitop
2007-03-02, 11:53:20
"SIMD8" dann eher fuer G80.
spielt keine Rolle, da 2x Vec8 zusammengeschlossen sind und auch die Granularitaet der Steuerlogik 16 gleiche Instruktionen abwirft.

robbitop
2007-03-02, 11:55:54
Es sind eben nicht nur 800MHz wie die meisten schaetzen.
Shaderdomains wie beim G80?

Je mehr du erzaehlst, desto mehr erinnert mich das Teil an den G80 X-D

Nein es sind 256 und nicht 384.
Also doch keine verstecktes MUL, was durch den Treiber reaktiviert wird? :(

PCGH_Carsten
2007-03-02, 11:56:37
Siehst du es war ein splitbare 3:1 ADD ;)
Fuer input modifier braucht man genausoviele kanaele wie die Instruktion braucht. Sonst wartet man ewig.
Mit einem skalaren Input-Modifier wäre man insofern besser bedient, als dass man bei einem Viertel der Kanäle nur maximal viermal so lange warten müsste. Benötigt eine Instruktion aber nur 1,2 oder drei Kanäle, gewinnt man Peformance/Fläche.


Also doch keine verstecktes MUL, was durch den Treiber reaktiviert wird? :(
Wieso nicht?
128 MADD-ALUs
128 MUL (die aktuell noch "versteckt" sind).

deekey777
2007-03-02, 11:57:37
Es hieß mehrmals, dass es keine Shader-Domains beim R600 geben wird. Obwohl...
Die VS des G71 liefen auch mit 700 MHz.

robbitop
2007-03-02, 11:58:23
Mit einem skalaren Input-Modifier wäre man insofern besser bedient, als dass man bei einem Viertel der Kanäle nur maximal viermal so lange warten müsste. Benötigt eine Instruktion aber nur 1,2 oder drei Kanäle, gewinnt man Peformance/Fläche.
Unabhaengig davon dauert jede Vec4 Instruktion dann 4 Takte laenger als noetig. Da waere es sinnvoller die Vec4 ALU einen Takt lang fuer Input Modifier zu nutzen. Das waere nur 1 zusaetzlicher Takt.

Wieso nicht?
128 MADD-ALUs
128 MUL (die aktuell noch "versteckt" sind).
Wenn das sooo gemeint ist, ok. :)
Das waeren dann aber 384 FLOPs pro Takt, richt?
(sorry dass ich bei diesen 1000 verschiedenne Zaehlweisen durcheinanderkomme :))

AnarchX
2007-03-02, 11:59:54
RV630 soll schon sein Tape-Out gehabt haben
http://www.fudzilla.com/index.php?option=com_content&task=view&id=48&Itemid=34

Warum schliesst ihr aus der Aussage von Ailuros, dass es mehr als 800MHz sind, gleich Shaderdomains? :|
Es wird wohl eher um den Takt gehen, der doch weit über 800MHz liegt, wie schon öfters berichtet - vielleicht 850MHz für den R600XTX.

Ailuros
2007-03-02, 12:02:35
http://ati.amd.com/developer/brighton/05%20Graphics%20Performance.pdf

:biggrin:

Übrigens, Huddy spricht in dieser Präsentattion, dass die VS 5D sind.

Ja aber was zum Teufel? 4*17? Errrr.....:rolleyes:

robbitop
2007-03-02, 12:03:22
Naja mehr als 800 impleziert halt deutlich mehr als 800 und nicht einen Pups mehr als 800. :|

Dass RV6xx sein TapeOut hatte, sollte auch bitte schon so sein. ATI peilt Mai als Verkaufsstart an IIRC. Da muss das finale Tapeout schon ne weile hergewesen sein.

Enterprise
2007-03-02, 12:03:45
RV630 soll schon sein Tape-Out gehabt haben
http://www.fudzilla.com/index.php?option=com_content&task=view&id=48&Itemid=34

Warum schliesst ihr aus der Aussage von Ailuros, dass es mehr als 800MHz sind, gleich Shaderdomains? :|
Es wird wohl eher um den Takt gehen, der doch weit über 800MHz liegt, wie schon öfters berichtet - vielleicht 850MHz für den R600XTX.

Aber 850 Mhz sind in so Regionen nicht so weit über 800 Mhz? Vielleicht 1-1,1 Ghz oder so um die 900-950 Mhz?

PCGH_Carsten
2007-03-02, 12:04:21
Unabhaengig davon dauert jede Vec4 Instruktion dann 4 Takte laenger als noetig. Da waere es sinnvoller die Vec4 ALU einen Takt lang fuer Input Modifier zu nutzen. Das waere nur 1 zusaetzlicher Takt.
Ist halt eine Frage der Prioritäten - keine Ahnung, wie häufig die Input-Modifier genutzt werden.

Wenn das sooo gemeint ist, ok. :)
Das waeren dann aber 384 FLOPs pro Takt, richt?
(sorry dass ich bei diesen 1000 verschiedenne Zaehlweisen durcheinanderkomme :))
Ja. :)

deekey777
2007-03-02, 12:06:06
Ja aber was zum Teufel? 4*17? Errrr.....:rolleyes:
Kreative Zählweise? Nur 16 Shader für Grafik, aber 17 Shader für GPGPU? Höherer Takt des Shader-Blocks wie 17 Shader mit Standardtakt (vielleicht kommt noch ein PR-Rating a la XP?).

Ach keine Ahnung.

Ailuros
2007-03-02, 12:06:06
Scheint so, als wäre das GTFLOP (1018 MGFLOPs) doch rein auf das Konto der beiden R600 gegangen. Und es sieht nicht nach einem normalen DC-Opteron aus:
http://www.beyond3d.com/forum/showpost.php?p=939315&postcount=152

Schau Dir das Bildchen nochmal genauer an....

Starting MAD burst kernel for this device

Soll jetzt die insgesamte GFLOP Rate nur aus MADD bestehen oder was verstehe ich hier falsch?

Godmode
2007-03-02, 12:09:18
Schau Dir das Bildchen nochmal genauer an....



Soll jetzt die insgesamte GFLOP Rate nur aus MADD bestehen oder was verstehe ich hier falsch?

Laut dem Bildchen schon!

AnarchX
2007-03-02, 12:09:25
Aber 850 Mhz sind in so Regionen nicht so weit über 800 Mhz? Vielleicht 1-1,1 Ghz oder so um die 900-950 Mhz?

Schwer zu sagen, vielleicht bezog sich die Meldung von VR-Zone, dass der R600 über 800MHz taktet ja auf R600XT und R600XTX.

Wenn man nun hier noch den oft berichteten 10-15% Taktunterschied einrechnet, könnte der R600XTX vielleicht doch bei 880-950MHz liegen, womit auch wieder die 9 FLOPs von Ailuros passen würden.

Ailuros
2007-03-02, 12:11:33
Laut dem Bildchen schon!

Dann sind es aber schon 10 FLOPs/ALU und alle 320 sind identisch; falls das stimmen sollte muss ich gleich 4 Herren in den Hintern treten :mad:

PCGH_Carsten
2007-03-02, 12:13:07
Ja aber was zum Teufel? 4*17? Errrr.....:rolleyes:
17 = "16 Vec4" + "16 skalar". Würde dann aber zusammen mit den 320 MADDs auf echte 64 Vec4+1 MADDs hinweisen. Das wären dann 10 FLOPs und damit wären mit 800 MHz auch 512 GFLOPs.

Evtl. wird der Skalarteil ja wirklich für Input-Modifier und Spezialfunktionen genutzt

Ailuros
2007-03-02, 12:27:43
17 = "16 Vec4" + "16 skalar". Würde dann aber zusammen mit den 320 MADDs auf echte 64 Vec4+1 MADDs hinweisen. Das wären dann 10 FLOPs und damit wären mit 800 MHz auch 512 GFLOPs.

Evtl. wird der Skalarteil ja wirklich für Input-Modifier und Spezialfunktionen genutzt

Tja bleibt nur zu sehen warum so viele bis jetzt MADD+ADD und nicht MADD+MADD behaupteten. 3 davon sind AMD engineers.

PCGH_Carsten
2007-03-02, 12:37:24
Tja bleibt nur zu sehen warum so viele bis jetzt MADD+ADD und nicht MADD+MADD behaupteten. 3 davon sind AMD engineers.
Nvidia behauptete ja auch immer, dass man erst einen USA bringen würde, wenn die Zeit reif ist. Genauso kann ich aus MADD+MADD auch MADD+ADD machen - ist ja nicht falsch, man unterschlägt nur das MUL ;)

Gast
2007-03-02, 12:45:19
http://www.3dnews.ru/news/amd_r600_testi_i_podrobnie_foto_radeon_x2800_xtx-191224/

dargo
2007-03-02, 12:52:26
http://www.3dnews.ru/news/amd_r600_testi_i_podrobnie_foto_radeon_x2800_xtx-191224/
Hmm, da war die X2800XTX noch mit 700Mhz getaktet. Mit >800Mhz dürfte die Karte ca. 30-35% im 3DMark06 (SM3.0) schneller sein als der G80. Die Frage ist halt was davon in richtigen Games übrig bleibt.

Winter[Raven]
2007-03-02, 12:54:45
http://www.3dnews.ru/news/amd_r600_testi_i_podrobnie_foto_radeon_x2800_xtx-191224/

Löl .... ^_^

Chip/Ram: 700/1100

Kein Wort über die Lautstärke... :(

Gast
2007-03-02, 12:55:04
Die Werte sind doch uralt(wurden hier schon mehrfach gepostet) und es wurde mittlerweile berichtet, dass alle Benches zum R600 bisher falsch sein sollen.

Also am besten noch etwas abwarten, vielleicht gibt in den nächsten Wochen endlich was richtiges. ;)

Moralelastix
2007-03-02, 13:20:04
Graphics partners try to keep the faith as AMD pulls the rug on CeBIT
http://www.digitimes.com/mobos/a20070302VL201.html

OMG!

DrumDub
2007-03-02, 13:23:15
http://www.digitimes.com/mobos/a20070302VL201.html

OMG! und wo sind jetzt die news?

Moralelastix
2007-03-02, 13:25:48
Komisch ich hab den Link in die Suche hier eingegeben und nix gefunden..noch net mal meinen eingenen Link..? .....:|

DrumDub
2007-03-02, 13:29:57
Komisch ich hab den Link in die Suche hier eingegeben und nix gefunden..noch net mal meinen eingenen Link..? .....:| der link ist schon neu, aber ich sehe bei digitimes keine news, die man nicht schon kennt. das meinte ich.

Moralelastix
2007-03-02, 13:34:27
Was is denn mit der Suche los wieso findet die die Links net, das ging doch sonst?

Murks?

up¦²
2007-03-02, 15:40:02
http://img476.imageshack.us/img476/9550/000425733ig3.jpg
PC POP/China
Wenn ich das schmale Gitter seh... :rolleyes:

PCGH_Carsten
2007-03-02, 16:04:08
Wenn ich das schmale Gitter seh... :rolleyes:
Was dann? Ich finde, es hat dieselbe Breite, wie die Gitter bekannter Zweislot-Lösungen - nämlich etwa einen Slot breit.

Vielleicht wirkt es durch die Länge der Karte etwas schmal?

K4mPFwUr$t
2007-03-02, 16:08:44
jup ist 1:1 das selbe :|

guckst du hier
http://images.dailytech.com/nimage/2136_large_r580+_resized.png

@gast
ne täuscht nur, sieht man im obrigen link im vergleich zur x1950xtx gut

Gast
2007-03-02, 16:09:41
http://img476.imageshack.us/img476/9550/000425733ig3.jpg
PC POP/China
Wenn ich das schmale Gitter seh... :rolleyes:


kommt es nur mir so vor oder sind die dvi-ausgänge auf der "falschen" seite vom PCB?

Nakai
2007-03-02, 16:17:54
Frage:
Wie können sich die ALUs splitten.
Eigentlich sind es ja 4+1, wie kann sich aber die Vec4-ALU splitten?:confused:
1+1+1+1 oder 2+2 oder wie auch immer.

mfg Nakai

up¦²
2007-03-02, 16:18:57
Was dann? Ich finde, es hat dieselbe Breite, wie die Gitter bekannter Zweislot-Lösungen - nämlich etwa einen Slot breit.

Vielleicht wirkt es durch die Länge der Karte etwas schmal?

Es ging mir um das Gitter selber, die schmalen Schlitze :wink:
Das führt automatisch zu Luftrauschen.
Die schlitze sollte man auf ca. 5mm Breite erweitern (wie es häufig schon geschieht)

Gast
2007-03-02, 16:22:26
Frage:
Wie können sich die ALUs splitten.
Eigentlich sind es ja 4+1, wie kann sich aber die Vec4-ALU splitten?:confused:
1+1+1+1 oder 2+2 oder wie auch immer.


Sollten sie sich 1+1+1+1 Splitten lassen, wären es skalare.

Nakai
2007-03-02, 16:27:26
Theorestisch ja, aber eigentlich geht es auch ohne skalare Einheiten.
Ich hoffe sie lassen sich wie die Einheiten des G7X oder noch besser splitten.

mfg Nakai

Gast
2007-03-02, 16:33:30
Theorestisch ja, aber eigentlich geht es auch ohne skalare Einheiten.
Ich hoffe sie lassen sich wie die Einheiten des G7X oder noch besser splitten.


1+1+1+1 ist nichts anderes als das, was nVidia mit dem G80 macht.
Nur das hier eben keine Vec8 sondern nur eine Vec4 Einheit vorhanden ist.
Ich glaube nicht, dass Logik so weit entwickelt ist, dass jede Konstellation möglich ist.

horn 12
2007-03-02, 16:55:31
@Nakai

Wie beurteilst DU nun die Entwicklung zum R600.
Wird das Spitzenmodell mit dem G81 konkurrieren können, und wie sicher ist es, dass man alle 3 Karten /XTX XT und XL (Oder gar mehr!!)
Anfang Mai dann kaufen kann.
Kann man nun auch von weniger als 180 Watt bei der XTX ausgehen, durch die erneute Verschiebung?
Deine Meinung ist mir sehr wichtig!:smile:

Gast
2007-03-02, 17:21:38
Sollten sie sich 1+1+1+1 Splitten lassen, wären es skalare.

noch nicht ganz, mit 1+1+1+1 wäre zwar für jeden kanal ein unterschiedlicher befehl möglich, allerdings gibt es immer noch verschnitt wenn nicht alle 4 kanäle benutzt werden, den gäbe es bei "echten" skalaren einheiten nicht.

K4mPFwUr$t
2007-03-02, 17:25:03
@up¦²
optimal wären garkeine gitter, sowohl vom durchsatz als auch ludtgeräusche.
allerdings dürften die geräusche vom eigentlichen lüfter, diese sehr stark übertönen. so das diese kein wirklicher grund für ändern ist.
aber die schlitzbreite ist 1:1 die selbe wie bei den vorherigen zwei slot lösungen.

PCGH_Carsten
2007-03-02, 17:40:31
Gar kein Gitter - und vermutlich auch ein deutlich "breiteres" - dürften der EMV-Abschirmung nicht zuträglich sein und dann kann man die Karten wohl kaum verkaufen.

Moralelastix
2007-03-02, 17:41:26
Jupp, recht idiotisch.

Genau an der engsten Stelle und auch noch dort wo es ins Freie also außerhalb des PCs geht genau dort basteln die ein Gitter hin.

Na ja lässt sich wenigstens schnell lösen das Problem(Seitenschneider).

AnarchX
2007-03-02, 17:51:20
Na ja lässt sich wenigstens schnell lösen das Problem(Seitenschneider).

Na dann viel Spass bei einem Defekt... ;)

Das Gitter auf der OEM-Prototyp-Karte schein aber deutlich durchlässiger als bei der 8800er-Serie (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/3/#abschnitt_impressionen), also wüsste ich nicht was daran zu beanstanden wäre.
Und den wichtigsten Grund hat Carsten schon genannt: Man möchte die Karte halt auch ausserhalb von China verkaufen. ;)

Moralelastix
2007-03-02, 18:04:21
Wie groß dürfte denn die Maschenweite sein bei den möglichen Frequenzen im PC?

Hauwech
2007-03-02, 18:18:09
Wäre es nicht sinnvoller die Gitter bis fast zu den DVI-Anschlüssen zu verbreitern?

Gast
2007-03-02, 18:26:35
Ich glaub eh kaum, dass das Gitter nen wesentlichen Ströumgswiderstand bietet.

Gast
2007-03-02, 18:32:47
Falsch geglaubt.

Wohl noch nie duselige Lüftungsgitter entfernt? Krach mache solche Gitter obendrein.

Gast
2007-03-02, 18:43:30
Ich glaub eh kaum, dass das Gitter nen wesentlichen Ströumgswiderstand bietet.
Einen gewissen Widerstand hat das schon. Allerdings ist das egal, da die Luftsäule mit genügend "Schmackes" nach draußen befördert wird. Allerdings dürfte das für die Akustik nicht zuträglich sein. Ist aber trotzdem faszinierend zu sehen, dass die kleine Öffnung ausreicht um einen Wärmestrom von über 180 Watt abzutransportieren. Die Strömungsgeschwindigkeit muss demnach recht hoch sein.

The_Invisible
2007-03-02, 18:56:06
Einen gewissen Widerstand hat das schon. Allerdings ist das egal, da die Luftsäule mit genügend "Schmackes" nach draußen befördert wird. Allerdings dürfte das für die Akustik nicht zuträglich sein. Ist aber trotzdem faszinierend zu sehen, dass die kleine Öffnung ausreicht um einen Wärmestrom von über 180 Watt abzutransportieren. Die Strömungsgeschwindigkeit muss demnach recht hoch sein.

flow fx done right :D

mfg

K4mPFwUr$t
2007-03-02, 19:05:13
hmm, schon lustig das so ein paar blechstränge zwischen ladenhüter und gut verkaufbar macht wegen der EMV. aber ich glaube nicht wirklich das es bei EMV einen messbaren oder spürbaren unterschied gibt. demnach müsste man ja einen pc komplett verriegeln, sprich keine lüfter und keine öffnungen.

aber vom gegenteil lasse ich mich gerne überzeugen ;)

Thowe
2007-03-02, 19:26:14
hmm, schon lustig das so ein paar blechstränge zwischen ladenhüter und gut verkaufbar macht wegen der EMV. aber ich glaube nicht wirklich das es bei EMV einen messbaren oder spürbaren unterschied gibt. demnach müsste man ja einen pc komplett verriegeln, sprich keine lüfter und keine öffnungen.

aber vom gegenteil lasse ich mich gerne überzeugen ;)

Es macht, somal genau dort wo das Gitter sitzt gerade die Filterstufen der Karte sitzen und die machen eine Menge "Störung" aus. Ein Gehäuse sollte immer rundherum möglichst lückenlos geschlossen sein, weswegen die ganzen Moddinggehäuse mit Plexiglas niemals ein CE Zeichen tragen dürften und Händler die solche Systeme verkaufen, bei einer Prüfung alt aussehen.

Die Strömungsgeräusche dürften in diesem Fall zu vernachlässigen sein, einfach schon deshalb, weil die Kühllösung eine Menge Kupfer mit sich bringt und dieses quasi als gefalzte Kanäle funktionieren und sicherlich mehr Geräusche verursachen, als das Blech am Ende der Karte. Wenn der Lüfter auf niedriegen Touren dreht, wird aus der Karte so oder so eher wenig Luft kommen und veraussichtlich eine erträgliche Geräuschkulisse. Für 2D ist die Materialmenge absoluter Overkill. Dreht er allerdings hochtourig, dann wird sie definitiv sehr Laut werden, somal die gewählte Lüfterart/Schaufelstellung auf massiven Luftdruck aus ist, muss sie auch, bei diesen eher kleinen Luftkanälen.

Anders gesagt, Wasserkühlungen werden langsam aber sich wirklich sinnvoll, die produzierte Abwärme ist mittlerweile längst jenseits dessen, was gut ist.

Gast
2007-03-02, 19:27:15
flow fx done right :D

mfg
NV hat ja noch zusätzliche Schlitze am Kühler beim G80, sodass sich die Luft nicht nur durch eine Öffnung zwängen muss. Das Gehäuse wird zwar dadurch etwas erwärmt, aber wie sagt man so schön: An irgendeinen Tod muss man sterben.

reunion
2007-03-02, 19:39:12
eigentlich meussten sie guenstiger sein, weil man sich einiges an logik sparen kann z.b. braucht man meine spezielle logik fuer dot2,dot3,dot4,swizzling. und da NV die shader in clustern arbeiten laesst, werden sie auch nicht unabhaengige logik zur steuerung brauchen. mir ist echt nicht ersichtlich wieso skalare ALUs teurer sein sollten, kannst du da quellen sagen oder dein wissen teilen? :)

Wären sie tatsächlich günstiger, so würde das traditionelle ALUs ad absurdum führen. Auch spricht die verhältnismäßig geringe Zahl der ALUs auf G80 und den dafür sehr hohen Takt nicht unbedingt dafür, dass diese pro Einheit besondern günstig sind.

Gast
2007-03-02, 19:40:59
NV hat ja noch zusätzliche Schlitze am Kühler beim G80, sodass sich die Luft nicht nur durch eine Öffnung zwängen muss. Das Gehäuse wird zwar dadurch etwas erwärmt, aber wie sagt man so schön: An irgendeinen Tod muss man sterben.

das ist zumindest dann wenn man das darunter liegende slotblech entfernt nicht schlimm.

Gast
2007-03-02, 19:49:30
das ist zumindest dann wenn man das darunter liegende slotblech entfernt nicht schlimm.
Dann keine EMV mehr gewährleistet ;D

Armaq
2007-03-02, 19:57:46
das ist zumindest dann wenn man das darunter liegende slotblech entfernt nicht schlimm.
Oder ein altes Gitter nimmt ...

Gast
2007-03-02, 21:55:27
Gitter hin oder her, die Karte ist einfach nur potthässlich. Wenn Ati da nicht noch was ändert, wer will denn sowas in seinem Modingtower haben.

Griff zum wegschmeissen wird gleich mitgeliefert

Ich verfolge den Thread ja jetzt schon eine ganze Weile und nachdem sich der Launch des R600 immer wieder verschiebt glaube ich inzwischen, das Teil wird uns eher enttäuschen als begeistern. Dabei wird es so langsam Zeit das NV Konkurrenz bekommt, ich will nämlich eine 8800GTS weil die auch noch in ein normales Gehäuse passt. Oder doch gleich auf den Nachfolger warten, wenn Ati so weitermacht, dann kommt die neue Generation von NV ja schon kurz danach (ein paar Monate kommts dann wohl auch nicht mehr an, DX10 ist ja immo Gott sei Dank noch nicht Pflicht).

Und jetzt bitte nich zuflamen, so wie ich denken viele meiner Kollegen, Ati muß endlich was Brauchbares vorweisen, wenn die Karte so schnell sein soll, dann würden offizielle Benchmarks mit einem Prototypen jedenfalls schonmal noch eine Menge Leute bei der Stange halten, die sich sonst, des Wartens müde, einen G80 holen.

Gouvernator
2007-03-02, 22:13:57
Ich weiss gar nicht was ihr habt... der original Kühler ist --> für mich dazu da einfach den ersten Tag zu überleben, um zu gucken ob die Karte lebt... Dann fliegt er sofort runter und wird durch ein Wakühler ersetzt. Deshalb muss man kein Gehäuse wechseln gar nix.

K4mPFwUr$t
2007-03-02, 23:40:35
@gast
die leute die diese R600 OEM version im rechner haben, haben auch kein window im case. denen kommts nur darauf an das die kiste stabil läuft und halb wegs leise ist.

@Thowe
jup, bei modding cases wird die geräuschkulisse das geringste problem dastellen. zum glück modde ich meine cases selber ;)

aber irgendwie erinnert die sache mit an die neuliche news von RTL mit dem handysender/empfänger in einem bayrischen dort. wo die leute strahlenanzüge, skibrillen, decken mit sonst was bepflaster haben um den massiven "tock tock" strahlen zu entgehen ;D
was soll da ein stadtmensch wie ich sagen :D

aber nun wieder BTT ^^

robbitop
2007-03-03, 02:31:14
@micki

Der Grund fuer die hohen Kosten bei den "skalaren" G80 ALUs ist, dass jede Vec8 ALU tatsaechlich 8 verschiedene Pixel gleichzeitig berechnet. Eine Vec ALU hingegen braucht nur Berechnungen fuer einen Pixel gleichzeitig durchzufuehren.

Ailuros
2007-03-03, 06:58:01
Wären sie tatsächlich günstiger, so würde das traditionelle ALUs ad absurdum führen. Auch spricht die verhältnismäßig geringe Zahl der ALUs auf G80 und den dafür sehr hohen Takt nicht unbedingt dafür, dass diese pro Einheit besondern günstig sind.

Eine korrekte Antwort wird Dir in der Zukunft die Skalierbarkeit eines jeglichen Designs geben (sowohl nach oben als auch nach unten). Was man sparte investierte man woanders, sonst muessten alle andere Einheiten zwischen den beiden Architekturen die gleichen Faehigkeiten und Anzahl haben.

Es sind und bleiben 8 clusters gegen 4, ganz grob vereinfacht nach aussen beide Vec16. Ich bin jetzt mal so frech und strecke mich ueber mein laienhaftes Wissen hinaus und vermute dass eine "tiefere" Pipeline (stets pro cluster) mehr Latenz bedeuten koennte die auch nicht umsonst ist um sie zu verstecken.

Dieses alberne hin und her mit den Zahlen ist sowieso nutzlos; die brennende Frage war stets ob R600 den "gigantischen" Unterschied und wo genau machen wird. Die Antwort kannst Du selber liefern und das sogar unter dem Licht einer 6-monatigen Verspaetung.

reunion
2007-03-03, 10:41:33
Scheint so, als wäre das GTFLOP (1018 MGFLOPs) doch rein auf das Konto der beiden R600 gegangen. Und es sieht nicht nach einem normalen DC-Opteron aus:
http://www.beyond3d.com/forum/showpost.php?p=939315&postcount=152

Das sieht ja schonmal nicht schlecht aus, falls die ALUs tatsächlich die Auslastung von skalaren ALUs annähernd erreichen, und es vielleicht auch sonst noch einige Gimmicks gibt, von denen man heute noch nichts weiß. Denn G80 kann seine 518GFLOPs ja nur ausspielen, wenn der Code sehr MUL-lastig ist (falls die MUL tatsächlich noch kommt), während R600 durch reine MADD-ALUs in dieser Hinsicht sehr ausgeglichen wäre.

Nakai
2007-03-03, 10:51:02
Das sieht ja schonmal nicht schlecht aus, falls die ALUs tatsächlich die Auslastung von skalaren ALUs annähernd erreichen, und es vielleicht auch sonst noch einige Gimmicks gibt, von denen man heute noch nichts weiß. Denn G80 kann seine 518GFLOPs ja nur ausspielen, wenn der Code sehr MUL-lastig ist (falls die MUL tatsächlich noch kommt), während R600 durch reine MADD-ALUs in dieser Hinsicht sehr ausgeglichen wäre.

Falls es wirklich der Fall ist, dann wäre der R600 von Skalierbarkeit einem G80 weit voraus.
Er könnte an 320 Pixel arbeiten, wo der G80 nur an 128 Pixeln werkelt.
Natürlich ist der G80 etwas höher im Shader getaktet.

Das wären 256.000.000.000 gleichzeitige Instructionen pro Sekunde gegen 172.800.000.000.

Natürlich heißt das nicht alles. Ich hoffe die Füllraten spielen auch noch gut mit.

Dieses alberne hin und her mit den Zahlen ist sowieso nutzlos; die brennende Frage war stets ob R600 den "gigantischen" Unterschied und wo genau machen wird. Die Antwort kannst Du selber liefern und das sogar unter dem Licht einer 6-monatigen Verspaetung.

Also hat man am Takt gefeilt um ihn konkurrenzfähig zu machen?
Oder hat man versucht den Stromverbrauch zu senken?
:|

Naja....

AnarchX
2007-03-03, 11:17:13
Er könnte an 320 Pixel arbeiten, wo der G80 nur an 128 Pixeln werkelt.
Natürlich ist der G80 etwas höher im Shader getaktet.


Wenn man schon 320 Pixel beim R600 zählt, dann sind aber doch auch 256(inkl. missing MUL) beim G80?

Nakai
2007-03-03, 11:26:03
Wenn man schon 320 Pixel beim R600 zählt, dann sind aber doch auch 256(inkl. missing MUL) beim G80?

Und wo liegen die MULs?
Hinter dem MADD oder daneben?

(Wobei ich nicht wüsste ob MULs so gut wären für Pixelberechnungen)

mfg Nakai

deekey777
2007-03-03, 11:43:02
Wenn man schon 320 Pixel beim R600 zählt, dann sind aber doch auch 256(inkl. missing MUL) beim G80?
Nein.
Es sind auch keine 320 Pixel beim R600. Der G80 kann theoretisch an 16*8 Pixel gleichzeitig arbeiten, aber nur einen Farbkanal berechen (Rot oder Grün oder Blau oder Alpha). Wenn der R600 mit 64 Shadern kommt, so kann er auch an 64 Pixeln gleichzeitig arbeiten, aber er kann eine Instruction für bis zu vier Kanäle (RGBA) gleichzeitig ausführen.
Auch wenn ich es nicht glaube, nehmen wir an, ein R600-Shaderblock kann wie ein G80-Shaderblock an 4 Quads gleichzeitig arbeiten. Er kann pro Takt vier RGBA-Quads aufeinmal berechnen, der G80 bräuchte dafür 4 Takte (einmal R, dann G, B, A).
Vorteil R600? Nein. Der G80 kann für jeden Farbkanal eine andere Instruction ausführen, der R600 nicht, sondern eine für alle Farbkanäle (SIMD). Auch sind nicht alle Operationen gleich Vec4, man braucht zB nicht immer den Alpha-Kanal, und schon braucht der G80 einen Takt weniger.
Edit:
Diese "Wieviele Pixel werden berechnet"-Rechnerei ist eh sinnlos. Heutige GPUs werkeln an Threads für eine bestimmte Anzahl von Pixeln (16, 32 oder 48). Und da es weiterhin Pipelines mit verschiedenen Stufen sind, kann an jeder Pipelinestufe ein anderer Thread berechnet werden - egal ob ALU oder TMU (sind ja entkoppelt).

Ailuros
2007-03-03, 12:26:35
Nein.
Es sind auch keine 320 Pixel beim R600. Der G80 kann theoretisch an 16*8 Pixel gleichzeitig arbeiten, aber nur einen Farbkanal berechen (Rot oder Grün oder Blau oder Alpha). Wenn der R600 mit 64 Shadern kommt, so kann er auch an 64 Pixeln gleichzeitig arbeiten, aber er kann eine Instruction für bis zu vier Kanäle (RGBA) gleichzeitig ausführen.
Auch wenn ich es nicht glaube, nehmen wir an, ein R600-Shaderblock kann wie ein G80-Shaderblock an 4 Quads gleichzeitig arbeiten. Er kann pro Takt vier RGBA-Quads aufeinmal berechnen, der G80 bräuchte dafür 4 Takte (einmal R, dann G, B, A).
Vorteil R600? Nein. Der G80 kann für jeden Farbkanal eine andere Instruction ausführen, der R600 nicht, sondern eine für alle Farbkanäle (SIMD). Auch sind nicht alle Operationen gleich Vec4, man braucht zB nicht immer den Alpha-Kanal, und schon braucht der G80 einen Takt weniger.
Edit:
Diese "Wieviele Pixel werden berechnet"-Rechnerei ist eh sinnlos. Heutige GPUs werkeln an Threads für eine bestimmte Anzahl von Pixeln (16, 32 oder 48). Und da es weiterhin Pipelines mit verschiedenen Stufen sind, kann an jeder Pipelinestufe ein anderer Thread berechnet werden - egal ob ALU oder TMU (sind ja entkoppelt).

Nicht schlecht ;)

Das sieht ja schonmal nicht schlecht aus, falls die ALUs tatsächlich die Auslastung von skalaren ALUs annähernd erreichen, und es vielleicht auch sonst noch einige Gimmicks gibt, von denen man heute noch nichts weiß. Denn G80 kann seine 518GFLOPs ja nur ausspielen, wenn der Code sehr MUL-lastig ist (falls die MUL tatsächlich noch kommt), während R600 durch reine MADD-ALUs in dieser Hinsicht sehr ausgeglichen wäre.

Fuer was die MUL Einheiten momentan auf G80 gebraucht wird ist ja bekannt; so und jetzt denk mal nach wo die Input Modifier auf R600 hocken und ob man in Echtzeit wirklich alle FLOPs stets ausfahren kann.

deekey777
2007-03-03, 12:45:19
Das sieht ja schonmal nicht schlecht aus, falls die ALUs tatsächlich die Auslastung von skalaren ALUs annähernd erreichen, und es vielleicht auch sonst noch einige Gimmicks gibt, von denen man heute noch nichts weiß. Denn G80 kann seine 518GFLOPs ja nur ausspielen, wenn der Code sehr MUL-lastig ist (falls die MUL tatsächlich noch kommt), während R600 durch reine MADD-ALUs in dieser Hinsicht sehr ausgeglichen wäre.
http://www.beyond3d.com/forum/showpost.php?p=940012&postcount=31
At least through CUDA and DX9/GL fragment programs, we've seen ~340GFlops for MAD on G80. We've never found the magic extra MUL, and the CUDA documentation and the CUDA forums says it isn't there, at least not for general use. R580 is ~240GFlops if just using MADs, and 360GFlops for ADD+MAD (you can do this with pain via DX/GL, but you can do it easily in CTM since you can write actual ASM). Of course, all of these shaders are contrived and your experience will cary with real code. ;-)
Der R580 ist also dem G80 FLOP-mäßig unterlegen.

Ailuros
2007-03-03, 12:50:37
http://www.beyond3d.com/forum/showpost.php?p=940012&postcount=31

Der R580 ist also dem G80 FLOP-mäßig unterlegen.

Um es genauer zu machen R580 ist in seiner Effizienz pro FLOP gegenueber dem G80 unterlegen.

Gmax
2007-03-03, 15:43:06
R600 Retail?

http://666kb.com/i/amb5gsr4i8ukg16t0.jpg

Auch interessant: Atis Lasso

http://www.hexus.net/content/item.php?item=7995

Gast
2007-03-03, 15:47:25
R600 Retail?

http://666kb.com/i/amb5gsr4i8ukg16t0.jpg

Auch interessant: Atis Lasso

http://www.hexus.net/content/item.php?item=7995


unwahrscheinlich gerade mal 1 6-pin-anschluss reicht sicher nicht aus.

Nakai
2007-03-03, 15:47:27
Wohl eher kein R600-Retail sondern eine X850XT.

mfg Nakai

James Ryan
2007-03-03, 15:47:33
Die Karte ist eher eine X850 XT! Der Kühler ist viel zu klein und die Platine ist zu kurz!

MfG :cool:

Winter[Raven]
2007-03-03, 15:51:11
Glaube ich nicht, das Kühldingsbums ist von einem R580...

deekey777
2007-03-03, 15:53:21
Die Karte ist eher eine X850 XT! Der Kühler ist viel zu klein und die Platine ist zu kurz!

MfG :cool:
Was man an der gelben Buchse sieht. :smile:
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/test_ati_radeon_x850_xt_platinum_edition/
Was egal ist, denn es geht ja um Lasso.
;5296783']Glaube ich nicht, das Kühldingsbums ist von einem R580...

Seit der X1800XT ist das Plastikgehäuse weiß (bis auf den Deckel über den Lüfter selbst).

Gmax
2007-03-03, 15:53:26
Mal wieder voll daneben:biggrin: Sorry!

Gast
2007-03-03, 16:29:47
Mal wieder voll daneben:biggrin: Sorry!
Von so schnuckeligen High End Karten wie die X850XT eine war, kann man sich in Zukunft getrost verabschieden. Künftige High End Karten werden zwangsläufig immer größer, länger, schwerer und stromfressender sein als ihre Vorgänger.
Getreu dem Motto: Bigger, better, stronger!

reunion
2007-03-03, 16:39:25
Das ist ATIs "Lasso" genannte, externe PCIe Platine.

Gast
2007-03-03, 17:02:20
Von so schnuckeligen High End Karten wie die X850XT eine war, kann man sich in Zukunft getrost verabschieden. Künftige High End Karten werden zwangsläufig immer größer, länger, schwerer und stromfressender sein als ihre Vorgänger.
Getreu dem Motto: Bigger, better, stronger!

nö, ich bin überzeugt dass der 8800GTX-nachfolger nicht größer wird und eher weniger strom brauchen wird.

Gast
2007-03-03, 17:16:21
nö, ich bin überzeugt dass der 8800GTX-nachfolger nicht größer wird und eher weniger strom brauchen wird.
Bei weitgehend unveränderter Architektur?
Wenn der Refresh "nur" mehr Takt, evtl. ein 512 bit Speicherinterface und 1024 MB Vram spendiert bekommt, könnte das oben genannte eintreffen.

Gast
2007-03-03, 17:19:24
Bei weitgehend unveränderter Architektur?
Wenn der Refresh "nur" mehr Takt, evtl. ein 512 bit Speicherinterface und 1024 MB Vram spendiert bekommt, könnte das oben genannte eintreffen.

Von welchem "Nachfolger" redet ihr?
Wenn es einen G80 in 80nm geben sollten, wird dieser nur einen höhreren Grundtakt (ROPs und TMUs) sowie Shader-Takt und einen eine erhöhte Speicherbandbreite durch GDDR4 haben.
Ein G80 in 65nm wird dagegen auch über mehr Cluster und ROP - Partionen verfügen.

w0mbat
2007-03-03, 17:53:37
Ich denke nicht daß es einen G80 in 80nm geben wird. Wenn dann springt nV direkt auf 65nm.

Gast
2007-03-03, 18:04:29
Ich denke nicht daß es einen G80 in 80nm geben wird. Wenn dann springt nV direkt auf 65nm.

Warum auch?
R600 kommt nach letzten Angaben im Mai und dann sind vielleicht gerade mal 3-4 Monate bis zum G90 in 65nm.

Die ~12% die der 80nm Prozess den G80 wohl kleiner machen könnte, stehen wohl zudem auch in keinem Verhältnis zum Risiko von miesen Yields, welches gar nicht so abwegig ist, wenn man sich die Problem von ATi anschaut.

Wenn überhaupt dann kommt vielleicht eine 8850GTX oder eine 8900GTX hinter der nur ein übertakteter G80 steht.

Gast
2007-03-03, 19:19:25
Warum auch?
R600 kommt nach letzten Angaben im Mai und dann sind vielleicht gerade mal 3-4 Monate bis zum G90 in 65nm.



ein 65nm-chip mit vielleicht knapp an die 1Mrd. transistoren noch dieses jahr?

halte ich eigentlich eher für unwahrscheinlich, wenn natürlich auch möglich.

Winter[Raven]
2007-03-03, 20:34:47
halte ich eigentlich eher für unwahrscheinlich, wenn natürlich auch möglich.

Sorry, aber das kennen wir ja schon ... ~630 Mio Transis @ 0.9µ ... unmöglich ... ;)

Gast
2007-03-03, 20:52:10
;5297583']Sorry, aber das kennen wir ja schon ... ~630 Mio Transis @ 0.9µ ... unmöglich ... ;)


nö, keinesfalls unmöglich, aber noch nicht dieses jahr.

(+44)
2007-03-03, 22:08:33
nö, keinesfalls unmöglich, aber noch nicht dieses jahr.

Der NV50 hatte schon letztes Jahr 681mio Transistoren in 90 Nanometern. Wieso sollte ATi das nich können?

Gast
2007-03-03, 23:49:34
Der NV50 hatte schon letztes Jahr 681mio Transistoren in 90 Nanometern. Wieso sollte ATi das nich können?

sorry, hab nicht genau aufgepasst, ich meinte natürlich dass ein G90 in 65nm heuer noch unwahrscheinlich ist.

Matthias1981
2007-03-04, 13:03:51
So. Jetzt hab ich mal paar Fragen.
1. Wann wird der R600 vorraussichtlich rauskommen bei uns?
2. Was kostet die beste?
3. Hat jemand nu ne Liste mit Details und Preisen?

SeaEagle
2007-03-04, 13:07:38
So. Jetzt hab ich mal paar Fragen.
1. Wann wird der R600 vorraussichtlich rauskommen bei uns?
2. Was kostet die beste?
3. Hat jemand nu ne Liste mit Details und Preisen?

sag mal, du liest dir den thread auch nicht durch, oder?

fakt ist, dass einfach noch keiner die genauen specs kennt, und die die sie kennen, unterliegen der NDA

Matthias1981
2007-03-04, 13:14:53
Vielleicht wäre es sinnvoll Fakten und Pics auf der ersten seite zu sammeln weil so viel müll hier geschrieben wird. schonmal daran gedacht?

Gast
2007-03-04, 13:18:19
Vielleicht wäre es sinnvoll Fakten und Pics auf der ersten seite zu sammeln weil so viel müll hier geschrieben wird. schonmal daran gedacht?Dann trag halt die Infos zusammen und bitte einen Mod sie ins erste Posting zu editieren. Wenn du dazu zu faul bist, solltest du es auch nicht von anderen verlangen.

Wenn du Antworten zu deinen Fragen aus Posting #468 haben willst, lies einfach die letzten paar Seiten.

Gast
2007-03-04, 13:21:51
R600 XTX/ XT XL und noch einige sollten Anfang Mai nach neuesten Infos zu kaufen angeboten werden.
Preislich knapp über 550 Euro am Launchtag.
Performancetechnisch hoffe ich beim Spitenmodell auf ca. 40-50% Mehrleistung gegenüber G80 und die XL zwischen 8800 GTS /
8800 GTX Niveau. Jedoch näher an GTX.
Die XT wird wohl ca. 10-20% schneller als die GTX werden müssen, um sich die Käuferschicht der XT sicherstellen zu können.Alles andere wäre Blamage und die Karten würden sich schlecht verkaufen.

Gast
2007-03-04, 13:33:30
R600 XTX/ XT XL und noch einige sollten Anfang Mai nach neuesten Infos zu kaufen angeboten werden.
Preislich knapp über 550 Euro am Launchtag.
Performancetechnisch hoffe ich beim Spitenmodell auf ca. 40-50% Mehrleistung gegenüber G80 und die XL zwischen 8800 GTS /
8800 GTX Niveau. Jedoch näher an GTX.
Die XT wird wohl ca. 10-20% schneller als die GTX werden müssen, um sich die Käuferschicht der XT sicherstellen zu können.Alles andere wäre Blamage und die Karten würden sich schlecht verkaufen.Horn12? ;D

Gast
2007-03-04, 13:43:21
Ja, vergass mich einzuloggen.
Sorry!

Gast
2007-03-04, 13:52:41
R600 XTX/ XT XL und noch einige sollten Anfang Mai nach neuesten Infos zu kaufen angeboten werden.
Preislich knapp über 550 Euro am Launchtag.
Performancetechnisch hoffe ich beim Spitenmodell auf ca. 40-50% Mehrleistung gegenüber G80 und die XL zwischen 8800 GTS /
8800 GTX Niveau. Jedoch näher an GTX.
Die XT wird wohl ca. 10-20% schneller als die GTX werden müssen, um sich die Käuferschicht der XT sicherstellen zu können.Alles andere wäre Blamage und die Karten würden sich schlecht verkaufen.
Ich glaube das alles wird nicht mehr als ein frommer Wunsch bleiben. ;D

Gast
2007-03-04, 13:58:23
Rechne Nicht, denn auch mit den AGP Karten behielt ich Recht, auch wenn sicherlich um gut dreiviertel Jahr zu spät! Dennoch kamen sie und nun gar in Fülle!
ATI wird kontern müssen, und zwar heftig!! mit "Gleichstand" selbst mit einer X2900 XT werden sich A/A nicht zufrieden geben.

Gast
2007-03-04, 14:06:13
So. Jetzt hab ich mal paar Fragen.
1. Wann wird der R600 vorraussichtlich rauskommen bei uns?
2. Was kostet die beste?
3. Hat jemand nu ne Liste mit Details und Preisen?

heutzutage kann man bei allen fragen nur raten, es kann alles passieren, dass der beste R600 doppelt so schnell wird, oder auch ein debakel alá NV30, dass es trotz ewiger verspätung nichtmal gelingt das aktuelle NV-spitzenmodell zu schlagen, such dir was dir besser gefällt.

fakt ist nur dass auserhalb von eingeweihten kreisen noch nichts über den R600 bekannt ist.

Gast
2007-03-04, 14:31:21
Rechne Nicht, denn auch mit den AGP Karten behielt ich Recht, auch wenn sicherlich um gut dreiviertel Jahr zu spät! Dennoch kamen sie und nun gar in Fülle!
ATI wird kontern müssen, und zwar heftig!! mit "Gleichstand" selbst mit einer X2900 XT werden sich A/A nicht zufrieden geben.
Und daran scheint's zu hapern. Entweder ist die Performance nicht viel besser oder der Preis sie zu erreichen ist zu hoch. Wenn's der R600 jetzt schon wirklich "draufhätte" würde A/A die Karten schon längst auf den Tisch legen, im wahrsten Sinne des Wortes. Diese ganze Geheimniskrämerei und Zauderei erinnert mich eher an eine Klausur, wo der Nv Schüler vorbildlich und voller Stolz die Arbeit pünktlich abgibt, während Ati verkrampft und nervös auf dem Stuhl hin und her rutscht und verzweifelt versucht sein Werk vor Blicken zu schützen, um sich eine Peinlichkeit zu ersparen.

dargo
2007-03-04, 15:18:43
Diese ganze Geheimniskrämerei und Zauderei erinnert mich eher an eine Klausur, wo der Nv Schüler vorbildlich und voller Stolz die Arbeit pünktlich abgibt, während Ati verkrampft und nervös auf dem Stuhl hin und her rutscht und verzweifelt versucht sein Werk vor Blicken zu schützen, um sich eine Peinlichkeit zu ersparen.
Daran glaube ich nun auch wieder nicht. Was soll das denn bringen? Ob man die "Peinlichkeit", sprich langsameres Produkt jetzt oder in 3 Monaten veröffentlicht spielt doch keine Rolle.
Oder wie stellst du dir das vor?
Hmm, der R600 ist dem G80 performancetechnisch mit 800Mhz unterlegen, warten wir noch mal 2 Monate. Nach 2 Monaten hat der R600 850Mhz. Hmm, er ist immer noch nur gleich schnell, Warten wir mal weitere 3 Monate. Hmm, nach weiteren 3 Monaten ist er mit 900Mhz nur 20% schneller als der G80. Warten wir mal noch ein bissel, wir wollen mindestens 50% Vorsprung. ;D

Ich glaube so einfach ist es nicht. ;)

PS: ich glaube mittlerweile, AMD/ATI haben ganz andere Probleme mit dem R600 als sich zu "blamieren".

Gast
2007-03-04, 15:31:02
Daran glaube ich nun auch wieder nicht. Was soll das denn bringen? Ob man die "Peinlichkeit", sprich langsameres Produkt jetzt oder in 3 Monaten veröffentlicht spielt doch keine Rolle.
Oder wie stellst du dir das vor?
Hmm, der R600 ist dem G80 performancetechnisch mit 800Mhz unterlegen, warten wir noch mal 2 Monate. Nach 2 Monaten hat der R600 850Mhz. Hmm, er ist immer noch nur gleich schnell, Warten wir mal weitere 3 Monate. Hmm, nach weiteren 3 Monaten ist er mit 900Mhz nur 20% schneller als der G80. Warten wir mal noch ein bissel, wir wollen mindestens 50% Vorsprung. ;D

Ich glaube so einfach ist es nicht. ;)

PS: ich glaube mittlerweile, AMD/ATI haben ganz andere Probleme mit dem R600 als sich zu "blamieren".
Mit Peinlichkeit meine ich natürlich nicht nur die Performance sondern das Gesamtpaket. Das scheint insgesamt noch nicht konkurrenzfähig zu sein. Außerdem ist der Zug für Ati im High End in dieser Saison schon so gut wie abgefahren. Mit einer Leistung wie G80 kann man keinen mehr wirklich locken, weil der Markt schon stark gesättigt ist. Die GTX ist mehr als doppelt so schnell wie die Vorgängergenerationen beider Hersteller. Da ist es nicht leicht, das wesentlich in einem kurzen Zeitraum noch zu toppen.

Mr. Lolman
2007-03-04, 15:58:57
Vll verkauft sich die X1900 Reihe einfach noch so gut, dass es für sie einfach keinen Grund gibt das Ding jetzt schon zu releasen ;D

Gouvernator
2007-03-04, 16:07:50
Mit Peinlichkeit meine ich natürlich nicht nur die Performance sondern das Gesamtpaket. Das scheint insgesamt noch nicht konkurrenzfähig zu sein. Außerdem ist der Zug für Ati im High End in dieser Saison schon so gut wie abgefahren. Mit einer Leistung wie G80 kann man keinen mehr wirklich locken, weil der Markt schon stark gesättigt ist. Die GTX ist mehr als doppelt so schnell wie die Vorgängergenerationen beider Hersteller. Da ist es nicht leicht, das wesentlich in einem kurzen Zeitraum noch zu toppen.

Ja da bleibt nur eins, doppelt so schnell wie die aktuelle Generation ->G80 zu werden, du sagt es ;D

horn 12
2007-03-04, 16:08:56
Also A/A will den Fehler der R520 nicht wiederholen.
Ihnen wird wohl zu Ohren gekommen sein was NV vorbeireitet, der Refresh zu Leisten vermag und somit haben sie den R600 erneut verschoben, um Treibermäsig / Temperaturmässig und vor allem Performancemässig alles aus dem R600 rauszukitzeln und nicht gleich wieder von NV geschlagen werden zu können. Inwiefern es ein neues/ überarbeitetes "Layout" der Karte selbst brauchte vermag ich nicht zu sagen. Fest steht dass die Verschiebung auch einen Prestigegrung gehabt haben wird, da NV wohl gleich danach was gebracht hätte. Somit wollte man dem Vorbeugen und den R600 noch besser werden lassen,- und es soll eine Überraschung werden. Und dies in jeder Hinsicht sagten sie unterm Rage3d Forum.

Sterem
2007-03-04, 16:09:52
Vll verkauft sich die X1900 Reihe einfach noch so gut, dass es für sie einfach keinen Grund gibt das Ding jetzt schon zu releasen ;D


Mit der X1950 GT PRO XT - X1900 AIW macht Ati zurzeit bestimmt noch richtig Kasse....

Gast
2007-03-04, 16:25:49
Vll verkauft sich die X1900 Reihe einfach noch so gut, dass es für sie einfach keinen Grund gibt das Ding jetzt schon zu releasen ;DWir wollen doch mal realistisch bleiben. ;) Die enorme Verspätung des R600 ist für ATI alles andere als vorteilhaft. Diese Runde geht wohl an Nvidia. Aber ich denke nicht, dass das das Ende von ATI bedeutet.

mapel110
2007-03-04, 16:31:18
Aber ich denke nicht, dass das das Ende von ATI bedeutet.
ATI war schön öfter später dran. 8500er kam sehr viel später als die Geforce3 und musste sich dann der 4er stellen. Ganz zu schweigen vom SM3-Desaster, wo ATI fast 2 Jahre gebraucht hat. Überlebt haben sie es. Entweder durch Preis oder durch Speed,anstatt Features. Mal abwarten, was es diesmal wird.
Überhaupt waren sie nur mit dem R300 mal vor nvidia am Markt. Lang ists her...

Gast
2007-03-04, 16:37:12
ATI war schön öfter später dran. 8500er kam sehr viel später als die Geforce3 und musste sich dann der 4er stellen. Ganz zu schweigen vom SM3-Desaster, wo ATI fast 2 Jahre gebraucht hat. Überlebt haben sie es. Entweder durch Preis oder durch Speed,anstatt Features. Mal abwarten, was es diesmal wird.

Nur ist diesmal die Situation ein ganzes Stück anders:
ATi ist die AMD Graphics Group und eben keine eigenständige Firma mehr.
Was bedeuten könnte, wenn ATi in Zukunft sich weitere solche Patzer leistet, dass der Geldfluss eingeschränkt und die Hauptaufgabengebiete eben nicht mehr der HighEnd-Gamer-GPU-Markt ist.

Zudem sollte man auch nicht vergessen, dass AMD Heuschrecken im Nacken sitzen, die nur darauf warten zuzuschlagen und sich dann um die nicht so erfolgreichen Unternehmenssparten kümmern. ;)

Mit der extremen Verspätung des R600 hat ATi sich und seiner Zukunft definitiv keinen Gefallen getan...

Gast
2007-03-04, 16:39:59
Was bedeuten könnte, wenn ATi in Zukunft sich weitere solche Patzer leistet, dass der Geldfluss eingeschränkt und die Hauptaufgabengebiete eben nicht mehr der HighEnd-Gamer-GPU-Markt ist.Das denke ich nicht. Wenn AMD kein Interesse am Fortbestand der ATI-Produkte hätte, hätten sie diese teure Investition nie getätigt. Für Chipsätze und IGPs hätte es auch eine deutlich billigere Firma getan. AMD hat ja großes vor mit den ATI-GPUs ("Firestream" oder wie es sich nennt).

Armaq
2007-03-04, 17:02:26
Ich denke mir das wirtschaftlich ganz simpel. ATI hat den R600 nicht wie gewünscht hinbekommen, die Übernahme schaffte neue Strukturen und ein wenig Unsicherheit, was nunmal Zeit kostet und dann wird AMD Entwicklungsressourcen auf ein zukünftiges Projekt umgeleitet haben und schon sind wir im Jetzt angekommen.

The_Invisible
2007-03-04, 17:21:16
also was ich so mitbekommen habe gefällt manchen die erneute verschiebung überhaupt nicht. vor allem den treuen ati kunden die potenzielle R600 käufer waren (oder konjunktiv wären) haben sich meist schon ne 8800gtx oder sogar SLI zugelegt.

darum kann ich nicht ganz verstehen warum die verschiebung hier oft schöngeredet wird :|

mfg

Gast
2007-03-04, 17:54:32
ATI war schön öfter später dran. 8500er kam sehr viel später als die Geforce3 und musste sich dann der 4er stellen. Ganz zu schweigen vom SM3-Desaster, wo ATI fast 2 Jahre gebraucht hat. Überlebt haben sie es. Entweder durch Preis oder durch Speed,anstatt Features. Mal abwarten, was es diesmal wird.
Überhaupt waren sie nur mit dem R300 mal vor nvidia am Markt. Lang ists her...

Sorry aber ATi war mit dem R420 speedmäßig deutlich vor dem NV40. Das SM3 Argument das war doch nur ein Vorteil auf dem Papier. Welche SM3 Spiele gab es 2004? 2005, nichtmal ne Handvoll. Die wichtigsten Spiele konnte man genauso gut mit einem R420 spielen.

Mit dem R580 ist ATi auch deutlich vor G71. Der R600 wird die G8X Familie ähnlich auffressen wie damals der R420 den NV40, nur jetzt hat ATi auch die technologisch bessere Karte.

ATi zeigt doch nVidia jedesmal wo der Haser lang läuft? R300 vs NV30 ging an ATi, R420 vs NV40 ging an ATi, R520 vs G70 ging an ATi, R600 vs G80 geht natürlich an ATi.

ATi ist die bessere Chipschmiede, mit einer ATi Karte hast du längere Zeit mehr fps, man muss sich nur mal R580 vs G71 ansehen, eine X1900XT zieht einer teuren 7900GTX auf und davon in neueren Games. Das war in der Vergangenheit auch so!

The_Invisible
2007-03-04, 17:56:20
ATI PR Abteilung?

mfg

Gast
2007-03-04, 17:56:42
ATI PR Abteilung?

mfg

Nein wieso, das sind Tatsachen!

dargo
2007-03-04, 17:59:41
ATi zeigt doch nVidia jedesmal wo der Haser lang läuft? R300 vs NV30 ging an ATi, R420 vs NV40 ging an ATi, R520 vs G70 ging an ATi, R600 vs G80 geht natürlich an ATi.

ATi ist die bessere Chipschmiede, mit einer ATi Karte hast du längere Zeit mehr fps, man muss sich nur mal R580 vs G71 ansehen, eine X1900XT zieht einer teuren 7900GTX auf und davon in neueren Games. Das war in der Vergangenheit auch so!
Ja, nur leider spiegelt sich das in den Verkaufszahlen nicht wieder. AMD/ATI müssen ihre Lowend und Mainstream Politik überarbeiten dann klappt das auch mit den Zahlen.

Gast
2007-03-04, 18:00:01
Nur gewinnt man den Krieg nicht mit einer einzelnen siegreichen Schlacht im obersten HighEnd. ;)
Auf die anderen Segmente kommt es an und da ist ATi seit R4xx eher schlecht positioniert, was man auch an den Marktanteilen im Markt der dedizierten Grafiklösungen sieht.

Und RV630 sieht momentan alles andere als nach einem Mainstreamkracher aus.

Gast
2007-03-04, 18:01:40
nur jetzt hat ATi auch die technologisch bessere Karte.Inwiefern?ATI PR Abteilung?Das dachte ich mir auch.

Gast
2007-03-04, 18:01:50
Ja, nur leider spiegelt sich das in den Verkaufszahlen nicht wieder. AMD/ATI müssen ihre Lowend und Mainstream Politik überarbeiten dann klappt das auch mit den Zahlen.

Wie, ist ATi im Moment so schlecht aufegestellt mit Low-und Mainstreamkarten? Doch überhaupt nicht. Außerdem verkaufte sich der NV40 alleine nur wegen des SM3 Features so gut, nicht wegen seiner Leistung, die war nämlich schlecht im Vergleich mit einem R420.

mapel110
2007-03-04, 18:03:23
...
Als ob das irgendwie im Widerspruch zu meinem Posting stehen würde... :|
Mir gings um die Release Dates :rolleyes:
Und was es zum Thema Erfolg beider Chip-Schmieden zu sagen gibt: Siehe Quartalszahlen und Übernahme von ATI durch AMD.
Aber das ist alles Offtopic.

Gast
2007-03-04, 18:04:00
also was ich so mitbekommen habe gefällt manchen die erneute verschiebung überhaupt nicht. vor allem den treuen ati kunden die potenzielle R600 käufer waren (oder konjunktiv wären) haben sich meist schon ne 8800gtx oder sogar SLI zugelegt.

darum kann ich nicht ganz verstehen warum die verschiebung hier oft schöngeredet wird :|

mfg

Es werden doch auch die Makel der Treiber beim G80 schöngeredet! Nvidia hat eine Karte auf den Markt geworfen, die technisch sehr gut ist, aber es bis heute keine guten Treiber gibt. Da muss man sich doch leicht verarscht vorkommen von Nvidia? Aber das machten sie ja öfters, die Kalifonier...

Gouvernator
2007-03-04, 18:04:14
Oh äh, leute was hat ein highend mit Low und mid range gemeinsam? Die Leute die sowas kaufen haben natürlich zu viel Geld. Und ja ATI verliert dieses leichtes Geld... Aber wir sind hier beim r600...