Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation, Teil 4 (leider nicht der letzte?)


Seiten : 1 2 [3] 4

Ailuros
2007-02-15, 12:42:27
Das man sie nicht nutzt bedeutet nicht zwangsweise, dass sie nicht funktionieren.

Die MUL Einheiten funktionieren momentan fuer attribute interpolation und perspective correction. Erstmal heisst es dass die Einheiten nicht dumm herumhocken und zweitens waere es ein aeusserst "merkwuerdiger" Defekt wenn man die Einheiten nicht fuer general shading gebrauchen oder missbrauchen koennte.

robbitop
2007-02-15, 12:45:03
Und was wird es bringen?

mfg Nakai
Das ist vom Shader abhängig. DP3 z.B. würde davon profitieren.

Gast
2007-02-15, 13:28:49
Um nochmal zu den bisherigen Gerüchten und Specs zu kommen:

Wenn die Tabelle, wie sie computerbase gelistet hat, der Realität entsprechen würde, so wäre es eine herbe Enttäuschung!

Es gäbe keine Karte mit mind. 256 bit SI, 512 MB und mind. 96 Shader zu einem Preis von 299 $.

399 $ für eine XL wäre der blanke Hohn, ich denke und hoffe, das es ATI besser machen wird!

Gast
2007-02-15, 13:46:00
Des Rätsels Lösung, warum der R600 so übermässig viel Bandbreite hat?
http://www.vr-zone.com/index.php?i=4678

Henroldus
2007-02-15, 13:50:57
Um nochmal zu den bisherigen Gerüchten und Specs zu kommen:

Wenn die Tabelle, wie sie computerbase gelistet hat, der Realität entsprechen würde, so wäre es eine herbe Enttäuschung!

Es gäbe keine Karte mit mind. 256 bit SI, 512 MB und mind. 96 Shader zu einem Preis von 299 $.

399 $ für eine XL wäre der blanke Hohn, ich denke und hoffe, das es ATI besser machen wird!
immer locker bleiben, selbst wenn die Liste so kommen würde kann man die großen Preise 2 Monate später schon etwa 100 eur tiefer ansetzen.
XL 4 299€ ist meins :biggrin:

deekey777
2007-02-15, 13:57:18
Des Rätsels Lösung, warum der R600 so übermässig viel Bandbreite hat?
http://www.vr-zone.com/index.php?i=4678
Das hat nichts mit der Bandbreite zu tun, sondern damit, dass der R600 endlich über HDMI Video und Audio ohne eine externe Verbindung zur Soundkarte ausgeben kann/soll.

robbitop
2007-02-15, 14:04:03
Des Rätsels Lösung, warum der R600 so übermässig viel Bandbreite hat?
http://www.vr-zone.com/index.php?i=4678
Äh das eine hat nichts mit dem anderen zu tun.

Ein Stream mit 1920x1080 nimmt bei 30p/60i lediglich 1,85 GiB/sek.

deekey777
2007-02-15, 14:41:10
AMD-ATI preps launch of RV610 and RV630 (http://www.digitimes.com/mobos/a20070214PD217.html)
With the R600 set to be showcased at CeBIT in March, some industry players expect AMD-ATI to display the full R6 series at the show, including th entry-level RV610 and mainstream RV630.

All the R6-series graphics cores will support DirectX 10. AMD had previously mentioned that the company will introduce a full series of R6-series graphics, after the launch of the R600, for other market segments. Volume production of RV610 is expected to commence during late April and the RV630 should be available in the channels in May, the sources noted.

The sources also added that RV610 manufacturing will bypass 80nm and move directly to 65nm, and it may also support DDR4 memory.

...
The sources were more interested in knowing whether the mainstream RV630 will also skip production on 80nm and move directly to 65nm, given that the previous mainstream 1650XP that skipped a node to adopt 80nm production did not draw satisfactory feedback from the channel.

Nakai
2007-02-15, 14:43:39
Oh ATI macht auf Angriff. Mal schauen wie die schnell die Teile werden.
Der RV610 und Rv630 sind schon nette Teile.

mfg Nakai

Die gelbe Eule
2007-02-15, 14:47:27
Angriff? Wenn es wirklich erst mit 65nm losgeht, dann siehst Du die kleinen Karten nicht vor Juli.

aths
2007-02-15, 14:49:00
Kannst Dir selbst beantworten, wenn weißt was in der ALU sitzt ;)

Siehe auch: http://www.3dcenter.org/artikel/2006/12-28_a.phpÜbrigens ist das mit den Vec16-ALUs in meinem Artikel falsch. Es sind nicht 8 Vec16-ALUs, sondern 16 Vec8-ALUs. Auswirkung auf die Performance? Keine, da die Granularität weiterhin bei 32 Pixeln bzw. 16 Vertices bleibt.

Gast
2007-02-15, 14:49:43
Zudem weis man immer noch nicht ob, es sich hier um soetwas wie die originale X1300 und X1600 handelt, die ich nicht unbedingt als "nett" einstufen würde.

Neue Prozesse und ATi Midrange-GPUs ist dann wieder ein anderes Kapitel, was in der Vergangenheit nicht unbeding glorreich war. ;)

Die gelbe Eule
2007-02-15, 14:55:15
Übrigens ist das mit den Vec16-ALUs in meinem Artikel falsch. Es sind nicht 8 Vec16-ALUs, sondern 16 Vec8-ALUs. Auswirkung auf die Performance? Keine, da die Granularität weiterhin bei 32 Pixeln bzw. 16 Vertices bleibt.

Was bringt es also dann genau, weil Du gehst ja immerhin zwei mal explizit darauf ein.

robbitop
2007-02-15, 14:57:39
Wie soll man sowas pauschal beantworten können? Das ist abhängig vom Shader.

Was RV630/610 angeht. AiL deutete mal darauf hin, dass der RV630 kein halbierter R600 sei (analog zum RV530). Das könnte sich natürlich positiv auf die Yields auswirken, wobei man wieder die Lücke zw R600 und RV630 durch deaktivieren von Einheiten schließen müsste.

paul.muad.dib
2007-02-15, 15:09:29
Vielleicht ist es gar kein Problem, sondern nur ein Backup für Leistung die man noch freigeben könnte.


Was soll das denn bringen, Leistung zum Launch zurückzuhalten? Nach dem Launch lassen sich die höchsten Preise erzielen und wenn der Chip dann nicht 1,5x so schnell, sondern 2x so schnell wie die Vorgängergeneration ist (Zahlen sind frei erfunden), dann gibt es doch gleich viel mehr Interessenten.

Dazu kommt, dass sich viele Reviewer gar nicht die Mühe machen werden, den G80 beim r600 Launch erneut zu benchen, sondern einfach die schon vorhandenen Ergebnisse nehmen.

Paul Brain
2007-02-15, 15:18:52
Das hat nichts mit der Bandbreite zu tun, sondern damit, dass der R600 endlich über HDMI Video und Audio ohne eine externe Verbindung zur Soundkarte ausgeben kann/soll.
"R600 board will be shipped with at least one DVI-to-HDMI dongle": wo kriegt der dann das Audiosignal her, wenn das PCB offensichtlich nur DVI-Anschlüsse hat? DVI-2-HDMI kann ja vom Prinzip nur Videosignale "wandeln", es sei denn, man steckt irgendwo noch ein Kabel dazu.

EDIT: Oder wissen die nur nicht daß man solche Adapter anhand der Signalflußrichtung bezeichnet...

Coda
2007-02-15, 15:19:20
analog zum RV530
Das war doch nur nen viertel R580, oder nicht?

Die gelbe Eule
2007-02-15, 15:27:35
Was soll das denn bringen, Leistung zum Launch zurückzuhalten? Nach dem Launch lassen sich die höchsten Preise erzielen und wenn der Chip dann nicht 1,5x so schnell, sondern 2x so schnell wie die Vorgängergeneration ist (Zahlen sind frei erfunden), dann gibt es doch gleich viel mehr Interessenten.

Dazu kommt, dass sich viele Reviewer gar nicht die Mühe machen werden, den G80 beim r600 Launch erneut zu benchen, sondern einfach die schon vorhandenen Ergebnisse nehmen.

Was sie aber garantiert nicht machen werden. Alleine die Tatsache das die Vista Treiber erst gar nicht berücksichtig wurden, wird neue Benchmarks erfordern.

drmaniac
2007-02-15, 15:33:22
two HDMI ports at the same time with resolution at 1920x1080 (1080p or 2560x1440 (1440p).


moment mal. Und was ist, wenn ich zwei 30(Zöller)er mit je 2560x1600 per "Standard" DVI anklemmen möchte?




.

Gast
2007-02-15, 15:35:26
Das war doch nur nen viertel R580, oder nicht?Ja, schon richtig. Er meinte es eher so, dass RV630 wieder nur ein viertel High-End-Chip werden könnte, analog zu RV530 eben.

paul.muad.dib
2007-02-15, 16:05:27
Was sie aber garantiert nicht machen werden. Alleine die Tatsache das die Vista Treiber erst gar nicht berücksichtig wurden, wird neue Benchmarks erfordern.

Benchmarks unter Vista sind wohl erstmal ziemlich unnötig. Erforderlich wäre es nur, wenn es entsprechende DX10 gibt. Bis jetzt sind Vista Benchmarks aber eher Benchmarks zum Entwicklungsstand der Treiber.

reunion
2007-02-15, 16:12:50
Schau Dir die letzten Jahre an, wir sind beim G80 auf 90nm, bisher gibt es noch keinen Grund auf 80nm umzusteigen, weil wie gesagt Potential nach oben wäre noch da, 680MHz mit etwas mehr VGPU hat man schon bestätigen können.


Das Die des G80 ist 484mm² groß, das sind schon fast Montecito-Ausmaße. Bei ~80 Dice pro Wafer, die man als GTX oder GTS verkaufen kann, und einem Waferpreis von 8000$, bleibt da nicht viel Gewinn übrig. nV wird froh sein, wenn man endlich den Shirnk auf 80, oder gar 65nm machen kann. Besonders Taktfreudig ist der G80 im übrigen beileibe nicht.

Und die Midrage- und Lowendchips werden mit 80nm auch nicht unbedingt billig herzustellen sein. ATi hat hier durch die kleineren Herstellungsprozesse wesentlich mehr Spielraum was das Transistorenbudget betrifft, bzw. kann natürlich bei entsprechenden Yield wesentlich billiger fertigen.


Quellen im Spekuforum? ;)

Auch im Spekulationsforum muss man nicht jeden Mist als Tatsache hinstellen, wenn es einem gerade passt.

deekey777
2007-02-15, 16:31:07
moment mal. Und was ist, wenn ich zwei 30(Zöller)er mit je 2560x1600 per "Standard" DVI anklemmen möchte?




.

Dafür gibt's 2xDual-Link-DVI.:)
Bei HDMI gibt es kein Dual-Link, sondern ab HDMI 1.3 den doppelten Takt.
Übrigens ist das mit den Vec16-ALUs in meinem Artikel falsch. Es sind nicht 8 Vec16-ALUs, sondern 16 Vec8-ALUs. Auswirkung auf die Performance? Keine, da die Granularität weiterhin bei 32 Pixeln bzw. 16 Vertices bleibt.
nVidia wird bestimmt Produkte mit nur einem Shader-Block auf den Markt bringen (IGP), da könnte dies vom Vorteil sein, aber da stellt sich weiterhin die Frage, welche Shadertypen parallel berechnet werden können.

Gast
2007-02-15, 16:44:51
Also da sich heir einige an dem zusätzlichen MUL hochpitchen möchte ich mal zu bedenken geben dass zum Launch ein R580 sich taktbereinigt trotz 3!!! facher Arithmetikleistung nicht bedeutend von R520 absetzen konnte. und dabei ging es nicht um eine vergleichsweise selten benutzte Operation wie MUL, die dazu derzeit noch für andere Belange herangezogen wird....

Gast
2007-02-15, 16:54:34
dabei ging es nicht um eine vergleichsweise selten benutzte Operation wie MULHmm, selten benutzt? Erklär mal.

reunion
2007-02-15, 17:04:37
Hmm, selten benutzt? Erklär mal.

Was gibt es da zu erklären? Eine MUL kann eben nicht benutzt werden, wenn man eine ADD braucht, wodurch man von der zusätzlichen MUL nicht immer was hat. R580 hatte wirklich in jeder Situation die dreifache Shaderleistung, außerdem war die Ausgangsbasis mit R520 wesentlich niedriger. Bei G80 dürfte kaum mal die Shaderleistung limitieren, zudem ist es ja nicht so, dass die MUL zurzeit Däumchen dreht.

Godmode
2007-02-15, 17:38:09
Also da sich heir einige an dem zusätzlichen MUL hochpitchen möchte ich mal zu bedenken geben dass zum Launch ein R580 sich taktbereinigt trotz 3!!! facher Arithmetikleistung nicht bedeutend von R520 absetzen konnte. und dabei ging es nicht um eine vergleichsweise selten benutzte Operation wie MUL, die dazu derzeit noch für andere Belange herangezogen wird....

Beim R580 war es IIRC so, dass diese 3 Zusäztlichen Einheiten nicht immer ausgenutzt werden konnten, also diese teilweise durch etwas blockiert wurden.

PCGH_Carsten
2007-02-15, 18:30:36
Das hat nichts mit der Bandbreite zu tun, sondern damit, dass der R600 endlich über HDMI Video und Audio ohne eine externe Verbindung zur Soundkarte ausgeben kann/soll.
Dazu muss erstmal die Soundlösung mitspielen - ihre Ausgabe digital über den PCI-Express zu schicken, anstatt zu ihren eigenen Ausgängen.

Andererseits - es gab ja das X1300-als-Audio-Karte-Projekt. Vielleicht integriert R600 eine X-Fi?

Was soll das denn bringen, Leistung zum Launch zurückzuhalten? Nach dem Launch lassen sich die höchsten Preise erzielen und wenn der Chip dann nicht 1,5x so schnell, sondern 2x so schnell wie die Vorgängergeneration ist (Zahlen sind frei erfunden), dann gibt es doch gleich viel mehr Interessenten.
Das ist es doch eben: Selbst im jetzigen Zustand war G80 dafür schnell genug. Ich kenne niemanden, der den Schritt zum G80 aus dem Grunde nicht getan hat, dass ihm der Performance-Sprung zu gering war.

paul.muad.dib
2007-02-15, 19:28:59
Das ist es doch eben: Selbst im jetzigen Zustand war G80 dafür schnell genug. Ich kenne niemanden, der den Schritt zum G80 aus dem Grunde nicht getan hat, dass ihm der Performance-Sprung zu gering war.

Es haben sich schon einige beklagt, dass der Performance Sprung nicht so groß ist. Falls der G80 bspw. 4x so schnell gewesen wäre wie die Vorgänger hätte das die Käuferschaft wohl schon vergrößert.

Wenn man mal weg vom direkten Vegleich geht und sich nur die absolute Leistung anschaut, wird es noch deutlicher. Klar ist der G80 für aktuelle Spiele extrem schnell, aber er kommt in einigen auch schon an seine Grenzen. Oblivion ist bei 1280x1024 4xAA/16AF TAA gerade noch spielbar, in höheren Auflösungen schon nicht mehr.
Das heißt aber auch, dass eine 8800 für einige Spiele bald schon wieder zu langsam sein wird. Bei Karten wie der 9700 pro oder der 6800 Ultra war dagegen klar, dass man damit sehr lange auskommen würde.

Undertaker
2007-02-15, 19:32:21
Was gibt es da zu erklären? Eine MUL kann eben nicht benutzt werden, wenn man eine ADD braucht, wodurch man von der zusätzlichen MUL nicht immer was hat. R580 hatte wirklich in jeder Situation die dreifache Shaderleistung, außerdem war die Ausgangsbasis mit R520 wesentlich niedriger. Bei G80 dürfte kaum mal die Shaderleistung limitieren, zudem ist es ja nicht so, dass die MUL zurzeit Däumchen dreht.

womit wird die denn derzeit gefüttert?

Lawmachine79
2007-02-15, 19:36:36
Das heißt aber auch, dass eine 8800 für einige Spiele bald schon wieder zu langsam sein wird. Bei Karten wie der 9700 pro oder der 6800 Ultra war dagegen klar, dass man damit sehr lange auskommen würde.

Bei der 97Pro gehe ich ja mit. Aber das mit 68U stimmt nicht. Far Cry z.B. gab es da AFAIK schon. Und da kam die Karte recht schnell an ihre Grenze. Aber Du hast Recht, der Performancesprung 5950U --> 68U war gigantisch und viel größer als der von 79GTX ---> 88GTX. Das lag aber daran, daß die 5950U schlichtweg scheiße war. Wenn man nur einen Euro Vermögen hat, ist es einfach, sein Vermögen zu verdoppeln. Wenn Du hundert Euro hast, ist es schon schwerer, die zu verdoppeln.

crux2005
2007-02-15, 19:51:23
womit wird die denn derzeit gefüttert?

Die MUL Einheiten funktionieren momentan fuer attribute interpolation und perspective correction.

;)

robbitop
2007-02-15, 20:05:12
Anscheinend ist die 8900er nun doch @80nm (TI).
700 MHz Core Clock soll das Teil haben. Dazu kommt dann noch der neue Treiber.

Laut TI ist RV630 doch ein halbierter R600. Den R600 geben sie mit 128 Shaderunits an und den RV630 mit 64.

Nakai
2007-02-15, 20:13:18
Ist doch gut. Die Specs haben sich in den letzten Wochen drastisch geändert.

mfg Nakai

Gmax
2007-02-15, 20:14:46
Den R600 geben sie mit 128 Shaderunits an und den RV630 mit 64.
Ob der RV630 schneller als die X1900XT wird?

crux2005
2007-02-15, 20:15:36
eher nicht

btw: TI ?

robbitop
2007-02-15, 20:16:22
je nach takt ähnlich schnell vieleicht

Coda
2007-02-15, 20:22:41
Bei der 97Pro gehe ich ja mit. Aber das mit 68U stimmt nicht. Far Cry z.B. gab es da AFAIK schon. Und da kam die Karte recht schnell an ihre Grenze. Aber Du hast Recht, der Performancesprung 5950U --> 68U war gigantisch und viel größer als der von 79GTX ---> 88GTX.
Aber auch nur bei Shader-Zeug. Sonst war es wie gehabt ~2x.

Gast
2007-02-15, 20:36:45
Anscheinend ist die 8900er nun doch @80nm (TI).
700 MHz Core Clock soll das Teil haben. Dazu kommt dann noch der neue Treiber.

Laut TI ist RV630 doch ein halbierter R600. Den R600 geben sie mit 128 Shaderunits an und den RV630 mit 64.

Du beziehst dich doch bitte nicht auf die "Phantasietabelle" mit den kompletten Porfolios beider IHVs für D3D10? X-D

Gast
2007-02-15, 21:01:02
@Gast
Du hast dich verschätzt, beim 6 Pol Stecker hast eben NICHT 2x12V sondern 3x 12V und 3x Masse.
Entsprechend darf ein Pin nur mit ~2A belastet werden.

Die 2x 4 Pin Stecker würden also 100W liefern...

es reichen aber auch 2x12V, wie z.b. beim adapter von 2x molex auf 6-pin PCIe.

Gast
2007-02-15, 21:43:58
Es haben sich schon einige beklagt, dass der Performance Sprung nicht so groß ist. Falls der G80 bspw. 4x so schnell gewesen wäre wie die Vorgänger hätte das die Käuferschaft wohl schon vergrößert.


ein zusätzliches MUL/ALU bringt aber nicht auf einmal die doppelte leistung, aber die 20-30% die eventuell notwendig werden könnten um mit dem R600 gleichzuziehen könnten durchaus drinnen sein.

Gast
2007-02-15, 22:11:59
ein zusätzliches MUL/ALU bringt aber nicht auf einmal die doppelte leistung, aber die 20-30% die eventuell notwendig werden könnten um mit dem R600 gleichzuziehen könnten durchaus drinnen sein.

Mach dich nicht lächerlich. Da sind dann schon ein paar applikationsspezifische Optimierungen nötig um 20% rauszuholen. Evtl bringts ja 20% in nem einzelnenTest im Shadermark.

Gast
2007-02-15, 22:18:28
Mach dich nicht lächerlich. Da sind dann schon ein paar applikationsspezifische Optimierungen nötig um 20% rauszuholen. Evtl bringts ja 20% in nem einzelnenTest im Shadermark.


bei einem shader der nur MULs verwendet könnten es sogar 100% sein, werden nur ADDs verwendet bringt es garnichts, von daher kann man schwer eine generelle aussage treffen.

paul.muad.dib
2007-02-15, 22:30:28
ein zusätzliches MUL/ALU bringt aber nicht auf einmal die doppelte leistung, aber die 20-30% die eventuell notwendig werden könnten um mit dem R600 gleichzuziehen könnten durchaus drinnen sein.

Glaube ich auch nicht. Ich wollte nur mit dem extremen Beispiel zeigen, dass es nichts bringt, Leistung bewusst zurückzuhalten.

reunion
2007-02-15, 23:31:03
Ist doch gut. Die Specs haben sich in den letzten Wochen drastisch geändert.

mfg Nakai

Nein, haben sie sich nicht. Nur fällt fast das gesamte Web auf diese tollen Tabellen aus Taiwan rein. Momentan weiß man schlicht und einfach nichts, außer jedermenge widersprüchlicher Infos, deshalb können sich die Specs eigentlich gar nicht ändern. Alles ist möglich.

deekey777
2007-02-16, 00:53:47
Dazu muss erstmal die Soundlösung mitspielen - ihre Ausgabe digital über den PCI-Express zu schicken, anstatt zu ihren eigenen Ausgängen.
.
Ich glaub eher, man nimmt einfach die einzelnen Tonspuren von der HD-Disc und leitet diese an einen HDMI-Receiver weiter, der die Decodierung übernimmt.
http://en.wikipedia.org/wiki/High-Definition_Multimedia_Interface#HDMI_1.3

Ailuros
2007-02-16, 05:32:44
Es haben sich schon einige beklagt, dass der Performance Sprung nicht so groß ist. Falls der G80 bspw. 4x so schnell gewesen wäre wie die Vorgänger hätte das die Käuferschaft wohl schon vergrößert.

Wenn man mal weg vom direkten Vegleich geht und sich nur die absolute Leistung anschaut, wird es noch deutlicher. Klar ist der G80 für aktuelle Spiele extrem schnell, aber er kommt in einigen auch schon an seine Grenzen. Oblivion ist bei 1280x1024 4xAA/16AF TAA gerade noch spielbar, in höheren Auflösungen schon nicht mehr.
Das heißt aber auch, dass eine 8800 für einige Spiele bald schon wieder zu langsam sein wird. Bei Karten wie der 9700 pro oder der 6800 Ultra war dagegen klar, dass man damit sehr lange auskommen würde.

Oblivion ist sehr wohl noch spielbar in >1280 mit TSAA:

http://users.otenet.gr/~ailuros/TranspAAPerf.pdf

Erstens ist kein FPS und zweitens wo immer es wirklich kritisch mit der Leistung wird, rettet eine niedrigere Aufloesung wie 1280*1024 auch nicht unbedingt den Tag.

Hier ein anderes Beispiel und dazu mit einem Haufen an extra packs installiert, weil das Spiel bei default und ohne die 4k*4k Texturen viel zu langweilig aussieht:

4xAA+TSAA

http://www.3declipse.com/images/stories/ailN/Ob1280.jpg

http://www.3declipse.com/images/stories/ailN/Ob1600.jpg

http://www.3declipse.com/images/stories/ailN/Ob1920.jpg

8xQxAA+ TSAA (16*12)

http://www.3declipse.com/images/stories/ailN/Ob8xTSAA.jpg

8xQxAA+ TMAA (16*12)

http://www.3declipse.com/images/stories/ailN/Ob8xTMAA.jpg

Da es wohl mit 8xTSAA doch etwas zu kritisch wird, kann man immer noch zu 8xTMAA greifen, wobei die Qualitaet beim letzten nur einen kleinen Unterschied zu 4xTSAA hat. Im Notfall verschiebt man halt den LOD noch um +0.3 und man hat EATM teilweise emuliert LOL ;)

Natuerlich gibt es schlimmere Faelle als diese, aber die Szene ist mit genug alphas vollgeladen um representativ zu sein und Oblivion ist trotz allem an viel zu vielen Stellen immer noch CPU limitiert.

***edit: hier noch ein anderer Blickwinkel direkt ins Gruenzeug mit 8xTMAA und +0.3 LOD fuer 400% zooms:

http://www.3declipse.com/images/stories/ailN/ObLOD03.jpg

Ailuros
2007-02-16, 05:49:41
Nein, haben sie sich nicht. Nur fällt fast das gesamte Web auf diese tollen Tabellen aus Taiwan rein. Momentan weiß man schlicht und einfach nichts, außer jedermenge widersprüchlicher Infos, deshalb können sich die Specs eigentlich gar nicht ändern. Alles ist möglich.

Kreative Mathe 1:

64 5D ALUs (Vec4 MADD + Scalar ADD)

Kreative Mathe 2:

64 1D ALUs
64 4D ALUs
----------------------
128

Kreative Mathe 3:

64*5 = 320 1D ALUs

Pick your poison ;D

Ailuros
2007-02-16, 05:53:31
Und die Midrage- und Lowendchips werden mit 80nm auch nicht unbedingt billig herzustellen sein. ATi hat hier durch die kleineren Herstellungsprozesse wesentlich mehr Spielraum was das Transistorenbudget betrifft, bzw. kann natürlich bei entsprechenden Yield wesentlich billiger fertigen.

Oder sie brauchen hoehere Taktraten um jeweils besser konkurrieren zu koennen und diese sind nunmal leichter erreichbar bei einem kleineren Herstellungsprozess.

seahawk
2007-02-16, 07:20:32
Natürlich braucht ATI mehr Takt. Ich gehe mal davon aus, dass auch NVs Mainstream-Chips und Low-End-Chips Taktdomains haben werden.

Gast
2007-02-16, 08:15:16
bei einem shader der nur MULs verwendet könnten es sogar 100% sein, werden nur ADDs verwendet bringt es garnichts, von daher kann man schwer eine generelle aussage treffen.

Eben nicht. Ein Rechenwerk ohne Mul realisiert diese über Add. Man kommt ja auch ohne natives Sub aus (dank Komplement).

The_Invisible
2007-02-16, 08:48:08
Natürlich braucht ATI mehr Takt. Ich gehe mal davon aus, dass auch NVs Mainstream-Chips und Low-End-Chips Taktdomains haben werden.


wenns da dann aber auch keinen "richtigen" 2d modus gibt -> prost, mahlzeit...

mfg

Gast
2007-02-16, 08:51:45
wenns da dann aber auch keinen "richtigen" 2d modus gibt -> prost, mahlzeit...

mfg

Warum sollte es da keinen richtigen 2D-Modus geben? Man hat ja nicht das Problem mit den clock domains wie nV.

Ailuros
2007-02-16, 09:13:29
Warum sollte es da keinen richtigen 2D-Modus geben? Man hat ja nicht das Problem mit den clock domains wie nV.

Techreport hatte folgende Systemverbrauchs-Werte gemessen:

X1950XTX Idle = 155W
8800GTX Idle = 187W

X1950XTX Load = 270W (+74%)
8800GTX Load = 277W (+48%)

Rechne jetzt mal auf die Load Werte nochmal ~50W fuer die R600 drauf und versuche eine spekulative Rechnung fuer den idle modus und sag mir was dabei herauskommt.

Dementsprechend: was ist ein "richtiger" 2D modus?

dargo
2007-02-16, 09:23:53
Techreport hatte folgende Systemverbrauchs-Werte gemessen:

X1950XTX Idle = 155W
8800GTX Idle = 187W

X1950XTX Load = 270W (+74%)
8800GTX Load = 277W (+48%)

Rechne jetzt mal auf die Load Werte nochmal ~50W fuer die R600 drauf und versuche eine spekulative Rechnung fuer den idle modus und sag mir was dabei herauskommt.

Dementsprechend: was ist ein "richtiger" 2D modus?
1. Bei der X1950XTX kannst du per Software auch die ~145W noch erreichen.
2. Die Lastmessung von Techreport stimmt nicht (finde erstmal eine Szene wo eine G8800GTX zu 100% limitiert).
3. Deine ~50W mehr beim R600 beziehen sich auf die XTX nehme ich mal an. Eine XT könnte dann durchaus nur noch ~30W mehr verbrauchen. Wenn ich dann noch die 512MB von dem 1GB Vram abziehe hast du fast +/- 0 bei der XT.
4. Niemand weiß welche Logik für den 2D Modus beim R600 geplant war. Wenn ATI den 2D Takt großzügig senkt und entsprechend die Spannung kann man trotzdem an die 30W in Idle wie bei der Vorgängergeneration kommen.

PS: Gesamtsystem-Strommessungen sind für den Popo.

seahawk
2007-02-16, 09:48:18
wenns da dann aber auch keinen "richtigen" 2d modus gibt -> prost, mahlzeit...

mfg

Auch G71 hat Clockdomains und eine echten 2D-Modus.

Undertaker
2007-02-16, 10:07:44
Ich glaub eher, man nimmt einfach die einzelnen Tonspuren von der HD-Disc und leitet diese an einen HDMI-Receiver weiter, der die Decodierung übernimmt.
http://en.wikipedia.org/wiki/High-Definition_Multimedia_Interface#HDMI_1.3

nur dumm, dass es noch keine receiver gibt die diese format beherrschen

1. Bei der X1950XTX kannst du per Software auch die ~145W noch erreichen.
2. Die Lastmessung von Techreport stimmt nicht (finde erstmal eine Szene wo eine G8800GTX zu 100% limitiert).

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/27/#abschnitt_stromverbrauch

dann hat sich cb also auch vermessen?

robbitop
2007-02-16, 10:07:48
Eben nicht. Ein Rechenwerk ohne Mul realisiert diese über Add. Man kommt ja auch ohne natives Sub aus (dank Komplement).
Aber ein MUL durch ADD nachzubilden ist so kostspielig, dass man es lassen kann.
Was man nachstelt ist DIV mittels MUL & Reziproken. Und man stellt ein Sub mittels Vorzeichenwechsel nach. Aber gegenseitige Substitution ist sinnfrei.

Besser wären sowieso 2x MADs.

Gast
2007-02-16, 10:32:38
Hi,


also der idle Verbrauch zwischen X1950XTX und 8800GTX beträgt mehr als 30W.Bei mir waren es eher 45W.Bei computerbase sieht es ähnlich aus.




mfg

deekey777
2007-02-16, 11:28:52
nur dumm, dass es noch keine receiver gibt die diese format beherrschen


Darum kann man ab 1.3 den Ton auch unkomprimiert (PCM) ausgeben und das nicht nur als Stereo, sondern 5.1 und mehr, weil die verfügbare Bandbreite so hoch ist. :wink:

dargo
2007-02-16, 11:59:27
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/27/#abschnitt_stromverbrauch

dann hat sich cb also auch vermessen?
Wie gesagt, wenn man herausfinden will wie hoch die Verlustleistung einer Grafikkarte ist ist die Messung vom Gesamtsystem nicht zu gebrauchen. Das siehst du auch schön, dass laut CB eine X1900XT mehr Leistung verbraucht als eine G8800GTX, das ist unmöglich!

Das einzige was man gebrauchen kann ist der Idle-Vebrauch. Und immer an den Verlust vom NT denken.

Gast
2007-02-16, 12:05:39
Das Delta ist ja auch interessant zu der jeweiligen Karte und gibt Aufschluss,ob mehr oder weniger verbraucht wird.


mfg

Nakai
2007-02-16, 13:36:01
Kreative Mathe 1:

64 5D ALUs (Vec4 MADD + Scalar ADD)

Kreative Mathe 2:

64 1D ALUs
64 4D ALUs
----------------------
128

Kreative Mathe 3:

64*5 = 320 1D ALUs

Pick your poison ;D


Jetzt weiß ich das diese Specs nicht stimmen.^^;D

mfg Nakai

Nakai
2007-02-16, 13:40:05
Nein, haben sie sich nicht. Nur fällt fast das gesamte Web auf diese tollen Tabellen aus Taiwan rein. Momentan weiß man schlicht und einfach nichts, außer jedermenge widersprüchlicher Infos, deshalb können sich die Specs eigentlich gar nicht ändern. Alles ist möglich.

Die Grundspecs haben sich nicht geändert, aber einige nette Infos, wie Takt oder SI oder Taktbereiche sind in den letzten Wochen unklar geworden.
Die Liste aus Taiwan ist grober Mist, lol ein R600 Dual. ;D

mfg Nakai

reunion
2007-02-16, 15:37:32
Die Grundspecs haben sich nicht geändert, aber einige nette Infos, wie Takt oder SI oder Taktbereiche sind in den letzten Wochen unklar geworden.
Die Liste aus Taiwan ist grober Mist, lol ein R600 Dual. ;D

mfg Nakai

Das, was du hier "Grundspecs" nennst, sind doch IMHO größtenteils nichts anderes als Spekulationen von gewissen Leuten, gepaart mit jedermenge Abschreibübungen. Ich erinnere hier nurmal an den Launch des G80, wo, bis zu dem Zeitpunkt, als Dailytech die Bombe platze ließ, sämtlich vorherigen Gerüchte aber sowas von falsch waren.

Gast
2007-02-16, 15:40:43
Die News vom 15.02. sind teilweise falsch und das sogar recht peinlich:
"Diese "Daten" sind allerdings eher anzuzweifeln, dafür hört sich der angeblich auf 5300 MHz benchmark-stabil übertaktete Core 2 Quad QX6700 zu unglaubwürdig an - einmal abgesehen davon, daß mit einem nicht ähnlichen Prozessor auf einer GeForce 8800 GTX schon ein überdeutlich höherer 3DMark06-Wert erzielt wurde (23802 3DMarks) als seitens der VR-Zone für die Radeon X2800 XTX angegeben (15032 3DMarks) ..."

Der Wert fuer die 8800GTX ist natuerlich der Wert fuer einen SLI-Verbund (Co-operative adapters: Yes). So ein Fehler in einem relativ "klugscheisserischen" Beitrag gerade auf 3DCenter... das tut weh. Vor allem, weil offensichtlich ist, das der Schreiber keine Ahnung hat, was ein normaler Wert fuer eine 8800GTX waere...

Nakai
2007-02-16, 16:01:56
Das, was du hier "Grundspecs" nennst, sind doch IMHO größtenteils nichts anderes als Spekulationen von gewissen Leuten, gepaart mit jedermenge Abschreibübungen. Ich erinnere hier nurmal an den Launch des G80, wo, bis zu dem Zeitpunkt, als Dailytech die Bombe platze ließ, sämtlich vorherigen Gerüchte aber sowas von falsch waren.

Du kannst aber davon ausgehen dass die Midrage-Karten immer auf einen Highend-Derivat aufbauen.
Ich kann mir jedenfalls keine anderen Möglichkeiten ausdenken. Ein halber g80 oder halber R600 mit kleinem SI.

mfg Nakai

reunion
2007-02-16, 16:23:38
Du kannst aber davon ausgehen dass die Midrage-Karten immer auf einen Highend-Derivat aufbauen.
Ich kann mir jedenfalls keine anderen Möglichkeiten ausdenken. Ein halber g80 oder halber R600 mit kleinem SI.

mfg Nakai

Natürlich, ich bezog mich auf den High-End-Chip.

[MK2]Mythos
2007-02-16, 16:25:21
Die News vom 15.02. sind teilweise falsch und das sogar recht peinlich:
"Diese "Daten" sind allerdings eher anzuzweifeln, dafür hört sich der angeblich auf 5300 MHz benchmark-stabil übertaktete Core 2 Quad QX6700 zu unglaubwürdig an - einmal abgesehen davon, daß mit einem nicht ähnlichen Prozessor auf einer GeForce 8800 GTX schon ein überdeutlich höherer 3DMark06-Wert erzielt wurde (23802 3DMarks) als seitens der VR-Zone für die Radeon X2800 XTX angegeben (15032 3DMarks) ..."

Der Wert fuer die 8800GTX ist natuerlich der Wert fuer einen SLI-Verbund (Co-operative adapters: Yes). So ein Fehler in einem relativ "klugscheisserischen" Beitrag gerade auf 3DCenter... das tut weh. Vor allem, weil offensichtlich ist, das der Schreiber keine Ahnung hat, was ein normaler Wert fuer eine 8800GTX waere...

Darüber hab ich mich auch schon amüsiert :D

Undertaker
2007-02-16, 16:55:13
Wie gesagt, wenn man herausfinden will wie hoch die Verlustleistung einer Grafikkarte ist ist die Messung vom Gesamtsystem nicht zu gebrauchen. Das siehst du auch schön, dass laut CB eine X1900XT mehr Leistung verbraucht als eine G8800GTX, das ist unmöglich!

Das einzige was man gebrauchen kann ist der Idle-Vebrauch. Und immer an den Verlust vom NT denken.

als unmöglich würde ich das nicht bezeichnen...

(+44)
2007-02-16, 17:41:55
Ne X1900XTX zieht ordentlich Saft - ist denke ich mit ner 8800GTS vergleichbar.

Die 7900GTX blieb jedenfalls DEUTLICH unter der X1900XTX/8800GTS - und die GTS braucht ca 30-40W mehr unter Volllast.

drmaniac
2007-02-16, 18:03:17
Also,

das ATI die neuen Karten jetzt sogar erst angeblich April ausliefern will...

langsam find ich es echt zum kotzen...

Nachher kommt der 600er im Juni und im August dann der 700er, oder was :(

Gmax
2007-02-16, 18:15:38
Yep, irgend etwas sagt mir, daß der R600 nicht sehr lange produziert wird.
Ich denke, AMD wird alles nur erdenkliche tun, damit ATI künftig zeitgleich mit nV ihre Nextegen auf den Markt bringen.
R700 im November? :biggrin: mal sehen...

Gast
2007-02-16, 18:39:52
Wie gesagt, wenn man herausfinden will wie hoch die Verlustleistung einer Grafikkarte ist ist die Messung vom Gesamtsystem nicht zu gebrauchen. Das siehst du auch schön, dass laut CB eine X1900XT mehr Leistung verbraucht als eine G8800GTX, das ist unmöglich!



unter last braucht die 8800GTX kaum mehr als eine X1900XT(X), da es auch bei identischen chips streuungen in der fertigung gibt kann es durchaus mal passieren dass man 2 karten erwischt wo die X1900 mehr als die 8800GTX braucht.

Gast
2007-02-16, 18:43:15
Ne X1900XTX zieht ordentlich Saft - ist denke ich mit ner 8800GTS vergleichbar.


unter last ist der stromverbrauch der X1900XTX mit der 8800GTX durchaus vergleichbar, die 8800GTS ist da merklich sparsamer.

dargo
2007-02-16, 21:24:07
als unmöglich würde ich das nicht bezeichnen...
Schau mal hier:
http://www.bit-tech.net/hardware/2006/11/08/nvidia_geforce_8800_gtx_g80/18.html

Das beste Beispiel wie sinnlos Verbrauchsmessungen vom Gesamtsystem sind.

Undertaker
2007-02-16, 21:54:29
ähm, also das dort absolute hausnummern gemessen wurden, brauche ich denke mal keinem zu sagen - 135w vs 220w im idle x1950xtx vs 8800gtx, dass war wohl eher schuhgröße mal augenzahl als eine messung :D

dargo
2007-02-16, 21:59:47
Zweites Beispiel:
http://xtreview.com/translate/de/?/review159.htm

Plötzlich braucht die G8800GTX mehr als eine X1950XTX (die X1900XT liegt noch ca. 15W Netto drunter).

PatkIllA
2007-02-16, 22:11:29
Darum kann man ab 1.3 den Ton auch unkomprimiert (PCM) ausgeben und das nicht nur als Stereo, sondern 5.1 und mehr, weil die verfügbare Bandbreite so hoch ist. :wink:Das geht schon seit Version 1.0 von HDMI.
Neu in 1.3 sind nur die unterstützung der Lossless Codecs von Dolby und dts.
Aber auch teilweise recht sinnlos, weil BluRay und HDDVD auch das Mischen von Ton vorsehen und das geht mit Bitstreams halt nicht.

Von 1.3 würde mich viel die Ausgabe von DeepColor freuen. Damit kriegt man dann die interne 10 Bit Verarbeitung auch aus der Karte raus. Fehlen nur noch entsprechende Displays.

Ailuros
2007-02-17, 05:19:23
1. Bei der X1950XTX kannst du per Software auch die ~145W noch erreichen.
2. Die Lastmessung von Techreport stimmt nicht (finde erstmal eine Szene wo eine G8800GTX zu 100% limitiert).
3. Deine ~50W mehr beim R600 beziehen sich auf die XTX nehme ich mal an. Eine XT könnte dann durchaus nur noch ~30W mehr verbrauchen. Wenn ich dann noch die 512MB von dem 1GB Vram abziehe hast du fast +/- 0 bei der XT.
4. Niemand weiß welche Logik für den 2D Modus beim R600 geplant war. Wenn ATI den 2D Takt großzügig senkt und entsprechend die Spannung kann man trotzdem an die 30W in Idle wie bei der Vorgängergeneration kommen.

PS: Gesamtsystem-Strommessungen sind für den Popo.

Der direkte Konkurrent der 8800GTX ist die XTX und da gibt es keine besonderen "aber". Da ich momentan noch nicht mit mehr Einzelheiten herausruecken will, versuche ich es mit indirekten Andeutungen.

Was hier wirklich fuer den Popo ist, ist dass die Hoffnung als letzte stirbt.

Auch G71 hat Clockdomains und eine echten 2D-Modus.

Nur ist der Unterschied hier knappe 350MHz. Probier es nochmal mit 950MHz Unterschied.

Jetzt weiß ich das diese Specs nicht stimmen.^^;D

mfg Nakai

:| :rolleyes: :rolleyes:

reunion
2007-02-17, 08:48:05
Wie bei G80 scheint auch diesmal DailyTech ziemlich nah am Geschehen zu sein:
AMD Releases Final "R600" Specs (http://www.dailytech.com/article.aspx?newsid=6138)

Wobei der Titel etwas überspitzt formuliert ist, für das was man zu bieten hat. Nicht wirklich was neues. Auf jeden Fall wird auch der native HDMI-Support bestätigt, was für mich doch etwas überraschend kommt. Das bestätigt auch eine alte Folie, die bei B3D aufgetaucht ist: http://www.beyond3d.com/forum/showpost.php?p=930666&postcount=1748

Gast
2007-02-17, 10:05:35
@Gast
Du hast dich verschätzt, beim 6 Pol Stecker hast eben NICHT 2x12V sondern 3x 12V und 3x Masse.
Entsprechend darf ein Pin nur mit ~2A belastet werden.

Die 2x 4 Pin Stecker würden also 100W liefern...

Da hast du recht, es sind wirklich drei 12V-Pins. Alledings ergäbe das immernoch eine maximal verfügbare Gesamtleistung von 250 Watt. Also wäre das für die angebliche Angabe von 240 Watt für die Retail-Version immer noch kein Ausschlussargument. Die OEM-Version (angeblich 270 Watt) könnte ja unter Umständen über zwei 8 polige Stecker verfügen, was auch der Grund für OEM-only sein könnte.

Botcruscher
2007-02-17, 11:35:27
Also 10W zwischen Normal und maximal lieferbar sind für mich ein KO Argument. Eine kleine Lastspitze und schon geht der Rechner aus.

Gast
2007-02-17, 12:45:28
Plötzlich braucht die G8800GTX mehr als eine X1950XTX (die X1900XT liegt noch ca. 15W Netto drunter).


es kann durchaus zwischen 2 karten der selben serie größere unterschiede im verbrauch geben.

K4mPFwUr$t
2007-02-17, 13:00:41
kann ich bestätigen, oder halt die verteilung der stock wlp.
hatte 2 mal x1950pro die eine machte max 72°C unter ATT die andere sogar 79°C. da spielen hersteller, abweichung vom referenz layout, wo der chip aufm wafer war und etc. ne rolle

dargo
2007-02-17, 13:01:33
es kann durchaus zwischen 2 karten der selben serie größere unterschiede im verbrauch geben.
Ja, aber keine 30W oder mehr. +/- 5W bei Last können durchaus möglich sein.

kann ich bestätigen, oder halt die verteilung der stock wlp.
hatte 2 mal x1950pro die eine machte max 72°C unter ATT die andere sogar 79°C. da spielen hersteller, abweichung vom referenz layout, wo der chip aufm wafer war und etc. ne rolle
Und was hat jetzt die WLP mit der Verlustleistung zu tun? :|

K4mPFwUr$t
2007-02-17, 13:32:51
an sich nix, aber temp werte ;)

Gast
2007-02-17, 13:37:56
Ja, aber keine 30W oder mehr. +/- 5W bei Last können durchaus möglich sein.


gerade bei den großen karten durchaus mehr, bei einer karte die im schnitt 50W braucht wird es kaum eine streuung um die 30W geben, bei einer karte die durchschnittlich 150W braucht ist das aber durchaus denkbar.

dargo
2007-02-17, 13:45:30
gerade bei den großen karten durchaus mehr, bei einer karte die im schnitt 50W braucht wird es kaum eine streuung um die 30W geben, bei einer karte die durchschnittlich 150W braucht ist das aber durchaus denkbar.
Woher sollen diese großen Unterschiede herkommen? Da alle das Referenzdesign verwenden bleiben nur noch eventuelle Lecktröme in den GPUs. Und da selbst bei der G8800GTX die GPU alleine ca. 80W (grob geschätzt) verbrät kann es da keine Abweichung von +/- 30W geben.

mr orange
2007-02-17, 14:29:49
hier gibs neues futter
vor allem der teil mit der Kompressorkühlung ...
http://www.pcgameshardware.de/?article_id=559375

K4mPFwUr$t
2007-02-17, 14:39:40
das ist 1:1 das selbe wie von dailytech :rolleyes:
zumal wirklich was brauchbares von der XTX kühlung nicht drinsteht.

seahawk
2007-02-17, 15:04:22
Nur, das es ein Heatpipedesign ist. - welch Überraschug

reunion
2007-02-17, 15:16:15
Seltsam finde ich auch, dass man beim OEM-Kühler explizit von einem "quiet fan cooler" spricht, was doch die Frage aufwirft, ob der Retailkühler nicht "quiet" ist, bzw. unter dem Hintergrund betrachtet, dass auf dem Vorserienboard von overclockers ein 2A-Lüfter verbaut ist, ziemlich fragwürdig erscheint.

Gmax
2007-02-17, 16:45:26
hier gibs neues futter
vor allem der teil mit der Kompressorkühlung ...
http://www.pcgameshardware.de/?article_id=559375

Was kann man sich darunter vorstellen?

Die gelbe Eule
2007-02-17, 16:57:46
Kompressor? Lal?
Entweder wird die Luft hier sehr stark abgekühlt (was natürlich Watt kostet) oder es ist eine Turbine am Start. Bin gespannt wie das Teil aussieht.

Spasstiger
2007-02-17, 17:09:39
Wie kommt man auf die Idee, "vapor chamber cooler" mit Kompressorkühler zu übersetzen? Ein "vapor chamber cooler" wie z.B. der Vapochill Micro arbeitet ohne aktiven Kompressor, sondern ist eigentlich nur ein klassisches Heatpipedesign.

Die gelbe Eule
2007-02-17, 18:09:46
http://www.freepatentsonline.com/6437983.html

http://electronics-cooling.com/assets/images/2005_Article2_Figure2.jpg

Ob ATi das lizensiert hat?

dargo
2007-02-17, 18:11:38
Ist der Kühlkörper nicht ein wenig zu klein für einen R600?

Die gelbe Eule
2007-02-17, 18:13:10
Das ist auch nur ein früher Prototyp, hat nichts mit dem R600 zu tun.

Gmax
2007-02-17, 18:18:53
Wirds denn nicht vom Start ab verschiedene Kühler geben?
Ich mein je nach Hersteller?

K4mPFwUr$t
2007-02-17, 18:30:22
zur cebit sollen vorerst nur referenz kühler gezeigt werden. aber es wird wohl schon der ein oder andere hersteller zu einer alternative greifen. ist nur die frage, sind die bisherigen alternativen genügen groß dimensioniert? :D

Die gelbe Eule
2007-02-17, 18:36:09
Wenn es aber nun stimmt, dann wird Ende März für XTX und Ende April für XT ziemlich spät sein.

deekey777
2007-02-17, 18:48:20
Wenn es aber nun stimmt, dann wird Ende März für XTX und Ende April für XT ziemlich spät sein.
Ziemlich spät im Bezug auf was?:|

dargo
2007-02-17, 18:55:31
Ziemlich spät im Bezug auf was?:|
Ach, er will doch nur wieder provozieren. Ich kann es langsam nicht mehr hören (lesen). Meine Güte, AMD/ATI wird schon nicht pleite gehen nur weil das High-End Produkt eventuell einen weiten Monat später rauskommt.

Ich finde es zwar auch etwas schade, ändern lässt es sich aber nicht.

K4mPFwUr$t
2007-02-17, 19:00:01
nVidia hat ja auch die FX zeiten überlebt, intel die P4 zeiten und AMD wird auch die C2D überleben und ATI die leichte verspätung.

es gibt bei jedem hersteller mal ein hoch und ein tief.

Gast
2007-02-17, 19:04:55
es gibt bei jedem hersteller mal ein hoch und ein tief.

Naja, bei ATi scheint es nach der Hochphase durch den R300-Erfolg eher bergab zu gehen(späte Highend-Releases, verluste in wichtigen Segmenten), zwar nicht rapide, aber die Tendenz zeigt sich schon.
Nicht, dass die zukünftigen Eigentümer von AMD deswegen sich es vielleicht überlegen ATi zu liquidieren. ;)

dargo
2007-02-17, 19:09:10
Nicht, dass die zukünftigen Eigentümer von AMD deswegen sich es vielleicht überlegen ATi zu liquidieren. ;)
Tja, das würde einige NV Fanboys freuen. Sie dürften dann für einen G90 direkt nach dem Launch ~1000€ zahlen. :ugly:

Gast
2007-02-17, 19:15:30
Tja, das würde einige NV Fanboys freuen. Sie dürften dann für einen G90 direkt nach dem Launch ~1000€ zahlen. :ugly:

Ich denke so leicht würde es Nvidia auch nicht haben, immerhin hat sich ja schon ein ernsthafter Gegner angekündigt und vielleicht könnte sich dank veräußerten ATi-Patenten und fähigen, arbeitlosen Ingenieueren eine der kleinen GPU-Schmieden entwickeln oder gar eine neue enstehen.

Aber vielleicht wird der R600 gar so gut, dass man sich darüber erstmal keine Sorgen machen muss. ;)

dargo
2007-02-17, 19:19:14
Ich denke so leicht würde es Nvidia auch nicht haben, immerhin hat sich ja schon ein ernsthafter Gegner angekündigt und vielleicht könnte sich dank veräußerten ATi-Patenten und fähigen, arbeitlosen Ingenieueren eine der kleinen GPU-Schmieden entwickeln oder gar eine neue enstehen.

Du meinst damit Intel oder? Bis die einen High-End Grafikchip rausbringen der was taugt werden noch einige Jahre vergehen, falls sie es ernst meinen.

seahawk
2007-02-17, 19:29:21
Keine Sorge der R600 wird ischer nicht das Genick von ATI brechen, auch wenn er sicher später als gewünscht auf den Markt kommt.

Die gelbe Eule
2007-02-17, 19:59:33
Wer provoziert hier was? Ende März kommt der Gegner für die GTX, Ende April für die GTS, so schwer 1 und 1 zusammenzuzählen?
Jeder Tag wo kein R600 zu sehen ist, sind verlorene Tage wo NV Kasse macht.
Und genau das meine ich mit zu spät.

Fetza
2007-02-17, 20:03:44
Wer provoziert hier was? Ende März kommt der Gegner für die GTX, Ende April für die GTS, so schwer 1 und 1 zusammenzuzählen?
Jeder Tag wo kein R600 zu sehen ist, sind verlorene Tage wo NV Kasse macht.
Und genau das meine ich mit zu spät.

ich bin ja nicht oft deiner meinung, aber diesmal gibbet es nen full ack :)

greetz

seahawk
2007-02-17, 20:58:21
Wer provoziert hier was? Ende März kommt der Gegner für die GTX, Ende April für die GTS, so schwer 1 und 1 zusammenzuzählen?
Jeder Tag wo kein R600 zu sehen ist, sind verlorene Tage wo NV Kasse macht.
Und genau das meine ich mit zu spät.

Wenn die XTX die GTX schlägt, werden die mesiten Käufer sowieso auf die XT warten, ebsonders weil eher die XL der Konkurrent zur GTS sein dürfte.

Um sich ne Idee für den Kühler zu holen, sollte man übrigens mal auf ww.vapochill.com nach Vapochill Micro gucken.

dargo
2007-02-17, 21:05:19
Wenn die XTX die GTX schlägt, werden die mesiten Käufer sowieso auf die XT warten, ebsonders weil eher die XL der Konkurrent zur GTS sein dürfte.
Das sehe ich auch so. Eine XT war eigendlich immer nur von den Taktraten etwas langsamer als die XTX. Ich würde auch die XL als direkten Konkurenten für die GTS sehen.

Gast
2007-02-17, 21:10:57
Das sehe ich auch so. Eine XT war eigendlich immer nur von den Taktraten etwas langsamer als die XTX. Ich würde auch die XL als direkten Konkurenten für die GTS sehen.

Na dann sei mal nicht entäuscht, wenn diesmal zwischen XTX und XT eine größere Kluft besteht, die aber wohl auch preislich ersichtlich wird. ;)

Die XL wird man zudem wahrscheinlich nicht vor dem Sommer sehen.

dargo
2007-02-17, 21:20:40
Na dann sei mal nicht entäuscht, wenn diesmal zwischen XTX und XT eine größere Kluft besteht, die aber wohl auch preislich ersichtlich wird. ;)

Wenn der Preis dabei stimmt habe ich nichts dagegen. ;)

Die gelbe Eule
2007-02-17, 22:22:33
Soll die XTX die GTX doch schlagen, bis dahin ist ein Refresh von NV eh zu erwarten. Trotz allem weiß man nicht ob der 30. März eingehalten und ob es ein ordentlicher Hardlauch wird.

Gast
2007-02-17, 22:30:06
Mit "MUL-Treiber" und der Erhöhung der Shader-ALU auf 1.5GHz wird wohl Nvidia dem R600 schon etwas Einhalt gebieten können, sodass man hier wohl keine weiteren Aufwendungen benötigt und entspannt den 65nm HighEnd-GPUs, die für das H2 anstehen, entgegenschauen kann. ;)

Showtime
2007-02-17, 22:52:56
Jeder Tag wo kein R600 zu sehen ist, sind verlorene Tage wo NV Kasse macht.
Und genau das meine ich mit zu spät.

Wissen wir, wurde auch mittlerweile nicht nur von dir schon mindestens 1000 mal erwähnt und interessiert daher keine Sau mehr. Das meinte dargo mit "ich kann es nicht mehr lesen", schätze ich mal.

Ist aber in den Speku-Threads in diesem Forum auch zur Normalität geworden dass die Leute, deren Herz eher grün oder rot schlägt sich gerne mal zeigen um jede kleine Schwäche des "Gegners" gnadenlos breitzutreten. Schade drum, denn der Rest ist interessant zu lesen.

Sorry fürs OT.

Die gelbe Eule
2007-02-17, 23:03:21
Ich hatte bisher jeder High End Karte der letzten 12 Monate von beiden Seiten im Rechner, manche sehr kurz, manche etwas länger. Farben interessieren überhaupt nicht, nur Leistung. Wenn man das Geld übrig hat, kauft man immer das, was zu dem Zeitpunkt das beste Preis-/Leistungsverhältnis hat. Welche rumtrollen sind nur die, die bei jeder Generation sagen sie warten noch ab und kaufen dann doch wieder nichts, weil man ja noch mehr warten kann. Würde es einen R6XX geben für 300€ hätte ich den vielleicht gekauft, nur vom warten wird meine Performance und BQ nicht besser.

dargo
2007-02-17, 23:05:20
Soll die XTX die GTX doch schlagen, bis dahin ist ein Refresh von NV eh zu erwarten. Trotz allem weiß man nicht ob der 30. März eingehalten und ob es ein ordentlicher Hardlauch wird.
Ja, wir wissen alle, dass NV den Längsten hat. Hast du auch was Sinnvolles beizutragen oder willst du uns ständig weiß machen wie toll NV ist?

was hat er denn falsches gesagt? die 8800gtx wird nie der gegner des r600 topmodells werden...
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5261715&postcount=619

Undertaker
2007-02-17, 23:19:38
Ja, wir wissen alle, dass NV den Längsten hat. Hast du auch was Sinnvolles beizutragen oder willst du uns ständig weiß machen wie toll NV ist?

was hat er denn falsches gesagt? die 8800gtx wird nie der gegner des r600 topmodells werden...

Ailuros
2007-02-17, 23:44:53
was hat er denn falsches gesagt? die 8800gtx wird nie der gegner des r600 topmodells werden...

Ausser sie planen in der letzten Minute irgend einen idiotischen Stunt ala 7800GTX 512 der uns nicht bewusst ist, sehe ich bis zu H2 nichts anderes dass mit R600 konkurrieren wuerde.

Gast
2007-02-18, 00:12:33
sehe ich bis zu H2 nichts anderes dass mit R600 konkurrieren wuerde.
Also auch ein G80 mit ~630 MHz und funktionierenden MUL nicht? ;)
Vieleicht gibts ja auch eine Geforce 8800 GTX/DDR4 mit schnellern Speicher?

Undertaker
2007-02-18, 00:18:23
Ausser sie planen in der letzten Minute irgend einen idiotischen Stunt ala 7800GTX 512 der uns nicht bewusst ist, sehe ich bis zu H2 nichts anderes dass mit R600 konkurrieren wuerde.

der g80 ist schon lange genug draußen, ich bin fest davon überzeugt das man es sich nicht nehmen lassen wird, zur verfügung stehende reserven noch auszureizen wird um dem r600 etwas entgegensetzen zu können - zb 650mhz chip/1500mhz shader, 1100mhz speicher - soetwas wäre in kürzester zeit auf die beine zu stellen und sollte auch technisch keinerlei schwierigkeit darstellen

Sterem
2007-02-18, 00:22:22
Undertaker:Bist wirklich nen fan vom Undertacker?Denn Wrestler meinst ne?Ja der ging fürher voll ab.

Undertaker
2007-02-18, 00:29:49
daher kommt der nick, ja... aber das ist lange her und hier ot ;)

eXodia
2007-02-18, 01:24:32
der g80 ist schon lange genug draußen, ich bin fest davon überzeugt das man es sich nicht nehmen lassen wird, zur verfügung stehende reserven noch auszureizen wird um dem r600 etwas entgegensetzen zu können - zb 650mhz chip/1500mhz shader, 1100mhz speicher - soetwas wäre in kürzester zeit auf die beine zu stellen und sollte auch technisch keinerlei schwierigkeit darstellen

Stimmt, allerdings glaube ich das es mit einem einfachen drehen an der Taktschraube nicht getan ist um einen R600 zu schlagen ...

Regards

Fetza
2007-02-18, 05:57:37
Undertaker:Bist wirklich nen fan vom Undertacker?Denn Wrestler meinst ne?Ja der ging fürher voll ab.

pööh, Kane is doch viel geiler:D

Stimmt, allerdings glaube ich das es mit einem einfachen drehen an der Taktschraube nicht getan ist um einen R600 zu schlagen ...

Regards

Das kann ich mir auch nicht vorstellen, aber von der vergangenen zeit her seit dem g80 launch könnt ich mir hingegen einen 80nm g80 mit gddr4 ram vorstellen für april oder mai. Und wenn Ati den launch wirklich nochmal nach hinten verlegt, könnten sie sich damit selbst in so eine unkomfortabelen situation begeben.

greetz

Ailuros
2007-02-18, 06:06:48
Stimmt, allerdings glaube ich das es mit einem einfachen drehen an der Taktschraube nicht getan ist um einen R600 zu schlagen ...

Regards

Es kommt alles auf den wirklichen Unterschied zwischen G80 und R600 an; 650/1100 wuerde etwas mehr als 10% mehr Leistung bringen fuer einen 80nm re-spin, scheint sich aber tatsaechlich nicht zu lohnen.

Haben sie in ihren Naehkaestchen Treiber versteckt die =/>10% Unterschiede liefern koennten, koennen sie durch einen Preisdruck das Ganze dann schon bis zum wahren Refresh ueberleben. Selbst wenn G80 dann immer noch ein wenig hinterherhinkt ist es halb so schlimm.

der g80 ist schon lange genug draußen, ich bin fest davon überzeugt das man es sich nicht nehmen lassen wird, zur verfügung stehende reserven noch auszureizen wird um dem r600 etwas entgegensetzen zu können - zb 650mhz chip/1500mhz shader, 1100mhz speicher - soetwas wäre in kürzester zeit auf die beine zu stellen und sollte auch technisch keinerlei schwierigkeit darstellen

Technisch ist vieles moeglich; es geht mir lediglich um die Unkosten im Vergleich zum eigentlichen "Gewinn". Es waere ein ziemlich teurer Spass fuer nur etwa 10+% mehr Leistung. Teurer als die schon existierenden G80-er die von Vendors schon verfuegbar sind, koennte man die Dinger nicht wirklich verkaufen.

Nakai
2007-02-18, 10:19:30
Ui da erwartet wohl jemand einen schnellen R600.

was hat er denn falsches gesagt? die 8800gtx wird nie der gegner des r600 topmodells werden...

Es konkurrieren eh immer nur die Grafikkarten in den unterschiedlichen Preisklassen. Die Geforce 8600GT wird wohl so schnell wie eine X1950PRO bzw. eine 7950GT sein. Der R600 kann also mit einem höheren Preis geschätzt werden.
Der R600 wird schon im Grundzustand über 500GFLOPs an Shaderleistung besitzen. Der G80 wird das aber auch noch erhalten, indem die MUL aktiviert wird.

mfg Nakai

Undertaker
2007-02-18, 10:37:11
Technisch ist vieles moeglich; es geht mir lediglich um die Unkosten im Vergleich zum eigentlichen "Gewinn". Es waere ein ziemlich teurer Spass fuer nur etwa 10+% mehr Leistung. Teurer als die schon existierenden G80-er die von Vendors schon verfuegbar sind, koennte man die Dinger nicht wirklich verkaufen.

woher sollten denn die kosten so gewaltig steigen? ein paar sehr gute chips zu selektieren und schnelleren ram zu verbauen erfordert afaik weder nennenswerte entwicklungskosten noch änderungen in der fertigung (sofern man die vcore in grenzen halten kann, reichen gewiss noch spannungsversorgung und kühlung der 8800gtx)

dargo
2007-02-18, 10:39:35
woher sollten denn die kosten so gewaltig steigen? ein paar sehr gute chips zu selektieren und schnelleren ram zu verbauen erfordert afaik weder nennenswerte entwicklungskosten noch änderungen in der fertigung (sofern man die vcore in grenzen halten kann, reichen gewiss noch spannungsversorgung und kühlung der 8800gtx)
Schnelleren GDDR3 gibt es nicht.

reunion
2007-02-18, 10:40:02
Der R600 wird schon im Grundzustand über 500GFLOPs an Shaderleistung besitzen. Der G80 wird das aber auch noch erhalten, indem die MUL aktiviert wird.

mfg Nakai

15 (vec4+1 ADD+MADD) x 64 x 0.8 = 768GFLOPs

woher sollten denn die kosten so gewaltig steigen? ein paar sehr gute chips zu selektieren und schnelleren ram zu verbauen erfordert afaik weder nennenswerte entwicklungskosten noch änderungen in der fertigung (sofern man die vcore in grenzen halten kann, reichen gewiss noch spannungsversorgung und kühlung der 8800gtx)

Auf was AiL hinaus wollte, war, dass man den Chip dann trotzdem nicht teurer verkaufen kann, wenn man R600 nicht schlagen kann. Da ist es dann sinnvoller, auf die Margen zu achten. Auch weiß man gar nicht, ob ein G80 in der jetztigen Form überhaupt schon GDDR4 unterstützt. Vielleicht braucht es da auch eine neue Revision wie bei R580. Ein neues Platinenlayout würde man bei GDDR4 ohnehin auch noch benötigen.

robbitop
2007-02-18, 10:45:25
15 x 64 x 0.8 = 768GFLOPs
Wie kommst du auf 15 FLOPs pro ALU? Eine Vec5 ALU mit MAD+MUL.
Das denke ich nicht, Tim. :) (ich erwarte 9 FLOPs)

Undertaker
2007-02-18, 10:49:16
Auf was AiL hinaus wollte, war, dass man den Chip dann trotzdem nicht teurer verkaufen kann, wenn man R600 nicht schlagen kann. Da ist es dann sinnvoller, auf die Margen zu achten. Auch weiß man gar nicht, ob ein G80 in der jetztigen Form überhaupt schon GDDR4 unterstützt. Vielleicht braucht es da auch eine neue Revision wie bei R580. Ein neues Platinenlayout würde man bei GDDR4 ohnehin auch noch benötigen.

nur hat man gerade in letzter zeit eigentlich schon einen vergleichbaren fall gesehen: die x1900xtx war gegen die 7900gtx angesetzt und kam damit auch gut zurecht, dennoch hat man noch die x1950xtx herausgebracht, welche zumindest bis vor kurzem (mittlerweile neue games + bessere treiber) auch kein wirklicher gegener für die 7950gx2 war - und genau so eine art x1950xtx könnte ich mit auch von nvidia vorstellen...

Nakai
2007-02-18, 10:54:38
(ich erwarte 9 FLOPs)

Halte ich für zu wenig und 15 sind zuviel.
Wieso nicht 12?

mfg Nakai

robbitop
2007-02-18, 10:55:37
Ich sag mal alles zwischen 8-12 würde mich nicht überraschen. ;)

reunion
2007-02-18, 10:59:01
Wie kommst du auf 15 FLOPs pro ALU? Eine Vec5 ALU mit MAD+MUL.
Das denke ich nicht, Tim. :) (ich erwarte 9 FLOPs)

Warum nicht? Eine R580-ALU hat schon 12 FLOPs (vec3+1 ADD+MADD) AFAIK, wenn man das noch auf 5D erweitern will, ergibt das 15 FLOPs. Aber wer weiß, vielleicht sind es auch einfach mehr ALUs, momentan sucht man ja stichhaltige Beweise vergebens. Deine ~460GFLOPs sind IMO jedenfalls zu wenig, das schafft ja fast ein R580 plus VS. Und auch im Vergleich zu Konkurrenz würde man damit wenig reißen.

robbitop
2007-02-18, 11:05:41
Die 4 FLOPs kamen aber von der MiniALU und waren nicht immer verwendbar (Inputmodifier). Ich bin mir nichtmal sicher ob es hier Vec5 ALUs werden. Das machte eigentlich nur selten Sinn.
Xenos hatte 9 FLOPs. Aber wer weiß schon jetzt genau, was ATI da zusammengebaut hat.

Nakai
2007-02-18, 11:12:15
Wie kann man die Flexibilität einer Xenos-ALU erhöhen?
Vec4-Berechnungen werden ja nicht sooft benutzt, Vec3 schon eher.

15 Flops sind zuviel. 12 FLOPs wären möglich, aber nicht in der KOnfiguration wie beim R5x0.

Naja wir werdens sehen.

mfg Nakai

reunion
2007-02-18, 11:17:04
Die 4 FLOPs kamen aber von der MiniALU und waren nicht immer verwendbar (Inputmodifier).


Das wird bei R600 vermutlich ähnlich sein.


Ich bin mir nichtmal sicher ob es hier Vec5 ALUs werden. Das machte eigentlich nur selten Sinn.
Xenos hatte 9 FLOPs. Aber wer weiß schon jetzt genau, was ATI da zusammengebaut hat.

Ja, es ist noch alles ziemlich verschwommen. Xenso fehlte auch die zusätzliche ADD, die bei R600 laut AiL wieder kommen soll. Für die Vec5-ALUs spricht, dass man diese bei Xenos offenbar für nötig hielt, warum sollte das bei R600 anders sein? Allerdings geistern die 9 FLOPs auch schon sehr lange durchs Netz, und auch AiL scheint sich darauf eingeschossen zu haben. Wie immer hilft nur abwarten.

seahawk
2007-02-18, 11:38:35
Mit "MUL-Treiber" und der Erhöhung der Shader-ALU auf 1.5GHz wird wohl Nvidia dem R600 schon etwas Einhalt gebieten können, sodass man hier wohl keine weiteren Aufwendungen benötigt und entspannt den 65nm HighEnd-GPUs, die für das H2 anstehen, entgegenschauen kann. ;)

Zumindest hat man eine sehr stabilen Fertigungsprozess und auch schin gute 400.000 G80 verkauft, so dass man sicher noch Luft hat um an der Preisschraube zu drehen. Die GTS 320 für 250 Euro und die GTS 640 für 299 und eine GTX für 390 Euro würde ATI mächtig unter Druck setzen.

dargo
2007-02-18, 11:44:57
Die GTS 320 für 250 Euro und die GTS 640 für 299 und eine GTX für 390 Euro würde ATI mächtig unter Druck setzen.
Die 320MB GTS ist schon fast bei 250€ (ist erst seit einer Woche auf dem Markt, kommt noch). Die 640MB GTS unter 300€ (falls es kein Tippfehler ist):
http://www.promarkt.de/on/demandware.store/Sites-PMO-Site/de_DE/ViewProductDetail-Start?ProductRef=10000039141%40Sites-PMO&CatalogCategoryID=_0N_AAACWy4AAAEP418Cuy1S&JumpTo=BrowseStandardCatalog

Nakai
2007-02-18, 12:08:09
Dann wisst ihr, was der R600 zu leisten hat.^^:rolleyes:

Er muss das alles wieder gutmachen.

mfg Nakai

seahawk
2007-02-18, 14:37:42
Die 320MB GTS ist schon fast bei 250€ (ist erst seit einer Woche auf dem Markt, kommt noch). Die 640MB GTS unter 300€ (falls es kein Tippfehler ist):
http://www.promarkt.de/on/demandware.store/Sites-PMO-Site/de_DE/ViewProductDetail-Start?ProductRef=10000039141%40Sites-PMO&CatalogCategoryID=_0N_AAACWy4AAAEP418Cuy1S&JumpTo=BrowseStandardCatalog

Ich meinte Listenpreis.

Gast
2007-02-18, 14:43:52
Ja, es ist noch alles ziemlich verschwommen. Xenso fehlte auch die zusätzliche ADD, die bei R600 laut AiL wieder kommen soll. Für die Vec5-ALUs spricht, dass man diese bei Xenos offenbar für nötig hielt, warum sollte das bei R600 anders sein? Allerdings geistern die 9 FLOPs auch schon sehr lange durchs Netz, und auch AiL scheint sich darauf eingeschossen zu haben. Wie immer hilft nur abwarten.

Und was soll das bringen? OC Tests der Skalareinheiten beim G80 zeigen das das marginal mehr Performance in allen heutigen Spielen bringt. Was die FPS nach oben wandern lässt ist der Coretakt der ROPs und Textureeinheiten befeuert.
Das selbe Spiel wie bei R520-R580, massig "Shaderpower" aber Textureleistung eher average. Deswegen auch der hohe Coretakt den der R600 unter allen! Umständen haben muss. Wenn ich auf der einen Seite eine 575MHz Architektur habe und auf der anderen Seite 700MHz brauche um mithalten zu können ist von anfang an klar gewesen, das ATI nicht in die Breite geht, sondern wieder klar auf "MHzPower".

Nakai
2007-02-18, 14:47:31
Das selbe Spiel wie bei R520-R580, massig "Shaderpower" aber Textureleistung eher average. Deswegen auch der hohe Coretakt den der R600 unter allen! Umständen haben muss. Wenn ich auf der einen Seite eine 575MHz Architektur habe und auf der anderen Seite 700MHz brauche um mithalten zu können ist von anfang an klar gewesen, das ATI nicht in die Breite geht, sondern wieder klar auf "MHzPower".

Wenn der R600 800Mhz getaktet ist, hat er genug Texelleistung.
Praktiv kann der G80 nur für 18400MTex/s addressieren und filtern.
Und wie ATI in die Breite geht. Der G80 ist ja relativ schmal. 128 Scalare Einheiten bei 1350Mhz ist wohl eher "MHzPower", jedenfalls für die Shader.

mfg Nakai

Gast
2007-02-18, 14:55:54
Wenn der R600 800Mhz getaktet ist, hat er genug Texelleistung.
Praktiv kann der G80 nur für 18400MTex/s addressieren und filtern.

Trotzdem kommen die Bi-TMUs in nahezu jeder praktischen Situation zum tragen und so sind es effektiv eben nicht nur 18.4GTex/s, wenn der R600 mit 32 herkömmlichen TMUs daherkommt, würde er hier wohl doch unterlegen sein und ATi würde uns wahrscheinlich weiterhin mit den AI-Filtertrickserein "beglücken". ;)

Und auf MHz-Power setzt der G80 eben gerade in dem Bereich wo es drauf ankommt, was wiederrum die Genialität seines Designs unterstreicht.

Wenn Nvidia dieses weiter aufbohrt mit dem G90 und dieser auch mit 512Bit und mehr Einheiten daherkommt, stellt sich wirklich die Frage was ATi dagegen noch aufbieten kann.

Nakai
2007-02-18, 15:05:47
Trotzdem kommen die Bi-TMUs in nahezu jeder praktischen Situation zum tragen und so sind es effektiv eben nicht nur 18.4GTex/s, wenn der R600 mit 32 herkömmlichen TMUs daherkommt, würde er hier wohl doch unterlegen sein und ATi würde uns wahrscheinlich weiterhin mit den AI-Filtertrickserein "beglücken".

Du kennst die TMUs des R600 gar nicht und du meinst, dass der G80 hier überlegen ist. Warte den Launsh ab.

Und auf MHz-Power setzt der G80 eben gerade in dem Bereich wo es drauf ankommt, was wiederrum die Genialität seines Designs unterstreicht.

Nun das Design ist nicht schlecht, aber es als Genial zu bezeichnen halte ich für zu gewagt. Schließlich kann es keine Vec2 oder Vec3 Operationen in einem Takt erledigen, diese werden ja immer wichtiger.
Ansonsten ist das Design nicht schlecht.


mfg Nakai

dargo
2007-02-18, 15:18:20
Und auf MHz-Power setzt der G80 eben gerade in dem Bereich wo es drauf ankommt, was wiederrum die Genialität seines Designs unterstreicht.

Genialität? Schon mal gesehen was eine G8800GTX in Idle an Strom zieht?
Genial heißt für mich keine Schwächen, und Diese hat der G80 (leider).

andererGast
2007-02-18, 15:21:11
Genialität? Schon mal gesehen was eine G8800GTX in Idle an Strom zieht?
Genial heißt für mich keine Schwächen, und Diese hat der G80 (leider).Wayne? Das Ding wird schon standardmäßig sehr leise gekühlt und die paar Cent mehr beim Stromverbrauch interessieren einfach nicht.

dargo
2007-02-18, 15:23:05
Wayne? Das Ding wird schon standardmäßig sehr leise gekühlt und die paar Cent mehr beim Stromverbrauch interessieren einfach nicht.
Schön, wenn es dich nicht interessiert, mich aber.

deekey777
2007-02-18, 15:25:23
Schön, wenn es dich nicht interessiert, mich aber.
Ändert aber nichts daran, dass das Design des G80 genial ist. Da kannst du so lange die Luft anhalten, bis du blau wirst, es ist eine Tatsache.

Winter[Raven]
2007-02-18, 15:26:29
Schön, wenn es dich nicht interessiert, mich aber.

Dann kauf dir halt ne Midrage Produkt, wer für eine High-Endkarte ~599€ ausgibt, der wird sich wegen Strom auch keine Gedanken machen.

Und ja die G80 Archi ist nazu perfekt/genial, aber nobody ist perfect, irgendwo muss man Kompromisse machen.

Gast
2007-02-18, 15:29:55
;5263024']Dann kauf dir halt ne Midrage Produkt, wer für eine High-Endkarte ~599€ ausgibt, der wird sich wegen Strom auch keine Gedanken machen.

Und ja die G80 Archi ist nazu perfekt/genial, aber nobody ist perfect, irgendwo muss man Kompromisse machen.



Wer redet von 599€? Schonmal was von einer 8800 GTS gehört? Für unter 300€ die 320 MB Variante. Und ja, mich interessiert der Stromverbrauch.

dargo
2007-02-18, 15:32:04
;5263024']Dann kauf dir halt ne Midrage Produkt, wer für eine High-Endkarte ~599€ ausgibt, der wird sich wegen Strom auch keine Gedanken machen.

1. Warum 599€ wenn ich ~480 bezahlen kann?
2. Ich möchte ein Upgrade und kein Downgrade machen. ;)

;5263024']
Und ja die G80 Archi ist nazu perfekt/genial, aber nobody ist perfect, irgendwo muss man Kompromisse machen.
Siehst du - nahezu, aber eben nicht perfekt.

dildo4u
2007-02-18, 15:32:49
Wer redet von 599€? Schonmal was von einer 8800 GTS gehört? Für unter 300€ die 320 MB Variante. Und ja, mich interessiert der Stromverbrauch.
Musst du halt auf eine Midrange DX10 GPU warten.Außerdem ist das OT hier und es sieht auch nich wirklich so aus als ob die neue ATI Topreihe ein Stromsparwunder wird egal ob idle oder last.

K4mPFwUr$t
2007-02-18, 15:37:34
ist hier mal wieder das ATI gebashe los und das im R600 thread, tz tz tz :rolleyes: einige urteilen hier über sachen voreillig von denen sie nichts wissen können.

pauschalisierung scheint wohl in mode zu kommen.

Gast
2007-02-18, 15:53:36
Ändert aber nichts daran, dass das Design des G80 genial ist. Da kannst du so lange die Luft anhalten, bis du blau wirst, es ist eine Tatsache.

ähm ja.....ich bin hier wohl in einem falschen film

Winter[Raven]
2007-02-18, 15:53:46
Wer redet von 599€? Schonmal was von einer 8800 GTS gehört? Für unter 300€ die 320 MB Variante. Und ja, mich interessiert der Stromverbrauch.

Also wir reden hier von UltraHighEnd dem top Produkt einer Firma.

Siehst du - nahezu, aber eben nicht perfekt.

Dann wart die R6xx Architektur ab, wenn dir die G80 Architektur nicht perfekt ist :P

//Edit:

Es ist immer wieder schön zu beobachten wie einige bei ATI den heiligen Gral sehen ... Jeder der beiden Hersteller hat seine Vor und Nachteil, jeder muss für sich einen Kompromiss finden.

dargo
2007-02-18, 16:11:35
;5263096']Dann wart die R6xx Architektur ab, wenn dir die G80 Architektur nicht perfekt ist :P

Das mache ich auch. Sollte ATI genauso einen vermurksten "2D Modus" liefern habe ich ein Problem. Irgendwann muss ne neue Graka rein (die X1900XT läuft manchmal bei meinen Einstellungen am Limit), dann wird halt nach der Performance und Preis entschieden. Dann habe ich leider keine andere Wahl. ;(

reunion
2007-02-18, 16:15:39
Ändert aber nichts daran, dass das Design des G80 genial ist. Da kannst du so lange die Luft anhalten, bis du blau wirst, es ist eine Tatsache.

Tatsache? Im Vergleich zu was? Und vorallem was verstehst du unter genial? Genial ist für mich eigentlich jeder Siliziumchip seit dem Intel 8086, perfekt allerdings keiner.

Gast
2007-02-18, 16:31:54
Niemand sprach von Perfektion, aber der G80 machte mit seiner Architektur einen sehr weiten Schritt nach vorne, wie es lange nicht im GPU-Sektor geschah.
Der G80 vereinigt nunmal viele der wichtigen Konzepte der letzen Jahre und der Zukunft in sich: entkoppelte ALUs, U.S.A., Clockdomains, Bi-TMUs, Skalarprozessoren, C-Programmierung, hohe Skalierbarkeit, ...
Dies alles macht ihn aus heutiger Sicht zu einen der weitentwickelsten Consumer-Prozessoren, die am Markt erhätlich sind

Fragt sich ob der R600 ebenso innovativ ist, momentan zweifel ich eher daran.

Armaq
2007-02-18, 17:03:52
Niemand sprach von Perfektion, aber der G80 machte mit seiner Architektur einen sehr weiten Schritt nach vorne, wie es lange nicht im GPU-Sektor geschah.
Der G80 vereinigt nunmal viele der wichtigen Konzepte der letzen Jahre und der Zukunft in sich: entkoppelte ALUs, U.S.A., Clockdomains, Bi-TMUs, Skalarprozessoren, C-Programmierung, hohe Skalierbarkeit, ...
Dies alles macht ihn aus heutiger Sicht zu einen der weitentwickelsten Consumer-Prozessoren, die am Markt erhätlich sind

Fragt sich ob der R600 ebenso innovativ ist, momentan zweifel ich eher daran.

Da stimme ich dem Gast voll zu. Viele für wichtig befundene Trends wurden hier umgesetzt. Solch ein Produkt gab es branchenübergreifend lange nicht mehr. Bsp. Autoindustrie - kein Hersteller bringt dieses Produkt mal mit allen wichtigen Neuerungen, warum auch immer.

seahawk
2007-02-18, 17:15:29
Das mache ich auch. Sollte ATI genauso einen vermurksten "2D Modus" liefern habe ich ein Problem. Irgendwann muss ne neue Graka rein (die X1900XT läuft manchmal bei meinen Einstellungen am Limit), dann wird halt nach der Performance und Preis entschieden. Dann habe ich leider keine andere Wahl. ;(

Ich denke schon, das ATI eine 2D Modus hat, wie tief sie dabei allerdings mit der Leistungsaufnahem kommen ist noch fraglich.

SavageX
2007-02-18, 17:54:44
Die GeForce Chips haben keine dezidierte 2D Hardware. Das läuft alles über die 3D Einheiten. Der einzige Unterschied: Im "2D Modus" läuft der Chip mit weniger Dampf.

Dürfte bei ATI ähnlich sein. Wenn man also den Takt und die Spannung absenkt...

(Nur für den Fall das einige noch denken, dass im 3D Betrieb ein "3D Core angeworfen wird")

Fetza
2007-02-18, 19:17:03
Ändert aber nichts daran, dass das Design des G80 genial ist. Da kannst du so lange die Luft anhalten, bis du blau wirst, es ist eine Tatsache.

mal ganz abgesehen davon, das ich mich ernsthaft frage, wer von einem high-end chip stromsparwunder erwartet. Die gtx zieht unter last doch nich so viel mehr als die x1900xtx, hat dafür aber einen wunderbar leisen lüfter und wird auch nicht zu heiss.

Was der r600 an watt zieht is mir auch jacke, wenn die leistung des chips stimmt, hol ich mir einfach nen 600 watt netzteil und gut. Hauptsache der performt krass fett;)

Black-Scorpion
2007-02-18, 19:48:13
Es geht um den Idle Verbrauch.
Oder rennt die Karte bei dir 24/7 unter Last.

Gast
2007-02-18, 19:49:42
Was der r600 an watt zieht is mir auch jacke, wenn die leistung des chips stimmt, hol ich mir einfach nen 600 watt netzteil und gut. Hauptsache der performt krass fett;)

dann musste sicherlich die stromrechnung nicht selber zahlen.

für manche ist es auch ne kaufentscheidung wieviel die GraKa verbraten tut.

So lange die leute jede GraKa kaufen und nicht auf den " Verbrauch " schaun wird sich da leider nix ändern.

bei Wintell hat es ja schließlich auch geholfen was der verbrauch betrifft.

Gast
2007-02-18, 19:53:11
Oder rennt die Karte bei dir 24/7 unter Last.

So wird es wohl in naher Zukunft bei einigen Usern sein, wenn man die GPUs für mehr als Games nutzen kann.
Wer dies nicht tut, sollte sich ernshaft fragen ob er denn einen PC mit HighEnd-GraKa 24/7 am Laufen haben muss.

Black-Scorpion
2007-02-18, 20:01:23
So wird es wohl in naher Zukunft bei einigen Usern sein, wenn man die GPUs für mehr als Games nutzen kann.
Wer dies nicht tut, sollte sich ernshaft fragen ob er denn einen PC mit HighEnd-GraKa 24/7 am Laufen haben muss.
Daran glaubst du wohl selber nicht.
Das ist nicht für Homeuser interessant.

Gast
2007-02-18, 20:10:51
Daran glaubst du wohl selber nicht.
Das ist nicht für Homeuser interessant.

Aha... also sind die meisten die am Distributed Computing teilnehmen keine Home-User? ;)

Auf Grund der immer flexibler programmierbaren ALUs und deren Leistungsfähigkeit in diesem Gebieten, werden langfristig viele Projekte auf GPUs abzielen.
Und imo erhöht dies sogar noch den Wert einer "GraKa", da man sie halt wenn man mal nicht zockt trotzdem belasten kann und somit vielleicht noch Gutes/Sinnvolles tut.

Die Erhöhung der Stromkosten dadurch ist ja im Vergleich zum Anschaffungspreis eher irrelevant.

Gast
2007-02-18, 20:17:33
Über wen sprechen wir jetzt "Homeuser" oder "Ultrahighend" Anwender ^^
Wer sich eine GTX oder XTX holt, hat mindestens eine 3GHz CPU unter der Haube, meist Wakü und mehr GHz. Dickes Netzteil, viel Platten und 2 Monitore.
Stromverbrauch kratzt da an der HIghend Maschine doch eher weniger... Zumal es ja einige gibt die sich gleich das Doppelpacket holen. Das das 100€ mehr an Strom im Jahr sind, jo mei.

Midrange is für Homeuser, und da gibts noch keine neue Hardware.

Black-Scorpion
2007-02-18, 20:26:45
Aha... also sind die meisten die am Distributed Computing teilnehmen keine Home-User? ;)

Auf Grund der immer flexibler programmierbaren ALUs und deren Leistungsfähigkeit in diesem Gebieten, werden langfristig viele Projekte auf GPUs abzielen.
Und imo erhöht dies sogar noch den Wert einer "GraKa", da man sie halt wenn man mal nicht zockt trotzdem belasten kann und somit vielleicht noch Gutes/Sinnvolles tut.

Die Erhöhung der Stromkosten dadurch ist ja im Vergleich zum Anschaffungspreis eher irrelevant.
6.10 Beta (F@H) (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=323776)
http://ati.amd.com/technology/streamcomputing/folding.html
Nur weil NV das jetzt erst bringt, heißt das nicht das es andere nicht schon können.

Über wen sprechen wir jetzt "Homeuser" oder "Ultrahighend" Anwender ^^
Wer sich eine GTX oder XTX holt, hat mindestens eine 3GHz CPU unter der Haube, meist Wakü und mehr GHz. Dickes Netzteil, viel Platten und 2 Monitore.
Stromverbrauch kratzt da an der HIghend Maschine doch eher weniger... Zumal es ja einige gibt die sich gleich das Doppelpacket holen. Das das 100€ mehr an Strom im Jahr sind, jo mei.

Midrange is für Homeuser, und da gibts noch keine neue Hardware.
Stimmt, und die mit den ganzen dicken Rechner gründen extra eine Firma weil das ja keine Homeuser sind.
Was der Begriff mit der Ausstattung des Rechners zu tun hat wird wohl deine Geheimnis bleiben.
Die Einteilung oben kann es wohl nicht sein.

boxleitnerb
2007-02-18, 21:01:30
Ich erwähnte es schonmal irgendwo, aber tu es gerne nochmals:

Beim Thema Stromverbrauch ist die leise Kühlbarkeit wohl das wichtigste Argument. Wichtiger als das Geld, denn das kann sich ja jeder selbst ausrechnen, dass es mehr kostet.

Botcruscher
2007-02-18, 22:09:32
Leichtes OT-Durcheinander hier. Wenn das so weiter geht greifen sich einige noch an die Gurgeln. Bestes G80 geplänkel und faktenlose Stromverbrauchsdiskussionen. Bei B3d reden sie jetzt schon 3 Seiten über heatpipes. Selbst neue teaser von VRz sucht man vergebens.
Ach mennö so ein NDA saugt.:(

mapel110
2007-02-18, 22:11:21
Also diese Woche sollte es eigentlich was neues geben. So 3 Wochen vor Release sickert doch immer was "echtes" durch. :)

Fetza
2007-02-19, 02:52:38
dann musste sicherlich die stromrechnung nicht selber zahlen.

für manche ist es auch ne kaufentscheidung wieviel die GraKa verbraten tut.

So lange die leute jede GraKa kaufen und nicht auf den " Verbrauch " schaun wird sich da leider nix ändern.

bei Wintell hat es ja schließlich auch geholfen was der verbrauch betrifft.

hmm, erwischt. Ich muss sie wirklich nicht selbst bezahlen.:redface:

Ailuros
2007-02-19, 08:49:00
Ja, es ist noch alles ziemlich verschwommen. Xenso fehlte auch die zusätzliche ADD, die bei R600 laut AiL wieder kommen soll. Für die Vec5-ALUs spricht, dass man diese bei Xenos offenbar für nötig hielt, warum sollte das bei R600 anders sein? Allerdings geistern die 9 FLOPs auch schon sehr lange durchs Netz, und auch AiL scheint sich darauf eingeschossen zu haben. Wie immer hilft nur abwarten.

Aber nur weil mir mit 9FLOPs die von ATI selber angegebene insgesamte FLOP-Rate auch hinhaut. Launch-Marketing-Dokumente sind nicht besonders ausfuehrlich und ich brauch meistens selber kreative spekuliative Mathe um hinter die kreative Mathe der Marketing-Abteilung zu kommen.

Hab ich eine XXX-GFLOP Rate und die wahre Anzahl der Einheiten, ist es wohl nicht mehr so schwer das Zeug auszurechnen. Wenn jetzt XXX falsch sein sollte, dann lieg ich selbstverstaendlich auch auf dem falschen Pfad. Bis jetzt stimmen aber diese Zahlen mit dem was zuverlaessige Quellen auch von ATI bekommen haben ueberein.

Wenn der R600 800Mhz getaktet ist, hat er genug Texelleistung.
Praktiv kann der G80 nur für 18400MTex/s addressieren und filtern.
Und wie ATI in die Breite geht. Der G80 ist ja relativ schmal. 128 Scalare Einheiten bei 1350Mhz ist wohl eher "MHzPower", jedenfalls für die Shader.

mfg Nakai

Er addressiert bei 18400, filtert aber mit doppelt so hoher Rate unter Umstaenden.

Nakai
2007-02-19, 11:23:45
Das ist mir schon klar, er hat ja auch Bi-TMUs.
Also eigentlich 64 TMUs von denen 32 nur Filtern können.

Aber nur weil mir mit 9FLOPs die von ATI selber angegebene insgesamte FLOP-Rate auch hinhaut.

9 Flops halte ich für zu wenig, außer der R600 ist mit 1Ghz getaktet.^^

mfg Nakai

Gast
2007-02-19, 11:28:21
9FLOPs wären eigentlich ganz ok bei 96 ALUs und 800Mhz+.
Dazu vielleicht noch 24 ROPs und 24 (Bi-)TMUs.

So hätte man sich auch im TMU:ALU Verhätlnis nicht "verschlechtert".

Nakai
2007-02-19, 11:30:17
Dann müssten es 12 ROPs sein. Natürlich würden die ausreichen, aber 16 klingt besser.
D.h es sollten 32 TMUs sein.
Dann könnte man ein 3:1-Verhältnis einführen, aber da hat Ail was dagegen.:biggrin:

mfg Nakai

Gast
2007-02-19, 11:36:53
Warum 12 ROPs?
Imo könnte es doch durchaus sein, das ATi beim R600 weiter daran festhält: ROP-Anzahl = TMU- Anzahl.

Imo sieht dieser potentielle R600XTX:
24ROPs/24(Bi-)TMUs/96ALUs(9FLOPs)@~800MHz
512Bit SI

... gar nicht mal so unrealistisch aus, wenn man auch die vergangenen GPUs von ATi im Auge hat und die Ankündigung und Gerüchte der Vergangeneit zusammenzählt.

Gast
2007-02-19, 11:38:21
9FLOPs wären eigentlich ganz ok bei 96 ALUs und 800Mhz+.Wieso 96? 4 "Cluster" mit je 16 ALUs sollen es sein.

Nakai
2007-02-19, 11:46:35
... gar nicht mal so unrealistisch aus, wenn man auch die vergangenen GPUs von ATi im Auge hat und die Ankündigung und Gerüchte der Vergangeneit zusammenzählt.

Die Frage was notwendig ist, ist wichtiger als die Frage was machbar ist.:wink:

Wieso 96? 4 "Cluster" mit je 16 ALUs sollen es sein.

Eigentlich würde ich Shader anstatt ALU sagen.

mfg Nakai

robbitop
2007-02-19, 13:41:58
Das ist mir schon klar, er hat ja auch Bi-TMUs.
Also eigentlich 64 TMUs von denen 32 nur Filtern können.

Es können 64 TMUs filtern, nur können maximal 32 Texel adressiert werden. Das ganze funktioniert immer, wenn mehr als 1 bi Sample pro Texel anfällt. Und da wir nicht mehr im Jahre 1998 sind und Need for Speed 3 spielen, ist das sowieso irrelevant. Es fallen soziemlich immer mehr als ein bi Sample pro Texel an. Allerspätestens mit AF und oder Tri ist das auch bei wirklich allen Texeln so.

Nakai
2007-02-19, 13:45:31
Es können 64 TMUs filtern, nur können maximal 32 Texel adressiert werden. Das ganze funktioniert immer, wenn mehr als 1 bi Sample pro Texel anfällt. Und da wir nicht mehr im Jahre 1998 sind und Need for Speed 3 spielen, ist das sowieso irrelevant. Es fallen soziemlich immer mehr als ein bi Sample pro Texel an. Allerspätestens mit AF und oder Tri ist das auch bei wirklich allen Texeln so.

Okay wieder was falsch rum gedacht....ohweh^^
Also werden die 32 TMUs die nur addressieren können eigentlich fast immer ausgenutzt?

mfg Nakai

Gast
2007-02-19, 13:46:41
Wo wurden eigentlich die 4 Cluster a 16 ALUs(bzw. Shader) als feststehene Spezfikation genannt.
Kam dies von AiL?

@robbitop
Ich glaube du solltest diese Erläuerung zu den G80-TMUs langsam in deine Signatur übernehmen, sodass es auch der Letzte mitbekommt. :D

robbitop
2007-02-19, 13:47:05
Okay wieder was falsch rum gedacht....ohweh^^
Also werden die 32 TMUs die nur addressieren können eigentlich fast immer ausgenutzt?

mfg Nakai
Genau. Und außerdem möchtest du als G80 Besitzer doch sicher mal AF aktivieren oder? Und zwar möglichst ohne G7x/R5xx Flimmergepfusche. Und aller allerspätestens hier sind die TMUs auch gut ausgelastet. ;)

deekey777
2007-02-19, 14:15:09
Wo wurden eigentlich die 4 Cluster a 16 ALUs(bzw. Shader) als feststehene Spezfikation genannt.
Kam dies von AiL?

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5027078#post5027078
Es gab diese Überlegung, aber: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4704279#post4704279
Es wäre etwas zu wenig. Es werden (hoffentlich) mehr als 4 Cluster a 16 ALUs, vielleicht innerhalb des Clusters mit 2x8 Unterteilung wie beim G80, das R600-Design muss skalierbar sein (wie RV530 -> RV570 -> R580). Die Zahl "16" klingt irgendwie am vernünftigsten (2x8).

Gast
2007-02-19, 14:25:34
Da stellt sich die Frage wie AiL auf 9FLOPs kommt? :|

128 ALUs -> 921 GFLOPs
96 ALUs -> 691 GFLOPs
64 ALUs -> 460 GFLOPs
@800MHz

Wenn der R600 wie spekuliert keine Shaderdomain hat, wäre 96 am sinnigsten. Bei 64 hätte ich doch Zweifel, dass man damit gegen den sehr effizienten G80 bestehen kann.

Die Jungs in China sollen langsam mal wieder nüchtern werden und uns handfeste Infos leaken. ;)

Nakai
2007-02-19, 14:25:34
Es werden (hoffentlich) mehr als 4 Cluster a 16 ALUs, vielleicht innerhalb des Clusters mit 2x8 Unterteilung wie beim G80, das R600-Design muss skalierbar sein (wie RV530 -> RV570 -> R580). Die Zahl "16" klingt irgendwie am vernünftigsten (2x8).

Da hast du sicherlich recht, doch glaube nicht an 2x8 vll eher 4x4.

mfg Nakai

deekey777
2007-02-19, 14:32:17
Da stellt sich die Frage wie AiL auf 9FLOPs kommt? :|

128 ALUs -> 921 GFLOPs
96 ALUs -> 691 GFLOPs
64 ALUs -> 460 GFLOPs
@800MHz

Wenn der R600 wie spekuliert keine Shaderdomain hat, wäre 96 am sinnigsten. Bei 64 hätte ich doch Zweifel, dass man damit gegen den sehr effizienten G80 bestehen kann.

Die Jungs in China sollen langsam mal wieder nüchtern werden und uns handfeste Infos leaken. ;)
Ich glaub, die feiern noch paar Tage, die sind nicht so wie wir (wir müssen ja am 2. Januar arbeiten)
Ail und 9 FLOPs? Wo?

crux2005
2007-02-19, 14:33:42
spekulation:

5 cluster @ 16 ALUs = 80 ALUs
80* 9 Flops * 0.8 = 576GFlop/s

dass würde imho reichen den G80 zu schlagen

Gast
2007-02-19, 14:34:10
Ich glaub, die feiern noch paar Tage, die sind nicht so wie wir (wir müssen ja am 2. Januar arbeiten)
Ail und 9 FLOPs? Wo?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5264679&postcount=680

Gast
2007-02-19, 14:35:46
spekulation:

5 cluster @ 16 ALUs = 80 ALUs
80* 9 Flops * 0.8 = 576GFlop/s

dass würde imho reichen den G80 zu schlagen

Hmmm....
G80 mit aktivem MUL und Shaderclock auf 1.5GHz(soll wohl im März kommen) -> 576GFLOPs... ;)

Gast
2007-02-19, 14:36:27
dass würde imho reichen den G80 zu schlagenDu vergisst, dass es nicht nur um (theoretische) arithmetische Leistung geht. In Sachen Füllrate sollte der G80 Vorteile haben und auch die Auslastung der Einheiten, sollte besser sein. Außerdem glaube ich nicht an 5 Cluster.

crux2005
2007-02-19, 14:41:59
na dann bleibt ja nur die 96 ALUs Variante übrig ...

/ und diese Aussage ?

Pixel/Z Fillrate = G80
AF Fillrate = G80
Bandwidth = R600
Shader Fillrate (theoretical maximum in GFLOPs) = R600 (if G80 w/o MUL; with MUL the scale weighs in G80's direction.

deekey777
2007-02-19, 14:51:03
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5264679&postcount=680
Hm.
Also mehr 500 GFLOP/s müssen es sein. 9*64*0,8 = 460 GFLOP/s -> zu wenig, insbesondere im Vergleich zum R580. 9*96*0,8 ist mehr als genug.

Nehmen wir an, es sind 6*96 und je TMU pro 4 Shader, der kleinste Cluster wäre 4 Shader-Quads und 4 TMUs. Wenn der RV630 ein 1/4 der R600 ist (analog des RV530 <-> R580), dann geht die Rechnung nicht auf.:biggrin:
Eher ein Drittel: 2*R600-Cluster (32 ALUs, 8 TMUs und 8 ROPs).
RV610 ist 1/6 des R600.

crux2005
2007-02-19, 14:55:08
oder der R600 hat nur skalare einheiten ...

Gast
2007-02-19, 14:57:21
Das müssten aber bei 800MHz ziemlich viele sein, die dann wiederrum ordentlich auf Transitorbudget gehen würden.

robbitop
2007-02-19, 15:09:17
Wenn R600 SIMD Vec4/5 ALUs haben sollte, braucht man deutlich mehr Rohleistung als der G80 um auf die gleiche Endleistung (Aritmetik) zu kommen. Die skalare Unterteilung bringt einiges.
R580 hat ~374 GFlops/sek an reinem Pixelshader Output. Wird aber vom G80 mit momentan 345 GFlops/sek durchschnittle um Faktor 2-2,5 im Shadermark geschlagen.

Allerdings scheint eine derart hohe Rechenleistung relativ zu anderen Komponenten in einer GPU zur Zeit in Spielen kein echter Flaschenhals zu sein. (man betrachte R520 vs R580)

reunion
2007-02-19, 15:33:07
R580 hat ~374 GFlops/sek an reinem Pixelshader Output. Wird aber vom G80 mit momentan 345 GFlops/sek durchschnittle um Faktor 2-2,5 im Shadermark geschlagen.


Naja, hier ist schon einiges noch zu beachten. Zum einen zeigt bsw. der Vergleich X1800GTO vs. X1600 (beide drei Shaderprozessoren), dass der Shadermark auch sehr stark von mehr Texelfüllrate profitiert. Selbst eine 7900GTX schlägt bei machen texturlastigen Shadern einen R580 AFAIK. Auch wird die MUL beim G80 ja auch momentan durchaus eingesetzt. Desweiten werden die Einheiten des R600 höchstwahrscheinlich weiter flexibilisiert, auch wenn es keine skalare Unterteilung wie bei G80 gibt.

robbitop
2007-02-19, 15:48:19
Naja, hier ist schon einiges noch zu beachten. Zum einen zeigt bsw. der Vergleich X1800GTO vs. X1600 (beide drei Shaderprozessoren), dass der Shadermark auch sehr stark von mehr Texelfüllrate profitiert. Selbst eine 7900GTX schlägt bei machen texturlastigen Shadern einen R580 AFAIK. Auch wird die MUL beim G80 ja auch momentan durchaus eingesetzt. Desweiten werden die Einheiten des R600 höchstwahrscheinlich weiter flexibilisiert, auch wenn es keine skalare Unterteilung wie bei G80 gibt.
Die MUL wird nicht fürs general shading genutzt sondern für andere Sachen. Für diese anderen Sachen hat R580 auch extra Einheiten. Insofern halte ich den Vergleich für durchaus sinnvoll.
Viel mehr Flexibilisierung ist bei nicht skalarer Aufteilung kaum möglich (die NV4x ALUs sind ja auch schon flexibler geroutet als die R5xx ALUs und es brachte wenig, weil die Kernursache eben kaum noch besser angegriffen werden kann. Das ist das Prinzip des sinkenden Grenzertrages).
Es ist doch auch völlig klar, dass "normale" SIMD ALUs nicht an die Effizienz von skalaren heranreichen. Dafür sind sie eben billiger und man kann mehr Kanäle/ALUs vebauen.

Im sehr aritmetisch lastigen xbitmark (in dem G70 deutlich Federn läßt) wird R580 dennoch bei unterlegener aritmetischer Rohleistung ähnlich (Faktor 2) besiegt.
R600 muss hier schon Quantität bringen, wenn tatsächlich eine 8900GTX mit 576 GFLOPs/sek ankommt.
Allerdings ist das widerum so wichtig nicht, da mit >300 GFLOPs/s im Rücken eh kein jetziges Spiel darauf reagieren wird. Das gilt aber nur für den Fall, dass R600 noch mit SIMD ALUs arbeitet.

Nakai
2007-02-19, 15:59:12
9 FLOPs halte ich für zu wenig. Und wenn Ail gesagt hat, das das Verhältnis von Shader zu TMU bei 4:1 bzw. 2:1 je nach Zählweise liegt. Bei 96 ALUs wären das 24 TMUs bzw. das sind 48 Shaderblocks.:rolleyes:
Oder bei 128 ALUs sind das 32 TMUs bzw. 64 Shaderblocks. Imho sollten es schon 12 Flops pro Shader für 64 Shader sein.

mfg Nakai

reunion
2007-02-19, 16:32:12
Im sehr aritmetisch lastigen xbitmark (in dem G70 deutlich Federn läßt) wird R580 dennoch bei unterlegener aritmetischer Rohleistung ähnlich (Faktor 2) besiegt.


http://www.xbitlabs.com/articles/video/display/gf8800_17.html

Sorry, aber wo muss ein G71 Federn lassen? Eine 7900GTX gewinnt hier sogar bis auf die dB-Benchmarks (wo ein R580 wesentlich besser liegt, und einmal sogar fast den G80 schlägt) die meisten Tests gegen eine X1950XTX, was in meinen Augen einfach unrealistisch ist. Hier wird hauptsächlich die Texelfüllrate gemessen, mehr nicht. Umso komplexer die Shader, umso näher rücken die beiden Chips zusammen.

Gast
2007-02-19, 16:42:38
Hier wird hauptsächlich die Texelfüllrate gemessen, mehr nicht. Umso komplexer die Shader, umso näher rücken die beiden Chips zusammen.

http://www.xbitlabs.com/articles/video/display/radeon-x1900xtx_10.html

In vielen Test ist der r580 deutlich schneller, die verdreifachte Rechenleistung zeigt, dass nicht nur die Texelfüllrate gemessen werde.

reunion
2007-02-19, 16:54:46
http://www.xbitlabs.com/articles/video/display/radeon-x1900xtx_10.html

In vielen Test ist der r580 deutlich schneller, die verdreifachte Rechenleistung zeigt, dass nicht nur die Texelfüllrate gemessen werde.

Ich sagte ja nicht nur, sondern hauptsächlich. Und das bestätigt sich auch bei deinem Link. Bis auf die dB-Tests, die offenbar relativ shaderlastig sind (und bei denen R580 ggü. G80 auch verhältnismäßig gut dasteht), und immerhin Faktor ~2.3 erreichen, ist eine X1900XTX hier im Schnitt wohl max. 75% schneller als ein R520, was deutlich zeigt, dass die arithmetische Leistung bei weitem nicht voll durchschlägt, sondern bei R580 meist die Texelfüllrate limitiert. Die Hälfte der Tests (ohne dB) legt unter 20% zu. Auch wurde hier noch in 1024 x 768 gemessen, beim G80-Test in 1280 x 1024.

Gast
2007-02-19, 17:05:10
Bis auf die dB-Tests, die offenbar relativ shaderlastig sind, ist eine X1900XTX hier im Schnitt wohl max. 75% schneller als ein R520, was deutlich zeigt, dass die arithmetische Leistung bei weitem nicht voll durchschlägt, sondern bei R580 meist die Texelfüllrate limitiert.

Es ist doch verständlich, dass durch die Erhöhung einer Limitierung, eine andere Limitierung auftretet.
Desweiteren gibt es noch anderen Seiten, welche die Leistung verglichen haben.
Z.B hier:
http://www.digit-life.com/articles2/video/r580-part2.html#p5

Es zeigt sich, dass der G80 trotz unterlegender GFlop - Zahl in deutlich schneller ist als der r580.

Gast
2007-02-19, 17:07:11
http://www.digit-life.com/articles2/video/r580-part2.html#p5


http://www.digit-life.com/articles2/video/g80-part2.html#p5

Falscher Link...

reunion
2007-02-19, 17:46:08
Ich bestreite nicht, dass G80 bei heute üblichen Shadern eine höhere arithmetische Leistung als R580 hat. Nur IMO nicht um Faktor 2-2.5, wie vorher behauptet. Der Umkehrschluss daraus wäre ja, dass R600, falls er herkömmliche ALUs haben sollte, ca. 1-1.5TFLOPs bräuchte, um mit G80 gleich zu ziehen. Es zeigt sich auch bei deinen Links, dass mit abnehmender Texturlast der Abstand kleiner wird. Arithmetische Leistung kann man eben nicht messen. G80 profitiert hier mit Sicherheit stark von der hohen Texelraten, bzw. wird R580 dadurch stark eingebremst.

BTW, INQ hat wiedermal ein paar Infos: http://www.the-inquirer.net/default.aspx?article=37718

THE PRODUCTION of R600XTX cards, Radeon X2800XTX or X2900XTX, whatever ATI decides to call them, is set to begin in the first week of March. One of the codenames for this card is Dragonshead 2 and it is a 9.5-inch card with the new vapour chamber cooler.
The board went throughout many revisions and the last one - so far - was the power and mechanical advisory in early February. The A13 board samples are scheduled for the last week of February while the Rev90 release of the board is scheduled for the fourth week of February.

R600XTX card production is set to start in first week of March. Add in Board partners (AIBs) will get the cards between second and third week of March.

The volume customer shipments are expected by the middle of third week in March. And at last target on shelf date is the 28th of March 2007 - that's when the NDSa expire.

Gast
2007-02-19, 19:20:12
Schau dir die beiden Digit-Life Seiten an.
In dem PS2 (arithmetic intensive) ist ein r580 ca. 2,5x schneller als ein r520.
Im gleichen Test ist die 8800GTX 2x schneller als der r580.
Hier wurde fast zu 100% die Rechenleistung ermittelt und zeigt, dass der G80 trotz unterlegender GFlop Zahl in rechenintensiven Umgebungen auch bis zu 2x schneller sein kann.

Gast
2007-02-19, 20:31:27
Wenn nun die Quellen von AiL zuverlässig sind und diese Aussagen von ihm stimmen:

Pixel/Z Fillrate = G80
AF Fillrate = G80
Bandwidth = R600
Shader Fillrate (theoretical maximum in GFLOPs) = R600 (if G80 w/o MUL; with MUL the scale weighs in G80's direction

4 clusters mit jeweils 16 ALUs vs. 16 clusters mit jeweils 8 ALUs, wobei die Differenzierung in der "Breite" der ALUs liegt. Die Takt-reduktion in 2D wird R600 nicht besonders viel bringen und sie hat trotz der 800MHz chip Taktrate doch am Ende weniger Fuellrate und um einiges mehr Stromverbrauch. Dass hier dann fuer kleinere Projekte 80nm nicht mehr ausreicht sollte klar sein.

Aber nur weil mir mit 9FLOPs die von ATI selber angegebene insgesamte FLOP-Rate auch hinhaut. Launch-Marketing-Dokumente sind nicht besonders ausfuehrlich und ich brauch meistens selber kreative spekuliative Mathe um hinter die kreative Mathe der Marketing-Abteilung zu kommen.

Sieht es wohl doch eher nach 64*9FLOPs*~800MHz aus.
Dazu würden dann 16 ROPs und 32(normale)TMUs passen.

Daraus könnte man wieder schlussfolgern, dass der R600 sein eigentlich Taktratenziel nicht erreicht hat, was vielleicht bei 900MHz+ lag.

Ich frag mich wie diese Möglichkeit überhaupt schneller als der G80GTX sein kann? :|

reunion
2007-02-19, 22:56:53
Schau dir die beiden Digit-Life Seiten an.
In dem PS2 (arithmetic intensive) ist ein r580 ca. 2,5x schneller als ein r520.
Im gleichen Test ist die 8800GTX 2x schneller als der r580.
Hier wurde fast zu 100% die Rechenleistung ermittelt und zeigt, dass der G80 trotz unterlegender GFlop Zahl in rechenintensiven Umgebungen auch bis zu 2x schneller sein kann.

Natürlich kann er. Es brauchen nur lauter vec2-Anweisungen kommen, und schon drehen die Hälfte der R580-ALUs Däumchen. Allerdings ist das sicherlich nicht die Regel. Bei den komplexen Shadern mit dynamischen Branching bsw. ist der R580 teilweise verdammt nah dran.

Wenn nun die Quellen von AiL zuverlässig sind und diese Aussagen von ihm stimmen:




Sieht es wohl doch eher nach 64*9FLOPs*~800MHz aus.
Dazu würden dann 16 ROPs und 32(normale)TMUs passen.

Daraus könnte man wieder schlussfolgern, dass der R600 sein eigentlich Taktratenziel nicht erreicht hat, was vielleicht bei 900MHz+ lag.

Ich frag mich wie diese Möglichkeit überhaupt schneller als der G80GTX sein kann? :|

Ähnlich wurde bei der R5x0-Architektur auch argumentiert. Die zusätzliche Addition der ALUs bei R520 wurde nicht beachtet, und viele "Bremsklötze" des G70 wurden ignoriert, und so war man sich einig, dass G70 die überlegene Shaderleistung hatte, mehr Füllrate, und ATi mit einer Art Verzweiflungstaat nur geradeso Anschluss halten kann. Heute lässt ein R520 jeden G70, und ein R580 jeden G71 im Regen stehen, bietet die überlegene BQ, und viele andere zukunftsweisende Features (FP16-MSAA, brauchbares dB, etc.).

Es wurde sogar argumentiert, dass R520 im damals neu erschienenen Fear untergehen würde, da man nicht genügend Shaderleistung für diesen so shaderlastigen Shooter bot. Kurioserweise war genau das Gegenteil der Fall. Etwas überrascht, schob man es auf die 512MB VRAM des R520. Als auch eine GTX512 in Fear nicht mithalten konnte, geriet man langsam in Erklärungnot. Ich bin mir sicher, dass man auch diesmal wieder vieles auf die höhere Bandbreite und den 1GB VRAM abwälzen wird, bis nV nachzieht, und man feststellen wird müssen, dass der Core doch nicht so schlecht ist.

Auch die Ingenieure bei ATi sind nicht dumm. Und diese benötigen mit Sicherheit keine 700mio Transitoren für fast die gleiche arithmetische Leistung wie bei R580, doppelte TMUs, vielleicht etwas aufgemotzte ROPs, und D3D10-Features. Für mich besteht momentan ein eklatanter Widerspruch zwischen den momentan bekannten, theoretischen Daten, und den prognostizieren Leistungswerten. Da ist sicherlich noch einiges im Busch, abwarten. Nachher kann man ja noch immer kritisieren.

BTW, hatte nicht ATi bei sämtlichen Architekturen seit R300 die zusätzliche ADD immer unterschlagen bei den GFLOPs-Werten, und nur die MADDs gezählt?

Gast
2007-02-19, 23:13:43
Jetzt werd mal nich zu rot hier... nervt a bissl.

Tatsache ist das das "im Regen stehen lassen" frei vom Himmel gegriffen ist und immer Situationsbedingt betrachtet werden muss. Pauschalisieren kann jeder ohne Tatsachen zu bringen, und selbst wenn man "Benchmarks" bringt, kann man dir jederzeit andere Benches zeigen die genau das gegenteil von deinen Argumenten aufzeigt.
Aber hier gehts nicht um die alte Generation wie du wiedermal versuchts aufzuwühln.

Fakt ist das der R600 seine Power über die Taktrate und nicht durch Effizienz erreichen wird. Damit wird er mehr Strom brauchen als der G80, und der ist wie man ja hört auch 9Monate später dran als geplant. Ati legt halt noch ein paar Monate mehr drauf... wiedermal.

reunion
2007-02-19, 23:20:23
Jetzt werd mal nich zu rot hier... nervt a bissl.

Tatsache ist das das "im Regen stehen lassen" frei vom Himmel gegriffen ist und immer Situationsbedingt betrachtet werden muss. Pauschalisieren kann jeder ohne Tatsachen zu bringen, und selbst wenn man "Benchmarks" bringt, kann man dir jederzeit andere Benches zeigen die genau das gegenteil von deinen Argumenten aufzeigt.
Aber hier gehts nicht um die alte Generation wie du wiedermal versuchts aufzuwühln.


Es zeigen sich nur IMHO starke parallelen zum R520, und das habe ich eben kurz ausgeführt. Wenn dich das aus welchen Gründen auch immer "nervt", musst du es ja nicht lesen, od. antworten. Und das ein R5X0 heute einem G7X fast immer vorzuziehen ist, ist denke ich nicht "frei vom Himmel gegriffen".


Fakt ist das der R600 seine Power über die Taktrate und nicht durch Effizienz erreichen wird. Damit wird er mehr Strom brauchen als der G80, und der ist wie man ja hört auch 9Monate später dran als geplant. Ati legt halt noch ein paar Monate mehr drauf... wiedermal.

Hohe Taktraten haben nicht das geringste mit Ineffizienz zu tun. Die Verspätung ist natürlich nicht toll, aber das macht den Chip nicht schlechter.

So, ich geht jetzt pennen. Gn8.

deekey777
2007-02-19, 23:36:14
Es wurde sogar argumentiert, dass R520 im damals neu erschienenen Fear untergehen würde, da man nicht genügend Shaderleistung für diesen so shaderlastigen Shooter bot. Kurioserweise war genau das Gegenteil der Fall. Etwas überrascht, schob man es auf die 512MB VRAM des R520. Als auch eine GTX512 in Fear nicht mithalten konnte, geriet man langsam in Erklärungnot. Ich bin mir sicher, dass man auch diesmal wieder vieles auf die höhere Bandbreite und den 1GB VRAM abwälzen wird, bis nV nachzieht, und man feststellen wird müssen, dass der Core doch nicht so schlecht ist.



Vor dem Erscheinen von FEAR ging man auch davon aus, dass das Spiel shaderlastig sein wird. Soll es aber nicht sein, da limitiert was anderes.
Traditionell kam die rote Fraktion besser mit einem "wenig optimierten" Shader-Code als nVidias Grafikkarten (was beim G80 nicht mehr gilt). Das letzte Beispiel wäre NFS: Carbon.

Ailuros
2007-02-20, 05:58:06
Ähnlich wurde bei der R5x0-Architektur auch argumentiert. Die zusätzliche Addition der ALUs bei R520 wurde nicht beachtet, und viele "Bremsklötze" des G70 wurden ignoriert, und so war man sich einig, dass G70 die überlegene Shaderleistung hatte, mehr Füllrate, und ATi mit einer Art Verzweiflungstaat nur geradeso Anschluss halten kann. Heute lässt ein R520 jeden G70, und ein R580 jeden G71 im Regen stehen, bietet die überlegene BQ, und viele andere zukunftsweisende Features (FP16-MSAA, brauchbares dB, etc.).

Wo steht denn dass jede R520 jegliche G70 im Regen stehen laesst? Gleiches gilt auch fuer G71; es hat eher NV die Dinger vorruebergehend im "Regen stehen lassen" fuer neuere Spiele, weil man sich zu stark auf den Vista Mist fuer G8x konzentriert.

Uebrigens gilt keiner der obrigen Nachteile der G7x Generation nicht mehr fuer G80.

Es wurde sogar argumentiert, dass R520 im damals neu erschienenen Fear untergehen würde, da man nicht genügend Shaderleistung für diesen so shaderlastigen Shooter bot. Kurioserweise war genau das Gegenteil der Fall. Etwas überrascht, schob man es auf die 512MB VRAM des R520. Als auch eine GTX512 in Fear nicht mithalten konnte, geriet man langsam in Erklärungnot. Ich bin mir sicher, dass man auch diesmal wieder vieles auf die höhere Bandbreite und den 1GB VRAM abwälzen wird, bis nV nachzieht, und man feststellen wird müssen, dass der Core doch nicht so schlecht ist.

Komischerweise half die Beseitigung der Treiberblase spaeter mehr als die Erscheinung der GTX 512. Das Problem der G70 gegen R520 war eigentlich nur die AA Leistung, denn ohne AA verlor die letztere gnadenlos. Als NV dann den Verlust von ca. 50+% auf ~40+% reduzierte, aenderte sich wieder dieses Bild und es sieht heute in etwa so aus:

http://www.digit-life.com/articles2/digest3d/1206/itogi-video-f-wxp-aaa-1600-pcie.html

Und wenn Du schon eine "Ausrede" fuer Bandbreite haben willst:

http://www.digit-life.com/articles2/digest3d/1206/itogi-video-f-wxp-aaa-2560-pcie.html

....es gibt wohl doch keine.

Auch die Ingenieure bei ATi sind nicht dumm. Und diese benötigen mit Sicherheit keine 700mio Transitoren für fast die gleiche arithmetische Leistung wie bei R580, doppelte TMUs, vielleicht etwas aufgemotzte ROPs, und D3D10-Features. Für mich besteht momentan ein eklatanter Widerspruch zwischen den momentan bekannten, theoretischen Daten, und den prognostizieren Leistungswerten. Da ist sicherlich noch einiges im Busch, abwarten. Nachher kann man ja noch immer kritisieren.

Um einiges schneller als R580 wird R600 schon sein, sonst wuerde er ja gegen den G80 verlieren.

BTW, hatte nicht ATi bei sämtlichen Architekturen seit R300 die zusätzliche ADD immer unterschlagen bei den GFLOPs-Werten, und nur die MADDs gezählt?

Ja weil die ADD eben doch nicht in allen Faellen brauchbar ist, ganz im Gegenteil zu dem was ATI neuestens behauptet. Seitdem aber sie es mitzaehlen, zaehle ich es brav auch immer mit. Ein theoretisches Maximum ist eben das was es heisst und keine realistische Rate.

Ailuros
2007-02-20, 10:15:11
Kleinigkeit die womoeglich den meisten hier ueber den Kopf geflogen ist:

http://www.theinquirer.net/default.aspx?article=37641

Obwohl ich irgendwie bezweifle dass man fuer solches Zeug wirklich eine Unmenge an Bandbreite braucht, lass ich mich gerne eines besseren belehren. Wenn wahr waere es tatsaechlich fuer mich ein sehr guter Kaufgrund wenn ich endlich in der Zukunft auf Vista umsteige. Ich haette dann hypothetisch den Kauf und den Stromverbrauch einer neuen Soundkarte sofort eingespart (und von onboard audio Mist hab ich sowieso nie was gehalten).

seahawk
2007-02-20, 10:22:16
Naj, ob es ne richtige Soundkarte ersetzen kann ?

Aber immerhin erklärt es wofür Transistoren und Bandbreite gebraucht wurden.

Gast
2007-02-20, 10:33:45
Da steht nicht, dass die Karte die Soundberechnung übernimmt. Es überträge den Sound nur über die HDMI - Schnittstelle. Viel Spaß bei Spielen, wo die Sounds nicht vorgefertigt vorhanden sind.

Gast
2007-02-20, 10:38:42
Natürlich kann er. Es brauchen nur lauter vec2-Anweisungen kommen, und schon drehen die Hälfte der R580-ALUs Däumchen. Allerdings ist das sicherlich nicht die Regel.

Weißt oder hoffst du es?

PCGH_Carsten
2007-02-20, 11:15:09
Natürlich kann er. Es brauchen nur lauter vec2-Anweisungen kommen, und schon drehen die Hälfte der R580-ALUs Däumchen.
Oder gar MULs.... dann dritteln sich die FLOPs/clk auf allen Radeons sogar, denn in MADD+ADD ist nur ein einziges "M". Und das war eben auch die "Stärke" der Geforce - ihre bis zu 48 Shader-ALUs waren in dieser Hinsicht eben beinahe voll nutzbar, solange nicht durch Texturen gestalled. Radeons konnten bislang immer nur richtig gut und schnell addieren (s. auch PCGH 01/2007).

Gast
2007-02-20, 11:42:03
Und der G80 hat solche gröberen Flaschenhälse auf Grund der skalaren ALUs überhaupt nicht mehr?

Wie könnte da überhaupt der R600, wenn das MUL bei dem G80 noch aktiviert wird, dagegen bestehen, wenn er wie aktuell spekuliert SIMD ALUs besitzt?

Ausser seinen 800MHz muss imo doch noch mehr dahinter sein, damit man in nahezu jeder Hinsicht unerreichten G80 schlagen kann.

Diesmal wird es wohl für ATi richtig hart, immerhin ist der Gegner keine CineFX-"Krücke" mehr wie in den vorherigen 4 Jahren... ;)

Sterem
2007-02-20, 11:49:15
Und der G80 hat solche gröberen Flaschenhälse auf Grund der skalaren ALUs überhaupt nicht mehr?

Wie könnte da überhaupt der R600, wenn das MUL bei dem G80 noch aktiviert wird, dagegen bestehen, wenn er wie aktuell spekuliert SIMD ALUs besitzt?

Ausser seinen 800MHz muss imo doch noch mehr dahinter sein, damit man in nahezu jeder Hinsicht unerreichten G80 schlagen kann.

Diesmal wird es wohl für ATi richtig hart, immerhin ist der Gegner keine CineFX-"Krücke" mehr wie in den vorherigen 4 Jahren... ;)

Wie soll er bestehen?Was ist das denn für eine Negative Frage?Guck doch!Die X1950 XTX kann öfters sehr gut mit der 8800 mithalten.Für denn R600 wird es kein problem werden locker auf die 8800 werte zu kommen....

Gast
2007-02-20, 11:57:28
Wie soll er bestehen?Was ist das denn für eine Negative Frage?Guck doch!Die X1950 XTX kann öfters sehr gut mit der 8800 mithalten.
Das sollte man sich mit den passenden Treibern nochmal im März/April anschauen, in denen dann wahrscheinlich das MUL für generelle Anwendungen zur Verfügung steht und eben die noch vorhandenen Treiberblasen entfernt sind.
Da wird sich das Bild der X1950XTX, die gut mithalten kann wohl noch etwas verändern.

Zudem sollte man auch etwas in der Zukunft schauen, nämlich in Richtung der Games die für G80/R600 relevant sind und da sieht man im sehr shaderlastigen Oblivion, eben ein Vorsprung von 150% für die 8800GTX.

Ich bin gespannt, was ATi hier aufbieten will...

Sterem
2007-02-20, 11:59:27
Das sollte man sich mit den passenden Treibern nochmal im März/April anschauen, in denen dann wahrscheinlich das MUL für generelle Anwendungen zur Verfügung steht und eben die noch vorhandenen Treiberblasen entfernt sind.
Da wird sich das Bild der X1950XTX, die gut mithalten kann wohl noch etwas verändern.

Zudem sollte man auch etwas in der Zukunft schauen, nämlich in Richtung der Games die für G80/R600 relevant sind und da sieht man im sehr shaderlastigen Oblivion, eben ein Vorsprung von 150% für die 8800GTX.

Ich bin gespannt, was ATi hier aufbieten will...

Ati wird das Schiff schon wieder schauckeln,wie immer!

PCGH_Carsten
2007-02-20, 12:08:10
Wie soll er bestehen?Was ist das denn für eine Negative Frage?Guck doch!Die X1950 XTX kann öfters sehr gut mit der 8800 mithalten.
Ja, manchmal liegt Sie auf dem Level der GTS - nicht selten aber auch deutlich dahinter. Faktor zwei zur GTX ist keine Seltenheit. Der Gast hat schon recht, dass Ati es diesemal schwerer haben wir, als beim R580.

Aber die Verspätung kommt ja nicht von ungefähr. Es wäre vermessen anzunehmen, dass Ati die Zeit nicht genutzt hat, um den R600 soweit fit zu machen (Takt...), dass er den G80 schlagen kann.

Fragt sich halt nur, wieviel das legendäre vermisste MUL noch bringen kann. Mein Tipp: <10% in typischen Szenarien, da es ja nebenbei bisher auch noch ein wenig zu tun hat. Damit könnte sich der Abstand zum R600 allerdings ziemlich minimal gestalten.

Mr. Lolman
2007-02-20, 12:15:53
Oder gar MULs.... dann dritteln sich die FLOPs/clk auf allen Radeons sogar, denn in MADD+ADD ist nur ein einziges "M". Und das war eben auch die "Stärke" der Geforce - ihre bis zu 48 Shader-ALUs waren in dieser Hinsicht eben beinahe voll nutzbar, solange nicht durch Texturen gestalled. Radeons konnten bislang immer nur richtig gut und schnell addieren (s. auch PCGH 01/2007).

Ähm, man kann doch die ADDS für Muls missbrauchen, die drehen da sicher keine Däumchen.


Zudem sollte man auch etwas in der Zukunft schauen, nämlich in Richtung der Games die für G80/R600 relevant sind und da sieht man im sehr shaderlastigen Oblivion, eben ein Vorsprung von 150% für die 8800GTX.

Ich bin gespannt, was ATi hier aufbieten will...

http://www.xbitlabs.com/articles/video/display/gf8800-games_18.html

Ein X1900XT CF System sollte ähnliche Leistung bringen und das gibts um ~470€. Und 14x CF AA (6xMSAA + 2xSGSSAA) ist optisch deutlich besser als 16xCSAA (was tatsächlich nur ein 8xMSAA mit einer etwas schrägen Sampleverteilung ist)

mapel110
2007-02-20, 12:17:58
Ja, manchmal liegt Sie auf dem Level der GTS - nicht selten aber auch deutlich dahinter. Faktor zwei zur GTX ist keine Seltenheit. Der Gast hat schon recht, dass Ati es diesemal schwerer haben wir, als beim R580.

Aber die Verspätung kommt ja nicht von ungefähr. Es wäre vermessen anzunehmen, dass Ati die Zeit nicht genutzt hat, um den R600 soweit fit zu machen (Takt...), dass er den G80 schlagen kann.

Fragt sich halt nur, wieviel das legendäre vermisste MUL noch bringen kann. Mein Tipp: <10% in typischen Szenarien, da es ja nebenbei bisher auch noch ein wenig zu tun hat. Damit könnte sich der Abstand zum R600 allerdings ziemlich minimal gestalten.
Ich versteh nicht, was das gebracht hat, dass MUL "teilweise?!" deaktiviert zu lassen.

Hat ATI deshalb weniger an der Taktschraube gedreht?
Hätte nvidia nicht besser die wahre Performance freillegen sollen, damit ATI von vornherein gezwungen ist, noch mehr an der Taktschraube zu drehen und somit noch später auf den Markt kommt?

Fragen über Fragen, die erst in ein paar Wochen beantwortet werden.

Aber was ich auch nicht verstehe, bei den ersten Reviews werden normalerweise recht alte bzw lange verfügbare Treiber verwendet und wenn nvidia jetzt nicht bald mit dem Treiber rauskommt, wird ohne das MUL gebencht.
Das ist irgendwie unlogisch von nvidia. :|

Gast
2007-02-20, 12:26:29
Guck doch!Die X1950 XTX kann öfters sehr gut mit der 8800 mithalten.Für denn R600 wird es kein problem werden locker auf die 8800 werte zu kommen....

Du hast recht. Die 8800 GTS 320 hats schon schwer gegen die X1950 XTX.
Aber selbst die kleine 88/320 heizt der X1950 XTX in top titeln wie Gothic 3, Oblivion, Prey, Rainbow Six Vegas, HL2: Lost Coast und und und.......

Also an die 8800 GTS 320 Werte kommt der R600 Locker ran. IN dem punkt haste vollkommen recht. ;D

robbitop
2007-02-20, 12:29:39
Bei den komplexen Shadern mit dynamischen Branching bsw. ist der R580 teilweise verdammt nah dran.


das liegt an einer ähnlich guten Granularität und weniger an der Rechenleistung.

Gast
2007-02-20, 12:32:17
Ein X1900XT CF System sollte ähnliche Leistung bringen und das gibts um ~470€. Und 14x CF AA (6xMSAA + 2xSGSSAA) ist optisch deutlich besser als 16xCSAA (was tatsächlich nur ein 8xMSAA mit einer etwas schrägen Sampleverteilung ist)

Für den Preis bekommt man eine 8800GTX, die a) leiser, b) kühler und c) stromsparender ist.
Von der Leistung her ist sie gleichgut und in einigen Anwendungen sogar schneller.
16xCSAA ist kein 8xMSAA Modus, wie kommt man darauf?


Ich versteh nicht, was das gebracht hat, dass MUL "teilweise?!" deaktiviert zu lassen.

Es ist eine Compiler - Sache. Die "MUL", sollte sie existieren, wird zur Zeit für andere Dinge verwendet.

Das ist irgendwie unlogisch von nvidia.

Man kann wohl davon ausgehen, dass es zum Start des r600 einen XP und Vista - Treiber geben wird, welcher die Leistung in einigen Anwendungen steigern wird.
Das ist nicht unlogisch, da AMD nicht weiß, inwieweit sie den r600 pushen müssen, um vorne zu sein.

robbitop
2007-02-20, 12:35:42
Ähm, man kann doch die ADDS für Muls missbrauchen, die drehen da sicher keine Däumchen.

Das sollte man lieber lassen. Das kostet unheimlich viele Takte. Währenddessen kommen vieleicht wieder neue ADDs und die ALU ist dann blockiert.

Gast
2007-02-20, 12:35:47
Nicht zu vergessen, das X-Fire nur mit aktivierten Filterungspielchen funktioniert. Aber eine gute Filterqualität spielt für den AMD User ja seit November keine Rolle mehr,gell?

deekey777
2007-02-20, 12:36:31
Eigentlich ist 16x"CSAA" "8"xMSAA mit noch mehr CS-Anteil. Wo schon 8xMSAA nur 4xMSAA bietet, so bietet auch 16xMSAA auch nur 4xMSAA. Was die beiden Modi unterscheidet, sind der Antei der CS.
8Q und 16Q bieten 8xMSAA.

seahawk
2007-02-20, 12:37:57
Ich versteh nicht, was das gebracht hat, dass MUL "teilweise?!" deaktiviert zu lassen.

Hat ATI deshalb weniger an der Taktschraube gedreht?
Hätte nvidia nicht besser die wahre Performance freillegen sollen, damit ATI von vornherein gezwungen ist, noch mehr an der Taktschraube zu drehen und somit noch später auf den Markt kommt?

Fragen über Fragen, die erst in ein paar Wochen beantwortet werden.

Aber was ich auch nicht verstehe, bei den ersten Reviews werden normalerweise recht alte bzw lange verfügbare Treiber verwendet und wenn nvidia jetzt nicht bald mit dem Treiber rauskommt, wird ohne das MUL gebencht.
Das ist irgendwie unlogisch von nvidia. :|

Naja, erhöhter Treiberaufwand + neuer Compiler. Plötzlich muss man nicht nur ne ganz neue Generation von HArdware bearbeiten, die auch noch völlig von den Vorgängern abweicht, sondern auch noch für diese, als auch die alte Generation VISTA-Treiber erstellen.

Und es war sicher auch eine FUD Entscheidung um den R600 Launch zu beeinflussen. Wobei ich mir heute sicher bin, dass ATI kein Risiko einging und den G80 mit oder ohne MUL deutlich distanzieren wird.

Gast
2007-02-20, 12:38:28
http://www.xbitlabs.com/articles/video/display/gf8800-games_18.html

Ein X1900XT CF System sollte ähnliche Leistung bringen und das gibts um ~470€. Und 14x CF AA (6xMSAA + 2xSGSSAA) ist optisch deutlich besser als 16xCSAA (was tatsächlich nur ein 8xMSAA mit einer etwas schrägen Sampleverteilung ist)

Wie man hier sieht brauch es für die ähnliche bzw. leicht unterlegene Leistung eben mal 750GFLOPs und 128GB/s und die ATi-Treiber sind zudem auch noch sehr stark optimiert.

Und es ist fraglich ob der R600 mit ähnlich gereiften Treibern an den Start gehen wird.

Gast
2007-02-20, 12:39:42
Eigentlich ist 16x"CSAA" "8"xMSAA mit noch mehr CS-Anteil. Wo schon 8xMSAA nur 4xMSAA bietet, so bietet auch 16xMSAA auch nur 4xMSAA. Was die beiden Modi unterscheidet, sind der Antei der CS.
8Q und 16Q bieten 8xMSAA.

???
Was willst du uns sagen?

Mr. Lolman
2007-02-20, 12:41:50
Für den Preis bekommt man eine 8800GTX, die a) leiser, b) kühler und c) stromsparender ist.
Von der Leistung her ist sie gleichgut und in einigen Anwendungen sogar schneller.
16xCSAA ist kein 8xMSAA Modus, wie kommt man darauf?

http://developer.nvidia.com/object/coverage-sampled-aa.html

16xQAA hat zwar 16 Z-Samples aber nur 8 Colorsamples. Die Z-Samples sind eigentlich für die Katz, weil die Colorsamples die wichtigen Zwischenstufen erzeugen. Durch die Z-Samples werden sie anscheinend nur noch zusätzlich verschoben, was in einer ungleichmässigen Abstufung resultiert. Ich zähl da am linken unteren 16xQAA Screenshot nur 5 Zwischenstufen....

Und ob die G80 im idle tatsächlich stromsparender ist, ist fraglich. Bei ATi haste dafür mit 14xAA wohl den geilsten AA Modus der aktuell auf GraKas verfügbar ist (ich würd den zusammen gern mal mit EATM sehen) und eine Performance in dem selbigen, die mit einem G80 ohne SSAA konkurriert.

Andererseits kann man aus den Zahlen auch rauslesen, dass eine X1950XTX mit 6xMSAA in Oblivion ähnlich schnell sein dürfte, wie eine 8800GTX mit 16xCSAA (=8xAA).

deekey777
2007-02-20, 12:42:22
???
Was willst du uns sagen?

Nicht viel. Ich hätte mir weniger Zeit beim Schreiben nehmen sollen, dann hätte das Posting mehr Sinn ergeben (er wäre an richtiger Stelle).
Weder 16xMSAA noch 8xMSAA können mit 14xSuperAA mithalten.

Mr. Lolman
2007-02-20, 12:43:51
Das sollte man lieber lassen. Das kostet unheimlich viele Takte. Währenddessen kommen vieleicht wieder neue ADDs und die ALU ist dann blockiert.

Imo wird der Shaderkompiler die schon optimal zu nutzen wissen...

Wie man hier sieht brauch es für die ähnliche bzw. leicht unterlegene Leistung eben mal 750GFLOPs und 128GB/s und die ATi-Treiber sind zudem auch noch sehr stark optimiert.

Und es ist fraglich ob der R600 mit ähnlich gereiften Treibern an den Start gehen wird.

Dafür hat man SGSSAA aktiv, wo sich die Konkurrenz mit (imo suboptimalem) MSAA herumschlägt.

Gast
2007-02-20, 12:45:46
Auch kein 32xS AA? ;)

Zudem kann man wohl annehmen, dass der R600 das hier verherrlichte 14x CF-AA nicht bieten wird als Einzelkarte.


Momentan sieht es doch eher nach maximal 12xMSAA(wer brauch das?) und TMAA aus.

robbitop
2007-02-20, 12:47:55
Imo wird der Shaderkompiler die schon optimal zu nutzen wissen...

IMO macht der Shadercompiler so einen humbug nicht. ;)


Dafür hat man SGSSAA aktiv, wo sich die Konkurrenz mit (imo suboptimalem) MSAA herumschlägt.
Her hat SGSSAA aktiv? Außer 3dfx kenne ich keinen, der das "aktiv" hat.

Gast
2007-02-20, 12:51:06
Dafür hat man SGSSAA aktiv, wo sich die Konkurrenz mit (imo suboptimalem) MSAA herumschlägt.

Dafür ist man aber auch deutlich schneller(1920x1200 ausgenommen wo eben die höhere Bandbreite des X1950 CF zum tragen kommt)

Weiterhin wirkt das von die hier genannte (CF-)SGSSAA AFAIK nicht auf die Flimmershader, wo man bei G80 eben Hybridmodis aktivieren kann.

Selbst wenn wäre es wohl für Nvidia kein Problem SGSSAA zu ermöglichen, aber der Markt interessiert sich halt nicht dafür.

Gast
2007-02-20, 12:53:28
16xQAA hat zwar 16 Z-Samples aber nur 8 Colorsamples. Die Z-Samples sind eigentlich für die Katz, weil die Colorsamples die wichtigen Zwischenstufen erzeugen. Durch die Z-Samples werden sie anscheinend nur noch zusätzlich verschoben, was in einer ungleichmässigen Abstufung resultiert. Ich zähl da am linken unteren 16xQAA Screenshot nur 5 Zwischenstufen....

Und?

Und ob die G80 im idle tatsächlich stromsparender ist, ist fraglich. Bei ATi haste dafür mit 14xAA wohl den geilsten AA Modus der aktuell auf GraKas verfügbar ist (ich würd den zusammen gern mal mit EATM sehen) und eine Performance in dem selbigen, die mit einem G80 ohne SSAA konkurriert.

Ja, ich habe ein Vorteil. Für dich scheint dieser die unzähligen Nachteile aufzuwiegen.
Doch der Rest der Bevölkerung in diesem Universium wird eine 8800GTX einem X1950XTX Crossfire - System vorziehen.

Andererseits kann man aus den Zahlen auch rauslesen, dass eine X1950XTX mit 6xMSAA in Oblivion ähnlich schnell sein dürfte, wie eine 8800GTX mit 16xCSAA (=8xAA).

Der Konkurrenzmodus zu 6xMSAA ist 16xCSAA. Warum sollte man einen deutlich überlegenden Modus gegen einen minderwertigen Setzen?!

Mr. Lolman
2007-02-20, 12:54:25
Auch kein 32xS AA? ;)


Naja. Das 8xMSAA Grid des G80 ist IMO nicht optimal (die Samples sind etwas ungleichmässig verteilt) und ein 2x2OGSSAA hat auch nur ein 2x2EER.

Letztendendes hast du mit 32xS wohl nur etwas mehr als ein Viertel der Performance von 16xQ AA und ein 16x16EER (welches sogar trotz OGSSAA noch Verbesserungspotential hätte). Das steht gegen ein 12x12EER von ATis CF-AA.

Mal abgesehen davon, dass die Hybrid-AA Modi momentan nur unter einem einzigen Vistatreiber funzen, und der X1900XTX CF-Spieler seine GraKas schon u.U. über einem Jahr in seinem Rechner hat.

Sterem
2007-02-20, 12:56:50
Du hast recht. Die 8800 GTS 320 hats schon schwer gegen die X1950 XTX.
Aber selbst die kleine 88/320 heizt der X1950 XTX in top titeln wie Gothic 3, Oblivion, Prey, Rainbow Six Vegas, HL2: Lost Coast und und und.......

Also an die 8800 GTS 320 Werte kommt der R600 Locker ran. IN dem punkt haste vollkommen recht. ;D
Sollte das jetzt lustig gewesen sein!?;D :P

Gast
2007-02-20, 12:57:46
Bei ATi haste dafür mit 14xAA wohl den geilsten AA Modus der aktuell auf GraKas verfügbar istDu weißt ganz genau, dass es kein 14x-Modus ist. Warum bezeichnest du ihn dann so?