Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation, Teil 9


Seiten : 1 2 3 [4]

Super Grobi
2007-05-02, 10:45:50
Täusch ich mich? Solte nicht heute der Verkauf beginnen?

SG

deekey777
2007-05-02, 10:49:25
Täusch ich mich? Solte nicht heute der Verkauf beginnen?

SG
Ein Blick auf die letzte Seite hätte deine Frage beantwortet, ohne dass du sie stellen musstest. ;(

Lawmachine79
2007-05-02, 11:01:03
Warum sollte 16xQ teurer sein als 8xS? Wenn es keine Bug gibt, dann ist 16xQ "billiger" als 8xS und das sehr deutlich.
Du unterschätzt die Auswirkungen von 4 zusätzlichen Polygonsamples - klar kosten die keine Füllrate - dafür aber Bandbreite - und ich behaupte mehr Bandbreite als eine Achse komplett doppelt zu samplen. Wenn 16xQ also mehr Bandbreite kostet als 8xS und man an den Punkt ankommt, wo die Bandbreite nicht mehr ausreicht, ist, bei ausreichender Füllratenreserve, 8xS sogar schneller.

AnarchX
2007-05-02, 11:53:03
His hat wohl keine Lust mehr bis zum 14. zu warten:
http://www.hisdigital.com/html/product_ov.php?id=304&view=yes
:D

dargo
2007-05-02, 11:58:18
His hat wohl keine Lust mehr bis zum 14. zu warten:
http://www.hisdigital.com/html/product_ov.php?id=304&view=yes
:D
Was ist jetzt aus Call of Juarez mit D3D10 geworden :confused:

Superheld
2007-05-02, 12:02:09
heut fällt wohl doch die NDA:smile:

AnarchX
2007-05-02, 12:14:36
HD 2900XT @ STALKER:
HD 2900XT:
http://img443.imageshack.us/img443/8630/200705029e34f00a8b1f557mx3.th.jpg (http://img443.imageshack.us/my.php?image=200705029e34f00a8b1f557mx3.jpg)
42 FPS

Referenzwerte:
http://img443.imageshack.us/img443/1458/44888hc7.gif
http://www.digital-daily.com/video/stalker_test/


source (http://chiphell.com/viewthread.php?tid=3407&extra=page%3D1&page=25)

Nicht brauchbar, da alter FW97.xx. Vielleicht kann aber jemand neuere Werte liefern. ;)

Gandharva
2007-05-02, 12:20:20
8800 Ultra & X2900 XT:

http://resources.vr-zone.com/newzhunter/8800Uvs2900XT-1.jpg

http://resources.vr-zone.com/newzhunter/8800Uvs2900XT-2.jpg

http://resources.vr-zone.com/newzhunter/8800Uvs2900XT-3.jpg


8800 GTS + X2900 XT + 8800 GTX:

http://resources.vr-zone.com/newzhunter/HD2900-13.jpg


2900 XTX & 2900 XT:
http://resources.vr-zone.com/newzhunter/HD2900card-4.jpg


Quelle: http://forums.vr-zone.com/showthread.php?t=148501

Godmode
2007-05-02, 12:28:50
HD 2900XT @ STALKER:
42 FPS


Die GTX scheint hier am CPU Limit zu hängen, genau wie die Radeon! Tests ohne AA/AF sind IMO sowiso ziemlich sinnfrei!

Gast
2007-05-02, 12:30:54
Nicht brauchbar, da alter FW97.xx. Vielleicht kann aber jemand neuere Werte liefern. ;)

Der Treiber scheint egal zu sein, da die CPU hier klar limitiert.
Abgesehen davon sollen die endlich mal richtige Werte rausrücken. Kann ja nicht so schwer sein, irgendwelche Benchmarks durchlaufen zu lassen!

Mr. Lolman
2007-05-02, 12:45:17
Der Treiber scheint egal zu sein, da die CPU hier klar limitiert.

Die Stelle ist eindeutig GPU-limitiert (@X1900XTX)

1024x768, max Details, max AF: ~38-39fps
1280x1024, max Details, max AF: ~30-31fps

Die GTX scheint hier am CPU Limit zu hängen, genau wie die Radeon! Tests ohne AA/AF sind IMO sowiso ziemlich sinnfrei!

Die Stelle ist mit meinem Singlecore AMD64@3GHz noch in 1024x768 klar GPU-limitiert...

800x600, max Details, max AF: ~49-50fps

Ronny145
2007-05-02, 12:50:55
Die Stelle ist eindeutig GPU-limitiert (@X1900XTX)

1024x768, max Details, max AF: ~38-39fps
1280x1024, max Details, max AF: ~30-31fps



Die Stelle ist mit meinem Singlecore AMD64@3GHz noch in 1024x768 GPU limitiert...


Bei deiner Karte schon, aber 8800 GTX und scheinbar X2900XT nicht mehr. Siehe dem Test. Die GTS skaliert noch von 30 zu 41. Bei der GTX von 42 auf 43. Worann erkennst du die Limitierung in 1024x768?

Mr. Lolman
2007-05-02, 12:51:38
Worann erkennst du die Limitierung in 1024x768?

Siehe edit...

Godmode
2007-05-02, 13:00:08
Die Stelle ist eindeutig GPU-limitiert (@X1900XTX)

1024x768, max Details, max AF: ~38-39fps
1280x1024, max Details, max AF: ~30-31fps



Die Stelle ist mit meinem Singlecore AMD64@3GHz noch in 1024x768 klar GPU-limitiert...

800x600, max Details, max AF: ~49-50fps

Kostet AF also hier nichts, oder wie ist es möglich das du die selben Ergebnisse wie in den Diagrammen von Dailytech erreichst?

Zum CPU Limit: Also für mich sieht es bei der 8800 GTX klar nach CPU Limit aus. Sie verliert von 1024 auf 1600 gerade mal 1,4 FPS! Mit Radeon meinte ich die 2900, wobei man hier auch für alle drei Auflösungen die Ergebnisse bräuchte um Schlüsse ziehen zu können.

Gast
2007-05-02, 13:01:22
Die Stelle ist eindeutig GPU-limitiert (@X1900XTX)

1024x768, max Details, max AF: ~38-39fps
1280x1024, max Details, max AF: ~30-31fps


Bei dir, bei dem Test nicht.
Er hat doch klar die SKalierung anhand der Erhöhung der Taktrate der CPU gezeigt. Der einzige Schluss daraus ist, dass bei dynamischen Licht und allen Goddies auf "on" die CPU bei der GTX noch in 16*12, bei der gts noch in 12*10 limitiert.

Gast
2007-05-02, 13:07:13
heut fällt wohl doch die NDA:smile:

Hoffentlich.

Gast
2007-05-02, 13:14:13
Bin ich BLind oder liegt die X2900 XT weit hinter der 8800 GTS bei Stalker?

Mr. Lolman
2007-05-02, 13:15:55
Kostet AF also hier nichts, oder wie ist es möglich das du die selben Ergebnisse wie in den Diagrammen von Dailytech erreichst?


Ingame-AF kostet an der Stelle nix. Treiber-AF hab ich nicht getestet.


Zum CPU Limit: Also für mich sieht es bei der 8800 GTX klar nach CPU Limit aus. Sie verliert von 1024 auf 1600 gerade mal 1,4 FPS! Mit Radeon meinte ich die 2900, wobei man hier auch für alle drei Auflösungen die Ergebnisse bräuchte um Schlüsse ziehen zu können.

Bei dir, bei dem Test nicht.
Er hat doch klar die SKalierung anhand der Erhöhung der Taktrate der CPU gezeigt. Der einzige Schluss daraus ist, dass bei dynamischen Licht und allen Goddies auf "on" die CPU bei der GTX noch in 16*12, bei der gts noch in 12*10 limitiert.

Ja keine Ahnung, was die da genau getestet haben. Ich hab einfach die Szene nachgestellt und die fps abgelesen...


Bin ich BLind oder liegt die X2900 XT weit hinter der 8800 GTS bei Stalker?

Es könnte ja auch jemand ner GTS die Stelle schnell testen. Das bringt eher Gewissheit, als einen Screenshot mit Zahlen aus einem Diagramm zu vergleichen...

James Ryan
2007-05-02, 13:18:25
Hoffentlich.

Das NDA fällt am 14.5.

MfG :cool:

Gast
2007-05-02, 13:25:28
Das NDA fällt am 14.5.

MfG :cool:

Jo aber heute darf jeder sein Review präsentieren.;)

Ronny145
2007-05-02, 13:28:54
Jo aber heute darf jeder sein Review präsentieren.;)


Wenn das NDA am 14. fällt, dann nicht.

James Ryan
2007-05-02, 13:30:02
Jo aber heute darf jeder sein Review präsentieren.;)

Du wirst heute kein einziges R600 Review lesen können.

MfG :cool:

Gast
2007-05-02, 14:01:24
Das NDA fällt am 14.5.

MfG :cool:

Wann das NDA fällt ist normalerweise Teils des NDA also wird es wohl nicht der 14.5 sein. Oder gab es schon NDA-Brecher?

Gast
2007-05-02, 14:01:43
da muss ich dem Prasi recht geben. die zwei wochen werden wir auch noch überstehen.

Lawmachine79
2007-05-02, 14:07:32
da muss ich dem Prasi recht geben. die zwei wochen werden wir auch noch überstehen.
Wobei es ja Gerüchte gibt, daß es erst im Juli passiert - naja, dann man das mit den G100 Reviews bundlen ;D

Heidewitzka
2007-05-02, 14:10:06
ich dachte das sommer gerücht bezog sich nur auf dieXTX

James Ryan
2007-05-02, 14:16:01
ich dachte das sommer gerücht bezog sich nur auf die XTX

Ist auch mein letzter Wissensstand. Die Frage ist nur ob das überhaupt Sinn macht.

MfG :cool:

Gast
2007-05-02, 14:18:41
Woran machst du das fest? Ich finde 16x auf G80 meistens besser als 8xQ.

Weil 8xQ 8 volle MSAA Samples verwendet und 16x nur 4?
Natürlich kann man sich jetzt darüber streiten was besser aussieht. 8x sparsed gibt aber wohl auf jeden Fall das homogenere Bild.

Gast
2007-05-02, 14:24:19
Bin ich BLind oder liegt die X2900 XT weit hinter der 8800 GTS bei Stalker?

Nee die liegt auf GTX Niveau zumindest in 12*10. Mehr Infos gibts halt noch nicht.

Lawmachine79
2007-05-02, 14:26:37
Weil 8xQ 8 volle MSAA Samples verwendet und 16x nur 4?
Natürlich kann man sich jetzt darüber streiten was besser aussieht. 8x sparsed gibt aber wohl auf jeden Fall das homogenere Bild.

16x KANN besser aussehen als 8xQ. Die "GARANTIERTE MINDESTBILDQUALITÄT" (falls man das so nennen kann) ist aber bei 8xQ besser. Bei einem günstigen Szenario, kann es bei 16x besser aussehen obwohl es deutlich (!) weniger Leistung kostet als 8xQ. Typisches Beispiel sind halt Szenarien, wo man mit Stencil-Schatten um sich wirft - hier bringt 8xQ deutlich mehr während 16x genauso wie 4x aussehen wird.

deekey777
2007-05-02, 15:14:43
Du unterschätzt die Auswirkungen von 4 zusätzlichen Polygonsamples - klar kosten die keine Füllrate - dafür aber Bandbreite - und ich behaupte mehr Bandbreite als eine Achse komplett doppelt zu samplen. Wenn 16xQ also mehr Bandbreite kostet als 8xS und man an den Punkt ankommt, wo die Bandbreite nicht mehr ausreicht, ist, bei ausreichender Füllratenreserve, 8xS sogar schneller.

Was für zusätzliche Polygonsamples und dafür noch 4 davon?
http://www.digit-life.com/articles2/video/g80-3.html
Bei 8xS kommen pro "Kanten"-Pixel vier Subpixel, durch den SS-Anteil verdoppelt sich der Anteil an "Kanten"-Pixeln in eine Richtung (vertikal oder horizontal). Blöd gesagt: 1280*1024+8xS ist gleich 1280*2048+4xMSAA auf 1280*1024 herunterskaliert. Es kostet mehr Bandbreite und deutlich mehr an Füllrate, da auch das "Innere" der Polygone von der Verdopplung der Auflösung erfasst wird.

Lawmachine79
2007-05-02, 15:28:12
Was für zusätzliche Polygonsamples und dafür noch 4 davon?
http://www.digit-life.com/articles2/video/g80-3.html
Bei 8xS kommen pro "Kanten"-Pixel vier Subpixel, durch den SS-Anteil verdoppelt sich der Anteil an "Kanten"-Pixeln in eine Richtung (vertikal oder horizontal). Blöd gesagt: 1280*1024+8xS ist gleich 1280*2048+4xMSAA auf 1280*1024 herunterskaliert. Es kostet mehr Bandbreite und deutlich mehr an Füllrate, da auch das "Innere" der Polygone von der Verdopplung der Auflösung erfasst wird.
Ich meinte zusätzliche PolygonKANTENsamples - mein Fehler. Es müssen pro Polygonkantenpixel 4 extra Subpixel berechnet werden - bei 8xMSAA gg. 4xMSAA. Bei 8xS wird für JEDEN Pixel auf der Horizontalen ZWEI zusätzliche Subpixel berechnet. Nun wird die Hälfte der vertikalen Pixel nicht aus Polygonkanten bestehen - das ist richtig. ABER ich glaube daß mehr "Verwaltungsaufwand" bei 8xMSAA entsteht - schließlich muss geprüft werden, ob der jeweilige Pixel überhaupt eine Polygonkante ist - bei MSAA muss ja "selektiv gerechnet" werden, bei SSAA wird einfach JEDER Pixel ohne zusätzliche Prüfung "gemacht". Ich werde nachher mal Vergleichbenches 8xS vs. 16xQ machen.

Ferengie
2007-05-02, 15:43:09
Wobei es ja Gerüchte gibt, daß es erst im Juli passiert - naja, dann man das mit den G100 Reviews bundlen

Die Ultra hat wenigstens schon heute deutsche Reviews.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/24/#abschnitt_performancerating_qualitaet
Hab eigentlich gedacht nVidia wartet damit bis die ATi draussen ist? Gabs für die Ultra sowas auch wie ne NDA?

Gast
2007-05-02, 15:47:31
xD, die 8800Ultra ist reistes Prestige-Objekt um die Performance-krone.

Wer sich als rationaler Enduser so was erwirbt, dem ist nicht mehr zu helfen.......

Noch mehr Stromverbrauch, sehr sehr teuer im Vergleich zu der 8800GTX wahrscheinlich, und der Performance-Sprung ist ja mal wirklich toll.......Als wenn man nicht selber übertakten kann......

zur HD2900XT: ich will endlich Reviews sehen! Aber ich vermute, dass die Karte net so der Hammer sein wird.....mal kucken wie die Preise dann sind.

Aquaschaf
2007-05-02, 15:59:53
ABER ich glaube daß mehr "Verwaltungsaufwand" bei 8xMSAA entsteht

Der "Verwaltungsaufwand" ist aber gratis.

Lawmachine79
2007-05-02, 16:04:42
xD, die 8800Ultra ist reistes Prestige-Objekt um die Performance-krone.

Wer sich als rationaler Enduser so was erwirbt, dem ist nicht mehr zu helfen.......

Noch mehr Stromverbrauch, sehr sehr teuer im Vergleich zu der 8800GTX wahrscheinlich, und der Performance-Sprung ist ja mal wirklich toll.......Als wenn man nicht selber übertakten kann......

zur HD2900XT: ich will endlich Reviews sehen! Aber ich vermute, dass die Karte net so der Hammer sein wird.....mal kucken wie die Preise dann sind.
Wenn ich 8 Mille im Monat hätte würde ich mir als rationaler Enduser sogar zwei davon zulegen ;D

Gast
2007-05-02, 16:14:53
Wenn ich 8 Mille im Monat hätte würde ich mir als rationaler Enduser sogar zwei davon zulegen ;D

-.-.........xD

Ich würde das Geld dann lieber in ein Wasserkühlungssystem stecken, das hat den Vorteil, dass man noch höher ocen kann und fast das komplette System sehr leise ist!

Anderen Falls würde ich lieber das Geld in Pokern vorzocken, als in eine 8800Ultra zu investieren....

Aber dank ATIs toller Arbeit wird sich am Preis der 8800GTX nichst ändern, da die 2900XTX, wann weiß ich wann kommt.............when It's done.........-.-

crux2005
2007-05-02, 16:28:42
HD 2900XT @ STALKER:
HD 2900XT:
http://img443.imageshack.us/img443/8630/200705029e34f00a8b1f557mx3.th.jpg (http://img443.imageshack.us/my.php?image=200705029e34f00a8b1f557mx3.jpg)
42 FPS

Referenzwerte:
http://img443.imageshack.us/img443/1458/44888hc7.gif
http://www.digital-daily.com/video/stalker_test/


source (http://chiphell.com/viewthread.php?tid=3407&extra=page%3D1&page=25)

Nicht brauchbar, da alter FW97.xx. Vielleicht kann aber jemand neuere Werte liefern. ;)


Die Stelle ist eindeutig CPU limitiert.
Mit einem C2D @ 3.2GHz, 8800GTX @ default, FW 158.19 habe ich 45/46 Fps - das gleiche mit G80@ 620/1440/1000 MHz

AF on/max oder off macht keinen Unterschied

R300
2007-05-02, 16:34:05
Bei Stalker ist eh fast alles CPU limitiert... Jedes mal wenn Stalker bei mir Ruckelt ist die CPU schuld. Und ich habe schon einen C2D@3,2GHz:|

Coda
2007-05-02, 16:41:35
Ich meinte zusätzliche PolygonKANTENsamples - mein Fehler. Es müssen pro Polygonkantenpixel 4 extra Subpixel berechnet werden - bei 8xMSAA gg. 4xMSAA. Bei 8xS wird für JEDEN Pixel auf der Horizontalen ZWEI zusätzliche Subpixel berechnet. Nun wird die Hälfte der vertikalen Pixel nicht aus Polygonkanten bestehen - das ist richtig. ABER ich glaube daß mehr "Verwaltungsaufwand" bei 8xMSAA entsteht - schließlich muss geprüft werden, ob der jeweilige Pixel überhaupt eine Polygonkante ist - bei MSAA muss ja "selektiv gerechnet" werden, bei SSAA wird einfach JEDER Pixel ohne zusätzliche Prüfung "gemacht". Ich werde nachher mal Vergleichbenches 8xS vs. 16xQ machen.
Sorry, aber du hast keine Ahnung von was du redest. Supersampling ist verdammt viel teurer als jegliches Multisampling, allein schon weil man bei MSAA Framebufferkompression anwenden kann und somit extrem Bandbreite schont.

Lawmachine79
2007-05-02, 16:51:18
Sorry, aber du hast keine Ahnung von was du redest. Supersampling ist verdammt viel teurer als jegliches Multisampling, allein schon weil man bei MSAA Framebufferkompression anwenden kann und somit extrem Bandbreite schont.
Ich habe nicht annähernd soviel Ahnung davon wie Du, da mache ich keinen Hehl draus - aber man darf nicht vergessen, daß es nicht um 4x4 vs. 4xMSAA geht sondern um 1x2 vs. zusätzliche 4xMSAA

Edit:
Fear, Max Detail, Softshadows Off, 1680x1050, HQ im Treiber, 16xAF, AA&AF via Treiber erzwungen:
16xQ: 16/30/78
8xS: 19/33/76
So. Jetzt kannst Du mich meinentwegen weiter als b00n bezeichnen. Ich will Dir hier keine Kompetenz absprechen, aber die Zahlen sprechen für sich.
Edit 2:
VST, Max Detail, Rest wie bei Fear:
16xQ: 143 fps
8xS: 135 fps
Hier gewinnt 16xQ, knapp.

Edit 3:
Fear, gleiche Settings, jetzt aber mit übertakteter GTS (612Mhz)
16xQ: 17/32/80
8xS: 21/37/84
Deutet darauf hin, daß der 88GTS die beim Vergleich 16xQ/8xS ERST die Bandbreite und DANN die Füllrate ausgeht (um das zu zeigen, habe ich den Speicher NICHT OC'ed) - mit einer GTX müsste der Effekt theroretisch noch höher sein, da von GTS --> GTX die Füllrate mehr ansteigt als die Bandbreite.

Slipknot79
2007-05-02, 17:11:11
Ich habe nicht annähernd soviel Ahnung davon wie Du, da mache ich keinen Hehl draus - aber man darf nicht vergessen, daß es nicht um 4x4 vs. 4xMSAA geht sondern um 1x2 vs. zusätzliche 4xMSAA

Edit:
Fear, Max Detail, Softshadows Off, 1680x1050, HQ im Treiber, 16xAF, AA&AF via Treiber erzwungen:
16xQ: 16/30/78
8xS: 19/33/76
So. Jetzt kannst Du mich meinentwegen weiter als b00n bezeichnen. Ich will Dir hier keine Kompetenz absprechen, aber die Zahlen sprechen für sich.
Edit 2:
VST, Max Detail, Rest wie bei Fear:
16xQ: 143 fps
8xS: 135 fps
Hier gewinnt 16xQ, knapp.


Andere Games auch getestet? Oo

Gast
2007-05-02, 17:14:10
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/mai/panne_his_ati_radeon_hd_2900_xt/

- d2kx

Gast
2007-05-02, 17:18:53
alt?

Gast
2007-05-02, 18:41:31
Ich habe nicht annähernd soviel Ahnung davon wie Du, da mache ich keinen Hehl draus - aber man darf nicht vergessen, daß es nicht um 4x4 vs. 4xMSAA geht sondern um 1x2 vs. zusätzliche 4xMSAA

Edit:
Fear, Max Detail, Softshadows Off, 1680x1050, HQ im Treiber, 16xAF, AA&AF via Treiber erzwungen:
16xQ: 16/30/78
8xS: 19/33/76
So. Jetzt kannst Du mich meinentwegen weiter als b00n bezeichnen. Ich will Dir hier keine Kompetenz absprechen, aber die Zahlen sprechen für sich.
Edit 2:
VST, Max Detail, Rest wie bei Fear:
16xQ: 143 fps
8xS: 135 fps
Hier gewinnt 16xQ, knapp.

Edit 3:
Fear, gleiche Settings, jetzt aber mit übertakteter GTS (612Mhz)
16xQ: 17/32/80
8xS: 21/37/84
Deutet darauf hin, daß der 88GTS die beim Vergleich 16xQ/8xS ERST die Bandbreite und DANN die Füllrate ausgeht (um das zu zeigen, habe ich den Speicher NICHT OC'ed) - mit einer GTX müsste der Effekt theroretisch noch höher sein, da von GTS --> GTX die Füllrate mehr ansteigt als die Bandbreite.

Das gehört zwar nicht in diesen Thread, aber du darfst nicht vergessen was die ROPs bei 16xQ machen. 8x Loopen und in wieweit CSAA da nochmal was benötigt is glaube unbekannt. Ist nicht Füllrate sondern Z Leistung die dann abgeht oder? Der AA Artikel hier im 3DCenter ist ja auch etwas älteren Datums und wie das mit heutiger Hardware genau funktioniert lässt sich da net rauslesen.

micki
2007-05-02, 18:51:08
Es müssen pro Polygonkantenpixel 4 extra Subpixel berechnet werden eigentlich muss das nicht, es muessen nur 4 z-buffer vergleiche gemacht werden um rauszufinden in welche screen-pixel man den einen berechneten pixel mit nur der einen z-tiefe setzt. das ist also bis von der shaderarbeit kein mehraufwand.
falls natuerlich 4 verschiedene polys auf ein pixel zeichnen (bzw die 4 subpixel) dann hast du natuerlich mehraufwand.

Coda
2007-05-02, 18:55:38
8x Loopen und in wieweit CSAA da nochmal was benötigt is glaube unbekannt.
4x.

Addy
2007-05-02, 19:32:47
Für die Übersicht:

Aus Computerbase Kommentaren (http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/mai/panne_his_ati_radeon_hd_2900_xt/)

http://img478.imageshack.us/img478/4903/his1as5.jpg
http://img384.imageshack.us/img384/6908/his2zs1.jpg
http://img483.imageshack.us/img483/8017/his3va6.jpg

Gmax
2007-05-02, 19:40:18
Für die Übersicht:

Aus Computerbase Kommentaren (http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/mai/panne_his_ati_radeon_hd_2900_xt/)

http://img478.imageshack.us/img478/4903/his1as5.jpg
http://img384.imageshack.us/img384/6908/his2zs1.jpg
http://img483.imageshack.us/img483/8017/his3va6.jpg

Schade, von HIS hatte ich mir eine etwas eigenständigeren
Lüfter gewünscht. Vieleeicht kommt er ja noch.

Gast
2007-05-02, 19:45:51
4x.

Und das CSAA wird "on the fly" angewand? Ist ja nicht vergleichbar was ATI mit seinem Filter da macht oder?

Black-Scorpion
2007-05-02, 19:48:02
Schade, von HIS hatte ich mir eine etwas eigenständigeren
Lüfter gewünscht. Vieleeicht kommt er ja noch.
Seit wann bringt HIS seine IceQ Karten gleich am Anfang?
Die kamen/kommen immer etwas später.

Lawmachine79
2007-05-02, 19:50:01
Das gehört zwar nicht in diesen Thread, aber du darfst nicht vergessen was die ROPs bei 16xQ machen. 8x Loopen und in wieweit CSAA da nochmal was benötigt is glaube unbekannt. Ist nicht Füllrate sondern Z Leistung die dann abgeht oder? Der AA Artikel hier im 3DCenter ist ja auch etwas älteren Datums und wie das mit heutiger Hardware genau funktioniert lässt sich da net rauslesen.
MIR musst Du nicht sagen, daß 8xMSAA auch ein Leistungskiller ist. CSAA hat nahezu keine Auswirkungen auf die Performance. Wo 4xMSAA möglich ist, ist auch 16xCSAA möglich. Mir geht es nur darum, aufzuzeigen, daß 8xS nicht langsamer als 16xQ ist, bei besserer BQ.

Super Grobi
2007-05-02, 20:08:04
Schade, von HIS hatte ich mir eine etwas eigenständigeren
Lüfter gewünscht. Vieleeicht kommt er ja noch.

Du kennst den Kühler der X2900 doch garnicht. Also was wünscht du dir von HIS? Einen klackernden Lüfter, damit die Karte mit dem deftigen Aufpreis lauter ist, als mit dem Default?

SG

sulak
2007-05-02, 20:18:11
MIR musst Du nicht sagen, daß 8xMSAA auch ein Leistungskiller ist. CSAA hat nahezu keine Auswirkungen auf die Performance. Wo 4xMSAA möglich ist, ist auch 16xCSAA möglich. Mir geht es nur darum, aufzuzeigen, daß 8xS nicht langsamer als 16xQ ist, bei besserer BQ.

CSAA fällt wohl eher in den Raum "Geschmackssache". Viele haben die Screenshots aus HL2 mit den Stromleitungen abgeschreckt, weil die leicht "ausfranzen" bei 16xQ. Wenn man ranzoomt sieht man halt die vielen Zusatz Pixel die in verschiedenen Graustufen da mit eingeschoben werden, was genau an dem Beispiel Kontraproduktiv ist.
Bei alten Spielen, ich nenne mal Republic Commando, kommt 8xS besser als jeder MSAA Modus. Bei Farcry seh ich nicht wirklich einen Unterschied, außer an den Palmen, da rockt 16xQ die Hütte.

Das 16xQ und 8xS Performancemäßig sich die Waage fast halten sehe ich aber auch, da stimme ich zu. Sieht man auch auf der Webseite von Ailuros (hmm ist wohl Offline grade www.3declipse.com) im Artikel von ChrisRay deutlich das 16xQ gut Leistung kostet im Vergleich zu den anderen AA Modi, 8xS fehlt leider aber man kann ja selbst nachbenchen, wie du.

Coda
2007-05-02, 20:36:53
Und das CSAA wird "on the fly" angewand?
Ja, wie Multisampling auch.

Ist ja nicht vergleichbar was ATI mit seinem Filter da macht oder?
Überhaupt nicht.

AnarchX
2007-05-02, 21:07:39
Von HKEPC gibt es mal eine Gegenüberstellung, der D3D10-Line-Ups beider Hersteller:
http://img130.imageshack.us/img130/7981/ativsnvdx10sx0.png (http://www.hkepc.com/bbs/hwdb.php?tid=782620&tp=8800Ultra-nvidia&rid=782622)

horn 12
2007-05-02, 21:12:57
Weitere Erkenntnisse/ Benchmarks oder gar Stomaufnahme der HD 2900 XT/ XL sind keine bekannt geworden heute abend, oder werden diese erst zum 14 .ten Mai zugänglich sein?
Wann bricht ein Testmagazin/ Hardwaretester wohl das NDA von A/A? Stecken da nicht Unmengen an Schwarzgeldern dahinter, oder sind die hohen (Geld)Strafen von A/A dies dann niemals wert?

deekey777
2007-05-02, 21:41:52
Schade, von HIS hatte ich mir eine etwas eigenständigeren
Lüfter gewünscht. Vieleeicht kommt er ja noch.
Wenn man genau schaut, sieht man, dass die Takt-Angaben fehlen. Es gibt Andeutungen, dass HIS der HD2900XT höheren Takt verpassen will.:smile:

laser114
2007-05-02, 21:44:54
Wenn man genau schaut, sieht man, dass die Takt-Angaben fehlen. Es gibt Andeutungen, dass HIS der HD2900XT höheren Takt verpassen will.:smile:

Grade das fand ich merkwürdig.
Gabs nicht vor dem Launch des R520 nicht auch einen Hersteller, dessen Website ausversehen mal kurz das neue Produkt zeigte?
Dazu kommt noch, dass das HIS-Zeichen auf dem Lüfter nur aufgezeichnet war.

Wenn das mal kein Versuch war, den Launch der 8800 Ultra etwas zu stören, so nach dem Motto "uns gibts noch"...

ceed
2007-05-02, 22:14:16
Es sind aber nichtmal annähernd 100$ IMO.


In einem anderen Thread gabs mal einen Link wo man sehen konnte wie viel die Produktionskosten für ein Intelchip sind- glaub das war der Core2Duo und keine 30$ die er gekostet hat...
Jetzt müsste man das auf die Fläche runter oder hoch rechnen und dabei berücksichtigen das man bei Nvidia nicht selbst herstellt bzw. Intel sicherlich eine höhere Ausbeute hat, und Nividia die Karten auch nicht verbaut.
Trotzdem würde ich sagen das 100$ zu wenig sind- man bedenke das bis jetzt nur höherpreisige Modelle verkauft wurden sind also um die 300€... und Nvidia sicherlich den Löwenanteil bekommt... vielleicht so zwischen 150 und 175...

Mumins
2007-05-02, 22:17:38
Das glaube ich nicht. Nvidia wird pro Chip bezahlt. Da bekommen die nie mehr als 100 $ pro Chip. Dann dürfte der Rest der Karte kaum was kosten. Denn die Hersteller und Verkäufer wollen auch noch verdienen.

dr_mordio
2007-05-02, 22:22:48
Bin ich BLind oder liegt die X2900 XT weit hinter der 8800 GTS bei Stalker?

ja du bist blind:wink:
zumindest falls du dich hier rauf beziehst:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5455669&postcount=757

denn dort hat die 2900xt in 1280x1024 = 42 FPS
und die GTX = 42,9 FPS
und die GTS = 36,8 FPS

Achtung!alles in den diagrammen sind noch die Radeon X1xxx Modelle

MfG
Alex

Blaire
2007-05-02, 22:32:16
http://forum.beyond3d.com/showpost.php?p=980309&postcount=4144

Allerdings bei schlechterer Bildqualität gegenüber einer GTX!?

Sk_Antilles
2007-05-02, 22:38:24
Wieso zum Henker die Popelauflösungen für solche Karten?
Erst ab 1600x1050 mit AAA/AF max sollte es richtig interessant werden. :rolleyes:
http://forum.beyond3d.com/showpost.php?p=980309&postcount=4144

Allerdings bei schlechterer Bildqualität gegenüber einer GTX!?

Allerdings. Das Bild von der GTX ist mehr crispy. Das von der X2900XT sieht aus als ob man sich das Bild von der Waschküche aus anschaut. ;)

deekey777
2007-05-02, 22:43:04
http://resources.vr-zone.com/newzhunter/HD2900-1.jpg
Die Null...
http://img57.imageshack.us/img57/2360/hd29001kq9.jpg

Godmode
2007-05-02, 22:46:10
http://resources.vr-zone.com/newzhunter/HD2900-1.jpg
Die Null...
http://img57.imageshack.us/img57/2360/hd29001kq9.jpg

Was willst du uns damit sagen?

Ronny145
2007-05-02, 22:47:46
Was willst du uns damit sagen?


Vor allem wurde das schon gepostet. Oder soll uns das was sagen?

Sk_Antilles
2007-05-02, 22:51:01
Interesting, the 8800GTX ss has better image IQ, the fire has black borders (like it is not translucent) on 2900XT. Also the 8800GTX ss seems sharper even though the imagefile is much more compressed.

Hm. Da macht man Screenshots zum vergleich und komprimiert sie dann danach? Auch nicht die gerade optimale Methode. :rolleyes:

Henroldus
2007-05-02, 22:51:43
Von HKEPC gibt es mal eine Gegenüberstellung, der D3D10-Line-Ups beider Hersteller:
http://img130.imageshack.us/img130/7981/ativsnvdx10sx0.png (http://www.hkepc.com/bbs/hwdb.php?tid=782620&tp=8800Ultra-nvidia&rid=782622)
komisch, da gibts die HD 2600 XT 256MB zweimal und zu unterschiedlichen Preisen :confused:
Tippfehler?

Gast
2007-05-02, 23:01:59
vll einmal Gddr3 und einem Gddr4

Gmax
2007-05-02, 23:06:22
vll einmal Gddr3 und einem Gddr4

Meinst du? Schön wärs:) Ich denke eher 256 und 512 MB

Sk_Antilles
2007-05-02, 23:14:22
Meinst du? Schön wärs:) Ich denke eher 256 und 512 MB

Eher die 2600XT und die 2600er.

horn 12
2007-05-02, 23:31:50
:P dies kann nicht stimmen, aber woher man dies wieder hat....
vom vorigem Cover mit den Werten?
http://www.fudzilla.com/index.php?option=com_content&task=view&id=791&Itemid=1

---> N E I N :P

Gast
2007-05-02, 23:35:29
die news is wirklich mal käse

Gmax
2007-05-02, 23:37:27
:P dies kann nicht stimmen, aber woher man dies wieder hat....
vom vorigem Cover mit den Werten?
http://www.fudzilla.com/index.php?option=com_content&task=view&id=791&Itemid=1

---> N E I N :P

Kann ich mir auch nicht vorstellen, es sei denn für zwei XT im CF Verbund.

Gast
2007-05-02, 23:49:58
750W......Toaster,TV,Kühlschrank mit angeschlossen ?

Sk_Antilles
2007-05-02, 23:50:55
:P dies kann nicht stimmen, aber woher man dies wieder hat....
vom vorigem Cover mit den Werten?
http://www.fudzilla.com/index.php?option=com_content&task=view&id=791&Itemid=1

---> N E I N :P

So ein Schwachfug was der da schreibt. 750 Watt Netzteil! Welche Komponente(n) soll(en) denn bitteschön die übrigen 500 Watt verbraten?
Höchstens im CF Betrieb sollte man sich solches Netztteil zulegen.
Ich habe mein System mal nachgemessen und im 3D Betrieb kam ich gerade mal auf ca. 180 Watt. omg. :rolleyes:

750W......Toaster,TV,Kühlschrank mit angeschlossen ?
*g
Wär nicht schlecht, dann braucht man nicht immer zur Küche zu latschen. ;)

Ailuros
2007-05-03, 05:59:54
Woran machst du das fest? Ich finde 16x auf G80 meistens besser als 8xQ.

16xCSAA insgesamt besser als 8xQ? Selbst wenn ich ein Auge fuer stencil Zeug als Beispiel zudruecke, was passiert wenn ich Transparenz-AA dazuschalten will?

Ausser Du meinst 16xQ, aber da steckt ja auch 8xMSAA drin und nicht nur 4x wie bei 16x.

Ailuros
2007-05-03, 06:03:11
8xMSAA gibts bei G80 auch, außerdem scheinst du 16xQ vergessen zu haben, ist auch Coverage, gehört aber in den 8xMSAA-Karton. ;)

Ob ATI aber was vergleichbares zu 16xQ hat bleibt abzusehen. Bis jetzt vergleichen alle Marketing-Folien CFAA mit 16x oder?

Ailuros
2007-05-03, 06:16:58
Warum sollte 16xQ teurer sein als 8xS? Wenn es keine Bug gibt, dann ist 16xQ "billiger" als 8xS und das sehr deutlich.

Es koennte durchaus sein dass die ROPs bei 16xQ so langsam limitieren.

Depth tests needed for CSAA are 2 for 2x, 4 for 4x, 8 for 8x, 8 for 8xQ, 12 for 16x, and ~20 for 16xQ, but we'll discuss that in the IQ piece.

http://www.beyond3d.com/content/reviews/1/10

Da wuerde es mich nicht wundern wenn stellenweise 16xQ langsamer ankommen wuerde als 8xS. Ich hab zwar nur ein paar Tests laufen lassen aber 32xS war langsamer als 4*4 OGSS.

AnarchX
2007-05-03, 06:26:49
komisch, da gibts die HD 2600 XT 256MB zweimal und zu unterschiedlichen Preisen :confused:
Tippfehler?

Ja, die billigere XT ist sicherlich eine Pro. ;)

Lawmachine79
2007-05-03, 07:22:57
Da wuerde es mich nicht wundern wenn stellenweise 16xQ langsamer ankommen wuerde als 8xS. Ich hab zwar nur ein paar Tests laufen lassen aber 32xS war langsamer als 4*4 OGSS.
Das braucht Dich nicht zu wundern, DAS IST SO. Ich habe es doch ein paar Seiten vorher gebencht. Bei VST war 16xQ minimal schneller, bei Fear war 8xS schneller - mit größerer Differenz, sobald man den Füllratenhahn aufdreht (Takt). Deshalb Ich glaube nicht, daß die ROPs limitieren, sondern die Bandbreite. Ich habs mit einer GTS getestet, und ich bin mir sicher, wenn man bei einer GTX den Speicher auf GTS-Niveau runtertaktet und den Chiptakt auf GTX-Niveau lässt, vergrößert sich die Differenz zu Gunsten von 8xS.

no_surrender
2007-05-03, 07:51:53
:P dies kann nicht stimmen, aber woher man dies wieder hat....
vom vorigem Cover mit den Werten?
http://www.fudzilla.com/index.php?option=com_content&task=view&id=791&Itemid=1

---> N E I N :P

Godzilla;D ;D ;D

der Schpinner schreibt doch nur shit, ist doch wie The Inquirer die schreiben alle beide um die Wette krütze:rolleyes:

LovesuckZ
2007-05-03, 08:10:53
Im beyond3d.com Forum gibt es einige Anmerkungen bezüglich des Übertaktungsverhalten der 2900XT.


A person i trust received a R600 XT sample for testing, and found out that he couldn't overclock the core more than 2 to 3MHz, even with improved air cooling (he's an experienced and unbiased source, so i tend to believe him).
It's not yet known why are the power and pin requirements are so restrictive, but he did test with two high-end PSU's (an OCZ GameXtream 850W and a PC Power & Cooling 850W).
http://forum.beyond3d.com/showpost.php?p=980727&postcount=4268


If you want to oc XT with 8.361 drv, your psu must have 6pin and 8pin line, or a 6pin-8pin converter line, otherwise, you can not oc 1MHz with 8.361 drv.
http://forum.beyond3d.com/showthread.php?p=978315#post978315


6-6 works on the drv below 8.361, but 6-6 lost its oc function on 8.361. I think it will also lost oc function above 8.361
http://forum.beyond3d.com/showthread.php?p=978317#post978317

Sieht nicht wirklich gut aus für eine Karte, welche als Konkurrenz für die GTS antritt...

James Ryan
2007-05-03, 08:16:57
So langsam frage ich mich ernsthaft, wer (außer w0mbat) sich eine HD 2900 XT/512(!) kaufen sollte?!
Das CFAA wird eher schlechter im Vergleich zum CSAA, das AF wurde nicht verbessert gegenüber der R5xx Generation. Der Stromverbrauch liegt ebenfalls höher und die Karte wird obendrein noch teurer als eine GTS bei nicht deutlicher Mehrleistung.
Summa sumarum ein enttäuschendes Gesamtpaket, nach 7 Monaten Verspätung eine Blamage.

MfG :cool:

no_surrender
2007-05-03, 08:19:08
Ich und viele andere, die haben alle nen G80 drin.

seahawk
2007-05-03, 08:24:55
Wenn die Gerüchte über die Anforderungen an das Netzteil sich nicht mit einem weiteren Treiber auflösen, dann hat die Akrte definitiv ein Problem.

Gast
2007-05-03, 08:31:24
Summa sumarum ein enttäuschendes Gesamtpaket, nach 7 Monaten Verspätung eine Blamage.


Hoffentlich wird AMD die richtigen Schlüsse aus der Entwicklung des r600 nehmen. Es kann nicht sein, dass man auf der einen Seite den Overkill veranstaltet (Speicherinterface, Rechenleistung), jedoch auf der anderen verdammt sparsam ist (TMUs, ROPs, Speichermenge).
Es kommt so vor als ob ATI dachte, dass sie mit Xenos die ultimative "D3D 10" Waffe hätten und nVidia nicht im geringsten mithalten könnte, sowie keine richtig neue Architektur verwenden werden.
Leider hat nVidia wohl mindesten 95% aller Menschen, die sich für die Hardware interessieren, einfach überrascht und ATI geschockt...

Gast
2007-05-03, 08:38:21
Im beyond3d.com Forum gibt es einige Anmerkungen bezüglich des Übertaktungsverhalten der 2900XT.


http://forum.beyond3d.com/showpost.php?p=980727&postcount=4268


http://forum.beyond3d.com/showthread.php?p=978315#post978315


http://forum.beyond3d.com/showthread.php?p=978317#post978317

Sieht nicht wirklich gut aus für eine Karte, welche als Konkurrenz für die GTS antritt...

Sieht so aus, als ob der Treiber OC blockiert, solange kein 8-Pin Stecker angeschossen ist - also etwas, das schon lange bekannt ist. Bleibt die Frage ob das nur eine übervorsichtige Sicherheitsvorkehrung ist, oder ob die Karte sonst wirklich auserhalb der Spezifikationen betrieben werden müsste. Ansonsten verstehe ich die Aufregung nicht, da das wie schon gesagt längst bekannt ist, aber es schadet ja nie, noch etwas "untergangsstimmung" zu verbreiten, nicht war. Durch den idle-Modus dürfte das die Karte im übrigen vermutlich locker ausgelichen.

LovesuckZ
2007-05-03, 08:42:05
Durch den idle-Modus dürfte das die Karte im übrigen vermutlich locker ausgelichen.

Du solltest richtig lesen: Mit früheren Treibern konnte man auch mit 2 6Pin Anschlüssen übertakten.
Ansonsten sollte man abwarten. Wenn der 3D Verbrauch doppelt so hoch ist (100 zu 200 Watt) und der 2D Verbrauch nur 20 Watt unterschied beträgt, dann kannst du dir ausreichen, wielange du idlen darfst, dass es sich ausgleicht.

deekey777
2007-05-03, 08:50:18
Was willst du uns damit sagen?
Vor allem wurde das schon gepostet. Oder soll uns das was sagen?
Wenn ihr älter seid, werde ich es euch sagen.
Im beyond3d.com Forum gibt es einige Anmerkungen bezüglich des Übertaktungsverhalten der 2900XT.


http://forum.beyond3d.com/showpost.php?p=980727&postcount=4268


http://forum.beyond3d.com/showthread.php?p=978315#post978315


http://forum.beyond3d.com/showthread.php?p=978317#post978317

Sieht nicht wirklich gut aus für eine Karte, welche als Konkurrenz für die GTS antritt...
Und warum sieht es nicht gut es? Weil man beide Anschlüsse nutzen muss, um zu übertakten? Seltsamer Gedankengang.
Du solltest richtig lesen: Mit früheren Treibern konnte man auch mit 2 6Pin Anschlüssen übertakten.
Ansonsten sollte man abwarten. Wenn der 3D Verbrauch doppelt so hoch ist (100 zu 200 Watt) und der 2D Verbrauch nur 20 Watt unterschied beträgt, dann kannst du dir ausreichen, wielange du idlen darfst, dass es sich ausgleicht.
Und wenn man nicht übertakten will, reicht ein Anschluss aus? Das wäre die logische Konsequenz.

LovesuckZ
2007-05-03, 08:53:54
Und warum sieht es nicht gut es? Weil man beide Anschlüsse nutzen muss, um zu übertakten? Seltsamer Gedankengang.

Wieviele Netzteile mit einem 8Pin Anschluss für 60-70€ kennst du?
Sollte dieser Umstand auch in der Verkaufsversion enthalten sein, dann sehe ich ein großes Problem. Viele werden auf das Übertakten nicht verzichten wollen. Und dies ist mit einer GTS sehr gut vorhanden - bis zu 20% Mehrleistung. Diese "20%" muss man bei der 2900XT dann erstmal in ein neues Netzteil investieren - und die Preisdifferenz zur 8800GTX kleiner werden lässt.

Godmode
2007-05-03, 08:56:23
Wieviele Netzteile mit einem 8Pin Anschluss für 60-70€ kennst du?
Sollte dieser Umstand auch in der Verkaufsversion enthalten sein, dann sehe ich ein großes Problem. Viele werden auf das Übertakten nicht verzichten wollen. Und dies ist mit einer GTS sehr gut vorhanden - bis zu 20% Mehrleistung. Diese "20%" muss man bei der 2900XT dann erstmal in ein neues Netzteil investieren - und die Preisdifferenz zur 8800GTX kleiner werden lässt.

Hast du schonmal was von einem Adapter gehört?

Wenn ihr älter seid, werde ich es euch sagen.:confused:

Mr Power
2007-05-03, 09:03:06
Wenn ihr älter seid, werde ich es euch sagen.


So nerdy... er meint die Position der Null. Da hab ich doch eher das Gefühl, wenn die beiden Älter wären würden sie darüber nicht lachen :wink:. Anyway, btt.

LovesuckZ
2007-05-03, 09:07:11
Hast du schonmal was von einem Adapter gehört?


Hast du Bilder von solchen Adaptern?

Mumins
2007-05-03, 09:17:07
Hast du Bilder von solchen Adaptern?

Wenn er nötig ist, dann liegt er den Karten bei.

Godmode
2007-05-03, 09:18:53
Hast du Bilder von solchen Adaptern?

Nein hab ich nicht, aber IIRC stand auf HIS Seite was, beim versehentlichen Launch auf der Webseite.

LovesuckZ
2007-05-03, 09:19:24
Wenn er nötig ist, dann liegt er den Karten bei.

Bei HIS wurde ein Adapter nicht angegeben. Und zum normalen Betrieb ist der 8Pin Anschluss nicht notwendig - ein Teufelskreis...

Mumins
2007-05-03, 09:40:44
Es gibt diverse Netzteile für 50-90 € mit dem Anschluß. Wenn der Adapter verlangt wird, dann wird es einen geben.

robbitop
2007-05-03, 10:03:21
Es koennte durchaus sein dass die ROPs bei 16xQ so langsam limitieren.

Das wuerde mich wundern. Wie lange soll diese Urban Legend denn noch bestehen?

DrumDub
2007-05-03, 10:12:32
Hoffentlich wird AMD die richtigen Schlüsse aus der Entwicklung des r600 nehmen. Es kann nicht sein, dass man auf der einen Seite den Overkill veranstaltet (Speicherinterface, Rechenleistung), jedoch auf der anderen verdammt sparsam ist (TMUs, ROPs, Speichermenge).
Es kommt so vor als ob ATI dachte, dass sie mit Xenos die ultimative "D3D 10" Waffe hätten und nVidia nicht im geringsten mithalten könnte, sowie keine richtig neue Architektur verwenden werden.
Leider hat nVidia wohl mindesten 95% aller Menschen, die sich für die Hardware interessieren, einfach überrascht und ATI geschockt... sehr gute analyse, lieber gast. :) (und nein, das war nicht ironisch gemient.)

Gouvernator
2007-05-03, 10:21:20
Es sind noch TAGE bis zum offiziellem Release, keiner kennt verlässliche Daten und ihr habt die Karte mindestens schon dreimal abgeschrieben. Was für ein Forum ;D

Grestorn
2007-05-03, 10:25:24
Es gibt diverse Netzteile für 50-90 € mit dem Anschluß. Wenn der Adapter verlangt wird, dann wird es einen geben.

Durch einen Adapter bekommt man aber nicht mehr Leistung auf die Karte. Das ist insofern dann ein ziemlicher Schmarrn:

Die Karte erlaubt kein OC mit dem 6-Pin Adapter, weil die 6 Pins überlastet wären. Man nimmt dann einen Adapter von 6 auf 8-Pin und meint, damit würde es laufen...

InsaneDruid
2007-05-03, 10:29:09
Eben, weil anscheinend nur ein Check gemacht wird ob 8Pin.

http://forum.beyond3d.com/showthread.php?p=978315#post978315

If you want to oc XT with 8.361 drv, your psu must have 6pin and 8pin line, or a 6pin-8pin converter line, otherwise, you can not oc 1MHz with 8.361 drv.

Grestorn
2007-05-03, 10:33:24
Eben, weil anscheinend nur ein Check gemacht wird ob 8Pin.

http://forum.beyond3d.com/showthread.php?p=978315#post978315

If you want to oc XT with 8.361 drv, your psu must have 6pin and 8pin line, or a 6pin-8pin converter line, otherwise, you can not oc 1MHz with 8.361 drv.

Klar überlistet man dann die Abfrage auf 8 Pins, das ist mir schon klar.

Die Frage ist doch: Warum gibt es die Abfrage, wenn es auch mit 6 Pins (über Adapter) funktioniert? Immerhin kostet die Abfrage auch ein paar Cent auf der Platine...

Godmode
2007-05-03, 10:35:03
Durch einen Adapter bekommt man aber nicht mehr Leistung auf die Karte. Das ist insofern dann ein ziemlicher Schmarrn:

Die Karte erlaubt kein OC mit dem 6-Pin Adapter, weil die 6 Pins überlastet wären. Man nimmt dann einen Adapter von 6 auf 8-Pin und meint, damit würde es laufen...

Ne also ich meine nicht einfach von 6 auf 8 Pin, sondern zb ein 6 Pin PCIe Stecker + ein zusätzlicher Molex und dass dann auf 8 Pin! Das ist doch klar das ein einfacher 6 auf 8 Pin PCIe Adapter sinnfrei ist!

Grestorn
2007-05-03, 10:37:51
Ne also ich meine nicht einfach von 6 auf 8 Pin, sondern zb ein 6 Pin PCIe Stecker + ein zusätzlicher Molex und dass dann auf 8 Pin! Das ist doch klar das ein einfacher 6 auf 8 Pin PCIe Adapter sinnfrei ist!

Gibt es denn solche Adapter? Würde aber durchaus Sinn machen.

Henroldus
2007-05-03, 10:56:21
imo waren die beiden zusätzlichen leitungen nur extra masseanbindungen um die stabilität zu erhöhen und nicht für extra leistungsaufnahme

robbitop
2007-05-03, 10:56:55
So schlecht ist der R600 nicht. Die Rechenleistung ist nett. Und das Teil ist schnell genug fuer heutige Spiele. Dank dem breiten SI und den FP16 TMUs und den zusaetzlichen FP32 pointsampling TMUs ist der R600 ohne grossen Verlust fuer spaetere Spiele auch noch capable. Er verliert weder beim VT noch beim GS Texelfuellrate auch macht ihm ein FP16 Framebuffer, wie es fuer HDR-R ja Gang und Gebe ist, nichts oder wenig aus. Bei all dem leidet der G80 schon deutlich mehr.

Sicher das Teil ist ein bisschen an der heutigen Zeit vorausdesigned. Auch war G80 sicher eine Ueberraschung fuer ATI. Aber schlechtreden braucht man ihn deswegen nicht. Wer sich ein R600 Karte kauft, kann die auch eine Weile behalten.

Grestorn
2007-05-03, 10:57:20
imo waren die beiden zusätzlichen leitungen nur extra masseanbindungen um die stabilität zu erhöhen und nicht für extra leistungsaufnahme

Egal, auch die Masseanbindung kann durch einen Adapter 6-auf-8 nicht verbessert werden.

DrumDub
2007-05-03, 10:57:39
Gibt es denn solche Adapter? Würde aber durchaus Sinn machen. zumindest gibt es sowas: http://www.com-tra.de/shop/de_DE/produkt/lID_is_4074_and_Anschluss-Adapter_6_Pin_PCIe_PCI-Express_auf_8_Pin_EPS-Mainboard-Stecker.html
der anschluss ist zwar nicht identisch mit dem 8pin-pcie, aber immerhin...

anscheinend ist bei netzteilen der 8pin in nen 6pin und nen 2pin stecker gespilttet: http://www.enermax.com.tw/admin/pic/200711215391013542.jpg

Coda
2007-05-03, 10:57:52
So schlecht ist der R600 nicht. Die Rechenleistung ist nett. Und das Teil ist schnell genug fuer heutige Spiele. Dank dem breiten SI und den FP16 TMUs und den zusaetzlichen FP32 pointsampling TMUs ist der R600 ohne grossen Verlust fuer spaetere Spiele auch noch capable.
R600 kann mit FP32 nur Pointsampling?

Er verliert weder beim VT noch beim GS Texelfuellrate auch macht ihm ein FP16 Framebuffer, wie es fuer HDR-R ja Gang und Gebe ist, nichts oder wenig aus. Bei all dem leidet der G80 schon deutlich mehr.
FP16-Framebuffer sind auf G8x so schnell wie es geht mit den vorhandenen Resourcen (Die ROPs sind vollständig orthogonal). Und was hat der GS mit der Texelfüllrate zu tun?

Also ich sehe bisher nichts was R6xx in diesen Punkten irgendwie fortschrittlicher machen sollte als G8x, außer evtl. der Tesselationseinheit, die man eh nicht benützen kann im Moment und die größere Speicherbandbreite.

Gast
2007-05-03, 11:12:46
Dank dem breiten SI und den FP16 TMUs und den zusaetzlichen FP32 pointsampling TMUs ist der R600 ohne grossen Verlust fuer spaetere Spiele auch noch capable.

nVidia hat immernoch die doppelte Anzahl an "FP16 TMUs" und das breitere SI wird wohl benötigt, um die geringere Effizienz beim Umgang mit der Speicherbandbreite auszugleichen.

Er verliert weder beim VT noch beim GS Texelfuellrate auch macht ihm ein FP16 Framebuffer, wie es fuer HDR-R ja Gang und Gebe ist, nichts oder wenig aus. Bei all dem leidet der G80 schon deutlich mehr.

ich sehe hier nicht die Probleme beim G80. Seine Leistung unter HDR-R mit FP16 Framebuffer ist sehr gut, wenn nicht überragend. Da muss der r600 erstmal rankommen!

Aber schlechtreden braucht man ihn deswegen nicht. Wer sich ein R600 Karte kauft, kann die auch eine Weile behalten.

Die Frage: Zu welchem Preis.
Ohne Angaben zum Stromverbrauch und der Laustärke des Lüfters im 3D Modus ist diese Aussage nur bedingt richtig.

Gast
2007-05-03, 11:28:01
Vielleicht gibts ja Adapter wo man 2x4 Pin (son stecker wo man festplatten, laufwerke etc. anklemmt) an einen 8 Pin stecker weiterleitet??

Godmode
2007-05-03, 11:36:42
Vielleicht gibts ja Adapter wo man 2x4 Pin (son stecker wo man festplatten, laufwerke etc. anklemmt) an einen 8 Pin stecker weiterleitet??

Aus 2 4-Pin-Steckern wird ein 6-Pin-Stecker gemacht, da braucht es wohl schon 3 oder 4 4-Pin-Molex-Stecker.

Gast
2007-05-03, 11:38:00
o.O ok das wär dann n ganz schön fetter adapter xD

Gast
2007-05-03, 11:40:33
Schon gepostet?

http://geizhals.at/deutschland/a254977.html

Godmode
2007-05-03, 11:45:08
nein aber hier schreiben sie dazu:

[News]
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/mai/asus_radeon_hd_2900_xt_handel/

Super Grobi
2007-05-03, 11:46:16
Schon gepostet?

http://geizhals.at/deutschland/a254977.html


Damit wissen wir schonmal, das Asus die Karte mit STALKER bundlet.

SG

Gast
2007-05-03, 12:03:00
nein aber hier schreiben sie dazu:

[News]
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/mai/asus_radeon_hd_2900_xt_handel/

anhand des preises kann man schon recht gut die performance einstufung abschätzen. und da scheint die xt wirklich nur gegen die gts anzutreten...
und da die xtx ja nur schneller getaktet ist und nicht wesentlich schneller sein wird, ist der r600 meiner meinung nach eigentlich ein flop, obwohl ich das gerne anders gesehn hätte!

bestimmt werden jetzt einige rum mosern, weil ich die performance am preis fest mache, aber ihr müsst auch zugeben, das da etwas dran sein muß! denn wenn die xt auf gtx nivou wäre (oder noch schneller), dann würde ati auch nen anfangspreis von 500 euro machen und für die xtx 700 euro, genau so wie nvidia. denn nur aus just for fun machen sie bestimmt keine "dumpingpreise" ;)

ati kann mim r600 halt nur sehr schwer mithalten und muß wohl alle asse aus dem ärmel schüttel um wenigstes einigermaßen gut dazustehn --> tiefe preise, hohe taktraten... also im prinzip "alles am limit"... LEIDER! :(

no_surrender
2007-05-03, 12:21:34
so ein gelabbere, du weisst garnicht wie schnell er wirklich ist, also quatsch kein mist bitte.
Vieleicht ist der R600 ja so schnell wie ne GTX und ATi hat niedrigere Preise gemacht damit die Leute ihr Produkt kaufen.:rolleyes:
Mehr leistung muss nicht teurer sein.

Vertigo
2007-05-03, 12:27:18
Schon gepostet?

http://geizhals.at/deutschland/a254977.html
Positive Sichtweise: die R600-Karten werden vom Start weg in großen Stückzahlen verfügbar sein.
Negative Sichtweise: die R600-Karten sind nicht konkurrenzfähig.

Ich hoffe mal auf ersteres, schon damit wieder etwas Bewegung in den Markt kommt.

Gast
2007-05-03, 12:31:17
HD2400 and HD2600 will be launched during Computex in the first week of June. Availability will probably be in the 2nd or 3rd week of June.
http://forum.beyond3d.com/showpost.php?p=980814&postcount=343

Gucken, wann AMD endlich aus den Püsschen kommt.

Pirx
2007-05-03, 12:35:29
Stimmt es nun, daß der R600 bei den "professionellen" Anwendungen ziemlich weit vorn liegt?
Dann könnte ATi immerhin auf diesem Markt besser mitmischen?

[dzp]Viper
2007-05-03, 12:41:17
Negative Sichtweise: die R600-Karten sind nicht konkurrenzfähig.

Falsch. Konkurrenzfährig schon. Aber eben nicht "besser" als die NV Karten. Hier kann ATI nur noch über die Preisschraube gewinnen.
Selbst wenn die 2900er Karte unter DX10 wesentlich stärker sind als die 8800er Karten (spricht ja vieles dafür..), bringt das nichts, da es aktuell sogut wie 0 Vergleichsmöglichkeiten in dieser Richtung gibt ;(

Preiskampf ahoi. Vielleicht gibts die 2900XT auch bald für 299€ :up:

deekey777
2007-05-03, 12:47:12
Positive Sichtweise: die R600-Karten werden vom Start weg in großen Stückzahlen verfügbar sein.
Negative Sichtweise: die R600-Karten sind nicht konkurrenzfähig.

Ich hoffe mal auf ersteres, schon damit wieder etwas Bewegung in den Markt kommt.

http://img57.imageshack.us/img57/2360/hd29001kq9.jpg
Abgesehen von der Null: ATi nimmt den Mund einfach zu voll, wenn es ums D3D10 geht, dass es bloße PR ist.

Vertigo
2007-05-03, 12:55:29
Viper;5459665']Falsch. Konkurrenzfährig schon. Aber eben nicht "besser" als die NV Karten. Hier kann ATI nur noch über die Preisschraube gewinnen.
Selbst wenn die 2900er Karte unter DX10 wesentlich stärker sind als die 8800er Karten (spricht ja vieles dafür..), bringt das nichts, da es aktuell sogut wie 0 Vergleichsmöglichkeiten in dieser Richtung gibt ;(

Preiskampf ahoi. Vielleicht gibts die 2900XT auch bald für 299€ :up:
War überzogen formuliert. ;)

Ich denke schon dass der/die/das R600 vom Start weg äußerst konkurrenzfähig sein wird. Bei dem Preis erst recht und nVidia müßte reagieren. Das ist es, was jeden Konsumenten freuen sollte - Fanboys mal ausgenommen ... :rolleyes:
http://img57.imageshack.us/img57/2360/hd29001kq9.jpg
Abgesehen von der Null: ATi nimmt den Mund einfach zu voll, wenn es ums D3D10 geht, dass es bloße PR ist.
Momentan ist so ziemlich alles was D3D10 angeht nicht viel mehr als heiße Luft. Mal sehen, was in einem Jahr sein wird, wenn es dann hoffentlich eine handvoll entsprechender Spiele gibt. Und die Null sitzt imo etwas zu tief um wirklich interessant zu sein. :tongue:

Gast
2007-05-03, 12:56:54
Es sind noch TAGE bis zum offiziellem Release, keiner kennt verlässliche Daten und ihr habt die Karte mindestens schon dreimal abgeschrieben. Was für ein Forum ;D


Vielleicht schlafen auch eineige nicht sdo tief wie du, denn es gibt bereits verlässliche Leistungswerte, nämlich die von AMD selbst.

LovesuckZ
2007-05-03, 12:57:22
Oh, AMD spricht von "2nd Generation Superscalar unified architecture".
Dann ist es nur ein 4:1 Split wie bei Xenos.

Mumins
2007-05-03, 12:57:54
Mir ist es das ein neues Netzteil wert. Das alte auf ebay verkloppt ein neues her. Die Mwst. zieh ich gleich raus. Von daher juckt mich das wenig.

deekey777
2007-05-03, 13:04:31
Oh, AMD spricht von "2nd Generation Superscalar unified architecture".
Dann ist es nur ein 4:1 Split wie bei Xenos.
2nd Generation Superscalar unified architecture".
Besser so?
Superskalar bedeutet nur, dass eine Rechenpipeline zwei Befehle (oder mehr) in einem Takt ausführen kann. Das konnte schon der R300 und der G80 sowieso.
Warum die Superskalarität des R600 hervorgehoben wird, liegt auf der Hnd: Der Laie weiß, dass der G80 eine skalare Architektur hat. Da kommt ATi und bringt den R600 als superskalaren Chip. Er (R600) muss einfach besser sein.

Nur hat das eine nichts mit dem anderen zu tun.

Gast
2007-05-03, 13:10:07
so ein gelabbere, du weisst garnicht wie schnell er wirklich ist, also quatsch kein mist bitte.
Vieleicht ist der R600 ja so schnell wie ne GTX und ATi hat niedrigere Preise gemacht damit die Leute ihr Produkt kaufen.:rolleyes:
Mehr leistung muss nicht teurer sein.

Nein, viel besser noch, die Preise sind so niedrig, weil man noch früher pleite gehen will nach den 610 Mio. Verlust im letzten Quartal. Die wollen im nächsten die 1 Milliarde Verlust knacken. :rolleyes:

Spaß beiseite:
Es kann sich doch wohl jeder denken, daß AMD die Dinger so teuer wie nur irgendwie möglich verkaufen muß und einen Preiskampf nur verlieren kann.

LovesuckZ
2007-05-03, 13:11:37
Superskalar bedeutet nur, dass eine Rechenpipeline zwei Befehle (oder mehr) in einem Takt ausführen kann. Das konnte schon der R300 und der G80 sowieso.

Das kann sein, aber laut AMD bedeutet Superscalar, dass jede Recheneinheit einer Vec4/5 eine "instruction"/takt ermöglicht, 3/4:1 Vec4/5 Einheiten können nur zwei "instruction" pro Takt liefern.
Und sie bezeichnen die Möglichkeit des 3/4:1 Splitts in ihren Folien nicht als "Superscalar".
Sie erwähnen ironischer Weise auch nicht Xenos, welcher eben nach ihrer Definition auch nicht "superscalar" wäre.
Da es jedoch die zweite Generation wäre, meinen sie klar Xenos - der jedoch nur das 4:1 Splitting beherrscht.

Gast
2007-05-03, 13:13:04
nur komisch das irgendwann mal die Meldung kam das man die Karten 100 bis 150$ billiger verkaufen möchte, demnach würde das hinkommen schon alleine aus dem grund weil die 2900 XT ja nicht das eigentliche high end modell ist nur das derzeitige von ATI. die 2900 XTX soll ja im dritten Quartal nachgeschoben werden.

deekey777
2007-05-03, 13:23:23
Das kann sein, aber laut AMD bedeutet Superscalar, dass jede Recheneinheit eine "instruction"/takt ermöglicht, 3/4:1 können nur zwei "instruction" pro Takt liefern.
Und sie bezeichnen die Möglichkeit des 3/4:1 Splitts in ihren Folien nicht als "Superscalar".
Sie erwähnen ironischer Weise auch nicht Xenos, welcher eben nach ihrer Definition auch nicht "superscalar" wäre.
Da es jedoch die zweite Generation wäre, meinen sie klar Xenos - der jedoch nur das 4:1 Splitting beherrscht.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5450441#post5450441
Papier ist geduldig. Insbesondere wenn VLIW eigentlich der Gegensatz zur Superskalarität ist, was aber auf die GPU-Welt nicht übertragbar ist.
AMD muss den R600 verkaufen und den G80 schlecht(er) dastehen lassen. Die vorherigen Grafikchips als superskalar zu bezeichnen, wäre nur hinderlich.
Der G80 ist eigentlich kein skalarer Chip, sondern superskalar, aber er führt die Instruktionen pro Kanal aus, er muss zB Vec4-Instruktionen in 4 Vec1 splitten und diese dann nacheinander ausführen.

Gast
2007-05-03, 13:24:20
wieviel langsammer macht dies den G80?

deekey777
2007-05-03, 13:27:57
wieviel langsammer macht dies den G80?
Gar nicht: Er gleicht das einerseits über den Shader-Clock aus und dann über die Anzahl der Einheiten an sich (8x16 bzw. 128 SPs).

Coda
2007-05-03, 13:29:20
wieviel langsammer macht dies den G80?
Es macht ihn schneller, weil die ALU-Auslastung so höher ist, weil nicht so viele Blasen entstehen.

Gast
2007-05-03, 13:32:17
gut danke. das heisst dann aber auch das erste DX10 "benches" ( fake?) wohl mehr reines marketing waren oder?

Coda
2007-05-03, 13:34:25
Was meinst du jetzt? Ich könnte mir vorstellen, dass R600 bei der GS-Performance tatsächlich besser dasteht, aber bevor das nicht ordentlich ausgemessen wird sind das nur Spekulationen.

Gast
2007-05-03, 13:36:15
es gab doch diesen Call of Juarez DX10 vergleich. G80 / R600 und da hat der R600 teilweise 1000% zu gelegt. wie sind diese bensches zu werten?

no_surrender
2007-05-03, 13:40:15
naja ganz so schlimm wird es nicht werden für den G80, aber das er schneller in CoJ ist glaub ich schon (DX0).

AnarchX
2007-05-03, 13:41:04
es gab doch diesen Call of Juarez DX10 vergleich. G80 / R600 und da hat der R600 teilweise 1000% zu gelegt. wie sind diese bensches zu werten?

http://img151.imageshack.us/img151/6826/4rimy857rcvoq52de7amw6.jpg

Die GF8 wird einfach noch nicht unterstützt und der Rest sind auf den R600 zugeschnittene Synthies.;)

deekey777
2007-05-03, 13:42:00
es gab doch diesen Call of Juarez DX10 vergleich. G80 / R600 und da hat der R600 teilweise 1000% zu gelegt. wie sind diese bensches zu werten?
In etwa so:
http://img144.imageshack.us/img144/1517/attachmentrx6.jpg

Genau wie die meisten anderen Benches.

Gast
2007-05-03, 13:42:18
danke genau das wollte ich wissen ;)

Sk_Antilles
2007-05-03, 13:54:27
In etwa so:
http://img144.imageshack.us/img144/1517/attachmentrx6.jpg

Genau wie die meisten anderen Benches.
ROFL!
You made my day!
Das ist doch mal ein aussagekräftiges Diagramm. Aber du hast vergessen bei ca. 4000 anzufangen, damit die beste Karte ca. 12x schneller aussieht.
;D

robbitop
2007-05-03, 14:01:45
R600 kann mit FP32 nur Pointsampling?
Lol nein X-D
Er hat zweierlei Arten TMUs:
- fuer Texturfilterung (FX8/FP16: 1 bi Sample pro Takt und FP32: 0.5 bi Sapmle pro Takt)
- fuer GS/VT FP32 Point Sampling TMUs

Somit wird die Texelfuellrate beim VT und GS nicht belastet.

Ein 512 Bit SI bringt bei einem FP16 Framebuffer einiges. Besonders wenn FP16 Texturen zum Einsatz kommen, da dann auch der Texturbandbreitenbedarf steigt.

robbitop
2007-05-03, 14:04:41
nVidia hat immernoch die doppelte Anzahl an "FP16 TMUs" und das breitere SI wird wohl benötigt, um die geringere Effizienz beim Umgang mit der Speicherbandbreite auszugleichen.



ich sehe hier nicht die Probleme beim G80. Seine Leistung unter HDR-R mit FP16 Framebuffer ist sehr gut, wenn nicht überragend. Da muss der r600 erstmal rankommen!



Die Frage: Zu welchem Preis.
Ohne Angaben zum Stromverbrauch und der Laustärke des Lüfters im 3D Modus ist diese Aussage nur bedingt richtig.
Ich sage ja nicht, dass R600 in D3D10 Spielen staerker ist als der G80. Der hat viel zu viel Rohleistung. Aber das Verhaeltnis wird sich zugunsten des R600 etwas aendern, denn dieser verliert dann nicht so viel Leistung.

Coda
2007-05-03, 14:07:22
Lol nein X-D
lol doch! In D3D10 gibt es keine speziellen "GS/VT-Sampler", du kannst überall mit den gleichen Resourcen filtern.

So wie du es beschreibst heißt es nämlich dass ATI FP32-Pointsampling angeflanscht hat anstatt ihre TMUs wie bei G8x vollständig orthogonal zu machen. G8x kann nämlich vollständig anisotrop FP32 filtern sowie 16xQ CSAA auf ein 128-Bit-Rendertarget anwenden und zwar mit genau der gleichen Datenrate wie FP16 auch.

Soviel zum "fortschrittlichen" R600 an diesem Punkt. Das erklärt auch warum das einer der wenigen Punkte in D3D10 ist die optinal sind.

Ich sage ja nicht, dass R600 in D3D10 Spielen staerker ist als der G80. Der hat viel zu viel Rohleistung. Aber das Verhaeltnis wird sich zugunsten des R600 etwas aendern, denn dieser verliert dann nicht so viel Leistung.
Du lehnst dich gerade extrem weit aus dem Fenster.

LovesuckZ
2007-05-03, 14:09:29
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5450441#post5450441
Papier ist geduldig.

Das weiß ich. Ich habe nur angemerkt, dass sie eben schon ihre zweite Generation an "superscalar unified architekture" herausbringen. Und nach ihrer Definition eine Vec4+1 Recheneinheit nicht superscalar wäre.
Da du aber gerade in schöner Wissensverbreitungsbereitschaft bist:
Kannst du erklären, welchen Sinn ein Splitting bei einer herkömmlichen Architektur hat? Mir erschließt es einfach nicht und eine gute Einführung habe ich nicht gefunden.

robbitop
2007-05-03, 14:16:39
lol doch! In D3D10 gibt es keine speziellen "GS/VT-Sampler", du kannst überall mit den gleichen Resourcen filtern.
Schau dir das Diagramm ueber die TMUs an. Ich vermute, dass der Treiber solche Aufgaben an die Point Sampling Teile abgibt. Wozu sollen sie denn sonst da sein?

So wie du es beschreibst heißt es nämlich dass ATI FP32-Pointsampling angeflanscht hat anstatt ihre TMUs wie bei G8x vollständig orthogonal zu machen. G8x kann nämlich vollständig anisotrop FP32 filtern sowie 16xQ CSAA auf ein 128-Bit-Rendertarget anwenden und zwar mit genau der gleichen Datenrate wie FP16 auch.

Soviel zum "fortschrittlichen" R600 an diesem Punkt. Das erklärt auch warum das einer der wenigen Punkte in D3D10 ist die optinal sind.




FP32 Filterung laeuft doch ueber die "herkoemmlichen" TMUs. Viele Sachen brauchen aber keine Texturfilterung sondern nur ein einziges Sample (u.A. VT und GS). Wenn sie dann die billigen TMUs nutzen anstatt die Fuellrate zu belasten ist das doch nicht das duemmste.

Du lehnst dich gerade extrem weit aus dem Fenster.
Einfachste Logik :)

deekey777
2007-05-03, 14:20:06
Das weiß ich. Ich habe nur angemerkt, dass sie eben schon ihre zweite Generation an "superscalar unified architekture" herausbringen. Und nach ihrer Definition eine Vec4+1 Recheneinheit nicht superscalar wäre.
Da du aber gerade in schöner Wissensverbreitungsbereitschaft bist:
Kannst du erklären, welchen Sinn ein Splitting bei einer herkömmlichen Architektur hat? Mir erschließt es einfach nicht und eine gute Einführung habe ich nicht gefunden.
Splittung an sich = bessere Auslastung. Der G70 beherrscht 2+2-Splittung, er kann pro Takt zwei Vec2-Aufgaben erledigen. Auch braucht man nicht immer den Alpha-Kanal (nur RGB, Vec3) und kann somit die eine skalare ALU für andere Sachen nutzen.
Welchen Sinn so eine feine Splittung beim R600 hat, weiß ich dagegen nicht (GPGPU?).

Godmode
2007-05-03, 14:21:29
Wenn sie dann die billigen TMUs nutzen anstatt die Fuellrate zu belasten ist das doch nicht das duemmste.
Einfachste Logik :)

Vor allem bei der eh schon sehr begrenzten - laut Vorabberichten und Leaks - Fuellrate!

Coda
2007-05-03, 14:22:02
Schau dir das Diagramm ueber die TMUs an. Ich vermute, dass der Treiber oder der Chip solche Aufgaben an die Point Sampling Teile abgibt. Wozu sollen sie denn sonst da sein?
Damit das Ding überhaupt FP32 filtern kann und somit die D3D10-Specs erfüllt. Siehe NV4x.

FP32 Filterung laeuft doch ueber die "herkoemmlichen" TMUs. Viele Sachen brauchen aber keine Texturfilterung sondern nur ein einziges Sample (u.A. VT und GS). Wenn sie dann die billigen TMUs nutzen anstatt die Fuellrate zu belasten ist das doch nicht das duemmste.
Wie kommst du drauf dass GS viele FP32-Pointsamples benötigen? Das brauchst du praktisch ausschließlich für Displacement Mapping und selbst da reicht in den meisten Fällen FP16. Kein einziger GS in den D3D10-Samples vom nVIDIA und DX-SDK sampled irgendwelche FP32-Texturen.

Das ist reines Marketing-Blödgeschwätz. Und das beide TMUs parallel laufen halte ich auch für ziemlich ausgeschlossen. Wenn ATI für FP32-Pointsampling extra Addresseinheiten eingebaut hat bei einem unified shader haben sie ein Rad ab.

Einfachste Logik :)
Deine Logik hat den Fehler, das FP32-Sampling bei weitem nicht so relevant für D3D10-Leistung ist wie du denkst. Eigentlich gar nicht.

G80 hat ausreichend TMU-Power um ausgleichen zu können, dass R600 evtl. schneller reine Pointsamples lesen kann, die man eigentlich eh fast nie braucht.

Gast
2007-05-03, 14:25:58
Viper;5459665']Selbst wenn die 2900er Karte unter DX10 wesentlich stärker sind als die 8800er Karten (spricht ja vieles dafür..), bringt das nichts, da es aktuell sogut wie 0 Vergleichsmöglichkeiten in dieser Richtung gibt ;(Was spricht denn alles dafür? Warum sollte der G80 unter D3D10 weniger stark sein als unter D3D9?

robbitop
2007-05-03, 14:28:30
Damit das Ding überhaupt FP32 filtern kann und somit die D3D10-Specs erfüllt. Siehe NV4x.


Wie kommst du drauf dass GS viele FP32-Pointsamples benötigen? Das brauchst du praktisch ausschließlich für Displacement Mapping und selbst da reicht in den meisten Fällen FP16. Kein einziger GS in den D3D10-Samples vom nVIDIA und DX-SDK sampled irgendwelche FP32-Texturen.

Das ist reines Marketing-Blödgeschwätz. Und das beide TMUs parallel laufen halte ich auch für ziemlich ausgeschlossen. Wenn ATI für FP32-Pointsampling extra Addresseinheiten eingebaut hat bei einem unified shader haben sie ein Rad ab.


Das denke ich nicht. IIRC haben die bi TMUs die Moeglichkeit in 2 Takten FP32 zu filtern. Spec ist also erfuellt. Dazu braucht man die Point Sampling TMUs also nicht. Wenn die Point Sampling TMUs keinen Zweck haetten, haette man die nicht eingebaut.

Braucht man FP32 TMUs nicht fuers Vertex Texturing?

Coda
2007-05-03, 14:30:31
Man hat sie wohl eingebaut, weil's eh kein großer Akt ist die Samples direkt zu nehmen anstatt durch den Texturfilter zu jagen. Wie die Rate von G8x bei Pointsampling ist weiß ich moment gar nicht. Überhaupt muss R600 die vielen Pointsamples auch erstmal adressieren können, da limitiert doch vorher die Adresseinheit.

Pointsampling ist aber nicht sehr relevant, kannst mir ruhig glauben. Der Großteil der Texel wird auch in D3D10-Spielen anisotrop gefiltert werden.

robbitop
2007-05-03, 14:33:10
Man hat sie wohl eingebaut, weil's eh kein großer Akt ist die Samples direkt zu nehmen anstatt durch den Texturfilter zu jagen. Wie die Rate von G8x bei Pointsampling ist weiß ich moment gar nicht.

Pointsampling ist aber nicht sehr relevant, kannst mir ruhig glauben. Der Großteil der Texel wird auch in D3D10-Spielen anisotrop gefiltert werden.
Und wie stehts mit Vertex Texturing? (und wie sieht es fuer die Texture Fetches aus, fuer Tex OPs im Shader?)

Sind ehrlich gemeinte Fragen. Keine Ironie.

Coda
2007-05-03, 14:34:46
Ich hab einen groben Überblick was grad an Forschung abgeht und VT ist bisher kein großes Ding. Man wird hin und wieder auch im VS/GS Texturen samplen, aber wohl nichts was besonders oft in D3D10-Apps vorkommen wird. Da gibt's andere viel tollere Sachen ;)

Also nicht immer alles glauben was auf den Folien steht.

Nakai
2007-05-03, 14:36:34
Splittung an sich = bessere Auslastung. Der G70 beherrscht 2+2-Splittung, er kann pro Takt zwei Vec2-Aufgaben erledigen. Auch braucht man nicht immer den Alpha-Kanal (nur RGB, Vec3) und kann somit die eine skalare ALU für andere Sachen nutzen.
Welchen Sinn so eine feine Splittung beim R600 hat, weiß ich dagegen nicht (GPGPU?).

Der G70 kann noch 3:1 Splittung.

mfg Nakai

robbitop
2007-05-03, 14:36:54
Ich glaube dir gern. :)
Nur macht es dann irgendwie keinen Sinn, dass sie so viele von den Dingern eingebaut haben. Kostet ja alles DIE Flaeche.

Godmode
2007-05-03, 14:39:56
Der G70 kann noch 3:1 Splittung.

mfg Nakai

Das hat er doch geschrieben: Auch braucht man nicht immer den Alpha-Kanal (nur RGB, Vec3) und kann somit die eine skalare ALU(besser: den übrigen Kanal der Vec4 ALU) für andere Sachen nutzen.

Coda
2007-05-03, 14:40:48
Ich glaube dir gern. :)
Nur macht es dann irgendwie keinen Sinn, dass sie so viele von den Dingern eingebaut haben. Kostet ja alles DIE Flaeche.
Ich glaub du verstehst das Diagram falsch. Die Pointsamples brauchst du ja auch für Bilinear/Trilinear/Anisotrop. Nur kann R600 offenbar im Gegensatz zu G80 auch 4 Pointsamples statt einem bilinearen beim Shader abliefern. Allerdings hat er eben auch nur 32 Addresseinheiten auf die 80 Sampler, d.h. er wird eh nur maximal mit einer Rate von 32 reine Pointsamples liefern können, wenn mich nicht alles täuscht. Ich könnte mir aber auch vorstellen, dass es nicht anders als bei G80 ist und die Pointsampler nicht direkt angesprochen werden können.

Es ist übrigens Die, nicht DIE. Das ist keine Abkürzung ;)

Sorry, für das andauernde Editing btw. Ich kann's einfach nicht lassen...

robbitop
2007-05-03, 14:52:04
Ich glaub du verstehst das Diagram falsch. Die Pointsamples brauchst du ja auch für Bilinear/Trilinear/Anisotropisch. Nur kann R600 offenbar im Gegensatz zu G80 auch 4 Pointsamples statt einem bilinearen beim Shader abliefern. Allerdings hat er eben auch nur 32 Addresseinheiten auf die 80 Sampler, d.h. er wird eh nur maximal mit einer Rate von 32 reine Pointsamples liefern können, wenn mich nicht alles täuscht. Ich könnte mir aber auch vorstellen, dass es nicht anders als bei G80 ist und die Pointsampler nicht direkt angesprochen werden können.

Es ist übrigens Die, nicht DIE. Das ist keine Abkürzung ;)

Sorry, für das andauernde Editing btw. Ich kann's einfach nicht lassen...

http://img82.imageshack.us/img82/8557/tmu1xr8.jpg

Schau mal aufs Diagramm. Dort sieht man, dass eine Quad TMU folgendes hat:
- 4x grosse TAs
- 4x kleine TAs (siehe Diagramm und Legende)

Die kleinen zeigen mit den Pfeilen auch auf den Vertex Cache. Alle anderen nicht.

Die Textur Sampler sind alle, wie du sagtest Point Sampler:

Auch hier eine Trennung von 16 grossen und 4 kleinen.

Aber die Trennung muss einen Sinn haben, sonst haette man es nicht so gezeichnet und oder konstruiert.

Die Pointsamplers bieten wieder eine schoene Moeglichkeit fuer Filteroptimierungen. Nur die 16 Sampler haben dazu noch Filterunits. Die 4 kleinen nicht.

Gast
2007-05-03, 14:52:57
Soviel zum "fortschrittlichen" R600 an diesem Punkt.


Es hat doch wohl keine ernsthaft erwartet, daß ATI jetzt plötzlich technisch fortschrittlicher ist als Nvidia, wo sie da doch schon seit 5 Jahren (R300 < GFFX) zurückhängen. IMO ist das auch eines der Probleme, die zu den enormen Verspätungen (R5xx, R6xx) führten, man hat sich zu lange an alter Technik festgeklammert.

Coda
2007-05-03, 15:07:34
Die Textur Sampler sind alle, wie du sagtest Point Sampler:
Das ergibt aber erst recht keinen Sinn, weil eine TMU nicht aus Vertexbuffern lesen kann. Warte bitte mal synthetische Tests dazu ab, mich verwirrt das ganze Diagramm ziemlich. Evtl. ist in den TMUs ja einfach auch die Input-Assembler-Stage integriert - das wäre eine Erklärung.

Wenn da was dran ist wird es Beyond3D mit Sicherheit aufklären ;)

Godmode
2007-05-03, 15:13:28
Es hat doch wohl keine ernsthaft erwartet, daß ATI jetzt plötzlich technisch fortschrittlicher ist als Nvidia, wo sie da doch schon seit 5 Jahren (R300 < GFFX) zurückhängen. IMO ist das auch eines der Probleme, die zu den enormen Verspätungen (R5xx, R6xx) führten, man hat sich zu lange an alter Technik festgeklammert.

R300 < NV30 technisch ja, Performance nein (bitte nicht kreuzigen)
R420 < NV40 technisch ja, Performance nein
R520 < G70 technisch nein,Pperformance nein

edit:

Das einzige was R5xx G7xx vorraus hatte ist FP16-Multisampling. Ansonsten kann G7x schon an vielen Stellen etwas mehr.

Xmas
2007-05-03, 15:16:25
Diese Sampler ohne Filter werden hautpsächlich für Vertex Fetch verwendet. Genauso wie übrigens bei Xenos schon.

up¦²
2007-05-03, 15:19:55
Ati setzt mit der X2900 voll auf DX10 (und das ist gut so :tongue: )
Laut PcPop (http://www.pcpop.com/doc/0/192/192401.shtml) (China) sind 3 Valve DX10 Games gebündelt, mit dabei ist: :smile:
http://img219.imageshack.us/img219/3326/000475041wl2.gif

http://img219.imageshack.us/img219/8292/000475038fa9.jpg
720p ...

Coda
2007-05-03, 15:23:32
Diese Sampler ohne Filter werden hautpsächlich für Vertex Fetch verwendet. Genauso wie übrigens bei Xenos schon.
Was genau verstehst du unter "Vertex Fetch"? Die IA-Stage?

R520 < G70 technisch nein,Pperformance nein
Das einzige was R5xx G7xx vorraus hatte ist FP16-Multisampling. Ansonsten kann G7x schon an vielen Stellen etwas mehr.

Gast
2007-05-03, 15:26:11
Ati setzt mit der X2900 voll auf DX10 (und das ist gut so :tongue: )
Laut PcPop (http://www.pcpop.com/doc/0/192/192401.shtml) (China) sind 3 Valve DX10 Games gebündelt, mit dabei ist: :smile:
http://img219.imageshack.us/img219/3326/000475041wl2.gif

http://img219.imageshack.us/img219/8292/000475038fa9.jpg
720p ...

das hl2 black dabei ist, dürfte doch wohls chon länger bekannt sein, aber ich wüsste nicht das die source engine DX 10 ist.

up¦²
2007-05-03, 15:37:54
das hl2 black dabei ist, dürfte doch wohls chon länger bekannt sein, aber ich wüsste nicht das die source engine DX 10 ist.

Tja..
For those who recently upgraded their PC video cards to support DX10, you’ll be happy to know that both Episode Two and Team Fortress 2 will support the advanced technology of these cards, even if the PC is running Windows XP.
http://www.gameinformer.com/NR/exeres/A8BFBE29-E523-465F-B396-4FC304742B3A.htm
Jedenfalls drehn die nicht Däumchen: MC geht doch auch bald, warum nicht auch DX10?
Gabe Newell has a fairly easy answer. "If we're right, other people are going to take a long time to get the multi-threaded versions of their engines out. If we're right with the approach we've taken - which is to iterate and build on top of Source - we can get there a couple of years ahead of where they could be." In other words, Source can be at the cutting edge of engine technology, which makes it very attractive both to consumers and licensees.
http://www.bit-tech.net/gaming/2006/11/02/Multi_core_in_the_Source_Engin/5.html

Gast
2007-05-03, 15:39:29
na ok, davon ging ich wirklich nicht aus.

Gast
2007-05-03, 15:41:06
könnte mir das schon vorstellen das die die Source-Engine noch weiter entwickelt haben.
Schließlich wurde sie schon früher verbessert und mit lost coast dann erstmals demonstriert.
Könnte mir das durchaus vorstellen das die Engine DX10 unterstützt.

Grestorn
2007-05-03, 15:42:25
Tja..

Von DX10 steht da aber nichts. Im Gegenteil, dass es diese "Advanced Technology" auch unter XP nutzt, beweist, dass es nur Marketinggewäsch ist und nichts mit DX10 zu tun hat.

[dzp]Viper
2007-05-03, 15:55:31
Von DX10 steht da aber nichts. Im Gegenteil, dass es diese "Advanced Technology" auch unter XP nutzt, beweist, dass es nur Marketinggewäsch ist und nichts mit DX10 zu tun hat.

Wollte Valve nicht auch die DX10 Features "irgendwie" unter XP zum laufen bekommen? Hatte da mal was gelesen in nem Interview von Valve...

Mal schauen wie sie das anstellen wollen...

AnarchX
2007-05-03, 15:56:21
Viper;5460224']Wollte Valve nicht auch die DX10 Features "irgendwie" unter XP zum laufen bekommen? Hatte da mal was gelesen in nem Interview von Valve...


Ich glaube kaum, dass Valve zu OGL wechseln wird. ;)

btw.

Wird der R600 bald richtig gequält? :D
http://www.xtremesystems.org/forums/showthread.php?p=2167875#post2167875

Gmax
2007-05-03, 16:07:39
1oo Grad?? (http://www.fudzilla.com/index.php?option=com_content&task=view&id=803&Itemid=1) Das hält doch keine paar Jahre :|

up¦²
2007-05-03, 16:09:06
Von DX10 steht da aber nichts. Im Gegenteil, dass es diese "Advanced Technology" auch unter XP nutzt, beweist, dass es nur Marketinggewäsch ist und nichts mit DX10 zu tun hat.

Früher oder später gibt es "DX10" für XP - so oder so...
BTW ein laaanges interessantes Interview mit Carmack, wobei DX10/HW zur sprache kommen:
Carmack: It’s a tough thing for Microsoft, where, essentially, Windows XP was a just fine operating system. Before that, there were horrible problems with Windows. But once they got there, it did everything an operating system is supposed to do. Nothing is going to help a new game by going to a new operating system. There were some clear wins going from Windows 95 to Windows XP for games, but there really aren’t any for Vista. They’re artificially doing that by tying DX10 so close it, which is really nothing about the OS. It’s a hardware-interface spec. It’s an artificial thing that they’re doing there. They’re really grasping at straws for reasons to upgrade the operating system. I suspect I could run XP for a great many more years without having a problem with it.
http://www.gameinformer.com/News/Story/200701/N07.0109.1737.15034.htm?Page=1

Adam D.
2007-05-03, 16:11:01
Hmm, kannste dir immerhin den Herd sparen, ist doch auch wunderbar ;D

Glaube aber kaum, dass das in der Praxis so aussieht. Mit so einer Kühllösung lässt ATi das Ding doch net in den Handel, wenn die Karte praktisch knapp an der Stabilitätsgrenze arbeitet.

AnarchX
2007-05-03, 16:11:54
1oo Grad?? (http://www.fudzilla.com/index.php?option=com_content&task=view&id=803&Itemid=1) Das hält doch keine paar Jahre :|

Nunja, die Flammen auf dem Kühler sind kein überflüssiges Design, sondern ein Warnhinweis. :D ;)



Aber mittlerweile würde ich bei den Informationen: 100°C unter 3D bei der doch ziemlich guten Kühllösung und dass Overdrive nur mit 6+8Pin funktioniert, doch von einem Realverbrauch ausgehen der um die 200W liegt.
Die schon öfters dazu berichtete TDP von 240W würde auch passen.

Coda
2007-05-03, 16:14:24
Früher oder später gibt es "DX10" für XP - so oder so...
Das glaube ich nicht, Tim.

DrumDub
2007-05-03, 16:18:14
1oo Grad?? (http://www.fudzilla.com/index.php?option=com_content&task=view&id=803&Itemid=1) Das hält doch keine paar Jahre :| also der kühler wird sicherlich nicht 100°C heiß... bei der gpu kann das schon stimmen. der g80 kommt auf ca. 75-85°C.

Gmax
2007-05-03, 16:29:37
Nunja, die Flammen auf dem Kühler sind kein überflüssiges Design, sondern ein Warnhinweis. :D ;)


Stimmt:lol:

also der kühler wird sicherlich nicht 100°C heiß... bei der gpu kann das schon stimmen. der g80 kommt auf ca. 75-85°C.

Ich frage mich, welch ein OC Potenzial ein 1oo Grad Chip noch hat :frown:

dargo
2007-05-03, 16:33:16
Schon gepostet?

http://geizhals.at/deutschland/a254977.html
Puh, das ging schneller als ich dachte. Also 320-330€ halte ich bei guter Verfügbarkeit für realistisch.

deekey777
2007-05-03, 16:39:59
Das glaube ich nicht, Tim.
Wenn's in Anführungszeichen steht, vielleicht.
Zu VALVe: Mit DX10 Karten auch unter XP Vorteile? (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=353601)
1oo Grad?? (http://www.fudzilla.com/index.php?option=com_content&task=view&id=803&Itemid=1) Das hält doch keine paar Jahre :|
Er hat die Rückseite des Kühlers angefasst? Wie soll er das geschafft haben? Den Finger durch die Luftgitter in den Lufttunnel reingesteckt? Die Plastikabdeckung abmontiert und somit die Kühlwirkung ruiniert?

Wie heiß wird die Rückseite der 8800GTX eigentlich?

AnarchX
2007-05-03, 16:53:57
Wie heiß wird die Rückseite der 8800GTX eigentlich?

67°C (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/26/#abschnitt_temperatur)

Aber die X1950XT hat auch schon 84°C, also wäre bei der 2900XT die 100°C wohl gar nicht so unrealistisch.

btw.
AMD empfiehlt ein 750W NT für die HD 2900XT (http://www.fudzilla.com/index.php?option=com_content&task=view&id=810&Itemid=34)(nun offiziell!)
http://img252.imageshack.us/img252/6117/750wcf5eeqm9.jpg

InsaneDruid
2007-05-03, 16:54:35
"A separate source".. "at about 100°".. was wird daraus "der Kühler (!) wird 100° heiß, alles klar. *Augenlied runterzieh* Meine 1900 wurde auch "about 100°" heiß, nämlich 85.

EDIT zu dem Pic: so ganz offiziell scheint mir das nicht zu sein..

"For optimal performance, we recommend requires one 2*3-pin and one 2*4-pin PCIe power connector".

"we recommend requires"? Klingt irgendwie holprig.

Und unten bei der OS Auflistung plötzlich "Vista ready"? Wieso Vista ready, das ist ne Requirement Liste, und ein OS "Vista Ready" gibts net.

Und required wird ein Athlon oder ein PIV? Explizit PIV? Was ist mit den C2D?

Alles ein bisschen sehr strange um glaubhaft zu sein.

Gast
2007-05-03, 17:26:22
http://www.generation-3d.com/Radeon-HD-2900-XT-Stock-disponible-en-masse,ac8924.htm

ist zwar auf französisch, aber interessant

cu
Mr.Stylo

Ronny145
2007-05-03, 17:31:03
btw.
AMD empfiehlt ein 750W NT für die HD 2900XT (http://www.fudzilla.com/index.php?option=com_content&task=view&id=810&Itemid=34)(nun offiziell!)




Ziemlich viel. Für Cossfire würden die dann wohl 1000 Watt empfehlen. Obwohl eine Karte rund 200 Watt verbraucht. So viele 750+ Watt Netzteile gibt es noch gar nicht.

AnarchX
2007-05-03, 17:32:40
Ziemlich viel. Für Cossfire würden die dann wohl 1000 Watt empfehlen. Obwohl eine Karte rund 200 Watt verbraucht. So viele 750+ Watt Netzteile gibt es noch gar nicht.

Naja, bei diesen Angaben geht man ja meist von NoName-Schrott aus, mit einem guten 500W NT sollte man auch kein Probleme imo haben.

Aber das hier AMD 750W angibt ist doch schon bezeichnend.

deekey777
2007-05-03, 17:39:51
"A separate source".. "at about 100°".. was wird daraus "der Kühler (!) wird 100° heiß, alles klar. *Augenlied runterzieh* Meine 1900 wurde auch "about 100°" heiß, nämlich 85.

EDIT zu dem Pic: so ganz offiziell scheint mir das nicht zu sein..

"For optimal performance, we recommend requires one 2*3-pin and one 2*4-pin PCIe power connector".

"we recommend requires"? Klingt irgendwie holprig.

Und unten bei der OS Auflistung plötzlich "Vista ready"? Wieso Vista ready, das ist ne Requirement Liste, und ein OS "Vista Ready" gibts net.

Und required wird ein Athlon oder ein PIV? Expliziet PIV? Was ist mit den C2D?

Alles ein bisschen sehr strange um glaubhaft zu sein.
Und eine HDD braucht das Teil auch nicht, aber ein optisches Laufwerk, um die Treber-CD zu nutzen...

(+44)
2007-05-03, 17:40:03
Naja, bei diesen Angaben geht man ja meist von NoName-Schrott aus, mit einem guten 500W NT sollte man auch kein Probleme imo haben.

Aber das hier AMD 750W angibt ist doch schon bezeichnend.


Jap, bei der 6800Ultra wollte nV ein 480W-NT sehn - bei der (mehr schluckenden) 8800GTX "reicht" dagegen ein 450er.

Ich hab jedenfalls keine Probleme mit der 8800GTX, trotz Tagan TG430U22.

Okay - laut dailytech kann ein vergleichbares Setup bis zu 380W aus der Dose ziehn, aber da ist ja auchnoch der Verlust des Netzteils mit drin.

Mit nem E6600, nem 975X, 4x1GB, 8800GTX, 3 Festplatten und DVBS-Karte läuft die Kiste jedenfalls, trotz 430er Tagan mit 28A/2x20A (oO).

Denke auch, dass n R600 mit nem guten 500er noch versorgbar ist.

dargo
2007-05-03, 17:40:48
btw.
AMD empfiehlt ein 750W NT für die HD 2900XT (http://www.fudzilla.com/index.php?option=com_content&task=view&id=810&Itemid=34)(nun offiziell!)
http://img252.imageshack.us/img252/6117/750wcf5eeqm9.jpg
Die von AMD (wohl eher ATI) haben mit dem R600 echt einen Knall! :ucrazy:
Bin ich froh, dass ich auf dieses Heizwerk (anders kann man das Ding nicht nennen) nicht gewartet habe.

deekey777
2007-05-03, 17:43:16
Liebe Leute, die sich über die 750 W aufregen: Lest doch bitte das Posting von InsaneDruid.

Gmax
2007-05-03, 17:44:44
Die von AMD (wohl eher ATI) haben mit dem R600 echt einen Knall! :ucrazy:
Bin ich froh, dass ich auf dieses Heizwerk (anders kann man das Ding nicht nennen) nicht gewartet habe.

Wie recht Herr Edinger letzten Sommer (http://www.golem.de/showhigh2.php?file=/0608/47044.html) doch hatte.

Botcruscher
2007-05-03, 17:46:13
Quark, erst will ich Messungen dazu sehen. Von der 7800GTX 512 hat man auch behauptet das man 500W aufwärts brauch und dann lief das Ding mit guten 300W Netzteilen problemlos.

dargo
2007-05-03, 17:50:16
Liebe Leute, die sich über die 750 W aufregen: Lest doch bitte das Posting von InsaneDruid.
Mir gehts noch nicht mal in erster Linie um die angeblichen 750W sondern um die ~100°C bei Last. Bei diesem Riesenkühler heißt das nichts gutes. Doch 180-200W real unter Last? :ucrazy:
Hier sieht man gut, dass AMD dringend 65nm für den R600 braucht.

Ronny145
2007-05-03, 18:00:55
Und eine HDD braucht das Teil auch nicht, aber ein optisches Laufwerk, um die Treber-CD zu nutzen...


Ja das liest sich merkwürdig. Sowas würde AMD nicht bringen. Aber da sieht man mal wo Fuad den ganzen Mist her hat. Da bekommt er von jemanden so einen gefakten Mist und postet das als News.


As some of our readers actually didn't believe that their bellowed R600XT might need 750W or more here is some proof.


Schöner Beweis. ;D

deekey777
2007-05-03, 18:04:41
Ja das liest sich merkwürdig. Sowas würde AMD nicht bringen. Aber da sieht man mal wo Fuad den ganzen Mist her hat. Da bekommt er von jemanden so einen gefakten Mist und postet das als News.


As some of our readers actually didn't believe that their bellowed R600XT might need 750W or more here is some proof.


Schöner Beweis. ;D
Du meinst, dass der Autor der Folie und :cop:Fudo:cop: den gleichen Englischlehrer hatten?:biggrin:

reunion
2007-05-03, 18:05:34
Was genau verstehst du unter "Vertex Fetch"? Die IA-Stage?


http://www.beyond3d.com/content/articles/4/6

dargo
2007-05-03, 18:43:19
HD 2900XT @ STALKER:
HD 2900XT:
http://img443.imageshack.us/img443/8630/200705029e34f00a8b1f557mx3.th.jpg (http://img443.imageshack.us/my.php?image=200705029e34f00a8b1f557mx3.jpg)
42 FPS

Sorry, hat etwas länger gedauert. Hier mal die GTS in Aktion.

G8800GTS @standard
http://www.pictureupload.de/originals/pictures/030507183655_XR_3DA_2007-05-03_18-26-04-06.jpg

G8800GTS @612/900Mhz
http://www.pictureupload.de/originals/pictures/030507184154_XR_3DA_2007-05-03_18-27-58-96.jpg

reunion
2007-05-03, 18:52:11
So wie du es beschreibst heißt es nämlich dass ATI FP32-Pointsampling angeflanscht hat anstatt ihre TMUs wie bei G8x vollständig orthogonal zu machen. G8x kann nämlich vollständig anisotrop FP32 filtern sowie 16xQ CSAA auf ein 128-Bit-Rendertarget anwenden und zwar mit genau der gleichen Datenrate wie FP16 auch.

Soviel zum "fortschrittlichen" R600 an diesem Punkt. Das erklärt auch warum das einer der wenigen Punkte in D3D10 ist die optinal sind.


Du lehnst dich gerade extrem weit aus dem Fenster.

Schön, dass du robbitops Erklärungsversuche irgendwie so hindrehst, dass R600 schlecht dasteht. Es zeigt sich jedenfalls schon jetzt, dass die beiden Chips ein völlig anderes Konzept verfolgen was die TMUs betrifft. Während G80 pro Takt 4(!) mal mehr Samples filtern kann als R600, kann er nur gleich viele adressieren (durch den höheren Takt hat R600 in dieser Hinsicht also sogar einen Vorteil). Zusätzlich hat R600 noch 80(!) FP32 Samplers, die wohl auch nicht zum Spaß verbaut wurden. Was IMO auch viel über die Ausrichtung der beiden Chips verrät. G80 kann aktuelle Spiele speziell mit AF extrem gut beschleunigen, dürfte allerdings in Zukunft abfallen, während R600 wohl vorallem in zukünftigen Titeln überzeugen kann. Nicht ohne Grund versucht ATi D3D10 massiv zu pushen, während es von nV in dieser Hinsicht verdammt ruhig ist.

AnarchX
2007-05-03, 19:11:21
Ja, die Folie von Fuad ist nicht ganz astrein. :biggrin:
Generell scheint FUDo eine FUD-Kampagne gegen die HD 2900XT zu führen, in der Realität sieht es vielleicht doch anders aus:

Die Raumtemperatur beträgt 28°C. Die Karte hat eine Idle-Temp von 58°C. 3sec nach einem Bench liegt sie bei 60°C. Die Gehäusetemperatur erreicht schon fast 52°C, nach stundenlangen Übertaktungstests.
Wenn ich richtig verstanden habe was da VictorWang äußert (http://we.pcinlife.com/viewthread.php?tid=759069&page=2&fromuid=167461#pid14366626). ;)

Nakai
2007-05-03, 19:15:32
Wenn ich richtig verstanden habe was da VictorWang äußert (http://we.pcinlife.com/viewthread.php?tid=759069&page=2&fromuid=167461#pid14366626). ;)

Schreib Fudo eine Mail mit stichhaltigen Infos und Gerüchten. Am nächsten Tag wird sie vll als News auf seiner Seite stehen.^^

mfg Nakai

J0ph33
2007-05-03, 19:16:22
uuh...28°C ist ganz schön viel raumtemp...bei momentaner raumtemp von 23°C erreicht meine X1800 "GTX" (Kühlung, siehe Sig) bei 50% Lüfterspeed ~43°C

also sollte sich das mit dem stromverbrauch doch in grenzen halten...

ich finde die karte sehr interessant für den preis, nur stören mich die 512MB etwas, 1GB wäre mir lieber, aber AiL hat da ja was verlauten lassen, wenn auch zunächst nur für OEMs...

Gast
2007-05-03, 19:18:22
Ob Fudo von AMD einen aufn Deckel bekommen hat und jetzt beleidigt ist? ;)

deekey777
2007-05-03, 19:19:14
Die Gehäusetemperatur erreicht 52°C? Wie soll das denn gehen?
Ob Fudo von AMD einen aufn Deckel bekommen hat und jetzt beleidigt ist? ;)
Fudo durfte nicht nach Afrika.

AnarchX
2007-05-03, 19:20:13
Auch Gibbo meint die 100°C sind Unsinn: (http://forums.overclockers.co.uk/showpost.php?p=9247924&postcount=27)
Hi there

Also regarding this 100c nonsence.

This is making my blood boil now.

AMD/ATI let me tell these guys the real facts about this card because the utter crap on the internet is literally that, CRAP!

The card is quiet, in fact its more or less silent even after a good gaming session. It also stays in the 70c-80c under full load whilst overclocked and still remains quiet.

At stock speeds its generally around the 60c-70c mark and the heatsink does not burn to the touch like an 8800GTX or X1950 XTX, so the card can be handled even after a mad benchmarking session.


Die Gehäusetemperatur erreicht 52°C? Wie soll das denn gehen?
Vielleicht meint er den Mainboard-Sensor? Aber keine Ahnung die Stelle konte ich nicht ganz übersetzen...

dargo
2007-05-03, 19:25:12
Die Gehäusetemperatur erreicht 52°C? Wie soll das denn gehen?

Ach, da wird doch wieder alles verwechselt. Bei 52°C Gehäusetemp. würden schon alle Komponenten kochen. ;)
Entweder ist damit die Ambienttemp. der Graka gemeint oder von irgendeinem überflüßigen Mainboardsensor.

Nakai
2007-05-03, 19:25:18
Unser FUDo ist eben beleidigt weil er nicht zu Tunis eingeladet worden ist...:tongue:

At stock speeds its generally around the 60c-70c mark and the heatsink does not burn to the touch like an 8800GTX or X1950 XTX, so the card can be handled even after a mad benchmarking session.

Wie? Kann das ünerhaupt sein mit einem höheren Stromverbrauch als die Geforce 8800GTX.

mfg Nakai

deekey777
2007-05-03, 19:27:37
Ach, da wird doch wieder alles verwechselt. Bei 52°C Gehäusetemp. würden schon alle Komponenten kochen. ;)
Entweder ist damit die Ambienttemp. der Graka gemeint oder von irgendeinem überflüßigen Mainboardsensor.
Umgebungstemperatur der Grafikkarte könnte dies sein. :smile:
Unser FUDo ist eben beleidigt weil er nicht zu Tunis eingeladet worden ist...:tongue:



Wie? Kann das ünerhaupt sein mit einem höheren Stromverbrauch als die Geforce 8800GTX.

mfg Nakai
Wenn's richtig gekühlt wird? Die Stromaufnahme muss auch nicht unbedingt in Wärme umgewandelt werden, sondern auch in Rechenleistung. ;)

dargo
2007-05-03, 19:29:29
Wie? Kann das ünerhaupt sein mit einem höheren Stromverbrauch als die Geforce 8800GTX.

Bei einem sehr guten Kühler ist das kein Hinweis darauf, dass der R600 "wenig" Strom verbraucht.

Nakai
2007-05-03, 19:33:52
Natürlich nicht, jedoch ist der R600-Kühler zum G80-Kühler nicht gerade unterschiedlich, oder sehe ich das wieder falsch?

Die Stromaufnahme muss auch nicht unbedingt in Wärme umgewandelt werden, sondern auch in Rechenleistung.

Lol...oder in Magnetische Impulse^^

mfg Nakai

dargo
2007-05-03, 19:35:45
Natürlich nicht, jedoch ist der R600-Kühler zum G80-Kühler nicht gerade unterschiedlich, oder sehe ich das wieder falsch?

Ich habe keine Ahnung wie effizient dieses Vapo-Dingsbums ist.

AnarchX
2007-05-03, 19:37:30
Natürlich nicht, jedoch ist der R600-Kühler zum G80-Kühler nicht gerade unterschiedlich, oder sehe ich das wieder falsch?

Naja, das Geheimnis der "VAPOR CHAMBER" ist ja noch nicht gelüftet. ;)


Die Stromaufnahme muss auch nicht unbedingt in Wärme umgewandelt werden, sondern auch in Rechenleistung
Ja, die ALUs ernähren sich davon... X-D
Aber imo wird doch das meiste in Wärme umgewandelt, der Rest der über die Ausgänge wieder abfliesst kann man vergessen.

LovesuckZ
2007-05-03, 19:37:36
Nicht ohne Grund versucht ATi D3D10 massiv zu pushen, während es von nV in dieser Hinsicht verdammt ruhig ist.

Verdammt ruhig?
Schonmal die Test zu den Karten angesehen? ;)
nVidia pusht D3D10 schon kräftig, es fällt jetzt nur so stark auf bei AMD, weil sie mit ihrer Karte auf den Markt kommen.

/edit: Keiner geht auf Gibbo ein?


I have the ATI Tech/Fact sheet here so upto 200W is requirement at stock clocks with 2x6pin connectors.
If overclocking then you need 1x8pin and 1x6pin connected and then it consumes upto 225W.

Das wären fast 100 Watt mehr als eine 8800GTS. Das ist irgendwie fazinierend...

Nakai
2007-05-03, 19:37:42
Ob es ein VaporChamperKühler ist, halte ich für fraglich.

mfg Nakai

sulak
2007-05-03, 19:41:31
Zusätzlich hat R600 noch 80(!) FP32 Samplers, die wohl auch nicht zum Spaß verbaut wurden. Was IMO auch viel über die Ausrichtung der beiden Chips verrät. G80 kann aktuelle Spiele speziell mit AF extrem gut beschleunigen, dürfte allerdings in Zukunft abfallen, während R600 wohl vorallem in zukünftigen Titeln überzeugen kann. Nicht ohne Grund versucht ATi D3D10 massiv zu pushen, während es von nV in dieser Hinsicht verdammt ruhig ist.

Was bringen mir die 80 FP32 Samplers? "HDR" ist doch im FP16 Format soweit verbreitet bzw. "common" das dieses (eigentlich ja L/MDR...) locker 5 Jahre der Standard sein wird. Sieht man doch an vielen anderen Sachen, das es ewig brauch bis mal neue Techniken eingesetzt werden. Außerdem nehmen viele Entwickler ja die Konsolen mit ins Visier, da sind Prestige Titel wie Crysis mal die starke Ausnahme was neue Techniken angeht (Crysis is ja eigentlich wieder nur ne Technik Demo für die Engine ;))

Warum sollte der G80 Zukünftig abfallen, was heute gut und schnell gefiltert wird, wird auch in Zukunft gut und schnell sein, oder ändert sich da was? (Außer das wohl G9x ein 1:1 Verhältnis zwischen TA und TS Einheiten wieder haben wird).

Bin gespannt was ne "richtige" DX9 Engine wie Crysis oder U3 bei den Karten an Leistung abfordert. Dann kann man sagen, der Chip macht da und da schlapp weil ihm was fehlt, vorher halt ich das für Wunschdenken :cool:

AnarchX
2007-05-03, 19:41:41
AMD GPU Clock Tool - Works on R600 ! (http://www.techpowerup.com/?30555)
http://img403.imageshack.us/img403/9964/tool19cef1cjy9.jpghttp://img403.imageshack.us/img403/5246/tool29ea24ads6.jpg

dildo4u
2007-05-03, 19:42:38
Nicht ohne Grund versucht ATi D3D10 massiv zu pushen, während es von nV in dieser Hinsicht verdammt ruhig ist.
Crytek sieht das aber ganz anders.


Crysis-Grafik wird von nVidia mitprogrammiert

"Dass die Macher von Crysis einen der optisch beeindruckendsten Titel in der Mache haben, ist weithin bekannt; dass dazu aber auch nVidia einen Teil beigetragen hat, wurde erst kürzlich bekannt. So wurden bereits im Sommer des letzten Jahres zwei nVidia-Mitarbeiter der Spieleschmiede Crytek zur Verfügung gestellt.

Die zwei zusätzlichen Programmierer sind bei Crytek vor allem für die Implementierung einiger Shader-Programme unter DirectX 10 verantwortlich, die das Spielgeschehen realistischer aussehen lassen sollen. nVidia stellte die Unterstützung dabei im Rahmen der hauseigenen „The way it's meant to be played“-Kampagne (TWIMTBP) unentgeltlich zur Verfügung. Man habe zum Ziel, dass möglichst schnell Spiele auf dem Markt erscheinen, die die optischen Vorteile der neuen Generation der Grafikschnittstelle demonstrieren könnten und somit auch Nutzen aus dem aktuellen Grafikkarten-Portfolio ziehen, das DirectX-10-fähig ist."

http://www.computerbase.de/news/software/spiele/actionspiele/2007/maerz/crysis-grafik_nvidia/

deekey777
2007-05-03, 19:44:45
Natürlich nicht, jedoch ist der R600-Kühler zum G80-Kühler nicht gerade unterschiedlich, oder sehe ich das wieder falsch?



Lol...oder in Magnetische Impulse^^

mfg Nakai
Der R600-Kühler scheint eine Heatpipe mehr zu haben (der OEM-Kühler gleich 3 mehr).
Und das ist IMO ziemlich interessant: Warum hat die OEM-Version einen Kühler, der anscheinend für deutlich mehr Wärmeabgabe konzipiert ist als der der Retailversion?
Crytek sieht das aber ganz anders.


Crysis-Grafik wird von nVidia mitprogrammiert

"Dass die Macher von Crysis einen der optisch beeindruckendsten Titel in der Mache haben, ist weithin bekannt; dass dazu aber auch nVidia einen Teil beigetragen hat, wurde erst kürzlich bekannt. So wurden bereits im Sommer des letzten Jahres zwei nVidia-Mitarbeiter der Spieleschmiede Crytek zur Verfügung gestellt.

Die zwei zusätzlichen Programmierer sind bei Crytek vor allem für die Implementierung einiger Shader-Programme unter DirectX 10 verantwortlich, die das Spielgeschehen realistischer aussehen lassen sollen. nVidia stellte die Unterstützung dabei im Rahmen der hauseigenen „The way it's meant to be played“-Kampagne (TWIMTBP) unentgeltlich zur Verfügung. Man habe zum Ziel, dass möglichst schnell Spiele auf dem Markt erscheinen, die die optischen Vorteile der neuen Generation der Grafikschnittstelle demonstrieren könnten und somit auch Nutzen aus dem aktuellen Grafikkarten-Portfolio ziehen, das DirectX-10-fähig ist."

http://www.computerbase.de/news/software/spiele/actionspiele/2007/maerz/crysis-grafik_nvidia/
Und diese sind übrigens seit letzten August dabei. :)

reunion
2007-05-03, 19:55:33
Crytek sieht das aber ganz anders.


Inwiefern? Ich sehe hier keinerlei Aussagen zu der Leistung. Das spricht doch eher dafür, dass nV wiedermal eine speziellen Renderingpfad benötigt, für den Crytec natürlich nicht bereit ist, Geld zu verpulvern.

LovesuckZ
2007-05-03, 19:59:42
Inwiefern? Ich sehe hier keinerlei Aussagen zu der Leistung. Das spricht doch eher dafür, dass nV wiedermal eine speziellen Renderingpfad benötigt, für den Crytec natürlich nicht bereit ist, Geld zu verpulvern.

Es gibt keine unterschiedliche Renderpfade mehr unter D3D10. :rolleyes:

reunion
2007-05-03, 20:01:51
Es gibt keine unterschiedliche Renderpfade mehr unter D3D10. :rolleyes:

Tja, dann werden eben gleich die Originalshader von nV geschrieben, ändert am Inhalt meine Aussage im Prinzip gar nichts.


Das wären fast 100 Watt mehr als eine 8800GTS. Das ist irgendwie fazinierend...

Herstellerangaben mit real gemessenen Verbrauchswerten zu vergleichen ist witzlos.

AnarchX
2007-05-03, 20:08:01
Herstellerangaben mit real gemessenen Verbrauchswerten zu vergleichen ist witzlos.

Gibbo meint, dass sie bis zu 225W@OC brauch. ;)
Und ganz grundlos wird man den 6+8Pin hier auch nicht brauchen.

LovesuckZ
2007-05-03, 20:08:09
Tja, dann werden eben gleich die Originalshader von nV geschrieben, ändert am Inhalt meine Aussage im Prinzip gar nichts.

Call of Juarez, anyone?
Das ist gang und gebe in der Welt der großen Blockbuster. Warum du dich darüber so äußert, verstehe ich nicht.

Herstellerangaben mit real gemessenen Verbrauchswerten zu vergleichen ist witzlos.

Sie werden zu treffen - dazu kommen Gerüchte und Aussagen von Leuten mit Karten einfach zu häufig vor.

reunion
2007-05-03, 20:18:20
Call of Juarez, anyone?
Das ist gang und gebe in der Welt der großen Blockbuster. Warum du dich darüber so äußert, verstehe ich nicht.


Was verstehst du am meine Äußerungen nicht? Ich fand nur dildos Begründungen etwas am Thema vorbei, da das wie du selbst sagst gang und gebe ist, und nicht zwangsläufig für die Leistung eines Grafikchips sprechen muss.


Sie werden zu treffen - dazu kommen Gerüchte und Aussagen von Leuten mit Karten einfach zu häufig vor.

Wir werden sehen.

Gast
2007-05-03, 20:18:46
So wie du es beschreibst heißt es nämlich dass ATI FP32-Pointsampling angeflanscht hat anstatt ihre TMUs wie bei G8x vollständig orthogonal zu machen. G8x kann nämlich vollständig anisotrop FP32 filtern sowie 16xQ CSAA auf ein 128-Bit-Rendertarget anwenden und zwar mit genau der gleichen Datenrate wie FP16 auch.
Sicher? Ich meine, FP16 wäre "half-speed" und FP32 dann "quarter-speed".

reunion
2007-05-03, 20:21:12
Gibbo meint, dass sie bis zu 225W@OC brauch. ;)


In LovesuckZ Zitat spricht er eindeutig von "ATI Tech/Fact sheet". Aber ich will das ja auch gar nicht ausschließen, nur wird in letzter Zeit soviel FUD verbreitet, dass man hier nicht alles glauben muss.

robbitop
2007-05-03, 20:23:03
Sicher? Ich meine, FP16 wäre "half-speed" und FP32 dann "quarter-speed".
Noe. FP16 ist full speed und FP32 ist half speed.
Die 4 restlichen FP32 Sampler sind fuer Vertexfetches. Mehr als 16 bi Samples sind also pro Takt nicht drin.

reunion
2007-05-03, 20:24:21
Noe. FP16 ist full speed und FP32 ist half speed.


Er bezog sich auf G80 IMO.

Mehr als 16 bi Samples sind also pro Takt nicht drin.

Dafür sind die dank fetten Caches, ausreichend Adressierungseinheiten und speziellen FP32 Samplers wohl fast immer drin. Wobei diese natürlich trotzdem arg wenig sind, 32 wären schon angebracht, und werden hoffentlich mit R650 kommen.

Ich finde beim Xenos-Artikel zu den TMUs (die sich von den R600-TMUs wohl gar nicht so weit unterschieden) vor allem den letzten Absatz in diesem Zusammenhang interessant:

The design of the Xenos processor is such that latency within operations is hidden as much as possible. Texture lookups are usually one of highest latency operations in a graphics pipeline, and possibly the least predicable in terms of the variation in the number of cycles a request is made to the data becoming available. Xenos uses a large number of independent threads of vertex and pixel workload interleaved in order to achieve high utilization of all of the processing units while hiding the latency of fetches. The net result is that although a thread may need to wait for a texture sample to be achieved, that thread need not be stalling the ALU's waiting for texture data, instead other threads will operate on the ALU's which should maximise the available texture and ALU resources available.

http://www.beyond3d.com/content/articles/4/6

Gast
2007-05-03, 20:27:45
R300 < NV30 technisch ja, Performance nein (bitte nicht kreuzigen)
R420 < NV40 technisch ja, Performance nein
R520 < G70 technisch nein,Pperformance nein

edit:


R520 < G70 technisch ja, denn der R5xx kann ja nicht mal Texturen im VS samplen, kann also streng genommen nicht einmal VS 3.0.

robbitop
2007-05-03, 20:47:27
Er bezog sich auf G80 IMO.



Dafür sind die dank fetten Caches, ausreichend Adressierungseinheiten und speziellen FP32 Samplers wohl fast immer drin. Wobei diese natürlich trotzdem arg wenig sind, 32 wären schon angebracht, und werden hoffentlich mit R650 kommen.

Ich finde beim Xenos-Artikel zu den TMUs (die sich von den R600-TMUs wohl gar nicht so weit unterschieden) vor allem den letzten Absatz in diesem Zusammenhang interessant:



http://www.beyond3d.com/content/articles/4/6

Ich bin gespannt ob das mit den 256 kiB stimmt. Fuers Texturfiltern bringen die logischerweise keinen Vorteil. Die TAs natuerlich auch nicht. Es gibt 16 TAs fuer die "grossen" Sampler und 16 fuer ungefilterte FP32 TMUs die den Vertexfetch erledigen.

Gast
2007-05-03, 21:24:23
Noe. FP16 ist full speed und FP32 ist half speed.
Die 4 restlichen FP32 Sampler sind fuer Vertexfetches. Mehr als 16 bi Samples sind also pro Takt nicht drin.
Bitte den Kontext lesen, den ich zitierte. Coda sagte, der G80 könne bei gleicher Datenrate (wie FP16) auch FP32.

Gast
2007-05-03, 21:26:02
Nur kann R600 offenbar im Gegensatz zu G80 auch 4 Pointsamples statt einem bilinearen beim Shader abliefern.
Rest von Fetch4 und damit beschleunigten Shadow-Mappings?

Q

btw, das drüber war auch ich.

robbitop
2007-05-03, 21:28:14
Bitte den Kontext lesen, den ich zitierte. Coda sagte, der G80 könne bei gleicher Datenrate (wie FP16) auch FP32.
Mea Culpa.

Gast
2007-05-03, 21:33:52
Zusätzlich hat R600 noch 80(!) FP32 Samplers, die wohl auch nicht zum Spaß verbaut wurden.
Die sind nicht "zusätzlich". Das sind 16 bi-Sampler (16*4) und einmal 16 VTF-Sampler. Macht 16*5=80.

Und FP32 - naja, stimmt zwar, aber da steht nirgends was von single-cycle. Ähnlich wie die PS-ALUs der Delta-Chrome.


Q

Gast
2007-05-03, 21:36:56
Und das ist IMO ziemlich interessant: Warum hat die OEM-Version einen Kühler, der anscheinend für deutlich mehr Wärmeabgabe konzipiert ist als der der Retailversion?

OEM-Version scheint ja schon länger durch die Gegend zu geistern, ergo älter. Ältere Spekulationen gingen ja auch noch von einer XTX aus...

Kleiner Vergleich: 8600 GT verbrät ~41 Watt, 8600GTS bis zu 73 Watt (Nvidia-Angaben). Hoher Takt nur mit hoher Spannung, das gilt dann wohl auch für R600 und eine potentielle XTX-Variante.


Q

Gast
2007-05-03, 21:39:39
Das spricht doch eher dafür, dass nV wiedermal eine speziellen Renderingpfad benötigt, für den Crytec natürlich nicht bereit ist, Geld zu verpulvern.
Vielleicht spricht es aber auch dafür, dass Nvidia (und in dieser Hinsicht natürlich auch AMD) ihre eigenen Chips viel besser kennen, als Programmierer und schon etwas mehr Erfahrung darin haben, die höchstmögliche Leistung rauszuholen?

So können "mehr Effekte" integriert werden oder das Spiel bleibt noch "eine Stufe höher" flüssig spielbar.

Gerade da es keine Caps-Bits mehr gibt, sollten generelle Shader-Optimierungen von einem der IHVs Systemen mit allen DX10-Karten zugute kommen.


Q

Gast
2007-05-03, 21:41:49
Ich finde beim Xenos-Artikel zu den TMUs (die sich von den R600-TMUs wohl gar nicht so weit unterschieden) vor allem den letzten Absatz in diesem Zusammenhang interessant:
Nebenläufige TMUs bedingen so etwas. Und ein massiver Registerspeicher, wie er unter D3D10 sowieso sinnvoll ist (und bei Nvidia offenbar mal wieder etwas knapp geraten...) begünstigen das.


Q

deekey777
2007-05-03, 21:51:42
Es gibt keine unterschiedliche Renderpfade mehr unter D3D10. :rolleyes:
Tja, dann werden eben gleich die Originalshader von nV geschrieben, ändert am Inhalt meine Aussage im Prinzip gar nichts.



Herstellerangaben mit real gemessenen Verbrauchswerten zu vergleichen ist witzlos.
Call of Juarez, anyone?
Das ist gang und gebe in der Welt der großen Blockbuster. Warum du dich darüber so äußert, verstehe ich nicht.



Sie werden zu treffen - dazu kommen Gerüchte und Aussagen von Leuten mit Karten einfach zu häufig vor.
Was verstehst du am meine Äußerungen nicht? Ich fand nur dildos Begründungen etwas am Thema vorbei, da das wie du selbst sagst gang und gebe ist, und nicht zwangsläufig für die Leistung eines Grafikchips sprechen muss.



Wir werden sehen.
Bevor ihr weitermacht, schaut mal in diesen Thread rein, denn das Thema hatten wir bereits: Crysis und Nvidia - Anlass zur Freude oder zur Sorge (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=158013)
Oops, das war der falsche Thread, das ist der richtige Thread: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=354521
Demirugs Thread sollte euch aber was zum Nachdenken geben.
Crytek ist ein Vorzeigespiel (selbst wenn es spielerisch miserabel wird), da muss man einfach schneller als die anderen sein. Was die beiden Mitarbeiter (zwei Mitarbeiter?) so alles optimieren können, kann man nur vermuten.
Überbewertet darf man das nicht.

OEM-Version scheint ja schon länger durch die Gegend zu geistern, ergo älter. Ältere Spekulationen gingen ja auch noch von einer XTX aus...

Kleiner Vergleich: 8600 GT verbrät ~41 Watt, 8600GTS bis zu 73 Watt (Nvidia-Angaben). Hoher Takt nur mit hoher Spannung, das gilt dann wohl auch für R600 und eine potentielle XTX-Variante.


Q
NV scheint gern Sachen wie TDP, reeler Verbrauch und maximaler Verbrauch zu verwechseln (siehe Folie der 8800Ultra, wo aus dem früheren TDP der 8800GTX aufeinmal maximaler Verbrauch wird).

Die OEM-R600 sollen auf dem R600 A13 basieren, deren Verbrauch über 30 W der jüngeren Revisionen liegen soll.
So oder so: Die Lüfter/Kühler-Kombi der 8800er ist meiner Meinung nach deutlich einfacher als die der HD2900XT.

Gast
2007-05-03, 21:54:37
NV scheint gern Sachen wie TDP, reeler Verbrauch und maximaler Verbrauch zu verwechseln (siehe Folie der 8800Ultra, wo aus dem früheren TDP der 8800GTX aufeinmal maximaler Verbrauch wird).
Hast du da einen Link (zu einem Posting etc.)? Die kenne ich nämlich nicht.


Q

deekey777
2007-05-03, 21:59:21
Hast du da einen Link (zu einem Posting etc.)? Die kenne ich nämlich nicht.


Q
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5457865#post5457865
Ich muss mich aber korrigieren: Es ist nicht der reele, sondern der maximale Verbrauch.;(

robbitop
2007-05-03, 22:07:37
Nebenläufige TMUs bedingen so etwas. Und ein massiver Registerspeicher, wie er unter D3D10 sowieso sinnvoll ist (und bei Nvidia offenbar mal wieder etwas knapp geraten...) begünstigen das.


Q
Wie kommst du darauf, dass dieser bei NV knapp geraten ist?

Gast
2007-05-03, 22:09:49
Wie kommst du darauf, dass dieser bei NV knapp geraten ist?

Steht durch die Blume in den CUDA-Unterlagen.


Q

robbitop
2007-05-03, 22:24:49
Interessant. Kannst du mir evtl mit einem Zitat und/oder Seitenzahl aushelfen? :)

Henroldus
2007-05-03, 22:27:02
"Valve arbeitet an einem DirectX 10-Renderpfad für die Source-Engine, welcher jedoch vermutlich erst in Episode 3 Verwendung finden wird"

http://www.grafikkarten.org/showthread.php?t=27686#1

soviel zum Episode 2/DX10 Bundle der HD 2900XT

deekey777
2007-05-03, 22:38:32
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5334255#post5334255
We have started work on a DX10 path, but it's not clear that we'll have that finished before we ship Episode 2. Based on the stats we're seeing, there are VERY few customers with Vista and even fewer with Vista and a DX10 graphics card, making it hard to justify doing the work to port to DX10 when that effort could be used to improve the graphics on DX9 for millions of other customers. The DX10 work will happen, it's just a question of when

Gast
2007-05-03, 22:50:35
Interessant. Kannst du mir evtl mit einem Zitat und/oder Seitenzahl aushelfen? :)


Nicht aus dem Kopf - morgen evtl.


Q
-------------------------------
Da geht's weiter: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=360885