PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 4870 X2: (P)Review-Thread


Seiten : [1] 2 3

tombman
2008-07-14, 06:55:01
http://img176.imageshack.us/img176/7708/01ar7.jpg (http://imageshack.us)
AMD Pressemitteilung (http://www.amd.com/us-en/Corporate/VirtualPressRoom/0,,51_104_543~127542,00.html)

Testberichte:

Anandtech (http://www.anandtech.com/video/showdoc.aspx?i=3372&p=1)
ChileHW (Spanish) (http://www.chw.net/Revisiones/Tarjetas-de-Video/AMD-ATi-Radeon-HD-4870-X2-200808122070.html)
Club Overclocker (http://www.cluboverclocker.com/reviews/video/sapphire/hd4870x2_2GB/page1.asp)
ComputerBase (German) (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/) <-- ATI Catalyst 8.52.2 Beta
CustomPC (http://www.custompc.co.uk/reviews/604626/ati-radeon-hd-4870-x2.html) <-- ATI Catalyst 8.52.2 Beta
DriverHeaven (http://www.driverheaven.net/reviews.php?reviewid=607)
ExtremeTech (http://www.extremetech.com/article2/0,2845,2327863,00.asp)
FiringSquad (http://www.firingsquad.com/hardware/amd_ati_radeon_4870_x2_performance_review/) <-- ATI Catalyst 8.52.2 Beta
Guru3D (http://www.guru3d.com/article/radeon-hd-4870-x2-review-crossfire/) <-- ATI Catalyst 8.52.2 Beta
Hardtecs4u.de (http://ht4u.net/reviews/2008/sapphire_radeon_hd_4870_x2/)
HardwareCanucks (http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/9225-palit-radeon-hd-4870-x2-2gb-video-card-review.html) <-- ATI Catalyst 8.52.2 Beta
HardwareZone (http://www.hardwarezone.com/articles/view.php?cid=3&id=2653) <-- ATI Catalyst 8.52.2 Beta
Hexus.net (http://www.hexus.net/content/item.php?item=14928)
HotHardware (http://www.hothardware.com/Articles/ATI-Radeon-HD-4870-X2--AMD-Back-On-Top/) <-- ATI Catalyst 8.52.2 Beta
Madshrimps (http://www.madshrimps.be/?action=getarticle&articID=864) <-- ATI Catalyst 8.52.2 Beta
Matbe (French) (http://www.matbe.com/articles/lire/961/ati-radeon-hd-4870-x2-la-carte-des-superlatifs/) <-- ATI Catalyst 8.52.2 Beta
Neoseeker (http://www.neoseeker.com/Articles/Hardware/Reviews/hd4870x2/) <-- ATI Catalyst 8.52.2 Beta
OverclockersClub (http://www.overclockersclub.com/reviews/sapphire_4870x2/6.htm)
PCGH-Test: Radeon HD 4870 X2 (http://www.pcgameshardware.de/aid,655276/Test/Benchmark/PCGH-Test_Radeon_HD_4870_X2/)
PC Perspective (http://www.pcper.com/article.php?aid=605) <-- ATI Catalyst 8.52.2 Beta
Techgage (http://techgage.com/article/palit_radeon_hd_4870_x2_1gb_-_amd_reclaims_gpu_supremacy/) <-- ATI Catalyst 8.52.2 Beta
techPowerUp (http://www.techpowerup.com/reviews/Sapphire/HD_4870_X2/) <-- ATI Catalyst 8.52.2 Beta
TechReport (http://techreport.com/articles.x/15293) <-- ATI Catalyst 8.52.2 Beta
Tom's Hardware (http://www.tomshardware.com/reviews/4870-x2-amd,1992.html) <-- ATI Catalyst 8.52.2 Beta
TweakTown (http://www.tweaktown.com/reviews/1541/sapphire_radeon_hd_4870_x2_in_crossfire/index.html)
ATI RADEON HD 4870 X2 2x1024MB (http://www.digit-life.com/articles3/video/rv770-3-part1-p1.html)

(thx to XSF.org)

Spezfikationen:

GPU:

Bezeichnung: RV770
Prozess: 55nm bei TSMC
Transistorenanzahl: 956 Mio.
Chip-Größe: 256mm²

Funktionseinheiten:

2x 160 Vec5-ALUs, organisiert in 10 SIMDs (~800SPs MADD)
2x 40 TAs, 40 bi-TMUs
2x 16 ROPs (4 Z)
2x 256-Bit Speicherinterface (4-fach unterteilt); 2x 1024MiB GDDR5


Taktraten:

TMU/ROPs: 750MHz
Shadertakt: 750MHz
Speichertakt: 900MHz Command, 1800MHz Daten


Theoretische Leistungs-Daten:

Pixelfüllrate: 2x 12000 MPix/s
Texelfüllrate: 2x 30000 MTex/s
arithmetische Leistung: 2x 1200 GFLOPs MADD
Speicherbandbreite:2x 115GB/s


Besonderheiten:
Crossfire-Sideport:
http://img513.imageshack.us/img513/85/sideport9349586wl4.jpg (http://imageshack.us)
-> momentan noch nicht funktionell (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6716353#post6716353), Nutzung überhaupt mehr als unsicher, da er nicht vom AIB implementiert werden muss



Verbrauch:
http://img262.imageshack.us/img262/4691/4870x2power2213598ys3.gif (http://imageshack.us)
http://www.xbitlabs.com/articles/video/display/radeon-hd4870-x2_6.html#sect0




Anandtech
http://anandtech.com/video/showdoc.aspx?i=3354&p=1

Driverheaven
http://www.driverheaven.net/reviews.php?reviewid=588&pageid=1

Aber zieht euch das mal rein!

"AMD did have some stipulations for our R700 preview, they were as follows:

1. Previews can be posted any time after 12:01 am on Monday, July 14th.
2. Previews can include benchmarks of any combination of artificial tests or games up to a maximum of four.
3. As PowerPlay has not been enabled in the BIOS on your engineering sample, please stay away from Idle Power tests at this point.
4. In the interest of leaving something for the full NDA lift in August, we'd ask you to keep this high level and not go deep on the architecture at this point."

WTF???????? Punkt 2!!!

weitere Previews:
PC Perspective (http://www.pcper.com/article.php?typ...&aid=590&pid=2)
Techreport (http://techreport.com/articles.x/15105)
Hexus (http://www.hexus.net/content/item.php?item=14178)
Extremetech (http://www.extremetech.com/article2/0,2845,2325444,00.asp)
[H]ard|OCP (http://enthusiast.hardocp.com/article.html?art=MTUzMSwxLCxoZW50aHVzaWFzdA==)
ATI RADEON HD 4870 X2 (R700) 2x1024MB Preview (http://www.digit-life.com/articles3/video/rv770-3-part0-p1.html)@Digit-Life
Radeon HD 4870 X2 im PCGH-Benchmark-Test (http://www.pcgameshardware.de/aid,653166/Test/Benchmark/Radeon_HD_4870_X2_im_PCGH-Benchmark-Test/)

Fetza
2008-07-14, 07:16:37
Anandtech
http://anandtech.com/video/showdoc.aspx?i=3354&p=1

Driverheaven
http://www.driverheaven.net/reviews.php?reviewid=588&pageid=1

Aber zieht euch das mal rein!

"AMD did have some stipulations for our R700 preview, they were as follows:

1. Previews can be posted any time after 12:01 am on Monday, July 14th.
2. Previews can include benchmarks of any combination of artificial tests or games up to a maximum of four.
3. As PowerPlay has not been enabled in the BIOS on your engineering sample, please stay away from Idle Power tests at this point.
4. In the interest of leaving something for the full NDA lift in August, we'd ask you to keep this high level and not go deep on the architecture at this point."

WTF???????? Punkt 2!!!


Hmm, ich lese es so, dass sie maximal 4 verschieden applikationen testen dürfen. Hierbei ist es egal, ob nur syntethische benchmarks, oder aber richtige games, oder aber eine mischung aus beiden verwandt wird.

tombman
2008-07-14, 07:19:22
Hmm, ich lese es so, dass sie maximal 4 verschieden applikationen testen dürfen. Hierbei ist es egal, ob nur syntethische benchmarks, oder aber richtige games, oder aber eine mischung aus beiden verwandt wird.
Jo, stimmt ja auch so. Aber warum dieses Limit??? Dann tun sich eben 5 review Sites zusammen, und jeder testet was anderes :rolleyes:

Und in Crysis suckt sie immer noch- komisch. Bekommt ATI CF in Crysis einfach nicht zum Laufen oder was soll das?

CrazyIvan
2008-07-14, 07:22:08
Ich finde eigentlich nur Punkt 3 bedenklich. Der Rest ist in meinen Augen akzeptabel, da man mit Hinweis auf das NDA nur eine Art Sneak Previews zulassen will. Bedenklich wäre 2. IMHO nur, wenn man die Benchmarks und deren Settings vorschreiben würde.

horn 12
2008-07-14, 07:48:33
Ja, aber die Stomaufnahme und die vor allem die Lautstärke des Lüfters unter IDLE und 3D, lese dazu noch nichts? Wie sieht es hierbei mit dieser Karte aus? Besser als HD 4870 oder noch "schlimmer" ?

Gast
2008-07-14, 07:49:31
Dafür sind die Ergebnisse recht beeindruckend.

reunion@work
2008-07-14, 08:06:02
Das Ding schlägt ein 4870 CF System, trotz nur eines vorhandenen PCIe-Anschlusses. Der Sideport scheint einiges zu bringen.

reunion@work
2008-07-14, 08:11:57
/Edit: Der Stromverbrauch liegt unter einem 4870 CF-System. Schade das man nur die Variante mit 2 x 512 MB VRAM testen konnte.

Spasstiger
2008-07-14, 08:19:25
Fast 200 Watt mehr unter Last als mit einer Radeon HD3870 oder einer GeForce 8800 GT sind aber schon kranke Dimensionen. Nicht überraschend, aber eben doch gewöhnungsbedürftig. Die HD4870 X2 dürfte wohl über 300 Watt peak verbrauchen.

reunion@work
2008-07-14, 08:21:31
Fast 200 Watt mehr unter Last als mit einer Radeon HD3870 oder einer GeForce 8800 GT sind aber schon kranke Dimensionen. Nicht überraschend, aber eben doch gewöhnungsbedürftig. Die HD4870 X2 dürfte wohl über 300 Watt peak verbrauchen.

Über 300W ist gar nicht möglich, bei den vorhandenen Stromanschlüssen. Die TDP liegt bei 272W.

Spasstiger
2008-07-14, 08:24:27
Über 300W ist gar nicht möglich, bei den vorhandenen Stromanschlüssen. Die TDP liegt bei 272W.
Die HD4870 geht auch schon über die TDP hinaus, was die Peak-Werte betrifft.

Eine takt- und spannungsreduzierte HD4850 X2 wäre nett für all diejenigen, die noch auf ihre Stromrechnung achten müssen und auf die letzten 20% fps verzichten können.

S940
2008-07-14, 08:45:41
Eine takt- und spannungsreduzierte HD4850 X2 wäre nett für all diejenigen, die noch auf ihre Stromrechnung achten müssen und auf die letzten 20% fps verzichten können.Sowas ist doch auch angekündigt, oder nicht ?

Zum Test, was soll die Bemerkung hier:
http://www.driverheaven.net/reviewimages/r700preview/graphs/wic2560.jpg
World in Conflict shows us the huge performance advantage the R700 has over the 3870 X2. At 1920x1200 the newer product is just over twice the speed and this rises to nearly three times the performance at 2560x1600. We can also see a significant gain over a 4870 CrossFire system when testing at higher resolutions; this is no doubt related to the memory available on the R700.http://www.driverheaven.net/reviews.php?reviewid=588&pageid=4
Stimmt mir hier jeder zu, wenn ich sage, dass das Blödsinn, und höchstwahrscheinlich dem Sideport zuzurechnen ist ?

ciao

Alex

Sorkalm
2008-07-14, 08:56:27
Ja, es ist dem Sideport zuzurechnen. Anandtech hat einen R700 mit 2x 512 MiB GDDR5, und auch der ist schneller als ein 4870CF-Gespann.
Edit: Aber das kann auch am Treiber liegen, 8.5 vs. 8.7 Pressrelease.

pest
2008-07-14, 09:01:57
-del-

Gast
2008-07-14, 09:10:41
Liegt wahrscheinlich nur an einem neueren Treiber für die X2.

Marodeur
2008-07-14, 10:08:07
In Age of Conan scheint die X2 ja richtig gut abzugehen @ tombman. ;)

As you can see, moving up to the Radeon HD 4870 X2 CrossFireX configuration we are now able to set the absolute highest AA setting possible here, 24X CFAA WITH Adaptive AA! Yes, 24X CFAA with Adaptive AA, and getting an average framerate of 51 FPS. Holy cow, what else is there to say really? It blows the doors off of the GTX 280.

Schlammsau
2008-07-14, 10:10:02
steht irgendwo schon was über dir µR?

Gast
2008-07-14, 10:10:19
alles die 1gb version ...leider. somit schneiden alle 2500x1600 tests schlecht aus für die r700.

Gast
2008-07-14, 10:10:44
Hm, Crossfire auf einer Karte. Leistung ist abartig, Stromverbrauch heftig, halt wie bei SLI/CF. Wie schauts aus an der MR-Front?

AnarchX
2008-07-14, 10:11:23
alles die 1gb version ...leider. somit schneiden alle 2500x1600 tests schlecht aus für die r700.
[H]ard|OCP schreibt etwas in ihrem Test von 1GB pro GPU.

Avalox
2008-07-14, 10:11:34
Sind ja mächtig beeindruckende Ergebnisse, welche die X2 dort einfährt.

Zwei Sachen finde ich schade, an den bisher gesehenen Benchmarks.

Bis auf den verunglückt üblen [H]ard|OCP ist kein X2 Crossfire Gespann getestet worden, auch hat niemand scheinbar ein AMD-790FX zum testen genommen.

Nun fehlt noch der 4 x 4870X2 Support.

Gast
2008-07-14, 10:14:22
[H]ard|OCP schreibt etwas in ihrem Test von 1GB pro GPU.

hm...auf den gpuz screenshot wird nur 1 gig angezeigt. mal schauen was andere test noch so ergeben.

Gast
2008-07-14, 10:14:40
alles die 1gb version ...leider. somit schneiden alle 2500x1600 tests schlecht aus für die r700.

Hm, dann müssen sich die Reviewer irgendwie vertan haben:

http://images.anandtech.com/graphs/r700_071308223626/17190.png

http://images.anandtech.com/graphs/r700_071308223626/17190.png

Gast
2008-07-14, 10:21:30
hm...auf den gpuz screenshot wird nur 1 gig angezeigt. mal schauen was andere test noch so ergeben.

ich habe bei HC nachgelesen. scheint zu stimmen. 2GB.
Schade, ich hoffe immer noch auf bessere ergebnisse bei crysis.

wobei GRID vom game hergesehe m.E. besser ist :-) und somit relevanter

Gast
2008-07-14, 10:23:48
ich habe bei HC nachgelesen. scheint zu stimmen. 2GB.
Schade, ich hoffe immer noch auf bessere ergebnisse bei crysis.

wobei GRID vom game hergesehe m.E. besser ist :-) und somit relevanter

So nen Quark. Für jeden ist das relevant was er gerne spielt...

Gast
2008-07-14, 10:25:37
So nen Quark. Für jeden ist das relevant was er gerne spielt...
tja, du hast recht.
aber du solltest bitte richtig lesen, bevor du herziehst. achte auf "m.E."

gruss

Fetza
2008-07-14, 10:26:10
Und in Crysis suckt sie immer noch- komisch. Bekommt ATI CF in Crysis einfach nicht zum Laufen oder was soll das?

Wenn man bedenkt, das der crysis wert in 1680er auflösung niedriger ist, als in der 1980er auflösung, kann es sich hier nur um ein treiberproblem handeln. (extremtech test)

Gast
2008-07-14, 10:29:17
tja, du hast recht.
aber du solltest bitte richtig lesen, bevor du herziehst. achte auf "m.E."

gruss


Hm, dann hab ich wohl ein Problem mit sprachlicher Logik... Imho ist etwas nicht relevanter wenn es deiner Einschätzung nach besser ist.

AnarchX
2008-07-14, 10:37:49
Nun fehlt noch der 4 x 4870X2 Support.
Wer will denn mit 8 FPS Input-Lag spielen?:|

Megamember
2008-07-14, 10:43:49
Oh nein. Jetzt muss ich ganz stark sein und mir einreden das meine GTX noch dicke reicht.*Darfnichtkaufen*.*Musssparen*ARgh:ugly2:

Avalox
2008-07-14, 10:49:14
Wer will denn mit 8 FPS Input-Lag spielen?:|

Spielt man nicht heute schon mit einen ähnlich grossen Eingabe-Lag, auch bei nur einer GPU?

Aber egal der CF Lag ist doch nicht Gott gegeben. Er liegt doch an der Treiber Heuristik um üble Programmierung zu erkennen.
Native und bewusste Multi GPU Unterstützung wird doch immer mehr in aktuelle Spiele Einzug finden.

Marodeur
2008-07-14, 10:50:16
Crysis scheint ja echt ein Problemfall für ATI zu sein. Vor allem wenn man sich mal die Ergebnisse bei extremetech zu gemüte führt.

http://common.ziffdavisinternet.com/util_get_image/21/0,1425,i=214569,00.jpg

Als würd die Karte da irgendwie "festhängen".

pest
2008-07-14, 11:02:27
also wenn man sich bei manches Benches das Verhältnis Min-Max-Fps anschaut scheinen die MRs noch da zu sein.

AnarchX
2008-07-14, 11:02:34
Spielt man nicht heute schon mit einen ähnlich grossen Eingabe-Lag, auch bei nur einer GPU?
Das Problem ist nur hier, dass diese 8 FPS Lag zu schon vorhanden Lags im System hinzukommen.


Aber egal der CF Lag ist doch nicht Gott gegeben. Er liegt doch an der Treiber Heuristik um üble Programmierung zu erkennen.
Native und bewusste Multi GPU Unterstützung wird doch immer mehr in aktuelle Spiele Einzug finden.
Nein, das ist ein generelles Problem was aus dem AFR-Konzept rührt und solang dieses verwendet wird, ist nicht wirklich sinnvoll mehr als 4 GPUs zu verwenden.

Nicht ohne Grund war das Pre-Render-Limit >3 unter D3D9 nicht WHQL-konform.

Und wenn man sich schon anschaut, wie es mit den 4-Way-AFR-Profilen bei ATi aussieht, dann wäre eine weitere Baustelle nicht wirklich sinnvoll.

Spasstiger
2008-07-14, 11:04:49
Spielt man nicht heute schon mit einen ähnlich grossen Eingabe-Lag, auch bei nur einer GPU?
Über 200 ms Lag? Wohl kaum. Bei so einem Lag beschweren sich ja schon die Filmfans über Asynchronität (wenn Ton und Bild entsprechend versetzt), Zocker reagieren noch empfindlicher auf Verzögerungen).

Gast
2008-07-14, 11:07:08
also wenn man sich bei manches Benches das Verhältnis Min-Max-Fps anschaut scheinen die MRs noch da zu sein.

Au Backe, was war das denn jetzt füpr ein Kommentar.

Wenn bei Ausgabestart der Abstand zwischen 1. und 2. Frame besonders lang ist und dieser Wert als Min FPS angezeigt wird hat man dann MR? Leg dich lieber wieder schlafen ;)

pest
2008-07-14, 11:11:16
Wenn bei Ausgabestart der Abstand zwischen 1. und 2. Frame besonders lang ist und dieser Wert als Min FPS angezeigt wird hat man dann MR? Leg dich lieber wieder schlafen ;)

ja mag sein, wird aber nicht so sein ;)
bei 100 avg und 300 max ist die wahrscheinlichkeit für MRs ziemlich hoch

Avalox
2008-07-14, 11:15:16
Über 200 ms Lag? Wohl kaum. Bei so einem Lag beschweren sich ja schon die Filmfans über Asynchronität (wenn Ton und Bild entsprechend versetzt), Zocker reagieren noch empfindlicher auf Verzögerungen).

Warum auf einmal eine feste Zeit? Die Lags sind doch Frame basierend.

Schon heute hingt die Eingabe um mehrere Frames hinterher. Physik, Kollisionsberechnungen, verschiedene Grafikeffekte fordern halt Ihren Tribut.
Ich denke 4 FPS daddelt heute jeder mindestens in der Vergangenheit.
Trotzdem bedeutet dieses, dass auf schnellen Rechnern eben diese Vergangenheit aktueller ist, als auf langsamen Rechnern. Weil eben die Zeitspanne für die selbe Anzahl von Frames geringer ist.



@AnarchX

Ah ich verstehe.
Natürlich wird pro GPU heute immer nur ein komplettes Bild gerendert werden da hast du Recht.
Da aber die Bilder nun mit einer zusätzlichen Rechenleistung erstellt werden, sind ja dann auch "mehr" Bilder gerendert worden. Kurzum die Zeit pro Frame sinkt.
Die Zeitspanne dieses Lag dürfte sich gar nicht vom normalen Eingabe-Lag gross unterscheiden. Du wartest halt nur flüssiger. Aber die Zeitspanne des wartens ist im (bei einer hinreichend schnellen CPU) gleich.

Dem Spieler interessiert ja die Zeit nachdem das Spiel reagiert und nicht die Frames die bis dann erscheinen.

Odal
2008-07-14, 11:18:23
ich würde mal sagen GTX280 wurde gep0rnt

bei crysis muss das ein treiberproblem sein, anders kann man sich das nicht erklären das das teil über sämtliche auflösungen nahezu gleiche leistung liefert...

die werden das doch nicht künstlich limitiert haben um später erst die katze ausm sack zu lassen :D

aber stromverbrauch ist, wie zu erwarten, heftig...

naja in dem segment zählt eher die leistungskrone...für mich wär die karte eher nix

user77
2008-07-14, 11:19:00
wen interessiert denn crysis? giebt viel bessere spiele die es sich zu benchen lohnt, zumal eh fast keine spiele mit der crysis engine rauskommen.

robbitop@work
2008-07-14, 11:27:07
Ja, es ist dem Sideport zuzurechnen. Anandtech hat einen R700 mit 2x 512 MiB GDDR5, und auch der ist schneller als ein 4870CF-Gespann.
Edit: Aber das kann auch am Treiber liegen, 8.5 vs. 8.7 Pressrelease.
Schau mal auf die Auflösung! Dazu noch 4x AA. Da bringen mehr als 512 MiB VRAM mit Sicherheit etwas.

Sorkalm
2008-07-14, 11:43:26
Crysis scheint ja echt ein Problemfall für ATI zu sein. Vor allem wenn man sich mal die Ergebnisse bei extremetech zu gemüte führt.
[...]

Als würd die Karte da irgendwie "festhängen".

Könnte vom Bild her sogar ein CPU-Limit sein.

Schau mal auf die Auflösung! Dazu noch 4x AA. Da bringen mehr als 512 MiB VRAM mit Sicherheit etwas.

Anandtech hatte einen R700 mit effektiven 512 MiB (x2) vs. zwei 4870 mit effektiven 512 MiB - das kommt aufs selbe hinaus.

Shakti
2008-07-14, 11:50:04
Warum haben die ... von ATI dem tombman keine zum Testen gegeben, dann wuessten wir jetzt ob MR oder nicht.

Schlammsau
2008-07-14, 11:57:10
Warum haben die ... von ATI dem tombman keine zum Testen gegeben, dann wuessten wir jetzt ob MR oder nicht.

genau, Tombman ist der einzige Mensch dem man glauben kann!

derguru
2008-07-14, 12:03:02
quak,nette heizung:wink:

lieber 2*4870 1gb im cf,quad wird der stromfresser überhaupt und die skalierung bei 4 kernen kennt man ja :down:

nette karte für leute mit sli boards und boards ohne vollständiger cf unterstützung aber mehr auch nicht.

nagus
2008-07-14, 12:17:23
Crysis scheint ja echt ein Problemfall für ATI zu sein. Vor allem wenn man sich mal die Ergebnisse bei extremetech zu gemüte führt.

http://common.ziffdavisinternet.com/util_get_image/21/0,1425,i=214569,00.jpg

Als würd die Karte da irgendwie "festhängen".

CPU limitiert vielleicht?

dildo4u
2008-07-14, 12:18:30
130Watt über der GTX280 viel Spaß beim Sicherung und Netzteil zerschießen.

http://s5.directupload.net/images/080714/vmyowov5.gif

http://techreport.com/articles.x/15105/7

CPU limitiert vielleicht?
Dann würde die X2 die selben Fps erreichen wie die GTX280. ;)

Sorkalm
2008-07-14, 12:25:24
130Watt über der GTX280 viel Spaß beim Sicherung und Netzteil zerschießen.

IMHO ist Techreport gerade dabei. Solche hohen Unterschiede (schau dir auch mal GTX 280 und GTX 280 SLI an!) deuten darauf hin, dass das Netzteil am Ende ist.

gisbern
2008-07-14, 12:35:59
@dildo, n Fön verbraucht 1500w...........

Megamember
2008-07-14, 12:41:08
@dildo, n Fön verbraucht 1500w...........
Und?? Einen Fön hat man eher seltener stundenlang laufen.

Gast
2008-07-14, 12:47:55
Und?? Einen Fön hat man eher seltener stundenlang laufen.


Ja da fragt man sich ja wo die Energie her kommen soll. Tolle Messung, 130 Watt über der GTX280. :ulol:

Gast
2008-07-14, 12:49:28
Ja da fragt man sich ja wo die Energie her kommen soll. Tolle Messung, 130 Watt über der GTX280. :ulol:


PS: Natürlich, das Gesamtsystem zieht mit ner GTX280 nur 300 Watt, bestimmt...

Marodeur
2008-07-14, 12:55:06
CPU limitiert vielleicht?

Hm, Crysis und CPU-Limit? :confused:

Bei anderen Games scheint ja auch kein CPU-Limit zu sein und grad bei Crysis wo es immer heist es würd vor allem die GPU fordern plötzlich ein CPU-Limit? Ich weis nicht... Ok, rein von der Grafik her schauts danach aus, glaubs aber trotzdem nicht.

Odal
2008-07-14, 12:55:50
Dann würde die X2 die selben Fps erreichen wie die GTX280. ;)


wenn beide den gleichen treiber nutzen vielleicht :rolleyes:

Gast
2008-07-14, 13:01:01
130Watt über der GTX280 viel Spaß beim Sicherung und Netzteil zerschießen.


immerhin aber auch noch locker mehr als 100 Watt unter nem GTX280 SLI Gespann, wer Strom sparen will kauft sich glaub ich eh keine HighEnd Karten und erst recht kein CF/SLI

Palpatin
2008-07-14, 13:14:54
Intressant das mein 4850 CF gespann laut anandtech in AoC (das einzige Game das ich die letzten 2 Monate gezockt hab) in 30 Zoll Auflösung genau so schnell ist wie ein GTX 280 SLI Verbund. Die 4870 X2 rockt das ganze nochmal so richtig, da juckts einem gleich wieder in den Fingern, für den 24 Zoll tuns die beiden 4850 noch aber irgendwann muss der 30 Zoll her und spätestens dann auch die 4870X2.

Der_Korken
2008-07-14, 13:20:07
Dieses Diagramm zum Stromverbrauch ist irgendwie merkwürdig. Der Unterschied zwischen 280GTX und 280GTX SLI beträgt satte 265 Watt, aber so viel wird die eine Karte mehr ja wohl kaum verbrauchen. Und dann verbraucht das Gesamtsystem mit einer GTX nur 300 Watt ... zieht man man nun die 265 Watt, die eine GTX laut dem Diagramm verbraucht, ab dann bleiben ganze 35 Watt für das gesamte restliche System übrig :|

Ich warte mal auf die Messungen von xbitlabs, da wird die Messung nicht durch Restkomponenten und Netzteileffizienz so stark verfälscht.

Gast
2008-07-14, 13:24:55
Das kommt davon wenn man den ALDI Energiemonitor für 4,49 Eur verwendet.

Skinner
2008-07-14, 13:28:45
Bekommt ATI CF in Crysis einfach nicht zum Laufen oder was soll das?

So ist es leider. Crysis verhält sich mit jedem Treiber im Crossfire. Mal geht DX10 64Bit, und dann wieder nur DX 32Bit.

Vielleicht ist Crysis für ATI nicht wichtig. Das Spiel ist, wenn es es ernst betrachtet, eh ein Flop, was sicherlich nicht nur an den zu hohen Hardwareanforderungen liegt.

Gast
2008-07-14, 13:38:52
Sieht ja schon recht vielversprechend aus. Nun bin ich gespannt, was NV als Reaktion zu bieten hat. Angeblich soll man ja genügend passende Antworten in der Schublade haben, aber das könnte natürlich auch nur Geschwätz sein. Vielleicht hat NV sich auch einfach mehr auf ihre MoBo Chipsätze konzentriert in letzter Zeit.

Aquaschaf
2008-07-14, 13:39:13
Vielleicht ist Crysis für ATI nicht wichtig. Das Spiel ist, wenn es es ernst betrachtet, eh ein Flop, was sicherlich nicht nur an den zu hohen Hardwareanforderungen liegt.

Ein Flop ist es nicht. Und selbst wenn man die Verbreitung nicht berücksichtigt: es ist die obere Messlatte zur Zeit. In jedem Benchmark-Parcour taucht es heute sowie in der absehbaren Zukunft auf. Mit den derzeitigen Ergebnissen kann man bei ATI sicher nicht zufrieden sein aus diesem Grund.

Gast
2008-07-14, 13:53:29
Als Spiel mag Crysis ein Reinfall sein, als benchmark hingegen kann man es nicht ignorieren.

Gast
2008-07-14, 13:56:05
Als Spiel mag Crysis ein Reinfall sein, als benchmark hingegen kann man es nicht ignorieren.

Seh ich genauso, kein tolles Spiel aber als Grafikdemo und Benchmark auf jeden Fall zu gebrauchen. Warum ATi da Probleme hat wüsste ich auch gern, muss allerdings ein schwerwiegendes sein sonst hätte man das schon lange behoben da sich auch die 38XX damit schwer tat.

Gast
2008-07-14, 14:05:29
130Watt über der GTX280 viel Spaß beim Sicherung und Netzteil zerschießen.

http://s5.directupload.net/images/080714/vmyowov5.gif

http://techreport.com/articles.x/15105/7



Wie immer äußerst konstruktive Beiträge von dir. Gut das ein GTX280 SLi-System da nochmal 130Watt drauflegt. Da müsste es ja dann schon längst zur Kernschmelze kommen.



Dann würde die X2 die selben Fps erreichen wie die GTX280. ;)

Ab 1920x1200 schlägt ma die GTX280.

HOT
2008-07-14, 14:17:25
Als Spiel mag Crysis ein Reinfall sein, als benchmark hingegen kann man es nicht ignorieren.
Ich würds eher umgekehrt sehen: Als Spiel wird es gerne unterschätzt und als Benchmark überschätzt.

Gast
2008-07-14, 14:23:40
http://www.abload.de/img/iigk4s.jpg

Ui geht die ab =) auch die HD4870 ist verdammt nah an der GTX280 ;D

Gast
2008-07-14, 14:27:58
Ach, gibts die schon zu kaufen? Wie teuer soll die denn werden? Und welche Seite ist das die gebencht hat und mit welcher Rig? Erstmal abwarten ob das stimmt...

Grestorn
2008-07-14, 14:29:29
Ich würds eher umgekehrt sehen: Als Spiel wird es gerne unterschätzt und als Benchmark überschätzt.

So sehe ich das auch. In Crysis steckt viel mehr als allgemein angenommen, nur muss man sich mit dem Spiel intensiv auseinandersetzen und die einzelnen Level und ihre Möglichkeiten wirklich erforschen.

Gast
2008-07-14, 14:35:56
http://www.abload.de/img/iigk4s.jpg

Ui geht die ab =) auch die HD4870 ist verdammt nah an der GTX280 ;D

http://anandtech.com/video/showdoc.aspx?i=3354&p=6

Ui die suckt ja voll ab, auch die HD4870 ist da verdammt lahme.

p.s. :D

Gast
2008-07-14, 14:40:01
http://anandtech.com/video/showdoc.aspx?i=3354&p=6

Ui die suckt ja voll ab, auch die HD4870 ist da verdammt lahme.

p.s. :D

Warum? GTX280= 36,8fps vs. R700= 50,3fps :P sind beide in der selben Preislage

Gast
2008-07-14, 14:41:34
Wie blöd. Immer die Vorzüge bei einem Spiel zu zeigen, die anderen dabei immer aussen vor lassen. Arm sowas...

Blacksoul
2008-07-14, 14:45:25
Ach, gibts die schon zu kaufen? Wie teuer soll die denn werden? Und welche Seite ist das die gebencht hat und mit welcher Rig? Erstmal abwarten ob das stimmt...


Na, wer Anandtech nicht kennt ... ;)
http://anandtech.com/video/showdoc.aspx?i=3354


t.b.d

robbitop@work
2008-07-14, 14:56:49
Anandtech hatte einen R700 mit effektiven 512 MiB (x2) vs. zwei 4870 mit effektiven 512 MiB - das kommt aufs selbe hinaus.
Das stimmt. Ich bin von 2x 1024 MiB vss 1x512 MiB ausgegangen. Es gibt also auch X2s mit nur 512ern?

Gast
2008-07-14, 14:57:39
Also ich find Crysis als Spiel ziemlich fade, lizensiert wird die Engine auch kaum bis garned soviel ich weiss, von daher, wayne...

w0mbat
2008-07-14, 15:06:55
Das stimmt. Ich bin von 2x 1024 MiB vss 1x512 MiB ausgegangen. Es gibt also auch X2s mit nur 512ern?

Es wird wohl welche mit 2*512MB GDDR3 @retail geben, die ES haben aber fast alle nur 2*512MB.

Gast
2008-07-14, 15:07:34
Das stimmt. Ich bin von 2x 1024 MiB vss 1x512 MiB ausgegangen. Es gibt also auch X2s mit nur 512ern?

Nein, auch Anandtech's Version hat 2 x 1024MB, ist nur ein Fehler im Preview. Es gibt keine X2 mit 2 x 512MB.

Gast
2008-07-14, 15:10:20
Also ich find Crysis als Spiel ziemlich fade, lizensiert wird die Engine auch kaum bis garned soviel ich weiss, von daher, wayne...

Crysis war ganz spassig für 8h, aber eine langzeit Motivation gibt es nicht, da der MP Müll ist, anders ist da Age of Conan :)

Sorkalm
2008-07-14, 15:11:31
Nein, auch Anandtech's Version hat 2 x 1024MB, ist nur ein Fehler im Preview. Es gibt keine X2 mit 2 x 512MB.

Bei ES gibts oft Karten mit RAM-Bestückung die dann nicht final wird. ;)

Die 4870 hat man einige ES auch mit GDDR4-Speicher ausgestattet. Von daher sind diese 2x 512 MiB durchaus möglich, es haben übrigens mehrere Previews eine solche Karte (manche auch 2x 1024 MiB).

Blaire
2008-07-14, 15:29:41
steht irgendwo schon was über dir µR?

Nix oder?

Odal
2008-07-14, 15:40:55
http://anandtech.com/video/showdoc.aspx?i=3354&p=6

Ui die suckt ja voll ab, auch die HD4870 ist da verdammt lahme.

p.s. :D


R700 37% schneller als GTX280

Selbst in deinem selbstersuchten "lahmen" Beispiel sieht die GTX280 nur die Rücklichter.

Naja nun bekommen GTX260 und GTX280 nicht nur Druck von "unten" sondern jetzt liegt auch noch ein großer Klotz oben drauf, und drückt. Da wird die Luft langsam ganz schön dünn :D.

Der Kunde freut sich :)

LovesuckZ
2008-07-14, 15:44:25
Nunja, bei fast 300 Watt Verbrauch bezweifel ich, dass sich der Kunde noch irgendwie freuen kann.

vinacis_vivids
2008-07-14, 15:47:40
Nunja, bei fast 300 Watt Verbrauch bezweifel ich, dass sich der Kunde noch irgendwie freuen kann.

Der Kunde freut sich über die Leistung ;)

Odal
2008-07-14, 15:50:17
und über gute Preise, selbst wenns auf Teufel komm raus eine GTX280 werden muß

LovesuckZ
2008-07-14, 15:51:07
Die er sich aufgrund steigender Strompreise nicht leisten kann. Selbst die GTX280 ist schon sehr hart an der Grenze, aber das sprengt jeden erdenklich Rahmen (100 Watt mehr als die GTX280!).

Gast
2008-07-14, 15:52:14
Der Kunde freut sich über die Leistung ;)

Leistung stimmt, und Verbrauch ist im Verhhältnis zur Leistung mehr als nachzuvollziehen (Im Vergleich zur GTX280 - ein Kriterium was du ja sonst gerne mal heranziehst ;) )

vinacis_vivids
2008-07-14, 15:52:49
Die er sich aufgrund steigender Strompreise nicht leisten kann. Selbst die GTX280 ist schon sehr hart an der Grenze, aber das sprengt jeden erdenklich Rahmen (100 Watt mehr als die GTX280!).

Mit den Autos isses schlimmer ;) , nach deiner Philosophie kann man gleich aufhören Auto zu fahren.

Gast
2008-07-14, 15:54:55
Die er sich aufgrund steigender Strompreise nicht leisten kann. Selbst die GTX280 ist schon sehr hart an der Grenze, aber das sprengt jeden erdenklich Rahmen (100 Watt mehr als die GTX280!).

Die Zielgruppe des R700 kratzt ein paar Watt mehr nicht. Es ist ja nicht so als wäre die Leistung/Watt jetzt unverhältnismäßig schlecht im Vergleich zu Konkurrenz. Preisbewusste Gamer kaufen sowieso die HD4850.

Gast
2008-07-14, 15:57:59
Nunja, bei fast 300 Watt Verbrauch bezweifel ich, dass sich der Kunde noch irgendwie freuen kann.

In diesem Marktsegment spielt der Verbrauch keine Rolle. Dafür gibt es die 4850/4870.

LovesuckZ
2008-07-14, 15:58:23
Mit den Autos isses schlimmer ;) , nach deiner Philosophie kann man gleich aufhören Auto zu fahren.

Machen doch viele. In Berlin hat der Nahverkehr deutlich zugelegt.
Die Zielgruppe vergrößert sich durch sinkende Preise. Also wird die Karte auch für mehr Menschen interessant - ob sie den Stromverbrauch stemmen können?
Das ironische ist doch, ein Mehrwert hat man nur, wenn man auch oft die Karte einsetzt. Wer mit weniger zu frieden ist, schont die Umwelt und nach dem Kauf zusätzlich den Geldbeutel.

Unyu
2008-07-14, 15:59:56
Leistung stimmt, und Verbrauch ist im Verhhältnis zur Leistung mehr als nachzuvollziehen
Auch wenn CF mal wieder zickt? ;)

Gast
2008-07-14, 16:00:06
Die Zielgruppe des R700 kratzt ein paar Watt mehr nicht.

Stimmt. Da zahlt ja auch Papi und Mami den Strom... ;D ;D ;D

Gast
2008-07-14, 16:01:36
Machen doch viele. In Berlin hat der Nahverkehr deutlich zugelegt.
Die Zielgruppe vergrößert sich durch sinkende Preise. Also wird die Karte auch für mehr Menschen interessant - ob sie den Stromverbrauch stemmen können?
Das ironische ist doch, ein Mehrwert hat man nur, wenn man auch oft die Karte einsetzt. Wer mit weniger zu frieden ist, schont die Umwelt und nach dem Kauf zusätzlich den Geldbeutel.

Wer das Beste vom Besten will, musste schon immer einen saftigen Aufpreis bezahlen. Prestige eben. Ob das jetzt über den Produktpreis selber oder die Stromrechnung geht, ist eigentlich ziemlich wumpe.

Gast
2008-07-14, 16:01:44
R700 37% schneller als GTX280

Selbst in deinem selbstersuchten "lahmen" Beispiel sieht die GTX280 nur die Rücklichter.

Naja nun bekommen GTX260 und GTX280 nicht nur Druck von "unten" sondern jetzt liegt auch noch ein großer Klotz oben drauf, und drückt. Da wird die Luft langsam ganz schön dünn :D.

Der Kunde freut sich :)

Was auch nicht sonderlich schwer ist mit 2 Chips. Zwei GTX260 sind auch schneller als eine GTX280...

Unyu
2008-07-14, 16:04:22
Wer das Beste vom Besten will, musste schon immer einen saftigen Aufpreis bezahlen.
Nur das man beim R700 eben lediglich den längsten Balken bekommt. Und auch nur wenn CF will.
Das Beste vom Besten muss mehr bieten, um die Bezeichnung zu verdienen.

Black-Scorpion
2008-07-14, 16:06:01
Was ist dann das beste vom besten bei nV?
Der GT200 bestimmt nicht.

LovesuckZ
2008-07-14, 16:07:13
Wer das Beste vom Besten will, musste schon immer einen saftigen Aufpreis bezahlen. Prestige eben. Ob das jetzt über den Produktpreis selber oder die Stromrechnung geht, ist eigentlich ziemlich wumpe.

So ein Quatsch. Weder die 8800GTX noch die 1900XT hatten einen Stromverbrauch gegenüber den Vorgängern, der die Leistung widerspiegelt.
Erst mit den jetzigen Generationen kommt man zum Punkt, wo der Stromverbrauch unverhältnismäßig zum Leistungsgewinn steigt. Das Hobby wird jetzt teuer - wo es sich viel mehr Leute aufgrund des Preiskampfes leisten können.
Die Karte verbraucht fast 3mal soviel wie eine 8800GT. Und das bei durchschnittlich 2,5facher Mehrleistung. Das ist kaum vergleichbar zu früher, wo die 8800GTX 80% schneller als die 1950XTX war und sich genauso viel Strom genehmigte.

Gast
2008-07-14, 16:07:55
Also wird die Karte auch für mehr Menschen interessant - ob sie den Stromverbrauch stemmen können?


Naja, 100Watt x 8h/day x 365 = 292KWh/year x 0,2 Euro/KWh = <60 Euro pro Jahr mehr als bei einer GTX280.

Wenn du dir sowas nicht leisten kannst solltest du deinen Computer am besten gleich verkaufen und mit Konsolen spielen. :)

Gast
2008-07-14, 16:08:32
Auch wenn CF mal wieder zickt? ;)

Der einzige der hier gerade ein bisschen am Zicken ist bist du. Kann ich aber verstehen... :D

Gast
2008-07-14, 16:08:45
Nur das man beim R700 eben lediglich den längsten Balken bekommt. Und auch nur wenn CF will.
Das Beste vom Besten muss mehr bieten, um die Bezeichnung zu verdienen.

Das mit den Balken muss noch geklärt werden, stimmt. Aber es gab schon genügend Bemerkungen von verschiedenen Insidern, dass die Mikroruckler verschwunden sind. Abwarten bis zum Launch.

Und zur CF Skalierung: Crysis ist ein Fall für sich (Treiberproblem vllt. bis Release gelöst?), aber wo sonst gibt es bitte Probleme? Soll ich jetzt sagen, dass die GTX 280 eine schlechte Karte ist, weil sie in Age of Conan verhältnismäßig schlecht skaliert?

Gast
2008-07-14, 16:09:45
Nur das man beim R700 eben lediglich den längsten Balken bekommt. Und auch nur wenn CF will.
Das Beste vom Besten muss mehr bieten, um die Bezeichnung zu verdienen.
Richtig, z.B. aktuelle DirectX Versionen. Nicht auf dem technischen Stand von vor einem Jahr, wie einige andere 'aktuelle' Grafikkarten.
Wie gut, das man hier keine Abstriche machen muß =)

Gast
2008-07-14, 16:10:03
Naja, 100Watt x 8h/day x 365 = 292KWh/year x 0,2 Euro/KWh = <60 Euro pro Jahr mehr als bei einer GTX280.

Wenn du dir sowas nicht leisten kannst solltest du deinen Computer am besten gleich verkaufen und mit Konsolen spielen. :)

Warum machst du hier ne Rechnung für Arbeitslose auf? Gehören die zur Zielgruppe?

Gast
2008-07-14, 16:11:19
[...]
Die Karte verbraucht fast 3mal soviel wie eine 8800GT. Und das bei durchschnittlich 2,5facher Mehrleistung. Das ist kaum vergleichbar zu früher, wo die 8800GTX 80% schneller als die 1950XTX war und sich genauso viel Strom genehmigte.

Nur ist es leider nicht die Regel, dass ein "G80" released wird.

Gast
2008-07-14, 16:11:33
R700 37% schneller als GTX280

Selbst in deinem selbstersuchten "lahmen" Beispiel sieht die GTX280 nur die Rücklichter.

Naja nun bekommen GTX260 und GTX280 nicht nur Druck von "unten" sondern jetzt liegt auch noch ein großer Klotz oben drauf, und drückt. Da wird die Luft langsam ganz schön dünn :D.

Der Kunde freut sich :)

Denken mein bester Denken! Es ging hier um was ganz anderes.

"Ui geht die ab auch die HD4870 ist verdammt nah an der GTX280 "
Soviel zu deim selbstersuchten "lahmen" bsp. hatters nicht schön ausgesucht?

Palpatin
2008-07-14, 16:15:09
Es ist doch auch eine 4850X2 angekündigt, 2x 4850CF braucht laut anand weniger als eine GTX 280 die X2 dürfte dann nochmal so 10 Watt darunter liegen aber in sachen Leistung trozdem die GTX 280 ownen.

Unyu
2008-07-14, 16:16:18
Richtig, z.B. aktuelle DirectX Versionen. Nicht auf dem technischen Stand von vor einem Jahr, wie einige andere 'aktuelle' Grafikkarten.
Oder aktuelle OpenGL Versionen.
Oder anständiges AF
Oder regelmäßige Frametimes.
Oder PhysX und Cuda Support.

Aber es gab schon genügend Bemerkungen von verschiedenen Insidern, dass die Mikroruckler verschwunden sind. Abwarten bis zum Launch.
Ja, in der Tat, wertlose Frapsmessungen. Vielleicht bemüht sich ja noch jemand und testet gescheit.

<60 Euro pro Jahr mehr als bei einer GTX280.

Ob das dann auch im Preisvergleich zur Konkurrenz betrachtet wird?

Was ist dann das beste vom besten bei nV?
Der GT200 bestimmt nicht.
In einigen Punkten schon.

Brudertac
2008-07-14, 16:16:48
Wie siehts denn mit dem Stromverbrauch / Lautstärke im Desktop Mode aus ?
Schalten die vielleicht sogar einen Chip ab ?? Das wär doch mal was feines...

Gast
2008-07-14, 16:21:49
[...]
Ja, in der Tat, wertlose Frapsmessungen...
[...]

... welche besser waren im Vergleich zur HD3870 X2. Also: Es hat sich was verbessert. Fragt sich nur was.

uweskw
2008-07-14, 16:23:36
ist das richtig, dass die Karte ungefähr soviel kosten soll wie eine nVidia 280 GTX ?
leistungsmäßig ist die AMD/ATI ja weit überlegen.

Gast
2008-07-14, 16:25:19
ist das richtig, dass die Karte ungefähr soviel kosten soll wie eine nVidia 280 GTX ?
leistungsmäßig ist die AMD/ATI ja weit überlegen.

Nein sie ist deutlich teurer.

Spacepoko
2008-07-14, 16:26:40
Leute, dickes Auto= dicke Tasche-------so auch bei der Grafikkarte.
Der endgültige Stromverbrauch ist doch noch garnicht raus. Also was soll die Aufregung.
P.s. Mach doch Solarzellen dran.:smile:

Schlammsau
2008-07-14, 16:26:51
Nein sie ist deutlich teurer.

Und wie teuer ist die 4870X2?

LovesuckZ
2008-07-14, 16:28:42
Leute, dickes Auto= dicke Tasche-------so auch bei der Grafikkarte.
Der endgültige Stromverbrauch ist doch noch garnicht raus. Also was soll die Aufregung.
P.s. Mach doch Solarzellen dran.:smile:

Ich weiß nicht, aber 400€ sind für eine Karte kaum "dicke Tasche". Oder findest du, dass ein 500€ LCD Fernsehr schon einen reichen Typen kennzeichnet?`:rolleyes:

Gast
2008-07-14, 16:29:03
Solarzellen ist eine gute Idee - umweltfreundlich dank ATI, so lob ich mir das :)

Gast
2008-07-14, 16:30:28
Und wie teuer ist die 4870X2?

Um die 450€uro easy

Black-Scorpion
2008-07-14, 16:32:58
Oder aktuelle OpenGL Versionen.
Oder anständiges AF
Oder regelmäßige Frametimes.
Oder PhysX und Cuda Support.


Ja, in der Tat, wertlose Frapsmessungen. Vielleicht bemüht sich ja noch jemand und testet gescheit.


Ob das dann auch im Preisvergleich zur Konkurrenz betrachtet wird?


In einigen Punkten schon.
Stimmt
kein DX10.1
miese 8xAA Performance
keine vollständige VC1 Beschleunigung da alter VP2
V-Ram Probleme
Und das neue Lieblingspielzeug CUDA reißt natürlich auch alles raus.

Gast
2008-07-14, 16:34:15
Diese Stromspardiskussion ist wirklich ziemlich daneben. Ich habe zB eine 1900XT im Rechner.

Die verbraucht lt. schneller google suche in etwa 130W Idle und 280W unter Last.
http://www.netzwelt.de/news/74130_2-atis-elite-grafik-im-test-sapphire.html

Die 4870X2 verbraucht also genauso viel. Wenn ich mir ne 4870 hole spare ich sogar noch was! Aktuelle Grakas haben alle eine sehr gute Effizienz!

Nur weil einer noch einen alten Golf fährt, der 12l/100km verbraucht ist er doch kein reicher Mensch?!?

Nakai
2008-07-14, 16:36:35
Diese Stromspardiskussion ist wirklich ziemlich daneben. Ich habe zB eine 1900XT im Rechner.

Die verbraucht lt. schneller google suche in etwa 130W Idle und 280W unter Last.
http://www.netzwelt.de/news/74130_2-atis-elite-grafik-im-test-sapphire.html


Gesamtsystem...:rolleyes:


mfg Nakai

CompuJoe
2008-07-14, 16:37:38
Diese Stromspardiskussion ist wirklich ziemlich daneben. Ich habe zB eine 1900XT im Rechner.

Die verbraucht lt. schneller google suche in etwa 130W Idle und 280W unter Last.
http://www.netzwelt.de/news/74130_2-atis-elite-grafik-im-test-sapphire.html

Die 4870X2 verbraucht also genauso viel. Wenn ich mir ne 4870 hole spare ich sogar noch was! Aktuelle Grakas haben alle eine sehr gute Effizienz!

Nur weil einer noch einen alten Golf fährt, der 12l/100km verbraucht ist er doch kein reicher Mensch?!?

Das ist der Gesamtsystemverbrauch, ne 1900Xt zieht un Last sicher keine 280Watt.

LolekDeluxe
2008-07-14, 16:38:03
Die Karte verbraucht fast 3mal soviel wie eine 8800GT. Und das bei durchschnittlich 2,5facher Mehrleistung. Das ist kaum vergleichbar zu früher, wo die 8800GTX 80% schneller als die 1950XTX war und sich genauso viel Strom genehmigte. Das ist aber nicht ganz richtig, die 4870 X2 ist 3-7 mal so schnell wie eine 8800 GT.
Oder glaubs Du das wenn man sich so eine GK Kauft, die ganze Zeit mit 1280x1024 1xAF 0xAA Spielt.:|
Dafür geht der Stromverbrauch mehr als inordnung.

Spacepoko
2008-07-14, 16:40:36
Nur weil einer noch einen alten Golf fährt, der 12l/100km verbraucht ist er doch kein reicher Mensch?!?

Heutzutage ist man schon fast reich bei 12l/100km. Ich hab damit kein Prob. da mein Auto bis zum Doppelten verbraucht.
Mir ist der Stromverbrauch einer Graka absolut egal.:biggrin:

Unyu
2008-07-14, 16:52:31
Stimmt
kein DX10.1
miese 8xAA Performance
keine vollständige VC1 Beschleunigung da alter VP2
V-Ram Probleme
Und das neue Lieblingspielzeug CUDA reißt natürlich auch alles raus.
-
-
- Alternative namens CSAA/SS-Hybride
- Stimmt aber wie war das, dank dem Idle Verbrauch hat man den R700 nur zum Spielen im Rechner?
- Die währen? Es ist genug VRAM an Bord
- immerhin kann mans nutzen, nicht so wie D3D10.1

Gast
2008-07-14, 16:57:00
-
-
- Alternative namens CSAA/SS-Hybride
- Stimmt aber wie war das, dank dem Idle Verbrauch hat man den R700 nur zum Spielen im Rechner?
- Die währen? Es ist genug VRAM an Bord
- immerhin kann mans nutzen, nicht so wie D3D10.1

- kein Edge Detect, das ich so liebe
- Idle Verbrauch steht noch nicht fest
- 10.1 kann man nutzen und Cuda ist natürlich auch das Feature, auf das alle gewartet haben

Marodeur
2008-07-14, 17:01:49
Cuda interessiert mich nicht die Bohne so lang es nicht der Spieleleistung dient. ^^

dargo
2008-07-14, 17:01:51
Sind ja mächtig beeindruckende Ergebnisse, welche die X2 dort einfährt.

Die Frames sind teilweise echt krank. Am besten finde ich GRID - in 1920x1200 4xAA gibts immer noch 100% CPU-Limit, und das mit einem Quad@3,2Ghz. X-D :ugly:
Selbst in 2560x1600 4xAA limitiert überwiegend die CPU. :crazy:

Wann gibts Yorkfields mit 6Ghz? ;D

pest
2008-07-14, 17:02:49
Wann gibts Yorkfields mit 6Ghz? ;D

Wann gibt's Spiele die die Leistung brauchen?

Black-Scorpion
2008-07-14, 17:05:49
-
-
- Alternative namens CSAA/SS-Hybride
- Stimmt aber wie war das, dank dem Idle Verbrauch hat man den R700 nur zum Spielen im Rechner?
- Die währen? Es ist genug VRAM an Bord
- immerhin kann mans nutzen, nicht so wie D3D10.1
Ja mit genug Ram kann man es sich ganz einfach machen.
Einfach jede Menge davon verbauen und man braucht sich nicht die Mühe zu machen eine vernünftige Speicherverwaltung zu integrieren.
Sorry, aber manche Argumente sind einfach nur lächerlich und das weißt du ganz genau.
Das Thema Verbrauch fällt dir natürlich nur bei der Karte ein.
Beim G80 war das alles nicht so schlimm und man soll sich wegen den paar W nicht so haben.
Das ein G280 SLI da noch eine gehörige Schippe drauflegt ist natürlich nicht so wichtig.

Ich hoffe du läßt dir deine nV Beweihräucherung auch ordentlich bezahlen.

reunion
2008-07-14, 17:06:36
Und wie teuer ist die 4870X2?

Das Topmodell mit 2 x 1024MB GDDR5 549$.
Die 4850 X2 mit 2 x 1024 MB GDDR3 449$.
Die 4850 X2 mit 2x 512MB GDDR3 379$.

dargo
2008-07-14, 17:16:43
Das Topmodell mit 2 x 1024MB GDDR5 549$.
Die 4850 X2 mit 2 x 1024 MB GDDR3 449$.
Die 4850 X2 mit 2x 512MB GDDR3 379$.
Sehr geile Preise muss ich sagen wenn man nur auf Balkenlänge steht (400€ Straßenpreis für das Topmodell, das muss man sich mal vorstellen :eek:). Ach wäre das schön diese Leistung mit nur einer GPU zu bekommen bei akzeptablem Stromverbrauch. *träum*

reunion
2008-07-14, 17:17:23
So ein Quatsch. Weder die 8800GTX noch die 1900XT hatten einen Stromverbrauch gegenüber den Vorgängern, der die Leistung widerspiegelt.
Erst mit den jetzigen Generationen kommt man zum Punkt, wo der Stromverbrauch unverhältnismäßig zum Leistungsgewinn steigt. Das Hobby wird jetzt teuer - wo es sich viel mehr Leute aufgrund des Preiskampfes leisten können.
Die Karte verbraucht fast 3mal soviel wie eine 8800GT. Und das bei durchschnittlich 2,5facher Mehrleistung. Das ist kaum vergleichbar zu früher, wo die 8800GTX 80% schneller als die 1950XTX war und sich genauso viel Strom genehmigte.

Erweitere mal deinen Horizont. Vor fünf Jahren war eine 9700pro das beste vom besten, und da genügte der AGP-Port (25W) plus ein Floppy-Anschluss. Die Entwicklung ist eindeutig und unaufhaltsam. Und solange es Leute gibt die für maximale Leistung bereit sind derartiges in Kauf zu nehmen wird sich daran auch nichts ändern.

Nakai
2008-07-14, 17:17:59
Sehr geile Preise muss ich sagen wenn man nur auf Balkenlänge steht (400€ Straßenpreis für das Topmodell, das muss man sich mal vorstellen :eek:). Ach wäre das schön diese Leistung mit nur einer GPU zu bekommen bei akzeptablem Stromverbrauch. *träum*

Diese Zeiten sind mittlerweile vorbei.
PCIe 3.0 machts ja nicht besser. ;(

Liegt wohl vorallem an die schnelle Entwicklung von GPUs.



mfg Nakai

dargo
2008-07-14, 17:23:09
Diese Zeiten sind mittlerweile vorbei.
PCIe 3.0 machts ja nicht besser. ;(

Liegt wohl vorallem an die schnelle Entwicklung von GPUs.

Im Prinzip bleibt den Leuten denen der Stromverbrauch zu hoch ist (wozu ich mich mittlerweile auch zähle) nichts anderes übrig als auf den Nachfolger (in diesem Fall RV870) in 40-45nm zu warten und dann ein langsameres Produkt zu wählen. Durch den enormen Stromverbrauch der High-End Produkte rutscht man automatisch von High-End in das Mainstream-Segment bzw. unteres High-End.

LovesuckZ
2008-07-14, 17:24:22
Erweitere mal deinen Horizont.

Vor knapp 2 Jahren kam eine Karte, die verbrauchte 75% mehr Strom als das Vorgängerprodukt und war in 2,5 mal so schnell. Es verbrauchte genauso viel Strom wie das Konkurrenzprodukt und war ca. 80% schneller.
Die Liste geht locker so weiter. Nur dieses Mal nicht. Und das wird akzeptiert? Balkenlänge um jeden Preis?
Eine 4870 hat den selben Verbrauch wie eine 8800GTX - wo ist hier Fortschritt? Sie ist bei Computerbase.de 37% schneller. 37% mehr Geschwindigkeit nach 19 Monate. Das ist für die Konkurrenz im Grunde erbärmlich. Sie können nur froh sein, dass nVidia einen ganzen G94 für unnötiges Zeug vergeudet haben.

4 Vitamins
2008-07-14, 17:32:06
schon gelesen?

http://www.techtree.com/India/News/EXCLUSIVE_--_An_Interview_with_AMD/551-90984-579.html

gisbern
2008-07-14, 17:35:26
alles haltlose argumente, im desktopsegment geht es doch gar nicht um den stromverbrauch als Leistungsparameter. Der ist doch vollkommen egal. Wenn es jemanden kümmert, so kann er sich ne low-cost-graka oder onboard oder sonstewas zulegen, im High-End-Bereich zählt FPS. Wenn hier ein weiterer Parameter interessant und nennenswert wäre, dann vielleicht FPS/€ oder $.....

Unyu
2008-07-14, 17:36:04
- 10.1 kann man nutzen und Cuda ist natürlich auch das Feature, auf das alle gewartet haben
Wo kann man .1 nutzen?
Neben Cuda gibts ja auch PhysX.


Einfach jede Menge davon verbauen und man braucht sich nicht die Mühe zu machen eine vernünftige Speicherverwaltung zu integrieren.
Wie schlimm ists denn? Nur weil ein paar MiB mehr verbraucht werden soll die Verwaltung Müll sein?
Und wichtig ist ja was hinten raus kommt: Es ist genug VRAM vorhanden. Wenn AMD meint bei der 4870 nur 512MiB zu verbauen, dann ist das wohl auch nicht das Wahre.

Das Thema Verbrauch fällt dir natürlich nur bei der Karte ein.
Eigentlich nicht.
Vor 2 Monaten war das Thema 2-D Verbrauch das Argument schlechthin für die 38xx im Vergleich zur 96xx. Jetzt ist es den 48xx Fans wurst.

Beim G80 war das alles nicht so schlimm und man soll sich wegen den paar W nicht so haben.
Nö, das und der Preis war ein Grund für mich auf G92 zu warten.

Gast
2008-07-14, 17:40:03
Sie können nur froh sein, dass nVidia einen ganzen G94 für unnötiges Zeug vergeudet haben.
Dieses Eingeständnis aus dem Munde des wohl grünsten NV Fanboys aller Zeiten zu hören ist eine ganz und gar erstaunliche Entwicklung der Dinge.
Aber es ist ja auch nicht so schlimm, fast 2 Jahre lang hat NV ordentlich abkassiert, da dürfen sie ruhig auch mal 2 Jahre schwächeln. Alles wird letzten Endes wieder gut.

Marodeur
2008-07-14, 17:43:33
Eigentlich nicht.
Vor 2 Monaten war das Thema 2-D Verbrauch das Argument schlechthin für die 38xx im Vergleich zur 96xx. Jetzt ist es den 48xx Fans wurst.

Würd ich nicht sagen. Wurst ist er mir sicherlich nicht aber man geht doch davon aus das es noch an einem Bug liegt. Wenn ich mich nicht täusche wird doch noch "vermutet" das zwar die Taktfrequenz gesenkt wird aber nicht die Spannung oder gibts jetzt schon weitere Erkenntnise die ich überlesen hab?

LovesuckZ
2008-07-14, 17:45:08
Dieses Eingeständnis aus dem Munde des wohl grünsten NV Fanboys aller Zeiten zu hören ist eine ganz und gar erstaunliche Entwicklung der Dinge.
Aber es ist ja auch nicht so schlimm, fast 2 Jahre lang hat NV ordentlich abkassiert, da dürfen sie ruhig auch mal 2 Jahre schwächeln. Alles wird letzten Endes wieder gut.

nVidia's Straucheln bedeutet Stagnation für die nächsten 9-12 Monate auf dem Performancesektor. Toll, dass man nun 3fache G84 Leistung für den selben Preis bekommt, aber man muss auch den doppeltem Stromverbrauch in Kauf nehmen.
Nach obenhin gibt es nichts bedeutendes. Eine GTX280, die 70% schneller als die 8800GTX ist und dabei ca. 40% mehr Strom benötigt. :rolleyes:

Black-Scorpion
2008-07-14, 17:46:06
Wenn die Speicherverwaltung Schrott ist, ist es egal ob die Karte 512MB, 1GB oder 2GB hat.
Die Karten brechen ein wenn der Speicher voll ist und nicht benötigte Speicherbereiche nicht wieder freigegeben werden.
Das der 48x0er 512MB reichen zeigt das es mit einer guten Speicherverwaltung funktioniert.

dargo
2008-07-14, 17:48:08
Wenn die Speicherverwaltung Schrott ist, ist es egal ob die Karte 512MB, 1GB oder 2GB hat.
Die Karten brechen ein wenn der Speicher voll ist und nicht benötigte Speicherbereiche nicht wieder freigegeben werden.

Komisch nur, dass ich davon bei der G80GTS 640 nichts sehe. :rolleyes:

Skinner
2008-07-14, 17:49:11
Mir stellt sich ja die Frage warum Nvidia bei den derzeitigen Preisverfall der ATI Karten noch eine 9800GTX+ bringt. Selbst die GTX260 fällt vom Preis langsam auf HD4780 niveau.

Odal
2008-07-14, 17:49:36
Was auch nicht sonderlich schwer ist mit 2 Chips. Zwei GTX260 sind auch schneller als eine GTX280...

Nur gibts keine 2xG200 auf einem PCB (aus gutem grund wohl ^^) nicht...das diese dann auch min. 50% mehr kosten mal ausser Acht gelassen...


Eine 4870 hat den selben Verbrauch wie eine 8800GTX - wo ist hier Fortschritt? Sie ist bei Computerbase.de 37% schneller. 37% mehr Geschwindigkeit nach 19 Monate. Das ist für die Konkurrenz im Grunde erbärmlich. Sie können nur froh sein, dass nVidia einen ganzen G94 für unnötiges Zeug vergeudet haben.

Wo ist da der Fortschritt bei der GTX260? DX10.1? Ach nee hat sie ja gar nicht :D

LovesuckZ
2008-07-14, 17:53:07
Wo ist da der Fortschritt bei der GTX260? DX10.1? Ach nee hat sie ja gar nicht :D

Tja, AMD hat nichtmal konkurrenzfähige Texturfilterung. Das seit 19 Monaten. Sie haben nichtmal gleichwertiges AA und AAA. Und das seit 19 Monaten.
Toller Fortschritt dieses 10.1. Die 260 hat wenigsten Hybrid-Power (wenn es denn mal funktioniert) - wesentlich attraktiver als 10.1, das dem IDLE Verbrauch nicht senkt.
10.1 ist sowas von unnötig - wenn nichtmal die Konkurrenzbildqualität von vor 19 Monaten erreichen wird. Wie man sich hier so aufhängen kann. Und ein zweites Spiel kommt ja nichtmal 2008. Klasse Fortschritt. ;D

Mir stellt sich ja die Frage warum Nvidia bei den derzeitigen Preisverfall der ATI Karten noch eine 9800GTX+ bringt. Selbst die GTX260 fällt vom Preis langsam auf HD4780 niveau.

Nun, weil eine 260 in der Produktion wahrscheinlich doppelt so teuer ist? :rolleyes:

Black-Scorpion
2008-07-14, 17:57:25
Welche AA und AAA Qualität meinst du?
Und Hybrid Power kannst du mit den Einschränkungen in der Pfeife rauchen aber nicht mehr.

Schlammsau
2008-07-14, 18:00:44
Welche AA und AAA Qualität meinst du?
Und Hybrid Power kannst du mit den Einschränkungen in der Pfeife rauchen aber nicht mehr.

Don´t feed the Trolls! ;)
LZ kommt immer mit den gleichen Argumenten.....
*heul* ATi hat eine schlechtere Filterung, schelchteres Antialiasing und vor allem schlechteren Atem! ;D *heul*

LovesuckZ
2008-07-14, 18:04:17
Welche AA und AAA Qualität meinst du?

Nun, SuperSampling, Hybride Modi und die Möglichkeit normal zwischen MS AAA und SS AAA zu wechseln. Alles das, was AMD fehlt. Und das seit 19 Monate -die Zeit, wo es mal ging.


Und Hybrid Power kannst du mit den Einschränkungen in der Pfeife rauchen aber nicht mehr.

Schon interessant, dass 10.1 besser wäre. Wie kann etwas, das seit 9 Monate nicht verwendet wird, offiziell sogar aus einem Spiel gekickt wurde und erst 2009 mal wieder auftaucht, höher zu werten sein als der erste Schritt der Abschaltung der kompletten diskreten Karte?
Für dich als AMD Favorisierer scheint Hybrid-Power wohl wie der Teufel zu sein. Dieses 10.1 gehulde ist schon ziemlich ironisch, wo es doch nichtmal für den normalen User anwendbar ist. Da ist die Möglichkeit von SSAA Modi ja wesentlich gewichtiger.

|MatMan|
2008-07-14, 18:04:48
da der Thread mal wieder in eine sinnlose rot/grün Diskussion ausgeartet ist, hab ich die letzten paar Seiten nicht so gründlich gelesen.

also sorry, falls doch schon gepostet wurde, dass die R700 Karten doch 2x 1GB haben:
UPDATE: Our initial publication of this article indicated a 2x 512MB framebuffer for a total of 1GB on board. We have since learned that the R700 we tested has 2GB of RAM total for 2x 1GB framebuffers. This has affected some of our analysis and conclusion. We do apologize for any confusion this may have caused.
http://anandtech.com/video/showdoc.aspx?i=3354&p=1

ich nehme mal an das geringe Performance-Plus von R700 ggü. 4870 CF kommt daher (und vielleicht etwas vom Treiber)...

Sorkalm
2008-07-14, 18:05:52
Mir stellt sich ja die Frage warum Nvidia bei den derzeitigen Preisverfall der ATI Karten noch eine 9800GTX+ bringt. Selbst die GTX260 fällt vom Preis langsam auf HD4780 niveau.

Man braucht eine 4850-Konkurrenz.

Unyu
2008-07-14, 18:08:40
*heul* ATi hat eine schlechtere Filterung, schelchteres Antialiasing und vor allem schlechteren Atem! ;D *heul*
Ist ja schön, wenn einem Bildqualität egal ist. Aber wo liegt dann der Sinn, eine neue Karte zu kaufen? :confused:
Ich kaufe mir neue Karten, damit das Bild schöner wird und du?

Black-Scorpion
2008-07-14, 18:11:16
Nun, SuperSampling, Hybride Modi und die Möglichkeit normal zwischen MS AAA und SS AAA zu wechseln. Alles das, was AMD fehlt. Und das seit 19 Monate -die Zeit, wo es mal ging.



Schon interessant, dass 10.1 besser wäre. Wie kann etwas, das seit 9 Monate nicht verwendet wird, offiziell sogar aus einem Spiel gekickt wurde und erst 2009 mal wieder auftaucht, höher zu werten sein als der erste Schritt der Abschaltung der kompletten diskreten Karte?
Für dich als AMD Favorisierer scheint Hybrid-Power wohl wie der Teufel zu sein. Dieses 10.1 gehulde ist schon ziemlich ironisch, wo es doch nichtmal für den normalen User anwendbar ist. Da ist die Möglichkeit von SSAA Modi ja wesentlich gewichtiger.
Wo habe ich ein Wort über 10.1 verloren?
Und hat es nichts mit AMD zu tun das du immer wieder und bei jeder sich bietenden Gelegenheit Hybrid Power ins Spiel bringst. Ich sagte in einem anderen Thread schonmal das es ein guter Ansatz ist aber nicht mehr. So wie es jetzt ist ist es einfach nur Schrott.
1. Funktioniert es nicht so wie es soll. - Deine Aussage
2. Zu viele Einschränkungen um es nutzen zu können.

Schlammsau
2008-07-14, 18:12:09
Ist ja schön, wenn einem Bildqualität egal ist. Aber wo liegt dann der Sinn, eine neue Karte zu kaufen? :confused:
erstens, ist die Karte nichts für mich weil sie für mich schlicht zu teuer ist!
zweitens, muss ich wohl masochistisch veranlagt sein, um mir diese abgrundtief schlechte Bildqualität antun zu können. Oh ja, schlag mich Baby......

Unyu
2008-07-14, 18:15:05
Vielleicht hattest du noch keinen G8x-G2xx. :confused:
Das problem der BQ betrifft doch nicht nur die X2. :)

Gast
2008-07-14, 18:16:05
Denken mein bester Denken! Es ging hier um was ganz anderes.

"Ui geht die ab auch die HD4870 ist verdammt nah an der GTX280 "
Soviel zu deim selbstersuchten "lahmen" bsp. hatters nicht schön ausgesucht?

Und was stimmt jetzt nicht ? :rolleyes:

http://www.abload.de/img/unbenannt9lo.jpg (http://www.abload.de/image.php?img=unbenannt9lo.jpg)

Nakai
2008-07-14, 18:18:03
Und was stimmt jetzt nicht ? :rolleyes:

http://www.abload.de/img/unbenannt9lo.jpg (http://www.abload.de/image.php?img=unbenannt9lo.jpg)

Wenn man 8xMSAA aktiviert siehts andersrum aus. ;)


mfg Nakai

reunion
2008-07-14, 18:21:06
Vor knapp 2 Jahren kam eine Karte, die verbrauchte 75% mehr Strom als das Vorgängerprodukt und war in 2,5 mal so schnell. Es verbrauchte genauso viel Strom wie das Konkurrenzprodukt und war ca. 80% schneller.
Die Liste geht locker so weiter. Nur dieses Mal nicht.


Bitte dann führe die Liste weiter. Derartige Effizienzsteigerungen sind äußerst selten und nur bei völlig neuen Generationen machbar.


Und das wird akzeptiert? Balkenlänge um jeden Preis?

Du siehst doch das es akzeptiert wird - mindestens seit dem Intel 8086.


Eine 4870 hat den selben Verbrauch wie eine 8800GTX - wo ist hier Fortschritt? Sie ist bei Computerbase.de 37% schneller. 37% mehr Geschwindigkeit nach 19 Monate. Das ist für die Konkurrenz im Grunde erbärmlich.

RV770 tritt im Preisbereich eines G84 an, R700 im Preisbereich einer 8800GTX. Und ohne effizientere Architekturen sind Performance/Watt-Steigerungen eben nur durch bessere Fertigungstechnologien realisierbar.


Sie können nur froh sein, dass nVidia einen ganzen G94 für unnötiges Zeug vergeudet haben.

R600 hatte in GPCPU-Anwendungen deutliche Vorteile ggü. einem G8x/9x. Das Zeug ist nicht unnötig sondern längst überfällig. Klar ist es für Spieler nicht relevant, aber die Hersteller wollen eben neue Märkte erobern.

Schlammsau
2008-07-14, 18:21:22
Vielleicht hattest du noch keinen G8x-G2xx. :confused:
Das problem der BQ betrifft doch nicht nur die X2. :)

oh doch, ich hatte einen G92 und konnte kaum Bildqualitätsunterschiede ausmachen. Meinermeinung nach nehmen sich beide Hersteller nicht viel....AA auf ATi Karten besser, dafür ist AF bei nV nen Tick besser!

Unyu
2008-07-14, 18:23:20
Hersteller nicht viel....AA auf ATi Karten besser
MSAA ist doch identisch. :confused:
TSSAA ist besser als AAA.

Nur ist es schwer für ein normalen Menschen denn Bildqualitätunterschied zu sehen.
Der erkennt auch nicht, ob KarteA schneller ist als KarteB. :)
Der erkennt auch nicht ob 17 oder 16 Effektregler voll aufgedreht sind.

LovesuckZ
2008-07-14, 18:23:24
Wo habe ich ein Wort über 10.1 verloren?
Und hat es nichts mit AMD zu tun das du immer wieder und bei jeder sich bietenden Gelegenheit Hybrid Power ins Spiel bringst. Ich sagte in einem anderen Thread schonmal das es ein guter Ansatz ist aber nicht mehr. So wie es jetzt ist ist es einfach nur Schrott.
1. Funktioniert es nicht so wie es soll. - Deine Aussage
2. Zu viele Einschränkungen um es nutzen zu können.

Natürlich hat du darauf Bezug genommen. Ich habe mit Hybrid-Power argumentiert und es als gleichwertig zu 10.1 hingestellt. Ich habe nicht gelesen, dass du 10.1 aufgrund der Einschränkungen in der Pfanne rauchen würdest.
Das Hybrid-Power nicht richtig funktioniert ist sehr tragisch. Die Einschränkungen für einen IDLE Verbrauch von ca. 60 Watt im Gegensatz zu 100 habe ich billigend in Kauf genommen.
Und 10.1 ist einfach kein Argument, wenn es in absehbarer Zeit keine Spiele gibt. Und bis zum ersten Spiel vergehen noch mindesten 4 1/2 Monate. Und wer weiß, ob nicht dann eher schon 11.0 Karten auf den Markt kommen, bevor das zweite Spiel erhältlich ist.

Schlammsau
2008-07-14, 18:27:49
MSAA ist doch identisch. :confused:

Und was ist mit Edge detect, Wide tent und Narrow tent?

up¦²
2008-07-14, 18:29:21
Schon bekannt? ansonsten:
http://www.legitreviews.com/article/745/2/

Unyu
2008-07-14, 18:29:59
Und was ist mit Edge detect, Wide tent und Narrow tent?
Sind Weichzeichner.
Ich kann auch die Auflösung senken, hat den selben Effekt. ;D

Schlammsau
2008-07-14, 18:31:00
Sind Weichzeichner.
Ich kann auch die Auflösung senken, hat den selben Effekt. ;D
Wenn du das sagst ;)

J0ph33
2008-07-14, 18:32:22
edge detect rockt die hütte...

ansonsten mal wieder die selbe sinnlose diskussion wie immer...

ich freue mich, dass es im Graphikkartenmarkt wieder Konkurrenz in allen Bereichen gibt, denn die fast 2 Jahre Stagnation nach der 8800GTX waren nicht so pralle

Coda
2008-07-14, 18:38:59
Sind Weichzeichner.
Ich kann auch die Auflösung senken, hat den selben Effekt. ;D
Edge detect ist durchaus sehr brauchbar.

Was mich an der ATI allerdings nervt ist damit verbunden die fehlenden Profile.

4 Vitamins
2008-07-14, 18:49:37
Ich kaufe mir neue Karten, damit das Bild schöner wird und du?

FPS FPS FPS FPS!!!!!!!!
Hast du eine karte von nvidia aus der 7000 reihe gehabt?:)
gruss

4 Vitamins
2008-07-14, 18:57:14
Tja, AMD hat nichtmal konkurrenzfähige Texturfilterung. Das seit 19 Monaten. Sie haben nichtmal gleichwertiges AA und AAA. Und das seit 19 Monaten.
Toller Fortschritt dieses 10.1. Die 260 hat wenigsten Hybrid-Power (wenn es denn mal funktioniert) - wesentlich attraktiver als 10.1, das dem IDLE Verbrauch nicht senkt.
10.1 ist sowas von unnötig - wenn nichtmal die Konkurrenzbildqualität von vor 19 Monaten erreichen wird. Wie man sich hier so aufhängen kann. Und ein zweites Spiel kommt ja nichtmal 2008. Klasse Fortschritt. ;D



Nun, weil eine 260 in der Produktion wahrscheinlich doppelt so teuer ist? :rolleyes:

1.Kannst du mir sagen warum der preis nvidias top karte inerhalb von 2 wochen um 200 euro gesunken ist?
2.So wie du ati darstellst dürfte ati keine neuen karten rausbrinngen, warum tun sie das und vorallem warum kaufen user die karten wenn diese so schlecht sind?
3.Was hat nvidia an der bildqualität zu gtx8800 verbessert bei gtx280?

gruss

Gast
2008-07-14, 18:59:39
Muss es denn immmer ein ATI vs. NV Flamewar sein ? Die grundlegenden Differenzen der beiden Karten sind wohl jedem hier bekannt und wer, warum, welche Karte kauft, dürfte den meisten Lesern hier völlig egal sein.

LovesuckZ
2008-07-14, 19:02:18
1.Kannst du mir sagen warum der preis nvidias top karte inerhalb von 2 wochen um 200 euro gesunken ist?

Weil der Preis überteuert war? :rolleyes:
Hätte jeder sehen müssen. 500€ für diese Leistung war realitätsfern - selbst ohne AMD's 48xx Karten.


2.So wie du ati darstellst dürfte ati keine neuen karten rausbrinngen, warum tun sie das und vorallem warum kaufen user die karten wenn diese so schlecht sind?

Aus dem selben Grund, warum es auch Leute gibt, die AMD CPUs kaufen: der Preis. Leistungstechnisch sind die Karten kaum der Rede wert - also werden sie verramscht. Hey, sie sind billiger als die 3xxx Karten beim Launch.


3.Was hat nvidia an der bildqualität zu gtx8800 verbessert bei gtx280?


Leider nichts. Aber immerhin haben sie ein Niveau von dem AMD weit entfernt ist.

Gast
2008-07-14, 19:14:51
Wenn man 8xMSAA aktiviert siehts andersrum aus. ;)


mfg Nakai

Ja weiß ich, wollte nur fair bleiben, was einige andere hier anscheinend nicht können.;)

4 Vitamins
2008-07-14, 19:23:49
Weil der Preis überteuert war? :rolleyes:
Hätte jeder sehen müssen. 500€ für diese Leistung war realitätsfern - selbst ohne AMD's 48xx Karten.



Aus dem selben Grund, warum es auch Leute gibt, die AMD CPUs kaufen: der Preis. Leistungstechnisch sind die Karten kaum der Rede wert - also werden sie verramscht. Hey, sie sind billiger als die 3xxx Karten beim Launch.



Leider nichts. Aber immerhin haben sie ein Niveau von dem AMD weit entfernt ist.


Danke für diese ehrlichen antworten, dem ist nix mehr hinzufügen:biggrin:

gruss

Gast
2008-07-14, 19:29:35
Nvidia hat sich einfach zu lange ausgeruht und jetzt bekommen sie die Quittung ;)


Nvidia: "Außer den Briten schert sich niemand um Ati"

http://www.pcgameshardware.de/aid,643224/News/Nvidia_Ausser_den_Briten_schert_sich_niemand_um_Ati/



;D;D;D

deekey777
2008-07-14, 19:31:17
MSAA ist doch identisch. :confused:
TSSAA ist besser als AAA.
Belege das mal.
Sind Weichzeichner.
Ich kann auch die Auflösung senken, hat den selben Effekt. ;D
http://xbitlabs.com/articles/video/display/ati-radeon-hd4850_19.html#sect0

Redneck
2008-07-14, 19:49:31
Muss es denn immmer ein ATI vs. NV Flamewar sein ? Die grundlegenden Differenzen der beiden Karten sind wohl jedem hier bekannt und wer, warum, welche Karte kauft, dürfte den meisten Lesern hier völlig egal sein.

jawoll.
Es gibt leider immer einige wenige, bei denen es zu einer Art Protestkultur geworden ist, in den jeweiligen anderen Threads rumzunörgeln und seine eigene Sicht der Dinge zu verbreiten, obwohl man deren Gebetsmühlenartige Leier bereits ausgiebig kennt.
- 10.1 ist nicht wichtig
- zu hoher stromverbrauch (als würden wir das nicht selber sehen)
- keine Crossfire Profile (erkennen anscheinen auch nur "Grüne")
- MR (alleiniges Ati/AMD Problem)
Das genau diese Leute sich ohnehin keine "rote" Karte kaufen würden, spielt
da keine Rolle. Sind eben Freaks (im negativen Sinne).

Gruß

AnarchX
2008-07-14, 19:56:02
Sampsa arbeitet an einem sehr interessanten Artikel:
Hi,

I'm working with full article of microstuttering issue including tests in Crysis and Race Driver: GRID with ATI Radeon HD 4870 X2, ATI Radeon HD 4870 CrossFireX, ATI Radeon HD 3870 X2 and GeForce 9800 GX2.

Article will be published on Finnish hardware and overclocking site Muropaketti.com and translated to English.

Here is a sneak peak of what to expect:

http://plaza.fi/s/f/editor/images/grid_game.jpg

http://plaza.fi/s/f/editor/images/grid_graph2.png

I'm also waiting answers from AMD regarding this issue which I'll update to the article later.
http://www.xtremesystems.org/forums/showthread.php?t=194808

MartinRiggs
2008-07-14, 20:01:08
schade, keine Singlekarte dabei, aber bei Crossfire, HD4870x2 und 9800GX2 sieht es doch gar nicht so übel aus.

Nakai
2008-07-14, 20:06:26
Sampsa arbeitet an einem sehr interessanten Artikel:

http://www.xtremesystems.org/forums/showthread.php?t=194808

Sieht ja schonmal gut aus.;)


mfg Nakai

reunion
2008-07-14, 20:09:13
Sampsa arbeitet an einem sehr interessanten Artikel:

http://www.xtremesystems.org/forums/showthread.php?t=194808

Perfekt wäre der Artikel wenn auch eine Single-GPU-Karte dabei wäre. Denn auch diese haben Microruckler wenn die Last in einem Frame zunimmt.

Odal
2008-07-14, 20:15:38
Nur ist es schwer für ein normalen Menschen denn Bildqualitätunterschied zu sehen.Das raffst du einfach nicht.Wie lange hattest du keine Ati Karte mehr?Kauf dir und mach sie dann weiter nass aber nur wenn du ein vergleich hast...

Ganz mein Reden. Wie können sich Leute mit "Entweder-Oder" Hardware anmaßen über BQ Vergleiche urteilen zu können? Das ganze dann anhand von Hörensagen und Fremdmaterial gepaart mit eigener Antipathie.

Wenn man hier meint, über BQ (egal aus welcher Seite da Vorwürfe oder Vergleiche kommen) urteilen zu können muß man schon beides besitzen.

Gerade AA/AF/Flimmer Eindrücke sind sehr Applikationsspezifisch.....Pauschalisierungen sind hier schonmal mehr als nur fehl am Platze

Gast
2008-07-14, 20:22:18
Sampsa arbeitet an einem sehr interessanten Artikel:

http://www.xtremesystems.org/forums/showthread.php?t=194808

Ist doch jetzt schon einige Male durchgekaut worden dass allein durch eine Frametime-Messung das vorhandensein (ober ebend die Abwesenheit) von s.g. MicroRucklern nicht zu belegen ist

LovesuckZ
2008-07-14, 20:24:04
Sieht das nicht nur deswegen so gleichmäßig aus, weil die 4800 Karten das Spiel selbst in der Einstellung mit weit über 30 FPS berechnen können? :confused:

deekey777
2008-07-14, 20:25:44
http://www.ixbt.com/video3/rv770-3-part0.shtml
Но предварительные исследования показали, что к нашей радости, у RADEON HD 4870 X2 проблем с лагами стало намного меньше, и рывков тоже. Наверняка это все стало возможным благодаря новому мосту между ядрами, а также совершенствованию драйверов. Во всяком случае, будем исследовать дальше этот вопрос, и окончательная ясность появится уже к моменту анонса, а также следите за выпусками 3D-Quality.
Kurz und knapp:
Vorläufige Untersuchungen haben gezeigt, dass die HD4870 X2 viel weniger Probleme mit Lags und Mikrorucklern (?) haben.

derguru
2008-07-14, 20:29:15
die 4870 X2 ist aber keine ausnahme,das gilt auch für z.b. 4850 im cf oder 4870 im cf.

Zatoichi
2008-07-14, 20:30:49
Wundert es eigentlich niemanden, das von ATIs Powerplay auch diesmal nichts zu hören ist? Es heißt immer, es ist noch nicht integriert oder deaktiviert. Ich finde das schon komisch, ist doch auch der Idle verbrauch sehr interessant. Ich glaub das wird nix, hatte aber gehofft, das es bei der X2korrekt arbeitet.

MikBach
2008-07-14, 20:30:54
Gerade AA/AF/Flimmer Eindrücke sind sehr Applikationsspezifisch.....Pauschalisierungen sind hier schonmal mehr als nur fehl am Platze
Man kann schon sagen, dass das AF bei den NV-Karten besser ist und für die meisten als perfekt zu bezeichnen.
Bei der 3870er kann ich sehr selten Flimmern durch schlechtes AF sehen, welches bei der 9600er nicht auftritt.
Aber es ist sehr selten und meine Ansprüche an die BQ sind schon enorm.
Es fällt einem meistens auch nicht sofort auf, sondern wenn man genauer hinschaut. ;)
Beim Zocken merkt man eigentlich nichts.
Ausserdem hast du natürlich recht, dass es applikationsspezifisch ist und manchmal nur TSAA oder AAA hilft, wenn es denn korrekt funktioniert.
Aber das ist Gemecker auf sehr hohem Niveau und die meisten würden es nichtmal wahrnehmen.

Coda
2008-07-14, 20:31:25
Perfekt wäre der Artikel wenn auch eine Single-GPU-Karte dabei wäre. Denn auch diese haben Microruckler wenn die Last in einem Frame zunimmt.
Aber nicht so regelmäßig.

Redneck
2008-07-14, 20:32:56
Das Topmodell mit 2 x 1024MB GDDR5 549$.
Die 4850 X2 mit 2 x 1024 MB GDDR3 449$.
Die 4850 X2 mit 2x 512MB GDDR3 379$.

Spekulation oder hast Du einen Link dafür ?

Gruß

AnarchX
2008-07-14, 20:35:13
http://www.ixbt.com/video3/rv770-3-part0.shtml

Auch interessant, dass die 1024MBit GDDR5-Chips nicht von Qimonda sondern Hynix kommen.

Sorkalm
2008-07-14, 21:46:37
Oh, man der AMD-Typ ist ja nett bekleidet. ;D

Auch interessant, dass die 1024MBit GDDR5-Chips nicht von Qimonda sondern Hynix kommen.

Vermutlich hat Qimonda noch keine 1024 MiBit-Chips. Deswegen gabs auch erstmal keinen 4870-Karten mit 1 GiB, Hynix scheint die Chips jetzt auch ganz frisch aus der Massenproduktion zu werfen. Auf einigen ES der 4870 X2 waren ja auch nur 2x 512 MiB verbaut, da waren die Speicherbausteine wohl auch noch knapp.

Bastieeeh
2008-07-14, 22:30:02
Die einzigen Review-Website, die sich nicht an AMD's Vorgabe gehalten haben und den Idle-Stromverbrauch gepostet hat ist Hexus (http://www.hexus.net/content/item.php?item=14178&page=13). Dort sind 242W angegeben für das eingesetzte System (3ghz Quad Extreme, 4gb ddr2, P35-board, 850W enermax, 160gb Seagate).

Wundert es eigentlich niemanden, das von ATIs Powerplay auch diesmal nichts zu hören ist? Es heißt immer, es ist noch nicht integriert oder deaktiviert. Ich finde das schon komisch, ist doch auch der Idle verbrauch sehr interessant. Ich glaub das wird nix, hatte aber gehofft, das es bei der X2korrekt arbeitet.

Ronny145
2008-07-14, 22:59:11
Die einzigen Review-Website, die sich nicht an AMD's Vorgabe gehalten haben und den Idle-Stromverbrauch gepostet hat ist Hexus (http://www.hexus.net/content/item.php?item=14178&page=13). Dort sind 242W angegeben für das eingesetzte System (3ghz Quad Extreme, 4gb ddr2, P35-board, 850W enermax, 160gb Seagate).


Wie man sieht hatte das schon seinen Grund. Sowas abartiges habe ich noch nie gesehen. Zwei von solchen Karten im System dürften schön heizen. Also wenn es kein vernünftiges powerplay geben sollte, wärs nicht so toll, auch für High-End.

Gast
2008-07-14, 23:42:58
Eine GTX280, die 70% schneller als die 8800GTX ist und dabei ca. 40% mehr Strom benötigt. :rolleyes:
Wo ist das Problem?
Im 2d Betrieb wird doch sogar weniger Strom als bei einer 8800er Karte verbraucht(25-35 Watt??).Wie oft spielen hier denn manche,daß der Stromverbrauch unter Last relevant wird.Lächerlich.

Heelix01
2008-07-15, 00:32:01
Zur 4870x2 nettes Kärtchen aber selbst bei diesen Preis noch viel zu teuer für Arme studenten, btw. wirklich gleichmäßi sehen mir die Frameverläufe aber nicht aus ? :p

Wo ist das Problem?
Im 2d Betrieb wird doch sogar weniger Strom als bei einer 8800er Karte verbraucht(25-35 Watt??).Wie oft spielen hier denn manche,daß der Stromverbrauch unter Last relevant wird.Lächerlich.

Hängt wohl stark von den Personen ab, mein richtiger PC rennt nur zum zocken alles andere Laptop ! Deswegen würde ich da mal nicht ver allgemeinern.

Nicht das mich das fehlende Powerplay davon jetzt abhalten wird mir in 1-2 wochen eine 48x0 zu bestellen aber wäre schon nett wenn es noch kommt.

mfg

Gast
2008-07-15, 00:33:31
OMG. 242 Power draw im Idle! Wenn da ATI nicht einen Modus einbaut ist die voll für die Tonne. Wollen die uns vearschen? *gulp* Und 400 Watt im load? Unverschämt sowas auf den Markt werfen zu wollen.

Gast
2008-07-15, 00:51:45
Hör mal "Fachmann" Da steht das "noch" kein Powerplay integriert ist. Und sollte das auch bei der Verkaufsversion so sein isse für mich gestorben. Kannst du dir ja ruhig kaufen. Hab kein Atomkraftwerk in der Nähe.

derguru
2008-07-15, 00:52:12
Da bleibt mir doch nur noch so nen D*"§$l wie dich als Voll-Pf..... zu bezeichnen.
Langsam bekomme ich bei den Gästen hier echt nen Hals.

ATI hat extra auf das momentane fehlen von Powerplay hingewiesen.
Also entweder wartest du ab, bis die Karte NACH dem richtigen Launch immer noch kein Powerplay besitzt oder du hälst dich zurück!

Mann ehj... Kindergarten....
naja mach dir nicht soviel hoffnung das powerplay richtig funzen wird,die 4850 und 4870 sollten es ja auch angeblich bekommen und wenn jetzt beim kommenden treiber cat 8.7 immer noch kein vernünftiges powerplay funzt dann kannste gleich auch bei der 4870x2 abschreiben;)

Gast
2008-07-15, 00:56:55
@Guru So seh ich das auch. Ist im neuen Treiber kein PP kannste die X2 knicken!

Fetza
2008-07-15, 01:34:05
Ist doch jetzt schon einige Male durchgekaut worden dass allein durch eine Frametime-Messung das vorhandensein (ober ebend die Abwesenheit) von s.g. MicroRucklern nicht zu belegen ist

Ändert nichts daran, dass die resultate trotzdem sehr vielversprechend erscheinen. Es könnte gut sein, dass ati die mr probleme mit dem r700 in den griff bekommt.

Fetza
2008-07-15, 01:45:13
Nun, SuperSampling, Hybride Modi und die Möglichkeit normal zwischen MS AAA und SS AAA zu wechseln. Alles das, was AMD fehlt. Und das seit 19 Monate -die Zeit, wo es mal ging.



Schon interessant, dass 10.1 besser wäre. Wie kann etwas, das seit 9 Monate nicht verwendet wird, offiziell sogar aus einem Spiel gekickt wurde und erst 2009 mal wieder auftaucht, höher zu werten sein als der erste Schritt der Abschaltung der kompletten diskreten Karte?
Für dich als AMD Favorisierer scheint Hybrid-Power wohl wie der Teufel zu sein. Dieses 10.1 gehulde ist schon ziemlich ironisch, wo es doch nichtmal für den normalen User anwendbar ist. Da ist die Möglichkeit von SSAA Modi ja wesentlich gewichtiger.

Offenkundig ist das falsch, wenn supersampling wirklich nachgefragt werden würde, hätte ati längst gehandelt. Das groß der käufer freut sich vielmehr über das sehr performante 8xaa, wo ati nvidia um längen schlägt.

Ich selbst nutze auch kaum supersampling auf meinem g80 - erstens weil ich auf konsistents bezüglich der bildqualität setze (anspruchsvolle spiele spielt niemand ohne sli mit supersampling), und zweitens weil ich im zweifelsfalle einfach auf höhere auflösungen schalten kann.

10.1 ist ein zukunftsfeature, das ist supersampling nicht - letztlich gesehen sprechen die massiven preisabschläge die der g200 erlitten hat bände. Und was du sagst stimmt nicht, wenn ati nicht so einen herben schlag mit dem r770 ausgeteilt hätte, würden wir für die gtx 280 noch monate lang massiv überhöhte preise bezahlen.

Das konnte sich nvidia beim g80 leisten, jetzt nicht mehr - glücklicherweise.;)

Gast
2008-07-15, 02:06:10
Offenkundig ist das falsch, wenn supersampling wirklich nachgefragt werden würde, hätte ati längst gehandelt. Das groß der käufer freut sich vielmehr über das sehr performante 8xaa, wo ati nvidia um längen schlägt.

Ich selbst nutze auch kaum supersampling auf meinem g80 - erstens weil ich auf konsistents bezüglich der bildqualität setze (anspruchsvolle spiele spielt niemand ohne sli mit supersampling), und zweitens weil ich im zweifelsfalle einfach auf höhere auflösungen schalten kann.

10.1 ist ein zukunftsfeature, das ist supersampling nicht - letztlich gesehen sprechen die massiven preisabschläge die der g200 erlitten hat bände. Und was du sagst stimmt nicht, wenn ati nicht so einen herben schlag mit dem r770 ausgeteilt hätte, würden wir für die gtx 280 noch monate lang massiv überhöhte preise bezahlen.

Das konnte sich nvidia beim g80 leisten, jetzt nicht mehr - glücklicherweise.;)

10.1 ein Zukunftsfeature? LOL...wir warten noch immer auf DX10 Games wo bleiben die vielen Games? Und jetzt kommen wieder welche hervor und brauchen DX10.1...unglaublich...

tombman
2008-07-15, 04:53:22
also sorry, falls doch schon gepostet wurde, dass die R700 Karten doch 2x 1GB haben:

http://anandtech.com/video/showdoc.aspx?i=3354&p=1

ich nehme mal an das geringe Performance-Plus von R700 ggü. 4870 CF kommt daher (und vielleicht etwas vom Treiber)...
Jo, kommt auch daher.

Also bis jetzt sehe ich NIX von irgendeinem besseren skaling durch den sideport (alle review Karten des R700 hatten 2GB, nicht 1GB wie HD4870 CF!). Vielleicht ist der sideport wirklich nix anderes als ein "internes CF Kabel", wie ein Gast mal wo meinte.

Habe mir die ganzen Tests durchgelesen, und in vielen ist normales CF sogar schneller als eine X2.

Für mich interessant ist eigentlich nur der [H] Test, weil die R700 CF hatten ;)
Und mehr als 30% schneller gegenüber GTX280 SLI habe ich nicht gesehen. (AoC)
Ne dritte GTX280 rein und fertig- schon sind die Niveaus wieder ähnlich.

Mit 3x G200b hat Nvidia die perf. Spitze wieder drinnen ;)

Und falls sich eine G200(b) GX2 ausgeht -> gute Nacht ATI :)
Vier Nvidia Chips kann ATI nicht schlagen...

Ob 2x R700 wirklich rockt kann man jetzt noch nicht sagen, weil ausgerechnet im wichtigsten Spiel, Crysis, geht derzeit einfach gar nix.

Als Fazit kann ich mich nur den reviews anschließen: auf den finalen Treiber und die finale hardware warten- vorher kann man R700 einfach nicht beurteilen.

p.s: und die MR Tests von Sampsa @ XS sind lächerlich, solange nicht alle Karten auf ca 30fps gemessen werden. Man kann einfach nicht auf 50fps messen und dann behaupten, daß die Schwankungen bei 30fps genauso wären :rolleyes:
http://www.xtremesystems.org/forums/showpost.php?p=3142106&postcount=105

Gast
2008-07-15, 08:38:23
Mit 3x G200b hat Nvidia die perf. Spitze wieder drinnen ;)

Gab doch da letztens so ein nettes Vid wo AMD an einem Quad CF System rumgebastelt hat.
Dann wird eben Quad 4870x2 zusammen gepappt und dann hat sichs ein für alle Mal. Hoffentlich bekommst Du keine Schweißausbrüche :)

Bastieeeh
2008-07-15, 09:16:59
Du stehst auf ungelegte Eier (GT200b), was? :biggrin:

Hier der Thread, auf den sich Tombman bezieht: Sampsa zum Thema MR bei XS (http://www.xtremesystems.org/forums/showthread.php?t=194808).
Wieso du auf dein Posting verlinkst weisst du sicher selbst nicht, oder? :smile:


Für mich interessant ist eigentlich nur der [H] Test, weil die R700 CF hatten ;)
Und mehr als 30% schneller gegenüber GTX280 SLI habe ich nicht gesehen. (AoC)
Ne dritte GTX280 rein und fertig- schon sind die Niveaus wieder ähnlich.

Mit 3x G200b hat Nvidia die perf. Spitze wieder drinnen ;)

Und falls sich eine G200(b) GX2 ausgeht -> gute Nacht ATI :)
Vier Nvidia Chips kann ATI nicht schlagen...

Ob 2x R700 wirklich rockt kann man jetzt noch nicht sagen, weil ausgerechnet im wichtigsten Spiel, Crysis, geht derzeit einfach gar nix.

Als Fazit kann ich mich nur den reviews anschließen: auf den finalen Treiber und die finale hardware warten- vorher kann man R700 einfach nicht beurteilen.

p.s: und die MR Tests von Sampsa @ XS sind lächerlich, solange nicht alle Karten auf ca 30fps gemessen werden. Man kann einfach nicht auf 50fps messen und dann behaupten, daß die Schwankungen bei 30fps genauso wären :rolleyes:
http://www.xtremesystems.org/forums/showpost.php?p=3142106&postcount=105

Mr. Lolman
2008-07-15, 09:22:49
Ob 2x R700 wirklich rockt kann man jetzt noch nicht sagen, weil ausgerechnet im wichtigsten Spiel, Crysis, geht derzeit einfach gar nix.


Vll deswegen, weil man hauptsächlich nur schwule Settings testet. Hier siehts zB anders aus: http://www.extremetech.com/article2/0,2845,2325447,00.asp

Gast
2008-07-15, 10:55:42
Jo, kommt auch daher.


Für mich interessant ist eigentlich nur der [H] Test, weil die R700 CF hatten ;)
Und mehr als 30% schneller gegenüber GTX280 SLI habe ich nicht gesehen. (AoC)

Hä? eine 4870X2 putzt ja teilweise schon nen GTX280er SLI.

Grestorn
2008-07-15, 11:04:07
Hä? eine 4870X2 putzt ja teilweise schon nen GTX280er SLI.

Nur mit 8x MSAA. Das ist der eine Performance-Vorteil, den die 4x00 hat, natürlich neben dem deutlich besseren Preis/Leistungsverhältnis.

tombman
2008-07-15, 11:04:45
Gab doch da letztens so ein nettes Vid wo AMD an einem Quad CF System rumgebastelt hat.
Wofürs wahrscheinlich nie Treiber geben wird ;) Was so im Labor rumgepfuscht wird ist irrelevant. Die bekommen ja nicht mal nen gescheiten PREVIEW Treiber für R700 hin...
Vll deswegen, weil man hauptsächlich nur schwule Settings testet. Hier siehts zB anders aus: http://www.extremetech.com/article2/0,2845,2325447,00.asp
Du irrst, gerade jene Settings sind schwul, DENN

We'll test in DX10 mode, using the game with the 1.2 patch, using the island flyby benchmark test.
Jeder, der im Luxx meine posts verfolgt hat, weiß, daß der gpu benchmark und die Crysis PRAXIS bei ATI NICHT die selben fps zeigen- bei Nvidia schon :cool: Alle "GPU_benchmark" Crysis Tests sind bzgl ATI zu IRGNORIEREN.

Bei [H] wurde ein echter Level in Crysis gespielt, und da schauts dann eher traurig aus für ATI- zumindest solange keine besserer Treiber kommt...

dreamweaver
2008-07-15, 11:10:21
Ich verstehe echt nicht, daß sich in diesem absoluten Highend Bereich die Leute über Stromverbrauch, vor allem im Idle, aufregen.

Wer seinen hochgezüchteten Rechner, 4Ghz Quad, HighEnd CF/SLI/X2 o.ä., usw., zum surfen, downloaden und Office etc. verwendet, ist doch selbst schuld.

Wer einen Rechner für sowas braucht, der mehrere Stunden am Tag praktisch im idle läuft, der legt sich doch einen ZweitRechner mit günstigsten und stromsparendsten Komponenten an. So einer reicht doch dann mehrere Jahre ohne Aufrüsten.

Vorteile:
- Spart Strom
- Weniger Abwärme
- Datenredundanz/backup
- Weniger Gefahr von Viren auf dem SpieleRechner
- Mehr flexibilität bei Problemen am PC
etc.

Mr. Lolman
2008-07-15, 11:43:19
Du irrst, gerade jene Settings sind schwul, DENN

Jeder, der im Luxx meine posts verfolgt hat, weiß, daß der gpu benchmark und die Crysis PRAXIS bei ATI NICHT die selben fps zeigen- bei Nvidia schon :cool: Alle "GPU_benchmark" Crysis Tests sind bzgl ATI zu IRGNORIEREN.

Bei [H] wurde ein echter Level in Crysis gespielt, und da schauts dann eher traurig aus für ATI- zumindest solange keine besserer Treiber kommt...

Deine Post im Luxx kein ich leider nicht. Und dass es bei [H] für ATi traurig aussieht, ist eigentlich generell der Fall - und zwar seitdem sie ihre Streitigkeiten mit NV beigelegt haben (war iirc so ca. zu UT2004 Zeiten und die entsprechenden Artikeln müssten bei [H] eigentlich noch zu finden sein)

Marodeur
2008-07-15, 12:26:25
Deine Post im Luxx kein ich leider nicht. Und dass es bei [H] für ATi traurig aussieht, ist eigentlich generell der Fall - und zwar seitdem sie ihre Streitigkeiten mit NV beigelegt haben (war iirc so ca. zu UT2004 Zeiten und die entsprechenden Artikeln müssten bei [H] eigentlich noch zu finden sein)

Empfand ich jetzt eigentlich nicht so wenn man sich z.B. den Age of Conan Teil ansieht. Da fallen ihnen ja gradezu die Augen raus. ;)

Gast
2008-07-15, 13:14:13
Nur mit 8x MSAA. Das ist der eine Performance-Vorteil, den die 4x00 hat, natürlich neben dem deutlich besseren Preis/Leistungsverhältnis.
http://anandtech.com/video/showdoc.aspx?i=3354&p=4 ;)

Gast
2008-07-15, 14:17:46
http://anandtech.com/video/showdoc.aspx?i=3354&p=4 ;)
Nicht nur in AoC sondern auch in GRID wird GTX280-SLI von der X2 gepornt.

Moralelastix
2008-07-15, 14:20:42
Stimmt das nun das ATI das Microruckeln mit der 4870 X2 gelöst hat?
http://www.tgdaily.com/content/view/38393/135/

"....Even though PLX864x chip features increased latency, Sampsa Kurri at Xtremesystems.org reported that ATI finally fixed microstuttering with 4870 X2. With this issue gone, it seems that AMD finally has a winner on their hands."


http://www.xtremesystems.org/forums/showthread.php?t=194808

Gast
2008-07-15, 14:32:25
"ATI increased the CrossFire bandwidth from 6 to 20 GB/s".

Interessant, das gilt doch dann auch für normales Crossfire über die Bridge, oder?

Marodeur
2008-07-15, 15:02:00
Stimmt das nun das ATI das Microruckeln mit der 4870 X2 gelöst hat?
http://www.tgdaily.com/content/view/38393/135/

"....Even though PLX864x chip features increased latency, Sampsa Kurri at Xtremesystems.org reported that ATI finally fixed microstuttering with 4870 X2. With this issue gone, it seems that AMD finally has a winner on their hands."


http://www.xtremesystems.org/forums/showthread.php?t=194808

Hier bei 3DC scheint man sich darüber noch nicht einig zu sein. Und für den Redakteur von tgdaily gilt das hier: http://www.3dcenter.org/blog/blackbirdsr/larrabee-die-kunst-der-verantwortung-des-news-redakteurs

:D

deekey777
2008-07-15, 15:03:49
Wofürs wahrscheinlich nie Treiber geben wird ;) Was so im Labor rumgepfuscht wird ist irrelevant. Die bekommen ja nicht mal nen gescheiten PREVIEW Treiber für R700 hin...

Du irrst, gerade jene Settings sind schwul, DENN

Jeder, der im Luxx meine posts verfolgt hat, weiß, daß der gpu benchmark und die Crysis PRAXIS bei ATI NICHT die selben fps zeigen- bei Nvidia schon :cool: Alle "GPU_benchmark" Crysis Tests sind bzgl ATI zu IRGNORIEREN.

Bei [H] wurde ein echter Level in Crysis gespielt, und da schauts dann eher traurig aus für ATI- zumindest solange keine besserer Treiber kommt...
Der GPU-Benchmark ist wie jede Flyby-Timedemo natürlich Abfall.
Wenn man Crysis bencht, dann macht man es wie mit dem guten alten Far Cry: Entweder erstellt man seine eigene Sequenz oder nimmt eine entsprechende Sequenz des Spiels (zB Fleet), startet im devmode, lädt die entsprechende Map (zB Fleet) und startet die Demosequenz.

Lu-Tze
2008-07-15, 15:26:09
Mann o Mann... das ist schon irgendwie beachtlich, dass die Reviewer oft anscheinend die Bildqualitätssettings garnicht so hochstellen konnten, dass die Spiele unspielbar wurden - selbst bei 2560x1600 8xAA bzw. 24xAA gibts noch spielbare Framerates (30-50, je nach Spiel, bis auf DIE Ausnahme).

Das zeigt aber auch irgendwie ein bisschen die Sinnlosigkeit - zumindest für gegenwärtige Spiele... eine so hohe Auflösung mag ja Sinn ergeben, aber dann noch 24xAA? Das wird dann wohl meistens kaum noch von 8xAA oder 4xAA zu unterscheiden sein... aber zukunftssicher ist es wohl.

Jetzt müsste AMD noch irgendeine gute Möglichkeit finden, diese Rechenleistung für die Forschung zugänglich zu machen, Ati hängt hier Nvidia ja leider deutlich hinterher. Ein Computer mit 4 solchen Karten hätte mal eben 10 Teraflop, und würde nur ~2000€ kosten, und mit einer guten API gäbe es da sicher einiges an Nachfrage.

uweskw
2008-07-15, 20:49:35
also eines verstehe ich nun wirklich nicht.
Die 4870 X2 hat doch angeblich in den bisher veröffentlichten Tests zweimal 1 GB Speicher.
Hier im Text von techreport wird sie mit einem 4870 Crossfire Gespann verglichen.
Man sollte doch davon ausgehen dass gerade in hohen Auflösungen mit zugeschaltetem AA sich die höhere Speichermenge positiv bemerkbar macht.
Dem ist aber nicht so.

http://techreport.com/articles.x/15105/3

die Karten liegen gleichauf, manchmal hat den höchsten Auflösungen sogar das Crossfiregespann Vorteile.
Kann es sein das die ganzen Tester nicht mitbekommen haben, dass die Karten nur zweimal 512 MB haben?
oder hat jemand eine andere Erklärung?

Greetz

U.S.

Sir Winston
2008-07-15, 23:10:38
Mann o Mann... das ist schon irgendwie beachtlich, dass die Reviewer oft anscheinend die Bildqualitätssettings garnicht so hochstellen konnten, dass die Spiele unspielbar wurden - selbst bei 2560x1600 8xAA bzw. 24xAA gibts noch spielbare Framerates (30-50, je nach Spiel, bis auf DIE Ausnahme).

Insofern frage ich mich, wieso es bei [H] "für AMD eher traurig aussehen soll" - klar, die altbekannte Crysis-Schwäche zeigt sich deutlich, aber ansonsten kriegen die sich angesichts der in AoC spielbaren Settings doch gar nicht mehr ein. :confused:

tombman
2008-07-16, 02:36:31
Deine Post im Luxx kein ich leider nicht.
Dann mußt du mir einfach glauben, daß der gpu_benchmark viel zu gute Werte zeigt für ATi. In der Praxis siehts anders aus.

tombman
2008-07-16, 02:37:54
Der GPU-Benchmark ist wie jede Flyby-Timedemo natürlich Abfall.
Bei Nvidia liegen fps Werte des flyby und die der Praxis nahe beieinander, bei ATI nicht.

Gast
2008-07-16, 05:01:08
Dann mußt du mir einfach glauben, daß der gpu_benchmark viel zu gute Werte zeigt für ATi. In der Praxis siehts anders aus.

Oder du verlinkst deine Posts einfach mal.

Gast
2008-07-16, 06:56:37
Bei Nvidia liegen fps Werte des flyby und die der Praxis nahe beieinander, bei ATI nicht.

Kann ich nicht nachvollziehen, hab immer sehr identische fps gehabt.
Warum musst du immer über ATi herziehen, soweit ich weiss hattest du schon lange keine ATi Hardware in deinem Rechner bzw zu kurz um dir ein Bild von der Hardware zu machen.

Fetza
2008-07-16, 08:46:24
Dann mußt du mir einfach glauben, daß der gpu_benchmark viel zu gute Werte zeigt für ATi. In der Praxis siehts anders aus.

Na dann musst du eher deine behauptung mal belegen :) Nicht das ich annehmen würde, du behauptest es einfach nur, aber einen grund dafür, warum sich der crysis bench bei nvidia anders verhält als bei ati, kann ich mir nicht vorstellen.

Verlink doch mal diese luxx postings. :)

Blaire
2008-07-16, 18:21:53
Na dann musst du eher deine behauptung mal belegen :) Nicht das ich annehmen würde, du behauptest es einfach nur, aber einen grund dafür, warum sich der crysis bench bei nvidia anders verhält als bei ati, kann ich mir nicht vorstellen.


http://youtube.com/watch?v=DYnXxI1UjxE&fmt=18 ;)

deekey777
2008-07-16, 22:15:22
ATI RADEON HD 4870 X2 (R700) 2x1024MB Preview (http://www.digit-life.com/articles3/video/rv770-3-part0-p1.html)@Digit-Life:
Still, preliminary tests indicate that RADEON HD 4870 X2 has significantly fewer issues related to performance jumps. The reason can be the new PEX bridge as well as improved drivers. Anyway, we'll be delving deeper into this and everything will become clear by the time of announcement.

martma
2008-07-16, 22:34:35
Dann mußt du mir einfach glauben, daß der gpu_benchmark viel zu gute Werte zeigt für ATi. In der Praxis siehts anders aus.
Bei Nvidia liegen fps Werte des flyby und die der Praxis nahe beieinander, bei ATI nicht.


tombman, Du kannst langsam mal aufhören, wir wissen doch mittlerweile alle, dass Nvidia das Beste ist und ATI beschissen. :comfort:

Coda
2008-07-16, 22:43:18
Mann o Mann... das ist schon irgendwie beachtlich, dass die Reviewer oft anscheinend die Bildqualitätssettings garnicht so hochstellen konnten, dass die Spiele unspielbar wurden - selbst bei 2560x1600 8xAA bzw. 24xAA gibts noch spielbare Framerates (30-50, je nach Spiel, bis auf DIE Ausnahme).
Noch viel "beachtlicher" finde ich dass sich die maximale Bildqualität der Hardware mit einer X2 gar nicht benutzen lässt.

Und das bei Hardware bei der das absolut überhaupt gar kein Problem wäre. Ich kann mich auch selber verarschen.

tombman
2008-07-16, 23:24:15
tombman, Du kannst langsam mal aufhören, wir wissen doch mittlerweile alle, dass Nvidia das Beste ist und ATI beschissen. :comfort:
Du bist nicht "wir". Und du weißt gar nix.

Savay
2008-07-16, 23:38:59
was ich an der X2 wirklich erstaunlich finde ist die leistungsaufnahme ~270W unter last...war zwar abzusehen aber fast 300W für ne grafikkarte mein lieber herr gesangsverein.

dazu ist das platinenlayout aber angenehm schlicht...wenn man sich die GX2 monster mal vor augen hält wirkt selbst die neue X2 technisch doch immernoch deutlich eleganter da simpler. grade bei den rohdaten sollte man sowas eigentlich nicht erwarten.

Du bist nicht "wir". Und du weißt gar nix.

nun ich sehe das allerdings ähnlich wie der zitierte :tongue:

Savay
2008-07-17, 00:01:48
(...) Wer mit weniger zu frieden ist, schont die Umwelt und nach dem Kauf zusätzlich den Geldbeutel.

die produktion der hardware selber ist wohl ne derartige dreckschleuderei das der "minimale" mehrverbrauch der karten wohl kaum noch nen wesentlichen einfluss auf die umwelt haben wird. zumal die absolute zahl solcher highend geschosse auch relativ gering sein dürfte.

der mehrverbrauch ist aus kostensicht bei der klientel auch irrelevant...wer sich nen AMG 65SL kauft dem wird die spirtrechnung auch scheißegal sein.

wer die umwelt schonen will der kauft garkeine hardware...für alles andere als zum zocken tut es eh nen mit arbeitsspeicher aufgestockter uralt PIII PC :wink:

ich find das ziemlich scheinheilig bei ner highend grafikkarte unbedingt den verbrauch und umweltschutz in den vordergrund drängen zu wollen. solange es technisch nicht limitiert ist es für das marktsegment nämlich an sich vollkommen irrelevant. denn wer sich alle 12 monate nen neues highend geschoß für den PC kauft...dem ist der umwelt schutz vollkommen scheißegal! :rolleyes:

tombman
2008-07-17, 00:51:23
nun ich sehe das allerdings ähnlich wie der zitierte :tongue:
Und wenn sich jetzt noch 10 finden, ist es immer noch nicht "wir"- angesichts der 3dc user Anzahl ;)

Gast
2008-07-17, 01:10:17
Und wenn sich jetzt noch 10 finden, ist es immer noch nicht "wir"- angesichts der 3dc user Anzahl ;)
ach hier gibts 10 Leute die hier sind :ugly:

Gast
2008-07-17, 01:12:54
Schon bei zwei Personen (oder einer mit gespaltener Persönlichkeit) ist "wir" eine gültige Aussage :) Ich würde mich ja auch anschliessen, bin aber vorläufig nur ein Gast, zähle also eher als -1, deshalb halt ich mich raus ;)

Danke Deeky! Wegen solchen Links kuck ich in den Thread, der da heisst --> 4870x2 (P)Review-Thread <--. Wäre nett, wenn sich andere auch dran halten würden :)

Gast
2008-07-17, 03:26:46
Dann mußt du mir einfach glauben, daß der gpu_benchmark viel zu gute Werte zeigt für ATi. In der Praxis siehts anders aus.

PCGH hat keine Flyby benutzt.

Trotzdem ist die 4870 vor der GTX 260... ups..

http://www.pcgameshardware.de/screenshots/medium/2008/07/09_avg_Crysis_1680_4xAA.PNG

Gast
2008-07-17, 03:27:24
der link dazu.

http://www.pcgameshardware.de/aid,650880/Test/Benchmark/Spielbarkeit_von_GT200_und_RV770_in_Crysis/&page=2

tombman
2008-07-17, 03:28:53
PCGH hat keine Flyby benutzt.

Trotzdem ist die 4870 vor der GTX 260... ups..

http://www.pcgameshardware.de/screenshots/medium/2008/07/09_avg_Crysis_1680_4xAA.PNG
*high* = lol.

VeryHigh + 4xAA zählt...

misterh
2008-07-17, 03:32:18
*high* = lol.

VeryHigh + 4xAA zählt...

mach das mal unter XP

will ich sehen.

Edit: Dumme anmache rausgenommen.

tombman
2008-07-17, 03:33:45
mach das mal unter XP

will ich sehen.
Niemand hindert daran Vista zu nehmen.

und noch was, du nervst in letzter zeit hier wie Blaire mit dumme gerede und ihr redet ATI immer nur schlecht.

irgendwann ist es mal schluss mit euch beiden.
Uns beide wirds noch geben, da bist du schon lange vergessen...

misterh
2008-07-17, 03:35:52
Niemand hindert daran Vista zu nehmen.

Uns beide wirds noch geben, da bist du schon lange vergessen...

pahhh ich wusste das ich solche antwort zu kriege :rolleyes:

Banshee18
2008-07-17, 04:08:03
*high* = lol.

VeryHigh + 4xAA zählt...
Ja? Settings, die auf den genannten Karten absolut unspielbar sind?

misterh, tombman und der ganze Rest: Eure persönlichen Differenzen könnt ihr per PN besprechen. Hier soll sachlich über die 4870 X2 diskutiert werden.

tombman
2008-07-17, 04:18:48
Ja? Settings, die auf den genannten Karten absolut unspielbar sind?
Sinds doch gar ned... auf 720p kein Problem...

Blacksoul
2008-07-17, 04:28:32
Sinds doch gar ned... auf 720p kein Problem...

Wer gibt sich denn mit solch einer Kindergarten-Auflösung zufrieden? Ist doch keine Konsole.

Außerdem, was soll 720p denn sein? 968 x 720? 1152 x 720? Oder doch 720 x 720? Sag doch gleich HD-Ready. ;)
Es ist wirklich furchtbar, wie sich manche Begriffe "eingebürgert" haben, obwohl sie nur aus dem anderen Lager kommen.


t.b.d

misterh
2008-07-17, 04:32:04
Wer gibt sich denn mit solch einer Kindergarten-Auflösung zufrieden? Ist doch keine Konsole.

Außerdem, was soll 720p denn sein? 968 x 720? 1152 x 720? Oder doch 720 x 720? Sag doch gleich HD-Ready. ;)
Es ist wirklich furchtbar, wie sich manche Begriffe "eingebürgert" haben, obwohl sie nur aus dem anderen Lager kommen.


t.b.d

du musstest doch wissen das 720p gleich 1280x720 gemeint ist. oder?

tombman
2008-07-17, 04:57:55
Wer gibt sich denn mit solch einer Kindergarten-Auflösung zufrieden? Ist doch keine Konsole.

Außerdem, was soll 720p denn sein? 968 x 720? 1152 x 720? Oder doch 720 x 720? Sag doch gleich HD-Ready. ;)
Es ist wirklich furchtbar, wie sich manche Begriffe "eingebürgert" haben, obwohl sie nur aus dem anderen Lager kommen.


t.b.d
Wenn die Aussage EINDEUTIG ist, ich dabei aber weniger Buchstaben brauche und ich davon ausgehe, daß man hier weiß was 720p heißt, dann war ich nur EFFIZIENT :cool:

Falls du es nicht wissen solltest: 720p = 1280x720

Und das ist eine HAAA-DEEE Auflösung, also NIX "klein" ....

Blacksoul
2008-07-17, 05:22:24
Wenn die Aussage EINDEUTIG ist, ich dabei aber weniger Buchstaben brauche und ich davon ausgehe, daß man hier weiß was 720p heißt, dann war ich nur EFFIZIENT :cool:

Falls du es nicht wissen solltest: 720p = 1280x720

Und das ist eine HAAA-DEEE Auflösung, also NIX "klein" ....

Ist es auch effizient "irgendwie" mit "i-wie" abzukürzen? Sag mir bitte, dass du da auch das Kotzen bekommst. ;)

Natürlich weiß ich, wofür 720p steht. Sonst hätte ich es ja nicht als Kindergartenauflösung bezeichnet. Eben darum ja. :D

Ich vermute mal, dass du ja immer noch deinen FW900 hast (warum weiß ich sowas eigentlich (noch)? Du bist penetrant, tombman, weißt du das? ;D) und du daher nichts interpolieren musst. Daher, glück für dich, dass es wirklich ein spielbares Setting ist. Andere haben aber 22" oder 24" TFTs mit einer nativen Auflösung von 1200p (muaha ;D) 1920 x 1200 und darauf sieht 1280 x 720 nun wirklich nicht mehr ansehnlich aus. Bliebe noch die Möglichkeit skaliert zu spielen, aber dann sehe ich sowieso fast nur schwarz. ;)
Für Leute mit einer GTX280 und einem 17" TFT ist das aber natürlich trotzdem ein gutes Setting, das mag sein. :D


t.b.d

tombman
2008-07-17, 05:31:57
Ist es auch effizient "irgendwie" mit "i-wie" abzukürzen? Sag mir bitte, dass du da auch das Kotzen bekommst. ;)
"i-wie" ist eine Eigenerfindung von irgendeinem unwichtigen Menschen. 720p ist ein Standard.
Und ja, ich muß da auch kotzen ;D

Natürlich weiß ich, wofür 720p steht. Sonst hätte ich es ja nicht als Kindergartenauflösung bezeichnet. Eben darum ja. :D

Ich vermute mal, dass du ja immer noch deinen FW900 hast (warum weiß ich sowas eigentlich (noch)? Du bist penetrant, tombman, weißt du das? ;D) und du daher nichts interpolieren musst. Daher, glück für dich, dass es wirklich ein spielbares Setting ist. Andere haben aber 22" oder 24" TFTs mit einer nativen Auflösung von 1200p (muaha ;D) 1920 x 1200 und darauf sieht 1280 x 720 nun wirklich nicht mehr ansehnlich aus. Bliebe noch die Möglichkeit skaliert zu spielen, aber dann sehe ich sowieso fast nur schwarz. ;)
Für Leute mit einer GTX280 und einem 17" TFT ist das aber natürlich trotzdem ein gutes Setting, das mag sein. :D
t.b.d
Moderne TFTs interpolieren doch eh sehr gut- zumindest wenns nicht gerade die Holzklasse ist ;D

Blacksoul
2008-07-17, 06:04:58
"i-wie" ist eine Eigenerfindung von irgendeinem unwichtigen Menschen. 720p ist ein Standard.
Und ja, ich muß da auch kotzen ;D

Moderne TFTs interpolieren doch eh sehr gut- zumindest wenns nicht gerade die Holzklasse ist ;D

Auf 720p könnte ich jetzt noch weiter herumreiten.
Aber ich lass es besser. :D

Und natürlich interpolieren moderne TFTs ziemlich gut. So auch imo meiner. Trotzdem ist 1280 x 720 doch dann ein gutes Stück von der nativen Auflösung (in meinem Falle 1920 x 1200 bei 22") entfernt. Wirklich spaßig ist das trotzdem nicht. Da muss man dann eben sehen, welche Kompromisse man bereitwillig eingeht, oder eben nicht.
Ich persönlich würde jedenfalls nicht auf die native Auflösung verzichten bzw. so weit heruntergehen, nur um Crysis in VH zu spielen. Dazu bin ich dann doch zu sehr von der schärfe Verwöhnt. Sehen und Fluch zugleich, diese TFTs. :D

Mit weniger als 1680 x 1050 sollte man solche Grafikkarten bzw diese Klasse sowieso nicht mehr benchen. Das "wieso" und "warum" sollte klar sein.

Mal was anderes:
Was hindert die Tester und Mags eigentlich wirklich daran, ausschließlich mit A.I. Off zu benchen?


t.b.d

Mr. Lolman
2008-07-17, 06:51:58
Auf 720p könnte ich jetzt noch weiter herumreiten.
Aber ich lass es besser. :D

Und natürlich interpolieren moderne TFTs ziemlich gut. So auch imo meiner. Trotzdem ist 1280 x 720 doch dann ein gutes Stück von der nativen Auflösung (in meinem Falle 1920 x 1200 bei 22") entfernt. Wirklich spaßig ist das trotzdem nicht. Da muss man dann eben sehen, welche Kompromisse man bereitwillig eingeht, oder eben nicht.
Ich persönlich würde jedenfalls nicht auf die native Auflösung verzichten bzw. so weit heruntergehen, nur um Crysis in VH zu spielen. Dazu bin ich dann doch zu sehr von der schärfe Verwöhnt. Sehen und Fluch zugleich, diese TFTs. :D

Genau deswegen hab ich mir damals noch nen 19" BenQ FP93GX+ mit 2ms ( :ulol: - von wegen - bekommt Bestnoten da keiner anscheinend bemerkt hat, dass feine Farbverläufe dank AMA in Bewegung hässliches Banding erzeugen) gekauft. Und falls ich Platz am Desktop brauch, aktivier ich einfach meinen alten CRT der auch bis 1280x960 geht und keinen Interpolationsstress macht (weswegen ich auch mittels KVM-Switch meinen Voodoo5 6000 Rechner dran hängen hab).

Crysis zock ich auf der HD4870 (@790/1100) mit 4xSSAAA/8xAF und Mster 3.0 am Beamer in 1280x720. => bei 120" (!!!) :ujump2:

Am Benq hab ich dann zwar oben und unten schwarze Balken, aber 1280x720 hat mehrere Vorteile:
> 1. Man braucht nicht sooo viel GraKa-Performance für volle AA-Dröhnung => muss also weniger häufig aufrüsten
> 2. Man kann diverse HD-Sender mit 1:1 Pixelmapping ansehen. (dank DVBC-Karte)
> 3. Beamer mit 1280x720 Auflösung sind deutlich leistbarer/leiser/lichtstärker als Full-HD Beamer




Mit weniger als 1680 x 1050 sollte man solche Grafikkarten bzw diese Klasse sowieso nicht mehr benchen. Das "wieso" und "warum" sollte klar sein.

Mal was anderes:
Was hindert die Tester und Mags eigentlich wirklich daran, ausschließlich mit A.I. Off zu benchen?


t.b.d

Ist vom qualitativen Standpunkt her seit R600 ziemlich wurscht, was man einstellt. Leider ;(

(auch wenns zumindest bei HL² noch sichtbare Unterschiede gibt, war AIoff am R580 besser)

Bis inkl. RV670 hab ich auch den Grund nachvollziehen können. Mittlerweile könnte ATi aber wieder AI im R580-Style anbieten.

Gast
2008-07-17, 08:13:24
Crysis zock ich auf der HD4870 (@790/1100) mit 4xSSAAA/8xAF und Mster 3.0 am Beamer in 1280x720. => bei 120" (!!!) :ujump2:


Können die Atis garnicht...

Gast
2008-07-17, 08:18:13
Ich muss mich korrigieren...können schon aber Ati bietet es derzeit nicht an. Sicher aus Performancegründen ;)