PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 4870: (P)Review-Thread


Seiten : [1] 2 3 4 5

AnarchX
2008-06-24, 09:18:08
http://img184.imageshack.us/img184/2269/hd4870smalluj3.png

Testberichte:

Expreview - First Review: HD 4870 (http://en.expreview.com/2008/06/24/first-review-hd-4870-and-hd-4850/)

http://www.pcgameshardware.de/aid,648637/RV770-Test_Radeon_HD_4800_im_Technik-Check/
http://www.pcgameshardware.de/aid,648699/Radeon_HD_4800_Der_grosse_PCGH-Benchmark-Test/
http://www.golem.de/0806/60606.html
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/

http://anandtech.com/video/showdoc.aspx?i=3341
http://www.bjorn3d.com/read.php?cID=1301
http://www.hothardware.com/Articles/ATI%5FRadeon%5FHD%5F4850%5Fand%5F4870%5FRV770%5FHas%5FArrived/
http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=584&Itemid=31
http://www.hexus.net/content/item.php?item=13972
http://www.pcper.com/article.php?aid=581
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/8162-palit-radeon-hd4870-512mb-graphics-card-review.html
http://arstechnica.com/reviews/hardware/ati-4800-series-review.ars
http://www.rage3d.com/reviews/video/atirv770/architecture/
http://www.hardware.fr/articles/725-1/dossier-amd-radeon-hd-4870-4850.html
http://www.tweaktown.com/reviews/1481/sapphire_radeon_hd_4870_in_crossfire/index.html
http://techreport.com/articles.x/14990
http://www.firingsquad.com/hardware/ati_radeon_4850_4870_performance/
http://enthusiast.hardocp.com/article.html?art=MTUyNCwxLCxoZW50aHVzaWFzdA==
http://www.legitreviews.com/article/734/1/
http://www.tomshardware.co.uk/radeon-hd-4870,review-31046.html

Etwas anderer Test: Nutzen des hohen Speichertakts (http://www.hardware.fr/articles/726-1/radeon-hd-4800-gddr5-utile.html)
In dt. bei CB:
Computerbase Test: Was bringt GDDR5 auf der Radeon HD 4870? (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_was_gddr5_radeon_hd_4870/)


Spezfikationen:

GPU:

Bezeichnung: RV770
Prozess: 55nm bei TSMC
Transistorenanzahl: 956 Mio.
Chip-Größe: 256mm²

Funktionseinheiten:

160 Vec5-ALUs, organisiert in 10 SIMDs (~800SPs MADD)
40 TAs, 40 bi-TMUs
16 ROPs (4 Z)
256-Bit Speicherinterface (4-fach unterteilt); 512/1024MiB GDDR5


Taktraten:

TMU/ROPs: 750MHz
Shadertakt: 750MHz
Speichertakt: 900MHz Command, 1800MHz Daten


Theoretische Leistungs-Daten:

Pixelfüllrate: 12000 MPix/s
Texelfüllrate: 30000 MTex/s
arithmetische Leistung: 1200 GFLOPs MADD
Speicherbandbreite: 115GB/s


Zum Vergleich:

HD 4850:


Pixelfüllrate: 10000 MPix/s
Texelfüllrate: 25000 MTex/s
arithmetische Leistung: 1000 GFLOPs MADD
Speicherbandbreite: 64GB/s


GTX 280/260:
GTX 280:

Pixelfüllrate: 19264 MPix/s
Texelfüllrate: 48160 MTex/s
arithmetische Leistung: MADD -> 622 GFLOPs, MADD+MUL -> 933 GFLOPs
Speicherbandbreite: 141,7 GB/s

GTX 260:

Pixelfüllrate: 16128 MPix/s
Texelfüllrate: 36864 MTex/s
arithmetische Leistung: MADD -> 477 GFLOPs, MADD+MUL -> 715 GFLOPs
Speicherbandbreite: 112 GB/s
[/B]
HD3850/70:

HD 3870:

Pixelfüllrate: 12400 MPix/s
Texelfüllrate: 12400 MTex/s
arithmetische Leistung: MADD -> 496 GFLOPs
Speicherbandbreite: 72 GB/s

HD 3850:

Pixelfüllrate: 10720 MPix/s
Texelfüllrate: 10720 MTex/s
arithmetische Leistung: MADD -> 429 GFLOPs
Speicherbandbreite: 53,1 GB/s

Gast
2008-06-24, 09:23:53
Es sind 80 TA's und 40 TMU's.

tombman
2008-06-24, 09:24:23
Fernostler habens wieder getan:
http://translate.google.com/translate?hl=en&u=http%3A%2F%2Fwww.hkepc.com%2Fforum%2Fviewthread.php%3Ftid%3D1007750%26extra%3D page%253D1

http://img.photobucket.com/albums/v125/sillgate/4870%20review/3mvX.jpg

Tjo, da hatte ich schon wieder Recht, nix X4xxx, lieber ATIler ;)

Aber P/L ist natürlich DER Hammer, für 230€...

Ich schätze 3x HD4870 ~ 2x GTX280

2x GTX280~ 940€
3x HD4870~ 690€

Also ca 36% weniger Preis als bei Nvidia pro Leistung...

p.s.:


...Crysis (1920 x1200 @ Very high / 4aa average 10 fps)...

p.p.s. sorry Mods für die Bildgröße, aber ich wollte wegen 74 Pixel nicht gleich ein neues Bild basteln- ich hoffe, das geht noch durch :)

AnarchX
2008-06-24, 09:24:43
Es sind 80 TA's und 40 TMU's.
Nein, das ist eine Änderung die gegenüber R6xx geschehen ist.

Schlammsau
2008-06-24, 09:25:56
wow.....sie ist schneller als eine GTX260!
http://www.expreview.com/img/topic/hd4800/4870vsgtx260.png

Gast
2008-06-24, 09:26:19
Nein, das ist eine Änderung die gegenüber R6xx geschehen ist.

Im Review bei Expreview steht es aber genau so.

AnarchX
2008-06-24, 09:26:44
Im Review bei Expreview steht es aber genau so.

Die Blockschema von AMD sagen aber etwas anderes.

reunion
2008-06-24, 09:28:28
Dann poste ich das auch mal hier rein, passt wohl besser:

Die Verfügbarkeit zum Launch dürfte aber wohl nicht so gut sein:

I spoke with FXVIDEOCARDS.COM and they said they are only getting 10 units of the 4870 for launch and 20 units the next week.... they said supply should increase after that. They asked for 300 units and only managed to confirm 10. This is not looking good, especially with people who are going to take advantage of the situation for ebay profit. Good luck everyone, It's every man for his self!!!

http://forums.vr-zone.com/showthread.php?t=292880

Die Performance ist wie erwartet um die 30% über der 4850. Die Tests der Leistungsaufnahme sind bei dem Test wohl missglückt, auch die der 3850 sind viel zu hoch.

Gast
2008-06-24, 09:29:10
Fernostler habens wieder getan:
http://translate.google.com/translate?hl=en&u=http%3A%2F%2Fwww.hkepc.com%2Fforum%2Fviewthread.php%3Ftid%3D1007750%26extra%3D page%253D1

http://img.photobucket.com/albums/v125/sillgate/4870%20review/3mvX.jpg

Tjo, da hatte ich schon wieder Recht, nix X4xxx, lieber ATIler ;)

Aber P/L ist natürlich DER Hammer, für 230€...

Ich schätze 3x HD4870 ~ 2x GTX280

2x GTX280~ 940€
3x HD4870~ 690€

Also ca 36% weniger Preis als bei Nvidia pro Leistung...

p.s.:



p.p.s. sorry Mods für die Bildgröße, aber ich wollte wegen 74 Pixel nicht gleich ein neues Bild basteln- ich hoffe, das geht noch durch :)

Beim Vantage Xtreme limitieren lediglich die 512MB. Warte mal die 1GB Version ab.

Mr. Lolman
2008-06-24, 09:30:29
Expreview - Chinesisch übersetzt (http://translate.google.com/translate?u=http%3A%2F%2Fwww.expreview.com%2Ftopic%2F2008-06-24%2F1214282167d9273.html&hl=zh-CN&ie=UTF8&sl=zh-CN&tl=en)


:eek: Wer hätte das gedacht?:

http://www.abload.de/img/etqw_02lvz.png (http://www.abload.de/image.php?img=etqw_02lvz.png)

http://www.abload.de/img/hl2_025c8.png (http://www.abload.de/image.php?img=hl2_025c8.png)

BTW: Die Daten der 4850 würden zum Vergleichen auch gut ins erste Post passen.

INDEX75
2008-06-24, 09:33:58
ATI beeindruckt! :eek: Mit derart viel Leistung hätte ich nicht wirklich gerechnet. Jetzt noch die 4870 X2 abwarten und nVIDIA darf sich dann hoffentlich Hosenträger kaufen. :biggrin:

MfG
i75

Tarkin
2008-06-24, 09:34:14
Wahnsinn!! :eek: Das hätte ich nicht erwartet!

Da bleibt wohl nVidia wirklich nichts anderes übrig als den Preis der GTX 280 auf Euro 300,- zu senken (wenn nicht noch tiefer). Sonst verkommt das Ding zu einem echten Ladenhüter.

tombman
2008-06-24, 09:35:15
Beim Vantage Xtreme limitieren lediglich die 512MB. Warte mal die 1GB Version ab.
Bei ATI limitiert bei 1920x1200, 4xAA nix. Schau dir die anderen benchmarks an, da limitiert auch nix, nichtmal bei 8xAA...
ATI geht mit dem Speicher viel besser um...

reunion
2008-06-24, 09:36:27
Wahnsinn!! :eek: Das hätte ich nicht erwartet!

Da bleibt wohl nVidia wirklich nichts anderes übrig als den Preis der GTX 280 auf Euro 300,- zu senken (wenn nicht noch tiefer). Sonst verkommt das Ding zu einem echten Ladenhüter.

Habe ich mir auch schon gedacht. Sie liefert fast 90% der Leistung einer GTX280 bei 46% der Preises:

http://www.expreview.com/img/topic/hd4800/4870vsgtx280.png

Gast
2008-06-24, 09:36:31
Absoluter Wahnsinn! So viel Leistung für so wenig Geld. Die 4870X2 wird die GTX280 sowas von plattmachen. Ich rechne mit >60%.

AnarchX
2008-06-24, 09:38:50
Der Speicher hat wie erhofft doch noch einiges Potential bei der 4870:
http://www.expreview.com/img/topic/hd4800/48703dOCp.jpg

Was beim Core möglich ist, muss wohl noch ein Test ohne CCC zeigen.

Sorkalm
2008-06-24, 09:42:41
Und sie ist im Schnitt schneller als eine GTX 260 - das muss weh tun...

Exxtreme
2008-06-24, 09:44:56
Mjamjam, das ding gefällt mir wirklich! P/L-Verhältnis ist auch der Oberhammer.

Tarkin
2008-06-24, 09:46:58
Habe ich mir auch schon gedacht. Sie liefert fast 90% der Leistung einer GTX280 bei 46% der Preises:


Diesesmal wurde nicht zu viel versprochen - das Teil überzeugt auf der ganzen Linie. Bin begeistert!!

Das erinnert mich stark an den Radeon 9700 Launch :)

Was wohl die X2 "anrichten" wird OMG! ;D

(was hier fehlt sind ordentliche Kinnlade-nach-unten-Smileys - LOL)

ShadowXX
2008-06-24, 09:51:15
wow.....sie ist schneller als eine GTX260!
http://www.expreview.com/img/topic/hd4800/4870vsgtx260.png
Wenn du mir jetzt noch erklärst warum Sie Bioshock und Unreal Tournament 3 nur ohne AA gebencht haben (beide gehen auch auf ATI mit AA)?

Vielleicht weil das Summary dann schlechter (und wohl ganz leicht zu ungusten der ATI) ausgefallen wäre?
Den komischerweise fehlt gerade bei den beiden Games wo die ATIs bei AA wesentlich stärker als nV einbrechen der AA-Wert....ein Schelm wer böses denkt.
(Seht lustig (und ebenfalls den leichten BIAS andeutend) ist das SIe extra noch mal das Summary ohne Lost Plant mit anführen (weil die ATI dort ebenfalls sehr schlecht aussieht)).

Davon abgesehen ist die 4870 für den Preis den Sie wohl kosten wird eine Top-Karte und alleine eben durch diesen Preis wäre Sie auch meine Empfehlung für jeden der sich eine neue Karte kaufen möchte und etwas mehr Geld als für ein 4850 ausgeben kann.

Gast
2008-06-24, 09:51:50
ATi ist zurück, oder nicht? :)

Fehlt nur noch der R300-like Hammer und es zieht wieder viel Konkurrenz durchs Land. Gut für uns Kunden, schlecht für Fanboys die auch jetzt noch versuchen werden alles schlechtzureden, natürlich dafür Geld zu sehen.

Bin gespannt auf die 1024MB-Reviews. :)

tombman
2008-06-24, 09:52:37
Tja Tombman, Du wirst in spätestens 8 Wochen wohl oder übel zu ATI wechseln müssen, wenn Du das Schnellste und Beste im Rechner haben willst,
nämlich 2 x 4870X2 CF!
Bin ich mir nicht so sicher, denn fps alleine sind nicht alles.

Mir war durchaus bewußt, daß ich DEUTLICH mehr zahle wenn ich bei Nvidia bleibe.

Bis jetzt habe ich noch nicht gesehen, daß sich bei CF irgendwas geändert hat- von der ganzen Bedienung her. .exe renaming muß man immernoch machen, keine Profilkontrolle usw...

2x GTX280 reicht für alles was ich spiele, auch für Crysis @ VH.

Und bei "normalen" games und Konsolenports (was eh 99% sein wird :rolleyes:) nützen 200fps oder 300fps wenig, wenn man keine SSAA Modi hat, die ALLES glätten.

Schau dir doch mal die reinen fps an, selbst auf 1920x1200+ massiv AA... ist doch eh schon alles lächerlich zu hoch...

Gast
2008-06-24, 09:55:14
Mjamjam, das ding gefällt mir wirklich! P/L-Verhältnis ist auch der Oberhammer.

Naja, wenn das alles ist, dann reichts aber nicht ganz. ;)

Einen Nachteil sehe ich bei ATI noch: Deren Treiber.
Ich warte schon seit Jahren auf eine Funktion, mit der ich Custom Auflösungen und Hz zahlen konfigurieren kann. Wieso geht das nicht? Ja, das liegt eindeutig am Treiber, früher mit einer ATi Rage und dem CP gings sogar noch und jetzt nur noch mit extra tools. :(

Die Force funktion im CCC funktioniert übrigens nicht, die erlaubt bei mir keine neuen Auflösungen...

Superheld
2008-06-24, 09:56:12
Alter Schwede:eek:

die macht ja richtig los:biggrin:

Fetza
2008-06-24, 09:56:24
Und sie ist im Schnitt schneller als eine GTX 260 - das muss weh tun...

Teilweise sogar deutlich schneller, vor allem mit 8xaa ist es einfach nur krass, was der ati-chip da abgeht. Ich glaube die hd4870 wird meinen 8800gts 640 wohl in den ruhestand schicken.:D

Sternenkind
2008-06-24, 09:58:25
So wo kann man die Dinger endlich kaufen? ;)

reunion
2008-06-24, 09:58:52
Wenn du mir jetzt noch erklärst warum Sie Bioshock und Unreal Tournament 3 nur ohne AA gebencht haben (beide gehen auch auf ATI mit AA)?

Vielleicht weil das Summary dann schlechter (und wohl ganz leicht zu ungusten der ATI) ausgefallen wäre?
Den komischerweise fehlt gerade bei den beiden Games wo die ATIs bei AA wesentlich stärker als nV einbrechen der AA-Wert....ein Schelm wer böses denkt.
(Seht lustig (und ebenfalls den leichten BIAS andeutend) ist das SIe extra noch mal das Summary ohne Lost Plant mit anführen (weil die ATI dort ebenfalls sehr schlecht aussieht)).


Bioshock DX10 geht bei AMD nicht mit AA, nur DX9. Bei UT3 sollte es allerdings schon gehen wenn man es per Treiber einstellt, ja. Und das man auch Werte ohne LP veröffentlicht dürfte wohl auch kaum verwunderlich sein, wenn man sich ansieht, wie sehr dieser aus der Reihe fällt. Würde man hier bewusst etwas zugunsten von AMD drehen dann hätte man auf LP ganz verzichtet. Aber schon klar, alles geschoben.

tombman
2008-06-24, 09:59:27
Warum wurde Crysis nicht auf veryhigh getestet?

Fetza
2008-06-24, 10:00:30
Naja, wenn das alles ist, dann reichts aber nicht ganz. ;)

Einen Nachteil sehe ich bei ATI noch: Deren Treiber.
Ich warte schon seit Jahren auf eine Funktion, mit der ich Custom Auflösungen und Hz zahlen konfigurieren kann. Wieso geht das nicht? Ja, das liegt eindeutig am Treiber, früher mit einer ATi Rage und dem CP gings sogar noch und jetzt nur noch mit extra tools. :(

Die Force funktion im CCC funktioniert übrigens nicht, die erlaubt bei mir keine neuen Auflösungen...

Ja, aber da du ja selbst die extra tools kennst (refreshlock ftw;)), verstehe ich nicht, das du darin ein problem siehst. :)

Bioshock DX10 geht bei AMD nicht mit AA, nur DX9. Bei UT3 sollte es allerdings schon gehen wenn man es per Treiber einstellt. Und das man auch Werte ohne LP veröffentlicht dürfte wohl auch kaum verwunderlich sein, wenn man sich ansieht, wie sehr dieser aus der Reihe fällt. Würde man hier bewusst etwas zugunsten von AMD drehen dann hätte man auf LP ganz verzichtet. Aber schon klar, alles geschoben.

Aehm, warum geht den bioshock dx10 nicht mit aa bei ati? Gibts da nicht schon lange ein treiberupdate?

Gast
2008-06-24, 10:02:04
So wo kann man die Dinger endlich kaufen? ;)

Größere Stückzahlen erst ab August. :(

Adam D.
2008-06-24, 10:02:59
Damit hat ATi defintiv einen absoluten Hammer gelandet. Das werd ich mit dem Kauf einer HD4870 belohnen, das Ding setzt sich gut von meiner 8800GT ab. Mit einer X2 und verbessertem Crossfire dürfte man die GTX280 mehr als deutlich schlagen, wer hätte das vor 4 Wochen wohl spekuliert? Absolut faszinierend :up:

reunion
2008-06-24, 10:09:31
Hier eine Folie, die noch nicht gepostet wurde:

http://img261.imageshack.us/img261/1977/rv770coredesignspec03ir3.png (http://imageshack.us)
http://img261.imageshack.us/img261/1977/rv770coredesignspec03ir3.f3790121e0.jpg (http://g.imageshack.us/g.php?h=261&i=rv770coredesignspec03ir3.png)

MuLuNGuS
2008-06-24, 10:10:21
Warum wurde Crysis nicht auf veryhigh getestet?

text nicht gelesen?

reunion
2008-06-24, 10:10:34
Aehm, warum geht den bioshock dx10 nicht mit aa bei ati? Gibts da nicht schon lange ein treiberupdate?

Nein.

ShadowXX
2008-06-24, 10:10:36
Bioshock DX10 geht bei AMD nicht mit AA, nur DX9. Bei UT3 sollte es allerdings schon gehen wenn man es per Treiber einstellt. Und das man auch Werte ohne LP veröffentlicht dürfte wohl auch kaum verwunderlich sein, wenn man sich ansieht, wie sehr dieser aus der Reihe fällt. Würde man hier bewusst etwas zugunsten von AMD drehen dann hätte man auf LP ganz verzichtet. Aber schon klar, alles geschoben.
Ich habe nicht gesagt "alles geschoben", sondern ich habe nur gesagt das der Test leicht Biased ist.

Zu Bioshock: Dann testet man eben auch noch mal unter DX9, ist ja nun wirklich keine Problem.
Zu UT: Das die ATIs das auch mit AA können sollte jedem bekannt sein
Zu: Lost Planet, warum immer nur die Rosinen beim Testen rauspicken. Die ATIs performen unter LP schlecht und dann muss man dazu stehen. Das ist auf kein Treiberproblem, denn die Performten auch unter ner 3850 und davor schon schlecht auf ATI.
Auch schlechte Ergebnisse gehören in einen Launchtest.

Wie gesagt nicht geschoben, aber zumindest wurde IMHO versucht die ATI unbedingt vor die 260GTX zu bekommen, was mit AA an bei Bioshock und UT3 wohl nicht gelungen wäre.

Aber hey....die Karte ist auch bei Gleichstand mit einer 260GTX (und darauf wird es über alle Review im Endeffekt hinauslaufen, mit leichten Vorteilen wenn es zu 8xMSAA kommt, dafür hat die nV schöneres AF) ein super Deal.
Wenn mich jemand fragen würde was er sich kaufen soll würde ich momentan definitiv eine 48x0 empfehlen (wenn er nicht gerade auf irgendetwas nV spezifisches wie Supersampling/Hybridmodi wert legt).

Hier eine Folie, die noch nicht gepostet wurde:

http://img261.imageshack.us/img261/1977/rv770coredesignspec03ir3.png (http://imageshack.us)
http://img261.imageshack.us/img261/1977/rv770coredesignspec03ir3.f3790121e0.jpg (http://g.imageshack.us/g.php?h=261&i=rv770coredesignspec03ir3.png)
Doch...bestimmt schon 10x.

Gast
2008-06-24, 10:11:34
Ja, aber da du ja selbst die extra tools kennst (refreshlock ftw;)), verstehe ich nicht, das du darin ein problem siehst. :)

Ich möchte nunmal nicht für jede Kleinigkeit ein extra Tool nutzen müssen, wenn so eine Funktion selbstverständlich sein sollte. Bei nV geht das schon länger und ATI hatte es auch mal hinbekommen... früher. Warum ist das jetzt wieder weg?

Übrigens Refreshlock funktioniert hier nicht. Der Treiber überschreibt bei mir leider die zur Verfügung stehenden Modi. Die vom Bildschirm, auch mit modifizierter inf nimmt er gar nicht an. :(

Gast
2008-06-24, 10:15:19
Zu: Lost Planet, warum immer nur die Rosinen beim Testen rauspicken. Die ATIs performen unter LP schlecht und dann muss man dazu stehen. Das ist auf kein Treiberproblem, denn die Performten auch unter ner 3850 und davor schon schlecht auf ATI.
Auch schlechte Ergebnisse gehören in einen Launchtest.

Lost Planet ist Müll, interessiert sowieso niemand. Es ist außerdem auf Nvidia Karten optimiert, da bei der Umsetzung von der XBOX360 Nvidia Mitarbeiter geholfen haben.

Gast
2008-06-24, 10:16:38
Hier eine Folie, die noch nicht gepostet wurde:

http://img261.imageshack.us/img261/1977/rv770coredesignspec03ir3.png (http://imageshack.us)
http://img261.imageshack.us/img261/1977/rv770coredesignspec03ir3.f3790121e0.jpg (http://g.imageshack.us/g.php?h=261&i=rv770coredesignspec03ir3.png)

Ja, sieht schwer nach fehlenden RnD und nach nur "drangepappten Einheiten" aus, wie uns unser Foreninsider glauben machen wollte. :lol:

tombman
2008-06-24, 10:17:24
Lost Planet ist Müll, interessiert sowieso niemand.
Dann darf aber Call of Juarez ebenfalls nicht interessieren....

Thunder99
2008-06-24, 10:19:48
Das sie mit weniger HW Einheiten fast die Performance erreichen ist krass (außer Shader)

Hab aber selber erst eine Grafikkarte gekauft :D

Wie verhält sich denn der RV770 wenn man AF zuschaltet?

reunion
2008-06-24, 10:19:54
Ich habe nicht gesagt "alles geschoben", sondern ich habe nur gesagt das der Test leicht Biased ist.


Bei dem Test fehlt sogar CoJ, ein Paradebeispiel für AMD, wodurch man den Schnitt noch weit nach oben hätte drücken können. LP ist hingegen vorhanden, welches AMD gar nicht liegt. Aber schon klar, "leicht biased".

Zu Bioshock: Dann testet man eben auch noch mal unter DX9, ist ja nun wirklich keine Problem.

Warum sollte man wenn DX10 auch geht? Nur um irgendwie krampfhaft mit AA vergleichen zu können und so auf die max. Details zu verzichten?

Zu UT: Das die ATIs das auch mit AA können sollte jedem bekannt sein


Sollte es ja. Vielleicht war es den Chinesen nicht bekannt, wer weiß. Deshalb gleich zu glauben alles geschoben ist doch lächerlich.


Zu: Lost Planet, warum immer nur die Rosinen beim Testen rauspicken. Die ATIs performen unter LP schlecht und dann muss man dazu stehen. Das ist auf kein Treiberproblem, denn die Performten auch unter ner 3850 und davor schon schlecht auf ATI.
Auch schlechte Ergebnisse gehören in einen Launchtest.

Sie sind ja auch vorhanden, deine Kritik ist lächerlich. Aber ist ja schon fast ein Verbrechen, dass man zusätzlich noch einen Wert ohne LP veröffentlicht, wo dieser enorm aus der Reihe tanzt. EXP macht das öfter, und zwar auch zugunsten von nV, wenn es starke Schwankungen gibt. Da hättest du dich sicher auch nicht aufgeregt.


Doch...bestimmt schon 10x.

Na dann zeig nur ein Post wo diese Folie vorkommt.

Gast
2008-06-24, 10:20:39
Dann darf aber Call of Juarez ebenfalls nicht interessieren....

Interessiert mich auch nicht, da auch Müll.

Tarkin
2008-06-24, 10:21:15
Dann darf aber Call of Juarez ebenfalls nicht interessieren....

das habe ich in diesem Review nicht gesehen ;)

Davon abgesehen - Lost Planet ist echter Dreck.. warum das immer wieder für Reviews verwendet wird ist mir schleierhaft!

Aber was definitiv fehlt sind Sachen wie Assassins Creed, Mass Effect, Age of Conan, Grid .. einfach akuellere Games

Gast
2008-06-24, 10:22:37
Das sie mit weniger HW Einheiten fast die Performance erreichen ist krass (außer Shader)

Tja, wer hat denn jetzt die bessere Effizienz?

Gast
2008-06-24, 10:23:24
Ist eigentlich nur mir aufgefallen das die 4870 auch 2 Stromanschlüsse braucht ?......

ein Monsternetzteil für ne Monstergrafikkarte o.o

AnarchX
2008-06-24, 10:23:57
Auch wenn die Verbrauchszahlen etwas hoch aussehen, so denke ich doch dass die 4870 wohl nicht sehr weit entfernt von ihrer 160W TDP liegen wird, wenn man sich anschaut, dass die Temperatur trotz massiven Kühlkörper und ~50% Lüfter noch bei 90°C unter 3D liegen soll.

ShadowXX
2008-06-24, 10:25:33
Lost Planet ist Müll, interessiert sowieso niemand. Es ist außerdem auf Nvidia Karten optimiert, da bei der Umsetzung von der XBOX360 Nvidia Mitarbeiter geholfen haben.
A.) das was Tombman schon gesagt hat und
B.) dann sollten wir am besten auch Crysis und viele andere Spiele wo nV-Mitarbeiter geholfen haben am besten von der Testliste streichen...oder was?
Am besten alle Games aus dem TWIMTBP-Programm......

Davon mal ab: wirklich optimieren auf eine Marke kann man bei den unified shader architekturen gar nicht mehr, speziell da nV und ATIs angang gar nicht soooo extrem unähnlich sind.

LP liegt ATI halt einfach nicht und Call of Juarez liegt nV halt nicht....soll man die Tests deshalb rauslassen, damit alles Friede, Freude, Eierkuchen ist und die Launchreviews die natürlich immer eine gewisse Erwartungshaltung in den beiden Lagern wecken nicht versaut werden?

Ronny G.
2008-06-24, 10:27:36
Ich finde es auch Klasse das NV endlich mal wieder zum denken angeregt wird, die Karten sind jetzt neu gemischt, was mal wieder frischen Wind in den Markt bringen wird.

ATi weiter so, vielleicht kaufe ich mir ja dieses Jahr noch ne ATI, was dann nach der X1800 meine 2. ATI wäre, im Vergleich zu insgesamt 7xNV:biggrin: wäre es nun echt ne Überlegung wert.

Mir gefallen einfach die Punkte, Stromverbrauch/Hitzeentwicklung, Preis und Leistung von ATI.

tombman
2008-06-24, 10:33:27
Ich finde es auch Klasse das NV endlich mal wieder zum denken angeregt wird, die Karten sind jetzt neu gemischt, was mal wieder frischen Wind in den Markt bringen wird.
Das beste ist ja, daß ATI das Preisniveau killt ;D

Ich frage mich nur, wo das Plus an 450 Mio. Transis bei Nvidia hingeflossen ist?
Die RV770XT hat 50% weniger Transistoren und erreicht 90% der Leistung der GTX280?

Wie sieht es eigentlich bei GPGPU bei ATI aus? Hat sich Nvidia mehr darauf spezialisiert? Sie haben ja mal gesagt, der G80 war eher auf games optimiert, und der G200 eher auf GPGPU.

Ich mein, teraflopmäßig haben sie auch gewonnen, aber wieviel davon "bringen sie auf Straße", sprich in reale Leistung?

reunion
2008-06-24, 10:33:50
Davon mal ab: wirklich optimieren auf eine Marke kann man bei den unified shader architekturen gar nicht mehr, speziell da nV und ATIs angang gar nicht soooo extrem unähnlich sind.


Mit der USA hat das erstmal wenig zu tun. Und optimieren könnte man sehr wohl. MUL-lastiger Code, und nV steht durch ihre zusätzliche MUL-Einheit besser da. Voreinander abhängige vec1-Instructions und die Leistung bricht bei AMD auf 1/5 der theoretischen Maximums ein. etc. pp.

Fetza
2008-06-24, 10:34:16
Nein.

Kannst du das mal ausführen? Warum funzt aa dabei nicht? Das ist doch kein hardwareproblem, hoffe ich.

Ich möchte nunmal nicht für jede Kleinigkeit ein extra Tool nutzen müssen, wenn so eine Funktion selbstverständlich sein sollte. Bei nV geht das schon länger und ATI hatte es auch mal hinbekommen... früher. Warum ist das jetzt wieder weg?

Übrigens Refreshlock funktioniert hier nicht. Der Treiber überschreibt bei mir leider die zur Verfügung stehenden Modi. Die vom Bildschirm, auch mit modifizierter inf nimmt er gar nicht an. :(

Ok, das ist mist. Da muss ich mir überlegen, wie ich meine hz richtig konfiguriere, wenn ich die neue karte habe.

A.) das was Tombman schon gesagt hat und
B.) dann sollten wir am besten auch Crysis und viele andere Spiele wo nV-Mitarbeiter geholfen haben am besten von der Testliste streichen...oder was?
Am besten alle Games aus dem TWIMTBP-Programm......

Davon mal ab: wirklich optimieren auf eine Marke kann man bei den unified shader architekturen gar nicht mehr, speziell da nV und ATIs angang gar nicht soooo extrem unähnlich sind.

LP liegt ATI halt einfach nicht und Call of Juarez liegt nV halt nicht....soll man die Tests deshalb rauslassen, damit alles Friede, Freude, Eierkuchen ist und die Launchreviews die natürlich immer eine gewisse Erwartungshaltung in den beiden Lagern wecken nicht versaut werden?

Der test ist nicht biased. Anhaltspunkte für deine kritik sehe ich nicht, es wird auch tests geben, in denen du dein lp und coj finden wirst. Die meisten werden sich vor allem über den crysis/ut3 bench gefreut haben.

Gast
2008-06-24, 10:34:43
A.) das was Tombman schon gesagt hat und
B.) dann sollten wir am besten auch Crysis und viele andere Spiele wo nV-Mitarbeiter geholfen haben am besten von der Testliste streichen...oder was?
Am besten alle Games aus dem TWIMTBP-Programm......

Davon mal ab: wirklich optimieren auf eine Marke kann man bei den unified shader architekturen gar nicht mehr, speziell da nV und ATIs angang gar nicht soooo extrem unähnlich sind.

LP liegt ATI halt einfach nicht und Call of Juarez liegt nV halt nicht....soll man die Tests deshalb rauslassen, damit alles Friede, Freude, Eierkuchen ist und die Launchreviews die natürlich immer eine gewisse Erwartungshaltung in den beiden Lagern wecken nicht versaut werden?

Lost Planet und Call of Juarez sowie die Konsolen sind eindeutig der Beweis dafür, dass man sehr wohl auf eine Architektur optimieren kann, und damit sehr viel Leistung herauszuholen ist.

tombman
2008-06-24, 10:40:08
Die meisten werden sich vor allem über den crysis/ut3 bench gefreut haben.
UT3 = Kinderkacke, das rennt eh schon abartig schnell, auchmit 100€ Graka...

Ich will mal endlich HD4870 TRIPLE CF @ Crysis VERY HIGH + 4xAA sehen.

Ich frage mich auch, warum die Karte bei vantage extreme 25% hinter der 280er ist...

Kann es sein, daß ATI diesmal schlicht und ergreifend bei heutigen games gewinnen wollte?
Wie siehts aus, wenn die Last extrem wird?

reunion
2008-06-24, 10:43:33
Kannst du das mal ausführen? Warum funzt aa dabei nicht? Das ist doch kein hardwareproblem, hoffe ich.


Kein Hardwareproblem, AMD ist technologisch weiter als nV. Allerdings hinkt man mit den AA-Hacks etwas hinterher.

Gast
2008-06-24, 10:44:45
[QUOTE=tombman;6611046]Ich frage mich auch, warum die Karte bei vantage extreme 25% hinter der 280er ist...QUOTE]

Habe ich doch schon gesagt, die 512MB limitieren.

tombman
2008-06-24, 10:46:30
Ich frage mich auch, warum die Karte bei vantage extreme 25% hinter der 280er ist...

Habe ich doch schon gesagt, die 512MB limitieren.
Du bist aber niemand....

Gast2
2008-06-24, 10:48:09
[QUOTE=Gast;6611052]
Du bist aber niemand....

Nun, ich würde mal sagen, er ist mindestens genauso von Bedeutung wie du hier.

Ich würde ihm da nämlich zustimmen. Das einzige was die Benchmarks von denen bisher gemacht haben, waren die Ressourcen aufzufressen.

Nur weil in Spielen davon nix zu sehen heißt, heißt das nicht, das ein Benchmark, der speziell dafür gebaut wurde, nicht doch mehr Speicher zieht.

Gast
2008-06-24, 10:52:27
Spätestens, wenn die 1GB Version da ist wissen wir es genau.

Gast
2008-06-24, 10:53:17
Die NV Fanboys durchdrehen zu sehen zeigt, das ATI dies mal alles richtig gemacht hat. Sehr schön, kommt am Ende allen Menschen zugute, die nicht in einen roten oder grünen Farbeimer als Kind gefallen sind.
Bin gespannt, ob NV vielleicht sogar SLI für Intel MoBos freigibt. Schließlich ist auch CF mit den neuen Grafikkarten erheblich attraktiver geworden, und da ist man ja auch nicht auf Spielzeugmobos festgelegt ;)

XuXo
2008-06-24, 10:55:21
Quality Benches bei 2560x1600 wären für mich noch von Interesse. Hier wäre noch ein Bereich wo die 280GTX@SLI sehr gut punkten kann....

Auf die Frage wer spielt bei solchen Auflösungen?
Alle die einen 30' Display sein Eigen nennen dürfen...und das sind nicht wenige.

Gruss

S940
2008-06-24, 10:58:55
Wie sieht es eigentlich bei GPGPU bei ATI aus? Hat sich Nvidia mehr darauf spezialisiert? Sie haben ja mal gesagt, der G80 war eher auf games optimiert, und der G200 eher auf GPGPU.Die neue Folding@Home Applikation auf der 280GTX ist z.Zt. topp, Ati hat da keine Chance, aber das liegt erstmal auch daran, da es noch keinen Client für die RV7XX gibt ... :(

Gute Übersicht gibts bei P3D:
http://www.planet3dnow.de/vbulletin/showthread.php?p=3642092#post3642092

Falls ich was Neues höre, dann geb ich bescheid, oder setz Dir die obige Übersicht als bookmark.

ciao

Alex

Skinner
2008-06-24, 11:00:00
Ich will mal endlich HD4870 TRIPLE CF @ Crysis VERY HIGH + 4xAA sehen.


Dito ;)

Adam D.
2008-06-24, 11:00:04
Die NV Fanboys durchdrehen zu sehen zeigt, das ATI dies mal alles richtig gemacht hat. Sehr schön, kommt am Ende allen Menschen zugute, die nicht in einen roten oder grünen Farbeimer als Kind gefallen sind.
Optimal für den gesamten Markt. Absolut genial, welche Performance man jetzt für 140-240€ bekommt, das hatten wir noch nie.

Bin gespannt, ob NV vielleicht sogar SLI für Intel MoBos freigibt. Schließlich ist auch CF mit den neuen Grafikkarten erheblich attraktiver geworden, und da ist man ja auch nicht auf Spielzeugmobos festgelegt ;)
Sicherlich eine Erwägung wert, aber so verzweifelt ist Nvidia wohl noch nicht. Immerhin stehen die im absoluten Krieg mit Intel ;)

Avalox/Gast
2008-06-24, 11:01:46
Vielleicht sorgt der Schwung nun doch noch für das ein oder andere DX 10.1 Spiel. Den momentanen Medien Fokus würde bestimmt gerne der ein oder andere Spielehersteller nutzen wollen.

reunion
2008-06-24, 11:01:58
Die neue Folding@Home Applikation auf der 280GTX ist z.Zt. topp, Ati hat da keine Chance, aber das liegt erstmal auch daran, da es noch keinen Client für die RV7XX gibt ... :(

Gute Übersicht gibts bei P3D:
http://www.planet3dnow.de/vbulletin/showthread.php?p=3642092#post3642092

Falls ich was Neues höre, dann geb ich bescheid, oder setz Dir die obige Übersicht als bookmark.

ciao

Alex

Das ist nicht vergleichbar.

Schlammsau
2008-06-24, 11:02:04
Auf die Frage wer spielt bei solchen Auflösungen?
Alle die einen 30' Display sein Eigen nennen dürfen...und das sind nicht wenige.



Oh doch....das sind wenige! Sogar ein verschwindend geringer Teil!

ShadowXX
2008-06-24, 11:04:11
Na dann zeig nur ein Post wo diese Folie vorkommt.
Hier das erste mal (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6589468&postcount=509, spoiler aufklappen).

Und da nach wurde er dann nochmal 3-4x gepostet.

reunion
2008-06-24, 11:07:56
Hier das erste mal (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6589468&postcount=509, spoiler aufklappen).

Und da nach wurde er dann nochmal 3-4x gepostet.

Ich sprach explizit von der Folie mit den aufgeführten Verbesserungen. Dass das Schaubild schon alt ist ist klar.

ShadowXX
2008-06-24, 11:09:18
Ich sprach explizit von der Folie mit den aufgeführten Verbesserungen. Dass das Schaubild schon alt ist ist klar.
Die aufgeführten "verbesserungen" sind nun wirklich das am meisten uninteressante auf dem Bild, da reines Marketing.

reunion
2008-06-24, 11:11:21
Die aufgeführten "verbesserungen" sind nun wirklich das am meisten uninteressante auf dem Bild, da reines Marketing.

Erstens ging es darum gar nicht und zweitens wird man sich die Dinge wohl kaum aus den Fingern gesaut haben.

Odal
2008-06-24, 11:15:56
Naja, wenn das alles ist, dann reichts aber nicht ganz. ;)

Einen Nachteil sehe ich bei ATI noch: Deren Treiber.
Ich warte schon seit Jahren auf eine Funktion, mit der ich Custom Auflösungen und Hz zahlen konfigurieren kann. Wieso geht das nicht? Ja, das liegt eindeutig am Treiber, früher mit einer ATi Rage und dem CP gings sogar noch und jetzt nur noch mit extra tools. :(

Die Force funktion im CCC funktioniert übrigens nicht, die erlaubt bei mir keine neuen Auflösungen...

eigentlich finde ich die ATI treiber DEUTLICH besser als die NV Treiber....

den nachteil den ich sehe ist fehlendes SSAA :(

Damit hat ATi defintiv einen absoluten Hammer gelandet. Das werd ich mit dem Kauf einer HD4870 belohnen, das Ding setzt sich gut von meiner 8800GT ab. Mit einer X2 und verbessertem Crossfire dürfte man die GTX280 mehr als deutlich schlagen, wer hätte das vor 4 Wochen wohl spekuliert? Absolut faszinierend :up:

die karte ist ein knüller wenn man sieht wie klein der chip im vergleich ist und "billig" das PCB und entsprechend niedrig der Preis...


allerdings sollte man nicht vergessen das oben bilder von benches mit 8xAA gepostet wurden...mit 4xAA wird sich die GTX280 schon ein stück absetzen...aber soll sie ja auch ist schlieslich auch ne ganz andere Preisliga

im moment schauts aus als hätte NVidia den zweiten NV30 gebaut (teuer, heiss, laut, stromfressend, und nur mäßig schnell) und ATI einen neuen R300 (performance aum jeden preis)

Ja, sieht schwer nach fehlenden RnD und nach nur "drangepappten Einheiten" aus, wie uns unser Foreninsider glauben machen wollte. :lol:

frag ich mich auch immer...was ailuros gespekuliert hatte war das genau gegenteil....

S940
2008-06-24, 11:17:30
Das ist nicht vergleichbar.
?? Was willst Du denn vergleichen ?
F@H ist ne GPGPU Applikation, also kann mans dafür hernehmen, oder meinst Du was andres ? Dann sei bitte etwas informativer und schreib mehr als nen halben Einzeiler ;-)

ciao

Alex

Odal
2008-06-24, 11:21:59
?? Was willst Du denn vergleichen ?
F@H ist ne GPGPU Applikation, also kann mans dafür hernehmen, oder meinst Du was andres ? Dann sei bitte etwas informativer und schreib mehr als nen halben Einzeiler ;-)

ciao

Alex


das kannst du schon aus dem grund nicht vergleichen weil hier ein riesen potential im treiber, bzgl. shadercode optimierung bzw. folding client implementierung, vorhanden sein dürfte

sprich du erkennst vielleicht welche hardware treiberseitig besser aufs proteine falten optimiert ist, aber nicht welche hardware wieviel potential bei gpgpu hat

Andreas12
2008-06-24, 11:35:19
Crysis 1680x1050 4xAA -18% zur 280er...ich glaube ich kauf mir
doch wieder so ein Monster von NV.

Gast
2008-06-24, 11:35:45
Hat zufällig jemand 4850CF gegen 4870 Benches? Fänd ich interessant falls die 70er anfangs wirklich mit Lieferengpässen zu kämpfen hat.

grüße, Mike

AnarchX
2008-06-24, 11:42:39
Auch wenn die Verbrauchszahlen etwas hoch aussehen, so denke ich doch dass die 4870 wohl nicht sehr weit entfernt von ihrer 160W TDP liegen wird, wenn man sich anschaut, dass die Temperatur trotz massiven Kühlkörper und ~50% Lüfter noch bei 90°C unter 3D liegen soll.
Results obtained at two models, one is in standby operating system within 15 minutes, the other is running FurMark
Furmark dürfte wohl die 800SPs sehr gut auslasten, wodurch der Verbrauch nicht so verwunderlich ist.

Odal
2008-06-24, 11:46:35
Was ein dummer dummer Vergleich NV30 hat bei der Shaderberechnung total versagt.GT200 dagegen wird erst bei DX10 richtig aufräumen.Ich würd noch mal 2-3 Treiber abwarten und dann alle Benches Ende des Jahres in DX10 in hohen Auflösungen durchführen.Dafür wurde dieses Monster erschaffen.


ATI hat sich seit der RV670 generation darauf festgelegt einen einzigen chip eben für den Absatzmarkt (Performance Sektor-Midrange) zu entwickeln...
und für die balkenlänge (und leuten die sich unbedingt vom performance käuferkreis absetzen müssen) ne dualgpu karte auf den markt zu werfen

letzteres können sie sich leisten da sowohl GPU als auch PCB kostengünstig designt ist....

hier tritt nicht Highend von ATI gegen HighEnd von NVidia an sondern Performance Sektor von ATI gegen HighEnd von NVidia

und da hat das HighEnd von NVidia teilweise echt zu kämpfen...gegen eine 4870X2 wird es gnadenlos untergehen

das ist nicht wie 9700pro vs 5800Ultra sondern eher wie 9600xt (4870) vs 5800Ultra (GTX280)

und in anbetracht dessen sieht die Leistung der GTX280 äusserst bescheiden aus.

um mal ein DX10 Game zu nehmen

http://www.expreview.com/img/topic/hd4800/bioshock.png

es geht auch nicht darum das die GTX280 ne shaderschwäche hat...die hat ne gesamtschwäche wenn man sich die technischen daten ansieht und was letztendlich bei rum kommt...

Adam D.
2008-06-24, 11:51:37
die karte ist ein knüller wenn man sieht wie klein der chip im vergleich ist und "billig" das PCB und entsprechend niedrig der Preis...
Jo, absolut. Wir sprechen hier immerhin von einem doppelt so großen Die auf seiten Nvidias. ATi kann den RV770 einfach günstig raus hauen, weil er günstig herzustellen ist. Dass der RV770 so stark wird und dem Top-Modell von Nvidia ab und zu gefährlich wird, hätte wohl niemand gedacht.

allerdings sollte man nicht vergessen das oben bilder von benches mit 8xAA gepostet wurden...mit 4xAA wird sich die GTX280 schon ein stück absetzen...aber soll sie ja auch ist schlieslich auch ne ganz andere Preisliga
Du sagst es ja selbst. Die GTX280 hat auch ihre Stärken, immerhin ist verdammt viel Geld und Entwicklungszeit und -aufwand eingeflossen. Nur schade, dass wir Endnutzer nicht viel davon sehen.

im moment schauts aus als hätte NVidia den zweiten NV30 gebaut (teuer, heiss, laut, stromfressend, und nur mäßig schnell) und ATI einen neuen R300 (performance aum jeden preis)
Da muss ich dir dann doch widersprechen, der Vergleich ist viel zu hart. Die GTX280 ist die schnellste zu kaufende Karte, besitzt defintiv ihre Stärken. Der NV30 war dagegen ein Totalausfall.

tombman
2008-06-24, 11:51:51
Furmark dürfte wohl die 800SPs sehr gut auslasten, wodurch der Verbrauch nicht so verwunderlich ist.
Der lastet auch die 240sp der 280er aus, soviel kannst glauben. Das Teil ist ein GPU Killer :D

[dzp]Viper
2008-06-24, 12:05:22
Wow die Karte ist für den Preis der absolute Hammer :eek:

Mal schauen wie gut/schlecht sie wirklich verfügbar sein wird!

Gast
2008-06-24, 12:08:33
Braucht die Karte zwingend 2x 6pol. Stromanschlüsse, oder läuft die auch mit einem? (ohne Overclocking)



Ash

Franzmann-Jan
2008-06-24, 12:22:48
Moment mal,

sehe ich das richtig, dass zwischen der 4850 und der 4870 nur höhere Taktraten den Unterschied machen?? Und das auf so einem hohen Niveau?

Wie ist das möglich? Ich meine soviel höher sind die 4870er doch garnicht getaktet?

AnarchX
2008-06-24, 12:23:13
siehe:
http://www.techreport.com/r.x/geforce-gtx-280/rm3d-textures.gif
Scheint aber in den oben gezeigten Benchmarks nicht das Problem zu sein, da ja 88U und 98GTX gleichauf liegen, was wieder auf die arithmetische Leistung hinweist und speziell wohl auf:
branching efficiency in a pixel shader.

Moment mal,

sehe ich das richtig, dass zwischen der 4850 und der 4870 nur höhere Taktraten den Unterschied machen?? Und das auf so einem hohen Niveau?

Wie ist das möglich? Ich meine soviel höher sind die 4870er doch garnicht getaktet?
64 vs 115GB/s Speicherbandbreite.

Sorkalm
2008-06-24, 12:26:18
Wie ist das möglich? Ich meine soviel höher sind die 4870er doch garnicht getaktet?

Der Chip vielleicht nicht, aber zwischen 1000 MHz und 1800 MHz Speichertakt liegen doch deutliche Unterschiede. ;)

Skinner
2008-06-24, 12:30:14
Super Thread...... 3 Seiten nur müll. Ich dachte hier gehts um die 4870, und nicht um 4850 vs. 9800GTX.

Bleibt mal bitte alle beim Thema :rolleyes:

Sorkalm
2008-06-24, 12:38:11
Wer steckt eigentlich hinter diesem Force3D?
http://www.force3d.com/press/28_1_08_force3dlaunch.html

Soll ja ein neuer AIB auf AMD-Seite sein, der wohl jetzt auch in neue Märkte vorstoßen will, laut den Berichten auf einigen Seiten.

S940
2008-06-24, 12:39:58
das kannst du schon aus dem grund nicht vergleichen weil hier ein riesen potential im treiber, bzgl. shadercode optimierung bzw. folding client implementierung, vorhanden sein dürfte

sprich du erkennst vielleicht welche hardware treiberseitig besser aufs proteine falten optimiert ist, aber nicht welche hardware wieviel potential bei gpgpu hatÄhhh .... GPGPU geht doch so oder so nicht ohne Treiber, wieso wolltest Du die weglassen ? Wenn ich das richtig verstehe, willst Du nen theoretischen Drystone Test, Sandra Score oder sonst was artifizielles.

Da hab ich lieber handfeste, echte Applikationen, den F@H Entwicklern traue ich zu bis ans Maximum zu optimieren. Wenn dann der Cuda Treiber oder Atis Implementierung Müll macht .. dann sind die selber Schuld.

Wenn Dir soviel an der Theorie liegt, dann nimm die FLOPs Zahlen die schon seit Wochen kursieren. Bekanntermaßen hat Ati da mehr als 1TFLOP, während nVidia mit der 280GTX knapp 1TFLOP (933GFLOPs) erreicht.

Die Zahlen sollte aber nun doch wirklich jeder kennen, v.a. auch tombman, der fragte. Deswegen nahm ich eher an, dass er wissen wollte wie es in der Praxis ausschaut.

ciao

Alex

mekakic
2008-06-24, 12:45:26
Wird es auch 4870 Karten geben, die ab Werk mit so Quasi Silent Lösungen auskommen, wie die Arctic Cooling Accelero Modelle o.ä.?

Schlammsau
2008-06-24, 12:46:33
Wird es auch 4870 Karten geben, die ab Werk mit so Quasi Silent Lösungen auskommen, wie die Arctic Cooling Accelero Modelle o.ä.?

Silent mit Sicherheit, aber passiv wird wohl schwer werden. Bei der TDP.....

AnarchX
2008-06-24, 12:46:36
Wird es auch 4870 Karten geben, die ab Werk mit so Quasi Silent Lösungen auskommen, wie die Arctic Cooling Accelero Modelle o.ä.?
Ich glaube bei der TDP von 160W werden sich die AIBs hier nicht soviel trauen, vielleicht bringt Sapphire wieder eine Karte mit WaKü.

Gast
2008-06-24, 12:47:59
Wenn Dir soviel an der Theorie liegt, dann nimm die FLOPs Zahlen die schon seit Wochen kursieren. Bekanntermaßen hat Ati da mehr als 1TFLOP, während nVidia mit der 280GTX knapp 1TFLOP (933GFLOPs) erreicht.

Die 933GFLOPs kann man eigentlich vergessen. In der Praxis zählt nämlich nur die MADD-Leistung. Dann sieht so aus:

240 x 2 x 1296 = 622 GFLOPS

D.h. die 4870 (1200 GFLOPS) ist doppelt so schnell, was sich auch im PS4.0 arithmetik Test niederschlägt und auch bei Physik- und GPGPU-Anwendungen zu sehen sein wird.

Aunrae
2008-06-24, 12:49:03
Ich glaube bei der TDP von 160W werden sich die AIBs hier nicht soviel trauen, vielleicht bringt Sapphire wieder eine Karte mit WaKü.

Wäre es nicht möglich wieder nen großen Kühler (mit Heatpipes) und nem schönen großen leise drehenden 80mm Lüfter zu kombinieren ?

Sind 160W denn soviel das man zwingend nen laut drehenden Lüfter braucht?

mekakic
2008-06-24, 12:53:16
Wieviel verbraucht die HD4870 denn mehr als die 8800GT?

Sorkalm
2008-06-24, 12:56:30
Expreview hatte die Lautstärke nicht gemessen, oder?

Der Kühler der 4870 erscheint mir doch ziemlich massiv, sollte der nicht relativ ruhig bleiben, zumal der Lüfterdurchmesser auch nicht gerade klein ist?

dildo4u
2008-06-24, 12:59:23
Wieviel verbraucht die HD4870 denn mehr als die 8800GT?
Ca 60Watt.

reunion
2008-06-24, 12:59:29
Expreview hatte die Lautstärke nicht gemessen, oder?

Der Kühler der 4870 erscheint mir doch ziemlich massiv, sollte der nicht relativ ruhig bleiben, zumal der Lüfterdurchmesser auch nicht gerade klein ist?

Naja, so leise wird der Lüfter wohl nicht sein. Das Ding hat immerhin 1A und die RPM die EXP schon im 2D-Modus gemessen hat sind auch nicht ganz ohne. Aber er sollte zumindest nicht sonderlich laut werden.

Gast
2008-06-24, 13:01:23
http://translate.google.de/translate?u=http%3A%2F%2Fwww.expreview.com%2Ftopic%2F2008-06-24%2F1214282167d9273.html&sl=zh-CN&tl=en&hl=de&ie=UTF-8

4850 = GTX 260 und wesentlich preiswerter, wer hätte das gedacht

Odal
2008-06-24, 13:02:06
Ähhh .... GPGPU geht doch so oder so nicht ohne Treiber, wieso wolltest Du die weglassen ? Wenn ich das richtig verstehe, willst Du nen theoretischen Drystone Test, Sandra Score oder sonst was artifizielles.

ich will weder nen treiber weglassen noch sonst was
ich sage nur das nvidia CUDA derzeit pusht und extra mit an/für den GPGU F@H client werkelten....nicht umsonst belieferte man alles GTX280 Reviewer mit einer Beta

da das alles über shaderalus läuft, und je nach architektur viel optimierungspotential da ist, sollte man aus F@H keine rückschlüsse auf die GPGPU leistung ziehen


Da hab ich lieber handfeste, echte Applikationen, den F@H Entwicklern traue ich zu bis ans Maximum zu optimieren. Wenn dann der Cuda Treiber oder Atis Implementierung Müll macht .. dann sind die selber Schuld.


Es geht mir nicht um Müllmachen sondern um Optimierungen speziell auf F@H im NVidia Treiber


Wenn Dir soviel an der Theorie liegt, dann nimm die FLOPs Zahlen die schon seit Wochen kursieren. Bekanntermaßen hat Ati da mehr als 1TFLOP, während nVidia mit der 280GTX knapp 1TFLOP (933GFLOPs) erreicht.

Die Zahlen sollte aber nun doch wirklich jeder kennen, v.a. auch tombman, der fragte. Deswegen nahm ich eher an, dass er wissen wollte wie es in der Praxis ausschaut.

ciao

Alex
Die 933GFLOPs kann man eigentlich vergessen. In der Praxis zählt nämlich nur die MADD-Leistung. Dann sieht so aus:

240 x 2 x 1296 = 622 GFLOPS

D.h. die 4870 (1200 GFLOPS) ist doppelt so schnell, was sich auch im PS4.0 arithmetik Test niederschlägt und auch bei Physik- und GPGPU-Anwendungen zu sehen sein wird.


so siehts aus, wobei man aufgrund von flexibilität auch hier keine wirklichen leistungsaussagen machen kann....

das einzige was eventuell aussagekräftig wäre, wenn mal eine hand voll von unbekannten leuten GPGPU programme schreiben, und die als benchmark missbrauchen

reunion
2008-06-24, 13:11:14
Ähhh .... GPGPU geht doch so oder so nicht ohne Treiber, wieso wolltest Du die weglassen ? Wenn ich das richtig verstehe, willst Du nen theoretischen Drystone Test, Sandra Score oder sonst was artifizielles.

Da hab ich lieber handfeste, echte Applikationen, den F@H Entwicklern traue ich zu bis ans Maximum zu optimieren. Wenn dann der Cuda Treiber oder Atis Implementierung Müll macht .. dann sind die selber Schuld.

Wenn Dir soviel an der Theorie liegt, dann nimm die FLOPs Zahlen die schon seit Wochen kursieren. Bekanntermaßen hat Ati da mehr als 1TFLOP, während nVidia mit der 280GTX knapp 1TFLOP (933GFLOPs) erreicht.

Die Zahlen sollte aber nun doch wirklich jeder kennen, v.a. auch tombman, der fragte. Deswegen nahm ich eher an, dass er wissen wollte wie es in der Praxis ausschaut.

ciao

Alex

Die Werte sind nicht vergleichbar. Es sind zwei völlig unterschiedliche Clients. NV verwendet ihr CUDA und die Radeons CAL/Brook+ als Backend, welches sich noch im beta-Status befindet. Der GPU2-Client läuft mit angezogener Handbremse: Er ist extrem CPU-abhängig, da CAL einiges an CPU-Last erzeugt. Eine HD3780 wird nur zu 1/5 ausgelastet.

rotanat
2008-06-24, 13:25:04
Ich bin mal auf die PCGH-Benches gespannt, weil die doch für mich am Praxisrelevantesten sind, durch Verwendung von 1680*1050, aktuellen Titeln (mich jucken HL2 Benches nicht die Bohne) wie AoC usw.

Momentan hab ich ja die 8800 GTS, die ein bisschen OCd auf 9800 GTX Niveau ist. Bisher seit es nicht so aus als könnte sich die 4870 von der Karte deutlich absetzen (sprich ~50 %) sondern das kann nur die 280GTX. Ergo ist die 4870 zwar eine preiswerte und nette Karte, aber nicht deutlich schneller als die 8800 GTS, sprich Crysis in High kann ich mit der GTS auch schon spielen, für Very High reicht aber scheinbar keine 4870. Selbes Bild in AoC (mal ausgehend von den 4850er Benches), wo jetzt 15 FPS sind, sind dann vlt. 17-20, aber keine 25...

Interessant wäre daher eher eine 4870 mit 1 GB und werkseitigem OC. Wenn die 40% erreicht (gegenüber GTS) für 150-200 Euro weniger wäre das durchaus ein großes Argument.

Fetza
2008-06-24, 13:33:37
UT3 = Kinderkacke, das rennt eh schon abartig schnell, auchmit 100€ Graka...

Ich will mal endlich HD4870 TRIPLE CF @ Crysis VERY HIGH + 4xAA sehen.

Ich frage mich auch, warum die Karte bei vantage extreme 25% hinter der 280er ist...

Kann es sein, daß ATI diesmal schlicht und ergreifend bei heutigen games gewinnen wollte?
Wie siehts aus, wenn die Last extrem wird?

Bei ut3 gehts mir ja auch mehr um die engine, weil sie nunmal für verdammt viele spiele genutzt wird. Und gerade die 3dmark benches interessieren doch überhaupt nicht, den die anforderungen von echten spielen finden wird da nicht, auch nicht von denen die in naher zukunft erscheinen.

deekey777
2008-06-24, 13:42:08
Ich splitte mal schnell die D3DRM-Diskussion heraus, da sie zwar hier fehl am Platz ist, aber interessant.
-> http://www.forum-3dcenter.org/vbulletin/showthread.php?t=422570

Eggcake
2008-06-24, 13:58:46
Wow...nun wirds evt. doch die HD 4870 und nicht die 4850. Echt krass!
Frage mich ob sich eine 1GB-Version überhaupt lohnt, wenn man davon ausgeht, dass man garantiert nicht über 16xx in den nächsten Jahren spielt. (Also auf mich bezogen).

S940
2008-06-24, 14:18:16
Die Werte sind nicht vergleichbar. Es sind zwei völlig unterschiedliche Clients. NV verwendet ihr CUDA und die Radeons CAL/Brook+ als Backend, welches sich noch im beta-Status befindet. Der GPU2-Client läuft mit angezogener Handbremse: Er ist extrem CPU-abhängig, da CAL einiges an CPU-Last erzeugt. Eine HD3780 wird nur zu 1/5 ausgelastet.
Ist ja schön und gut, aber wieso machen die das ? Sicher nicht aus Spass an der Freude ... die beste theoretische FLOPs Zahl bringt mir nichts, wenn ich sie nicht nützen kann.
Wenn Du jetzt argumentierst, dass der Vergleich deswegen "unfair" ist, dann sage ich nur .. Pech für ATi ... vielleicht waren die beworbenen GPGPU Verbesserungen bei nV doch nicht nur leere Marketing Hülsen. Aber erstmal abwarten, was beim Client für den RV7XX rauskommt ;-)

@Eggcake:
Warte mal noch 4850 OC Tests ab, ein Großteil der besseren 4870er Leistung dürfte auf den höheren GPU Takt zurückzuführen sein. Vor allem wenn Du nicht mehr als eine 1680 Auflösung hast, könnte ne (übertaktete) 4850 ausreichend sein.

ciao

Alex

ShadowXX
2008-06-24, 14:45:05
@Eggcake:
Warte mal noch 4850 OC Tests ab, ein Großteil der besseren 4870er Leistung dürfte auf den höheren GPU Takt zurückzuführen sein. Vor allem wenn Du nicht mehr als eine 1680 Auflösung hast, könnte ne (übertaktete) 4850 ausreichend sein.

Naja....ein großer Teil der guten (8x)MSAA-Werte der 4870 dürfte auch durch die hohe Bandbreite zustande gekommen sein.

Fetza
2008-06-24, 15:06:12
Wow...nun wirds evt. doch die HD 4870 und nicht die 4850. Echt krass!
Frage mich ob sich eine 1GB-Version überhaupt lohnt, wenn man davon ausgeht, dass man garantiert nicht über 16xx in den nächsten Jahren spielt. (Also auf mich bezogen).

Ehrlich gesagt halte ich die 1gb version für zuviel des guten, ati hat ihren chips ja manieren bezüglich des ramhungers beigebracht.:D Für mich gilt auch, das ich wohl kaum sehr hohe auflösungen fahren werde (röhre). Aber selbst in hohen auflösungen, scheint es keine probleme bei ati zu geben mit 512mb.

Odal
2008-06-24, 15:19:23
Ehrlich gesagt halte ich die 1gb version für zuviel des guten, ati hat ihren chips ja manieren bezüglich des ramhungers beigebracht.:D Für mich gilt auch, das ich wohl kaum sehr hohe auflösungen fahren werde (röhre). Aber selbst in hohen auflösungen, scheint es keine probleme bei ati zu geben mit 512mb.

klar kommt man bei ATI mit 512MB ram deutlich weiter als bei nvidia

aber immer nur die GPU leistung zu verdoppeln, in immer höheren auflösungen zu benchen und dabei die speichermenge als unwichtig abzutun, halte ich für falsch...

ich denke eine 1GB 4870 kann hier und da sicher nochmal zulegen...

ich wette so einigen GTX280 käufern tränen schon die augen wenn sie sehen wie wenig mehrleistung sie für soviel mehr preis bekommen haben...

gar nicht auszudenken falls ATI bei der X2 tatsächlich das microruckler problem angegangen ist...

da muß man dann schon ein willensstarker und extremer fanboy sein um weiterhin NV als das ultimative optimum hinstellen zu können

Banshee18
2008-06-24, 15:34:55
Lasst doch endlich mal diese verdammte Fanboy-Keule stecken. :mad:
Das hilft niemandem weiter und ist provozierend.

Dass das schnellste Produkt unverhältnismäßig teuer ist, ist normal. nV-Karten haben außerdem auch ihre Vorteile. Das ultimative Optimum gibt es nirgendwo.

Sternenkind
2008-06-24, 15:36:00
Welche?

Gast
2008-06-24, 15:40:32
Wird es auch 4870 Karten geben, die ab Werk mit so Quasi Silent Lösungen auskommen, wie die Arctic Cooling Accelero Modelle o.ä.?
Für das Thema sollte eigentlich ein eigener Thread aufgemacht werden:
Lautstärke-Unterschiede bei verschiedenen 4870-Versionen.

ShadowXX
2008-06-24, 15:41:05
Welche?
Wurde oft genug erwähnt (besseres AF, Supersampling, Hybridmodi usw).....ob das jetzt einem das (und der Geschwindigkeitsvorteil der 280GTX) der Mehrpreis wert ist, ist eine andere Sache.

DrumDub
2008-06-24, 15:42:36
Welche? crysis spielbar mit nen singlekarte bei 1280x1024 4xAA/16xAF (dx10/very high).

dargo
2008-06-24, 16:16:21
ATi ist zurück, oder nicht? :)

Ich würde sagen ja. Mich konnte die HD4870 zumindest umstimmen. So wie es aussieht wirds wohl doch die HD4870 und nicht die G260GTX bei mir werden. :)

Das Auge
2008-06-24, 16:22:23
Lt. dem Review sind die TDP Werte anscheinend etwas geschönt bzw. von AMD sehr niedrig und und von nv sehr hoch angesetzt (klick) (http://en.expreview.com/2008/06/24/first-review-hd-4870-and-hd-4850/5/).

Kann das ein Besitzer einer 4850 bestätigen?

Wenn mein NT reicht und der Preis stimmt, wird meine nächste Karte höchstwahrscheinlich mal wieder ne ati ;)

€: Allerdings nur, wenn es die Karte auch mit vormontiertem Alternativkühler gibt und der Preis immer noch stimmt. Wie siehts eigentlich bei der 260er mit der Lautstärke mit stock-cooler aus?

Gast
2008-06-24, 16:29:09
Lt. dem Review sind die TDP Werte anscheinend etwas geschönt bzw. von AMD sehr niedrig und und von nv sehr hoch angesetzt (klick) (http://en.expreview.com/2008/06/24/first-review-hd-4870-and-hd-4850/5/).

Kann das ein Besitzer einer 4850 bestätigen?

Wenn mein NT reicht und der Preis stimmt, wird meine nächste Karte höchstwahrscheinlich mal wieder ne ati ;)

€: Allerdings nur, wenn es die Karte auch mit vormontiertem Alternativkühler gibt und der Preis immer noch stimmt. Wie siehts eigentlich bei der 260er mit der Lautstärke mit stock-cooler aus?

Powerplay funktioniert erst mit Catalyst 8.7 richtig. Der Verbrauch wird noch nach unten gehen.

vinacis_vivids
2008-06-24, 16:30:46
Die Leistung der Karte ist der Hammer. Unglaublich :eek:

AnarchX
2008-06-24, 16:30:49
Powerplay funktioniert erst mit Catalyst 8.7 richtig. Der Verbrauch wird noch nach unten gehen.
Im Idle schon, aber wohl kaum unter 3D. Aber für brauchbare Werte sollte man doch auf Xbit-Labs warten.

Gast
2008-06-24, 16:36:00
4870 1024MB im August käuflich oder wird das wieder so ein Desaster wie bei der vorherigen Generation?

Eigentlich erträglich, es ist ja Sommer. Ob Refreshkarten kommen werden im Herbst?

Logan
2008-06-24, 16:39:53
:eek: @ 4870

Also ich wollte ja nicht soviel geld ausgeben, und die 4850 kaufen, aber wenn die 4870 auf 200-210€ fällt ist das ding gekauft, fast gtx280 niveau für unter 250€ einfach wahnsinn.

Gast
2008-06-24, 16:58:24
@DasAuge

HD3850 zwischen 140 - 145 Watt Idle / Vista 64bit und Fedora9 64bit
HD4850 zwischen 160 - 165 Watt Idle / "" - ""

System:
Phenom 9750 (95 Watt)
4x 1GB Ram
MSI K9A2 CF
2 Platten SATA
DVD SATA
X-FI Platinum
5in1 Cardreader
Aurora 500 Watt 80+ Netzteil
4x zusätzliche Lüfter

Gemessen mit ein Basetech Gerät. Bin mir aber nicht sicher ob die Werte auch stimmen, wenn man mal so vergleichbare System anschaut haben die alle weniger Verbrauch. Konnte bisher nicht rausfinden, was da ca. 30 Watt gegenüber anderen mehr verbraucht (mit der 3850 ehemals).

Schlammsau
2008-06-24, 17:03:38
Lt. dem Review sind die TDP Werte anscheinend etwas geschönt bzw. von AMD sehr niedrig und und von nv sehr hoch angesetzt (klick) (http://en.expreview.com/2008/06/24/first-review-hd-4870-and-hd-4850/5/).

Kann das ein Besitzer einer 4850 bestätigen?


Nein, ich habe mit meiner 4850 von Sapphire, exakt den gleichen Verbrauch unter Last, wie mit meiner "alten" 3870.
Einzig allein der Idle Verbrauch ist um 20 Watt höher mit der 4850, soll aber laut ATi ja mit dem nächsten Treiber behoben werden!

Marty98
2008-06-24, 17:17:17
Welche?

- SuperSampling, kein dauerhaftes Geflimmer im Bild
- TVOut Clone setzt den Desktop nach Spielen nicht auf 1024x768 wie bei ATI
- Transparenzeffekte auf dem Desktop werden beschleunigt wenn gleichzeitig eine 3D Anwendung im Fenster läuft

Gast
2008-06-24, 17:20:29
meint ihr n 400W NT reicht noch aus?
(momentan brauch mein pc mit ner x1950Pro) 250W unter Last
jetzt wäre nurnoch die frage wieviel leistung die 4780 unter last mehr verbraucht
für fachmännischen rat würde ich mich freuen :)

vinacis_vivids
2008-06-24, 17:23:33
meint ihr n 400W NT reicht noch aus?
(momentan brauch mein pc mit ner x1950Pro) 250W unter Last
jetzt wäre nurnoch die frage wieviel leistung die 4780 unter last mehr verbraucht
für fachmännischen rat würde ich mich freuen :)


Wenn das ein Qualitäts NT ist, wirds reichen.

Gast
2008-06-24, 17:26:50
- SuperSampling, kein dauerhaftes Geflimmer im Bild
- TVOut Clone setzt den Desktop nach Spielen nicht auf 1024x768 wie bei ATI
- Transparenzeffekte auf dem Desktop werden beschleunigt wenn gleichzeitig eine 3D Anwendung im Fenster läuft
Was hat es damit auf sich, kann mir das vllt. jemand freundlicherweise näher erläutern?

DrumDub
2008-06-24, 17:28:56
- TVOut Clone setzt den Desktop nach Spielen nicht auf 1024x768 wie bei ATI
häh? hab ich mit meinen atis (9700, x800xl) nie gehabt.

Das Auge
2008-06-24, 17:31:53
OK, das mit dem Verbrauch wird dann schon passen, denk ich mal. Bleibt eigentlich nur noch der grottige Referenzkühler zu kritisieren. Wirklich ein Ärgerniss, daß ati seit Jahren im High-End mMn kundenfeindliche Kühllösungen anbietet.

Nv ist da mit der GTX280 zwar auch nicht viel besser, aber bei der 260er sollte es schon erträglicher sein (wichtig ist mir v.a. idle-Ruhe, zocke zu 95% mit Kopfhörer). Jedenfalls kenne ich den Kühler der X850XT, X1900XTX und der 2900XT aus eigener Erfahrung und die wurden unter Last so laut, daß es mich selbst mit Kopfhörer stört, deutlich über der Schmerzgrenze. Leider scheint der Kühler der 4870 in die gleiche Kerbe zu schlagen.

Ich hoffe daher das es bald Hersteller mit guten Alternativkühlern gibt. Vorher kommt mir die Karte nicht in den Rechner und die Garantie will ich auch nur sehr ungern vergeigen. Zumal eine 4870 + High-End-Kühler (selbstmontiert) sicher auch nicht mehr billiger als eine GTX260 sein wird.

reunion
2008-06-24, 17:35:40
OK, das mit dem Verbrauch wird dann schon passen, denk ich mal. Bleibt eigentlich nur noch der grottige Referenzkühler zu kritisieren. Wirklich ein Ärgerniss, daß ati seit Jahren im High-End mMn kundenfeindliche Kühllösungen anbietet.

Nv ist da mit der GTX280 zwar auch nicht viel besser, aber bei der 260er sollte es schon erträglicher sein (wichtig ist mir v.a. idle-Ruhe, zocke zu 95% mit Kopfhörer). Jedenfalls kenne ich den Kühler der X850XT, X1900XTX und der 2900XT aus eigener Erfahrung und die wurden unter Last so laut, daß es mich selbst mit Kopfhörer stört, deutlich über der Schmerzgrenze. Leider scheint der Kühler der 4870 in die gleiche Kerbe zu schlagen.

Ich hoffe daher das es bald Hersteller mit guten Alternativkühlern gibt. Vorher kommt mir die Karte nicht in den Rechner und die Garantie will ich auch nur sehr ungern vergeigen. Zumal eine 4870 + High-End-Kühler (selbstmontiert) sicher auch nicht mehr billiger als eine GTX260 sein wird.

Und wie kommst du darauf? Der Lüfter der 4870 sollte so laut nicht sein, wenn man sich die Drehzahlen von EXP ansieht. Zumindest nicht mit einer 2900XT zu vergleichen.

Schlammsau
2008-06-24, 17:36:29
Was hat es damit auf sich, kann mir das vllt. jemand freundlicherweise näher erläutern?

totaler blödsinn, funzt genauso auf ATi Karten.
Marty98 würde ich in einem Atemzug mit Unyu und LoversuckZ nennen, lauter haltlose Behauptungen, basierend auf uraltem Treibern und Hardware!

Gast
2008-06-24, 17:40:46
OK, das mit dem Verbrauch wird dann schon passen, denk ich mal. Bleibt eigentlich nur noch der grottige Referenzkühler zu kritisieren. Wirklich ein Ärgerniss, daß ati seit Jahren im High-End mMn kundenfeindliche Kühllösungen anbietet.

Nv ist da mit der GTX280 zwar auch nicht viel besser, aber bei der 260er sollte es schon erträglicher sein (wichtig ist mir v.a. idle-Ruhe, zocke zu 95% mit Kopfhörer). Jedenfalls kenne ich den Kühler der X850XT, X1900XTX und der 2900XT aus eigener Erfahrung und die wurden unter Last so laut, daß es mich selbst mit Kopfhörer stört, deutlich über der Schmerzgrenze. Leider scheint der Kühler der 4870 in die gleiche Kerbe zu schlagen.

Ich hoffe daher das es bald Hersteller mit guten Alternativkühlern gibt. Vorher kommt mir die Karte nicht in den Rechner und die Garantie will ich auch nur sehr ungern vergeigen. Zumal eine 4870 + High-End-Kühler (selbstmontiert) sicher auch nicht mehr billiger als eine GTX260 sein wird.Wieso, die Accelero kostet doch nur 15 Ocken, und betreibt dass Ding vielleicht bei 50% der jetzt bekannten Temps. Ich finde nicht das es zu teuer bzw. dann zu heiß wird.

Könnte mir jetzt vielleicht jemand diesen Punk mit der Desktoptransparenz mal näher bringen, wäre wirklich nett:)

Gast
2008-06-24, 17:42:07
Hmm, scheint also unwichtig zu sein (danke erstmal fürdie Anwtwort Schlammsau)

Würd aber schon gerne wissen was er damit meint. (Die Vistatransparanz?)

horn 12
2008-06-24, 17:54:25
Wie laut soll dann der Lüfter denn sein von der 4870 gddr5, Leise unter IDLE aber LAUT und heiss unter Last?
Könnte heute meine HD4850 noch stornieren und mir dann die 4870-er holen, sollte ich wohl machen bei 25 bis gute 30% Mehrperformance.... Oder?

LovesuckZ
2008-06-24, 18:04:45
Sind die Verbrauchswerte real?

Das Auge
2008-06-24, 18:06:07
Und wie kommst du darauf? Der Lüfter der 4870 sollte so laut nicht sein, wenn man sich die Drehzahlen von EXP ansieht. Zumindest nicht mit einer 2900XT zu vergleichen.

Das steht im Review und ist dem Text zu entnehmen. Außerdem ist das dynamische hoch- und runterschalten des Lüfters unglaublich nervig. Da ist mir persönlich eine fixe Drehzahl für idle und eine für Last lieber (im Idealfall idlerpm=lastrpm, so wie bei meiner GT + S1).
Außerdem scheint ati da wieder haargenau den gleichen Kühler wie bei der 2900XT verwurstet zu haben, also von wegen "mit der 2900XT nicht zu vergleichen." Die Karte wird genauso scheißlaut sein (wenn nicht sogar lauter) wie die 2900XT.

Ein Lautstärke-Vergleich mit der GTX260 wär nicht schlecht. Wenn die beide versagen, wirds eben erstmal (bis es andere Kühllösungen gibt) keine von den beiden :tongue:

Und nein, ich will nicht schon wieder die Garantie aufs Spiel setzen und selber dran rumbasteln. Ich hab mir gesagt meine nächste Karte muß von Werk aus einen zufriedenstellenden Kühler haben und dabei bleibts auch. Ich hab die Schnauze davon voll jedesmal das Versagen der Hersteller selber zu fixen, dabei die Garantie zu verwirken und extra Geld für einen Kühler (+Lüfter, etc.) zu latzen.

The_Invisible
2008-06-24, 18:09:35
Die 933GFLOPs kann man eigentlich vergessen. In der Praxis zählt nämlich nur die MADD-Leistung. Dann sieht so aus:

240 x 2 x 1296 = 622 GFLOPS

D.h. die 4870 (1200 GFLOPS) ist doppelt so schnell, was sich auch im PS4.0 arithmetik Test niederschlägt und auch bei Physik- und GPGPU-Anwendungen zu sehen sein wird.

flops sind sowieso blödsinn, siehe 8800gt vs 3870. die effizienz hat auch noch ein wörtchen mitzureden.

mfg

Gast
2008-06-24, 18:09:38
Wie laut soll dann der Lüfter denn sein von der 4870 gddr5, Leise unter IDLE aber LAUT und heiss unter Last?
Könnte heute meine HD4850 noch stornieren und mir dann die 4870-er holen, sollte ich wohl machen bei 25 bis gute 30% Mehrperformance.... Oder?
Jedem natürlich selbst überlassen.
Ich hab mich jetzt trotz der Vorteile einer NV Karte für eine 4870 entschieden.
Der Unterschied ist einfach zu gewaltig als das ich diese einfach ignorieren könnte.
P/L technisch ist ATi derweil über jeden Zweifel erhaben.
Dennoch sollte man die Vor- und Nachteile nochmal genau überdenken, jeder für sich selbst.
Die AA-Hacks seitens NV sollte man nicht unbeachtet lassen, sofern man bisher was drauf gesetzt hat.
Ich werd zum ersten mal eine ATi Karte einbauen und hoffe das ich es nciht bereuen werde:)

MfG Jules@work

Eggcake
2008-06-24, 18:11:28
Da es bei der 4870 8x AA fast gratis gibt, sind mir mittlerweile die AA-Modi von nVidia egal. Klar, Supersampling und was weiss ich mag ganz toll sein, doch 8x AA reicht mir persönlich bei weitem aus.
Für mich gibts derzeit nix was mich an den nVidia-Karten ansprechen würde. Einzig der Kühler bei der ATI muss wohl runter...

tombman
2008-06-24, 18:17:51
normales 8xAA glättet aber nur Kanten, SSAA glättet einfach das gesamte Bild, egal welcher Inhalt ;)

Die neuen Karten haben bei den jetzt vorherrschenden Konsolenports sowieso genug fps, also stecke ich das lieber in SSAA ;)

Und jetzt mit 2x GTX280 ist erstmal Crysis @ VeryHigh+ 4xAA in hoher Auflösung spielbar geworden ;)

Gast
2008-06-24, 18:25:47
normales 8xAA glättet aber nur Kanten, SSAA glättet einfach das gesamte Bild, egal welcher Inhalt ;)

Die neuen Karten haben bei den jetzt vorherrschenden Konsolenports sowieso genug fps, also stecke ich das lieber in SSAA ;)

Und jetzt mit 2x GTX280 ist erstmal Crysis @ VeryHigh+ 4xAA in hoher Auflösung spielbar geworden ;)
Stimmt, SSAA wäre wirklich super, aber "was man nicht kennt, kann man auch nicht vermissen";)
Von daher nehm ichs locker und lass mich auch gern für 200-250 EUR weniger mit 8xAA abspeisen:) Ich denke ich werde mich damit gut anfreunden können.

WIe die 4870 unter Crysis VH ackert würde mich auch interessieren, jedoch nur aus reiner Neugier, das Spiel an sich hat mich leider kalt gelassen.

MfG Jules@work

Marty98
2008-06-24, 18:28:56
Was hat es damit auf sich, kann mir das vllt. jemand freundlicherweise näher erläutern?

Hab mal extra zwei Videos machen müssen, weil die Ati-Fanboys mir sofort Stress gemacht haben dass ich die Probleme nur erfinde (als ich um Hilfe bat). Hier ist das Video welches das 2D/3D Problem zeigt.

Getestet mit 9700, x600 und 3850 (3 verschiedene PCs), überall tratt das Problem auf und es wurde hier im Forum auch durch andere User bestätigt (abgesehen von den Fanboys die natürlich nie ein schlechtes Wort zu ATI bzw. NVidia sagen könnten).

Link (http://www.outertech2.com/test/wow.avi)

häh? hab ich mit meinen atis (9700, x800xl) nie gehabt.

Das Problem hatte ich mit der Radeon 3850 und war einer von drei Gründen wieso ich die Karte zurückgab:

"
Bildschirm 1 ist ein Dell TFT mit 1600x1200.

Bildschirm 2 ist TVOut mit 1024x768 + Autoscrolling.

Also exakt gleiches Verhalten wie bei Nvidia (passt soweit).

Das kleine Problem - man kann Kontrast/Helligkeit nur für beide gleichzeitig einstellen (geht bei der 6800GT separat).

Das grosse Problem entsteht sobald ich ein Spiel starte welches eine andere Auflösung als die Desktopauflösung, also 1600x1200 hat.

Nach dem Verlassen des Spiels ändert sich die Desktopauflösung auf die Spielauflösung, man muss manuell auf 1600x1200 umschalten."

reunion
2008-06-24, 18:30:16
Das steht im Review und ist dem Text zu entnehmen. Außerdem ist das dynamische hoch- und runterschalten des Lüfters unglaublich nervig. Da ist mir persönlich eine fixe Drehzahl für idle und eine für Last lieber (im Idealfall idlerpm=lastrpm, so wie bei meiner GT + S1).
Außerdem scheint ati da wieder haargenau den gleichen Kühler wie bei der 2900XT verwurstet zu haben, also von wegen "mit der 2900XT nicht zu vergleichen." Die Karte wird genauso scheißlaut sein (wenn nicht sogar lauter) wie die 2900XT.


Der Lüfter der 2900XT hatte 2A, der der 4870 exakt 1A, kann also bei 12V max. halb so schnell drehen. Und bevor es keine Messungen gibt kann man darüber ohnehin keine genauen Aussagen tätigen.

Gast
2008-06-24, 18:30:42
Hey, danke für den Link Marty:)

Das Auge
2008-06-24, 18:54:16
Der Lüfter der 2900XT hatte 2A, der der 4870 exakt 1A, kann also bei 12V max. halb so schnell drehen. Und bevor es keine Messungen gibt kann man darüber ohnehin keine genauen Aussagen tätigen.

Für 6500rpm bei 70% Lüfterdrehzahl (bei 97°C :rolleyes:)) scheint das eine Ampere ja zu reichen. Wo kann man denn die Daten des Lüfters einsehen?

HD-Ronny
2008-06-24, 19:05:04
Panik !! Alle Nvidia Karten sind schlecht geworden. Los, alles verkaufen.
Was geht ab hier, es hat ATI/AMD zum Glück mal geschafft aufzuschliessen, hurra. Aber das hat ATI auch nötig gehabt sonst wären sie tot und vom Markt verschwunden. Aber von High- end oder echter Mehrleistung keine Spur. Vom Preis/Leistungsverhältniss her spricht jedoch jetzt ALLES für ATI. Damit müssenn die Preise der Nvidias extrem ins rutschen kommen.

reunion
2008-06-24, 19:10:50
Für 6500rpm bei 70% Lüfterdrehzahl (bei 97°C :rolleyes:)) scheint das eine Ampere ja zu reichen. Wo kann man denn die Daten des Lüfters einsehen?

Tatsächlich (:eek:). Als ich das Review durchlas, waren die Werte noch nicht vorhanden. Aber irgend etwas kann da nicht stimmen IMO. Immerhin kann man die 4850 selbst mit einem Single-Slot-Kühler relativ leise kühlen. Da würde ich doch noch weitere Tests abwarten, vielleicht hatte das Exemplar von EXP keine guten Kontakt zum Kühler/Die. Die Daten vom Lüfter sind vom chinesischen Review und die der 2900XT konnte man ja auch oft genug bei diversen Reviews sehen.

Aber von High- end oder echter Mehrleistung keine Spur.

Wenn die 4870 kein High-End ist, dann ist die GTX280 auch kein High-End. Oder muss eine Karte für dich mindestens 500€ kosten damit sie High-End sein darf?

Das Auge
2008-06-24, 19:23:58
Tatsächlich (:eek:). Als ich das Review durchlas, waren die Werte noch nicht vorhanden. Aber irgend etwas kann da nicht stimmen IMO. Immerhin kann man die 4850 selbst mit einem Single-Slot-Kühler relativ leise kühlen. Da würde ich doch noch weitere Tests abwarten, vielleicht hatte das Exemplar von EXP keine guten Kontakt zum Kühler/Die. Die Daten vom Lüfter sind vom chinesischen Review und die der 2900XT konnte man ja auch oft genug bei diversen Reviews sehen.

Wenn man mal von der TDP der 2900XT & 4870 und gleichem Kühler ausgeht, wäre es nur logisch, daß die 4870er leiser sein _müsste_. Aber anscheinend ist sie das nicht und Temperaturen um die 100° sind nichts, was ich meiner Hardware zumuten möchte, auch wenn jetzt sicher wieder irgendein Schlaumeier sagt das sei nicht schädlich und bla.

Aber gut, mal weitere Reviews abwarten.

AnarchX
2008-06-24, 19:26:26
Kein Wunder das die Karte so eine Überraschung ist, da ATi diesmal wohl so dicht gehalten hat, dass mancher Partner heute noch nichtmal die finalen Specs kennt:
Main Features
# 480 stream processors ¡V More than enough horsepower to support the most demanding graphics applications.
# Texture Fill Rate 27 Billion texels per second .
http://www.jetway.com.tw/jw/vgacard_view.asp?productid=518&proname=X4870-EN-512V

;D

Gast
2008-06-24, 19:26:26
Panik !! Alle Nvidia Karten sind schlecht geworden. Los, alles verkaufen.
Was geht ab hier, es hat ATI/AMD zum Glück mal geschafft aufzuschliessen, hurra. Aber das hat ATI auch nötig gehabt sonst wären sie tot und vom Markt verschwunden. Aber von High- end oder echter Mehrleistung keine Spur. Vom Preis/Leistungsverhältniss her spricht jedoch jetzt ALLES für ATI. Damit müssenn die Preise der Nvidias extrem ins rutschen kommen.
was anderes behauptet ja auch niemand.
komisch wie sich einige sofort angegriffen fühlen.

Sorkalm
2008-06-24, 19:29:38
Kein Wunder das die Karte so eine Überraschung ist, da ATi diesmal wohl so dicht gehalten hat, dass mancher Partner heute noch nichtmal die finalen Specs kennt:

Sie werden nicht nur dicht gehalten haben, sondern tatsächlich Dokumente mit diesen 480 Streamprozessoren massenhaft in den Umlauf gebracht haben. So hartnäckig wie das Gerücht umging gab es da 100%ig ein Nest - und das sehe ich bei AMD. ;)

Aber das selbst ein Boardpartner zum Launch noch von diesen Spezifikationen schreibt ist nett. ;D

AnarchX
2008-06-24, 19:35:07
Du bist der noob! :biggrin: Das genaue Gegenteil ist der Fall!
Beweis: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/28/#abschnitt_performancerating_qualitaet

Besser informieren das nächste mal! :P

Die 280 ist doch kein Highend, die wird von ner GX2 doch fast immer geschlagen... lol was fürn noob

Dieser Ton ist nicht das, was hier erwünscht ist und der produktiven Diskussion dient. Also bitte etwas Mäßigung an den Tag legen.

Fetza
2008-06-24, 19:41:37
Panik !! Alle Nvidia Karten sind schlecht geworden. Los, alles verkaufen.
Was geht ab hier, es hat ATI/AMD zum Glück mal geschafft aufzuschliessen, hurra. Aber das hat ATI auch nötig gehabt sonst wären sie tot und vom Markt verschwunden. Aber von High- end oder echter Mehrleistung keine Spur. Vom Preis/Leistungsverhältniss her spricht jedoch jetzt ALLES für ATI. Damit müssenn die Preise der Nvidias extrem ins rutschen kommen.

Ja, ich merke wohl das du die bisherigen testergebnisse für den r770 überhaupt nicht verstanden hast.;)

ecodriver
2008-06-24, 19:51:39
Hab mal extra zwei Videos machen müssen, weil die Ati-Fanboys mir sofort Stress gemacht haben dass ich die Probleme nur erfinde (als ich um Hilfe bat). Hier ist das Video welches das 2D/3D Problem zeigt.

Getestet mit 9700, x600 und 3850 (3 verschiedene PCs), überall tratt das Problem auf und es wurde hier im Forum auch durch andere User bestätigt (abgesehen von den Fanboys die natürlich nie ein schlechtes Wort zu ATI bzw. NVidia sagen könnten).

Link (http://www.outertech2.com/test/wow.avi)



Das Problem hatte ich mit der Radeon 3850 und war einer von drei Gründen wieso ich die Karte zurückgab:

"
Bildschirm 1 ist ein Dell TFT mit 1600x1200.

Bildschirm 2 ist TVOut mit 1024x768 + Autoscrolling.

Also exakt gleiches Verhalten wie bei Nvidia (passt soweit).

Das kleine Problem - man kann Kontrast/Helligkeit nur für beide gleichzeitig einstellen (geht bei der 6800GT separat).

Das grosse Problem entsteht sobald ich ein Spiel starte welches eine andere Auflösung als die Desktopauflösung, also 1600x1200 hat.

Nach dem Verlassen des Spiels ändert sich die Desktopauflösung auf die Spielauflösung, man muss manuell auf 1600x1200 umschalten."

Hallo Martin,

du hättest etwas mehr Geduld aufbringen müssen.
Die Probleme mit der Auflösung hat sich bei mir mit dem Catalyst 8.6 erledigt.
Das mit der Helligkeit und Kontrast hatte ich mit älteren Treibern nicht probiert, funktioniert aber ebenfalls mit dem Catalyst 8.6.
Ist aber auch nicht verwunderlich wenn man in die Release Notes schaut sieht man das in diesem Bereich einige Fehler behoben worden sind.
Getestet unter Vista 64

Gruß ecodriver

Gast
2008-06-24, 19:53:34
UT3 = Kinderkacke, das rennt eh schon abartig schnell, auchmit 100€ Graka...


Ich frage mich auch, warum die Karte bei vantage extreme 25% hinter der 280er ist...

Kann es sein, daß ATI diesmal schlicht und ergreifend bei heutigen games gewinnen wollte?
Wie siehts aus, wenn die Last extrem wird?


kann ich dir sagen warum,es ist kein hinterher hinken sondern,vergleich mal mit den alten treibern da gabs noch für die 280gtx "nur"4100,was die reale performance viel eher andeutet.für mich ist das was später mit dem treiber und dann noch mit dem PhysX treiber kam nicht mehr relevant für den vantage benchmark.

AnarchX
2008-06-24, 21:09:04
kann ich dir sagen warum,es ist kein hinterher hinken sondern,vergleich mal mit den alten treibern da gabs noch für die 280gtx "nur"4100,was die reale performance viel eher andeutet.
Oder der Shadercompiler war noch nicht auf den verdoppelten LRF optimiert:
http://www.computerbase.de/bild/article/825/9/

Szudri
2008-06-24, 21:31:09
Hab mal extra zwei Videos machen müssen, weil die Ati-Fanboys mir sofort Stress gemacht haben dass ich die Probleme nur erfinde (als ich um Hilfe bat). Hier ist das Video welches das 2D/3D Problem zeigt.

Getestet mit 9700, x600 und 3850 (3 verschiedene PCs), überall tratt das Problem auf und es wurde hier im Forum auch durch andere User bestätigt (abgesehen von den Fanboys die natürlich nie ein schlechtes Wort zu ATI bzw. NVidia sagen könnten).

Link (http://www.outertech2.com/test/wow.avi)



Scheint ein Problem mit XP zu sein, Vista zeigt diese Auffälligkeit bei mir nicht. Benutz ne HD3870.

Nakai
2008-06-24, 22:27:56
Lol, das hätt ich nicht erwartet, dass der RV770 NV so derbe zusetzt.

Und Ail hat mal gemeint, wenn der RV770 gegen den GT200 gewinnt, dann kann NV einpacken. Nun dieser Fall ist was eingetreten, der RV770 ist knapp unter der GT200 und dafür deutlich billiger. Der RV770(X2) der Nächste-R300?


mfg Nakai

Gast
2008-06-24, 22:31:48
und nochmal eine frage:
wieviel leistungsunterschied ist zu erwarten wenn ich nur pcie 1.0 (p5bdeluxe) habe?
vernachlässigbar oder eher nicht?
vielen dank schonmal

LovesuckZ
2008-06-24, 22:35:31
Lol, das hätt ich nicht erwartet, dass der RV770 NV so derbe zusetzt.

Und Ail hat mal gemeint, wenn der RV770 gegen den GT200 gewinnt, dann kann NV einpacken. Nun dieser Fall ist was eingetreten, der RV770 ist knapp unter der GT200 und dafür deutlich billiger. Der RV770(X2) der Nächste-R300?


mfg Nakai

Auch der G92b ist leicht unter dem GT200. Und der rv770 ist bestimmt nicht der nächste r300 - oder war die GF4 auf dem selben Niveau? :|

Nakai
2008-06-24, 22:41:16
Auch der G92b ist leicht unter dem GT200. Und der rv770 ist bestimmt nicht der nächste r300 - oder war die GF4 auf dem selben Niveau? :|

Joa, natürlich. Der RV770 steht gar nicht zum GT200 in der Konkurrenz. Das wird der RV770X2 sein. Das hab ich auch mit ner Klammer angemerkt. Das gesamte GT200-Design war ja ganz gut gemeint, aber GPGPU-Zeug interessiert noch sehr wenig.

NV hätte zu 55nm gehen sollen und den Chip dementsprechend mit allen Einheiten aufstocken sollen. Der G92b hat es ja schön vorgemacht. 231mm² für einen G92. Wenn das Ding nun wieder 330mm² hätte, was 42% mehr Transistoren wären, also praktisch ne Verbreiterung um 50%, was 96 TMUs und 196 Shader sind. Das hätte völlig gereicht. Zusätzlich noch höhere Taktraten und ein paar Verbesserungen zu GPGPU-Zeug. Aber DP-fähige Shader waren wohl zuviel. Vll kanns GT200b richten.
(55nm scheint bei NV sehr effektiv zu sein)


mfg Nakai

puntarenas
2008-06-24, 22:44:10
und nochmal eine frage:
wieviel leistungsunterschied ist zu erwarten wenn ich nur pcie 1.0 (p5bdeluxe) habe?
vernachlässigbar oder eher nicht?

Kannst du bei einer einzelnen Karte sicher getrost vergessen, bei Crossfire könnte es wohl messbar und spürbar werden.

Eggcake
2008-06-24, 23:02:29
http://www.tomshardware.com/de/PCI-Express-GeForce-Radeon,testberichte-240030.html

Solange Ihre Grafiklösung Daten verarbeitet, die im lokalen Videospeicher abgelegt sind (Frame-Buffer), liefert sowohl eine vernünftige Mittelklasse-Radeon HD 3850 als auch eine Hammerkarte wie die GeForce 9800 GX2 nahezu höchste Leistung, selbst wenn PCI Express auf x8 oder x4 reduziert ist.

Schnitzl
2008-06-24, 23:03:49
um mal ein DX10 Game zu nehmen

http://www.expreview.com/img/topic/hd4800/bioshock.png


hm, kurze Zwischenfrage: seit wann ist die 3870 schneller als ne 8800GT?
Das hatte ich andersrum und mit mehr Abstand in Erinnerung...v.a. bei Bioshock.

P.S.: ist nicht das erstemal, dass ich diesen Eindruck habe, dass die ATI-Karten bei der Veröffentlichung nächsten Generation jene Karten "überholen", denen sie beim eigenen Launch noch unterlegen waren.

MfG

Eggcake
2008-06-24, 23:05:54
Besitze zwar auch "nur" ne Nvidiakarte und habe die genaue Leistungssteigerung nicht verfolgt, aber mit dem 8.4/8.5 soll es einen erheblichen Performancesprung in den meisten Games gegeben haben.

LovesuckZ
2008-06-24, 23:17:50
hm, kurze Zwischenfrage: seit wann ist die 3870 schneller als ne 8800GT?
Das hatte ich andersrum und mit mehr Abstand in Erinnerung...v.a. bei Bioshock.

P.S.: ist nicht das erstemal, dass ich diesen Eindruck habe, dass die ATI-Karten bei der Veröffentlichung nächsten Generation jene Karten "überholen", denen sie beim eigenen Launch noch unterlegen waren.

MfG

Schon immer, wenn man nicht mit AA testet.

Odal
2008-06-24, 23:23:39
NV hätte zu 55nm gehen sollen und den Chip dementsprechend mit allen Einheiten aufstocken sollen. Der G92b hat es ja schön vorgemacht. 231mm² für einen G92. Wenn das Ding nun wieder 330mm² hätte, was 42% mehr Transistoren wären, also praktisch ne Verbreiterung um 50%, was 96 TMUs und 196 Shader sind. Das hätte völlig gereicht. Zusätzlich noch höhere Taktraten und ein paar Verbesserungen zu GPGPU-Zeug. Aber DP-fähige Shader waren wohl zuviel. Vll kanns GT200b richten.
(55nm scheint bei NV sehr effektiv zu sein)


mfg Nakai
vom G200b erwarte ich, bis auf kostensenkung, nicht allzuviel....

das könnte sogar ähnlich der sache G80->G92 verlaufen und mit schmaleren speicherinterface (aber vielleicht gar DDR5? aber eher unwahrscheinlich) ausgestattet

hauptsächlich kostensenkung denn das hat nv bitter nötig um im preiskampf gut mitzumischen

Schnitzl
2008-06-24, 23:28:56
Schon immer, wenn man nicht mit AA testet.
Wäre mir neu, dass das am Anfang mit AA getestet wurde

Savay
2008-06-24, 23:32:13
geiles geschoss!! die bandbreite hat ja doch deutlich mehr auswirkungen als erwartet. °_° die UE3 legt ja ganz gewaltig zu im vergleich zur 4850er

was jetzt aber eindeutig überfällig ist sind bessere (midrange) mobile GPUs... :rolleyes:

ich hock nun schonwieder viel zu lang auf meiner hd2600 :frown:

Ferengie
2008-06-24, 23:46:41
Die Mehrleistung der doppelten Speicherbandbreite 64vs115GB/s 4850vs4870 (http://www.expreview.com/topic/2008-06-24/1214282167d9273_30.html) erschließt sich mir noch nicht, wenn die 4870 schon vorneweg knapp 20% mehr GPU Takt hat.

Savay
2008-06-25, 00:04:59
ja nur das streckenweise der rv770xt 30% und mehr ggü dem rv770pro zulegt...allein über den takt wird das schwer zu erklären sein da die skalierung eigentlich nie 1:1 ist bei reinen takterhöhungen. bei 20% mehr takt wären an sich 18-19% mehrleistung maximal zu erwarten.

ist natürlich je nach benchmark und anwendung unterschiedlich aber das es diese ausreißer nach oben gibt zeigt ja schon das der rv770 stellenweise wirklich voll an der bandbreite hängt. :|

Sorkalm
2008-06-25, 00:10:17
Fällt das NDA eigentlich 08:00 unserer Zeit (wie frühere AMD-NDAs) oder 15:00 Uhr?

//Edit:
The announcements on the RV770 will lift at 12.01am EST (05.01am BST/06.01am CET) on Wednesday 25 June, 2008.
OK, weder noch, aber zumindest in den Morgensstunden. ;)

AnarchX
2008-06-25, 06:43:18
Und los gehts:
http://anandtech.com/video/showdoc.aspx?i=3341
http://www.bjorn3d.com/read.php?cID=1301
http://www.hothardware.com/Articles/ATI%5FRadeon%5FHD%5F4850%5Fand%5F4870%5FRV770%5FHas%5FArrived/
http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=584&Itemid=31
http://www.hexus.net/content/item.php?item=13972

Computerbase konnte die HD4870 noch nicht testen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/

Gast
2008-06-25, 06:55:06
4850?
Kein 1920x1200?
Was soll den das sein?

Triskaine
2008-06-25, 06:58:15
Meine Fresse, den Anand-Test kann man momentan vergessen, scheinbar ist der Server überbelastet, kein durchkommen möglich. Aber trotzdem, ein HURRRA auf ATi !

Lard
2008-06-25, 07:07:39
Palit Radeon HD4870 512MB Graphics Card Review:
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/8162-palit-radeon-hd4870-512mb-graphics-card-review.html

AMD Radeon HD 4870 and HD 4850 Review - Mid-range GPU mix up
http://www.pcper.com/article.php?aid=581&type=expert&pid=1

horn 12
2008-06-25, 07:09:01
Was weiss man über den IDLE/ LAST Verbrauch nun und über den Lüfter zwecks der Laustärke?
Finde da nicht was Treffendes!

mapel110
2008-06-25, 07:11:00
347 Watt unter Volllast, dagegen GTX280 386 Watt. So tragisch ist das für die Geforce nun auch wieder nicht. Zumal der Idle-Verbrauch 39 Watt unter der Radeon liegt.
http://www.hothardware.com/Articles/ATI_Radeon_HD_4850_and_4870_RV770_Has_Arrived/?page=12

Oder hats ATI immernoch nicht gebacken bekommen nach einem Monat Stromsparfeatures im Treiber unterzubringen?!

seahawk
2008-06-25, 07:12:33
http://images.anandtech.com/graphs/atiradeonhd4870_062408145208/17130.png

Anand :

but in our testing we definitely saw this $300 part perform at the level of NVIDIA's $400 GT200 variant, the GTX 260. This fact clearly sets the 4870 in a performance class beyond its price.

Was für eine vernichtende Niederlage für NV. :D

AnarchX
2008-06-25, 07:14:26
Wenn man sich die aktuellen Verbrauchszahlen anschaut, würde ich die Karte real so schätzen:

HD 4850 - 90-100W
HD 4870 - 120-130W

horn 12
2008-06-25, 07:19:09
Danke, und der Lüfter im IDLE Leise und heiss, und unter Last LAUT und noch heisser,- da finde ich auch nichts passendes?
Muss heute die 4850 stornieren und die 4870 bestellen so wie es aussieht....

AnarchX
2008-06-25, 07:32:19
PCGH hat z.B. die Lautstärke gemessen:
http://www.pcgameshardware.de/aid,648637/RV770-Test_Radeon_HD_4800_im_Technik-Check/
http://www.pcgameshardware.de/aid,648699/Radeon_HD_4800_Der_grosse_PCGH-Benchmark-Test/

horn 12
2008-06-25, 07:35:44
Das NDA ist ja nun bereits gefallen und ab JETZT können die Karten ja wohl verkauft werden... Oder erst ab 15:00?

AnarchX
2008-06-25, 07:41:20
Das NDA ist ja nun bereits gefallen und ab JETZT können die Karten ja wohl verkauft werden... Oder erst ab 15:00?

Solltest wohl dich schonmal zu deinem Händler bewegen, denn die HD4870 ist ein knappes gut, so bekommt mancher Shop diesen Monat nur 30 Karten, obwohl man 300 wollte. ;)

reunion
2008-06-25, 08:02:19
Oder hats ATI immernoch nicht gebacken bekommen nach einem Monat Stromsparfeatures im Treiber unterzubringen?!

Das NDA lief heute offiziell aus. Die 4850 wurde nur wegen der großen Nachfrage um eine Wochen vorverlegt. Das Monat hast du dir wohl aus den Fingern gesaugt. Und das der Stromsparmodus nicht richtig funktioniert ist offensichtlich, sonst würde eine 4870 unter idle nicht 50W mehr Verbrauchen als eine 4850 bei gleichem Chip und gleichen 2D Taktraten.

Gast
2008-06-25, 08:05:52
Das NDA lief heute offiziell aus. Die 4850 wurde nur wegen der großen Nachfrage um eine Wochen vorverlegt. Das Monat hast du dir wohl aus den Fingern gesaugt.
Große Nachfrage? Du meinst große Verfügbarkeit. Ursprünglich war der Release halt früher geplant, sonst hätte man die Händler noch nicht beliefert. Nur wegen Treibergeschichten hat man den verschoben.

Mark3Dfx
2008-06-25, 08:11:13
Kurze Frage
4850 -> Singeslot Kühler
4870 -> werksseitig Dualslot?

86 Grad unter Last bei der 4850...dann doch lieber einen Dualslot Ziegel.

reunion
2008-06-25, 08:12:02
http://images.anandtech.com/graphs/atiradeonhd4870_062408145208/17130.png

Anand :



Was für eine vernichtende Niederlage für NV. :D

Mit Ausnahme von Oblivion schlägt man die GTX260 bei AnandTech in jedem Test, und das zT deutlich.

seahawk
2008-06-25, 08:14:41
Sage ich doch. GT260 ist überflüssig und sinnlos.

AnarchX
2008-06-25, 08:14:55
Mit Ausnahme von Oblivion schlägt man die GTX260 bei AnandTech in jedem Test, und das zT deutlich.

Kommt wohl ganz auf den Test an, wenn da mit PCGHs Oblivion Bench vergleicht, ist "schlagen" hier wohl noch untertrieben:
http://www.pcgameshardware.de/aid,648699/Radeon_HD_4800_Der_grosse_PCGH-Benchmark-Test/&page=10
:D

Sage ich doch. GT260 ist überflüssig und sinnlos.
Naja, wenn sie auf <=$299 fällt dann gäbe es durchaus noch ein paar Argumente für sie, aber sie wird wohl eh bald verschwinden:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6613166#post6613166

INDEX75
2008-06-25, 08:18:41
86 Grad unter Last bei der 4850...dann doch lieber einen Dualslot Ziegel.Das macht rein gar nichts. Meine 4850 bleibt, trotz knapp 85° unter Last, absolut stabil und dazu noch ruhig. Selbst OC bis 665/1070MHz kann sie problemlos mit dem kleinen Kühler wegstecken. Ein gut belüftetes Gehäuse sollte allerdings vorhanden sein.

Mit Ausnahme von Oblivion schlägt man die GTX260 bei AnandTech in jedem Test, und das zT deutlich.Ja, und wer hätte daran noch vor einigen Wochen geglaubt? :eek:

ATI ist ohne Zweifel zurück und belebt nun endlich wieder den entsprechenden Markt. So müsste es auch bei AMD sein/kommen. :rolleyes:

MfG
i75

reunion
2008-06-25, 08:22:46
Naja, wenn sie auf <=$299 fällt dann gäbe es durchaus noch ein paar Argumente für sie, aber sie wird wohl eh bald verschwinden:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6613166#post6613166

Will man jetzt ernsthaft den GT200 gegen den RV770 stellen? Na Mahlzeit.

seahawk
2008-06-25, 08:23:41
http://www.pcgameshardware.de/aid,648699/Radeon_HD_4800_Der_grosse_PCGH-Benchmark-Test/&menu=browser&image_id=844197&article_id=648699

Sie schlägt sogar die GTX280. :D

Ich mag das Fazit der PCGH :

"Die unverbindliche Preisempfehlung für die HD 4870 beträgt laut AMD 229 Euro - ein absolutes Schnäppchen. Die zum Start nicht gerade zahlreich ausgelieferten Exemplare werden voraussichtlich schnell ausverkauft sein. Wir sprechen hiermit eine klare Kaufempfehlung für beide Vertreter der HD-4800-Serie aus."

Ich freue mich auf die 4870.

Gast
2008-06-25, 08:25:36
geiles geschoss!! die bandbreite hat ja doch deutlich mehr auswirkungen als erwartet. °_° die UE3 legt ja ganz gewaltig zu im vergleich zur 4850er

was jetzt aber eindeutig überfällig ist sind bessere (midrange) mobile GPUs... :rolleyes:

ich hock nun schonwieder viel zu lang auf meiner hd2600 :frown:


Irgendwo in einem Interview hat ein ATi'ler die Aussage getätigt das die mobilen RV770 im Herbst kommen sollen. Link habe ich aber keinen mehr. Realistisch kannst du also zu Weihnachten mit den mobilen m48x0 rechnen.

Gast
2008-06-25, 08:29:43
http://www.heise.de/newsticker/Radeon-HD-4800-uebertrumpft-Konkurrenz-auf-allen-Gebieten--/meldung/109922

Bei meiner HD4850 gab es keinen Linuxtreiber auf der DVD. :(

XuXo
2008-06-25, 08:49:59
ich freue mich auf die tests der 1gig varianten.
denn jenseits der 1920ger auflösung (z.b. 2560x1600) geht scheinbar der speicher aus (je nach game).

würde mich freuen wenn die x2 den speicher als ganzes nutzen könnte und nicht die hälfte pro chip anwendet. gibt es dazu schon infos?


gruss

ps: gratulation an AMD für die 4800er ...

reunion
2008-06-25, 08:50:13
http://www.heise.de/newsticker/Radeon-HD-4800-uebertrumpft-Konkurrenz-auf-allen-Gebieten--/meldung/109922

Bei meiner HD4850 gab es keinen Linuxtreiber auf der DVD. :(

Auch nicht schlecht:

"GPU-Architekt Eric Demers beteuert aber, dass man sich ein ganzes Jahr Zeit genommen habe, um die Zahl der benötigten Transistoren zu verringern und die Effizienz des Designs zu steigern."

Sorkalm
2008-06-25, 08:58:09
"GPU-Architekt Eric Demers beteuert aber, dass man sich ein ganzes Jahr Zeit genommen habe, um die Zahl der benötigten Transistoren zu verringern und die Effizienz des Designs zu steigern."

Das steht auf Computerbase:

Auf der anderen Seite hat ATi vor allem Shader-ALUs sowie die GPR-Stacks (General Purpose Register) überarbeitet, sodass diese nun 40 Prozent weniger Platz als auf einem RV670 einnehmen. Zusätzlich fallen die ROPs kleiner aus und man konnte die Größe sämtlicher anderer Einheiten um fünf bis 20 Prozent verringern.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/3

Avalox/Gast
2008-06-25, 09:00:20
Auch nicht schlecht:

"GPU-Architekt Eric Demers beteuert aber, dass man sich ein ganzes Jahr Zeit genommen habe, um die Zahl der benötigten Transistoren zu verringern und die Effizienz des Designs zu steigern."


Der Heise Artikel liesst sich ausgezeichnet.

Ich bin ja fast vom Stuhl gefallen, als ich gelesen habe, dass die nVidia GTX 280 nur schwache 90GFLOPS bei doppelter Genauigkeit erreicht. Wie ist den diese schwache Vorstellung mit einer GPGPU zu vereinbaren?

devilsfun
2008-06-25, 09:00:20
dafür kostet er auch ne stange mehr

Gast
2008-06-25, 09:04:59
An den Testergebnissen der 4870 bei Computerbase kann irgendwas nicht stimmen. Sie stimmen mit den anderen nicht überein.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/33/#abschnitt_radeon_hd_4870_vorschau

devilsfun
2008-06-25, 09:11:36
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/8162-palit-radeon-hd4870-512mb-graphics-card-review.html

jener ist ganz gut

Skinner
2008-06-25, 09:14:01
Oder hats ATI immernoch nicht gebacken bekommen nach einem Monat Stromsparfeatures im Treiber unterzubringen?!

Der Treibt mit den Powerplay Features der 48xx Karten ist doch noch gar nicht Released worden.

Superheld
2008-06-25, 09:14:29
An den Testergebnissen der 4870 bei Computerbase kann irgendwas nicht stimmen. Sie stimmen mit den anderen nicht überein.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/33/#abschnitt_radeon_hd_4870_vorschau

CB kann man mittlerweile vergessen, Gothic, Bioschock immer noch kein AF eingeschaltet und versch. Treiber.....:(

MadManniMan
2008-06-25, 09:17:37
CB kann man mittlerweile vergessen, Gothic, Bioschock immer noch kein AF eingeschaltet und versch. Treiber.....:(

...außerdem ein künstliches Miesmachen der 3850 512 - denn eine einfach nur heruntergetaktete 3870 ist dank GDDR4 langsamer, als eine normale 3850.

Gast
2008-06-25, 09:21:28
http://www.pcgameshardware.de/screenshots/medium/2008/06/Crysis_1680_1050_4x.png

warum wurde hier auf Very High gebencht...unspielbar...ich verstehe es nicht
ich kann damit nichts anfangen.

SavageX
2008-06-25, 09:32:58
http://www.pcgameshardware.de/screenshots/medium/2008/06/Crysis_1680_1050_4x.png

warum wurde hier auf Very High gebencht...unspielbar...ich verstehe es nicht
ich kann damit nichts anfangen.

Warum ist hier die 4850 im Average schneller als eine 4870? Da vergucke ich mich doch, oder?

Sorkalm
2008-06-25, 09:37:56
Wer sich für Zahlen interessiert: Von einem RV770-Wafer kann man maximal 224 Dice gewinnen (bei perfektem Yield).

Gast
2008-06-25, 09:40:31
Warum ist hier die 4850 im Average schneller als eine 4870? Da vergucke ich mich doch, oder?

Ist mir auch aufgefallen. Die PCGames-Ergebnisse sind etwas merkwürdig. Auch ist die 4870 hier oft sogar viel langsamer als die GTX260.

MechWOLLIer@IE
2008-06-25, 09:41:52
An den Testergebnissen der 4870 bei Computerbase kann irgendwas nicht stimmen. Sie stimmen mit den anderen nicht überein.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/33/#abschnitt_radeon_hd_4870_vorschau

Was kann daran denn nicht stimmen?

Gast
2008-06-25, 09:43:37
...außerdem ein künstliches Miesmachen der 3850 512 - denn eine einfach nur heruntergetaktete 3870 ist dank GDDR4 langsamer, als eine normale 3850.
Aieiei, gut das dus sagst. Das stimmt schon länger nicht mehr. Wir verwenden seit einiger Zeit eine richtige HD 3850 512 MB.

MadManniMan
2008-06-25, 10:23:10
Aieiei, gut das dus sagst. Das stimmt schon länger nicht mehr. Wir verwenden seit einiger Zeit eine richtige HD 3850 512 MB.

Von Copy-Paste kriegt man Blasen an den Augen ... ich versteh das! Nu aber hurtig berichtigen, was falsch!

Wann kommt eigentlich ein Rebench der RV670er mit nem aktuellen Treiber? So verzerrt sich das Bild komplett unnötig.

dildo4u
2008-06-25, 10:32:25
Anand :


Was für eine vernichtende Niederlage für NV. :D
Der Anandtech Test ist ja auch sher informativ zumindest wenn man wissen will wie die neuen "High-End" Karten von ATI ohne AA laufen. :rolleyes:

Crysis No AA
Assassin's Creed NoAA
Bioshock No AA

No AA
http://s8.directupload.net/images/080625/z39sgpaa.png

4XAA

http://s7.directupload.net/images/080625/2tus3vix.png

No AA

http://s7.directupload.net/images/080625/c4nguz87.png

4XAA

http://s8.directupload.net/images/080625/pf6inok4.png


http://www.pcgameshardware.de/aid,648699/Test/Benchmark/Radeon_HD_4800_Der_grosse_PCGH-Benchmark-Test/&page=6

http://www.anandtech.com/video/showdoc.aspx?i=3341&p=13

Gast
2008-06-25, 10:36:32
Ich hab zwar ne Nvidiakarte aber du weisst schon das die Ati`s net mehr so einbrechen wie früher, ne? Gerade beim 8fachen AA. Ja, die Niederlage ist deutlich Sichtbar für NV.

Gast
2008-06-25, 10:37:47
Von Copy-Paste kriegt man Blasen an den Augen ... ich versteh das! Nu aber hurtig berichtigen, was falsch!

Wann kommt eigentlich ein Rebench der RV670er mit nem aktuellen Treiber? So verzerrt sich das Bild komplett unnötig.
Ist schon kirrigiert =) Trotzdem nochmal danke für den Hinweis.

Puh, das mit dem Treiber ist eine gute Frage. Auch wenn es vielleicht den Anschein macht, wird würden das mit dem Treiberwirwar in Ordnung so finden, stimmt das nicht. Gedanken darum mache ich mir schon länger, nur noch sehe ich da keine Lösung. Mal schauen, aber da wird sich sicherlich noch was ändern.

AnarchX
2008-06-25, 10:41:00
Der Grund weshalb man nur 32 TMUs bei der bilinearen Füllrate messen kann:
Fillrate

We've tested the RV770's fillrate with a number of apps, and always came up with numbers in the (19,20) GigaTexel interval...too low for a 10 TU/40 TA&TF part - should be near the 25 GigaTexel mark (625*40/1000). For all those of you who cried "FOUL!", relax for a bit - we actually went and asked ATi why we were getting this behavior and they explained that in spite of having 10 TUs on chip, there are only 32 bilinear interpolators, so the INT8 bilinear rate will be limited by that. Once you get filtering limited, with Anisotropic Filtering, or by filtering FP textures, the architecture should behave like a 10 TU part. We've verified this using FP texturing, because that has also allowed us to check the assumption that the RV770 does FP filtering at half-rate
http://www.rage3d.com/reviews/video/atirv770/architecture/index.php?p=5

Sobald AF zum Einsatz kommt wohl eher weniger problematisch.

Gast
2008-06-25, 10:46:08
Etwas durchwachsen teilweise, bei Anandtech im einzigen AF/AA Test liegt sie hinter der GTX260. Bei den anderen Webseiten sind die Treiberversionen mal wieder nicht immer bekannt.
Sehr Unterschiedlich teilweise was da rauskommt, in COD4 kakt sie richtig ab (bei PCGH), seltsam.

Warum sind eigentlich die min.FPS in Call of Juarez teilweise so im Keller?

DrumDub
2008-06-25, 10:48:27
Der Anandtech Test ist ja auch sher informativ zumindest wenn man wissen will wie die neuen "High-End" Karten von ATI ohne AA laufen. :rolleyes:

http://www.pcgameshardware.de/aid,648699/Test/Benchmark/Radeon_HD_4800_Der_grosse_PCGH-Benchmark-Test/&page=6

http://www.anandtech.com/video/showdoc.aspx?i=3341&p=13 na ja, crysis ist auf beiden karten in der auflösung mit aa unspielbar. bei den anderen beiden beispielen ist deine kritik am anandtech test berechtigt.

AffenJack
2008-06-25, 10:48:31
die leistung war ja vorher schon so zu erwarten, was mich aber bei den ganzen reviews stört ist die leistungsaufnahme, mal fast gtx280 niveau, dann wieder ganz klar drunter, bei jedem test total anders.
Muss man mal wieder auf xbitlabs warten

Gast
2008-06-25, 10:48:52
Der Anandtech Test ist ja auch sher informativ zumindest wenn man wissen will wie die neuen "High-End" Karten von ATI ohne AA laufen. :rolleyes:

Crysis No AA
Assassin's Creed NoAA
Bioshock No AA

No AA
http://s8.directupload.net/images/080625/z39sgpaa.png

4XAA

http://s7.directupload.net/images/080625/2tus3vix.png

No AA

http://s7.directupload.net/images/080625/c4nguz87.png

4XAA

http://s8.directupload.net/images/080625/pf6inok4.png


http://www.pcgameshardware.de/aid,648699/Test/Benchmark/Radeon_HD_4800_Der_grosse_PCGH-Benchmark-Test/&page=6

http://www.anandtech.com/video/showdoc.aspx?i=3341&p=13


Treiber ist wohl noch unausgegorren, in Race Driver Grid ist die 4870 langsamer als HD4850, wenn PCGH da nicht die Bezeichnungen vertauscht hat. Bei 8xAA müsste sie doch um einiges weiter vorne sein, ist ja auch ein aktuelles Spiel.

reunion
2008-06-25, 10:53:10
Der Anandtech Test ist ja auch sher informativ zumindest wenn man wissen will wie die neuen "High-End" Karten von ATI ohne AA laufen. :rolleyes:

Crysis No AA
Assassin's Creed NoAA
Bioshock No AA

No AA
http://s8.directupload.net/images/080625/z39sgpaa.png

4XAA

http://s7.directupload.net/images/080625/2tus3vix.png

No AA

http://s7.directupload.net/images/080625/c4nguz87.png

4XAA

http://s8.directupload.net/images/080625/pf6inok4.png


http://www.pcgameshardware.de/aid,648699/Test/Benchmark/Radeon_HD_4800_Der_grosse_PCGH-Benchmark-Test/&page=6

http://www.anandtech.com/video/showdoc.aspx?i=3341&p=13


Ja toll, du stellst wieder mal zwei völlig unterschiedliche Szenarien gegenüber. Vergleichbarkeit = null.

Der Grund weshalb man nur 32 TMUs bei der bilinearen Füllrate messen kann:

http://www.rage3d.com/reviews/video/atirv770/architecture/index.php?p=5

Sobald AF zum Einsatz kommt wohl eher weniger problematisch.

Auch interessant das man die FP16-TMUs rausgeschmissen hat.

/Edit: Okay es sind wohl doch noch FP16-TMUs.

DrumDub
2008-06-25, 11:10:58
Ja toll, du stellst wieder mal zwei völlig unterschiedliche Szenarien gegenüber. Vergleichbarkeit = null. das stimmt schon. trotzdem ist es merkwürdig, dass anadtech die drei spiele ohne aa testet, obwohl es in den drei spielen möglich ist. bei assasins creed mit aa würde aber die 4870 wohl vor der gtx 280 liegen, wenn man sich die benches der 4850 mit aa hier ansieht: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/19/#abschnitt_assassins_creed

der test von crysis mit 4xfsaa ist bei der pcgh ziemliech sinnlos, denn keine der karten produziert spielbare fps.

ShadowXX
2008-06-25, 11:13:06
Ja toll, du stellst wieder mal zwei völlig unterschiedliche Szenarien gegenüber. Vergleichbarkeit = null.

Das ist für das was er zeigen wollte doch völlig egal.

Er wollte nur zeigen, das die ATIs bei diesen Games (bzw. bei der UE3-Engine) mit AA wesentlich stärker als die nVs einbrechen und deshalb im Prinzip jeder Test bei denen UE3-Games ohne AA gebenchmarkt wird eine Verfälschung zugunsten ATI eintritt.

Sowas sollte durchaus erwähnt werden.


Ich hab zwar ne Nvidiakarte aber du weisst schon das die Ati`s net mehr so einbrechen wie früher, ne? Gerade beim 8fachen AA. Ja, die Niederlage ist deutlich Sichtbar für NV.

Was aber eben nicht bei Games mit UE3-Engine gilt....da brechen die ATIs immer noch überproportional stärker als die nVs ein.


Und es ist ja nicht so, das es weniger Games gibt die diese Engine benutzen und es werden auch noch wesentlich mehr werden....

das stimmt schon. trotzdem ist es merkwürdig, dass anadtech die drei spiele ohne aa testet, obwohl es in den drei spielen möglich ist. bei assasins creed mit aa würde aber die 4870 wohl vor der gtx 280 liegen, wenn man sich die benches der 4850 mit aa hier ansieht: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/19/#abschnitt_assassins_creed

Wenn ich jetzt verschwörungstheorien aufstellen würde, würde ich sagen das Sie nur deshalb Assasins Creed ohne AA getestet haben weil Sie (bzw. der Benchmarker) dachten das das auch auf der UE3 basiert, der "look" ist ja ähnlich.

der test von crysis mit 4xfsaa ist bei der pcgh ziemliech sinnlos, denn keine der karten produziert spielbare fps.
Aus Benchmarksicht ist kein Bench unsinnig, es soll ja auch gezeigt werden was nun trotz allen neuen power trotzdem nicht geht.

Avalox/Gast
2008-06-25, 11:17:57
der test von crysis mit 4xfsaa ist bei der pcgh ziemliech sinnlos, denn keine der karten produziert spielbare fps.

So schlecht finde ich solche Tests gar nicht, weil diese doch wenigstens ein breites Vergleichen erlauben.

Die HD4870 ist ja nun bei weiten nicht die Spitzenkonfiguration und keinesfalls eine im HighEnd plazierte Karte. Diese wird ja erst mit der X2 Variante erscheinen. Zudem Crossfire mit 4 x HD4870X2 Karten ja sicherlich die Enthusiasten Spitzenkonfiguration nach momentan Stand ausmachen wird.

Würde man nicht so seicht anfangen, gäbe es später dann wieder Tests mit 100+ FPS ohne jeglichen praktischen Wert. Es sollte schon beides getestet werden.

dildo4u
2008-06-25, 11:22:07
Viele der Testseiten testen ohne AA und ziehen damit ein Fazit zugunsten der 4870 und gegen die GTX260.Echt traurig sowas in einem "HighEnd" Karten Test Mitte 2008 zu sehen.

Auch hier Crysis und UT3 nur No AA getestet.

http://www.hothardware.com/Articles/ATI_Radeon_HD_4850_and_4870_RV770_Has_Arrived/?page=8

Odal
2008-06-25, 11:24:09
Ja, und wer hätte daran noch vor einigen Wochen geglaubt? :eek:

ATI ist ohne Zweifel zurück und belebt nun endlich wieder den entsprechenden Markt. So müsste es auch bei AMD sein/kommen. :rolleyes:

MfG
i75

also ich hab daran geglaubt das ATI da eine rakete in der mache hat....der RV670 war halt, als ausgebesserter R600, der grundstein...und mit den richtigen verbesserungen (besonders mehr füllrate) zu hochleistungen pushbar...
ich wette der RV770 hängt immer noch an der füllrate....

und mit ein paar mehr tmu hätte man die GTX280 locker kontinuierlich geknackt

Auch nicht schlecht:

"GPU-Architekt Eric Demers beteuert aber, dass man sich ein ganzes Jahr Zeit genommen habe, um die Zahl der benötigten Transistoren zu verringern und die Effizienz des Designs zu steigern."

ja ich wollte ja auch immer nicht glauben was ailures uns da unterjubeln wollte...das ATI sich auf dem (durchaus gelungenen aber nicht perfekten) RV670 ausruht und an dem soliden grunddesign nicht ein wenig feilt

Warum kommen jetzt auf einmal alle mit ssaa nur weil Ati jetzt ne gute Karte gezaubert hat?Ist das euer neues super duper argument?;D

weil das ein sehr gutes argument ist....

ich weiß nicht wie der G200b wird...aber wenn er preislich mit einer RV770 ungefähr konkuriert (als GTX270) und noch durchaus taktpotential in sich birgt....würde ich sogar ein paar euro nur für SSAA aufpreis zahlen...aber sicher keine hunderte.....


Der Anandtech Test ist ja auch sher informativ zumindest wenn man wissen will wie die neuen "High-End" Karten von ATI ohne AA laufen. :rolleyes:

http://www.pcgameshardware.de/aid,648699/Test/Benchmark/Radeon_HD_4800_Der_grosse_PCGH-Benchmark-Test/&page=6

http://www.anandtech.com/video/showdoc.aspx?i=3341&p=13

das solltest du doch selbst sehen wo da das "problem" liegt.....eindeutig vram verbrauch

teste mal ne 4870 mit 1GB und nicht mit 512MB und die versägt da die GTX260 und kommt evtl. sogar an die GTX280 ran

Superheld
2008-06-25, 11:30:34
AMDs Radeon 4850 und 4870

http://www.golem.de/0806/60606.html

hab mal Crysis rausgepickt
http://www.abload.de/img/1o9gaw.jpg (http://www.abload.de/image.php?img=1o9gaw.jpg)

DrumDub
2008-06-25, 11:31:28
Aus Benchmarksicht ist kein Bench unsinnig, es soll ja auch gezeigt werden was nun trotz allen neuen power trotzdem nicht geht. es ist unsinnig, wenn keine benches mit spielbaren fps vorhanden sind.

Ronin2k
2008-06-25, 11:33:14
genauso wie du alles zugunsten nvidia postest und redest ;) jeder weiß doch das die ati mit AA net so stark einbrechen wie die nvidia :) (in der neuen aufstellung) also kann man sich den rest wohl ausmalen :) zumindest kostet 4xAA kaum leistung und 8xAA sowieso viel besser auf ati performt :)

ps. weiß einer wo man eine 4870 bestellen kann sollte natürlich lieferbar sein =)


Viele der Testseiten testen ohne AA und ziehen damit ein Fazit zugunsten der 4870 und gegen die GTX260.Echt traurig sowas in einem "HighEnd" Karten Test Mitte 2008 zu sehen.

Auch hier Crysis und UT3 nur No AA getestet.

http://www.hothardware.com/Articles/ATI_Radeon_HD_4850_and_4870_RV770_Has_Arrived/?page=8

dildo4u
2008-06-25, 11:35:38
genauso wie du alles zugunsten nvidia postest und redest ;) jeder weiß doch das die ati mit AA net so stark einbrechen wie die nvidia :) (in der neuen aufstellung) also kann man sich den rest wohl ausmalen :) zumindest kostet 4xAA kaum leistung und 8xAA sowieso viel besser auf ati performt :)
Bei der UE 3.0 Engine also z.B bei UT3 und Bioshock brechen die ATIs mher ein mit AA.Und zwar so das die 4870 mit 4XAA hinter der GTX260 liegt und ohne davor.Und wenn man dann mit No AA Benches ein Fazit zieht kommt man in diesem Fall zum falschen Schluss.

CB hat die 4870 bei UT3 mit 4XAA auch nur auf 9800GTX+ Level.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/33/#abschnitt_radeon_hd_4870_vorschau

ShadowXX
2008-06-25, 11:35:52
genauso wie du alles zugunsten nvidia postest und redest ;) jeder weiß doch das die ati mit AA net so stark einbrechen wie die nvidia :) (in der neuen aufstellung) also kann man sich den rest wohl ausmalen :) zumindest kostet 4xAA kaum leistung und 8xAA sowieso viel besser auf ati performt :)
Aha...dann hier mal ein Gegenbeispiel von Golem, die TU3 mal als Abwechselung mit 4xMSAA und 8xAF gebencht heben:
http://www.golem.de/0806/60606-ut3_torlan_fly.png
Es ist (logischerweise) ein UE3 Spiel und plötzlich ist die 4870 nur leicht über 9800GTX+ Level, aber definitiv weit unter 260GTX Level.

Keiner sagt das die ATIs schlecht sind, Sie sind sogar sehr gut....aber auch Sie haben Ihre Schwächen und eine davon heißt definitiv AA unter UE3-Games.

Nebenbei:
Ich finde sehr interessant das die 4870 bei den beiden großen deutschen Testsites im durchschnitt schlechter abschneindet als auf den UK, US & Co Seiten.....


Wenig gebenchte Games scheinen der 4870 auch nicht so zu liegen. Bei Trackmania United ist die 4870 langsamer als eine 9800GTX +:
http://www.golem.de/0806/60606-trackmania.png

reunion
2008-06-25, 11:41:06
Es ist (logischerweise) ein UE3 Spiel und plötzlich ist die 4870 nur leicht über 9800GTX+ Level, aber definitiv weit unter 260GTX Level.


In der hohen Auflösung liegt man satte 20% vor der GTX+. Das ist ungefähr der Vorsprung einer 260GTX. Nebenbei ist ein Flyby ohnehin unintressant.

Keiner sagt das die ATIs schlecht sind, Sie sind sogar sehr gut....aber auch Sie haben Ihre Schwächen und eine davon heißt definitiv AA unter UE3-Games.

Reine Treiberangelegenheit.


Nebenbei:
Ich finde sehr interessant das die 4870 bei den beiden großen deutschen Testsites im durchschnitt schlechter abschneindet als auf den UK, US & Co Seiten.....

Inwiefern ist das interessant? Hm? Noch mehr Verschwörungstheorien auf lager?

Chris2CB
2008-06-25, 11:43:36
Viele der Testseiten testen ohne AA und ziehen damit ein Fazit zugunsten der 4870 und gegen die GTX260.Echt traurig sowas in einem "HighEnd" Karten Test Mitte 2008 zu sehen.

Auch hier Crysis und UT3 nur No AA getestet.

http://www.hothardware.com/Articles/ATI_Radeon_HD_4850_and_4870_RV770_Has_Arrived/?page=8


Was da ein wenig stört ist das dort steht ohne AA UND AF, bei UT habe ich selbst das Problem wenn ich alles auf max. Stelle das Spiel auch automatisch 16xaf einstellt und man das eigentlich nur bei ini. oder mittlerweile nem tweaker abstellen kann.


Das jetzt einige Seiten ATI bevorzugen und ohne Kantenglättung benchen und einige NV, das gibts doch schon lange, man muss halt selbst schauen und am besten gleich mal min. verschiedene benchs anschauen.

ShadowXX
2008-06-25, 11:46:09
Reine Treiberangelegenheit.

Klar....deshalb haben Sie es seit der 38x0-Serie noch nicht geschafft diese Manko zu beseitigen....

Sorry...das sieht für mich mehr nach einen Architekturproblem aus.
Ist ja auch nicht weiter schlimm, in allen anderen Games sind die ATIs ja wesentlich schneller mit MSAA als die nVs.

Inwiefern ist das interessant? Hm? Noch mehr Verschwörungstheorien auf lager?
Es ist einfach interessant, das die deutschen Mags die 4870 nicht so weit vorne sehen wie die anderen Seiten.
Woran das liegt muss noch geklärt werden....es ist einfach interessant.

reunion
2008-06-25, 11:47:52
Interessant wird vorallem sein wie sich R700 dank des neuen Interconnectors verhält, der ja bei normalen CF mit zwei Platinen definitiv nicht zum Einsatz kommt.

Klar....deshalb haben Sie es seit der 38x0-Serie noch nicht geschafft diese Manko zu beseitigen....

Sorry...das sieht für mich mehr nach einen Architekturproblem aus.
Ist ja auch nicht weiter schlimm, in allen anderen Games sind die ATIs ja wesentlich schneller mit MSAA als die nVs.


Du musst es ja wissen. Wo liegt denn genau das Problem der Architektur mit dem Hack?

Mr. Lolman
2008-06-25, 11:51:34
http://www.hardware.fr/articles/725-22/dossier-amd-radeon-hd-4870-4850.html

Exxtreme
2008-06-25, 11:52:44
Klar....deshalb haben Sie es seit der 38x0-Serie noch nicht geschafft diese Manko zu beseitigen....

Sorry...das sieht für mich mehr nach einen Architekturproblem aus.
Ist ja auch nicht weiter schlimm, in allen anderen Games sind die ATIs ja wesentlich schneller mit MSAA als die nVs.

So wie ich das mit dem AA verstanden habe, ist das bei UT3 ein Hack, welcher gegen bestimmte Normen verstösst. Eigentlich darfst du dich bei Epic bedanken. =)

Und daß Treiber-Hacks nicht die höchste Priorität haben wenn die normalen Dinge noch Problemchen machen, das kann ich gut nachvollziehen.

Mr. Lolman
2008-06-25, 11:54:47
So wie ich das mit dem AA verstanden habe, ist das bei UT3 ein Hack, welcher gegen bestimmte Normen verstösst. Eigentlich darfst du dich bei Epic bedanken. =)

Und daß Treiber-Hacks nicht die höchste Priorität haben wenn die normalen Dinge noch Problemchen machen, das kann ich gut nachvollziehen.


Wobei auch bei UE3 Spielen die AA-Performance jetzt nicht generell schlecht ist: http://www.hardware.fr/articles/725-15/dossier-amd-radeon-hd-4870-4850.html

AnarchX
2008-06-25, 11:55:25
http://www.hardware.fr/articles/725-22/dossier-amd-radeon-hd-4870-4850.html
Das unbereinigte für ATi etwa weniger positive Rating hättest du auch noch verlinken können. ;)

@UT3-AA-Performance: Imo spielen unter 4xAA die GeForce doch noch ihre höhere Z-Fill aus, immerhin dürfte der Defferred-Renderer wohl einiges an Z-Fill verschlingen.

Mr. Lolman
2008-06-25, 11:57:19
Das unbereinigte für ATi etwa weniger positive Rating hättest du auch noch verlinken können. ;)


Du meinst das Rating ohne AA? Das interessiert ja niemanden ;)

Kriton
2008-06-25, 11:58:11
Hier ist auch noch mal ein Benchmark mit zusätzlich 4870 Crossfire (die anderen getesteten Karten sind teilweise übertaktet, zB. die GT260):

http://www.tweaktown.com/reviews/1481/sapphire_radeon_hd_4870_in_crossfire/index.html

AnarchX
2008-06-25, 11:58:47
Du meinst das Rating ohne AA? Das interessiert ja niemanden ;)
Oha, ich dachte da hätte man mal wieder die Wert herausgelassen, die nicht so ins Bild passten, wie bei Expreview. Aber dann ist es natürlich vertrettbar.

Gast
2008-06-25, 11:59:44
http://www.hardware.fr/articles/725-22/dossier-amd-radeon-hd-4870-4850.html

Toll, ohne AF ^^

Vergleich mal hier: http://www.pcgameshardware.de/aid,648699/&page=8

ShadowXX
2008-06-25, 11:59:50
Das größte Problem der 4870 sehe ich im Moment sowieso in der Verfügbarkeit.
So wie es aussieht (ich hab ein bisschen rumtelefoniert) gibt es Karten ziemlich definitiv erst ab ca. dem 8 Juli und dann auch nur in extrem geringer Stückzahl.

Es könnte also sein, das die Karte die dann verfügbar sein werden extrem überteuert angeboten werden.

Fetza
2008-06-25, 12:02:09
Bei der UE 3.0 Engine also z.B bei UT3 und Bioshock brechen die ATIs mher ein mit AA.Und zwar so das die 4870 mit 4XAA hinter der GTX260 liegt und ohne davor.Und wenn man dann mit No AA Benches ein Fazit zieht kommt man in diesem Fall zum falschen Schluss.

CB hat die 4870 bei UT3 mit 4XAA auch nur auf 9800GTX+ Level.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/33/#abschnitt_radeon_hd_4870_vorschau

Mich würden da mal benches interessieren, mit 8xaa statt 4xaa.

Aus dem pcgh-test:

"Einzig FP16-Texturen, welche beispielsweise bei HDR-Rendering häufig als Bildzwischenspeicher zum Einsatz kommen, können aufgrund schmaler ausgelegter Datenpfade nicht mehr in einem Takt gefiltert werden. Diese Entscheidung sei bewusst aufgrund der zur Verfügung stehenden Speicherbandbreite getroffen worden, so AMD-Fellow Eric Demers, einer der Verantwortlichen für die RV7x0-Familie."

Wie darf ich das verstehen, kompensiert der r770 diesen verlust mit der hohen speicherbandbreite (hd4870) ausgleichen, oder heißt das eventuell doch probleme bei hdr spielen? Oblivion rockt ja auf r770 mit hdr.

ShadowXX
2008-06-25, 12:07:25
Mich würden da mal benches interessieren, mit 8xaa statt 4xaa.

Meistens ist die 4870 mit 8xMSAA sehr stark (was aber nicht verwunderlich ist), aber es gibt auch Gegenbeispiele:
http://www.pcgameshardware.de/aid,648699/&menu=browser&entity_id=215588&image_id=844148&article_id=648699&mode=article&overview=yes&page=2&show=original
http://www.pcgameshardware.de/aid,648699/&menu=browser&entity_id=215588&image_id=844150&article_id=648699&mode=article&overview=yes&page=2&show=original

und auch GRID + 8xMSAA scheint Ihr nicht zu liegen:

http://www.pcgameshardware.de/aid,648699/&menu=browser&entity_id=215588&image_id=844176&article_id=648699&mode=article&overview=yes&page=2&show=original
Und ja, es liegt am 8xMSAA, den bei 4xMSAA liegt Sie noch vor der 260GTX.

Mr. Lolman
2008-06-25, 12:12:05
Toll, ohne AF ^^

Vergleich mal hier: http://www.pcgameshardware.de/aid,648699/&page=8

Nee. Mit AF! Lies dir einfach die Beschreibungen zu den einzelnen Spieletests durch.

Odal
2008-06-25, 12:12:37
bis vor kurzem spekulierten wir noch ob und wie ein 4870 crossfire die GTX280 schlägt und jetzt kommt schon eine 4870 gewaltig nahe

und wenn man sich das mal so visuell verinnerlicht

http://images.anandtech.com/reviews/video/ATI/4800/rv770vsgtxvspenryn.png

ist das schon erstaunlich was ATI da aus dem hut gezaubert hat....

extrem spannend wirds dann mit der X2....wenn das mikroruckler-problem angegangen wurde...und die shared memory nutzen können.....versägt das ding so dermaßen die GTX280 das nv erstmal ne ganze weile braucht um sich davon zu erholen

Mr. Lolman
2008-06-25, 12:13:45
und auch GRID + 8xMSAA scheint Ihr nicht zu liegen:

http://www.pcgameshardware.de/aid,648699/&menu=browser&entity_id=215588&image_id=844176&article_id=648699&mode=article&overview=yes&page=2&show=original
Und ja, es liegt am 8xMSAA, den bei 4xMSAA liegt Sie noch vor der 260GTX.

Interessanterweise ist sie bei Grid mit 4xAA aber absolut überlegen:
http://www.hardware.fr/articles/725-17/dossier-amd-radeon-hd-4870-4850.html

reunion
2008-06-25, 12:15:06
Meistens ist die 4870 mit 8xMSAA sehr stark (was aber nicht verwunderlich ist), aber es gibt auch Gegenbeispiele:
http://www.pcgameshardware.de/aid,648699/&menu=browser&entity_id=215588&image_id=844148&article_id=648699&mode=article&overview=yes&page=2&show=original
http://www.pcgameshardware.de/aid,648699/&menu=browser&entity_id=215588&image_id=844150&article_id=648699&mode=article&overview=yes&page=2&show=original

und auch GRID + 8xMSAA scheint Ihr nicht zu liegen:

http://www.pcgameshardware.de/aid,648699/&menu=browser&entity_id=215588&image_id=844176&article_id=648699&mode=article&overview=yes&page=2&show=original
Und ja, es liegt am 8xMSAA, den bei 4xMSAA liegt Sie noch vor der 260GTX.

Interessant wäre hier eine 1Gb Version.

DerKleineCrisu
2008-06-25, 12:21:48
Naja ist zwar alles Schön und gut nur Fangen wieder beide Hersteller an sich
keine Gedanken über den Stomverbrauch zu machen.

Aber Egal scheißen wir darauf, der Strom wird ja wie manche hier meinen auch immer billiger.

Sorry aber beide Karten gefallen mir in diesem Punkt überhaupt nicht. Ich dachte das beide Hersteller entlich in die Richtige Rechnung wieder gehen und nun dieser Gewaltige Rückschritt in Richtung X29XX serie.

Grüße

Grisu

Fetza
2008-06-25, 12:24:47
Meistens ist die 4870 mit 8xMSAA sehr stark (was aber nicht verwunderlich ist), aber es gibt auch Gegenbeispiele:
http://www.pcgameshardware.de/aid,648699/&menu=browser&entity_id=215588&image_id=844148&article_id=648699&mode=article&overview=yes&page=2&show=original
http://www.pcgameshardware.de/aid,648699/&menu=browser&entity_id=215588&image_id=844150&article_id=648699&mode=article&overview=yes&page=2&show=original

und auch GRID + 8xMSAA scheint Ihr nicht zu liegen:

http://www.pcgameshardware.de/aid,648699/&menu=browser&entity_id=215588&image_id=844176&article_id=648699&mode=article&overview=yes&page=2&show=original
Und ja, es liegt am 8xMSAA, den bei 4xMSAA liegt Sie noch vor der 260GTX.
Interessanterweise ist sie bei Grid mit 4xAA aber absolut überlegen:
http://www.hardware.fr/articles/725-17/dossier-amd-radeon-hd-4870-4850.html

Hmm irgendwie verwirrt mich das, könnte es ein engine (treiber) problem sein? Das der speicher nicht langt glaube ich nicht, immerhin laufen andere games ja auch mit 8xaa super schnell.