Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - R700 im Q2 2008, multicore und 55 nm? Teil 4
Ist zwar nicht die Thematik hier, aber leider stimmt das nicht so ganz.
Erstens benötigt man Auflösungen jenseits von 1600*1200 und BQ und zweitens ist so eine Performanceverbesserung nicht bei jeder Software zu verzeichnen.
Man sollte mehr auf die min-fps achten, weil die in der Regel GPU-limitiert sind, während bei avg- und max-fps eher die CPU oder eine sonstige System-Komponente limitieren kann.
Nakai
2008-06-16, 16:26:10
Allerdings. Ich denke der Vergleich R300 zu G80 ist nicht unangebracht. So einen Sprung in Performance, Bildqualität und Features zur gleichen Zeit hat man selten.
Naja die Nachfolgegeneration des R300 war nochmal ein gutes Stück stärker.
Wenn der RV770 wirklich an die 60 bis 80% schneller als der Vorgänger wird, dann wird der GTX 280 von der HD4870X2 geschlagen.
Bei SingleKarten wäre damit ATI wieder vorne, aber die Ultimative Leistung bleibt bei NV durch TripleSLI.
mfg Nakai
€:
Man sollte mehr auf die min-fps achten, weil die in der Regel GPU-limitiert sind, während bei avg- und max-fps eher die CPU oder eine sonstige System-Komponente limitieren kann.
Nicht wenn die Minifps durch einen Flaschenhals an der CPU limitieren.
Solche Frameverläufe wären sehr interessant. Ich sage nicht, dass die GTX 280 schlecht ist, sie bietet aber nicht die erhoffte Performance.
ATI kann ziemlich hart nachlegen, vorallem im Performancesegment.
Schlammsau
2008-06-16, 18:41:30
Wenn die 4870 wirklich 30% schneller als eine 4850 ist! Dürfte sie auf Augenhöhe mit der GTX260 sein! Oh man...ich mach mir gleich ins Hemd!
GeneralHanno
2008-06-16, 18:58:20
Wenn die 4870 wirklich 30% schneller als eine 4850 ist! Dürfte sie auf Augenhöhe mit der GTX260 sein! Oh man...ich mach mir gleich ins Hemd!
20% durch den taktunterschied (750/625=1,2) und die restlichen 10% sollte GDDR5 schon reißen^^
horn 12
2008-06-16, 18:59:34
Dies wird ATI mit Sicherheit, bleibt aber zu hoffen dass sie mit der HD4870 nicht zu hoch abheben und der Preis unter 300 Euro bleibt, besser und tödlich für ATI wären die 250-270 Euro!
Da ist wohl die zweite HD2900 XT von NVidia diesmal ins Haus geflattert. Sagte ja mal schon, so einen Wurf wie damals mit dem G80 gelingt BEIDEN Herstellern nicht mehr so schnell. Nur wurde da der Preis zurechtgerückt, schon beim Lauch!,- aber hier geht dies ja auch noch voll daneben, ca. 500-530 Euro!!
Wenn alles passt dürfte sich die HD4870 zwischen der GTX 260 und GTX 280 bewegen, und falls der Preis noch hinkommt:
Die Hammerkarte welche es in einer solchen extremen Dimension noch NIE gab!!
tombman
2008-06-16, 19:04:27
Wenn alles passt dürfte sich die HD4870 zwischen der GTX 260 und GTX 280 bewegen
Das wären dann X4000- das traust du der 4870er zu?
Schlammsau
2008-06-16, 19:10:59
Das wären dann X4000- das traust du der 4870er zu?
sch*** doch auf den Schwanzmark! Total uninteressant! :P
von mir aus kann die die 48xx Serie nur einen Punkt im Potenzmark haben!
Games zählen!!!!
So schätze ich nach Release das Performancerating der neuen ATi Karten ein! *freu*
Könnte wirklich für Augenhöhe mit der 260GTX reichen!
http://www.abload.de/img/unbenanntttm.png
GeneralHanno
2008-06-16, 19:24:34
füllrate - RV670 - RV770 - G92 - G94
color - 9600 - 9400 - 9400 - 9000
z - 18900 - 22500 - 42000 - ?
color+z - 9500 - 9100 - 9100 - ?
single tex - 8100 - 9300 - 9400 - 9000
alpha tex - 4900 - 6700 - 4800 - 4600
dual tex - 4500 - 9300 - 9400 - 8400
quad tex - 2400 - 4900 - 8400 - 4300
update!
deekey777
2008-06-16, 19:31:39
Wtf?
http://imageupload.com/out.php/i129316_archrv770.jpeg
AnarchX
2008-06-16, 19:34:19
In der Tat: WTF!?:|:eek:
edit: Und offensichtlich ein Fake -> 40 TMUs...
Schlammsau
2008-06-16, 19:34:56
Wtf?
http://imageupload.com/out.php/i129316_archrv770.jpeg
Was bedeutet das? Kenn mich da nicht so aus! :redface:
Was bedeutet das? Kenn mich da nicht so aus! :redface:
Dito :) Wäre nett, wenn jemand kurz die Besonderheit aufzeigen könnte.
Sorkalm
2008-06-16, 19:40:19
edit: Und offensichtlich ein Fake -> 40 TMUs...
Wenn ich das Design mit den alten Diagramm (http://www.drivecity.de/product_info.php/info/p133546_Geh-Netzteil-ATX-be-quiet--Titan-BQT-Straight-Power-450W-ATX-2-2.html) vergleiche sieht das Design stellenweise anders aus, aber es hat den gleichen Touch. Zu dem ist noch PCINLIFE eigentlich eine recht zuverflässige Quelle, oder?
deekey777
2008-06-16, 19:45:07
In der Tat: WTF!?:|:eek:
edit: Und offensichtlich ein Fake -> 40 TMUs...
Die fehlende Unterteilung in SIMDs spricht für ein Fake. Da das Bild aus einem Thread in Chinesisch stammt, wäre es auch möglich, dass der Autor sich den RV770 so vorstellt.
Sorkalm
2008-06-16, 19:46:09
Schon mal einen Online-Übersetzer bemüht?
Wenn ich das Design mit den alten Diagramm (http://www.drivecity.de/product_info.php/info/p133546_Geh-Netzteil-ATX-be-quiet--Titan-BQT-Straight-Power-450W-ATX-2-2.html) vergleiche sieht das Design stellenweise anders aus, aber es hat den gleichen Touch. Zu dem ist noch PCINLIFE eigentlich eine recht zuverflässige Quelle, oder?
clever vorher wollte ATI das bequiet straight power nachbaun und als 4870 verkaufen und nun beruht das design tatsächlich auf einer 3870 :eek:
AnarchX
2008-06-16, 19:46:55
Wenn ich das Design mit den alten Diagramm (http://www.drivecity.de/product_info.php/info/p133546_Geh-Netzteil-ATX-be-quiet--Titan-BQT-Straight-Power-450W-ATX-2-2.html) vergleiche sieht das Design stellenweise anders aus, aber es hat den gleichen Touch. Zu dem ist noch PCINLIFE eigentlich eine recht zuverflässige Quelle, oder?
PHK ist wenn schon die zuverlässige Quelle im PCI, Edison ist eher Theoretiker und Bastler, imo.
Ich könnte mir vorstellen, dass er dieses Diagramm nach seinen Vorstellungen erstellt hat.
Wie schon gesagt, sieht man dort 40 TMUs, aber es sind eindeutig 32, wie die Test der HD4850 zeigten.
Dass bei der HD4850 8 deaktiviert sind, schliesst sich über die arithmetische Leistung auch aus.
Die fehlende Unterteilung in SIMDs spricht für ein Fake. Da das Bild aus einem Thread in Chinesisch stammt, wäre es auch möglich, dass der Autor sich den RV770 so vorstellt.
is doch eh da, 10 linien?
Sorkalm
2008-06-16, 19:48:25
PHK ist wenn schon die zuverlässige Quelle im PCI, Edison ist eher Theoretiker und Bastler, imo.
Ich könnte mir vorstellen, dass er dieses Diagramm nach seinen Vorstellungen erstellt hat.
Dann hat er nen verdammt gutes Gespür für Design... :)
deekey777
2008-06-16, 19:49:22
is doch eh da, 10 linien?
Genau das ist der Punkt, der falsch ist:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/3/#abschnitt_technik_im_detail_part_1
Die Pfeile müssten vom Dispatcher von oben zu den SIMDs gehen (wie beim R600-Diagramm).
tombman
2008-06-16, 19:50:02
sch*** doch auf den Schwanzmark! Total uninteressant! :P
von mir aus kann die die 48xx Serie nur einen Punkt im Potenzmark haben!
Games zählen!!!!
So schätze ich nach Release das Performancerating der neuen ATi Karten ein! *freu*
Könnte wirklich für Augenhöhe mit der 260GTX reichen!
http://www.abload.de/img/unbenanntttm.png
Hmm, schneller als eine X2? Mutig ;)
Schlammsau
2008-06-16, 19:50:48
Hmm, schneller als eine X2? Mutig ;)
Mut ist mein 2. Vorname! ;)
Ich glaube nicht das ATi zum Spass den Speichertakt fast verdoppelt!
Genau das ist der Punkt, der falsch ist:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/3/#abschnitt_technik_im_detail_part_1
Die Pfeile müssten vom Dispatcher von oben zu den SIMDs gehen (wie beim R600-Diagramm).
tun sie ja auch, von links oben beim dispatcher rein in die SIMDs und dann weiter zum shader exporter. Aber imho hast recht, eher mehr eine "künstlerische interpretation".
Schlammsau
2008-06-16, 20:04:37
tun sie ja auch, von links oben beim dispatcher rein in die SIMDs und dann weiter zum shader exporter. Aber imho hast recht, eher mehr eine "künstlerische interpretation".
nehmen wir mal an, das Pic ist echt! Was wäre daran so revolutionär?
Nakai
2008-06-16, 20:05:40
Die Pfeile müssten vom Dispatcher von oben zu den SIMDs gehen (wie beim R600-Diagramm).
Dann schau nochmal genauer hin. Es geht immer eine Linie zu 16 solcher Vec5-Shader.
Wie schon gesagt, sieht man dort 40 TMUs, aber es sind eindeutig 32, wie die Test der HD4850 zeigten.
Auf welche Werte beziehst du dich?
mfg Nakai
nehmen wir mal an, das Pic ist echt! Was wäre daran so revolutionär?
eigentlich nix, aber laut dem diagramm hat der RV770 40 TUMs und nicht 32 + wär da noch der "ominöse" crossfire x sideport.
AnarchX
2008-06-16, 20:09:56
Auf welche Werte beziehst du dich?
MT-Füllrate die laut diverser Test unter 3DM01 oder 06 bei ca. 19,5GTex/s liegt.
Auch W1zzard hat ja jetzt 32 in der GPU-Z-Datenbank hinterlegt.
Und wenn es 32 von 40 TMUs wären, müssten es aber auch mehr als 800SPs sein, da man die einen nicht ohne die anderen deaktivieren kann.
Also doch eher eine Eigenkreation das Blockschema.
w0mbat
2008-06-16, 20:11:20
Passt doch zu den Gerüchten dass der RV770 mehr als 800SPs hat :D
horn 12
2008-06-16, 20:19:10
Und ist da was Wahres dran. :confused:
Dann dürfte die Karte ja locker die HD3870 X² schlagen und auf Augenhöhe der GX2 in etwa liegen und dies zu dem Preis.... Das kann ich nun ja selbst nicht mehr glauben!:mad:
Aber was zum Teufel macht dann AMD(ATI) mit ihren enormen Restbeständen vor allem im Lager mit den HD3870 X²-er Karten. Unter 200 Euro verrammeln geht nun auch mehr schlecht als Recht wenn die HD4850/4870 VOR der Türe stehen...
Nakai
2008-06-16, 20:25:46
Die kann man ja billig verkaufen. Featuremäßig sind sie noch auf der Höhe der Zeit.
MT-Füllrate die laut diverser Test unter 3DM01 oder 06 bei ca. 19,5GTex/s liegt.
Auch W1zzard hat ja jetzt 32 in der GPU-Z-Datenbank hinterlegt.
Und wenn es 32 von 40 TMUs wären, müssten es aber auch mehr als 800SPs sein, da man die einen nicht ohne die anderen deaktivieren kann.
Was wäre, wenn der RV770 doch nen Shaderclock hat?
500Mhz TMU-Takt und 625Mhz Shaderclock für die HD4850.
600Mhz TMU-Takt und 750Mhz Shadertakt für die HD4870.
Nein ich weiß es selber nicht...
mfg Nakai
horn 12
2008-06-16, 20:29:56
vom Forumdeluxx, kann dies aber nicht ganz glauben, vor allem dies zur
HD4870 GDDR5.
Zitat von nem Händler:
Das Geheimnis ist gelüftet, Ich bin der Betreiber der Internet Seite powerpointonline!
So ganz no Public bin ich ja nicht!
Ich habe Folgende Informationen für euch:
Morgen bekomme Ich noch 20 - 40 Powercolor HD4850 rein, dann wird es aber schon eng.
Die Nvidia GTX280 von Xpertvision wird am Freitag erwartet.
Bei der Powercolor HD4870 und der GTX260 ist noch kein genauer Termin angegeben.
Die Powercolor HD4850 ist dank der neuen GPU Schneller als die 3870, und die HD4870 um 20% Schneller als die 9800GX2.
Ich selber habe noch keine zeit zum testen der Neuen Grafikkarten gehabt.
Wenn ihr weitere Fragen habt dann könnt ihr mir gerne eine PN oder per Tel erreichen.
Im Bereich der Grafikkarten Sparkle, Powercolor, Xpertvision bin ich eine Woche vor dem Launch der karte voraus!
Ich hoffe Ihr seid nicht Sauer die Grafikkarten Powercolor HD4850 sind alle ab Lager!
Die kann man ja billig verkaufen. Featuremäßig sind sie noch auf der Höhe der Zeit.
Was wäre, wenn der RV770 doch nen Shaderclock hat?
500Mhz TMU-Takt und 625Mhz Shaderclock für die HD4850.
600Mhz TMU-Takt und 750Mhz Shadertakt für die HD4870.
Nein ich weiß es selber nicht...
mfg Nakai
das wär dann doch ein großer desgin schritt, verschiedene clockdomains einzubauen. Dafür ist mir der RV770 dem RV670 zu ähnlich. :p
anddill
2008-06-16, 20:31:18
Wtf?
http://imageupload.com/out.php/i129316_archrv770.jpeg
Mir gefällt der Crossfire-Sideport. Doch eine direkte Verbindung? Vorausgesetzt, das Bild ist wahr oder zumindest nah dran.
Nakai
2008-06-16, 20:34:38
das wär dann doch ein großer desgin schritt, verschiedene clockdomains einzubauen. Dafür ist mir der RV770 dem RV670 zu ähnlich. :p
Der RV670 hatte schon einen Shaderdomain, welcher aber sehr klein war.
Mir gefällt der Crossfire-Sideport. Doch eine direkte Verbindung? Vorausgesetzt, das Bild ist wahr oder zumindest nah dran.
Wäre natürlich sehr geil.
Mir gefällt der Crossfire-Sideport. Doch eine direkte Verbindung? Vorausgesetzt, das Bild ist wahr oder zumindest nah dran.
Damit wäre AMD in einigen Fällen besser als die GTX 280...kann nicht sein.
mfg Nakai
deekey777
2008-06-16, 20:41:51
MT-Füllrate die laut diverser Test unter 3DM01 oder 06 bei ca. 19,5GTex/s liegt.
Auch W1zzard hat ja jetzt 32 in der GPU-Z-Datenbank hinterlegt.
Und wenn es 32 von 40 TMUs wären, müssten es aber auch mehr als 800SPs sein, da man die einen nicht ohne die anderen deaktivieren kann.
Also doch eher eine Eigenkreation das Blockschema.
40 TMUs und 800 SPS sind eigentlich möglich:
40 TMUs sind 10 Quads, 800 SPs sind 160 5D-ALUs oder 40 Quad-5D-ALUs. Somit wären 4 Shader-SIMDs mit je 10 Shader-Quads und einem TMU-Block mit 10 Quad-TMUs.
Passt doch zu den Gerüchten dass der RV770 mehr als 800SPs hat :D
Da heute FireStream 9250 vorgestellt wurde, die auf der HD4850 basiert, spricht alles dafür, dass die HD4850 800SPs hat.
GeneralHanno
2008-06-16, 20:46:25
ich halte das bild für echt (oder einen EXTREEEEM guten fake).
dr_mordio
2008-06-16, 20:48:59
Also was mich jetzt wirklich mal brennend interessiert ist folgendes:
Ail hat immer gesagt das die GTX280 noch hammermäßiger wird als sich dich die specs erwarten läßt.
und auch das der RV770 lange nicht so gut wird wie die specs vermuten lassen....
und das hat er ja nun mehr als einmal in beiden treads geschrieben.
also bei der GTX280 lag Ail nun total daneben. kann es sein das seine Quelle was vertauscht hat?
also GTX280 nicht so gut wie die specs, dafür aber RV770 besser als die Specs?
oder wurde Ail nur von seiner Quelle im bezug auf die GTX280 verulkt?
leider hat man von ihm noch nichts dazu gehört
----
Also nach den letzten specus zur GTX280 war ich auch schon am überlegen mir diese zu holen, hab ich ja auch mal dort geschrieben.
Aber jetzt nach dem relase bin ich doch sehr ernüchtert und warte definitiv erstmal auf die AMDs und dann wird sich zeigen was gekauft wird.
MfG
Alex
... und die HD4870 um 20% Schneller als die 9800GX2.
Das kann ich kaum glauben
Also was mich jetzt wirklich mal brennend interessiert ist folgendes:
Ail hat immer gesagt das die GTX280 noch hammermäßiger wird als sich dich die specs erwarten läßt.
und auch das der RV770 lange nicht so gut wird wie die specs vermuten lassen....
und das hat er ja nun mehr als einmal in beiden treads geschrieben.
also bei der GTX280 lag Ail nun total daneben. kann es sein das seine Quelle was vertauscht hat?
also GTX280 nicht so gut wie die specs, dafür aber RV770 besser als die Specs?
oder wurde Ail nur von seiner Quelle im bezug auf die GTX280 verulkt?
leider hat man von ihm noch nichts dazu gehört
----
Also nach den letzten specus zur GTX280 war ich auch schon am überlegen mir diese zu holen, hab ich ja auch mal dort geschrieben.
Aber jetzt nach dem relase bin ich doch sehr ernüchtert und warte definitiv erstmal auf die AMDs und dann wird sich zeigen was gekauft wird.
MfG
Alex
genau aus diesem grunde glaub ich hier niemanden irgendetwas...bis ich was handfestes sehe oder informationen aus verschiedenen quellen (nicht voneinander abgeschrieben) sich gegenseitig bestätigen
GeneralHanno
2008-06-16, 20:57:17
R600:
http://pics.computerbase.de/1/7/3/7/4/122.png
http://pics.computerbase.de/1/7/3/7/4/153.png
http://pics.computerbase.de/1/7/3/7/4/138_m.png
RV770:
http://imageupload.com/out.php/i129316_archrv770.jpeg
tombman
2008-06-16, 21:03:05
Das kann ich kaum glauben
ich auch nicht.
R600:
http://pics.computerbase.de/1/7/3/7/4/122.png
http://pics.computerbase.de/1/7/3/7/4/153.png
http://pics.computerbase.de/1/7/3/7/4/138_m.png
RV770:
http://imageupload.com/out.php/i129316_archrv770.jpeg
hmm wenns nach dem geht haben die RBE kein alpha/fog unit mehr und dafür 4 statt 2 stencil untis.
GeneralHanno
2008-06-16, 21:22:34
man beachte die änderungen der RBEs und TUs !
RBE: weiterhin 16 ROPs, nun aber mit 4z statt 2z
TUs: nach dem motto, weniger ist mehr. eine TU hat 4 TMUs (R600: 4), 4 TAUs (R600: 8), 16 Sampler (R600: 20)
Da heute FireStream 9250 vorgestellt wurde, die auf der HD4850 basiert, spricht alles dafür, dass die
HD4850 800SPs hat.Naja wie schon erwähnt, das könnten Reserveeinheiten sein. Ob das Teil jetzt 800 SPs hat oder 850 SPs, von denen nur 800 aktiv sind, kann man nachwievor nicht sagen ...
@Performance: Die 4870er müßte auf alle Fälle stärker als die 3870 X2 sein. Erstens gibts mehr SPs (800 statt 2x320 = 640), und mit GDDR5 hat man zumindest mind. die gleiche Speicherbandbreite (2x256bit vs 256bit GDDR5).
Also rein von den Papierdaten ist da genügend Power eingeplant.
Gegenüber nVidia hat AMD nen dicken Preis & Verlustleistungsvorteil durch GDDR5. Mit GDDR5 bekommt man mit nur 256bit die gleiche Speicherbandbreite wie nVs 512bit GDDR3 Speicherinterface, was das Kartendesign sehr erleichtert. Ausserdem verbraucht GDDR5 noch weniger Strom (1,5 VDIMM), wodurch man der GPU mehr Leistung von gesamten Karten-Powerbudget gönnen kann :)
Zum Schluss kommt dann noch AMDs 55nm GPU Vorteil obendrauf.
ciao
Alex
http://xtreview.com/images-added.php?image=images/hd4870-screenshot2.jpg&id=5083
tombman
2008-06-16, 21:48:53
http://xtreview.com/images-added.php?image=images/hd4870-screenshot2.jpg&id=5083
Lol, 3dm06...
http://xtreview.com/images-added.php?image=images/hd4870-screenshot2.jpg&id=5083
fake score müsste 15017 ergeben. :p
Ich würd sagen: Abwarten und Tee trinken..........
um die G200 wurde auch viel gesagt und am Ende kam´s anders!
Ich warte auf jeden Fall mal ab. Ich habe langsam das Gefühl, dass der Performancevorsprung der GTX 280 nicht reicht um mich nochmal zu 10.0 zu bewegen.
Ich warte auf jeden Fall mal ab. Ich habe langsam das Gefühl, dass der Performancevorsprung der GTX 280 nicht reicht um mich nochmal zu 10.0 zu bewegen.
Immerhin sind die Treiber von Nvidia ok für meine Spiele, hatte Anfang des Jahres eine 2900 XT für eine Weile, in Everquest 2 kann man z.b. kein transparent AA benutzen, gibt nur Grafikfehler (ko Kriterium für mich).
pXe
w0mbat
2008-06-16, 23:15:05
Und manche habe eben mit den Nvidia treibern Probleme, so ist das nunmal. Also KO Kriterium gegen Nvidia -.-
Immerhin sind die Treiber von Nvidia ok für meine Spiele, hatte Anfang des Jahres eine 2900 XT für eine Weile, in Everquest 2 kann man z.b. kein transparent AA benutzen, gibt nur Grafikfehler (ko Kriterium für mich).
pXe
Ach da geben sich doch beide nicht viel.
CompuJoe
2008-06-16, 23:41:32
Immerhin sind die Treiber von Nvidia ok für meine Spiele, hatte Anfang des Jahres eine 2900 XT für eine Weile, in Everquest 2 kann man z.b. kein transparent AA benutzen, gibt nur Grafikfehler (ko Kriterium für mich).
pXe
Hmm, bei mir gibt es da keine Grafikfehler, ich spiele EQ2
Hmm, bei mir gibt es da keine Grafikfehler, ich spiele EQ2
Dann wurde das inzwischen gefixt, mit den 7.xx gabs die definitiv (und die eq2.exe mußte man umbennen weil man sonst mit AI Standard gar kein AA hatte). Hatte auch mal einen extra Thread dazu hier eröffnet.
pXe
CompuJoe
2008-06-16, 23:58:18
Nei hatte den fehler auch mit den 7.x nicht gehabt, spiele ja schon seit fast 3 jahren mit einer ATI Karte X800XL>X1800XT>2900PRO (kurz dazwischen auch mal 8800GTS) >2 x 3870
AI @ High, AAA hat funktioniert.
http://www.abload.de/img/hd4850_690_1138_x4_1t5c.jpg
oha, schneller wie ne X2.
Hmm ich brauch dringend eine neue Graka für AOC. Früher hatte ich alles mitgemacht: 6800 GT X1800 7800GT 256 7800GT 512 X1900 und nun mehr seit über einem Jahr die 8800 GTS 640 drinnen und bis auf Conan eigentlich auch ganz zufrieden mit dem Teil (super OC). Eigentlich dacht ich das ich bei der GTX 260 zuschlagen werde aber die Benches ham mich jetzt leider nicht so überzeugt. Die 280 ist mir fast etwas zu teuer und ich bin mir nicht sicher ob Netzteil und Gehäuse das überhaupt mitmachen. Jetzt muss ich auf die 4870 hoffen und auch hoffen das die Verfügbarkeit besser als beim 3870 Release ist mal schauen die Technischen Daten klingen ganz gut und die 3870X2 ist nicht schlecht in Conan wenn die 4870 noch nen Tick schneller ist dürft sie vor der 260 gtx liegen bei vermutlich günstigerem Preis. Jedefalls erstmal etwas entäuscht von den nen NV Karten.
J0ph33
2008-06-17, 00:56:29
http://www.abload.de/img/hd4850_690_1138_x4_1t5c.jpg
nettes RAM-OC, skaliert ganz gut mit die Karte, macht Hoffnung für die HD4870
Eggcake
2008-06-17, 01:16:54
Bei einer Bestellung des Modells »4850PE3512 PCIE 512MB GDDR3« verweist Amazon auf einer Lieferzeit zwischen einem und zwei Monaten.
http://www.tomshardware.com/de/HD-4850-ATi-Radeon,news-241172.html
:/
die 4870 soll 1000 shader haben,weiß jemand was darüber?
tombman
2008-06-17, 03:57:32
http://www.abload.de/img/hd4850_690_1138_x4_1t5c.jpg
Die war auf 690 core (!) overclockt, also fast 4870 (=750core) Niveau ;)
Daredevil
2008-06-17, 04:08:34
+10% Core und +14% Speichertakt.
Wo siehst du denn da 30% mehr Leistung welche bei der 4870 vorhanden sein soll?
Das sind max. 15%, wenn überhaupt.
*edit*
Achso meinst du das.
Scheint der GDDR5 wohl doch einiges rausreißen zu wollen wenn die auf 30%+ kommen wollen.
Wobei...... könnt ja eigentlich hinhauen.
Wie der Herr unter mir sagte, dann werden es ja vllt. doch mehr als 30% wenn da noch was zukommt.
tja wer sagt denn das die 4870 nur mehr ram und chiptakt hat?^^
Daredevil
2008-06-17, 04:45:35
Hab hier mal den Prozentualen Unterschied gebencht mit ner 3850.
Meine 4850 hat 625/575
meine 4870 hat 750/1035
+20% Kerntakt und +80% Speichertakt
Crysis Benchs:
4850:
Average FPS: 26.23
Min FPS: 14.77
Max FPS: 30.40
4870:
Average FPS: 34.70 +32%
Min FPS: 19.29 +30%
Max FPS: 42.03 +38%
Ich teste jetzt mal noch ob der Speicher in höheren Regionen so skaliert wie um die 500.
Weil 1800 könnte auf der 4870 ja auch einfach "zu viel" sein, das sie überhaupt nicht gescheit umgesetzt werden.
Ich weiß das es nun nicht soooo Vergleichbar ist da vllt. noch die Architektur verbessert wurde und viel mehr Verbesserungen drinstecken, aber hier geht grad halt nur um den Takt.
*edit*
Hier mal die Speicherskalierung.
Ich fange bei 500 MHz an und gehe immer in +10% Schritten nach oben.
Ich benutze allerdings den 3DMark Deep Freeze Test weil ich grad überhaupt kein Bock auf Doppel Crysis Loops habe :D
500Mhz :39.881 Fps
550Mhz :43.061 Fps +8%
605Mhz :46,071 Fps +7%
665Mhz :49,407 Fps +7,2%
731Mhz :52,378 Fps +6%
804Mhz :55,409 Fps +5,8%
884Mhz :58,320 Fps +5,3%
972Mhz :60,793 Fps +4,2%
1070Mhz :62,583 Fps +3%
Tendenz sinkend....
Achja CPU isn C2D e4300 @ 3230 und die GPU war auf 930Mhz getaktet.
tombman
2008-06-17, 05:50:22
tja wer sagt denn das die 4870 nur mehr ram und chiptakt hat?^^
Weils auf den ATI Folien draufsteht? Und weil ATI 1 TFlop für die 4850er und 1.2 TFlop für 4870er kolportiert, was zufälligerweise GENAU der Unterschied in der Taktfrequenz der Kerne ist?
Es würde überhaupt nicht ins Konzept von ATI passen, wenn es da jetzt verkrüppelte Kerne gäbe wie bei Nvidia. Nene, die 4870 ist bis auf den Speicher und den höheren core Takt nix anderes als eine 4850...
tombman
2008-06-17, 05:52:28
Hab hier mal den Prozentualen Unterschied gebencht mit ner 3850.
Meine 4850 hat 625/575
meine 4870 hat 750/1035
"DEINE" 4870? Du hast die Karte?
Wenn du nicht unter NDA stehst, dann laß mal vantage extreme Werte mit dem neuesten CAT 8.6 (oder neuer) rüberwachsen ;)
BlackBirdSR
2008-06-17, 06:11:22
"DEINE" 4870? Du hast die Karte?
Wenn du nicht unter NDA stehst, dann laß mal vantage extreme Werte mit dem neuesten CAT 8.6 (oder neuer) rüberwachsen ;)
Genau, bloß nichts sinnvolles was Rückschlüsse zulassen würde.
Nebenbei natürlich noch schnell Vantage kaufen...
Bin ich der einzige, der schnellere Karten mit Skepsis betrachtet? Klar, die selbsterwählte Elite kann sich endlich wieder vom Pöbel absetzen. Aber mehr High-End-Power bedeutet nur wieder, dass Spiele auf den Markt kommen, deren High-Settings die meisten nicht nutzen können.
Daredevil
2008-06-17, 06:13:15
"DEINE" 4870? Du hast die Karte?
Wenn du nicht unter NDA stehst, dann laß mal vantage extreme Werte mit dem neuesten CAT 8.6 (oder neuer) rüberwachsen ;)
Ich hab doch geschrieben das ich nur den Prozentualen Wert des Taktunterschieds feststellen wollte am Beispiel einer 3850.
Die 4870 hat 20% Mehr Kerntakt und 80% mehr Speichertakt.
Mein GDDR3 Speicher geht ausnahmsweise nicht bis 1800 ;(
tombman
2008-06-17, 06:14:50
Genau, bloß nichts sinnvolles was Rückschlüsse zulassen würde.
Nebenbei natürlich noch schnell Vantage kaufen...
Nehme ich dir was weg, oder was? Frage ihn selbst, wenn du was spezielles wissen willst :mad:
tombman
2008-06-17, 06:16:33
Ich hab doch geschrieben das ich nur den Prozentualen Wert des Taktunterschieds feststellen wollte am Beispiel einer 3850.
Die 4870 hat 20% Mehr Kerntakt und 80% mehr Speichertakt.
Mein GDDR3 Speicher geht ausnahmsweise nicht bis 1800 ;(
Du kannst doch mit ner 3850 nicht für die 48xx Serie rumrechnen, bringt doch 0 verläßliche Info...
Daredevil
2008-06-17, 06:35:14
Kann ich schon, siehste ja :D
Es wird davon ausgegangen das die 4870 30% schneller wird als eine 4850, zumindest laut AMD.
Der Takt ist um 20% höher, fehlen noch 10%.
Wenn man jetzt die 80% mehr Speichertakt dazunimmt und dieser in höheren Regionen nicht so gut skaliert. ( Was ich mit meinem Test bewiesen habe. )
Dann kommt man wenn man spekulativerweise +1% Leistung bei +10% Takt nimmt auf +8% mehr Leistung nur durch den RAM ( Wobei es mit Sicherheit weniger sein wird oder es irgendwo auch eine Grenze geben wird wo Speichertakt nichts mehr bringt, oder ? )
Sind wir bei +28%, geschätzt.
+Architektur verbesserungen und und und, wie du ja schon erwähnt hast.
Könnte also gut hinhauen, die 30% + ein paar mehr.
( Ich weiß, nicht übertragbar und Spekulativ, trotzdem hats Spaß gemacht... :) )
tombman
2008-06-17, 06:42:48
Ich habe ja nie gesagt, daß ich AMD die +30% nicht glaube.
Scheinen eh eine sinnvolle Zahl zu sein.
Nur wird +30% nicht ausreichen eine GTX280 einzuholen...
Laut dieser Folie wird die HD4870 sogar unter der GX2 eingestuft...
http://img258.imageshack.us/img258/6730/04rv770part23ef90a5rn3.jpg
Daredevil
2008-06-17, 06:59:31
Jo aber man weiß nicht wie das Leistungsranking dort eingeschätzt werden kann.
Spiele oder Benchmarks?
Mit oder ohne aa+af ? ( Sehr wichtig. )
Denn eine 9800 GX2 putzt ne GTX280 im Leistungsranking weg ohne AA+AF, deswegen kann man dieses Diagramm so oder so sehen.
Man fragt sich nun nur wie :(
*edit*
Ich denke ( Falls die Werte stimmen sollten ) und das ist man ja bei Marketingfolien nie, das es in diesem Ranking einfach nur um die "Rohleistung" geht ohne AA+AF.
Nimmt man nämlich nun die 3850, welche ja dort zwischen 9600gt und 9600gs angesiegelt ist passt das Diagramm mit dem Performance Rating auf CB ( Auch wenns der 8.3er Catalyst nur ist ) überein, sie liegt immer zwischen den beiden Karten ohne AA+AF
Wenn ich mir dann die Werte mit AA+AF anschauen knickt die 3850 immer weg, ist also unter den beiden Karten anzuordnen.
Naja ist ja nur ne Marketingfolie... würd mich wundern wenn dort alles so steht wie es in Wirklichkeit auch ist.
seahawk
2008-06-17, 07:12:23
Genau, bloß nichts sinnvolles was Rückschlüsse zulassen würde.
Nebenbei natürlich noch schnell Vantage kaufen...
Bin ich der einzige, der schnellere Karten mit Skepsis betrachtet? Klar, die selbsterwählte Elite kann sich endlich wieder vom Pöbel absetzen. Aber mehr High-End-Power bedeutet nur wieder, dass Spiele auf den Markt kommen, deren High-Settings die meisten nicht nutzen können.
Naj, glaube ich gar nicht. Imho zielen immer mehr Entwickler auf die Perfromancekarten, die twar sicher nicht fpr mehr als 1600x1200 + AA/AF reichen werden, aber 1280x1024 mit moderatem AA/AF oder 1600x1200 ohne dürften sie in den meisten Spielen schaffen. Und es steht einem immer frei ein Spiel wie Crysis im LAden stehn zu lassen.
Nur wird +30% nicht ausreichen eine GTX280 einzuholen...
brauch sie auch garnicht, und ich hoffe das wird sie nicht ich hab kein Bock haufen kohle für ne floppige GTX280 zu zahlen (und 90% der User auch nicht)die ne Leistung hat die es schon fast 2 Jahre geben tut :ugly:
Die GTX260 macht sie ohne Probleme Platt.
Wann läuft das NDA der ATi-Karten ab bzw. wann sind die ersten Reviews zu erwarten? :)
Schlammsau
2008-06-17, 07:26:12
Ich habe ja nie gesagt, daß ich AMD die +30% nicht glaube.
Scheinen eh eine sinnvolle Zahl zu sein.
Nur wird +30% nicht ausreichen eine GTX280 einzuholen...
Laut dieser Folie wird die HD4870 sogar unter der GX2 eingestuft...
http://img258.imageshack.us/img258/6730/04rv770part23ef90a5rn3.jpg
Aber für die 260GTX kann es reichen! :wink:
das kann nicht nur, das wird reichen.
seahawk
2008-06-17, 07:35:52
Locker, würde ich sagen.
Daredevil
2008-06-17, 07:37:37
Ich würde sogar behaupten sie kann auch der GTX 280 das Wasser reichen.
Aber nur in Settings ohne AA und AF, dort brechen die ATI Karten nämlich heutzutage schon Böse ein im gegensatz zu Nvidia.
Der RV670 ja das stimmt, aber so krass nun auch wieder nicht.
Wie es bei den 4850 und 4870 ist kann man noch net sagen, aber ich denk da werden sie richtig was gedreht haben das es nichtmehr so krass ist.
Die 4780 wird erst am 8 Juli released, aber anscheinend schon am 25 Juni vorgestellt.
http://i27.tinypic.com/2vru7g5.jpg
http://i25.tinypic.com/sxyyyv.jpg
http://i25.tinypic.com/fbdyk6.jpg
http://i27.tinypic.com/14iomdf.jpg
http://i26.tinypic.com/30wv4nr.jpg
http://i27.tinypic.com/2r2c51k.jpg
Quelle:
http://www.hardforum.com/showthread.php?t=1316251
AnarchX
2008-06-17, 07:44:14
PC-Watch war wohl bei einer AMD-Präsentation:
http://pc.watch.impress.co.jp/docs/2008/0617/amd.htm
http://img502.imageshack.us/img502/2863/amd14dq0.jpg
16mm -> 256mm²
Die HD4870 soll wohl nun im Juli verfügbar sein.
edit: lol
Daredevil
2008-06-17, 07:46:37
Der RV670 ja das stimmt, aber so krass nun auch wieder nicht.
Wie es bei den 4850 und 4870 ist kann man noch net sagen, aber ich denk da werden sie richtig was gedreht haben das es nichtmehr so krass ist.
Vom wechsel R600 auf R670 haben die schon ~10% gut gemacht beim benutzen von AA.
Denke nicht das da noch soooo Massiv Potential vorhanden ist, aber ich lass mich ja immer wieder überraschen. :)
tombman
2008-06-17, 07:47:33
Aber für die 260GTX kann es reichen! :wink:
Das sieht AMD selbst irgendwie anders ;)
http://i27.tinypic.com/2r2c51k.jpg
sie untertreiben immer bissel, wenn ne 4850 schon so stark ist wie ne X2 passt das nicht ins Bild das ne 4870 genauso schnell ist wie ne 9800GTX ;)
AnarchX
2008-06-17, 07:57:52
Die Aussage der Folie ist doch eher, dass man bei etwa gleichem Preis und Verbrauch, eben eine bessere Leistung erreicht als die Konkurrenz, was bei der HD4870 eben eine Performance knapp vor der GTX 260 bedeuten könnten.
tombman
2008-06-17, 07:59:24
Die Aussage der Folie ist doch eher, dass man bei etwa gleichem Preis und Verbrauch, eben eine bessere Leistung erreicht als die Konkurrenz, was bei der HD4870 eben eine Performance knapp vor der GTX 260 bedeuten könnten.
Jo, hast Recht.
Moralelastix
2008-06-17, 08:16:35
Was is denn ein R700?
Daredevil
2008-06-17, 08:17:30
R700 soll die x2 Variante werden.
Also die 4870x2
Tarkin
2008-06-17, 08:30:29
Ein kleiner Ausschnitt als Flash-Filmchen (http://www.amd.com/us-en/assets/content_type/DigitalMedia/AMD_Ruby_S04.swf)
:eek: :eek:
Die wissen genau wie sich mich heiß machen *g* Shice ich halts nicht mehr aus!!!
@Daredevil:
Du kannst mit ner 3850 nicht auf ne 4850 schließen, wenn Du bei Dir den RAM Takt höherschraubst, kommst Du irgendwann ans Maximum der Bandbreite, die die 320 Shader abnehmen können. Der RV770 hat aber 800 Shader .. da ist viel mehr Bedarf nach Speicherbandbreite vorhanden ...
@AnarchX:
16mm -> 256mm² Das würde gelten, wenn der Chip quadratisch wäre. Die Folie ist zwar perspektifisch verzerrt, aber ich denke doch, dass man sieht, dass das eher ein Rechteck als ein Quadrat ist. Wenn man z.B. nur 16mm x 17mm rechnet statt 16x16 kommt man schon auf 272 mm²
Abgesehen davon ist das Minifoto meines Wissens der erste RV770 DIE Shot, wer zählt die Shader ab ? ;)
Edit: Hab mal gezählt, komme auf 5x10 "Blöcke", wenn ich das mit ner RV670 vergleiche, denke ich, dass 1 Block 2 Shader mit je 5 Einheiten sind. Demnach komme ich dann nach ATi Zählweise auf 500 Shader ... :conf2:
ciao
Alex
AnarchX
2008-06-17, 09:36:17
@AnarchX:
Das würde gelten, wenn der Chip quadratisch wäre. Die Folie ist zwar perspektifisch verzerrt, aber ich denke doch, dass man sieht, dass das eher ein Rechteck als ein Quadrat ist. Wenn man z.B. nur 16mm x 17mm rechnet statt 16x16 kommt man schon auf 272 mm²
AFAIK waren die letzten GPUs doch alle eher quadratisch auf Grund der Ausbeute, G200 ist ja auch 24x24.
Und schau nochmal hier:
http://pc.watch.impress.co.jp/docs/2008/0617/amd_01.jpg
;)
Abgesehen davon ist das Minifoto meines Wissens der erste RV770 DIE Shot, wer zählt die Shader ab ? ;)
Edit: Hab mal gezählt, komme auf 5x10 "Blöcke", wenn ich das mit ner RV670 vergleiche, denke ich, dass 1 Block 2 Shader mit je 5 Einheiten sind. Demnach komme ich dann nach ATi Zählweise auf 500 Shader ... :conf2:
Also 5 SIMDs mit der Tiefe 10 und eben Quad-5D-ALUs = 40TMUs und 1000SPs?:|
Naja, sollte man wohl auf einen bessere Die-Shot warten.
GeneralHanno
2008-06-17, 10:18:16
auf jeden fall ist das gebilde "10-tief" also 10 tex-cluster (abgespeckt zum R600, keine Pointsampler mehr, nur noch 4TAU zu 4TMU)
die "breite" ist nur schwer zu erkennen. eventuell sind es nur 4SIMD (wird auf B3D auch schon vermutet), die 5te spalte könnte die TUs sein ...
=> 800SP+40TMUs
AFAIK waren die letzten GPUs doch alle eher quadratisch auf Grund der Ausbeute, G200 ist ja auch 24x24.
Und schau nochmal hier:
http://pc.watch.impress.co.jp/docs/2008/0617/amd_01.jpg
Naja, da is wirklich total verzerrt, aber nen Unterschied von 1mm würde mal wohl eh nicht erkennen können. Wenn Du sagst, dass der G200 quadratisch ist, dann ist das Foto der AMD Präsentation auch total windschief, könnte also dann gut sein das der RV770 auch quadratisch ist.
Also 5 SIMDs mit der Tiefe 10 und eben Quad-5D-ALUs = 40TMUs und 1000SPs?:|
Naja, sollte man wohl auf einen bessere Die-Shot warten.
Achso ... Quad- nicht Dualblöcke ^^ Dann kommt man ja wieder näher an 800, bzw. darüber hinaus ;-)
Kann sein, dass an den Ecken 1-2 Blöcke fehlen(v.a. oben links schaut das so aus), sagen wir mal es wären 48, weils ne "tolle" Zahl ist dann hätte man 960 SPs. Vielleicht sortiert AMD ja die Guten aus, und verbaut die dann als extra Goodie auf der X2.
Aber ein besseres Foto wäre natürlich nicht verkehrt, das ist klar. Ich hab gerade per google nach R600 oder R670 gesucht, ausser dem hier:
http://media.arstechnica.com/reviews/hardware/radeon-hd-3850-review.media/rv670.jpg
Hab ich nichts gefunden, hat jemand was besseres ?
Edit:
@Hanno: Nö, die Spalte hab ich schon abgezogen, mit der TU Spalte wären es 6 ;-), also damit mein ich die Spalte ganz links, die Blöcke dort sind ja viel "fetter", und unterscheiden sich deutlich von den Restblöcken. Allerdings ist zw. Spalte 4 und 5 mehr Freiraum ... falls das nicht irgendeine Verzerrung ist :( Naja besseres Foto tut Not.
ciao
Alex
Zitat:
"R700 will be a multiple GPU architecture. Will not be CrossFire on a card. The architecture is being designed from the ground up to be "multiple GPU." Engineers at ATI have also told me specifically that AA is "fixed."
GeneralHanno
2008-06-17, 10:31:20
http://www.eetimes.com/news/latest/showArticle.jhtml;jsessionid=TIWT24HVFWPGMQSNDLSCKHA?articleID=208404063
interessantes interview zum RV770 ;)
vll fasst es mal jmd zusammen!
Aunrae
2008-06-17, 10:35:01
Die neue Generation mag ja schön und gut klingen........
aber wer zum Teufel wird mit dieser Rechenpower außer HighEnd-Usern glücklich ?
In Zeiten wo Spiele für mehrere Platformen "entwickelt" werden und nicht nur für den PC allein ist es doch brachialer Wahnsinn solcher "Monster" wie R700 in die freie Wildbahn zu entlassen. Auch wenns vllt. prestige Objekte sind ("wer hat den größeren") und man sie nicht kaufen muss. Es gibt ja fast keine Spiele die diese Power unter Otto-Normal Auflösungen überhaupt ausnutzen!
Würde mir viel mehr Stromsparende Funktionen wünschen die wirklich weite Teile der Grafikkarte abschalten und ein Kühlsystem das einem net gleich die Ohren weg donnert. Oder endlich mal ein innovatives Konzept wo man die Grafikkarte auch wirklich in ein äußeres Gehäuse verfrachten kann (ohne die bisherigen Nachteile) um nicht für jede Aufrüstaktion das halbe Gehäuse auseinander zu nehmen ist oder im Sommer nen Brutkasten zu haben.
Und wo ist das Konzept mit den austauschbaren Grafikchips geblieben ?.... (bis auf die Anlaufversuche zweier Hersteller)
Naja warten wir halt ab....... im Prinzip ist es eh egal.... man kommt ja weder an Nvidia noch an ATI Generationen vorbei, wenn man halbwegs aktuelle Spiele spielen will. (Amen)
Thunder99
2008-06-17, 10:39:23
Wäre ATI nicht besser beraten gewesen anstatt die TMU´s zu verdoppelt gleich zu verdreifachen ? Oder geht das net Aufgrund des Design und dem daraus resultierenden Verhältnis?
GeneralHanno
2008-06-17, 10:43:21
R700 = Radeon HD4890
quelle?
http://www.eetimes.com/news/latest/s...leID=208404063
interessantes interview zum RV770
vll fasst es mal jmd zusammen!
RV770:
- diezise: 16mmx16mm=256mm²
- mehr als 500SP (also KEINE 480 ...)
4850:
- 110W
- 199$
- single: 75% GTX280 performence (das ist etwa GTX260 niveau)
- dual: bis zu 130% GTX280 performence (nur in benchmarks)
=> 130/75 = 73% CF-skalierung (nur in benchmarks)
4870:
- 160W
- 299$
Die interessantesten Zitate aus dem Interview:
"I predict our competitor will go down the same path for its next GPU once they see this," Bergman said. "They have made their last monolithic GPU."
"On paper the AMD approach looks good," said Jon Peddie, principal of graphics market watcher Jon Peddie Research (Tiburon, Calif.). "If it works, it will be a significant shift in how GPUs are made, but we won't know until later this year" when customers can test the new parts, he said.
AMD says its 4850 device at about 110 W and $199 will deliver about 75 percent of the performance of Nvidia's high-end GTX280 which costs $649 and dissipates 236W. Two of the AMD parts on a board will hit graphics benchmarks about 30 percent higher than the Nvidia device, the AMD spokesman added.
Schlammsau
2008-06-17, 10:50:47
Die neue Generation mag ja schön und gut klingen........
aber wer zum Teufel wird mit dieser Rechenpower außer HighEnd-Usern glücklich ?
In Zeiten wo Spiele für mehrere Platformen "entwickelt" werden und nicht nur für den PC allein ist es doch brachialer Wahnsinn solcher "Monster" wie R700 in die freie Wildbahn zu entlassen. Auch wenns vllt. prestige Objekte sind ("wer hat den größeren") und man sie nicht kaufen muss. Es gibt ja fast keine Spiele die diese Power unter Otto-Normal Auflösungen überhaupt ausnutzen!
Würde mir viel mehr Stromsparende Funktionen wünschen die wirklich weite Teile der Grafikkarte abschalten und ein Kühlsystem das einem net gleich die Ohren weg donnert. Oder endlich mal ein innovatives Konzept wo man die Grafikkarte auch wirklich in ein äußeres Gehäuse verfrachten kann (ohne die bisherigen Nachteile) um nicht für jede Aufrüstaktion das halbe Gehäuse auseinander zu nehmen ist oder im Sommer nen Brutkasten zu haben.
Und wo ist das Konzept mit den austauschbaren Grafikchips geblieben ?.... (bis auf die Anlaufversuche zweier Hersteller)
Naja warten wir halt ab....... im Prinzip ist es eh egal.... man kommt ja weder an Nvidia noch an ATI Generationen vorbei, wenn man halbwegs aktuelle Spiele spielen will. (Amen)
Agree!
aber erzähl das doch mal Tombman und Co.....
Chris2CB
2008-06-17, 10:55:51
Die interessantesten Zitate aus dem Interview:
"I predict our competitor will go down the same path for its next GPU once they see this," Bergman said. "They have made their last monolithic GPU."
"On paper the AMD approach looks good," said Jon Peddie, principal of graphics market watcher Jon Peddie Research (Tiburon, Calif.). "If it works, it will be a significant shift in how GPUs are made, but we won't know until later this year" when customers can test the new parts, he said.
AMD says its 4850 device at about 110 W and $199 will deliver about 75 percent of the performance of Nvidia's high-end GTX280 which costs $649 and dissipates 236W. Two of the AMD parts on a board will hit graphics benchmarks about 30 percent higher than the Nvidia device, the AMD spokesman added.
Es ist aber schon länger bekannt das dies der letzte große Chip ist von Nvidia, die werden den selben Weg gehen wie ihn ATI schon jetzt eingeschlagen hat.
Abgesehen von den zahlen die gelogen sind, weil hier zählt nur Spieleleistung und es gibt mehr wie nur 3Mark und Crysis, ist da nix neues dabei. Es wird nur das Offensichtliche niedergeschrieben.
Viel besser währe mal ein HD 4870 Bench und ein passender Treiber für Powerplay.
Würde mir viel mehr Stromsparende Funktionen wünschen die wirklich weite Teile der Grafikkarte abschalten Gibts doch schon, nennt sich bei nVidia HybridPower:
http://www.nvidia.com/object/hybrid_sli_desktop.html
und bei AMD
ATI PowerXpress
http://ati.amd.com/technology/hybridgraphics/index.html
Beidemal Vista + onboard Grafikchipsatz nötig, ausserdem scheint es noch auf bestimmte Karten (nvida) bzw. Marktsegmente (AMD -> nur bei notebooks) begrenzt, aber die Technik funktioniert, und könnte schnell Standard werden.
Das man nen onboard Chipsatz braucht ist ok, damit kann man dann auch die VRAMs auf den Grafikkarten abschalten.
quelle?
RV770:
- mehr als 500SP (also KEINE 480 ...) Mehr als 500 lol, was ist das für ne tolle Angabe .. genauer gehts ja auch nicht mehr ... Wieso drücken die sich so um ne genaue Zahl herum ? Wenn das soweitergeht wird Jupp im Benchthread noch dazu genötigt seinen RV770 vom board zu hebeln ;-)
ciao
Alex
"In perhaps the most dramatic difference with past practices, AMD will break with the tradition of delivering a high-end part then evolving lower end devices from it. Instead it will launch a part aimed at the graphics mainstream with a proprietary interconnect that links two chips on a board to deliver top performance."
Zitat:
"We don't know what shape that will take, only that it will combine two GPUs on a card in a substantially different fashion than the Radeon HD 3870 X2, and that ATI tells us that with not-yet-fully optimized drivers it already scores over 6,000 in 3DMark Vantage on Extreme settings."
Der R700 verwendet also kein normales Crossfire und erreicht über X6000 Punkte im Vantage.
Vom wechsel R600 auf R670 haben die schon ~10% gut gemacht beim benutzen von AA.
Denke nicht das da noch soooo Massiv Potential vorhanden ist, aber ich lass mich ja immer wieder überraschen. :)
Die lassen das AA jetzt nicht mehr über die Shader laufen, wie noch beim RV6(7)0.
Es ist aber schon länger bekannt das dies der letzte große Chip ist von Nvidia, die werden den selben Weg gehen wie ihn ATI schon jetzt eingeschlagen hat.
Das sind alles nur Vermutungen und ich glaube nicht, dass wir schon den letzten High-End Single-Chip von Nvidia gesehen haben.
[QUOTE=Gast;6591119]Ich werd noch wahnsinnig! R700 kein normales CF!?
Ich würd mich kringeln vor Lachen, wenn der R700 schneller als der GT200 ist und keine µR mehr hat!QUOTE]
Das kann man mittlerweile eigentlich schon als bestätigt ansehen,
kein AFR -> keine MR.
Ich vermute, dass beide Chips über ein neues Interface zu Einem zusammengeschaltet werden und sich auch so verhalten.
Gabs/Gibts eigentlich schon Gerüchte, dass ein Hersteller ne 4850 mit GDDR4 bastelt ? So ne Art "4860" Karte wäre sicherlich auch nicht verkehrt.
ES mit GDDR4 gabs ja anscheinend schon:
http://www.pczilla.net/en/post/25.html
ciao
Alexx
AnarchX
2008-06-17, 11:31:00
Ich glaube kaum, dass ~1.2GHz GDDR4 einen großen Vorteil gegenüber dem 1GHz GDDR3 bringt, wohl eher das Gegenteil.
GeneralHanno
2008-06-17, 11:36:14
Ich glaube kaum, dass ~1.2GHz GDDR4 einen großen Vorteil gegenüber dem 1GHz GDDR3 bringt, wohl eher das Gegenteil.
naja ne special-version eines boardpartners wäre denkbar mit GDDR4. dann aber eher aus marketinggründen, um sich von einer normalen 4850 abzuheben ... oder vll weil man zu viel GDDR4 geordert hat und den nun irgend wie loswerden muss ...
Ich glaube kaum, dass ~1.2GHz GDDR4 einen großen Vorteil gegenüber dem 1GHz GDDR3 bringt, wohl eher das Gegenteil.
Naja, klar, der 3870er Vorsprung ist bei gleichem GPU Takt nicht riesig aber es gilt ja jetzt >500 SPs zu versorgen. Ich rechne da mit einer ziemlich starken Bandbreitenlimitierung bei Auflösungen jenseits von 1280x1024. Du nicht ?
Naja mal abwarten, preismäßig wäre auf alle Fälle Luft:
4850: $199
4860: $249
4870: $299
ciao
Alex
GeneralHanno
2008-06-17, 11:44:49
wenn wir mal die 3850 und die 4870 vergleichen, haben ja beide ~6xxMhz core und ~1000MHz speicher:
bandbreite stagniert bei 1GHz@256bit
z-tester mal 2
TMUs mal 2,5
=> die 4850 dürfte durchaus bandbreitenlimitiert sein (oder schöner formuliert: gut mit dem speichertakt skalieren :D)
AnarchX
2008-06-17, 11:45:02
Naja, klar, der 3870er Vorsprung ist bei gleichem GPU Takt nicht riesig aber es gilt ja jetzt >500 SPs zu versorgen. Ich rechne da mit einer ziemlich starken Bandbreitenlimitierung bei Auflösungen jenseits von 1280x1024. Du nicht ?
Nur hat GDDR3 deutlich bessere Latenzen (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=409568) und Ailuros hat schonmal angedeutet, dass GDDR4 nicht unbedingt der aktuellen ATi-Architektur geschmeckt hat, wie man auch an manchem Benchmark sah. Ich würde eher auf eine 0.83ns GDDR3-Version hoffen/tippen.
GeneralHanno
2008-06-17, 11:46:37
0,83ns GDDR3 hat auch schlechtere latenzen als 1ns GDDR3 (das hat die 9800GTX gezeigt!)
die 4850 wird für 120-160€ verfügbar sein, da muss man einfach "günstigen" speicher verbauen ...
wenn ATI auf der HD48xxX2 kein AFR mehr verwendet, sind sie technologisch wirklich weit vorne
Vergleicht mal die neue Ruby-Techdemo von ATI mit der Medusa-Techdemo von Nvidia.
Schlammsau
2008-06-17, 12:04:34
das würde die Verzögerung der Karte auch erklären!
Diese wäre somit etwas ganz neues auf dem Markt!
ATi würde von mir einen riesen Daumen bekommen, auch wenn die Karte mir persönlich viel zu teuer und Stromhungrig wäre!
ATi is back!
Winter[Raven]
2008-06-17, 12:05:24
Vergleicht mal die neue Ruby-Techdemo von ATI mit der Medusa-Techdemo von Nvidia.
LOL
Vergleich mal Ruby mit dem Krieger aus der Medusa - Demo :P
Nur hat GDDR3 deutlich bessere Latenzen (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=409568) und Ailuros hat schonmal angedeutet, dass GDDR4 nicht unbedingt der aktuellen ATi-Architektur geschmeckt hat, wie man auch an manchem Benchmark sah. Ich würde eher auf eine 0.83ns GDDR3-Version hoffen/tippen.
Ja klar, das ist mir schon bekannt, und ist für die aktuellen RV6XX Karten sicherlich klar, aber nach der ganzen Aufrüstung aller möglichen Units der 700er Serie könnte das meiner Meinung nach mit den RV770 ganz anders ausgehen.
Naja egal warten wirs ab, war ja nur ein Gedanke. 0,83ns GDDR3 Karten werden sicherlich kommen, HIS IceQ4 oder so :-)
ciao
Alex
Was denn für einen Krieger, du meinst den Typen mit der Axt der aus Oblivion stammen könnte so schlecht sieht der aus? Also ehrlich, wer die ATI Techdemo gesehen hat und auch die von NVidia der wird die von NVidia ganz ganz schnell vergessen. Gut die Ruby ist nicht so der Kracher, aber die Umgebung ist fast Photorealistisch.
AnarchX
2008-06-17, 12:17:08
Über die Cinema 2.0 Demos, ohne auf die Technik von RV770 einzugehen, kann hier diskutiert werden:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6590828#post6590828
http://img115.imageshack.us/img115/4475/archrv770zx6.jpg
Das Bild bestätigt 800SP's und 40 TMU's. Der "CrossfireX Sideport" ist wohl die neue Schnittstelle für Crossfire, d.h. es gibt keine PCIe-Bridge mehr.
Sorkalm
2008-06-17, 13:18:46
Das Bild wurde bereits diskutiert und wohl als kreative Idee eines Autors hingestellt. ;)
Ich finde aber die eine AMD-Folie von vorne sehr beeindrucken. 2,8x die Performance pro Quadratmilimeter gegenüber GT200? Mit welchen Werten wurde da gerechnet, etwa RV770XT mit GTX 260 verglichen?
Ich glaube nicht, dass das Bild ein Fake ist, dafür ist es zu professionell und gleicht auch den Schemas vom RV670.
AnarchX
2008-06-17, 13:41:06
Der CrossfireX-Port dürfte wohl eher die Schnitstelle zum Übertragen des Framebuffers sein. ;)
Sorkalm
2008-06-17, 13:58:41
Ich glaube nicht, dass das Bild ein Fake ist, dafür ist es zu professionell und gleicht auch den Schemas vom RV670.
Hab ich ja auch dazu gesagt, aber die 40 TMUs passen halt nicht in aktuelle Messungen...
Das Schema macht aber schon Sinn. Es sind demnach 160 Vec5 Shader (wie schon länger vermutet) und 40 TMU's. Ich wüsste nicht, wie hier 32 TMU's reinpassen sollten.
dildo4u
2008-06-17, 14:02:46
Damit bestätigt ATI whol auch das TDP des R700.
http://i27.tinypic.com/14iomdf.jpg
Da wird der Takt gegenüber der 4870 whol doch eingeschränkt um nicht auf 300Watt zu kommen.
Damit bestätigt ATI whol auch das TDP des R700.
http://i27.tinypic.com/14iomdf.jpg
Da wird der Takt gegenüber der 4870 whol doch eingeschränkt um nicht auf 300Watt zu kommen.
Nicht unbedingt. Eine Dual-GPU-Karte braucht schon etwas weniger als zwei Single-GPU-Karten. Das kann man nicht einfach mal 2 nehmen.
Damit bestätigt ATI whol auch das TDP des R700.
http://i27.tinypic.com/14iomdf.jpg
Da wird der Takt gegenüber der 4870 whol doch eingeschränkt um nicht auf 300Watt zu kommen.
Abwarten ;) die X2 hat eine TDP von 195W und eine einzelne Hd3870 hat 110W.
Nicht vegessen dabei das die X2 mit 50mhz mehr läuft pro Core
Nakai
2008-06-17, 14:15:57
;6591243']LOL
Vergleich mal Ruby mit dem Krieger aus der Medusa - Demo :P
Okay und dann vergleich mal die Umgebung der ATI-Demo mit der Umgebung der NV-Demo.
ATI hatte schon immer bessere Techdemos, was natürlich nichts über die Performance aussagt.
mfg Nakai
Thunder99
2008-06-17, 14:21:25
Die neue Generation mag ja schön und gut klingen........
aber wer zum Teufel wird mit dieser Rechenpower außer HighEnd-Usern glücklich ?
...
Schon Crysis vergessen mit seiner HW Anforderung? Damit will ich ausdrücken, dass wenn wir mehr Spiele in der Optik haben wollen, wir auch entsprechende HW brauchen (leider).
Und durch AA, AAA/TSSAA bzw TMSAA und AF kann man fast jede Grafikkarte an ihre Grenzen bringen ;)
Wobei ja DirectX 10 durch seine Anforderungen extrem viel Transistoren verschlingt, was für ATI/Nvidia vor Probleme stellt (siehe hohe TDP wenn man viele Einheiten verbaut, um die Performance zu erhöhen. Die Anforderungen an die HW Bauer steigt überproportional zur Verfügung stehende Technologie :(
Nicht unbedingt. Eine Dual-GPU-Karte braucht schon etwas weniger als zwei Single-GPU-Karten. Das kann man nicht einfach mal 2 nehmen.
Da alles doppelt vorhanden ist , kann man das einfach mal 2 nehmen.
Das Schema macht aber schon Sinn. Es sind demnach 160 Vec5 Shader (wie schon länger vermutet) und 40 TMU's. Ich wüsste nicht, wie hier 32 TMU's reinpassen sollten.
Die Sache die mir noch auffällt, ist die ominöse Spalte 5 (von rechts nach links gesehen), bzw. Spalte 2.
Hier ist ein minimal besseres DIE Bild:
http://i.i.com.com/cnwk.1d/i/bto/20080615/amd-rv770-gtx-200-small.jpg
(Ist jetzt auch quadratisch ^^)
Die erste Spalte sind die TMU, keine Diskussion, die 2te könnte dann nach dem chinesischen Schema ein "local data store" sein, das hab ich auf den RV670 Schemata nicht entdecken können, d.h. hieße, der Chinese wußte was er da macht ^^
Dagegen spricht aber die chaotische Darstellung der SPs, die sollten schon ein bisschen besser angeordnet sein ;-)
Aber vielleicht ist eh alles ganz anders ^^
ciao
Alex
Da alles doppelt vorhanden ist , kann man das einfach mal 2 nehmen.
Es ist nicht alles doppelt vorhanden, die Stromversorgung (PWM) zum Beispiel,
diese verbrät nämlich selbst auch Leistung in Form von Abwärme, da es keine 100% Effizienz gibt.
Da alles doppelt vorhanden ist , kann man das einfach mal 2 nehmen.
#635 lesen bitte...und geistigen Horizont erweitern ;)
Jetzt gibts das Video auch zum anschauen:
http://www.amd.com/us-en/assets/content_type/DigitalMedia/AMD_Ruby_S04.swf
Rendered in real-time and interactive, this is a brief video from the first Cinema 2.0 demo, premiered by AMD in San Francisco on June 16, 2008. The interactive demo was rendered by a single PC equipped with two "RV770" codenamed graphics cards powered by an AMD Phenom™ X4 9850 Processor and AMD 790FX Chipset.
Die echte Auflösung sieht man am Screenshot:
http://mms.businesswire.com/bwapps/mediaserver/ViewMedia?mgid=139946&vid=5&download=1
Thx @MR2/P3D
ciao
Alex
Wenn das ein Screenshot ist, dann wurde aber massiv Supersampling drübergebügelt. Das sieht ziemlich nach nem Offline-Render-Konzept aus.
In der Demo wurde Raytracing verwendet.
schaut mal hier: http://www.forumdeluxx.de/forum/showthread.php?p=9309783#post9309783
da zersägt ein HD4850 Crossfire gespann eine GTX280 ;)
w0mbat
2008-06-17, 15:25:59
Und zwar ziemlich übel :D
schaut mal hier: http://www.forumdeluxx.de/forum/showthread.php?p=9309783#post9309783
da zersägt ein HD4850 Crossfire gespann eine GTX280 ;)
zum vergleich eine 280gtx at same settings -> ~15-16fps
Und wie siehts mit Mikrorucklern aus?
War ja klar das die Frage kommt.... was für Microruckler ;)
w0mbat
2008-06-17, 15:49:21
Welche Mikroruckler?
Ich..weiß.....gar..nicht......was..die.......meinen! :)
Hilft es eigentlich die Mikroruckler zu vermeiden, wenn man V-Sync aktiviert?
AnarchX
2008-06-17, 16:03:40
Mikroruckler sind sofern sich bei R700 am MGPU-Konzept nicht etwas getan hat, hier nicht das Thema.
uweskw
2008-06-17, 16:17:35
im Test hat er ja einen AMD Phenom 9850 @ 3Ghz verwendet,CB nen Quad @4Ghz.
kann mir jemand sagen wieviel Unterschied das alleine ausmacht?
In der Demo wurde Raytracing verwendet.
Das glaub ich erst wenn ich das Techpaper lese. Wobei das in so einer eingeschränkten Demo noch am ehesten gehen würde.
im Test hat er ja einen AMD Phenom 9850 @ 3Ghz verwendet,CB nen Quad @4Ghz.
kann mir jemand sagen wieviel Unterschied das alleine ausmacht?
Das sollte schon ein bisschen was ausmachen, aber ich glaube jetzt nicht die Welt. Ein paar Frames würde das AMD-Gespann dann wohl noch mehr machen, aber ich finde es jetzt schon recht eindeutig ;)
AnarchX
2008-06-17, 16:21:46
im Test hat er ja einen AMD Phenom 9850 @ 3Ghz verwendet,CB nen Quad @4Ghz.
kann mir jemand sagen wieviel Unterschied das alleine ausmacht?
Bei den AVG-FPS wohl eher nichts.
Aber durchaus ein beeindruckender Wert, wenn auch der Verbrauch eines 4850CF wohl auch schon knapp bei 200W real liegt.
@Coda:
Schau mal hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=421676
...dort wird über AMDs Cinema 2.0 Erlebnis diskutiert.
anddill
2008-06-17, 16:30:28
wenn ATI auf der HD48xxX2 kein AFR mehr verwendet, sind sie technologisch wirklich weit vorne
Wohl eher da, wo 3DFX schon vor Jahren war.
SavageX
2008-06-17, 16:34:59
Wohl eher da, wo 3DFX schon vor Jahren war.
Solche "simplen" "Rasterizer" gemeinsam ein Bild zusammensetzen zu lassen mag aber noch vergleichsweise einfach zu sein.
Nakai
2008-06-17, 16:46:11
Und zwar ziemlich übel :D
Wow, aber ich will echt erstmal mehr Benches sehen.
mfg Nakai
€: Langsam zeichnet es sich doch ab, der RV770 ist deutlich stärker als erwartet.
Morgen mit dem finalen Catalyst 8.6 wird die Performance des RV770 noch ansteigen, und noch mehr im CrossFire-Verbund... "HD4870X2, der Zerstörer"!
OBrian
2008-06-17, 17:48:40
Kann es sein, daß ich die erste Geizhals-Listung der 4850 entdeckt habe?
http://geizhals.at/eu/a344810.html
Vielleicht auch ein (absichtlicher?) Fehler, auf der Seite des Shops taucht die Karte noch nicht auf.
Die Preise (169-179€) klingen schon jetzt sehr gut...
Hoffentlich holt sich tombman 2x (:massa:) die HD4870X2 (:massa:) und bringt ein paar ordentliche Benchmarks :D
w0mbat
2008-06-17, 17:51:21
Und noch mit den falschen Angaben...
Schlammsau
2008-06-17, 17:59:10
Und noch mit den falschen Angaben...
auf Geizhals sind oft falsche Angaben......
aber diese Preise! :eek:
Sie ist jetzt schon für 169€ zu haben! Wahnsinn!
http://powerpointonline.de/product_info.php/info/p444_Powercolor-HD4850-512mb-GDDR3-Retail.html/XTCsid/2b079ab5455e2c6f32c8584a8d1ce460
da habens schon einige her und im rechner
für 360,-€ die GTX280 platt machen, nett :)
HD 4870 X2 wird noch schneller und angeblich keine Mikrorukler haben, DAS ist nett.
Sorkalm
2008-06-17, 18:53:27
Jetzt geht das Gehype wieder los...
Bisher spricht wenig dafür, dass die Mikroruckler abgeschafft wurden.
HD 4870 X2 wird noch schneller und angeblich keine Mikrorukler haben, DAS ist nett.
ja weil beide gpu auf nen gemeinsamen speicher zugreifen, aber die 4870x2 kommt erst in 3 monaten so die richtung
Schlammsau
2008-06-17, 18:59:53
:))))))))))))))))))))))))
http://www.forum-3dcenter.org/vbulletin/showthread.php?goto=newpost&t=421736
Birdman
2008-06-17, 19:11:19
ja weil beide gpu auf nen gemeinsamen speicher zugreifen, aber die 4870x2 kommt erst in 3 monaten so die richtung
Was soll das gegen Mikroruckler bringen?
Ich sehe da keinerlei direkten Einfluss auf das Problem, welches eben durch die AF Rendering Methode entsteht.
Zudem besteht auf jedenfall immer noch das "Problem" dass sich die Latenz um min. 1 Frame erhöht.
OgrEGT
2008-06-17, 19:12:48
Hat das jemand schon gesehen?
"In perhaps the most dramatic difference with past practices, AMD will break with the tradition of delivering a high-end part then evolving lower end devices from it. Instead it will launch a part aimed at the graphics mainstream with a proprietary interconnect that links two chips on a board to deliver top performance."
http://www.eetimes.com/news/latest/showArticle.jhtml;jsessionid=TIWT24HVFWPGMQSNDLSCKHA?articleID=208404063
Ein proprietary interconnect liest sich für mich wie ein Chip-internes Interface zur Kommunikation mehrerer RV770 GPU's (a la Hypertransport). Kann das einer der Fachleute hier auf dem "Die-Shot" der vorhin gepostet wurde erkennen?
Kriton
2008-06-17, 19:26:39
Mir würde ja schon eine einfache 4870 mit 1 GB RAM genügen, aber selbst die wird es am Anfang wohl noch nicht geben - ich hoffe, ich kann mich lange genug beherrschen ;-)
Eine proprietäre Schnittstelle ist auch SLI und Crossfire.
Vielleicht wurde aber tatsächlich eine UMA Speicherschnittstelle in Zusammenarbeit mit dem Hypertransport Team verwirklicht.
Zumindest sind die I/O Bereiche des Chips riesig.
http://img3.imagebanana.com/img/bx786bo5/news_4850erly3.jpg (http://img3.imagebanana.com/)
OgrEGT
2008-06-17, 19:31:52
... könnte das nicht bedeuten, dass beim r700 beide rv770 GPU's direkt verbunden werden können ? :eek:
Gen. Jack O'Neill
2008-06-17, 19:31:58
Will mir auch die 4870 mit 1GB kaufen und hoffe das es auch nicht zu lange dauern wird bis die Karte kommt. Auf jedenfall verabschiede ich mich schon mal von meiner 7800GT Extreme Gamer und von Nvidia;D:P
Das würde Effizienz zwar steigern aber gegen Microruckler muss das nicht helfen...
Mit 2 X2 Karten müsste man trotzdem über PCIe Bus gehen. So oder so - microruckler bleiben.
OgrEGT
2008-06-17, 19:36:38
Naja, obwohl... wie wäre denn die Skalierung von 2 direkt verbundenen GPU's ? Müsste die dann nicht bei 100% liegen? Das würde eher den bisherigen Spekulationen entgegen laufen, da eine Skalierung von "nur" ca. 70-80% diskutiert worden ist... Bitte korrigieren wenn ich mich irre :wink:
OgrEGT
2008-06-17, 19:40:13
MR hin oder her... Auch wenn 2 GPU's unabhängig voneinander Bilder berechnen, und die Info's dann beide im gemeinsam nutzbaren Speicher ablegen, dann müsste man doch "nur" per Treiber regeln, dass diese synchronisiert ausgegeben werden. Ich denk mal, das kann eine lösbare Aufgabe gewesen sein...:D
Hat das jemand schon gesehen?Jo vor ca. 5 oder 10 Seiten ^^ Da gabs dann die Mahnung vom Admin, dass das hier kein Microruckel Thread ist .. dafür gäbe es schon 5000 andre ;-)
@Gauß: Danke fürs Bild, damit ist jetzt deutlich zu erkennen,dass das nur 4 Spalten SPs sind, also 800 SPs gesamt .. endlich Ende mit der Spekulation.
ciao
Alex
Der_Korken
2008-06-17, 19:49:48
Ohne genaueres zu wissen, könnte man ja mutmaßen, dass man es geschafft hat, ein anderes Verfahren als AFR bei akzeptabler Geschwindigkeit zum laufen zu bekommen. Auch wenn ich das persönlich für sehr gewagt halte, aber damit wären die Mikroruckler bei der X2 zumindest schon mal weg.
OgrEGT
2008-06-17, 19:50:59
Mir gings nicht in erster Linie um MR, sondern mehr um die Skalierung, die man dadurch erreichen könnte.
Gen. Jack O'Neill
2008-06-17, 20:11:40
Bei Geizhals ist die erste 4870 drin allerdings noch ohne Händler und Preis:
http://geizhals.at/deutschland/a344814.html
Bei Geizhals ist die erste 4870 drin allerdings noch ohne Händler und Preis:
http://geizhals.at/deutschland/a344814.html
Wo die nur immer die Info über den Shadertakt herhaben ... ist mir schon bei der 4850 aufgefallen, jetzt bei der 4870 wieder:
Chiptakt: 850MHz, Speichertakt: 1935MHz, Shadertakt: 1050MHz • Chip: RV770 XT • Speicherinterface: 256-bit • Stream-Prozessoren: 480Naja geizhals halt ..
ciao
Alex
w0mbat
2008-06-17, 20:27:13
Ich habe gemukel gehört das AMD den HD4850 Start vorverlegt, vielleicht sogar auf morgen.
Da die HD4850 schon zu haben ist, egal ;)
Aber warum sollte man das tun, bisher gabs immer ein Family launch und da wird wohl kaum nur die HD4850 vorgestellt. Wenn dann beide Karten, gibts eigentlich eine HD4830?
Weil die defekten GPUs wandern ja nicht aufn Müll, können ja auch verbaut werden.
Eine proprietäre Schnittstelle ist auch SLI und Crossfire.
Vielleicht wurde aber tatsächlich eine UMA Speicherschnittstelle in Zusammenarbeit mit dem Hypertransport Team verwirklicht.
Zumindest sind die I/O Bereiche des Chips riesig.
Unwahrscheinlich, der Bus muss doch drücken wie die Pest (+100GB/sec).
Das man das intern hinbekommt, vor RV870 war bisher unwahrscheinlich aber mal schaun. Dürfte auch eine Yield Frage irgendwo sein, denn HD4850/4870 Karten wollen auch gebaut werden und so üppig war die Yield bisher nicht in 55nm.
Adam D.
2008-06-17, 20:38:38
Wer weiß schon, wann die HD4870 wirklich verfügbar ist, könnte gut sein, dass erstmal mit der HD4850 (GDDR3 halt) angefangen wird ...
ähm - war da nicht was mit dem 8.6 Final?
BTW. wäre es möglich, dass die x2 allein schon von der Konzeption sich von herkömlichen Dualcore-GPUVarianten unterscheidet, z.B. sich afr also gar nicht mehr eine Frage in sich stellt?
Adam D.
2008-06-17, 20:42:21
ähm - war da nicht was mit dem 8.6 Final?
BTW. wäre es möglich, dass die x2 allein schon von der Konzeption sich von herkömlichen Dualcore-GPUVarianten unterscheidet, z.B. sich afr also gar nicht mehr eine Frage in sich stellt?
Für den R700 unwahrscheinlich, weil quasi kein RnD reingeflossen ist, aber ausschließen kann man nach dem G200 ja IMO gar nichts mehr :|
horn 12
2008-06-17, 20:51:40
Ja Karten sind schon in gar einigen Händen, da gibt es kein Halten mehr,- und keinen Grund die Karten nicht sofort der Öffentlichkeit vorzustellen
Könnte echt hjnkommen morgen mit dem HD4850/4870 Lauch und dem Cat 8.6 Treiber am Mittwoch
(erneut Launch und Neuer Treiber am Mittwoch wie fast schon zur Gewohnheit).
Die HD4870 würde sicher ein mehr oder minderer Paperlaunch mit geringsten Stückzahlen diese Woche aber in 2 Wochen dann recht ordentlich verfügbar.
Hoffe dass meine ital. Händler morgen schon was haben.... dann bestelle ich sogleich die 4850 oder gar 4870-er !! Juhuu:biggrin:
anddill
2008-06-17, 21:19:19
Mit einem schnellen wechselseitigen Zugriff auf den jeweils anderen Framebuffer könnte man effizient mit Tiles oder Scissor arbeiten.
Mit einem schnellen wechselseitigen Zugriff auf den jeweils anderen Framebuffer könnte man effizient mit Tiles oder Scissor arbeiten.
Aber bei Quad CF muss man dann wieder AFR verwenden.
Nakai
2008-06-17, 21:42:52
Eine proprietäre Schnittstelle ist auch SLI und Crossfire.
Vielleicht wurde aber tatsächlich eine UMA Speicherschnittstelle in Zusammenarbeit mit dem Hypertransport Team verwirklicht.
Zumindest sind die I/O Bereiche des Chips riesig.
http://img3.imagebanana.com/img/bx786bo5/news_4850erly3.jpg (http://img3.imagebanana.com/)
Sehr schön.
4 SIMDs mit je 200SPs und natürlich 10 TMU-Quads, also 40 TMUs.
Und 4 ROP-Quads, welche man auch sehr schön sieht.
Hat für mich ne beeindruckende Ähnlichkeit mit dem hier:
http://imageupload.com/out.php/i129316_archrv770.jpeg
;)
mfg Nakai
Aber bei Quad CF muss man dann wieder AFR verwenden.
Richtig, aber nur zwischen den beiden Karten und nicht zwischen den 4 GPUs, dh nur normale CF und nicht Quad-CF.
Gibts eigentlich zur HD4850 schon User OC Berichte?
Ne Strommessung wäre auch nice, damit würde man etwas mehr mutmaßen können, wie die HD4870 aussieht. Ich werd mir wohl einfach eine HD4870 und eine GTX260 holen und dann loslegen, wer leiser ist ^^
Richtig, aber nur zwischen den beiden Karten und nicht zwischen den 4 GPUs, dh nur normale CF und nicht Quad-CF.
Das kann ich mir irgendwie schlecht vorstellen. Ein Frame wird also erst einer Grafikkarte zugeteilt die dann dieses Bild nochmal teilt. Das gibt glaube ich mehr Lag wie mit normalem AFR.
Für den R700 unwahrscheinlich, weil quasi kein RnD reingeflossen ist...
Dass man auf das Gesappel nix geben kann sollte inzwischen klar geworden sein. So ziemlich alles gegenteilige ist eingetreten von dem was da zuvor so von unseren "Insidern" zu lesen war. Von daher glaube ich auch die R&D Verzichts-Mähr nicht mehr.
PS: Effizienz definiert sich aus dem Verhältnis von Aufwand und Ertrag. Gute Leute können auch ohne das Geld aus dem Fenster zu werfen was ordentliches auf die Beine stellen.
AnarchX
2008-06-17, 22:38:11
Sehr schön.
4 SIMDs mit je 200SPs und natürlich 10 TMU-Quads, also 40 TMUs.
Und 4 ROP-Quads, welche man auch sehr schön sieht.
Hat für mich ne beeindruckende Ähnlichkeit mit dem hier:
http://imageupload.com/out.php/i129316_archrv770.jpeg
;)
Nur dumm, dass die Fillrate-Tests 32 TMUs sagen. ;)
Nur dumm, dass die Fillrate-Tests 32 TMUs sagen. ;)
Drauf geschissen. ;) Schon 32 TMUs gewährleisten die doppelte Füllrate – und das wird garantiert einschlagen. Die 4800-er werden höhere Auflösungen noch souveräner stemmen und diesmal mit AF nicht so krass einbrechen.
MfG,
Raff
AnarchX
2008-06-17, 22:44:56
Drauf geschissen. ;) Schon 32 TMUs gewährleisten die doppelte Füllrate – und das wird garantiert einschlagen. Die 4800-er werden höhere Auflösungen noch souveräner stemmen und diesmal mit AF nicht so krass einbrechen.
Was aber auch wieder bedeutet, dass man beim AF nicht mit Nvidia gleichziehen wird.
Was aber auch wieder bedeutet, dass man beim AF nicht mit Nvidia gleichziehen wird.
Sieht man bei Spielen sowieso nicht.;)
Was aber auch wieder bedeutet, dass man beim AF nicht mit Nvidia gleichziehen wird.
Wer weiß, vielleicht ist A.I. Off mit der 4800-Serie wieder tatsächlich "off"? In Sachen Sparfiltern meine ich.
Sieht man bei Spielen sowieso nicht.;)
Falsch. Du siehst es nicht – beneidenswert. ;(
MfG,
Raff
AnarchX
2008-06-17, 22:52:54
Wer weiß, vielleicht ist A.I. Off mit der 4800-Serie wieder tatsächlich "off"? In Sachen Sparfiltern meine ich.
Die Sache ist wohl eher, dass R6xx nicht besser filtern kann von der HW. Jedenfalls hat das Eric Demers mal verlauten lassen.
OBrian
2008-06-17, 22:56:24
AMD muß doch für das Fusion-Projekt die Grafikkerne kompatibel machen mit dem CPU-Kernen. So wie das schon mal kolportiert wurde (ältere AMD-Folien), werden dabei einfach von einem normalen Phenom 2 der 4 Kerne durch GPUs ersetzt. Jetzt nehmen wir nur mal für eine Sekunde an, die Grafikkerne hätte dann die gleiche Verbindung die CPU-Kerne untereinander - und bei allen Schwächen des Phenom ist gerade das Verhalten bei Multithreading sehr gut, die interne Verbindung also sehr leistungsfähig.
Und die CPU-Kerne hängen ja auch an einem gemeinsamen Memorycontroller. AMD muß also "nur" geschickterweise die beiden Memorycontroller von beiden RV770 so logisch zusammenfassen, daß ein gemeinsamer entsteht, auf den beide Rechenwerke zugreifen können.
Dafür würde auch sprechen, daß es als proprietäres Protokoll bezeichnet wurde, Hypertransport ist aber offen, es muß also was anderes sein.
Mit einem schnellen wechselseitigen Zugriff auf den jeweils anderen Framebuffer könnte man effizient mit Tiles oder Scissor arbeiten.Das würde dann so ganz nebenbei das Mikroruckler-problem lösen, was vielleicht einfach durch die höhere Latenz des PCIe entsteht (der ja nie als Chip-Interconnect gedacht war).
Ach ja, und die verbaute RAM-Menge kann auch halbiert werden, man braucht ihn ja nicht mehr doppelt. Spart vielleicht auch ein paar Dollar pro Board ;) Damit wäre dann eine X2 von Preis her auch unterhalb des Doppelten einer Einzelkarte wirtschaftlich.
AnarchX
2008-06-17, 23:02:42
Vantage Featuretest HD4870 vs HD4850:
http://img139.imageshack.us/img139/6405/rv770xtvspromk2.jpg
Dank GDDR5 können sich die ROP hier wohl nun voll entfalten. ;)
Aquaschaf
2008-06-17, 23:03:30
Die Sache ist wohl eher, dass R6xx nicht besser filtern kann von der HW.
Was ja nicht ausschließt dass RV770 es wieder kann. Ich hoffe zumindest darauf.
davidzo
2008-06-17, 23:03:44
Was soll das gegen Mikroruckler bringen?
Ich sehe da keinerlei direkten Einfluss auf das Problem, welches eben durch die AF Rendering Methode entsteht.
Zudem besteht auf jedenfall immer noch das "Problem" dass sich die Latenz um min. 1 Frame erhöht.
Falsch, es gibt schon lange modi, welche ohne AFR auskommen. 3dfx hat es vorgemacht, aber auch ATi hat einen Modus, der ohne AFR und ohne Latenzen auskommt, wenn auch völlig anders aufgebaut als 3dfxs legendärer modus: Supertiling. Der Nachteil von Supertiling war jedoch bisher, dass es im gegensatz zu AFR ineffizienter war, was bei genauerer betrachtung auch logisch erscheint, schließlich müssen texturen und geometrie jeweils doppelt geladen werden. Bei AFr hatte man immerhin den Vorteil, dass man die speicherbandbreiten addieren konnte, d.h. trotz dass die gleichen texturen geladen werden hatte man quasi eine speicherbandbreite von 2x 256bit, da die zweite karte ja am zweiten frame rechnet. Bei Super-tiling dagegen hat man eher 1x 256bit, da alle texturen doppelt geladen sind und am selben Frame gerechnet wird.
Das würde Effizienz zwar steigern aber gegen Microruckler muss das nicht helfen...
Mit 2 X2 Karten müsste man trotzdem über PCIe Bus gehen. So oder so - microruckler bleiben.
Wie ich schon sagte, bei Supertiling oder einem ähnlichen Modus wirds keine Mikroruckler geben, dafür sorgen alleine schon die vielen tiles.
Mit einem sinnvollen memorysharing wäre es möglich bei Supertiling texturen nur einmal in den Vram der x2 karte zu laden und nicht doppelt, was nicht nur die speicherbandbreite verdoppelt (vorrausgesetzt der crosslink ist so schnell wie die speicherbandbreite eines rv770), sondern auch das bisherige speichermengenproblem behoben.
Damit könnte man auch ein wenig Energieeffizienz bekommen. Während eine 4870 1GB DDR5 enthält könnte die x2 ebenfalls mit 1GB auskommen und würde damit genausogut dastehen wie 2x 4870 1gb im CF. damit spart man sich die energie von 512mb GDDR5.
Nur dumm, dass die Fillrate-Tests 32 TMUs sagen. ;)
Ich dachte jetzt die fillratetests sagen 38,3?
Falsch. Du siehst es nicht – beneidenswert.
Nu mach abe rmal halblang, wir haben fast ein jahr gebraucht um die reduzierte filterwuali der 9600 gegenüber der 9700 zu bemerken. Und beim 9700 hat auch niemand gemeckert und der hatte ein viel viel schlechteres AF.
Dagegen sind die Unterschiede heutzutage minimal
Und im gegensatz zu den Grafikkarten werden deine Augen nicht besser. Was du also beim r300 kaum gesehen hast und jetzt behoben ist, wirst du jetzt auch nicht mehr erkennen, das ist doch nur gefasel.
w0mbat
2008-06-17, 23:06:55
Vantage Featuretest HD4870 vs HD4850:
http://img139.imageshack.us/img139/6405/rv770xtvspromk2.jpg
Dank GDDR5 können sich die ROP hier wohl nun voll entfalten. ;)
Sehr schön =)
Könnten das nicht schon mehr als 16 ROPs bei der HD4870 sein?
Vantage Featuretest HD4870 vs HD4850:
http://img139.imageshack.us/img139/6405/rv770xtvspromk2.jpg
Dank GDDR5 können sich die ROP hier wohl nun voll entfalten. ;)
Warum ist die 4870 denn in GPUTest 1 und 2 langsamer :confused:
Ist die 4870 nun doch schon verfügbar, oder woher stammt das Bild?
pXe
Superheld
2008-06-17, 23:08:15
Vantage Featuretest HD4870 vs HD4850:
http://img139.imageshack.us/img139/6405/rv770xtvspromk2.jpg
Dank GDDR5 können sich die ROP hier wohl nun voll entfalten. ;)
net schlecht:smile:
aber warum sind die GPU Tests so niedrig ?
..huch pXe hat die selbe Frage:redface:
AnarchX
2008-06-17, 23:10:08
net schlecht:smile:
aber warum sind die GPU Tests so niedrig ?
..huch pXe hat die selbe Frage:redface:
http://www.tweaktown.com/popImg.php?img=news_4850erly1.jpg
http://www.tweaktown.com/news/9691/index.html
Offenbar kein Performance-Setting, aber die Featuretest werden vom Setting nicht beeinflusst.
Gaestle
2008-06-17, 23:12:54
Sehr schön =)
Könnten das nicht schon mehr als 16 ROPs bei der HD4870 sein?
Woraus schließt du das? Es sind doch im Vgl. zur 4850 "nur" ca. 20-30% mehr (Ausahme Featuretest 2 mit ca. 60%+). Kann das nicht auch dem Takt geschuldet sein? Die fps der GPU-Tests sehen in dem Shot nicht so gut aus. Treiberproblem? CPU Unterschiede?
AnarchX
2008-06-17, 23:13:50
Sehr schön =)
Könnten das nicht schon mehr als 16 ROPs bei der HD4870 sein?
Nein, es sind wohl wie lange vermutet nun eben 4 Zixel pro ROP, anstatt 2 bei RV670. Zusammen mit der Bandbreite von 100GB/s erreicht man halt so einen netten Score.
Ich dachte jetzt die fillratetests sagen 38,3?
Auf welchen Test beziehst du dich?
Hab bis jetzt nur Werte mit <(32*625) gesehen.
Sorkalm
2008-06-17, 23:50:23
http://www.tweaktown.com/news/9691/index.html
Das mit dem Speichertakt der 4870 kann noch lustig werden.
900 MHz Commandclock, den AMD auf einer Folie schon zu "realen" 1800 MHz gemacht und dann sicherlich von Marketingfetischisten zu 3600 MHz "effektiven" Takt verändert wird. ;D
Das mit dem Speichertakt der 4870 kann noch lustig werden.
900 MHz Commandclock, den AMD auf einer Folie schon zu "realen" 1800 MHz gemacht und dann sicherlich von Marketingfetischisten zu 3600 MHz "effektiven" Takt verändert wird. ;DNaja, die Datenübertragung läuft doch dann auch mit "echten" 1800 Mhz, mit dem DDR Verfahren dann -> 3,6 "GigaTransfers"
http://www.qimonda-news.com/download/Qimonda_GDDR5_whitepaper.pdf
ciao
Alex
Dafür würde auch sprechen, daß es als proprietäres Protokoll bezeichnet wurde, Hypertransport ist aber offen, es muß also was anderes sein.Für Speichertransfers brauchst Du coherent Hypertransport, das ist aber nicht frei ;-)
Allerdings ist es für ne X2 wohl zu langsam, HT3 schafft maximal bei 2x32bit 41,6 GB/s 20,8 pro Richtung, das ist nicht wirklich viel. Für Fusion sicherlich genug, aber bei der X2/R700 eher nicht :(
Eventuell wurde der Ringbus irgendwie erweitert ?
ciao
Alex
Sorkalm
2008-06-18, 00:15:42
Naja, die Datenübertragung läuft doch dann auch mit "echten" 1800 Mhz, mit dem DDR Verfahren dann -> 3,6 "GigaTransfers"
http://www.qimonda-news.com/download/Qimonda_GDDR5_whitepaper.pdf
Was aber nicht heißt, dass es nicht zur Verwirrung führen kann. Im CMOD-System gibt AMD für GDDR5 nun mal 900 MHz an - und das liest GPU-Z zur Zeit auch. Auf der Marketingfolie stand hingegen 1800 MHz. Bin mal gespannt wie sich das entwickelt.
900 MHz? Damit brauchen die gar nicht anzutraben. 900 MHz hat höchstens die 4850. Die Karten im Umlauf takten aber mit knapp einem Gigahertz und haben demnach günstigen GDDR3 an Board.
MfG,
Raff
AnarchX
2008-06-18, 00:59:46
Das ist wie schon erwähnt, der interne Command-Takt, extern sind es 1.8GHz.
seahawk
2008-06-18, 07:09:16
Das Ding rockt aber ziemlich.
Das ist wie schon erwähnt, der interne Command-Takt, extern sind es 1.8GHz.
Öhm, mit intern und extern hat das nichts zu tun, sind einfach 2 Takte, die an nem GDDR5 Chip anliegen, beide extern:
2.1 Clocking
GDDR5 operates with two different clock types. A differential command clock (CK) to where address and command inputs
are referenced, and a forwarded differential write clock (WCK) where read and write data are referenced to. Being more
precise, the GDDR5 SGRAM uses two write clocks, each of them assigned to two bytes. The WCK runs at twice the CK
frequency. Taking a GDDR5 with 5 Gbps data rate per pin as an example, the CK clock runs with 1.25 GHz and WCK with
2.5 GHz. The CK and WCK clocks will be aligned during the initialization and training sequence. This alignment allows read
and write access with minimum latency.
AMD verbaut jetzt auf der 4870er 4 Gbps Quimonda Teile und betreibt sie mit 3,6 Gbps -> 900 MHz Command Takt, 1800 MHz Data Takt. Plus der DDR Übertragung kommt man dann auf 3600 Megatransfers/s. Nachdem die Speicherchips für 4 Gbps freigegeben sind sollte das Übertakten auf 1 GHz command, 2 GHz Datentakt ziemlich problemlos möglich sein.
ciao
Alex
Die HD4850 mit GDDR3 (Quimonda 0.8 ns ) geht ohne Probleme auf 1100 Mhz (2200 Mhz).
Schlammsau
2008-06-18, 09:25:14
Ich habe gemukel gehört das AMD den HD4850 Start vorverlegt, vielleicht sogar auf morgen.
Bin ich gespannt! :smile: :cool:
Ich will die Techdemo, Karten sind am Start aber Dmeo fehlt :love:
Vantage Featuretest HD4870 vs HD4850:
http://img139.imageshack.us/img139/6405/rv770xtvspromk2.jpg
Dank GDDR5 können sich die ROP hier wohl nun voll entfalten. ;)
Beyond3D hat das noch ein wenig ausführlicher mit extreme settings:
Originally Posted by whocares
HD4850 vs 4870
GT1 : 8.62 - 12.57 - 146%
GT2 : 7.13 - 12.72 - 178%
FT1 : 651.67 - 779.86 - 120%
FT2 : 3.41 - 5.49 - 161%
FT3 : 18.11 - 20.58 - 114%
FT4 : 14.23 - 17.02 - 120%
FT5 : 27.59 - 33.58 - 122%
FT6 : 48.92 - 53.73 - 110%
GPU Score : 2692 - 4316 - 160%
4870 = x4316 WOW³!!!!!!!
tombman
2008-06-18, 09:57:50
Beyond3D hat das noch ein wenig ausführlicher mit extreme settings:
4870 = x4316 WOW³!!!!!!!
fake.
AnarchX
2008-06-18, 09:59:28
Fragt sich nur wo die Sicherheit her kommt, dass es das Extreme-Setting war.
Jedenfalls stand da nichts davon bei Tweaktown, die mitterlerweile die Bilder entfernt haben.
Imo wird es wohl eher High sein, wofür auch der zu große Unterschied zur 4850 spricht. ;)
tombman
2008-06-18, 10:01:23
Wenn AMD von +30% spricht und die feature Tests sogar darunter sind (bis auf einen), wie kann es dann beim X Wert +60% sein :rolleyes:
http://www.tweaktown.com/popImg.php?img=news_4850erly1.jpg
http://www.tweaktown.com/news/9691/index.html
Offenbar kein Performance-Setting, aber die Featuretest werden vom Setting nicht beeinflusst.
Habt Ihr die 4316 Punkte beim GPU-Score gesehen? Sieht nach Extreme Settings aus. Das wäre dann GTX280-Niveau für die 4870!
tombman
2008-06-18, 10:06:02
Habt Ihr die 4316 Punkte beim GPU-Score gesehen? Sieht nach Extreme Settings aus. Das wäre dann GTX280-Niveau für die 4870!
Das kann gar kein extreme setting sein, sonst würde da nicht 0 sondern ein X-Wert stehen...
AnarchX
2008-06-18, 10:07:14
@ Gast
Wie wäre es mal die letzten Postings zu lesen?
Extreme skaliert wohl kaum 1:1 mit der Bandbreite, dafür ist die Rechenlast zu hoch.
edit:
Hier nochmal das mittlerweile entfernte Bild von TT:
http://img511.imageshack.us/img511/4167/20080618655a226064c2733hj1.jpg
Das kann gar kein extreme setting sein, sonst würde da nicht 0 sondern ein X-Wert stehen...
Wie kann es dann sein, dass da 0 steht?
tombman
2008-06-18, 10:09:35
2700 * 1.3 = 3500...
tombman
2008-06-18, 10:10:25
Wie kann es dann sein, dass da 0 steht?
Indem ein CUSTOM setting gewählt wurde. Sprich eine EInstellung, die keinem der 4 möglichen presets entspricht.
AnarchX
2008-06-18, 10:12:48
Indem ein CUSTOM setting gewählt wurde. Sprich eine EInstellung, die keinem der 4 möglichen presets entspricht.
Da scheinst du Recht zu haben, denn für High wäre der Score wohl zu niedrig und für Extreme wieder zu hoch.
Die HD4850 mit GDDR3 (Quimonda 0.8 ns ) geht ohne Probleme auf 1100 Mhz (2200 Mhz).
Die bauen da 0,8er-Speicher (spezifiziert bis 1.250 MHz!) un lassen den mit einem knappen Gigahertz laufen ... WTF?
MfG,
Raff
tombman
2008-06-18, 10:16:38
Ich habe doch selbst schon mit den extreme settings, aber auf 1280x800 getestet -> da kommt dann ebenfalls 0 heraus.
Ich habe die Formeln ja hier. Gpu und Cpu Score können aufgrund der Konstanten IMMER berechnet werden, aber erst die GEWICHTE der presets erlauben einen 3DMark Score.
2700 * 1.3 = 3500...
So einfach wird es wohl nicht sein. In Extremfällen könnten es durchaus auch mehr als 30% sein, so wie bei dem einen Featuretest (+60%).
2700 * 1.6 = 4320 (komisch, entspricht genau dem GPU-Score)
tombman
2008-06-18, 10:31:53
So einfach wird es wohl nicht sein. In Extremfällen könnten es durchaus auch mehr als 30% sein, so wie bei dem einen Featuretest (+60%).
2700 * 1.6 = 4320 (komisch, entspricht genau dem GPU-Score)
Der Score ohne dem X bedeutet einen Scheißdreck ;)
Und was ist wohl wahrscheinlicher: eine AMD Aussage oder ein einzelner feature test? :rolleyes:
In der AMD Folie rangiert eine HD4870 UNTER einer GX2...
"Radeon 4850 scores 6400 in 3Dmark Vantage default settings and it drops to 3680 points when you crank up the resolution to 1920x1200 and turn the anisotropic on. Radeon 4870 scores close to 4600 points at these settings"
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7973&Itemid=1
AnarchX
2008-06-18, 10:34:43
Nur ist das Extreme-Setting nicht einfach 1920x1200 und 16xAF eingestellt.
Und laut Fuad liegt doch der Unterschied in diesem Custom-Setting bei ~25%.
tombman
2008-06-18, 10:34:53
"Radeon 4850 scores 6400 in 3Dmark Vantage default settings and it drops to 3680 points when you crank up the resolution to 1920x1200 and turn the anisotropic on. Radeon 4870 scores close to 4600 points at these settings"
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7973&Itemid=1
Kannst Englisch? Ja, dann übersetz mal ;)
Nur ist das Extreme-Setting nicht einfach 1920x1200 und 16xAF eingestellt.
Und laut Fuad liegt doch der Unterschied in diesem Custom-Setting bei ~25%.
4600 * 0.75 = 3500 ;)
Sorkalm
2008-06-18, 10:36:17
Die bauen da 0,8er-Speicher (spezifiziert bis 1.250 MHz!) un lassen den mit einem knappen Gigahertz laufen ... WTF?
Läuft wahrscheinlich mit gesenkter Spannung, um die Leistungsaufnahme zu senken. Außerdem entstehen so Reserven für die AIBs. Das hat AMD schon öfter gemacht.
tombman
2008-06-18, 10:38:12
FUAD!!!
"Overall Radeon 4870 look 10 to 20 percent faster than the GDDR3 based 4850"
4600 * 0.75 = 3500 ;)
Selbst wenn es 3500 sind, ist es ein guter Wert. Die GTX280 schafft auch nur X4200. Die Werte, die mit dem "Cheattreiber" erreicht wurden interessieren mich nicht die Bohne.
Dazu passt auch diese Meldung:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7975&Itemid=1
Damit ist Nvidia für mich gestorben, denn sowas ist einfach kein Geschäftsgebaren.
tombman
2008-06-18, 10:48:02
Selbst wenn es 3500 sind, ist es ein guter Wert. Die GTX280 schafft auch nur X4200.
X4800, keinen Punkt weniger ;)
Und ATI wird SICHER alles tun um ihre vantage scores ebenso zu pushen, da kannst sicher sein.
Der Cat 8.6 soll ja bald kommen, da wird sich SICHER was in vantage abspielen...
X4800, keinen Punkt weniger ;)
Und ATI wird SICHER alles tun um ihre vantage scores ebenso zu pushen, da kannst sicher sein.
Der Cat 8.6 soll ja bald kommen, da wird sich SICHER was in vantage abspielen...
Deswegen sind Vantage-Werte auch total uninteresant.
tombman
2008-06-18, 10:57:54
Deswegen sind Vantage-Werte auch total uninteresant.
Total uninteressant ist da gar nix.
Glaubst vielleicht in Crysis wird nicht optimiert auf Teufel-komm-raus?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.