Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - R8xx im Q4 2008, Multicore und 45/40 nm


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 [16] 17 18 19 20 21 22 23

Gast
2009-09-11, 10:13:47
Fassen wir das mal zusammen.
- Matrox TripleHead obsolet (250€)
- NV Mosaic SLI per Framelock obsolet, maximal 9 Bildschirme (10.000$)
- 24 Bildschirme maximum, ohne jede Alternative zur Zeit
Sicherlich eine tolle Nische und für spezielle Anwendungsfälle einfach nur gut, aber so ganz am Rande würden mich langsam doch mal Randthemen wie AF-Qualität und Spieleleistung interessieren. Ob Matrox damit der Todesstoß versetzt wurde, steht und fällt wahrscheinlich mit der Treiberqualität, vom Flugsimulatorkeller abgesehen muss das einfach robust² laufen.

An rahmenlose Displays glaube ich so schnell auch nicht, aber womöglich packt der eine oder andere Hersteller 3 Stück in einen gemeinsamen Rahmen, würde sich ja anbieten und AMD hätte etwas hübsches auf den Weg gebracht.

reunion
2009-09-11, 10:15:57
Da sich ja jetzt sowieso herausgestellt hat, dass die Geschichte mit Crysis und "5.670 x 2.160 Pixeln mit maximalen Details bei 60 Bildern pro Sekunde mit einer Grafikkarte" Unfug war, hat sich das mit den vielen Monitoren eigentlich auch erledigt. 250% der Leistung einer 4870 reicht dann hoechstens fuer einen Screen mit ein wenig SSAA... ;(

Mal abwarten wie die Umstände sind. Gespielt hat man es auf jeden Fall in der Auflösung und das laut Aussagen der dort anwesenden auch flüssig:

http://img3.imageshack.us/img3/2505/89134826.jpg (http://img3.imageshack.us/i/89134826.jpg/)

][immy
2009-09-11, 10:16:41
Quake3:

http://www.ultrashock.com/images/v1/images_fun/multimonitor.jpg


öhm steht da 15 fps?

edit:
Das hat doch mit den neuen ATI-Karten nichts zu tun...

http://www.metacafe.com/watch/435350/quake_3_multimonitor/
na dann bin ich beruhigt

Gouvernator
2009-09-11, 10:16:45
Ich kannn euch versichern das die Ränder am wenigsten stören. Ich habe 3x22" CRTs mit dicken Rändern über 5cm... Das stört villeicht erste halbe Stunde Spielzeit. Ich habe dann mal in die Mitte mein 24" TFT gestellt und es hat dann praktisch überhaupt nicht mehr gestört. Man starrt ehe nur in die Mitte des Monitors die Ränder werden beim Spielen vom Gehirn recht gut gefiltert...

reunion
2009-09-11, 10:21:16
[immy;7525130']öhm steht da 15 fps?

Ist kein Eyefinity, siehe die nächsten Beiträge. Mein Fehler.

LovesuckZ
2009-09-11, 10:24:37
Im Beyond3d.com Forum gibt es ein Bild, auf dem man ein 8x und 6x Pin Anschluss sieht.
Und es soll laut AnarchX keine x2 sein...

http://i32.tinypic.com/2s0xnc2.jpg

puntarenas
2009-09-11, 10:25:18
Ich gehe mal davon aus, dass dieses EyeFinity im Grunde trivial und vorwiegend ein Treiberfeature ist und dass Nvidia das spätestens mit der nächsten Refresh-Gerneration ebenfalls liefern wird. So sollte das auch laufen in einem Wettbewerb, schade dass nicht bei allen Aspekten rund ums 3D-Rendering stets die beste Lösung die Zielvorgabe für die kurzzeitig unterlegene Konkurrenz vorgibt. Wettbewerber, die sich schlicht verweigern, sollte der Markt abstrafen und ich denke, an der alten, starren Multi-Monitorunterstützung festzuhalten kann sich Nvidia nun nicht mehr leisten.

Für EyeFinity gibts ein Fleißkärtchen von mir (ich brauche es nicht, nützlich ist es aber ohne Frage), Jubelstürme löste bei mir aber der Hersteller aus, der als erstes etwas gegen Shaderflimmern anbietet und post-effekt-kompatibles SuperSampling wie Dargos Downsampling mag zwar Brute Force sein, aber wozu kaufen wir denn solche Transistormonster.

Go, AMD, go!

AnarchX
2009-09-11, 10:29:58
Im Beyond3d.com Forum gibt es ein Bild, auf dem man ein 8x und 6x Pin Anschluss sieht.
Und es soll laut AnarchX keine x2 sein...

http://i32.tinypic.com/2s0xnc2.jpg
Bei 190W TDP für die Referenz 5870 sollte durchaus die Option auf 8+6-Pin bestehen, um hier OC-SKUs zu ermöglichen.

Ich gehe mal davon aus, dass dieses EyeFinity im Grunde trivial und vorwiegend ein Treiberfeature ist und dass Nvidia das spätestens mit der nächsten Refresh-Gerneration ebenfalls liefern wird.
Das steht schon Hardware dahinter:
http://img34.imageshack.us/img34/1677/6contollerzweifuerdldvi.jpg
http://www.golem.de/0909/69741.html

robbitop
2009-09-11, 10:33:04
Aber mich und viele andere. Und wenn man bedenkt was der Spaß vor dieser Karte gekostet hat und was heute 3 24er Flats kosten dann ist das einfach nur geil. Ein guterTN (http://www.prad.de/new/monitore/test/2009/test-samsung-2494hm.html) kostet gerade mal 230€. Macht pi mal dauemen zusätliche 500€ für Geräte die man Jahre hat.
Oh ja sehr "gut" der TN.

http://www.prad.de/images/monitore/samsung_2494hm/blickwinkel.jpg

IMO ist das eher inakzeptabel und das Problem nimmt mit steigender Bildfläche zu.

Und dann am besten noch mehrere davon aufstellen damit der Blickwinkel noch größer wird. ;)

reunion
2009-09-11, 10:35:24
Im Beyond3d.com Forum gibt es ein Bild, auf dem man ein 8x und 6x Pin Anschluss sieht.
Und es soll laut AnarchX keine x2 sein...

http://i32.tinypic.com/2s0xnc2.jpg

Könnte sein das die Karte mit den sechs Display-Ports womöglich mehr Saft benötigt. Die vorher schon veröffentlichten Systemvoraussetzungen sprechen nur von 2 x 6Pin. Oder der 8-Pin ist nur Optimal für Overdrive wie ja schon mal in der Vergangenheit.

reunion
2009-09-11, 10:37:15
Oh ja sehr "gut" der TN.

http://www.prad.de/images/monitore/samsung_2494hm/blickwinkel.jpg

IMO ist das eher inakzeptabel und das Problem nimmt mit steigender Bildfläche zu.

Und dann am besten noch mehrere davon aufstellen damit der Blickwinkel noch größer wird. ;)

Der Vorteil von mehr Monitoren ist das man sie so drehen kann das jeder zur Person gerichtet ist. Was mache ich mit einer 3m breiten Bildfläche wo ich an den Rändern schon mit 75° draufschaue? Da nützt mir PVA auch nichts mehr.

Botcruscher
2009-09-11, 10:39:51
Oh ja sehr "gut" der TN.


Es steht dir frei in ein besseres Panel zu investieren.:rolleyes: Im übrigen werden die Bildschirme links und rechts so angewinkelt das der direkte Blickwinkel immer 90° zur Oberfläche ist. Wenn du dich auf den mittleren Bildschirm konzentrierst reicht dein Sehfeld eh nicht aus um irgendwelche "Darstellungsfehler" zu erkennen.

2 große TNs habe mir bis jetzt an der Uni gereicht, da tuns auch 3 zuhause. Wer mehr will muss eben mehr ausgeben.

Gast
2009-09-11, 10:39:53
Zitat:
Zitat von Botcruscher Beitrag anzeigen
Aber mich und viele andere. Und wenn man bedenkt was der Spaß vor dieser Karte gekostet hat und was heute 3 24er Flats kosten dann ist das einfach nur geil. Ein guterTN kostet gerade mal 230€. Macht pi mal dauemen zusätliche 500€ für Geräte die man Jahre hat.
Oh ja sehr "gut" der TN.
IPS-Geräte werden auch schon günstiger siehe DELL Ultrasharp
http://geizhals.at/deutschland/a403665.html

dargo
2009-09-11, 10:40:53
Oh ja sehr "gut" der TN.

http://www.prad.de/images/monitore/samsung_2494hm/blickwinkel.jpg

IMO ist das eher inakzeptabel und das Problem nimmt mit steigender Bildfläche zu.

Und dann am besten noch mehrere davon aufstellen damit der Blickwinkel noch größer wird. ;)
Naja, zum einen hat er von 3 Bildschirmen gesprochen. Also kannst du schon mal den oberen und unteren weglassen. Und zum anderen ist der horizontale Winkel bei guten TN-Bildschirmen kaum ein Problem mehr. Zumal er die drei Bildschirme auch gerade so wie hier aufstellen kann.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7524932&postcount=3728

Also nicht gleich übertreiben. ;)

Undertaker
2009-09-11, 10:42:58
Nicht jeder will damit nur spielen. Und selbst dann hätte ich bei drei Monitoren wo in der Mitte das Fadenkreuz ist kein Problem. Bei sechs Monitoren stört mich der Querstrich allerdings auch.

Wenn man nicht spielen will, reicht für 3 Monitore doch auch 2x sowas, oder? :confused:

http://geizhals.at/deutschland/a309301.html

Also lustig ist das schon, für die Masse des Marktes aber wohl nicht weiter interessant - wer betreibt schon >=3 Ausgabegeräte gleichzeitig? Gleichzeitig anschließen kann ich an meine HD4870 auch 4 Ausgabegeräte (1x VGA, 1x DVI, 1x HDMI, 1x Displayport) - das davon nur 2 gleichzeitig aktiviert sein können, ist imho keine sonderliche Einschränkung.

Botcruscher
2009-09-11, 10:44:35
IPS-Geräte werden auch schon günstiger siehe DELL Ultrasharp
http://geizhals.at/deutschland/a403665.html

Was ist e-IPS? Btw gibts eine Übesicht zu den ganzen Paneltypen und Zusatzkürzeln?

puntarenas
2009-09-11, 10:47:56
Das steht schon Hardware dahinter:
[...]
Ja, deshalb auch der vorsichtige Verweis auf die Refresh-Generation. Ich kann mir trotzdem nicht vorstellen, dass Nvidia das länger aussitzen kann und wird, besonders wenn folgerichtig langsam entsprechende Ausgabegeräte anrollen, die von einem solchen Feature profitieren. Gute Sache und besonders nett (und ohne Ränder) dürfte es doch mit 3 schicken Beamern sein. :)

reunion
2009-09-11, 10:48:40
Wenn man nicht spielen will, reicht für 3 Monitore doch auch 2x sowas, oder? :confused:

http://geizhals.at/deutschland/a309301.html


Ich habe gesagt nicht jeder will damit nur spielen. Das bedeutet nicht das man nicht auch spielen will. Für reines Office reicht soetwas natürlich. Aber ich kann selbst dort meine Monitore nicht derart drei konfigurieren und brauche eben zwei Karten.


Also lustig ist das schon, für die Masse des Marktes aber wohl nicht weiter interessant - wer betreibt schon >=3 Ausgabegeräte gleichzeitig?

Weil es bislang nicht praktikabel Umsetzbar war. Es gibt allerdings nicht gerade wenige welche zwei Monitore verwenden.

Gleichzeitig anschließen kann ich an meine HD4870 auch 4 Ausgabegeräte (1x VGA, 1x DVI, 1x HDMI, 1x Displayport) - das davon nur 2 gleichzeitig aktiviert sein können, ist imho keine sonderliche Einschränkung.

Wenn du nur einen Beamer angeschlossen hast ist es bis auf das gefrickel jedesmal keine sonderliche Einschränkung. Wenn du einen dritten Monitor hast ist es etwas anderes.

Gast
2009-09-11, 10:52:12
Was ist e-IPS?
Ich finde gerade nichts darüber aber die Gegenüberstellung gegen einen TN überzeugt soweit aber ich habe leider übersehen, dass das nur ein 22" ist
http://www.youtube.com/watch?v=h3fgwawRBnk

AnarchX
2009-09-11, 10:55:40
Damit der Thread hier nicht zu sehr abdriftet, bitte zu Eyefinity hier weiter diskutieren:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=464872

Im R8xx Thread soll es eher um die GPUs, deren Architektur und 3D-Fähigkeiten an sich gehen.

Gast
2009-09-11, 11:38:31
TECHNOLOGYSEPTEMBER 11, 2009
AMD Claims Graphics Chips Beat Rival's

BY DON CLARK

Advanced Micro Devices Inc. is claiming for the first time in several years that its upcoming line of graphics chips surpasses that of rival Nvidia Corp.

AMD, which has been going head-to-head with Nvidia since acquiring graphics-chip maker ATI Technologies several years ago, said during a demonstration Thursday ...

reunion
2009-09-11, 11:43:01
http://online.wsj.com/article/SB125260941273300503.html?ru=yahoo&mod=yahoo_hs

reunion
2009-09-11, 11:48:06
The NDA lifts on September 23, 2009. Most of the rumors you have read are true. I went to the USS Hornet in Alameda, CA (nice to see you again Kyle) the cards I saw (ATI 5870) should be out around the time windows 7 goes retail. The 5870 will be able to drive 3 30 inch monitors at the same time. I was one of 15 people to be dragged to the bowls of the ship and saw some really nice tech demos. ATI also is going open source with this product. Open CL and direct input. The physics were amazing as well. All Open CL originated. The Physics are going to be run on BOTH the GPU and CPU. Really nice scaling. I think nvidia is in trouble this round. The Price points are gonna be really competative as well.

More later. Good night.

http://www.hardforum.com/showthread.php?t=1450905

desert
2009-09-11, 11:53:32
Mal abwarten wie die Umstände sind. Gespielt hat man es auf jeden Fall in der Auflösung und das laut Aussagen der dort anwesenden auch flüssig:

http://img3.imageshack.us/img3/2505/89134826.jpg (http://img3.imageshack.us/i/89134826.jpg/)


Halten wir mal fest eine 4870 macht so ungefähr 20 fps bei 1920 x 1200. Und nun kommt der nachfolger der nicht nur mal die leistung bei 1920 x 1200 verdreifacht, nein er verdreichfacht sie bei extremen Settings.

Wer soll das bitte schön glauben, das dort wirklich soviele bildpunkte berechnet worden sind?

Das müsste doch selbst dem grössten fanboy eigentlich spanisch vorkommen.

Die gflops usw. und alles anderes sind knapp verdoppelt worden und dann dann soll da so eine monsterleistung entstehen? und das zusätzlich noch zu dx11 und dem ganzen anderen zeug was noch die fläche frisst?

So fanboy kann man garnicht sein, wahrscheinlich wurde das einfach hochskaliert so wie die boxen das machen.

reunion
2009-09-11, 11:58:44
Halten wir mal fest eine 4870 macht so ungefähr 20 fps bei 1920 x 1200. Und nun kommt der nachfolger der nicht nur mal die leistung bei 1920 x 1200 verdreifacht, nein er verdreichfacht sie bei extremen Settings.

Wer soll das bitte schön glauben, das dort wirklich soviele bildpunkte berechnet worden sind?

Das müsste doch selbst dem grössten fanboy eigentlich spanisch vorkommen.

Die gflops usw. und alles anderes sind knapp verdoppelt worden und dann dann soll da so eine monsterleistung entstehen? und das zusätzlich noch zu dx11 und dem ganzen anderen zeug was noch die fläche frisst?

So fanboy kann man garnicht sein, wahrscheinlich wurde das einfach hochskaliert so wie die boxen das machen.

Ich habe geschrieben abwarten wie die Umstände sind. Ich hoffe du bist in der Lage zu verstehen was das bedeutet. Und das mit dem Fanboy lasse ich mir von dir nicht sagen, du bist der letzte der hier auch nur halbwegs neutral auftritt. Also Füße still halten!

Eggcake
2009-09-11, 12:02:42
Edit: Auf die Gefahr hin, dass es (alter) Schrott ist. Vom AMD-Blog:
http://s3.directupload.net/images/090911/d7r27jkm.jpg (http://www.directupload.net)

Gemeint ist der Monitor links unten.
Als Vergleich:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/7/#abschnitt_3dmark06 - 4870X2 @ ~21k
Oder was könnte mit "Dual HD4890 GPU Class" gemeint sein?

puntarenas
2009-09-11, 12:04:14
Das müsste doch selbst dem grössten fanboy eigentlich spanisch vorkommen.

Vergiss den magischen Sideport nicht, wenn der erstmal sein Potential entfaltet... :tongue:

Das ist natürlich alles Wolkenkuckuksheim, aber trotzdem bin ich beeindruckt und glaube langsam, dass AMD da ein recht beachtliches Stück Hardware in die Regale stellen wird. Hoffen wir, dass man auch treiberseitig wieder aufschließt (Bildqualität/Qualitätsfeatures) und AMD ist endlich wieder eine Alternative. RV870 scheint ja nun (auch wenn noch immer belastbare Benchmarks fehlen) die Zielvorgaben erfüllt zu haben und man kann von wohl einem gelungenen Design sprechen, wenn es bei Nvidia nicht ganz so rund gelaufen sein sollte (was immer drin ist), dann ist man in Schlagweite.

Gast
2009-09-11, 12:15:02
Sollte diese Generation tatsächlich tendenziell speicherlimitiert sein schreit dass dann ja förmlich nach einer 5890 bzw einer Refresh-Generation mit höher getaktetem GDDR5.

Hoffentlich lässt ATI seinen Partnern da auch genug Freiraum (siehe die Geschichte mit Palit und die HD4770)...

Die Stichworte die bei den Präsentationen gefallen sind - BQ, Idle-Verbrauch, Physics - gefallen mir jedenfalls sehr gut. Sieht so aus als ob ATI einen großen Schritt gemacht hat. Eyefinity tangiert mich dagegen eher peripher ;).

Gast
2009-09-11, 12:25:40
http://www.phoronix.com/scan.php?page=news_item&px=NzUyNQ

pest
2009-09-11, 12:29:37
HD5870 nackt (http://www.czechgamer.com/novinky/5038/ATI-Radeon-HD-5870-prvni-fotky-bez-chladice.html)

Gast
2009-09-11, 12:31:31
http://www.phoronix.com/scan.php?page=news_item&px=NzUyNQ
das schaut ja übel aus ... einzelne screens sind teilweise total asynchron %)
da meint man ja, man wär besoffen ...
scheinbar hat ATI zusätzlich zu MR noch ne neue krankheit entwickelt, mit der sie die user "beglücken" :D

Superheld
2009-09-11, 12:31:34
HD5870 nackt (http://www.czechgamer.com/novinky/5038/ATI-Radeon-HD-5870-prvni-fotky-bez-chladice.html)

da will schon wieder jemand übertakten ;D

Daredevil
2009-09-11, 12:31:57
http://www.phoronix.com/scan.php?page=news_item&px=NzUyNQ
Kabelsalat! :D

http://img5.imagebanana.com/img/myl33ij3/11111111.jpg

dargo
2009-09-11, 12:32:20
HD5870 nackt (http://www.czechgamer.com/novinky/5038/ATI-Radeon-HD-5870-prvni-fotky-bez-chladice.html)
Hmm, die hat wiederum "nur" 2x 6Pin-Anschlüsse.

AnarchX
2009-09-11, 12:34:36
Ist aber auch für 8+6 vorbereitet, das wohl bei der Six (immerhin ist ein DP bis 16V und 0,5A spezifiziert, also immerhin 48W für die 6 DPs) und eventuellen 0,9-1GHz Versionen zum Einsatz kommt.

Wenn man schon die Karte vor sich liegen hat, dann hätte man ja wenigstens mal eine scharfe Aufnahme der Speicherchips machen können...

crux2005
2009-09-11, 12:37:04
jetzt weißt du wenigstens eine Antwort auf die Frage die du vor paar Seiten gestellt hast, ob das DIE ein RV870 ist ;)

Gast
2009-09-11, 12:40:59
Was ist das für ein weißer Streifen neben den VRMs?

AnarchX
2009-09-11, 12:41:56
Digitale Spannungswandler mit Wärmeleitpad.

pest
2009-09-11, 12:43:33
ich zitiere mal noch kurz largon@XS


There's 4 (option for 5) vGPU phases using what it seems Volterra VT1195SFs, +1 other Volterra VRM for an unknown load, likely uncore like on HD4890, and finally 1+1 with unknown parts for memory.

no6ody
2009-09-11, 12:49:47
das schaut ja übel aus ... einzelne screens sind teilweise total asynchron %)
da meint man ja, man wär besoffen ...
scheinbar hat ATI zusätzlich zu MR noch ne neue krankheit entwickelt, mit der sie die user "beglücken" :D

OMG, tatsaechlich. :freak:
Wie wird das denn ueberhaupt gemacht? Haut da jede Karte ihre fertiggerechneten Bilder einfach raus wenn sie fertig sind, oder wird das irgendwie synchronisiert? Es kann ja schliesslich sein, dass bspw. die linke Haelfte etwas mehr Rechenarbeit erfordert als die rechte... ;(

robbitop
2009-09-11, 12:51:01
Naja, zum einen hat er von 3 Bildschirmen gesprochen. Also kannst du schon mal den oberen und unteren weglassen. Und zum anderen ist der horizontale Winkel bei guten TN-Bildschirmen kaum ein Problem mehr. Zumal er die drei Bildschirme auch gerade so wie hier aufstellen kann.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7524932&postcount=3728

Also nicht gleich übertreiben. ;)
Ich sehe das ja sogar schon bei einem 19" TN bei mir auf Arbeit. Dort habe ich 2x davon und habe sie schon korrekt ausgerichtet. Klar ist es akzeptabel. Aber es ist weit weg davon "sehr gut" zu sein. Die Farben verlaufen halt. Da reicht schon der Winkel den man hat, wenn man ganz normal auf den Bildschirmrand schaut.

Möglicherweise ist meine Wahrnehmung auch nur zu "gut" für TN. IMO gilt das aber auch für BQ Features wie AA/AF. Wer auf BQ enorm achtet (3DCF ahoi) und wirklich die feinen Unterschiede sieht (Thema AF Schimmern - Downsampling etc), der sieht auch die groben Mängel dieser Panels. Und zwar oft im Alltag. Für mich ist es jedenfalls nicht konsequent diese Mängel einerseits zu sehen und andererseits über jede Kleinigkeit beim AF zu diskutieren.

Long story short: soll jeder machen wie er's braucht - aber gut sind die Dinger deshalb noch lange nicht. Höchstens für gewisse Ansprüche ausreichend.

CompuJoe
2009-09-11, 12:55:21
das schaut ja übel aus ... einzelne screens sind teilweise total asynchron %)
da meint man ja, man wär besoffen ...
scheinbar hat ATI zusätzlich zu MR noch ne neue krankheit entwickelt, mit der sie die user "beglücken" :D

Evtl. auch nur verschiedene Panels in den Bildschirmen mit Inputlag!
Unterschiedliche Farben daher auch andere Reaktionszeit der LCDs!

Vieles Möglich.

LovesuckZ
2009-09-11, 12:57:36
Ist aber auch für 8+6 vorbereitet, das wohl bei der Six (immerhin ist ein DP bis 16V und 0,5A spezifiziert, also immerhin 48W für die 6 DPs) und eventuellen 0,9-1GHz Versionen zum Einsatz kommt.


Wenn man solche Karten zu lässt, wird eine x2 immer unwahrscheinlicher. Sieht für mich danach aus, dass wir die x2 erst sehen werden, wenn nVidia mit dem GT300 erscheint.
Aber der hohe Verbrauch ist dann doch ein schon ein Negativpunkt - hätte ich nicht gedacht, dass AMD so weit hoch geht. Da stellt sich mir die Frage, ob ein Juniper und die anderen Ableger so stormsparend sein werden.

reunion
2009-09-11, 12:58:32
Ich sehe das ja sogar schon bei einem 19" TN bei mir auf Arbeit. Dort habe ich 2x davon und habe sie schon korrekt ausgerichtet. Klar ist es akzeptabel. Aber es ist weit weg davon "sehr gut" zu sein. Die Farben verlaufen halt. Da reicht schon der Winkel den man hat, wenn man ganz normal auf den Bildschirmrand schaut.


TN != TN. Es gibt auch dort bessere und schlechtere Geräte. Deine zwei vermutlich Uralt-TFTs auf der Arbeit würde ich nicht unbedingt als Maßstab nehmen.

reunion
2009-09-11, 13:04:49
Wenn man solche Karten zu lässt, wird eine x2 immer unwahrscheinlicher. Sieht für mich danach aus, dass wir die x2 erst sehen werden, wenn nVidia mit dem GT300 erscheint.
Aber der hohe Verbrauch ist dann doch ein schon ein Negativpunkt - hätte ich nicht gedacht, dass AMD so weit hoch geht. Da stellt sich mir die Frage, ob ein Juniper und die anderen Ableger so stormsparend sein werden.

Den Stromverbrauch isoliert zu betrachten ist ungefähr so als sich darüber aufzuregen das eine 4350 so langsam ist. Für die X2 wird man falls nötig selektieren und ev. den Takt etwas runter fahren und fertig. Ich weiß schon das du jetzt gleich wieder behauptest dass das sinnlos sei. Deshalb sage ich dir gleich dass deine Meinung nicht die einzig richtige ist.

Spasstiger
2009-09-11, 13:05:21
Evtl. auch nur verschiedene Panels in den Bildschirmen mit Inputlag!
Unterschiedliche Farben daher auch andere Reaktionszeit der LCDs!

Vieles Möglich.
Es können auch die gleichen Panels sein. In jedem besseren LCD-Review sieht man, dass das Input-Lag nicht konstant ist, sondern schwankt. Bei einigen Dell-Monitoren sogar zwischen 15 und 60 ms. Wenn der eine geade 15 ms Lag produziert und der andere wegen anderer Bildinhalte 60 ms, dann sieht man die 45 ms Unterschied natürlich.

robbitop
2009-09-11, 13:10:39
TN != TN. Es gibt auch dort bessere und schlechtere Geräte. Deine zwei vermutlich Uralt-TFTs auf der Arbeit würde ich nicht unbedingt als Maßstab nehmen.
Die sind brandneue Dells von 2009.
Wenn ich mir diese Prad-Schwenk-Bilder über die Jahre so anschaue, habe ich aber ehrlich gesagt, seit Jahren keine signifikante Verbesserung gesehen. Jedenfalls kein für mich befriedigendes Ergebnis, welches ich nicht im Alltag entdecke. Und ich habe mit verdammt vielen von den Dingern zu tun.

AnarchX
2009-09-11, 13:12:51
Wenn man solche Karten zu lässt, wird eine x2 immer unwahrscheinlicher. Sieht für mich danach aus, dass wir die x2 erst sehen werden, wenn nVidia mit dem GT300 erscheint.

Die X2 soll ja erst im Oktober vorgestellt und im November verfügbar sein.
Diesmal wird man wohl aber einen ähnliche Weg wie NV gehen und eben eher GPU in Richtung HD5850 verbauen, anstatt wie bei 3870X2 eine schnellere oder bei 4870X2 eine gleich schnelle.

Mit einem guten 1600SPs-Chip@<700MHz sollte man die 300W TDP wohl einhalten können.

reunion
2009-09-11, 13:13:43
Die sind brandneue Dells von 2009.
Wenn ich mir diese Prad-Schwenk-Bilder über die Jahre so anschaue, habe ich aber ehrlich gesagt, seit Jahren keine signifikante Verbesserung gesehen. Jedenfalls kein für mich befriedigendes Ergebnis, welches ich nicht im Alltag entdecke. Und ich habe mit verdammt vielen von den Dingern zu tun.

Die Prad-Testbilder sind aber auch extrem. Mit einem solchen Winkel schaut niemand auf den Monitor. Ich habe jedenfalls zwischen meinen ersten TFT und meinen jetzigen Samsung hier erhebliche Verbesserungen festgestellt. Zwar erkennt man natürlich noch Verschlechterungen wenn man es darauf anlegt, speziell wenn man von unten auf das Panel schaut, aber im alltäglichen Betrieb fällt mir das nicht mehr bewusst auf.

LovesuckZ
2009-09-11, 13:18:41
Mit einem guten 1600SPs-Chip@<700MHz sollte man die 300W TDP wohl einhalten können.

Das wäre ein Einschnitt von 17% zu 825Mhz und zu deinen genannten 1000Mhz sogar 42%. Ziemlich viel, nicht?

CompuJoe
2009-09-11, 13:20:20
Es können auch die gleichen Panels sein. In jedem besseren LCD-Review sieht man, dass das Input-Lag nicht konstant ist, sondern schwankt. Bei einigen Dell-Monitoren sogar zwischen 15 und 60 ms. Wenn der eine geade 15 ms Lag produziert und der andere wegen anderer Bildinhalte 60 ms, dann sieht man die 45 ms Unterschied natürlich.

Stimmt auch wieder, aber es könenen auch verschiedene Panelrev. im selben Bildschirm sein, ist sehr nervig wenn man jemand nen Dualmonitorsys aufbaut und die Bildschirme unterschiedlich aussehen obwohl es die selben sind.

Spasstiger
2009-09-11, 13:22:02
Werden eigentlich die Monitorränder bei der Bilderzeugung berücksichtigt oder rendert das Spiel einfach so, als ob das eine durchgehende Fläche ist? Wenn zweiteres der Fall ist, hat man ja zwangsweise einen Bildversatz, der gerade bei einem 6x3-Setup störend sein könnnte. In Bewegung müsste es dann so aussehen, als ob Bildteile quasi ruckartig über die Ränder springen.

AnarchX
2009-09-11, 13:23:45
Werden eigentlich die Monitorränder bei der Bilderzeugung berücksichtigt oder rendert das Spiel einfach so, als ob das eine durchgehende Fläche ist? Wenn zweiteres der Fall ist, hat man ja zwangsweise einen Bildversatz, der gerade bei einem 6x3-Setup störend sein könnnte. In Bewegung müsste es dann so aussehen, als ob Bildteile quasi ruckartig über die Ränder springen.
Laut Aussage von AMD werden die Ränder er ist einem späteren Treiber berücksichtigt.

robbitop
2009-09-11, 13:27:43
Die Prad-Testbilder sind aber auch extrem. Mit einem solchen Winkel schaut niemand auf den Monitor. Ich habe jedenfalls zwischen meinen ersten TFT und meinen jetzigen Samsung hier erhebliche Verbesserungen festgestellt. Zwar erkennt man natürlich noch Verschlechterungen wenn man es darauf anlegt, speziell wenn man von unten auf das Panel schaut, aber im alltäglichen Betrieb fällt mir das nicht mehr bewusst auf.
Das Problem verschlimmert sich, wenn sich die Sichtfläche erhöht. Ist aber auch egal - das Thema wurde oft genug diskutiert und ich wollte eigentlich keine Diskussion. Ist eben eine Frage der Wahrnehmung, so wie alles andere. ;)

BTT: Ist bereits etwas neues zu den AA/AF Modi von R8xx raus? Da sollte doch was neues kommen. Performance bin ich angesichts der Specs kaum noch gespannt. GTX295 oder knapp drunter ist ein ganz gutes Ergebnis für die Transistorzahl.

Zockerfrettchen
2009-09-11, 13:42:06
Kann man schon abschätzen was Juniper aus der Steckdose ziehen wird (idle/last)?
Denn diese Wattschleudern sind nichts für mich.... Bei mir ist die Geräuschkulisse (Passiv) und der Stromverbrauch wichtiger.
Und meine zweite Frage: Wird es Juniper auch mit 1024mb Grafikspeicher geben?
Danke schonmal für die Antworten,
Mfg Zockerfrettchen

AnarchX
2009-09-11, 13:45:00
Juniper dürfte wohl etwas über einer HD4770 liegen, beim Idle-Verbrauch vielleicht darunter, wenn AMD nun den GDDR5 unter Kontrolle hat.
1024MiB Versionen sind jedenfalls denkbar, vielleicht etwas später. Hier wird es wohl auch darauf an kommen, wie schnell/teuer der verbaute GDDR5 ist.

reunion
2009-09-11, 13:56:05
Techdemo-Pics: http://forum.beyond3d.com/showpost.php?p=1333279&postcount=2623


Checking the official video Clip of "Ruby" by "The Kaiser Chiefs" one cannot fail to notice "AMD" appearing in the URL of this youtube clip
http://www.youtube.com/watch?v=d14511Amd08

DrFreaK666
2009-09-11, 14:24:20
Techdemo-Pics: http://forum.beyond3d.com/showpost.php?p=1333279&postcount=2623

Youtube-Link tot.
Also wenn das in Echtzeit ist dann respekt.
Sieht ja viel besser aus als Human Head von nv

Gast
2009-09-11, 14:26:23
Die X2 hat ja fast um die 5TeraFlops, je nach takt bei 800MHz sind es 5,12 wow! vor 1,5 Jahren hatten wir gerade mal 1TF...

bin ja gespannt wie NV drauf reagiert, und was der G300 auf die strasse bringt!

Daredevil
2009-09-11, 14:29:42
Youtube-Link tot.

http://w3.hidemyass.com

Is aber auch nur das normale Video von "Ruby".

josefYY
2009-09-11, 14:55:26
... http://www.youtube.com/watch?v=d14511Amd08...
Und was soll man in diesem Video sehen?
Ich seh da nur ein Music-Clip:confused:

Botcruscher
2009-09-11, 14:57:03
Techdemo-Pics: http://forum.beyond3d.com/showpost.php?p=1333279&postcount=2623

Rubi Mitte 40 nach intensiven Alkoholismus?:freak:

puntarenas
2009-09-11, 15:03:02
Rubi Mitte 40 nach intensiven Alkoholismus?:freak:
Also ich mag den Look. Sollte es wirklich wahr sein? Leistungsmäßig zurück im Rennen, AF rennoviert und jetzt auch noch Ruby nach den Lady Di Verirrungen wieder sexy?

:love2:

Da werden technische Aspekte einer Demo schnell zur Nebensache.

Winter[Raven]
2009-09-11, 15:05:48
Alter Schwede... ist die Techdemo häßlich.....

Rubi Mitte 40 nach intensiven Alkoholismus?

+ Bahnhof....

Eggcake
2009-09-11, 15:05:54
Und was soll man in diesem Video sehen?
Ich seh da nur ein Music-Clip:confused:

Würde meinen derjenige, der das gepostet hat meinte es eher ironisch, da "zufälligerweise" in der URL "AMD" steht ;)

4 Vitamins
2009-09-11, 15:16:10
Sehr viele "Folien":

Ab seite 2
http://www.hwupgrade.it/articoli/skvideo/2280/ati-eyefinity-la-prima-tecnologia-delle-gpu-dx11_index.html


gruss

AnarchX
2009-09-11, 15:17:10
Hier nochmal etwas zu den 250%:
http://img21.imageshack.us/img21/831/26886411.jpg
http://img21.imageshack.us/img21/2189/32076157.jpg
http://pc.watch.impress.co.jp/docs/news/20090911_315056.html?ref=rss

Auch wieder der Verweis auf die arithmetische Leistung im Text.

LovesuckZ
2009-09-11, 15:34:43
Bezieht sich wohl auf die 4850 (oder auf Konkurrenz...):
1枚に収まらなかったため写真が切れているが、2008年7月から今年9月のわずか1年ちょっとで、演算性能は250%、つまり1TFLOPSから2.5TFLOPS程度 へ向上することを示したスライド

Ailuros
2009-09-11, 15:41:28
LS lernt Fremdsprachen? ;D

ShadowXX
2009-09-11, 16:08:11
Bezieht sich wohl auf die 4850 (oder auf Konkurrenz...):
Ich würde sagen es bezieht sich auf die 4850 in Relation zur 5870.....ca. 1 zu ca. 2.5 TFlop lassen es zumindest vermuten.

PR ist ja immer etwas kreativ bei vergleichen....wir können eigentlich froh sein, das Sie nicht die TFlops von sich und nV als Vergleich heranziehen.

AnarchX
2009-09-11, 16:37:45
850MHz GPU, aber "nur" 1.2GHz Speicher:
http://img12.imageshack.us/img12/2073/58290002.jpg
http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/683-hd58xx-entgueltige-spezifikationen-und-weitere-informationen

Wobei man wohl trotz scheinbaren Speicherflaschenhals eine sehr vernünftige Steigerung gegenüber HD4800 schafft. ;)
Zur Leistung wurde die HD5870 mit der GTX285 verglichen, welche nach den Messungen und Benchmarks von AMD im Durchschnitt ca. 50% schneller ist. Beide Modelle, HD5850 und HD5870, sollen am 23. September gelauncht werden und auch voll verfügbar sein. Wie sich dies jedoch dann genau gestalten wird, kann man noch nicht genau sagen.

1,5x GTX 285 ~ 2x HD 4870

Nightspider
2009-09-11, 16:41:39
Ich würd das ja als Paperlaunch bezeichen.

dildo4u
2009-09-11, 16:41:56
Hmm wenn man schon Multimonitor hypt bis zum geht nicht mher,hätte ich für die 400$ Version schon 2GB erwartet.

reunion
2009-09-11, 16:43:41
850MHz GPU, aber "nur" 1.2GHz Speicher:
http://img12.imageshack.us/img12/2073/58290002.jpg
http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/683-hd58xx-entgueltige-spezifikationen-und-weitere-informationen

Wobei man wohl trotz scheinbaren Speicherflaschenhals eine sehr vernünftige Steigerung gegenüber HD4800 schafft. ;)


1,5x GTX 285 ~ 2x HD 4870

Auch die Infos zu den bevorstehenden DX11-Spielen sind nicht uninteressant:

Es wurde bei der Präsentation viel über DirectX 11 und natürlich Windows 7 gesprochen, Spiele durften auch nicht fehlen. So wurden die neuen DirectX 11 Techniken vorgestellt und auch die neuen Spiele. Battle Forge soll nach unseren Informationen noch vor dem Start von Windows 7 ein Update bekommen, welches die DirectX 11 Unterstützung nachliefert.

Neben Battleforge wurde überraschenderweise auch S.T.A.L.K.E.R.: Call of Pripyat genannt, welches auch DirectX 11 unterstützen soll. Auch Alien vs. Predator wurde neben Colin McRae Rally: DiRT 2 als neuer DirectX 11 Titel genannt, welches nach den Angaben unserer Quelle atemberaubend aussehen soll.

reunion
2009-09-11, 16:44:27
Ich würd das ja als Paperlaunch bezeichen.

Welcher Launch? Das war ein Pressbriefing. Am 23. September fällt das NDA.

Ailuros
2009-09-11, 16:48:10
Fast 3 (AMD) Teraflops Power oder fast 1.7 (NV) TFLOPs *kicher*

Nightspider
2009-09-11, 16:50:30
Welcher Launch? Das war ein Pressbriefing. Am 23. September fällt das NDA.

Beim Briefing werden die neuen Karten schon gehyped und beworben und nicht viel aussagende Benchmarks gibt es auch schon von Crysis.

Könnte Nvidia am 23. auch machen und das alles unter Briefing verkaufen und den offiziellen Launch sonst-wohin legen, um ATI die Kundschaft zu stehlen.

Dennoch bleibt das für mich ein Paperlaunch.

Wo bleibt der Unterschied zu früher, wo Benchmarks gezeigt wurden aber die Karten erst Wochen später zu kaufen waren ?

Blacksoul
2009-09-11, 16:54:50
Beim Briefing werden die neuen Karten schon gehyped und beworben und nicht viel aussagende Benchmarks gibt es auch schon von Crysis.

Könnte Nvidia am 23. auch machen und das alles unter Briefing verkaufen und den offiziellen Launch sonst-wohin legen, um ATI die Kundschaft zu stehlen.

Dennoch bleibt das für mich ein Paperlaunch.

Wo bleibt der Unterschied zu früher, wo Benchmarks gezeigt wurden aber die Karten erst Wochen später zu kaufen waren ?

Die Karten wurden einfach noch nicht öffentlich vorgestellt. Darum gibt es auch noch keine Reviews der üblichen Verdächtigen. Darum kann es auch keinen Launch geben. Auch keinen Paperlaunch. Irgendwo logisch, oder?


t.b.d

derguru
2009-09-11, 16:55:01
schon erstaunlich das die bandbreite reicht,da haben die wohl extrem optimiert für.

Ailuros
2009-09-11, 16:55:26
Nightspider,

Presse Mitglieder haben fertige GPUs in ihren Haenden. Das ist kein Papiertiger und sie haben genug Zeit anstaendige reviews darueber zu schreiben.

Und uebertreibt mir es bitte nicht wieder mit dem Thema denn ein Paperlaunch ist eine ganz andere Sache. Man kuendigt im Grund ohne vorzeigbare hw an; in diesem Fall werden zahllose fertige GPUs verschickt.

Schlammsau
2009-09-11, 16:56:11
Wegen dem niedrig getakteten und auch nur 1GB VRAM:

Vieleicht hat ATi etwas Grundlegendes am Speicherdesign geändert!?
Ist ja kein Geheimniss, dass ATi effektiver mit dem Speicher umgeht als deren Konkurrenz.

Ansonsten erinnert mich die 5870/1024MB stark an die 4870/512MB, da wird ziemlich schnell eine Version mit doppelten Speicher folgen und dann auch klar die bessere Wahl darstellen!

Blaire
2009-09-11, 16:57:48
1,5x GTX 285 ~ 2x HD 4870

Das wäre auch realistisch, viel mehr wird es nicht werden was aber auch nicht übel ist, ich hoffe das die bildqualitätsverschönenden Optionen auch aufgebessert wurden, dann wäre die Karte garnicht so übel.

LovesuckZ
2009-09-11, 17:00:37
Das wäre auch realistisch, viel mehr wird es nicht werden was aber auch nicht übel ist, ich hoffe das die bildqualitätsverschönenden Optionen auch aufgebessert wurden, dann wäre die Karte garnicht so übel.

50% gegenüber der GTX285 wären - ähm - enttäuschend. Ich glaube daher nicht, dass diese Aussage von der Seite bestand hat.

AnarchX
2009-09-11, 17:02:00
Noch ein paar High-Res-Bilder der Testsysteme:
http://www.widescreengamingforum.com/forum/viewtopic.php?t=16780
Die Samples sind von Juli und sind offenbar beidseitig mit Samsung GDDR5 bestückt:
http://www.wsgfmedia.com/generaladmission/pics/3x2setup-card.jpg
BC04, also 5Gbps Speicher.

50% gegenüber der GTX285 wären - ähm - enttäuschend. Ich glaube daher nicht, dass diese Aussage von der Seite bestand hat.

Bei 50% zusätzlichen Transistoren bei gleichzeitiger DX11-Integration und gleicher Bandbreite wie eine GTX 285 sind 50% nicht wirklich übel.

Schlammsau
2009-09-11, 17:02:19
Warum den entäuschend? Nahezu eine Verdoppelung der Leistung zur Vorgängergeneration, ist doch eine feine Sache!

Ist dann wohl auf GTX295 Niveau, wenn nicht noch ein wenig drüber......nicht schlecht!

LovesuckZ
2009-09-11, 17:04:31
Warum den entäuschend? Nahezu eine Verdoppelung der Leistung zur Vorgängergeneration, ist doch eine feine Sache!

Auf den Verbrauch geschaut? Und dann mit nVidia verglichen? Ich hoffe wirklich, dass die 50% Fake sind und es sich mehr in Richtung 100% verschiebt.

Schlammsau
2009-09-11, 17:06:39
Auf den Verbrauch geschaut? Und dann mit nVidia verglichen? Ich hoffe wirklich, dass die 50% Fake sind und es sich mehr in Richtung 100% verschiebt.

Wo steht der reale Verbrauch? Hab den Thread nicht wirklich verfolgt.

reunion
2009-09-11, 17:07:07
Die Samples sind von Juli und sind offenbar beidseitig mit Samsung GDDR5 bestückt:
http://www.wsgfmedia.com/generaladmission/pics/3x2setup-card.jpg
BC04, also 5Gbps Speicher.

Damit sind 2GB VRAM kein Problem.


Bei 50% zusätzlichen Transistoren bei gleichzeitiger DX11-Integration und gleicher Bandbreite wie eine GTX 285 sind 50% nicht wirklich übel.

So ist es. Manche vergessen das auch RV870 kein High-End Chip ist. Oder sie sehen es einfach nicht ein.

dildo4u
2009-09-11, 17:07:14
1,5x GTX 285 ~ 2x HD 4870
Eher GTX295.

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_13_grafikkarten/18/#abschnitt_performancerating_qualitaet

reunion
2009-09-11, 17:08:25
Auf den Verbrauch geschaut? Und dann mit nVidia verglichen? Ich hoffe wirklich, dass die 50% Fake sind und es sich mehr in Richtung 100% verschiebt.

TDP liegt bei 188W. Die 4890 hat 190W TDP. Wenn AMDs Angaben vergleichbar sind dürfte die 5870 also ungefähr das gleiche verbrauchen.

Schlammsau
2009-09-11, 17:09:31
TDP. Die 4890 hat 190W TDP. Wenn AMDs Angaben vergleichbar sind dürfte die 5870 also ungefähr das gleiche verbrauchen.

Danke...fast doppelte Leistung bei gleicher Stromaufnahme, und was ist jetzt daran schlecht LZ?

Blaire
2009-09-11, 17:10:40
Mal abwarten wie die Umstände sind. Gespielt hat man es auf jeden Fall in der Auflösung und das laut Aussagen der dort anwesenden auch flüssig:
http://img3.imageshack.us/img3/2505/89134826.jpg (http://img3.imageshack.us/i/89134826.jpg/)

Aber niemals auf VeryHigh das ist schlichtweg unmöglich, selbst 3xGTX285 2GB quälen sich schon bei "nur" 3360x2100. Vieleicht Medium Details ;)

reunion
2009-09-11, 17:12:12
Aber niemals auf VeryHigh das ist schlichtweg unmöglich, selbst 3xGTX285 2GB quälen sich schon bei "nur" 3360x2100. Vieleicht Medium Details ;)

Ja, das ist für mich auch am wahrscheinlichsten. Bei Dirt wurden auch die Details reduziert.

dildo4u
2009-09-11, 17:12:43
Danke...fast doppelte Leistung bei gleicher Stromaufnahme, und was ist jetzt daran schlecht LZ?
50% schneller als 4890 siehe 8XAA Benches sind lange keine 100%.

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_13_grafikkarten/18/#abschnitt_performancerating_qualitaet

derguru
2009-09-11, 17:12:56
naja ist ja nur alles auf gefühlter basis aber da spricht doch chipshells wert eine deutliche sprache und bis jetzt lagen die immer richtig was anscheinend auch nicht schwer ist da sie die bilder der karten schon vor wochen gezeigt hatten.ich geh schon optimistisch auf 2*4890 karten zu im durschnitt(+-10%).alles hat sich verdoppelt+optimierungen(angeblich geringe performanceverluste in AA) sollte es kein wunder sein.


muss doch nur ein jährchen zurück schauen,eine 4870 512 mb ist auch bis zu 240% schneller als die damalige 3870 und das gleiche in grün passiert nun wieder,anscheindend hat amd es gebacken gekriegt bandbreitenschonend zu sein falls jetzt einer kommen sollte das die bandbreite nicht verdoppelt wurde.die 250% halte ich für durchaus möglich wie es schon in folien zusehen ist.

reunion
2009-09-11, 17:14:35
50% schneller als 4890 siehe 8XAA Benches sind lange keine 100%.

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_13_grafikkarten/18/#abschnitt_performancerating_qualitaet

Die doppelte Leistung bezieht sich auf die Juli08-GPU, also die 4870.

LovesuckZ
2009-09-11, 17:14:57
Danke...fast doppelte Leistung bei gleicher Stromaufnahme, und was ist jetzt daran schlecht LZ?

Ich erwarte eben mehr - das selbe Spielchen wie vor einem Jahr. Nur das man dort ca. 30% schneller als eine 9800gtx+ war.
188 Watt sind verdammt viel und ich hatte eigentlich immer die Vermutung, dass man mit 40nm bessere Ergebnisse geliefert bekommt.
Aber das selbe gilt auch für nVidia. Wenn dort auch nur 50% mehr zu GTX285 kommen, dann warte ich wirklich auf die Nachfolger - hoffentlich mit weniger Stromverbrauch.

Schlammsau
2009-09-11, 17:14:58
50% schneller als 4890 siehe 8XAA Benches sind lange keine 100%.

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_13_grafikkarten/18/#abschnitt_performancerating_qualitaet

wir reden hier doch von einer Verdoppelung der Leistung auf die 4870 bezogen! :confused:
Und eine 4890 ist nur rund 10% schneller!

AnarchX
2009-09-11, 17:16:07
Danke...fast doppelte Leistung bei gleicher Stromaufnahme, und was ist jetzt daran schlecht LZ?
Er bezieht sich wohl eher auf die GTX 285, wo es dann nur noch etwa +50% Pro-Watt sind und auch GT300 sagt man ja eine herausragende Pro-Watt-Leistung nach. Nur ist dessen Problem, das er wohlmöglich nicht mehr 2009 erscheint.
Beim Idle verbrauch hat man ja endlich nachgebessert.

Dieser Umstand könnte wohl gerade auch im Notebook-Sektor ein Vorteil für NV sein, wenn sie es schaffen GT3xx Mobile rechtzeitig bei den Herstellern einzureichen, Mobility HD 5000 steht ja auch schon in der Startlöchern.

wir reden hier doch von einer Verdoppelung der Leistung auf die 4870 bezogen! :confused:
Und eine 4890 ist nur rund 10% schneller!
Wenn sich die 50% auf 8xAA Benchmarks beziehen, wäre es in der Tat etwas weniger gegenüber HD4800. Was auch im logischen Zusammenhang zu der Bandbreitenerhöhung stände. ;)

Spasstiger
2009-09-11, 17:19:44
Mein Performancetipp, zumindest da, wo verglichen werden kann:
HD 5870 = max(HD 4870 X2, GTX 295)

/EDIT: Ohne Berücksichtigung der Mikroruckler natürlich, einfach nur mittlere fps.

Eggcake
2009-09-11, 17:40:59
Beim Briefing werden die neuen Karten schon gehyped und beworben und nicht viel aussagende Benchmarks gibt es auch schon von Crysis.

Könnte Nvidia am 23. auch machen und das alles unter Briefing verkaufen und den offiziellen Launch sonst-wohin legen, um ATI die Kundschaft zu stehlen.

Dennoch bleibt das für mich ein Paperlaunch.

Wo bleibt der Unterschied zu früher, wo Benchmarks gezeigt wurden aber die Karten erst Wochen später zu kaufen waren ?

Also wenn es nach dir ginge, dürfte ATI keinerlei Informationen/Slides veröffentlichen, erst am Tag, an dem die Produkte lieferbar sind?!

w0mbat
2009-09-11, 17:41:43
Wieso ist der RV870 eigentlich wider gedreht? Ich dachte bei 256-bit wäre das kein Problem. Und für enorme Auflösungen + das 4xAA-for-free-Gerücht wären 512-bit ja nicht wirklich unangebracht...

Also, wie sicher sind wir uns bei den 256-bit?

Daredevil
2009-09-11, 17:42:05
Mein Performancetipp, zumindest da, wo verglichen werden kann:
HD 5870 = max(HD 4870 X2, GTX 295)

Aber bitte nicht vergessen das die 4870x2 sogut wie nie doppelt so schnell was als eine einzelne HD4870 1GB.
Hier aus dem Computerbase HD4770 Test vom April:

http://img5.imagebanana.com/img/td1cat93/Zwischenablage02.jpg
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4770/19/#abschnitt_performancerating

Ich weiß, das sich bei den Treibern ordentlich was getan hat ( und Computerbase dort richtig ekelig mischt ), ich finde aber gerade auf der schnelle keinen Vergleich mit aktuellen Treibern. :redface:

Eggcake
2009-09-11, 17:45:26
Wieso vergleicht ihr eigentlich ständig mit HD4870/4890?
Da steht:
Zur Leistung wurde die HD5870 mit der GTX285 verglichen, welche nach den Messungen und Benchmarks von AMD im Durchschnitt ca. 50% schneller ist. Beide Modelle, HD5850 und HD5870, sollen am 23. September gelauncht werden und auch voll verfügbar sein. Wie sich dies jedoch dann genau gestalten wird, kann man noch nicht genau sagen.

Und GTX285+50% > GTX295...

reunion
2009-09-11, 17:46:17
Wieso ist der RV870 eigentlich wider gedreht? Ich dachte bei 256-bit wäre das kein Problem. Und für enorme Auflösungen + das 4xAA-for-free-Gerücht wären 512-bit ja nicht wirklich unangebracht...

Also, wie sicher sind wir uns bei den 256-bit?

512-bit würde mich schon sehr überraschen. Ich denke dazu ist der Chips auch zu klein. Auch wenn es angesichts der 16 verbauten Speicherchips noch nicht ganz ausgeschlossen werden kann.

derguru
2009-09-11, 17:48:14
Wieso vergleicht ihr eigentlich ständig mit HD4870/4890?
Da steht:


Und GTX285+50% > GTX295...

weil es einfacher ist einzuschätzen und wo bitte steht das mit den GTX285+50%?

Eggcake
2009-09-11, 17:48:41
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7525833&postcount=3821

dildo4u
2009-09-11, 17:49:36
Wieso vergleicht ihr eigentlich ständig mit HD4870/4890?
Da steht:


Und GTX285+50% > GTX295...
Bei den 8XAA Benches ist die X2 4870 der Maßstab.Ich würde eher 8XAA vergleichen,weil man da sieht,das die Bandbreite whol nicht mher als 50% Mherleistung gegenüber der 4890 zulässt.Wichtig sind nicht die tolle TF sondern wo der Flaschenhals der Karte liegt der die Performance beschränkt.

Spasstiger
2009-09-11, 17:54:27
Also, wie sicher sind wir uns bei den 256-bit?
8 GDDR5-Chips von Samsung auf dem PCB? Da sind die 256 Bit ziemlich sicher, denn Samsung bietet nur 32 Bit breite GDDR5-Chips an:
http://www.samsung.com/global/business/semiconductor/productList.do?fmly_id=675

Auch wenn es angesichts der 16 verbauten Speicherchips noch nicht ganz ausgeschlossen werden kann.
Sind auf der PCB-Rückseite auch Speicherchips?

Eggcake
2009-09-11, 17:54:41
Bei 8x AA ist's eben die 4870X2...

Wie Spasstiger schon sagte, ists nach der Aussage Pi mal Daumen 4870X2/GTX295-Leistung. Wo schlussendlich der Flaschanhals liegt und wieviel es ganz genau sind wird ohne Benches keiner sagen können.

@Spasstiger: sind's nicht 16? Ist ja vorne und hinten bestückt.

reunion
2009-09-11, 17:56:42
Sind auf der PCB-Rückseite auch Speicherchips?

Ja:
http://www.wsgfmedia.com/generaladmission/pics/3x2setup-card.jpg

S940
2009-09-11, 18:01:33
Ja:
http://www.wsgfmedia.com/generaladmission/pics/3x2setup-card.jpg
2 GB Modell :confused:

Daredevil
2009-09-11, 18:04:43
Ja:
http://www.wsgfmedia.com/generaladmission/pics/3x2setup-card.jpg
Hier kann man doch problemlos mit etwas gutem Auge die RAMS lesen mit ein wenig Zoomarbeit.

Samsung---------925
K4G18325FE- KC04

Könnte das hinkommen? ^^

Spasstiger
2009-09-11, 18:07:47
Ja:
http://www.wsgfmedia.com/generaladmission/pics/3x2setup-card.jpg
Wenn ich das richtig entziffere, handelt es sich bei den GDDR5-Chips um Samsung K4G10325FE-HC04 (http://www.samsung.com/global/business/semiconductor/productInfo.do?fmly_id=675&partnum=K4G10325FE).
Die sind laut diesem Produktführer 32 Bit breit:
http://www.samsung.com/global/system/business/semiconductor/family/2009/3/31/640218graphic_product_guide_q2_09.pdf

16*32 Bit = 512 Bit ... hm ...:confused:

dildo4u
2009-09-11, 18:08:03
2 GB Modell :confused:
Jap die Version kommt aber erst später.
http://www.wsgfmedia.com/generaladmission/pics/3x2setup-ports.jpg

reunion
2009-09-11, 18:09:16
Juniper XT is Radeon HD 5770 and Juniper LE is HD 5750

http://img6.imageshack.us/img6/4319/radeonhd57705750.jpg (http://img6.imageshack.us/i/radeonhd57705750.jpg/)


While all eyes are on the Radeon HD 5800 "Cypress" series, there is another series quietly brewing beneath AMD which NVIDIA should be really afraid of. Juniper XT and LE will be named Radeon HD 5770 and Radeon HD 5750 respectively and is meant for the mainstream market which is no doubt the most important segment to tackle for both camps. It will possess all the features of its higher end counterpart like 40nm, DX11, Eyefinity technology, ATI Stream, UVD2, GDDR5 and best of all, it is going to be very affordable.

One of the reason why AMD is not mass producing Radeon HD 4700 (RV740) series now is because HD 5700 series will be replacing it soon and will come one month after HD 5800 series. It will meet head on against the NVIDIA's D10P1 (GT215) series in October so expect a full fledge war then. With a performance target of 1.6x over the HD 4770 and 1.2x over the HD 4750, they are surely packed with enough power to pit against the NVIDIA's lineup. Pair them up and you will get a boost of 1.8x which is roughly the performance of a Cypress card.

http://vr-zone.com/articles/juniper-xt-is-radeon-hd-5770-and-juniper-le-is-hd-5750/7626.html?doc=7626

Coda
2009-09-11, 18:14:00
Wenn ich das richtig entziffere, handelt es sich bei den GDDR5-Chips um Samsung K4G10325FE-HC04 (http://www.samsung.com/global/business/semiconductor/productInfo.do?fmly_id=675&partnum=K4G10325FE).
Die sind laut diesem Produktführer 32 Bit breit:
http://www.samsung.com/global/system/business/semiconductor/family/2009/3/31/640218graphic_product_guide_q2_09.pdf

16*32 Bit = 512 Bit ... hm ...:confused:
Man kann auch zwei Chips parallel in einem Kanal verwenden.

Spasstiger
2009-09-11, 18:19:53
Man kann auch zwei Chips parallel in einem Kanal verwenden.
Stimmt, da war doch was, dass man einen 32-Bit-Chip auch als 16-Bit-Chip ansteuern kann. Hat noch jemand dieses Whitepaper von Qimonda (Qimonda_GDDR5_whitepaper.pdf)?

/EDIT: Habs schon: http://www.qimonda.com/static/download/products/Qimonda_GDDR5_whitepaper.pdf. Früher war es unter qimonda-news.com zu finden.
Im sogenannten Clamshell mode wird ein 32-Bit-Modul nur mit 16 Bit angesteuert, die beiden Module am gleichen Kanal teilen sich dabei die Adress- und Befehlsleitungen.

reunion
2009-09-11, 18:20:26
2 GB Modell :confused:

Ich glaube das 1024Mbit GDDR5 Chips ganz einfach recht teuer sind. Bei der 4770 512MB hat man auch schon 8 Chips verbaut obwohl vier gereicht hätten. Und für die 2Gb Version benötigt man ohnehin ein PCB mit 16 Speicherchips. Allerdings treibt das den Stromverbrauch natürlich unnötig in die Höhe.

S940
2009-09-11, 18:21:29
Stimmt, da war doch was, dass man einen 32-Bit-Chip auch als 16-Bit-Chip ansteuern kann. Hat noch jemand dieses Whitepaper von Qimonda (Qimonda_GDDR5_whitepaper.pdf)?
DAs steht auch in Deinem Samsung pdf in der Tabelle am Ende:
32Mx32
32Mx16

Edit:
@reunion:
Das sind aber 32M Chips, da hat jeder 128MB. Mal 16 -> 2 GB.

ciao

Alex

horn 12
2009-09-11, 18:24:19
Wie lang ist nun die HD5870 in cm, und warum sagt niemand was zur Lautstärke des Lüfters, bzw. zur Hitzeentwicklung. Weiss da niemand was hierzu ?
Im IDLE denk ich wird es echt gut und auch sehr leise werden, ABER unter Last, bzw. den neuesten DX11/10 Games.

Coda
2009-09-11, 18:24:35
Stimmt, da war doch was, dass man einen 32-Bit-Chip auch als 16-Bit-Chip ansteuern kann. Hat noch jemand dieses Whitepaper von Qimonda (Qimonda_GDDR5_whitepaper.pdf)?
Clamshell Mode.

Gast
2009-09-11, 18:25:06
Zur Leistung wurde die HD5870 mit der GTX285 verglichen, welche nach den Messungen und Benchmarks von AMD im Durchschnitt ca. 50% schneller ist.
ich hoffe der typ der das gechrieben hat kann kein deutsch ... was er da schhreibt, bedeutet jedenfalls, dass die GTX285 50% schneller ist als die HD5870 :D

mboeller
2009-09-11, 18:34:28
Ist dann wohl auf GTX295 Niveau, wenn nicht noch ein wenig drüber......nicht schlecht!


...und dazu nur 1 GPU ohne Ruckler etc...

Auch wenn das Ruckeln auf der GTX295 nicht wirklich stören soll (ich hab die Karte nicht) bleibt es imho ein Vorteil.

AnarchX
2009-09-11, 18:36:15
Juniper XT is Radeon HD 5770 and Juniper LE is HD 5750

http://img6.imageshack.us/img6/4319/radeonhd57705750.jpg (http://img6.imageshack.us/i/radeonhd57705750.jpg/)




http://vr-zone.com/articles/juniper-xt-is-radeon-hd-5770-and-juniper-le-is-hd-5750/7626.html?doc=7626
60% über einer 4770 sind auch nicht ganz ohne, wenn man hier rein mit FLOPs rechnet müsste die 5770 ja bei 1.5TFLOPs liegen (800SPs@~950MHz) und von der realen Leistung ausgesehen wäre das HD 4890-Niveau, was mit 128-Bit etwas utopisch wirkt.

dildo4u
2009-09-11, 18:38:33
60% über einer 4770 sind auch nicht ganz ohne, wenn man hier rein mit FLOPs rechnet müsste die 5770 ja bei 1.5TFLOPs liegen (800SPs@~950MHz) und von der realen Leistung ausgesehen wäre das HD 4890-Niveau, was mit 128-Bit etwas utopisch wirkt.
1.2 mal 4770 die haben 4770 mit 4750 vertauscht.

mboeller
2009-09-11, 18:41:43
1.2 mal 4770 die haben 4770 mit 4750 vertauscht.


Warum?

[edit]:

Für mich liest es sich schlüssig.

5770 = 1,6x 4770
5750 = 1,2x 4770 (die 4750 und die 4770 sind eigentlich gleich schnell)

dildo4u
2009-09-11, 18:42:36
Warum?
Die haben sich einfach im Text vertippt.

"With a performance target of 1.6x over the HD 4770 and 1.2x over the HD 4750," Ergibt kein Sinn.

S940
2009-09-11, 18:43:39
60% über einer 4770 sind auch nicht ganz ohne, wenn man hier rein mit FLOPs rechnet müsste die 5770 ja bei 1.5TFLOPs liegen (800SPs@~950MHz) und von der realen Leistung ausgesehen wäre das HD 4890-Niveau, was mit 128-Bit etwas utopisch wirkt.
Naja, wenn 256bit für 2,5-3.0 TFLOP reichen, sollten die 128bit auch für grob die Hälfte Flops reichen, sind vermutlich genauso wie bei der 5870 ja auch höher getaktet.

@dildo4u:
Wieso ?
5770 ist 1,6fach schneller als 4770.
5750 ist 1,2fach schneller als 4750.

Edit:
Eventuell weil die 5750 halt nur altes GDDR3 bekommt.
Edit2:
Im Text steht aber GDDR5 für beide ... hmm, ok, behaupte ich mal schnell das Gegenteil, ausser die 50er bekommt einige Shader deaktiviert ^^

ciao

Alex

AnarchX
2009-09-11, 18:47:31
5750 = 1,2x 4770 (die 4750 und die 4770 sind eigentlich gleich schnell)
Die 4750 hat nur 480SPs/24 TMUs, Rest wie bei 4770.
Wobei bei +60% 4750 und +20% HD 4770 die beiden HD 5700 ziemlich dicht beeinander liegen würden, sodass der Verschreiber zwar etwas glaubwürdiger klingen würde, aber auch wieder nicht ganz.

Die haben sich einfach im Text vertippt.

"With a performance target of 1.6x over the HD 4770 and 1.2x over the HD 4750," Ergibt kein Sinn.
Hier ist einmal die 5770 gemeint und beim zweiten Vergleich natürlich die HD 5750.

reunion
2009-09-11, 18:48:57
60% über einer 4770 sind auch nicht ganz ohne, wenn man hier rein mit FLOPs rechnet müsste die 5770 ja bei 1.5TFLOPs liegen (800SPs@~950MHz) und von der realen Leistung ausgesehen wäre das HD 4890-Niveau, was mit 128-Bit etwas utopisch wirkt.

60% über 4770 braucht man auch wenn man $199 verlangen will. Da die 5850 $299 kostet wäre sonst eine riesen Lücke.

LovesuckZ
2009-09-11, 18:50:21
60% über 4770 ist ca. GTX285 Niveau - was will man dann noch mit einer 5850?

Oder auch nicht... Hab mich verlesen.

w0mbat
2009-09-11, 18:50:51
60% über einer 4770 sind auch nicht ganz ohne, wenn man hier rein mit FLOPs rechnet müsste die 5770 ja bei 1.5TFLOPs liegen (800SPs@~950MHz) und von der realen Leistung ausgesehen wäre das HD 4890-Niveau, was mit 128-Bit etwas utopisch wirkt.

Genau das meine ich. HD4879/HD4890 haben beide 256bit@GDDR5, ein ähnlicher (800SPs, 40TMUs, 16ROPs) DX11 Chip soll dann mit 128bit@GDDR5 auskommen? Ich meine selbst mit 1,2GHz GDDR5 wäre man weit von einer HD4890 entfernt, obwohl die Rohperformance wohl besser sein soll.

Auch ein doppelter RV790 mit weiterhin nur 256bit scheint mir komisch. Wieso muss man den Chip drehen wie beim R600? Wieso hat man 16 Chips bei der 1Gb Karte verbaut? Wieso wirbt man mit extremen Auflösungen und woher kommt das Gerede von AA-4-Free?

Ich kann mir nicht vorstellen dass der Hub so optimiert und der On-Chip-Cache so vergrößert wurde, dass man hier nicht Performance verschenkt.

reunion
2009-09-11, 18:51:37
60% über 4770 ist ca. GTX285 Niveau - was will man dann noch mit einer 5850?

Das ist sicherlich auch wieder ein TFLOP-Vergleich. "Dank" 128-bit SI dürfte man damit je nach Bench max. bei der 4890 oder 4870 landen.

dildo4u
2009-09-11, 18:52:40
60% über 4770 braucht man auch wenn man $199 verlangen will. Da die 5850 $299 kostet wäre sonst eine riesen Lücke.
Es sind 20% passt genau zum + an Stream Prozessoren gegenüber 4770.

Eggcake
2009-09-11, 18:53:14
60% über 4770 ist ca. GTX285 Niveau - was will man dann noch mit einer 5850?

Oder auch nicht... Hab mich verlesen.

Aber auch nur ohne Qualitätssteigernde Settings...

Edit: Oh :)

AnarchX
2009-09-11, 18:53:38
60% über 4770 braucht man auch wenn man $199 verlangen will. Da die 5850 $299 kostet wäre sonst eine riesen Lücke.
Da ist natürlich auch wieder etwas dran.
Wobei 60% reine Leistung wirklich ein ziemlicher Batzen sind, die man sich mit 950MHz GPU und ~1.2GHz Speicher erkaufen müsste, wobei man hier gleich ausgestattet wie die 5870 wäre bzw. sogar noch teurer wenn nur 8-mal 2048Mbit verbaut wird.

reunion
2009-09-11, 18:54:37
Genau das meine ich. HD4879/HD4890 haben beide 256bit@GDDR5, ein ähnlicher (800SPs, 40TMUs, 16ROPs) DX11 Chip soll dann mit 128bit@GDDR5 auskommen? Ich meine selbst mit 1,2GHz GDDR5 wäre man weit von einer HD4890 entfernt, obwohl die Rohperformance wohl besser sein soll.


4770 hat 128bit mit 800Mhz GDDR5 und 640SPs, 32TMUs, 16ROPs.


Auch ein doppelter RV790 mit weiterhin nur 256bit scheint mir komisch. Wieso muss man den Chip drehen wie beim R600? Wieso hat man 16 Chips bei der 1Gb Karte verbaut? Wieso wirbt man mit extremen Auflösungen und woher kommt das Gerede von AA-4-Free?

Durch das drehen kann man ihn besser Verdrahten, das ist nicht ungewöhnlich. UNd die Karte hatte 2GB VRAM.


Ich kann mir nicht vorstellen dass der Hub so optimiert wurde und der On-Chip-Cache so vergrößert wurden, dass man hier nicht Performance verschenkt.

Mehr Bandbreite bringt immer Leistung. Die Frage ist nur ob sich das lohnt. Und die 10% welche das einem RV770 brachte rechtfertigen wohl kaum ein 512-bit SI.

reunion
2009-09-11, 18:55:13
Es sind 20% passt genau zum + an Stream Prozessoren gegenüber 4770.

Die 4770 taktet aber mit angezogener Handbremse. Nur 1V Spannung AFAIK und trotz sind durch übertakten locker 900Mhz drin.

AnarchX
2009-09-11, 18:58:06
Da dürfte man wohl die 5770 bei >100W board power finden.

Gast
2009-09-11, 18:58:17
Könnte mir vorstellen dass die 5700er der Renner schlechthin werden. Leistungstechnisch werden sie wohl auf 4870er Niveau sein aber viel billiger zu produzieren -> Der Preiskampf geht also in die nächste Runde. Ach ja und DX11 ist auch noch an Board.
Nvidia wird einige seiner karten noch billiger anbieten müssen, und bei den 260ern kann ich mir kaum vorstellen dass man noch viel gewinn mit denen machen kann.

Gunslinger
2009-09-11, 19:03:26
Wie lang ist nun die HD5870 in cm, und warum sagt niemand was zur Lautstärke des Lüfters, bzw. zur Hitzeentwicklung. Weiss da niemand was hierzu ?
Im IDLE denk ich wird es echt gut und auch sehr leise werden, ABER unter Last, bzw. den neuesten DX11/10 Games.

Das mainboard auf den Bildern scheint ein ASUS M4A79T Deluxe mit einer Breite von 24,4 cm zu sein. Die Karte steht da IMO ca. 3 cm über. Ich nehme an die Karte hat um die 28 cm.

http://www.wsgfmedia.com/generaladmission/pics/TripleHDTV-card1.jpg
http://news.ati-forum.de/images/stories/Szymanski/News/2009/5850_Pressslides/8.jpg

http://www.asus.com/Product.aspx?P_ID=lhJiLTN5huPfCVkW

Gast
2009-09-11, 19:32:12
Ich hab mal eine Frage an die Allgemeinheit:

Kann jemand, der sich im Besitz einer HD4K-Karte befindet mal versuchen das Verhältnis Rechenleistung/Speicherbandbreite simulieren dass die HD5K-Reihe vermutlich haben wird? (-> http://news.ati-forum.de/images/stories/Szymanski/News/2009/5850_Pressslides/2.jpg) Also bei gleichbleibendem Kerntakt den Speichertakt senken und irgendwas benchen.

Ich beziehe mich da auf einen Kommenter bei hardware-infos.de (http://www.hardware-infos.com/news.php?news=3187):

"Dann sind es also doch nur 56,5 MB/Gflop statt 63 bei 825/1300! Selbst die 5850 hat da mehr (bei 725/1000): 61,3! - Bei der 4870 waren es sogar 96 und 91,8 bei der 4890..."

Wäre mal interessant den Vergleich zu sehen...

PS.: Ich bin nicht dieser PCuser90, den ich da zitiert habe.

Godmode
2009-09-11, 19:37:57
Ich verstehe sowieso nicht warum beim SI so extrem "gegeizt" wird. Entweder verwenden sie irgend einen kranken Kompressionsalgorithmus oder das Ding wird einfach an der mangelnden Bandbreite verhungern, IMHO.

Eggcake
2009-09-11, 19:40:51
Bei der 4000er war doch der Chip zu klein?

BeeRockxs
2009-09-11, 19:43:53
Ist http://www.czechgamer.com/novinky/5038/ATI-Radeon-HD-5870-prvni-fotky-bez-chladice.html schon bekannt?
2x6-Pin Strom.

Daredevil
2009-09-11, 19:50:17
Ich hab mal eine Frage an die Allgemeinheit:

Kann jemand, der sich im Besitz einer HD4K-Karte befindet mal versuchen das Verhältnis Rechenleistung/Speicherbandbreite simulieren dass die HD5K-Reihe vermutlich haben wird? (-> http://news.ati-forum.de/images/stories/Szymanski/News/2009/5850_Pressslides/2.jpg) Also bei gleichbleibendem Kerntakt den Speichertakt senken und irgendwas benchen.

Ich beziehe mich da auf einen Kommenter bei hardware-infos.de (http://www.hardware-infos.com/news.php?news=3187):

"Dann sind es also doch nur 56,5 MB/Gflop statt 63 bei 825/1300! Selbst die 5850 hat da mehr (bei 725/1000): 61,3! - Bei der 4870 waren es sogar 96 und 91,8 bei der 4890..."

Wäre mal interessant den Vergleich zu sehen...

PS.: Ich bin nicht dieser PCuser90, den ich da zitiert habe.
Mal so auf die schnelle mit ner hochgezüchteten 4830 die eh nur GDDR3 hat, CS:S Valve Stress Test 2048x1536 @ 8AA + 16af
Bandbreite per GPUz ausgelesen.
HD4830 @ 800Mhz Kerntakt

Ramtakt:
1035Mhz - 66,2 GB/s : 202,31 FPS
750Mhz - 48,0 GB/s : 178,32 FPS
500Mhz - 32,0GB/s : 131,17 FPS

Gast
2009-09-11, 20:07:22
@Daredevil:

Ich bin mir leider nicht sicher wie man diese Verhältnisse richtig berechnet - deshalb habe ich auch zitiert statt selbst gerechnet. Weißt du welchen Takt du wählen müsstest damit das Verhältnis bei deiner HD4830 vergleichbar ist?

Gast
2009-09-11, 20:29:07
Also ich hatte gerade ein wenig Zeit und habe mir das überlegt:

HD5870 @850/1200:
~2,72 TFLOPS @ ~153,7 GB/s -> 56,3 MB/GFLOP

HD4830 @ 800/900:
~1TFLOP @ ~ 57,6 GB/s -> 56,25 MB/GFLOP

Wenn ich mich also nicht vertan habe entspricht eine HD430 mit 800/900 in etwa dem Verhältnis der HD5870 mit 850/1200.

Interessant wäre es also wenn man von 900 weg den Speicher höher taktet und dann die Mehrleistung vergleicht.

...

Ergibt das Sinn?

dildo4u
2009-09-11, 20:37:41
http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/683-hd58xx-entgueltige-spezifikationen-und-weitere-informationen

http://news.ati-forum.de/images/stories/Szymanski/News/2009/5850_Pressslides/4.jpg

http://news.ati-forum.de/images/stories/Szymanski/News/2009/5850_Pressslides/5.jpg

http://i30.tinypic.com/mweav5.jpg

derguru
2009-09-11, 20:39:38
ist das Alien vs. Predator?

horn 12
2009-09-11, 20:39:49
http://news.ati-forum.de/images/stories/Szymanski/News/2009/5850_Pressslides/8.jpg

Ach du heilige Scheisse... Warum wird die "Neue HD5870 nur sooo lang"
MUSS ich echt auf Alternativ-Karten warten, welche kürzer treten in der Länge?
Habe bis zu meinem Harddisk Käfig maximal 25,5cm Platz, dann ist Sense, bzw. Karte stösst an. Die HD4870 1GB Sapphire passt noch mit ca. guten 2,5cm Spiel aber mit einer HD5870 wenn die wirklich 28m lang misst, ist definitiv Schluss! Grrr!

Und nun dies, obwohl ich es nicht mehr erwarten kann!!

reunion
2009-09-11, 20:40:19
http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/683-hd58xx-entgueltige-spezifikationen-und-weitere-informationen

http://news.ati-forum.de/images/stories/Szymanski/News/2009/5850_Pressslides/4.jpg

http://news.ati-forum.de/images/stories/Szymanski/News/2009/5850_Pressslides/5.jpg

http://i30.tinypic.com/mweav5.jpg

Ja, Alien vs. Predator verwendet den Tesslator.

Ich hab mal eine Frage an die Allgemeinheit:

Kann jemand, der sich im Besitz einer HD4K-Karte befindet mal versuchen das Verhältnis Rechenleistung/Speicherbandbreite simulieren dass die HD5K-Reihe vermutlich haben wird? (-> http://news.ati-forum.de/images/stories/Szymanski/News/2009/5850_Pressslides/2.jpg) Also bei gleichbleibendem Kerntakt den Speichertakt senken und irgendwas benchen.

Ich beziehe mich da auf einen Kommenter bei hardware-infos.de (http://www.hardware-infos.com/news.php?news=3187):

"Dann sind es also doch nur 56,5 MB/Gflop statt 63 bei 825/1300! Selbst die 5850 hat da mehr (bei 725/1000): 61,3! - Bei der 4870 waren es sogar 96 und 91,8 bei der 4890..."

Wäre mal interessant den Vergleich zu sehen...

PS.: Ich bin nicht dieser PCuser90, den ich da zitiert habe.

Das bringt nicht, weil die Latenzen nicht mehr stimmen wenn man den Takt senkt.

Gast
2009-09-11, 20:43:51
@reunion:
Alternativ könnte man ja auch von 800/900 ausgehend den Kerntakt senken (zB bis auf das Stockniveau von 575 MHz).... oder gibt es da auch technische Einwände?

Spasstiger
2009-09-11, 21:30:33
Hab mal ein Vergleichsdiagramm angefertigt:

http://img2.pict.com/64/f6/bc/1605647/0/amdgpus.png

Stimmen die Angaben soweit? Die Transistorzahl des RV870 hab ich geschätzt, könnten auch etwas mehr sein.

/EDIT: Fehler korrigiert und neue Rubriken hinzugefügt.

reunion
2009-09-11, 21:31:40
2.15Mrd Transistoren sind es bei RV870.

@reunion:
Alternativ könnte man ja auch von 800/900 ausgehend den Kerntakt senken (zB bis auf das Stockniveau von 575 MHz).... oder gibt es da auch technische Einwände?

Nein, den Kerntakt kann man beliebig skalieren. Nur sehen ich nicht wie du damit eine Bandbreitenlimitierung von RV870 nachweisen willst.

AnarchX
2009-09-11, 21:43:18
RV670 hatte die gleichen TMUs wie R600. Bei R600 hatte die 1GiB Version 1GHz GDDR4.

Die TDPs könnte man auch noch aufnehmen: 215W, 105W, 160W, 190W und 188W.

w0mbat
2009-09-11, 21:44:01
Hm, wenn man HD5870 mit HD4890 vergleicht scheint die Bandbreite gering. Im Vergleich mit HD4770 sieht das schon anders aus.

dildo4u
2009-09-11, 21:52:25
Gegen eine 150€ 4890 wird die Karte Preisleistungsmäßig nicht gut aussehen, da hat sich ATI einen Bärendienst erwiesen.Dadurch das der Chip kleiner ist wird die Preis/Leistung im Vergleich immer deutlich besser sein

Eggcake
2009-09-11, 21:55:07
Logisch ist Preis/Leistung bei den schnellsten Karten schlechter...dafür gibt's ja dann die 5770 und 5750.

Gast
2009-09-11, 22:04:45
@reunion:
Das Spielchen mit der Rechenleistung/Bandbreite lässt sich ja in beide Richtungen spielen:

Wenn der Chip durch die Speicheranbindung limitiert wird müsste er bei einer reinen Speichertakterhöhung auch eine deutliche Leistungssteigerung zeigen.

Umgekehrt heißt das aber auch dass die Leistungsminderung bei einem Absenken des Kerntaktes schwächer ausfallen müsste weil der Chip für die Bandbreite ja "zu schnell" ist und weniger Rechenleistung immer noch reicht um die Bandbreite weitgehend auszuschöpfen.

Wenn man da ein paar Messwerte hat kann man sehen ob sich Kerntakt und Spieleleistung bei gleicher Bandbreite (bis hin zu 800/900 bei der HD4830) annähernd linear verhalten - wenn ja, ist das ein klares Zeichen dafür dass der Chip noch nicht auf seinem Leistungsplateau angekommen ist. Wenn der Gewinn mit zunehmendem Kerntakt aber geringer wird zeigt sich dass der Chip mit der Bandbreite auch annähernd ausgelastet ist.


Das sind natürlich rein logische Theoriespielchen aber vielleicht lässt sich auf die Art abschätzen wie gut Rechenleistung und Bandbreite beim RV870 aufeinander abgestimmt sind. Im Vergleich zu den Vorgängern erscheint die Bandbreite eben doch arg wenig - auch wenn ich davon ausgehe dass ATI sich schon was überlegt hat bei der ganzen Sache ;).

dargo
2009-09-11, 22:17:53
Ich sehe das ja sogar schon bei einem 19" TN bei mir auf Arbeit. Dort habe ich 2x davon und habe sie schon korrekt ausgerichtet.
Wir haben auf Arbeit ebenfalls 19 Zoll TNs. Die sind um Welten schlechter als zb. der LG L227WT. Ich kann mich hier nur wiederholen - TN <> pauschal schlecht. Es gibt riesen Unterschiede.

Userxy
2009-09-11, 22:49:32
Wir arbeiten in der Firma auch an verschiedenen TN-Panels, aber wenn man PVA oder IPS zu Hause hat, fällt einem doch die viel schlechtere Winkelabhängigkeit sofort auf. Und daran möchte ich mich auch nicht gewöhnen. Den Kollegen die von oben (stehend) auf die Panels sehen, wenn man ihnen etwas zeigen möchte, muss man erst den Monitor nach hinten kippen und dann sieht man selbst nur dunkel. Furchtbar! Probier doch einfach mal ein sehr gutes anderes Panel aus, dann verstehst du wovon hier einige reden. Und die Farben!

Eggcake
2009-09-11, 22:53:04
Es ist wahrscheinlich wie bei vielem so, dass man das Schlechte erst sieht, wenn man das Bessere mal hatte und wieder zurückwechselt.
Mich erinnert die Diskussion grad stark an HDD vs. SSD Diskussionen. Jeder meint, seine HDD sei schon schnell. Wenn er eine SSD hat, meint er, die HDD war ebenso schnell. Erst wenn er später wiedermal mit einer HDD arbeitet geht das Lichtchen auf.

dargo
2009-09-11, 22:55:47
Wir arbeiten in der Firma auch an verschiedenen TN-Panels, aber wenn man PVA oder IPS zu Hause hat, fällt einem doch die viel schlechtere Winkelabhängigkeit sofort auf. Und daran möchte ich mich auch nicht gewöhnen. Den Kollegen die von oben (stehend) auf die Panels sehen, wenn man ihnen etwas zeigen möchte, muss man erst den Monitor nach hinten kippen und dann sieht man selbst nur dunkel. Furchtbar!

Und was hat das mit dem User zu tun der gerade vor dem Bildschirm sitzt? Richtig, gar nichts.


Probier doch einfach mal ein sehr gutes anderes Panel aus, dann verstehst du wovon hier einige reden. Und die Farben!
Meinst du mich? Ich brauche nichts probieren da ich non-TN oft genug in Aktion gesehen habe.

Spasstiger
2009-09-11, 23:07:12
RV670 hatte die gleichen TMUs wie R600.
Stimmt, werds korrigieren.
Bei R600 hatte die 1GiB Version 1GHz GDDR4.
Werd mal schauen, wie ich das in die Tabelle reinbringe. Evtl. mache ich die Speichertakt-Rubrik zweilig, schließlich gabs auch eine HD 3870 GDDR3 mit weniger Takt.

Gipsel
2009-09-11, 23:18:34
RV670 hatte noch doppelt so viele TAUs wie TMUs.

Gast
2009-09-11, 23:40:14
Hier ist ein Artikel der sich mit dem befasst was ich versucht habe hier zu erläutern:
http://www.anandtech.com/video/showdoc.aspx?i=3555&p=2

Die HD4890 hat mit ihren 1,36TFLPOS bei 124,8GB/s ein MB/GFLOP-Verhältnis von 91,8 - ziemlich genau das doppelte der HD5870. Bei Anandtech haben sie nun den Speicher übertaktet auf 1,2GHZ, wodurch dieses Verhältnis noch größer wurde: 113 oder +23%. Der Leistungsgewinn in Spielen lag jedoch (beispielhaft bei 1920x1200) im Mittel bei 2,2%, was bei einer so geringen Zahl an Messwerten eigentlich vernachlässigbar ist. Offenbar hat die HD4890 also bei Standardtakt mehr als genug Bandbreite zur Verfügung.

Andersrum getestet haben sie auch:
Bei gleich bleibendem Speichertakt haben sie den Kern übertaktet auf 1GHz.
Das ergibt 1,6TFLOP oder 78 MB/GFLOP. Mit einem Taktplus von 18% haben sie immerhin 10% mehr Leistung erzielt, also doch ein klarer Unterschied zur Speichertakterhöhung.

Nur sind diese 78 MB/GFLOP immer noch ein Stückchen mehr als die 56,5 MB/FLOP der HD5870.... deshalb wäre es ja interessant zu sehen wie die Leistungsunterschiede in dieser Region ausfallen.

horn 12
2009-09-11, 23:50:40
http://www.computerbase.de/artikel/hardware/gehaeuse_kuehlung/2009/test_xigmatek_midgard/3/#abschnitt_erfahrungen

HIER die Abmessungen aktueller Grafikkarten.
Nur wo wird sich die HD5870 einreihen INKLUSIVE der Lüftungs Ansaugöffnungen ?

Eggcake
2009-09-11, 23:54:21
X2 +1cm wohl.

Der_Korken
2009-09-11, 23:56:03
Das mit der Speicherbandbreite wurde ja jetzt schon ziemlich oft diskutiert. Ich glaube aber nicht, dass der RV870 damit große Probleme bekommt. ATI wusste doch, dass zum Release-Zeitpunkt maximal 5Ghz-GDDR5 verfügbar sein wird. Wäre die Speicherbandbreite wirklich so knapp, hätte man es rechtzeitig gesehen und auf 320/384Bit erweitert. Die haben sich sicherlich was dabei gedacht auf 256Bit zu setzen (zB weil ein größeres SI die Kosten in die Höhe getrieben hätte). Wie schon mehrmals gesagt wurde, sieht man an der 4770 und der 4850, dass es auch mit wenig Bandbreite gut funktioniert. Ich glaube ja kaum, dass der neue Chip ineffizienter mit der Bandbreite umgeht, von daher bin ich zuversichtlich.

Spasstiger
2009-09-11, 23:59:40
RV670 hatte noch doppelt so viele TAUs wie TMUs.
Nicht dass ich wüsste. Imo hatte das nur der R600, beim RV670 hat man es weggelassen, um Transistoren zu sparen.
/EDIT: Ok, der RV670 hatte doch 32 TAUs. Aber war da nicht was mit den Point-Sampling-TMUs? Wieviel hatte davon jeweils der R600 und der RV670? Der R600 hatte ja 16 zusätzliche Pointsampling-TMUs (Quelle (http://www.3dcenter.org/artikel/ati-radeon-hd-2900-xt-review/der-r600-grafikchip)). Hatte der RV670 auch noch welche?
/EDIT2: Ok, die Pointsampling-Units hatte auch noch der RV670 im Blockdiagramm. Erst beim RV770 verschwanden diese.

X2 +1cm wohl.
Das PCB selbst ist knapp über 25 cm lang, inkl. Kühler landet man bei knapp über 27 cm oder vielleicht auch genau bei 27 cm.

|-Sh0r7y-|
2009-09-12, 00:12:53
Kriegt ATI die AF Qualität und das AA in griff und drückt weiter den Preis und ist von der Leistung min. gleich dan wird meine nächste Karte Defenetiv eine ATI/AMD sein.
Einzig die Treiber schrecken mich bei ATI/AMD ab, oder anderst gesagt die Nvidia Treiber sind wirklich gut und funktionieren selbst unter Linux super.

Gipsel
2009-09-12, 01:04:07
Ok, der RV670 hatte doch 32 TAUs. Aber war da nicht was mit den Point-Sampling-TMUs? Wieviel hatte davon jeweils der R600 und der RV670? Der R600 hatte ja 16 zusätzliche Pointsampling-TMUs (Quelle (http://www.3dcenter.org/artikel/ati-radeon-hd-2900-xt-review/der-r600-grafikchip)). Hatte der RV670 auch noch welche?
Ich denke schon. Die waren speziell dazu da, ungefilterte Daten (aka Pointsampling) zu lesen (TMU ist da ein wenig hochgegriffen). R600/RV670 hatte sogar einen extra Cache dafür. Das ist mit ein Grund, warum der L1-Texture-Cache beim RV770 effektiv doppelt so groß pro SIMD ist, weil es jetzt nur noch einen Cache gibt und z.B. auch Geometry-Shader die Daten über die Filtereinheiten laden und nicht über diese Extra-Einheiten.

PS: Die Daten zu den Texture-Caches des RV670 in dem verlinkten Artikel stimmen meines Wissens nicht. Es gibt zwei unified L1 (für alle SIMDs) von 32kB für gefilterte Daten und 32kB für ungefilterte Daten sowie 4x64kB L2 (pro Seichercontroller 64kB). RV770 hat 16kB L1 pro SIMD (und einen weiterhin unified speziellen Geometry-Cache), aber das nur am Rande.

Spasstiger
2009-09-12, 01:32:12
@Gipsel: Hab ja oben noch was dazugeschrieben, die Pointsampling-Einheiten waren tatsächlich auch noch beim RV670 vorhanden (siehe Blockdiagramm).

Hat schon jemand Informationen zu den ROPs? Wieviele z-Tester wirds geben, 32*4 oder 32*8? Und wie wird sich die Füllrate bei 8xMSAA verhalten, Halbierung gegenüber 4xMSAA?

Cpl. Dwayne Hicks
2009-09-12, 02:16:14
Hmmm... bin irgenwie leicht entäuscht. Sie hätten auch diesesmal eine 2,5 fache Steigerung bringen sollen. Naja ich warte auf den GT300, werde dann meine GTX 280 wohl verkaufen.

Gast
2009-09-12, 03:09:00
Ich glaube aber nicht, dass der RV870 damit große Probleme bekommt. ATI wusste doch, dass zum Release-Zeitpunkt maximal 5Ghz-GDDR5 verfügbar sein wird. Wäre die Speicherbandbreite wirklich so knapp, hätte man es rechtzeitig gesehen und auf 320/384Bit erweitert.

So einfach ist das aber auch nicht. Selbst wenn sie eine verdopplung der Rechenleistung hinkriegen und am Ende davon einiges übrig bleiben sollte, wäre das schonmal eine gute Quote, auch wenn es besser ginge.

Ich sehe das eher so, das AMD damit rechnet, konkurrenzfähig zu bleiben und zwar beim Preis. Mit 256 bit und durchschnittlichem GDDR5 dürfen sie einiges an Spielraum beim Preis haben, da GDDR5 mit der Zeit besser verfügbar wird und sich die Produktionskosten in Grenzen halten werden.
Andererseits könnte es auch sein, das sie es machen wollten, aber nicht hinbekommen hätten, wenn sie gleich mit 384 oder gar 512 bit gerechnet hätten. Zwar sind 40nm in greifbarer Nähe, aber so ein 2,15 Milliarden Transistorenmonster fordert auch seinen Tribut.
Mehr von allem macht vielleicht bei einer erneuten Strukturverkleinerung Sinn, aber jetzt wird man sich erstmal darum kümmern müssen, das auch komplexe Designs in 40nm funktionieren. Der Stromverbrauch ist ja trotzdessen schon wieder ein Thema, wirklich viel Reserve nach oben ist da vielleicht nicht, es sei denn, es wird ne superteure Karte, was zur Zeit nicht wirklich Sinn macht.
In anderen Worten, schnelleren Speicher kann man nachkaufen, das Design umkrempeln so schnell nicht. Im Zweifel baut man halt erst das günstige und schiebt den Rest nach. ;)

Coda
2009-09-12, 03:11:27
Stimmen die Angaben soweit?
RV770 & RV790 haben nur 32 TAUs und 40 TMUs.

Spasstiger
2009-09-12, 03:31:55
RV770 & RV790 haben nur 32 TAUs und 40 TMUs.
Ich zähle 40 TAUs:
http://www.computerbase.de/bildstrecke/22061/14/

Coda
2009-09-12, 03:39:11
Dann stimmt das Schaubild nicht.

AnarchX
2009-09-12, 08:05:33
War es nicht so dass RV770/790 zwar 40 TAs hat, anders könnte man hier die SIMDs auch nicht skalieren, aber eben nur 32 Koordinaten-Interpolatoren, die wohl irgendwo auf der Setup-Ebene sind?

reunion
2009-09-12, 08:34:54
War es nicht so dass RV770/790 zwar 40 TAs hat, anders könnte man hier die SIMDs auch nicht skalieren, aber eben nur 32 Koordinaten-Interpolatoren, die wohl irgendwo auf der Setup-Ebene sind?

Richtig. RV770 hat natürlich 40 TAUs.

OgrEGT
2009-09-12, 08:40:32
http://news.ati-forum.de/images/stories/Szymanski/News/2009/5850_Pressslides/8.jpg

Ach du heilige Scheisse... Warum wird die "Neue HD5870 nur sooo lang"
MUSS ich echt auf Alternativ-Karten warten, welche kürzer treten in der Länge?
Habe bis zu meinem Harddisk Käfig maximal 25,5cm Platz, dann ist Sense, bzw. Karte stösst an. Die HD4870 1GB Sapphire passt noch mit ca. guten 2,5cm Spiel aber mit einer HD5870 wenn die wirklich 28m lang misst, ist definitiv Schluss! Grrr!

Und nun dies, obwohl ich es nicht mehr erwarten kann!!

Na aber mal ehrlich...

Wenn Du wirklich ernsthaft über den Erwerb einer der neuen ATI Karten nachdenkst, dann würde ein neues, passendes Gehäuse Dein Budget nicht sprengen dürfen.

Du hast sicherlich ein kleines Gehäuse, weil Wohnzimmer PC... Es gibt aber auch im Bereich der mATX Gehäuse durchaus Alternativen bsp. wie mein Silverstone Gehäuse. Ist mATX und es würde sogar eine 30cm lange KArte reinpassen :)

Also vielleicht auch mal alte Zöpfe abschneiden...

Ailuros
2009-09-12, 09:18:32
Hmmm... bin irgenwie leicht entäuscht. Sie hätten auch diesesmal eine 2,5 fache Steigerung bringen sollen. Naja ich warte auf den GT300, werde dann meine GTX 280 wohl verkaufen.

Wie schafft man 2.5x theoretisch wenn 770 erstmal die vorigen 600/670 Wehwechen beseitigte (und dadurch ein groesserer Leistungssprung als zuvor zustande kam) und nichts krummes mehr an 770 lag?

Eine 5870 ist um so viel schneller als Deine heutige 280 wie man es von einer neuen Generation erwarten wuerde.

MR2
2009-09-12, 09:23:30
Dazu noch 27 Watt Idle und DX11....

Ich glaube nicht das der GT300 eine Hemlock schlagen wird...Da braucht NV schon eine GTX 395:rolleyes:

nagus
2009-09-12, 11:20:16
ein lustiges nvidia statement: (http://venturebeat.com/2009/09/10/amd-introduces-a-graphics-chip-that-can-power-six-computer-displays/) "Acer, Dell, HP, MSI and Toshiba are creating computers using AMD’s latest graphics chips. In response, Nvidia said in a statement, “The gaming world has moved to dynamic realism, which depicts actual physical movement more realistically than ever before. For example, the No. 1 PC game coming out next week is ‘Batman: Arkham Assyum,’ which takes advantage of graphics plus physics to give it extraordinary realism. Because we support GPU-accelerated physics, our $129 card that’s shipping today is faster than their new RV870 (code name for new AMD chips) that sells for $399.”"

http://www.xtremesystems.org/forums/images/smilies/nut.gifhttp://www.xtremesystems.org/forums/images/smilies/nut.gifhttp://www.xtremesystems.org/forums/images/smilies/nut.gifhttp://www.xtremesystems.org/forums/images/smilies/nut.gifhttp://www.xtremesystems.org/forums/images/smilies/nut.gifhttp://www.xtremesystems.org/forums/images/smilies/nut.gifhttp://www.xtremesystems.org/forums/images/smilies/nut.gifhttp://www.xtremesystems.org/forums/images/smilies/nut.gifhttp://www.xtremesystems.org/forums/images/smilies/nut.gifhttp://www.xtremesystems.org/forums/images/smilies/nut.gif

Tarkin
2009-09-12, 11:26:59
ein lustiges nvidia statement: (http://venturebeat.com/2009/09/10/amd-introduces-a-graphics-chip-that-can-power-six-computer-displays/) "Acer, Dell, HP, MSI and Toshiba are creating computers using AMD’s latest graphics chips. In response, Nvidia said in a statement, “The gaming world has moved to dynamic realism, which depicts actual physical movement more realistically than ever before. For example, the No. 1 PC game coming out next week is ‘Batman: Arkham Assyum,’ which takes advantage of graphics plus physics to give it extraordinary realism. Because we support GPU-accelerated physics, our $129 card that’s shipping today is faster than their new RV870 (code name for new AMD chips) that sells for $399.”"

oh ja.... jetzt wirds interessant. :freak:

V2.0
2009-09-12, 11:53:19
ein lustiges nvidia statement: (http://venturebeat.com/2009/09/10/amd-introduces-a-graphics-chip-that-can-power-six-computer-displays/) "Acer, Dell, HP, MSI and Toshiba are creating computers using AMD’s latest graphics chips. In response, Nvidia said in a statement, “The gaming world has moved to dynamic realism, which depicts actual physical movement more realistically than ever before. For example, the No. 1 PC game coming out next week is ‘Batman: Arkham Assyum,’ which takes advantage of graphics plus physics to give it extraordinary realism. Because we support GPU-accelerated physics, our $129 card that’s shipping today is faster than their new RV870 (code name for new AMD chips) that sells for $399.”"

http://www.xtremesystems.org/forums/images/smilies/nut.gifhttp://www.xtremesystems.org/forums/images/smilies/nut.gifhttp://www.xtremesystems.org/forums/images/smilies/nut.gifhttp://www.xtremesystems.org/forums/images/smilies/nut.gifhttp://www.xtremesystems.org/forums/images/smilies/nut.gifhttp://www.xtremesystems.org/forums/images/smilies/nut.gifhttp://www.xtremesystems.org/forums/images/smilies/nut.gifhttp://www.xtremesystems.org/forums/images/smilies/nut.gifhttp://www.xtremesystems.org/forums/images/smilies/nut.gifhttp://www.xtremesystems.org/forums/images/smilies/nut.gif

So hört es sich an, wenn NV verloren hat.

Abgesehen davon finde es bedauerlich, dass es für die 5850 kein kürzeres PCB gibt.

Spasstiger
2009-09-12, 12:01:06
War es nicht so dass RV770/790 zwar 40 TAs hat, anders könnte man hier die SIMDs auch nicht skalieren, aber eben nur 32 Koordinaten-Interpolatoren, die wohl irgendwo auf der Setup-Ebene sind?
Fast hätte ich es Coda geglaubt, weil er auch Application Notes liest und versteht und sich nicht wie die ganzen Reviewer auf Schaubilder und Abschreiberei verlässt. Dann scheinen es wohl nur aus Programmierersicht 32 TAUs zu sein, physikalisch aber 40.

LovesuckZ
2009-09-12, 12:02:36
“At the end of the day today,” Rick Bergman, senior vice president of Sunnyvale-based AMD, said, “AMD will be the undisputed graphics leader in the world.”

Dann darf man auch nicht in Batman verlieren. :(

Schlammsau
2009-09-12, 12:05:32
Abgesehen davon finde es bedauerlich, dass es für die 5850 kein kürzeres PCB gibt.

Jetzt mal ehrlich....wer baut sich so eine Karte in einen Mini Tower oder seinen HTPC ein? Ich selber habe einen Midi Tower und in diesen hat sogar eine GTX275 rein gepasst. Und die HD5800er werden wohl genauso lang sein oder?

Weiss man eigentlich schon was zu den spekulierten Preisen der Karten unterhalb der HD5850?
Bis zu 300$ sind mir eindeutig zuviel......

AnarchX
2009-09-12, 12:08:51
Die 5770 dürfte wohl bei <$200 liegen.
Aber selbst eine HD 5850 lohnt sich wohl eher weniger als Upgrade von einer >=HD4870/GTX 260, mit ihren ~50% Mehrleistung.

Am sinnvollsten dürfte wohl da sein bis Anfang 2010 zu warten, wo D3D11-Titel in größerer Menge verfügbar sind und die 5870 sich schon in Richtung 200€ bewegen sollte, wenn NV hier nachgelegt hat.

derguru
2009-09-12, 12:10:33
mein preistipp zum start inkl. deppenaufschlag,
ca.260euro 5850
ca.360euro 5870

Coda
2009-09-12, 12:14:10
40 TAUs ist korrekt. Hatte es mit den Interpolatoren verwechselt, sorry. Das Ergebnis ist vom Effekt her ähnlich.

S940
2009-09-12, 12:18:23
Dann darf man auch nicht in Batman verlieren. :(
Kannst Dir ja ne PhysiX Karte von nVidia ins System stecken, mit altem Treiber sollte das gut funktionieren.
Eine G92 sollte ausreichen, nach dem RV8x0 Start wird es die wohl eh für n Apple und n Ei geben ;-)

LovesuckZ
2009-09-12, 12:20:11
Kannst Dir ja ne PhysiX Karte von nVidia ins System stecken, mit altem Treiber sollte das gut funktionieren.

Ich fand das nur so witzig - als ich es auf der Seite gelesen habe.


Eine G92 sollte ausreichen, nach dem RV8x0 Start wird es die wohl eh für n Apple und n Ei geben ;-)

Gibt es doch jetzt schon. ;D

Gast
2009-09-12, 12:30:27
Ausserdem läuft ja phsyx auch auf Ati Karten bei Batman mit ein trick.^^

derguru
2009-09-12, 12:31:22
Ausserdem läuft ja phsyx auch auf Ati Karten bei Batman mit ein trick.^^
mach kein geheimniss dann erzähl auch wie.

Shakti
2009-09-12, 12:31:57
Ich wiederhole nochmal meine Frage vom 6.September:

Was mich viel mehr als alle shaderzahlen interessieren wuerde, ob die 2 gpus der 5870x2 jetzt so verbunden sind, wie vor Erscheinen der 4870x2 spekuliert wurde?

Heisst ob einfach nur wie mit 2 getrennten Karten verbunden oder wie damals heftigst spekuliert wurde als Einheit der 2GPUs. Sorry, kanns jetzt nicht klarer ausdruecken, hoffe Ihr wisst was ich wissen moechte.

S940
2009-09-12, 12:33:11
@Shakti:
Das weiss man immer noch nicht, die ganzen Neuigkeiten beziehen sich auf die normale 5870, die X2 kommt erst im November raus.

Geduld ..

ciao

Alex

Gast
2009-09-12, 12:34:17
Ausserdem läuft ja phsyx auch auf Ati Karten bei Batman mit ein trick.^^
Ganz sicher nicht (mangels CUDA), aber die Performance bei CPU-Berechnung wird massiv erhöht. Man kann also umgekehrt davon ausgehen, dass die PhysX-Softwareberechnungen zugunsten von Nvidia künstlich ausgebremst werden.

Diese Scheiße mit Plattformfallen kotzt mich an, egal bei welchem Hersteller, die Offenheit der PC-Plattform ist ein übergeordnetes Gut. Wenn ich das schon höre, "mit einem älteren Treiber". :mad:

Coda
2009-09-12, 12:42:14
PhysX läuft sicher nicht auf ATI.

AnarchX
2009-09-12, 12:43:25
Nein, aber man kann bei Batman die CPU-PhysX aktivieren und mit ein paar Parametern deren Leistung erhöhen:
http://rage3d.com/board/showpost.php?p=1336007626&postcount=44

V2.0
2009-09-12, 12:45:01
Jetzt mal ehrlich....wer baut sich so eine Karte in einen Mini Tower oder seinen HTPC ein? Ich selber habe einen Midi Tower und in diesen hat sogar eine GTX275 rein gepasst. Und die HD5800er werden wohl genauso lang sein oder?



Bei meinem alten CS601 ist, durch den zweiten Festplattenkäfig bei 24-25cm eigentlich Ende. So gesehn fände ich ein kürzeres PCB praktisch. Aber ich werde mich wohl sowieso mit ne 5770 zufrieden geben.

Ailuros
2009-09-12, 13:18:35
Zeit ein paar Kleinigkeiten zusammenzufassen:

1. Leistung fuer 5870 liegt ein sehr gesundes Prozentual vor der GTX285 mit 8xMSAA. Andere Faelle liegen dann eher im 30-40% Bereich mit der 5850 Nacken an Nacken mit der 285. Es gibt natuerlich Ausnahmen wo man sogar 2x 285 erreicht aber dann in sehr bestimmten Spielen und stets mit 8xAA ***edit und ja nicht vergessen AMD's eigene Messungen stets....

2. Rasterizing hat wie erwartet einen gesunden Zusatz bekommen; dual rasterizing ahoi.

3. Man erweiterte ein Stueckchen im AAA das Supersampling, ergo koennen die SS Fans aufrecht sitzen.

4. Was besonderes was AF betrifft konnte ich bis jetzt nicht sehen. Ob jetzt die Blume viereckig oder rund ist ist mir persoenlich wurscht da mich 45-gradige Winkelabhaengigkeit selten bis nie stoert, aber ja Geschmackssache. Ob einiges an der Flimmerneigung weg ist keine Ahnung.

5. P.M.I. (ohne weitere Erklaerung momentan und ja es ist fiess...)

6. Summa summarum: ein ~30% groesserer chip mit >100% hoeherer Komplexitaet erreicht im absoluten Durchschnitt 50-60% mehr als der direkte Vorgaenger und einen Schnitt weniger als die RV790.

Ja sie haben ausgezeichnete Arbeit geleistet, ja sie sind zeitlich mit einer kompletten Produktlinie auf dem Markt aber aus den Socken gerissen bin ich nun auch wieder nicht. Es ist auch leider deja vous dass man erst nach dem Vergleich mit der direkten Konkurrenz sagen kann wie "toll" das Resultat wirklich ist.

Botcruscher
2009-09-12, 13:46:07
Imo einbischen viel Wirbel um die angebliche Bandbreitenlimitierung, gerade weil noch keiner belastbare Zahlen in der Hand hat. Nuja, die Strategie von ATi ist schon mal richtig. Erstmal günstigen RAM mit 1GB verbauen und dann bei bedarf die "OC" Versionen mit 2GB und wesentlich besserem RAM nachschieben. Die Vorfreude auf G300 ist ja auch noch da.:)

P.M.I.??? Performance Memory Interface?!?:freak:

StefanV
2009-09-12, 13:49:22
PhysX läuft sicher nicht auf ATI.
Würd ich so nicht sagen wollen.

OpenCL ist ja sehr eng an Cuda angelehnt, möglich, das das sogar kompatibel zueinander ist bzw AMD es schon im Treiber integriert hat, aber mangels offizieller Freigabe nicht nutzen kann/darf...

Daredevil
2009-09-12, 13:52:33
P.M.I.??? Performance Memory Interface?!?:freak:
Parallel Memory Interface!!11elf

AnarchX
2009-09-12, 13:54:09
Imo einbischen viel Wirbel um die angebliche Bandbreitenlimitierung, gerade weil noch keiner belastbare Zahlen in der Hand hat.
Die Zahlen von Ailuros sprechen aber wieder für eine solche:
6. Summa summarum: ein ~30% groesserer chip mit >100% hoeherer Komplexitaet erreicht im absoluten Durchschnitt 50-60% mehr als der direkte Vorgaenger und einen Schnitt weniger als die RV790.

LovesuckZ
2009-09-12, 14:00:58
6. Summa summarum: ein ~30% groesserer chip mit >100% hoeherer Komplexitaet erreicht im absoluten Durchschnitt 50-60% mehr als der direkte Vorgaenger und einen Schnitt weniger als die RV790.


Errinert mich ein bisschen an nVidia vom letzten Jahr - bis auf die Größe hatte man auch fast doppelte soviele Transistoren und war nur 50-60% schneller. Nicht zu vergessen, dass der Stromverbrauch auch angewachsen ist.
Aber ich mache es wir letztes Jahr: Ich gehe immer noch von 100% zur 4870 aus!

Gast
2009-09-12, 14:05:47
Ich wiederhole nochmal meine Frage vom 6.September:

Was mich viel mehr als alle shaderzahlen interessieren wuerde, ob die 2 gpus der 5870x2 jetzt so verbunden sind, wie vor Erscheinen der 4870x2 spekuliert wurde?

Heisst ob einfach nur wie mit 2 getrennten Karten verbunden oder wie damals heftigst spekuliert wurde als Einheit der 2GPUs. Sorry, kanns jetzt nicht klarer ausdruecken, hoffe Ihr wisst was ich wissen moechte.

Sehr unwahrscheinlich, da die X2 sehr lang werden soll, also höchstwahrscheinlich zwei Prozessoren hat.

4 Vitamins
2009-09-12, 14:09:05
Die Zahlen von Ailuros sprechen aber wieder für eine solche:

Warten wir doch mal auf unabhängige Tests!:wink:


gruss

Ailuros
2009-09-12, 14:19:56
Errinert mich ein bisschen an nVidia vom letzten Jahr - bis auf die Größe hatte man auch fast doppelte soviele Transistoren und war nur 50-60% schneller. Nicht zu vergessen, dass der Stromverbrauch auch angewachsen ist.
Aber ich mache es wir letztes Jahr: Ich gehe immer noch von 100% zur 4870 aus!

Es kommt auf den Fall an; es gibt 8xMSAA Faelle wo die 5870 sogar fast 2x 285 Leistung erreicht. Man muss einfach den Unterschied zwischen einem eingeschaetzten Durchschnitt und einem "bis zu" Prozentual kapieren.

Ich hab nirgends gesagt dass das bis zu 2*770 nicht existiert.

Uebrigens sehen AMD's Crysis Vergleichsresultate von der 5870 ziemlich normal aus ;)

Gast
2009-09-12, 14:27:58
Uebrigens sehen AMD's Crysis Vergleichsresultate von der 5870 ziemlich normal aus ;)

Wo kann man die einsehn?

w0mbat
2009-09-12, 14:30:01
Ist ganz geheim ^.^

uweskw
2009-09-12, 14:32:59
Es gibt offizielle AMD Vergleichszahlen von Crysis?

AnarchX
2009-09-12, 14:36:59
Da muss wohl AMD noch eine 1,0/1,5GHz Version bis April nachschieben, damit diese dann für 150€ etwa 2x 4870/GTX 260 liefert (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7199286#post7199286).;)

Es gibt offizielle AMD Vergleichszahlen von Crysis?
Für die Partner bestimmt, für die Öffentlichkeit wohl demnächst.

Ailuros
2009-09-12, 14:38:41
Uebrigens bin ich entweder betrunken oder AMD ist diesmal ehrlicher mit ihren DP Angaben ;)

Triskaine
2009-09-12, 14:43:17
Was meinst du mit ehrlich? Die alten Angaben (wenn du mit DP Double Precision meinst?) waren ehrlich, nur ob man die Leistung auch erreichte war eine andere Sache.

Ailuros
2009-09-12, 14:55:43
Was meinst du mit ehrlich? Die alten Angaben (wenn du mit DP Double Precision meinst?) waren ehrlich, nur ob man die Leistung auch erreichte war eine andere Sache.

Ok da ich mich vielleicht ueber Behauptungen der Vergangenheit geirrt haben koennte: gaben sie frueher 4:1 an oder ein realistischeres 5:1? Denn ich sehe diesmal das zweite.

crux2005
2009-09-12, 14:58:58
bin mir jetzt nicht 100% sicher, aber imho stand auch bei RV670/RV770 5:1

EDIT:
http://s1.directupload.net/images/090912/fbpet89j.png

mboeller
2009-09-12, 14:59:44
Ok da ich mich vielleicht ueber Behauptungen der Vergangenheit geirrt haben koennte: gaben sie frueher 4:1 an oder ein realistischeres 5:1? Denn ich sehe diesmal das zweite.


AFAIR: War imho schon immer 1:5. 240 DP GFlops bei 1200 GFlops ist 1:5

Gipsel
2009-09-12, 15:02:50
Ok da ich mich vielleicht ueber Behauptungen der Vergangenheit geirrt haben koennte: gaben sie frueher 4:1 an oder ein realistischeres 5:1? Denn ich sehe diesmal das zweite.
Auf irgendeiner frühen Folie zum RV670 stand mal 4:1, aber bei RV770 haben sie für die Peakleistung meines Wissens nach immer korrekt 5:1 angegeben.

PS:
Wenn man DP nutzt, bleibt ja immer (mindestens) ein Slot einer VLIW-Einheit für gleichzeitige Integer oder SP-Rechnungen übrig. Wenn man Haare spalten will, schaffen die DP-fähigen SP-Einheiten schon 4:1 ;), da die t-Einheit mit DP nichts am Hut hat. Für die Peakleistung gilt deswegen aber 5:1.

Gast
2009-09-12, 15:06:55
Die Stromaufnahme unter Last ist aber ziemlich hoch. Mal sehen, wie die kleineren Modelle hier abschneiden und wie groß der Abstand geschwindigkeitsmässig zu den Grossen ist.

Ailuros
2009-09-12, 15:07:35
Gut dann hatte ich wohl leider das RV670 Zeug noch in Erinnerung.

Ist ganz geheim ^.^

Inglorious basterd :P

Gast
2009-09-12, 15:15:14
Die Stromaufnahme unter Last ist aber ziemlich hoch. Mal sehen, wie die kleineren Modelle hier abschneiden und wie groß der Abstand geschwindigkeitsmässig zu den Grossen ist.

Aha, wo steht die denn? Ich kann nur TDP Angaben finden.

derguru
2009-09-12, 16:33:02
ab 2.40min hört man die lautstärke des lüfters.:freak:
http://www.youtube.com/watch?v=3Qf8vHr9e4k&feature=related

Gast
2009-09-12, 16:47:00
und du kannst also unterscheiden ob es vom cpu oder gpu lüfter kommt ja?

derguru
2009-09-12, 16:55:11
ja klar locker:wink:,
http://www.abload.de/img/avatar-71y1t8.jpg

Coda
2009-09-12, 17:13:47
Würd ich so nicht sagen wollen.

OpenCL ist ja sehr eng an Cuda angelehnt, möglich, das das sogar kompatibel zueinander ist bzw AMD es schon im Treiber integriert hat, aber mangels offizieller Freigabe nicht nutzen kann/darf...
Nein ist es nicht.

reunion
2009-09-12, 17:59:33
Zeit ein paar Kleinigkeiten zusammenzufassen:

1. Leistung fuer 5870 liegt ein sehr gesundes Prozentual vor der GTX285 mit 8xMSAA. Andere Faelle liegen dann eher im 30-40% Bereich mit der 5850 Nacken an Nacken mit der 285. Es gibt natuerlich Ausnahmen wo man sogar 2x 285 erreicht aber dann in sehr bestimmten Spielen und stets mit 8xAA ***edit und ja nicht vergessen AMD's eigene Messungen stets....

2. Rasterizing hat wie erwartet einen gesunden Zusatz bekommen; dual rasterizing ahoi.

3. Man erweiterte ein Stueckchen im AAA das Supersampling, ergo koennen die SS Fans aufrecht sitzen.

4. Was besonderes was AF betrifft konnte ich bis jetzt nicht sehen. Ob jetzt die Blume viereckig oder rund ist ist mir persoenlich wurscht da mich 45-gradige Winkelabhaengigkeit selten bis nie stoert, aber ja Geschmackssache. Ob einiges an der Flimmerneigung weg ist keine Ahnung.

5. P.M.I. (ohne weitere Erklaerung momentan und ja es ist fiess...)

6. Summa summarum: ein ~30% groesserer chip mit >100% hoeherer Komplexitaet erreicht im absoluten Durchschnitt 50-60% mehr als der direkte Vorgaenger und einen Schnitt weniger als die RV790.

Ja sie haben ausgezeichnete Arbeit geleistet, ja sie sind zeitlich mit einer kompletten Produktlinie auf dem Markt aber aus den Socken gerissen bin ich nun auch wieder nicht. Es ist auch leider deja vous dass man erst nach dem Vergleich mit der direkten Konkurrenz sagen kann wie "toll" das Resultat wirklich ist.

Na wenn du es schon so schön zusammenfasst kannst du auch gleich die Folien posten. *scnr*

Gipsel
2009-09-12, 18:30:29
EDIT:
http://s1.directupload.net/images/090912/fbpet89j.png
Da ist ATI aber auch auf das Marketing von nv reingefallen, welches für GT200 ein 8:1 Verhältnis von SP zu DP behauptete. Allerdings bezieht sich das nur auf die MADD-Leistung, zur Peak-Leistung ist es 12:1. RV770 hat mit 240GFlop also mehr als die dreifache DP-Leistung der GTX280 (78 GFlop) ;)

horn 12
2009-09-12, 18:35:44
Na aber mal ehrlich...

Wenn Du wirklich ernsthaft über den Erwerb einer der neuen ATI Karten nachdenkst, dann würde ein neues, passendes Gehäuse Dein Budget nicht sprengen dürfen.

Du hast sicherlich ein kleines Gehäuse, weil Wohnzimmer PC... Es gibt aber auch im Bereich der mATX Gehäuse durchaus Alternativen bsp. wie mein Silverstone Gehäuse. Ist mATX und es würde sogar eine 30cm lange KArte reinpassen :)

Also vielleicht auch mal alte Zöpfe abschneiden...

NEIN, habe eben KEIN Midi sondern MIDI Gehäuse, bis zu den HD Schächten habe ich ca. 31,5 cm Platz, nur da wo sich derzeit die HD befinden im sogenannten HD Käfig würde die neue 5870 -er Karte um 2-3 cm anstoßen und dies stört mich zum Himmel hinauf!!:mad:
Somit müsste ich den Käfig im oberen Bereich der Graka ausnehmen oder besser wohl komplett demontieren.
Hier Pics meines Thermaltake VX3000 Gehäuses.

http://www.tt-germany.com/product_gallery.aspx?PARENT_CID=C_00000136&id=C_00000138&name=Matrix+VX&ov=&ovid=&parent_cp=

crux2005
2009-09-12, 18:39:24
Da ist ATI aber auch auf das Marketing von nv reingefallen, welches für GT200 ein 8:1 Verhältnis von SP zu DP behauptete. Allerdings bezieht sich das nur auf die MADD-Leistung, zur Peak-Leistung ist es 12:1. RV770 hat mit 240GFlop also mehr als die dreifache DP-Leistung der GTX280 (78 GFlop) ;)

Du hast Recht, aber darauf wollte ich auch nicht hinaus. Nur das die DP Leistung 1/5 der SP ist.

MartinRiggs
2009-09-12, 18:39:44
Man Junge, dann kauf dir nen vernünftigen Tower oder ne andere Graka.
Immer dieses sinnlose gejaule:freak:

Ailuros
2009-09-12, 19:01:31
Na wenn du es schon so schön zusammenfasst kannst du auch gleich die Folien posten. *scnr*

Auf jeden Fall danke fuer's Kompliment. Sonst bin ich wohl nicht der Depp der Gemeinde LOL ;)

horn12,

Ich hab in 2006 den HD Kaefig aus meinem Thermaltake entfernt und musste auch ein bisschen etwas rausbrechen um die 8800GTX damals unterzubringen. Entweder klappt es irgendwie so oder hol Dir einen neuen Kasten.

sklave_gottes
2009-09-12, 21:45:31
NEIN, habe eben KEIN Midi sondern MIDI Gehäuse, bis zu den HD Schächten habe ich ca. 31,5 cm Platz, nur da wo sich derzeit die HD befinden im sogenannten HD Käfig würde die neue 5870 -er Karte um 2-3 cm anstoßen und dies stört mich zum Himmel hinauf!!:mad:
Somit müsste ich den Käfig im oberen Bereich der Graka ausnehmen oder besser wohl komplett demontieren.
Hier Pics meines Thermaltake VX3000 Gehäuses.

http://www.tt-germany.com/product_gallery.aspx?PARENT_CID=C_00000136&id=C_00000138&name=Matrix+VX&ov=&ovid=&parent_cp=

Ich sehe da überhaupt kein Problem. Schmeiß dein HD kähfig raus und verbau die HDs nach oben in die 5,25zoller.
Dann hast du genug platz, auch für eine HD5870 :-)


Ich bin echt auf die Benchs gespannt. Aber ich glaube auch nicht das die Speicherbandbreite so stark Limitiert. Siehe HD4770 und 4850.
Wenn man durch 512bit am ende 22% rausholt, lohnt sich der Aufwand sicher nicht. Das wissen die Ing. von ati wohl selbst am besten.


mfg martin

Gast
2009-09-12, 22:00:29
Dumme Frage, aber wurde von offizieller Seite bereits Angaben zwecks des SI bzw. Bandbreite gemacht?

derguru
2009-09-12, 22:02:49
das ist keine dumme frage,folien hab ich auch noch nicht gesehen oder wieviel bandbreite es haben soll.

Gast
2009-09-12, 22:13:23
Aber warum geht dann alle Welt von einem 256-Bit SI aus, wenn anscheinend abartige Auflösungen spielbar, gar in DX11 Titeln, sein sollen. So sehr kann doch das Kompressionsverfahren gar nicht optimiert worden sein?! Oder wie verhält sich das mit dem Mulitimonitoring beim spielen? Angenommen man "fährt" theoretisch die gleiche Auflösung auf einem Monitor auf mehreren, wird doch imo gleich viel Bandbreite bei gleicher IQ benötigt, oder?

Gast
2009-09-12, 22:15:14
mal abwarten wie die Power inGame aussieht.....ich lese schon das rießen Gelächter..sackschnell und Augenkrebs :D

Ailuros
2009-09-13, 01:01:49
Aber warum geht dann alle Welt von einem 256-Bit SI aus, wenn anscheinend abartige Auflösungen spielbar, gar in DX11 Titeln, sein sollen. So sehr kann doch das Kompressionsverfahren gar nicht optimiert worden sein?! Oder wie verhält sich das mit dem Mulitimonitoring beim spielen? Angenommen man "fährt" theoretisch die gleiche Auflösung auf einem Monitor auf mehreren, wird doch imo gleich viel Bandbreite bei gleicher IQ benötigt, oder?

Weil AMD selber nichts anderes bestaetigt.

cR@b
2009-09-13, 01:09:18
http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/september/alle_details_atis_radeon_5000er_serie/

Bin mal gespannt was das in frames bedeutet...

Superheld
2009-09-13, 01:10:57
sind die 32 Rops sicher ?

mapel110
2009-09-13, 01:12:53
sind die 32 Rops sicher ?
Ja, sind sicher. Die Specs, wie sie bei CB stehen, sind korrekt.

Bin mal gespannt was das in frames bedeutet...
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7528075&postcount=3981
Da hast schon ein paar Anhaltspunkte.

cR@b
2009-09-13, 01:21:07
Thx für den Post. Naja sieht gemischt aus und letztendlich werde ich doch die Tests abwarten.
Sind die Grakatreiber bei Ati mittlerweile besser geworden als früher? Hatte bis Dato nur eine (9700pro) und die war echt schnell damals im Gegensatz zu meiner G-Force 3 aber die Treiberprobleme brachten mich zu nVidia zurück und seither bin ich auch nicht mehr umgestiegen. Derzeit bin ich aber übelst enttäuscht von nVidias Treiberteam, da einfach zu viele Bugs unter Vista existieren...
Deshalb könnte ich mir sogar ein Umstieg vorstellen, sofern die Leistung passt ;) :D

Ailuros
2009-09-13, 01:45:35
Thx für den Post. Naja sieht gemischt aus und letztendlich werde ich doch die Tests abwarten.
Sind die Grakatreiber bei Ati mittlerweile besser geworden als früher?

Tja fuer Cypress muss AMD an die reviewer die Treiber erstmal ausliefern damit sie nicht nur auf die GPUs ratlos glotzen.


Hatte bis Dato nur eine (9700pro) und die war echt schnell damals im Gegensatz zu meiner G-Force 3 aber die Treiberprobleme brachten mich zu nVidia zurück und seither bin ich auch nicht mehr umgestiegen. Derzeit bin ich aber übelst enttäuscht von nVidias Treiberteam, da einfach zu viele Bugs unter Vista existieren...
Deshalb könnte ich mir sogar ein Umstieg vorstellen, sofern die Leistung passt ;) :D

Ich kann mich an keine besondere Treiberprobleme mit R300 damals erinnern und Vista kommt mir so oder so nicht ins Haus.

cR@b
2009-09-13, 02:13:23
Hmm ist die Architektur gänzlich neu oder könnte man die Treiberquali auf einer 4890 z.B. damit vergleichen?

Vista finde ich mittlerweile sehr ausgereift, wenn es auch noch ein paar Macken gibt. Muss aber dennoch sagen, dass ich als damaliger Win XP Fan, Vista nicht mehr missen möchte und Win XP komplett den Rücken gekehrt habe... Win7 wird kaum besser sein, bestellt habe ich es mir dennoch aber wer konnte bei 50.- Euro schon "Nein" sagen :D

Ailuros
2009-09-13, 02:21:19
Nein die Architektur faehrt in relativem Sinn auf der "gleichen" Schiene.

Zwar OT aber wenn Du schon win7 bestellt hast hab ich das Gefuehl dass Du vielleicht angenehmer ueberrascht sein wirst als bei Vista und dabei egal bei welcher zukuenftigen GPU.

Knuddelbearli
2009-09-13, 02:21:57
nein architektur ist nicht neu