PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - R700 im Q2 2008:RV770(LE), RV730 und RV710 - Teil 5


Seiten : [1] 2 3 4 5

AnarchX
2008-06-22, 14:08:16
<letztes Posting Teil 4< (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6606434#post6606434)

AMD/ATI HD 4670/4650: (P)Review-Thread :
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=430275

AMD/ATI Radeon HD 4870 X2: (P)Review-Thread :
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=424872

AMD/ATI - Radeon HD 4870: (P)Review-Thread :
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=422531

AMD/ATI - Radeon HD 4850: (P)Review-Thread :
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=421894


Catalyst 8.9 nennt einige weitere HD4000:

* Radeon HD 4730
* Radeon HD 4570
* Radeon HD 4250
* Radeon HD 4230

http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/september/catalyst_89_grafikkarten/

Die 4200er könnten wohl die IGPs des RS880 sein.

AZX_DRIVER_ATIHDMI }, /* ATI RV770 HDMI */
+ { 0x1002, 0xaa38, PCI_ANY_ID, PCI_ANY_ID, 0, 0,
AZX_DRIVER_ATIHDMI }, /* ATI RV730 HDMI */
+ { 0x1002, 0xaa40, PCI_ANY_ID, PCI_ANY_ID, 0, 0,
AZX_DRIVER_ATIHDMI }, /* ATI RV710 HDMI */
+ { 0x1002, 0xaa48, PCI_ANY_ID, PCI_ANY_ID, 0, 0,
AZX_DRIVER_ATIHDMI }, /* ATI RV740 HDMI */
http://article.gmane.org/gmane.linux.alsa.devel/51536

RV770@128-Bit - HD4690 (http://bbs.chiphell.com/viewthread.php?tid=25353&extra=page%3D1)
http://img149.imageshack.us/img149/4877/2008062435869414441b7e7es6.jpg
http://img149.imageshack.us/img149/9371/2008062468ada076d131d6arb1.jpg


HD4750/4830 - RV770LE:

http://img211.imageshack.us/img211/4445/2008090439a88c3366de281jw6.jpg (http://imageshack.us)

http://bbs.chiphell.com/viewthread.php?tid=31627&extra=page%3D1

RV770LE soll wohl auch als Radeon Mobility zum Einsatz kommen:
http://www.ati-forum.de/allgemein/news/p5510-rv770le-auch-als-mobile-gpu-technische-daten-rv770le-as-mobile-gpu-tech-specifications/#post5510

http://img524.imageshack.us/img524/5013/radeon4830jc7.gif
http://www.vr-zone.com/articles/Radeon_HD_4830_(RV770LE)_Launch_In_October/6065.html

http://img502.imageshack.us/img502/7436/hd483010373990jw7.gif (http://imageshack.us)

The launch for Radeon HD 4830 is set at October 21st and it is targeted primarily at Nvidia GeForce 9800 GT with a less than US$150 price tag.

http://www.vr-zone.com/articles/Radeon_HD_4830_Has_640SP%2C_Launch_On_Oct_21st/6070.html

http://img407.imageshack.us/img407/8488/newshd4830pc18364056ll1.png (http://imageshack.us)
http://www.tweaktown.com/news/10226/amds_hd_4830_looks_to_be_a_9800gt_killer/index.html

RV770SE aka HD4810:
HD4810(384)
RV770SE
480SP
750/2000
192bit
384MB
6Pin×1
$109

HD4810(768)
RV770SE
480SP
750/1900
192bit
768MB
6Pin×1
$129


Q6600、P43、DDR2 4G、Vista Home Basic SP1 32-bit,3DMark Vantage v1.0.1:
HD4810 384MB -- X1718
HD4810 768MB -- X2046
http://bbs.chiphell.com/viewthread.php?tid=34297&extra=page%3D1



HD4670/50:
- basiert auf RV730: 320SPs, 16 TMUs, 128-Bit SI
- TDP: <75W (real ~59W)

THG.tw mit einem kleinen Einblick auf HD4600:
http://www.tomshardware.tw/644,news-644.html


http://www.tcmagazine.com/comments.php?id=21413&catid=2
~150mm²


http://img151.imageshack.us/img151/7933/12206880898d299f5a55gk9.jpg (http://imageshack.us)
http://img151.imageshack.us/img151/7933/12206880898d299f5a55gk9.fb3475951e.jpg (http://g.imageshack.us/g.php?h=151&i=12206880898d299f5a55gk9.jpg)

http://img151.imageshack.us/img151/5760/12206880118b60c906a7zb6.jpg (http://imageshack.us)
http://img151.imageshack.us/img151/5760/12206880118b60c906a7zb6.da2872a3c0.jpg (http://g.imageshack.us/g.php?h=151&i=12206880118b60c906a7zb6.jpg)

[url]http://img135.imageshack.us/img135/4320/1220688029df83510917uv5.jpg
http://img135.imageshack.us/img135/4320/1220688029df83510917uv5.480b3783b0.jpg
http://forum.donanimhaber.com/m_26253908/tm.htm

AMD setzt die 4670 also klar gegen die 9500GT.

We heard from chiphell forum that TSMC now tries 40nm process to produce ATI RV740 graphics chip in the labs. It’s said that RV740 would be the vanguard of 40 nm graphics chips.
http://www.pczilla.net/en/post/16.html
RV740@40 nm im ersten Quartal 2009?
AMD to launch 40/45nm GPUs in early 2009, RV870 is one of them (http://www.nordichardware.com/news,7946.html)


HD4550/HD4350:


RV710s Architektur:

http://img301.imageshack.us/img301/813/4550a6635100zh6.jpg (http://imageshack.us)

http://img151.imageshack.us/img151/8440/4550h6646380mz3.jpg (http://imageshack.us)

242 Mio. Transistoren

http://en.expreview.com/2008/09/10/rv710-architecture-disclosed/

RV710 should end up branded as Radeon 4550 and this new card will need less than 25W to work. This is incredibly low consumption and at least in FSAA and Aniso enabled benchmarks it will beat Radeon HD 3650 by ten to thirty five percent.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=9043&Itemid=65

120SP und 8 TMUs? (http://www.fudzilla.com/index.php?option=com_content&task=view&id=9002&Itemid=34)
Update: we were informed that the chip actually has 80 stream processors and that 120 was a typo in some rather sensitive documents that we managed to see. We appologise for an inconvinience,

RV710 Preview @ THG.tw: (http://www.tomshardware.tw/661,news-661.html)

http://img381.imageshack.us/img381/7922/44e44fc0d40a4fd98c740cakf9.jpg (http://imageshack.us)

http://img169.imageshack.us/img169/4670/rv710pi2.png (http://imageshack.us)

THG.tw hat noch ein kleines Preview zu RV710:
http://translate.google.ch/translate?u=http%3A%2F%2Fwww.tomshardware.tw%2F664%2Cnews-664.html&sl=zh-CN&tl=en&hl=de&ie=UTF-8

http://img241.imageshack.us/img241/5729/rv710022390136ff6.jpg (http://imageshack.us)

- GPU-Takt soll offenbar bei 4550 und 4350 bei 800MHz liegen, der Speicher erzeugt dann den Leistungsunterschied
- UVD2.2 (non-reference picture write)
- Halogen-frei Herstellung

Gast
2008-06-22, 14:14:58
gibt es schon zahlen von der 1gb version? ich denke die oberen balken werden die 512er version sein, eine andere hab ich noch nicht im netz gesehen.

anddill
2008-06-22, 14:23:55
Ok, ist ein Argument, da wird man abwarten müssen.
Prinzipiell denke ich, dass man nen Bus auf einer Platine ziemlich breit & schnell machen kann, aber so "dick" sieht der sideport auf dem DIE photo auch nicht aus ...

@anddill:
Welcher Datenverkehr läuft eigentlich bisher über die CF Kabel ?

Edit:
@dildo4u:
Danke für das Bild, gibts irgendwo ne Info ob das eine 512MB oder 1 GB 4870 war ?
Edit2: gesehen -> 512MB.

ciao

Alex
Tja, das wüßte ich auch gerne. Wahrscheinlich ist es nur ein umgebogener DVI-Anschluß, über den stumpf der komplette Framebuffer der 2. GPU übertragen wird.
Den Grund, warum Scissor und Tiling nie vernünftig funktioniert haben, sehe ich in der komplizierten Syncronisation der Chips, die wohl bisher über den PCIe läuft.

Gast
2008-06-22, 14:34:03
http://www.abload.de/img/864285uz.jpg

http://translate.google.de/translate?hl=de&sl=ru&u=http://www.3dnews.ru/news/radeon_hd_4870_po_versii_asus_i_powercolor/&sa=X&oi=translate&resnum=4&ct=result&prev=/search%3Fq%3DEAH4870%26hl%3Dde%26sa%3DG

S940
2008-06-22, 14:35:05
Tja, das wüßte ich auch gerne. Wahrscheinlich ist es nur ein umgebogener DVI-Anschluß, über den stumpf der komplette Framebuffer der 2. GPU übertragen wird.
Den Grund, warum Scissor und Tiling nie vernünftig funktioniert haben, sehe ich in der komplizierten Syncronisation der Chips, die wohl bisher über den PCIe läuft.Alles klar, danke :)

ciao

Alex

][immy
2008-06-22, 14:54:05
http://img410.imageshack.us/img410/3715/112232498us4gp0.png

http://forum.beyond3d.com/showpost.php?p=1180121&postcount=4420

R700 aka HD4870X2:

http://img385.imageshack.us/img385/1848/ff095b914552432e8e0fe10ie9.jpg

http://img385.imageshack.us/img385/4928/b7fed0e717134f05842a6f2qb6.jpg



http://en.hardspell.com/doc/showcont.asp?news_id=3608


http://img118.imageshack.us/img118/8450/r700slidenx3.jpg
http://img118.imageshack.us/img118/7346/r700slide2em3.jpg
http://img118.imageshack.us/img118/3729/xss144tmpog1.jpg
http://www.ocxtreme.org/forumenus/showthread.php?p=44949

huch demnach ist eine 4870 ja doch noch eine konkurenz für die 280 zumindest in crysis. da muss nvidia die preise wohl doch noch massiv senken, wenn sich das auch in anderen spielen zeigt.
aber erstmal heißt es wohl abwarten

edit:
ups macht der gewohnheit :) natürlich 4870

anddill
2008-06-22, 14:58:56
[immy;6606611']huch demnach ist eine 3870 ja doch noch eine konkurenz für die 280 zumindest in crysis. da muss nvidia die preise wohl doch noch massiv senken, wenn sich das auch in anderen spielen zeigt.
aber erstmal heißt es wohl abwarten
Ich gehe mal davon aus, daß Du die HD 4870 meinst.

Psychopat
2008-06-22, 15:05:39
Wenn die Crysis Benchs der 4870 stimmen, wird die in einigen Titeln sogar vor der GTX 280 sein. Krasse Sache, das hätte wohl keiner für möglich gehalten! Ich finde es auch schön, das mittlerweile keiner mehr sagt AMD hat keinen HighEnd Chip im Programm. Die GTX 260 ist ja wohl eindeutig HighEnd, wenn die 4870 gleich oder drüber liegt ist sie auch HighEnd.

Grestorn
2008-06-22, 15:08:22
Dass die 4870X2 schneller als die GTX280 ist, sollte auch zu erwarten sein. Alles andere wäre wohl super peinlich.

Eggcake
2008-06-22, 15:10:21
Dass die 4870X2 schneller als die GTX280 ist, sollte auch zu erwarten sein. Alles andere wäre wohl super peinlich.

Bis vor 2-3 Wochen sah das aber noch ganz anders aus.

vinacis_vivids
2008-06-22, 15:10:36
Das kann nur gut für den Kunden sein :D

pXe
2008-06-22, 15:12:35
Das kann nur gut für den Kunden sein :D

Jupp, drückt vielleicht nochmal ordentlich den Preis der GTX260.

pXe

Gast
2008-06-22, 15:13:10
Dass die 4870X2 schneller als die GTX280 ist, sollte auch zu erwarten sein. Alles andere wäre wohl super peinlich.

Er meint aber, dass selbst die HD4870 (nicht X2) wahrscheinlich bei dem ein oder anderen Spiel schneller als die GTX280 sein kann. Bei Crysis liegt sie immerhin schon auf GTX260 Niveau.

reunion
2008-06-22, 15:14:21
Dass die 4870X2 schneller als die GTX280 ist, sollte auch zu erwarten sein. Alles andere wäre wohl super peinlich.

Inwiefern wäre das peinlich? RV770 ist ein Midragechip, der nicht mal halb so groß ist wie ein Gt200. Das die X2 trotz des Nachteils der CF-Skalierung wohl derart überlegen sein wird ist höchstens peinlich für NV.

LovesuckZ
2008-06-22, 15:15:00
Die 3870 kann auch in einigen Anwendungen schneller als die 8800Ultra sein.

/edit: Nun, eine 9800GTX ist auch schneller als die 4870 in einigen Anwendungen - ziemlich peinlich für AMD, nach 19 Monate nichtmal komplett schneller zu sein...

Gast
2008-06-22, 15:16:51
Dass die 4870X2 schneller als die GTX280 ist, sollte auch zu erwarten sein. Alles andere wäre wohl super peinlich.

teilweise wird das sogar eine 4870 alleine packen,es ist nicht mal die x2 notwendig dafür.

Gast
2008-06-22, 15:26:49
Die 3870 kann auch in einigen Anwendungen schneller als die 8800Ultra sein.

/edit: Nun, eine 9800GTX ist auch schneller als die 4870 in einigen Anwendungen - ziemlich peinlich für AMD, nach 19 Monate nichtmal komplett schneller zu sein...

Es kommt aber auf die Gesamtperformance an und nicht irgendwelche Rosinenpickerei ...
ATIs Karten stehen in Crysis grundsätzlich am Durchschnitt gesehen schlechter da als die Konkurrenz. Deswegen kann man aus dem obrigen Test schließen, dass die Gesamtperformance noch besser ist.

Botcruscher
2008-06-22, 15:26:56
Geil die GT260 Abfallwiederverwendung wird versägt. NV hat ein echtes Preisproblem.:D

vinacis_vivids
2008-06-22, 15:29:32
Die 3870 kann auch in einigen Anwendungen schneller als die 8800Ultra sein.

/edit: Nun, eine 9800GTX ist auch schneller als die 4870 in einigen Anwendungen - ziemlich peinlich für AMD, nach 19 Monate nichtmal komplett schneller zu sein...

Die 4850 ist schon jetzt in einigen Fällen scheller als die GTX280. Peinlich isses für Nvidia mit dem verkrüppelten G92 auf Teufel komm raus wieder und wieder zu vermarkten.

GeneralHanno
2008-06-22, 15:33:05
naja, nvidia wird in den nächsten monaten quasi das gesammte sortiment auf 55nm shrinken. hierdurch erhält man einen kostenvorteil von ~20$ (G94), ~30$(G92) und ~45$ (GT200), die man in eine LANGFRISTIGE preissenkung investieren könnte ...

Odal
2008-06-22, 15:37:14
Dass die 4870X2 schneller als die GTX280 ist, sollte auch zu erwarten sein. Alles andere wäre wohl super peinlich.


was is daran peinlich? 2x4870 sind von der chipfläche immer noch kleiner ein GTX280

und bei kleineren chips ist die ausbeute eh besser....genau das war ja der grund wieso AMD/ATI auf multigpu karten setzen will fürs highend

performancesektor bekommt halt die hälfte in form von singlegpu

im prinzip kann sich amd (wenn GDDR5 ram etwas günstiger wird) nur die hände reiben

LovesuckZ
2008-06-22, 15:38:32
Die 4850 ist schon jetzt in einigen Fällen scheller als die GTX280. Peinlich isses für Nvidia mit dem verkrüppelten G92 auf Teufel komm raus wieder und wieder zu vermarkten.

Und eine 8800GTX ist in einigen Fällen schneller als die 4850. Peinlich, dass man nach 19 Monaten nichtmal das alte High-End der Konkurrenz schlagen kann.
Oh und nVidias "verkrüppelter" G92 reicht aus um AMDs vierte einheitliche Architektur Konkurrenz zu machen.

reunion
2008-06-22, 15:38:36
naja, nvidia wird in den nächsten monaten quasi das gesammte sortiment auf 55nm shrinken. hierdurch erhält man einen kostenvorteil von ~20$ (G94), ~30$(G92) und ~45$ (GT200), die man in eine LANGFRISTIGE preissenkung investieren könnte ...

Dein Kostenvorteil ist viel zu hoch. Selbst ein GT200-Die dürfte nV kaum mehr als 100$ kosten, eine Kostenersparnis um fast die Hälfte durch den Shrink auf 55nm ist Utopie.

reunion
2008-06-22, 15:48:40
Und eine 8800GTX ist in einigen Fällen schneller als die 4850. Peinlich, dass man nach 19 Monaten nichtmal das alte High-End der Konkurrenz schlagen kann.
Oh und nVidias "verkrüppelter" G92 reicht aus um AMDs vierte einheitliche Architektur Konkurrenz zu machen.

Blöd nur dass das heute kein Schwein mehr interessiert. Ich sehe hier und jetzt eine 4870, die der GTX260 gefährlich werden wird, eine 4850, die locker mit dem G92 mithalten kann und eine X2 die nV mit Leichtigkeit die Krone wird nehmen können. Und das alles zu einem wesentlich günstigeren Preis als bei nV. Im übrigen kann man das alte High-End der Konkurrenz spätestens mit der 4870 locker schlagen.

Cpl. Dwayne Hicks
2008-06-22, 15:48:57
Wenn die Crysis Werte stimmen dann kann ich nur sagen Hut ab! Fast so schnell wie eine GTX 280!

Ich freue mich sehr, und hoffe dass ATi mit diesen neuen chips gut Kohle macht! :smile:

Bin schon fast am überlegen ob ich meine G92 GTS verkaufe.... :biggrin: Aber soll toll ist Crysis dann doch wieder nicht. ;)

_DrillSarge]I[
2008-06-22, 15:49:52
Und eine 8800GTX ist in einigen Fällen schneller als die 4850. Peinlich, dass man nach 19 Monaten nichtmal das alte High-End der Konkurrenz schlagen kann.
und? eine 8800gtx/ultra ist auch hier und da (deutlich) schneller als eine 9800gtx ;)
Oh und nVidias "verkrüppelter" G92 reicht aus um AMDs vierte einheitliche Architektur Konkurrenz zu machen.
eine 9800gtx kostet um die 70-100€ mehr als eine 4850.
man bedenke auch den (ati-typisch) schlechteren treiberzustand bei neuen karten.
es ist keine high-end karte (preis!!!) und doch hält sie (mehr als?, wird man noch sehen) mit.

Sascha1971
2008-06-22, 15:52:12
Die Frage ist doch eigentlich für mich nur, ob ATI den CF Support endlich mal verbessert.
Denn ansonsten macht für mich die 4870x2 wenig Sinn.

LovesuckZ
2008-06-22, 15:52:22
Blöd nur dass das heute kein Schwein mehr interessiert. Ich sehe hier und jetzt eine 4870, die der GTX260 gefährlich werden wird, eine 4850, die locker mit dem G92 mithalten kann und eine X2 die nV mit Leichtigkeit die Krone wird nehmen können. Und das alles zu einem wesentlich günstigeren Preis als bei nV.

Ich sehe eine 8800GT, die das bessere P/L Verhältnis besitzt. Ich sehe eine 9800GTX+, die in der Fertigung kaum teurer ist als die 4850. Ich sehe eine 4870 und GTX260, die für viele vollkommen uninteressant sind, da die Mehrleistung gegenüber der 4850 und 9800GTX+ den Aufpreis nicht rechtfertigen.
Die Test werden zeigen, dass eine Bevorzugung der 4870 gegenüber der 4850 keinen Sinn machen wird. 53% Aufpreis gegenüber 25% Mehrleistung. Da kann man sich auch zwei 8800GT Karten kaufen, die sind nicht nur billiger als die 4870 sondern auch deutlich schneller.

I[;6606745']und? eine 8800gtx/ultra ist auch hier und da (deutlich) schneller als eine 9800gtx ;)

Richtig, deswegen sehe ich keinen Grund für die Euphorie gegenüber der 4850. Die Preise der 8800GTX sind doch auch im Keller.


eine 9800gtx kostet um die 70-100€ mehr als eine 4850.
man bedenke auch den (ati-typisch) schlechteren treiberzustand bei neuen karten.
es ist keine high-end karte (preis!!!) und doch hält sie (mehr als?, wird man noch sehen) mit.

Hm, 175€ gegen 150€ sind nichtmal annährend 70-100€. Du kannst aber auch für 125€ eine 16% übertaktete 8800GT kaufen, die fast auf 4850 Niveau liegt.
Aber um den Preis geht es nicht. Warum Leute überrascht sind, dass eine 80% schneller 4870 (zu 3870) eine 50% schneller GTX280 (zur 8800 Ultra) in Anwendungen schlägt, wo die 3870 auf Ultra Niveau is, muss sich Review nur halbherzig durchlesen.

Sorkalm
2008-06-22, 15:55:31
Eure Diskussion mit aller Macht möglichst alle Vorteile des anderen IHVs von der Hand zu reden ist mal wieder köstlich.. ;D

Die Spezifikationen der Asus 4870:
http://s8.directupload.net/images/user/080622/y9fgbkee.jpg

w0mbat
2008-06-22, 15:55:44
@LovesuckZ: Du siehst zu viele Gespenster, schau mal die Realität an. Dort sieht man zB ein G92 ohne UVD, DX10.1 oder Powerplay. Dafür aber mit VRAM-Bug, schlechten Treibern (Nvidias Beta-Hick-Hack) und großem/teuren Die.

HarryHirsch
2008-06-22, 15:56:27
Ich sehe eine 8800GT, die das bessere P/L Verhältnis besitzt. Ich sehe eine 9800GTX+, die in der Fertigung kaum teurer ist als die 4850. Ich sehe eine 4870 und GTX260, die für viele vollkommen uninteressant sind, da die Mehrleistung gegenüber der 4850 und 9800GTX+ den Aufpreis nicht rechtfertigen.
Die Test werden zeigen, dass eine Bevorzugung der 4870 gegenüber der 4850 keinen Sinn machen wird. 53% Aufpreis gegenüber 25% Mehrleistung. Da kann man sich auch zwei 8800GT Karten kaufen, die sind nicht nur billiger als die 4870 sondern auch deutlich schneller.

Und ich sehe einen Fanboy der es nicht war haben kann das ATI zur Zeit die besseren P/L Karten hat.

Gast
2008-06-22, 16:00:18
Da kann man sich auch zwei 8800GT Karten kaufen, die sind nicht nur billiger als die 4870 sondern auch deutlich schneller.


Und in höheren Auflösungen mit AA übelst wegbrechen mit 512mb,,Dank dem Speichermanagement.

G92 mit 512mb im SLI ist TÖTLICH :P

dildo4u
2008-06-22, 16:00:21
Die Frage ist doch eigentlich für mich nur, ob ATI den CF Support endlich mal verbessert.
Denn ansonsten macht für mich die 4870x2 wenig Sinn.
Genau daran arbeitet AMD gerade R700 soll ja fertig sein man will aber noch 2 Monate am Treiber arbeiten.

http://www.pcgameshardware.de/aid,648401/News/AMD_Radeon_HD4870_X2_ist_fertig_Launch_aber_erst_im_August/

Botcruscher
2008-06-22, 16:01:06
Die 4850 verhackt alle G92 Abkömmlinge in Leistung, Verbrauch und Preis und die 4870 versägt gleichsam die GT260.

Überlegen ist NV nur mit der GT280. Viel Leistung zu einem hohen Verbrauch und Preis.

LovesuckZ
2008-06-22, 16:01:48
Wieso hat eine 25% schnellere Karte bei einem 35% Aufpreis das bessere P/L Verhältnis?

MartinRiggs
2008-06-22, 16:01:51
Ich sehe eine 8800GT, die das bessere P/L Verhältnis besitzt. Ich sehe eine 9800GTX+, die in der Fertigung kaum teurer ist als die 4850. Ich sehe eine 4870 und GTX260, die für viele vollkommen uninteressant sind, da die Mehrleistung gegenüber der 4850 und 9800GTX+ den Aufpreis nicht rechtfertigen.
Die Test werden zeigen, dass eine Bevorzugung der 4870 gegenüber der 4850 keinen Sinn machen wird. 53% Aufpreis gegenüber 25% Mehrleistung. Da kann man sich auch zwei 8800GT Karten kaufen, die sind nicht nur billiger als die 4870 sondern auch deutlich schneller.

Richtig, deswegen sehe ich keinen Grund für die Euphorie gegenüber der 4850. Die Preise der 8800GTX sind doch auch im Keller.

Hm, 175€ gegen 150€ sind nichtmal annährend 70-100€. Du kannst aber auch für 125€ eine 16% übertaktete 8800GT kaufen, die fast auf 4850 Niveau liegt.
Aber um den Preis geht es nicht. Warum Leute überrascht sind, dass eine 80% schneller 4870 (zu 3870) eine 50% schneller GTX280 (zur 8800 Ultra) in Anwendungen schlägt, wo die 3870 auf Ultra Niveau is, muss sich Review nur halbherzig durchlesen.

8800GTX/Ultra waren genial sind aber offiziell ausgelaufen und sind für viele Leute vom idle-Stromverbrauch inakzeptabel.
Der G92 krankt übel an seinen beschneidungen daher wollen auch viele keinen G92 mehr und wenn NV noch 100 Karten mit dem Chip auflegt und die ganz neuen GTX stehen Leistungsmäßig nicht so gut da wie sie müssten, die leute bezahlen für GPGPU-Leistung die sie nicht nutzen, ganz großes Kino.

dargo
2008-06-22, 16:03:33
Die Test werden zeigen, dass eine Bevorzugung der 4870 gegenüber der 4850 keinen Sinn machen wird. 53% Aufpreis gegenüber 25% Mehrleistung.
Eigendlich sind es 50% Aufpreis. Und laut Gerüchten soll angeblich die HD4870 im Durchschnitt 40% schneller sein als die HD4850. Da die HD4870 einen besseren Kühler hat und das PCB etwas aufwendiger ist finde ich die +50% Aufpreis völlig in Ordnung.

vinacis_vivids
2008-06-22, 16:04:30
Ich sehe eine 4870 und GTX260, die für viele vollkommen uninteressant sind, da die Mehrleistung gegenüber der 4850 und 9800GTX+ den Aufpreis nicht rechtfertigen.

Für sehr viele ist die 4870 interessant ;) , die Leistung einer GTX280 für deutlich weniger Geld.
Und der Vergleich zwischen 4850 und 9800gtx ist nicht ganz angebracht, preistechnisch vielleicht(wobei die 9800GTX teuer ist), aber nicht leistungstechnisch, wo die HD4850 deutlich die Oberhand hat.

Gast
2008-06-22, 16:04:44
Wieso hat eine 25% schnellere Karte bei einem 35% Aufpreis das bessere P/L Verhältnis?


Weil das die "10%" locker weg macht -> UVD, DX10.1 oder Powerplay. Dafür aber mit VRAM-Bug, schlechten Treibern (Nvidias Beta-Hick-Hack);)

LovesuckZ
2008-06-22, 16:04:55
40%? Das müsste eine Bandbreitenlimitierung bei der 4850 bedeuten. Davon kann man jedoch im Vergleich zur 3870 nichts sehen.

Weil das die "10%" locker weg macht -> UVD, DX10.1 oder Powerplay. Dafür aber mit VRAM-Bug, schlechten Treibern (Nvidias Beta-Hick-Hack);)

Tja dagegen steht die klar bessere Bildqualität bei nVidia. Powerplay scheint ja nicht überzeugend zu sein. Höhrer Verbrauch unter Last muss natürlich auch erwähnt sein.
Es ist also nicht so klar, wie es hier alle machen. Und selbst wenn man "die 10% locker weg macht", ist das P/L exakt gleich.

vinacis_vivids
2008-06-22, 16:05:34
40%? Das müsste eine Bandbreitenlimitierung bei der 4850 bedeuten. Davon kann man jedoch im Vergleich zur 3870 nichts sehen.

die 3870 ist auch nicht die 4850:wink:

Eggcake
2008-06-22, 16:05:54
Wieso hat eine 25% schnellere Karte bei einem 35% Aufpreis das bessere P/L Verhältnis?

Du kannst auch ne 5 Jahre alte Karte, die irgendwo noch für 1€ erhältlich ist nehmen, die hat noch ein besseres P/L-Verhältnis.

MartinRiggs
2008-06-22, 16:08:09
Für sehr viele ist die 4870 interessant ;) , die Leistung einer GTX280 für deutlich weniger Geld.
Und der Vergleich zwischen 4850 und 9800gtx ist nicht ganz angebracht, preistechnisch vielleicht(wobei die 9800GTX teuer ist), aber nicht leistungstechnisch, wo die HD4850 deutlich die Oberhand hat.

naja die HD4870 wird die GTX280 nicht schlagen, das ist aber in anbetracht des preises keine Schande und auch gar nicht das Ziel.
Und selbst wenn die 9800GTX schneller ist würde ich sie nicht kaufen, ich hab nen G92 und durfte auch schon miterleben wie sie nach längerem zocken gnadenlos an ihrem V-Ram gestorben ist, ein sehr unschönes verhalten weil die Karte ansonsten i.O. ist.

dargo
2008-06-22, 16:08:47
40%? Das müsste eine Bandbreitenlimitierung bei der 4850 bedeuten.

Ich kann die 40% auch nicht so recht glauben, deswegen heißt es erstmal abwarten. Wo habe ich die 40% nochmal aufgeschnappt? :uponder:
Ich glaube Spasstiger hat das von irgendeiner Zeitschrift mitbekommen, PC-Games???

Gast
2008-06-22, 16:09:17
Und ich sehe einen Fanboy der es nicht war haben kann das ATI zur Zeit die besseren P/L Karten hat.


Ich sehe jemanden der nach eigener Aussage eigentlich die ganze Zeit auf Nvidia schimpfen müsste...

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6535539#post6535539

Aber ein FB ist in der Regel nicht in der Lage die Situation halbwegs objektiv einzuschätzen.

Gast
2008-06-22, 16:09:27
40%? Das müsste eine Bandbreitenlimitierung bei der 4850 bedeuten. Davon kann man jedoch im Vergleich zur 3870 nichts sehen.
.

Der RV770 hat eine 80% höher Performance, da kann es an bandbreite schon mal fehlen in einigen Situationen.


Tja dagegen steht die klar bessere Bildqualität bei nVidia. Powerplay scheint ja nicht überzeugend zu sein. Höhrer Verbrauch unter Last muss natürlich auch erwähnt sein.
Es ist also nicht so klar, wie es hier alle machen. Und selbst wenn man "die 10% locker weg macht", ist das P/L exakt gleich.[/QUOTE]

BQ Gelogen und den Vram Bug schon vergessen LS ?

AnarchX
2008-06-22, 16:12:29
Ich kann die 40% auch nicht so recht glauben, deswegen heißt es erstmal abwarten. Wo habe ich die 40% nochmal aufgeschnappt? :uponder:
Ich glaube Spasstiger hat das von irgendeiner Zeitschrift mitbekommen, PC-Games???
Laut Graphics Product Marketing Manager Sasa Marinkovic schlägt die 4870 die kleinere 4850 im Schnitt um etwa 40 Prozent. Steht so in der Gamestar, die Abonnenten heute bekommen haben.
;)

dildo4u
2008-06-22, 16:12:42
Die 4850 verhackt alle G92 Abkömmlinge in Leistung, Verbrauch und Preis
Die 9800GTX kostet das Selbe wie die 4850(199$) ist gleich schnell im Schnitt.Eine 9800GTX+ ist ca 10% schneller kostet ca 15€ mher.Und die 9800GTX+ mit 55nm G92 verbraucht ca gleich viel wie die 4850 ist aber schneller.

It seems most of the review sites around the web show the GeForce 9800 GTX+ about 10-15% faster than the Radeon HD 4850, but it really depends on what applications are tested and the platform being used.

http://s8.directupload.net/images/080622/h6mrzfhk.jpg

http://s5.directupload.net/images/080620/zinblwbr.jpg

http://www.legitreviews.com/article/732/1/

reunion
2008-06-22, 16:13:25
Ich sehe eine 8800GT, die das bessere P/L Verhältnis besitzt.

Vollkommen normal, dass das P/L-Verhältnis mit zunehmenden Preis schlechter wird. Es gibt eben Leute die wollen auch entsprechend Leistung.


Ich sehe eine 9800GTX+, die in der Fertigung kaum teurer ist als die 4850.

Sie ist teurer in der Fertigung, kann aber nicht mit der 4870 mithalten.


Ich sehe eine 4870 und GTX260, die für viele vollkommen uninteressant sind, da die Mehrleistung gegenüber der 4850 und 9800GTX+ den Aufpreis nicht rechtfertigen.
Die Test werden zeigen, dass eine Bevorzugung der 4870 gegenüber der 4850 keinen Sinn machen wird. 53% Aufpreis gegenüber 25% Mehrleistung. Da kann man sich auch zwei 8800GT Karten kaufen, die sind nicht nur billiger als die 4870 sondern auch deutlich schneller.


Auch das sehe ich anders. Die GTX260 ist zu dem Preis witzlos, dass sollte klar sein. Die 4870 hingegen ist zu dem Preis sehr gut aufgestellt, vorallem wenn man sich ansieht, was man bei nV für die geringe Mehrleistung bezahlen muss.

Chris2CB
2008-06-22, 16:13:49
40%? Das müsste eine Bandbreitenlimitierung bei der 4850 bedeuten. Davon kann man jedoch im Vergleich zur 3870 nichts sehen.



Tja dagegen steht die klar bessere Bildqualität bei nVidia. Powerplay scheint ja nicht überzeugend zu sein. Höhrer Verbrauch unter Last muss natürlich auch erwähnt sein.
Es ist also nicht so klar, wie es hier alle machen. Und selbst wenn man "die 10% locker weg macht", ist das P/L exakt gleich.


An sich ist eine Antwort auf deine Fragen Sinnlos da du immer Gründe suchst und irgendwas findet man immer.

An sich solltest du xxxxxxxx aber besser glücklich sein das eine 4870 soviel Leistung hat, dann musst du nähmlich für eine NV 260 um einiges weniger hin legen, oder währe dir eine GTX 280 für 700€ und eine 260er für 450€ eher ansprechend??????

Die BQ ist bei NV auch nicht besser, ausser man sthet auf ne Dia Show weil SSAA futtert einfach zuviel Leistung. Und für 8xMSAA reicht die Leistung auch nicht beim G92.

LovesuckZ
2008-06-22, 16:14:09
Der RV770 hat eine 80% höher Performance, da kann es an bandbreite schon mal fehlen in einigen Situationen.

In welchen? CoD4 profiiert mit AA und AF fast komplett von der 2,5 Texturleistung. Demnach kann man die 40TMUs mit der Bandbreite ausreizen.

BQ Gelogen und den Vram Bug schon vergessen LS ?

Tja, eine Karte die kein SSAA, keine gleichwertige Texturfilterung und kein TSSA anbietet, kann keine bessere BQ haben. Und der "Vram Bug" ist nunmal da, habe ich nie geleugnet. ;)

reunion
2008-06-22, 16:14:57
http://s8.directupload.net/images/080622/h6mrzfhk.jpg

http://www.legitreviews.com/article/732/1/

Oh toll, die 30% in Lightsmark und 3dmark06 sind natürlich besonders wichtig für ein schönes Spielvergnügen. So kann man den Schnitt auch nach oben drücken.

dargo
2008-06-22, 16:15:54
;)
Merci. :D

Die +40% kommen also von der Marketing-Abteilung. Naja, also doch erstmal glaubhafte Benches abwarten. Ich dachte die Zeitschrift hätte schon beide Karten verglichen.

Gast
2008-06-22, 16:16:38
9800GTX kostet das Selbe wie die 4850(199$) ist gleich schnell im Schnitt 9800GTX+ ist ca 10% schneller kostet ca 15€ mher.Und die 9800GTX+ mit 55nm G92 verbraucht ca gleich viel wie die 4850 ist aber schneller.




http://s8.directupload.net/images/080622/h6mrzfhk.jpg

http://www.legitreviews.com/article/732/1/

Toll ohne AA u. Af :rolleyes: und dann Synt. Benchmarks 3D Murk usw. ;D


Dildo hast du auch den Vram Bug vegessen
Flame entfernt, bitte auf ein angemessenes Diskussionsniveau achten!

Chris2CB
2008-06-22, 16:20:19
Die 9800GTX kostet das Selbe wie die 4850(199$) ist gleich schnell im Schnitt.Eine 9800GTX+ ist ca 10% schneller kostet ca 15€ mher.Und die 9800GTX+ mit 55nm G92 verbraucht ca gleich viel wie die 4850 ist aber schneller.




Könntest du bitte einen Link einfügen wo es eine 9800GTX für 160€ gibt????

Edit: 1gb bitte weil 512mb ist mir auf längere Sicht bei NV zu wenig, aber mehr wie 180€ geb ich nicht her.


http://www.mindfactory.de/product_info.php/info/p0430248?pid=geizhals


http://www.alternate.de/html/product/details.html?artno=JBXZK1

LovesuckZ
2008-06-22, 16:20:44
Vollkommen normal, dass das P/L-Verhältnis mit zunehmenden Preis schlechter wird. Es gibt eben Leute die wollen auch entsprechend Leistung.

Hm, widerspricht das nicht der Aussage, dass die 4850 das bese P/L Verhältnis hätte?


Sie ist teurer in der Fertigung, kann aber nicht mit der 4870 mithalten.


Wie kommst du darauf? Die Fläche ist fast identisch, beide haben einen aufwendigen Kühler, gleichteuren Speicher. Die Produktionskosten sollten sich fast komplett selben Rahmen befassen.


Auch das sehe ich anders. Die GTX260 ist zu dem Preis witzlos, dass sollte klar sein. Die 4870 hingegen ist zu dem Preis sehr gut aufgestellt, vorallem wenn man sich ansieht, was man bei nV für die geringe Mehrleistung bezahlen muss.

Richtig, der Mehrpreis von der 4850 zur 4870 ist besser als von 9800GTX+ zur GTX260. Beide Karten werden jedoch das Problem haben, dass die Mehrleistung doch für viele nicht den Aufpreis rechtfertigen wird.

Gast
2008-06-22, 16:23:35
Merci. :D

Die +40% kommen also von der Marketing-Abteilung. Naja, also doch erstmal glaubhafte Benches abwarten. Ich dachte die Zeitschrift hätte schon beide Karten verglichen.

Hier ein Vergleich, ist nur 3D Mark06 @1920x1200, 8AA/16AF

Die HD4870 ist um

SM2 Test 25,8%

SM3 Test 30,8%

schneller

http://www.abload.de/thumb/1725z7th5.jpg (http://www.abload.de/image.php?img=1725z7th5.jpg)


http://www.abload.de/thumb/1039050oonj9x.jpg (http://www.abload.de/image.php?img=1039050oonj9x.jpg)

dargo
2008-06-22, 16:24:07
Könntest du bitte einen Link einfügen wo es eine 9800GTX für 160€ gibt????

Ist es denn so schwer? Der Preis der G9800GTX wurde doch erst kürzlich auf 199$ korrigiert. Bis die Händler die Karten zu diesem geringeren Preis anbieten dauert es halt etwas, ist völlig normal. Erstmal will man die Lager mit den teurer eingekauften GTXen räumen. Die G9800GTX wird genauso ~140€ kosten wie die HD4850.

Gast
2008-06-22, 16:26:59
Wie kommst du darauf? Die Fläche ist fast identisch, beide haben einen aufwendigen Kühler, gleichteuren Speicher.


Gleichteurer Speicher stimmt nicht 1,0ns günstiger als 083ns ist.


Aber egal LS es reicht jetzt hier BTT

Botcruscher
2008-06-22, 16:27:51
Dazu ist die 9800GTX+ noch nichtmal kaufbar wärend die 4850 für 141 ocken zum Kunden wandert.

Powerplay ist Herstellerabhängig und damit tot. Ich kauf mir doch kein neues asi NV-Board. Da hab ich ja gleich die Hälfte des preises der Graka.:ucrazy:

Der Verbrauchstest wird übrigens extrem durch das überdimensionierte NT verfälscht. Bei geringere Effizens/Aufnahme rücken natürlich die kleineren Karten zusammen.

Die G9800GTX wird genauso ~140€ kosten wie die HD4850.

Die Frage ist wann und was die 4850 dann kostet.

AnarchX
2008-06-22, 16:30:07
Nochmal ein Hinweis auf das Topic:

R700 im Q2 2008: RV7xx und HD4870(X2) - Teil 5

mit RV7xx sind RV730/740 gemeint und nicht die HD4850

Also bitte OT-Diskussionen einstellen bzw. in den passenden Threads führen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=421894
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=410414
... denn es handelt sich ja nicht mehr um eine Spekulation, da die Karten schon veröffentlicht sind.

dargo
2008-06-22, 16:33:00
Die Frage ist wann und was die 4850 dann kostet.
Ca. 3-4 Wochen würde ich sagen. Die HD4850 wird genau das selbe kosten. Es sei denn ATI senkt die UVP schon wieder.

Undertaker
2008-06-22, 16:36:59
Sie ist teurer in der Fertigung.


Ist der Die des G92b (231mm²) nicht sogar ein Stückchen kleiner als der des RV770(256mm²)? Warum sollte die 4850 dann billiger in der Produktion sein, der Ram wird kaum teurer sein und auch PCB & drumherum nur unerheblich.

@ AnarchX: Sry, hab ich nicht mehr vorher lesen können.

Sorkalm
2008-06-22, 16:40:25
G92b wird etwas größere sein (so um 270 mm²). Und die 9800 GTX hat eine deutlich komplexere Platine (mit entsprechenden Bauteilen) und einen großen, teureren Lüfter, das macht auch was.

Gast
2008-06-22, 16:59:17
270 mm²?

Dachte, hier im Forum hätte man sich auf 246 mm² geeinigt.

w0mbat
2008-06-22, 17:01:21
Ist doch egal. Auch wenn man sich hier auf 131mm² einigt macht dass den Chip nicht kleiner.

Black-Scorpion
2008-06-22, 17:15:56
Dazu ist die 9800GTX+ noch nichtmal kaufbar wärend die 4850 für 141 ocken zum Kunden wandert.

Powerplay ist Herstellerabhängig und damit tot. Ich kauf mir doch kein neues asi NV-Board. Da hab ich ja gleich die Hälfte des preises der Graka.:ucrazy:

Der Verbrauchstest wird übrigens extrem durch das überdimensionierte NT verfälscht. Bei geringere Effizens/Aufnahme rücken natürlich die kleineren Karten zusammen.



Die Frage ist wann und was die 4850 dann kostet.
Powerplay ist doch von ATI? Warum brauchst du dafür ein Board mit nV Chipsatz? ;)
*edit*
Was du bestimmt meinst ist Hybrid Power.

Gast
2008-06-22, 17:28:23
spätestens in 4 wochen kosten die 4850 karten ca.100 euro,was sich amd auch ohne probleme leisten kann.;)

Pu1se
2008-06-22, 17:39:41
100 ist ein bischen wenig, aber 125 kann ich mir auch vorstellen

Gast
2008-06-22, 17:47:54
270 mm²?

Dachte, hier im Forum hätte man sich auf 246 mm² geeinigt.


angeblich wurden 17mm x 17 mm gemessen. Macht im günstigsten Falle
(16,5 mm)^2, dh. ca. 272 mm^2

LovesuckZ
2008-06-22, 18:00:45
264mm² laut hardware.fr.
Kostentechnisch steht nVidia nun wesentlich besser dar als mit dem G92 zum rv670.

Adam D.
2008-06-22, 18:08:14
264mm² laut hardware.fr.
Kostentechnisch steht nVidia nun wesentlich besser dar als mit dem G92 zum rv670.
Naja, das mag für den G92b zutreffen, aber so wie es scheint werden HD4870 und GTX 260 konkurrieren und dann hat Nvidia mit einem doppelt so großen Die echt 'n großes (im wahrsten Sinne des Wortes) Problem.

reunion
2008-06-22, 18:09:11
264mm² laut hardware.fr.
Kostentechnisch steht nVidia nun wesentlich besser dar als mit dem G92 zum rv670.

Leistungstechnisch steht man dafür weitaus schlechter da. :)
Außerdem hat man noch immer ein größeres Die das auch noch langsamer ist als das kleinere der Konkurrenz.

Gast
2008-06-22, 18:09:24
264mm² laut hardware.fr.
Kostentechnisch steht nVidia nun wesentlich besser dar als mit dem G92 zum rv670.


Na dann muss sich aber jemand deutlich vermessen haben. (264 mm^2) ^ (1/2) = 16,2 mm

dargo
2008-06-22, 18:19:27
Naja, das mag für den G92b zutreffen, aber so wie es scheint werden HD4870 und GTX 260 konkurrieren und dann hat Nvidia mit einem doppelt so großen Die echt 'n großes (im wahrsten Sinne des Wortes) Problem.
Ihr tut so als ob das NVs Untergang wäre, echt lustig. :D
Seit doch froh, dass ATI endlich was konkurrenzfähiges zu bieten hat. Lange wird das wohl in Anbetracht des G200b nicht bleiben. Spätestens in Q4 werden die Karten wieder neu gemischt.

Psychopat
2008-06-22, 18:20:21
Die Frage ist doch eigentlich für mich nur, ob ATI den CF Support endlich mal verbessert.
Denn ansonsten macht für mich die 4870x2 wenig Sinn.

Das ist ja das interessante an der x2. In den Reviews zur 4850 gab's Benchmarks in denen 4850 CF nicht Skaliert hat, die 3870x2 aber schon! Also muss schon die 3870x2 mehr als "nur" CF sein. Zur 4870x2 gibt's ja entsprechende vermutungen, z.B. von anddill:

Ich vermute folgende Konfiguration für die Multichipkarten:
Beide Chips haben einen eigenen VRAM von vollen 512 oder 1024MB. Das Beschicken mit Texturen und Befehlen geschieht ganz klassisch gedoppelt über eine PCIe-Bridge. Über den neu aufgetauchten Crossfire-Sideport können sich die Kommandoeinheiten der Chips syncronisieren und es kann die Slave-GPU in den Framebuffer der Master-GPU schreiben. Die dafür benötigte Bandbreite ist recht gering.
So können beide GPUs am selben Bild arbeiten. Da nur ein Framebuffer existiert, kann sich das Chipgespann der Anwendung gegenüber als Einzelchip ausgeben, das Verteilen der Texturen und die Syncronisation wird entweder in Hardware gegossen oder vom Treiber maskiert.

Für einen vollständig gemeinsam genutzten Speicher incl. Texturen dürften die machbaren Bandbreiten zwischen den Chips zu gering sein. Dafür bräuchte man einen echten Speicherbus oder Dual-Port VRAM.
(link (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6606165&postcount=1227))

LovesuckZ
2008-06-22, 18:22:01
Na dann muss sich aber jemand deutlich vermessen haben. (264 mm^2) ^ (1/2) = 16,2 mm

Man kann sowieso nich richtig messen.
Man ist bis auf <10% an die Konkurrenz bei gleicher Leistung herangekommen. Der jetzige Zustand ist wesentlich besser für nVidia als noch beim G92 zum rv670.

Gast
2008-06-22, 18:30:11
Eine 4870 ist nicht gleichschnell wie eine 9800GTX+ ;)

Chris2CB
2008-06-22, 19:04:05
Man kann sowieso nich richtig messen.
Man ist bis auf <10% an die Konkurrenz bei gleicher Leistung herangekommen. Der jetzige Zustand ist wesentlich besser für nVidia als noch beim G92 zum rv670.


Ja und nein, bei gleicher größe holt ATI doch um einiges mehr Leistung raus und kann eine HD 4870 deßhalb auch etwas teurer verkaufen. G92b und RV 770 benötigen in etwa den gleichen platz, bzw man bekommt gleichviel in einen Wafer.

LovesuckZ
2008-06-22, 19:07:07
Um das zu klären, müssen erste Verbrauchsmessungen mit der 4870 abzuwarten sein. Bei gleicher Festlegung der TDP liegt die 4870 55Watt über der 4850.

Gast
2008-06-22, 19:20:21
Ja und nein, bei gleicher größe holt ATI doch um einiges mehr Leistung raus und kann eine HD 4870 deßhalb auch etwas teurer verkaufen. G92b und RV 770 benötigen in etwa den gleichen platz, bzw man bekommt gleichviel in einen Wafer.

Was hat die größe mit der Leistung zu tun?`

Wieviele Tranistoren werden bei der GTX260 nicht genutzt, die Leistung der 1Mrd. der HD4870 sieht so nicht "überagend" aus, wenn man die Brille mal abnimmt. Frage mich sowieso warum man so harte Kampfpreise fährt, kann ja nicht so gut sein für die Bilanz und damit das R&D...

Schlammsau
2008-06-22, 19:24:53
Ich finde die ganze Situation eh äusserst bescheiden!
Da bringt ATi eine Karte raus die rund 5% schneller ist als die der Konkurrenz. Was macht nVidia? Sie bringen eine Karte die dann das gleiche Niveau hat!
Soll das jetzt so weiter gehen? Immer 5% schneller? Find das komisch!

reunion
2008-06-22, 19:26:13
Ich finde die ganze Situation eh äusserst bescheiden!
Da bringt ATi eine Karte raus die rund 5% schneller ist als die der Konkurrenz. Was macht nVidia? Sie bringen eine Karte die dann das gleiche Niveau hat!
Soll das jetzt so weiter gehen? Immer 5% schneller? Find das komisch!

Gleich sagt dir Lovesuckz das AMD den Markt zerstört hat und das deshalb so ist.

Im Ernst: Der Midragemarkt ist eben heiß umkämpft, da zählt jeder Prozentpunkt den man der Konkurrenz voraus ist. Und solange nicht kleinere Strukturgrößen möglich sind sind größere Leistungssteigerungen in diesem Preisbereich eben wirtschaftlich nicht möglich.

Gast
2008-06-22, 19:48:04
naja, nvidia wird in den nächsten monaten quasi das gesammte sortiment auf 55nm shrinken. hierdurch erhält man einen kostenvorteil von ~20$ (G94), ~30$(G92) und ~45$ (GT200), die man in eine LANGFRISTIGE preissenkung investieren könnte ...

Naja, selbst wenn Nvidia den GT200b um US$45 billiger fertigen könnte als den GT200 würde ihnen das immer noch nicht viel helfen. Die Ausgangsbasis ist im Vergleich zum RV770 von ATi einfach zu schlecht:

Durch das große Die mit 576mm² hat Nvidia nur eine Ausbeute von AFAIR ~100 GT200 pro Wafer. Gleichzeitig hat Nvidia angeblich ja eine sehr schlechte Ausbeute an GT200. Gerüchte sagen was von 40%. Aufgrund des gigantischen Die kann das schon stimmen. 1 Wafer kostet angeblich so 5000-6000 Dollar. Macht also, wenn das Gerücht mit der Ausbeute stimmt ca. 135 Dollar pro GT200 (bei 5500 Dollar pro Wafer)

Bei ATi sieht die Sache anders aus. Theoretisch sollte ATi 276 Die pro Wafer an Ausbeute bekommen. Durch den Verschnitt im Randbereich mal angenommen 10% weniger (durch das kleinere Die ist der Verschnitt geringer als beim GT200); macht also ~248 Die pro Wafer. Bei einer für die Größe angeblich (laut Kommentaren auf Beyond3D) normalen Ausbeute von 70% bleiben 174 gute GPUs übrig. Da der 55nm Prozess bei TSMC (sp?) bereits in der 2. Generation läuft sollten die Mehrkosten gegenüber 65nm nicht mehr ins Gewicht fallen. Sagen wir also mal 10% Aufpreis von 5500 auf 6000 Dollar (reine Schätzung). Dann würde ATi 1 RV770 also ca. 35 Dollar kosten.

Stimmen die Gerüchte und Infos über die Herstellkosten dann hat Nvidia mit dem GT200; vor allem mit der 260GTX ein wirklich großes Problem. Dazu kommt dann auch noch das das 448/512bit breite Speicherinterface zu höheren Platinenkosten führt, der höhere Stromverbrauch die Platinenkosten weiter nach oben treibt etc...

horn 12
2008-06-22, 19:54:35
Ja, dies wird wohl hinkommen.
Fakt wird sein dass sich die HD 4850 bei 130 Euro
HD 4870 GDDR5 512 MB 210 Euro
HD 4870 GDDR4 1 GB 240/250 Euro
bewegen/ einpendeln werden bei Ausreichender Verfügbarkeit in nicht mal einem Monat. (Vor allem die HD4870 1GB)

Und dann hat NV das angesprochene Problem nochmals um einiges Verstärkt, denn unter 260 Euro wird die GTX 260 wohl niemals fallen können.

igg
2008-06-22, 20:11:30
Ich glaube die Produktionskosten des GT200 werden teilweise übertrieben. Nur weil der Inq mal den Teufel an die Wand gemalt hat und 2 dt. Hardwareseiten das kommentarlos ins dt. übersetzt haben.

Im beyond3d Forum war dazu mal ein recht guter Beitrag, kann ihn leider nicht mehr finden.

Chris2CB
2008-06-22, 20:25:51
Was hat die größe mit der Leistung zu tun?`

Wieviele Tranistoren werden bei der GTX260 nicht genutzt, die Leistung der 1Mrd. der HD4870 sieht so nicht "überagend" aus, wenn man die Brille mal abnimmt. Frage mich sowieso warum man so harte Kampfpreise fährt, kann ja nicht so gut sein für die Bilanz und damit das R&D...


Die Größe hat was mit dem Preis gemeinsam da man hier etwas die kosten senken kann auch wenn man fürn nen Wafer in 55nm halt 6000$ statt 4500 - 5000$ in 65nm zahlen muss. In diesem Sinne kostet 9800GTX+ und HD 4870 etwa das selbe, nur das ATI halt wohl etwas mehr verlangen muss wegen GDDR5.

Ich glaube die Produktionskosten des GT200 werden teilweise übertrieben. Nur weil der Inq mal den Teufel an die Wand gemalt hat und 2 dt. Hardwareseiten das kommentarlos ins dt. übersetzt haben.

Im beyond3d Forum war dazu mal ein recht guter Beitrag, kann ihn leider nicht mehr finden.


Den Preis kann man sich einfach über die Fläche ausrechnen und davon einfach 5 - 10% verschnitt abziehen. In etwa sollte man 95stk GT200 auf nem Wafer unterbringen können. 5000/95=53$stk, wieviel davon jetzt 260 oder 280 sind und was erst garnicht lauffähig ist weiß aber nur der Hersteller und NV.

Kriton
2008-06-22, 20:55:27
Die Größe hat was mit dem Preis gemeinsam da man hier etwas die kosten senken kann auch wenn man fürn nen Wafer in 55nm halt 6000$ statt 4500 - 5000$ in 65nm zahlen muss. In diesem Sinne kostet 9800GTX+ und HD 4870 etwa das selbe, nur das ATI halt wohl etwas mehr verlangen muss wegen GDDR5.

9800GTX+ ist doch auch auf 55 nm?! Damit sollte sie wegen der höheren Transistorzahl teurer sein. Im übrigen ist der GDDR5 zweifellos teurer, dafür spart sich AMD wiederum das breitere Speicherinterface der 9800GTX+.
Und dann kommen noch Einsparungen dazu, die man nicht am einzelnen Chip festmachen kann - das einheitliche Design ihrer gesamten Produktrange ist nicht zu unterschätzen - denn indem man dann die Unterscheidung durch GDDR5 anstatt durch deaktivierte Einheiten schafft, kann besser am Markt produzieren anstatt nur entsprechend künstlich zu verkaufen (vgl. seinerzeit die Situation mit der 9600 wo sich Einheiten freischalten ließen) und dennoch die höheren Produktkosten zu haben ohne diese am Markt absetzen zu können.

LovesuckZ
2008-06-22, 20:56:35
Du verwechselt die 9800GTX+ (ca. 270mm²) mit den GT200 Karten.

S940
2008-06-22, 21:00:44
dafür spart sich AMD wiederum das breitere Speicherinterface der 9800GTX+.Die 9800 hat 256bit und daran ändert sich nix bei der + Version. Du verwechselst da was mit den 512bit der 280GTX.

ciao

Alex

Sascha1971
2008-06-22, 21:36:00
Kurze Frage:

Ich habe ein P5W DH Deluxe Mainboard und das hat noch PCI-E 1.
Bei der 4870x2 steht das sie PCI-E 2 hat.
Kann ich die überhaupt benutzen dann ?

AnarchX
2008-06-22, 21:38:51
Sollte natürlich funktionieren, wenn auch wohlmöglich Einschränkungen zu erwarten sind bei der Leistung.

Gast
2008-06-22, 22:19:16
Sollte natürlich funktionieren, wenn auch wohlmöglich Einschränkungen zu erwarten sind bei der Leistung.

Fast alle Testsysteme basieren noch auf PCIe 1.1. Von daher kanns mit 2.0 nur aufwärts gehen ;)

Gast
2008-06-22, 22:21:14
Kurze Frage:

Ich habe ein P5W DH Deluxe Mainboard und das hat noch PCI-E 1.
Bei der 4870x2 steht das sie PCI-E 2 hat.
Kann ich die überhaupt benutzen dann ?

Sollte grundsätzlich gehen, genau so wie andere PCI-Express 2.0 Karten (GF9xxx, GTX2xx, HD38xx) auch auf PCI-Express 1.1 laufen.

Gast
2008-06-22, 23:56:16
zahlen nvidia und ati eigentlich wirklich pro wafer und unabhängig von der anzahl der fehler ??

Sorkalm
2008-06-22, 23:59:35
zahlen nvidia und ati eigentlich wirklich pro wafer und unabhängig von der anzahl der fehler ??

Soviel ich weiß nicht zwingend. Die Verträge können da aber natürlich unterschiedlich ausfallen...

Gast
2008-06-23, 00:08:19
zahlen nvidia und ati eigentlich wirklich pro wafer und unabhängig von der anzahl der fehler ??


das weiß man nicht wirklich, lediglich beim NV40 der von IBM gefertigt wurde ist durchgesickert, dass NV nur für funktionstüchtige DIEs zahlt.

wie die verträge mit TSMC aussehen ist nicht bekannt.

Fetza
2008-06-23, 01:23:14
Dass die 4870X2 schneller als die GTX280 ist, sollte auch zu erwarten sein. Alles andere wäre wohl super peinlich.

Das die 4870 deutlich besser performt als die gtx260 finde ich eigentlich eher super peinlich für nvidia.;) Da würde ich erst garnicht anfangen von der performance eines 4870x2 zu reden.

Die 3870 kann auch in einigen Anwendungen schneller als die 8800Ultra sein.

/edit: Nun, eine 9800GTX ist auch schneller als die 4870 in einigen Anwendungen - ziemlich peinlich für AMD, nach 19 Monate nichtmal komplett schneller zu sein...
Und eine 8800GTX ist in einigen Fällen schneller als die 4850. Peinlich, dass man nach 19 Monaten nichtmal das alte High-End der Konkurrenz schlagen kann.
Oh und nVidias "verkrüppelter" G92 reicht aus um AMDs vierte einheitliche Architektur Konkurrenz zu machen.

Ist ja wieder lustig zu lesen von dir, aber ich würde es aufgeben. Eine 4850 putzt deinen g92 in allen benchmarks weg, insofern quality einstellung benutzt werden (sprich aa und af eingeschaltet) und wer spielt heute schon ohne dem? Die 4870 deklassiert in modernen games die gtx260, braucht dabei weniger strom und ist mindestens 100 euro billiger.

Die 9800GTX kostet das Selbe wie die 4850(199$) ist gleich schnell im Schnitt.Eine 9800GTX+ ist ca 10% schneller kostet ca 15€ mher.Und die 9800GTX+ mit 55nm G92 verbraucht ca gleich viel wie die 4850 ist aber schneller.



http://s8.directupload.net/images/080622/h6mrzfhk.jpg

http://s5.directupload.net/images/080620/zinblwbr.jpg

http://www.legitreviews.com/article/732/1/
Ich finde die ganze Situation eh äusserst bescheiden!
Da bringt ATi eine Karte raus die rund 5% schneller ist als die der Konkurrenz. Was macht nVidia? Sie bringen eine Karte die dann das gleiche Niveau hat!
Soll das jetzt so weiter gehen? Immer 5% schneller? Find das komisch!

Auch hier scheint man komplett auf aa verzichtet zu haben, damit sind die benchmarks eigentlich auch für die tonne.

Edit: Was mich an den crossfire bzw x2 lösungen brennend interessiert, ist die frage, ob es ati geschafft hat ohne microrucklern auszukommen.

Chris2CB
2008-06-23, 02:15:48
zahlen nvidia und ati eigentlich wirklich pro wafer und unabhängig von der anzahl der fehler ??


Ist wohl eher ne Hochrechnung mit der man einigermaßen für uns laien mit Zahlen spielen kann( evtl auch für die Buchhaltung nötig ). Normal sollten ATI und Nvidia eher Langzeitverträge mit TSMC haben, was natürlich ein gewisses Autragsvolumen voraussetzt. Zum einen geht so TSMC sicher das ihr Werk gut ausgelastet ist, zum anderen können NV und co. schauen das sie etwas günstigere Preise bekommen mit dem Nachteil das sie gebunden sind.

In etwa so das ATI zB. 100.000 Chips RV 770 in Auftrag gibt und hierfür etwa 475, 300mm Wafer benötigt werden. Wenn TSMC aber für die 100.000 aber 600Wafer benötigt wird ATI diese sicher nicht zahlen wollen und normal müssen sie das auch nicht.

robbitop
2008-06-23, 09:34:01
wie wir schon spekulierten 4870>=GTX260

und crysis ist ein nvidia freundliches spiel
Crysis ist ein Z-Renderer und braucht neben massig ALU-Leistung auch viel Z-Leistung und Bandbreite. In beidem ist GT200 vorn.
Was den Rest angeht, wird es schon schwieriger, eine Radeon zu sabotieren. Schließlich ist all ihre Rechenleistung auch in Form von universalen MAD verfügbar. Also recht robust das ganze.
Man kann höchstens ein wenig MUL-Lastigkeit eingebaut haben, um die ALUs des G8x/9x/200 besser auszulasten. Das tut der R6xx/7xx allerdings nicht weh.
Behindern könnte man die R6xx/7xx durch kürzere Shader mit vielen Interdependenzen. Das wäre allerdings auch nicht soo toll für die G8x/9x/200. Aber weniger schlimm. Es wäre dennoch kontraproduktiv und ineffizient. Deshalb glaube ich kaum dran. Schließlich muss die Hardwarebasis da sein, damit sich Spiele verkaufen. Ich würde in diesen Dev-Rel-Programmen nicht immer gleich den Teufel sehen.
Ich tippe auf Z-Leistung und Bandbreite.

Je höher der Rechenaufwand pro Pixel wird, desto lohnender werden Z-First-Pass-Renderer. Also eine Disziplin, in der eine GPU gut sein muss.
Und so schlecht schlägt sich die 4850 in Crysis doch auch nicht.

Sorkalm
2008-06-23, 10:45:51
Was der HD 4870 sicher nicht fehlen wird, ist Bandbreite...

Sascha1971
2008-06-23, 10:46:20
115,2 GB/s, reicht Dir das ? Die Chips sind für 128GB/s zugelassen, das sollte per OC ziemlich locker drin sein.

ciao

Alex

P.S. objektiv


Wenn ich das richtig gelesen habe soll die 2x1Gb Version nur DDR4 haben ?
Die Frage ist ob es dann noch reicht.

S940
2008-06-23, 10:48:06
Wenn ich das richtig gelesen habe soll die 2x1Gb Version nur DDR4 haben ?
Die Frage ist ob es dann noch reicht.
Das glaub ich erst, wenn ichs sehe ... wie vertrauensvoll ist denn die Quelle ?

ciao

Alex

AnarchX
2008-06-23, 10:54:24
Schaut doch einfach mal in #1:
http://img118.imageshack.us/img118/3729/xss144tmpog1.jpg

4 GPUs, also tritt die X2 schonmal nicht als einzelne GPU nach außen auf und die 1024MB scheinen wohl auch auf 1GiB pro GPU hinzudeuten, was für eine ~$499-549 GraKa im Herbst doch möglich sein sollte, erst recht wenn man durch 1024Mbit Chips weiterhin nur 8 Chips benötigt.

Gast
2008-06-23, 10:58:10
Schaut doch einfach mal in #1:
http://img118.imageshack.us/img118/3729/xss144tmpog1.jpg

4 GPUs, also tritt die X2 schonmal nicht als einzelne GPU nach außen auf und die 1024MB scheinen wohl auch auf 1GiB pro GPU hinzudeuten, was für eine ~$499-549 GraKa im Herbst doch möglich sein sollte, erst recht wenn man durch 1024Mbit Chips weiterhin nur 8 Chips benötigt.

Die 1024MB sind shared Memory für beide GPU's. 2 x 1024MB GDDR5 wäre unbezahlbar.

AnarchX
2008-06-23, 11:01:45
Die 1024MB sind shared Memory für beide GPU's. 2 x 1024MB GDDR5 wäre unbezahlbar.

Wie schon gesagt, Qimonda listet offiziell 1024Mbit Chips, welche die Sache doch recht einfach macht.

2GiB GDDR5 dürften imo auch billiger sein, als ein kompliziertes Shared-Memory-Prinzip, was imo schon durch die Distanz beider GPUs auf dem PCB, auf den letzten Bildern (#1), auszuschließen ist.

Sorkalm
2008-06-23, 11:14:16
Laut Ail kommen doch die verbesserten Multi-GPU-Techniken (MCM etc.) erst mit der R800-Generation, das spricht auch dafür.

S940
2008-06-23, 11:16:42
Die 1024MB sind shared Memory für beide GPU's. 2 x 1024MB GDDR5 wäre unbezahlbar.
Hab ich was verpaßt, und die X2 4870 wird im low-cost Bereich positioniert, bei dem es um jeden Cent ankommt ?
Das Teil wird high-end, Preis absolut egal ;-)
Die Leistung wird wohl sicherlich über ner GTX280 liegen, nimm die mal als Preisreferenz ... für das Geld kann AMD viel GDDR5 verbauen.

ciao

Alex

AnarchX
2008-06-23, 11:19:28
Laut Ail kommen doch die verbesserten Multi-GPU-Techniken (MCM etc.) erst mit der R800-Generation, das spricht auch dafür.

Ja, 40nm dürfte für RV770 +200SPs und eben die Logik für den Interconnect, doch für einen genügend kleinen Die sorgen, sodass man min. 2 von diesen GPUs auf ein Package bekommt.

Wenn man sich die Rechenleistung anschaut, die AMD mit einem 4870X2 CF liefern kann, dann sind hier effektive 1GiB doch ein Muß.

Superheld
2008-06-23, 11:24:18
wird die 4870 jetzt auch am 25.6 vorgestellt ?

GeneralHanno
2008-06-23, 11:34:26
wird die 4870 jetzt auch am 25.6 vorgestellt ?
IMO darf am 25.6. die R7xx architektur artikel und die benchs zur 4870 veröffentlicht werden ...

PS: hat jmd den link, wo ein AC S1 auf eine 4850 montiert wurde?

ShadowXX
2008-06-23, 11:43:28
IMO darf am 25.6. die R7xx architektur artikel und die benchs zur 4870 veröffentlicht werden ...

Jupsss....Karten kommen aber erst am 8 Juli.....

Die 1024MB sind shared Memory für beide GPU's. 2 x 1024MB GDDR5 wäre unbezahlbar.
Sie werden bestimmt kein shared mem haben. Bei diesen Gen wird es noch genauso laufen wie bei den X2-38x0-Karten.

GeneralHanno
2008-06-23, 11:47:07
Jupsss....Karten kommen aber erst am 8 Juli.....

und gut verfügbar erst im august ;)

Gast
2008-06-23, 12:03:30
Sie werden bestimmt kein shared mem haben. Bei diesen Gen wird es noch genauso laufen wie bei den X2-38x0-Karten.

Auf deine Meinung gebe ich garnichts. So ziemlich alles, was unsere Möchtegernspezialisten zum RV770 vorhergesagt haben war falsch.

Lokn4r
2008-06-23, 12:05:31
Hab ich was verpaßt, und die X2 4870 wird im low-cost Bereich positioniert, bei dem es um jeden Cent ankommt ?
Das Teil wird high-end, Preis absolut egal ;-)
Die Leistung wird wohl sicherlich über ner GTX280 liegen, nimm die mal als Preisreferenz ... für das Geld kann AMD viel GDDR5 verbauen.

ciao

Alex

Nein. ATI/AMD müssen Kunden abziehen, in Größenordnungen dazu Kunden ansprechen und das wird unmöglich sein, wenn die Karte mehr als eine 280iger kostet.
Es geht für ATI um Marktanteile und Überleben um jeden Preis und allenfalls in der kommenden Generation dann um höhere Preise. Bei gleichem Preis und vergleichbarer Leistung, hat NV leider den vertrauteren Klang ..

HPVD
2008-06-23, 12:07:52
werden am 25.6. passend zu den Grafikkarten auch die neuen 790fx boards mit der SB750 vorgestellt?

Sorkalm
2008-06-23, 12:12:00
Bei Powercolor hat sich wohl versehentlich bereits eine Pressemitteilung vom 25. auf den Server verirrt:
http://www.powercolor.com/Global/NewsInfo.asp?id=231

Bei der 4870 sprechen sie von Taktraten von 725/900, das scheint wohl noch nicht ganz final zu sein.

S940
2008-06-23, 12:14:16
@Lokn4r:
2 4870er werden auch schneller als ne 280er sein, da ist schon viel Luft für den Preis. Marktanteile gewinnt man mit der normalen 4870er/4850er Reihe, die X2 ist nur Prestige und für Leute mit zuviel Geld (GTX280 Klientel eben ;-))

@HPVD:
Höchstwahrscheinlich, warte die restlichen paar Tage einfach mal ab, bei alternate sind schon ein paar DFI boards mit SB750 aufgetaucht.

ciao

Alex

Fetza
2008-06-23, 12:19:07
Bei Powercolor hat sich wohl versehentlich bereits eine Pressemitteilung vom 25. auf den Server verirrt:
http://www.powercolor.com/Global/NewsInfo.asp?id=231

Bei der 4870 sprechen sie von Taktraten von 725/900, das scheint wohl noch nicht ganz final zu sein.

Jo, in der tabelle haben sie dann sogar beide modelle mit 625 mhz gpu takt angegeben.:D Schlampig, schlampig.;)

reunion
2008-06-23, 13:26:50
Ein paar Benchs zur 4870:
http://translate.google.com/translate?hl=en&u=http%3A%2F%2Fwww.hkepc.com%2Fforum%2Fviewthread.php%3Ftid%3D1007750%26extra%3D page%253D1

Countdown bis zum erscheinen der X2:
http://www.madpixelz.net/amdnews/2008_06_23/r700_count/

Adam D.
2008-06-23, 13:31:19
Noch 62 Tage - ich kann die Spannung gerade zu fühlen :usad:

AnarchX
2008-06-23, 13:31:25
Da hat ATi wohl endlich gelernt, dass es für ein erfolgreiches Produkt nicht nur gute HW benötigt. :up:

ShadowXX
2008-06-23, 13:36:39
Ein paar Benchs zur 4870:
http://translate.google.com/translate?hl=en&u=http%3A%2F%2Fwww.hkepc.com%2Fforum%2Fviewthread.php%3Ftid%3D1007750%26extra%3D page%253D1

Den gabs schon im 4850er-Thread (oder hier, weiss momentan nicht mehr genau).

Countdown bis zum erscheinen der X2:
http://www.madpixelz.net/amdnews/2008_06_23/r700_count/
Das "Priced for Gamers" sollten Sie oben auf der Grafik wegnehmen.
Das passt zur 4850 & 4870 aber nicht zur X2.

Superheld
2008-06-23, 13:37:28
mal sehen was für Bombe Nvidia in 2 Monaten platzen lässt :naughty:

Gast
2008-06-23, 13:42:49
mal sehen was für Bombe Nvidia in 2 Monaten platzen lässt :naughty:

Bombe und platzen... das glaub ich ja gern :tongue:

Adam D.
2008-06-23, 13:45:17
mal sehen was für Bombe Nvidia in 2 Monaten platzen lässt :naughty:
Kann mir nicht vorstellen, dass der G200b schon so schnell fertig ist. Ich denke, da müssen wir eher auf den Jahreswechsel warten, bis es wieder was Neues von Nvidia zu hören gibt.

Sorkalm
2008-06-23, 13:48:05
Wäre der 25.8 für die 4870 X2.

Gast
2008-06-23, 13:53:55
Da hat ATi wohl endlich gelernt, dass es für ein erfolgreiches Produkt nicht nur gute HW benötigt. :up:
Dumm nur, dass auf www.unleashonetera.com kein solcher counter vorhanden ist, wie in Madpixelsblablabla gebastelt haben.

Ich glaube, R700 kommt früher. Man braucht lange Balken um die B2S-Season nicht komplett zu verlieren.

S940
2008-06-23, 14:04:58
Jo, in der tabelle haben sie dann sogar beide modelle mit 625 mhz gpu takt angegeben.:D Schlampig, schlampig.;)
Asus macht das besser ..

http://www.asus.com/news_show.aspx?id=11871

750 MHz, so solls sein :)

Und das Superfeature, für den ambitionierten Gamer:
Special Bundled - Leather Mouse PAD

Wow ^^

ciao

Alex

Eggcake
2008-06-23, 14:06:23
Leider unter den 70ern keine 1GB-Variante gelistet :/

S940
2008-06-23, 14:38:38
Leider unter den 70ern keine 1GB-Variante gelistet :/
Jo, das ist deswegen weil Quimonda die 1Gb GDDR5 Chipproduktion erst hochfährt. Ich denke mal, dass das auch der Ursprung der "4870 in Stückzahlen erst im August" Gerüchte ist. Das bezieht sich wohl auf die 1GB Versionen, die 512MB Karten hat man da übersehen.

ciao

Alex

Lard
2008-06-23, 14:52:03
[Autopsy] ATI Radeon HD 4870 512MB 256bit (http://en.expreview.com/2008/06/23/autopsy-ati-radeon-hd-4870-512mb-256bit/)

HOT
2008-06-23, 14:56:49
mal sehen was für Bombe Nvidia in 2 Monaten platzen lässt :naughty:
Na ja, wieviel/wenig davon zu erwarten ist, sieht man ja an der 9800GTX+.

Adam D.
2008-06-23, 14:57:42
And, it beats GTX 260, in price and performance. Our review will be out in days, keep tuned.
Nvidia = fail :usad:

Fetza
2008-06-23, 15:02:14
Asus macht das besser ..

http://www.asus.com/news_show.aspx?id=11871

750 MHz, so solls sein :)

Und das Superfeature, für den ambitionierten Gamer:


Wow ^^

ciao

Alex

Jo :), was mir an der asus 4850 übrigends sehr gefällt, ist der kühler.

Fetza
2008-06-23, 15:21:38
[Autopsy] ATI Radeon HD 4870 512MB 256bit (http://en.expreview.com/2008/06/23/autopsy-ati-radeon-hd-4870-512mb-256bit/)

Der kühler sieht derbe fett aus, denke mal die 4870 wird sich deutliche besser ocen lassen, als die 4850 - ob da wohl 850 mhz im schnitt drinn sind?

Gast
2008-06-23, 15:26:28
Der kühler sieht derbe fett aus, denke mal die 4870 wird sich deutliche besser ocen lassen, als die 4850 - ob da wohl 850 mhz im schnitt drinn sind?

Bestimmt, der RV770 soll doch angeblich 1GHz schaffen. Könnte mir auch vorstellen, dass ATI später noch eine 4890 mit 950Mhz und 2200Mhz GDDR5 rausbringt.

Gast
2008-06-23, 17:39:46
wenn das stimmt kann NV Brezeln verkaufen gehen...
http://www.fudzilla.com/index.php?option=com_content&task=view&id=8003&Itemid=34

LovesuckZ
2008-06-23, 17:43:56
wenn das stimmt kann NV Brezeln verkaufen gehen...
http://www.fudzilla.com/index.php?option=com_content&task=view&id=8003&Itemid=34

Lol, und das glaubt Fudo? :rolleyes:

Gast
2008-06-23, 17:44:41
aber die ATI Käufer :lol:

Eggcake
2008-06-23, 17:46:11
Naja die Werte sind dort alle extrem hoch...von daher kann ich das auch nicht ganz glauben :>
Edit: Höchstwahrscheinlich Werte auf High, nicht VH...

ShadowXX
2008-06-23, 17:47:10
wenn das stimmt kann NV Brezeln verkaufen gehen...
http://www.fudzilla.com/index.php?option=com_content&task=view&id=8003&Itemid=34
Also das die 4870 nicht mal drei Frames von 1xMSAA auf 8xMSAA bei der Auslösung verlieren solle hört sich IMHO etwas fantastisch an.

a mainstream quad-core Radeon HD 4870 can score 30.5FPS at 1920x1200. Unfortunately, this is the resolution without FSAA and Aniso, and if you really want to push it with 8X FSAA you will score a quite acceptable 27.90 FPS. With this game this is considered a great score.

Superheld
2008-06-23, 17:49:12
lol das stand auf einer Folie, schon paar Tage alt:uexplode:

hier isse;D
http://img515.imageshack.us/img515/6532/sapphirehd48750dhfx57tewz3.jpg

reunion
2008-06-23, 17:50:44
Richtig, die Werte sind von Sapphire:

http://img515.imageshack.us/img515/6532/sapphirehd48750dhfx57tewz3.jpg

LovesuckZ
2008-06-23, 17:54:10
Dann warten wir mal freudig auf Mittwoch.

dargo
2008-06-23, 18:12:09
Richtig, die Werte sind von Sapphire:

http://img515.imageshack.us/img515/6532/sapphirehd48750dhfx57tewz3.jpg
Nur 13% Verlust von 1xAA auf 8xAA in Crysis? :| Kaum zu glauben...

uweskw
2008-06-23, 18:16:26
ist bei der 4850 doch genauso, mich würde aber interessieren ob dieses 8AA auch wirklich funktioniert.

Gast
2008-06-23, 18:23:48
Wenn interessiert die Performance in Crysis High? Very High ist das einzig interessant :).

dargo
2008-06-23, 18:25:13
Wenn interessiert die Performance in Crysis High? Very High ist das einzig interessant :).
Es geht mir nicht um die Performance in Crysis in erster Linie (völlig egal ob H oder VH). Mich wundert der sehr geringe Verlust von 1xAA auf 8xAA.

AffenJack
2008-06-23, 18:32:11
ist bei der 4850 doch genauso, mich würde aber interessieren ob dieses 8AA auch wirklich funktioniert.

das frage ich mich auch manchmal
zb wenn man sich die cb-benches anguckt.
jericho 4xaa zu 8xaa 39,6 zu 38,5 oder ut3 90,4 zu 88
ist der rv770 in irgendwas so limitiert, dass das dann einfach ohne einbußen geht weil immernoch was anderes limitiert?kann mir das ma wer erklären?

Nakai
2008-06-23, 18:32:50
Es geht mir nicht um die Performance in Crysis in erster Linie (völlig egal ob H oder VH). Mich wundert der sehr geringe Verlust von 1xAA auf 8xAA.

Anscheinend limitiert da wohl was anderes, also das Z.


mfg Nakai

LovesuckZ
2008-06-23, 18:33:49
Es läuft anscheinend über die Recheneinheiten. Bei nVidia muss man für die 8 ColorSamples loopen - und irgendwo in der Architektur verliert man dafür massig Zeit und somit FPS. AMD scheint es wesentlich besser gelöst zu haben - dafür bricht man bei 4 AA jedoch stärker ein als die Konkurrenz. Unglücke Forumulierung.

reunion
2008-06-23, 18:38:11
dafür bricht man bei 4 AA jedoch stärker ein als die Konkurrenz.

Auch das ist spätestens seit RV770 nicht mehr so.

AnarchX
2008-06-23, 18:38:23
Wenn dann läuft bei AMD nur ein Teil über die Shader, aber wenn diese Werte stimmen bzw. generell die gute 8xMSAA-Perfomance bei AMD liegt an den verdoppelten Z-Testern pro ROP, 115GB/s bei der 4870 und den doch überlegenen Sparmaßnahmen für die Z-Fill.
NVs 8Z sind doch ziemlich Brute-Force.

LovesuckZ
2008-06-23, 18:41:42
Auch das ist spätestens seit RV770 nicht mehr so.

Natürlich ist es noch so. Sonst würde die Karte sich mit 4 AA nicht genauso Verhalten wie der rv670 und der r600. Dank deutlich höhrerer Rechenleistung ist der Abfall zwar geringer, aber immer noch sehr deutlich.

reunion
2008-06-23, 18:42:56
Es geht mir nicht um die Performance in Crysis in erster Linie (völlig egal ob H oder VH). Mich wundert der sehr geringe Verlust von 1xAA auf 8xAA.

Der sehr geringe Einbruch von 4AA zu 8AA war auch schon bei R6xx zu beobachten. Bei RV770 scheinen jetzt auch die kleineren Modi deutlich billiger geworden zu sein.

Natürlich ist es noch so. Sonst würde die Karte sich mit 4 AA nicht genauso Verhalten wie der rv670 und der r600. Dank deutlich höhrerer Rechenleistung ist der Abfall zwar geringer, aber immer noch sehr deutlich.

Die 9800GTX gibt mit AA stärker nach. Dein Argument ist obsolet.

Eggcake
2008-06-23, 18:50:28
Natürlich ist es noch so. Sonst würde die Karte sich mit 4 AA nicht genauso Verhalten wie der rv670 und der r600. Dank deutlich höhrerer Rechenleistung ist der Abfall zwar geringer, aber immer noch sehr deutlich.

Sorry, aber das ist einfach falsch.
Vergleich nur mal die CB-Werte - obwohl da noch 16x AF drin ist (und dort afaik ATI mehr einbricht, oder zumindest nicht weniger als nvidia) sinkt der Abstand/nimmt der Abstand zu (zu Gunsten der ATI) zur Ultra und zur 9800 GTX. Einzig die GTX280 bricht weniger ein, was bei einem so performanten Chip auch klar ist. Zudem liegts bei dem wohl eher an der mageren Leistung ohne AA/AF...

LovesuckZ
2008-06-23, 18:52:14
Der sehr geringe Einbruch von 4AA zu 8AA war auch schon bei R6xx zu beobachten. Bei RV770 scheinen jetzt auch die kleineren Modi deutlich billiger geworden zu sein.

Der Vorsprung der 4850 vor der 3850 512 wächst von 80% auf 88%. Diese 10% können aus meiner Sicht kein Anzeichen für eine Veränderung der AA Realisierung stehen.

Wächst nur von 50% ohne AA/AF auf maximal 88%. Von 4xMSAA auf 8xMSAA bleibt der Abstand fast gleich (+2%). Ich sehe kein anderes verfahren.
Genaueres wissen wir ja sowieso erst Mittwoch.


Die 9800GTX gibt mit AA stärker nach. Dein Argument ist obsolet.

Und die 9800GTX ist also jetzt ein Argument, dass der r770 anderst AA realisiert? :rolleyes:

Sorry, aber das ist einfach falsch.
Vergleich nur mal die CB-Werte - obwohl da noch 16x AF drin ist (und dort afaik ATI mehr einbricht, oder zumindest nicht weniger als nvidia) sinkt der Abstand/nimmt der Abstand zu (zu Gunsten der ATI) zur Ultra und zur 9800 GTX. Einzig die GTX280 bricht weniger ein, was bei einem so performanten Chip auch klar ist. Zudem liegts bei dem wohl eher an der mageren Leistung ohne AA/AF...

Schön, aber was hat das mit der Realisierung von AA zu tun? :confused:

reunion
2008-06-23, 18:53:33
Und die 9800GTX ist also jetzt ein Argument, dass der r770 anderst AA realisiert? :rolleyes:

Nein, sie ist ein Argument, dass deine Aussage, wonach man mit 4AA stärker einbricht als sie Konkurrenz Blödsinn ist.

AnarchX
2008-06-23, 18:54:57
Genau am besten die AA-Skalierungsbenchmarks von CB und Co. abwarten. ;)

dargo
2008-06-23, 19:05:19
Genau am besten die AA-Skalierungsbenchmarks von CB und Co. abwarten. ;)
Und ich suche die schon die ganze Zeit bei CB. :ugly:
Die haben bei der HD4850 nur einen Kurztest veröffentlicht. Bringt aber eh nicht viel da die HD4870 deutlich mehr Bandbreite abbekommt.

LovesuckZ
2008-06-23, 19:08:02
Nein, sie ist ein Argument, dass deine Aussage, wonach man mit 4AA stärker einbricht als sie Konkurrenz Blödsinn ist.

Es geht um das 4AA und das Einbrechen. Siehe UT3 und Jericho. Zwei unterschiedliche Engines - ein ähnliches Verhalten bei rv670 und r770.
Bei 2,5 fach mehr an Recheneinheiten ist ein geringerer Abfall gegenüber dem rv670 doch natürlich - aber wieso sollte der rv770 hier exakt ähnlich stark einbrechen - und das sogar stärker als die Konkurrenz?

reunion
2008-06-23, 19:11:32
Es geht um das 4AA und das Einbrechen. Siehe UT3 und Jericho. Zwei unterschiedliche Engines - ein ähnliches Verhalten bei rv670 und r770.
Bei 2,5 fach mehr an Recheneinheiten ist ein geringerer Abfall gegenüber dem rv670 doch natürlich - aber wieso sollte der rv770 hier exakt ähnlich stark einbrechen - und das sogar stärker als die Konkurrenz?

Nochmal: Die 9800GTX gibt mit AA im Schnitt stärker nach. Ausreißer nach oben oder unten gibt es immer bei unterschiedlichen Architekturen. Vorallem UT3-Spiele sind ein ganz schlechter Vergleich, da hier die Implementierung des Treiberhacks maßgeblich ist. Ich habe nie behauptet, dass bei RV770 ein neues Verfahren zum Einsatz kommt, das hast du zusammen gedichtet. Das Problem mit dem hohen Leistungsverlust unter 4AA ist eh schon seit RV670 weitgehend behoben.

Mmmmh
2008-06-23, 19:12:55
AMD scheint es wesentlich besser gelöst zu haben - dafür bricht man bei 4 AA jedoch stärker ein als die Konkurrenz.


Immer wieder diesselben Vorurteile. Für mich ist das längst widerlegt:

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/5/#abschnitt_aa_und_afskalierung

dargo
2008-06-23, 19:13:49
Es geht um das 4AA und das Einbrechen. Siehe UT3 und Jericho. Zwei unterschiedliche Engines - ein ähnliches Verhalten bei rv670 und r770.

Du pickst dir die Rosinen raus. Dann mache ich das jetzt mal auch. ;)
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_ati_radeon_hd_4850_rv770/13/

HD4850:
1680x1050 1xAA/1xAF = 59,8fps
1680x1050 4xAA/16xAF = 56,2fps

LovesuckZ
2008-06-23, 19:19:29
Schön dargo - aber leider komplett vorbei. :rolleyes:

Nochmal: Die 9800GTX gibt mit AA im Schnitt stärker nach. Ausreißer nach oben oder unten gibt es immer bei unterschiedlichen Architekturen. Vorallem UT3-Spiele sind ein ganz schlechter Vergleich, da hier die Implementierung des Treiberhacks maßgeblich ist.

Wieso sollte der Hack bei Unterschiedlicher Implementierung eine ähnliche Auswirkung haben?

Ich habe nie behauptet, dass bei RV770 ein neues Verfahren zum Einsatz kommt, das hast du zusammen gedichtet. Das Problem mit dem hohen Leistungsverlust unter 4AA ist eh schon seit RV670 weitgehend behoben.

1. Du hast es genau ein Posting drunter geschrieben - also lüge hier nicht. :mad:
2. Der Leistungsverlust beim 4AA ist immernoch da. Siehe UT3, siehe Jericho. Ein Anzeichen für eine nVidiaähnliche Realisierung gibt es noch nicht.

Eggcake
2008-06-23, 19:23:58
Schön, aber was hat das mit der Realisierung von AA zu tun? :confused:

Du schreibst, dass die Karten von ATI zwar von 4x nach 8x kaum abfallen, dafür von 0 auf 4x einen grösseren Performanceeinbruch zu vermelden haben - und ich sagte dass dem nicht so ist.

LovesuckZ
2008-06-23, 19:25:40
Du schreibst, dass die Karten von ATI zwar von 4x nach 8x kaum abfallen, dafür von 0 auf 4x einen grösseren Performanceeinbruch zu vermelden haben - und ich sagte dass dem nicht so ist.

Mir ging es um die Realisierung. Das AMD dieses Problem mit der Verbreitung der Architektur gemindert hat, sollte bewusst sein.
Ja, die Formulierung war unglücklich, sie sollte jedoch kein Vergleich zu nVidia darstellen (oben geändert)

reunion
2008-06-23, 19:26:35
Wieso sollte der Hack bei Unterschiedlicher Implementierung eine ähnliche Auswirkung haben?

Ich bin kein Programmierer, aber ich kann lesen. RV770 liegt mit AA überall sehr gut, außer bei UT3-"Hack"-Spielen.


1. Du hast es genau ein Posting drunter geschrieben - also lüge hier nicht. :mad:

Richtig lesen. Ich habe geschrieben spätestens.


2. Der Leistungsverlust beim 4AA ist immernoch da. Siehe UT3, siehe Jericho. Ein Anzeichen für eine nVidiaähnliche Realisierung gibt es noch nicht.

NV hat einen größeren Leistungsverlust. Mehr gibt es dazu nicht zu sagen. Und das 4AA nicht for free gibt sollte klar sein.

dargo
2008-06-23, 19:27:12
Schön dargo - aber leider komplett vorbei. :rolleyes:

Warum?
Die HD4850 verliert in AC lächerliche 6% Leistung von 1xAA/1xAF auf 4xAA/16xAF, selbst die G280GTX verliert dort 23% Leistung. Ok, hier ist leider noch AF im Spiel. Aber andere Werte habe ich leider nicht.

Redneck
2008-06-23, 19:51:44
Schon gesehen ?
Gigabtye HD4870 für 239,- gelisted bei Grafikkartenpower.de

LovesuckZ
2008-06-23, 20:01:49
NV hat einen größeren Leistungsverlust. Mehr gibt es dazu nicht zu sagen. Und das 4AA nicht for free gibt sollte klar sein.

Das war überhaupt nicht Thema. Du sagst, dass der rv770 das AA nicht mehr auf rv670 Art realisieren. Beweise hast du nicht - außer komplett themenabweisende Vergleiche mit nVidia. Schön, dass AMD bei 2,5 facher Verbreitung der Architektur nicht mehr so stark einbricht, aber das darf man wohl erwarten, oder?
Wie kommst du also auf die Idee, dass de rv770 AA nicht mehr auf r6xx Art ermöglicht?

reunion
2008-06-23, 20:04:20
Das war überhaupt nicht Thema. Du sagst, dass der rv770 das AA nicht mehr auf rv670 Art realisieren. Beweise hast du nicht - außer komplett themenabweisende Vergleiche mit nVidia. Schön, dass AMD bei 2,5 facher Verbreitung der Architektur nicht mehr so stark einbricht, aber das darf man wohl erwarten, oder?
Wie kommst du also auf die Idee, dass de rv770 AA nicht mehr auf r6xx Art ermöglicht?

Lerne Sinn erfassend lesen. Das habe ich nicht behauptet. Nur weil du nicht richtig interpretieren kannst kann ich nichts dafür.

LovesuckZ
2008-06-23, 20:06:06
Lerne Sinn erfassend lesen. Das habe ich nicht behauptet. Nur weil du nicht richtig interpretieren kannst kann ich nichts dafür.

Oh, hab mich verlesen. Mein Fehler. :(

Gast
2008-06-23, 20:10:33
Es läuft anscheinend über die Recheneinheiten. Bei nVidia muss man für die 8 ColorSamples loopen - und irgendwo in der Architektur verliert man dafür massig Zeit und somit FPS. AMD scheint es wesentlich besser gelöst zu haben - dafür bricht man bei 4 AA jedoch stärker ein als die Konkurrenz. Unglücke Forumulierung.

@LovesuckZ: Ursprünglich hast du behauptet, dass die HD4850 bei 4xAA stärker einbricht als der G92 - daher die Diskussion. Mittlerweile hast du es zurückgenommen. Jetzt diskutiere bitte auf vernünftige Weise und gebe den schwarzen Peter nicht an andere weiter.

Superheld
2008-06-23, 20:15:42
Warum?
Die HD4850 verliert in AC lächerliche 6% Leistung von 1xAA/1xAF auf 4xAA/16xAF, selbst die G280GTX verliert dort 23% Leistung. Ok, hier ist leider noch AF im Spiel. Aber andere Werte habe ich leider nicht.

ähm die 3800 Serie steht da auch gut da:smile:

Gast
2008-06-23, 20:17:34
Insider-Info: Bei der 4870 gibt es 4xAA "for free". Selbst bei 8xAA ist der Einbruch sehr gering.

GeneralHanno
2008-06-23, 20:19:44
Insider-Info: Bei der 4870 gibt es 4xAA "for free". Selbst bei 8xAA ist der Einbruch sehr gering.

die 8800GTX bietet auch 4x MSAA "4free"

Daredevil
2008-06-23, 20:24:29
Echt?
Dann kauf ich mir ne 8800gtx !

Infos müssen nicht immer mit anderen Karten verglichen werden, wenn man nur die Ati Sparte betrachtet und diese News stimmen sollten, ist das ne tolle Sache.

PS:Die 4870 wird kein TruForm Hardwaretechnisch unterstützen wie die 8500, ein Technischer rückschritt ! *ironie* :)

robbitop
2008-06-23, 20:24:33
Es läuft anscheinend über die Recheneinheiten. Bei nVidia muss man für die 8 ColorSamples loopen - und irgendwo in der Architektur verliert man dafür massig Zeit und somit FPS. AMD scheint es wesentlich besser gelöst zu haben - dafür bricht man bei 4 AA jedoch stärker ein als die Konkurrenz. Unglücke Forumulierung.
Soweit ich weiß kann GT200 32 Color + Z Samples pro Takt bei 8xMSAA.
Allerdings wird beides in Crysis nicht simultan benötigt, da es ein Z-First-Pass-Renderer ist. Gerade da bringt Z-Leistung (256x Z Tester!!) und Bandbreite (512 Bit) recht viel.
Beim GT200/G80/G92 limitiert wohl eher das recht enge Tri-Setup mit 8xMSAA. Ich verstehe nicht, warum man das beim GT200 so gelassen hat.

Gast
2008-06-23, 20:39:24
Der sehr geringe Einbruch von 4AA zu 8AA war auch schon bei R6xx zu beobachten.


Da sollte man mal genau schauen, ob man auch immer den richtigen AA-Level bekommt, Nachdem ATI ja schon beim AF trickst bis zum geht nicht mehr, würde es mich nicht wundern, wenn das auch bei AA der Fall ist. Bislang habe ich nirgends eine einleuchtende Erklärung gelesen, warum 4xAA und 8xAA auf den ATIs fast gleich schnell sein sollte.

Gast
2008-06-23, 20:41:44
Gleich schnell ist es ja auch nicht, nur ist der einbruch von 4 auf 8xAA sehr gering ;)

Gast
2008-06-23, 21:37:04
Da sollte man mal genau schauen, ob man auch immer den richtigen AA-Level bekommt, Nachdem ATI ja schon beim AF trickst bis zum geht nicht mehr, würde es mich nicht wundern, wenn das auch bei AA der Fall ist. Bislang habe ich nirgends eine einleuchtende Erklärung gelesen, warum 4xAA und 8xAA auf den ATIs fast gleich schnell sein sollte.


hehe 8aa von ati ist sogar noch ein kleines bissel sauberer als von nv karten;)

Mmmmh
2008-06-23, 21:45:25
Da sollte man mal genau schauen, ob man auch immer den richtigen AA-Level bekommt, Nachdem ATI ja schon beim AF trickst bis zum geht nicht mehr, würde es mich nicht wundern, wenn das auch bei AA der Fall ist.


Wenn dem so wäre, hätten sich die nvidia-Jünger schon drauf gestürzt. :biggrin:

Bislang habe ich nirgends eine einleuchtende Erklärung gelesen, warum 4xAA und 8xAA auf den ATIs fast gleich schnell sein sollte.


Ich hoffe immer noch auf einen Artikel hier, der mal den Veränderungen der R6xx-Architektur und seiner Sprösslinge anhand von ausgewählten Benchmarks auf den Zahn fühlt und am Besten ein paar Erklärungen dazu liefert.

B2T: Ab welcher Uhrzeit sind denn nun die offiziellen Infos zum R7xx zu erwarten?

Coda
2008-06-23, 22:05:19
hehe 8aa von ati ist sogar noch ein kleines bissel sauberer als von nv karten;)
Ist es nicht.

Gast
2008-06-23, 22:30:16
Da sagt ein geweisser hauseigener Artikel aber was anderes ...

Gast
2008-06-23, 22:31:09
B2T: Ab welcher Uhrzeit sind denn nun die offiziellen Infos zum R7xx zu erwarten?

25.6. 15.00Uhr CET ;)

Gast
2008-06-23, 22:34:49
Da sagt ein geweisser hauseigener Artikel aber was anderes ...

Da war afaik von den CustomFilter Modi die Rede.

Coda
2008-06-23, 23:18:54
Da sagt ein geweisser hauseigener Artikel aber was anderes ...
Den ich dann nicht verfasst habe. Das Sample-Muster ist nicht schlechter, sondern anders. Die Gammakorrektur ist gleichwertig.

Vor allem bei der Gammakorrektur kommt es auch sehr auf das Ausgabegerät an.

Gast
2008-06-23, 23:30:51
Den ich dann nicht verfasst habe. Das Sample-Muster ist nicht schlechter, sondern anders. Die Gammakorrektur ist gleichwertig.

Vor allem bei der Gammakorrektur kommt es auch sehr auf das Ausgabegerät an.

Gleichwertig ist nicht gleich. Die Einschätzung "gleichwertig" hängt vom jeweils angesetzten Bewertungskriterium ab. Von daher gehe ich davon aus, dass das was für DICH gleichwertig ist nicht generell Gültigkeit hat.

BTW deck sich die geäußerte Einschätzung, dass das MSAA auf den ATI-Karten tendenziell besser aussieht, mit meinen Beobachtungen auf unterschiedlichen Ausgabegeräten.

robbitop
2008-06-23, 23:39:40
Da sagt ein geweisser hauseigener Artikel aber was anderes ...
Wo genau?

Coda
2008-06-23, 23:44:33
Gleichwertig ist nicht gleich. Die Einschätzung "gleichwertig" hängt vom jeweils angesetzten Bewertungskriterium ab.
Das EER ist gleich. Es kommt genau gesagt auf die Ausrichtung der Kante an die man gerade anschaut. Mal ist NVIDIA besser und mal ATI.

Gast
2008-06-23, 23:45:14
Gleichwertig ist nicht gleich. Die Einschätzung "gleichwertig" hängt vom jeweils angesetzten Bewertungskriterium ab. Von daher gehe ich davon aus, dass das was für DICH gleichwertig ist nicht generell Gültigkeit hat.

BTW deck sich die geäußerte Einschätzung, dass das MSAA auf den ATI-Karten tendenziell besser aussieht, mit meinen Beobachtungen auf unterschiedlichen Ausgabegeräten.

das wurde auch schon in cb durchgekaut und die kamen auch zu dem entschluß das 8aa der ati karten einen tick besser sind von der qualität,ganz zuschweigen von der performance.

darüber braucht man eigentlich nicht mehr zu diskutieren,mich würde eher interessieren wieso das bei ati karten nur so ein minimaler einbruch ist.im durchschnitt sind es ja von 4aa zu 8aa gerade mal 20%.bei nv ist der einbruch im schnitt bei 50% und mehr.

Gast
2008-06-23, 23:47:33
Den ich dann nicht verfasst habe. Das Sample-Muster ist nicht schlechter, sondern anders. Die Gammakorrektur ist gleichwertig.

Vor allem bei der Gammakorrektur kommt es auch sehr auf das Ausgabegerät an.
Bei den Mustern kommt es halt auf die Winkel der Kanten (welche häufiger auftreten, sind ja nicht gleichverteilt) an welches besser ist und das ist natürlich Situations- bzw Spieldesignabhängig.

Zur Gammakorrektur geb ich dir Recht.

Gast
2008-06-24, 00:00:31
...

Zur Gammakorrektur geb ich dir Recht.

Ich wiederum nicht. Steht ja auch so in meinem Post.

Coda
2008-06-24, 00:03:38
Was soll denn da bitte schlechter sein?

Gast
2008-06-24, 00:07:28
Was soll denn da bitte schlechter sein?

Kann ich dir leider keine technische Grundlage liefern. IMHO sehen die Farbabstufungen der einzelnen Zwischenstufen ungleichmäßiger aus, wodurch die Kanten "eckiger" wirken. Ich kann das auf mehreren Monitoren beobachten.

Coda
2008-06-24, 00:11:23
Hast du auch sicher Gammakorrektur an? Das ist glaube ich sogar per default aus.

Gast
2008-06-24, 00:13:52
Hast du auch sicher Gammakorrektur an? Das ist glaube ich sogar per default aus.


Hab ich schon gegengetestet. Die ist an.

Gast
2008-06-24, 00:15:35
Hab ich schon gegengetestet. Die ist an.

PS: Evtl ist der Algorithmus den Nvidia für die Gammakorrektur verwendet nicht so leistungfähig bzw. so gut abgestimmt wie der von ATI. Eine andere technische Erklärung wüsste ich auch nicht.

Coda
2008-06-24, 00:20:06
Das ist eine völlig einfache Formel (pro Sample ein pow und dann nach dem downsampling nochmal ein pow). Das einzige was sein kann ist dass sie eine schlechtere Approximation verwenden als ATI. Mag sein.

Gast
2008-06-24, 00:25:15
Das ist eine völlig einfache Formel (pro Sample ein pow und dann nach dem downsampling nochmal ein pow). Das einzige was sein kann ist dass sie eine schlechtere Approximation verwenden als ATI. Mag sein.


Ok, jetzt muss ich mir erstmal ein bisschen technischen Background anlesen...:redface:

Coda
2008-06-24, 00:44:03
Nicht sehr schwer. Bei vier Samples ist es einfach

(( sample1^(1/gamma) + sample2^(1/gamma) + sample3^(1/gamma) + sample4^(1/gamma)) / 4 )^gamma

Jeweils für rot, grün und blau. Die Sache ist halt wie die Potenzen implementiert sind. Wenn man da pfuscht z.B. mit einer stückweise linearen Approximation kann das Ergebnis schon schlechter sein.

Bisher ging ich aber davon aus, dass sich da ATI und NVIDIA nicht viel geben.

Gast
2008-06-24, 02:55:31
das wurde auch schon in cb durchgekaut und die kamen auch zu dem entschluß das 8aa der ati karten einen tick besser sind von der qualität,ganz zuschweigen von der performance.

darüber braucht man eigentlich nicht mehr zu diskutieren,mich würde eher interessieren wieso das bei ati karten nur so ein minimaler einbruch ist.im durchschnitt sind es ja von 4aa zu 8aa gerade mal 20%.bei nv ist der einbruch im schnitt bei 50% und mehr.
Ich würde generell auf das Speicher Management von AMD/ATi tippen.
ATi schein wie gesagt generell besser mit dem Speicher umgehen zu können als NV und da AA ja massiv an SPeicher und Bandbreite zehrt, ist das für mich die einzigst logische schlüssige Erklärung die man zurzeit bringen kann.

Btw ist das AA nicht wirklich besser, es ist wie Coda schon sagte nur andersherum, nicht anderes!

der d.
2008-06-24, 03:15:00
Ich würde generell auf das Speicher Management von AMD/ATi tippen.
ATi schein wie gesagt generell besser mit dem Speicher umgehen zu können als NV und da AA ja massiv an SPeicher und Bandbreite zehrt, ist das für mich die einzigst logische schlüssige Erklärung die man zurzeit bringen kann.



daran wird es wohl liegen,das ist mir schon beim cb test aufgefallen wo die 280gtx im Qualität Rating – 1280x1024 8xAA/16xAF noch 53% vor der 4850 liegt aber dann kurioserweise obwohl die 280gtx mehr als die doppelte speicherbandbreite in 1600x1200 8xAA/16xAF nur noch 32% vorne liegt.

Gast
2008-06-24, 03:32:16
1280x1024 8xAA/16xAF noch 53% vor der 4850 liegt aber dann kurioserweise obwohl die 280gtx mehr als die doppelte speicherbandbreite in 1600x1200 8xAA/16xAF nur noch 32% vorne liegt.

Die 4870 haut nochmal ca. 25% mehr raus als die 4850 :eek: dann wird es aber eng für die GTX280

Gast
2008-06-24, 06:01:36
Um die 4xAA und 8xAA Debate noch mal ein wenig aufzuwärmen:


Using my custom settings in WoC (because Very High isn't that smooth and I prefer smooth), the difference between 4xAA and 8xAA is about 2-3FPS... 49FPS versus 51FPS. Interestingly enough 2xAA is about 53FPS while NoAA is 55FPS.


Link: http://forum.beyond3d.com/showthread.php?t=48630&page=3


Der Typ hat schon eine 4850 und hat sie ein wenig getestet. Nicht nur bei WoC ist der Abfall von 1xAA zu 8xAA so gering. Kein Wunder das viele "Reviews" der 9800GTX+ nur mit 1xAA testen damit die Karte gut aussieht.

Gast
2008-06-24, 07:00:23
noch ein Kommentar von Beyond3D (weil er mich doch ziemlich überrascht hat)

vom Razor1
Originally Posted by Mintmaster
Just because that's what Razor1 is talking about. I expect AA perf to challenge the GTX 260 just as often.


I expect it not to be a challenge, the HD4870 should win out and it won't be close.



Razor1 ist eigentlich AFAIR einer aus dem Nvidia-Camp (kein Fanboy aber er tendiert doch dazu Nvidia zu bevorzugen).

Weiter oben im Thread sagt er aus, das er schon Benchmark-Ergebnisse der 4870 kennt.

Link: http://forum.beyond3d.com/showthread.php?t=41377&page=184

seahawk
2008-06-24, 07:48:43
Die sie auch brauchen, da momentan kaum ein Produkt konkurrenzfähig ist.

reunion
2008-06-24, 09:13:01
Erster Test:
http://translate.google.com/translate?u=http%3A%2F%2Fwww.expreview.com%2Ftopic%2F2008-06-24%2F1214282167d9273.html&hl=zh-CN&ie=UTF8&sl=zh-CN&tl=en

reunion
2008-06-24, 09:14:08
Die Verfügbarkeit zum Launch dürfte aber wohl nicht so gut sein:

I spoke with FXVIDEOCARDS.COM and they said they are only getting 10 units of the 4870 for launch and 20 units the next week.... they said supply should increase after that. They asked for 300 units and only managed to confirm 10. This is not looking good, especially with people who are going to take advantage of the situation for ebay profit. Good luck everyone, It's every man for his self!!!

http://forums.vr-zone.com/showthread.php?t=292880

AnarchX
2008-06-24, 09:18:37
Erster Test:
http://translate.google.com/translate?u=http%3A%2F%2Fwww.expreview.com%2Ftopic%2F2008-06-24%2F1214282167d9273.html&hl=zh-CN&ie=UTF8&sl=zh-CN&tl=en

AMD/ATI - Radeon HD 4870: (P)Review-Thread :
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6610869#post6610869

Headhuntr
2008-06-24, 09:18:58
Also rein von Daten sieht die Karte wirklich gut aus.

Aber der Stromverbrauch ist ja heftig oder? Das ist ja fast noch mehr als die 280GTX? Und wie wird es mit der Verfuegbarkeit aussehen? Habe gehoert die 1 GB Modelle werden rar gesät sein.

Gast
2008-06-24, 09:38:23
Für mich sieht das so aus, als ob auch hier, wie bei der 50er Serie, das Problem besteht, dass im Idle/2D Modus nur UVD-Takt gefahren wird..... Kann das sein ? Die Karte müßte doch niedriger takten.... Aber in diesem Zusammenhang auch mal Hut ab für die GTX280 ! Sie ist zwar überteuert, verbraucht aber wirklich wenig im Idle !

Der Test zeigt die erwartete Leistung.....gut gemacht ATI ! Würd sagen, die Jungs sind wieder voll im Geschäft ;)

LG

Tarkin
2008-06-24, 09:53:13
ATi bläst zum Angriff auf die GTX+

http://www.tgdaily.com/content/view/38077/135/

Second wave of Radeon 4850 cards to go against Nvidia’s 9800 GTX+

Toronto (Canada) – AMD is preparing an answer to Nvidia's recently released GeForce 9800GTX+ card. Overclocked Radeon 4850 cards are set for an introduction in the second week of July.

The first wave of Radeon 4850 boards is already on store shelves, with prices that already are below the MSRP of $199. In Europe, we have seen prices of 130 Euro – which is about $200 and quite surprising, as prices in Europe always have been higher than in the U.S. in the past.

Now we hear that ATI has removed all overclocking restrictions, giving add-in board (AIB) partners more room for new products. Our sources indicate that vendors are preparing a second wave of cards that will feature higher clocks for the GPU and the memory.

Senior ATI officials told us that “4850 Overclocked” cards are likely to come with a core that is clocked about 50 MHz higher, while the GDDR3 memory will be clocked to get at least 5-6 GB/s of bandwidth. Cooling will also change. Pre-announcements indicate that overclocked cards are on their way from companies such as HIS, Sapphire and Diamond.

If you are looking for a big performance jump for acceptable money, this summer is likely to be hot: The Radeon 4850 and the GeForce 9800GTX+ are aiming to attract all those customers that want the most bang for the buck.
As a side note, we also learned that the Radeon 4870 will not be tied down to its default clock speed for very long. We heard that at least one AIB vendor is preparing an overclocked 4870 card.

AnarchX
2008-06-24, 10:01:57
Naja, nicht neues ASUS hat doch schon ihre TOP mit 680/1050MHz.

Sorkalm
2008-06-24, 10:04:31
Die OC-Karten kämen auch ohne 9800 GTX+, denke ich mal. ;)

Dicker Igel
2008-06-24, 10:13:36
Wieviel wird wohl der 1GiB VRAM der 4870 ausmachen, denn wenn's nicht die Welt ist, kommen mir 2x 4850 bald günstiger vor als eine 4870, bei ~70€ Aufpreis zum 4850CF.

Cpl. Dwayne Hicks
2008-06-24, 10:32:45
Wieso sind die ATi chips mit AA eigentlich schneller als die von nVidia? Die GTX hat doch die höhere Bandbreite und massig mehr Z Füllrate.

Das normale MSAA wird ja beim RV770 nicht mehr in den ALUs gemacht oder? Aber selbst beim R(V)6xx hat 8x MSAA ja schon deutlich weniger gekostet als bei nVidia.

robbitop
2008-06-24, 11:26:38
Wieso sind die ATi chips mit AA eigentlich schneller als die von nVidia? Die GTX hat doch die höhere Bandbreite und massig mehr Z Füllrate.

Das normale MSAA wird ja beim RV770 nicht mehr in den ALUs gemacht oder? Aber selbst beim R(V)6xx hat 8x MSAA ja schon deutlich weniger gekostet als bei nVidia.
Das Trisetup beim G80 schafft nur 1 Dreieck pro Takt.

GeneralHanno
2008-06-24, 11:31:32
Das Trisetup beim G80 schafft nur 1 Dreieck pro Takt.

wie sieht denn das setup bei Ati aus?
PS: der G200 schafft auch nur ein tri/clk

AnarchX
2008-06-24, 11:32:02
Das Trisetup beim G80 schafft nur 1 Dreieck pro Takt.
1/2:
http://www.nvidia.com/object/IO_11761.html
Mal sehen was dann bei der "Quadro FX 5700" steht.

Gast
2008-06-24, 11:37:34
Wieso sind die ATi chips mit AA eigentlich schneller als die von nVidia? Die GTX hat doch die höhere Bandbreite und massig mehr Z Füllrate.

Das normale MSAA wird ja beim RV770 nicht mehr in den ALUs gemacht oder? Aber selbst beim R(V)6xx hat 8x MSAA ja schon deutlich weniger gekostet als bei nVidia.

Die Anzahl der möglichen Z-Tests in einem Zeitraum wird bei Z-First und langen Shadern zwar wichtig, da der Z-Test ja vor den eigentlichen Render-Passes durchgeführt werden muss, allerdings wird sie gerade aufgrund der langen Shader auch wieder weniger wichtig, da mehr Zeit für die eigentliche Berechnung aufgewendet werden muss. Man braucht also beides.

Gast
2008-06-24, 11:50:08
Die Anzahl der möglichen Z-Tests in einem Zeitraum wird bei Z-First und langen Shadern zwar wichtig, da der Z-Test ja vor den eigentlichen Render-Passes durchgeführt werden muss, allerdings wird sie gerade aufgrund der langen Shader auch wieder weniger wichtig, da mehr Zeit für die eigentliche Berechnung aufgewendet werden muss. Man braucht also beides.

PS: Man kann also das eine durch das andere kompensieren, optimale Ergebnisse werden durch ein an die jeweiligen Anforderungen angepasstes und ausgewogenes Verhältnis erreicht.... (Gibt es schon Ansätze dass der Z-Test auch durch die Alu erledigt werden kann?)

AnarchX
2008-06-24, 12:01:43
RV770@128-Bit - HD4690 (http://bbs.chiphell.com/viewthread.php?tid=25353&extra=page%3D1)

http://img149.imageshack.us/img149/4877/2008062435869414441b7e7es6.jpg
http://img149.imageshack.us/img149/9371/2008062468ada076d131d6arb1.jpg

Bleibt die Frage nach dem Preis, wohl <= 100€?, das kleinere SI wird wohl schon etwas kosten, aber für GPGPU-User sicherlich eine interessante Karte.

Sorkalm
2008-06-24, 12:04:02
Oh man, wie stark Bandbreitenlimitiert wird wohl diese Karte.

Denke aber mal wieder China-Only. ;)

S940
2008-06-24, 12:22:38
Oh man, wie stark Bandbreitenlimitiert wird wohl diese Karte.Vielleicht baut ein Hersteller ja auch mal GDDR5 drauf ;D

Sorkalm
2008-06-24, 12:23:34
Da kann er auch gleich ne HD 4850 verkaufen. ;)

S940
2008-06-24, 12:28:32
Da kann er auch gleich ne HD 4850 verkaufen. ;)
Jo klar, aber irgendwann sind 4 1Gb GDDR5 chips sicher billiger als 8 512Mb GDDR3 Chips :)

Dauert aber sicherlich noch mind. ein halbes Jahr, erstmal saugen die 1 GB 4870 Modelle alles auf.

ciao

Alex

Sorkalm
2008-06-24, 12:35:33
Jo klar, aber irgendwann sind 4 1Gb GDDR5 chips sicher billiger als 8 512Mb GDDR3 Chips :)

Dauert aber sicherlich noch mind. ein halbes Jahr

Vll. zum erscheinen des RV730/RV740. Kann dann wahrscheinlich auch der billigste GDDR5-Speicher sein (sofern die mit 128 Bit Interface kommen).

Gast
2008-06-24, 13:28:30
gddr5 gibts doch afaik bisher nur von qimonda, warum sollte der da schnell billiger werden?

Gast
2008-06-24, 14:00:08
Die sollten lieber auf GDDR3 ihr Augenmerk legen. Version 5 ist einfach schlecht. 110GB/s sind einfach zu wenig in hohen Reso.

Wahrscheinlich waere der Unterschied zur GTx280 kleiner, haette die KArte schnellen[latenzen]GDDR3 Ram verbaut.

AnarchX
2008-06-24, 14:10:17
gddr5 gibts doch afaik bisher nur von qimonda, warum sollte der da schnell billiger werden?
Samsung und Hynix werden wohl auch noch dieses Jahr einsteigen.

Coda
2008-06-24, 14:18:03
Die sollten lieber auf GDDR3 ihr Augenmerk legen. Version 5 ist einfach schlecht. 110GB/s sind einfach zu wenig in hohen Reso.
GDDR5 ist ganz sicher nicht schlecht. Im Gegenteil. Die erreichbaren Frequenzen sind viel höher und der Stromverbrauch niedriger.

Gast
2008-06-24, 19:31:01
Warum wird eigentlich der RV770 von anfang an so "günstig" Angeboten, wo er doch "mehr" Leistung bieten soll/tut?

Wenn ich das bessere Produkt habe, kann ich doch gleich/höheren Preis verlangen, irgendwie versteh ich das ganze nicht so. Oder gabs Sonderkonditionen von TSMC für den 55nm Prozess? Eventuell ein Zugeständnis, sollte AMD mal wirlich CPUs bei TSMC bauen lassen. Hohe Liefermenge = juter Rabatt.

Wieviel hatte R300 damals gekostet bei Release? Und gibts schon extreme OC Ergebnisse einer HD4850, dann kann man ja Rückschlüsse auf die HD4870 schließen, sollte die CPU wirklich an der Bandbreite verhungern.

Avalox
2008-06-24, 19:44:54
Warum wird eigentlich der RV770 von anfang an so "günstig" Angeboten, wo er doch "mehr" Leistung bieten soll/tut?

Wenn ich das bessere Produkt habe, kann ich doch gleich/höheren Preis verlangen, irgendwie versteh ich das ganze nicht so.

Marktanteil ist durchaus ein legitimes Ziel. Da das Produkt ausgezeichnet ist und aufgrund der sehr guten Ausgangslage, dass der Konkurrent sich verzettelt hat, kann AMD diese Situation nutzen und an Marktanteil zulegen. Marktanteil bedeutet mehr Gewicht mit den eigenen Produkten, dass hat AMD auch nötig. Die eindeutigen funktionalen Vorteile der ATI Produkte können ja aufgrund der Marktmacht von nVidia heute kaum platziert werden.
Sehr vernümftiges Streben, AMD wird auch mit den aktuellen Grafikkarten noch ordentlich Geld verdienen.

Man muss auch einfach mal feststellen, dass die 4870 nicht die Spitzenkarte von AMD ist. Die gibt es noch nicht. Es wird die 4870 X2 werden.

Kriton
2008-06-24, 19:54:25
Wenn man dann erst einmal eine bessere Marktdurchdringung hat, könnte auch DX10.1 relevant werden, was man dann noch einmal benutzen kann um NV weitere Marktanteile abzunehmen. Gerade im Hinblick auf die vielen bereits verbauten Transistoren dürfte NV aus Kostengründen bis zu einer neuen Architektur von 10.1 Abstand nehmen (es sei denn man belehrt mich hier, dass dafür nicht so viele notwendig wären).

Avalox
2008-06-24, 20:05:54
Wenn man dann erst einmal eine bessere Marktdurchdringung hat, könnte auch DX10.1 relevant werden, was man dann noch einmal benutzen kann um NV weitere Marktanteile abzunehmen. Gerade im Hinblick auf die vielen bereits verbauten Transistoren dürfte NV aus Kostengründen bis zu einer neuen Architektur von 10.1 Abstand nehmen (es sei denn man belehrt mich hier, dass dafür nicht so viele notwendig wären).


DX 10.1 ist schon sehr interessant. Spiele Hersteller könnten die zur Zeit ungeheure Presse Präsents der neuen ATI Karten nutzen, indem sie in letzter Minute doch noch einen DX 10.1 Pfad in ist Spiele fummeln. Den Ersten winkt dann eine gute Medienpräsents und den Bonus, dass ATI Karten Käufer dort einen Technik Bonus in den Kauf legen. Tolle Benchmark Ergebnisse gibt es zudem, dank der wirklich leistungsfähigen ATI Karten.

Wir können ja mal spekulieren, wann die ersten DX 10.1 Ankündigungen kommen. Ich denke dieser Schritt kommt nun garantiert und sicherlich auch bald.

Das ist natürlich für nVidia verheerend, wenn einfache Office Grafikkarten des Konkurrenten in Spielen mehr Funktionen bieten, als die eigenen Hochleistungsmodelle.

LeXTul
2008-06-24, 20:42:03
http://www.phoronix.com/scan.php?page=news_item&px=NjMzNQ

Und was ATI wsentlich atraktiver macht als NV ist der Umgang mit Specs zur Erstellung von Linux Treibern ... das war übrigens der Kaufgrund 3870> 8800gt ..

Gast
2008-06-24, 20:49:18
Und was ATI wsentlich atraktiver macht als NV ist der Umgang mit Specs zur Erstellung von Linux Treibern ... das war übrigens der Kaufgrund 3870> 8800gt ..


Was ist daran attraktiv? Programmierst du deine Treiber selbst? Die von Nv funktionieren wenigstens out of the box.

AnarchX
2008-06-24, 20:53:39
DX 10.1 ist schon sehr interessant. Spiele Hersteller könnten die zur Zeit ungeheure Presse Präsents der neuen ATI Karten nutzen, indem sie in letzter Minute doch noch einen DX 10.1 Pfad in ist Spiele fummeln. Den Ersten winkt dann eine gute Medienpräsents und den Bonus, dass ATI Karten Käufer dort einen Technik Bonus in den Kauf legen. Tolle Benchmark Ergebnisse gibt es zudem, dank der wirklich leistungsfähigen ATI Karten.

Wir können ja mal spekulieren, wann die ersten DX 10.1 Ankündigungen kommen. Ich denke dieser Schritt kommt nun garantiert und sicherlich auch bald.

Das ist natürlich für nVidia verheerend, wenn einfache Office Grafikkarten des Konkurrenten in Spielen mehr Funktionen bieten, als die eigenen Hochleistungsmodelle.
Der Status von D3D10.1 als nicht unterstützenswürdiges Minimalupgrade wurde doch schon genügend propagiert und ausserdem überschätzt du doch etwas der Reputation von ATi im Gesamtmarkt, die jetzt erst in den kommenden Monaten wieder gewinnen wird. ;)

Es höchst unwahrscheinlich, dass sich irgendwelche Entwickler an Marketingstuns anschliessen werden, die auf der einen Seite mit wohl Kosten eingehen würden und wenn hier gefuscht und im Endeffekt eine fehlerhafte Implementierung besteht, für richtige Probleme sorgen können. Und zudem will man ja einen gewissen großen Partner nicht verägern. :D

Gast
2008-06-24, 21:52:29
... Und zudem will man ja einen gewissen großen Partner nicht verägern. :D

Und wieder zeigt sich dass du der dunklen Seite der Macht verfallen bist ;)

AnarchX
2008-06-24, 22:05:14
Und wieder zeigt sich dass du der dunklen Seite der Macht verfallen bist ;)
Nein, es ist einfach nur eine Feststellung, dass TWIMTBP doch deutlich erfolgreicher ist als GITG. Deshalb sehe ich keine möglichen Schnellschussreaktionen bei den ISVs.

Aber AMD scheint sich nun mehr zu bemühen, wie man auch am sehr wichtigen Deal mit Blizzard sieht für SC2 und ausserdem gibt es auch noch ein paar unabhängigere Devs wie z.B. unseren Demirug, welche die Vorteile von D3D10.1 für ihr Projekt schon länger erkannt haben.

Black-Scorpion
2008-06-24, 22:28:38
Immer wieder die selbe Leier.
Wenn nV zu blöd ist 10.1 zu integrieren sind sie selber Schuld.
Achne, nicht zu blöd man hätte ja das Design ändern müssen.
Lieber steckt man alles an Transistoren in das neue Spielzeug GPGPU.
Hoffentlich denken die Entwickler dann auch daran und lassen PhysX unter den Tisch fallen.
Hat ja außer ihnen auch keiner, also braucht man da auch keine Rücksicht zu nehmen. ;)

Gast
2008-06-24, 22:34:00
http://www.expreview.com/topic/2008-06-24/1214282167d9273.html

S940
2008-06-24, 22:36:14
Die sollten lieber auf GDDR3 ihr Augenmerk legen. Version 5 ist einfach schlecht. 110GB/s sind einfach zu wenig in hohen Reso.
Lol, es werden auf den ersten karten 4.0Gbps (4 GHz) Chips eingesetzt, die auf den karten aber erstmal mit nur 3,6 GHz Betrieben werden. Chips mit 4,5 und 5 GHz sind schon in Arbeit .. also mach Dir mal keine Sorgen über die Bandbreite ;-)

Aja, ist das schon bekannt: Geizhals listet 4870er (512MB RAM):
http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=4870&filter=+Liste+aktualisieren+&pixonoff=off

IMO für 512MB noch zu teuer (ab €229) (oder die 4850 ist zu billig ^^)

ciao

Alex

Eggcake
2008-06-24, 23:07:05
Sobald sie auf unter 200€ fällt schlag ich wohl zu :)

Gast
2008-06-25, 00:27:20
Was ist daran attraktiv? Programmierst du deine Treiber selbst? Die von Nv funktionieren wenigstens out of the box.
Bis sie es nicht mehr tun oder NV hat auf einmal eine Lust mehr an Treibern für Linux.

Im Linuxsektor hat sich seit den letzten 6 Monaten was getan.
Ergebnis: ATI >= NVidia

War doch immer anders rum.

Gast
2008-06-25, 00:50:03
Kann mir mal einer erklären wie AMD bei diesem extrem hohen Verbrauch der 4870 eine Vollwertige 4870X2 Herstellen will?

http://img371.imageshack.us/img371/5218/21powerwl1.png

Das sind ja nur 6Watt weniger als eine GTX 280?!?

Odal
2008-06-25, 01:23:58
selektierte chips die mit weniger saft laufen.....

verbrauch steigt/sinkt quadratisch mit der spannung