PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - 55nm GPUs: R680, RV660, RV635, RV620 - Teil 3 (s. #1!)


Seiten : 1 [2] 3

horn 12
2007-12-24, 18:11:48
Die X² 3870 wird ähnlich im P/L wie die HD 2900 XT werden mit den einzigen Unterschied dass die X² Karte etwas leiser und kühler werden wird, und der gesamte Stromverbrauch um den einer einzelnen 2900XT liegen wird (schlussendlich.)
Dafür muss NV auf der D9E (Neuer Chip) auch eine Dual Karte anbieten und
DX10.1 hat ATI schon bereits.
Vom Stromverbrauch werden sich beide nix mehr nehmen, daher wird sich die Karte mit dem besseren P/L weitaus besser verkaufen können. Dies weiss ATI und jene können die Karte gar um einiges billiger herstellen als NV in 65um Verfahren.

Nakai
2007-12-24, 18:19:58
Also ein wunder a la G80 wird es nicht geben!

Das nicht, jedoch hat die G80-Architektur einige sehr nette Sachen integriert.


mfg Nakai

2B-Maverick
2007-12-25, 12:34:30
Vom Stromverbrauch werden sich beide nix mehr nehmen, daher wird sich die Karte mit dem besseren P/L weitaus besser verkaufen können.

Stromverbrauch im Idle?
Da glaube ich bei NVidia leider noch nicht an ein umdenken. Die könnten ihre Mobil-Stromspartechniken wohl ohne Probleme jetzt schon in den Desktop-Chips freischalten - machen sie aber nicht. Von daher glaube ich für die nächste Generation erst mal auch nicht daran.
.... leider .... (sonst hätt ich mir momentan ne 8800 bestellt und keine 3870 - am Geld liegts bei mir nämlich nicht)

CU
Markus

Gast
2007-12-25, 14:12:53
Stromverbrauch im Idle?
Da glaube ich bei NVidia leider noch nicht an ein umdenken. Die könnten ihre Mobil-Stromspartechniken wohl ohne Probleme jetzt schon in den Desktop-Chips freischalten - machen sie aber nicht. Von daher glaube ich für die nächste Generation erst mal auch nicht daran.
.... leider .... (sonst hätt ich mir momentan ne 8800 bestellt und keine 3870 - am Geld liegts bei mir nämlich nicht)

CU
Markus
Brauchen sie ja auch nicht, denn das Kaufargument für nVidia ist Leistung. Die haben es gar nicht nötig, da noch Aufwand mit Stromsparmechanismen zu treiben. Der maximale Verbrauch unter Last ist eh durch Kühler und afaik ATX Specs limitiert und somit wird der Idle Verbrauch auch nicht über alle Pappelbäume schießen. Sprich einen viel höheren Idle-Verbrauch als bei einer 8800 Ultra wird es nicht geben. Aber bei Amd ist der niedrige idle-Verbrauch ein wichtiges Verkaufsargument, weil sie bzgl. Leistung etc. nicht wirklich konkurrenzfähig sind.

up¦²
2008-01-02, 14:41:55
CrossfireX quad driver expected in January :wink:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4931&Itemid=34
Schaun wir mal!

Gast
2008-01-03, 11:17:24
http://media.bestofmicro.com/N/J/73423/original/02RV620.jpg

http://media.bestofmicro.com/N/K/73424/original/03RV620.jpg

http://media.bestofmicro.com/N/M/73426/original/05RV620.jpg

AMD plans to launch Radeon HD 3400 series on 23rd January comprises of Radeon HD 3470 (RV620 PRO) and 3450 (RV620 LE). Based on 55nm TSMC process technology, RV620 has 181M transistors and 40 stream processing units. It has 64-bit memory bus width supporting up to 256MB of memories. Radeon HD 3470 is clocked at 800MHz core and 900MHz for the GDDR3 memories while Radeon HD 3450 is clocked at 600MHz and 500Mhz for the GDDR2 memories. Radeon HD 3400 series support Crossfire X, DX10.1, SM4.1, UVD, PowerPlay, PCI Express 2.0, AGP(later stage). Drivers supporting Radeon HD 3400 are 8.44RC, 8.431, 8.45, and 8.47 (Feb).

http://www.tomshardware.com/cn/202,news-202.html

AnarchX
2008-01-04, 19:58:01
Die HD3870X2 mal anders:
http://img235.imageshack.us/img235/5241/000689702106142catc2.jpg (http://imageshack.us)
http://img182.imageshack.us/img182/6336/00068970610613185nq8.jpg (http://imageshack.us)

http://www.pcpop.com/doc/0/261/261181_1.shtml

dargo
2008-01-04, 20:02:55
Das PCB scheint nicht größer (oder kaum) zu sein als das der G8800GTX. Nicht schlecht. Ach wäre das schön wenn SLI/CF sich in jedem Game wie eine GPU verhalten würden. *träum*

Redneck
2008-01-05, 16:01:28
Das PCB scheint nicht größer (oder kaum) zu sein als das der G8800GTX. Nicht schlecht. Ach wäre das schön wenn SLI/CF sich in jedem Game wie eine GPU verhalten würden. *träum*

hier wird aber (sofern man den Text entziffern kann) gegen eine 7950 verglichen
und nicht gegen eine GTX (oder ist GTX genauso groß dimensioniert wie 7950?)

Adam D.
2008-01-05, 16:06:37
Sieht einfach nach der deutlichen besseren X2-Lösung aus. Klar, die 9800X2 wird wohl wieder mal (deutlich?) schneller sein, bietet aber architekturbedingt große Schwächen auf. Der RV670 bietet sich einfach viel besser als Dual-Chip-Lösung an.

Gast
2008-01-05, 16:13:04
Welche Schwächen hat die G80 Architektur?

laser114
2008-01-05, 16:18:42
Speicherverwaltung.

Und der G92-Chip dazu ist für eine GX2-Karte unausgewogen (ziemlich groß, daher auch eine relativ hohe Leistungsaufnahme). Hoffentlich haben dementsprechend ein paar Maßnahmen in die 9800 GX2 eingezogen (irgendwie wird Nvidia die neue Serie ja wohl begründen).


Die 3870 X2 war eben von langer Hand geplant; und das sieht man ihr (ein PCB!) auch an.

Nakai
2008-01-05, 16:30:31
Nicht nur das. Der G92 wurde hingeklatscht. Viel zu viele Transistoren und dann noch so eine große Diesize.
330mm2 ist einfach zu groß für eine Dualkarte.

AMD bringt noch ein A12 Silikon für die Dualkarte raus, NV sollte das gleiche machen und den Chip aufräumen.


mfg Nakai

Adam D.
2008-01-05, 16:33:05
Dito. G92 ist toll, keine Frage (hab ja selbst einen), aber als Dual-Karte bringt das Teil zu viele Nachteile. Besonders, wenn die 9800X2 wirklich mit 2x512MB VRAM gelauncht werden sollte. Über Temperatur und Lautstärke möchte ich persönlich noch gar nicht nachdenken :)

LovesuckZ
2008-01-05, 17:00:40
Dito. G92 ist toll, keine Frage (hab ja selbst einen), aber als Dual-Karte bringt das Teil zu viele Nachteile.

Der einzige Nachteil ist der selbe wie bei AMD - die Karte selbst.
Egal ob ein PCB oder zwei: Länge, Lüfterkonstruktion und Lautstärke machen solche Karte, neben den ganzen Softwarekram, uninteressant.

Über Temperatur und Lautstärke möchte ich persönlich noch gar nicht nachdenken :)

Die ist bei AMD nicht viel anders. Ich sehe hier keine Vorteile oder Nachteile.

dargo
2008-01-05, 20:33:42
Speicherverwaltung.

Bei 640/768/1024MB Grakas spielt das keine Rolle mehr.

laser114
2008-01-05, 20:35:52
Die 9800 GX2 hat aber nur 2x 512 MiB.

LovesuckZ
2008-01-05, 20:38:16
Es gibt von Qimonda Speichersteine mit 1024mbit mit 900MHz. Somit könnte man 1024mb mit 8 Steinen zur Verfügung stellen.
Wäre auch die sinnigere Lösung, da die Speicherbandbreite mitskaliert, die Speichermenge jedoch nicht.

dargo
2008-01-05, 20:40:31
Die 9800 GX2 hat aber nur 2x 512 MiB.
Ich finde ebenfalls diese Lösung nicht gut.

James Ryan
2008-01-06, 16:43:03
hier wird aber (sofern man den Text entziffern kann) gegen eine 7950 verglichen
und nicht gegen eine GTX (oder ist GTX genauso groß dimensioniert wie 7950?)

Auf den Bildern sieht man eine Gf 8800 GTX, eine Gf 7950 ist deutlich kürzer!

MfG :cool:

4 Vitamins
2008-01-06, 20:36:39
Der R680 powned die welt. word.
http://www.pcpop.com/doc/App/261181/000689701.html

http://img252.imageshack.us/img252/9140/123tc9.th.gif (http://img252.imageshack.us/my.php?image=123tc9.gif)

laser114
2008-01-06, 20:41:03
Wenn man jetzt noch wüsste, welche Spiele dort stehen könnte man das Ergebnis besser einschätzen. :P

Insgesamt sieht die Optimierung auf diese entsprechenden Spiele aber ganz ordentlich aus.

w0mbat
2008-01-06, 20:43:10
Wie sich HD3870CF schlägt wissen wir ja schon, es wäre interessant zu wissen ob sich der R680 noch steigern kann.

Gast
2008-01-06, 20:55:13
Leistungssteigerung ja wohl nur über den Treiber, ansonsten untersscheidet sich der Ansatz ja nicht, IIRC sind die Chips ja auch nur über PCIe miteinander verbunden.

Interessant könnte sein, ob sich tatsächlich ein Chip im Idle (oder sogar auch explizit auf Wunsch des Anwenders) vollständig deaktiviert.

AnarchX
2008-01-06, 20:58:17
Wie sich HD3870CF schlägt wissen wir ja schon, es wäre interessant zu wissen ob sich der R680 noch steigern kann.
Wenn die Taktraten gleich bleiben, wüsste ich nicht warum er es steigern sollte. Eher wird es schlechter, weil jede Karte nur mit x8 angebunden ist und in Grenzsettings wie 2560x... mit >4xAA könnte die doppelt so schnelle Anbindung wohl durchaus etwas bringen, wenn man sich die PCIe 1 vs 2 vergleiche anschaut.

4 Vitamins
2008-01-06, 20:59:31
Wie sich HD3870CF schlägt wissen wir ja schon, es wäre interessant zu wissen ob sich der R680 noch steigern kann.

Ich bin mir sicher dass sich die leistung mit neuem treiber um 30% zu CF steigern lässt.

gruss

Gast
2008-01-06, 23:06:10
Neues fotos von R680
http://www.pcpop.com/doc/App/261181/000689701.html

Superheld
2008-01-06, 23:15:04
Der R680 powned die welt. word.
http://www.pcpop.com/doc/App/261181/000689701.html

http://img252.imageshack.us/img252/9140/123tc9.th.gif (http://img252.imageshack.us/my.php?image=123tc9.gif)

kann die Schrift mal jemand übersetzen:|

Gast
2008-01-07, 02:35:49
Der R680 powned die welt. word.
http://www.pcpop.com/doc/App/261181/000689701.html

http://img252.imageshack.us/img252/9140/123tc9.th.gif (http://img252.imageshack.us/my.php?image=123tc9.gif)

Der owned schonmal gar nix, das sind simple 3870 CF Benches die wir schon ewig kennen

AnarchX
2008-01-07, 10:04:48
Interessant, bei RV635 konnt man trotz D3D10.1 sogar noch den Transistorcount reduzieren:
http://ati.amd.com/products/mobilityradeonhd3600/specs.html

Adam D.
2008-01-07, 10:22:13
Gibt's schon irgendwelche Informationen zum Preis des R680? Mit 349-399$ wär die Karte schon ganz fein.

AnarchX
2008-01-07, 10:28:56
Gibt's schon irgendwelche Informationen zum Preis des R680? Mit 349-399$ wär die Karte schon ganz fein.

$329 - 399 stehen momentan zur Debatte, wobei es sich wohl eher in Richtung $329 bewegen wird.
Aber das Marktpreise sich von Herstellerempfehlungen stark unterscheiden können, wenn die Verfügbarkeit nicht stimmt, ist ja bekannt.;)

Adam D.
2008-01-07, 10:41:39
Ja, wie wir zur Zeit ja sehen :( Bin mal sehr gespannt, ob sie die Marktsituation mit dem Eintritt des R680 etwas bessert. So eine Karte für 330-350€ wäre schon kein allzu schlechtes Angebot.

2B-Maverick
2008-01-07, 11:09:49
Wo AMD heute den Mobility3600 vorgestellt hat, der ja wohl nur ein Shrink des 2600ers ist, stelle ich mir die Frage, ob nicht evtl. auch bald ein 3850er Mobility kommt?
Weiß da jemand genaueres?

CU
Markus

AnarchX
2008-01-07, 11:11:27
Eigentlich es auch eine HD3800 Mobility geben, aber die kommt vielleicht erst mit der A12 Revision des RV670, also Ende Januar.

Gast
2008-01-07, 11:13:51
Eigentlich es auch eine HD3800 Mobility geben, aber die kommt vielleicht erst mit der A12 Revision des RV670, also Ende Januar.

Wieso erst mit dem A12? Gibt es dazu irgendo Informationen. Ich hab mich schon gewundert das ATi/AMD hier noch nichts gebracht hat. Eine HD3800M sollte doch eigentlich einfacher zu realisieren sein als die 8800-m von Nvidia.

AnarchX
2008-01-07, 11:17:29
Um noch weniger Verbrauch zu ermöglichen, ich bezweifele, dass man RV670 momentan auf das Niveau der 8800M-GTX (~8800 GTS G80) bei vergleichbaren Verbrauch (37W) bringen kann. Schon die M X1900 musste damals massiv untertaktet werden.

GeneralHanno
2008-01-07, 12:15:37
Unter Last verbraucht ein RV670 gleich viel wie ein G92 - bei weniger Leistung ;)
Seine Stärken im Verbrauch kann er erst unter idle aussielen ...

Adam D.
2008-01-07, 14:30:26
Und was der G92 theoretisch im Idle einsparen könnte, sieht man an der 8800M GTX ... Theoretisch :rolleyes:

Gast
2008-01-07, 15:37:39
Unter Last verbraucht ein RV670 gleich viel wie ein G92 - bei weniger Leistung ;)
Seine Stärken im Verbrauch kann er erst unter idle aussielen ...


das ist aber nicht wahr, eine 3870 braucht knapp 20 Watt weniger unter Load wie eine 8800GTS (G92);)

Nakai
2008-01-07, 15:48:28
Was ist mit der 8800GT?

mfg Nakai

LovesuckZ
2008-01-07, 15:52:56
Die Aussage des Gastes ist schon richtig, dass der rv670 weniger unter Last benötigt als der G92.
Das das Performance/Watt Ratio bei den G92 Karten besser ist, stand nicht zur Debatte.

Gast
2008-01-07, 17:25:22
ne gts ist auch deutlich schneller
ne gt wäre wohl der bessere vergleich, wie nakai schon sagt

Nakai
2008-01-07, 19:04:11
8800GT ist vom Stromverbauch auf HD3870-Niveau und bei der Performance kann man die HD3870 je nach Settings meistens schlagen.
Dafür ist die 8800GT teuerer, kann sich aber auch nicht überall durchsetzen.

mfg Nakai

Gast
2008-01-07, 20:17:54
Und ist nirgends zu bekommen, glaub auch net das die noch jemand bekommen wird ausser die rester aus dem Lager.

Gast
2008-01-08, 14:45:23
http://www.anandtech.com/weblog/showpost.aspx?i=344
AMD had one very important demonstration at CES: the Radeon HD 3870 X2. We won't be able to bring you performance numbers from this card until the end of the month, but AMD let us snap some photos of the card. Two 3870 GPUs on a single board? That's AMD's entry into the high end market for Q1 2008.
So viel Info in den wenigen Sätzen. :)

LovesuckZ
2008-01-08, 15:26:29
Wow, der erste Chip wird sich über die Wärme des zweiten freuen. :D
Ansonsten scheint es einen Vorteil der zwei PCB Karte von nVidia zu geben: Besser Anschlussmöglichkeiten: HDMI und optischer Ausgang sowie zwei DVI Ausgänge.

Gast
2008-01-08, 16:08:29
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6164710#post6164710
Wo ist da wenistens ein Vorteil dieser Zwei-PCB-Lösung? Die Rückseite des "inneren" PCB muss mitgekühlt werden, der durch das zweite PCB verdeckte Chip kriegt somit auch fremde Wärme ab.
SPIDF? Wie rückständig. Über DVI-2-HDMI-Adapter gibt es nicht bloß minderwertiges SPIDF-Signal. Oder wird die 9800X2 schon einen Audiocontroller haben?

robbitop
2008-01-08, 16:43:01
Ich wüßte gar nicht, warum so viele HW-Seiten auf Benchmarks von der GX2 und der X2 lächzen. Ein 8800GT/3870 CF/SLI Setup bauen und los gehts.
Die Situation bleibt eh die gleiche.

reunion
2008-01-08, 16:46:04
Ich wüßte gar nicht, warum so viele HW-Seiten auf Benchmarks von der GX2 und der X2 lächzen. Ein 8800GT/3870 CF/SLI Setup bauen und los gehts.
Die Situation bleibt eh die gleiche.

Naja, die Taktraten können und werden sich schon noch unterscheiden. AMD verspricht über ein TFLOP mit der 3870 X2, das ist mit den Taktraten der 3870 nicht machbar. Und wie hoch nV die Karte taktet ist noch völlig ungewiss, allerdings werden es wohl volle acht Cluster sein.

horn 12
2008-01-08, 21:12:20
Meine persönliche Meinung:

Die X² 3870 Karte wird mit selektieren GPU Chips kommen, welche die
825 bis 850 Mhz locker schaffen und somit mit zwei solchen GPU´s bestückt sein. Dürfte dann gleichziehen mit der 8800GT, bei höheren Auflösungen gar übertreffen.
Damit wird jedoch großes OC wegfallen, aber man will ja die 9800GX2 in die Schranken weissen. Beide Karten werden in etwa gleich schnell werden, aber ATI hat die bessere Lösung und das gesamt rundere Paket.
Schon DX10.1 SM 4.1, besseres und einfacheres PCB, keine "Doppelkarte" ziemlich gute Last und hervorragende IDLE Stromverbrauchswerte.
Einziges Manko:
Nur der Lüfter selbst sollte die Stärke jener der 2900XT ABER die Lautstärke der HD-3870 haben,- und das Produkt wäre perfekt, zu einem Preis von 319-339 Euro der echte "HIGH END" P/L- HAMMER, und gar um einiges Günstiger als die NV Konkurrenz (ca. 370-380 Euro).
Dies wird ein echt heisses Gefecht bis sich "nach" der Sommerpause (Ende Juli/August)
R700? und 9800 GTX? gegenüberstehen werden, mit even. sogar einem Zeitvorsprung zugunsten des R700 (5-6 Wochen.)

laser114
2008-01-08, 22:26:20
CrossfireX driver expected this quarter
CES 2008: No January launch

http://www.fudzilla.com/index.php?option=com_content&task=view&id=5024&Itemid=1


Und wann gibts dann die 3870 X2? Noch vor dem 14.02?

Gast
2008-01-08, 23:36:22
http://au.gamespot.com/video/939217/6184393/ces-2008-amd-booth-tour

Gast
2008-01-08, 23:47:30
Meine persönliche Meinung:

Die X² 3870 Karte wird mit selektieren GPU Chips kommen, welche die
825 bis 850 Mhz locker schaffen und somit mit zwei solchen GPU´s bestückt sein. Dürfte dann gleichziehen mit der 8800GT, bei höheren Auflösungen gar übertreffen.
Damit wird jedoch großes OC wegfallen.


Dazu:

Atomic? no, Sapphire have a even higher HD3870 for you (http://en.expreview.com/?p=176)

904MHz GPU, "7900GTX-Kühler", 60°C Last


Gruß

AnarchX
2008-01-09, 07:55:36
RV635 Preview @ Expreview (http://translate.google.com/translate?u=http%3A%2F%2Fwww.expreview.com%2Freview%2F2008-01-04%2F1199442743d7444_4.html&langpair=zh%7Cen&hl=de&ie=UTF-8)
engl.: http://en.expreview.com/?p=178

Mit 120mm² kein sehr optimaler Shrink und die Verbrauchswerte des Samples(?) sind auch nicht wirklich in Ordnung.

Gast
2008-01-09, 08:59:23
RV635 Preview @ Expreview (http://translate.google.com/translate?u=http%3A%2F%2Fwww.expreview.com%2Freview%2F2008-01-04%2F1199442743d7444_4.html&langpair=zh%7Cen&hl=de&ie=UTF-8)
engl.: http://en.expreview.com/?p=178

Mit 120mm² kein sehr optimaler Shrink und die Verbrauchswerte des Samples(?) sind auch nicht wirklich in Ordnung.

Warum 153mm² x 55²/65² =109.54mm². Völlig normal, einen idealen Shrink gibt es nunmal nicht.

Gast
2008-01-09, 09:00:40
Die 2D-Taktraten sind mit 110/405 jedenfalls sehr nett.

Gast
2008-01-09, 09:04:23
Bei den Verbrauchsmessungen kann es sich eigentlich nur um einen Fehler handeln.

Gast
2008-01-09, 15:01:25
http://my.ocworkbench.com/bbs/showthread.php?p=425431#post425431

mhh ja was den nun ?

RV670 oder R680 ?

da stehen 1024 MB hat die den nun 2x1024 Mb oder wie ?
Und ich seh da nich Hyper Memory was ist das kann mir das jemand erklären ?

Gast
2008-01-09, 15:04:41
http://my.ocworkbench.com/bbs/showthread.php?p=425431#post425431

mhh ja was den nun ?

RV670 oder R680 ?

da stehen 1024 MB hat die den nun 2x1024 Mb oder wie ?
Und ich seh da nich Hyper Memory was ist das kann mir das jemand erklären ?

Nicht schlecht, nur 2 x 6 Pin Powerconnector.

Nakai
2008-01-09, 15:12:23
Stromvebrauch etwa auf R600-Niveau.
Wohl etwas drunter.

8800Ultra schafft 7828 Punkte im 3DMark06 nach CB.

Das wäre eine Steigerung von etwa 22%.

Also im Rahmen des erwarteten.


mfg Nakai

GeneralHanno
2008-01-09, 15:15:19
hast du die CPU score ganz rausgelassen?

€dit: leider bietet Computerbase keine Aufsplittung des ergebnisses ...

Gast
2008-01-09, 15:20:16
Bei der X2 liegt sowieso alles in den Händen der Treiberprogrammierer ...

GeneralHanno
2008-01-09, 17:49:17
X2 3870 sehr kühl:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=5055&Itemid=1

anmerkung: vll haben sie auch einfach in CPU limitierten auflösungen gebencht ...

Gast
2008-01-09, 19:10:32
X2 3870 sehr kühl:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=5055&Itemid=1

anmerkung: vll haben sie auch einfach in CPU limitierten auflösungen gebencht ...

Eher nicht. Die Info kommt auch von der CES und da spielen die im AMD Raum CoD4 an einem 30 Zoller mit einer Auflösung von 2560*1600 + AA. Siehe oben gepostetes Video.

Gast
2008-01-09, 19:16:10
hast du die CPU score ganz rausgelassen?

€dit: leider bietet Computerbase keine Aufsplittung des ergebnisses ...

Computerbase testet aber mit einem hochgetakten core2duo (3,46Ghz) ... also dürfte das Ergebnis für die 3870 x2 noch besser ausfallen. Ist auch nicht verwunderlich, weil der r670 bekanntlich sehr stark im 3dmark06 ist

GeneralHanno
2008-01-09, 19:24:58
bei PCGH gibts die 3dmark werte inkl sreen, also kann man die CPU leistung herausrechen:
http://www.pcgameshardware.de/?article_id=627472

3870X2 (nur GPU werte): 7479
8800ULTRA (nur GPU werte): 5483

das sind 36% vorsprung für die X2 ...

Gast
2008-01-09, 19:52:09
hehe, die 8900GX2 soll 30% schneller sein ?

nadann passt das ja :)

was hat es den nun mit dem Hyper Memory aufsich ?

was ist das?

Gast
2008-01-09, 20:01:54
Hyper Memory ist das gleiche wir Turbo Cache bei nVidia. Falls der Videoram ausgeht, kann zusätzlich etwas in den Arbeitsspeicher ausgelagert werden.

Siehe auch: http://de.wikipedia.org/wiki/HyperMemory

Gast
2008-01-09, 20:11:31
mhh ist das nun gut oder schlecht ?

GeneralHanno
2008-01-10, 13:56:15
3D Mark Wert der X2 3870 in norm. Auflösung aufgetaucht:
http://www.pcgameshardware.de/?article_id=627498

StefanV
2008-01-10, 17:03:02
mhh ist das nun gut oder schlecht ?
Ist AGP Texturing gut oder schlecht?

Damit ist HM/TC zu vergleichen, nur das es viel besser funktioniert...

Gast
2008-01-10, 17:06:00
Ist AGP Texturing gut oder schlecht?


Gut natürlich oder stehst du auf Swapping von Texturen (eine andere Alternative gibt es nicht)?

J0ph33
2008-01-10, 19:47:49
wann ist mit der 3870X2 zu rechnen? in Post1 steht nix außer "New Year"

StefanV
2008-01-10, 19:51:07
Gut natürlich oder stehst du auf Swapping von Texturen (eine andere Alternative gibt es nicht)?
Wenn der Speicher aus ist, gibts keine ALternative, außer natürlich ein astreines absemmeln...

AnarchX
2008-01-10, 19:53:36
wann ist mit der 3870X2 zu rechnen? in Post1 steht nix außer "New Year"

AFAIR 28.1., einige Distributoren sollen sie auch schon für ~320€ gelistet haben.

Adam D.
2008-01-10, 19:55:51
Hmm, bin wirklich sehr sehr auf die Verfügbarkeit gespannt. Ich nehm ja mal schwer an, dass das Ding auch nur selten verfügbar sein wird, wieso sollte es auch anders sein ... ist halt 2xRV670 mit etwas anderem PCB, sehe da wenig Hoffnung für eine gute Verfügbarkeit.

horn 12
2008-01-10, 20:10:33
Da muss ich DIR widersprechen.
Auch der Preis dürfte plus/minus 5 bis 10% durchaus realistisch sein und der Knaller werden.
Aber dass die Karte sooo früh kommt (28.01.08) wäre mir neu....

AnarchX
2008-01-10, 20:13:18
Aber dass die Karte sooo früh kommt (28.01.08) wäre mir neu....
Früh?:| RV670 gibt es schon seit November, wo schon die 3870X2 gezeigt wurde in Warschau.
Zudem soll ja am 14.2. die 9800GX2 kommen. ;)

GeneralHanno
2008-01-10, 20:14:56
Die CrossfireX treiber sollen ja schon im Januar kommen ... j4info

AnarchX
2008-01-10, 20:17:42
Die CrossfireX treiber sollen ja schon im Januar kommen ... j4info
"schon" sollte eher "erst" heißen, die 3870X2 war rein hardwaremässig wohl im Nov/Dez schon bereit.
Naja, dafür gibts nun halt eine wohl etwas bessere Rev. A12 des RV670(die auch für die 904MHz Sapphire 3870 verwendet werden soll) und einen niedrigeren Einstiegspreis.

dargo
2008-01-10, 20:27:44
AFAIR 28.1., einige Distributoren sollen sie auch schon für ~320€ gelistet haben.
Soll die Karte wirklich nur ~300-320€ kosten? Hier macht sich wohl doch der Vorteil von einem PCB bemerkbar oder? Eine einzelne HD3870 ist noch ziemlich weit von 150-160€ entfernt.

puntarenas
2008-01-10, 20:28:51
Langsam wären halt ein paar harte Fakten als Teaser angebracht. Beispielsweise das Gerücht, dass man einen Chip (+ 512MB Speicher?) sowohl manuell komplett deaktivieren kann, als auch die automatische Deaktivierung während des 2D-Betriebs klang äußerst vielversprechend :)

Eine reine Dualchipkarte ohne solche neuen Gimmicks wäre dagegen eher langweilig und enttäuschend wenngleich auch sehr viel wahrscheinlicher.

Rev. A12 des RV670(die auch für die 904MHz Sapphire 3870 verwendet werden soll)
Klingt plausibel, Sapphire will ja ohne Spannungserhöhung auskommen. Eigentlich recht beachtlich, was so ein Revisionswechsel vermag.

reunion
2008-01-10, 20:29:50
Klingt plausibel, Sapphire will ja ohne Spannungserhöhung auskommen. Eigentlich recht beachtlich, was so ein Revisionswechsel vermag.

Naja, A11 war nicht für die Massenproduktion gedacht.

Gast
2008-01-10, 20:31:51
Soll die Karte wirklich nur ~300-320€ kosten? Hier macht sich wohl doch der Vorteil von einem PCB bemerkbar oder? Eine einzelne HD3870 ist noch ziemlich weit von 150-160€ entfernt.

Nein, sowas nennt man Gewinnreduzierung aufkosten der Gewinnspanne.

Gast
2008-01-10, 20:32:40
Nein, sowas nennt man Gewinnreduzierung aufkosten der Gewinnspanne.

Natürlich Stärkung der Verzahlen aufkosten der Gewinnspanne.

J0ph33
2008-01-10, 23:41:00
was war noch gleich MSRP der G92-GX2? 449$? Dann werden wir sie wohl für ~420€ im Laden sehen...mal gucken was Atis Treiberteam aus CF macht...Ati braucht so etwas wie den nhancer, ohne den ist ja auch SLI quasi wertlos...nach nun drei Jahren darf Ati endlich seine CF-Marketinglüge eingestehen...zum Wohle aller...

AnarchX
2008-01-11, 07:37:01
HD3690? (http://bbs.chiphell.com/viewthread.php?tid=14844&extra=page%3D1)

- 320SPs
- 128 Bit
- 800 CNY ($110)
- China only

seahawk
2008-01-11, 07:44:54
ne kastrierte RV670 ?

DrumDub
2008-01-11, 09:40:16
Früh?:| RV670 gibt es schon seit November, wo schon die 3870X2 gezeigt wurde in Warschau.
ich glaub auch nicht, dass amd wegen der hardware "wartet". der launchtreiber muss halt möglichst mit allen aktuellen spiele gute performace liefern, also mindestesn 50-60% schneller sein als ne single-karte.

seahawk
2008-01-11, 10:18:26
Mehr sogar, er muss CF auch für alte und seltene Spiele brauchbar machen, ansonsten platzt die Blase wahrscheinlich schnell.

Adam D.
2008-01-11, 10:19:38
Naja, so schlecht sieht der Crossfire-Support auch ohne neuen Treiber nicht aus. Klar muss man jetzt nochmal richtig Gas geben, immerhin dürfte die X2 das Flagschiff für einige Monate darstellen. Aber wenn ich mir jetzt die 3870-Crossfire-Reviews anschaue, dann sieht das hervorragend aus: in vielen Einstellungen 70-90% Gewinn. Es gibt aber natürlich auch die berühmten Ausnahmen, ich denke besonders daran werkeln sie noch.

GeneralHanno
2008-01-11, 10:30:23
Ich denke ATi wird sich Mühe geben mit den CrossfireX treibern.
Begründung: Der Quellcode ist ja nicht nutzlos nach EOL der 3870 X2, denn ATi will in den nächsten Jahren immer so vorgehen, dass High-End = 2 * Performence-dice auf einem PCB.

robbitop
2008-01-11, 11:19:29
Je mehr CF und SLI in die Massen reindriften, je eher müssen ATI/NV mal was gegen das FPS-Kadenzproblem machen. Ansonsten wundern sich nachher alle, warum sich 30 fps wie 20 fps anfühlen.
Und so toll arbeitet Crossfire auch nicht. Man muss halt viel exe-file renaming machen. Tombman hatte das vor Kurzem ja mal untersucht und IIRC die PCGH auch. Für die Massen muss das Zeug out-of-the-box arbeiten. Ohne, dass man was dran machen muss. Und ohne Kadenzprobleme. Noch halte ich weder SLI noch CF für massentauglich.

Wenn ich ATI wäre, würde ich jemanden nur für die CF Profile abstellen. Der testet dann alle möglichen Spiele und die Spiele, die laut diversen Foren nicht mit CF funktionieren und aktualisiert die Profile ständig. Dazu noch eine Auto-Update-Funktion im Catalyst. Das würde die Situation deutlich verbessern.

puntarenas
2008-01-11, 11:27:54
Je mehr CF und SLI in die Massen reindriften, je eher müssen ATI/NV mal was gegen das FPS-Kadenzproblem machen. Ansonsten wundern sich nachher alle, warum sich 30 fps wie 20 fps anfühlen.
Das Problem existiert in der öffentlichen Wahrnehmung doch überhaupt nicht, oder hat sich da mal ein großes Medium (PCGH, 3Dc ;)) mit Aufklärung hervorgetan? SLI/CF gibt es zwar noch nicht als Massenprodukt, aber IMHO lang und verbreitet genug um festzustellen, dass es Freaks mit gutem Auge wie tombman braucht, um etwas zu bemerken und dann auch auf die richtige Ursache zu schließen.

Ich befürchte, im Massenmarkt findet man sogar Leute, die SLI/CF kaufen und dann die Details runterdrehen, damit sie auf ihrem TFT mit überspitzt 150fps spielen können, diese Athleten kommen dann ja niemals in den kritischen Bereich.

robbitop
2008-01-11, 11:37:33
SLI/CF gibt es zwar noch nicht als Massenprodukt, aber IMHO lang und verbreitet genug um festzustellen, dass es Freaks mit gutem Auge wie tombman braucht, um etwas zu bemerken und dann auch auf die richtige Ursache zu schließen.

Du brauchst eben keine guten Augen dafür. Ich habe diesen Effekt schon vor ca 2 Jahren erlebt, als ich mein Multichrome System mit Oblivion laufen ließ.
Ich sah die 30 fps und war erstmal zufrieden, dass es 30 waren. Aber irgendwie fühlte sich das nicht flüssig an. Nicht viel flüssiger als mit einer einzelnen Karte. Ich wußte jedoch weder woran das lag, noch hatte ich Lust drauf das zu untersuchen. Spüren wird das in diesen Regionen sicherlich so gut wie jeder.
Nur wird die Masse mit den Schultern zucken und denken, dass es vieleicht ein Bug ist oder irgendein systemspezifischer Fehler.

Eigentlich müßte man dieses Thema mal groß bashen. Allerdings liegt 3DC derzeit lahm. CB hat, seit dem CS weg ist, wohl auch nicht mehr den Mut für sowas. In der PCGH scheint das Thema auf nur wenig Interesse zu stoßen.

AnarchX
2008-01-11, 11:45:02
HD3690? (http://bbs.chiphell.com/viewthread.php?tid=14844&extra=page%3D1)

- 320SPs
- 128 Bit
- 800 CNY ($110)
- China only

- RV660?
- 700MHz Speichertakt
- GPU AIB-abhängig
- AIBs bleibt Möglichkeit offen 256-Bit SI zu nutzen


http://bbs.chiphell.com/viewthread.php?tid=14861&extra=page%3D1

Gouvernator
2008-01-11, 12:00:28
Wer auf "Wundertreiber" hofft den kann ich enttäuschen. Wenn man CF schon länger hat beobachte ich jeden neuen Treiber was da an Fortschritten gab im Vergleich zum alten. Da sieht man dann: aaha, hier FPS angehoben dort Grafikfehler ausgebügelt aber Microruckler wie sie waren so sind sie auch geblieben. Und das von einem Treiber zum anderen Monate lang. Wenn sich was bewegt dann kommt es auch in kleinen Schritten zum Vorschein um dann in einem Komplettpacket zu erscheinen. Solche kleinere Schritte gabs bisher nicht. Also, es wird eine "schnelle" Microruckler Grafikarte geben die Spiele meist in der gleichen Geschwindigkeit darstellt wie eine Einzelkarte. Ihr glaubt gar nicht WIEVIELE Spiele überhaupt kein AFR Profil haben! Schon ältere und noch kein Profil.
Achtet mal deshalb auf die Tests wo welche Spiele getestet werden, ich wette wenn ein Spiel kein AFR unterstützt dann wird es auch nicht mitgetestet weil saulangsam.

HOT
2008-01-11, 13:06:42
Das grösste Prob ist, dass CF für viele Anwendungen einfach blockiert wird - da hilft nur .exe-Renaming. Das kanns einfach nicht sein. Zumal es bei 90% der Awendungen problemlos ist. Ich denke, das wird die gewichtigste Änderung bei CFX sein wird, dass es hoffentlich endlich nen Manager für den Spielesupport für den Nutzer gibt, damit der seine CF-Games selber konfigurieren kann. Wenn es sowas gäbe, wäre CF durchaus sehr konkurrenzfähig.

LovesuckZ
2008-01-11, 15:43:28
So sieht es aus. Man kann zwar SLI und X-Fire System zu Massenware machen und sie billig anbieten, aber solange wie nicht jedes erhältliche Spiel und jede Neuerscheinung ohne Handanlegen davon profitiert, bleibt es ein Produkt für einen kleinen Teil der Kundschaft.
Ich sehe ein riesiges Problem, dass es sehr schwer sein wird immer im Vorraus die passenden Profile zur Verfügung zu stellen - bei AMD mehr, bei nVidia weniger.

Nakai
2008-01-11, 15:52:57
So sieht es aus. Man kann zwar SLI und X-Fire System zu Massenware machen und sie billig anbieten, aber solange wie nicht jedes erhältliche Spiel und jede Neuerscheinung ohne Handanlegen davon profitiert, bleibt es ein Produkt für einen kleinen Teil der Kundschaft.
Ich sehe ein riesiges Problem, dass es sehr schwer sein wird immer im Vorraus die passenden Profile zur Verfügung zu stellen - bei AMD mehr, bei nVidia weniger.

Joa, dass ist AMDs Problem.
Wenn alles aber richtig eingestellt ist, dann steht CF SLI in nichts nach. Teilweise skaliert CF sogar etwas besser, leider muss eben immer wieder Hand angelegt werden, was für die Kundschaft schlecht ist.


mfg Nakai

HOT
2008-01-11, 16:43:01
AMDs hauptsächliches Problem ist, dass sie kaum Testzeit in CF stecken und somit kaum CF Profile im Treiber sind. Alles andere wird ja einfach abgeblockt. NV hat hier nur den Vorteil, dass die Profile öffentlich sind und dass man bei NV mehr Zeit von sich aus dahin investiert hat. Ansonsten gibts ja keinen Unterschied zwischen den beiden Techniken. Bleibt zu hoffen, dass AMD das mich CFX ändern. Jedenfalls wäre es mit etwas mehr Aufwand sicherlich möglich, CF genausogut oder besser als SLI zu machen. Aber wenn keine Zeit und kein Geld dahinfließt, wird das nix.

robbitop
2008-01-11, 17:54:17
CF Profile sind, im Gegensatz zur restlichen Treiberarbeit, kaum Arbeit. Das könnte ein eingearbeiteter Praktikant sogar aktualisieren.
Diese offenzulegen, sollte auch nicht soo schwer sein. Aus irgendeinem Grund handhabt AMD das etwas anders.

laser114
2008-01-11, 18:00:12
Ich denke mal mit dem 8.1 wird es da deutlich mehr Profile geben, weil man ja diesen wohl auch zum Benchen der 3870 X2 versendet.

puntarenas
2008-01-11, 18:03:19
Inwieweit könnten eigentlich die fleißigen Programmierer von Fremdtools von der Offenlegung der Hardwarespekulationen (Stichworte: Linux, Freier Treiber RadeonHD) profitieren?

Außerdem will AMD kommende Hardware ja explizit Open-Source-freundlicher designen, so soll ja zum Beispiel der ganze DRM-Krempel aus dem UVD ausgelagert werden. Diese neue Offenheit könnte ruhig auch langsam bei den Windowstreibern Einzug halten, ich bin sicher man müsste ein passendes Tool wie den nHancer nicht einmal selbst schreiben.

Superheld
2008-01-12, 00:02:58
hier mal ein Test von CB:smile:

besonders die Leistungsaufnahme von SLI / CrossFire ist interessant

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_crossfire_sli_einzelkarte/25/#abschnitt_leistungsaufnahme

J0ph33
2008-01-12, 00:57:48
hier mal ein Test von CB:smile:

besonders die Leistungsaufnahme von SLI / CrossFire ist interessant

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_crossfire_sli_einzelkarte/25/#abschnitt_leistungsaufnahme

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=399218 ;)

puntarenas
2008-01-12, 01:51:47
Ist eigentlich schon bekannt, wann das Schweigegelübde der Reviewseiten für die HD3870 X2 fällt oder liegt der Releasetermin immer noch völlig im Dunkeln?

AnarchX
2008-01-12, 09:50:23
Ist eigentlich schon bekannt, wann das Schweigegelübde der Reviewseiten für die HD3870 X2 fällt oder liegt der Releasetermin immer noch völlig im Dunkeln?

Mal eine Seite zurückschauen (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6181642&postcount=326) kann man doch oder? ;)

puntarenas
2008-01-12, 10:31:02
Thx, ich hab sogar die Suchfunktion benutzt, aber bei "Release" kam nichts :)

Gast
2008-01-12, 23:59:41
weiß man schon ob quad-crossfire (2x 3870x2) auf dem intel x38 laufen wird?

laser114
2008-01-13, 00:19:55
Anzunehmen. Zumindest für den P45 wirbt Intel auch damit.

AnarchX
2008-01-14, 10:00:43
You can count on the R680 being 1.7X to 2X faster than R670. Scaling is looking great in DX9, DX10 a bit more shaky but there are certainly games that it excels at in DX10. Certainly more mature drivers will come.

On R680, and it being a dual GPU card, one of the biggest advantages we are seeing is that it will idle around 45w, but will capable of up to 200w operation when fully utilized.

Count on it coming in around the price of the cheapest 8800 GTX currently at Newegg.
http://www.hardforum.com/showpost.php?p=1031907018&postcount=29

Adam D.
2008-01-14, 15:29:23
Ja, schön dass die Stromspar-Mechanismen so astrein übertragen werden. Für mich sieht die Karte weiterhin interessant aus, die Frage bleibt, inwieweit das Profil-Problem gelöst wird, wie ich die Karte in mein Case reinkriegen soll und wie der finale Preis aussieht. GTX-Preis ~330$.

Gmax
2008-01-15, 11:43:40
bitte löschen

puntarenas
2008-01-15, 12:42:37
one of the biggest advantages we are seeing is that it will idle around 45w
Auf die Gefahr hin, dass es wieder auf der vorherigen Seite steht, wie ist denn im Vergleich der Idleverbrauch einer einzelnen HD3870?

Ich weiß, in einem der Reviews wurde nicht der Gesamtverbrauch des Systems angegeben, aber finden kann ich besagten Testbericht leider nicht mehr :(

reunion
2008-01-15, 17:20:12
HD3450 Review:
http://en.expreview.com/?p=201

Auch hier bestätigt sich der etwas höhere Stromverbrauch des 55nm Prozesses ggü. den 65nm Chips.

reunion
2008-01-15, 17:25:24
Crysis auf einer 3870 X2:
http://forums.vr-zone.com/showthread.php?t=225743

Adam D.
2008-01-15, 17:42:42
Crysis auf einer 3870 X2:
http://forums.vr-zone.com/showthread.php?t=225743
Großes Aua --> Nix CF.

laser114
2008-01-15, 17:44:50
Steht allerdings kein Treiber dabei. AMD wäre schön blöd wenn das mit dem Launchtreiber der 3870 X2 nicht ginge, ist doch immerhin das Bechnmark-Spiel zur Zeit (auch wenn ich das nicht verstehe).

Adam D.
2008-01-15, 17:51:28
Was gibt's da nicht groß zu verstehen? Hype-Game, klasse Grafik, potentielles Aushängeschild. Der Launch-Treiber dürfte 100%ig Support mitbringen, sonst wär das ein Schlag ins Gesicht.

laser114
2008-01-15, 17:54:19
Inhaltlich aber schwach. Klar ist es ein Hype-Game, ich finde es persönlich aber nicht interessant. ;)

Mal was anderes aus dem Test der 3450:

http://s2.directupload.net/images/user/080115/zxhlwbrz.png (http://www.directupload.net)

Anscheinend lohnen sich die Verbesserungen an dem Speichercontroller wirklich.

Adam D.
2008-01-15, 17:56:11
Inhaltlich aber schwach. Klar ist es ein Hype-Game, ich finde es persönlich aber nicht interessant. ;)
Nur spielt der Inhalt bei der Grafik als reines Benchmark-Spiel keine Rolle. Crysis sieht wahnsinnig gut aus, ich denke, nichts anderes zählt. Da kann auch der Inhalt schwach sein.

laser114
2008-01-15, 17:59:08
Nur brauch ich keinen zweiten 3DMark... :usad:

Aber gut, ich muss das akzeptieren und habe mich damit auch abgefunden...

Adam D.
2008-01-15, 18:02:09
Nur brauch ich keinen zweiten 3DMark... :usad:

Aber gut, ich muss das akzeptieren und habe mich damit auch abgefunden...
Hmm, den Vergleich halte ich für gewagt. Crysis zeigt in der Praxis viele Effekte, die wohl zukunftsweisend sind. 3DMark hat noch nie irgendeine praktische Aussagekraft gehabt.
Problem ist nur: Crysis ist momentan ein 100%iger GPU-Bench, das finde ich schade.

puntarenas
2008-01-15, 23:07:26
On R680, and it being a dual GPU card, one of the biggest advantages we are seeing is that it will idle around 45w, but will capable of up to 200w operation when fully utilized.
Okay, bei xbitlabs gibt es Verbrauchswerte für eine HD3870, Idle 18,7W und Last 81,1W: Klick! (http://www.xbitlabs.com/articles/video/display/gainward-bliss-8800gt_5.html#sect0)

Da klingen 45W Idle gleich mal nicht mehr so toll, dann hätte man ja den vollen Verbrauch von 2xRV670 plus jeweils 512MB Speicher und noch Overhead obendrauf. Das spräche aber deutlich gegen das wohlklingende Gerücht, im Idle ließe sich das zweite Gespann komplett abschalten und die sagenhafte Revision A12 würde auch keine Wunder vollbringen.

Odal
2008-01-16, 03:20:00
Okay, bei xbitlabs gibt es Verbrauchswerte für eine HD3870, Idle 18,7W und Last 81,1W: Klick! (http://www.xbitlabs.com/articles/video/display/gainward-bliss-8800gt_5.html#sect0)

Da klingen 45W Idle gleich mal nicht mehr so toll, dann hätte man ja den vollen Verbrauch von 2xRV670 plus jeweils 512MB Speicher und noch Overhead obendrauf. Das spräche aber deutlich gegen das wohlklingende Gerücht, im Idle ließe sich das zweite Gespann komplett abschalten und die sagenhafte Revision A12 würde auch keine Wunder vollbringen.

naja das ist alles relativ...das im vergleich zu den mindestens 70watt idle und 130-160watt lastverbrauch von 88gtx/ultra 2900xt und consorten bei vermutlich deutlicher mehrleistung klingt das gleich schon brauchbar fürs highend...

das vielleicht ein 3870 Crossfire gespannt da günstiger kommt ist zwar interessant...aber preislich ist man da vermutlich teurer.....ausserdem sind 2 karten schwerer zu handlen als eine...

für das highend inform von einer karte (auch wenn zwei chips drauf sind) klingen die verbrauchswerte sinnig....klar wärs schöner wenn im 2d ein chip deaktiviert wäre..und vielleicht 20watt idle...

AnarchX
2008-01-16, 06:50:58
Das NDA für die 3870X2 fällt wohlmöglich nun schon am 23.1..

horn 12
2008-01-16, 07:24:51
Quelle, oder woher die Weisheit.
Meine 2900XT ist dahin, vielleicht bekomme ich dafür die HD3870 X²
Hoff!!

AnarchX
2008-01-16, 07:36:46
http://www.tgdaily.com/content/view/35629/135/

Wobei die Verfügbarkeit wohl dann erst wie ursprünglich geplant eintritt.

[dzp]Viper
2008-01-16, 14:45:56
Radeon HD 3870 X2 am 23.1.
http://www.hartware.de/news_43922.html

Preis: 449 Dollar und ca. 400€

Wenn das stimmt - nicht schlecht.

Gast
2008-01-16, 14:59:14
Also für das Geld kann ich mir auch gleich zwei 3870 zum Crossfire zusammenschalten und spare sogar noch dabei.

AnarchX
2008-01-16, 15:02:10
Also für das Geld kann ich mir auch gleich zwei 3870 zum Crossfire zusammenschalten und spare sogar noch dabei.

Braucht es aber noch eine vernünftiges CF-Board und zudem soll die 3870X2 mit 825MHz GPU daherkommen, weshalb zwei OC-3870er im Vergleich eingerechnet werden sollten. ;)

Aber laut aktuellen Infos, sollen es wohl eher unter 400€ real werden.

laser114
2008-01-16, 16:15:00
Bei einem Wechselkurs von 1,45 USD = 1 € (wobei der Euro immer noch einige Cent stärker ist) kommt man inkl. 19% Mehrwertsteuer auf 370€. Das taugt schon als offizielle Preisempfehlung, wenn die Karte ordentlich verfügbar ist.

Gast
2008-01-16, 17:17:46
Das NDA für die 3870X2 fällt wohlmöglich nun schon am 23.1..


Da will AMD wohl von den nächsten roten Quartalszahlen ablenken, die am 24.1 veröffentlicht werden.;)

Snoopy1978
2008-01-16, 17:46:03
Bei einem Wechselkurs von 1,45 USD = 1 € (wobei der Euro immer noch einige Cent stärker ist) kommt man inkl. 19% Mehrwertsteuer auf 370€. Das taugt schon als offizielle Preisempfehlung, wenn die Karte ordentlich verfügbar ist.

Ati wird die 2 Währungen wohl "gleichberechtigter" sehen und den Wechselkurs auf 1:1 festlegen,also in etwa 450 Euro.

Gast
2008-01-16, 17:54:41
niemals, die wäre dan teuerer als 2x HD 3870 mit gleicher Leistung, die kauft dann keiner.

laser114
2008-01-16, 18:00:19
Ati wird die 2 Währungen wohl "gleichberechtigter" sehen und den Wechselkurs auf 1:1 festlegen,also in etwa 450 Euro.

Nein, das ist ein altes Märchen. Mit 1:1 rechnet in der Elektronik-Branche schon lange keiner mehr, kann man sich bei den aktuellen Kursen nicht leisen. In den langen Zeiten wo die Kurse ungefähr bei 1:1,2 standen hat das gestimmt, aktuell aber nicht mehr. Würde ja auch jeder die Sachen aus den USA importieren ... das dürften die Hersteller auch wissen.

AnarchX
2008-01-16, 18:05:47
Wie schon mal erwähnt, Distributoren sollen sie schon für ~320€ listen, was mit MwSt. <400€ für den Kunden sind. ;)

horn 12
2008-01-16, 18:53:05
Bei guter Verfügbarkeit Mitte Februar sollte die Karte um die 350 Euro kosten nehme ich mal sehr sehr stark an.
NV Pordukt wird leicht teurer und vielleicht etwas flotter werden...
daher auch die Preise um die 350 Euro´s!

2B-Maverick
2008-01-16, 18:58:18
Bei guter Verfügbarkeit Mitte Februar sollte die Karte um die 350 Euro kosten nehme ich mal sehr sehr stark an.
NV Pordukt wird leicht teurer und vielleicht etwas flotter werden...
daher auch die Preise um die 350 Euro´s!

LOL - das mit der Verfügbarkeit hast du "nett" ausgedrückt... :tongue:

Ich denke mal das gibt genau so nen Kappes wie mit den 3870er Karten: zur eigentlichen Preisempfehlung fast nicht zu bekommen :(

CU
Markus

Gast
2008-01-17, 09:10:37
R680 final clocks :

825MHz core
1800MHz memories
110W lowest TDP w/ PowerPlay
190W max. TDP w/ PowerPlay

http://bbs.chiphell.com/viewthread.php?tid=15109&extra=page%3D1

AnarchX
2008-01-17, 09:12:44
Mit dem Speicher ist es wirklich ein Hin-und-Her, aber wenn der MSRP bei $449 liegt, sollte es doch schon GDDR4 sein.

AnarchX
2008-01-17, 10:04:35
HD3690? (http://bbs.chiphell.com/viewthread.php?tid=14844&extra=page%3D1)

- 320SPs
- 128 Bit
- 800 CNY ($110)
- China only

- RV660?
- 700MHz Speichertakt
- GPU AIB-abhängig
- AIBs bleibt Möglichkeit offen 256-Bit SI zu nutzen


http://img521.imageshack.us/img521/1993/120055951221651348081re3.jpg (http://imageshack.us)
http://img237.imageshack.us/img237/4932/120055952737251348cb6ir6.jpg (http://imageshack.us)
http://img509.imageshack.us/img509/1425/12005595468535134ab6aoa8.jpg (http://imageshack.us)

http://diybbs.pconline.com.cn/topic.jsp?tid=8118709
;)

GeneralHanno
2008-01-17, 13:02:29
erst 320SP mit 512 bit, dann mit 256bit, dann mit 128bit ;D;D

Gast
2008-01-17, 14:19:06
erst 320SP mit 512 bit, dann mit 256bit, dann mit 128bit ;D;D

Als ob so eine Karte ein 512 bit Interface bekommt, denk doch mal mit.

J0ph33
2008-01-17, 14:43:32
du hast ihn nicht verstanden ;D

Pirx
2008-01-17, 19:07:32
Die X2 wird 2x 512MB haben und nicht wahnwitzige 2x 1GB, oder?

puntarenas
2008-01-17, 19:24:39
Ja, 2x 512MB.

Adam D.
2008-01-17, 19:48:50
Hmm, bei dem Ziel der Karte will ich lieber wahnsinnige 2x1024MB, auch wenn ich da drauf zahlen muss.

AnarchX
2008-01-17, 19:52:10
Wobei ATi ja noch recht gut zurecht kommt mit 512MB.

Aber möglichen wären 2x1GB schon, einmal bei der Version mit allen 16 Chips auf einer Seite, müsste noch die andere bestückt werden oder eben die mittlerweile öfters verbauten 1024MBit Chips.

Adam D.
2008-01-17, 19:56:02
Naja, Nvidia hat die 2x1024MB sicher nötiger, das ist richtig. Aber ich kann mir auch einige Szenarien vorstellen, wo der X2 die Luft ausgehen wird. Obwohl das Ding ja relativ günstig werden soll, da wären 2x1024MB einfach der preisliche Overkill.

puntarenas
2008-01-17, 19:57:48
Wobei ich mich frage, wieso in aller Welt nun wieder GDDR3-RAM im Gespräch ist: Klick! (http://www.pcgameshardware.de/?article_id=628622)

laser114
2008-01-17, 20:01:05
Nur 900 MHz GDDR3 fände ich doch etwas enttäuschend. Auf den älteren Folien stand zwar GDDR3 drauf, aber wir haben ja 2x 256 Bit. 2x 57,6 GB/s wären da jetzt nun wirklich nicht viel, selbst mit zwei Radeon X1950 XTXs kommt man ja auf mehr Bandbreite.

AnarchX
2008-01-17, 20:01:07
Nunja, es gab zwei verschiedene 3870X2-Samples, die in Warschau gezeigten Karten hatten GDDR3 verbaut und die 16 Chips auf beiden PCB-Seiten verteilt, während die vor kurzem in Asien aufgetauchten Karten GDDR4 verbaut hatten und alle Chips auf einer Seite.

Was nun kommt bleibt wohl eine Überraschung, vielleicht kommt ja auch beides:
- GDDR4 für $449
- GDDR3 für $399-379

puntarenas
2008-01-17, 20:02:11
- GDDR3 für $399-379
HD 3850X2 :eek:

laser114
2008-01-17, 20:03:30
Was nun kommt bleibt wohl eine Überraschung, vielleicht kommt ja auch beides:
- GDDR4 für $449
- GDDR3 für $399-379

Hmm, und keine Unterscheidung äußerlich erkennbar...?
Die Namensgebung fände ich in diesem Fall schwach.

AnarchX
2008-01-17, 20:06:45
Hmm, und keine Unterscheidung äußerlich erkennbar...?
Fände ich dann doch eher schwach. ;)

Nunja, auf dem Karton würde dann wohl GDDR3 oder GDDR4 stehen oder soll man auf die GDDR3 eine große Aufschrift aufbringen : "WARNING!!! SLOW GDDR3!"? ;D

Aber mal sehen was kommt, vielleicht ist die GDDR3-Version auch nur eine Vorbereitung für eine 2x1GB-Version mit 1024MBit Chips. :crazy:

Am Mittwoch wissen wir mehr...

laser114
2008-01-17, 20:20:57
Aber mal sehen was kommt, vielleicht ist die GDDR3-Version auch nur eine Vorbereitung für eine 2x1GB-Version mit 1024MBit Chips. :crazy:

Das kann ich mir in der Tat vorstellen...

nomadhunter
2008-01-17, 20:32:43
1024MB sind bei einer 3870 aber sehr sinnlos. Schaut euch z.B. mal bei CB an, wie eine 3870 gegen eine 8800 Ultra skaliert. Mit 4xAA bleibt der Unterschied von 12x10 bis 25x16 konstant, bei 8xAA wird die 3870 (relativ!) besser, je speicherfressender die Settings sind. 512 "ATI-MB" sind also mindestens gleichwertig mit 768 "NVIDIA-MB", eher etwas mehr.

Schon bei G92 bringen die 1024MB wenig, da die 9800GX2 aber auch für High-End-Settings gedacht ist, dürften hier 2x1024MB zumindest einen mittelkleinen Vorteil bieten. Bei der 3870X2 befürchte ich aber , dass der Mehrspeicher genau so wie bei der 8800GT-Single und der 2900XT gar nichts bringt. Ergo rausgeschmissenes Geld.

GeneralHanno
2008-01-17, 20:38:07
mir wäre schnellerer speicher (GDDR4) wichtiger, als 1GiB ...

AnarchX
2008-01-17, 20:39:05
Wobei es bei den 1024MB wohl auch in gewissem Maße um Q-CF geht, welches entsprechend brachiale Settings fahren könnte von der GPU-Leistung und nicht vom VRAM limitiert werden sollte.

puntarenas
2008-01-17, 20:45:57
Ehrlich gesagt weiß ich gar nicht genau, wie sehr ein RV670 an der Speicherbandbreite hängt. Auf den ersten Blick scheint man ja möglichst hohen Speichertakt zu benötigen, um das 256Bit-SI wett zu machen, aber gibt es Tests wo das auch mal ausgemessen wurde.

HD3870 775/1125Mhz vs HD3870 775/900Mhz zum Beispiel...

nomadhunter
2008-01-17, 20:48:04
@AnarchX

NVIDIA wird aber wohl auch Q-SLI mit 2x2x512MB anbieten. Und bisher bietet man mit T-SLI und GTX/Ultra ja auch nur 768MB (höchstens 512 "ATI-MB", siehe oben). Mit der 9800GTX wird es wohl sogar T-SLI mit 3x512MB geben, also noch weniger.

Und die CB-Benchmarks sehen für mich nicht so aus, als ob die 3870 selbst in 25x16/8xAA in ein starkes Speicherlimit laufen würde. (HD3870 CF 102% schneller als eine Ultra :eek:) Brachialere Settings sind mir mit normaler PC-Hardware nicht bekannt.

AnarchX
2008-01-17, 20:52:59
Damit wäre GDDR3 wohl offiziell:|:
http://img180.imageshack.us/img180/4508/x2xm9.png (http://imageshack.us)
http://www.dollarshops.eu/product_info.php/products_id/2778

GeneralHanno
2008-01-17, 20:54:48
naja von der 2900xt gabs ja auch eine 1GiB-GDDR4 Variante nachgeliefert

also abwarten und tee rauchen ...

puntarenas
2008-01-17, 20:59:25
Wohl wieder ohne ViVo (Theater-Chip), sehr schade wenn dieses nützliche, kleine Alleinstellungsmerkmal auch beim Flagship eingespart wird. Andererseits habe ich auch schon lang keine NVidia-Karte mit zusätzlichem Phillips-Chip für Video-In gesehen, sonst gab es ja immer vereinzelt Hersteller die detailverliebt genug waren.

nomadhunter
2008-01-17, 21:06:45
900 MHz? Das ist grade mal 8800GT-Niveau. :|
Springt ATI jetzt auch auf den Zug der banbreitenlimitierten, unbalancierten Shaderleistungsmonster auf? Immerhin wird man bei der 3870-Single nicht grundlos auf 1125 MHz gesetzt haben. :rolleyes:

reunion
2008-01-17, 21:09:38
900 MHz? Das ist grade mal 8800GT-Niveau. :|
Springt ATI jetzt auch auf den Zug der banbreitenlimitierten, unbalancierten Shaderleistungsmonster auf? Immerhin wird man bei der 3870-Single nicht grundlos auf 1125 MHz gesetzt haben. :rolleyes:

So viel weniger ist das gar nicht. ~100Mhz kannst du schonmal aufgrund der schlechteren Latenz von GDDR4 abziehen. Bandbreiten limitiert wird das Ding deswegen sicherlich nicht bei nur 16 TMUs und 32 Z-Tests pro Takt.

AnarchX
2008-01-17, 21:10:51
Wobei AMD ja PCGH versichert haben soll, dass die X2 mit 825MHz GPU-Takt kommen soll, was das ganze Verhältnis noch unsinniger machen würde. X-D

Bandbreiten limitiert wird das Ding deswegen sicherlich nicht bei nur 16 TMUs und 32 Z-Tests pro Takt.
Vergiss nicht den Shaderresolve, der wohl doch etwas an Bandbreite benötigt.

laser114
2008-01-17, 21:12:31
Wobei AMD ja PCGH versichert haben soll, dass die X2 mit 825MHz GPU-Takt kommen soll, was das ganze Verhältnis noch unsinniger machen würde. X-D

Was aber auch impliziert das die Angabe von Dollarshop nicht vollständig korrekt sind.

AnarchX
2008-01-17, 21:18:01
Was aber auch impliziert das die Angabe von Dollarshop nicht vollständig korrekt sind.
Aber mit den GDDR3 sind sie nicht allein:
http://www.esoph.com/pub/Carte_graphique__Sapphire_HD_3870-sec-produit-cat-25-id-49514.htm
http://prixmateriel.com/cartesvideo_18/radeonhd_95/detail_53958.html
http://www.verkkokauppa.com/popups/prodinfo.php?id=28788
bzw.
http://www.google.de/search?q=Sapphire++21122-05-40R&ie=utf-8&oe=utf-8&aq=t&rls=org.mozilla:de:official&client=firefox-a

Hmm... wobei hier auch einige GDDR4 listen. Gibt es wohl doch beide Versionen?

Wobei HIS doch richtig liegen sollte:
"HIS HD 3870X2 HDMI Dual DL-DVI 1GB GDDR3 PCIe"
http://germany.hisdigital.com/html/product_ov.php?id=365&view=yes

GeneralHanno
2008-01-18, 09:04:25
sagen wir mal so: das referenzdisign sieht vermutlich GDDR3 vor ... ;)

Gast
2008-01-19, 14:25:58
Hi;

um einmal auf die andere Seite zu gucken:

http://my.ocworkbench.com/bbs/showthread.php?%20threadid=70247 (gefunden auf Beyond3d).

Der neue RS780 Chipset scheint ja ziemlich schnell zu sein:

3DMark05: 3173
3DMark06: 1533

und das bei einer Auflösung von 1280x1024 (bei 1024x768 wäre zB. der 3DMark06 Wert noch einmal um ca. 20% höher).

Wer braucht denn jetzt noch eine HD2400Pro bzw. Karten auf Basis des neuen RV620???
Diese Karten sind ja nur noch ein wenig schneller als die neue integrierte Chipset-Grafik von AMD. Eine X1600m ist zB. auch nicht mehr schneller als der neue RS780.


Manfred

Nakai
2008-01-19, 14:29:27
Perfekt. Wird wohl in meinen Laptop reinkommen, das Ding.

mfg Nakai

AnarchX
2008-01-19, 15:04:32
Wer braucht denn jetzt noch eine HD2400Pro bzw. Karten auf Basis des neuen RV620???

Der wer noch mehr Leistung will, da man ja diese mit dem RS780 unter H-CF kombinieren kann. Aber auch so wird es ja für Intel keinen RS780 geben.

Wobei die hohe Leistung der RS780 aber auch durch eine ~20W TDP erkauft wird, wo RS690 nur bei 11W liegt.
Aber der dedizierte Speicher im Sideport dürfte wohl wiederum unter 2D einiges sparen, da hier nicht der IMC der CPU benutzt werden muss.

SavageX
2008-01-19, 15:09:00
Aber der dedizierte Speicher im Sideport dürfte wohl wiederum unter 2D einiges sparen, da hier nicht der IMC der CPU benutzt werden muss.

Wobei dieser Einwand natürlich dadurch relativiert wird, dass beim Phenom und dem Griffin-Turion die CPU weiterschlafen kann, wenn der IMC was zu tun bekommt.

laser114
2008-01-19, 18:17:29
Ich denke auch nicht das bei jeder Version der Speicher verbaut wird.

Gästle
2008-01-20, 11:00:06
Wie schauts eigentlich mit dem Speicher aus, hat da jeder Grafikchip seperaten Speicher wie es bei den zwei PCB-Lösungen der Fall ist? Oder greifen die GPUs zusammen auf den gesamten Speicher zu, so dass also effektiv wirklich 1024 MB genutzt werden können? Eigentlich sollte es bei nur einem PCB doch möglich sein, dass beide GPUs jeweils mit allen Speicherchips verbunden sind.

GeneralHanno
2008-01-20, 11:03:56
jede GPU hat seinen eigenen speicher (512MiB) und getrennte Ring-Busse.

Also marketing 1GB, aber real nur 512MiB CF-Speicher!

robbitop
2008-01-20, 11:03:59
Wie schauts eigentlich mit dem Speicher aus, hat da jeder Grafikchip seperaten Speicher wie es bei den zwei PCB-Lösungen der Fall ist? Oder greifen die GPUs zusammen auf den gesamten Speicher zu, so dass also effektiv wirklich 1024 MB genutzt werden können? Eigentlich sollte es bei nur einem PCB doch möglich sein, dass beide GPUs jeweils mit allen Speicherchips verbunden sind.
Wie stellst du dir das vor? :|

GeneralHanno
2008-01-20, 11:05:09
die geschichte mit dem gemeinsamen speicher wird frühestens 2009 mit dem "echten R700", bzw. jetzt R800 kommen ;)

Gast
2008-01-20, 12:14:00
Wie stellst du dir das vor? :|

Wenn mich nicht alles täuscht, dann brauchen bei SLI/CF doch die Speicher der beiden Karten/GPUs sowieso den gleichen Inhalt. Deswegen spricht man doch auch von "effektiv" 512MB bei der 3870X2, oder? Könnten die beiden GPUs unterschiedliche Daten speichern wären es ja wirklich 2x512=1024 MB.
Wieso können die beiden GPUs dann nicht auch auf den gleichen Speicher zurückgreifen, wenn alles sowieso auf einem PCB ist?

laser114
2008-01-20, 12:27:19
Letztendlich stimmt an dieser Folie dann doch mehr als angenommen:

http://img166.imageshack.us/img166/5093/r680wt1.jpg

Wird wohl auf 825/900 Referenz herauslaufen, vermute ich mal.

Was mich wundert ist noch die RAM-Angabe.

Gast
2008-01-20, 13:36:49
auf der Folie ist aber die GPU noch um 45 Grad gedreht... was nicht mehr ganz zum r670 passt und damit zum r680 passt.

Gast
2008-01-20, 13:38:00
auf der Folie ist aber die GPU noch um 45 Grad gedreht... was nicht mehr ganz zum r670 passt und damit zum r680 passt.

somit ist man damals vielleicht noch von 512 Bit für das Specherinterface ausgegangen und hat sich deshalb für ddr3 entschieden?

laser114
2008-01-20, 14:10:04
Die Drehung ist auf allen aktuellen Folien drauf (auch RV670). Da diese vom R680 redet und auch nicht ganz alt ist, gehe ich eigentlich schon von dem korrekten Chip aus.

Hier zum Vergleich die RV670-Folie:

http://img212.imageshack.us/img212/1451/rv6701ay5.jpg

Redneck
2008-01-20, 16:33:51
Was spricht eigentlich gegen eine 3850x2 ?

R680 wird laut ersten Preisauszeichnungen bei ca EUR 400 liegen (empfinde ich subjektiv als zu hoch angesetzt). Hier liegt eine ziemlich große Lücke zwischen R680 (EUR 400) und der RV670 Einzelkarte (sagen wir mal ca EUR 200). Hier fehlt eine Karte die in der Spanne EUR 250-300 liegt.
Würde doch bestens für eine 3850x2 passen (auch leistungstechnisch). Was meint Ihr ?

AnarchX
2008-01-20, 16:42:17
Wäre wohl die Marge zu gering, ausserdem steht ja im Q2 wohl RV770 schon an.

laser114
2008-01-20, 16:52:16
R680 wird sicherlich auch im Preis noch etwas fallen, wenn die Verfügbarkeit erhöht wurde.

Redneck
2008-01-20, 17:13:29
Wäre wohl die Marge zu gering, ausserdem steht ja im Q2 wohl RV770 schon an.

warum sollte die Marge zu gering sein ?
was kostet eine standard 3850 ? EUR 150 ?
Sollte eine 3850X2 EUR 300 kosten hätte man damit mehr Marge als mit der single Karte (zumal man das gleiche PCB der 680er verwenden koennte, halt mit langsameren Speicher). Finde den Schritt eigentlich nur logisch. Kein großer
R&D Aufwand, man verwendet größtenteils die gleichen Komponenten, verkauft
damit dann auch mehr Chips. Ausserdem wären die Bemühungen des Treiber Teams crossfire zu pushen auf eine breitere Basis gestellt (vorausgesetzt
R680 bleibt bei dem jetzigen Preislevel und rutscht nicht weiter viel weiter nach unten).

robbitop
2008-01-20, 18:41:00
Wenn mich nicht alles täuscht, dann brauchen bei SLI/CF doch die Speicher der beiden Karten/GPUs sowieso den gleichen Inhalt. Deswegen spricht man doch auch von "effektiv" 512MB bei der 3870X2, oder? Könnten die beiden GPUs unterschiedliche Daten speichern wären es ja wirklich 2x512=1024 MB.
Wieso können die beiden GPUs dann nicht auch auf den gleichen Speicher zurückgreifen, wenn alles sowieso auf einem PCB ist?
Wie willst du das denn realisieren?
Dazu müssten beide GPUs auf einen einzigen Speichercontroller zugreifen können. Also bräuchte man noch einen dritten Chip und fetteste Verbindungen (im n * 100 GiB/sek Bereich) zu diesem Chip. Oder beide GPUs müssten mit so fetten Verbindungen gegenseitig aufeinander zugreifen können. Das ist über so lange Wege gar nicht realisierbar IMO. Das wäre nur realisierbar, wenn man beide Kerne auf das gleiche Package tut und dort dann eine solche Verbindung erstellt. Und ich bin mir nichtmal sicher, ob das bezahlbar machbar wäre und wie kritisch die Latenz dann ist. Außerdem muss man das I/O beider GPUs dann auch neumachen.

Wenn sowas mal geht, dann nicht bald und mal eben. Vieleicht ja mal im R800 oder so.

horn 12
2008-01-20, 19:29:16
@AnarchX

Wann kann man mit ersten "echten" Benchmarks der HD-3870 X²
denn rechnen, Heute abend, oder erst morgen Vormittags?
Bei der 2900 XT ging es ja auch schon gute 30 Stunden vorher los mit im Netz umherschwirrenden Benchmarks...
Rechne morgen dürfte sicher was kommen, oder?

Nun geht schon langsam los:
http://www.pcgameshardware.de/?article_id=628912

dargo
2008-01-20, 20:09:04
Nun geht schon langsam los:
http://www.pcgameshardware.de/?article_id=628912
Sieht so aus, als ob der gleiche Lüfter wie beim G80/G92 Verwendung findet, zumindest was die Optik angeht.

laser114
2008-01-20, 22:21:29
Wann kann man mit ersten "echten" Benchmarks der HD-3870 X²
denn rechnen, Heute abend, oder erst morgen Vormittags?

Der Launch ist am 23.01 (Mittwoch), nicht morgen (21.01). Sicherlich wird es am Abend des 22.01 wieder ein paar Infos geben, die dann aus Asien kommen (wenn dort die Datumsgrenze überschritten wurde), aber NDA-Informationen werden heute/morgen eher noch nicht kommen. Wann was inoffizielles kommt, kann man immer nur schwer vorhersehen.

AnarchX
2008-01-21, 13:47:53
Sieht ganz nach einem kleine Leak aus:
http://translate.google.com/translate?u=http%3A%2F%2Fwww.pczilla.net%2Fpost%2F89.html&langpair=zh%7Cen&hl=de&ie=UTF-8

Gast
2008-01-21, 15:01:26
Sieht ganz nach einem kleine Leak aus:
http://translate.google.com/translate?u=http%3A%2F%2Fwww.pczilla.net%2Fpost%2F89.html&langpair=zh%7Cen&hl=de&ie=UTF-8

PCIe2.0 scheint enorme Vorteile zu bringen...

2B-Maverick
2008-01-21, 15:05:47
PCIe2.0 scheint enorme Vorteile zu bringen...

Da frage ich mich doch, wozu dann die CF-Bridge zwischen den Karten nötig ist?
(Wenn die Daten anscheinend eh über PCIe ausgetauscht werden)

hmmm...

CU
Markus

AnarchX
2008-01-21, 15:08:47
Da frage ich mich doch, wozu dann die CF-Bridge zwischen den Karten nötig ist?
(Wenn die Daten anscheinend eh über PCIe ausgetauscht werden)

Nein, zwischen den GPUs findet der Austausch über die Bridge statt und diese muss verbaut sein, da nunmal nicht jedes Board seinen PEG aufsplitten kann.

deekey777
2008-01-21, 19:42:10
http://bbs.chiphell.com/viewthread.php?tid=15308&extra=page%3D1
Wozu ist der Schraubenzieher? ;D

laser114
2008-01-21, 19:55:50
Wozu ist der Schraubenzieher? ;D

Vielleicht um eine dritte GPU dazu zu schrauben? ;D

Blacksoul
2008-01-21, 20:01:36
http://bbs.chiphell.com/viewthread.php?tid=15308&extra=page%3D1
Wozu ist der Schraubenzieher? ;D

Der Schraubendreher gehört einfach zum Lieferumfang.
Als nice to have.
Die HD3870 IceQ3 hat den ebenfalls im Lieferumfang.


t.b.d

deekey777
2008-01-21, 20:06:16
Der Schraubendreher gehört einfach zum Lieferumfang.
Als nice to have.
Die HD3870 IceQ3 hat den ebenfalls im Lieferumfang.


t.b.d
Eigentlich sage und schreibe ich "Schraubendreher", keine Ahnung, warum "-zieher" geschrieben habe.

9800ProZwerg
2008-01-21, 23:08:18
Sorry für die Frage, aber braucht man bei der 3870X2 trotz interner CF Brücke CF Support in den Games, damit CF funktioniert?

Adam D.
2008-01-21, 23:15:18
Sicher braucht die Karte das. Wenn CF nicht funktioniert, hast du auch bei der X2 Pech gehabt. Da ATi aber eifrig am CF-Treiber werkelt, würde ich persönlich schon mit gutem Support rechnen.

X-Force
2008-01-22, 01:33:53
ja das würde mich auch mal mit der treibergeschichte interessieren

imo das am wenigstensten beachtete manko

AnarchX
2008-01-22, 09:40:22
HD3870 X2 first review out (http://en.expreview.com/?p=219)

oder direkt:
http://translate.google.com/translate?u=http%3A%2F%2Fwww.pconline.com.cn%2Fdiy%2Fgraphics%2Freviews%2F0801%2 F1210234.html&langpair=zh%7Cen&hl=de&ie=UTF-8

seahawk
2008-01-22, 09:49:30
Tolles Ergebnis, 50% mehr Leistung als 8800U bei nur 10% mehr Stromverbrauch. ATI is back on top. :up:

Gast
2008-01-22, 10:03:32
Tolles Ergebnis, 50% mehr Leistung als 8800U bei nur 10% mehr Stromverbrauch. ATI is back on top. :up:
10% vom Gesamtsystem, nicht von der Graka.
50% mehr Leistung sehe ich auch nirgends O_o

J0ph33
2008-01-22, 10:05:44
ja, die Crysis-Performance ist eher enttäuschend

50% gibt es nur beim 3dmark...

[dzp]Viper
2008-01-22, 10:08:11
ja, die Crysis-Performance ist eher enttäuschend

Problem ist und bleibt die unterirdische DX10 Performance der R680iger Karten. Und da Crysis in den Benchmark im DX10 Modi getestet wurde sieht das Ergebnis so aus.
Hätte man Crysis im DX9 Modus + Very High Tweaks getestet, sähe das Ergebnis sicher anders aus....

J0ph33
2008-01-22, 10:09:19
Viper;6213215']Problem ist und bleibt die unterirdische DX10 Performance der R680iger Karten. Und da Crysis in den Benchmark im DX10 Modi getestet wurde sieht das Ergebnis so aus.
Hätte man Crysis im DX9 Modus + Very High Tweaks getestet, sähe das Ergebnis sicher anders aus....

das mag sein (zu den Settings hab ich nix gelesen)

naja, bald wissen wir mehr

AnarchX
2008-01-22, 10:15:33
VR-Zone und Tweaktown berichten, dass der Launch nun doch wieder erst am 28. sein soll.

Bei Tweaktown gibt es eine interessante Karte zu sehen von GeCube:
- Custom-Kühler
- 4x DVI
http://img167.imageshack.us/img167/1816/newsgec3870x204sfull768ne3.jpg (http://imageshack.us)

http://www.tweaktown.com/news/8837/index.html

Naja, die Performance sieht zwar teilweise gut aus, aber wie schon bekannt:
AFR-FPS != Single-GPU-FPS....
;)

Anarchy-HWLUXX
2008-01-22, 10:21:49
50% gibt es nur beim 3dmark...

3DMark - Selbstverarsche²


Ich hab am WE 3DMark installed um eine 7900er auf funktion und OC zu testen, dabei ist mir mal bei den Tips of the day aufgefallen das Futuremark SELBST sagt das man nicht Punkte verschiedener GPUs vergleichen soll ;D


PS - NFS Pro Street schaut mal mal single GPU rendering aus ...

Gast
2008-01-22, 10:31:48
Viper;6213215']Problem ist und bleibt die unterirdische DX10 Performance der R680iger Karten. Und da Crysis in den Benchmark im DX10 Modi getestet wurde sieht das Ergebnis so aus.
Hätte man Crysis im DX9 Modus + Very High Tweaks getestet, sähe das Ergebnis sicher anders aus....
Seit wann haben Radeons eine schlechte DX10-Performance?! Bei allen DX10-Titeln können die Sie mit den Geforces mithalten (Ausnahme vielleicht Crysis) oder bieten teils gar bessere Leistungen.

Gast
2008-01-22, 10:36:38
Seit wann haben Radeons eine schlechte DX10-Performance?!


Schon immer gehabt, informier dich doch mal!

Gast
2008-01-22, 10:40:38
Schon immer gehabt, informier dich doch mal!
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/24/#abschnitt_performancerating_qualitaet
Ich sehe da keinen Drop bei DX10-Titeln gegenüber dem DX9-Rating.

Schlammsau
2008-01-22, 11:46:51
Noch ein Review.....
http://forums.vr-zone.com/showthread.php?t=228355

.....ganz klar, das was ich erwartet habe. In Crysis, Lost Planet langsamer aber sonst teils sehr deutlich in Führung, im Vergleich zur 8800 Ultra! :)
Ich würd mal sagen im Schnitt, ist sie so ca. 20-25% schneller als ne Ultra!

http://img3.pconline.com.cn/pconline/0801/21/1210234_R680vs8800U_080120.jpg

[dzp]Viper
2008-01-22, 11:58:33
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/24/#abschnitt_performancerating_qualitaet
Ich sehe da keinen Drop bei DX10-Titeln gegenüber dem DX9-Rating.

Ach und was ist mir hier:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/22/#abschnitt_lost_planet

oder
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/23/#abschnitt_world_in_conflict

oder
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/18/#abschnitt_bioshock

oder
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/20/#abschnitt_company_of_heroes

Bei allen DX10 Benchmarks kann die ATi Radeon HD 3870 nicht mal ansatzweise an einer Nvidia GeForce 8800 GT dranbleiben.
Einzigstes DX10 Spiel wo die HD 3870 ganz vorne mithalten kann ist Call of Juarez...

AnarchX
2008-01-22, 12:01:15
Das Problem sind meist wohl die Softshadows, die von den D3D10-Modis einiger Games zugeschalten werden.
Die kosten viel Z-Fill wovon ATis aktuelle Generation, aber eben relativ wenig hat. (2 Z-Tests pro ROP vs 8 @ NV)

Schlammsau
2008-01-22, 12:02:29
Viper;6213404']Ach und was ist mir hier:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/22/#abschnitt_lost_planet

oder
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/23/#abschnitt_world_in_conflict

oder
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/18/#abschnitt_bioshock

oder
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/20/#abschnitt_company_of_heroes

Bei allen DX10 Benchmarks kann die ATi Radeon HD 3870 nicht mal ansatzweise an einer Nvidia GeForce 8800 GT dranbleiben.
Einzigstes DX10 Spiel wo die HD 3870 ganz vorne mithalten kann ist Call of Juarez...
dann scroll mal weiter runter ;) 4xAA und 16xAF, da siehts wieder anders aus!
Ausser bei Crysis und Lost Planet, steht die 3870, nicht wirklich schlecht da! Auch in DX10 nicht!
Ihr dürft nicht immer Äpfel mit Birnen vergleichen, die ATI kostet im Scnitt auch 50€ weniger!

[dzp]Viper
2008-01-22, 12:04:31
dann scroll mal weiter runter ;) 4xAA und 16xAF, da siehts wieder anders aus!

Ja bei FPS-Zahlen die für fast alle hier unspielbar sind (25-30fps im Average)

Selbst mit 4xAA und 16AF sind ist die HD3870 noch in 3 von 4 Links merklich zurück gegenüber der 8800GT/GTS


Ausser bei Crysis und Lost Planet, steht die 3870, nicht wirklich schlecht da! Auch in DX10 nicht!

Bioshock? 46 vs 60fps
World in Conflict? 34 vs 48fps
Lost Planet? 28 vs 40fps

AnarchX
2008-01-22, 12:04:45
Noch ein Review.....
http://forums.vr-zone.com/showthread.php?t=228355

.....ganz klar, das was ich erwartet habe. In Crysis, Lost Planet langsamer aber sonst teils sehr deutlich in Führung, im Vergleich zur 8800 Ultra! :)
Ich würd mal sagen im Schnitt, ist sie so ca. 20-25% schneller als ne Ultra!

http://img3.pconline.com.cn/pconline/0801/21/1210234_R680vs8800U_080120.jpg

Ja, bei den "gemessenen" FPS... ;)

btw.
Mal ein richtig neues Review:
http://www.fpslabs.com/reviews/video/amd-radeon-hd-3870-x2-review
... mit mehr Karten.
edit: Wobei etwas seltsam.

Gast
2008-01-22, 12:08:15
Das die keine einzelne 3870 gebencht haben... :/

Schlammsau
2008-01-22, 12:09:31
Ja, bei den "gemessenen" FPS... ;)

btw.
Mal ein richtig neues Review:
http://www.fpslabs.com/reviews/video/amd-radeon-hd-3870-x2-review
... mit mehr Karten.
gehts jetzt wieder um die Mikroruckler? Hat jemand von euch die Karte schon? Wenn ja, dann kann man über diese Problematik reden!

2B-Maverick
2008-01-22, 12:10:08
... und die Crysis Scores sind ja wohl ein bissl "daneben"... hmmmm
Ob die da nen uralten Treiber genommen haben?

Schlammsau
2008-01-22, 12:13:06
... und die Crysis Scores sind ja wohl ein bissl "daneben"... hmmmm
Ob die da nen uralten Treiber genommen haben?
jepp, dass sind sie. Als ob beim letzten Review gar kein CF eingeschaltet war!

AnarchX
2008-01-22, 12:19:33
gehts jetzt wieder um die Mikroruckler? Hat jemand von euch die Karte schon? Wenn ja, dann kann man über diese Problematik reden!

Erwartest du Wunder?
Auf diese Problematik ist so oft wie möglich hinzuweisen, sodass beide Hersteller sich endlich ihr annehmen.

Schlammsau
2008-01-22, 12:30:39
ich bestreite ja nicht, dass dieses Problem vorhanden ist! Aber vielleicht ist diese Prob ja bei dieser Karte nicht so "ausgeprägt"! Wir wissen es noch nicht!

deekey777
2008-01-22, 12:37:27
Viper;6213404']Ach und was ist mir hier:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/22/#abschnitt_lost_planet

oder
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/23/#abschnitt_world_in_conflict

oder
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/18/#abschnitt_bioshock

oder
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/20/#abschnitt_company_of_heroes

Bei allen DX10 Benchmarks kann die ATi Radeon HD 3870 nicht mal ansatzweise an einer Nvidia GeForce 8800 GT dranbleiben.
Einzigstes DX10 Spiel wo die HD 3870 ganz vorne mithalten kann ist Call of Juarez...
Da kann man gleich einen Thread samt Umfrage öffnen, welches dieser Spiele am meisten DX10 ist.

Gast
2008-01-22, 13:16:31
VR-Zone und Tweaktown berichten, dass der Launch nun doch wieder erst am 28. sein soll.

Bei Tweaktown gibt es eine interessante Karte zu sehen von GeCube:
- Custom-Kühler
- 4x DVI
http://img167.imageshack.us/img167/1816/newsgec3870x204sfull768ne3.jpg (http://imageshack.us)

http://www.tweaktown.com/news/8837/index.html




was soll das für eine karte den sein ?

Die ist komplett anders, das PCB, Stromanschlüsse und viel Kürzer ???

Gast
2008-01-22, 13:22:33
Erwartest du Wunder?
Auf diese Problematik ist so oft wie möglich hinzuweisen, sodass beide Hersteller sich endlich ihr annehmen.
Naja im Cat 8.1 gibts ein Crysis-Profil und das bringt auch was. Scheint wohl Cat 7.12 zu sein.

BTW sollte der X2 nicht die ersten CrossfireX-Treiber beigelegt werden? Kommen die nun später?

Gast
2008-01-22, 13:29:26
der Hotfix bringt erst die Power in Crysis, udn Xp ist sowieso für die Tonne da rennt CF wirklich richtig scheisse.

schaut hier, im XP hab ich 3x weniger power wie im Vista 64 Bit, alles gleich Treiber, Graka Takt, CPU Takt usw. alles gleich, die MIn FPS schrumpefen von 34 auf 12 im XP.

http://www.abload.de/img/crysishqfn4.jpg (http://www.abload.de/image.php?img=crysishqfn4.jpg)

Gast
2008-01-22, 14:53:19
ja, die Crysis-Performance ist eher enttäuschend


Ab dem cat 8.1 gibt es auch bei Crysis saftige Leistungssteigerungen durch CF. Der Launchtreiber dürfte auch generell noch einige Verbesserungen bringen.

AnarchX
2008-01-23, 07:44:50
VR-Zone hat noch ein paar Infos/Bilder zur X2:
http://www.vr-zone.com/?i=5525
http://www.vr-zone.com/?i=5523
http://www.vr-zone.com/?i=5521

Hmm.... ob das so vernüftig ist die 150W+ ins Gehäuse zu pusten. :|

Gast
2008-01-23, 07:51:26
VR-Zone hat noch ein paar Infos/Bilder zur X2:
http://www.vr-zone.com/?i=5525
http://www.vr-zone.com/?i=5523
http://www.vr-zone.com/?i=5521

Hmm.... ob das so vernüftig ist die 150W+ ins Gehäuse zu pusten. :|

Wer das nicht will kauft eben eine Karte mit Referenzkühler. War ja klar das die Boardpartner dank ein-PCB-Design hier eigene Kühler mit zwei Lüfter verwenden - das kommt bei den Kiddies einfach besser an. Ob es allerdings bei einer 9800GX2 vernünftig ist an die 200W fast gänzlich ins Gehäuse zu pusten darf in der Tat bezweifelt werden.

Gast
2008-01-23, 11:27:36
Hier Fotos aller bis heute bekannten R680-Karten:
http://forums.vr-zone.com/showthread.php?t=228845

GeneralHanno
2008-01-23, 13:06:22
der RV635 und RV620 wurden zwar vorgestellt, aber sie sind nicht verfügbar. der R680 soll in einer woche kommen. dann ist die HD3xxx serie ja komplettiert :D

Gast
2008-01-23, 22:34:12
bald kaufbar und keine Benchmarks :O

Gast
2008-01-23, 22:36:26
dann ist die HD3xxx serie ja komplettiert :D

Und ownen alles :Up

GeneralHanno
2008-01-23, 22:36:39
keine benchmark = keine samples an die tester = keine verfügbaren karten
-> paperlaunch
es wird wohl wie immer sein: erst werden die tester bedient, bevor die verfügbarkeit in den regalen gegeben ist ;)

naja wie sie "owned" sehen wir erst, wenn nvidia auch mit der ganze 9xxx reihe draußen ist ;)

Gast
2008-01-23, 22:41:58
naja beide Serien sind NUR Refreshs der alten Chips.Und ATI muß,um aufzuschließen zu können,etwas mehr Power herbeizaubern als NV.

deekey777
2008-01-23, 23:05:47
http://www.driverheaven.net/news/153389-announcement-amd-x2-review.html
I have had a few emails today asking us where our review is for the new AMD X2 video card. The original NDA was due to break on the 23rd (today), however when we received our press sample, our graphics card analyst Veridian3 found issues which we reported to AMD HQ in Canada. These issues have since been verified and AMD have pushed the NDA date back several days. AMD are in fact working with us on driver issues and are rectifying many of the reports.

Our review will be published whenever we complete testing on the new drivers we are receiving, as we aim to ensure the most accurate and detailed analysis we possibly can for our readers (you guys).

We would like to appauld AMD for their work this week and for the professional attitude they have shown to improve the end users experience.
DH ist also schuld, dass der Lounch verschoben wurde.

LovesuckZ
2008-01-23, 23:32:43
Die werden wohl für die getesteten Spiele schnell neue Profile erstellen...

laser114
2008-01-24, 17:25:14
Neuer Treiber für die 3870 X2:

VR-Zone has learned that Radeon display driver 8.45 v1.3 will improve performance and compatibility on the Radeon HD 3870 X2 over the current 8.45 v1.0 driver. [...]

http://www.vr-zone.com/articles/Radeon_8.45_v1.3_Driver_To_Improve_3870_X2_Performance/5530.html


Und:

One AIB partner told us that there will be more HD 3870 X2 out in the market than HD 3870.
http://www.vr-zone.com/articles/Drivers_Issues_Delay_HD_3870_X2_Launch/5528.html

Das fände ich nun überraschend. ;)

LovesuckZ
2008-01-24, 17:45:29
Sag ich ja: Neue Profile.

J0ph33
2008-01-24, 17:49:40
warum auch nicht?

LovesuckZ
2008-01-24, 17:53:37
warum auch nicht?

Dagegen spricht nichts. Aber das wird eben die Zukunft sein, wenn man Multi-GPU Lösungen haben will.
Finde es nur komisch, dass AMD nicht schon früher reagiert hat - schon bei den 38xx Karten hat Driverheaven die schlechte Unterstützung von Crossfire kritisiert.

laser114
2008-01-24, 17:55:10
Na, in Zukunft muss das aber so ablaufen, dass auch in allen Tests die Treiber genutzt werden. Es ist ja kaum damit zu rechnen, dass alle Reviewer nochmal die Karte den Parcour durchlaufen lassen.

Gast
2008-01-24, 21:46:01
was haltet ihr von den gerüchten über die 3690?
320sp bei nem 128bit SI? ziemliches verramschen von rv670 oder?