PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - 55nm GPUs: R680, RV660, RV635, RV620 - Teil 3 (s. #1!)


Seiten : [1] 2 3

AnarchX
2007-11-15, 10:09:00
Letztes Posting: Teil 1 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5951074#post5951074) Teil 2 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6029018#post6029018)

Diskussion zu HD3850/70:
AMD/ATI - HD 3870/3850: (P)Review-Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?goto=newpost&t=390882)

Bei VR-Zone gibt es nunmal eine andere Roadmap zu sehen:
http://img58.imageshack.us/img58/147/r6801b1857wc1.png
http://www.vr-zone.com/index.php?i=5044
Updates:
RV670 im November

S: Samples
P: Massproduction

- Vermarktung als HD3000-Serie (http://www.vr-zone.com/articles/RV670_is_Radeon_HD_3800_Series/5358.html) mit neuem Bezeichnungsystem für die Leistung

- D3D10.1-Unterstützung(Überblick (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5975185&postcount=205))

-Infos zum PowerPlay der HD3800-Serie (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6011753&postcount=937)


RV670
AMD-Folien (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6008545&postcount=835)

http://img212.imageshack.us/img212/1451/rv6701ay5.jpg

- Vorstellung: 19. November (http://www.digitimes.com/mobos/a20071001PD211.html) nun 15. November (von Pro und XT)

- Die-Size: 194mm² (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5872984#post5872984)

-Transistorzahl: 666M (http://www.tomshardware.com/cn/119,news-119.html)

- mögliche Verbesserungen gegenüber R600
besser aussehender anisotroper Filter schnelleres AA trotz geringer Bandbreite (optimierte Shader-Resolve?)

HD3800-Series Spezifikationen von AMD:
Teil 1 (http://img85.imageshack.us/img85/7650/02rv670specix5.jpg) und Teil 2 (http://img84.imageshack.us/img84/8630/04rv670specfy1.jpg) und Teil 3 (http://img85.imageshack.us/img85/4020/05rv670spechr6.jpg) von THG.tw (http://www.google.com/translate?u=http%3A%2F%2Fwww.tomshardware.tw%2F162%2Cnews-162.html&langpair=zh%7Cen&hl=en&ie=UTF8)

http://img524.imageshack.us/img524/1024/rv670packagezl8.jpg

http://img507.imageshack.us/img507/4599/2007082235a0bdaaa1874c7le2.jpg

HD3870 und 3850 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5951246&postcount=3)

Finale Taktraten?:
HD3870: 775MHz GPU, 1200MHz Speicher
HD3850: 668MHz GPU, 828MHz Speicher (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5991403&postcount=508)

TDP: (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5872984#post5872984)
RV670Pro - Revival:
62W GPU, 104W gesamt

RV670XT - Gladiator:
85W GPU, 132W gesamt
Update: Gladiator 105W, Revival 95W (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6001779&postcount=699)


RV670 Gladiator
http://img404.imageshack.us/img404/8261/rv6ts9.jpg
http://img520.imageshack.us/img520/6329/wcgrv670testrv670b19633er6.jpg
http://img150.imageshack.us/img150/5408/cardao2.jpg

RV670 Revival
http://img521.imageshack.us/img521/1552/rv670revivalak7.jpg
Mehr Bilder @ Coolaler (http://www.coolaler.com/forum/showthread.php?t=163156)

- Volumenproduktion: 25. September (?)

- 2950X2X bzw. HD3870 X2
http://img162.imageshack.us/img162/9602/r680qw6.jpg
http://img405.imageshack.us/img405/2554/atiradeonr680wd9.jpg
http://img101.imageshack.us/img101/3521/file56f4894nn7.jpg
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1195210744

auch bekannt als R670, R680-DDK, bzw. 2x RV680
2x RV670@~750MHz - CF auf einer Karte
ATis "near 1 TFLOP"-Karte
Vorstellung: Q1 2008(frühes)/New Year
210 W TDP
A12 Stepping?


http://img239.imageshack.us/img239/5135/newsgraphicscardmarketfzu2.jpg

andere 55nm R(V)6xx:
http://img166.imageshack.us/img166/5093/r680wt1.jpg
http://www.vr-zone.com/?i=5325

RV635/620 im Januar als Radeon HD 2650 und HD 2500 (http://hkepc.com/?id=110) ->in Engl. (http://www.digitimes.com/news/a20070910PD212.html)

RV635XT?:
http://img231.imageshack.us/img231/6236/rv635xtuw9.jpg

RV620
http://img178.imageshack.us/img178/1473/rv620dpie0.jpg
http://img178.imageshack.us/img178/1415/rv620id1.jpg
http://news.expreview.com/2007-10-19/1192786125d6080.html


"RV620" = ati2mtag_RV610, PCI\VEN_1002&DEV_95C0
"RV620 " = ati2mtag_RV610, PCI\VEN_1002&DEV_95C5
"RV620 " = ati2mtag_RV610, PCI\VEN_1002&DEV_95C7
"RV635" = ati2mtag_RV630, PCI\VEN_1002&DEV_9590
"RV635 " = ati2mtag_RV630, PCI\VEN_1002&DEV_9596
"RV635 " = ati2mtag_RV630, PCI\VEN_1002&DEV_9597
"RV635 " = ati2mtag_RV630, PCI\VEN_1002&DEV_9598
"RV635 " = ati2mtag_RV630, PCI\VEN_1002&DEV_9599
"RV670" = ati2mtag_RV630, PCI\VEN_1002&DEV_9501
"RV670 " = ati2mtag_RV630, PCI\VEN_1002&DEV_9505
"RV670 " = ati2mtag_RV630, PCI\VEN_1002&DEV_9507
"RV670 " = ati2mtag_RV630, PCI\VEN_1002&DEV_9500
"R680" = ati2mtag_RV630, PCI\VEN_1002&DEV_950F

GeneralHanno
2007-11-15, 11:34:54
ich denke den RV660 kann man abhaken! bis auf einer 6 monaten alten folie von vr-zone wurde er nie mehr wirklich erwähnt.

was war der RV560? ein RV570 mit halbem SI und 66% der shader. die 3850 dürfte so günstig (geringe marge?) sein, dass für den RV660 kein platzt mehr wäre.

aus dem RV635 wird wohl die 3650/70 entspringen, vermutlich ein RV630 der auf 55nm geshrikt wurde und werbewirksam um PCIe2.0 und DX10.1 erweiter wird. einführungspreis UVP unter 100$. komplett passiv?

aus dem RV620 wird wohl die 3430/50/70 entspringen. RV615 @ 55nm + PCIe2.0 (macht das bei den kleinen versionen überhaupt sinn, außer werbung?) + DX10.1 . absolutes lowcostprodukt passiv + unter 50$ UVP ?

die 3870 X2 (oder doch 39xx ?) wird wohl im januar gelauncht. der RV635 und RV620 werden wohl bald folgen (sobald die yields im 55nm stimmen)

HOT
2007-11-15, 12:49:30
Ein RV660 ist schlicht nicht nötig, da nimmt man halt RV670er die teildeaktiviert sind. Das schmerzt auch kaum, da er ja nur 192mm² gross ist. Und der RV620 muss ja winzig sein, vielleicht sogar unter 100mm².
Ich finde es sehr gut, dass sich beide Hersteller jetzt auf die Mittelklasse besinnen. Die Zeit der Super-Singlechip-GPUs scheint dem Ende zuzugehen und fand mit den fast-500mm² des G80 seinen Höhepunkt ;).

Gast
2007-11-15, 13:04:13
Ein RV660 ist schlicht nicht nötig, da nimmt man halt RV670er die teildeaktiviert sind. Das schmerzt auch kaum, da er ja nur 192mm² gross ist. Und der RV620 muss ja winzig sein, vielleicht sogar unter 100mm².
Ich finde es sehr gut, dass sich beide Hersteller jetzt auf die Mittelklasse besinnen. Die Zeit der Super-Singlechip-GPUs scheint dem Ende zuzugehen und fand mit den fast-500mm² des G80 seinen Höhepunkt ;).
Was war nochmal ein RV560? ;)

GeneralHanno
2007-11-15, 13:06:27
was war der RV560? ein RV570 mit halbem SI und 66% der shader.

der RV560 war ja eben ein TEILDEAKTIVIERTER RV570 ;)

StefanV
2007-11-15, 13:09:06
Ein RV660 ist schlicht nicht nötig, da nimmt man halt RV670er die teildeaktiviert sind. Das schmerzt auch kaum, da er ja nur 192mm² gross ist. Und der RV620 muss ja winzig sein, vielleicht sogar unter 100mm².
Ich finde es sehr gut, dass sich beide Hersteller jetzt auf die Mittelklasse besinnen. Die Zeit der Super-Singlechip-GPUs scheint dem Ende zuzugehen und fand mit den fast-500mm² des G80 seinen Höhepunkt ;).
Die Entwicklung ist einfach zu teuer, man bekommt kaum was raus und die Fertigung ist sehr problematisch...

Gast
2007-11-15, 15:56:07
Ein RV660 ist schlicht nicht nötig, da nimmt man halt RV670er die teildeaktiviert sind. Das schmerzt auch kaum, da er ja nur 192mm² gross ist. Und der RV620 muss ja winzig sein, vielleicht sogar unter 100mm².
Ich finde es sehr gut, dass sich beide Hersteller jetzt auf die Mittelklasse besinnen. Die Zeit der Super-Singlechip-GPUs scheint dem Ende zuzugehen und fand mit den fast-500mm² des G80 seinen Höhepunkt ;).

Schon RV610 hat nur 82mm² in 65nm, wenn RV620 nur ein Shrink ist, dann kannst du dir denken, wie klein der wird.

reunion

GeneralHanno
2007-11-15, 16:22:55
59mm²

82mm² * (55nm/65nm)^2

laser114
2007-11-15, 16:41:54
Die Die-Größen sind doch schon gar nicht mehr rentabel, oder...?

reunion
2007-11-15, 16:45:45
Die Die-Größen sind doch schon gar nicht mehr rentabel, oder...?

Warum? Mainboardchipsätze sind bsw. auch nicht größer.

up¦²
2007-11-15, 17:37:17
http://www.legitreviews.com/images/reviews/593/ati_radeon_r680.jpg
3870 X2 :smile:
http://www.legitreviews.com/article/593/1/

AnarchX
2007-11-15, 17:44:45
Da scheinen ja die 12" zu stimmen, die ich hörte. Nicht unbedingt für jedes Gehäuse gedacht.

reunion
2007-11-15, 17:44:53
Sehr nett, die Karte ist wirklich kaum länger als eine 8800Ultra und das bei 2 GPUs und 16 Speicherbausteine.

reunion
2007-11-15, 17:46:12
Da scheinen ja die 12" zu stimmen, die ich hörte. Nicht unbedingt für jeden Gehäuse gedacht.

Naja, so viel länger als heute übliche High-End-Karten mit einer GPU ist sie ja nicht:
http://blogofwishes.com/wp-content/uploads/2007/04/nvidia-geforce-8800-ultra1.jpg

Laut meine Augenmaß ist die 8800Ultra vielleicht 2-3cm kürzer.

GeneralHanno
2007-11-15, 17:50:31
sehe ich das richtig: die speicherbausteine sind auf der rüchseite des PCBs verlötet?
klar zu erkennen, dass es sich um 2GPUs in 2 Sockeln handelt.

reunion
2007-11-15, 17:51:38
sehe ich das richtig: die speicherbausteine sind auf der rüchseite des PCBs verlötet?
klar zu erkennen, dass es sich um 2GPUs in 2 Sockeln handelt.

Jeweils vier auf der Vorder- und Rückseite pro GPU.

up¦²
2007-11-15, 18:03:23
Jedenfalls fehlt die riesige PCIe-Switch - oder?

AnarchX
2007-11-15, 18:05:36
Jedenfalls fehlt die riesige PCIe-Switch - oder?

Nein der PLX-Chip soll immernoch vorhanden sein, wie ich hörte.
Ich würde ihn auch zwischen den beiden GPUs vermuten.

dildo4u
2007-11-15, 18:06:23
Laut meine Augenmaß ist die 8800Ultra vielleicht 2-3cm kürzer.
Das Problem ist nur das das GTX/Ultra PCB grad so noch passt in den meisten Gehäusen grad die 2-3cm mher wären vermutlich sher ungünstig.

up¦²
2007-11-15, 18:12:00
Nein der PLX-Chip soll immernoch vorhanden sein, wie ich hörte.
Ich würde ihn auch zwischen den beiden GPUs vermuten.
Ich bin gespannt auf bessere Bilder und wie Ati das gelöst hat...

dildo4u
Übrigens wird wohl an die 3 Löcher am Ende noch ein "Griff" montiert, wie bei der ominösen "OEM", die wohl in der Versenkung verschwunden ist...
http://news.mydrivers.com/img/20070321/S04582133.jpg

w0mbat
2007-11-15, 19:43:43
Mal sehen wie sich die HD3870X2 im Vergleich zu zwei HD3870 @ CF schlägt :)

Gast
2007-11-15, 22:15:56
die karte ist genauso lang wie die GTX.

Ich hab das gleiche Board und ne GTX drin, daher seh ich das :)

reunion
2007-11-15, 22:32:25
dildo4u
Übrigens wird wohl an die 3 Löcher am Ende noch ein "Griff" montiert, wie bei der ominösen "OEM", die wohl in der Versenkung verschwunden ist...
http://news.mydrivers.com/img/20070321/S04582133.jpg

Nein, die Karte ist nicht full-size.

die karte ist genauso lang wie die GTX.

Ich hab das gleiche Board und ne GTX drin, daher seh ich das :)

Gut zu wissen.

up¦²
2007-11-15, 22:48:40
Aha, desto besser!

Die Spannung ist ja nicxht zzum aushalten... :whistle:

Wenn man sich das ansieht:
http://techreport.com/r.x/radeon-hd-3800/ut3.gif
http://techreport.com/articles.x/13603/6
To keep things in perspective, the HD 3850 will run the UT3 demo as smooth as glass at 1920x1200 with these same quality settings, averaging 52 frames per second and hitting a low of 30 FPS.
Da macht sogar eine 3850 X2 Sinn!

2B-Maverick
2007-11-16, 12:27:50
AMD HD3870 X2 im Crossfire als Photo:
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1195210744

AnarchX
2007-11-16, 12:33:05
15% von AMD gegenüber einer Ultra hören sich nicht gerade vielversprechend an, wenn natürlich auch der Preis stimmt.
Aber im Endeffekt könnte NV hier sicherlich gut mit einem vollen G92@~700MHz + 1GiB GDDR4 kontern.

up¦²
2007-11-16, 12:43:43
15% von AMD gegenüber einer Ultra hören sich nicht gerade vielversprechend an, wenn natürlich auch der Preis stimmt.
Aber im Endeffekt könnte NV hier sicherlich gut mit einem vollen G92@~700MHz + 1GiB GDDR4 kontern.
Erwartest du Wunder von 1GiB?
Was spricht dafür?

2B-Maverick
2007-11-16, 12:47:41
Erwartest du Wunder von 1GiB?
Was spricht dafür?

Ich glaube dass denkt er nicht.
Nur hofft er, dass ein G92 auf G80-Ultra Takt plus 15% daherkommt.

Ich glaube aber eher, dass NV auch auf den Multi-GPU Zug aufspringen wird.
Aber obs dass dann für 400€ geben wird?

CU
Markus

AnarchX
2007-11-16, 12:51:18
Erwartest du Wunder von 1GiB?
Was spricht dafür?

Im HighEnd, wo diese Karten definitiv angesiedelt sind, sind nunmal 512MiB mittlerweile zu wenig, wie man an Benches in entsprechenden Settings sieht, und in 2008 wohl erst recht.

Zudem muss man ja bedenken, dass es durch AFR bei Multi-GPU-Setups vorerst bei der Speichermenge bleibt, die einer GPU zur Verfügung steht.


Ich glaube aber eher, dass NV auch auf den Multi-GPU Zug aufspringen wird.
Aber obs dass dann für 400€ geben wird?


Wie schon angedeutet reicht wohl eine Single-G92-Karte um die 3870 X2 zu schlagen, Multi-GPU würde es wohl eher geben um den Enthusiasten $599-999 aus der Tasche zu ziehen.
Aber an Dual-Karten glaube ich wegen Tri-SLI nicht wirklich.

up¦²
2007-11-16, 12:55:04
Nvidia hat doch endlich auch eingesehn, dass weniger manchmal mehr ist.
Allerdings könnte AMD sie "kalt" erwischt haben, wenn Quadro wirklich so gut ist, wie gemunkelt wird.
Intern dürfde also längst bekannt sein, was Fakt ist, sonst hätte sich z.B. Dell niemals auf Ati eingelassen...
Ich denke öfter an die ominösen Worte: green tsunami on the way... :wink:

up¦²
2007-11-16, 12:58:02
Im HighEnd, wo diese Karten definitiv angesiedelt sind, sind nunmal 512MiB mittlerweile zu wenig, wie man an Benches in entsprechenden Settings sieht, und in 2008 wohl erst recht.

Zudem muss man ja bedenken, dass es durch AFR bei Multi-GPU-Setups vorerst bei der Speichermenge bleibt, die einer GPU zur Verfügung steht.



Wie schon angedeutet reicht wohl eine Single-G92-Karte um die 3870 X2 zu schlagen, Multi-GPU würde es wohl eher geben um den Enthusiasten $599-999 aus der Tasche zu ziehen.
Aber an Dual-Karten glaube ich wegen Tri-SLI nicht wirklich.

Schau mal, bei der Reso!
http://techreport.com/r.x/radeon-hd-3800/ut3.gif

AnarchX
2007-11-16, 12:58:38
Allerdings könnte AMD sie "kalt" erwischt haben, wenn Quadro wirklich so gut ist, wie gemunkelt wird.


Eine Skalierung von 3.25 gegenüber Single-GPU und einen effektiven VRAM von nur 512MiB findest du "gut"? :|

Zudem wird Quad-CF sein volles Potential eh nur unter D3D10 liefern können, da unter D3D9 ein Prerenderlimit höher als 3 nachwievor nicht erlaubt ist.

btw.
Fudo hat noch mehr Bilder zur 3870 X2:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4250&Itemid=34
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4251&Itemid=34

up¦²
2007-11-16, 13:09:28
Eine Skalierung von 3.25 gegenüber Single-GPU und einen effektiven VRAM von nur 512MiB findest du "gut"? :|

Zudem wird Quad-CF sein volles Potential eh nur unter D3D10 liefern können, da unter D3D9 ein Prerenderlimit höher als 3 nachwievor nicht erlaubt ist.

btw.
Fudo hat noch mehr Bilder zur 3870 X2:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4250&Itemid=34
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4251&Itemid=34

Ja, so gesehn...
Erwartest du bald 4k x 4k Texturen?

AnarchX
2007-11-16, 13:14:21
Erwartest du bald 4k x 4k Texturen?

Du weißt schon, dass eine Oberfläche heute nicht nur auf einer Textur basiert? ;)

Einfach mal ein paar Benches von Settings anschauen wo eine HighEnd-Karte bzw. mehre von diesen heute eingesetzt werden soll >1680x1050 4xAA/16xAF und man kommt schnell auf den Schluss, dass 512MiB, die es schon seit über 2 Jahren auf HighEnd-Karten gibt nun doch langsam zu wenig sind...

up¦²
2007-11-16, 15:35:57
Schon klar, aber primär gilt es Ruckelorgien zu vermeiden: fps sind Trumpf!

AnarchX
2007-11-16, 15:39:33
Schon klar, aber primär gilt es Ruckelorgien zu vermeiden: fps sind Trumpf!
:|
(Mikro-)Ruckler hat man ja eben gerade, wenn der VRAM zu wenig ist...

Wie du schon sagt wird Q-CF mit tollen Benchmark-FPS-Werten auftrumpfen, aber in der Praxis kommt dann eher die Ernüchterung.;)

up¦²
2007-11-16, 15:46:08
Na warten wir mal ab, wann die erste 1k-er kommt, auch das ist sehr spannend.

nomadhunter
2007-11-18, 15:40:58
Schau mal, bei der Reso!
http://techreport.com/r.x/radeon-hd-3800/ut3.gif
Wobei die Min. fps extrem niedrig sind. Gerade mal auf dem Niveau einer 3870. Hier dürfte der viel zu kleine Speicher zugeschlagen haben.

up¦²
2007-11-18, 20:22:03
According to AMD, the time of big and expensive high-end cards is over, everything is now about scalability. Nvidia is starting to sing the same tune.

It seems that both Nvidia and AMD finally learned that it is far better to create a monster of a mainstream chip that can be scaled with as many GPUs as you want. An eight to-16GPU setup is a possibility for both ATI and Nvidia, but don't think about games here. Think about medical imaging, videowalls and so on).
http://www.theinquirer.net/gb/inquirer/news/2007/11/17/amd-showcases-radeon-hd-3870-x2

Na endlich: weniger ist manchmal eben mehr :smile:

AnarchX
2007-11-18, 20:34:23
Ohne eine vernünftige Multi-GPU-Technologie ist eigentlich alles ab 3 GPUs eher ziemlich sinnfrei und eine solche scheint nicht unbedingt schon am Horizont zu stehen.


Das einzig interessante am INQ-Artikel ist, dass die 3870 X2 wohl auf GDDR3 setzen wird:
http://img164.imageshack.us/img164/1035/r680catalyst02ck7.jpg
Hier war eigentlich mal der gleiche GDDR4 wie bei der 3870 geplant, aber da musste wohl gespart werden um den MSRP von $399 zu erreichen.

GeneralHanno
2007-11-19, 20:50:25
ein bisschen was zum thema HD 3600:
http://www.pcgameshardware.de/?article_id=621863

Nakai
2007-11-19, 20:58:58
Da erwart ich mir aber jetzt schon nen halben oder 3/4-RV670.^^;D

Also mit 160 oder 240 Shadern. ;)

mfg Nakai

laser114
2007-11-19, 21:05:42
Dann würde der Chip aber wohl RV640/660 oder so heißen ... bei RV635 erwarte ich nur einen Shrink plus eventuell die neuen Features die auch der RV670 hat.

Nakai
2007-11-19, 21:34:33
Der Chip wäre dann nochmal 30% kleiner wie der RV630.

Der Chip wäre winzig, aber für Lowend taugts.^^;D

mfg Nakai

laser114
2007-11-19, 21:38:15
Ja, das passt doch. Die 2600 XT gibts doch schon für 75€, die Pro für 60€. Da kann man kleinere Chips gut gebrauchen.

GeneralHanno
2007-11-19, 21:42:12
gerade für HTPCs, office-PCs, passiv-PCs, notebooks ist die karte sicher interessant, auch weil der preis klar unter 100€ liegen dürfte (und die 3400 unter 50€). allerdings im bereich P/L bleibt die 3850 vermutlich sieger!

Gast
2007-11-19, 21:42:22
Was wäre denn jetzt der Vorteil einer HD3870 X2 gegenüber einem HD3870 CF? Ich seh da eigentlich keinen, denn auch die X2 hat ja diese Crossfire Bridge; sprich sie wird nicht anders skalieren.

AnarchX
2007-11-19, 22:32:26
Man kann halt 4 GPUs problemloser verbauen und ist bei 2 GPUs nicht auf ein CF-Board bzw. Board mit 2 PEGs angewiesen. ;)

Gast
2007-11-19, 22:51:16
Was wäre denn jetzt der Vorteil einer HD3870 X2 gegenüber einem HD3870 CF?

Für die User vorallem die Tatsache, das es eventuell auch auf Boards läuft, die nur einen PCIe-Slot haben. Das ist so ziemlich das größte Hinderniss. Außerdem sparst du dir den Kram mit dem Platzbedarf + weitere Erweiterungen und das Netzteil braucht auch keine 2-4 6 Pin-Stecker!

Ich denke irgendwann wird Multi-GPU zum Standard werden. Die Idee dahinter ist ja nicht neu, nur noch nicht ausgereift.

Das Problem an einer 3870X2 sehe ich definitiv in der Kühlung. Da müssen sie aber noch ne Schippe drauflegen um zwei GPUs auf kleinsten Raum unter 100 Grad zu halten. Ganz so leise wie bei der Single-Version wirds wahrscheinlich nicht.

Telema
2007-11-20, 03:02:40
wer 4xCF machen will der braucht woll auch 4 PCI-E Stromstecker. Daher wirds bei mir evtl. mal ein 3870 CF gespann

reunion
2007-11-20, 10:51:17
AMD prepares 55nm HD2400 and HD2600: http://www.theinquirer.net/gb/inquirer/news/2007/11/19/amd-preparing-55nm-hd2400

wuschel12
2007-11-20, 11:02:31
gerade für HTPCs, office-PCs, passiv-PCs, notebooks ist die karte sicher interessant, auch weil der preis klar unter 100€ liegen dürfte (und die 3400 unter 50€). allerdings im bereich P/L bleibt die 3850 vermutlich sieger!

Sehe ich auch so. Falls die HD-Unterstützung sehr gut sein sollte, kommt eine 3400er oder 3600er in mein HTPC rein.

reunion
2007-11-20, 12:17:53
Wie erwartet: RV635 wird die HD3600-Serie: http://www.hkepc.com/?id=371

Der Chip scheint laut HKEPC die selbe Anzahl an Funktionseinheiten wie RV630 bei gleichem Takt zu haben. Also 120SPs, 8 TMUs, 4 ROPs, 128-bit SI bei 800/800 bzw. 600/500. Die Leistung dürfte also weitgehend ident sein. Die zusätzlichen Features von RV670 gibt es natürlich auch hier. Das PCB soll sich unterscheiden, aus PRO und XT wird wieder HD3670/HD3650. Die aktuelle Revision ist A11 und der Chip soll im Januar kommen. Die Die-Größe dürfte bei gut 110mm² liegen, falls nichts eingespart werden konnte.

Mr.Y
2007-11-20, 21:06:20
Schade. Hat doch die HD2600 einen schlechten Stand gegen die 8600 und müsste doch der neue Prozess noch etwas Potential bei den Taktraten freilegen.
Es war abzusehen, dass es nur ein Shrink ist, also keine neuen Shader, etc. verbaut werden, aber am Takt hätte man doch wohl drehen können.
Das wärs doch: Ein Chip mit 1GHz Takt ;) (oder wenigstens 900MHz...)

laser114
2007-11-20, 21:15:03
Naja, der Chip rutscht doch eher in den Low-End-Bereich. Da dürften die Features wie gerade DirectX 10.1 wichtiger sein als 10% Performancevorteil. So nutzt AMD eben die geringeren Produktionskosten.

GeneralHanno
2007-11-20, 21:25:56
außerdem würden so hohe taktraten die ausbeute minimieren -> die karte wird teurer und dann kann man gleich die 3850 kaufen ...

Gast
2007-11-20, 21:49:13
heise spricht:
Doppel-Grafikkarte von AMD (http://www.heise.de/newsticker/meldung/99290)
"Ob sich dann die 2-GPU-Karten auch zu viert im Crossfire-Betrieb kombinieren lassen, verriet AMD noch nicht. Dann würde es jedenfalls sehr eng, denn die gezeigten Prototypen belegen jeweils zwei Slots."
Das gilt doch für vier HD3870 genauso so.

Wie sieht's eigentlich mit Powerplay&CF?

laser114
2007-11-20, 21:58:21
Wie sieht's eigentlich mit Powerplay&CF?

Gute Frage! Gibts dazu noch keinen Test?

Mr.Y
2007-11-20, 22:30:18
Naja, Low-End ist HD2400 und so im Bereich von 80-100 Euro steht NV mit der 8600GT gut dar - ebenso ATI mit der HD2600 Pro/XT. Doch ist es nicht unmöglich, dass nV da nicht vllt. doch noch etwas drauf legen könnte.
Naja, war halt eine insgeheime Hoffnung auf etwas mehr Leistung. So ist die Lücke zwischen 80 Euro HD2600 und 150 Euro HD3850 Leistungsmäßig doch "recht" groß (~ doppelter Preis, ~ dreifache Leistung).

laser114
2007-11-20, 22:32:18
Naja, Low-End ist HD2400 und so im Bereich von 80-100 Euro steht NV mit der 8600GT gut dar

Die 2600 XT ist schon bei 70€ angekommen:
http://geizhals.at/deutschland/a285408.html

Die 2600 Pro (zugegeben ... ist ne übertaktete Version mit GDDR3) gibts schon ab 55€:
http://geizhals.at/deutschland/a263361.html

Da dürfte klar sein, wohin die Reise mit dem RV630 geht.

Nakai
2007-11-20, 22:49:51
Was ich mich frage ist, wie hoch kann man den Rv635 mit 55Nm dann hochtakten.
Der Rv670 zeigt ja, dass Taktraten von 850Mhz oder höher kein Problem darstellen.


mfg Nakai

Gast
2007-11-20, 22:53:10
versteh auch nicht warum amd da nicht etwas am takt dreht
sollte doch dann nen besseres verkaufsargument geben

komisch auch das ein hersteller nen shrink auf nen half-node macht
afaik bisher einmalig, sollte auch nicht grad so viel kleiner werden der chip

laser114
2007-11-20, 23:09:48
komisch auch das ein hersteller nen shrink auf nen half-node macht
afaik bisher einmalig, sollte auch nicht grad so viel kleiner werden der chip

Das sind immer noch 70% Flächenreduktion. Und gab es durchaus schon ... G73b, R430. ;)

deekey777
2007-11-20, 23:14:03
versteh auch nicht warum amd da nicht etwas am takt dreht
sollte doch dann nen besseres verkaufsargument geben

komisch auch das ein hersteller nen shrink auf nen half-node macht
afaik bisher einmalig, sollte auch nicht grad so viel kleiner werden der chip
Damit die Lüfter leise bleiben. Wobei iXBT meint, dass bei der 3850 zu viel des Guten gemacht wurde, und der Lüfter kann per RivaTuner locker mit 30-40 % drehen, ohne dass die Grafikkarte ihre Lautlosigkeit verliert, dafür aber die Temperatur deutlich (~ 60°) sinkt (auch wird berichtet, dass es Samples gibt, wo der Lüfter mit 28-30 % drehen und die GPU nicht über 70° warm wurde.
Bei der 3870 werden bis zu 50 % empfohlen.
AMD bietet nicht umsonst Overdrive an. :)

Mr.Y
2007-11-21, 15:54:33
Die 2600 XT ist schon bei 70€ angekommen:
http://geizhals.at/deutschland/a285408.html

Die 2600 Pro (zugegeben ... ist ne übertaktete Version mit GDDR3) gibts schon ab 55€:
http://geizhals.at/deutschland/a263361.html

Da dürfte klar sein, wohin die Reise mit dem RV630 geht.
Naja, wenn die 2600 bei 70Euro ist, die 3850 bei 150Euro, haben wir eine Lücke von 80 Euro. 80 Euro die viele nicht bereit sind zu zahlen (oder es nicht können).
Ich hätte mir halt eine 100-Euro Alternative gewünscht, die nur auf Basis der 2600 möglich ist. Der RV670 ist zu teuer, am RV635 muss dafür kräftig am Takt gedreht werden.

up¦²
2007-11-21, 23:42:57
Was sagt ihr dazu?
3870 X2 dual RV670 card or Crossfire with four 38x0 cards works with the help of Alternate Frames Rendering magic.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=4326&Itemid=1
Welche Reserven hätte AFR denn?

Skiller_no1
2007-11-21, 23:55:33
wird es in naher Zukunft das auch geben das man Profile erstellen kann wie zB mit dem nhancer ?

Ich würd gern selber entscheiden welche CF Modi ich nehme :)

AnarchX
2007-11-22, 08:26:45
RV620:
http://img339.imageshack.us/img339/1526/rv620corelq9.th.jpg (http://img339.imageshack.us/my.php?image=rv620corelq9.jpg)
= 66.5mm2

RV610 = 78.75mm2

http://www.expreview.com/news/hard/2007-11-22/1195711412d7025.html

Gast
2007-11-22, 08:32:19
wird es in naher Zukunft das auch geben das man Profile erstellen kann wie zB mit dem nhancer ?

Ich würd gern selber entscheiden welche CF Modi ich nehme :)
Du musst wohl mit dem Umbennen der Start-Dateien leben. Von ATI ist diesbezüglich nichts bekannt, dass sie etwas der Art planen.

Gast
2007-11-22, 08:39:15
RV620:
http://img339.imageshack.us/img339/1526/rv620corelq9.th.jpg (http://img339.imageshack.us/my.php?image=rv620corelq9.jpg)
= 66.5mm2

RV610 = 78.75mm2

Lol, das Ding ist ja bestenfalls so groß wie eine Northbridge. RV610 hat aber AFAIK 82mm², der Vollständigkeit halber.

StevenB
2007-11-22, 18:21:17
Ich hab da mal ne frage, ist da schon etwas genaueres bekannt, ob die HD3870 X2 auf in einem NICHT SLI Motherboard laufen wird? (Gigabyte P35 DS3 in meinem fall).

reunion
2007-11-22, 18:23:01
Ich hab da mal ne frage, ist da schon etwas genaueres bekannt, ob die HD3870 X2 auf in einem NICHT SLI Motherboard laufen wird? (Gigabyte P35 DS3 in meinem fall).

Das wird sie.

robbitop
2007-11-22, 20:49:00
Ist denn ein PEG Switch auf dem Teil drauf? Sonst wird das nämlich nix.

Ich persönlich gehe davon aus, sonst wäre der potenzielle Markt gleich viel geringer.

AnarchX
2007-11-22, 20:50:57
Ja, soll wieder die schon bekannte PLX-Bridge verbaut sein.

AnarchX
2007-11-23, 11:16:59
http://img206.imageshack.us/img206/7206/r680174e75ejy4.jpg

AnarchX
2007-11-23, 11:42:45
http://en.expreview.com/?p=50
http://img406.imageshack.us/img406/7645/rv620gpuz8bb590ei9.png


Mit Powerplay werden die RV620-Karten wohl bei <=5W liegen im Idle.

Gast
2007-11-23, 12:33:05
Garantiert nicht, weil selbst das RAM schon >5W braucht.

2B-Maverick
2007-11-23, 12:38:06
Garantiert nicht, weil selbst das RAM schon >5W braucht.

??? woher nimmst du diese Zahlen?

Runtergetaktet auf 250MHz sollte der RAM ja net mehr alzu viel brauchen.

AnarchX
2007-11-23, 12:45:28
Garantiert nicht, weil selbst das RAM schon >5W braucht.

Der DDR2 auf dieser Karte sollte irgendwo bei <=0.5W pro Modul liegen, selbst die 2400XT mit 800MHz GDDR3 liegt ja schon bei nur ~7W Idle. ;)

Gast
2007-11-23, 12:48:02
Du kannst aber DDR2 nicht mit GDDR3 vergleichen.

StevenB
2007-11-23, 12:51:15
Du kannst aber DDR2 nicht mit GDDR3 vergleichen.

Doch! Kann man! Und ich mach das jetzt auch! :D

DDR2 1.8V
GDDR3 1.8V

2B-Maverick
2007-11-23, 12:52:06
Du kannst aber DDR2 nicht mit GDDR3 vergleichen.

Genau, wenn schon dann verbraucht GDDR3 bei gleichem Takt weniger als DDR2 :)

Gast
2007-11-23, 13:04:04
http://img206.imageshack.us/img206/7206/r680174e75ejy4.jpg

Die Karte ist nicht wirklich länger als eine 8800GTX/U, schon beachtlich bei 2 GPUs und 1GB VRAM an zwei 256-bit SIs. Full-Size ist 12.5" oder 31.75cm AFAIK und eine 8800U/GTX hat 28cm. Um diese 3.75cm dürfte das Blech die Karte ungefähr verlängern.

AnarchX
2007-11-23, 13:06:30
Nochmal zum Speicherverbrauch:
http://img341.imageshack.us/img341/730/tdpuq2.jpg

2.0ns DDR2 liegt bei 0.8W "TDP", was dann bei 4 Modulen 3.2W TDP bedeuten würde.

Ich sehe absolut kein Problem warum man im "Idle" nicht unter 5W liegen sollte.

Gast
2007-11-23, 13:58:47
2.0ns DDR2 liegt bei 0.8W "TDP",


Oder bei "TBD" TDP wenn du mal 3 Zeilen darüber schaust.;)

reunion
2007-11-23, 16:17:09
Oder bei "TBD" TDP wenn du mal 3 Zeilen darüber schaust.;)

Selbst eine 2400XT verbraucht nur 7W idle bei 700MHZ GPU Takt und 800MHZ Speichertakt (wobei ich nicht weiß ob, bzw. wieweit sich die Karte heruntertaktet). Eine 3400 sollte dank 55nm und Powerplay doch unter 5W liegen.

Mr.Y
2007-11-23, 17:26:54
Wow. Powerplay in die Desktop-Modelle aufzunehmen ist DIE Neuerung des Jahres 2007. Endlich nicht so zaghafte Untertaktungen wie bei den X1900-Modellen, sondern so, dass es sich auch richtig lohnt.
Hätte ATI noch ein absolutes High-End Modell, wären sie meiner Meinung nach mit der HD3000-Serie perfekt aufgestellt. (Bis auf die angesprochene Lücke bei 100-120 Euro.)

GeneralHanno
2007-11-23, 17:37:38
High-end kommt ja als X2 im Q1/08
Für den Preisbereich 120€ wird wohl in ca. 2-3 Monaten die 3830 (früher GT^^) mit 240SP und 256MiB Vram kommen ...

AnarchX
2007-11-23, 17:50:41
HD3830 ist laut AMD OEM-only, was auch nicht verkehrt ist, da ja der 100-200€ Bereich mit 3850 256/512 und 3870 (Lite-Retail) gut ausgefüllt ist.

Die 3830 sollte aber eigentlich auch auf einen vollen RV670 setzten.

Nakai
2007-11-23, 18:19:08
Was ich mich immer noch Frage ist, wieso benötigt man noch nen Rv635, wenn der Rv670 schon die Größe von nem Mainstreamchip hat.

Mag sein, dass das PCB des Rv670 einfach zu komplex ist, jedoch sollte man da noch etwas machen können und ne richtig abgespeckte Version zu bringen.


mfg Nakai

AnarchX
2007-11-23, 18:24:59
Was ich mich immer noch Frage ist, wieso benötigt man noch nen Rv635, wenn der Rv670 schon die Größe von nem Mainstreamchip hat.

Mag sein, dass das PCB des Rv670 einfach zu komplex ist, jedoch sollte man da noch etwas machen können und ne richtig abgespeckte Version zu bringen.


256Bit+200mm² und die daraus resultierenden Kosten sind wohl doch noch zuviel für die meisten OEM-PCs mit "etwas stärkerer" GraKa.

G73 wurde AFAIK auch für die OEMs erst richtig interessant als ihn NV auf 80nm und eben ~100mm² geshrinkt hatte.

laser114
2007-11-23, 18:25:30
Schau dir doch mal an, wo bereits jetzt der RV630 wildert, die Pro ist ab 55€ und die 2600 XT ab 70€ zu haben. Sowas unterstützt man nicht durch nen 192 mm^2 Chip, bei geschätzten Dies mit einer Größe von unter 110 mm^2 für den RV635 ist der Einfach eine deutliche Nummer kleiner.

Nakai
2007-11-23, 18:43:54
256Bit+200mm² und die daraus resultierenden Kosten sind wohl doch noch zuviel für die meisten OEM-PCs mit "etwas stärkerer" GraKa.

Ein beschnittener Rv670 sollte sich ohne Probleme auf einem billigeren PCB unterbringen können.
(128Bit SI, weniger teuere Bauteile...)

Der RV635 ist wieder einfach nurn kleinerer RV630. Der Mainstream und Midrange ist seit RV670 und G92 deutlich nach oben verschoben worden.

mfg Nakai

laser114
2007-11-23, 18:47:27
Ich denke da senkt man lieber noch die Preise für die 3850, um dem Mainstream mehr zu bieten. ;)

Nakai
2007-11-23, 18:50:39
Ich denke da senkt man lieber noch die Preise für die 3850, um dem Mainstream mehr zu bieten.

Nur das die HD3850 eben nun der Midrange ist. Ein Rv635 macht da für mich nicht mehr soviel Sinn. Er wäre dann schon das Mainstream oder Lowend.

mfg Nakai

w0mbat
2007-11-23, 18:50:49
@laser114: Machen sie doch auch bald.

laser114
2007-11-23, 19:23:07
Nur das die HD3850 eben nun der Midrange ist. Ein Rv635 macht da für mich nicht mehr soviel Sinn. Er wäre dann schon das Mainstream oder Lowend.

Dahin wird man wohl auch zielen, mit Preisen ab rund 50€, denke ich. Der RV620 wird dann zum absoluten Spottpreis rausgehen und die günstigsten Grafikkarten im Preis drücken, was sicherlich den OEMs gefallen wird.

AnarchX
2007-11-27, 11:26:40
RV620 got a nice score in 3DMark06 (http://en.expreview.com/?p=56)

[...]
Comparing to HD 2400 Pro, RV620 got a score 35% higher in the same frequency. That means the architecture are improved.

Try compare to NVIDIA’s G98: G98 got 1236 in 3DMark06. So bandle with UVD, HDMI and DisplayPort, i think RV620 will be a nice low end/HTPC card.

Vielleicht doch noch ein zusätzliches SIMD, also 60 statt 40 SPs?
Was erklären könnte, warum es ein RV620 und kein RV615 ist...

deekey777
2007-11-27, 14:19:15
Toshiba to launch new laptop featuring ATI Radeon HD 3800 graphic card (http://aving.net/usa/news/default.asp?mode=read&c_num=66315&C_Code=02&SP_Num=0)

:)

Nakai
2007-11-27, 18:20:06
Toshiba to launch new laptop featuring ATI Radeon HD 3800 graphic card (http://aving.net/usa/news/default.asp?mode=read&c_num=66315&C_Code=02&SP_Num=0)

:)

Woah...nice.=)

Naja hoffentlich nicht zu sehr beschnitten die HD3800 die drin is.


mfg Nakai

reunion
2007-11-27, 18:29:56
RV620 got a nice score in 3DMark06 (http://en.expreview.com/?p=56)



Vielleicht doch noch ein zusätzliches SIMD, also 60 statt 40 SPs?
Was erklären könnte, warum es ein RV620 und kein RV615 ist...

War zu erwarten bei einer Die-Size von 67mm². Ein Shrink hätte deutlich unter 60mm² liegen müssen.

laser114
2007-11-27, 18:35:26
Welchen Sinn hat dann noch der RV635?

reunion
2007-11-27, 18:38:51
Welchen Sinn hat dann noch der RV635?

RV630 (und vermutlich auch RV635) hat noch immer mehr als doppelt so viele ALUs (120 an der Zahl) plus 8 TMUs und ein 128-bit SI. Für Leute die zumindest gelegentlich Spielen wollen die deutlich bessere Wahl für wohl um die 100$.

PCGH_Carsten
2007-11-27, 19:45:53
War zu erwarten bei einer Die-Size von 67mm². Ein Shrink hätte deutlich unter 60mm² liegen müssen.

D3D10.1 kostet ;)...
Der RV670 hätte auch unter 190mm² liegen müssen.

laser114
2007-11-27, 20:21:53
Wieviel braucht man durch das Speicherinterface?

408 mm² * (55²/80²) = 193 mm² ... fast exakt der Die des RV670 (192 mm²)

Dafür gilt wohl:

256 Bit = UVD + D3D10.1 + Shrink-Variable

Soviel kann das nicht sein...

reunion
2007-11-27, 20:22:20
D3D10.1 kostet ;)...
Der RV670 hätte auch unter 190mm² liegen müssen.

Von R600 ausgehend hätte RV670 sogar größer sein müssen (420 x 55²/80² = 198.5). Klar wurde das SI halbiert, aber es sind weiter 8 SC vorhanden und einen perfekten Shrink gibt es ja in der Realität auch nicht. Zudem hat RV670 noch den UVD. Ich wage zu bezweifeln das R600 nicht ebenfalls D3D10.1-fähig wäre, wenn AMD eine Treiberunterstützung anbieten würde. IMO eine rein taktische Maßnahme um die neue Generation zumindest halbwegs zu rechtfertigen. Oder was fehlt denn bitte einem R600 für D3D10.1? Selbst AMD nennt keine konkreten Verbesserungen, sondern beruft sich nur auf die offiziellen Specs.

PCGH_Carsten
2007-11-28, 09:00:50
Von R600 ausgehend hätte RV670 sogar größer sein müssen (420 x 55²/80² = 198.5). Klar wurde das SI halbiert, aber es sind weiter 8 SC vorhanden und einen perfekten Shrink gibt es ja in der Realität auch nicht. Zudem hat RV670 noch den UVD. Ich wage zu bezweifeln das R600 nicht ebenfalls D3D10.1-fähig wäre, wenn AMD eine Treiberunterstützung anbieten würde. IMO eine rein taktische Maßnahme um die neue Generation zumindest halbwegs zu rechtfertigen. Oder was fehlt denn bitte einem R600 für D3D10.1? Selbst AMD nennt keine konkreten Verbesserungen, sondern beruft sich nur auf die offiziellen Specs.

666/720=0,925
(55x55)/(80x80)=0,47265625

0,47265625*0,925=0,43720703125

420*0,43720703125=~183,6

Gast
2007-11-28, 09:10:11
666/720=0,925
(55x55)/(80x80)=0,47265625

0,47265625*0,925=0,43720703125

420*0,43720703125=~183,6

Das ist natürlich ein berechtigter Einwand. Wie schon gesagt, einen perfekten Shrink gibt es nunmal nicht, aber 192mm² liegt ja nicht wirklich weit darüber. Nur wenn du schon mit der Transistorenanzahl kommst, dann frage ich mich wo da jetzt die D3D10.1-/UVD-Transistoren geblieben sind? Aber ist natürlich schwer zu beurteilen, da man nicht weiß, wieviel Redundanz AMD konkret einsparen könnte.

reunion

Henroldus
2007-11-28, 09:22:37
ihr könnt doch nicht einfach von der Transistoranzahl auf die Fläche schliessen, das ist sehr ungenau.
Cache(der zugegebenermaßen kaum vorhanden ist auf GPUs) z.B. kann viel dichter gepackt werden.
Aber auch die Logikgatter belegen bei gleicher transistorzahl unterschiedlich viel platz.

PCGH_Carsten
2007-11-28, 15:28:01
Das ist natürlich ein berechtigter Einwand. Wie schon gesagt, einen perfekten Shrink gibt es nunmal nicht, aber 192mm² liegt ja nicht wirklich weit darüber. Nur wenn du schon mit der Transistorenanzahl kommst, dann frage ich mich wo da jetzt die D3D10.1-/UVD-Transistoren geblieben sind? Aber ist natürlich schwer zu beurteilen, da man nicht weiß, wieviel Redundanz AMD konkret einsparen könnte.

reunion
Richtig, daher zweifle ich auch an etwas "größerem" im RV620, wie einem weiteren SIMD. Im Gegenteil denke ich, dass man sich je kleiner der Chip wird immer weiter vom idealen Shrink entfernt.

BlackBirdSR
2007-11-28, 16:52:09
Richtig, daher zweifle ich auch an etwas "größerem" im RV620, wie einem weiteren SIMD. Im Gegenteil denke ich, dass man sich je kleiner der Chip wird immer weiter vom idealen Shrink entfernt.

Folgert sich ja schon aus dem Platzbedarf der Anschlusspads und thermischen Gesichtspunkten.

Gast
2007-11-29, 13:07:55
Folgert sich ja schon aus dem Platzbedarf der Anschlusspads und thermischen Gesichtspunkten.
Scheint aber nicht jeder so zu sehen:
War zu erwarten bei einer Die-Size von 67mm². Ein Shrink hätte deutlich unter 60mm² liegen müssen.

PCGH_Carsten

Gast
2007-11-30, 15:27:29
Folgert sich ja schon aus dem Platzbedarf der Anschlusspads und thermischen Gesichtspunkten.
Ich hab das schon öfter mal gefragt, aber warum werden die gpu's nur einseitig gekühlt?

Nichtleitende keramische Kühlpasten könnten sehr wohl eine "Wärmebrücke" von hinten bilden (eigenntlich quasi "allseitig", wenigstens zu Kühlrippen oder elegant mit Röhrchen usw.
Man könnte sie quasi damit einbetten und ALLSEITIG optimal kühlen:
... ünd hätte locker mehr als 100% Fläche zum Wärmetransver...
up

up¦²
2007-12-06, 22:58:31
RV635 XT mit DisplayPort
http://www.hothardware.com/News/DisplayPort_Cards_Coming_AMDs_RV635_Unveiled/

horn 12
2007-12-10, 20:15:50
http://www.gamestar.de/news/hardware/amd/1476119/amd.html
:confused:

Könnte dies was mit der X² 3870 zu tun haben, dass diese heute vorgestellt wird und im Jänner verfügbar oder gar noch vor dem 24.12.07?
Wäre wohl eine Super Alternative zur G92 GTS 512MB

laser114
2007-12-10, 21:20:56
Das was damit gemeint war die Vorstellung der ATI Fire GL V8650 (2 GiB Speicher):
http://ati.amd.com/products/fireglv8650/index.html

horn 12
2007-12-11, 22:46:31
ja, aber doch recht enttäuschend gestern dann!! :mad:
Meinte schon neues High End oder die X² 3870

Aber zum Topic.
Nun musste ATI schnell reagieren und am Treiber immens feilen
und sofort die X² 3870 bringen.
Noch zum Weihnachtsgeschäft, ab nä. Woche (sehr unrealistisch, aber wäre oho! oder sehr bald nach Neujahr (wahrscheinlicher.)
Und jene müssten sie gut verfügbar bringen, um einen Preis von 300bsi 320 Euro.:eek:
Diese dürfte der GTX GTS G92 / ULTRA dann wohl meistens gar etwas überlegen sein, wenn sie dies mit der breiten Verfügbarkeit von CF Unterstützung und vor allem des Treibers hinbekommen sollten.
Dann würde ein Erneuter Preiskampf beginnen und die Karten würden wie noch nie über die Ladentische wandern.:cool:
Bis der G90 im Februar/ R700 die Karten komplett NEU mischt.

2B-Maverick
2007-12-11, 23:34:05
Also ich meine, dass ATI lieber nen Monat länger mit der X2 warten soll. Hauptsache es gibt kein Launch-Fiasko mit schlechten CF-Treibern. Dann ist die X2-Serie nämlich auf immer und ewig den Bach runter......
Und das momentane System mit den .exe-Umbenennungen ist doch echt krank....

PS: auf meine 3870 warte ich wohl auch noch nen Monat wies' ausschaut.. hmpf ;(

puntarenas
2007-12-12, 01:48:20
Also ich meine, dass ATI lieber nen Monat länger mit der X2 warten soll. Hauptsache es gibt kein Launch-Fiasko mit schlechten CF-Treibern.
Warum packt AMD eigentlich nicht möglichst viele Einstellmöglichkeiten für CF in die Registry zu den anderen Einstellungsmöglichkeiten? Gibt es technische Hürden oder möglicherweise ein Patentminenfeld dem man sich preisgäbe?

Mir ist das jedenfalls nicht schlüßig, SLI wird durch die Möglichkeit, eigene Profile zu erstellen ja wesentlich nützlicher wie man liest. Auf jeden Fall denke ich auch, dass die Releasebenchmarks bei der Dualkarte überzeugen müssen.

reunion
2007-12-15, 14:50:42
Ein paar Pics einer HD3650/RV635-Karte:
http://en.expreview.com/?p=113

reunion
2007-12-16, 10:30:20
Na das nenne ich mal eine komplexe Platine:

http://www.expreview.com/img/news/2007/12/16/3.jpg
http://www.expreview.com/img/news/2007/12/16/4.jpg
http://www.expreview.com/img/news/2007/12/16/1.jpg
http://www.expreview.com/img/news/2007/12/16/2.jpg

http://en.expreview.com/?p=115

AnarchX
2007-12-16, 10:36:27
Na das nenne ich mal eine komplexe Platine:


Weshalb wohl auch mal ein MSRP von $799 geplant war.

Mal sehen was nun für Speicher zum Einsatz kommt, hier wird wieder etwas von GDDR4 geschrieben, aber die Samples hatten ja GDDR3 und ich kann mir nicht vorstellen, warum man hier anderen, pininkompatiblen Speicher verwenden sollte.

Mal sehen was ATi draus macht, theoretisch könnten sie wiedermal die Krone an sich reißen nach fast 2 Jahren, jedenfalls erstmal kurzzeitig, da ja die X2 Ende Januar kommen sollen und NVs Pondon erst im März.

reunion
2007-12-16, 10:53:51
Weshalb wohl auch mal ein MSRP von $799 geplant war.

Wenn man eine 3870 um 229$ verkaufen kann, sollte so was auch für 399-499$ möglich sein. Aber mehr ist natürlich für den Hersteller immer schöner.


Mal sehen was nun für Speicher zum Einsatz kommt, hier wird wieder etwas von GDDR4 geschrieben, aber die Samples hatten ja GDDR3 und ich kann mir nicht vorstellen, warum man hier anderen, pininkompatiblen Speicher verwenden sollte.

Mal sehen was ATi draus macht, theoretisch könnten sie wiedermal die Krone an sich reißen nach fast 2 Jahren, jedenfalls erstmal kurzzeitig, da ja die X2 Ende Januar kommen sollen und NVs Pondon erst im März.

Ich denke der Speicher spielt keine große Rolle. Bei meiner 3870 ist es fast egal, wie hoch der Speicher taktet. Man wird wohl das nehmen, was am billigsten ist, und das wird nach Lage der Dinge wohl GDDR3 sein. Was die Krone betrifft so hängt vieles von den Treibern ab, aber unter normalen Umständen sollte eine 8800U zu schlagen sein. /Edit: Habe mir jetzt gerade Benchs eines CF-Systems gesucht, eine 8800U sollte doch locker zu schlagen sein. Selbst mit den Launchtreibern liegt hier ein 2900XT CF-System deutlich vor eine 8800U.

AnarchX
2007-12-16, 10:59:50
Wenn man eine 3870 um 229$ verkaufen kann, sollte so was auch für 399-499$ möglich sein.

Aber es sind ja nicht nur zwei 3870, sondern ein hochkomplexes PCB mit zusätzlicher PCIe-Bridge und einiges an RnD.
Aber natürlich wird man wohl hier kein Minus machen...

reunion
2007-12-16, 11:14:38
Aber es sind ja nicht nur zwei 3870, sondern ein hochkomplexes PCB mit zusätzlicher PCIe-Bridge und einiges an RnD.
Aber natürlich wird man wohl hier kein Minus machen...

Naja, zwei 3870-Platinen kommen zumindest bei den Bauteilen aufs gleiche hinaus, vielleicht hat man sogar gewissen Konvergenzen, sodass man manche Bauteile nur einmal verbauen muss. Klar, die PCIe-Bridge kostet etwas. Aber sonst? Gerade die R&D-Kosten einer solchen Karte liegen nahe bei der null. Man braucht nur eine andere Platine, mehr nicht. Alles andere ist schon vorhanden.

Nakai
2007-12-16, 12:02:14
Aua! Der Lüfter sieht laut aus...ähnlich dem R600...


mfg Nakai

reunion
2007-12-16, 12:23:31
Aua! Der Lüfter sieht laut aus...ähnlich dem R600...


mfg Nakai

Wie ich Leute liebe, die noch immer glauben die Lautstärke eines Lüfters anhand des Aussehens beurteilen zu können. Wie bei jedem anderen Lüfter ist auch hier hauptsächlich die Drehzahl entscheidend. Sämtliche G80-Karten und die neue G92-GTS haben einen Lüfter, der nachdem selben Prinzip arbeitet und nicht laut ist.

Gast
2007-12-16, 12:33:14
vielleicht eine blöde Frage: was ist das denn für ein Chip zwischen den zwi GPUs?

2B-Maverick
2007-12-16, 12:34:59
vielleicht eine blöde Frage: was ist das denn für ein Chip zwischen den zwi GPUs?

PLX PCI-Express Bridge

crux2005
2007-12-16, 12:35:00
vielleicht eine blöde Frage: was ist das denn für ein Chip zwischen den zwi GPUs?

PLX (http://www.plxtech.com/products/) chip

reunion
2007-12-16, 12:35:16
vielleicht eine blöde Frage: was ist das denn für ein Chip zwischen den zwi GPUs?

Eine PCie-Bridge mit 48 Lanes. Einmal 16 für den Bus, und zweimal 16 für die zwei Chips. Dadurch kann man die Karte auch auf Boards ohne Crossfire-Unterstützung betreiben.

Gast
2007-12-16, 12:42:00
interessant.... kann man also als eine Hardwarelösung Crossfire sprechen?
Gab's sowas schon mal?... also wurde bei der x2 hd2600xt gemini noch auf die Softwarelösung, wenn man das so nennen kann, zurückgegriefen?
Kann man dadurch eine bessere Effizienz erwarten durch kürzere Signalwege etc.?
Ansonsten bin ich mal auf die Wasserkühler gespannt.....^^
Nochwas: was verbraucht der PCI-E Chip denn so? Reicht da eine Passive kühlung?

Gast
2007-12-16, 12:43:38
interessant.... kann man also als eine Hardwarelösung Crossfire sprechen?
Gab's sowas schon mal?... also wurde bei der x2 hd2600xt gemini noch auf die Softwarelösung, wenn man das so nennen kann, zurückgegriefen?
Kann man dadurch eine bessere Effizienz erwarten durch kürzere Signalwege etc.?
Ansonsten bin ich mal auf die Wasserkühler gespannt.....^^
Nochwas: was verbraucht der PCI-E Chip denn so? Reicht da eine Passive kühlung?

ah 4,9Watt habe ich rausgefunden.... sollte also passiv möglich sein.

deekey777
2007-12-16, 12:52:07
Bisher haben alle Radeons mit zwei Grafikkernen auf einer Platine den PLX-Chip verwendet, somit war auch die HD2600 Gemini "Hardware-CF".

Majestic
2007-12-16, 12:58:12
Na das nenne ich mal eine komplexe Platine:

http://www.expreview.com/img/news/2007/12/16/3.jpg
http://www.expreview.com/img/news/2007/12/16/4.jpg
http://www.expreview.com/img/news/2007/12/16/1.jpg
http://www.expreview.com/img/news/2007/12/16/2.jpg

http://en.expreview.com/?p=115

Bin ich blind?:confused: Wo ist denn der Speicher auf dem Board? Vorder- und Rückseite haben doch keine Speicherchips, oder?

Gast
2007-12-16, 12:59:26
ne glaube nicht, dass du blind bist... aber man kann erkennen, wo die chips mal hin sollen.

Majestic
2007-12-16, 13:01:27
ne glaube nicht, dass du blind bist... aber man kann erkennen, wo die chips mal hin sollen.

Hmm vielleicht die TC Version? DDR-2 ist doch gerade so billig...;)

Nakai
2007-12-16, 13:08:18
Wie ich Leute liebe, die noch immer glauben die Lautstärke eines Lüfters anhand des Aussehens beurteilen zu können. Wie bei jedem anderen Lüfter ist auch hier hauptsächlich die Drehzahl entscheidend. Sämtliche G80-Karten und die neue G92-GTS haben einen Lüfter, der nachdem selben Prinzip arbeitet und nicht laut ist.

Natürlich ist das so.
Nur leider muss man sagen, dass der Lüfter im Vergleich zum Lufttunnel sehr groß ist. Dadurch wird ein hoher Luftdruck aufgebaut, was auch nötig ist um die Luft durch 2 Kühlkörper durchzupressen. Ebenso ist der Lufttunnel total abgedichtet, d.h. die Luft wird nur durch den Lufttunnel aus dem Slotblech gepresst.
---> Verwirbelungen
---> Wird wohl unter Last nicht leise sein.

Wenn ATI keinen leiseren Lüfter benutzt, wird das wieder eine laute Karte alá R600.


mfg Nakai

Godmode
2007-12-16, 13:09:02
Ist das oben links der CF-Connector, wenn ja dürfte also auch Quad-CF möglich sein?

deekey777
2007-12-16, 13:13:42
Ist das oben links der CF-Connector, wenn ja dürfte also auch Quad-CF möglich sein?
Wieso dürfte? =)
http://www.legitreviews.com/images/reviews/593/ati_radeon_r680.jpg

Interessant wäre, ob man eine weitere gewöhnliche HD 3870 dazu gesellen könnte (Triple-CF).

AnarchX
2007-12-16, 13:19:56
Interessant wäre, ob man eine weitere gewöhnliche HD 3870 dazu gesellen könnte (Triple-CF).
Warum sollte dies nicht funktionieren?

Gmax
2007-12-16, 13:43:24
Eine PCie-Bridge mit 48 Lanes. Einmal 16 für den Bus, und zweimal 16 für die zwei Chips. Dadurch kann man die Karte auch auf Boards ohne Crossfire-Unterstützung betreiben.

Ohne CF? Find ich gut :smile:

Gast
2007-12-16, 16:52:51
Was ist wenn ein Spiel kein xFire unterstüzt wird dann nur 1 gpu aktiv

oder ist das eine grafikkarte die dann schneller ist als ultra

Gast
2007-12-16, 18:36:19
Auf den Treiberprogramieren liegt viel Verantwortung, da auf der HD3870 X2 praktisch CF intern auf einer Karte ist. Das heißt wenn der Treiber für ein bestimmtes Spiel kein CF unterstützt, ist nur eine GPU aktiv.

Wenn CF funktioniert und skaliert, schlägt die HD3870 X2 die 8800 Ultra.

Adam D.
2007-12-16, 18:41:18
Nach den letzten Tests von Crossfire, skaliert die 3870 ja hervorragend. Deshalb würd ich mir da jetzt keine allzu großen Sorgen machen.

horn 12
2007-12-16, 18:57:05
Muss nur noch dann der Preis stimmen!
Als vorübergehendes HighEnd Monster zum Genialen Preis von 319 Euro und das Ding geht weg wie warme Semmel.
Da wird die NV- GX2 zu knabbern haben und dies nicht zu gering.

Adam D.
2007-12-16, 18:58:58
319€? Niemals. Das kann sich nicht mal ATi leisten. Unter 349$ geht nix und selbst das halte ich für fast unrealistisch. Und was die GX2 da groß dran zu knabbern haben sollte, wird mir auch nicht ganz klar. Wenn die Skalierung noch etwas auf Vordermann gebracht wird, ist sie klar schneller - so wie die 8800GT klar schneller als die HD3870 ist.

HOT
2007-12-16, 19:14:25
Angeblich soll der R680 im CF Mode (also 2 R680) AFR beherrschen. Keine Ahnung wie die das machen...

Gast
2007-12-16, 19:50:47
Was ist AFR? Was hat das für Vorteile?

Gaestle
2007-12-16, 23:40:56
Würde man mit dieser (Hardware-)Art von CF im Treiber besondere Profile benötigen, oder verhält sich das Ding der Software/dem Treiber gegenüber wie ein Chip?

robbitop
2007-12-16, 23:45:50
Das Teil ist doch nur ne PEG Bridge. Damit beide Chips an einem PCIe Slot angeschlossen sind. Das funktioniert genauso als wären es 2 Karten.
Das ganze wurde bei der GF 7950GX2 schonmal so gemacht.

Für AGP gab es auch mal solche Lösungen mit einer AGP Bridge.

deekey777
2007-12-16, 23:55:22
Würde man mit dieser (Hardware-)Art von CF im Treiber besondere Profile benötigen, oder verhält sich das Ding der Software/dem Treiber gegenüber wie ein Chip?
Test: Sapphire Radeon HD 2600 XT X2
Sapphire setzt auf doppelte Kraft (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/)

Und genau so bleibt es bei der HD3870X2: zwei eigenständige Grafikkarten auf einer.
Es ist aber immernoch ärgelich, dass ATi bzw. jetzt AMD nicht gebacken kriegen, eine eigene PCIe-Bridge zu entwickeln.

Warum sollte dies nicht funktionieren?
Da fallen mir einige Gründe ein. Für User sehr unverständliche Gründe. ;(

up¦²
2007-12-17, 00:29:53
Die PCI-Bridgefunktion muß doch im Chipsatz zu integrieren sein :mad:
Wollte AMD etwa niemend ausschließen, die lieben Kollegen von Nvidia z.B. oder gar Intel?
Hatte eigentlich Hoffnungen ... :|

Gast
2007-12-17, 00:48:55
Das Teil ist keine herkömmliche CF Combo, sondern die beiden Chips teilen sich die Speicherinterfaces über einen Ringbus. Das erhöht die Effizienz enorm. Man braucht z.B. keine redundante Datenhaltung wie bei SLI. Eine R680 Karte mit 2 Chips hat also wirklich 1024MB RAM und nicht 2x 512MB, so wie eine GX2 z.B.
Vor Weihnachten wird das allerdings nicht mehr. Die jetzigen R670 Chips der Rev.A11 sind nicht für den R680 geeignet, man benötigt die Rev.A12. Die kommt aber erst so gegen Februar.
Ansonsten sollte die Karte in Sachen Stromverbrauch auf dem Niveau eines R600 /G80 Ultra liegen. Ist also grad noch so vertretbar bei dem Leistungsniveau. Mal sehen, was der D9E dagegen macht, der soll ja ebenfalls aus 2 D9P bestehen, also eine ähnliche Konstruktion bieten ;).
Quelle ist Beitrag 27 von "HOT" im CB-Forum:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/dezember/weitere_bilder_r680-karte_netz/

Okay, möglicherweise eine wenig belastbare Quelle, aber könnte am gemeinsamen Speicherzugriff über Ringbus was dran sein?

LovesuckZ
2007-12-17, 00:54:20
Damit würde sich jedoch aus meiner Laiensicht nicht mehr die Speicherbandbreite erhöhen, wenn sie sich den gleichen BUS teilen würden.

Gast
2007-12-17, 00:56:10
512Bit mit GDDR4?

robbitop
2007-12-17, 02:16:59
Dieser "hot" sollte auf den Pinguin hören. Diese Karte arbeitet mitnichten mit etwas anderem als dem herkömmlichen CF Konzept. Nur dass diesmal eine PLX Bridge genutzt wird, da man nur einen PEG Slot belegt.

AnarchX
2007-12-17, 07:54:21
Angeblich soll der R680 im CF Mode (also 2 R680) AFR beherrschen. Keine Ahnung wie die das machen...
Was soll an 4-Way-AFR so besonders sein?
OGL und D3D10 erlauben es und für D3D9 gibt es vielleicht ein per Default deaktivierten Hack wie damals schon bei Geometry Instancing.

deekey777
2007-12-17, 12:13:57
Dieser "hot" sollte auf den Pinguin hören. Diese Karte arbeitet mitnichten mit etwas anderem als dem herkömmlichen CF Konzept. Nur dass diesmal eine PLX Bridge genutzt wird, da man nur einen PEG Slot belegt.
Die PLX-Bridge wird seit der X1650Pro Gemini benutzt, oder?
So wie ich das mit dem Ringbus des R600 verstehe, kann eine Grafikkarte auf den Speicher der anderen zugreifen, auch wenn sehr eingeschränkt (über den PCIe-Ring-Stop).
Bis zum Ringbus scrollen: http://www.digit-life.com/articles2/video/r600-part1.html

robbitop
2007-12-17, 12:16:13
Irgendeine Verbindung gibts immer. Bitte drüber nachdenken, ob das Sinn ergibt. ;) (Tipp: Bandbreite, Latenz)

Der PLX Chip scheint der einzige anständige PEG Switch auf dem Markt zu sein. Man braucht ihn halt für eine Karte mit 2 Chips. (besonders, wenns mit jedem Chipsatz funktionieren soll)

Wie gesagt: das ist stinknormales CF.

AnarchX
2007-12-17, 12:31:23
Genau, für eine sinnvolle Verbindung brauch es dann wohl schon eben 1024Bit-Breite (bzw. 512Bit Full-Duplex) Verbindung mit entsprechendem Takt, was wohl nur auf dem Package machbar wäre. Wohlmöglich sehen wird das dann bei R7xx, wenn das Geld nicht ausgeht....

deekey777
2007-12-17, 13:00:45
Irgendeine Verbindung gibts immer. Bitte drüber nachdenken, ob das Sinn ergibt. ;) (Tipp: Bandbreite, Latenz)
Ich wollte nur etwas Euphorie einbremsen.

Der PLX Chip scheint der einzige anständige PEG Switch auf dem Markt zu sein. Man braucht ihn halt für eine Karte mit 2 Chips. (besonders, wenns mit jedem Chipsatz funktionieren soll)

Wie gesagt: das ist stinknormales CF.
Das Fiese ist: Diese Bridge ist bestimmt nicht billig, aber - aus welchem Grund auch immer - wird keine eigene Bridge hergestellt.

Hoffentlich war das Teil mit der PLX-Bridge irgendein Vorserienmodell, und auf der X2 wird eine eigene Bridge sein - kleiner und billig. ;(

robbitop
2007-12-17, 13:01:49
Wenn dann wohl eher eine dünne, hochgetaktete Verbindung. Die muss in beide Richtungen mindestens 100 GiB/s schaffen. (die Bandbreiten lassen sich nämlich nicht sinnvoll addieren)



Hoffentlich war das Teil mit der PLX-Bridge irgendein Vorserienmodell, und auf der X2 wird eine eigene Bridge sein - kleiner und billig. ;(
Glaube ich kaum. Die GX2 hatte auch die PLX Bridge. Der Grund dafür ist ganz einfach:
es müßte erst ein Break-Even erreicht werden, damit eine eigene Entwicklung, Tapeout, Produktion, Serienbetreuung ect lohnen würde. Nur dann erhöht ein Unternehmen seine Fertigungstiefe. Ansonsten besinnt man sich lieber auf seine Kernkompetenz und sourct solche Dinge out oder kauft sie direkt. Wenn man konkrete Zahlen hätte, könnte man jetzt mit dem VoFi oder der Barwertmethode das mal ausrechnen.
Der Markt für solche Karten ist offenbar derzeit nicht groß genug dafür.

deekey777
2007-12-17, 13:13:43
Dieser "hot" sollte auf den Pinguin hören. Diese Karte arbeitet mitnichten mit etwas anderem als dem herkömmlichen CF Konzept. Nur dass diesmal eine PLX Bridge genutzt wird, da man nur einen PEG Slot belegt.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5063601#post5063601
Da stelle ich wieder die Frage: Wird die Kommunikation zwischen den einzelnen RV670 über die PLX-Bridge laufen oder über eine weitere Verbindung?
...
Glaube ich kaum. Die GX2 hatte auch die PLX Bridge. Der Grund dafür ist ganz einfach:
es müßte erst ein Break-Even erreicht werden, damit eine eigene Entwicklung, Tapeout, Produktion, Serienbetreuung ect lohnen würde. Nur dann erhöht ein Unternehmen seine Fertigungstiefe. Ansonsten besinnt man sich lieber auf seine Kernkompetenz und sourct solche Dinge out oder kauft sie direkt. Wenn man konkrete Zahlen hätte, könnte man jetzt mit dem VoFi oder der Barwertmethode das mal ausrechnen.
Der Markt für solche Karten ist offenbar derzeit nicht groß genug dafür.
Der Unterschied ist, dass die HD3870X2 als einzige Grafikkarte ATis Highend-Segment darstellen wird, die bisherigen Geminis waren bloß Lückenfüller (und die GX2 ein Ausrutscher :biggrin: ).
Es sei denn, der R720 ist gar nicht soweit, wie man denkt.

Gast
2007-12-17, 13:31:12
Die GX2 hatte auch die PLX Bridge.

Da du es oben schon mal richtig bezeichnet hast nochmals zur Erinnerung:

Es ist keine Bridge sondern ein Switch.

http://www.plxtech.com/products/expresslane/

OBrian
2007-12-17, 13:33:58
Wäre denn eigentlich Hypertransport geeignet als Verbindung der (R700+)Chips untereinander? 32bit 2,6GHz HT hat etwas über 22GB/s, aber man kann ja mehrere Links dranbauen und ggf. auch die Frequenz weiter erhöhen auf dieser kurzen Distanz.

AMD hat mit HT schon lange Erfahrung, man bräuchte als nur in den eigenen Bauksaten zu greifen. Zudem wäre es ein Schritt Richtung Torrenza, d.h. Einbindung solcher Streamprozessoren in die normale CPU-Umgebung, was auch im Hinblick auf Fusion Perspektiven eröffnet.

Natürlich bräuchte man dann eine Bridge für PCIe, man könnte aber auch den HTX-Slot pushen, zumindest im Server-/GPGPU-Bereich, oder man bietet solche Chips einfach gleich im Opteronsockel an.

up¦²
2007-12-17, 13:37:37
OK Switch, aber warum hat AMD das nicht in den Chipsatz gemodelt?
Wenn sie schon Ati gekauft haben, dann wär das doch nur logisch gewesen.
Nvidia ud Intel "brauchen" CF doch nicht oder haben sowieso kaum Interesse, AMD im Enthusiast-Bereich auch nch zu pushen.
Multi-GPU, bzw. Fusion usw. brauchen doch sowieso was "derartiges"...

AnarchX
2007-12-17, 13:39:25
Weil man auch Intel-Plattformen bedienen will...

up¦²
2007-12-17, 13:45:57
Weil man auch Intel-Plattformen bedienen will...
Das denk ich mir auch, aber es ist ein Fehler!
AMD muß parallel eine eigene Linie aufstelln, die eben die AMD-Vorteile kostengünstig durchsetzt.
Das werden sie wahrscheinlich auch demnächst so machen, haben jetzt andere Probleme als das Enthusiastlevel zu bedienen...
So schwer kann das doch nicht sein, ... oder es hängen Patente dran?

Coda
2007-12-17, 13:47:21
Glaube ich kaum. Die GX2 hatte auch die PLX Bridge.
Von welcher redest du jetzt? Die 7900GX2 und 7950GX2 hatten auf jeden Fall einen nVIDIA-PCIe-Switch (http://www.clubic.com/afficher-en-plein-ecran-298700.html).

AnarchX
2007-12-17, 13:49:55
@ up¦²
Warum soll es ein Fehler sein? :|
AMD wird vorerst keine CPUs anbieten, die ein Endkunde bzw. OEM mit einer oder zwei 3870 X2 kombinieren würde. Deshalb sollte man schon Kompatibilität wahren.

Nicht zu vergessen auch AMD-User, die noch auf ältere Chipsätze bzw. Plattformen wie S.939 setzen, denen soll nunmal auch der Einsatz nicht verwehrt werden.

robbitop
2007-12-17, 13:52:51
Da du es oben schon mal richtig bezeichnet hast nochmals zur Erinnerung:

Es ist keine Bridge sondern ein Switch.

http://www.plxtech.com/products/expresslane/

Ja war spät gestern abend, thx. :)

Von welcher redest du jetzt? Die 7900GX2 und 7950GX2 hatten auf jeden Fall einen nVIDIA-PCIe-Switch (http://www.clubic.com/afficher-en-plein-ecran-298700.html).

Das Teil, was mir Jens Neuschäfer auf der CeBIT 2006 zeigte, war mit nem PLX-Chip verbaut.
Vieleicht brachte man das Teil später, als man merkte, dass es sich doch lohnt?

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5063601#post5063601
Da stelle ich wieder die Frage: Wird die Kommunikation zwischen den einzelnen RV670 über die PLX-Bridge laufen oder über eine weitere Verbindung?
Ich gehe von einer weiteren Verbindung aus. Sonst wäre es ja so als wenn man 2x 3870er ohne Bücke laufen lassen würde und die Framebuffer über den PEG laufen müßten, was ja AFAIK wieder kostet.
Wie gesagt ist der PLX nur ein PEG Switch, eine Lösung, um 2 Chips an einen PEG-Slot anzubauen.

Der Unterschied ist, dass die HD3870X2 als einzige Grafikkarte ATis Highend-Segment darstellen wird, die bisherigen Geminis waren bloß Lückenfüller (und die GX2 ein Ausrutscher :biggrin: ).
Es sei denn, der R720 ist gar nicht soweit, wie man denkt.
Tja oder die X2 war eine relativ spontane Entscheidung und es gab vorher keine Entscheidung, nen eigenen PEG-Switch zu entwickeln.
In letzter Zeit habe ich bei ATI den Eindruck, dass mehr Spontanität an den Tag gelegt wird... ;)

Gast
2007-12-17, 13:59:05
OK Switch, aber warum hat AMD das nicht in den Chipsatz gemodelt?


Weil der Switch zu nichts sonst zu gebrauchen ist, als 2 PCIe Interfaces "abwechselnd" auf ein PCIe Interface durchzuschalten.

up¦²
2007-12-17, 14:01:43
@ up¦²
Warum soll es ein Fehler sein? :|
AMD wird vorerst keine CPUs anbieten, die ein Endkunde bzw. OEM mit einer oder zwei 3870 X2 kombinieren würde. Deshalb sollte man schon Kompatibilität wahren.

Nicht zu vergessen auch AMD-User, die noch auf ältere Chipsätze bzw. Plattformen wie S.939 setzen, denen soll nunmal auch der Einsatz nicht verwehrt werden.

Schoon klar, aberso schadet sich AMD nur selbst.
Eine "Extrawurst" wäre ja möglich, ist bei IGP ja auch der Fall: keine IGP mehr für Intel!
Nvidia hätte sich halt anpassen müssen: SLI ist swieso eine Sackgasse, ein Crosspatent wäre also möglich/sinnvoll!

AnarchX
2007-12-17, 14:56:53
Tja oder die X2 war eine relativ spontane Entscheidung und es gab vorher keine Entscheidung, nen eigenen PEG-Switch zu entwickeln.
In letzter Zeit habe ich bei ATI den Eindruck, dass mehr Spontanität an den Tag gelegt wird... ;)

Naja, so spontan wohl eher auch nicht. Die Roadmaps Anfang 2006 sahen auch eine 2600 X2 gegen die 8600GTS vor, die auch mit einem PLX versorgt wurde und Anfang 2008 hat man immernoch keine eigene Bridge für ein "richtiges" Produkt.
Wird sich wohl nicht lohnen...

HOT
2007-12-17, 15:19:44
Nochmal zum Ringbus :D.
Das ist doch eher ne Sache des Mem-Controllers auf dem Chip. Wenn er also 512Bit interne Breite hätte und Ein- und Ausgänge hätte, wäre das durchaus machbar. Genug Pins bringt der Träger wohl auch mit. Intern würde er dann switchen. Nur das PCB Design ist recht anspruchsvoll, da hier jeder Chip 512Bit Speicherverbindungen hätte + jeder PCIe 16x Anbindungen. Aber unmöglich ist das glaube ich nicht. Das PCB des Prototyps sieht an einigen Punkten auch sehr speziell aus. Auch die Latenz spielt bei Grafikdingen nicht so eine tragende Rolle. Die Bandbreite müsste dann zwischen den Chips 2x256Bit betragen. Das hat auch alles rein garnichts mit dem PLX Chip zu tun. Dieser ist nichts anderes als die BR04 von NV, die auf dem 780i/a zum Einsatz kommt. Darauf würde ich mich auch nicht versteifen. So ein Ding ist nunmal nötig, wenn man 2 Grafikchips neutral an einen Mainboardchipsatz anbinden will. Das wars dann aber auch schon damit.
Irgendwas ist jedenfalls besonders am R680. Er bekommt einen eigenen Namen, CF AFR soll mit 2 Karten funktionieren, er braucht für den Zweck eine neue Rev., das PCB sieht an einigen Stellen absonderlich aus usw.
Schaun mer mal. Ist doch noch alles stark spekulativ. Aber dass eine Technik zum Einsatz kommen könnte, die mit dem R700 sowieso kommt, halte ich nicht für ausgeschlossen.

robbitop
2007-12-17, 15:45:32
Nochmal zum Ringbus :D.
Das ist doch eher ne Sache des Mem-Controllers auf dem Chip. Wenn er also 512Bit interne Breite hätte und Ein- und Ausgänge hätte, wäre das durchaus machbar. Genug Pins bringt der Träger wohl auch mit. Intern würde er dann switchen. Nur das PCB Design ist recht anspruchsvoll, da hier jeder Chip 512Bit Speicherverbindungen hätte + jeder PCIe 16x Anbindungen. Aber unmöglich ist das glaube ich nicht. Das PCB des Prototyps sieht an einigen Punkten auch sehr speziell aus.
Was willst du damit sagen? Der Inhalt des CB-Kommentars ist jedenfalls obsolet. Ein RV670 hat gar nicht die I/O Infrastruktur nach aussen, um sowas zu realisieren.

Auch die Latenz spielt bei Grafikdingen nicht so eine tragende Rolle.
Doch natürlich. Wenn man wirklich ein Transpartentes Mutli-GPU Konzept irgendwann mal schaffen will, müssen mehrere Dice wie einer arbeiten. Das heißt, dass der Dispatcher die Quadbatches verteilt, dass Zugriffe aus den Caches erfolgt ect. Da ist Latenz hammerwichtig. Für reines Laden von Texturen aus dem VRAM ist sie nicht mehr so wichtig ja.


Die Bandbreite müsste dann zwischen den Chips 2x256Bit betragen.
Die Bus-breite sollte so gewählt werden, dass mit einem Zieltakt eine Bandbreite von mindestens 100 GiB/s und pro Richtung entsteht.
Sowas wäre, wenn überhaupt bezahlbar, nur auf einem Package möglich und sinnvoll.


Irgendwas ist jedenfalls besonders am R680. Er bekommt einen eigenen Namen, CF AFR soll mit 2 Karten funktionieren, er braucht für den Zweck eine neue Rev., das PCB sieht an einigen Stellen absonderlich aus usw.
Er hat einen eigenen Namen, weil das Ding so als High End Produkt auf den Markt soll. Offenbar ist der R700 zu spät oder was auch immer, so dass man die Lücke irgendwie füllen musste.
Eine neue Revision behebt möglicherweise Bugs und sollte auch in der TDP nochmal besser werden (was bei einer solchen Konfiguration ja wichtig ist).

Was die Sonderlichkeit des PCBs betrifft, sehe ich jetzt nichts konkretes. Vieleicht sind es ja die extra Verbindungen zwischen den Chips (die sonst die CF-doppelbrücke ausübt) die so sonderlich aussehen?

reunion
2007-12-17, 17:32:50
Die Karte ist immerhin kürzer als eine 8800GTX/U:

http://ukazto.com/img/1371016,r680_vs_g80u.jpg

http://forum.beyond3d.com/showpost.php?p=1106579&postcount=75

AnarchX
2007-12-17, 17:36:45
Naja, wirklich frontal ist die Abbildung der X2 aber auch nicht.
Sagen wir einfach, sie ist für eine Karte mit 2 GPUs durchaus akzeptabel lang. ;)

Nakai
2007-12-17, 17:42:10
Die Karte ist immerhin kürzer als eine 8800GTX/U:


Also den Unterschied können wir vernachlässigen.;)


mfg Nakai

reunion
2007-12-17, 17:45:47
Also den Unterschied können wir vernachlässigen.;)


mfg Nakai

Trotzdem - 2GPUs, 16 Speicherbausteine, ein PCIe-Switch und mindestens der Stromverbauch einer 8800U auf einem solchen PCB unterzubringen ist nicht ohne.

LovesuckZ
2007-12-17, 17:49:58
nVidia hatte 12 Speichersteine, eine fette GPU und kam 1 1/2 Jahre früher auf den Markt. Irgendwie sehe ich hier keinen Erfolg, wenn man für eine ähnliche Leistung zwei GPUs, einen ähnlichen Stromverbrauch und eine fast gleichlange Platine benötigt.

reunion
2007-12-17, 17:59:34
nVidia hatte 12 Speichersteine, eine fette GPU und kam 1 1/2 Jahre früher auf den Markt. Irgendwie sehe ich hier keinen Erfolg, wenn man für eine ähnliche Leistung zwei GPUs, einen ähnlichen Stromverbrauch und eine fast gleichlange Platine benötigt.

Das du keinen Erfolg siehst wundert denke ich niemanden.

Nakai
2007-12-17, 18:04:36
nVidia hatte 12 Speichersteine, eine fette GPU und kam 1 1/2 Jahre früher auf den Markt. Irgendwie sehe ich hier keinen Erfolg, wenn man für eine ähnliche Leistung zwei GPUs, einen ähnlichen Stromverbrauch und eine fast gleichlange Platine benötigt.

1. Keine 1,5 Jahre
2. ATI hatte nach 6 Monaten, 16 Bausteine und eine ebenso fette GPU, weiterhin eine teuerere Stromversorgung auf der Platine.
3. Keine ähnliche Leistung, sondern in etwa 25% Mehrleistung.


mfg Nakai

deekey777
2007-12-17, 19:41:07
Die Karte ist immerhin kürzer als eine 8800GTX/U:

http://ukazto.com/img/1371016,r680_vs_g80u.jpg

http://forum.beyond3d.com/showpost.php?p=1106579&postcount=75
Der Vergleich zur Ultra ist doch langweilig. :biggrin:

Sapphire Radeon HD 2600 XT X2 (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/)
Sapphire RADEON X1950 PRO DUAL 2×512MB PCI-E (http://www.digit-life.com/articles2/video/rv570-3.html)
=)

LovesuckZ
2007-12-17, 20:22:37
Das du keinen Erfolg siehst wundert denke ich niemanden.

Wo nichts ist, kann man auch nichts sehen.
Wo hier ein Erfolg sein soll, weiß wohl nur Gott und du. nVidia hatte 12 Speichersteine auf der Vorderseite. AMD hier nur 8. Der Rest gleicht sich einfach aus.
Nur zum Vergleich: Würde man der 8800GTS-512 nochmal soviel Speicher geben, wäre die Karte ca. gleichschnell wie die 8800GTX und das bei einer kürzeren Platine.

Nakai
2007-12-17, 20:31:42
Wo hier ein Erfolg sein soll, weiß wohl nur Gott und du. nVidia hatte 12 Speichersteine auf der Vorderseite. AMD hier nur 8. Der Rest gleicht sich einfach aus.

Auf der Vorderseite ist langweilig, weil es keine Platinenlayer frisst.
Würde AMD 16 Bausteine(!!!) auf der Vorderseite, bei der Platine platzieren, bräuchte man kein 14 Layer PCB für das 512 Bit SI.

Nur zum Vergleich: Würde man der 8800GTS-512 nochmal soviel Speicher geben, wäre die Karte ca. gleichschnell wie die 8800GTX und das bei einer kürzeren Platine.

Der 8800GTS-512 hat ganz andere Probleme als ein zu kleiner Speicher. Halbe Pixelfüllrate und jämmerliche Speicherbandbreite.


mfg Nakai

€:
Der Vergleich zur Ultra ist doch langweilig.:biggrin:

Dann wirds aber auch lächerlich...:tongue:

robbitop
2007-12-17, 21:23:52
Der 8800GTS-512 hat ganz andere Probleme als ein zu kleiner Speicher. Halbe Pixelfüllrate und jämmerliche Speicherbandbreite.


Du meint Z/Stencil Output? Die GTS hat immerhin 75% von diesem der GTX (4 von 6 ROP Partitionen und 13% mehr Takt). Da dieser bereich bei der G80 eh reichlich überdimensioniert ist, ergibt sich daraus kaum ein Nachteil.
Die wichtigere Füllrate (die Texturfüllrate) hingegen ist, wie auch die Shaderleistung) deutlich höher.
Einzig die VRAM-Bandbreite macht (besonders mit MSAA) einen gehörigen Strich durch die Rechnung.

Nakai
2007-12-17, 21:36:04
Ach stimmt, die ROPs sind ja propertional zur SI angelegt.

Danke für den Hinweis.


mfg Nakai

Gast
2007-12-18, 13:59:29
Noch etwas offizielles:

[quote]“We want to address the enthusiast space [with the ATI Radeon HD 3800]. Early in 2008 we will introduce code-named R680 product that will take two of those [chips] on a single board and will ship to customers with scaling close to 2x the performance of the existing [ATI Radeon HD] 3800 products,” said Rick Bergman, senior vice president and general manager of AMD’s graphics products group.
[...]
The card will retail for “over than $300” and will be able to work in pair with another similar one, which will give end-users the power of four GPUs.
[...]
“We are also going to have two other products for very important volume segments – mainstream and value – ATI RV620 and ATI RV635. We will introduce those products in January. Both of the products are 55nm and both of them will ship with the first silicon as well,” Mr. Bergman said.
ATI RV620 and ATI RV635 graphics chips are projected to substitute currently available ATI Radeon HD 2400 (RV615) and ATI Radeon HD 2600 (RV630) graphics series in January, 2008. The new GPUs will feature DirectX 10.1, PCI Express 2.0 as well as “second generation UVD” unified video decoding engine.
[...]
“In 2008, during the summer, it’s fully my expectation, ATI graphics will return to the No. 1 spot, which [we used to hold] for 7 or 8 years as the leading notebook discrete graphics vendor,” AMD’s Rick Bergman hopes.

http://www.xbitlabs.com/news/video/display/20071217224413_AMD_Unveils_New_Generation_Graphics_Product_Lineup.html

reunion

Nakai
2007-12-18, 14:05:00
“In 2008, during the summer, it’s fully my expectation, ATI graphics will return to the No. 1 spot, which [we used to hold] for 7 or 8 years as the leading notebook discrete graphics vendor,” AMD’s Rick Bergman hopes.

Naja nur im Notebookbereich, könnte mit den angekündigten Produkten interessant werden.


mfg Nakai

AnarchX
2007-12-19, 19:51:51
The first product will be the Radeon HD 3870 X2 which will feature two RV670XT GPUs and will launch in January 2008 with a price set between US$299-349, noted the sources.
http://www.digitimes.com/mobos/a20071219PD206.html

Wie solll denn das funktionieren? :|

2B-Maverick
2007-12-19, 19:59:19
http://www.digitimes.com/mobos/a20071219PD206.html

Wie solll denn das funktionieren? :|

DAS frage ich mich auch....
Die GPUs selber dürften ja recht "günstig" sein mit 55nm, vielleicht nimmt man dann dazu nur GDDR3-RAM?
Weiß jemand, wie da der Preisunterschied zu GDDR-4 ist?

CU
Markus

AnarchX
2007-12-19, 20:02:52
Die Samples haben jedenfalls momentan 900MHz GDDR3 verbaut, aber Intel meint R680 kommt mit GDDR4 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6124508#post6124508).

Aber trotzdem imo ein sehr grenzwertiges Unterfangen, das Flagschiff zu so einem Preis "abzustossen". :|

Nakai
2007-12-19, 20:08:32
Man hat ja wieder den hohen Stromverbrauch und die Größe als Problem.


mfg Nakai

reunion
2007-12-19, 20:10:22
Die Samples haben jedenfalls momentan 900MHz GDDR3 verbaut, aber Intel meint R680 kommt mit GDDR4 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6124508#post6124508).

Aber trotzdem imo ein sehr grenzwertiges Unterfangen, das Flagschiff zu so einem Preis "abzustossen". :|

Ganz einfach: R&D-Kosten ist gleich null. Und die Produktionskosten dürften auch nicht so hoch sein, ein R600 war sicher teurer und wurde zum Teil deutlich günstiger verkauft. Wobei mir das auch seltsam vorkommt. AMD könnte dafür bis nV kontert deutlich mehr verlangen. Mal abwarten.

Man hat ja wieder den hohen Stromverbrauch und die Größe als Problem.


mfg Nakai

Die Leistung muss man erstmal mit weniger Stromverbrauch erreichen, zudem dürfte der idle-Wert weiter sehr niedrig sein. Vielleicht deaktiviert man einen Chip am Desktop sogar völlig.

GeneralHanno
2007-12-19, 21:58:35
wenn man einen chip deaktiviert, funktioniert 4-displays aber nicht mehr, oder?

2B-Maverick
2007-12-19, 22:42:09
wenn man einen chip deaktiviert, funktioniert 4-displays aber nicht mehr, oder?

nö, aber ich denke mal bei 4 Displays fällt der Idle-Stromverbrauch des RV670 nicht weiter ins Gewicht.....

Gast
2007-12-20, 10:49:50
Bilder plus Specs zur HD3450/3470/3650:
http://www.madboxpc.com/contenido.php?id=5544

Gast
2007-12-21, 13:41:57
mh 3470 deutlich niedriger getaktet als 2400xt

GeneralHanno
2007-12-21, 14:29:16
ist halt low end. da zählt sowieso nur der preis, also ausbeute maximieren durch extrem niedrige taktrate. das lustige ist aber: mit dem waküchiller + vmod kann man zum teil um 100% über takten (natürlich nur die modelle @500mhz) ;)

AnarchX
2007-12-21, 14:34:42
mh 3470 deutlich niedriger getaktet als 2400xt

RV620 hat eine höhere Pro-Takt-Leistung als RV610, wahrscheinlich 1 SIMD mehr, also 60 SPs.

LovesuckZ
2007-12-21, 14:38:12
Wo will AMD eigentlich dir ganzen Karten positionieren? Zwischen 0-100€?

mapel110
2007-12-21, 14:45:10
Wo will AMD eigentlich dir ganzen Karten positionieren? Zwischen 0-100€?
Vielleicht erhöhen sie ja nach Weihnachten wieder die Preise für RV670 und bekommen so mehr Raum für Preisgestaltung. :uponder:

laser114
2007-12-21, 14:46:07
Die Taktraten sind irgendwie nicht wirklich sinnig (besonders die am Speicher). Würde ich mal abwarten.

@Lovesuckz: Ja. Dort sind ja heute auch schon 2400 Pro - 2600 XT positioniert, das ist kein Problem.

LovesuckZ
2007-12-21, 14:50:56
@Lovesuckz: Ja. Dort sind ja heute auch schon 2400 Pro - 2600 XT positioniert, das ist kein Problem.

Drei Karten innerhalb von 100€?
Ich meine, es wäre mal was neues eine 20€ Karte mit D3D10.1, voller Videobeschleunigung und HDMI zu haben, aber so ganz kann ich es mir nicht vorstellen.

laser114
2007-12-21, 15:12:47
20€ nun nicht, aber auf ~ 35€ im Internet könnten sich die Preise durchaus relativ schnell einpendeln. Vermutlich ungefähr dort wo jetzt die 2400 Pro steht:
http://geizhals.at/deutschland/?cat=gra16_256&asuch=2400%20Pro&sort=p

Die 2400 XT kostet dann im Schnitt ~45 Euro; also 10€ mehr, vermutlich wird es mit der 3470 eben so sein (die kann man dann auch "Benchmark-Edition" nennen). 2600 Pro ist aktuell bei nochmals 10-15€ mehr, also insgesamt 55-60 Euro (http://geizhals.at/deutschland/?cat=gra16_256&sort=p&bpmax=&asuch=2600+Pro&filter=+Angebote+anzeigen+&pixonoff=off); Die 2600 XT gibts dann ab 75 Euro, da passt sicher auch die 3670 hin.

reunion
2007-12-21, 16:46:55
Drei Karten innerhalb von 100€?
Ich meine, es wäre mal was neues eine 20€ Karte mit D3D10.1, voller Videobeschleunigung und HDMI zu haben, aber so ganz kann ich es mir nicht vorstellen.

3450 49$, 3470 59$, 3650 79$, 3670 99$.

reunion
2007-12-21, 17:00:31
Passt vermutlich am ehesten hier rein:
AMD öffnet CrossfireX für alle Plattformen: http://www.xbitlabs.com/news/chipsets/display/20071220192522_ATI_CrossFire_Technology_Remains_Open.html

AnarchX
2007-12-21, 19:28:21
http://img228.imageshack.us/img228/455/r680x22af3a3b0wa2qx3.jpg (http://imageshack.us)
http://img295.imageshack.us/img295/3395/r680x24afac9f3km4gc7.jpg (http://imageshack.us)

Nakai
2007-12-21, 19:57:37
Das ist schon ein Ding einer Karte. Auf dem zweiten Bild sieht die wirklich riesig aus die Karte.


mfg Nakai

reunion
2007-12-21, 20:17:32
"Over 1 TFLOP" bedeutet höhere Taktraten als bei der 3870.

deekey777
2007-12-21, 20:29:58
"Over 1 TFLOP" bedeutet höhere Taktraten als bei der 3870.

Um ein TFLOP pro Sekunde zu erreichen, braucht man... schon mit Standardtakt liefern 2 3870 theoretisch 992 GFLOP/s. Schon mit je 5 MHz pro GPU ist 1 TFLOP/s geknackt.

reunion
2007-12-21, 20:44:41
Um ein TFLOP pro Sekunde zu erreichen, braucht man... schon mit Standardtakt liefern 2 3870 theoretisch 992 GFLOP/s. Schon mit je 5 MHz pro GPU ist 1 TFLOP/s geknackt.

Natürlich. Hat ja auch niemand von einer Taktexplosion gesprochen, es ging wohl hauptsächlich darum die wichtige 1TFLOPS-Hürde zu überwinden. Das Ding dürfte irgendwo bei 785-800Mhz takten.

Raff
2007-12-21, 23:03:26
http://www.xtremesystems.org/forums/showthread.php?t=170385

Damn. Ich muss mir trotz Crossfire-Allergie doch diese Karte kaufen. 666 Millionen Transen – the number of the beast! Aber wehe, die haben nicht genau gezählt. Das Ding scheint aber fies lang zu sein. 7900 GX2 resurrected.

MfG,
Raff

up¦²
2007-12-21, 23:05:38
Doppler, sorry

reunion
2007-12-21, 23:09:42
http://www.xtremesystems.org/forums/showthread.php?t=170385

Damn. Ich muss mir trotz Crossfire-Allergie doch diese Karte kaufen. 666 Millionen Transen – the number of the beast! Aber wehe, die haben nicht genau gezählt. Das Ding scheint aber fies lang zu sein. 7900 GX2 resurrected.

MfG,
Raff

Auch nicht länger als eine 8800GTX/U:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6118745&postcount=178

Nakai
2007-12-21, 23:10:53
Seit wann benötigt AMD eigentlich nur noch einen CF-Port?


mfg Nakai

2B-Maverick
2007-12-21, 23:14:40
Seit wann benötigt AMD eigentlich nur noch einen CF-Port?


mfg Nakai

Seit ATI vorhat maximal 4 GPUs im CF laufen zu lassen :)

Nakai
2007-12-21, 23:34:46
Ach stimmt, kann man nur noch eine Graka dazuschließen, wie?

Mei bin ich müd...:usleep:


mfg Nakai

laser114
2007-12-22, 00:39:15
Ist auf der Karte eigentlich ein PLX8547(S) (http://www.plxtech.com/products/expresslane/pex8547.asp)/PLX8548(S) (http://www.plxtech.com/products/expresslane/pex8548.asp) oder ein PLX8648 (http://www.plxtech.com/products/expresslane/pex8648.asp) drauf?

Letzterer böte 48 Lanes im PCIe 2.0-Standard; erstere nur PCIe 1.1.

Und in der Werbefolie da fehlt mir die Werbung für PCIe 2.0.

GeneralHanno
2007-12-22, 11:46:54
auf folie 2 ist die rede von SUPER AA (CF-only).
Weis einer, was sich dahinter verbirgt? endlich SSAA auf radeons ?
*zu raff schiel*

reunion
2007-12-22, 11:56:29
Ist auf der Karte eigentlich ein PLX8547(S) (http://www.plxtech.com/products/expresslane/pex8547.asp)/PLX8548(S) (http://www.plxtech.com/products/expresslane/pex8548.asp) oder ein PLX8648 (http://www.plxtech.com/products/expresslane/pex8648.asp) drauf?

Letzterer böte 48 Lanes im PCIe 2.0-Standard; erstere nur PCIe 1.1.

Und in der Werbefolie da fehlt mir die Werbung für PCIe 2.0.

Es ist nur die PCIe1.1-Version drauf. Ob sich das bei der finalen Version ändert wird weiß ich nicht.

AnarchX
2007-12-22, 12:02:45
auf folie 2 ist die rede von SUPER AA (CF-only).
Weis einer, was sich dahinter verbirgt? endlich SSAA auf radeons ?
*zu raff schiel*

Ab HD2000 wurde doch bei Super-AA(XF-AA) doch der SGSSAA-Anteil gestrichen, AFAIR.

GeneralHanno
2007-12-22, 12:13:22
Srr bin bei den ganzen AA modi nicht ganz so up to date (*zu raff schiel*)
was ist denn der neuste stand von Super-AA / CF-AA ?
steht CF für custom filter oder cross fire`?

AnarchX
2007-12-22, 12:21:36
was ist denn der neuste stand von Super-AA / CF-AA ?
Wie schon gesagt AFAIR verwendet Crossfire AA nur noch MSAA.


steht CF für custom filter oder cross fire`?
Imo würde ich es so halten:
CFAA: Custom Filter AA
XFAA: CrossFire AA
;)

robbitop
2007-12-22, 12:55:31
Ich wüßte nicht, wie man 16xAA mit einem R600 erreichen könnte. AFAIK kann er maximal 8xMSAA. Ergo müßten beide Karten jeweils ein Bild mit 8xMSAA rendern, nur dass bei einer Karte noch ein Vertexoffset herrscht. (also unterschiedliche Pixelmitten) Am Ende werden beide Framebuffer beim Downsampling verrechnet. Das ist doch noch das gleiche wie das XFAA der R5xx. Ergo 2xRGSS. CB schreibt auch etwas ähnliches: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt_crossfire/3/

GeneralHanno
2007-12-22, 13:15:16
nach CB scheint das 16x MSAA (aus 2x 8xMSAA) ja nicht viel zu bringen. wundert mich auch kaum, denn ich bin der meinung, dass man schon zwischen 4x MSAA und 8x MSAA keinen unterschied sieht. das der bei pseudo 16xMSAA noch geringer ausfällt wundert mich nicht.

was ist eigentlich dieser edge decect filter beim Custom Filter AA und was glättet der alles genau?

Zu SS muss man ja leider sagen, sie gut aus, ist aber sehr ineffektiv.

2B-Maverick
2007-12-22, 13:24:22
nach CB scheint das 16x MSAA (aus 2x 8xMSAA) ja nicht viel zu bringen. wundert mich auch kaum, denn ich bin der meinung, dass man schon zwischen 4x MSAA und 8x MSAA keinen unterschied sieht. das der bei pseudo 16xMSAA noch geringer ausfällt wundert mich nicht.

was ist eigentlich dieser edge decect filter beim Custom Filter AA und was glättet der alles genau?

Zu SS muss man ja leider sagen, sie gut aus, ist aber sehr ineffektiv.

Die MSAA Unterschiede sind je nach Game sehr deutlich zu sehen.
Ich selber kann zwar nur von 4x auf 6x testen, aber nicht ohne Grund spiele ich meinen Flugsimulator (Condor) nur mit 6x AA - und das auf nem 20'' TFT.
Man sieht es sehr deutlich bei den starken Kontrasten (weiße Flugzeuge, blauer Himmel - grüne Erde).

Von daher freue ich mich aufs 8xMSAA das hoffentlich heute ausgeliefert wird :)

CU
Markus

GeneralHanno
2007-12-22, 13:54:03
na gut flight simulator ist natürlich eins der ruhigeren spiele, atopilot an und die landschaft (grafik) genießen.

bei schnellen schootern (UT) oder strategie games (das sind so meine genres) sieht man die unterschiede nicht wirklich. aber das wird ja langsam OT ...

Gast
2007-12-22, 15:57:56
Die Karte im Vergleich zur GTX
http://img172.imageshack.us/img172/1441/437601bzt6.th.jpg (http://img172.imageshack.us/my.php?image=437601bzt6.jpg)

GeneralHanno
2007-12-22, 17:57:19
1. ist das eine ULTRA
und 2. kommt das pic aus dem thread (1-2 seiten zurück blättern!)

Adam D.
2007-12-23, 12:15:02
Tja, hatte zumindest den Kauf irgendwie überlegt ... Nachdem der RV670 meine Leistungsansprüche nicht getroffen hat und die GTS-512 zu meiner 8800GT auch keine großen Vorteile bringt. Aber die Karte ist zu lang, die werd ich nicht in mein Gehäuse reinkriegen :(

Telema
2007-12-23, 13:29:04
ich werd evtl. auch etwas modden müssen. Hab das Thermaltake Soprano. Werd mit einer Schneidzange einen Spalt wegschneiden um grössere Grafikkarten einbauen zu können

reunion
2007-12-23, 15:03:35
Interessante Details zu RV620:

http://img176.imageshack.us/img176/1959/r3400413854610wc4.jpg
http://img151.imageshack.us/img151/4567/r34001138552c2sx1.jpg
http://img211.imageshack.us/img211/1196/r3400213855be9lg4.jpg

Bereits 120 SPs für RV620, das ist dreimal soviel wie RV610 und genau so viel wie RV630 hat. Da könnte Rv635 doch ein ganz netter Chip werden. (Edit: Wobei ich gerade sehe das unten wieder was von 40SPs bei 181m Transistoren steht, also vermutlich auch nur ein Fehler, sonst wäre das Die wohl zu groß) Dazu nativen Display-Port und Hybrid-CF-Unterstützung.

laser114
2007-12-23, 15:07:26
181 Millionen Transistoren und 120 SPs?
Ne, eher nicht. Dürfte ein Fehler sein. Der RV610 hat schon ~ 180 Millionen Transistoren.

Nakai
2007-12-23, 15:10:17
Wie hat man dann beim Rv620 die Effizienz steigern können?


mfg Nakai

AnarchX
2007-12-23, 16:39:48
Naja, die die Slides wirken noch etwas inkonsistent -> einmal 120SPs, dann wieder 40.
Denke immernoch, dass es wohlmöglich 60SPs sind, aber natürlich könnte auch wieder Hier-Z an Board sein, immerhin hat ja Expreview die höhere Pro-MHz-Leistung schon messen können.

Nakai
2007-12-23, 18:52:58
Denke immernoch, dass es wohlmöglich 60SPs sind, aber natürlich könnte auch wieder Hier-Z an Board sein, immerhin hat ja Expreview die höhere Pro-MHz-Leistung schon messen können.

Bei dem Transistorcount?

Das denke ich nicht, immerhin hat schon der Rv610 180 Millionen Transistoren. Ebenso ist auch Dx10.1 dabei.

Das gleiche mit dem Rv635.

Man hat irgendwie versucht die Effizienz zu steigern, wie das geschehen ist, würd ich echt gern wissen.

Naja dann ist der RV620 wohl unterstes LowEnd und der Rv635 Mainstream. Midrange übernimmt dann der Rv670 ála HD3850 und Performance sind dann HD3870 und HD3870X2.

Dann bietet AMD wieder kein Highend an.



mfg Nakai

reunion
2007-12-23, 18:57:42
Man hat irgendwie versucht die Effizienz zu steigern, wie das geschehen ist, würd ich echt gern wissen.


Genauso wie bei RV670 auch. Dieser ist selbst trotz halbiertem SI meist schneller als ein R600.


Naja dann ist der RV620 wohl unterstes LowEnd und der Rv635 Mainstream. Midrange übernimmt dann der Rv670 ála HD3850 und Performance sind dann HD3870 und HD3870X2.

Dann bietet AMD wieder kein Highend an.

mfg Nakai

Wo bietet AMD bei High-End an? Die 3870 X2 reicht sicher für die 8800U, und mehr kommt erstmal nicht von nV. Irgendwann im März kommt wohl ebenfalls eine GX2.

Nakai
2007-12-23, 19:20:03
Wo bietet AMD bei High-End an? Die 3870 X2 reicht sicher für die 8800U, und mehr kommt erstmal nicht von nV. Irgendwann im März kommt wohl ebenfalls eine GX2.

Toll, dann ist AMd praktisch 2 Monate wieder der King of the Hill und wird wieder von NV in den Boden gestampft. Wenn das geschieht, dann wird genau der Fall eintreten, den ich angesprrochen hab. Außer NV will nicht so viel schneller sein.


mfg Nakai

horn 12
2007-12-23, 19:26:07
NV wird so einen Knaller wie die G80 (GTX) nicht mehr bringen können.
Mit dem Neuen Chip würde ich mal von 25-35% überhalb einer GTX Ultra ausgehen. Auch die HD X²3870 wird sich zumindest TEILS !! gut 20% von der Ultra absetzen können, und dies zu einem wohl geringeren Preis als es die 9800 GTX ? werden wird.
Und mit dem R700 würde ich im Spätsommer rechnen, also August/ September.

_DrillSarge]I[
2007-12-23, 19:28:59
NV wird so einen Knaller wie die G80 (GTX) nicht mehr bringen können.
wieso nicht? schau doch mal den sprung von gf7 zur gf8 an. zudem hat nvidia ja genug zeit (gehabt?), denn die 8800 sind ja schon ewig performance-könig.

reunion
2007-12-23, 19:29:18
Toll, dann ist AMd praktisch 2 Monate wieder der King of the Hill und wird wieder von NV in den Boden gestampft. Wenn das geschieht, dann wird genau der Fall eintreten, den ich angesprrochen hab. Außer NV will nicht so viel schneller sein.


mfg Nakai

NV will vorallem profitabel sein. Eine GX2 wird auch keine Dice größer 200mm² haben. Und da muss erstmal etwas kommen, dass einen RV670 deutlich schlägt.

Gast
2007-12-23, 19:37:25
NV will vorallem profitabel sein. Eine GX2 wird auch keine Dice größer 200mm² haben. Und da muss erstmal etwas kommen, dass einen RV670 deutlich schlägt.
Profitabel, nicht profitabel... Langsam gehts denen auch an die Substanz. Ob sie wollen oder nicht die MÜSSEN was deutlich schnelleres bauen. Weil der Umsatz auch ohne Konkurrenz und zwar durch Markübersättigung total gefährdet ist.
Wenn ATi nicht aufschliessen wird wird Nvidia ständig neue sehr schnelle Chips rausbringen. Keine Angst.

reunion
2007-12-23, 19:41:41
Profitabel, nicht profitabel...


Profitabel kann man auch klein schreiben AFAIK.


Langsam gehts denen auch an die Substanz. Ob sie wollen oder nicht die MÜSSEN was deutlich schnelleres bauen. Weil der Umsatz auch ohne Konkurrenz und zwar durch Markübersättigung total gefährdet ist.
Wenn ATi nicht aufschliessen wird wird Nvidia ständig neue sehr schnelle Chips rausbringen. Keine Angst.

Was hat das mit meinem Beitrag zu tun?

Gast
2007-12-23, 19:46:12
Profitabel kann man auch klein schreiben AFAIK.



Was hat das mit meinem Beitrag zu tun?

Ja das RV670 ganz schnell, ganz deutlich geschlagen wird. Profitabilität steht nun mal NICHT an erster Stelle.

laser114
2007-12-23, 20:26:45
Ja das RV670 ganz schnell, ganz deutlich geschlagen wird. Profitabilität steht nun mal NICHT an erster Stelle.

Auf die gesamte Palette bezogen, steht das sicher an erster Stelle. Das eventuelle Entscheidungen erstmal die Profitabilität senken, ist eine andere Sache. ;)

James Ryan
2007-12-24, 09:57:41
NV wird so einen Knaller wie die G80 (GTX) nicht mehr bringen können.
Mit dem Neuen Chip würde ich mal von 25-35% überhalb einer GTX Ultra ausgehen. Auch die HD X²3870 wird sich zumindest TEILS !! gut 20% von der Ultra absetzen können, und dies zu einem wohl geringeren Preis als es die 9800 GTX ? werden wird.
Und mit dem R700 würde ich im Spätsommer rechnen, also August/ September.

Laut AMD wird die HD 3870 X2 maximal 15% schneller sein als eine Gf 8800 Ultra (stand auf einer Folie, die reunion mal gepostet hat).
Das allerdings auch nur, wenn Crossfire richtig funktioniert!
Sollte AMD weiterhin den Zugang zu den Crossfire-Profilen verwehren, wird die HD 3870 X2 auf dem Papier/in den üblichen Benches sehr gut aussehen, aber nicht sehr alltagstauglich sein.
Der Preis ist trotzdem gut, solange er wirklich bei 300-350€ bleibt.

MfG :cool:

GeneralHanno
2007-12-24, 10:10:47
I[;6134749']wieso nicht? schau doch mal den sprung von gf7 zur gf8 an. zudem hat nvidia ja genug zeit (gehabt?), denn die 8800 sind ja schon ewig performance-könig.

der sprung von GF7 zu GF8 war ein echter architekturwechsel (vergleichbar mit netburst->core). Die GF9 wird garantiert eine aufgebohrte und etwas verbesserte GF8 sein. Also ein wunder a la G80 wird es nicht geben!