PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Dual HD 5770


Gast
2010-10-08, 09:39:25
http://img31.imageshack.us/img31/7227/001674984.jpg (http://img31.imageshack.us/i/001674984.jpg/)

http://www.pcpop.com/doc/0/583/583503.shtml

Auf der Rückseite ist offenbar ein Lucid Hydra Chip verbaut.

Super Grobi
2010-10-08, 09:45:47
Kommt diese Karte nicht etwas zu spät? Eine Karte mit zwei 5770 Chips wäre vor ein paar Monate ein Hit gewesen (wenn der Preis stimmt), aber wie soll die vom P/L gegen eine GTX460 1gb bestehen? Neue Karten von Ati stehen doch auch vor der Tür, oder?

SG

Edit: Seite mit google übersetzt http://translate.google.de/translate?u=http%3A%2F%2Fwww.pcpop.com%2Fdoc%2F0%2F583%2F583503.shtml&sl=zh-CN&tl=de&hl=&ie=UTF-8

Raff
2010-10-08, 09:50:01
Immerhin sitzt eine Hüdra auf dem PCB, welche das Mikroruckeln etwas eindämmt. Ein Bullfug-Produkt bleibt die Karte trotzdem – vor allem, weil sie 1 Jahr zu spät spawned. ;)

MfG,
Raff

Super Grobi
2010-10-08, 10:04:22
Die Karte hätte ich mir auf jedenfall gekauft! Nun hab ich aber die GTX460, so wie wohl viele, die günstig viel Leistung haben wollen.

Ich glaub nicht, das es da wirklich viele Kunden für geben wird und das der Preis unter 180 Euro liegen wird. So ein Produkt ist ja sicher teurer, als eine Single-GPU Produkt.

SG

Raff
2010-10-08, 10:36:42
Eine dicke Single-GPU ist stets zwei "verheirateten Krüppeln" vorzuziehen, die im Bestfall dieselbe angezeigte Bildrate erreichen. Das liegt daran, dass eine Single-GPU im Gegensatz zu AFR-basierten Duos nicht ständig mit Profilen gefüttert werden muss, um 100 Prozent zu geben. Folglich hast du mit der GTX 460 die richtige, unkomplizierte Wahl getroffen. Ebenso ist eine HD 5850 (OC) einer "HD 5770 X2" vorzuziehen.

MfG,
Raff

Grey
2010-10-08, 12:31:17
Weiß man was die kosten soll? Viel Raum um sich dahingehend schlau zu platzieren gibt es ja nicht...

Gast
2010-10-08, 12:49:31
Wird wohl nicht über eine Machbarkeits/Prestige-Studie für den asiatischen Markt hinauskommen.

Zumal das Teil auch den Vorteil der 2 GPUs nicht nutzt und alle Bildausgänge nach außen führt. Eine EyeFinity 10 Karte wäre wohl für bestimmte Setups durchaus sinnvoll. Mit 4 PEGs könnte man dann schon 40 Monitore mit einem Bild versorgen. ;)

RavenTS
2010-10-09, 12:15:07
Braucht man für den Hydra-Chip nicht nun auch noch deren wohl mangelhafte Treiber?!

AnarchX
2010-10-09, 12:17:32
Hier kann man ihn wohl auch als reines PCIe-Switch nutzen und die beiden GPUs im Standard-CF betreiben.

RavenTS
2010-10-09, 12:19:30
Hier kann man ihn wohl auch als reines PCIe-Switch nutzen und die beiden GPUs im Standard-CF betreiben.

Nur dann wird doch sicherlich kein Effekt bezüglich der Microruckler sein und günstiger als ein 0815 Switch wird er wohl auch nicht sein.?!

Hugo78
2010-10-09, 12:40:44
Hat das Ding stark gesenkte Taktraten?
Weil ich peil grad nicht, wie man mit nur einen 6 Pin, dieses 5770 X2 Dings betreiben will?!

Bucklew
2010-10-09, 13:08:36
Hier kann man ihn wohl auch als reines PCIe-Switch nutzen und die beiden GPUs im Standard-CF betreiben.
Der Sinn als reinen PCie-Switch den teurer Hydrachip zu kaufen? Ich kenn jetzt zwar die genauen Preise nicht, aber mich würde es doch wundern wenn so ein Hydrachip ähnlich viel kostet wie ein reiner PCIe-Switch?!

AnarchX
2010-10-09, 13:21:46
Hydra hat halt auch mehr Prestige als ein simpler PLX und was nun teurer ist, wird wohl hier keiner beantworten können.

Zumal schon gesagt wurde, dass die Karte wohl nur eine Kleinserie bzw. Machbarkeitsstudie ist.

N0Thing
2010-10-09, 15:58:12
Gibt es vom Hydra-Chip nicht unterschiedliche Versionen? Ich meine es gibt eine Version, die quasi nur als besserer (?) PCIe-Switch gedacht ist.

Spasstiger
2010-10-09, 16:26:06
Eventuell ist der Hydra auch sparsamer als andere PCIe-Switch-Chips. Der NF200 von NV frisst ja z.B. 15-20 Watt.
Und die Dual 5770 peilt offenbar eine TDP unter 150 Watt an (siehe 6-Pin-Stecker).

Undertaker
2010-10-09, 16:33:49
Das kann doch aber nur mit reduzierten Taktraten und/oder beschnittenen Chips klappen. Eine einzelne HD5770 hat schon eine TDP von 108W, die sie im Furmark (trotz evntl. Drosselung?) auch locker erreicht.

Spasstiger
2010-10-09, 16:42:47
Eine Dual-GPU-Karte nimmt nicht zwangsweise doppelt soviel Leistung auf wie die zugehörige Single-GPU-Karte, weil nicht alles doppelt ausgelegt werden muss. So reicht es z.B., nur die Displaytreiber (TMDS, Display Port) von einem Chip anzubinden, es reicht ein Dual-RAMDAC, der Spannungswandlerteil kann kompakter als auf zwei Karten gehalten werden, etc.

Undertaker
2010-10-09, 17:24:28
150W zu 108W sind von einer doppelten TDP aber auch weit entfernt. ;) Rechnet man für den Hydra-Chip die 6W TDP ein, verbleiben gerade einmal 36W für den zweiten RV840, den zusätzlichen Speicher und die aufgebohrte Spannungsversorgung. Ein bisschen sehr knapp. ;) Zum Vergleich: Die doch spürbar beschnittene HD5970 hat eine 56% höhere TDP als die HD5870.

Also ich kann mir noch nicht zusammenreimen, wie das in diesem Fall passen soll. Entweder das ist ein Vorserienboard und wir sehen später 1x8 Pin / 2x6 Pin, oder aber es kommt zu den erwähnten Taktratensenkungen o.ä.

___________________________________

Edit: News:

Laut Computerbase gibt es volle Taktraten:

http://www.computerbase.de/news/hardware/grafikkarten/ati/2010/oktober/radeon-hd-5770-x2-mit-zwei-juniper-gpus-gesichtet/

Na da bin ich mal gespannt, ob man die 150W wirklich in jedem Fall einhält. ;)

Super Grobi
2010-10-12, 12:32:57
VIELEICHT hat man ja die Vcore etwas abgesenkt?! Wenn die Chipsauslese mittlerweile ganz gut ist (wird doch wärend eines Produktionszyklus immer besser, oder nicht?) könnte das ja vieleicht passen. Auch hätte man so die Temperaturen von zwei GPUs auf einem "kurzen" Board gut im Griff.

SG