Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - R8xx im Q4 2008, Multicore und 45/40 nm


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 [15] 16 17 18 19 20 21 22 23

dildo4u
2009-09-10, 11:08:59
so ein bullshit,das ist niemals max detail oder kannst du französisch?abgesehen davon steht nichts von warhead sondern von crysis bei napoleons wert.
da kannst du suchen bis du grün wirst,max detail mit 4AAund 1920*1200/dx10 gibt es ohne weiteres keine 40fps werte.
http://www.eurogamer.net/articles/digitalfoundry-crysis-1080p60-grail-quest-new-blog-entry

1900*1200 4XAA kann man mit der GTX295 nicht richtig testen,da muss die Mars her ganz einfach weil der Speicher nicht reicht,nicht weil die GPUs nicht genug Leistung haben.Alternative kann man OC GTX 260 mit 1700MB im SLI testen.340€

http://geizhals.at/deutschland/a451205.html

LovesuckZ
2009-09-10, 11:09:13
Das Argument ist so abstrus das ist das einfach festhalten muss. Dann ist ein 800mm² Chip auch ein Performancechip, der er im selben "Zuwachsbereich" zu GT200 liegt. Ein 1100mm2 Chip ist damit auch ein Performancechip, da er ebenfalls wieder im selben Zuwachsbereich vom 800mm² Chip aus liegt. Köstlich. ;D

Das ist deine Argumentation. :)
Weißt du, wie AMD's 28nm Chip aussehen könnte? 429mm^2 und einem (Karten-)Verbrauch von 247 Watt. Der Anstieg liegt im Mittel von rv670 -> rv770 -> rv870. Erstaunlich, oder? Vielleicht hat man 2011 wieder r600 Maße und einen Reunion, der dann immer noch von einem Performancechip redet. ;D

****edit: da ich offensichtlich die Nase voll habe von dem Zeug und reunion gerade versprochen hat dass jetzt Schluss mit dem Zeug ist, ist es der letzte Post zu diesem Thema in diesem Thread. Es gibt PMs, e-mails etc wo Ihr das Thema privat von mir aus so lange besprechen koennte bis ihr nicht mehr laufen koennt ****/edit.

-AiL

ShadowXX
2009-09-10, 11:22:38
Kann man das wirklich so stehen lassen? Qualitaet hat zwar ihren Preis aber dann wohl eher im Transistoren Bereich wenn man es wirklich richtig machen will; in solch einem Fall kann es durchaus um einiges schneller werden als zuvor. Wie sieht es aus wenn ich G7x und G8x vergleiche?
Anders: Natürlich hat die Performance des AF beim G80 nicht so stark gelitten obwohl Sie besser wurde, aber es gab auch wesentlich mehr TMUs und im HQ Modus verliert man durchaus nochmal ordentlich Performance gegenüber Non-HQ.

Selbst wenn ATI Transistoren abseits der Qualitätssteigerung (wenn es denn wirklich besser und nicht einfach anders wird, ich finde es immer noch merkwürdig das keiner, auch keiner von ATI, das Wort "besser" in den Mund nimmt, sondern es immer nur als "anders" oder "neu" beschrieben wird) beim AF investiert hat, werden Sie IMHO höchstens damit erreichen bei gleicher Performance bessere Qualität zu haben.....an bessere Qualität + bessere Performance glaube ich einfach nicht.


Für mich ist der Chip zu groß für 1600SPs, selbst mit DX11. Da hat man irgendwas noch aufgeblasen.
Die doppelte Anzahl TMUs kostet mehr (Transistoren) als die doppelte Anzahl Shader...daher kommt IMHO dieses "nicht mit der Mehrzahl der Shader übereinstimmende Wachstum".
Es wird oftmals vergessen das die GPUs aus mehr als nur Shadern bestehen und gerade diese für sich (einzeln) genommen relativ wenig Platz einnehmen.

Gast
2009-09-10, 11:36:11
so ein bullshit,das ist niemals max detail oder kannst du französisch?:

Das ist nicht französisch. Schau dir mal die Schrift an - kann so die (angeblich) schönste Sprache der Welt geschrieben werden ?

@Topic: Ruhig bleiben Leute, heute ist doch das Event in den USA oder nicht ? Dann gibts vielleicht morgen früh schon handfestere Infos

Gipsel
2009-09-10, 11:45:16
Selbst wenn ATI Transistoren abseits der Qualitätssteigerung [..] beim AF investiert hat, werden Sie IMHO höchstens damit erreichen bei gleicher Performance bessere Qualität zu haben.....an bessere Qualität + bessere Performance glaube ich einfach nicht.
Wo ist denn das prinzipielle Problem? Man investiert ein paar Transistoren, damit besser gefiltert wird, vergrößert noch die Bandbreite/Caches, damit man auch genügend zum Filtern hat und packt anschließend noch doppelt soviele Einheiten auf den Chip. Ergebnis ist eine bessere Filterung mit (deutlich) erhöhter Performance (und wenn man es richtig macht ohne deutlich erhöhte Bandbreitenanforderungen). Die Frage ist nur, ob so viel investiert wurde.

Tarkin
2009-09-10, 11:47:40
Ich brauch gerade Dir gar nichts beweisen. Halte Dich aber bitte (und auch die zwischentrottelnde Gaeste denen IPs ich notiert habe) nach den ernsthaften reviews in Reichweite dass wir es nochmal besprechen koennen.

Leicht genervt, oder? Lass doch bitte deinen Frust nicht an den Forenusern aus... besonders für einen Moderator etwas unangebracht, findest du nicht?

Deine Beiträge sind leicht "grenzwertig".

ShadowXX
2009-09-10, 11:50:31
Wo ist denn das prinzipielle Problem? Man investiert ein paar Transistoren, damit besser gefiltert wird, vergrößert noch die Bandbreite/Caches, damit man auch genügend zum Filtern hat und packt anschließend noch doppelt soviele Einheiten auf den Chip. Ergebnis ist eine bessere Filterung mit (deutlich) erhöhter Performance (und wenn man es richtig macht ohne deutlich erhöhte Bandbreitenanforderungen). Die Frage ist nur, ob so viel investiert wurde.
Ich kann mir eben einfach nicht vorstellen, das gerade ATI in dem Bereich soviel investiert haben soll.
Speziell da es keinen Anlass für Sie gibt, da 99,9% der Tester die AF-Qualität sowas von egal ist bzw. das jetzige ATI AF als genügend empfinden.

derguru
2009-09-10, 11:53:57
Das ist nicht französisch. Schau dir mal die Schrift an - kann so die (angeblich) schönste Sprache der Welt geschrieben werden ?

@Topic: Ruhig bleiben Leute, heute ist doch das Event in den USA oder nicht ? Dann gibts vielleicht morgen früh schon handfestere Infos

wie auch immer eine sprache die keiner versteht und trotzdem sage ich das das ein top wert ist in crysis oder warhead.
keine sorge ich bleibe ruhig,warten wir auf noch mehr benchmarks:wink:

Ailuros
2009-09-10, 11:54:08
Anders: Natürlich hat die Performance des AF beim G80 nicht so stark gelitten obwohl Sie besser wurde, aber es gab auch wesentlich mehr TMUs und im HQ Modus verliert man durchaus nochmal ordentlich Performance gegenüber Non-HQ.

Es kam ein fetter Batzen von zusaetzlichen Transistoren dazu und das nicht nur wegen der geringeren Winkelabhaengigkeit. Was heisst hier orderntlich Leistung? Ich verlor in einem worst case scenario auf einer 7800GTX knapp unter 50% von Q auf HQ, waehrend sich die 8800GTX lediglich um 16% zuruecksetzte und dabei ist das "brilinear" der G80 um einen Schnitt besser als bei den Vorgaengern.

In Echtzeit war es eher im 15-20% Bereich fuer G70 und im Gegensatz im 3-6% fuer G80.

Selbst wenn ATI Transistoren abseits der Qualitätssteigerung (wenn es denn wirklich besser und nicht einfach anders wird, ich finde es immer noch merkwürdig das keiner, auch keiner von ATI, das Wort "besser" in den Mund nimmt, sondern es immer nur als "anders" oder "neu" beschrieben wird) beim AF investiert hat, werden Sie IMHO höchstens damit erreichen bei gleicher Performance bessere Qualität zu haben.....an bessere Qualität + bessere Performance glaube ich einfach nicht.

Warum nicht? Angenommen sie haetten bessere filter kernels eingebaut heisst es bessere Qualitaet bei zumindest gleicher Leistung und jetzt kommt noch dazu dass man ueber 2x Mal so viel Texelfuellrate zur Verfuegung hat. Ich weiss schon was Du meinst und es kann auch tatsaechlich sein dass nichts besonderes dahinter steckt; ich hab lediglich mal Haare gespalten dass mit etwas mehr Transistoren durchaus bessere und schnellere Filterung theoretisch moeglich ist.

Die doppelte Anzahl TMUs kostet mehr (Transistoren) als die doppelte Anzahl Shader...daher kommt IMHO dieses "nicht mit der Mehrzahl der Shader übereinstimmende Wachstum".
Es wird oftmals vergessen das die GPUs aus mehr als nur Shadern bestehen und gerade diese für sich (einzeln) genommen relativ wenig Platz einnehmen.

Uebrigens muessen diese TMUs doch auch Zeug wie BC06 behandeln koennen oder nicht? Noch dazu kommen die X11 Vorraussetzungen und das restliche notwendige Zeug.

Eggcake
2009-09-10, 11:56:03
SFR=split frame rendering. My chinese is obviously worst amongst the inhabitants of b3d, so I'll have to ask people with better mandarin than mine to please explain what went on there?

If indeed 5870x2 does sfr, and is a form of a shared memory xfire, instead of the usual distributed-memory-like xfire, this is really exciting.

Kann da was dran sein?

Gipsel
2009-09-10, 11:57:28
Die doppelte Anzahl TMUs kostet mehr (Transistoren) als die doppelte Anzahl Shader...daher kommt IMHO dieses "nicht mit der Mehrzahl der Shader übereinstimmende Wachstum".
Es wird oftmals vergessen das die GPUs aus mehr als nur Shadern bestehen und gerade diese für sich (einzeln) genommen relativ wenig Platz einnehmen.
Das Argument geht eher so. ALUs, TMUs, ROPs und Scheduler sind verdoppelt (letzterer vielleicht etwas mehr als das), aber Speicherinteface, UVD und solcher Kram nicht. Die Verdopplung der Einheitenzahl wird durch den Shrink aufgefangen. Wenn RV870 also größer ist als RV770, dann ist da noch irgendwas mehr.

Noch ein paar Anmerkungen am Rande.
Die Registeranzahl (pro Einheit) wird meiner Meinung nach nicht steigen. RV870 wird also insgesamt 5MB Register besitzen (256kB pro SIMD). Dagegen ist die Steigerung des LDS von 16 auf 32kB pro SIMD, also auf dann insgesamt 640kB zu verschmerzen. Und der für DX11 geforderte wahlfreie Zugriff, nun, wie ich schonmal gesagt habe (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7431502#post7431502), können das alle RV7x0 auch schon ;)

LovesuckZ
2009-09-10, 12:01:36
Kann da was dran sein?

Nein - da ist nichts dran. Warum sollte AMD soviel Zeit und Geld in einer vernünftiges mGPU Konzept investieren, wenn ihr größter Single-Chip angeblich 330m^2 groß und 180/190W verbraucht?
Ich bin sowieso jetzt am meisten auf die 5870x2 interessiert - denn sollten die Werte stimmen, wird man wohl einiges tun müssen, um unter 300 Watt zu bleiben.

mboeller
2009-09-10, 12:01:55
Leicht genervt, oder? Lass doch bitte deinen Frust nicht an den Forenusern aus... besonders für einen Moderator etwas unangebracht, findest du nicht?

Deine Beiträge sind leicht "grenzwertig".


kann ich aber gut verstehen. Anscheinend macht ihn momentan ein Gast ziemlich schräg von der Seite an. Sehr Ärgerlich!

Gipsel
2009-09-10, 12:03:27
Ich kann mir eben einfach nicht vorstellen, das gerade ATI in dem Bereich soviel investiert haben soll.
Speziell da es keinen Anlass für Sie gibt, da 99,9% der Tester die AF-Qualität sowas von egal ist bzw. das jetzige ATI AF als genügend empfinden.
Nun, vielleicht war es relativ billig? Die größeren Caches bzw. größere interne Bandbreite erwarte ich sowieso, um die nur mäßig gestiegene Speicherbandbreite aufzufangen (die deswegen abseits extremer Settings also kein wirkliches Problem sein muß). Wenn man das alles sowieso macht, fällt der zusätzliche Aufwand vielleicht vertretbar aus.

AnarchX
2009-09-10, 12:03:31
Ein paar Folien vom Japan Press Event:
http://forums.overclockers.com.au/showpost.php?p=10861628&postcount=543

Ailuros
2009-09-10, 12:03:45
Leicht genervt, oder? Lass doch bitte deinen Frust nicht an den Forenusern aus... besonders für einen Moderator etwas unangebracht, findest du nicht?

Deine Beiträge sind leicht "grenzwertig".

Wie ich es mir vorstellte; manchmal bringt eben eine generelle Warnung das erwuenschte Resultat.

Der ewige unschuldige Forenuser namens Tarkin :biggrin:

Gast
2009-09-10, 12:04:51
Weiss man auch was zum GENAUEN Launch der HD5870-er Serie und deren Verfuegbarkeit dann am Lauchtag.
Ebenso was durchgesickert zwecks der offiziellen Preise von AMD-ATI ?
In Euro bitte, nicht US Dollars!

AnarchX
2009-09-10, 12:10:08
Eyefinity Präsentation:
http://www.techradar.com/news/gaming/hands-on-ati-eyefinity-review-634244

X.Perry_Mental
2009-09-10, 12:14:24
Eyefinity Präsentation:
http://www.techradar.com/news/gaming/hands-on-ati-eyefinity-review-634244
6 (!) Monitore pro GraKa? DAS ist wirklich beeindruckend.

AnarchX
2009-09-10, 12:16:23
Wird wohl eher ein Crossfire-System sein.

Gipsel
2009-09-10, 12:17:08
6 (!) Monitore pro GraKa? DAS ist wirklich beeindruckend.
Dafür soll man aber eine spezielle Ausführung (HD5870 SIX) kaufen müssen, die normalen sind auf drei beschränkt (wegen den Anschlüssen wahrscheinlich :rolleyes:).

X.Perry_Mental
2009-09-10, 12:18:43
Wird wohl eher ein Crossfire-System sein.
im Text zu dem Link steht aber ausdrücklich "AMD is looking to expand your horizons with its Eyefinity technology, allowing you to run up to six monitors in HD from a single graphics card". Ein Crossfire-Gespann als "single graphics card" zu umschreiben wäre schon etwas weit hergeholt (auch wenn es eher zu den älteren Spekulationen mit 3 Monitoren pro Karte passen würde).

EDIT: OK, habe grade Gipsels erklärenden Kommentar gelesen, also 3 pro normale Karte und 6 mit der "special edition".

Ailuros
2009-09-10, 12:19:22
Eyefinity Präsentation:
http://www.techradar.com/news/gaming/hands-on-ati-eyefinity-review-634244

Sieht echt toll aus. Nur sind fuer mein budget 3 Bildschirme doch etwas zu teuer :(

Gipsel
2009-09-10, 12:19:38
Wird wohl eher ein Crossfire-System sein.
Nein. Angeblich eine Single-GPU-Karte.

AnarchX
2009-09-10, 12:19:40
Da die meisten Nutzer wohl eh nur ein Display nutzen werden, kann man diese Entscheidung auch verstehen. Zumal ein RV870 bei 6 Monitoren (~12MPix) wohl nicht mehr wirklich ausreicht für 3D.

Die HD5850 soll wohl schon kein Eyefinity mehr unterstützen und mal sehen was die Hersteller bei ihren eigenen Cut-Down-Versionen machen werden.

crux2005
2009-09-10, 12:24:44
so ein bullshit,das ist niemals max detail oder kannst du französisch?

das ist nicht französisch sonder tschechisch und ob OBR die Werte nicht einfach erfunden hat ist auch eine gute Frage...

wie auch immer eine sprache die keiner versteht

Danke :P

Hakkerstiwwel
2009-09-10, 12:24:53
...Selbst wenn ATI Transistoren abseits der Qualitätssteigerung (wenn es denn wirklich besser und nicht einfach anders wird, ich finde es immer noch merkwürdig das keiner, auch keiner von ATI, das Wort "besser" in den Mund nimmt, sondern es immer nur als "anders" oder "neu" beschrieben wird) ....
Damit wuerden sie sich ja auch in's eigene Fleisch schneiden (und indirekt als Schoenredner entlarven), da den bisherigen Ati Aussagen zufolge AI keine BQ Verluste mit sich bringt. Also ist in diesem Fall "anders" (vielleicht)gleich "besser" ohne es so direkt zu sagen.

ShadowXX
2009-09-10, 12:25:09
Das Argument geht eher so. ALUs, TMUs, ROPs und Scheduler sind verdoppelt (letzterer vielleicht etwas mehr als das), aber Speicherinteface, UVD und solcher Kram nicht. Die Verdopplung der Einheitenzahl wird durch den Shrink aufgefangen. Wenn RV870 also größer ist als RV770, dann ist da noch irgendwas mehr.

Naja, der Shrink ist ja nicht 100%

Nun, vielleicht war es relativ billig? Die größeren Caches bzw. größere interne Bandbreite erwarte ich sowieso, um die nur mäßig gestiegene Speicherbandbreite aufzufangen (die deswegen abseits extremer Settings also kein wirkliches Problem sein muß). Wenn man das alles sowieso macht, fällt der zusätzliche Aufwand vielleicht vertretbar aus.
Und warum nimmt dann keiner das Wort "besser" in den Mund, sondern nur "anders" oder "neu".

Ein paar Folien vom Japan Press Event:
http://forums.overclockers.com.au/showpost.php?p=10861628&postcount=543
Irgendwie nicht sehr berauschend. Wenn die heutige Präsentation genauso oberflächlich wird, wissen die Anwenden Presseleute hinterher auch nicht mehr als wir jetzt auch schon wissen;)
6 (!) Monitore pro GraKa? DAS ist wirklich beeindruckend.
Erstmal nur 3, die 6 soll ne Option bei zukünftigen Karten sein.


Die HD5850 soll wohl schon kein Eyefinity mehr unterstützen und mal sehen was die Hersteller bei ihren eigenen Cut-Down-Versionen machen werden.
Soviel zum Thema "billige OEM-Lösung für mehr als 2 Monitore".....

LovesuckZ
2009-09-10, 12:27:35
Ein paar Folien vom Japan Press Event:
http://forums.overclockers.com.au/showpost.php?p=10861628&postcount=543

Ich finde die erste Folie interessant:
Einzige D3D11 GPU? Geht AMD davon aus, dass nVidia bei D3D10.1 bleibt?!
4. GDDR5 Generation? Zählen dir wirklich jede neue Karte mit - 4870, 4890, 4770?!

Oh und seit wann ist ComputeShader ein "Open Standard"?

Blacksoul
2009-09-10, 12:28:28
We also asked AMD if the EyeFinity tech could cope with monitors with different resolutions and sizes, and received an affirmative – which means that you could begin to add monitors as and when you like, including re-using old ones.

Full of win. (y) Die X1650 für den Dritten ist bei mir gestern ohnehin rausgeflogen.


t.b.d

Gipsel
2009-09-10, 12:28:49
Erstmal nur 3, die 6 soll ne Option bei zukünftigen Karten sein.Die aber schon vorgeführt wurde. Also lauffähig ist das. Die Anwendungsnische ist aber wohl sehr klein.

ShadowXX
2009-09-10, 12:30:51
Ich finde die erste Folie interessant:
Einzige D3D11 GPU? Geht AMD davon aus, dass nVidia bei D3D10.1 bleibt?!

War mir auch aufgefallen.....allerdings gingen Sie beim G80 auch davon aus das er keine USA sein würde, sondern irgendein Hybrid.

Full of win. (y) Die X1650 für den Dritten ist bei mir gestern ohnehin rausgeflogen.
t.b.d
Du hast aber mitbekommen das EyeFinity scheinbar nur von der 5870 unterstützt werden wird.....

Blacksoul
2009-09-10, 12:34:43
Du hast aber mitbekommen das EyeFinity scheinbar nur von der 5870 unterstützt werden wird.....

Weswegen ich sie dann auch kaufen werde. :| Wie soll das denn sonst gehen? Ich hatte bisher eben eine HD4870 und eine X1650 für drei Monitore drin. die 4870 fliegt raus und wird eben durch die 5870 ersetzt. Wo ist das Problem?


t.b.d

ShadowXX
2009-09-10, 12:36:35
Weswegen ich sie dann auch kaufen werde. :| Wie soll das denn sonst gehen? Ich hatte bisher eben eine HD4870 und eine X1650 für drei Monitore drin. die 4870 fliegt raus und wird eben durch die 5870 ersetzt. Wo ist das Problem?
t.b.d
Es ging nur darum das viele davon ausgegangen waren, das EyeFinity bis runter in den Low-Low-Cost Bereich unterstützt wird.

Und nicht jeder gleich ne 5870 kauft, sondern viele auch auf die 5850 aus sind....

Gipsel
2009-09-10, 12:38:54
Also wie ich das verstanden habe, werden 3 Monitore auch von den kleineren Karten unterstützt. Nur die 6 Monitore pro Karte benötigt das HD5870 Sondermodell.

Gipsel
2009-09-10, 12:42:38
Es ging nur darum das viele davon ausgegangen waren, das EyeFinity bis runter in den Low-Low-Cost Bereich unterstützt wird.Da wird dann einfach an den Anschlüssen auf der Slotblende gespart. Ich kann mir wirklich nicht vorstellen, daß die Hersteller auch bei der kleinsten Kleckerkarte 4 Anschlüsse (wie bei allen bisher gezeigten Modellen) draufhauen.

Ailuros
2009-09-10, 12:47:14
Ist eyefinity nur auf 3D beschraenkt? (ehrliche Frage) Falls nicht kann ich mir schon so manchen moeglichen Nutzen vorstellen der auch dann Sinn fuer moderartere GPUs machen koennte.

w0mbat
2009-09-10, 12:48:01
Eyefinity kann bestimmt auch normal 3+ Displays ansteuern.

reunion
2009-09-10, 13:02:43
Es ging nur darum das viele davon ausgegangen waren, das EyeFinity bis runter in den Low-Low-Cost Bereich unterstützt wird.


Die 6 Monitore gibt es nur mit der Trillian-Karte. Drei Monitore wird man aber wohl runter bis zum Lowend unterstützen.

reunion
2009-09-10, 13:03:20
Irgendwie nicht sehr berauschend. Wenn die heutige Präsentation genauso oberflächlich wird, wissen die Anwenden Presseleute hinterher auch nicht mehr als wir jetzt auch schon wissen;)


Wer sagt dass das alles war hm? :)

Ailuros
2009-09-10, 13:03:46
Eyefinity kann bestimmt auch normal 3+ Displays ansteuern.

Ergo koennte ich mir so manche multimedia Anwendung vorstellen wo so etwas nutzvoll sein koennte.

----------------------------------------------------------

http://www.fudzilla.com/content/view/15434/1/

We received some details about the name of the chip that ATI codenamed Cypress which we have called RV870. The internal generation codename is Evergreen and this name represents the entire DirectX 11 generation of ATI cards.

The top card is named Radeon HD 5870 but the company plans two versions, one with 2GB memory and one with 1GB.

The Radeon HD 5870 1GB should sell for $399 at launch, while Radeon HD 5870 2GB should sell for $449. At the same time, the slower Radeon HD 5850 with 1GB memory will sell for $299. The launch date for all three cards is September 23rd in Europe whereas in the US we are talking about the 22nd.

Jetzt bitte nicht schlagen aber ich kann die $449 fuer die 2GB Variante verstehen, die $399 wiederrum nicht. Ich dachte bisher dass die $399 fuer die 2GB Variante stehen wuerde.

Gast
2009-09-10, 13:12:22
http://www.amd.com/de/products/desktop/graphics/ati-radeon-hd-5000/Pages/default.aspx

einmal Benutzername und Passwort bitte. :D

reunion
2009-09-10, 13:22:15
Jetzt bitte nicht schlagen aber ich kann die $449 fuer die 2GB Variante verstehen, die $399 wiederrum nicht. Ich dachte bisher dass die $399 fuer die 2GB Variante stehen wuerde.

Warum nicht? Das zusätzliche GB kostet sicherlich keine $50.

ShadowXX
2009-09-10, 13:26:20
Warum nicht? Das zusätzliche GB kostet sicherlich keine $50.
Ich glaube damit meint AiL das ihm die 399$ für die 1GB zu hoch sind, die 50$ mehr fürs 2te GB dagegen OK.

V2.0
2009-09-10, 13:33:22
Wenn AMD nicht jetzt Geld verdient, wann dann? Man steht ohne Konkurrenz am Markt.

LovesuckZ
2009-09-10, 13:34:00
Wenn AMD nicht jetzt Geld verdient, wann dann? Man steht ohne Konkurrenz am Markt.

Ich dachte man verdient das Geld nur im <200$ Bereich? :freak:

Spasstiger
2009-09-10, 13:36:30
Ein Aufpreis von 10-15% ist auf jeden Fall realistisch bei einer High-End-Karte für das zusätzliche GiB an Speicher. Zumal der GDDR5-Speicher der HD 5870 angeblich mit 4,8 Gbps betrieben wird, was bisher noch bei keiner Grafikkarte der Fall ist. Und schnell plus groß bedeutet immer teuer.

Gast
2009-09-10, 14:20:40
Ich dachte man verdient das Geld nur im <200$ Bereich? :freak:
Dafür gibts doch RV830 und vielleicht sowas wie RV870LE (1280 Shader ?)

Ailuros
2009-09-10, 14:22:19
Ich glaube damit meint AiL das ihm die 399$ für die 1GB zu hoch sind, die 50$ mehr fürs 2te GB dagegen OK.

Eben; wenn ich persoenlich schon 399 auf den Ladentisch lege dann machen die zusaetzlichen 50 auch keinen besonderen Unterschied mehr. Ich hab mal nachgestoebert ueber die heutigen Preise und die billigste 285 2GB im Vergleich zur billigsten 285 1GB die ich hier finden konnte haben einen ~90 Euro Unterschied. :confused:

Ein Aufpreis von 10-15% ist auf jeden Fall realistisch bei einer High-End-Karte für das zusätzliche GiB an Speicher. Zumal der GDDR5-Speicher der HD 5870 angeblich mit 4,8 Gbps betrieben wird, was bisher noch bei keiner Grafikkarte der Fall ist. Und schnell plus groß bedeutet immer teuer.

Noch realistischer waere wenn bei dem relativ kleinen Preisunterschied die 2GB Variante mit niedrigerer Frequenz ankommt.

reunion
2009-09-10, 14:26:32
Eben; wenn ich persoenlich schon 399 auf den Ladentisch lege dann machen die zusaetzlichen 50 auch keinen besonderen Unterschied mehr. Ich hab mal nachgestoebert ueber die heutigen Preise und die billigste 285 2GB im Vergleich zur billigsten 285 1GB die ich hier finden konnte haben einen ~90 Euro Unterschied. :confused:


Ich finde überhaupt keine lieferbare GTX285 2GB. Der Aufpreis ist völlig im Rahmen IMO, der Unterschied zwischen 4870 1Gb und 4870 2GB ist auch nicht größer. Oder auch bei den jeweiligen 512MB/1Gb Versionen.

AnarchX
2009-09-10, 14:28:17
$50 klingen in der Tat etwas seltsam, gerade bei laut Fuad 5.2Gbps GDDR5. Zumal man hier mangels 2Gbit Chips auch 16 statt 8 bei 1GiB benötigt, was auch das PCB etwas komplexer macht.

Zudem ist der preisliche Unterschied zwischen 50 und 70 gegenüber HD4800 geschrumpft, obwohl der Leistungsunterschied laut aktuellen Spezifikationen eher gestiegen ist.

reunion
2009-09-10, 14:30:06
Noch realistischer waere wenn bei dem relativ kleinen Preisunterschied die 2GB Variante mit niedrigerer Frequenz ankommt.

Vollkommen unrealistisch. Das Topmodell wird man sicherlich nicht niedriger takten. Das geht an die Reviewer.

crux2005
2009-09-10, 14:31:23
Ich hab mal nachgestoebert ueber die heutigen Preise und die billigste 285 2GB im Vergleich zur billigsten 285 1GB die ich hier finden konnte haben einen ~90 Euro Unterschied. :confused:

bei uns ist der Preisunterschied zwischen einer 1GB GTX 285 und 2GB GTX 285 nicht einmal 25 Euro

AnarchX
2009-09-10, 14:34:34
bei uns ist der Preisunterschied nicht einmal 25 Euro zwischen einer 1GB GTX 285 und 2GB GTX 285
Hier ändert sich aber auch nicht die Menge der Speicherchips und es wird keine Bestückung der Rückseite nötig, wie es wohl bei einer 5870 2GiB der Fall wäre.
Das könnte auch ein Problem für die X2 darstellen, die aber wohl eh erstmal nur mit 2x1GiB kommt.

reunion
2009-09-10, 14:36:41
Hier ändert sich aber auch nicht die Menge der Speicherchips und es wird keine Bestückung der Rückseite nötig, wie es wohl bei einer 5870 2GiB der Fall wäre.


Bei der großen Platine wird man wohl kaum eine Bestückung der Rückseite benötigen und vielleicht kommt sogar auch die 1GB Version mit 16 Chips. Bei der 4770 hat man ja auch 8 Chips verbaut, dürfte billiger sein. Gerade wo man wegen der 2GB Version und den entsprechenden FirePROs ohnehin eine Platine mit 16 Speicherchips benötigt.

Coda
2009-09-10, 14:37:31
Dafür gibts doch RV830 und vielleicht sowas wie RV870LE (1280 Shader ?)
Als Shader wird für gewöhnlich ein Programm bezeichnet. Die Hardwareeinheiten heißen Streamprozessoren oder ALUs.

Ailuros
2009-09-10, 14:39:49
Vollkommen unrealistisch. Das Topmodell wird man sicherlich nicht niedriger takten. Das geht an die Reviewer.

Ich bestehe auch nicht darauf, bis wir mehr darueber erfahren. Mir klingt aber trotz allem ein 50 Dollar Unterschied nicht "normal".

bei uns ist der Preisunterschied zwischen einer 1GB GTX 285 und 2GB GTX 285 nicht einmal 25 Euro

Wie ist das Wetter nochmal bei Euch? :D

reunion
2009-09-10, 14:42:44
Ich bestehe auch nicht darauf, bis wir mehr darueber erfahren. Mir klingt aber trotz allem ein 50 Dollar Unterschied nicht "normal".


Warum? Ist woanders auch nicht mehr:

4890 1GB: http://geizhals.at/eu/a435925.html
4890 2GB: http://geizhals.at/eu/a442154.html

ShadowXX
2009-09-10, 14:43:19
Ich bestehe auch nicht darauf, bis wir mehr darueber erfahren. Mir klingt aber trotz allem ein 50 Dollar Unterschied nicht "normal".

Vielleicht subventionieren Sie die 2GB Version mit der 1GB Version;)

Bei 30 Euro Unterschied zwischen 1GB und 2GB müsste aber im Prinzip jeder die 2GB Version kaufen....

AnarchX
2009-09-10, 14:44:42
Es sind ja immernoch MSRPs, vielleicht wird dann bei mangelhafter Verfügbarkeit der 2GiB 5870 dann ganz schnell 100€+ daraus. :D

reunion
2009-09-10, 14:46:50
Vielleicht subventionieren Sie die 2GB Version mit der 1GB Version;)


Vielleicht verlangen sie auch einfach keinen Deppenaufschlag für den doppelten Speicher wie sonst immer wieder mal üblich. AMD kostet 1GB GDDR5 mit Sicherheit keine $50, keine Ahnung was die Diskussion hier soll.

Blacksoul
2009-09-10, 14:50:33
Vielleicht verlangen sie auch einfach keinen Deppenaufschlag für den doppelten Speicher wie sonst immer wieder mal üblich. AMD kostet 1GB GDDR5 mit Sicherheit keine $50, keine Ahnung was die Diskussion hier soll.

Ach komm. Keiner hat etwas zu verschenken. Schon gar nicht AMD. Das soll die Diskussion hier.


t.b.d

Ailuros
2009-09-10, 14:51:44
Ok reunion ich geb Dir einen besseren Grund zum meckern:

http://forum.beyond3d.com/showpost.php?p=1332685&postcount=2476

Eggcake
2009-09-10, 14:53:00
Aber es sind, wie er ja selbst schon verlinkt hat, bei der aktuellen 4890 mit GDDR5 bereits nur gute 20€ Preisdifferenz. Hauste noch 15€ drauf für teureren GDDR5 o.ä. und du landest bei den rund 50$...

Drum - so merkwürdig ist's eben nicht, wenn man die aktuelle Generation betrachtet.

reunion
2009-09-10, 14:53:11
Ach komm. Keiner hat etwas zu verschenken. Schon gar nicht AMD. Das soll die Diskussion hier.


t.b.d

Warum hat man etwas zu verschenken wenn man für eine Karte mit dem doppelten Speicher $50 Aufpreis verlangt? Heute kostet das auch nicht mehr, ganz im Gegenteil. Ich sehe nicht was daran jetzt ungewöhnlich sein soll.

reunion
2009-09-10, 14:54:32
Ok reunion ich geb Dir einen besseren Grund zum meckern:

http://forum.beyond3d.com/showpost.php?p=1332685&postcount=2476

Meckern? Ich habe nichts zu meckern.

... they reworked the TMUs, the cache, and added some really nice features ...
... this information is all "under NDA" .. and it is "leaked" to us.
I guess our friend Huddy was right; i am pleasantly surprised.

Aber soetwas lässt einem natürlich gespannt warten. :)
Mal sehen was für nette Features er meint.

crux2005
2009-09-10, 14:55:59
Wie ist das Wetter nochmal bei Euch? :D

im Moment: 23°C, leicht bewölkt und eine Wohnung haben wir noch frei. Einen Flug kannst du also schon Heute buchen... ;D

Bei 30 Euro Unterschied zwischen 1GB und 2GB müsste aber im Prinzip jeder die 2GB Version kaufen....

ich fände die 2GB Version auch bei einem 50Euro Aufpreis interessanter

Ailuros
2009-09-10, 15:11:04
Meckern? Ich habe nichts zu meckern.
Aber soetwas lässt einem natürlich gespannt warten. :)
Mal sehen was für nette Features er meint.

*you have reached a blank page* :frown:

Ich kann mir bei bestem Willen nicht vorstellen was gemeint ist, sterbe aber vor Neugierde denn es ist gerade das Feld dass mich meistens interessiert.

reunion
2009-09-10, 15:11:22
Bei B3D hat übrigens jemand die Chiphell Resultate der 5870 mit den Benchs später im Thread verglichen:

http://img34.imageshack.us/img34/2338/hd5870crysis.png (http://img34.imageshack.us/i/hd5870crysis.png/)

http://forum.beyond3d.com/showpost.php?p=1332656&postcount=2466

35007
2009-09-10, 15:12:20
Na Jungs, wann soll die Party steigen? Ist das heutige Event schon gelaufen?

Grüzi

AnarchX
2009-09-10, 15:12:49
Etwas zweifelhaft, ob die restlichen Werte aus dem gleichen Szenario stammen. ;)

w0mbat
2009-09-10, 15:13:36
Na Jungs, wann soll die Party steigen? Ist das heutige Event schon gelaufen?

Grüzi

Nein, da ist es gerade erst morgens.

reunion
2009-09-10, 15:14:14
Etwas zweifelhaft, ob die restlichen Werte aus dem gleichen Szenario stammen. ;)

Es wäre zumindest nicht unlogisch wenn man für die 5870 dasselbe Szenario verwendet wie sonst auch. Aber die Werte sind zugegebenermaßen natürlich schon sehr hoch.

AnarchX
2009-09-10, 15:14:33
Na Jungs, wann soll die Party steigen? Ist das heutige Event schon gelaufen?

Grüzi
In weniger als 3h läuft das NDA für die Press Event Folien ab:
http://forums.overclockers.com.au/showpost.php?p=10861628&postcount=543

Es wäre zumindest nicht unlogisch wenn man für die 5870 dasselbe Szenario verwendet wie sonst auch. Aber die Werte sind zugegebenermaßen natürlich schon sehr hoch.
Man hat sich wie auch hier im Thread einfach ein paar Crysis Werte aus einem Review gegriffen.
Wenn die Karten schon im Umlauf sind, dürfte es aber wohl nicht mehr lange zu vergleichbaren Resultaten dauern.

35007
2009-09-10, 15:14:57
Bei B3D hat übrigens jemand die Chiphell Resultate der 5870 mit den Benchs später im Thread verglichen:

http://img34.imageshack.us/img34/2338/hd5870crysis.png (http://img34.imageshack.us/i/hd5870crysis.png/)

http://forum.beyond3d.com/showpost.php?p=1332656&postcount=2466

Wäre zu hoffen aber durch Werte verschiedener Systeme nicht in einem Chart vergleichbar.

derguru
2009-09-10, 15:15:39
es gibt zu den hohen werten nur 2 erklärungen,entweder schwachsinn oder wie in dem einen beitrag ist es wirklich so das 4AA sozusagen for free ist.
die anderen resultate sollten in etwa hinhauen.

35007
2009-09-10, 15:16:16
In weniger als 3h läuft das NDA für die Press Event Folien ab:
http://forums.overclockers.com.au/showpost.php?p=10861628&postcount=543

Super! Danke für die Zeitangabe. Dann bin ich mal extrem gespannt.

Knuddelbearli
2009-09-10, 15:18:03
Ach komm. Keiner hat etwas zu verschenken. Schon gar nicht AMD. Das soll die Diskussion hier.


t.b.d


naaja der lahme 1GB GDDR5 mit 1000 Mhz kostet ja bereits ca 30 Dollar und 1250 wird sicher deutlich teurer sein

Zockerfrettchen
2009-09-10, 15:55:53
Was ich mich nur frage: Wie will AMD, sollten die TDPs zutreffen, eine Dualkarte aus 2x5870 bauen?

mapel110
2009-09-10, 15:58:12
Was ich mich nur frage: Wie will AMD, sollten die TDPs zutreffen, eine Dualkarte aus 2x5870 bauen?
Vielleicht kommt ja auch erstmal eine 5850-Dual-Karte. Selektierte Chips, Spannung senken und es sollte klappen.

AnarchX
2009-09-10, 15:59:51
Da man diesmal etwas mehr als $499/549 verlangen wird, sind besser selektierte Chips doch durchaus denkbar.

Chris2CB
2009-09-10, 16:11:05
[QUOTE=AnarchX;7523768]Da man diesmal etwas mehr als $499/549 verlangen wird, sind besser selektierte Chips doch durchaus denkbar.[/QUOTE

Wo ist da der Zusammenhang??? Wenn ATI 10.000 Idi......findet die 1000€ pro Karte zahlen wird die Fertigung dadurch trotzdem nicht besser. Und ob das DING 350 oder 380Watt futtert ist dann auch relativ..........Nur....wo der Verbrauch höher ist, muss auch mehr Metall dran und Wandler.

LovesuckZ
2009-09-10, 16:15:05
Vielleicht kommt ja auch erstmal eine 5850-Dual-Karte. Selektierte Chips, Spannung senken und es sollte klappen.

Je geringer der Abstand zwischen der schnellsten Single-GPU und x2 Karte, umso uninteressanter ist die Lösung.
nehmen wir an, dass die TDP Werte stimmen: Dann könnte dies bedeuten, dass der Prozeß nicht wirklich gut ist und man nur mit viel Spannung auf die gewünschten Taktraten kommt. Und die paar guten Chips könnten dann für eine x2 Karte verwendet werden. Eine andere Erklärung sehe ich nicht, denn wenn es so geplant wäre, dass die 5870 190 Watt haben sollte, macht eine x2 mit vielleicht 50-60% Mehrleistung und 300 Watt Verbrauch 0 Sinn.

Gast
2009-09-10, 16:19:50
Ich freue mich schon auf die Karte. 400 Euro für die schnellste Singlekarte der Welt ist schon OK. Nur dumm das ich meine alte 260 nicht als PhysX-Karte nutzen kann:(

reunion
2009-09-10, 16:20:40
Eine 4890 hat auch 190W TDP. Eine 4870 160W. Ich sehe nicht das Problem eine entsprechende X2 zu bauen mit selektierten Chips. Zudem sollte man nicht vergessen das die X2 nicht eine doppelt so hohe TDP hat wie zwei Einzelkarten. Wenn man bei der X2 nur 2x 1Gb VRAM verwendet spart das auch schon einiges. Und im Notfall geht man mit den Takt halt um 50Mhz runter, bricht auch nicht die Welt zusammen. NV macht das schon immer so und deaktiviert sogar Einheiten.

mapel110
2009-09-10, 16:21:11
Anders sah die Situation bei GTX 295 doch auch nicht aus. 300 Watt wären sicher zu viel, aber 250 sollte machbar sein.

derguru
2009-09-10, 16:21:14
naja da mache ich mir keine sorgen die werden schon wissen was sie machen.eine 295gtx hat auch es geschaft unter 300W zubleiben und da sind die Watt zahlen in etwa identisch zum amd part,einzeln betrachtet.

S940
2009-09-10, 16:22:44
Aber soetwas lässt einem natürlich gespannt warten. :)
Mal sehen was für nette Features er meint.
Jo, dazu noch der verbesserte Threadscheduler, der schon früher gemeldet wurde ... schon lustig, wie immer mehr aus dem alten R600 Design rausgequetscht wird.

Ich freue mich schon auf die Karte. 400 Euro für die schnellste Singlekarte der Welt ist schon OK. Nur dumm das ich meine alte 260 nicht als PhysX-Karte nutzen kann:(
Das geht mit Win7 oder XP und alten nVidia Treibern vor 180 oder so, der Treiber ist für PhysiX eher uninteressant, also wenn Du ein Mainboard mit 2 Slots hast und das NT stark genug ist ... viel Spass mit schneller Grafik und PhysiX :)

ciao

Alex

reunion
2009-09-10, 16:27:15
Jo, dazu noch der verbesserte Threadscheduler, der schon früher gemeldet wurde ... schon lustig, wie immer mehr aus dem alten R600 Design rausgequetscht wird.


Ja, wirklich lustig wie auch der angeblichen Evolution RV870 auf einmal immer mehr neues an die Öffentlichkeit kommt.

Coda
2009-09-10, 16:33:20
Jo, dazu noch der verbesserte Threadscheduler, der schon früher gemeldet wurde ... schon lustig, wie immer mehr aus dem alten R600 Design rausgequetscht wird.
Den braucht man um die zwei zusätzlichen Shader-Stages zu versorgen. Für mehr nicht.

Die Rechenleistung erhöht das nicht.

Werewolf
2009-09-10, 16:33:56
PhysX wird stark überbewertet. Wo sind denn die Spiele die den nötigen Kaufanreiz auslösen sollen? Die paar Fahnen und Flaggen in Mirror's Edge, die wenigen Kisten in Batman?

LovesuckZ
2009-09-10, 16:38:41
Eine 4890 hat auch 190W TDP. Eine 4870 160W. Ich sehe nicht das Problem eine entsprechende X2 zu bauen mit selektierten Chips. Zudem sollte man nicht vergessen das die X2 nicht eine doppelt so hohe TDP hat wie zwei Einzelkarten. Wenn man bei der X2 nur 2x 1Gb VRAM verwendet spart das auch schon einiges. Und im Notfall geht man mit den Takt halt um 50Mhz runter, bricht auch nicht die Welt zusammen.

Eine x2 zu bauen ist nicht das Problem - eine sinnvolle zu haben, dagegen sehr.


NV macht das schon immer so und deaktiviert sogar Einheiten.

Und das nur, um etwas leicht schnelleres zu haben. Eine mGPU Lösung, die aufgrund von Spezifikationen eingeschränkt ist, wird nicht überzeugend sein.
Ich lasse mich da im Oktober überraschen, mit welchen Werten man ankommt. Aber man sieht, dass das x2 Konzept nur lohnend ist, wenn der Single-Chip gewisse Punkte einhält - und dazu gehört auch ein gewisser Spielraum in der Stromaufnahme.

PhysX wird stark überbewertet. Wo sind denn die Spiele die den nötigen Kaufanreiz auslösen sollen? Die paar Fahnen und Flaggen in Mirror's Edge, die wenigen Kisten in Batman?

Ist das nicht mit jedem Fortschritt so? Die Anpassungszeit dauert halt. D3D10.x hat sich innerhalb von 3 Jahren nichtmal durchgesetzt.

Ailuros
2009-09-10, 16:41:33
Eine 4890 hat auch 190W TDP. Eine 4870 160W. Ich sehe nicht das Problem eine entsprechende X2 zu bauen mit selektierten Chips. Zudem sollte man nicht vergessen das die X2 nicht eine doppelt so hohe TDP hat wie zwei Einzelkarten. Wenn man bei der X2 nur 2x 1Gb VRAM verwendet spart das auch schon einiges. Und im Notfall geht man mit den Takt halt um 50Mhz runter, bricht auch nicht die Welt zusammen. NV macht das schon immer so und deaktiviert sogar Einheiten.

Hemlock wird auch nicht im Oktober auf Regalen landen. Und ja leicht reduzierte Frequenz und/oder deaktivierte Einheiten sind eine interessante These hier.

Was jetzt den Stromverbrauch betrifft ist er insgesamt am wichtigsten im Notebook Markt. Hier hab ich keinen Zweifel dass erstmal AMD wirklich glaenzen koennte mit OEM deals allen dank dem D3D11 Aufkleber. Eine Hoffnung fuer die Konkurrenz hier wieder zum Aufschwung zu kommen sieht es fuer die naechste Zeit nicht aus. Da sich dieser Markt auch auf etwas verspaeteten cycli als der desktop Markt bewegt und auch der notebook Markt generell im konstanten Aufschwung liegt hat AMD tatsaechlich ausgezeichnete Chancen sich wirklich stark aufzupumpen.

Es ist wirklich das erste Mal wo ich wirklich das Gefuehl habe dass sich das Blatt zu gunsten AMD was Marktanteile betrifft wenden wird. Investieren sie jetzt diesmal noch aggressiver in Stellen wie der Profi-Markt koennte ATI endlich den Punkt erreichen der ihr eigentliches Potential auch wert ist.

derguru
2009-09-10, 16:45:37
Ist das nicht mit jedem Fortschritt so? Die Anpassungszeit dauert halt. D3D10.x hat sich innerhalb von 3 Jahren nichtmal durchgesetzt.

jepp und wie soll das erst aussehen wenn man ganz alleine darsteht im gegesatz zu dx10.:wink:

LovesuckZ
2009-09-10, 16:48:19
jepp und wie soll das erst aussehen wenn man ganz alleine darsteht im gegesatz zu dx10.:wink:

Du meinst so wie mit D3D11? :freak:

reunion
2009-09-10, 16:48:37
Eine x2 zu bauen ist nicht das Problem - eine sinnvolle zu haben, dagegen sehr.


Glücklicherweise entscheidest du nicht was sinnvoll ist. Wenn man das fertige Produkt hat kann man sich darüber noch immer unterhalten.

BTW, die Crysis Resultate von Chiphell sollen mit einer übertakteten 5870 entstanden sein.

AnarchX
2009-09-10, 16:49:07
Bei Chiphell hat man nun noch hinzegefügt, dass es sich um eine übertaktete HD5870 im Crysis Benchmark handelt.

LovesuckZ
2009-09-10, 16:50:54
Glücklicherweise entscheidest du nicht was sinnvoll ist. Wenn man das fertige Produkt hat kann man sich darüber noch immer unterhalten. Im Notfall nimmt man selektierte Chips oder etwas weniger Takt.

Viel Spaß den Käufer einer x2 zu erklären, dass man im schlimmsten Fall langsamer als die Single-GPU ist. Wer sein Marktkonzept auf eine x2 aufbaut, sollte dann auch in der Lage sein, dass minimale Leistungsziel so zusetzen, dass für den Käufer am Ende nicht eine Mogelpackung herauskommt.

Werewolf
2009-09-10, 16:51:26
Ist das nicht mit jedem Fortschritt so? Die Anpassungszeit dauert halt. D3D10.x hat sich innerhalb von 3 Jahren nichtmal durchgesetzt.

Dieser Fortschritt will sich aber auch in die Breite durchsetzen, und das geht nicht indem man Fremdkarten aussperrt. Abgesehen davon dass hier manche so tun als sei PhysX-Hardware so essentiell dass sie zu einer 5870 eine GTX 260 dazugesellen würden damit PhysX nicht außen vor bleibt. Kanonen auf Spatzen. Man verpasst gegenwärtig überhaupt nichts.

Früher oder später wird Physik vielleicht sogar viel eher in die Hände von DirectX fallen, das wissen aber andere Leute besser.

reunion
2009-09-10, 16:52:30
Viel Spaß den Käufer einer x2 zu erklären, dass man im schlimmsten Fall langsamer als die Single-GPU ist. Wer sein Marktkonzept auf eine x2 aufbaut, sollte dann auch in der Lage sein, dass minimale Leistungsziel so zusetzen, dass für den Käufer am Ende nicht eine Mogelpackung herauskommt.

Etwas das NV bis heute noch mit keiner Dual-GPU-Karte erreicht hat. Also lauter Mogelpackungen. Oh Mann. Außerdem hast du mir gerade erklärt das RV870 High-End ist, dann ist das X2 Konzept in der bisherigen Form ja auch hinfällig und man braucht sich darum keine Gedanken zu machen.

Ailuros
2009-09-10, 16:56:17
Bei Chiphell hat man nun noch hinzegefügt, dass es sich um eine übertaktete HD5870 im Crysis Benchmark handelt.

Wenn alle Frequenzen um sagen wir mal 15% erhoeht wurden, ist das Resultat auch irgendwo bis zu 15% hoeher. Big deal.

Gast
2009-09-10, 17:01:10
imo wurde die 5870 wohl mit CCC oc´ed. Sollten also max. 10% für die GPU und max. 15% für den Ram gewesen sein.

StefanV
2009-09-10, 17:04:13
Was ich mich nur frage: Wie will AMD, sollten die TDPs zutreffen, eine Dualkarte aus 2x5870 bauen?Indem man Takt und Spannung vom Chip senkt, siehe auch die HD4870x2 oder HD3870x2 oder alle anderen Dual Karten...
PhysX wird stark überbewertet. Wo sind denn die Spiele die den nötigen Kaufanreiz auslösen sollen? Die paar Fahnen und Flaggen in Mirror's Edge, die wenigen Kisten in Batman?
Ists nicht so, das GPU PhysX nur für optische Effekte genutzt werden kann??

LovesuckZ
2009-09-10, 17:04:34
Etwas das NV bis heute noch mit keiner Dual-GPU-Karte erreicht hat. Also lauter Mogelpackungen. Oh Mann.

Wozu auch? nVidia's x2 Karten sind nur aus einem Grund da - um schneller als die Konkurrenz zu sein. AMD dagegen hat ihr Geschäftsmodell darauf aufgebaut, dass man vollwertige x2 Karten bauen werde - da man keine komplexen, stromhungrige High-End Chips mehr bauen würde. Alles andere macht keinen Sinn. Ein x2 Konzept mit deutlich niedrigen Taktraten oder deaktivierten Einheiten ist sinnlos, wenn man als Minimalziel weniger als die beste Single-GPU erreicht.

Gast
2009-09-10, 17:04:42
ich kann nicht verstehen dass hier einige immer noch auf die wertigen ausführungen des herrn lovesuckz eingehen. der typ will doch nur nerven, provozieren, madig machen, mit den immergleichen scheinargumenten. wer schon meint sich in seiner sig rühmen zu müssen, geistig im mittelalter stehengeblieben zu sein ... bitte den troll-taliban nicht füttern! :)

Gast
2009-09-10, 17:06:34
Viel Spaß den Käufer einer x2 zu erklären, dass man im schlimmsten Fall langsamer als die Single-GPU ist.

Erstmal abwarten was es bei der X2 eventuell noch für Überraschungen gibt (bei den single karten natürlich auch abwarten), SFR scheint ja bei Chiphell und Beyond3D wieder ein Diskusionthema zu sein.

reunion
2009-09-10, 17:09:33
Wozu auch? nVidia's x2 Karten sind nur aus einem Grund da - um schneller als die Konkurrenz zu sein. AMD dagegen hat ihr Geschäftsmodell darauf aufgebaut, dass man vollwertige x2 Karten bauen werde - da man keine komplexen, stromhungrige High-End Chips mehr bauen würde. Alles andere macht keinen Sinn. Ein x2 Konzept mit deutlich niedrigen Taktraten oder deaktivierten Einheiten ist sinnlos, wenn man als Minimalziel weniger als die beste Single-GPU erreicht.

Aja, AMDs X2 Karten sind natürlich nicht da um schneller als die Konkurrenz zu sein, sondern das Konzept ist darauf aufgebaut. Da lachen ja die Hühner. Du hast mir vorher gerade erklärt das RV870 High-End sein. Damit ist das Konzept ja auch überflüssig. Und auch wenn du nochmal schreibst das eine Dual-GPU-Karte mit weniger Takt sinnlos ist wird es dadurch nicht korrekter. Aber glaub und sag ruhig was du willst. Mir vergeht die Lust gehen Mühlen zu reden.

Spasstiger
2009-09-10, 17:21:02
Kommt heute eigentlich noch was an Folien? Dieses NDA, was AnarchX erwähnte, (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7523668#post7523668) ist ja schon heute morgen um 6:00 unserer Zeit abgelaufen, zumindest wenn man den Folien glauben darf. Auf jeden Fall sieht man auf den Folien, dass die angeblichen Bilder der HD 5870, die im Netz rumgeistern wohl tatsächlich von einer Radeon HD 58xx stammen.

LovesuckZ
2009-09-10, 17:29:18
Aja, AMDs X2 Karten sind natürlich nicht da um schneller als die Konkurrenz zu sein, sondern das Konzept ist darauf aufgebaut. Da lachen ja die Hühner.

Warum so aggressiv? Ich erarbeite nicht AMD's Marketingstrategie. Jedenfalls gehörte eine x2 beim rv770 noch zum Geschäftsfeld und wurde sogar als "skalierbares Design" im Bezug auf ihre Strategie angepriesen.

Du hast mir vorher gerade erklärt das RV870 High-End sein. Damit ist das Konzept ja auch überflüssig. Und auch wenn du nochmal schreibst das eine Dual-GPU-Karte mit weniger Takt sinnlos ist wird es dadurch nicht korrekter.

Ist es nicht erstaunlich, dass du diesen Aspekt ablehnst, aber gleichzeitig es vollkommen in Ordnung findest, dass eine 5870x2 diesmal sogar kastriert sein könnte?
Das sagte AMD damals zur rv770: http://www.rage3d.com/reviews/video/atirv770/architecture/pics/Bergman/3.jpg
Es ist ein Fakt, dass AMD genau hierauf beim rv670 und rv770 geachtet hatte - eine Single-Karte, die auch als x2 herausgebracht werden könnte. Sollten die TDP stimmen, dann haben sie diese Strategie wieder verworfen. Eine kastrierte x2 wäre ohne nVidia-Konkurrenz einfach sinnlos, da sie selbst im eigenen Portfolio sehr uninteressant ist.

Neocroth
2009-09-10, 17:39:48
Kommt heute eigentlich noch was an Folien? Dieses NDA, was AnarchX erwähnte, (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7523668#post7523668) ist ja schon heute morgen um 6:00 unserer Zeit abgelaufen, zumindest wenn man den Folien glauben darf.

Stimmt, 12:01 AM EST bedeutet 00:01 EST = 6:01 MEZ.

Sollens die paar Folien also gewesen sein?

YfOrU
2009-09-10, 17:45:09
Das Thema X2 ist auf diese Art doch vollkommen überzogen. Ausgehend von den jetzigen Werten der 5870 wären es um die 20% über der 300Watt Marke.

Jetzt weiß aber jeder das die Chips auf den Karten mit großer Stückzahl immer mit etwas mehr Spannung als nötig betrieben werden. - Stichwort Serienstreuung.

Das gleiche ist für den Speicher gültig.

Auf einer X2 (die garantiert alles andere als verramscht wird) gibt es auf der Seite der Bauteile auch mehr Spielraum für teurere Komponenten. Damit lässt sich unter anderem auch höher spezifizierter Speicher verbauen (der dementsprechend bei niedrigeren Frequenzen mit weniger Spannung auskommt).

Weiteres Potential bieten die Spannungswandler.

Aus der Sicht von AMD wäre es sowieso wirtschaftlicher nur selektierte Chips für die X2 den Partnern anzubieten.

reunion
2009-09-10, 17:50:11
- most of the real details will come next week as AMD provides working drivers for 5870

i'm not sure how ChipHell got those Crysis figures unless they modified existing drivers themselves

http://forum.beyond3d.com/showpost.php?p=1332770&postcount=2492

Das Eyefinity-Review ist übrigens mittlerweile offline.

deekey777
2009-09-10, 17:52:29
Der Artikel über den Anschluss mehrer Monitore ist weg?

reunion
2009-09-10, 17:55:21
Der Artikel über den Anschluss mehrer Monitore ist weg?

Ja:
http://www.techradar.com/news/gaming/hands-on-ati-eyefinity-review-634244

LovesuckZ
2009-09-10, 17:56:20
Das Thema X2 ist auf diese Art doch vollkommen überzogen. Ausgehend von den jetzigen Werten der 5870 wären es um die 20% über der 300Watt Marke.

Jetzt weiß aber jeder das die Chips auf den Karten mit großer Stückzahl immer mit etwas mehr Spannung als nötig betrieben werden. - Stichwort Serienstreuung.

Das gleiche ist für den Speicher gültig.

Auf einer X2 (die garantiert alles andere als verramscht wird) gibt es auf der Seite der Bauteile auch mehr Spielraum für teurere Komponenten. Damit lässt sich unter anderem auch höher spezifizierter Speicher verbauen (der dementsprechend bei niedrigeren Frequenzen mit weniger Spannung auskommt).

Weiteres potential bieten die Spannungswandler.

Aus der Sicht von AMD wäre es sowieso wirtschaftlicher nur selektierte Chips für die X2 den Partnern anzubieten.

Bei der PCGH haben sie bei Grid einen 90% höhreren Verbrauch für die 4870x2 zur normalen 4870 gemessen. Die 4870 ist bei AMD mit 160 Watt angegeben und die 4870x2 mit 286 Watt.
AMD müsste schon sehr deutlich selektieren, um wirklich unter der 300 Watt Marke zu bleiben.

S940
2009-09-10, 18:00:13
Den braucht man um die zwei zusätzlichen Shader-Stages zu versorgen. Für mehr nicht.
Woher willst Du wissen, dass die da nicht mehr gedreht haben ?

Coda
2009-09-10, 18:11:43
Weil die Auslastung der ALUs durch den Compiler bereits offline optimal erledigt werden kann uind wird.

Gaston
2009-09-10, 18:16:08
imo wurde die 5870 wohl mit CCC oc´ed. Sollten also max. 10% für die GPU und max. 15% für den Ram gewesen sein.

Wieso das denn?!?

S940
2009-09-10, 18:54:49
Weil die Auslastung der ALUs durch den Compiler bereits offline optimal erledigt werden kann uind wird.
Auch wieder wahr ist ja VLIW :freak:
Hatte ich anscheinend vorübergehend vergessen ^^

Thx

Alex

YfOrU
2009-09-10, 19:14:04
Bei der PCGH haben sie bei Grid einen 90% höhreren Verbrauch für die 4870x2 zur normalen 4870 gemessen. Die 4870 ist bei AMD mit 160 Watt angegeben und die 4870x2 mit 286 Watt.
AMD müsste schon sehr deutlich selektieren, um wirklich unter der 300 Watt Marke zu bleiben.

Auf der 4870 X2 werden reguläre Chips verbaut und ich hab auch schon welche gesehen die diese Karte mit 1.3V betreiben. Damit sinds locker über 300Watt. Wegen der Leistungsaufnahme wird die Karte kaum beschnitten werden müssen.

horn 12
2009-09-10, 19:24:45
@AnarchX

Sollten Heute, spät abends noch weitere Infos durchkommen, oder soll es dies schon gewesen sein ? Zumindest einige weitere DATEN, Bilder von Retail-Karten wie Sapphire, Powercolor ett. und wenige Benchmarks wären sicherlich mehr als nur wünschenswert.

Ist die Presse-Präsentation auf dem Flugzeugträger noch im Gange oder bereist wieder vorbei ?
Wenn Ersteres wird es wohl nicht mehr lange dauern bis weitere Infos durchkommen.

Tarkin
2009-09-10, 19:48:45
@AnarchX

Sollten Heute, spät abends noch weitere Infos durchkommen, oder soll es dies schon gewesen sein ? Zumindest einige weitere DATEN, Bilder von Retail-Karten wie Sapphire, Powercolor ett. und wenige Benchmarks wären sicherlich mehr als nur wünschenswert.

Ist die Presse-Präsentation auf dem Flugzeugträger noch im Gange oder bereist wieder vorbei ?
Wenn Ersteres wird es wohl nicht mehr lange dauern bis weitere Infos durchkommen.

Dort ist es gerade mal kurz vor 11Uhr Vormittag. Das Event steigt glaub ich erst am Nachmittag mit anschließender Party am Abend.

w0mbat
2009-09-10, 19:49:46
@horn 12: Fudo hat Infos von Sapphire, die Listenpreise sind zB von dort und er hat noch mehr kann er aber leider nicht posten ;)

Triskaine
2009-09-10, 19:51:45
Anand hat einen Artikel zu Eyefinity am Start:

http://www.anandtech.com/video/showdoc.aspx?i=3635

Eggcake
2009-09-10, 19:54:19
At the bare minimum, the lowest end AMD DX11 GPU can support up to 3 displays. At the high end? A single GPU will be able to drive up to 6 displays.

Aus dem Artikel von Anand...nur wegen der Diskussionen vor einigen Seiten, dass nur die 5870 3 Displays supporten würde.

Und evt. auch noch interessamt (falls nicht schon gewusst) :

The software layer makes it all seamless. The displays appear independent until you turn on SLS mode (Single Large Surface). When on, they'll appear to Windows and its applications as one large, high resolution display. There's no multimonitor mess to deal with, it just works. This is the way to do multi-monitor, both for work and games.

und

It all just seems to work, which is arguably the most impressive part of it all. AMD has partnered up with at least one display manufacturer to sell displays with thinner bezels and without distracting LEDs on the front.

We can expect brackets and support from more monitor makers in the future. Building a wall of displays isn't exactly easy.
Auch völlig unabhängig ob man Eyefinity benutzt oder nicht sicherlich wünschenswert für MultiMontioring: schmale Ränder.

derguru
2009-09-10, 20:01:00
omg die auflösung in dirt 2 7680 x 3200+2 mssa,hmm eventuelle könnte man doch damit auch die treiber zum downsampling erzwingen mit einem monitor,das wär ja perfekt.

OgrEGT
2009-09-10, 20:02:12
Bei der großen Platine wird man wohl kaum eine Bestückung der Rückseite benötigen und vielleicht kommt sogar auch die 1GB Version mit 16 Chips. Bei der 4770 hat man ja auch 8 Chips verbaut, dürfte billiger sein. Gerade wo man wegen der 2GB Version und den entsprechenden FirePROs ohnehin eine Platine mit 16 Speicherchips benötigt.

Hier auf dem Bild (scheint sich ja doch als echt erwiesen zu haben) sieht man, dass die Oberseite mit 8 Chips bestückt ist. Wenn man 16 einbauen wollte, muss man wohl die anderen 8 auf der Rückseite der Platine anbringen.

http://img.techpowerup.org/090909/bta019.jpg

reunion
2009-09-10, 20:08:00
Anand hat einen Artikel zu Eyefinity am Start:

http://www.anandtech.com/video/showdoc.aspx?i=3635

LOL, das erklärt auch das neue CCC mit der lange Displayleiste. Ich dachte mir schon was der Unsinn soll. Aber wirklich sehr nett, AMD hat sich da einiges einfallen lassen. Vorallem auch marketingtechnisch sehr geschickt inszeniert, nach und nach tropfen die Infos herein - von offizieller Seite.

Hier auf dem Bild (scheint sich ja doch als echt erwiesen zu haben) sieht man, dass die Oberseite mit 8 Chips bestückt ist. Wenn man 16 einbauen wollte, muss man wohl die anderen 8 auf der Rückseite der Platine anbringen.

http://img.techpowerup.org/090909/bta019.jpg

Ja stimmt, hatte ich vergessen.

Blaire
2009-09-10, 20:09:21
omg die auflösung in dirt 2 7680 x 3200+2 mssa,hmm eventuelle könnte man doch damit auch die treiber zum downsampling erzwingen mit einem monitor,das wär ja perfekt.

Das sehe ich noch nicht...

reunion
2009-09-10, 20:15:09
omg die auflösung in dirt 2 7680 x 3200+2 mssa.

Der Punkt ist vorallem auch das er sagt das die Games mit diesen Auflösungen definitiv flüssig laufen. Die Karte dürfte einiges an Power haben.

I played Dirt 2, a DX11 title at 7680 x 3200 and saw definitely playable frame rates. I played Left 4 Dead and the experience was much better.

derguru
2009-09-10, 20:19:04
Das sehe ich noch nicht...
noch sehe ich es auch nicht aber vielleicht bald.

Der Punkt ist vorallem auch das er sagt das die Games mit diesen Auflösungen definitiv flüssig laufen. Die Karte dürfte einiges an Power haben.

jepp ich glaub das wird eine nette karten generation,ich freu mich wie ein kleinkind auf weihnachten und ich glaub andere haben auch interesse wenn man die anzahl der betrachter im spekufred sieht.;D
wenn jetzt noch ein gescheites af im paket ist,dann hallelujah.

Blaire
2009-09-10, 20:23:58
noch sehe ich es auch nicht aber vielleicht bald.


Was macht dich da so zuversichtlich?
Die Auflösung kann ich schon jetzt extrem hochziehen, gedownsampled wird da trotzdem nichts...

dildo4u
2009-09-10, 20:32:49
Keine weiteren Infos bis zum Ende des Monats laut anandtech also whol der 22.9.

PulsarS
2009-09-10, 20:33:16
Der Punkt ist vorallem auch das er sagt das die Games mit diesen Auflösungen definitiv flüssig laufen. Die Karte dürfte einiges an Power haben.
Was doch auch darauf hindeutet, dass die Speicherbandbreite nicht so sehr limitiert. Das wäre sehr erfreulich, weil hier ja schon imo zurecht kritisiert wurde, dass es bei der Speicherbandbreite knapp werden könnte.
Klar wird es extreme Beispiele bei extremen Auflösungen geben, wo die Speicherbandbreite ausgeht.
Im Normalfall sollte aber nicht die Speicherbandbreite limitieren.

reunion
2009-09-10, 20:35:43
Was doch auch darauf hindeutet, dass die Speicherbandbreite nicht so sehr limitiert. Das wäre sehr erfreulich, weil hier ja schon imo zurecht kritisiert wurde, dass es bei der Speicherbandbreite knapp werden könnte.
Klar wird es extreme Beispiele bei extremen Auflösungen geben, wo die Speicherbandbreite ausgeht.
Im Normalfall sollte aber nicht die Speicherbandbreite limitieren.

Das sage ich eh schon die ganze Zeit. Man vergleicht mit einer 4870/4890, welche Bandbreite im Überfluss haben. Vergeliche mit einer 4850 oder 4770 und du siehst das die RV870-GPUs viel Bandbreite haben.

Gast
2009-09-10, 21:31:34
naja viel ist etwas übertrieben, eine GTX 285 hat ja schon ihre 160GB/s ;)

Gast
2009-09-10, 21:37:27
Ich denke Intel wird derzeit ganz schön schwitzen, werden wohl einen kleineren Fertigungsprozess mehr brauchen, mit ihrem Larabee.

Sorkalm
2009-09-10, 21:44:33
http://www.pctunerup.com/up/results/_200909/th_20090910203831_eye3.jpg

Zu diesem Foto steht hier (http://www.hwupgrade.it/forum/showpost.php?p=28831757&postcount=8715):

4 HD5870 Six in Crossfire X

Nakai
2009-09-10, 21:47:27
Ja, etz übertreibt ATI aber...:freak::freak::freak:

Ab jetzt wird nicht mehr in Balkenlänge gemessen, sondern wer mehr Bildschirme ansteuern kann.


mfg Nakai

MR2
2009-09-10, 21:49:30
"I played Dirt 2, a DX11 title at 7680 x 3200 and saw definitely playable frame rates. "

Jetzt waren das vielleicht auch 4 Karten;-)


ALAMEDA, Calif.--Advanced Micro Devices Inc. unveiled its next generation of graphics chips, along with a new technology that can drive up to six computer displays simultaneously.

The company, which frequently trades announcements with rival Nvidia Corp. in graphics chips, called its latest technology a major leap that will give it a decisive edge. "Without dispute, AMD will be the graphics leader in the world," said Rick Bergman, the senior vice president in charge of AMD's graphics group.

AMD also demonstrated a technology enabled by the new chips, called Eyefinity, that can allow consumers to play videogames or run other software with the action moving among six displays--typically arrayed like a single panel, with three displays on top and three right beneath those.

Company executives said the new graphics chips are 2.5 times more powerful than last-year's models, and boast more than two billion transistors. They did not disclose pricing of the products, which are typically sold in graphics cards, but said they would be available later this month

Zu finden auf der Wall Street Journal Internet-Seite:
http://online.wsj.com/article/SB125260941273300503.html?mod=googlenews_wsj

reunion
2009-09-10, 21:52:09
"I played Dirt 2, a DX11 title at 7680 x 3200 and saw definitely playable frame rates. "

Jetzt waren das vielleicht auch 4 Karten;-)

Ne: "I didn't leave out any letters, there's a single GPU driving all of these panels."


"Company executives said the new graphics chips are 2.5 times more powerful than last-year's models, and boast more than two billion transistors."

Zu finden auf der Wall Street Journal Internet-Seite:
http://online.wsj.com/article/SB1252...googlenews_wsj

2.5 x schneller, jetzt wird es schön langsam interessant. :D

Gast
2009-09-10, 21:53:20
http://www.pctunerup.com/up/results/_200909/th_20090910203831_eye3.jpg

Zu diesem Foto steht hier (http://www.hwupgrade.it/forum/showpost.php?p=28831757&postcount=8715):

Hmm somit wäre es möglich, dass ATI bessere Skalierung mit CrossfireX hin bekommt und vielleicht sogar weniger bis kaum Microruckler.

igg
2009-09-10, 21:53:44
Ich vermute mal, dass Nvidia so langsam ins Schwitzen kommt. Und das, obwohl mir Nvidia außer zu Geforce FX Zeiten immer sympathischer war...
Hmm somit wäre es möglich, dass ATI bessere Skalierung mit CrossfireX hin bekommt
Somit? Ich sehe keinen logischen Zusammenhang zwischen Anzahl Monitore und Microruckler.

Nakai
2009-09-10, 21:53:48
2.5 x schneller, jetzt wird es schön langsam interessant.

Nur unter Extremfällen...mit AA und AF.


mfg Nakai

Gast
2009-09-10, 21:56:00
durchaus interessant. natürlich nicht für heimanwender, aber für professionelle FluSis z.b. könnte das die kosten für die visualisierungskomponente um mehrere größenordnungen drücken.

AnarchX
2009-09-10, 21:57:10
http://img21.imageshack.us/img21/7375/demo01.jpg
:freak:

Mehr Bilder:
http://www.pcper.com/index.php#NewsID-7744

MR2
2009-09-10, 21:58:46
Das verrückte ist:

"I played Dirt 2, a DX11 title at 7680 x 3200 and saw definitely playable frame rates. "

Das ist ein DX11 Spiel und die 5870 die erste DX11 Karte. Da kann ich in 7680x3200 flüssig spielen? ;D Die Videos von Dirt2 sehen ja extrem gut aus..

reunion
2009-09-10, 21:59:13
http://www.pctunerup.com/up/results/_200909/th_20090910203831_eye3.jpg

Zu diesem Foto steht hier (http://www.hwupgrade.it/forum/showpost.php?p=28831757&postcount=8715):

Ich finde das sollte man schon in voller Größe Posten: :)

http://img40.imageshack.us/img40/5231/20090910203831eye3.jpg (http://img40.imageshack.us/i/20090910203831eye3.jpg/)

http://img21.imageshack.us/img21/7375/demo01.jpg
:freak:

Mehr Bilder:
http://www.pcper.com/index.php#NewsID-7744

Sechs Mini-Display-Ports.

Blacksoul
2009-09-10, 21:59:22
LOL, das erklärt auch das neue CCC mit der lange Displayleiste. Ich dachte mir schon was der Unsinn soll. Aber wirklich sehr nett, AMD hat sich da einiges einfallen lassen. Vorallem auch marketingtechnisch sehr geschickt inszeniert, nach und nach tropfen die Infos herein - von offizieller Seite.

Am neuen CCC ist rein gar nichts nett. Die Bedienung ist und bleibt beschissen. Und mit mehreren Monitoren wird es ganz und gar nicht besser. Ich hatte eben erst wieder das Vergnügen.


t.b.d

V2.0
2009-09-10, 22:01:56
Man kriegt imho das Gefühl,. dass ATI damit Marktführer werden könnte. Beeindruckender Launch.

MR2
2009-09-10, 22:02:00
Crytek showed a demo of CryEngine 3 running on the three projectors here. Very impressive looking.

http://cdn.cloudfiles.mosso.com/c71692/media/image/200909/php7wJn3y09.jpg :-)

Gast
2009-09-10, 22:04:41
Ich vermute mal, dass Nvidia so langsam ins Schwitzen kommt. Und das, obwohl mir Nvidia außer zu Geforce FX Zeiten immer sympathischer war...

Somit? Ich sehe keinen logischen Zusammenhang zwischen Anzahl Monitore und Microruckler.

Es ist nur eine Vermutung von mir. Da ATI ja so wie es ausschaut auf Multimonitor Gaming setzt wird auch mehr Rohleistung benötigt, welche sicher durch die 5870 kommen wird, aber ich kann mir kaum vorstellen, dass es für z. B. Crysis reichen wird, ergo brauch ich mit mehr Karten eine bessere Skalierung bei CrossfireX um spielbar FPS zu erreichen.

Gast
2009-09-10, 22:05:00
Crytek showed a demo of CryEngine 3 running on the three projectors here. Very impressive looking.

http://cdn.cloudfiles.mosso.com/c71692/media/image/200909/php7wJn3y09.jpg :-)

wow - ist das ingame?!!? schaut aus wie echt :eek:

reunion
2009-09-10, 22:05:19
Lasst die Schlacht beginnen: :D

http://img268.imageshack.us/img268/768/phpu10ruh10.jpg (http://img268.imageshack.us/i/phpu10ruh10.jpg/)

http://img198.imageshack.us/img198/9259/php7wjn3y09.jpg (http://img198.imageshack.us/i/php7wjn3y09.jpg/)

horn 12
2009-09-10, 22:05:53
Bitte was weiss man zum HD5870-er Lüfter, dessen Stärke, Hitzeentwicklung der Karte, und vor Allem der Lautstärke des Lüfters?
Rechne im IDLE mit den nur mageren 30Watt sehr sehr angenehm, aber unter Vollast bei Vantage und Co, sprich Stalker, Crysis, Warhead, Residend Evil5... eine Turbine oder weitaus leiser als die HD4870-er Serie ?
Kann dies denn sein, dass die HD5870 ganze 27-28cm lang wird, mit den Lufteinlässen dann gute 28cm, da passt die ja kaum in die PC Standardgehäuse rein, oder ist dies gar schon die X²-er Karte ?
Oder man muss die HD Käfige. abbauen, bzw. anschneiden ... Grrrr!

Sir Winston
2009-09-10, 22:07:51
Golem.de hat einen Artikel zur Eyefinity-Vorstellung (http://www.golem.de/0909/69741.html).

Nakai
2009-09-10, 22:08:14
Schon allein weil das Slotblech weniger Luftauslass hat, kann man darauf schließen, dass die Karte nicht so leise wird. IMO auf eigene Kühlerdesigns der Hersteller warten.


mfg Nakai

Gast
2009-09-10, 22:08:38
Man kriegt imho das Gefühl,. dass ATI damit Marktführer werden könnte. Beeindruckender Launch.

Nur wenn sie genug OEM Kunden einfangen können, sonst wird es nichts mit der Marktführung. Das gilt natürlich für den Desktop Markt, da ATI im Mobile Markt ja bereit Marktführer nach den aktuellen Zahlen ist.

AnarchX
2009-09-10, 22:08:50
Video von Guru3D:
http://www.youtube.com/watch?v=dkwVw-azZ0M

Golem.de hat einen Artikel zur Eyefinity-Vorstellung (http://www.golem.de/0909/69741.html).
Wie Crytek-Manager Carl Jones sagte, habe man beim Testen von Eyefinity "Crysis: Warhead" in 5.670 x 2.160 Pixeln mit maximalen Details bei 60 Bildern pro Sekunde mit einer Grafikkarte gespielt.
;D

reunion
2009-09-10, 22:11:37
Am neuen CCC ist rein gar nichts nett. Die Bedienung ist und bleibt beschissen. Und mit mehreren Monitoren wird es ganz und gar nicht besser. Ich hatte eben erst wieder das Vergnügen.


t.b.d

Das war auch nicht aufs CCC bezogen.

Botcruscher
2009-09-10, 22:11:41
Ist schon beeindruckend. Ich denke wir werden bald TFTs mit ultraflachem Rand sehen. Der Anwendungsbereich ist einfach zu überzeugend.

Werewolf
2009-09-10, 22:13:49
Wie Crytek-Manager Carl Jones sagte, habe man beim Testen von Eyefinity "Crysis: Warhead" in 5.670 x 2.160 Pixeln mit maximalen Details bei 60 Bildern pro Sekunde mit einer Grafikkarte gespielt.

Was zum Teufel? :freak:

MR2
2009-09-10, 22:13:56
@ Nakai

AMD says that their next-gen GPU will 250% faster than the one introduced in Jul of 2008. That is going by raw TFLOPS

Das klingt aber anders. nicht nur in Teilbereichen mit AA ;-)

AnarchX
2009-09-10, 22:17:36
@ Nakai

AMD says that their next-gen GPU will 250% faster than the one introduced in Jul of 2008. That is going by raw TFLOPS

Link?

"250% faster", wäre ja 3,5-mal so schnell. Ausgehend von der 4870 also 4.2TFLOPs. Da meint man wohlmöglich die X2.

Nakai
2009-09-10, 22:18:21
"250% faster", wäre ja 3,5-mal so schnell. Ausgehend von der 4870 also 4.2TFLOPs. Da meint wohlmöglich die X2.

Macht schon eher Sinn.


mfg Nakai

MR2
2009-09-10, 22:20:09
1:42
Crytek showed a demo of CryEngine 3 running on the three projectors here. Very impressive looking.
1:43
Neil Robison from AMD is on stage - this is the guy who gave us the great overview of DX11 at Quakecon.
1:46
AMD says that their next-gen GPU will 250% faster than the one introduced in Jul of 2008. That is going by raw TFLOPS
1:48
Jules Urbach is on stage now - he the creative person behind OTOY and Lightstage technology
1:51
For those that don't know, Lightstage was used in Benjamin Button for the aging effects.

na steht bei der Pressekonferenz:-)

Wie ne Art LiveCast

http://www.pcper.com/index.php#NewsID-7744

AnarchX
2009-09-10, 22:20:36
Direkt von AMD.

ATI Eyefinity Debut | 3D Gaming at 5760x2400:
http://www.youtube.com/watch?v=mzGtxlaPQqY
http://blogs.amd.com/home/2009/09/10/ati-eyefinity%E2%80%99s-panoramic-future-keep-watch/

horn 12
2009-09-10, 22:23:35
Wann kommen ENDLICH Grafik Infos von Speed, Lautstärke und Hitzeentwicklung, alles andere ist ja schön und gut, aber wir wollen ja alles wissen.;D:smile::smile:

:tongue::tongue:

][immy
2009-09-10, 22:25:46
aber mal ehrlich, wen interssiert (außerhalb von messen etc) ein so extremer multimonitor-support.

klar es ist nett das wenn man 2 monitore hat, quasi einer auflösung fahren kann, aber mindestens mich würden die monitorränder stören.
aber amd zielt hiermit wohl weniger auf den consumer-markt als viel mehr auf die industrie.


was ich als "verbraucher" allerdings viel interessanter finde ist, das bei so extremen auflösungen dann doch einiges an SSAA leistung bei "normalen" auflösungen drin sein müsste.

S940
2009-09-10, 22:27:14
Das ist ein DX11 Spiel und die 5870 die erste DX11 Karte. Da kann ich in 7680x3200 flüssig spielen? ;D Die Videos von Dirt2 sehen ja extrem gut aus..
Wennde 4 davon hast ... auf den meisten Fotos sieht man Quad CF Setups.

Wenn die 250% stimmen, dann hat die 5870 runde 3 TFLOPs, die 4870 hatte ja 1,2.

ciao

Alex

dargo
2009-09-10, 22:27:45
Nur unter Extremfällen...mit AA und AF.

Lol, was ist denn für dich Praxis? Ein CPU-Limit? :|

MR2
2009-09-10, 22:29:43
Wennde 4 davon hast ... auf den meisten Fotos sieht man Quad CF Setups.

Wenn die 250% stimmen, dann hat die 5870 runde 3 TFLOPs, die 4870 hatte ja 1,2.

ciao

Alex

Wie Reunion mich zitierte...Da stand eine GPU...

dildo4u
2009-09-10, 22:32:18
Das verrückte ist:

"I played Dirt 2, a DX11 title at 7680 x 3200 and saw definitely playable frame rates. "

Das ist ein DX11 Spiel und die 5870 die erste DX11 Karte. Da kann ich in 7680x3200 flüssig spielen? ;D Die Videos von Dirt2 sehen ja extrem gut aus..
Marketing sonst nix das Spiel hat ganz klar als Grundlage die Konsolenversion,deshalb ist da Performancemäßig auch genug Luft.Arma 2 in der Res mit AA das wär mal interresant. ;)

Winter[Raven]
2009-09-10, 22:32:41
Jetzt mal wirklich im Ernst ..... Wer soll von der Technik profitieren? Also ich kann a) mir bis zu 6 Monitoren nicht leisten und b) was will ich mit bis zu 6 Monitoren.

Also eine Technik die die Welt nicht braucht...

Nakai
2009-09-10, 22:33:13
Lol, was ist denn für dich Praxis? Ein CPU-Limit?

Wenn das AA und AF deutlich verbessert wurde, dann war ich der Annahme, dass der RV870 unter gewissen Bedingungen deutlich schneller ist als der RV770/790.

reunion
2009-09-10, 22:34:10
Marketing sonst nix das Spiel hat ganz klar als Grundlage die Konsolenversion,deshalb ist da Performancemäßig auch genug Luft.Arma 2 in der Res mit AA das wär mal interresant. ;)

Und was ist mit Crysis Warhead? :)

"Wie Crytek-Manager Carl Jones sagte, habe man beim Testen von Eyefinity "Crysis: Warhead" in 5.670 x 2.160 Pixeln mit maximalen Details bei 60 Bildern pro Sekunde mit einer Grafikkarte gespielt."

moBi
2009-09-10, 22:34:16
Ich verstehe die Aufregung nicht ganz. Die beiden einzigen Besonderheiten sind doch die Anschlüsse für mehr als 2 Monitore und dass der Treiber mehr als 2 Monitore verwalten kann.

Das hört sich jetzt für mich nicht so an, als ob man da millionen von Dollar für investieren müsste. Würd mich nicht wundern, wenn nVidia sich kurzerhand entschließt das gleiche einfach nachzubauen. ATI hat es in den guten alten Zeiten ja auch geschafft mal eben Crossfire als Gegenstück zu SLI zu "entwickeln".;D

Wie Reunion mich zitierte...Da stand eine GPU...

Das ist mit den uns bekannten Daten vermutlich nicht mal theoretisch möglich.:D

Noebbie
2009-09-10, 22:34:46
Also "geil" finde ich das ja schon.

Aber selbst wenn sich jemand sechs Monitore leistet, muss er die a) irgendwie montieren/aufhängen und b) überhaupt mal Platz für die Teile haben.

BTW: Gibts sowas wie ein Monitor-Rack wo man die reinhängen kann? :freak:

Blacksoul
2009-09-10, 22:34:53
Marketing sonst nix das Spiel hat ganz klar als Grundlage die Konsolenversion,deshalb ist da Performancemäßig auch genug Luft.Arma 2 in der Res mit AA das wär mal interresant. ;)

Hat Sony neben der genialen FW3.0 jetzt auch noch D3D11 nachgeschoben? Oder war es doch Microsoft mit ihrem Sommer-Update für das NXE?


BTW: Gibts sowas wie ein Monitor-Rack wo man die reinhängen kann? :freak:
Natürlich gibt es Lösungen dafür. Multi-Monitoring in dem Ausmaß ist ja nichts neues. Gibt es eigentlich schon ewig.
http://www.trading-pc.de/tpc/media/multimonitor/halterungen/monitorhalterung_4+4.jpg


t.b.d

MR2
2009-09-10, 22:35:41
;7524614']Jetzt mal wirklich im Ernst ..... Wer soll von der Technik profitieren? Also ich kann a) mir bis zu 6 Monitoren nicht leisten und b) was will ich mit bis zu 6 Monitoren.

Also eine Technik die die Welt nicht braucht...


Da geb ich dir auch Recht..Interessanter ist ja die Rechenleistung die dahinter stecken muß....





"Wie Crytek-Manager Carl Jones sagte, habe man beim Testen von Eyefinity "Crysis: Warhead" in 5.670 x 2.160 Pixeln mit maximalen Details bei 60 Bildern pro Sekunde mit einer Grafikkarte gespielt."

Dann ist das aber erst recht gelogen*fg*, Das kann nun wirklich nicht sein! 100% unmöglich!

Gast
2009-09-10, 22:36:25
natürlich ist RV870 nur unter bestimmten bedingungen deutlich schneller als RV770 - und unter allen anderen bedingungen ist er extremst viel schneller ;-)

S940
2009-09-10, 22:37:21
Wie Reunion mich zitierte...Da stand eine GPU...
Naja, dann vielleicht ein X2 Prototyp ;-)

dargo
2009-09-10, 22:37:30
Marketing sonst nix das Spiel hat ganz klar als Grundlage die Konsolenversion,deshalb ist da Performancemäßig auch genug Luft.Arma 2 in der Res mit AA das wär mal interresant. ;)
Dir ist aber schon klar was 7680x3200 bedeutet? Wenn Anwendung X mit 1920x800 und 30fps (100% GPU-Limit) mit Grafikkarte X läuft dann muss Grafikkarte Y für die gleiche Framerate in 7680x3200 16x schneller sein!

AnarchX
2009-09-10, 22:39:30
"Wie Crytek-Manager Carl Jones sagte, habe man beim Testen von Eyefinity "Crysis: Warhead" in 5.670 x 2.160 Pixeln mit maximalen Details bei 60 Bildern pro Sekunde mit einer Grafikkarte gespielt."
Da müsste ja RV870 fast 10- bis 15-mal so schnell sein wie eine 4890.
Da wird man wohl etwas nachgeholfen haben um die 60 FPS zu erreichen oder die Aussage ist unter anderen Umständen Zustande gekommen. ;)

dildo4u
2009-09-10, 22:39:32
Hat Sony neben der genialen FW3.0 jetzt auch noch D3D11 nachgeschoben? Oder war es doch Microsoft mit ihrem Sommer-Update für das NXE?

t.b.d
Warum sollte Codemasters für den PC groß neuen Content bauen? DX11 beschleunigt das Ganze höstens.Ich hät gedacht nach dem DX10 Launch hätte Einige hier was gelernt.Alleine was alles unter DX10 verkauft wurde und dann DX9 Effekte waren z.b bei Crysis.Codemasters wird höstens 3-4 Monate die Hardware haben um das ganze überhaupt mal in Echtzeit laufen zu lassen.

derguru
2009-09-10, 22:39:49
Und was ist mit Crysis Warhead? :)

"Wie Crytek-Manager Carl Jones sagte, habe man beim Testen von Eyefinity "Crysis: Warhead" in 5.670 x 2.160 Pixeln mit maximalen Details bei 60 Bildern pro Sekunde mit einer Grafikkarte gespielt."

glaubst du das?das scheint mir ein wenig übertrieben oder es war eine 5870x² gemeint.:wink:

PulsarS
2009-09-10, 22:40:11
;7524614']Jetzt mal wirklich im Ernst ..... Wer soll von der Technik profitieren? Also ich kann a) mir bis zu 6 Monitoren nicht leisten und b) was will ich mit bis zu 6 Monitoren.

Also eine Technik die die Welt nicht braucht...
Du vielleicht nicht...
Nur solltest Du nicht von Dir auf andere schliessen. ;)

Ich denke aber eh, dass hier die meisten "nur" interessiert wie die Karte in seiner Auflösung performt (und mit seinen Einstellungen natürlich).

Sollte (fast) durchgehend FullHD mit massig Transparenz-AA und volle Qualität-AF @16x drin sein, dürften wohl fast alle bedient sein. :D

MR2
2009-09-10, 22:40:46
Selbst mit der X2 glaub ich das nicht. QuadCrossfire, ja:-)

Winter[Raven]
2009-09-10, 22:41:17
glaubst du das?das scheint mir ein wenig übertrieben oder es war eine 5870x² gemeint.:wink:

Ahhh ... bedenkt, dass wenn es sich bei der C3 Engine um eine Engine handelt, die aus Consolen optimiert wurde. Wir wissen weder welche Einstellungen verwendet wurden noch welche Art die Benches waren....

Alles andere ist reinste Marketing....

derguru
2009-09-10, 22:41:56
Selbst mit der X2 glaub ich das nicht. QuadCrossfire, ja:-)

vielleicht stand der 1mm vor einer wand.;D

AnarchX
2009-09-10, 22:42:22
Selbst mit der X2 glaub ich das nicht. QuadCrossfire, ja:-)
Selbst das würde wohl nicht reichen, wenn man einen Faktor 2,5 für RV870 annimmt.

;7524643']Ahhh ... bedenkt, dass wenn es sich bei der C3 Engine um eine Engine handelt, die aus Consolen optimiert wurde. Wir wissen weder welche Einstellungen verwendet wurden noch welche Art die Benches waren....

CE3? Es wurde doch gesagt: Crysis Warhead in maximalen Details.

Winter[Raven]
2009-09-10, 22:48:01
CE3? Es wurde doch gesagt: Crysis Warhead in maximalen Details.

Sorry, my fault... :(

reunion
2009-09-10, 22:50:13
http://img21.imageshack.us/img21/7375/demo01.jpg
:freak:

Mehr Bilder:
http://www.pcper.com/index.php#NewsID-7744

Pcper ist mittlerweile down, wohl überlastet.

boxleitnerb
2009-09-10, 22:52:35
Waren die Crysis Benches bei 1920er Auflösung von weiter vorne dann Fake?
Wenn eine übertaktete Karte da im Schnitt ca 45 fps macht bei ca. 2,5 MP, wie soll man dann die 60 fps bei ca. 11 MP erreichen? Das wäre (je nach Bench) grob mehr als Faktor 4 Steigerung...selbst mit 2 5870x2 wäre das nicht drin, es sei denn man hätte sie massiv übertaktet und die Skalierung wäre hervorragend.

derguru
2009-09-10, 22:55:20
ich finde die werte mit den 43 fps in 1920*1200 schon beeindruckend,an den quak mit 60fps in der hohen auflösungen kann man doch wohl nicht mal ansatzweise glauben,der war wahrscheinlich schon angetrunken von der party;)

moBi
2009-09-10, 22:56:22
Evtl. macht mans ja wie die Konsolen und skalliert das ganze intern einfach hoch?

boxleitnerb
2009-09-10, 22:56:37
Vielleicht haben sie ja ein paar Shrinks übersprungen und fertigen in 10 nm ;D

mapel110
2009-09-10, 22:58:07
Pcper ist mittlerweile down, wohl überlastet.
Nö, muss an deiner Internetanbindung liegen. Hier gehts flott.
Waren die Crysis Benches bei 1920er Auflösung von weiter vorne dann Fake?
Wenn eine übertaktete Karte da im Schnitt ca 45 fps macht bei ca. 2,5 MP, wie soll man dann die 60 fps bei ca. 11 MP erreichen? Das wäre (je nach Bench) grob mehr als Faktor 4 Steigerung...selbst mit 2 5870x2 wäre das nicht drin, es sei denn man hätte sie massiv übertaktet und die Skalierung wäre hervorragend.
Quad-CF?! :ugly: Dann machen endlich die 2000 Watt Netzteile Sinn.

boxleitnerb
2009-09-10, 23:02:19
Aber dann bitte 4x HD5870x2 !!! Kann man da überhaupt noch zielen bei dem massiven Inputlag?

DrFreaK666
2009-09-10, 23:03:09
Aber dann bitte 4x HD5870x2 !!! Kann man da überhaupt noch zielen bei dem massiven Inputlag?

Ist doch egal, es zeigt 60FPS an :biggrin:

ShadowXX
2009-09-10, 23:09:02
Und was ist mit Crysis Warhead? :)

"Wie Crytek-Manager Carl Jones sagte, habe man beim Testen von Eyefinity "Crysis: Warhead" in 5.670 x 2.160 Pixeln mit maximalen Details bei 60 Bildern pro Sekunde mit einer Grafikkarte gespielt."
Komm....selbst wenn man der größte ATI-Fan der Welt wäre würde man am Wahrheitsgehalt der Aussage anfangen zu zweifeln.

Ich gehe mal davon aus das das was er gesagt hat falsch interpretiert wurde, denn wie viele schon anmerkten: so schnell kann die Karten mit den uns bekannten Daten gar nicht sein.

glaubst du das?das scheint mir ein wenig übertrieben oder es war eine 5870x² gemeint.:wink:
Selbst für die währe das zu gut.

Ich gehe mal davon aus das es ein Quad-Setup war (was wohl auch in jedem Rechner drinne steckte, also auch bei Dirt2 ein Quad-Setup sein Werk verrichtete).

boxleitnerb
2009-09-10, 23:09:48
Der war gut!
Also ich muss zugeben, obwohl ich momentan mit Nvidia sehr zufrieden bin, lasse ich mich gerne mitreissen von den Spekulationen. Ich könnte mir sogar vorstellen, nach R420 wieder zu ATI/AMD zu gehen, wenn das AF wirklich verbessert wurde und auf Höhe mit G80 liegt und man die massive Leistung bitte auch in SSAA umsetzen könnte.
Ich hoffe ja auf ein Wunder, weil ich hab keine Lust noch ein halbes Jahr und länger auf GT300 zu warten.

AnarchX
2009-09-10, 23:10:02
Ich gehe mal davon aus das es ein Quad-Setup war (was wohl auch in jedem Rechner drinne steckte, also auch bei Dirt2 ein Quad-Setup sein Werk verrichtete).
Nein, in manchem Rechner war nur eine einzelne 5870 Six:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7524513#post7524513
Bei Golem übrigens auch: http://www.golem.de/0909/69741.html#gg1_anchor

Gast
2009-09-10, 23:14:19
nee, war wirklich ne einzelkarte. is aber ein fehler im artikel, muss heißen: 60 bilder pro minute ^^

ShadowXX
2009-09-10, 23:16:56
Nein, in manchem Rechner war nur eine einzelne 5870 Six:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7524513#post7524513

Mag ja sein....aber du musst zugeben das "Crysis: Warhead" in 5.670 x 2.160 Pixeln mit maximalen Details bei 60 Bildern pro Sekunde" mehr als Utopisch klingt, speziell bei den uns vorliegenden Daten (und selbst wenn es dann doch 2000 Alus und 100TMUs bei 1GHz wären, könnte die Karte das nicht leisten).

nee, war wirklich ne einzelkarte. is aber ein fehler im artikel, muss heißen: 60 bilder pro minute ^^
:D

boxleitnerb
2009-09-10, 23:17:13
Also selbst mit einer X2 sollte das unmöglich sein. Kann ich mir beim besten Willen nicht vorstellen.
Kommt aber auch auf die Szene an. Vielleicht hatte er mal einen Peak zu den 60 und hat dann seine Aussage gemacht.

AnarchX
2009-09-10, 23:19:08
Mag ja sein....aber du musst zugeben das "Crysis: Warhead" in 5.670 x 2.160 Pixeln mit maximalen Details bei 60 Bildern pro Sekunde" mehr als Utopisch klingt, speziell bei den uns vorliegenden Daten (und selbst wenn es dann doch 2000 Alus und 100TMUs bei 1GHz wären, könnte die Karte das nicht leisten).
Am wahrscheinlichsten ist wohl das der Manager wohl nicht wirklich weiß, wie die maximalen Details bei Crysis aussehen oder es einfach mit CE3@Konsolendetails verwechselt hat.

MR2
2009-09-10, 23:21:01
http://www.pcgames.de/aid,668834/Crysis-mit-hohen-Details-und-60-FPS-Das-schafft-nur-der-schnellste-PC-der-Welt/PC/News/

Das Gerät, in dem wirklich nur die Krone der derzeitigen Hardwareschöpfungen verbaut wurden, packt Cryteks Hardware-Stresstest in 1600x1200 bei allen Details auf "High" und 4x AA bei konstanten 60FPS und mehr.

Vom Szenario mal abgesehen..Das sind 2 Stück 4870 X2

derguru
2009-09-10, 23:24:44
man man machen amd einen auf 007,die sollen mal langsam mit aussagekräftigen benchmarks kommen oder absichtliche leaks ausbreiten wie sonst auch,haben doch ihre lakeien wie fudo oder charly.
schön und gut mit der multimonitor zugabe aber wir wollen speedy gonzales+af sehen.:biggrin:

ShadowXX
2009-09-10, 23:25:36
http://www.pcgames.de/aid,668834/Crysis-mit-hohen-Details-und-60-FPS-Das-schafft-nur-der-schnellste-PC-der-Welt/PC/News/

Das Gerät, in dem wirklich nur die Krone der derzeitigen Hardwareschöpfungen verbaut wurden, packt Cryteks Hardware-Stresstest in 1600x1200 bei allen Details auf "High" und 4x AA bei konstanten 60FPS und mehr.

Vom Szenario mal abgesehen..Das sind 2 Stück 4870 X2
Da kommen wir der Sache dann schon näher....mit 4x 5870 wäre dann wohl tatsächlich 5.670 x 2.160 Pixeln mit max. Details bei 60 FPS (ohne AA) möglich.

Er war wohl davon ausgegangen das in dem Gerät nur eine Karte drinne steckt, wurde falsch informiert oder hat die gegebene Information missverstanden.

YfOrU
2009-09-10, 23:25:40
;7524614']Jetzt mal wirklich im Ernst ..... Wer soll von der Technik profitieren? Also ich kann a) mir bis zu 6 Monitoren nicht leisten und b) was will ich mit bis zu 6 Monitoren.

Also eine Technik die die Welt nicht braucht...

Es werden die wenigsten Karten bis zu 6 Anschlüsse haben. Grundsätzlich sind aber mindestens 3 Anschlüsse verfügbar UND diese lassen sich parallel nutzen.

Bei Karten mit z.B. 4 gemischten Anschlüssen kann man davon ausgehen das auch diese unabhängig nutzbar und konfigurierbar sind (also nicht nur interne Adapter)

Vorteile: 2 Bildschirme und ein Fernseher, kein umstecken und permanentes umkonfigurieren mehr nötig.

Sind bereits 2 Bildschirme vorhanden fehlt nur noch einer und bei der aktuellen Preislage ist das kein übermäßig großer Betrag. Das Setup lässt sich dann sowieso auch außerhalb des 3D Bereiches einsetzen.

Das ist ehrlich kein Scherz, teilweise geht mir ein drittes Display wirklich ab.

Mal die Reviews abwarten, wenn es funktioniert wäre eine Kombination aus 2 4:3 und einem 16:10 interessant.

Verdammt, Ohje. Das Weihnachtsgeld ist wohl futsch :tongue:

MR2
2009-09-10, 23:36:24
http://www.tomshardware.com/de/geforce-gtx-295-sli,testberichte-240242-4.html

Bei 2560 x 1600,4870 X2 Crossfire, 4xAA und 8 AF immerhin 26,6 FPS:rolleyes:

dildo4u
2009-09-10, 23:40:46
Die haben whol absichtlich für ihre Multimonitor Demo,ein Konsolen Test Level der CE 3 genutzt,damit man auf 30fps kommt und sind auch nur noch 3 TFTs. :rolleyes:
Orginal Crysis wurde whol gar nicht gezeigt.

Selbes Level auf Konsole.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7499841&postcount=127

http://scr3.golem.de/screenshots/0909/Eyefinity/Cryengine-3-auf-3-Monitoren.jpg

Gast
2009-09-10, 23:41:40
Also den Multimonitor-Support finde ich insofern ganz praktisch, wenn es tatsächlich möglich ist, damit auf einem Monitor TV zu schauen (oder einen Film) und auf einem 2. Monitor ein Spiel zu zocken, denn beides zur gleichen Zeit geht soweit ich weiß bisher ja noch nicht...

LovesuckZ
2009-09-10, 23:50:36
Die haben whol absichtlich für ihre Multimonitor Demo,ein Konsolen Test Level der CE 3 genutzt,damit man auf 60fps kommt und sind auch nur noch 3 TFTs. :rolleyes:
Orginal Crysis wurde whol gar nicht gezeigt.

Selbes Level auf Konsole.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7499841&postcount=127

http://scr3.golem.de/screenshots/0909/Eyefinity/Cryengine-3-auf-3-Monitoren.jpg

Schade, dass Crytek nicht wenigsten die Engine darauf angepasst hat. Das sieht ziemlich suboptimal aus - und wenn dann noch Anzeigen vorhanen wären...
Da empfinde ich es für Rennspieler interessanter, da das Auto und die Anzeigen anscheinend zentriert sind.

Blaire
2009-09-10, 23:51:04
http://anandtech.com/video/showdoc.aspx?i=3635

Schon bekannt?

Gast
2009-09-10, 23:52:58
Also den Multimonitor-Support finde ich insofern ganz praktisch, wenn es tatsächlich möglich ist, damit auf einem Monitor TV zu schauen (oder einen Film) und auf einem 2. Monitor ein Spiel zu zocken, denn beides zur gleichen Zeit geht soweit ich weiß bisher ja noch nicht...
Öööhm, eher umgekehrt. Neu ist ja, dass die Monitore durch den Treiber gegenüber Windows nun transparent wie ein einziges Ausgabegerät mit entsprechender Monsterauflösung erscheinen. :confused:

mapel110
2009-09-10, 23:53:25
Schon bekannt?

Ja. ^^

MR2
2009-09-11, 00:01:16
Six separate screens can run Tom Clancy's: H.A.W.X. game at impressive resolution of 5760x2400 and it takes a lot of horse power to be able to pull this off . When you consider the fact that a single HD 4890 1GB gives about 47 FPS at 2560x1600 without AA then Eyefinity is one mean graphics card.

Of course, we still don't know which card ATI was used for this, but we suspect that RV870, Radeon HD 5870 generation chip is under the hood. The only fact that we know for sure is that this card delivers an amazing 5760x2400 resolution to six monitors via Display Port 1.1 interface.

wir werden sehen...
http://www.fudzilla.com/content/view/15456/1/


Zumindest wird eine 5870 2GB für meinen 19er reichen, um Crysis endlich mit höchsten Details und ultraMods darzustellen;-)


Gute Nacht!

Eggcake
2009-09-11, 00:22:15
Ich weiss ehrlich gesagt nicht, wie das vorher war bzw. momentan ist, aber ist es möglich eine Vollbildanwendung auf einem und z.B. den Browser auf dem 2. Monitor laufen zu lassen?

Gast
2009-09-11, 00:24:58
das kann ja sogar mein netbook mit S3 grafik *stolz* ;-)

derguru
2009-09-11, 00:25:36
jupp das geht.

Eggcake
2009-09-11, 00:30:29
Und wie soll das dann mit Eyefinity gehen, wenn sie Windows "einen" Monitor vortäuscht?! Oder hab ich da was falsch verstanden?

LovesuckZ
2009-09-11, 00:34:38
Und wie soll das dann mit Eyefinity gehen, wenn sie Windows "einen" Monitor vortäuscht?! Oder hab ich da was falsch verstanden?

Windows kommuniziert mit einer Schicht zwischen der Grafikkarte. Diese Schicht sagt Windows, dass es sich um einen Monitor handelt. Der Rest wird in einer Art Software/Hardware Kombination gelöst.

Eggcake
2009-09-11, 00:46:29
Edit: Sorry dafür, mach ich's lieber wieder weg.
Trotzdem witzig, dass man dafür vor 3 Jahren noch 12 Linuxserver brauchte ;)

Daredevil
2009-09-11, 00:58:03
Das Bild ist doch uralt, das schwirrt doch schon seit Jahren im Netz rum wenn ich mich jetzt nicht irre.

Edit:
http://www.chip.de/news/Mega-Monitor-Quake-3-auf-24-Displays_19111731.html

AAAAAALLLLLLLLTTTTTTTT!

Knuddelbearli
2009-09-11, 01:43:09
Also den Multimonitor-Support finde ich insofern ganz praktisch, wenn es tatsächlich möglich ist, damit auf einem Monitor TV zu schauen (oder einen Film) und auf einem 2. Monitor ein Spiel zu zocken, denn beides zur gleichen Zeit geht soweit ich weiß bisher ja noch nicht...


doch geht software mässig bisl umständlich aaber das wird wohl so bleiben

nur merh aals 2 geht mom nicht

das einzige was mir sorgen macht ist ob das einw eiterer sargnagel für Matrox ist da ihre Grakas soviele TFTs mit nichtmal ansatzweiser so höher auflösung ansprechen können

derguru
2009-09-11, 03:00:33
ein kleiner überblick,

http://www.abload.de/img/berblickh4il.gif

playable aber auch nicht auf max.details(muß ja eh noch optimiert werden)
http://www.abload.de/img/1252542061vf1413mgl9_1m0of.jpg

horn 12
2009-09-11, 05:58:49
http://www.rage3d.com/board/showthread.php?t=33942935&page=27

Das große Foto muss wohl die X² sein mit 1x6 1x8 Pin und auch die gewaltige Länge, die hat ja im Case ganz schwer Platz!
Seht mal wie lang die hinausragt beim Board. Ist ca. 28cm lang, die HD4870 geringe 24cm.

Gast
2009-09-11, 06:06:20
es reicht langsam mit diesem Multimonitorthema,dass interessiert nichtmal 1% der Käufer.Wollen sie damit von der Leistungsfähigkeit ablenken?

Cpl. Dwayne Hicks
2009-09-11, 06:11:53
Echt mal... mich interessiert auch nicht die Bohne ob man 3 oder 20 monitore and dem ding anschliessen kann.

AnarchX
2009-09-11, 07:45:15
http://www.rage3d.com/board/showthread.php?t=33942935&page=27

Das große Foto muss wohl die X² sein mit 1x6 1x8 Pin und auch die gewaltige Länge, die hat ja im Case ganz schwer Platz!
Seht mal wie lang die hinausragt beim Board. Ist ca. 28cm lang, die HD4870 geringe 24cm.
Nein, dass ist die HD 5870. Wir kennen ja schon die Unterseite des Kühlers:
http://www.chiphell.com/2009/0819/98.html

Die X2 wird da noch etwas drauflegen bei der Länge:
http://www.chiphell.com/2009/0818/97.html

Gouvernator
2009-09-11, 08:29:42
Echt mal... mich interessiert auch nicht die Bohne ob man 3 oder 20 monitore and dem ding anschliessen kann.
Mich interessiert das absolut brennend!!! Das ist sowas von geil... Von etwa halben Jahr habe ich hier noch von Mosaic-SLI geträumt das 10.000$ kostet und AMD bietet das und NOCH mehr für ALLE umsonst. Ach du scheisse... ich flippe aus...

Der Eyefinity Artikel von Golem hat mich jetzt auf Idee gebracht: man könnte ja 3 Displays nehmen sie vertikal umdrehen und dann hat man schönes 3600x1920 Setup. Was ja eventuell auch sehr geil wäre.

reunion
2009-09-11, 08:40:16
Der Eyefinity Artikel von Golem hat mich jetzt auf Idee gebracht: man könnte ja 3 Displays nehmen sie vertikal umdrehen und dann hat man schönes 3600x1920 Setup. Was ja eventuell auch sehr geil wäre.

Jap, das geht natürlich:

http://img188.imageshack.us/img188/9656/41746372.jpg (http://img188.imageshack.us/i/41746372.jpg/)

http://www.pcper.com/index.php#NewsID-7744

Gouvernator
2009-09-11, 08:46:01
Das ist doch ABSOLUT fantastisch! Sowas hab ich mir immer schon gewünscht. Die geilere Variante ist doch noch die 6 solcher Displays aufzustellen das wäre dann Surround Gaming vom Feinsten mit 7200x1920.

AnarchX
2009-09-11, 09:17:36
Der genaue Transitorcount scheint wohl 2,15 Mrd. zu sein:
We can't talk specs but at today's AMD press conference two details are public: 2.15 billion transistors and over 2.5 TFLOPs of performance. As expected, but nice to know regardless.
http://www.anandtech.com/printarticle.aspx?i=3635
Bei etwas über 330mm² hätte man da die Packdichte gegenüber RV740 sogar noch ein Stück erhöht.

Die 2,5-fach bzw. 250% im Bezug auf die Leistung in "Raw FLOPs" würde ich momentan wohl eher so erklären, dass man wohl grob sagt dass HD4800 ~1 TFLOPs erreicht hat, während man nun bei etwas über 2,5 TFLOPs ist.

m.sch
2009-09-11, 09:20:20
Also ich weiß nicht,aber die Ränder stören ungemein :(
das schaut so aus,als ob man durchs Fenster glotzt :freak:

reunion
2009-09-11, 09:24:45
Quake3:

http://www.ultrashock.com/images/v1/images_fun/multimonitor.jpg

http://www.xtremesystems.org/forums/showpost.php?p=4006863&postcount=261


Und hier noch einige Artikel bekannter Seiten:
http://techreport.com/discussions.x/17563
http://www.hwupgrade.it/articoli/skvideo/2280/ati-eyefinity-la-prima-tecnologia-delle-gpu-dx11_2.html
http://www.hardocp.com/article/2009/09/09/amd_next_generation_ati_radeon_eyefinity_technology

2B-Maverick
2009-09-11, 09:26:44
Also ich weiß nicht,aber die Ränder stören ungemein :(
das schaut so aus,als ob man durchs Fenster glotzt :freak:

Es ist sicherlich attraktiver das ganze über 3 Beamer laufen zu lassen :biggrin:

AnarchX
2009-09-11, 09:28:03
Also ich weiß nicht,aber die Ränder stören ungemein :(
das schaut so aus,als ob man durchs Fenster glotzt :freak:
Sicherlich ist es nicht optimal, zumal AMD die Unterstützung die Ausblendung der rahmenverdeckten Bildteile erst mit dem nächsten Treiber verspricht. Aber es ist eben eine günstige Möglichkeit eine hochauflösende Darstellungsfläche zu erreichen, ein natives 6-12MPix Display wäre wohl auf kaum jemanden leistbar.

Quake3:

http://www.ultrashock.com/images/v1/images_fun/multimonitor.jpg
Kein Eyefinity.

Logan
2009-09-11, 09:31:19
Quake3:

http://www.ultrashock.com/images/v1/images_fun/multimonitor.jpg

http://www.xtremesystems.org/forums/showpost.php?p=4006863&postcount=261


Und hier noch einige Artikel bekannter Seiten:
http://techreport.com/discussions.x/17563
http://www.hwupgrade.it/articoli/skvideo/2280/ati-eyefinity-la-prima-tecnologia-delle-gpu-dx11_2.html
http://www.hardocp.com/article/2009/09/09/amd_next_generation_ati_radeon_eyefinity_technology

Das bild von quake 3 ist uralt (2006) ;)

SavageX
2009-09-11, 09:33:31
Quake3:

http://www.ultrashock.com/images/v1/images_fun/multimonitor.jpg

http://www.xtremesystems.org/forums/showpost.php?p=4006863&postcount=261


Das hat doch mit den neuen ATI-Karten nichts zu tun...

http://www.metacafe.com/watch/435350/quake_3_multimonitor/

Botcruscher
2009-09-11, 09:37:05
Echt mal... mich interessiert auch nicht die Bohne ob man 3 oder 20 monitore and dem ding anschliessen kann.


Aber mich und viele andere. Und wenn man bedenkt was der Spaß vor dieser Karte gekostet hat und was heute 3 24er Flats kosten dann ist das einfach nur geil. Ein guterTN (http://www.prad.de/new/monitore/test/2009/test-samsung-2494hm.html) kostet gerade mal 230€. Macht pi mal dauemen zusätliche 500€ für Geräte die man Jahre hat.

Ferengie
2009-09-11, 09:47:52
Jungs, Multiscreen macht doch so viel mehr Sinn:
http://img217.imageshack.us/img217/4706/dsc00028jz3.jpg

no6ody
2009-09-11, 10:00:22
Da sich ja jetzt sowieso herausgestellt hat, dass die Geschichte mit Crysis und "5.670 x 2.160 Pixeln mit maximalen Details bei 60 Bildern pro Sekunde mit einer Grafikkarte" Unfug war, hat sich das mit den vielen Monitoren eigentlich auch erledigt. 250% der Leistung einer 4870 reicht dann hoechstens fuer einen Screen mit ein wenig SSAA... ;(

dargo
2009-09-11, 10:04:12
Also ich weiß nicht,aber die Ränder stören ungemein :(
das schaut so aus,als ob man durchs Fenster glotzt :freak:
Jep, sehe ich auch auch so. Mich würden einfach die Ränder stören.

Sicherlich ist es nicht optimal, zumal AMD die Unterstützung die Ausblendung der rahmenverdeckten Bildteile erst mit dem nächsten Treiber verspricht. Aber es ist eben eine günstige Möglichkeit eine hochauflösende Darstellungsfläche zu erreichen, ein natives 6-12MPix Display wäre wohl auf kaum jemanden leistbar.

Die sollen sich lieber auf Downsampling konzentrieren. Oder zumindest zusätzlich.

reunion
2009-09-11, 10:07:15
Kein Eyefinity.

Okay ja, habe es auch schon bemerkt.

Gouvernator
2009-09-11, 10:08:43
Da sich ja jetzt sowieso herausgestellt hat, dass die Geschichte mit Crysis und "5.670 x 2.160 Pixeln mit maximalen Details bei 60 Bildern pro Sekunde mit einer Grafikkarte" Unfug war, hat sich das mit den vielen Monitoren eigentlich auch erledigt. 250% der Leistung einer 4870 reicht dann hoechstens fuer einen Screen mit ein wenig SSAA... ;(

Es geht ja nicht hauptsächlich um einfach nur Megapixel. Es geht um Surround Gaming und das kannst du auch mit weniger MP bekommen.

Fassen wir das mal zusammen.
- Matrox TripleHead obsolet (250€)
- NV Mosaic SLI per Framelock obsolet, maximal 9 Bildschirme (10.000$)
- 24 Bildschirme maximum, ohne jede Alternative zur Zeit

2B-Maverick
2009-09-11, 10:09:22
Jep, sehe ich auch auch so. Mich würden einfach die Ränder stören.

Wobei die Ränder für Flugsimulatoren ja wieder genau richtig sind: Cockpitstreben ganz umsonst :redface:
(Ich hab gerade gemerkt, dass mein Lieblingsgame noch DX7 basierend ist (Flugsimulator "Condor") -> maximal 1920 Pixel Breite -> 3 Monitore hätten dann 1920 x 480er Auflösung -> Augenkrebs!!! -> keine R5xxx für mich :frown:)

reunion
2009-09-11, 10:11:23
Jep, sehe ich auch auch so. Mich würden einfach die Ränder stören.

Nicht jeder will damit nur spielen. Und selbst dann hätte ich bei drei Monitoren wo in der Mitte das Fadenkreuz ist kein Problem. Bei sechs Monitoren stört mich der Querstrich allerdings auch.