PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - R700 im Q2 2008, multicore und 55 nm? Teil 3


Seiten : 1 [2] 3 4

GeneralHanno
2008-06-04, 19:43:50
dann scheint die RV770pro die 3850 ja preislich direkt zu ersetzen ...

ich vermute (befürchte), dass die RV770xt in den ersten monaten mit der schlechten verfügbarkeit + hohen preisen von GDDR5 zu kämpfen haben wird.

Gast
2008-06-04, 19:48:50
Ist doch wurst obs alle 20ms ruckelt oder ständig.


eben nicht gleichmäßige niedrige fps sind wesentlich angenehmer als ständig schwankende, nicht umsonst finden viele auch 3:2-pulldown-ruckler als extrem stören.

Sorkalm
2008-06-04, 19:48:57
dann scheint die RV770pro die 3850 ja preislich direkt zu ersetzen ...

Die 4850 ersetzt doch preislich nicht mal die 3870. ;)

Gast
2008-06-04, 19:50:19
Nein, du siehst auch mit CF nur etwa 20fps, weil die Frames der 2. Karte dank Mikroruckler zeitlich zu dicht an denen der 1. Karte liegen.

Eben, nicht. Das kann man nicht pauschalisieren. Ich schreibe doch selbst, dass das Spielgeschehen eindeutig flüssiger ist. Und zwar flüssig genug es zu genießen, was man im Gegensatz mit der Singlekarte nicht kann.

Also immer die Kirche im Dorf lassen mit den Mikrorucklern. Die AFR-Lösung ist nicht perfekt (in nächster Zeit folgen ja die ersten Lösungen) und es geht nichts über einen Singlechip - aber trotzdem muss man CF/SLI nicht andauernd dermaßen bashen.

crux2005
2008-06-04, 19:55:28
BTW: Die RV770 Techdemo mit Cinema 2.0 wird ja mal der Hammer, vorallem die Stadtszene.

irgendwie zu gut :eek: kaum zu Glauben ...

Unyu
2008-06-04, 19:57:37
aber trotzdem muss man CF/SLI nicht andauernd dermaßen bashen.
Doch.
Bei so teuren Lösungen, kann man auch was für sein Geld erwarten.

eben nicht gleichmäßige niedrige fps sind wesentlich angenehmer als ständig schwankende, nicht umsonst finden viele auch 3:2-pulldown-ruckler als extrem stören.
Das kommt ja noch hinzu, ich wollts erst mal einfach halten. ;)

Gast
2008-06-04, 19:59:16
Doch.
Bei so teuren Lösungen, kann man auch was für sein Geld erwarten.


Inwiefern teuer?

GeneralHanno
2008-06-04, 20:05:33
Inwiefern teuer?
sowohl anschaffung, als auch unterhaltung.
zudem strapaziert SLI/CF die nerven ;)

Schlammsau
2008-06-04, 20:07:02
Doch.
Bei so teuren Lösungen, kann man auch was für sein Geld erwarten.


sag bitte mal ganz laut, die 9800GX2 und die 7950GX2 sind ihr Geld nicht wert und genau der gleiche Mist wie die MGPU Produkte von ATi!
Bitte Bitte

Gast
2008-06-04, 20:09:26
Die 4850 ersetzt doch preislich nicht mal die 3870. ;)

? Performance sollte OK gehen, dazu hat die kleine Karte auch GDDR3 laut den Bildern von der Computex am MSI Stand. Also wird sie breit verfügbar sein. Kampfreis 199$/€ und die Performance nahe an einer G80Ultra bis rauf zu 1680*1050/4xAA/16xAF, das brennt ;)

Black-Scorpion
2008-06-04, 20:10:01
sag bitte mal ganz laut, die 9800GX2 und die 7950GX2 sind ihr Geld nicht wert und genau der gleiche Mist wie die MGPU Produkte von ATi!
Bitte Bitte
Du erwartest doch nicht wirklich eine Antwort darauf?

Unyu
2008-06-04, 20:12:00
sag bitte mal ganz laut, die 9800GX2 und die 7950GX2 sind ihr Geld nicht wert und genau der gleiche Mist wie die MGPU Produkte von ATi!
Bitte Bitte
Mache ich gerne:
(G)X2 Karten sind ihr Geld nicht wert.

Schlammsau
2008-06-04, 20:14:49
Mache ich gerne:
(G)X2 Karten sind ihr Geld nicht wert.

Also gibst du zu, dass nVidia mit den Karten versucht die Kunden über den Tisch zu ziehen!?
Selber schon mal das Vergnügen gehabt, MGPU´s zu testen, oder gibst du nur das dumme Gebrabbel anderer Leute weiter?
MGPU´s machen derzeit noch mehr Probleme als SGPU´s, aber es ist nicht so tragisch wie von manchen hier dargestellt!

Unyu
2008-06-04, 20:17:55
Das ist deine Definition.
Gibt ja genug Kunden, die das nicht so sehen. ;)

Verarsche wärs, wenn nirgends Multi GPU dransteht. Ich schreibe nur: "Geld nicht wert."

Schlammsau
2008-06-04, 20:21:50
Das ist deine Definition.
Gibt ja genug Kunden, die das nicht so sehen. ;)

Verarsche wärs, wenn nirgends Multi GPU dransteht. Ich schreibe nur: "Geld nicht wert."

was wäre für dich ein angemessener Preis einer X2 bzw. GX2?

Unyu
2008-06-04, 20:31:21
Na so wie die spürbare Mehrleistung ist/ so viel wie eine fühlbar gleichschnelle Single kosten würde. ;)

Gast
2008-06-04, 20:33:36
Na so wie die spürbare Mehrleistung ist/ so viel wie eine fühlbar gleichschnelle Single kosten würde. ;)

ja dann musst du halt 600 euronen zahlen wenn du single karte willst mit einer leistung von 2 8800gtx(400 euro).

Gast
2008-06-04, 20:37:14
Na so wie die spürbare Mehrleistung ist/ so viel wie eine fühlbar gleichschnelle Single kosten würde. ;)

Was ist wenn ich dir sage, dass die spürbare Leistung genauso hoch ist wie die gemessene!?
Wie oft auch vorher bemerkt wurde, sind nur unter 30fps oftmals ein "Problem"!
40 oder 50fps fühlen sich butterweich an, genau wie auf einer Single Karte!

horn 12
2008-06-04, 20:56:47
Oh N E I N :mad:
Wollen wohl einen guten verfügbaren Hardlaunch beider Karten gewährleisten daher:


tgdaily meldet: 4850 und 4870 werden zusammen am 23. Juni gelauncht.

AMD delays Radeon 4800 launch to June 23

Hardware
By Theo Valich
Wednesday, June 04, 2008 11:50

Taipei (Taiwan) – In the latest round of rumors from Computex 2008, we learned that AMD managed to upset the majority of its partners by delaying the Radeon 4850 512MB GDDR3, code-named Makedon.

AMD has decided not to launch its new graphics cards on June 18 as originally planned. Instead, ATI will be briefing members of the press around this date and launch the product in the following week. Since Nvidia is going to launch non-competing parts on June 17, it sounds like a reasonable decision not t o launch its new GPUs just one day later.

However, add-in-board companies have the cards available right now or can receive them within 24 hours of time. Given the current market climate, some companies believe AMD should have launched the cards at Computex.

We were told that there are “tens of thousands of boards just sitting there” and AMD’s partners are not too thrilled.

However, it looks like that AMD is using the delay to change its launch strategy. The GDDR5 equipped 4870 will now launch at the same time as the 4850 512MB GDDR3, but it is unclear whether there are enough GDDR5 chips to enable AMD to ship the 4870 in volume right off the bat.

Two updated dates for your calendar are: June 17: Nvidia launches GeForce GTX 200 series. June 23: AMD launches Radeon 4800 series.

Gast
2008-06-04, 21:41:43
passt doch, wandern gleich 2x 4870 in den Rechner :D

HarryHirsch
2008-06-04, 22:12:47
ausgehend von den ~160 watt tdp einer 4870
was für ein nt bräuchte man um 2 dieser 4870 zu betreiben?
reicht ein 500 watt nt mit 17a auf schiene 1 und 16a auf schiene 2?

Nakai
2008-06-04, 22:35:48
ausgehend von den ~160 watt tdp einer 4870
was für ein nt bräuchte man um 2 dieser 4870 zu betreiben?
reicht ein 500 watt nt mit 17a auf schiene 1 und 16a auf schiene 2?

Ich würde mich nicht wundern, wenn es wirklich richtige HD4870 sind.
;)

mfg Nakai

HarryHirsch
2008-06-04, 22:40:06
öhm wie jetz :confused:
ich mein 2 4870er karten als cf, nich die x2
oder was meinst du?

Gast
2008-06-04, 22:48:06
öhm wie jetz :confused:
ich mein 2 4870er karten als cf, nich die x2
oder was meinst du?


Na eines womit du auch nen G80 SLI betreiben kannst. Soll es ja geben.

HarryHirsch
2008-06-04, 23:00:56
Na eines womit du auch nen G80 SLI betreiben kannst. Soll es ja geben.

und das währe?
reicht denn nu nen 500er?

dargo
2008-06-04, 23:02:48
AFAIK soll die UVP bei 169€ liegen.

Öhm, die UVP gibts eigendlich nur in $. Und diese lag afaik bei 229$. Aber der Preis von 156€ ist schon verdammt heiß. Vorallem, da es die Karten noch gar nicht gibt. Was soll die erst bei großer Verfügbarkeit kosten, 130€? :eek:

HarryHirsch
2008-06-04, 23:07:09
Öhm, die UVP gibts eigendlich nur in $. Und diese lag afaik bei 229$. Aber der Preis von 156€ ist schon verdammt heiß. Vorallem, da es die Karten noch gar nicht gibt. Was soll die erst bei großer Verfügbarkeit kosten, 130€? :eek:

http://www.electronicagigant.nl/nl/product/categorie/componenten/videokaarten/sapphire/221182-sapphire-ati-hd4850,512mb :biggrin:
(http://www.electronicagigant.nl/nl/product/categorie/componenten/videokaarten/sapphire/221182-sapphire-ati-hd4850,512mb)

edit:
scheisse hab ich heut ne lange leitung

dargo
2008-06-04, 23:11:21
http://www.electronicagigant.nl/nl/product/categorie/componenten/videokaarten/sapphire/221182-sapphire-ati-hd4850,512mb :biggrin:
(http://www.electronicagigant.nl/nl/product/categorie/componenten/videokaarten/sapphire/221182-sapphire-ati-hd4850,512mb)

edit:
scheisse hab ich heut ne lange leitung
Ich wollte grade sagen. :D

Mich wundert nur der sehr tiefe Preis vor dem Launch. Wäre es möglich, dass AMD/ATI die UVP der HD4850 auf 199$ weiter nach unten korrigiert hat? Naja, wie dem auch sei, warten wir erstmal die Straßenpreise in DE ab.

Gast
2008-06-04, 23:29:07
Das wird wohl wieder ein Flop, anders kann man diesen Preis vor dem Start nicht erklären...

Adam D.
2008-06-04, 23:44:39
Das wird wohl wieder ein Flop, anders kann man diesen Preis vor dem Start nicht erklären...
Würd ich jetzt nicht gleich so heftig sehen. Die letzten Gerüchte sahen ja wirklich spitze aus für den RV770. Hoffentlich bleibt da beim Release noch was von übrig.

Mit dem Preis könnte ATi wirklich extremen Kampfkurs fahren. Wenn die Karte wirklich das hält, was sie verspricht, treten die damit Nvidia ganz schön in die Nüsse.

Gast
2008-06-05, 00:07:48
Das wird wohl wieder ein Flop, anders kann man diesen Preis vor dem Start nicht erklären...

es wird genau das gegenteil passieren,preisleistung wird nv sowas von nicht mithalten können,ich glaub die nv karten werden der megaflop.es wird wohl niemand mehr als 600 euro ausgeben was schon ca. 2x4850 bewerkstelligen und das für gerade mal 350 euro.nv wird diesmal die rücklichter sehen und das ist sehr wahrscheinlich.

Gast
2008-06-05, 00:13:31
es wird genau das gegenteil passieren,preisleistung wird nv sowas von nicht mithalten können,ich glaub die nv karten werden der megaflop.es wird wohl niemand mehr als 600 euro ausgeben was schon ca. 2x4850 bewerkstelligen und das für gerade mal 350 euro.nv wird diesmal die rücklichter sehen und das ist sehr wahrscheinlich.

MAch mal langsam. Die 280er ist doch nur das Zugpferd. Die 260 wird schon ein deutlich besseres P/L Verhältnis haben. Ausserdem gibts immer Leute die sich sowas kaufen. Ein Arbeitkolege war auch nicht abzubringen sich im März ne Ultra zu kaufen, weil er meinte die hält dann länger.

Alles vorrechnen dass er mit ner 8800 GTS + in nem Jahr das neue Performance deutlich günstiger fährt hat nix geholfen. Wenn schon denn schon. Viele sind einfach geil drauf das beste zu haben, und wenns nur für 6 (in seinem Fall dann 3) Monate ist.

Gast
2008-06-05, 00:16:19
MAch mal langsam. Die 280er ist doch nur das Zugpferd. Die 260 wird schon ein deutlich besseres P/L Verhältnis haben. Ausserdem gibts immer Leute die sich sowas kaufen. Ein Arbeitkolege war auch nicht abzubringen sich im März ne Ultra zu kaufen, weil er meinte die hält dann länger.

Alles vorrechnen dass er mit ner 8800 GTS + in nem Jahr das neue Performance deutlich günstiger fährt hat nix geholfen. Wenn schon denn schon. Viele sind einfach geil drauf das beste zu haben, und wenns nur für 6 (in seinem Fall dann 3) Monate ist.

wenn ich es schnell mache dann wird es noch schlimmer,als ob die 260 was ausreißen wird,lol erstmal ca.20% langsamer als die 280gtx dann kommt noch der preis der wohl mit großer sicherheit bei 400-450 euro landet und das soll es sein?

ja gute idee mit dem mach mal langsam aber das schieb ich gleich mal weiter:)

deekey777
2008-06-05, 01:12:53
Kennen wir schon?
Meet the HD 4870 celebrity (http://www.fudzilla.com/index.php?option=com_content&task=view&id=7709&Itemid=1)

We managed to get our paws on a Radeon HD 4870 card, the card that we used to call RV770XT. This is a dual slot card with a single 6 -in power connector

Psychopat
2008-06-05, 02:17:44
Aus dem b3d Forum:

4850 Vantage P5847, X2609

On the same platform, a 9800GTX does P5816, X2104
http://forum.beyond3d.com/showpost.php?p=1170597&postcount=2515

Odal
2008-06-05, 02:53:10
das sieht mir ja sehr nach bug gefixten RV670 aus oder wie lässt sich das überdurchschnittlich gute P/X verhältnis im vergleich zur 98GTX erklären?

wenn jetzt noch preis und verfügbarkeit stimmt kann nvidia mit ihrem überteuerten highendschrott einpacken
ne 4870 dürfte da schon sehr gute performance zu nem bezahlbaren preis abliefern...

und ein einzelner 6 pin power connector hört sich schonmal sehr gut an...vielleicht konnte powerplay sogar noch ein wenig verbessert werden...

sieht derzeit echt gut aus das runde produkt

Gast
2008-06-05, 03:00:34
den p wert nimm ich ja glatt ab,aber der x wert ist schon heavy da man auch jetzt weis das nur ein speichertakt von 995mhz ist.hat sich wohl gelohnt aa nicht mehr über den shader laufen zulassen anders kann ich mir den x wert nicht erklären,sogar in der x einstellung in vantage ist der speicherbandbreite relative wurscht,dann könnt das doch wohl hinhauen.

Gast
2008-06-05, 03:08:42
und ein einzelner 6 pin power connector hört sich schonmal sehr gut an...vielleicht konnte powerplay sogar noch ein wenig verbessert werden...



Powerplay wurde sich noch optimiert und bei einer 110W TDP reicht ein 6 Pol. aus.

Gast
2008-06-05, 03:11:07
Der X Wert ist ganz o.k. ich denke das die 9800Gtx irgendwie der Speicher bremst (Menge oder Bandbreite?) bei 1920 AA+AF

Gast
2008-06-05, 03:14:24
Der X Wert ist ganz o.k. ich denke das die 9800Gtx irgendwie der Speicher bremst (Menge oder Bandbreite?) bei 1920 AA+AF

ne am speicher liegt es nicht zu 100%,nur teilweise.ich glaub es liegt wirklich daran das bei den ati karten aa+af viel besser performt wenn das stimmt das es nicht mehr über den shader läuft.

Gast
2008-06-05, 03:19:16
Aber wird ein großen Teil ausmachen, denn eine 8800GTX ist auch schneller im X Test als die 9800GTX die eine höhere Rechenleistung hat

Gast
2008-06-05, 03:25:03
Aber wird ein großen Teil ausmachen, denn eine 8800GTX ist auch schneller im X Test als die 9800GTX die eine höhere Rechenleistung hat

ja ist klar aber bei ati ist der speichermanagment weitaus besser,deswegen kann der wert sogut wie nur vom verbesserten aa+af kommen.man muss sich das mal so vorstellen eine 3870x2 schafft selbt gerade mal ein wert von ca.2600,deswegen ist das schon extreme wenn das stimmt.

Gast
2008-06-05, 03:45:35
ja ist klar aber bei ati ist der speichermanagment weitaus besser,deswegen kann der wert sogut wie nur vom verbesserten aa+af kommen.man muss sich das mal so vorstellen eine 3870x2 schafft selbt gerade mal ein wert von ca.2600,deswegen ist das schon extreme wenn das stimmt.

das könnte hinhauen,aa manko bereinigt AA nicht mehr über shader,af manko bereinigt durch verdopllung der tmu´s,könnte was dran sein.

4711
2008-06-05, 07:10:48
das sieht mir ja sehr nach bug gefixten RV670 aus oder wie lässt sich das überdurchschnittlich gute P/X verhältnis im vergleich zur 98GTX erklären?

wenn jetzt noch preis und verfügbarkeit stimmt kann nvidia mit ihrem überteuerten highendschrott einpacken
ne 4870 dürfte da schon sehr gute performance zu nem bezahlbaren preis abliefern...

und ein einzelner 6 pin power connector hört sich schonmal sehr gut an...vielleicht konnte powerplay sogar noch ein wenig verbessert werden...

sieht derzeit echt gut aus das runde produkt

jeep wenn das alles so stimmt ist das Kärtchen mir.

Gast
2008-06-05, 07:18:03
Powerplay wurde sich noch optimiert und bei einer 110W TDP reicht ein 6 Pol. aus.

Es geht aber hier nicht um die 4850 sondern um die 4870 die angeblich eine TDP von 160Watt hat und 2 6pin Anschlüsse. Scheint ja nicht zu stimmen.

Übrigens:
4850 X2609 x 1,3 => 4870 ~X3400
4850 P5487 x 1,3 => 4870 ~P7600

Upps!

wenn die 4850 jetzt schon für 156 Euro im Angebot ist dann wird die 4870 vielleicht auch nur 229 Euro kosten.

Was mich bei diesen Vantage-Scores wundert ist der X5500-Wert für eine X2. Bei einem üblichen Scaling von 1,8 müsste der Wert ja eigentlich bei >6000 liegen, oder?

seahawk
2008-06-05, 07:32:53
Das ist die gute Frage. ATI bemüht sich etwas gegen Mikroruckler zu tun, es ist denkbar, dass die zu Lasten der max-FPS geht.

tombman
2008-06-05, 08:03:03
CF und SLI bleiben Unsinn, egal wie hoch die fps sind.

Über 30fps sind absolut problemlos mit MGPU Systemen!
Stimmt schon wieder nicht. Die kritische Zone bei 2 gpus @ AFR liegt bei 30fps bis ca 45fps. Drunter ruckelt es auch mit ner single Karte und drüber isses nimmer wirklich spürbar.

Schlammsau
2008-06-05, 08:21:55
Stimmt schon wieder nicht. Die kritische Zone bei 2 gpus @ AFR liegt bei 30fps bis ca 45fps. Drunter ruckelt es auch mit ner single Karte und drüber isses nimmer wirklich spürbar.

ich habe es mit Crossfire getestet und teste es immer noch! Ab 30fps ist dieser Gummibandeffekt bzw. irgendwelches Ruckeln fast nicht wahrnehmbar!
Ich finde es schwachsinnig, pauschal zu sagen, von MGPU fps muss man 30% abziehen, erst dann hat man die gefühlten fps. Und ich kann mir kaum vorstellen, dass es auf SLi schlimmer ist, da es im Prinzip ja das gleiche System nutzt!

seahawk
2008-06-05, 08:23:41
Die FPS sinmd völlig unebdeutend für die Microruckler. Einzig die Differenz zwischen den Frames ist relevant. Und wenn er 59 Biler alle 1ms raushaut und dann eines nach 10ms merkt man es.

HarryHirsch
2008-06-05, 08:28:28
ich habe es mit Crossfire getestet und teste es immer noch! Ab 30fps ist dieser Gummibandeffekt bzw. irgendwelches Ruckeln fast nicht wahrnehmbar!
Ich finde es schwachsinnig, pauschal zu sagen, von MGPU fps muss man 30% abziehen, erst dann hat man die gefühlten fps. Und ich kann mir kaum vorstellen, dass es auf SLi schlimmer ist, da es im Prinzip ja das gleiche System nutzt!

schon mal pro street mit seinem 30fps limit mit cf/sli gespielt?
spielbar ist anders!

Schlammsau
2008-06-05, 08:32:47
schon mal pro street mit seinem 30fps limit mit cf/sli gespielt?
spielbar ist anders!

nein, das vergnügen hatte ich noch nicht, aber wie gesagt, auch ohne MGPU, würde das Game unter 30fps Ruckeln. Es fühlt sich mit SLi/CF nur anders an!

HOT
2008-06-05, 08:33:30
Die FPS sinmd völlig unebdeutend für die Microruckler. Einzig die Differenz zwischen den Frames ist relevant. Und wenn er 59 Biler alle 1ms raushaut und dann eines nach 10ms merkt man es.

Stimmt nicht. Aber einer gewissen Bildwiederholfrequenz sind µRuckler egal, weil die Abstände so klein werden, dass man es nicht mehr wahrnimmt. Nur unter 30FPS sind die wahrnehmbar.
Ich hoffe, es kommen bald mal passende Treiber, die das Problem beenden werden. Ich tippe mal, dass man dafür am R700-Treiber noch fieberhaft bastelt. Angeblich kommt der R700 wegen dem Treiber und nicht wegen der Hardware später.

RoNsOn Xs
2008-06-05, 08:44:59
ich habe es mit Crossfire getestet und teste es immer noch! Ab 30fps ist dieser Gummibandeffekt bzw. irgendwelches Ruckeln fast nicht wahrnehmbar!

richtig, DU!
du bist aber nicht das maß aller dinge. jeder empfindet auch bei sli/cf anders, ab wann es flüssig ist und wann man diese miniruckler noch spürt.

Schlammsau
2008-06-05, 08:49:47
richtig, DU!
du bist aber nicht das maß aller dinge. jeder empfindet auch bei sli/cf anders, ab wann es flüssig ist und wann man diese miniruckler noch spürt.

Da hast du vollkommen recht, und deswegen sind Kommentare wie es mittlerweile einige User sogar in ihrer Sig haben, sehr sehr unpassend!
Hier werden oftmals MGPU Systeme schlechter gemacht als sie wirklich sind!
Und das schlimmste ist, das viele einfach nur dem "öffentlichen" Tenor nachbrabbeln, ohne jemals ein MGPU Sys gesehen, geschweige den getestet zu haben!

seahawk
2008-06-05, 08:53:11
Stimmt nicht. Aber einer gewissen Bildwiederholfrequenz sind µRuckler egal, weil die Abstände so klein werden, dass man es nicht mehr wahrnimmt. Nur unter 30FPS sind die wahrnehmbar.
Ich hoffe, es kommen bald mal passende Treiber, die das Problem beenden werden. Ich tippe mal, dass man dafür am R700-Treiber noch fieberhaft bastelt. Angeblich kommt der R700 wegen dem Treiber und nicht wegen der Hardware später.

Es hat nicht mit der Bildwiederholfrequenz zu tun, da die nur FPS ausspuckt. Die Verteilung der Frames in der Sekunde ist relevant. Kann man sehr schön erleben. Einfach mal bei einem fordernden Spiel und entsprechenden Settings eine Zeit in den Himmel gucken. Und dann den Blick drehen auf ein sehr forderndes Gebiet. In der Drehung spürst Du die Ruckler, auch wenn die average FPS über die Gesamtzeit sehr hoch sein werden.

Schlammsau
2008-06-05, 09:00:49
Es hat nicht mit der Bildwiederholfrequenz zu tun, da die nur FPS ausspuckt. Die Verteilung der Frames in der Sekunde ist relevant. Kann man sehr schön erleben. Einfach mal bei einem fordernden Spiel und entsprechenden Settings eine Zeit in den Himmel gucken. Und dann den Blick drehen auf ein sehr forderndes Gebiet. In der Drehung spürst Du die Ruckler, auch wenn die average FPS über die Gesamtzeit sehr hoch sein werden.

Genau den gleichen Effekt hab ich mit einer einzelnen Karte auch!

HOT
2008-06-05, 09:24:51
Es hat nicht mit der Bildwiederholfrequenz zu tun, da die nur FPS ausspuckt. Die Verteilung der Frames in der Sekunde ist relevant. Kann man sehr schön erleben. Einfach mal bei einem fordernden Spiel und entsprechenden Settings eine Zeit in den Himmel gucken. Und dann den Blick drehen auf ein sehr forderndes Gebiet. In der Drehung spürst Du die Ruckler, auch wenn die average FPS über die Gesamtzeit sehr hoch sein werden.
Die Frametimes sind, auch wenn sie ungleichmässig sind, irgendwann so gering, dass man sie nicht mehr wahrnimmt. Ich habs selber probiert, nen Kumpel von mit hat ne X2. µRuckler sind nur nervig, wenn das gesamte Bild "zu langsam" wird, also unter 30FPS fällt. Ist aber auch scheissegal, in 1/2 Jahr redet kein Mensch mehr davon.

Coda
2008-06-05, 09:29:34
Ist aber auch scheissegal, in 1/2 Jahr redet kein Mensch mehr davon.
Da wär ich mir nicht so sicher.

seahawk
2008-06-05, 10:23:17
Genau den gleichen Effekt hab ich mit einer einzelnen Karte auch!

Nein, da fallen die FPS stärker ab. Bei CF hast Du den Ruckler, ohne dass er sich bei den FPS groß auswirkt. (also den flüssigen Bereich nicht verlassen und trotzdem ruckt es kurz) Bei der Single GPU hast Du nur einen generellen Abfall der FPS, das Ruckeln bleibt entsprechend der FPS nach dem Blickwinkelwechsel erhalten.

Ich persönlich glaube auch dass dies lösbar (und AMD es bis zur neuen X22 auch löst) ist und ich sehe es auch als keinen gravierenden Nachteil der X2 karten.

Gast
2008-06-05, 10:23:33
Mit dem Preis könnte ATi wirklich extremen Kampfkurs fahren. Wenn die Karte wirklich das hält, was sie verspricht, treten die damit Nvidia ganz schön in die Nüsse.


Die treten vorallem sich selbst in die Nüsse, weil die Quartalszahlen dann wieder satt rot sein werden.

Winter[Raven]
2008-06-05, 10:26:03
Mit dem Preis könnte ATi wirklich extremen Kampfkurs fahren. Wenn die Karte wirklich das hält, was sie verspricht, treten die damit Nvidia ganz schön in die Nüsse

Die Frage die ich mir stelle:

a) AMD will auf Teufel komm raus Marktanteile zurückgewinnen und macht Schulden ODER
b) Der Chip ist doch nicht der Bringer und muss aus diesem Grund so "billig" angeboten werden?

Adam D.
2008-06-05, 10:30:16
Die treten vorallem sich selbst in die Nüsse, weil die Quartalszahlen dann wieder satt rot sein werden.
Naja, AMDs Abteilungen werden schon so fahren, dass es einigermaßen rentabel ist.

;6556657']Die Frage die ich mir stelle:

a) AMD will auf Teufel komm raus Marktanteile zurückgewinnen und macht Schulden ODER
b) Der Chips ist doch nicht der Bringer und muss aus diesem Grund so "billig" angeboten werden?
a) Jop, AMD braucht einfach Marktanteile und hat angefangen, diese mit dem RV670 zurück zu erobern. Die brauchen jetzt einfach 'ne Marktpräsenz und sollte die HD4850 wirklich in den Preisbereich von 130-150€ fallen, dann ist das echt 'n Knaller.
b) Sieht momentan ja nicht danach aus, auch wenn wir uns da bis jetzt an Vantage-Scores und ein paar Folien + Quellen-Aussagen verlassen müssen.

Gast
2008-06-05, 10:39:08
;6556657']Die Frage die ich mir stelle:

a) AMD will auf Teufel komm raus Marktanteile zurückgewinnen und macht Schulden ODER
b) Der Chips ist doch nicht der Bringer und muss aus diesem Grund so "billig" angeboten werden?


Wahrscheinlich b), denn neue Schulden kann AMD nicht mehr machen, die bekommen keinen Kredit von den Banken mehr. Geld bekommt AMD nur noch über den Verkauf von Unternehmensanteilen.

Odal
2008-06-05, 10:43:32
;6556657']Die Frage die ich mir stelle:

a) AMD will auf Teufel komm raus Marktanteile zurückgewinnen und macht Schulden ODER
b) Der Chips ist doch nicht der Bringer und muss aus diesem Grund so "billig" angeboten werden?

http://666kb.com/i/az992z7kn09jqrqax.jpg

DIE ist viiiieeelll kleiner und somit billiger zu fertigen mit einer sehr guten ausbeute

speicherinterface ist halb so breit bei fast gleicher speicherbandbreite (GDDR5) was das pcb deutlich einfacher und günstiger macht

stromaufnahme ist um einiges geringer was wohl auch kühllösungen günstiger macht

nvidia kann mit ihrem design preis/leistungsmässig gar nicht mithalten und dabei noch mindestens genauso viel gewinn machen

HOT
2008-06-05, 10:55:29
Hmm... 256mm² zu 576mm² - das NV-Die ist etwa 5x so gross :D. Aua. Selbst das G92 Die ist noch mehr als doppelt als das RV770 Die. Nach einem Shrink (G92b) schafft NV im Idealfall ca. 280mm² runterzukommen, wobei da 290mm² ein realistischerer Wert ist, weil nicht alles 100% geshrinkt werden kann - der RV770 wird wohl trotzdem noch erheblich schneller sein als der G92b. Der G94 sollte in etwa die Grösse eine RV770 haben. Bleibt nurnoch die Frage nach dem Yield.

Sorkalm
2008-06-05, 11:01:48
G200 wird aber viel schneller als ein RV770, man sollte diese Chips einfach nicht vergleichen, das geht IMMER nach hinten los. ;)
Sind andere Märkte.

Schlammsau
2008-06-05, 11:08:21
Der Preis auf dieser Seite ist doch Bauernfängerei! So etwas nennt man auch Lockangebot! ;)
Die 4850 soll für rund 230$ auf den Markt kommen.....d.h. nach 2 Wochen wird sie wohl für rund 200€ bei uns über die Ladentheke gehen.
Wir haben jetzt schon mehrmals bestätigt bekommen, dass die Karte sogar leicht schneller als eine 9800GTX ist! Also wird sie sich vom Preis her leicht oberhalb der GTX ansiedeln.

Winter[Raven]
2008-06-05, 11:10:15
dass die Karte sogar leicht schneller als eine 9800GTX ist! Also wird sie sich vom Preis her leicht oberhalb der GTX ansiedeln.

Durch was? Schwanzmark?

HOT
2008-06-05, 11:11:39
G200 wird aber viel schneller als ein RV770, man sollte diese Chips einfach nicht vergleichen, das geht IMMER nach hinten los. ;)
Sind andere Märkte.
Sicherlich kann man nicht auf genau Kosten schließen, weil der Yield eine grosse Rolle spielt und sicherlich ist der G200 schneller, keine Frage. Aber dass der G200 ein superteures Schwein ist, sollte klar sein und wenn der von einem R700 geschlagen wird und NV mit den Preisen runter muss, tut das evtl. weh. Die Luxus-Winwin-situation wie zu G80-Zeiten gibt es diesmal nicht.

dargo
2008-06-05, 11:12:22
Wir haben jetzt schon mehrmals bestätigt bekommen, dass die Karte sogar leicht schneller als eine 9800GTX ist!
Wo? Außer 3DMark habe ich noch nichts gesehen.

HOT
2008-06-05, 11:13:04
Wo? Außer 3DMark habe ich noch nichts gesehen.
Ich glaube davon kann man einfach ausgehen. Ein RV770 ist quasi ein doppelter RV670.

dargo
2008-06-05, 11:13:57
Ich glaube davon kann man einfach ausgehen. Ein RV770 ist quasi ein doppelter RV670.
Lass uns erstmal feiern wenn Gamebenches da sind. :wink:

Heelix01
2008-06-05, 11:13:59
Was nur alle gegen Dual GPU Karten haben. Es ist ja hinreichend bekannt das HighEnd fast nur als Meinungmultiplikator fungiert und damit erfüllt jede X2 die Aufgabe einen relativ langen Balken zu zaubern.

Ob es nun der der Praxis in einem frame bereich um die 30 spürare probleme gibt oder nicht spielt dabei keine wirklich rolle oO .


mfg

Schlammsau
2008-06-05, 11:14:48
Wo? Außer 3DMark habe ich noch nichts gesehen.
Ach ja?
Wo habt ihr eure bestätigte Leistung des GT200? Wohl auch nur im Schwanzmark, oder?
Aber jeder meint er wisse wie schnell der GT200 wirklich ist!
PS: und Marketingfolien zählen nicht! ;)

Odal
2008-06-05, 11:19:31
G200 wird aber viel schneller als ein RV770, man sollte diese Chips einfach nicht vergleichen, das geht IMMER nach hinten los. ;)
Sind andere Märkte.


der wird schneller sein ja aber sicherlich nicht 4-5 mal so schnell

ausserdem verkauft man nicht im highend sektor sondern da wo jetzt 3870 und 88gt und 96gt angesiedelt sind

der GT200 wird maximal doppelt so schnell wie ne 98GTX...wenn jetzt der RV770pro wirklich leicht über der 98GTX liegt und der RV770XT nochmal ca. 30% schneller ist liegt zwischen GT200 und HD4870 vielleicht 50% (das ist zwar schon hoch aber für einen chip der nur nen 5tel so groß ist nur ein pcb mit halber speicheranbindung braucht und dabei eib besseres techlevel beherrscht ist der abstand gering...)

deekey777
2008-06-05, 11:41:39
;6556657']Die Frage die ich mir stelle:

a) AMD will auf Teufel komm raus Marktanteile zurückgewinnen und macht Schulden ODER
b) Der Chip ist doch nicht der Bringer und muss aus diesem Grund so "billig" angeboten werden?

c) Der RV770 ist um 30 mm² größer als der G94 und um ~ 70 mm² kleiner als sein Konkurrent G92.

Gast
2008-06-05, 11:46:56
Ich glaube davon kann man einfach ausgehen. Ein RV770 ist quasi ein doppelter RV670.

Nein, ein 1,5-facher RV670.

HOT
2008-06-05, 11:47:14
Jo
ca. 200mm² -> RV670
ca. 225mm² -> G94
ca. 255mm² -> RV770
ca. 290mm² -> G92b
ca. 330mm² -> G92
ca. 430mm² -> R600
ca. 480mm² -> G80
ca. 575mm² -> G200

Nein, ein 1,5-facher RV670.
Doppelte TMUs, mächtigere ROPs, 50% mehr Shader mit mehr Shadertakt. Das ist schon weit mehr als 50%. Da die Last bei dem RV770 besser verteilt ist als beim RV670 ist doppelter RV670 schon recht nah dran. Aber auch ein RV670 mit 50% mehr würde schon reichen um eine 9800GTX zu schlagen, davon mal ganz abgesehen.

Schlammsau
2008-06-05, 11:52:14
Aller vorraussicht nach wird der RV770Pro ein 1,5 facher, und der RV770XT ein 1,8 facher RV670!

reunion@work
2008-06-05, 11:55:16
c) Der RV770 ist um 30 mm² größer als der G94 und um ~ 70 mm² kleiner als sein Konkurrent G92.

Das ist nicht möglich, da G94 240mm² und G92 330mm² AFAIK.

deekey777
2008-06-05, 12:01:01
Das ist nicht möglich, da G94 240mm² und G92 330mm² AFAIK.
Ich habe die B3D-Werte genommen:

G94: 225 mm², http://www.beyond3d.com/resources/chip/130
G92: 324 mm², http://www.beyond3d.com/resources/chip/129
RV770: 250 mm²

So oder so: Der RV770 sieht nach einem deutlich kosteneffizienteren Grafikchip als der G92 und wohl G92b. Dazu kommen solche werbewirksame Spielereien wie D3D10.1, echtes HDMI mit 7.1-Sound usw., die gerade im OEM-Geschäft vom Vorteil sind.

Odal
2008-06-05, 12:04:01
Jo
ca. 200mm² -> RV670
ca. 225mm² -> G94
ca. 255mm² -> RV770
ca. 290mm² -> G92b
ca. 330mm² -> G92
ca. 430mm² -> R600
ca. 480mm² -> G80
ca. 575mm² -> G200


Doppelte TMUs, mächtigere ROPs, 50% mehr Shader mit mehr Shadertakt. Das ist schon weit mehr als 50%. Da die Last bei dem RV770 besser verteilt ist als beim RV670 ist doppelter RV670 schon recht nah dran. Aber auch ein RV670 mit 50% mehr würde schon reichen um eine 9800GTX zu schlagen, davon mal ganz abgesehen.

das verhältnis von vantage P punkten zu den X punkten lässt auch noch annehmen das das "ROP problem" gefixt ist in kombination mit dem "Mehr" an TMUs scheint sich der Verlust bei Qualitätssettings in Grenzen zu halten

davidzo
2008-06-05, 13:23:02
Nein, ein 1,5-facher RV670.

du vergisst den taktunterschied.
So wie es bisher aussieht ist allein der chip 50-100% verbreitert worden und dazu muss man nocheinmal den gesteigerten takt und die womöglich eingeführte shaderdomäne rechnen.

glaubt man diesem screen ist ein 2facher rv670 so ziemlich erreicht. sowohl die Flops, als auch die texelfüllrate wurden mehr als verdoppelt und die bandbreite liegt bei 190%
http://img515.imageshack.us/img515/2729/computerbasexh2.png

seahawk
2008-06-05, 13:25:51
Deswegen muss er aber noch lange nicht doppelt so schnell sein. Mehr Einheiten können weniger Effizienz bedeuten. Auch wenn ich AMD/ATI ein richtig großen Wurf wünsche, so dürfte RV770 kein Gegner für GT200 werden.

RoNsOn Xs
2008-06-05, 13:28:04
Deswegen muss er aber noch lange nicht doppelt so schnell sein. Mehr Einheiten können weniger Effizienz bedeuten. Auch wenn ich AMD/ATI ein richtig großen Wurf wünsche, so dürfte RV770 kein Gegner für GT200 werden.
soll er auch gar nicht.. wie oft noch

GeneralHanno
2008-06-05, 13:29:48
wie schon mehrfach angedeutet, sind die daten zum RV770 bis zum heutigen zeitpunkt (!!!) NICHT wirklich exakt bekannt. die diesize/transistorencount ist im vergleich zum RV670 um etwa 30% gestiegen. damit kann man nunmal bei einer gewissen effizienzsteigerung 1,6xRV670 erreichen, aber eben auch nicht viel mehr ...

Gast
2008-06-05, 13:32:20
Ein G80 ist gut 50% schneller als ein RV670, auch wenn der RV770 80% schneller als ein RV670 ist hat man halt nur ein plus von 30% gegen über einem G80.

Auf der 4870X2 wird aber ganz sicher kein voller 4870er GPU verbaut sein! Wie auch, man hätte damit dann eine TDP von über 300Watt und dies ist nun mal gar nicht möglich! Wenn ATi mit dem R700 den G200 überbieten will muss die CF Skalierung aber richtig gut sein, im bereich von 100% sonst wird das wohl kaum reichen.

Zudem ATI ganz schnell Probleme beim Preis des R700 bekommen wird, schon nur die extrem hohen Kosten des 2x1GB grossen GDDR5 Speicher plus die zwei RV770 (das sind dann auch schon 500mm² und 1,6 Milliarden Transistoren) wird der Preis der Karte in die höhe treiben...

Gast
2008-06-05, 13:35:57
Die Frage ist dann halt auch noch ob ATI auf der X2 überhaupt so viel Speicher verbauen kann / im Preis rechtfertigen kann.

Wenn das teil mit nur 2x512MB kommt ist der zug gegen den G200 sowieso abgefahren...

][immy
2008-06-05, 13:36:21
Deswegen muss er aber noch lange nicht doppelt so schnell sein. Mehr Einheiten können weniger Effizienz bedeuten. Auch wenn ich AMD/ATI ein richtig großen Wurf wünsche, so dürfte RV770 kein Gegner für GT200 werden.

wenn du dir nochmal die prognostizierten preise anschaust, sind es auch gar nicht die konkurenten. konkurent sind eher die jetzigen chips, denn im high-end segment wird einfach kein geld gemacht. das sind höchstens nette marketing-objekte, aber bei den OEMs hat in den letzten jahren auch ein starken umdenken stattgefunden. man denke nur mal an die ganzen geforce FX karten die verbaut wurden. warum? nicht weil nvidia damals der schnellste war, sondern weil die geforce FX 5200 die günstigste karte war mit der "neusten" technologie (zumindest aus marketing-sicht).

sklave_gottes
2008-06-05, 13:38:44
Ein G80 ist gut 50% schneller als ein RV670, auch wenn der RV770 80% schneller als ein RV670 ist hat man halt nur ein plus von 30% gegen über einem G80.

Auf der 4870X2 wird aber ganz sicher kein voller 4870er GPU verbaut sein! Wie auch, man hätte damit dann eine TDP von über 300Watt und dies ist nun mal gar nicht möglich! Wenn ATi mit dem R700 den G200 überbieten will muss die CF Skalierung aber richtig gut sein, im bereich von 100% sonst wird das wohl kaum reichen.

Zudem ATI ganz schnell Probleme beim Preis des R700 bekommen wird, schon nur die extrem hohen Kosten des 2x1GB grossen GDDR5 Speicher plus die zwei RV770 (das sind dann auch schon 500mm² und 1,6 Milliarden Transistoren) wird der Preis der Karte in die höhe treiben...

zwei gpus a 250mm² ist nicht gleich 500mm²
4 gpus a 250mm² sind 500mm²

][immy
2008-06-05, 13:44:47
zwei gpus a 250mm² ist nicht gleich 500mm²
4 gpus a 250mm² sind 500mm²
??? :confused:

die rechnung verstehe ich jetzt nicht
x*2 ist immernoch 2x
was du glaube eher meinst ist, das 2 chips nicht doppelt so hoch und doppelt so breit sind, denn das wäre eine vervierfachung (also 4 chips). aber die mm² kannst du schon zusammenrechnen

darkvader
2008-06-05, 13:51:34
[immy;6557209']??? :confused:
x*2 ist immernoch 2x


10*2 = 100
2 x 10 = 20

100 = 20?

Aber generell hast du recht, wenn eine GPU 250qmm hat (z.B. durch 25x10) dann wären 2 GPUs 25x20 = 500qmm

][immy
2008-06-05, 13:53:08
10*2 = 100
2 x 10 = 20

100 = 20?
* (multiplikation)
x (multiplikation) ;)


^ (Potenz)

wenn ich x (als multiplikationzeichen) mit X (als variable) nehme lässt sich das nicht mehr so gut lesen ;)
* ist aber auch standard

sklave_gottes
2008-06-05, 13:59:29
[immy;6557209']??? :confused:

die rechnung verstehe ich jetzt nicht
x*2 ist immernoch 2x
was du glaube eher meinst ist, das 2 chips nicht doppelt so hoch und doppelt so breit sind, denn das wäre eine vervierfachung (also 4 chips). aber die mm² kannst du schon zusammenrechnen


ja ihr habt recht hatte voll den denkfehler :-(

mfg martin

Odal
2008-06-05, 14:06:27
wie schon mehrfach angedeutet, sind die daten zum RV770 bis zum heutigen zeitpunkt (!!!) NICHT wirklich exakt bekannt. die diesize/transistorencount ist im vergleich zum RV670 um etwa 30% gestiegen. damit kann man nunmal bei einer gewissen effizienzsteigerung 1,6xRV670 erreichen, aber eben auch nicht viel mehr ...


warum vielleicht hat ATI ja die "unnütze" Tesslationseinheit ausgemustert....

genauso könnte die Effizienz beim Einsatz von AA deutlich gesteigert worden sein da das vielleicht nicht mehr immer über die shader alus läuft und diese blockiert?

davidzo
2008-06-05, 14:10:28
Deswegen muss er aber noch lange nicht doppelt so schnell sein. Mehr Einheiten können weniger Effizienz bedeuten. Auch wenn ich AMD/ATI ein richtig großen Wurf wünsche, so dürfte RV770 kein Gegner für GT200 werden.

R700 vs GT200
AMD hat den RV670 geplant als der G92 noch ein midrangerefresh für den G84 gerechnet hatte, was im Leistungsbereich des G94 erwartet wurde. Mit dem G92 hat nvidia sich teilweise selbst überrascht. Schließlich ist der name 8800GT der am wenigsten logische und sinnvolle Name seit Jahren gewesne und passte nicht in nvidias damaliges lineup.
Dass der rv670 zu schwach geworden ist, war also kein wunder. Die Dualkarte welche die 8800ultra schlagen sollte hat dies aber auch geschafft.
Diesmal weiß man vom G92b und man kann die GTX280 auch relativ gut einschätzen. AMD ziehlt derzeit auf 10% vor der GTX280 mit der X2, siche rnicht auf 10% langsamer. Ist man nämlich im Highend langsamer, ist es fast egal um welchen Betrag, der verkaufsmotor für den midrange fehlt. Und den braucht AMD ganz dringend, die werden sich also an den riemen reißen, da sie dringend für eine Zeit highendkönige sein müssen.

wie schon mehrfach angedeutet, sind die daten zum RV770 bis zum heutigen zeitpunkt (!!!) NICHT wirklich exakt bekannt. die diesize/transistorencount ist im vergleich zum RV670 um etwa 30% gestiegen. damit kann man nunmal bei einer gewissen effizienzsteigerung 1,6xRV670 erreichen, aber eben auch nicht viel mehr ...

Soviel kann man mit der Diesize nicht sagen.
Es gibt in der Halbleiterindustrie genügen Fälle wo es komplett anders war. Was hälst du zum beispiel vom Fall P4 Northwood gegen den doppelt schweren P4 Prescott? oder von dem enormen ipc unterschied zwischen Conroe und presler, bei gleichzeitig weniger transistoren?
Ein GPU-Beispiel: Rein durch Routing konnten beim G71 gegenüber dem G70 ca. 10% Transistoren gespart werden und 45% Taktreserven freigesetzt werden.

Mit der Einführung von Handoptimierungen der ASICs bei den shadereinheiten und einer shaderdomäne, können zum beispiel rund 20% leistung allein durch takt gewonnen werden, wobei bei handoptimierung häufig auchnocheinmal transistoren abfallen. Die Shadereinheiten hat ATI seit dem r600 und schon damals ist das Fehlen einer shaderdomäne schmerzlich aufgefallen, ATI hatte also genug Zeit, insbesondere mit dem expertise einiger AMD ingenieure, denn bei CPUs ist das gang und gebe dass man kein EDA ASIC nimmt, sondern optimierte schaltkreise um hohe taktraten zu erreichen.

Beim r600 befanden sich übrigens viele ungenutzte Tranistoren und viele wurden beim rv670 übernommen. so wurde das FSAAproblem nicht 100%gefixt (im gegensatz zu r580 teilweise immer noch schwache fsaa performance, da skann so nicht gedacht sein). Und man hat ja noch die tesselationseinheit bzw. funktionalität. Potential den chip zu kürzen ist also da.


Ein G80 ist gut 50% schneller als ein RV670, auch wenn der RV770 80% schneller als ein RV670 ist hat man halt nur ein plus von 30% gegen über einem G80.

Auf der 4870X2 wird aber ganz sicher kein voller 4870er GPU verbaut sein! Wie auch, man hätte damit dann eine TDP von über 300Watt und dies ist nun mal gar nicht möglich! Wenn ATi mit dem R700 den G200 überbieten will muss die CF Skalierung aber richtig gut sein, im bereich von 100% sonst wird das wohl kaum reichen.

Zudem ATI ganz schnell Probleme beim Preis des R700 bekommen wird, schon nur die extrem hohen Kosten des 2x1GB grossen GDDR5 Speicher plus die zwei RV770 (das sind dann auch schon 500mm² und 1,6 Milliarden Transistoren) wird der Preis der Karte in die höhe treiben...

Der RV770 is Cheap as Chips. Preislich liegt er eher gleichauf mit dem G92b.
Du kannst den Preis nicht gleich am Transistorcount und diesize festmachen, obwohl er da immernoch billiger ist als 50% vom G200. Vielmehr muss man die enorme Stückzahl sehen, weil für mainstream und mobilmarkt gebaut. Der highend ist ja eher ein Prestigesektor bei dem keine Gewinne gemacht werden, aber auch da muss ATI keine Verluste machen.
Ich wette dass sich ATi für den Preis den nvidia ein gt200 kostet drei bis vier rv770 leisten kann. Nicht nur die DIEsize ist viel niedriger, durch weniger trannies und den moderneren Prozess, sondern auch die yields sollen sehr gut sein im Gegensatz zu mageren 40% bei nvidia (GTX260 mit reingezählt).

Eine X2 ist immer billiger als zwei Einzelkarten:
- Man braucht nur eine (fettere) Stromversorgung
- Man braucht lediglich ein PCB
- Das vereinfachte Speicherrouting von GDDR5 sollte sich positiv auf die PCBkosten auswirken
- Die Kühllösung beinhaltet nur einen Lüfter, aber einen größeren Kühlkörper
- Der dickste Batzen bleibt aber bei den package acessoires und der Verpackung liegen, die man sich einmal komplett sparen kann, außerdem verbrauchen die boxen weniger Platz wenn gleich zwei chips in einer stecken

Ich rechne außerdme mit 2x 512mb und nicht 2x 1GB.
1GB halte ich schon für den rv770, welcher ja mit 9800GTX und G92b konkurriert, für Overkill. das R6xx design ist immer sparsam mit speicher gewesen, daher traue ich dem rv770 zu meistens mit 512mb auszukommen und 2x 512mb entsprechen eben den ramkosten für eine single 4870 1gb oder GTX260/80

Gast
2008-06-05, 14:49:39
na wen ein RV770 sagen wir mal 50.- Doller kostet, wird ein R700 aus zwei RV770 eben halt doch schon 100.- Doller betragen und die 50.- sind Wahrscheinlich sogar recht Preiswert gerechnet.

Man geht derzeit davon aus das der G200 NVIDIA 140.- Doller kostet, also einen grossen Preis unterschied sehe ich hier nicht!

Gast
2008-06-05, 14:52:02
So wie ich das mitbekommen habe sind die 40% nur auf vollwertige G200 mit 240 Shader bezogen, wie viele 260er bei den 60% übrig bleiben weis man nicht so genau.

Gast
2008-06-05, 14:54:36
Mit nur 2x512MB wird der R700 aber kaum an den G200 ran kommen, die 3870X2 hat ja schon jetzt probleme bei extrem Einstellungen mit dem G80 und den 768MB mitzuhalten.

Sorkalm
2008-06-05, 14:58:46
In welchen Spielen denn?

Schlammsau
2008-06-05, 15:00:54
Mit nur 2x512MB wird der R700 aber kaum an den G200 ran kommen, die 3870X2 hat ja schon jetzt probleme bei extrem Einstellungen mit dem G80 und den 768MB mitzuhalten.

wirklich?
http://www.abload.de/img/unbenanntmmt.png

Schlammsau
2008-06-05, 15:03:17
na wen ein RV770 sagen wir mal 50.- Doller kostet, wird ein R700 aus zwei RV770 eben halt doch schon 100.- Doller betragen und die 50.- sind Wahrscheinlich sogar recht Preiswert gerechnet.

Man geht derzeit davon aus das der G200 NVIDIA 140.- Doller kostet, also einen grossen Preis unterschied sehe ich hier nicht!

Der 0,8ns DDR3 Speicher, die aufwendige Kühllösung und PCB werden die Preistreibenden Komponenten der Karte sein!

Gast
2008-06-05, 15:05:23
Der 0,8ns DDR3 Speicher, die aufwendige Kühllösung und PCB werden die Preistreibenden Komponenten der Karte sein!

lol genau das selbe kann man bei der X2 und GDDR5 auch sagen, zudem wohl keiner erst haft behaupten kann das ein PCB für eine Dual GPU Karte billiger ist...

Gast
2008-06-05, 15:06:12
yeep so ist das..
und ich lach mich tot wenn es "eine" 4870 schafft in 1920x1200 mit 8xAA und 16xAF nicht einzubrechen.
Ich freu mich mich wie ein kleines Kind auf die Benches....ohgott was geht es und doch gut...

Gast
2008-06-05, 15:07:20
lol genau das selbe kann man bei der X2 und GDDR5 auch sagen, zudem wohl keiner erst haft behaupten kann das ein PCB für eine Dual GPU Karte billiger ist...
vollkommen wurst!!
Aber sie bricht mit 512 mb nicht ein..hast du das verstanden??

Gast
2008-06-05, 15:10:29
In welchen Spielen denn?

auf die schnelle:

2560x1600 8xAA/16xAF:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_asus_radeon_hd_3850_x2/16/

2560x1600 8xAA/16xAF:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_asus_radeon_hd_3850_x2/18/

2560x1600 8xAA/16xAF:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_asus_radeon_hd_3850_x2/13/#abschnitt_unreal_tournament_3

2560x1600 4xAA/16xAF:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_asus_radeon_hd_3850_x2/8/

Schlammsau
2008-06-05, 15:11:44
lol genau das selbe kann man bei der X2 und GDDR5 auch sagen, zudem wohl keiner erst haft behaupten kann das ein PCB für eine Dual GPU Karte billiger ist...
Bei der X2 werden die beiden GPU´s günstiger zu fertigen sein!
Der GDDR5 Speicher, wenn sie denn wirklich welchen verbauen, wird über kurz oder lang immer billiger werden, und dabei billiger als GDDR3 werden! Ganz normal....
Beim PCB bin ich ehrlich gesagt überfragt!

Gast
2008-06-05, 15:14:57
auf die schnelle:

2560x1600 8xAA/16xAF:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_asus_radeon_hd_3850_x2/16/

2560x1600 8xAA/16xAF:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_asus_radeon_hd_3850_x2/18/

2560x1600 8xAA/16xAF:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_asus_radeon_hd_3850_x2/13/#abschnitt_unreal_tournament_3

2560x1600 4xAA/16xAF:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_asus_radeon_hd_3850_x2/8/

was willst du damit?
Die Auflösung juckt keinen Mensch,oder sehr wenige,völlig wurst.

Schlammsau
2008-06-05, 15:16:30
auf die schnelle:

2560x1600 8xAA/16xAF:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_asus_radeon_hd_3850_x2/16/

2560x1600 8xAA/16xAF:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_asus_radeon_hd_3850_x2/18/

2560x1600 8xAA/16xAF:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_asus_radeon_hd_3850_x2/13/#abschnitt_unreal_tournament_3

2560x1600 4xAA/16xAF:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_asus_radeon_hd_3850_x2/8/

Hola....da hast aber viele schöne Beispiele gefunden....
lass mich mal nachsehen.....UT3 14,5 zu 7,2fps......Jericho 13,3 zu 2,6fps! ;D
Haste schonmal geschaut, wie die Anordnung der nächst niegrigeren AA Stufe aussieht? Da ist eine X2 sogar schneller als ein GX2! :eek::biggrin:
*Kopfschüttel*

Gast
2008-06-05, 15:17:15
Diese Auflösungen werden aber zum ersten mal dank G200 SLI Spielbar werden und ich habe ganz klar geschrieben in extrem Einstellungen!

Gast
2008-06-05, 15:22:00
spielbar nur für den der einen 30" Zöller hat und daher als Vergleich völlig daneben außer zum stänkern :D

AnarchX
2008-06-05, 15:24:14
Bit-Tech hat mal eine 4850 auseinandergenommen:
http://img242.imageshack.us/img242/3116/rv7701s38fed5b9fg9.jpg (http://imageshack.us)
http://www.bit-tech.net/news/2008/06/05/amd-hd-4850-rv770-gpu-die-shot/1

Gegenüber RV670 ziemlich viele Bautteile auf Package hinzugekommen.
Vielleicht ein Anzeichen für verbessertes Powerplay?

Sorkalm
2008-06-05, 15:25:05
Die sollen die testen, nicht auseinander bauen. :D

Gast
2008-06-05, 15:26:09
Bit-Tech hat mal eine 4850 auseinandergenommen:
http://img242.imageshack.us/img242/3116/rv7701s38fed5b9fg9.jpg (http://imageshack.us)
http://www.bit-tech.net/news/2008/06/05/amd-hd-4850-rv770-gpu-die-shot/1


Das Pakage scheint ziemlich klein zu sein...

Gast
2008-06-05, 15:27:50
Das Pakage scheint ziemlich klein zu sein...


Ok, Kommando zurück, wirkt nur so wegen Spacer da drumrum

Gast
2008-06-05, 15:37:35
hat nich toms hardware letztewoche eine HD4850 aus einer auktion gekauft und darüber berichtet?
wo bleiben denn dann die benches, wenn sie die karte wirklich gekauft haben?

Cpl. Dwayne Hicks
2008-06-05, 15:56:14
Nur mal nebenbei:

Wird die Parallelisierung der Shader Berechnungen in den RV770 ALUs eigentlich immernoch mit einem VLIW geregelt?

Gast
2008-06-05, 16:11:25
Wenn das beim R600/R670 so war dann wird sich beim R770 wohl nichts allzu grundlegendes verändert haben. Das Design ist lediglich ''breiter'' geworden.

cooli04
2008-06-05, 16:16:42
dann sollte man doch jetzt die exakte Größe abmessen bzw. dann ausrechnen können!?

Mir fehlen dazu leider das Wissen und die Programme.

Gast
2008-06-05, 16:20:42
an die technik freaks,

wäre das möglich das wirklich der speicher der ati karten bei crysis so stark ausbremst?

hier mal was interessantes.

http://www.abload.de/img/crysisjhg.gif (http://www.abload.de/image.php?img=crysisjhg.gif)

http://www.thetechlounge.com/article/518-3/Diamond+Viper+HD+3870+1GB/

Gast
2008-06-05, 16:21:39
Die Grösse des R770 wird ja auf 256 mm² geschätzt und wenn man die bekannten Bilder betrachete dann kommt das gut hin.

cooli04
2008-06-05, 16:31:53
Die Grösse des R770 wird ja auf 256 mm² geschätzt und wenn man die bekannten Bilder betrachete dann kommt das gut hin.

Aber ich denke doch, dass man sich beim Abschätzen leicht mal um ein paar 10mm^2 vertun kann!

AnarchX
2008-06-05, 16:51:41
Aber ich denke doch, dass man sich beim Abschätzen leicht mal um ein paar 10mm^2 vertun kann!
Deshalb abwarten, bald wird jemand schon einen digitaler Meßschieber an den RV770 ansetzen. ;)

Gast
2008-06-05, 18:19:47
wäre das möglich das wirklich der speicher der ati karten bei crysis so stark ausbremst?

klar, insbesondere mit FSAA braucht crysis schon ziemlich viel speicher, irgendwann sind dann auch ATI-karten am ende, trotz ihres guten speichermanagements.

Gast
2008-06-05, 18:30:15
an die technik freaks,

wäre das möglich das wirklich der speicher der ati karten bei crysis so stark ausbremst?

hier mal was interessantes.

http://www.abload.de/img/crysisjhg.gif (http://www.abload.de/image.php?img=crysisjhg.gif)

http://www.thetechlounge.com/article/518-3/Diamond+Viper+HD+3870+1GB/

Tja, wer hat schon wieder gesagt das die 512MB nicht mehr reichen...

In Colin McRae Dirt geht ab 1600 und AA mit 512MB auch nichts mehr...

Gast
2008-06-05, 18:52:12
lol genau das selbe kann man bei der X2 und GDDR5 auch sagen, zudem wohl keiner erst haft behaupten kann das ein PCB für eine Dual GPU Karte billiger ist...

Wer sagt denn, das die ausgerechnet die X2 mit GDDR5 an den Start geht :)
Denk mal nach wofür der marginal Verfügbare Speicher eher gebraucht wird, aktuell gibts nur eine GPU die voll auf GDDR5 setzt.

Gast
2008-06-05, 18:53:21
klar, insbesondere mit FSAA braucht crysis schon ziemlich viel speicher, irgendwann sind dann auch ATI-karten am ende, trotz ihres guten speichermanagements.

ok das weis ich ja auch aber das gleich bei doppeltem speicher gleich ein 2 kern weggehauen wird ist schon mehr als beachtlich.

4 Vitamins
2008-06-05, 19:00:51
Deshalb abwarten, bald wird jemand schon eine elektrische Schieblehre an den RV770 ansetzen. ;)


Es heißt digital meßschieber. Nur als info.
Mit eine (schieb)lehre kann man kein maß ablesen, sondern nur vergleichen.

gruss

Gast
2008-06-05, 19:07:08
an die technik freaks,

wäre das möglich das wirklich der speicher der ati karten bei crysis so stark ausbremst?

hier mal was interessantes.

http://www.abload.de/img/crysisjhg.gif (http://www.abload.de/image.php?img=crysisjhg.gif)

http://www.thetechlounge.com/article/518-3/Diamond+Viper+HD+3870+1GB/


wen das so wäre ist es mit abstand die beste singlechipkarte für crysis,da würde nicht mal eine gtx oder ultra in die nähe kommen.

Gast
2008-06-05, 19:16:22
Interessante Meldung über neue Benchmarks der HD 4850 und "Preisoffenbarung":

http://www.hardware-infos.com/news.php?news=2124

Psychopat
2008-06-05, 19:24:35
So wie ich das mitbekommen habe sind die 40% nur auf vollwertige G200 mit 240 Shader bezogen, wie viele 260er bei den 60% übrig bleiben weis man nicht so genau.
Im Artikel vom Inquierer, aus dem diese Information stammt, wird ausdrücklich gesagt das die 40% 260 UND 280 sind. Der yield für 280 ist also unter 40%... wie weit drunter ist nicht bekannt.

Odal
2008-06-05, 19:26:16
:D

Mr.Y
2008-06-05, 19:29:34
seltsame seite



der ist nicht nur "mehr als doppelt so groß" sondern mehr als 5 mal so groß (betrachtet man die fläche)
Muh?!
24x24mm = 576mm² (1.4 Mrd. Transistoren)
16x16mm = 256mm² (0.8 Mrd. Transistoren)

Ist nach Adam Riese etwa doppelt so groß. 5fach so groß macht allein anhand der Transistorzahlen keinen Sinn.

deekey777
2008-06-05, 19:30:06
Interessante Meldung über neue Benchmarks der HD 4850 und "Preisoffenbarung":

http://www.hardware-infos.com/news.php?news=2124


Diese soll mit 256 mm² gegenüber dem sehr kleinen RV670 (192 mm²) nur 33 Prozent höher ausfallen und damit beispielsweise noch unter den Werten des Nvidia G92-Chips liegen, der eine Fläche von rund 330 mm² auf sich vereint.

Somit ist ein RV770-Chip theoretisch - ausgehend von selber Yield-Rate - rund 30 Prozent günstiger zu produzieren als ein G92 und erst recht als ein GT200, der mit 576 mm² mehr als doppelt so groß ist.

Das ist wohl der Knackpunkt: AMD bringt einen Grafikchip der mit der 9800GT/GTX mithalten kann und dabei kosteneffizienter ist. Da wird NV sich in den Arsch beißen, um beim Preiskampf mitmachen zu können. Darum sind sie (NV) aktuell so aggressiv bei der ganzen PR-Arbeit, um den G92 attraktiver zu machen.

Gast
2008-06-05, 19:33:16
der ist nicht nur "mehr als doppelt so groß" sondern mehr als 5 mal so groß (betrachtet man die fläche)

in mathematik geschlafen?

Odal
2008-06-05, 19:35:32
Muh?!
24x24mm = 576mm² (1.4 Mrd. Transistoren)
16x16mm = 256mm² (0.8 Mrd. Transistoren)

Ist nach Adam Riese etwa doppelt so groß. 5fach so groß macht allein anhand der Transistorzahlen keinen Sinn.


stimmt ;D es ist warm heute ;D

trotzdem schreiben die nur sachen "vom hören sagen" zusammen ohne seriöse quellen zu haben

AffenJack
2008-06-05, 19:51:14
Der größe teil der käufer dürften eh käufer sein,die vll alle 2jahre ne karte für max 200€ kaufen.
Und bis zum g92/rv670 gab es in diesem bereich nur schrott, da dürfte es genug leute geben die weiter in sonem preisbereich aufrüsten wollen und es bisher nicht getan haben

Nakai
2008-06-05, 19:59:50
nVidia war 8 Monate früher auf dem Markt. Und sie haben alle relevanten Gruppen schon abgespeist.
Wer soll sich denn einen rv770pro kaufen? Die G92 Käufer? Die erhalten kaum Mehrleistung. Die rv670 Kunden? Die müssten mit deutlichen Preisaufschlägen umgehen.
Ja, AMD kann jetzt bei gleich bzw. besserer Leistung billiger fertigen - nur sind sie 8 Monate zu spät dran.

Es gibt immer Käufer.


mfg Nakai

Gast
2008-06-05, 20:06:12
Im Artikel vom Inquierer, aus dem diese Information stammt, wird ausdrücklich gesagt das die 40% 260 UND 280 sind. Der yield für 280 ist also unter 40%... wie weit drunter ist nicht bekannt.

Glaub ich nicht, zudem Inquierer wohl kaum zuverlässige Quellen dafür hat.

Bei nur 40% müsste man davon ausgehen das nur ca. 15% ganze G200 pro Waver dabei sind, lächerlich sowas zu behaupten!

deekey777
2008-06-05, 20:14:56
nVidia war 8 Monate früher auf dem Markt. Und sie haben alle relevanten Gruppen schon abgespeist.
8 Monate? Der G92 kam also 8 Monate vor dem RV670? Oder der G80, der sauteuer in der Fertigung war und die ersten Monate unter Lieferengpässen litt, dann aber unverkäuflich wurde, da der G92 die Kundschaft klaute?

Alle relevanten Gruppen? Die 8600er hatten einen Vorsprung vor den HD2600, nur wollte sie keiner haben, die HD2600 waren deutlich erfolgreicher.

Wer soll sich denn einen rv770pro kaufen? Die G92 Käufer? Die erhalten kaum Mehrleistung. Die rv670 Kunden? Die müssten mit deutlichen Preisaufschlägen umgehen.
Genau, der Markt ist so gesättigt, dass niemand die HD4800er kaufen wird.

Ja, AMD kann jetzt bei gleich bzw. besserer Leistung billiger fertigen - nur sind sie 8 Monate zu spät dran.
Ja, AMD kann seit Herbst mit dem RV670 die HD3800 deutlich günstiger fertigen, als dies bei NV der Fall ist. Gleiches scheint sich beim RV770 zu wiederholen.

PS: Deiner Argumentation nach ist der G92b eine Totgeburt.

Redneck
2008-06-05, 20:22:38
Es gibt immer Käufer.


mfg Nakai

yes...
habe noch nirgends gelesen, das der Graka Markt gesättigt sei und selbst
wenn... es werden jedes Jahr zig Millionen neuer PCs (unter anderem auch Gamer PCs) installiert. Da wird sich auch noch die eine oder andere Graka untebringen lassen. Der zusätzliche Hype bein einer neuen Graka Generation tut sein übriges.
Bin selber ein typischer Wechsler (normalerweise alle 2 Jahre).
Bin aber irgendwie von der 4870 Hysterie befallen und würde dafür gerne meine
im März erstandene 8800GT eintauschen (sofern die performance stimmt)

Unyu
2008-06-05, 20:23:08
Der G92 kam also 8 Monate vor dem RV670?
RV670 war nicht der G92 Konkurrent.

AMD kann seit Herbst mit dem RV670 die HD3800 deutlich günstiger fertigen, als dies bei NV der Fall ist.
Davon hat der Kunde in den letzten Monaten kaum etwas gespürt: 9600GT so teuer wie 3850 und 8800GT fast so teuer wie 3870.

w0mbat
2008-06-05, 20:23:10
Doch, ich habe eine X1900 XT und würd lieber auf eine HD4k aufrüsten als auf eine GF8800.

Gast
2008-06-05, 20:25:50
Der größe teil der käufer dürften eh käufer sein,die vll alle 2jahre ne karte für max 200€ kaufen.
Und bis zum g92/rv670 gab es in diesem bereich nur schrott, da dürfte es genug leute geben die weiter in sonem preisbereich aufrüsten wollen und es bisher nicht getan haben

Also wer heute 150€ für ne Graka hinblettert bekommt mehr Performance als vor 1,5Jahren für 450€, lass mal die Pferde im Stall.
Für das Geld sind die Karten wirklich Spitze! Für 1280x1024 4xAA reichen die in jedem Spiel (außer Crysis auf max.Details).
Für die Konsolenumsetzungen langts locker bis EOL der Kisten.

Gast
2008-06-05, 20:27:20
Doch, ich habe eine X1900 XT und würd lieber auf eine HD4k aufrüsten als auf eine GF8800.
HD4k hat aber nicht die 8800 als Ziel, denn deine Allgemeine Bezeichnung sagtemal gar kein Ziel aus ^^. Schmeis eine G200 Karte rein, wenn du dir Sicher sein willst oder eine HD4k70erXT

Redneck
2008-06-05, 20:29:22
Doch, ich habe eine X1900 XT und würd lieber auf eine HD4k aufrüsten als auf eine GF8800.

hatte vor meiner 8800GT auch noch eine 1900XT.
Bin von der AA BQ aber enttäuscht und komme deswegen wahrscheinlich
wieder ins ATI Lager zurück... Das war dann meine erste und vorerst letzte NV
Karte.

Odal
2008-06-05, 20:42:55
inwiefern bist du von der AA qualität enttäuscht?

mir noch ne 88GT zuzulegen kam unter anderem dadurch zu stande das es nur damit möglich ist in spielen die es zulassen SSAA zu fahren

und ansonsten funzt wenigstens in jedem (bisher von mir angespielten) spiel AA egal ob ingame oder per treiber eingestellt bei meiner 3850 ist das nicht immer der fall

ich sehe die 88GT nachteile eher in anderen bereichen

deekey777
2008-06-05, 20:48:43
Lern lesen.

Lern keinen Abfall zu posten.


Ja so erfolgreich, dass man im Minus war.

Siehe oben

Und sie waren deutlich langsamer. Also griffen alle zum G92, wenn sie Leistung haben wollten. Was bringt einem also eine billigere Fertigung, wenn man einfach zu spät am Markt ist? Der rv770 hätte im letzten Jahr kommen müssen, dann hätte AMD einen Vorteil gehabt. Jetzt braucht ihn niemand, wenn er nicht wirklich deutlich schneller (>50% als Pro) als die 8800GT bzw. GTS ist.
Was bringt denn die Fertigung eines Chips, der mit 330 mm² deutlich größer als der RV670 ist und für den Preis einer HD3870 oder gar einer HD3850 verkauft werden muss? Selbst der G94 ist immernoch größer als der RV670.
Seit Oktober/November hat NV zwar weiterhin die Performance-Krone, verliert aber nach und nach das, was sie mit dem G80 verdient haben.

Redneck
2008-06-05, 20:55:07
inwiefern bist du von der AA qualität enttäuscht?

mir noch ne 88GT zuzulegen kam unter anderem dadurch zu stande das es nur damit möglich ist in spielen die es zulassen SSAA zu fahren

und ansonsten funzt wenigstens in jedem (bisher von mir angespielten) spiel AA egal ob ingame oder per treiber eingestellt bei meiner 3850 ist das nicht immer der fall

ich sehe die 88GT nachteile eher in anderen bereichen

Hatte bei meinen vorherigen ATIs fast immer mit 4xAA gespielt.
Nach dem Umstieg hatte ich natürlich auch den NV Treiber gleich auf die selben Parameter eingestellt. Als ich dann meine "gewohnten" Spiele das erste
Mal startete, habe ich mich erstmal gewundert und gedacht, der Treiber habe evtl die Einstellungen nicht übernommen.
Ist mir sofort bei dem ersten Testspiel aufgefallen.
HL2, wenn man am Anfang aus der Bahnhofshalle herauskommt. Die Überlandleitungen sahen/sehen jaggy aus. Man konnte zwar sehen, das AA aktiv war, aber es sah nach einen niedrigeren AA Level aus. Dachte deshalb der Treiber hätte evtl. nur 2x übernommen statt 4x.
Dem war aber nicht so und dies zieht sich von Titel zu Titel.
Deswegen auf 8x zu wecheln habe ich bisher noch vermieden, da die performance Einbußen wahrscheinlich zu groß wären.

GRuß

Unyu
2008-06-05, 21:05:38
Ist mir sofort bei dem ersten Testspiel aufgefallen.
HL2, wenn man am Anfang aus der Bahnhofshalle herauskommt. Die Überlandleitungen sahen/sehen jaggy aus.
Hättest TSSAA noch einwerfen sollen.
Und bei HL2 ~ 16xS.

Gast
2008-06-05, 21:07:22
Hatte bei meinen vorherigen ATIs fast immer mit 4xAA gespielt.
Nach dem Umstieg hatte ich natürlich auch den NV Treiber gleich auf die selben Parameter eingestellt. Als ich dann meine "gewohnten" Spiele das erste
Mal startete, habe ich mich erstmal gewundert und gedacht, der Treiber habe evtl die Einstellungen nicht übernommen.
Ist mir sofort bei dem ersten Testspiel aufgefallen.
HL2, wenn man am Anfang aus der Bahnhofshalle herauskommt. Die Überlandleitungen sahen/sehen jaggy aus. Man konnte zwar sehen, das AA aktiv war, aber es sah nach einen niedrigeren AA Level aus. Dachte deshalb der Treiber hätte evtl. nur 2x übernommen statt 4x.
Dem war aber nicht so und dies zieht sich von Titel zu Titel.
Deswegen auf 8x zu wecheln habe ich bisher noch vermieden, da die performance Einbußen wahrscheinlich zu groß wären.

GRuß

ACK - habe speziell in ALLEN HL²-Spielen (also auch EP1+2) derbe Probleme mit der Kantenglättung.

Sry4OT :(

Redneck
2008-06-05, 21:27:24
Hättest TSSAA noch einwerfen sollen.
Und bei HL2 ~ 16xS.
TSSAA war/ist an
16xS.. machst Du Scherze ?

COD4 sieht ebenfalls schlechter aus.
Auf meiner alten 1900er ist es dafür teilweise in manchen MP Leveln derbe
eingebrochen, dafür sah es aber schön aus :wink:

Gast
2008-06-05, 21:36:31
Was bringt denn die Fertigung eines Chips, der mit 330 mm² deutlich größer als der RV670 ist und für den Preis einer HD3870 oder gar einer HD3850 verkauft werden muss?

wenn man dafür die dreifachen stückzahlen verkauft kann man sich das ohne probleme leisten, DIE-size ist außerdem nicht alles.

Gast
2008-06-05, 21:37:27
Hatte bei meinen vorherigen ATIs fast immer mit 4xAA gespielt.

versuch mal die gamma-korrektur ein/auszuschalten je nach monitor sieht mal das eine mal das andere besser aus.

Unyu
2008-06-05, 22:15:54
16xS.. machst Du Scherze?
Nö.
Bei HL2 (ohne Mod) ist 4xMSAA ein Witz für die 8800GT (wenn du nicht gerade eine irre Auflösung fährst).

Gast
2008-06-05, 22:19:30
Nö.
Bei HL2 (ohne Mod) ist 4xMSAA ein Witz für die 8800GT (wenn du nicht gerade eine irre Auflösung fährst).


HL2 ist auch schon uralt.Versuch das dochmall bei Kung fu panda Demo.;DDa
wird nimmer reichen....

Unyu
2008-06-05, 22:20:44
HL2 CM7 ist nicht so alt und man kann trotzdem noch relativ hohe AA Modi fahren.

... außerdem ging es darum, das sich F4711 bei 4xMSAA in HL2 an den Drähten stört und das es eine einfache Lösung gibt.

Psychopat
2008-06-05, 22:52:22
Glaub ich nicht, zudem Inquierer wohl kaum zuverlässige Quellen dafür hat.

Bei nur 40% müsste man davon ausgehen das nur ca. 15% ganze G200 pro Waver dabei sind, lächerlich sowas zu behaupten!
Was du glaubst ist ziemlich wurscht. Es ist eher lächerlich, das du ohne irgendeine Quelle zu haben behauptest es wäre anders. Die schlechte Yieldrate passt zum komplexen Design des G200. Von anderen wurde auch schon der hohe Preis pro Chip bestätigt.

Du kannst ja mal lieb bei nVidia anfragen, ob die Quellen vom Inquierer unrecht haben :whisper: -> :frown:

HarryHirsch
2008-06-05, 23:39:14
HL2 CM7 ist nicht so alt und man kann trotzdem noch relativ hohe AA Modi fahren.

... außerdem ging es darum, das sich F4711 bei 4xMSAA in HL2 an den Drähten stört und das es eine einfache Lösung gibt.

ist dieses cm nicht ausschliesslich nen texturemod?
was hat das mit aa zu tun :confused:

HOT
2008-06-05, 23:42:58
Der G200 wird grade für einen besseren Yield so gross sein. Da wird mindestens 100mm² für Redundanz draufgehen, um die Yield zu verbessern.

Psychopat
2008-06-06, 00:01:35
Die Speku hab ich auch schon gehört. Allerdings glaube ich das erst, wenn jemand der in der Chipfertigung tätig ist bestätigt, dass so eine Praxis üblich ist. 100mm² wären aber auf jeden Fall zuviel. Da verschenkst du ja gut 20% Waverfläche!

HarryHirsch
2008-06-06, 00:03:48
Die Speku hab ich auch schon gehört. Allerdings glaube ich das erst, wenn jemand der in der Chipfertigung tätig ist bestätigt, dass so eine Praxis üblich ist. 100mm² wären aber auf jeden Fall zuviel. Da verschenkst du ja gut 20% Waverfläche!

kostet ja nix!
aber vorstellen könnt ich mir das schon...
bei so einer fetten gpu

Gast
2008-06-06, 00:26:04
hatte vor meiner 8800GT auch noch eine 1900XT.
Bin von der AA BQ aber enttäuscht und komme deswegen wahrscheinlich
wieder ins ATI Lager zurück... Das war dann meine erste und vorerst letzte NV
Karte.

Wenn man nicht fähig ist AA zu Aktivieren kann auch NV nichts dafür...

Hab sogar mal HL2 mit 8600GT SLI und 16x AA gezockt und das sah super aus, auf den grossen karten läuft das auch noch mit hohen Auflösungen super flüssig.

Gast
2008-06-06, 00:28:04
Hab sogar noch ein Bild:

http://img515.imageshack.us/img515/2830/fgdhpv2.th.jpg (http://img515.imageshack.us/my.php?image=fgdhpv2.jpg)

davidzo
2008-06-06, 00:55:55
was soll dass denn jetzt? ein 3 jahre altes spiel mit aa zu zocken? wir sind hier im g200 speku-thread.

Wenn man nicht fähig ist AA zu Aktivieren kann auch NV nichts dafür...
doch, denn mit dx10.1 und einem passenden treiber kann man fsaa forcen, auch bei anwendungen die es eigentlich nicht unterstützen. 10.1 ist der schlüssel zum fsaa in den meisten neuen dx10 games. nvidia sollte mit dem gt200 eigentlich mindestens diesen standard erfüllen, sonst bringt die hohe leistung womöglich gar nichts, kann sie doch nicht angewendet werden.

Coda
2008-06-06, 01:01:01
Wenn G8x den Z-Subsample-Read in Hardware kann dann kann es der Treiber trotzdem erzwingen obwohl kein komplettes 10.1 vorhanden ist.

Ich steig bei den OpenGL-Extensions aber nicht durch sonst würde ich das mal ausprobieren.

Der G200 wird grade für einen besseren Yield so gross sein. Da wird mindestens 100mm² für Redundanz draufgehen, um die Yield zu verbessern.
Laut dem Die-Shot gibt es zumindest keine großflächige Redundanz.

pest
2008-06-06, 07:01:52
"While we are away for Computex, CJ let us know that the Radeon HD 4870 X2 R700 prototype card is out and it beats the NVIDIA GeForce GTX 280 in 3DMark Vantage. The R700 card is basically made up of two RV770 GPUs with 2x256-bit memory interface to either GDDR3 or GDDR5 memories. We asked our sources about R700 in Computex and apparently AMD is going to let AIB partners to decide the specs themselves. Therefore, the partners will set their own clock speeds, PCB design, memory types, cooler solutions etc. and there will be Radeon HD 4850 X2 and 4870 X2 cards differentiate by the memory type. The R700 card apparently doing pretty well at this stage scoring about X5500 in 3DMark Vantage Extreme preset while the GeForce GTX 280 card is scoring X4800."-vr-zone


also HD4850X2 und HD4870X2 jeweils mit GDDR3 oder GDDR5
NVidia optimiert weiter die Treiber :D
nix Neues also

HOT
2008-06-06, 08:27:48
[...]

Laut dem Die-Shot gibt es zumindest keine großflächige Redundanz.
Hab bisher noch keinen G200 Die-Plot gesehen - zudem bezweifel ich, ob man davon überhaupt was sieht, wenn irgendwelche Einheiten einfach doppelt da sind. Das wird dadurch ja nicht asymethrisch oder sowas, das säh dann schon so aus als gehört das dazu :D.

AnarchX
2008-06-06, 08:28:31
Hab bisher noch keinen G200 Die-Plot gesehen.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6540341&postcount=1661

Gast
2008-06-06, 08:48:55
Was denkt ihr denn,reicht eine 4870 für 1920x1200 mit 4xAA und 16AF oder geht da der Speicher aus.

Schlammsau
2008-06-06, 09:18:06
Was denkt ihr denn,reicht eine 4870 für 1920x1200 mit 4xAA und 16AF oder geht da der Speicher aus.

Sollte schon reichen, Aussnahme wird wie immer Crysis sein!

Unyu
2008-06-06, 09:21:06
ist dieses cm nicht ausschliesslich nen texturemod?
was hat das mit aa zu tun :confused:

* Updated engine to the Orangebox for improved graphics and gameplay
* Raise the quite outdated graphical appearance to a state-of-the-art level
* Give the HL2 trilogy a more stressed, darker and minatory look
* Complement the atmosphere with a emotional cinematic music soundtrack that fits the action on the screen
* Replace the low-resolution textures with high resolution counterparts and more detailed environments
* Complement the storyline with the unused content from the original games
* Refresh the look and feel with optional new HD models
* Add more replay-value to the game
* Give the facepunch monkeys something to complain about


was soll dass denn jetzt? ein 3 jahre altes spiel mit aa zu zocken? wir sind hier im g200 speku-thread.
Bisher zwingt HL2CM jede Karte in die Knie, wir sind im R700 Fred.

denn mit dx10.1 und einem passenden treiber kann man fsaa forcen, auch bei anwendungen die es eigentlich nicht unterstützen. 10.1 ist der schlüssel zum fsaa in den meisten neuen dx10 games. nvidia sollte mit dem gt200 eigentlich mindestens diesen standard erfüllen, sonst bringt die hohe leistung womöglich gar nichts, kann sie doch nicht angewendet werden.
Seit wann kann hat man mit D3D10.1 in D3D10.0 Anwendungen Vorteile?
Auslasten kann man jede Karte, siehe SSAA.

James Ryan
2008-06-06, 09:22:07
doch, denn mit dx10.1 und einem passenden treiber kann man fsaa forcen, auch bei anwendungen die es eigentlich nicht unterstützen. 10.1 ist der schlüssel zum fsaa in den meisten neuen dx10 games. nvidia sollte mit dem gt200 eigentlich mindestens diesen standard erfüllen, sonst bringt die hohe leistung womöglich gar nichts, kann sie doch nicht angewendet werden.

In der Theorie hast du Recht.
In der Praxis gibt es aber den nHancer, der in jedem "zickigen" Spiel (meist welche mit UT3 Engine) auch MSAA ermöglichte, wo die ATi-Karten das Nachsehen hatten (Beispiel war Bioshock, Medal Of Honor Airborne und UT3).

Die Lösung per D3D10.1 ist natürlich schöner, das will ich nicht bestreiten.

MfG :cool:

Redneck
2008-06-06, 11:08:11
Nö.
Bei HL2 (ohne Mod) ist 4xMSAA ein Witz für die 8800GT (wenn du nicht gerade eine irre Auflösung fährst).

1680x1050..
werde es heute abend mal austesten.

Danke für die Tips zu HL2.
HL2 war aber nur ein Beispiel um das Gundproblem zu schildern, das meinem subjektiven Empfinden nach das 4xAA NV ungleich 4xAA bei ATI ist.

Selbst wenn sich "mein" Problem mit HL2 jetzzt durch hochschalten des AA Levels beseitigen läßt, ist das nicht immer auf andere/neuere Titel übertragbar.

Gruß

Redneck
2008-06-06, 11:11:21
Wenn man nicht fähig ist AA zu Aktivieren kann auch NV nichts dafür...

Hab sogar mal HL2 mit 8600GT SLI und 16x AA gezockt und das sah super aus, auf den grossen karten läuft das auch noch mit hohen Auflösungen super flüssig.

Lerne erst einmal ein wenig Benimm, und schalte deinen Kopf ein, bevor Du anderen Unfähigkeit vorwirfst. Ansonsten troll dich woanders aus.

AnarchX
2008-06-06, 11:45:47
HD4850 in Crysis, won the 9800 GTX
Said the old run-Mo Yisi more, to look at the actual combat situation: Crysis DX10 Very High 1600 * 1200 * 1200 and 1920 under the (open AA + AF), HD4850 are the leading 9800 GTX about 10%
http://bbs.chiphell.com/viewthread.php?tid=23873&extra=page%3D1

Sorkalm
2008-06-06, 11:52:38
Wie muss man das jetzt richtig aus dem Chinesischen übersetzen? Irgendwie kann da jede Karte 10% schneller sein. :|

Schlammsau
2008-06-06, 11:53:00
http://bbs.chiphell.com/viewthread.php?tid=23873&extra=page%3D1

nicht schlecht! :eek:

Eggcake
2008-06-06, 14:02:33
http://bbs.chiphell.com/images/smilies/default/97.gifhttp://bbs.chiphell.com/images/smilies/default/96.gifhttp://bbs.chiphell.com/images/smilies/default/fd.gif


Find die Smileys dort ganz witzig :usad:


Wird mir allerdings auch nich ganz klar was nun besser sein soll. Hört sich schon eher nach 4850 an, doch die Übersetzungen sind ja meist sehr merkwürdig...

Adam D.
2008-06-06, 14:32:39
Inzwischen hab ich meine "Die 4870 ist etwa auf 9800GTX Niveau"-These zu Grabe getragen :D Sollte die HD4850 tatsächlich eine 9800GTX schlagen können oder zumindest gleich auf sein, dürfte die HD4870 durch den Taktvorsprung sicher nochmal gut 20-30% mehr drauf haben (was ich sehr fein find).

Gast
2008-06-06, 14:34:25
Inzwischen hab ich meine "Die 4870 ist etwa auf 9800GTX Niveau"-These zu Grabe getragen :D Sollte die HD4850 tatsächlich eine 9800GTX schlagen können oder zumindest gleich auf sein, dürfte die HD4870 durch den Taktvorsprung sicher nochmal gut 20-30% mehr drauf haben (was ich sehr fein find).


von was anderes war auch nie die rede,also ob das jetzt überraschend ist.

Adam D.
2008-06-06, 14:36:26
von was anderes war auch nie die rede,also ob das jetzt überraschend ist.
Naja, anfangs gingen die Spekulationen davon aus, dass HD4870 und 9800GTX im Wettbewerb stünden, das hat sich jetzt durch neue Gerüchte deutlich Richtung HD4870 gewendet.

Schlammsau
2008-06-06, 14:38:02
Vor allem wären sie in diesem Leistungsbereich absolut Konkurrenzlos! Jedenfalls für ein paar Monate bist der G92b kommt!
Zwischen der 9800GTX und der 260GTX klafft ja eine riesige Lücke!

Gast
2008-06-06, 14:39:38
Naja, anfangs gingen die Spekulationen davon aus, dass HD4870 und 9800GTX im Wettbewerb stünden, das hat sich jetzt durch neue Gerüchte deutlich Richtung HD4870 gewendet.

stehen sie ja auch +-10% sind natürlich immer drinnen.

Gast
2008-06-06, 14:40:24
Vor allem wären sie in diesem Leistungsbereich absolut Konkurrenzlos! Jedenfalls für ein paar Monate bist der G92b kommt!
Zwischen der 9800GTX und der 260GTX klafft ja eine riesige Lücke!

find ich schön, dann gibt es die 260GTX vielleicht recht günstig.

Adam D.
2008-06-06, 14:40:57
Vor allem wären sie in diesem Leistungsbereich absolut Konkurrenzlos! Jedenfalls für ein paar Monate bist der G92b kommt!
Zwischen der 9800GTX und der 260GTX klafft ja eine riesige Lücke!
Hmm, über den G92b weiß man einfach noch zu wenig. Kann durchaus sein, dass durch 55nm einiges an der Taktschraube zu machen ist. Trotzdem wäre ein RV770 @ 250mm² immer noch kleiner :D Und wann er kommt, ist ja auch noch nicht klar. Aber eine HD4870 um 250-280€ wäre durchaus mächtig.

Schlammsau
2008-06-06, 14:51:29
find ich schön, dann gibt es die 260GTX vielleicht recht günstig.
warum sollte die 260GTX deswegen günstiger werden? :confused:
sie hat doch trotzdem keine Konkurrenz! :|

Hmm, über den G92b weiß man einfach noch zu wenig. Kann durchaus sein, dass durch 55nm einiges an der Taktschraube zu machen ist. Trotzdem wäre ein RV770 @ 250mm² immer noch kleiner :D Und wann er kommt, ist ja auch noch nicht klar. Aber eine HD4870 um 250-280€ wäre durchaus mächtig.

gerade deswegen wird ATi eine gewisse Zeit die Zügel im neuen Performance Bereich in der Hand halten!

Gast
2008-06-06, 14:52:04
Der G92b muss nicht größer als RV770 werden.

Rechnen wir mal:
Der G92 ist zurzeit 65*65 nm, also 4225 nm^2. Dies entspricht 330 mm^2.
Der G92b wird 55*55 nm, also 3025 nm^2. Setzt man das ins Verhältnis, bin ich bei 236 mm^2.

Ich sehe damit keinen Grund, warum der Chip nicht die 256 mm^2 des RV770 unterschreiten sollte. Nvidias Sorge dürfte viel mehr sein, an die Performance heranzukommen. Die HD 4850 fängt man ein, logisch, aber die HD 4870... durch den GDDR5-Speicher könnte das richtig schwer werden.

Gast
2008-06-06, 14:56:39
warum sollte die 260GTX deswegen günstiger werden? :confused:
sie hat doch trotzdem keine Konkurrenz! :|



gerade deswegen wird ATi eine gewisse Zeit die Zügel im neuen Performance Bereich in der Hand halten!

mal sehen ob das so ist,wenn man davon ausgeht das sie 25% langsamer als die 280gtx(2x8800gtx) ist,dann könnte eine übertaktete 4870xt 1gb schon sehr nah kommen.

HOT
2008-06-06, 14:57:09
Ein 1zu1 Shrink gelingt so nicht. Du hast immer etwas Überlappung. Realistisch ist denke ich 250mm² für den G92b. Bei den Seiten davor habe ich mir tatsächlich verrechnet.

Adam D.
2008-06-06, 14:58:58
gerade deswegen wird ATi eine gewisse Zeit die Zügel im neuen Performance Bereich in der Hand halten!
Hoffentlich erreichen sie damit gute Umsatzzahlen und gewinnen Marktanteile, das wäre sehr gesund.

Der G92b muss nicht größer als RV770 werden.

Rechnen wir mal:
Der G92 ist zurzeit 65*65 nm, also 4225 nm^2. Dies entspricht 330 mm^2.
Der G92b wird 55*55 nm, also 3025 nm^2. Setzt man das ins Verhältnis, bin ich bei 236 mm^2.

Ich sehe damit keinen Grund, warum der Chip nicht die 256 mm^2 des RV770 unterschreiten sollte. Nvidias Sorge dürfte viel mehr sein, an die Performance heranzukommen. Die HD 4850 fängt man ein, logisch, aber die HD 4870... durch den GDDR5-Speicher könnte das richtig schwer werden.
Gucken wir mal, wie gut der Shrink wird ;) Bzgl. der Performance: angenommen eine HD4870 wird durchschnittlich 20-30% schneller als ein G92. Das könnte man durchaus durch Shrink und Takterhöhung schaffen, aber ob man sie damit schlagen kann ... Da bin ich mir nicht sicher.

GeneralHanno
2008-06-06, 15:16:14
der G92 shrink auf 55nm dient NICHT der takterhöhung, sondern allein der kostensenkung (~30$!)

ein etwa 250mm² großer/kleiner G92b mit GDDR3 ram, dürfte sich recht günstig verkaufen lassen (siehe preise der 88GT). daher muss nvidia den preiskampf nicht fürchten ...
und der RV770XT mit GDDR5 spielt sowieso in einer ganz anderen preisliga

Schlammsau
2008-06-06, 15:18:37
der G92 shrink auf 55nm dient NICHT der takterhöhung, sondern allein der kostensenkung (~30$!)

ein etwa 250mm² großer/kleiner G92b mit GDDR3 ram, dürfte sich recht günstig verkaufen lassen (siehe preise der 88GT). daher muss nvidia den preiskampf nicht fürchten ...
und der RV770XT mit GDDR5 spielt sowieso in einer ganz anderen preisliga

was hat dann nVidia im Bereich zwischen 9800GTX und 260GTX?

Gast
2008-06-06, 15:19:19
was hat dann nVidia im Bereich zwischen 9800GTX und 260GTX?

die gx2,hehe

Schlammsau
2008-06-06, 15:21:23
die gx2,hehe

nein.....die läuft aus! ;)
Was meinste denn warum die so billig wird!

Gast
2008-06-06, 15:24:56
@W0mbat

Du sagst, die bekannten Specs des RV770 sind falsch.
Kannst Du wenigstens sagen, ob die richtigen Specs besser oder schlechter sind?

Gast
2008-06-06, 15:26:42
Gibt neue Infos zur HD 4870 X2. In 3DMark Vantage offensichtlich schneller als die GTX 280. An dieser Stelle gut zusammengefasst:

http://www.hardware-infos.com/news.php?news=2130

Odal
2008-06-06, 15:59:11
zum einen skaliert 3dmurks natürlich gut mit multi gpu und zum anderen ist das nicht sonderlich überraschend für mich....

da meine vermutung ja immer dahin ging

4850>=9800GTX 4870=4850*1,3-1,4
GTX280<=2x9800GTX

=> 2x4870>GTX280

Gast
2008-06-06, 16:06:12
warum sollte die 260GTX deswegen günstiger werden? :confused:
sie hat doch trotzdem keine Konkurrenz! :|


weil nvidia einen preislichen konkurrenten braucht, genauso wie die 8800GT sehr schnell billiger wurde, obwohl der RV670 meistens deutlich überflügelt wird.

Winter[Raven]
2008-06-06, 16:09:12
GTX280<=2x9800GTX

na wenn du dich nicht verkalkulierst...

Schlammsau
2008-06-06, 16:11:23
weil nvidia einen preislichen konkurrenten braucht, genauso wie die 8800GT sehr schnell billiger wurde, obwohl der RV670 meistens deutlich überflügelt wird.
sie werden nur günstiger wenn sie merken, dass sie Marktanteile verlieren! ;)
Warum wohl ist die 8800GT von anfänglich rund 260€ innerhalb eines halben Jahres auf rund 120€ gefallen? Teils war sie sogar billiger als eine 3870! ;)
Und man kann mit Sicherheit sagen, dass die 8800GT nicht billiger in der Herstellung ist, als eine 3870! Alleine schon nicht wegen des grösseren DIE´s!

;6560332']na wenn du dich nicht verkalkulierst...

"While we are away for Computex, CJ let us know that the Radeon HD 4870 X2 R700 prototype card is out and it beats the NVIDIA GeForce GTX 280 in 3DMark Vantage. The R700 card is basically made up of two RV770 GPUs with 2x256-bit memory interface to either GDDR3 or GDDR5 memories. We asked our sources about R700 in Computex and apparently AMD is going to let AIB partners to decide the specs themselves. Therefore, the partners will set their own clock speeds, PCB design, memory types, cooler solutions etc. and there will be Radeon HD 4850 X2 and 4870 X2 cards differentiate by the memory type. The R700 card apparently doing pretty well at this stage scoring about X5500 in 3DMark Vantage Extreme preset while the GeForce GTX 280 card is scoring X4800."-vr-zone

CJ kennst du doch oder?
Ich denke mal, den vergöttert doch mittlerweile jeder nVidia fanboy!

Gast
2008-06-06, 16:16:54
Gucken wir mal, wie gut der Shrink wird ;) Bzgl. der Performance: angenommen eine HD4870 wird durchschnittlich 20-30% schneller als ein G92. Das könnte man durchaus durch Shrink und Takterhöhung schaffen, aber ob man sie damit schlagen kann ... Da bin ich mir nicht sicher.

wenn der g92b ein reinrassiger g92 @ shrink wird/wäre, dürfte er es schwer haben gegen den rv770. dieser ist immerhin 50 - 70% breiter als der rv670 und meiner erfahrung nach sind rv670 und g92 gleichauf bei ca:

rv 670 @ 900/memory egal (gddr3 @ 1100 oder gddr4 @ 1250)
g92 @ ~625mhz/ 1700shader /1850memory

Gmax
2008-06-06, 16:37:51
Gibt neue Infos zur HD 4870 X2. In 3DMark Vantage offensichtlich schneller als die GTX 280. An dieser Stelle gut zusammengefasst:

http://www.hardware-infos.com/news.php?news=2130

Dies ist insofern wenig verwunderlich, als dass es von vornherein hieß, dass der Chip prinzipiell zeitgleich zum RV770 gelauncht werden könne, dass man aber einzig und allein, um "gute" Treiber zum Start zu liefern, den Launch in den Spätsommer hineinverlege.

Genau das war ja auch ein "Grund" zur 100 jährigen Verspätung des R600 :rolleyes:

Sorkalm
2008-06-06, 16:44:06
Bei einer Dual-Chip-Variante kann man aber gerade bei den Treibern deutlich mehr machen...

Unyu
2008-06-06, 17:09:49
nein.....die läuft aus! ;)
Was meinste denn warum die so billig wird!
Wie kommst du darauf?
Das sie im Preis sinkt zählt nicht.

wenn der g92b ein reinrassiger g92 @ shrink wird/wäre, dürfte er es schwer haben gegen den rv770. dieser ist immerhin 50 - 70% breiter als der rv670 und meiner erfahrung nach sind rv670 und g92 gleichauf
Es sind 50% zwischen RV670 und G92.
http://img77.imageshack.us/img77/8780/rv670ef5.jpghttp://img227.imageshack.us/img227/3244/rv6702tl2.jpg

Bleiben 0-20% Vorsprung für RV770.

Gast
2008-06-06, 17:10:09
Warum wohl ist die 8800GT von anfänglich rund 260€ innerhalb eines halben Jahres auf rund 120€ gefallen? Teils war sie sogar billiger als eine 3870! ;)


könnte doch mit der 260GTX ähnlich passieren, wenn der RV770 die 9800GTX deutlich genug schlägt (10% dürften NV wohl kaum kratzen, aber wenn die 4850 schon 10% schneller ist und die 4870 vielleicht 30% müssen sie reagieren)


Und man kann mit Sicherheit sagen, dass die 8800GT nicht billiger in der Herstellung ist, als eine 3870! Alleine schon nicht wegen des grösseren DIE´s!


kann man nicht. die größe ist nur ein faktor der die herstellungskosten beeinflusst. wir wissen nicht wie es mit den yield-raten aussieht, ich denke bei NV werden diese ziemlich hoch sein, da sie ja auch noch defekte DIEs als 8800GT oder neuerdings als 9600GSO verkaufen können. wie es bei ATI aussieht weiß man genauso wenig, aber sie können zumindest nur voll funktionsfähige DIEs verkaufen.

zusätzlich kommt bei ATI bei den teureren karten teurer GDDR4 zum einsatz, NV begnügt sich dagegen mit preisgünstigerem GDDR3.

NV spart auch beim boarddesign, da sie keine unterschiedlichen lastzustände kennen und die spannung nicht dynamisch anpassen.

zu guter letzt bestimmen ja nicht nur die herstellungskosten den verkaufspreis sondern ganz erheblich auch die entwicklungskosten. hier hat NV den großen vorteil schon eine ganze menge der entwicklungskosten für die G8x/9x-serie mit dem G80 wieder eingespielt zu haben, während bei ATI der R600 ein totaler flop war und sie erst mit dem RV670 beginnen überhaupt wieder was zu verdienen.

Gast
2008-06-06, 17:16:43
Wie kommst du darauf?
Das sie im Preis sinkt zählt nicht.


Es sind 50% zwischen RV670 und G92.
http://img77.imageshack.us/img77/8780/rv670ef5.jpghttp://img227.imageshack.us/img227/3244/rv6702tl2.jpg

Bleiben 0-20% Vorsprung für RV770.
klar, zur 9800gtx. aber hast du die taktraten etwa extra nicht beachtet? danke und tschüss... übrigens noch schön dass du die paradedisziplinen deiner geliebten karten rausgesucht hast. bestätigt mich indes weil da zur 8800gt ca. 10 - 35%, mit neuen treiber eher weniger, unterschied sind. und der takt der rv670 die ich angab war schon fast 20% höher...

Schlammsau
2008-06-06, 17:19:09
Wie kommst du darauf?
Das sie im Preis sinkt zählt nicht.

Weil sie in der Roadmap von nV gar nicht mehr auftaucht!
Die 9800GTX hingegen schon! ;)

dargo
2008-06-06, 17:21:46
Warum wohl ist die 8800GT von anfänglich rund 260€ innerhalb eines halben Jahres auf rund 120€ gefallen?
Die GT sollte nie für 260€ über den Tadentisch gehen. Afaik lag die UVP bei 229$ (bitte korrigieren falls ich falsch liege). Das sind bei mir DE-Straßenpreise von 160-170€. Den "schlechte-Verfügbarkeit-Händler-Aufpreis" da miteinzubeziehen macht nicht wirklich Sinn.

Unyu
2008-06-06, 17:24:50
klar, zur 9800gtx.
Du hast den RV670 mit dem G92 verglichen. Also? :confused:

Macht doch wenig Sinn den schnellsten RV670 mit dem lahmsten G92 zu vergleichen, das Ganze mit RV770 gegenzurechnen, um am Ende den G92 schlecht darstehen zu haben.

Nakai
2008-06-06, 17:26:38
Macht doch wenig Sinn den schnellsten RV670 mit dem lahmsten G92 zu vergleichen, das Ganze mit RV770 gegenzurechnen, um am Ende den G92 schlecht darstehen zu haben.

Es macht überhaupt keinen Sinn Karten in unterschiedlichen Preisregionen zu vergleichen.


mfg Nakai

Unyu
2008-06-06, 17:29:13
Es ging darum, den lahmsten G92 zu nehmen, auf eine Stufe mit dem schnellsten RV670 zu stellen (der trotzdem lahmer ist), den RV770 zu nehmen und zu behaupten RV770 wäre 70% schneller als G92.

Dann kann man locker lässig behaupten, das auch ein G92b für die 70% nicht reicht..... toller Vergleich.
Es sind eben nur 0-20%, die G92 fehlen. Jetzt holt G92b noch 10% und die Sache ist geritzt.

Nakai
2008-06-06, 17:41:29
Versteh mich nicht falsch, aber mir ist das total egal.
Man kann keinen Rv670 mit dem G92 vergleichen, man muss die Karten miteinander vergleichen.
HD3870 liegt etwa 10% unter Geforce 8800GT.
Die 9800GTX ist im Schnitt 50% schneller als die HD3870.
Die HD4850 wird etwa auf 9800GTX-Niveau sein.
Die HD4870 wird 30% schneller als Geforce 9800GTX sein.

Das Potential eines Chips wird durch die Karten gezeigt.
Der G92 hat mehr Potential als der RV670, was aber nicht heißt, dass eine RV670-Karte eine schwächere G92-Karte nicht bedrohen könnte.
Und ich vergleiche nur den Preis.


mfg Nakai

OgrEGT
2008-06-06, 20:13:18
Der G92b muss nicht größer als RV770 werden.

Rechnen wir mal:
Der G92 ist zurzeit 65*65 nm, also 4225 nm^2. Dies entspricht 330 mm^2.
Der G92b wird 55*55 nm, also 3025 nm^2. Setzt man das ins Verhältnis, bin ich bei 236 mm^2.

Ich sehe damit keinen Grund, warum der Chip nicht die 256 mm^2 des RV770 unterschreiten sollte. Nvidias Sorge dürfte viel mehr sein, an die Performance heranzukommen. Die HD 4850 fängt man ein, logisch, aber die HD 4870... durch den GDDR5-Speicher könnte das richtig schwer werden.

Ich glaube da hast Du Dich verrechnet. Die "65nm" oder "55nm" beziehen sich auf die Strukturbreite der Fertigungstechnik. Der Die hat bei quadratischer Grundfläche und einer Fläche von 330 mm2 beim G92 folgende Abmessungen:

18.2mm x 18.2mm =1.82 cm x 1.82 cm

also genau die Größe die ein GPU Die hat, die Größe einer kleinen Münze...

Also musst Du nochmal neu rechnen :smile:

Gast
2008-06-06, 21:21:07
Inwiefern denn dann neu rechnen? Demnach wären es bei 236 mm^2

~ 15,4 mm x ~ 15,4 mm

Verstehe nicht ganz, was ich falsch gemacht haben soll. Bin aber lernwillig. :)

Gast
2008-06-06, 21:26:04
55nm = 84,6% von 65nm
330mm^2 * 0,846 = 279,18mm^2

Nun gib noch ein bißchen drauf, da es keinen perfekten Shrink gibt - also etwa 290mm^2 für G92b.

pest
2008-06-06, 21:30:25
55nm = 84,6% von 65nm
330mm^2 * 0,846 = 279,18mm^2

Nun gib noch ein bißchen drauf, da es keinen perfekten Shrink gibt - also etwa 290mm^2 für G92b.

So geht das aber nicht imo. 65nm bezeichnet die Strukturlänge.
Das heißt 84,6% der "Kantenlänge" des Dice, also (Sqrt(330)*0.846)^2 ~ 240mm²

Ailuros
2008-06-06, 21:54:19
In der Theorie hast du Recht.
In der Praxis gibt es aber den nHancer, der in jedem "zickigen" Spiel (meist welche mit UT3 Engine) auch MSAA ermöglichte, wo die ATi-Karten das Nachsehen hatten (Beispiel war Bioshock, Medal Of Honor Airborne und UT3).

Die Lösung per D3D10.1 ist natürlich schöner, das will ich nicht bestreiten.

MfG :cool:

http://forum.beyond3d.com/showpost.php?p=1168612&postcount=1861

KillZone2 (a PS3 title) is based on a classic deferred renderer + MSAA and runs on NVIDIA hardware. This should tell us that NVDIA got at least DX10.1 features working way before AMD/ATI and way before DX10 was even finalized, it's not like they don't know how to do it.

http://forum.beyond3d.com/showpost.php?p=1170426&postcount=2061

Ich muss mal wieder Zeit finden und mit nAo in Echtzeit im B3D IRC Kanal plaudern, denn als Entwickler weiss er schon wo es langgeht.

***edit: die die Groesse des G92b haengt eher davon ab ob die Frequenzen auf G92 Basis bleiben werden oder ob NV sie hoeher schnallen wird. Diese "Die"-Fuselei ist doch sowieso stink-langweilig; nochmals keiner von Euch hat die blasseste Ahnung was Herstellungsprozess X oder Y kostet und was fuer Vertraege A oder B mit TSMC abgeschlossen hat.

NVIDIA spart aus gutem Grund und mit Absicht mit den Herstellungsprozessen und obwohl sie als IHV viel mehr Geld insgesamt ausgeben was Entwickler-Unterstuetzung und R&D Unkosten betrifft, erscheint trotzdem kein Verlust. ATI/AMD hat in der Zwischenzeit eine Masche mit den mainstream GPUs gefunden die sich erstmal insgesamt als Gewinn-reichere Loesung beweisen muss. Momentan sieht es durchaus nicht schlecht fuer AMD's GDP aus. Der groesste Vorteil ist dass es erstmal keine Verspaetungen gibt. Was den Rest betrifft, werden wir mit der Zeit schon sehen koennen. Wenn natuerlich AMD langfristig die wichtigsten Bestandteile ATI's in der Zukunft auch behalten kann....

Jake Dunn
2008-06-06, 22:02:21
der G92 shrink auf 55nm dient NICHT der takterhöhung, sondern allein der kostensenkung (~30$!)

ein etwa 250mm² großer/kleiner G92b mit GDDR3 ram, dürfte sich recht günstig verkaufen lassen (siehe preise der 88GT). daher muss nvidia den preiskampf nicht fürchten ...
und der RV770XT mit GDDR5 spielt sowieso in einer ganz anderen preisliga

Und Leistungsliga ;)

dildo4u
2008-06-06, 22:13:57
RV770 Launch On 25th June, Clocks Finalized


AMD has informed their partners that the new launch date for Radeon HD 4800 (RV770) series is now 25th June therefore Radeon HD 4850 (RV770PRO) and Radeon HD 4870 (RV770XT) will launch together. AMD has also finalized the core clocks of the 4850 and 4870 cards and they will be clocked at 625MHz and 750MHz respectively. Radeon HD 4870 with GDDR5 is expected to perform 1.3x better than the Radeon HD 4850 with GDDR3.

http://vr-zone.com/articles/RV770_Launch_On_25th_June%2C_Clocks_Finalized/5857.html

Ailuros
2008-06-06, 22:16:19
Und Leistungsliga ;)

Den Unterschied holt eine Vendor uebertaktete 9800GTX (G92) schon heute fast ein.

RV770 Launch On 25th June, Clocks Finalized
http://vr-zone.com/articles/RV770_Launch_On_25th_June%2C_Clocks_Finalized/5857.html

Wurde aber so langsam Zeit dass jemand zumindest erstmal die Taktrate richtig hinbekommt ;)

deekey777
2008-06-06, 22:18:53
RV770 Launch On 25th June, Clocks Finalized




http://vr-zone.com/articles/RV770_Launch_On_25th_June%2C_Clocks_Finalized/5857.html

Es würde mich nicht wundern, dass Overdrive mindestens 50 MHz "freigibt". Das ist echt 'ne coole Sache mit Overdrive für DAAMIT: Man liefert die Grafikkarte mit einem Standardtakt aus kriegt für den Verbrauch Lob ohne Ende, die Käufer dagegen schalten nach der Installation des Treibers das Overdrive frei, lassen den höchstmöglichen Takt bestimmen und nutzen diesen für 3D-Anwendungen (aber ich bin mir so ziemlich sicher, dass nur sehr wenige Besitzer einer Radeon Overdrive kennen).

Die "1,3x" der HD4870 sind mir irgendwie zuviel. ;(

Ailuros
2008-06-06, 22:20:39
Ich hab das Gefuehl dass fuer Uebertakter die 4850 die bessere Loesung sein koennte ;)

Jake Dunn
2008-06-06, 22:24:30
RV770 Launch On 25th June, Clocks Finalized




http://vr-zone.com/articles/RV770_Launch_On_25th_June%2C_Clocks_Finalized/5857.html

Klingt gut gibt OC Spielraum.

Den Unterschied holt eine Vendor uebertaktete 9800GTX (G92) schon heute fast ein.


Ach komm, wenn der Vram voll ist dann nützen auch keine 900mhz dem G92(b) was.

dildo4u
2008-06-06, 22:26:14
Ach komm, wenn der Vram voll ist dann nützen auch keine 900mhz dem G92(b) was.
http://img141.imageshack.us/img141/5606/tanwei812f45789fip8.jpg

Gast
2008-06-06, 22:28:37
Und zu welchem Preis? ;)

deekey777
2008-06-06, 22:28:59
Ich hab das Gefuehl dass fuer Uebertakter die 4850 die bessere Loesung sein koennte ;)

Meiner Meinung nach ist die HD3850 ein Kanibale für die HD3870: Diese wird oft schon übertaktet ausgeliefert, dass der Taktvorsprung der Standard-HD3870 deutlich schmilzt, dazu noch die Sache mit GDDR3 (es gibt wohl nicht umsonst HD3870 GDDR3). Jetzt muss AMD nur die Hersteller zwingen, schlechte Kühllösungen zu verbauen, damit die HD4850 nicht zu hoch getaktet werden kann und der Abstand zur HD4870 bewährt bleibt.:D

Bei meiner X1900GT lässt Overdrive je 50 MHz zu. Es wäre verrückt, wenn AMD dieses Hintertürchen beim RV770 nicht (weit) offenlässt. Auf der anderen Seite wirbt AMD seit der 9800XT bzw. der echten 9600XT kaum für Overdrive und in Reviews werden Leser darauf kaum aufmerksam gemacht.

w0mbat
2008-06-06, 22:29:02
Endlich ist der Mist von wegen >800MHz & Shaderclk vom Tisch :)

Jake Dunn
2008-06-06, 22:30:07
Öhmm Dildo ich bezog mich auf Ailuros aussage mit der 9800GTX.

Ailuros
2008-06-06, 22:33:16
Ach komm, wenn der Vram voll ist dann nützen auch keine 900mhz dem G92(b) was.

Wenn NV selber eine G92b auf 900MHz takten wuerde (2.25GHz ALU domain), dann mussten sie auch zumindest 1.6 GHz GDDR5 auf so ein Ding schnallen.

Und damit es endlich ein Ende zu dem Bloedsinn gibt, G92b mit einem 512MB geht dann tatsaechlich in sehr hohen Aufloesungen die Bandbreite aus und dem direkten Gegner eben dann die Fuellrate. Pick your poison.

***edit:

Öhmm Dildo ich bezog mich auf Ailuros aussage mit der 9800GTX.

Ja und? Er zeigte Dir eine 9800GTX mit 1GB die uebrigens sowieso keinen besonderen Leistungsunterschied zur 512MB Version aufweist. Ergo?

****edit 2:

Endlich ist der Mist von wegen >800MHz & Shaderclk vom Tisch :)

ROFL :D

Bist Du sicher dass Du nicht den Rest der Geschichte erzaehlen willst? ;)

Jake Dunn
2008-06-06, 22:33:36
Jetzt muss AMD nur die Hersteller zwingen, schlechte Kühllösungen zu verbauen, damit die HD4850 nicht zu hoch getaktet werden kann und der Abstand zur HD4870 bewährt bleibt.:D



Ich denke das wird DDR3 vs. DDR5 schon regeln ;)

Jake Dunn
2008-06-06, 22:36:24
Wenn NV selber eine G92b auf 900MHz takten wuerde (2.25GHz ALU domain), dann mussten sie auch zumindest 1.6 GHz GDDR5 auf so ein Ding schnallen.

Und damit es endlich ein Ende zu dem Bloedsinn gibt, G92b mit einem 512MB geht dann tatsaechlich in sehr hohen Aufloesungen die Bandbreite aus und dem direkten Gegner eben dann die Fuellrate. Pick your poison.

Ob der mit DDR5 kommt? Und der Vram :rolleyes:

...also abwarten...bin gespannt wie sich die 9900GTX 1Gb gegen die 4870 1Gb schlägt...

Ailuros
2008-06-06, 22:40:22
Ob der mit DDR5 kommt? Und der Vram :rolleyes:

...also abwarten...bin gespannt wie sich die 9900GTX 1Gb gegen die 4870 1Gb schlägt...

Der Mist wird wohl hoechstwahrscheinlich vollkommen den AIBs am Ende ueberlassen. Bei dem Preis die ich fuer eine hypothetische G92b mit 1GB GDDR5 einschaetzen wuerde, waere so ein Produkt auch irgendwo bloedsinnig im Vergleich zur GTX260.

Bis jetzt hab ich uebrigens nur eine 9800GT sehen koennen.

Gast
2008-06-06, 22:46:00
Ob der mit DDR5 kommt? Und der Vram :rolleyes:

...also abwarten...bin gespannt wie sich die 9900GTX 1Gb gegen die 4870 1Gb schlägt...

9900gtx ehm was das?

Jake Dunn
2008-06-06, 22:51:12
9900gtx ehm was das?

Ups meinte die den G92b oder was da auch immer kommt (dann mit 1Gb)

Gast
2008-06-06, 22:51:20
Diese "Die"-Fuselei ist doch sowieso stink-langweilig; nochmals keiner von Euch hat die blasseste Ahnung was Herstellungsprozess X oder Y kostet und was fuer Vertraege A oder B mit TSMC abgeschlossen hat.


Weist du wie oft uns immer die selben die "Marge" und die Die Größe um die Ohren hauen und das man (speziell NV) kein Geld verdienen KANN, bei den großen Chips die sie fertigen lassen... Und das seit Jahren.
Die Leute lesen halt keine Finanz Quartals Berichte.

Gast
2008-06-06, 22:56:55
Wie schaut es denn nun aus, wird es einen separaten Shadertakt geben oder nicht? VR-Zone äußert sich ja schlichtweg nicht dazu...

w0mbat
2008-06-06, 23:01:05
Mal sehen wann HW-Infos anfängt sich rauszureden mit ihren angeblich finalen Daten :D

Gast
2008-06-06, 23:04:00
Der Takt der HD 4850 (625 MHz) war doch schon mal korrekt und dass die 825 MHz bei der HD 4870 nicht eingehalten werden konnte, so dass man den Takt auf 750 MHz runterschrauben müsste, ist auch möglich.
Einziger Fehler war vielleicht, die als final zu bezeichnen. Aber ansonsten doch schon einmal eine wegweisende Spur. :)

Ailuros
2008-06-06, 23:04:56
Weist du wie oft uns immer die selben die "Marge" und die Die Größe um die Ohren hauen und das man (speziell NV) kein Geld verdienen KANN, bei den großen Chips die sie fertigen lassen... Und das seit Jahren.
Die Leute lesen halt keine Finanz Quartals Berichte.

Ich weiss es sehr genau, deshalb hab ich den ausgelatschten Kaugummi darueber auch so langsam satt. Meine Kritik fuer ATI betrifft schon seit Jahren ihre generelle Strategie; RV670 bzw. RV770 erscheinen endlich zur richtigen Zeit auf Regalen. Dass der kleinste und neueste Herstellungsprozess stets nur Vorteile haben kann, kann ich persoenlich schlecht verdauen. Gut bei der Chip-Komplexitaet von mainstream-chips ist das Risiko auch ziemlich gering und dieses hat sowohl RV670 als auch jetzt RV770 bewiesen (u.a. auch dass sie hauptaechlich die Frequenzen skalieren und keine Einheiten abschalten muessen), aber man muss es endlich schnallen koennen dass die neuesten Herstellungsprozess auch verdammt teuer sind. Wenn man nur mainstream-chips baut ist es auch eine total andere Geschichte. Fuer high end chips reisst es quasi von oben nach unten das ganze Zeug mit und je konservativer man vorgeht bei sehr hoher Chip-komplexitaet desto kleiner das Risiko.

w0mbat
2008-06-06, 23:05:56
Der war aber erst korrekt nachdem er schon in div. Foren genannt wurde. Danach hat HW-Infos nämlich nochmal geheime Post bekommen, in der der Takt auf 625MHz abgesenkt wurde.

Ailuros
2008-06-06, 23:07:34
Der Takt der HD 4850 (625 MHz) war doch schon mal korrekt und dass die 825 MHz bei der HD 4870 nicht eingehalten werden konnte, so dass man den Takt auf 750 MHz runterschrauben müsste, ist auch möglich.
Einziger Fehler war vielleicht, die als final zu bezeichnen. Aber ansonsten doch schon einmal eine wegweisende Spur. :)


Es wurde gar nichts ausserhalb der normalen Herstellungsicherheitsmassnahmen (ich liebe lange Woerter *g*) heruntergeschraubt.

Gast
2008-06-06, 23:10:08
@ Ailuros

Willst Du nicht auch noch etwas zum Shadertakt sagen? :)

w0mbat
2008-06-06, 23:10:43
Welcher Shadertakt? Meinst du Shaderdomaine?

Gast
2008-06-06, 23:13:38
Ja, ob es einen weiteren Taktgeber für die Shadereinheiten gibt oder ob weiterhin Chiptakt = Shadertakt ist. ;)

Gast
2008-06-06, 23:14:41
Ja, ob es einen weiteren Taktgeber für die Shadereinheiten gibt oder ob weiterhin Chiptakt = Shadertakt ist. ;)

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6561283&postcount=478

Wurde doch schon beantwortet.

OgrEGT
2008-06-06, 23:15:25
Inwiefern denn dann neu rechnen? Demnach wären es bei 236 mm^2

~ 15,4 mm x ~ 15,4 mm

Verstehe nicht ganz, was ich falsch gemacht haben soll. Bin aber lernwillig. :)

Weil

65nm x 65nm = 4225 nm2 = 4.225 x 10-E09 mm2 <> 330 mm2

w0mbat
2008-06-06, 23:19:00
Ja, ob es einen weiteren Taktgeber für die Shadereinheiten gibt oder ob weiterhin Chiptakt = Shadertakt ist. ;)

Also soweit ich weiß gibt es keine. Ich bin aber nicht das Ende der Weisheit und AMD hält sich beim RV770 sehr bedeckt. Schon möglich das sie es bis jetzt verbergen konnten, wie Nvidia das US-Design damals bei G80.

Aber ich habe noch nichts von einer Shaderdomaine gehört, abgesehen von der "geheimen Briefen" an HW-Infos :biggrin:

Gast
2008-06-06, 23:28:43
Also soweit ich weiß gibt es keine. Ich bin aber nicht das Ende der Weisheit und AMD hält sich beim RV770 sehr bedeckt. Schon möglich das sie es bis jetzt verbergen konnten, wie Nvidia das US-Design damals bei G80.

Aber ich habe noch nichts von einer Shaderdomaine gehört, abgesehen von der "geheimen Briefen" an HW-Infos :biggrin:


woher solltest du das auch hören,omg

Ailuros
2008-06-06, 23:31:40
Also soweit ich weiß gibt es keine. Ich bin aber nicht das Ende der Weisheit und AMD hält sich beim RV770 sehr bedeckt. Schon möglich das sie es bis jetzt verbergen konnten, wie Nvidia das US-Design damals bei G80.

Aber ich habe noch nichts von einer Shaderdomaine gehört, abgesehen von der "geheimen Briefen" an HW-Infos :biggrin:

Es gibt schon einen geringen Shader-domain auf R6x0/RV6x0 aber der Unterschied ist nicht der Rede wert. Haette RV770 tatsaechlich einen Shader-domain von >1GHz dann wuerde das Ding auch mehr Transistoren haben.