Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - R8xx im Q4 2008, Multicore und 45/40 nm
Seiten :
1
2
3
4
5
6
7
8
9
10
11
12
[
13]
14
15
16
17
18
19
20
21
22
23
Nakai
2009-09-01, 22:52:53
Die aktuellsten Gerüchte sprechen ja auch von einer Verfügbarkeit erst im Oktober bzw. vielleicht auch erst im November.
RV740 lässt grüßen. Im ernst, ich gehe von einer einigermaßen breiten Verfügbarkeit beim Launch aus. Dann werden die Karten bis zum GT300-Launch rar. Um den GT300-Launch zu kontert, könnte ATI eine Preissenkung und eine zweite Welle an Karten liefern. Eine wirklich breite Verfügbarkeit gibt es wohl erst Anfang 2010 für alle Karten. Natürlich werden erst OEM-Partner beliefert.
Was anderes wäre peinlich. Wenn man zu Nahe an dem GT300-Launch kommt, dann kann man nicht sagen, dass man der erste DX11-Chip ist.
160% Mehrperformance ist wirklich nur bei ausgelesener Software möglich. Ich gehe aber hiervon nicht direkt von Spielen aus.
mfg Nakai
Also am 10. Presse-Event Launch ABER dafür Keine Karten, nur hinter der Vetrine und der Presse vorbehalten, anschliessend am 22. September Launch für die gesamte Öffentlichkeit mit doch beachtlicher Menge an 5870 und 5850-er Karten.
Ailuros
2009-09-02, 14:40:19
http://www.brightsideofnews.com/news/2009/9/2/ati-radeon-58502c-58702c-5870x2-pricing-revealed.aspx
The top dog carries the name Radeon HD 5870X2, and we are talking about single-PCB, dual-GPU card that will retail for cool $599. This is still $50 cheaper than GTX280 at the time of its debut [do you remember the outrageous $649?], but bear in mind that this is a top dog part.
For some odd reason, the $499 bracket will remain without a card. We expect that slot will be filled with a water-cooled edition of 5870, or more likely - 5870X2 once that nVidia launches their competing products. Afore mentioned Radeon HD 5870 is set to go on sale for $379-399, while the cheapest entry into the 5800 series, the Radeon HD 5850 is priced in the $279-299 bracket.
$599 klingt nur logisch bei 2*2GB ram IMO.
reunion
2009-09-02, 14:44:42
Die hohen Preise deuten IMO auch auf eine relativ deutlich Leistungssteigerung hin. $399 für die 5870 und $299 für die 5850 ist jeweils $100 mehr wie damals bei der 4870/4850.
AnarchX
2009-09-02, 14:48:24
D3D11 und die entsprechende Auswirkung auf den Transitorcount will man sich wohl aber auch bezahlen lassen.
derguru
2009-09-02, 14:52:51
die hohen preise klingen nach mehr als 256bit.:rolleyes:
ich gib die hoffnung noch nicht auf.:biggrin:
reunion
2009-09-02, 14:53:07
D3D11 und die entsprechende Auswirkung auf den Transitorcount will man sich wohl aber auch bezahlen lassen.
Ja, nur wird man für eine 5870 wohl kaum 400$ verlangen können wenn die Leistung nicht stimmt. Denn die Preise sind aktuell im Keller.
LovesuckZ
2009-09-02, 14:53:38
Die hohen Preise deuten IMO auch auf eine relativ deutlich Leistungssteigerung hin. $399 für die 5870 und $299 für die 5850 ist jeweils $100 mehr wie damals bei der 4870/4850.
9800gt - 199$
9800gtx - 299$
GTX280 - 649$. ;)
Abwarten und sich überraschen lassen. Wenn man als erstes auf dem Markt ist, kann man auch (Mond-)Preise nehmen, da es keine Alternative gibt.
Außerdem musste AMD letztes Jahr billiger sein, weil sie sonst keinen Impact bringen konnten. Eine 4850 auf dem Niveau der 9800gtx zum preis der 9800gtx wäre nunmal nicht sehr überzeugend gewesen. Diesen "Nachteil" haben sie heute nicht. Hätte mich persönlich auch gewundert, wenn man wirklich unter 300$ eingestiegen wäre.
AnarchX
2009-09-02, 14:54:32
die hohen preise klingen nach mehr als 256bit.:rolleyes:
ich gib die hoffnung noch nicht auf.:biggrin:
Eher entsprechend schneller und auch teurer GDDR5 mit <0,4ns.
Ailuros
2009-09-02, 14:57:19
Ja, nur wird man für eine 5870 wohl kaum 400$ verlangen können wenn die Leistung nicht stimmt. Denn die Preise sind aktuell im Keller.
Ach und wer wuerde den Speicher bezahlen fuer die 2GB GDDR5 auf der einen Variante? Oder hat Dir jemand erzaehlt dass 5870 nur in 1GB Varianten kommen wird?
ShadowXX
2009-09-02, 14:58:39
Ja, nur wird man für eine 5870 wohl kaum 400$ verlangen können wenn die Leistung nicht stimmt. Denn die Preise sind aktuell im Keller.
Ich sehe wie Lovesuckz keinen Zusammenhang zwischen Preisgestaltung und Leistung, da Die Vorzeichen bei diesem Launch eben doch ganz andere sind-
Anders gesagt: Ich erwarte keine Wunder. Ich wäre durchaus schon zufrieden mit 2 x 4870 (1GB) Leistung + besseres AF (ich hoffe das das wirklich kommt und nicht eben doch nur noch ein weiterer AI Mode ist).
Wenn ATI dann die Daumenschrauben im CP noch etwas lösen würde, wäre es perfekt.
reunion
2009-09-02, 15:02:28
Ach und wer wuerde den Speicher bezahlen fuer die 2GB GDDR5 auf der einen Variante? Oder hat Dir jemand erzaehlt dass 5870 nur in 1GB Varianten kommen wird?
5870 1GB $399 oder 5870 2GB $399?
reunion
2009-09-02, 15:03:55
9800gt - 199$
9800gtx - 299$
GTX280 - 649$. ;)
Abwarten und sich überraschen lassen. Wenn man als erstes auf dem Markt ist, kann man auch (Mond-)Preise nehmen, da es keine Alternative gibt.
Außerdem musste AMD letztes Jahr billiger sein, weil sie sonst keinen Impact bringen konnten. Eine 4850 auf dem Niveau der 9800gtx zum preis der 9800gtx wäre nunmal nicht sehr überzeugend gewesen. Diesen "Nachteil" haben sie heute nicht. Hätte mich persönlich auch gewundert, wenn man wirklich unter 300$ eingestiegen wäre.
Ist natürlich ein Argument. Wird wohl auf ein abcashen hinaus laufen bis NV kommt und dann wird man sehen wie NV die Preise gestaltet und ob es wieder zu einem knallharten Preiskampf kommt.
derguru
2009-09-02, 15:08:43
Eher entsprechend schneller und auch teurer GDDR5 mit <0,4ns.
mehr leistung ist auch mit mehr bandbreite verbunden und mal schauen ob <0,4ns lieferbar sind.
Anders gesagt: Ich erwarte keine Wunder. Ich wäre durchaus schon zufreiden mit 2 x 4870 (1GB) Leistung + besseres AF (ich hoffe das das wirklich kommt und nicht eben doch nur noch ein weiterer AI Mode ist).
wer wäre nicht zufrieden mit einer doppelten 4870 performance inkl. besserem af,das könnte man schon als wunder betrachten und wäre durchaus sein geld wert.
Ailuros
2009-09-02, 15:15:34
5870 1GB $399 oder 5870 2GB $399?
....wenn ich jetzt wieder durch die Zaehne zische meckerst Du wieder....die Antwort ist wohl verdammt offensichtlich auf Deine Frage.
399$ = 399 € verkaufspreis?
ne GTX295 kostet aktuell so um die 370-380€, 2 4870 kosten ca. 300€?
dann sollte die karte schon 2GB haben + schneller und leiser als ne GTX295 sein damit so ein hoher preis gerechtfertigt ist....
zumal ja "echte" DX11 spiele wohl erst mit dem refresh oder der nachfolgegeneration breit im markt eingeführt werden, es also zur zeit keinen wirklichen unterschied macht ob eine karte DX11 kann oder nicht....
cu,
Alex
[fu]121Ah
2009-09-02, 16:09:09
399$ = 399 € verkaufspreis?
ne GTX295 kostet aktuell so um die 370-380€, 2 4870 kosten ca. 300€?
dann sollte die karte schon 2GB haben + schneller und leiser als ne GTX295 sein damit so ein hoher preis gerechtfertigt ist....
zumal ja "echte" DX11 spiele wohl erst mit dem refresh oder der nachfolgegeneration breit im markt eingeführt werden, es also zur zeit keinen wirklichen unterschied macht ob eine karte DX11 kann oder nicht....
cu,
Alex
+weniger stromverbrauch als 2 4870 oder gtx295, dx11 featureset = höherer gerechtfertigter preis.
Ailuros
2009-09-02, 16:17:38
Nochmal das teuerste auf jeglicher GPU ist der Speicher; noch dazu kommt wie teuer ein jeglicher chip herzustellen ist (ein 40nm wafer ist momentan garantiert nicht billiger als ein 55nm wafer). Weder finale Preise noch Einzelheiten wie DIE size oder Anzahl der Transistoren sind bis jetzt oeffentlich bekannt. Theo kritzelte lediglich etwas zusammen mit dem was sich momentan herumhoehrt.
Eher entsprechend schneller und auch teurer GDDR5 mit <0,4ns.
So oder so, die Preise klingen nach Leistung satt.
wer wäre nicht zufrieden mit einer doppelten 4870 performance inkl. besserem af,das könnte man schon als wunder betrachten und wäre durchaus sein geld wert.
Ohne gescheite AA Modis wohl kaum.
nagus
2009-09-02, 18:38:15
ich beginne zu glauben, AMD könnte uns mit der speicherbandbreite bzw. mit der busbreite überraschen... wenn die rv870 wirklich größer ist als der r600 dann sollte eine breitere anbindung doch kein problem sein. zumal jetzt 2 jahre seit r600 verstrichen sind. außerdem sind die spekulierten preise auch ziemlich "gesalzen". welches monster kommt da auf uns zu???
AnarchX
2009-09-02, 18:42:15
Größer als der R600 mit 420mm² ist RV870 entsprechend dem Die-Abdruck von Chiphell wohl kaum.
y33H@
2009-09-02, 18:43:23
GTX285-Performance x 1,4 munkelt man.
Wenn sich die Gerüchte mit der AF-Qualität und der Idle-Leistungsaufnahme bewahrheiten sollten freue ich mich auf die Modelle der ATI-Partner - egal wie schnell die Karten jetzt genau sind. So eine 5850 Vapor-X/PCS+/XXX/IceQ im Bundle mit DiRT 2 wär schon was Feines *träum*.
Ansonsten mal abwarten was Nvidia in den Mainstream-Regionen abliefert. Im _schlechtesten_ Fall drücken sie zumindest die Preise...
derguru
2009-09-02, 18:50:05
GTX285-Performance x 1,4 munkelt man.
bei euch sollten die karten doch schon auf dem schreibtisch liegen.:cool:
woher kommt das munkeln?
nagus
2009-09-02, 19:07:36
Größer als der R600 mit 420mm² ist RV870 entsprechend dem Die-Abdruck von Chiphell wohl kaum.
steht aber hier (http://www.brightsideofnews.com/news/2009/9/2/ati-radeon-58502c-58702c-5870x2-pricing-revealed.aspx). entweder dieser abdruck ist ein fake und das was da steht stimmt... oder eben nicht ;)
nagus
2009-09-02, 19:09:14
bei euch sollten die karten doch schon auf dem schreibtisch liegen.:cool:
woher kommt das munkeln?
ich schätze mal da wird schon was dran sein sonst würd ers nicht schreiben wenn die karte auf seinem tisch liegt *g*
reunion
2009-09-02, 19:13:15
ich schätze mal da wird schon was dran sein sonst würd ers nicht schreiben wenn die karte auf seinem tisch liegt *g*
Würde die Karte auf seinen Tisch liegen dürfte er das nicht schreiben. Vor dem 10. September dürfte kaum jemand die Karten haben, und selbst dann ist noch nichts fix.
KonKorT
2009-09-02, 19:17:50
steht aber hier (http://www.brightsideofnews.com/news/2009/9/2/ati-radeon-58502c-58702c-5870x2-pricing-revealed.aspx).
Ehm, nein? Da steht lediglich, dass der Chip groß sein wird und deswegen ähnlich wie R600 angeordnet ist.
Habe ich mir gerade von Theo auch noch einmal bestätigen lassen. RV870 wird 100% kleiner als R600. Er wird den Satz aber jetzt noch mal leicht umschreiben, damit es keine weiteren Missverständnisse gibt. ;)
nagus
2009-09-02, 19:22:30
Würde die Karte auf seinen Tisch liegen dürfte er das nicht schreiben. Vor dem 10. September dürfte kaum jemand die Karten haben, und selbst dann ist noch nichts fix.
wenn du dir das hier (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_285_sli/20/#abschnitt_performancerating_qualitaet) anschaust, wirst du sehen, dass du mit 1,4x geforce 285 ziemlich genau zwischen 4870X2 und Geforce 295 landest.... was ja relativ häufig spekuliert wird und jetzt nix "neues" ist. dazu passen auch die +160% "bestcase" szenario im vergleich zur "ur" 4870er. nicht so schlecht.
nagus
2009-09-02, 19:23:27
Ehm, nein? Da steht lediglich, dass der Chip groß sein wird und deswegen ähnlich wie R600 angeordnet ist.
Habe ich mir gerade von Theo auch noch einmal bestätigen lassen. RV870 wird 100% kleiner als R600. Er wird den Satz aber jetzt noch mal leicht umschreiben, damit es keine weiteren Missverständnisse gibt. ;)
ok dann eben nicht. ich habs nicht geschrieben, nur kopiert
Ailuros
2009-09-02, 19:56:35
GTX285-Performance x 1,4 munkelt man.
Worst case scenario, was aber IMHO ziemlich gut ist.
reunion
2009-09-02, 20:02:42
Was erwartet uns am 10. September? Ein paar Bilder, jede menge Marketingfolien inkl. vielleicht Benchs von AMD? Wird es mehr geben? Wird alles weitgehend unter Ausschluss von der Öffentlichkeit geschehen? Da ja NV wohl auch eine Marketingveranstaltung als Reaktion auf AMD geplant hat dürfte das sicherlich ein sehr unterhaltsamer Tag werden. :D
nagus
2009-09-02, 22:33:22
Worst case scenario, was aber IMHO ziemlich gut ist.
find ich auch ziemlich gut! sehr sogar
GTX285-Performance x 1,4 munkelt man.
40% schneller nur? Das wäre ja sehr wenig.
mapel110
2009-09-02, 23:21:14
Ich denke doch die Single-Chip-Variante hat Faktor 1,4?! Es kommt ja noch ein Dual-Chip-Brett?!
derguru
2009-09-02, 23:27:59
Ich denke doch die Single-Chip-Variante hat Faktor 1,4?! Es kommt ja noch ein Dual-Chip-Brett?!
ja sicher,für ein x2 wäre das ein bissel wenig.
da wäre ja eine 4870x2 ja schon in dem bereich.:biggrin:
ShadowXX
2009-09-02, 23:36:44
Ich denke doch die Single-Chip-Variante hat Faktor 1,4?! Es kommt ja noch ein Dual-Chip-Brett?!
Und was will man mit einem Dual-Brett....AFR + Microruckler ahoi.
Dual-GPU Dingsbumse sind reine ePenise. Dazu kommt das man bei ATI noch abhängiger vom Treibersupport ist als bei nV bei Dual-GPU.
Ich hatte mir aber auch etwas mehr als x1.4 erhofft, auch wenn es Wort-Case sein soll.
Palpatin
2009-09-03, 00:33:24
Ich hatte mir aber auch etwas mehr als x1.4 erhofft, auch wenn es Wort-Case sein soll.
Naja Worst-Case wär schon sehr gut gibt ja fälle in denen die GTX 285 über 40% schneller als die 4890 ist wenn das das Worst-Case wär wär das doppelte 4890 Performance, würd mir reichen wenn sie zusätzlich noch das AF verbessert haben und auf 3 Monitor Support wart ich schon lang.
Ailuros
2009-09-03, 07:17:30
Ich hatte mir aber auch etwas mehr als x1.4 erhofft, auch wenn es Wort-Case sein soll.
Hand aufs Herz wie sah das "worst case scenario" einer G80 gegen eine R580 beim Launch der ersten genau aus?
nagus
2009-09-03, 07:52:07
40% schneller nur? Das wäre ja sehr wenig.
das ist worst case mehr als 4870X2 niveau!! wieso soll das "wenig" sein??
Worst case in typischen praxisrelevanten Benches.
Tarkin
2009-09-03, 08:40:52
Hand aufs Herz wie sah das "worst case scenario" einer G80 gegen eine R580 beim Launch der ersten genau aus?
Wenn man alle "worst case" zusammenrechnet, dann kommt wohl irgendwas bei um die 30% bis 40% heraus. In einzelnen Games bei bestimmten Settings war die 8800 GTX sogar langsamer als eine X1950er XTX
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/15/#abschnitt_call_of_duty_2
:wink:
Ailuros
2009-09-03, 09:45:09
Wenn man alle "worst case" zusammenrechnet, dann kommt wohl irgendwas bei um die 30% bis 40% heraus. In einzelnen Games bei bestimmten Settings war die 8800 GTX sogar langsamer als eine X1950er XTX
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/15/#abschnitt_call_of_duty_2
:wink:
Und wer zum Teufel haette auf einer G80 damals ohne AA/AF gespielt, wenn es die Karte locker bis zu 16*12 ertragen hat? Mach Dich bitte nicht laecherlich.
[fu]121Ah
2009-09-03, 09:50:29
Und wer zum Teufel haette auf einer G80 damals ohne AA/AF gespielt, wenn es die Karte locker bis zu 16*12 ertragen hat? Mach Dich bitte nicht laecherlich.
er hat schon recht, vielleicht hats damals halt niemand so genau genommen - und worst case bleibt worst case, auch wenn das szenario müll ist ;)
Tarkin
2009-09-03, 10:01:45
Und wer zum Teufel haette auf einer G80 damals ohne AA/AF gespielt, wenn es die Karte locker bis zu 16*12 ertragen hat? Mach Dich bitte nicht laecherlich.
könntest du dich bitte nicht immer so künstlich aufregen? Das war nur ein Beispiel und nicht ernst gemeint!
sonst würde ich :eek: und nicht :wink:
:rolleyes:
robbitop
2009-09-03, 10:03:06
Ich hoffe ja, dass ATI endlich wieder das alte Crossfire-AA (Super-AA?) anbietet. Gleiche Performance wie Singlekarte aber dafür mit 2xRGSS. *ifonly...* :(
Ailuros
2009-09-03, 11:06:32
121Ah;7509464']er hat schon recht, vielleicht hats damals halt niemand so genau genommen - und worst case bleibt worst case, auch wenn das szenario müll ist ;)
Ich sagte nirgendens dass das 1.4x ein dumb worst case scenario ist :P
Thunder99
2009-09-03, 11:54:56
Seit doch mal ehrlich. Mit den Preisen kann man endlich wieder (kurzfristig) Geld verdienen. Dies kommt doch letztendlich uns allen gut.
dildo4u
2009-09-03, 11:59:15
http://img215.imageshack.us/img215/3795/topdx11299.jpg
http://www.xtremesystems.org/forums/showpost.php?p=3992408&postcount=385
Undertaker
2009-09-03, 12:03:10
Das klingt imho schoneinmal deutlich realistischer als die bis zu 400$ aus anderen Quellen. Irgendwo muss ja auch das Verhältnis zu den aktuellen RV770/GT200B Karten für um die 120€ passen...
reunion
2009-09-03, 12:06:23
http://img215.imageshack.us/img215/3795/topdx11299.jpg
http://www.xtremesystems.org/forums/showpost.php?p=3992408&postcount=385
Dabei könnte es sich genau so um die 5850 handeln...
dildo4u
2009-09-03, 12:07:02
Damit liegt eine X2 schon bei 550-600$ die ganzen Spekulationen wie 400$ für die 5870 sind imo Murks.
Computerbase hat nochmal zusammengefasst:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/september/preise_hd_5850_5870_x2/
Auf dem Powercolor Pic wird wohl die 5870 1GB gemeint sein. Bis jetzt sind die Preise sowieso Schall und Rauch...Ausschlaggebend sind Verfügbarkeit, nvidia und vorallem die Leistung. Das kann sich gleich in den ersten Tagen so dermaßen ändern....Mal schauen.
Ich hatte die 4870 512MB gleich am Anfang gekauft, im Einkauf war die so um die 170 Euro. Jetzt werd ich wohl auf die 5870 2GB warten. Ich freu mich drauf:-) Crysis endlich flüssig?
dildo4u
2009-09-03, 12:17:32
Dabei könnte es sich genau so um die 5850 handeln...
Da steht extra Top DX11 Karte.
Da steht extra Top DX11 Karte.
Es gibt auch "Top" Karten im Lowend. Marketing halt.
Eggcake
2009-09-03, 13:02:53
Top wär ja dann die X2 wenn man nach dem gehen würde.
Imho kann es 5850 oder auch 5870, das kommt da nicht klar hervor. Steht zwar in den News, dass es "most likely" die 5870 ist, aber wir werden sehen.
Sorkalm
2009-09-03, 13:24:10
Da steht extra Top DX11 Karte.
Ich lese immer nur "DX11 Next Generation VGA card" (oder ähnlich), nirgends "Top" oder so. Wie kommst du darauf?
Unter "DX11 Next Generation VGA card" oder selbst "High-End" würde ich alles aus der 5800-Serie verstehen. ;)
dildo4u
2009-09-03, 13:25:05
Ich lese immer nur "DX11 Next Generation VGA card" (oder ähnlich), nirgends "Top" oder so. Wie kommst du darauf?
Unter "DX11 Next Generation VGA card" oder selbst "High-End" würde ich alles aus der 5800-Serie verstehen. ;)
Überschrift.Im Text steht auch "supermodel" und "most likley to launch 5870."
Sorkalm
2009-09-03, 13:29:37
Das ist aber kein Text von PowerColor, sondern irgendjemanden, der da schon was reininterpretiert hat...
reunion
2009-09-03, 13:31:34
Das ist aber kein Text von PowerColor, sondern irgendjemanden, der da schon was reininterpretiert hat...
Eben. Von Powercolor ist nur das Bild und das in der Mitte unter Anführungszeichen.
ShadowXX
2009-09-03, 14:06:47
Eben. Von Powercolor ist nur das Bild und das in der Mitte unter Anführungszeichen.
Wobei ich bei "high end" (und das steht da ja) im Prinzip schon von der leistungsfähigsten Karte ausgehen würde.
Zu den Preisen. Ist klar das die Kuh gemolken wird solange man als erster die DX11 Karten auf den Markt wirft. 400 Dollar für das Topmodell hört sich für mich trotzdem recht happig an. Bis Nvidia die GT300 im Dezember auf den Markt wirft wirds wohl leider so bleiben. Ich warte deshalb erstmal bis Nvidia die neue Generation bringt und dann vergleiche ich mal. Ich hoffe das ATI die AF Qualität gesteigert hat, sonst hat Nvidia neben dem PhysX Vorteil wieder die AF-Quali auf der Plus-Seite. Es wird spannend...
ShadowXX
2009-09-03, 14:17:14
Zu den Preisen. Ist klar das die Kuh gemolken wird solange man als erster die DX11 Karten auf den Markt wirft. 400 Dollar für das Topmodell hört sich für mich trotzdem recht happig an. Bis Nvidia die GT300 im Dezember auf den Markt wirft wirds wohl leider so bleiben. Ich warte deshalb erstmal bis Nvidia die neue Generation bringt und dann vergleiche ich mal. Ich hoffe das ATI die AF Qualität gesteigert hat, sonst hat Nvidia neben dem PhysX Vorteil wieder die AF-Quali auf der Plus-Seite. Es wird spannend...
Ich gehe davon aus das sich die 400$ auf die 2GB Version beziehen werden (zumindest nach den ersten Mondpreisen die beim Launch üblich sind......ich hab damals für die 4870 (512MB) beim Launch auch 270 oder 280 Euro bezahlt (wobei ich kein MWSt. zahlen musste und es dadurch "nur" noch 230 waren)).
reunion
2009-09-03, 14:18:32
Wobei ich bei "high end" (und das steht da ja) im Prinzip schon von der leistungsfähigsten Karte ausgehen würde.
High-End kann alles oder nichts sein. Wenn du von der leistungsfähigsten Karte ausgehst würde eigentlich nur die X2 in Frage kommen. Es spricht IMO nichts dagegen eine 5850 als High-End zu bezeichnen. Gerade da es sich um eine Marketingaktion handelt. Es steht ja auch nur "a high-end card", nicht "the high-end card" da.
derguru
2009-09-03, 14:22:32
als ob das sicher wäre das es eine 5870 zum launch mit 2gb geben wird.bis heute war man beim release neuer karten immer erst auf sparflamme was rammenge angeht.
1gb ist bei amd sowieso ausreichend es sei den sie haben wirklich neue bq features eingebaut wo mehr ram benötigt wird.
Powercolor ihr habt erreicht was ihr wolltet,gute marketingabteilung:biggrin:
1gb ist bei amd sowieso ausreichend es sei den sie haben wirklich neue bq features eingebaut wo mehr ram benötigt wird.
Nein sind sie nicht, zumindest nicht dann wenn man Texturemods verwendet und FullHD.
na geil, jetz hab ich extra mit dem aufrüsten gewartet weil ich ne 5850 haben wollte, und jetz soll die 300 kosten..jetz kann ich ja dann doch getrost zur 4770 greifen :(
Ailuros
2009-09-03, 15:50:30
High-End kann alles oder nichts sein. Wenn du von der leistungsfähigsten Karte ausgehst würde eigentlich nur die X2 in Frage kommen. Es spricht IMO nichts dagegen eine 5850 als High-End zu bezeichnen. Gerade da es sich um eine Marketingaktion handelt. Es steht ja auch nur "a high-end card", nicht "the high-end card" da.
Bis zur Veroeffentlichung von Hemlock kann man von der Leistung her sorgenlos eine 5850 bzw. 5870 high end GPUs nennen. Ausser natuerlich man sieht eine GTX285 als Performance GPU momentan an.
reunion
2009-09-03, 16:06:36
Nochmal die Bestätigung von Fuad:
ATI to launch five 40nm DX11 GPUs: Most of them in late September
The top guy that stayed in AMD after ATI acquisition, Rick Bergman has come up with a plan how to deceive journalists and partners and try to keep the graphics plans for itself, until very close to launch. We know that some other people also claim that they invented this strategy, but a few people in AMD told us it was Bergman.
We can give him credit as he did quite a good job. We know that Evergreen is the codename for the whole generation but now we got more details. R800 dual chip is codenamed Hemlock, top single chip card is Cypress while performance runner up codename (replacement for 4850) is codenamed Juniper. Redwood is the codename for a DirectX 11 card with new 3D engine, PCIe 2.0 and UVD2.0 in 40nm and this card should replace RV740 /RV730 cards.
The slowest of new DirectX 11 cards is codenamed Cedar and all of the are sharing the same basic spec that includes DirectX 11, new 3D engine (more shaders), PCIe.2.0 and UVD 2.0, all done in the new 40nm process.
http://www.fudzilla.com/content/view/15351/1/
Tarkin
2009-09-03, 16:34:15
*ROFL*
Wieder so eine "1+1=2 Meldung" ... was kommt als Nächstes?
After 2009 comes 2010? :eek: :freak: :rolleyes:
Der Typ ist als Journalist der Witz des Jahrhunderts!
Nun, denke wenn ATI gleich an Masse liefern kann (ab 10.ten bzw. 22 September)und die vernünftigere, vor Allem klügere Variante nimmt,- dann kann auch der Preis gut und ideal für und Kunden werden und die werden Unmengen an Graka verkaufen bis NV kontert/ kontern kann...,
anders wenn nur knappe Verfügbarkeit bis weit in den Oktober gegeben ist, wollen sie wohl die Graka-Insider und Hardware Entusiasten den hohen Preis zahlen lassen, den die Karte bei knapper Verfügbarkeit erhält!!
Horn12
Wer will denn das AMD TopModell kaufen? Sicher niemand der schon eine 4870 oder dicker inne hat.
StefanV
2009-09-03, 21:26:02
Das weiß noch niemand, da noch niemand weiß, wei schnell die neuen D3D11 Teile denn nun werden ;)
nagus
2009-09-03, 21:29:02
Wer will denn das AMD TopModell kaufen? Sicher niemand der schon eine 4870 oder dicker inne hat.
sicher? niemand? da liegst du schon mal SICHER falsch weil ich eine 4870er hab und mir garantiert eine 5870er oder 5850er zulegen werde... und ich bin SICHER nicht der einzige.
und ich bin SICHER nicht der einzige.
Ja, Tarkin gibts auch noch. ;D
OK. The roadmaps I saw said GTX280, but the code names say 55nm. From that I would say that the parts are 55nm GT200b based, possibly with a little speed bump. NV has to do something, depending on where the clocks end up (I don't actually know the final clock FWIW, just hopes of where they would be), Juniper will be right on top of GT200b cards.
Basically, until NV comes out with GT300 variants, and they damn well better be fast, they have no chance. Normally, if you have a more expensive to make part, you need to charge more to make the same margins as a competitor with a cheaper part. The way you are able to charge a premium in the graphics world is to have a faster part.
NV's GT300 dies will likely cost 2x as much as Cypress, and the boards will be much more complex as well. 104 die candidates per wafer with a $5000 wafer and the rumored sub-25% yield (far sub 50% with repairables and partially functional dies), that means $5000/25 = $200/die cost for silicon only. Add say $50 cost for RAM, and (lets be generous) $25 for everything else, and you are at $275 for the cost of a GT300.
If that part ties a hypothetical low end Cypress for performance, and the Cypress costs $299, NV will have to sell the part for $299 as well. If it ties a high end Cypress, they can charge $399 or so. If it beats the pants off the Cypress, they can charge whatever they want for it. I _REALLY_ doubt it will beat the high end Cypress, and that is more than a guess.
If NV only wants 15% profit, and the AIBs only want 15%, and the retailer want the same, you are looking at $275 x 1.45 = 398.75. Lets call it $399, and pretend the 15% number is off the base cost, not off the last guy in the chain.
Anything less than about a $400 cost, and someone is eating money. In fact I would bet that both TSMC and NV are going to eat money on the part, which is why they are going to do a PR showing, then nothing more for a long time until they get costs down.
That is why they are banking on the GT200 variants. Then again, those cards are selling for between $170 and $350 now, but in a week or four that is going to crater to likely sub-$150 for the 'high' end. Given that kits for those parts were selling for $120 last time I looked several months ago, this is going to be ugly at the best of times.
Nvidia is looking at trying to compete on price with a mid-range ATI part using their highest end part. If ATI prices Juniper at $150 or so, NV is in a world of hurt. If they price it at $99, NV can't make money.
-Charlie
Tarkin
2009-09-03, 22:01:34
Ja, Tarkin gibts auch noch. ;D
Oh ja, darauf kannst du Gift nehmen... mein alter PC ist schon verkauft.
Ich stelle mir ein brandneues Phenom II + DX11 Radeon zusammen :heart: :D
Oh ja, darauf kannst du Gift nehmen... mein alter PC ist schon verkauft.
Ich stelle mir ein brandneues Phenom II + DX11 Radeon zusammen :heart: :D
geht doch in ordnung :D
AMD braucht so leute wie dir und/oder Horn :D ;D
mfg hihihihi
Na meine 4870 ist auch schon so gut wie verkauft.. Ich warte auf die 5870. Will eben nur noch abwägen ob 1 oder die 2GB, zu der ich eher tendiere. Vielleicht passt ja auch mein Wakükühler, das wäre perfekt!
Eggcake
2009-09-03, 22:18:08
Nachfrage ist sicherlich da. Wenn noch dazu alles so funktioniert wie angekündigt (u.a. auch verbessertes Powerplay), dann steht einer neuen Grafikkarte nichts mehr im Wege.
y33H@
2009-09-03, 22:20:21
Was willst du an PP 2.0 noch groß verbessern? Einzig der Bug mit dem MC in Kombination mit dem GDDR5 muss weg.
Eggcake
2009-09-03, 22:53:00
Mir Wurscht wie oder was verbessert wird, aber ein niedrigerer Idleverbrauch wäre nicht verkehrt - 50-60 Watt wenn nix gemacht wird find ich doch etwas viel.
Na wenn die aufgetauchten 30-40Watt wirklich stimmen passt das schon! Mir ist eher wichtig das sie leise sind. Da bin ich mal gespannt..
CrazyIvan
2009-09-03, 23:29:26
Die 25 Watt, welche nV damals mit der 280 hinbekommen haben, sollten sie schon ernsthaft anvisieren. Alles darüber ist nicht mehr zeitgemäß und vor allem abseits des Enthusiastbereichs ein gewichtiger Faktor bei der Kaufentscheidung.
Naja die 25W waren damals nur der Grafikchip selber. Insgesamt waren es dann so um die 35W.
Fragt sich nur ob nun die ganze Karte mit 30-40W gemeint ist oder nur der Chip alleine.
Arma II: 5870: (59) 285: (37)
RE5 Benchmark: 5870: (133.4) 285: (93.9)
Fallout 3: 5870: (92.2) 285: (59)
Far Cry 2 : 5870: (63.8) 285: (49.6)
Crysis: 5870: (58.9) 285: (41.8)
L4D: 5870 (101.4) 285: (70.3)
Stalker CS: 5870 (45.1) 285: (35.9)
So ungefähr könnte es aussehn (aus dem Hardforum)
mapel110
2009-09-04, 03:23:06
Imo unglaubwürdige Zahlen. Allein Armed Assault ist würde ich sagen viel zu CPU-Abhängig für diese Steigerung.
Sind ja auch nur theoretische Settings (~60% mehr als GTX285) das kommt dem realen Werte sehr nahe.
N0Thing
2009-09-04, 04:37:39
Imo unglaubwürdige Zahlen. Allein Armed Assault ist würde ich sagen viel zu CPU-Abhängig für diese Steigerung.
Muß nicht sein, in den mir bekannten Benchmarks zu AMRA2 schneiden die ATI-Karten deutlich besser ab als sonst. Link zu hardocp (http://www.hardocp.com/article/2009/08/10/arma_ii_gameplay_performance_image_quality/1)
Arma II: 5870: (59) 285: (37)
RE5 Benchmark: 5870: (133.4) 285: (93.9)
Fallout 3: 5870: (92.2) 285: (59)
Far Cry 2 : 5870: (63.8) 285: (49.6)
Crysis: 5870: (58.9) 285: (41.8)
L4D: 5870 (101.4) 285: (70.3)
Stalker CS: 5870 (45.1) 285: (35.9)
So ungefähr könnte es aussehn (aus dem Hardforum)
Fake:
http://forum.beyond3d.com/showpost.php?p=1329964&postcount=2223
Exxtreme
2009-09-04, 13:02:42
Der Offtopic-Spam hört jetzt auf oder der Thread ist dicht und einige Leute in einer längeren Forenpause!
KonKorT
2009-09-04, 14:27:39
Es scheint, als habe Cypress 1600 SPs und setzt auf ein 256 Bit breites Speicherinterface mit bis zu 1,25 GHz schnellem GDDR5.
http://www.semiaccurate.com/2009/09/03/and-cypress-shader-count/
http://www.hardware-infos.com/news.php?news=3176
Sorkalm
2009-09-04, 14:31:19
Also die Shaderanzahl hat Ail eigentlich schon verraten. :tongue:
Und die kommen wohl mit 625 MHz Coretakt auf 2 TFlops auf einer 5850. Stellt sich nur noch die Frage, wie schnel diese 2 TFlops sind, also ob sich an der Effizienz was gedreht hat. :)
w0mbat
2009-09-04, 14:36:09
Vielleicht sogar etwas mehr als 625MHz auf der HD5850 ;)
LovesuckZ
2009-09-04, 14:46:56
Es scheint, als habe Cypress 1600 SPs und setzt auf ein 256 Bit breites Speicherinterface mit bis zu 1,25 GHz schnellem GDDR5.
http://www.semiaccurate.com/2009/09/03/and-cypress-shader-count/
http://www.hardware-infos.com/news.php?news=3176
Würde man das ganze Zeug über nVidia rausstreichen, könnte er seine "News" auch als Twitter-Meldung veröffentlichen...
Aber witzig ist, dass die ganze Industrie Zweifel gehabt hätte, ob TSMC einen doppelten rv770 produzieren könnte... Man muss echt Glück haben, dass sie es schaffen können.:freak:
ich würde diese Dinge aber ganzschön mit vorsicht genießen. rv870 hat sehr wenig mit rv770 zutun, von einer shaderzahl, noch dazu vergleichbarer leistung pro shader oder soetwas auszugehen halte ich daher für sehr vage.
Bei RV770 hatten wir hier bis zwei wochen vor launch auch die zahl 480 bzw. 640 als eindeutig angesehen und dann hat amd uns aber ganzschön überrascht.
Jedenfalls scheint der rv870 sehr sparsam zu sein, eventuell sogar sparsamer als der rv770. Sowohl das Kühlsystem auf den bisher veröffentlichten Fotos, als auch diese News lassen darauf schließen dass der RV870 nicht mehr, eher weniger Leistung aufnimmt wie der rv770:
ATI is preparing a mobile DirectX 11 GPU codenamed Broadway. This should be the fastest mobile gamer and workstation card in DirectX 11 flavour and you can expect 30 to 60W TPD.
Das es sich bei Broadway um Cypress/Juniper handelt ist ziemlich eindeutig, gibt es doch neben ihm noch Madison und Park, bei denen es sich höchstwahrscheinlich um die kleineren Chips Redwood und Cedar handelt.
Der RV770 hat einige Zeit gebraucht um in den mobilen Bereich zu gelangen, aber beim rv870 scheint das weniger ein problem zu sein.
sicherlich sind die mobilchips selektierte chips, aber selbst in der theorie unterscheiden sie sich nicht mehr als 50% von den desktopboliden und in der praxis wie wir wissen noch viel weniger.
wenn broadway juniper ist und 30-60Watt hat, dann hat juniper höchstens 50-110watt.
1600shader ähnlich wie beim rv770 nur mit dx11 und somit "fetter", kann mit einem seitenblick auf den ebenfalls in 40nm gefertigten rv740 gar nicht hinkommen. Die TDP wäre dann eine ganz andere und mobilchips von juniper/cypress undenkbar...
ich lese jetzt hier von einer trennung von juniper und cypress.
da shalte ich für völlig falsch.
juniper, cypress, redwood und cedar sind SKUs, keine CHIPs!
da cypress die 5870 wird und juniper das followup, wird juniper wohl auf demselben chip basieren, alles andere ist extrem unwahrscheinlich.
der cypresschip ist ja auch basis für hemlock, eine dualchip-sku.
Da es immer chips gibt, die unterschiedlich gut laufen, wird ATI mit Sicherheit selektieren und mehrere Preisbereiche mit einem chip abdecken.
Was für einen Sinn würde es machen, die schlechten chips auf einer dualchipkarte zu verbauen, wo bei ihr doch das powerbudget von so ungeheurer wichtigkeit ist?
Was für einen Sinn würde es machen, die schnellste singleGPU Karte Cypress mit schlechteren chips auszustatten als das dualchipmodell?
Das macht alles keinen Sinn.
Daher ist Juniper mit Sicherheit wie in den letzten generationen auch (3850,4850) ein in Speicher und Takt, eventuell auch ein wenig Einheiten kastrierter Cypress. Niemand würde jedoch soweit gehen einen 1600shaderchip zu halbieren, wenn die yields doch so gut sind, daher kann man davon ausgehen, dass juniper deutlich näher an cypress liegt als bisher vermutet.
Juniper ist eine andere SKU, aber kein anderer Chip als RV870/Cypress!
Da die 1600shader Erzählung aus derselben Quelle stammt ist das ebensowenig glaubwürdig, Juniper mit halbierter shaderzahl ist jedenfalls absoluter B$!
Eggcake
2009-09-04, 15:42:27
Also entweder Juniper != 5850 oder hardwareinfo schreibt Müll - 128Bit für die 5850 ist wohl undenkbar, ebenfalls nicht die 800 Einheiten...
StefanV
2009-09-04, 15:48:45
Sollte Juniper nicht das Mid Range Modell sein, ähnlich heute die HD4770??
ALso 800 Shader, 128bit Speicherinterface??
Die HD4770 hat ja AFAIR auch schon 640 Shader und ein 128bit INterface mit GDDR-5 SDRAM...
reunion
2009-09-04, 15:50:12
Es sind definitiv verschiedenen Chips, mit Ausnahme von Hemlock, der hat natürlich zwei Cypress. Aber für den verwendete AMD in der Vergangenheit auch immer einen eigenen Codenamen.
Eggcake
2009-09-04, 16:11:58
Mh also wenn ich hier im Thread bisl zurückgehe und Chiphell richtig in Erinnerung habe war Juniper doch 5850?
Wobei die Specs für eine kleine Version durchaus stimmen könnten (57xx oder 56xx).
LovesuckZ
2009-09-04, 16:40:28
Nein, Juniper sollte rv830/840 und somit 5670 oder so sein. Cypress ist rv870 und wird auf 5850/5870 verbaut. Es kann natürlich sein, dass es nur den rv870 gibt und dann die einzelnen Ausprägungen in Form der Karten als Juniper, Cypress und Hemlock bezeichnet wird.
Mh also wenn ich hier im Thread bisl zurückgehe und Chiphell richtig in Erinnerung habe war Juniper doch 5850?
Wobei die Specs für eine kleine Version durchaus stimmen könnten (57xx oder 56xx).
Nein. Die 5850 wird mit Sicherheit wieder ein langsam getakteter Cypres. Juniper erstzt RV740 und damit die 4770.
Eggcake
2009-09-04, 16:47:17
Achso, dann hab' ich das falsch gelesen. Hatte nur Juniper = 5850 in Erinnerung, weshalb mir die Werte äusserst merkwürdig vorkamen. So passts wohl.
w0mbat
2009-09-04, 17:03:41
Ich denke dass es wie bisher auch dieses Mal folgende Chips geben wird:
ATI Evergreen Series
R800 (2*RV870) aka Hemlock aka HD5870 X2
RV870 aka Cypress aka HD5870 & HD5850
RV830 aka Juniper aka HD5670 & HD5650
RV810 aka Cedar aka HD5450 & HD5430
RV8xx IGP = HD5200 (880G) & HD5300 (890GX)
reunion
2009-09-04, 17:10:08
Fehlt noch Redwood. :)
Laut aktuellen Gerüchten soll sich der zwischen Juniper und Cedar einordnen. Und der IPG-Chip wird ziemlich sicher ein Cedar/RV810.
aylano
2009-09-04, 17:27:26
800Shader für mainstream kommt mir recht viel vor.
Früher
RV610 - 3mal - RV630 - 2,66mal - RV600
RV710 - 4mal - RV730 - 2,50mal - RV770
RV810 - 5mal? - RV830 - 2,0 mal - RV870 mit
160 - 800 - 1600 Shadern ???
Irgendwie kommt mir Juniper mit 800 Shader komisch vor, weil auch 180mm² für mainstream recht groß ist. (Oder RV870 hat doch mehr alias 2000)
RV8xx IGP = HD5200 (880G) & HD5300 (890GX)
Die werden aber höchstwahrscheinlich nicht DX11 haben.
IGPs mit neuer DX kamen immer so 9-12 Monate nach den Grafikkarten auf dem Markt.
reunion
2009-09-04, 17:31:27
Es wird diesmal wohl auch vier und nicht drei Chips geben, dann passt das schon. So könnte man die Chips jeweils um die Hälfte schrumpfen:
Cypress: 1600SPs
Juniper: 800SPs
Redwood: 400SPs
Cedar: 200SPs
Wobei 200SPs für den Lowend-Chip wohl etwas zu viel sind.
aylano
2009-09-04, 17:42:08
Es wird diesmal wohl auch vier und nicht drei Chips geben, dann passt das schon.
Und wo ist der Wirtschaftliche Sinn dahinter?
Da hätte sie gleich einen 400-500mm² High-End-GPU machen können statt 2 mainstream-GPUs.
reunion
2009-09-04, 17:45:51
Und wo ist der Wirtschaftliche Sinn dahinter?
Da hätte sie gleich einen 400-500mm² High-End-GPU machen können statt 2 mainstream-GPUs.
Lücken schließen/verkleinern? Zwischen einer 4850 und eine 4670 liegen Welten. Bei 4650/4570 ebenso. Teildeaktivierte Chips sind teuer. Es gibt ja jetzt mit RV740 auch vier Chips obwohl die Preise schon verdammt niedrig sind.
Es scheint, als habe Cypress 1600 SPs und setzt auf ein 256 Bit breites Speicherinterface mit bis zu 1,25 GHz schnellem GDDR5.
http://www.semiaccurate.com/2009/09/03/and-cypress-shader-count/
http://www.hardware-infos.com/news.php?news=3176
Die Quelle ist Charlie? Naja, darauf darf man mal nicht zu viel geben.
Thunder99
2009-09-04, 17:58:21
Also ist nun das Gerücht/Vermutung widerlegt, dass
Cypress = 2x Juniper
ist? Keine 2Chips auf einem Trägermaterial?
Teildeaktivierte Chips sind teuer.
Aber notwendig.
Es wird diesmal wohl auch vier und nicht drei Chips geben, dann passt das schon.
Auf der HD4 gibt es 5 Chips und einen Testchip. (RV620, RV710, RV730, RV770, RV790 und RV740)
RV740 macht nur Sinn, durch das Ersetzten des RV770 mit RV790, um die Lücke zu schliessen.
Bekannterweise ist das nicht geschehen, der Sinn des RV740 ist nur sinnvoll durch die 40nm statt 55nm Fertigung oder als 40nm Testlauf.
Wenn du eine neue Generation heranziehst, solltest du nicht stumpf alle Chips der alten zusammenzählen.
Eggcake
2009-09-04, 18:03:30
Wäre es nicht möglich, dass:
Cypress = Pendant zu 48xx (derzeit: 800 SPs, neu: 1600 SPs)
Juniper = Pendant zu 47xx (derzeit: 640 SPs, neu: 800 SPs)
Redwood = Pendant zu 46xx (derzeit: 320SPs, neu: 400 SPs [??])
Cedar = Pendant zu 43xx/45xx (derzeit: 80SPs, neu: <200 SPs [??])
Ich habe hierzu Wiki als Quelle herangezogen. Wenn man sich folgendes (http://de.wikipedia.org/wiki/ATI-Radeon-HD-4000-Serie#Modelldaten)anschaut, so kann man, wenn man nach den SPs geht durchaus auch 4 gröbere Stufen ausmachen (800/640/320/80, X2-Varianten mal ausgenommen).
Excelskillz engage:
http://s7.directupload.net/images/090904/temp/bm3a4l6p.png (http://s7.directupload.net/file/d/1907/bm3a4l6p_png.htm)
Sowas...möglich, oder? :>
Nein. Die 5850 wird mit Sicherheit wieder ein langsam getakteter Cypres. Juniper erstzt RV740 und damit die 4770.
Laut Fudo ist Juniper die 5850
Fudo gegen Charlie, ich weiß nicht wem ich da eher trauen sollte. aber bei dem ganzen schwachsinn was charlie da immoment verzapft sollte es mich nicht wundern wenn Fudo recht behält.
http://www.fudzilla.com/content/view/15351/34/
Nochmal zu erinnerung, Hemlock, Cypress, Juniper, Redwood und Cedar sind Codenamen für Karten, also SKUs, nicht für Chips. Bei der allgemeinen Einstellung von AMD jeden Chip in mindestens drei SKUs zu verbauen sollte es mich wundern, wenn sie für jede SKU diesmal tatsächlich einen diskreten chip geschaffen hätten.
Fehlt noch Redwood. :)
Laut aktuellen Gerüchten soll sich der zwischen Juniper und Cedar einordnen. Und der IPG-Chip wird ziemlich sicher ein Cedar/RV810.
Eben, das wäre ein chip zuviel des guten. Glaube kaum dass sich AMD das traut in der derzeitigen wirtschaftlich angeschlagenen Lage, zumal das Lineup der Konkurrenz noch in den sternen steht und man den vierten chip da lieber ala rv740 später nochmal dazwischen schiebt wo es am besten passt.
Lücken schließen/verkleinern? Zwischen einer 4850 und eine 4670 liegen Welten. Bei 4650/4570 ebenso. Teildeaktivierte Chips sind teuer. Es gibt ja jetzt mit RV740 auch vier Chips obwohl die Preise schon verdammt niedrig sind.
Nein, teildeaktivierte Chips sind nicht teuer, sondern notwendig. Würde AMD keine 4850 haben, so müssten sie auf Takt bei der 4870 verzichten und sie billiger anbieten. hätten sie keine 4830 würde man die ganzen teildefekten chips wegschmeißen müssen.
das geschäft mit teildefekten chips ist super, was man auch an den niedrigen gpupreisen dieser chips sieht, denn die yieldrate gibt an, welche chips sich für die hauptsku (4870) eignen, der rest ist ein bonusgeschäft, dass sich amd nicht entgehen lassen wird.
hemlock ist ja auch kein extrachip, sondern nur eine SKU, glaube daher nicht dass es bei Juniper anders sein sollte, das wäre einfach zu unlike AMD.
Eggcake
2009-09-04, 18:31:04
Mh stimmt...irgendwie hört man überall was anderes...wohl abwarten angesagt.
reunion
2009-09-04, 18:34:58
hemlock ist ja auch kein extrachip, sondern nur eine SKU, glaube daher nicht dass es bei Juniper anders sein sollte, das wäre einfach zu unlike AMD.
Die Dual-GPU-Variante hatte aber schon immer einen eigenen Codenamen.
>>>Cedar: 200SPs
Das ist aber schlecht teilbar: 40 Vec5 ALUs? Wieviele SIMDs sollen das werden?
StefanV
2009-09-04, 19:55:43
Das ist nicht schlecht teilbar, 5 x 40 sind 200.
Ailuros
2009-09-04, 20:04:42
Das ist nicht schlecht teilbar, 5 x 40 sind 200.
2.5 cluster also?
crux2005
2009-09-04, 20:05:32
in einem SIMD sind 80 "SPs" also 2,5 SIMDs... sollte machbar sein
Eggcake
2009-09-04, 20:08:33
Die 200 sind ja auch nur mal als Grössenordnung in den Raum geworfen. Ziemlich sicher weniger...
@Ail
Ist nun Juniper = 5850 oder "RV840" (o.ä.)? Kannst du was dazu sagen?
Ailuros
2009-09-04, 20:12:06
in einem SIMD sind 80 "SPs" also 2,5 SIMDs... sollte machbar sein
Ergo 16+16+8? Interessant aber wieso so umstaendlich? Man geht einfach von 1 cluster der vorigen Generation auf 2 bei X11 und funkelt ein bisschen am Takt und schon gut ist es. Ausser natuerlich es waeren 20-er SIMDs wobei dann aber wieder die 1600 These nicht mehr hinhaut :P
Ailuros
2009-09-04, 20:15:48
@Ail
Ist nun Juniper = 5850 oder "RV840" (o.ä.)? Kannst du was dazu sagen?
Juniper ist afaik mainstream.
Afaik:
CypressXT = 5870
CypressPRO = 5850
JuniperXT
JuniperPRO
CedarPRO
CedarLE
Eggcake
2009-09-04, 20:18:10
Im moment zitiert jeder Fudzilla ( http://www.pcgameshardware.de/aid,694291/Namensgebung-fuer-DirectX-11-Grafikkarten-angeblich-bestaetigt/Grafikkarte/News/ ), welcher was völlig anderes behauptet :S
crux2005
2009-09-04, 20:39:46
Ergo 16+16+8? Interessant aber wieso so umstaendlich? Man geht einfach von 1 cluster der vorigen Generation auf 2 bei X11 und funkelt ein bisschen am Takt und schon gut ist es. Ausser natuerlich es waeren 20-er SIMDs wobei dann aber wieder die 1600 These nicht mehr hinhaut :P
klar, 2 SIMDs und gut is für low-end
mehr als das die 200 SPs machbar wären, wollte ich auch nicht sagen ;)
>>>Das ist nicht schlecht teilbar, 5 x 40 sind 200.
400x0,5 auch. Stellst du dich so dumm?
Gipsel
2009-09-04, 21:36:37
2.5 cluster also?
Nee, 5 SIMDs mit je acht VLIWs (5 ALUs). RV730 (generell die kleinen Chips) hat ja auch 8 so aufgebaute SIMDs und nicht 4 wie RV670 ;) Beide kommen damit auf 320 SPs.
Also unmöglich ist das nicht.
aylano
2009-09-04, 21:49:51
Lücken schließen/verkleinern? Zwischen einer 4850 und eine 4670 liegen Welten. Bei 4650/4570 ebenso. Teildeaktivierte Chips sind teuer. Es gibt ja jetzt mit RV740 auch vier Chips obwohl die Preise schon verdammt niedrig sind.
Zwischen HD 4870 & HD 4870 X2 liegen auch Welten, aber man kann nicht überall neue Chips dazwischen machen.
(Bzw. genau da hätte sie eine High-End-Single-GPU zwischen HD 4870 & HD 4870 X2, aber sie haben eben aus Wirtschaftlichkeitsgründen diesen gestrichen und stattdessen auf eine Performance-GPU gesetzt, die man zu zweit als High-End-Karte nützen kann.)
So wie der High-End im Stromverbrauch & Die-Größe in den letzten Jahren gestiegen sind, sind auch die Lücken gestiegen.
Auf der HD4 gibt es 5 Chips und einen Testchip. (RV620, RV710, RV730, RV770, RV790 und RV740)
Beim Start gab es RV770 und AFAIK 3 Monate später RV710 & RV730.
(RV620 zähle ich nicht mit, da er wennschon nur Formal irgendwo auftaucht)
RV740 war zwar ein Chip, füllte keine Lücke und wurde knapp unter HD4850 gedrängt.
Der RV740 ist als 40nm-Test-Chip zu sehen, wobei dieser wahrscheinlich ATI viel geholfen hat.
RV790 ... kam fast 1 Jahr nach RV770 und er ist bis auf die Overclocking-Features excakt wie RV770 und wurde etwas über RV770 angesetzt.
Sowas gabs AFAIK auch noch nie und somit kann man auch diesen als Test-Chips für neue Technologie sehen. Vorallem, wenn RV8x0 durch 40nm sich nicht verzögert hätte, dann wäre er eh bald von RV8x0 abgelöst worden.
Also, ich erwarte mir wieder 3 GPUs (RV870 in September, RV810 & RV830 in November) bis es zu 32nm geht.
rv790 ist dieselbe aktion wie damals beim r300-r350.
im prinzip derselbe chip, nur mit den transistoren wneiger gegeizt um das taktbudget zu steigern. im endeffekt aber keine lohnenswerte sache und wieder nur marginale verbesserungen. ich meine die 9800pro und selbst xt waren gegenüber der 9700pro ja auch kein wirklicher fortschritt, die zeit hätte ati besser nutzen können...
sklave_gottes
2009-09-05, 00:38:44
rv790 ist dieselbe aktion wie damals beim r300-r350.
im prinzip derselbe chip, nur mit den transistoren wneiger gegeizt um das taktbudget zu steigern. im endeffekt aber keine lohnenswerte sache und wieder nur marginale verbesserungen. ich meine die 9800pro und selbst xt waren gegenüber der 9700pro ja auch kein wirklicher fortschritt, die zeit hätte ati besser nutzen können...
und r420 sowie r480
ati/amd hat das schon sehr oft gemacht
mfg martin
Nightspider
2009-09-05, 00:53:57
Nurnoch 5 Tage dann beginnt die Schlacht *Hände reib* :freak:
ShadowXX
2009-09-05, 01:29:26
Nurnoch 5 Tage dann beginnt die Schlacht *Hände reib* :freak:
Ich glaube aber nicht das wir an dem Tag wirklich aussagekräftige Benchmarks zu sehen bekommen, sondern nur geschönte AMD-Folien (und bevor es jemand sauer aufstösst: nV würde genauso handeln).
Nightspider
2009-09-05, 01:59:19
Ich glaube aber nicht das wir an dem Tag wirklich aussagekräftige Benchmarks zu sehen bekommen, sondern nur geschönte AMD-Folien (und bevor es jemand sauer aufstösst: nV würde genauso handeln).
Egal, hauptsache die Schlacht beginnt. :freak:
=Floi=
2009-09-05, 02:06:02
die schlacht ist doch vorher schon entschieden! :D
Nightspider
2009-09-05, 02:18:08
Ich weiß. ^^
Aber lass doch den Spannungsbogen erstmal entstehen. :popcorn:
derguru
2009-09-05, 02:54:38
was für eine schlacht?für eine schlacht gehören minimum 2.:wink:
aylano
2009-09-05, 03:29:27
rv790 ist dieselbe aktion wie damals beim r300-r350.
Nö, RV350 war mit 130nm & mit weniger Pipelines deutlich kleiner als RV300 mit 150nm.
RV790 hatte den RV770+OC-Transistoren im selben 55nm und war somit größer und nicht kleiner wie oben R300-R350
und r420 sowie r480
R420 war für AGP und R480 war für PCIe.
Sie wie es aussieht, waren sie die selben Chips aber je einen für AGP & PCIe und somit haben sie ihren Sinn.
Und nicht so wie RV790, der nur etwas mehr Speed hat als RV770 trotz gleichen Kern & Fertigung, aber mit Beschleunigungs-Maßnahmen alias Overclock-Transistoren.
Ailuros
2009-09-05, 06:24:07
Nee, 5 SIMDs mit je acht VLIWs (5 ALUs). RV730 (generell die kleinen Chips) hat ja auch 8 so aufgebaute SIMDs und nicht 4 wie RV670 ;) Beide kommen damit auf 320 SPs.
Also unmöglich ist das nicht.
Tatsaechlich; ich hab leider die bloede Angewohnheit es oefters zu vergessen.
was für eine schlacht?für eine schlacht gehören minimum 2.:wink:
Die Frage ist nicht ob NV reagieren wird, sondern wann und wie.
was für eine schlacht?für eine schlacht gehören minimum 2.:wink:
AMD wird jetzt erstmals seit 3 Jahren FPS mäßig an der Konkurrenz vorbeiziehen. Die BQ steht noch in den Sternen.
AMDs Produkte werden sich an den bisherigen Produkten messen müssen, sowohl HD4 als auch GF200.
sklave_gottes
2009-09-05, 10:27:59
Nö, RV350 war mit 130nm & mit weniger Pipelines deutlich kleiner als RV300 mit 150nm.
RV790 hatte den RV770+OC-Transistoren im selben 55nm und war somit größer und nicht kleiner wie oben R300-R350
R420 war für AGP und R480 war für PCIe.
Sie wie es aussieht, waren sie die selben Chips aber je einen für AGP & PCIe und somit haben sie ihren Sinn.
Und nicht so wie RV790, der nur etwas mehr Speed hat als RV770 trotz gleichen Kern & Fertigung, aber mit Beschleunigungs-Maßnahmen alias Overclock-Transistoren.
sorry meinte r423 und r480
r420 und r423 waren die selben chips.(einer agp der andere pci-e)
r480 kam viel später und hat die karten x850xt(PE) gebracht
http://www.pc-erfahrung.de/grafikkarte/vga-grafikchips-desk/radeon-x-serie/ati-radeon-x850.html
und dann gibs da noch r350(9800pro) sowie r360(9800xt)
es wurde also schon öfters gemacht.#
so genug ot von mir sorry nochmal
mfg martin
aylano
2009-09-05, 15:18:26
@sklave_gottes
Stimmt, es wurde schon öfters gemacht. (Das war vor meiner Zeit und ich hatte es übersehen)
Auffällig, diese "neuen" GPUs kamen immer ca. 6 Monate später.
Mit R300-->R350-->RR360 wurden jedesmal die Takte massive erhöht.
Aber R423 --> R480 hatte nur einen geringen Taktsprung.
(Vielleicht hatte man sich vorher eine gerößere Taktsteigerung wie die R-3x0-Serie erhofft.)
Also, wenn ATI jedesmal eine "neue" GPU, die es schon exakt gab, rausgibt, dann gab es (große) Taktsteigerungen.
Dazu hatte die nächste Generation immer einen "deutlich" höheren Takt als die Vorgänger-Generation.
Aber die 7x0-Serie hat zwei Ausnahmen.
Erstens, RV790 hatte ebenfalls eine Taktsteigerung, aber mit zustätzlichen OC-Transistoren.
Zweitens, die 7x0-Serie hatte keinen höheren Takt halt die 6x0-Serie.
Vielleicht hatte die 7x0-Serie aufgrund der deutlich gestiegenen Packdichte keinen höheren Takt.
Komisch ist, wäre der RV870 ohne 40nm-Probleme Mitte 2009 am Markt gekommen, dann hätte der rV790 überhaupt keinen Sinn, da die RV870 deutlich effizienter & Schneller wäre.
Also, entweder wusste ATI schon recht lange über die 40nm-Probleme und schiebte schnell eine RV790 rein (Geht das doch nicht, oder?), oder na ja, keine Ahnung.
Sehr komisch der RV790.
Mal eine Spekulation zum RV870-Takt.
Wenn man annimmt, die Nachfolgergeneration hat wieder wie üblich einen deutlich höheren Takt im Verlgeich zum Vorgänger und RV7x0 war wegen der Packdichte nur eine Ausnahmen, dann sollte
RV870 ... 850-900Mhz ohne OC-Transistoren.
Aber eigentlich bezog sich das immer auf die schnellste GPU der letzten Generation und somit sollte eigentlich
RV870 ... 950-1000 Mhz mit OC-Transistoren.
Aber ich kann mir nicht ganz vorstellen, dass die 40nm-Fertigung nur Yield-Probleme hat und somit eventuell RV870 niedriger getakteta als geplant daherkommt (,aber das sollte auch für den GT300 gelten)
Unschlüssig bin ich beim RV790, der vielleicht planmäßig mit den RV870 hätte "kommen hätte sollen" und somit kann ich mir die OC-Transistoren im RV870 nicht vorstellen.
Wahrscheinlich ist RV790 ein Test-Chip und die OC-Transistoren kommen mit der nächsten Serie (schon 32nm?) oder hm auch nicht.
Armaq
2009-09-05, 16:49:11
Was sind bitte OC-Transistoren?
Was sind bitte OC-Transistoren?
Damit ist wohl die Differenz zwischen RV770 und RV790 gemeint. RV790 ist doch RV770 mit kleineren Änderungen und einem Entstörkondensator-Ring.
>>>Mit R300-->R350-->RR360 wurden jedesmal die Takte massive erhöht.
Aber R423 --> R480 hatte nur einen geringen Taktsprung.
325 -> 380 -> 412 MHz (22 MHz/~5% nenne ich nicht "massiv")
400 -> 540 MHz dagegen sehr wohl (R423 -> R480); was du meintest, war wohl R420 -> R480. Beim R423 hatte Ati mächtige Probleme mit dem 110nm-Prozess.
>>>Wenn man annimmt, die Nachfolgergeneration hat wieder wie üblich einen deutlich höheren Takt im Verlgeich zum Vorgänger und RV7x0 war wegen der Packdichte nur eine Ausnahmen
R520 (90nm): 625 MHz
R580 (90nm): 650 MHz
R600 (80nm): 740 MHz
RV670 (55nm): 775 MHz
RV770 (55nm): 750 MHz
RV790 (55nm): 850 MHz
Eine besondere Regelmäßigkeit sehe ich da nicht; erst in der dritten 55nm-Generation, beim RV790, gabs einen Sprung, der in etwas Vergleich mit DX9 -> DX10 war.
StefanV
2009-09-05, 18:01:33
Was sind bitte OC-Transistoren?
Damit sind Transistoren gemeint, die eingebaut wurden, um den Takt des Chips zu steigern, ansonsten keien weitere Funktion haben.
aylano
2009-09-05, 18:04:54
Eine besondere Regelmäßigkeit sehe ich da nicht
Schau dir mal die Taktrate ab R300.
nagus
2009-09-05, 19:17:38
...
Komisch ist, wäre der RV870 ohne 40nm-Probleme Mitte 2009 am Markt gekommen, dann hätte der rV790 überhaupt keinen Sinn, da die RV870 deutlich effizienter & Schneller wäre.
Also, entweder wusste ATI schon recht lange über die 40nm-Probleme und schiebte schnell eine RV790 rein (Geht das doch nicht, oder?), oder na ja, keine Ahnung.
Sehr komisch der RV790.
...
der rv790 war bestimmt für 6 monate nach rv770 als refresh eingeplant. dann hat man gesehen, wie gut sich die rv770 verkauft und kein schneller refresh notwendig ist (und/oder) bemerkt, dass man sich mit dem rv870 noch zeitlassen kann oder muss und hat den start des rv790 einfach um 3 moante nach hinten verschoben.
... dazu kommt, dass windows 7 mit dx11 sowieso auch noch nicht verfügbar war.
wäre denkbar...
Der_Korken
2009-09-05, 20:40:08
Schau dir mal die Taktrate ab R300.
R300 (150nm): 325 Mhz
R350 (150nm): 380 Mhz
R360 (150nm): 412 Mhz
R420 (130nm): 520 Mhz
R480 (130nm): 540 Mhz
R423 (110nm): 400 Mhz
R520 (90 nm): 625 Mhz (700Mhz)
R580 (90 nm): 650 Mhz
R600 (80 nm): 745 Mhz
RV670 (55nm): 775 Mhz
RV770 (55nm): 750 Mhz
RV790 (55nm): 850 Mhz
Ich sehe da jetzt nichts besonderes dran. Alles ziemlich unregelmäßig.
aylano
2009-09-05, 21:00:18
Ich sehe da jetzt nichts besonderes dran. Alles ziemlich unregelmäßig.
R420 = R423
R300 (150nm): 325 Mhz
R350 (150nm): 380 Mhz
R360 (150nm): 412 Mhz
R420/R423 (130nm): 520 Mhz
R480 (130nm): 540 Mhz
R520 (90 nm): 625 Mhz
R580 (90 nm): 650 Mhz
R600 (80 nm): 745 Mhz
RV670 (55nm): 775 Mhz
RV770 (55nm): 750 Mhz
RV790 (55nm): 850 Mhz
Also, die Fettmarkierten sind die Generationen-Wechsel mit großen Sprüngen (bis wie schon erwähnt auf 600-->700)
R350 & R360 & RV790 sind die selben GPUs in selber Fertigungsgröße, aber mit höheren Takt.
RV670 ist wegen dem misslungenen R600 ein Shrink.
R430 ist zwar ein Shrink, aber mit geringeren Mhz. Dafür wurde R480 gleichzeitig!!! mit höheren Mhz-Zahlen eingeführt.
Also, jetzt sieht man fast 100Mhz Sprünge zwischen den Generationen-Wechsel.
Ailuros
2009-09-05, 21:05:59
Ja und? Wenn Cypress tatsaechlich 320 ALUs haben sollte wie jedermann andeutet wird die Frequenz wohl schwer ueber RV770 liegen. Ausser natuerlich dass der Stromverbrauch total egal sein sollte.
***edit: ja natuerlich war RV790 ein geplanter Zwischenschieber fuer RV770 <-> Evergreen; aber stets von Anfang an auf 55nm.
... dazu kommt, dass windows 7 mit dx11 sowieso auch noch nicht verfügbar war.
D3D 11 läuft auch auf Vista SP2.
aylano
2009-09-05, 21:28:28
Ja und?
Das ist eine Spekulation auf eine mögliche Taktrate für RV870, eben mit der Sichtweise wie es in der Vergangenheit gelaufen ist.
... wird die Frequenz wohl schwer ueber RV770 liegen. Ausser natuerlich dass der Stromverbrauch total egal sein sollte.
Gutes Argument.
AFAIK stieg mit jeder Generation nicht nur der Takt, sondern auch der Stromverbrauch.
Also, könnte es bei gleichem Stromverbrauch diesesmal der Takt daumel-mal-pi wieder stagnieren.
edit: ja natuerlich war RV790 ein geplanter Zwischenschieber fuer RV770 <-> Evergreen; aber stets von Anfang an auf 55nm.
Logisch, wäre der RV790 6 Monate nach RV770, damit er, falls RV870 wirklich mitte 2009 hätte kommen soll, wirklich dazwischen liegt und nicht gleichzeitig eingeführt wäre, damit er dem Namen Zwischenschieber gerechtfertigt wird.
der rv790 war bestimmt für 6 monate nach rv770 als refresh eingeplant.
Es war ja klar, dass ein GT200b kommt (zufällig auch erst Anfang 2009 (oder so), der viel konkurrenzfähiger wird, wodurch sich dann die RV770 nicht mehr so gut verkaufen lassen.
Einen RV790 Anfang 2009 hätte viel Sinn & Logik, aber IMO nicht im April.
nagus
2009-09-05, 21:37:16
D3D 11 läuft auch auf Vista SP2.
ich weiß. aber trotzdem wars nicht früher verfügbar.
Ich glaube es nicht! In vier Tagen läuft das NDA ab und es gibt immer noch keine Leaks?
w0mbat
2009-09-05, 21:51:09
Wer sagt dass am 10. das NDA abläuft?
crux2005
2009-09-05, 21:51:38
bitte löschen
Triskaine
2009-09-05, 21:55:22
AMD hat wohl nach dem Launch Debakel letztes Jahr den Deckel endgültig auf den Topf gesetzt und geht sehr sparsam mit Informationen um.
nagus
2009-09-05, 21:58:55
Wer sagt dass am 10. das NDA abläuft?
wer sagt das gegenteil?
btw, wenn du mehr weißt... es ist dir sicher niemand hier böse wenn du sagen kannst wann die NDA abläuft ;)
Eggcake
2009-09-05, 22:01:01
War's nicht so, dass am 10. die offizielle Vorstellung ist und am 22. Ende NDA? Oder war am 22. voraussichtlicher "Release"? Ach ich hab soviele Zahlen im Kopf...:crazy:
LovesuckZ
2009-09-05, 22:40:48
20/22.09 läuft das NDA ab.
Ailuros
2009-09-06, 06:55:41
Das ist eine Spekulation auf eine mögliche Taktrate für RV870, eben mit der Sichtweise wie es in der Vergangenheit gelaufen ist.
Nur sind jegliche Vergleiche bestenfalls seit RV670 etwas wert, da es seither keine high end single chips mehr gibt.
Gutes Argument.
AFAIK stieg mit jeder Generation nicht nur der Takt, sondern auch der Stromverbrauch.
Also, könnte es bei gleichem Stromverbrauch diesesmal der Takt daumel-mal-pi wieder stagnieren.
Im idealen Fall hat Cypress bis zu 2*RV770 Leistung aber vergleichbaren Stromverbrauch.
Logisch, wäre der RV790 6 Monate nach RV770, damit er, falls RV870 wirklich mitte 2009 hätte kommen soll, wirklich dazwischen liegt und nicht gleichzeitig eingeführt wäre, damit er dem Namen Zwischenschieber gerechtfertigt wird.
Wann sahen die IHVs denn ein dass es mit 40nm nicht gut laufen wird? Der eine stornierte sein kompliziertere GT21x@40nm chips und der andere entschied sich fuer einen Zwischenschieber.
Es war ja klar, dass ein GT200b kommt (zufällig auch erst Anfang 2009 (oder so), der viel konkurrenzfähiger wird, wodurch sich dann die RV770 nicht mehr so gut verkaufen lassen.
Einen RV790 Anfang 2009 hätte viel Sinn & Logik, aber IMO nicht im April.
...soll dass heissen dass sich 790 nicht ausgezeichnet gegen eine GTX275 bzw. sogar teilweise GTX285 stellt und das von April bis Oktober 2009? Die 6 Monate waren es IMO durchaus wert.
Ja, dies stimmt genau.
HD4890 hat sich durchaus bezahlbar gemacht und eine HD4890 960/1050 ist in etwa auf Augenhöhe mit einer GTX 285!
Eine GTX 285 OC ist zwar bedeutend schneller wieder (gute 10%) aber auch knappe 100 Euro teurer!!
Nun, am 10. Presseevent und höchstwahrscheinlich kann man dann die Karten bereits bei grüßeren Online-Shops vorbestellen, (vielleicht gar zu einem besseren P/L Verhältnis als Anreiz ---> 319 Euro?) und anschliessend am 17. / 22. September Hardlauch mit gegebener Verfügbarkeit, am 5. Oktober ein größeret Schub an HD5870/5850-er Karten nach Europa!
nagus
2009-09-06, 17:24:30
War's nicht so, dass am 10. die offizielle Vorstellung ist und am 22. Ende NDA? Oder war am 22. voraussichtlicher "Release"? Ach ich hab soviele Zahlen im Kopf...:crazy:
anscheinend gibts auch noch ein EU event am 8. vielleicht wird da die NDA "geliftet"
horn 12
2009-09-06, 17:33:45
Woher kommt nun dieses Datum:
8. September für Europa ?
Dies wäre ja schon Dienstag, wie geil wäre das denn!:eek:
Ich gehe von einem Hardlaunch am 20./ 21. September aus, ab 10. Septmeber Vorbestellungen möglich!
Die Gewinner präsentiert Powercolor am 5. Otober, bzw. nach dem Launch (am 20/21.ten) kann man die Karten im Powercolor/ Forum bewerten...
http://www.powercolor.com/event/wallpaper/index.htm
nagus
2009-09-06, 19:32:11
nachdem es bald soweit ist will ich jetzt mal meine schätzung abgeben: rv870 (xt): 2000 shader, mehr als 256bit (ober verdammt sau-schneller 256bit GDDR5), über 2,5TFlops.
Shakti
2009-09-06, 20:02:02
Was mich viel mehr als alle shaderzahlen interessieren wuerde, ob die 2 gpus der 5870x2 jetzt so verbunden sind, wie vor Erscheinen der 4870x2 spekuliert wurde?
kann schon sein,dass ATI mit einem 256 Interface ne gute Leistung hinbekommt aber aus Marketingsicht ist es nicht gut.Der dumme Kunde steht nunmal auf dicke Zahlen ala 512bit,2gb Ram
nachdem es bald soweit ist will ich jetzt mal meine schätzung abgeben: rv870 (xt): 2000 shader, mehr als 256bit (ober verdammt sau-schneller 256bit GDDR5), über 2,5TFlops.
Charlie meint 1600 SPUs, 256bit, 1,25 GHz GDDR5:
http://www.semiaccurate.com/2009/09/03/and-cypress-shader-count/
Falls das schon verlinkt sein sollte, sorry.
ciao
Alex
kann schon sein,dass ATI mit einem 256 Interface ne gute Leistung hinbekommt aber aus Marketingsicht ist es nicht gut.Der dumme Kunde steht nunmal auf dicke Zahlen ala 512bit,2gb Ram
Ja klar, aber der dumme Kunde interessiert sich auch für den Preis ...
KonKorT
2009-09-07, 00:17:57
Charlie meint 1600 SPUs, 256bit, 1,25 GHz GDDR5:
http://www.semiaccurate.com/2009/09/03/and-cypress-shader-count/
Wo schreibt er, dass das Speicherinterface 256 Bit breit wäre? Also dies ist es, wie ich hier (http://www.hardware-infos.com/news.php?news=3161) schon berichtete, aber ich kann diese Angabe in der Newsmeldung nicht finden.
Der dumme Kunde steht nunmal auf dicke Zahlen ala 512bit,2gb Ram
Wer sagt, dass es nicht auch Karten der Evergreen-Familie mit 2 GiB VRAM geben wird?
Cpl. Dwayne Hicks
2009-09-07, 01:47:44
2000 Shader waeren doch dann 100 TMUs oder?
Das wäre schon ziemlich überraschend da ATi TMUs ja garnicht so sehr mag. :biggrin:
Wer redet denn von 2000 ALUs?
Cpl. Dwayne Hicks
2009-09-07, 05:11:52
nachdem es bald soweit ist will ich jetzt mal meine schätzung abgeben: rv870 (xt): 2000 shader, mehr als 256bit (ober verdammt sau-schneller 256bit GDDR5), über 2,5TFlops.
Du meinst wohl 400 ALUs ;) War ja nur eine Spekulation von nagus. Aber wär doch fett wenn sich ATi wieder das 2,5 fache vorgenommen hat wie beim RV770... aber das haben die ja nur gemacht weil der chip sonst pad limited gewesen wäre oder?
(Wobei ich keine Ahnung habe was pad limited nun genau bedeutet :biggrin:)
Ailuros
2009-09-07, 06:43:59
nachdem es bald soweit ist will ich jetzt mal meine schätzung abgeben: rv870 (xt): 2000 shader, mehr als 256bit (ober verdammt sau-schneller 256bit GDDR5), über 2,5TFlops.
Gibt es irgend einen Preis fuer uebertriebene Erwartungen? :biggrin:
pad limited:
die Kontakte eines Chips nach außen heißen pads und sind für die Größenverhältnisse der Leitungen und Transen riesig. Früher mal waren die Pads nur am Rand. Und wenn man für einen Chip n pads brauchte war damit automatisch der minimale Umfang vorgebeben, da alle diese großen pads nebeneinander am Rand lagen, so daß durch eine pad-Anzahl eine Minimalgröße vorgegeben war.
Heute sind die Pads über die ganze Fläche verstreut und werden mit Weichmetallkügelchen besetzt, mit denen sie dann auf den Träger aufgebracht und kontaktiert werden. Da ist nicht mehr die Größe der pads selber relevant, sondern daß sie weit genug auseinander sind damit die Kontaktierung wie beschrieben möglich ist. Und für eine GPU mit 500+ Kontakten ergibt sich wiederum eine gewisse Minimalfläche, um auf ihr diese 500+ Kontakte unterzubringen.
Und von einem spekulativen 512bit Speicher ausgehend hieße daß, daß ein solcher RV870 dadurch padlimimiert sein könnte, so daß AMD einfach mehr Fläche, damit einen gröeren Chip und damit mehr Shader haben könnte als gedacht. Eine RV870 mit 512bit vorausgesetzt...
nagus
2009-09-07, 07:49:16
Gibt es irgend einen Preis fuer uebertriebene Erwartungen? :biggrin:
keine ahnung. aber morgen (http://forum.beyond3d.com/showpost.php?p=1330956&postcount=2280) wissen wir vielleicht schon viel mehr :)
aylano
2009-09-07, 07:49:59
Nur sind jegliche Vergleiche bestenfalls seit RV670 etwas wert, da es seither keine high end single chips mehr gibt.
Warum nicht, die mainstream & Low-End-Karten hatten öfters die selben Taktraten wie der High-End-Chip. Vorallem seit der 600er-Serie.
Und wäre es mit R600 normal gelaufen, hätte er wahrscheinlich so einen Takt wie der RV630 mit 800 Mhz gehabt und damit wäre der Mhz-Sprung nach einem Generationen-Wechsel nicht fast 100 Mhz wie früher, sonden schon 150Mhz.
Jetzt ist nur mehr die Frage, ob 40nm auch etwas Probleme mit den Takten macht und nicht nur bei den Yields.
...soll dass heissen dass sich 790 nicht ausgezeichnet gegen eine GTX275 bzw. sogar teilweise GTX285 stellt und das von April bis Oktober 2009? Die 6 Monate waren es IMO durchaus wert.
Nein, es geht um den Zeitpunkt.
Ein RV790 hätte Anfang 2009, welches in der Mitte zwischen RV770 mitte 2008 und RV870 Mitte 2008 (geplant?) viel besser gepasst.
Der eine stornierte sein kompliziertere GT21x@40nm chips und der andere entschied sich fuer einen Zwischenschieber.
Das frage ich mich ja, ob es möglich ist noch schnell einen RV790 reinzuschieben, weil ATI erwartete, dass sich der RV870 auf vielleicht 4Q 2009 verschieben wird.
Ich dachte immer, GPUs haben eine Sehr lange Entwicklungszeit und können nicht schnell zwischengeschoben werden.
Wann sahen die IHVs denn ein dass es mit 40nm nicht gut laufen wird?
Keine Ahnung.
Falls RV790 wirklich ein Zwischenschieber wegen den 40nm-Produkten ist, müssten die das schon im Herbst 2008 damit begonnen haben.
Na ja, jetzt fallen mir die Gerüchte über die Super RV770 für höhere Takte ein. Vielleicht war der doch schon viel länger geplant, aber ich finde es unlogisch, warum er so spät kam, obwohl IMO Jänner von den GPU-Zeitabständen viel logischer werden.
Aber vielleicht erfahren wir es in Zukunft.
2000 Shader waeren doch dann 100 TMUs oder?
Das wäre schon ziemlich überraschend da ATi TMUs ja garnicht so sehr mag.
Wie ich schon schrieb. Wenn der RV870 tatsächlich 350 mm² wird, dann wächst dieser mit 35% im Vergleich zum Vorgänger deutlich mehr als der GT300 mit 5%. Also, entweder GT300 überrascht mit einer deutlichen Architektur-Effizienz oder RV870 könnte mit noch mehr Einheiten (manche über Plus 100%) überraschen.
mboeller
2009-09-07, 08:38:42
Wie ich schon schrieb. Wenn der RV870 tatsächlich 350 mm² wird, dann wächst dieser mit 35% im Vergleich zum Vorgänger deutlich mehr als der GT300 mit 5%. Also, entweder GT300 überrascht mit einer deutlichen Architektur-Effizienz oder RV870 könnte mit noch mehr Einheiten (manche über Plus 100%) überraschen.
Und warum, denkst du gibt es die Gerüchte mit +160% "best case"? Eben weil anscheinend irgendwas am RV870 um das 2,6 fache schneller/besser ist als beim RV770 (allerdings mehr Einheiten + Taktrate).
Vielleicht sind es sogar die Shader. 1600/800 ist schon mal Faktor2; dann noch (gerüchteweise) 850/750 MHz; macht noch einmal 13,3% mehr und dann noch zusätzlich der doppelt so komplexe Dispatch Prozessor (oder so ähnlich) der die mittlere Auslastung von 3,5 auf vielleicht 3,8 - 4 verschiebt. Würde nochmal ein paar Prozente bringen. Zusammen dann eben der Faktor 2,6 im "best case".
StefanV
2009-09-07, 08:42:03
Das frage ich mich ja, ob es möglich ist noch schnell einen RV790 reinzuschieben, weil ATI erwartete, dass sich der RV870 auf vielleicht 4Q 2009 verschieben wird.
Ich dachte immer, GPUs haben eine Sehr lange Entwicklungszeit und können nicht schnell zwischengeschoben werden.
Neue ja, der RV790 ist ja nur ein 'tiefergelegter' RV770, der für einen etwas höheren Takt ausgelegt ist, hier würd ich nur von geringen Änderungen sprechen.
Wie ich schon schrieb. Wenn der RV870 tatsächlich 350 mm² wird, dann wächst dieser mit 35% im Vergleich zum Vorgänger deutlich mehr als der GT300 mit 5%. Also, entweder GT300 überrascht mit einer deutlichen Architektur-Effizienz oder RV870 könnte mit noch mehr Einheiten (manche über Plus 100%) überraschen.
Ich würd davon ausgehen, das nVidia bei der GT300 Abstand von den SIMD EInheiten nimmt und den gleichen Schritt wie AMD macht -> mehrere Einheiten in einem Block.
So sinkt zwar die Effizienz, man kann aber mehr Einheiten auf dem Die unterbringen und die Rechenleistung erhöhen, da der Verwaltungsaufwand steigt.
Daneben könnt man auch noch einige nicht/kaum benötigte Funktionen entsorgen, wie AMD das ja auch von RV6x0 -> RV7x0.
nagus
2009-09-07, 09:29:58
....
Ich würd davon ausgehen, das nVidia bei der GT300 Abstand von den SIMD EInheiten nimmt und den gleichen Schritt wie AMD macht -> mehrere Einheiten in einem Block.
So sinkt zwar die Effizienz, man kann aber mehr Einheiten auf dem Die unterbringen und die Rechenleistung erhöhen, da der Verwaltungsaufwand steigt....
... ich glaub "sinkende effizienz" ist das letzte was nvidia jetzt will.
Es ist völlig egal was NV macht. Der 2000SP RV870 wird sie sowieso platt machen.
aylano
2009-09-07, 10:33:56
Und warum, denkst du gibt es die Gerüchte mit +160% "best case"?
Und wieviele glaubten/glauben an die 60% Best case?
Außerdem ist Best-Case gerade bei einer neuen Architektur recht wenig aussagekräftig.
Vorallem, wenn die Durchschnitts-Performance am meisten Interessant ist und da machts einen Unterschied ob RV870 +75% oder +125% schneller ist.
Und RV770 zeigte schon, es muss nicht immer nur 2 mehr sein, sondern es können bei bestimmten Einheiten auch mal 2,5 mal mehr sein alias Shader.
Es sit völlig egal was NV macht. Der 2000SP RV870 wird sie sowieso platt machen.
Ist das Ironie? Ich habe jetzt immer wieder von 2000SP gelesen, sind das neue Gerüchte?
Zum Thema +60/+160%:
"However, a bit of Googling led to Fuad’s article from way back in December 2008, reporting about the Geforce GTX 295. As per the article, the GTX 295 would end up “1.7 times faster” than a single card. Naturally, a GTX 295 couldn’t be 170% faster than a single card, but 70% sounds like the correct increase. Therefore, it can be concluded that, according to Fuad’s use of the language, he most probably believes Evergreen will end up “1.6 times as fast as” HD 4870, as alluded to in the original article above."
Quelle:
http://vr-zone.com/articles/-rumour-ati-evergreen-is-1.6x-faster-as-hd-4870--updated-/7539.html?doc=7539
Ist das Ironie? Ich habe jetzt immer wieder von 2000SP gelesen, sind das neue Gerüchte?
Langsam geht die Phantasie es mit ein paar besonders enthusiastischen ATI-Freunden durch, so kurz vor Ende des NDA wird da in die Vollen gegriffen. Einige glauben, das Ding wird alles Dagewesene in den Schatten stellen, unerreichbar sein, zeitlos, das Ende aller Entwicklungen. Scheiße, vermutlich sitzt Gott selbst in der GPU und malt die Bilder oder RV870 malt Gott.
Umgekehrt hat Nvidia seit G80 natürlich geschlafen, wer weiß ob die überhaupt noch eine Entwicklungsabteilung haben.
Langsam geht die Phantasie es mit ein paar besonders enthusiastischen ATI-Freunden durch, so kurz vor Ende des NDA wird da in die Vollen gegriffen. Einige glauben, das Ding wird alles Dagewesene in den Schatten stellen, unerreichbar sein, zeitlos, das Ende aller Entwicklungen. Scheiße, vermutlich sitzt Gott selbst in der GPU und malt die Bilder oder RV870 malt Gott.
Umgekehrt hat Nvidia seit G80 natürlich geschlafen, wer weiß ob die überhaupt noch eine Entwicklungsabteilung haben.
ich dachte deren entwicklungsabteilung macht nur noch CUDA scheiss? und die hardware designer liegen in hawaii mit den schirmchendrinks am strand?! ne echt jetzt, nvidia hat doch ehhh nur immer alles kopiert und darum sowieso kein brot gegen die 2000sp welche dank super prefetcher auch noch wie 4000sp funktionieren.
mboeller
2009-09-07, 11:00:47
Und wieviele glaubten/glauben an die 60% Best case?
Außerdem ist Best-Case gerade bei einer neuen Architektur recht wenig aussagekräftig.
Vorallem, wenn die Durchschnitts-Performance am meisten Interessant ist und da machts einen Unterschied ob RV870 +75% oder +125% schneller ist.
Und RV770 zeigte schon, es muss nicht immer nur 2 mehr sein, sondern es können bei bestimmten Einheiten auch mal 2,5 mal mehr sein alias Shader.
Du hast schon recht, aber die Diskussion über best case, Durchschnitt etc.. lief aus meiner Sicht völlig in die falsche Richtung (deshalb hab ich mich nicht wirklich daran beteiligt).
Die ursprüngliche Info sprach von "+1.6times best case performance" (sinngemäß). Das die Leute daraus +60% durchschnittlich bessere Spieleleistung gemacht haben. So what....
mboeller
2009-09-07, 11:25:04
neliz auf Beyond3d:
Oh dear,
After we've been expecting a powerful card all the time, Word is now that the idle power consumption is extremely low :(
:) :)
Soll man das so verstehen, dass die große Überraschung nicht die Leistung, sondern der geringe Energieverbrauch sein soll?
Soll man das so verstehen, dass die große Überraschung nicht die Leistung, sondern der geringe Energieverbrauch sein soll?
Gerade danach schreien ettliche Leute seit Jahen!
Der_Korken
2009-09-07, 12:28:22
Soll man das so verstehen, dass die große Überraschung nicht die Leistung, sondern der geringe Energieverbrauch sein soll?
Das wäre mal eine erfreuliche Entwicklung. Irgendwie ist das mit dem Energieverbrauch seit G80/R600 etwas aus dem Ruder gelaufen. Die CPU-Hersteller bemühen sich die TDP von 130W bei den Topmodellen nicht zu überschreiten. Bei den Grafikkarten gab es eine solche Grenze nicht und der Verbrauch nahm immer weiter zu. Dabei gibt es im Moment keinen so riesigen Bedarf für 2+x fache Leistung, da die meisten Spiele auf der jetzigen Generation noch mit FullHD+AA/AF laufen.
eine solche entwicklung würde ich sehr begrüßen.
Statt einer Taktsteigerung lieber eine Taktsenkung und eine massive Energieverbrauchssenkung, das wäre endlich mal der zeit entsprechend, aber leider leben die meisten Enthusiasts und auch die Hardwaredesigner ja seit einiger Zeit auf dem Mond und kriegen nicht mit was hier unten so abgeht.
Wenn das so weitergeht können die Nerds bald nicht mehr "geile Grafik" sagen wenns in die Natur geht und wir können uns eine intakte Umwelt dann nur noch virtuell vorstellen.
Botcruscher
2009-09-07, 12:37:10
Gerade danach schreien ettliche Leute seit Jahren!
Das ist das gleiche Geschrei wie mit der Qualität. Ohne genug Balken ist beides hinfällig.
eine solche entwicklung würde ich sehr begrüßen.
Statt einer Taktsteigerung lieber eine Taktsenkung und eine massive Energieverbrauchssenkung, das wäre endlich mal der zeit entsprechend, aber leider leben die meisten Enthusiasts und auch die Hardwaredesigner ja seit einiger Zeit auf dem Mond und kriegen nicht mit was hier unten so abgeht.
Leistung geht ab und der Rest steht hinten an. Was zählt ist das Gesamtpaket. Der einzige Grund mir eine neue Karte zu kaufen war immer die Geschwindigkeit.
boxleitnerb
2009-09-07, 12:44:10
Ihr könnt schon alle lesen, oder? Da steht IDLE. Unter Last wird das Teil wohl nicht weniger verbraten als RV770.
Schön ist es natürlich trotzdem und irgendwie auch selbstverständlich.
Ailuros
2009-09-07, 13:05:54
Warum nicht, die mainstream & Low-End-Karten hatten öfters die selben Taktraten wie der High-End-Chip. Vorallem seit der 600er-Serie.
Dafuer muesste es total egal sein wie kompliziert ein chip ist.
Jetzt ist nur mehr die Frage, ob 40nm auch etwas Probleme mit den Takten macht und nicht nur bei den Yields.
Von Frequenz-Problemen hab ich bis jetzt nichts gehoert; nichtdestominder wenn sie bei der Kreidetafel-kritzelei der Vergangenheit ein Dilemma in der Art 1280@900MHz vs. 1600@700MHz (nur Beispielszahlen) dann ist es ein entweder/oder Fall wenn man den Stromverbrauch auf einem gewissen Nivaeu halten will.
Nein, es geht um den Zeitpunkt.
Ein RV790 hätte Anfang 2009, welches in der Mitte zwischen RV770 mitte 2008 und RV870 Mitte 2008 (geplant?) viel besser gepasst.
Wenn TSMC keine 40nm Probleme gehabt haette, haette es vielleicht eine RV790 nie gegeben. AMD selber sprich von "grey area" in ihren dementsprechenden slides.
Das frage ich mich ja, ob es möglich ist noch schnell einen RV790 reinzuschieben, weil ATI erwartete, dass sich der RV870 auf vielleicht 4Q 2009 verschieben wird.
Ich dachte immer, GPUs haben eine Sehr lange Entwicklungszeit und können nicht schnell zwischengeschoben werden.
Erstens ist die RV790 nicht so klein dass das Ganze in nur ein paar Wochen entstand und zweitens handelt es beim RV790 lediglich um einen Frequenz-optimierten RV7x0; was anderes als hoehere Frequenzen hat die 4890 wohl nicht. Und nein ueber 6 Monate ohne etwas Neues im GPU Markt ist nicht "ok".
Keine Ahnung.
Falls RV790 wirklich ein Zwischenschieber wegen den 40nm-Produkten ist, müssten die das schon im Herbst 2008 damit begonnen haben.
Na ja, jetzt fallen mir die Gerüchte über die Super RV770 für höhere Takte ein. Vielleicht war der doch schon viel länger geplant, aber ich finde es unlogisch, warum er so spät kam, obwohl IMO Jänner von den GPU-Zeitabständen viel logischer werden.
Aber vielleicht erfahren wir es in Zukunft.
Sommer 2008.
Wie ich schon schrieb. Wenn der RV870 tatsächlich 350 mm² wird, dann wächst dieser mit 35% im Vergleich zum Vorgänger deutlich mehr als der GT300 mit 5%. Also, entweder GT300 überrascht mit einer deutlichen Architektur-Effizienz oder RV870 könnte mit noch mehr Einheiten (manche über Plus 100%) überraschen.
Falscher Thread; ich sag nur dass Du total auf dem falschen Bein mit D12U stehst.
Ailuros
2009-09-07, 13:14:10
Du hast schon recht, aber die Diskussion über best case, Durchschnitt etc.. lief aus meiner Sicht völlig in die falsche Richtung (deshalb hab ich mich nicht wirklich daran beteiligt).
Die ursprüngliche Info sprach von "+1.6times best case performance" (sinngemäß). Das die Leute daraus +60% durchschnittlich bessere Spieleleistung gemacht haben. So what....
Es stand nirgends "best case" drin weil es sonst genauer und verstaendlicher gewesen waere. Nochmal Kerle wie Fudo und co. leiten leider ihre Einschaetzungen auf FLOP Basis ab. Wir muessen bitteschoen den albernen FLOP Kaugummi nicht nochmal durchkauen dass es offensichtlich wird dass GFLOPs nur ueber den maximal theoretischen arithmetischen Teil einer GPU etwas aussagen koennen und FLOP != FLOP zwischen konkurrierenden Architekturen.
In Fudo's Fall schwirrt schon seit einiger Zeit etwas ueber mehr als 2 TFLOPs pro Cypress chip herum und man kann auf der Basis kinderleicht jeglichen XXX-Mal Unsinn daraus ziehen. ATI hat auf keinen Fall jeden Transistor umgekrempelt fuer die X11 Generation; denn nur so koennten sie eine weit ueber "bis zu 2x Mal so schnell" Rate erreichen.
reunion
2009-09-07, 13:16:50
ATI hat auf keinen Fall jeden Transistor umgekrempelt fuer die X11 Generation; denn nur so koennten sie eine weit ueber "bis zu 2x Mal so schnell" Rate erreichen.
Weit über "bis zu 2x Mal so schnell" Rate?
Ailuros
2009-09-07, 13:20:20
Weit über "bis zu 2x Mal so schnell" Rate?
Das waere der >260% Fall als Interpretierung auf Fudo's 1.6x Quark.
Nakai
2009-09-07, 13:25:22
Es stand nirgends "best case" drin weil es sonst genauer und verstaendlicher gewesen waere. Nochmal Kerle wie Fudo und co. leiten leider ihre Einschaetzungen auf FLOP Basis ab. Wir muessen bitteschoen den albernen FLOP Kaugummi nicht nochmal durchkauen dass es offensichtlich wird dass GFLOPs nur ueber den maximal theoretischen arithmetischen Teil einer GPU etwas aussagen koennen und FLOP != FLOP zwischen konkurrierenden Architekturen.
Fudo hat doch die HD4870/90 mit der HD5850 verglichen. Wird werden wohl beim HD5850 mehr als 625MHz an Coretakt sehen. Die HD5870 wird dann wohl um die 775Mhz getaktet sein. Damit würde man bei gerinfügigen Effizienzsteigerungen um die 100% Leistungssteigerung erfahren. IMO ist da noch einiges möglich, wenn die ALUs einmal deutlich besser ausgelastet werden würden. Am wahrscheinlichsten wäre es, wenn man diesen Ansatz für die neuen Karten verfolgen würde.
mfg Nakai
Ailuros
2009-09-07, 14:04:39
Fudo hat doch die HD4870/90 mit der HD5850 verglichen.
Afaik ja.
Wird werden wohl beim HD5850 mehr als 625MHz an Coretakt sehen. Die HD5870 wird dann wohl um die 775Mhz getaktet sein.
Viel mehr wohl nicht.
Damit würde man bei gerinfügigen Effizienzsteigerungen um die 100% Leistungssteigerung erfahren. IMO ist da noch einiges möglich, wenn die ALUs einmal deutlich besser ausgelastet werden würden. Am wahrscheinlichsten wäre es, wenn man diesen Ansatz für die neuen Karten verfolgen würde.
mfg Nakai
Keiner der angeblichen P Vantage scores fuer Juniper/Cypress deuten in die Richtung.
Gipsel
2009-09-07, 14:07:30
und dann noch zusätzlich der doppelt so komplexe Dispatch Prozessor (oder so ähnlich) der die mittlere Auslastung von 3,5 auf vielleicht 3,8 - 4 verschiebt.
Der Scheduler hat mit der Belegung der Slots nur nicht das Geringste zu tun. Das wird vom Shadercompiler treiberseitig festgelegt. Nur zur Erinnerung, die R(V)6x0/7x0 GPUs sind VLIW-Architekturen. Da hat der Compiler erheblich mehr (Optimierungs-)Verantwortung als bei (super-)skalaren Architekturen.
ATI hat auf keinen Fall jeden Transistor umgekrempelt fuer die X11 Generation; denn nur so koennten sie eine weit ueber "bis zu 2x Mal so schnell" Rate erreichen.
Nun, das haben sie beim Schritt RV670->RV770 auch nicht gemacht. Trotzdem ist die ALU-Leistung in Spezialfällen (z.B. Integer-Bitshifts) bis zu 12,5 mal so hoch (ja, 1250%, nicht nur Faktor 2,5). Manchmal können sich eine Handvoll relativ kleiner Änderungen auch summieren ;)
Aber generell würde ich für reale Anwendungfälle auch nur von bis zu zweimal so schnell ausgehen.
Botcruscher
2009-09-07, 14:40:37
Kommt dieses mal ein funktionstüchtiges Powerplay oder wie?
Nakai
2009-09-07, 14:43:25
Viel mehr wohl nicht.
Ich hätte mehr Taktspielraum erwartet, dank 40nm.
Da ist wohl der Prozess wohl doch noch nicht so optimiert.
Wenn NV eine Dualkarte auf Basis des GT300 baut, dann muss ATI da nachziehen. Entweder durch Takt und/oder durch mehr Einheiten in der Form eines Refeshs in 2010 in Q3. Umso später NV mit dem GT300 umso besser für ATI. Jedoch wird sich NV bestimmt nicht lumpen lassen. Wie gesagt, wenn NV früher mit dem GT300 und mit der GT300-Dualkarte kommt, desto schlechter für ATI.
Keiner der angeblichen P Vantage scores fuer Juniper/Cypress deuten in die Richtung.
Mal werf mal eine Frage in den Raum. ATIs ALUs laufen im Schnitt 3/5 bis 4/5 der theoretischem Leistung. AFAIK (muss ja nicht richtig sein) laufen diese ALUs bei langem Shadercode besser als bei kurzen Shadercode.
Ist es möglich, dass DX11-Code die ALUs besser auslastet? Prinzipiell eigentlich nicht und ebenso sollte es vorläufig egal sein, da DX11 eh später erst richtig durchstarten sollte.
mfg Nakai
Wo schreibt er, dass das Speicherinterface 256 Bit breit wäre? Also dies ist es, wie ich hier (http://www.hardware-infos.com/news.php?news=3161) schon berichtete, aber ich kann diese Angabe in der Newsmeldung nicht finden.
Wenn das mehr als 256bit wären, wäre die Pinzahl nicht halb so groß ;-)
AFAIK (muss ja nicht richtig sein) laufen diese ALUs bei langem Shadercode besser als bei kurzen Shadercode.
Bei sehr (!) kurzen Shadern hat man evtl. Probleme gutes Instruction-Pairing zu finden, aber bei heutigen Programmen spielt das überhaupt keine Rolle mehr.
Ist es möglich, dass DX11-Code die ALUs besser auslastet?
Ich wüsste nicht warum.
deekey777
2009-09-07, 15:02:51
Kommt dieses mal ein funktionstüchtiges Powerplay oder wie?
Gibt es schon. Nur hat man nicht genug Zeit und Geld in diverse Produkte investiert, so dass einige Grafikkarten fast Nüschts haben, die anderen dagegen den Chip und den Speicher heruntertakten.
...
Nun, das haben sie beim Schritt RV670->RV770 auch nicht gemacht. Trotzdem ist die ALU-Leistung in Spezialfällen (z.B. Integer-Bitshifts) bis zu 12,5 mal so hoch (ja, 1250%, nicht nur Faktor 2,5). Manchmal können sich eine Handvoll relativ kleiner Änderungen auch summieren ;)
Aber generell würde ich für reale Anwendungfälle auch nur von bis zu zweimal so schnell ausgehen.
Mooooment: Die Integer-Bitshifts-Leitung stieg ums Fünfache pro Threadprocessor. Du dagegen packst noch die 2,5fache Anzahl an Threadprozessoren zusätzlich rein. ;D
san.salvador
2009-09-07, 15:04:55
Gibt es schon. Nur hat man nicht genug Zeit und Geld in diverse Produkte investiert, so dass einige Grafikkarten fast Nüschts haben, die anderen dagegen den Chip und den Speicher heruntertakten.
Senken die auch die Spannung? Sonst wärs ja eher für die Katz...
Mooooment: Die Integer-Bitshifts-Leitung stieg ums Fünfache pro Threadprocessor. Du dagegen packst noch die 2,5fache Anzahl an Threadprozessoren zusätzlich rein. ;D
Noch dazu ist das bei Spielen derzeit noch hochgradig irrelevant.
dargo
2009-09-07, 15:15:43
Dabei gibt es im Moment keinen so riesigen Bedarf für 2+x fache Leistung, da die meisten Spiele auf der jetzigen Generation noch mit FullHD+AA/AF laufen.
Full-HD war gestern. ;)
Wie nennt man eigentlich 3360x2100 mit 4xMSAA auf einem 22 Zöller? HD+++++? :D
AMD plant den Release der HD5870 X2 noch im vierten Quartal.
http://www.pcgameshardware.de/aid,694416/AMD-plant-den-Release-der-HD5870-X2-noch-im-vierten-Quartal/Grafikkarte/News/
Der_Korken
2009-09-07, 15:52:53
Full-HD war gestern. ;)
Wie nennt man eigentlich 3360x2100 mit 4xMSAA auf einem 22 Zöller? HD+++++? :D
Das wäre dann wohl QWSXGA (Quad-Wide-SXGA, SXGA=1280x1024) :freak:
Aber es gibt im Moment kaum bezahlbare Monitore, die mehr als 1920x1200 bieten. Und für die Power-User, die sowas doch haben, sind entsprechende SLI/CF-Systeme auch nicht zu teuer. Ich wäre also nicht enttäuscht, wenn die neue Generation keine Leistungsverdopplung schafft, dafür aber den Verbrauch deutlich drückt. Wird aber anscheinend doch nichts.
dargo
2009-09-07, 16:03:18
Aber es gibt im Moment kaum bezahlbare Monitore, die mehr als 1920x1200 bieten.
Ach, ich finde 155€ ganz in Ordnung. ;)
http://geizhals.at/deutschland/a381725.html
Den Rest erledigt Downsampling (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=454129). :)
Werewolf
2009-09-07, 16:17:46
Bildqualitätsfanatiker aber dann mit TN unterwegs? :freak:
aylano
2009-09-07, 16:31:13
Dafuer muesste es total egal sein wie kompliziert ein chip ist.
Aber wie ist es sonst zu erklären, dass die Mainstream & Low-End-Chips der 600 & 700er-Serie die selben Takte hatte wie das Top-Modell?
AMD selber sprich von "grey area" in ihren dementsprechenden slides.
Interessant.
Damals klang das viel unspektakulärer. Da man jetzt ,im Gegensatz zu damals, RV790 & 40nm-Probleme kennt, versteht man das im Nachhinein um einiges besser.
Sommer 2008.
Doch so früh bzw. es ist in so "kurzer" Zeit möglich.
Jetzt ergibt das alles Sinn. Endlich:smile:
Falscher Thread; ich sag nur dass Du total auf dem falschen Bein mit D12U stehst.
Ich dachte 2x GTX285 Performance bei 495mm² ist die allgemeine Schätzung/Stand und somit mein Bezugspunkt.
Da dies mein Bezugspunkt, finde den Vergleich nicht im Falschen Thread.
Wenn GT300 dann z.B. mit +60% daherkommt, dann wäre es ja eine riesen Überraschung wenn RV870 mit NUR +80% daherkommt und den Abstand verkleinert bzw. Nividia überholt. (Erfundene Zahlen!!!)
Mich interessieren mehr die relativen Verhältnisse zur Konkurrenz/alten Generationen.
Und nein ueber 6 Monate ohne etwas Neues im GPU Markt ist nicht "ok".
Hatte ich nie gesagt. Sinn macht dieser ja auch deshalb, weil sich der 55nm-Prozess in dem 10 Monaten wahrscheinlich noch verbessert hat ala Effizienz-Steigerung.
w0mbat
2009-09-07, 16:31:29
Dave Baumann´s neue Sig:
Dominate.
http://forum.beyond3d.com/showpost.php?p=1331108&postcount=1355
Was das heißen tun mögen wohl mag? :D
dargo
2009-09-07, 16:35:25
Bildqualitätsfanatiker aber dann mit TN unterwegs? :freak:
2x2SSAA in jedem Game mit zusätzlich 4xMSAA (falls vom Spiel unterstützt) überwiegt jeden TN-Nachteil. ;)
Wenn man bei diesem TFT überhaupt vom Nachteil sprechen kann.
Dave Baumann´s neue Sig:
Was das heißen tun mögen wohl mag? :D
Für den Zeitraum bis zum GT300 wird das ja zwangsweise stimmen, danach wird man sehen
2x2SSAA in jedem Game mit zusätzlich 4xMSAA (falls vom Spiel unterstützt) überwiegt jeden TN-Nachteil. ;)
Filterung und Kantenglättung überwiegen Farbtreue :confused:? Sorry, das ist was, was ich überhaupt nicht verstehen kann. Konnte bei den ganzen CB usern, die sich eine GTX295 oder X2 gekauft haben und dazu dann ein TN 22" (oder gar 24") immer nur den Kopf schütteln...
reunion
2009-09-07, 16:46:57
Dave Baumann´s neue Sig:
http://forum.beyond3d.com/showpost.php?p=1331108&postcount=1355
Was das heißen tun mögen wohl mag? :D
Das stammt wohl direkt aus der Marketingkampagne welche AMD am Donnerstag präsentieren wird. Erstaunlich wie ruhig es angesichts dessen ist, aber das nennt man dann wohl die Ruhe vor dem Sturm. AMD scheint jedenfalls sehr überzeugt zu sein das die DX11-Chips einschlagen nach den ganzen Statement mit geschwellter Brust und einem riesigen Launchevent auf einem US-Zerstörer.
Die Hornet ist ein Flugzeugträger.
w0mbat
2009-09-07, 16:54:05
Na ja, morgen wissen wir mehr, wenn jemand was leaked. Hoffe ich stark =D
Morgen? http://forum.beyond3d.com/showpost.php?p=1330956&postcount=2280
reunion
2009-09-07, 17:04:58
Die Hornet ist ein Flugzeugträger.
Natürlich.
dargo
2009-09-07, 17:06:24
Filterung und Kantenglättung überwiegen Farbtreue :confused:?
Ich bin mit den Farben vom besagten Bildschirm bestens zufrieden (was ich übrigens von seinem Vorgänger - einem 19" TN Viewsonic nicht behaupten konnte), und ja... ich kenne auch non-TN Bildschirme. Es gibt nicht den TN-Bildschirm, gibt halt gravierende Unterschiede. Gerade bei der Farbwiedergabe.
Superheld
2009-09-07, 17:08:30
Morgen? http://forum.beyond3d.com/showpost.php?p=1330956&postcount=2280
wünscht sich wOmbat nur :)
Gipsel
2009-09-07, 18:07:37
Mooooment: Die Integer-Bitshifts-Leitung stieg ums Fünfache pro Threadprocessor. Du dagegen packst noch die 2,5fache Anzahl an Threadprozessoren zusätzlich rein. ;D
Ja na klar doch!
Bei RV770 kann man aufgrund der gestiegenden Shaderzahl grob von 2,5facher Shaderleistung ausgehen. Beim Cypress kann man deswegen wohl von grob doppelter Shaderleistung ausgehen. Dreht man aber noch was an den ALUs (oder entsprechend in anderen Bereichen z.B. an den TMUs oder ROPs), so kann die Leistungssteigerung in speziellen Fällen signifikant über diese Marken hinausgehen. Das war mein Argument! Wenn dann die Einheiten noch für mehrere Spezialfälle verbessert würden ... :rolleyes:
PS: Die Integer-Bitshift-Leistung stiegt auf das Fünffache, aber nur um 400% pro Einheit ;)
Was für Spezialfälle sollen das denn sein? Der typische Spielshader besteht größtenteils aus MADD und DOT und eher wenig transzendenten Funktionen.
Das läuft soweit ich weiß schon alles mit vollem Durchsatz und ich glaube nicht, dass sie die 4 "kleinen" Units mit T-Zeug erweitern.
Die reine Rechenleistung halte ich auch nicht mehr für das große Problem in Zukunft. Das Bottleneck ist die Rasterisierung. Da entscheidet sich imho viel eher wer am Ende besser dasteht.
Gipsel
2009-09-07, 18:31:57
Was für Spezialfälle sollen das denn sein? Der typische Spielshader besteht größtenteils aus MADD und DOT und eher wenig transzendenten Funktionen.
Das läuft soweit ich weiß schon alles mit vollem Durchsatz und ich glaube nicht, dass sie die 4 "kleinen" Units mit T-Zeug erweitern.
Da hast Du recht.
Das mit den Shadern war nur ein Beispiel dafür, daß man nicht die sture Einheitenzahl als Limit für die "best case" Leistungssteigerung ansehen sollte, was ich mit einem Spezialfall beim RV670->RV770-Wechsel belegt habe. Nicht umsonst habe ich auch auf andere Bereiche des Chips hingewiesen, da ATIs eigentlich nur selten shaderlimitiert sind. Wenn man da noch was herausholen will, kann man das meiner Meinung einfacher mit dem Shader-Compiler tun. Aufwendigere Shader, die Lookup-Tables und/oder Schleifen benutzen, werden zum Teil noch in recht ineffektiven Code übersetzt. Da sind noch einige Reserven wie ich denke.
deekey777
2009-09-07, 22:36:05
Noch dazu ist das bei Spielen derzeit noch hochgradig irrelevant.
Dass noch keiner auf diese Idee gekommen ist:
Man baut in ein Spiel wie Splinter Cell ein Rätsel ein, wo der Spieler einen Code knacken muss. Dies geschieht nicht dadurch, indem der Spieler den Code irgendwo finden muss, sondern wird per Brute-Force entweder von der Grafikkarte oder der CPU ermittelt. Am Besten wie mit PhysX heute: Mit einer Nvidia-Grafikkarte läuft das Ganze über CUDA auf der GPU, mit einer Radeon auf der CPU... :ulol:
Dass noch keiner auf diese Idee gekommen ist:
Man baut in ein Spiel wie Splinter Cell ein Rätsel ein, wo der Spieler einen Code knacken muss. Dies geschieht nicht dadurch, indem der Spieler den Code irgendwo finden muss, sondern wird per Brute-Force entweder von der Grafikkarte oder der CPU ermittelt. Am Besten wie mit PhysX heute: Mit einer Nvidia-Grafikkarte läuft das Ganze über CUDA auf der GPU, mit einer Radeon auf der CPU... :ulol:
Ich wette, nVidia hatte so eine Idee schon vor Jahren. Vielleicht wurde daraus erst CUDA! :D
Ich wette, nVidia hatte so eine Idee schon vor Jahren. Vielleicht wurde daraus erst CUDA! :D
nur schneidet sich nvidia damit doch nur ins eigene Fleisch. Denn wenn man kein Fanboy ist, kauft man einfach nach dem besten Preis/Leistungs-Verhältnis und will natürlich die volle Grafikpracht und das volle Spielgefühl genießen, egal auf welcher Graka das Spiel läuft... So lange PhysX kein Standard ist und von allen Herstellern genutzt wird, geht es mir jedenfalls am A***** vorbei...
horn 12
2009-09-07, 23:36:32
Nun, morgen um diese Zeit könnten wir allesamt schon um einiges mehr wissen, schau ma mal...
Irgendwie scheinen die Leute unter NDA diesmal sehr viel disziplinierter zu sein...
StefanV
2009-09-08, 10:05:46
Liegt wohl daran, das die üblichen NDA Brecher seit einiger Zeit nicht mehr mit Vorab Infos versorgt werden, auch wenn sie etwas größer sind (THG).
Ailuros
2009-09-08, 10:13:47
Liegt wohl daran, das die üblichen NDA Brecher seit einiger Zeit nicht mehr mit Vorab Infos versorgt werden, auch wenn sie etwas größer sind (THG).
Genau; gilt uebrigens fuer beide IHVs.
Das ist das gleiche Geschrei wie mit der Qualität. Ohne genug Balken ist beides hinfällig.
Wie die Lemminge...
Zeiten und Umstände ändern sich und wer sich da weiter dekadenz übt darf sich auch nicht aufregen, dass die Gesellschaft so zerbröckelt.
Ich hätte mehr Taktspielraum erwartet, dank 40nm.
Da ist wohl der Prozess wohl doch noch nicht so optimiert.
mfg Nakai
Für was denn optimiert?
Es gibt Taktoptimierte Prozesse und energieoptimierte Prozesse.
Durch nur 10% Takt weniger kann man häufig die Spannung um mehr als 30% senken, was lediglich zeigt wie bescheuert ineffizient und am Limit bisher die Spannungs- und Taktvorgaben waren.
Ich hätte liebend gerne weniger Takt als letzte Generation, dafür 50% weniger Leistungsaufnahme. Lieber ein paar mehr Trannies, als hochgezüchtete heiße monster. Leider ist das nicht ganz billig, aber es ist definitiv der klügere und elegantere Weg.
Und der ist langsam notwendig, nach den ganzen Leistungsorgien die wir schon hatten befindet sich das Imperium am Abgrund, was man nicht zuletzt am wirtschaftlichen Zustand der betreffenden Firmen sieht. Ein Paradigmenwechsel steht schon seit langem an...
leider bin ich da aber nicht so ganz zuversichtlich.
Soviel ich AMD auch wünsche, Manager haben leider die unsägliche Eigenschaft gerade dann wenn ein Quantensprung nötig wäre um sich aus der prekären Lage zu befreien so konservativ wie nur irgend möglich zu sein. Dieses Gesocks ist echt das Größte Unglück für unseren Planeten seit dem dritten Reich (wobei ich Addi anhand des verhaltensschemas auch für einen Manager halte, aber einen schlechten, sonst hätte er früher aufgegeben und die Abfindung genommen).
Nakai
2009-09-08, 13:02:35
ch hätte liebend gerne weniger Takt als letzte Generation, dafür 50% weniger Leistungsaufnahme. Lieber ein paar mehr Trannies, als hochgezüchtete heiße monster. Leider ist das nicht ganz billig, aber es ist definitiv der klügere und elegantere Weg.
Und der ist langsam notwendig, nach den ganzen Leistungsorgien die wir schon hatten befindet sich das Imperium am Abgrund, was man nicht zuletzt am wirtschaftlichen Zustand der betreffenden Firmen sieht. Ein Paradigmenwechsel steht schon seit langem an...
Um 50% Leistungsaufnahme zu sparen müsste der Takt um etwa 30% gesenkt werden. So oder so, ich werde wohl, wenn ich mir eineneue Graka kaufe, den Takt ein bisschen senken. Hauptsächlich um die Temperatur und um die folgliche Lautstärke zu senken. Mit Spannungssenkung, müsste man den Takt dann nicht mal um 30% senken.
Ich persönlich brauche nicht die maximale Qualität, vor allem wenn man Qualität für notwendige Performance eintauschen kann. Wenn man genug Leistung hat, dann sollte die Qualität in den Vordergrund rücken.
Imo sollte man da ansetzten...
mfg Nakai
ShadowXX
2009-09-08, 13:13:54
Um wieviel Uhr unserer Zeit steigt eigentlich die "Party" auf dem Flugzeugträger?
Oder ist das auch durch ein NDA gedeckelt?
Diesmal scheint selbst das NDA durch ein NDA gedeckt zu sein ...
darkvader
2009-09-08, 13:35:08
Diesmal scheint selbst das NDA durch ein NDA gedeckt zu sein ...
Eigentlich sind die Daten einjes NDAs immer Bestandteil des NDAs.
Ailuros
2009-09-08, 15:44:02
Um wieviel Uhr unserer Zeit steigt eigentlich die "Party" auf dem Flugzeugträger?
Oder ist das auch durch ein NDA gedeckelt?
:popcorn: :popcorn: *************************** :popcorn: :popcorn:
w0mbat
2009-09-08, 16:07:06
Ich warte schon jede Minute darauf, dass was leaked. Weiß jemand wann es anfängt? In England ist es doch 1 Std. früher.
Hibbel hibble hibbel =D
Hab ich was verpasst? Bis zum 10. September sind es doch noch einige Stunden. Außerdem richtet sich das NDA sicher nicht nach Ortszeit...
AnarchX
2009-09-08, 16:25:49
Editor Days für Europa sind wohl schon heute.
reunion
2009-09-08, 16:28:40
Editor Days für Europa sind wohl schon heute.
Da ist aber wohl kaum was öffentlich. Aber vielleicht kommen ja ein paar Leaks. Auch beim Press-Event auf der USS Hornet am 10. September ist nur nach der Präsentation eine art "afterparty", wo Leute auf AMDs DX11-Hardware sich DX11-Spielen ansehen bzw. spielen können. Wieviel davon der Öffentlichkeit gezeigt wird bleibt abzuwarten. Das NDA fällt erst am 22. September.
w0mbat
2009-09-08, 16:31:20
Ja, aber ich hoffe eben auf Leaks. War doch bisher auch immer so ^.^
AnarchX
2009-09-08, 16:32:39
Ernsthaftere Infos wird es wohl eher aus Asien in Form ein paar Bilder und Infos zu Retailkarten geben und vielleicht dann noch ein paar Bilder/Tabellen/Balken aus dem Reviewer Guide, der für einen Launch am 22. auch bald verteilt werden sollte bzw. schon verteilt wurde.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.