PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - R700 im Q2 2008, multicore und 55 nm? Teil 3


Seiten : [1] 2 3 4

AnarchX
2008-05-30, 15:46:07
letztes Posting Teil 2: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6541988&postcount=2259


http://img133.imageshack.us/img133/742/02rv770part23ef5c47ir7.jpg (http://imageshack.us)
http://img515.imageshack.us/img515/1628/03rv770part23ef6c83ps3.jpg (http://imageshack.us)
http://img258.imageshack.us/img258/6730/04rv770part23ef90a5rn3.jpg (http://imageshack.us)
http://img520.imageshack.us/img520/3497/05rv770part23efb340ji7.jpg (http://imageshack.us)
http://img88.imageshack.us/img88/9046/06rv770part23efc716ci1.jpg (http://imageshack.us)
http://www.tomshardware.com/cn/382,news-382.html

Kühler der HD4000-Serie:
http://img229.imageshack.us/img229/725/r7xxcoolzi6.th.jpg (http://img229.imageshack.us/my.php?image=r7xxcoolzi6.jpg)

Weitere Daten:
- 480SPs für RV770 bestätigt durch F@H Team
- ~250mm² Die-Size für RV770 @ 55nm
- R700 (2xRV770) offenbar weiterhin nur normales CF

http://img407.imageshack.us/img407/389/attachment4248b32ewz7.jpg (http://imageshack.us)
http://www.nordichardware.com/news,7841.html

Anspruchsvollere 3DMark-Tests der HD4850:
http://publish.it168.com/2008/0610/20080610041602.shtml

Mal die interessantesten:
http://img362.imageshack.us/img362/4284/1039055562cf5f5ir0.jpg (http://imageshack.us)
http://img300.imageshack.us/img300/5540/1039057gu9.jpg (http://imageshack.us)
weitere im Link:
http://publish.it168.com/2008/0610/20080610041602.shtml

HD4850 3DMark Vantage Featuretests:
http://img218.imageshack.us/img218/349/4850vantageqz9.jpg
Zum Vergleich:
http://www.computerbase.de/artikel/software/2008/bericht_3dmark_vantage_der_performance_report/8/#abschnitt_featuretest

http://img171.imageshack.us/img171/7508/radeonhd4850copyee9f595tm6.jpg (http://imageshack.us)

http://img208.imageshack.us/img208/7812/radeonhd4870copyju5gi7.jpg (http://imageshack.us)

AnarchX
2008-05-30, 15:47:38
Weiß jemand hier schon genaueres über den UVD2 im RV770? Ich sehen ihn eben dauert auf irgendwelchen Folien/Infos, aber nie wird genau beschrieben was ihn vom UVD1 unterscheidet. Was wäre denn möglich oder sinnvoll?

- 2160p
- 7.1 über HDMI
- noch weniger CPU-Last
...

Wäre denkbar.

deekey777
2008-05-30, 15:50:05
Vielleicht HDMI 1.3 oder gar digitale 10-bit-Ausgabe.

w0mbat
2008-05-30, 15:52:25
Es gab mal Zeiten da hatte man eine schöne 40 Seiten Präsentation von ATI mit allen Detail, heute werden selbst die kleinsten Kleinigkeiten in eine eigene Präsi gesteckt und man hat keine Übersicht mehr :(

w0mbat
2008-05-30, 15:57:17
"ATI Radeon HD 4800 Series" = ati2mtag_R7X, PCI\VEN_1002&DEV_9440
"ATI Radeon HD 4800 Series " = ati2mtag_R7X, PCI\VEN_1002&DEV_9442
"R700" = ati2mtag_R7X, PCI\VEN_1002&DEV_9441

Von wegen 4 RV770 Einträge im Cat. 8.6, es sind nur 2 + R700XT.

Sorkalm
2008-05-30, 16:00:59
Bei dem Screen stand doch RV770 vorne, und nicht HD 4800 Series?

w0mbat
2008-05-30, 16:07:36
Ja und? Dann war eben nicht der Cat. 8.6 oder einer unfertige Version. RV770 & R700 werden im 8.6er unterstützt, aber es gibt keine 4 RV770-Versionen.

Gast
2008-05-30, 16:34:22
- noch weniger CPU-Last
...


eigentlich kaum mehr möglich, denkbar wären höchstens noch höhere auflösungen und/oder irgendwelche PP-effekte (wobei diese wohl über die shader-alus laufen würden, auch wenn ATI das ganze unter dem namen UVD zusammenfasst)

Psychopat
2008-05-30, 18:30:18
Drei Wochen vorm Launch, und es gibt noch immer keine gesicherten Informationen über die Performance des RV770. Vom GT200 gibts wenigstens bestätigte Vantage scores...

Gast
2008-05-30, 18:40:37
Drei Wochen vorm Launch, und es gibt noch immer keine gesicherten Informationen über die Performance des RV770. Vom GT200 gibts wenigstens bestätigte Vantage scores...

wo gibts bestätigte vantage scores das will ich sehen?

GeneralHanno
2008-05-30, 18:55:18
eigentlich muss man sagen, dass wir jetzt zu RV770 genau so wenig wissen wie vor 3 monaten ... :(

die G200 specs halte ich dagegen zu 99% für gesetzt!

Psychopat
2008-05-30, 19:45:31
wo gibts bestätigte vantage scores das will ich sehen?

Stehen in der Übersicht vom Sammelthread GT200 Teil 4

Gast
2008-05-31, 03:09:36
wenn die stimmen wäre ds ziemlich arm, das würde heissen keine doppelte 8800GTX Power.

Ailuros
2008-05-31, 07:19:13
wenn die stimmen wäre ds ziemlich arm, das würde heissen keine doppelte 8800GTX Power.

*seufz*

1920*1440 4xAA/16xAF

http://www.xbitlabs.com/images/video/foxconn-8800gtx/6dm3_4x.gif

8800GTX= 24.6
X1950XTX= 16.9
------------------
Unterschied = 46%

http://www.xbitlabs.com/images/video/foxconn-8800gtx/6dm4_4x.gif

8800GTX= 23.4
X1950XTX= 19.3
------------------
Unterschied = 21%

http://www.techreport.com/r.x/geforce-8800/oblivion-hdr-aa.gif

8800GTX= 54.7
X1950XTX= 28.2
------------------
Unterschied = 193%

http://www.techreport.com/articles.x/11211/14

Gast
2008-05-31, 10:18:52
Beim letzten Vergleich solltest Du die 1 von 193% wegstreichen. So stark ist sie nun doch nicht.

Ailuros
2008-05-31, 10:35:02
Beim letzten Vergleich solltest Du die 1 von 193% wegstreichen. So stark ist sie nun doch nicht.

Stimmt. Der Unterschied zur R580 ist sowieso um einiges kleiner als im Vergleich zu allem G7x. Es bleibt aber der Punkt dass man vom 3dfart Zeug keine falsche Schlussfolgerungen ziehen sollte.

nagus
2008-05-31, 12:00:45
Radeon 4850: http://www.bit-tech.net/news/2008/05/31/amd-radeon-hd-4850-pictured/1

http://images.bit-tech.net/news_images/2008/05/amd-radeon-hd-4850-pictured/amd4850-1.jpg
http://images.bit-tech.net/news_images/2008/05/amd-radeon-hd-4850-pictured/amd4850-2.jpg
http://images.bit-tech.net/news_images/2008/05/amd-radeon-hd-4850-pictured/amd4850-3.jpg
http://images.bit-tech.net/news_images/2008/05/amd-radeon-hd-4850-pictured/amd4850-4.jpg

Gast
2008-05-31, 12:15:41
Wow klein und kompakt.Jetzt muss die Leistung ungefähr auf 9800 GTX Level sein.Dann nehme ich die Karte mit kusshand.;)

Gast
2008-05-31, 14:01:45
1HE Lüfter sind mir suspekt, aber dann ist die Leistung der R4850 auch eher im 150€ Segment angelegt als alles andere.

Gast
2008-05-31, 14:34:42
HD4850=114 Watt TDP und Single-Slot-Kühler
HD3870=106 Watt TDP und Dual-Slot-Kühler
Bleibt nur zu hoffen, dass die HD4850 leise bleibt.

Nakai
2008-05-31, 14:49:09
Naja der Lüfter hat deutlich mehr Blätter abbekommen. Die Lautstärke wird wohl nicht so dolle sein...


mfg Nakai

clockwork
2008-05-31, 15:06:36
Wow klein und kompakt.Jetzt muss die Leistung ungefähr auf 9800 GTX Level sein.Dann nehme ich die Karte mit kusshand.;)
Warum gehen so viele davon aus das die kleine 4850 auf 9800GTX-Level sein wird/muss? Bei den Preisen wird die 4870 in der Region angesiedelt sein. Für ~150€ kommt das doch schon alleine wegen dem Preis niemals hin!

Gast
2008-05-31, 15:15:16
Warum gehen so viele davon aus das die kleine 4850 auf 9800GTX-Level sein wird/muss? Bei den Preisen wird die 4870 in der Region angesiedelt sein. Für ~150€ kommt das doch schon alleine wegen dem Preis niemals hin!


deshalb:

http://img258.imageshack.us/img258/6730/04rv770part23ef90a5rn3.jpg

Gast
2008-05-31, 16:24:46
deshalb:

http://img258.imageshack.us/img258/6730/04rv770part23ef90a5rn3.jpg

aber von den daten ganz locker sogar

crux2005
2008-05-31, 16:46:29
achso, von den Falschen Daten ?

OBrian
2008-05-31, 17:08:17
Wenn Nvidia im Bereich der GTX Konkurrenz bekommt, werden sie die Preise natürlich senken müssen. Falls die 4850 gleich stark wird und bei 150-180€ liegt, dann wird wohl kaum noch jemand die 9800GTX für 230€ kaufen.

Und warum sollte sie es nicht werden können? Wenn sie hardwaretechnisch auch nur irgendwas dran getan haben, wird sie wohl merklich schneller als die 3870, und von der bis zur 9800GTX sind es auch keine Welten.

Außerdem: Auf den von Nagus geposteten Bildern sieht man einen Aufkleber mit "FAST" auf der Rückseite, also muß sie schnell sein ;D

w0mbat
2008-05-31, 17:13:04
Den "FAST" Aufkleber bekommen nämlich nur Karten die die Schallmauer durchbrechen, also so laut sind ;)

Winter[Raven]
2008-05-31, 17:15:19
deshalb:

http://img258.imageshack.us/img258/6730/04rv770part23ef90a5rn3.jpg

Die Performance will ich erstmal auf Schwarz weiß sehen bevor ich so eine Folie schlucke...

//EDIT:

Wobei weniger als 9xxx Perf eine Blamage für AMD wäre ...

Psychopat
2008-05-31, 17:23:27
;6544360']Die Performance will ich erstmal auf Schwarz weiß sehen bevor ich so eine Folie schlucke...

//EDIT:

Wobei weniger als 9xxx Perf eine Blamage für AMD wäre ...

Das ist ja das Problem, es gibt bisher noch keine geleakten Performancedaten zum RV770. ARGH, ich will endlich wissen wie schnell der wirklich ist!!!

w0mbat
2008-05-31, 17:25:12
Sachte, sachet. Erstmal die Hardwaredaten leaken lassen, dann kommt die Performance.

Winter[Raven]
2008-05-31, 18:02:20
Sachte, sachet. Erstmal die Hardwaredaten leaken lassen, dann kommt die Performance.

LOL

Also wenn du von reiner Technik auf die Perf. schließen willst, dann gute Nacht.

Gast
2008-05-31, 18:05:06
Ich gehe nach den technischen Daten (falls sie stimmen) davon aus, dass die 4850 gleichauf mit der 9800GTX ist und die 4870 auf dem Niveau der GTX260.
Die 4870X2 dürfte dann sogar ca. 30% schneller als die GTX280 sein.

Nakai
2008-05-31, 18:06:19
;6544457']LOL

Also wenn du von reiner Technik auf die Perf. schließen willst, dann gute Nacht.

Ail hat oft genug betont, dass der Rv770 keine Effizienzsteigerungen hat. Er meinte sogar noch eher, dass er weniger Effizienz hat.
Von den Füllraten und der theoretischen Leistungen kann man in vielerlei Hinsicht einen Vergleich zum Vorgänger ziehen.


mfg Nakai

Gast
2008-05-31, 18:08:27
Das ist ja das Problem, es gibt bisher noch keine geleakten Performancedaten zum RV770. ARGH, ich will endlich wissen wie schnell der wirklich ist!!!

Ich glaube, wir werden diesmal eine schöne Überraschung erleben. Die Geheimhaltung ist wirklich gut (wie letztes mal beim G80).

Gosh
2008-05-31, 18:55:58
Wann soll der R700 kommen ?

Gast
2008-05-31, 19:08:26
;6544457']LOL

Also wenn du von reiner Technik auf die Perf. schließen willst, dann gute Nacht.

Er meinte damit, dass noch nichtmal die richtigen technischen Daten genannt wurden, wie Ail auch schon bestätigt hat.

w0mbat
2008-05-31, 19:18:57
* HD 4850 => 10 Prozent schneller als 9800 GTX
* HD 4870 => 40 Prozent schneller als 9800 GTX
* HD 4870 X2 => 30 Prozent schneller als 9800 GX2


http://www.hardware-infos.com/news.php?news=2110

dargo
2008-05-31, 19:39:21
Ich gehe nach den technischen Daten (falls sie stimmen) davon aus, dass die 4850 gleichauf mit der 9800GTX ist und die 4870 auf dem Niveau der GTX260.

Hast du hier einen Smiley vergessen? :tongue:

clockwork
2008-05-31, 19:49:08
http://www.hardware-infos.com/news.php?news=2110
Ist das ein AMD-Dokument? Woher nehmen die Zahlen wie "10% schneller"? Durch die Spezifikationen?

mapel110
2008-05-31, 19:51:44
CB-Rating
-------------
78.8 GTX
111.1 GX2
Steigerung +41 %
------------
Würde dann bedeuten
110.3 4870
144.4 4870 X2
Steigerung +31 %

Sieht für mich viel zu mager aus. Zumal man ja mit der X2 High End von der Konkurrenz angreifen will.

Eggcake
2008-05-31, 19:57:34
Ist das ein AMD-Dokument? Woher nehmen die Zahlen wie "10% schneller"? Durch die Spezifikationen?


Liest du auch was du anklickst?


[...]Nun ist uns erneut ein offizielles AMD-Dokument in die Hände gefallen, das auf den 26. Mai datiert ist[...]
.
.
.
.
[...]Des Weiteren sind uns aus anonymer Quelle Performanceangaben der neuen Chips zugetragen worden. Demnach sind sie wie folgt einzuschätzen:[...]

Der_Korken
2008-05-31, 19:59:18
CB-Rating
-------------
78.8 GTX
111.1 GX2
Steigerung +41 %
------------
Würde dann bedeuten
110.3 4870
144.4 4870 X2
Steigerung +31 %

Sieht für mich viel zu mager aus. Zumal man ja mit der X2 High End von der Konkurrenz angreifen will.

Ich würde hier nicht nach dem CB-Rating gehen, was das Performance-Plus zwischen 9800GTX und 9800GX2 angeht. Wenn der Speicher der beiden Karten reicht und ein Graka-Limit vorherrscht, dann ist die GX2 auch locker mal 70% schneller. Bei Speichermangel sind beide Karten dann allerdings auf einem Niveau; das ergibt im Mittel dann ein Plus von 41%, was aber wenig über das eigentliche Potenzial der beiden Karten aussagt.

Gast
2008-05-31, 20:00:49
http://www.hardware-infos.com/news.php?news=2110

"anonyme Quellen"? :lol:
Was sind denn bitte "anonyme Quellen"? Das ist ein Widerspruch in sich. Diese Iidioten.

clockwork
2008-05-31, 20:17:15
Liest du auch was du anklickst?



.
.
.
.
Ja, so wie die letzten 2 "AMD Dokumente" und Leistungsdaten von den "anonymen Quellen". :rolleyes:

Eggcake
2008-05-31, 20:25:02
Ja, so wie die letzten 2 "AMD Dokumente" und Leistungsdaten von den "anonymen Quellen". :rolleyes:

Hat irgendjemand gesagt die anonymen Quellen wären glaubhaft?

Psychopat
2008-05-31, 21:41:19
Ail hat oft genug betont, dass der Rv770 keine Effizienzsteigerungen hat. Er meinte sogar noch eher, dass er weniger Effizienz hat.
Von den Füllraten und der theoretischen Leistungen kann man in vielerlei Hinsicht einen Vergleich zum Vorgänger ziehen.


mfg Nakai

Eben wegen diesen Andeutungen von Ail mache ich mir sorgen das es keine so schöne Überraschung sein wird. Ail hat ja auch mal gemeint das noch keiner die RV770 Specs richtig hinbekommen hat.
Wenn man die bisherigen Specs als Basis nimmt, kommt der RV770XT auf dem Papier der GTX 260 nahe. Allerdings wird die GTX 260 bestimmt effizienter sein.

Gast
2008-05-31, 22:43:58
Sieht für mich viel zu mager aus. Zumal man ja mit der X2 High End von der Konkurrenz angreifen will.

Naja für AMD ist es das erste mal, das man nach einer X2 einen "Highend Chip" bringen wird. Da muss das Marketing gut geschürt sein, wenn die alte X2 die max Single GPU Ausführung des RV770 immer noch schlägt.

Gegen 2x 88000Ultra hat eine GTX260 sicher auch das nachsehen, aber da hat nV "geschickter" den G9x platziert.

Wenn AMD diesmal den nVidianischen Weg gegangen ist, haben sie ein wenig an der Architektur gefeilt und dann 1,5x "verbreitert". Ein mehr von allem bei gleicher Taktrate sollte im kleineren Prozess möglich sein und ein billiger Refresh geben bis R800 (hoffentlich ohne V...) kommt.
Die Frage ist wiedermal der Speicher, drücken sie GDDR5 wirds teuer, da die XT/XTX Variante 1GB davon brauch. Gehen sie GDDR3 ist ein breites SI so sicher wie bei nV.

Eventuell gibts ja 2 RV770 Varianten, wenn der GDDR5 Speicher knapp ist, hat man ja keine andere Wahl.

Ailuros
2008-06-01, 11:39:16
Es ist RV8x0 und es das genau was urspruenglich "R700" gewesen waere nur mit einem um einiges kleineren Herstellungsprozess.

d2kx
2008-06-01, 11:49:07
ATi-Forum.de: Weitere IDs der 4000-Serie

http://www.ati-forum.de/index.php?page=Attachment&attachmentID=796&h=8ced51f50393e291b7265c45b1b7ef429405289e

http://www.ati-forum.de/allgemein/news/516-ati-weitere-ids-der-4000-serie-further-ids-of-the-4000-series/

Fetza
2008-06-01, 12:47:04
"anonyme Quellen"? :lol:
Was sind denn bitte "anonyme Quellen"? Das ist ein Widerspruch in sich. Diese Iidioten.

Idiotisch ist es, substanzlos rumzutrollen..... eine anonyme quelle ist überhaupt nichts ungewöhnliches. Um es für dich verständlich zu formulieren: Jemand der dir infos über etwas gibt, sich dabei aber nicht selbst zu erkennen gibt, ist eine anonyme quelle.

Ich hoffe ich konnte helfen, und du benimmst dich demnächst mal besser.

Johnny Rico
2008-06-01, 12:59:22
Nicht darauf eingehen und Post löschen lassen. Das Du ernsthaft Deine Zeit damit verschwendest bringt den nun noch mehr zum lachen.

davidzo
2008-06-01, 19:16:55
ich wundere mich immernoch, warum beim GT200 immer ein geheimnis, ein sagenumwobener trick usw. vermuted wird, ist er doch auf dem papier nichtmal doppeltsobreit wie ein G92 und dennoch niedriger getaktet. Nvidia traut man also zu, einen besseren chip zu machen als anhand der technischen daten erwartet.
Wieso vermutet nichtmal jemand beim rv770, dass er besser wird als uns die technischen Daten bisher sagen?

Hier mal die CB-Daten http://www.computerbase.de/news/hardware/grafikkarten/2008/juni/die-plot_nvidia_gt200_ueberblick/

Chip RV770 Pro RV770 XT GT200 GT200
Transistoren ca. 800 Mio. ca. 800 Mio. ca. 1.400 Mio. ca. 1.400 Mio.
Fertigung 55 nm 55 nm 65 nm 65 nm
Die-Größe 256 mm² 256 mm² 576 mm² 576 mm²
Verbrauch 114 Watt 157 Watt 182 Watt 236 Watt
Chiptakt 625 MHz 850 MHz 575 MHz 602 MHz
Shadertakt 825 MHz 1.050 MHz 1.240 MHz 1.296 MHz
Shader-Einheiten
(MADD) 96 (5D) 96 (5D) 192 (1D) 240 (1D)
FLOPs (MADD/ADD) 792 GFLOPs 1.008 GFLOPs 714 GFLOP/s 933 GFLOPs
ROPs 16 16 28 32
Pixelfüllrate 10.000 MPix/s 13.600 MPix/s 16.100 MPix/s 19.264 MPix/s
TMUs 32 32 64 80
Texelfüllrate 20.000 MTex/s 27.200 MTex/s 36.800 MTex/s 48.160 MTex/s
Shader-Model SM 4.1 SM 4.1 SM 4 SM 4
Stromsparfunktion √ √ X X
Speichermenge 512 MB GDDR3
(1.024 MB GDDR3) 512 MB GDDR5
(1.024 MB GDDR5) 896 MB GDDR3 1.024 MB GDDR3
Speichertakt 1.143 MHz 1.935 MHz 999 MHz 1.107 MHz
Speicherinterface 256 Bit 256 Bit 448 Bit 512 Bit
Speicherbandbreite 73.152 MB/s 123.840 MB/s 111.888 MB/s 141.696 MB/s
Vorstellung 16./18. Juni 16./18. Juni 17. Juni 17. Juni
Preis $229 $329 $449 $649


Demnach müsste der RV770XT sogar einigermaßen gegen eine GTX260 anstinken können. Schließlich ist er in B andbreite, Shaderleistung 10% bzw. 30% überlegen und hängt in der Pixelfüllrate lediglich 20% und Texelfüllrate 30% hinterher.

Wo habt ihr eure grün gefärbte zauberkugel her um zu wissen dass der rv770 wieder nichts wird?
Ich für meinen teil bin mit den bisher bekannten technischen daten sehr zufireden und denke AMD wird sehr gute Chancen mit dem Chip haben.

Ist euch zum Beispiel schoneinmal aufgefallen dass der rv770 ein mobiles derivat haben wird, nicht aber der gt200?
Und gut 50% des pc-marktes ist mobil. auch ich habe meinen stationären rechner abgeschafft und mir ein T61 gekauft (mit nvidia graka :D)

deekey777
2008-06-01, 19:19:27
RV770 won’t do FSAA though Shader (http://www.fudzilla.com/index.php?option=com_content&task=view&id=7625&Itemid=65)

Es gab "nur" bestimmte Fälle, in denen die Shader den Resolve ("Zurückauflösen") übernommen haben. Hinzu kommt, dass Shader-Resolve eigentlich gleich so schnell oder schneller ist als "normaler" Weg. IMO eine Beruhigungspille.

RV770 HDMI supports AC3 and DTS audio (http://www.fudzilla.com/index.php?option=com_content&task=view&id=7626&Itemid=65)

Gast
2008-06-01, 19:22:49
Wo habt ihr eure grün gefärbte zauberkugel her um zu wissen dass der rv770 wieder nichts wird?
Ich für meinen teil bin mit den bisher bekannten technischen daten sehr zufireden und denke AMD wird sehr gute Chancen mit dem Chip haben.

Halt dich mal ein bissl zurück ja.

AMD stellt den RV770 nach eigenen Angaben in den oberen Mainstream Bereich, unter der 400€ Grenze.
Warum sollte man also davon ausgehen, dass er sich im Highend Bereich umher treibt?
Technische Daten vom RV770 sind bisher alle nicht korrekt bzw unvollständig, das wurde hier und bei Beyond3d gesagt. Niemand hat die finalen Specs bisher vollständig gezeigt.
Nur die Transistorzahl schein sich fix bei 800Mio zu bewegen, und der deutliche Unterschied zur GTX280 spricht hier wohl Bände.

Coda
2008-06-01, 19:23:13
RV770 won’t do FSAA though Shader (http://www.fudzilla.com/index.php?option=com_content&task=view&id=7625&Itemid=65)

Es gab "nur" bestimmte Fälle, in denen die Shader den Resolve ("Zurückauflösen") übernommen haben. Hinzu kommt, dass Shader-Resolve eigentlich gleich so schnell oder schneller ist als "normaler" Weg. IMO eine Beruhigungspille.
Shader-Resolve ist natürlich nicht schneller sondern langsamer als wenn man es in den ROPs macht. Wie kommst du darauf?

mapel110
2008-06-01, 19:24:33
davidzo, wir stützen uns glaube nahezu alle hier auf Aussagen von Ailuros, der bisher in den letzten Jahren bewiesen hat, dass er sehr gut informiert ist. Und er sagt, ATI wird gegen neues High End von nvidia nichts ausrichten können und obendrein ist das gar nicht das Ziel von ATI.
Ein Dualchip, um ein wenig ganz oben mitzuspielen, aber mehr wird da nicht kommen.

Such einfach mal nach den letzten Beiträgen von Ailuros, dann findest du alle Erklärungen dazu.

deekey777
2008-06-01, 19:29:38
Shader-Resolve ist natürlich nicht schneller sondern langsamer als wenn man es in den ROPs macht. Wie kommst du darauf?
Auf dem R600?
http://forum.beyond3d.com/showthread.php?t=47423

Psychopat
2008-06-01, 19:49:36
ich wundere mich immernoch, warum beim GT200 immer ein geheimnis, ein sagenumwobener trick usw. vermuted wird, ist er doch auf dem papier nichtmal doppeltsobreit wie ein G92 und dennoch niedriger getaktet. Nvidia traut man also zu, einen besseren chip zu machen als anhand der technischen daten erwartet.
Wieso vermutet nichtmal jemand beim rv770, dass er besser wird als uns die technischen Daten bisher sagen?


Der Grund warum beim G200 bessere Effizienz vermutet wird ist der G94. Die 9600GT kommt der 8800GT sehr nahe obwohl die 8800GT über 70% mehr Shaderleistung hat. Deswegen werden dem G94 gegenüber dem G92 Verbesserungen nachgesagt, die wohl auch im G200 drin sein werden. Ein weiterer Grund ist die lange Entwicklungszeit, die nVidia für den G200 hatte.
ATI hat dagegen kaum Geld und wenig Zeit in den RV770 investiert. Irgendwo müssen da also Abstriche gemacht worden sein.

Also Gerüchte und Speku zusammengefasst: RV770 hat keine Effizienzverbesserungen, G200 schon. Wie viel die dann im Endeffekt ausmachen, weis man halt nicht.

davidzo
2008-06-01, 19:52:03
Ich frag mich nur wie Ailuros auf die Idee kommt das AMD absichtlich die Effizienz der Shadereinheiten des rv770 im Gegensatz zum rv670 verschlechtert?

Es ist eher davon auszugehen, dass insbesondere im HQbereich bei FSAA und genaugigkeit Fortschritte gemacht wurden.

Außerdem sind die Daten des GT200 ebensowenig gesichert wie die des RV770, welchen ich derzeit für finaler halte. Schließlich sind vom GT200 bisher nur sehr sparsame Kartenshots zu sehen, während beim Rv770 bereits alloe fertige Skus und einzelteile (kühler) abgebildet wurden. Das spricht eher dafür, dass sich an den rv770 facts nur wenig ändert...

Nakai
2008-06-01, 19:54:14
Wo habt ihr eure grün gefärbte zauberkugel her um zu wissen dass der rv770 wieder nichts wird?
Ich für meinen teil bin mit den bisher bekannten technischen daten sehr zufireden und denke AMD wird sehr gute Chancen mit dem Chip haben.


Dann vergleich die Daten des RV770 mit dem RV670.
RV770XT 23200MTex/s 1008GFlops
Rv670XT 12400MTex/s 496GFlops
Leistungssprung: 87% 103%

(Bevor jemand meckert: Das dient nur zur Veranschaulichung, nicht die Realität, das ist nicht was ich glaube)


So und nun nimm mal das CB-Performanceratio raus und vergleiche.
Selbst wenn der RV770 doppelt so schnell wäre, wie ein RV670 kommt er gegen einen mehr als doppelten G80-Ultra nicht ran.
Selbst die Geforce GTX 260 ist noch 80% schneller wie eine Ultra,
wenn man die FLOPs betrachtet.

Du vergleichst 2 Architekturen, das klappt nicht.


mfg Nakai


€:
Ich frag mich nur wie Ailuros auf die Idee kommt das AMD absichtlich die Effizienz der Shadereinheiten des rv770 im Gegensatz zum rv670 verschlechtert?

Er hat gesagt, dass keine Effizienzbesserungen vorliegen. Und doppelte theoretische Daten bedeuten keine doppelte praktische Leistung.

Gast
2008-06-01, 19:56:21
Ich frag mich nur wie Ailuros auf die Idee kommt das AMD absichtlich die Effizienz der Shadereinheiten des rv770 im Gegensatz zum rv670 verschlechtert?


Beyond3d lesen, ist nicht auf seinem Mist gewachsen, er hat das eher nur hierher rübergetragen, wie andere Member dieses Forums auch!
Die Granularität scheint ein wenig unter der breiteren Architektur zu leiden, wenn ich Arun (beyond3d) richtig verstanden habe.
http://forum.beyond3d.com/forumdisplay.php?f=13

Das wäre eine Anlaufstelle, bevor man hier die Klappe aufreist und Mitreden will, und bitte vorhergehende Seiten mitlesen und nicht ans Ende springen und alte Kamellen aufwärmen.

Gast
2008-06-01, 19:57:38
Dann vergleich die Daten des RV770 mit dem RV670.
RV770XT 23200MTex/s 1008GFlops
Rv670XT 12400MTex/s 496GFlops
Leistungssprung: 87% 103%

(Bevor jemand meckert: Das dient nur zur Veranschaulichung, nicht die Realität, das ist nicht was ich glaube)


So und nun nimm mal das CB-Performanceratio raus und vergleiche.
Selbst wenn der RV770 doppelt so schnell wäre, wie ein RV670 kommt er gegen einen mehr als doppelten G80-Ultra nicht ran.
Selbst die Geforce GTX 260 ist noch 80% schneller wie eine Ultra,
wenn man die FLOPs betrachtet.

Du vergleichst 2 Architekturen, das klappt nicht.


mfg Nakai


€:


Er hat gesagt, dass keine Effizienzbesserungen vorliegen. Und doppelte theoretische Daten bedeuten keine doppelte praktische Leistung.

dito,

nur die xt hat 27.200 MT/s und nicht 23200MTex/s

seahawk
2008-06-01, 20:01:23
Momentan sind das alles Gerüchte. Ich kann mir nicht vorstelllen, dass RV770 nicht in der Lage sein wird zumindest die kleine GT2X0 auch als Single-GPU mächtig zu ärgern. So wie RV670 eben auch in der Lage ist den beschnittenen G92 mächtig zu ärgern.

w0mbat
2008-06-01, 20:21:06
Vorallem frage ich mich wieso die Gerüchte mit den Taktraten so hartnäckig halten. Bis auf den Coretakt des RV770 PRO, welcher bei den ENG Karte 625MHz beträgt, sind die alle falsch. Wie kommen die zB auf die 850MHz für die RV770 XT? Oder die 1143MHz GDDR3 für die RV770 PRO?

GeneralHanno
2008-06-01, 20:46:40
ich sehe beim R700 viele sachen, die ich als NICHT gesichert bezeichnen würde (weil's keine echten quellen dafür gibt):
- kann der RV770 wirklich 4z?
- hat der RV770 wirklich 32 TMUs?
- gibt es wirklich einen shadertakt?

mapel110
2008-06-01, 20:53:31
Momentan sind das alles Gerüchte. Ich kann mir nicht vorstelllen, dass RV770 nicht in der Lage sein wird zumindest die kleine GT2X0 auch als Single-GPU mächtig zu ärgern. So wie RV670 eben auch in der Lage ist den beschnittenen G92 mächtig zu ärgern.
G92 ist kein High End, das ist ein Mid Range Chip.
G80 war/ist bislang noch das wahre High End. Da kommt ATI bis heute nicht ran mit einem Chip(8xAA außen vor gelassen).

Und GT280/260 wird wohl vergleichbar mit 8800 GTX 768/8800 GTS 640.

seahawk
2008-06-01, 20:59:36
G92 ist High-End bei NV. G94 sollte wohl Mid Range sein. Allerdings war RV670 so stark, dass man gezwungen war High-End für Mid-Range-Preise zu verkaufen. Wenn RV770 nur stark genung ist um zumindest die kleine GT2X0 preislich angreifen zu können, dann ist das völlig ausreichend.

Gast
2008-06-01, 21:05:17
Kann mir nicht vorstellen das ATI jetzt auch einen eigenen Shader Takt hat, zu dem ich so meine zweifel habe das nicht der Shader Takt limitiert sondern das der ROP takt limitieren soll...

Gast
2008-06-01, 21:06:15
G92 ist High-End bei NV. G94 sollte wohl Mid Range sein. Allerdings war RV670 so stark, dass man gezwungen war High-End für Mid-Range-Preise zu verkaufen. Wenn RV770 nur stark genung ist um zumindest die kleine GT2X0 preislich angreifen zu können, dann ist das völlig ausreichend.

Der G92 ist sicher KEIN High-End!

Gast
2008-06-01, 21:08:36
Der G92 ist sicher KEIN High-End!

Er war es, als man die 8800GTX/GTS abgekündigt hat. Ein wenig das eine ein wenig das andere eben, harte Grenzen kann man da nicht ziehen. G80 und G200 hingegen sind einzig und allein Highend GPUs.

Gast
2008-06-01, 21:11:43
Der G90 wäre High-End gewessen, da ATI aber weit und breit keinen gescheiten Chip hatte wurde der gestrichen.

Schon die Bezeichnung G92 zeigt ganz deutlich das der Chip nie für den High-End Markt vorgesehen war!!!

dargo
2008-06-01, 22:12:58
Und GT280/260 wird wohl vergleichbar mit 8800 GTX 768/8800 GTS 640.
Nach den bekannten Daten wird der Performanceunterschied zwischen GTX280 und 260 kleiner ausfallen.

AnarchX
2008-06-02, 09:25:24
Topic? ;)

HD3870 vs 9600 GT kann in den dazu passenden (P)Review Threads im GPU-Forum diskutiert werden ggf. auch einem neuen Thread ala "HD3800 Performanceupdate - Cat 8.5"...

AnarchX
2008-06-02, 12:28:34
Da man sich nicht an die Bitte gehalten hat:
RV670 vs G94 - Leistungsverhältnis nach Cat8.5/Split aus "R700 im Q2 2008 Teil 3" (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=417670)

Hier soll es um RV770 gehen, wo hoffentlich auf der Computex, die morgen startet, einige Fakten ans Licht kommen. :)

w0mbat
2008-06-02, 13:02:44
Fudo ist auch schon da und wird einige interessante Sachen zu berichten haben :D

Gast
2008-06-02, 13:37:23
die da wären?

w0mbat
2008-06-02, 13:38:34
Woher soll ich das wissen, bin ich Fudo? ;)

Gast
2008-06-02, 13:38:56
wo hoffentlich auf der Computex, die morgen startet, einige Fakten ans Licht kommen. :)

Hoffe ich auch :)

Fudo ist auch schon da und wird einige interessante Sachen zu berichten haben :D

:rolleyes:

Nakai
2008-06-02, 14:04:13
dito,

nur die xt hat 27.200 MT/s und nicht 23200MTex/s

Das bezweifle ich.


mfg Nakai

Gast
2008-06-02, 14:24:10
Was hat es mit der "Terascale Graphics Engine" der neuen 4800 Serie auf sich?

gamingforce
2008-06-02, 14:44:08
Weiter bieten die Radeon HD 4800-Karten die neue TeraScale Graphics Engine, die auch 24-faches Custom Filter Anti-Aliasing ermöglicht. Laut der Präsentation bieten die neuen Grafikchips genug Rechenkraft, um auch für Physik-und Stream-Berechnungen, Künstliche Intelligenz oder Raytracing eingesetzt werden zu können.

Cpl. Dwayne Hicks
2008-06-02, 15:02:18
Das ist das einzige was ich an meiner früheren Graka (HD 2900XT) vermisse... das 24x Edge Detect CFAA, das war einfach nur göttlich z.B. in Silent Hunter 3. :smile:

Gast
2008-06-02, 15:17:02
Das ist das einzige was ich an meiner früheren Graka (HD 2900XT) vermisse... das 24x Edge Detect CFAA, das war einfach nur göttlich z.B. in Silent Hunter 3. :smile:


Ja, an die AA Qualität von ATI kommt Nvidia irgenwie nicht so ran. Wirkt mir selbst so bei 4xMSAA. Muss wohl was mit der Gammakorektur zu tun haben. Aber Mal sehen was G200 usw bringen.

Gast
2008-06-02, 16:04:50
Ja, an die AA Qualität von ATI kommt Nvidia irgenwie nicht so ran. Wirkt mir selbst so bei 4xMSAA. Muss wohl was mit der Gammakorektur zu tun haben. Aber Mal sehen was G200 usw bringen.

Die Qualität ist identisch, da beide über Gammakorrektur verfügen.

puntarenas
2008-06-02, 17:13:40
Die Qualität ist identisch, da beide über Gammakorrektur verfügen.

->
Den großen Pokal darf sich aber definitiv ATI abholen: Was hier im Zusammenspiel von acht Samples und dem Custom-Filter erreicht wird, ist bisher einfach ungeschlagen. Die Abstufungen sind schon fast fließend und dürften, mehr als alle anderen verfügbaren Modi, für ein sichtbar besseres Bild sorgen.Praxisvergleich Custom Filter & Coverage Sample Anti-Aliasing
(http://www.3dcenter.org/artikel/ati-radeon-hd-2900-xt-review/praxisvergleich-custom-filter-coverage-sample-anti-aliasing)

Gast
2008-06-02, 18:16:48
Lesen!

Bei gleichen Einstellungen sind die Ergebnisse quasi gleich! 4xMSAA enthält keine Custom Filter oder sonst etwas, es ist ein Standard.
Und Gammakorrektur liegt im Auge des Betrachters, ich seh leider kein Unterschied auch auf expliziteren Screenshots, beide IHVs bieten es aber an, bei nV ists afaik abschaltbar.

Gast
2008-06-02, 18:17:55
Was hat es mit der "Terascale Graphics Engine" der neuen 4800 Serie auf sich?

Tera - FLOP, ist eben ein guter Marketing Name, und der "Scale" bezieht sich wohl auf CF. 2x HD4800 im CF = 2TFLOP, theoretisch ;)

Gast
2008-06-02, 19:32:48
Tera - FLOP, ist eben ein guter Marketing Name,


Betonung aber auf FLOP, denn genau das wird der RV770 werden.;)

Gast
2008-06-02, 19:36:09
Betonung aber auf FLOP, denn genau das wird der RV770 werden.;)

Ich denke nicht Tim, schau dir mal die gute Performance des RV670 an. Der RV770 wird sich gut bis sehr gut gegen G92b schlagen (wann der kommt weis man ja noch nicht).
Also im 200-300€ Segment geht die Post ab, für G80 Käufer ist halt nix zu holen bei AMD aktuell, leider.

gamingforce
2008-06-02, 23:58:53
Betonung aber auf FLOP, denn genau das wird der RV770 werden.;)

ach gottchen:rolleyes:

Dicker Igel
2008-06-03, 00:10:51
Mal ne Frage am Rande: Kann man dann 3870/4870 CF machen ?

gamingforce
2008-06-03, 00:43:54
ne wird nicht gehen, 4850 und 4870 das geht also die Chips müssen gleich sein.

deekey777
2008-06-03, 00:55:34
GIGABYTE lets slip AMD and NVIDIA's next-gen graphics cards (http://www.hexus.net/content/item.php?item=13600)

Was zum Geier ist eine HD3950? Die "Radeon 9800GT"?

Eine weitere Idee wäre, dass es ein teildeaktivierter RV770 ist (als Bindeglied zwischen HD3850 <-> HD4850 oder als Ersatz für die HD3870 GDDR4).

Gast
2008-06-03, 00:59:03
GIGABYTE lets slip AMD and NVIDIA's next-gen graphics cards (http://www.hexus.net/content/item.php?item=13600)

Was zum Geier ist eine HD3950? Die "Radeon 9800GT"?


wahrscheinlich,amd sagt sich wohl was nv kann können wir auch:)

Dicker Igel
2008-06-03, 01:18:26
ne wird nicht gehen, 4850 und 4870 das geht also die Chips müssen gleich sein.

Im Grunde haben die 3850/3870 auch keine gleichen Chips oder kommt's da explizit auf die Serie an ?
Bei der 4850/4870 ist es ja wohl diesmal anders (gleiche GPU).

Edit: Wenn das mit der HD3950 stimmt, sollte dann ja CF gehen, rein von der Namensgebung her.

gamingforce
2008-06-03, 01:26:38
GIGABYTE lets slip AMD and NVIDIA's next-gen graphics cards (http://www.hexus.net/content/item.php?item=13600)

Was zum Geier ist eine HD3950? Die "Radeon 9800GT"?

Eine weitere Idee wäre, dass es ein teildeaktivierter RV770 ist (als Bindeglied zwischen HD3850 <-> HD4850 oder als Ersatz für die HD3870 GDDR4).

um die 9800GT von der Bildfläche zu pusten ;)

The most interesting card is the GV-R395-512H, according to the placeholder this card features the Radeon HD 3950 GPU with 512MB GDDR3 and a 256-bit memory bus. I assume this could be a GPU that's a bit faster than the Radeon HD 3870 but slower than the Radeon HD 4850. Time will tell.

gamingforce
2008-06-03, 01:27:34
Im Grunde haben die 3850/3870 auch keine gleichen Chips oder kommt's da explizit auf die Serie an ?
Bei der 4850/4870 ist es ja wohl diesmal anders (gleiche GPU).

Edit: Wenn das mit der HD3950 stimmt, sollte dann ja CF gehen, rein von der Namensgebung her.

doch, 3850 und 3870 sidn beide RV670, dabei ist egal ob DDR3 oder DDR4 hauotsache die GPU ist gleich, wenn die 3950 auch nen RV670 ist sollte CFX damit gehen ja.

Gast
2008-06-03, 03:20:41
GIGABYTE lets slip AMD and NVIDIA's next-gen graphics cards (http://www.hexus.net/content/item.php?item=13600)

Was zum Geier ist eine HD3950?

Eine weitere Idee wäre, dass es ein teildeaktivierter RV770 ist (als Bindeglied zwischen HD3850 <-> HD4850 oder als Ersatz für die HD3870 GDDR4).

Könnte auch der A12 sein?
Ich kann mir nicht vorstellen das die eine RV7xx in die HD3xxx Serie bringen.

AnarchX
2008-06-03, 07:30:26
Wohlmöglich auch nur ein einfacher Schreibfehler.

HPVD
2008-06-03, 08:27:08
hmmm- auch die Konkurenz scheint nun im Idle strom sparend zu sein: GTX 280 im Idle bei 25 Watt
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/juni/nvidia_geforce_gtx_280_idle_25_watt/

mal schauen ob die 4000er Serie es wirklich auf 10W im idle bringt...

in einem 24/7 Rechner bedeuten die 15W Unterschied (NV 25W- Ati 10W) bzw 19W an der Steckdose (Netzteilwirkungsgrad) übrigens ca 30€ Stromkostenunterschied pro Jahr...

Gast
2008-06-03, 08:42:12
hmmm- auch die Konkurenz scheint nun im Idle strom sparend zu sein: GTX 280 im Idle bei 25 Watt
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/juni/nvidia_geforce_gtx_280_idle_25_watt/

mal schauen ob die 4000er Serie es wirklich auf 10W im idle bringt...

in einem 24/7 Rechner bedeuten die 15W Unterschied (NV 25W- Ati 10W) bzw 19W an der Steckdose (Netzteilwirkungsgrad) übrigens ca 30€ Stromkostenunterschied pro Jahr...


Naja das Papier könnte auch zu 100 % fake sein.abwarten.

Tarkin
2008-06-03, 09:13:30
http://www.vr-zone.com/articles/Radeon_HD_4850_(RV770PRO)_Tested/5829.html

"We have spotted a RV770PRO demo system over at Computex and we have checked out the settings of the beta Catalyst drivers for RV770 series. The card can be easily overclocked to 700MHz core and as a result, the score for 3DMark Vantage is P6466."

Im CCC steht 625Mhz - die Frage ist, handelt es sich um den finalen Takt der 4850er? Oder ist das wieder ein "ES"?


(ohne jetzt das Testsystem zu kennen - GTX und Ultras sind hier in Bereichen zwischen 6000 und 6900 unterwegs)

Schlammsau
2008-06-03, 09:17:34
http://www.vr-zone.com/articles/Radeon_HD_4850_(RV770PRO)_Tested/5829.html

(ohne jetzt das Testsystem zu kennen - GTX und Ultras sind hier in Bereichen zwischen 6000 und 6900 unterwegs)

jepp, dass sind sie!
Allen anschein nach, sind die 4850 wirklich auf GTX Niveau! :biggrin:

AnarchX
2008-06-03, 09:20:05
Allen anschein nach, sind die 4850 wirklich auf GTX Niveau! :biggrin:
Hoffentlich auch abseits vom 3DMark.

Aber schon interessant, wie bedeckt sich ATi bei den finalen Taktraten hält.

Gast
2008-06-03, 09:20:49
Hui, Die Katze ist aus dem Sack. Das sieht doch schonmal gut aus. Man bedenke es ist die "Kleine";-)

AnarchX
2008-06-03, 09:23:58
Laut CJ soll R700 im 3DMV wohl mehr als doppelt so schnell wie die HD3870X2 sein:
http://gathering.tweakers.net/forum/view_message/30175545

Tarkin
2008-06-03, 09:27:31
Kann es sein, dass die 16xAF aktiviert und AI disabled hatte während des Benchmarks?

Na egal - bin echt gespannt auf die finalen Taktraten! 725Mhz vielleicht für die 4850er und 880 für die 4870er?

???

AnarchX
2008-06-03, 09:29:45
Kann es sein, dass die 16xAF aktiviert und AI disabled hatte während des Benchmarks?
Warum sollte man das tun?


Na egal - bin echt gespannt auf die finalen Taktraten! 725Mhz vielleicht für die 4850er und 880 für die 4870er?

???
Laut CJ wohl eher:
4850 <700MHz
4870 <800MHz

Noch etwas zu den Vantage-Scores von CJ:
But here's what you all wanted to hear.... According to the same source R700 scores about X5500> in Vantage.
Oh and my buddies at VR-Zone tested a HD4850 OC 700Mhz. P64xx score in Vantag
http://forum.beyond3d.com/showpost.php?p=1169916&postcount=2455

Tarkin
2008-06-03, 09:32:20
Warum sollte man das tun?

siehe screen ;-)

GeneralHanno
2008-06-03, 09:38:28
leider immer noch keine genaueren specs ... aber immerhin eine erste leistungseinschätzung

reunion@work
2008-06-03, 10:10:11
Hoffentlich auch abseits vom 3DMark.

Aber schon interessant, wie bedeckt sich ATi bei den finalen Taktraten hält.

Wenn wenigstens mal die Specs herauskommen würden. Aber AMD hält sich in der Tat sehr bedeckt.

Gast
2008-06-03, 10:12:52
Wenn wenigstens mal die Specs herauskommen würden. Aber AMD hält sich in der Tat sehr bedeckt.

Was nichts gutes bedeutet, wie man ja aus der Vergangenheit weiss. Ich tippe mal auf 650MHz bei der 4850 und 750MHz für die 4870.

Sorkalm
2008-06-03, 10:15:19
Wohlmöglich auch nur ein einfacher Schreibfehler.

Das wäre aber ein doppelter, denn auch im Produktnamen steht GV-395 usw., analog zu anderen Karten findet man da 387, 385 oder bei der obenstehenden 4850 eben 485.

AnarchX
2008-06-03, 10:17:48
Das wäre aber ein doppelter, denn auch im Produktnamen steht GV-395 usw., analog zu anderen Karten findet man da 387, 385 oder bei der obenstehenden 4850 eben 485.
Halt ein totaler Brain-Fault beim Ersteller dieses Schildes?

Ich will es nicht ausschließen, dass eine solche Karte existiert, jedoch tauchte sie bisher in keinem Treiber auf, wobei selbst RV770 schon seinen Auftritt hatte und eine HD3700 auf RV635-Basis für OEMs.

Sorkalm
2008-06-03, 10:36:36
Halt ein totaler Brain-Fault beim Ersteller dieses Schildes?

So gesehen - was sollte es denn werden, mit 512 MiB und 256 Bit GDDR3?

Eventuell ist das ja einfach eine weitere Version des RV670 auf höherem Takt mit GDDR3 und dem neuen Single-Slot-Kühler...

Winter[Raven]
2008-06-03, 10:48:28
Was nichts gutes bedeutet, wie man ja aus der Vergangenheit weiss. Ich tippe mal auf 650MHz bei der 4850 und 750MHz für die 4870.


R600 und Phentom lassen grüßen...

deekey777
2008-06-03, 11:29:35
;6551000']R600 und Phentom lassen grüßen...
Insbesondere der "Phentom".
Wie wär's, wenn du deine Aussage auch begründest? Denn sonst sieht's nach einem Troll-Posting aus.

Schlammsau
2008-06-03, 11:31:17
;6551000']R600 und Phentom lassen grüßen...

Bei den beiden war doch von vornherein bekannt, dass sie keine hohen Takraten erreichen würden.

Winter[Raven]
2008-06-03, 11:35:40
Insbesondere der "Phentom".
Wie wär's, wenn du deine Aussage auch begründest? Denn sonst sieht's nach einem Troll-Posting aus.

Das hat nichts mit dem Trolling zutun. Es ist schlicht und einfach nunmal so, dass sobald AMD bis zur letzten Minute schweigt, am Ende nichts wirklich vernünftiges rauskommt.

Ähnlich R600 oder der genannte Phenom.

R700 wird natürlich gute Perf. GPU aber aus der Geschichte sollte man wissen, dass nur der die GPUs verkauft, der auch High-End. zum Kauf anbietet.

Schlammsau
2008-06-03, 11:38:13
;6551122']Das hat nichts mit dem Trolling zutun. Es ist schlicht und einfach nunmal so, dass sobald AMD bis zur letzten Minute schweigt, am Ende nichts wirklich vernünftiges rauskommt.

Ähnlich R600 oder der genannte Phenom.

R700 wird natürlich gute Perf. GPU aber aus der Geschichte sollte man wissen, dass nur der die GPUs verkauft, der auch High-End. zum Kauf anbietet.

Blödsinn....der R600 wurde bis zum Release von ATi hoch gelobt!
Und laut neuesten Gerüchten soll der R700 den GT200 zumindest im Vantage zum Frühstück vernaschen! ;)
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6550833#post6550833

Gast
2008-06-03, 11:44:42
Blödsinn....der R600 wurde bis zum Release von ATi hoch gelobt!


Kannst du das belegen?

Schlammsau
2008-06-03, 11:56:45
Lies dir doch einfach mal den R600 Speku Thread durch.

reunion@work
2008-06-03, 12:08:43
;6551122']Das hat nichts mit dem Trolling zutun. Es ist schlicht und einfach nunmal so, dass sobald AMD bis zur letzten Minute schweigt, am Ende nichts wirklich vernünftiges rauskommt.

Ähnlich R600 oder der genannte Phenom.

R700 wird natürlich gute Perf. GPU aber aus der Geschichte sollte man wissen, dass nur der die GPUs verkauft, der auch High-End. zum Kauf anbietet.

AMD hält immer dicht. Es gibt auch absolut keinen Grund Informationen im voraus preis zu geben, davon profitiert nur die Konkurrenz. Man verwendet ja nicht umsonst NDAs. Nur weil diese bei NV löchrig sind wie ein schweizer Käse kann AMD nichts dafür. Daraus auf die Produktqualität zu schließen ist schon ziemlich weit hergeholt.

Gast
2008-06-03, 12:09:33
Etwas enttäuschend, dass der RV770 (P64XX) im Vantage nur geringfügig besser als ein RV670 (P4100) ist:
http://forum.beyond3d.com/showpost.php?p=1169916&postcount=2455
http://www.firingsquad.com/hardware/3dmark_vantage_performance/page9.asp

Hatte mir etwas mehr erhofft :(

Zockerfrettchen
2008-06-03, 12:13:33
Was erwartest du denn, das ist eine Pro^^, ich finds eigendlich wirklich gut. Sollten die Zahlen auch in Spielen auftreten werde ich sie mir kaufen.
Mfg Zockerfrettchen

Eggcake
2008-06-03, 12:15:01
Jo finds eigentlich auch gut...soll ja etwa auf 9800GTX-Niveau sein. Viel mehr sollte man auch nicht erwarten von der "kleinen".

Schlammsau
2008-06-03, 12:15:43
Etwas enttäuschend, dass der RV770 (P64XX) im Vantage nur geringfügig besser als ein RV670 (P4100) ist:
http://forum.beyond3d.com/showpost.php?p=1169916&postcount=2455
http://www.firingsquad.com/hardware/3dmark_vantage_performance/page9.asp

Hatte mir etwas mehr erhofft :(

:confused:
es wurde doch nur ein RV770Pro getestet. Für den RV770XT kannst nochmal rund 30% dazurechnen!

AnarchX
2008-06-03, 12:17:50
es wurde doch nur ein RV770Pro getestet. Für den RV770XT kannst nochmal rund 30% dazurechnen!
Wohl eher ~20%, da die Pro hier um gut 10% übertaktet war, passt dann auch wieder zu den 98GTX + 30%.

dildo4u
2008-06-03, 12:18:43
:confused:
es wurde doch nur ein RV770Pro getestet. Für den RV770XT kannst nochmal rund 30% dazurechnen!
Warum sollte man da noch mal 30% raufrechnen?Zwischen der 3850 und 3870 liegen auch nur ca 15-20% warum sollte der Unterschied diesmal größer sein wenn sich wieder nur der Takt unterscheidet?Imo wirds diesmal sogar enger weil ATI bei der XT sonst nicht das TDP einhalten kann und die Karte für Midrange zu viel Strom verbraucht.Nicht vergessen die RV770 hat wesentlich mher Shadereinheiten als die RV670 kommt aber im selben Fertigungsprozess.

Daredevil
2008-06-03, 12:20:03
Denke auch das ATI sich hier verschließt und nix groß rumposaunt da die Karte eben kein Überflieger wird aber sicher ne gute Karte in ihrem Preissegment.

Man sieht meist schon was die Karte leistet wenn man den Preis kennt... so war es bei der 2900xt auch.

reunion@work
2008-06-03, 12:26:49
Warum sollte man da noch mal 30% raufrechnen?Zwischen der 3850 und 3870 liegen auch nur ca 15-20% warum sollte der Unterschied diesmal größer sein wenn sich wieder nur der Takt unterscheidet?Imo wirds diesmal sogar enger weil ATI bei der XT sonst nicht das TDP einhalten kann und die Karte für Midrange zu viel Strom verbraucht.Nicht vergessen die RV770 hat wesentlich mher Shadereinheiten als die RV670 kommt aber im selben Fertigungsprozess.

Weil das AMD so sagt:

http://img88.imageshack.us/img88/9046/06rv770part23efc716ci1.jpg

Schlammsau
2008-06-03, 12:27:02
Warum sollte man da noch mal 30% raufrechnen?Zwischen der 3850 und 3870 liegen auch nur ca 15-20% warum sollte der Unterschied diesmal größer sein wenn sich wieder nur der Takt unterscheidet?Imo wirds diesmal sogar enger weil ATI bei der XT sonst nicht das TDP einhalten kann und die Karte für Midrange zu viel Strom verbraucht.Nicht vergessen die RV770 hat wesentlich mher Shadereinheiten als die RV670 kommt aber im selben Fertigungsprozess.

....weil bei der 48xx Serie, untereinander allein der Speichertakt fast verdoppelt wird!
Wie hoch war die Taktsteigerung bei 3850 und 3870? In etwa die Hälfte!
Ich denke, nein ich bin fest davon überzeugt, das die 4870 rund 30% schneller als die 4850 ist! Und natürlich, weil ATi es selbst so angibt!

mrt
2008-06-03, 12:28:04
Wohl eher ~20%, da die Pro hier um gut 10% übertaktet war, passt dann auch wieder zu den 98GTX + 30%.
GDDR3<-->GDDR5
Der Unterschied sollte größer sein als bei RV670. Aber ja, die Pro war hier übertaktet, allerdings nur der Chip und nicht der Speicher.

Psychopat
2008-06-03, 12:28:41
Warum sollte man da noch mal 30% raufrechnen?Zwischen der 3850 und 3870 liegen auch nur ca 15-20% warum sollte der Unterschied diesmal größer sein wenn sich wieder nur der Takt unterscheidet?Imo wirds diesmal sogar enger weil ATI bei der XT sonst nicht das TDP einhalten kann und die Karte für Midrange zu viel Strom verbraucht.Nicht vergessen die RV770 hat wesentlich mher Shadereinheiten als die RV670 kommt aber im selben Fertigungsprozess.

Also, das die RV770 XT etwa die doppelte Speicherbandbreite gegenüber der pro hat bringt keinerlei Mehrperformance, richtig? Und ausserdem sollen 20% mehr Coretakt etwa 50% mehr Watt brauchen (TDP: 110 Watt pro, 160 Watt xt), richtig?

][immy
2008-06-03, 12:29:56
Nicht vergessen die RV770 hat wesentlich mher Shadereinheiten als die RV670 kommt aber im selben Fertigungsprozess.
mh.. wurde etwas in richtung von mehr shadereinheiten schon bestätigt? bisher ist ja nur mehr oder minder durchgesickert das es mehr TMUs geben wird, aber ob es mehr Shadereinheiten gibt wurde bisher noch nicht bestätigt, oder?

mrt
2008-06-03, 12:31:42
96 Vec5 ALUs mit 1-1-1-1-1 Split aka 480 Shader gilt als bestätigt.

AnarchX
2008-06-03, 12:33:07
GDDR3<-->GDDR5
Der Unterschied sollte größer sein als bei RV670. Aber ja, die Pro war hier übertaktet, allerdings nur der Chip und nicht der Speicher.
Siehe #1, AMD schreibt doch selbst, dass Unterschied bei 30% bei den Referenzkarten liegen soll und beim Performance-Preset wird die HD4870 nicht unbedingt ihre >100GB/s auspielen können.

Es wird sich wohl eh zeigen müssen, ob es sich hier um mehr als ein Gimmick handelt, wobei mit 4Z und eben einer nahezu verdoppelten Bandbreite, die 4870 unter 4xMSAA sich so verhalten könnte wie RV670 unter 2xMSAA. Aber warten wir besser ab...

Zockerfrettchen
2008-06-03, 12:34:02
Man darf auch nicht vergessen das bei dem Test nur die Grafikkarte übertaktet war, der Prozzi also wahrscheinlich nicht. Wenn der auch noch übertaktet gewesen wäre, so wäre die Punktzahl dem entsprechend auch höher gewesen. Ich denke die angepeilten 10% schneller als eine 9800GTX sind realistisch.

mrt
2008-06-03, 12:37:58
@AnarchX
Du hast mich nicht richtig verstanden, ich wollte darauf hinaus, dass die Pro@700MHz keine 10% schneller war als die stock Pro. Im Schnitt dürften es die von AMD angegebenen 30% Unterschied zwischen den Karten sein, wobei ich mit 8xAA mehr erwarte.

Psychopat
2008-06-03, 12:38:10
Nicht zu vergessen war da AI off!

mrt
2008-06-03, 12:40:40
Nö AI Standard aber AF war übers CCC forciert, dürfte ein paar Punkte kosten.

AnarchX
2008-06-03, 12:42:26
Nicht zu vergessen war da AI off!
Ich sehe keinen Haken bei "Disable AI".

@AnarchX
Du hast mich nicht richtig verstanden, ich wollte darauf hinaus, dass die Pro@700MHz keine 10% schneller war als die stock Pro. Im Schnitt dürften es die von AMD angegebenen 30% Unterschied zwischen den Karten sein, wobei ich mit 8xAA mehr erwarte.
Jedoch skaliert Vantage im Performance-Preset noch sehr gut mit der GPU-Leistung. Aber warten wir besser die finalen Benchmarks ab.

Nö AI Standard aber AF war übers CCC forciert, dürfte ein paar Punkte kosten.
Oder man wollte hier die BQ im CCC demonstrieren. ;)
Der ATi-Partner wäre doch sehr dumm, wenn er so sein Produkt durch eine falsche Einstellung im allseitsbekannten 3DMark schlecht dastehen lässt.

gamingforce
2008-06-03, 12:44:46
was ist den nun mit dem Shadertakt?
Wird der RV770 den nun einenhaben so wie bei den NVs ?

dildo4u
2008-06-03, 12:54:55
GDDR3<-->GDDR5
Der Unterschied sollte größer sein als bei RV670. Aber ja, die Pro war hier übertaktet, allerdings nur der Chip und nicht der Speicher.
Die Speicherbandbreite wird wie bei der 2900XT einfach verpuffen.Eine Midrange Karte wie die 4780 braucht imo keine 130GB Speicherbandbreite.

Psychopat
2008-06-03, 12:59:22
Ich sehe keinen Haken bei "Disable AI".


Jo, mein Fehler. Hab nur den Slider ganz links gesehen. In früheren Catalyst war das doch mal die "off" position...

Die Speicherbandbreite wird wie bei der 2900XT einfach verpuffen.

Nein, weil die 4870 nahezu die doppelte Rechenleistung der 2900XT hat.

mrt
2008-06-03, 13:04:00
Jedoch skaliert Vantage im Performance-Preset noch sehr gut mit der GPU-Leistung. Aber warten wir besser die finalen Benchmarks ab.
Im Grunde richtig, bleibt die Frage wie Bandbreitenlastig der RV770 ist, Komprimierungsalgorithmen oder andere bandbreitensparenden Maßnahmen wurden nicht verändert bzw eingebaut soweit ich weiß.
Abwarten und Tee trinken, wobei spekulieren können wir ja trotzdem ;)

Oder man wollte hier die BQ im CCC demonstrieren. ;)
Der ATi-Partner wäre doch sehr dumm, wenn er so sein Produkt durch eine falsche Einstellung im allseitsbekannten 3DMark schlecht dastehen lässt.
Natürlich richtig, allerdings wäre es auch nicht das erste mal das ein kleiner Fehler passiert wäre.

mrt
2008-06-03, 13:06:38
Die Speicherbandbreite wird wie bei der 2900XT einfach verpuffen.
Nur das ein RV770 einen R600 zerlegt, nur logisch dass der dann deutlich mehr Bandbreite benötigt als letzterer.

dildo4u
2008-06-03, 13:10:26
Nur das ein RV770 einen R600 zerlegt, nur logisch dass der dann deutlich mehr Bandbreite benötigt als letzterer.
Es sind trotzdem ca 30-40GB Speicherbandbreite zu viel für diese Leistungsklasse imo Verschwendung die an der Verbraucher weiter gegeben wird.(Preis)Eine GTX280 hat nur 10 GB Speicherbandbreite mher und wird deutlich(Mindestens 50%) schneller sein.

Dicker Igel
2008-06-03, 13:13:04
Kann es sein, dass die 16xAF aktiviert und AI disabled hatte während des Benchmarks?

AI musste bspw. im 06 aus sein, sonst wurde der Bench abgebrochen, ist dass beim Vantage nicht mehr der Fall ?

pest
2008-06-03, 13:27:46
AI musste bspw. im 06 aus sein, sonst wurde der Bench abgebrochen, ist dass beim Vantage nicht mehr der Fall ?

mit AF oder immer? hatte keine Probleme mit A.I. im 06...allerdings auf X1900XT

][immy
2008-06-03, 13:30:42
Es sind trotzdem ca 30-40GB Speicherbandbreite zu viel für diese Leistungsklasse imo Verschwendung die an der Verbraucher weiter gegeben wird.(Preis)Eine GTX280 hat nur 10 GB Speicherbandbreite mher und wird deutlich(Mindestens 50%) schneller sein.
huch, wo kommen denn jetzt die "mindestens 50%" her. glaskugel? .. naja egal

die höhere speicherbandbreite durch einen hohen takt ist bei diesen größen wohl eher zweitrangig. desto höher der speicher getatktet ist, desto niedrieger sind die zugriffszeiten, was wiederum zu einer höheren gesamtperformance führen kann obwohl man die bandbreite vielleicht gar nicht braucht.

was soll das eigentlich immer mit dem "ist nur ein mainstream-chip". das ding wird das schnellste sein was ATi zu bieten hat (als single-karte) von daher kann man es theoretisch als High-End bezeichnen, denn nvidia wird garantiert nichts auf den markt bringen was gleich x-mal schneller ist. das würde einfach nichts bringen. es reicht wenn nvidia ein wenig schneller ist um ein prestige-objekt zu haben. mehr dürfte am ende auch nicht rauskommen. das die HD2900 XT "so schlecht" war, damit hat nvidia nun auch nicht gerechnet, denn sonst hätten sie die ultra niemals auf den markt gebracht (rat mal warum es seitdem keine schnellere einzelkarte von nvidia mehr gab). performance-könig zu sein ist zu teuer, vor allem wo dort eh kein geld verdient wird. inzwischen ist denen wohl aufgefallen das der Mainstream und OEM markt viel günstiger für sie ist. nvidia hat schließlich auch mit der FX5200 marktanteile trotz damals nicht ganz konkurenzfähiger hardware an sich reißen können.

high-end, aus heutiger sicht wird es immer weniger geben. vermutlich geht wirklich alles dazu hinüber das nur noch "main-stream" karten erscheinend und high-end dann über Crossfire und SLi abgedeckt wird. alles andere lohnt einfach so langsam nicht mehr.

Dicker Igel
2008-06-03, 13:33:42
mit AF oder immer? hatte keine Probleme mit A.I. im 06...allerdings auf X1900XT

Egal ob mit AF oder Anwendungsgesteuert, beim SM3 Test hat der 06er gemeckert. Das war bei mir auch mit einer 1950XTX so.

dildo4u
2008-06-03, 13:34:46
[immy;6551469']huch, wo kommen denn jetzt die "mindestens 50%" her. glaskugel? .. naja egal

Vantage Ergebnisse der GTX280 die hier auch zu den Einschätzungen des RV770 dienen.

reunion@work
2008-06-03, 13:36:38
Es sind trotzdem ca 30-40GB Speicherbandbreite zu viel für diese Leistungsklasse imo Verschwendung die an der Verbraucher weiter gegeben wird.(Preis)Eine GTX280 hat nur 10 GB Speicherbandbreite mher und wird deutlich(Mindestens 50%) schneller sein.

Ein Streamprozessor kann nicht zu viel Bandbreite haben. Der Vergleich R600 vs. RV670 ist unzulässig, da letzterer erhebliche Optimierungen gerade am Speichercontroller erleben durfte. Natürlich wird die doppelte Bandbreite nicht linear durchschlagen, aber selbst wenn sie nur zu 20% durchschlägt, kann sich das schon lohnen. Gerade mit MSAA/HDR und/oder FP16-Texturen kann man eh nicht genug Bandbreite haben.

Psychopat
2008-06-03, 13:49:04
Es sind trotzdem ca 30-40GB Speicherbandbreite zu viel für diese Leistungsklasse imo Verschwendung die an der Verbraucher weiter gegeben wird.(Preis)Eine GTX280 hat nur 10 GB Speicherbandbreite mher und wird deutlich(Mindestens 50%) schneller sein.

Schonmal daran gedacht, das GTX 280 vielleicht zuwenig Bandbreite hat? nVidia hat da ja GDDR3 bis aufs letzte ausgereizt. Warum wohl...

dildo4u
2008-06-03, 13:56:12
Schonmal daran gedacht, das GTX 280 vielleicht zuwenig Bandbreite hat? nVidia hat da ja GDDR3 bis aufs letzte ausgereizt. Warum wohl...
Sieht nicht danach aus gerade bei den Xterme Settings vom Vantage liegt sie noch sher gut.

Eggcake
2008-06-03, 14:02:48
Sieht nicht danach aus gerade bei den Xterme Settings vom Vantage liegt sie noch sher gut.

Das lässt doch überhaupt keinen Schluss auf zu wenig oder zuviel Speicherbandbreite zu...

Schlammsau
2008-06-03, 14:04:32
Also, dass der GT200 zu wenig Bandbreite hat, mag ich zu bezweifeln! Vergesst nicht das 512Bit SI!

dildo4u
2008-06-03, 14:09:20
Das lässt doch überhaupt keinen Schluss auf zu wenig oder zuviel Speicherbandbreite zu...
Doch es ist ein anspruchsvoller Bench und die Xtreme Setting bestehen aus einer sher hohen Auflösung plus AA und AF.Hätte der GT200 zu wenig Bandbreite würde sich der Vorsprung auf die anderen Karten verkleinern je weiter man die Settings erhöt.Der Bench ist zum heutigen Zeitpunkt selbst unter 1280*1024 ohne AA und AF noch extrem GPU limitiert also auch eine CPU Limitierung ist ausgeschlossen.

reunion@work
2008-06-03, 14:13:58
PC Parter starts mass production of Radeon HD 4850: http://www.pczilla.net/en/post/30.html

We are told that PC Partner, the VIP in AIBs, now starts mass production of Radeon HD 4850 GDDR3 Graphics Cards for AMD and ATI. These Graphics Cards are prepared for the RV770 launch in June 15.

As we know, AMD can get enough bulks of Radeon HD 4850 GDDR3 Graphics Cards for the hard launch at June 15 world widely.

We already know, Radeon HD 4850 GDDR3 graphics, with AMD's own Spider quad-core platform and beta version of Catalyst driver, it got P64xx in
3DMark Vantage test.

Kriton
2008-06-03, 14:24:13
Doch es ist ein anspruchsvoller Bench und die Xtreme Setting bestehen aus einer sher hohen Auflösung plus AA und AF.Hätte der GT200 zu wenig Bandbreite würde sich der Vorsprung auf die anderen Karten verkleinern je weiter man die Settings erhöt.Der Bench ist zum heutigen Zeitpunkt selbst unter 1280*1024 ohne AA und AF noch extrem GPU limitiert also auch eine CPU Limitierung ist ausgeschlossen.

D.h. aber nicht, dass sie mit besserer Bandbreite nicht dennoch besser performen könnte - wenn ich nicht irre (berichtigt mich hier ggfs.) ermöglicht eine hohe Speicherbandbreite doch auch einen geringeren Speichertakt (bei gleichem Datendurchsatz), damit dort wieder geringere Kosten, weniger Energieverbrauch, geringere Temperatur.

robbitop@work
2008-06-03, 14:24:55
Ein Streamprozessor kann nicht zu viel Bandbreite haben. Der Vergleich R600 vs. RV670 ist unzulässig, da letzterer erhebliche Optimierungen gerade am Speichercontroller erleben durfte. Natürlich wird die doppelte Bandbreite nicht linear durchschlagen, aber selbst wenn sie nur zu 20% durchschlägt, kann sich das schon lohnen. Gerade mit MSAA/HDR und/oder FP16-Texturen kann man eh nicht genug Bandbreite haben.
Das kann man schwer pauschalisieren. Es kommt auf die Dauer der zu berechnenden Quads an. Je länger ein Quad in der Pipeline bleibt, desto weniger Bandbreite zum VRAM ist nötig.

Gast
2008-06-03, 14:47:22
Es sind trotzdem ca 30-40GB Speicherbandbreite zu viel für diese Leistungsklasse imo Verschwendung die an der Verbraucher weiter gegeben wird.(Preis)Eine GTX280 hat nur 10 GB Speicherbandbreite mher und wird deutlich(Mindestens 50%) schneller sein.

Woher willst DU das wissen ?

dildo4u
2008-06-03, 14:47:58
Woher willst DU das wissen ?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6551482&postcount=153

deekey777
2008-06-03, 14:49:32
;6551122']Das hat nichts mit dem Trolling zutun. Es ist schlicht und einfach nunmal so, dass sobald AMD bis zur letzten Minute schweigt, am Ende nichts wirklich vernünftiges rauskommt.

Ähnlich R600 oder der genannte Phenom.

R700 wird natürlich gute Perf. GPU aber aus der Geschichte sollte man wissen, dass nur der die GPUs verkauft, der auch High-End. zum Kauf anbietet.

Was hat der Phenom als CPU mit dem R600 als GPU zu tun? Ich kann mich nicht erinnern, dass überhaupt ein IHV Monate vor dem Launch seiner Grafikkarten die anvisierten Taktraten offentlich genannt hat. Was man aber von diversen Vögeln hört, sind die anvisierten Takte, die nicht selten zugunsten von TDP, Kühlung oder Ausbeute nach unten korrigiert werden (Stichwort RV410, wo die X700XT gestrichen wurde).
Bei dem R600 wußte man mehrere Wochen vor dem Start, dass zwei R600er im CF-Verbund ein TFLOP erreichen können. Auch wußte man schon länger, dass der R600 nicht hoch getaktet werden wird, da er aufgrund seiner Größe zu stromhungrig wird.

Psychopat
2008-06-03, 15:19:11
Sieht nicht danach aus gerade bei den Xterme Settings vom Vantage liegt sie noch sher gut.

Ein Score, ohne Vergleichswerte zu weniger Bandbritenintensiven Settings sagt dir genau wieviel?

Datenvergleich:
GTX 280 legt im vgl. zu 8800GTX um 60,8% bei der Speicherbandbreite zu (142 vs 86,4 GB/s), hat jedoch etwa die doppelte (effektive) Rechenleistung. -> weniger Bandbreite pro Flop als G80.
Glaubst du, nVidia würde die teuren 0.83 ns GDDR3 verbauen, wenn GTX 280 genug Bandbreite hätte?

HOT
2008-06-03, 15:54:05
Beim 8800GTX war die Bandbreite garkein Flaschenhals :|

Ailuros
2008-06-03, 16:28:00
Na so langsam wird es doch ein klein bisschen waermer bei manchen was die Spezifikationen vom RV770 betrifft.

Von dem abgesehen ich wuerde liebend gerne wissen wo angeblich ATI den R600 hinter den Kulissen vor dem launch hochgelobt hat. Sie behaupteten lediglich dass das Ding effizienter mit D3D10 besser sei, was sich aber bis jetzt zumindest nicht beweisen konnte. Wenn man fast ein Jahr im Labor herumfuchtelt um Probleme zu beseitigen war es ihnen schon einige Zeit vor dem Launch klar dass sie erstens zu spaet damit ankommen werden und dass sie den finalen Preis reduzieren muessen.

Gast
2008-06-03, 16:28:13
jep, dewegen hat die Ultra 20GB/s mehr ;)

Ailuros
2008-06-03, 16:39:58
jep, dewegen hat die Ultra 20GB/s mehr ;)

Was sich aber nicht im wahren Leistungsunterschied zur 8800GTX wiederspiegelt, der sowieso von den Taktunterschieden kommt. Mit selbst einem moderaten overclock lassen sich meistens die Ultra scores schlagen, und dass ohne den laecherlichen MSRP Ueberpreis fuer die paar Protzprozentuale der extra Bandbreite die nur auf Papier was wert wahren.

Eggcake
2008-06-03, 17:17:00
Doch es ist ein anspruchsvoller Bench und die Xtreme Setting bestehen aus einer sher hohen Auflösung plus AA und AF.Hätte der GT200 zu wenig Bandbreite würde sich der Vorsprung auf die anderen Karten verkleinern je weiter man die Settings erhöt.Der Bench ist zum heutigen Zeitpunkt selbst unter 1280*1024 ohne AA und AF noch extrem GPU limitiert also auch eine CPU Limitierung ist ausgeschlossen.

Du hast ja erst 1 Wert, wie willst du da irgend eine "Verkleinerung des Vorsprungs" sehen?

Gast
2008-06-03, 20:16:46
Datenvergleich:
GTX 280 legt im vgl. zu 8800GTX um 60,8% bei der Speicherbandbreite zu (142 vs 86,4 GB/s), hat jedoch etwa die doppelte (effektive) Rechenleistung. -> weniger Bandbreite pro Flop als G80.
Glaubst du, nVidia würde die teuren 0.83 ns GDDR3 verbauen, wenn GTX 280 genug Bandbreite hätte?
Gegenfrage: Glaubst du, Nvidia würde die GTX 280 an Bandbreite verhungern lassen, wenn sich schon beim mittlerweile ziemlich alten G80 herausgestellt hätte, dass der knapp ist an Bandbreite?

Außerdem muss man ja noch ein bißchen Abstand nach unten zur GTX 260 schaffen

Gast
2008-06-03, 22:19:50
ComputerBase hat den vorläufigen Wert der HD 4850 mal in sein Performance-Rating aufgenommen:

http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/juni/radeon_hd_4850_8800_ultra/

dargo
2008-06-03, 23:13:57
Datenvergleich:
GTX 280 legt im vgl. zu 8800GTX um 60,8% bei der Speicherbandbreite zu (142 vs 86,4 GB/s), hat jedoch etwa die doppelte (effektive) Rechenleistung. -> weniger Bandbreite pro Flop als G80.
Glaubst du, nVidia würde die teuren 0.83 ns GDDR3 verbauen, wenn GTX 280 genug Bandbreite hätte?
Wieso vergleichst du die Bandbreite mit dem G80? Der GT200 sollte mindestens genauso "sparend" mit der Bandbreite umgehen wie der G92. Und wenn ich da an die G8800GTS denke (die G9800GTX hat zwar verhältnismäßig mehr Bandbreite die aber nicht wirklich viel bringt) dann wurde die Bandbreite hier mehr als verdoppelt.

Außerdem - wird nicht 0,83ns Vram bei der G9800GTX verbaut? Diese Karte wird gerade für <200€ angeboten. So teuer kann also selbst der schnellste GDDR3 nicht mehr sein.

Gast
2008-06-03, 23:14:36
ComputerBase hat den vorläufigen Wert der HD 4850 mal in sein Performance-Rating aufgenommen:

http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/juni/radeon_hd_4850_8800_ultra/


Und da Cb mit Sicherheit schon Karten der 4800 Serie da haben,kann man davon ausgehen das die Daten stimmen.:up:

Adam D.
2008-06-03, 23:28:02
Die Ergebnisse basieren rein auf den Angaben von VR-Zone, das Diagramm scheint rein der Anschauung zu dienen.

Gast
2008-06-03, 23:29:03
Und da Cb mit Sicherheit schon Karten der 4800 Serie da haben,kann man davon ausgehen das die Daten stimmen.:up:

Die haben mit sicherheit noch keine Karte. Wenn solch "unwichtige" Seiten schon eine hätten wäre das Netz schon voller Leaks.

gamingforce
2008-06-03, 23:34:20
seh ich auch so.

Adam D.
2008-06-03, 23:37:23
seh ich auch so.
Toll :D

Kaum jemand wird den G200/RV770 bis jetzt in Action gesehen haben, die Samples erreichen die Redaktionen doch ungefähr eine Woche vor dem Ende der NDA (was nicht heißt, dass CB nicht jetzt schon unter NDA steht).

Gast
2008-06-03, 23:48:19
22% schneller als die 8800gt? :lol:
Dafür braucht AMD fast 8 Monate?

Gast
2008-06-04, 00:03:12
Dass CB schon unter NDA - zumindest beim GT200 - steht, deutet sich insofern an, als dass eine gestern veröffetnlichte News zu dem Idle-Stromverbrauch des Chips - eben jenen 25 Watt - wieder entfernt wurde.
Der News waren übringens noch die Benchmark-Ergebnisse von VR-Zone beigelegt. Ich vermute, dass die News auf Drängen von Nvidia entfernt wurde. Womöglich, wie gesagt, sogar schon ein NDA-Verstoß. Soweit ich weiß, beginnt die NDA am 3. Juni beim Nvidia-Chip, das stand mal irgendwo.

Gast
2008-06-04, 00:03:52
Da wahr wohl ein richtiger Fanboy am werk, schon nur die Überschrift sagt ja alles...

Zudem wird bei denen in den News behaupten das die Karte auf standartakt lief, in der Quelle steht aber ganz klar das die Übertaktet wurde lol....

Gast
2008-06-04, 00:13:57
Die Überschrift setzt sich einfach so zusammen, dass die HD 4850 im hypothetischen Modell der 8800 Ultra am Nächsten ist.
Sollten jedoch die Details ein wenig hochgeschraubt werden, dürfte die 8800 Ultra schnell Oberwasser haben - aber das ist nur pure Spekulation.

Mich stört an dieser Stelle neben der Tatsache, dass die HD 4850 übertaktet wurde, allen voran, dass ihre Werte einem Core 2 Quad @ 4,0 GHz entspringen und die der HD-4000-Serie von VR-Zone auf einem Phenom-System - genaues Modell unbekannt - getestet wurde.
Insofern ein Diagramm zu erstellen, halte ich für verfrüht, da eben noch einige Faktoren (lief der Karte übertaktet?, Testsystem, Treiber) unbekannt sind.

wenn ihr das wüsstet
2008-06-04, 00:19:08
Dass CB schon unter NDA - zumindest beim GT200 - steht, deutet sich insofern an, als dass eine gestern veröffetnlichte News zu dem Idle-Stromverbrauch des Chips - eben jenen 25 Watt - wieder entfernt wurde.
Der News waren übringens noch die Benchmark-Ergebnisse von VR-Zone beigelegt. Ich vermute, dass die News auf Drängen von Nvidia entfernt wurde. Womöglich, wie gesagt, sogar schon ein NDA-Verstoß. Soweit ich weiß, beginnt die NDA am 3. Juni beim Nvidia-Chip, das stand mal irgendwo.


-CB hat weder G200 noch nen RV770
-der IDLE Stromverbrauch wurde nicht wegen der NDA raus genommen

(ich weiß ja was, was ihr nicht wisst :comfort: *ätsch*)

Gast
2008-06-04, 00:19:19
22% schneller als die 8800gt? :lol:
Dafür braucht AMD fast 8 Monate?

Ich sehe da 58% für die HD4870 :P

Gast
2008-06-04, 01:43:30
Da wahr wohl ein richtiger Fanboy am werk, schon nur die Überschrift sagt ja alles...

Zudem wird bei denen in den News behaupten das die Karte auf standartakt lief, in der Quelle steht aber ganz klar das die Übertaktet wurde lol....


eben diesoll bei 700 gelaufen sein und somit schon 10% über dem takt.dann kann man bei der 4870xt auch nicht mehr von 30% ausgehen sondern von 20% und dann sind es gerade mal 7800 punkte.

dildo4u
2008-06-04, 01:46:38
ComputerBase hat den vorläufigen Wert der HD 4850 mal in sein Performance-Rating aufgenommen:

http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/juni/radeon_hd_4850_8800_ultra/
Oh man die ham als Basis den Wert einer OC 4850 genommen irgendwie sollte CB mal weniger hastig die "News" posten und vorher kontrollieren.

Gast
2008-06-04, 01:52:28
Oh man die ham als Basis den Wert einer OC 4850 genommen irgendwie sollte CB mal weniger hastig die "News" posten und vorher kontrollieren.


aber das geht i.o. da die verwendete cpu weitaus schwächer war als beim cb gemachten bench.die von cb ist ein quad 4ghz und der amd soll ein phenom 2,5ghz sein.dann kann man den gpu overclock schon wieder knapp ausgleichen.

Schlammsau
2008-06-04, 06:42:14
obwohl ich das posten der Werte in CB für blödsinn halte, weil sie gerade für die 4870 höchst spekulativ sind, und einige DAU´s schon die Geldscheine zücken, passen sie trotzdem sehr gut in meine Erwartungen. Das die 4870 auf 3870X2 Niveau herumeiert!
Was schlussendlich heisst, dass sehr bald die X2 vom Markt verschwinden, und durch die 4870 ersetzt werden wird.
Weniger als X2 Leistung würde der schnellsten SingleGPU Karte von ATi sowieso nichts bringen!
Spinnen wir das jetzt mal weiter, und nehmen die 3870X2 Leistung mal 1,7.....schwupp di wupp haben wir die ungefähre Leistung eines R700!
Und wenn die GTX280 "nur" rund 2x schneller als eine 9800GTX ist! Würde die 4870X2 diesem schon sehr sehr nahe kommen. Evtl sogar übertrumpfen!

Gast
2008-06-04, 07:19:33
22% schneller als die 8800gt? :lol:
Dafür braucht AMD fast 8 Monate?

so ein schwachsinn. die letzten meldungen die ich kenne besagen 1.4x 9800xt!

Gast
2008-06-04, 07:20:29
1.4x9800GTX meinte ich ;)

Psychopat
2008-06-04, 08:07:31
Gegenfrage: Glaubst du, Nvidia würde die GTX 280 an Bandbreite verhungern lassen, wenn sich schon beim mittlerweile ziemlich alten G80 herausgestellt hätte, dass der knapp ist an Bandbreite?

Außerdem muss man ja noch ein bißchen Abstand nach unten zur GTX 260 schaffen
Wieder gegenfrage: wie sollte denn nVidia der GTX 280 noch mehr Bandbreite verschaffen? Es gibt kein schnelleres GDDR3...
Etwa ein 640 bit Si? Das Bordlayout ist eh schon teuer genug...

Psychopat
2008-06-04, 08:09:56
Außerdem - wird nicht 0,83ns Vram bei der G9800GTX verbaut? Diese Karte wird gerade für <200€ angeboten. So teuer kann also selbst der schnellste GDDR3 nicht mehr sein.

Und wieviel teurer ist die 9800GTX im vergleich zur GTS? Das ist der Aufpreis für RAM, HybridPower und Name.

AnarchX
2008-06-04, 11:54:07
GTX 280 Idle-Verbrauchsdiskussion in den GT200-Thread verschoben, bitte dort weiterdiskutieren.

Gast
2008-06-04, 12:57:39
Laut Fudo sind es aber nur ca. 5000 Punkte für die 4850, was nur auf 8800GT-Niveau wäre.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=7674&Itemid=1

Odal
2008-06-04, 13:09:10
fragt sich halt nur ob Q oder P punkte ^^ ausserdem is das noch cpu abhängig..Fudo spricht von nem 2,5Ghz Phenom was ja jetzt nicht so der kracher ist

Schlammsau
2008-06-04, 13:10:16
Laut Fudo sind es aber nur ca. 5000 Punkte für die 4850, was nur auf 8800GT-Niveau wäre.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=7674&Itemid=1

das wäre nur 3870 Niveau!

Gast
2008-06-04, 13:12:09
das kann nur "Q" sein,sonst kannste die Dinger vergessen,ich hab ja mit ner GX2 knappe 11000 "P".

pest
2008-06-04, 13:13:41
The X4100 number for the GTX 280 was correct with the drivers at the time. Seems that NV was able to push it to X4800 with the latest drivers. They might add some more points when they enable PhysX on their GPU, but that kinda goes against Futuremark rules... since a PPU can assist for a higher score and not a GPU... this could add up to 1000 points in the CPU test... so we'll have to see what Futuremark decides about including the PhysX into the score....

But here's what you all wanted to hear.... According to the same source R700 scores about X5500> in Vantage.
Oh and my buddies at VR-Zone tested a HD4850 OC 700Mhz. P64xx score in Vantage.


http://forum.beyond3d.com/showthread.php?p=1169916#post1169916

Gast
2008-06-04, 13:14:49
was ist denn mit q oder mit p gemeint?

pest
2008-06-04, 13:19:07
There's no "Q" ;)

Odal
2008-06-04, 13:24:14
There's no "Q" ;)

ja halt X...wobei Q für Quality für mich mehr sinn macht ^^

Gast
2008-06-04, 13:30:48
es ist die gpu score und nicht der gesamtwert.

http://www.abload.de/img/1111sup.gif

Schlammsau
2008-06-04, 13:36:53
es ist die gpu score und nicht der gesamtwert.

http://www.abload.de/img/1111sup.gif

Das würde mehr Sinn machen!
Also GTX Niveau! :biggrin:

Gast
2008-06-04, 13:43:25
Das würde mehr Sinn machen!


Wieso? Weil dir das Ergebniss besser passt?

AffenJack
2008-06-04, 13:49:52
Weil es besser zu den Punkten von vr-zone und allen andern bisherigen leistungseinschätzungen passt

dildo4u
2008-06-04, 13:50:52
Weil es besser zu den Punkten von vr-zone und allen andern bisherigen leistungseinschätzungen passt
Die Karte war bei VR Zone übertaktet.

AffenJack
2008-06-04, 13:53:07
Und etwas mehr als 10% übertaktung soll für nen unterschied von 6400 zu 5000 Punkten sorgen?etwas unglaubhaft

Schlammsau
2008-06-04, 13:55:05
Die Karte war bei VR Zone übertaktet.

meinst du, die Übertaktung würde über 1400Punkte im Vantage bringen?
Und laut VR-Zone, die im übrigen auch sehr glaubhafte Leaks zum GT200 veröffentlicht hat, war die übertaktete 4850 sogar scheller als eine 8800Ultra!
Also gehe ich davon aus, dass eine nicht übertaktete Karte auf 9800GTX Niveau ist!
Das solltest du auch! ;)

dildo4u
2008-06-04, 13:55:17
Die CPU spielt auch ein bissel mit rein klar ein Test mit einer AMD Krücke und einer whol mit einem 3.2 Intel Quad.Aber alles in allem sinds whol eher 5500 als 6500 ohne OC.

Schlammsau
2008-06-04, 13:57:16
Die CPU spielt auch ein bissel mit rein klar ein Test mit einer AMD Krücke und einer whol mit einem 3.2 Intel Quad.Aber alles in allem sinds whol eher 5500 als 6500 ohne OC.
;D 1000 Punkte nur durch GPU übertakten?.....ich hau mich weg!
Bei meiner 3870 hab ich gerade mal 200 Punkte im Vantage Score, durch OC'ing schinden können! Und da war die Karte aber sowas von am Limit......

AnarchX
2008-06-04, 14:28:12
RV770 Tech-Demo-Videos? (http://translate.google.com/translate?u=http%3A%2F%2Fwww.4gamer.net%2Fgames%2F045%2FG004578%2F20080604037%2F&sl=ja&tl=en&hl=ja&ie=UTF-8)
http://img140.imageshack.us/img140/1748/00333aa232cdn0.jpg (http://imageshack.us)

Auch ATi kann große Sprüche klopfen. :D

pest
2008-06-04, 14:40:35
ich finde die X5500 des R700 viel beeindruckender

Gast
2008-06-04, 14:40:50
RV770 Tech-Demo-Videos? (http://translate.google.com/translate?u=http%3A%2F%2Fwww.4gamer.net%2Fgames%2F045%2FG004578%2F20080604037%2F&sl=ja&tl=en&hl=ja&ie=UTF-8)
http://img140.imageshack.us/img140/1748/00333aa232cdn0.jpg (http://imageshack.us)

Auch ATi kann große Sprüche klopfen. :D

ist nur meist mehr dran als wenn es nv macht:)

Gast
2008-06-04, 15:01:04
wow der RV770 scheint ja doch ein richtiger hammer zu werden, bei dem was hier nach und nach alles durchsickert

würde mich nicht wundern wenn nvidia dadurch in massiven zugzwang kommt

Godmode
2008-06-04, 15:08:16
wow der RV770 scheint ja doch ein richtiger hammer zu werden, bei dem was hier nach und nach alles durchsickert

würde mich nicht wundern wenn nvidia dadurch in massiven zugzwang kommt

Die 4850 und 4870 sind sicher gute Karten aber ich kann mir nicht vorstellen, dass sie mit der X2 was reißen werden!
edit: CF || SLI in der jetzigen Form ist keine Option für mich.

Eggcake
2008-06-04, 15:10:18
Die 4850 und 4870 sind sicher gute Karten aber ich kann mir nicht vorstellen, dass sie mit der X2 was reißen werden!
edit: CF || SLI in der jetzigen Form ist keine Option für mich.

Seh ich ähnlich. Bisher sagen mir die 4850 und 4870 sehr zu, doch eine "X2", mag sie noch soviele X-Punkte im Vantage erreichen ist einfach keine Option mit den derzeitigen Problemen. Sobald diese grösstenteils behoben sind gehören den Multi-GPU-Karten die Zukunft, doch vorher nicht.

dildo4u
2008-06-04, 15:14:01
ich finde die X5500 des R700 viel beeindruckender
Wieso das sind 2 Chips also kein Wunder(Stromverbrauch wird entsprechend sein) und die Performance ist im Prinzip Wertlos wenn das Problem http://www.pcgameshardware.de/aid,631607/Praxis/Videobeweis_Mikroruckler_zerstoeren_den_leistungssteigernden_Effekt_von_Multi-GPU-Loesungen/ mit der Karte nicht gelöst wird.

Gast
2008-06-04, 15:17:14
Seh ich ähnlich. Bisher sagen mir die 4850 und 4870 sehr zu, doch eine "X2", mag sie noch soviele X-Punkte im Vantage erreichen ist einfach keine Option mit den derzeitigen Problemen. Sobald diese grösstenteils behoben sind gehören den Multi-GPU-Karten die Zukunft, doch vorher nicht.

Wird sich beim ersten Testlauf zeigen. Gerade der Vantage Xtreme soll ja sehr anfällig für das Microruckler-Problem sein.

Schlammsau
2008-06-04, 15:19:29
Microruckler werden überbewertet!
Ein Game mit weniger als 30fps ist für die meisten sowieso schon "unspielbar"!
Und durch CF oder SLi, hat man etwas mehr Ruckeln wenn man unter 30fps kommt!
Über 30fps sind absolut problemlos mit MGPU Systemen!

pest
2008-06-04, 15:22:15
verdammt ich wusste, das ich was vergessen hab dazuzuschreiben...
jetzt kommen wieder alle mit den Microrucklern...ihr müsst die Karte ja nicht kaufen

dildo4u
2008-06-04, 15:24:08
verdammt ich wusste, das ich was vergessen hab dazuzuschreiben...
jetzt kommen wieder alle mit den Microrucklern...ihr müsst die Karte ja nicht kaufen
Muss man auch nicht NV wird eine Singlechip Karte anbieten die maximal 20% langsammer ist weniger Strom verbraucht wird und das alles ohne extra Profile für jedes Games und Microruckler.

Gast
2008-06-04, 15:36:11
Microruckler werden überbewertet!
Ein Game mit weniger als 30fps ist für die meisten sowieso schon "unspielbar"!
Und durch CF oder SLi, hat man etwas mehr Ruckeln wenn man unter 30fps kommt!
Über 30fps sind absolut problemlos mit MGPU Systemen!

so ist es, ich kann die kacke nicht mehr hören.

Gast
2008-06-04, 15:52:57
Microruckler werden überbewertet!
Ein Game mit weniger als 30fps ist für die meisten sowieso schon "unspielbar"!
Und durch CF oder SLi, hat man etwas mehr Ruckeln wenn man unter 30fps kommt!
Über 30fps sind absolut problemlos mit MGPU Systemen!


Mikroruckler werden unterbewertet, denn wenn das Multi-GPU System über 30fps liegt, dann Single-GPU auch.
CF und SLI bleiben Unsinn, egal wie hoch die fps sind.

Gast
2008-06-04, 16:00:58
Mikroruckler werden unterbewertet, denn wenn das Multi-GPU System über 30fps liegt, dann Single-GPU auch.
CF und SLI bleiben Unsinn, egal wie hoch die fps sind.

Wenn der Preis stimmt, ist das in keinstem Fall Unsinn.
Persönliches Beispiel: Age of Conan max Settings 8xMSAA/16AF.
2xHD3870

Mit einer Karte: durchschnittlich 20fps
Mit beiden Karten: durchschnittlich 35fps

Nun sagt ihr, dass fps Angaben wertlos sind. Meinedwegen, aber trotzdem habe ich nur mit meinen 2 aktivierten Karten und 35 CF-Fps ein durchgehen flüssiges Spielgefühl. Kann ja sein, dass es in Wirklichkeit dank den Mikrorucklern nur 30 "Sehbare" sind.
Ich kann trotzdem nur mit Hilfe der 2. Karte Age of Conan auf den o.g. Settings flüssig zocken.

Gast
2008-06-04, 16:01:04
Mikroruckler werden unterbewertet, denn wenn das Multi-GPU System über 30fps liegt, dann Single-GPU auch.
CF und SLI bleiben Unsinn, egal wie hoch die fps sind.


Den Zusammenhang musst du mal näher erläutern, der wird aus deiner Äusserung nämlich nicht klar

VooDoo7mx
2008-06-04, 16:21:26
Muss man auch nicht NV wird eine Singlechip Karte anbieten die maximal 20% langsammer ist weniger Strom verbraucht wird und das alles ohne extra Profile für jedes Games und Microruckler.

Ich glaube die GTX280 wird schneller sein als die HD4870X2.
Von GTX280 SLi oder triple SLi ganz zu schweigen. :ugly:

Nakai
2008-06-04, 16:23:34
Ich glaube die GTX280 wird schneller sein als die HD4870X2.
Von GTX280 SLi oder triple SLi ganz zu schweigen

Was auch total in andere Preisregionen liegt.
Die HD4870X2 wird schon nicht schlecht werden, jedenfalls für den angepeilten Preis.
Wird wohl ähnlich hohe TDP wie die GTX280 haben.


mfg Nakai

Gast
2008-06-04, 16:28:42
ich finde die X5500 des R700 viel beeindruckender


dann ist ja mit 2 x4870xt die 6000 machtbar.

Gast
2008-06-04, 16:40:35
Was auch total in andere Preisregionen liegt.
Die HD4870X2 wird schon nicht schlecht werden, jedenfalls für den angepeilten Preis.
Wird wohl ähnlich hohe TDP wie die GTX280 haben.


mfg Nakai

Schlecht ist sie alleine deswegen, weil es eine gleichwertige Single-Chip Karte gibt.

GeneralHanno
2008-06-04, 16:51:03
CB hat auf der computex wohl zugeflüstert bekommen, dass die 4870X2 die GTX-280 schlagen kann ;)

http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/juni/radeon_hd_4870_x2_geforce_gtx_280/

Gast
2008-06-04, 17:02:19
CB hat auf der computex wohl zugeflüstert bekommen, dass die 4870X2 die GTX-280 schlagen kann ;)

http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/juni/radeon_hd_4870_x2_geforce_gtx_280/

das war ja zu erwarten,alles andere wäre eine überraschung

Nakai
2008-06-04, 18:16:11
Schlecht ist sie alleine deswegen, weil es eine gleichwertige Single-Chip Karte gibt.

Wenn die HD4870X2 mindestens 10% schneller wäre, dann wäre dieses Manko relativ ausgeglichen.

Natürlich kauft sich der ultimative Highend-User(Tombman?!^^) dann lieber 2 GTX280 und lässt sie in SLI betreiben. Man bin ich gespannt wie das ausgeht.
ATI könnte dann endlich wieder im Highend etwas mitmischen und im Mainstreambereich hat man auch eine sehr gute Karte auf Lager.


mfg Nakai

Gast
2008-06-04, 18:24:43
TechVideo.

http://translate.google.com/translate?u=http%3A%2F%2Fwww.4gamer.net%2Fgames%2F045%2FG004578%2F20080604037%2F&sl=ja&tl=en&hl=ja&ie=UTF-8

Gast
2008-06-04, 18:27:58
Wenn die HD4870X2 mindestens 10% schneller wäre, dann wäre dieses Manko relativ ausgeglichen.

Natürlich kauft sich der ultimative Highend-User(Tombman?!^^) dann lieber 2 GTX280 und lässt sie in SLI betreiben. Man bin ich gespannt wie das ausgeht.
ATI könnte dann endlich wieder im Highend etwas mitmischen und im Mainstreambereich hat man auch eine sehr gute Karte auf Lager.


mfg Nakai

die wird aber mindestens 25% schneller sein,wie kommt ihr eigentlich aufso ein kleines sümmchen? und was der ösi da macht ist doch egal oder interessiert das jemanden?der kann meinetwegen im triple laufen lassen ist aber immer noch wayne.

Gast
2008-06-04, 18:34:25
Wenn der Preis stimmt, ist das in keinstem Fall Unsinn.
Persönliches Beispiel: Age of Conan max Settings 8xMSAA/16AF.
2xHD3870

Mit einer Karte: durchschnittlich 20fps
Mit beiden Karten: durchschnittlich 35fps

Nun sagt ihr, dass fps Angaben wertlos sind. Meinedwegen, aber trotzdem habe ich nur mit meinen 2 aktivierten Karten und 35 CF-Fps ein durchgehen flüssiges Spielgefühl. Kann ja sein, dass es in Wirklichkeit dank den Mikrorucklern nur 30 "Sehbare" sind.


Nein, du siehst auch mit CF nur etwa 20fps, weil die Frames der 2. Karte dank Mikroruckler zeitlich zu dicht an denen der 1. Karte liegen.

Gast
2008-06-04, 18:36:44
Wenn die HD4870X2 mindestens 10% schneller wäre, dann wäre dieses Manko relativ ausgeglichen.

mfg Nakai

Bei 30% mehr Stromverbrauch und Mikrorucklern? Ist jetzt nicht dein Ernst?

Daredevil
2008-06-04, 18:46:50
Muss man auch nicht NV wird eine Singlechip Karte anbieten die maximal 20% langsammer ist weniger Strom verbraucht wird und das alles ohne extra Profile für jedes Games und Microruckler.
Für die PerformanceKrone und 20% Mehrleistung darf sie das auch. :tongue:

Unyu
2008-06-04, 18:49:12
Für die PerformanceKrone und 20% Mehrleistung darf sie das auch. :tongue:
Auf dem Papier. ;)
Die 20% verpuffen eben in ungleichmäßiger Frameverteilung. :tongue:

Gast
2008-06-04, 18:51:42
Aha experten alles hier.Ich wisst auch shcon alle das es 20 % sind.

Ihr wisst natürlich auch das die x2 mehr strom frisst.:rolleyes:

Daredevil
2008-06-04, 18:54:20
Is doch eben nur Spekulation :)

Auf dem Papier. ;)
Die 20% verpuffen eben in ungleichmäßiger Frameverteilung. :tongue:
Und die 20% weniger lassen das Bild ggf. auch Ruckeln ;)

Bleibt nur abzuwarten wo die ATI schneller sein soll und wieviel % Skalierung sie erreicht hat bei der "Quelle" :)

Gast
2008-06-04, 18:55:46
Wenn die HD4870X2 mindestens 10% schneller wäre, dann wäre dieses Manko relativ ausgeglichen.

Natürlich kauft sich der ultimative Highend-User(Tombman?!^^) dann lieber 2 GTX280 und lässt sie in SLI betreiben. Man bin ich gespannt wie das ausgeht.
ATI könnte dann endlich wieder im Highend etwas mitmischen und im Mainstreambereich hat man auch eine sehr gute Karte auf Lager.

mfg Nakai

Sie wird aber nicht immer schneller sein - hallo, es bleibt profilebasierend.
Warum sollte man sich die Karte kaufen, wenn man mit der Konkurrenzkarte garantiert immer die beste Leistung hat? Solange wie AMD die Profile nicht offen legt, Crossfire nicht an A.I bindet und die Karte mit AFR funktioniert, siehe ich - abgesehen vom Preis - keinen Grund diese Karte vorzuziehen.

Nakai
2008-06-04, 18:56:39
die wird aber mindestens 25% schneller sein,wie kommt ihr eigentlich aufso ein kleines sümmchen? und was der ösi da macht ist doch egal oder interessiert das jemanden?der kann meinetwegen im triple laufen lassen ist aber immer noch wayne.

Ich bin bescheiden. ;)

Bei 30% mehr Stromverbrauch und Mikrorucklern? Ist jetzt nicht dein Ernst?

Warte es ab.

Die 20% verpuffen eben in ungleichmäßiger Frameverteilung.

Mikroruckler machen sich nur unter 30 FPS ziemlich bemerkbar.
Die Karte sollte jedoch mehr als 30 FPS bei den meisten Spielen schaffen.


mfg Nakai


€:
Sie wird aber nicht immer schneller sein - hallo, es bleibt profilebasierend.
Warum sollte man sich die Karte kaufen, wenn man mit der Konkurrenzkarte garantiert immer die beste Leistung hat? Solange wie AMD die Profile nicht offen legt, Crossfire nicht an A.I bindet und die Karte mit AFR funktioniert, siehe ich - abgesehen vom Preis - keinen Grund diese Karte vorzuziehen.

Ganz einfach, die Karte wird billiger sein, bei ähnlicher Performance.

Unyu
2008-06-04, 19:07:23
Mikroruckler machen sich nur unter 30 FPS ziemlich bemerkbar.
Wenns bei einer Single Karte bei erst ab 20ms Frametimes nicht mehr ruckelt, dann auch bei einer Multi Karte, mit dem Unterschied, das die Single Karte dazu weniger FPS liefern muss.

Der irrsinnige Vergleich 30fps ist doch wertlos.

Ist doch wurst obs alle 20ms ruckelt oder ständig.

Gast
2008-06-04, 19:12:33
Für die PerformanceKrone und 20% Mehrleistung darf sie das auch. :tongue:

Jup sind schließlich 2 GPUs, bei 50% CF Effizienz muss sie vor der GTX280 liegen, sonst wirds ja peinlich. Schließlich schafft R700 eventuell sogar das theoretisch 2TFLOP, was ja Marketing mäßig sich gut ausschlachten lässt.

Allerdings muss sie auch 2GiB RAM dann aufweisen, sonst wirds nix mit Highend Auflösungen, und darunter brauch man sie nicht, da dürfte ja eine RV770 schon schnell genug sein, von den nV Karten mal abgesehen.

Schlammsau
2008-06-04, 19:18:05
nochmal an alle Dummschwätzer die meinen MGPU Lösungen seien nichts!
Unter 30fps sind die Ruckler bemerkbar, über 30FPS sind sie nur noch auf dem Frametimeverlauf in FRAPS ausfindig zu machen!
Mann kann das doch überall nachlesen!

w0mbat
2008-06-04, 19:18:56
Die HD4850 wird billiger als alle denken.

Gast
2008-06-04, 19:24:45
http://www.electronicagigant.nl/nl/product/categorie/componenten/videokaarten/sapphire/221182-sapphire-ati-hd4850,512mb

156 euro, sehr geil davon würden 3 Karten bestimmt auch was geiles auf den Moni zaubern :)

AnarchX
2008-06-04, 19:36:58
Wenn jetzt noch der Kühler leise arbeitet und die Leistung sich wirklich ~9800 GTX in Spielen bewegt, dann übt ATi wiederum deutlich Druck auf den umkämpften Performance-Markt und Nvidia aus. :up:

w0mbat
2008-06-04, 19:38:11
AFAIK soll die UVP bei 169€ liegen.

BTW: Die RV770 Techdemo mit Cinema 2.0 wird ja mal der Hammer, vorallem die Stadtszene.