Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - R700 im Q2 2008, multicore und 55 nm? Teil 4
Schlammsau
2008-06-20, 09:55:29
Weil CF ja 100% bei 7 Karten skalieren würde, gell? ;D;D
Und wen interessiert P/L? Ich will FPS POWER ;)
Es geht mir nicht um die Skalierung....ich wollte dir nur mal verdeutlichen wieviel Geld du zum Fenster rausgeworfen hast, nur um momentan ein einziges Game "flüssig" zocken zu können.
Ich halte dich eigentlich für einen intelligenten Mann aber bei sowas verhälst du dich wie ein kleines Kind! Nicht nur du, auch andere.
Ich muß gleich lachen: laß mich diesen "hochwissenschaftlichen" Test mal untersuchen.
1.) Nur 2 Monitore, von der selben Firma
2.) Nur 15 Testpersonen
3.) 21 zu 15 pro ATi
Soll ich da wirklich noch was dazu sagen?
Das ist in JEDER Hinsicht lächerlich.
Da kann ich auch ins Casino gehen und 15 mal schauen ob Rot oder Schwarz kommt und dann behaupten, daß am Tisch 8 zu oft Rot kommt :rolleyes:
Wie wärs mit 1000 Testpersonen und 50 Monitore verschiedener Hersteller?
Gleiche Bedingungen für beide Karten, und die Testpersonen hatten in sachen Grafik zummindest eine Ahnung.
Aber ich verlasse mich auch lieber auf meine Augen, die täuschen nicht. :smile:
tombman
2008-06-20, 09:59:32
del
tombman
2008-06-20, 10:00:19
@Moderation, sorry, habe mich hinreißen lassen und gar nicht gemerkt, daß das off topic ist. Aber ich korrigier eben so gerne Unwahrheiten :rolleyes:
BITTE ALLES TRASHEN, danke. (auch von den anderen OT-lern)
mal ne Frage;
wenn der RV770 40 TMUs hat; kann es dann sein das bei den 4870-Karten alle 40 TMUs freigeschalten sind? Wenn ja wäre eine 4870 bei Texturlastigen Spielen bis zu 50% schneller als eine 4850-Karte, oder?
Adam D.
2008-06-20, 11:07:35
RV770Pro und RV770XT unterscheiden sich nur durch die Taktraten (und durch den unterschiedlichen Speicher).
need! :D
Sapphire HD 4850 1G
http://66.102.9.104/translate_c?hl=de&sl=zh-CN&tl=en&u=http://publish.it168.com/2008/0620/20080620001201.shtml
Kriton
2008-06-20, 11:21:21
Ich bin echt mal gespannt wie stark sich letztlich die unterschiedliche Speicherart bei (realistischen?!) 1680 x 1050 und hohem AA/AF ausnimmt.
Oder ich habe einfach Angst mich nicht beherrschen zu können und mir schon eine 4850 statt einer 4870 mit 1 GB zu kaufen *g*
THG meint, die RV770 hätte 40TMUs. Sieht recht vollständíg aus die Liste. Auch die Transistorenzahl passt.
http://www.tomshardware.com/de/HD-4870-RV770XT-GDDR5,news-241199.html
Das wäre also ziemlich wahrscheinlich die finale Spec des RV770:
- 55nm Bulk-Performance-Prozess TSMC
- 965Mio Transistoren
- 256mm² Die-Size
- 1.0V-1,1V Spannung
- GDDR3/4/5-Support
- PCIe 2.0 Spec mit Kompatibilitätsmodus
- D3D10.1-Support
- 800 SUs (10x16xVec5)
- 40 TMUs (10x4)
- 256Bit 4 oder 8-Fach unterteiltes RAM-Interface
- 16 ROPs
- bisher vollständigste HDMI-Unterstützung für eine GPU :D
- erweiterter SFR-Support über eine separate Verbindung für den MC der RV770 für R700 (HT für Grafikchips oder so :D)
Die Technik kann echt nicht mehr viel mit dem R600 gemein haben. Man schafft es ja 30-50% mehr Performance herauszukitzeln ggü. den RV670 bei nur 60mm² und 300Mio Transistoren (300Mio mehr-Transistoren bei nur 60mm² mehr!!!) mehr. Das muss echt ein nahezu völlig neues Design sein. Das wird auch die erste GPU sein, die von AMD-Technik ebenfalls profitiert hat, also Synergieeffekte ausnutzen konnte.
Edit:Korrektur
w0mbat
2008-06-20, 11:33:12
@HOT: Der RV770 hat keinen Ringbus mehr.
Da sollte auch eigentlich ein ? hinter. Aber korrigiert.
w0mbat
2008-06-20, 11:39:01
Und dieser neue MC kann noch irgendwie nach außen kommunizieren, so arbeitet ja auch der R700.
außerdem hat der RV770 keine "vollständige HDMI" Unterstützung. Er kann zwar 7.1 LPCM über HDMI ausgeben, aber KEIN Bitstream TrueHD/DTS-HD MA. Daher würde immer noch runtergerechnet und die Karte ist somit für HTPC Enthusiasten eben doch nicht die erhoffte, "einfache" Lösung.
reunion
2008-06-20, 11:42:12
- 1.2V-1,3V Spannung
Die 4850 läuft nur mit 1.086V
- 800 SUs (sehr wahrscheinlich 200x4)
Sicher 10 x 80.
AnarchX
2008-06-20, 11:45:52
Und dieser neue MC kann noch irgendwie nach außen kommunizieren, so arbeitet ja auch der R700.
Wobei das nicht ganz sicher ist, das Hub scheint wohl eher soetwas wie die Crossbar bei NV zu sein, die ROPs/SI mit dem Rest der GPU verbindet.
Hmm, das hört sich schwer nach CPU-Technik an. Vllt haben die RV770 einen HT3-Controller an Bord. Das würd erklären, wie man das hinbekommt.
GeneralHanno
2008-06-20, 11:59:31
darf ich diesen screenshot mal wieder einwerfen, den ich für echt halte!
http://imageupload.com/out.php/i129316_archrv770.jpeg
Sicher 10 x 80.
Weder noch, es sind 400 (gleich +25%) erweiterte HD38xx ALUs, die AMD durch das Erweitern doppelt zählt.
AnarchX
2008-06-20, 12:06:03
Weder noch, es sind 400 (gleich +25%) erweiterte HD38xx ALUs, die AMD durch das Erweitern doppelt zählt.
Nein, die Folien von AMD bei Extreme-Tech, die laut Aussage des Autors von AMD kamen, zeigten ganz klar 10 optimierte und somit verkleinerte SIMDs mit je 16 (vier Quads) Vec5 ALUs.
Zu jedem SIMD gehört eine optimierte und auch verkleinerte TU mit 4 TA/TFs.
Cpl. Dwayne Hicks
2008-06-20, 12:06:49
sorry bitte löschen!
Ein erster (?) kleiner Hinweis auf die Leistung der HD4870 ist schon gefallen, und zwar bei TheInquirer.
http://img518.imageshack.us/img518/8317/4870ii7.jpg (http://imageshack.us)
http://www.theinquirer.net/gb/inquirer/news/2008/06/19/amd-hd-4850-trickle-turns-flood
Vantage: P7718
Computerbase hat auf einer HD4850 ca P7300 erreicht, allerdings mit einem 4ghz Yorkfield, welcher ca doppelt so schnell wie der bei INQ verwendete Q6600 war.
http://img518.imageshack.us/img518/2467/hd48702ke9.jpg (http://imageshack.us)
Zahlenspielereien:
Die Gewichtung in Vantages Performance Preset liegt bei 0.75 Grafik zu 0.25 Cpu. Die Cpu kann daher, anders als im eXtreme Preset nicht außer Acht gelassen werden.
Laut ORB erreicht ein 4 Ghz Yorkfield ca 17000 cpu score, ein Q6600 auf 2.4 GHz ca 8600 cpu score in Vantage.
Da man den Cpu Score und den 3DMark Score der HD4870 kennt, kann man jetzt den GPU score der HD4870 durch die Vantage Formeln zurückrechnen ;) Es ergibt sich ein Gpu Score von 7462. Das war also der Gpu score passend zum Q6600.
Wenn wir jetzt 7462 als Gpu score, aber, durch den 4Ghz Yorki, 17000 cpu score in die Formel(n) einsetzen, erhalten wir einen zu computerbase VERGLEICHBAREN Vantage P Wert :cool:
Dieser wäre, festhalten, ATI-Jünger: P8680
Nochmal zum festhalten:
4GHz Yorkfield, Vantage Performance:
HD4850: ~P7300
HD4870: ~P8700
Jetzt das wichtigste:
Der Leistungsgewinn einer HD4870 im Vergleich zur HD4850: 8700/7300 ~ +19%
AMD selbst gab auf seine Folie eine theoretische Steigerung von +30% an.
In der Praxis sind +19% in Vantage Performance kein unglaubwürdiger Wert.
Falls ich mehr als 10% neben den echten Ergebnissen liegen sollte, hätte ich meine 1 in Mathe in Schulzeiten niemals verdient ;)
Gute Nacht ;)
Ich denke zwar nicht das es nur 19% werden aber so um/an die 9000 Punkte im Vantage Performance wird eine 4870 schon erreichen.
@AnarchX & GeneralHanno
Corrected. 16x10x5 = 800. Das erklärt doch auch den Erfolg der Architektur. Man braucht einfach weniger Takte für komplexe Shaderprogramme.
@Tombi
Passt auffallend. 625MHz zu 750MHz = 100% zu 120% = 20% mehr Chiptakt = 19% mehr Leistung im 3DMark (rest CPU). Und es gibt selbst bei dem "geringen" Speicherdurchsatz keine Limitierung. Das bedeutet, dass beim 4870 kaum Einschränkungen bei 8xAA selbst in hohen Auflösungen zu erwarten sind. Das 512Bit Interface des R600 war echt ein unglaublicher Schwachsinn damals :D.
Hier sind 2 Slides von extremtech:
http://img76.imageshack.us/my.php?image=memoryinterfacelv4.gif
http://img76.imageshack.us/my.php?image=blockxl7.gif
ciao
Alex
GeneralHanno
2008-06-20, 13:26:13
also dann war AMD beim R&D doch wesentlich spendabler als viele (zu ail schiel) erwartet haben^^
und es hat sich (hoffentlich) ausgezahlt!
€dit: zudem dürfte durch bessere treiber noch durchaus ~+20% in dem neuen design drinstecken. AMD's treiber kommen meist recht spät, dann sind sie aber auch gut ;)
ShadowXX
2008-06-20, 13:28:01
@AnarchX & GeneralHanno
Corrected. 16x10x5 = 800. Das erklärt doch auch den Erfolg der Architektur. Man braucht einfach weniger Takte für komplexe Shaderprogramme.
??
nVs Architektur ist wesentlich effizienter deshalb frage ich mich warum man diese Architektur "erfolgreich" nennen kann.
Sie ist OK, mehr nicht und nicht weniger.
??
nVs Architektur ist wesentlich effizienter deshalb frage ich mich warum man diese Architektur "erfolgreich" nennen kann.
Sie ist OK, mehr nicht und nicht weniger.
zumindest vor dem gt200 war das so, ja.
reunion
2008-06-20, 13:35:20
??
nVs Architektur ist wesentlich effizienter deshalb frage ich mich warum man diese Architektur "erfolgreich" nennen kann.
Sie ist OK, mehr nicht und nicht weniger.
In your dreams. 256mm² in 55nm bei der Leistung ist konkurrenzlos. G92b hat 276mm² und wird gegen die 4870 unterliegen. Von GT200 brauchen wir erst gar nicht sprechen. Die Leistung/Watt ist ebenfalls besser als bei der Konkurrenz.
also dann war AMD beim R&D doch wesentlich spendabler als viele (zu ail schiel) erwartet haben^^
und es hat sich (hoffentlich) ausgezahlt!
€dit: zudem dürfte durch bessere treiber noch durchaus ~+20% in dem neuen design drinstecken. AMD's treiber kommen meist recht spät, dann sind sie aber auch gut ;)
Ailuros lässt sich komischerweise hier im 3dcenter überhaupt nicht mehr blicken... Ich würd mit dem gern paar Wörtchen wechseln darüber was er gesagt hat.
Hier mal ein Bild der R700 black PCB
http://s7.directupload.net/images/080620/urxs3frb.jpg
Hier sind 2 Slides von extremtech:
http://img76.imageshack.us/my.php?image=memoryinterfacelv4.gif
http://img76.imageshack.us/my.php?image=blockxl7.gif
ciao
Alex
Hallo, könntest du bitte noch ein paar Bilder aus diesem Review posten.
Danke im Voraus
dildo4u
2008-06-20, 13:42:03
Die Leistung/Watt ist ebenfalls besser als bei der Konkurrenz.
Dazu muss man noch Verbrauchsmessungen mit der 4870 abwarten und dann mit der GTX260 vergleichen.
Wenn die 4870 wirklich weniger als eine 8800GTX verbraucht dann Respekt.
http://www.firingsquad.com/hardware/nvidia_geforce_gtx_280_260_performance/images/loadpower.gif
http://www.firingsquad.com/hardware/nvidia_geforce_gtx_280_260_performance/page14.asp
Nakai
2008-06-20, 13:43:07
In your dreams. 256mm² in 55nm bei der Leistung ist konkurrenzlos. G92b hat 276mm² und wird gegen die 4870 unterliegen. Von GT200 brauchen wir erst gar nicht sprechen. Die Leistung/Watt ist ebenfalls besser als bei der Konkurrenz.
Der G92b sollte aber kleiner als der RV770 sein.
Ich find den RV770 sehr gut. Weniger Stromverbrauch als der G92, kleiner und performanter.
Jeder der die Karte nicht gut findet, der muss schon etwas biased sein.
Der G92b wird bestimmt auch nicht schlecht, aber die G92-Architektur ist schon ausgereizt.
mfg Nakai
€: Dazu muss man noch Verbrauchsmessungen mit der 4870 abwarten und dann mit der GTX260 vergleichen.
Die HD4850 verbraucht in etwa 15Watt mehr als die HD3850, also auf HD3870-Niveau. Die HD4870 wird nochmal an die 20 Watt mehr verbrauchen.
reunion
2008-06-20, 13:44:43
Der G92b sollte aber kleiner als der RV770 sein.
Steht wo?
Hallo, könntest du bitte noch ein paar Bilder aus diesem Review posten.
Danke im Voraus
Leider nein, hab die Fotos auch nur im Internet per google gefunden :(
ciao
Alex
Steht auf PCPER, 231 mm^2.
Die wahre Leistung des RV770 wird sich erst bei zukünftigen Spielen zeigen. Die neue Ruby-Demo macht jedenfalls Lust auf mehr. ATI's Architekturen waren schon immer zukunftssicherer als Nvidias. Übrigens ist die Tessellation-Unit immer noch drin, welche ja bei DX11 benötigt wird.
deekey777
2008-06-20, 13:55:40
Steht auf PCPER, 231 mm^2.
http://www.bit-tech.net/news/2008/06/19/nvidia-has-9800-gtx-55nm-g92/1
On the back the new 9800GTX+ core components look slightly smaller and the new 55nm G92 is 17mm square versus 65nm G92 which is 18mm square! Whoooo!
Godmode
2008-06-20, 14:02:39
Ailuros lässt sich komischerweise hier im 3dcenter überhaupt nicht mehr blicken... Ich würd mit dem gern paar Wörtchen wechseln darüber was er gesagt hat.
Finde ich auch komisch, ich hätte gerne ein paar Antworten von ihm. Immerhin war er es der uns auf die enorme Leistung des GT200 eingeschworen hat und eher skeptisch der neuen AMD Lösung gegenüberstand.
ATI's Architekturen waren schon immer zukunftssicherer als Nvidias.
Nein, die einzige Chip-Generation in der die ATIs länger nutzbar waren als die NVs war bei R300 gegen GFFX.
Ailuros lässt sich komischerweise hier im 3dcenter überhaupt nicht mehr blicken... Ich würd mit dem gern paar Wörtchen wechseln darüber was er gesagt hat.
ja entweder weil er mal total daneben lag oder vielleicht hat er sogar uns bewust auf die falsche fährte gelockt...
denn irgendwie ist es doch genau gegenteilig gekommen
G200 schlechter als erwartet -> kaum R&D
RV770 besser als erwartet -> viele architekturänderungen (wie im oben verlinkten artikel zu sehen) sehr viel R&D?
Nein, die einzige Chip-Generation in der die ATIs länger nutzbar waren als die NVs war bei R300 gegen GFFX.
R580vsG71
da frühstückt schon n x1950pro mitlerweile ne 7900GTX ab
http://uploads.screenshot-program.com/upl9957805877.png
R480vsNV40
X850XT-PE ist um längen schneller wie ne 6800Ultra
http://uploads.screenshot-program.com/upl0555405869.png
sieht man auch schön das die ATI KArten mit erscheinen neuer spiele relativ zu den nv karten schneller wurden
Also für mich liegen beide im Rahmen meiner Erwartungen. Weder ist der G200 schlechter als ich erwartete noch der RV770 besser als ich erwartete.
R580vsG71
da frühstückt schon n x1950pro mitlerweile ne 7900GTX ab
Nur dank minderwertiger Texturfilterqualität.
R480vsNV40
X850XT-PE ist um längen schneller wie ne 6800Ultra
Erstens sind das keine Längen und zweitens kann die XTPE kein SM3.0, das mittlerweile vielfach eingesetzt wird.
Der_Korken
2008-06-20, 14:11:47
Nur dank minderwertiger Texturfilterqualität.
Also wenn von den beiden Kandidaten (R580 und G71) einer "minderwertig" gefiltert hat, dann wohl der G71. Der R580 konnte es mit dem G80 dann zwar nicht aufnehmen, war dem G71 in Sachen Bildqualität aber deutlich überlegen.
Nakai
2008-06-20, 14:15:09
Erstens sind das keine Längen und zweitens kann die XTPE kein SM3.0, das mittlerweile vielfach eingesetzt wird.
Joa, aber bei ner NV4x-Karte würde ich das lassen...;D
Nur dank minderwertiger Texturfilterqualität.
Beim G71 meinst du oder...;D
mfg Nakai
Adam D.
2008-06-20, 14:16:30
Kaum RnD im G200? Achja ... :|
Man, Nvidia muss grade zwangsweise an 2 Fronten kämpfen und brauchte für ihre GPGPU-Priorität einfach ein Aushängeschild. Das ist der G200 geworden. Dass man nicht zaubern kann und die andere Front (ATi) Land gut macht, ist jetzt halt so. Ich hätt's mir auch lieber andersrum gewünscht.
Schlammsau
2008-06-20, 14:16:38
Also wenn von den beiden Kandidaten (R580 und G71) einer "minderwertig" gefiltert hat, dann wohl der G71. Der R580 konnte es mit dem G80 dann zwar nicht aufnehmen, war dem G71 in Sachen Bildqualität aber deutlich überlegen.
Stimmt, der G7x war bekannt für seine schlechte Filterqualität. Ganz im Gegensatz zum G8x.
AffenJack
2008-06-20, 14:20:24
Kaum RnD im G200? Achja ... :|
Man, Nvidia muss grade zwangsweise an 2 Fronten kämpfen und brauchte für ihre GPGPU-Priorität einfach ein Aushängeschild. Das ist der G200 geworden. Dass man nicht zaubern kann und die andere Front (ATi) Land gut macht, ist jetzt halt so. Ich hätt's mir auch lieber andersrum gewünscht.
genau so isses und dazu hat ail sich ja auch schon geäußert, dass der g200 in erster linie gegen intel gerichtet ist und weniger gegen amd
Nur dank minderwertiger Texturfilterqualität.
G71vsR580 und du sprichst von "minderwertiger Texturqualität" beim R580?
damit hast du dich schonmal komplett disqualifiziert und zeigst das du keinen schimmer hast
Erstens sind das keine Längen und zweitens kann die XTPE kein SM3.0, das mittlerweile vielfach eingesetzt wird.
das sind 25% dann liegt die GTX280 ja auch nur knapp vor der 4850 was?
oh die XT-PE hat kein SM3...dann zeig mir ein spiel was auf der XT-PE in normalen einstellungen nicht läuft was auf der 68Ultra flüssig darstellbar ist mit dem ach so tollen SM3?
Ich frage mich, ob der RV770 nicht vielleicht schon DX11 unterstützt, wegen der integrierten Tessellation-Unit und der guten Beziehungen von ATI zu Microsoft, u.a. wegen der XBOX360.
G71vsR580 und du sprichst von "minderwertiger Texturqualität" beim R580?
damit hast du dich schonmal komplett disqualifiziert und zeigst das du keinen schimmer hast
Keinen Schimmer hat man aber auch wenn man diese "Erkenntnisse" einfach so auf die D3D10-Generation von GPUs überträgt.
Da ist überhaupt kein architektureller Zusammenhang mehr.
Ich frage mich, ob der RV770 nicht vielleicht schon DX11 unterstützt, wegen der integrierten Tessellation-Unit und der guten Beziehungen von ATI zu Microsoft, u.a. wegen der XBOX360.
Nein. Die Spec war während der Entwicklung noch nicht mal fertig.
Die Tessellation-Unit gibt es doch schon seit dem R600
[QUOTE=Coda;6601101]Keinen Schimmer hat man aber auch wenn man diese "Erkenntnisse" einfach so auf die D3D10-Generation von GPUs überträgt.
Da ist überhaupt kein architektureller Zusammenhang mehr./QUOTE]
Hat auch keiner behauptet.
deekey777
2008-06-20, 14:56:58
Die Tessellation-Unit gibt es doch schon seit dem R600
Die hatte schon der R400 und somit alle seine Kinder.
In your dreams. 256mm² in 55nm bei der Leistung ist konkurrenzlos. G92b hat 276mm² und wird gegen die 4870 unterliegen. Von GT200 brauchen wir erst gar nicht sprechen. Die Leistung/Watt ist ebenfalls besser als bei der Konkurrenz.
schön das du das alles schon nachgemessen hast, die 4870 wird auch nur dank GDDR5 schneller sein und deutlich mehr kosten als die 9800GTX+
deekey777
2008-06-20, 15:10:33
schön das du das alles schon nachgemessen hast, die 4870 wird auch nur dank GDDR5 schneller sein und deutlich mehr kosten als die 9800GTX+
Ich frage mich, ob man nicht wieder zweigleisig fährt und die HD4870 mit GDDR3 angeboten wird.
G71vsR580 und du sprichst von "minderwertiger Texturqualität" beim R580?
Natürlich, denn mit A.I off hat doch keiner gebencht. Und A.I Standard liefert schlechtere Filterqualität.
deekey777
2008-06-20, 15:13:59
Natürlich, denn mit A.I off hat doch keiner gebencht. Und A.I Standard liefert schlechtere Filterqualität.
Ähm, hallo?
Die gesamte R520-Generation filtert mit einer extrem geringen Winkelabhängigkeit. Und HQ-AF war von Anfang an Standardeinstellung.
LovesuckZ
2008-06-20, 15:14:31
Ähm, hallo?
Die gesamte R520-Generation filtert mit einer extrem geringen Winkelabhängigkeit. Und HQ-AF war von Anfang an Standardeinstellung.
Nein, erst seit dem G80.
ShadowXX
2008-06-20, 15:16:14
In your dreams. 256mm² in 55nm bei der Leistung ist konkurrenzlos. G92b hat 276mm² und wird gegen die 4870 unterliegen. Von GT200 brauchen wir erst gar nicht sprechen. Die Leistung/Watt ist ebenfalls besser als bei der Konkurrenz.
a.) hat dies größe des Dies damit nichts zu tun und b.) auch Leistung/Watt nicht (der schwachsinn ist sowieso nur durch die gestiegenen Energiepreise aufgekommen).
Es geht mir einfach und alleine um die Architektur und da macht nV aus wesentlich weniger GFlops viel mehr Leistung.
Die Auslastung ist bei nV einfach wesentlich besser.
Ähm, hallo?
Die gesamte R520-Generation filtert mit einer extrem geringen Winkelabhängigkeit. Und HQ-AF war von Anfang an Standardeinstellung.
Nicht mal jetzt ist echtes HQAF bei ATI die Standardeinstellung und so wie es sieht bekommt man die seit r600 auch gar nicht mehr.
deekey777
2008-06-20, 15:16:33
Nein, erst seit dem G80.
Es gibt kein HQ-AF bei NV, sondern HQ als Qualitätsmodus.
HQ-AF gibt's nur bei ATi, womit man die Winkelabhängigkeit aktivieren konnte, wenn das Häkchen entfernt wurde (aber nur bei der R520-Generation).
LovesuckZ
2008-06-20, 15:17:43
Es gibt kein HQ-AF bei NV, sondern HQ als Qualitätsmodus.
HQ-AF gibt's nur bei ATi, womit man die Winkelabhängigkeit aktivieren konnte, wenn das Häkchen entfernt wurde (aber nur bei der R520-Generation).
Richtig und was hat HQ-AF bei AMD mit A.I zu tun?
ShadowXX
2008-06-20, 15:21:07
Es gibt kein HQ-AF bei NV, sondern HQ als Qualitätsmodus.
HQ-AF gibt's nur bei ATi, womit man die Winkelabhängigkeit aktivieren konnte, wenn das Häkchen entfernt wurde (aber nur bei der R520-Generation).
Ohhh...jetzt werden wir aber kleinlich.
Wenn man bei nV HQ einstellst nennt man das nun mal HQ AF, da damit ja auch automatisch alle "Optimierungen" abgestellt werden.
Mit der Benennung hatte bisher auch noch nie jemand ein Problem.
reunion
2008-06-20, 15:26:29
a.) hat dies größe des Dies damit nichts zu tun und b.) auch Leistung/Watt nicht (der schwachsinn ist sowieso nur durch die gestiegenen Energiepreise aufgekommen).
Es geht mir einfach und alleine um die Architektur und da macht nV aus wesentlich weniger GFlops viel mehr Leistung.
Die Auslastung ist bei nV einfach wesentlich besser.
Das hat aber nichts mit Effizienz zu tun. NV benötigt für diese "wesentlich weniger GFlops" viel mehr Transistoren und viel mehr Strom, wo soll das bitte effizient sein? Leistung/mm² und Leistung/Watt - das ist Effizienz. Von mir aus kann AMD oder nV auch 3487289436936596409 ALUs verbauen wenn man diese in einem Chip unterbringt und daraus mehr Leistung erzielt als weniger mächtigen ALUs.
OBrian
2008-06-20, 15:29:17
Hier ist mal ein richtig guter Die-Shot des RV770 (ich glaub, was noch genaueres kriegen wir nicht mehr zu sehen^^):
http://s1.directupload.net/images/080620/npcr22yj.jpg
Quelle:
http://www.hothardware.com/News/ATI%5FRadeon%5FHD%5F4850%5FRV770%5FSneak%5FPeek/
deekey777
2008-06-20, 15:29:37
Ohhh...jetzt werden wir aber kleinlich.
Wenn man bei nV HQ einstellst nennt man das nun mal HQ AF, da damit ja auch automatisch alle "Optimierungen" abgestellt werden.
Mit der Benennung hatte bisher auch noch nie jemand ein Problem.
Mit HQ wird also beim G71 winkelunabhängig gefiltert?
G71vsR580 und du sprichst von "minderwertiger Texturqualität" beim R580?
Natürlich, denn mit A.I off hat doch keiner gebencht. Und A.I Standard liefert schlechtere Filterqualität.
Ähm, hallo?
Die gesamte R520-Generation filtert mit einer extrem geringen Winkelabhängigkeit. Und HQ-AF war von Anfang an Standardeinstellung.
Da habe ich mich nur auf den R520 bezogen, wie LS auf den G80 kommt, ist mir ein Rätsel, denn es ging nur um G71. vs. R580
Nicht mal jetzt ist echtes HQAF bei ATI die Standardeinstellung und so wie es sieht bekommt man die seit r600 auch gar nicht mehr.
Nochmal: Es ging um G71 vs. R580.
Und jetzt könnt ihr mich belehren, wo der R580 aufgrund von AI-Spielereien aber mit fast winkelunabhängigen Filterung gegen den G71 gewonnen hat.
ShadowXX
2008-06-20, 15:37:55
Mit HQ wird also beim G71 winkelunabhängig gefiltert?
Da habe ich mich nur auf den R520 bezogen, wie LS auf den G80 kommt, ist mir ein Rätsel, denn es ging nur um G71. vs. R580
Nochmal: Es ging um G71 vs. R580.
Und jetzt könnt ihr mich belehren, wo der R580 aufgrund von AI-Spielereien aber mit fast winkelunabhängigen Filterung gegen den G71 gewonnen hat.
Es ging die ganze Zeit um G80.....und um nichts anderes. Das mit dem G71 war aus einer ganz anderen Schiene dazwischengerutscht.
Das hat aber nichts mit Effizienz zu tun. NV benötigt für diese "wesentlich weniger GFlops" viel mehr Transistoren und viel mehr Strom, wo soll das bitte effizient sein? Leistung/mm² und Leistung/Watt - das ist Effizienz. Von mir aus kann AMD oder nV auch 3487289436936596409 ALUs verbauen wenn man diese in einem Chip unterbringt und daraus mehr Leistung erzielt als weniger mächtige ALUs.
Für dich vielleicht. Für mich ist Effizenz pro Watt das ziemlich egalste was es gibt, da ich mich sowieso nur im High-End Bereich was Grakas betrifft aufhalte.
Davon abgesehen....die RV770 hat mehr Transistoren als ein G92....
...
Davon abgesehen....die RV770 hat mehr Transistoren als ein G92....
Das ist der Maske aber ziemlich egal wie viele Transistoren darauf verewigt sind.
deekey777
2008-06-20, 15:44:21
Es ging die ganze Zeit um G80.....und um nichts anderes. Das mit dem G71 war aus einer ganz anderen Schiene dazwischengerutscht.
Es ging um dieses Posting:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6601056#post6601056
ShadowXX
2008-06-20, 15:53:44
Das ist der Maske aber ziemlich egal wie viele Transistoren darauf verewigt sind.
Es ging um diese Aussage
NV benötigt für diese "wesentlich weniger GFlops" viel mehr Transistoren
von reunion.
AffenJack
2008-06-20, 15:53:45
und vor allem gehts hier darum, dass ihr mal die sinnlose diskussion g71 gg r520 etc. sein lasst, dass hier ist der r700 speku thread auch wennss langsam nicht mehr soviel zu spekulieren gibt
@reunion
Leistung/Watt ist effizienz, aber du tust so als wäre die leistung/watt vonner hd4870 zb schon bekannt und dermassen toll.Aber wenn man die tdp anguckt wird die wohl nicht viel besser als die der gtx260.
Die hd4850 mag effizienter dabei sein, aber mainstreamkarten waren schon immer effizienter
AnarchX
2008-06-20, 16:02:07
Hier nochmal die AMD-Folien von Extremetech:
http://img171.imageshack.us/img171/6429/rv7701oh1.gif
http://s3.directupload.net/images/080620/u4thikxs.gif
http://img84.imageshack.us/img84/7749/rv770mw9.gif
Sorkalm
2008-06-20, 16:05:48
Und wieder der CrossfireX-Sideport.
reunion
2008-06-20, 16:09:20
Die Point-Sampler bleiben also drinnen, wurde aber pro TMU Quad von 20 auf 16 reduziert.
reunion
2008-06-20, 16:10:17
Für dich vielleicht. Für mich ist Effizenz pro Watt das ziemlich egalste was es gibt, da ich mich sowieso nur im High-End Bereich was Grakas betrifft aufhalte.
Wo liegt denn dann der Vorteil dieser tollen Effizienz bei nV?
Davon abgesehen....die RV770 hat mehr Transistoren als ein G92....
Vollkommen irrelevant, da AMD für diese Transistoren weniger Fläche benötigt und nur das zählt.
Es ging um diese Aussage
von reunion.
Natürlich GFLOP pro mm².
deekey777
2008-06-20, 16:12:04
Irgendwie sehen diese Diagramme verwirrend aus.
Die Point-Sampler bleiben also drinnen, wurde aber pro TMU Quad von 20 auf 16 reduziert.
Diese sind mit den dazu gehörigen Adressierern weg.
reunion
2008-06-20, 16:16:35
Diese sind mit den dazu gehörigen Adressierern weg.
Was sind dann diese 16 FP32 Texture-Sampler pro Quad?
deekey777
2008-06-20, 16:21:00
Was sind dann diese 16 FP32 Texture-Sampler pro Quad?
Diese hier:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/3/#abschnitt_technik_im_detail_part_1
Die Poinsamplers hatten ihre "eigenen vier Blöcke".
http://www.beyond3d.com/content/reviews/16/9 (20)
Oder:
http://www.digit-life.com/articles2/video/r600-part1.html
There are four texture units all in all. Each of these units consists of: 8 texture address processors (32 such units in total in the GPU), 20 texture samplers (80 such units in total), 4 texture filter units (16 in total). Vertices and textures are usually sampled separately. Some texture address processors and samplers in a TMU are intended for vertices (they are not connected with filtering units in the block diagram) or for non-filtered textures.
ShadowXX
2008-06-20, 16:21:17
Wo liegt denn dann der Vorteil dieser tollen Effizienz bei nV?
Vollkommen irrelevant, da AMD für diese Transistoren weniger Fläche benötigt und nur das zählt.
Natürlich GFLOP pro mm².
Sorry langsam wird es wirklich lächerlich. Du selbst hast gesagt das nV mehr Transistoren benötigt und plötzlich soll es um Transistoren pro Fläche gehen....
Oder noch besser um GFlop/mm....von denen ATI wesentlich weniger auf die Strasse bekommt.
Oh man. Das hat ja wirklich extrem noch was mit Effizenz & Co. zu tun.
Wenn nV auf 55nm umsteigt holen Sie da automatisch auf.
Oh man. Das hat ja wirklich extrem noch was mit Effizenz & Co. zu tun.
Wenn nV auf 55nm umsteigt holen Sie da automatisch auf.
Seh ich bei G92b aber nicht, das Ding ist nur ein wenig kleiner und nicht wirklich sparsamer.
reunion
2008-06-20, 16:26:10
Sorry langsam wird es wirklich lächerlich. Du selbst hast gesagt das nV mehr Transistoren benötigt und plötzlich soll es um Transistoren pro Fläche gehen....
Sie benötigen wesentlich mehr mm² (oder eben Transistoren) für die selbe GFLOP-Anzahl. So war das gemeint und nicht anders. Deshalb war dein hint das NV wegen der besseren Auslastung den effizienteren Chip hat falsch, da sie dafür auch wesentlich mehr investieren müssen.
Oder noch besser um GFlop/mm....von denen ATI wesentlich weniger auf die Strasse bekommt.
Hat ja auch niemand etwas anderes behauptet.
Oh man. Das hat ja wirklich extrem noch was mit Effizenz & Co. zu tun.
Wenn nV auf 55nm umsteigt holen Sie da automatisch auf.
Auch dann liegt AMD hier besser.
Die Chipgrösse + Transistordichte ist deutlich effizienter ggü. dem G92. Selbst ein reiner Shrink auf G92b wird daran nichts ändern. Da kommt ja auch mehr Leistung bei rum, teilweise sogar sehr deutlich. Die 200Mio Transistoren, die der RV770 ggü. dem G92 hat, können auch effektiv umgesetzt werden, wie immer gilt für ATI, je neuer die Apps, desto mehr Reserven können freigesetzt werden (sieht man ja vor allem am 19x0 und den freigesetzten Leistungsreserven in letzter Zeit für HD2xxx und 3xxx Serie ziemlich deutlich). Das ändert sich auch dieses Mal nicht. Der 4850 ist ja nur im ungünstigsten Fall auf 9800GTX-Niveau und das schon jetzt mit dem ersten offiziellen beta-Treiber. Beim Anand-Test überflügelt die 4850 sogar einige Male die GTX260.
Das Design ist konsequent weitergedacht vom R600 aus gesehen: Mehr tiefere Shaderpower bei verhältnismässig niedrigerem Anwachsen der Füllraten. Der Erfolg gibt dieser Strategie recht. Das Ding bietet für lange, bremsende Shader ziemlich viel Spielraum.
Ailuros
2008-06-20, 17:36:24
In your dreams. 256mm² in 55nm bei der Leistung ist konkurrenzlos. G92b hat 276mm² und wird gegen die 4870 unterliegen. Von GT200 brauchen wir erst gar nicht sprechen. Die Leistung/Watt ist ebenfalls besser als bei der Konkurrenz.
Wieso soll G92b ganze 40 Quadratmillimeter ploetzlich mehr haben?
AnarchX
2008-06-20, 17:41:02
Wieso soll G92b ganze 40 Quadratmillimeter ploetzlich mehr haben?
Wieso mehr?
65 auf 55nm soll ja in der Theorie 19% Größenreduktion laut TSMC bringen:
276/324 = 85%, ein mittelmäßiger Shrink.
Ailuros
2008-06-20, 17:45:40
Wieso mehr?
65 auf 55nm soll ja in der Theorie 19% Größenreduktion laut TSMC bringen:
276/324 = 85%, ein mittelmäßiger Shrink.
AnarchX,
AFAIK soll G92b irgendwo um die 230 Quadratmillimeter liegen. Um ehrlich zu sein klingt es bis jetzt tatsaechlich "too good to be true" denn fast perfekte "shrinks" sind sehr selten. Persoenlich schaetzte ich bis jetzt das Ding bei ca. 240+ ein, aber die Geruechte fuer 230+ haeufen sich in letzten Tagen zu stark an. Natuerlich kommt auch dann der Faktor dazu wie jeder misst; GT200 ist schon 575mm^2 gross obwohl Rys an die 600 gemessen hat.
deekey777
2008-06-20, 17:47:31
AnarchX,
AFAIK soll G92b irgendwo um die 230 Quadratmillimeter liegen. Um ehrlich zu sein klingt es bis jetzt tatsaechlich "too good to be true" denn fast perfekte "shrinks" sind sehr selten. Persoenlich schaetzte ich bis jetzt das Ding bei ca. 240+ ein, aber die Geruechte fuer 230+ haeufen sich in letzten Tagen zu stark an. Natuerlich kommt auch dann der Faktor dazu wie jeder misst; GT200 ist schon 575mm^2 gross obwohl Rys an die 600 gemessen hat.
Bit-Tech schreibt 17x17.
reunion
2008-06-20, 17:50:21
AnarchX,
AFAIK soll G92b irgendwo um die 230 Quadratmillimeter liegen. Um ehrlich zu sein klingt es bis jetzt tatsaechlich "too good to be true" denn fast perfekte "shrinks" sind sehr selten. Persoenlich schaetzte ich bis jetzt das Ding bei ca. 240+ ein, aber die Geruechte fuer 230+ haeufen sich in letzten Tagen zu stark an. Natuerlich kommt auch dann der Faktor dazu wie jeder misst; GT200 ist schon 575mm^2 gross obwohl Rys an die 600 gemessen hat.
230mm² ist mehr als ein perfekter Shrink. Ohne eine Reduzierung der Transistorenanzahl sind 230mm² gar nicht möglich.
Sorkalm
2008-06-20, 17:52:21
Bit-Tech schreibt 17x17.
Eine Die-Größe in der Größenordnung hatte VR-Zone auch schon mal vor Ewigkeiten genannt.
Ausgehend von 334 mm² läge ein perfekter Shrink - also * 55²/65² bei 239 mm². Natürlich kann es da gewisse Abweichungen geben, aber für mich sieht das 23x mm² Gerücht aus wie einfach nachgerechnet.
AnarchX
2008-06-20, 18:04:26
Hier kann man doch die Die-Size ziemlich genau schätzen:
http://img503.imageshack.us/img503/756/75636818zg7.jpg
Ich kam auf 270mm2, ausgehend von 324mm² für G92.
horn 12
2008-06-20, 18:12:06
Neuer Treiber ist da für die HD 4850 / 4870 Palette, seht:
http://support.ati.com/ics/support/default.asp?deptID=894
Was bringt dieser für Temperatur Verbesserungen mit sich?
Ailuros
2008-06-20, 18:29:21
230mm² ist mehr als ein perfekter Shrink. Ohne eine Reduzierung der Transistorenanzahl sind 230mm² gar nicht möglich.
Bleibt also die Frage ob man irgendwelche Redundanz entfernt hat oder nicht.
***edit: Damien Triolet hat 264mm^2 gemessen. I stand corrected.
anddill
2008-06-20, 18:39:44
Danke ...
... an den Moderator, der nun offenbar Tomban gesperrt hat - schätze ich mal, sonst würden die letzten paar Seiten anders aussehen ;-)
Es ist ziemlich anstrengend wenn man die Threads nur ein, zwei mal am Tag checkt und dann auf einer Seite 50% Tombman Posts sieht (nix für ungut Tombman aber das war etwas zu viel)
(wollte ich nur gesagt haben)
1. oT
2. Flame
3. http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6599838#post6599838
Sorkalm
2008-06-20, 18:48:22
***edit: Damien Triolet hat 264mm^2 gemessen. I stand corrected.
Scheint etwas bei 270 mm² +- 10 mm² zu sein, das deckt sich mit allen Angaben die bisher im Netz zu finden waren (einschließlich der von VR-Zone am 26. März gemeldeten 276 mm² (http://www.vr-zone.com/articles/55nm_RV770_%26_G92b_Die_Sizes_Comparison/5647.html)).
Das einzige was aus der Wage fällt scheint diese direkte Berechnung zu sein.
Sie benötigen wesentlich mehr mm² (oder eben Transistoren) für die selbe GFLOP-Anzahl. So war das gemeint und nicht anders. Deshalb war dein hint das NV wegen der besseren Auslastung den effizienteren Chip hat falsch, da sie dafür auch wesentlich mehr investieren müssen.
Welche GFLOP Anzahl? Die theoretische oder die, die auf die Straße gebracht wird...?
Bleibt also die Frage ob man irgendwelche Redundanz entfernt hat oder nicht.
***edit: Damien Triolet hat 264mm^2 gemessen. I stand corrected.
Hi Ail, gibbet dich auch wieder? Interessieren würde mich dein Statement bez. der 4850 -überrascht, gleich deinen Erwartungen oder gar schlechter deiner Erwartungen bez. gerade dieser Midrane-Karte?
Ich will dich nicht herausfordern o.ä., sondern nur deine objektive von mir geschätzte Meinung über die GraKa erfahren.
deekey777
2008-06-20, 22:03:25
Hier ist mal ein richtig guter Die-Shot des RV770 (ich glaub, was noch genaueres kriegen wir nicht mehr zu sehen^^):
http://s1.directupload.net/images/080620/npcr22yj.jpg
Quelle:
http://www.hothardware.com/News/ATI%5FRadeon%5FHD%5F4850%5FRV770%5FSneak%5FPeek/
Hier nochmal die AMD-Folien von Extremetech:
http://img171.imageshack.us/img171/6429/rv7701oh1.gif
Korrigiert mich:
Es sind vier Shader-Cluster mit je 10 Quads? (Jede 5D-ALU bearbeitet einen Pixel, somit füttert ein TMU-Block gleich vier von diesen.)
robbitop
2008-06-20, 22:44:52
Finde ich auch komisch, ich hätte gerne ein paar Antworten von ihm. Immerhin war er es der uns auf die enorme Leistung des GT200 eingeschworen hat und eher skeptisch der neuen AMD Lösung gegenüberstand.
Hinterher ist man immer klüger. Und ihr alle habt bis zum Ende trotz Kenntnis der GT200 mir meine Rechnung nicht abgenommen.
Natürlich lässt man sich von diesem Transistorcount beeindrucken. Und ohne Benches, die es damals nicht gab, konnte er nur anhand der Specs das ganze beurteilen. Taktraten gabs damals auch nicht AFAIK. Wer hätte da bitte nicht auf ein Monster getippt?
Beim RV770 sagte er was von rund 50% schneller als RV670. Und das kommt bisher auch in etwa hin.
IMO kann man AiL nicht viel ankreiden und ich würde es jedem übel nehmen, der das tut. Er ist einer der best informiertesten Leute in der Branche, die noch frei reden dürfen und wir können froh sein, dass er sich in unserem Forum herumtreibt.
Finde ich auch komisch, ich hätte gerne ein paar Antworten von ihm. Immerhin war er es der uns auf die enorme Leistung des GT200 eingeschworen hat und eher skeptisch der neuen AMD Lösung gegenüberstand.
Räusper....
Vielleicht ist Ailuros so angepisst von seinen Quellen bei Nvidia und den falschen Lecks bei AMD das er momentan einfach nur nichts von der ganzen Sache wissen will.
Vielleicht aber ist Ailuros immer noch Teil der Nvidia Viral-Marketing-Gruppe die so vor 3 Jahren auf Beyond3D für sehr viel Wirbel gesorgt hat und hat sich jetzt einfach zurückgezogen weil er von Nvidia bzw. AEG so schlecht/falsch informiert wurde und er nichts mehr davon wissen will.
Mal sehen was kommt. Er postet momentan leider ja nur noch sehr sporadisch. Seine Kommentare werden mir fehlen (obwohl ich alles was er so von sich gab wegen seiner früheren Nähe zu Nvidia immer mit ein wenig Misstrauen gelesen habe).
Falls wer nicht weiß von was ich rede:
http://forum.beyond3d.com/showthread.php?t=26199&highlight=Nvidia+focus+group+Geforce+7800
Wie gesagt, das ganze ist 3 Jahre her und ich weiß nicht was in der Zwischenzeit passiert und ob er überhaupt noch dabei ist.
robbitop
2008-06-20, 22:57:49
Die Specs des RV770 sind beeindruckend. Gerade für die geringe Fläche. Und doch frage ich mich, wo die ganze Leistung hingeht. Vieles wurde ja mehr als verdoppelt.
Möglicherweise hängt das Ding auch ein wenig an der Bandbreite. Ich bin auf detailierte Tests von der 4870 gespannt, die ja nochmal brutal mehr Bandbreite zur Verfügung hat.
reunion
2008-06-20, 22:58:40
Beim RV770 sagte er was von rund 50% schneller als RV670. Und das kommt bisher auch in etwa hin.
Eine 4870 wird gut und gerne doppelt so schnell wie eine 3870 werden, wohlgemerkt bei sogar etwas niedrigeren Taktraten. Schon die 4850 schafft um die 60%.
65 auf 55nm soll ja in der Theorie 19% Größenreduktion laut TSMC bringen:
19% in der länge/breite, macht 41% in der fläche.
Eine 4870 wird gut und gerne doppelt so schnell wie eine 3870 werden, wohlgemerkt bei sogar etwas niedrigeren Taktraten. Schon die 4850 schafft um die 60%.
wie soll die 4870 doppelt so schnell werden, wenn die 4850 gerade mal 60% schneller ist?
dafür müsste die 4870 die 4850 um 67% schlagen.
reunion
2008-06-20, 23:29:50
wie soll die 4870 doppelt so schnell werden, wenn die 4850 gerade mal 60% schneller ist?
dafür müsste die 4870 die 4850 um 67% schlagen.
Nein, dafür müsste die 4870 genau 25% schneller sein als die 4850.
Schlammsau
2008-06-20, 23:35:03
Die µruckler sollen angeblich mit der 4850 nicht mehr vorhanden sein!
http://www.forumdeluxx.de/forum/showthread.php?p=9339841#post9339841
BvB123
2008-06-21, 00:42:13
Wenn das wirklich wahr ist hat AMD verdammt gute Arbeit geleistet und 4850 CF ist eine sehr gute alternative zu Nvidias neuen Karten.
Gruß
ShadowXX
2008-06-21, 01:21:33
Nein, dafür müsste die 4870 genau 25% schneller sein als die 4850.
Warum kann ATI bloss nicht noch ein paar mehr Kohlen ins Feuer legen?
Ich würde gern mal wieder ne ATI kaufen, aber das Sprung ist einfach zu klein (auch wenn die ATIs diesmal gut aufgestellt sind) von einer 9800GTX bzw. 8800GTX als das ich dafür 250-300 Euro ausgebe (und dafür dann alle anderen Vorteile von nV in den Wind schiesse (SSAA, Hybrid und viel mehr und leichter einstellbare AA-Hacks)).
Und X2 traue ich nicht.....die Fraps Werte sind leider nichts Wert (da Fraps scheinbar teilweise Müll anzeigt) und ATIs CF-Politik bisher mehr als Unterirdisch war.
reunion, auch wenn du es wahrscheinlich nicht glaubts, bin ich der erste dein eine ATI kauft wenn Sie etwas für mich brauchbares bieten, ich war einer der schlimmsten R300 Fanboy die es gab......aber du musst akzeptieren wenn man kritisch mit den neuen ATI Grakas umgeht und sie nicht gleich als heiligen Gral ansieht einfach nur weil Sie da sind und leicht besser als eine 8800GTX/9800GTX sind die man teilweise über 1.5 Jahre schon in Betrieb hat.
Da bringt es auch nicht zu sagen das die Karte damals 600Euro gekostet hat und die 4850 jetzt nur 150 kostet....das war vor 1.5 Jahren.
Und X2 traue ich nicht.....die Fraps Werte sind leider nichts Wert (da Fraps scheinbar teilweise Müll anzeigt) und ATIs CF-Politik bisher mehr als Unterirdisch war.
Die Politik musste AMD aber jetzt ändern da es ihre zukunft ist.
Gruß
ShadowXX
2008-06-21, 01:41:41
Die Politik musste AMD aber jetzt ändern da es ihre zukunft ist.
Gruß
Wir werden sehen....die neuen Treiber kündigen zumindest kein Wechsel in ATIs Strategie in der Richtung an und ich glaube auch nicht das sich da was tun wird, da ATI in dem Bereich IMHO auf Zeit spielt.
Die Zeit die Sie benötigen bis Sie ein echte über mehrere GPUs skalierende Architektur haben....was mit dem r800 (oder auch rv870) anstehen könnte.
Dann brauchen Sie nämlich CF nicht mehr und auch keine speziell an dieses angepasst Profile und das ganze wäre für ATI rausgeschmissenes Geld gewesen (als Geld in die Entwicklung von CF-Freundlicheren Treibern + Usereinstellungen zu stecken).
ATI wird es reichen das Sie die Performancekrone mit dem X2 holen werden, da nV diesmal nicht mit einem X2-Pendant auf G200 Basis kontern kann.
Ich lasse mich aber gerne eines besseren belehren...schade das die X2 4870 erst so spät rauskommt.
Cpl. Dwayne Hicks
2008-06-21, 02:47:19
Korrigiert mich:
Es sind vier Shader-Cluster mit je 10 Quads? (Jede 5D-ALU bearbeitet einen Pixel, somit füttert ein TMU-Block gleich vier von diesen.)
Ich versteh die Folie irgendwie nicht... :confused:
ich dachte die TMUs sind an die ALU bzw. deren "Tiefe" in jeder SIMD gekoppelt, und nicht an die Menge der eigentlichen SIMDs.
So wie in diesem Bild:
http://images.anandtech.com/reviews/video/ATI/2900XT/blockdiag.jpg
bei RV770 sollten es also 10 ALUs pro SIMD sein = 10 TUs (40 TMUs)
Aber die RV770 Folie sieht aus wie 10 SIMD cores mit je 4 (4 x vec4+1) ALUs, wie kommen denn dann die 10 TUs zustande?!
http://images.anandtech.com/reviews/video/ATI/2900XT/blockdiag.jpg
Savay
2008-06-21, 02:57:38
im r600 waren es 4*(16*4+1) im rv770 sinds jetzt 10*(16*4+1)
eine grund partition ist also 16 Vec5 ALUs und eine TU...
viel scheint sich an der struktur der TUs + ALU partitionen nicht gändert zu haben...
irgendwie wenn ich mir den dieshot so anschaue scheint sich das r600 design wirklich auszuzahlen je MEHR dieser partitionen man letztlich unterbringt. im r600 scheint das ganze drumherum anteilig doch deutlich mehr platz weg zu nehmen als im rv770 :|
Fetza
2008-06-21, 06:53:43
Warum kann ATI bloss nicht noch ein paar mehr Kohlen ins Feuer legen?
Ich würde gern mal wieder ne ATI kaufen, aber das Sprung ist einfach zu klein (auch wenn die ATIs diesmal gut aufgestellt sind) von einer 9800GTX bzw. 8800GTX als das ich dafür 250-300 Euro ausgebe (und dafür dann alle anderen Vorteile von nV in den Wind schiesse (SSAA, Hybrid und viel mehr und leichter einstellbare AA-Hacks)).
Und X2 traue ich nicht.....die Fraps Werte sind leider nichts Wert (da Fraps scheinbar teilweise Müll anzeigt) und ATIs CF-Politik bisher mehr als Unterirdisch war.
reunion, auch wenn du es wahrscheinlich nicht glaubts, bin ich der erste dein eine ATI kauft wenn Sie etwas für mich brauchbares bieten, ich war einer der schlimmsten R300 Fanboy die es gab......aber du musst akzeptieren wenn man kritisch mit den neuen ATI Grakas umgeht und sie nicht gleich als heiligen Gral ansieht einfach nur weil Sie da sind und leicht besser als eine 8800GTX/9800GTX sind die man teilweise über 1.5 Jahre schon in Betrieb hat.
Da bringt es auch nicht zu sagen das die Karte damals 600Euro gekostet hat und die 4850 jetzt nur 150 kostet....das war vor 1.5 Jahren.
Nur das die 4850 unter quality einstellungen (aa und af) der 9800 gtx deutlich davonzieht...
Ailuros
2008-06-21, 07:28:31
Wir werden sehen....die neuen Treiber kündigen zumindest kein Wechsel in ATIs Strategie in der Richtung an und ich glaube auch nicht das sich da was tun wird, da ATI in dem Bereich IMHO auf Zeit spielt.
Die Zeit die Sie benötigen bis Sie ein echte über mehrere GPUs skalierende Architektur haben....was mit dem r800 (oder auch rv870) anstehen könnte.
Dann brauchen Sie nämlich CF nicht mehr und auch keine speziell an dieses angepasst Profile und das ganze wäre für ATI rausgeschmissenes Geld gewesen (als Geld in die Entwicklung von CF-Freundlicheren Treibern + Usereinstellungen zu stecken).
ATI wird es reichen das Sie die Performancekrone mit dem X2 holen werden, da nV diesmal nicht mit einem X2-Pendant auf G200 Basis kontern kann.
Ich lasse mich aber gerne eines besseren belehren...schade das die X2 4870 erst so spät rauskommt.
Es heisst RV8x0 und es basiert auf der genau gleichen Strategie wie RV6x0 und RV7x0. Neu ist dann hauptsaechlich das MCM Zeug fuer den Speicher, ca. 20% mehr Einheiten und hoffentlich etwas mehr Takt.
Dass der Markt generell in einer Art Stagnation liegt seit 2006 ist nichts Neues. NV's Reaktion auf 48x0X2 heisst GT200b; ist aber auch keine besondere Neuigkeit. Theoretisch und in populaeren Benchmarks werden die beiden durch das Jahr Nacken an Nacken insgesamt rennen. Bleibt nur noch dass AMD ein paar Kunden durch das X2 Zeug im high end doch nicht gewinnen wird, weil das Zeug einfach noch nicht ueberzeugt (genauso wenig wie NV's GX2 Zeug natuerlich).
Nur das die 4850 unter quality einstellungen (aa und af) der 9800 gtx deutlich davonzieht...
Die 4850 wird sich gegen die G92b schlagen muessen. Quasi Gleichstand im Durchschnitt kommt dann hier auch. Beide werden dann eher zu einem Preiskampf fuer dieses Marktsegment kommen.
Ailuros
2008-06-21, 07:39:53
Hi Ail, gibbet dich auch wieder? Interessieren würde mich dein Statement bez. der 4850 -überrascht, gleich deinen Erwartungen oder gar schlechter deiner Erwartungen bez. gerade dieser Midrane-Karte?
Ich will dich nicht herausfordern o.ä., sondern nur deine objektive von mir geschätzte Meinung über die GraKa erfahren.
Damit Ihr nicht meint dass ich mich hinter meinem Finger verstecke, ich bin seit Jahren im Hotelfach taetig und arbeite in der Hochsaison (sprich Sommer) zwischen 10 und 14 Stunden pro Tag, 6 Tage in der Woche.
RV770 hat mich durchaus nicht ueberrascht. Ich hab mehrere Male in der Vergangenheit gesagt dass erstens AMD eine ausgezeichnete Mainstream GPU liefern wird und dass sie endlich wieder mal zu Gewinn-zahlen dieses Jahr kommen duerften. Ebenso hatte ich gewarnt dass es einen gewissen Unterschied auf der FLOP gegen FLOP Basis geben wird und falls es nicht ueberzeugen sollte vergleich mal die theoretischen FLOPs einer RV770 und einer G92 (oder G92b).
Wenn jemand wirklich nach falschen Andeutungen suchen will, frag mal lieber die Kerle die bis zu 4x mal RV670 Leistung andeuteten wie z.B. in Stalker.
reunion
2008-06-21, 08:53:29
Wenn jemand wirklich nach falschen Andeutungen suchen will, frag mal lieber die Kerle die bis zu 4x mal RV670 Leistung andeuteten wie z.B. in Stalker.
4x RV670 Leistung mit dem R700 bitte, also der X2.
Ailuros
2008-06-21, 09:59:55
4x RV670 Leistung mit dem R700 bitte, also der X2.
Die Geruechte von denen ich gehoert hatten sprachen von vierfacher Leistung in Stalker u.a. fuer RV770 gegen RV670.
Und nur um es auf einen gesunderen Faktor zu legen die 3870X2 ist im Durchschnitt (mit AA) um die 50% schneller als die 3870. Ich leihe mir mal Damien's durchschnittlichen Resultate aus:
3870 = 51
3870X2 = 76
4850 = 77
----------------
4*51 = 204 fps .....uhmmmm yeahrightsureok.... LOL ;D
Was STALKER ausschliesslich betrifft ohne AA/AF stets, fuer eine 48x0X2 haut es dann schon hin.
deekey777
2008-06-21, 11:21:20
Ich versteh die Folie irgendwie nicht... :confused:
ich dachte die TMUs sind an die ALU bzw. deren "Tiefe" in jeder SIMD gekoppelt, und nicht an die Menge der eigentlichen SIMDs.
So wie in diesem Bild:
http://images.anandtech.com/reviews/video/ATI/2900XT/blockdiag.jpg
bei RV770 sollten es also 10 ALUs pro SIMD sein = 10 TUs (40 TMUs)
Aber die RV770 Folie sieht aus wie 10 SIMD cores mit je 4 (4 x vec4+1) ALUs, wie kommen denn dann die 10 TUs zustande?!
http://images.anandtech.com/reviews/video/ATI/2900XT/blockdiag.jpg
Die GIF-Folie ist wirklich extrem fies gezeichnet.
http://www.abload.de/img/77000vfu.jpg
Vielleicht wäre es so richtiger:
http://www.abload.de/img/richtigiwx.png
Aber der böse Arun musste ja so etwas schreiben:
Heh, you guys are probably going to ridicule me now (as well as later if I'm wrong), but my theory is that RV770 has (mostly) double pumped ALUs and TMUs. I also think the eight-wide TMUs are what you see on the left and the top left, while the continuation of the ALUs on the left are the schedulers. Also, you know what is going to be fun for AMD now? Figure out how to get a coherent roadmap on 40nm that isn't pad limited for every single chip... :)
http://forum.beyond3d.com/showpost.php?p=1179431&postcount=4311
Wenn ich ihn richtig verstehe, sind es 20 Doppel-TMUs (zwei R600-TUs zu einer 4-Way-TU zusammengeschaltet) und somit auf der anderen seite 4 SIMDs mit entsprechend 5 Doppel-5D-Quads.
Sunrise
2008-06-21, 11:24:33
Die Geruechte von denen ich gehoert hatten sprachen von vierfacher Leistung in Stalker u.a. fuer RV770 gegen RV670.
Auszug (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6320033#post6320033) aus deinem Beitrag vom 01.03.08, um 07:32:22:
Fuer die angebliche 4-fache Leistung wird spezifisch STALKER erwaehnt fuer "R7x0". Ich kann mir gut vorstellen dass 2*RV770 im Fall von Stalker schneller sein koennte als GF-Next; das dumme ist eigentlich nur dass die Stalker engine stark veraltet ist.
Auch mir ist das im Gedächtnis geblieben, obwohl ich das damals nur grob überflogen hatte.
Übrigens, scheint so, als ob wir unsere Reden, die wir hier groß und breit über ATIs alte Strategien hielten, nun schlussendlich begraben können. Denn RV770 ist definitiv in eine andere Richtung gedacht. Freut mich sehr für AMD/ATI. Was Dave so zum Besten gibt, ist auch interessant. ;)
GeneralHanno
2008-06-21, 11:52:21
am 25. fällt das "restliche" NDA, dann haben wir entgültige klarheit!
[...]
Die 4850 wird sich gegen die G92b schlagen muessen. Quasi Gleichstand im Durchschnitt kommt dann hier auch. Beide werden dann eher zu einem Preiskampf fuer dieses Marktsegment kommen.
Das wird sie aber gewinnen. Der Abstand ist teilweise ziemlich gigantisch, bei COJ z.B. und grade bei D3D10 Games. Die Mali des G92 reißen 10% mehr Takt auch nicht raus. Blöderweise ist der G92b ja ein reiner Die-Shrink des G92 und bügelt auch grundsätzlichen Fehler nicht aus. Im Gegenteil, er braucht lt. CB sogar mehr Saft als eine G92 Karte dank dem höheren Takt, was nicht grade für dessen Effizienz spricht. Die ATIs schaffen in 4xAA Setting auch 1600 und 1900er Auflösungen ohne mit der Wimper zu zucken und mit nur 512MB VRAM. Die Geforce Karte können nur ohne Qualitätssettings und bei niedrigen Auflösungen punkten. Bei 8xAA sieht sogar die GTX2xx Serie alt gegen die 4850 aus. Versuch das mal mit einem G92, da ändert auch ein G92b nichts dran. NV hat dieses Mal das Nachsehen.
Zu deinen restlichen Beiträgen: Ich weiss ja nicht, was du für Benchmarks kennst, offenbar hast du User-Tests bzw. Reviews hartnäckig ignoriert.
ATI typisch ist die 48xx noch recht unstet in ihrer Leistungsfähigkeit, was bedeutet, dass hier noch einiges an Treiberverbesserungen folgen wird (ist traditionell so), das wird die 48xx weiter von der G92 absetzen. Ich bin mir sicher, dass diese "Mainstreamgeneration" übelst in NVs High-End wildern wird in Qualitätssettings und hohen Auflösungen. Das Zeug dazu ist offensichtlich vorhanden. Es ist umgekehrt eher traurig, dass der RV770 so nah am G200 (einem 575mm² Chip) dran ist für NV. Als logische Konsequenz setzt der R700 dem Ganzen dann die Krone auf, der wird für NV lange Zeit uneinholbar sein.
Die Geschichte mit den gefixten µRucklern freut mich. Hab ich mirs doch gedacht, dass das relativ zügig gefixt wird. Ich hätte allerdings mit Cat 8.7 gerechnet. Jetzt ist NV erst recht unter Zugzwang.
Nur das die 4850 unter quality einstellungen (aa und af) der 9800 gtx deutlich davonzieht...
nur dass es bei ATI keine quality-einstellungen gibt. (und bevor es keinen 3dcenter-artikel gibt der das gegenteil sagt gehe ich stark davon aus, dass es stimmt)
Die Geschichte mit den gefixten µRucklern freut mich. Hab ich mirs doch gedacht, dass das relativ zügig gefixt wird. Ich hätte allerdings mit Cat 8.7 gerechnet. Jetzt ist NV erst recht unter Zugzwang.
Sie ziehen mit PhysiX on GPU ja an AMD vorbei...
nur dass es bei ATI keine quality-einstellungen gibt. (und bevor es keinen 3dcenter-artikel gibt der das gegenteil sagt gehe ich stark davon aus, dass es stimmt)
http://www.3dcenter.org/artikel/ati-radeon-hd-2900-xt-review/praxisvergleich-custom-filter-coverage-sample-anti-aliasing Lies den untersten Absatz und wiederhol deine Aussage noch einmal.
Ailuros
2008-06-21, 12:52:23
Übrigens, scheint so, als ob wir unsere Reden, die wir hier groß und breit über ATIs alte Strategien hielten, nun schlussendlich begraben können. Denn RV770 ist definitiv in eine andere Richtung gedacht. Freut mich sehr für AMD/ATI. Was Dave so zum Besten gibt, ist auch interessant. ;)
Tja hab ich auch schon erwaehnt und nicht nur einmal. Das dumme ist eben dass manche sich nur an meine Kritik an AMD oefters erinnern als die Faelle wo sie wirklich einen Lob verdienen. ATI has finally found a way how to execute ;)
***edit:
Das wird sie aber gewinnen. Der Abstand ist teilweise ziemlich gigantisch, bei COJ z.B. und grade bei D3D10 Games. Die Mali des G92 reißen 10% mehr Takt auch nicht raus. Blöderweise ist der G92b ja ein reiner Die-Shrink des G92 und bügelt auch grundsätzlichen Fehler nicht aus. Im Gegenteil, er braucht lt. CB sogar mehr Saft als eine G92 Karte dank dem höheren Takt, was nicht grade für dessen Effizienz spricht. Die ATIs schaffen in 4xAA Setting auch 1600 und 1900er Auflösungen ohne mit der Wimper zu zucken und mit nur 512MB VRAM. Die Geforce Karte können nur ohne Qualitätssettings und bei niedrigen Auflösungen punkten. Bei 8xAA sieht sogar die GTX2xx Serie alt gegen die 4850 aus. Versuch das mal mit einem G92, da ändert auch ein G92b nichts dran. NV hat dieses Mal das Nachsehen.
Gigantisch? Da ich dieses leider bis jetzt nicht im Durchschnitt sehen kann, ueberlass ich jegliche Vorhersagen zu dem Thema dem Ende des Jahres wo wir das ganze gerne nochmal rekapitulieren koennen. Ich kann gar nicht oft wiederholen dass ich glaube dass AMD ihren Markanteil erhoehen wird, aber dass sich das Blatt genau wenden wird glaub ich nun auch wieder nicht.
Zu deinen restlichen Beiträgen: Ich weiss ja nicht, was du für Benchmarks kennst, offenbar hast du User-Tests bzw. Reviews hartnäckig ignoriert.
Ich weiss genau welchem Reviewer ich vertrauen kann und welchem nicht. Und nein diese werden nicht parteiisch ausgewaehlt und ja es gibt tatsaechlich ein paar Leute dort draussen die nicht nur wissen wo es langgeht sondern sich stets so nahe wie moeglich an der Objektivitaet durch die Jahre bewegen.
ATI typisch ist die 48xx noch recht unstet in ihrer Leistungsfähigkeit, was bedeutet, dass hier noch einiges an Treiberverbesserungen folgen wird (ist traditionell so), das wird die 48xx weiter von der G92 absetzen. Ich bin mir sicher, dass diese "Mainstreamgeneration" übelst in NVs High-End wildern wird in Qualitätssettings und hohen Auflösungen. Das Zeug dazu ist offensichtlich vorhanden. Es ist umgekehrt eher traurig, dass der RV770 so nah am G200 (einem 575mm² Chip) dran ist für NV. Als logische Konsequenz setzt der R700 dem Ganzen dann die Krone auf, der wird für NV lange Zeit uneinholbar sein.
Die letzten zwei Saetze markier ich mir auch fuer zukuenftige Referenzen. Die einzige logische Konsequenz hier ist dass NVIDIA sich gut vorbereitet hat jeglichen moeglichen Konkurrenten gut konfrotieren zu koennen. Im gegebenen Fall hauptsaechlich Intel. Und wenn Dir Deine Glaskugel jetzt sagt dass die X2 schneller sein wird als das was NVIDIA gerade fuer die Massenproduktion fertigt, dann sei es so.
Die Geschichte mit den gefixten µRucklern freut mich. Hab ich mirs doch gedacht, dass das relativ zügig gefixt wird. Ich hätte allerdings mit Cat 8.7 gerechnet. Jetzt ist NV erst recht unter Zugzwang.
Manchmal klingt es ehrlich so als ob manche von Euch auf einer Traumwolke wandern. AMD ist tatsaechlich im Aufschwung was die Grafiksparte betrifft, aber der Weg bis zum Punkt wo die Firma insgesamt sich keine besondere Sorgen mehr machen muss ist noch mehr als lang und nicht besonders leicht. Es wurde hoechste Zeit dass es mehr Druck von AMD gibt, damit die Produkte auch schneller ankommen und die Preise konstant nach unten gedrueckt werden. NVIDIA fuehlt sich momentan mehr bedroht von Intel fuer die absehbare Zukunft als ATI/AMD. Die ganzen albernen Schlammschlachten waren durchaus nicht umsonst und Intel hat wie jeder weiss eine Unmenge an verfuegbaren Resourcen und kauft links und rechts ein von Firmen bis engineers (und leider sogar eine ziemlich grosse Portion aus dem ATI Portofolio).
Inwiefern passen aufwendige Resourcen und AMD momentan in den gleichen Satz?
ShadowXX
2008-06-21, 12:52:55
http://www.3dcenter.org/artikel/ati-radeon-hd-2900-xt-review/praxisvergleich-custom-filter-coverage-sample-anti-aliasing Lies den untersten Absatz und wiederhol deine Aussage noch einmal.
Es geht um AF, nicht um AA.
Tja hab ich auch schon erwaehnt und nicht nur einmal. Das dumme ist eben dass manche sich nur an meine Kritik an AMD oefters erinnern als die Faelle wo sie wirklich einen Lob verdienen. ATI has finally found a way how to execute ;)
Das liegt wahrscheinlich daran dass du in letzter Zeit mit deinem Lob für AMD äußerst sparsam warst, dagegen Nvidia gerne über den grünen Klee besingst.
Schlammsau
2008-06-21, 13:06:32
Das wird sie aber gewinnen. Der Abstand ist teilweise ziemlich gigantisch, bei COJ z.B. und grade bei D3D10 Games. Die Mali des G92 reißen 10% mehr Takt auch nicht raus. Blöderweise ist der G92b ja ein reiner Die-Shrink des G92 und bügelt auch grundsätzlichen Fehler nicht aus. Im Gegenteil, er braucht lt. CB sogar mehr Saft als eine G92 Karte dank dem höheren Takt, was nicht grade für dessen Effizienz spricht. Die ATIs schaffen in 4xAA Setting auch 1600 und 1900er Auflösungen ohne mit der Wimper zu zucken und mit nur 512MB VRAM. Die Geforce Karte können nur ohne Qualitätssettings und bei niedrigen Auflösungen punkten. Bei 8xAA sieht sogar die GTX2xx Serie alt gegen die 4850 aus. Versuch das mal mit einem G92, da ändert auch ein G92b nichts dran. NV hat dieses Mal das Nachsehen.
Zu deinen restlichen Beiträgen: Ich weiss ja nicht, was du für Benchmarks kennst, offenbar hast du User-Tests bzw. Reviews hartnäckig ignoriert.
ATI typisch ist die 48xx noch recht unstet in ihrer Leistungsfähigkeit, was bedeutet, dass hier noch einiges an Treiberverbesserungen folgen wird (ist traditionell so), das wird die 48xx weiter von der G92 absetzen. Ich bin mir sicher, dass diese "Mainstreamgeneration" übelst in NVs High-End wildern wird in Qualitätssettings und hohen Auflösungen. Das Zeug dazu ist offensichtlich vorhanden. Es ist umgekehrt eher traurig, dass der RV770 so nah am G200 (einem 575mm² Chip) dran ist für NV. Als logische Konsequenz setzt der R700 dem Ganzen dann die Krone auf, der wird für NV lange Zeit uneinholbar sein.
Die Geschichte mit den gefixten µRucklern freut mich. Hab ich mirs doch gedacht, dass das relativ zügig gefixt wird. Ich hätte allerdings mit Cat 8.7 gerechnet. Jetzt ist NV erst recht unter Zugzwang.
Dito....noch hinzu kommt der deutlich höhere Stromverbrauch (altes GTX Niveau und der niedrigere Techlevel. Noch dazu wird die 9800GTX+ nicht auf unter 140€ sinken. Da bin ich mir sicher.....
Ailuros
2008-06-21, 13:20:11
Das liegt wahrscheinlich daran dass du in letzter Zeit mit deinem Lob für AMD äußerst sparsam warst, dagegen Nvidia gerne über den grünen Klee besingst.
Was hat denn AMD/ATI tolles auf die Beine gestellt in den letzten Jahren ausser Xenos und jetzt endlich RV670/RV770? Haetten sie so weitergemacht wie in der Vergangenheit waere ATI synonym zur "Verspaetung" geworden. Hallo kann es zufaellig sein dass RV670/RV770 rechtzeitig ankamen? Kann es ebenso zufaellig sein dass RV770 und sein Erfolg davon abhaengt dass man anstatt die Frequenz aus der Decke zu pruegeln rein zufaellig mehr Einheiten dazugefuegt wuerden?
Haettest Du jegliche Kritik der Vergangenheit verfolgt, dann wuesstest Du auch auf was sie genau gezielt war. Es bleibt nur noch dass AMD endlich erlaubt jegliche Filterungs-Optimierungen im Treiber offiziell abschalten laesst ohne dass das gesamte AF-irrelevante Optimierungszeug im AI auch nicht in den Eimer geht.
http://www.abload.de/img/ati_r700_hexusmox.jpg (http://www.abload.de/image.php?img=ati_r700_hexusmox.jpg)
http://www.abload.de/img/ati_r700_hexusmox.jpg (http://www.abload.de/image.php?img=ati_r700_hexusmox.jpg)
Sehe ich da eine Schwarze X2 :eek:
reunion
2008-06-21, 13:45:59
Noch ein paar Bilder plus Infos: http://en.hardspell.com/doc/showcont.asp?news_id=3608
R700 has two RV770XT cores, 2.4TFlops, 1GB GDDR5, 230GB/s. 3870 X2 is 1TFLops, 115GB/s while GeForce GTX 280 is 933GFlops, 142GB/s.
R700 will be about 275W at least.
R700 will launch the market at the end of July and the price will be 499-599$.
Der_Korken
2008-06-21, 13:56:38
275 Watt? Och nö, ich hatte gehofft, dass endlich mal Schluss ist mit diesen Stromschluckern, aber stattdessen wird die TDP unaufhörlich nach oben geschraubt :down:
Wie wollen die das überhaupt kühlen? Mit LuKü wird das wohl ein ziemlicher Staubsauger werden.
AnarchX
2008-06-21, 13:59:46
Es ist nunmal der Preis der für diese Leistung im Jahr 2008 bezahlt werden muss, wer nicht damit einverstanden ist, muss auf diese Leistung verzichten und kann z.B. doch zu einer HD4870 greifen, die gegenüber der 2900XT nach etwas über 12 Monaten eine deutliche Pro-Watt-Leistungssteigerung zeigt. ;)
LovesuckZ
2008-06-21, 13:59:46
Was erwartet man, wenn man zwei 160 Watt Karten auf eine Platine bannt?
Was erwartet man, wenn man zwei 160 Watt Karten auf eine Platine bannt?
Dann sind 275 Watt TDP aber richtig gut =)
dildo4u
2008-06-21, 14:06:13
Dann sind 275 Watt TDP aber richtig gut =)
Da steht nix von TDP sondern dem tatsächlichen Verbauch.At least heisst mindestens 275Watt.
LovesuckZ
2008-06-21, 14:06:35
Dann sind 275 Watt TDP aber richtig gut =)
Es skaliert auch nicht immer zu 100%. Bei 80% Skalierung käme man auf 288Watt TDP.
Noch ein paar Bilder plus Infos: http://en.hardspell.com/doc/showcont.asp?news_id=3608
275 Watt? Wie sollen die aus dreimal 75 Watt gewonnen werden? In dem Bild ist ziemlich gut zu sehen, dass die Achtpin-Buchse nur mit einem Sechspin-Connector bestückt ist. Und die Karte lief trotzdem.
1GB GDDR5 insgesamt oder pro GPU?
w0mbat
2008-06-21, 14:15:02
http://www.unleashonetera.com/
reunion
2008-06-21, 14:19:40
Was erwartet man, wenn man zwei 160 Watt Karten auf eine Platine bannt?
Es werden nur zwei PRO-Chips mit GDDR5 sein.
Da steht nix von TDP sondern dem tatsächlichen Verbauch.At least heisst mindestens 275Watt.
Mehr als 300W geben die Stromanschlüsse gar nicht her, und eine gewisse Knautschzone muss auch noch vorhanden sein. Die 275W sind übrigens höchstens geschätzt aufgrund von falschen Annahmen, aber sicher nicht verifiziert.
Es skaliert auch nicht immer zu 100%. Bei 80% Skalierung käme man auf 288Watt TDP.
Das ist ein Irrglaube. Auch bei nur 50% Skalierung kann der Stromverbauch trotzdem doppelt so hoch sein. SLi/CF ist eben nicht gerade effizient.
tombman
2008-06-21, 14:20:52
http://www.unleashonetera.com/
"The Ultimate Visual Experience™."
Man beachte das (TM) --> MAIHAHAHAHA
Jetzt kann eine Erfahrung schon ein trademark sein ;D
w0mbat
2008-06-21, 14:23:29
Was mir gerade auffällt: Bei Geizhals.at und vielen Onlieshops wird die TDP der HD4850 mit 114W angegeben - dem Wert der auf den gefälschten Dokumenten von HW-Infos war. Dabei ist die richte TDP 106W. Ist keine Welt, aber schon witzig wie sich solche falschen Daten halten, viele Leute halten die 800SPs bis jetzt noch für ein Gerücht.
reunion
2008-06-21, 14:24:11
Was mir gerade auffällt: Bei Geizhals.at und vielen Onlieshops wird die TDP der HD4850 mit 114W angegeben - dem Wert der auf den gefälschten Dokumenten von HW-Infos war. Dabei ist die richte TDP 106W. Ist keine Welt, aber schon witzig wie sich solche falschen Daten halten, viele Leute halten die 800SPs bis jetzt noch für ein Gerücht.
Bei Geizhals ist auch noch die TMU-Anzahl falsch. Der richtige Wert für die TDP der 4850 ist aber 110W AFAIK.
LovesuckZ
2008-06-21, 14:25:10
Es werden nur zwei PRO-Chips mit GDDR5 sein.
Und wie werden dann die 2,4 TFlops erreicht? ;)
TDP von 106 Watt? Ziemlich niedrig, wenn man bedenkt, dass die 3850 105 Watt hat...
reunion
2008-06-21, 14:28:11
Und wie werden dann die 2,4 TFlops erreicht? ;)
http://img118.imageshack.us/img118/7346/r700slide2em3.jpg
Mehr ist aufgrund der TDP eines XT-Chips auch nicht realistisch.
w0mbat
2008-06-21, 14:28:38
@LovesuckZ: Die HD4870 X2 hat auch "nur" 2 TFLOPS. Und ja, laut AMD hat die HD4850 ein TDP von 106W, der RV770PRO läuft auch mit <1,1v.
dildo4u
2008-06-21, 14:31:10
Und ja, laut AMD hat die HD4850 ein TDP von 106W, der RV770PRO läuft auch mit <1,1v.
Dann ist das aber nicht mher mit dem TDP der 3870 vergleichbar die 4850 braucht natürlich deutlich mher Strom.Da dreht sich das AMD auch wie sies grad brauchen.
http://www.techpowerup.com/reviews/Powercolor/HD_4850/21.html
reunion
2008-06-21, 14:33:43
Dann ist das aber nicht mher mit dem TDP der 3870 vergleichbar die 4850 braucht natürlich deutlich mher Strom.Da dreht sich das AMD auch wie sies grad brauchen.
http://www.techpowerup.com/reviews/Powercolor/HD_4850/21.html
Du weißt schon was eine TDP ist? Im übrigen liegt die TDP AFAIK bei 110W.
Es werden nur zwei PRO-Chips mit GDDR5 sein.
Pro-Chips mit "XT" (4870) Taktraten? ;)
Was mir gerade auffällt: Bei Geizhals.at und vielen Onlieshops wird die TDP der HD4850 mit 114W angegeben - dem Wert der auf den gefälschten Dokumenten von HW-Infos war. Dabei ist die richte TDP 106W. Ist keine Welt, aber schon witzig wie sich solche falschen Daten halten, viele Leute halten die 800SPs bis jetzt noch für ein Gerücht.
Bei Geizhals steht auch was von 32 TMUS last time ich checked.
LovesuckZ
2008-06-21, 14:36:17
Du weißt schon was eine TDP ist? Im übrigen liegt die TDP AFAIK bei 110W.
Ändert es etwas an der Tatsache, dass die 3870 laut unabhängigen Reviews weniger Strom benötigt (in der Richtung 20 Watt)?
Die 106 Watt sind sehr gewagt von AMD.
w0mbat
2008-06-21, 14:39:21
Du weißt schon was eine TDP ist? Im übrigen liegt die TDP AFAIK bei 110W.
AMD gibt auch auf den Marketingfolien ~110W an, aber bei den genaueren Techspecs steht 106W.
reunion
2008-06-21, 14:42:54
Ändert es etwas an der Tatsache, dass die 3870 laut unabhängigen Reviews weniger Strom benötigt (in der Richtung 20 Watt)?
Habe ich das behauptet? Ich wollte damit nur zum Ausdruck bringen, dass die TDP nicht zwangsläufig mit dem Verbrauch unter "normalen Bedingungen" einhergehen muss.
Die 106 Watt sind sehr gewagt von AMD.
Du tust so als ob die Werte gewürfelt werden. Das wird natürlich ins ausführlichen Tests genauestens gemessen. Ich sehe nichts ungewöhliches daran, dass ein Chip, welcher unter normalen Lastsituationen deutlich mehr benötigt als ein anderer unter maximaler Belastung trotzdem nicht mehr Strom benötigt. Das spricht für eine bessere Auslastung der Einheiten unter normalen Bedingungen.
LovesuckZ
2008-06-21, 14:44:16
Und wie kann die 3870 die gleiche Aufnahme im Worst-Case erreichen, wenn der Durchschnittsverbrauch unter der 4850 liegt?
reunion
2008-06-21, 14:46:00
Und wie kann die 3870 die gleiche Aufnahme im Worst-Case erreichen, wenn der Durchschnittsverbrauch unter der 4850 liegt?
Vielleicht weil bei der 3870 im Durchschnitt mehr Einheiten Däumchen drehen?
Vielleicht weil bei der 3870 im Durchschnitt mehr Einheiten Däumchen drehen?
Vielleicht auch, weil die 4850 eine deutlich niedrigere Spannung für ihre 625 MHz benötigt?
Mal was interessantes am Rande? Ist Euch schon einmal aufgefallen, dass, als Nvidia und AMD in jüngster Zeit ihre neuen Chips (GTX 280, HD 4850) vorstellten, immer ein deutsches KO-Spiel stattfand? Österreich, Portugal und bald Türkei - dann ist wieder Launch der HD 4870 und GTX 260. ;)
Auch kann man ein bisschen weiter philosophieren. Beim Spiel gegen Österreich hat Deutschland nicht gut gespielt, aber eben das Soll erfüllt (GTX 280). Im Spiel gegen Portugal war die Überraschung groß (HD 4850). Bin kein Philosoph, aber doch sehr amüsant. Lest selbst:
http://www.hardware-infos.com/kolumnen.php?kolumne=10
w0mbat
2008-06-21, 15:01:19
Haha, wie wahr, wie wahr :D
Sascha1971
2008-06-21, 17:04:45
275 Watt? Och nö, ich hatte gehofft, dass endlich mal Schluss ist mit diesen Stromschluckern, aber stattdessen wird die TDP unaufhörlich nach oben geschraubt :down:
Wie wollen die das überhaupt kühlen? Mit LuKü wird das wohl ein ziemlicher Staubsauger werden.
Ich frage mich nur, ob die immer die 275w braucht oder schaltet sie eine GPU ab im Desktopbereich ?
OgrEGT
2008-06-21, 17:16:15
Hier ein paar Biöder zur HD4870 von THG.tw
http://www.tomshardware.com/de/HD-4870-RV770XT-GDDR5,news-241199.html
horn 12
2008-06-21, 17:42:22
Langsam gehts Los, wie ich schon prophezeite aber mir diesmal ERNEUT NIEMAND GLAUBEN wollte:
Hier nun:
http://www.qimonda.com/graphics-ram/gddr5/index.html
http://www.grafikkartenpower.de/shop/catalog/product_info.php?cPath=180&products_id=792
Eggcake
2008-06-21, 17:44:08
Da steht auch noch was von CoreClock von 850 Mhz? O_o
Nehm mal stark an, dass das ein Fehler ist...
Das ist aber nicht das erste mal das ich was von 850mhz lese.
Aber die AMD Folien sprachen alle von 750Mhz oder?
Gruß
Chris2CB
2008-06-21, 17:50:19
Es sollten 750mHz sein und dazu kommt noch das auf dem Bild eine Club 3D Karte abgebildet ist.
Eggcake
2008-06-21, 17:50:53
Naja denk mal ist einfach wieder ein Fehler, wie die andern (z.B. 480 SPs, 32/40 TMUs, ....) auch...
Naja denk mal ist einfach wieder ein Fehler, wie die andern (z.B. 480 SPs, 32/40 TMUs, ....) auch...
Oder ebend die nächste überaschung von AMd.;)
OgrEGT
2008-06-21, 17:59:03
Cool also wenn dann so eine wie die von ASUS... Der Kühler scheint sowohl von der Leistung als auch von der Lautstärke her besser zu passen als der Stock-Fan:biggrin:
http://forum.donanimhaber.com/m_24141450/tm.htm
Da steht auch noch was von CoreClock von 850 Mhz? O_o
Nehm mal stark an, dass das ein Fehler ist...
Vor allem bei high-end karten gibts immer wieder Hersteller, die bei Ihren Kartenexemplaren nen dickeren Kühler verwenden und/oder auch ab Werk übertakten. Schau mal in geizhals u.ä. nach 3870er Karten da gibts auch viele mit über 800 MHz.
ciao
Alex
Ändert es etwas an der Tatsache, dass die 3870 laut unabhängigen Reviews weniger Strom benötigt (in der Richtung 20 Watt)?
Die 106 Watt sind sehr gewagt von AMD.
Ein Q6600 hat auch eine TDP von 95W wie der Q9450 auch, der verbrauch ist denoch recht unterschiedlich
Und nu ? Willste hier wieder ein Faß aufmachen wegen ein paar Watt ? :rolleyes:
Hmm die TDP von 160W passt besser zu 750 als zu 850 Mhz.
Hmm die TDP von 160W passt besser zu 750 als zu 850 Mhz.
Wieso? Die HD4850 hat ca. 110W und 625 MHz Chiptakt...
Der_Korken
2008-06-21, 19:32:57
Ich frage mich nur, ob die immer die 275w braucht oder schaltet sie eine GPU ab im Desktopbereich ?
Der reale Verbrauch wird unter Volllast wohl eher bei 200 bis 220 Watt liegen. Im idle verbraucht die Karte natürlich weniger, wie die Single-Chip-Karten auch. Ich gehe erstmal davon aus, dass die Karte etwa doppelt so viel im idle zieht, wie eine Single-Chip-Karte. Eventuell wird auch ein Chip komplett abgeschaltet, denkbar wäre das.
ALTERNATE.nl sagt 750MHz Chiptakt
http://www.alternate.nl/html/productDetails.html?artno=JBXUOA
Auch interessant:
http://www.ati-forum.de/allgemein/news/p3349-das-hd4870-rätsel-teil-1/
Superheld
2008-06-21, 20:46:36
wär zu geil wenn Ati jetzt mit 850MHZ kommen wurde:biggrin:
AnarchX
2008-06-21, 20:48:38
wär zu geil wenn Ati jetzt mit 850MHZ kommen wurde:biggrin:
Nein, die 750MHz sind doch gesichert. Interessant ist da eher, was sich die AIBs trauen und wieviel man selbst noch holen kann. Wenn man richtig vergleichen will, steht es ja: $399 Default GTX 260 vs $299 HD4870 + $100 AIB Sonderausstattung und da kann man doch schon etwas erwarten.
dargo
2008-06-21, 21:27:17
Ist eine UVP schon für die HD4870 1GB bekannt? Sorry, falls diese Frage schon gestellt wurde.
AnarchX
2008-06-21, 21:30:36
Ist eine UVP schon für die HD4870 1GB bekannt? Sorry, falls diese Frage schon gestellt wurde.
Da gibt es keinen offiziellen, da die Lösung in den Händen der AIBs liegt.
Lokn4r
2008-06-21, 21:33:33
Nein, die 750MHz sind doch gesichert. Interessant ist da eher, was sich die AIBs trauen und wieviel man selbst noch holen kann. Wenn man richtig vergleichen will, steht es ja: $399 Default GTX 260 vs $299 HD4870 + $100 AIB Sonderausstattung und da kann man doch schon etwas erwarten.
Ich spekuliere mal kurz mit. Wenn ATI auf Effizienz aus ist, Leistung / Watt bzw. €, dann könnte da Einiges an Spielraum sein, was mit besserer Kühlung, mehr Strom etc. zu holen ist. Fraglich natürlich, wer da welche Leistung noch braucht, denn bei 299€ + 100€ sind wir fast bei der X2 ...
dargo
2008-06-21, 21:54:02
Da gibt es keinen offiziellen, da die Lösung in den Händen der AIBs liegt.
Mist. :(
Diese AIB-Lösungen sind immer recht teuer.
Ich denke mal die Radeon HD 4870 mit 1 GB GDDR5 wird so bei 249€ einsteigen. Wie sehr sie dann fallen wird, werden wir sehen.
AnarchX
2008-06-21, 22:15:49
Wenn schon die 512MB Version min. 240€ UVP haben wird, dann wird die 1024MB wohl kaum nur 9€ mehr kosten, erst recht wenn hier knapper GDDR5 eingesetzt wird, welchem man lieber auf einer anderen 512MB 4870 verkaufen will. ;)
reunion
2008-06-21, 22:24:39
Wenn schon die 512MB Version min. 240€ UVP haben wird, dann wird die 1024MB wohl kaum nur 9€ mehr kosten, erst recht wenn hier knapper GDDR5 eingesetzt wird, welchem man lieber auf einer anderen 512MB 4870 verkaufen will. ;)
Wie kommst du auf die 240€? Die 4870 hat einen um 100$, also ~65€ höheren UVP als die 4850.
AnarchX
2008-06-21, 22:29:47
Wie kommst du auf die 240€? Die 4870 hat einen um 100$, also ~65€ höheren UVP als die 4850.
Wir zahlen aber mit MwSt. also sind es schonmal $119 ~ 80€ Preisunterschied. ;)
w0mbat
2008-06-21, 22:40:35
HD4850 $199 = 127€ + 19% MwSt = ~151€
HD4870 $299 = 191€ + 19% MwSt = ~227€
Aber die HD4850er gibts schon für unter 151€.
RoNsOn Xs
2008-06-21, 22:44:32
bei 30% mehr leistung dürfte die 4870 aber gerade mal die 200€ marke kratzen
bei 30% mehr leistung dürfte die 4870 aber gerade mal die 200€ marke kratzen
Naja mit 850 Mhz ist einer 4870 alles zuzutrauen.;)
dargo
2008-06-21, 23:04:45
Wenn schon die 512MB Version min. 240€ UVP haben wird, dann wird die 1024MB wohl kaum nur 9€ mehr kosten, erst recht wenn hier knapper GDDR5 eingesetzt wird, welchem man lieber auf einer anderen 512MB 4870 verkaufen will. ;)
Naja, ich sehe die HD4870 512 eher bei 210-220€. Wäre schön wenn die 1GB Version unter 300€ liegt.
HD4850 $199 = 127€ + 19% MwSt = ~151€
HD4870 $299 = 191€ + 19% MwSt = ~227€
Aber die HD4850er gibts schon für unter 151€.
Richtig, deswegen nutzen die Umrechnungen vom aktuellen Dollarkurs + DE MwSt nicht viel. Der Straßenpreis in DE richtet sich nicht nur danach.
RoNsOn Xs
2008-06-21, 23:39:31
Naja mit 850 Mhz ist einer 4870 alles zuzutrauen.;)
und die 4850 kann man nicht übertakten oder was? wird dann ähnlich gut gehen!
w0mbat
2008-06-21, 23:40:42
Nur blöd dass die HD4870 mit 750MHz taktet -.-
Oder ebend die nächste überaschung von AMd.;)
Nö.
Wer meinem "nö" nicht glaubt:
http://my.ocworkbench.com/bbs/showthread.php?t=74793
Das ist doch schonmal besser als nur ein spamhaftes "Nö". :)
Sascha1971
2008-06-21, 23:47:33
Ich werde wohl zuschlagen wenn die 4870x2 mit 2x 1Gb Ram raus kommen sollte.
Denn so Spiele wie Conan zeigen ja leider wie wichtig 1 GB Ram schon ist.
HanSolo78
2008-06-21, 23:54:27
Nö.
Wer meinem "nö" nicht glaubt:
http://my.ocworkbench.com/bbs/showthread.php?t=74793
seltsam.. sollten 900MHz GDDR5 nicht mehr als 57Gb Speicherbandbreite ergeben?
AnarchX
2008-06-22, 00:01:51
Wurde schon mehrfach geklärt, GPU-Z benötigt ein Update. ;)
w0mbat
2008-06-22, 00:03:22
GPU-Z erkennt bis jetzt eben nur den GDDR5 Referenztakt und rechnet mit diesem. Natürlich sind es aber 1800MHz real.
w0mbat
2008-06-22, 00:05:18
Ich werde wohl zuschlagen wenn die 4870x2 mit 2x 1Gb Ram raus kommen sollte.
Denn so Spiele wie Conan zeigen ja leider wie wichtig 1 GB Ram schon ist.
Wenn die HD4870 X2 wirklich 2*1GB für 1GB braucht ;)
Fetza
2008-06-22, 00:15:45
Ich werde wohl zuschlagen wenn die 4870x2 mit 2x 1Gb Ram raus kommen sollte.
Denn so Spiele wie Conan zeigen ja leider wie wichtig 1 GB Ram schon ist.
Das gilt eigentlich nur für die g80/g92 karten, denn die r6xx/r770 gehen wesentlich effizienter mit dem ram um, und haben daher keine probleme mit 512 mb speicher.
LovesuckZ
2008-06-22, 00:24:25
Wenn die HD4870 X2 wirklich 2*1GB für 1GB braucht ;)
Und was soll "Shared Memory" bei AFR bringen?
http://www.pcgameshardware.de/aid,648418/News/Versetzt_AMDs_Radeon-HD48x0-Reihe_Nvidia_in_Panik/
Naja, etwas überrascht sind sie sicher:-)
w0mbat
2008-06-22, 00:27:20
Hä? Wieso gehts jetzt um AFR? Mit Shared Memory wird die Karte einfach billiger oder man hat mehr realen Vram zur Verfügung?
Wie kommst du auf die Idee ich hätte da was mit AFR gemeint?
Sorkalm
2008-06-22, 00:50:15
Wurde schon mehrfach geklärt, GPU-Z benötigt ein Update. ;)
Tja, wenn der Commandclock ausgelesen werden soll, brauchen nicht wir dann das Update? ;)
Tja, wenn der Commandclock ausgelesen werden soll, brauchen nicht wir dann das Update? ;)
Die Frage ist, was GPU-Z überhaupt ausliest, nach der 480->800 Shader Sache dürfte klar sein, dass da maximal die Chip ID ausgelesen wird, und der Rest der Ausgabe hartcodiert in der exe steht.
ciao
Alex
und die 4850 kann man nicht übertakten oder was? wird dann ähnlich gut gehen!
Eine 4850 kannst du grade mall auf 700 mhz Core bringen weil dsa ccc nicht mehr hergibt.;)Mit 850 mhz core müsste die Karte nochmall ordentlich dazu performen...
BvB123
2008-06-22, 01:03:24
Der Takt muss ausgelesen werden, sonst könnte man ja keine Übertaktung beobachten. Technische Daten sind natürlich alle hartcodiert. Die sind auch unmöglich auszulesen.
Der Takt muss ausgelesen werden, sonst könnte man ja keine Übertaktung beobachten. Technische Daten sind natürlich alle hartcodiert. Die sind auch unmöglich auszulesen.
Stimmt auffallend .. hätte ich ja selber drauf kommen können, lol, Danke für den Hinweis ^^
Naja eigentlich ist das ja egal, solange man weiß, dass es die Command Clock ist ... blöderweise wird das aber dauern, bis sich das rumspricht ... ich sehe die Thread Schwemme schon vor mir:
"Bitte Hilfe, GDDR5 läuft nur mit 900 MHz, wie komme ich auf 3,6 GHz"
ciao
Alex
Hä? Wieso gehts jetzt um AFR? Mit Shared Memory wird die Karte einfach billiger oder man hat mehr realen Vram zur Verfügung?
Wie kommst du auf die Idee ich hätte da was mit AFR gemeint?
Wie macht es denn das PCB billiger, wenn man Shared Memory verwendet? Dazu kommt, dass einmal 1024mb genauso viel sind wie 2x512mb.
BvB123
2008-06-22, 02:24:13
Man braucht die hälfte an psysichem Speicher um die gleiche virtuelle zu bekommen. ist doch klar das dies günstiger ist
LovesuckZ
2008-06-22, 02:27:42
1024mb sind trotzdem nur nutzbare 512mb pro GPU, solange wie die beiden GPUs an unterschiedliche Bilder arbeiten.
Superheld
2008-06-22, 02:31:21
:)
4870 review (DX9)(3DM06 + 5games) (DX10 coming soon...)
http://www.hkepc.com/forum/viewthread.php?tid=1007750&extra=page%3D1
http://www.abload.de/img/1y97vh.jpg (http://www.abload.de/image.php?img=1y97vh.jpg)
lol speicher nur 900 und speicherbandbreite die hälfte,mal wieder simulierte 4870.
RoNsOn Xs
2008-06-22, 03:00:04
lol speicher nur 900 und speicherbandbreite die hälfte,mal wieder simulierte 4870.
n paar zeilen weiter oben schauen :rolleyes:
myopF
2008-06-22, 04:19:05
n paar zeilen weiter oben schauen :rolleyes:
das war doch nurn schwacher troll, ignorieren ;)
@LS
wieso, von einem frame auf den anderen wird sich nicht soviel ändern das man gleich alles verwerfen muss im speicher, davon abgesehen werden texturen etc doch sowieso länger vorgehalten wenn ich mich nicht irre.
warum müsste jetzt gpu 2 für frame 2 die textur nochmal redundant im gemeinsamen vram speichern? siehste macht kein sinn ;)
und supertiling zb würde afr (und dessen probleme) ganz umgehen, das wurde vor ein paar seiten ja schonmal erwähnt. leider is das ja net mit allen games so kompatibel wenn ich mich recht erinner.
reunion
2008-06-22, 09:29:05
Das gilt eigentlich nur für die g80/g92 karten, denn die r6xx/r770 gehen wesentlich effizienter mit dem ram um, und haben daher keine probleme mit 512 mb speicher.
Eben. 1Gb VRAM ist bei dem AMD-Karten vollkommener overkill:
http://publish.it168.com/2008/0620/20080620000702.shtml
Sascha1971
2008-06-22, 09:48:49
Das gilt eigentlich nur für die g80/g92 karten, denn die r6xx/r770 gehen wesentlich effizienter mit dem ram um, und haben daher keine probleme mit 512 mb speicher.
Mag sein, als ich aber vor ca fast 1,5-2 Jahren hier ne Diskussion hatte ob ne g80 mit 320 MB Sinn macht, sagte auch die meisten, klar reicht dicke.
Keine 6 Monate später brach die Panik aus unter den Leuten die die 320Mb Version hatten und verkauften die so schnell es ging. Und ich vermute mal das gleiche wird jetzt wieder passieren wenn so Spiele wie alan W. oder Far Cry2 etc raus kommen.
Und wenn ich mir schon ne Karte von ca 600 € hole, soll sie wieder so lange halten wie meine GTX 8800 (gute 2 Jahre)
Edit: Ok für Conan scheinen die neuen Karten nu zu reichen, aber wie gesagt wer weiss was die Spiele in 6 Monaten benötigen.
http://www.pcgameshardware.de/aid,648388/Test/Benchmark/Spielbarkeit_der_GTX_260_und_der_HD_4850_in_Age_of_Conan_Assassins_Creed_und_Mas s_Effect/&page=1
:)
4870 review (DX9)(3DM06 + 5games) (DX10 coming soon...)
das Ding ist im DMC4 Bench auf 1920x1200@8xAA ähnlich schnell wie meine übertaktete 8800GT 1280x1024@4xAA :|
Superheld
2008-06-22, 10:41:15
jop bei mir auch:redface:
gleich Seite 4870
der Feature test 6 haut aber nicht hin...
http://www.abload.de/img/17b3s0.jpg (http://www.abload.de/image.php?img=17b3s0.jpg)
Botcruscher
2008-06-22, 11:24:07
Mag sein, als ich aber vor ca fast 1,5-2 Jahren hier ne Diskussion hatte ob ne g80 mit 320 MB Sinn macht, sagte auch die meisten, klar reicht dicke.
Keine 6 Monate später brach die Panik aus unter den Leuten die die 320Mb Version hatten und verkauften die so schnell es ging.
Wie? Das die 320er Abfallentsorgungen sofort wegbrechen war schon in den ersten Reviews klar. Einzig als Sparversion für 1200x1024 und wenig AA galt der Tip. Da damals 256MB schon lange zuwenig waren war auch klar.
Sorkalm
2008-06-22, 11:26:41
Wie? Das die 320er Abfallentsorgungen sofort wegbrechen war schon in den ersten Reviews klar. Einzig als Sparversion für 1200x1024 und wenig AA galt der Tip. Da damals 256MB schon lange zuwenig waren war auch klar.
Ne, eigentlich nicht. 320 MiB waren schon eine gute Zahl, die für eine Karte der Leistung auch ausreichen dürfte (auch zu dem Preispunkt) - was man damals noch nicht dazu rechnete war lediglich das schlechte VRAM-Management der Karten.
Da war nämlich alles vorhergehende Besser, auch die Geforce-7-Reihe.
Botcruscher
2008-06-22, 11:31:36
Der VRAM-BUG war auch seit Anfang an dabei. Der wird ganz sicher gefixt/giebts nicht und für den idleverbrauch kommt auch noch ein Wundertreiber.
Das müsten ungefähr die Worte von LS 1 Monat nach den Start sein.
Eggcake
2008-06-22, 11:34:12
Der VRAM-BUG war auch seit Anfang an dabei. Der wird ganz sicher gefixt/giebts nicht und für den idleverbrauch kommt auch noch ein Wundertreiber.
Nicht V-RAM Bug sondern das schlechte Speichermanagement (dass a b hervorbringt ist klar). Das wurde mittlerweile mehrmals getestet - und wird kaum einfach mal "weggefixt"...
Sorkalm
2008-06-22, 11:34:46
Der VRAM-BUG war auch seit Anfang an dabei.
Hat an der 8800 GTX und 8800 GTS (mit 640 MiB) aber keiner gemerkt. Und andere Karten gabs zum Launch der 320-MiB-Version noch nicht.
Botcruscher
2008-06-22, 11:46:44
Aber natürlich ist es spätestens bei er 640er bemerkt wurden. Hier gibts ganze Seiten darüber wie die Karten nach 3 Durchläufen immer mehr einbrechen weil der Speicherinhalt nicht gelöscht wird.
Die Konsequenz war das es von den üblichen verdächtigen totgeredet wurden ist. Die weigern sich noch heute an das schlechte Speichermanagement aka VRAM-Bug zu glauben.
So und jetzt BtT.
Ich halte 1GB Speicher bei ATIs in normalen Auflösungen für overkill. Die meisten Spiele müssen auch mit den verkrüppelten Konsolen klar kommen. Crysis wird noch lange die Speerspitze der Verschwendung bleiben. Einen großflächen Umstieg auf 1GB wird es so schnell nicht geben.
1024mb sind trotzdem nur nutzbare 512mb pro GPU, solange wie die beiden GPUs an unterschiedliche Bilder arbeiten.
Nope. Die Texturen brauchen nur 1x im gesamten RAM vorhanden sein bei Shared Memory -> 1024MB sind wirklich 1024MB. Ob der FB 2x vorhanden ist oder nicht spiel eh keine Rolle. Ist er aber bei Shared Memory ebenfalls nicht ;). Irgendwie ist das der Sinn des Mem-Sharings.
Nope. Die Texturen brauchen nur 1x im gesamten RAM vorhanden sein bei Shared Memory -> 1024MB sind wirklich 1024MB.
nur kann shared-memory nicht mit 2 speichercontrollern funktionieren, du kannst einen speicherbaustein nicht gleichzeitig an 2 controller anschließen.
für eine vernünftige shared-memory-umsetzung bräuchte es mindestens 3 chips.
1x einen IO-chip, mit speichercontroller, verbindung zu den rechenknechten, bildausgabe, eventuell videoprozessor etc.
zusätzlich dann eine beliebigen anzahl an "rechenknechten", die über eine schnelle verbindung mit dem IO-chip verbunden sind.
damit bräuchte man auch kein AFR mehr, die einzelnen rechencluster in den entsprechenden chips könnten genauso unabhängig voneinander an einem bild rechnen, wie sie es in einem einzelnen DIE machen würden.
nur werden wir vor R8xx sicher nichts vergleichbares sehen.
Ob der FB 2x vorhanden ist oder nicht spiel eh keine Rolle.
oh doch, framebuffer (dazu gehört auch z-buffer) machen in hohen auflösungen+FSAA einen großen teil des speicherverbrauches aus, es ist nicht unerheblich ob man das 1x oder mehrmals braucht.
Ist er aber bei Shared Memory ebenfalls nicht ;).
würde weiter mit AFR gerendert werden schon.
Nope. Die Texturen brauchen nur 1x im gesamten RAM vorhanden sein bei Shared Memory -> 1024MB sind wirklich 1024MB. Ob der FB 2x vorhanden ist oder nicht spiel eh keine Rolle. Ist er aber bei Shared Memory ebenfalls nicht ;). Irgendwie ist das der Sinn des Mem-Sharings.
Der FB wäre zumindest beim AFR-VErfahren schon doppelt vorhanden, sonst bringt ja die ganze Multigpu-Geschichte nichts. Es kann ja nicht der Sinn sein dass die GPUs abwechseln und nicht zur gleichen Zeit ein Bild rendern. Anders sieht das natürlich bei Tiling-Verfahren aus.
für eine vernünftige shared-memory-umsetzung bräuchte es mindestens 3 chips.
1x einen IO-chip, mit speichercontroller, verbindung zu den rechenknechten, bildausgabe, eventuell videoprozessor etc.
Hmmm dann ist die Frage, wie das AMD bei den 2000er Opterons schafft, 2 CPUs und einen gemeinsamen Speicherbereich ohne Zusatzchips zusammenzuschließen ... mach Dich mal schlau wie das geht :)
Tipp: Eine Hälfte der Lösung ist Hypertransport und bei den RV770 Schematas ist immer ein "Sideport" eingezeichnet ... wofür der wohl gut sein könnte ... ^^
ciao
Alex
Hmmm dann ist die Frage, wie das AMD bei den 2000er Opterons schafft, 2 CPUs und einen gemeinsamen Speicherbereich ohne Zusatzchips zusammenzuschließen ... mach Dich mal schlau wie das geht :)
ich weiß wie das geht, über hyper-transport, und ich weiß auch wie die performance ohne NUMA-optimierungen einbrechen kann, deshalb schrieb ich ja auch von einer vernünftigen umsetzung.
bei cpus kann das gut funktionieren, da diese sehr viele (insbesondere im serverbereich) voneinander kaum bis garnicht abhängige tasks ausführen. die meiste zeit braucht jede cpu also nur den eigenen speicher.
bei GPUs sieht es allerdings anders, aus, da muss jeder rechenkern in jedem frame auf den gesamten speicher zugreifen, im schnitt würden also 50% der speicherzugriffe über den controller der fremden GPU erfolgen, was das ganze massiv ausbremsen würde.
anddill
2008-06-22, 12:25:53
Ich vermute folgende Konfiguration für die Multichipkarten:
Beide Chips haben einen eigenen VRAM von vollen 512 oder 1024MB. Das Beschicken mit Texturen und Befehlen geschieht ganz klassisch gedoppelt über eine PCIe-Bridge. Über den neu aufgetauchten Crossfire-Sideport können sich die Kommandoeinheiten der Chips syncronisieren und es kann die Slave-GPU in den Framebuffer der Master-GPU schreiben. Die dafür benötigte Bandbreite ist recht gering.
So können beide GPUs am selben Bild arbeiten. Da nur ein Framebuffer existiert, kann sich das Chipgespann der Anwendung gegenüber als Einzelchip ausgeben, das Verteilen der Texturen und die Syncronisation wird entweder in Hardware gegossen oder vom Treiber maskiert.
Für einen vollständig gemeinsam genutzten Speicher incl. Texturen dürften die machbaren Bandbreiten zwischen den Chips zu gering sein. Dafür bräuchte man einen echten Speicherbus oder Dual-Port VRAM.
oder Dual-Port VRAM.
ich dachte GDDR5 hat genau diese Eigenschaft
Es muss nur eine ausreichend breite und niedriglatente Verbindung zwischen den Chips geben, beides recht problemlos per MCM realisierbar. Die Kosten Frage mal außen vor gelassen.
anddill
2008-06-22, 12:39:24
ich dachte GDDR5 hat genau diese Eigenschaft
Leider nicht. Er ist nur sehr hoch getaktet.
SavageX
2008-06-22, 13:01:27
ich weiß wie das geht, über hyper-transport, und ich weiß auch wie die performance ohne NUMA-optimierungen einbrechen kann, deshalb schrieb ich ja auch von einer vernünftigen umsetzung.
Dein vorgeschlagenes Setup behebt allerdings das Problem der inhomogenen Speicherlatenzen nicht sinnvoll, sondern kaschiert es nur, indem alle "Rechenknechte" gleich schnell/langsam über einen Umweg an den Speicher kommen. Anstatt also den worst-case zu verbessern, raubst Du einfach nur den Rechenknechten die Möglichkeit, u.U. von lokal angebundenem Speicher zu profitieren.
Gerade bei GPUs besteht in der Regel die Möglichkeit, einen nichtblockierenden Thread (Daten lokal im Speicher und/oder im Cache) auf die Funktionseinheiten loszulassen, während man sich beim Fremdspeicher bedient.
dildo4u
2008-06-22, 13:18:41
http://img410.imageshack.us/img410/3715/112232498us4gp0.png
http://forum.beyond3d.com/showpost.php?p=1180121&postcount=4420
Adam D.
2008-06-22, 13:21:34
Hmm, wär natürlich peinlich für Nvidia, wenn die HD4870 konstant gleich auf oder besser als die GTX260 wär.
PS: Crossfire skaliert bescheiden.
Hmm, wär natürlich peinlich für Nvidia, wenn die HD4870 konstant gleich auf oder besser als die GTX260 wär.
PS: Crossfire skaliert bescheiden.
bei Crysis sowieso
Adam D.
2008-06-22, 13:25:39
bei Crysis sowieso
Jo, das verwundert mich ja so. Kein anderes Spiel ist dermaßen GPU-limitierend wie Crysis, aber genau da können die Multi-GPU-Systeme nicht punkten.
Übrigens: ob die Graphen da kein Fake sind, weiß man ja nicht.
Chris2CB
2008-06-22, 13:27:33
Also wenn das wirklich stimmt, dann ist eine 4870 doch ein recht zügig und eine 4850 knappert an der Bandbreite.
Interessant finde ich auch das es eine 512mb Karte sein soll.
dildo4u
2008-06-22, 13:31:09
Interessant finde ich auch das es eine 512mb Karte sein soll.
Jup bei der hösten Auflösung kostet der Karte das auch Performance bei 1900*1200 DX10 ist sie noch vor der GTX260 bei 2560*1600 dahinter.
reunion
2008-06-22, 13:33:14
Jup bei der hösten Auflösung kostet der Karte das auch Performacne bei 1900*1200 DX10 ist sie noch vor der GBTX260 bei 2560*1600 dahinter.
Wer spielt schon in 2560x1600? Für den Preisbereich ist die Karte mit 512MB selbst in Crysis vollkommen ausreichend dimensioniert.
dildo4u
2008-06-22, 13:35:55
Wer spielt schon in 2560x1600? Für den Preisbereich ist die Karte mit 512MB selbst in Crysis vollkommen ausreichend dimensioniert.
Naja für ein 4870 Crossfire ist das schon eine Auflösung die bei manchen Games noch spielbar ist aber ordentlich V-Ram kostet.Call of Juarez z.b läuft recht gut auf den ATIs das könnte in der Auflösung mit einem 4870 CF flüssig laufen braucht dann aber definitiv mher als 512mb V-Ram.
Chris2CB
2008-06-22, 13:36:07
Jup bei der hösten Auflösung kostet der Karte das auch Performance bei 1900*1200 DX10 ist sie noch vor der GTX260 bei 2560*1600 dahinter.
Ja, man sieht das diese einbricht, zeigt es aber doch das eine 4870 nicht genügend Leistung bietet um 512mb voll zu nutzen, weil ob das jetzt 9 oder 12fps sind, ist eh egal da unspielbar. Gut bei CF wird man 1gb brauchen, aber als Einzelkarten reichen wohl auch 512mb wenn man frames im Spielbaren Berreichen haben möchte.
Leider ohne AA, aber schon sehr interessante Performance auf/über GTX260 Niveau.
pXe
wie wir schon spekulierten 4870>=GTX260
und crysis ist ein nvidia freundliches spiel
bei GPUs sieht es allerdings anders, aus, da muss jeder rechenkern in jedem frame auf den gesamten speicher zugreifen, im schnitt würden also 50% der speicherzugriffe über den controller der fremden GPU erfolgen, was das ganze massiv ausbremsen würde.
Ok, ist ein Argument, da wird man abwarten müssen.
Prinzipiell denke ich, dass man nen Bus auf einer Platine ziemlich breit & schnell machen kann, aber so "dick" sieht der sideport auf dem DIE photo auch nicht aus ...
@anddill:
Welcher Datenverkehr läuft eigentlich bisher über die CF Kabel ?
Edit:
@dildo4u:
Danke für das Bild, gibts irgendwo ne Info ob das eine 512MB oder 1 GB 4870 war ?
Edit2: gesehen -> 512MB.
ciao
Alex
Winter[Raven]
2008-06-22, 13:55:13
Soll das AMD Logo bedeuten die Benches stammen von AMD selbst?
reunion
2008-06-22, 13:56:57
Asus 4870: http://forum.donanimhaber.com/m_24183986/tm.htm
AnarchX
2008-06-22, 14:09:00
Teil 5:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=422335
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.