PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - R700 im Q2 2008, multicore und 55 nm? Teil 2


Seiten : 1 2 3 4 5 6 7 [8] 9 10

Ailuros
2008-05-20, 15:24:23
Ich bin ja mal gespannt ob sie bei RV7xx die meiner Meinung nach ziemlich sinnlosen Pointsampler wieder raushauen.

Die FP Filterungsfaehigkeiten braucht man wohl auch nicht alle oder (zumindest noch nicht)?

deekey777
2008-05-20, 15:44:51
...
Ich hab eine Neuigkeit fuer Dich: die R6x0/RV6x0 TMUs sind um einiges teurer als diejenigen auf R5x0. Ja warum wohl hm?
Weil sie FP-Filterung beherrschen.
Und das hat mich umgehauen:
http://forum.beyond3d.com/showthread.php?p=1164042#post1164042
TF in R600 is baseline fp16 format (int8 textures are converted to fp16 for filtering) - so the filtering units are big.
Wenn das ein Scherz ist, dann kann ich darüber irgendwie nicht lachen. Wie man mit Köpfchen "TMUs" designt, sieht man am G80.

sklave_gottes
2008-05-20, 16:11:43
Weil sie FP-Filterung beherrschen.
Und das hat mich umgehauen:
http://forum.beyond3d.com/showthread.php?p=1164042#post1164042

Wenn das ein Scherz ist, dann kann ich darüber irgendwie nicht lachen. Wie man mit Köpfchen "TMUs" designt, sieht man am G80.


Wenn ich ganz ehrlich bin, kommen mir die TMUs von r/rv6xx sogar schwächer vor als die von r5xx. Ich denke das ist mit ein Grund warum die X1950XTX an der HD3850 mit aa/af vorbei zieht.

Ich erkenne beim besten willen nicht den sin von den r600/rv670 TMUs.
Auch wenn ich quasi kaum ahnung habe.
Ich denke 24 r580 TMUs würden viel mehr bringen zur Zeit.

mfg martin

LovesuckZ
2008-05-20, 16:14:36
Die TMUs sind nicht schwächer. Das Problem beim Einsatz von AA/AF liegt am AA, dass aus irgendwelchen Gründen bis 4AA sehr ineffizient ist.

Gast
2008-05-20, 16:18:25
Die TMUs sind nicht schwächer. Das Problem beim Einsatz von AA/AF liegt am AA, dass aus irgendwelchen Gründen bis 4AA sehr ineffizient ist.


was meinst du?das af so schlecht ist bis 4aa?

Gast
2008-05-20, 16:19:48
Und nein es nicht "mehr" als manche hier erwartet hatten, eher weniger. Denn manche koennen einfach nicht einsehen dass diesmal die Theorie von der wahren Effizienz einen etwas groesseren Abstand haben wird.

Bitte?

Wieviel soll es denn noch sein? Wenn die letzten Infos stimmen das die kleine RV770 ala 4850 80% schneller ist als eine 3870 (RV670XT) und die große noch einmal 30% schneller ist; also 40-130% schneller als eine 3870X2 (je nach dem wie gut CF skaliert) dann reicht das doch für einen Performance-Chip dicke!
Mehr als doppelte 3870 Performance hat niemand erwartet. Die meisten sind von +50% ausgegangen. Wie kommst du also darauf das jetzt enttäuscht sein kann?

Gast
2008-05-20, 16:30:04
Bitte?

Wieviel soll es denn noch sein? Wenn die letzten Infos stimmen das die kleine RV770 ala 4850 80% schneller ist als eine 3870 (RV670XT) und die große noch einmal 30% schneller ist; also 40-130% schneller als eine 3870X2 (je nach dem wie gut CF skaliert) dann reicht das doch für einen Performance-Chip dicke!
Mehr als doppelte 3870 Performance hat niemand erwartet. Die meisten sind von +50% ausgegangen. Wie kommst du also darauf das jetzt enttäuscht sein kann?


weil hier nur grauenhafte nv-fanboys sind ohne ansatzweise objektive zusein.

genauso wie das von LovesuckZ gerade mit dem 4aa ineffizient.4aa ist genauso effizient oder ineffizient wie bei nv.

Gast
2008-05-20, 16:32:43
Die meisten sind von +50% ausgegangen.

Mehr wird es auch nicht werden!

LovesuckZ
2008-05-20, 16:39:10
genauso wie das von LovesuckZ gerade mit dem 4aa ineffizient.4aa ist genauso effizient oder ineffizient wie bei nv.

Genau, deswegen bricht AMD auch garnicht mit 4AA stärker ein als nVidia.
Wir haben das doch schonmal geklärt: Nicht lügen.

sklave_gottes
2008-05-20, 16:42:36
Die TMUs sind nicht schwächer. Das Problem beim Einsatz von AA/AF liegt am AA, dass aus irgendwelchen Gründen bis 4AA sehr ineffizient ist.


Ich weis nicht so recht. Sieh mal hier:

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/11/#abschnitt_theoretische_benchmarks

Achte mal auf Pure Fillrate und Single Texture zwischen hd2900xt und x1950xtx mit und ohne aa/af. Wobei noch zu bedenken ist das r600 740mhz hat und r580 650mhz.

Und hier sieht man sehr schön das rv670 und r600 in etwa soviel Leistung mit aa Verlieren wie g92.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/5/#abschnitt_aa_und_afskalierung

mfg martin

K4mPFwUr$t
2008-05-20, 16:44:28
@sklave_gottes
dann vergleich mal mit dem G80 und nicht dem G92!
es sollte allgemein bekannt sein, das der G92 mit angezogener handbremse unterwegs ist bei sollchen settings (VRAM und bandbreite!)

sklave_gottes
2008-05-20, 16:59:12
@sklave_gottes
dann vergleich mal mit dem G80 und nicht dem G92!
es sollte allgemein bekannt sein, das der G92 mit angezogener handbremse unterwegs ist bei sollchen settings (VRAM und bandbreite!)


Der Test hat doch auch den g80 drin. Da du anscheinend nicht auf meinem Link warst konntest du natürlich nicht sehen das rv670 auch dort in etwa genau soviel verliert wie ein g80.


mfg martin

LovesuckZ
2008-05-20, 17:09:13
Ich weis nicht so recht. Sieh mal hier:

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/11/#abschnitt_theoretische_benchmarks

Achte mal auf Pure Fillrate und Single Texture zwischen hd2900xt und x1950xtx mit und ohne aa/af. Wobei noch zu bedenken ist das r600 740mhz hat und r580 650mhz.

Und hier sieht man sehr schön das rv670 und r600 in etwa soviel Leistung mit aa Verlieren wie g92.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/5/#abschnitt_aa_und_afskalierung

mfg martin

Zuwenig Spiele und genau diese, wo das Problem sich nicht so stark bemerkbar macht.
Das beste Beispiel ist hier noch CoH. Da verliert eine 3870 mit AF weniger als die 8800GT und mit 4AA/16AF liegt sie weiter hinten als ohne.

Odal
2008-05-20, 17:11:13
Eine 9800GTX hat zufaelligerweise 43.2 GTexels/s gegen 12.4 GTexels/s einer RV670. RV770 hat jetzt im Gegensatz 26+GTexels/s.

ja und? der RV670 hat sich mit der miesen füllrate dennoch recht gut gegen G92 gehalten

wenn ich bei meinem G92 den GPU takt erhöhe und den Shadertakt unangetastet lasse bringt das immer noch mehr als am Shadertakt zu schrauben....und wenn das beim G92 schon so ist muss es beim RV670 mit der mauen Füllrate erst recht so sein
An der Bandbreite kanns shconmal nicht liegen da das doppelte Speicherinterface dem R600 im vergleich zum RV670 nicht wirklich viel bringt.


Und nein es mangelt RV670 nicht NUR an der Fuellrate. 2z/clock auf RV670, 4z/clock auf RV770; G8x/9x bis zu 8z/clock w/o AA.


An der ROP Menge kanns schonmal nicht liegen denn der G92 hat auch nur 16ROPs. Nun könnte die Ursache die Arbeitsweise der ROPs aber:

- wieso knickt der RV670 hauptsächlich beim Einsatz von AF weg?
- wieso Überflügelt der R580 den RV670 sogar manchmal?

für mich sieht es entweder nach einem schlechten ALU/TMU Verhältnis aus was den RV670 ausbremst oder ROPs die nicht so arbeiten wie erwartet....

Würde auch erklären warum man dem R600 ein 512bit speicherinterface verpasste welches überhaupt nix gebracht hat


Weil zufaelligerweise die Leistung einer jeglichen GPU von einer Summe von Faktoren und deren jeweiliger Effizienz bestimmt wird und nicht einer bunten Zahl die Dir gerade u.a. passt.

Ja das mag schon sein nur wenn die Hälfte vom Chip rumidlen muss bzw. nicht ausgelastet wird weil die Füllrate fehlt lässt sich die Leistung nunmal erstmal dadurch steigern indem man diesen Makel beseitigt....das irgendwann wo anders wieder ein Flaschenhals auftreten kann mag sein...

aber meines erachtens wird dem RV670 in erster linie die Füllrate zum verhängnis...das merke ich vorallem jetzt wo ich den G92 auch da hab und dieser in alten Spiele zig Kreise um den RV670 dreht


Dass R5x0 taktbereinigt sich besser u.U. mit AA verhalten kann als R6x0 ist Dir wohl nicht aufgefallen?


Doch genau das ist mir aufgefallen...willst du jetzt sagen das die ROPs vom R6x0 (wissentlich) schlechter sind als vom RV580 oder nur das sie nicht arbeiten wie erwünscht?


Eine GPU ist ein grosser Topf und 2x mal so viel X Fuellrate heisst nicht 2x mal so viel Leistung ausser Du laesst einen Fuellraten-Tester laufen und die Bandbreite limitiert nicht.

ja nur das bandbreite nachweislich nicht der limitierende faktor beim RV670 ist...das diese irgendwann dazu werden könnte ist klar aber der G92 kommt ja auch mit ähnlicher bzw. gar geringerer Bandbreite aus und füttert deutlich mehr TMUs


Ich hab eine Neuigkeit fuer Dich: die R6x0/RV6x0 TMUs sind um einiges teurer als diejenigen auf R5x0. Ja warum wohl hm?

weil sie FP16 Texturen in einem Rutsch filtern können und doppelt soviel adressieren?

GeneralHanno
2008-05-20, 17:16:52
wenn ich bei meinem G92 den GPU takt erhöhe und den Shadertakt unangetastet lasse bringt das immer noch mehr als am Shadertakt zu schrauben....und wenn das beim G92 schon so ist muss es beim RV670 mit der mauen Füllrate erst recht so sein

das liegt imo am dreiecks-setup.

Gast
2008-05-20, 17:37:36
Zuwenig Spiele und genau diese, wo das Problem sich nicht so stark bemerkbar macht.
Das beste Beispiel ist hier noch CoH. Da verliert eine 3870 mit AF weniger als die 8800GT und mit 4AA/16AF liegt sie weiter hinten als ohne.


weil das af von nv extrem optimiert wurde,stell mal 16af über treiber dann siehst du in den meisten spielen locker 10-15% grösseren verlust als wenn man es über das spiel einstellt.

Banshee18
2008-05-20, 17:43:58
weil das af von nv extrem optimiert wurde,stell mal 16af über treiber dann siehst du in den meisten spielen locker 10-15% grösseren verlust als wenn man es über das spiel einstellt.
Wenn du AF über den Treiber einstellst, wird alles gefiltert, wenn du es im Spiel einstellst, wird eben nur das gefiltert, was auch Filterung benötigt. Unter Umständen kann mit Treiber-AF die Bildqualität sogar teilweise schlechter sein, z.B. bei Alphatest-Texturen.

Gast
2008-05-20, 17:47:26
Wenn du AF über den Treiber einstellst, wird alles gefiltert, wenn du es im Spiel einstellst, wird eben nur das gefiltert, was auch Filterung benötigt. Unter Umständen kann mit Treiber-AF die Bildqualität sogar teilweise schlechter sein, z.B. bei Alphatest-Texturen.

so kann man zuviel tricksen finde ich,bei stalker z.b. 32fps mit af im treiber und 39fps wenn man es im spiel einstellt,ich find das ist schon fast betrug.bei ati ist es ja in dem fall nicht so.

Godmode
2008-05-20, 20:39:32
so kann man zuviel tricksen finde ich,bei stalker z.b. 32fps mit af im treiber und 39fps wenn man es im spiel einstellt,ich find das ist schon fast betrug.bei ati ist es ja in dem fall nicht so.

Wenn der AF im Spiel festgelegt wird, werden nur die Teile mit dem AF behandelt, die vom Entwickler dafür vorgesehen sind. Wenn es der Treiber macht, wird alles mit dem AF gefiltert. Der Entwickler entscheident genau(wenn er ein guter ist), wo der AF Sinn macht und wo nicht.

Wenn man jetzt Benchmarks erstellt und aktiviert bei beiden Karten den AF im Spiel, sehe ich kein Problem. Natürlich wäre es falsch bei Karte A den AF im Treibermenü zu forcieren und bei Karte B den AF im Spiel festzulegen.

Aber mal ehrlich, ich glaub nicht das irgendein G8X/G9x es nötig hat hier zu tricksen, diese Zeiten sind zum Glück vorbei!

*AF = Anisotroper Filter

Gast
2008-05-20, 20:43:00
so kann man zuviel tricksen finde ich,bei stalker z.b. 32fps mit af im treiber und 39fps wenn man es im spiel einstellt,ich find das ist schon fast betrug.bei ati ist es ja in dem fall nicht so.

Das liegt daran, daß ATI betrügt. Denn hier wird die Filterqualität ohnehin soweit reduziert, daß es keinen Unterschied mehr macht, ob alle Texturen AF bekommen oder nur die, für die das Spiel es anfordert.
Nvidia hingegen filtert immer perfekt, so daß es hier eine Leistungsunterschied macht, ob alle Texturen AF bekommen (per Treiber forciert) oder nur die, für die das Spiel AF anfordert.

mrt
2008-05-20, 20:55:45
Das ist garnicht möglich das das keinen Unterschied macht. Die Filtertricks greifen ja wo anders.

Gast
2008-05-21, 02:24:20
25-30%schneller als eine 9800gtx wäre ich einverstanden.das wäre dann asskick sogar für gx2 in hohen auflösungen:),bei hohen auflösungen wahrscheinlich sogar mehr als 25-30%:)

http://www.abload.de/img/chart_cod4_1920_aa_a5d4.png (http://www.abload.de/image.php?img=chart_cod4_1920_aa_a5d4.png)http://www.abload.de/img/chart_crysis_1920_hqv06.png (http://www.abload.de/image.php?img=chart_crysis_1920_hqv06.png)

seahawk
2008-05-21, 07:07:23
ja und? der RV670 hat sich mit der miesen füllrate dennoch recht gut gegen G92 gehalten

wenn ich bei meinem G92 den GPU takt erhöhe und den Shadertakt unangetastet lasse bringt das immer noch mehr als am Shadertakt zu schrauben....und wenn das beim G92 schon so ist muss es beim RV670 mit der mauen Füllrate erst recht so sein
An der Bandbreite kanns shconmal nicht liegen da das doppelte Speicherinterface dem R600 im vergleich zum RV670 nicht wirklich viel bringt.


G80/G92 sind sehr effektiv, wenn es darum geht ihre Shaderpower auf die Strasse zu bringen. Nur in wenigen Fällen rennen die heute schon in eine Limitierung, bevor andere Faktoren (Bandbreite, VRAM, etc.) limitieren.

reunion
2008-05-21, 09:51:46
Qimonda:

Munich, May 21, 2008 - Qimonda AG, a leading manufacturer of memory products, today announced that the company has won AMD as launch partner for the new graphics standard GDDR5. Qimonda already started mass production and the volume shipping of GDDR5 512Mbit components with a speed of 4.0Gbps to AMD, a leading global provider of innovative processing solutions in the computing, graphics and consumer electronics markets.

GDDR5 will become the next predominant graphics DRAM standard with a tremendous memory bandwidth improvement and a multitude of advanced power saving features. It targets a variety of applications, starting with high performance desktop graphic cards followed by notebook graphics. Later on also the introduction in game consoles and other graphics intensive applications is planned.

"We are very proud to supply AMD with GDDR5 volume shipments only six months after first product samples have been delivered," said Robert Feurle, Vice President Business Unit Specialty DRAM of Qimonda AG. "This is a further milestone in our successful GDDR5 roadmap and underlines our predominant position as innovator and leader in the graphics DRAM market."

"Qimonda's strong GDDR5 roadmap convinced us to choose them as a primary technology partner for our GDDR5 GPU launch," said Joe Macri, Sr. Director, Circuit Technologies, AMD. "Both the early availability of first samples and volume shipments added great value to the development and launch of our upcoming high-performance GPU."
http://www.vr-zone.com/articles/Qimonda_rolls_out_GDDR5%2C_to_partner_with_AMD_for_graphics/5789.html

AMD:

AMD (NYSE:AMD - News) today announced the first commercial implementation of Graphics Double Data Rate, version 5 (GDDR5) memory in its forthcoming next generation of ATI Radeon™ graphics card products. The high-speed, high-bandwidth GDDR5 technology is expected to become the new memory standard in the industry, and that same performance and bandwidth is a key enabler of The Ultimate Visual Experience™, unlocking new GPU capabilities. AMD is working with a number of leading memory providers, including Samsung, Hynix and Qimonda, to bring GDDR5 to market.

Today’s GPU performance is limited by the rate at which data can be moved on and off the graphics chip, which in turn is limited by the memory interface width and die size. The higher data rates supported by GDDR5 – up to 5x that of GDDR3 and 4x that of GDDR4 – enable more bandwidth over a narrower memory interface, which can translate into superior performance delivered from smaller, more cost-effective chips.1 AMD’s senior engineers worked closely with industry standards body JEDEC in developing the new memory technology and defining the GDDR5 spec.

“The days of monolithic mega-chips are gone. Being first to market with GDDR in our next-generation architecture, AMD is able to deliver incredible performance using more cost-effective GPUs,” said Rick Bergman, Senior Vice President and General Manager, Graphics Product Group, AMD. “AMD believes that GDDR5 is the optimal way to drive performance gains while being mindful of power consumption. We’re excited about the potential GDDR5 brings to the table for innovative game development and even more exciting game play.”

The introduction of GDDR5-based GPU offerings marks the continued tradition of technology leadership in graphics for AMD. Most recently, AMD has been first to bring a unified shader architecture to market, the first to support Microsoft DirectX® 10.1 gaming, first to lower process nodes like 55nm, the first with integrated HDMI with audio, and the first with double-precision floating point calculation support.

AMD expects that PC graphics will benefit from the increase in memory bandwidth for a variety of intensive applications. PC gamers will have the potential to play at high resolutions and image quality settings, with superb overall gaming performance. PC applications will have the potential to benefit from fast load times, with superior responsiveness and multi-tasking.

“Qimonda has worked closely with AMD to ensure that GDDR5 is available in volume to best support AMD’s next-generation graphics products,” said Thomas Seifert, Chief Operating Officer of Qimonda AG. “Qimonda’s ability to quickly ramp production is a further milestone in our successful GDDR5 roadmap and underlines our predominant position as innovator and leader in the graphics DRAM market.”

GDDR5 for Stream Processing

In addition to the potential for improved gaming and PC application performance, GDDR5 also holds a number of benefits for stream processing, where GPUs are applied to address complex, massively parallel calculations. Such calculations are prevalent in high-performance computing, financial and academic segments among others. AMD expects that the increased bandwidth of GDDR5 will greatly benefit certain classes of stream computations.

New error detection mechanisms in GDDR5 can also help increase the accuracy of calculations by indentifying errors and re-issuing commands to get valid data. This capability is a level of reliability not available with other GDDR-based memory solutions today.

Gast
2008-05-21, 09:52:58
Wenn der AF im Spiel festgelegt wird, werden nur die Teile mit dem AF behandelt, die vom Entwickler dafür vorgesehen sind. Wenn es der Treiber macht, wird alles mit dem AF gefiltert. Der Entwickler entscheident genau(wenn er ein guter ist), wo der AF Sinn macht und wo nicht.

Wenn man jetzt Benchmarks erstellt und aktiviert bei beiden Karten den AF im Spiel, sehe ich kein Problem. Natürlich wäre es falsch bei Karte A den AF im Treibermenü zu forcieren und bei Karte B den AF im Spiel festzulegen.

Aber mal ehrlich, ich glaub nicht das irgendein G8X/G9x es nötig hat hier zu tricksen, diese Zeiten sind zum Glück vorbei!

*AF = Anisotroper Filter

Geh mal lieber davon aus, das etliche User, wenn sie sich ein wenig damit beschäftigt haben, 16xAF auf jeder G80/G92 Karte forcieren. Es kostet quasi keine Leistung, die Optimierungen kann man easy ausschalten und das Bild sieht ruhig aus. Dazu TSMSAA und es lüpt.

Sorkalm
2008-05-21, 14:24:23
The days of monolithic mega-chips are gone.

Deutlicher kann man ja eine offizielle Aussage gar nicht fassen.

Gast
2008-05-21, 14:32:54
Deutlicher kann man ja eine offizielle Aussage gar nicht fassen.

Offiziell von wem?

w0mbat
2008-05-21, 14:34:25
AMD

Hvoralek
2008-05-21, 14:45:48
Offiziell von wem?Google ist Dein Freund: http://www.theinquirer.net/gb/inquirer/news/2008/05/21/amd-puts-ddr5-graphics-cards

Wie überraschend, dass AMD- Vertreter gerade jetzt, wo sie sich im High- End damit behelfen (müssen), Multi- GPU als das einzig Wahre, Zukunftstaugliche und sonstwas hinstellen. Wenn es da irgendwann mal wirklich sinnvolle Verfahren gibt, macht das nur leider das immer noch verwendete AFR keinen Deut besser :rolleyes:

Gast
2008-05-21, 15:02:06
AMD

Und deshalb muss Nvidia auch dieser Meinung sein? Dass AMD keine Highend-Chips mehr gebacken kriegt steht doch seit dem R600 fest.

Ailuros
2008-05-21, 15:02:40
ja und? der RV670 hat sich mit der miesen füllrate dennoch recht gut gegen G92 gehalten

In absolut Shader-limitierten Faellen ist G92 um 50% schneller.

wenn ich bei meinem G92 den GPU takt erhöhe und den Shadertakt unangetastet lasse bringt das immer noch mehr als am Shadertakt zu schrauben....und wenn das beim G92 schon so ist muss es beim RV670 mit der mauen Füllrate erst recht so sein

Nur wenn Du das TMU/ROP domain hoeher taktest erhoeht sich nicht nur die Texel-fuellrate; eigentlich alles ausser der ALUs ergo die Mehrzahl der Einheiten des chips. Es gibt genug Analysen auf dem Netz wie genau die diversen multipliers/dividers im chip angelegt sind.

An der Bandbreite kanns shconmal nicht liegen da das doppelte Speicherinterface dem R600 im vergleich zum RV670 nicht wirklich viel bringt.

Fuer die Falle wo der R600 mit 512bit ausgelegt wurde (die aber momentan ueberhaupt nichts mit der Realitaet zu tun haben) ist der Abstand von R600 zu RV670 analog zum Bandbreiten-Unterschied des ersten. Es gab einfach zu viele falsch berechnete Design-Entscheidungen fuer die gesamte R6x0/RV6x0 Generation und zu dieser gehoert auch RV770.


An der ROP Menge kanns schonmal nicht liegen denn der G92 hat auch nur 16ROPs. Nun könnte die Ursache die Arbeitsweise der ROPs aber:

Nochmal 2z/clock auf R6x0/RV6x0. Ja natuerlich hat G92 auch nur 16 ROPs nur sind diese um einiges fetter (was ich uebrigens schon erwaehnt habe).

8800GT = 16*600MHz*4 = 38.4 GSamples/s
HD3870 = 16*775MHz*2 = 24.8 GSamples/s

Ohne AA schafft G8x/9x bis zu 8z samples/clock; die ROPs sind zusaetzlich um einiges flexibler was besonders mit shadowmaps auch ohne AA bemerkbar ist. Und shadowmaps gibt es mehr und mehr in neueren Spielen.

- wieso knickt der RV670 hauptsächlich beim Einsatz von AF weg?

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/10/#abschnitt_theoretische_benchmarks

Schau Dir mal Fablemark an; Fablemark ist ein rein stencil Fuellraten limitierter Test und das Einschalten von AF macht nur geringen Unterschied. Das Zeug ist natuerlich nicht mehr Praxis-relevant heutzutage aber sobald stenciling mit AA kombiniert wird (Doom3 und dergleichen) sind die Unterschiede radikal.

Wird jetzt deferred shadowing mit AF kombiniert knicken natuerlich die Radeons auch um einiges ein und dass schon ohne AA (verstaendlicherweise ohne 10.1):

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/21/#abschnitt_stalker

R6x0/RV6x0 laufen uebrigens mit allen Optimierungen auf default und soweit ich weiss kann man das Zeug auch nicht abstellen. Hingegen auf G8x/9x bedeutet der Unterschied zwischen default "quality" und "high quality" nur minimale Leistungs-unterschiede, wobei die letzteren auch um einiges weniger AF-Optimierungen eingeschaltet haben.

- wieso Überflügelt der R580 den RV670 sogar manchmal?

Hoehere Z Fuellraten. Das obrige und das folgende wurde schon mehrmals hier erwaehnt. Hardware.fr beim 2900XT Launch:

http://www.hardware.fr/articles/671-4/ati-radeon-hd-2900-xt.html

Z-Fuellraten ganz unten. Taktbereinigt ist der R580 schneller.

für mich sieht es entweder nach einem schlechten ALU/TMU Verhältnis aus was den RV670 ausbremst oder ROPs die nicht so arbeiten wie erwartet....

Oder sogar noch mehr Faktoren.

Würde auch erklären warum man dem R600 ein 512bit speicherinterface verpasste welches überhaupt nix gebracht hat.

Lesen bildet: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6516769&postcount=1752

R600 hat ein 512-bit SI genau aus dem Grund. Nicht praxis-relevant fuer heute und es ist auch fraglich ob es in der Zukunft sein wird. Setzt man aber in solch einem Fall R600 gegen RV670, gewinnt natuerlich der erste mit Abstand wegen der sehr hohen Bandbreite. Nochmal: falsche Design-Entscheidung.

Ja das mag schon sein nur wenn die Hälfte vom Chip rumidlen muss bzw. nicht ausgelastet wird weil die Füllrate fehlt lässt sich die Leistung nunmal erstmal dadurch steigern indem man diesen Makel beseitigt....das irgendwann wo anders wieder ein Flaschenhals auftreten kann mag sein...

Ich will nur momentan sagen dass sowohl ATI als auch NVIDIA eine eher verrueckte Zahl an shader compilers und auch hand-angepassten shadern in diversen Spielen haben. ATI hat um einiges mehr.

aber meines erachtens wird dem RV670 in erster linie die Füllrate zum verhängnis...das merke ich vorallem jetzt wo ich den G92 auch da hab und dieser in alten Spiele zig Kreise um den RV670 dreht

Koenntest Du die bekloppten Optimierung in RV670 abschalten, waere der Unterschied tatsaechlich radikal. In extremen Faellen gewinnt R5x0 zwischen aktivierten und komplett deaktivierten Optimierungen fuer AF bis zu 50% und daran hat sich wohl nichts bei R6x0/RV6x0 geaendert. Gleich war es auch auf NV4x/G7x. G8x liegt in gleichen Faellen rund um die -16%.

G8x hat sogar "trilinear for free" so dass das Einschalten von echtem trilinear kaum wenn ueberhaupt einen Unterschied macht. R6x0/RV6x0 operieren stets mit "brilinear" und weiss der Geier noch was sonst noch was sie natuerlich auch nicht oeffentlich zugestehen.

Doch genau das ist mir aufgefallen...willst du jetzt sagen das die ROPs vom R6x0 (wissentlich) schlechter sind als vom RV580 oder nur das sie nicht arbeiten wie erwünscht?

R5x0 hatte keine verbuggte ROPs; wird ja auch schon seit einer Ewigkeit bestritten. Nach ein paar Generation steht vielleicht schon jemand zu dass es dort Probleme gab. Ebenso wie man die HW-bugs die zu Pipeline-stalls fuehrten beim R2x0 erst Jahre spaeter "off the record" bestaetigte. Ist ja auch nebensaechlich.

ja nur das bandbreite nachweislich nicht der limitierende faktor beim RV670 ist...das diese irgendwann dazu werden könnte ist klar aber der G92 kommt ja auch mit ähnlicher bzw. gar geringerer Bandbreite aus und füttert deutlich mehr TMUs

Das ist doch scheissegal. Du bekommst mit doppelt so viel Fuellrate nicht doppelt so viel Leistung aus einer GPU. Und nein es ist offensichtlich nicht der einzige limitierende Faktor auf R6x0/RV6x0.

Die Frage als man den originalen R700 in die Zukunft versetzte war bei ATI: was koennen wir mit minimalem R&D anstellen um einen Performance-chip herzustellen der mit einer X2 Konstellation sich gegen das high end der Konkurrenz stellen kann. Es hiess sofort hoehere Fuellraten (Z-/Texel) dass ist natuerlich klar.

Was jetzt Deine These zerbricht ist dass RV670 nur ein kleiner Atemzug hinter einer 8800GT/G92 liegt. Zweimal so schnell wie RV670 fuer RV770 wuerde auch automatisch etwa 2*8800GT Leistung bedeuten. Die Antwort ist trotz allem nein und schuld daran sind die minimalen Resourcen die ATI (mit Absicht) in RV770 investiert hat. Ein paar Einheiten nur so dazukleben, heisst leider oefters dass man die Effizienz der Architektur sehr leicht verletzen kann.

reunion
2008-05-21, 15:30:48
Ich bin ja mal gespannt ob sie bei RV7xx die meiner Meinung nach ziemlich sinnlosen Pointsampler wieder raushauen.

http://forum.beyond3d.com/showpost.php?p=1164458&postcount=1876

Ailuros
2008-05-21, 15:38:51
http://forum.beyond3d.com/showpost.php?p=1164458&postcount=1876

Wofuer man aber nicht unbedingt dedizierte HW braucht.

Hvoralek
2008-05-21, 15:41:48
Wofuer man aber nicht unbedingt dedizierte HW braucht.Wenn es wirklich 25% sind, könnte es sich aber schon lohnen, ein paar zusätzliche, wohl recht billige, Adresseinheiten und Sampler zu verbauen, damit nicht die Filtereinheiten 1/4 der Zeit Däumchen drehen.

Schlammsau
2008-05-21, 15:51:51
Und deshalb muss Nvidia auch dieser Meinung sein? Dass AMD keine Highend-Chips mehr gebacken kriegt steht doch seit dem R600 fest.

nV meint auch das MultiGPU die Zukunft ist! Wer im Glashaus sitzt, soll nicht mit Steinen werfen! ;)
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/april/nvidia_multi-gpu_trends/

Auszug
Wie David Kirk, Chief Scientist bei Nvidia, in einem Interview gegenüber den Kollegen von Golem ausgesagt hat, glaubt er nicht daran, dass Multi-GPU in absehbarer Zeit verschwinden, sondern sich stattdessen in sämtlichen Segmenten ausweiten wird. So soll Multi-GPU (und generell die Grafikkarte) nicht nur in Grafikanwendungen immer häufiger genutzt werden, sondern auch für Physik- und gar KI-Berechnungen (Künstliche Intelligenz) herhalten. An letzterem arbeitet Nvidia unter anderem zur Zeit.

Ailuros
2008-05-21, 16:03:03
Wenn es wirklich 25% sind, könnte es sich aber schon lohnen, ein paar zusätzliche, wohl recht billige, Adresseinheiten und Sampler zu verbauen, damit nicht die Filtereinheiten 1/4 der Zeit Däumchen drehen.

Warum nicht gleich FFT anstatt selbst billige HW dafuer zu verschwenden? (und ja es ist natuerlich eine rein theoretische Frage).

Falls es tatsaechlich 25% sind, wuerde ich liebend gerne wissen wieviel von den uebrigen 75% fuer bilinear und wieviel fuer trilinear stehen.

Ailuros
2008-05-21, 16:04:35
nV meint auch das MultiGPU die Zukunft ist! Wer im Glashaus sitzt, soll nicht mit Steinen werfen! ;)
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/april/nvidia_multi-gpu_trends/

Auszug

Man muss ein bisschen besser trainiert sein um Kirk's Kauderwelsch richtig zu interpretieren. Er meint eben NICHT was Du darunter verstehst.

Hvoralek
2008-05-21, 16:05:59
nV meint auch das MultiGPU die Zukunft ist! Wer im Glashaus sitzt, soll nicht mit Steinen werfen! ;)
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/april/nvidia_multi-gpu_trends/Kirk spricht dort allerdings von GPGPU- Anwendungen. Dort sind mehere GPUs/ Platinen i.d.R. kein Problem. In Echtzeit- 3D- Berechnungen eben schon.

Warum nicht gleich FFT anstatt selbst billige HW dafuer zu verschwenden? (und ja es ist natuerlich eine rein theoretische Frage).FFT? :confused:

Falls es tatsaechlich 25% sind, wuerde ich liebend gerne wissen wieviel von den uebrigen 75% fuer bilinear und wieviel fuer trilinear stehen.Das kommt wahrscheinlich auch darauf an, auf was für Hardware :wink:

Gast
2008-05-21, 16:19:59
nV meint auch das MultiGPU die Zukunft ist! Wer im Glashaus sitzt, soll nicht mit Steinen werfen! ;)
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/april/nvidia_multi-gpu_trends/

Auszug


Oh ja, SLI ist ja auch sooooo neu. Wer keine Ahnung hat wovon die Rede ist hält besser die Finger still! ;)

[fu]121Ah
2008-05-21, 16:55:21
Oh ja, SLI ist ja auch sooooo neu. Wer keine Ahnung hat wovon die Rede ist hält besser die Finger still! ;)
SLI hat ja auch sooo viel mit Nvidia zu tun. SFR auch, AFR hat auch soooo viel mit Nvidia zu tun...

w0mbat
2008-05-21, 17:15:21
Wurde auch langsam mal Zeit das jemand die auspackt, gibts jetzt schon seit dem 7. Mai :)

http://www.nordichardware.com/image3.php?id=5063
http://www.nordichardware.com/image3.php?id=5062
http://www.nordichardware.com/news,7769.html

reunion
2008-05-21, 17:23:00
Wurde auch langsam mal Zeit das jemand die auspackt, gibts jetzt schon seit dem 7. Mai :)

http://www.nordichardware.com/image3.php?id=5063
http://www.nordichardware.com/image3.php?id=5062
http://www.nordichardware.com/news,7769.html

Die Frage ist wohl eher wen interessiert das noch, nachdem es von beiden Kühlern eh schon ein Foto gibt.

w0mbat
2008-05-21, 17:23:50
Naja, wen interessiert die x-te Meldung über angeblich final RV770-Specs die aber falsch sind? Außerdem sind die Bilder jetzt endgültig bestätigt und man weiß die genauen Maße.

reunion
2008-05-21, 17:32:58
Also viel kann an den Specs nicht mehr falsch sein IMHO.

w0mbat
2008-05-21, 17:36:26
An welchen Specs? Die Hartware mit 1GHz+ Coreclk, die von Fudo/NHW mit 650-750MHz Coreclk oder die von HW-Infos mit der Shaderdomaine? Und sind es 32 oder 24 TMUs?

reunion
2008-05-21, 17:39:06
Es sind 32 TMUs, dessen bin ich mir mittlerweile sicher. Die Taktraten sind vielleicht noch nicht sicher, ja, aber das wars dann auch schon. Wobei die von Hartware sicher falsch sind und die von HW-Info wohl auch.

w0mbat
2008-05-21, 17:40:30
Und wieso bist du dir dessen sicher? Weil es am logischten ist, oder weil es jede Newsseite von Hartware abgeschrieben hat?

reunion
2008-05-21, 17:44:09
Und wieso bist du dir dessen sicher? Weil es am logischten ist, oder weil es jede Newsseite von Hartware abgeschrieben hat?

Nein, weil ich einen Tipp bekommen habe das die Texelfüllrate bei ~25GTexel/s liegen soll.

w0mbat
2008-05-21, 17:45:09
Achso, ok dann ist es ja gut.

reunion
2008-05-21, 17:47:03
Ich hoffe das es gut ist ja.

GeneralHanno
2008-05-21, 17:47:34
Nein, weil ich einen Tipp bekommen habe das die Texelfüllrate bei ~25GTexel/s liegen soll.

das würde zu 32TMUs und 7xxMHz passen ...

Sorkalm
2008-05-21, 17:51:24
das würde zu 32TMUs und 7xxMHz passen ...

Wie alle Gerüchte die es bisher gibt. Nur w0mbats Quellen sagen was anderes...

w0mbat
2008-05-21, 17:54:39
Ich sage das die angeblichen finalen Specs von HW-Infos falsch sind, ebeson wie die alten von Hartware. Nicht komplett falsch, aber nicht final wie sie sagen.

Sorkalm
2008-05-21, 17:56:16
Ich sage das die angeblichen finalen Specs von HW-Infos falsch sind, ebeson wie die alten von Hartware. Nicht komplett falsch, aber nicht final wie sie sagen.

Ob sich da nen paar Megahertz noch ändern dürfte für die grundsätzliche Einschätzung aber nicht so relevant sein...

Edit: Gilt auch für die Speicherausstattung, ob nun 512 MiB oder 1 GiB für die High-End-GPU kann einen gewissen Unterschied machen, ändert aber nichts grundlegendes an der Beurteilung der Situation.

Gast
2008-05-21, 18:01:36
w0mbat, es wird Zeit dein Versprechen zu brechen :P Ich hab das so im Gefühl.

Gast
2008-05-21, 21:35:09
Offenbar wird die Refresh-Generation des RV770 in 40 statt 45 nm gefertigt, wie bereits von einigen Forenmitgliedern hier vermutet.

Englisch (Original): http://www.pczilla.net/en/post/16.html
Deutsch: http://www.hardware-infos.com/news.php?news=2079

Gast
2008-05-22, 09:03:48
Da TSMC keinen 40nm Prozess anbietet ist das doch sehr unglaubwürdig.

Gast
2008-05-22, 12:19:23
Da TSMC keinen 40nm Prozess anbietet ist das doch sehr unglaubwürdig.

http://www.tsmc.com/tsmcdotcom/PRListingNewsAction.do?action=detail&language=E&newsid=2561&newsdate=2008/03/24

Ja, diese News von der TSMC Hauptseite ist höchst unglaubwürdig.

Gast
2008-05-22, 12:24:33
Dann ist deren Website aber schlecht, weil hier nix davon steht:

http://www.tsmc.com/english/b_technology/b01_platform/b0101_advanced.htm

Gast
2008-05-22, 12:49:23
Google ist dein Freund.

HOT
2008-05-22, 14:07:43
TSMC bietet den 40nm Prozess als Zwischenlösung an, genau wie sie den 55nm Prozess zum 65nm anbieten, oder den 80nm Prozess zum 90nm Prozess. Das machen die schon ewig so. Früher waren das nur sparprozesse, mittlerweile gibt es auch leistungsoptimierte Zwischenprozesse.

Gast
2008-05-22, 14:29:40
Wer mitlachen will. :)

Jetzt glaubt endlich auch Fuad, dass RV770 ein 256 Bit-Speicherinterface hat. Als Entschuldigung für die falschen, angeblich "echten" Infos dient natürlich, dass man sich da mit Ring-Bus vertan hat. Naja, kann sich jeder selbst fragen, wie glaubwürdig das nun wieder ist...

http://www.fudzilla.com/index.php?option=com_content&task=view&id=7455&Itemid=1

Coda
2008-05-22, 18:49:37
Da TSMC keinen 40nm Prozess anbietet ist das doch sehr unglaubwürdig.
Sie bieten ihn noch nicht an. Deshalb steht das auch nicht bei den derzeitigen Prozessen dabei.

Thunder99
2008-05-22, 21:01:28
Langen überhaupt 32TMU´s um die Schwächen der R600/RV670er Karten auszugleichen?

Nvidia hat ja jetzt schon 64 und bald mehr TMU´s oder sind die von ATI effizienter, besser?

Nakai
2008-05-22, 21:04:13
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7472&Itemid=1

Klingt für mich, wie der Shadertakt...;)

Langen überhaupt 32TMU´s um die Schwächen der R600/RV670er Karten auszugleichen?

Ail hat das schon mal angesprochen. Eine Schwäche wird durch höhere TMUs ausgemerzt. Aber es gibt halt noch mehr.


mfg Nakai

Gast
2008-05-22, 22:09:56
Langen überhaupt 32TMU´s um die Schwächen der R600/RV670er Karten auszugleichen?

Nvidia hat ja jetzt schon 64 und bald mehr TMU´s oder sind die von ATI effizienter, besser?

na sicher die texelfüllrate hat sich doch damit fast verdreifacht.von ca.11000 auf 27000.

Gast
2008-05-22, 22:45:22
Langen überhaupt 32TMU´s um die Schwächen der R600/RV670er Karten auszugleichen?

Nvidia hat ja jetzt schon 64 und bald mehr TMU´s oder sind die von ATI effizienter, besser?


Ja und nein, wie schon hier über einige Seiten diskutiert, ist die Texturfüllrate EINE der Schwächen vom R600 Design, allerdings werden die HD 4800er dadurch nicht um welten schneller, gibt nunmal auch noch andere Bremsklötze in diesem Design und da ja ATI total auf Transistoren sparen steht..........


Vergleich mal 8800GTX und 9800GTX

Gast
2008-05-22, 22:49:34
Ja und nein, wie schon hier über einige Seiten diskutiert, ist die Texturfüllrate EINE der Schwächen vom R600 Design, allerdings werden die HD 4800er dadurch nicht um welten schneller, gibt nunmal auch noch andere Bremsklötze in diesem Design und da ja ATI total auf Transistoren sparen steht..........


Vergleich mal 8800GTX und 9800GTX

ihr redet immer von anderen bremsklözen dann sagt auch welche das sein sollen?welche schwächen sind es denn?

GeneralHanno
2008-05-22, 22:51:41
z.b. die z-fill rate. und auch das ganze shadersystem ist recht unflexibel. der R600 besteht imo aus 4 (fetten) SIMD, während der G80 aus 16 (schlanken) SIMD besteht ...

Gast
2008-05-22, 22:59:54
z.b. die z-fill rate. und auch das ganze shadersystem ist recht unflexibel. der R600 besteht imo aus 4 (fetten) SIMD, während der G80 aus 16 (schlanken) SIMD besteht ...

woher weist du das es nachteile hat?gibts da benchmarkvergleiche zu oder wie haste das festellen können?bist du ingenieure?

Coda
2008-05-22, 23:08:09
ihr redet immer von anderen bremsklözen dann sagt auch welche das sein sollen?welche schwächen sind es denn?
Meiner Meinung nach hängt es vor allem in der tatsächlichen Auslastung der Einheiten, bzw. dem Scheduling auf dem Chip selber. Die praktischen GFlop-Werte werden bei R6xx selbst wenn man davon ausgeht dass die ALUs nur eine Auslastung von ~3/5 haben nicht erreicht.

Es hängt also nicht nur an der Anzahl und Effizienz der einzelnen Einheiten sondern auch am Zusammenspiel dieser.

Meine Hoffnung für RV770 ist vor allem, dass sie das AF-Flimmern abstellen können durch die höhere Texelfüllrate.

Gast
2008-05-22, 23:08:50
woher weist du das es nachteile hat?gibts da benchmarkvergleiche zu oder wie haste das festellen können?bist du ingenieure?


Über die Auslastung der theoretischen Rechenleistung. Vergleiche das doch mal mit einem R580. Normal sollte ein RV670 doppelt so schnell sein. Einzig bei 8facher Kantenglättung ist das Design Konkurrenz fähig, bei 4facher fehlen 50%.

Gast
2008-05-22, 23:16:38
Meiner Meinung nach hängt es vor allem in der tatsächlichen Auslastung der Einheiten, bzw. dem Scheduling auf dem Chip selber. Die praktischen GFlop-Werte werden bei R6xx selbst wenn man davon ausgeht dass die ALUs nur eine Auslastung von ~3/5 haben nicht erreicht.

Es hängt also nicht nur an der Anzahl und Effizienz der einzelnen Einheiten sondern auch am Zusammenspiel dieser.

Meine Hoffnung für RV770 ist vor allem, dass sie das AF-Flimmern abstellen können durch die höhere Texelfüllrate.

meint ihr nicht das z.b. beim R600 nur die texelfüllrate erhöhung ausgereicht hätte um die 8800gtx zu überfliegen?ich denke schon das es ausgereicht hätte.

deekey777
2008-05-22, 23:25:26
Meiner Meinung nach hängt es vor allem in der tatsächlichen Auslastung der Einheiten, bzw. dem Scheduling auf dem Chip selber. Die praktischen GFlop-Werte werden bei R6xx selbst wenn man davon ausgeht dass die ALUs nur eine Auslastung von ~3/5 haben nicht erreicht.

Es hängt also nicht nur an der Anzahl und Effizienz der einzelnen Einheiten sondern auch am Zusammenspiel dieser.

Meine Hoffnung für RV770 ist vor allem, dass sie das AF-Flimmern abstellen können durch die höhere Texelfüllrate.

Ich muss wieder an Jaweds Aussage denken, ob es sich nicht herausstellen wird, dass der R600 und somit der RV670 an fehlender Shader-Leistung leiden.

LovesuckZ
2008-05-22, 23:26:50
meint ihr nicht das z.b. beim R600 nur die texelfüllrate erhöhung ausgereicht hätte um die 8800gtx zu überfliegen?ich denke schon das es ausgereicht hätte.

Nein. Sonst müssten die Geforcekarten meilenweit vorne sein.

Ich muss wieder an Jaweds Aussage denken, ob es sich nicht herausstellen wird, dass der R600 und somit der RV670 nicht an fehlender Shader-Leistung leiden.

Woran sonst?

Nakai
2008-05-22, 23:41:54
Woran sonst?

Ich würde sagen, der RV670/R600 an allem etwas rumkränkelt.
Bei dem AF, bei der Shaderleistung, beim MSAA. Egal was man irgendwie aktiviert, das Ding bricht ein.


mfg Nakai

sklave_gottes
2008-05-22, 23:43:10
Über die Auslastung der theoretischen Rechenleistung. Vergleiche das doch mal mit einem R580. Normal sollte ein RV670 doppelt so schnell sein. Einzig bei 8facher Kantenglättung ist das Design Konkurrenz fähig, bei 4facher fehlen 50%.

Das hört sich jetzt aber ein bischen.. naja albern an.
Die 8800gt hat im Vergleich zur HD3870 über die doppelte z-fill leistung, die ja so wichtig ist.
Sie hat über die doppelte Texelfillrate, die auch so wichtig ist.
Und jetzt ist auch noch die shaderleistung vom rv670 total verkrüppelt.

Dann frage ich dich jetzt: Wieso ist die 8800gt nicht minimum doppelt so schnell wie eine hd3870 ?

Und wieso sollte der rv670 doppelt so schnell sein wie ein r580 ?

16 vs 16 ROPs/TMUs nur mehr shader hat der rv670.

Und die shaderleistung kommt am besten ohne aa/af durch, da dort weniger die tmus/rops limitieren. hier ist der rv670 50% schneller als der r580
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/24/#abschnitt_performancerating

bei aa/af nur noch 20-25%

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/24/#abschnitt_performancerating_qualitaet

Und das ist für mich eindeutig ein zeichen das es an den ROPs/TMUs liegt!
Die Schader sind Ok.

mfg martin

Gast
2008-05-22, 23:51:50
Man muss bei solchen Sachen leider die 8800GTX nehmen und eigentlich die 2900XT.


So schauts aber aus wenn es dem R600 nicht so recht passt http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/20/#abschnitt_lost_planet


Mit Kantenglättung und Anisotroper Filterung holt der RV 670 im übrigen auf, bei 8 facher glättung sogar stark.

sklave_gottes
2008-05-22, 23:58:12
Man muss bei solchen Sachen leider die 8800GTX nehmen und eigentlich die 2900XT.


So schauts aber aus wenn es dem R600 nicht so recht passt http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/20/#abschnitt_lost_planet


Mit Kantenglättung und Anisotroper Filterung holt der RV 670 im übrigen auf, bei 8 facher glättung sogar stark.


Einzelspiele tests kann mann sich immer schön rauspicken, das habe ich immer so gerne.

Fackt ist: Das der rv670 gegenüber r580 die viel höhere shaderleistung hat! Das war es aber auch schon.
Die TMUs sind trotz allem Theoretischem zeugs pro takt laut ein paar Test Teilweise sogar schlechter beim rv670/r600 als beim r580.
Die ROPs sollen ja schon laut diverser Aussagen über Fehler leiden.
Also egal was man über r600/rv670 sagen kann. Eins sind die dinger sicher nicht. Lahm wegen der Schaderleistung.

mfg martin

deekey777
2008-05-23, 00:03:08
Ich würde sagen, der RV670/R600 an allem etwas rumkränkelt.
Bei dem AF, bei der Shaderleistung, beim MSAA. Egal was man irgendwie aktiviert, das Ding bricht ein.


mfg Nakai
Wobei die "fehlende Shaderleistung" relativiert werden sollte: Es wäre denkbar, dass der RV670 einfach zu viel leer rechnet (die Pixelthreads sind 64 Pixel groß, die Latenz für den Instruction-Wechsel ist vier Takte lang usw), sprich es dauert zu lange, bis ein Pixel fertig ist; das ALU-TMU-Verhältnis von 4:1 ist somit nicht so groß, wie es auf den ersten Blick aussieht.

LovesuckZ
2008-05-23, 00:03:44
Eigentlich schon. ;)
Wenn man 3650 und 3850 vergleicht, ist die zweite fast exakt so schnell wie sie mehr an Rechenleistung hat.

Nakai
2008-05-23, 00:09:29
Ich hoffe ja, dass man mehr als nur die Anzahl der Einheiten beim RV770 erhöht hat.
Und es klingt auch ehrlich danach. Doppelte TMUs, doppelte Z-Rate, evtl bessere Auslastung der Shader + Mehr Shader.


mfg Nakai

Gast
2008-05-23, 00:25:34
Einzelspiele tests kann mann sich immer schön rauspicken, das habe ich immer so gerne.

Fackt ist: Das der rv670 gegenüber r580 die viel höhere shaderleistung hat! Das war es aber auch schon.
Die TMUs sind trotz allem Theoretischem zeugs pro takt laut ein paar Test Teilweise sogar schlechter beim rv670/r600 als beim r580.
Die ROPs sollen ja schon laut diverser Aussagen über Fehler leiden.
Also egal was man über r600/rv670 sagen kann. Eins sind die dinger sicher nicht. Lahm wegen der Schaderleistung.

mfg martin


Bitte nicht falsch verstehen, ich besitze eine HD 3870 und für den Preis war diese ein absolutes Schnäppchen zu diesem Zeitpunkt. Mit dem jetzt aktuellen Cat. 8.5 kommt auch etwas leben in die Karte, vieleicht hat man ja bei Nvidia abgeschaut wie diese ihre Einheiten Ansprechen........

Die TMU's sind schlechter sondern besser, ROP's wurden auch angepasst....wenn man das so nennen darf. Dazu gibt es auch hier im Forum genug Artikel was die TMU des R600 können und die des R580.

sklave_gottes
2008-05-23, 00:45:35
Bitte nicht falsch verstehen, ich besitze eine HD 3870 und für den Preis war diese ein absolutes Schnäppchen zu diesem Zeitpunkt. Mit dem jetzt aktuellen Cat. 8.5 kommt auch etwas leben in die Karte, vieleicht hat man ja bei Nvidia abgeschaut wie diese ihre Einheiten Ansprechen........

Die TMU's sind schlechter sondern besser, ROP's wurden auch angepasst....wenn man das so nennen darf. Dazu gibt es auch hier im Forum genug Artikel was die TMU des R600 können und die des R580.

Ja nochmal in der Theorie sind die besser, aber leider nicht in der praxis. sieh mal hier:

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/11/#abschnitt_theoretische_benchmarks

achte mal auf die Pure Fillrate und die Single Texture beides bricht mit aa/af genadenlos weg. Wieso ? ich dachte die TMUs sind besser. Und auch die z pixel rate sinkt auf das nivau eines r580 pro takt mit aa/af.

Die doppelten TAUs und die möglichkeit FP16-HDR ohne verlust durchzuführen sollte gerade bei dx10 der neuen ati reihe vorteile verschafen, davon sehe ich aber leider nichts. Die TMUs sind meiner meinung nach schwächer als die auf dem r580.Zumindest in der Praxis.
Wieso sonnst zieht öfters mal eine x1950xtx an einer hd3850 vorbei mit aa/af ? Wohingegen der rv670 ohne aa/af klar schneller ist ?

bei r600/rv670 ist einiges falsch gelaufen. Aber an der shaderleistung liegt das ganz sicher nicht.

Ich hoffe das rv770 nicht nur paar mehr einheiten hat, sondern das die ROPs wieder ihre arbeit verrichten und die TMUs nicht mehr so stark einbrechen.


mfg martin

Cpl. Dwayne Hicks
2008-05-23, 02:42:53
Meiner Meinung nach hängt es vor allem in der tatsächlichen Auslastung der Einheiten, bzw. dem Scheduling auf dem Chip selber. Die praktischen GFlop-Werte werden bei R6xx selbst wenn man davon ausgeht dass die ALUs nur eine Auslastung von ~3/5 haben nicht erreicht.

Es hängt also nicht nur an der Anzahl und Effizienz der einzelnen Einheiten sondern auch am Zusammenspiel dieser.

Meine Hoffnung für RV770 ist vor allem, dass sie das AF-Flimmern abstellen können durch die höhere Texelfüllrate.


Sorry ich hab ja nicht soviel Ahnung, aber Ich dachte der R(V)6xx hat garkeinen Scheduler... deswegen ja der ganze VLIW Zirkus.

Coda
2008-05-23, 03:11:46
Naja es sind ja 4 Cores. Rechnen die immer am gleichem rum?

AnarchX
2008-05-23, 09:54:03
http://img370.imageshack.us/img370/373/r4850712e5727ph6.jpg (http://imageshack.us)
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7489&Itemid=34

Also 900MHz Default für RV770Pro, jedenfalls laut Text? :|

pest
2008-05-23, 09:55:04
Bild eines Bioseditors? = beliebige Werte

Gast
2008-05-23, 09:58:56
http://img370.imageshack.us/img370/373/r4850712e5727ph6.jpg (http://imageshack.us)
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7489&Itemid=34

Also 900MHz Default für RV770Pro, jedenfalls laut Text? :|

Shadertakt?

pest
2008-05-23, 10:00:12
Also 900MHz Default für RV770Pro, jedenfalls laut Text? :|

da kann doch jeder eintragen was er will :(

AnarchX
2008-05-23, 10:03:06
da kann doch jeder eintragen was er will :(

Natürlich, wobei Fudo ja entsprechendes im Text behauptet.
Aber ich bezweifele es auch eher, damit kann sicherlich keine 115W TDP erreichen.

mrt
2008-05-23, 10:06:25
Wobei die "fehlende Shaderleistung" relativiert werden sollte: Es wäre denkbar, dass der RV670 einfach zu viel leer rechnet (die Pixelthreads sind 64 Pixel groß, die Latenz für den Instruction-Wechsel ist vier Takte lang usw), sprich es dauert zu lange, bis ein Pixel fertig ist; das ALU-TMU-Verhältnis von 4:1 ist somit nicht so groß, wie es auf den ersten Blick aussieht.
Bei Spielen mit kuzen Shadern ist die ALU-Auslastung sehr schlecht, hier fehlt es IMO einfach an Tex-Leistung um die ALUs zu füttern.

@Coda
Was soll am Scheduling nicht stimmen? Wenn die ROPs/Z-Fill und/oder die TMUs limitieren nutzt dir gutes Scheduling auch nicht viel.

Odal
2008-05-23, 10:10:31
z.b. die z-fill rate. und auch das ganze shadersystem ist recht unflexibel. der R600 besteht imo aus 4 (fetten) SIMD, während der G80 aus 16 (schlanken) SIMD besteht ...
die z-füllrate müsste sich aber genauso verdoppeln...das ist dann zwar noch nicht das was ein G80 erreicht aber sobald shader und andere spielerein mit ins spiel kommen knickt die füllrate vom G80 eh ein

http://img370.imageshack.us/img370/373/r4850712e5727ph6.jpg (http://imageshack.us)
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7489&Itemid=34

Also 900MHz Default für RV770Pro, jedenfalls laut Text? :|

ich kenne das tool....allerdings auch nur von bildern her....da es schlicht weg nirgends runterladbar war....

fuad hat da jedenfalls nic gefaked....und die die das ding entwickelt haben hatten auch sowas wie mein overdrive lock freies bios für die 3850 und 3870

wenn das nicht selbst hingefriemelt war könnte das von einer test sample karte by ati gewesen sein

eventuell ist das hier jetzt wieder so....

Gast
2008-05-23, 11:06:53
Ja nochmal in der Theorie sind die besser, aber leider nicht in der praxis. sieh mal hier:

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/11/#abschnitt_theoretische_benchmarks

achte mal auf die Pure Fillrate und die Single Texture beides bricht mit aa/af genadenlos weg. Wieso ? ich dachte die TMUs sind besser. Und auch die z pixel rate sinkt auf das nivau eines r580 pro takt mit aa/af.

Die doppelten TAUs und die möglichkeit FP16-HDR ohne verlust durchzuführen sollte gerade bei dx10 der neuen ati reihe vorteile verschafen, davon sehe ich aber leider nichts. Die TMUs sind meiner meinung nach schwächer als die auf dem r580.Zumindest in der Praxis.
Wieso sonnst zieht öfters mal eine x1950xtx an einer hd3850 vorbei mit aa/af ? Wohingegen der rv670 ohne aa/af klar schneller ist ?

bei r600/rv670 ist einiges falsch gelaufen. Aber an der shaderleistung liegt das ganz sicher nicht.

Ich hoffe das rv770 nicht nur paar mehr einheiten hat, sondern das die ROPs wieder ihre arbeit verrichten und die TMUs nicht mehr so stark einbrechen.


mfg martin


Aniso wurde aber auch verbessert, kann sein das sich dies so negativ bemerkbar macht in der Leistung. Das Problem liegt auch weniger an diesem, sondern fast nur an 4 facher Kantenglättung wo der R600 stark einbricht. bei 8 facher glättung halbiert sich die Leistung nochmal während bei G80 fast 75% weg fallen.


Was eigentlich am meisten gegen deine Meinung spircht ist die aktuelle Spek. von HD 4870 mit 480SP's bei 1,05gHz, was eine glatte verdopplung ist. An einer Stelle wo eh schon genug Leistung vorhanden ist verdoppelt ATI nichts.

Nakai
2008-05-23, 11:10:02
die z-füllrate müsste sich aber genauso verdoppeln...das ist dann zwar noch nicht das was ein G80 erreicht aber sobald shader und andere spielerein mit ins spiel kommen knickt die füllrate vom G80 eh ein

Der G80 geht ziemlich verschwenderisch mit seinen Füllraten um.

Shadertakt?

Hätt ich auch gedacht, aber davon sieht man nichts.
Entweder eine sehr gut taktbare ES, oder das Tool liest den Shadertakt aus.
625Mhz mit 900Mhz ~ 725Mhz mit 1050 Mhz


mfg Nakai

Gast
2008-05-23, 11:17:23
Der G80 geht ziemlich verschwenderisch mit seinen Füllraten um.



Hätt ich auch gedacht, aber davon sieht man nichts.
Entweder eine sehr gut taktbare ES, oder das Tool liest den Shadertakt aus.
625Mhz mit 900Mhz ~ 725Mhz mit 1050 Mhz


mfg Nakai


Mal zum Vergleich R580 hat ca. 384mio trans in 90nm und 650mHz, R600 hat ca. 700mio bei 740mHz in 80nm.

Wenn eine X2 schon 825mHz hat wird eine 4870 sicher nicht weniger haben.

Nakai
2008-05-23, 11:21:28
Mal zum Vergleich R580 hat ca. 384mio trans in 90nm und 650mHz, R600 hat ca. 700mio bei 740mHz in 80nm.

Wenn eine X2 schon 825mHz hat wird eine 4870 sicher nicht weniger haben.

Hier handelt es sich aber um die PRO.


mfg Nakai

Hvoralek
2008-05-23, 13:27:38
die z-füllrate müsste sich aber genauso verdoppeln...das ist dann zwar noch nicht das was ein G80 erreicht aber sobald shader und andere spielerein mit ins spiel kommen knickt die füllrate vom G80 eh einInwiefern beeinflussen Shader die Füllrate auf G8x? :confused:

Ailuros
2008-05-23, 13:31:59
die z-füllrate müsste sich aber genauso verdoppeln...das ist dann zwar noch nicht das was ein G80 erreicht aber sobald shader und andere spielerein mit ins spiel kommen knickt die füllrate vom G80 eh ein

Wie schon Hvoralek oben fragt: was zum Henker hat die Fuellrate mit ALU calls zu tun? Wuerden wir ueber NV4x/G7x reden wurden dort tatsaechlich ALUs beim texturing beschaeftigt. Seit G8x ist das Zeug voneinander entkoppelt.

Gast
2008-05-23, 13:38:22
Hier ATIs Antwort auf Nvidias HighEnd Chip:

23.05.2008, 13:27 | Quelle: VR-Zone
ATI RV870 mit 1000 Shadern?
Neue High-End Architektur Ende 2008, Fertigung in 45nm oder 40nm

Momentan sieht es so aus, als wenn AMD und Nvidia im nächsten Monat keine konkurrienden Grafikkarten auf den Markt bringen werden. ATI Radeon HD 4850 und 4870 auf Basis des RV770 Grafikchips liegen unterhalb von 300 Euro, während GeForce GTX 260 und 280 auf Basis des GT200 Chips 400 Euro und mehr kosten dürften. Was hält AMD im High-End Bereich dagegen? Nach ersten Gerüchten soll der RV870 Grafikchip gegen Ende dieses Jahres kommen.
Anzeige

Aus Asien kommen die ersten Informationen. Demnach besitzt der RV870 eine komplett neue Architektur, während der RV770 wie auch der RV670 (Radeon HD 3800) noch auf dem R600 (Radeon HD 2900) basiert. Beim RV870 wird von 1000 Shader Einheiten bzw. Stream Prozessoren gesprochen. Aktuell besitzt der RV670 320 Shader Einheiten, der RV770 soll auf 480 kommen.
Auch die Dual-Chip Variante mit zwei RV870 sei in Planung, Veröffentlichung wohl in der ersten Hälfte des nächsten Jahres. Mit einer solchen Lösung kommt man auf 2000 Shader Einheiten!
Voraussichtlich verwendet AMD für den RV870 das Fertigungsverfahren mit 45 Nanometer Strukturbreite. Sogar 40nm ist im Gespräch. Der taiwanesische Chipfertiger TSMC hat bereits angekündigt, auch in 40nm produzieren zu können.
Den neuen Produktionsprozess wird AMD wohl zunächst noch für Mainstream-Grafikchips einsetzen. Es heißt, der RV740 (Radeon HD 4600 oder 4700?) soll in 45nm oder 40nm gefertigt werden und im vierten Quartal dieses Jahres erscheinen.

Schlammsau
2008-05-23, 13:46:43
Hier ATIs Antwort auf Nvidias HighEnd Chip:

23.05.2008, 13:27 | Quelle: VR-Zone
ATI RV870 mit 1000 Shadern?
Neue High-End Architektur Ende 2008, Fertigung in 45nm oder 40nm

Momentan sieht es so aus, als wenn AMD und Nvidia im nächsten Monat keine konkurrienden Grafikkarten auf den Markt bringen werden. ATI Radeon HD 4850 und 4870 auf Basis des RV770 Grafikchips liegen unterhalb von 300 Euro, während GeForce GTX 260 und 280 auf Basis des GT200 Chips 400 Euro und mehr kosten dürften. Was hält AMD im High-End Bereich dagegen? Nach ersten Gerüchten soll der RV870 Grafikchip gegen Ende dieses Jahres kommen.
Anzeige

Aus Asien kommen die ersten Informationen. Demnach besitzt der RV870 eine komplett neue Architektur, während der RV770 wie auch der RV670 (Radeon HD 3800) noch auf dem R600 (Radeon HD 2900) basiert. Beim RV870 wird von 1000 Shader Einheiten bzw. Stream Prozessoren gesprochen. Aktuell besitzt der RV670 320 Shader Einheiten, der RV770 soll auf 480 kommen.
Auch die Dual-Chip Variante mit zwei RV870 sei in Planung, Veröffentlichung wohl in der ersten Hälfte des nächsten Jahres. Mit einer solchen Lösung kommt man auf 2000 Shader Einheiten!
Voraussichtlich verwendet AMD für den RV870 das Fertigungsverfahren mit 45 Nanometer Strukturbreite. Sogar 40nm ist im Gespräch. Der taiwanesische Chipfertiger TSMC hat bereits angekündigt, auch in 40nm produzieren zu können.
Den neuen Produktionsprozess wird AMD wohl zunächst noch für Mainstream-Grafikchips einsetzen. Es heißt, der RV740 (Radeon HD 4600 oder 4700?) soll in 45nm oder 40nm gefertigt werden und im vierten Quartal dieses Jahres erscheinen.

:confused::|
irgendwie vermisse ich in dem Text den R700!

Hvoralek
2008-05-23, 13:48:16
Wie wäre es mit
einem Link und
einem zum Imhalt passenden, neuen Thread "R8xx im Q4 2008, multicore und 45/40 nm?" o.ä.?

Odal
2008-05-23, 13:49:29
Wie schon Hvoralek oben fragt: was zum Henker hat die Fuellrate mit ALU calls zu tun? Wuerden wir ueber NV4x/G7x reden wurden dort tatsaechlich ALUs beim texturing beschaeftigt. Seit G8x ist das Zeug voneinander entkoppelt.


indem die TMUs däumchen drehen?

dann erklär mir das mal
http://pics.computerbase.de/1/7/3/7/4/diagramme/74.png

Hvoralek
2008-05-23, 13:55:40
Die PS- Tests dort messen die Shaderleistung ("Pixelshader-Füllraten", wie CB das bezeichnet). Es geht nicht um irgendwelche Texel-, Pixel-, oder Z- Füllraten bei gleichzeitiger Verwendung von Shadern.

Ailuros
2008-05-23, 14:03:40
indem die TMUs däumchen drehen?

dann erklär mir das mal


Was gibt es da zu erklaeren? Wenn Du nicht weisst was und wo der MDolenc Fuellraten Tester genau misst, wuerde ich an Deiner Stelle erstmal gar nicht versuchen es als Argument zu praesentieren.

Odal
2008-05-23, 14:05:43
Die PS- Tests dort messen die Shaderleistung ("Pixelshader-Füllraten", wie CB das bezeichnet). Es geht nicht um irgendwelche Texel-, Pixel-, oder Z- Füllraten bei gleichzeitiger Verwendung von Shadern.

ja aber bei wieviel prozent der "objektflächen" aktueller spiele kommen denn keine Shader etc. zum einsatz?

Was gibt es da zu erklaeren? Wenn Du nicht weisst was und wo der MDolenc Fuellraten Tester genau misst, wuerde ich an Deiner Stelle erstmal gar nicht versuchen es als Argument zu praesentieren.

Das war kein Argument sondern eine Frage. Daher auch das "Fragezeichen"

Adam D.
2008-05-23, 14:06:51
:confused::|
irgendwie vermisse ich in dem Text den R700!
Was ist denn der R700? Genau. 2xRV770.

Hvoralek
2008-05-23, 14:12:44
ja aber bei wieviel prozent der "objektflächen" aktueller spiele kommen denn keine Shader etc. zum einsatz?Natürlich ist die Shaderleistung wichtig. Natürlich schlägt sich R6xx da besser als bei sämtlichen relevanten Füllraten. Aber wo siehst Du bitte einen Füllrateneinbruch bei G8x, wenn Shader genutzt werden? Noch einmal: Der Tester dort misst bei den "PS"- Tests keine Füllraten, sondern die Shaderleistung!

Ailuros
2008-05-23, 14:13:30
Was ist denn der R700? Genau. 2xRV770.

Was aber wiederrum heisst dass die 4870X2 ~Ende Sommer 2008 kommen wird und ein jeglicher RV8xx chip wohl doch nicht mehr in 2008.

Adam D.
2008-05-23, 14:21:07
Was aber wiederrum heisst dass die 4870X2 ~Ende Sommer 2008 kommen wird und ein jeglicher RV8xx chip wohl doch nicht mehr in 2008.
Es wär ja auch seltsam, wenn bereits Ende 2008 ein völlig neuer Chip in 40nm kommen würd. Das ist unrealistisch. ATi muss sich im "High-End" mit der 4870X2 sicher noch bis min. in den nächsten Frühling retten, irgendwann dann wird sicher auch der Refresh des G200 kommen.

Odal
2008-05-23, 14:30:42
Natürlich ist die Shaderleistung wichtig. Natürlich schlägt sich R6xx da besser als bei sämtlichen relevanten Füllraten. Aber wo siehst Du bitte einen Füllrateneinbruch bei G8x, wenn Shader genutzt werden? Noch einmal: Der Tester dort misst bei den "PS"- Tests keine Füllraten, sondern die Shaderleistung!

ich meinte mit einbruch das die reine z-Füllrate auf dem Papier zwar gigantisch aussieht aber das nicht viel ausmacht sobald irgendwo shader zum einsatz kommen...(zumindest deutete ich das diagramm so)

wenn er die reine shaderleistung misst warum heisst das ding füllratentester?
bzw. wieso spart man sich nicht die zweite hälfte der auswertung?

HOT
2008-05-23, 14:31:18
Kann ja sein, dass nicht das Endprodukt gemeint war mit Q4 2008. Dann kommt das schon hin.

Hvoralek
2008-05-23, 14:59:35
ich meinte mit einbruch das die reine z-Füllrate auf dem Papier zwar gigantisch aussieht aber das nicht viel ausmacht sobald irgendwo shader zum einsatz kommen...(zumindest deutete ich das diagramm so)Die Z- Füllrate wird nur unter "Z Pixel Fillrate" gemessen. "Pure Fillrate" ist wohl Pixelfüllrate und "Single/ Quad Texture" Texelfüllrate mit einer bzw. vier Texturen. Die übrigen Tests messen m.W. wirklich die Shaderleistung. Das steht sogar in der Beschreibung des Tests bei CB (die schon angesprochenen "Pixelshader-Füllraten").

wenn er die reine shaderleistung misst warum heisst das ding füllratentester?
bzw. wieso spart man sich nicht die zweite hälfte der auswertung?Ich frage mich eher, warum in einem Füllratentester auch Shader ausgemessen werden. So recht einen Sinn in diesen Tests sehe ich ehrlich gesagt auch nicht; da liefert Shadermark ohnehin sinnvollere, weil differenziertere Werte.

crux2005
2008-05-23, 15:20:23
In absolut Shader-limitierten Faellen ist G92 um 50% schneller.

gibt es dafür auch Beweise ? ich bezweifle die Tatsache nicht, würde nur sehr gerne auch Zahlen sehen :)

Schau Dir mal Fablemark an; Fablemark ist ein rein stencil Fuellraten limitierter Test und das Einschalten von AF macht nur geringen Unterschied. Das Zeug ist natuerlich nicht mehr Praxis-relevant heutzutage aber sobald stenciling mit AA kombiniert wird (Doom3 und dergleichen) sind die Unterschiede radikal.

im Fablemark mit 4xMSAA und 16xAF hat die GeForce 9600 GT sogar bessere Werte als die GeForce 8800 GTX :confused: das macht nur die bessere Kompresion der ROPs ? ist ein wenig OT *EDIT: OK, jetzt ist es mir eingefallen, 575 MHz, 24 ROPs <-> 700 MHz, 16 ROPs, trotzdem sollte die 8800 GTX vorne sein ...*

Die Antwort ist trotz allem nein und schuld daran sind die minimalen Resourcen die ATI (mit Absicht) in RV770 investiert hat. Ein paar Einheiten nur so dazukleben, heisst leider oefters dass man die Effizienz der Architektur sehr leicht verletzen kann.

finde ich Traurig, aber thx für die infos ;)

und was ist FFT ?

FFT? :confused:

Godmode
2008-05-23, 16:21:47
und was ist FFT ?

Fast Fourier Transformation (http://de.wikipedia.org/wiki/Schnelle_Fourier-Transformation)

crux2005
2008-05-23, 17:03:36
trotzdem verstehe ich Ails Antwort nicht so ganz

das FFT muss ja von irgendwelchen Einheiten ( TMUs ? ) ausgeführt werden, ode nicht ? ist ja dann egal, ob man mehr TAUs hat, oder andere Rechenwerken für FFT benutzt ...

AnarchX
2008-05-24, 08:37:32
HD4870X2 suggested we should not touch the

Before R680 radiators have been very bad, actually two GPU temperature of 10 degrees, while the R700 power is increased to about 250 W Surprisingly, only two radiator core cooling block middle Gaoge heat pipe, from Heat to both the left and right, that the two R680 core temperature of 10 degrees the temperature control BUG ...... HD4870X2 is likely even worse than the 9800 GX2, the proposal before we do not impulse buy.
http://bbs.chiphell.com/viewthread.php?tid=22967&extra=page%3D1

Und das ist wohl der Kühler für die HD4870X2:
http://img60.imageshack.us/img60/4749/20080524cd1873c73197091ep6.jpg (http://imageshack.us)

Daredevil
2008-05-24, 08:41:35
Wat..... nur eine Heatpipe und diese 2 Mikrigen Kühlkörper?
Soll das ( Wie bei der 2900xt seinerzeit ) ein Fön werden oder wie >_<

*edit*
ja jetz kann man den Text auch verstehen... Danke :)

AnarchX
2008-05-24, 08:42:57
Steht ja auch im Text von Napoleon, dass das Teil wohl nicht ganz so optimal ist.

Unyu
2008-05-24, 09:45:12
Also die Hetpipe bringt die Wärme von Kühlkörper #1 zu #2 und umgekehrt? ;D

Gast
2008-05-24, 10:02:14
Damit soll wohl versucht werden, die Wärme vom Kühlkörper links auf den rechts ein wenig zu übertragen, denn der Kühlkörper rechts bekommt kühle Ansaugluft und der Kühlkörper zwei muss sich mit bereits erwärmter Luft zufrieden geben. Ich denke da wollte man einen Ausgleich schaffen.
Eine Seitenansicht wäre evtl noch ganz hilfreich.

Daredevil
2008-05-24, 10:08:03
Naja oder die Wärme wird halt verteilt wenn ein Kern mehr arbeitet als der andere, damit die 2 Kühlkörper als einer gesehen werden aber...wieso denn nicht ein "dicker" Kühlblock als 2 kleine?

Das mit dem Ausgleich klingt gut.

gamingforce
2008-05-24, 11:07:30
Die Headpipes sind schon schonmal gut, bei der X2 die jetzt am Start ist sind die GPUs bis zu 20° unterschied :rolleyes:

Chris2CB
2008-05-24, 11:29:12
Die Headpipes sind schon schonmal gut, bei der X2 die jetzt am Start ist sind die GPUs bis zu 20° unterschied :rolleyes:


Das liegt aber an der Montage und dazu noch am Sensor. Der Unterschied zwischen ALU und Kupfer liegt bei Luftkühlung bei 4 - 5Kelvin, dazu bekommt der Kupferblock ja nur die warme Luft vom ALU Block ab. Daran wird es sicher nicht liegen. Mal als Beispiel, bei den Sapphire 3870 gibts auch Unterschiede von gut 20 Kelvin.......

Gast
2008-05-24, 13:48:34
lol ne das liegt daran das eine gpu mit einem alu und die andere mit einem kupferblock gekühlt werden.

Schlammsau
2008-05-24, 15:09:07
also wenn ich mir den Kühler so ansehe, kommt mir der Verdacht, dass die X2 auf 2 RV670Pro basiert und nicht auf 2 RV670XT.
Dafür wäre der Kühler zu mickrig!

AnarchX
2008-05-24, 15:23:14
War doch abzusehen, ansonsten müsste man ja 8+8 oder 6+6+8 Stromanschlüsse verbauen.

AnarchX
2008-05-24, 17:24:23
Kühler der R(V)7xx-Serie:

R700
http://img264.imageshack.us/img264/6595/2008052423a248bd0ca6fbcpr6.jpg
http://img368.imageshack.us/img368/6171/2008052426736fc50f4c972qv2.jpg

RV770XT
http://img186.imageshack.us/img186/2089/200805245deaa10de39c15cul4.jpg
http://img134.imageshack.us/img134/5962/20080524996817147f9c591jd2.jpg

RV770Pro
http://img502.imageshack.us/img502/6540/20080524b8ce4358470deb2nz9.jpg
http://img294.imageshack.us/img294/6567/2008052465ccb4ef85354a9rx8.jpg

RV730:
http://img385.imageshack.us/img385/6026/200805248c1571b017768a8iv7.jpg

Odal
2008-05-24, 17:43:50
der kühler für den RV770pro sieht mir etwas unrealistisch aus...denn der ist ja praktisch wie der stock kühler der HD3850

oder sollte ati den verbrauch nochmals drastisch reduziert haben?

AnarchX
2008-05-24, 17:45:40
Nicht mitgelesen?
TDP soll bei 115W liegen, was wohl durch niedrige 625MHz bei entsprechend niedriger Spannung erreicht werden soll.

edit:
asic name: rv770
revision: a12
board no.: 102-B50102-00
engine clk: 625mhz
memory manufacturer: qimonda
memory type: gddr3
memory config: 16Mx32
memory no.: HYB18H512321BF-10
memory clk: 990mhz
vddc (core voltage): 1.13v
mvddc/q (memory voltage): 2.03v
tdp: 114w

performance rv670xt +80%

GeneralHanno
2008-05-24, 17:46:02
naja prinzipell soll der RV770 pro ja auch die RV670 pro ablösen und große ähnlichkeiten aufweisen ...

welche TDP hatten eigentlich die 3870,3850 und X2 genau?

Nakai
2008-05-24, 17:50:18
performance rv670xt +80%
16Mx32



Das bezweifle ich...


mfg Nakai

Sorkalm
2008-05-24, 17:52:44
edit:

Wo hast du das denn ausgegraben? 114 Watt standen doch bisher nur bei HWI, CJ sprach ja von 110 Watt.

Edit @Nakai Ja, fragt sich, ob das zusammenhängende Daten sind.

Nakai
2008-05-24, 18:16:58
Edit @Nakai Ja, fragt sich, ob das zusammenhängende Daten sind.

Mal ein Edit:

asic name: rv770 - okay
revision: a12 - okay
board no.: 102-B50102-00 - egal
engine clk: 625mhz - wenn es nur der Coretakt wäre
memory manufacturer: qimonda - wurde schon bestätigt
memory type: gddr3 - das auch
memory config: 16Mx32 - 16 Chips...512Bit SI?
memory no.: HYB18H512321BF-10
memory clk: 990mhz
vddc (core voltage): 1.13v
mvddc/q (memory voltage): 2.03v
tdp: 114w - sehr gut möglich

performance rv670xt +80% - also nach den Daten bestimmt nicht


Nehmen wir mal an, es sind 480SPs und 32 TMUs, dann können die Daten nicht stimmen.
Falls die Shader mit 900Mhz takten, falls es einen Shadertakt gibt, dann würde man etwa auf 60% Leistungssteigerung kommen.
Und deswegen meine ich, dass sich diese 80% auf die RV770XT beziehen.


mfg Nakai

AnarchX
2008-05-24, 18:19:52
http://www.nordichardware.com/forum/-vp25902.html?sid=d8a1af52100c0b63a4d421dc0cc7cbc9#25902

16Mx32 bedeutet nur, dass es 512MBit Chips mit entsprechender Organisation sind.

Aber die 80% sind in der Tat zweifelhaft.

Ailuros
2008-05-24, 19:03:26
gibt es dafür auch Beweise ? ich bezweifle die Tatsache nicht, würde nur sehr gerne auch Zahlen sehen :)

Wie oft wird die MUL auf G8x/9x fuer general shading genau benutzt und wenn mit wieviel Durchbruch? Das letzte Mal wo B3D nachgemessen hat waren es irgendwo +15% von der MUL Einheit und das unter einem sehr speziellem Fall.

Die 8800GT laeuft eigentlich auf 112*2*1.5= 336GFLOPs vs.
496GFLOPs einer HD3870.

im Fablemark mit 4xMSAA und 16xAF hat die GeForce 9600 GT sogar bessere Werte als die GeForce 8800 GTX :confused: das macht nur die bessere Kompresion der ROPs ? ist ein wenig OT *EDIT: OK, jetzt ist es mir eingefallen, 575 MHz, 24 ROPs <-> 700 MHz, 16 ROPs, trotzdem sollte die 8800 GTX vorne sein ...*

Ja und die bessere Kompression wird es natuerlich auch in GT200 geben.


und was ist FFT ?

Das Zeug heisst sicher anders und nein ich meinte nicht fast fourier transform, sondern den Filterungsersatz durch arithmetische Einheiten.

Gast
2008-05-24, 20:22:44
80% sind aber schon ganz ordentlich.Glaubt ihr das der wert hinkommen kann?Vielleicht hat Ati denn Chip nochmalls komplett unter die Lupe genommen und die schwachstellen beseitigt?Vielleicht läuft das antialiasing jetzt auch nicht mehr über die Shader?

Cpl. Dwayne Hicks
2008-05-25, 01:42:14
Haben die G92 Karten eigentlich auch diese bessere ROP Kompression?

BvB123
2008-05-25, 01:49:18
Nein. 9600 GT.

AnarchX
2008-05-25, 07:31:39
Natürlich hat das auch schon G92.

James Ryan
2008-05-25, 09:36:08
Der Kühler der RV770 XT sieht gut aus, dank großen Lüfter ist vielleicht auch endlich mal die Lautstärke niedrig!

MfG :cool:

nagus
2008-05-25, 10:54:00
Der Kühler der RV770 XT sieht gut aus, dank großen Lüfter ist vielleicht auch endlich mal die Lautstärke niedrig!

MfG :cool:

wieso "endlich mal"? der vorgänger war SEHR leise!

kann es sein, dass das teil ähnlich oder sogar gleich ausschaut wie ein 8800gtx küler?

K4mPFwUr$t
2008-05-25, 11:20:45
einige scheinen wohl nicht zu wissen, was wirklich leise ist.
denn davon sind die stock cooler noch sehr weit enfernt.

gamingforce
2008-05-25, 11:35:56
einige scheinen wohl nicht zu wissen, was wirklich leise ist.
denn davon sind die stock cooler noch sehr weit enfernt.

eben, weder ne 9800GTX noch ne 3870X2 ist leise, sie sind zwar gut erträglich aber für Silent freaks sind die Kühler eh nix.

Welche karte ih für sehr leise halte, sind 8800GTX und HD3870 (Standard Kühler), die sind wirklich leise.

K4mPFwUr$t
2008-05-25, 12:21:29
selbst die würde ich nicht umbedingt als leise ansehen. leise geht in die richtung 120mm lüfter.
oder silent lösungen von thermal right und co.

allerdings wird man sollche kühlkonzepte aus mehreren gründen nicht bei einer referenzkarte finden.

James Ryan
2008-05-25, 15:11:52
wieso "endlich mal"? der vorgänger war SEHR leise!

kann es sein, dass das teil ähnlich oder sogar gleich ausschaut wie ein 8800gtx küler?

Weder die HD 2900 XT, noch die HD 3870 würde ich als leise bezeichnen (unter 3D versteht sich!).

MfG :cool:

Schlammsau
2008-05-25, 15:17:52
also der Referenz Kühler der 3870 ist schon leise. Nur die SingleSlot von Sapphire stellt da eine Ausnahme dar!

K4mPFwUr$t
2008-05-25, 15:25:15
@schlammsau
ich hatte den kühler der 3870 schon öfters mal gehört, leise ist was anderes.
bei dem billigmüll den man bei der kühlerfertigung verwendet darf man allerdings auch nicht anderes erwarten.

Eggcake
2008-05-25, 15:28:31
Also den Kühler der 8800 GTS 320 höre ich auf "Standard" (also 60%) nicht ausm Gehäuse raus. Hab sonst im Gehäuse nur nen Freezer 7 Pro und einen 120mm Lüfter der auf Silent dreht. Klar, wenn absolute Ruhe ist hört mans schon bisl raus, doch mehr nicht.

Naja die Zeiten sind aber sowieso passé weil ich fürs OC die Lüfterdrehzahlen auf 80-90% hochdrehe ... dann wirds dann doch extrem laut.
Aber naja, etwas anderes sollte man bei einer HighEnd Graka auch nicht unbedingt erwarten...

gamingforce
2008-05-25, 16:52:29
@schlammsau
ich hatte den kühler der 3870 schon öfters mal gehört, leise ist was anderes.
bei dem billigmüll den man bei der kühlerfertigung verwendet darf man allerdings auch nicht anderes erwarten.

also ich finde den Lüfter von einer 3870 sehr gut(auf Auto), er ist nicht laut und stört nicht er ist auch leiser wie eine 8800GT mit dieser Brüllmücke drauf das nenne ich etwas laut:smile:
Gut auf 100% hebt der PC ab, aber das bei ner 8800GTX nicht anders.

Gast
2008-05-25, 18:10:23
also ich finde den Lüfter von einer 3870 sehr gut(auf Auto), er ist nicht laut und stört nicht er ist auch leiser wie eine 8800GT mit dieser Brüllmücke drauf das nenne ich etwas laut:smile:
Gut auf 100% hebt der PC ab, aber das bei ner 8800GTX nicht anders.
darüber diskutieren wir hier aber eigentlich nicht (geht an alle lüfterfetis)

mein zalman auf der 3870 musste zumindest einer wakü weichen, weil er zu laut war!

crux2005
2008-05-25, 18:28:28
Nochmal 2z/clock auf R6x0/RV6x0. Ja natuerlich hat G92 auch nur 16 ROPs nur sind diese um einiges fetter (was ich uebrigens schon erwaehnt habe).

8800GT = 16*600MHz*4 = 38.4 GSamples/s
HD3870 = 16*775MHz*2 = 24.8 GSamples/s

Ohne AA schafft G8x/9x bis zu 8z samples/clock; die ROPs sind zusaetzlich um einiges flexibler was besonders mit shadowmaps auch ohne AA bemerkbar ist. Und shadowmaps gibt es mehr und mehr in neueren Spielen.

sry, ich bin jetzt aber ein wenig verwirrt
ist die Z-sample rate der 8800GT mit 2xMSAA 38 400 MSamples/s oder nur 19 200MSamples/s ? denn bei HW.fr http://www.hardware.fr/articles/671-4/ati-radeon-hd-2900-xt.html fällt die Z rate des G80 mit 2xMSAA um die Hälfte, im 3Dcenter Artikel - Ein erster Blick auf die G80-Technologie: http://alt.3dcenter.org/artikel/2006/12-28_b.php steht aber: Zixel bei 2x MSAA - G80: 55,2 GZ/s - ist also nicht gefallen.

was ist jetzt richtig ? die Angaben von HW.fr ?

Wie oft wird die MUL auf G8x/9x fuer general shading genau benutzt und wenn mit wieviel Durchbruch? Das letzte Mal wo B3D nachgemessen hat waren es irgendwo +15% von der MUL Einheit und das unter einem sehr speziellem Fall.

keine Ahnung, würde aber auch sagen das es sehr wenig ist

Die 8800GT laeuft eigentlich auf 112*2*1.5= 336GFLOPs vs.
496GFLOPs einer HD3870.

ja, jetzt verstehe ich dich, wie du es gemeint hast

Hvoralek
2008-05-25, 18:31:48
sry, ich bin jetzt aber ein wenig verwirrt
ist die Z-sample rate der 8800GT mit 2xMSAA 38 400 MSamples/s oder nur 19 200MSamples/s ? denn bei HW.fr http://www.hardware.fr/articles/671-4/ati-radeon-hd-2900-xt.html fällt die Z rate des G80 mit 2xMSAA um die Hälfte, im 3Dcenter Artikel - Ein erster Blick auf die G80-Technologie: http://alt.3dcenter.org/artikel/2006/12-28_b.php steht aber: Zixel bei 2x MSAA - G80: 55,2 GZ/s - ist also nicht gefallen.

was ist jetzt richtig ? die Angaben von HW.fr ?M.W. halbiert sich die Füllrate mit 2xMSAA. Aths rechnet wahrscheinlich mit 8 z/Takt und kommt so auf 110 Gz/s ohne MSAA und 55 mit 2x.

crux2005
2008-05-25, 18:32:03
also ich finde den Lüfter von einer 3870 sehr gut(auf Auto), er ist nicht laut und stört nicht

ack

Gut auf 100% hebt der PC ab, aber das bei ner 8800GTX nicht anders.

dann sind es aber 10dBA unterschied:

8800GTX: 48,1
3870: 58,5

crux2005
2008-05-25, 18:38:19
M.W. halbiert sich die Füllrate mit 2xMSAA. Aths rechnet wahrscheinlich mit 8 z/Takt und kommt so auf 110 Gz/s ohne MSAA und 55 mit 2x.

alles klar, danke =)

Gast
2008-05-25, 20:07:56
Gut auf 100% hebt der PC ab, aber das bei ner 8800GTX nicht anders.

bei der 8800GTX nicht, auf 100% ist er zwar nicht mehr leise, aber von "abheben" noch weit entfernt.

Gast
2008-05-25, 20:16:03
3870 gehört zu der leiseren abteilung,mich wundert nur wie cb auf die idee kommt das eine 8800gt bei last leise wäre?ich habe die noch sehr laut in erinnerung.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_asus_radeon_hd_3850_x2/21/#abschnitt_lautstaerke

BvB123
2008-05-25, 22:10:00
bei der 8800GTX nicht, auf 100% ist er zwar nicht mehr leise, aber von "abheben" noch weit entfernt.


Was eigentlich total uninteressant ist, da beide Karten von selbst nie auf 100% schalten würden.

Gast
2008-05-26, 11:10:03
RV770XT to challenge 9800GTX Should be as fast

http://www.fudzilla.com/index.php?option=com_content&task=view&id=7511&Itemid=1

deekey777
2008-05-26, 11:12:12
RV770XT to challenge 9800GTX Should be as fast

http://www.fudzilla.com/index.php?option=com_content&task=view&id=7511&Itemid=1

This sounds quite good for a card that will sell for $229 at launch
=)

http://resources.vr-zone.com/image_deposit/up/12117698854f592cb84b.jpg

Gast
2008-05-26, 11:15:43
wenn das stimmen sollte , dass die 770xt nur mit der 9800gtx mit halten kann wäre dies erbärmlich

Gast
2008-05-26, 11:24:56
=)

http://resources.vr-zone.com/image_deposit/up/12117698854f592cb84b.jpg

des is die richtige:
http://news.mydrivers.com/img/20080526/11132493.png

deekey777
2008-05-26, 11:28:19
des is die richtige:
http://news.mydrivers.com/img/20080526/11132493.png
Mein Link ist trotzdem besser:
http://www.tomshardware.tw/549,news-549.html

Schlammsau
2008-05-26, 11:37:50
wenn das stimmen sollte , dass die 770xt nur mit der 9800gtx mit halten kann wäre dies erbärmlich
warum? Kann ich mir nicht vorstellen, nicht bei einem Preis von 300-350$!

dildo4u
2008-05-26, 11:38:59
warum? Kann ich mir nicht vorstellen, nicht bei einem Preis von 300-350$!
Laut der News "This sounds quite good for a card that will sell for $229 at launch"

HarryHirsch
2008-05-26, 11:39:05
was meinen die mit "High performance anisotropic filtering..."?
sollte sich da echt was verbessert haben?

Hvoralek
2008-05-26, 11:42:16
was meinen die mit "High performance anisotropic filtering..."?
sollte sich da echt was verbessert haben?Es wird schon länger von einer ~30% höheren AF- Leistung gemunkelt. Hoffentlich ist das, was dahinter steckt, wirklich eine Verbesserung. Mit Glück meinen sie nur die höhere relative Filterleistung, mit Pech irgendwelche weiteren Filtersparmaßnahmen.

reunion@work
2008-05-26, 11:47:05
Mein Link ist trotzdem besser:
http://www.tomshardware.tw/549,news-549.html

Uh, die 4870 mit zwei 6-Pin Stromanschlüssen. Sonst wir erwartet featuremäßig absolut top, jetzt muss nur noch die leistung stimmen.

Schlammsau
2008-05-26, 12:00:26
Laut der News "This sounds quite good for a card that will sell for $229 at launch"

laut neuestem News von VRZone, kostet die 4870 329$ und die 4850 249$ beim Launch! Hat sich vielleicht bei FUD ein Fehler eingeschlichen und die meinen den RV770Pro?
in dem Link von Deekey (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6531041#post6531041) wird auch von 330$ für die 4870 geschrieben!
http://www.tomshardware.tw/549,news-549.html

http://resources.vr-zone.com/image_deposit/up/12117698854f592cb84b.jpg

http://www.abload.de/img/11111111111111111111q9l.jpg

w0mbat
2008-05-26, 12:07:22
Der RV770 wird der RV670 Nachfolger, nicht nur preislich sonder auch von der Leistung her. Er soll das Gegenprodukt zum G92b werden und wird niemals einen G200 angreifen können.

gamingforce
2008-05-26, 12:09:38
die X2 denk ich schon.

AnarchX
2008-05-26, 12:10:15
Bilder und Featurebeschreibung:
http://www.tomshardware.tw/549,news-549.html

Aber offenbar immernoch keine Taktraten.

Ausserdem hat man wohl bei Intel geklaut: "TeraScale". :|

gamingforce
2008-05-26, 12:12:50
mhh kp was "TeraScale" ist, was soll das sein!?

AnarchX
2008-05-26, 12:14:53
mhh kp was "TeraScale" ist, was soll das sein!?
Das ist es jedenfalls bei Intel:
http://techresearch.intel.com/articles/Tera-Scale/1421.htm
;)

Hvoralek
2008-05-26, 12:15:08
mhh kp was "TeraScale" ist, was soll das sein!?Das ist doch nicht so schwer. Erster Google- Treffer: http://de.wikipedia.org/wiki/Terascale-Prozessor

HarryHirsch
2008-05-26, 12:23:26
was meinen die mit: "Memory sharing and stacking"?
ist es damit gesichert das bei der x2 sich beide gpus den selben speicher teilen?

gamingforce
2008-05-26, 12:23:50
mhh ok thx, ist das nun gut oder nicht?:redface:

AnarchX
2008-05-26, 12:24:56
was meinen die mit: "Memory sharing and stacking"?
ist es damit gesichert das bei der x2 sich beide gpus den selben speicher teilen?
X-D

Wie schon gesagt hat beides nichts miteinander zu tun, AMD wird sich wohl nur dieses Buzzword geliehen haben.

Sorkalm
2008-05-26, 12:25:38
Auf jeden Fall wieder Preise von mehr als $300 für die RV770XT und mehr als $200 für die RV770PRO...

Schlammsau
2008-05-26, 12:32:58
Auf jeden Fall wieder Preise von mehr als $300 für die RV770XT und mehr als $200 für die RV770PRO...

Wenn die XT wirklich mehr als 300$ kostet, kann bzw. dürfte er nicht auf 9800GTX Niveau sein. Das wäre ja Suizid für ATi! :|
Ich glaube eher das Fud den Pro gemeint hat. Das würde auch zu den 220$ passen!

Sorkalm
2008-05-26, 12:34:07
Weswegen wohl etwas Mehrleistung vorhanden sein könnte. ;)

crux2005
2008-05-26, 12:40:19
die ROPs und TMUs sind bei den GeForce Karten umgekehrt:

http://resources.vr-zone.com/image_deposit/up/12117698854f592cb84b.jpg

Gast
2008-05-26, 12:44:57
wenn das stimmen sollte , dass die 770xt nur mit der 9800gtx mit halten kann wäre dies erbärmlich

Das ist genau das, was zu erwarten ist. Vielleicht ein wenig mehr, so etwa 8800 Ultra Niveau.

clockwork
2008-05-26, 13:02:55
laut neuestem News von VRZone, kostet die 4870 329$ und die 4850 249$ beim Launch! Hat sich vielleicht bei FUD ein Fehler eingeschlichen und die meinen den RV770Pro?
in dem Link von Deekey (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6531041#post6531041) wird auch von 330$ für die 4870 geschrieben!

Dachte ich mir auch gerade. Wird dort vom RV770PRO gesprochen oder wurde sich beim Preis vertippt? Für 350$ scheint mir mit 4870 ziemlich hoch angesetzt wenn die mit der 9800GTX konkurriert, vorallem da die Geforce wohl noch im Preis fallen.

€: Ist das TDP der GTX280 mit 236 Watt ernst gemeint? :eek:

gamingforce
2008-05-26, 13:05:19
dafür bekommt man aber ne Karte ohne VRAM Bug und nem 2D Modus;D

Odal
2008-05-26, 13:11:37
Bilder und Featurebeschreibung:
http://www.tomshardware.tw/549,news-549.html

Aber offenbar immernoch keine Taktraten.

Ausserdem hat man wohl bei Intel geklaut: "TeraScale". :|


die HD4850 scheint ja deutlich weniger saft zu bekommen....


weiß jemand weas GDDR5 im Vergleich zu GDDR3 verbraucht?

Adam D.
2008-05-26, 13:15:13
dafür bekommt man aber ne Karte ohne VRAM Bug und nem 2D Modus;D
Du NERVST.

Laut CB ist eine 9800GTX zwischen 30% (normal) und 60% (Qualität) schneller als eine HD3870. Ergo dürfte eine HD4870 in etwa auf dem Level einer 9800GTX sein, eher etwas schneller. Wenn der Preis dann noch passt, ist die HD4870 sicher die bessere Alternative. Trotzdem schade, dass es wohl nicht zu mehr gereicht hat.

Schlammsau
2008-05-26, 13:22:10
Du NERVST.

Laut CB ist eine 9800GTX zwischen 30% (normal) und 60% (Qualität) schneller als eine HD3870. Ergo dürfte eine HD4870 in etwa auf dem Level einer 9800GTX sein, eher etwas schneller. Wenn der Preis dann noch passt, ist die HD4870 sicher die bessere Alternative. Trotzdem schade, dass es wohl nicht zu mehr gereicht hat.

wenn dann bitte ganz genau! :)
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/22/#abschnitt_performancerating_qualitaet

Die 9800GTX ist:
Performancerating – 1280x1024 ~33% schneller
Performancerating – 1600x1200 ~35% schneller
Rating – 1280x1024 4xAA/16xAF ~54% schneller
Rating – 1600x1200 4xAA/16xAF ~48% schneller

Um wieviel % soll die 4870 schneller als die 4850 sein?

Adam D.
2008-05-26, 13:23:23
Das ändert nix an der Tatsache "zwischen 30 und 60%" ... Ist doch kack egal, ob's 33% oder 54% sind :usad:

Schlammsau
2008-05-26, 13:24:42
Das ändert nix an der Tatsache "zwischen 30 und 60%" ... Ist doch kack egal, ob's 33% oder 54% sind :usad:

war ja auch keine Kritik!
Also wenn Fud sich jetzt wirklich "vertippt" hat und eine 4850 auf GTX Niveau ist, und eine 4870 nochmal 20-30% schneller ist. Respekt!!!!!!
Vor allem weil nV noch nichts in der Preiskategorie dem entgegenzusetzen hat!
Ich bin echt gespannt!

Adam D.
2008-05-26, 13:27:58
war ja auch keine Kritik!
Na dann ;)

Wenn ich mir das jetzt mal vor Augen halte ... D3D10.1, PowerPlay, leiser Lüfter, gute Leistungsaufnahme, Speed etwa auf GTX-Niveau, dazu der inzwischen typische aggressive Preiskampf von ATi ... Eventuell wird das doch der Nachfolger meiner 8800GT.

Sorkalm
2008-05-26, 13:34:18
Leiser Lüfter ist noch nicht sicher. ;)

Adam D.
2008-05-26, 13:36:07
Leiser Lüfter ist noch nicht sicher. ;)
Naja, da der Lüfter der HD3870 für mich schon kaum wahrnehmbar war, wüsst ich nicht, was sich bei der HD4870 daran groß ändern sollte :D

Sorkalm
2008-05-26, 13:36:58
Nutzt die 3870 überhaupt einen Radial-Lüfter?
Der sieht jedenfalls anders aus als der der 4870. :|

clockwork
2008-05-26, 13:38:26
Na dann ;)

Wenn ich mir das jetzt mal vor Augen halte ... D3D10.1, PowerPlay, leiser Lüfter, gute Leistungsaufnahme, Speed etwa auf GTX-Niveau, dazu der inzwischen typische aggressive Preiskampf von ATi ... Eventuell wird das doch der Nachfolger meiner 8800GT.
Nagut stimmt schon. Ich hatte die 9800GTX jetzt nicht so schnell eingeschätzt. Ich hab bei den 349$ eher bedenken wegen dem Unrechnungskurs auf €.

Gast
2008-05-26, 13:44:40
Naja, da der Lüfter der HD3870 für mich schon kaum wahrnehmbar war, wüsst ich nicht, was sich bei der HD4870 daran groß ändern sollte :D

eigentlich sollte man schon damit rechnen, dass die leistungsaufnahme merklich ansteigt.

Gast
2008-05-26, 13:49:51
Das ist genau das, was zu erwarten ist. Vielleicht ein wenig mehr, so etwa 8800 Ultra Niveau.

Jop, denk ich auch und gerade in höheren Auflösungen +AA/AF kann sie sich von der 9800GTX absetzen, wie die 8800Ultra auch ggü. der 9800GTX :)

Gast
2008-05-26, 13:58:52
Na dann ;)

Wenn ich mir das jetzt mal vor Augen halte ... D3D10.1, PowerPlay, leiser Lüfter, gute Leistungsaufnahme, Speed etwa auf GTX-Niveau, dazu der inzwischen typische aggressive Preiskampf von ATi ... Eventuell wird das doch der Nachfolger meiner 8800GT.


Jo, und vielleicht bekommt man ja durch 10.1 in absehbarer Zeit auch nochmal nen 10-20% Geschwindigkeitszuwachs. Bis das breitflächig soweit ist wird es wohl aber dauern bis Nvidia mal mit 10.1 aus den Puschen kommt.

Adam D.
2008-05-26, 13:59:36
eigentlich sollte man schon damit rechnen, dass die leistungsaufnahme merklich ansteigt.
Das stimmt schon, aber ATi braucht Argumente für ihre Karten (Geschwindigkeit ist einfach keins mehr), ich hoffe nicht, dass sie das verkacken. Die 8800GTX war auch ein Monster und konnte gut und leise gekühlt werden, ich hoffe, das schafft ATi auch.

Jo, und vielleicht bekommt man ja durch 10.1 in absehbarer Zeit auch nochmal nen 10-20% Geschwindigkeitszuwachs. Bis das breitflächig soweit ist wird es wohl aber dauern bis Nvidia mal mit 10.1 aus den Puschen kommt.
Das ist eben die Frage. Genau dazu hab ich grad einen Thread eröffnet (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=416808), der dieser Frage nach geht. Werben kann ATi mit D3D10.1 natürlich schon, aber ob es jemals einen praktischen Nutzen geben wird, ist leider mehr als fraglich.

gamingforce
2008-05-26, 14:17:28
Du NERVST.

Laut CB ist eine 9800GTX zwischen 30% (normal) und 60% (Qualität) schneller als eine HD3870. Ergo dürfte eine HD4870 in etwa auf dem Level einer 9800GTX sein, eher etwas schneller. Wenn der Preis dann noch passt, ist die HD4870 sicher die bessere Alternative. Trotzdem schade, dass es wohl nicht zu mehr gereicht hat.

1. wenn ich dich nerve, ignorier es doch
2.klar die 9800GTX ist 50 % schneller, in den MAX FPS vieleicht in den MIN FPS (und nur die zählen) sind es keine 50 %

3.G92 ist abfall und ich bin froh das ich für meine beiden paar dumme gefunden hab die den Müll kaufen ;D

dildo4u
2008-05-26, 14:21:34
3.G92 ist abfall und ich bin froh das ich für meine beiden paar dumme gefunden hab die den Müll kaufen ;D
G92 hat das beste Watt/Performance Verhältniss aller Chips die es zur Zeit am Markt gibt einfach lächerlich das als Müll zu bezeichnen.

Adam D.
2008-05-26, 14:24:04
1. wenn ich dich nerve, ignorier es doch
So sei es.

2.klar die 9800GTX ist 50 % schneller, in den MAX FPS vieleicht in den MIN FPS (und nur die zählen) sind es keine 50 %
Immer wieder faszinierend, wo man sich Lücken versucht zu suchen, wo keine Sinn. Klar, CB vergleicht nur die Max-fps und du spielst spiele generell nur mit Min-fps :rolleyes:

3.G92 ist abfall und ich bin froh das ich für meine beiden paar dumme gefunden hab die den Müll kaufen ;D
Geh dir 'n Lolli kaufen.

Sorkalm
2008-05-26, 14:24:26
G92 hat das beste Watt/Performance Verhältniss aller Chips die es zur Zeit am Markt gibt einfach lächerlich das als Müll zu bezeichnen.

Allerdings nur in Form der 8800 GT, die 9800 GTX hat durch die hohe Spannung ja fast schon wieder 8800-GTX-Niveau erreicht (die dann aber in hohen Settings deutlich schneller ist).

gamingforce
2008-05-26, 14:28:41
G92 hat das beste Watt/Performance Verhältniss aller Chips die es zur Zeit am Markt gibt einfach lächerlich das als Müll zu bezeichnen.

wenn du meinst, für da noobs die ganezn tag CS zocken und kein Dunst haben was sie da eigentlich haben ist das schon iO.

Aber ein G80 nachfolger der 9800GTX heisst DAS ist lächerlich ganz einfach.
der VRAM ist bei 1280x1024 4xAA 16xAF schon voll ob nun BUG oder nicht ist erstmal egel, im SLI sind die Karten ein totaler reinfall viele MAX FPS das stimmt kann auch keiner abstreiten, spielen damit >>>>und Tschüss.
Das einzige was schön lief ist Pro Street, Crysis, Jericho, TDU,Stalker, DIRT, Oblivion, CoJ, CoH usw. wenn man bei 1920x1200 4xAA 16xAF angelangt ist ist ruhe im Schacht und man hat mehr geruckel als man zählen kann.

Wenn mich 1 8800GTX verheizt und ich zwar 8800GTS 512 MB habe die noch dazu noch ein Monster Takt haben von 820/2080/1100 das gab mir schon zu denken.

Also ? ABFALL

dildo4u
2008-05-26, 14:30:46
Allerdings nur in Form der 8800 GT,
Ja und die reicht ja schon für die schnellste Single Core ATI Karte von daher kann man die Aussage so tätigen.Wenn man die ATI auf 9800GTX Speed bekommen wollte müsste man sicherlich auch mächtig am Vcore und Takt schrauben sodas auch dort der Verbrauch exponential steigt.

Adam D.
2008-05-26, 14:36:41
Aha, und das macht die HD3870 besser? Interessant, das würd ich jetzt gern ausführlich bewiesen haben. Und ein Nachfolger, der HD3870 heißt und kein deut schneller ist als der Vorgänger HD2900XT, der ist natürlich gerechtfertig, klar!

PS: Ich weiß von der Bedeutung von Max-fps und Min-fps, aber ich hab hier HD3870 und 8800GT und zu behaupten, die HD3870 hätte signifikante Vorteile, ist einfach nur Bullshit.

Gast
2008-05-26, 14:38:48
Irgendwas passt da noch nicht:
folgende grobe Leistungsannahmen laut Gerüchteküche

9800 GTX = 8800 GTX
4870 = 9800 GTX Leistung + x %
4850 = 4870 - 25%
GT280 = ca. 2x 8800 GTX

soweit so gut, aber die Preise:

9800 GTX/8800 GTX: ab ca 210 €
4870: 350$ ~ 290€
4850: 229$ ~ 185€
GT280: 500$


Betrachtet man die voraussichtlichen Startpreise der HD4xxx muss die 4850 auf dem Leistungsniveau der 9800GTX sein, die 4870 auf 3870x2 Niveau. ATI kann nicht mit einem teureren Produkt auf den Markt kommen und weniger Leistung anbieten als bereits erhältliche Karten.

Gast
2008-05-26, 14:46:10
Oder die 4870 kostet wirklich nur 229 $ ?! Der Preis ist ja auch noch nicht fix, oder ?

gamingforce
2008-05-26, 14:49:48
Aha, und das macht die HD3870 besser? Interessant, das würd ich jetzt gern ausführlich bewiesen haben. Und ein Nachfolger, der HD3870 heißt und kein deut schneller ist als der Vorgänger HD2900XT, der ist natürlich gerechtfertig, klar!

PS: Ich weiß von der Bedeutung von Max-fps und Min-fps, aber ich hab hier HD3870 und 8800GT und zu behaupten, die HD3870 hätte signifikante Vorteile, ist einfach nur Bullshit.

-ich hab keine HD3870 (nur X2)
-mein vergleich bezog sich auf 8800GTS (92)SLI vs: HD3870X2
-ich hätte das SLI nicht verscheuert wenn ich schechter im Spiel gewesen wäre mit der X2

Ich hab mich auf Aussagen von EUCH verlassen das die X2 keine Chance gegen ne GX2/8800GTS SLI hat, es stimmt, im 3DMark taugen die was und die X2 hängt ordentlich hinterher im Vantage aber in Spielen sieht es ganz anders aus.
Ich würd sagen es hängt beim G92 am VRAM, obs nun ein BUG ist oder die Speicherverwaltung schlechter ist ist ja erstmal egel, fakt ist ATI macht das besser der VRAM ist bei der X2 (in meinen Settings) IMMER VOLL, soll ich dir sagen was ich davon merke? NICHTS, rennt weiter alls schön flüssig ohne lagen, ruckeln, hänger.
Beim G92 war er auch immer voll und wurde sofort unspielbar (rofl aber die FPS blieben gleich ;D )

Schlammsau
2008-05-26, 14:52:58
Irgendwas passt da noch nicht:
folgende grobe Leistungsannahmen laut Gerüchteküche

9800 GTX = 8800 GTX
4870 = 9800 GTX Leistung + x %
4850 = 4870 - 25%
GT280 = ca. 2x 8800 GTX

soweit so gut, aber die Preise:

9800 GTX/8800 GTX: ab ca 210 €
4870: 350$ ~ 290€
4850: 229$ ~ 185€
GT280: 500$

Betrachtet man die voraussichtlichen Startpreise der HD4xxx muss die 4850 auf dem Leistungsniveau der 9800GTX sein, die 4870 auf 3870x2 Niveau. ATI kann nicht mit einem teureren Produkt auf den Markt kommen und weniger Leistung anbieten als bereits erhältliche Karten.

Theorie...........
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6531283#post6531283

Adam D.
2008-05-26, 14:57:37
Hmm, AiLs Aussagen waren zu eindeutig. IMO darf man von RV770 keine Wunder erwarten (kaum Entwicklung, einfach nur "Verbreiterung" der Architektur).

deekey777
2008-05-26, 15:02:11
Hmm, AiLs Aussagen waren zu eindeutig. IMO darf man von RV770 keine Wunder erwarten (kaum Entwicklung, einfach nur "Verbreiterung" der Architektur).
Also ich erwarte nach der HD3870er die nächste X1950Pro in Form der HD4870 (die HD3850 sowie HD4850 sind die Nachfolger der X1950GT 512).
Natürlich werden diese die ersten Tage teuerer sein, als man es gern hätte, aber nach der Preiskorrektur durch den Markt (es kommt noch die 9800GT, dazu noch der Preisdruck von der 9800GTX) werden die Preise der Leistung entsprechen.

Adam D.
2008-05-26, 15:09:19
Also ich erwarte nach der HD3870er die nächste X1950Pro in Form der HD4870 (die HD3850 sowie HD4850 sind die Nachfolger der X1950GT 512).
Natürlich werden diese die ersten Tage teuerer sein, als man es gern hätte, aber nach der Preiskorrektur durch den Markt (es kommt noch die 9800GT, dazu noch der Preisdruck von der 9800GTX) werden die Preise der Leistung entsprechen.
Ich denke nicht, dass da nur der Markt seine Finger im Spiel hat: ATi hat ja auch die HD3870 sofort nach Release im Preis gesenkt, das wird dieses Mal sicher wieder ähnlich ablaufen. Durch die 9800GT und die neuen Generationen wird die 9800GTX sicher in Richtung ~200€ fallen, viel höher darf die HD4870 dann auch nicht liegen. Aber eine 2. X1950 Pro wär schon was feines :smile:

Nakai
2008-05-26, 15:09:58
Es wurde gesagt, dass die HD4870 etwa 20 bis 30% schneller ist als die 9800GTX.

Die Füllraten und die theoretischen Daten sprechen für sich, man wäre etwa 90% schneller.
Ich hab mal einige Benches angeschaut und die 9800GTX liegt nicht immer soweit vor der HD3870.
So grob um die 40 bis 60% je nach Test, manchmal sogar noch etwas höher.
Die HD4870 sollte minimal 50% schneller sein, ich erwarte schon an die 70% Leistungsplus gegenüber HD3870.
Mehr sollte man nicht so schnell erwarten.


mfg Nakai

Gast
2008-05-26, 15:14:15
Die HD4870 sollte minimal 50% schneller sein, ich erwarte schon an die 70% Leistungsplus gegenüber HD4870.
Mehr sollte man nicht so schnell erwarten.


mfg Nakai

:confused:

Schlammsau
2008-05-26, 15:16:38
das würde sich ja mit meiner Theorie decken.
4850 auf GTX Niveau und die 4870 sollte dann auf 3870X2 Niveau herumschwirren!

Nakai
2008-05-26, 15:18:08
:confused:

Gefixt...;)


mfg Nakai

dildo4u
2008-05-26, 15:18:53
Durch die 9800GT und die neuen Generationen wird die 9800GTX sicher in Richtung ~200€ fallen,
Die 9800GTX ist sogar schon ohne GTX280 am Markt bei diesem Preis ich schätze 170-180€ sind Realistisch für nach dem G200 Launch.

http://geizhals.at/deutschland/a324670.html

Schlammsau
2008-05-26, 15:25:16
Die 9800GTX ist sogar schon ohne GTX280 am Markt bei diesem Preis ich schätze 170-180€ sind Realistisch für nach dem G200 Launch.

http://geizhals.at/deutschland/a324670.html

also ich weiss nicht.....und die 9800GT wird dann für weit unter 100€ "verschenkt"?
ich kann mir nicht vorstellen, dass auf absehbarer Zeit die Preise auf beiden Seiten noch stark fallen werden! Beide Hersteller müssen ja auch noch was verdienen.....

gamingforce
2008-05-26, 15:27:04
Es wurde gesagt, dass die HD4870 etwa 20 bis 30% schneller ist als die 9800GTX.

Die Füllraten und die theoretischen Daten sprechen für sich, man wäre etwa 90% schneller.
Ich hab mal einige Benches angeschaut und die 9800GTX liegt nicht immer soweit vor der HD3870.
So grob um die 40 bis 60% je nach Test, manchmal sogar noch etwas höher.
Die HD4870 sollte minimal 50% schneller sein, ich erwarte schon an die 70% Leistungsplus gegenüber HD3870.
Mehr sollte man nicht so schnell erwarten.


mfg Nakai


seh ich auch so, die 9800GTX ist garnicht so weit weg:

3DMark06 1600x1200 4xAA 16xAF

9800GTX= 28% schneller

FEAR 1600x1200 4xAA 16xAF

9800GTX=36% schneller

Rainbow Six Vegas 2 1xAA 16xAF

9800GTX=2% langsamer als ne HD3870

STALKER 1600x1200 1xAA 16xAF

9800GTX= 51% schneller

UT3 1600x1200 1xAA 16xAF

9800GTX = 49% schneller

Bioshock 1600x1200 1xAA 16xAF

9800GTX= 21 % schneller

CoJ DX10 1600x1200 4xAA 16xAF

9800GTX =34% schneller


geht immer so weiter.......

James Ryan
2008-05-26, 15:27:40
Die 9800GTX ist sogar schon ohne GTX280 am Markt bei diesem Preis ich schätze 170-180€ sind Realistisch für nach dem G200 Launch.

http://geizhals.at/deutschland/a324670.html

Die 9800 GTX wird nach dem GTX 280/260 Launch einfach vom Markt verschwinden, siehe Gf 5900 Ultra/6800 Ultra/7800 GTX/7900 GTX. ;)
Die 9800 GT wird dann für 120-140€ verschleudert.

MfG :cool:

dildo4u
2008-05-26, 15:29:43
und die 9800GT wird dann für weit unter 100€ "verschenkt"?

Warum 100€?Die 9800GT ist doch nicht 80% langsammer als die 9800GTX eher so 20-25% also könnte man ca 130-140€ für die 9800GT verlangen.


http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/22/#abschnitt_performancerating_qualitaet

gamingforce
2008-05-26, 15:37:01
wenn man nach dem Rating geht (was Bullshit ist) ist die 9800GTX ja nur 48% schneller wie ne 3870 in 1600x1200 4xAA 16xAF.

dildo4u
2008-05-26, 15:44:50
Die 9800 GTX wird nach dem GTX 280/260 Launch einfach vom Markt verschwinden, siehe Gf 5900 Ultra/6800 Ultra/7800 GTX/7900 GTX. ;)

Das glaube ich nicht weil die 9800GTX ja nicht in einem veralteten Fertigungsprozess gefertigt wird sondern in 65nm.Ist jetzt imo also keine Karte die Nvidia unbedingt schnell nicht mher produzieren will.Wenn die 4780 ca auf dem selben Performance Level liegt will man die Karte als Gegenstück sicherlich noch bis zum Winter im Angebot haben.

deekey777
2008-05-26, 15:45:10
Ich denke nicht, dass da nur der Markt seine Finger im Spiel hat: ATi hat ja auch die HD3870 sofort nach Release im Preis gesenkt, das wird dieses Mal sicher wieder ähnlich ablaufen. Durch die 9800GT und die neuen Generationen wird die 9800GTX sicher in Richtung ~200€ fallen, viel höher darf die HD4870 dann auch nicht liegen. Aber eine 2. X1950 Pro wär schon was feines :smile:
Aber auch weil der RV670 keine weitere Revision gebraucht hat und schon als A11 fertig war (was erspart Summen in sechsstelliger Höhe), hinzu kommt, dass er deutlich früher fertig kam als erwartet.
Ob das für den RV770 gilt? Schwer zu sagen.

James Ryan
2008-05-26, 15:47:41
Das glaube ich nicht weil die 9800GTX ja nicht in einem veralteten Fertigungsprozess gefertigt wird sondern in 65nm.Ist jetzt imo also keine Karte die Nvidia jetzt unbedingt schnell nicht mher produzieren will.

Trotzdem wird die Gf 9800 GTX überflüssig mit Erscheinen der GTX 280 (eigentlich war die Karte auch niemals sinnvoll!).
Achja, die Gf 9800 GX2 läuft natürlich auch aus.
Die Gf FX 5950 Ultra hatte bspw. auch nur ein sehr kurzes Leben, ebenso wie die Gf 7950 GT. Auch die Karten basierten auf einem relativ neuen Fertigungsprozess!

MfG :cool:

Gast
2008-05-26, 15:51:26
also könnte man ca 130-140€ für die 9800GT verlangen.



Warum? Wenn es doch die 8800GT mit selber Leistung schon jetzt für 120€ gibt. :ugly:

dildo4u
2008-05-26, 15:54:06
Trotzdem wird die Gf 9800 GTX überflüssig mit Erscheinen der GTX 280 (eigentlich war die Karte auch niemals sinnvoll!).
Achja, die Gf 9800 GX2 läuft natürlich auch aus.
Die Gf FX 5950 Ultra hatte bspw. auch nur ein sehr kurzes Leben, ebenso wie die Gf 7950 GT. Auch die Karten basierten auf einem relativ neuen Fertigungsprozess!

MfG :cool:Dann hätte NV zwischen der 9800GT(ca130€) und der GTS260(Ca350€) wieder ein riesiges Loch im Angebot was Preis und Performacne angeht und kein Gegenstück zur 4870 von daher wird das nicht so kommen imo.

James Ryan
2008-05-26, 15:57:46
Dann hätte NV zwischen der 9800GT(ca130€) und der GTS260(Ca350€) wieder ein riesiges Loch im Angebot was Preis und Performacne angeht und kein Gegenstück zur 4870 von daher wird das nicht so kommen imo.

Da kommen dann Gf GTX 260 und Gf GT 280(?) Karten hin.
NVIDIA ließ niemals lange zwei Reihen nebeneinander laufen!

MfG :cool:

Schlammsau
2008-05-26, 15:58:06
Warum 100€?Die 9800GT ist doch nicht 80% langsammer als die 9800GTX eher so 20-25% also könnte man ca 130-140€ für die 9800GT verlangen.


http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/22/#abschnitt_performancerating_qualitaet

Dann würde die umgelabelte 8800GT mit neuem Namen ja doch teurer werden!
Eine 8800GT gibbet es jetzt schon für unter 120€.......

Gast
2008-05-26, 15:59:39
ist doch ne runde sache

9800 GT 130€
9800 GTX 200€
GT260 320-360€
GT280 420-480€

3870 130€
4850 180€
4870 250€

4850 leicht langsamer als ne 9800GTX, 4870 je nach Anwendung leicht schneller

LovesuckZ
2008-05-26, 16:02:07
Es wurde gesagt, dass die HD4870 etwa 20 bis 30% schneller ist als die 9800GTX.

Die Füllraten und die theoretischen Daten sprechen für sich, man wäre etwa 90% schneller.
Ich hab mal einige Benches angeschaut und die 9800GTX liegt nicht immer soweit vor der HD3870.
So grob um die 40 bis 60% je nach Test, manchmal sogar noch etwas höher.
Die HD4870 sollte minimal 50% schneller sein, ich erwarte schon an die 70% Leistungsplus gegenüber HD3870.
Mehr sollte man nicht so schnell erwarten.


Dort, wo die 3870 nah an der 9800GTX liegt, ist nicht die Texturleistung von Bedeutung.

dildo4u
2008-05-26, 16:03:19
Da kommen dann Gf GTX 260 und Gf GT 280(?) Karten hin.
NVIDIA ließ niemals lange zwei Reihen nebeneinander laufen!

Es ist so gesehen nur eine Reihe(Aus Noob User Sicht) die sich whol nur bei der Performance unterscheidet die Features werden die selben sein.Von daher werden beide Chips whol als Geforce 9 Serie vermarktet.

Nakai
2008-05-26, 16:11:47
Dort, wo die 3870 nah an der 9800GTX liegt, ist nicht die Texturleistung von Bedeutung.

Aber so shaderlimitiert ist der RV670 auch wieder nicht.


mfg Nakai

Gast
2008-05-26, 16:14:54
ist doch ne runde sache

9800 GT 130€
9800 GTX 200€
GT260 320-360€
GT280 420-480€

3870 130€
4850 180€
4870 250€

4850 leicht langsamer als ne 9800GTX, 4870 je nach Anwendung leicht schneller


hast da ein bissel untertrieben:)

bei gt260 400-450
bei gt280 600-650

LovesuckZ
2008-05-26, 16:16:18
Aber so shaderlimitiert ist der RV670 auch wieder nicht.
mfg Nakai

Das sagt wer?

Gast
2008-05-26, 16:18:43
Das sagt wer?


ich und das muss reichen

Nakai
2008-05-26, 16:31:46
Das sagt wer?

Die 64 Shadereinheiten des Rv670 werden je nach Spiel von 3 bis zu 4 ausgelastet(Ich nehm 3,5 mal). Optimum wäre natürlich 5.

64*7*0,775 = 347,2 GFLOPs

Und nun die 9800GTX:

128*2*1,675 = 428,8 GFLOPs

Ja der Unterschied existiert. Aber er ist nicht um die 50%, falls es der limitierende Faktor wäre. Er spielt mit, aber er ist nicht ausschlaggebend.
Man kann eine Schwäche der Architektur nicht auf einige wenige Kriterien runterrechnen.


mfg Nakai

LovesuckZ
2008-05-26, 16:37:25
Die 64 Shadereinheiten des Rv670 werden je nach Spiel von 3 bis zu 4 ausgelastet(Ich nehm 3,5 mal). Optimum wäre natürlich 5.

64*7*0,775 = 347,2 GFLOPs

Und nun die 9800GTX:

128*2*1,675 = 428,8 GFLOPs

Ja der Unterschied existiert. Aber er ist nicht um die 50%, falls es der limitierende Faktor wäre. Er spielt mit, aber er ist nicht ausschlaggebend.
Man kann eine Schwäche der Architektur nicht auf einige wenige Kriterien runterrechnen.


mfg Nakai

Und wieso sollte es nicht der limitiernde Faktor? Es sind zwei vollkommen unterschiedliche Rechenarchitekturen. Du musst also 3650 und 3850 vergleichen, um zu sehen, was wirklich limitiert. Und das wird in vielen Fällen die Rechenleistung sein.

Odal
2008-05-26, 16:46:14
shader programm ist shaderprogramm...das ist recht wursht (solang der compiler nicht reinpfutscht) wo es drauf läuft....berechnet muss schonmal ähnliches....unterschiede ergeben sich nur durch unzureichende auslastung

LovesuckZ
2008-05-26, 16:47:47
Hä? Was hat die Verarbeitung der Anweisung mit der Anweisung zu tun? Die Verarbeitung ist grundverschieden. Deswegen kann man nicht beide gegeneinander aufwerten und vergleichen.

Odal
2008-05-26, 16:51:44
Hä? Was hat die Verarbeitung der Anweisung mit der Anweisung zu tun? Die Verarbeitung ist grundverschieden. Deswegen kann man nicht beide gegeneinander aufwerten und vergleichen.

ja genau und die art der verarbeitung und somit auslastung hängt vom shadercode ab...also kann man pauschal nicht die theoretischen GFlop Werte in Frage stellen wie du es tust.

LovesuckZ
2008-05-26, 16:53:10
ja genau und die art der verarbeitung und somit auslastung hängt vom shadercode ab...also kann man pauschal nicht die theoretischen GFlop Werte in Frage stellen wie du es tust.

Du meinst Nakai - hoffentlich...

Nakai
2008-05-26, 16:54:22
Und wieso sollte es nicht der limitiernde Faktor? Es sind zwei vollkommen unterschiedliche Rechenarchitekturen. Du musst also 3650 und 3850 vergleichen, um zu sehen, was wirklich limitiert. Und das wird in vielen Fällen die Rechenleistung sein.

Mhh, jaein. Ich denke die Auslastung des RV635 ist nochmal unter der des RV670.
Ich hab mir verschiedene Benches angeschaut. Der RV670 ist im Schnitt zwischen 230 bis 340% schneller als der RV635.

Der RV670 hat etwa 260% mehr Shaderleistung als der RV630.
Der RV670 hat etwa 220% mehr Texelleistung als der Rv630.

Ich würde sagen, dass beides ziemlich eine Rolle spielt.


mfg Nakai

€:
shader programm ist shaderprogramm...das ist recht wursht (solang der compiler nicht reinpfutscht) wo es drauf läuft....berechnet muss schonmal ähnliches....unterschiede ergeben sich nur durch unzureichende auslastung

Ja und deswegen kann man vom RV670 nicht sagen, dass er nur an der Shaderleistung rumgurkt.
Es sind mehrere Faktoren...

LovesuckZ
2008-05-26, 17:00:41
Mhh, jaein. Ich denke die Auslastung des RV635 ist nochmal unter der des RV670.
Ich hab mir verschiedene Benches angeschaut. Der RV670 ist im Schnitt zwischen 230 bis 340% schneller als der RV635.

Der RV670 hat etwa 260% mehr Shaderleistung als der RV630.
Der RV670 hat etwa 220% mehr Texelleistung als der Rv630.

Ich würde sagen, dass beides ziemlich eine Rolle spielt.


mfg Nakai

Bei Computerbase ist die 3850 512mb ca. 235% schneller ohne AA und AF.
Sie hat 185% mehr Texturleistung, 245% mehr Rechenleistung, 369% mehr Pixelleistung und 207% mehr Speicherbandbreite. Spricht alles für eine klare Limitierung durch die Rechenleistung.

reunion
2008-05-26, 17:02:49
Und wieso sollte es nicht der limitiernde Faktor? Es sind zwei vollkommen unterschiedliche Rechenarchitekturen. Du musst also 3650 und 3850 vergleichen, um zu sehen, was wirklich limitiert. Und das wird in vielen Fällen die Rechenleistung sein.

Du unterschlägst völlig die geviertelten ROPs.

Bei Computerbase ist die 3850 512mb ca. 235% schneller ohne AA und AF.
Sie hat 185% mehr Texturleistung, 245% mehr Rechenleistung, 369% mehr Pixelleistung und 207% mehr Speicherbandbreite. Spricht alles für eine klare Limitierung durch die Rechenleistung.

Das soll keinen Sinn ergeben oder?

Odal
2008-05-26, 17:03:09
coda meinte mal das die alus im R600 oder RV670 effizienter arbeiten als er dachte...woran er diese aussage festmachte k.a. aber auf dem papier steht die ALU Leistung des RV670 ziemlich gut da...

Nakai
2008-05-26, 17:09:12
Bei Computerbase ist die 3850 512mb ca. 235% schneller ohne AA und AF.
Sie hat 185% mehr Texturleistung, 245% mehr Rechenleistung, 369% mehr Pixelleistung und 207% mehr Speicherbandbreite. Spricht alles für eine klare Limitierung durch die Rechenleistung.

Ja, das sagt das Rating in etwa aus.
Doch im Endeffekt schwankt das Ergebnis teilweise erheblich.

COD4:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/8/#abschnitt_call_of_duty_4

UT3:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/14/#abschnitt_unreal_tournament_3

G3:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/11/#abschnitt_gothic_3


mfg Nakai

deekey777
2008-05-26, 17:12:07
coda meinte mal das die alus im R600 oder RV670 effizienter arbeiten als er dachte...woran er diese aussage festmachte k.a. aber auf dem papier steht die ALU Leistung des RV670 ziemlich gut da...
An dem AMD ShaderAnalyzer.

Leute: Es geht nicht darum, ob die ALUs ausgelastet werden, sondern ob die Anzahl dieser ausreichend ist.
Der R520 hatte 16 TMUs und 16 PS-ALUs. Waren diese 16 ALUs gut auslastet? Bestimmt. Waren diese aber genug? Nein.
Und ähnliches kann beim RV670 der Fall sein, denn es sind nur vier SIMDs.

LovesuckZ
2008-05-26, 17:12:26
Du unterschlägst völlig die geviertelten ROPs.

Ja, sie wirken sich nämlich exakt so stark aus, wie die Rechenleistung gestiegen ist. :rolleyes:


Das soll keinen Sinn ergeben oder?

Was ergibt daran keinen Sinn? Neben der Pixelleistung ist nur die Rechenleistung mehr als zweimal höher. Wenn die Texturleistung limitieren würde, müsste sich das stärker bemerkbarer machen. Das tut es nicht.