PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - HD 2600XT und Pro: (P)Review-Thread


Seiten : [1] 2 3

AnarchX
2007-06-07, 16:32:18
HD 2600 Serie:

GPU:
RV630
4 ROPs, 8 TMUs, 16 TAUs, 24 5D ALUs(120SP), 128Bit Speicherinterface

Karten:

2600XT - 800MHz Chip, 256-512MB@ 700MHz GDDR3 oder 1100MHz GDDR4
2600Pro - 600MHz Chip, 256-512MB@ 400-500MHz GDDR2 oder 700MHz GDDR3

Previews:
2600XT* GDDR3 Preview @ PConline (http://www.pconline.com.cn/diy/graphics/reviews/0706/1030007.html)(Google-Übersetzung (http://translate.google.com/translate?u=http%3A%2F%2Fwww.pconline.com.cn%2Fdiy%2Fgraphics%2Freviews%2F0706%2 F1030007.html&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools)) * höchst wahrscheinlich eine HD 2600Pro GDDR3 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5610208#post5610208) -> XT wäre dann maximal 33% schneller
AMD HD2600/2400 preview @ it-review.net (http://it-review.net/index.php?option=com_content&task=view&id=1419&Itemid=1)
Radeon HD 2600 XT GDDR4 Preview @ BCCHardware (http://www.bcchardware.com/index.php?option=com_content&task=view&id=4199&Itemid=40)

Radeon HD 2600 Performance Preview @ Firingsquad (http://www.firingsquad.com/hardware/radeon_hd_2600_performance_preview/)

Reviews:
Powercolor HD 2600XT 256MB @ OCW (http://www.ocworkbench.com/2007/powercolor/hd2600xt/g1.htm)
ATi Radeon HD 2600 XT GDDR3 + GDDR4 @ Computerbase.de (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/)
AMD Radeon HD 2600 XT - saviours or sinners @ HEXUS (http://www.hexus.net/content/item.php?item=9187&page=1)
2600XT und Pro @ PC Presence (fr.) (http://www.presence-pc.com/tests/AMD-Radeon-2600-22686/)
2600XT und Pro @ Hot Hardware (http://www.hothardware.com/articles/ATI_Radeon_HD_2600_and_2400_Performance/?page=1)
2600XT @ Techpowerup (http://www.techpowerup.com/reviews/ATI/HD_2600_XT/)
Radeon HD 2600 PRO & Radeon HD 2600 XT vs. GF 8600 GT (http://www.egielda.com.pl/?str=art&id=3169) (32 Games, polnisch, optimale Setting für Midrange-Test) Tipp!!!
Sonstiges:
ATi Benchmarkwerte (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5618758&postcount=277)

Superheld
2007-06-07, 16:38:14
was ist nur mit Ati los ;(

Gast
2007-06-07, 16:38:25
Äh, was ist das?
Nach den bunten Bildern zu urteilen, ist da snoch eine größere Enttäuschung als die HD2900XT. WTF?!

dildo4u
2007-06-07, 16:38:42
Wenn die Benches stimmten kann man die Karte noch viel mher in die Tonne treten als die 8600.Wobei da noch nicht mal mit AA und AF gebencht wurde wo die R600 Derivate ja noch mal kräftig einbüßen.Wobei bei der Grundperformance muss man auf AA und AF whol eh verzichten.

LovesuckZ
2007-06-07, 16:42:07
Und guckt man sich das Carbon Ergebnis an, dann hat die Karte nichtmal mehr einen Rechenleistungsvorteil.
Da kann man echt nur sagen: Glückwunsch AMD, ihr habt 2 von 3 Produkte einfach verbocktmist.

http://img3.pconline.com.cn/pconline/0706/06/1030007_070606_hd2600xt_nf10_thumb.jpg

AnarchX
2007-06-07, 16:45:06
Entweder hängt die Karte doch sehr an ihrer Bandbreite oder der Treiber war nicht wirklich optimal:

http://img507.imageshack.us/img507/905/1030007070606hd2600xt3dnm4.jpg (http://imageshack.us)

2600XT GDDR4:
http://img466.imageshack.us/img466/5054/2600xtsyntlln4.png
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5548486&postcount=186

laser114
2007-06-07, 16:48:49
Ist der offizielle Benchmarklaunch denn dann morgen?

dildo4u
2007-06-07, 16:49:02
Entweder hängt die Karte doch sehr an ihrer Bandbreite oder der Treiber war nicht wirklich optimal:

Klar der R600 ist natürlich auf massive Bandbreiten ausgelegt selbst wenn man davon nur eine Mittelklasse Karte baut haut das natürlich rein wenn man das Speicherinterface von 512 auf 128bit kürzt.

reunion
2007-06-07, 16:49:17
Und guckt man sich das Carbon Ergebnis an, dann hat die Karte nichtmal mehr einen Rechenleistungsvorteil.
Da kann man echt nur sagen: Glückwunsch AMD, ihr habt 2 von 3 Produkte einfach verbocktmist.

http://img3.pconline.com.cn/pconline/0706/06/1030007_070606_hd2600xt_nf10_thumb.jpg

Nur das das im krassen Widerspruch zu den Specs steht. Aber das dich das nicht interessiert, wundert niemanden.

LovesuckZ
2007-06-07, 16:51:30
Nur das das im krassen Widerspruch zu den Specs steht. Aber das dich das nicht interessiert, wundert niemanden.

Oh, "krassen Widerspruch zu den Specs steht", sind noch andere Dinge. Was macht eigentlich die HD2900XT Karte mit der massivem Bandbreite? :rolleyes:
Oder warum verliert eigentlich die 8600GTS mit 256MB so schnell ihren Speicher? :rolleyes:
Nur weil es etwas nicht mit dem Spezifikationen übereinstimmt, heißt es nicht, dass es nicht der Wahrheit entsprechen kann.

/edit: Ich sehe gerade, dass sie eine HD2600XT mit 700MHz Speichertakt testen...

dildo4u
2007-06-07, 16:56:44
Nur das das im krassen Widerspruch zu den Specs steht. Aber das dich das nicht interessiert, wundert niemanden.
Geh einfach mal von den R600 Benches aus selbst ein halber R600 wär keine Rakete die Basis(R600) ist einfach zu langsam.Und die 2600XT ist ja nochmal deutlich weniger inklusive extrem schmalen 128 Bit
Speicherinterface.Warum sollte sich da auch diese Generation was ändern die Mittelklasse von ATI war im Vergleich zum High-End immer Schrott.

seahawk
2007-06-07, 16:59:13
Was für Treiber haben die denn genutzt ? sicher keine finalen Testtreiber, daher sind die Benches wertlos.

reunion
2007-06-07, 17:01:02
Klar der R600 ist natürlich auf massive Bandbreiten ausgelegt selbst wenn man davon nur eine Mittelklasse Karte baut haut das natürlich rein wenn man das Speicherinterface von 512 auf 128bit kürzt.

Kannst du das auch irgendwie begründen? Die hier zum Vergleich herangezogenen Karten haben in punkto Speicherbandbreite keinerlei gravierende Vorteile.

Oh, "krassen Widerspruch zu den Specs steht", sind noch andere Dinge. Was macht eigentlich die HD2900XT Karte mit der massivem Bandbreite? :rolleyes:


Vermutlich nicht viel, wie der Verzicht auf die GDDR4-Version nahelegt.


Oder warum verliert eigentlich die 8600GTS mit 256MB so schnell ihren Speicher? :rolleyes:


Offensichtlich ein Problem mit dem Speichermanagement. Das zieht sich allerdings durch die gesamte Generation wie man an der 8800GTS 320MB sieht.


Nur weil es etwas nicht mit dem Spezifikationen übereinstimmt, heißt es nicht, dass es nicht der Wahrheit entsprechen kann.


Deine beispiele konnte mich nicht überzeugen.


/edit: Ich sehe gerade, dass sie eine HD2600XT mit 700MHz Speichertakt testen...

Das erklärt niemals eine Leistung weit unterhalb der 8600GT.

LovesuckZ
2007-06-07, 17:03:34
Vermutlich nicht viel, wie der Verzicht auf die GDDR4-Version nahelegt.

Trotzdem hat sie selbst mit GDDR3 mehr als genug, und bricht trotzdem so dermaßen ein beim Einsatz von AA.


Offensichtlich ein Problem mit dem Speichermanagement. Das zieht sich allerdings durch die gesamte Generation wie man an der 8800GTS 320MB sieht.

Tja, das widerspricht sich eben auch mit den Spezifikation der Karten - oder würde man erwarten, dass eine 8600GTS langsamer als eine 7600GT ist?


Deine beispiele konnte mich nicht überzeugen.


Ich habe nichts anderes erwartet. :wink:


Das erklärt niemals eine Leistung weit unterhalb der 8600GT.

Soll es nicht, ich habe mich nur gewundert.

dildo4u
2007-06-07, 17:04:01
Entweder hängt die Karte doch sehr an ihrer Bandbreite oder der Treiber war nicht wirklich optimal:

http://img507.imageshack.us/img507/905/1030007070606hd2600xt3dnm4.jpg (http://imageshack.us)

2600XT GDDR4:
http://img466.imageshack.us/img466/5054/2600xtsyntlln4.png
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5548486&postcount=186
Den Vergleich kann man vergessen weil die 2600XT mit GDDR4 auf einem QuadCore gebencht wurde das gibt zusätzliche Punkte für die Gesammtscore.

reunion
2007-06-07, 17:05:13
Geh einfach mal von den R600 Benches aus selbst ein halber R600 wär keine Rakete die Basis(R600) ist einfach zu langsam.Und die 2600XT ist ja nochmal deutlich weniger inklusive extrem schmalen 128 Bit
Speicherinterface.Warum sollte sich da auch diese Generation was ändern die Mittelklasse von ATI war im Vergleich zum High-End immer Schrott.

Dir ist schon bekannt, dass die Specs von RV630 längst offiziell sind? Offensichtlich nicht. Ohne AA sollte die Bandbreite kein Flaschenhals sein.

dildo4u
2007-06-07, 17:08:45
Dir ist schon bekannt, dass die Specs von RV630 längst offiziell sind?
Jup ist aber bekanntlich weit weniger als ein halber R600 also wars ziehmlich klar das Nvidia hier mit ausgereiften Treibern die Nase weit vorne haben wird.Auf dem Papier sieht der R600 auch toll aus.

AnarchX
2007-06-07, 17:09:00
Den Vergleich kann man vergessen weil die 2600XT mit GDDR4 auf einem QuadCore gebencht wurde.

Profitieren denn die Gametests noch von einem Quadcore? :|
edit:
und von der normalen 2600XT gibts ja keine einzelnen SM2.0 SM 3.0 Punkte aus den 3D Tests zm Vergleich.
:| ?
Da stehen doch eindeutig:
SM2.0
GDDR3:1168 vs GDDR4:1538
SM3.0/HDR
GDDR3:1627 vs GDDR4: 2109


Naja, imo kann man aus den Benches ziehen, dass entweder die Architektur der ganzen R6xx-Linie ziemlich daneben ging oder halt die Treiber noch ziemlich unbrauchbar sind.
Im Endeffekt wird man wohl eh auf finale Tests warten müssen, die dann zur Retailverfügbarkeit Ende Juli/Anfang August wohl nochmal durchgeführt werden und dann wird sich zeigen woran es nun happert.

reunion
2007-06-07, 17:11:00
Trotzdem hat sie selbst mit GDDR3 mehr als genug, und bricht trotzdem so dermaßen ein beim Einsatz von AA.


Woran auch noch mehr Bandbreite nichts ändert, was die These nahelegt, dass es nicht an zu wenig Bandbreite liegt.


Tja, das widerspricht sich eben auch mit den Spezifikation der Karten - oder würde man erwarten, dass eine 8600GTS langsamer als eine 7600GT ist?


Nein. Aber das ist wie schon gesagt ein generelles Problem der gesamten Generation. Vielleicht auch nur ein Treiberproblem. RV630 müsste allerdings gemäß den Spezifikationen wesentlich konkurrenzfähiger sein.


Ich habe nichts anderes erwartet. :wink:


:)

Gast
2007-06-07, 17:12:06
Vielleicht auch nur ein Treiberproblem.Daran würde ich jetzt nicht unbedingt glauben. ;)

LovesuckZ
2007-06-07, 17:12:38
Im Endeffekt wird man wohl eh auf finale Tests warten müssen, die dann zur Retailverfügbarkeit Ende Juli/Anfang August wohl nochmal durchgeführt werden und dann wird sich zeigen woran es nun happert.

:confused:
Laut der maschinellen Übersetzung sollen die Karten am 12. Juni vorgestellt werden...


AMD-ATI last month on the 15th release of its next generation of DirectX 10 flagship R600 -- Ra deon HD 2900XT, in lockstep with the June 12, He will release the world its new generation of mid-level DirectX 10 Graphics -- Radeon 2600 and HD HD 2400 series, its development code-named RV630 and RV610.

reunion
2007-06-07, 17:13:53
Jup ist aber bekanntlich weit weniger als ein halber R600 also wars ziehmlich klar das Nvidia hier mit ausgereiften Treiber die Nase weit vorne haben wird.Auf dem Papier sieht der R600 auch toll aus.

G84 ist gerademal ein geviertelter G80. Was hier klar war, darfst du mir gerne begründen, sofern du dies kannst.

laser114
2007-06-07, 17:13:56
:confused:
Laut der maschinellen Übersetzung sollen die Karten am 12. Juni vorgestellt werden...

Na die sind eben schon einige mal über die Datumsgrenze. ;D

AnarchX
2007-06-07, 17:14:15
:confused:
Laut der maschinellen Übersetzung sollen die Karten am 12. Juni vorgestellt werden...

Das hatte ich wohl überlesen.... :biggrin:
Naja, Fuad meint jedenfalls nächste Woche würden nur die OEMs ihre Karten bekommen und Retail muss noch warten.

dildo4u
2007-06-07, 17:14:27
G84 ist gerademal ein geviertelter G80.
Mit höheren Taktraten.

Was hier klar war, darfst du mir gerne begründen, sofern du dies kannst.
Jup wenn ich als Basis die R600 Tests nehmen und dann eine Karte baue die nur 1/3 dessen Funktion Einheiten hat kann nix bei rumkommen.Und wie man schön sieht leidet die Karte viel extremer unter dem winzigen Speicherinterface als die 8600.Wundert mich auch nicht anhand der großen Brüder wo die Nvidia Karten auch mit weniger Bandbreite auskommen.

reunion
2007-06-07, 17:18:49
Mit höheren Taktraten.

RV630 ebenso. RV630 sollte je nach Flaschenhals annähernd die halbe Leistung eines R600 liefern. G84 ebenfalls je nach Flaschenhals max. ein drittel. Der Abstand G84 vs. RV630 müsste sich also im Vergleich zu R600 vs. G80 zugunsten AMDs verschieben, hier zeigt sich aber genau das Gegenteil.

dildo4u
2007-06-07, 17:22:37
RV630 ebenso.
Die 2600XT hat höhere Taktraten als die 2900XT?Wenn dann nur minimal die 8600GTS kommt immerhin auf 675Mhz im Vergleich zu den 575mhz der 8800GTX.

reunion
2007-06-07, 17:24:00
Die 2600XT hat höhere Taktraten als die 2900XT?

Ja, taktet mit 800/1100.

dildo4u
2007-06-07, 17:27:00
Ja, taktet mit 800/1100.
Wie ich schon schrieb das sind lächerliche 55 mhz mher.Nix wirklich Nennenswertes was eine 2600 auf den halben R600 Speed heben würde.

reunion
2007-06-07, 17:28:16
Wenn dann nur minimal die 8600GTS kommt immerhin auf 675Mhz im Vergleich zu den 575mhz der 8800GTX.

Die Karte wird laut den Tests aber von eine GT deutlich geschlagen.

dildo4u
2007-06-07, 17:30:31
Die Karte wird laut den Tests aber von eine GT deutlich geschlagen.
Das wird whol der Treiber biegen müssen denn die GT muss sie whol deutlich schlagen wenn man die 2600XT für über 130€ verkaufen will.

reunion
2007-06-07, 17:30:56
Jup wenn ich als Basis die R600 Tests nehmen und dann eine Karte baue die nur 1/3 dessen Funktion Einheiten hat kann nix bei rumkommen.Und wie man schön sieht leidet die Karte viel extremer unter dem winzigen Speicherinterface als die 8600.Wundert mich auch nicht anhand der großen Brüder wo die Nvidia Karten auch mit weniger Bandbreite auskommen.

ALU: 41% HD2900XT
TEX: 54% HD2900XT
PIX: 27% HD2900XT
B/W: 33% HD2900XT

Das sind die theoretischen Leistungswerte im Vergleich zu R600. Die Werte sind viel zu niedrig, da kannst du dich auf den Kopf stellen. Entweder sind die Werte BS, oder es liegt irgend ein anderes Problem vor.

Wie ich schon schrieb das sind lächerliche 55 mhz mher.Nix wirklich Nennenswertes was eine 2600 auf den halben R600 Speed heben würde.

Ich habe es schonmal gesagt, die Karte sollte zumindest auf dem Niveau der GTS liegen, da sie im Vergleich zu G84 weniger abgespeckt wurde (auch Taktbereinigt).

Das wird whol der Treiber biegen müssen denn die GT muss sie whol deutlich schlagen wenn man die 2600XT für über 130€ verkaufen will.

Die 2600XT wird für 199$ verkauft, also zum selben Preis wie eine 8600GTS, und das wohl auch nicht ganz ohne Grund.

seahawk
2007-06-07, 17:41:23
Simpel ein nicht geeigneter Treiber. Ein RV630 sollte gut 40% der Leistung einer 2900XTX bringen. Das reicht locker für den G84. Imho machen einige Websites gerade gezielt FUD gegen AMD.

Gast
2007-06-07, 17:43:08
Simpel ein nicht geeigneter Treiber. Ein RV630 sollte gut 40% der Leistung einer 2900XTX bringen. Das reicht locker für den G84. Imho machen einige Websites gerade gezielt FUD gegen AMD.Ja klar. Die große Verschwörung gegen ATI. Wahrscheinlich hat evil Nvidia sie bestochen. Auch die Geschichten mit den schlechten Treibern kannst du doch nicht ernsthaft glauben. R6x0 ist einfach ein Flop, wenn man ihn an den Erwartungen misst, die die Fanatiker die ganzen Monate geschürt haben.

AnarchX
2007-06-07, 17:45:39
Simpel ein nicht geeigneter Treiber. Ein RV630 sollte gut 40% der Leistung einer 2900XTX bringen. Das reicht locker für den G84. Imho machen einige Websites gerade gezielt FUD gegen AMD.

Simpel 40%?
Diese Karte hier hat gerade mal 22% Bandbreite einer 2900XT, weshalb ich es doch bezweifel, dass da noch so simpel 40% herausspringen, gerade wenn die ganze Architektur sehr bandbreitenlastig ist.

Naja, am 12. werden wir ja sehen was nun falsch läuft und ob es dann immernoch falsch läuft.

reunion
2007-06-07, 17:48:05
Simpel 40%?
Diese Karte hier hat gerade mal 22% Bandbreite einer 2900XT, weshalb ich es doch bezweifel, dass da noch so simpel 40% herausspringen, gerade wenn die ganze Architektur sehr bandbreitenlastig ist.


R600 hat Bandbreite im Überfluss. Noch dazu wurde die Tests ohne AA durchgeführt, wodurch die Bandbreite kaum der limitierende Faktor sein kann. Viel wichtiger in diesen Kontext ist, dass diese Karte 54% der Texelfüllrate und 41% der ALU-Leistung einer 2900XT hat, und dafür sind die Werte viel zu gering.

Malabolge
2007-06-07, 17:49:00
Simpel ein nicht geeigneter Treiber. Ein RV630 sollte gut 40% der Leistung einer 2900XTX bringen. Das reicht locker für den G84. Imho machen einige Websites gerade gezielt FUD gegen AMD.

JO , das ganze hat doch schon mal geklappt ! Bei 3DFX

Also nur weiter so , dann haben wir bald nur noch einen Hersteller von High-End-Hardware

Dürfte meines erachtens aber TEUER werden für uns.
Also immer schön die Highend Fahne kritiklos schwingen :wink:

Und Highend wird wieder "HIGHPRICE" kosten !

dildo4u
2007-06-07, 17:49:12
Die 2600XT wird für 199$ verkauft, also zum selben Preis wie eine 8600GTS, und das wohl auch nicht ganz ohne Grund.
Also eine 8600GTS gibts aktuell für 155€ eine GT für rund 100€ da würde sich die ATI bei 130€ gut einordnen wenn die Treiber in Kombination mit GDDR4 Speicher sie noch über die GT heben.Vorteile auf ATIs Seite könnten noch der Verbrauch und HDMI Support werden mit möglicherweise besserer HD Video Beschleunigung sein.

http://geizhals.at/deutschland/a251003.html

http://geizhals.at/deutschland/a250975.html

Gast
2007-06-07, 17:49:48
Simpel ein nicht geeigneter Treiber. Ein RV630 sollte gut 40% der Leistung einer 2900XTX bringen. Das reicht locker für den G84. Imho machen einige Websites gerade gezielt FUD gegen AMD.

Das halte ich für völlig ausgeschlossen. Da es sich hier um die gleiche Architektur handelt, halt nur etwas beschnitten, wird der Treiber sicher die gleiche Performance wie bei der 2900XT erbracht haben. Vielleicht kommen da noch kleine Verbesserungen, aber ein Megasprung ist nicht zu erwarten.

Aber wenn es eine Karte nicht richten kann, nimmt man halt eine DUAL 2600XT. ;D
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/juni/msi_his_dual_radeon_hd_2600xt/

reunion
2007-06-07, 17:50:37
Also eine 8600GTS gibts aktuell für 155€ eine GT für rund 110€ da würde sich die ATI bei 130€ gut einordnen wenn die Treiber in Kombination mit GDDR4 Speicher sie über die GT heben.

Sie wird trotzdem zum Preis der GTS verkauft. :|
Ist doch schon alles offiziell von AMD bestätigt.

dildo4u
2007-06-07, 17:56:29
Sie wird trotzdem zum Preis der GTS verkauft. :|
Ist doch schon alles offiziell von AMD bestätigt.
Der Markt wird den Preis schon relativ schnell regulieren ist bei der X2900XT ja auch nicht anders die ist ja auch schon von 370€ auf 330€ im Preis gesunken.

http://geizhals.at/deutschland/?phist=255143

reunion
2007-06-07, 18:01:36
Der Markt wird den Preis schon relativ schnell regulieren ist bei der X2900XT ja auch nicht anders die ist ja auch schon von 370€ auf 330€ im Preis gesunken.

http://geizhals.at/deutschland/?phist=255143

Blödsinn. Bei einem UVP von 399$ sind 330€ völlig normal. Und das der Preis kurz nach Vorstellung erstmal sinkt, bedingt durch bessere Verfügbarkeit und den Konkurrenzkampf der Shops sollte klar sein.

Endorphine
2007-06-07, 18:05:35
Sie wird trotzdem zum Preis der GTS verkauft. :|
Ist doch schon alles offiziell von AMD bestätigt. Für 200 EUR wird dann eben niemand eine 2600XT kaufen, die langsamer als eine 100 EUR 8600 GT ist.

Wenn die Karte weniger leistet als das Konkurrenzprodukt muss sie auch weniger kosten, sonst wird sie wie Blei in den Regalen der Distributoren liegen. Und das weiß nicht nur AMD, sondern auch die AIB-Hersteller wissen das und werden entsprechend bei AMD Druck machen, wenn AMD die Preise nicht so anpasst, dass die 2600er konkurrenzfähig werden.

Daher ist die 2900XT auch trotz des gewaltigen Aufwandes so billig: sonst würde sie niemand kaufen. Da kannst du lange auf alten Preislisten beharren...

reunion
2007-06-07, 18:09:38
Für 200 EUR wird dann eben niemand eine 2600XT kaufen, die langsamer als eine 100 EUR 8600 GT ist.

Wenn die Karte weniger leistet als das Konkurrenzprodukt muss sie auch weniger kosten, sonst wird sie wie Blei in den Regalen der Distributoren liegen. Und das weiß nicht nur AMD, sondern auch die AIB-Hersteller wissen das und werden entsprechend bei AMD Druck machen, wenn AMD die Preise nicht so anpasst, dass die 2600er konkurrenzfähig werden.

Daher ist die 2900XT auch trotz des gewaltigen Aufwandes so billig: sonst würde sie niemand kaufen. Da kannst du lange auf alten Preislisten beharren...

Und AMD weiß erst seit genau einer Stunde, seit dem der Test online ist, was die 2600XT leistet, und korrigiert jetzt noch schnell panisch den Preis? :|

Also manchmal frage ich mich wirklich. Ich nehme doch an, dass dieser UVP nicht ohne Grund so gewählt wurde, genauso wie die 2900XT nicht ohne Grund so billig ist.

Endorphine
2007-06-07, 18:20:24
Und AMD weiß erst seit genau einer Stunde, seit dem der Test online ist, was die 2600XT leistet, und korrigiert jetzt noch schnell panisch den Preis? :|

Also manchmal frage ich mich wirklich. Ich nehme doch an, dass dieser UVP nicht ohne Grund so gewählt wurde, genauso wie die 2900XT nicht ohne Grund so billig ist. Warum stellst du dich so stur auf die Hinterbeine? Das ist nur die Realität. Man kann viel auf Papier oder Powerpoint-Folien schreiben.

AMD hat, wenn die restlichen Reviews zu ähnlichen Ergebnissen kommen (ich habe gehofft, dass es anders ist, aber angesichts der 2900XT war's eigentlich nicht anders zu erwarten) zwei Möglichkeiten:
* sie bleiben bei den hohen Listenpreisen -- dann brauch man gar nicht beginnen, die 2600er auszuliefern, die Karten werden nicht verkauft werden. Die Produktion kann man sich sparen.
* aus Marketinggründen schreibt man beim Launch noch die alten Listenpreise aus und passt dann, nachdem man den Early Adoptern das Geld aus der Tasche gezogen hat zügig die Preise an, damit die Marktanteile nicht schwinden.

Ich hätte an AMDs Stelle auch eine deutliche Unterscheidung der GDDR3- und GDDR4-Karten im Namen gemacht: à la 2600XTX und 2600XT. Irgendwie etwas unglücklich, leistungsmäßig so weit auseinanderliegende Karten gleich zu bezeichnen und es den AIB-Herstellern zu überlassen, den Kunden aufzuklären, dass 2600XT nicht gleich 2600XT ist...

Nakai
2007-06-07, 18:24:38
Lol, die Bilder der HD2600XT sind Bilder der HD2600PRO. Den Test kann man in die Tonne treten, solange die keine Beweisphotos darstellen.

mfg Nakai

seahawk
2007-06-07, 18:30:29
http://www.fudzilla.com/index.php?option=com_content&task=view&id=1360&Itemid=1

So schlecht können die Karten nicht sein. Ich denke die OEMs wisse nwas geht.

Endorphine
2007-06-07, 18:30:39
Lol, die Bilder der HD2600XT sind Bilder der HD2600PRO. Den Test kann man in die Tonne treten, solange die keine Beweisphotos darstellen.

mfg Nakai Welches Interesse hat eine Site (von 3drage oder nvnews mal abgesehen), absichtlich Falschinformationen zu verbreiten, wenn dann die Glaubwürdigkeit der ganzen Website massiv sinkt, wenn die Konkurrenz ebenfalls Reviews online hat? Auch eine Website muss sich finanzieren, und das läuft über Anzeigen, die nicht gesehen und geklicked werden, wenn die Seite mangels Vertrauen niemand liest.

Bitte mal etwas weniger Fanboyism...

dildo4u
2007-06-07, 18:32:50
http://www.fudzilla.com/index.php?option=com_content&task=view&id=1360&Itemid=1

So schlecht können die Karten nicht sein. Ich denke die OEMs wisse nwas geht.
Da steht aber nix zur Leistung.Und warum die OEMs so scharf auf die Karten sind wird ja erklärt.

"ATI has won on the price-performance ratio, because of the fact that it's cheaper for them to make a product and that is what OEM's are all about. The big OEM's loves the power consumption of RV630 below 25W per card"

reunion
2007-06-07, 18:35:40
Warum stellst du dich so stur auf die Hinterbeine? Das ist nur die Realität. Man kann viel auf Papier oder Powerpoint-Folien schreiben.


Ich habe keine Lust, darauf jetzt detailliert einzugehen, da ich es schon mehrmals geschrieben habe. Die hier dargestellte Leistung ist jedenfalls angesichts der Specs im Vergleich zu R600 viel gering. Das kannst du gerne ignorieren oder ausblenden solange keine anderen Werte da sind, um deine persönlichen Präferenzen zu stärken, ich glaube die Werte nicht. Und das der UVP des R600 bei 399$ liegen wird, war schon lange vor dem Launch bekannt, warum sollte man bei RV630 auf einmal eine Harakiri-Aktion starten?

Endorphine
2007-06-07, 18:42:26
Die hier dargestellte Leistung ist angesichts der Specs im Vergleich zu R600 viel gering. Das kannst du gerne ignorieren oder ausblenden solange keine anderen Werte da sind, um deine persönlichen Präferenzen zu stärken, ich glaube die Werte nicht. Es ist ja auch nur die 2600XT mit GDDR3.

p.s. Ich habe keine persönlichen Präferenzen bezüglich der Marke (du schon). Ich habe aber unter anderem Präferenzen, was Treibersupport für alternative Betriebssysteme anbelagt, Treiberqualität unter Windows, Bildqualität und Gebrauchsfähigkeit (Bugfreiheit).

Wovon wir profitieren ist, wenn AMD und NV im Grafikkartenmarkt möglichst gleich stark sind. Davon haben auch die Fanboys etwas, wenn die Preise niedrig bleiben.

Wenn ATI stärker wäre, hätte NV vielleicht nie einen so schwachen G84 rausgebracht. Auch hier hat kein Fanboy etwas davon, wenn die Konkurrenz schwach ist.

Nakai
2007-06-07, 18:52:51
Welches Interesse hat eine Site (von 3drage oder nvnews mal abgesehen), absichtlich Falschinformationen zu verbreiten, wenn dann die Glaubwürdigkeit der ganzen Website massiv sinkt, wenn die Konkurrenz ebenfalls Reviews online hat? Auch eine Website muss sich finanzieren, und das läuft über Anzeigen, die nicht gesehen und geklicked werden, wenn die Seite mangels Vertrauen niemand liest.

Bitte mal etwas weniger Fanboyism...

Der ganze Test verliert seine Gültigkeit, solange nicht genug Informationen zur getesteten Karte dargestellt sind.
Wenn man schon zu faul ist die getestete Karte nicht zu fotographieren und dann einfach Bilder zur HD2600PRO reinstellt, dann kann man der Seite entweder Unseriösität, schlechte Infos oder einfach nur FUD unterstellen.

mfg Nakai

Endorphine
2007-06-07, 19:01:35
Der ganze Test verliert seine Gültigkeit, solange nicht genug Informationen zur getesteten Karte dargestellt sind.
Wenn man schon zu faul ist die getestete Karte nicht zu fotographieren und dann einfach Bilder zur HD2600PRO reinstellt, dann kann man der Seite entweder Unseriösität, schlechte Infos oder einfach nur FUD unterstellen. Soll ich dich an deine Postings erinnern, wenn die restlichen Reviews draußen sind? Also bitte...

Ich verstehe auch nicht, was an den Ergebnissen so seltsam sein soll. Es ist eine 2600XT mit 700 MHz GDDR3. Dass die sich so knapp unter der 8600GT mit ebenfalls 700 MHz Speichertakt einordnet ist angesichts der Diegröße und der angeblich niedrigeren elektrischen Leistungsaufnahme eine beachtliche Leistung von AMD finde ich.

Wenns wirklich um 3D-Leistung geht, ist eher ein 512 MB GDDR4-Modell interessant. Genau so wie man bei der 8600GTS 512 MB Karten anschauen muss, um wirklich das volle Potenzial zu sehen.

Nakai
2007-06-07, 19:04:40
Soll ich dich an deine Postings erinnern, wenn die restlichen Reviews draußen sind? Also bitte...

Kannst du machen, ich warte auf authentische Tests.


mfg Nakai

reunion
2007-06-07, 19:17:45
Es ist ja auch nur die 2600XT mit GDDR3.


Das sollte ohne AA kaum von Bedeutung sein.

p.s. Ich habe keine persönlichen Präferenzen bezüglich der Marke (du schon).

Das ich nicht lache. Ich bestreite meine Präferenzen nicht, das du dich hier allerdings als Mr. Objektiv gibts, lässt mir doch ein gewisses schmunzeln über die Lippen wandern.

eXodia
2007-06-07, 19:22:01
Naja ohne Treiberangabe, etc ziemlich Wertloser Test, der sich hoffentlich nicht bewahrheitet, da ich mir eigentlich ein AGP-Derivat zulegen wollte.

Regards

Endorphine
2007-06-07, 19:23:25
Das ich nicht lache. Ich bestreite meine Präferenzen nicht, das du dich hier allerdings als Mr. Objektiv gibts, lässt bei mir allerdings doch ein gewisses schmunzeln über die Lippen wandern. Ich bin nicht objektiv. Das ist niemand. Ich habe Präferenzen nicht bei der Marke, sondern bei den Produkteigenschaften.

Du kannst es glauben oder nicht. Wenn AMD wieder sowas wie den R300 rausbringt und dem wieder etwas wie ein NV30@Fön oder NV28 gegenüber steht und ich grad ne neue Grafikkarte brauche werde ich nicht zögern, zu ATI zurück zu wechseln.

Ich habe aber Zweifel, ob du dir eine 8800GTS kaufen würdest.

Würdest du wie ich auch den Kauf einer 8600GT oder GTS wegen der angekündigten HD2600 herausschieben, wenn die Vorzeichen vertauscht wären?

Sorry für den ganzen OT... Das war mein letztes Posting zum Thema Fanboy hier.

reunion
2007-06-07, 19:27:33
Du kannst es glauben oder nicht. Wenn AMD wieder sowas wie den R300 rausbringt und dem wieder etwas wie ein NV30@Fön oder NV28 gegenüber steht und ich grad ne neue Grafikkarte brauche werde ich nicht zögern, zu ATI zurück zu wechseln.


Alles andere wäre auch schlicht dämlich.


Ich habe aber Zweifel, ob du dir eine 8800GTS kaufen würdest.

Wenn du wirklich glaubst, dass ich meine Kaufentscheidungen, wo ich mein hart erarbeitetest Geld hineinstecke von meinen Präferenzen bezüglich der Marke abhängig mache, und nicht von objektiven Kriterien, die meinen Ansprüchen am ehesten entsprechen, dann hältst du mich für verdammt dumm. Ob du es glaubst oder nicht: Ich hatte wesentlich mehr NV als ATi Karten.

Würdest du wie ich auch den Kauf einer 8600GT oder GTS wegen der angekündigten HD2600 herausschieben, wenn die Vorzeichen vertauscht wären?


Wenn mir erstere nicht überzeugen würde - natürlich.

seahawk
2007-06-07, 19:58:01
Außerdem sind natürlich die Decodingfeatures der X2600 so viel besser, dass der G84 gar kein Vergleich darstellt. Gamerkarten sind beide nicht.

dildo4u
2007-06-07, 20:02:35
Außerdem sind natürlich die Decodingfeatures der X2600 so viel besser, dass der G84 gar kein Vergleich darstellt. Gamerkarten sind beide nicht.
Die 8600GTS und die 2600XT sind schon Mainstream Gamerkarten wenn man sich mal so die Steam Umfragen anguckt sind die Mittelklasse Nvidia Karten der 6 und 7 Geforce Generation immer noch sher beliebt.

http://www.steampowered.com/status/survey.html

Endorphine
2007-06-07, 20:04:44
Außerdem sind natürlich die Decodingfeatures der X2600 so viel besser, dass der G84 gar kein Vergleich darstellt. Gamerkarten sind beide nicht. Willst du nur trollen, oder ist das wirklich dein Ernst?

seahawk
2007-06-07, 20:22:02
Willst du nur trollen, oder ist das wirklich dein Ernst?

Absolut. Ich sehe beide als Karten für Gelegenheitsspieler, da sind einige FPS Unterschied unbedeutend. Mulitmediafeatures hingegen...

AnarchX
2007-06-07, 21:00:21
Absolut. Ich sehe beide als Karten für Gelegenheitsspieler, da sind einige FPS Unterschied unbedeutend. Mulitmediafeatures hingegen...

Das sehen die User, die keine 250-300€+ für eine GraKa hinlegen können sicher anders und diese müssen nicht gerade Gelegenheitszocker sein.

G86 und RV610 sind eher Chips für das man mal ein aktuelles 3D-Game "starten" kann und wo es auf das Featureset für die Prospekte ankommt.

seahawk
2007-06-07, 21:06:52
Es gibt baer eben auch die Performanceklasse wo man heute ne X1950PRo nekommt, die beiden überlegen sein dürfte. Karten der G84/RV630 Klasse liegen imho eher im geischtne Einsatz mit hang zu Office und Mulitmedia, der typische Familen-PC. Geschwindigkeit ist da nicht primär- Für OEMs dürfte der R630 lecker sein.

sklave_gottes
2007-06-07, 22:00:43
Hier stimmt etwas gewaltig nicht.
Ich will nicht sagen das es der test ist. Aber Wenn der r630 wirklich so schlecht ist, muss mann die Fakten nochmal neu im Kopf sortieren.
Denn reunion hat mit seinen Aussagen vollkommen recht. Wenn man sich die Technischen daten vom r630 zum r600 ansieht und die schwächen und stärken vom r600 vergleicht. Sollte der r630 sogar die wesentlich besser ausbalancierte karte sein. Je nach spiel habe ich die leistung auf 40-50% getipt im vergleich zum r600. Es kann normalerweise nicht sein das eine HD2600xt hinter einer 8600gt rumgeiert vorallem nicht ohne aa/af. Auch nicht mit 700mhz GDDR3.

Ich kann mir es nur erklären falls der test stimmt, dass es doch an den ROPs liegt. Woran denn sonnst ? Texel leistung über x1950pro. Shaderleistung über x1950pro. Bandbreite bei gddr4 ausreichend! Also mekert mal nicht so viel auf den karten rum, ist ja noch nichts bewiesen. Sondern versucht mal zu erklären woran es liegen könnte. Denn ich finde es nicht logisch das eine hdx2600xt hinter einer 8600gt liegt! reihn Theoretisch.

mfg martin

LovesuckZ
2007-06-07, 22:04:51
Texel leistung über x1950pro.

Nein, ist sie nicht (6900 zu 6400).

Shaderleistung über x1950pro.

Nein, ist sie nicht (165,6 GFLOPs zu 153,6 GFLOPs)

Denn ich finde es nicht logisch das eine hdx2600xt hinter einer 8600gt liegt! reihn Theoretisch.

Wie du schon sagtest: Rein theoretisch.

reunion
2007-06-07, 22:13:47
Nein, ist sie nicht (6900 zu 6400).


Dafür bieten die R6XX-TMUs viele andere Vorzüge.


Nein, ist sie nicht (165,6 GFLOPs zu 153,6 GFLOPs)


Erstens hast du die fünfte ALU unterschlagen, und zweitens hat RV630 die höhere Effektivität.


Wie du schon sagtest: Rein theoretisch.

Der Vergleich mit unterschiedlichen Architekturen führt zu nichts, allerdings ist die Leistung bei diesem Test im Relation zu R600 zu niedrig. Und hier kann man sehr wohl Schlüsse ziehen.

Gast
2007-06-07, 22:47:25
und zweitens hat RV630 die höhere Effektivität.Weil die ATI-Folien das sagen?

reunion
2007-06-07, 23:03:03
Weil die ATI-Folien das sagen?

Scherzkeks. Von wo willst du Infos über die Architektur denn sonst bekommen? Brachst dir ja nur die zahlreichen Reviews ansehen. Ein 1:1:1:1:1-Split ist möglich, die Shader sind jetzt unified, es gibt wesentlich mehr Threads, etc.

sklave_gottes
2007-06-07, 23:22:12
Nein, ist sie nicht (6900 zu 6400).



Nein, ist sie nicht (165,6 GFLOPs zu 153,6 GFLOPs)



Wie du schon sagtest: Rein theoretisch.


ok hab mich mit dem takt vertipt(ging von 500mhz aus keine ahnung wieso)

Die shaderleistung ist trotzdem höher. Nagut dadurch ist die tmu leistung leicht unter x1950pro. Trotzdem sollte leistung der karte etwa auf x1950pro höhe liegen und nicht unter 8600gt.

dildo4u
2007-06-07, 23:27:18
Die shaderleistung ist trotzdem höher. Nagut dadurch ist die tmu leistung leicht unter x1950pro. Trotzdem sollte leistung der karte etwa auf x1950pro höhe liegen und nicht unter 8600gt.
Die X2900XT sollte auch immer über der 1950XTX liegen tut sie aber nicht immer.

Gast
2007-06-07, 23:29:01
Dafür bieten die R6XX-TMUs viele andere Vorzüge.

Und welche davon werden zu Lebzeiten benötigt?


Erstens hast du die fünfte ALU unterschlagen, und zweitens hat RV630 die höhere Effektivität.

Die fünfte ALU wird als SFU verwendet und sollte daher nicht mitgezählt werden.
Das ist auch der Grund, warum sich die 2900XT in Xbox360 Portierungen nicht von der 8800GTX absetzen kann.

Coda
2007-06-08, 00:14:18
Wenn keine SFUs anstehen kann die 5. ALU sehr wohl auch MAD berechnen. Und was das mit der Xbox 360 zu tun hat versteh ich gerade nicht so ganz.

seahawk
2007-06-08, 10:02:25
vertex_shader: There isn't any photo or screenshot in this reveiw, which would confirm, that they really tested XT. And according to some sources, production of XTs was just initiated (XT should use the last chip revision). Only PROs are already in production. Or am I wrong? Shortly - even computex XT's were only samples and manufaturers said, that they are waiting for final revision of RV630. So whatever was tested in this review, it couldn't be HD2600XT with final silicon.

Ist also nur ne PRO und dafür sieht es doch sehr gut aus.

AnarchX
2007-06-08, 12:39:18
Warum sollte PConline, die soetwas imo nicht nötig haben, uns Pro-Benches als XT-Benches verkaufen?

Imo war es schon ein XT-Sample, ob A15 da noch etwas reißen kann werden wir ja sehen.

Sie haben übrigens auch den Treiber nachgetragen:
AMD_8.38_rc7_xp_br47274_may22
http://www.pconline.com.cn/diy/graphics/reviews/0706/1030007_5.html

reunion
2007-06-08, 20:52:43
Und welche davon werden zu Lebzeiten benötigt?


FP-Filterung (R5xx muss das noch über die Shader machen), zusätzliche Adresseinheiten für Vertexfetches, größere Caches, FP16-Filterung "for free", etc.


Die fünfte ALU wird als SFU verwendet und sollte daher nicht mitgezählt werden.
Das ist auch der Grund, warum sich die 2900XT in Xbox360 Portierungen nicht von der 8800GTX absetzen kann.

Die fünfte ALU bietet ein volles MAD und ist mit SFs alleine niemals ausgelastet.


BTW:

Hardspell (http://www.hardspell.com/english/doc/showcont.asp?news_id=414&pageid=517) HD2600XT GDDR4 (800/1100): 3DM06 SM3.0: 2105
PConline (http://www.pconline.com.cn/diy/graphics/reviews/0706/1030007_6.html) angeblich HD2600XT GDDR3 (800/700): 3DM06 SM3.0: 1627

Der 3dmark06 ist in keinster Weise Bandbreitenlimitiert. Sieht man unter anderem sehr schön am Vergleich X1900XTX vs. X1950XTX. Der Vorsprung letzerer liegt höchstens im Bereich der Messungenauigkeit. Der Score von Hardspell ist durch Screenshots der Karte und des Treiberinterfances sowie vom 3dmark selbst dokumentiert. Der von PConline nicht.

Der Differenz zwischen den Werten von Hardspell und PConline ist also einfach viel zu groß, um das mit der höheren Speicherbandbreite erklären zu können. Ich denke da wurde ziemlich eindeutig mit der PRO(600/500) gebencht. Der höhere Takt der XT von 33% (800Mhz) würde auch sehr schön zu der 29% höheren Score bei Hardspell passen. Würde mich auch nicht wundern, wenn es sich dabei auch noch um eine alte Revision der Karte gehandelt hat. Aber soetwas will man ja hier offensichtlich nicht gerne hören.

Endorphine
2007-06-09, 10:13:20
Und AMD weiß erst seit genau einer Stunde, seit dem der Test online ist, was die 2600XT leistet, und korrigiert jetzt noch schnell panisch den Preis? :|

Also manchmal frage ich mich wirklich. Ich nehme doch an, dass dieser UVP nicht ohne Grund so gewählt wurde, genauso wie die 2900XT nicht ohne Grund so billig ist.
Quelle: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5570329#post5570329
Instead, AMD fans will want MSI's upcoming Radeon HD 2600 XT: This model is passively cooled, and MSI says performance will be a little lower than that of Nvidia's GeForce 8600 GTS. However, pricing will be 20-25% lower—in fact, MSI says sub-$150 price tags are a certainty for 2600 XT offerings.
http://www.techreport.com/etc/2007q2/computex/msi4_th.jpg

Und das ist schon die 1,1 GHz GDDR4-Version. Aber du weißt es ja besser als MSI. seahawk arbeitet scheinbar auch bei ATI und weiß daher mehr als MSI.


Weiterhin:
For those who want something even cheaper, MSI will also have Radeon HD 2600 Pro offerings. These will be slightly slower than Nvidia's GeForce 8600 GT, but again, prices will also be lower. MSI will release models in both PCI Express and AGP flavors, both with passive cooling.
Halten wir mal fest:
# die 2600XT GDDR3 ist die Konkurrenz für die 8600GT und müsste bei ca. 100-120 EUR landen
# die 2600XT GDDR4 liegt zwischen 8600GT und 8600GTS und soll unter 150 EUR kosten
# die 2600Pro müsste demzufolge der Konkurrent der 8500GT werden
# die 2400er-Karten noch weiter darunter

Wenn sich die Spekulationen über die niedrige elektrische Leistungsaufnahme von RV610/RV630 bestätigen sind das doch wirklich attraktive Angebote finde ich. Und da die Die-Größen auch deutlich unter G84/G86 liegen kann AMD vielleicht auch ordentlich Geld verdienen und Marktanteile zurück gewinnen. Also durchaus gelungen, wenn nicht sogar besser aufgestellt als nVidia, wenn die Lieferungen jetzt schnell in Schwung kommen. Muss man bei dem Ergebnis hier so einen ATI-Fanboykrieg veranstalten?

reunion
2007-06-09, 10:45:12
Und das ist schon die 1,1 GHz GDDR4-Version. Aber du weißt es ja besser als MSI. seahawk arbeitet scheinbar auch bei ATI und weiß daher mehr als MSI.

Ja, und ich hatte auch recht behalten. Die Benchmarks von PConline sind falsch bzw. war es keine XT, sonst wäre die Leistung nicht "little lower" als bei 8600GTS, sondern "catastrophically lower" selbst im Vergleich zur GT. Aber du weißt es ja besser als MSI, und hast diese Werte ständig verteidigt. Das der Preis nachträglich gesenkt wurde, ist schön, ändert an meiner Intention, dass die Werte falsch sind allerdings nicht das geringste. Also erspar dir deinen Egotrip, er ist unberechtigt, da du falsch lagst.


Muss man bei dem Ergebnis hier so einen ATI-Fanboykrieg veranstalten?

Die Ergebnisse hier waren offensichtlich falsch. Also: Muss man bei offensichtlich falschen Benchmarkwerten gleich so einen Zirkus veranstalten und auf deren Korrektheit pochen? Bitte etwas weniger Fanboyismus.

Endorphine
2007-06-09, 11:02:36
Ja, und ich hatte auch recht behalten. Die Benchmarks von PConline sind falsch bzw. war es keine XT, sonst wäre die Leistung nicht "little lower" als bei 8600GTS, sondern "catastrophically lower" selbst im Vergleich zur GT. PCO hatte ausdrücklich die 2600XT mit 700 MHz Speichertakt, ergo GDDR3. Halt der 8600GT-Konkurrent. Hier ging es um die Leistung der GDDR4-Variante mit 1,1 GHz Speichertakt. Und die liegt lt. MSI zwischen 8600GT und 8600GTS. Also genau das, was man erwarten kann. Das bestätigt die 2600XT-GDDR3 Benchmarks von PCO nur. Rote Brille absetzen. :)

reunion
2007-06-09, 11:13:22
PCO hatte ausdrücklich die 2600XT mit 700 MHz Speichertakt, ergo GDDR3. Halt der 8600GT-Konkurrent. Hier ging es um die Leistung der GDDR4-Variante mit 1,1 GHz Speichertakt. Und die liegt lt. MSI zwischen 8600GT und 8600GTS. Also genau das, was man erwarten kann. Das bestätigt die 2600XT-GDDR3 Benchmarks von PCO nur. Rote Brille absetzen. :)

Lol, wenn du die Werte jetzt noch immer glaubst, dann solltest du lieber mal deine tiefgrüne Brille absetzen. Bei PCO geht die angebliche XT mit GDDR3 selbst gegen eine 8600GT aber sowas von unter. Die GDDR4-Variante, die mit dem selben Chiptakt zu werke geht, soll dann auf einmal leistungsmäßig "little lower" als die GTS liegen? Daran glaubst du wohl selbst nicht. Siehe auch die 3DM-Werte von Hardspell, die 29% höher liegen als bei PCO, was fast exakt dem Chiptaktunterschied zwischen der PRO und der XT entspricht. Aber bitte, glaube was du willst, deine Seifenblase wird noch früh genug platzen, da die XT sogar laut MSI nur wenig unter der GTS liegt, aber du weißt es ja besser.

AnarchX
2007-06-09, 11:18:38
Nur sollte eine 2600Pro doch nur 500MHz GDDR2 haben, wo ich mir nicht vorstellen kann, dass sie dann noch so gut skaliert.

Aber am besten sollten man bis Dienstag warten, wenn dann wirklich das Benchmark-NDA fallen sollte, und bis dahin soll sich jeder selbst Gedanken über diesen Test von PCO machen. ;)

reunion
2007-06-09, 11:26:15
Hier nochmal eine 2600XT(GDDR4) im 3DM:
http://www.pcgameshardware.de/screenshots/original/MSI2600XT-32.JPG

SM2: 1705
SM3: 2175

Bei PCOnline:
http://img3.pconline.com.cn/pconline/0706/06/1030007_070606_hd2600xt_3d06_thumb.jpg

SM2: 1168
SM3: 1627

Ihr wollt diesen eklatanten Unterschied jetzt wirklich mit dem schnelleren Speicher erklären, und das im 3DM (und ohne AA), der davon nachweislich sogut wie gar nicht profitiert?

Nur sollte eine 2600Pro doch nur 500MHz GDDR2 haben, wo ich mir nicht vorstellen kann, dass sie dann noch so gut skaliert.


Ohne AA sollte die Bandbreite kaum ein Problem darstellen. Im übrigen sehe ich hier nichts davon, dass diese "so gut skaliert". Sie verliert mit zunehmender Auflösung stärker als die Konkurrenz und liegt leistungsmäßig deutlich unter der GT.

Endorphine
2007-06-09, 11:26:40
Nur sollte eine 2600Pro doch nur 500MHz GDDR2 haben, wo ich mir nicht vorstellen kann, dass sie dann noch so gut skaliert. Die 8500GT hat meist nur 400 MHz GDDR2. Da fügt sich die 2600Pro imho doch gut ein.

Ist nur die Frage, ob das Verhältnis der Kosten für AMD dann wieder kippt, weil ja in dem Segment ein G86 einem RV630 gegenüber steht.

Sir Integral Wingate Hellsing
2007-06-09, 11:31:15
reunion hat recht - das war keine 2600XT - für ne pro sind die werte ok^^

reunion
2007-06-09, 11:33:12
Die 8500GT hat meist nur 400 MHz GDDR2. Da fügt sich die 2600Pro imho doch gut ein.

Ist nur die Frage, ob das Verhältnis der Kosten für AMD dann wieder kippt, weil ja in dem Segment ein G86 einem RV630 gegenüber steht.

Warum muss die PRO preislich exakt gegen ein Konkurrenzprodukt gerichtet werden? Die Karte wird mehr kosten als eine 8500GT, und weniger als eine 8600GT. Ist doch NVs Problem, wenn sie dafür kein Konkurrenzprodukt haben. Für alles darunter hat AMD den RV610, der spottbillig herzustellen ist, und noch dazu in punkto 2D-Features der Konkurrenz überlegen ist.

reunion hat recht - das war keine 2600XT - für ne pro sind die werte ok^^

Natürlich habe ich recht, die Werte von PCO sind viel zu niedrig für eine XT. Das war auch offensichtlich, wenn man die schon von AMD veröffentlichen Specs des RV630 kennt. Aber das scheint ja hier manche nicht zu interessieren, da wird erstmal verbal mit Halbwahrheiten herumgeworfen um seinen persönlichen Präferenzen ausdruck zu verleihen.

Nakai
2007-06-09, 11:52:31
Sollte eigentlich jedem aufgefallen sein, dass dort nur ne PRO abgebildet ist.
So schlecht ist die HD2600XT dann nicht mal, je nach Bench ist die Karte der GTS unterlegen aber auch mal sehr stark überlegen.

mfg Nakai

AnarchX
2007-06-09, 12:05:27
Naja, eine X1650XT ist bei den beiden Grafikscores auch gerade mal ~35% schneller als eine X1650Pro, obwohl sie die doppelte GPU-Leistung hat.
http://www.ixbt.com/video/itogi-video/0207/itogi-video-m61-wxp-1280-pcie.html
http://www.ixbt.com/video/itogi-video/0207/itogi-video-m62-wxp-1280-pcie.html

Und bei RV630 könnte diese Bandbreitenlimitierung vielleicht nochmal ein ganzes Stück höher sein.

Aber am besten warten wir noch die 3-4 Tage ab. ;)

Endorphine
2007-06-09, 12:09:11
So schlecht ist die HD2600XT dann nicht mal, je nach Bench ist die Karte der GTS unterlegen aber auch mal sehr stark überlegen. Realitätsverlust? Bitte mal Belege bringen, wo die 2600XT in Benchmarks der 8600GTS "sehr stark überlegen" ist.

Sir Integral Wingate Hellsing
2007-06-09, 12:15:00
Realitätsverlust? Bitte mal Belege bringen, wo die 2600XT in Benchmarks der 8600GTS "sehr stark überlegen" ist.

Das Problem einiger ist das sie sich an ein-zwei Worten schön hochziehen können. In einem Bench wird die 8600 GTS schneller sein, in einen anderen die 2600XT - also wayne?
Jeder der hier postet kann ungefähr die Leistung der Karten abschätzen - und die is weder bei nvidia noch ATi schlecht (für den Preis).

Nakai
2007-06-09, 12:16:16
Halflife 2, Quake 4, NFS, aber auch nur wenn es sich beim Test um die PRO handelt.

mfg Nakai

€:

Das Problem einiger ist das sie sich an ein-zwei Worten schön hochziehen können.

Joa, das ist schrecklich hier.

Endorphine
2007-06-09, 12:28:09
Das Problem einiger ist das sie sich an ein-zwei Worten schön hochziehen können. In einem Bench wird die 8600 GTS schneller sein, in einen anderen die 2600XT - also wayne?
Jeder der hier postet kann ungefähr die Leistung der Karten abschätzen - und die is weder bei nvidia noch ATi schlecht (für den Preis). Danke für Ihre Einschätzung. Leider teile ich Ihre Meinung nur insofern, als dass man nicht einfach Unwahrheiten in die Welt setzen kann, die dann andere als Wahrheit übernehmen. Man muss sich eben auch hinterfragen lassen. Wer damit nicht zurecht kommt ist hier falsch und sollte nicht posten.

:D

Halflife 2, Quake 4, NFS, aber auch nur wenn es sich beim Test um die PRO handelt. Wo sind denn die Belege?
Joa, das ist schrecklich hier. Damit musst du auch leben. Wer behauptet, muss auch damit rechnen, dass Belege für die Behauptungen gefordert werden. Wenn du dir deiner Aussagen sicher wärst, müsstest du auch keine Bedenken haben, dass jemand etwas hinterfragt.

Nakai
2007-06-09, 12:39:58
Damit musst du auch leben. Wer behauptet, muss auch damit rechnen, dass Belege für die Behauptungen gefordert werden. Wenn du dir deiner Aussagen sicher wärst, müsstest du auch keine Bedenken haben, dass jemand etwas hinterfragt.

Nope das zeigt nur die Unfreundlichkeit vieler Personen. Solche "Hinterfragungen"
welche schon fast mit Polemik verbunden sind, zeigt nicht mehr als das, das man die Meinung des Gegenüber mit allen Mitteln niederschlagen will.

Wo sind denn die Belege?

Wenn du zu faul bist auf PCOnline zu gehen und dann bei den dementsprechenden Test etwa 33% draufzurechnen, kann ich dir nicht helfen.

mfg Nakai

Endorphine
2007-06-09, 12:56:00
Nope das zeigt nur die Unfreundlichkeit vieler Personen. Solche "Hinterfragungen" Das hier ist ein Forum für Computerspieler, in dem es schwerpunktmässig über die Technik von 3D-Beschleunigerkarten geht, kein Ponyhof-Forum. welche schon fast mit Polemik verbunden sind, zeigt nicht mehr als das, das man die Meinung des Gegenüber mit allen Mitteln niederschlagen will. Wenn du Behauptungen aufstellst, musst du auch damit rechnen, dass man die hinterfragt. Wenn dir das unangenehm ist: stelle keine Behauptungen auf, die du nicht belegen kannst. Wenn du zu faul bist auf PCOnline zu gehen und dann bei den dementsprechenden Test etwa 33% draufzurechnen, kann ich dir nicht helfen. Und wieder: woher hast du die Informationen, dass die Benchmarks von PCO falsch sind und man die Ergebnisse mit dem Faktor 1,33 multiplizieren müsste?

Ich behaupte eher im Gegenzug, dass höhere Taktraten nur äußerst selten 1:1 auf die Gesamtperformance durchschlagen. Und ich gehe sogar noch weiter und behaupte weiterhin, dass die Werte von PCO für die 2600XT mit 700 MHz GDDR passen und durch die Aussagen von MSI zum Leistungsniveau der 2600XT mit 1,1 GHz GDDR4 sogar noch gestärkt werden. Bricht man nämlich die Aussage der Einordnung der 2600XT-GDDR4 auf die 2600XT-GDDR3 herunter landet man ziemlich genau auf dem Niveau der PCO-Resultate.

Ich verstehe ehrlich gesagt nicht, was daran so falsch sein soll, Behauptungen zu hinterfragen, wenn sie so grundsätzlich abwegig erscheinen.

Sir Integral Wingate Hellsing
2007-06-09, 13:04:18
Sowas ist offensichtlich :)

Aber egal - Korinthenkackerei hab ich schon auf Arbeit genug^^

Warten wir einige wenige Tage ab und haben dann vernünftige Benches worum wir uns prügeln können - wir sind ja nich aufm Ponyhof wie du sagtest :D

Endorphine
2007-06-09, 13:11:51
Sir, yes, Sir! :D

Sir Integral Wingate Hellsing
2007-06-09, 13:26:29
Sir, yes, Sir! :D

:ulove3:

So genug gespammt - her mit den Benches :)

Crazy_Chris
2007-06-09, 13:31:54
:ulove3:

So genug gespammt - her mit den Benches :)

Och ist das süß ;D

Aber im Prinzip kann man schon sagen das diese Karten nicht schneller als die x1950Pro sein wird? Wie soll so eine Karte dann für DX10 Anwendungen zu gebrachen sein wenn die 8800 oder HD2900 dort schon so mies laufen? :|

Wollte eigentlich von einer X800XT auf so eine Karte wechseln. (wg. Stromverbrauch) Aber Leistungstechnisch tut sich dann ja nicht viel. :frown:

deekey777
2007-06-09, 13:57:20
VR-Zone oder HKEPC meinten, dass die RV630XT schneller sein wird als die X1900GT (Rev. 2?). Etwas optimistisch.

Nakai
2007-06-09, 14:54:05
Ich behaupte eher im Gegenzug, dass höhere Taktraten nur äußerst selten 1:1 auf die Gesamtperformance durchschlagen. Und ich gehe sogar noch weiter und behaupte weiterhin, dass die Werte von PCO für die 2600XT mit 700 MHz GDDR passen und durch die Aussagen von MSI zum Leistungsniveau der 2600XT mit 1,1 GHz GDDR4 sogar noch gestärkt werden. Bricht man nämlich die Aussage der Einordnung der 2600XT-GDDR4 auf die 2600XT-GDDR3 herunter landet man ziemlich genau auf dem Niveau der PCO-Resultate.

Woher weißt du das? Laut Aussage von MSI, kann ich mir eine Leistungssteigerung von etwa 30 bis 40% (und das benötigt sie um knapp hinter 8600GTS zu liegen) durch Ramtakterhöhung nicht vorstellen.

Wollte eigentlich von einer X800XT auf so eine Karte wechseln. (wg. Stromverbrauch) Aber Leistungstechnisch tut sich dann ja nicht viel.

Same here...

Ich behaupte eher im Gegenzug, dass höhere Taktraten nur äußerst selten 1:1 auf die Gesamtperformance durchschlagen.

Wurde soetwas ähnliches nicht mal hier im Forum diskutiert.
Theoretisch wird durch doppelten Talt eine doppelt so hohe Leistung erreicht, jedoch spielen da manche interne Sachen nicht mit. (Caches, Latenzen...)

VR-Zone oder HKEPC meinten, dass die RV630XT schneller sein wird als die X1900GT (Rev. 2?). Etwas optimistisch.

Naja wieso eigentlich nicht?
Rein her von den Rohdaten sollte der RV630XT der X1900GT schon den Rang ablaufen.

mfg Nakai

dildo4u
2007-06-09, 15:05:48
Naja wieso eigentlich nicht?
Rein her von den Rohdaten sollte der RV630XT der X1900GT schon den Rang ablaufen.

mfg Nakai
Die 1900GT hat immer noch eine höhere Bandbreite dank dem 256 Bit Speicherinterface.

Gast
2007-06-09, 15:10:08
So lange die jetzigen Mainstreamkarten nicht mit 1,5 GHz GDDR4 daher kommen oder besser noch 800 MHz @ 256 bit, hinken sie der DX9 Generation gnadenlos hinterher.

Es gibt ja sogar ne X1950Pro mit 770 MHz GDDR3 @ 256 und die wird für weniger als 200€ angeboten.

Kann doch echt nicht so schwer sein...

Crazy_Chris
2007-06-09, 15:17:19
So lange die jetzigen Mainstreamkarten nicht mit 1,5 GHz GDDR4 daher kommen oder besser noch 800 MHz @ 256 bit, hinken sie der DX9 Generation gnadenlos hinterher.

Es gibt ja sogar ne X1950Pro mit 770 MHz GDDR3 @ 256 und die wird für weniger als 200€ angeboten.

Kann doch echt nicht so schwer sein...

oder gleich X1950XT für 165€ :cool:

http://geizhals.at/deutschland/a224415.html

Gast
2007-06-09, 15:35:21
oder gleich X1950XT für 165€ :cool:

http://geizhals.at/deutschland/a224415.html

Uninteressant, nur 256MB und schrecklichen Lüfter!

Für 184,- wird allerdings eine vollwertige X1950XT 512MB mit leisem Lüfter angeboten und die hat immerhin 256 bit @ 800 MHz.

Warum dann gerade bei der D3D10 Generation daran gespart wird, ist mir ein Rätsel!

Nakai
2007-06-09, 15:37:06
Die 1900GT hat immer noch eine höhere Bandbreite dank dem 256 Bit Speicherinterface.


Stimmt, wobei die 8600GTS selbst durch die Bandbreite nicht einbricht.
Naja wenn der Rv630 die gleichen Probleme hat wie der R600, also wenig von der Bandbreite profitiert, dann ist das echt zu wenig.

mfg Nakai

Gast
2007-06-09, 15:48:07
Die HD 2600 XT soll nur 149 $ Dollar kosten.

Gast
2007-06-09, 15:54:22
Stimmt, wobei die 8600GTS selbst durch die Bandbreite nicht einbricht.


die 8600GTS hat im verhältnis zur rohleistung nicht weniger bandbreite als die 8800GTX.

Gast
2007-06-09, 16:10:18
Die HD 2600 XT soll nur 149 $ Dollar kosten.

Klingt für mich nicht sehr lohnenswert... wenn am Ende 110-120€ rauskommen und ZWEI dieser Karten nur so schnell sind wie eine (billigere) X1950XT 512MB, dann läuft da echt was schief.

Zur Zeit gibt es nichts in der Preisklasse 185-299€, was besser wäre. Die 320MB GTS ist murks.

Nakai
2007-06-09, 16:26:19
die 8600GTS hat im verhältnis zur rohleistung nicht weniger bandbreite als die 8800GTX.

Und die HD2900XT zieht keinen Profit aus der hohen Bandbreite.

mfg Nakai

sklave_gottes
2007-06-09, 21:26:16
Die 1900GT hat immer noch eine höhere Bandbreite dank dem 256 Bit Speicherinterface.

Ja ganze 9,1%
Und nochmals:
Bandbreite ist nicht alles:
Siehe HD2900XT vs 8800GTS(nur als extrem beispiel)
Siehe X1900XTX vs X1950XTX
Siehe 7900GTO vs 7950GT

Es ist schwachsin zu glauben das die HD2600XT DDR3 durch 40% mehr Bandbreite 40% mehr leistung kriegt. Dazu hat der chip einfach zu wenig tmus.

mfg martin

horn 12
2007-06-09, 21:34:20
Und die HD2900XT zieht keinen Profit aus der hohen Bandbreite.

mfg Nakai

Hoffe und denke dies ändert sich sehr bald. Wird nicht immer zu 100 Prozent klappen aber dennoch, eine große Stiegerung wird es allemal geben!

Gast
2007-06-09, 21:38:12
Bandbreite ist nicht alles:
Siehe HD2900XT vs 8800GTS(nur als extrem beispiel)


Meines erachtens ist das nicht vergleichbar! Der R600 würde sicher SEHR von der Bandbreiten profitieren, hat aber zu wenig Texelfüllrate um einen nutzen daraus zu ziehen.

Die X19xx hinkten auch immer hinter der 79xx her, was die Füllrate betraf, dafür waren sie bei Shaderintensiven Anwendungen besser.

Coda
2007-06-09, 21:38:34
Hoffe und denke dies ändert sich sehr bald. Wird nicht immer zu 100 Prozent klappen aber dennoch, eine große Stiegerung wird es allemal geben!
Und das liest du mal wieder aus dem Kaffeesatz nehm ich an.

deekey777
2007-06-09, 21:57:12
Die 1900GT hat immer noch eine höhere Bandbreite dank dem 256 Bit Speicherinterface.
Wie taktet die GDDR4-Version (die hatte ich auch im Kopf)?
X1900GT Rev. 2: 512/650 MHz
HD2600XT GDDR4: 800/1100(?) MHz.
Da fehlen zwar noch 200 MHz, aber in diesem Segment wird man diese nicht vermissen.
Auf dem Papier ist die HD 2600XT besser: etwas mehr MADD-Leistung, etwas mehr Texelfüllrate, aber zu wenig an Pixelfüllrate, was wirklich bescheuert ist.

reunion
2007-06-09, 22:05:23
Wie taktet die GDDR4-Version (die hatte ich auch im Kopf)?
X1900GT Rev. 2: 512/650 MHz
HD2600XT GDDR4: 800/1100(?) MHz.
Da fehlen zwar noch 200 MHz, aber in diesem Segment wird man diese nicht vermissen.
Auf dem Papier ist die HD 2600XT besser: etwas mehr MADD-Leistung, etwas mehr Texelfüllrate, aber zu wenig an Pixelfüllrate, was wirklich bescheuert ist.

Ja, 1100Mhz für die GDDR4-Variante. Aber was heißt zu wenig Pixelfüllrate? 3.2GPixels mit 4xMSAA reichen dicke für eine Auflösung von 2560x1920 bei >60fps. Eng könnte es höchsten bei 8xMSAA plus Shadowmaps und anderen Spielereien werden. Aber dafür wird eine solche Karte auch nicht gebaut.

Nakai
2007-06-09, 23:23:19
IMO wird Pixelfüllrate immer überbewertet.

Auf dem Papier ist die HD 2600XT besser: etwas mehr MADD-Leistung, etwas mehr Texelfüllrate, aber zu wenig an Pixelfüllrate, was wirklich bescheuert ist.

Je nach Spiel wird die eine oder andere Graka vorne liegen.

mfg Nakai

Gast
2007-06-10, 00:30:44
Ja, 1100Mhz für die GDDR4-Variante. Aber was heißt zu wenig Pixelfüllrate? 3.2GPixels mit 4xMSAA reichen dicke für eine Auflösung von 2560x1920 bei >60fps. Eng könnte es höchsten bei 8xMSAA plus Shadowmaps und anderen Spielereien werden. Aber dafür wird eine solche Karte auch nicht gebaut.

ROPs machen auch noch was anderes, als nur dazusitzen und zu warten, dass sie alle hundert Takte mal ein finales Pixel in den Framebuffer schreiben dürfen. Und während sie das tun, müssen andere Dinge in der Pipe warten, da es eben nur eine Quad-ROP ist.


Q

up¦²
2007-06-11, 00:00:42
http://www.ocworkbench.com/2007/computex/day2ch/pic028.jpg

http://www.ocworkbench.com/2007/computex/day2ch/pic029.jpg
http://www.ocworkbench.com/2007/computex/day2/p14.htm
auch ne nette passive 26er pro ist dabei!

AnarchX
2007-06-14, 08:09:34
Noch ein Preview von den üblichen Verdächtigen:
AMD HD2600/2400 preview @ it-review.net (http://it-review.net/index.php?option=com_content&task=view&id=1419&Itemid=1)

Der offizielle Fall des Bechmark-NDAs scheint ja nun der 1. Juli zu sein.

Henroldus
2007-06-14, 08:30:43
http://www.ocworkbench.com/2007/computex/day2ch/pic028.jpg

oldscool Lüfter :biggrin:
und extra-stromanschluss bei Mainstream :eek:
ich glaub es hackt!

Gast
2007-06-14, 12:36:55
FP-Filterung (R5xx muss das noch über die Shader machen), zusätzliche Adresseinheiten für Vertexfetches, größere Caches, FP16-Filterung "for free", etc.



Die fünfte ALU bietet ein volles MAD und ist mit SFs alleine niemals ausgelastet.


BTW:

Hardspell (http://www.hardspell.com/english/doc/showcont.asp?news_id=414&pageid=517) HD2600XT GDDR4 (800/1100): 3DM06 SM3.0: 2105
PConline (http://www.pconline.com.cn/diy/graphics/reviews/0706/1030007_6.html) angeblich HD2600XT GDDR3 (800/700): 3DM06 SM3.0: 1627

Der 3dmark06 ist in keinster Weise Bandbreitenlimitiert. Sieht man unter anderem sehr schön am Vergleich X1900XTX vs. X1950XTX. Der Vorsprung letzerer liegt höchstens im Bereich der Messungenauigkeit. Der Score von Hardspell ist durch Screenshots der Karte und des Treiberinterfances sowie vom 3dmark selbst dokumentiert. Der von PConline nicht.

Der Differenz zwischen den Werten von Hardspell und PConline ist also einfach viel zu groß, um das mit der höheren Speicherbandbreite erklären zu können. Ich denke da wurde ziemlich eindeutig mit der PRO(600/500) gebencht. Der höhere Takt der XT von 33% (800Mhz) würde auch sehr schön zu der 29% höheren Score bei Hardspell passen. Würde mich auch nicht wundern, wenn es sich dabei auch noch um eine alte Revision der Karte gehandelt hat. Aber soetwas will man ja hier offensichtlich nicht gerne hören.

ähm das ist unsinn, wenn du eine 7600GS (400mhz ddr2) gegen eine 7600GT (700mhz gddr3) mit gleichem gpu-takt antreten lässt, ist die GT immernoch ~ 33% schneller

Crazy_Chris
2007-06-14, 13:23:34
Sapphire HD2600XT available for $145 / €110 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=1469&Itemid=1)

Was für ein Kampfpreis :eek: Ob das so stimmt?

Gast
2007-06-14, 13:50:06
Sapphire HD2600XT available for $145 / €110 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=1469&Itemid=1)

Was für ein Kampfpreis :eek: Ob das so stimmt?

Das ist aber nur die GDDR3 Karte. Das Topmodell, die XT mit 1,1Ghz GDDR4 wird sicher etwas teurer.

Coda
2007-06-14, 14:03:47
und extra-stromanschluss bei Mainstream :eek:
ich glaub es hackt!
Hat die 8600GTS doch auch...

Gast
2007-06-14, 14:08:04
und extra-stromanschluss bei Mainstream :eek:
ich glaub es hackt!

Ist aber nur optimal. Viele Hersteller verzichten darauf.

Gast
2007-06-14, 14:12:58
ähm das ist unsinn, wenn du eine 7600GS (400mhz ddr2) gegen eine 7600GT (700mhz gddr3) mit gleichem gpu-takt antreten lässt, ist die GT immernoch ~ 33% schneller

Kannst du das auch irgendwie belegen? Ansonsten ist der Spung von 400Mhz auf 700Mhz (plus 75%) wesentlich größer als der von 700Mhz auf 1.1Ghz (plus 57%). Außerdem tritt natürlich auch hier das Gesetz des abnehmenden Grenzertragen in Kraft.

anddill
2007-06-14, 22:48:35
Und schon hat sich die Bandbreite auf das Niveau der Radeon 1950pro gehoben:
http://www.pcgameshardware.de/?article_id=603691

Also das sollte doch jetzt für eine vernünftige Leistung reichen, wenn ATI nicht an anderer Stelle noch Bremsklötze eingebaut hat.

AnarchX
2007-06-14, 23:22:14
Und schon hat sich die Bandbreite auf das Niveau der Radeon 1950pro gehoben:
http://www.pcgameshardware.de/?article_id=603691


Fragt sich nur ob man dieses Modell auch in Dtl. kaufen kann und zu welchem Preis.
Wenn überhaupt ein GDDR4-Modell so werden die meisten Hersteller 0.9ns GDDR4 verbauen.

Gast
2007-06-15, 00:09:14
Wenn überhaupt ein GDDR4-Modell so werden die meisten Hersteller 0.9ns GDDR4 verbauen.

Oder auch 0,7ns, obwohl ich nicht wirklich verstehe, was das bringen soll. :)
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/juni/radeon_hd_2600xt_07-ns-gddr4-speicher/

A.Wesker
2007-06-15, 00:12:00
Oder auch 0,7ns, obwohl ich nicht wirklich verstehe, was das bringen soll. :)
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/juni/radeon_hd_2600xt_07-ns-gddr4-speicher/
bei einem 128bit SI vollbringt der hohe Ramtakt wahre Wunder.

Gast
2007-06-15, 00:14:21
In der Praxis verstehe ich nicht, warum man den Speicher trotzdem nur mit 1,1 GHz taktet.

Außerdem kann ich mir nicht wirklich vorstellen, das 0.7ns GDDR4 billiger sein soll, als ne neue Karte mit 256 bit + 700 MHz GDDR3.

anddill
2007-06-15, 01:22:54
Denk mal ein paar Monate in die zukunft. Platinen mit 256 Datenleitungen werde dann immer noch teuer sein, aber 1,5GHz Ram spottbillig.

Gast
2007-06-15, 04:39:59
Je weiter ich in die Zukunft sehe, desto weniger Sinn machen 128 bit. ;D

Hätte man eine Karte mit 256 bit @ 700 MHz gebracht, so könnte man sie leicht an den Bedarf anpassen und den RAM Takt auf 1 GHz oder mit GDDR4 sogar bis auf 1,4 GHz erhöhen.

Bei dem 128 bit Interface muss man gleich ne neue Karte aus dem Boden stampfen, was der Konkurrenz Zeit zum reagieren gibt. Außerdem hätte man mit dem Release alle derzeitigen Mainstream NVIDIA Karten schlagen können.

Gast
2007-06-15, 05:24:56
DIeses Scenario gab es bei ATI schon mal.Manche Firmen lernen einfach nicht.



mfg

Gast
2007-06-15, 07:40:31
Hätte man eine Karte mit 256 bit @ 700 MHz gebracht, so könnte man sie leicht an den Bedarf anpassen und den RAM Takt auf 1 GHz oder mit GDDR4 sogar bis auf 1,4 GHz erhöhen.


Für was solle man das brauchen? Bei 1.1Ghz erreicht die 2600XT 35.2Gb/s Bandbreite, was bei 8 TMUs locker reichen sollte.


Bei dem 128 bit Interface muss man gleich ne neue Karte aus dem Boden stampfen, was der Konkurrenz Zeit zum reagieren gibt. Außerdem hätte man mit dem Release alle derzeitigen Mainstream NVIDIA Karten schlagen können.

Wie kommst du darauf, dass der Chip zu wenig Bandbreite hat? Ein 256-bit SI würde nicht nur den Transistorcount dauerhaft in die Höhe treiben, sondern auch das PCB dauerhaft teurer machen. Speicher wird mit der Zeit immer billiger. Und warum die Karte mit einem 256-bit SI auf einem zum Mainstreamkiller werden sollte, würde mich auch mal iinteressieren. Einem R600 bringt das 512-bit SI auch nichts. Die Bandbreite mit GDDR4 sollte für einen solchen Chip ausreichend sein.

Gast
2007-06-15, 07:44:05
DIeses Scenario gab es bei ATI schon mal.Manche Firmen lernen einfach nicht.



mfg

Nein, manche Personen lernen nicht.

MadManniMan
2007-06-15, 08:35:47
Sollten 1100 MHz @ 2*64 bit nicht ineffizienter, als 550 MHz @ 4*64 bit sein?

Gast
2007-06-15, 08:56:20
Sollten 1100 MHz @ 2*64 bit nicht ineffizienter, als 550 MHz @ 4*64 bit sein?

Nein, die Granulariät ist ident, und der höhere Takt sorgt nicht für ineffizienz, sondern nur eine verbreiterung des SI ohne Unterteilung.

Gast
2007-06-15, 08:57:30
Wen schon, dann ist das 128-bit SI effizienter.

Gast
2007-06-15, 09:13:12
Ist die Karte schneller als eine 1950pro?

Gast
2007-06-15, 09:21:07
Sollten 1100 MHz @ 2*64 bit nicht ineffizienter, als 550 MHz @ 4*64 bit sein?

Außerdem glaube ich, dass RV630 eine 4x32-bit Unterteilung hat, denn sonst würde der Ringbus kaum umsetzbar sein.

Gast
2007-06-15, 09:47:45
Für was solle man das brauchen? Bei 1.1Ghz erreicht die 2600XT 35.2Gb/s Bandbreite, was bei 8 TMUs locker reichen sollte.


Die HD2900XT hat wohl ein paar Probleme mit ihrer hohen Speicherbandbreite, bzw. diese umzusetzen/richtig zu nutzen. Vieleicht ballert man deswegen auch bei den Mainstream Produkten die die alte Generation ablösen sollen hier mächtig drauf. Im Vergleich zu älteren Grakas mit 8TMUs hat die XT schon heftig Bandbreite.

Gast
2007-06-15, 11:13:02
Ist die Karte schneller als eine 1950pro?
Warte ich reibe mal an meiner Glaskugel, ahh da schemenhaft was zu erkennen.. 2600Pro zwischen 7600GS und 7600GT, 2600Xt mit DDR3 zwischen 7600GT und 8600GT und die 2600XT DDR4 zwischen 8600GT und 8600GTS
also im schnitt wohl der 1950Pro unterlegen..

greetz

Henroldus
2007-06-15, 11:28:05
Ist aber nur optimal. Viele Hersteller verzichten darauf.
hier war wohl optional gemeint.
75W über PCIe sollten für Mainstream IMO reichen.
früher war es nämlich nicht nötig für jede graka auch ein neues Netzteil kaufen zu müssen.

Gast
2007-06-15, 15:01:02
Warte ich reibe mal an meiner Glaskugel, ahh da schemenhaft was zu erkennen.. 2600Pro zwischen 7600GS und 7600GT, 2600Xt mit DDR3 zwischen 7600GT und 8600GT und die 2600XT DDR4 zwischen 8600GT und 8600GTS
also im schnitt wohl der 1950Pro unterlegen..

greetz

Danke, mein Glaskugel reibender Freund. :)

Gast
2007-06-15, 17:26:50
Die HD2900XT hat wohl ein paar Probleme mit ihrer hohen Speicherbandbreite, bzw. diese umzusetzen/richtig zu nutzen.

Ich sehe da keine Probleme. Schau dir mal die technischen Daten an. Die Speicherbandbreite wird sicherlich genutzt, aber die GPU ist zu schwach um einen Profit daraus zu ziehen.

Was nützt es dir mehr Bandbreite zu haben als ne 8800Ultra, wenn die GPU, sagen wir mal nur 60% der Leistung von dieser Karte bringt?

Nicht viel ...

Bei den Mainstreamkarten war bis jetzt aber immer ein großer Sprung zu verzeichnen, vorallem wenn man Auflösungen mit 4xAA gebencht hat. Da geht nämlich auch der 8600GTS die Bandbreite aus.

Gast
2007-06-15, 19:49:27
Bei den Mainstreamkarten war bis jetzt aber immer ein großer Sprung zu verzeichnen, vorallem wenn man Auflösungen mit 4xAA gebencht hat. Da geht nämlich auch der 8600GTS die Bandbreite aus.

der 8800GTS geht in keinem fall die bandbreite aus, der chip ist zu schwach.
an bandbreite hat sie im verhältnis zur GPU-leistung nämlich mehr als eine 8800GTX

Gast
2007-06-15, 20:05:49
an bandbreite hat sie im verhältnis zur GPU-leistung nämlich mehr als eine 8800GTX

So kann man das nicht vergleichen. Es gibt einen Schwellwert, der zur Zeit bei sagen wir mal 80GB/s liegt. Darüber sind die Verbesserungen durch mehr Bandbreite ziemlich klein.

die 8600GTS verliert mit AA aber deutlich an Leistung, was auch aufgrund des 128 bits Interfaces der Fall ist. Ich denke schon, das sie mit deutlich mehr Bandbreite noch einiges mehr reißen würde.

AnarchX
2007-06-15, 20:11:39
die 8600GTS verliert mit AA aber deutlich an Leistung, was auch aufgrund des 128 bits Interfaces der Fall ist. Ich denke schon, das sie mit deutlich mehr Bandbreite noch einiges mehr reißen würde.

Was aber auch in Zusammenhang mit dem berüchtigten VRAM-Bug der GF8-Serie steht.;)

Gast
2007-06-15, 20:14:33
Was aber auch in Zusammenhang mit dem berüchtigten VRAM-Bug der GF8-Serie steht.;)

Glaub ich nicht. Ich rede von Auflösungen, die der Karte angepasst sind... sagen wir mal 1280x960.

Sie wurde sicher in der Hardware beschnitten, aber ich denke trotzdem, das mit 192/256 bit @ 800 MHz eine deutliche Steigerung zu erzielen wäre, sowohl bei 2600XT als auch 8600GTS.

Gast
2007-06-15, 20:19:45
Da fällt mir ein, gibt es denn irgendwo Benchergebnisse von dieser 2600XT mit übertaktetem GDDR4 @ >1,4 GHz?

Gast
2007-06-15, 21:53:28
So kann man das nicht vergleichen. Es gibt einen Schwellwert, der zur Zeit bei sagen wir mal 80GB/s liegt. Darüber sind die Verbesserungen durch mehr Bandbreite ziemlich klein.



man braucht einen entsprechend leistungsfähigen chip um die bandbreite auch umsetzen zu können.

der 8600GTS würden 80GB/s nichts bringen, und ja für 8xMSAA ist die bandbreite unterdimensioniert, sowohl bei der 8800GTX als auch bei der 8600GTS

was der 8600GTS aber sicher noch viel mehr zusetzt ist der fehlende VRAM, heute brauchen viele spiele schon in 1280x1024 ohne MSAA 400MB+ an VRAM, da reichen 256MB einfach nicht mehr aus.

AnarchX
2007-06-15, 22:06:35
Glaub ich nicht. Ich rede von Auflösungen, die der Karte angepasst sind... sagen wir mal 1280x960.

Doch dort genau trifft es auch zu:
http://hardtecs4u.de/reviews/2007/msi_nx8600_gts/index11.php
-> 8600GTS fällt unlogischerweise hinter 7600GT

Hier gibt es übrigens ein paar Skalierungstests mit der 8600GT:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5405836&postcount=870
... Chiptakt bringt doch meistens mehr als Speichertakt.

Ailuros
2007-06-15, 22:08:18
Wenn man sich wie ich etwas von diesem kindischen Theater Abstand nimmt, dann wirkt der uebliche Zirkus wie in diesem Thread noch laecherlicher.

Am Ende des Tages gibt es fuer mich nur eine halbwegs logische Schlussvolgerung:

http://www.3dcenter.de/artikel/2007/04-26.php

Treiber oder weiss der Geier was noch hin und her, diejenigen die eine noch gute D3D9.0 GPU besitzen, koennen sowohl die G84 als auch RV630 links liegen lassen bis zum Ende des Jahres. Und nein beinflussen will ich keinen was jeder kaufen sollte oder nicht; ich will lediglich betonen wie laecherlich das Ganze klingt.

My 2 cents ;)

Gast
2007-06-15, 22:14:29
Doch dort genau trifft es auch zu:
http://hardtecs4u.de/reviews/2007/msi_nx8600_gts/index11.php
-> 8600GTS fällt unlogischerweise hinter 7600GT

Das sind zwei unterschiedliche Architekturen. Daraus kann man keinerlei sinnvolle Schlußfolgerung ziehen.

Vielleicht liegt der neuen Generation das AA+AF nicht, da ja auch die Hardware (stark) beschnitten wurde.

up¦²
2007-06-20, 21:46:27
Tja - review ist das nicht, sagen wir mal so: Preview - ein Lebenszeichen...
http://www.bcchardware.com/index.php?option=com_content&task=view&id=4199&Itemid=40

AnarchX
2007-06-20, 21:58:26
Die 3DMark-Werte sehen jedenfalls nun nach 8600GT-Niveau aus.

Raff
2007-06-20, 22:05:13
Die 3DMark-Werte sehen jedenfalls nun nach 8600GT-Niveau aus.

Im 3DMark sieht die 2900 XT auch nach GF8 Ultra aus ...

MfG,
Raff

AnarchX
2007-06-20, 22:08:48
Im 3DMark sieht die 2900 XT auch nach GF8 Ultra aus ...

Umso schlimmer, immerhin ist es ja schon so nicht rühmlich, dass sich die 2600XT GDDR4 auf dem Niveau von NVs #2 im Midrange bewegt.

up¦²
2007-06-20, 22:24:38
Ist denn irgendein betadriver ausgeleckt...???
Vielleicht platzt der Knoten ja noch :biggrin:

Aber nochwas: Hilbert Hagedorn war wieder aktiv!
Radeon HD 2600 series:
Jetway Radeon HD 2600XT 512 MB DDR3 PCI-e DVI TV out €149,00
Jetway Radeon HD 2600XT 256 MB DDR3 PCI-e DVI TVout - €99,00
Jetway Radeon HD 2600PRO 512 MB DDR2 PCI-e DVI TVout €89,00
Jetway Radeon HD 2600PRO 256 MB DDR2 PCI-e DVI TVout €69,00

Radeon HD 2400 series:
Jetway Radeon HD 2400XT 256MB DDR3 PCI-e DVI TVout €59,95
Jetway Radeon HD 2400PRO 512MB DDR2 PCI-e DVI TVout €54,95
Jetway Radeon HD 2400PRO 256MB DDR2 PCI-e DVI TVout €44,95

http://www.guru3d.com/newsitem.php?id=5487

Gast
2007-06-20, 23:45:32
Hi
mit dem Radeon HD 2600XT mit DDR4 fehlt in der Liste.

http://www.dollarshops.eu/product_info.php/products_id/761


Jetway Radeon HD 2600XT 512 MB DDR4 PCI-e DVI TVout
model number X26XT-EN-512
chipset Radeon HD 2600XT
core clock 800Mhz
memory clock 2200Mhz
memory type

512MB DDR4 128bit
Unified Stream Processors 120
Physics processing support yes
Crossfire support yes
RAMDAC 400Mhz
bus type PCI-Express 16X
driver support windows /2000/XP/Vista/ - directX 10
HDCP yes
Connections DVI / HDMI / HDTV
accessories Driver disk / manual / svideo cable

MadManniMan
2007-06-21, 01:28:10
Wie kann man diese Punkte einordnen?

/Edit: Oh, noch unter der X1950 Pro ... das ist schwach!

Gast
2007-06-21, 08:52:29
Wie kann man diese Punkte einordnen?

/Edit: Oh, noch unter der X1950 Pro ... das ist schwach!

ist bei der 8600GTS auch nicht anders.

MadManniMan
2007-06-21, 09:07:07
ist bei der 8600GTS auch nicht anders.

Ja, klar :) Die GTS ist ja auch völlig überteuert.

Für D3D10 und bessere Features dürften die Karten meinem Ermessen nach 10 bis maximal 20% teurer als Konkurrenz der alten Generation sein. Bei gleicher Performance, wohlgemerkt.

Die X1950 Pro gibts für 120 bzw. 140 € (256/512 MB), macht also 140 bzw. 170 € für diese gleichschnellen, besserausgestatteten neuen Karten. Bwahaha.

Sir Integral Wingate Hellsing
2007-06-21, 14:23:20
Ja, klar :) Die GTS ist ja auch völlig überteuert.

Für D3D10 und bessere Features dürften die Karten meinem Ermessen nach 10 bis maximal 20% teurer als Konkurrenz der alten Generation sein. Bei gleicher Performance, wohlgemerkt.

Die X1950 Pro gibts für 120 bzw. 140 € (256/512 MB), macht also 140 bzw. 170 € für diese gleichschnellen, besserausgestatteten neuen Karten. Bwahaha.

Ein Grund warum ich mir die X1950GT geholt habe. Lässt sich gut als Pro modden/takten und bringt deutlich mehr Leistung als ne HD X2600XT (die ich mir eigentlich holen wollte).

EDIT: Was nicht zwingend heisst das die HD X2600XT schlecht ist - aber (wie bei der 8600GTS) dürfte DX10 einfach viel zu lahm sein.

Gast
2007-06-21, 14:27:31
Die X1950 Pro gibts für 120 bzw. 140 € (256/512 MB), macht also 140 bzw. 170 € für diese gleichschnellen, besserausgestatteten neuen Karten. Bwahaha.

Was kann nVidia dafür, wenn AMD ihre Karten unter Wert verkaufen?

Popeljoe
2007-06-21, 14:36:33
Was kann nVidia dafür, wenn AMD ihre Karten unter Wert verkaufen?
Wieso unter Wert?
NV verkauft ja seine 8800 GTS dann auch unter Wert!;)
Als Konkurrent zum 2900XT.
Was macht denn den Wert aus?
Imo FPS in einem Game pro gezahltem €!:up:
P1

AnarchX
2007-06-21, 14:39:09
Wieso unter Wert?
NV verkauft ja seine 8800 GTS dann auch unter Wert!;)
Als Konkurrent zum 2900XT.
Was macht denn den Wert aus?
Imo FPS in einem Game pro gezahltem €!:up:
P1

Der Gast meint sicherlich eher die Herstellungkosten für die Karten, so wird einer X1950GT/Pro mit 210mm² Die, 256Bit PCB, 512MB sicherlich doch um einiges teuerer als die 8600GTS mit einfacherem 128Bit PCB 169mm² Die sein.

Und eine 8800GTS wird auch nicht teuerer in der Herstellung als die HD2900XT mit komplexeren PCB und teurem Kupferkühler sein.

Gast
2007-06-21, 14:42:43
Wieso unter Wert?


1950pro/gt/whatever ist 3/4 des High-End. Es wurde für 200€ gestartet. Das ist unter Wert, da solche Karten meisten für 300€ verkauft wurden sind.
Mir ist bewusst, dass ATi diesem Weg gehen musste, nachdem 1650XT "nur" auf gleicher Höhe wie die 7600GT liegt und somit keine Verbesserung wäre.
Gucken wir doch mal in die Vergangenheit: nVidia und AMD verkaufen bzw. haben High End Karten für 400€ verkauft, die bis zu 50% weniger Leistung als die 500€ Karten hatten.

Popeljoe
2007-06-21, 16:36:59
Der Gast meint sicherlich eher die Herstellungkosten für die Karten, so wird einer X1950GT/Pro mit 210mm² Die, 256Bit PCB, 512MB sicherlich doch um einiges teuerer als die 8600GTS mit einfacherem 128Bit PCB 169mm² Die sein.

Und eine 8800GTS wird auch nicht teuerer in der Herstellung als die HD2900XT mit komplexeren PCB und teurem Kupferkühler sein.
Okay, so wird ein Schuh draus! ;)
Allerdings kann man das dann imo auch so betrachten, dass die 1950er zwar unter Wert vertickt werden, aber gleichzeitig die 8600er auch über Wert.
Was ist DirX10 Fähigkeit wert?
Es ist imo wie mit den FX 5600er Karten: DirX9 fähig aber klar zu lahm und zu teuer! (aber die Diskussion hatte ich schon mit Aths und Frank welche die 5600er für ne gute Karte halten! ;))
P1

Noebbie
2007-06-21, 16:40:31
Mal abgesehen von dem bisher geschriebenen, finde ich es erstaunlich wie gut sich noch die x1900/x1950 karten mit den neuen generationen schlagen

war wirklich eine feine investition, da bleibt doch auch auf die x2950er zu hoffen

und zu atis 2600: bin mal auf benches gespannt! :smile:

deekey777
2007-06-21, 16:49:47
1950pro/gt/whatever ist 3/4 des High-End. Es wurde für 200€ gestartet. Das ist unter Wert, da solche Karten meisten für 300€ verkauft wurden sind.
Mir ist bewusst, dass ATi diesem Weg gehen musste, nachdem 1650XT "nur" auf gleicher Höhe wie die 7600GT liegt und somit keine Verbesserung wäre.
Gucken wir doch mal in die Vergangenheit: nVidia und AMD verkaufen bzw. haben High End Karten für 400€ verkauft, die bis zu 50% weniger Leistung als die 500€ Karten hatten.
Wo ist die X1950Pro ein 3/4-Design? Der RV570 ist ein eigenständiger Chip und hat auch ein eigenes PCB, das die meisten Hersteller weiter vereinfacht haben.
Die X1650XT ist mit der X1950Pro gestartet worden, also musste ATi keinen "diesen" Weg gehen.

Gast
2007-06-21, 21:08:37
1827 Punkte für die HD2400 XT in 3DMark06. Na das ist doch ein super Wert für eine ~50 Euro Einsteigerkarte.
http://de.theinquirer.net/2007/06/21/2400_xt_bringt_gute_3dmarks.html

AnarchX
2007-06-21, 21:28:50
1827 Punkte für die HD2400 XT in 3DMark06. Na das ist doch ein super Wert für eine ~50 Euro Einsteigerkarte.
http://de.theinquirer.net/2007/06/21/2400_xt_bringt_gute_3dmarks.html

Durchaus eine gute Leistung auch im Vergleich zur Konkurrenz -> 8400GS (http://translate.google.com/translate?u=http%3A%2F%2Fwww.pconline.com.cn%2Fdiy%2Fgraphics%2Freviews%2F0706%2 F1030233.html&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools).

Aber da es hier um die 2600er Karten geht, war ich mal so frei:
HD 2400XT und Pro: (P)Review-Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5604894#post5604894)

Undertaker
2007-06-21, 21:51:22
3dmurks halt - da zieht ein gma950 auch gerne einmal die chipsatzkonkurrenz von amd und nvidia ab, aber letztlich schaut es dann in games doch ganz anders aus...

Gast
2007-06-21, 22:03:26
Richtig. Auf 3D Mark optimieren kann jeder, der verändert sich fast nie. Auf hunderttausende Anwendungen zu optimieren, ist jedoch was ganz anderes.

reunion
2007-06-21, 22:35:39
Und NV optimiert natürlich nicht auf den 3dmark.

Trice1001
2007-06-22, 13:26:02
Na wie geil ist denn das? Noch mehr schrot kann nicht gebaut werden. und ich hab mich so auf die 26XT gefreut .....naja wirds wohl doch ne G8x ^^dann muss meine 7900GT noch ein halbes jahr Treu sein obwohl die geht grade mit dem Hersteller fremd die sau.

Gast
2007-06-23, 12:42:53
HD 2600 XT für unter 100€ bei Geizhals gelistet
http://www.computerbase.de/forum/showthread.php?t=297343



GEILGEILGEIL!!!

Super Grobi
2007-06-23, 12:46:18
Mir wäre lieber, wenn mal ein guter Shop (wie Alternate) die 2900XT für 299 Euro anbieten würde.

SG

Crazy_Chris
2007-06-23, 13:10:08
Bei den Preisen ist eine regelrechte Überflutung des Marktes durch Radeon HD2600 Produkte zu erwarten. :eek:Vielleicht wird das ja die nächste Radeon 9600 :confused::biggrin:

LovesuckZ
2007-06-23, 17:21:41
Ich sehe bei dem Preis eher eine Karte, die mit der 8600GT anstelle der 8600GTS konkurrieren wird. WIrd wohl die nächste Enttäuschung von AMD werden, nachdem sie schon die 2900XT zu 9/10 in den Sand gesetzt haben.

AnarchX
2007-06-23, 18:05:41
Solang die Preis-Leistung der HD 2600er Karten stimmt würde ich doch meinen, dass sie gar nicht mal so schlecht sind.
Immerhin bieten sie mit dem sehr niedrigen Verbrauch, UVD und HDMI mit Sound gewisse Pluspunkte an, was halt einer HD 2900XT eher fehlt im Vergleich zur 8800er-Serie.

Gast
2007-06-23, 18:35:31
die Mittelklasse von ATI war im Vergleich zum High-End immer Schrott.

Die 9500 Pro & Co. waren also Schrott... soso...

LovesuckZ
2007-06-23, 18:39:25
Solang die Preis-Leistung der HD 2600er Karten stimmt würde ich doch meinen, dass sie gar nicht mal so schlecht sind.


Ich würde bei einer Karte für 100€ nicht mehr von "Preis-Leistung" reden. Es wird einem Grund haben, warum AMD eine HD2600XT für 100€ anbietet. Oder ist die 8600GT auch eine super "Preis-Leistungs-Karte"? ;)

AnarchX
2007-06-23, 18:46:50
Ich würde bei einer Karte für 100€ nicht mehr von "Preis-Leistung" reden.
Wieso? Imo ein Preissegment, was doch sehr gefragt ist, wenn man sich die Valve Survey anschaut.


Es wird einem Grund haben, warum AMD eine HD2600XT für 100€ anbietet.
Natürlich, aber dank 65nm und niedrigem Verbrauch wird es ATi sicherlich auch nicht sehr weh tun.


Oder ist die 8600GT auch eine super "Preis-Leistungs-Karte"? ;)
Wäre der VRAM-Bug und die Verschleuderung des RV570 seitens ATi nicht, imo durchaus.

Naja, im Endeffekt kann man nur hoffen, dass durch den Launch der kleinen ATi-Karten endlich die Preise ins Rollen kommen und sich auf angemessenes Niveau bewegen und somit Platz machen für "richtige" Midrange-Karten. :wink:

LovesuckZ
2007-06-23, 18:52:45
Wieso? Imo ein Preissegment, was doch sehr gefragt ist, wenn man sich die Valve Survey anschaut.

Steht dort, dass die Leute sich nur 100€ Karten kaufen wollen? ;)


Natürlich, aber dank 65nm und niedrigem Verbrauch wird es ATi sicherlich auch nicht sehr weh tun.

Es wird AMD wehtun, da sie die Karten für mehr verkauft hätten wollen. Sie haben zwischen 100€ und 399€ keine wirtschaftliche gut aufgestellte Produktpalette.


Naja, im Endeffekt kann man nur hoffen, dass durch den Launch der kleinen ATi-Karten endlich die Preise ins Rollen kommen und sich auf angemessenes Niveau bewegen und somit Platz machen für "richtige" Midrange-Karten. :wink:

DAS sind die "richtigen" Midrange-Karten. Anscheinend ist selbst der G84 für AMD eine Überraschung gewesen, da sie sonst die 2600XT nicht auf dem preislichen Niveau der 8600GT ansiedeln.

reunion
2007-06-23, 19:05:38
Steht dort, dass die Leute sich nur 100€ Karten kaufen wollen? ;)


Wenn man sich die Verteilung ansieht, könnte man durchaus zu dem Schluss kommen, dass ein Großteil nicht mehr als 100€ ausgeben will.


Es wird AMD wehtun, da sie die Karten für mehr verkauft hätten wollen. Sie haben zwischen 100€ und 399€ keine wirtschaftliche gut aufgestellte Produktpalette.


Na dann muss ja nV mit dem G84 erhebliche Verluste einfahren. Immerhin hat eine 8600GT auch 700MHz GDDR3 genau wie die 2600XT GDDR3 Version und das Die ist größer.


DAS sind die "richtigen" Midrange-Karten. Anscheinend ist selbst der G84 für AMD eine Überraschung gewesen, da sie sonst die 2600XT nicht auf dem preislichen Niveau der 8600GT ansiedeln.

Das ist nicht das Topmodell, da es auch noch eine GDDR4 Karte mit 1.1Ghz Speichertakt geben wird plus 512MB VRAM.

LovesuckZ
2007-06-23, 19:09:39
Wenn man sich die Verteilung ansieht, könnte man durchaus zu dem Schluss kommen, dass ein Großteil nicht mehr als 100€ ausgeben will.

Ich wette, dass viele Leute sich eher einen neuem KomplettPC kaufen als eine neue Grafikkarte.


Na dann muss ja nV mit dem G84 erhebliche Verluste einfahren. Immerhin hat eine 8600GT auch 700MHz GDDR3 genau wie die 2600XT GDDR3 Version und das Die ist größer.

Oh, es gibt noch eine 50% teurer GTS Version, dazu kommt noch die Frage nach funktionsfähigen Chips und Ausbeute. Nur weil AMD einem kleineren Fertigungsprozeß verwenden, muss die Fertigung am Anfang nicht billiger sein.


Das ist nicht das Topmodell, da es auch noch eine GDDR4 Karte mit 1.1Ghz Speichertakt geben wird plus 512MB VRAM.

So wie bei deer 2900XT?

reunion
2007-06-23, 19:18:35
Ich wette, dass viele Leute sich eher einen neuem KomplettPC kaufen als eine neue Grafikkarte.


Kommt aufs gleiche hinaus. Auch dort ist der Markt <100€ alles andere als klein.


Oh, es gibt noch eine 50% teurer GTS Version,


Was hat das mit der GT zu tun? Oder glaubst du man macht nur mit der GTS Gewinn und die GT wird mit Verlust verkauft?


dazu kommt noch die Frage nach funktionsfähigen Chips und Ausbeite.


Bei der GT werden voll funktionsfähige Chips verwendet. Die Yields werden zu beginn möglicherweise schlechter sein, aber das ist nur eine Frage der Zeit.


So wie bei deer 2900XT?

Dein Galgenhumor wird daran auch nichts ändern. Die Karte wurde von AMD bereits offiziell vorgestellt.

LovesuckZ
2007-06-23, 19:24:56
Was hat das mit der GT zu tun? Oder glaubst du man macht nur mit der GTS Gewinn und die GT wird mit Verlust verkauft?

Mehr Produkte erlauben eine bessere Aufstellung. So kann der geringere Gewinn der niedrigeingestuften Produkte durch die höhreren ausgeglichen werden.

Bei der GT werden voll funktionsfähige Chips verwendet. Die Yields werden zu beginn möglicherweise schlechter sein, aber das ist nur eine Frage der Zeit.

8500GT.
Zur Zeit sehe ich keine gleichaufgestellte Produktpalette bei AMD. Und bei einem Preis von 100€ für die 2600XT macht eine 2600pro oder aber die 2400XT Karten kaum einen Sinn.

AnarchX
2007-06-23, 20:05:38
Update: Die 2600XT bei PConline, war wie so mancher vermutet hatte, wohl doch nur eine 2600Pro, die im "2600XT-Pelz" daherkam und somit von PConline falsch erkannt wurde.

-> http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5610208#post5610208

LovesuckZ
2007-06-23, 20:09:03
Das ändert trotzdem nichts daran, dass die 2600XT nur 8600GT Niveau sein wird - mit den eingerechneten 33% Mehrleistung beim pconline "Review".

reunion
2007-06-23, 20:25:58
Das ändert trotzdem nichts daran, dass die 2600XT nur 8600GT Niveau sein wird - mit den eingerechneten 33% Mehrleistung beim pconline "Review".

Mit den eingerechneten 33% Mehrleistung beim pconline "Review" schlägt sie hin und wieder sogar die GTS. Diese ist ja auch nicht wirklich weit weg von der GT - 20% wenns gut geht. Dann kommt noch eine GDDR4 Version, und die Treiber dürften sich im Vergleich zu damals auch noch verbessern haben bzw. weiter verbessern. Dazu der sehr konkurrenzfähige Preis. Ein Fiasko wie bei R600 ist hier wohl nicht zu erwarten.

LovesuckZ
2007-06-23, 20:29:17
Der konkurrenzfähige Preis bezieht sich nur auf die GDDR3 Version, die soll für 100€ angeboten werden. Und sie ist eben nur GT Niveau.
Und die Version mit GDDR4 wird kaum einem großen Unterschied ausmachen, da es den Karten nicht an Speicherbandbreite mangelt.

reunion
2007-06-23, 20:49:46
Der konkurrenzfähige Preis bezieht sich nur auf die GDDR3 Version, die soll für 100€ angeboten werden. Und sie ist eben nur GT Niveau.
Und die Version mit GDDR4 wird kaum einem großen Unterschied ausmachen, da es den Karten nicht an Speicherbandbreite mangelt.

Die Karte hat bei 54% der TEX-Leistung eines R600 bei gerademal ~1/5 der Bandbreite. Und die GDDR4 Version der HD2600XT hat satte ~58% mehr Bandbreite als die GDDR3 Version. Ich glaube nicht dass das für die Katz ist. Sonst würde es diese Version auch gar nicht geben.

Trice1001
2007-06-23, 20:56:34
HD 2600 XT für unter 100€ bei Geizhals gelistet
http://www.computerbase.de/forum/showthread.php?t=297343



GEILGEILGEIL!!!


WOW der Preis ist ja der hammer :eek:

Abwarten ich würde nur noch gerne wissen ob sie es mit der 8600GT(S) aufnehmen kann.

/edit

Und wo kann man was zur GDDR4 version sehen?

Gast
2007-06-23, 21:13:13
Nicht schlecht, ist Crossfire damit ohne Probleme möglich?

ATI hat ja sonst nix in der DX10 200€ Klasse.

Gast
2007-06-23, 21:15:28
Crossfire ist problemlos möglich.

Aber es soll ja auch solche Karten geben: http://www.hardware-aktuell.com/viewnews.php?article=429
Diese hole ich mir dann vielleicht für 200 €!

AnarchX
2007-06-23, 21:17:11
Sind aber halt nur effektive ~256MB, die für diese GPU-Leistung dann imo zu wenig sind, und das Handling von CF ist weiterhin auf einem bescheidenen Niveau.

Aber es soll ja auch solche Karten geben: http://www.hardware-aktuell.com/view...hp?article=429
Diese hole ich mir dann vielleicht für 200 €!

200€? :lol:
Daraus wird wohl eher nix, da ATi immernoch keine eigene PCIe-Bridge anbietet und man deshalb eine von einem anderen Hersteller einkaufen muss, die mal eben $130 (http://www.mouser.com/search/ProductDetail.aspx?R=PEX8532-BB25BI_Gvirtualkey58310000virtualkey862-PEX8532-BB25BI-G) kostet und somit die Dualkarten auch in dieser Generation weiterhin wohl den Status teueres Sammlerobjekt behalten werden.

Gast
2007-06-23, 21:18:49
Naja, Hauptsache sparsam und ausreichend schnell... ;)

Bei den Dual Karten habe ich leider die Befürchtung, das sie wieder ultrateuer werden... diese 2x 1950 Pro karte kostete >300€.

reunion
2007-06-23, 21:27:52
Daraus wird wohl eher nix, da ATi immernoch keine eigene PCIe-Bridge anbietet und man deshalb eine von einem anderen Hersteller einkaufen muss, die mal eben $130 (http://www.mouser.com/search/ProductDetail.aspx?R=PEX8532-BB25BI_Gvirtualkey58310000virtualkey862-PEX8532-BB25BI-G) kostet und somit die Dualkarten auch in dieser Generation weiterhin wohl den Status teueres Sammlerobjekt behalten werden.

130$ halte ich für arg übertreiben, sonst wäre eine Dual X1950pro erheblich teurer.

ATI hat ja sonst nix in der DX10 200€ Klasse.

Die GDDR4 Version mit 512MB VRAM dürfte nicht so weit weg sein von den 200€. Immerhin soll schon die 512MB GDDR3 Version 149€ kosten, als 50€ Aufpreis für den doppelten Speicher.

Gast
2007-06-23, 21:37:00
Die GDDR4 Version mit 512MB VRAM dürfte nicht so weit weg sein von den 200€. Immerhin soll schon die 512MB GDDR3 Version 149€ kosten, als 50€ Aufpreis für den doppelten Speicher.

Wäre mit zu teuer. Für 180€ gibts noch eine vollwertige X1950XT 512MB.

Und bei zwei dieser Karten bin ich dann schon wieder bei 300€, kann also gleich eine 2900XT nehmen.

Die Angebote sind bis jetzt alle mist! Entweder Low-End oder High End. Dazwischen ist nix brauchbares vorhanden.

reunion
2007-06-23, 21:38:53
Wäre mit zu teuer. Für 180€ gibts noch eine vollwertige X1950XT 512MB.

Und bei zwei dieser Karten bin ich dann schon wieder bei 300€, kann also gleich eine 2900XT nehmen.

Die Angebote sind bis jetzt alle mist! Entweder Low-End oder High End. Dazwischen ist nix brauchbares vorhanden.

Die XT mit dem gleichschnellen Chip und 256MB GDDR3 bekommst du dafür schon für 99€.

Gast
2007-06-23, 21:41:37
Die XT mit dem gleichschnellen Chip und 256MB GDDR3 bekommst du dafür schon für 99€.

Jo, deutlich langsamer oder mit verminderter Qualität.

Außerdem wird die 2600XT selbst mit GDDR4 wahrscheinlich nicht deutlich besser sein, deshalb uninteressant für mich.

AnarchX
2007-06-23, 21:42:26
Wer ein passendes Board (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=364716&highlight=Quad+CF) hat, kann sich ja auch ein Tripple-CF bauen, was auf dem Papier selbst im Vergleich zur HD 2900XT nicht so schlecht aussieht. :biggrin:

Gast
2007-06-23, 21:46:43
Wenn eine Karte unter 100 € kostet, werden 2 Karten sicherlich auch nur 200 € kosten.

StefanV
2007-06-23, 21:47:38
Wer ein passendes Board (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=364716&highlight=Quad+CF) hat, kann sich ja auch ein Tripple-CF bauen, was auf dem Papier selbst im Vergleich zur HD 2900XT nicht so schlecht aussieht. :biggrin:
Ich hab ein passendes Board (gut, sogar 2, prinzipiell), wer schenkt mir 3 2600 XTs? :devil:

Wie dem auch sei, die 2600XT mit GDDR4 schaut äußerst interessant aus, pi mal Daumen dürfts mit der x1950 PRO konkurieren, ev. sogar noch etwas schneller sein.

Naja, schaun 'mer mal...

SavageX
2007-06-23, 22:21:29
200€? :lol:
Daraus wird wohl eher nix, da ATi immernoch keine eigene PCIe-Bridge anbietet und man deshalb eine von einem anderen Hersteller einkaufen muss, die mal eben $130 (http://www.mouser.com/search/ProductDetail.aspx?R=PEX8532-BB25BI_Gvirtualkey58310000virtualkey862-PEX8532-BB25BI-G) kostet und somit die Dualkarten auch in dieser Generation weiterhin wohl den Status teueres Sammlerobjekt behalten werden.

Bei diesem Laden kosten die $134,40 pro Stück bei einer Abnahme von 24 Stück. Elektronikapotheke ;)

Bei einer Abnahme größerer Mengen direkt vom Hersteller kann das ganze schon gaaaaanz anders aussehen. AMD kann die Bridge ja direkt mit zwei GPUs an die GraKa-Hersteller ausliefern. Ist ja nicht gerade ein Monsterchip, dessen Herstellungskosten die Ökonomie kleinerer Schurkenstaaten in die Knie zwingen könnte.

deekey777
2007-06-23, 22:36:52
Ich frag mich, warum AMD es immernoch nicht hingekriegt hat, einen eigenen Chip für Dualchips-Grafikkarten zu entwickeln. NV hat es ja irgendwie hingekriegt.

Trice1001
2007-06-23, 22:56:16
Ich hab ein passendes Board (gut, sogar 2, prinzipiell), wer schenkt mir 3 2600 XTs? :devil:

Wie dem auch sei, die 2600XT mit GDDR4 schaut äußerst interessant aus, pi mal Daumen dürfts mit der x1950 PRO konkurieren, ev. sogar noch etwas schneller sein.

Naja, schaun 'mer mal...


Na hoffen wird es mal es Währe dann eine Sehr interesante karte für mich aber mehr als warten Können wir nicht.

Denke in 2 wochen wissen wir mehr.

=Floi=
2007-06-24, 03:28:13
wann kommen dnen die karten?

Gast
2007-06-24, 09:13:49
Ich frag mich, warum AMD es immernoch nicht hingekriegt hat, einen eigenen Chip für Dualchips-Grafikkarten zu entwickeln. NV hat es ja irgendwie hingekriegt.Naja, irgendwie habe ich das Gefühl, dass Multi-GPU-Lösungen bei ATI keine sonderlich hohe Priorität haben. Das sieht man ja auch am normalen Crossfire.

Roi Danton
2007-06-24, 11:21:48
Weiteres Angebot bei Geizhals (http://geizhals.at/deutschland/?cat=gra16_256&bpmax=&asuch=2600&sort=p). Die 2600XT GDDR3 256MB wird sich wohl im Bereich von 100-120€ ansiedeln (Palit und Sapphire sind ja günstiger als Asus & Co), ähnlich dem, der in den 3DC News anhand von Ciao vermutet wurde.

Gast
2007-06-24, 11:31:01
Entweder hängt die Karte doch sehr an ihrer Bandbreite oder der Treiber war nicht wirklich optimal:
An der Bandbreite kann es nicht liegen - man sieht ja an der 8600 GTS, welche sogar über etwas weniger Bandbreite verfügt, dass diese auch für höhere Leistung reicht.

Wenn, dann liegt es daran, wie die Bandbreite genutzt wird (MSAA-Resolve in den Shadern).


Q

reunion
2007-06-24, 11:42:43
An der Bandbreite kann es nicht liegen - man sieht ja an der 8600 GTS, welche sogar über etwas weniger Bandbreite verfügt, dass diese auch für höhere Leistung reicht.

Wenn, dann liegt es daran, wie die Bandbreite genutzt wird (MSAA-Resolve in den Shadern).


Q

Es lag ohnehin daran, dass es nur eine PRO war, obwohl mache eine XT mit 700Mhz GDDR3 vermuteten.

Gast
2007-06-24, 11:44:26
Es lag ohnehin daran, dass es nur eine PRO war.
Ja, hab auch eben mitbekommen, dass der Post, auf den ich geantwortet habe, schon ziemlich alt war. Die Aussage zur Bandbreite bleibt trotzdem gültig: ~1Ghz/128Bit reichen mindestens für die Leistung der 8600 GTS - wenn nicht noch mehr.

Daraus würde ich der HD2600 Pro/XT kein Bandbreitenlimit zudichten wollen.


Q

Schlammsau
2007-06-24, 11:49:30
was mich wundert, die karte kommt in den nächsten tagen auf den markt, und doch gibt es noch keine brauchbaren benchmarks.....
.....wenn diese passen und der stromverbrauch auch noch gering ist, wär die XT fast ein grund von nvidia auf ati zu wechseln! :)
ich bin gespannt.

Gast
2007-06-24, 12:02:06
was mich wundert, die karte kommt in den nächsten tagen auf den markt, und doch gibt es noch keine brauchbaren benchmarks.....
.....wenn diese passen und der stromverbrauch auch noch gering ist, wär die XT fast ein grund von nvidia auf ati zu wechseln! :)
ich bin gespannt.
AMD gibt ja 45 Watt TDP an und sieht keinen PCIe-Power-Connector vor im Gegensatz zu Nvidias 8600 GTS (TDP: 71 Watt [oder 73, erinnere mich grad nicht genau).


Q

seahawk
2007-06-24, 15:33:32
Wenn ma nach FPS/Watt geht dürfte die XT unschlagbar sein.

Gast
2007-06-24, 19:31:40
Wenn ma nach FPS/Watt geht dürfte die XT unschlagbar sein.

Ein Stromanschluss sagt nicht aus, dass die Karten mehr verbrauchen müssen.

Gast
2007-06-24, 19:36:14
Eine nVidia 8600GTS verbraucht:

idle 2D: ~21W
max 2D: ~30W
max 3D: ~47W

http://www.xbitlabs.com/articles/video/display/geforce8600gts_7.html#sect0

SavageX
2007-06-24, 19:38:44
Ein Stromanschluss sagt nicht aus, dass die Karten mehr verbrauchen müssen.

Na, aber die Erfahrung zeigt doch, dass damit üblicherweise Karten ausgestattet werden, die jenseits der 60 Watt liegen (beziehungsweise theoretisch liegen könnten).

Gast
2007-06-24, 19:40:42
Siehe die Messungen bei X-Bit Labs. 47W maximal. Von Gigabyte gibt es passive 8600er ohne den zusätzlichen Anschluss.

SavageX
2007-06-24, 19:48:36
Siehe die Messungen bei X-Bit Labs. 47W maximal. Von Gigabyte gibt es passive 8600er ohne den zusätzlichen Anschluss.

Nvidia gibt für den Chip eine TDP von ~71 Watt. Dementsprechend muss die Schaltung und die Kühlung ausgelegt sein.

Natürlich schön, wenn die Karten in der Praxis oft weniger verbrauchen. Aber das schwankt von Karte zu Karte und von Anwendung zu Anwendung.

Gast
2007-06-24, 19:49:22
Link zur offiziellen nVidia TDP Angabe?

reunion
2007-06-24, 19:56:22
Link zur offiziellen nVidia TDP Angabe?

Nvidia gibt eine TDP von 71W an, das kannst du bei praktisch jeden Review lesen, ja selbst bei geizhals.at wird das gekennzeichnet.

SavageX
2007-06-24, 19:57:07
Link zur offiziellen nVidia TDP Angabe?

Mir reicht die entsprechende Angabe in der c't (ja ja, auch wenn 3D Hardware nicht gerade deren Schwerpunkt ist: Solche Angaben abzuschreiben kriegen sie üblicherweise gut hin) und die Resultate, die http://www.google.com/search?q=geforce+8600+gts+71+watt so bringt.

Auf der Nvidia Seite habe ich auf die Schnelle nichts gefunden, was für Normalsterbliche erreichbar ist.

Gast
2007-06-24, 19:59:03
Möglicherweise eine falsche/veraltete Angabe. Alleine von der Grösse des Kühlers und dessen Verhalten ist der niemals in der Lage >70W wegzuschaufeln. Insofern verlasse ich mich da lieber auf konkrete Messungen und auf die Tatsache dass Hersteller den Zusatz-Stromanschluss auch weglassen.

Gast
2007-06-24, 20:00:47
Nvidia gibt für den Chip eine TDP von ~71 Watt. Dementsprechend muss die Schaltung und die Kühlung ausgelegt sein.


Nur weil nVidia etwas angibt, muss dies nicht bedeuten, dass diese Karten das auch verbrauchen.
Die 8600GTS verbrauch genauso viel Strom (in einigen Tests sogar weniger) als die X1650XT. Und die hat keinem weiteren Stromanschluss.

Gast
2007-06-24, 20:01:16
[QUOTE=SavageX;5612830]Nvidia gibt für den Chip eine TDP von ~71 Watt. [\QUOTE]
Für die Karte, nicht den Chip.

SavageX
2007-06-24, 20:07:09
Möglicherweise eine falsche/veraltete Angabe. Alleine von der Grösse des Kühlers und dessen Verhalten ist der niemals in der Lage >70W wegzuschaufeln. Insofern verlasse ich mich da lieber auf konkrete Messungen und auf die Tatsache dass Hersteller den Zusatz-Stromanschluss auch weglassen.

71 Watt lassen sich ja auch über PCI-e anliefern. Das ist dann aber natürlich hart am Limit (75 Watt).

Gerade "konkrete Messungen" haben enormes Fehlerpotential. Man betrachtet ja nur eine Karte (oder zwei oder drei) und hofft, dass die aufgebrachte 3D-Last tatsächlich den Chip maximal beschäftigt. Nvidia hat da schon ganz andere Möglichkeiten, die Leistungsaufnahme im schlechtesten Fall abzuschätzen.

Wäre übrigens mal ganz lustig zu wissen, ob man heutige Nvidia Karten mit CUDA schonungsloser und maßgeschneidert auslasten kann, als dies eine willkürliche 3D-Anwendung tut.

SavageX
2007-06-24, 20:07:57
[QUOTE=SavageX;5612830]Nvidia gibt für den Chip eine TDP von ~71 Watt. [\QUOTE]
Für die Karte, nicht den Chip.

Von mir aus :)

(macht ja eigentlich auch mehr Sinn, danke für den Hinweis)

Gast
2007-06-24, 20:10:15
Es gibt inzwischen ja eine Menge Reviews. Und die zeigen alle dass Systeme mit 8600GTS in etwa soviel verbraten wie mit der alten 7900GS/GT Generation. Das sind pi*daumen eben die von X-Bit Labs gemessenen 45W-50W _maximal_. Sehr erfreulich. Irgendwelche TDP Angaben (von denen niemand weiss ob die aktuell sind oder längst veraltet, aus einer frühen Planungsphase) interessieren mich persönlich nicht, denn ich muss die Leistung zahlen die die Karte real verbraucht und muss die Abwärme loswerden die die Karte real produziert und nicht das, was auf irgendeinem Papier zweifelhafter Herkunft steht.

SavageX
2007-06-24, 20:16:07
Es gibt inzwischen ja eine Menge Reviews. Und die zeigen alle dass Systeme mit 8600GTS in etwa soviel verbraten wie mit der alten 7900GS/GT Generation. Das sind pi*daumen eben die von X-Bit Labs gemessenen 45W-50W _maximal_. Sehr erfreulich. Irgendwelche TDP Angaben (von denen niemand weiss ob die aktuell sind oder längst veraltet, aus einer frühen Planungsphase) interessieren mich persönlich nicht, denn ich muss die Leistung zahlen die die Karte real verbraucht und muss die Abwärme loswerden die die Karte real produziert und nicht das, was auf irgendeinem Papier zweifelhafter Herkunft steht.

Nvidia wird sich hüten, eine deutlich überhöhte TDP-Angabe zu machen. Das treibt nämlich nur die Kosten der Karten in die Höhe.

Und wie gesagt: Ich bezweifle, dass "3D Last" (was immer das auch sein mag) so eine Karte genauso auslastet wie ein maßgeschneiderter worst-case, der aber trotzdem berücksichtigt werden muss.

Gast
2007-06-24, 20:18:22
Wir können hier noch stundenlang diskutieren, das ändert nichts daran dass die Karten in der Praxis weit entfernt von den >70W sind die hier in den Raum gestellt werden. Du kannst alle Messungen bezweifeln und auch behaupten dass die Erde eine Scheibe ist, das ändert nichts an den Fakten.

SavageX
2007-06-24, 20:25:32
Wir können hier noch stundenlang diskutieren, das ändert nichts daran dass die Karten in der Praxis weit entfernt von den >70W sind die hier in den Raum gestellt werden. Du kannst alle Messungen bezweifeln und auch behaupten dass die Erde eine Scheibe ist, das ändert nichts an den Fakten.

Err... ich bezweifle doch gar nicht, dass die Karte in der Praxis oft - und auch gerne deutlich - unter der TDP bleibt.

Trotzdem muss für letztere entworfen werden - ist halt Fakt (das Wort lieben wir ja alle, gell?).

Gast
2007-06-24, 20:45:38
Wäre übrigens mal ganz lustig zu wissen, ob man heutige Nvidia Karten mit CUDA schonungsloser und maßgeschneidert auslasten kann, als dies eine willkürliche 3D-Anwendung tut.

kaum, TMUs, und ROPs werden mit CUDA so gut wie nichts zu tun haben, im gegensatz zu echten 3d-anwendungen.

DerKleineCrisu
2007-06-25, 02:14:53
.....und auch behaupten dass die Erde eine Scheibe ist, das ändert nichts an den Fakten.

Die Erde ist eine Scheibe, habe es nachgemessen ;D.

seahawk
2007-06-25, 07:10:23
NV gibt die TDP sogar eher niedrig an im Vergleich zu ATI, daher würde ich eher von 80W maximal ausgehen also beinahe 100% mehr als der R630.

Gast
2007-06-25, 07:12:41
Jo, eher 200% mehr. Oh Mann...

AnarchX
2007-06-25, 08:07:22
NV gibt die TDP sogar eher niedrig an im Vergleich zu ATI, daher würde ich eher von 80W maximal ausgehen also beinahe 100% mehr als der R630.

Beweise für diese gewagte These?

seahawk
2007-06-25, 08:55:00
Man muss sich nur die Werte für G80 und R600 ansehen. NV gibt einen "typical" Wert an, ATI einen absoluten Maximalwert.

Gast
2007-06-25, 08:59:36
Sind wir nicht bald bei 100W?

Gast
2007-06-25, 09:00:47
Nvidias gibt grundsätzlich nur Maximalwerte an, also die Werte, für die die Stromversorgung ausgelegt werden muss.

reunion
2007-06-25, 10:33:24
Mehr Preise: http://www.fudzilla.com/index.php?option=com_content&task=view&id=1603&Itemid=1

Gast
2007-06-25, 10:55:38
Man muss sich nur die Werte für G80 und R600 ansehen. NV gibt einen "typical" Wert an, ATI einen absoluten Maximalwert.Wieviel gibt Nvidia denn an und wieviel verbraucht der G80 wirklich? Der reale Verbrauch liegt auch beim G80 deutlich unter der TDP.

reunion
2007-06-25, 11:09:50
Wieviel gibt Nvidia denn an und wieviel verbraucht der G80 wirklich? Der reale Verbrauch liegt auch beim G80 deutlich unter der TDP.

NV gibt für eine 8800Ultra 175W an, AMD für eine 2900XT 215W, tatsächlich liegt die 8800U eher über der 2900XT.

Crazy_Chris
2007-06-25, 11:23:18
NV gibt für eine 8800Ultra 175W an, AMD für eine 2900XT 215W, tatsächlich liegt die 8800U eher über der 2900XT.

ähh nö :P

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/35/#abschnitt_stromverbrauch

AnarchX
2007-06-25, 11:25:43
NV gibt für eine 8800Ultra 175W an, AMD für eine 2900XT 215W, tatsächlich liegt die 8800U eher über der 2900XT.

In einem Szenario, welches wohl nicht dem Worst-Case-Szenario entspricht, auf welches sich beide IHVs wohl bei ihren Maximalangaben beziehen.

Aber es ging ja eher darum, dass seahawk behauptet hat, dass die NV-Karten mehr verbrauchen als das was NV angibt, was aber eher Unsinn ist, wenn man sich die Differenz zwischen realer Verbrauch und TDP ansieht.

btw.
Wo gibt es denn den Verbrauchvergleich zwischen Ultra und XT, bei xbitlabs hab ich nichts gefunden? (CB sagt übrigens Vebrauch: XT > Ultra (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/35/#abschnitt_stromverbrauch) (ja Gesamtsystem, aber das ist ja das was man am Ende bezahlen muss ;)))

seahawk
2007-06-25, 11:26:01
Unbrauchbare Messung, da das Gesamtsystem gemessen wird.