PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD2600XT Dual ... ein Flop :(


Die gelbe Eule
2007-09-13, 17:00:30
http://www.hardspell.com/english/doc/showcont.asp?news_id=1413&pageid=1730

http://www.hardspell.com/pic/article/2007/9/13/19324f95-419d-4a40-a2c5-1e9cddedc88a.jpg

Traurig das eine einzelne HD2600XT GDDR4 schneller ist als diese Dual Karte. Treiberprobleme oder was ist hier kaputt?

AnarchX
2007-09-13, 17:05:35
Die "2600XT Dual" beziehen sich doch auf den Single-GPU-Betrieb, "2600XT Dual CF" sind dann erst die Werte wo beide GPUs arbeiten und die sehen doch nicht schlecht aus.
Mir wäre jedenfalls nicht bekannt, dass irgendein Cat. schon Quad-CF unterstützt.

Aber die Sapphire Gemini 2600 ist imo doch viel zu groß, das hat GeCube besser hinbekommen:
http://www.gecube.com/cms_file.php?id=2949
... die aber wiederum nur GDDR2 verbaut haben. :rolleyes:

Die gelbe Eule
2007-09-13, 17:34:50
Bist Dir da sicher? Wäre mir neu wenn man einen Chip ausschalten könnte ...

reunion
2007-09-13, 17:39:03
Natürlich, dazu braucht man doch nur CF deaktivieren.

AnarchX
2007-09-13, 17:39:08
Bist Dir da sicher? Wäre mir neu wenn man einen Chip ausschalten könnte ...

Natürlich kann man im Treiber einstellen, ob man Crossfire möchte. Anders kann man ja auch die 4 DVIs gar nicht nutzen. ;)

dargo
2007-09-13, 18:07:41
Mal ne blöde Frage - wie ist es möglich, dass CF mehr als 1:1 skaliert? :|

http://www.hardspell.com/pic/article/2007/9/13/ad5bdac1-8fbd-40d8-8680-6d17700abf79.jpg

Und außerdem, warum zum Teufel bencht man Grafikkarten ohne AA/AF? :|
Und dann noch teilweise mit uralten Games. Die hätten gleich 640x480 nehmen sollen. :uclap:

Mr.Soapdown
2007-09-13, 18:41:48
Tja, warum wohl? Weil man dann wieder sieht das AMD/ATI Probleme beim Filtern hat?

SS2 ist sicher immer noch "relativ" grafikkartenfordernd, oder nicht?
Die 1024x768 hätten sie sich aber wirklich sparen können. Ich hätte gern was Übliches, wie ne echte 22"-auflösung gesehen.

AnarchX
2007-09-13, 18:46:27
Mal ne blöde Frage - wie ist es möglich, dass CF mehr als 1:1 skaliert? :|

Die Skalierung von einer auf zwei GPUs ist doch nicht mehr als 1:1 bei der Sapphire.
Die GDDR4-Version verhält sich nur anders, was man auch teilweise an der GDDR4 2900XT gesehen hat, vielleicht liegt es an einem Problem am MC bzw. den schlechteren Latenzen von GDDR4.

dargo
2007-09-13, 19:05:45
Tja, warum wohl? Weil man dann wieder sieht das AMD/ATI Probleme beim Filtern hat?

Ok, daran habe ich jetzt nicht gedacht. Aber müssen deswegen Tester darauf Rücksicht nehmen? Finde ich einfach nur lächerlich. Es ging mir aber eher darum höhere Graka-Last zu erzeugen. Von mir aus dann halt durch höhere Auflösung. Wenn man schon ohne AA/AF testet dann bitte aber bis 1920x1200. Wenn ich schon bei Graka-Tests Frames um die 100fps und mehr sehe wird mir ganz übel. In diesen Bereichen bewegt man sich schon wieder am CPU-Limit.


SS2 ist sicher immer noch "relativ" grafikkartenfordernd, oder nicht?

Wenn eine Dual XT 128fps erreicht... nicht wirklich. :cool:

Die Skalierung von einer auf zwei GPUs ist doch nicht mehr als 1:1 bei der GeCube.

Also, ich sehe da 60 vs. 128fps. Oder interpretiere ich hier was falsch?

reunion
2007-09-13, 19:21:06
Also, ich sehe da 60 vs. 128fps. Oder interpretiere ich hier was falsch?


AnarchX hat es ja schon erklärt, kann doch nicht so schwer sein. Du musst die "HD2600XT Dual" mit der HD 2600XT Dual CF" vergleichen.

dargo
2007-09-13, 19:26:47
Warum sollte ich das? Ich vergleiche, wenn schon Single-GPU vs. Dual-GPU. Oder ist die Single-GPU/Graka anders getaktet?

AnarchX
2007-09-13, 19:29:37
Warum sollte ich das? Ich vergleiche, wenn schon Single-GPU vs. Dual-GPU. Oder ist die Single-GPU/Graka anders getaktet?

PConline hat da Mist mit der Bezeichnung gemacht: 2600XT Dual ist die Dual-Sapphire bei der nur eine GPU aktiv ist. ;)

reunion
2007-09-13, 19:29:46
"HD2600XT Dual" ist Single-GPU, bei "HD2600XT Dual CF" wird eben dann CF eingeschaltet. Die GDDR4 XT ist natürlich höher getaktet und scheint wohl Probleme mit der Latenz des GDDR4 zu haben.

dargo
2007-09-13, 19:32:09
Die GDDR4 XT ist natürlich höher getaktet und scheint wohl Probleme mit der Latenz des GDDR4 zu haben.
Ok, das erklärt einiges.

][immy
2007-09-14, 09:04:20
Und außerdem, warum zum Teufel bencht man Grafikkarten ohne AA/AF? :|

wahrscheinlich weil es sich nicht um eine High-end karte handelt.


Und dann noch teilweise mit uralten Games. Die hätten gleich 640x480 nehmen sollen. :uclap:

gleiche argument, das es sich nicht um eine high-end karte handelt und auflösung jeseits von 1280 wohl nur sehr selten auf diesen karten gefahren werden. da dürfte die speicherbandbreite bei aktuellen spielen auch viel zu niedrig sein. (auch für AA & AF)

mich würde eher mal ein benchmark interessieren gegen die letzten generartionen von high-end karten x19x0 XT und x1800 xt

dargo
2007-09-14, 13:21:24
[immy;5842223']wahrscheinlich weil es sich nicht um eine High-end karte handelt.

Ja, und? So low-end sind die nun auch nicht wenn sie in Bereiche von 100fps und mehr vordringen. ;)

DerKleineCrisu
2007-09-15, 17:06:15
also ich weiss nicht bei dem preis ich zahle doch nicht ca. 260 € für die Graka.

wenn sie um die 180 - 200 € kosten würde währe es ne überlegung wert aba so nee danke...

Gast
2007-09-15, 17:43:23
Die "2600XT Dual" beziehen sich doch auf den Single-GPU-Betrieb, "2600XT Dual CF" sind dann erst die Werte wo beide GPUs arbeiten und die sehen doch nicht schlecht aus.
Und wie kommt es dann, dass die 2600 XT "Dual" im angeblichen Single-Modus schneller ist, als eine GDDR4-2600-XT?

Taktrate: "Sapphire HD 2600XT Dual (800/1600)" - also entsprechend der GDDR3-Version.

AnarchX
2007-09-15, 17:46:11
Und wie kommt es dann, dass die 2600 XT "Dual" im angeblichen Single-Modus schneller ist, als eine GDDR4-2600-XT?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5840819&postcount=8

dargo
2007-09-15, 18:17:02
also ich weiss nicht bei dem preis ich zahle doch nicht ca. 260 € für die Graka.

wenn sie um die 180 - 200 € kosten würde währe es ne überlegung wert aba so nee danke...
Es steht doch schon da, dass es keine 260€ sein werden. Das wäre auch viel zu hoch für diese Karte. Leute, bedenkt immer, dass sich der Preis nach jedem Launch erstmal 4-6 Wochen stabilisieren muss. :)

Gast
2007-09-15, 18:28:14
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5840819&postcount=8
Deute ich den Link jetzt so richtig?

Du willst mir sagen, dass eine Karte mit 1.100 MHz GDDR4 langsamer ist als eine mit 800 MHz GDDR3 nur wegen der Latenzen? Meinst du, AMD ist so dämlich??

DerKleineCrisu
2007-09-16, 04:11:21
Es steht doch schon da, dass es keine 260€ sein werden. Das wäre auch viel zu hoch für diese Karte. Leute, bedenkt immer, dass sich der Preis nach jedem Launch erstmal 4-6 Wochen stabilisieren muss. :)

Na geizhals sagt da zumindest bis jetzt mal was anderes:

http://geizhals.at/deutschland/a278255.html


grüße

Grisu

dargo
2007-09-16, 12:01:10
Na geizhals sagt da zumindest bis jetzt mal was anderes:

http://geizhals.at/deutschland/a278255.html


grüße

Grisu
Ach verdammt, ich habe den Thread verwechselt. Ich ging hier von der HD2900Pro aus. X-D
Ändert aber nichts an der Tatsache, dass Launchpreise immer überzogen sind. Schau dir nur mal den Termin an - 8.10.2007. Mitte November bis Anfang Dezember können wir nochmal darüber reden.

Mal davon abgesehen - macht es überhaupt noch Sinn diese Karte zu kaufen wenn es eine HD2900Pro bald höchstwahrscheinlich unter 200€ gibt? Ich kann die Leistung der HD2600XT Dual schlecht im Vergleich einordnen.

Gast
2007-09-16, 13:58:45
Macht es überhaupt einen Sinn eine Graka zu kaufen die mehr als 100W verballert? Für mich nicht.

Grivel
2007-09-16, 18:38:36
Macht es überhaupt einen Sinn eine Graka zu kaufen die mehr als 100W verballert? Für mich nicht.
meistens haben die Leute auch dafür das Kleingeld wenn sie sich luxus oder Highend Karten jedes halbe Jahr erneurt reinstecken könnnen

für mich ergibts auch kein sinn und seit der Voodoo 5 5500 ist mir keine Dual Karte mehr ins Haus gekommen, finds nur noch schrott mit 2chips bei 3DFX wars ja noch gut aberj etzt isses ja sinnlos...(ist ja net highend bereich..)

SavageX
2007-09-16, 19:38:26
schrott mit 2chips bei 3DFX wars ja noch gut aberj etzt isses ja sinnlos...(ist ja net highend bereich..)

Ich stelle mich mal auf eine Kiste und verkünde, dass das ganz darauf ankommt, welche Leistung für welchen Preis dabei rausspringt. Vielen Kunden dürfte es herzlich egal sein, ob da nun ein Chip, zwei Chips oder eine Kolonie kleiner Flöhe draufsitzt.

Ob die 2600XT Dual jetzt ein gutes Verhältnis von Preis zu Leistung hat... keine Ahnung.

The_Invisible
2007-09-16, 19:44:09
Macht es überhaupt einen Sinn eine Graka zu kaufen die mehr als 100W verballert? Für mich nicht.

macht es sinn ein auto mit über 100ps zu kaufen?

solche fragen kann man auf jeglichem gebiet anwenden. manche wollen halt leistung, ob man sie nun auch wirklich braucht oder auch nur damit angeben will bleibt jedem selber überlassen.

mfg

AnarchX
2007-09-16, 20:04:17
AMD hat schon merkwürdige Vorstellungen:
http://directupload.com/showoriginal-5838.jpg

Da man immernoch keinen eigene PCIe-Bridge entworfen hat und auch den AIBs kein vernünftiges Referenz-PCB gegeben hat, wird wohl der Erfolg, obwohl die Leistung gar nichtmal schlecht aussieht, wohl ausbleiben bei den aktuellen und wohl auch bleibenden Preisen und der Größe z.B. der Sapphire.

dargo
2007-09-16, 20:11:31
Viel lustiger finde ich HD2900XT CF gegen G8800U. :D Da müsste dann eine HD2900XT ca. 260€ kosten. X-D
Vom Stromverbrauch reden wir dann lieber nicht.

Coda
2007-09-16, 20:31:10
Naja. Wenn's funktioniert ist HD2900XT CF ja auch schneller als ne Ultra, oder nicht?

Nicht das ich diesen Vergleich für sinnvoll halte, weil dann müssten sie rechts auch ganz oben noch 8800 Ultra SLI aufführen ;)

The_Invisible
2007-09-16, 21:53:56
diesmal scheint wohl AMD eine "geforce 7950" zu brauchen

mfg

AnarchX
2007-09-17, 13:04:21
2600 X2 von Powercolor (http://www.tcmagazine.com/comments.php?id=16080&catid=2)

http://www.tcmagazine.com/images/news/Hardware/PowerColor_Radeon_HD_2600_X2_01.jpg

Kleiner(?) als die GeCube und sogar GDDR3.

Naja, für einen Preis von maximal 160€ wäre soetwas durchaus interessant... ;)

BUG
2007-09-21, 15:15:40
..laut ComputerBase funzt die Sapphire X2 auch auf nForce Chipsätzen. :)

http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/september/radeon_hd_2600_xt_x2_nvidia-boards/

..auf der anderen Seite gabs Probleme i.v.m. dem Intel Chipsatz. :|

cu
BUG

AnarchX
2007-09-21, 15:18:25
Wohlmöglich Probleme mit der verbauten PCIe-Bridge?

StefanV
2007-09-21, 15:30:50
Womit denn sonst? ;)

Aber schon 'lustig', das es auf nForce Chips funzt...
Hat jemand schonmal Crossfire ohne Bridge auf 'nem nForce versucht, mit aktuellen Treibern??

AnarchX
2007-09-21, 15:38:01
Wäre interessant, immerhin wurde ja berichtet, dass ATi CF öffnen will. Wohlmöglich geschah das im Fall nForce heimlich. ;)

Aber skalieren scheint die 2600 X2 wirklich gut, nur dumm das sie deutlich zu teuer ist und in maximal 2 Monaten mit der 2950Pro eine Karte am Markt sein wird, die preislich und auch von der Leistung überlegen sein wird.

Noebbie
2007-09-21, 15:48:56
Die Karte weckt doch noch mal mein Interesse. Werde ich weiter verfolgen...

Leistung scheint recht ok. Mal noch genauere Benches abwarten!

StefanV
2007-09-21, 15:49:49
du vergisst einen GEWALTIGEN Vorteil dieser Karten.

Ich sags mal andersrum:
Nenne mir mal 'ne GraKa, die 4 Monitorausgänge hat und günstiger ist als die 2600X2? ;)

€dit:
Das Problem beim Intel könnten auch die 'Umschalter' sein, die ja 8 Lanes vom einen Slot zum anderen 'umleiten'...
Auf dem Gigabyte GA-MA69G-S3H ging im unteren Slot auch keine x1300 (hab keine andere PCie GraKa), im MSI K8N NEO gingen im offenen x4 Slot, trotz nur 2 Lanes, die GraKas.
Beim DFI ICFX3200 hab ich die x1300 nie in den unteren Slot gesteckt...

Gast
2007-09-21, 16:38:29
Warum sollte die Karte nicht auf einem Nforce laufen? Eine 7950GX2 läuft ja auch auf einem non-SLI-Boardmit SLi. oder nicht?

Coda
2007-09-21, 17:13:54
Weil sie keinen Bridge-Chip hat, d.h. der Slot muss sich in eigentlich 2 aufteilen. Das kann nicht jeder Chipsatz.

StefanV
2007-09-21, 17:17:34
Weil sie keinen Bridge-Chip hat, d.h. der Slot muss sich in eigentlich 2 aufteilen. Das kann nicht jeder Chipsatz.
Doch, sie hat eigentlich einen Bridgechip, das ist nicht das Problem...

Eher das man auf einen Fremdhersteller ausweicht und keine eigene Brücke im Programm hat, ist ein Problem, damit auch der Preis...

Hier ein BIld der Sapphire (http://www.pc-treiber.net/reviews/asrockuser/presse/amd/dual_hd2600/2.JPG), die Gecube hat aber auch einen, ist wesentlich kompakter...

AnarchX
2007-09-21, 17:18:46
Weil sie keinen Bridge-Chip hat, d.h. der Slot muss sich in eigentlich 2 aufteilen. Das kann nicht jeder Chipsatz.

Die Sapphire scheint aber einen zu haben, wie man am Bild ohne Kühler sieht -> Chip vor dem PEG-Connector (bestimmt wieder das teuere PLX-Teil).

StefanV
2007-09-21, 17:29:11
Alle haben dieses sau teure PLX Teil drauf, auch die Gecube, nur das die etwas kompakter ist als der Rest...

reunion
2007-09-21, 17:56:19
Die Sapphire scheint aber einen zu haben, wie man am Bild ohne Kühler sieht -> Chip vor dem PEG-Connector (bestimmt wieder das teuere PLX-Teil).

Eben, also was ist daran so besonders?

AnarchX
2007-09-21, 17:59:47
Eben, also was ist daran so besonders?

Nunja, bei den GeForce-Dual-Basteleien aus Asien fehlt soetwas desöfteren, wie z.B. zuletzt bei der Masterpiece 8600GT Dual.

StefanV
2007-09-21, 18:08:18
Nunja, bei den GeForce-Dual-Basteleien aus Asien fehlt soetwas desöfteren, wie z.B. zuletzt bei der Masterpiece 8600GT Dual.
oO
wie man hier sieht (http://www.pcpop.com/doc/0/212/212987.shtml), warum nutzt man nicht einfach die vorhandene SLI Bridge??

AnarchX
2007-09-21, 18:10:38
oO
wie man hier sieht (http://www.pcpop.com/doc/0/212/212987.shtml), warum nutzt man nicht einfach die vorhandene SLI Bridge??

Weil diese zum Lieferumfang des 79x0GX2-Kits gehört? ;)

DerKleineCrisu
2007-09-30, 18:59:51
bei computerbase sind testergebnisse nun vorhanden. sieht nicht gerade gut aus.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2


schade dachte es währe vieleicht ne gute " preisgünstige " karte.

falls die graka um die 180 € kosten würde währe sie vieleicht interesant.

laser114
2007-09-30, 20:16:21
Ne, preisgünstig ist auch das nicht wirklich.

Dürfte wohl die letzte Machbarkeitsstudie vor den Performance-Doppels gewesen sein. ;)
Umsonst wird da sicher kein Geld in richtung X1950 Pro Dual und HD 2600 XT Dual verpulvert.

up¦²
2007-11-13, 00:21:56
Review:
http://www.driverheaven.net/reviews/VisiontekQuad/

MadManniMan
2007-11-13, 06:12:49
...autsch! Die Karte sieht kein Land!

Aber ehrlich? Auch wenn ich momentan AMD jeden Stich wünsche, einer 2-Chip-Karte trauer ich kein Stück hinterher.