PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - HD 2600XT und Pro: (P)Review-Thread


Seiten : 1 2 [3]

Gast
2007-07-03, 21:52:45
Habe gerade gelesen das die HD 2600 erst Mitte des Monat lieferbar ist ;-(

http://www.hardware-aktuell.com/viewnews.php?article=487

up¦²
2007-07-05, 01:28:51
Habe gerade gelesen das die HD 2600 erst Mitte des Monat lieferbar ist ;-(

http://www.hardware-aktuell.com/viewnews.php?article=487
PowerColor Radeon HD 2600 XT, 256MB GDDR4, 2x DVI, TV-out, PCIe
http://geizhals.at/eu/a263569.html
Lagernd :wink:


The HD2400 and HD2600
http://www.bjorn3d.com/read.php?cID=1122&pageID=3612

Ferengie
2007-07-05, 03:29:38
Naja zumindest schon mal gelistet:
http://www.hardwareschotte.de/hardware/preise/proid_9060260/preis_GECUBE+Radeon+HD2600XT+GC-RX26XTGA3-D3

Gast
2007-07-05, 07:48:20
Die 512MB GDDR3 Version soll auch schon lieferbar sein, laut Geizhals.

up¦²
2007-07-06, 13:52:28
Nebenbei...
Inzwischen sind 35 Angebote gelistet! :smile:
http://geizhals.at/eu/?fs=2600&in=
einige sind sofort lieferbar!

Popeljoe
2007-07-06, 15:18:07
Das ist halt der Preis, den man für DX10 zahlt. Es ging viel zu viel Chipfläche für DX10 drauf und somit blieb für eine wesentliche Leistungsteigerung ggnü. der Vorgängergeneration kaum was übrig. Sinn machen da wirklich nur die beiden High-End Karten von ATi/nVidia.
Ist das wirklich so?
Mir gehts wie Easy Chiller: ich würde gerne Karte haben, welche eine gute 3D Leistung mit nem geringeren Stromverbrauch koppelt!
Aber was sich da so auftut ist ja nu wirklich nur mieser Mainstream Rotz für die "Mann, ich brauch DirX10" Fraktion... :udown:
Momentan läuft ne X1800Xt bei mir, aber ich würde gerne auf etwas Leistung verzichten und dafür die Stromrechnung kleiner gestalten!
Man, wenn S3 doch endlich mal nen vernünftigen Chip rechtzeitig raustun würde! ;(
P1

up¦²
2007-07-06, 15:40:02
Die 4er sollen ab dem 16.07.2007 kommen....

laser114
2007-07-06, 15:43:27
http://geizhals.at/eu/a264304.html

Sapphire 2600 XT GDDR4 ab 125 Euro sofort lieferbar.

http://geizhals.at/eu/a264107.html

Gecube 2600 XT GDDR4 ab 139,90 sofort.

Man sieht neben einigen grünen Lieferbarkeitsangaben auch relativ viele gelbe. Geht also schon los. ;)

Pirx
2007-07-06, 17:02:17
Ist das wirklich so?
Mir gehts wie Easy Chiller: ich würde gerne Karte haben, welche eine gute 3D Leistung mit nem geringeren Stromverbrauch koppelt!
Aber was sich da so auftut ist ja nu wirklich nur mieser Mainstream Rotz für die "Mann, ich brauch DirX10" Fraktion... :udown:
Momentan läuft ne X1800Xt bei mir, aber ich würde gerne auf etwas Leistung verzichten und dafür die Stromrechnung kleiner gestalten!
Man, wenn S3 doch endlich mal nen vernünftigen Chip rechtzeitig raustun würde! ;(
P1
So viel schlechter als ne X1950Pro ist die X2600XT ja nun auch wieder nicht (zur Zeit, kann ja noch besser werden) und wenig Strom "verbraucht" sie auch, also ist es doch ok? Ist bei mir jedenfalls mit im Fokus.

Endorphine
2007-07-06, 17:14:38
http://geizhals.at/eu/a264304.html

Sapphire 2600 XT GDDR4 ab 125 Euro sofort lieferbar.

http://geizhals.at/eu/a264107.html

Gecube 2600 XT GDDR4 ab 139,90 sofort.

Man sieht neben einigen grünen Lieferbarkeitsangaben auch relativ viele gelbe. Geht also schon los. ;) Das sind beides Karten mit nur 256 MB VRAM. Wenn man damit öfter als "seltenst" spielen möchte, würde ich die nicht kaufen, sondern 512 MB Versionen.

Mal als kleinen Anhaltspunkt: ich habe gerade mit Battlefield 2 (einem Spiel von 2005) rund 290 MB VRAM-Speicherverbauch gehabt, bei mittleren Details, 2x AA und einer in Zeiten von billigen 22" LCDs gängigen Auflösung von 1600x1200. Das ist natürlich nicht repräsentativ, aber der Speicherverbrauch wird bei neueren oder gar zukünftigen Spielen nicht geringer, sondern noch weiter wachsen.

Wenn die 2600XT mehr als eine Übergangskarte sein soll, würde ich sie nicht mit 256 MB kaufen. Da wird die GPU ja dann in der Praxis permanent durch zu wenig Speicher ausgebremst.

Mal zwei Alternativen:

512 MB 2600XT GDDR3: http://geizhals.at/eu/a265227.html

http://geizhals.at/img/pix/265227.jpg


passiv gekühlte 512 MB 2600XT GDDR3: http://geizhals.at/eu/a264134.html

http://geizhals.at/img/pix/264134.jpg

up¦²
2007-07-06, 17:49:57
...das grenzt ja an Betrug: höchster Listenpreis ist 217,92 :eek:
http://geizhals.at/eu/a264134.html

Eine 512MB GDDR4-Review wäre wirklich mal interessant, demnächst...

PS: totgesagte leben bekanntlich länger =)
Zack: wieder da - Aopen!
http://www.watch.impress.co.jp/akiba/hotline/20070707/image/nxia1.jpg

Gast
2007-07-06, 23:12:23
Das sind beides Karten mit nur 256 MB VRAM. Wenn man damit öfter als "seltenst" spielen möchte, würde ich die nicht kaufen, sondern 512 MB Versionen.

Mal als kleinen Anhaltspunkt: ich habe gerade mit Battlefield 2 (einem Spiel von 2005) rund 290 MB VRAM-Speicherverbauch gehabt, bei mittleren Details, 2x AA und einer in Zeiten von billigen 22" LCDs gängigen Auflösung von 1600x1200. Das ist natürlich nicht repräsentativ, aber der Speicherverbrauch wird bei neueren oder gar zukünftigen Spielen nicht geringer, sondern noch weiter wachsen.

Wenn die 2600XT mehr als eine Übergangskarte sein soll, würde ich sie nicht mit 256 MB kaufen. Da wird die GPU ja dann in der Praxis permanent durch zu wenig Speicher ausgebremst.

Mal zwei Alternativen:

512 MB 2600XT GDDR3: http://geizhals.at/eu/a265227.html

http://geizhals.at/img/pix/265227.jpg


passiv gekühlte 512 MB 2600XT GDDR3: http://geizhals.at/eu/a264134.html

http://geizhals.at/img/pix/264134.jpg


Der V-RAM "Verbrauch" hat noch nie wirklich gejuckt, und der aufpreis meist total unnutz

die G8x-serie ist da die grosse ausnahme, was wohl auf einen bug zurückzuführen ist!?!

Endorphine
2007-07-06, 23:25:01
Der V-RAM "Verbrauch" hat noch nie wirklich gejuckt Muss er auch nicht. Aber die GPU muss dann eben auf den weitaus langsameren GART-Systemhauptspeicher warten und sich zudem mit der CPU dann darum prügeln. Der Vorteil eines 3D-Beschleunigers ist ja unter anderem, dass die CPU und die Grafikkarte parallel arbeiten können, was nicht gegeben ist, wenn beide aus dem Hauptspeicher arbeiten. Zudem darf die GPU natürlich ggü. dem lokalen VRAM dann kräftig lange warten und das drückt die fps dann ebenso deutlich.

Das ist nicht schlimm, aber da verschenkst du dann sehr viel GPU-Leistung, die du teuer eingekauft hast. Du hast dann vielleicht 100 EUR zum Fenster rausgeworfen, weil am falschen Ende gespart wurde, wenn die 2600XT durch zu wenig RAM dauernd ausgebremst wird (und die CPU auch noch mit einbremst).

und der aufpreis meist total unnutz Ja, wenn der VRAM ausreicht. Aber 256 MB sind ja heutzutage nicht mal mehr genug für mittlere Detailstufe und minimal-AA bei einem 2 Jahre alten Spiel. Was sollen 256 MB-Karten da noch bei zukünftigen Spielen reißen? die G8x-serie ist da die grosse ausnahme, was wohl auf einen bug zurückzuführen ist!?! Auch eine Radeon wird stark ausgebremst, wenn sie dauernd Texturen etc. im Systemhauptspeicher verarbeiten muss.

up¦²
2007-07-07, 01:23:19
Wie kann man das erklären:
http://www.hardwaresecrets.com/imageview.php?image=7523
http://www.hardwaresecrets.com/article/465/9
Was hier los mit der 2600...?

reunion
2007-07-07, 10:11:45
Wie kann man das erklären:
http://www.hardwaresecrets.com/imageview.php?image=7523
http://www.hardwaresecrets.com/article/465/9
Was hier los mit der 2600...?

Das ist typisch für die gesamte R6xx-Serie in FarCry. Ja nach Szene liegen sie entweder ausgezeichnet (http://www.xbitlabs.com/articles/video/display/radeon-hd-2900-games_4.html#sect0), oder sie brechen pervers ein. Keine Ahnung was da im argen liegt.

AnarchX
2007-07-07, 10:50:12
HW-Secrets -> WinXP
Xbit -> WinVista
;)

Wobei man dazu erwähnen sollte, dass die Vista-Performance zum Teil so gut erscheint, da NV hier noch in einigen Titeln Nachholebedarf hat.

Imo kann man es drehen und wenden, irgendetwas stimmt mit der HD2000-Architektur nicht, dass es am Treiber allein liegen soll, kann man mittlerweile doch sehr anzweifeln, immerhin sind wir nun im Juli und R600 sollte ja eigentlich schon im März kommen.

Gast
2007-07-07, 15:25:45
HW-Secrets -> WinXP
Xbit -> WinVista
;)

Wobei man dazu erwähnen sollte, dass die Vista-Performance zum Teil so gut erscheint, da NV hier noch in einigen Titeln Nachholebedarf hat.

Imo kann man es drehen und wenden, irgendetwas stimmt mit der HD2000-Architektur nicht, dass es am Treiber allein liegen soll, kann man mittlerweile doch sehr anzweifeln, immerhin sind wir nun im Juli und R600 sollte ja eigentlich schon im März kommen.

Weil die HD 2600 nur 4 ROPs hat im gegensatz zur GeForce 3 (ROPs:8)

Gast
2007-07-07, 19:54:22
http://www.heise.de/ct/07/15/030/

PCGH_Carsten
2007-07-07, 20:05:49
Wie kann man das erklären:
http://www.hardwaresecrets.com/imageview.php?image=7523
http://www.hardwaresecrets.com/article/465/9
Was hier los mit der 2600...?
Nur 8 TMUs, dazu 16xAF und das "Problem" mit dem FSAA.

Gast
2007-07-07, 23:55:03
Stimmt das, dass hier AA vom Shader berechnet werden muss?

Gast
2007-07-08, 09:29:26
Stimmt das, dass hier AA vom Shader berechnet werden muss?Dass das Downsampling im Shader durchgeführt wird, da die ROPs kaputt sind, ist eine mögliche Erklärung für den starken Einbruch bei Nutzung von MSAA. Ob diese Erklärung zutrifft wissen allerdings wohl nur die ATI-Menschen.

PCGH_Carsten
2007-07-08, 09:31:15
Dass das Downsampling im Shader durchgeführt wird, da die ROPs kaputt sind, ist eine mögliche Erklärung für den starken Einbruch bei Nutzung von MSAA. Ob diese Erklärung zutrifft wissen allerdings wohl nur die ATI-Menschen.
Klar wissen sie es. Sie werden es aber niemals zugeben wenn falls es so ist.

up¦²
2007-07-08, 15:42:23
Nur 8 TMUs, dazu 16xAF und das "Problem" mit dem FSAA.

Tja - Ati wußte doch aber vom 520er her spätestens seit 2005 Bescheid und hat das Verhältnis ALUs zu TMUs beim 580 doch auf 3:1 angehoben :confused:
Hat man den 630 etwa bewußt irgendwie gelocked um die 600 nicht zu "brüskieren" :biggrin:

Auf die schnelle hier 520/580-Info dazu:
http://www.hardocp.com/article.html?art=OTUz

up¦²
2007-07-10, 01:02:06
AGP gelistet :smile:
http://geizhals.at/deutschland/?fs=2600+agp&in=
ab 31.07.2007 lieferbar

Gast
2007-07-10, 23:33:58
Wann kommt die Dual?

Ich willl die Geile langsam mal bestelln

pt3
2007-07-10, 23:57:13
Kann jemand was zu der MSI 2600pro http://geizhals.at/deutschland/a264091.html sagen? Ist von der Karte eher abzuraten? Würde die Karte hauptsächlich für Spiele wie FIFA kaufen...:rolleyes:
Edit: Verdammt sehe gerade, dass die nen viel zu geringen Speichertakt hat :(

AnarchX
2007-07-11, 12:35:49
Auch interessant:

RV630 (~Cat7.7) vs G84(FW 162.18) unter Vista (http://translate.google.com/translate?u=http%3A%2F%2Fvga.zol.com.cn%2F59%2F597347.html&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools)

AnarchX
2007-07-11, 16:32:24
Hardspell hat auch noch einen sehr schönen Test:
Summer mainstream graphic cards DX9 and DX10 games full test (http://www.hardspell.com/english/doc/showcont.asp?news_id=1006&pageid=1346)
http://img261.imageshack.us/img261/1837/hspxd4.png

Dochmal ein interessante Kartenauswahl.;)

Undertaker
2007-07-11, 16:39:48
hmm der link geht nicht

AnarchX
2007-07-11, 16:45:05
hmm der link geht nicht

Ab und zu gehts schon, muss man wohl bis zu einer Zeit warten bis die Millionen Asiaten, die diese Seite überrennen, im Bett liegen.
Also in ein wenigen Stunden. ;)

Sterem
2007-07-11, 18:38:28
Also ist die X2600 XT doch nicht schneller als eine 8600 GT.Naja schwam drüber und noch die Restbestände der X1950/X1900 kaufen.

Roi Danton
2007-07-12, 02:36:26
2600XT und Pro @ PC Presence (span.) (http://www.presence-pc.com/tests/AMD-Radeon-2600-22686/)Ehm, die Sprache ist französisch.

Quaker
2007-07-12, 12:10:42
Uff, sieht ja wirklich nicht gerade rosig aus.
Aber was gibt es an Alternativen wenn man keinen zusätzlichen Stromanschluss will? Ev. G90er Serie?

AnarchX
2007-07-12, 12:12:32
Aber was gibt es an Alternativen wenn man keinen zusätzlichen Stromanschluss will? Ev. G90er Serie?

Ich denke nicht, dass sich nV in Zukunft noch soviel Sorgen um den Stromverbrauch ihrer HighEnd-Chips macht:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=369095
Und Midrange G9x wird wohl erst Frühjahr 2008 kommen.

Ehm, die Sprache ist französisch.
Zut ! ;) Wird geändert...

up¦²
2007-07-12, 12:26:31
u.a. => Transformers: The Game Benchmark
http://www.pcpop.com/doc/0/208/208303_16.shtml
2600xt macht schlapp bei HDR... :|

Folgende Games wurden getestet:
OpenGL性能测试
DOOM3(毁灭战士)
PREY(掠夺者)

DirectX 9 性能测试
FarCry1.4(孤岛惊魂)
Company of Heros(英雄连)
Call of Duty2(使命召唤2)
S.T.A.L.K.E.R(切尔诺贝利阴云)
Age of Empire3:The Warchiefs(帝国时代3:酋长)
Colin Mcrae:DiRT(科林麦克雷拉力赛:尘埃)
Ghost Recon Advanced Warfighter(幽灵行动:尖峰战士)
Need for Speed Carbon(极品飞车10:卡本峡谷)
Half-Life2:Episode One(半条命2:第一章)
Transformers: The Game(变形金刚)

DirectX 10 性能测试
Call of Juarez(狂野西部)
Company of Heros(英雄连)
Lost Planet(失落星球)
Einfach hier anklicken:
http://www.pcpop.com/doc/0/208/208303.shtml


PS:
Yesky haben sich die 2600XT mit GDDR3 und 4 vergeknöpft mit teilweise überraschenden Ergebnissen:
Hiewr beginnen die Benchmarks (ab 6!), der Anfang ist mehr "Bilderbuch" :biggrin: (ab 1)
http://diy.yesky.com/vga/160/3430160_5.shtml

[ncp]EasyChiller
2007-07-12, 22:12:50
ich glaube so langsam ein einfach die-shrink einer X1950 auf die 65 nm wäre momentan der absolute Überflieger-Mittelklasse-Chip (und evtl. sogar auch recht Stromspaarend auf moderaten Taktraten) :redface:

Ich hab da noch so ein Marketinggeplapper im Ohr ... DX-10 bringt mehr Leistung... *rofl* <-- wer hat das eigentlich jeh geglaubt?!

Gast
2007-07-12, 23:57:32
Wann kommt die Dual?

Ich willl die Geile langsam mal bestelln

Benedikt
2007-07-13, 00:01:21
EasyChiller;5665124']
Ich hab da noch so ein Marketinggeplapper im Ohr ... DX-10 bringt mehr Leistung... *rofl* <-- wer hat das eigentlich jeh geglaubt?!
Das mag bei gleichen Grafikeinstellungen auch durchaus zutreffen. Allerdings wird wohl eventuell höhere Effizienz der Grafikschnittstelle (=höherer Speed) durch aufwändigeres Rendering und HW-forderndere Settings ausgeglichen.

[ncp]EasyChiller
2007-07-13, 01:15:44
Das mag bei gleichen Grafikeinstellungen auch durchaus zutreffen. Allerdings wird wohl eventuell höhere Effizienz der Grafikschnittstelle (=höherer Speed) durch aufwändigeres Rendering und HW-forderndere Settings ausgeglichen.
das mag ich arg bezweifeln .. dx10 scheint einfach zu viele transistoren zu kosten ... wenn ich mir mal überlege was ma mit fas 400 mios von denen auf basis einer R580 hätte machen können ;-):biggrin:

Benedikt
2007-07-13, 11:27:52
EasyChiller;5665403']das mag ich arg bezweifeln .. dx10 scheint einfach zu viele transistoren zu kosten ... wenn ich mir mal überlege was ma mit fas 400 mios von denen auf basis einer R580 hätte machen können ;-):biggrin:
Klar, das meine ich auch gar nicht. Ich bezog mich nur auf den Vergleich zwischen DX9.0 und D3D10 an sich, wo D3D10 aufgrund höherer Effizienz (wohlgemerkt bei absolut gleicher Grafikdarstellung, ohne aufwändigere Shader oder Szenen) der Sieger sein sollte.

DerKleineCrisu
2007-07-14, 00:23:29
manchmal kommt es mir so vor:

sage irgendwas immer und immer wieder und irgendwann glauben es die leute

N0Thing
2007-07-14, 02:04:44
Klar, das meine ich auch gar nicht. Ich bezog mich nur auf den Vergleich zwischen DX9.0 und D3D10 an sich, wo D3D10 aufgrund höherer Effizienz (wohlgemerkt bei absolut gleicher Grafikdarstellung, ohne aufwändigere Shader oder Szenen) der Sieger sein sollte.


Ist vielleicht auch so, bisher wird durch alle DX10-Patches aber auch mehr Arbeit für die Grafikkarten generiert.
Nen Test, wo man identische Settings einmal mit DX10 und einmal mit DX9 durchgeführt hat, wäre ideal, wüßte jetzt aber keinen Test, bei dem das so gemacht wurde.

Falls es so eine Option in den bisher veröffentlichten Spielen/Patches überhaupt gibt. :confused:

up¦²
2007-07-14, 05:37:00
http://666kb.com/i/aq1ir9vvytfdh5yvi.jpg :smile:

Undertaker
2007-07-14, 09:59:28
2nd generation unified shader? hab ich da was verpasst?

AnarchX
2007-07-14, 10:00:25
2nd generation unified shader? hab ich da was verpasst?

Xenos ist Gen1.

aths
2007-07-16, 21:15:33
EasyChiller;5665403']das mag ich arg bezweifeln .. dx10 scheint einfach zu viele transistoren zu kosten ... wenn ich mir mal überlege was ma mit fas 400 mios von denen auf basis einer R580 hätte machen können ;-):biggrin:D3D10 fordert eine Menge, darunter die Option auf sRGB-korrekte Texturfilterung (das kostet viel), relativ vollständige IEEE-754-Implementierung bei den ALUs (auch das ist nich ohne), dazu muss praktisch alles mit FP32 gerechnet werden (so dass sich bei gewissen Rechnungen nicht einfach ungenauere Rechenwerke nehmen lassen.)

Gast
2007-07-16, 21:40:50
D3D10 fordert eine Menge, darunter die Option auf sRGB-korrekte Texturfilterung (das kostet viel), relativ vollständige IEEE-754-Implementierung bei den ALUs (auch das ist nich ohne), dazu muss praktisch alles mit FP32 gerechnet werden (so dass sich bei gewissen Rechnungen nicht einfach ungenauere Rechenwerke nehmen lassen.)
Ja, mit 400M Transistoren hätte man.... *überschlag* 33 VSA100-Chips herstellen können - das sind mehr als 8 Voodoo5 6000 auf einem einzelnen Die.

Das beste FSAA der Welt. ;)

aths
2007-07-17, 13:35:26
Ja, mit 400M Transistoren hätte man.... *überschlag* 33 VSA100-Chips herstellen können - das sind mehr als 8 Voodoo5 6000 auf einem einzelnen Die.

Das beste FSAA der Welt. ;)Bei wie viel fps und in welchen Spielen (Shader-Version berücksichtigen)?

Hat ein VSA-100 nicht ca. 14,5 Mio Transistoren?

Coda
2007-07-17, 14:47:43
EasyChiller;5665124']Ich hab da noch so ein Marketinggeplapper im Ohr ... DX-10 bringt mehr Leistung... *rofl* <-- wer hat das eigentlich jeh geglaubt?!
Tut es aber. Genauso wie SM3 mehr FPS als SM2 bringt bei gleichen Rechnungen.

Nakai
2007-07-17, 14:51:00
Tut es aber. Genauso wie SM3 mehr FPS als SM2 bringt bei gleichen Rechnungen.

Und wo wird das benutzt?
Die Programmierer sind einfach zu faul soetwas zu tun, weil sie ihre eigene Roadmap einhalten müssen.
Bis jetzt hat sich doch keiner die Mühe gemacht, das richtig umzusetzen.
Oder gibt es ein Gegenbeispiel.^^

mfg Nakai

Coda
2007-07-17, 15:59:21
Und wo wird das benutzt?
SM3 wird inzwischen sehr viel benützt.

Nakai
2007-07-17, 17:08:51
SM3 wird inzwischen sehr viel benützt.

Und wird SM3.0 durch DX10 noch zusätzlich beschleunigt?

mfg Nakai

Gast
2007-07-17, 17:14:32
Es gibt kein SM3 in DX10!

Gast
2007-07-17, 18:09:47
Es gibt kein SM3 in DX10!
Er meinte wahrscheinlich, ob alte SM3 Anwendungen von sich ganz alleine ohne Zutun mit D3D10 und einer D3D10 fähigen Karte schneller laufen würden.
Für die kleinen Karten ist D3D10 einfach nur Transistorballast, worunter andere Funktionen der Karte leiden. Sind ja jetzt gerade noch ausreichend für heutige Games. G80 User haben gut reden, haben ja Leistung satt unter DX9 und müssen sich nicht mit den neuen Mainstreamgraupen rumärgern. Oder braucht man heute und in Zukunft eine D3D10-fähige Karte für was anderes als Games?

Nakai
2007-07-17, 18:31:40
Es gibt kein SM3 in DX10!

Das weiß ich selbst.
War zwar dumm von mir:( gesagt, aber so wars gemeint:


Zitat:
Zitat von Gast Beitrag anzeigen
Es gibt kein SM3 in DX10!
Er meinte wahrscheinlich, ob alte SM3 Anwendungen von sich ganz alleine ohne Zutun mit D3D10 und einer D3D10 fähigen Karte schneller laufen würden.
Für die kleinen Karten ist D3D10 einfach nur Transistorballast, worunter andere Funktionen der Karte leiden. Sind ja jetzt gerade noch ausreichend für heutige Games. G80 User haben gut reden, haben ja Leistung satt unter DX9 und müssen sich nicht mit den neuen Mainstreamgraupen rumärgern. Oder braucht man heute und in Zukunft eine D3D10-fähige Karte für was anderes als Games?

mfg Nakai

Gast
2007-07-17, 20:46:54
Das viele Bla Bla um andere Karten ist ja amüsant, passt aber nicht so recht in diesen Thread....

@topic
Hat schon jemand eine HD2600 Karte und kann da mal was darüber melden?

und...

der RV630 ist also charakterisiert (Daten) - die schmalen 4 ROPs sind ja nicht so toll - ich habe woanders aber mal gelesen, dass sie 4x2 ROPs habe soll - was immer das auch heissen mag (nicht die Gemini)....

und...

wie ist denn die theoretische Leistung des Chips (Rechenleistung 192Gflops, Shaderpower satt...) mit der relativ schwachen realen Leistung vereinbar?


MFG

laser114
2007-07-17, 20:59:01
wie ist denn die theoretische Leistung des Chips (Rechenleistung 192Gflops, Shaderpower satt...) mit der relativ schwachen realen Leistung vereinbar?

Das liegt zum einem natürlich an den geringeren Füllraten. Ansonsten wird die Arithmetikleistung aufgrund des superskalaren Designs wohl nicht komplett ausgenutzt, da eben 5 Operationen direkt parallel ablaufen und nicht vom Ergebnis des anderen abhängig sein können. Bei diesem Punkt kann man über sinnvolle Treiberzusteuerungen aber sicher noch etwas optimieren, man sollte aber aufgrund der ersten Punkte auch keine Wunderleistungen erwarten.

Gast
2007-07-17, 21:07:42
Füllrate HD2600 XT GDDR3:

http://www.neoseeker.com/Articles/Hardware/Reviews/powercolor_hd_2600_xt_review/4.html

?????

laser114
2007-07-17, 21:10:20
Füllrate HD2600 XT GDDR3:

Ja passt doch. Die theoretischen Werte für die Texelfüllrate liegen bei 6400 MT/s, für die Pixelfüllrate genau bei der Hälfte - also 3200 MT/s.

Zum Vergleich:
8600 GT: 8640/4320
8600 GTS: 10800/5400

Gast
2007-07-17, 21:15:36
Ja passt doch. Die theoretischen Werte für die Texelfüllrate liegen bei 6400 MT/s, für die Pixelfüllrate genau bei der Hälfte - also 3200 MT/s.

Zum Vergleich:
8600 GT: 8640/4320
8600 GTS: 10800/5400


Dann hat die RV630 aber ein viel besseres Verhältnis von theoretischer Füllrate (Single / Multi) zu tatsächlicher Füllrate als der G84

RV 630 theoretisch: 3200/6400, erreicht 2171/6348
G84 GTS theoretisch: 5400/10800, erreicht 2942/7902

oder liege ich da falsch????

laser114
2007-07-17, 22:41:55
RV 630 theoretisch: 3200/6400, erreicht 2171/6348
G84 GTS theoretisch: 5400/10800, erreicht 2942/7902

oder liege ich da falsch????

Tja, müsste man jetzt noch wissen wie 3DMark das genau testet.

Quaker
2007-07-18, 15:05:15
Der Test : http://www.trustedreviews.com/graphics/review/2007/07/16/ATI-Radeon-HD-2600-XT-2600-Pro-and-2400-XT/p1 stimmt mich schon ein bisschen positiver.
Mein Ziel ist es eine Grafikkarte zu finden die ohne zusätzlichen Stromanschluss auskommt und Quakewars problemlos läuft.
Mit der 2600XT wird dies möglicherweise erreicht, ich warte noch nen Test zur GDDR4 Version ab und entscheide mich dann.
In vielen Punkten ist sie auch der 8600GTS überlegen - zwischen den beiden Karten schwanke ich im Moment.

Endorphine
2007-07-18, 15:09:03
In vielen Punkten ist sie auch der 8600GTS überlegen - zwischen den beiden Karten schwanke ich im Moment. Wo genau ist die 2600XT der 8600GTS überlegen? In der Tatsache, dass die "4" in "GDDR4" eine größere Zahl als in "GDDR3" ist?

Und welchen Nachteil hat man durch die Spannungsversorgung durch den PCIe-Stecker? Außer höheren Kosten im Cent-Bereich für die zusätzliche Buchse kann ich darin keinen Nachteil erkennen.

laser114
2007-07-18, 15:11:32
Wo genau ist die 2600XT der 8600GTS überlegen? In der Tatsache, dass die "4" in "GDDR4" eine größere Zahl als in "GDDR3" ist?

Lies doch den verlinkten Test. Z. B. in CoH führen die 2600er-Karten da deutlich, bzw. die 8600er verlieren recht viel.

Endorphine
2007-07-18, 15:18:06
Lies doch den verlinkten Test. Z. B. in CoH führen die 2600er-Karten da deutlich, bzw. die 8600er verlieren recht viel. Ja, das ist jetzt mal eine einzige Ausnahme. Gut, wenn man die Karte nur für dieses Spiel kauft und es sich bei dem Resultat nicht um einen Fehler handelt, dann sollte man für diesen Ausnahmefall tatsächlich die 2600XT bevorzugen.

Aber sonst: wo insgesamt ist die 2600XT der 8600GTS überlegen? Ich kann da nichts erkennen.

Die 2600XT mit 512 MB GDDR4 ist für einen vernünftigen Preis ein schöner oder vielleicht sogar der bessere 8600GT-Konkurrent. Die 2600Pro ist vielleicht auch 8500GT überlegen. Die 2400er sind bei ähnlicher Leistung billiger als die 8400GS.

Aber einen 8600GTS-Konkurrenten sehe ich von ATI nicht. Nur in Form der alten X1950er-Karten, wenn man keinen Wert auf die gesteigerte Bildqualität legt und einem Lärm, Hitze und elektrische Leistungsaufnahme egal sind.

Quaker
2007-07-18, 15:41:10
Wo genau ist die 2600XT der 8600GTS überlegen? In der Tatsache, dass die "4" in "GDDR4" eine größere Zahl als in "GDDR3" ist?

Und welchen Nachteil hat man durch die Spannungsversorgung durch den PCIe-Stecker? Außer höheren Kosten im Cent-Bereich für die zusätzliche Buchse kann ich darin keinen Nachteil erkennen.
GDD4 sollte eigentlich auch etwas stromsparender sein, ob sie schneller sind sieht man dann in den Tests.
Aber der Unterschied beträgt eh nur ca. 5€ - von dem her spielt es keine Rolle.
In Prey ist die Karte in einigen Punkten der GTS auch überlegen, vorallem in der Rohperformance, dann auch wieder in einigen höheren Auflösungen.
Mit diesen Treiber, die sicher noch alles andere als optimal sind, stimmen mich diese Werte sehr zuversichtlich.

Gast
2007-07-18, 21:55:12
Ich würde meine Entscheidung für oder wider eine HD2600 XT nicht an ein, zwei FPS ggü. einer 8600 GTS festmachen. Die meisten Games sind auf beiden noch spielbar und es gibt kaum welche, die die 8600er bravourös meistert, während die 2600er kläglich versagt und vice versa.

Gast
2007-07-18, 22:36:31
Gibt es eigentlich schon HD2600XT kompatible Kühler, zb von Zalman, Zerotherm oder Arctic Freezer?

Gast
2007-07-18, 23:04:44
Abseits des fps Vergleichs halte ich die 2600XT und die anderen kleineren ATI Modelle den NVidias in HTPC Anwendungen für entscheidend überlegen. Wäre ehrlich gesagt mein Entscheidungsgrund. Zugegeben, dass Kriterium dürfte auf wenige zutreffen, aber für mich schon.

up¦²
2007-07-18, 23:05:13
Ja, das ist jetzt mal eine einzige Ausnahme. Gut, wenn man die Karte nur für dieses Spiel kauft und es sich bei dem Resultat nicht um einen Fehler handelt, dann sollte man für diesen Ausnahmefall tatsächlich die 2600XT bevorzugen.

Aber sonst: wo insgesamt ist die 2600XT der 8600GTS überlegen? Ich kann da nichts erkennen.

Die 2600XT mit 512 MB GDDR4 ist für einen vernünftigen Preis ein schöner oder vielleicht sogar der bessere 8600GT-Konkurrent. Die 2600Pro ist vielleicht auch 8500GT überlegen. Die 2400er sind bei ähnlicher Leistung billiger als die 8400GS.

Aber einen 8600GTS-Konkurrenten sehe ich von ATI nicht. Nur in Form der alten X1950er-Karten, wenn man keinen Wert auf die gesteigerte Bildqualität legt und einem Lärm, Hitze und elektrische Leistungsaufnahme egal sind.

Als du solltest wirklich mal Zeit reservieren, um dich zu infrmieren:
die 2600xt ist viel besser als ihr "Ruf" :biggrin:
nicht nur in "einem" game...
schau mal her:
Need for Speed Carbon, Test Drive, DiRT usw.
http://www.pcpop.com/doc/0/204/204440_14.shtml

jojo4u
2007-07-19, 01:06:24
GDD4 sollte eigentlich auch etwas stromsparender sein,

Die 2600 XT GDDR4 hat wohl einen defekten Stromsparmechanismus. Der Test bei Computerbase.de sagt was dazu.

Gast
2007-07-19, 06:45:57
Gibt es eigentlich schon HD2600XT kompatible Kühler, zb von Zalman, Zerotherm oder Arctic Freezer?

Gast
2007-07-19, 18:49:29
Üch wüll es unbedüngt wüssen.

DerKleineCrisu
2007-07-19, 19:03:51
Die 2600 XT GDDR4 hat wohl einen defekten Stromsparmechanismus.

ob das einen jetzt verwundert. ich glaube kaum.

AMD will sicherlich beim refresh chip sagen können. wir tun was für die umwelt. der refresh chip verbraucht 50 % nun weniger dank funktionierendem Stromspaaaaar modus ;D .

Gast
2007-07-19, 21:30:40
ob das einen jetzt verwundert. ich glaube kaum.

AMD will sicherlich beim refresh chip sagen können. wir tun was für die umwelt. der refresh chip verbraucht 50 % nun weniger dank funktionierendem Stromspaaaaar modus ;D .

Schwachsinn. Scheinbar gibts eben Troubles bei den GDDR4-timings (Latenzen) im Zusammenhang mit dem Ringbus des RV630....
Die GDDR3 - Version soll ja diese Probleme nicht haben....

Was schon verwunderlich ist, ist eben, daß die Karten auf dem Markt sind, und der Eindruck ensteht, daß sie nicht reif dafür waren. Die Treiber sind "wahrscheinlich" noch nicht auf der Höhe (besonders bei AF/AA) aber die Konkurrenz hatte ja das gesamte DX10 - Feld für sich alleine.
Ich denke, daß die Karten in Relation zu den 8600ern noch zulegen werden und - falls die Spieleentwicklung diesen Weg einschlägt - mit zunehmend shaderlastigen Spielen insgesamt besser dastehen werden, als man zur Zeit sehen kann.
Wenn dem nicht so sein sollte, wird der Markt schnell regulieren, ob die Karten eine Überlebenschance haben...

Gast
2007-07-20, 07:05:44
Die 2600XT hat auf jeden Fall die klar höhere Shaderleistung im Vergleich zur 8600GTS, was in Zukunft mit Sicherheit kein Nachteil ist. Noch dazu ist sie wesentlich preiswerter.

reunion

Gast
2007-07-20, 09:02:52
Da die 2600XT ihre Shaderleistung jetzt nicht ausspielen kann, ist auch in Zukunft nicht damit zu rechnen. Zudem leistst sie nicht mehr als die gleichteure 8600GT.

BlackArchon
2007-07-20, 09:05:18
Was überlegene Shader-Leistung bringt, sieht man gut im Vergleich zwischen R520 und R580: trotz dreimal so hoher Shader-Leistung gibt das nur in den seltensten Fällen (Anno 1701) einen spürbaren Vorteil.

Winter[Raven]
2007-07-20, 09:55:37
Die 2600XT hat auf jeden Fall die klar höhere Shaderleistung im Vergleich zur 8600GTS, was in Zukunft mit Sicherheit kein Nachteil ist. Noch dazu ist sie wesentlich preiswerter.

reunion

Bis es soweit ist, ist dann die nächste Generation da...

Gast
2007-07-20, 15:56:30
;5684394']Bis es soweit ist, ist dann die nächste Generation da...
komisches Argument, es gibt auch Leute die ihre Karte mehr als 1/2 Jahr im Rechner lassen

Endorphine
2007-07-20, 17:45:35
Ich denke, daß die Karten in Relation zu den 8600ern noch zulegen werden [...] Glaube ich nicht.
(a) auch die Treiberentwicklung bei NV wird weitergehen.
(b) die GF8-Architektur ist komplett anders und neu im Vergleich zu GF7/6/5 etc., da ist für die Zukunft noch einiges zu erwarten.

Gast
2007-07-20, 19:03:22
Glaube ich nicht.
(a) auch die Treiberentwicklung bei NV wird weitergehen.
(b) die GF8-Architektur ist komplett anders und neu im Vergleich zu GF7/6/5 etc., da ist für die Zukunft noch einiges zu erwarten.

Die Aussage, daß die Radeons noch zulegen, glaubst Du nicht (Gast), die Geforce sollen aber doch noch zulegen?
Beides Spekulation ohne Hintergrund, oder?

Gast2
2007-07-20, 19:07:12
auch die Treiberentwicklung bei NV wird weitergehen.

NVIDIA arbeitet aber schon ein paar Monate länger daran, daher wird deren Optimierungspotential eher nicht mehr so hoch sein.

Bis jetzt hat jeder Catalyst noch ordentlich was gebracht, einen Vergleich würde ich frühestens Ende des Jahres anstellen wollen. Dann profitieren auch die zukünftigen Chips davon, da sie abgesehen von anderen Taktraten, mehr Recheneinheiten sich technisch wohl kaum verändern.

Endorphine
2007-07-20, 19:07:47
Die Aussage, daß die Radeons noch zulegen, glaubst Du nicht (Gast), die Geforce sollen aber doch noch zulegen?
Beides Spekulation ohne Hintergrund, oder? Das war nicht meine Aussage.

Ich glaube nur eben nicht, dass sich die Verhältnisse durch die Treiberentwicklung großartig ändern werden. Eben weil sowohl AMD als auch NV die Treiber weiter entwickeln werden. Die GF8 hat da sicher noch einiges an Potenzial glaube ich nach dem, was ich so darüber gelesen habe. Daher finde ich es unlogisch anzunehmen, dass die Radeon 6 durch neue Treiber noch zulegt, aber die GF8 nicht.

Gast
2007-07-20, 19:24:16
Problem: Die G80-Architektur frisst prinzipiell auch sehr unbequemen Shadercode, R600 dagegen braucht eher spezielle Optimierungen.

Genau die umgekehrte Situation wie vor einem Jahr.

laser114
2007-07-20, 23:27:02
Niemand mitbekommen?

http://www.insidehw.com/content/view/209/9/

Da war für kurze Zeit ein Preview der 2600 XT Gemini online, hier gabs auch eine News:
http://www.planet3dnow.de/vbulletin/showthread.php?p=3258423#post3258423

Wahr aber anscheinend ein Fehler, ist schon wieder weg vom Fenster...

Undertaker
2007-07-21, 09:40:32
das ist doch die dual 2600xt oder? ich weis nicht, die karte wird wohl immernoch deutlich hinter einer 8800gts 320mb liegen, bei wohl ähnlichem preis... hmm

AnarchX
2007-07-21, 09:49:26
das ist doch die dual 2600xt oder? ich weis nicht, die karte wird wohl immernoch deutlich hinter einer 8800gts 320mb liegen, bei wohl ähnlichem preis... hmm

Im P3D-Thread wird von 150-200€ laut InsideHW gesprochen, was dann durchaus akzeptabel wäre.

Hat niemand mal das Review gesichert?

edit:
Google hats im Cache...;)
http://64.233.183.104/search?q=cache:gOE9w87k24YJ:www.insidehw.com/content/view/209/9/+http://www.insidehw.com/content/view/209/9/&hl=de&ct=clnk&cd=1&gl=de&client=firefox-a

Aber halt keine Benches und somit nichts anderes als die Dualkarten, die man schon vor Ewigkeiten gesehen hat.

Gast
2007-07-22, 02:53:22
Interessant werden die Karten wohl auch erst wenn man damit Quadfire errichtet. Mit dem neuen 4WayAFR in D3D10 müssten 4 2600XT's doch ganz gut Skalieren können.

Ferengie
2007-08-01, 11:21:26
AGP HD2600PRO mit DDR2 von Gecube bei Alternate lieferbar.
Nur was bringt DDR2? Dann kann ich gleich zur günstigen HD2400 greifen.

laser114
2007-08-01, 11:28:52
HD2600PRO mit DDR2 von Gecube bei Alternate lieferbar.
Nur was bringt DDR2? Dann kann ich gleich zur günstigen HD2400 greifen.

Naja sind 12,8 GB/s. Durch die stärkere GPU schon leistungsstärker als eine 2400.

AnarchX
2007-08-01, 14:52:43
AMD software let defective graphics cards slip into the channel (http://www.digitimes.com/mobos/a20070801PD209.html)

AMD's official graphics card diagnostic and validation software was recently discovered to have a bug that failed to detect defective ATI Radeon HD 2400 and 2600 graphics cards, according to sources at graphics card makers.

AMD scheint ja wirklich vom Pech verfolgt zu sein. :|

AnarchX
2007-08-04, 17:55:27
ATis Radeon HD 2600 XT taktet immer noch falsch (http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/august/atis_radeon_hd_2600_xt/)@CB

VivaLaHarry
2007-08-04, 18:41:12
ATis Radeon HD 2600 XT taktet immer noch falsch (http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/august/atis_radeon_hd_2600_xt/)@CB
Ist schon echt mies, dass das gerade jetzt sein muss, wo doch schon viele Dinge nicht richtig laufen. :( ... Aber den Gnadenstoß wird es ihnen mit Sicherheit nicht geben, dafür steckt noch zuviel im K10 drin. :smile:

MfG,
VivaLaHarry

AnarchX
2007-08-10, 12:55:12
Wenn das mal kein Testparkour ist:
Radeon HD 2600 PRO & Radeon HD 2600 XT vs. GF 8600 GT (http://www.egielda.com.pl/?str=art&id=3169)

32 Games... :up:

Crazy_Chris
2007-08-10, 13:36:45
Wenn das mal kein Testparkour ist:
Radeon HD 2600 PRO & Radeon HD 2600 XT vs. GF 8600 GT (http://www.egielda.com.pl/?str=art&id=3169)

32 Games... :up:

;D Die dort getesteten Auflösungen sind ein Witz. Was will man mit 800x600 oder 1024x768?

AnarchX
2007-08-10, 13:49:36
;D Die dort getesteten Auflösungen sind ein Witz. Was will man mit 800x600 oder 1024x768?

Du fändest wohl 1680x1050 oder 1920x1200 sinnvoller für unteres Mid-Range bzw. Mainstream? :rolleyes:
(Wer genau hinschaut, sieht dass die Reviewer die Auflösungen so gewählt haben, sodass alle der getesteten Karten noch eine spielbare Leistung liefern, imo sehr begrüßenswert im Gegensatz zu solchen Sinnlosbenches wie bei Computerbase wo selbst Low-End noch durch 1600x1200 Höchste Einstellungen mit AA/AF gescheucht wird um sie dann gegen High-End zu vergleichen.:crazy2:)

Gast
2007-08-10, 15:49:07
;D Die dort getesteten Auflösungen sind ein Witz. Was will man mit 800x600 oder 1024x768?

die aktuellen DX10-krüppelkarten sind eh kaum für mehr zu gebrauchen.

Gast
2007-08-10, 17:32:51
imo sehr begrüßenswert im Gegensatz zu solchen Sinnlosbenches wie bei Computerbase wo selbst Low-End noch durch 1600x1200 Höchste Einstellungen mit AA/AF gescheucht wird um sie dann gegen High-End zu vergleichen.:crazy2:)

Das macht aber durchaus Sinn.

Durch das erzeugte (stärkere) Grafiklimit ist diese Art Benchmark wesentlich genauer wenn es um die Leistungsfähigkeit der Karten geht.

Ich würde sogar so weit gehen und optional jede Karte in 2560x1600 mittesten, denn nur dort kann sichergestellt werden, das auch wirklich die höchste Grafiklast getestet wurde.

AnarchX
2007-08-10, 17:37:05
Das macht aber durchaus Sinn.

Durch das erzeugte (stärkere) Grafiklimit ist diese Art Benchmark wesentlich genauer wenn es um die Leistungsfähigkeit der Karten geht.

Ich würde sogar so weit gehen und optional jede Karte in 2560x1600 mittesten, denn nur dort kann sichergestellt werden, das auch wirklich die höchste Grafiklast getestet wurde.

Nur dumm, dass in solchen Setting dann massiv Dinge wie Bandbreite und ROPs limitieren, was in typischen Settings für solche Karten <1280x1024 eher nicht passiert. Wie schon gesagt ist es wertlos und vergeudete Zeit die man woanders sinnvoller hätte investieren können.

Gast
2007-08-10, 17:41:44
Nur dumm, dass in solchen Setting dann massiv Dinge wie Bandbreite und ROPs limitieren, was in typischen Settings für solche Karten <1280x1024 eher nicht passiert.

Es geht bei Benchmarks nur um die Relation mehrerer Karten untereinander. Jede hat irgendeinen Bottleneck der in die Ergebnisse einfließt!

Es gibt also keinen Grund, warum dies nicht getestet werden sollte. Wenn du sagst, eine Karte sei nur um 15% schneller und du hast sie nicht mal in 2560x1600 getestet, woher willste dann wissen, ob die 15% das absolute maximum sind, um das sie schneller ist? ... Du testen bei den Alltagssetings alles, nur nicht die GPU.

Genauso wie ich bei einem CPU Benchmark dafür sorgen muss, das die GPU Null Einfluss hat, ansonsten hätte ich mir die Arbeit auch gleich sparen können..

AnarchX
2007-08-10, 17:52:33
Das sind aber Betrachtungen, die eher für technisch interessierte User relevant sind. Und hier für gibt es Synthies die ziemlich genau diese Bottlenecks antesten können.

Den Käufer interessiert es aber eher, wie seine Karte in spielbaren Settings im Vergleich zu anderen Karte performt und nicht ob sie dank besserer ROPs oder GDDR4 in 1600x1200 7 statt 5 FPS erzielt. Das sind keine Settings für die sie von ATi/NV designt wurden!

Gast
2007-08-10, 17:55:47
Jedem seine Meinung... (deshalb ist sie aber noch lang nicht nachvollziehbar!)

Es ist wohl schwer zu begreifen, das eine Karte, die in Extremauflösungen schneller ist, auch in gängigen Auflösungen die bessere sein wird... hauptsache die Bedingungen sind gleich für alle!

UltraXFX-92
2007-08-10, 18:01:41
In dem Threadtitel ist ein Fehler: Es muss heißen "HD 2600 PRO", HD 2600 Pro ist falsch.

AnarchX
2007-08-10, 18:16:58
Es ist wohl schwer zu begreifen, das eine Karte, die in Extremauflösungen schneller ist, auch in gängigen Auflösungen die bessere sein wird... hauptsache die Bedingungen sind gleich für alle!

Weil es einfach nicht so ist, in diesen Extremauflösungen werden ganz andere Anforderungen an die einzelnen Funktionseinheiten gestellt als wie eben in niedrigeren und somit ist es nicht übertragbar.
Wie schon gesagt haben beide IHVs bei dem Design der einzelnen GPUs gewisse Zielvorstellungen.

In dem Threadtitel ist ein Fehler: Es muss heißen "HD 2600 PRO", HD 2600 Pro ist falsch.
Das musst du dann schon einen Mod mitteilen, denn ich kann ihn nämlich nicht mehr ändern. Aber imo ist das doch ziemlich egal, "PRO" wird sehr häufig nur als "Pro" geschrieben, weil es an sich ja auch richtiger ist - "Pro" als Kurzform von "Professional". Oder wofür soll die Abkürzung P R O stehen? :|

UltraXFX-92
2007-08-10, 18:55:12
Das musst du dann schon einen Mod mitteilen, denn ich kann ihn nämlich nicht mehr ändern. Aber imo ist das doch ziemlich egal, "PRO" wird sehr häufig nur als "Pro" geschrieben, weil es an sich ja auch richtiger ist - "Pro" als Kurzform von "Professional". Oder wofür soll die Abkürzung P R O stehen? :|
1. Du bist der Eröffner des Themas, erkläre mir mal, warum du das nicht editieren kannst?
2. Erkläre mir mal wofür GS, GTX, XTX steht? Grafikkartenendungen werden aus Marketinggründen meist immer großgeschrieben. Und richtig ist nur "PRO", das steht auf der AMD-Homepage, ASUS-Homepage, Sapphire-Homepage usw.

AnarchX
2007-08-10, 18:58:21
1. Du bist der Eröffner des Themas, erkläre mir mal, warum du das nicht editieren kannst?
Im 3DC wird diese Option nach 2h(AFAIK) nach der Erstellung des Threads gesperrt! Wenn es dich stört musst du dich wie schon gesagt an einen Mod wenden...


2. Erkläre mir mal wofür GS, GTX, XTX steht? Grafikkartenendungen werden aus Marketinggründen meist immer großgeschrieben. Und richtig ist nur "PRO", das steht auf der AMD-Homepage, ASUS-Homepage, Sapphire-Homepage usw.
Und bist du wenigstens so konsequent und sprichst es auch "Pi Ar Oh" aus? ;)

UltraXFX-92
2007-08-10, 19:04:26
Im 3DC wird diese Option nach 2h(AFAIK) nach der Erstellung des Threads gesperrt! Wenn es dich stört musst du dich wie schon gesagt an einen Mod wenden...
Achso, dass ist ja in jedem vBulletin so. Wieso hat man überhaupt vBulletin genommen, phpBB 3 ist doch um Längen besser.

Und bist du wenigstens so konsequent und sprichst es auch "Pi Ar Oh" aus? ;)
So lang eine Konsonant-Vokal-Folge vorhanden ist kann man auch großgeschriebene Wörter normal aussprechen.

Spasstiger
2007-08-10, 19:10:35
Achso, dass ist ja in jedem vBulletin so. Wieso hat man überhaupt vBulletin genommen, phpBB 3 ist doch um Längen besser.
Das Forum gibts nun ja schon etwas länger als phpBB 3.

aths
2007-08-10, 19:11:10
In dem Threadtitel ist ein Fehler: Es muss heißen "HD 2600 PRO", HD 2600 Pro ist falsch.Nein, es muss Pro heißen. PRO wäre richtig, wenn man es P. R. O. sprechen würde. Den Marketing-Unsinn, Produktbezeichnungen und Firmennamen durchgehend GROSS ZU SCHREIBEN muss man nicht mitmachen.

UltraXFX-92
2007-08-10, 19:17:20
Schon gewusst, dass NVIDIA, ATI und AMD auch großgeschrieben werden?

Beispiel: "NVIDIA" TurboCache
http://www.nvidia.de/page/turbocache.html


---


PS: Die Firmen werden es wohl nicht gern haben wenn man ihre Namen verfälscht.

Gast
2007-08-10, 20:02:20
ATI und AMD sind Abkürzungen, in denen die Buchstaben meist auch getrennt ausgesprochen werden. Warum sollte man den Namen einer Firma komplett groß schreiben? Nur weil die das gern so hätten? Ist doch Unfug.
Nur dumm, dass in solchen Setting dann massiv Dinge wie Bandbreite und ROPs limitieren, was in typischen Settings für solche Karten <1280x1024 eher nicht passiert.Hmm, der Bedarf an Textur- und Shaderleistung steigt in höheren Auflösungen im gleichen Maß wie der Bandbreitenbedarf.

Gast
2007-08-10, 20:19:59
Hmm, der Bedarf an Textur- und Shaderleistung steigt in höheren Auflösungen im gleichen Maß wie der Bandbreitenbedarf.


allerdings wird gerade den kleinen karten in der regel der VRAM ausgehen, was die ergebnisse extrem verfälscht, und je kleiner die framerate wird, desto ungenauer die messung.

aths
2007-08-11, 00:06:20
Schon gewusst, dass NVIDIA, ATI und AMD auch großgeschrieben werden?

Beispiel: "NVIDIA" TurboCache
http://www.nvidia.de/page/turbocache.html


---


PS: Die Firmen werden es wohl nicht gern haben wenn man ihre Namen verfälscht.Das ist doch Latte was sich die Firmen, auch SIEMENS, GIGABYTE und wasweißichdenn ausgedacht haben. Die deutschen Rechtschreibregeln wiegen schwerer als das Marketingejakulat von Firmen.

Gast
2007-08-11, 00:36:14
Interessant werden die Karten wohl auch erst wenn man damit Quadfire errichtet. Mit dem neuen 4WayAFR in D3D10 müssten 4 2600XT's doch ganz gut Skalieren können.Da wünsche ich mit drei Frames Zusatzlag viel Spaß beim Verlieren gegen eigentlich schlechtere Gegner. AFR ist Schwachsinn.

Gast
2007-08-11, 12:43:28
AFR ist Schwachsinn.Naja, bei zwei GPUs ist es eigentlich die beste zur Zeit bekannte Lösung. Der Leistungsgewinn liegt nicht selten bei fast 100 %.

Gast
2007-08-11, 13:54:47
Naja, bei zwei GPUs ist es eigentlich die beste zur Zeit bekannte Lösung. Der Leistungsgewinn liegt nicht selten bei fast 100 %.Yo, 2fach AFR kann in Einzelfällen wirklich vernünftig sein, z.B. wenn man dadurch von Triplebuffering auf Doublebuffering wechseln kann und so die FPS leicht erhöht, ohne die Latenz zu steigern. Vernünftig funzendes SFR wäre allerdings zweifelsfrei noch besser, auch wenn die maximalen FPS-Gewinne niedriger ausfallen. Kommentiert hatte ich allerdings QuadAFR, und DAS ist absoluter Schwachsinn.

Spinnen wir es mal weiter auf zwei Boards mit je vier GPUs: 7 Frames Zusatzlag? OMFG! Dann noch der zunehmende Trend, innerhalb von Spielen die Aufteilung auf mehrere CPUs ebenfalls durch Doublebuffering von Synchronisierungsaufwand zu entkoppeln... Latenzen durch Overdrive-TFTs... Irgendwann vergeht noch trotz flüssiger Grafik mehr als eine Sekunde, bevor Eingaben Wirkung auf dem Bildschirm zeigen...

aths
2007-08-11, 14:14:04
Da wünsche ich mit drei Frames Zusatzlag viel Spaß beim Verlieren gegen eigentlich schlechtere Gegner. AFR ist Schwachsinn.Wenn AFR vernünftig umgesetzt wird ist es kein Schwachsinn. Zwar hat man zusätzliche Lag-Frames, dafür kommen die Frames schneller.

Gast
2007-08-11, 15:03:01
Wenn AFR vernünftig umgesetzt wird ist es kein Schwachsinn. Zwar hat man zusätzliche Lag-Frames, dafür kommen die Frames schneller.Das gleicht sich aber nur in Spielen aus, die auch bei niedrigen FPS vernünftig spielbar sind und man lediglich flüssigere Optik will. Durch AFR lässt sich die optische Flüssigkeit steigern, nicht aber die Spielbarkeit. Und auf letztere kommts an.

Gast
2007-08-11, 15:56:18
Wenn AFR vernünftig umgesetzt wird ist es kein Schwachsinn. Zwar hat man zusätzliche Lag-Frames, dafür kommen die Frames schneller.


allerdings wird man in der regel die gewonnene performance in bessere optik stecken, dann kommen die frames auch nicht mehr schneller.

wenn man das nicht tut wäre SLI ja schwachsinn, dann wäre auch eine einzelne karte schnell genug.

aths
2007-08-11, 17:29:56
allerdings wird man in der regel die gewonnene performance in bessere optik stecken, dann kommen die frames auch nicht mehr schneller.

wenn man das nicht tut wäre SLI ja schwachsinn, dann wäre auch eine einzelne karte schnell genug.Komische Argumentation. Vielleicht will man ja auch SLI, um die gewünschte Optik und Auflösung in höherer Framerate zu bekommen.

Gnomoru
2007-08-11, 17:36:37
, GIGABYTE und wasweißichdenn

GIGABYTE und Gigabyte sind zwei völlig unterschiedliche Dinge.

Gast
2007-08-11, 20:43:31
GIGABYTE und Gigabyte sind zwei völlig unterschiedliche Dinge.Nö. Es sind nur zwei unterschiedliche Schreibweisen (von denen eine falsch ist) für ein in unterschiedlichen Kontexten anders zu interpretierendes Wort.

Gmax
2007-08-12, 12:37:12
Hier gibts eine abgesägte 2600pro zu bestaunen:

http://group.zol.com.cn/5/6_47716.html

Ferengie
2007-08-12, 12:55:26
Abgesägten Palits kannst auch auf Geizhals bestaunen.

Gnomoru
2007-08-12, 13:09:56
Nö. Es sind nur zwei unterschiedliche Schreibweisen (von denen eine falsch ist) für ein in unterschiedlichen Kontexten anders zu interpretierendes Wort.

Du willst dir also ein Gigabyte-Mainboard kaufen. Da hat das Mainboard doch ganz schön viel Speicher. Da kauf ich mir lieber ein GIGABYTE-Mainboard, denn den ein Gigabyte brauch ich nicht auf mein GIGABYTE-Mainboard, da nehm ich lieber RAM.

Gigabyte: GiB
GIGABYTE: Firma

aths
2007-08-12, 14:18:14
Du willst dir also ein Gigabyte-Mainboard kaufen.Im Kontext weiß jeder, dass der Hersteller gemeint ist. Sonst müsste man es G. I. G. A. B. Y. T. E. sprechen.

Naja, bei zwei GPUs ist es eigentlich die beste zur Zeit bekannte Lösung. Der Leistungsgewinn liegt nicht selten bei fast 100 %.Wobei die Steigerung leider nur die durchschnittliche Framerate betrifft, die gefühlte Frameratensteigerung kann niedriger sein.

PCGH_Carsten
2007-08-12, 15:15:26
Du willst dir also ein Gigabyte-Mainboard kaufen. Da hat das Mainboard doch ganz schön viel Speicher. Da kauf ich mir lieber ein GIGABYTE-Mainboard, denn den ein Gigabyte brauch ich nicht auf mein GIGABYTE-Mainboard, da nehm ich lieber RAM.

Gigabyte: GiB
GIGABYTE: Firma


Was machst du, wenn die ersten Firmen anfangen, dir vorschreiben zu wollen, nur noch Calibra 34 punkt Fett unterstrichen als Namen gelten zu lassen? Oder spaßige, nichteuropäische Schriftarten?

Der Duden sieht nicht vor, Worte, die keine Abkürzungen sind, mit mehreren Großbuchstaben zu schreiben. Und selbst bei Abkürzungen wird mit zunehmender Eindeutschung die durchgehende Großschreibung weggelassen.

LASER -> Laser
RADAR -> Radar
Selbst die etwas fachspezifischen Begriffe DPI und SCART wurden zu Dpi und Scart.

crux2005
2007-08-12, 15:37:20
Gigabyte: GiB

ist auch falsch:

GiB = Gibibyte ;)

http://de.wikipedia.org/wiki/Mebibyte#Einheiten_f.C3.BCr_gro.C3.9Fe_Mengen_Bytes

Gnomoru
2007-08-12, 17:30:42
Man ihr seid wieder toll.:frown:

Gast
2007-08-12, 17:47:51
das sagt der richtige (erbsenzähler) :rolleyes:

Hier gibts eine abgesägte 2600pro zu bestaunen:

http://group.zol.com.cn/5/6_47716.html


echt niedlich das ding :D

nagus
2007-08-12, 18:12:30
das ist ja ein geiles teil!

RX2600XT Diamond 512 (http://global.msi.com.tw/index.php?func=proddesc&prod_no=1281&maincat_no=130&cat2_no=137)
850Mhz Core und 2300Mhz Ram!!!

kostet allerdings auch 170 euro: http://geizhals.at/eu/a268746.html

Gast
2007-08-12, 19:17:01
Sicherlich keine schlechte Karte, aber beeindrucken tut sie mich nicht.

Sie hat nur ein 1/4 so großes Speicherinterface wie die 2900XT und verfügt außerdem nur über 120 statt 320 SPU.
Für (weniger) als das doppelte Geld bekommt man die vollwertige 2900XT schließlich schon.

Ich hätte lieber eine Karte mit 256 bit @ 800 MHz + 160 SPU oder mehr!

AnarchX
2007-08-12, 19:35:27
Ich hätte lieber eine Karte mit 256 bit @ 800 MHz + 160 SPU oder mehr!

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5743510#post5743510
:wink:

@RX2600XT Diamond 512:

Naja, der GPU-OC ist ja eher lächerlich, da scheint wohl RV630 trotz 65nm Prozess schon ziemlich am Limit zu laufen.
"OC-Rekorde" hat man bisher auch noch keine im Netz gesehen, ob es an der Verfügbarkeit liegt oder einfach daran, dass hier nichts mehr drin ist? :uponder: *Wenn man sich da G84 anschaut, der mit einem leichten VMod schon auf 1GHz(~2.1GHz SPs) geht.*

Nakai
2007-08-12, 21:03:38
Naja ATI ist doch dafür bekannt, dass sie ihre Chips schon eher am Limit laufen lassen als NV.

mfg Nakai

Gnomoru
2007-08-12, 22:07:37
Die X1900XT/X1950XT ließ sich höher takten als die 7900GTX

AnarchX
2007-08-12, 22:23:12
Die X1900XT/X1950XT ließ sich höher takten als die 7900GTX

Naja, bei der 7900GTX wurde sogar noch eine Version mit 700MHz verkauft, während bei ATi bei 650MHz Schluss war und User-Ocing ist nicht der beste Indikator für die Möglichkeiten eines Chips.

Aber Nakai hat schon recht, wie auch in Vergangenheit ist die R6xx-Serie immernoch sehr am Limit konzipiert. Naja, hoffentlich wird das bei zukünftigen Generationen nachdem Dave "Takt ist alles" Orton nun weg ist, endlich wieder besser. ;)

Gast
2007-08-13, 09:45:02
Komische Argumentation. Vielleicht will man ja auch SLI, um die gewünschte Optik und Auflösung in höherer Framerate zu bekommen.Wem es wirklich nur um flüssigere Grafik geht, der bekommt ja auch das Gewünschte. Die meisten missverstehen höhere FPS allerdings mit besserer Spielbarkeit und fallen dann mit AFR auf die Schnauze. Gibt schließlich auch viele, die einfach nicht verstehen können, wie in Tagen vor der 3D-Beschleunigung Leute mit 20 FPS zufrieden sein konnten. Sicher sah das nicht so flüssig aus wie heutzutage, durch die geringeren Latenzen war es aber von der Spielbarkeit mit dem, was man mittlerweile für vernünftig spielbar hält, absolut gleichwertig.

Gast
2007-08-13, 10:36:22
http://www.tcmagazine.com/comments.php?shownews=15701&catid=2

wann komen eigtl endlich die hier :?

DerKleineCrisu
2007-08-13, 17:35:27
Naja ATI ist doch dafür bekannt, dass sie ihre Chips schon eher am Limit laufen lassen als NV.

mfg Nakai


bestätige i könnte max. gem ATI tool jeweils 50Mhz höher gehen

Also bei mit statt 800/800 auf 850/850....

Blinx123
2007-08-14, 00:54:24
Hat sich eigentlich mit dem neuen Catalyst was verändert? Gabs da einen kleinen oder gar mittleren Leistungssprung bei den Radeon 2600er XT und Pro Karten? Ich hoffe ja,dass bald Gemini Karten kommen und dann hoffentlich auch welche für AGP. Ich suche nämlich im Moment eine DirectX10 AGP Karte,die stark genug für ordentliches Gaming ist. Was die Radeon 2900XT angeht,hat man mir da nicht viel Mut gemacht,dass die für AGP erscheint.

Gast
2007-08-15, 12:12:25
für was eine DX10-karte für agp? mit den alten DX9-karten die auch auf AGP erhältlich sind fährst du viel besser.

Gast
2007-08-16, 14:19:24
Z.B. weil die neuen Modelle ganz tol HD-Video beschleunigen? Oo


BTW: Hat schon wer passive AGP-Karten sichten können?

Gast
2007-08-16, 16:26:30
Z.B. weil die neuen Modelle ganz tol HD-Video beschleunigen? Oo



als videobeschleuniger brauchst du eh keine highend-karte, und die funktioniert momentan bei den X2900-karten eh noch nicht wirklich.

Halema
2007-08-21, 14:10:04
gibt es schon irgendwo ergebnisse, welche treiber welche leistung bringen?

tom1976
2007-08-24, 20:12:44
Moin, Moin.
Gibt es Vergleichsbenschmarks zwischen einer x800xt pe und der hd 2600pro, beide für agp? Über Google.de hatte ich keinen Erfolg.
Möchte nämlich aufrüsten (sofern man das ausrüsten nennen kann) und auf jedenfall bei agp bleiben.
Da die Frequenzen der 2600pro höher sind, wird sie doch auch "deutlich" schneller sein, oder nicht?
Oder ist man immer noch mit einer x1950pro besser bedient, obwohl sie älter ist?
Danke, egal für was ^^

AnarchX
2007-08-24, 20:14:08
Die X1950Pro ist definitiv schneller als die X800XT-PE, was ich bei der 2600Pro eher bezweifele, da diese doch ziemlich kastriert wird durch den verbauten GDDR2 und auch so von den Einheiten nicht so viel Power hat, dass die 600MHz noch helfen würden.
Die X1950Pro sollte laut Computerbase um die 80% schneller sein als die 2600Pro.

Ferengie
2007-08-25, 10:52:24
@tom1976

ich hab ne X850XT@ 580/580 und eine HD2600XT und etwas CSS gezoggt/Bioshock und die neusten Siedler.

Beim CSS Benchmark war bei 1650 Auflösung die Graka 20FPS langsamer, aber auf HDR Maps war das Spielen ca. 10fps flüssiger.

Bei Bioshock hatte am Anfangs 15fps und im Game 25-30fps.

Die HD2600Pro lohnt auf jeden Fall nicht, nur die XT.
Bei einigen Spielen sind HD2600XT und die X1950 fast gleich, bei anderen ist die X1950Pro noch deutlich schneller.

Aber die CPU Entlastung bei HD Sachen ist schon ziemlich genial.
Lustig ist aber wenn ich mit dem Media Classic Player HD Trailer mit .hdmov angucke...keine Entlastung, wenn ich die Datei in .mov abändere und auch in MCP angucke...funzt sie wieder. Man muss also aufpassen welche Endung, welchen Filter bedient.

AnarchX
2007-08-25, 14:22:46
UVD kann man doch schon mit dem MPC ansprechen?
Hatte immer nur gedacht, dass man dafür PowerDVD 7.3 bräuchte, oder war das nur für PureVideo HD?

@2600 Performance:
Mit AA hattest du aber nicht getestet? Da dürfte die HD 2600XT der X1950Pro doch duetlich unterlegen sein, in nahezu allen Games.

Gast
2007-08-25, 14:51:08
UVD kann man doch schon mit dem MPC ansprechen?
Hatte immer nur gedacht, dass man dafür PowerDVD 7.3 bräuchte, oder war das nur für PureVideo HD?


der powerdvd-codec ist ein direct-show-decoder und kann damit auch von MPC benutzt werden.

AnarchX
2007-08-25, 14:52:45
der powerdvd-codec ist ein direct-show-decoder und kann damit auch von MPC benutzt werden.

Aber der muss ja dann erstmal installiert sein? ;)

Gast
2007-08-25, 15:12:05
Aber der muss ja dann erstmal installiert sein? ;)

natürlich.

Der IP-Missbraucher
2007-08-26, 12:42:26
Gibt es eigentlich neues zur Dual HD 2600 XT?

Gast
2007-08-26, 13:20:37
Aber die CPU Entlastung bei HD Sachen ist schon ziemlich genial.
Ja, prima. Meine CPU läuft hier grad unter 30% Auslastung, während ich "300" gucke. Da muss dringend Entlastung her. ;)

Gast
2007-08-26, 14:38:27
Aber die CPU Entlastung bei HD Sachen ist schon ziemlich genial.

also ich hab mit meiner 8800GTS, welche ja die erste stufe des decodings nicht unterstützt bei 1080i-material gerade mal 30-40% auslastung, da muss sich die cpu nichtmal aus ihrem "speedstep-schlaf" erheben.

CoreAVC erreicht das gleiche übrigens ganz ohne GPU-beschleunigung.

Ferengie
2007-08-26, 20:37:32
Genau und ihr habt alle ne AGP System oder ne 3200+ CPU... mit ne 3GHz C2D unter der Haube seid ihr mit 30%CPU Last mit 1080i oder 720p richtige Helden.

Gast
2007-08-26, 21:55:09
mit ne 3GHz C2D unter der Haube seid ihr mit 30%CPU Last mit 1080i oder 720p richtige Helden.


och, bei 30% auslastung bleibt der C2D beim 6-er multiplikator, was gerade mal 2GHz ergibt.

im nebenrechner ist übrigens ein Pentium-M mit 2,4GHz, der hat mit CoreAVC auch komplett ohne hardwarebeschleunigung kein problem.

up¦²
2007-08-28, 13:49:33
Palit HD 2600 XT - Speed vs Memory
Does this make Palit a bad company for releasing a 512MB version of the card? No! The bottom line is it doesn’t matter what you tell some people, they will be convinced that a 512MB mid-range card is so much better than a 256MB one and if Palit didn’t have a 512MB offering the user would simply go off and buy another brand.

http://www.tweaktown.com/articles/1166/palit_hd_2600_xt_speed_vs_memory/index.html

:wink:

laser114
2007-08-28, 14:43:53
Naja, ob man das Fazit so unterschreiben kann...

Gerade die HD 2600 XT 256 MB von Palit ist P/L-mäßig gut eingeordnet, mit ihren gut 80€ kann man da auch noch nicht mit X1950 kommen (in deren Regionen ja Palit mit der X1950 GT auch eine 512 MB-Karte hat...)
Ist ja auch eine Frage des Marktes, auf dem man abzieht. Für den absoluten Speichermarkt hat bereits diese 1 GB 8600 GT gesorgt. ;)

AnarchX
2007-08-30, 13:44:56
2600XT Gemini - Erste Benchmarks (http://66.249.91.104/translate_c?hl=de&ie=UTF-8&oe=UTF-8&langpair=zh%7Cen&u=http://news.mydrivers.com/1/90/90174_1.htm&prev=/language_tools)

Gast
2007-08-30, 17:38:41
gibt es benchmarks zwischen der gddr3 und gddr4 version?
am besten mit min fps?

welche karte ist zu empfehlen/wo liegt der vorteil bei gddr4?

AnarchX
2007-08-31, 13:00:32
GeCube are shipping the dual HD 2600 XT (http://www.beyond3d.com/content/news/447)

Prices quoted by GeCube are $279 for the 512MiB-per-chip version, and $259 for the 256MiB-per-chip one.

edit: Urks... die 1GB Variante hat nur DDR2 verbaut und hat so effektiv weniger Bandbreite als eine GDDR4 XT:
http://my.ocworkbench.com/bbs/showthread.php?p=420057#post420057 :rolleyes:

Ferengie
2007-08-31, 14:27:41
Und kein Treiber dazu oder?
Bei Luxx hat einer eine Dual/Gemini in CF nicht zum Laufen bekommen.

Unterschied GDDR4: dort ist meist Black Box dabei.

up¦²
2007-09-15, 13:48:35
Sehr schön! :tongue:
eine passive 26er mit agp!
http://global.msi.com.tw/index.php?func=proddesc&prod_no=1303&maincat_no=130&cat2_no=137#
und das dolle ist, recht gunstig lieferbar!

marktcheck: 26er schon ab 82,82 :biggrin:
http://geizhals.at/eu/?fs=2600+agp&in=&x=28&y=13

Ferengie
2007-09-15, 14:22:22
Die XT Variante in AGP wird von Amazon.com schon verkauft.

Gast
2007-09-15, 14:39:33
Sehr schön! :tongue:
eine passive 26er mit agp!
http://global.msi.com.tw/index.php?func=proddesc&prod_no=1303&maincat_no=130&cat2_no=137#
und das dolle ist, recht gunstig lieferbar!

marktcheck: 26er schon ab 82,82 :biggrin:
http://geizhals.at/eu/?fs=2600+agp&in=&x=28&y=13
Das weniger doller ist:
"256MB DDR2 800MHz Memory"

=12,8 GByte/sek. :(

Und wenn ich nicht zocken will, kann ich lieber gleich die 2400er nehmen - günstiger und kühler.

up¦²
2007-09-15, 14:49:11
Das weniger doller ist:
"256MB DDR2 800MHz Memory"

=12,8 GByte/sek. :(

Und wenn ich nicht zocken will, kann ich lieber gleich die 2400er nehmen - günstiger und kühler.
So schlecht ist die pro garnicht...
rund 20% sind zu verschmerzen!

Gast
2007-09-15, 15:31:51
So schlecht ist die pro garnicht...
rund 20% sind zu verschmerzen!
Es geht nicht um die Pro. Es geht um die Speicherbandbreite.

Die XT hat 1.100 MHz oder 800 MHz, diese deine Pro hat 400 MHz...

laser114
2007-09-15, 15:33:11
Die 2600 Pro hat generell nur 400 MHz RAM-Takt.

Gast
2007-09-15, 17:35:11
Die 2600 Pro hat generell nur 400 MHz RAM-Takt.
Ja, eine Crux, gell?

Selbst die nicht allzu schnelle 2600 XT hat beinahe die dreifache Bandbreite in der GDDR4-Ausführung.

up¦²
2007-09-17, 11:56:40
Warum weichen die SPECviewperf-Werte hier verdoppelt? :confused:
FireGL V5600 256MB PK <---> Radeon HD 2600 XT 256MB
http://www.hardspell.com/english/doc/showcont.asp?news_id=1414&pageid=1737

AnarchX
2007-09-17, 11:59:03
Weil nunmal, wenn eine FireGL/Quadro im System ist der Treiber spezielle Optimierungen bereitstellt, z.B. Wireframe-Darstellung wird bei den Radeon/GeForce massiv gebremst.

dildo4u
2007-09-26, 17:31:26
Computerbase Review der Sapphire Radeon HD 2600 XT X2

Fazit


Da wir den Marktpreis der Sapphire Radeon HD 2600 XT X2 noch nicht kennen und uns nur eine offizielle Preisempfehlung von 299 Euro bekannt ist, fällt es derzeit etwas schwer, den 3D-Beschleuniger abschließend zu beurteilen, obwohl er – rein von der Leistung her – einen recht positiven Eindruck hinterlassen hat. Mit der Radeon HD 2600 XT X2 stößt ATi erstmals in eine Performanceregion vor, in der es keine wirkliche Konkurrenz in Form einer einzelnen Karte gibt. Die (günstigere) GeForce 8600 GTS ist merklich langsamer, während die (voraussichtlich in etwa gleich teure) GeForce 8800 GTS 320 schneller ist. Und genau das ist das Problem. Stellt man Preis und Leistung in Relation, ist die Sapphire Radeon HD 2600 XT X2 einfach zu teuer.

Soll es die Leistung der Radeon HD 2600 XT X2 sein, empfehlen wird derzeit eher zwei einzelne Radeon-HD-2600-XT-Karten zu kaufen und diese im CrossFire-Verbund laufen zu lassen – mit gut 170 Euro für die Grafikkarten ein deutlich günstigeres Unterfangen. Falls man Besitzer eines nForce-Mainboards von Nvidia ist, oder nur einen PCIe-Slot zur Verfügung hat, entfällt diese Option natürlich. In diesem Fall wäre die GeForce 8800 GTS 320 die richtige Wahl. Für gut 240 Euro erhält man am Ende sogar noch etwas mehr Leistung.

Wir raten also dazu bei der Radeon HD 2600 XT X2 erst einmal abzuwarten, bis der Preis etwas gesunken ist. Dann ist die Grafikkarte unter Umständen einen genaueren Blick wert, da es performancetechnisch keinen direkten Gegenspieler gibt. Unabhängig davon sollte man auf jeden Fall noch warten, bis geklärt ist, ob die Dual-GPU-Karte auch in Zukunft auf einem nForce-Mainboard laufen wird, oder ob es in unserem Fall reiner „Zufall“ war, dass diese Konstellation funktioniert hat.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/

reunion
2007-09-26, 17:38:30
Eine offizielle Preisempfehlung von 299 Euro ist eine Frechheit, wo man zwei Einzelkarten schon ab 170€ bekommt.

MadManniMan
2007-09-26, 19:08:24
Eine offizielle Preisempfehlung von 299 Euro ist eine Frechheit, wo man zwei Einzelkarten schon ab 170€ bekommt.

Wie so ziemlich jede Dual-Mainstream-Karte ist auch die 2600XT Dual eine Totgeburt. Aus Maus =)

AnarchX
2007-09-26, 19:11:10
Eine offizielle Preisempfehlung von 299 Euro ist eine Frechheit, wo man zwei Einzelkarten schon ab 170€ bekommt.

Wird wohl wieder an dieser PLX-Bridge liegen...

LovesuckZ
2007-10-01, 20:14:14
Bei Xbitlabs (http://www.xbitlabs.com/articles/video/display/radeon-hd2600xt-gddr4.html) gibt es einen Test der X2600XT mit GDDR4 Speicher. Die Werte sind bis auf die Stromaufnahme weniger interessant. Ich errinnere mich noch an eine Diskussion, wo einige behaupteten, dass ein Stromanschluss auf der Karte gleichbedeutend mit einem höhreren Stromverbrauch wäre. Wie man sieht, ist das mitnichten der Fall. Die X2600XT verbraucht eine ähnliche Menge an Strom, bringt jedoch nicht annährend die Leistung einer 8600GTS.

Ferengie
2007-10-05, 17:14:06
Wars das mit AGP und HD2XXX Karten??

Ziemlich spärlich und mager, was bist jetzt für AGP auf den Markt kam.
Keine XT Karten trotz Ankündigung oder wird erst die 55nm Version nochmal AGP "refreshen".

deekey777
2007-10-05, 17:22:32
Wurde die XT überhaupt angekündigt? Bei der X1600er war es so, dass es nur die Pro-Version mit DDR2-Speicher (256 MB) gab. Selbst die X1650Pro AGP hatte DDR2 (wobei es auch eine X1650XT für AGP gab).

Ferengie
2007-10-05, 17:30:33
Für mich sah das Bild hier mehr als Speku aus....

http://www.pcgameshardware.de/screenshots/original/2007/05/AMD_HD2000_Karten_aufstellung.PNG

Super Grobi
2007-10-10, 21:02:22
Schade das die 2600xt x2 nicht so flott ist. Ich persönlich bin faziniert von der Karte :eek:, aber leider ist mir diese etwas zu lahm um mir diese einfach mal zum spass zu kaufen und zu testen.

Schade...
SG

p.s.
wenn die auf Augenhöhe mit der 8800gts 640mb wäre, würde ich zuschlagen ;)

Radeonator
2007-10-12, 14:16:08
Bei Xbitlabs (http://www.xbitlabs.com/articles/video/display/radeon-hd2600xt-gddr4.html) gibt es einen Test der X2600XT mit GDDR4 Speicher. Die Werte sind bis auf die Stromaufnahme weniger interessant. Ich errinnere mich noch an eine Diskussion, wo einige behaupteten, dass ein Stromanschluss auf der Karte gleichbedeutend mit einem höhreren Stromverbrauch wäre. Wie man sieht, ist das mitnichten der Fall. Die X2600XT verbraucht eine ähnliche Menge an Strom, bringt jedoch nicht annährend die Leistung einer 8600GTS.

Aha? Im verlinkten Test steht was anderes...2x Scheisse macht 1x Mist ;)

Die Karten sind Gleichwertig schlecht, nicht mehr und auch net weniger

Gast
2007-10-12, 14:19:14
Aha? Im verlinkten Test steht was anderes...2x Scheisse macht 1x Mist ;)


20,7/28,2/48,6 vs 21,4/31,7/47...
Sieht für mich nach ein gleiches Ergebnis aus.

LovesuckZ

Finstermoor
2007-10-21, 15:06:44
hiho!

was ist eigentl. die max. temp, die die 2600er gpu so verträgt? find die 56°c im idle meiner passiven his hd 2600 pro etwas hoch. die amd/ati page schweigt sich zu dem thema aus :o( ...

so long, finster.

StefanV
2007-10-21, 15:52:18
Computerbase Review der Sapphire Radeon HD 2600 XT X2

Fazit


Da wir den Marktpreis der Sapphire Radeon HD 2600 XT X2 noch nicht kennen und uns nur eine offizielle Preisempfehlung von 299 Euro bekannt ist, fällt es derzeit etwas schwer, den 3D-Beschleuniger abschließend zu beurteilen, obwohl er – rein von der Leistung her – einen recht positiven Eindruck hinterlassen hat. Mit der Radeon HD 2600 XT X2 stößt ATi erstmals in eine Performanceregion vor, in der es keine wirkliche Konkurrenz in Form einer einzelnen Karte gibt. Die (günstigere) GeForce 8600 GTS ist merklich langsamer, während die (voraussichtlich in etwa gleich teure) GeForce 8800 GTS 320 schneller ist. Und genau das ist das Problem. Stellt man Preis und Leistung in Relation, ist die Sapphire Radeon HD 2600 XT X2 einfach zu teuer.

Soll es die Leistung der Radeon HD 2600 XT X2 sein, empfehlen wird derzeit eher zwei einzelne Radeon-HD-2600-XT-Karten zu kaufen und diese im CrossFire-Verbund laufen zu lassen – mit gut 170 Euro für die Grafikkarten ein deutlich günstigeres Unterfangen. Falls man Besitzer eines nForce-Mainboards von Nvidia ist, oder nur einen PCIe-Slot zur Verfügung hat, entfällt diese Option natürlich. In diesem Fall wäre die GeForce 8800 GTS 320 die richtige Wahl. Für gut 240 Euro erhält man am Ende sogar noch etwas mehr Leistung.

Wir raten also dazu bei der Radeon HD 2600 XT X2 erst einmal abzuwarten, bis der Preis etwas gesunken ist. Dann ist die Grafikkarte unter Umständen einen genaueren Blick wert, da es performancetechnisch keinen direkten Gegenspieler gibt. Unabhängig davon sollte man auf jeden Fall noch warten, bis geklärt ist, ob die Dual-GPU-Karte auch in Zukunft auf einem nForce-Mainboard laufen wird, oder ob es in unserem Fall reiner „Zufall“ war, dass diese Konstellation funktioniert hat.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/

Na, wie gut, das sie erwähnt haben, das man 4 DVI Ports bekommt und auch alle 4e nutzen kann...
Und das man bei aktuellen Brettern 2 davon nutzen kann, so dass man mit 2 Karten 8 DVI Ports bekommt, wie schaff ich das mit Einzelkarten??

DrFreaK666
2007-10-22, 15:31:23
Die 2600Pro ist schon ein gutes Stück schneller als meine 6800GT, oder?

laser114
2007-10-22, 15:32:58
Pooh, die Speicherbandbreite könnte da manchmal zum Problem werden. Eine mit GDDR3 ist es auf jeden Fall, bei den 400MHz-DDR2-Dingern bin ich mir da aber nicht so sicher.

AnarchX
2007-10-22, 15:35:21
Wenn du nicht gerade eine GDDR2-Version kaufst, so wird sie schon um einiges schneller sein, aber wohl selbst dann in einigen Games.

z.B. in UT3 Demo ist eine 2600XT schon dreimal so schnell wie eine 6800Ultra:
http://www.pcgameshardware.de/?menu=browser&article_id=617402&image_id=716476&show=original

Aber auch kein Wunder bei 192GFLOPs (inkl. Vertex) MADD vs 53GFLOPs MADD.

dildo4u
2007-10-22, 15:40:01
Die XT würde ich nicht als Maßstab für die Pro nehmen die ist deutlich Schwächer fürs Gamen ist eine Pro nix.Dann lieber auf eine 1950GT sparen.

http://www.xbitlabs.com/articles/video/display/asus-eah2600pro_6.html#sect0

AnarchX
2007-10-22, 15:42:42
Eine GDDR2 Pro sollte man ja auch nicht kaufen, wenn Palit schon ganz unten eine GDDR3 anbietet:
http://geizhals.at/deutschland/?cat=gra16_256&bpmax=&asuch=2600&pixonoff=off&sort=p

Für 65€ sicherlich nicht verkehrt, wenn man nicht unbedingt BQ-Liebhaber ist.

laser114
2007-10-22, 15:51:11
Für 65€ sicherlich nicht verkehrt, wenn man nicht unbedingt BQ-Liebhaber ist.

Die BQ der 2600er ist doch ganz gut?

dildo4u
2007-10-22, 15:52:28
Die BQ der 2600er ist doch ganz gut?
Nich wenn man wegen der miesen Performance auf AA und hohes (HQ)AF verzichten muss und darum gings whol. ;)

AnarchX
2007-10-22, 15:55:32
Genau, wobei 4xfwu-AF doch schon ausreichen sollte bzw. man bei dem Preis nicht unbedingt viel mehr erwarten sollte.

laser114
2007-10-22, 16:01:07
Naja, da gilt aber klar Preis entspricht gebotener Leistung. ;)
Wobei die 6800GT ja auch kein Bildqualitäts-Meister ist.

AnarchX
2007-10-22, 16:04:25
Wobei die 6800GT ja auch kein Bildqualitäts-Meister ist.
Hybrid-AA ftw!:D

Nein, da hast du recht in Sachen BQ-Features ist die HD2600 deutlich überlegen, nur fehlt ihr etwas die Leistung diese zu liefern -> nur 4 ROPs,...

DrFreaK666
2007-10-22, 17:13:38
Die XT würde ich nicht als Maßstab für die Pro nehmen die ist deutlich Schwächer fürs Gamen ist eine Pro nix.Dann lieber auf eine 1950GT sparen.

http://www.xbitlabs.com/articles/video/display/asus-eah2600pro_6.html#sect0


Ich will die 2600Pro in mein HTPC einbauen.
Wenn Racing-games in 1280x720 mit 2xMSAA/4xAF flüssig laufen reicht mir das schon.
Eine schnellere Graka kommt dann in den Spiele-PC

Stormscud
2007-10-22, 19:25:00
Welche Racing Games denn? Glaub wenn die nicht zu alt sind, wäre die XT wohl trotzdem besser, v.a. da du ja mit leichten BQ Verbesserungen spielen willst.

up¦²
2007-10-24, 11:19:09
Review:
HIS RADEON HD 2900 PRO 512MB
http://www.digit-life.com/articles2/video/r600-3-page1.html
This situation is more difficult to analyze than usual, because NVIDIA does not offer anything in the $250 segment.
... und das lieferbar!
http://geizhals.at/deutschland/a280299.html

DrFreaK666
2007-11-06, 19:37:41
Welche Racing Games denn? Glaub wenn die nicht zu alt sind, wäre die XT wohl trotzdem besser, v.a. da du ja mit leichten BQ Verbesserungen spielen willst.

Ich dachte da an World racing 2 oder Xpand Rally