PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - HD 2600XT und Pro: (P)Review-Thread


Seiten : 1 [2] 3

Crazy_Chris
2007-06-25, 11:27:34
Unbrauchbare Messung, da das Gesamtsystem gemessen wird.

Ist aber Vergleichbar da sich nur die Grafikkarte ändert.

Gast
2007-06-25, 11:30:16
(CB sagt übrigens Vebrauch: XT > Ultra (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/35/#abschnitt_stromverbrauch) (ja Gesamtsystem, aber das ist ja das was man am Ende bezahlen muss ;)))Richtig. Dazu kommt auch noch, dass bei der NV-Karte ein 680i verwendet wurde, während die 2900xt auf einem 975x zum Einsatz kam, was auch nochmal ein paar Watt ausmacht. Da es anscheinend keine Messungen von Xbit gibt, haben wir eben nur die CB-Messungen zur Verfügung und da steht der R600 deutlich stromfressender da.

Gast
2007-06-25, 11:31:13
Richtig. Dazu kommt auch noch, dass bei der NV-Karte ein 680i verwendet wurde, während die 2900xt auf einem 975x zum Einsatz kam, was auch nochmal ein paar Watt ausmacht.Habe mich hier wohl geirrt. Der 975x wird anscheinend doch nur für Crossfire-Systeme verwendet.

reunion
2007-06-25, 11:50:29
Messungen des Gesamtsystems sind wertlos. Es gibt auch dutzende Messungen, in denen die Ultra höher liegt, u.a. in der neuen PCGH.

Gast
2007-06-25, 11:59:20
Äh... Ich habe ein System in das ich einmal die Ultra stecke und dann die 2900XT. Das gleiche System, nur jeweils die zwei verschiednen Karten. Das Testsystem hat mit Karte Grün aber eine deutlich geringere Leistungsaufnahme als mit Karte Rot. Jetzt erklär mir mal was daran nutzlos ist, das sind klare Messungen bei definierten Randbedingungen aus denen man zwar nicht auf die absolute Leistungsaufnahme der Karten schliessen kann, wohl aber eine "verbraucht mehr als" Aussage ableiten kann. Auch wenn das die Fans der einen Farbe vielleicht nicht so gerne hören, es ändert nichts an den Messwerten.

Leonidas
2007-06-25, 12:11:26
Mmh. Wo liegt hier das Problem? Der diesbezügliche 3DC-Artikel (http://www.3dcenter.org/artikel/2007/05-24_a.php) klärt alle entsprechenden Fragen nach dem Verbrauch:

ATI Radeon HD 2400 Pro: geschätzt 20 Watt
ATI Radeon HD 2400 XT: geschätzt 25 Watt
ATI Radeon HD 2400 XT: geschätzt 35 Watt
ATI Radeon HD 2600 XT GDDR3: geschätzt 45 Watt
ATI Radeon HD 2600 XT GDDR4: geschätzt 45 Watt
ATI Radeon HD 2900 XT: gemessen 161 Watt (Idle 72W)

nVidia GeForce 8400 GS: geschätzt 25 Watt
nVidia GeForce 8500 GT: geschätzt 25 Watt
nVidia GeForce 8600 GT: hochgerechnet 40 Watt (Idle 20W)
nVidia GeForce 8600 GTS: gemessen 47 Watt (Idle 21W)
nVidia GeForce 8800 GTS 320MB: gemessen 103 Watt (Idle 56W)
nVidia GeForce 8800 GTS 640MB: gemessen 106 Watt (Idle 58W)
nVidia GeForce 8800 GTX: gemessen 132 Watt (Idle 70W)
nVidia GeForce 8800 Ultra: hochgerechnet 145 Watt (Idle 75W)

Gast
2007-06-25, 12:14:31
Mmh. Wo liegt hier das Problem?

Das nicht sein kann, was nicht sein darf :D

reunion
2007-06-25, 12:46:56
Äh... Ich habe ein System in das ich einmal die Ultra stecke und dann die 2900XT. Das gleiche System, nur jeweils die zwei verschiednen Karten. Das Testsystem hat mit Karte Grün aber eine deutlich geringere Leistungsaufnahme als mit Karte Rot. Jetzt erklär mir mal was daran nutzlos ist, das sind klare Messungen bei definierten Randbedingungen aus denen man zwar nicht auf die absolute Leistungsaufnahme der Karten schliessen kann, wohl aber eine "verbraucht mehr als" Aussage ableiten kann. Auch wenn das die Fans der einen Farbe vielleicht nicht so gerne hören, es ändert nichts an den Messwerten.

Nagut, wenn du kindisch sein willst:

http://www.firingsquad.com/hardware/amd_ati_radeon_hd_2900_xt_performance_preview/images/load.gif

http://www.firingsquad.com/hardware/amd_ati_radeon_hd_2900_xt_performance_preview/page24.asp

Hier verbraucht sie nur 7W mehr als eine GTX: http://www.hardwareluxx.de/cms/artikel.php?action=show&id=546&seite=5

Und nun? Ist das nicht "das gleiche System, nur jeweils die zwei verschiednen Karten. Jetzt erklär mir mal was daran nutzlos ist, das sind klare Messungen bei definierten Randbedingungen aus denen man zwar nicht auf die absolute Leistungsaufnahme der Karten schliessen kann, wohl aber eine "verbraucht mehr als" Aussage ableiten kann."

AnarchX
2007-06-25, 12:54:34
Nagut, wenn du kindisch sein willst:

http://www.firingsquad.com/hardware/amd_ati_radeon_hd_2900_xt_performance_preview/images/load.gif

http://www.firingsquad.com/hardware/amd_ati_radeon_hd_2900_xt_performance_preview/page24.asp

EVGA nForce 680i SLI motherboard
ASUS P5W DH Deluxe (for Radeon HD 2900 XT cards)
;)


Hier verbraucht sie nur 7W mehr als eine GTX: http://www.hardwareluxx.de/cms/artikel.php?action=show&id=546&seite=5
?
Würde mich nicht wundern, wenn man hier sich Arbeit gespart hat und die GTX im 680i Board getestet hat...
Zudem würde ich, wenn man sich andere Werte dort anschaut, nicht unbedingt viel auf diesen Test geben.

reunion
2007-06-25, 13:02:40
;)


Würde mich nicht wundern, wenn man hier sich Arbeit gespart hat und die GTX im 680i Board getestet hat...
Zudem würde ich, wenn man sich andere Werte dort anschaut, nicht unbedingt viel auf diesen Test geben.

Tja, in der aktuellen PCGH wurde das gleiche System genommen, und da liegt sie ebenfalls unter der Ultra. Die Kernaussage bleibt, Messungen des Gesamtsystems führen zu viel zu großen Ungereimtheiten, alleine schon wenn man sich die Streuungen der einzelnen Tests ansieht.

seahawk
2007-06-25, 13:05:34
Exakt und in jedem Falle scheint ATI mehr Luft zur TDP zu haben (prozentual) als NV.

Gast
2007-06-25, 13:05:58
;)


Zudem würde ich, wenn man sich andere Werte dort anschaut, nicht unbedingt viel auf diesen Test geben.


Steht doch auch so im Test drin. Also ist dieser Vergleich in der Tat sinnlos.

http://www.firingsquad.com/hardware/amd_ati_radeon_hd_2900_xt_performance_preview/page7.asp

seahawk
2007-06-25, 13:11:33
Dafür ist der Performancefrage auch recht offen. Die XT DDR3 schafft rund 4500 Punkte auf nem 2,66 GHZ Core2Duo. Mit dem wesentlich Plus an Bandbreite dürfte die GDDR Version lecker abgehen.

Gast
2007-06-25, 13:22:26
Das ist kaum anzunehmen, da ja auch die R600 nicht "lecker abgeht" trotz der ernormen Bandbreite.

Gast
2007-06-25, 14:19:47
Nagut, wenn du kindisch sein willst:


Kindisch waren alleine deine herausgesuchten "Reviews", AnarchX hats bereits deutlich gemacht, da ist nichts mehr dazu zu sagen ausser dass es verschiedene Systeme waren und dein Vergleich daher wertlos. Aber das hast du ja selbst gewusst...

reunion
2007-06-25, 14:52:55
Kindisch waren alleine deine herausgesuchten "Reviews", AnarchX hats bereits deutlich gemacht, da ist nichts mehr dazu zu sagen ausser dass es verschiedene Systeme waren und dein Vergleich daher wertlos. Aber das hast du ja selbst gewusst...

Nein, das habe ich nicht gewusst, da ich fälschlicherweise davon ausging, dass die Tester auf Vergleichbarkeit achten, aber das war wohl zu viel verlangt. Im übrigen verwendete nur ein Beispiel unterschiedliche Systeme. Und wie schon gesagt, die Kernaussage bleibt.

up¦²
2007-06-26, 11:55:01
Hat jemand nen Account bei denen? :|
http://www.insidehw.com/content/view/159/9/

Radeonator
2007-06-26, 12:16:08
Soll dieser Tage nicht auch die 29x0pro kommen ?

AnarchX
2007-06-26, 12:36:54
Soll dieser Tage nicht auch die 29x0pro kommen ?

Sicherlich nicht, aktueller Termin für den RV670 ist aktuell Q1 2008. ;)

reunion
2007-06-26, 12:41:02
IMPORTANT NOTICE! Due to misread NDA info, we published a review of HD 2600XT & HD 2400XT graphics cards. The review will be put offline until the expiry of the NDA. Sorry for the inconvenience.

http://www.insidehw.com/content/view/161/35/

"Sorry for the inconvenience." :D :D


Die hatten einen Intel QX6700 mit WinXP, 2GB RAM und eine HD2600XT 512MB GDDR4. Im 3dmark2k5 gabs 9302 Punkte und im 2k6 SM2.0/3.0 1788/2268 Punkte. Der höher getaktete Speicher scheint also selbst im 3dmark einiges zu bringen. Eine HD2400XT 256MB GDDR3 erreichte im 3dmark2k5 4951 Punkte und im 2k6 SM2.0/3.0 770/897 Punkte.

Gast
2007-06-26, 12:48:43
und wann fällt die DNA ?

reunion
2007-06-26, 12:51:47
und wann fällt die DNA ?

Dazu gibts noch nichtmal Gerüchte. Aber nachdem bereits die ersten Usertests und Reviews "versehentlich" online waren, kann es nicht mehr lange dauern. AMD scheint das NDA extrem gut dicht zu halten.

AnarchX
2007-06-26, 13:01:28
Es scheint wohl der 28. Juni zu sein, also am Donnerstag:
http://digitimes.com/mobos/a20070625PD212.html

seahawk
2007-06-26, 13:06:49
Wie ich schon immer sagte, die HD 2600XT GDDR hat locker 8600GTS Niveau.

dildo4u
2007-06-26, 13:13:19
Wie ich schon immer sagte, die HD 2600XT GDDR hat locker 8600GTS Niveau.
Wenn du das aus den 3DMark Werten ableitest dann liegt eine 2900XT auch auf 8800GTX Niveau von daher würde ich richtige Tests abwarten.Vorallem Benches mit AA und AF können ein deutlich anderes Bild zeigen.

reunion
2007-06-26, 13:14:44
Wie ich schon immer sagte, die HD 2600XT GDDR hat locker 8600GTS Niveau.

Abwarten. Wenn man sich die Scores so ansieht, dann hat das Topmodell, die XT mit GDDR4 knapp 8600GTS-Niveau. Allerdings hat auch ein R600 im 3dmark knapp 8800GTX-Niveau, wovon in manchen Spielen nicht viel übrig bleibt. Wobei die 8600GTS im 3dmark auch verhältnismäßig gut liegt und eine X1950pro klar schlägt, wovon in realen Spielen auch wiederrum nicht viel übrig bleibt. Also daraus kann man noch nicht wirklich was ableiten IMHO.

AnarchX
2007-06-26, 15:02:19
http://www.directupload.com/files/wdiomt2ym5yvmdcnzkok.jpg (http://www.directupload.com/)
http://www.directupload.com/files/muowrwtnym3jhyinzzhd.jpg (http://www.directupload.com/)
http://www.directupload.com/files/zt2yyazdzmnkhmgnwzmi.jpg (http://www.directupload.com/)
http://www.directupload.com/files/zbymtzbdyley5iikzymm.jpg (http://www.directupload.com/)
http://www.directupload.com/files/jqhtzngwi1zkdjdmzkn1.jpg (http://www.directupload.com/)
http://www.directupload.com/files/mmyimyz1n255tdenmqjd.jpg (http://www.directupload.com/)
http://we.pcinlife.com/thread-786552-1-1.html

Also 2600XT vs 8600GT. ;)

dildo4u
2007-06-26, 15:08:36
Scheint alles ohne AA zu sein hmm und die 2600XT ist whol wirklich gegen die 8600GT gesetzt.

AnarchX
2007-06-26, 15:09:19
Imo kommen diese Werte wohl von ATi, wie schon damals bei der HD 2900XT.

reunion
2007-06-26, 15:23:05
Bleibt die Frage welche XT das war. Vermutlich nur die mit GDDR3, wenn man sich die 3dmark-Werte mal ansieht. Ansonsten: Wenn die Benchs stimmen, sollte das zumindest bei der GDDR4-Karte auch für die GTS reichen, immerhin ist die ja kaum schneller. Das sich die GDDR3 XT preismäßig bei der GT einordnet, war schon lange klar.

seahawk
2007-06-26, 15:29:08
Geil, teilweise 100% schnelelr als die 8600er. Da hat ATI mal wieder einene richtigen Knaller gebracht. :up:

Gast
2007-06-26, 15:43:10
Geil, teilweise 100% schnelelr als die 8600er. Da hat ATI mal wieder einene richtigen Knaller gebracht. :up:Ja natürlich, ATI bringt doch in deinen Augen nur und ausschließlich Knaller. Troll doch woanders.

DerKleineCrisu
2007-06-26, 16:16:28
Geil, teilweise 100% schnelelr als die 8600er. Da hat ATI mal wieder einene richtigen Knaller gebracht. :up:

sehr sinnfrei ne XT gegen ne GT zu testen. wenn dann XT gegen ne GTS dann könnte man es vergleichen.

SavageX
2007-06-26, 16:21:06
sehr sinnfrei ne XT gegen ne GT zu testen. wenn dann XT gegen ne GTS dann könnte man es vergleichen.

Wenn die getestete XT eine "billige" ~100 Euro Variante ist, dann lohnt der Vergleich doch durchaus - bisher ist die GT ja noch einen kleinen Tacken teurer, und wenn die XT unter dem Strich pi mal Daumen genauso schnell oder gar schneller ist, dann ist doch alles in Butter.

Gast
2007-06-26, 16:39:09
Hi
neue Benchmarks gibs

HD2600XT vs 8600GT
HD2400XT vs 8500GT/7300GT.

http://we.pcinlife.com/thread-786552-1-1.html

Sterem
2007-06-26, 17:15:13
Hi
neue Benchmarks gibs

HD2600XT vs 8600GT
HD2400XT vs 8500GT/7300GT.

http://we.pcinlife.com/thread-786552-1-1.html

Die Crossfire Performance ist nice.:eek:

Gast
2007-06-26, 17:20:26
Die Crossfire Performance ist nice.:eek:Ist ja auch keine Kunst bei 3D-Mark und Mainstreamspielen.

up¦²
2007-06-26, 18:43:37
So langsam läuft die Sache an :rolleyes:
http://geizhals.at/eu/?fs=hd2600&in=

Bin ja mal bei der CF-Leistung auf dieses Schmuckstück gespannt!

http://img.hexus.net/v2/internationalevents/computex2007/hd2600gemini_large.jpg

Noebbie
2007-06-26, 20:29:44
Bin ja mal bei der CF-Leistung auf dieses Schmuckstück gespannt!

http://img.hexus.net/v2/internationalevents/computex2007/hd2600gemini_large.jpg

Öhm, ich habe da was verpasst! :frown:

Launcht die mit den anderen 2600er? :eek:

Pirx
2007-06-26, 21:18:08
So wie's aussieht sind das doch genau die Karten, die ATi/AMD jetzt braucht.:up:

davidzo
2007-06-26, 22:02:00
Selbst wenn die Tests geschönt wurden sieht es nicht mehr so aus als wenn die HD 2600er Serie ein totaler Flop wird.
Die preise stimmen ja.

Die Taktik ist dieselbe wie zur Einführung des R520, aber ob das sinnvoll ist bezweifle ich. Nur mit dem RV515 und 530 anzutreten hatte dort ja zuerst gekkappt als man nur gegen die 6600GT kämpfen musste die viel zulange kein adäquaten gegner hatte. DerRV560 kam damals deutlich zu spät um der 7600 den rang abzulaufen und ist trotzdem einer der ausgewogensten und besten chips des X1K lineups. PCB und Kühlung von der X1600 und trotzdem fast die doppelte Leistung. Der RV660 oder sein äquivalent (50% hd2900) ist also entweder noch nicht draußen weil man den markt noch nicht mit performanten Dx10 Mainstreamparts fluten möchte weil nvidia ja auch nichts passendes parat hat und man daher die Leute zwingt entweder die teuren teile oder die billigen 128bittigen HD2600er zu kaufen. Oder das liegt wie so oft bei AMD in letzter zeit einfach an mangelnden ressourcen dass dieser Chip nicht zugleich mit den restlichen gelauncht wird. Na bis Weihnachten haben die AMD Boffins ja auch noch zeit.

Die 2600 sieht aber so aus als könnte sie AMD mainstreammäßig ersteinmal über wasser halten. Da Crossfire ja gute Ergebnisse Zeigt gehe ich davon aus, dass die dual 2600xt ersteinmal die Lücke zwischen mainstream und highend schließen kann.

Richtig ins grüne Fleisch schneiden können wird man allerdings mit der 2400. Die Karte ist zwar nicht unbedingt deutlich schneller als die 8400, aber das zählt im OEM Sektor ja auch kaum. Die schwerwiegendenPunkte sind vor allem, dass der chip billiger ist als selbst die 8400, das PCB layout noch einfacher und der Stromverbrauch geringer.
Ich rechne damit dass ein gros der Weihnachts Santa Rosa und ab 2008 dann Montevina Notebooks eine 2400 spendiert bekommt.
Grund: DirectX10 zu einem preis, leistung und Thermal envelope in den sonst nur DirectX9 chips ala x1300 oder 7300GS fallen. Und im gegensatz zum G33 ist die Rohleistung auch für Spiele abrufbar. Dabei ist der chip so billig, das die BOM nur unwesentlich gesteigert (um ca. 30$, 20$, d.h. GPU und 10$ Speicher) wird und man hat den nicht unerheblichen marketingbonus eines diskreten Grafikchips. Mit Namingschemes wie zum Beispiel HD2550 wie auch schon bei der mobile X1300/X1600 ist zu rechnen.
In der Tat ist die HD2400 sehr vergleichbar mit der X1300. Die X1300 Serie war wohl das beste lowend lineupwas ATI je hatte, sie hatte 4 hochgetaktete pipelines, SM3.0 und nur die allernötigste shaderleistung weil man davon ausgehen kann dass die Leistung sowieso nur für den directX8 pfad reicht. Also genau am richtigen Ende gespart, solide Grundleistung und trotzdem alle features.
Die HD2400 schätze ich da ähnlich ein. Sie hat immerhin dieselbe Anzahl von ROPS wie die HD2600 und mit 20 textursamplern die hälfte der HD2600. Das sollte ihr zu einer soliden Basisleistung in shaderarmen spielsettings verhelfen, genau das was die Kunden wollen.
Speziell die HD2400XT mit ihrer höheren speicherbandbreite dank 750mhz speichertakt wird gegen die 8400GS/GT auftrumpfen, die nur mit 400mhz Speicher daherkommt. Wenn man shadereffektue herunterfährt wird die karte die 8400 deutlich nass machen und was videobeschleunigung angeht haben wir ja bereits gesehen dass alles gut funktioniert und genau diese beiden Anwendungen sind jene, die in Notebooks gebraucht werden.
Mit fast dem doppelten Stromverbrauch ist die 8400 in keinem Fall eine Wahl für Systemintegratoren und im Retailmarkt haben die Lowendkarten wenig zu suchen...

Vergleich HD2400pro zu HD2900XT und 8400GS zu 8800GTS:
Speicherbandbreite: 7% 2400 14% 8400
Füllrate: 20% 2400 13% 8400
MADDShader: 10% 2400 13% 8400

Bei der 8400GS haben wir also rund eine 10% 8800GTS. Bei der HD2400 haben wir dagegen ein mainstreamorientiertes Produkt welches vor allem bei der Füllrate trumpft. Da die HD2900XT eine übermäßige Bandbreite hat verzerrt die lediglich 7% starke Bandbreite der 2400pro das Bild etwas.
Das, genau dies ist der gRund wieso nvidia versucht seine teurere 8500GT gegen die 2600XT zu positionieren. Dass dieses ein 128bit gegen 64bit Kampf ist und ATIs BOM deutlich geringer ist, wissen wir, die 2400XT mit ihrer fast doppelt höheren Speicherbandbreite und ganzen 24% Füllrate einer HD2900 wird hier also auch gegen die 8400 antreten.
Da das Match HD2900 vs. 8800GTS als unentschieden gilt und wir hier von einer ähnlichen Architektur reden, ist sehr deutlich zu erwarten, dass die HD2400 ob pro oder XT die bessere lowcostkarte wird.
Billiger, kühler und schneller, zumindest in ihrem Einsatzgebiet.

ich freue mich, das ATI hier wieder wie mit der x1300 den Weg der weniger 3dmarks (diese kommen durch shadingleistung zustande, nicht durch füllrate) aber besseren spieleleistung eingeschlagen hat. MADDleistung ist das letzte was ein Lowcostuser braucht, er kauft lediglich featureorientiert, weil er keine Ahnung hat, leider und für seine Spiele benötigt er vor allem Füllrate und Bandbreite. Egal wie es aussieht, hauptsache es ruckelt auf niedrigen Einstellungen nicht, an hohe gar nicht zu denken. Beides bringt die HD2400XT mehr auf die Waage als die meisten Lowcostkarten.

Die 2900xt hat ein schwaches Bild abgegeben, aber die Runde ist noch nicht entschieden. Wer weiß, vielleicht geht sie wiedererwarten doch an AMD. Diese könnten das jetzt jedenfalls ganz gut gebrauchen.

MadManniMan
2007-06-26, 23:16:52
Also wohl die selbe Tendenz, wie beim R600:

Kampfpreis.


Schade nur, daß wie beim 8600 schon ein Name in den Dreck gezogen wird.

AnarchX
2007-06-26, 23:43:51
Vergleich HD2400pro zu HD2900XT und 8400GS zu 8800GTS:
Speicherbandbreite: 7% 2400 14% 8400
Füllrate: 20% 2400 8% 8400
MADDShader: 10% 2400 13% 8400

:|

3.6GTex/s im Vergleich zu 24GTex/s sind aber 15%.

Die 2400er Series wirde übrigens hier behandelt:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=368484
Wo ich auch auf die gewissen Beschneidungen beim RV610 hingewiesen habe:
Besonderheiten: nur FP16-Blending, HierachicalZ wurde entfernt, keine Farbkompression in den ROPs (wichtig für AA)

deekey777
2007-06-26, 23:50:12
Die HD 2400 ist die nächste 5200 (vielleicht "echte" 6200). Im positiven Sinne: kaum Leistung, dafür aber andere Fähigkeiten wie UVD+HDMI, was für Aldi-PCs viel wichtiger ist.

up¦²
2007-06-26, 23:56:37
Die HD 2400 ist die nächste 5200 (vielleicht "echte" 6200). Im positiven Sinne: kaum Leistung, dafür aber andere Fähigkeiten wie UVD+HDMI, was für Aldi-PCs viel wichtiger ist.
Aldi-PC's hatten eigentlich immer ordentliche 3d-Leistung für's Geld.
Die 2600XT könnte ich mir sehr gut im nächsten Angebot vorstelln.

deekey777
2007-06-26, 23:58:38
Aldi-PC's hatten eigentlich immer ordentliche 3d-Leistung für's Geld.
Die 2600XT könnte ich mir sehr gut im nächsten Angebot vorstelln.
Es wird die HD 2350 sein, wenn die Gerüchte stimmen.

AnarchX
2007-06-26, 23:59:24
Aldi-PC's hatten eigentlich immer ordentliche 3d-Leistung für's Geld.
DK777 meinte wohl eher generell OEM-PCs und ja da ist RV610 ein wahrer Killer, weshalb man bei NV einen entsprechenden Gegenpart in Entwicklung hat, der noch dieses Jahr kommen wird.


Die 2600XT könnte ich mir sehr gut im nächsten Angebot vorstelln.
Wohl eher eine 2700XT oder 2650XT, da man bei Medion immer etwas besonderes will. :biggrin:

Es wird die HD 2350 sein, wenn die Gerüchte stimmen.
Da wird es aber nicht unbedingt ein PC sein, der sich auch an "Spieler" richtet.

davidzo
2007-06-27, 00:18:03
:|

3.6GTex/s im Vergleich zu 24GTex/s sind aber 15%.

Die 2400er Series wirde übrigens hier behandelt:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=368484
Wo ich auch auf die gewissen Beschneidungen beim RV610 hingewiesen habe:

Seit wann hat die 8400GS 3,6Gtex/s? Ich komme da eher auf 1.6GTex/s und bei der 8800GTS auf 12, natürlich alles trilinear. EDIT: Hatte am Anfang mit der 8800GTX gerechnet, daher der Unterschied von 8%. Habs jetzt korrigiert, 13%.
Ich rede nicht von der 8500. Dieser Vergleich wäre nichteinmal für die HD2400Xt angebracht, da die 8500GT ein 128bit Interface hat und daher nicht für den OEM-LowCost Bereich geeignet ist.

Besonderheiten: nur FP16-Blending, HierachicalZ wurde entfernt, keine Farbkompression in den ROPs (wichtig für AA)
Das sind mal Kürzungen von denen der Lowcostkunde überhauptnichts zu spüren bekommt. Selbst FP16 HDR wird ein solcher Kunde niemals nutzen. Die 9600 ist auch ohne HierachicalZ ausgekommen und der vergleich zu einer gleichgetakteten 128bittigen 9500 hat keine annomalitäten gezeigt. Zudem bringt HierachicalZ nur bei FSAA wirklich 10-20% mehrleistung. Und FSAA ist für LowCostkäufer überhaupt kein Thema, daher ist auch die fehlende ROP Farbkompression zu verschmerzen.
Ich glaube nicht dass diese Kürzungen einen leistungsdrop in dem für die HD2400 angedachten Gebiet verursachen, aber ATI spart bestimmt 10-20mio Transistoren damit. genug um den RV610 kleiner zu machen noch als den G86 und damit auch billiger...

up¦²
2007-06-27, 00:30:07
Ich bin übrigens ziemlich skeptisch über OEM/Aldi-PC's: verkaufen sich einfach nicht mehr gut... genug :|
Vermutlich gibt es bald die nächste Pleite in Sömmerda,
aber das interessiert wohl nicht die Bohne: geiz ist ja soo geil :rolleyes:

Die 24er ist ja schon verfügbar und spottbillig.
Hatte doch fest mit einem Blitztest grechnet... leider nüscht passiert

Die 26er wird leider noch nirgends mit 4er gelistet: bin gespannt, was Montag zu ordern ist!

up¦²
2007-06-27, 03:06:41
Benchmarks einer
MSI 2600XT/3
http://forum.coolaler.com/showthread.php?t=156002

und eine
Powercolor 2600XT/3
http://forum.coolaler.com/showthread.php?t=155832

naja: wenn coolaler schon keine 4er ergattern kann... :|

seahawk
2007-06-27, 07:00:53
Ja, das sieht gut uas für ATI, Nach dem Unentscheiden im High-End nun ein Sieg in Midrange-Bereich und Dominanz im Low-End.

Gast
2007-06-27, 07:20:31
Ich bin übrigens ziemlich skeptisch über OEM/Aldi-PC's: verkaufen sich einfach nicht mehr gut... genug :|Komplett-PCs verkaufen sich so gut wie eh und je. Natürlich nicht bei Leuten, die im 3D-Center unterwegs sind, aber gesamt gesehen machen sie bestimmt den mit Abstand größten Teil aller PC-Verkäufe aus. Weiß also nicht wie du zu deiner Aussage kommst.
Ja, das sieht gut uas für ATI, Nach dem Unentscheiden im High-End nun ein Sieg in Midrange-Bereich und Dominanz im Low-End.Deine ATI-Lobpreisungen nerven langsam. Wo bitte gibt es ein Unentschieden im High-End? Die 8800GTX und Ultra sind deutlich schneller als jede x2900xt und das bei besserer Bildqualität. Dazu kommt die Möglichkeit zu SLI, während Crossfire keine Alternative ist. Vernünftige Benchmarks der Low- und Midrange-Karten habe ich auch noch nicht gesehen.

AnarchX
2007-06-27, 07:30:38
Seit wann hat die 8400GS 3,6Gtex/s? Ich komme da eher auf 1.6GTex/s und bei der 8800GTS auf 12, natürlich alles trilinear.

G86 hat 8 TMUs und 8 TAUs die mit 450MHz takten, somit liegt seine bi. Füllrate halt bei 3.6GTex/s bzw. bei tri 1.8GTex/s.

DerKleineCrisu
2007-06-27, 07:32:39
Ja, das sieht gut uas für ATI, Nach dem Unentscheiden im High-End nun ein Sieg in Midrange-Bereich und Dominanz im Low-End.

unentschieden im highendbereich ???. habe ich was verpasst ???.

@SavageX

wenn ne graka die bezeichnung XT ist mein gedanke das, das in diesem bereich das spitzenmodell ist also vergleiche ich es mit dem spitzenmodell zum
gegenspieler was hier eine 8600GTS währe. der preis spielt dabei erstmal ne nebenrolle. wenn man nun die zwei vergleichen tut sieht es nicht gut aus für die ATI ( leider ) .

man(n) kann zu das was nun ATI da " vollendet " hat mit den worten vom Team Rocket aus der zeichentrick serie " Pokemon " sagen:

" Das war wieder ein Schuss in den Ofen "

wenn wirklich nvidia ne 8600GTS mit 256 bit anbindung bringt wird der abstand unter umständen noch größer als wie zur zeit....

Gast
2007-06-27, 07:36:42
wenn wirklich nvidia ne 8600GTS mit 256 bit anbindung bringt wird der abstand unter umständen noch größer als wie zur zeit....Ein G84 mit 256-bit-SI wäre pure Geldverbrennung, da die Speicherbandbreite hier nicht limitiert. Viel interessanter wäre ein doppelter G84 bzw. eine halbe 8800GTX.
unentschieden im highendbereich ???. habe ich was verpasst ???.Eigentlich hat unser Seahawk in der Vergangenheit immer ganz vernünftig diskutiert. Aber in letzter Zeit kommen von ihm nur noch ATI-Lobpreisungen, in denen er die Tatsachen solange verdreht, bis ATI gut dasteht.

AnarchX
2007-06-27, 08:01:10
Ein G84 mit 256-bit-SI wäre pure Geldverbrennung, da die Speicherbandbreite hier nicht limitiert. Viel interessanter wäre ein doppelter G84 bzw. eine halbe 8800GTX.


Ganz genau, sinnvoller wären eher mal ein paar günstigere 512MB 8600er bzw. mal die Beseitigung des VRAM-Bugs.

Schlammsau
2007-06-27, 09:19:15
Hi
neue Benchmarks gibs

HD2600XT vs 8600GT
HD2400XT vs 8500GT/7300GT.

http://we.pcinlife.com/thread-786552-1-1.html

krass...sieht sehr vielversprechend aus. :)
wenn die ergebnisse stimmen ist die 2600xt mein!!!!:biggrin:



wenn wirklich nvidia ne 8600GTS mit 256 bit anbindung bringt wird der abstand unter umständen noch größer als wie zur zeit....

nur das die 8600gts doppelt so teuer ist.... ;)

Gast
2007-06-27, 09:26:30
Bei der Diskussion um den Stromverbrauch der HD2600 Karten vermisse ich die Einbindung der bis jetzt gezeigten Bilder der Karten. Wieso haben die (falls man diesen Previews glauben kann..) denn ein soo langes PCB, extra Stromanschluß und einen Kühler drauf, mit dem man locker sämtliche High-End Modelle der DX9 - Riege kühlen könnte?

Weis jemand bescheid?


Danke

SavageX
2007-06-27, 10:50:39
@SavageX

wenn ne graka die bezeichnung XT ist mein gedanke das, das in diesem bereich das spitzenmodell ist also vergleiche ich es mit dem spitzenmodell zum
gegenspieler was hier eine 8600GTS währe. der preis spielt dabei erstmal ne nebenrolle. wenn man nun die zwei vergleichen tut sieht es nicht gut aus für die ATI ( leider ) .


Warum soll man nach willkürlichen Namen vergleichen? Was wäre, wenn ATI die XT nun "Rosarote Panther UltraKill" genannt hätte? Namen sind doch Schall und Rauch. Preis, Leistung und Features sind doch die einzigen halbwegs handfesten Vergleichsmöglichkeiten.

Die 8600 GTS liegt ja immer noch bei ~170€ - selbst wenn man sie gegen eine 2600 XT testet (und die GTS als "Sieger" hervorgeht) - diesen Preisunterschied holt sie doch niemals durch Mehrleistung wieder rein.

Schlammsau
2007-06-27, 11:20:04
Warum soll man nach willkürlichen Namen vergleichen? Was wäre, wenn ATI die XT nun "Rosarote Panther UltraKill" genannt hätte? Namen sind doch Schall und Rauch. Preis, Leistung und Features sind doch die einzigen halbwegs handfesten Vergleichsmöglichkeiten.

Die 8600 GTS liegt ja immer noch bei ~170€ - selbst wenn man sie gegen eine 2600 XT testet (und die GTS als "Sieger" hervorgeht) - diesen Preisunterschied holt sie doch niemals durch Mehrleistung wieder rein.

genau meine meinung!!!

LovesuckZ
2007-06-27, 11:24:01
AMD geht wie bei der 2900XT über den Preis, da sie wissen, dass sie leistungstechnisch nicht konkurrenzfähig sind. Entweder nVidia passt auch ihre Preise an, da der Markt es verlangt oder sie verkaufen ebenfalls haufensweise Karte zu den heutigen Preisen.

SavageX
2007-06-27, 11:29:56
AMD geht wie bei der 2900XT über den Preis, da sie wissen, dass sie leistungstechnisch nicht konkurrenzfähig sind. Entweder nVidia passt auch ihre Preise an, da der Markt es verlangt oder sie verkaufen ebenfalls haufensweise Karte zu den heutigen Preisen.

Also "leistungstechnisch nicht konkurrenzfähig" - wenn man den bisherigen "Ergebnissen" trauen kann, dann hat ATI doch Lösungen im Low-End und Mainstream, die sich auch leistungstechnisch nicht verstecken müssen. Die mainstream DX10 Lösungen von Nvidia sind ja eigentlich auch nicht so die erhofften Rennbretter geworden.

Ich würde die niedrigen Preise eher dadurch erklären, dass AMD jetzt ziemlich schnell viele Chips loswerden will, bevor der Markt für DX10 Karten der ersten Generation "gesättigt" ist.

Schlammsau
2007-06-27, 11:51:03
wenn man diesen Tabelle glauben kann, ist die 2600XT doch ein gutes Stück schneller als die 8600GT! Haben will...... :))))
http://666kb.com/i/apkjspbvchaf8omxl.jpg
------------------------------------------------------------------------------------------------
http://666kb.com/i/apkjure6sne2mwqvt.jpg
------------------------------------------------------------------------------------------------
http://666kb.com/i/apkk1p6q26km2tfkq.jpg

Gast
2007-06-27, 14:47:05
wenn man diesen Tabelle glauben kann, ist die 2600XT doch ein gutes Stück schneller als die 8600GT!Und diese Tabellen stammen woher genau? Von ATI selbst oder doch von Rage3D? ;)

Schlammsau
2007-06-27, 14:51:00
weder noch, is schon einige seiten vorher gepostet worden..... ;)
http://we.pcinlife.com/thread-786552-1-1.html

MadManniMan
2007-06-27, 14:59:48
Ja, das sieht gut uas für ATI, Nach dem Unentscheiden im High-End nun ein Sieg in Midrange-Bereich und Dominanz im Low-End.

Nach dem was bitte? :ulove:

Undertaker
2007-06-27, 16:02:31
wenn man diesen Tabelle glauben kann, ist die 2600XT doch ein gutes Stück schneller als die 8600GT! Haben will...... :))))
http://666kb.com/i/apkjspbvchaf8omxl.jpg
------------------------------------------------------------------------------------------------
http://666kb.com/i/apkjure6sne2mwqvt.jpg
------------------------------------------------------------------------------------------------
http://666kb.com/i/apkk1p6q26km2tfkq.jpg

wiedermal sehr schöne balkeneinteilungen :D

Schlammsau
2007-06-27, 16:59:07
finds immer wieder geil hier, wie gute news zu schlechten gemacht werden.....
Nach diesen Benchmarks, ob sie nun stimmen oder nicht, ist die 2600XT der 8600GT zu 99% sehr deutlich überlegen. -Vor allem als CrossFire Gespann!
Und das zum gleichen bzw. fast noch niedrigeren Preis. Die Karte wird schon ab 97 € gelistet!
Balkeneinteilung hin oder her. :P

seahawk
2007-06-27, 17:13:03
Nach dem was bitte? :ulove:

Du mußt das realisitsch sehen.

2900XT Crossfire ca. 600 uro gegen 88000 Ultra 570 Euro + ATI
8800 GTX konkurrenzlos - noch bis die 1GB XT richtig aufdreht
2900XT > 8800 GTS

Ein Unentscheiden mit dem Potential, dass ATI mit neuen Treibern noch den Sieg holt.

Gast
2007-06-27, 17:13:46
Du drehst dir aber auch alles so zurecht, dass ATI gut da steht.

Nakai
2007-06-27, 17:19:53
NV: 8800Ultra Sli

ATI: Nichts

ATI ist nicht wirklich im Highend vertreten.

Man wird noch was aus dem R600 rausholen, aber da wäre ich nicht zu optimistisch.

mfg Nakai

Gast
2007-06-27, 17:20:07
2900XT Crossfire ca. 600 uro gegen 88000 Ultra 570 Euro + ATI


Was für ein selten dämlicher Vergleich.
Lautstärke, Stromverbrauch, X-Fire inkompartibilität etc. machen dieses Gespann kaum besser als eine 8800 Ultra.

Gast
2007-06-27, 19:07:55
Bei der Diskussion um den Stromverbrauch der HD2600 Karten vermisse ich die Einbindung der bis jetzt gezeigten Bilder der Karten. Wieso haben die (falls man diesen Previews glauben kann..) denn ein soo langes PCB, extra Stromanschluß und einen Kühler drauf, mit dem man locker sämtliche High-End Modelle der DX9 - Riege kühlen könnte?

Weis jemand bescheid?


Danke

http://homepage7.seed.net.tw/web@5/yang63chun/MSI2600XTNO/MSI2600XTno-01.jpg

Diese Lösung sieht mir doch recht sparsam aus. es handelt sich um eine 2600xt GDDR4
Die GDDR4 Variante ist anscheinend mit einer deutlich größeren Stromversorgung gesegnet, ich denke das wird die Overclockerkarte. Auch bei der 2900XT hat man sich keine Mühe bezüglich des Stromverbrauchs gegeben, viel zu aufwändig für so geringe margen.
Die OEM parts hören bei der 2600xt GDDR3 auf, die GDDR4 Variante ist mit diesem Kühler deutlich für die Retailkäufer gedacht.
ich rechne mit einem Stark gedrosselten Lüfter. Der Lüfter sieht dem auf der X1900pro recht ähnlich, der war sehr gut drosselbar. Ich gehe davon aus, dass die GDDR4 2600XT schon einen erheblich höheren Stromverbrauch hat als die GDDR3 Variante, aber der Kühler ist entweder gnadenlos überdimensioniert oder eben ein richtiger Silentkühler. Ich komme aus der Kühlunsbranche, ein großer ainfach aufgebauter Kühler mit großen Lamellenabständen mit einem etwas unterpowerten Lüfter wäre genau der Weg den ich auch einschlagen würde.
http://ialan12.myweb.hinet.net/MSI2600XT/MSI2600XT-01.JPG

Gast
2007-06-27, 19:31:46
Bei aller fairness AMD gegenüber muss man sagen dass sie im mainstream + lowend noch ein Ticket haben.

Schon bei der Prozentualen Aufteilung steht die neue ATI mainstreamkarte wesentlich besser da, ist sie doch zu einem großen Teil eine drittel 2900XT:
Shader-Einheiten 33%
Texturen-Einheiten 50%
Raster Operation Units (ROPs) 25%
Speicherinterface 25%
Chiptakt 107%
Speichertakt 85% (GDDR3) 133% (GDDR4)
MADD Rechenleistung 40%
trilineare Texelfüllrate 54%
Speicherbandbreite 21% (GDDR3) 33% (GDDR4)

Die einzige Beschneidung die hier gegenüber einer optimalen drittel 2900Xt wirklich stattfindet ist also in der Speicherbandbreite der GDDR3 Karte und in der ROPleistung. Die werte sind aus der 3Dcenter Tabelle entnommen.
Hier mal die letzten Werte der 8600GTS auch aus der 3Dcenter Tabelle:

MADD Rechenleistung 27%
trilineare Texelfüllrate 29%
Speicherbandbreite 37%

Hierbei ist zu bedenken, dass die zum vergleich der 2600er herangezogene HD2900XT deutlich langsamer als die 8800GTX ist. Die HD2600XT ist gegen die 8600GT positioniert, also wird die GDDR4 Variante wohl auf dem Preisniveau einer GTS landen. Bis auf die Speicherbandbreite hat die HD2600XT GDDR4 in allen bereichen erheblich mehr Leistung von dem großen Bruder geerbt als die 8600GTS. Das könnte reichen um den Leistungsdefizit aufzuholen den die HD2900 gezeigt hat.

Wenn es optimal für AMD läuft ist die HD2600XT GDDR4 in etwa gleichschnell wie die 8600GTS und rangiert auf demselben preisniveau. Gegen die 320MB 8800 wird man eventuell noch eine 2900XL aufbieten und dazwischen landet die Dual 2600XT, imo das interessanteste Produkt des ganzen Lineups.
Die 8600GT kann man mit der normalen GDDR3 XT wohl noch in schach halten.

ATI hat schon länger den Namen XT nicht mehr fürs Highend benutzt, sondern seit der X800 ist das nur noch die mittelklasse, während die pro und vanilla die billigeren Modelle sind und die PE und XTX die Rolle der alten XT übernehmen. Dieses jahr ist dies besonders deutlich, da nvidia den GTS suffix, der ein besseres GTX produkt suggeriert nun für das highendmodell verwendet.
Es gibt einfach zwei XTs, die sich erheblich voneinander unterscheiden. das ist wieder mal einer der fiesen marketinggags, aber diesmal fürchte ich, geht er nach hinten los. Denn man wird deswegen die 8600GTS gegen die GDDR3 XT stellen und so war das nicht geplant.

Die HD2600pro hat eindeutig einen kastrierten Speicher. Wäre sie noch in den einheiten gekürzt würde ich sofort sagen klarer Fall für die 8500. In diesem fall liegt sie wohl eher dazwischen. Kein wunder, die Lücke zwischen der 8600GT und der 8500GT ist ja auch fast so groß wie die mitlerweile berühmt berüchtigte highendlücke zwischen 320mb 8800GTS und 8600GTS.
Preislich scheint sich ATI an der 8500 zu orientieren und das würde ich als eine Kampfansage deuten.

Die MSRP preise der nvidiakarten sind zwar höher angesiedelt, doch sind diese seit sie draußen sind auch schon deutlich gesunken.

die pro ist definitiv nicht der mittelklasse part, allein wenn man sieht dass die dort 400mhz DDR2 speicher verbauen wird einem das klar.
Der XT suffix wird ganz bewusst benutzt damit die mittelklasse 2600er von dem guten image der XTs aus den r3x0 und x8x0 sowie x1900 Zeiten profitieren.

Gast
2007-06-27, 19:33:05
2600xt GDDR4 = XT
2600xt GDDR3 = Pro
2600pro = vanilla ?

Noebbie
2007-06-27, 19:35:30
Bei aller fairness AMD gegenüber muss man sagen dass sie im mainstream + lowend noch ein Ticket haben.

Schon bei der Prozentualen Aufteilung steht die neue ATI mainstreamkarte wesentlich besser da, ist sie doch zu einem großen Teil eine drittel 2900XT:
Shader-Einheiten 33%
Texturen-Einheiten 50%
Raster Operation Units (ROPs) 25%
Speicherinterface 25%
Chiptakt 107%
Speichertakt 85% (GDDR3) 133% (GDDR4)
MADD Rechenleistung 40%
trilineare Texelfüllrate 54%
Speicherbandbreite 21% (GDDR3) 33% (GDDR4)

Die einzige Beschneidung die hier gegenüber einer optimalen drittel 2900Xt wirklich stattfindet ist also in der Speicherbandbreite der GDDR3 Karte und in der ROPleistung. Die werte sind aus der 3Dcenter Tabelle entnommen.
Hier mal die letzten Werte der 8600GTS auch aus der 3Dcenter Tabelle:

MADD Rechenleistung 27%
trilineare Texelfüllrate 29%
Speicherbandbreite 37%

Hierbei ist zu bedenken, dass die zum vergleich der 2600er herangezogene HD2900XT deutlich langsamer als die 8800GTX ist. Die HD2600XT ist gegen die 8600GT positioniert, also wird die GDDR4 Variante wohl auf dem Preisniveau einer GTS landen. Bis auf die Speicherbandbreite hat die HD2600XT GDDR4 in allen bereichen erheblich mehr Leistung von dem großen Bruder geerbt als die 8600GTS. Das könnte reichen um den Leistungsdefizit aufzuholen den die HD2900 gezeigt hat.

Wenn es optimal für AMD läuft ist die HD2600XT GDDR4 in etwa gleichschnell wie die 8600GTS und rangiert auf demselben preisniveau. Gegen die 320MB 8800 wird man eventuell noch eine 2900XL aufbieten und dazwischen landet die Dual 2600XT, imo das interessanteste Produkt des ganzen Lineups.
Die 8600GT kann man mit der normalen GDDR3 XT wohl noch in schach halten.

ATI hat schon länger den Namen XT nicht mehr fürs Highend benutzt, sondern seit der X800 ist das nur noch die mittelklasse, während die pro und vanilla die billigeren Modelle sind und die PE und XTX die Rolle der alten XT übernehmen. Dieses jahr ist dies besonders deutlich, da nvidia den GTS suffix, der ein besseres GTX produkt suggeriert nun für das highendmodell verwendet.
Es gibt einfach zwei XTs, die sich erheblich voneinander unterscheiden. das ist wieder mal einer der fiesen marketinggags, aber diesmal fürchte ich, geht er nach hinten los. Denn man wird deswegen die 8600GTS gegen die GDDR3 XT stellen und so war das nicht geplant.

Die HD2600pro hat eindeutig einen kastrierten Speicher. Wäre sie noch in den einheiten gekürzt würde ich sofort sagen klarer Fall für die 8500. In diesem fall liegt sie wohl eher dazwischen. Kein wunder, die Lücke zwischen der 8600GT und der 8500GT ist ja auch fast so groß wie die mitlerweile berühmt berüchtigte highendlücke zwischen 320mb 8800GTS und 8600GTS.
Preislich scheint sich ATI an der 8500 zu orientieren und das würde ich als eine Kampfansage deuten.

Die MSRP preise der nvidiakarten sind zwar höher angesiedelt, doch sind diese seit sie draußen sind auch schon deutlich gesunken.

die pro ist definitiv nicht der mittelklasse part, allein wenn man sieht dass die dort 400mhz DDR2 speicher verbauen wird einem das klar.
Der XT suffix wird ganz bewusst benutzt damit die mittelklasse 2600er von dem guten image der XTs aus den r3x0 und x8x0 sowie x1900 Zeiten profitieren.

Eins der sinnvollsten Postings, die ich bisher hier und in anderen Threads der hd2x00 reihe gelesen habe! :smile:

Nakai
2007-06-27, 19:45:31
Preislich scheint sich ATI an der 8500 zu orientieren und das würde ich als eine Kampfansage deuten.

Die HD2400PRO ist verdammt klein und daher spottbillig. Ideal für einen Preiskampf.

mfg Nakai

horn 12
2007-06-27, 20:17:28
Wo liegt denn in etwa die HD 2600 XT Crossfire (oder Dual Gemini) in etwa im Vergleich zum R600 HD 2900 XT 512 MB. Ca. 1/2 der Performance wie die HD 2900 XT oder gar etwas darunter?
Dank Euch!

laser114
2007-06-27, 20:21:57
Wo liegt denn in etwa die HD 2600 XT Crossfire (oder Dual Gemini) in etwa im Vergleich zum R600 HD 2900 XT 512 MB. Ca. 1/2 der Performance wie die HD 2900 XT oder gar etwas darunter?
Dank Euch!

Erst mal muss es die Karte geben, und ich seh die noch nicht kommen...

horn 12
2007-06-27, 20:25:17
Meine aber 2x HD 2600 XT GDDR4 im Crossfire. Die kann man immer kaufen, eh klar.

up¦²
2007-06-27, 21:40:22
Ein Schnappschuß :smile:
http://www.vr-zone.com/index.php?i=5090

Nakai
2007-06-27, 21:53:38
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=362751&page=17

moep.^^

mfg Nakai

MadManniMan
2007-06-27, 22:52:19
Du mußt das realisitsch sehen.

Ich verdränge oft, daß ich mehr Tendenzen (eher akute Launen) in meiner Ansicht habe, als ich mir zugestehe. Trotzdem riechts in meiner Pipi, als hättest Du mehr davon :D

2900XT Crossfire ca. 600 uro gegen 88000 Ultra 570 Euro + ATI

640 gegen 550 € liest sich natürlich schon anders - da könnte man aber auch wieder gut und gerne 2 GTS/640 für 600 € zum Vergleich heranziehen. Und CF ist ineffizienter als SLI als Solo.

8800 GTX konkurrenzlos - noch bis die 1GB XT richtig aufdreht

"Bis" klingt mir zu schwammig. Der 8. Monat 8800 GTX läuft gerade - und die 1GB XT ist wo? ;(

2900XT > 8800 GTS

8800 GTS/320 < 2900 XT < 8800 GTS/640 bei 240,- vs. 320,- vs. 300,- €. Nicht ganz ausgewogen das Ganze.

Ein Unentscheiden mit dem Potential, dass ATI mit neuen Treibern noch den Sieg holt.

Wundertreiber sind für mich per se Vaporware - wie lange sollen wir denn warten?
ATi hat im oberen Mainstream eine 10 - 15% zu teuer, aber immer noch vernünftig positionierte Karte. Aber High End? Meinem Empfinden nach nicht.

AnarchX
2007-06-28, 06:11:47
Powercolor HD 2600XT 256MB @ OCW (http://www.ocworkbench.com/2007/powercolor/hd2600xt/g1.htm)

Radeon HD 2600XT GDDR4 @ PConline (http://www.pconline.com.cn/diy/graphics/reviews/0706/1044544.html) Übersetzung (http://translate.google.com/translate?u=http%3A%2F%2Fwww.pconline.com.cn%2Fdiy%2Fgraphics%2Freviews%2F0706%2 F1044544.html&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools)

ATi Radeon HD 2400 XT und HD 2600 XT @ Computerbase.de (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/)
Sinnvollerweise von CB ohne TRSAA/AAA durchgeführt. :up:

Nunja, CB misst für GDDR3 und auch GDDR4 XT im Durchschnitt etwa 8600GT-Niveau in sinnvollen Settings, Leistungsaufnahme gleich bis etwas höher (2D-Modus geht bei der XT noch nicht).
D3D10 sieht zwar deutlich besser aus, aber die Besonderheiten der CoJ-Demo mit Geforce8-Karten sollte bekannt sein. ;)

Imo nicht wirklich eine überzeugende Vorstellung, erst recht wenn man sich noch fürs Übertakten interessiert, wo es doch bei der 2600XT doch eher mager aussieht.

edit:
AMD Radeon HD 2600 XT and Radeon HD 2400 XT - saviours or sinners @ HEXUS (http://www.hexus.net/content/item.php?item=9187&page=1)

seahawk
2007-06-28, 06:57:45
Das Fazit ist so nicht ganz richtig. In legacy Games leigt die 8600 vorne, in modernen Titlen (CoJ, RBS:V) hingegen klar die Radeons, imho ein Trand, denn man als Käufer nicht unberücksichtig lassen sollte.

AnarchX
2007-06-28, 07:02:18
Das Fazit ist so nicht ganz richtig. In legacy Games leigt die 8600 vorne, in modernen Titlen (CoJ, RBS:V) hingegen klar die Radeons, imho ein Trand, denn man als Käufer nicht unberücksichtig lassen sollte.

Und was hat man davon, wenn man in diesen Titeln mit einer 2600 15 FPS hat anstatt 10 FPS?
Imo wäre hier ein Vergleich in angepassten/spielbaren Settings wohl interessanter. ;)

@ CoJ:
NVIDIA says Issues with Call of Juarez DX10 Benchmark

A hidden "ExtraQuality" parameter only accessible via a configuration file is automatically enabled when the benchmark is run on NVIDIA hardware, no matter what the setting in the configuration file. This setting has no apparent visual quality enhancement, but reduces NVIDIA GPU performance.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5588026#post5588026

MadManniMan
2007-06-28, 07:03:46
Das Fazit ist so nicht ganz richtig. In legacy Games leigt die 8600 vorne, in modernen Titlen (CoJ, RBS:V) hingegen klar die Radeons, imho ein Trand, denn man als Käufer nicht unberücksichtig lassen sollte.

Natürlich - aber wie lange die 2600er Leistung ausreichen wird, um sich Gedanken um die Überlegenheit gegenüber den nVs zu machen, ist die andere Frage. Low-FPS sind dort beide.

Insgesamt: weit von der erhypten (sry, die Erwartungen waren teils extrem!) Leistung zurück. Für das Geld nicht schlecht, aber eben genau die selbe Show, wie beim R600.

AnarchX
2007-06-28, 07:15:43
Auch interessant:
Der vierte 3D-Beschleuniger wird nicht von ATi selber hergestellt. Vielmehr ist es den Boardpartnern überlassen, eine entsprechende Karte zu entwickeln und anzubieten. Die Rede ist von der „Radeon HD 2600 XT Gemini“. Sie beherbergt zwei Radeon-HD-2600-XT-Chips, die im CrossFire-Modus miteinander agieren, auf einem PCB. Der anvisierte Preis einer solchen Grafikkarte beträgt 190 bis 250 Euro (Die Preise sind Richtpreise von AMD, die Marktpreise werden voraussichtlich etwas darunter liegen).
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/

... vorrausgesetzt es bleibt bei dem Preis und mit Verfügbarkeit ist noch 2007 zu rechnen. ;)

seahawk
2007-06-28, 07:51:31
Natürlich - aber wie lange die 2600er Leistung ausreichen wird, um sich Gedanken um die Überlegenheit gegenüber den nVs zu machen, ist die andere Frage. Low-FPS sind dort beide.

Insgesamt: weit von der erhypten (sry, die Erwartungen waren teils extrem!) Leistung zurück. Für das Geld nicht schlecht, aber eben genau die selbe Show, wie beim R600.

Da möchte ich widersprechen. Es ist imho eine klare Tendenz im Hinblick auf die Zukunft der Karten. Die 8X00 sind DX9 Karten mit rudimentärer DX10 Fähigkeit, die X2X00 sind echte DX10 Karten Shee ich z.B. auch auf HExus wie bescheiden der Launchtreiber von ATI erneut ist, dann kann man schon erwarten, dass sich die X2600XT(4) in Zukunft erheblich von der 8600GTS absetzen dürfte.

Allerdings ist die Treiberqualität bei ATI momentan wirklich nichts anderes als eine bodenlose Frechheit.

James Ryan
2007-06-28, 09:06:11
8800 GTX konkurrenzlos - noch bis die 1GB XT richtig aufdreht


So langsam sollte klar sein dass da nichts mehr aufdrehen wird...

@Topic
Habe gerade den CB gelesen. Gut ist, dass A/A endlich mal den Lüfter leise hinbekommen haben. Die Leistung ist mal hui und mal pfui. Alles in allem denke ich, ist man mit einer X1950 Pro besser dran. Der Preis der HD 2600er Reihe ist aber top! So entsteht ein Preiskampf den wir Kunden uns nur wünschen können! :up:

MfG :cool:

Godmode
2007-06-28, 09:10:50
Die 8X00 sind DX9 Karten mit rudimentärer DX10 Fähigkeit, die X2X00 sind echte DX10 Karten Shee ich z.B. auch auf HExus wie bescheiden der Launchtreiber von ATI erneut ist, dann kann man schon erwarten, dass sich die X2600XT(4) in Zukunft erheblich von der 8600GTS absetzen dürfte.


Warum meinst du das die 8800 nur rudimentäre DX10 Fähigkeiten besitzt? IMO ist es eine Vollwerte DX10 Karte, oder gibt es zur schlechen GS Leistung schon konkretere Informationen?

James Ryan
2007-06-28, 09:16:14
Warum meinst du das die 8800 nur rudimentäre DX10 Fähigkeiten besitzt? IMO ist es eine Vollwerte DX10 Karte, oder gibt es zur schlechen GS Leistung schon konkretere Informationen?

Die Gf 8800er sind absolut vollwertige DX10 Karten, seahawk sucht einfach Gründe um den G80 zu bashen. Die schlechte CoJ DX10 Leistung hat NVIDIA schon erklärt, nur wird es natürlich ignoriert.
Einfach überlesen und sich auf das Topic konzentrieren. ;)

MfG :cool:

DrFreaK666
2007-06-28, 10:18:57
Oh man ist das übel.
Habe mehr Power erwartet.
Nun muss halt doch eine 1950Pro in mein System auch wenn die 2600XT eine bessere Bildqualität bietet... schade

Nur in Dirt und RS-Vegas ist die Karte schneller.
Aber diese Spiele könnte ich theoretisch auf meine 360 spielen - mit mehr FPS

seahawk
2007-06-28, 10:46:39
Naja, in Dirt ist die X2600XT(4) bis zu 50% schneller als die 8600GTS. :D

Noebbie
2007-06-28, 10:53:01
Naja, in Dirt ist die X2600XT(4) bis zu 50% schneller als die 8600GTS. :D

Ja, da kann sie mal auftrumpfen.

Mein Fazit zu der Karte: Sofern kein Kaufargument im sinne von HD Wiedergabe gegeben ist, sollte man lieber auf eine schnellere x1950pro oder 88gts320 zurückgreifen.

Interessant (für MidRange Zocker) wird erst die DUAL hd2600xt, mal sehen was diese dann so leistet.

dildo4u
2007-06-28, 11:32:46
Warum ist der Stromverbrauch so hoch die 2600XT mit GDDR3 liegt leicht unter der 8600GTS die 2600XT mit GDDR4 leicht drüber.Wo ist der Vorteil des 65nm Prozess geblieben?

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/27/#abschnitt_leistungsaufnahme

Benedikt
2007-06-28, 11:40:20
Da möchte ich widersprechen. Es ist imho eine klare Tendenz im Hinblick auf die Zukunft der Karten. Die 8X00 sind DX9 Karten mit rudimentärer DX10 Fähigkeit, die X2X00 sind echte DX10 Karten Shee ich z.B. auch auf HExus wie bescheiden der Launchtreiber von ATI erneut ist, dann kann man schon erwarten, dass sich die X2600XT(4) in Zukunft erheblich von der 8600GTS absetzen dürfte.

Allerdings ist die Treiberqualität bei ATI momentan wirklich nichts anderes als eine bodenlose Frechheit.
Glaube ich nicht. Wieviel erhoffst du dir denn von neuen Treibern? 20%? 30%? Woher sollen die AMD-Karten die Rohleistung nehmen?

Schlammsau
2007-06-28, 11:51:21
Warum ist der Stromverbrauch so hoch die 2600XT mit GDDR3 liegt leicht unter der 8600GTS die 2600XT mit GDDR4 leicht drüber.Wo ist der Vorteil des 65nm Prozess geblieben?

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/27/#abschnitt_leistungsaufnahme

um genau zu sein, liegt die DDR3 Variante, im Verbrauch um 8% unter der GTS ;)
Sie braucht sogar ca. 2% weniger Watt als meine 7600GT und das bei durchschnittlich 45% mehr Leistung bei 1280x1024!
Die DDR4 Version ist sogar unter DX10 fast doppelt so schnell wie die 8600GTS! ....bei ungefähr gleichem Preis! :eek:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/24/#abschnitt_performancerating
Die HD2600 DDR3 XT wird mit Sicherheit meine nächste Karte..... für knapp 100€ (http://geizhals.at/deutschland/a263234.html) , kann man da wirklich nichts verkehrt machen! :)
Is doch mal nicht schlecht, oder? So mal sehen wie man das jetzt wieder schlecht reden kann!?!?!?!? :biggrin:

Gast
2007-06-28, 12:00:13
ich finde auch dass die karten eher eine empfehlung wert sind als die von nvidia.
Immerhin kostet sie weniger als die 8600gt, hat um einiges mehr leistung, benötigt weniger strom und die D3D10 performance ist auch extrem überzeugend
(vom call of juarez bench mal abgesehen, denn da hat die ati karte niedrigere BQ) im company of heroes benchmark, wo ja bei gleicher BQ getestet werden konnte.

Gast
2007-06-28, 12:02:09
Liest du eigentlich die Beiträge von anderen?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5624199&postcount=342

Gast
2007-06-28, 12:07:16
da frag ich mich ob du meinen beitrag liest !

vom call of juarez bench mal abgesehen, denn da hat die ati karte niedrigere BQ

ich rede vom company of heroes dx10 benchmark!!
hier haben beide karten die selbe BQ, bei weitaus höherer leistung der ati

DrFreaK666
2007-06-28, 12:26:04
...
Is doch mal nicht schlecht, oder? So mal sehen wie man das jetzt wieder schlecht reden kann!?!?!?!? :biggrin:

Die 1950Pro ist trotzdem schneller und kaum teurer.
Wieso sollte ich da zur 2600XT greifen?

J0ph33
2007-06-28, 12:28:24
eher enttäuschend, aber der preis richtet es wieder...

zu beachten ist auch, dass CB wegen Vista alle Karten neugebencht hat, da sieht man mal, was die X1950XTX für ein Hammerding ist, wie sie teilweise die GTX nassmacht...(wobei der nicht selten der VRAM ausgehen sollte)
auch sieht man, dass SLI unter Vista noch derbe schlecht performt (7950GX2-Werte)
und was zur Hölle ist bei R6V in 1600*1200 los, da geht ne 7900GS aber unglaublich ab...

up¦²
2007-06-28, 12:52:00
Bin doch ziemlich beeindruckt von der 26er
Noch paar Schnipsel:
http://www.ocworkbench.com/2007/powercolor/HD2600XT/b1.htm
http://www.firingsquad.com/hardware/radeon_hd_2600_performance_preview/

Zu DX10 ist überhaupt noch nix geklärt :biggrin:
Was zu was reicht, wissen wir erst ab Crysis...
darüber sollte sich keiner Illisionen machen.

James Ryan
2007-06-28, 12:56:16
Wer sich für Crysis eine Radeon HD 2600 holt, macht irgendwas falsch! :uroll:
Was ich damit meine ist: Wenn man DX10 Spiele vernünftig zocken will, kauft man sich doch gleich eine HD 2900 XT oder Gf 8800! Oder etwa nicht?

MfG :cool:

dildo4u
2007-06-28, 12:59:31
Ebend ob die DX10 Games nun mit 6 oder 9 fps laufen ist ja nun total egal und wer glaubt das Crysis im DX10 Modus besser als COJ oder COH läuft hat für mich einfach kein Plan und lebt in einer anderen Welt.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/22/#abschnitt_call_of_juarez_d3d10

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/23/#abschnitt_company_of_heroes_dx10

"Fazit

Insgesamt hinterlassen die beiden Radeon-HD-2600-XT-Karten, was die reine Geschwindigkeit anbelangt, lediglich einen mittelmäßigen Eindruck. Die Geschwindigkeit der GDDR4-Version kommt zu keinem Zeitpunkt an die GeForce 8600 GTS heran und die GeForce 8600 GT hat man nur so lange locker im Griff, bis Anti-Aliasing sowie die anisotrope Filterung aktiviert werden. Dann fallen die beiden Radeon-Modelle deutlich zurück und können nur noch so gerade mit der GeForce 8600 GT mithalten. In 1600x1200 kann man den Vorsprung zwar wieder etwas ausbauen. Doch ist die Geschwindigkeit aller Karten in dieser Auflösung so niedrig, dass sie selbst leidensfähigen Spielern nicht mehr reichen wird. Einige Frames mehr oder weniger fallen so kaum noch ins Gewicht.

Kommt der Preis ins Spiel, bleiben nicht viele Argumente für die GDDR4-Version über. Falls es dennoch eine Radeon HD 2600 XT sein soll, lohnt ein Blick auf die GDDR3-Version. Diese ist kaum langsamer als die höher getaktete GDDR4-Karte, kostet aber ein gutes Stück weniger. Und sie schafft es unterm Strich sogar, eine die GeForce 8600 GT vom Thron in ihrem Preissegment zu verdrängen. Auch und gerade aufgrund ihres geringen Stromverbrauches und der Geräuschentwicklung.

Loben muss man ATi hingegen für den niedrigen Stromverbrauch und die Lautstärke. In diesen beiden Disziplinen können sich die Radeon-Beschleuniger von den GeForce-8600-Karten absetzen. Nichtsdestotrotz empfehlen wir derzeit die GeForce 8600 GTS, da sie durch die Bank weg schneller ist und nur einen geringen Aufpreis fordert..."


http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/30/#abschnitt_fazit

Schlammsau
2007-06-28, 12:59:33
Wer sich für Crysis eine Radeon HD 2600 holt, macht irgendwas falsch! :uroll:
Was ich damit meine ist: Wenn man DX10 Spiele vernünftig zocken will, kauft man sich doch gleich eine HD 2900 XT oder Gf 8800! Oder etwa nicht?

MfG :cool:
wenn man zuviel geld hat vielleicht! :uponder:

Gast
2007-06-28, 13:01:56
Warum ist der Stromverbrauch so hoch die 2600XT mit GDDR3 liegt leicht unter der 8600GTS die 2600XT mit GDDR4 leicht drüber.Wo ist der Vorteil des 65nm Prozess geblieben?

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/27/#abschnitt_leistungsaufnahme

Bitte was? Unter idle unterbietet sie selbst eine 8500GT und unter Last liegt sie 2W über der 8600GT, die sie leistungsmäßig allerdings schlägt. Und von der ach so großen Bandbreitenlimitierung durch das 128-bit SI ist auch nicht viel übrig geblieben.

Gast
2007-06-28, 13:03:54
Bitte was? Unter idle unterbietet sie selbst eine 8500GT und unter Last liegt sie 2W über der 8600GT, die sie leistungsmäßig allerdings schlägt. Und von der ach so großen Bandbreitenlimitierung durch das 128-bit SI ist auch nicht viel übrig geblieben.

Noch dazu hat der Chip satte 390mio Transistoren bei 800Mhz.

DrFreaK666
2007-06-28, 13:04:49
Ohje, da ist die 1650XT sogar teilweise schneller
http://www.firingsquad.com/hardware/radeon_hd_2600_performance_preview/images/bf21280.gif
http://www.firingsquad.com/hardware/radeon_hd_2600_performance_preview/images/fear1280.gif
http://www.firingsquad.com/hardware/radeon_hd_2600_performance_preview/images/cod21280.gif

dildo4u
2007-06-28, 13:05:26
Bitte was? Unter idle unterbietet sie selbst eine 8500GT und unter Last liegt sie 2W über der 8600GT, die sie leistungsmäßig allerdings schlägt. Und von der ach so großen Bandbreitenlimitierung durch das 128-bit SI ist auch nicht viel übrig geblieben.
Die GDDR4 Version liegt auch im idle über der 8600GTS und hat nicht die selbe Performance.Die 2600XT mit GDDR3 ist nicht der Gegener für die 8600GTS da noch langsammer.Und der Rest wär mir egal selbst wenn man eine sparsame Karte kaufen will,würde ich minimal zur GDDR4 Version greifen.

Gast
2007-06-28, 13:06:33
ATi Radeon HD 2400 XT und HD 2600 XT @ Computerbase.de (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/)Der erste halbwegs brauchbare Test. Die Karten leisten ungefähr genau das, was man erwarten konnte.
Die 8X00 sind DX9 Karten mit rudimentärer DX10 Fähigkeit, die X2X00 sind echte DX10 KartenDarf man fragen wo du solch groben Unfug aufgeschnappt hast?
Wo liegt denn in etwa die HD 2600 XT Crossfire (oder Dual Gemini) in etwa im Vergleich zum R600 HD 2900 XT 512 MB. Ca. 1/2 der Performance wie die HD 2900 XT oder gar etwas darunter?
Dank Euch!Das hängt ganz von den Profilen ab, wie immer bei Multi-GPU-Systemen. Nur kann man bei ATI leider selbst keine Profile erstellen, sodass die Gemini oft nicht schneller sein wird, als eine einzelne x2600xt. Aber selbst wenn CF im AFR-Modus läuft, wird das Teil nicht unbedingt schneller sein als ein vollwertiger R600.

SavageX
2007-06-28, 13:11:36
Zum Thema DX10 oder Crysis:

Wenn DX10-Spiele wie Crysis nur auf den 2900XT oder 8800GTS aufwärts spielbar sind, dann ist was mit den Zocks kaputt.

Der Clou, wenn eine Karte in DX10-Tests schneller ist: Vermutlich muss man dann weniger Details opfern, um auf spielbare Frameraten zu kommen, als bei der langsameren Karte. Deshalb sind Resultate für Rainbox Six oder Call of Juarez oder (irgendwann mal) Crysis durchaus interessant, selbst wenn die Benchmarkresultate "unspielbar langsam" anzeigen.

AnarchX
2007-06-28, 13:13:02
Noch ein paar Ergänzungen:

2600XT und Pro @ PC Presence (span.) (http://www.presence-pc.com/tests/AMD-Radeon-2600-22686/)
2600XT und Pro @ Hot Hardware (http://www.hothardware.com/articles/ATI_Radeon_HD_2600_and_2400_Performance/?page=4)
Radeon HD 2600 Performance Preview @ Firingsquad (http://www.firingsquad.com/hardware/radeon_hd_2600_performance_preview/)

Nochmal @ CB-DX10-Tests:
Diese Werte sollte man doch eher kritisch sehen, da hier einmal halt der CoJ Test unfair ist, wegen der "Sonderbehandlung" der NV-Karten und bei dem Speicherfresser CoH schlägt der VRAM-Bug richtig durch, wobei natürlich fraglich ist wann dieser mal gefixt wird.

DrFreaK666
2007-06-28, 13:14:03
Zum Thema DX10 oder Crysis:

Wenn DX10-Spiele wie Crysis nur auf den 2900XT oder 8800GTS aufwärts spielbar sind, dann ist was mit den Zocks kaputt.

Der Clou, wenn eine Karte in DX10-Tests schneller ist: Vermutlich muss man dann weniger Details opfern, um auf spielbare Frameraten zu kommen, als bei der langsameren Karte. Deshalb sind Resultate für Rainbox Six oder Call of Juarez oder (irgendwann mal) Crysis durchaus interessant, selbst wenn die Benchmarkresultate "unspielbar langsam" anzeigen.

Naja, dann sollte man bei den Mid-Range-Karten mit mittleren Details benchen.
Max. Details wird wohl niemand mit diesen Karten einstellen, ausser zum Screenshots machen

Gast
2007-06-28, 13:17:08
Die GDDR4 Version liegt auch im idle über der 8600GTS und hat nicht die selbe Performance.Die 2600XT mit GDDR3 ist nicht der Gegener für die 8600GTS da noch langsammer.Und der Rest wär mir egal selbst wenn man eine sparsame Karte kaufen will,würde ich minimal zur GDDR4 Version greifen.

Bei der GDDR4 Version funktioniert auch der 2D Modus noch nicht, sonst würde sie auf ähnliche Niveau wie die GDDR3 Karte liegen. Das wurde aber bereits erwähnt.

Gast
2007-06-28, 13:18:17
Noch dazu hat der Chip satte 390mio Transistoren bei 800Mhz.

Eben. Ein R600 in 65nm würde wohl weniger verbauchen als eine 8800GTS.

AnarchX
2007-06-28, 13:19:17
Hat noch jemand andere OCing-Ergebnisse der 2600Pro gesehen?

Hier schafft sie lächerliche 10% beim Core:
http://www.hothardware.com/articles/ATI_Radeon_HD_2600_and_2400_Performance/?page=9

Ob das vielleicht am PCB liegt... :|

edit: Scheint so, die GDDR2 Variante hat ein deutlich "schlechteres" PCB:
GDDR2
http://img244.imageshack.us/img244/2352/bigradeonhd24001fb5.jpg

GDDR3 Variante mit 700MHz Chip:
http://img244.imageshack.us/img244/9499/cexqikp6zcuhotw4.jpg

puntarenas
2007-06-28, 13:20:52
Naja, dann sollte man bei den Mid-Range-Karten mit mittleren Details benchen.
Max. Details wird wohl niemand mit diesen Karten einstellen, ausser zum Screenshots machen
Wenn das ein Wunschkonzert wäre, dann einmal bei Max. Details bitte und einmal umgekehrt. Soll heißen, weg von Timedemos und die Redaktion sucht eine Handvoll der stressigsten Szenen heraus und schraubt dann solange an den Details, bis (zu definierende, wieder ein Problem) spielbare Frameraten herauskommen. Bei diesem Durchlauf denn kein Balken pro Karte, sondern die Angabe der erreichbaren Qualitätseinstellung.

Weil das ganze sowieso kaum zeitaufwändig sein dürfte, dann auch noch mit variablem AA und AF, während ich so tippe verstehe ich so langsam, warum nur Max. Details gebencht und Balken gemalt werden...

Gast
2007-06-28, 13:25:35
Naja, in Dirt ist die X2600XT(4) bis zu 50% schneller als die 8600GTS. :D

toll 6,5fps vs. 4,4fps sind zwar 50% aber beides meilenweit davon entfernt brauchbar zu sein.

SavageX
2007-06-28, 13:27:01
toll 6,5fps vs. 4,4fps sind zwar 50% aber beides meilenweit davon entfernt brauchbar zu sein.

Aber vermutlich wird man auf der einen Karte weniger Details abschlagen müssen, um auf spielbare Werte zu kommen.

James Ryan
2007-06-28, 13:28:01
Eben. Ein R600 in 65nm würde wohl weniger verbauchen als eine 8800GTS.

Was bei 65nm vs. 90nm auch eine grandiose Leistung wäre! ;D

MfG :cool:

Gast
2007-06-28, 13:32:21
Aber vermutlich wird man auf der einen Karte weniger Details abschlagen müssen, um auf spielbare Werte zu kommen.

nicht unbedingt, es ist durchaus denkbar, dass nach dem verringern der details wieder die "alte" reihenfolge herrscht.

AnarchX
2007-06-28, 13:33:52
http://img244.imageshack.us/img244/8158/inebk7husjhzyyq6cr3.gif (http://img244.imageshack.us/img244/3193/inebk7husjhzyyq6.gif)
für größere Version draufklicken
http://vga.intozgc.com/128/128017.html

up¦²
2007-06-28, 15:52:35
Der Preis ist heiß :biggrin:
http://geizhals.at/eu/?fs=hd+2600&in=
... und zwei 4er sind auch dabei!

Schlammsau
2007-06-28, 17:27:19
Der Preis ist heiß :biggrin:
http://geizhals.at/eu/?fs=hd+2600&in=
... und zwei 4er sind auch dabei!

....das ist er wirklich! :biggrin:
@Computerbase (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/23/#abschnitt_company_of_heroes_dx10)
http://666kb.com/i/aplssfncb26cpkgkl.jpg

Nakai
2007-06-28, 17:29:16
Lol, kein Performanceverlust bei eingeschaltetem AA und AF?
Das ist ein bisschen komisch.

mfg Nakai

Schlammsau
2007-06-28, 17:37:45
haben die NVIDIA 86xx doch auch nicht......
schaut euch doch mal das Bild besser an! ;)
unglaublich.....manche können oder wollen es immer noch nicht wahr haben. :mad:

AnarchX
2007-06-28, 17:40:25
Wird wohl an einem extrem brutalen VRAM-Limit liegen, von welchem dann die GTS 320 durch die Aktivierung des AA auch heftigst getroffen wird (VRAM-Bug Ahoi!).

Aber natürlich kann sich der potentielle 2600XT User über die 7 FPS freuen, immerhin 16% mehr als eine doppelt so teure GTS 320. X-D

Bei aller guter Presentation und interessantem Inhalt bei CB, fragt man sich wer da auf die Idee kam soetwas zu testen und dann noch online zu stellen. :|

up¦²
2007-06-28, 17:43:07
Welche Rolle spielt dieses PR?
http://www.samsung.com/PressCenter/PressRelease/PressRelease.asp?seq=20070628_0000356794

Gast
2007-06-28, 18:29:52
....das ist er wirklich! :biggrin:
@Computerbase (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/23/#abschnitt_company_of_heroes_dx10)
http://666kb.com/i/aplssfncb26cpkgkl.jpg


toll, die 8800GTS ohne FSAA/AF ist das einzige was man davon noch ansatzweise als spielbar bezeichnen könnte.

up¦²
2007-06-28, 18:48:11
Die Review von Powerup :smile:
http://www.techpowerup.com/reviews/ATI/HD_2600_XT/

Ferengie
2007-06-28, 19:00:03
Seh ich das richtig überall nur Cat 7.5?

AnarchX
2007-06-28, 19:02:31
Seh ich das richtig überall nur Cat 7.5?

Nein, du siehst falsch CB und andere Reviews verwenden ATi Catalyst 8.38.9.1 RC1 (Cat ~7.7).

Tomahawk
2007-06-28, 20:00:53
In etwa die selbe Leistung wie die 8600 GT zum in etwa selben Preis. Ist doch nun wahrlich nicht spektakulär.

deekey777
2007-06-28, 20:01:12
Nochmal @ CB-DX10-Tests:
Diese Werte sollte man doch eher kritisch sehen, da hier einmal halt der CoJ Test unfair ist, wegen der "Sonderbehandlung" der NV-Karten und bei dem Speicherfresser CoH schlägt der VRAM-Bug richtig durch, wobei natürlich fraglich ist wann dieser mal gefixt wird.
Inwieweit bekommen die G80er eine "Sonderbehandlung" in CoJ?

laser114
2007-06-28, 20:03:31
Inwieweit bekommen die G80er eine "Sonderbehandlung" in CoJ?

Nichtsdestotrotz hat der Benchmark noch mit einigen Problemen zu kämpfen. So werden Teile der Vegetation nicht richtig dargestellt (dies liegt am Alpha-to-Coverage-Verfahren), zudem sind die Texturen auf einer G8x-GPU sichtbar detaillierter als auf einem R6x0; laut Entwickler Techland liegt letzteres aber nicht an dem Benchmark selber, sondern wird eventuell durch den Treiber erzielt. Direkt Vergleichen kann man derzeit die AMD- und nVidia-Karten also nicht.

Würde ich aber nicht als Sonderbehandlung sondern eher durch Treibersachen beschreiben. Soviel wird man mit DirectX 10 nicht getestet haben.

AnarchX
2007-06-28, 20:24:41
Inwieweit bekommen die G80er eine "Sonderbehandlung" in CoJ?

Kannst du dich nicht mehr dran erinnern?
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5588026#post5588026

deekey777
2007-06-28, 20:27:59
Kannst du dich nicht mehr dran erinnern?
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5588026#post5588026
Du kennst aber auch die Stellungnahme der Entwickler. ;)

AnarchX
2007-06-28, 20:29:06
Du kennst aber auch die Stellungnahme der Entwickler. ;)

Und wo gibt es diese?

deekey777
2007-06-28, 20:34:14
Und wo gibt es diese?
http://forum.beyond3d.com/showthread.php?p=1020499#post1020499
http://uk.theinquirer.net/?article=40401
http://www.xbitlabs.com/news/video/display/20070620151758.html

up¦²
2007-06-29, 00:29:57
Sehr gute Review mit vielen "Exkursionen" :biggrin:
http://www.guru3d.com/article/Videocards/440/10/


So als Anmerkung für Alle im Generellen: Man sollte bei einem Review immer auf die erste Seite verlinken.
http://www.guru3d.com/article/Videocards/440/1/

Es kommt sonst irgendwann einmal zu der komischen Situation, dass alle Leute über die Ergebnisse schimpfen, und sich keiner die Systemkonfiguration, und Benchmarkeinstellungen angesehen hat. Auch wenn der Poster in diesem Fall natürlich diesen Teil nicht übersprungen hat.
Gehört einfach dazu.

Coda
2007-06-29, 12:24:37
Da möchte ich widersprechen. Es ist imho eine klare Tendenz im Hinblick auf die Zukunft der Karten. Die 8X00 sind DX9 Karten mit rudimentärer DX10 Fähigkeit, die X2X00 sind echte DX10 Karten Shee ich z.B. auch auf HExus wie bescheiden der Launchtreiber von ATI erneut ist, dann kann man schon erwarten, dass sich die X2600XT(4) in Zukunft erheblich von der 8600GTS absetzen dürfte.
Es reichen ja nicht mal die momentanen High-End-Karten richtig für D3D10-Spiele.

Zudem sehe ich nicht, warum sich HD2900XT und 8800GTS unter D3D10 relativ zu D3D9 nicht viel nehmen, aber die Low-End-Karten von nVIDIA auf einmal so abkacken.

Treibereien? Man weiß es nicht. Fakt ist, dass keine der Karten ernsthaft für D3D10 gekauft werden kann und damit ist es eh irrelevant.

up¦²
2007-06-29, 13:31:05
Es reichen ja nicht mal die momentanen High-End-Karten richtig für D3D10-Spiele.

Zudem sehe ich nicht, warum sich HD2900XT und 8800GTS unter D3D10 relativ zu D3D9 nicht viel nehmen, aber die Low-End-Karten von nVIDIA auf einmal so abkacken.

Treibereien? Man weiß es nicht. Fakt ist, dass keine der Karten ernsthaft für D3D10 gekauft werden kann und damit ist es eh irrelevant.

Wie war das nur möglich., daß so am Markt vorbei geplant und produziert wurde und wird... ???
Wie beim Pokern für Gamer: Nerven behalten und keine Miene verziehn...
wer aufrüsten will für DX10 MUSS weiter warten!

Vielleicht hat 3dC noch eine Review hinter der Hand:
wäre es möglich dann auszureizen, mit welchem Stripping welche Games noch
wie laufen?
DIRT ist z.B. noch ziemlich akzeptabel bei medium.

Inzwischen wird eine Asus 2600XT/4 für lächerliche 112,78€ (http://geizhals.at/eu/a264298.html) gelistet...
also da geht's drunter und drüber ;D

Coda
2007-06-29, 13:41:46
Wie war das nur möglich., daß so am Markt vorbei geplant und produziert wurde und wird... ???
Wird es nicht. Es lohnt sich einfach nicht komplett neue Architekturen zu entwickeln und dabei zukünftige Features nicht gleich zu berücksichtigen.

Außerdem seh ich bei G80 immer noch keine "D3D10-Schwäche". Abgesehen vom GS vielleicht, aber da muss man noch abwarten.

aths
2007-06-29, 14:25:35
Da möchte ich widersprechen. Es ist imho eine klare Tendenz im Hinblick auf die Zukunft der Karten. Die 8X00 sind DX9 Karten mit rudimentärer DX10 Fähigkeit, die X2X00 sind echte DX10 KartenHä? Bei D3D10 gibts nur ganz oder gar nicht.

James Ryan
2007-06-29, 14:39:26
Hä? Bei D3D10 gibts nur ganz oder gar nicht.

seahawk ist der Meinung, dass G8x Karten unter D3D10 gnadenlos einbrechen und R6xx Karten dagegen sehr perfomant sind.
Ob das wirklich so eintritt? ;)

MfG :cool:

AnarchX
2007-06-29, 14:43:36
Außerdem seh ich bei G80 immer noch keine "D3D10-Schwäche". Abgesehen vom GS vielleicht, aber da muss man noch abwarten.

Gab es da mit den neueren Treibern nicht eine erhebliche Besserung?
Siehe auch hier:
http://media.bestofmicro.com/4/U/15726/original/088.gif
http://media.bestofmicro.com/4/Y/15730/original/092.gif
http://66.249.91.104/translate_c?hl=en&ie=UTF-8&oe=UTF-8&langpair=fr%7Cen&u=http://www.presence-pc.com/tests/AMD-Radeon-2900-XT-22674/24/&prev=/language_tools

Schlammsau
2007-06-29, 14:47:35
seahawk ist der Meinung, dass G8x Karten unter D3D10 gnadenlos einbrechen und R6xx Karten dagegen sehr perfomant sind.
Ob das wirklich so eintritt? ;)

MfG :cool:
wenn ich mir den Company of Heroes DX10 Benchmark (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/23/#abschnitt_company_of_heroes_dx10) @CB so ansehe, könnte es schon in die Richtung gehn, dass die nVidia Karten bei DX10 mehr einbrechen als die von ATI!
Oder welche Erklärung hast du für diese Messergebnisse? Und sag jetzt nicht, nVidia wird wieder benachteiligt...das zieht/stimmt wohl nur bei CoJ.

LovesuckZ
2007-06-29, 14:51:06
Das ist unspielbar gegen unspielbar.
Abgesehen davon scheint bei den G84 Karten der Speicher schon ohne AA ausgegangen zu sein. In anderen "D3D10" Anwendungen wird sich dieses Bild nicht wiederholen.

Schlammsau
2007-06-29, 14:52:59
Das ist unspielbar gegen unspielbar.
Abgesehen davon scheint bei den G84 Karten der Speicher schon ohne AA ausgegangen zu sein. In anderen "D3D10" Anwendungen wird sich dieses Bild nicht wiederholen.
....aso :cool:

AnarchX
2007-06-29, 14:53:16
Wie schon erklärt tritt der VRAM-Bug bei dem Speicherfresser CoH verstärkt auf, weshalb die GTS mit nur 320MB mal auf 1/4 der FPS durch Zuschalten des AA einbricht.

Aber wie schon gesagt, wenn bitte interessiert ein Vergleich im unspielbaren Bereich? :|

Schlammsau
2007-06-29, 14:55:48
haben die 8600*** auch diesen Speicherbug?
kann man die werte nicht 1:1 umlegen, bei niedriger Auflösung so und soviel FPS mehr!?

LovesuckZ
2007-06-29, 14:59:04
Guck dir doch einfach die Ergebnisse vom normalen CoH an. Dort verlieren die 8600 Karten deutlich weniger Leistung mit AA/AF als alle anderen - sie liegen selbst unter einer 7600gt.
Das ist ein Problem, der entweder treiberbedingt oder durch einem Hardwarefehler verursacht wird.

Schlammsau
2007-06-29, 15:03:28
meinst du CoJ?
.....oder einfach von mangelnder DX10 Leistung zeugt!? DX10 stellt einfach ganz andere Anforderungen an die Hardware...
das ist alles nur spekulation. keiner weiss was genaues.

LovesuckZ
2007-06-29, 15:07:06
meinst du CoJ?


Company of Heroes.
Und CoJ ist wohl kaum ein Argument für 2600XT. :rolleyes:

Schlammsau
2007-06-29, 15:12:22
is ja auch egal.....
egal welches argument man bringt, es wird schlecht geredet
ihr miesen nVidia Fanboys ;)

Gast
2007-06-29, 15:15:30
DX10 stellt einfach ganz andere Anforderungen an die Hardware...Wenn du schon solche Äußerungen von dir gibst, solltest du wenigstens auch begründen, inwiefern D3D10-Anwendungen "ganz andere" Anforderungen an die Grafikhardware stellen.

Schlammsau
2007-06-29, 15:19:36
DX10 braucht einfach viel mehr Leistung als DX9.....
welche bereiche des chips mehr oder weniger genutzt werden, kann ich auch nicht sagen!

AnarchX
2007-06-29, 15:24:37
DX10 braucht einfach viel mehr Leistung als DX9.....


Eigentlich nicht. ;)
Besser gesagt, neue Spiele, die DX10 in Zusammenhang mit aufwendigeren Effekten nutzen brauchen mehr Leistung.

Schlammsau
2007-06-29, 15:30:06
ok leute, der klügere gibt nach... ;)
...ich hab meine meinung, ihr habt eure!
werd mir zu 90% ne 2600XT zulegen, weil ich denke, sie bringt eine bessere Leistung für kommende Titel, als die 8600 Serie....
Hängt jetzt nur noch von meinem Board ab, ob und wann die Karte bei mir läuft!
In diesem Sinne.....

AnarchX
2007-06-29, 15:33:35
Schlecht ist eine 2600XT zum aktuellen Preis sicherlich nicht, aber bei kommenden Titeln wird man imo weder mit 2600 und 8600er Serie viel Spass haben.

Aber wenn dann schon eine Variante mit 512MB. ;)

LovesuckZ
2007-06-29, 15:33:38
werd mir zu 90% ne 2600XT zulegen, weil ich denke, sie bringt eine bessere Leistung für kommende Titel, als die 8600 Serie....


Und welchen Vorteil hast du von der besserem Leistung, wenn du trotzdem nur 10 Frames pro Sekunde hast? :rolleyes:
Ausserdem hörst du ja nicht auf ältere Spiele mal an zufassen. Und genau hier hat die 8600GTS deutlich mehr Argumente für einem Kauf als die 2600XT in bezug auf "neuere Spiele".

Schlammsau
2007-06-29, 15:38:38
Und welchen Vorteil hast du von der besserem Leistung, wenn du trotzdem nur 10 Frames pro Sekunde hast? :rolleyes:
Ausserdem hörst du ja nicht auf ältere Spiele mal an zufassen. Und genau hier hat die 8600GTS deutlich mehr Argumente für einem Kauf als die 2600XT in bezug auf "neuere Spiele".

LOL, wo habe ich 10 Frames???? in der höchsten Auflösung unter maximalen Details??? Ja, das kann schon sein, aber ich brauche das nicht! Mir reichen meist mittlere Details und 1024x768!
Hatte immer schon MidRange Karten, weil mir für schnellere Karten, dass Geld einfach zu schade ist! :P

James Ryan
2007-06-29, 15:40:54
ok leute, der klügere gibt nach... ;)
...ich hab meine meinung, ihr habt eure!
werd mir zu 90% ne 2600XT zulegen, weil ich denke, sie bringt eine bessere Leistung für kommende Titel, als die 8600 Serie....
Hängt jetzt nur noch von meinem Board ab, ob und wann die Karte bei mir läuft!
In diesem Sinne.....

Bei dem Preis ist das eine gute Wahl. Nur ob die Leistung für kommende Titel noch reicht, um bei annehmbarer Qualität genug Perfomance zu haben glaube ich nicht, genau wie auch bei der Gf 8600er.
Klüger wäre ein Kauf einer X1950 Pro/XT mit 512 MB, da kann man sicher sein auch für die nähere Zukunft noch genug Luft zu haben.

MfG :cool:

Schlammsau
2007-06-29, 15:45:40
Bei dem Preis ist das eine gute Wahl. Nur ob die Leistung für kommende Titel noch reicht, um bei annehmbarer Qualität genug Perfomance zu haben glaube ich nicht, genau wie auch bei der Gf 8600er.
Klüger wäre ein Kauf einer X1950 Pro/XT mit 512 MB, da kann man sicher sein auch für die nähere Zukunft noch genug Luft zu haben.

MfG :cool:
Für mich persönlich, hat die Karte das beste Preis/Leistungs Verhältniss!
Die Preise werden sicherlich noch fallen! Sie ist bereits jetzt für ca. 94€ zu bestellen.....
Die X1950 Pro/XT kostet mir schon wieder zu viel, mal abgesehen vom hohen Stromverbrauch!

Nakai
2007-06-29, 15:46:45
Klüger wäre ein Kauf einer X1950 Pro/XT mit 512 MB, da kann man sicher sein auch für die nähere Zukunft noch genug Luft zu haben.

Zur Zeit gibt es einfach keine wirklich gute Grafikkarte für etwa 200€. Eine 8800GTS 320 hat nach meiner Ansicht zu wenig Vram und von ATI gibt noch nichts vergleichbares....tja.

mfg Nakai

AnarchX
2007-06-29, 15:49:56
Die X1950 Pro/XT kostet mir schon wieder zu viel, mal abgesehen vom hohen Stromverbrauch!

Zuviel?
http://geizhals.at/deutschland/a222723.html
oder
http://geizhals.at/deutschland/a237118.html

Und der Stromverbrauch ist zwar etwas höher, dafür aber ist die Pro-Watt-Leistung bei der X1950Pro/GT offensichtlich besser. ;)

Schlammsau
2007-06-29, 15:58:07
gut, das mit dem preis, hat sich in letzter zeit wohl geändert....Punkt für dich
aber die 1950pro verbraucht 11Watt, und die 1950xt ca. 20 Watt im Idle Betrieb mehr!
Unter Last 33 Watt bzw. 80 Watt mehr verbrauch als die 2600XT DDR3
Da mein Rechner meist 24 Stunden und das jeden Tag läuft, sind mir sparsame Komponenten sehr wichtig!

PS: die DDR 3 Version kann man bereits für 91€ vorbestellen!:eek:
http://geizhals.at/deutschland/a263234.html

Coda
2007-06-29, 16:38:31
.....oder einfach von mangelnder DX10 Leistung zeugt!? DX10 stellt einfach ganz andere Anforderungen an die Hardware...
Nein. Tut es nicht. ALU-Operation bleibt ALU-Operation, usw.

Trice1001
2007-06-29, 16:41:52
Wie schnell ist den die 26XT/4 gegen eine 7900GT ? der Unterschied interesiert mich :) auch im Strom verbrauch ;)

SavageX
2007-06-29, 16:51:51
Schlecht ist eine 2600XT zum aktuellen Preis sicherlich nicht, aber bei kommenden Titeln wird man imo weder mit 2600 und 8600er Serie viel Spass haben.


Da die 2600 und 8600 Mainstream sind, wäre es Armutszeugnis für die Spieleschmieden, wenn Spiele, die so in absehbarer Zeit erscheinen, auf diesen Karten nicht vernünftig laufen würden. Nicht mit vollen Details, nicht mit totschlag-AA oder AF - aber hohe Details sind ja sowieso nur was für die High-End Renner.

AnarchX
2007-06-29, 16:58:10
Da die 2600 und 8600 Mainstream sind, wäre es Armutszeugnis für die Spieleschmieden, wenn Spiele, die so in absehbarer Zeit erscheinen, auf diesen Karten nicht vernünftig laufen würden.

Kommt halt drauf an wie gut informiert die Spieleschmieden waren und ob sie nicht z.B. bei nV den üblicherweise halben HighEnd-Chip erwartet haben.;)

dildo4u
2007-06-29, 17:02:07
AA scheint der 2600XT whol noch deutlich mher zu Schaden als der 2900XT von 60 auf 30fps durchs 4XAA die 8600GTS geht "nur" von 80 auf 50fps.


http://images.anandtech.com/graphs/amd%20radeon%202600%202400_062707100631/14961.png

http://images.anandtech.com/graphs/amd%20radeon%202600%202400_062707100631/14962.png

http://www.anandtech.com/video/showdoc.aspx?i=3023&p=6

Schlammsau
2007-06-29, 17:05:20
AA scheint der 2600XT whol noch deutlich mher zu Schaden als der 2900XT von 60 auf 30fps durchs 4XAA die 8600GTS geht "nur" von 80 auf 50fps.

Treiberbug ;)

AnarchX
2007-06-29, 17:07:24
Treiberbug ;)

Oder halt die Folge von nur 4 ROPs und/oder einem hohen Bandbreitenbedarf der HD 2000 Architektur. ;)

dildo4u
2007-06-29, 17:07:54
Treiberbug ;)


Es ist schon der dritte Treiber mit R6xx Support schlechte Ausrede.

Schlammsau
2007-06-29, 17:11:50
jungs....lassen wirs jetzt!
ich mag nimma......:ucrazy3:

LovesuckZ
2007-06-29, 17:14:09
Oder halt die Folge von nur 4 ROPs und/oder einem hohen Bandbreitenbedarf der HD 2000 Architektur. ;)

Was mich am meisten wundert, ist der hohe Transistorencount. Die Karte hat mehr Transistoren als eine X1950XTX und erreicht nichtmal annährend die Leistung der 8600GTS - die ca. 100 Millionen Transistoren weniger hat.
Und im vergleich mit den frühreren ATI Karten, steht diese noch schlechter da.
Erschreckend.

dildo4u
2007-06-29, 17:16:30
Die Frage ist wie viel davon für die HDTV Funktionen drauf gehen.

AnarchX
2007-06-29, 17:19:28
Was mich am meisten wundert, ist der hohe Transistorencount. Die Karte hat mehr Transistoren als eine X1950XTX und erreicht nichtmal annährend die Leistung der 8600GTS - die ca. 100 Millionen Transistoren weniger hat.
Und im vergleich mit den frühreren ATI Karten, steht diese noch schlechter da.
Erschreckend.

UVD, Tesselator, D3D10-Kompatibilität und die großen Textur-Caches bei der HD2000-Serie kosten halt einige Transistoren, aber glücklicherweise hat man diesmal es auf eine akzeptable Die-Size geschafft. ;)

reunion
2007-06-29, 17:25:24
Dieselbe, inhomogene Leistung wie bei der HD2900XT. Die Karte (HD2600XT) liegt teilweise sehr gut, und wird teilweise selbst von einer X1650XT geschlagen, also dem Vorgängermodell. Genauso wie die HD2900XT teilweise vom einer X1950XTX geschlagen wird. Das ist inakzeptabel. An der Architektur ist einiges schief gelaufen.

Oder halt die Folge von nur 4 ROPs und/oder einem hohen Bandbreitenbedarf der HD 2000 Architektur. ;)

Wäre dem so würde die GDDR4-Version deutlich besser liegen, aber genau das Gegenteil ist der Fall. Ein R600 hat ja trotz (offensichtlich sinnlosem) 512-bit SI dasselbe Problem.

Gast
2007-06-29, 17:49:12
Wäre dem so würde die GDDR4-Version deutlich besser liegen, aber genau das Gegenteil ist der Fall. Ein R600 hat ja trotz (offensichtlich sinnlosem) 512-bit SI dasselbe Problem.

die hat ja auch nur 4 ROPs (wobei das mit single-cycle-4xAA eigentlich reichen müsste, oder wurda da vielleicht auch eingespart?)

Gast
2007-06-29, 18:13:29
UVD, Tesselator, D3D10-Kompatibilität und die großen Textur-Caches bei der HD2000-Serie kosten halt einige Transistoren,

Die 8600GTS hat ca. 280 Millionen Transistoren. Neben D3D10 und einem verbesserten Videoprozessor hat die Karte noch weitere Verbesserungen zu den G7x Karten erfahren (entkoppelte Recheneinheiten, erweitere ROP - Fähigkeiten, verbesserte Texturfilterung).
Sie hat also genausoviele Transisoten wie die G71 Karten, aber auch deutliche Verbesserungen erhalten.
Aber wo sind diese bei der 2600XT? Sind die Recheneinheiten vielleicht zu teuer? Und ob die größe des Chips wirklich so gut ist, lässt sich erst beim Erscheinen der 65nm Konkurrenzkarte sagen. Zur Zeit hätten sie einen (theoretischen) Vorteil, aber wir wissen nicht, wie teuer der Wafer und wie hoch die Ausbeute ist.

Schlammsau
2007-06-29, 18:15:32
Dieselbe, inhomogene Leistung wie bei der HD2900XT. Die Karte (HD2600XT) liegt teilweise sehr gut, und wird teilweise selbst von einer X1650XT geschlagen, also dem Vorgängermodell. Genauso wie die HD2900XT teilweise vom einer X1950XTX geschlagen wird. Das ist inakzeptabel. An der Architektur ist einiges schief gelaufen.



Wäre dem so würde die GDDR4-Version deutlich besser liegen, aber genau das Gegenteil ist der Fall. Ein R600 hat ja trotz (offensichtlich sinnlosem) 512-bit SI dasselbe Problem.
so ich nochmal...
also du schreibst das bei der ati architektur, einiges schief gelaufen ist. weil sie eigentlich gute leistung bringt, doch manchmal extreme ausreiser nach unten hat!
das gleiche problem haben die 8xxx von nVidia doch auch, vielleicht nicht so häufig (DX10, extreme Ausreiser nach unten)! Nur dann wird hier gesagt, es liegt am Treiber.... *klick*
es werden doch schon fortschritte gemacht....
es leigt nur an den Treibern
http://www.technic3d.com/?site=article&action=article&a=515
schau mal den Far Cry Bench an!

Undertaker
2007-06-29, 18:21:27
das gleiche problem haben die 8xxx von nVidia doch auch, vielleicht nicht so häufig (DX10, extreme Ausreiser nach unten)!

wer sagt denn sowas? dx10 material ist einfach noch zu anspruchsvoll für aktuelle, auf dx9 ausgelegte grafikchips...

Coda
2007-06-29, 18:26:41
Die Frage ist wie viel davon für die HDTV Funktionen drauf gehen.
Der Videoprozessor wird kaum 10 Mio. Transistoren brauchen.

schau mal den Far Cry Bench an!
Far Cry hat unter Vista Probleme, weil es pro Frame Resourcen anlegt/löscht. Das hat Stalls verursacht, weil das unter XP die Runtime abfängt unter Vista aber nicht.

Es liegt sicher nicht nur an den Treibern. Dafür ist inzwischen viel zu viel Zeit vergangen.

AnarchX
2007-06-29, 18:43:51
Der Videoprozessor wird kaum 10 Mio. Transistoren brauchen.


Es dürften schon etwa 10 Mio sein. RV550(Mobility Radeon HD 2300) ist ein RV515(105Mio) mit UVD und kommt auf 115Mio. Transistoren.

Aber natürlich kommt man da noch lange nicht auf die 390Mio. des RV630, aber imo wird dies wohl seine Ursache im Tesselator und halt den 3 SIMDs liegen.

Crazy_Chris
2007-06-29, 18:59:10
Lohnt sich das Upgrade von einer X800XT auf eine HD 2600XT (GDDR3) ? :confused:

AnarchX
2007-06-29, 19:04:45
Lohnt sich das Upgrade von einer X800XT auf eine HD 2600XT (GDDR3) ? :confused:

Kommt drauf an ob du wert auf Eye-candy, wenn auch bei fraglicher Performance und den erweiterten Videofeatures legst und deinen Stromverbrauch etwas senken möchtest.
In älteren Spielen wird man nicht unbedingt einen (großen) Leistungssprung machen, siehe z.B. BF2 oder Prey (X800XT ~7600GT).

davidzo
2007-06-29, 19:18:12
es gibt ein paar interessante zwischenmodelle von einigen herstellern. gut das ati die taktspezifikationen nach oben hin offen lässt. insbesondere der speicher der hd2600pro bremst enorm und 400mhz speicher ist derzeit wirklich die bottomline. schnellerer spöeicher wird sehr bald ebenso günstig sein, es gibt also hersteller die von vornherein auf besseren speicher setzen:

http://geizhals.at/eu/a263361.html

Die Karte ist näher an der Xt dran als an der pro. 650mhz Chipsatkt lassen sich hoffentlich noch anheben, aber die 1400mhz speicher sind nett.
Der preis ist ne Kampfansage gegen die 8500GT. Diesen kampf gewinnt die 2600pro deutlich.

Auch bei der Xt will man sich hervortun, die 50mhz speichertakt sind aber eher ein kümmerliches unterscheidungsmerkmal:
http://geizhals.at/eu/a263235.html
Für 2€ mehr aber auch ok, das packen wir doch mit ein.

Xpertvision scheint bei dieser Serie ja zum Highendhersteller zu mutieren. Das Layout und die Kühler erinnern stark an Gainward.
Jetzt fehlen nur noch gute Spielebundle und wollen wir mal hoffen dass der support stimmt.
Schon der Kühler auf der X1950pro super sieht zwar ungewöhnlich aus, ist aber sehr effektiv. das alte Thermoengine Konzept (wer sich an die allerersten Coppermine und Athlon Thunderbird Tage erinnert weiß was ich meine) ist sehr effektiv und leise, jedenfalls besser als das originalteil, wen auch etwas unelegant.
Ich bin mal gespannt was da noch kommt...

Crazy_Chris
2007-06-29, 19:30:04
Kommt drauf an ob du wert auf Eye-candy, wenn auch bei fraglicher Performance und den erweiterten Videofeatures legst und deinen Stromverbrauch etwas senken möchtest.
In älteren Spielen wird man nicht unbedingt einen (großen) Leistungssprung machen, siehe z.B. BF2 oder Prey (X800XT ~7600GT).


Ich benutze seit Jahren eine Wasserkühlung und da ich bisher nur die GPU kühle, könnte ich das bei einer 2600XT auch so machen. Würde ich eine X1950 oder 8800GTS..etc kaufen dann bräuchte ich auch einen völlig neuen Wasserkühler der locker 80€ kostet. :redface:

Aber so wie ich das sehe kommt man nicht drum herum. Sowas wie Oblivion oder Gothic 3 läuft ja erst auf einer Geforce 8800 richtig. :tongue:

davidzo
2007-06-29, 20:27:41
unsinn, wieso solltest du deine wasserkühlung nicht auf die karten anpassen können, du benötigst lediglich neues montagematerial für die großen karten.

Das wasserkühler heutzutage auch den speicher abdecken sollen ist ein Märchen um mehr Kohle mit GPUkühlern verdienen zu können.

besser als dieses exemplar hier wird dein Kupferkühler in jedem falle noch kühlen, selbst wenn es nur ein oller gebohrter Kühler ala wassergekühlt.de ist:
http://www.power-dreams.com/xoops/uploads/photos/131.jpg
Ich wundere mich noch immer, wie manche mit solchen Kühlern auf GPUtemps von nur rund 60-70° kommen. - Naja, andere aktuelle wasserkühler schaffen ja auch nur temps um die 40°... LOL

Komplettkühler sind einer guten combo aus single gpukühler und passiven speicherkühlern + ventilation immer unterlegen. Die Komplettkühlung geschieht eher aus Faulheit bzw. Low-Noise wunschdenken, aber nicht aus leistungsgründen.

besorg dir ein paar MC-14 oder zur not auch nur zalman passiv bga heatsinks und einen pabst 80er mit 12 oder 9 db und genieße deine neue Graka unter Wakü :)

Low Rider
2007-06-29, 20:48:22
Lohnt sich das Upgrade von einer X800XT auf eine HD 2600XT (GDDR3) ? :confused:
Die Frage hat mich auch dazu bewogen auf die 2600 zu warten... scheinbar umsonst. Hab bisher noch keinen Test gesehen, in dem ältere Grafikkarten wie Radeon X800XT mitgetestet werden, aber sie ist leistungsmäßig vergleichbar mit einer Radeon X1650XT bzw. GeForce 7600GT. So gesehen bringt eine 2600XT keinen Geschwindigkeitsschub :(

Crazy_Chris
2007-06-29, 22:46:00
unsinn, wieso solltest du deine wasserkühlung nicht auf die karten anpassen können, du benötigst lediglich neues montagematerial für die großen karten.



Das Problem ist das die X1950 sowie die Geforce 8800 Serie einige Bauteile haben, die mitgekühlt werden müssen. Ich bezweifle stark das es bei solchen Karten reicht nur die GPU zu kühlen. :( Lüfter möchte ich nicht unbedingt einsetzen.
Aber so wie ich das sehe führt zurzeit kein Weg an der Geforce 8800GTS vorbei. Noch viel länger will ich nicht warten. Hätte ich gewußt wie lahm die 2600XT wird, so hätte ich schon lange eine X1950Pro. :)

PS: Cooling Solutions? Die Seite kommt mir aus den Anfangstagen meiner Wakü (mitte 2000) bekannt vor. :)

PPS:
"Willkommen, Crazy Chris
Dein letzter Besuch war: 06.12.2002 um 18:23 Uhr" ;) ;)

up¦²
2007-06-30, 01:19:18
MSI Citruspresse :tongue:
RX2600XT-T2D256E-OC/D4 http://global.msi.com.tw/uploads/Image/product_img/other/vga/feature/OC2007.gif
• Engine Clock Speed: 820MHz
• Memory Clock Speed: 2250MHz
http://global.msi.com.tw/index.php?func=proddesc&prod_no=1249&maincat_no=130&cat2_no=137

Superheld
2007-06-30, 01:26:36
LOL was für Rakete;)

davidzo
2007-06-30, 02:19:53
irgendwie sind die markenhersteller diesmal spät aufgestanden. bisher sehe ich nur powercolors, xpertvisions, sapphires und atis. nichts zu sehen von asus und msi

Schlammsau
2007-06-30, 09:38:02
bei many electronics wird ne XpertVision 2600XT Super mit 512MB gelistet....
für sage und schreibe 118€!
http://many-electronics.shops4ecommerce.de/shop/index.php?artnr=14372&quelle=gh
würd mich mal interessieren wie die abgeht!
http://666kb.com/i/apnhzwz36ga1zzz5w.jpg

Pirx
2007-06-30, 09:39:15
Es sind immer noch ziemlich wenige Reviews draußen und dazu noch meist, nö eigentlich immer, von imho etwas halbseiden angehauchten Seiten. Ich freue mich ja schon auf den 3DC-Test.

Gast
2007-06-30, 11:13:25
Treiberbug ;)Darauf würde ich nicht hoffen.
also du schreibst das bei der ati architektur, einiges schief gelaufen ist.Reunion ist eigentlich ein ATI-Fanboy, wie er im Buche steht (;)), aber selbst er sieht ein, dass bei den R6x0ern etwas nicht stimmt und dies nicht nur ein simples Treiberproblem ist. Der Performance-Hit durch AF lässt sich noch durch die geringe Texelfüllrate erklären, aber beim MSAA hakt irgendwas ganz gewaltig. Die 2900xt hat mehr Bandbreite als alle anderen Karten und bricht trotzdem pervers stark ein, sobald MSAA genutzt wird. Da ist imho definitiv etwas kaputt. Ich kann mir nicht vorstellen, dass ATI sich den R600 so vorgestellt hat, wie wir ihn kaufen können.
Xpertvision scheint bei dieser Serie ja zum Highendhersteller zu mutieren. Das Layout und die Kühler erinnern stark an Gainward.Gainward gehört auch seit einiger Zeit Palit.

Gast
2007-06-30, 11:13:40
irgendwie sind die markenhersteller diesmal spät aufgestanden. bisher sehe ich nur powercolors, xpertvisions, sapphires und atis. nichts zu sehen von asus und msi


Von Asus und MSI ist doch schon gelistet bei Alternate.

http://www.alternate.de/html/shop/productListing4C.html?group=manufacturerName&cat1=9&cat2=255&cat3=000&treeName=HARDWARE&Level1=Grafik&Level2=Karten+PCIe&Level3=ATI&#Asus

http://www.alternate.de/html/shop/productListing4C.html?group=manufacturerName&cat1=9&cat2=255&cat3=000&treeName=HARDWARE&Level1=Grafik&Level2=Karten+PCIe&Level3=ATI&#MSI

Gast
2007-06-30, 11:15:55
DX10 braucht einfach viel mehr Leistung als DX9....Nein. Wenn du die gleiche Szene einmal in D3D9 und einmal in D3D10 renderst, wird beides ungefähr gleich schnell sein. Durch geringeren API-Overhead hat D3D10 sogar das Potenzial schneller zu sein.

anddill
2007-06-30, 11:18:05
bei many electronics wird ne XpertVision 2600XT Super mit 512MB gelistet....
für sage und schreibe 118€!
http://many-electronics.shops4ecommerce.de/shop/index.php?artnr=14372&quelle=gh
würd mich mal interessieren wie die abgeht!
http://666kb.com/i/apnhzwz36ga1zzz5w.jpg

Ich behaupte jetzt einfach mal, die karte ist zu langsam, um den Speicher sinnvoll zu nutzen. Stellt man die Grafikeinstellungen so hoch, daß die 512MB ausgelastet werden, ist die Framerate allein durch die Speichergeschwindigkeit beim reinen linearen lesen auf ~ 40Fps begrenzt. Und da ist noch nichts berechnet, kein Z-Test gemacht und noch nichts in den Framebuffer geschrieben.

21GB/s Durchsatz /0,5GB RAM = 40,5Fps

blackbox
2007-06-30, 11:28:38
Viele der Reviewseiten haben die Karten unter Vista getestet.
Ich habe mal die Reviews unter Vista und XP grob verglichen und die Tendenz ist klar: Unter Vista sind die Karten deutlich schlechter als unter XP.

AnarchX
2007-06-30, 11:31:34
@anddill
Warum soll denn der RAM in jedem Frame vollständig ausgelesen werden?

Es geht doch eher darum, dass man Daten vorrätig im schnellen VRAM halten kann und wenn dann auf diese zugegriffen wird, dies entsprechend schnell geschehen kann und nicht wie bei einer 256MB Karte, dann diese erst aus dem normalen RAM holt -> "Speicherruckler".

Imo machen 512MB bei einer 2600XT, zudem wenn sie entsprechend günstig sind, durchaus Sinn um ein ruckelfreieres Erlebnis in einigen Games mit großen Datenmengen zu haben.

Gast
2007-06-30, 11:32:05
Ja, in meinen Augen ist es auch noch zu früh um Grafikkarten-Benchmarks ausschließlich unter Vista durchzuführen. Die Treiber sind bei beiden IHVs längst nicht optimal, gerade was SLI und Crossfire anbelangt.

AnarchX
2007-06-30, 11:33:38
Ja, in meinen Augen ist es auch noch zu früh um Grafikkarten-Benchmarks ausschließlich unter Vista durchzuführen. Die Treiber sind bei beiden IHVs längst nicht optimal, gerade was SLI und Crossfire anbelangt.

Aber auf den anderen Seite, werden diese Karten in OEM-PCs wohl nahezu ausschliesslich mit Vista verkauft.

@blackbox
Könntest du entsprechende Beispiele vielleicht verlinken?

Benedikt
2007-06-30, 11:59:43
Der Performance-Hit durch AF lässt sich noch durch die geringe Texelfüllrate erklären, aber beim MSAA hakt irgendwas ganz gewaltig. Die 2900xt hat mehr Bandbreite als alle anderen Karten und bricht trotzdem pervers stark ein, sobald MSAA genutzt wird. Da ist imho definitiv etwas kaputt. Ich kann mir nicht vorstellen, dass ATI sich den R600 so vorgestellt hat, wie wir ihn kaufen können.

Lässt sich diese Vermutung, dass etwas beim R600 defekt sei (ROPs?), durch das Abschneiden der kleineren Karten (RV630,...) festmachen? Hätte AMD/ATI nicht diesen ominösen Bug beim R600 in den kleineren Karten gefixt?

Da die kleineren Karten ebenfalls bei AA stark einbrechen, ist da nicht eher etwas mangelhaft "by design"?

Noebbie
2007-06-30, 12:36:41
bei many electronics wird ne XpertVision 2600XT Super mit 512MB gelistet....
für sage und schreibe 118€!
http://many-electronics.shops4ecommerce.de/shop/index.php?artnr=14372&quelle=gh
würd mich mal interessieren wie die abgeht!
http://666kb.com/i/apnhzwz36ga1zzz5w.jpg

Hm, wenn ich die Benches noch richtig in Erinnerung habe, ist die Karte auf dem Level einer ~ x1950GT. Ich bezweifele eher, dass sich die 512 MB Versionen auszahlen werden. Hm, Marketing?

A.Wesker
2007-06-30, 12:56:35
Das Problem ist das die X1950 sowie die Geforce 8800 Serie einige Bauteile haben, die mitgekühlt werden müssen. Ich bezweifle stark das es bei solchen Karten reicht nur die GPU zu kühlen. :( Lüfter möchte ich nicht unbedingt einsetzen.


das geht sogar ohne Probleme, der Ram muss gar net gekühlt werden (wird nur lau warm bei der 2900XT und bei der 8800er), für die ICs reichen einfache Passivbausteine. Selbst mit Voltmods gibts keine Probleme und man erreicht durch einen guten GPU Kühler bessere Temps als mit einem Komplettkühler.

Gast
2007-06-30, 14:26:27
Ich behaupte jetzt einfach mal, die karte ist zu langsam, um den Speicher sinnvoll zu nutzen.

speicher kann man nicht nur durch hohe auflösungen+FSAA nutzen, sondern auch durch hohe texturauflösungen, und da ist die rechenleistung fast egal.

anddill
2007-06-30, 18:21:03
speicher kann man nicht nur durch hohe auflösungen+FSAA nutzen, sondern auch durch hohe texturauflösungen, und da ist die rechenleistung fast egal.
Aber wenn Du schon 1/40stel Sekunde brauchst, nur um die Texturen vom Ram zur GPU zu übertragen, dan ist der RAM zu groß oder die Bandbreite zu klein.
Vielleicht machts ja in irgendwelchen Grenzbereichen Sinn, wenn mal kurz 300MB gebraucht werden, dann wär sie etwas schneller als eine 256MB-Karte.
Soweit ich weiß, hält der Grafiktreiber nur die in der aktuellen Scene benötigten Texturen in Grafikram, zumindest bei den ATI-Karten, die Geforce 8x00 scheinen da ja einen "Zumüll-Bug" zu haben.
Das heißt dann aber auch, daß die 450MB geladene Texturen für jedes Frame auch einmal "durchgekaut" werden müssen, und das dauert dann schon eine 40stel Sekunde.
Eine Radeon X1950pro hat ca. die doppelte Speicherbandbreite, und bei dieser Karte machen 512MB ja auch nur gerade so Sinn.

[ncp]EasyChiller
2007-06-30, 18:26:35
Gibt es eigentlich bereits IRGENDEINEN Test oder ein Review wo die X2600er mal mit Crossfire getestet wurden? .. möglichst aber mit Energiemessungen - vor allem im Idle gegen eine vorserienkarte wie die X1950-XTX oder X1900-XT .. und / oder auch gegen ein 8600'er SLI-Setup? :frown::redface:

Habe leider noch nix vergleichbares gefunden ..


und ich wiederspreche mal meinem Vorredner das 512mb keinen sinn machen! .. wenn du höhere Auflösungen fähst (wie ich z.b. 1920*1200) .. da hatte ich mit einer X1900-Pro mit 256 MB immer mal deutliches Ruckeln .. aber nicht durch zu niedriege FPS .. nein jede Anzeige der fps war da ok .. es gab halt nur immer mal Textur-Nachladeruckler welche wahrnehbar waren.

Dann hatte ich einfach mal die Graka-Ram-Überwachung angestellt und danach:

Auf eine X1900-XT mit 512 MB gewechselt udn Problem behoben.

Gast
2007-06-30, 18:34:56
EasyChiller;5631317']Gibt es eigentlich bereits IRGENDEINEN Test oder ein Review wo die X2600er mal mit Crossfire getestet wurden?Zumindest keine vernünftigen.

Undertaker
2007-06-30, 18:39:25
Aber wenn Du schon 1/40stel Sekunde brauchst, nur um die Texturen vom Ram zur GPU zu übertragen, dan ist der RAM zu groß oder die Bandbreite zu klein.

ich glaub nicht das es ingame reale fälle gibt, wo innerhalb von sekundenbruchteilen komplett alle texturen aus dem speicher gebraucht werden :)

Schlammsau
2007-07-01, 01:19:32
das schreit nach weiteren benchmarks..... *g*

davidzo
2007-07-01, 10:44:54
wer braucht denn bitte Windows MeII tests?
Als ob irgendein seriöser Gamer das benutzen würde. Dann ja eher Linuxtests, aber da ist ATI wohl noch nicht soweit mit den Treibern laut Phoronix. Die einzigen die MeII wirklich benutzen sind doch die Tester und irgendwelche Ahnungslosen KomplettPC Käufer, einer von uns würde sich das doch nicht freiwillig antun, oder nicht?
MeII tests sind also völlig überflüssig, zumal DirectX10 Games ja auch unter windowsXP auch laufen zu scheinen mit einigen hacks. das alc projekt ist ja auch länger bekannt.

Gast
2007-07-01, 10:49:51
MeII tests sind also völlig überflüssig, zumal DirectX10 Games ja auch unter windowsXP auch laufen zu scheinen mit einigen hacks.Halo 2 und Shadowrun nutzen kein D3D10.

Coda
2007-07-01, 11:41:38
das alc projekt ist ja auch länger bekannt.
Und komplett unbrauchbar. Was es wohl auch bleiben wird.

Vista ist auch ganz sicher kein "ME II", egal wie oft du's wiederholst.

StefanV
2007-07-01, 11:47:14
Die einzigen die MeII wirklich benutzen sind doch die Tester und irgendwelche Ahnungslosen KomplettPC Käufer, einer von uns würde sich das doch nicht freiwillig antun, oder nicht?
Also ich tue es freiwillig und bin davon sogar recht angetan.
Auch andere benutzen es FREIWILLIG.

Ganz ab davon ists schon ziemlich 'hart' Vista mit Windows More Error Edition vergleichen zu wollen, denn Vista ist was ganz anderes als ein aufpoliertes WIndows 98 mit deaktiviertem DOS Mode...

sloth9
2007-07-01, 20:11:22
Also ich tue es freiwillig und bin davon sogar recht angetan.
Auch andere benutzen es FREIWILLIG.

Ganz ab davon ists schon ziemlich 'hart' Vista mit Windows More Error Edition vergleichen zu wollen, denn Vista ist was ganz anderes als ein aufpoliertes WIndows 98 mit deaktiviertem DOS Mode...

Sondern ein aufpoliertes 2003 mit DRM und ohne 16-bit WoW... :biggrin:

Coda
2007-07-01, 20:18:51
Das Vista irgendwie mehr DRM hat als XP ist auch nur FUD. Unter XP bleibt der Bildschirm einfach schwarz bei HD-Content und sonst gibt's keinen Unterschied.

Und am Kernel wurde sehr viel mehr geändert als von 98 zu ME.

Gast
2007-07-01, 20:31:52
FUD? Wasn des?

Gast
2007-07-01, 21:08:33
http://de.wikipedia.org/wiki/Fear%2C_Uncertainty_and_Doubt

Gast
2007-07-01, 21:15:56
Wie gut ist denn das Übertaktungspotential der 2600XT? Gibts dazu schon irgendwas konkretes?

Die 512MB Karte hat schon einen recht guten Preis:
http://geizhals.at/eu/a263349.html

Kann nur noch besser & billiger werden. :)

Gast
2007-07-01, 21:23:03
Wie gut ist denn das Übertaktungspotential der 2600XT? Gibts dazu schon irgendwas konkretes?

Die 512MB Karte hat schon einen recht guten Preis:
http://geizhals.at/eu/a263349.html

Kann nur noch besser & billiger werden. :)
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/28/#abschnitt_uebertaktbarkeit

Gast
2007-07-01, 21:25:12
EDIT: Ist aber nicht das Beste, da keine Spannung erhöht wurde und kein Kühler ausdetauscht wurde.

[ncp]EasyChiller
2007-07-01, 22:44:53
voll zum kotzen .. ne gddr-4-variante mit 512MB wirds wohl nicht geben?! .. da bleibt ja fast nur noch eine gemini. :mad:

Endorphine
2007-07-01, 23:16:02
EasyChiller;5634249']voll zum kotzen .. ne gddr-4-variante mit 512MB wirds wohl nicht geben?! .. da bleibt ja fast nur noch eine gemini. :mad: Also zumindest von PowerColor könnte es eine (aktiv gekühlte) 512 MB 2600XT mit GDDR4 geben: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5537675#post5537675

Gast
2007-07-01, 23:26:50
EasyChiller;5634249']voll zum kotzen .. ne gddr-4-variante mit 512MB wirds wohl nicht geben?! .. da bleibt ja fast nur noch eine gemini. :mad:
von Jetway gibs die

http://www.dollarshops.eu/product_info.php/cPath/1_37_42_181/products_id/761

Gast
2007-07-01, 23:36:57
EasyChiller;5634249']voll zum kotzen .. ne gddr-4-variante mit 512MB wirds wohl nicht geben?! .. da bleibt ja fast nur noch eine gemini. :mad:

Es wird 100%ig eine HD2600XT 512MB GDDR4 von Sapphire geben!

Gast
2007-07-02, 00:31:02
EDIT: Ist aber nicht das Beste, da keine Spannung erhöht wurde und kein Kühler ausdetauscht wurde.

Vom 65nm Chip hätte ich mir mehr Übertaktbarkeit versprochen... 850 MHz sind auch mit 80nm möglich.

Wird die Spannung per Software änderbar sein?

[ncp]EasyChiller
2007-07-02, 00:35:59
hmm interessant .. vn saphirre ist ja auch in der übersicht eine dual x2600-XT gelistet .. aber nur mit 512 MB .. ich denke mal das damit dann nur 2 * 256 MB gemeint sind oder? :redface:

Aber wenn ich die bisherigen test so anschaue... wird eine Dual-x2600 .. oder auch eine 8600 SLI .. gerade mal so von der Leistung her an meine X1900-XT herankommen .. zugegeben mit vielleicht etwas besserer Textur-qualität.
Aber in der Idle-Leistung werden wohl dann diese Dual-Lösungen auch nicht weit unter (wenn nicht sogar über) der X1900-XT liegen. :-(

Irgendwie werde ich somit leider doch nicht auf eine sparsamere GPU wechseln können. SCHADE. .. da heisst wohl doch warten auf die nächsten Refresh-Chips.

Gast
2007-07-02, 10:32:48
EasyChiller;5634461']hmm interessant .. vn saphirre ist ja auch in der übersicht eine dual x2600-XT gelistet .. aber nur mit 512 MB .. ich denke mal das damit dann nur 2 * 256 MB gemeint sind oder?Korrekt, damit sind 2x 256 MiB gemeint.
EasyChiller;5634461']Aber wenn ich die bisherigen test so anschaue... wird eine Dual-x2600 .. oder auch eine 8600 SLI .. gerade mal so von der Leistung her an meine X1900-XT herankommen .. zugegeben mit vielleicht etwas besserer Textur-qualität.Multi-GPU-Lösungen mit Midrange-GPUs sind nur äußerst selten sinnig. Imho bist du mit deinem R580 besser bedient. Übrigens bieten die R6x0-Karten keine bessere Texturqualität als der R580, sondern eine schlechtere. Beim R580 bekommt man ohne AI wirklich eine zufriedenstellende Qualität, während beim R600 hier weiterhin fiese "Optimierungen" aktiv sind.

Wenn du also nicht auf passive Kühlung oder andere Vorteile der Midrange-Karten angewiesen bist, behalte deine x1900xt oder kaufe eine 8800. Mit Crossfire wirst du nicht glücklich werden, erst recht nicht mit Midrange-Karten.

[ncp]EasyChiller
2007-07-02, 18:29:30
Wenn du also nicht auf passive Kühlung oder andere Vorteile der Midrange-Karten angewiesen bist, behalte deine x1900xt oder kaufe eine 8800. Mit Crossfire wirst du nicht glücklich werden, erst recht nicht mit Midrange-Karten.

Nunja .. der Pferdefuss an meiner R580 ist halt der Energieverbrauch! :redface: .. da ich meine Stromrechnung selber zahle .. und ich doch recht häufig meine Kiste auch mit 3d-Games belaste .. machen sich die netten 100W zwischen 2d und 3d schon bemerkbar .. und auch unter 2d war meine Kiste schon mal locker ne ganze Ecke sparsamer.

mehr Grafikleistung als die X1900-XT bietet benötige ich momentan nicht. Also scheidet ein upgrade auf eine 8800 einfach mal schon aus dem grund aus, das diese unter 2d locker nochmal 30W mehr verbraucht .. muss nicht sein.

Aber so viel weniger Grafikleistung als die X1900-XT darf es auch nicht sein .. schließlich ist meine Standardauflösung 1920*1200 :biggrin: Und ne 8600 bzw. ne X2600-XT bringt ja teilweise unter DX9 in höheren Auflösungen großteils nichteinmal die Hälfte der Leistung einer X1900-XT.

DX10 ist für mich (wohl auch noch ein paar weitere Monate lang) ein Null-Argument.

Eine Dual-X2600 wäre ggf. aber etwas was ich mir vorstellen kann - vorrausgesetzt sie braucht eine Ecke weniger energie in 3d als meine jetzige .. und liegt in 2d im Energieverbrauch nicht drüber.

Gast
2007-07-02, 18:34:08
Vom 65nm Chip hätte ich mir mehr Übertaktbarkeit versprochen... 850 MHz sind auch mit 80nm möglich.

Wird die Spannung per Software änderbar sein?


Na klar, du kannst die Spannung per ATITool verändern/erhöhen, auch vom Speicher - wie schon bei der X1300/X1600X1650/X1800/X1900/X1950

AnarchX
2007-07-02, 19:23:43
Na klar, du kannst die Spannung per ATITool verändern/erhöhen, auch vom Speicher - wie schon bei der X1300/X1600X1650/X1800/X1900/X1950

Das ist falsch, Spannungen kann man nur bei Karten verändern, deren PCB dies unterstützt und da fallen aus deiner Liste so einige Karten heraus: X1300, X16x0, X1900GT Rev2, X1950GT/Pro.
HD 2400 und HD2600 verwenden auch AFAIK PCBs, welche keine Spannungsänderung per Software zulassen.

Gast
2007-07-02, 19:31:09
EasyChiller;5636572']
mehr Grafikleistung als die X1900-XT bietet benötige ich momentan nicht. Also scheidet ein upgrade auf eine 8800 einfach mal schon aus dem grund aus, das diese unter 2d locker nochmal 30W mehr verbraucht .. muss nicht sein.


das ist umgerechnet nichtmal eine glühbirne, ich kann ja verstehen dass du mit energie sparsam umgehen willst, ist ja auch gut so, aber in deinem haus finden sich bestimmt wesentlich mehr unnötige stromverbraucher als diese 30"


Aber so viel weniger Grafikleistung als die X1900-XT darf es auch nicht sein .. schließlich ist meine Standardauflösung 1920*1200 :biggrin: Und ne 8600 bzw. ne X2600-XT bringt ja teilweise unter DX9 in höheren Auflösungen großteils nichteinmal die Hälfte der Leistung einer X1900-XT.

du willst 1920x1200? dafür reicht ja eine X1900XT großteils nicht mehr aus, wie soll da eine krüpelkarte ala X2600 bzw. 8600 ausreichen?

Noebbie
2007-07-02, 19:50:14
du willst 1920x1200? dafür reicht ja eine X1900XT großteils nicht mehr aus, wie soll da eine krüpelkarte ala X2600 bzw. 8600 ausreichen?

Wenn er nicht auf Max. Einstellungen + AA/AF steht ist das durchaus machbar. Allerdings sollte er bei so ner hohen Auflösung auf 512MB Versionen zurückgreifen. Steht bei hoher Auflösung nicht eher die CPU im Vordergrund? Oder wie war das nochma mit der Limitierung... :redface:

Gast
2007-07-02, 19:59:24
Steht bei hoher Auflösung nicht eher die CPU im Vordergrund? Oder wie war das nochma mit der Limitierung... :redface:


nö, der cpu ist die auflösung ziemlich egal, nur die grafikkarte hat mehr zu tun.

[ncp]EasyChiller
2007-07-02, 20:46:03
ERstmal: ja ich spaare halt ... und ich habe mir grenzen gesetzt .. und meine X1900 (gleich zu erwähnen mit 512MB !! ;-) .. was anderes macht auch bei 1920*1200 keinen sinn - hatte schon genug ruckelorgien wegen nachladenden texturen mit einer X1900 256MB vorher) .. und die X1900 ist das Maximum was ich mir zumuten möchte .. eher sogar schon zu viel.


AA ist bei mir so gut wie immer aus .. AF fast immer auf 8x
Und ich game kaum aktuelle Titel ;-)

Und doch .. die X1900-XT-512MB hat sogar noch für Titan-Quest in prächtigen 1920*1200 gereicht. :tongue:

Ich glaube mit einer der neuen Karten käme bei dem Spiel keine Freude mehr auf! :eek:

Gast
2007-07-02, 22:28:51
Mein Gott, jetzt wo ich den Artikel bei der computerbase mit 3,46 GHz Core 2 gesehen habe, bin ich enttäuscht!

Die 2600XT ist teilweise sogar langsamer als eine X1650XT. :eek:

Was soll denn das werden? Gemessen an der durchschnittlichen Leistung würde ich sie maximal im 60€ Segment platzieren...

Die ganzen Mainstreamkarten sind einfach nur schrott, das kann doch nicht deren Ernst sein...

Noebbie
2007-07-02, 22:39:26
Mein Gott, jetzt wo ich den Artikel bei der computerbase mit 3,46 GHz Core 2 gesehen habe, bin ich enttäuscht!

Die 2600XT ist teilweise sogar langsamer als eine X1650XT. :eek:

Was soll denn das werden? Gemessen an der durchschnittlichen Leistung würde ich sie maximal im 60€ Segment platzieren...

Die ganzen Mainstreamkarten sind einfach nur schrott, das kann doch nicht deren Ernst sein...

Das ist halt der Preis, den man für DX10 zahlt. Es ging viel zu viel Chipfläche für DX10 drauf und somit blieb für eine wesentliche Leistungsteigerung ggnü. der Vorgängergeneration kaum was übrig. Sinn machen da wirklich nur die beiden High-End Karten von ATi/nVidia.

Gast
2007-07-02, 22:42:24
Das ist falsch, Spannungen kann man nur bei Karten verändern, deren PCB dies unterstützt und da fallen aus deiner Liste so einige Karten heraus: X1300, X16x0, X1900GT Rev2, X1950GT/Pro.
HD 2400 und HD2600 verwenden auch AFAIK PCBs, welche keine Spannungsänderung per Software zulassen.

Bei allen HD 2600 kann man die Spannung verändern, ich hab nämlich Exemplare, bei den HD 2400s weiß ich es nicht

Gast
2007-07-02, 23:16:25
Das ist halt der Preis, den man für DX10 zahlt. Es ging viel zu viel Chipfläche für DX10 drauf und somit blieb für eine wesentliche Leistungsteigerung ggnü. der Vorgängergeneration kaum was übrig. Sinn machen da wirklich nur die beiden High-End Karten von ATi/nVidia.

Also zumindest bei ATI verstehe ich nicht, warum man keine Karte bastelt, die die hälfte an Recheneinheiten wie die 2900XT hat.

Das dürfte doch kein großes Problem sein ...

AnarchX
2007-07-03, 07:13:56
Bei allen HD 2600 kann man die Spannung verändern, ich hab nämlich Exemplare, bei den HD 2400s weiß ich es nicht

Screenshot und einen Beweis, dass dies auch umgesetzt wird?
Ich bezweifele doch sehr, dass man bei "allen" 2600er Karten die Möglichkeit der Spannungsreglung per Software hat.

Gast
2007-07-03, 07:43:18
EasyChiller;5636572']Eine Dual-X2600 wäre ggf. aber etwas was ich mir vorstellen kann - vorrausgesetzt sie braucht eine Ecke weniger energie in 3d als meine jetzige .. und liegt in 2d im Energieverbrauch nicht drüber.Naja, ich denke nicht, dass ein Gespann aus zwei X2600 im Idle weniger verbraucht als deine x1900xt. Eher wird es mehr sein. So schlimm ist der Stromverbrauch der x1900 im Idle auch nicht, da ja Takt und Spannung gesenkt wird.

Noebbie
2007-07-03, 11:38:44
Hm, rückblickend bleibt da zu sagen, in Anbetracht des kleinen Hypes vor dem Launch, dass sich das warten für viele hier wieder nicht gelohnt hat. Viele Besitzer einer x1x00 Karte haben kaum ein Kaufargument.

Sie glänzen allerdings durchs FeatureSet und Verlustleistung. Aber ob das ein Kaufargument für ein Zocker ist? oO

up¦²
2007-07-03, 12:16:13
Eigentlich ersetzen die 610/30 die viel zu schwachen 1300/16x0 :wink:
Erstrecht preislich!
Superbilliges PCB und dringennd gebraucht bei OEM's, das paßt schon.
Interessant wird es erst wieder mit dem mysteriösen 670 und einem Dieshrink des 600: auch DC-mäßig
Solange ist man mit 570/80-600 doch gut bedient, denn DX10 ist noch nicht mal ansatzweise klar einzuschätzen!
Crysis&Co werden den Ausschlag geben... wird ein heißer Herbst!