PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : HD 2400 XT


Gast
2007-07-27, 03:37:31
Hallo,
habe vor, mir demnächst einen Laptop zu kaufen. Will damit ab und zu mal auch spielen können. Jetzt habe ich einen mit einer HD 2400 XT graka gefunden.

Dazu habe ich ein paar fragen:

1. Gibt es einen unterschied zwischen der mobilen und der "normalen" 2400er XT??

2. Wo kann man die ungefähr bei den mobilen chips einordnen? z.B. besser oder schlechter als die 7600 go

3. Jemand schon mit der graka erfahrung gehabt.

Danke im voraus

Silverbuster
2007-07-27, 04:50:04
1. In der Regel sind Mobile Versionen beschnitten oder niedriger getaktet. Folgt man jedoch Spezifikationen von AMD (http://ati.amd.com/de/products/mobilityradeonhd2400xt/specs.html), dürfte die Karte höchstens im Takt beschnitten sein. Und das nur Marginal.

2. Schwirig zu sagen, da die Karte noch zu neu ist um Benchmarks zu vergleichen. Jedoch ist sie definitiv langsamer als eine 7600GO, zumal die 2400 Reihe niemals für Spiele ausgelegt wurde. Bleibt aber auch die Frage ob du die normale 7600Go meinst oder die 7600GT Go? Die normale 7600GO dürfte hier kaum schneller sein und für Spiele damit ebenso ungeeignet.

Gast
2007-07-27, 17:45:17
schon wieder eine andere meinung.....
egal wo ich schaue, überall gibt es andere benchmarks, andere meinungen
was ist denn jetzt wirklich wahr??

AnarchX
2007-07-27, 17:53:08
Da die Mobile 2400XT mit 600/700MHz taktet, dürfte sie nur geringfügig hinter der Desktop 2400XT 700/700MHz liegen.

Die 7600 Go lässt sich mit einer 7600GS im recht gut vergleichen.

Ich würde sagen, beide Karten nehmen sich nicht viel je nach Titel liegt mal die oder die andere vorn.

Gast
2007-07-27, 17:54:39
Habe jetzt den Vergleich einer 8500 gt und der 2400 xt gefunden. Die 2400 xt soll einwenig schlechter als die nvidia sein, man würde es gar nicht merken.

So weit ich weiß ist die 8500 gt doch schon besser wie die 7600 go? oder?

Gast
2007-07-27, 21:43:45
zumal die 2400 Reihe niemals für Spiele ausgelegt wurde.
Warum
- ist sie dann DX10-fähig?
- hat sie einen so hohen Chiptakt?
- braucht sie einen PCIe-x16-Anschluss?
- verfügt sie über vier TMUs
- unterstützt sie Antialiasing?
- unterstützt sie AF?

Flashpoint
2007-07-28, 14:02:43
Checklistenfeatures ;)

Silverbuster
2007-07-28, 14:18:19
@Gast
Sorry.. aber deine Frage ist sowas von ......

Soll ATI vielleicht 10 verschiedene Chips entwickeln? Das sind ganz normale Features die du bei jeder Karte findest. Ist ja nichts weiter als eine extrem abgespeckter R600, nur irgendwo macht es keinen Sinn mehr weiter abzuspecken. Aber ich antworte trotzdem mal... extra für dich... wieso das so ist :rolleyes:

Warum
- ist sie dann DX10-fähig?
Weil die KArte schlichtweg auf dem R600 basiert und es kaum Sinn macht extra für eine lowcoast Karte eine DX9 Variante zu entwickeln. Außerdem kommen die Unified Shader beim Videodecoding zum tragen, mit einer DX9 KArte wäre das so nicht möglich.

- hat sie einen so hohen Chiptakt?
Zum Decoden von Videos braucht man eine gewisse Leistung, diese wird durch den Takt erreicht. Und wirklich "hohe" Taktleistungen hat sie bei weitem nicht. Die Taktraten entsprechen dem Standard vor 2 Jahren :wink:

- braucht sie einen PCIe-x16-Anschluss?
Was würed es für einen Sinn machen sie PCIe 1x Ready zu machen? Der PCIe 16x Anschluss ist schlichtweg der derzeitige Standard Steckplatz für Grafikkarten :rolleyes:

- verfügt sie über vier TMUs
Weil ATI schon länger immer in Quadblöcken arbeitet. Bei nur 2 TMUs hätten die wieder das Designe des Chips völlig ändern müssen. :wink:

- unterstützt sie Antialiasing?
Und warum soll sie das nicht tun? Ist ja schließlich nicht grade irgend ein besonderes Hardware Highlight. Und wieder der Verweis auf die Verwandschaft mit dem R600.

- unterstützt sie AF?
Siehe Antialiasing

AnarchX
2007-07-28, 14:22:24
Außerdem kommen die Unified Shader beim Videodecoding zum tragen, mit einer DX9 KArte wäre das so nicht möglich.


Nein, das erledigt bei RV610/630( und auch dem RV550 = HD 2300) dedizierte HW -> UVD.

Gast
2007-07-28, 14:31:55
@Gast
Sorry.. aber deine Frage ist sowas von ......

Soll ATI vielleicht 10 verschiedene Chips entwickeln? Das sind ganz normale Features die du bei jeder Karte findest. Ist ja nichts weiter als eine extrem abgespeckter R600, nur irgendwo macht es keinen Sinn mehr weiter abzuspecken. Aber ich antworte trotzdem mal... extra für dich... wieso das so ist :rolleyes:

Warum
- ist sie dann DX10-fähig?
Weil die KArte schlichtweg auf dem R600 basiert und es kaum Sinn macht extra für eine lowcoast Karte eine DX9 Variante zu entwickeln. Außerdem kommen die Unified Shader beim Videodecoding zum tragen, mit einer DX9 KArte wäre das so nicht möglich.

- hat sie einen so hohen Chiptakt?
Zum Decoden von Videos braucht man eine gewisse Leistung, diese wird durch den Takt erreicht. Und wirklich "hohe" Taktleistungen hat sie bei weitem nicht. Die Taktraten entsprechen dem Standard vor 2 Jahren :wink:

- braucht sie einen PCIe-x16-Anschluss?
Was würed es für einen Sinn machen sie PCIe 1x Ready zu machen? Der PCIe 16x Anschluss ist schlichtweg der derzeitige Standard Steckplatz für Grafikkarten :rolleyes:

- verfügt sie über vier TMUs
Weil ATI schon länger immer in Quadblöcken arbeitet. Bei nur 2 TMUs hätten die wieder das Designe des Chips völlig ändern müssen. :wink:

- unterstützt sie Antialiasing?
Und warum soll sie das nicht tun? Ist ja schließlich nicht grade irgend ein besonderes Hardware Highlight. Und wieder der Verweis auf die Verwandschaft mit dem R600.

- unterstützt sie AF?
Siehe Antialiasing
Sowas von....?

DX10:
Das Ausweichen auf DX9 ist genauso blödsinnig. Die kleinste DX9-Karte hatte ca. 35M Transistoren (FX5200). Die R9600 hatte 75M Transistoren. Die RV610 hat 180M Transistoren - wofür, wenn nicht zum Zocken braucht man DX10? Ach ja: Für den Packungsaufkleber...

Was meinst du, wie günstig ein einfacher DX9- oder gar 2D-Chip in 65nm herzustellen wäre....


Takt:
700 MHz zeigst du mir mal vor zwei Jahren, gelle? Und wenn es wirklich so wäre, dass der Takt für das Video-Decoding gebraucht würde - kann das die Pro-Version dann nicht? Niedrigerer Takt...

PCIe:
Sinn? Naja, sie würde halt auch in einen PCIe-x1 passen. Zudem spart das Kosten - einfacheres PCB usw.

TMUs:
Der Sinn hinter der Frage war: Wozu braucht sie überhaupt TMUs?

AA/AF:
Weil es für 2D und Video sinnlos ist - kostet alles nur wertvollen Die-Space.

Gast
2007-07-28, 14:32:31
Checklistenfeatures ;)
Exakt - um Spieletauglichkeit bewerben zu können.

Gast
2007-07-28, 15:47:06
Vielleicht hilft Dir ja die Seite etwas, es liegen bei der 2400XT zwar noch keine genauen Testwerte vor, aber ich denke für einen einfachen Überblick ist Sie ganz gut und in den nächsten Tagen, Wochen wird es dann wohl auch genauere Daten auf Grundlage von Tests zur 2400XT Mobility geben.

http://www.notebookcheck.com/ATI-AMD-Mobility-Radeon-HD-2400-XT.3720.0.html
http://www.notebookcheck.com/Vergleich-mobiler-Grafikkarten.358.0.html

El Gasto
2007-07-28, 17:56:05
Natürlich ist eine HD 2400XT auch spieletauglich, immerhin ist sie etwas schneller wie eine 8500GT oder eine 7600GS. In aktuellen Spielen dürfte sie sogar schneller sein wie die gesammte NV4x oder R4xx Generation. Natürlich kann mann mit ihr höchste Quallitätseinstellungen und AA/AF nicht überall anwenden, was hier scheinbar manche als spieletauglich voraussetzen, aber 1280x1024 mit mittleren Einstellungen und non AA/AF sollten auch in aktuellen Titeln locker möglich sein.

Imho ist die RV610 Serie sogar die beste Low Cost Karte seit der Geforce 4MX. Dang 64Bit SI sehr günstig, Low Profile, passiv, sehr stromsparend, relativ performant, sehr gute Video Features. Und das wichtigste, sie übertrifft in allen genannte Atrebuten ihren direkten Konkurenten 8500GT, welcher zudem noch teurer ist und wegen des 128Bit SI auch nicht mehr viel günstiger werden kann.

Endorphine
2007-07-28, 18:18:55
Natürlich ist eine HD 2400XT auch spieletauglich, immerhin ist sie etwas schneller wie eine 8500GT [...] Seit wann das? Der 8500GT-Konkurrent ist die HD2600/Pro. Die 2400XT hat zwar eine leicht höhere theoretische Shaderleistung, aber sowohl kleinere Füllraten als auch weniger Speicherbandbreite als die 8500GT. Und dass sich die leicht größere Shaderpower nicht annähernd im Verhältnis in mehr frames pro Sekunde niederschlägt kann man ja am Vergleich X1900 zu X1800 sehen, wobei die X1900 die dreifache Shaderleistung erbringt, aber nicht dreifache fps.

Ich frage mich ernsthaft, warum Radeons immer künstlich schöngeträumt werden, statt mal sachlich bei den Fakten zu bleiben. Und das wichtigste, sie übertrifft in allen genannte Atrebuten ihren direkten Konkurenten 8500GT [...] Warum bleibst du nicht bei der Wahrheit?

Die HD2400XT hat es übrigens gar nicht nötig, von Fanboys schöngeträumt zu werden. Sie ist sehr günstig zu haben und sparsam im Stromverbrauch und bringt für das Geld auch eine ordentliche 3D-Leistung.

El Gasto
2007-07-28, 18:45:56
Seit wann das? Der 8500GT-Konkurrent ist die HD2600/Pro. Die 2400XT hat zwar eine leicht höhere theoretische Shaderleistung, aber sowohl kleinere Füllraten als auch weniger Speicherbandbreite als die 8500GT. Und dass sich die leicht größere Shaderpower nicht annähernd im Verhältnis in mehr frames pro Sekunde niederschlägt kann man ja am Vergleich X1900 zu X1800 sehen, wobei die X1900 die dreifache Shaderleistung erbringt, aber nicht dreifache fps.

Ich frage mich ernsthaft, warum Radeons immer künstlich schöngeträumt werden, statt mal sachlich bei den Fakten zu bleiben. Warum bleibst du nicht bei der Wahrheit?

Die HD2400XT hat es übrigens gar nicht nötig, von Fanboys schöngeträumt zu werden. Sie ist sehr günstig zu haben und sparsam im Stromverbrauch und bringt für das Geld auch eine ordentliche 3D-Leistung.
Wo bitte schönträumen? Und ein "Fanboy" bin ich schon mal garnicht. Aber bitte wenn du Beweise willst, hier das CB Performance Ranking, welches wohlbemerkt noch mit dem StartUp Treiber durchgeführt wurde, der Cat 7.7 bringt noch mal ca. 15% mehr. Und selbst hier liegt die 2400XT in allen relevanten Auflösungen vor der 8500GT...http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/24/#abschnitt_performancerating

Ich bleibe dabei, eine HD 2400XT ist schneller, günstiger, stromsparender und hat die besseren Features als die 8500GT. Und nun sag mir mal bitte für welchen Punkt das nicht zutreffen soll?

reunion
2007-07-28, 18:51:02
Seit wann das? Der 8500GT-Konkurrent ist die HD2600/Pro. Die 2400XT hat zwar eine leicht höhere theoretische Shaderleistung, aber sowohl kleinere Füllraten als auch weniger Speicherbandbreite als die 8500GT. Und dass sich die leicht größere Shaderpower nicht annähernd im Verhältnis in mehr frames pro Sekunde niederschlägt kann man ja am Vergleich X1900 zu X1800 sehen, wobei die X1900 die dreifache Shaderleistung erbringt, aber nicht dreifache fps.

Ich frage mich ernsthaft, warum Radeons immer künstlich schöngeträumt werden, statt mal sachlich bei den Fakten zu bleiben. Warum bleibst du nicht bei der Wahrheit?

Die HD2400XT hat es übrigens gar nicht nötig, von Fanboys schöngeträumt zu werden. Sie ist sehr günstig zu haben und sparsam im Stromverbrauch und bringt für das Geld auch eine ordentliche 3D-Leistung.

Wer redet hier was schön? - Die 2400XT liegt ohne AA/AF, und das sollte bei einer Karte dieser Leistungsklassen entscheidend sein, fast immer vor der 8500GT:

http://www.hartware.de/review_720_1.html
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/1/#abschnitt_einleitung

Der einzige, was sich hier etwas zurechtbiegt, und nicht bei den Fakten bleibt, bist du.

Endorphine
2007-07-28, 19:00:49
Sonst wird über das CB-Rating immer hergezogen, dass es zu nichts zu gebrauchen sei. Aber wenn's mal Resultate bringt, was die eigene Meinung unterstützt, ist alle Kritik daran vergessen und es wird im heiligen Kreuzzug eingesetzt.

http://www.hexus.net/content/item.php?item=9187
http://www.guru3d.com/article/Videocards/440/18/

Zudem wird natürlich auch wieder kein Wort über die AA/AF-Schwäche der Radeon 6 verloren. Ältere Spiele in hoher Qualität zu spielen gelingt mit der 2400XT nicht so gut wie mit einer GF8.

Hartware schreibt sogar: Zum Spielen ist die ATI Radeon HD 2400 XT nur bedingt geeignet. Bei einer Auflösung von 1280x1024 bietet sie nur selten spielbare Bildwiederholraten und fällt oft sogar hinter die inzwischen betagte GeForce 6600 GT Mainstream-Grafikkarte zurück.
Und eine 6600GT bekommt man für deutlich weniger Geld als eine 2400XT.

Der einzige, was sich hier etwas zurechtbiegt, und nicht bei den Fakten bleibt, bist du. Das aus deinen Fingern. ;) Ich bin eben immer wieder gerne bereit, bei sich überschlagendem Fanboytum mal alles wieder auf den sachlichen Boden zurückzuholen. Was auch funktioniert. Jetzt kann sich der interessierte Threadleser die Benchmarks anschauen und selbst sehen. Unkommentiert Fanboy-Unsinn stehen zu lassen führt nicht dazu, dass sich das beste Produkt durchsetzt.

Nakai
2007-07-28, 19:05:22
Mal eine Frage:
Wen interessiert das? Beide Karten sind in etwa gleichstark und außerdem für moderne Spiele ungeeignet. Fürs Office und Multimedia sind beide gleich gut nur das die HD2400XT etwas weniger Strom zieht.

mfg Nakai

Endorphine
2007-07-28, 19:10:01
Mal eine Frage:
Wen interessiert das? Beide Karten sind in etwa gleichstark und außerdem für moderne Spiele ungeeignet. Fürs Office und Multimedia sind beide gleich gut nur das die HD2400XT etwas weniger Strom zieht.

mfg Nakai So ist es. Aber es gibt eben leider Fanatiker, die meinen, der 2400XT gewaltige 3D-Leistungshöhen andichten zu wollen. Dabei braucht die 2400XT das gar nicht. Das ist nicht der Einsatzzweck eines 3D-Beschleunigers mit 64-Bit SI. Aber dafür ist die 2400XT sehr kühl und günstig und hat gute Multimediafunktionen.

Die 8500GT spielt mit dem 128-Bit SI in einer anderen Klasse. Daher ist sie auch teurer. Und sie zieht mehr Strom etc.

reunion
2007-07-28, 19:12:31
Sonst wird über das CB-Rating immer hergezogen, dass es zu nichts zu gebrauchen sei. Aber wenn's mal Resultate bringt, was die eigene Meinung unterstützt, ist alle Kritik daran vergessen und es wird im heiligen Kreuzzug eingesetzt.

http://www.hexus.net/content/item.php?item=9187
http://www.guru3d.com/article/Videocards/440/18/


Wer redet vom Rating? Schau dir die einzelnen Werte an.


Zudem wird natürlich auch wieder kein Wort über die AA/AF-Schwäche der Radeon 6 verloren. Ältere Spiele in hoher Qualität zu spielen gelingt mit der 2400XT nicht so gut wie mit einer GF8.


Dafür ist man bei neueren Spielen besser dran. Das da nicht immer volle Details drin sind, sollte klar sein. Und so gravierend ist der Unterschied mit AA/AF auch nicht - die 8500GT stinkt ebenso ziemlich ab.

Hartware schreibt sogar:

Und eine 6600GT bekommt man für deutlich weniger Geld als eine 2400XT.

Das trifft auf die 8500GT genauso zu, siehe den Test.


Das aus deinen Fingern. ;) Ich bin eben immer wieder gerne bereit, bei sich überschlagendem Fanboytum mal alles wieder auf den sachlichen Boden zurückzuholen. Was auch funktioniert. Jetzt kann sich der interessierte Threadleser die Benchmarks anschauen und selbst sehen. Unkommentiert Fanboy-Unsinn stehen zu lassen führt nicht dazu, dass sich das beste Produkt durchsetzt.

You made my day. Schon die alten Griechen haben's gewusst: Selbsterkenntnis ist der erste Weg zur Besserung. Vielleicht wirst du auch mal einsehen, dass du vieles bist, aber sicher nicht neutral. Sich hier als Retter der Objektivität zu präsentieren kann nur an einer guten Portion Selbstüberschätzung liegen.

So ist es. Aber es gibt eben leider Fanatiker, [...]

Ja, leider gibt eben Fanatiker wie dich,...


Die 8500GT spielt mit dem 128-Bit SI in einer anderen Klasse.

Jetzt wird es wirklich lächerlich. Die 8500GT hat kaum mehr Bandbreite als die 2400XT, und ist laut den oben verlinkten Tests auch nicht wirklich schneller. Hier von einer anderen Klasse zu sprechen, ist schon ziemlich daneben. Ja, sie spielt in einer anderen Klassen - und zwar ungerechtfertigterweise in einer anderen Preisklasse.

Gast
2007-07-29, 00:27:25
Hallo,
danke erstmal für die beiträge.
Doch bei mir ging es darum, ob eine MOBILITY 2400xt besser als eine 7600 go ist. Oder überhaupt welche mobile graka man mit einer mobility 2400xt vergleichen könnte.
Hoffe auf eine schnelle antwort

Gruß

Gast
2007-07-29, 16:02:46
hat denn keiner eine antwort
ist dringend, weil die auktionen auslaufen

AnarchX
2007-07-29, 16:07:50
Wie ich schon sagte:

Mobility 2400XT -> 2400XT Desktop * 0,9
7600Go -> 7600GS * 0,85

Damit solltest du vergleichen können, konkrete Antworten wird dir wohl hier kaum jemand geben können, da diese Karte bisher eher noch ziemlich selten ist.

Xmas
2007-07-29, 16:48:02
Warum
- ist sie dann DX10-fähig?
- hat sie einen so hohen Chiptakt?
- braucht sie einen PCIe-x16-Anschluss?
- verfügt sie über vier TMUs
- unterstützt sie Antialiasing?
- unterstützt sie AF?
Spiele sind nicht die einzigen 3D-Anwendungen. Außerdem gibt es ja auch "langsame" bzw. wenig anspruchsvolle Spiele.

Wer redet vom Rating? Schau dir die einzelnen Werte an.
Da sehe ich hauptsächlich dass der Test für die genannten Karten nutzlos ist, da sie beide in SXGA keine spielbaren Frameraten schaffen (mit Ausnahme der 8500GT in F.E.A.R. vielleicht). Da hätte man maximal mit XGA-Auflösung benchen sollen.

Dafür ist man bei neueren Spielen besser dran.
Inwiefern?

Nakai
2007-07-29, 16:56:33
Naja dann vergleichen wir mal die Rohdaten.

Die 7600GS hat 12 PP mit je 2(Vec4) Shaderunits und einer TMU, der Kerntakt ist bei 400Mhz
Die 7600Go hat 8 PP mit je 2 Shaderunits und einer TMU, der Kerntakt liegt bei 450Mhz.

Dann die ungefähren Rohmengen dazu:
7600GS:
4800MTex/s
76,8 GFlops

7600Go:
3600MTex/s
57,6 GFlops

Nun die HD2400XT:
Die HD2400Xt hat 4 TMUs und 8 US(5D) und einen Takt von 700MHz

Die HD2400Mobility hat 4 TMUs und 8US(5D) und einen Takt von 600MHz.

Dann die ungefähren Rohmengen dazu:
HD2400XT
2800MTex/s
56 GFlops

HD2400Mobility
2400MTex/s
48 GFlops

Dann muss man noch sagen, dass die ATI-Karten nur ein 64Bit SI haben und noch einige Treiberprobleme haben. Ihre Architektur sollte aber effektiver mit den Füllraten umgehen. Jedoch geht wegen US noch was für die Vertexshader drauf. Ich würde daher zu Geforce7600Go greifen.

mfg Nakai