PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATI X1950 XTX 1900XT Refresh mit neuer Kühlung


Seiten : [1] 2

dildo4u
2006-07-22, 02:21:24
Bin mal gespannt ob ATI es diesmal gebacken bekommen hat eine leise und effektive Kühlung zu bauen.


http://img291.imageshack.us/img291/5375/x1950xtxsf8.jpg

Der Corespeed bleibt bei 650mhz nur wird diesmal GDDR4 verwendet der whol mit 1GHz taktet.
http://www.dailytech.com/Article.aspx?newsid=3446

StefanV
2006-07-22, 02:36:32
dildo4u[/POST]']Der Corespeed bleibt bei 650mhz nur wird diesmal GDDR4 verwendet der whol mit 1GHz(2ghz Effektiv) taktet.
http://www.dailytech.com/Article.aspx?newsid=3446
*UARGH*
Immer diese Deppenverdoppelung...
DDR verdoppelt die Busbreite, NICHT den Takt!

Ganz ab davon schaut die Kühlung doch garnicht soo schlecht aus!
Großer Quirl (schaut nach 80mm aus), mit entsprechender Oberfläche der Rotorbätter dazu ordentlich Oberfläche beim Kühler...

Gast
2006-07-22, 02:38:20
Tja... kann mal einer Benches posten, in denen aufgezeigt wird, was mehr Speicherbandbreite in hohen Auflösungen mit 4 fachem AntiAliasing bringt???

Außerdem verstehe ich nicht ganz, warum die Hersteller bei solch "kleinen" Kühlern bleiben. Wo liegt das Problem darin, einen großen, langsam drehenden Lüfter zu verbauen?

dildo4u
2006-07-22, 02:40:16
Gast[/POST]']
Außerdem verstehe ich nicht ganz, warum die Hersteller bei solch "kleinen" Kühlern bleiben. Wo liegt das Problem darin, einen großen, langsam drehenden Lüfter zu verbauen?
Klein? der füllt die ganze Karte doch komplett aus. :|

Gast
2006-07-22, 02:42:23
dildo4u[/POST]']Klein? der füllt die ganze Karte doch komplett aus. :|

Ja, guck doch mal genau hin.
Das Gehäuse innen ist nicht mal völlig ausgefüllt, da würden locker nochmal 0,5-1cm durchmesser reinpassen.

Mit einem anständigen Gehäuse und einem besser platzierten Stromstrecker wäre ein weiteres cm Durchmesser drin gewesen.

Also ich verstehe es nicht. Wieso immer solch kleine und lauten Quirls, anstatt einen großen???

dildo4u
2006-07-22, 02:42:39
StefanV[/POST]']*UARGH*
Immer diese Deppenverdoppelung...
DDR verdoppelt die Busbreite, NICHT den Takt!
.
Was soll ich sonst dahinter schreiben die Karte hat jetzt geschätze 55GB statt 45GB Speicherbandbreite?

Gast
2006-07-22, 02:45:22
dildo4u[/POST]']Was soll ich sonst dahinter schreiben die Karte hat jetzt geschätze 55GB statt 45GB Speicherbandbreite?

Einfach nur 1 GHz physischer Takt. Dann wäre es korrekt.

Alles was verdoppelt wurde, darf die Einheit "GHz" nicht mehr tragen. Wird leider noch zu häufig praktiziert und verwirrt daher zusätzlich.

dildo4u
2006-07-22, 02:48:49
Gast[/POST]']Einfach nur 1 GHz physischer Takt. Dann wäre es korrekt.

Alles was verdoppelt wurde, darf die Einheit "GHz" nicht mehr tragen. Wird leider noch zu häufig praktiziert und verwirrt daher zusätzlich.Dann schreibt dailytech aber auch ziehmlichen Mist oder GDDR4 ist besser als ich dachte. ;)


"Memory clock frequencies have not been announced either, though Samsung announced its GDDR4 is already capable of 3.2GHz in 8x512Mbit configurations."

Atma
2006-07-22, 02:53:14
Fette Sache ! :eek:

Vorallem der Kühler scheint endlich was her zu machen und sieht obendrein auch sehr nett aus. Ich würde sagen das ding ist mein ;). Meine X1900 XT setz ich bei ebay rein sobald sie von der RMA wieder da ist. Ich hab jetzt fast 4 wochen ne recht lahme X1600 XT am laufen da werd ich die paar wochen bis ungefähr mitte-ende august auch noch überstehen :)

Gast
2006-07-22, 02:57:55
dildo4u[/POST]']Dann schreibt dailytech aber auch ziehmlichen Mist oder GDDR4 ist besser als ich dachte. ;)

Ja, die Schreiben mist.

GDDR4 soll in dieser Stufe bis zu 1,8 GHz physischen Takt erreichen.
http://www.heise.de/newsticker/meldung/66979

Damit stellt sich dann für mich auch die Frage, inwieweit ATI dieses Potential ausnutzen wird. Also welche Speicherbausteine drauf sein werden.

dildo4u
2006-07-22, 03:00:25
Gast[/POST]']
Damit stellt sich dann für mich auch die Frage, inwieweit ATI dieses Potential ausnutzen wird. Also welche Speicherbausteine drauf sein werden.Naja da muss ja auch noch mal eine deutliche Steigerung für den R600 her als wird man die möglichen 1.8Ghz whol erst dann bringen.

Gast
2006-07-22, 03:05:49
dildo4u[/POST]']Naja da muss ja auch noch mal eine deutliche Steigerung für den R600 her als wird man die möglichen 1.8Ghz whol erst dann bringen.

Da bin ich mir nicht mal so sicher.
Beim R600 würden die gleichen Bausteine schon reichen, mit den unified Shadern und ~700 MHz Takt, wäre wohl schon ein ordentlicher Leistungsspring drin. Da rechne ich eher mit max. 1,2 GHz Speichertakt.

Die wären ziemlich blöd, schon jetzt die vollen Reserven zu nutzen, wollen schließlich noch die nächsten Refreshchips bringen und verkaufen. :)

Für Overclocker könnte es aber wieder mal interessant werden. Mal sehen, wieviele Reserven die haben werden...

dildo4u
2006-07-22, 03:20:31
Gast[/POST]']Da bin ich mir nicht mal so sicher.
Beim R600 würden die gleichen Bausteine schon reichen, mit den unified Shadern und ~700 MHz Takt, wäre wohl schon ein ordentlicher Leistungsspring drin. Da rechne ich eher mit max. 1,2 GHz Speichertakt.

Sorry aber unified Shadern hin oder her aber um 100% schneller zu sein als der R580 werden 700mhz Chip und 1.2Ghz Speichertakt nicht reichen.Aber is OT hier.

Gast
2006-07-22, 03:41:11
dildo4u[/POST]']Sorry aber unified Shadern hin oder her aber um 100% schneller zu sein als der R580 werden 700mhz Chip und 1.2Ghz Speichertakt nicht reichen.Aber is OT hier.

Wer sagt etwas von 100%:confused:

30% mehr Power durch einen next-Gen Chip wäre schon gut und das sollte mit etwas höherem Chiptakt (650 -> 700-750), schnellerem Speicher (775 -> 1000-1200) und Unifed Shader machbar sein.
Danach wird sowieso irgendwann ein Refreshchip kommen, der dann nochmal etwas drauflegt. :)

dildo4u
2006-07-22, 03:42:41
Gast[/POST]']Wer sagt etwas von 100%:confused:

30% mehr Power durch einen next-Gen Chip wäre schon gut und das sollte mit etwas höherem Chiptakt (650 -> 700-750), schnellerem Speicher (775 -> 1000-1200) und Unifed Shader machbar sein.
Danach wird sowieso irgendwann ein Refreshchip kommen, der dann nochmal etwas drauflegt. :)Ähm es ist ein Generation Sprung wie vom R400 zum R520 da muss deutlich mher drinn sein als 30%.

Gast
2006-07-22, 03:49:31
Sehe ich nicht so. Da muss gar nichts drin sein.
Ein Next Gen Chip erfüllt seinen Zweck, wenn er Next Gen ist, dafür muss er nicht schneller sein.

Wenn ich etwas zurückblicke, dann hat beispielweise die X1800 Serie von ATI nur 15% mehr gebracht, als X850 XT PE (laut CB).

Da wären 30% mehr Power schon extrem viel... warum wird denn immer erwartet, das sie schneller sein müssen?

Ein wenig mehr Rohpower wird er ja haben, allein durch den höheren Takt (?) und den schnelleren Speicher.
Unified Shader ist nicht so sicher, könnte aber ordentlich was bringen - ich weiß es nicht.
Jedenfalls rechne ich nicht mit mehr als 30-50% und das solltet ihr vielleicht auch nicht, sonst werdet ihr wohl enttäuscht sein. :)

dildo4u
2006-07-22, 04:05:29
Gast[/POST]']

Wenn ich etwas zurückblicke, dann hat beispielweise die X1800 Serie von ATI nur 15% mehr gebracht, als X850 XT PE (laut CB).

Also bei wirklich GK lastigen Games wie Fear sinds bei 1600*1200 4XAA schon mal 25 zu 40 fps für die X1800XT.Logisch das im Schnitt durch die CPU lastigkeit der meisten Games keine 80-100% erreicht werden aber man sieht schon das der R520 eher 70% schneller ist als 30 oder die von dir genanten 15%.

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/19/#abschnitt_fear

Gast
2006-07-22, 04:10:12
Ja, du darfst dir eben nicht nur die Rosinen rauspicken, denn die sind für die Masse an Anwendungen nicht ausschlaggend.

FEAR ist hochgradig Grafikabhängig, das sind viele andere Games glücklicherweise? nicht.

Daher ist ein Durchschnittswert schon etwas interessanter, da dieser den Vorsprung in allen getesteten Applikationen zusammenfasst.
Ist das leidige Thema... was nützt mir die Aussage: "bis zu 50% schneller", wenns in 90% meiner Anwendungen nur eben diese 15% sind? :)

Wie ich sagte, 30% im Durchschnitt mehr Leistung durch einen Next-Gen Chip wären schon verdammt viel, sicher wird auch er seine Stärken irgendwo haben, doch ehrlich gesagt, habe ich z.B. FEAR nicht einmal in der Hand gehabt... was nützt mir das dann? :)

dildo4u
2006-07-22, 04:13:39
Fear hab ich als Beispiel genommen da es eine sher Moderne Grafikengine nutzt und meiner Mienung nach werden zukünftige Games ähnlich GK lastig aber ist OT hier.

Gast
2006-07-22, 04:16:05
Deswegen beenden wir die Diskussion besser hier.

Ich hätte aber trotzdem ganz gerne noch Benches zu der Speicherlastigkeit der X1900 Serie, um beurteilen zu können, was die neue Karte bringen wird.

Natürlich sollten sich die Benches in einem angemessenen Bereich für solch eine Karte bewegen, also ohne max-BQ geht nichts.

thade
2006-07-22, 04:32:24
dildo4u[/POST]']
http://img291.imageshack.us/img291/5375/x1950xtxsf8.jpg


:eek: schaut die Karte geil aus!

BUG
2006-07-22, 08:29:04
..jup gefällt mir auch sehr gut, ist sogar ne kleine HeatPipe drinn, man könnte meinen ATI hat sich das bei HIS abgeguggt und HIS hat sich etwas am GTX Kühler orientiert. ;)

cu
BUG

4711
2006-07-22, 08:45:20
StefanV[/POST]']*UARGH*
Immer diese Deppenverdoppelung...
DDR verdoppelt die Busbreite, NICHT den Takt!

Ganz ab davon schaut die Kühlung doch garnicht soo schlecht aus!
Großer Quirl (schaut nach 80mm aus), mit entsprechender Oberfläche der Rotorbätter dazu ordentlich Oberfläche beim Kühler...

jup sieht eigendlich sehr gut aus,nur die Blätter stehen schon wieder senkrecht :confused: >laut,irgendwie raff ichs nett mehr was die treiben.

BUG
2006-07-22, 08:52:06
4711[/POST]']jup sieht eigendlich sehr gut aus,nur die Blätter stehen schon wieder senkrecht :confused: >laut,irgendwie raff ichs nett mehr was die treiben...das muß wohl so sein weil dieser Axial Lüfter wie ein Radial Lüfter funzt und die Luft von der unter- und Oberseiten ansaugt und durch den Tunnel drückt. :)

cu
BUG

dargo
2006-07-22, 09:15:59
Ich würde erstmal Tests abwarten und sich nicht an Bildern aufgeilen. Ein grosser Lüfter bedeutet nicht automatisch, dass der leise ist. Wenn ATI genau so ein beschissenes Lager beim Lüfter verwendet wie beim alten Kühler/Lüfter befürchte ich schlimmes. ;(

PS: ich bin echt gespannt ob ATI durch den GDDR4 den Stromverbrauch überhaupt senken kann. Meint ihr 100-110W wären realistisch für diese Karte? Wobei, durch den höheren Speichertakt sollte das wieder +/- 0W zum Vorgänger ausmachen.

Blackpitty
2006-07-22, 09:24:52
ich finde den Kühler extrem hässlich (meine Meinung) Das Loch überm Lüfter ist etwas klein im Gegensatz zum Lüfter, oder sehe ich falsch?

dargo
2006-07-22, 09:27:49
Blackpitty[/POST]']ich finde den Kühler extrem hässlich (meine Meinung) Das Loch überm Lüfter ist etwas klein im Gegensatz zum Lüfter, oder sehe ich falsch?
Hässlich? Mir ist es völlig egal wie der aussieht. Hauptsache in 2D unhörbar. Wenn der in 3D minimal hörbar ist reicht mir das auch schon.

4711
2006-07-22, 09:29:00
abwarten Tee trinken und das Aussehen ist vollkommen wurst...erträglich leise sein und kühlen muß muß das Ding sonst nix.

Winter[Raven]
2006-07-22, 09:45:59
An sich sieht ja die ganze Konstrukton garnicht mal schlecht aus... nur finde ich den "Lüfter" EXTREM häßlich...

dargo
2006-07-22, 10:40:47
Ich bin auch gespannt wie heiß die Spannungswandler werden.

Zapat
2006-07-22, 11:40:38
Für mich die schönste Karte die ich bis jetzt gesehen habe... :)

VooDoo7mx
2006-07-22, 11:49:22
Ist da auch nen neuer Chip (R580+ oder R581???) in 80nm drauf?
Oder verwechsel ich da jetzt wieder was?

dildo4u
2006-07-22, 11:52:12
VooDoo7mx[/POST]']Ist da auch nen neuer Chip (R580+ oder R581???) in 80nm drauf?
Oder verwechsel ich da jetzt wieder was?Sieht nicht so aus der Corespeed bleibt bei 650mhz.Der einzige Unterschied ist der 25% schnellere GDDR4 Speicher.

Gast
2006-07-22, 11:53:10
Blackpitty[/POST]']ich finde den Kühler extrem hässlich (meine Meinung) Das Loch überm Lüfter ist etwas klein im Gegensatz zum Lüfter, oder sehe ich falsch?

Die Kühlfächer sind im rechten Winkel zu PCB, durch bestimmte Drehung entsteht ein Unterdruck und die Luft wird eingesaugt und durch die Kupferlamellen gedrückt.

Das Loch ist tatsäclich etwas klein, muss aber nichts schlechtes bedeuten.

Der Kühler ist eindeutig von His abgeguckt...ist mir aber egal^^

OBrian
2006-07-22, 12:36:27
'Winter[Raven]'[/POST]']An sich sieht ja die ganze Konstrukton garnicht mal schlecht aus... nur finde ich den "Lüfter" EXTREM häßlich... Wenigstens ist keine ebene Fläche da, die es den Hersteller ermöglicht, ihre diversen lächerlichen Fantasy-Tussis und -Monster draufzukleben *würg*

Master3
2006-07-22, 12:49:19
Ist doch total Schnuppe wie der Kühler aussieht. Wenn die Grafikkarte im Rechner sitzt sieht man den eh nicht. Höchstens die Seitenfläche.
Oder legt ihr euch alle die Karten auf den Tisch und freut euch wie schön der aussieht?

erwingage
2006-07-22, 12:57:07
Master3[/POST]']Ist doch total Schnuppe wie der Kühler aussieht. Wenn die Grafikkarte im Rechner sitzt sieht man den eh nicht. Höchstens die Seitenfläche.
Oder legt ihr euch alle die Karten auf den Tisch und freut euch wie schön der aussieht?

genau mir ist auch egal wie das ding aussieht :wink:
hauptsache die karte ist schnell und hat relativ kühle temperaturen :cool: (kommt ja eh auf die raumtemperatur an)

MSABK
2006-07-22, 13:03:28
Die Karte sieht sehr Interesant aus.

Was meint ihr, wird die Karte schneller als eine Geforce 7950 GX2 sein?

dildo4u
2006-07-22, 13:07:13
MSABK[/POST]']Die Karte sieht sehr Interesant aus.

Was meint ihr, wird die Karte schneller als eine Geforce 7950 GX2 sein?Nope ist eher ein kleiner Sprung wie z.B von der X800XT auf die X850XT.7-10% schneller als eine 1900XTX halte ich für Realistisch.

erwingage
2006-07-22, 13:07:46
MSABK[/POST]']Die Karte sieht sehr Interesant aus.

Was meint ihr, wird die Karte schneller als eine Geforce 7950 GX2 sein?

ich bin der meinung die ist sicherlich nicht schneller:rolleyes:

Gast
2006-07-22, 13:24:32
erwingage[/POST]']genau mir ist auch egal wie das ding aussieht :wink:
hauptsache die karte ist schnell und hat relativ kühle temperaturen :cool: (kommt ja eh auf die raumtemperatur an)

Ich bin selber Barebonebesitzer und bin froh daa ATI so eine Kühllösung entwickelt.
Das passt ideal zu meinem Mod^^^

Gast
2006-07-22, 13:40:34
Bezüglich des Lüfterdesigns bin ich tiefster Überzeugung, dass der Konstrukteur von Aerodynamik nicht den Hauch eines Schimmers hatte. Strömungsoptimiert sieht anders aus. Aber vielleicht war aus ne Vorgabe aus der Marketingabteilung.

Gast
2006-07-22, 13:43:22
Gast[/POST]']Bezüglich des Lüfterdesigns bin ich tiefster Überzeugung, dass der Konstrukteur von Aerodynamik nicht den Hauch eines Schimmers hatte. Strömungsoptimiert sieht anders aus. Aber vielleicht war aus ne Vorgabe aus der Marketingabteilung.

Richtig, einige Mankos gibt es immer.
Ich denke da hat sich die Designabteilung sich mit der Entwicklungsabteilung gestritten.

AnarchX
2006-07-22, 13:50:58
Sieht wirklich nett aus, mal sehen was er leistet.
Aber es wurde ja auch langsam mal Zeit... ;)

puntarenas
2006-07-22, 14:07:04
Lüfter hin oder her, ist es nun definitiv, dass die einzige Änderung von 580 zu 580+ die Verbesserung der DDR4-Ram Unterstützung ist oder hat da die eine Gerüchteküche bei der anderen abgeschrieben?

Außerdem hat ATI doch bekanntgegeben, den Stockcooler nur noch auf Wunsch an die Partner auszuliefern, gilt das nicht auch schon für 1950? Damit gäbe es dann ja sicherlich interessante Eigenentwicklungen.

???
puntarenas

AnarchX
2006-07-22, 14:10:51
puntarenas[/POST]']Lüfter hin oder her, ist es nun definitiv, dass die einzige Änderung von 580 zu 580+ die Verbesserung der DDR4-Ram Unterstützung ist oder hat da die eine Gerüchteküche bei der anderen abgeschrieben?


Wie schon eher berichter schein R580+, ein R580 mit GDDR4-Unterstützung in 90nm zu sein, sonst würde man für die moderaten Taktraten(650MHz) nicht so einen Kühler brauchen.

Coda
2006-07-22, 14:24:20
Ich glaub irgendwie nicht dass sich der Coretakt nicht ändert - außer GDDR4 wird verdammt heiß.

Sonst bringt diese Kühlerkonstruktion ja irgendwie herzlich wenig (ok sie ist wahrscheinlich leiser).

Ronny G.
2006-07-22, 14:36:52
So, wie lange war nun der R580 ohne (+) am markt? Wird immer lächerlicher!

deekey777
2006-07-22, 15:07:52
Ronny G.[/POST]']So, wie lange war nun der R580 ohne (+) am markt? Wird immer lächerlicher!
1. Der R580 ist seit Januar auf dem Markt und bleibt es noch, bis ein Shrink auf 80 nm kommt.
2. Was ist daran lächerlich?

dildo4u
2006-07-22, 15:11:44
DK777[/POST]']1. Der R580 ist seit Januar auf dem Markt und bleibt es noch, bis ein Shrink auf 80 nm kommt.
2. Was ist daran lächerlich?Er meint whol das ATI praktisch die selbe Karte bis auf dem Ram nochmal bringt und das nach 6Monaten da hats mit der 7800GTX 512mb bei nvidia schon mal ein deutlich besseren Refresh gegeben und das sogar noch in 130nm.

AnarchX
2006-07-22, 15:13:49
Es ist eben eine ATI-typischer Refresh wie 9800Pro->9800XT oder X800XT->X850XT.

Gast
2006-07-22, 15:22:07
MSABK[/POST]']
Was meint ihr, wird die Karte schneller als eine Geforce 7950 GX2 sein?


Ganz sicher.

Mannooo Man geiles Ding die Karte.

grzuss

Gouvernator
2006-07-22, 15:30:29
Die Karte wird deutlich schneller mit Antialiasing laufen als die alte. Gpu Takt hat nicht viel zu sagen weil die meisten Games limitieren erst mit AA+AF oder durch CPU. mich interessiert was für DDR4 kommt 0.9ns , 0.7ns ? Wie weit man den übertakten kann, da alte Ding ging ja bis 900mhz.

3d
2006-07-22, 15:36:31
ich frag mich warum man nicht gleich so ein silencer verwendet hat.
des kühlerdesign von der 1900/1800 serie taugt ja nix.

Ronin2k
2006-07-22, 15:48:02
jibbet den kühler auch einzeln?^^

deekey777
2006-07-22, 15:57:25
Coda[/POST]']Ich glaub irgendwie nicht dass sich der Coretakt nicht ändert - außer GDDR4 wird verdammt heiß.

Sonst bringt diese Kühlerkonstruktion ja irgendwie herzlich wenig (ok sie ist wahrscheinlich leiser).
Ich hätte da eine Theorie:
ATi hat vor einiger Zeit die Geschäftsbedingungen geändert und die Möglichkeit geschaffen, dass Hersteller, die ihren eigenen Kühler verkaufen wollen, ab jetzt auch nackte Grafikkarten ohne den Standard-Kühler kaufen können.
Nehmen wir an, der neue Kühler ist zwar leiser und kühlt besser, er ist aber etwas teurer als der alte Kühler, der wiederum die X1950XTX auch kühlen kann, so lange der Takt bei 650 MHz bleibt. Und da heute alle sparen müssen, können Günstiganbieter für die X1950XTX auch den X1900XTX-Standardkühler bei ATi kaufen und diesen auf ihren X1950XTX einsetzen - nur eben mit den Nachteilen, aber zu günstigen Preisen.
Nur eine Theorie.

MechWOLLIer
2006-07-22, 16:00:16
AnarchX[/POST]']Wie schon eher berichter schein R580+, ein R580 mit GDDR4-Unterstützung in 90nm zu sein, sonst würde man für die moderaten Taktraten(650MHz) nicht so einen Kühler brauchen.

Nun, zumindest kann der R580 auch schon mit GDDR4 umgehen. Ist nun die Frage, ob beim R580+ noch etwas verändert worden ist (z.B. um bessere Yields zu erreichen), oder ob es gar keinen R580+ gibt.

Gast
2006-07-22, 16:02:46
Was schätz ihr wie weit die Karte ungefähr zu OCen geht?Wieviel Takt braucht die Karte um ungefähr auf 7950 GX2 Nivou zusein?Der GPU Takt wird bestimmt mit Vcore erhöhung locker auf 800 MHZ und drüber gehen,wie siehts mit denn Speicher aus ?Kann man davon ausgehen das der Speicher vielleicht auf 1,5GHZ geht ?Kann die X1950 XTX mit 800/1300 (ungefähr) MHZ mit einer GX2 mithalten?Gibts da irgend welche Taktspiele wieviel die 1950 XTX braucht um auf GX2 Nivou zusein?

Gouvernator
2006-07-22, 16:11:17
Der GPU Takt wird bestimmt mit Vcore erhöhung locker auf 800 MHZ und drüber gehen,wie siehts mit denn Speicher aus ?
Ich denke schon das mit WaKü und Vcore 800mhz erreichbar sind. Der Speicher hat in letzen Jahren immer 100-150 mhz Lüft nach oben gehabt.

Also unter Worstcase in Oblivion ist ne XTX @730/900 nicht viel langsamer als 700mhz 2x7900GTX

Gouvernator
2006-07-22, 16:16:40
Gibts da irgend welche Taktspiele wieviel die 1950 XTX braucht um auf GX2 Nivou zusein?

http://img95.imageshack.us/img95/1549/1600x12009uy.gif
http://img95.imageshack.us/img95/46/1280x10241jr.gif

Coda
2006-07-22, 16:17:48
Oblivion ist auch ein Extremfall. Imho gewinnt da ATI so deutlich wegen ihrem besseren HSR (das Ding scheint keine Overdraw-Reduction zu machen wie Morrowind auch schon).

Das wird sich kaum wiederholen.

AnarchX
2006-07-22, 16:22:36
Ca. 30% mehr Power bräuchte der R580(+) um die 7950GX2 generell zu schlagen, also mit 850/1000MHz(die durchaus möglich sind mit entsprechender Kühlung) kann man durchaus die 7950GX2 einholen.

Gast
2006-07-22, 16:26:53
Gast[/POST]']Ganz sicher.Wenn die vermuteten Taktraten stimmen, eher nicht.

dildo4u[/POST]']da hats mit der 7800GTX 512mb bei nvidia schon mal ein deutlich besseren Refresh gegeben und das sogar noch in 130nm.110nm...

Gouvernator
2006-07-22, 16:29:47
Die GX2 hat mehr Power als XTX in normal Configuration 0xaa. Dann aber mit AA verliert die GX2 ihre Vorteile gegen 1000mhz Speicher.

dildo4u
2006-07-22, 16:44:30
Gouvernator[/POST]']Die GX2 hat mehr Power als XTX in normal Configuration 0xaa. Dann aber mit AA verliert die GX2 ihre Vorteile gegen 1000mhz Speicher.Wir werden sehen im extrem Fall muss die ATI erstmal 80% gegenüber der GX2 aufholen und das bei 1600 mit 4XAA.


Tomb Raider 1600*1200 4xAA/16xAF 35fps(1900XTX) zu 54fps(XFX 7950GX2)
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_3x_nvidia_geforce_7950_gx2/20/#abschnitt_tomb_raider_legend

Riddick 1600*1200 4xAA/16xAF 40fps(1900XTX) zu 80fps (XFX 7950GX2)
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_3x_nvidia_geforce_7950_gx2/16/#abschnitt_the_chronicles_of_riddick

Splinter Cell 3 1600*1200 4xAA/16xAF 60fps(1900XTX) zu 100 fps(XFX 7950GX2).
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_3x_nvidia_geforce_7950_gx2/19/#abschnitt_splinter_cell_3

Quake 4 1600*1200 4xAA/16xAF 50fps(1900XTX) zu 90fps(XFX 7950GX2).

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_3x_nvidia_geforce_7950_gx2/15/#abschnitt_quake_4

Mr. Lolman
2006-07-22, 16:47:03
Alles Spiele der alten Generation. Solang ATi mit dem R580 bei gewissen Physikberechnungen (dynamic branching) tw. 19x schneller ist als NV mit dem G71, mach ich mir da keine Sorgen.

Coda
2006-07-22, 16:51:22
Mr. Lolman[/POST]']Alles Spiele der alten Generation. Solang ATi mit dem R580 bei gewissen Physikberechnungen (dynamic branching) tw. 19x schneller ist als NV mit dem G71, mach ich mir da keine Sorgen.
Oh ja. Dyn branching wird auch so wichtig werden in der letzten D3D9-Gen :rolleyes: Kannst knicken. Niemand wird sich es leisten die nVIDIA-Karten so aussperren.

Bei Oblivion hängts auch nicht an den Shadern.

Raff
2006-07-22, 16:51:51
Gast[/POST]']Kann man davon ausgehen das der Speicher vielleicht auf 1,5GHZ geht ?

Sicher nicht, wenn 1 GHz Standard ist. Am Ende der Machbarkeits-Fahnenstange liegen nicht noch 50% brach. Ich würde auf maximal 1,2 GHz tippen.

MfG,
Raff

Gouvernator
2006-07-22, 16:51:52
dildo4u[/POST]']Wir werden sehen im extrem Fall muss die ATI erstmal 80% gegenüber der GX2 aufholen und das bei 1600 mit 4XAA.


Tomb Raider 1600*1200 4xAA/16xAF 35fps(1900XTX) zu 54fps(XFX 7950GX2)
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_3x_nvidia_geforce_7950_gx2/20/#abschnitt_tomb_raider_legend

Riddick 1600*1200 4xAA/16xAF 40fps(1900XTX) zu 80fps (XFX 7950GX2)
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_3x_nvidia_geforce_7950_gx2/16/#abschnitt_the_chronicles_of_riddick

Splinter Cell 3 1600*1200 4xAA/16xAF 60fps(1900XTX) zu 100 fps(XFX 7950GX2).
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_3x_nvidia_geforce_7950_gx2/19/#abschnitt_splinter_cell_3

Quake 4 1600*1200 4xAA/16xAF 50fps(1900XTX) zu 90fps(XFX 7950GX2).

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_3x_nvidia_geforce_7950_gx2/15/#abschnitt_quake_4

Wir sprechen ja nicht über 1900xtx vs GX2 sondern 1950xtx vs GX2. Und da macht 1ghz Speicher alles wett. Man kann locker bei +100mhz Speichertakt 10 fps bei 1600x1200+4xAA rausholen.

AnarchX
2006-07-22, 16:51:54
Mr. Lolman[/POST]']Alles Spiele der alten Generation. Solang ATi mit dem R580 bei gewissen Physikberechnungen (dynamic branching) tw. 19x schneller ist als NV mit dem G71, mach ich mir da keine Sorgen.

Wenn ATI überhaupt die Physikberechnung für die DX9-Karten freischaltet... ;)

Coda
2006-07-22, 16:54:26
Gouvernator[/POST]']Man kann locker bei +100mhz Speichertakt 10 fps bei 1600x1200+4xAA rausholen.
Das ist ne Deppenrechnung. VRAM-Erhöhung resultiert nie in linearer Leistungssteigerung außer der Fall ist komplett VRAM-Limitiert - was es praktisch nicht gibt.

Gast
2006-07-22, 16:54:57
Benches allein sagen nicht viel aus, man muss sie interpretieren können.

Nach allem was ich bisher so gesehen habe (und das ist eine Menge gewesen in den letzten 10 Jahren), hat bei den aktuellen Karten ATI leichte Vorteile, wenn es an Praxisnahe Settings geht.

Das heißt: Die GX2/GTX haben zwar eine unheimlich hohe Füllrate, können sie aber nur in relativ alten Games ausspielen (welche sowieso schnell genug laufen), bei Shaderlastigen dreht sich das Bild langsam um.
Außerdem verlieren ATI Karten prinzipiell weniger, wenn die Auflösung höher gedreht wird (oder umgekehrt die GX2/GTX mehr), das gleiche gilt bei 4xAA.

Ich weiß nicht worauf das zurückzuführen ist, vielleicht haben die das bessere Speichermanagement? Jedenfalls wird es bei den Praxisnahen Settings so sein, das die R1950 ein ganzes Stück zulegen wird, weil gerade da der Speicher eine gewichtige Rolle spielt.

Erste oc-Ergebnisse werden mit Spannung erwartet, realistisch betrachtet würde ich aber erstmal 750/1200 als Ende ansehen, wenn es mehr wird, gut, wenn nicht, dann ist wenigstens die Enttäuschung nicht so groß. :)

dildo4u
2006-07-22, 16:57:57
Gast[/POST]'].
Außerdem verlieren ATI Karten prinzipiell weniger, wenn die Auflösung höher gedreht wird , das gleiche gilt bei 4xAA.
Und genau deshalb wird die Erhöhung des Speichertakts keine Wunder vollbringen.Wär schön wenn mal jemand mit einer 1900XT ein paar Benches machen könnte einmal vieleicht mit 500mhz Speichertakt und dann nochmal mit 750mhz.

Gouvernator
2006-07-22, 17:01:44
Coda[/POST]']Das ist ne Deppenrechnung. VRAM-Erhöhung resultiert nie in linearer Leistungssteigerung außer der Fall ist komplett VRAM-Limitiert - was es praktisch nicht gibt.
Da du in Benchmarkthreads nicht sonderlich aufgefallen bist beachte ich deine Einschätzungen am wenigsten. Meine Prognose bezieht sich auf meine Erfahrung wo ich bei dutzend Spielen während des Spiels (mit Fraps nebenbei) die Taktrate erhöhe und sehe was das bringt.

Coda
2006-07-22, 17:04:57
Es gibt trotzdem keine lineare Steigerung, deshalb ist das mit "100Mhz=10FPS mehr" einfach hirnrissig - in mehrfacher Hinsicht.

Raff
2006-07-22, 17:05:04
Es wird wohl Zeit, mehr Tests mit 6xAA zu machen. Da macht sich der VRAM auch in Sachen Speicherverbrauch stark bemerkbar. Dass das ohne Nvidia-Äquivalent nicht mehr damit vergleichbar ist, soll nicht weiter stören ... wenn man denn mal den Extremfall abseits der Konkurrenz zeigen will.

MfG,
Raff

Gouvernator
2006-07-22, 17:06:39
Wär schön wenn mal jemand mit einer 1900XT ein paar Benches machen könnte einmal vieleicht mit 500mhz Speichertakt und dann nochmal mit 750mhz.
Klar könnte ich das machen. Ich machs mal mit Hitman und Prey.

Coda
2006-07-22, 17:07:00
6xAA braucht nicht unbedingt viel mehr Bandbreite. Es kommt halt drauf an wieviel Polygone im Bild sichtbar sind, weil nur dort wo Kanten sind mehr Bandbreite verbraucht wird.

dildo4u
2006-07-22, 17:12:14
Raff[/POST]']Es wird wohl Zeit, mehr Tests mit 6xAA zu machen. Da macht sich der VRAM auch in Sachen Speicherverbrauch stark bemerkbar. Dass das ohne Nvidia-Äquivalent nicht mehr damit vergleichbar ist, soll nicht weiter stören ... wenn man denn mal den Extremfall abseits der Konkurrenz zeigen will.

MfG,
RaffWarum nich mal AAA benchen 6X normales MSAA bringt optisch nicht so viel gegenüber 4XAA bei ATI.

Raff
2006-07-22, 17:13:15
Weil das dann wieder die Füllrate in den Keller drückt.

MfG,
Raff

Coda
2006-07-22, 17:13:35
Supersampling nützt nicht viel in dem Zusammenhang, weil die komplette Pipeline ja auch mehrfach beschäftigt ist. Die Bandbreitebelastung ändert sich also relativ gesehen nicht.

AnarchX
2006-07-22, 17:14:09
Raff[/POST]']Weil das dann wieder die Füllrate in den Keller drückt.


Bzw. NV da besser da steht?

dildo4u
2006-07-22, 17:14:50
Ups ich dachte AAA wäre ein Misch Typ und kein reines SS.

Raff
2006-07-22, 17:16:31
AnarchX[/POST]']Bzw. NV da besser da steht?

Wahrscheinlich, jo. ;)

dildo4u[/POST]']Ups ich dachte AAA wäre ein Misch Typ und kein reines SS.

Es ist ja auch ein "Misch-Typ". MSAA auf Polygone und gleichwertiges SSAA auf Alphatexturen. Nur letztere legen halt alles lahm ...

MfG,
Raff

qu3x^
2006-07-22, 17:17:31
Viel eher würde mich interessieren ob es Anderungen zu Crossfire (CF) gibt.
Hat jemand einen Plan oder gar Infos über eine Mögliche interne Brücke. Wäre ja gar keine schlecht Ergänzung wenn man schon einen Refresh Chip bastelt um " Konstruktionsschwächen " auszumerzen. Ein ledigliches RAM upgrade wär wirklich nur schwach... Der Kühler ist schon mal schwer in Ordnung und erinnert an die iceQ III von HIS. Hoff nur das der kein Klackern hat.

Gouvernator
2006-07-22, 17:37:38
Also das Resultat bei Prey:
Szene bei altem Mann bei Feuer 1600x1200 4xInGame AA, 16xInGame AF, ATT Autobalanced, Cat. 6.5 WinXP Sp1

A64 4000+@2760mhz
4x512mb 230x12 2.5-3-3-6-2T

650/775 default = 45 fps
650/900 = 46 fps
650/500 = 36 fps
730/900 = 51 fps
776/900 = 52 fps
776/775 =50 fps

dildo4u
2006-07-22, 17:40:46
Danke@Gouvernator wie man sieht bringt die Erhöhung der Speicherspeeds fast nix mher wenn man über 775 geht wenn man nicht gleichzeitig den Corespeed mit erhöt.



650/500 = 36 fps

650/775 default = 45 fps

650/900 = 46 fps

Gouvernator
2006-07-22, 17:44:52
Diese Szene ist ab 730 mhz GPU Takt CPU limitiert. Also sogar mit QuadSLI hätte es nicht über 50 fps gereicht.

Gouvernator
2006-07-22, 17:45:57
650/900 = 46 fps

Und da ist es GPU limitiert

Gouvernator
2006-07-22, 17:47:36
Wisst ihr was, Prey ist nicht gut zum testen. Es gibt eine 60fps Grenze. Ich probiere es mal mit Hitman .

qu3x^
2006-07-22, 17:55:21
Gouvernator[/POST]']Wisst ihr was, Prey ist nicht gut zum testen. Es gibt eine 60fps Grenze. Ich probiere es mal mit Hitman .

Prey hat standardgemäß aber com_fixedTic 0 was heißt das du über 60 fps bekommen solltest. Bei 1 ist die Sperre auf 60fps limitiert.

4711
2006-07-22, 18:01:24
öhm so einige vergessen wieder mal das sich GX2 Karten kräftig übertakten lassen...kann man sich nicht einmal über ne neue Karte freuen und nicht gleich wieder die Schwänze auspackt?

Gouvernator
2006-07-22, 18:19:15
dildo4u wie man sieht bringt die Erhöhung der Speicherspeeds fast nix mher wenn man über 775 geht wenn man nicht gleichzeitig den Corespeed mit erhöt.
Wo du Recht hast da hast du Recht. Hitman getestet diesmal glaub ich ohne AF und mit 6xInGame AA 1600x1200 die Stelle zwischen Pier und Vorplatz komplett ohne Weitsicht.

650/500 = 30 fps
650/775 = 40 fps
650/900 = 43 fps
730/500 = 31 fps
730/775 = 42 fps
730/900 = 45 fps

Gast
2006-07-22, 18:21:46
Am liebsten wäre mir ja ein Bench aus FEAR oder Serious Sam 2, da reagieren Grafikkarten scheinbar recht stark...

Gouvernator[/POST]']650/775 = 40 fps
650/900 = 43 fps

Das sieht doch recht ordentlich aus. Wenn man das jetzt hochrechnet, sollten 10% und mehr Leistung drin sein.

Wenn die Karte dann auch ne leisere und bessere Kühlung hat wird sie sehr interessant, da vorallem ich mich nicht mit fehlendem HDR+AA seitens nV anfreunden kann.

Gouvernator
2006-07-22, 18:23:16
Ich hoffe für ATi das die was am Chip gebastelt haben damit man ihn ordentlich overclocken kann. Sonst liegt 1000mhz Speicher brach . Mindestens 770mhz Gpu-Takt muss ohne Vgpu erhöhung sein.

Gouvernator
2006-07-22, 18:25:33
Fear hab ich auch noch drauf, aber ich mach nur standbild.

Gouvernator
2006-07-22, 18:42:30
So, F.E.A.R 1024x768 4xInGame AA, 16xInGame AF, alles Max. Soft Shadows On
MP-Map Office

650/500 = 89 fps
650/775 = 110 fps
650/900 = 113 fps
730/500 = 91 fps
730/775 = 114 fps
730/900 = 120 fps

dargo
2006-07-22, 18:44:07
Ich würde mir beim R580+ höhere AA Modi wünschen. Wenn man schon so viel Speicherbandbreite anbietet wieso kein 8x oder 10xAA zur Verfügung stellen?

Gast
2006-07-22, 18:51:32
Noch mehr Multisampling? Mir reichen da eigentlich schon 4 Samples. Besser würde ich es finden, wenn ATI auch endlich mal Hybridmodi einbaut.

dargo
2006-07-22, 18:55:38
Gast[/POST]']Noch mehr Multisampling? Mir reichen da eigentlich schon 4 Samples. Besser würde ich es finden, wenn ATI auch endlich mal Hybridmodi einbaut.
Das wäre auch ne gute Idee. Da ich auf 1280x1024 (TFT) beschränkt bin könnten höhere AA Modi nicht schaden. Bei Rennspielen sehe ich immer noch leichte Treppchen mit 6xAA.

der Lustige
2006-07-22, 18:56:22
Gast[/POST]']Benches allein sagen nicht viel aus, man muss sie interpretieren können.

Nach allem was ich bisher so gesehen habe (und das ist eine Menge gewesen in den letzten 10 Jahren), hat bei den aktuellen Karten ATI leichte Vorteile, wenn es an Praxisnahe Settings geht.

Das heißt: Die GX2/GTX haben zwar eine unheimlich hohe Füllrate, können sie aber nur in relativ alten Games ausspielen (welche sowieso schnell genug laufen), bei Shaderlastigen dreht sich das Bild langsam um.
Außerdem verlieren ATI Karten prinzipiell weniger, wenn die Auflösung höher gedreht wird (oder umgekehrt die GX2/GTX mehr), das gleiche gilt bei 4xAA.

Ich weiß nicht worauf das zurückzuführen ist, vielleicht haben die das bessere Speichermanagement? Jedenfalls wird es bei den Praxisnahen Settings so sein, das die R1950 ein ganzes Stück zulegen wird, weil gerade da der Speicher eine gewichtige Rolle spielt.

Erste oc-Ergebnisse werden mit Spannung erwartet, realistisch betrachtet würde ich aber erstmal 750/1200 als Ende ansehen, wenn es mehr wird, gut, wenn nicht, dann ist wenigstens die Enttäuschung nicht so groß. :)

780 - 800 Mhz Core schafft man schon mit einer 1900er. Also 800/1200 dürften schon möglich sein.

Raff
2006-07-22, 18:57:04
dargo[/POST]']Das wäre auch ne gute Idee. Da ich auf 1280x1024 (TFT) beschränkt bin könnten höhere AA Modi nicht schaden. Bei Rennspielen sehe ich immer noch leichte Treppchen mit 6xAA.

Ich wette, du meinst Kram wie die Streifen auf der Straße. Das geht nur mit Supersampling weg ... huch, wieder dieses Wort. ;) Mehr MSAA braucht's auch meiner Meinung nach keineswegs ...

MfG,
Raff

Gast
2006-07-22, 18:57:28
der Lustige[/POST]']780 - 800 Mhz Core schafft man schon mit einer 1900er. Also 800/1200 dürften schon möglich sein.

Aha... du kannst also Garantieren, das alle es schaffen ohne an der Spannung raumzuschrauben? Letzteres glaube ich nämlich eher nicht!

der Lustige
2006-07-22, 19:01:15
Gast[/POST]']Aha... du kannst also Garantieren, das alle es schaffen ohne an der Spannung raumzuschrauben? Letzteres glaube ich nämlich eher nicht!

"Spannung raumzuschrauuuben" zählt dazu :)

dargo
2006-07-22, 19:02:58
Raff[/POST]']Ich wette, du meinst Kram wie die Streifen auf der Straße. Das geht nur mit Supersampling weg ... huch, wieder dieses Wort. ;) Mehr MSAA braucht's auch meiner Meinung nach keineswegs ...

Hmm, muss ich gleich nochmal mit der GTR2 Demo testen. :cool:
Ich kann mich aber noch erinnern, dass mir DTM3 besser mit 1600x1200 4xAA gefallen hat als 1280x1024 6xAA (damals noch mit nem CRT). 1600x1200 6xAA sah noch einen Tick besser aus. Also sollten höhere MSAA Modi doch was bringen.

Gouvernator
2006-07-22, 19:03:07
Um auf 800 mhz Core zu kommen brauchst du extrem gute Kühlung so in der Art SingleRadi mit 120mm Lüfter @ Max. Umdrehungen

Gast
2006-07-22, 19:06:14
der Lustige[/POST]']"Spannung raumzuschrauuuben" zählt dazu :)

Finde ich nicht, Bei 130W schraube ich ungern an der Spannung.

Ich erhöhe nur den Takt, so weit es geht, ohne Spannungserhöhung oder dann, wenn dieser mit zu wenig Spannung läuft, wie z.B. bei einer 7900 GT.

Und da werden wohl 700-750 MHz realistisch sein, mehr erwarte ich da nicht.

Trotzdem gefällt mir die Karte besser, als die GX2... sieht halt besser aus und hat gute Bildquali und HDR+AA...

Gouvernator
2006-07-22, 19:09:26
Also sollten höhere MSAA Modi doch was bringen.
Das bringt dir nichts wenn alles drumherum flimmert. Fast perfektes Standbild erreichst du mit 16xS,6xS in kleinerer Auflösung und ... 2560x1920 mit 6xMSAA+HQAAA+AI Off ab dann hast du null flimmern.

dargo
2006-07-22, 19:16:46
Habe gerade die GTR2 Demo getestet. In 1280x1024 6xAA/16xHQ-AF A.I off (19" TFT) sehe ich noch ganz leichte Kanten, zb. am Scheibenwischer. Aber es stimmt schon, es fällt kaum auf. Was mehr stört ist dieses Flimmern bei weit entferten Objekten was manchmal auffällt.

Spasstiger
2006-07-22, 19:30:08
Recht nett die Karte, vor allem die HIS-ähnliche Kühllösung, die wohl recht erträglich sein dürfte.
Aber mich persönlich interessiert mehr der R600, weil der evtl. in meinem nächsten Rechner heimisch werden wird. ;)

Gast
2006-07-22, 19:32:46
Steigt bei höheren AA Modi nicht auch die nötige Rohpower an? Also bringts überhaupt was, wenn 6xAA gefahren wird? Ich kann mir nicht vorstellen, das dies kaum was kostet, da der Speicher zwar schneller, die GPU aber gleich getaktet ist.

Coda
2006-07-22, 19:35:10
Gast[/POST]']Steigt bei höheren AA Modi nicht auch die nötige Rohpower an?
Die ROPs brauchen 3 statt 2 Durchläufe (also 3 Cycles). Dürfte absolut zu vernachlässigen sein bei heutigen Shadern.

Gouvernator[/POST]']und ... 2560x1920 mit 6xMSAA+HQAAA+AI Off ab dann hast du null flimmern.
CRT oder? Da überfährst du die Maske mit und machst nix anderes als Supersampling.

Gouvernator
2006-07-22, 19:49:19
Jep, und in so 1,8m Abstand sieht Das geil aus. Ich finde ein Bild das auf 50cm megagestaucht wird und in Abstand betrachtet absolut befriedigend man erfährt eine Ruhe im Bild... völlig neues Spielegefühl. Eine Art Standbild wo sich nur das bewegt was sich bewegen soll.

The_Invisible
2006-07-22, 21:45:13
Gouvernator[/POST]']Jep, und in so 1,8m Abstand sieht Das geil aus. Ich finde ein Bild das auf 50cm megagestaucht wird und in Abstand betrachtet absolut befriedigend man erfährt eine Ruhe im Bild... völlig neues Spielegefühl. Eine Art Standbild wo sich nur das bewegt was sich bewegen soll.

spiel mal ein strategiespiel ala AoE3 in 1,8m abstand auf 50cm... viel spaß

mfg

=Floi=
2006-07-22, 22:00:31
ich denke der chip wird auch in 80nm gefertigt wenn ich mir den aktienkurs so ansehe dürfte es noch mehr sehr gute nachrichten geben denn ein kurs geht in so kurzer zweit nicht so gut nach oben also muss noch mehr positives vorhanden sein wie eben ein 80nm chip
und die 650mhz core wären ja nicht schlecht bei zB20% weniger verlustleistung...

Gouvernator
2006-07-22, 22:09:04
80nm ist offiziell für R600 vorgesehen.

spiel mal ein strategiespiel ala AoE3 in 1,8m abstand auf 50cm... viel spaß

Sieht voll geil aus . Nur die Schrift siehst du nicht, auch nicht bei 2048x1536 in 30 cm Abstand.

Gast
2006-07-22, 22:12:20
[QUOTE='dildo4u']Wir werden sehen im extrem Fall muss die ATI erstmal 80% gegenüber der GX2 aufholen und das bei 1600 mit 4XAA.


ATI muss nix aufholen. GX2 besteht aus 2 Karten.
NVIDIa muss aufholen.

gruss

Super-S
2006-07-22, 22:19:24
:) Ich habe mir den Fred nicht komplett durchgelesen. Aber Optisch macht die Refresh-Karte was her.

Und der Kühler sieht für mich nach "leise" aus :) ...*hoff*

dildo4u
2006-07-22, 22:25:20
Gast[/POST]'][QUOTE='[POST=4578892]

ATI muss nix aufholen. GX2 besteht aus 2 Karten.
NVIDIa muss aufholen.

gruss
Was entscheident ist ist die Preis Leistung eine GX2 Belegt auch nur ein PCI-E Platz und das "alte" Modell 7900GX2 ist für 360€ lieferbar.

LordDeath
2006-07-22, 22:27:21
sind auch refreshs für die niedrigeren preisklassen vorgesehen oder pflegt man diesmal nur die high-end modellreihe?

AnarchX
2006-07-22, 22:29:51
LordDeath[/POST]']sind auch refreshs für die niedrigeren preisklassen vorgesehen oder pflegt man diesmal nur die high-end modellreihe?

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=281056
;)

T86
2006-07-22, 22:36:05
Gast[/POST]']
ATI muss nix aufholen. GX2 besteht aus 2 Karten.
NVIDIa muss aufholen.

gruss

och wenn Ati weiter aufholt währe auch nicht schlecht - mit einer graka ein sli gespann schlagen hatt doch was

crossfire vs. quad sli könnte dann die diviese sein - vermutlich is beides dann aber im selben preisrahmen

LordDeath
2006-07-22, 22:39:04
AnarchX[/POST]']http://www.forum-3dcenter.org/vbulletin/showthread.php?t=281056
;) :eek: :sneak:

AnarchX
2006-07-22, 22:42:57
Gast[/POST]']
ATI muss nix aufholen. GX2 besteht aus 2 Karten.
NVIDIa muss aufholen.


Die GX2 kostet aber kaum mehr als eine XTX und ist ca. 30% schneller.
ATI sollte also an CF, was atm noch sehr suboptimal ist kräftig feilen und dann mit 2 günstigen 80nm RV570 eine ähnliche Karte bauen.

Coda
2006-07-22, 22:58:50
Gast[/POST]']ATI muss nix aufholen. GX2 besteht aus 2 Karten.
NVIDIa muss aufholen.

gruss
Das interessiert doch nicht wenn beide Karten praktisch das gleiche kosten und die GX2 auch nicht mehr Strom verbraucht. *seufz*

Piffan
2006-07-23, 00:45:28
Coda[/POST]']Das interessiert doch nicht wenn beide Karten praktisch das gleiche kosten und die GX2 auch nicht mehr Strom verbraucht. *seufz*

Doch, das interessiert doch. Weil man nämlich nicht davon ausgehen kann, dass man ohne Fummelei mit dem Enhancer in jedem Falle den Nachbrenner zünden kann....

Banshee18
2006-07-23, 00:54:06
Piffan[/POST]']Doch, das interessiert doch. Weil man nämlich nicht davon ausgehen kann, dass man ohne Fummelei mit dem Enhancer in jedem Falle den Nachbrenner zünden kann....
Irgendwo hast du Recht, aber eigentlich sollte man sich auch informieren können, wenn man solche Highendhardware hat. Ich denke außerdem, dass man ohne nHancer schon in den meißten Fällen eine sehr gute Performance hat und SLI in der Zwischenzeit sehr unproblematisch ist. Beta-Treiber gibts ja genug, sodass man auch für neue Spiele recht schnell ordentliche Profile haben dürfte und die Beta-Treiber waren bei mir eigentlich auch immer recht unproblematisch.

Coda
2006-07-23, 01:11:21
Piffan[/POST]']Doch, das interessiert doch. Weil man nämlich nicht davon ausgehen kann, dass man ohne Fummelei mit dem Enhancer in jedem Falle den Nachbrenner zünden kann....
Wieviele Spiele gibt es die kein SLI-Profil haben und wirklich die Leistung beider Chips brauchen?

Gast
2006-07-23, 01:54:48
So vollkommene Neutralität bezüglich der Hersteller kann man dir nicht wirklich unterstellen.
Aber vielleicht sind solche Gegenpositionen auch ganz gut zum diskutieren und gegen die Langweile ;).

Gast
2006-07-23, 02:55:05
StefanV[/POST]']*UARGH*
Immer diese Deppenverdoppelung...
DDR verdoppelt die Busbreite, NICHT den Takt!

Ganz ab davon schaut die Kühlung doch garnicht soo schlecht aus!
Großer Quirl (schaut nach 80mm aus), mit entsprechender Oberfläche der Rotorbätter dazu ordentlich Oberfläche beim Kühler...

Ja schön und die x1900xtx besitzer schaun in die röhre, weil die kühlung der grösste mist ist den es gibt.
Wenigstens eine alternative sollte ati uns x1900xtx besitzern auch bieten, oder erwarten die tatsächlich das man sich eine nicht schnellere x1950xtx holt um eine evtl. bessere(leisere) kühlung zu haben. Und ob da der fertigungsprozess geändert wird ist denke ich schei** egal!

Wenn ati wirklich was auf seine kunden hällt, dann sollten sie auch eine alternative für die bestizer der x1900xtx nachdenken, weil sonst dies mein letzter chip von ati war...

Immerhin hat früher arctic was gutes rausgebracht, nur der Accelero X2 ist ja wohl der grösste schrott den es gibt, genau wie der zalman. Ich will nicht das mein kühler 80 grad heisse luft in mein gehäuse reinpumpt, vorallem im sommer nicht.

Wir brauchen endlich eine alternative!!

Gast
2006-07-23, 10:05:37
Immerhin hat früher arctic was gutes rausgebracht, nur der Accelero X2 ist ja wohl der grösste schrott den es gibt, genau wie der zalman. Ich will nicht das mein kühler 80 grad heisse luft in mein gehäuse reinpumpt, vorallem im sommer nicht.

aha.. also der zalman ist schrott

Gast
2006-07-23, 10:58:06
Piffan[/POST]']Doch, das interessiert doch. Weil man nämlich nicht davon ausgehen kann, dass man ohne Fummelei mit dem Enhancer in jedem Falle den Nachbrenner zünden kann....So ein Profil ist schnell angelegt. Meist muss man nichtmal eins erstellen, da bei den meisten aktuellen Spielen schon ein AFR-Profil vorhanden ist. Gerade die Möglichkeit der "Fummelei" mit den Profilen find ich einen der größten Pluspunkte von SLI ggü. Crossfire. Wem das zu viel verlangt ist, sollte wohl bei einer Einzelkarte bleiben oder gleich eine Konsole kaufen. ;)

Gast
2006-07-23, 15:46:18
Gast[/POST]']So ein Profil ist schnell angelegt. Meist muss man nichtmal eins erstellen, da bei den meisten aktuellen Spielen schon ein AFR-Profil vorhanden ist. Gerade die Möglichkeit der "Fummelei" mit den Profilen find ich einen der größten Pluspunkte von SLI ggü. Crossfire. Wem das zu viel verlangt ist, sollte wohl bei einer Einzelkarte bleiben oder gleich eine Konsole kaufen. ;)
Wie sieht das eigentlich aus, wenn man Wert auf V-Sync legt. Dann wäre die X1950 doch die bessere Wahl, oder? Jedenfalls wird gesagt, dass AFR nicht mit V-Sync benutzt werden kann sondern nur SFR. Das ist allerdings langsamer und läuft angeblich nur bei wenigen Spielen einwandfrei.

AnarchX
2006-07-24, 09:46:34
dildo4u[/POST]']Warum nich mal AAA benchen 6X normales MSAA bringt optisch nicht so viel gegenüber 4XAA bei ATI.

Das macht CB schon etwas länger:

Neben den reinen Auflösungen lassen wir den Benchmarkparcours auch mit 4-fachem Anti-Aliasing sowie 16-fachen anisotropen Filter durchlaufen, wobei wir auf ATi-Grafikkarten zusätzlich das sogenannte Adaptive Anti-Aliasing (AAA) und auf nVidia-GPUs das Transparency Super-Sampling-Anti-Aliasing (TSSAA) hinzuschalten, damit flimmernde Alpha-Test-Texturen geglättet werden – moderne 3D-Beschleuniger bieten eine ausreichende Leistung, um die bessere Kantenglättung flüssig darzustellen.

Damit erklären sich auch die Werte bei Oblivion mit 4xAA.

HOT
2006-07-24, 10:11:27
dildo4u[/POST]']
Was entscheident ist ist die Preis Leistung eine GX2 Belegt auch nur ein PCI-E Platz und das "alte" Modell 7900GX2 ist für 360€ lieferbar.

Der Preis ist aber nicht repräsentativ weil es nurnoch wenige Exemplare gibt. Die neue GX2, mit der Verglichen werden sollte ist deutlich teurer:
http://www.geizhals.at/deutschland/?fs=7950+512&x=0&y=0&in=

als die ATI Modelle:
http://www.geizhals.at/deutschland/?fs=1900+512&x=0&y=0&in=

Gast
2006-07-24, 10:18:27
HOT[/POST]']Der Preis ist aber nicht repräsentativ weil es nurnoch wenige Exemplare gibt. Die neue GX2, mit der Verglichen werden sollte ist deutlich teurer:
http://www.geizhals.at/deutschland/?fs=7950+512&x=0&y=0&in=Solange es die 7900GX2 noch gibt, sollte man auch mit deren Preis vergleichen. Wenn es sie irgendwann nicht mehr zu dem Preis geben sollte, kann man immer noch umdenken. Warum sollte man mit der 7950GX2 vergleichen, wenn es die 7900GX2 für nur 360€ gibt? Es geht um das hier und jetzt und da bekommt man die 7900GX2 eben so billig.

Undertaker
2006-07-24, 10:40:51
Gast[/POST]']Solange es die 7900GX2 noch gibt, sollte man auch mit deren Preis vergleichen. Wenn es sie irgendwann nicht mehr zu dem Preis geben sollte, kann man immer noch umdenken. Warum sollte man mit der 7950GX2 vergleichen, wenn es die 7900GX2 für nur 360€ gibt? Es geht um das hier und jetzt und da bekommt man die 7900GX2 eben so billig.

die 7900gx2 passt nur in e-atx fähige gehäuse und verdeckt dazu noch auf vielen mainboards s-ata steckplätze oder anderes... also kann man die 7900gx2 nicht wirklich vergleichen...

Undertaker
2006-07-24, 10:48:42
Gast[/POST]']aha.. also der zalman ist schrott

bei einer karte mit einem verbrauch >100w: definitiv ja

nach einer weile schaufelt der nämlich nur noch die warme luft hin und her, da kann die gehäusebelüftung noch so gut sein, denn unter der graka kann die wärme nur schlecht abziehen (und slotbleche entfernen geht auch nicht bei jedem, der die nächsten slots auf dem mainboard belegt hat)

Mr. Lolman
2006-07-24, 11:17:52
Undertaker[/POST]']bei einer karte mit einem verbrauch >100w: definitiv ja

Dann ist der Standardlüfter ja doch nicht so schlecht. Zumindest hatte ich bisher selbst nach mehrstündigen Lansessions bei ner Zimmertemperatur ~35°C keinerlei Probleme. Man verbrennt sich zwar fast die Beine, wenn das Gehäuse daneben steht und die Abluft draufbläst, dafür ist die Kühlung ziemlich effizient und dabei nichtmal besonders laut.

dildo4u
2006-07-24, 11:22:27
http://www.hkepc.com/bbs/attachments_dir/ext_jpg/x1950xtx-info_q1gBtOuemgmU.jpg

http://www.hkepc.com/bbs/news.php?tid=636947

Gast
2006-07-24, 13:18:39
Ende August, super. Die Karte können sie sich sonst wo hinschieben...

AnarchX
2006-07-24, 13:20:13
Gast[/POST]']Ende August, super. Die Karte können sie sich sonst wo hinschieben...

1 Monat... ;)
Jetzt ist eh das Wetter andere Dinge zu machen als zu zocken.

Gast
2006-07-24, 13:24:26
AnarchX[/POST]']1 Monat... ;)
Jetzt ist eh das Wetter andere Dinge zu machen als zu zocken.

1 Monat ist 1 Monat zu viel.
Was sollen aber die Leute am Nordpol sagen, die brauchen die Karte als Heizung.

Gast
2006-07-24, 13:35:20
Gast[/POST]']1 Monat ist 1 Monat zu viel.
Was sollen aber die Leute am Nordpol sagen, die brauchen die Karte als Heizung.

O.o du kommst vom Nordpol...mein Beileid^^

Die X1950XT wird einen nette Kühlung haben...genau das was ich gesucht habe.

up¦²
2006-07-24, 17:02:51
Vonwegen: ist schon aufgefallen, daß erstmals GDDR4 verbaut wird?
das verbraucht 40% weniger saft ...

AnarchX
2006-07-24, 17:04:12
up¦²[/POST]']Vonwegen: ist schon aufgefallen, daß erstmals GDDR4 verbaut wird?
das verbraucht 40% weniger saft ...

Wobei der Verbrauch von GDDR3 auch nicht so hoch ausfällt. ;)

Gast No 1
2006-07-24, 17:05:29
up¦²[/POST]']Vonwegen: ist schon aufgefallen, daß erstmals GDDR4 verbaut wird?
das verbraucht 40% weniger saft ...

Jetzt bitte auch dabeischreiben, wieviel es vorher waren. :)
Laut einigen Tests lag der Unterschied zwischen 256 und 512 MB bei 7W, also ungefähr 14W für 512 MB.

Davon 40% eingespart, dann hätten wir einen Gesamtverbrauch, der um 5-6W geringer ist. :crazy:

up¦²
2006-07-24, 17:09:25
Ist doch ne prima Entwicklung - weiter so!

dargo
2006-07-24, 17:12:40
up¦²[/POST]']Ist doch ne prima Entwicklung - weiter so!
Mir wären 40% weniger Verbrauch bei der GPU und den Spannungswandlern lieber. X-D
Außerdem beziehen sich die 40% wohl auf den gleichen Takt.

Gast
2006-07-24, 17:14:11
Es sind Peanuts.

5W wären ledigich 1/25 des gesamten Stromverbrauchs.

Dazu kommt noch, das gerade diese Einsparung nicht dazu beiträgt, das die Karter kühler läuft, denn die GPU heizt weiterhin voll ein.

Es würde schon mehr bringen, wenn die ihre GPU Spannung um 0,05V senken würden, denn das führt nicht nur zu deutlich weniger Stromverbrauch, sondern auch zu geringeren Temperaturen ...

dargo
2006-07-24, 17:21:24
Gast[/POST]']
Es würde schon mehr bringen, wenn die ihre GPU Spannung um 0,05V senken würden, denn das führt nicht nur zu deutlich weniger Stromverbrauch, sondern auch zu geringeren Temperaturen ...
Das ist verdammt richtig. Ich frage mich eh die ganze Zeit wieso ATI keine X1900XL 512 MB mit 550/600Mhz und deutlich weniger Spannung herausbringt. Das wäre eine schöne Karte für mich. :tongue:

AnarchX
2006-07-24, 17:23:10
dargo[/POST]']Das ist verdammt richtig. Ich frage mich eh die ganze Zeit wieso ATI keine X1900XL 512 MB mit 550/600Mhz und deutlich weniger Spannung herausbringt. Das wäre eine schöne Karte für mich. :tongue:

RV570(X1950Pro) in 80nm... ;)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4584845&postcount=240

dargo
2006-07-24, 17:28:26
AnarchX[/POST]']RV570(X1950Pro) in 80nm... ;)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4584845&postcount=240
Leider uninteressant für mich dank "nur" 12 Pipes und höchstwahrscheinlich nur 256MB Vram. Das wäre keine Steigerung für mich.

Coda
2006-07-24, 17:34:28
Gast No 1[/POST]']Laut einigen Tests lag der Unterschied zwischen 256 und 512 MB bei 7W, also ungefähr 14W für 512 MB.
Das kann man nicht so rechnen. Die DRAM-Zellen an sich brauchen zwar auch Saft, aber die Interface-Logik bleibt ja gleich.

Gast
2006-07-24, 18:00:05
Coda[/POST]']Das kann man nicht so rechnen. Die DRAM-Zellen an sich brauchen zwar auch Saft, aber die Interface-Logik bleibt ja gleich.

Was heißt das jetzt genau?

Es ging um den Vergleich zwischen 512 MB GDDR4 und 512 MB GDDR3... selbst wenn ersterer sparsamer ist, so wird das nur ein Tropfen auf den heißen Stein sein.

Coda
2006-07-24, 18:08:10
Gast[/POST]']Was heißt das jetzt genau?
Das 256MiB sicher nicht die Hälfte von 512MiB RAM brauchen, sondern mehr.

Gast
2006-07-24, 18:23:22
Coda[/POST]']Das 256MiB sicher nicht die Hälfte von 512MiB RAM brauchen, sondern mehr.

Das würde dann bedeuten, das der Unterschied noch kleiner ist, als von mir angegeben, denn die Werte wurden mit zwei baugleichen Karten jeweils mit 256 und 512 MB ermittelt.

Dann wäre es noch unerheblicher, welcher Grafikspeicher dort verbaut wird... war auch irgendwie zu erwarten.

Coda
2006-07-24, 18:27:03
Gast[/POST]']Das würde dann bedeuten, das der Unterschied noch kleiner ist, als von mir angegeben
Richtig.

Gast
2006-07-24, 18:45:30
Ich denke, das Hauptanliegen war, den Kritikpunkt "Lautstärke" auszumerzen. Da wohl selektierte R580-Chips zum Einsatz kommen sollen, könnte das, passend zum Merge, ähnlich sein, wie AMDs EE Prozessoren: Die X1950er haben schnelleren Speicher, nen anderen Lüfter und geringere VCore.


Q

Palpatin
2006-07-24, 22:23:48
Gibt die Karte dann auch in ner Version mit nem grünen Kühler ? :)

AnarchX
2006-07-24, 22:25:28
Palpatin[/POST]']Gibt die Karte dann auch in ner Version mit nem grünen Kühler ? :)

Troll... :uconf3:

deekey777
2006-07-24, 22:27:28
AnarchX[/POST]']Troll... :uconf3:
Nein, ganz und gar nicht.
Welcher CPU-Hersteller hat gerade ATi in sein grünes Herz geschlossen? ;)

AnarchX
2006-07-24, 22:29:18
DK777[/POST]']Nein, ganz und gar nicht.
Welcher CPU-Hersteller hat gerade ATi in sein grünes Herz geschlossen? ;)

Trotzdem wird wohl ATI von dieser Farbe noch etwas Abstand halten, vor allem im GraKa-Markt. ;)
Vielleicht gibt es einen braunen Kühler... :|

up¦²
2006-07-24, 22:32:49
Das wär doch mal was neues: Tray Graka's - Kühler selber draufbaun :biggrin:

deekey777
2006-07-24, 22:50:09
Gast[/POST]']Ich denke, das Hauptanliegen war, den Kritikpunkt "Lautstärke" auszumerzen. Da wohl selektierte R580-Chips zum Einsatz kommen sollen, könnte das, passend zum Merge, ähnlich sein, wie AMDs EE Prozessoren: Die X1950er haben schnelleren Speicher, nen anderen Lüfter und geringere VCore.


Q
Klingt vernünftig, aber irgendwie inkonsequent, wenn kleinere Versionen mehr Saft verbrauchen würden.
Wäre auch ein neues Stepping denkbar - für alle X19x0er? Natürlich nur, wenn die "alten" X1900er (bis auf die X1900GT) auslaufen.

up¦²[/POST]']Das wär doch mal was neues: Tray Graka's - Kühler selber draufbaun :biggrin:

Wenn die Hersteller wollen, können sie die Grafikkarten auch ohne Lüfter bei ATi ordern. ;)

AnarchX
2006-07-25, 18:08:47
http://www.hkepc.com/bbs/attachments_dir/ext_jpg/atiradeonx1950xtx-photo_wIA3mErhOn5Q.jpg
http://www.hkepc.com/bbs/itnews.php?tid=637970

Merkor
2006-07-25, 18:14:55
AnarchX[/POST]']http://www.hkepc.com/bbs/attachments_dir/ext_jpg/atiradeonx1950xtx-photo_wIA3mErhOn5Q.jpg
http://www.hkepc.com/bbs/itnews.php?tid=637970

Wenn die schon so ein Ding auf dem Board da kleben haben, hätte ich auch gern Benchmarks oder Aussagen über die Lautstärke des Kühlers. Interessant wird die Karte aber trotzdem erst ab ca. 350€. Die neue X1900 mit dem neuen Kühler und lediglich 256MB GDDR3 dürfte nicht mehr als 230€ kosten. Wird vermutlich zum Start deutlich mehr sein...

deekey777
2006-07-25, 18:22:14
Das ist ja fast der IceQ-Kühler mit verändertem Lufttunnel/Lüfter:

http://www.digit-life.com/articles2/video/r580-4.html#p3

Gast
2006-07-25, 18:43:26
Man sieht die geil aus...ich brauch die^^

Wenn der Kühler wirklich leiser ist und besser kühlt, dann ist die Karte mein!^^

Gast
2006-07-25, 19:19:56
Bin ich der einzige der dem die Karte nicht vom Hocker haut (optisch gesehen)?

Grindcore
2006-07-25, 19:29:18
Ja und das macht Dich zu etwas ganz Besonderem...

The_Invisible
2006-07-25, 19:30:29
Gast[/POST]']Bin ich der einzige der dem die Karte nicht vom Hocker haut (optisch gesehen)?

wie die karte aussieht ist egal, die entsprechenden werte müssen passen

mfg

Gast
2006-07-25, 19:36:59
The_Invisible[/POST]']wie die karte aussieht ist egal, die entsprechenden werte müssen passen

mfg

und das tun sie ebenfalls nicht :D

Zapat
2006-07-25, 20:53:37
Gast[/POST]']und das tun sie ebenfalls nicht :D
Klar das wird sie. :D

Gast
2006-07-25, 21:19:10
Zapat[/POST]']Klar das wird sie. :D(bin ein anderer Gast). Wieso glaubst du das? Ich persönlich denke nicht, dass sie viel schneller als die x1900xtx ist. Mit viel MSAA wird sie sich schon absetzen können, aber sie ist bestimmt kein Grund aufzurüsten für jemanden, der jetzt schon eine Karte besitzt, die mehr oder weniger High-End ist.

horn 12
2006-07-25, 21:32:04
aber der R580+ wird die X1900 XT und XTX in Preis Regionen drücken (270-330 Euro) wo selbst Mid Range User dann überlegen werden solch eine Karte zu kaufen oder gar die X1950 XT wenn die Kühlung, Performance und Lautstärke passt. (Also diesmal alles passen würde)
Und so wie es aussieht wird sie unter 400 Euro zu haben sein und somit recht attraktiv (auch für mich als X1800 GTO Besitzer)
Rechne im Oktober mit 380-395 Euro und weltweit verfügbar)

Gast
2006-07-25, 22:21:34
Gast[/POST]'](bin ein anderer Gast). Wieso glaubst du das? Ich persönlich denke nicht, dass sie viel schneller als die x1900xtx ist. Mit viel MSAA wird sie sich schon absetzen können, aber sie ist bestimmt kein Grund aufzurüsten für jemanden, der jetzt schon eine Karte besitzt, die mehr oder weniger High-End ist.
Vor allem wird die Karte für User interessant werden die keine Wakü haben und keinen Zalman oder Accelero montieren wollen wegen Garantieverlust usw. und auch nicht bereit sind die Abzocke von HIS mitzumachen. Ich habe sowieso das Gefühl, dass die Arctic Cooling was gezahlt haben. Es wäre für Arctic Cooling ein leichtes gewesen das Silencer Prinzip weiter zu benutzen, stattdesen den Accelero der nicht immer überzeugen kann.

Gouvernator
2006-07-25, 22:29:32
naja bezüglich des stromverbrauchs und hitze bin ich mir net so sicher... eine 7900gt wird das ganz bestimmt nicht sein. die XTX war immer ein monster... bei ein wenig übertakten kommt schon die wasserkühlung nicht hinterher... ich wundere mich immer noch wie Ati es hingekriegt hat das die platte fast schmilzt und es läuft alles einwandfrei.

Gast
2006-07-25, 22:36:05
Gouvernator[/POST]']ich wundere mich immer noch wie Ati es hingekriegt hat das die platte fast schmilzt und es läuft alles einwandfrei.

Das liegt an diesen sch***** Temperaturfanatikern! Ne Grafikkarte bei dauerhaften 100 bis 110 Grad zu betreiben wäre kein Thema, aber diese Leute wollen es nunmal nicht wahr haben und quatschen hier und in diversen Foren immer wieder den gleichen debilen müll.

Mich wundert eh, wieviele Leute es gibt, die für einen beschissenen Kühler 50 Euro ausgeben, der im Prinzip gar NIX bringt, außer etwas bessere Temperaturen.

Cubitus
2006-07-26, 01:19:44
Tja und wenn die Karte dann dementsprechend wärmere Luft nach draußen bläßt ist das besser :confused:

Außerdem kann ja jeder der möchte das über das ATI Tool einstellen.

Bei diesen heißen Temps zur Zeit hätte ich liebr etwas mehr Temperatur Puffer an der GPU!

dildo4u
2006-07-26, 01:21:34
Cubitus[/POST]']
Dank meiner ATI und ner halben Stunde Prey hab ich gerade 30 Grad in der Bude..Mit na wakü? :|

Gast
2006-07-26, 01:22:07
Nun, bei der Raumtemperatur kann das natürlich einen Unterschied machen.
Aber da spielen auch andere Faktoren eine Rolle... z.B. die Ausnahme des Raums, der Luftzug und was oft vergessen wird: Der Monitor, sollte es ein CRT sein. :)

Im Winter ist das jedenfalls sehr nützlich und schwitzen ist jetzt auch nicht ungesund. :)

Cubitus
2006-07-26, 01:28:12
dildo4u[/POST]']Mit na wakü? :|

Die Wakü ist gerade nicht installiert.
Mein Sys befindet sich momentan im Umbau.

ALten 240er Radiator hab ich verkauft!
Warte noch auf den Cooltek Triple und auf mein Mosfett Freezer für mein schönes ASUS P5W :D
Im Winter ist das jedenfalls sehr nützlich und schwitzen ist jetzt auch nicht ungesund.
Klar 2 Jahre ohne Heizung dafür Strom nachgezahlt^^
und schwitzen nja bestimmt nicht ungesund
aber nur 4 stunden schlaf...schon

Gasthaus
2006-07-26, 01:36:02
dildo4u[/POST]']Dann schreibt dailytech aber auch ziehmlichen Mist oder GDDR4 ist besser als ich dachte. ;)


"Memory clock frequencies have not been announced either, though Samsung announced its GDDR4 is already capable of 3.2GHz in 8x512Mbit configurations."

Wenn Samsung da auch nicht doppelt.1,6GHz Realtakt scheinen mir eher real.

Wäre durchaus nicht enttäuscht wenn ich mich irren sollte:)

Gasthaus
2006-07-26, 01:50:23
Gast[/POST]']Bezüglich des Lüfterdesigns bin ich tiefster Überzeugung, dass der Konstrukteur von Aerodynamik nicht den Hauch eines Schimmers hatte. Strömungsoptimiert sieht anders aus. Aber vielleicht war aus ne Vorgabe aus der Marketingabteilung.

Könntest recht haben,des zu enge Ansaugloch wir sicherlich viel zur Lärmkulisse beitragen.

Habe durch herummspielen mit nem 80er lüfter ist mir aufgefallen das Der Lüfter relativ leise bleibt wenn man den Austritt der Luft versperrt.Doch wehe man versperrt nur mit leicht gespreizten Figern den Ansaugvurgang,dann wirds laut.

Ebenfallss die flachen Blätter sehen nicht leise aus.Beim Silencer sind sie schön geschwungen und an den Kanten abgerundet.Und dessen Unhörbarkeit wird ATI sicherlich nicht erreichen,geschweige denn einer Kühllösung ala GTX herankommen.

Gasthaus
2006-07-26, 02:07:59
Gast[/POST]']Das liegt an diesen sch***** Temperaturfanatikern! Ne Grafikkarte bei dauerhaften 100 bis 110 Grad zu betreiben wäre kein Thema, aber diese Leute wollen es nunmal nicht wahr haben und quatschen hier und in diversen Foren immer wieder den gleichen debilen müll.

Mich wundert eh, wieviele Leute es gibt, die für einen beschissenen Kühler 50 Euro ausgeben, der im Prinzip gar NIX bringt, außer etwas bessere Temperaturen.

Also bei meiner GF6 ist ab ca.85Grad schluss mit fehlerfreien Plüschwürfeln.
Und besch... ist so ein Silencer gar nicht weil er billig(21Euro)und LEISE kühlt.

100Grad gehen vielleicht nur bei handselektierten Hochkarätern im Dauerbetrieb,welche wiederum natürlicherweise wie Sand am Meer zu finden sind.

Mal davon abgesehen stehen nicht alle auf 150Watt-Heizöfen im Sommer:)

Gast
2006-07-26, 03:34:34
Bei alten Karten mag das noch stimmen, bei neueren aber nicht umbedingt, das hängt mit dem Fertigungsprozess zusammen.

Hier im Forum gibts schon einige User, die selbst bei Temperaturen über 100 Grad keine Probleme hatten.

Wundert mich gar nicht, der Schwellwert der Karten ist im Treiber auch sehr hoch, teilweise über 125 Grad.

Eigentlich gilt nur eine Regel: Zulässig ist das, was fehlerfrei möglich ist. ;)

qu3x^
2006-07-26, 08:05:49
DK777[/POST]']Das ist ja fast der IceQ-Kühler mit verändertem Lufttunnel/Lüfter:

http://www.digit-life.com/articles2/video/r580-4.html#p3

Also so wie das Bild aussieht ist das Kühlelement selbst 1:1 vom IceQ 3 übernommen. Sogar die Abfräsung an der Heatpipe is genau ident. Lediglich das Chasie vom Lüfter hat sich geänderd. Was noch schade ist das auch hierzu wieder keine Verbesserungen zu Crossfire mit in die Entwicklung eingefloßen ist. Z.B.: Internes Interface/Brücke!

P.S.: Wie muß dann erst das Teil von HIS mit IceQ4 aussehn? ;D Schließlich ist die Produktserie IceQ ja ein sehr erfolgreiches Marketing-Produkt.

Johnny
2006-07-26, 10:55:54
Die ATI-Lösung sollte sogar noch besser sein als die IceQ3-Kühlung:
- Die Speicher-Kühlung bei IceQ3 ist komplett passiv
- Der Lüfter scheint etwas grösser zu sein.

Schumi
2006-07-28, 18:49:27
dildo4u[/POST]']Mit na wakü? :|

ehm ob wakü(nur gpu, cpu kühler...) oder lukü ist bei der zimmeraufheizung eigentlich völlig egal da die abwärme im gesamten gleich bleibt, nur bei der wakü "wandert" die wärme eben schneller zum radiator der die bude dann kräftig heizt.

sorry für die besserwisserei aber das musst ich grad mal loswerden ;)

@topic: wie sind denn nun die benchmarks? hab so paar seiten durchstöbert aber nix gefunden...

Gast
2006-07-29, 09:36:19
DK777[/POST]']Klingt vernünftig, aber irgendwie inkonsequent, wenn kleinere Versionen mehr Saft verbrauchen würden.
Wäre auch ein neues Stepping denkbar - für alle X19x0er? Natürlich nur, wenn die "alten" X1900er (bis auf die X1900GT) auslaufen.

Mit Stromverbrauch wirbt man ja (noch) nicht, von daher wäre das Marketingtechnisch sicherlich kein Problem.

Neue Serie leiser, schneller, bissel teurer und gut ist. Ob ein neues Stepping kommt weiß ich nicht, glaube es aber ehrlich gesagt eher weniger - denn wenn man schon dran rumgeschraubt hätte (was allein fürs neue Tape-Out etc. locker 'ne Million gekostet hätte), wäre man sicherlich auch ein bißchen auf Taktbarkeit oder sonstiges eingegangen.

Zudem hätte man das dann marketingtechnischer bestimmt auch schon ausgeschlachtet - und danach sahen die Folien bei HKEPC nicht aus.


Q

InsaneDruid
2006-08-02, 19:35:39
Könntest recht haben,des zu enge Ansaugloch wir sicherlich viel zur Lärmkulisse beitragen.

Habe durch herummspielen mit nem 80er lüfter ist mir aufgefallen das Der Lüfter relativ leise bleibt wenn man den Austritt der Luft versperrt.Doch wehe man versperrt nur mit leicht gespreizten Figern den Ansaugvurgang,dann wirds laut.

Ebenfallss die flachen Blätter sehen nicht leise aus.Beim Silencer sind sie schön geschwungen und an den Kanten abgerundet.Und dessen Unhörbarkeit wird ATI sicherlich nicht erreichen,geschweige denn einer Kühllösung ala GTX herankommen.

Die einzigen die keinen Plan haben seit leider ihr beiden.

Der Lüfter MUSS einen gewissen Rand besitzen, um überhaupt korrekt zu funktionieren. Denn es handelt sich hierbei um einen Radiallüfter, keinen Axiallüfter, wie du ihn für deine Tests benutzt hast. Der Rand verhindert, das die Luft, welche durch die Schaufeln nach außen bewegt wird, ungenutz an den offenen Rändern abließt, sondern im Randbereich weiter mitgerissen wird, um schlussendlich im Bereich der Kühllamellen den Lüfter zu verlassen.

Das gleiche sah man zb am Vga Silencer (http://www.tweakpc.de/cooling/tests/arcticcooling_vga/vga_silencer.jpg). Dieser Bereich ist auch kein Ansaugbereich eines Radiallüfters mehr, diese Saugen im Nabenbereich an.

Daher sind auch die geraden Schaufeln kein Beinbruch.

MartinRiggs
2006-08-07, 09:49:54
Stimmt es das x1950xt und xtx Ende August kommen sollen?

AnarchX
2006-08-07, 10:40:56
Stimmt es das x1950xt und xtx Ende August kommen sollen?

X1950XTX, über eine XT ist nichts bekannt.

DarkFox
2006-08-07, 11:03:01
X1950XTX, über eine XT ist nichts bekannt.

ATI mit Radeon X1950 XT
Montag, 31. Jul. 2006 15:20 - [jp]
ATI plant offenbar eine weitere Radeon-Karte, die Ende des Sommers erscheinen soll: die Radeon X1950 XT.

DieRadeon X1950 XT soll auf den R580+ aufsetzen, der sich augenscheinlich nur durch die Unterstützung von GDDR4-Speicher von seinem Vorgänger unterscheidet.

Eben dieser GDDR4-Speicher kommt dann auch auf der X1950 XT zum Einsatz und soll - Gerüchten zu Folge - mit 1.000 MHz (2.000 MHz DDR) getaktet sein. Allerdings werden nur 256 Megabyte eingesetzt, diese aber mit 256 Bit angebunden.

Die Radeon X1950 XT könnte damit ATIs Antwort auf NVIDIAs GeForce 7900 GT sein und dürfe sich in ähnlichen preislichen Regionen befinden.

In wenigen Wochen werden wir wohl genaueres wissen.

GDDR4 speicher aber nur 256 MB ? Ob die X1950XT sich dann überhaupt gegen eine übertaktete 7900GT mit 512 MB durchsetzen kann :confused:

deekey777
2006-08-07, 11:09:21
http://www.dailytech.com/article.aspx?newsid=3446

Von einer X1950XT 256 MB war keine Rede, bis er kam: http://uk.theinquirer.net/?article=33368

eLw00d
2006-08-07, 11:50:49
Einiges langsamer und gleichzeitig viel teurer als eine 7900GX2.

Naja...

Gast
2006-08-07, 12:21:35
@insaneDruid

Schon mal durchgerechnet Radialventilatoren gesehen? Wenn nein, geeignete Herstellerseiten aufrufen und anschauen! Rechne dir mit der Schaufelgeometrie alleine mal die Reynalodszahlen aus, wenn man mal typische Drehzahlen annimmt. Diese Konstruktion mag reichen, wenn man den Wärmestrom kennt und aufgrund der optimierten Luftführung die Drehzahlen nicht allzu hoch sind, aber optimiert ist das areodynamisch nicht, eher von der Kostenseite. Bei hohen Drehzahlen wird das Teil laut werden. Hoffen wir auf milde Sommer, eine geringe Verlustleistung und einen optimierten Luftstrom im Gesamtsystem.

Zapat
2006-08-07, 12:43:40
Einiges langsamer und gleichzeitig viel teurer als eine 7900GX2.

Naja...

Wenn man die Karte gut übertakten kann ist sie bestimmt nah an einer 7950 drann.Auch wenn sie langsamer ist,die Karte wird genug Power haben um HDR-AA flüssig darstellen zu können.2* X1950 CF werden weil Quad SLi nicht richtig funzt das schnellste sein.Die Karte hat ordentlich Power das urde mir reichen weil ich bei der Ati mehr kriege..

Undertaker
2006-08-07, 12:51:49
Einiges langsamer und gleichzeitig viel teurer als eine 7900GX2.

Naja...

die auf vielen boards s-ata steckplätze blockiert, erst gar nicht ins gehäuse passt, im idle nocheinmal deutlich mehr strom frisst als eine x1900xtx, nicht von jedem treiber unterstützt wird usw...

naja, ich hab auch mal überlegt die karte zu kaufen aber mittlerweile finde ich sie nicht mehr so toll...

Gast
2006-08-07, 12:58:17
@insaneDruid

Schon mal durchgerechnet Radialventilatoren gesehen? Wenn nein, geeignete Herstellerseiten aufrufen und anschauen! Rechne dir mit der Schaufelgeometrie alleine mal die Reynalodszahlen aus, wenn man mal typische Drehzahlen annimmt. Diese Konstruktion mag reichen, wenn man den Wärmestrom kennt und aufgrund der optimierten Luftführung die Drehzahlen nicht allzu hoch sind, aber optimiert ist das areodynamisch nicht, eher von der Kostenseite. Bei hohen Drehzahlen wird das Teil laut werden. Hoffen wir auf milde Sommer, eine geringe Verlustleistung und einen optimierten Luftstrom im Gesamtsystem.

Mag schon sein, aber anders lassen sich nicht die Spannungswandler auch nicht kühlen.

eLw00d
2006-08-07, 13:11:52
die auf vielen boards s-ata steckplätze blockiert, erst gar nicht ins gehäuse passt, im idle nocheinmal deutlich mehr strom frisst als eine x1900xtx, nicht von jedem treiber unterstützt wird usw...

naja, ich hab auch mal überlegt die karte zu kaufen aber mittlerweile finde ich sie nicht mehr so toll...
Da haste Recht... :)

http://img174.imageshack.us/img174/464/gx2shit003kleineq2.jpg

Aber alles halb so wild...
Man spart halt viel Geld.

btw: was ist Stromverbrach ? :D

http://img206.imageshack.us/img206/2235/stromverbrauchistrelativ004kleinpw6.jpg

Gast
2006-08-07, 20:07:35
Mit na wakü? :|
Die abgegebene Wärmeenergie ist mit ner Wakü die gleiche. Das Zimmer würd also auch mit Luftkühlung gleich stark erwärmt werden.

deekey777
2006-08-07, 23:05:30
http://www.hkepc.com/bbs/itnews.php?tid=646717
The first GDDR4 graphic card is available in August as ATi Radeon X1950XTX, using Samsung K4U52324QE-BC09 (16Mx32, 1.8V, 8K/32ms, 0.91ns @ 1100MHz).

Nach längerer Überlegung wird der Thread in den Speku-Bereich verschoben, wo er von Anfang an hingehörte.

Super Grobi
2006-08-07, 23:09:59
http://www.hkepc.com/bbs/itnews.php?tid=646717


Nach längerer Überlegung wird der Thread in den Speku-Bereich verschoben, wo er von Anfang an hingehörte.

Kapier das nicht ;D

The first GDDR4 graphic card is available in August

Soll das heißen das es diese Karte schon gibt? WO? :|

SG

dildo4u
2006-08-07, 23:12:06
Soll das heißen das es diese Karte schon gibt? WO? :|

August ist noch lange und vor Ende September wirste whol keine in der EU bekommen.

deekey777
2006-08-07, 23:13:09
Ende August ist der Launch, wie es aussieht, ist man schon kräftig beim Produzieren. Und irgendwie kriegen hkepc-Dudes das eine oder andere Sample in die Hände.

Super Grobi
2006-08-07, 23:16:42
Ende August ist der Launch, wie es aussieht, ist man schon kräftig beim Produzieren. Und irgendwie kriegen hkepc-Dudes das eine oder andere Sample in die Hände.

Gut zu wissen, danke.

Dann spar ich mir erstmal den X1900XT kauf und warte ab und schnapp mir eine der ersten Kärtchen der BRD ;)

Gruss
SG

horn 12
2006-08-07, 23:28:07
Lauch ist der 23 August 16.00 ca. (MEZ Zeit.)
Wird ein Hard Launch werden da NV ansonsten zu viel absahnt mit den 7900 GX2 und 7950 GX2,
und sich der R580+ sonst nicht mehr lohnen würde,- zwecks des R600 zu Weihnachten ca.
Soll ja mind. 3-4 Monate Marktführend sein, so wie damals die X1800 XT.
Würde dann in Europa mit der weitgehenden Verfügbarkeit ab dem 27 August / max. 2/3. ten September rechnen.

Wird ein schönes, LEISES und geiles Kärtchen werden, nur die 12 Piper Version kann ATI getrost ausklingen lassen. (hoffe das sowas beim R580+ nicht nochmals kommt)

Super Grobi
2006-08-07, 23:53:29
@horn

Geht das schon wieder los? X1800XT kommt garantiert für AGP hab ich noch von dir im Kopf. Ich hoffe mal, das du diesmal recht hast :ujump2:

Der Zeitpunkt passt mir auch 1a. WENN das so stimmt, wird es dann diese Karten bei Alternate wieder sofort zu kaufen geben. Diesen 12P Schrott könnnen die sich aber wirklich sparen. Frag mich immer, was dieser Rotz soll.

SG

dildo4u
2006-08-07, 23:58:47
Lauch ist der 23 August 16.00 ca. (MEZ Zeit.)
Wird ein Hard Launch werden da NV ansonsten zu viel absahnt mit den 7900 GX2 und 7950 GX2,

Da man 0% am Chiptakt dreht wird sich in bezug auf Performance nich all zu viel tun wie wir schon in diesem Thread getestet haben. ;)

deekey777
2006-08-08, 00:04:45
Da man 0% am Chiptakt dreht wird sich in bezug auf Perfromance nich all zu viel tun wie wir schon in diesem Thread getestet haben. ;)

Dafür wurde die Bandbreite erhöht. Und braucht man diese? Genau: FP16-RT&MSAA.
Zu AGP: Mich würde nicht überraschen, dass eine X1650XT AGP kommt (bei der 7600GS AGP hatte Fuad Recht, warum sollten wir ihm jetzt auch nicht vertrauen? :ulol:)

horn 12
2006-08-08, 07:29:59
aber der Chip soll intern optimiert worden sein (20-30 % könnten schon drinnen sein )
und dazu noch DDR4 Speicher, aber warten wir die ersten Test´s ab.
Will nicht noch mal in Fettnäpfchen treten, das mit X1800 XT war mir schon peinlich genug.:frown:

m.sch
2006-08-08, 10:50:06
Dort sind schon einige Benchmarks (http://www.beyond3d.com/forum/showthread.php?t=28718&page=11%20target=) aufgetaucht. :|

AnarchX
2006-08-08, 10:53:40
aber der Chip soll intern optimiert worden sein (20-30 % könnten schon drinnen sein )


Na klar da holt ATI(AMD) mal so 20-30% aus einem alten Design...:lol:

Ich würde die Mehrperformance auch eher in diesem Bereich vermuten:
Dafür wurde die Bandbreite erhöht. Und braucht man diese? Genau: FP16-RT&MSAA


Dort sind schon einige Benchmarks aufgetaucht

Ein paar Zahlen ohne Systemangaben -> unbrauchbar...
Selbst eine X1900XT sollte schon die 11k im 3DM05 schaffen.

deekey777
2006-08-08, 11:00:02
Dort sind schon einige Benchmarks (http://www.beyond3d.com/forum/showthread.php?t=28718&page=11%20target=) aufgetaucht. :|
Das sind keine Benchmarks, besser gesagt keine objektiven, sondern von einer ATi-Präsentation, um die Leistung der neuen Generation einzuschätzen.

http://www.dailytech.com/article.aspx?newsid=3688

Johnny
2006-08-08, 12:09:22
11k in 05 kann nicht sein. Selbst meine X1900XT schaft mehr (ohne OC).

Gertz
2006-08-08, 17:49:49
das erste bild ist doch aber gerendert oder? :| sieht meine ich so aus.

Gast
2006-08-08, 20:35:27
Nochmal zum Stromverbrauch.

Bis jetzt scheint nur klar zu sein, das sie in 90nm kommt und mit unveränderten Taktraten antritt.

Dafür leicht sparsameren GDDR4 nutzt.

Aber nirgendwo war die Rede davon, das die Chipspannung gleich geblieben ist. Vielleicht tut sich da etwas? Die Fertigung wurde seit dem Launch der x1900 sicher weiter optimiert und selbst kleinste absenkungen, können 10-20W ausmachen.

Nur leider werden wir das wohl erst zum Launch hin erfahren!?

deekey777
2006-08-09, 21:08:01
ATI Vendor Supplied Radeon X1950XTX Benchmarks Leaked (http://www.dailytech.com/Article.aspx?newsid=3727)

Die Aussagekraft dieser Benchmarks ist gering.

horn 12
2006-08-09, 21:21:47
Falls dies stimmt, Alle Achtung !!
aber mal Ehrlich. :biggrin:
Hat ATI oder auch Nvidia mal ne neue Grafikkarte gebracht die nicht Minimum Gleichstand :rolleyes: oder gar etwas schneller war als die Konkurrenzkarte ?:eek: :cool: :cool:
Also sooo abwägig finde ich die Benchmarks gar nicht.:tongue: ;D

deekey777
2006-08-10, 20:40:43
Hier noch einige Bilder und Infos: http://forums.vr-zone.com/showthread.php?t=85758&page=1

Gast
2006-08-11, 13:02:24
Die Karte schaut schonmal net schlecht aus.
Ich denke das wird meine Nächste, solange sie auch leise ist.

gbm31
2006-08-11, 13:12:51
die detailbilder zeigen mir eines: da hat ati ziemlich exakt den his iceq3 (incl dem vrm-kühler aus kupfer) abgekupfert... was nicht unbedingt schlecht ist...

Johnny
2006-08-11, 13:41:58
Wenn das Teil genau so klackert wie IceQ3, dann gute nacht!

gbm31
2006-08-11, 13:46:53
der lüfter ist ein ganz anderer... es wurde ja nur das prinzip kopiert.

ich glaube kaum, daß arctic jetzt die kühler für ati fertigt, oder?

r3ptil3
2006-08-11, 13:51:59
ATI Vendor Supplied Radeon X1950XTX Benchmarks Leaked (http://www.dailytech.com/Article.aspx?newsid=3727)

Die Aussagekraft dieser Benchmarks ist gering.

Man sieht halt vorallem in hohen Auflösungen zusammen mit AA/AF ist die Karte halt stark.

In Quake 4 und DOOM 3 ist die X1950 XTX schneller als eine 7950 GX2, bei 2560x1600 4xAA 8xAF.

Johnny
2006-08-11, 13:56:01
der lüfter ist ein ganz anderer... es wurde ja nur das prinzip kopiert.

ich glaube kaum, daß arctic jetzt die kühler für ati fertigt, oder?Ich vermute das ATI sich die Lizens(oder so) von HIS abgekauft hat, denn der Kühler der X1950XTX ist 1 zu 1 IceQ3-mässig, deshalb sollten die Lüfter(Lager etc.) an sich auch gleich sein.

gbm31
2006-08-11, 14:20:24
Ich vermute das ATI sich die Lizens(oder so) von HIS abgekauft hat, denn der Kühler der X1950XTX ist 1 zu 1 IceQ3-mässig, deshalb sollten die Lüfter(Lager etc.) an sich auch gleich sein.

der his kommt doch von arctic?

und die lüfter unterscheiden sich deutlich:


http://www.gbm31.de/files/his.jpg

http://www.gbm31.de/files/x1950.jpg

Gast
2006-08-11, 14:31:30
der his kommt doch von arctic?

und die lüfter unterscheiden sich deutlich:



Nein der wurde von His produziert.

Außerdem könnte das Lüfterlager das Gleiche sein.

Erste Test werden Aufschluss geben.

deLuxX`
2006-08-11, 14:41:05
Neues Futter: http://www.hardwarezone.com/articles/view.php?cid=3&id=2020&pg=1

-deLuxX`

Johnny
2006-08-11, 14:49:10
Neues Futter: http://www.hardwarezone.com/articles/view.php?cid=3&id=2020&pg=1

-deLuxX`Ausser in Q4 hält sich der Performancezuwachs in Grenzen, 400€ ist das Ding aber auf jeden Fall Wert.

gbm31
2006-08-11, 14:56:08
wie erwartet: die x1900xt/x sind nicht wirklich bandbreitenlimitiert...

Super Grobi
2006-08-11, 14:58:53
Was soll den dann der DDR4 Ram? Bringt ja fast nichts. Also echt. Hätte ATi einfach den Kühler geändert, wäre es auch gut gewesen.

SG

Johnny
2006-08-11, 14:59:54
Was soll den dann der DDR4 Ram? Bringt ja fast nichts. Also echt. Hätte ATi einfach den Kühler geändert, wäre es auch gut gewesen.

SGDie paar % mehr Performance nehme ich aber auch noch gerne mit
:D

Super Grobi
2006-08-11, 15:01:22
Die paar % mehr Performance nehme ich aber auch noch gerne mit
:D

Nur hat Ati für die Änderungen bestimmt viel Geld ausgegeben. Das Geld ist doch quasi aus dem Fenster geworfen.

SG

Gast
2006-08-11, 15:02:37
Die hätten mal den Core auf 700Mhz machen sollen.

gbm31
2006-08-11, 15:05:13
vieleicht ist dieser eher niedrig getaktete gddr4 billiger als hochgezüchteter 1.1ns gddr3?

vieleicht haben sie dabei schon gddr4 und opengl-erfahrungen gesammelt für den r600?

vieleicht lohnt das einsparen der pfennigbauteile durch den geringeren energieverbrauch schon?

vieleicht braucht man einfach eine neue leisere und sparsamere rev. für die eingeschleischten nvidianer?


aber wer weiss das schon...

Gast
2006-08-11, 15:10:01
Ich will gerne mall wissen wie weit man das ding übertakten kann :D

gbm31
2006-08-11, 15:10:58
Ich will gerne mall wissen wie weit man das ding übertakten kann :D


edde?

Super Grobi
2006-08-11, 15:12:05
Ich will gerne mall wissen wie weit man das ding übertakten kann :D

Die GPU wird nicht weiter gehen, wie bei jeder anderen XTX und was mehr MHZ auf den Rams bringt, zeigt ja schon der Test dort.

SG

AnarchX
2006-08-11, 15:14:04
Der RAM der auf der X1950XTX verbaut ist, war bis 1100MHz spezifiziert, also mit etwas Glück sind vielleicht auf 1200MHz drin.

Gast
2006-08-11, 15:14:08
edde?
Heh verstehe ich jetzt nicht ?

gbm31
2006-08-11, 15:19:16
Der RAM der auf der X1950XTX verbaut ist, war bis 1100MHz spezifiziert, also mit etwas Glück sind vielleicht auf 1200MHz drin.


und nochmal: was soll das bringen?

vgl dazu die leistungsunterschiede zwischen 1900xtx und 1950xtx...

interessant wäre nur der core, und ob der 580+ viel höher kommt als der 580, wage ich doch tatsächlich zu bezweifeln.

(außer, die hätten beim ändern der speicheranbindung noch ein oder zwei hotspots beseitigt, wie beim wechsel von 9700 zu 9800... glaub ich aber ehrlich gesagt nicht)

AnarchX
2006-08-11, 15:21:41
und nochmal: was soll das bringen?

vgl dazu die leistungsunterschiede zwischen 1900xtx und 1950xtx...


Mehr Power in 2048x1536 mit 6xAAA oder in noch höheren Auflösungen(bei 1200MHz hat man ja immerhin 54% mehr Speicherbandbreite als eine X19XTX)...;)
Über den Sinn kann man sich natürlich streiten...

Es ist halt nicht mehr als ein Refresh der Form 9800Pro->9800XT bzw. X800XT PE -> X850XT PE....

Wechselbalg
2006-08-11, 15:24:15
Eben. Solche Refreshlösungen gab es schon öfters und wenn man unter AA des öfteren mal 10% hinbekommt, ist es doch ganz in Ordnung verbunden mit einer leiseren und wohl etwas kühleren Karte. Es war jetzt ja auch nicht davon auszugehen, dass mit den Taktraten die Karte auf einmal durchgängig 30% schneller wäre.

Merkor
2006-08-11, 15:29:20
Ich muss sagen, mich interessiert mehr der neue Kühler als die paar Prozentpunkte Speed mehr. Der soll laut des Tests ziemlich leise sein, mal schauen...

Zapat
2006-08-11, 15:45:04
I got quite different results in FEAR it seems though it was on 16xAF.
Strange that the difference for me was not mere while that preview was.... I dunno, had a day with the card only, but I did double check a few times...
Confused
http://forums.vr-zone.com/showthread.php?t=85758&page=3

Gast
2006-08-11, 16:26:12
Die X1950 XTX ist in games schneller;)

http://vr-zone.com/?i=3885&s=5

BvB123
2006-08-11, 16:33:13
Wieso braucht die bitte 36W mehr als die X1900XTX nur am Speicher kanns nicht liegen der braucht insgesammt ja nichtmal soviel...

Gruß