PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : X1800XL - Userbericht(e) - Pics inside


Seiten : 1 2 [3] 4 5 6

Gast
2005-10-25, 17:53:11
X1800XL 500/500 @ 635/660

Ich hab angst, traue mich nicht mehr weiter zu takten. :redface:
Warum wie siehts mit denn Temps aus?Wenn die in grünen bereich sind kannst du doch weiter machen?:up:

misterh
2005-10-25, 18:03:00
Warum wie siehts mit denn Temps aus?Wenn die in grünen bereich sind kannst du doch weiter machen?:up:

Ja klar

hier

X1800XL 500/500 @ 648/660 :ucrazy:

r3ptil3
2005-10-25, 18:05:24
Ja klar

hier

X1800XL 500/500 @ 648/660 :ucrazy:

Erreichst du diesen Takt ohne oder mit Bildfehler?

Blaze
2005-10-25, 18:05:32
Ja klar

hier

X1800XL 500/500 @ 648/660 :ucrazy:

Na komm, und jetzt noch den Speicher ein paar MHz ;)

sklave_gottes
2005-10-25, 18:07:03
das sind jetzt schon 30% gpu takt mehr durh oc

bin echt überrascht voralem nach den berichten vom bug

thx an misterh

mfg martin

misterh
2005-10-25, 18:07:10
Erreichst du diesen Takt ohne oder mit Bildfehler?

Ohne!

r3ptil3
2005-10-25, 18:08:01
Ohne!

Zeigt das ATI Tool auch keine Bildfehler?

9800ProZwerg
2005-10-25, 18:08:16
Versuch mal den Speicher auf 700MHZ ;) !
Aber ansonsten ist das OC Ergebnis schon sehr nett!

misterh
2005-10-25, 18:10:00
Zeigt das ATI Tool auch keine Bildfehler?

Da hat ATI-Tool noch bug. zeigt auch fehler bei standard-takt

Johnny Rico
2005-10-25, 18:22:03
mehr als xt takt würde ich nciht einstellen, wäre damit absolut zufrieden! der ram geht wohl nicht weiter, sonst würde misterh das schon längst gemacht habe? ist doch nur 1 regler vom core takt enfernt..

misterh
2005-10-25, 18:26:15
mehr als xt takt würde ich nciht einstellen, wäre damit absolut zufrieden! der ram geht wohl nicht weiter, sonst würde misterh das schon längst gemacht habe? ist doch nur 1 regler vom core takt enfernt..

nö hab jetzt RAM mehr volt gegeben.Aber richtig.

X1800XL 500/500 @ 648/702

Gandharva
2005-10-25, 18:26:39
Versuch mal den Speicher auf 700MHZ ;) !
Aber ansonsten ist das OC Ergebnis schon sehr nett!

ja, wenn er schon dafür spezifiziert ist, sollte das doch drin sein. evtl. braucht er lt. speccs mehr spannung?!

/edit

hat sich erledigt :)

wow! fast 9k!

sklave_gottes
2005-10-25, 18:32:23
man geht echt gut.

wieviel volt hast du jetzt ram und gpu ?

HanSolo78
2005-10-25, 18:34:12
@misterh
Sehr nice :)
Da kommt man ja fast in Versuchung.
Kannst du evtl. noch mal schauen, was das OC bei Games ausmacht?
Also Timedemos etc.?
3DMark05 ist zwar schön, aber Games sind besser.
Ok,wenn du XT Takt schaffst, dürfte es sich wohl fast erledigen.
Wobei ich gern mal den Unterschied zu "nur" 256mb VRam sehen würd.

Mr. Lolman
2005-10-25, 18:34:44
nö hab jetzt RAM mehr volt gegeben.Aber richtig.

X1800XL 500/500 @ 648/702


Wow, fetter OC. GPU um 30%, Speicher um 40%. Hoffentlich gehen die Xts ähnlich gut X-D

Gandharva
2005-10-25, 18:36:58
Wobei ich gern mal den Unterschied zu "nur" 256mb VRam sehen würd.

das macht sich nur bei einigen spielen bemerkbar. diese werden jedoch immer mehr.

Frank1974
2005-10-25, 18:44:21
nö hab jetzt RAM mehr volt gegeben.Aber richtig.

X1800XL 500/500 @ 648/702

Sehr mutig,ich würde mich niemals trauen eine neue GK so hoch zu übertakten,vorallem weil man ja vorher gehört hat das die ersten XL Modelle auf einer alten Revision des R520 basieren,und nicht gut zu takten sein sollen,du hast bestimmt eine von den guten erwischt :smile: ,ich kann mir aber nicht vorstellen das alle XLs sogut gehen,oder :confused: .

Und es bleibt noch die Frage offen ob die Karte diesen hohen Takt auf Dauer mit macht,weil wenn dem so ist,bräuchte man keine XT kaufen :biggrin:

Wie zufrieden bist du denn bisher mit der Karte,ist sie mit diesem Takt jetzt erheblich schneller als deine GT,ich meine in Spielen nicht nur im 3Dmark?

Und weiterhin viel Spaß mit deiner Karte. :smile:

MFG
Frank

Gast
2005-10-25, 18:46:21
Bald sehen wir die Rauchzeichen ;D ;D ;D

Gandharva
2005-10-25, 18:46:41
Sehr mutig,ich würde mich niemals trauen eine neue GK so hoch zu übertakten,...

wenn der ram dafür spezifiziert ist, sehe ich da kein problem. bei der gpu ist das nat. eine andere sache. aber auch da kann man das risiko minimieren wenn man es mit der spannung nicht übertreibt und auf bessere kühlung ala silencer setzt.

misterh
2005-10-25, 18:49:59
Sehr mutig,ich würde mich niemals trauen eine neue GK so hoch zu übertakten,vorallem weil man ja vorher gehört hat das die ersten XL Modelle auf einer alten Revision des R520 basieren,und nicht gut zu takten sein sollen,du hast bestimmt eine von den guten erwischt :smile: ,ich kann mir aber nicht vorstellen das alle XLs sogut gehen,oder :confused: .

Und es bleibt noch die Frage offen ob die Karte diesen hohen Takt auf Dauer mit macht,weil wenn dem so ist,bräuchte man keine XT kaufen :biggrin:

Wie zufrieden bist du denn bisher mit der Karte,ist sie mit diesem Takt jetzt erheblich schneller als deine GT,ich meine in Spielen nicht nur im 3Dmark?

Und weiterhin viel Spaß mit deiner Karte. :smile:

MFG
Frank

Ich sage nur geil. :biggrin:

Far Cry
1600x1200
4x AAA
16x H-AF
AI Low

580/660
55.48 FPS

648/702
60.66 FPS

betasilie
2005-10-25, 18:51:34
Sehr mutig,ich würde mich niemals trauen eine neue GK so hoch zu übertakten,vorallem weil man ja vorher gehört hat das die ersten XL Modelle auf einer alten Revision des R520 basieren,und nicht gut zu takten sein sollen,du hast bestimmt eine von den guten erwischt :smile: ,ich kann mir aber nicht vorstellen das alle XLs sogut gehen,oder :confused: .

Und es bleibt noch die Frage offen ob die Karte diesen hohen Takt auf Dauer mit macht,weil wenn dem so ist,bräuchte man keine XT kaufen :biggrin:

Wie zufrieden bist du denn bisher mit der Karte,ist sie mit diesem Takt jetzt erheblich schneller als deine GT,ich meine in Spielen nicht nur im 3Dmark?

Und weiterhin viel Spaß mit deiner Karte. :smile:

MFG
Frank
Ich übertakte auch immer massiv von Anfang an und habe noch nie was zerstört. Wichtig ist halt einen Stresstest zu fahren, und zu schauen ob die Karte wirklich stabil läuft und ohne Fehler. Im Normalfall kann dan eigentlich ncihts kaputt gehen.

Wenn man den RAM mehr Spannung gibt, ist das schon etwas riskanter, aber wenn man es nicht übertreibt und weiß was man macht, und natürlich auf die kühlung achtet, sollte auch das nichts zerstören.

Und für schlimmsten Fall hat man ja Garantie. X-D

Tom2110
2005-10-25, 18:51:53
möcht wetten das war nur nen gerücht, dass die net gut zu takten gehen sollen

Frank1974
2005-10-25, 18:54:14
wenn der ram dafür spezifiziert ist, sehe ich da kein problem. bei der gpu ist das nat. eine andere sache. aber auch da kann man das risiko minimieren wenn man es mit der spannung nicht übertreibt und auf bessere kühlung ala silencer setzt.

Das mit dem Ram ist mir klar,der ist ja auf 1,4ns spezifiziert also 700MHz,was mich dann nur wundert warum ATI den dann nicht im vorraus mit 600MHz oder mehr ausliefert,für mich muss die Sache da einen Harken haben den ATI eingebaut hat oder meint ihr nicht :confused: ,für 500MHz Speicher hätte es auch 2ns ram getan,selbst den kann man meist auf 550 takten.

MFG
Frank

Gast
2005-10-25, 19:00:58
Wie hoch man RAM takten kann hängt ja net nur von den Bausteinen ab sondern auch von der Verkablung, sprich dem Platinenlayout. Bei den hohen Frequenzen ist das sogar ein ganz entscheidender Punkt. Vielleicht traut ATI der Kombination Layout/RAM einfach net mehr für einen sicher stabilen Betrieb zu. Ein bisserl Sicherheit muss ja auch sein man kann wegen der Bauteiletoleranzen net bis ganz an die (individuell mögliche) Grenze gehen.

Gandharva
2005-10-25, 19:04:53
Wie hoch man RAM takten kann hängt ja net nur von den Bausteinen ab sondern auch von der Verkablung, sprich dem Platinenlayout. Bei den hohen Frequenzen ist das sogar ein ganz entscheidender Punkt. Vielleicht traut ATI der Kombination Layout/RAM einfach net mehr für einen sicher stabilen Betrieb zu. Ein bisserl Sicherheit muss ja auch sein man kann wegen der Bauteiletoleranzen net bis ganz an die (individuell mögliche) Grenze gehen.

auf der xt gehts ja auch. wie bescheuert wäre ati da 2 layouts zu verwenden? oder etwa doch?

Frank1974
2005-10-25, 19:10:56
Wie hoch man RAM takten kann hängt ja net nur von den Bausteinen ab sondern auch von der Verkablung, sprich dem Platinenlayout. Bei den hohen Frequenzen ist das sogar ein ganz entscheidender Punkt. Vielleicht traut ATI der Kombination Layout/RAM einfach net mehr für einen sicher stabilen Betrieb zu. Ein bisserl Sicherheit muss ja auch sein man kann wegen der Bauteiletoleranzen net bis ganz an die (individuell mögliche) Grenze gehen.

Genau das meinte ich ja auch damit,wenn ATI nur 500MHz freigibt beim Speicher dann werden die doch auch ihre Gründe haben oder nicht?

Ich will ja damit nicht sagen das bei 500MHz ende ist,aber von 500 auf über 700 :eek: ,ist ja wirklich klasse aber wenn das alle XL karten mitmachen werden sie bestimmt kaum XTs verkaufen..

MFG
Frank

sklave_gottes
2005-10-25, 19:13:09
also nun noch mal meine frage wieviel vcore hast du jetzt auf ram und gpu bei 650/700 misterh ?

mfg matin

Gandharva
2005-10-25, 19:14:27
Ich will ja damit nicht sagen das bei 500MHz ende ist,aber von 500 auf über 700 :eek: ,ist ja wirklich klasse aber wenn das alle XL karten mitmachen werden sie bestimmt kaum XTs verkaufen..

jein, viel eher wird zukünftig schlechterer speicher verbaut werden.

E.F_Cobra
2005-10-25, 19:17:55
Ja wieviel Volt haste der GPU\Ram gegeben???

Und welcher Treiber genau mit CP\CCC??

thx

gruss

misterh
2005-10-25, 19:19:13
also nun noch mal meine frage wieviel vcore hast du jetzt auf ram und gpu bei 650/700 misterh ?

mfg matin

GPU laut ATI-Tool 1.2v bzw Overclocker 1.25v (standard 1.05v bzw 1.1v)
Ram laut 1.95v (standard 1.9v)

P.S.: Ja ich werde neue Kühler besorgen.

Gast
2005-10-25, 19:22:13
GPU laut ATI-Tool 1.2v bzw Overclocker 1.25v (standard 1.05v bzw 1.1v)
Ram laut 1.95v (standard 1.9v)

P.S.: Ja ich werde neue Kühler besorgen.
Solange die Karten im grünen bereich bleibt kann die Karte auch nicht verdampfen.M;)

Frank1974
2005-10-25, 19:22:54
GPU laut ATI-Tool 1.2v bzw Overclocker 1.25v (standard 1.05v bzw 1.1v)
Ram laut 1.95v (standard 1.9v)

P.S.: Ja ich werde neue Kühler besorgen.

Bin am überlegen mir auch eine zukaufen,was fürn Kühler kann man denn auf die XL packen,gibt es da schon passende?

mfg
Frank

ll
2005-10-25, 19:23:52
GPU laut ATI-Tool 1.2v bzw Overclocker 1.25v (standard 1.05v bzw 1.1v)
Ram laut 1.95v (standard 1.9v)

P.S.: Ja ich werde neue Kühler besorgen.
Bei denn Takt kann sich dei Karte richtig empfalten siehe Xt,Xl bricht öfters in 1600 ein jetzt woll geschichte.;)Für was ne Xt kaufen wenn die Xl genauso geht oder höher,ram wer weiss wann mann massiv 512 braucht.;)400 Euro @ Xt ist wie cih finde in ordnung.

Gast
2005-10-25, 19:30:15
Fragt sich nur ob die Bauteile das auf Dauer mitmachen, ich denke da vor allem an die Spannungsversorgung. Ist das die gleiche wie bei der XT?

-error-
2005-10-25, 19:35:40
Bin am überlegen mir auch eine zukaufen,was fürn Kühler kann man denn auf die XL packen,gibt es da schon passende?

mfg
Frank

Ich will jetzt nichts Falsches sagen, aber das Layout ist ja mit der GT(X) identisch, die Löcher sitzen auch da, wo sie bei nVidia sitzen.

Demnach dürfte der VF700 passen, das ist der beste Kühler.

Frank1974
2005-10-25, 19:39:40
@misterh

Hast du das Spiel Fear,oder die Demo,könntest das bitte mal auf ein paar verschiedenen Auflösungen Benchen bitte :smile:

Mich würde da wirklich interesieren wie sich die 256MB deiner hochgetakteten GK gegen eine 1800XT mit 512 MB schlagen,es gibt ja genügend Benches der 1800XT in Netz.

ps. du brauchst die MP Demo,nur mit der kann man Benchen,oder wie gesagt die Vollversion.

thx
Frank

Johnny Rico
2005-10-25, 19:47:37
Ich glaub ich hol mir auch ne XL, dann sag ich Euch auch was Ihr an Lautstärke erwarten könnt. Mein System ist nämlich seeeeeehr leise und wenn dann nen Brüller reinkommt -> ~~;:

Tarkin
2005-10-25, 19:56:24
misterh

hast du Quake4?

mich würde interessieren wieviel fps du bei diesem Timedemo http://www.forum-3dcenter.org/vbulletin/showthread.php?t=255629 (mit den neuen Hotfix Treibern 5.10a) hast.

1024x768 und 1600x1200 jeweils mit 4xAA und 8xAF (nicht HQAF) hast

THX im voraus!!

misterh
2005-10-25, 19:59:04
hier 3DMark2003 mit 648/702

P.S.: Eben hörte ich erste mal laute ton. Ich vermute mal dass es nur dann kommt, wenn es zu heiss wird?

Edit: Hab leider kein Quake4

Gast
2005-10-25, 20:00:05
Jo, die Karte schreit um Hilfe ;D ;D ;D

mustrum
2005-10-25, 20:15:32
Hmm das ist ja schon arg viel mehr Spannung was du der GPU da gibts. Da wundert mich der OC dann auch nicht mehr.
Die Frage ist ob die Wandler und Platine von der XT sind. Wenn ja würds ja nichts ausmachen. Wenn nein - naja ist ja deine Karte. ;D

Tom2110
2005-10-25, 20:26:11
ja wow gleich 1,2V mustrum das is ja soooo viel die geht davon echt gleich kaputt.

also ich würd da ohne bedenken bei nicht zu hoher temperatur bis 1,4V geben

9800ProZwerg
2005-10-25, 20:27:17
Hmm das ist ja schon arg viel mehr Spannung was du der GPU da gibts.

:confused:
Von 1,1V auf 1,2V ist arg viel?

Das ist absolut unbedenklich! So lange die Temps in Ordnung sind!

@misterh
Ich würde die Karte @XT also 625/700 laufen lassen!
Mit den Taktfrequenzen würden mich mal paar timedemos interessieren!
SO könnte man gut vergleichen was die zusätzlichen 256MB bei der XT bringen!?

Edit: Ah, die XT läuft ja mit 625/750 :rolleyes:

mustrum
2005-10-25, 20:43:42
:confused:
Von 1,1V auf 1,2V ist arg viel?

Das ist absolut unbedenklich! So lange die Temps in Ordnung sind!

@misterh
Ich würde die Karte @XT also 625/700 laufen lassen!
Mit den Taktfrequenzen würden mich mal paar timedemos interessieren!
SO könnte man gut vergleichen was die zusätzlichen 256MB bei der XT bringen!?

Edit: Ah, die XT läuft ja mit 625/750 :rolleyes:
Das kann sein, muss aber nicht sein. Das kann und wird sich erst zeigen. Für viele 6800 GT's war 0.1v zuviel. Ich selber hatte kurz solch eine. Da hat auch Wasserkühlung nichts gebracht.
Von 1.1v auf 1.4v ist unverantwortlich egal mit was für Temperaturen.
Zum benchen kann man sowas ja machen aber für 24/7 Betrieb kann das nur in die Hose gehn.
Die RMA's zahlt dann wieder der Endkunde. :mad:

Zugegeben ATI Karten sind üblicherweise sehr vmod freundlich aber wieviel zuviel ist zeigt erst noch.

9800ProZwerg
2005-10-25, 20:47:47
Also um 0,1V ist kein Problem!
Die ganzen 6800/LE kann man doch auch um 0,1V erhöhen!

mustrum
2005-10-25, 21:01:40
Also um 0,1V ist kein Problem!
Die ganzen 6800/LE kann man doch auch um 0,1V erhöhen!
Eben nicht alle. Manche resultieren dir das ganze mit einem netten pinken Bildschirm. Bei mir gingen alle Benchmarks mit 0.1v mehr aber CSS: ist mit pinkem Bildschirm abgeschmiert - egal bei welchem Takt. 350 oder 440mhz.

0.1v sind viel nicht wenig. Gib einem einer 6800 GT 0.2v mehr und sie wird sterben - und zwar bald.
0.3v würde nur jemand geben der einen Benchmarkscore will und sich einen Dreck um die Karte schert.

Kann bei der XL natürlich anders sein aber darauf verlassen kann man sicher (noch) nicht.

StefanV
2005-10-25, 21:05:03
Naja, die XTs werden ja mit 1,3V Corespannung ausgeliefert, das sollte gerad noch OK sein.

PS: mir ist ein Riegel RAM (TakeMS) in einem Epox 8HDA5+ gestorben, das gern mal 2,75V gegeben hat, was dem Riegel RAM wohl nicht soo sehr passte...s

r00t
2005-10-25, 21:21:04
hier 3DMark2003 mit 648/702

P.S.: Eben hörte ich erste mal laute ton. Ich vermute mal dass es nur dann kommt, wenn es zu heiss wird?

Edit: Hab leider kein Quake4


irgendwie check ich das nicht...mit meiner übertakteten gt hab ich mehr punkte im 03er als du..aber im 05er hast du mehr...wie soll ich das verstehn?!

Gast
2005-10-25, 21:34:24
hier 3DMark2003 mit 648/702

P.S.: Eben hörte ich erste mal laute ton. Ich vermute mal dass es nur dann kommt, wenn es zu heiss wird?

Edit: Hab leider kein Quake4
Solange die Temps in ordnung sind brauchst du dir keine sorgen machen.;)

Ha Chi
2005-10-25, 21:36:47
Lest mal, was dieser Herr hier zu sagen hat:
http://forums.anandtech.com/messageview.aspx?catid=31&threadid=1720840&enterthread=y

BodyLove
2005-10-25, 21:41:14
irgendwie check ich das nicht...mit meiner übertakteten gt hab ich mehr punkte im 03er als du..aber im 05er hast du mehr...wie soll ich das verstehn?!

CPU?

Gast
2005-10-25, 21:47:47
Lest mal, was dieser Herr hier zu sagen hat:
http://forums.anandtech.com/messageview.aspx?catid=31&threadid=1720840&enterthread=y

Vielleciht ging bei denn game kein Hq af,Mister h hat ja schon gesagt welche Karte ein bessere Bild liefert.Er sagt zwar das er kein Fanboy ist aber wers glaubt.;)

misterh
2005-10-25, 21:48:16
X1800XL 500/500 @ 655/711

Ha Chi
2005-10-25, 21:49:37
Vielleciht ging bei denn game kein Hq af,Mister h hat ja schon gesagt welche Karte ein bessere Bild liefert.Er sagt zwar das er kein Fanboy ist aber wers glaubt.;)
Ach Gott, bisschen IQ hier oder da ist mir jetzt gerade wurscht. Mich stört die bemängelte Lautstärke (selbst mit 5.10a)!

misterh
2005-10-25, 21:53:06
Vielleciht ging bei denn game kein Hq af,Mister h hat ja schon gesagt welche Karte ein bessere Bild liefert.Er sagt zwar das er kein Fanboy ist aber wers glaubt.;)

Bin Neutral. kannst jeden hier fragen.

ATI, XGI, S3, Nvidia, 3DFX. mit jede karte hatte ich gehabt bzw hab ich noch. Ich würde auch sogar unbekannte kaufen!

Blaire
2005-10-25, 21:53:09
Vielleciht ging bei denn game kein Hq af,Mister h hat ja schon gesagt welche Karte ein bessere Bild liefert.Er sagt zwar das er kein Fanboy ist aber wers glaubt.;)

Schimmering muss nicht immer mit AF zusammenhängen. Bestes Beispiel sind doch die 2 Videos aus BF2 von MisterH die selbst bei HQ AF sichtbares Grieseln aufzeigen.

dildo4u
2005-10-25, 21:53:16
X1800XL 500/500 @ 655/711
Holy Shit als hättest du eine Reviewer Karte erwischt.:eek:

Ha Chi
2005-10-25, 21:56:42
Schimmering muss nicht immer mit AF zusammenhängen. Bestes Beispiel sind doch die 2 Videos aus BF2 von MisterH die selbst bei HQ AF sichtbares Grieseln aufzeigen.
Kannst mir mal den Link dazu geben, bitte? :)

Blaire
2005-10-25, 22:03:28
Kannst mir mal den Link dazu geben, bitte? :)

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3595951&postcount=179

erwingage
2005-10-25, 22:07:35
wenn der misterh weiter so taktet werde ich mir überlegen ob ich mein sli board gleich wieder verkaufe :confused: und ein normales asus A8n-e hole+x1800xt(512mb) :wink:

Ha Chi
2005-10-25, 22:09:29
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3595951&postcount=179
Dankeschön :)
Dachte, das wäre mit einer GTX entstanden, aber nun seh ich: XL

misterh
2005-10-25, 22:10:07
Sorry leute. aber jetzt war echt grade knapp :biggrin:
Aber auch da ohne Fehler. Und ich werde nicht mehr weiter testen.

X1800XL 500/500 @ 668/711

P.S.: Und ich muss stärkere Kühler holen, aber werde mal abwarten. Bzw jetzt kann was anderes kommen.

MikBach
2005-10-25, 22:11:44
Sorry leute. aber jetzt war echt grade knapp :biggrin:

Was meinst du damit?

misterh
2005-10-25, 22:14:16
Was meinst du damit?

Hitze halt. da scheiss lüfter zu hoch dreht -> laut.

reunion
2005-10-25, 22:14:23
Sorry leute. aber jetzt war echt grade knapp :biggrin:
Aber auch da ohne Fehler. Und ich werde nicht mehr weiter testen.

X1800XL 500/500 @ 668/711


Der Core sollte mindestens 1.3V mitmachen, vermutlich weitaus mehr, denn damit wird die XT-Version standardmäßig betrieben. Und der RAM ist AFAIK auch mit 2V spezifiziert, ATi wollte wohl die Übertaktungsergebnisse etwas eindämmen.

Hitze halt. da scheiss lüfter zu hoch dreht -> laut.

Oh, das ist natürlich etwas anderes.

desperado2000
2005-10-25, 22:22:22
Der Core sollte mindestens 1.3V mitmachen, vermutlich weitaus mehr, denn damit wird die XT-Version Standardmäßig betrieben. Und der RAM ist AFAIK auch mit 2V spezifiziert, ATi wollte wohl die Übertaktungsergebnisse etwas eindämmen.



Oh, das ist natürlich etwas anderes.


wann gibts passende Arctic Silencer????
Dann sollte dieses Prob ja erledigt sein...

-error-
2005-10-25, 22:29:29
wann gibts passende Arctic Silencer????
Dann sollte dieses Prob ja erledigt sein...

Der Lochabstand zur GT(X) sollte gleich sein.

rpm8200
2005-10-25, 22:39:01
Jetzt interessiert mich aber, warum der Lochabstand der selbe ist/ sein sollte?

Also das hätte ich auf jeden Fall nicht vermutet.

Dunkeltier
2005-10-25, 22:39:16
Der Core sollte mindestens 1.3V mitmachen, vermutlich weitaus mehr, denn damit wird die XT-Version standardmäßig betrieben. Und der RAM ist AFAIK auch mit 2V spezifiziert, ATi wollte wohl die Übertaktungsergebnisse etwas eindämmen.



Oh, das ist natürlich etwas anderes.


Bitte? Dann bräuchte man also die GPU-Spannung nur von 1,1V auf 1,3V und den RAM von 1,9V auf 2,0V anheben und hat praktisch eine vollwertige XT? Und die Chips sind identisch (Größe, Transistorenzahl, etc.)? misterH, kannst du bitte noch den Speicher etwas weiter austesten, wenns geht? Ich glaube, dann würde ich mir auch nur die kleine holen...

misterh
2005-10-25, 22:43:49
Bitte? Dann bräuchte man also die GPU-Spannung nur von 1,1V auf 1,3V und den RAM von 1,9V auf 2,0V anheben und hat praktisch eine vollwertige XT? Und die Chips sind identisch (Größe, Transistorenzahl, etc.)? misterH, kannst du bitte noch den Speicher etwas weiter austesten, wenns geht? Ich glaube, dann würde ich mir auch nur die kleine holen...

ne sry mir ist risiko in mom zu gross.

mustrum
2005-10-25, 22:50:59
Jede NV40 Core würde nach der Theorie 1.4v aushalten. Tun sie aber nicht. (Auch mit Ultra Wandlern nicht immer)
Dazu kommt auch noch, daß die Spannungswandler vieleicht nicht dieselben sind.

Misterh: Du hast eine phantastische Karte in deinen Händen. Übertreibs nicht. Wenn das Teil abfackelt wirds vieleicht schwer noch so ein Prachtexemplar zu bekommen.

Gratuliere zu dem Oc übrigens. :eek:

misterh
2005-10-25, 22:58:28
jo Danke. :wink:

-error-
2005-10-25, 23:10:34
Jetzt interessiert mich aber, warum der Lochabstand der selbe ist/ sein sollte?

Also das hätte ich auf jeden Fall nicht vermutet.

Das Layout ist doch volkommen identisch.

http://img173.imageshack.us/img173/9149/vergleich0zq.jpg

Die Karten sind schonmal gleich lang.

StefanV
2005-10-25, 23:26:49
Der Lochabstand zur GT(X) sollte gleich sein.
Nein, ist er mit sehr großer Sicherheit nicht!

dargo
2005-10-25, 23:27:39
möcht wetten das war nur nen gerücht, dass die net gut zu takten gehen sollen
Ich glaube eher, daß die "schlechten" GPUs gar nicht nach Europa gekommen sind. Wird nicht am Anfang immer Japan und die USA beliefert ?

dargo
2005-10-25, 23:33:54
Also um 0,1V ist kein Problem!
Die ganzen 6800/LE kann man doch auch um 0,1V erhöhen!
Der NV40 ist auch ein 130nm Chip. ;)
Trotzdem sollte es der GPU nichts ausmachen. Die XT hat ja noch mehr Spannung. Ein Problem sehe ich aber bei den anderen Bauteilen auf Dauer, wenn die XL kein XT Platinenlayout hat.

-error-
2005-10-25, 23:36:42
Nein, ist er mit sehr großer Sicherheit nicht!

Wieso weißt du das so genau?

misterh
2005-10-25, 23:36:54
Der NV40 ist auch ein 130nm Chip. ;)
Trotzdem sollte es der GPU nichts ausmachen. Die XT hat ja noch mehr Spannung. Ein Problem sehe ich aber bei den anderen Bauteilen auf Dauer, wenn die XL kein XT Platinenlayout hat.

XT - XL
http://img95.imageshack.us/img95/1644/xt3pd.th.jpg (http://img95.imageshack.us/my.php?image=xt3pd.jpg) - http://img95.imageshack.us/img95/9804/xl9vt.th.jpg (http://img95.imageshack.us/my.php?image=xl9vt.jpg)

Gast
2005-10-25, 23:45:47
Jede NV40 Core würde nach der Theorie 1.4v aushalten. Tun sie aber nicht. (Auch mit Ultra Wandlern nicht immer)
Dazu kommt auch noch, daß die Spannungswandler vieleicht nicht dieselben sind.

Misterh: Du hast eine phantastische Karte in deinen Händen. Übertreibs nicht. Wenn das Teil abfackelt wirds vieleicht schwer noch so ein Prachtexemplar zu bekommen.

Gratuliere zu dem Oc übrigens. :eek:
Woher wilst du das wissen vielleciht gehen alle Xl soweit.;)

dargo
2005-10-25, 23:49:28
XT - XL
http://img95.imageshack.us/img95/1644/xt3pd.th.jpg (http://img95.imageshack.us/my.php?image=xt3pd.jpg) - http://img95.imageshack.us/img95/9804/xl9vt.th.jpg (http://img95.imageshack.us/my.php?image=xl9vt.jpg)
Hmm, sehen auf dem ersten Blick identisch aus. Sind aber auch alle Bauteile gleich groß dimensioniert ?
Die Elkos sind es schon mal. :)

-error-
2005-10-25, 23:54:02
Gibt es eigendlich auch Übertakter, die die Bauteile durch sehr hochwertige austauschen?

Gast
2005-10-25, 23:55:00
Fällt mir jetzt erst auf, die Karten haben verdammt wenig Elkos, fast gar keine, ist das ein neues Design?

Gast
2005-10-25, 23:55:43
Ich meine in der Spannungsversorgung...

Huhn
2005-10-26, 00:17:16
Gibt es eigendlich auch Übertakter, die die Bauteile durch sehr hochwertige austauschen?
bei mainboards wird sowas durchaus gemacht. oder aber man fügt noch ein par elkos ein.

sklave_gottes
2005-10-26, 00:22:12
sorry for ot

hast du vieleicht ein link dazu ? @huhn

@misterh

echt geiler oc herzlichen glückwunsch
das macht sucht nach mehr

Johnny Rico
2005-10-26, 01:28:14
Wer hat denn schon alle sone Karte und wer bekommt demnächst eine? Hat der Thread Euch nicht ein wenig "heiss" gemacht?

Spasstiger
2005-10-26, 01:29:54
Wer hat denn schon alle sone Karte und wer bekommt demnächst eine? Hat der Thread Euch nicht ein wenig "heiss" gemacht?

Ein Komilitone von mir will sich nächsten Monat einen neuen Rechner zusammenbasteln mit einer Radeon X1800 XT. Ich soll ihm dabei helfen. :up:

StefanV
2005-10-26, 01:45:26
Fällt mir jetzt erst auf, die Karten haben verdammt wenig Elkos, fast gar keine, ist das ein neues Design?
Schau mal an den rechten Rand, da wo der Kühlkörper ist...

Rechts und links davon, das sind die ganzen Kondensatoren, diese braunen Dinger da...

-error-
2005-10-26, 01:54:59
Schau mal an den rechten Rand, da wo der Kühlkörper ist...

Rechts und links davon, das sind die ganzen Kondensatoren, diese braunen Dinger da...

Und was macht die jetzt da soch sicher, dass der Lochabstand nicht mit der GT(X) identisch ist?

Mumins
2005-10-26, 02:08:16
Nein, ist er mit sehr großer Sicherheit nicht!

Er ist derselbe, da bei einem Preview von vr-zone ein Nvidia Silencer auf die Karte geschraubt wurde.

Gast
2005-10-26, 07:58:35
Schau mal an den rechten Rand, da wo der Kühlkörper ist...

Rechts und links davon, das sind die ganzen Kondensatoren, diese braunen Dinger da...

http://img95.imageshack.us/img95/9804/xl9vt.jpg

Ja, das sind keramische Kondensatoren aber keine Elkos. Von der Kapazität in der Grössenordnung 100-1000 x kleiner als bei den alten Designs, das ist es ja was mich wundert. Ein Elektroniker hier der was genaueres dazu sagen kann?

seahawk
2005-10-26, 08:25:51
grandios sicher nicht, aber schlecht isses auch nicht. beim speicher sinds ohne vram erhöhung immerhin 32%. ;)

mal abwarten, wie es mit anderen x1800xls aussieht. jedenfalls ist es sehr schön, dass man sie spannung jetzt ohne eingriff in die hw erhöhen kann.

Typisch ATI die ersten Karten gingen immer am höchsten. Da geben die immer etwas mehr Spannung als nötig. Andererseits ist das Risiko imho auch sher hoch, besonders bei einer Spannungserhöhung.

mustrum
2005-10-26, 09:48:47
Woher wilst du das wissen vielleciht gehen alle Xl soweit.;)
Ich weiß es nicht. :smile:
Die Wahrscheinlichkeit ist aber gering denn dann kämen die Karte ganz einfach höher getaktet. ;)
Die GTX gehn aber alle ganz gut weshalb es schon sein könnte.
Der Trend gefällt mir an sich ganz gut. :biggrin:
Die Hersteller gehn wohl nicht mehr so an die Grenze wie früher.

HanSolo78
2005-10-26, 10:02:01
Har har... hier noch so eine nette Karte, die fast ähnlich wie die von misterh geht:
http://www.xtremesystems.org/forums/showthread.php?p=1103845#post1103845
Alles mit default Lüfter... ok.. die CPU ist nen bisl schneller..

Gast
2005-10-26, 10:44:07
Har har... hier noch so eine nette Karte, die fast ähnlich wie die von misterh geht:
http://www.xtremesystems.org/forums/showthread.php?p=1103845#post1103845
Alles mit default Lüfter... ok.. die CPU ist nen bisl schneller..
Why M.c.a also kann mann davon ausgehen das man eine Xl fast oder auf Xt Level bringen kann.Das kann technisch eine Gt ja nicht schaffen ich bestell mir eine Xl gleich.Wenn aber in denn nächsten Monat keine MAster Karte rauskommt werde ich wütend.

mustrum
2005-10-26, 11:06:38
Why M.c.a also kann mann davon ausgehen das man eine Xl fast oder auf Xt Level bringen kann.Das kann technisch eine Gt ja nicht schaffen ich bestell mir eine Xl gleich.Wenn aber in denn nächsten Monat keine MAster Karte rauskommt werde ich wütend.
Dann lass es. Reviewer haben für November Masterkarten versprochen bekommen. Bis das ganze dann dem Endkunden zur verfügung steht, dauert das dann noch eine Weile.

seahawk
2005-10-26, 11:38:12
Vergeßt bitte nicht, dass die jetzigen XLs alle auf der alten Chiprevision basieren und wohl eigentlich mal XTs werden sollten. Man allerdings 625Mhz nicht mit ausreichender Sicherheit aus den Chips holen konnte. Wie sich die neue Revision verhält leibt abzuwarten. Sie kann noch besser sein, oder eben durch einen reduzierten Coretakt schlechter.

misterh
2005-10-26, 11:40:43
Vergeßt bitte nicht, dass die jetzigen XLs alle auf der alten Chiprevision basieren und wohl eigentlich mal XTs werden sollten. Man allerdings 625Mhz nicht mit ausreichender Sicherheit aus den Chips holen konnte. Wie sich die neue Revision verhält leibt abzuwarten. Sie kann noch besser sein, oder eben durch einen reduzierten Coretakt schlechter.

woher willst du das wissen ob das so ist? Wer sagt es dass zb mein X1800XL ein alte chiprevision hätte? Kann ja sein dass es nur gerüchte war?

Gast
2005-10-26, 11:47:53
woher willst du das wissen ob das so ist? Wer sagt es dass zb mein X1800XL ein alte chiprevision hätte? Kann ja sein dass es nur gerüchte war?

Genau vielleciht war das auch nur ein Gerücht von ein Fanboy.

seahawk
2005-10-26, 12:33:08
woher willst du das wissen ob das so ist? Wer sagt es dass zb mein X1800XL ein alte chiprevision hätte? Kann ja sein dass es nur gerüchte war?

Die Antwort ist simpel und einfach, die ersten ausgeliefterten XL Karten haben die alte Revision, das wurde sogar von ATI bestätigt.

reunion
2005-10-26, 12:38:43
woher willst du das wissen ob das so ist? Wer sagt es dass zb mein X1800XL ein alte chiprevision hätte? Kann ja sein dass es nur gerüchte war?

Es gibt sogar drei Chiprevisionen, welche an den Endkunden ausgeliefert werden: A14, A15 und A23.
Wobei die erste Zahl nach dem "A" für die Silicon-Revision steht, und die zweite für die Metal-Layer-Anzahl.

A14 sind die alten Cores, welche sich angeblich nicht hoch genug takten ließen, und in den ersten XLs verbaut werden. A15 ist ein "vollwertiger" Core, den man auch als XT-Version kaufen wird können; dieser ging auch an die Reviewer. Dann gibt es allerdings auch noch Revision A23, wo ATi die Transistorenanzahl erhöht hat, dafür aber die Metal-Layer reduziert hat -ebenfalls ein "vollwertiger" Core. Man hat wohl zwei Wege eingeschlagen, um das Taktproblem zu lösen, welcher sich durchsetzt wird, ist schwer zu sagen.

Du kannst ja mal den Kühler abnehmen, und schauen, welche Revision du hast.

Die gelbe Eule
2005-10-26, 13:02:32
Würde es dann nicht noch mehr geben, da man bei UMC und TSMC gleichzeitig fertigen läßt?

Gast
2005-10-26, 13:05:15
Bei UMC werden nur low-end Chips gefertigt. Die R1xxx Teile kommen alle von TSMC.

Gast
2005-10-26, 13:22:31
also ich hätt noch nen benchmark-vorschlag ^^
hab mir jetzt alle 30 seiten durchgelesen und ich glaube mich zu erinnern, dass das noch nicht vorkam ^^

aber kannst du mal testen, wie es bei dawn of war: winter assault aussieht?
besonders in gefechten mit der imperial army, denn da bricht meine karte heftig ein ^^

thx im voraus

-error-
2005-10-26, 14:19:48
Es gibt sogar drei Chiprevisionen, welche an den Endkunden ausgeliefert werden: A14, A15 und A23.
Wobei die erste Zahl nach dem "A" für die Silicon-Revision steht, und die zweite für die Metal-Layer-Anzahl.

A14 sind die alten Cores, welche sich angeblich nicht hoch genug takten ließen, und in den ersten XLs verbaut werden. A15 ist ein "vollwertiger" Core, den man auch als XT-Version kaufen wird können; dieser ging auch an die Reviewer. Dann gibt es allerdings auch noch Revision A23, wo ATi die Transistorenanzahl erhöht hat, dafür aber die Metal-Layer reduziert hat -ebenfalls ein "vollwertiger" Core. Man hat wohl zwei Wege eingeschlagen, um das Taktproblem zu lösen, welcher sich durchsetzt wird, ist schwer zu sagen.

Du kannst ja mal den Kühler abnehmen, und schauen, welche Revision du hast.

Woher hast du diese Informationen? Also, das stimmt schon, habe ich selbst gelesen, aber ich meine die spezielle Bezeichnung.

diedl
2005-10-26, 14:33:21
Könntest du die Karte auch einmal untertakten?
Unter 2D braucht man ja meistens nicht die volle Leistung. :wink:
(Weniger Stromverbrauch, Abwärme und damit wohl auch leiser)
Wie weit geht es ohne Bildfehler nach unten und welche Spannung
wird dabei noch benötigt?
Wird die Unterstützung von Videos z.B. HD TV dabei (deutlich) schlechter?
(CPU Auslastung, oder gar Ruckeln)

mfg diedl

BodyLove
2005-10-26, 15:01:28
Vergeßt bitte nicht, dass die jetzigen XLs alle auf der alten Chiprevision basieren und wohl eigentlich mal XTs werden sollten. Man allerdings 625Mhz nicht mit ausreichender Sicherheit aus den Chips holen konnte. Wie sich die neue Revision verhält leibt abzuwarten. Sie kann noch besser sein, oder eben durch einen reduzierten Coretakt schlechter.

Aber eben in der WorstCase Situation. Mit besserer Kühlung ist immer Ocing drin. Wie hoch das sein wird, ist natürlich unvorhersehbar.

seahawk
2005-10-26, 15:13:33
Aber eben in der WorstCase Situation. Mit besserer Kühlung ist immer Ocing drin. Wie hoch das sein wird, ist natürlich unvorhersehbar.

Ich wollte auch nur betonen, dass sich eine andere Chiprevision anders verhalten könnte. Wobei ich mal sage, dass man besonders bei Übertaktungen bei den Revisionen unterschiedlich vorscohtig sein muss. A23 soll etwas weniger Spannung brauchen.

Gast
2005-10-26, 15:52:02
Jo, hier sieht man recht deutlich, dass das HQ-AF deutlich besser ist. Wobei es mir ab 8xAF wegen dem "Kasten" irgendwie eigenartig vorkommt ... aber das wurde auch schon besprochen. 16xAF schaut IMHO nicht besser aus. 4x dürfte der beste Kompromiss sein - homogen (un)scharf. =)

MfG,
Raff

was

Gast
2005-10-26, 15:53:10
Jo, hier sieht man recht deutlich, dass das HQ-AF deutlich besser ist. Wobei es mir ab 8xAF wegen dem "Kasten" irgendwie eigenartig vorkommt ... aber das wurde auch schon besprochen. 16xAF schaut IMHO nicht besser aus. 4x dürfte der beste Kompromiss sein - homogen (un)scharf. =)

MfG,
Raff


was zum teufel bedeutet IMHO

9800ProZwerg
2005-10-26, 15:53:56
meiner Meinug nach

Gast
2005-10-26, 16:05:59
meiner Meinug nach


kann man A.I. auch mit dem normalen control panel deaktivieren oder brauch man da CCC?

betasilie
2005-10-26, 16:19:41
kann man A.I. auch mit dem normalen control panel deaktivieren oder brauch man da CCC?
http://www.guru3d.com/article/atitraytools/189/
Das solltest Du so oder so nicht missen. ;)

Gast
2005-10-26, 16:24:47
http://www.guru3d.com/article/atitraytools/189/
Das solltest Du so oder so nicht missen. ;)


benutze eine x800 xt und die ati tray tools hab ich schon. würd nur mal gern wissen ob das "alte" control panel auch die A.I. implementierung besitzt oder ob die für das ccc reserviert ist. catalyst A.I. schaltet doch nur bildverschlimmbesserungen ab oder nicht??

betasilie
2005-10-26, 16:34:47
benutze eine x800 xt und die ati tray tools hab ich schon. würd nur mal gern wissen ob das "alte" control panel auch die A.I. implementierung besitzt oder ob die für das ccc reserviert ist. catalyst A.I. schaltet doch nur bildverschlimmbesserungen ab oder nicht??
Im CP kannst Du die AI nicht verstellen, nur mit dem CCC. ;(

AI steuert die Otimierung von Treiberseite. AI low ist optimal, und zeigt im Normalfall keinen Unterschied in der BQ zu AI off. AI high sieht schlicht mies aus.

Black-Scorpion
2005-10-26, 16:36:54
Das CP wird schon eine Weile nicht mehr weiterentwickelt.
A.I. ist beim CP auf Low (Standard) und kann nicht geändert werden.

Auf CCC umsteigen oder wie du schon getan hast die TrayTools (http://www.radeon2.ru/atitray/) vewenden.

Gast
2005-10-26, 16:37:59
dumm nur das CCC so elendig langsam startet

Johnny Rico
2005-10-26, 16:39:21
2005-10-26 16:21:41 Application terminated.
2005-10-26 16:21:45 ATITool v0.25 Beta 9 started.
2005-10-26 16:21:45 D Successfully connected to driver, version 123
2005-10-26 16:21:45 D Found ATI device: 0x1002 0x7109 bus 5 dev 0
2005-10-26 16:21:45 D fbPhy: 0xD0000000, mmrPhy: 0xFD8F0000.
2005-10-26 16:21:45 D mmapped mmr to 0xD80000
2005-10-26 16:21:45 D BIOS at 0xC0000
2005-10-26 16:21:45 D mmapped bios to 0xD90000
2005-10-26 16:21:45 D GB_TILE_CONFIG:141001f
2005-10-26 16:21:45 D 16 pipes
2005-10-26 16:21:45 D LM63 temp chip detection: success (0x1)
2005-10-26 16:21:45 D Temperature monitoring: LM63
2005-10-26 16:21:45 D VT1103 chip detection: success (0x38)
2005-10-26 16:21:45 D Device initialized successfully
2005-10-26 16:21:45 Profile 'Untertaktung' loaded. Clocks set to: 200.25 / 495.00
2005-10-26 16:21:45 Temperature: GPU: 68.1°C GPU environment: 56.0°C
2005-10-26 16:21:55 Temperature: GPU: 68.1°C GPU environment: 56.0°C
2005-10-26 16:22:05 Temperature: GPU: 68.9°C GPU environment: 56.0°C
2005-10-26 16:22:15 Temperature: GPU: 69.5°C GPU environment: 56.0°C
2005-10-26 16:22:25 Temperature: GPU: 69.8°C GPU environment: 56.0°C
2005-10-26 16:22:35 Temperature: GPU: 69.8°C GPU environment: 57.0°C
2005-10-26 16:23:15 Temperature: GPU: 68.0°C GPU environment: 55.0°C
2005-10-26 16:23:25 Temperature: GPU: 67.1°C GPU environment: 55.0°C
2005-10-26 16:23:35 Temperature: GPU: 66.9°C GPU environment: 55.0°C
2005-10-26 16:23:45 Temperature: GPU: 66.3°C GPU environment: 55.0°C
2005-10-26 16:23:55 Temperature: GPU: 66.4°C GPU environment: 55.0°C

Video gestartet
2005-10-26 16:24:05 Temperature: GPU: 66.3°C GPU environment: 55.0°C
2005-10-26 16:24:15 Temperature: GPU: 67.3°C GPU environment: 55.0°C
2005-10-26 16:24:25 Temperature: GPU: 67.4°C GPU environment: 55.0°C
2005-10-26 16:24:35 Temperature: GPU: 68.4°C GPU environment: 55.0°C
2005-10-26 16:24:45 Temperature: GPU: 68.6°C GPU environment: 55.0°C
2005-10-26 16:24:55 Temperature: GPU: 69.1°C GPU environment: 56.0°C
2005-10-26 16:25:05 Temperature: GPU: 69.5°C GPU environment: 56.0°C
2005-10-26 16:25:15 Temperature: GPU: 70.1°C GPU environment: 56.0°C
2005-10-26 16:25:25 Temperature: GPU: 70.3°C GPU environment: 56.0°C
2005-10-26 16:25:35 Temperature: GPU: 69.5°C GPU environment: 56.0°C
2005-10-26 16:25:45 Temperature: GPU: 68.6°C GPU environment: 55.0°C
2005-10-26 16:25:55 Temperature: GPU: 68.3°C GPU environment: 55.0°C
2005-10-26 16:26:05 Temperature: GPU: 67.9°C GPU environment: 55.0°C
2005-10-26 16:26:15 Temperature: GPU: 67.1°C GPU environment: 54.0°C
2005-10-26 16:26:25 Temperature: GPU: 67.1°C GPU environment: 55.0°C
2005-10-26 16:26:35 Temperature: GPU: 66.8°C GPU environment: 54.0°C
2005-10-26 16:26:45 Temperature: GPU: 66.6°C GPU environment: 54.0°C
2005-10-26 16:26:55 Temperature: GPU: 66.3°C GPU environment: 54.0°C
Video beendet

2005-10-26 16:27:05 Temperature: GPU: 66.6°C GPU environment: 54.0°C
2005-10-26 16:27:15 Temperature: GPU: 67.0°C GPU environment: 54.0°C
2005-10-26 16:27:25 Temperature: GPU: 67.8°C GPU environment: 55.0°C
2005-10-26 16:27:35 Temperature: GPU: 68.0°C GPU environment: 55.0°C
2005-10-26 16:27:45 Temperature: GPU: 68.1°C GPU environment: 55.0°C
2005-10-26 16:27:48 Profile 'Default' loaded. Clocks set to: 500.00 / 495.00

Gamma loaded
2005-10-26 16:27:55 Temperature: GPU: 68.4°C GPU environment: 55.0°C
2005-10-26 16:28:05 Temperature: GPU: 70.5°C GPU environment: 55.0°C
2005-10-26 16:28:15 Temperature: GPU: 70.8°C GPU environment: 56.0°C
2005-10-26 16:28:25 Temperature: GPU: 70.3°C GPU environment: 55.0°C
2005-10-26 16:28:35 Temperature: GPU: 69.6°C GPU environment: 55.0°C
2005-10-26 16:28:45 Temperature: GPU: 69.0°C GPU environment: 54.0°C
2005-10-26 16:28:55 Temperature: GPU: 68.5°C GPU environment: 54.0°C
2005-10-26 16:29:05 Temperature: GPU: 68.4°C GPU environment: 54.0°C
2005-10-26 16:29:15 Temperature: GPU: 67.9°C GPU environment: 54.0°C
2005-10-26 16:29:25 Temperature: GPU: 67.6°C GPU environment: 54.0°C
2005-10-26 16:29:35 Temperature: GPU: 67.3°C GPU environment: 53.0°C
2005-10-26 16:29:45 Temperature: GPU: 67.1°C GPU environment: 53.0°C
2005-10-26 16:29:55 Temperature: GPU: 66.6°C GPU environment: 53.0°C
2005-10-26 16:30:05 Temperature: GPU: 66.8°C GPU environment: 53.0°C
2005-10-26 16:30:15 Temperature: GPU: 66.5°C GPU environment: 53.0°C
2005-10-26 16:30:25 Temperature: GPU: 66.3°C GPU environment: 53.0°C
2005-10-26 16:30:35 Temperature: GPU: 66.3°C GPU environment: 53.0°C
2005-10-26 16:30:45 Temperature: GPU: 66.3°C GPU environment: 53.0°C
2005-10-26 16:30:55 Temperature: GPU: 67.1°C GPU environment: 54.0°C
2005-10-26 16:31:05 Temperature: GPU: 67.6°C GPU environment: 53.0°C
2005-10-26 16:31:15 Temperature: GPU: 68.1°C GPU environment: 54.0°C
2005-10-26 16:31:25 Temperature: GPU: 69.0°C GPU environment: 54.0°C

Johnny Rico
2005-10-26, 16:43:51
Runtertakten bringt nichts ohne die Spannung des Core zu verringern. Video abspielen und alles Andere geht auch mit 200Mhz Core.

Black-Scorpion
2005-10-26, 16:43:56
dumm nur das CCC so elendig langsam startet
Wenn du die TrayTools (http://www.radeon2.ru/atitray/) verwendest brauchst du doch das CCC nicht und kannst das CP verwenden so lange es das noch gibt.

Johnny Rico
2005-10-26, 17:39:57
Lautstärke

40% sehr leise

45% hörbar (bis hier kann man neben dem Rechner schlafen)

50% auch hörbar aber völlig i.O.

60% deutlich hörbar und leicht störend, beim Spielen eventuell noch i.O.

70% surrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr

80% laut surrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr

90% surrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr + leises Pfeifen

100% surrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr + mittleres Pfeifen


100% schaffen es die GPU auf unter 60°C zu drücken. Idle

misterh
2005-10-26, 17:42:22
@ Johnny Rico

Ach kriege ich jetzt endlich jemand das auch X1800XL besitzt?
Und hab ich recht wegen lautstärke? standard war ja 31% :wink:

Ha Chi
2005-10-26, 17:56:37
Lautstärke

40% sehr leise

45% hörbar

50% auch hörbar aber völlig i.O.

60% deutlich hörbar und leicht störend, beim Spielen eventuell noch i.O.

70% surrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr

80% laut surrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr

90% surrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr + leises Pfeifen

100% surrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr + mittleres Pfeifen


100% schaffen es die GPU auf unter 60°C zu drücken. Idle
Nix für mich :D

Johnny Rico
2005-10-26, 17:58:25
Bei mir ist laut ATI Tool b9 36% standart.
Bei 70°C dreht er dann auf 73%.
Das passiert bei mir recht häufig, da mein System ziemlich auf "Ruhe" ausgelegt ist.

Habe also erstmal folgendes verändert.

http://img393.imageshack.us/img393/8500/fanspeed12ta.png

Werde jetzt noch schauen, wie weit ich bei 500/500 die Core Spannung senken kann.

diedl
2005-10-26, 18:00:27
Runtertakten bringt nichts ohne die Spannung des Core zu verringern. Video abspielen und alles Andere geht auch mit 200Mhz Core.

Danke erst einmal,
die Spannung lässt sich nicht im Profil mit einstellen?
Gerade hier sollte man am besten einsparen können.
Aber schon seltsam das bei nicht mal halben Takt die Temperaturen
fast gleich bleiben.
Rein theoretisch müsste sich die Stromaufnahme auch um diesen Faktor
verkleinern.
Oder ist etwa der Anteil an Fehlströmen so hoch, das sich dies kaum bemerkbar macht?
Das könnte dann der Grund für den hohen Leistungsbedarf nach den
bisherigen Tests unter 2D sein.
Dann kann nur noch eine Spannungsminderung etwas bringen.
Welche VCore braucht die GPU denn noch bei 200 MHz um sicher zu arbeiten.
Lief der Lüfter bei deinen Test immer mit der gleichen Geschwindigkeit?

mfg diedl

misterh
2005-10-26, 18:02:20
Vielleicht ist das für euch interessant?

Fear MP Demo
1600x1200
X1800XL 500/500 @ 668/711

High Performance

0x AA
1x AF
AI Low
MipMap HP
http://img470.imageshack.us/img470/3629/533nd.th.jpg (http://img470.imageshack.us/my.php?image=533nd.jpg)

High Qualität

4x AAA
16x H-AF
AI Low
MipMap HQ
http://img470.imageshack.us/img470/7446/369gi.th.jpg (http://img470.imageshack.us/my.php?image=369gi.jpg)

crux2005
2005-10-26, 18:11:14
Hi
softshadows ??? On oder off ?

Gruß crux2005

misterh
2005-10-26, 18:11:37
Hi
softshadows ??? On oder off ?

Gruß crux2005

ups sorry. ja off

und Archmark 0.50

ArchMark 0.50 (http://www.zeckensack.de/archmark/)
Driver Radeon X1800 Series x86/MMX/3DNow!/SSE2 v2.0.5402 WinXP Release
Resolution 1024x768 @ unknown refresh rate
Method Flush

Fillrate
--32 bits---------------------------------------
Mode R8G8B8A8 Z24 S8
Col 9.434 GPix/s
Z 9.962 GPix/s
ColZ 5.849 GPix/s
ZPassColZ 4.523 GPix/s
ZCullLEqual 141.479 GPix/s
ZCullGEqual 141.479 GPix/s
ZCullEqual 10.508 GPix/s
S 10.529 GPix/s
SCull 10.529 GPix/s
----stencil test passed-------------------------
S 7.967 GPix/s
ZFailS 7.968 GPix/s
------z test passed (LEQUAL)--------------------
S 7.972 GPix/s
ZS 7.967 GPix/s
Col 9.442 GPix/s
ColZ 5.852 GPix/s
ColS 4.542 GPix/s
ColZS 4.542 GPix/s



--16 bits---------------------------------------
Mode R5G6B5A0 Z16 S0
Col 10.509 GPix/s
Z 10.295 GPix/s
ColZ 6.874 GPix/s
ZPassColZ 5.264 GPix/s
ZCullLEqual 141.483 GPix/s
ZCullGEqual 141.482 GPix/s
ZCullEqual 10.508 GPix/s


Bandwidth
Mode R8G8B8A8 Z24 S8
--available to buffer clears--------------------
All 72.639 GB/s
Color 38.659 GB/s
ZAndStencil 325.312 GB/s
Z 243.942 GB/s
Stencil 7.614 GB/s

Draw 49.318 GB/s
BurnedByRAMDAC 267.387 MB/s
Physical 49.585 GB/s

Geometry
Mode R5G6B5A0 Z16 S0
--Plain vertices--------------------------------
Fan 273.301 MTris/s
List 93.611 MTris/s
Clip 9.224 MTris/s

--Vertex shading speed--------------------------
LightD1 83.569 MTris/s
LightP1 55.848 MTris/s
LightP8 25.594 MTris/s


Texturing
Mode R5G6B5A0 Z16 S0
--Textured fillrate-----------------------------
----Bilinear filter-----------------------------
1 9.808 GPix/s
2 5.021 GPix/s
3 3.410 GPix/s
4 2.606 GPix/s
5 2.093 GPix/s
6 1.749 GPix/s
7 1.502 GPix/s
8 1.316 GPix/s

----Trilinear filter----------------------------
1 5.933 GPix/s
2 3.032 GPix/s
3 2.040 GPix/s
4 1.536 GPix/s
5 1.232 GPix/s
6 1.028 GPix/s
7 882.538 MPix/s
8 772.860 MPix/s



Readback
Mode R8G8B8A8 Z24 S8
--Whole buffer----------------------------------
R8G8B8A8 85.940 MPix/s
B8G8R8A8 85.701 MPix/s
R8G8B8 92.120 MPix/s
B8G8R8 92.110 MPix/s
Zuint 1.614 MPix/s
Zfloat 1.595 MPix/s
S8 1.598 MPix/s

--32x32 region----------------------------------
R8G8B8A8 22.810 MPix/s
B8G8R8A8 22.566 MPix/s
R8G8B8 23.148 MPix/s
B8G8R8 22.937 MPix/s
Zuint 1.563 MPix/s
Zfloat 1.514 MPix/s
S8 1.494 MPix/s


Texture cache
Mode R8G8B8A8 Z24 S8
RGBA 32 kiB
DXT1 32 kiB
DXT5 32 kiB

Tiling
Mode R8G8B8A8 Z24 S8
--preferred block alignment---------------------
----updating all buffers------------------------
Width 4
Height 4

----in color buffer-----------------------------
Width 4
Height 4

----in depth buffer-----------------------------
Width 2
Height 2

----in stencil buffer---------------------------
Width 2
Height 2

chrisihamm
2005-10-26, 18:28:29
Die Fear Ergebnisse bei 1600 und 4aa sind einfach nur göttlich im Gegensatzt zu meiner 7800er GTX!!!!1600mit 4aa ist garnicht denkbar!!!


mfg

Johnny Rico
2005-10-26, 18:31:55
lol

Habe gerade ein paar Min mit meinen neuen Lüftereinstellungen rthdribl_1_2 -> "DX9 Real-Time High-Dynamic Range Image-Based Lighting Version 1.2" laufen lassen.
Naja, ich teste mal weiter =) Das ein besserer Kühler drauf muss, ist jetzt schon klar.

2005-10-26 18:02:48 Profile 'OPTIMAL' loaded. Clocks set to: 499.50 / 495.00 Fan Settings loaded
2005-10-26 18:02:53 Temperature: GPU: 68.5°C GPU environment: 53.0°C

...... bis 94°C dann langsam rauf

2005-10-26 18:21:33 Temperature: GPU: 94.4°C GPU environment: 67.0°C
2005-10-26 18:21:43 Temperature: GPU: 94.4°C GPU environment: 66.0°C
2005-10-26 18:21:53 Temperature: GPU: 94.3°C GPU environment: 66.0°C
2005-10-26 18:22:03 Temperature: GPU: 94.3°C GPU environment: 67.0°C
2005-10-26 18:22:13 Temperature: GPU: 92.9°C GPU environment: 67.0°C

Blaire
2005-10-26, 18:38:18
Die Fear Ergebnisse bei 1600 und 4aa sind einfach nur göttlich im Gegensatzt zu meiner 7800er GTX!!!!1600mit 4aa ist garnicht denkbar!!!


mfg

Göttlich? Das schafft eine 7800 GTX doch auch. :confused: Das ist im übrigen noch die MP Demo die MisterH gebencht hat, die zeigt noch nicht alle Details der Final Version.

Johnny Rico
2005-10-26, 19:00:32
Wie warm darf der Core eigentlich werden?

500/500 @ 0.970V ohne Absturz, dafür vereinzelt Punkte auf dem Bildschirm.

500/500 @ 0.995V keine Fehler, leider gibt es dazwischen keine Einstellung!

Spannung vom Core muss mann nach jedem Neustart neu einstellen.

misterh
2005-10-26, 19:24:21
Spannung vom Core muss mann nach jedem Neustart neu einstellen.

ja. ist auch gut so. Wir machen hier auch nur softmod "volt"
kein Hardwaremod. :biggrin:

Gast
2005-10-26, 19:28:31
Göttlich? Das schafft eine 7800 GTX doch auch. :confused: Das ist im übrigen noch die MP Demo die MisterH gebencht hat, die zeigt noch nicht alle Details der Final Version.
Dann beweise es.

Blaire
2005-10-26, 19:34:58
Dann beweise es.

Schau doch mal in den Benchmark Thread. ;)

9800ProZwerg
2005-10-26, 19:41:11
Toller Vergleich XL vs. GTX :rolleyes:

misterh
2005-10-26, 19:42:43
Toller Vergleich XL vs. GTX :rolleyes:

ein XL auf 668/711 sollte schon passen gegen GTX :wink:

Gast
2005-10-26, 19:45:07
Schau doch mal in den Benchmark Thread. ;)
Du hast 2*Gtx also Omg halt mall denn Ball flach.

Gast
2005-10-26, 19:46:42
ein XL auf 668/711 sollte schon passen gegen GTX :wink:
Wie siehts denn gegen eine 7800 Gt aus,hast du damals deine Gt auch übertaktet?Welche von denn beiden Karten ist übertaktet schneller.

Das ist woll die wichtigste frage für viele Thx für die antwort.

crux2005
2005-10-26, 19:49:06
Hi misterh !
Kannst du bitte noch ein mal CoD2 benchen aber mit 668/711.
Und schreib ob man es spielen kann .
Danke.
Gruß crux2005

9800ProZwerg
2005-10-26, 19:49:32
ein XL auf 668/711 sollte schon passen gegen GTX :wink:

Ja, aber ne X1800XT kannste auch übertakten und dann sieht es schlecht aus für die GTX ;) !

Wenn dann sollte man ne oced X1800XL gegen 7800GT antreten lassen ;)

Blaire
2005-10-26, 19:50:24
Du hast 2*Gtx also Omg halt mall denn Ball flach.

Und? Trotzdem erreicht eine 7800GTX trotzdem auch annähernd diese X1800 Werte... :rolleyes:
Für spielbar @1600x1200 4xA/16xAF reicht eine Karte auf jeden Fall nicht aus , dafür brauchts minimum SLI oder Crossfire.

misterh
2005-10-26, 19:51:40
Hi misterh !
Kannst du bitte noch ein mal CoD2 benchen aber mit 668/711.
Und schreib ob man es spielen kann .
Danke.
Gruß crux2005

wenn man bessere Kühler kauft, sollte 668/711 auch dauerhaft spieltbar sein.

Gast
2005-10-26, 19:58:48
wenn man bessere Kühler kauft, sollte 668/711 auch dauerhaft spieltbar sein.
Dann stell denn Gpu Takt ein bisschen nidrieger und erhöhe denn Speichertakt .Meisstens ist es der Gpu Takt der probleme macht.

mustrum
2005-10-26, 20:29:11
Das aber alles mit vmod. Die GTX kann man ja auch vmodden um sie noch höher zu bringen oder? Hab mich noch nicht allzuviel damit befasst, weil ich nocht den normalen Kühler drauf habe. 550mhz sollten mit vmod schon möglich sein wenn man eine gute Karte hat.

Die XT sollte auf jeden Fall an der GTX vorbeiziehen aber der Vorsprung ist nicht besonders groß.

chrisihamm
2005-10-26, 20:58:49
Zitat Blair:

Göttlich? Das schafft eine 7800 GTX doch auch. Das ist im übrigen noch die MP Demo die MisterH gebencht hat, die zeigt noch nicht alle Details der Final Version.



Also ich habe eine 7800er gtx(500/1400) mit einem x2-4400+ (2600mhz)-
und dieses Gespann erreicht bei 1600 mit 4aa nicht diese Werte!!!Treiber ist der 81.85!!!

MikBach
2005-10-26, 21:05:45
Für spielbar @1600x1200 4xA/16xAF reicht eine Karte auf jeden Fall nicht aus , dafür brauchts minimum SLI oder Crossfire.
Das wird auf die wenigsten Spiele zutreffen.
SLI und Crossfire halte ich für nicht notwendig. Es sei denn man muss ein wenig rumprollen oder hat einen 24" Monitor.

Blaire
2005-10-26, 21:25:35
Das wird auf die wenigsten Spiele zutreffen.
SLI und Crossfire halte ich für nicht notwendig. Es sei denn man muss ein wenig rumprollen oder hat einen 24" Monitor.

Es werden eher mehr als weniger... Auch braucht man keinen 24 Zöller das ist Blödsinn. Seid wann braucht man für 1024x768 oder 1280x1024 einen 24 Zöller?
Schau dir mal bsplw. Fear ,Call of Duty 2 oder Quake 4 an, da wirste mit einer Karte schon recht früh auf Grenzen treffen, oder Details runterschrauben müssen. Im Endeffekt muss das jeder für sich selbst entscheiden was er braucht und was nicht. Aber ich bitte dich... rumprollen pfff... :D lachhaft

Gast
2005-10-26, 21:32:44
@monstrum:
vrzone hat ihre GTX, jedoch mit spezieller LuKü auf über 600Mhz gebracht, mit standrd waren 550 drinnen oder so. Und dann schlägt die GTX die XL/XT

@blaire:
bin deiner Meinung.
Vor allem wenn man 1280x1204 mit AA und AF zockt, kommt eine Karte an ihre Grenze, CoD2 oder auch FEAR. Wenn wir aber in die Zkunft gucken, auf Titel wie ElderScrolls4 z.B, werden besitzer von einzelKarten ziemliche Probs haben, vor allem mit HDR. SLI/XF Systeme werden dafür einen grossen Vorsprung haben denke ich.

Johnny Rico
2005-10-26, 21:43:46
200/500 @ 0.845V Core, noch weiter runter und es gibt Verzerrungen.

62°C @ 40% Lüfter, Temp fällt und fällt und fällt. Da werde ich nicht lange zu schauen, will ja noch was zoggn =d


EDIT:
Habe den Rechner die ganze Nacht angelassen, im Idle.
Temp Core 59°C bei 200/500 und 0.845V Corespannung. Definitiv zu viel. Meine alte 68Gt hatte da 47°C und ist max bis 67°C. Die XL ist ja standart schon bei 68°C.

Slipknot79
2005-10-26, 21:46:34
Das aber alles mit vmod. Die GTX kann man ja auch vmodden um sie noch höher zu bringen oder?






Vmod nur per Hardwaremod (Trimmer löten), ne gefährliche Geschichte^^

mustrum
2005-10-26, 22:17:37
Vmod nur per Hardwaremod (Trimmer löten), ne gefährliche Geschichte^^
Hab ich bei meiner x800 auch gemacht. ;)
Ich werds aber lassen. Die GTX ist schnell genug @500mhz.
Vieleicht macht sie ja noch mehr. Hatte noch nicht Zeit zu testen wo sie aufgibt. ;)

MikBach
2005-10-26, 22:23:37
Es werden eher mehr als weniger... Auch braucht man keinen 24 Zöller das ist Blödsinn. Seid wann braucht man für 1024x768 oder 1280x1024 einen 24 Zöller?
Zeig mir ein paar Spiele, die bei 1024 oder 1280 schlapp machen...

Schau dir mal bsplw. Fear ,Call of Duty 2 oder Quake 4 an, da wirste mit einer Karte schon recht früh auf Grenzen treffen, oder Details runterschrauben müssen.
Nicht bei 1024 oder 1280...

Im Endeffekt muss das jeder für sich selbst entscheiden was er braucht und was nicht. Aber ich bitte dich... rumprollen pfff... :D lachhaft
Eine Karte reicht.

mustrum
2005-10-26, 22:27:39
Zeig mir ein paar Spiele, die bei 1024 oder 1280 schlapp machen...

Nicht bei 1024 oder 1280...

Eine Karte reicht.
Fear läuft bei 1280x960 4X AA 16 AF nicht flüssig genug für meinen Geschmack.
Die Engine ist grauslig schlecht optimiert und einefach nur ein Hardwarefresser aber du wolltest ein Beispiel. :)

erwingage
2005-10-26, 22:34:17
@blaire

für manche ist flüssiges spielen 30-40fps :wink:
ich will lieber 80fps oder mehr haben in 1280x960 und höchsten einstellungen und details! :wink:
ich bin auch deiner meinung habe deswegen ja auch ein sli board ! :wink:

-error-
2005-10-27, 00:21:24
Was mich auch mal interessieren würde ist, wie warm die Bauteile auf der Karte werden, auf der Platine sind ja nicht gerade große Bauteile verbaut und auch das der Ram auf einer Seite gesetzt wurde, ist gut für die Kühlung.

seahawk
2005-10-27, 07:57:38
Wie siehts denn gegen eine 7800 Gt aus,hast du damals deine Gt auch übertaktet?Welche von denn beiden Karten ist übertaktet schneller.

Das ist woll die wichtigste frage für viele Thx für die antwort.

Das kann man dann nur für exakt diese beiden Karten verwenden. Es gibt praktisch nirgends eine Garantie, dass ein Karte so hoch geht. Alles über 10% Übertaktung muss man als Glück betrachten. Ich kenne 7800GTs die gehen mit Normalspannung auf 490+ Mhz GPU und welche die machen bei 450Mhz schlapp. Nicht jede X1800XL wird auf über 600 gehen. Man bendenke das problem der Chiprevisionen. Jetzt ist wahrscheinlich ne A14 drauf, das sollten mal XTs werden, konnten die 625 Mhz aber nicht unter allen Umständen und bei ausreichendem Yield bringen. A14 sollte aber fast immer um 600Mhz schaffen.

seahawk
2005-10-27, 08:01:34
Das aber alles mit vmod. Die GTX kann man ja auch vmodden um sie noch höher zu bringen oder? Hab mich noch nicht allzuviel damit befasst, weil ich nocht den normalen Kühler drauf habe. 550mhz sollten mit vmod schon möglich sein wenn man eine gute Karte hat.

Die XT sollte auf jeden Fall an der GTX vorbeiziehen aber der Vorsprung ist nicht besonders groß.

Warum ?

Ne XT hat ab Werk 625Mhz, ne GTX 430Mhz. Die meisten GTX gehen auf 490Mhz. Also ca. +14% mehr. Ne XT müßte dafür auf 712,5 Mhz gehen. Gut dafür geht der RAM bei der GTX nicht so hoch. Einen OC Vorteil für die XZ sehe ich nicht. Eher die XL ist interessant, da man diese mit OC auf volles XT Niveau und höher kriegt, während man ne GT durch die deaktivierte Pipe niemals auf volles GTX Niveau bringen kann.

Grestorn
2005-10-27, 08:41:15
Zeig mir ein paar Spiele, die bei 1024 oder 1280 schlapp machen...

Nicht bei 1024 oder 1280...

Eine Karte reicht.FEAR macht mit SoftShadows schon bei 1280 schlapp. Riddick auch.

Dennoch kann ich gut verstehen, dass man mit einer Karte sehr glücklich sein kann. Nur solltest Du aufhören aus lauter Neid alle, die sich ein Multi-GPU Setup leisten, als Prollos zu bezeichnen. Das wirft kein gutes Licht auf Dich.

MartinRiggs
2005-10-27, 09:03:46
Fear macht zwar nen Heidenspass ist aber auch Grottenschlecht programmiert, genau wie Battlefield 2.
Ich sehe es nicht ein mir für schlecht programmierte spiele 2 grafikkarten ins system zu hängen.
Ich kaufe mir auch gern Hardware, rüste teilweise auch auf wenn es noch gar nicht sein müsste.
Aber 2 Graka´s :ucrazy: :ucrazy:
Die Leute werden halt auch gut beeinflusst, wenn man sich z.b. die neue PCGH durchliest, die schreiben nämlich das die Games nur noch auf den allerneusten Karten zockbar sind bzw. SLI notwendig ist, die wollen regelrecht zur neuen Hardware drängen.
Aber lässt man ein paar details weg dann läuft z.b. FEAR auch locker auf XP 3200+ mit Radeon 9700 PRo und sieht nicht mal soo übel aus.
Aber jedem das seine :rolleyes:

Gast
2005-10-27, 10:09:25
Diese Leute würden sich auch 8 Grafikkarten in den Rechner stecken wenn es denn nur gehen würde. Kaufvieh halt.

chemistry
2005-10-27, 10:48:52
Diese Leute würden sich auch 8 Grafikkarten in den Rechner stecken wenn es denn nur gehen würde. Kaufvieh halt.

Naja, jetzt stellt ihr die Sachlage aber schon ein wenig überzeichnet dar!

Ich hab zum Beispiel einen 24" TFT und stosse schon an die Grenzen meiner Grafikkarte. Daher möchte ich jetzt umsteigen auf ein PCIe, weil die neue Karte ja nicht AGP kommt, und dann werd ich mir wohl auch ein CF Mainboard zulegen.

Ich war es bisher gewohnt, die Spiele mit AA und AF zu spielen und will es auch weiter tun. Und da muss dann halt ein CF/SLI System her. Obwohl die Spiele schon alleine in der hohen Auflösung von 1920*1200 sehr gut aussehen - und 2*AA reicht oft schon für seht gutes Aussehen.

Generell mal Gratulation zu den tollen OC Ergebnissen - bin echt beeindruckt, was aus den Karten so rauszuquetschen ist. Hoffentlich kommen nun bald die XT's und die neuen CF MasterBoards raus.....dann werden wir mal sehen und testen, was wirklich rockt.......

LG

Mr. Lolman
2005-10-27, 11:12:57
Die Leute werden halt auch gut beeinflusst, wenn man sich z.b. die neue PCGH durchliest, die schreiben nämlich das die Games nur noch auf den allerneusten Karten zockbar sind bzw. SLI notwendig ist, die wollen regelrecht zur neuen Hardware drängen.

Die PCGH schreibt überhaupt viel Mist. Das stehen 6800GTs deutlich besser da als x800xls, weil man nicht mit vergleichbarer BQ bencht. Man testet 3 Spiele und bietet ein Pauschalurteil über die Leistung an. Dann die deppaten Aufrüstguides, wo man sich mit den Prozenten sogar noch verrechnet hat.

So bekommen die Leute das Gefühl dass eine 6600GT einen deutlichen Mehrwert vgl. zur 9800pro darstellt. Nur dass die von ihren Filteroptimierungen noch viel deutlicher profitiert UND DAS (zum 23136. Mal) DABEI DIE LEISTUNG NICHT VERGLEICHBAR IST.

Einzig und allein der BQ-Vergleich ist brauchbar (von den GraKabezogenenthemen) . Aber die gewonnen Erkenntnisse haben sie nicht in ihren anderen Benchmarks verwertet. Die Chance die ich denen gegeben hab um mich nach langer Zeit wieder von der Qualität der Zeitschrift zu überzeugen, haben sie ordentlich versemmelt. ;(

MartinRiggs
2005-10-27, 11:28:23
Ich kauf mir die Zeitung eigentlich auch mehr zur belustigung bzw. als sch....haus-Lektüre.
Aber grade die aktuelle Ausgabe schießt in puncto Geschwätz bzw. inkompetenz den Vogel ab.
Z.b. benchen mit Catalyst A.I. off und wundern sich über Bildfehler, bzw. haben sowieso nur nen Beta-Treiber. :rolleyes:
Mich wundern die Proll-Kiddies mit ihrem gefährlichen Halbwissen überhaupt nicht bei so Zeitungen. :rolleyes:
Und den BQ-Vergleich haben sie eh fast von 3d-Center kopiert, wirklich auseinandergesetzt haben sie sich damit glaub ich nicht, bzw. sie ignorieren es weil bei denen auch nur der Penis-balken zählt.

9800ProZwerg
2005-10-27, 12:52:26
Wenn wir aber in die Zkunft gucken, auf Titel wie ElderScrolls4 z.B, werden besitzer von einzelKarten ziemliche Probs haben, vor allem mit HDR. SLI/XF Systeme werden dafür einen grossen Vorsprung haben denke ich.

Dann wird es aber schon die nächste Generation geben ;) !
Oder zumindest den Refresh R580 bzw. G72!

cl55amg
2005-10-27, 13:05:48
Die PCGH schreibt überhaupt viel Mist. Das stehen 6800GTs deutlich besser da als x800xls, weil man nicht mit vergleichbarer BQ bencht. Man testet 3 Spiele und bietet ein Pauschalurteil über die Leistung an. Dann die deppaten Aufrüstguides, wo man sich mit den Prozenten sogar noch verrechnet hat.

So bekommen die Leute das Gefühl dass eine 6600GT einen deutlichen Mehrwert vgl. zur 9800pro darstellt. Nur dass die von ihren Filteroptimierungen noch viel deutlicher profitiert UND DAS (zum 23136. Mal) DABEI DIE LEISTUNG NICHT VERGLEICHBAR IST.

Einzig und allein der BQ-Vergleich ist brauchbar. Aber die gewonnen Erkenntnisse haben sie nicht in ihren anderen Benchmarks verwertet. Die Chance die ich denen gegeben hab um mich nach langer Zeit wieder von der Qualität der Zeitschrift zu überzeugen, haben sie ordentlich versemmelt. ;(


ja klar, jeder der ein ATI produkt nicht gewinnen lässt der hat seine chance bei dir verspielt. Deine Filteroptimierungen entsprechen so auch nicht der wahrheit. @ high quality im NV treiber haben sie oft getestet, das ist unfäir weil dann die BQ besser als bei ATI ist...

oder soll ich mal ansprechen das crossfire nur mit aktiviertemn A.I geht was die BQ auch runter drückt?

und nein, ich favorisiere NV nicht!hatte immer schon ATI und NV karten besässen und in meiner firma eingesetzt...

irgendwann muss so ein alter spammer wie du auch erwachsen werden!

Gast
2005-10-27, 13:56:35
@cl55amg:

1. es heisst besEssen und nicht besÄssen -_-
2. ich tendiere immer dazu, gleich etwas radikal zu werden, wenn es um ne firma geht, auf die ich baue(nvidia, amd), aber selbst ich muss sagen, dass die ati-karten ne bessere BQ haben, selbst wenn ich HQ bei meiner 6800gt einschalte
3. die pcgh ist wirklich müll -_-
hab sie mir einmal gekauft und nach den ersten 20 seiten schon verbrannt, weil so viel müll drin stand...

Mr. Lolman
2005-10-27, 15:24:58
Deine Filteroptimierungen entsprechen so auch nicht der wahrheit. @ high quality im NV treiber haben sie oft getestet, das ist unfäir weil dann die BQ besser als bei ATI ist...


Die PCGH schreibt, dass ATi AI besser als NV HQ aussieht. Das ist nicht auf meinem Mist gewachsen und spiegelt die Beobachtungen div. Leute wider...

Hakkerstiwwel
2005-10-27, 15:29:13
Die PCGH schreibt, dass ATi AI besser als NV HQ aussieht. Das ist nicht auf meinem Mist gewachsen und spiegelt die Beobachtungen div. Leute wider...
Achtung:
du machst dich selbst unglaubwuerdig

Die PCGH schreibt überhaupt viel Mist......

Mr. Lolman
2005-10-27, 15:32:34
Achtung:
du machst dich selbst unglaubwuerdig

Viel Mist != nur Mist.

Ich habs schlecht formuliert. Ich meinte, selbst wenn ein Blatt wie die PCGH der Ansicht ist, dass das vglbar ist, dann wird doch wohl was dran sein.
Denn DAUs belästigt man sicher nicht mit Themen, die nur ein paar Freaks im 3DC für beachtenswert befinden.

Hakkerstiwwel
2005-10-27, 15:39:22
Viel Mist != nur Mist.

Ich habs schlecht formuliert. Ich meinte, selbst wenn ein Blatt wie die PCGH der Ansicht ist, dass das vglbar ist, dann wird doch wohl was dran sein.
Denn DAUs belästigt man sicher nicht mit Themen, die nur ein paar Freaks im 3DC für beachtenswert befinden.
Obschon ich deine Ansicht betr IQ teile, ist nicht unbedingt in jedermanns Augen Mist was in deinen Augen Mist ist. Wenn du glaubwuerdig argumentieren willst picke bitte nicht nur die Rosinen heraus die dir gerade so passen (srry for OT, ist nur ein Ratschlag)

cl55amg
2005-10-27, 15:57:51
Viel Mist != nur Mist.

Ich habs schlecht formuliert. Ich meinte, selbst wenn ein Blatt wie die PCGH der Ansicht ist, dass das vglbar ist, dann wird doch wohl was dran sein.
Denn DAUs belästigt man sicher nicht mit Themen, die nur ein paar Freaks im 3DC für beachtenswert befinden.


meine rede, egel wer auch nur was halbwegs positives zu ATI sagt, der hat recht. in der PCGH steht zwar nur mist, aber wenn es deinen ansichten entspricht, dann ist es das einzige das stimmt...

Gast
2005-10-27, 16:58:26
Dann wird es aber schon die nächste Generation geben ;) !
Oder zumindest den Refresh R580 bzw. G72!

R580 wird net viel schneller sein als der R520, ~20-30% tippe ich mal. Und während sich Einzelkartenkäufer somit jedes Jahr ne neue karte kaufen, können SLI/CF Leute ihre karten LÄNGER behalten. Wenn ich daran denke, dass ein 6800U SLI System auch locker fürs nächste jahr reciht, obwohl die 6800U schon über 2 jahre alt ist dann RESPEKT. Sprich:
Einzelkarten: jedes Jahr um mit hohen details spielen zu können, SLi/CF jede 4 jahre (pauschal gesagt)

Mr. Lolman
2005-10-27, 17:00:47
meine rede, egel wer auch nur was halbwegs positives zu ATI sagt, der hat recht. in der PCGH steht zwar nur mist, aber wenn es deinen ansichten entspricht, dann ist es das einzige das stimmt...

Geh dreh mir doch nicht bewußt die Worte im Mund um...

9800ProZwerg
2005-10-27, 17:03:28
R580 wird net viel schneller sein als der R520, ~20-30% tippe ich mal. Und während sich Einzelkartenkäufer somit jedes Jahr ne neue karte kaufen, können SLI/CF Leute ihre karten LÄNGER behalten.

SLI/CF kostet aber auch doppelt soviel!
Kannst also genauso gut einmal im Jahr die neuste Generation kaufen! Dazu hast du dann auch die neusten Feature!
Und SLI/CF wird niemals für 4 Jahre reichen!
In 4 Jahren haben wir wohl 2GIG Karten mit ~ 80 Pipes!
Die Entwicklung schreitet enorm voran!


obwohl die 6800U schon über 2 jahre alt ist dann RESPEKT.

Über 2 Jahre :confused:
Die kam letztes Jahr ~Juni raus! Also 1 Jahr und 3-4 Monate!

Spasstiger
2005-10-27, 17:04:35
Fear macht zwar nen Heidenspass ist aber auch Grottenschlecht programmiert, genau wie Battlefield 2.
Ich sehe es nicht ein mir für schlecht programmierte spiele 2 grafikkarten ins system zu hängen.[...]
Aber lässt man ein paar details weg dann läuft z.b. FEAR auch locker auf XP 3200+ mit Radeon 9700 PRo und sieht nicht mal soo übel aus.
Aber jedem das seine :rolleyes:

BF2 kannst du mit einer Radeon 9700 Pro bei etwas zurückgefahrenen Details auch noch mit 4xAA flüssig zocken. Gefällt mir sogar besser als volle Details ohne AA.
Und sieht auch noch besser aus als BF 1942 oder BF Vietnam.
Von schlechter Programmierung kann also keine Rede sein, da die Engine gut mit verschiedenen Systemen skaliert. Nur 1 GB Ram solltens sein.

InsaneDruid
2005-10-27, 17:06:19
R580 wird net viel schneller sein als der R520, ~20-30% tippe ich mal. Und während sich Einzelkartenkäufer somit jedes Jahr ne neue karte kaufen, können SLI/CF Leute ihre karten LÄNGER behalten. Wenn ich daran denke, dass ein 6800U SLI System auch locker fürs nächste jahr reciht, obwohl die 6800U schon über 2 jahre alt ist dann RESPEKT. Sprich:
Einzelkarten: jedes Jahr um mit hohen details spielen zu können, SLi/CF jede 4 jahre (pauschal gesagt)

6800U ist ca 1 Jahr und 6 Monate alt, nicht über 2. Und SLI ist noch jünger.

Spasstiger
2005-10-27, 17:10:22
6800U ist ca 1 Jahr und 6 Monate alt, nicht über 2. Und SLI ist noch jünger.

Kaufen konnte man die ersten GeForce 6800 Ultra ab Juli 2004, vorgestellt wurde sie Ende Mai 2004. Sind also sogar nur ca. 1 Jahr und 5 Monate alt. ;)

EDIT: Großer Irrtum, die GeForce 6800 Ultras wurden schon im April 2004 vorgestellt. Hast also recht. ;)

Gast
2005-10-27, 17:20:56
Kaufen konnte man die ersten GeForce 6800 Ultra ab Juli 2004, vorgestellt wurde sie Ende Mai 2004. Sind also sogar nur ca. 1 Jahr und 5 Monate alt. ;)

EDIT: Großer Irrtum, die GeForce 6800 Ultras wurden schon im April 2004 vorgestellt. Hast also recht. ;)

Ich meinte das auch: im 2ten jahr :)
nächstes jahr wird das auch reichen und 2007 wird ann eine neue kommen MÜSSEN, aufgrund von DX10.
Sprich:
Du hast eine 6800U gekauft, tauscht sie jtzt ggn 7800GTX, und im nächsten jahr auf 7900Ultra, und hast insgesamt 1200€ ausgeggeben, ~.
ODer du kaufst dir 2x6800U für 800€, und es reicht dir genausolange ;)
Ein 6800U SLi ist nämlich meistens schneller als eine 7800GTX.
Deswegen halte Ihc JETZT ein SLi/CF System aus 2x7800GT/GTX oder entsprechender ATi Karten für empfehlenswert, weil die 660€ für 2x7800GT werden bis DX10 reichen, sprich kein Aufrüsten mher. Und zu DX10 mUSS jeder aufrüsten, sprich die ein jahr alte 7900Ultra (fiktive) kann dann auch cniht mehr weitergeführt werden. Und sie wird genauso 600€ kosten wie das SLI System von 7800GTs.

Imo das sher nützlich, die nächste generation zu kaufen wird dafür unnötig sein.

fizzo
2005-10-27, 17:24:51
Ich meinte das auch: im 2ten jahr :)
Du hast eine 6800U gekauft, tauscht sie jtzt ggn 7800GTX, und im nächsten jahr auf 7900Ultra, und hast insgesamt 1200€ ausgeggeben, ~.


dir ist aber schon klar, dass man die "alten" karten verkaufen kann und dabei den "verlust" wesentlich minimieren kann...;)

misterh
2005-10-27, 17:27:16
ich mal wieder mit OC :biggrin:

X1800XL 500/500 @ 668/747
http://img375.imageshack.us/img375/2476/17151pic5nq.jpg

fizzo
2005-10-27, 17:31:01
@ misterh

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3618344&postcount=56

Gast
2005-10-27, 17:33:33
@masterh:

einfach geil............. die XL overclocked im CF Modus :D :D
Die Karte scheint für ocer erste wahl zu sein.

@fizzl:
Aber wozu? ;)
Ab 6800U wird es bis DX10 KEINE NEUEN FEATURES GEBEN, also wozu verkaufen?
Gut, TSAA, ohne das oder eben AAA will ich gar nciht leben wollen, aber sonst?

misterh
2005-10-27, 17:33:39
@ misterh

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3618344&postcount=56

Quake4?

HanSolo78
2005-10-27, 17:39:25
@misterh

hast du die Spannung des Speichers noch mal erhöht über 2V oder ist sie immer noch gleich?

fizzo
2005-10-27, 17:40:35
Quake4?

genau...einfach mal den thread durchlesen.

@ gast

wenn ich eine karte kaufe bin ich flexibler ;) ich kann ohne weiters von nv auf ati umschwenken und/oder umgekehrt. abgesehen davon, dass ich nicht auf einmal eine so grosse investition taetigen muss :D

misterh
2005-10-27, 18:02:58
@misterh

hast du die Spannung des Speichers noch mal erhöht über 2V oder ist sie immer noch gleich?

jetzt 2.0v

genau...einfach mal den thread durchlesen.

Hab jetzt Quake4 gekauft. :biggrin:

Gast
2005-10-27, 18:12:16
ich mal wieder mit OC :biggrin:

X1800XL 500/500 @ 668/747
http://img375.imageshack.us/img375/2476/17151pic5nq.jpg
MAMA MIA kannst du auch gleich 3d maro 05 mit denn Takt benchen.?

Gast
2005-10-27, 18:14:46
Einfach unglaublich der Gpu Takt geht über 100Mhz und der Speicher einfach mall so über 200 MHz.Die Karte wird gekauft muss aber erstmall nach paar Gt OC ergebnisse gucken....:up:

seahawk
2005-10-27, 18:24:37
@masterh:

einfach geil............. die XL overclocked im CF Modus :D :D
Die Karte scheint für ocer erste wahl zu sein.



Solange misterh nicht nachsieht was für eine Chiprevision er hat, sagt das Ergebnis noch wenig.

mustrum
2005-10-27, 18:27:47
Vertragen 1.4ns RAMs denn soviel?
1.6ns laufen ja @2.0v. Wie ists mit 1.4ns ?
Edit: hab meine nun getested. 697 mhz sind drin. Nicht übel für 1.6ns aber keine 700 - so knapp verdammt!

misterh
2005-10-27, 18:29:03
1600x1200
4x AA
16x AF
AI Low
X1800XL 500/500 @ 668/747

Quake4 Timedemo
28 FPS

Ka ob normal ist oder mein Treiber ältere wäre?

laut CCC steht unter Treiber-Paketversion 8.183-051013b usw

HanSolo78
2005-10-27, 18:30:44
Solange misterh nicht nachsieht was für eine Chiprevision er hat, sagt das Ergebnis noch wenig.

weiß nich so recht, ob das mit der Revision zu tun hat...!?
Auf Extremesys haben auch grad nen paar ihre Ergenisse gepostet und dort haben alle die A14 Revision, also den alten Core, wenn ich das richtig abgelesen habe. Nur die etwas früheren Herstellungswochen 0532 gehen nicht ganz so gut (ca. bis 605 GPU und 700 Mem). Die 0536er Wochen gehen alle nen bisl besser bis um 650 GPU und 775 Mem.
Naja.. mal abwarten, was man noch erwarten kann.

Gast
2005-10-27, 18:39:05
1600x1200
4x AA
16x AF
AI Low
X1800XL 500/500 @ 668/747

Quake4 Timedemo
28 FPS

Ka ob normal ist oder mein Treiber ältere wäre?

laut CCC steht unter Treiber-Paketversion 8.183-051013b usw
WElche Timedemo ?Ich würde zum vergleich mall am besten die hier nehmen !?

Johnny Rico
2005-10-27, 18:40:42
@ Misterh

In welchen Einstellungen spielst Du Serious Sam 2? Bei mir ruckelt sich das Game in 1024x768 zu tode mit 20 fps.....

Meine Treiberversion (Von ATI Seite) ist am Anfang wie Deine, nur das statt dem b ein n steht (danach noch ein bisschen was)

Ist das schlimm, wenn man im Treiber oder ATT etwas einstellt und im Spiel die Option dann nicht gibt? Beissen sich die Settings?

misterh
2005-10-27, 18:40:54
WElche Timedemo ?Ich würde zum vergleich mall am besten die hier nehmen !?

hab es von benchmark forum runtergeladen

Bin jetzt Quake4 zoggen. Aber mit standardtakt :biggrin:

Gast
2005-10-27, 18:43:26
hab es von benchmark forum runtergeladen

Bin jetzt Quake4 zoggen. Aber mit standardtakt :biggrin:
Vielleicht hat sich die Karte auch bei quake 4 Runtergetaktet.ich würde die Karte einfach auf Xt Takt stellen,über dei performance brauchen wir dann nicht reden.:D

9800ProZwerg
2005-10-27, 19:18:01
Geiler Preis:
http://www.geizhals.at/deutschland/a168705.html

Auch wenns Norskit ist, zumindest ist die Tendenz erkennbar!
So stimmt der Preis!

Morpog
2005-10-27, 19:28:42
Geiler Preis:
http://www.geizhals.at/deutschland/a168705.html

Auch wenns Norskit ist, zumindest ist die Tendenz erkennbar!
So stimmt der Preis!

verdammt ich werde langsam schwach :-)

aber ich verkneifs mir und warte noch 4 wochen und auf die XT preise :biggrin:

d2kx
2005-10-27, 19:37:31
Habe vor kurzem erst bei Norsk-IT bestellt. Find die ganz gut, weiß garnicht was viele haben. Vielleicht hatte ich ja nur Glück, ich würde da aber wieder bestellen.

9800ProZwerg
2005-10-27, 19:39:47
Habe vor kurzem erst bei Norsk-IT bestellt. Find die ganz gut, weiß garnicht was viele haben. Vielleicht hatte ich ja nur Glück, ich würde da aber wieder bestellen.

Das Thema wird an anderer Stelle diskutiert!
Hatte ehrlich gesagt auch noch nie Probs mit denen :redface:

InsaneDruid
2005-10-27, 19:41:53
Ich warte auch noch auf die XT.. oder den 580. Wenn die XL allerdings unter 300 absackt.. hm.. lecker.

MikBach
2005-10-27, 19:45:10
ich mal wieder mit OC :biggrin:

X1800XL 500/500 @ 668/747
http://img375.imageshack.us/img375/2476/17151pic5nq.jpg
Das ist schon beachtlich. :eek:
Die V-Core zu erhöhen halte ich grundsätzlich für bedenklich. Auch die Speicherspannung. Es kann gut gehen, muss aber nicht.

Aber wenn du schon dabei bist, könntest du auch 3dMurks2005 testen? :)

misterh
2005-10-27, 19:56:22
Das ist schon beachtlich. :eek:
Die V-Core zu erhöhen halte ich grundsätzlich für bedenklich. Auch die Speicherspannung. Es kann gut gehen, muss aber nicht.

Aber wenn du schon dabei bist, könntest du auch 3dMurks2005 testen? :)

mach ich morgen evtl erst. heute nicht.

Quake4
1024x768
High Qualität (nicht Ultra)
0xAA 1xAF
X1800XL
500/500 : 82.0 FPS
668/747 : 101.4 FPS

seahawk
2005-10-27, 20:01:44
weiß nich so recht, ob das mit der Revision zu tun hat...!?
Auf Extremesys haben auch grad nen paar ihre Ergenisse gepostet und dort haben alle die A14 Revision, also den alten Core, wenn ich das richtig abgelesen habe. Nur die etwas früheren Herstellungswochen 0532 gehen nicht ganz so gut (ca. bis 605 GPU und 700 Mem). Die 0536er Wochen gehen alle nen bisl besser bis um 650 GPU und 775 Mem.
Naja.. mal abwarten, was man noch erwarten kann.

Ich vermute auch, dass es ein A14er ist. Der sollte ja ursprünglich auch für die XT reichen. Nur produziert ATI jetzt A23er und ob die sich ähnlich tkaten lassen wird man sehen. Es ist möglich, nur verkauft ATI dann kaum noch XTs, was aber Absicht sein kann.

Ich erinnere mic hhalt nur an die ersten R300, die gingen oftmals auch überdurchschnittlich, wei lATI da Speicher und GPU noch etwas mehr Spannung gab.

Für den Norskitpreis macht man auf jeden Fall nichts verkehrt.

misterh
2005-10-27, 20:23:00
@ Misterh

In welchen Einstellungen spielst Du Serious Sam 2? Bei mir ruckelt sich das Game in 1024x768 zu tode mit 20 fps.....

Meine Treiberversion (Von ATI Seite) ist am Anfang wie Deine, nur das statt dem b ein n steht (danach noch ein bisschen was)

Ist das schlimm, wenn man im Treiber oder ATT etwas einstellt und im Spiel die Option dann nicht gibt? Beissen sich die Settings?

ka. hab über treiber gemacht und bei mir ruckelt auch, wenn "draussen" ist. Aber innen ist es flüssig. Je nach stelle/ort.

Slipknot79
2005-10-27, 20:32:07
>Bei mir ruckelt sich das Game in 1024x768 zu tode mit 20 fps.....


Vsynch abstellen...

Johnny Rico
2005-10-27, 20:34:28
Der "n" Treiber hat diesen Namen hotfix_xp-2k_dd_ccc_027483a.exe
und müsste hier https://support.ati.com/ics/support/default.asp?deptID=894&task=knowledge&folderID=293
zu finden sein. Quake 4 Hotfix.

Johnny Rico
2005-10-27, 20:37:00
>Bei mir ruckelt sich das Game in 1024x768 zu tode mit 20 fps.....


Vsynch abstellen...

Ich hab das extra angestellt und mit ATT Tripple Buffer aktiviert(für das Spiel). (Hatte mal eine 68GT und das war das beste Mittel gegen das absolut nervende shuttering)

Werd nachher mal schauen, wie es sich ohne spielt!

Im Moment teste ich das Übertakten.

MikBach
2005-10-27, 20:46:25
FEAR macht mit SoftShadows schon bei 1280 schlapp. Riddick auch.

Dennoch kann ich gut verstehen, dass man mit einer Karte sehr glücklich sein kann. Nur solltest Du aufhören aus lauter Neid alle, die sich ein Multi-GPU Setup leisten, als Prollos zu bezeichnen. Das wirft kein gutes Licht auf Dich.
LOL.
Was für Neid?
Ich könnte mir auch 4 X1800XTs einbauen, was das finanzielle angeht. :wink:
Die Frage nach dem Sinn läßt mich zu diesm Entschlus kommen.
Ich kaufe mir doch nicht wegen 2 Spielen SLI oder Crossfire.
IMO Schwachsinn.
Sehe ich ähnlich wie Razor:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3576826&postcount=52
Ist zwar ein anderes Thema, aber die Meinung über SLI ist erkennbar...

Gast
2005-10-27, 20:51:12
Die gute Übertaktbarkeit kann auch Strategie von ATI. Die wissen, es gibt keine bessere Werbung als gute Overclocking Ergebnisse in Internetforen.
Deshalb wäre es geschickter Schachzug die besten X1800XL's ins Rennen zu schicken. Ich denke mal, dass die späteren keine so guten Ergebnisse mehr erzielen werden. Wenn man die Absicht hat, sich so eine keine Karte zuzulegen, sollte man das so schnell wie möglich tun!

Johnny Rico
2005-10-27, 20:59:24
Mit welchen Einstellungen bencht man 3DM05?

crux2005
2005-10-27, 21:00:55
1024x768 alles Default.

misterh
2005-10-27, 21:08:53
668/747 geht nicht stabil bei 3DMark2005

668/711 funkt aber.

rpm8200
2005-10-27, 21:14:04
Hm. Also ich weiss nicht... denk mal, wenn ich mir sone Karte kaufe, dann werde ich die nicht clocken. Wie schon manchmal im Thread bemerkt: Man wird den Unterschied in 98% aller Fälle nicht bemerken. Dafür wäre mir die Karte zu teuer. Ggf. würde ich versuchen, ob sich die Corespannung noch absenken lässt bei gleichem Takt. OC wie gesagt würd ich eher lassen. Von daher sind diese Ergebnisse für mich nicht so interessant.

Für mich wäre BQ und silent da viel wichtiger bzw. ein Kaufargument als das OC-Potential einer Karte.

Johnny Rico
2005-10-27, 21:16:32
Default im CCC ist "Ausgewogen" und das ist die Mitte.

Ganz links wäre "Leistung".

Was ist jetzt richtig. Soll man nicht auf Leistung benchen?

Mumins
2005-10-27, 21:19:29
Default im CCC ist "Ausgewogen" und das ist die Mitte.

Ganz links wäre "Leistung".

Was ist jetzt richtig. Soll man nicht auf Leistung benchen?

Gebencht wird auf ausgewogen.

Johnny Rico
2005-10-27, 21:22:29
Beim Overclocker Tool.

Memory Core und I/O Voltage. Beide sind 1.9 default, welche oder beide auf 2.0V erhöhen?

misterh
2005-10-27, 21:25:48
Beim Overclocker Tool.

Memory Core und I/O Voltage. Beide sind 1.9 default, welche oder beide auf 2.0V erhöhen?

nur memory core

9800ProZwerg
2005-10-27, 21:26:23
Hm. Also ich weiss nicht... denk mal, wenn ich mir sone Karte kaufe, dann werde ich die nicht clocken. Wie schon manchmal im Thread bemerkt: Man wird den Unterschied in 98% aller Fälle nicht bemerken.

Quake4
1024x768
High Qualität (nicht Ultra)
0xAA 1xAF
X1800XL
500/500 : 82.0 FPS
668/747 : 101.4 FPS


Das merkt man ;)

mustrum
2005-10-27, 21:29:44
Habe vor kurzem erst bei Norsk-IT bestellt. Find die ganz gut, weiß garnicht was viele haben. Vielleicht hatte ich ja nur Glück, ich würde da aber wieder bestellen.

Die ziehen dich über den Tisch wenn was kaputtgeht und nützen die Rechtslage aus weil sie nicht deutschem Recht unterliegen.
Ein Defekt kommt dich teuer wenn du dort eingekauft hast.

Johnny Rico
2005-10-27, 21:36:15
Wenn ich die Spannung vom Speicher auf 2.0V stelle und danach auf "set clocks" drücke, dann meint das Tool, dass es nichts verstellt hätte. (oder macht der das sofort beim Verstellen?)


edit->

Hat sich erledigt, er übernimmt das sofort.(Hab im ATI Tool nachgeschaut)

Wizard meint übrigens das seine Werte die richtigen sind (99,99%). Wenn ich im Overclocker auf 2.0V Speicherspannung stelle, dann liegen in "echt" nur 1.987V an.
http://img351.imageshack.us/img351/7219/memnot6va.png

chrisihamm
2005-10-27, 21:37:41
5. Gewährleistung / Haftungsausschluß

5.1. Wir gewährleisten für eine Dauer von 24 Monaten ab Lieferdatum, dass die Liefergegenstände nach dem jeweiligen Stand der Technik frei von Fehlern sind. Eine Haftung für normale Abnutzung ist ausgeschlossen. Gebrauchte Ware wird mit 12 Monaten Gewährleistung verkauft.
5.2. Keine Gewähr übernehmen wir für Mängel und Schäden, die aus ungeeigneter oder unsachgemäßer Verwendung, Nichtbeachtung von Anwendungshinweisen oder fehlerhafter oder nachlässiger Behandlung entstanden sind. Dies gilt insbesondere für den Betrieb der Gegenstände mit falscher Stromart oder -spannung sowie Anschluss an ungeeigneten Stromquellen. Das gleiche gilt für Mängel und Schäden, die aufgrund von Brand, Blitzschlag, Explosion oder netzbedingten Überspannungen, Feuchtigkeit aller Art, falscher oder fehlender Programm-Software und / oder Verarbeitungsdaten zurückzuführen sind, es sei denn, der Kunde weist nach, dass diese Umstände nicht ursächlich für den gerügten Mangel sind.
5.3. Der Gewährleistungsanspruch erlischt, wenn der Kunde Eingriffe und / oder Reparaturen an Geräten ohne ausdrückliche, schriftliche Bestätigung der Norsk IT Management & Consulting A/S oder durch Personen vornehmen lässt, die nicht von uns autorisiert wurden, sofern die Störung damit im Zusammenhang stehen kann.
5.4. Soweit ein Mangel der Kaufsache vorliegt, sind wir nach Wahl des Käufers zur Mängelbeseitigung oder zur Ersatzleistung berechtigt. Um Datenverlusten in Folge von Reparatur oder Mangel der Ware vorzubeugen, empfehlen wir die Durchführung regelmäßiger Datensicherungen, da eine Haftung für derartige Mangelfolgeschäden ausgeschlossen wird. Dieser Haftungsausschluss gilt nicht bei vorsätzlicher oder grob fahrlässiger Verursachung.
5.5. Sind wir zu Ersatzlieferungen nicht bereit oder in der Lage, schlägt die Ersatzlieferung oder die Mängelbeseitigung mindestens zweimal fehl oder sind Ersatzlieferung bzw. Mängelbeseitigung für den Käufer unzumutbar, so ist der Käufer nach seiner Wahl berechtigt, vom Vertrag zurückzutreten oder eine angemessene Herabsetzung des Kaufvertrages zu verlangen.
5.6. Soweit nicht anders ausdrücklich vereinbart, sind weitergehende Ansprüche des Käufers - gleich aus welchem Rechtsgrund - ausgeschlossen. Wir haften deshalb nicht für Schäden, die nicht im Liefergegenstand unmittelbar entstanden sind; insbesondere haften wir nicht für entgangenen Gewinn oder sonstige Vermögensschäden des Käufers. Vorstehende Haftungsbefreiung gilt nicht, sofern der Schaden auf Vorsatz, grober Fahrlässigkeit oder Fehlen einer zugesicherten Eigenschaft, Verletzung vertragswesentlicher Pflichten, Leistungsverzug, Unmöglichkeit, sowie Ansprüche nach §§ 1, 4 des Produkthaftungsgesetzes beruht. Für die Wiederherstellung von Daten haften wir nicht, es sei denn, dass wir den Verlust vorsätzlich oder grob fahrlässig verursacht haben und der Käufer sichergestellt hat, dass eine Datensicherung erfolgt ist, so dass die Daten mit vertretbarem Aufwand rekonstruiert werden können.
5.7. Zur Abwicklung von Gewährleistungsansprüchen beachten Sie die Hinweise in unseren jeder Lieferung beiliegenden, Rücksende- & Serviceinformationen unter www.norskit.de

misterh
2005-10-27, 21:39:58
Wenn ich die Spannung vom Speicher auf 2.0V stelle und danach auf "set clocks" drücke, dann meint das Tool, dass es nichts verstellt hätte. (oder macht der das sofort beim Verstellen?)

http://img351.imageshack.us/img351/7219/memnot6va.png

stelle auf 2.0v und takt 1mhz weniger bze mehr, dann annehmen.

volt allein ändern wird auch nicht übernommen.

Johnny Rico
2005-10-27, 21:40:50
Der macht das sofort ! *hab oben editiert*

misterh
2005-10-27, 21:48:23
Der macht das sofort ! *hab oben editiert* (ohne was drücken zu müssen)

na dann :biggrin:

mustrum
2005-10-27, 21:59:58
5. Gewährleistung / Haftungsausschluß

5.1. Wir gewährleisten für eine Dauer von 24 Monaten ab Lieferdatum, dass die Liefergegenstände nach dem jeweiligen Stand der Technik frei von Fehlern sind. Eine Haftung für normale Abnutzung ist ausgeschlossen. Gebrauchte Ware wird mit 12 Monaten Gewährleistung verkauft.
5.2. Keine Gewähr übernehmen wir für Mängel und Schäden, die aus ungeeigneter oder unsachgemäßer Verwendung, Nichtbeachtung von Anwendungshinweisen oder fehlerhafter oder nachlässiger Behandlung entstanden sind. Dies gilt insbesondere für den Betrieb der Gegenstände mit falscher Stromart oder -spannung sowie Anschluss an ungeeigneten Stromquellen. Das gleiche gilt für Mängel und Schäden, die aufgrund von Brand, Blitzschlag, Explosion oder netzbedingten Überspannungen, Feuchtigkeit aller Art, falscher oder fehlender Programm-Software und / oder Verarbeitungsdaten zurückzuführen sind, es sei denn, der Kunde weist nach, dass diese Umstände nicht ursächlich für den gerügten Mangel sind.
5.3. Der Gewährleistungsanspruch erlischt, wenn der Kunde Eingriffe und / oder Reparaturen an Geräten ohne ausdrückliche, schriftliche Bestätigung der Norsk IT Management & Consulting A/S oder durch Personen vornehmen lässt, die nicht von uns autorisiert wurden, sofern die Störung damit im Zusammenhang stehen kann.
5.4. Soweit ein Mangel der Kaufsache vorliegt, sind wir nach Wahl des Käufers zur Mängelbeseitigung oder zur Ersatzleistung berechtigt. Um Datenverlusten in Folge von Reparatur oder Mangel der Ware vorzubeugen, empfehlen wir die Durchführung regelmäßiger Datensicherungen, da eine Haftung für derartige Mangelfolgeschäden ausgeschlossen wird. Dieser Haftungsausschluss gilt nicht bei vorsätzlicher oder grob fahrlässiger Verursachung.
5.5. Sind wir zu Ersatzlieferungen nicht bereit oder in der Lage, schlägt die Ersatzlieferung oder die Mängelbeseitigung mindestens zweimal fehl oder sind Ersatzlieferung bzw. Mängelbeseitigung für den Käufer unzumutbar, so ist der Käufer nach seiner Wahl berechtigt, vom Vertrag zurückzutreten oder eine angemessene Herabsetzung des Kaufvertrages zu verlangen.
5.6. Soweit nicht anders ausdrücklich vereinbart, sind weitergehende Ansprüche des Käufers - gleich aus welchem Rechtsgrund - ausgeschlossen. Wir haften deshalb nicht für Schäden, die nicht im Liefergegenstand unmittelbar entstanden sind; insbesondere haften wir nicht für entgangenen Gewinn oder sonstige Vermögensschäden des Käufers. Vorstehende Haftungsbefreiung gilt nicht, sofern der Schaden auf Vorsatz, grober Fahrlässigkeit oder Fehlen einer zugesicherten Eigenschaft, Verletzung vertragswesentlicher Pflichten, Leistungsverzug, Unmöglichkeit, sowie Ansprüche nach §§ 1, 4 des Produkthaftungsgesetzes beruht. Für die Wiederherstellung von Daten haften wir nicht, es sei denn, dass wir den Verlust vorsätzlich oder grob fahrlässig verursacht haben und der Käufer sichergestellt hat, dass eine Datensicherung erfolgt ist, so dass die Daten mit vertretbarem Aufwand rekonstruiert werden können.
5.7. Zur Abwicklung von Gewährleistungsansprüchen beachten Sie die Hinweise in unseren jeder Lieferung beiliegenden, Rücksende- & Serviceinformationen unter www.norskit.de


gab über Norsk It mal einen langen Artikel in der CT. Die haben ein nettes rechtliches Hintertürchen. Musts ja nicht glaube. Der Typ der zu dem Artikel angeregt hat hat auf jeden Fall sauber draufgezahlt.

misterh
2005-10-27, 22:11:55
Quake4

High Qualität (keine Ultra Qualität)
Alles hoch

Treiber

AI Low
MipMap High Qualität

X1800XL @ 500/500 668/747 %

1024x768

0x AA 1x AF 86.4 FPS 108.1 FPS +25

4x AA 16x AF 62.0 FPS 80.8 FPS +30

1280x1024

0x AA 1x AF 58.6 FPS 73.4 FPS +25

4x AA 16x AF 42.4 FPS 55.1 FPS +30

1600x1200

0x AA 1x AF 44.4 FPS 56.9 FPS +28

4x AA 16x AF 32.4 FPS 42.5 FPS +31

mustrum
2005-10-27, 22:45:34
Quake4

High Qualität (keine Ultra Qualität)
Alles hoch

Treiber

AI Low
MipMap High Qualität

X1800XL @ 500/500 668/747 %

1024x768

0x AA 1x AF 86.4 FPS 108.1 FPS +25

4x AA 16x AF 62.0 FPS 80.8 FPS +30

1280x1024

0x AA 1x AF 58.6 FPS 73.4 FPS +25

4x AA 16x AF 42.4 FPS 55.1 FPS +30

1600x1200

0x AA 1x AF 44.4 FPS 56.9 FPS +28

4x AA 16x AF 32.4 FPS 42.5 FPS +31



Da soll noch einer sagen übertakten würde nichts bringen. :biggrin:

Johnny Rico
2005-10-27, 22:53:23
@ Misterh

zieh Dir mal das Tool und sag mir, ob Du Fehler siehst. (kleine Punkte die aufblitzen oder Bildflecken, die sehr kurz sichtbar sind)

http://www.daionet.gr.jp/~masa/archives/rthdribl_1_2.zip

-error-
2005-10-27, 22:53:25
Hmm, wo gibts nochmal das Tool, wo man sich den Ramverbrauch wärend des Spiels anzeigen lassen kann?

misterh
2005-10-27, 23:00:29
@ Misterh

zieh Dir mal das Tool und sag mir, ob Du Fehler siehst. (kleine Punkte die aufblitzen oder Bildflecken, die sehr kurz sichtbar sind)

http://www.daionet.gr.jp/~masa/archives/rthdribl_1_2.zip

ich sehe keinen Fehler. :rolleyes:

dargo
2005-10-27, 23:18:12
Geiler Preis:
http://www.geizhals.at/deutschland/a168705.html

Auch wenns Norskit ist, zumindest ist die Tendenz erkennbar!
So stimmt der Preis!
Geil, meine 350€ Schwelle kommt immer näher. ;D :ujump2:

3d
2005-10-27, 23:26:09
ich hab keine lust mir die 37 seiten durchzulesen, deswegen frag ich einfach.

wie siehts aus mit den temperaturen und lautstärke?

BodyLove
2005-10-27, 23:32:57
360€ sind für die gebotene Leistung mehr als fair, imho. Hätte ich einen PC, würde ich mir wohl eine holen.;)

LeChuck
2005-10-27, 23:34:27
Hab mir mal eine bestellt .. mal sehen ob ich auch eine bekomme :)

3d
2005-10-27, 23:41:46
360€ sind für die gebotene Leistung mehr als fair
ja, aber nicht 360€ bei norskit. wär mir zu unsicher.

wie siehts aus mit den temperaturen?

Johnny Rico
2005-10-27, 23:41:52
Ich bin total verwundert atm. Mein R520 ist komisch oO

@3D in den letzten 5 Seiten müsste einiges dazu stehen (bin da sehr empfindlich)

misterh
2005-10-27, 23:44:09
Ich bin total verwundert atm. Mein R520 ist komisch oO

@3D in den letzten 5 Seiten müsste einiges dazu stehen (bin da sehr empfindlich)

wieso komisch?

Johnny Rico
2005-10-27, 23:59:27
Teil 1

Treiber neu installiert und auf "Ausgewogen" gestellt, dann getaktet und gebencht.

Meine XL @ XT Takt. Der RAM ist noch nicht bei 2V.

Sind die Benchmarkwerte ok? (Seit 3DM99 habe ich das Teil nicht mehr benutzt)

Wenn ich eine PSP hätte, würde ich sagen "PIXELFEHLERFREI".

http://img357.imageshack.us/img357/338/r5205qa.pnghttp://img357.imageshack.us/img357/3108/r5203dm05ausgewogen9cw.png

http://img357.imageshack.us/img357/4734/r520v8oq.pnghttp://img357.imageshack.us/img357/3827/r5203dm05resultausgewogen6gk.png

http://img357.imageshack.us/img357/4505/r5203dm05mainausgewogen5ea.png

http://img357.imageshack.us/img357/7402/r520fearmaximaxi6yp.png

Grestorn
2005-10-28, 00:03:45
Was für Neid?Was soll dann der Scheiß mit dem Prollo? Wenn Du austeilst musst Du auch einstecken können.

So lange Du SLI Besitzer als Prollos bezeichnest, so lange bezeichne ich Dich als Neidhammel. Leb damit.

Johnny Rico
2005-10-28, 00:07:47
Kann mir Jemand was zu dem Tool sagen? -> "DX9 Real-Time High-Dynamic Range Image-Based Lighting Version 1.2"

3d
2005-10-28, 00:10:40
hey leute, nochmal bitte langsam für mich zum mitschreiben :biggrin:

die karte wird im idle knapp 70° heiß und unter last fast 100° ?

Spasstiger
2005-10-28, 00:13:56
Kann mir Jemand was zu dem Tool sagen? -> "DX9 Real-Time High-Dynamic Range Image-Based Lighting Version 1.2"

Wird mit rthdribl v.1.2 abgekürzt und ist neben den ATI-Demos die erst mir bekannte DX9-Demo. Kam afaik Ende 2002 raus und ich weiß noch, dass ich damals mit meiner brandneuen Radeon 9700 sehr angetan von der Grafik war *g*.

LeChuck
2005-10-28, 00:18:54
Hmm .. das mit den Temps war in meinem Kopf schon ein Thema .. bevor es überhaupt ein Thema war :)
Ich hoffe es gibt bald einen Silencer oder was ähnliches was die Karte anständig kühlt :)

Johnny Rico
2005-10-28, 00:21:21
Ich bin heute noch angetan. Habs mir wohl auch damals gezogen und gestern wiedergefunden ^^

Also dort kann ich Fehlberechnungen prima im HDR Licht nachvollziehen. Schade das man mit ATI Tool den max fehlerfreien Takt noch nicht finden kann =/.
Muss bei jedem Clocking erstmal im HDR die Lichter anschauen ^^.

Warum ich meine Karte komisch finde, schreibe ich nachher noch.

Ich sitze gerade mit offenem Fenster (GANZ KALT DRAUSSEN T_T) und offenem Gehäuse mit einer Decke umgewickelt am PC und machs Benchs ^^.

Und ja, die Karte wird im Idle und bei Last einfach nur SCHWEINEHEISS. Untertakte und Übertakte sind der Karte bei mir VÖLLIG egal.

3d
2005-10-28, 00:42:27
Untertakte und Übertakte sind der Karte bei mir VÖLLIG egal. dann wird die temperatur nicht richtig ausgelesen. ist doch ein klarer fall.
wird die karte denn auch wirklich heiß? (anfassen bitte)
oder kukt ihr euch nur die zahlen an die euch angezeigt werden?

Johnny Rico
2005-10-28, 00:50:28
Die Werte ändern sich, aber die Differenz von den übertakteten max Werten und den untertakteten max Werten zum normalen unübertakteten max Wert ist nur gering.

3d
2005-10-28, 01:22:31
ja das ist eigentlich normal. so verhält sich mein venice und meine x800xt auch. wobei "wenig" ein sehr relativer begriff ist. :biggrin:
nenn doch ma paar zahlen.

und was sagt die anfassprobe?
"aua"?
"ach du scheiße ist das heiß"?
oder
"scheiße die narbe geht nie wieder weg"?

ab etwa 55° fängts an weh zu tun, nur so zur info.
(meine heatpipes [70°] kann ich nur etwa eine sekunde anfassen, dann tuts aber schon mächtig weh)

Johnny Rico
2005-10-28, 01:26:44
Teil 2

Die Werte aus Teil 1 sind absolut fehlerfrei gebencht. Fear und 3DM05.

Fear und Serious Sam 2 habe ich danach gespielt. Alles fehlerfrei!

-----------------------

Aus Neugierde habe ich rthdribl v.1.2 @ XT Takt laufen lassen.

R520 @ 1.300V @ 625Mhz - Fehler in rthdribl v.1.2

R520 @ 1.300V @ 500Mhz - Fehler in rthdribl v.1.2

R520 @ 1.175V @ 500Mhz - KEINE Fehler

R520 @ 1.175V @ 607.50Mhz - KEINE Fehler (wurde korrigiert)

Das sind ehrliche Werte. Scheinbar hat ein bisschen zu viel Spannung böse Folgen.
Es geht beim Core auch noch viel weiter, allerdings erübrigt sich das Testen, da es nicht 100% fehlerfrei wäre.

Getestet mit rthdribl v.1.2 habe ich so.

Den Takt und eventuell Spannung verstellt, dann rthdribl v.1.2 gestartet.

Im Fenster geschaut, ob Fehler zu sehen sind.
Wenn nicht, dann das ganze im Vollbild gestartet und einen Moment laufen lassen, ob auch alle Lichter(+Lensflare etc.) gut ankommen.
Dann das Ruder selbst in die Hand genommen(Maustaste) und auf 2 große Fenster fixiert.
Beim Wechsel von dunkel in hell und beim Standbild habe ich dort die meisten Fehler erkannt.(Fehler kann auch heißen, dass nach 2min 1 kleiner bunter Fleck aufflackert und sofort wieder weg ist)

So lange, bis eine ganze Weile und in allen möglichen Positionen kein Fehler mehr zu sehen ist.

Mich wundert, dass die Spiele OHNE sichtbare Fehler liefen und auch 3DM absolut sexy lief.

Ich werde jetzt nachprüfen, wie weit der Speicher geht.

Mein Fazit bis jetzt und nach SS2 und FEAR.

Wer sich eine XL kauft, ohne sie zu übertakten, macht einen gewaltigen Fehler, da die neuen Spiele unspielbar sind. Dazu kommt das relativ laute Lüftergeräusch und die hohe Wärmeentwicklung.

Sollte es aber gelingen, die XL @ XT Takt zu betreiben, dann traut man seinen Augen nicht! Die Performance ist einfach nur ÜBELST!

Wer > 1024x768 spiel, sollte sich gleich SLI/CF kaufen, da sonst viele Details im Spiel runtergeschraubt werden müssen, um überhaupt flüssig zu spielen.