PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GPU Shootout with Unreal Tournament 2003 - July 2002


nagus
2002-07-01, 11:40:52
http://www.anandtech.com/video/showdoc.html?i=1647


... anzumerken ist allerdings, dass die 8500er mit 128MB bei HIGH_Details nur ca. 15% schneller sein soll als eine 7500er mit 64MB.

bei MEDIUM_Details schaut die sache dann wieder "normal" aus... da is die 8500er ca. auf "fast" GF4 niveau ... so wie es sich gehört!

ich hab mal irgendwo gelesen, dass es angeblich in verbindung mit dem Epox KT333 und Unreal - Tournament zu massiven einbrüchen kommen soll. ich hab zwar auch so eine kombination, aber der 927built läuft sehr gut!! ... außer mit den Omega/Plutonium-Treibern ruckelts wie die SAU! wieso eigentlich?

Quasar
2002-07-01, 11:52:29
Originally posted by nagus June 28th 19:37
supa nvidia! wirklch toll!


1A! bravo Nvidia!

Exxtreme
2002-07-01, 12:01:08
Originally posted by nagus
... anzumerken ist allerdings, dass die 8500er mit 128MB bei HIGH_Details nur ca. 15% schneller sein soll als eine 7500er mit 64MB.

Die R8500 bricht bei High-Detail unverhältnissmässig stark ein. Ich vermute, daß es bis zum Erscheinen von UT2003 längst gefixt sein wird.

Gruß
Alex

Pirx
2002-07-01, 12:02:34
Die Kyro2 liegt teilweise vor der GF2Ultra (High Detail):)

Com1
2002-07-01, 12:11:19
In dem PCGH bench waren die Radeons allen Geforce 3 Karten deutlich unterlegen. Das beruhigt mich jetzt wieder... hier stehen die Radeons wiede wo sie hingehören, zwischen der GF3 und der GF4 Serie.

Das einzige was mich etwas enntäuscht, sind die letzten Paar vergleiche in sehr hohen auflösugen, wo die Radeons bei dem Schritt von Medium auf High Detail doch sehr stark einbrechen und hinter die Geforce 3 Kartne zurückfallen.

Außerdem macht mir das noch sorgen:

"Surprisingly enough, Matrox's latest Parhelia drivers actually worked better than ATI's CATALYST drivers under UT2003. The problem with ATI's publicly available CATALYST drivers is that Detailed Textures aren't properly supported, meaning they won't be rendered and anywhere that they are used you'll run into annoying flashing textures. ATI has fixed the issue internally and it looks like that latest 7.73 drivers that have been leaked contain the fix as well. We're hoping that they'll make this fix into an official CATALYST release before the official release of the UT2003 demo."

uahh.... wir werden der Treiber Höllle nie entfliehen :(

Immerhin, der neueste leaked löst das Problem.

TBird
2002-07-01, 12:37:21
ATI's R300 is on the horizon and, from what we're hearing, will be a formidable opponent to the GeForce4 Ti 4600.


:naughty:

nocturne
2002-07-01, 12:41:50
So wie der Parhelia? *eg*

ActionNews
2002-07-01, 12:43:43
Originally posted by Pirx
Die Kyro2 liegt teilweise vor der GF2Ultra (High Detail):)

Na Also! Ich dachte mir doch gleich, dass die miserablem Benchmarks des KyroII bei PCGH nicht stimmen können.
Wer hätte dem KyroII zugetraut , dass er bei UT 2003 mit High Detail Settings sich zwischen Geforce 2 Ultra und Geforce 4 MX440 einreiht :D! Also ich werde meinen KyroII noch eine Weile behalten :)! Vielleicht überbrücke ich so sogar die Zeit bis zur PowerVR Serie 5 ;)! Zumindest bei UT 2003-Engine basierten Spielen brauche ich mir anscheinend in nächster Zeit keine Sorgen machen :)!

CU ActionNews

ow
2002-07-01, 12:47:00
@ ActionNews:

Absolut gesehen, sind die Werte fuer eine K2 doch schon recht niedrig. Ich wuerde mir da schon Sorgen machen.

nocturne
2002-07-01, 12:51:11
Originally posted by ow
@ ActionNews:

Absolut gesehen, sind die Werte fuer eine K2 doch schon recht niedrig. Ich wuerde mir da schon Sorgen machen.

Eben. Aber wenn es auf einer Kyro2 so langsam ist, dann bringt es ActionNews mehr Befriedigung, wenn er sich vor Augen hält, dass es sogar noch langsamere Karten gibt. ;)

Pirx
2002-07-01, 13:12:35
Originally posted by nocturne
Eben. Aber wenn es auf einer Kyro2 so langsam ist, dann bringt es ActionNews mehr Befriedigung, wenn er sich vor Augen hält, dass es sogar noch langsamere Karten gibt. ;)

...die vor kurzem noch recht viel gekostet haben:)
(Zukunftsfähigkeit?)

nagus
2002-07-01, 13:22:41
Originally posted by Com1
In dem PCGH bench waren die Radeons allen Geforce 3 Karten deutlich unterlegen. Das beruhigt mich jetzt wieder... hier stehen die Radeons wiede wo sie hingehören, zwischen der GF3 und der GF4 Serie.



... die pcgameshardware ist sowieso genau das gleiche "klopaier" wie die gamestar. lauter voll*****!


@quasar: bravo dass du das gefunden hast! darf ich dich beglückwünschen? wirklich einsame spitze! hast dus dir aus dem thread herauskopiert oder selber eingetippt? ;)

nagus
2002-07-01, 13:25:04
Originally posted by nocturne
So wie der Parhelia? *eg*


nein. das verhällt sich etwas ander: die Parhelias IST scheisse. die R300 zu 99,999% nicht.

ow
2002-07-01, 13:26:59
R300 = Vaporware(TM) :D

the_MAD_one
2002-07-01, 13:30:13
Originally posted by ow
@ ActionNews:

Absolut gesehen, sind die Werte fuer eine K2 doch schon recht niedrig. Ich wuerde mir da schon Sorgen machen.

Wieso das? 32,4 fps bei 1024x768 und Maximalen Details bei dem Aussenlevel sind doch recht ordentlich, bei dem indoor Level waren es sogar 48,3 fps. Ich finde das fuer die K2 recht ordentlich da ich mit weniger gerechnet hatte (nach der Katastrophalen Performanche bei GTA3).

Exxtreme
2002-07-01, 13:30:31
Originally posted by nagus
nein. das verhällt sich etwas ander: die Parhelias IST scheisse.
Finde ich wiederum nicht. Hängt aber hauptsächlich von den Ansprüchen ab.

Gruß
Alex

nagus
2002-07-01, 13:31:42
naja, für den preis ist sie nicht unbedingt eine alternative für "gamer"....

wenn sie 250 euro kosten würde... ok, aber so

Quasar
2002-07-01, 13:35:24
Originally posted by nagus
@quasar: bravo dass du das gefunden hast! darf ich dich beglückwünschen? wirklich einsame spitze! hast dus dir aus dem thread herauskopiert oder selber eingetippt? ;)

Danke, lieber nagus ich freue mich wirklich sehr über deine Glückwünsche. Insbesondere, da sie zeigen, auf welchem Niveau du dich herumtreibst.

Stehst du etwa nicht mehr zu deinen Aussagen von vor ein paar Tagen?

FYI, ich hab es natürlich herauskopiert, ansonsten hätte ich wohl kaum deine unübertroffene Orthographie und Syntax erreichen können.

Tarkin
2002-07-01, 13:36:42
Originally posted by Pirx
Die Kyro2 liegt teilweise vor der GF2Ultra (High Detail):)

supa nvidia! wirklch toll!


1A! bravo Nvidia!

:D

TBird
2002-07-01, 13:37:30
ActionNews,

spielst Du immer noch mit 640x480 ?

ow
2002-07-01, 13:37:32
Originally posted by the_MAD_one


Wieso das? 32,4 fps bei 1024x768 und Maximalen Details bei dem Aussenlevel sind doch recht ordentlich, bei dem indoor Level waren es sogar 48,3 fps. Ich finde das fuer die K2 recht ordentlich da ich mit weniger gerechnet hatte (nach der Katastrophalen Performanche bei GTA3).



Es stellt sich die Frage, ob die fps des K2 unter high detail denn immer ausreichen. Und das glaube ich einfach mal nicht.

Und weil er unter medium detail nur wenig Leistung zulegt, kann's auch hierbei schon knapp werden.

Schau dir mal die Werte des K2 und der GF2ti/ultra im Vergleich an.

Unter high detail liegt der K2 auf GF2U niveau bei etwa 30-40fps
Unter medium detail hat der K2 keine Chance gegen eine GF2U und liegt teilweise sogar kaum ueber GF2MX 400 Niveau.....

TBird
2002-07-01, 13:42:15
Originally posted by Pirx
Die Kyro2 liegt teilweise vor der GF2Ultra (High Detail):)

und teilweise hinter der GF2MX400. :)

nagus
2002-07-01, 13:44:41
Originally posted by Quasar


Danke, lieber nagus ich freue mich wirklich sehr über deine Glückwünsche. Insbesondere, da sie zeigen, auf welchem Niveau du dich herumtreibst.

Stehst du etwa nicht mehr zu deinen Aussagen von vor ein paar Tagen?

FYI, ich hab es natürlich herauskopiert, ansonsten hätte ich wohl kaum deine unübertroffene Orthographie und Syntax erreichen können.


:asshole:


nicht persönlich nehmen ;)


btw, "The Radeon 8500 is a good distance away from the GeForce4s but ATI has no reason to worry, R300 will put everything on this chart to shame." Qualle: http://www.anandtech.com/video/showdoc.html?i=1647&p=8

Tarkin
2002-07-01, 13:49:00
Originally posted by nocturne
So wie der Parhelia? *eg*

glaub ich nicht:

"...but ATI has no reason to worry, R300 will put everything on this chart to shame."

... uuups. zu langasm. ;-)

nagus
2002-07-01, 13:50:49
Originally posted by Tarkin


glaub ich nicht:

"...but ATI has no reason to worry, R300 will put everything on this chart to shame."


ich war erster :punch:

Tarkin
2002-07-01, 13:55:48
btw:

http://www.bytesector.com/data/bs-article.asp?faq=4&fldAuto=108&page=7


... geiles Teil!

"...overclocked the little puppy to 321 MHz Core speed, and 329 MHz Memory without extra cooling..."

Mann-Oh-Mann

Pirx
2002-07-01, 13:55:48
Originally posted by TBird
und teilweise hinter der GF2MX400. :)

Nur ein kleiner Ausrutscher in einer unbedeutenden Auflösung:), trotzdem lustig zu sehen das

the_MAD_one
2002-07-01, 13:56:50
Originally posted by ow




Es stellt sich die Frage, ob die fps des K2 unter high detail denn immer ausreichen. Und das glaube ich einfach mal nicht.

Und weil er unter medium detail nur wenig Leistung zulegt, kann's auch hierbei schon knapp werden.

Schau dir mal die Werte des K2 und der GF2ti/ultra im Vergleich an.

Unter high detail liegt der K2 auf GF2U niveau bei etwa 30-40fps
Unter medium detail hat der K2 keine Chance gegen eine GF2U und liegt teilweise sogar kaum ueber GF2MX 400 Niveau.....

Naja ich werds ja sehen da ich mir das Spiel auf jedenfall kaufen werde und da ich mir erst im September ne neue Graka holen werde, werde ich das Spiel erstmal mit meiner K2 spielen.

ow
2002-07-01, 13:59:57
Falls ich mir's kaufe, muss ich erst noch in nem privaten Shootout ermitteln, ob meine GF2MX, meine Radeon1 oder meine Kyro1 am besten damit zurecht.:D:D

Exxtreme
2002-07-01, 14:00:20
Originally posted by nagus
btw, "The Radeon 8500 is a good distance away from the GeForce4s but ATI has no reason to worry, R300 will put everything on this chart to shame." Qualle: http://www.anandtech.com/video/showdoc.html?i=1647&p=8

Das könnte bedeuten, daß Anand schon eine hat oder eine näher begutachten konnte.
*auchhabenoderbegutachtenwill*

Gruß
Alex

Tarkin
2002-07-01, 14:04:07
Originally posted by Exxtreme

Das könnte bedeuten, daß Anand schon eine hat oder eine näher begutachten konnte.
*auchhabenoderbegutachtenwill*

Gruß
Alex


Du sprichst mir aus der Seele!

... (nur) noch 6 Wochen, dann wissen wir mehr.

Unregistered
2002-07-01, 15:08:24
Wenn ich mir die Benches so ansehe, frag ich mich welchen Sinn ne GF4 Ti 4200 mit 128 MB ram macht (hab mir grad selber eine geholt ich depp). Der speicheretakt is niedrieger und eigentlich hätte ich angenommen das wenigsten bei UT2k3 sich die 128MB wegen der vielen Texturen/Layern bemerkbar machen würde.

jedi
2002-07-01, 15:21:55
Originally posted by ow

Es stellt sich die Frage, ob die fps des K2 unter high detail denn immer ausreichen. Und das glaube ich einfach mal nicht.

Und weil er unter medium detail nur wenig Leistung zulegt, kann's auch hierbei schon knapp werden.


Sieht so aus. Auf DM-Antalus (http://www.anandtech.com/video/showdoc.html?i=1647&p=8) schafft der Kyro2 selbst bei nur 1024x768 durchschnittlich nur 32 fps. Die minimalen Frameraten dürften also noch deutlich niedriger liegen.

jedi
2002-07-01, 15:25:56
Originally posted by Unregistered
Wenn ich mir die Benches so ansehe, frag ich mich welchen Sinn ne GF4 Ti 4200 mit 128 MB ram macht (hab mir grad selber eine geholt ich depp). Der speicheretakt is niedrieger und eigentlich hätte ich angenommen das wenigsten bei UT2k3 sich die 128MB wegen der vielen Texturen/Layern bemerkbar machen würde.

Daniel Vogel von Epic hat ja im anderen Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=21967) bestätigt, dass 128MB-Karten durchaus ausgenutzt werden und Vorteile haben. Die 128MB-Version der Ti4200 von Anand ist eben langsamer getaktet als die mit 64 MB. In der Praxis lassen sich die 128 MB der Ti4200 aber höher takten, genau so hoch wie manche 64MB-Versionen. Deshalb würde ich die 128MB-Ti4200 vorziehen.

ActionNews
2002-07-01, 15:26:39
Originally posted by ow

Es stellt sich die Frage, ob die fps des K2 unter high detail denn immer ausreichen. Und das glaube ich einfach mal nicht.

Und weil er unter medium detail nur wenig Leistung zulegt, kann's auch hierbei schon knapp werden.

Schau dir mal die Werte des K2 und der GF2ti/ultra im Vergleich an.

Unter high detail liegt der K2 auf GF2U niveau bei etwa 30-40fps
Unter medium detail hat der K2 keine Chance gegen eine GF2U und liegt teilweise sogar kaum ueber GF2MX 400 Niveau.....

Hmm...das mag schon sein, aber Epic ist ja noch immer am Performance optimieren, und wenn's wirklich nicht ganz reichen sollte, dann muss ich halt die Details herunterschalten. Kritisch wird's ja anscheinend nur in den Außenlevels. Die Innenlevel scheinen ja ganz gut zu laufen :)!

Dass der KyroII nicht gerade die optimale Karte für UT 2003 ist war mir schon klar, aber ich finde er hält sich doch tapfer :)!

Interessant bei diesem Test von Anandtech wäre jetzt wirklich noch die Min und Max FPS. Normalerweise hat der KyroII ja nicht so hohe Maximalwerte, aber auch nicht so niedrige Minimalwerte.

CU ActionNews

Unregistered
2002-07-01, 15:34:21
Originally posted by jedi


Die 128MB-Version der Ti4200 von Anand ist eben langsamer getaktet als die mit 64 MB.

Darauf wollte ich ja hinaus auf den Sinn der Ti4200 mit 128MB. Weil die sind eigentlich immer langsamer getaktet als die 64MB Version. Z.B. meisten 128=4ns Chips und 64 3,6ns. Womit du die 64 ja auch wieder höher als die 128ér takten kannst.

egdusp
2002-07-01, 16:03:47
Originally posted by ActionNews



Dass der KyroII nicht gerade die optimale Karte für UT 2003 ist war mir schon klar, aber ich finde er hält sich doch tapfer :)!

Interessant bei diesem Test von Anandtech wäre jetzt wirklich noch die Min und Max FPS. Normalerweise hat der KyroII ja nicht so hohe Maximalwerte, aber auch nicht so niedrige Minimalwerte.

CU ActionNews

Auch noch interessant wäre die CPU von Anand zu wissen (ich hab sie jedenfalls nicht gefunden, vielleicht hilft mir da einer), ist bestimmt aber ne Monster CPU > 2 Ghz. Auf deinem 1 Ghz wird die Kyro bestimmt CPU limitiert sein, da keine T&L Einheit.

nagus
2002-07-01, 16:11:22
Originally posted by egdusp


Auch noch interessant wäre die CPU von Anand zu wissen (ich hab sie jedenfalls nicht gefunden, vielleicht hilft mir da einer), ist bestimmt aber ne Monster CPU > 2 Ghz. Auf deinem 1 Ghz wird die Kyro bestimmt CPU limitiert sein, da keine T&L Einheit.


EpoxKT333 und AthlonXP 2100+

ow
2002-07-01, 16:21:41
Originally posted by ActionNews


Hmm...das mag schon sein, aber Epic ist ja noch immer am Performance optimieren, und wenn's wirklich nicht ganz reichen sollte, dann muss ich halt die Details herunterschalten. Kritisch wird's ja anscheinend nur in den Außenlevels. Die Innenlevel scheinen ja ganz gut zu laufen :)!

Dass der KyroII nicht gerade die optimale Karte für UT 2003 ist war mir schon klar, aber ich finde er hält sich doch tapfer :)!

Interessant bei diesem Test von Anandtech wäre jetzt wirklich noch die Min und Max FPS. Normalerweise hat der KyroII ja nicht so hohe Maximalwerte, aber auch nicht so niedrige Minimalwerte.

CU ActionNews


Leider bringt das Herunterschalten der Details nicht soviel Gewinn wie zB. auf den Gf2 Karten. Das ist das Problem.
Sowohl mit K2 wie GF2 duerfte HD kaum spielbar sein, aber bei reduzierten Details dreht die Gf2 viel staerker auf.

Klar sind die Innenlevel besser fuer die Kyro, da mehr Overdraw als in Aussenleveln.

the_MAD_one
2002-07-01, 16:26:30
Originally posted by ow



Leider bringt das Herunterschalten der Details nicht soviel Gewinn wie zB. auf den Gf2 Karten. Das ist das Problem.
Sowohl mit K2 wie GF2 duerfte HD kaum spielbar sein, aber bei reduzierten Details dreht die Gf2 viel staerker auf.

Klar sind die Innenlevel besser fuer die Kyro, da mehr Overdraw als in Aussenleveln.

Naja wir werden ja spaetestens wenn die Demo raus ist wissen wie es denn nun wirklich laeuft.

Doomtrain
2002-07-01, 16:37:45
Originally posted by TBird
ActionNews,

spielst Du immer noch mit 640x480 ?

Warum sollte er? Hast du jemals eine KyroII gehabt?z.B. Aquanox läuft mit (fast) allen Detail (ohne Multipass) optimal.

Also nicht flamen sondern sachlich bleiben :nono:

Snak84
2002-07-01, 16:49:29
Meint ihr das ist wieder eins der viele Treiber probleme von ATI das die Radeon unter High Details so einbricht ?! . Denn wenn ja kann ich wenigstens etwas ruhiger schlafen :) . Sonst bin ich von der Kyro II sehr beeindruckt ,also ich glaube UT2K3 lässt sich wohl noch mit 40 FPS gut spielen :D

jedi
2002-07-01, 17:44:02
Originally posted by Snak84
Meint ihr das ist wieder eins der viele Treiber probleme von ATI das die Radeon unter High Details so einbricht ?! . Denn wenn ja kann ich wenigstens etwas ruhiger schlafen :)

Die schlechte Treiberqualität von ATI führt dazu, dass Du ruhiger schlafen kannst? ??? ;)

Demirug
2002-07-01, 17:46:54
Originally posted by jedi


Die schlechte Treiberqualität von ATI führt dazu, dass Du ruhiger schlafen kannst? ??? ;)

Ist doch ganz einfach jedi. Solange es nur die Treiber und nicht die Hardware ist besteht noch Hoffnung.

jedi
2002-07-01, 17:48:26
Originally posted by Demirug

Ist doch ganz einfach jedi. Solange es nur die Treiber und nicht die Hardware ist besteht noch Hoffnung.

Ach so, dann setzt er also "schlafen" mit "träumen" gleich. *eg*

ActionNews
2002-07-01, 17:49:28
Originally posted by egdusp


Auch noch interessant wäre die CPU von Anand zu wissen (ich hab sie jedenfalls nicht gefunden, vielleicht hilft mir da einer), ist bestimmt aber ne Monster CPU > 2 Ghz. Auf deinem 1 Ghz wird die Kyro bestimmt CPU limitiert sein, da keine T&L Einheit.

Ja das macht mir auch noch Sorgen. Anandtech verwendeten einen AthlonXP 2100+ (1,73GHz). Ich habe "nur" einen TB C 1000. Allerdings soll UT 2003 bei weitem nicht mehr so CPU-Abhängig sein wie noch UT. und es wird von Epic ja noch weiterhin optimiert. Ich bin auf die offizielle UT 2003 Demo gespannt. Da werde ich ja sehen ob ich mit meinem System noch in vernünftigen Auflösungen UT 2003 zocken kann :).

CU ActionNews

PS: Soweit ich gelesen haben will Anandtech auch noch einen "CPU-scaling-Test" mit ausgewählten Grafikkarten machen.

Unregistered
2002-07-01, 17:53:28
Originally posted by jedi

Ach so, dann setzt er also "schlafen" mit "träumen" gleich. *eg*

Anders rum:

ATI schläft und die Fans träumen, dass das besser werden könnte. ;)

Exxtreme
2002-07-01, 17:57:11
Originally posted by Unregistered
Anders rum:

ATI schläft und die Fans träumen, dass das besser werden könnte. ;)
Huch! Da schlafe ich ja tief und fest und träume ständig was Schönes. Mit ATi ist nämlich vieles (nicht alles) besser geworden. Und ich dachte die ganze Zeit, ich wäre wach.
;)

Gruß
Alex

jedi
2002-07-01, 17:57:48
Originally posted by ActionNews

Ja das macht mir auch noch Sorgen. Anandtech verwendeten einen AthlonXP 2100+ (1,73GHz). Ich habe "nur" einen TB C 1000. Allerdings soll UT 2003 bei weitem nicht mehr so CPU-Abhängig sein wie noch UT.

Schon, aber die neue Unreal-Engine ist ja eben deshalb nicht mehr so CPU-abhängig, weil sie Hardware-T&L unterstützt, was ja die CPU entlastet. Davon profitieren natürlich alle aktuellen Karten, aber nicht der alte Kyro2.

ActionNews
2002-07-01, 18:07:01
Originally posted by jedi


Schon, aber die neue Unreal-Engine ist ja eben deshalb nicht mehr so CPU-abhängig, weil sie Hardware-T&L unterstützt, was ja die CPU entlastet. Davon profitieren natürlich alle aktuellen Karten, aber nicht der alte Kyro2.

Das würde ich nicht beschwören, denn die bisherigen UT2003-Versionen waren stark CPU anhängig obwohl sie Hardware-T&L nutzten. Daniel Vogel sagte ja dass Epic erst in den vergangenen Wochen damit begonnen hat die Engine nicht ganz so CPU-abhängig zu machen.
Naja egal wir werden es sicher sehen :)!

CU ActionNews

Snak84
2002-07-01, 22:19:22
Originally posted by Demirug


Ist doch ganz einfach jedi. Solange es nur die Treiber und nicht die Hardware ist besteht noch Hoffnung.

Demirug hat mal wieder den Nagel auf den Kopf getroffen :) .

Simon Moon
2002-07-01, 23:50:58
Irgendwas verwirrt mich, wieso bricht die Ultra bei 1024x768 - DM-Asbestos von Medium auf High Details so extrem ein? Also 50fps statt 175fps... die Kyro2 und R7500 brechen ja nur um ca. 50% ein. Nicht mal die GF4 MX460 bricht so stark ein, obwohl es ja eigentlich ähnliche Karten sind. Vielleicht ists ja mangelnde Bandbreite? Irgendwie kann ich mir nicht erklären, wieso nur die Ultra soo extrem einbricht...

TBird
2002-07-02, 07:50:45
Originally posted by Doomtrain
Warum sollte er?


In Zukunft wird er es müssen, oder Quality auf Null stellen.


Hast du jemals eine KyroII gehabt?


Warum sollte ich ?


z.B. Aquanox läuft mit (fast) allen Detail (ohne Multipass) optimal.


(Fast) alle Details sind mir zu wenig Details.
Und wenn ich bei mir (1,33 Ghz, 512 MB, GF3) schon selbst bei älteren Spielen runterschalten muß, dann will ich nicht wissen wie ActionNews spielen "muss".
Aber jeder hat halt andere Ansprüche...


Also nicht flamen sondern sachlich bleiben :nono:


Das war kein flamen sondern eine Frage, also schön ruhig bleiben.

ActionNews
2002-07-02, 08:53:34
Originally posted by El-Diablo
Irgendwas verwirrt mich, wieso bricht die Ultra bei 1024x768 - DM-Asbestos von Medium auf High Details so extrem ein? Also 50fps statt 175fps... die Kyro2 und R7500 brechen ja nur um ca. 50% ein. Nicht mal die GF4 MX460 bricht so stark ein, obwohl es ja eigentlich ähnliche Karten sind. Vielleicht ists ja mangelnde Bandbreite? Irgendwie kann ich mir nicht erklären, wieso nur die Ultra soo extrem einbricht...

Ich kann mir zwei möglichkeiten vorstellen:

1. Die Medium Setting sind mit 16bit Farbtiefe, die High Settings sind mit 32bit. Bei der Ultra verursacht ein umschalten auf 32bit enorme Einbrüche, beim KyroII aber nicht.

Und 2. werden bei High Detail Setting mehrere Texturlayer und hochauflösende Texturen verwendet und da muss die Ultra schon ab 2 Texturschichten noch mal rendern während der KyroII bis zu 8 Layer in einem Renderpass berechnen kann.

CU ActionNews

ActionNews
2002-07-02, 08:58:36
Originally posted by TBird
In Zukunft wird er es müssen, oder Quality auf Null stellen.

Irgendwann muss man mit JEDER Grafikkarte die Details herunterstellen oder man kauft sich eine neue Grafikkarte. Auch ich werde das mit meiner KyroII irgendwann tun müssen.


Warum sollte ich ?


Weil du dann den KyroII besser beurteilen kannst! Nimm dir ein Beispiel an ow. Der war auch nie besonders Begeistert von den Kyros, aber nur aus Neugier hat er sich eine KyroI zugelegt und war doch positive überrascht :)!


(Fast) alle Details sind mir zu wenig Details.
Und wenn ich bei mir (1,33 Ghz, 512 MB, GF3) schon selbst bei älteren Spielen runterschalten muß, dann will ich nicht wissen wie ActionNews spielen "muss".
Aber jeder hat halt andere Ansprüche...


Bei welchem "ältem" Spiel musst du die Details mit einer Geforce3 herunterdrehen? Kann ich mir jetzt eigentlich nicht vorstellen.

CU ActionNews

GloomY
2002-07-02, 10:40:29
Originally posted by ow
Klar sind die Innenlevel besser fuer die Kyro, da mehr Overdraw als in Aussenleveln. Das würde ich (vom logischen Verständnis her) auch sagen. Aber warum performen dann die anderen Karten in der In-Door Map so viel besser als die Kyro? ???

Priest
2002-07-02, 10:41:54
@ Action

Ich mag falsch liegen, aber hieß es nicht immer, dass UT 2003 16 Bit nicht mehr unterstützt?

Oder war das bei Doom 3?

Cu P.

Rossi
2002-07-02, 11:01:22
Ich sagen, das Spiel ist ja was Hardware angeht fast anspruchslos, läuft auf allen Grafikkarten in 1600x1200 flüssig!

Respekt!

Dass die GF4 alles in in Grund & Boden rennen war ja fast schon klar!
Hab aber kein Problem damit, im Gegenteil freut mich das die 128 MB bei der 4200er nutzlos sind, da weiss ich, dass ich das richtige gekauft hab!

Rossi

ow
2002-07-02, 12:07:05
Originally posted by Priest
@ Action

Ich mag falsch liegen, aber hieß es nicht immer, dass UT 2003 16 Bit nicht mehr unterstützt?



UT2003 unterstuetzt auf jeden Fall 16Bit. Und Doom3 wird das auch tun.

ActionNews
2002-07-02, 12:18:51
Originally posted by Priest
@ Action

Ich mag falsch liegen, aber hieß es nicht immer, dass UT 2003 16 Bit nicht mehr unterstützt?

Oder war das bei Doom 3?

Cu P.

Also ganz falsch liegst du da nicht. Anfangs sollte UT 2003 nur 32bit unterstützen. Aber Epic hat sich anscheinend anders entschieden um auch die Voodoo3 unterstützen zu können.

CU ActionNews

Demirug
2002-07-02, 12:19:32
Originally posted by ow


UT2003 unterstuetzt auf jeden Fall 16Bit. Und Doom3 wird das auch tun.

Bei DOOM III wäre ich mir da nicht so sicher. Und selbst wenn dann nur auf Grafikkarten die 16 bit Farbe mit 24/8 Z/Stencil unterstützen.

ow
2002-07-02, 12:23:08
Originally posted by ActionNews


Also ganz falsch liegst du da nicht. Anfangs sollte UT 2003 nur 32bit unterstützen. Aber Epic hat sich anscheinend anders entschieden um auch die Voodoo3 unterstützen zu können.

CU ActionNews


Ich glaube nicht, dass das mit den V3s zusammenhaengt. Die sind viel zu langsam, als das sich irgendein Progger da jetzt noch drum schert.

ow
2002-07-02, 12:24:41
Originally posted by Demirug


Bei DOOM III wäre ich mir da nicht so sicher. Und selbst wenn dann nur auf Grafikkarten die 16 bit Farbe mit 24/8 Z/Stencil unterstützen.


Ja, der Gedanke kam mir auch gerade.

Wenn Stencilbuffer Pflicht ist, dann geht's unter 16Bit Framebuffer nur mit Radeons und Kyros. Die GFs koennen's nicht.

nocturne
2002-07-02, 12:36:14
Irgendwo meine ich mal gelesen zu haben, dass laut Carmack Doom3 nur noch 32bit-Karten unterstützt und 16bit-Karten wie der Voodoo3 draußen bleiben. Im Moment finde ich aber die Quelle nicht mehr, vielleicht reiche ich sie später mal nach.

aths
2002-07-02, 12:38:19
Originally posted by ow
Ich glaube nicht, dass das mit den V3s zusammenhaengt. Die sind viel zu langsam, als das sich irgendein Progger da jetzt noch drum schert. :nono:

UT2003 soll auch auf TNT2-Karten noch (gerade so) laufen, die sind auch nicht schneller. Um TNT2-Klasse scheren sich die Progger heute auch noch. TNT2 wäre in 32 Bit kaum schnell genug, so dass für TNT2 und auch Voodoo3 eine 16-Bit-Option für einige sicherlich ein angenehmer Fallback darstellt.

ow
2002-07-02, 12:44:36
Nein aths, um ne TNT2 schert sich auch kein Progger mehr.
IMO ist alles unter GF1 oder GF2MX unbrauchbar fuer UT2003.

Und selbst bei diesen Karten muss man evtl. auf 16Bit runterschalten.

Fuer Radeons und Kyros bringt's eh fast nix, mit 16Bit zu spielen.

StefanV
2002-07-02, 12:53:14
Originally posted by ow
Nein aths, um ne TNT2 schert sich auch kein Progger mehr.
IMO ist alles unter GF1 oder GF2MX unbrauchbar fuer UT2003.

Und selbst bei diesen Karten muss man evtl. auf 16Bit runterschalten.

Fuer Radeons und Kyros bringt's eh fast nix, mit 16Bit zu spielen.

Meinst du wirklich, daß die MX soviel schneller ist als die Voodoo3 bzw TNT2??

Mayhem
2002-07-02, 13:24:23
Originally posted by Stefan Payne
Meinst du wirklich, daß die MX soviel schneller ist als die Voodoo3 bzw TNT2??

MX(ausser 200) ist min 30% (Bandbreite) schneller, egal in welcher Auflösung.

ow
2002-07-02, 13:24:45
Guter Witz Stefan.

Ja, die MX ist viel schneller als TNT2 oder V3.
Unter 16Bit erreicht die MX die Leistung einer V5.

ow
2002-07-02, 13:26:19
Originally posted by Mayhem


MX(ausser 200) ist min 30% (Bandbreite) schneller, egal in welcher Auflösung.

Hi:)

Ja so sieht's aus.

Selbst die MX200 erreicht (trotz nur 64Bit Mem-IF) das Niveau einer TNT2.

ActionNews
2002-07-02, 14:00:41
Originally posted by ow



Ich glaube nicht, dass das mit den V3s zusammenhaengt. Die sind viel zu langsam, als das sich irgendein Progger da jetzt noch drum schert.

Kann sein. Jedenfalls wird jetzt 16bit unterstützt, sodass auch Voodoo3-Karten UT2003 starten können. Ich glaube irgendwo habe ich aber gelesen, dass das dann nur in 320x240 annehmbare FPS gibt :D!

CU ActionNews

ow
2002-07-02, 14:19:15
Kommt drauf an, was die limitierenden Faktoren sind.
Die Polygonmenge muss ja auch erstmal vom Chip bewaeltigt werden.

the_MAD_one
2002-07-02, 14:39:27
Originally posted by ActionNews


Kann sein. Jedenfalls wird jetzt 16bit unterstützt, sodass auch Voodoo3-Karten UT2003 starten können. Ich glaube irgendwo habe ich aber gelesen, dass das dann nur in 320x240 annehmbare FPS gibt :D!

CU ActionNews

Wenn die Demo raus ist kann ich ja mal testen wie es auf ner v3 laeuft :D. Der Rechner den ich meiner Mutter hingestellt habe hat naemlich noch ne v3 drin.

nocturne
2002-07-02, 14:44:01
Originally posted by ActionNews

Kann sein. Jedenfalls wird jetzt 16bit unterstützt, sodass auch Voodoo3-Karten UT2003 starten können. Ich glaube irgendwo habe ich aber gelesen, dass das dann nur in 320x240 annehmbare FPS gibt :D!


320x240? Super. Und das dann auch nur mit reduzierter Polygonzahl. Wenn man dann die Auflösung, die Texturdetails und die Polygonzahl so weit herunterschrauben muss, dass UT2003 auf einer Voodoo3 läuft, dann sieht's wahrscheinlich schlechter aus als damals UT auf meiner alten Voodoo2. ;)

Unregistered
2002-07-02, 16:17:43
OW es ist ein tatsache dass riva tnt und v3 unterstützt werden und dass das spiel damit spielbar ist. zwar nur in sehr geringer auflösung aber das wurde von daniel vogel bestätigt in dem fall ist das wohl eine TATSACHE :)
akzeptiere es doch einfach...

Xmas
2002-07-02, 16:45:28
Originally posted by ow
Klar sind die Innenlevel besser fuer die Kyro, da mehr Overdraw als in Aussenleveln.
Nicht zwangsläufig, da man bei den Innenleveln viel effizienter schon im Voraus den Overdraw vermeiden kann.

Originally posted by ow
UT2003 unterstuetzt auf jeden Fall 16Bit. Und Doom3 wird das auch tun.
UT2003 ist sicher, aber bei Doom3 bezweifle ich das mal ganz stark.
Denn Doom3 braucht laut JC für alle aktuellen Karten außer R8500 Destination Alpha (wegen Multipass Rendering). Das ist auch der Grund, warum er den Gigacolor-Modus der Parhelia nicht nutzen kann (nur 2 Alpha-Bits im Framebuffer).

ow
2002-07-02, 16:59:39
Originally posted by Unregistered
OW es ist ein tatsache dass riva tnt und v3 unterstützt werden und dass das spiel damit spielbar ist. zwar nur in sehr geringer auflösung aber das wurde von daniel vogel bestätigt in dem fall ist das wohl eine TATSACHE :)
akzeptiere es doch einfach...

??? wo hab ich denn was anderes behauptet ???

Als DX8 App. laeuft's sicher auf ALLEN Chips, deren Treiber unter DX8 funzt.
Also auch auf intel i740 oder dem Ati RagePro.

Nur geht's hier ja auch um Spielbarkeit.

ow
2002-07-02, 17:03:23
Originally posted by Xmas


UT2003 ist sicher, aber bei Doom3 bezweifle ich das mal ganz stark.
Denn Doom3 braucht laut JC für alle aktuellen Karten außer R8500 Destination Alpha (wegen Multipass Rendering). Das ist auch der Grund, warum er den Gigacolor-Modus der Parhelia nicht nutzen kann (nur 2 Alpha-Bits im Framebuffer).


Jetzt wird's mir zu technisch.;)
Was ist denn Dest.-Alpha und wozu braucht man das genau?

Xmas
2002-07-02, 17:13:13
Originally posted by ow
Jetzt wird's mir zu technisch.;)
Was ist denn Dest.-Alpha und wozu braucht man das genau?
Destination Alpha bedeutet, dass im Framebuffer zusätzlich zu RGB auch der Alpha-Wert gespeichert wird. Der Alpha-Wert des ersten Passes geht also nicht verloren, sondern kann am Ende des zweiten Passes zum Blending verwendet werden.

Demirug
2002-07-02, 17:15:16
Originally posted by ow



Jetzt wird's mir zu technisch.;)
Was ist denn Dest.-Alpha und wozu braucht man das genau?

Richtig den Dest. Alpha hatte ich ja total vergessen. Also DOOM III nur mit 32 bit Farbe.

Aber nun zu dir OW:

Dest. Alpha ist der Alphakanal im Backbuffer. Benötigt wird er wenn man beim Multipassrendern einen Alphawert (Skalar) von einen Pass zum nächsten retten muss.

Doom III braucht das laut aussage von JC und zwar mit mindestens 8 bit.

Edit: Zu Langsam

Snak84
2002-07-02, 18:41:41
Ich will jetzt nichts zu dieser Diskussion sagen ( weil ich einfach nicht weiss wovon ihr redet :-( ) doch hier habe ich was ganz komisches. http://www.digit-life.com/articles/anyr2002/anyr2005.html
Bei der UT2K3 Demo liegen alle Radeons hinter der ATI Radeon 8500 Retail (275/275) mit 128MB , selbst die Hercules 128MB @ 315/320 und das sogar extrem weit. Ich weiss nicht aber das ganz erscheint mir ziemlich Antiproportional, wieso fällt eine übertaktete Radeon plötzlich so weit nach hinten? ( unter 1024*768 und 1280*1024 )
:O

ow
2002-07-02, 19:25:07
Thx @ XMas&Demirug

Hmm... aber AFAIK unterstützen die GF Karten kein Destination Alpha.

Muss mal gerade nach der Quelle suchen...... kann mich ja auch irren.

Xmas
2002-07-02, 19:39:18
Originally posted by ow
Thx @ XMas&Demirug

Hmm... aber AFAIK unterstützen die GF Karten kein Destination Alpha.

Muss mal gerade nach der Quelle suchen...... kann mich ja auch irren.
Du irrst dich ;)
Unter D3D: D3DFMT_A8R8G8B8, wird von meiner Ti200 unterstützt.
AFAIK unterstützen alle Karten die ich kenne Destination Alpha, die 16-Bit Voodoos aber nur mit Einschränkungen (Unter Glide: entweder Depth- oder Alpha- oder Triple-Buffer).

edit: Na ja, vielleicht ein paar gaanz alte Karten...

StefanV
2002-07-02, 20:14:32
Originally posted by ow
Guter Witz Stefan.

Ja, die MX ist viel schneller als TNT2 oder V3.
Unter 16Bit erreicht die MX die Leistung einer V5.

guter Witz, ow

Ich glaub kaum daß deine MX viel schneller ist als meine beiden V3!

Und daß die MX schneller ist als 'ne V5 halte ich fürn Gerücht...

ow
2002-07-02, 20:43:20
Originally posted by Xmas

Du irrst dich ;)
Unter D3D: D3DFMT_A8R8G8B8, wird von meiner Ti200 unterstützt.
AFAIK unterstützen alle Karten die ich kenne Destination Alpha, die 16-Bit Voodoos aber nur mit Einschränkungen (Unter Glide: entweder Depth- oder Alpha- oder Triple-Buffer).

edit: Na ja, vielleicht ein paar gaanz alte Karten...


Hmm.. muss nix bedeuten, aber:

c´t 19/2001, S. 200, Test Profi Grakas



Das Produkt [ELSA Gloria 3/Quadro2Pro] unterscheidet sich in vielen Aspekten von FireGL4 und Wildcat2. Es fehlen Features wie Zweischirmbetrieb, Destination Alpha und 3D Texturen.

ow
2002-07-02, 20:45:37
Originally posted by Stefan Payne


guter Witz, ow

Ich glaub kaum daß deine MX viel schneller ist als meine beiden V3!

Und daß die MX schneller ist als 'ne V5 halte ich fürn Gerücht...

Nein, nicht viel, vielleicht 50-100%, je nach Anwendung.


Gerüchte? Sowas verbreitest doch nur du.
V5 Niveau ist locker drin unter 16 Bit mit MX Karten.

vogel
2002-07-02, 20:46:48
Originally posted by ow
Ja, der Gedanke kam mir auch gerade.

Wenn Stencilbuffer Pflicht ist, dann geht's unter 16Bit Framebuffer nur mit Radeons und Kyros. Die GFs koennen's nicht.
GeForce 3, GeForce 4 Ti & MX koennen 16/32

-- Daniel, Epic Games Inc.

vogel
2002-07-02, 20:51:25
Originally posted by vogel
GeForce 3, GeForce 4 Ti & MX koennen 16/32

Ich meine "c16/z32" :)

-- Daniel, Epic Games Inc.

vogel
2002-07-02, 20:52:35
Originally posted by Snak84
http://www.digit-life.com/articles/anyr2002/anyr2005.html

Nicht representativ und hoffentlich nicht mehr lange online.

-- Daniel, Epic Games Inc.

StefanV
2002-07-02, 20:53:25
Originally posted by ow
Nein, nicht viel, vielleicht 50-100%, je nach Anwendung.


Gerüchte? Sowas verbreitest doch nur du.
V5 Niveau ist locker drin unter 16 Bit mit MX Karten.

1. ja, zugunsten der V3 *eg*

2. lol, guter Witz, bezieht sich das eigentlich nur auf den 3D Mark??
Oder beziehst du dich auf maximal 800x600??

ow
2002-07-02, 20:59:26
Originally posted by vogel

Ich meine "c16/z32" :)

-- Daniel, Epic Games Inc.

aah thx:)

Bin wohl nicht ganz aktuell über die Chipfähigkeiten.

Kleine Frage: Was macht der Kyro mit den Cubemaps?

ow
2002-07-02, 21:01:47
Originally posted by Stefan Payne


1. ja, zugunsten der V3 *eg*

2. lol, guter Witz, bezieht sich das eigentlich nur auf den 3D Mark??
Oder beziehst du dich auf maximal 800x600??


Lass es einfach bleiben, SP. Du redest mal wieder nur dummes Zeug. Schau dir Reviews im Web an.

Quasar
2002-07-02, 21:07:31
Originally posted by Unregistered
OW es ist ein tatsache dass riva tnt und v3 unterstützt werden und dass das spiel damit spielbar ist. zwar nur in sehr geringer auflösung aber das wurde von daniel vogel bestätigt in dem fall ist das wohl eine TATSACHE :)
akzeptiere es doch einfach...

Ich meine mich in diesem Zusammenhang an einen Satz zu erinnern, der in etwa wie folgt lautete:

"Man wird es in etwa so gut spielen können, daß man merkt, daß man aufrüsten will..."

*eg*

StefanV
2002-07-02, 21:08:34
Originally posted by ow
Lass es einfach bleiben, SP. Du redest mal wieder nur dummes Zeug. Schau dir Reviews im Web an.

Warum soll ICH mir das raussuchen, wenn DU sowas behauptest??

Die V3 ist nunmal oft schneller als die MX...

ow
2002-07-02, 21:31:57
Und eine V1 schlägt die Gf4, jaja stefan. :lol:

Thowe
2002-07-02, 21:37:23
Originally posted by Stefan Payne


Warum soll ICH mir das raussuchen, wenn DU sowas behauptest??

Die V3 ist nunmal oft schneller als die MX...

Jau, z.B. bei Turok mit Glide, tolle Idee. Die Diskussion ist zu einen schwachsinnig und zum anderen jenseits des Intressanten. Wenn du diese weiterführen möchtest, dann mach das im Spammforum, da ist sie bestens aufgehoben. Ansonsten finde ich 30 Postings mit unargumentierten Inhalt um nur was gegen ow zu sagen schon geradezu erbärmlich, etwas Argumentation mit vielleicht ein wenig Beweisführung wären schon sehr angebracht.




Cubemaps und Kyro würde mich auch interessieren :)

Mayhem
2002-07-02, 21:45:46
Originally posted by Stefan Payne
Die V3 ist nunmal oft schneller als die MX...

Na ja, eigentlich nur bei U9, mit dessen Engine sich die Programmierer ein Armutszeugnis ausgestellt haben.

vogel
2002-07-02, 21:47:32
Originally posted by ow
Bin wohl nicht ganz aktuell über die Chipfähigkeiten.

Kleine Frage: Was macht der Kyro mit den Cubemaps?
Interessanterweise unterstuetzt 'ne GeForce 2 MX den unnuetzen Modi c32/z16. GeForce 1/2 unterstuetzen keine "gemischten buffer".

Wenn Cubemaps ausgeschaltet sind oder die Karte sie nicht beherrscht wird einfach nur das erste Face der Cubemap in einer normalen Textur benutzt. Funktioniert in der Praxis ziemlich gut.

-- Daniel, Epic Games Inc.

StefanV
2002-07-02, 21:48:10
Originally posted by Mayhem


Na ja, eigentlich nur bei U9, mit dessen Engine sich die Programmierer ein Armutszeugnis ausgestellt haben.

oder besser gesagt bei allen Games, die auch Glide unterstützen.

Auch ansonsten ist die MX und V3 nicht weit auseinander...

Quasar
2002-07-02, 22:19:22
Originally posted by vogel
Wenn Cubemaps ausgeschaltet sind oder die Karte sie nicht beherrscht wird einfach nur das erste Face der Cubemap in einer normalen Textur benutzt. Funktioniert in der Praxis ziemlich gut.

Heisst das, daß in Anands Tests die Kyro-II nicht dasselbe gerendert hat, wie die "geschlagene" GF2u/pro?

c.e
2002-07-02, 22:48:25
koennt ihr mal was zur parhelia sagen ???

ich find so furchtbar schlecht is die garnicht weggekommen, oder *hoff* ;(

catac

Mayhem
2002-07-02, 23:43:50
Was soll man zur Parhelia sagen, was eigentlich nicht schon gesagt wurde ?
Für den Preis kann man sie als Gamer-Karte vergessen. Meiner Meinung nach ist sie falsch balanciert (geringer Chiptakt <-> zuviel Bandbreite). Allerdings bin ich fest davon überzeugt, dass die Treiber noch sehr großer Mist sind. Bestes Bsp. ist die niedrige VS-Leistung trotz 4-fach Auslegung. In 6 Mon. werden neue Spiele darauf 1,5 mal so schnell laufen wie auf der 4600er ohne jemals in 150FPS Regionen zu kommen. Am besten kann man sie mit V5 vergleichen : exzellente Bildqualität, durchwachsene Performance in Standard-Modi.

nocturne
2002-07-03, 00:47:49
Originally posted by Mayhem
Was soll man zur Parhelia sagen, was eigentlich nicht schon gesagt wurde ?
Für den Preis kann man sie als Gamer-Karte vergessen. Meiner Meinung nach ist sie falsch balanciert (geringer Chiptakt <-> zuviel Bandbreite). Allerdings bin ich fest davon überzeugt, dass die Treiber noch sehr großer Mist sind. Bestes Bsp. ist die niedrige VS-Leistung trotz 4-fach Auslegung

"Zuviel Bandbreite" würde ich nicht sagen, denn gerade in Bandbreiten-Stresstests bricht die Parhelia ja stärker ein als die 128bit-Konkurrenz von nVidia und sogar von ATI. Da ist in der Konstruktion bei Matrox arg was schief gelaufen.

aths
2002-07-03, 01:24:37
Originally posted by nocturne
"Zuviel Bandbreite" würde ich nicht sagen, denn gerade in Bandbreiten-Stresstests bricht die Parhelia ja stärker ein als die 128bit-Konkurrenz von nVidia und sogar von ATI. Da ist in der Konstruktion bei Matrox arg was schief gelaufen. Oder die Treiber sind noch sehr unausgereift. Deine Theorie, dass Parhelia ernsthafte Designfehler hat, (was du du zumindest implizit so darstellst) wird derzeit durch keinen Fakt gestützt.

nocturne
2002-07-03, 01:33:19
aths,
Du bringst aber auch kein Gegenargument. Wenn laut Matrox-Mitarbeitern keine grossen Steigerungen durch Treiberoptimierung mehr zu erwarten sind, wo liegt die Schwäche dann?

Ausserdem warst Du ja derjenige, der in den letzten zwei Monaten gebetsmühlenratig wiederholt hatte, wie toll doch die Matrox-Treiber seien. "Vertrau mir". ;)

vogel
2002-07-03, 01:51:17
Originally posted by Quasar
Heisst das, daß in Anands Tests die Kyro-II nicht dasselbe gerendert hat, wie die "geschlagene" GF2u/pro?
Richtig. Macht aber in der Praxis aber relativ wenig aus in den beiden getesteten Levels.

-- Daniel, Epic Games Inc.

ow
2002-07-03, 09:02:56
Originally posted by vogel

Interessanterweise unterstuetzt 'ne GeForce 2 MX den unnuetzen Modi c32/z16. GeForce 1/2 unterstuetzen keine "gemischten buffer".

Wenn Cubemaps ausgeschaltet sind oder die Karte sie nicht beherrscht wird einfach nur das erste Face der Cubemap in einer normalen Textur benutzt. Funktioniert in der Praxis ziemlich gut.

-- Daniel, Epic Games Inc.


Hab selbst u.a eine GF2MX, das weiss ich also.
Ganz unnuetz ist der c32/z16 IMO aber nicht, denn die Performance liegt min. 10% ueber c32/z24, vermutlich aufgrund der Bandbreitenlimitierung der GF2MX.

Mayhem
2002-07-03, 09:30:26
Originally posted by nocturne
Wenn laut Matrox-Mitarbeitern keine grossen Steigerungen durch Treiberoptimierung mehr zu erwarten sind, wo liegt die Schwäche dann?


Wenn dies ein Matrox-Mann wirklich gesagt hat, dann kann nur ein Designfehler vorliegen. Ich hab aber noch nie ein Statement in dieser Richtung gelesen.

TBird
2002-07-03, 09:41:55
Originally posted by nocturne
"Vertrau mir". ;)

:lol:

Komisch nur daß Herr aths ohne weiteres von einem angeblichen "Bug" beim AF der GF4 ausgeht, aber die Parhelia ist natürlich über jeden Zweifel erhaben.
Lustig...

aths
2002-07-03, 12:36:16
Originally posted by TBird
Komisch nur daß Herr aths ohne weiteres von einem angeblichen "Bug" beim AF der GF4 ausgeht, aber die Parhelia ist natürlich über jeden Zweifel erhaben.
Lustig... Schade, dass du außer Streit nichts weiter beizutragen hast.

Bei GF4 ging ich nicht von einem Bug aus, sondern stellte die Frage nach einem Bug. Mein Posting führte dazu, dass zeckensack dankenswerterweise ein nettes Programm schrieb, womit die Frage nach dem Bug mit nein beantwortet werden konnte. Ich kann beim besten Willen nicht erkennen...

... oh, ich vergaß. Wir von 3DCenter haben ja die duuunkelsten Absichten. Und du bekommst jetzt einen Lolli von mir :Lolli rüberreich:

ow
2002-07-03, 12:56:17
Originally posted by aths
Schade, dass du außer Streit nichts weiter beizutragen hast.

Bei GF4 ging ich nicht von einem Bug aus, sondern stellte die Frage nach einem Bug.


???

Das hier nennst du eine Frage:


Fakt sind jedenfalls zwei Dinge:

- Der Geschwindigkeitsboost geht zulasten der Grafikqualität, auch wenn sich der Verlust offenbar sehr in Grenzen hält.

- Die Änderung ist direkt auf den GeForce4-Bug zugeschnitten.





Ich wuerde sagen ausser Verleumdungen ist von deinen "Fakten" nichts uebrig geblieben.

Snak84
2002-07-03, 13:09:42
Also ich wollte mal frage sind 128MB Grafikkartenspeicher Sinnlos bei UT2K3 oder nicht ?

jedi
2002-07-03, 13:19:20
Originally posted by ow
Ich wuerde sagen ausser Verleumdungen ist von deinen "Fakten" nichts uebrig geblieben.

Was interessiert aths schon sein Geschwätz von gestern? :nono:

TBird
2002-07-03, 13:51:42
aths,

ich sag nur: siehe ow.

Viel Spaß noch im Forum...

EDIT: Übrigens würde ich an Deiner stelle nicht von "Wir von 3DCenter" sprechen wenn ich Dich explizit anspreche. Das könnte so manch anderer von 3DCenter als Beleidigung auffassen.

aths
2002-07-03, 14:42:41
Ach ow, dass GF4 ein AF-Problem hat, ist bekannt und unbestritten. Ich nenne das in diesem Bezug Bug*. Was hast du dagegen einzuwenden? Das "Verleumdung" zu nennen, ohne eine vernünftige Erklärung für den AF-Bug bieten zu können, verstehe ich nicht. Wenn das Nachhaken bei merkwürdigen Dingen für dich eine Verleumdung darstellt, kann ich dir auch nicht helfen. Dass ich im Quote "Bug" verwendet habe, bezieht sich auf

Originally posted by aths
- Wenn auf GeForce3 beide TMUs (nennen wir sie TMU_0 und TMU_1) anisotrop filtern sollen, sinkt die effektive Füllrate auf 50%.

- Soll GeForce4 zwei Texturen anisotrop filtern, sinkt die effektive Füllrate auf 25%. Das gilt zunächst auch für OpenGL.Was hast du in der Hand, um diese Fakten zu entkräften?

Originally posted by ow
Ich wuerde sagen ausser Verleumdungen ist von deinen "Fakten" nichts uebrig geblieben. Ansonsten wäre das eine Verleumdung.


* Meine (eigentlich bekannte) Alternativtheorie ist, dass nVidia mit Absicht Leistung zurückhält.


Originally posted by ow (16.Nov.2001 14:25)
Ich hacke auf niemandem herum und bin sicher einer der objektivsten ueberhaupt in dem Forum hier. Mit Verlaub, davon merke ich wenig. Was ich sehe ist, dass du nV wie dein eigen Fleisch und Blut vor "Verleumdung" schützen willst. Dafür (also für eine harte kontrahäre Argumentation) wäre ich sogar dankbar, wenn du eine 'bessere' Erklärung zum GF4-AF anzubieten hättest.

aths
2002-07-03, 14:48:44
Originally posted by TBird
Wieso, stimmt doch: Wir von 3DCenter hegen duuunkelste Absichten. Bei uns findet sich für jede Firma ein Fanboy: Exxtreme macht Werbung für ATI, Thowe hypt Kyro, Andre passt auf dass nV gut abschneidet... Der unfähigste Obertrottel bin aber ich, wie du richtig festgestellt hast: Weil es bei 3dfx keinen Sinn mehr hätte, propagiere ich jetzt Matrox.

Ein Glück für alle Leser, dass du so schonungslos aufdeckst und mich entlarvst.

TBird
2002-07-03, 15:22:41
aths,

schon allein dass Du in "Fanboy"-Kategorien denkst (wie auch immer wieder aus Deinen Artikeln ersichtlich wird) zeigt mir welche Geisteshaltung Du für Dich beanspruchst.

Euer Ehren, keine weiteren Fragen.

jedi
2002-07-03, 15:52:25
Originally posted by TBird
aths,

Übrigens würde ich an Deiner stelle nicht von "Wir von 3DCenter" sprechen wenn ich Dich explizit anspreche. Das könnte so manch anderer von 3DCenter als Beleidigung auffassen.
Yep. Gottseidank ist 3dcenter-Chef Leonidas nicht so ein Propaganda-Fanatiker wie aths. Wenn aths für seine Propaganda kritisiert wird, versteckt er sich zwar immer gerne hinter Leonidas mit Sprüchen wie "Wir von 3DCenter hegen duunkelste Absichten". Aber erstens langweilt dieses Ablenkungsmanöver inzwischen und zweitens hat Leonidas diese Tour nicht verdient, mit aths zusammen in einen Topf geworfen zu werden.

:nono:

ow
2002-07-03, 16:46:45
Originally posted by aths



Mit Verlaub, davon merke ich wenig. Was ich sehe ist, dass du nV wie dein eigen Fleisch und Blut vor "Verleumdung" schützen willst. Dafür (also für eine harte kontrahäre Argumentation) wäre ich sogar dankbar, wenn du eine 'bessere' Erklärung zum GF4-AF anzubieten hättest.


Du hast ja nicht mehr alle Tassen im Schrank!!


Ich habe in deinem Thead bzgl. des GF4 AF erklaert, dass es mir NUR darum geht, dass die Begriffe "Cheat" und "Bug" unangebracht sind.

Jeder ist solange unschuldig bis das Gegenteil bewiesen wird.

Nur scheinst du davon nichts zu halten. Da wird immer gleich "Bug" oder "Cheat" geschrien. Und DAS ist Verleumdung. Naemlich dann, wenn man dies als Fakten hinstellt.

ow
2002-07-03, 16:48:50
Originally posted by jedi

Yep. Gottseidank ist 3dcenter-Chef Leonidas nicht so ein Propaganda-Fanatiker wie aths. Wenn aths für seine Propaganda kritisiert wird, versteckt er sich zwar immer gerne hinter Leonidas mit Sprüchen wie "Wir von 3DCenter hegen duunkelste Absichten". Aber erstens langweilt dieses Ablenkungsmanöver inzwischen und zweitens hat Leonidas diese Tour nicht verdient, mit aths zusammen in einen Topf geworfen zu werden.

:nono:


Full ack.

Stoesst mir auch uebel auf, wenn aths von "Wir von 3DCenter.." redet.

aths
2002-07-03, 19:36:29
Originally posted by ow
Du hast ja nicht mehr alle Tassen im Schrank!!Tze.
Originally posted by ow
Ich habe in deinem Thead bzgl. des GF4 AF erklaert, dass es mir NUR darum geht, dass die Begriffe "Cheat" und "Bug" unangebracht sind.

Jeder ist solange unschuldig bis das Gegenteil bewiesen wird.

Nur scheinst du davon nichts zu halten. Da wird immer gleich "Bug" oder "Cheat" geschrien. Und DAS ist Verleumdung. Naemlich dann, wenn man dies als Fakten hinstellt. Was du machst, ist Verleumdung. Ich wiederhole noch mal: Die beiden Fakten stehen so im Raum und werden nicht betritten. Ich fragte dich, was man denn sonst außer "Bug" schreiben sollte. Darauf erhielt ich keine Antwort.

Das mit dem Cheat schrieb ich ausdrücklich unter Vorbehalt. Du bist ziemlich empfindlich sobald es auch nur ein klein wenig gegen nV geht, dass du dich sofort dermaßen beschwerst.

aths
2002-07-03, 19:41:17
Originally posted by jedi
:lol: Kindische Streitsuche. Du hast dir redlich einen Lolli verdient :rüberreich:

Thowe
2002-07-03, 21:23:30
Oh ha. Welch Diskussion um nichts.

StefanV
2002-07-03, 21:33:17
Originally posted by Thowe
Oh ha. Welch Diskussion um nichts.

Tja, wundert mich auch immer wieder, wie einige sich an die Kehle springen, wenn man 'ihre' Hardware angreift...

BTW: soll ich lieber den 53x53x16mm Kühler oder den V3 Kühler für die Radeon nehmen??

zeckensack
2002-07-03, 21:39:49
Originally posted by Stefan Payne
BTW: soll ich lieber den 53x53x16mm Kühler oder den V3 Kühler für die Radeon nehmen??
a)Den mit der höheren Oberfläche (mehr Rippen)
b)Wenn a unentschieden ausgeht, dann den schwarzen ;)

Thowe
2002-07-03, 21:54:46
*nickt*

BTW: Der Thread gewinnt an Wert :D

zeckensack
2002-07-03, 22:02:37
Originally posted by Thowe
BTW: Der Thread gewinnt an Wert :D Wie, war hier irgendwas :|
Nix gesehen, jedenfalls nichts interessantes *eg*

StefanV
2002-07-03, 22:10:35
Originally posted by Thowe
*nickt*

BTW: Der Thread gewinnt an Wert :D

1. wen meinst du??

2. was meinst du??

@Zecke

a)Den mit der höheren Oberfläche (mehr Rippen)
b)Wenn a unentschieden ausgeht, dann den schwarzen


a) hm, das ist die Frage, hat der V5 Kühler oder der schwarze 53x16mm Kühler mehr oberfläche...

b) die Voodoo3 'Bratpfanne' ist leider nicht schwarz.
zumindest die von der 3000 nicht und die 3500 konnt ich mir nicht leisten :(

Thowe
2002-07-03, 22:15:14
@Steffi

zu 1. Z-Bag

zu 2. Endlich mal ein Posting mit Inhalt


Kühler, dann den schwarzen.

zeckensack
2002-07-03, 22:17:22
Originally posted by Stefan Payne
a) hm, das ist die Frage, hat der V5 Kühler oder der schwarze 53x16mm Kühler mehr oberfläche...Sag mal, hast du die beiden Teile vor dir liegen, oder ich??? :D

zeckensack
2002-07-03, 22:19:47
Originally posted by Thowe
Kühler, dann den schwarzen. Nee, mehr Rippen, dann schwarz. Kühl folgt ja daraus. Und Kühler als nicht-Adjektiv würde ich in dem Zusammenhang ... ähh ... ?-)

StefanV
2002-07-03, 22:24:51
Ach, Dreck...

Der V3 Kühler passt nicht :(

Dieser *%&/$"§$% Quarz!!!!!!

StefanV
2002-07-03, 22:26:11
Originally posted by zeckensack
Sag mal, hast du die beiden Teile vor dir liegen, oder ich??? :D

Ach, stimmt ja, ich hab die ja liegen...

PS: das Thema hat sich eh erldigt :bawling:

Quasar
2002-07-03, 22:26:31
Säg' doch einfach 'n Stück raus......aus dem Kühler.

Thowe
2002-07-03, 22:27:31
Originally posted by zeckensack
Nee, mehr Rippen, dann schwarz. Kühl folgt ja daraus. Und Kühler als nicht-Adjektiv würde ich in dem Zusammenhang ... ähh ... ?-)

Hehe, nöööö, da Steffi nicht wusste welcher der beider Kühler die grössere Oberfläche bietet, müssen diese folgerichtig etwa gleich gross sein (oder Stefan blind), also somit den dessen Farbe Schwarz ist.

StefanV
2002-07-03, 22:27:47
Originally posted by Quasar
Säg' doch einfach 'n Stück raus......aus dem Kühler.

Bist du Wahnsinnig??

Doch nicht vom Kühler einer Vodoo3!!

Allein der Kühler hat schon Sammlerwert...

BTW: wenn ich meine Tube Patex finden würde, dann würd ich den Küher schonmal festkleben...

Quasar
2002-07-03, 22:30:38
Säg' doch einfach 'n Stück raus......aus der Radeon.

So etwa besser?

StefanV
2002-07-03, 22:34:39
Originally posted by Quasar
Säg' doch einfach 'n Stück raus......aus der Radeon.

So etwa besser?

Hm, eigentlich schon.

Nur leider hege ich den Verdacht, daß die Radeon hinterher nicht mehr funktionieren könnte, oder??

StefanV
2002-07-03, 22:43:25
Hab mal Quasars Rat bevolgt und ein Stück aus der Radeon gesägt.

Der V3 Kühler passt jetzt und liegt zum trocknen aufm Schrank...

zeckensack
2002-07-03, 23:19:45
Originally posted by Stefan Payne
Hab mal Quasars Rat bevolgt und ein Stück aus der Radeon gesägt.

Der V3 Kühler passt jetzt und liegt zum trocknen aufm Schrank... Aha. :|
Hast du gerade das Wort Pattex erwähnt? :o

Quasar
2002-07-03, 23:24:09
Pattex trocknet nicht, das klebt sofort :) Wärmeleitkleber, evtl. sogar Zwei-Komponenten?

StefanV
2002-07-03, 23:35:05
Originally posted by zeckensack
Aha. :|
Hast du gerade das Wort Pattex erwähnt? :o

Ja, ich hab Pattex erwähnt, warum??

BTW: hab mittlererweile die Tube gefunden und hab die Radeon mit dem Kühler verklebt...

@Quasar

???

zeckensack
2002-07-03, 23:35:14
Originally posted by Quasar
Pattex trocknet nicht, das klebt sofort :) Wärmeleitkleber, evtl. sogar Zwei-Komponenten? Der Erfahrene Heimwerker weiß aber, daß sich die Wirkung von Pattex nochmals verbessern lässt, wenn man die Klebeschicht (auf beiden Werkstücken dünn auftragen) wenige Minuten an der Luft antrocknen lässt. =)

Und dann gilt natürlich: der Preßdruck, nicht die Dauer, entscheidet über die Haltbarkeit der Verbindung ;)

zeckensack
2002-07-03, 23:37:01
Originally posted by Stefan Payne
Ja, ich hab Pattex erwähnt, warum??Errr, weil mir nicht bekannt ist, daß Pattex besonders wärmeleitfähig wäre. *eg*

StefanV
2002-07-03, 23:39:42
Originally posted by zeckensack
Errr, weil mir nicht bekannt ist, daß Pattex besonders wärmeleitfähig wäre. *eg*

Tja, scheint aber irgendwie so...

Pattex ist eigentlich das beste, das ich dafür nutze.

Der flüssige WLK von Reichelt ist scheiße, den bekommt man so schlecht wieder ab. (dazu noch dieser Geruch)
Das gleiche gilt für Sekundenkleber.

Uhu hab ich nicht weiter versucht, hab hier aber 'normalen' Tesa Kleber auf Wasser Basis, der taugt für Kühler verkleben auch nicht soo doll...

'Richtigen' WLK hab ich nie probiert, da mir das Zeugs zu teuer ist...

Schnitzl
2002-07-03, 23:54:52
Stefan, du solltest nicht zuviel von dem zeugs rauchen,
das tut nicht gut!
:eyes: :smokin:

P.S.:Mit ein wenig weed
hat jede Graka speed

Simon Moon
2002-07-04, 02:01:21
Originally posted by Schnitzl
P.S.:Mit ein wenig weed
hat jede Graka speed

bzw. selbst ne Dia Show wird mit weed zum Film ;D

Unregistered
2002-07-04, 13:48:34
Also soweit ich weiß bringt ein schwarzer Kühler mehr Nach- als Vorteile. Der Vorteil ist sicher, daß die Wäremabstrahlung größer ist. Nur leider nützt das nicht viel, denn die Wärme wird zu 99% (oder so) über Konvektion abgeführt und nicht über Strahlung. Das dumme ist nur, das schwarze Kühler eloxiert (Rechtschreibung?) werden, um die schwarze Farbe zu erzeugen. Und das eloxierte Material hat einen niedrigeren Wärmeleitwert, weswegen die Wärme schlechter nach außen geführt wird und somit die Wärmeabfuhr mehr behindert wird, als durch die verbesserte Wärmeabstrahlung gewonnen wird.

Alexander

StefanV
2002-07-04, 13:56:19
1. ah, irgendwie scheine ich diesem Thread doch einen Sinn zu geben *eg*

2. hab den V5 Kühler drauf, im leerlauf hab ch ca. 56°C!!
Scheint also durchaus zu funzen, werd mich nachher nochmal um den 3D Modus kümmern, mehr später :D

@Zecke

Wie du siehst kannst du die 8500 auch passiv Kühlen, beachte aber, daß ich momentan ein Desktop gehäuse hab...

StefanV
2002-07-04, 16:17:51
:bawling:

Die Karte kommt nicht über 57°C...

zeckensack
2002-07-04, 16:19:29
Originally posted by Unregistered
Also soweit ich weiß bringt ein schwarzer Kühler mehr Nach- als Vorteile. Der Vorteil ist sicher, daß die Wäremabstrahlung größer ist. Nur leider nützt das nicht viel, denn die Wärme wird zu 99% (oder so) über Konvektion abgeführt und nicht über Strahlung. Das dumme ist nur, das schwarze Kühler eloxiert (Rechtschreibung?) werden, um die schwarze Farbe zu erzeugen. Und das eloxierte Material hat einen niedrigeren Wärmeleitwert, weswegen die Wärme schlechter nach außen geführt wird und somit die Wärmeabfuhr mehr behindert wird, als durch die verbesserte Wärmeabstrahlung gewonnen wird.

Alexander Schon richtig. Normalerweise überwiegt eindeutig die Konvektion. Vor allem bei Zwangskühlung (ie mit Gebläse). Aber das die 'Schwärzung' einen soo großen Nachteil hat, daß kann irgendwie nicht ganz stimmen, dazu ist die Schicht viel zu dünn. Selbst diese nicht ganz perfekte andersartige Schicht besteht immerhin noch aus Metalloxiden und ähnlichem Kram, dürfte also von der Wärmeleitfähigkeit ungefähr auf dem Niveau überdurchschnittlich guter WLP liegen.

Faustregel für 'Vorteil schwarz' bei Passivkühlung sind ungefähr 15% niedrigerer Wäremewiderstand. Wie wir sehen, war es ja auch genau das, was der gute Stefen im Sinn hatte.
(senkrecht stehende Karte durch Desktopgehäuse begünstigt Passivkühlung noch zusätzlich)

Ich hatte ja auch extra geschrieben 'wenn Oberfläche unentschieden, dann schwarz'. :)

Ist aber jetzt auch wurscht, denn AFAIK ist die Voodoo3-3000-Bratpfanne sowieso blank ;)

zeckensack
2002-07-04, 16:20:27
Originally posted by Stefan Payne
:bawling:

Die Karte kommt nicht über 57°C... ???
Nicht heiß genug für deinen Geschmack, oder wie soll ich das verstehen?

StefanV
2002-07-04, 16:26:05
Originally posted by zeckensack
???
Nicht heiß genug für deinen Geschmack, oder wie soll ich das verstehen?

So ungefähr ;)

Naja die CPU wird wärmer als die passiv gekühlte GraKa, auch nicht schlecht...

BTW: ich hätte mit 'nem höheren Temp Anstieg unter Last gerechnet...
Aber anscheinend ist der V3 Kühler mehr als ausreichend.

BTW: der Kühler der 3500 ist schwarz...

zeckensack
2002-07-04, 17:01:04
Originally posted by Stefan Payne
So ungefähr ;)

Naja die CPU wird wärmer als die passiv gekühlte GraKa, auch nicht schlecht...

BTW: ich hätte mit 'nem höheren Temp Anstieg unter Last gerechnet...
Aber anscheinend ist der V3 Kühler mehr als ausreichend.

BTW: der Kühler der 3500 ist schwarz... 1)Na dann ist's ja gut :)
2)Um so besser, hatte mir schon Sorgen um deinen Geisteszustand gemacht :smokin: ;)

BTW1: Was hast du jetzt eigentlich genau abgesägt, um den passend zu machen?

BTW2: Pech für dich :P

Birdman
2002-07-04, 19:30:04
Originally posted by Unregistered
Also soweit ich weiß bringt ein schwarzer Kühler mehr Nach- als Vorteile. Der Vorteil ist sicher, daß die Wäremabstrahlung größer ist. Nur leider nützt das nicht viel, denn die Wärme wird zu 99% (oder so) über Konvektion abgeführt und nicht über Strahlung. Das dumme ist nur, das schwarze Kühler eloxiert (Rechtschreibung?) werden, um die schwarze Farbe zu erzeugen. Und das eloxierte Material hat einen niedrigeren Wärmeleitwert, weswegen die Wärme schlechter nach außen geführt wird und somit die Wärmeabfuhr mehr behindert wird, als durch die verbesserte Wärmeabstrahlung gewonnen wird.
Alexander
Heute sind ja mal wieder die Theoretiker unterwegs... :D

Dass die eloxierte Schicht die Wärme deutlich schlechter leitet als reines Aluminium ist zwar korrekt, doch vergisst du dabei ein ganz wichtiger Punkt. Diese elox-Schicht ist nur ca 3-5mü dick und spielt daher eine Untergeordnete Rolle.
Unbehandeltes Aluminium hingegen bildet aber schon nach kurzer Zeit an der Luft, ebenfalls eine (natürliche) Oxidationsschicht, welche aber halt aufgrund der Farbgebung nicht sichbar ist. Diese Schicht ist aber deutlich dicker als die künstlich hergestellte, und soweit ich mich noch erinnern kann, ~10-13mü dick.
Unbehandeltes Aluminum ist daher nur in den ersten paar tagen/wochen besser, danach kühlt es schlechter und sieht auch schlechter aus, als die eloxierten Counterparts.

StefanV
2002-07-04, 21:34:10
Originally posted by zeckensack
1)Na dann ist's ja gut
2)Um so besser, hatte mir schon Sorgen um deinen Geisteszustand gemacht

BTW1: Was hast du jetzt eigentlich genau abgesägt, um den passend zu machen?

BTW2: Pech für dich :P

1. fein =)
2. ich mir auch...

BTW1: nix *eg*, wollte mir nur mal einen spaß machen ;D
hab ihn so hingeschoben, daß es passt (rechts zwischen den Kondensatoren vorbei, sitzt natürlich etwas schief, ging aber nicht anders)...

BTW2: ja, sehe ich auch so...

Thowe
2002-07-04, 21:50:05
Vorweg ich gehe bei eloxiert immer von Schwarz aus :)
Begriffsklärung Eloxal = ELektrisch OXidiertes ALuminium

Also eloxierte Kühlkörper machen aus wärmetechnischer Sicht dann Sinn, wenn eine Eigenkonvektion bei hohen Oberläschentemparaturen erreicht werden soll. Es sollten keine Fremdstrahlungskörper die ihrerseits hohe Wärme erzeugen in der Nähe sein, da der eloxierte Kühlkörper diese annehmen würde (Stahlungsaustausch). Wird aktiv gekühlt, ist eine Eloxalschicht dank ihrer thermischen Isolation nicht ratsam, da der Übergangswiderstand verschlechtert wird. Fast alle im PC Bereich verwendeten Kühlkörper sind gerippt und somit für Konvektion ausgelegt und nicht für Strahlung, somit steigt auch der Strahlungsanteil nicht proportional mit der Fläche die zur Konvektion zur Verfügung steht. Die Rippenzwischenräume sind zu eng, somit findet der Strahlungsaustausch nur zwischen diesen statt.

Ein Vorteil der Eloxalschicht ist die elektrische Isolation, ist diese nicht erwünscht, kann man auch Kühler mit chromatierter Oberfläche verwenden.

Deshalb macht ein eloxierter Passivkühler eben Sinn, er ist für hohe Temparaturen ausgelegt und beim Lösung vom zu kühlenden Objekt kann er keinen Kurzschluss verursachen.

Unregistered
2002-07-05, 10:34:03
Originally posted by Thowe
Deshalb macht ein eloxierter Passivkühler eben Sinn, er ist für hohe Temparaturen ausgelegt und beim Lösung vom zu kühlenden Objekt kann er keinen Kurzschluss verursachen.

Ähm...sorry aber ich hab jetzt immer noch nicht ganz verstanden, wieso Ihr meinst, daß für Passivkühler ein eloxierter Kühlkörper besser ist. Auch wenn es ein Passivkühler (also ohne Lüfter) ist, ist immer noch die Konvektion der mit Abstand effektivste Prozess für den Wärmetransport. Man müßte mal einen eloxierten und einen nicht eloxierten Kühlköper einmal normal und einmal im Vakuum (=keine Konvektion) gegeneinander antreten lassen, um das abzuschätzen.

Das einzige Argument, daß mich bisher halbwegs überzeugt, ist das mit der Aluminiumoxidschicht, die sich nach einiger Zeit selbst bildet.

Alexander

StefanV
2002-07-05, 12:22:25
Hm, interessant...

Wenn ich den Lüfter aufm CNPS-5005 blasend Montiere, dann wird meine schöne Radeon deutlich über 60°C warm, beim Saugen hingegen bleibt sie eher in Richtung 50°C, bis 58°C hatte ich sie bei Last...

Thowe
2002-07-05, 20:29:55
Originally posted by Unregistered


Ähm...sorry aber ich hab jetzt immer noch nicht ganz verstanden, wieso Ihr meinst, daß für Passivkühler ein eloxierter Kühlkörper besser ist. Auch wenn es ein Passivkühler (also ohne Lüfter) ist, ist immer noch die Konvektion der mit Abstand effektivste Prozess für den Wärmetransport. Man müßte mal einen eloxierten und einen nicht eloxierten Kühlköper einmal normal und einmal im Vakuum (=keine Konvektion) gegeneinander antreten lassen, um das abzuschätzen.

Das einzige Argument, daß mich bisher halbwegs überzeugt, ist das mit der Aluminiumoxidschicht, die sich nach einiger Zeit selbst bildet.

Alexander

Schwarz eloxiert, eloxiert ist nicht = schwarz eloxiert. Es sind auch sehr dünne Schichten möglich, wie sie z.B. bei CPU-Kühlern häufig gemacht werden. Bei einen Rippenkühlkörper findet der Strahlungsaustausch de facto nur über seine Umrissfläche statt. So gesehen ist der Nutzen kaum beweisbar, gerade im Praxiseinsatz auch nicht 100% belegbar, da hier neben der Grafikkarte andere Wärmequellen wie z.B. ein TV-Karte sein können. Ansonsten ist das Thema schon recht schwierig. Will ich auch gar nicht im Detail erklären, aber eine nette Grundlage ist dies (http://www.wuek.rwth-aachen.de/de/Lehre/WUE_Skript_2003.pdf) hier.


EDIT: Einer der grössten Kühlkörperhersteller ist Fischer-elektronik, die Website (http://www.fischerelektronik.de/zwischentitel/zw_deutsch.htm) ist auch noch recht informativ.

BigBen
2002-07-06, 14:51:50
Habe ich das jetzt richtig verstanden, das man mit dem "Memory Bandwidth Comparison"-Test gemessen hat, ob der Test Speicherbandbreiten limitiert ist?
Wenn ja, wie wirkt sich sowas im Normalfall überhaupt auf ein Spiel wie UT 2003 aus? Die Werte sind ja arg auseinander :)

MfG
BigBen