PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Radeon 7500 ->>> GEIL!!!


Unregistered
2001-09-27, 09:09:46
http://www.digit-life.com/articles/radeon7500/index.html

http://www.clubic.com/m/a/876-1.html



und supa geil zum übertakten!!!!! 320 / 540 und mehr!!!!!!

Tatwaffe
2001-09-27, 12:49:47
aber ohne trueform oder?

camel
2001-09-27, 12:53:53
Originally posted by Tatwaffe
aber ohne trueform oder?
die 7500 is doch auch "nur" ne aufgebohrte
radeon I ?
allso ohne trueform

wenn die karte sich so gut ohne speicherkühlung oc`n lässt,respekt :bawling:

nggalai
2001-09-27, 12:59:39
Ehrlich gesagt hat mich das eher schockiert ... 320MHz? Was ist denn auf der GPU drauf? Die ist ja auch nur 15um ...

*wundert sich*

ta,
.rb

Quasar
2001-09-27, 13:02:04
naja, hat aber auch "nur" 30mio transistoren....die 275MHz in Serie der 8500 finde ich eher erstaunlich...

HOT
2001-09-27, 13:34:33
Allerdings. über 60Mio Transistoren und fast den gleichen Takt wie die 7500er find ich erstaunlich. Dann sollte sich die 7500er noch höher Takten lassen.
Digit Life (www.digit-life.com) hat übrigens auch ne Review gepostet und auch dort hält die 7500er gut mit der GF2 Ultra mit. Die sind von der Karten hellauf begeistert :D

Unregistered
2001-09-27, 14:36:47
Mehr kann man dazu nicht sagen, schwächen hat jede Karte.
Aber die Leistung beeindurckt mich schon.
Die Frage allerdings wie hoch wäre die Leistung, wenn der Core und Speicher nicht so
raugedreht wären?
Jedenfalls braucht die Karte einen starken Prozessor.
Deshalb kannste den Tecchannel und Heise Test mit 80 Mhz Proz fast in die Tonne hauen.

Gruss Labberlippe

Andre
2001-09-27, 14:42:18
Originally posted by Unregistered
Deshalb kannste den Tecchannel und Heise Test mit 80 Mhz Proz fast in die Tonne hauen.

Gruss Labberlippe

Haben die mit nem 486er getestet ? :O :bonk: :bonk:

Unregistered
2001-09-27, 15:18:56
Originally posted by Unregistered
Die Frage allerdings wie hoch wäre die Leistung, wenn der Core und Speicher nicht so
raugedreht wären?

dazu gibbet doch die radeon 64 im test...

StefanV
2001-09-27, 16:14:08
Also eine Radeon 1 läßt sich wunderbar passiv Kühlen!!!

Und ich denke, das müsste mit der 7500 auch gehen...

Und eine R1 lief ja auch schon auf 230Mhz...

Pi mal daumen sollte die RV200 bis 350Mhz gehen, wenn ATI die Karte nicht auf minimale Verlustleistung ausgelegt hat...

Unregistered
2001-09-27, 17:00:36
Natürlich 800 Mhz.
Jajaja die Tippfehler *rofl*

Gruss Labberlippe

Doomtrain
2001-09-27, 19:48:49
@Payne

350Mhz, wenn dieses Kärtchen so hoch geht, würde es mich sehr wundern. Aber warten wir es ab. Es ist technisch schon interessant, das eine Radeon mit 2 Pipelines eine Ultra killen kann (bei 350 Mhz auf jeden Fall *eg* )

StefanV
2001-09-27, 21:53:34
Originally posted by Doomtrain
@Payne

350Mhz, wenn dieses Kärtchen so hoch geht, würde es mich sehr wundern. Aber warten wir es ab. Es ist technisch schon interessant, das eine Radeon mit 2 Pipelines eine Ultra killen kann (bei 350 Mhz auf jeden Fall *eg* )

Fangen wir mal an ;):

1. Der 32bit Modus von nVidia wirkt irgendwie 'angebastelt' und ist SEHR lahm, am besten sollte der Vergleich zur Savage 3D/4 zu TNT2 M64 sein.

2. Die Radeon hat Bandbreitenschonende Maßnahmen (Hyper Z)

3. Die 3. TMU...

Man kann es auch anders Sagen:

Hirn schlägt Muckis...

PS: Wer hat schonmal versucht eine Radeon passiv zu Kühlen??
Es geht nämlich ;)...

Unregistered
2001-09-27, 22:12:36
mmh ich würde noch keine Lobeshymnen auf die Übertaktbarkeit singen. Die KyroII war auch als "ohne probleme bis auf 200Mhz übertaktbar" angepriesen -> Leider stellte sich nachher heraus, dass die Testkarten "handverlesen" war :-( meine Kyro hat auch nur 178mhz gepackt... mal schaun währe auf jeden Fall cewl wenns diesmal nicht nur ne Ente währe.

Kai
2001-09-27, 22:15:12
Originally posted by Stefan Payne
1. Der 32bit Modus von nVidia wirkt irgendwie 'angebastelt' und ist SEHR lahm, am besten sollte der Vergleich zur Savage 3D/4 zu TNT2 M64 sein.

Du musst differenzieren, Stefan! Die GF1 DDR geht, wie ich weiss ziemlich in die Knie - ebenso ne MX (iss ja irgendwo klar) - aber bei der GF3 seh ich da absolut kein Problem. Des sind nur ein paar fps Unterschied zum 16-bit Modus ... Ok, je höher die Auflösung desto mehr wird's, aber Performancemässig gesehen lohnt es sich bei mir in den jetzigen Spielen kein Stück auf 16bit umzuschalten.

StefanV
2001-09-27, 22:30:29
@Kai

Vergleiche zwischen gleichen Modellen!!

z.B. bricht eine Matrox G200 weniger stark ein, als eine TNT...

Mit der GF3 wurde dieser Umstand entschärft, indem mehr Bandbreite zu verfügung steht...

Unregistered
2001-09-27, 23:06:32
@kai: vergiß nicht, daß das z-occlusion(wieauchimmer) der gf3 anscheinend(nur indizien) bei einigen sachen in 16bit nicht funktioniert(siehe giants, villagemark)

man könnte ja rumspinnen und behaupten, im 16bit-modus SOLL dies nicht funktionieren...

Quasar
2001-09-28, 02:39:40
Originally posted by Stefan Payne
@Kai

Vergleiche zwischen gleichen Modellen!!

z.B. bricht eine Matrox G200 weniger stark ein, als eine TNT...

Mit der GF3 wurde dieser Umstand entschärft, indem mehr Bandbreite zu verfügung steht...

Falsch, es steht nicht mehr Bandbreite zur Verfügung als bei einer normalen ultra (128Bit DDR * 230MHz Takt).

Was jedoch zur Verfügung steht und auch gut genutzt wird, ist der X-Bar Memory Controller der in statt in einem 128Bit-Happen die Zugriffe mit 4x32Bit verwalten kann, und außerdem der vorgezogene Tiefentest...der in 16bit im übrigen außer beim Villagemark wirklich überflüssig ist...

Zum Argument: "bricht weniger Stark ein"...könnte man auch andersrum schreiben "hat grottenschlechte 16bit-Performance"

Unregistered
2001-09-28, 09:58:27
Originally posted by Quasar


Falsch, es steht nicht mehr Bandbreite zur Verfügung als bei einer normalen ultra (128Bit DDR * 230MHz Takt).

Was jedoch zur Verfügung steht und auch gut genutzt wird, ist der X-Bar Memory Controller der in statt in einem 128Bit-Happen die Zugriffe mit 4x32Bit verwalten kann, und außerdem der vorgezogene Tiefentest...der in 16bit im übrigen außer beim Villagemark wirklich überflüssig ist...

Zum Argument: "bricht weniger Stark ein"...könnte man auch andersrum schreiben "hat grottenschlechte 16bit-Performance"



Der vorgezogene Tiefentest der Gf3 scheint nur in 32Bit zu funktionieren. Deshalb ist die Karte unter 32Bit meist schneller als unter 16Bit.


Jo, ich denke ueber sie grottenschlechte 16Bit Performance anderer Chips braucht man nicht zu diskutieren. Es ist mir raetselhaft, wieso diese Firmen da keine Mehrleistung herausholen.

-ow-

nggalai
2001-09-28, 10:28:10
Mir ist rätselhaft, weshalb 16bit Performance bei neuen Karten noch irgendwen interessiert ... :)

ta,
.rb

Thowe
2001-09-28, 10:32:04
Originally posted by nggalai
Mir ist rätselhaft, weshalb 16bit Performance bei neuen Karten noch irgendwen interessiert ... :)

ta,
.rb

Mir auch.

Quasar
2001-09-28, 11:04:02
Solange einige nicht müde werden, auf den starken Einbruch in 32bit hinzuweisen, scheint es ja nötig zu sein, ab und an auf diesen Zusammenhang hinzuweisen....

Genaus für'n Arsch ist der ständige verweis auf dei ach so tolle 16bit qualität der Kyro...die alpha-raster im Rocket-Rauch bei Quake3 gehen davon auch nicht weg...

HOT
2001-09-28, 11:33:40
Ausserdem ist der Kyro bei 32Bit fast genausoschnell wie in 16Bit. Also macht 16Bit schlichtweg keinen Sinn bei dem Chip :D

Ceiser Söze
2001-09-28, 11:34:09
Ausserdem unterscheiden sich die 16bit-Werte des Kyro2 kaum von den 32bit-Werten (der Kyro ist nicht bandbreiten- sondern eher füllratenlimitiert).
16bit Werte sind genau dann interessant, wenn es um (ältere) Spiele geht, die eben noch kein 32bit-Rendering unterstützen. Aber dann sollte man in meinen Augen auch genau diese Spiele benchen und nicht einfach Quake3 in 16bit testen.
Ich mache nur 16bit-Benches, wenn dabei auch andere ressourcenintensive Features wie FSAA oder anisotropisches Filtering getestet werden. Quake3 Demo001 640x480x16, Low Detail sollte heute ganz einfach verboten werden...

StefanV
2001-09-28, 11:51:51
Wie gesagt:

Savage 4<->TNT2/M64
Unter 16bit nahezu gleich schnell, aber unter 32bit dominiert die Savage.

Man kann auch noch eine TNT2 mit einer Rage128 PRO vergleichen, das waren aber auch schon alle sinvollen Vergleiche, da es in diesem Fall nunmal nur sinig ist Chips mit gleicher Pipeline Struktur und bandbreite zu vermessen...

Also scheitet ein Vergleich zwischen TNT1 und G400 aus, nicht aber der Vergleich Vanta gegen G200...

Andre
2001-09-28, 12:15:43
Originally posted by Stefan Payne
Wie gesagt:

Savage 4<->TNT2/M64
Unter 16bit nahezu gleich schnell, aber unter 32bit dominiert die Savage.


Sollte eigentlich klar sein, da meiner Ansicht nach, die Savage ein 128-bittiges Speicherinterface hat.
Die M64 nur 64-bittig, dass ist natürlich unter 32 Bit katastrophal -> siehe MX-200.
Also kann man die Savage 4 NICHT mit der TNT2/M64 vergleichen, da unterschiedliches Memory-Interface.

ow
2001-09-28, 12:50:40
Originally posted by Andre


Sollte eigentlich klar sein, da meiner Ansicht nach, die Savage ein 128-bittiges Speicherinterface hat.
Die M64 nur 64-bittig, dass ist natürlich unter 32 Bit katastrophal -> siehe MX-200.
Also kann man die Savage 4 NICHT mit der TNT2/M64 vergleichen, da unterschiedliches Memory-Interface.



Da liegst du falsch, Andre.
Die Savage 4 hat auch nur ein 64Bit Mem-Interface.

Aber zu S3 lass ich lieber kein Kommentar ab, was nuetzen evtl. gute Chips, wenn die Treiber nichts taugen.

Das NV Chips eine 32Bit Schwaeche haben, ist einfach Unsinn.
Genau SO sollten sich alle Chips verhalten bei Wechsel von 16 zu 32Bit Rendering, es ist naemlich normal, das die Leistung hierbei abnimmt.

Andre
2001-09-28, 13:37:07
Oki, dann hab ich ma da vertan.
Ich meinte in Erinnerung zu haben, dass sie ein 128-bittiges hatte.
Aber wenn dem nicht so ist - gut.

StefanV
2001-09-28, 13:43:33
Aber 'lustigerweise' kann man die NV Chips unter 32bit recht gut und anscheinend auch einfach schlagen...

@ow

Wie erklärst du dir denn, daß die Savage schneller ist als die TNT2/M64??

Theoretisch gesehen müssten sie ähnlich schnell sein...

Auch der Vergleich G200/TNT ist interessant:

Unter 16bit wird die G200 recht deutlich geschlagen, aber unter 32bit nicht mehr so deutlich...

Müsste der Abstand eigentlich nicht ähnlich hoch sein??

Meine Vermutung ist, daß Rage128, Matrox G200 und S3 Savage 3D (und die Nachfolger) auf 32bit optimiert sind, die unter 16bit nicht optimal arbeiten...

Und die NV Chips sind auf 16bit Optimiert, die unter 32bit nicht optimal arbeiten...

Unregistered
2001-09-28, 13:47:26
Der Hauptaugenmerk beim Benchen sollte mittlerweile sowieso 32 Bit sein.
Im Ernst, wer spielt noch 16 Bit mit 640x480?
Freilich, man kann somit festellen, wie weit die Karte geht, nützt aber bei MX Modellen relativ wenig dieser Bench.
Da. 1. Die meisten sowieso in 1024x768 in 32 Bit zocken.
2. Solche Karten durch die Speicher heftig limitiert werden.

Ich kann mich noch gut errinnern, wie die Radeon auf den Markt gekommen ist.
Kaum Leistungseinbusse unter 32Bit.
Wie wurde es ausgelegt?
Scheiss Treiber, es muss ja der Treiber sein, weil die Karte unter 16 Bit nicht 40%Schneller ist.
Das ATI mit Hyperz einen Weg gefunden hat um die 32 Bit Performance zu steigern kommt keinen in den Sinn.

Heute: Die GeForce3, Leistungseinbuss unter 32 Bit auch kaum nennesnwert.
HMMMM Scheiss Treiber, weil die GeForce 3 nicht mit 40% einbricht, achso hier heist es Technologieführer......
Top Arbeit von den Treiber entwicklern, welche auch eine abwanderung von Hyperz eingebaut haben.


Mir ist 16 Bit mittlerweile egal, bei den Boliden von Grakas und CPUs, ist 16 Bit nicht mehr Zeitgemäss.

Gruss Labberlippe

Quasar
2001-09-28, 14:15:47
Originally posted by Unregistered

Ich kann mich noch gut errinnern, wie die Radeon auf den Markt gekommen ist.
Kaum Leistungseinbusse unter 32Bit.
Wie wurde es ausgelegt?
Scheiss Treiber, es muss ja der Treiber sein, weil die Karte unter 16 Bit nicht 40%Schneller ist.
Das ATI mit Hyperz einen Weg gefunden hat um die 32 Bit Performance zu steigern kommt keinen in den Sinn.

Heute: Die GeForce3, Leistungseinbuss unter 32 Bit auch kaum nennesnwert.
HMMMM Scheiss Treiber, weil die GeForce 3 nicht mit 40% einbricht, achso hier heist es Technologieführer......
Top Arbeit von den Treiber entwicklern, welche auch eine abwanderung von Hyperz eingebaut haben.


Mir ist 16 Bit mittlerweile egal, bei den Boliden von Grakas und CPUs, ist 16 Bit nicht mehr Zeitgemäss.

Gruss Labberlippe

Prinzipiell geb' ich dir recht, 16bit ist nicht mehr zeitgemäß, kann aber durchaus helfen, das leben einer Graka zu verlängern, wenn die Performance für 32bit nicht mehr reicht...geht natürlich nur, wenn die 16bit Performance auch höher ist, als die 32bittige...

Aber ansonsten verdrehst du hier aber einiges:
Die Radeon ist unter 32bit etwas langsamer als die GF2, unter 16bit allerdings viel langsamer.
Eine GF3 ist unter 16bit nicht langsamer als eine gleichgetaktete GF2, deren Rendering-Architektur sie ja auch hat...allerdings ist sie in 32bit auch nicht langsamer als der gleiche Rendering-Core (abgesehen vonder nFinite-FX Engine) in 16bit.
Das ist IMHO schon ein kleiner Unterschied....

Die GF3 ist unter 16bit genausoschnell

Unregistered
2001-09-28, 14:42:02
Originally posted by Quasar


Prinzipiell geb' ich dir recht, 16bit ist nicht mehr zeitgemäß, kann aber durchaus helfen, das leben einer Graka zu verlängern, wenn die Performance für 32bit nicht mehr reicht...geht natürlich nur, wenn die 16bit Performance auch höher ist, als die 32bittige...

Aber ansonsten verdrehst du hier aber einiges:
Die Radeon ist unter 32bit etwas langsamer als die GF2, unter 16bit allerdings viel langsamer.
Eine GF3 ist unter 16bit nicht langsamer als eine gleichgetaktete GF2, deren Rendering-Architektur sie ja auch hat...allerdings ist sie in 32bit auch nicht langsamer als der gleiche Rendering-Core (abgesehen vonder nFinite-FX Engine) in 16bit.
Das ist IMHO schon ein kleiner Unterschied....

Die GF3 ist unter 16bit genausoschnell

Eben so sehe ich das nicht.
Sieh Dir mal die Taktung einer GeForce2 und einer Radeon an.
Gerade beim SDR Modell fällt das auf.
160/160 und nimmt es mit einer MX-400 unter 32 Bit ohne Probleme auf. So und jetzt sehe Dir mal die Taktung an.

Es stimmt schon das die GeForce unter 16 Bit schnell sind.
Ich glaube aber eher das die Radeon einfach nicht schneller kann, was aber nicht heissen soll, das deswegen die Treiber für den Anus sind.
Das HyperZ hat ATI fest rausgerissen, gerade wenn man es deaktiviert, dann sieht wie die Performance in den Keller geht.
nFinite-FX ist nichts anderes als wie das Hyper Z.

gruss Labberlippe

Quasar
2001-09-28, 15:03:28
Originally posted by Unregistered


Eben so sehe ich das nicht.
Sieh Dir mal die Taktung einer GeForce2 und einer Radeon an.
Gerade beim SDR Modell fällt das auf.
160/160 und nimmt es mit einer MX-400 unter 32 Bit ohne Probleme auf. So und jetzt sehe Dir mal die Taktung an.

Es stimmt schon das die GeForce unter 16 Bit schnell sind.
Ich glaube aber eher das die Radeon einfach nicht schneller kann, was aber nicht heissen soll, das deswegen die Treiber für den Anus sind.
Das HyperZ hat ATI fest rausgerissen, gerade wenn man es deaktiviert, dann sieht wie die Performance in den Keller geht.
nFinite-FX ist nichts anderes als wie das Hyper Z.

gruss Labberlippe

nFinite-FX ist die programmierbare TnL-Einheit der GF3.
Ich hab auch nicht abgestritten, daß HyperZ unter 32bit durchaus Bandbreite sparen kann, was sich natürlich umso stärker in den schwächeren Karten bemerkbar macht...

Außerdem rede ich die ganze Zeit (zumindest in diesem Thread) von der Hardware, und darauf bezogen waren deine vorherigen Argumente unangebacht und teilweise unrichtig.

Die Treiber haben mit der lausigen 16bit Performance nichts zu tun, es fehlen den ATIs einfach zwei Pipes. So einfach ist das.
Das eben diese Pipes bei den GF2-Modellen völliger Overkill unter Berücksichtigung der Bandbreite in 32bit sind, steht außer Frage.

Nur bei der GF3 stimmt das so schon wieder nicht. Hier können aufgrund des X-Bar Memory Controllers, der unabhängige 32bit-Zugriffe anstatt eines, meist genauso einen Overkill darstellenden, 128Bit Zugriffes erlaubt, auch die zusätzlichen zwei Pipes sinnvoll unter 32bit genutzt werden.

Unregistered
2001-09-28, 15:23:00
[QUOTE]Originally posted by Quasar
[B]

nFinite-FX ist die programmierbare TnL-Einheit der GF3.
Ich hab auch nicht abgestritten, daß HyperZ unter 32bit durchaus Bandbreite sparen kann, was sich natürlich umso stärker in den schwächeren Karten bemerkbar macht...

Außerdem rede ich die ganze Zeit (zumindest in diesem Thread) von der Hardware, und darauf bezogen waren deine vorherigen Argumente unangebacht und teilweise unrichtig.

Die Treiber haben mit der lausigen 16bit Performance nichts zu tun, es fehlen den ATIs einfach zwei Pipes. So einfach ist das.
Das eben diese Pipes bei den GF2-Modellen völliger Overkill unter Berücksichtigung der Bandbreite in 32bit sind, steht außer Frage.

Nur bei der GF3 stimmt das so schon wieder nicht. Hier können aufgrund des X-Bar Memory Controllers, der unabhängige 32bit-Zugriffe anstatt eines, meist genauso einen Overkill darstellenden, 128Bit Zugriffes erlaubt, auch die zusätzlichen zwei Pipes sinnvoll unter 32bit genutzt werden.

=> Ja, mein Statement passt nicht ganz hierher. :-)

Eben, aber es wurde am Anfang immer den Treibern die Schuld zugeschoben.
Technisch ist das "HyperZ" von nVIDIA sicherlich besser und sie hatten ja mehr Zeit, schliesslich kam die GeForce3 später am Markt.
Mir ist schon klar worauf Du hinaus willst.
Allerdings, hängt es bei ATI nicht nur wegen den Pipes ab.....

Gruss Labberlippe

HOT
2001-09-28, 15:23:27
Der Treiber hat sehr wohl was mit der 16Bit performance zu tun. Die MX hat auch nur 2 Pipes und ist schneller in 16Bit als eine Radeon SDR auf 175MHz! In 32Bit jedoch macht die Radeon die MX bei gleichem Takt jedoch dank HyperZ gnadenlos platt.
Diese Tests in 16Bit haben IMHO mittlerweile 0 Aussagekraft, da schlicht und einfach niemand mehr in 16Bit spielt. Genauso verhält es sich mit der Texturkompression: Sie ist bei allen Karten durchaus vorteilhaft und produziert vernachlässigbare Fehler -> daher sollte sie IMHO auch bei jedem Test die Kompression aktiv sein.
Erstaunlich, dass sich diese S3 Technologie derart durchgesetzt hat :D

Unregistered
2001-09-28, 15:28:20
Originally posted by HOT
Der Treiber hat sehr wohl was mit der 16Bit performance zu tun. Die MX hat auch nur 2 Pipes und ist schneller in 16Bit als eine Radeon SDR auf 175MHz! In 32Bit jedoch macht die Radeon die MX bei gleichem Takt jedoch dank HyperZ gnadenlos platt.
Diese Tests in 16Bit haben IMHO mittlerweile 0 Aussagekraft, da schlicht und einfach niemand mehr in 16Bit spielt. Genauso verhält es sich mit der Texturkompression: Sie ist bei allen Karten durchaus vorteilhaft und produziert vernachlässigbare Fehler -> daher sollte sie IMHO auch bei jedem Test die Kompression aktiv sein.
Erstaunlich, dass sich diese S3 Technologie derart durchgesetzt hat :D

Genau, das macht mich stutzig.
Also entweder kann die Radeon wirklich nicht schneller sein oder das HyperZ kommt mit 16 Bit nicht zurecht.
Oder es funzt nur im 32 Bit Modus.
Aber das kann ich am Wochenende mal testen.

Gruss Labberlippe

Ceiser Söze
2001-09-28, 16:05:27
Hyper Z bringt nur in bandbreitenlimitierten Situationen merkbare Unterschiede, da das Feature ja Bandbreite spart (logo, oder *g*) - sprich: Hohe Auflösungen / 32bit-Rendering.

http://www.3dconcepts.de/reviews/radeon64mb/hyperz.gif

In 16bit ist hauptsächlich (neben CPU bzw. T&L-Unit) die Füllrate der Bremsfaktor - und die GeForce2 hat halt 4 Pipelines, während der Radeon nur zwei hat (deren 3. TMUs praktisch nie zum Einsatz kommen). Daher die mässige 16bit-Leistung des R100.

HyperZ (und HyperZ II) gilt übrigens als effektiver als die Lightspeed Memory Architecture. Die Verfahren sind zu verschieden, als dass man sie einfach so gegenüberstellen könnte (Frühe Z-Checks auf der GeForce3, Hierarchischer Z-Buffer auf dem Radeon). In aktuellen Applikationen ist aber HyperZ effizienter. Front to Back Rendering könnte den Stand von nVidias Z-Buffer Optimierungen erheblich verbessern, aber da müssen die Programmierer schon mitspielen ;)

HOT
2001-09-28, 16:33:37
Kann sein, HyperZ ist in 16Bit nicht sonderlich effektiv. NVs Geforce3 Z-occlusion-Culling jedenfalls schaltet sich im 16Bit Modus komplett ab. Das kann man dem Redeon7500 Review von www.rivastation.com recht deutlich entnehmen.

ow
2001-09-28, 22:30:17
Originally posted by Unregistered


Eben so sehe ich das nicht.
Sieh Dir mal die Taktung einer GeForce2 und einer Radeon an.
Gerade beim SDR Modell fällt das auf.
160/160 und nimmt es mit einer MX-400 unter 32 Bit ohne Probleme auf. So und jetzt sehe Dir mal die Taktung an.



Die Radeon SDR nimmt es mit der GF2MX auf??

looooooooooooool

Frank
2001-09-28, 22:48:35
@ow
nachzulesen bei 3dconcept
Featuremäßig hat die GF2mx kein Stich. Performance ist äquivalent.

HOT
2001-09-29, 11:04:53
@ow

Der Savage4 ist in 32Bit auf jeden Fall schneller als eine M64. Das liegt zum einen an dem Bandbreitensparer Z-Clear und zum 2. konnte das Teil eine gnadelos perfekte Texturkompression. Der S4 war aber sehr CPU abhängig - auf einem Athlon bzw. PII/III war das Teil zu gebrauchen, auf dem K6 jedoch war der Savage4 eindeutig falsch aufgehoben.

Thowe
2001-09-29, 11:20:41
Originally posted by HOT
@ow

Der Savage4 ist in 32Bit auf jeden Fall schneller als eine M64. Das liegt zum einen an dem Bandbreitensparer Z-Clear und zum 2. konnte das Teil eine gnadelos perfekte Texturkompression. Der S4 war aber sehr CPU abhängig - auf einem Athlon bzw. PII/III war das Teil zu gebrauchen, auf dem K6 jedoch war der Savage4 eindeutig falsch aufgehoben.

Und die Darstellungsqualität im allgemeinen war damals die Beste.

Die Treiber waren auch immer sehr gut, wenn man bedenkt wie Buggy der Chip gewesen sein muss.

HOT
2001-09-29, 12:15:21
Ja gut, für Win2k kannste sowohl die S4 als auch die S2k Treiber in die Tonne treten :D
Unter Win9x jedoch sind die S4 Treiber gut und stabiel gewesen. Übrigens, wer noch so'n Ding hat kann auf www.savagenews.com die allerneueste Treiberversion 8.20.38 saugen :D

Thowe
2001-09-29, 12:19:43
Originally posted by HOT
wer noch so'n Ding hat

gebe doch meine

Savage3D
Savage4 (habe ich noch 3x)
Savage2000

nicht her, die werden schön behalten.

BTW: Die Speedstar A90 hatte AFAIK nur ein 32Bit MemoryInterface.

Unregistered
2001-09-29, 13:42:21
Originally posted by Unregistered


Genau, das macht mich stutzig.
Also entweder kann die Radeon wirklich nicht schneller sein oder das HyperZ kommt mit 16 Bit nicht zurecht.
Oder es funzt nur im 32 Bit Modus.
Aber das kann ich am Wochenende mal testen.

Gruss Labberlippe

Hi,
ich glaube die Radeon kann nicht schneller sein.
Ich denke sie ist bei 16 Bit oder niedrigen Auflösungen
füllratenlimitiert. Wäre sie bandbreitenlimitiert, hätte ATI
sie garantiert nicht auf 290 Mhz hochgejagt da es kaum etwas
bringen würde.


Gruß
Alex

Frank
2001-09-29, 16:08:09
Originally posted by Thowe


gebe doch meine

Savage3D
Savage4 (habe ich noch 3x)
Savage2000

nicht her, die werden schön behalten.

BTW: Die Speedstar A90 hatte AFAIK nur ein 32Bit MemoryInterface.
Aber Savage4Xtreme haste nich?

Thowe
2001-09-29, 16:21:09
Originally posted by Frank

Aber Savage4Xtreme haste nich?

Nö, noch fehlt die

Frank
2001-09-29, 16:35:44
Originally posted by Thowe


Nö, noch fehlt die
64DM mit 16MB -> neu zu kaufen im Laden

Thowe
2001-09-29, 16:38:18
Originally posted by Frank

64DM mit 16MB -> neu zu kaufen im Laden

klingt gar nicht mal schlecht, aber ich warte bis ich die für mehr oder weniger lau bekomme. Wobei 32MB sollte sie schon haben.

Razor
2001-09-29, 19:58:19
*würg*
Sorry !
;-)

Jedem das seine, vor allem, wenn man ein Museum aufmachen möchte...

Razor

Korak
2001-09-29, 20:00:07
Na für Büro-rechner sind die gut.

Razor
2001-09-29, 20:02:26
Für Büro-Rechner kann man nahezu alles nehmen...
Aber alte GraKa's zu sammeln ist schon echt hart !
Jedem sein Hobby...
;-)

Razor

Korak
2001-09-29, 20:06:14
Ich glaub Thowe benutzt die entweder zum Testen (Karte zum tauschen ist immer gut) oder er hat noch 'haufen' weise Rechner mit großen(!) Bildschirmen oder er hat ne Glasvitriene wo er alle berühmt berüchtigten Karten zum Angeben reinstellt :D ;)

Thowe
2001-09-29, 20:30:50
Originally posted by Korak
Ich glaub Thowe benutzt die entweder zum Testen (Karte zum tauschen ist immer gut) oder er hat noch 'haufen' weise Rechner mit großen(!) Bildschirmen oder er hat ne Glasvitriene wo er alle berühmt berüchtigten Karten zum Angeben reinstellt :D ;)

:D :D :D

HOT
2001-09-30, 11:50:03
Die Savage2k hab ich auch noch in Reichweite und die läuft sogar noch :D Solange man den Chip auf einem Irongate oder BX Board betreibt, gibts selbst mit aktivem Sidebanding überhaupt keine Probleme. Aber wehe man versucht AGP4x oder SB auf einem VIA oder i8xx Chipsatz einzuschalten. Dann gehts aber los mit den Probs :D

Unregistered
2001-09-30, 12:08:55
Originally posted by Unregistered


Hi,
ich glaube die Radeon kann nicht schneller sein.
Ich denke sie ist bei 16 Bit oder niedrigen Auflösungen
füllratenlimitiert. Wäre sie bandbreitenlimitiert, hätte ATI
sie garantiert nicht auf 290 Mhz hochgejagt da es kaum etwas
bringen würde.


Gruß
Alex

Eben, darauf wollte ich hinaus.
Der Chip ist nicht so "schnell" aber dank HyperZ hat er im 32 Bit Bereich verdammt gut aufgeholt.
Deshalb liegt es nicht in Meine Augen an der Treiber Optimierung, das 16 Bit nicht o schnell ist.
Wobei die neuen Treiber ein bischen was zugelegt haben.
Gerade der 7184 ist ein guter Treiber.

Die Taktung der R7500 ist böse, yepp

Gruss Labberlippe