PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Radeon 8500 oder 7500 ???


MaxSPL
2001-08-14, 18:42:59
Hi Leute...

Da es endlich Zeit wird, meine Grafikkarte zu wechseln...
habe ich mir ganz fest vorgesnommen eine RadeonII zu kaufen...

Jetzt habe ich auf den Links von 3Dcenter aber unterschiedlichste Ergebnisse gesehen...

Und jetzt?

Nun...
Radeon 8500 ca. --900DM
Radeon 7500 ca. --450DM
Gefurz 3 ca. --900DM

Tja, was würdet ihr mir bei meinem System empfehlen???

Soll ich auf die RadeonII warten, oder lieber gleich eine GF3 kaufen...

Oder reicht vielleicht schon eine Radeon 7500 ???

HELP


MfG CraXmaster

Korak
2001-08-14, 18:44:54
Ich würd warten bis die Radeons draußen sind und dann erst drüber nachdenken.

StefanV
2001-08-14, 18:51:49
Eben...

Die Treiber sind FRÜHES BETA, und der Chip ist auch noch nicht das finale Produkt...

Möglicherweise hat ATI die Karte absichtlich so lahm gemacht...

Korak
2001-08-14, 18:57:32
Warum sollt eien Chiphersteller sein Produkt absichtlich lahm machen??? Das wär doch irgendwie Schwachsinn. Oder wollen sie Nvidia nicht erschrecken? ;) Ich glaub das liegt an den Beta Treibern. Da is noch einiges rauszuholen.

Bei der aktuellen Radeon liegt der Unterschied zwischen dem letzten aktuellen und dem neusten 'Beta' Treiber in 3DM2k bei mehreren hundert Punkten (waren bei mir um die 700 mehr mit dem 'Beta'). Nur leider ist der etwas instabiel.

Also ich glaub da tut sich noch einiges.

Kai
2001-08-14, 19:11:56
Viel kann da meiner Ansicht nach nicht mehr kommen, sonst hätten die das Ding nicht schon vorgestellt.

HOT
2001-08-14, 19:35:28
ATI ist nichtsdestotrotz erst am Anfang der Treiberentwicklung, NV hat die grössten Schritte (20.xx)schon vollzogen :) Der RadeonII hat einfach mehr Potenzil als die Geforce3 und ist - vor allem - DirectX8.1 complaint. Meiner Meinung nach ist der Radeon weit eher zu empfehlen als eine Geforce3: bessere Technik, neue Features, gute Performance und das zum gleichen oder günstigeren Preis :D

Kai
2001-08-14, 20:08:38
Originally posted by HOT
DirectX8.1 complaint.

Ach neeeeeeeee ... und als die GF3 rauskam hast Du gestatet, das es ja nichtmal ein einziges Game gibt das DX 8.0 unterstützt ;) Ausserdem - die GF3 beherbegt auch einige DX 8.1 Features ...

ATI hat bisher oft Probleme mit den Treibern gezeigt. Vor allem wenn's darum ging einen Treiber bereitzustellen der bei ALLEN Games gleich gut funktioniert.

Ich hätte wenig Lust drauf für Spiel a Treiber x zu installieren usw.

Wartet's doch erstmal ab. Vor allem Du fängst wie damals bei dem Announcement der Kyro3 wieder an zu hypen.

HOT
2001-08-14, 21:05:25
Das ist was anderes! Ist bis jetzt ein DX8 Game erschienen??? Irgendwie nicht oder? Weisst du auch wieso? Weil die Spieleentwickler eben auf DX8.1 optimieren. Das liegt an vielen Faktoren:
1.) ist Rendering to Texture in DX8.0 verbugt
2.) sind DX8.1 Features nicht besonders schwer zu implementieren.
3.) Es ist den Spieleentwicklern ENDLICH möglich ECHTES Phong Shading einzusetzen! Das gibt einen wahren visuellen Qulitätssprung!


Noch was zu NVs Taktik: NV hat insofern falsch gehandelt, dass sie versucht haben nur SCHNELLER zu werden. T&L, Fillrate und Wahnsinnsspeicher - das ist NVs Konzept. Die Sache hat nur einen Haken: Wirkliche Sprünge in Visulalitätsqualität hat NV damit nicht gemacht!
Ein Beispiel: Die Objekte sind zwar runder als vorher, jedoch verbrät das nach NVs klassischer Methode extrem viel Leistung und die Objekte haben immernoch Kanten! ATI ist es als erstes gelungen, ein Objekt WIRKLICH Rund erscheinen zu lassen - und das ohne Geschwindigkeitsverlust!!! Zudem war es unglaublich geschickt ausgerechne das Extrem genutzte CS mit Trueform aufzuwerten ;)
Der Radeon besitzt noch andere qualitätssteigernde Spielsachen eingebaut: frei programmierbares sehr schnelles AA, echtes Phong Shading und 6 Texturschichten in einem Pass (2 Takte). Damit können die Spieleentwickler ihre Kreativität wirklich nutzen und zwar EINFACH nutzen und sind nicht auf so'n Müll wie Hardware T&L angewiesen. Du wirst sehen, die Features von DX8.1 bieten einen wesentlich grösseren Qualitätssprung der Spielegrafik als der Sprung von DX7 auf DX8!!!
Noch ne Sache über den Radeon2. Wenn ich mir den Chip und seinen Speicher so anschaue erfüllt es mich mit Ehrfurcht:
1000 MPixel und 3000(!!!) MTexel, gepaart mit 2x275MHz (550!!!!! effektiv) 3,6ns DDR SDRAM und HyperZ-II, 75MTriangles/sec .... das Ding enthält nicht nur wichtige und nützliche Features.... Das ist ein wahres Leistungsmonster!!! Das räumt auch noch dank des Polygoncounts sämtliche Profibeschleuniger weg ;)

Kai
2001-08-14, 21:16:39
Ich sag jetzt nix mehr hierzu ... das geht nämlich genauso aus wie beim damaligen G550 Thread.

Ihr hypet nur das, was ihr hypen wollt, so sehe ich das ;)

Was Du da über DX 8.1 schreibst ist insofern ja schon Quatsch, das es auch in nächster Zeit nicht ein einziges DX 8.1 Spiel geben wird - so toll es gegenüber 8.0 auch sein mag (was ich nicht mal glaube).

TruForm hat SEHR WOHL Geschwindigkeitsverluste - genau wie adaptives AA.

Und was deine Ehrfurcht angeht ... ich wollte gar nicht wissen was ATI für nen Crap auf den Markt geschoben hätte, wenn's die GF3 nicht gegeben hätte ...

Thowe
2001-08-14, 21:43:56
Originally posted by Kai
Und was deine Ehrfurcht angeht ... ich wollte gar nicht wissen was ATI für nen Crap auf den Markt geschoben hätte, wenn's die GF3 nicht gegeben hätte ...

und vice versa, nur Konkurenzkampf bedeutet Fortschritt.

ow
2001-08-14, 21:44:08
Originally posted by Kai
Viel kann da meiner Ansicht nach nicht mehr kommen, sonst hätten die das Ding nicht schon vorgestellt.


Yep. Frühes BETA? LOL.

Vielleicht noch 1-2 neue Release bis man die Karte kaufen kann.

Aber es dürfte schon noch etwas an Leistung rauszuholen sein.

Abwarten:)

ow
2001-08-14, 21:49:46
Originally posted by HOT
Das ist ein wahres Leistungsmonster!!! Das räumt auch noch dank des Polygoncounts sämtliche Profibeschleuniger weg ;)



HAHAHAHAHAH ich lach mich tot. Wollen doch erstmal sehen, wie gut ATi sein Profikarte hinkriegt.

Die reine T&L des Radeon ist lächerlich schwach und liegt weit unter der einer GF2MX.

Kai
2001-08-14, 21:52:13
Nu hört doch auf ... wir werden es doch sehen, oder nicht? Falls alles stimmt - Gratulation an ATI. Damit hätten die dann ihre erste, richtige Grafikkarte gebastelt und es sogar geschafft ein Jahr nach der GeForce III einen Beschleuniger zu vermarkten der auf dem Niveau der GF3 mitziehen kann ;D Die ersten Benchmarks sind ja auch schliesslich schlicht "beeindruckend" :D

Unregistered
2001-08-17, 11:25:41
Originally posted by Kai
Nu hört doch auf ... wir werden es doch sehen, oder nicht? Falls alles stimmt - Gratulation an ATI. Damit hätten die dann ihre erste, richtige Grafikkarte gebastelt und es sogar geschafft ein Jahr nach der GeForce III einen Beschleuniger zu vermarkten der auf dem Niveau der GF3 mitziehen kann ;D Die ersten Benchmarks sind ja auch schliesslich schlicht "beeindruckend" :D

Bleib mal bei nem halben Jahr ein Jahr würde hinkommen wen nv es geschafft hätte die karten mit dem a3 oder a5 stepping zu releasen!

HOT
2001-08-17, 11:44:52
Blödsinn, die T&L Leistung der Radeon ist gut. ATI nutzt sie nur nicht richtig; warum auch, bei der Renderleistung ist das einfach nicht notwendig. Das T&L der Geforce2 MX ist hoffnungslos überpowert für die beschnittene Speicherbandbreite und kostet bei Renderaufwändigen Spielen mehr Leistung als sie bringt!!!!
Mich wundert immernoch, dass ihr bezweifelt, dass der Radeon8500 eine echte Kunkurrenz für den G3 wird. Dabei ist er Chip der nächste Schritt; genau wie der Geforce3 einer war.
Jetzt können wir uns auf jeden Fall auf einen Konkurrenzkampf und sinkende Preise freuen :) Und das war erst der Anfang: DX8 Chips von Bitboys, S3 Graphics und PowerVR stehen auch vor der Tür. Dann wird sich auch endlich DX8 Vertex-/Pixelshading durchsetzen ... nur dafür ist der Geforce3 dann der unterste Chip an der DX8 Messlatte ;)

StefanV
2001-08-17, 12:39:37
@ow

Das die T&L Leistung der 'normalen' Radeon geringer sein soll als die der MX ist ja auch nicht soo sehr verwunderlich...

Schließlich läuft eine 'normale' MX mit 175MHz Core und die Radeon 32DDR/64DDR/64DDR ViVo BULK mit 164, die SDR mit 160Mhz und die LE mit 148MHz...

Und warum sollte ATI die ganze Leistung der T&L Einheit nutzen??

Die Radeon ist ja schließlich nich für 'richtige' anwendungen gedacht...

Unregistered
2001-08-17, 13:29:24
Um erst mal der eingängigen Frage zu antworten:

Radeon 7500 ist wie die gf2-Line eine DX7-Karte und fällt somit aus der Betrachtung heraus. Wenn man darüber nachdenkt, sich jetzt einen DX8'er zu zulegen, dann sollte mann wohl noch warten, bis die Radeon mindestens 1 Monat VERFÜGBAR ist, da erst dann Praxistests vorleigen, die wirkliche Aussagen zulassen. Man müsste in diesem Fall also bis ungefähr Mitte Oktober warten. Bis zu diesem Zeitpunkt (wohl September nach Creative) wird es auch eine gf3mx geben, welche zwar wir auch die Radeon 7500 nur zwei Pipelines besitzt, aber trotzdem wie auch die gf3 DX8(.1)-Kompatibel ist.

Hoffe, damit geholfen zu haben...

@Stafan Payne

Also, Du schaffst es offensichtlich hier so einiges an Dünnsinn abzulassen. Welcher Hersteller würde wohl Karten in den Test geben, um diese langsamer erscheinen zu lassen ? Damit nVidia noch ordentlich gf3- (oder gf3mx-) Karten verkaufen kann und damit der Launch noch schwieriger wird ? Oh mann... Ich bitte Dich !

Auch wird, da stimme ich Kai zu, ATI nicht mehr sonderlich viel machen können, es sei denn sie verschieben den Launch der Radeon8500, da es jetzt wohl darum geht, das finale Produkt in die Regale zu bekommen...

@HOT

Auch die gf3 ist DX8.1-Kompliant. Dein geliebtes PhongShading wird auch in dem Zoltar-Demo von nVidia gezeigt. Somit scheint dieses wohl nicht erst mit Pixel-Shader 1.4 möglich zu sein, oder ? Der Pixel-Shader 1.4 scheint die Funktionalitäten der Pixel-Shader 1.0-1.3 zu kombinieren und ev auch optimierter zu verarbeiten, allerdings mit dem Nachteil, daß die Instruktionen der Versionen 1.0-1.3 erst auf 1.4 umgesetzt werden müssen, was dann erst einmal in einer schlechteren Performance resultiert, bis die Engines den Pixel-Shader 1.4 direkt unterstützen. Was wohl eher unwahrscheinlich ist, da dieses dann auf einer gf3 (und gf3mx) dann nicht mehr laufen würde...

Auch die 6 Texturenschichten können auch von der gf3 in 2-3 Takten ausgeführt werden, was den Vorteil einer r2 ein schwinden läßt

Was die anderen von Dir genannten Spezifikationen angeht: Die hohen Werte ergeben sich vor allem aus den höhren Taktungen. Die gf3 hat sich als sehr übertaktungsfreudig heraus gestellt (läft bei mir auf 245/540). Wie sieht es mit der Radeon aus ? Mich würde mal ein Extrem-Leistungstest interessieren, bei dem die maximalen Geschwindigkeiten miteinender verglichen werden, denn ich könnte mir gut voratellen, daß der 'Unterschied' gar nicht so groß ist...

Zudem sieht es so aus, daß die r2 erst einmal teurer als die zur Zeit verfügbaren gf3 werden wird, was sich ev ändert, wenn dann OEM's raus kommen, was wohl aber noch ein bischen dauern wird...

Und inwiefern soll die Technik 'besser' sein ? Hat ATI auch so etwas wie eine Light-Speed-Memory-Architektur ? Welche Technik 'besser' ist, wird sich erst heraus stellen, wenn die finalen Produkte 'in allen Lebenlagen' verglichen werden können...

Und da die neuen Deto's (20.x) noch nicht draußen sind, halte ich es für etwas verfrüht, darüber zu diskutieren, ob NUR auf Geschwindikkeit wert gelegt wurde... So hat nVidia doch 'versprochen', daß mit dem nächsten Treiber-Release (Deto4) dann auch 3DTexturen implementiert werden und die AnisoFilter im Treiber einstellabr sind. Das wäre doch eine 'schöne' Feature-Erweiterung, oder ?

Nicht, daß Du mich flasch verstehts, die Radeon8500 IST ein echter Komkurrent zur gf3, aber nicht ein 'Monster', daß alle Profikarten hinweg fegt... Auch hat es auf Radeon-Basis auch noch nie professionelle Karten gegeben, somit dieser Punkt eindeutig an nVidia geht, oder ?

****

Wir werden sehen, wie's ausschaut, wenn die neue Karte von ATI dann erst einmal 1 Monat in den Regalen steht (habe mit meiner ELSA Gladiac 920 auch so lange gewartet)... Erst dann wissen wir genaueres und können wirklich sagen, ob die eine oder andere Karte besser ist. Tatsache ist, daß ATI ein großer Wurf gelungen ist und eine echte (und gott-sei-dank diskussionswürdige) Alternative zum derzeit einzigen DX8-Beschleuniger auf den Mark gebracht hat.

Bisher wurde immer nVidia das Brute-Force vorgeworfen, da man Mehrleitung mit immer schnellerer GPU- und Speicher-Leistung 'erkaufte'. Nun setzt ATI noch einen drauf, kommt damit aber gerade mal an die Leistung seines langsameren Konkurrenten heran (was sich natürlich noch ein wenig ändern kann). Aber offensichtlich ist dieses Verhalten bei ATI Ok... Hmmm... Schon merkwürdig, gell ?

In diesem Sinne

Razor

nggalai
2001-08-19, 15:54:36
@HOT,

> Das ist was anderes! Ist bis jetzt ein DX8 Game erschienen Irgendwie nicht oder? Weisst du auch wieso? Weil die Spieleentwickler eben auf DX8.1 optimieren. Das liegt an vielen Faktoren:

Du findest im Moment keine DX8 Spiele, da die durchschnittliche Spieleentwicklung 2-3 Jahre dauert. Kaum ein Spieleentwickler hat sich auch nur mit DX8.1 auseinandergesetzt, ist auch kein Wunder, da erst jetzt Hardware da ist, wo man D3D mal ausprobieren könnte.

> 1.) ist Rendering to Texture in DX8.0 verbugt

Nur für Tile-Renderer, i.e. PowerVR Kyro. Auf allem anderen läuft render to texture sauber.

> 2.) sind DX8.1 Features nicht besonders schwer zu implementieren.

Aber auch nicht einfacher als DX8.0 ... Bitte nicht vergessen: der weitaus grösste Teil der Anpassungen an DX8.1 gegenüber DX8.0 wurde im DInput und DirectSound erledigt. D3D wurde nur minim ge-updated--neuer pixel shader, yay, und einige Bugs raus. Funktional hat sich sehr, sehr wenig geänder, an D3D.

> 3.) Es ist den Spieleentwicklern ENDLICH möglich ECHTES Phong Shading einzusetzen! Das gibt einen wahren visuellen Qulitätssprung!

Ja. In 2 Jahren vielleicht. Ausserdem bringst Du den gleichen Effekt schon jetzt mit DX8.0 oder OpenGL1.2 hin. Mit PS1.4 geht's nur schon in einem pass (PS1.3 brauchen 2), das ist alles.

ta,
.rb

nggalai
2001-08-19, 16:01:55
Ich möchte mich des weiteren Razors Aussagen betreffend Spiele-Unterstützung von PS1.4 anschliessen und hinzufügen, dass auch die X-Box nur PS1.3 hat. Also ist wohl klar, auf welche pixel shader Revision Entwickler momentan hinarbeiten.

Darüber hinaus ist die GF3 sehr wohl voll DX8.1 compliant, nur nicht in Hardware.

ta,
.rb

ow
2001-08-19, 21:43:26
Originally posted by Stefan Payne
@ow

Das die T&L Leistung der 'normalen' Radeon geringer sein soll als die der MX ist ja auch nicht soo sehr verwunderlich...

Schließlich läuft eine 'normale' MX mit 175MHz Core und die Radeon 32DDR/64DDR/64DDR ViVo BULK mit 164, die SDR mit 160Mhz und die LE mit 148MHz...

Und warum sollte ATI die ganze Leistung der T&L Einheit nutzen??



Was soll denn diese Frage?? Warum hab ich denn eine T&L, wenn ich deren Leistung nicht nutzen will??

Eine Graka hat universell zu sein. So wie die mit NV Chips.
Top in Spielen und Applikationen.
Alles andere ist Mist.

Frank
2001-08-19, 22:54:14
Originally posted by ow

Eine Graka hat universell zu sein. So wie die mit NV Chips.
Top in Spielen und Applikationen.
Alles andere ist Mist.


OK.
Tauschen wir also unseren Mist in geniales nVidiaZeugs um. So superuniversiell für uns ALLE.

StefanV
2001-08-19, 23:04:54
Originally posted by ow
Was soll denn diese Frage?? Warum hab ich denn eine T&L, wenn ich deren Leistung nicht nutzen will??

Eine Graka hat universell zu sein. So wie die mit NV Chips.
Top in Spielen und Applikationen.
Alles andere ist Mist.

Sag mal, kannst du nVidia auch 'etwas' neutraler sehen??

Sicher, momentan gibt es nix vernünftiges auf'm Markt...

zu TNT2 Zeiten gab es ja massig auswahl (V3, Matrox, nVidia, später ATI)...

PS: ich persönlich traue ImgTec am meisten zu...

Frank
2001-08-20, 01:45:11
ow ist da doch ziemlich radikal mit seiner Meinung Stefan! Festgefahren!

Andre
2001-08-20, 09:15:25
Originally posted by Frank
ow ist da doch ziemlich radikal mit seiner Meinung Stefan! Festgefahren!

Das muss gerade Du und vor allem Stefan sagen.
Neutralität ist nicht gerade Euer Markenzeichen...

Kai
2001-08-20, 09:31:38
:nono: Sehe ich ganz genauso, Andre ...

Unregistered
2001-08-20, 09:38:53
Ich hab sicher mehr 3D Engines auf meinem PC getestet als ihr ALLE ZUSAMMEN hier im Forum.

Und keine Karte ist derart universell nutzbar wie eine mit NV Chips.

Ende der Diskussion.


Bleibt nur zu hoffen, dass die anderen Hersteller bald nachziehen, auf ATis FireGL 8800 bin ich SEHR gespannt.
Moeglicherweise wird die ja aehnlich universell nutzbar sein.

-ow-

MFC_Boron
2001-08-20, 10:49:38
Hallo erstmal!

Was ist das denn hier fuer eine Diskussion? Es geht ja gar nicht um die Frage der Karten, sondern wieder mal um die Firma.

Hier kommen dann auch immer wieder die gleichen Argumente:
ATi hat schlechte Treiber, nVidia ist böse,usw.!
Was soll das?
Wenn man sich die Radeon 8500 mal anschaut und zwar mit allen Specs ist sie einer GF3 ueuberlegen. Es geht hier doch nicht um 5 FPS mehr, oder? Ob ich nun 100, 120 oder 80 FPS habe ist doch voellig egal.

TRUEFORM wird sich auf jeden Fall durchsetzen und fuer Quake, Counter-Strike und Unreal Tournament gibt es das auch schon. Man hat auch KEINEN Leistungsverlust auf einer R8500. Den hat man nur auf einer Radeon 1.

Das FSAA muss sich erst noch beweisen, aber es wird wohl nicht schlechter werden als das der GF3.

Dann hat die Karte noch Dual Head. Also das Feature kann man sofort benutzen und das ist auch super.

DVD und HDTV Support. Die DVD Qualitaet der Radeon ist um Klassen besser als die der GF3. Vor allem beim TV-Out hat ATi die Nase vorn.

ATi hat auch keine schlechten Treiber. Die ersten Treiber der Radeon hatten einige Macken, aber das war mit der GeForce ja auch nie anders. Heute laeuft alles Prima und es gibt keine Probleme mehr. Und das obwohl ich Windows 2000 benutze...

Ich bin sehr angetan von der R8500, da sie mehr bietet als nur rohe Power. Multimedia und Useability sind auch wichtig.

Wieso hat denn keiner Giants mit dem Detonator 4 gebencht? Tja, das muss wohl daran liegen, dass der Detonator 4 hier um einiges langsamer ist als der Detonator 3 und damit auch langsamer als die R8500.

nVidia kann vielleicht die Speedkrone behalten, aber die Technologiekrone muessen sie abgeben.

Ich interessiere mich eh´ eher fuer den R7500.
Die GF3 MX wird wohl eher lahm sein, da die GF3 ja gerade mal bei Aquanox in spielbare bereiche kommt. Ebenso bei Doom 3 und daher wird eine GF3 MX da nix bringen.


Greetings,
Boron

Frank
2001-08-20, 11:04:03
Originally posted by Kai
:nono: Sehe ich ganz genauso, Andre ...

Das ihr gleich immer paarweise erscheinen müsst ist auffällig. Habt euch nett eingeschossen oder was? Ausserdem sag ich nicht "alles andere ist Mist"!!!!!!

Ich beschränk mich mit meiner postiven Meinung nicht auf EINE Firma!!


Und wenn jemand sich nicht postiv über nVidia äussert sollte man als nVidia"Fan" eigentlich nicht so reagieren:
Originally posted by ow

Mit unregistrierten dämlichen Bauern geb´ich micht nicht ab.

Aber da sagt ihr Beiden (Kai&Andre) auch nichts...
... hauptsache paarweise Frank eine reintreten. Oder was war das bei dem 600DM Thread? Sowas von euch bezeichne ich dann schon nicht mehr als überreaktion sondern als - egal... falsche Worte in den Mund legen

Andre
2001-08-20, 11:11:20
Originally posted by Frank
Aber da sagt ihr Beiden (Kai&Andre) auch nichts...
... hauptsache paarweise Frank eine reintreten.
1. Ich habe ow auch schon drauf hingewiesen etwas vorsichtiger zu sein, Du musst halt nur mal lesen.
Ich brauche ihm in diesem Fall nicht einen Kommentar zu schreiben, da dass von einem anderen erledigt wurde - fertig.
2. Wir treten hier keinem einen rein, erstmal an die eigene Nase fassen, dann meckern.
Du hast sowas auch ziemlich gut drauf, also...

Frank
2001-08-20, 11:17:07
Originally posted by Andre

Ich beschränke mich auch nicht auf eine Firma, hab ich mehrmals gesagt, aber anscheinend wurde es von Dir nicht gelesen.

Und was ist dein Problem? Ich red von ow's Satz. Der war denk ich mal spassig - aber egal. Du hattest damit nichts zu tun und ich hab dich diesbezüglich auch nicht angeredet


Mir geht es auch grundsätzlich darum, dass man manchmal die besten Argumente vorbringen kann - interessieren tun sie Dich und Stefan eh nicht.
Hauptsache seinen eigene Meinung durchboxen, ob sie stimmt oder nicht.
Ich äussere bei Kaufempfehlungen nur Bedenken - die von euch (K&A) mit einer Meinung belegt werden. Das ist euer Problem.

Frank
2001-08-20, 11:19:30
@Andre
zu Zweitens:

meistens nur zurück

ow
2001-08-20, 11:24:20
Originally posted by MFC_Boron

Wenn man sich die Radeon 8500 mal anschaut und zwar mit allen Specs ist sie einer GF3 ueuberlegen.


Und da sag ich nur:
Scheiss auf die theoretischen Specs, wenn ATi keine anstaendigen Treiber gebacken kriegt, um das auch in Real-Life Performance umzusetzen. Und die Treiber waren NOCH NIE ein 'Highlight' von ATi. Aber vielleicht aendert sich das ja..

Andre
2001-08-20, 11:32:33
Originally posted by Frank
@Andre
zu Zweitens:

meistens nur zurück

Das ist nicht Dein Ernst, oder ?
Vielleicht solltest Du Deinen Namen in Unschuldslamm umbenennen.

Kai
2001-08-20, 11:33:33
Deswegen kann ich immer nur meine Eigenschaft als "Praktiker" hervorheben.

Ehrlich, keine Ahnung ob sie jetzt der GF3 überlegen ist, oder nicht ... ich seh's ja bald.

@Frank:
Fühlen wir uns schon wieder missverstanden? Vielleicht solltest Du Dir mal nicht zuviel auf meine (unsere) "Kommentare" einbilden. Andre und ich sind da wesentlich variabler als Du. Immer gleich oben raus - und wenn Du mit sowas wie "ich wehre mich auch nur" kommst, tja dann hat scheinbar keiner wirklich angefangen.

Meine Meinung? Du respektierst sie nicht. Andre's Meinung? Du gibst grösstenteils nix drauf ... aber deine Kommentare über Produkte, die Du teilweise noch nie gesehen hast (die wir aber sehr gut kennen) sollen wir unterwürfigst hinnehmen. Hab ich jemals Dinge kritisiert von denen ich keinen Schimmer hab? Nee, hab ich nicht.

MFC_Boron
2001-08-20, 11:37:15
Originally posted by ow



Und da sag ich nur:
Scheiss auf die theoretischen Specs, wenn ATi keine anstaendigen Treiber gebacken kriegt, um das auch in Real-Life Performance umzusetzen. Und die Treiber waren NOCH NIE ein 'Highlight' von ATi. Aber vielleicht aendert sich das ja..




Ich sage ja auch nicht, dass die Treiber ein Highlight werden. Nur, dass die aktuellen Treiber der Radeon gut sind. Ist ein unterschied.

Mit den Specs meine ich eben NICHT NUR den Speichertakt und den Coretakt. Man sollte eben auch Features wie Dual Head, DVD, TV-Out, 2D Qualiteat, usw. bedenken.

In dem Gesamtbild gefaellt mir die R8500 einfach besser als eine GF3.

Etwas schade ist eigentlich, dass in dem Ganzen GF3 vs. R8500 die R7500 verloren geht. Das ist eigentlich das, was viele immer wollten. Dual Head mit super Performance. Ich habe zumindest Intersse an der Karte, da 400,- DM nicht zu viel sind. Die Karte ist vielleicht nur ein Upgrade auf meine jetzige Karte, aber das ist auch nicht so teuer. Bis DirectX 8 voll genutzt wird gibt es bestimmt schon eine GF4 und eine R300.

Ich bezweifel auch einfach mal, dass Unreal2 auf einer DX7 Karte haesslich und unspielbar wird.

Toll waere ja eine Kyro 2 Ultra von matrox mit Dual Head. Wird es aber wohl leider nie geben...

Gruss,
Boron

Frank
2001-08-20, 11:37:44
@Kai
Und hab ich zB jemals (deine) Gf3 kritisiert. Neee hab ich nicht.

StefanV
2001-08-20, 12:31:22
Originally posted by Unregistered
Ich hab sicher mehr 3D Engines auf meinem PC getestet als ihr ALLE ZUSAMMEN hier im Forum.

Und keine Karte ist derart universell nutzbar wie eine mit NV Chips.

Ende der Diskussion.

-ow-

Diese Aussage hab ich schonmal gehört...

War bis 1995...

Windoof gegen OS2...

Mehr brauche ich da nicht zu sagen!!

Thowe
2001-08-20, 12:36:57
Aber ow Aussage stimmt, daran gibt es nix zu rütteln.

Die Nvidia Karten sind für die breite Masse das beste.

Die Stärken der anderen Karten liegen in ihren Spezialitäten oder sind reine Glaubensfragen.

ow
2001-08-20, 12:58:57
Originally posted by MFC_Boron


Ich sage ja auch nicht, dass die Treiber ein Highlight werden. Nur, dass die aktuellen Treiber der Radeon gut sind. Ist ein unterschied.

Mit den Specs meine ich eben NICHT NUR den Speichertakt und den Coretakt. Man sollte eben auch Features wie Dual Head, DVD, TV-Out, 2D Qualiteat, usw. bedenken.




Mal ganz ehrlich:
Das hat doch noch NIE irgendeinen Gamer interessiert!

Dualhead? Wozu? Da baue ich mir doch lieber eine 2. Graka ein, wenn ich's unbedingt brauche.
DVD? Kein Gamer-Feature.
TV-out? Nenn mir nur EINEN halbwegs aktuellen Grafikchip, von dem es KEINE Karte mit TV-out gibt.
2D Qualitaet? DAS nenne ich Hype! Nur weil es ein paar Grafikkarten mit schlechtem SIgnal gibt.... ist im Uebrigen vom Grafikchip unabhaengig.

Summary:
All diese 'Features' werden doch JETZT bloss genutzt, um NVidia schlecht zu machen, da hat sich frueher wirklich NIEMAND drum geschert.

ow
2001-08-20, 13:07:13
Originally posted by Stefan Payne


Diese Aussage hab ich schonmal gehört...

War bis 1995...

Windoof gegen OS2...

Mehr brauche ich da nicht zu sagen!!



??? Was will mir dieses Posting sagen ???

Zur Info: Ich sammele 3D Engines&Demos, sind mittlerweile mehrere 100 Stueck, sowohl D3D, OGL, Glide.

Und die laufen FAST ALLE tadellos auf der Riva TNT oder der GF2MX (= universelle 3D Beschleuniger), aber nur ein Bruchteil davon zB. auf Voodoos (und wenn's darauf lauft, dann reden wir lieber mal nicht von der Performance, an einigen Stellen ist sogar M$' OpenGL SW rendering schneller als 3dfx ICD).


Achja, das bezog sich nicht auf 'spezielle' Demos von ATi, Powervr, NV, 3dfx,.. die hab' ich natuerlich auch.

Kai
2001-08-20, 13:07:25
Originally posted by MFC_Boron
Die GF3 MX wird wohl eher lahm sein, da die GF3 ja gerade mal bei Aquanox in spielbare bereiche kommt. Ebenso bei Doom 3 und daher wird eine GF3 MX da nix bringen.


Greetings,
Boron

Wir wollen doch mal den Aquamark nicht mit Aquanox verwechseln mein lieber ... ich hab Aquanox bereits gezockt - und es lief seeeehr smoth auf ner Geforce2 Ultra ...

Unregistered
2001-08-20, 13:16:30
Originally posted by ow




??? Was will mir dieses Posting sagen ???

Zur Info: Ich sammele 3D Engines&Demos, sind mittlerweile mehrere 100 Stueck, sowohl D3D, OGL, Glide.

Und die laufen FAST ALLE tadellos auf der Riva TNT oder der GF2MX (= universelle 3D Beschleuniger), aber nur ein Bruchteil davon zB. auf Voodoos (und wenn's darauf lauft, dann reden wir lieber mal nicht von der Performance, an einigen Stellen ist sogar M$' OpenGL SW rendering schneller als 3dfx ICD).


Achja, das bezog sich nicht auf 'spezielle' Demos von ATi, Powervr, NV, 3dfx,.. die hab' ich natuerlich auch.


Do you remember me

StefanV
2001-08-20, 13:18:28
Originally posted by ow
??? Was will mir dieses Posting sagen ???

Zur Info: Ich sammele 3D Engines&Demos, sind mittlerweile mehrere 100 Stueck, sowohl D3D, OGL, Glide.

Und die laufen FAST ALLE tadellos auf der Riva TNT oder der GF2MX (= universelle 3D Beschleuniger), aber nur ein Bruchteil davon zB. auf Voodoos (und wenn's darauf lauft, dann reden wir lieber mal nicht von der Performance, an einigen Stellen ist sogar M$' OpenGL SW rendering schneller als 3dfx ICD).


Achja, das bezog sich nicht auf 'spezielle' Demos von ATi, Powervr, NV, 3dfx,.. die hab' ich natuerlich auch.

Was das Sagen soll:

Es gab unter OS2 kaum gute Anwendungen, aber OS2 hatte eine gute win 3.1 'emulation'...

Und wie es heute aussieht das wissen wir ja...

Zurück zu den GraKas:

1. Als 3DFX user nimmt man besser den WickedGL ICD(siehe hier (http://www.3dcenter.de/artikel/voodoo5-wickedgl/)), wer dann noch den 3DFX nimmt, der ist selber schuld...

2. Schon mal eine Radeon getestet??
Gegen eine Rage Pro ist das KEIN vergleich!!!
Und ja, ich hab auch eine Rage Pro...

ow
2001-08-20, 13:32:47
Originally posted by Stefan Payne


1. Als 3DFX user nimmt man besser den WickedGL ICD(siehe hier (http://www.3dcenter.de/artikel/voodoo5-wickedgl/)), wer dann noch den 3DFX nimmt, der ist selber schuld...

2. Schon mal eine Radeon getestet??
Gegen eine Rage Pro ist das KEIN vergleich!!!
Und ja, ich hab auch eine Rage Pro...


1. WickelGL ist KEIN ICD, sondern ein MiniGL Treiber, d.h. da laufen absolut gar keine OpenGL Apps/Demos damit. WickedGL lauft NUR mit Spielen und NUR im Vollbild-Modus.

2. Nein, ich habe noch kein Radeon getestet, wenn mir mal jamand sein Radeon ausleiht werde ich gerne die Tauglichkeit des Treibers mit einigen 3DEngines testen...

MFC_Boron
2001-08-20, 13:35:28
Originally posted by ow



Mal ganz ehrlich:
Das hat doch noch NIE irgendeinen Gamer interessiert!

Dualhead? Wozu? Da baue ich mir doch lieber eine 2. Graka ein, wenn ich's unbedingt brauche.
DVD? Kein Gamer-Feature.
TV-out? Nenn mir nur EINEN halbwegs aktuellen Grafikchip, von dem es KEINE Karte mit TV-out gibt.
2D Qualitaet? DAS nenne ich Hype! Nur weil es ein paar Grafikkarten mit schlechtem SIgnal gibt.... ist im Uebrigen vom Grafikchip unabhaengig.

Summary:
All diese 'Features' werden doch JETZT bloss genutzt, um NVidia schlecht zu machen, da hat sich frueher wirklich NIEMAND drum geschert.





Wir reden ja auch von einer "universellen" Karte und nicht nur zum Gamen.
Du bekommst Dual Head bei der R200 aber zum gleichen Preis einfach dazu. Ausserdem spart man da einen PCI Slot!
DVD ist zumindest fuer viele andere wichtig. Es geht ja nicht nur um den Hardcore Gamer!
Bei dem TV-Out geht es auch um die Qualitaet. Ich hatte da schon einige Karten von ASUS und die waren alle schlecht. Nur matrox und ATi kriegen das hin. Wie das bei den Kyro Boards ist weiss ich nicht.
Die 2D-Signalqualitaet ist schon wichtig. Wenn man einen 400,- 17" Monitor hat natuerlich nicht...

Ich mache nVidia nicht schlecht. Ich habe auch nix gegen die GF3. Ist eine tolle Karte, nur ich wuerde sie mir eben nicht kaufen. Ist das schlimm?

Es geht eben um eine universelle Karte. Nicht nur um universelles Gamen. Warum sollte das auch nur mit nVidia gehen?


Gruss,
Bernhard

MFC_Boron
2001-08-20, 13:45:10
Originally posted by Kai


Wir wollen doch mal den Aquamark nicht mit Aquanox verwechseln mein lieber ... ich hab Aquanox bereits gezockt - und es lief seeeehr smoth auf ner Geforce2 Ultra ...

Also ich weiss ja auch, dass der Aquamark ein Stresstest ist!

Bei der GF2 Ultra hast Du dann aber auch keine Vertex Shader benutzt und auf einige Details verzichtet. Dafuer muss ich mir dann aber keine GF3MX kaufen. Da geht dann auch eine GF2Pro.

@Kai
Wo hattest Du denn Gelegenheit das Baby zu zocken? War gut?


Gruss,
Boron

Kai
2001-08-20, 15:00:59
Aquanox angezockt hier:

http://www.games.de/T1/DB/Artikel.asp?RubID=1&ArtID=4497

Uns wurde freilich auch die GF3-Variante vorgeführt - grafisch ein wenig leckrer und genauso smooth ...

Razor
2001-08-20, 16:02:12
@MFC_Boron

Na Deine Ausrichtung ist auch nicht gerade zu übersehen...
;-)

Aber zu Deinem Post:

"Man hat auch KEINEN Leistungsverlust auf einer R8500" (Trueform)
-> gibt es schon irgendwelche Benches, die Deine Aussage belegen ?

"muss wohl daran liegen, dass der Detonator 4 hier um einiges langsamer ist als der Detonator 3 und damit auch langsamer als die R8500."
-> Falsch ! Sowohl der Deto3, als auch der Deto4 ist schneller, als das Derivat von ATI.

"da die GF3 ja gerade mal bei Aquanox in spielbare bereiche kommt"
-> Ich finde, daß so 115fps mehr als nur 'spielbar' ist (gf3)...

Und noch etwas (wie schon so oft geschrieben): Die theoretischen Specs eines Grafik-Chips haben NICHTS mit der tatsächlichen Leistung des Systems zu tun. Ich bitte dies doch in Erinnerung zu behalten, wenn hier schon auf diesem Niveau diskutiert wird...

Wenn Dir die Radeon8500 besser gefällt (obwohl Du Dir ja selbst lieber 'ne DX7-karte zulegen wills), ist das ja Deine persönliche Entscheidung.

***

Zu dem andern Kommentaren möchte ich mich nur folgendermaßen äußern:

Wer All-In-One-Lösungen ala ATI liebt, sollte auch wieder auf ATI zurück griefen. Ich hingegen liebe es, Komponenten auszutauschen, wenn es etwas besseres oder kompatibeleres gibt (DVD, TV).

Dieses gegenseitige Vorwerfen von irgendwelchen Orientierungen oder Formulierungen möchte ich mich nicht anschließen.

Aber trotzdem rate ich allen, die sich eine Radeon8500 zulegen wollen, oder bei dem Kauf einer gf3 unsicher sind, zumindest die ersten Praxis-Tests des neuen ATI-Wunderwerkes abzuwarten, die auf dem kaufbaren Produkt und den finalen Treibern basieren (was im übrigen dann auch für die finalen Deto4-Treiber nVidia's gilt)...

Ansonsten gebe ich Kai recht und sage: Abwarten ! Wir werden sehen...

In diesem Sinne

Razor

MFC_Boron
2001-08-20, 17:03:13
**
Na Deine Ausrichtung ist auch nicht gerade zu übersehen...
;-)
**

Ich bin nicht gegen nVidia. Ich bin nur nicht von allen Produkten ueberzeugt.
Zum Beispiel habe ich meiner Schwester auch einen Rechner mt einer MX zusammen gestellt. Ich bin nicht prinzipiell gegen die GeForce.
Ich wuerde NIE eine Karte von ATi vor der Radeon kaufen.


**
"Man hat auch KEINEN Leistungsverlust auf einer R8500" (Trueform)
-> gibt es schon irgendwelche Benches, die Deine Aussage belegen ?
**

Nein, das nicht, aber das wurde von mehreren der Reviewer gesagt und bestaetigt. Und um 5 FPS soll es ja wohl nicht gehen, oder?


**
"muss wohl daran liegen, dass der Detonator 4 hier um einiges langsamer ist als der Detonator 3 und damit auch langsamer als die R8500."
-> Falsch ! Sowohl der Deto3, als auch der Deto4 ist schneller, als das Derivat von ATI.
**

Nein, in Giants ist der Detonator 3 schneller als die R200 und der Detonator 4 langsamer. Dafuer ist letzterer aber in allen aktuellen "Benchmarks" schneller als die R200. Das meinte ich und das ist auch so. Das wird aber sicherlich noch zum Final Release des D4 gefixt.


**
"da die GF3 ja gerade mal bei Aquanox in spielbare bereiche kommt"
-> Ich finde, daß so 115fps mehr als nur 'spielbar' ist (gf3)...
**

Wo erreicht die GF3 den 115 FPS im Aquamark bei 1024 und mit vollen Details und Features? Ich meinte nicht das Spiel, da ich da noch keine Zahlen gesehen habe.


**
Und noch etwas (wie schon so oft geschrieben): Die theoretischen Specs eines Grafik-Chips haben NICHTS mit der tatsächlichen Leistung des Systems zu tun. Ich bitte dies doch in Erinnerung zu behalten, wenn hier schon auf diesem Niveau diskutiert wird...
**

Ich rede doch ueberhaupt nicht von den theoretischen Specs der Karte. Mir geht es nur um die Features wie Dual Head, DVD,...
Die werden leider unter den Tisch gekehrt. Vielleicht ist das nichts fuer den Hardcore Gamer, aber es gibt eine menge Anwender, die genau das wollen.

**
Wenn Dir die Radeon8500 besser gefällt (obwohl Du Dir ja selbst lieber 'ne DX7-karte zulegen wills), ist das ja Deine persönliche Entscheidung.
**

Ich ueberlege auch mir eine Kyro II zu kaufen. Ist auch nicht ausgeschlossen. Ich werde nur keine 800 oder 900 DM fuer eine GraKa ausgeben. Das ist eben alles. Trotzdem kann man doch was toll finden, oder nicht? Ich finde ja auch Porsche toll. Wenn es eine GF3MX gibt und die Karte gut ist werde ich mir auch die ansehen. Ich "glaube" eben nur nicht, dass das was wird. Es gibt aber noch keine offiziellen specs oder Benches und davor kann man auch nix dazu meinen, sondern nur vermuten.


**
Wer All-In-One-Lösungen ala ATI liebt, sollte auch wieder auf ATI zurück griefen. Ich hingegen liebe es, Komponenten auszutauschen, wenn es etwas besseres oder kompatibeleres gibt (DVD, TV).
**

Ich liebe es PCI-Slots zu sparen. Habe mir auch mal eine ASUS V7100 Deluxe Combo gekauft, aber war nicht zufrieden damit. Kann man eben nix machen.


**
Dieses gegenseitige Vorwerfen von irgendwelchen Orientierungen oder Formulierungen möchte ich mich nicht anschließen.

Aber trotzdem rate ich allen, die sich eine Radeon8500 zulegen wollen, oder bei dem Kauf einer gf3 unsicher sind, zumindest die ersten Praxis-Tests des neuen ATI-Wunderwerkes abzuwarten, die auf dem kaufbaren Produkt und den finalen Treibern basieren (was im übrigen dann auch für die finalen Deto4-Treiber nVidia's gilt)...

Ansonsten gebe ich Kai recht und sage: Abwarten ! Wir werden sehen...
**

Dem schliesse ich mich auch an!
Ich mag es nicht irgendwelche Firmen zu beschuldigen und hier so einen Glaubenskrieg auszutragen.
Fuer Kai als Q3 Spieler ist eine Karte von nVidia eben die erste Wahl.


Gruss,
Berni

StefanV
2001-08-20, 17:43:08
Originally posted by ow
1. WickelGL ist KEIN ICD, sondern ein MiniGL Treiber, d.h. da laufen absolut gar keine OpenGL Apps/Demos damit. WickedGL lauft NUR mit Spielen und NUR im Vollbild-Modus.

2. Nein, ich habe noch kein Radeon getestet, wenn mir mal jamand sein Radeon ausleiht werde ich gerne die Tauglichkeit des Treibers mit einigen 3DEngines testen...

1. dicht bei;)...

2. Gerne, wenn du den Versand übernimmst;)...

PS: willst du auch eine Karte sehen, die ein 'richtiges' 2D Signal liefert(MGA-2164W)??

Razor
2001-08-20, 20:06:45
@MFC_Boron

Von allen Produkten nVidia's bin auch bei weitem nicht überzeugt. Lediglich die TNT (Diamond) mit Voodoo2, gfddr und jetzt die gf3 (übrigens beide von ELSA mit hervorragender 2D Bildqualität) haben mich überzeugt. Die gf2-Line hat nicht wirklich was neues gebracht, so habe ich denn darauf verzichtet (wie auch auf die TNT2-Linie)... auch des Geldes wegen !
;-)

Aber alle 2 Jahre 'ne neue GraKa muß schon sein !

-

Bei Trueform soll es sicherlich nicht um 5fps gehen, aber soweit ich weiß, kostet dieses Feature mehr... aber dazu werden wir mehr sehen, wenn's mal 'nen vernünftigen Bench dazu gibt...

-

Was die Performance von Giants angeht...
Wo hast Du das her ?
Daß die Deto3'er schneller sind, darüber sind wir ja wohl einig, oder ? Was die Deto4'er angeht, schau doch einfach mal unter:

http://www.tomshardware.de/graphic/01q3/010814/radeon8500-30.html

Das schlägt die Radeon8500 (wie auch die gf2pro !) die gf3 nur in 1600x1200x16, sonst wird sie geschlagen, vor allen Dingen in 1024x768x32, was ja wohl die präferierte Auflösung ist... (um lockere 20% !)

Auch ist es ein Irrglaube, daß die Performance der gf3 in mittleren Frameraten um 30% sinkt. Lediglich die maximale Verschlechterung liegt bei 30% (genauer -4% bis -30% in den minimalen Frameraten)...

Dazu dann noch mal das nette Bildchen von Tomshardware:

http://www.tomshardware.com/graphic/01q3/010814/images/image001.gif

Hoffe nun, daß Dir das jetzt reicht !
;-)

-

Was Aquamark angeht...
Hab mich wohl etwas verhaun' !
Aber um auch das zu kommentieren:

http://www.tomshardware.com/graphic/01q3/010814/images/image010.gif

Sorry !
Meine das irgendwo gelesen zu haben, aber in welchem Zusammenhang...
Ja, ja, die grauen Zellen...

-

Was den Rest angeht...

Klar, mutimediale Anwender werden die zusätzlichen Features zu nutzen wissen, ob diese aber auch bereit sind, fast 1000 Märker dafür auszugeben ? Echte Hardcore-Gamer legen auf solchen Schnickschnack eben keinen Wert.

DVD läuft auch schon mit MC-Unterstützung und 'nem PIII500 ausreichend gut (selber nutze ich der hervorragenden Bildqualität WinDVD2k)...

DualHead ist was für die Firma und für Leute, denen ein Bildschirm eben nicht reicht... wüßte auch nicht, wofür ich ein solches Feature nutzen sollte, zumal ich einen dritten Moni auch nicht mehr unterbringen könnte (mein 2. Rechner ist ja schließlichauch noch da)...

Na ja, wie schon gesagt, sind ganz nette Features, mit denen ich aber nicht viel anfangen könnte und ich denke, daß dies auch viele andere so sehen.

-

Ich habe ja nichts dagegen, daß Du irgendetwas gut findest. Ganz im Gegenteil, finde ich es doch hervorragend, daß endlich mal wieder ein bischen Bewegung in den GraKa-Markt kommt. Aber eben nur den Specs hinterher zu reden, bringt halt nichts. Auch bin ich eben nicht der Meinung, daß Features eben echte Leistungsfähigkeit ersetzen. Die neue Karte von ATI ist eben um einiges höher getaktet, als die von nVidia. Trotzdem schaft sie es nicht, der gf3 die Krone abzulaufen, obwohl ATI vorher vollmudig 33% mehr Leistung angepriesen hat (was auch mit den Deto3'ern nicht erreicht wurde). Aber da sowohl Hard- als auch Software eben noch nicht finale Produkte sind (was ich persönlich nur bedingt glaube), gibt's ja ev noch 'ne Überraschung.

Wenn Du in diesen Preisregionen denkst, empfehle ich Dir wärmstens die von Dir schon angemerkte KyroII, da es wohl zu diesem Preis nichts besseres geben wird (und die Radeon 7500 wesentlich teurer ist). Denn ich glaube kaum, daß die gf3mx eine KyroII im Preis unterbieten werden wird...

Aber eines glaube mit bitte, die gf3 ist nicht nur was Q3-Spieler (dafür reicht 'ne MX) !
;-)

Bis denne

Razor

Razor
2001-08-20, 20:14:29
Das Preview meines Postings sag irgendwie besser aus...

Egal !

Hier noch mal der Link zum Deto3/4-Vergleich:

http://www.tomshardware.com/graphic/01q3/010814/radeon8500-09.html

Der Link zum Aquamark-Bench:

http://www.tomshardware.com/graphic/01q3/010814/radeon8500-16.html

Der Link zum VillageMark/Giants-Bench:

http://www.tomshardware.com/graphic/01q3/010814/radeon8500-17.html

So far !

Razor

HOT
2001-08-20, 20:54:39
Noch mal was zu theoretischen Werten: bis jetzt war es faktisch IMMER so, dass sich die Karten innerhalb ihrer theoretischen Werte durchaus bewegen. Die einzige Abweichung war der Savage2000, aber auch nur weil S3 unheimliche Schwierigkeiten hatten das durch einen Hardwarebug verunstalteten Rendering to Textures zu fixen. Erinnern sich noch die S2k Besitzer an die durchsichtigen Schatten bei NFS5 PU? Selbst nach diversen Patches und Treiberupdaest waren die Lampen noch blurry und die Schatten gemanscht ;) aber ich schweife ab.
Der Radeon8500 hat wesentlich bessere Specs als der Geforce3 und hat dadurch einfach logischerweise mehr Potenzial. Selbst wenn die Treiberexperten von ATI nicht so toll sind wie die von NV (was IMHO sowieso quatsch ist), wird der R200 durch seine durchweg höhenren Potenzials niemals grossartig der G3 unterliegen - und das bei gleichem Preis und mehr Features. Beim Radeon1 vs Geforce2 war das ne ganz andere Geschichte! Der Radeon hat nur 2(!!) Rendering Pipes (nur 366MPixel) und keine Bandbreitenprobleme. Dadurch verhält er sich etwas anders als der Geforce2, ist doch völlig klar!!! Vom Radeon1 vs Geforce2 kann man einfach keine Parllelen zu Radeon8500 zu Geforce3 ziehen! Das sind zwei vöölig verschiedene Dinge.
Noch was zum Radeon: die DX8.1-Treiber sind beta und man darf auf keinen Fall vergessen, dass das DX8.1, worauf man gebencht und im übrigen den Treiber entwickelt hat AUCH noch BETA ist!!!

Zum Detonator 20.80 kann ich nur folgendes sagen: Marketing Fake. Erst kündigt irgendjemand grosspurig den offiziellen 20.80er an und macht dann nen Rückzieher ... IMHO sehr komisch. Ist auch in den 3DCenter News zu lesen ;)

MFC_Boron
2001-08-20, 20:58:47
@Razor

**
Aber alle 2 Jahre 'ne neue GraKa muß schon sein !
**

Warum auch nicht? Sehe ich auch so. Nur eben nicht alle 6 Monate...

Was Giants betrifft weiss ich nicht mehr, wo ich das her habe. Ich werde es nochmal suchen. Irgendwo in den Tiefen des Internets...

Habe ich eigentlich irgendwo mal behauptet, dass der R200 immer schneller ist als die GF3? Noe! Ich glaube auch nicht an ein Performancewunder. Viel wird sich da nicht mehr tun. Die Speedkrone kann nVidia ja auch behalten. Es ist wie mit der GTS und der Radeon. Entweder speed ohne Ende, oder ein paar Features mehr. Was man nun braucht ist eine reine Entscheidungsfrage, die jeder fuer sich selber beantworten muss. Langsam ist die R200 aber auch nicht.

Ich weiss sowieso nicht wer 1000,- fuer eine GraKa ausgibt und warum. Ich wuerde das nicht tun. Aber jedem sein Hobby. Ich bin da allerdings auch ruhiger geworden. War schon heftiger...

Es geht bei dem DVD ja nicht nur um speed, sondern um Qualitaet und da ist ATi´s adaptives Deinterlacing eben Top!Das gilt auch fuer den TV-Out. Wenn man eine Decoder Karte hat ist das ja schnuppe, aber keiner kann mir erzaehlen, dass es irgendeine GeForce gibt, die einen Top TV-Out hat. Weder von den Optionen noch von der Qualitaet. Wenn einer eine kennt, dann bitte her damit!

Dual Head ist schon "nice". Ich kann es schon gebrauchen. Ich muss es nicht haben, aber es waere schon nett. Einen zweiten PC habe ich leider nicht...

Generell finde ich es auch gut, dass mal wieder ein wenig Schwung auf den Markt kommt. Zumindest fallen bald die Preise. Das ist immer gut. Allerdings bekommt man schon eine Kyro II fuer 209,- DM incl. TV-Out! Das nenne ich mal einen super Preis. Ich denke eigentlich nur ueber eine Kyro II nach, da die Treiber unter Windows 2000 eben 1:1 mit den Treibern von Windows9x sind. Das ist mal eine Premiere. Ich frage mich nur, ob die Kyro II unter Windows 2000 auch schneller ist als meine Radeon 64 DDR OEM. Wenn nicht, dann brauche ich ja auch nix tauschen. Die meisten Reviews sind ja mit 9x und nicht mit 2k. Das ist schon bloede. Mittlerweile sollte sich schon rumgesprochen haben, dass viele auch Windows 2000 benutzen.

Was ich allerdings mal allen Herstellern ankreiden will ist, dass man immer auf externe Tools zurueckgreifen muss um unter Win2k mehr als 60hz in Games zu bekommen. Das ist F***!
Warum kann denn sowas nicht in die Treiber eingebaut werden? Warum werden die User damit immer im Regen stehen gelassen? Warum aendert MS das nicht mal in einem Service Pack? Ist das unter XP immer noch der gleiche Krampf?
Fragen ueber Fragen...


Gruss,
Boron

Razor
2001-08-20, 21:08:52
@HOT

Nun bleib mal auf dem Teppich !

Natürlich waren die ATI Treiber Beta, aber wie sich ja jetzt heraus stellte, waren es die von nVidia ja auch !
;-)

Auch wurde auf DX8.0a getestet und nicht auf DX8.1.

Die höheren Specs ergeben sich hauptsächlich aus dem Faktum, daß die Radeon halt höher getaktet ist. Man sollte aber bendenken, daß die beiden Hersteller unterschiedliche Wege gehen, Bandbreite zu optimieren. Also bleibt auf jeden Fall abzuwarten, welcher Ansatz der bessere ist. Und natürlich haben die Treiber damit eine Menge zu tun !

Wäre aber schon ein Armutszeugnis, wenn ATI trotz höherer Taktung nicht in der Lage wäre, die gf3 zu schlagen.

Auch möchte ich nichts mehr dazu sagen, wer offensichtlich das bessere Treiber-Team hat...

Habe übrigens gerade erfahren (neuer Thread in diesem Forum), daß ich bereits 'ne gf3pro besitze... schon erstaunlich, was ?

Bis denne

Razor

HOT
2001-08-20, 21:22:49
Heeee, das ist ja noch schlimmer ;) Die Treiber des R200 sind DX8.1 optimiert. Wenn die noch DX8.0 sind sind sie wirklich very early beta :D

Razor
2001-08-20, 21:35:18
@MFC_Boron

Hi Boron !

Na dann hab' ich Dich wohl falsch eingeschätzt...
Offensichtlich sind wir ja in vielen Dingen gleicher Meinung.

Ich halte es ebenfalls für absoluten Wahnsinn, sich alle 6 Monate 'ne neue GraKa zuzulegen. Vor allem tun mir die Leute leid, welche 'mal eben' 1400 Märker für 'ne gf2ultra locker gemacht haben und dann fest stellen mußten, daß sie nach 3-4 Monaten schon zum alten Eisen gehörte... Nicht daß ich falsch verstanden werde, denn die gf2u ist immer noch ein Top-Performer, aber eben nicht mehr ganz aktuell und das ist schon hart.

Habe selber für meine gf3 (ELSA) 870DM raus getan und finde das auch gar nicht sooooo sonderlich viel, zumal ich ja vor 2 Jahren auch 650 Märker für 'ne gfddr geblecht habe... (war damals auch ein Unding !)

Die Qualität des ATI DVD's ist schon top, aber mit dem richtigen Programm (WinDVD2k) und 'nen bishen CPU-Power ist's auch mehr als nur OK.

200 Märker für 'ne KyroII ist schon mehr als super, aber nicht vergessen: Braucht 'ne potente CPU, gell ?
;-)

Ach ja, mein Zweit-rechner ist übrigens ein guter alter AMD K6-2 300@350 mit 'ner TNT/Voodoo2-Kombi. Ist bei dem letzten 'General-Update' übrig geblieben (meine gf3 liegt noch im Schrank und wartet darauf, daß ich mir irgendwann mal 'nen Athlon-System zulege ;-). Schleißlich geht der Trend ja zum Dritt-PC !
;-)

Und klar gibt es schon Leute, die Win2k zu hause einsetzen, aber dazu muß ich allerdings sagen, daß es für mich noch einfach zu früh ist, mich damit als Standard-Plattform herum zu ärgern (habe WinNT/Win2k/WinXP/Linux neben Win98SE auf verschiedenen Partitionen). Ist halt noch zu buggy. Auch WinNT lief erst im SP4 vernünftig und Win9x erst mit Win98SE und IE5.5 (habe gerade erst vor 4 Monaten von Win95c 'upgegraded'). WinME war ein glatter Fehlschlag.
Tatsache ist allerdings, daß für Tester eben meist die breite Basis interessant ist und das ist nunmal Win9x !

Wie dem auch sei, mit der OS-Plattform bin ich ähnlich wählerisch, wie bei neuen Hardware-Komponenten. Schließlich hab' ich ja auch erst mal 'nen Monat gewartet, bis es Praxis-Tests und Anwender-Erfahrungen gab, bevor ich mich dazu hab hinreißen lassen, mir 'ne gf3 zuzulegen (HOT wird sich ev noch erinnern).

So, genug geschrieben !

Bis denne

Razor

Kai
2001-08-20, 22:02:21
Originally posted by MFC_Boron
wo schafft die GF3 115 fps im Aquamark?


Nochmal ... dann musst Du das aber auch eindeutig schreiben. Aquanox und der Aquamark haben ausser der "KRASS"-Engine nix gemein. Nichtmal die Models die da rumschwirren.

Lies mal unser "preview" durch ... Du wirst feststellen das wir das Ding sogar auf ner 500 Mhz CPU gezockt haben. Und wenn ich schon sag, das es "ruckelfrei" war, könnt ihr mir das auch glauben, nicht wahr Amarok? ;D

Korak
2001-08-21, 11:50:51
Aber das Szenario ist schon gleich oder???

Zu Trueform und Leistungverslust:

Ich glaube der Spruch, dass die R200 mit Trueform nihct an Leistung verliert, ist auf die 'alten' Spiele ohne standart mäßige HW T&L Unterstützung bezogen. Da kann ich mir auch gut vorstellen, dass sie nicht an Leistung verliert. warum auch??? Die T&L-Einheit (welche auch immer) ist schneller als die CPU und übernimmt dann die Berechnung der Polygone. Nun wird die Anzahl der Polygone erhöht und die Belastung wird größer. Dann ist wahrscheinlich die R200 mit mehr Polygonen so schnell wie eine CPU mit wenigen Polygonen. Das das bei steigender/abfallender CPU Power nicht mehr stimmt ist klar.

Razor
2001-08-21, 13:55:35
Bitte wartet doch erst einmal ab, wie sich das mit der Leistung bei aktiviertem Trueform verhält, wenn es vernünftige Test's dazu gibt, die auch was aussagen...

Wundert mich eigentlich, daß es bei den vielen Previews der Radeon8500 dazu keine Aussage gibt, obwohl es doch eines der Highlights der neuen GraKa ist. Kann es sein, daß es ev noch gar nicht funktioniert ?

Will damit nicht wieder irgend etwas schlecht machen, aber bitte wartet doch, bis es konsistente Aussagen dazu gibt.
Alles andere ist ein Schuß in den Wald !

Bis denne

Razor

Korak
2001-08-21, 14:07:52
Hast recht :)
Ich sag nix mehr und warte nur noch =) *Tee kaufen geh*

Razor
2001-08-21, 16:35:44
Lieber 'nen ordentlichen Kaffee !
;-)

Aber mal im ernst, momentan scheint wieder das Sommerloch zuende zu gehen und die Gerüchteküche brodelt regelrecht ! Da bin ich lieber etwas vorsichtiger damit, was hier momentan so Info's durch die Gegend fleucht...

Razor