PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : gf3ti200 vs gf4ti4400


Supa
2002-03-24, 21:27:16
Was meint iht was ist im 3dmark2001se schneller?

PC1:
AMD TB-C 1,2Ghz
256MB DDR
GF3ti200

PC2
AMD TB-B 1Ghz
128MB SDram
GF4ti4400

Also ich denke die gesamt leistung des 1. pc ist schneller, aber wie wirkt sich die gf4 auf die bewertung im 3dmark aus?

Micron
2002-03-24, 22:36:11
Es ist auf jeden fall der PC2 . Da der Unterschied zwischen 1000Mhz und 1200Mhz nicht so groß ist wie der zwischen einer GeForce3 TI200 und einer GeForce 4 TI4400. Und die 128MB ram die der erste Rechner mehr hat bringen ihm gar nix.

Quasar
2002-03-24, 22:50:40
Auf jeden Fall Nummer Zwei!
Die TI4400 putzt den ersten sogar weg, wenn der ne GF3TI500 hätte.

geforce
2002-03-24, 23:00:10
Originally posted by Quasar
Auf jeden Fall Nummer Zwei!
Die TI4400 putzt den ersten sogar weg, wenn der ne GF3TI500 hätte.

würde ich auch sagen ... ;)

[dzp]Viper
2002-03-24, 23:35:32
hmm das steht net ganz fest ..... wer weiss
der andere pc is auch ein TB -b !!

Micron
2002-03-25, 00:25:37
Hat aber keine GeForce4 Ti4400

Supa
2002-03-25, 01:40:23
nicht zu vergessen der eine hat ddr und der andrere nur sdr. Nur mal so als frage wieveil punkte sollter der pc1 ca beim 3drmak erreciehn?

[dzp]Viper
2002-03-25, 09:33:28
der erste PC -ohne graka übertaktung knapp 6000
der zweite pc ca. 6500 maximal da er auch nur 128 MB ram hat und dann auch noch SD ram und ein Athlon B ist

Micron
2002-03-28, 21:08:24
Originally posted by [dzp]Viper
der erste PC -ohne graka übertaktung knapp 6000
der zweite pc ca. 6500 maximal da er auch nur 128 MB ram hat und dann auch noch SD ram und ein Athlon B ist

SCHWACHSINN das ist das gelaber vonm jemand der keine Ahnung hat. Sorry aber du merkst KEINEN unterschied zwischen 128MB und 256MB. Und zwischen DDRRAM und SDRRAM sind es allerhöchstens 10% unterschied. Gut der eine hat einen FSB von 100 und der andere 133 das ist schon ein ziemlicher Unterschied.

PC1 hat 6000-6500Punkte
PC2 hat mindestens 8000Punkte

Major J
2002-03-28, 21:51:45
Ich würde sagen, die beiden geben sich nicht viel. Der erste ist jedoch die bessere Zusammenstellung.

Quasar
2002-03-28, 23:19:25
Wenn ich mir einen aussuchen dürfte, wär's mit Sicherheit der 2te PC.

Bei gleicher CPU dürfte der zweite nen ca-Vorsprung von 2000 Punkten haben.

GloomY
2002-03-29, 03:52:41
Imho ist bei 3DMurks der zweite PC besser, bei Spielen bin ich mir aber auch nicht so sicher.

Supa
2002-03-29, 10:34:43
So leute um das jetzt mal auf zuklären, pc1 hat 6200 punkte, pc hat 5000 punkte. Fragt mich nciht wieso, aber ich glaube pc2 hat sowie so irgend nen schaden weg.

Quasar
2002-03-29, 11:35:14
Das hat er ganz sicher. Die 6000 kriegste auch mit ner OC'ed MX440 hin.
Und auch in Spielen sollte er gut dastehen, natürlich nur, wenn du nicht in 640 ohne Details spielst, sondern das Eye-Cande schön aufdrehst, wofür gute 3D-Karten auch gedacht sind.

Major J
2002-03-29, 11:53:03
Originally posted by [BVSA]Supa
So leute um das jetzt mal auf zuklären, pc1 hat 6200 punkte, pc hat 5000 punkte. Fragt mich nciht wieso, aber ich glaube pc2 hat sowie so irgend nen schaden weg.

Ich wusste es! Scheiß auf riesen Grakas, wenn der Rest Müll ist. :D

Micron
2002-04-01, 17:01:40
6000 Punkte ist aber etwas wenig

Supa
2002-04-01, 18:33:14
Aus unübertateten 5900 hohl ich noch 6400 raus. Achso der trottel mit der gf4 hatte keine agp treiber insatlliert(keine ahnung von nichts aber ne gf4ti), mit hat er jetzt 5800, was aber eingetlich immer noch ein bischen wenig ist.

geforce
2002-04-03, 14:19:05
ich denke du hast aber eines vergessen ... es gibt noch keine guten treiber für die gf4 serie ... ist so wie bei der gf3 serie damals ... es hat ewig gedauert bis gute treiber da waren ...

ow
2002-04-03, 15:14:25
Guter Witz Geforce

Die NV Treiber sind von ausgezeicheneter Qualitaet, mehr sag ich dazu nicht.

Supa
2002-04-03, 15:52:19
Gute qualität? *lol* netter witzt, wenn man sich mal die trieber für tv in/out reintzieht ist das einfach nur lächerlich was da nvidia abliefert, mit den neuen treibern ab 27er wird der tv chip nciht mehr erkannt, bzw der tvout lässt sich nciht anwählen.

ow
2002-04-03, 16:53:40
Falls du es noch nicht weisst:

Die Kartenhersteller sind fuer die Funktionalitaet ihrer Karten verantwortlich. Da hat NV garnichts damit zu tun.
NV liefert lediglich das Treibergeruest fuer die Kartenhersteller (sowas nennt man Referenztreiber).

geforce
2002-04-03, 17:08:34
trotzdem gab es für die gf3 anfangs keine guten treiber ... langsam und scheiss unterstützung ... war so ... darüber gab es sowas von viele artikel ... aber egal :)

ps: wenn nv die referenztreiber liefert und die scheisse sind ... was sind dann du kartenhersteller-treiber ? ... genau: auch scheisse ... ;)

b0wle`
2002-04-04, 12:17:38
geForce was redest du da für ein Stuss?

Die NV Treiber sind mittlerweile mehr als ausgereift und die GF4 sollte auch mit den GF3 Treibern einwandfrei laufen. Soviel techn. Veränderungen hat sie ja nicht.

Und gute Kartenhersteller passen ihre Treiber den neusten Referenztreiber von NV an um z.B. den TV-Out nutzen zu können. Nix da mit scheiss Qualität (Beta Treiber zählen nicht...).

ow
2002-04-04, 12:30:25
Originally posted by geForce
)

ps: wenn nv die referenztreiber liefert und die scheisse sind ... was sind dann du kartenhersteller-treiber ? ... genau: auch scheisse ... ;)


Richtig. Viele Kartenhersteller sind leider zu faul, um ihre Grakas mit richtigem Support zu unterstuetzen.

Aber Scheisse sind die Treiber deshalb noch lange nicht.

Supa
2002-04-04, 13:00:20
Doch die sind kacke, außerdem die meißten karten sind ndach refernz design gebaut, also sollten auch die refernz treiber funzen oder irre ich mich da?

b0wle`
2002-04-04, 14:09:18
Originally posted by [BVSA]Supa
Doch die sind kacke, außerdem die meißten karten sind ndach refernz design gebaut, also sollten auch die refernz treiber funzen oder irre ich mich da?
Das tun sie ja aber solche Sachen wie TV-Out wird vom Hersteller verbaut und muss auch von ihm unterstützt werden.

Obwohl eine generelle Unterstützung durch die NV Treiber auch schön wär...

Richthofen
2002-04-04, 15:08:58
@Supa

In erster Linie sind das mal Zocker Karten und die müssen erstmal eins vorrangig tun und das ist Performance und gescheite 3D Qualität abliefern.
Dafür ist NV zuständig und daran arbeiten sie mit sehr viel Erfolg oder wie erklärst du dir das eine Radeon8500 mit mehr Bandbreite als eine GF3Ti500 diese eigentlich mehrheitlich nicht schlagen kann?
Wie erklärst du dir das du NV Karten einbauen kannst und mit dem Zocken beginnen kannst ohne irgendwelche Fehler im FSAA oder beim Filter zu haben oder grobes Stuttering bei aktiviertem V-Sync in Direct3D?

Also mal schön ball flach halten und überlegen wer sich eine GF4Ti kauft und wofür.
Die Karte kauft man sich ganz sicher nicht wegen dem Tv-Out und da muss Nvidia einfach mal Prioritäten setzen.
Für Tv-Out kann man auch was billigeres nutzen.
Und wie OW richtig sagte sind dafür die Hersteller eigentlich zuständig.
Irgendwann wird Nvidia auch hier mal ne gescheite Unterstützung einbauen aber es muss doch wohl jedem Einleuchten das in erster Linie 3D Freaks sich solche Karten kaufen und dafür Geld löhnen und die wollen das die Karten in Games laufen und nicht so verbuggt rumzicken wie das Zeug von ATI.

Ja und jetzt werden wieder einige kommen und rumheulen......
Der Punkt ist und bleibt und wird auch in den nächstem Jahr sowie man ATI kennt nicht wegzudiskutieren sein. Lieber mal mit Leuten ausm 3D Center Forum oder Rivastation Forum reden, die sich eine GF4Ti gekauft haben und vorher ne Radeon8500 hatten.
Da stellt sich bei den vielen Bugs nämlich wirklich mal deutlich die Frage wer hier die bessere 3D Bildqualität abliefert.

Supa
2002-04-04, 15:45:04
hey jetzt tu nicht so als wenn nur nvidia gute treiber hatt,ich kann mich noch an meine voodoo2 erinnern, karte rein treiber druf, neustart, lief 1a.

wenn die neusten treiber deine karte um funktionen berauben für die du geld gezahlt hast dann ist das nicht gerade die feine art. Ok vielcht sind die mehrheit von denen die sich so eine karte kaufen harcore zocker, ich spiele nur ca 1h pro tag, aber das ist kein grund auf funktionen zu verzichten die man mit gekuaft hat! Ehrlich gesagt ist das die mieseste ausrede von allen, wenn so was kommt wie "der tv iun/out macht die karte instabiel" kommt dann glaub ich das aber "gamer brauchen keinen tv out" ist wirklich arm.

Und im 3d bereich funzen die treiber ja auch, dann könnten sie sich ja mal in der nächsten veriosn hinsetzten den rest hinzubekommen, sonst endet das wie bei microsft, "was? windows instabiel? kann gar nicht sein, sie sehen doch alle bunten bildchen"

Micron
2002-04-04, 23:38:41
Hey Leute ich will auch mal meinen Senf dazu geben. Also ich bin von einer GeForce 2 Titanium auf die GeForce 4 MX 440 umgestiegen und musste den Treiber nicht neu installieren. Das ist doch schon das erste Zeichen dafür das die NV Treiber gut sind oder nicht? Sie mögen vielleicht noch nicht 100& funzen aber zumindestens schon mal 90% würde ich sagen. Ausserdem ist 3D Mark2001 eh kein tolles Benchmark Programm aber egal es macht spaß es zu testen ;) Um wirklich zu wissen welches PC mehr zieht Bench mal mit der Demo von Comanche 4 oder mit Quake 3 Area. Dann weisst du auch wie die Realität aussieht. Den 3D Mark ist "eigentlich" sehr Grafikkarten gebunden. Zum beispiel habe ich mit meiner Direkt X 7 Karte beim 3D Mark 2000 einen Kumpel mit seiner R8500 gezogen. Ist ja auch klar das eine D7 Karte beim D7 Benchmark schneller ist. Ich habe mal meinen PC auf 1200Mhz runtertekatet und ich hatte mit meiner GF4 auch noch 6000 Punkte und es ist nur eine Poplige MX. Teste mal mit Quake 3 oder mit der Comanche Demo dann siehst du was sache ist.

MFG [CoC]Blackmagic

Edit: Mein TV Out läuft supa

geforce
2002-04-04, 23:50:16
Originally posted by Spider
geForce was redest du da für ein Stuss?

Die NV Treiber sind mittlerweile mehr als ausgereift und die GF4 sollte auch mit den GF3 Treibern einwandfrei laufen. Soviel techn. Veränderungen hat sie ja nicht.

Und gute Kartenhersteller passen ihre Treiber den neusten Referenztreiber von NV an um z.B. den TV-Out nutzen zu können. Nix da mit scheiss Qualität (Beta Treiber zählen nicht...).

ja klar, aber nun mal eine frage: wiso hab ich mehr performence mit den refernez treibern von nv als mit den hercules hersteller-treibern ... ? hmmm ... komisch ... waren da etwa die hersteller zu faul ... ? klar ... und genauso ist es doch auch mit nvidia ... mal gibt es schnelle treiber und mal total langsame die keiner benutzt ... aber wiso nur? ich denke nv weiss genau was die da programmieren ... ;) aber der kunde leidet darunter das nv bugs mit in die treiber einbaut ...

geforce
2002-04-04, 23:52:01
Originally posted by ow



Richtig. Viele Kartenhersteller sind leider zu faul, um ihre Grakas mit richtigem Support zu unterstuetzen.

Aber Scheisse sind die Treiber deshalb noch lange nicht.

Ich hab ja auch nicht gesagt das alle treiber scheisse sind, aber das es anfangs schlechte treiber für die gf3 bzw. für die gf4 gibt kann man einfach nicht leugnen ... siehe performence mit AF und ner gf4 ... hmmm ... ?

Micron
2002-04-05, 00:08:10
Originally posted by geforce


Ich hab ja auch nicht gesagt das alle treiber scheisse sind, aber das es anfangs schlechte treiber für die gf3 bzw. für die gf4 gibt kann man einfach nicht leugnen ... siehe performence mit AF und ner gf4 ... hmmm ... ?

Du redest einen scheiß zusammen warum habe ich dann keine Probleme mit meiner GeForce 4??? Sag mir das bitte mal.

b0wle`
2002-04-05, 00:11:41
Naja COC, deine GF4 ähnelt ja mehr einer GF3 als einer richtigen GF4 (wenn überhaupt...) *stichel*

Micron
2002-04-05, 00:14:47
Ne GF4 ist GF4 . Eine GeForce 2 TI ist ja auch noch lange keine GeForce 3 TI200 oder eine GeForce 2 Ultra. Ausserdem dan wäre eine GeForce 2 MX 200 ja eine GeForce 1 :bonk: das macht einen ja ganz bekloppt. Aber warum habe dann keine Probs. mit meinen TV Out?

b0wle`
2002-04-05, 00:51:32
*Die Geforce 4 MX (NV17-Chip) besitzt nur 2 Rendering-Pipelines gegenüber 4 bei der Geforce 4 Ti und der Geforce 3-Serie

*Statt dem neuen Pixel Shader 1.3, der in der neuen Geforce 4 Titanium zum Einsatz kommt, besitzt die Geforce 4 MX nur einen nVidia Shading Rasterizer (NSR)

*Der Grund liegt in der eingeschränkten DirectX 8-Fähigkeit : Der NV17 basiert auf DirectX 7, somit ist unter anderem die T&L-Einheit etwas kastriert, der NV25 als Geforce 4 Titanium bietet hingegen volle DirectX 8-Kompatibilität.
Deine GF4 hat nicht viel mit einer GF4Ti gemeinsam wollt ich damit sagen. Auch wenn sie GF4(MX) heißt...

mike49
2002-04-05, 17:41:07
Originally posted by [CoC]Blackmagic
Ne GF4 ist GF4 . Eine GeForce 2 TI ist ja auch noch lange keine GeForce 3 TI200 oder eine GeForce 2 Ultra. Ausserdem dan wäre eine GeForce 2 MX 200 ja eine GeForce 1 :bonk: das macht einen ja ganz bekloppt. Aber warum habe dann keine Probs. mit meinen TV Out?

GF4 ist eben nicht gleich GF4, zumindest nicht GF4 Ti = GF4 MX !

Die GF4 MX ist lediglich eine GF2 mit den Bandbreite-Optimierungen (LMA2) der GF4 Ti, das bringt hauptsächlich was in 32bit und bei hohen Auflösungen. 3D-Featuremäßig reicht die nicht über die GF2 hinaus.

Und was den TV-Out angeht: Da NVidia keine Daten über den integrierten TV-Out-Chip rausrückt wird es wohl nie eine vernünftige TV-Out Unterstützung á la TV-Tool geben. Die Macher von TV-Tool warnen ja schließlich nicht grundlos vor dem Kauf einer GF4 MX...

P.S Das mit der GF2 Ti = GF2 Ultra kommt da übrigens schon viel eher hin bzw. hängt lediglich noch von der Speicherbestückung (und dessen Spannungsversorgung) durch den Kartenhersteller ab

Etienne
2002-04-05, 19:06:03
Originally posted by ow
Guter Witz Geforce

Die NV Treiber sind von ausgezeicheneter Qualitaet, mehr sag ich dazu nicht.

Ich denke geForce meint wohl eher, dass die Geforce 4 noch nicht komplett ausgereizt ist. Ich kann mir sicherlich gut vorstellen, dass LMA II zurzeit noch nicht 100% gibt. Durch spätere Treiber wird das aber anders. Diese bringt NVidia, sobald es wieder Konkurrenz gibt...

Supa
2002-04-06, 13:48:25
Originally posted by mike49


Die GF4 MX ist lediglich eine GF2 mit den Bandbreite-Optimierungen

Und die gf2 ist techisch gesehen nur eine gf256, halt eben nur durch chip-shrinking höher getaktet + andere ram bestückung. Und eine gf2mx ist ehr eine gf2ti als eine gf4mx eine gf4ti, weil die 2mx hat alle funktionen einer gf2ti, bei der gf4mx kann man ds nicht sagen.

mike49
2002-04-06, 14:47:22
Dem ist nichts hinzuzufügen, Supa !

aths
2002-04-11, 20:47:09
Eine GTS kann etwas mehr als eine GF256. Zum Beispiel verfügt die GTS ("GigaTexelShader") über NSR ("NvidiaShadingRasterizer").

mike49
2002-04-11, 20:53:38
Da hast du zwar durchaus Recht, aths, aber von den 3D-Effekten her ist der Sprung GF2 -> GF3 nicht zu vergleichen mit GF1 -> GF2