PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Turbo Cache bzw. HyperMemory - was haltet ihr davon?


Corny
2004-12-16, 08:54:15
Low Cost Grafikkarten mit Turbo Cache (bei NVidia) bzw HyperMemory (bei ATI) sollen nurnoch mit 16-64MB Grafikspeicher ausgestattet werden. Der Rest wird über PCI-E vom Hauptspeicher genommen. Insgesamt können (zumindest bei NVidia) bis zu 128MB adressiert werden


hier wirds zweimal genauer beschrieben:

http://www.heise.de/newsticker/meldung/54284
http://www.golem.de/0412/35200.html


Also für Office Rechner find ich es sehr gut! Dann werden nicht unnötigerweise die bei LowCost grafikkarten inzwischen schon üblichen 128-256MB Speicher verbaut die dann komplett brach liegen, sondern nurnoch 16MB, was für den Office Betrieb mehr als genug ist. Sollte dann doch mal eine kleinere 3D Präsentation/-Animation oder das ein oder andere simpel Spielchen laufen ist immer noch ausreichend Leistung bzw Speicher übrig.
Für ernsthafte Spiele ist es allerdings viel zu langsam.

was haltet ihr davon?

Grüße - Corny

Gast
2004-12-16, 09:27:12
Sollte dann doch mal eine kleinere 3D Präsentation/-Animation oder das ein oder andere simpel Spielchen laufen ist immer noch ausreichend Leistung bzw Speicher übrig.
Für ernsthafte Spiele ist es allerdings viel zu langsam.


Sehe ich in etwa genauso. Allerdings ist der Hauptspeicher des PC´s für einigermaßen aktuelle Spiele zu lahm. Vielleicht reicht´s dabei ja für Max Payne und Co, aber mehr traue ich dem nicht zu.

Ansonsten finde ich die Idee an sich nicht schlecht, denn dadurch können eben diese Karten so richtig Low-Cost werden.

Corny
2004-12-16, 09:35:10
genau! Max Payne1 sollte damit beispielsweise sicher laufen. Sogar MP2 läuft auf meiner Kiste super in 1024 ohne AA - und so eine GF6200 mit mit HyperCache sollte sicher die Leistung meiner Grafikkarte übertreffen!

und wer spielt schon im Büro in der Mittagspause Doom3 oder HL2? Meistens doch eher nur mal was in der Größenordnung von Moorhuhn...
und falls es etwas aktuelleres sein soll tuts 800*600 ohne AA usw für zwischendurch genauso!

a!
2004-12-16, 10:40:41
Klinkt gut.Warum wird die Technologie nicht auch bei den schnellen Karten eingestetzt?So könnte ja z.b.eine GeForce 6800 Ultra mit 256MB mit dieser Technologie auf mehr RAM (also laut Info + 128MB = 384MB) zugreifen?

Narrenkönig
2004-12-16, 10:41:12
Ich finde dass auch gut. Nur wie erklärt man einem DAU das eine GF6200TC mit 16 MB schneller ist als eine GF4mx mit 128 MB.
Für viele ist leider RAM = Geschwindigkeit.

Sonyfreak
2004-12-16, 10:44:43
Ich halte die Sache für sinnlos da es meiner Meinung nach sinnlos ist eine Grafikkarte mit externem Memory zu bauen und diese dann um 80+€ zu verkaufen wenn ich um diesen Preis schon Grakas mit gutem internen Speicher um den selben Preis kaufen kann. Und selbst wenn sie gleich schnell ist verliere ich dann immer noch Hauptspeicher. Die Karte taugt höchstens für OEM PC`s die so und so nicht zum spielen gedacht sind.

mfg.

Sonyfreak

Börk
2004-12-16, 10:45:37
Ich finde dass auch gut. Nur wie erklärt man einem DAU das eine GF6200TC mit 16 MB schneller ist als eine GF4mx mit 128 MB.
Für viele ist leider RAM = Geschwindigkeit.
Tja, dann wird einfach per Marketing das so hingelullt, bis alle glauben die neuen Karten hätten 128MB...

Gruß,
Börk

backfisch
2004-12-16, 11:03:57
Ich finde dass auch gut. Nur wie erklärt man einem DAU das eine GF6200TC mit 16 MB schneller ist als eine GF4mx mit 128 MB.
Für viele ist leider RAM = Geschwindigkeit.
"Nvidia legt seinen Partnern nahe, nicht die Größe des lokalen Speichers anzugeben, sondern mit dem Hinweis "unterstützt 128 MByte Grafikspeicher" zu werben." :D

MegaManX4
2004-12-16, 11:16:01
Ich finde die Entwicklung richtig. Ganz ehrlich, kein Mensch der sich bewusst eine Geforce 6200 kauft, geht davon aus die neuesten "Blockbuster" spielen zu können. Oft werden diese Karten wahrscheinlich als Office Karten genutzt, und werden im 2D Betrieb auch sicher nicht das SystemRam für sich beanspruchen (wobei man hier sicherlich gleich Onboard-Grafik nutzen könnte).

Auch gehe ich nicht davon aus, daß wir diese Karten jetzt verstärkt in den 999Euro PCs sehen werden, da sind momentan ganz andere Kaliber Standard. Wenn schon, dann eher in der 500 Euro Kategorie.

Corny
2004-12-16, 11:39:37
Ich halte die Sache für sinnlos da es meiner Meinung nach sinnlos ist eine Grafikkarte mit externem Memory zu bauen und diese dann um 80+€ zu verkaufen wenn ich um diesen Preis schon Grakas mit gutem internen Speicher um den selben Preis kaufen kann. Und selbst wenn sie gleich schnell ist verliere ich dann immer noch Hauptspeicher. Die Karte taugt höchstens für OEM PC`s die so und so nicht zum spielen gedacht sind.



dafür ist die Technik ja auch vorgesehen. Es wurde nie etwas anderes Behauptet.
LowCost = Office PC, höchstens für Gelegenheitsspieler von älteren Games. und wenns was aktuelles sein soll dann läuft das sicherlich mit niedriger Auflösung und details auch. der Gelegenheitsspieler braucht kein AA

san.salvador
2004-12-16, 12:01:58
Ich finde die Entwicklung richtig. Ganz ehrlich, kein Mensch der sich bewusst eine Geforce 6200 kauft, geht davon aus die neuesten "Blockbuster" spielen zu können. Oft werden diese Karten wahrscheinlich als Office Karten genutzt, und werden im 2D Betrieb auch sicher nicht das SystemRam für sich beanspruchen (wobei man hier sicherlich gleich Onboard-Grafik nutzen könnte).

Auch gehe ich nicht davon aus, daß wir diese Karten jetzt verstärkt in den 999Euro PCs sehen werden, da sind momentan ganz andere Kaliber Standard. Wenn schon, dann eher in der 500 Euro Kategorie.
Gerade unwissende Media-Markt-Prospekt-Leser halten die Karte wohl für eine Offenbarung.

q@w
2004-12-16, 12:08:51
Ich würde mich freuen, wenn komplett auf Pixel- und Vertexeinheiten verzichtet würde und stattdessen eine reine 2D- und Videokarte angeboten würde.
Gern auch mit 16MB VRAM.

Das wäre was schönes für den HTPC oder die Surfkiste.

Dummerweise müssen auch Büro-OEMs anscheinend heute mit SMx.x und xxxMB VRAM umworben werden.

MegaManX4
2004-12-16, 12:10:09
Gerade unwissende Media-Markt-Prospekt-Leser halten die Karte wohl für eine Offenbarung.

auch unwissende MM Kunden können für 500 Euro keine bessere Leistung verlangen. So doof sind die nämlich auch nicht.

Corny
2004-12-16, 12:25:45
Ich würde mich freuen, wenn komplett auf Pixel- und Vertexeinheiten verzichtet würde und stattdessen eine reine 2D- und Videokarte angeboten würde.
Gern auch mit 16MB VRAM.

Das wäre was schönes für den HTPC oder die Surfkiste.

Dummerweise müssen auch Büro-OEMs anscheinend heute mit SMx.x und xxxMB VRAM umworben werden.



wo du recht hast....
aber zumindest 3D beschleunigung auf DX7 sollte schon noch vorhanden sein. muss ja keine besonders hohe Leistung haben. Zumindest kann man dann jede Animation ansehen.

Ich frag mich eh die ganze zeit warum es praktisch keine Grafikkarten mehr unter 128MB gibt. Für 2D und gelegentlich mal ein bisschen 3D reichen 16 oder 32MB mehr als Dicke!
ich habe "nur" 64MB in meiner Radeon 8500 und spiele damit sogar HL2 in der 1024er! (wenn auch gelegentlich mit leichtem ruckeln)
der 3D bedarf eines Office/Internet-PCs wird nur selten über den anforderungen von Quake3 gehen. und das beispielsweise läuft mit 32MB auch schon super

HOT
2004-12-16, 13:30:04
Diese Geschichte hat einen riesigen Vorteil: Keine neuen abgespeckten 64Bit-Spicherinterface-Karten mehr, die teilweise nicht unterscheidbar sind! Endlich eine klare Trennung zwischen Lowcost und Mainstream.

Corny
2004-12-16, 13:31:33
Diese Geschichte hat einen riesigen Vorteil: Keine neuen abgespeckten 64Bit-Spicherinterface-Karten mehr, die teilweise nicht unterscheidbar sind! Endlich eine klare Trennung zwischen Lowcost und Mainstream.


so einfach wird das imho nicht.
es gibt bestimmt weiterhin lowcost Karten mit vollem internen Grafikspeicher.

Muh-sagt-die-Kuh
2004-12-16, 13:37:48
Meiner Meinung nach ist diese hybride Lösung irgendwo zwischen integrierter und diskreter Grafik nichts wirklich erstrebenswertes......selbst ein 64 bit Interface mit 200 mhz Speicher ist performanter und nicht viel teurer.

MadManniMan
2004-12-16, 14:05:51
In einem anderen Thread schrieb ich bereits Folgendes:

"Hm, das Turbocacheprinzip mag ja teils wirklich brauchbare Performance bieten, aber die Karten sind einfach zu teuer. Außerdem haperts gerade bei "Billig"-Systemen noch immer am RAM - und selbst die mit nem halben Gig hätten dann nur noch gut 400MB ... wäre für mich zu wenig!

TurboCache? Nein, Danke!"

Außerdem brauchts - wie Q schon sagte - für nen Office-Rechner bestimmt kein DX9 :crazy:

Gast
2004-12-16, 14:13:26
Schluck, die ganze Diskussion ohne Link zu dem Revie von Techreport:


http://www.techreport.com/reviews/2004q4/geforce-6200-turbocache/index.x?pg=1


Zumindest mit 32MB Speicher onBoard ist die Leistung gut-sehr gut im Vergleich zu einer 128bit - X300.

SentinelBorg
2004-12-16, 14:33:17
Was ich mich dann frage, können normale PCIe Karte dann nichts im Arbeitsspeicher auslagern, so wie das AGP Karten können ? Denn genau das macht doch dieses TurboCache letztendlich...

Sentinel

Gast
2004-12-16, 14:38:57
Außerdem brauchts - wie Q schon sagte - für nen Office-Rechner bestimmt kein DX9 :crazy:

Auch nicht zu Longhorn-Zeiten?

MadManniMan
2004-12-16, 14:46:18
Auch nicht zu Longhorn-Zeiten?

Nun, hier kann man sich dann streiten - lenkt das Gefizzel vielleicht ein wenig von der Produktivität ab? ;) Aber auf jeden Fall sei der DX7-Fallback zu beachten!

Und selbst wenn man unbedingt DX9-Longhorn haben will: dann reicht auch noch ne FX5200.


Nochwas: der Techreport-Test zeigt die durchaus vorhandene Leistungsfähigkeit des Systems. Was aber, wenn man die Karten mit dem tatsächlichen Einsatzgebiet konfroniert? ... lahme Komplettrechner ...

MegaManX4
2004-12-16, 14:52:56
war schon jemand schneller.

Corny
2004-12-16, 14:56:02
Meiner Meinung nach ist diese hybride Lösung irgendwo zwischen integrierter und diskreter Grafik nichts wirklich erstrebenswertes......selbst ein 64 bit Interface mit 200 mhz Speicher ist performanter und nicht viel teurer.

wenns um 3D geht, dann ists gut möglich dsa eine 64bit Karte schneller ist.
Allerdings wird im 2D Betrieb ja nur der interne Speicher genutzt, und da reichen auch 16MB aus. die Bandbreite ist auch nicht so wichtig

Botcruscher
2004-12-16, 15:01:06
Für Bürorechner nicht schlecht. Ansonsten reine DAU verarsche.

Corny
2004-12-16, 15:04:56
...Außerdem haperts gerade bei "Billig"-Systemen noch immer am RAM - und selbst die mit nem halben Gig hätten dann nur noch gut 400MB ... wäre für mich zu wenig! ...



die 400MB hättest nur wenn du zockst und sich die graka sich ihre vollen 128MB RAM reserviert.
und für zocken sind die dinger eh kaum gedacht.
Im 2D betrieb hast du dennoch deine kompletten 512MB (oder was auch immer) zur verfügung.
also dieser Nachteil stört kaum

Corny
2004-12-16, 15:08:51
Für Bürorechner nicht schlecht. Ansonsten reine DAU verarsche.


verarsche mit sicherheit nicht!
Nur kann man ohne fundierte Kenntnisse schon mal ins Klo greifen!
aber für die meisten Ottonormal-Office-Internet-Video-simpleGame-User sicherlich eine super Lösung mit gutem Preis/Leistungs-Verhältnis!

L. @ Mozilla
2004-12-16, 15:20:33
verarsche mit sicherheit nicht!
Nur kann man ohne fundierte Kenntnisse schon mal ins Klo greifen!
aber für die meisten Ottonormal-Office-Internet-Video-simpleGame-User sicherlich eine super Lösung mit gutem Preis/Leistungs-Verhältnis!



TC ist eine gute Lösung - wenn wir der Endkunde den preislichen Vorteil hat, und sich das Geld nicht NV zu 100% einsteckt. Der einzige Vorteil von TC liegt schließlich darin, daß die Karte günstiger herzustellen ist. Wenn also auf Basis von TC - oder auch HyperMemory - künftig Grafikkarten auf den Markt kommen, welche für 50 Euronen zu haben sind, dann lohnt das ganze auch für den Endkunden - sofern er schlicht eine Büro-Grafikkarte braucht. Alles andere mehr wäre Blödsinn, noch dazu wo es 6600er Modelle schon für nahe 100 Euro gibt.

Momentan sind die TC-Karten noch zu teuer, aber das ist ok, das sind Startpreise. Wichtig wird sein, ob sich die Preise demnächst entsprechend nach unten anpassen. Das Ziel sind wie gesagt 50 Euro (und damit die Ablösung der FX5200).

L. @ Mozilla
2004-12-16, 15:23:48
Nur kann man ohne fundierte Kenntnisse schon mal ins Klo greifen!




Sehe ich ganz exakt so. Ohne gewisses Grundwissen oder aber die Hilfe von jemanden, der sich auskennt, sollte niemand einen PC kaufen gehen. Das soll aber nicht das Problem der Hersteller sein - und ganz ehrlich will ich auch keinen Trend zu mehr Einfachheit. Mehr Einfachheit bedeutet zumeist auch noch mehr Beschiss, siehe MS-Produkte oder die Fixierung auf die MHz-Zahlen als Performance-Maßstab. Lieber kompliziert, dafür aber ehrlich.

MegaManX4
2004-12-16, 15:36:45
Sehe ich ganz exakt so. Ohne gewisses Grundwissen oder aber die Hilfe von jemanden, der sich auskennt, sollte niemand einen PC kaufen gehen. Das soll aber nicht das Problem der Hersteller sein - und ganz ehrlich will ich auch keinen Trend zu mehr Einfachheit. Mehr Einfachheit bedeutet zumeist auch noch mehr Beschiss, siehe MS-Produkte oder die Fixierung auf die MHz-Zahlen als Performance-Maßstab. Lieber kompliziert, dafür aber ehrlich.

Richtig.

Wollen die Leute ein Auto oder eine HiFi Anlage kaufen werden stapelweise Zeitungen und Testberichte gewälzt. Wirds dann Zeit für einen neuen PC geht man halt zum Aldi und holt sich neben den Bockwürsten noch 'nen PC dazu. Das ist mit nichts anderem als stinkender Faulheit zu erklären.

Gast
2004-12-16, 15:53:10
Für Bürorechner nicht schlecht. Ansonsten reine DAU verarsche.



habe gerade das hier gefunden: www.turbocache.de

Corny
2004-12-16, 16:04:49
TC ist eine gute Lösung - wenn wir der Endkunde den preislichen Vorteil hat, und sich das Geld nicht NV zu 100% einsteckt. Der einzige Vorteil von TC liegt schließlich darin, daß die Karte günstiger herzustellen ist. Wenn also auf Basis von TC - oder auch HyperMemory - künftig Grafikkarten auf den Markt kommen, welche für 50 Euronen zu haben sind, dann lohnt das ganze auch für den Endkunden - sofern er schlicht eine Büro-Grafikkarte braucht. Alles andere mehr wäre Blödsinn, noch dazu wo es 6600er Modelle schon für nahe 100 Euro gibt.

Momentan sind die TC-Karten noch zu teuer, aber das ist ok, das sind Startpreise. Wichtig wird sein, ob sich die Preise demnächst entsprechend nach unten anpassen. Das Ziel sind wie gesagt 50 Euro (und damit die Ablösung der FX5200).


so lange die Karten nicht billiger sind als bisherige LowCost Karten kann mans sowieso vergessen!
weil wer kauft sich so ein Teil mit 16MB, das in 3D langsam ist und sich auch noch Hauptspeicher nimmt wenn er fürs gleiche geld auch eine 128MB karte bekommt die sich nicht für den Hauptspeicher interessiert.
das gilt auch für den Office User der eigentlich so gut wie nie 3D braucht. wieso was schlechteres nehmen wenn man auch was besseres fürs gleiche geld bekommt?? das macht keiner!

aths
2004-12-16, 16:17:38
Ich würde mich freuen, wenn komplett auf Pixel- und Vertexeinheiten verzichtet würde und stattdessen eine reine 2D- und Videokarte angeboten würde.
Gern auch mit 16MB VRAM.Die GF4 MX 440 mit 64 MB RAM halte ich für eine vernünftige Office-Karte. Man muss ja auch nicht untertreiben.

ShadowXX
2004-12-16, 16:40:31
Wurd glaub ich noch nicht gepostet...planet3dnow hat ein "update" zu den TurboCache-Karten


In unserem gestrigen Artikel haben wir ausführlich über die neue GeForce 6200 mit TurboCache Technologie berichtet. Wie zahlreiche andere Kollegen war auch wir sehr skeptisch, was die Preisgestaltung, die Art und Weise der Vermarktung bzgl. Speicherausbau und die Performance angeht.

Wie NVIDIA PR Director Luciano Alibrandi verlauten ließ, soll auf der Verpackung nun doch deutlich zu lesen sein, wieviel "echten" Speicher die Karte besitzt. Das soll in dieser Form geschehen:

GeForce 6200 w/ TurboCache supporting 128MB, including 16MB of local TurboCache
GeForce 6200 w/ TurboCache supporting 128MB, including 32MB of local TurboCache

Als TurboCache wird jeweils der local Framebuffer bezeichnet, also der tatsächlich auf der Karte verbaut Speicher. Den Rest des Grafikspeichers zwacken sich die Karten vom Arbeitsspeicher des Systems ab (siehe Artikel).

Auch zum Preis gibt's neue Informationen:

GeForce 6200 w/ TurboCache supporting 128MB, including 16MB of local TurboCache - $79
GeForce 6200 w/ TurboCache supporting 128MB, including 32MB of local TurboCache - $99
GeForce 6200 w/ TurboCache supporting 256MB, including 64MB of local TurboCache - $129

...werden als Preisempfehlungen genannt. Das ist dann doch etwas günstiger, als zuerst angenommen. Nun bleibt zu sehen, wie die Kundschaft diese neuen Lowcost-Karten annehmen wird...

quelle: www.planet3dnow.de

q@w
2004-12-16, 16:58:20
Die GF4 MX 440 mit 64 MB RAM halte ich für eine vernünftige Office-Karte. Man muss ja auch nicht untertreiben.
Jein. Schlecht ist sie nicht - es geht jedoch besser, will meinen effizienter.

Wozu brauche ich in Office/Internet/Video-Anwendungen bsw. MSAA-Hardware, eine TnL-Engine, Register Combiner und 2 Pixelpipelines - von den mind. 32 unnötigen MB ganz zu schweigen?
(Natürlich brauche ich auch keine DX9-Shader dafür)

Ich gehe sogar einen Schritt weiter: Man sollte die 2D/Video-Engine komplett entkoppeln und den 3D-Teil, wie früher auf einer separaten Karte unterbringen. Das hat den Vorteil, daß dieser, wenn er nicht gebraucht wird, komplett, inkl. hochtaktenden RAMs, abgeschaltet werden kann.

san.salvador
2004-12-16, 17:08:16
Das sieht so aus, als ob man nichtmal selbst wählen könnte, wieviel die Karte vom RAM abbekommt. Seh ich das richtig?

Sonyfreak
2004-12-16, 18:09:23
Aber warum eine PCI-E Karte um 80€ in einen PC einbauen, wenn eine Onboard Grafik auch reicht. Die kostet sicher noch weniger und reich für Otto-Normal-Spieler auch allemal. Und wenn der dann doch mal ein älteres Spiel spielen will, ist die auch noch OK. Also ist die 6200TC Variante meiner Meinung nach sinnlos.

mfg.

Sonyfreak

MechWOLLIer
2004-12-16, 18:38:46
Generell halte ich die Idee ja nicht schlecht, aber imo scheitert es am Preis, auch be den geupdateten Preisen vom grünen Planeten.
Performnacemäßig ist das Ding gar nicht so schlcht und erkämpft sich den Sieg gegen die X300. Gleichzeitig kann die Karte noch mit einer modernen Technik trumpfen, nur wer braucht die in dem Preissegment?
Wohl auch teils aufgrund der recht komplexen Fertigung ist der Chip einfach zu teuer.

Corny
2004-12-16, 20:00:53
....Ich gehe sogar einen Schritt weiter: Man sollte die 2D/Video-Engine komplett entkoppeln und den 3D-Teil, wie früher auf einer separaten Karte unterbringen. Das hat den Vorteil, daß dieser, wenn er nicht gebraucht wird, komplett, inkl. hochtaktenden RAMs, abgeschaltet werden kann.

Das wäre sicher auch auf einem Chip machbar! ich frag mich eh warum nicht einfach NVidia und/oder ATI hergeht und unter windows die überflüssigen 3D Pipelines komplett abschaltet :confused:
ist das wirklich so schwierig??

herunter takten könnten sich die grakas sowieso und das ist sicherlich noch einfacher durchzuführen. die Geforce FX hats ja gezeigt! wer braucht schon ~500Mhz Chip- und Speichertakt im 2D Betrieb? 150Mhz reichen hier genauso!

aber ich glaube das ist jetzt alles ein anderes thema...

TC bringt wenigstens nicht soviel unnötigen Speicher mit, den viele garnicht brauchen!

Muh-sagt-die-Kuh
2004-12-16, 21:00:42
wenns um 3D geht, dann ists gut möglich dsa eine 64bit Karte schneller ist.
Allerdings wird im 2D Betrieb ja nur der interne Speicher genutzt, und da reichen auch 16MB aus. die Bandbreite ist auch nicht so wichtigWenn es nur um 2D geht tut es auch eine im Chipsatz integrierte Lösung.

Quasar
2004-12-16, 21:06:07
Wenn es nur um 2D geht tut es auch eine im Chipsatz integrierte Lösung.
...die man mit jedem neuen Mainboard auf's neue bezahlen muss und die, heutigentags zumindest, leider oft durch miese SQ schon in niedrigen Auflösungen auffällt.

MechWOLLIer
2004-12-16, 21:21:59
...die man mit jedem neuen Mainboard auf's neue bezahlen muss und die, heutigentags zumindest, leider oft durch miese SQ schon in niedrigen Auflösungen auffällt.
Das stimmt zwar durchaus, aber wenn man wirklich nur auf Onboard Lösungen setzt, wird das teurere Mainboard wohl kaum ein Problem darstellen, da man sich ja nicht jedes Jahr ein neues hohlt(würde zumindest nicht für die Onboardgrafik Zielgruppe typisch sein).

StefanV
2004-12-16, 21:24:12
...die man mit jedem neuen Mainboard auf's neue bezahlen muss und die, heutigentags zumindest, leider oft durch miese SQ schon in niedrigen Auflösungen auffällt.
Wieviel kostet 'nen Board mit Onboardgrafik mehr als ohne?!

5€? 10€?

Quasar
2004-12-16, 21:28:02
10€ sind auch 20DM.

StefanV
2004-12-16, 21:40:11
Tja, lieber Quasar, ich hab hier was, öhm, äußerst interessantes für dich:

i915G (http://www.geizhals.at/deutschland/a113481.html) zu i915P (http://www.geizhals.at/deutschland/a106654.html)

Uups :devil:

Gast
2004-12-16, 21:45:21
Tja, lieber Quasar, ich hab hier was, öhm, äußerst interessantes für dich:

i915G (http://www.geizhals.at/deutschland/a113481.html) zu i915P (http://www.geizhals.at/deutschland/a106654.html)

Uups :devil:

Einmal 12 und einmal 8 Euro, da stimmt das mit den 10 Euro erstaunlich genau...

StefanV
2004-12-16, 21:47:03
Ja, aber in die andere Richtung -> das i915G Board ist GÜNSTIGER

Gast
2004-12-16, 21:53:22
Ja, aber in die andere Richtung -> das i915G Board ist GÜNSTIGER

Hmm, Okay :D

Liegt wohl daran das es scheinbar weit öfter verkauft wird (siehe auch die Anzahl der Händler). Aber warum bieten die die Non-Grafik Version eigentlich an?

Aber was zum Thema: Ich glaub nicht, dass die 6200 in direkter Konkurrenz zu integrierten Lösungen steht. Wie siehts eigentlich mit DVI aus?

Hamster
2004-12-16, 22:15:11
ich halte sehr viel davon.

bei mir auf der arbeit verbauen wir schätzungsweise zu 50% ne gf4mx oder fx5200, denn mehr brauchen die meisten kunden nicht.

auch ist der absolut durchschnittliche gelegenheitsgamer sogar mit der 3d leistung dieser karte zufrieden. leider ist die gf4mx aber einfach zu teuer.

und hier kommt die 6200 genau richtig. sollte der strassenpreis relativ bald gegen 35euro tendieren, ist das die perfekte karte für "otto-normalverbraucher".

dx9 ist in hinsicht auf longhorn ebenfalls sinnvoll.

und auf reine 2d karten zurückzugehen, so wie es manche hier fordern, ist imo extrem schwachsinn. für viele sachen braucht man hin und wieder ne 3d beschleunigugn. ganz davon abgesehen, dass div programme den dienst verweigern, wenn nicht mind ne dx6 kompatible karte im rechner steckt...

(mir fällts grad keins ein, habs aber selbst erlebt...)

deswegen: guter schritt von nvidia. auch wenn sie es jetzt schwer haben werden dieses produkt auch dem letzten dau anzupreisen, denn diese fordern sehr oft eine 256mb karte für unter 60euro, ohne zu wissen für was.....

Hamster
2004-12-16, 22:16:06
Ja, aber in die andere Richtung -> das i915G Board ist GÜNSTIGER


und schrott.


(soll kein spam sein, sondern meine meinung...)

Quasar
2004-12-16, 22:22:51
Tja, lieber Quasar, ich hab hier was, öhm, äußerst interessantes für dich:

i915G (http://www.geizhals.at/deutschland/a113481.html) zu i915P (http://www.geizhals.at/deutschland/a106654.html)

Uups :devil:
Prima! :)
Dann steht dem integrierten Vergnügen ja eigentlich nichts mehr im Wege... Weg mit Geldverschwendern wie GF5200, 6200 und X300.

Aber wie kommt's, daß das "p"-Board deiner Auswahl selbst beim ominösen Geizhals nur bei ganzen zwei Anbietern gelistet ist und das ohne Aktualisierung seit drei Tagen, während der "Aktionspreis" des "g"-Modells gerade seit heute gültig ist?

Du vergleichst nicht etwas "regulären" Preis gegen ein Sonderangebot?

Corny
2004-12-17, 09:19:38
die konkurrenz zur Onboard grafik ist natürlich da! jedoch auch gegen LowCost "Offboard" grafikkarten! Es stellt eine zwischenlösung dar.

Für viele TFT User ist die TC grafikkarte sicherlich die bessere Wahl, weil sie nämlich einen DVI Anschluss bietet (nicht zwingend jede, aber es wird mit Sicherheit welche geben!)
Das gleiche gilt für den TV-Out.
DVI und TV-Out bietet imho so gut wie keine onboard lösung (gibts überhaupt welche?)

aths
2004-12-18, 00:31:39
Jein. Schlecht ist sie nicht - es geht jedoch besser, will meinen effizienter.

Wozu brauche ich in Office/Internet/Video-Anwendungen bsw. MSAA-Hardware, eine TnL-Engine, Register Combiner und 2 Pixelpipelines - von den mind. 32 unnötigen MB ganz zu schweigen?
(Natürlich brauche ich auch keine DX9-Shader dafür)

Ich gehe sogar einen Schritt weiter: Man sollte die 2D/Video-Engine komplett entkoppeln und den 3D-Teil, wie früher auf einer separaten Karte unterbringen. Das hat den Vorteil, daß dieser, wenn er nicht gebraucht wird, komplett, inkl. hochtaktenden RAMs, abgeschaltet werden kann.Es ist wirtschaftlich nicht sinnvoll, einen reinen 2D-Chip mit Boardlayout zu entwickeln, wenn man auch einen Lowcost-3D-Chip nehmen kann. NV18 deckt den reinen Office / Homeoffice-Einsatz ab, bietet aber auch Dualmonitor-Support, ein bisschen MPEG-Beschleunigung, und mit DX7-Technik die Möglichkeit, ältere Spiele laufen zu lassen. Man kann auch einfachere OpenGL-Visualisierungen mittels NV18 gestalten. Ein (preiswerter) Chip für so viele Zwecke.

Alternativer Ansatz: Meiner Mutter schenkte ich, zusammen mit meinem Vater, zum Geburtstag eine 5200 mit integrierter TV-Karte. Was die Graka haben sollte, war bessere 32-Bit-Desktop-Performance als die S3 Savage4, sowie die Fähigkeit zum TV-Empfang. Nebenbei hat man jetzt noch andere Video-Fähigkeiten (Vivo), 128 MB RAM, und DirectX9-Support. Das ist einfach dabei – für genau jeden Zweck eine Speziallösung würde im Endeffekt teurer. Außerdem stehen zusätzliche Optionen offen, ohne die Hardware aufrüsten zu müssen.

BUG
2004-12-18, 00:35:12
die konkurrenz zur Onboard grafik ist natürlich da! jedoch auch gegen LowCost "Offboard" grafikkarten! Es stellt eine zwischenlösung dar.

Für viele TFT User ist die TC grafikkarte sicherlich die bessere Wahl, weil sie nämlich einen DVI Anschluss bietet (nicht zwingend jede, aber es wird mit Sicherheit welche geben!)
Das gleiche gilt für den TV-Out.
DVI und TV-Out bietet imho so gut wie keine onboard lösung (gibts überhaupt welche?)..also ich glaube die ATI Boards mit intigrierter Graka haben alle/einige DVI Onboard. :)

cu
BUG

Hamster
2004-12-18, 00:48:47
Alternativer Ansatz: Meiner Mutter schenkte ich, zusammen mit meinem Vater, zum Geburtstag eine 5200 mit integrierter TV-Karte. Was die Graka haben sollte, war bessere 32-Bit-Desktop-Performance als die S3 Savage4, sowie die Fähigkeit zum TV-Empfang. Nebenbei hat man jetzt noch andere Video-Fähigkeiten (Vivo), 128 MB RAM, und DirectX9-Support. Das ist einfach dabei – für genau jeden Zweck eine Speziallösung würde im Endeffekt teurer. Außerdem stehen zusätzliche Optionen offen, ohne die Hardware aufrüsten zu müssen.


blöde frage, aber was macht denn deine mutter, dass ihr die 2d performance der s3 nicht mehr gereicht hat? und für was braucht sie 128mb ram?

das ist ernst gemeint, über eine ausführliche antwort würde ich mich freuen, denn nachvollziehen kann ich es nicht.

StefanV
2004-12-18, 00:59:12
TFT mit 1280x1024 langt da schon, um so ein altes Teil zur Verzweiflung zu bringen ;)

'ne Karte mit 128bit SDR-SDRAM oder 64bit DDR-SDRAM sollte es schon sein...

Hamster
2004-12-18, 01:01:59
TFT mit 1280x1024 langt da schon, um so ein altes Teil zur Verzweiflung zu bringen ;)

'ne Karte mit 128bit SDR-SDRAM oder 64bit DDR-SDRAM sollte es schon sein...


nicht jeder schiebt fenster hin und her um herauszufinden ob das irgendwann stockt ;)

btw, ne savage4 hat ein 128bit sd-ram interface...

Xmas
2004-12-18, 02:39:48
blöde frage, aber was macht denn deine mutter, dass ihr die 2d performance der s3 nicht mehr gereicht hat? und für was braucht sie 128mb ram?
Zu den 128MiB RAM sagte aths doch:
Das ist einfach dabei – für genau jeden Zweck eine Speziallösung würde im Endeffekt teurer. Außerdem stehen zusätzliche Optionen offen, ohne die Hardware aufrüsten zu müssen.

Bei der 2D-Performance: vielleicht Dual-Monitor-Betrieb?
Im Dual-Betrieb und ohne Netzteil geht mein Notebook mit Mobility Radeon 9600 Pro Turbo schon mal merklich in die Knie.



Das Techreport-Review finde ich recht unglücklich, zum einen weil der Testrechner 1 GiB RAM hatte (512 MiB wären angebrachter gewesen), zum anderen weil man nur mit hohen Settings gebencht hat. Bei einer Low-Cost-Karte muss man auch mal Abstriche bei der Qualität machen. Man hätte eher auf spielbare Frameraten hin benchen sollen.

TC bzw. HM halte ich generell für eine clevere Idee. Sofern dadurch auch die Preise sinken. Das PCB der 6200TC kam mir erstaunlich groß vor, bietet aber auch noch Platz für zusätzliche Chips. Ich hätte eher mit einem low-profile PCB gerechnet.

StefanV
2004-12-18, 07:14:16
btw, ne savage4 hat ein 128bit sd-ram interface...
Nein, nur die Savage 2000 hatte das.

Corny
2004-12-18, 12:13:09
Nein, nur die Savage 2000 hatte das.


Die Savage 4 hatte auch schon ein 128bit SD-RAM interface. Da bin ich mir 100%ig sicher! ein guter freund von mir hatte die vor einiger Zeit und hat damit immer meine alte Rage128 GL (welche eben nur 64bit SD-RAM hatte) geplättet :biggrin:


das man für 2D schon 128bit SD-RAM bzw 64bit DDR-RAM haben muss würde ich mal nicht sagen! Im betrieb habe ich wie in deinem Beispiel einen TFT mit 1280*1024 und hatte erst eine onboard i815e mit 4MB Shared. Im system waren 512MB PC133 SD-RAM -> also 64bit SD-RAM mit einer bandbreite von max ca. 1GB/s!
jetzt habe ich eine onboard i845 mit max 48MB Shared Speicher. im System sind jetzt 512MB DDR-266 -> 64bit DDR-RAM mit ca 2GB/s!
Doppelte Bandbreite und ein schnellerer Chip! aber dennoch konnte ich mit dem alten system genauso arbeiten! Aufgefallen ists nur beim wirklich verdammt genauen hinsehen :| beim normalen Arbeiten allerdings nicht!
kollegen haben teilweise TNT2 M64 karten -> 64bit SD-RAM interface. teilweise sogar höhere auflösungen als 1280*1024*32 und auch an deren PCs kann ich ohne einschränkungen arbeiten!
auch eine Matrox G400 in einem anderen PC war nicht schneller beim Bildaufbau (jedenfalls nicht das man dadurch anders bzw schneller arbeiten könnte)


sorry das das jetzt nicht viel mitn thema zu tun hatte! aber ich wollte hier mal zeigen das es keine großen unterschiede in der 2D geschwindigkeit der grafikkarten der letzten generationen ( DX6 aufwärts) gibt!
Das gilt allerdings nur für gebräuchliche Auflösungen, also max 1600*1200 an einem Monitor.
bei höheren Auflösungen bzw mehr Monitoren sieht die sache etwas anders aus

StefanV
2004-12-18, 12:29:28
Die Savage 4 hatte auch schon ein 128bit SD-RAM interface. Da bin ich mir 100%ig sicher! ein guter freund von mir hatte die vor einiger Zeit und hat damit immer meine alte Rage128 GL (welche eben nur 64bit SD-RAM hatte) geplättet :biggrin:


http://www.heise.de/ct/99/04/022/


das man für 2D schon 128bit SD-RAM bzw 64bit DDR-RAM haben muss würde ich mal nicht sagen! Im betrieb habe ich wie in deinem Beispiel einen TFT mit 1280*1024 und hatte erst eine onboard i815e mit 4MB Shared. Im system waren 512MB PC133 SD-RAM -> also 64bit SD-RAM mit einer bandbreite von max ca. 1GB/s!
Man brauchts ev. nicht unbedingt, man merkt aber, ob die Karte ein 64bit oder 128bit Speicherinterface hat.

Ok, kann auch daran liegen, das die damaligen Chips nicht wirklich gut auf 1280x1024 optimiert wurden...

aths
2004-12-19, 02:27:31
blöde frage, aber was macht denn deine mutter, dass ihr die 2d performance der s3 nicht mehr gereicht hat? und für was braucht sie 128mb ram?Ihr hat die Performance gereicht, da sie nichts anderes kannte :) aber der 17"-TFT mit 1280x1024 war nur im 16-Bit-Grafikmodus angenehm zu bedienen. Außerdem haben die DVDs geruckelt (inzwischen haben sich meine Eltern einen Standalone-DVD-Player gegönnt, bis dahin guckten sie DVDs am PC.)

Die 5200 bringt natürlich im 2D-Bereich eine viel bessere Performance, die DVD-Wiedergabe allerdings ruckelt auf dem Athlon 600 immer noch ein wenig.

Das mit den 128 MB RAM – eine 64-MB-Karte kann beim NV34-Design nur ein 64-Bit-Interface nutzen. Der RAM wird also in erster Linie gebraucht, um (durch den Einsatz zusätzlicher RAM-Chips) hohe Bandbreite zur Verfügung zu stellen.

Wie schon gesagt, ist das eine Asus-Karte mit TV-Tuner, und wegen der Integration kommt das preiswerter als bei der Graka einige Euro zu sparen und dafür eine extra TV-Karte zu kaufen. Außerdem ist abzusehen, dass der Athlon 600 nicht mehr ewig laufen wird. Die 5200 wird auch im nächsten PC noch Verwendung finden können.

Die GeForce FX 5200 deckt eine ganze Menge Bedürfnisse ab und ist für viele erschwinglich – imo eine klasse Karte. (Natürlich keine Karte für mich, da ich auch mal was 3D-mäßig anspruchsvolleres spielen möchte.)

Gast
2004-12-19, 11:26:22
Nun, hier kann man sich dann streiten - lenkt das Gefizzel vielleicht ein wenig von der Produktivität ab? ;) Aber auf jeden Fall sei der DX7-Fallback zu beachten!

Und selbst wenn man unbedingt DX9-Longhorn haben will: dann reicht auch noch ne FX5200.


Nochwas: der Techreport-Test zeigt die durchaus vorhandene Leistungsfähigkeit des Systems. Was aber, wenn man die Karten mit dem tatsächlichen Einsatzgebiet konfroniert? ... lahme Komplettrechner ...

Das timmt nicht, eine FX5200 ist einen Marketing DX9 Karte, Nachweis mein Testsystem mit Toombraider, bei Verwendung der FX5200 sind alle DX9 Featuresettings in den erweiterten Eigenschaften vom Spiel ausgeschaltet.

Diese Diskussion hatten wir schon lange erledigt, dachte ich, aber es gibt immer einige grüne Jungs die NAchhilfe brauchen! ;)

Gast
2004-12-19, 11:28:06
Ihr hat die Performance gereicht, da sie nichts anderes kannte :) aber der 17"-TFT mit 1280x1024 war nur im 16-Bit-Grafikmodus angenehm zu bedienen. Außerdem haben die DVDs geruckelt (inzwischen haben sich meine Eltern einen Standalone-DVD-Player gegönnt, bis dahin guckten sie DVDs am PC.)

Die 5200 bringt natürlich im 2D-Bereich eine viel bessere Performance, die DVD-Wiedergabe allerdings ruckelt auf dem Athlon 600 immer noch ein wenig.

Das mit den 128 MB RAM – eine 64-MB-Karte kann beim NV34-Design nur ein 64-Bit-Interface nutzen. Der RAM wird also in erster Linie gebraucht, um (durch den Einsatz zusätzlicher RAM-Chips) hohe Bandbreite zur Verfügung zu stellen.

Wie schon gesagt, ist das eine Asus-Karte mit TV-Tuner, und wegen der Integration kommt das preiswerter als bei der Graka einige Euro zu sparen und dafür eine extra TV-Karte zu kaufen. Außerdem ist abzusehen, dass der Athlon 600 nicht mehr ewig laufen wird. Die 5200 wird auch im nächsten PC noch Verwendung finden können.

Die GeForce FX 5200 deckt eine ganze Menge Bedürfnisse ab und ist für viele erschwinglich – imo eine klasse Karte. (Natürlich keine Karte für mich, da ich auch mal was 3D-mäßig anspruchsvolleres spielen möchte.)

Auch ATHS versucht hier der FX5200'er wieder die Krone aufzusetzen!
Unverschämtheit!!!!! Sowas nennt sich Guro!

MechWOLLIer
2004-12-19, 11:32:13
Auch ATHS versucht hier der FX5200'er wieder die Krone aufzusetzen!
Unverschämtheit!!!!! Sowas nennt sich Guro!
Naja, also das macht Aths mit dem Post nun wirklich nicht.

Er sagt doch, dass diese Karte für die 2D Anwendungen seiner Eltern hervorragend ist, was sie nuneinml auch ist. Dies würde ich auch denmeisten ATI Karten attestieren. Sie hat nunmal eine recht gute 2D Leistung(im Vergleich zur S3) und die Videofunktionen sind nunmal schön.

Außerdem schreibt ere doch selbst, dass solch eine Karte für ihn nichts wäre, also wo ist das Problem?

Gast
2004-12-19, 11:39:32
Naja, also das macht Aths mit dem Post nun wirklich nicht.

Er sagt doch, dass diese Karte für die 2D Anwendungen seiner Eltern hervorragend ist, was sie nuneinml auch ist. Dies würde ich auch denmeisten ATI Karten attestieren. Sie hat nunmal eine recht gute 2D Leistung(im Vergleich zur S3) und die Videofunktionen sind nunmal schön.

Außerdem schreibt ere doch selbst, dass solch eine Karte für ihn nichts wäre, also wo ist das Problem?

Lies seinen letzten Satz!

LOL, such mal nach alten FX5200 Beiträgen hier, dann wirst du verstehen was ich meine!

HIer wird ganz klar versucht durch solche Aussagen die Karte wieder "NETT" zu machen!

Kelron
2004-12-19, 11:54:40
In dem Kontext der für aths Aussage gelten soll ist "klasse Karte" duchaus in Ordnung, gilt zwar im Prinzip momentan für die meisten Karten, welche es noch zu kaufen gibt ist aber nun wirklich nicht falsch. :smile:

Absolut gesehen wäre es natürlich ein wenig übertrieben....
In meinen zwei Arbeitsrechnern arbeitet übrigens eine Ati Rage Pro und eine TNT2 Ultra, ich wäre über eine 6200er durchaus begeistert in den Kisten. :)

Corny
2004-12-19, 12:15:32
Lies seinen letzten Satz!

LOL, such mal nach alten FX5200 Beiträgen hier, dann wirst du verstehen was ich meine!

HIer wird ganz klar versucht durch solche Aussagen die Karte wieder "NETT" zu machen!


Du verstehst scheinbar nicht ganz was er damit sagen will oder?
Auch ich finde das die Geforce FX 5200 eine super Karte ist! Und ich war da nie anderer Meinung. Die anderen hier sicher auch nicht!

jedoch ist die Karte nicht für den Hardcore-Zocker gedacht, sondern für den Office User, der gerne für die ein oder andere 3D Animation auch mal die Unterstützung aller DX9 Features haben will. Oder auch für den Office User der eben hohe Auflösungen fahren will... usw...
wieso sollte sich so einer eine Radeon x800 oder eine Geforce 6800 kaufen??? die Geschwindigkeit braucht er nie!


@ aths: Die DVD's Ruckeln auf einem 600er Athlon? da muss was falsch eingestellt sein. Die FX 5200 beherrscht doch auch DVD-Beschleunigung in Hardware wenn ich mich nicht irre?
Auf meinem alten P3 500 Katmai der zum BurnIn auf 333Mhz herunter getaktet war liefen DVDs sogar flüssig. Da war damals eine Rage128 eingebaut, anno 1999-2000 war die eine der besten wenns um DVD ging. Aber das sollte die FX 5200 inzwischen auch können?

MadManniMan
2004-12-19, 14:05:24
Das timmt nicht, eine FX5200 ist einen Marketing DX9 Karte, Nachweis mein Testsystem mit Toombraider, bei Verwendung der FX5200 sind alle DX9 Featuresettings in den erweiterten Eigenschaften vom Spiel ausgeschaltet.

Diese Diskussion hatten wir schon lange erledigt, dachte ich, aber es gibt immer einige grüne Jungs die NAchhilfe brauchen! ;)

Mein Wertester... wenn ich überhaupt irgendwann mal grün bin, dann weil ich zuviel gesoffen habe und - wie vorhin - ordentlich in die Schüssel gröhle. Nur, damit wir uns verstehen...

Die FX5200 kann herzlich wenig dafür, daß die Entwickler finden, daß sie für vielerlei DX9-Effekte zu lahm ist - was sie auch ist. Aber dennoch ists ne bescheidene Schweinerei, daß sie immer schlechter dargestellt wird, als sie ist.

Coda
2004-12-19, 14:47:10
Die DVD's Ruckeln auf einem 600er Athlon? da muss was falsch eingestellt sein
Das hab ich mir auch gerade gedachte. Vielleicht UDMA nicht aktiviert?

Corny
2004-12-19, 14:53:15
Das hab ich mir auch gerade gedachte. Vielleicht UDMA nicht aktiviert?


na, bin ja doch nicht der einzige mit der Meinung :rolleyes:
ich erinnere mich daran das ich mit meinem Notebook (P3 Mobile 650Mhz @ 500Mhz, Rage Mobility M 8MB ~ Rage Pro) mal eine DVD angeschaut habe. allerdings mangels DVD Laufwerk von der Festplatte aus. und die CPU Last war nicht bei 100%! absolut flüssig!

oder kann die FX5200 keine DVD beschleunigung?

Coda
2004-12-19, 16:12:04
Also ich hatte mal nen Athlon 500 mit TNT2 M64 und da lief jeder Film ruckelfrei. Zumindest habe ich es so in Erinnerung.

aths
2004-12-25, 11:21:32
Das timmt nicht, eine FX5200 ist einen Marketing DX9 Karte, Nachweis mein Testsystem mit Toombraider, bei Verwendung der FX5200 sind alle DX9 Featuresettings in den erweiterten Eigenschaften vom Spiel ausgeschaltet.

Diese Diskussion hatten wir schon lange erledigt, dachte ich, aber es gibt immer einige grüne Jungs die NAchhilfe brauchen! ;)Wichtig war in erster Linie 2xAGP-Kompatibilität. (Zuerst hatte ich die Radeon 9600 im Auge, aber wegen 2x AGP blieb dann nur eine NV-Karte – wenn es DX9 um DX9 willens sein soll. Da meine Eltern die Hardware nicht so oft upgraden, war DX9-Kompatibilität ein Mitgrund.)

Und Tomb Raider würde meine Eltern sowieso nicht spielen, und selbst wenn sie es würden, würden sie sich auch mit DX8-Effekten zufrieden geben.

aths
2004-12-25, 16:03:42
Du verstehst scheinbar nicht ganz was er damit sagen will oder?
Auch ich finde das die Geforce FX 5200 eine super Karte ist! Und ich war da nie anderer Meinung. Die anderen hier sicher auch nicht!Ich anfangs schon. Die 5200: Eine lahme Krücke, dazu Beschiss denn 5200 > 4600, wobei für Zocker selbst eine 4200 deutlich besser ist.

Doch wenn man mal nüchtern darüber nachdenkt: Die 5 spiegelt die Technoligie-Generation wieder, die 200 weist auf "Einsteiger-Modell." Ab der GeForce FX gibt es eine klare Benamung. Dass jemand der eine 4200 hat, angesichts des günstigen Preises der 5200 nicht gleich "auf-", also in Wahrheit abrüsten wird, sollte klar sein. Wer sich eine 5200 kauft und nicht merkt, dass man für den Preis keine tolle Spieletauglichkeit haben kann, hat's nicht anders verdient.

Die FX 5200 ist imo per se eine sehr gute Karte. Sie hat nView und andere gute 2D-Features. Im 3D-Bereich gibts immerhin etwa GeForce MX 440-Leistung. Also für Gelegenheitsspieler durchaus ausreichend.

Quake3 läuft in 1280x1024 sehr flüssig – mit 2x MSAA und 8x AF. Die 5200 hat aus meiner Sicht praktisch alles, was der Normalanwender braucht, und eigentlich noch mehr. Angesichts des Preises kann sie sich auch fast jeder leisten. Die 5200 ist die neue GeForce MX – mit DirectX9 Shader 2.0 Profil 2_A, also technoligisch top-aktuell. Natürlich muss man Kompromisse bei der Leistung eingehen, aber zu dem Preis findet man wohl keine bessere 2xAGP-kompatible Grafikkarte.

aths
2004-12-25, 16:09:13
Das hab ich mir auch gerade gedachte. Vielleicht UDMA nicht aktiviert?Wo guckt man das in Windows 2000 nach?

Gast
2004-12-25, 16:54:46
Lies seinen letzten Satz!

LOL, such mal nach alten FX5200 Beiträgen hier, dann wirst du verstehen was ich meine!

HIer wird ganz klar versucht durch solche Aussagen die Karte wieder "NETT" zu machen!

was heisst denn "Nett"
Die Antwort ist doch ganz einfach. In ihrem Preissegment war es die beste Karte. Ob das nun für Dich oder andere ausreichend ist, spielt doch gar keine Rolle. Du kannst die Karte runter machen, wenn die Konkurenten was deutlich besseres abliefern. Haben sie aber alle einfach nicht. Die Produkte waren allesamt schlechter.
Insofern war die FX5200 einfach gut und hat sich eben genau deshalb auch gut verkauft. Ich denke die GF6200TC wird die FX5200 hervorragend ersetzen.

Gast
2004-12-25, 16:57:06
Wo guckt man das in Windows 2000 nach?

Im Gerätemanger unter den Eigenschaften des jeweiligen DMA-Controllers an dem das Laufwerk hängt.

aths
2004-12-25, 17:07:51
Im Gerätemanger unter den Eigenschaften des jeweiligen DMA-Controllers an dem das Laufwerk hängt.Im Gerätemanager hier ist kein DMA-Controller eingetragen.

Gast
2004-12-25, 17:11:52
ähm...ich meinte auch IDE-Controller..sry

SentinelBorg
2004-12-25, 17:12:21
Im Gerätemanager hier ist kein DMA-Controller eingetragen.
Sollte aber. Bei Rechner -> IDE ATA/ATAPI-Controller -> Primärer bzw. sekundärer IDE-Kanal.

Sentinel

aths
2004-12-25, 18:40:06
ähm...ich meinte auch IDE-Controller..sryJa, da war für die CD-Laufwerke wirklich nur "PIO" eingetragen. Wird wohl einen Grund haben, habs trotzdem mal auf DMA gestellt. In PowerDVD ruckelts jetzt nicht mehr, aber mit dem Mediaplayer Classic noch.

Corny
2004-12-25, 18:54:09
Ja, da war für die CD-Laufwerke wirklich nur "PIO" eingetragen. Wird wohl einen Grund haben, habs trotzdem mal auf DMA gestellt. In PowerDVD ruckelts jetzt nicht mehr, aber mit dem Mediaplayer Classic noch.


Zum DVD schauen taugt imo der Mediaplayer aber nicht recht viel, bleib dabei lieber bei Software die dafür vorgesehen ist (PowerDVD, winDVD usw...)
jetzt müsstest du auch geringere Auslastung haben, beim DVD schauen?


um nochmal auf TurboCache zurück zu kommen:
Warum funktioniert es eigentlich nicht auf den andere Geforce 6xxx Grafikkarten?
wenn man eine Karte mit 128MB hat und ein Spiel das gelegentlich mehr braucht könnte doch genauso der Hauptspeicher mit genutzt werden. Klar wäre die Performance nicht die beste, aber es müsste ja nur Daten ausgelagert werden die keine so hohe Bandbreite benötigen

aths
2004-12-25, 19:06:07
Zum DVD schauen taugt imo der Mediaplayer aber nicht recht viel, bleib dabei lieber bei Software die dafür vorgesehen ist ... welche leider immer das Overlay nutzt, welches auf GeForce-Karten bis einschließlich GeForce FX eine ziemlich miese Qualität hat. Beim MPC kann man auch VMR nehmen, allerdings ruckelt das dann auf diesem System erst recht.

StefanV
2004-12-25, 19:37:55
Ja, da war für die CD-Laufwerke wirklich nur "PIO" eingetragen. Wird wohl einen Grund haben, habs trotzdem mal auf DMA gestellt. In PowerDVD ruckelts jetzt nicht mehr, aber mit dem Mediaplayer Classic noch.
Nö, is ja von Winzigweich...

StefanV
2004-12-25, 19:41:33
... welche leider immer das Overlay nutzt, welches auf GeForce-Karten bis einschließlich GeForce FX eine ziemlich miese Qualität hat. Beim MPC kann man auch VMR nehmen, allerdings ruckelt das dann auf diesem System erst recht.
Ganz ehrlich:

Ich hätte da 'ne Radeon 9550 oder 9600 zu genommen, alternativ was anderes (notfalls auch ohne DX9).
Wenns Board zu alt dafür wäre, dann hätte ich irgendwie zugesehen, das ich ein möglichst gutes Board möglichst günstig bekomme, notfalls mit CPU, notfalls gebraucht.

Gibt eigentlich genug Angebote auf dem Marktplatz, ein kleiner Athlon samt Brett sollte eigentlich recht günstig zu finden sein...

Coda
2004-12-26, 00:13:11
aths: Das hat keinen Grund, das ist bei Windows 2000 die Defaulteinstellung, warum auch immer. Vermutlich gab's damals noch Controller/Laufwerke die damit Probleme hatten.

aths
2004-12-26, 10:56:35
aths: Das hat keinen Grund, das ist bei Windows 2000 die Defaulteinstellung, warum auch immer. Vermutlich gab's damals noch Controller/Laufwerke die damit Probleme hatten.Hrm. Dann muss die Platten wer auf DMA umgestellt haben, aber die CD-ROMs nicht. Komisch.

aths
2004-12-26, 10:59:07
Ganz ehrlich:

Ich hätte da 'ne Radeon 9550 oder 9600 zu genommen, alternativ was anderes (notfalls auch ohne DX9).
Wenns Board zu alt dafür wäre, dann hätte ich irgendwie zugesehen, das ich ein möglichst gutes Board möglichst günstig bekomme, notfalls mit CPU, notfalls gebraucht.

Gibt eigentlich genug Angebote auf dem Marktplatz, ein kleiner Athlon samt Brett sollte eigentlich recht günstig zu finden sein...Notfalls ohne DX9, notfalls zum Geburtstag eine gebrauchtes Board mit gebrauchter CPU schenken, nur, um ja keine Nvidia-Graka nehmen zu müssen? :bonk: Ich bau doch nicht den ganzen PC um, wenn lediglich eine neue Graka erforderlich ist – und die Asus 9520 Home Theater tut ihre Sache doch sehr gut.

StefanV
2004-12-26, 11:11:39
Hrm. Dann muss die Platten wer auf DMA umgestellt haben, aber die CD-ROMs nicht. Komisch.
Ist normal bei Win2k, da werden Platten idR mit UDMA angesprochen, CD/DVD Laufwerke aber aus irgendwelchen Gründen nicht, bei XP ists aber anders, eigentlich...

StefanV
2004-12-26, 11:18:06
Notfalls ohne DX9, notfalls zum Geburtstag eine gebrauchtes Board mit gebrauchter CPU schenken, nur, um ja keine Nvidia-Graka nehmen zu müssen? :bonk: Ich bau doch nicht den ganzen PC um, wenn lediglich eine neue Graka erforderlich ist – und die Asus 9520 Home Theater tut ihre Sache doch sehr gut.
1. es kommt immer aufs Grundgerüst an, wenn eine 9600 nicht passt, dann kann da meist auch nicht wirklich was dolles drinstecken (VIA 693 und früher, AMD Irongate, i440BX); alle 3 Chipsätze sind nicht wirklich das gelbe vom Ei.

2. entsprechend auch die CPU, wenn nichtmal zwischendurch aufgerüstet wurde, pi mal Daumen 500-700MHz, was für DVD schauen teilweise schon recht eng wird...
Für DivX ists auf jeden Fall zuwenig, wenn der Film 'ordentlich' encodet wurde...

3. neben der nV 6er Serie, dem RV3x0 und ab der 9800XT passt auch die neuere Parhelia LX Serie nicht, somit hast du eh 'nen Klotz am Bein...

4. Den SDR-SDRAM kann man ja erstmal noch behalten, auch wenn DDR-SDRAM weit günstiger wäre...

5. Du hättest vor einiger Zeit z.B. ein KT266A Board für 10€ (z.B. das 8KHA+ von mir) haben können, dazu noch 'nen kleinen Duron für weitere 10-20€uronen...

aths
2004-12-26, 11:29:30
1. es kommt immer aufs Grundgerüst an, wenn eine 9600 nicht passt, dann kann da meist auch nicht wirklich was dolles drinstecken (VIA 693 und früher, AMD Irongate, i440BX); alle 3 Chipsätze sind nicht wirklich das gelbe vom Ei.

2. entsprechend auch die CPU, wenn nichtmal zwischendurch aufgerüstet wurde, pi mal Daumen 500-700MHz, was für DVD schauen teilweise schon recht eng wird...
Für DivX ists auf jeden Fall zuwenig, wenn der Film 'ordentlich' encodet wurde...

3. neben der nV 6er Serie, dem RV3x0 und ab der 9800XT passt auch die neuere Parhelia LX Serie nicht, somit hast du eh 'nen Klotz am Bein...

4. Den SDR-SDRAM kann man ja erstmal noch behalten, auch wenn DDR-SDRAM weit günstiger wäre...

5. Du hättest vor einiger Zeit z.B. ein KT266A Board für 10€ (z.B. das 8KHA+ von mir) haben können, dazu noch 'nen kleinen Duron für weitere 10-20€uronen...SP,

es ging darum, eine neue Grafikkarte zu besorgen, und die 5200 erfüllt die Anforderungen mehr als nur "gut". Der AMD-Chipsatz hier tut seine Arbeit ebenfalls, und wenn ich mit meinem Vater meiner Mutter ein Geburtstagsgeschenk machen will, sicherlich nicht, um dein altes PC-Geraffel abzunehmen.

MadManniMan
2004-12-26, 13:25:05
...und wenn ich mit meinem Vater meiner Mutter ein Geburtstagsgeschenk machen will, sicherlich nicht, um dein altes PC-Geraffel abzunehmen.

Göttlich! :ucatch:

Und jetzt bitte zurück zum Fred!
Was ich mich frage: wird es auch non-TC 6200er mit NV44 geben?

StefanV
2004-12-26, 13:40:18
Und jetzt bitte zurück zum Fred!
Was ich mich frage: wird es auch non-TC 6200er mit NV44 geben?

Vermutlich nicht, denn dann wäre ja der Sinn vom NV44 flöten...

um dein altes PC-Geraffel abzunehmen.
Eigentlich schrieb ich ja 'vor einiger Zeit' und genau so wars gemeint, denn das genannte Board besitze ich schon einige Zeit nicht mehr, war nur ein Beispiel, was man für wenig bis ganz wenig Geld bekommen kann :rolleyes:

PS: eigentlich hab ich andere Abnehmer für mein 'altes PC Geraffel' ;)

Gast2
2004-12-26, 16:00:53
Ich habe mir beim TechReport mal die Tests der Geforce 6200 TC (http://www.techreport.com/reviews/2004q4/geforce-6200-turbocache/index.x?pg=1) und der Geforce 6200 (http://www.tech-report.com/reviews/2004q4/geforce-6200/index.x?pg=1) angeschaut. Im Vergleich zum X300 schneidet dort die Geforce 6200 von der Leistung her immer besser ab, als die Geforce 6200 TC. Leider sind meine Englisch- und Technikkenntnisse nicht so gut, aber ich würde gerne wissen, ob dieser Leistungsunterschied darauf zurückzuführen ist, daß die 6200er einen großen, 128 bittigen Speicher zur Verfügung hat oder ob der Grafikprozessor der 6200 TC von seinen Funktionen her, doch stärker beschnitten ist, als der von der 6200?
Wenn ich mich recht erinnere, sind ja bereits bei der 6200er sehr viele Funktionen im NV43 Kern abgeschaltet worden, die nun im NV44 Kern gar nicht mehr da sind. Aber das dürfte doch keinen Einfluß haben.

StefanV
2004-12-26, 16:27:59
Ich habe mir beim TechReport mal die Tests der Geforce 6200 TC (http://www.techreport.com/reviews/2004q4/geforce-6200-turbocache/index.x?pg=1) und der Geforce 6200 (http://www.tech-report.com/reviews/2004q4/geforce-6200/index.x?pg=1) angeschaut. Im Vergleich zum X300 schneidet dort die Geforce 6200 von der Leistung her immer besser ab, als die Geforce 6200 TC. Leider sind meine Englisch- und Technikkenntnisse nicht so gut, aber ich würde gerne wissen, ob dieser Leistungsunterschied darauf zurückzuführen ist, daß die 6200er einen großen, 128 bittigen Speicher zur Verfügung hat oder ob der Grafikprozessor der 6200 TC von seinen Funktionen her, doch stärker beschnitten ist, als der von der 6200?
Wenn ich mich recht erinnere, sind ja bereits bei der 6200er sehr viele Funktionen im NV43 Kern abgeschaltet worden, die nun im NV44 Kern gar nicht mehr da sind. Aber das dürfte doch keinen Einfluß haben.
1. More importantly, the NV44's die size is much smaller than other NV4x chips. By my measurements, the chip is 10mm by 11mm, or 110mm2. The NV43, for comparison, is about 156mm2. Both chips are manufactured by TSMC on its 110nm fab process, so the die size difference is the result of the trimmed-down ROPs and pixel shader pipes.
2. The GeForce 6200 GPU is manufactured by TSMC on a 0.11-micron fabrication process. The die measures 12mm x 13mm according to my tape measure, making it identical in size to the NV43 GPU that powers the GeForce 6600. Isn't that interesting? When we asked NVIDIA for the 6200's code name according to the "NV4x" convention, the company would only say the chip was a "derivative" of the NV43. It's entirely possible that the GeForce 6200 GPU is simply an NV43 with four pixel pipes and Intellisample color and Z-compression disabled. If this is the case, we may see enterprising enthusiasts attempt to unlock the extra pipelines with hardware or software modifications.

Kurzfassung, übersetzt:

6200TC = neu, kleineres DIE als 'normale' 6200, nix deaktiviert.
6200 ohne TC = nV43 aka 6600 mit einigen deaktivierten Dingen.

Xmas
2004-12-26, 20:26:42
Vermutlich nicht, denn dann wäre ja der Sinn vom NV44 flöten...
Wieso, NV44 ist wohl trotzdem billiger als NV43, egal ob mit oder ohne TC. Aber angesichts der 64MiB/256MiB TC Version glaube ich auch nicht an eine Fortführung der 6200, höchstens um im OEM-Markt defekte NV43 loszuschlagen.


Kurzfassung, übersetzt:

6200TC = neu, kleineres DIE als 'normale' 6200, nix deaktiviert.
6200 ohne TC = nV43 aka 6600 mit einigen deaktivierten Dingen.
Was leider keine Antwort auf die Frage ist.
Ob die normale 6200 weitere Vorteile außer der Bandbreite hat, wird NVidia wohl kaum herausrücken.

Gast2
2004-12-27, 05:14:11
Wenn ich das jetzt richtig verstehe, wurde die Anzahl der ROPs von 4 bei der Geforce 6200 auf 2 bei der Geforce 6200 TC reduziert.

"...The ROP subsystem is the place where NVIDIA has saved the most transistors on the GeForce 6200. In addition to cutting the number of ROPs down to two (from 16 in the NV40 and four in NV43), NVIDIA's engineers have scaled back some of the ROP pipeline's capabilities in NV44..."

Gast2
2004-12-27, 05:34:01
Daher wohl auch der unverhältnismäßig hohe Leistungseinbruch um rund 40% der 6200 TC (http://www.techreport.com/reviews/2004q4/geforce-6200-turbocache/index.x?pg=7) bei den Doom 3 - trdelta1 Ergebnissen im TechReport Test im Vergleich zu den Ergebnissen der 6200 (http://www.tech-report.com/reviews/2004q4/geforce-6200/index.x?pg=4). Bei den anderen Spielen beträgt der Rückstand meist nur 10% bis 20%, was ich auf die bessere Speicheranbindung der Geforce 6200 zurückführe.