PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Umfrage: die größten Grafikkarten-Gurken aller Zeiten


Seiten : 1 [2]

AnarchX
2007-07-21, 14:47:04
Hää? Die 2900 XT ist doch keine Gurke.

Gegenargumente?

Dafür das sie eine ist sprechen jedenfalls die schlechten Treiber, Leistung teilweise hinter dem Vorgänger, schlechte Pro-Watt-Leistung, kaum gesteigerte Texelleistung gegenüber dem Vorgänger, sinnloses 512Bit SI, wie aktuelle Messungen zeigen.

Natürlich ist sie insgesamt noch weit über dem was mancher anderer IHV hinbekommen würde, aber trotzdem im Vergleich zu den letzten ATi GPUs kann man sie doch als "Gurke" bezeichnen.

_DrillSarge]I[
2007-07-21, 14:52:27
bei dem energie / fps verhältnis muss ich dir zustimmen, dat ding zieht.
Treiberprobleme sind ja nichts neues bei ati (zumindest anfangs)
und mehr bandbreite schadet nieee.

Coda
2007-07-21, 16:15:59
I[;5687205']und mehr bandbreite schadet nieee.
Sie bringt der Karte aber nichts.

_DrillSarge]I[
2007-07-21, 16:16:37
Sie bringt der Karte aber nichts.

trotzdem: besser zu viel als zu wenig

Coda
2007-07-21, 16:38:16
ATI muss trotzdem deutlich dafür löhnen. Mehr Speicherchips und höhere PCB-Kosten ohne viel Performancegewinn.

Raff
2007-07-21, 16:46:18
ATI muss trotzdem deutlich dafür löhnen. Mehr Speicherchips und höhere PCB-Kosten ohne viel Performancegewinn.

Woher weißt du denn, wie schnell sie mit 256 Bit wäre? Eventuell ja noch deutlich langsamer. Ok, unwahrscheinlich. Das Resolven in den Shadern wird wohl eher Letztere belasten.

MfG,
Raff

Coda
2007-07-21, 17:34:35
384 bit wäre ja auch eine Möglichkeit gewesen. Nur leider ist ihr ach-so-tolles-Ringbus-Design dafür nicht brauchbar, weil es 4 Ringstops haben sollte, damit man die an den Chipkanten unterbringen kann.

6-Eckiges Die? Wäre doch auch mal lustig gewesen :tongue:

Gast
2007-07-21, 17:39:57
Muss ich doch gleich mehrere Lanzen brechen. Zu ihrer
Zeit war eine jede ein Wunschtraum, Gemuese war nie
eine. Ich liebe alle meine frueheren Grafikkarten noch heute:

Oak 037 und 077 (Oak)
Tseng ET4000 (Tseng)
Cirrus Logic (CL54xx, Cirrus)
Diamond Vision 864 (S3)
ELSA WINNER 1000 TRIO V+ (S3)
PowerColor ViRGE DX (S3)
ProCardex ViRGE GX (S3)
Diamond Viper V330 (NV Riva 128 PCI)
Diamond Rage 128 (ATI Rage 128)
ELSA Gladiac MX (NV GF2MX)
Leadtek A340 TDH (NV GF5200)
Leadtek A350 XT TDH (NV GF5900XT)

und alle die ich in meinem Leben besessen und jetzt nicht
aufgefuehrt oder vergessen habe. Aber auf ewig und als
erste und beste Karte, mit Wehmut und Dankbarkeit fuer
unuebertroffenen Spielespass, danke ich meiner ersten
ViRGE DX, die Tomb Raider 1 u. 2, Quake GL und Descent 1
zu tollen Effekten, schoenen Farben und befriedigenden
Frameraten verhalf.

P.S.: Alle Grafikkarten befinden sich noch in meinem Besitz,
haben sich ihren Ehrenplatz verdient und Vorurteile werden
hier nie einen Platz finden.

Werner K.G. Muenchheimer

AnarchX
2007-07-21, 17:40:50
Woher weißt du denn, wie schnell sie mit 256 Bit wäre? Eventuell ja noch deutlich langsamer. Ok, unwahrscheinlich. Das Resolven in den Shadern wird wohl eher Letztere belasten.


Hier gibt es Bandbreitenskalierungsbenches:
http://www.3dnews.ru/video/512_bit_memory_bus_efficiency/

256Bit + GDDR4 wäre wohl auch ausreichend, dafür hätte man mal ein paar brauchbare ROPs verbauen können.

Tjell
2007-07-21, 17:48:05
Als technologische Stolpersteine sehe ich die GeForce2MX und 4MX an.

Die haben die Verbreitung vernünftiger 3D-Karten massiv blockiert, viele Käufer dieser Karten haben sie ja mit ihrem neuen Komplettsystem bekommen, welches meist mehrere Jahre Dienst tun muss.

Spiele-Programmierer haben lange viel Rücksicht auf die massive Verbreitung genommen.

Schlecht waren für mich auch die ATI-Karten vor der 9700 Pro.

Wenn die Hardware in dem einen oder anderen Fall auch gut gewesen sein mag, die Treiber waren es nicht. Diese Treibergrütze hat mich bis heute geprägt und ich mache einen Bogen um kanadische Graka-Technik.

Die Obergurke war und ist aber die Volari-Serie von XGI. *g*

Raff
2007-07-21, 17:51:20
Hier gibt es Bandbreitenskalierungsbenches:
http://www.3dnews.ru/video/512_bit_memory_bus_efficiency/

256Bit + GDDR4 wäre wohl auch ausreichend, dafür hätte man mal ein paar brauchbare ROPs verbauen können.

Mein Russisch ist leider zusammen mit dem Altgriechisch etwas eingerostet, als ich begann, mein Latein zu perfektionieren.

MfG,
Raff

Coda
2007-07-21, 17:55:29
Du brauchst dir nur die Graphen anzuschauen. Da es überall so zu schein seint ist die Benchmarkauswahl recht unwichtig.

Überhaupt deutet das auch auf ein Problem mit dem Speichercontroller hin.

AnarchX
2007-07-21, 17:56:14
Mein Russisch ist leider zusammen mit dem Altgriechisch etwas eingerostet, als ich begann, mein Latein zu perfektionieren.


Naja, die Diagramme kann man ja auch so verstehen.

Ansonsten:
http://translate.google.com/translate?u=http%3A%2F%2Fwww.3dnews.ru%2Fvideo%2F512_bit_memory_bus_efficiency%2 F&langpair=ru%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools

Coda
2007-07-21, 18:09:04
Als technologische Stolpersteine sehe ich die GeForce2MX und 4MX an.
Bei der 4 MX stimme ich dir ja zu, aber was war an der 2 MX ein Problem? Gleiche Features wie die großen GeForce 2 und Leistung von der letzten Generation. Üblicher Mainstream.

Tjell
2007-07-21, 18:21:45
@Coda

Weil viele der GF2MX die MX-200 waren, die eine unterirdische Leistung bot.

* Der Geforce 2 MX-200 Chipsatz besitzt aufgrund des limitierten Speicherinterfaces eine sehr bescheidene Performance. Die Karte ist nur für sehr einfache 3D-Spiele geeignet und hat eine Performance, die nicht über TNT2-Niveau hinaus geht. Diese Karten sollten nur für Büro-Rechner zum Einsatz kommen. Weiterhin ist der Einsatz von 64 MB in diesen Karten nicht nachvollziehbar, da diese von dem großen Grafikspeicher absolut nicht profitieren können - nur der Preis der Karte wird hierduch nach oben getrieben.
* Der Geforce 2 MX-400 Chipsatz schließt nahtlos an die Performance des MX an. Vor allen Dingen in Anwendungen, die von einem höheren Chiptakt profitieren, kann sich die MX-400 von der MX etwas absetzen. Karten mit 64 MB sind dabei nicht unbedingt schneller als Karten mit 32 MB - erst bei höheren Auflösungen kann dieser Extra-Speicher genutzt werden, hier erreicht die MX-400 sowieso nicht mehr eine spielbare Performance.

Coda
2007-07-21, 18:22:29
@Coda

Weil viele der GF2MX die MX-200 waren, die eine unterirdische Leistung bot.
Schlechtes Argument. Es gibt auch heute noch 64-Bit-SI-Krücken.

Die GeForce 2 MX war eine grundsolide Mainstream-GPU für ihre Zeit und schon gar kein "technologischer Stolperstein". Sonst wäre das jede Mainstream-GPU.

Tjell
2007-07-21, 18:28:51
Du erinnerst Dich vielleicht?

Es gab erst eine GF2MX, die nach einiger Zeit durch die MX-200 und die MX-400 ersetzt worden ist.

Die MX und die MX-400 waren wirklich die einigermaßen guten Mainstreamkarten, aber die MX-200, die sich am meisten verkauft hat bzw. unters Volk gebracht wurde, war es nicht!

Coda
2007-07-21, 18:29:59
Dann sag das du die MX-200 meinst. Eine Technologiebremse wie die GF4MX ist sie trotzdem nicht, da sie alle Features der großen Karten unterstützt.

Eine GeForce 2 MX-400 hatte in etwa die Performance einer GeForce 256 DDR. Das ist keine Gurke.

Silverbuster
2007-07-22, 04:57:29
Viele schreiben hier, das die ATI Rage schlecht gewesen wäre. Aber welche Rage ist gemeint?

Rage 1
Rage 2
Rage 3D
Rage 128
Rage 128 pro
Rage Maxx
?????

Ich hatte eine Karte mit dem Rage 128GL und kann sagen das ich voll zufrieden war. Keine Probleme mit Treibern, keine Bildfehler... nix... und sau schnell. Hat sogar meine Voodoo2 ersetz, die recht schnell raus flog. Selbst unter Quake II konnte ich in 1024x768 32bit und alles auf Max flüssig spielen, was mit der Voodoo2 nicht ging (kein 32bit, max 800x600 bei einer Karte).

seba86
2007-07-22, 10:37:07
Also ich habe mir den Thread bis Seite 7 genau durchgelesen und die letzte Seite überflogen. Hier mein Senf zu den bisherigen Kommentaren und meine Erfahrung:

@Silverbuster:

##########
RAGE KARTEN#
##########
Gebe ich recht, man muss die Rage-Familie mehr differenzieren. Wäre ja fast genauso wie "eine Radeon / Geforce ist eine Grafikgurke".
Imho gab es 5 Rage-Generationen:
1. Rage I
2. Rage II
3. Rage Pro (Rage 3d?)
4. Rage 128

Also ich musste z.B. mit dem Rage Pro, genauer gesagt den "Ati RAGE LT PRO AGP 2X / Mach64LT" Onboard-Chip ein knappes Jahr im Jahre 2005/06 im Office-PC auskommen. Der Chip hat bei meiner Version nur 4MB. Im SPielerechner war ich von einer Geforce2MX400 (s.u.) verwöhnt. Langeweile und Experimentierfreude liessen mich mit der Rage betreiben, ein Chip der 2. 3D-Generation überhaupt (Geforce war imho die 5.).
Also erstmal zu den Spielen: Alle Spiele bis auf die FPShooter-Spiele liefen auf der Rage im Kombination mit einem P2-450 und 192MB ohne Murren. Ich musste eigentlich auf kein Spiel verzichten, wie z.B. Monkey Island 4, Nice2 (immerhin verdoppelte Framerate gegenüber Softwaremodus),Tomb Raider 1 (Rage Pro Patch!) -TR3, Indiana Jones and the Turm of Babel, und ganz wichtig: NFS 2 bis Teil 4 (sowie Sport Cars GT) liefen auf dem 4MB-Teil ERHEBLICH schneller & und schöner als im Software-Modus. Ich konnte sogar fast max. Details gehen und es lief flüssig ohne Grafikfehler. Selbst Spiele die offiziell 8MB benötigten (Divine Divinity) liefen. Oder eben mind. 16MB: Der Oberhammer war natürlich Gothic I auf mittleren Details (Texturen) auf dieser Karte und dass ziemlich flüssig.:eek: Gothic II:NdR lief auch, in Tunneln sogar mit mehr als 10FPS, aber 3-4FPS auf Dauer naja ;)
MoH lief mit äußerst starken Grafikfehler (naja es lief halt;D ) und die Unreal-Spiele waren zumindest im Software-Modus unter 640x480, einschließlich Deus Ex meist flüssig spielbar.
Es fällt auf, dass die Rage besonders stark vom OS UND Treiber-Kombination abhängig ist. Auf Win95b gibbets 482 3D-Mark2000 Punkte, während es in Win98Se mit dem gleichen Treiber mal satte 1082 Punkte gibts. (WinXP nur 586 Punkte, mit WinXP-Treiber nur 468 P.) Der Treiber bestimmte auch die Hardware-Beschleunigung von DVDs und die hat wirklich geklappt (DVD / Videos liefen flussiger als auf einer Voodoo3).
Und mir gefiel, dass ich im Desktop alles einstellen konnte (insb. Gamma, HOHE Hertz-Zahlen, Color und Farbtiefe) - keine Selbstverständlichkeit!
Also alles in allem - verschont zumindest die schnellste RagePro-Karten (genauso wie die Gef4MX-Karten) von ihren Gurken-Preis.

##############
S3-Virge 325DX####
##############

Diese Karte habe ich kostenlos mitnehmen können. Also Rage deaktiviert und die S3 rein. Hat ebenfalls 4MB Speicher, allerdings 2MB für 2D-Darstellung und 2MB für die 3D-Darstellung. War auch die schnellste 2D-Karte ihrer Zeit (95/96). Bis auf die Bildquali im 2D-Modus und die problemlose Treibereinspielung ein desatröses Ergebnis: Freshraten gingen nur bis 100Hz @640-480 (ich brauche 120!), dann auch nur mit 24Bit Farbtiefe (evtl. gab es kein 32Bit) --> doppelte Verlangsamung möglich. 3D-Spiele gingen ALLE nicht, auch nicht der 3D-Mark2000. 3DMark1999 nur mit Grafikfehlern, 0FPS-Einbrüchen --> 126 Punkte. Und dabei war der 99erMark auch stark von der CPU und dem verwendeten SPeicher abhängig, also von 256MB RAM und einen P3 900Mhz (mein jetziger PC :rolleyes: ) Video-BEschleunigung - Häh? Und die Karte hat meinen Monitor-PIN schön verbogen :(
Als Ökonomist sag ich mal dank der 2D-Darstellung brauchbar gerade mal auf billigen TFT-Displays (wegen der HZ) mit 1024x768@16Bit, ansonstens. War wohl bis auf die 2D-Beschleunigung wohl eine 08/15 Karte, und 3D ging damals eh noch net, also trotz allem, auch keine Gurke.
Eine Frage hät ich da noch an euch: Normalerweise laufen ja die DXDiag-Test von DX7 bis DX9 immer langsamer mit fortsteigender Versionsnr. (war jedenfalls bei mir immer so). Nunja, diese Karte hat zumindest den Würfel darstellen können, der wurde aber immer schneller und das deutlich!?!?!
These1: DX9 ist auf Geschwindingkeit optimiert; ABER warum profitiert davon eine schwächliche Semi3D-Karte?!

############
Geforce FX5700#
############
Hatte nur ein kurzes Rendevous mit ihr. Hab mich SUPER gefreut, dass Max Payne2 @high flüssig lief, aber siehe mal Gef2MX.
Für mich zumindest für eine Gurke nominiert, weil eine Mainstreamkarte der 5. Generation kaum Verbesserungen zu einer Budget-Karte der 2. Generation brachte, wenn auch die Karte erst sich so mit 2Ghz wohl fühlt, trotzdem ziemlich enttäuschend.
Der Hammer war ja, dass selbst Unreal1 / Deus Ex nicht absolut flüssig liefen; Unreal ruckelte wie bei der Gef2MX bei Explosionen immer noch mit geschätzten 10-15FPS rum und die Deus Ex Zwischensequenzen waren nicht völlig flüssig.

############
Geforce 2MX 400#
############

Hmm, es gibt nicht sowahnnsig viel zu der Geforce 2MX zu schreiben, der besten Budget-Karte ever bis jetzt. 94 3DMark03-Points. Aber sonst: 16Bit alles spielbar, selbst mit vertretbaren Einschränkungen HL². Der Dampfhammer war natürlich Max Payne 2. Habe aus Jux alles hochgestellt (aber @640x480), also auch sämtliche Texturen (und die Gef2MX hat ja "nur" 32MB, während bei MP2 die Mindestanforderungen von 1,2Ghz (900Mhz); 256MB (nur 192MB beim Test) und GraKa 32MB fast alle unterschritten worden sind; ok mein P3 900 ist schneller als ein 1,5Ghz PIV, aber trotzdem) -
es lief flüssig auf 32Bit. Was für ein Detailreichtum!

################
Gef FX5200 64MB 64Bit#
################
JA, sie ist schneller als eine Gef2MX. Nicht nur von den reinen Specs her, sondern auch von den Features. Auch wenn die nur knapp schneller ist als eine Gef2MX, immerhin hatte sie die neusten Feature; und die "normale" 128Bit FX war sehrwohl zu gebrauchen für Spiele (siehe youtube).
Eher ist für mich eine Radeon9250SE (10Mhz weniger als diese und der R9200SE) eine Gurke, weil die noch schlechter Video beschleunigt, noch um einiges langsamer ist und nur DX8.1 unterstüzt ecetera. Und die FX5200 ist v.a. WinVista-kompatibel - eine gute Multimedia-Karte. Kein Gurkenkandidat

##########
Voodoo3 3000#
##########

Jetzt zu meiner aktuell im Sys verbauten Karte. Man hab ich Augen gemacht, als einer von euch diese als Gurke bezeichnet hat. Ja, die hatte zwar veraltete Features und nur 16MB, aber die ist sowaas von schnell, dass die 99erKarte selbst noch eine Highend 01er Karte (Gef2Ultra) in Glide-Spielen gefährlich werden konnte - RESPEKT! Z.B. Divine Divinity: 2D-Modus: 25fps; DirectDraw-Modus 40fps; Direct3D-Modus 88fps... Glide-Modus: 260fps!!!
Deswegen kann ich die Schnittstelle D3D nicht mehr ab, sowas von einer Hardwarebremse, dass die Voodoo3 selbst eine FX5700 (s.o.) übertrumpfen kann tststs...

Was sind nun die ECHTEN Gurken-Karten für mich?
Das wäre zum einen eine ATI 16Bit-Radeon Karte (meins irgendwo gelesen zu haben) und zum anderen und damit jetzt die GRÖßTEN GURKEN-KARTEN ÜBERHAUPT die aktuellen Mainstream-Karten mit ihrem 128Bit-Speicherinterfarce: Denn schon 2003 gab es bei der Mainstream-Karte Radeon 9500 eine 256Bit-Speicherinterfarce. Und das vor 4 Jahren, eine Ewigkeit!!

wickedgonewild
2007-07-22, 13:47:51
die 9600er serie von ATI - gegenüber der 9700er und 9500er ein technischer rückschritt - obwohl im gleichen preissegment wie die 9500er

_DrillSarge]I[
2007-07-22, 13:51:14
die 9600er serie von ATI - gegenüber der 9700er und 9500er ein technischer rückschritt - obwohl im gleichen preissegment wie die 9500er

na ja, z.B. die 9600xt (pro auch) waren schon karten mit ziemlich gutem p/l verhältnis.
wo technischer rückschritt?

_DrillSarge]I[
2007-07-22, 13:54:14
Mein Russisch ist leider zusammen mit dem Altgriechisch etwas eingerostet, als ich begann, mein Latein zu perfektionieren.

MfG,
Raff

hier: http://translate.google.com/translate?u=http%3A%2F%2Fwww.3dnews.ru%2Fvideo%2F512_bit_memory_bus_efficiency%2 F&langpair=ru%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools

Coda
2007-07-22, 14:24:50
Hatte nur ein kurzes Rendevous mit ihr. Hab mich SUPER gefreut, dass Max Payne2 @high flüssig lief, aber siehe mal Gef2MX.
Für mich zumindest für eine Gurke nominiert, weil eine Mainstreamkarte der 5. Generation kaum Verbesserungen zu einer Budget-Karte der 2. Generation brachte, wenn auch die Karte erst sich so mit 2Ghz wohl fühlt, trotzdem ziemlich enttäuschend.
Das Ding ist mindestens 5x so schnell wie eine 2 MX. Bei manchen ist die Wahrnehmung offenbar ein bisschen verzerrt.

Der Hammer war ja, dass selbst Unreal1 / Deus Ex nicht absolut flüssig liefen; Unreal ruckelte wie bei der Gef2MX bei Explosionen immer noch mit geschätzten 10-15FPS rum und die Deus Ex Zwischensequenzen waren nicht völlig flüssig.
Das lag an deiner CPU, dafür kann die Karte nix. Die Unreal-1-Engine war mit Direct3D oder OpenGL absolut furchtbar.

papachrischi
2007-07-22, 14:39:33
I[;5689430']na ja, z.B. die 9600xt (pro auch) waren schon karten mit ziemlich gutem p/l verhältnis.
wo technischer rückschritt?


Weil sie im Gegensatz zur 9500pro nur noch 4 Pipes hatte. Mit ein bisschen Glück konnte man die 9500pro sogar zur 9700pro machen.

_DrillSarge]I[
2007-07-22, 14:43:56
Weil sie im Gegensatz zur 9500pro nur noch 4 Pipes hatte. Mit ein bisschen Glück konnte man die 9500pro sogar zur 9700pro machen.
lief dafür mit fast doppeltem takt (500 zu 275) und hatte mehr bandbreite (300 zu 270Mhz), war halt ne günstige karte
hatte die 9500pro (auch) nicht nur ein 128bit SI? also nix mit @9700pro ausser die pipes

Seraf
2007-07-22, 14:47:21
Weil sie im Gegensatz zur 9500pro nur noch 4 Pipes hatte. Mit ein bisschen Glück konnte man die 9500pro sogar zur 9700pro machen.

Für eine Mainstreamkarte war die 9600PRO/XT sogar sehr gut. Deutlich schneller als die Vorgängerkarten Radeon 8500/9000. Sie schlug sogar die 5900er Karten in einigen shaderlastigen Benchmarks, und das bei einem deutlich niedrigeren Preis.

Nach deiner Logik müßten die derzeitigen Mainstreamkarten viel größerer Gurken sein als die Radeon 9600.

p.s.
Die 9500pro war nur eine Notlösung von ATI, um zum einen defekte 9700 Chips zu verscheuern und um eine Karte für das mittlere Preissegment zu haben.

Odal
2007-07-22, 14:48:25
[x]FX 5600 (steht wohl ausser frage :D leider kann ich die in meinem laptop nicht austauschen :( )

[x]6200TC Turbo Cache mit 32 bit speicherinterface (da hätte man wenn man schon nur sowenig speicher aufs board packt wenigstens 64bit oder 128 bit speicherinterface haben müssen)

[x]6800GT (war im nachhinein ne gurke für den preis)

[x] ATi Rage Pro

papachrischi
2007-07-22, 14:52:43
Schlecht waren für mich auch die ATI-Karten vor der 9700 Pro.
Wenn die Hardware in dem einen oder anderen Fall auch gut gewesen sein mag, die Treiber waren es nicht. Diese Treibergrütze hat mich bis heute geprägt und ich mache einen Bogen um kanadische Graka-Technik.


Also meine erste Radeon ViVo war damals schon ein wegweisendes Stück Technik und ziemlich flott. Mit den ATI Treibern hatte ich nie Probleme, lief immer alles auf anhieb.
Die Radeon 8500 Serie war damals auch sehr gut. Selbst die 7500er waren um Längen besser als die MX2/4 von der Konkurrenz.

_DrillSarge]I[
2007-07-22, 14:55:44
hehe, 9700 karten und schlecht. hier versucht wohl einer einen flamewar zu starten.;D

Nakai
2007-07-22, 14:57:04
[x] HD2600XT/Geforce 8600GTS, da sie für Mainstreamkarten einfach zu schwach sind.

[x] Geforce FX5600, eigentlich war sie nicht so schlecht, wäre da nicht die miese Konkurrenz gewesen. Die Karte war aber nicht zu empfehlen.

Das Ding ist mindestens 5x so schnell wie eine 2 MX. Bei manchen ist die Wahrnehmung offenbar ein bisschen verzerrt.

Die Fx5700 war eigenlich eine gute Karte. Vorallem die Ultra-Version konnte mit der 9600XT gut mithalten, durch die schnellere Speicheranbindung war sie bei manchen Qualitätsmodi nochmal ein Stück schneller.

mfg Nakai

cozmos
2007-07-22, 15:51:04
Ich hatte wohl fast alle der Gurken ^^

Die S3 Virge
GeForce 4 MX
GeForce 5200

aber da damals die guten Monitore eh viel zu teuer waren haben sie gelangt um Games in 1024x768 zu spielen (Quake Duke Nukem uso)

dann hats mir gelangt und hab mir für 500 DM die 9800Pro gekauft. beste Grafikkarte ever.

Nvidia5
2007-07-22, 17:27:40
Fand die TNT Serie nicht wirklich gut.
Die V3 2k war in Q2 schneller als ne TNT 2.

Geforce 5200, DX9 unmöglich.
Alle Intel Onboard Kackdinger.
Ati Rage 128

Beste Graka war die Geforce MX 400 und die V3 2k.

Gast
2007-07-22, 17:43:05
@cozmos - klar, du hast die 9800Pro noch mit DM bezahlt!:rolleyes:

PCGH_Carsten
2007-07-22, 17:50:53
Meine größte Gurke war die Riva128 - es war einfach noch zu früh für D3D. Vier Wochen später kam eine Voodoo Graphics hinzu - fortan hatte ich das Beste aus beiden Welten.

Zool
2007-07-22, 19:20:53
Der Riva 128 einer der ersten schnelleren singe Chip 3D-Beschleuniger. Matrox Mystique war zwar schnell aber ohne bilinearen Filtering und Voodoo war halt eine Addon-Card.

Tjell
2007-07-22, 19:24:25
I[;5689656']hehe, 9700 karten und schlecht. hier versucht wohl einer einen flamewar zu starten.;D
Und wer schreibt das? Ich nicht.

PCGH_Carsten
2007-07-22, 19:34:21
Der Riva 128 einer der ersten schnelleren singe Chip 3D-Beschleuniger. Matrox Mystique war zwar schnell aber ohne bilinearen Filtering und Voodoo war halt eine Addon-Card.
Ja - und? Was ist an Add-on schlimm? Alle PCs die ich kenne, haben/hatten eine 2D-fähige Grafikkarte.

Coda
2007-07-22, 19:39:48
Mit Hybrid-SLI gehen wir im Prinzip ja auch den Schritt zurück darauf, weil einfach der Stromverbrauch einer dauernd laufenden 3D-Karte zu groß wird.

Vielleicht implementiert nVIDIA ja in NVIO in Zukunft einen minimalen D3D10-Kern um das bei jedem Rechner zu ermöglichen. Fände ich gut.

seba86
2007-07-22, 21:27:28
@codas: Naja, dass eine Gef5700nonultra gleich 5x besser ist als eine Gef2MX, eher so 2 bis maximal 3x in der Praxis (bei mir @800x600). Bei höheren haste aber vermutlich recht, also doch. Andererseits bin ich nicht der einzige, der exakt ein solches Upgrade gemacht hat und relativ enttäuscht war über die Mehrleistung. Aber ich denke, dafür haben die anderen Komponente die GraKa zu stark eingebremst, also mit 900Mhz und 256MB RAM war da wohl eher CPU-Limitierung. Also, ok ich nehms zurück. Aber Unreal lief auf gleichen System wirklich ruckelig, aber nur bei frontal-Explosionen, wenn also eine Rakete auf mich krachte. Ich wusste nicht, dass die D3D-Schnittstelle sooo schlecht impliziert worden ist.

Matrix316
2007-07-22, 21:38:09
Ja - und? Was ist an Add-on schlimm? Alle PCs die ich kenne, haben/hatten eine 2D-fähige Grafikkarte.
Naja, das Durchschleifen ist halt nicht so gut für die allgemeine Bildqualität gewesen, gerade die Schärfe hat manchmal doch etwas gelitten.

PCGH_Carsten
2007-07-23, 15:46:37
Naja, das Durchschleifen ist halt nicht so gut für die allgemeine Bildqualität gewesen, gerade die Schärfe hat manchmal doch etwas gelitten.
Einfache Lösung (so haben ich und ein Freund das gemacht): Monitor mit zwei Eingängen besitzen. ;) Schaltet man mal eben manuell um zum Zocken.

Schwarzmetaller
2007-07-23, 21:32:33
Sis 305...die abgespeckte Variante vom Sis 315....mit 64 MB miesestem SDRAM. Performance: nicht vorhanden, dazu gelegentlich 3,3 V AGP 2x-Karte als AGP 4x getarnt. War langsamer als eine Geforce 2MX !100! mit 32 Bit Speicherinterface :eek: Treiber? Viel Spaß beim Suchen...überraschenderweise ;) passt der Treiber von den ganzen Sis 630/650 onboard-Gerödelsachen, man teilt sich ja eine Basis...Rage IIC wurde ja schon genannt.

MFG
Schwarzmetaller

Gast
2007-07-24, 02:13:16
Matrox G100

Riva 128

TNT

Gruss Labberlippe

Silverbuster
2007-07-24, 06:54:07
Ich verstehe nicht warum die FX5200 oder die 6200 immer als so schlecht dargestellt werden.
Diese Karten wurden nie als Spielekarten angepriesen. Sondern galten seid jeher als Office Karten. Die Unterstützung für die damalige aktuellste Technik dürfte wohl leicht zu erklären sein, schließlich ist es einfacher einen bestehenden High End Chip abzuspecken als extra einen billigen Chip zu entwickeln. Wo liegt also das Problem.

In meinen Augen war jeder der sich so eine Karte zum spielen gekauft hat selbst Schuld und hätte sich einfach ein bisschen Informieren sollen.

James Ryan
2007-07-24, 08:30:01
Ich verstehe nicht warum die FX5200 oder die 6200 immer als so schlecht dargestellt werden.
Diese Karten wurden nie als Spielekarten angepriesen. Sondern galten seid jeher als Office Karten. Die Unterstützung für die damalige aktuellste Technik dürfte wohl leicht zu erklären sein, schließlich ist es einfacher einen bestehenden High End Chip abzuspecken als extra einen billigen Chip zu entwickeln. Wo liegt also das Problem.

In meinen Augen war jeder der sich so eine Karte zum spielen gekauft hat selbst Schuld und hätte sich einfach ein bisschen Informieren sollen.

Full Ack!
Wie ich schon sagte, der Großteil hat den Thread nicht richtig verstanden.
Beispiel: Radeon 9700 Pro größte Grakagurke... :|

MfG :cool:

Silverbuster
2007-07-24, 08:32:40
Full Ack!
Wie ich schon sagte, der Großteil hat den Thread nicht richtig verstanden.
Beispiel: Radeon 9700 Pro größte Grakagurke... :|

MfG :cool:

Es ist früh am Morgen und ich steh grade wohl ein bisschen auf dem Schlauch.

Lieg ich richtig wen ich deine Aussage als Zustimmung sehe? :confused:

James Ryan
2007-07-24, 08:42:00
Es ist früh am Morgen und ich steh grade wohl ein bisschen auf dem Schlauch.

Lieg ich richtig wen ich deine Aussage als Zustimmung sehe? :confused:

Das "Full Ack!" sollte eine Zustimmung ausdrücken! ;)

MfG :cool:

[ncp]EasyChiller
2007-07-24, 14:19:50
Das wiederspänstigste Viech was ich jeh als dedizierte Grafikkarte besessen habe war eine Rage-Fury-MAXX (die DUAL-Variante)

OC war nicht möglich dank des Bridge-Chips ... Treiber gabs nur für Win98 maximal .. unter anderen OS war der 2. Chip nicht ansteuerbar .. unter XP mit viel händischer Arbeit als normale Rage-Fury ansteuerbar.

Treiber waren buggy und oft Grafikfehler zu sehn. :rolleyes:

cozmos
2007-07-24, 18:13:25
@cozmos - klar, du hast die 9800Pro noch mit DM bezahlt!:rolleyes:

weiss nimmer genau, aber glaub ned das ich 500 Euronen gelöhnt hab ^^

ineluki
2007-07-26, 16:55:44
Diamond Viper Pro Video mit Weitek Chip...

Unter Windows schnell, aber unter DOS schnarchlangsam...

Da Fre@k
2007-07-27, 08:06:45
Meinen ersten PC hatte ich ca. 1997 und voher hatte ich nur diverse Amiga.
Da stellt sich die Frage wegen eines Grafikchips nicht :)

Nunja, mein erster PC war so ein Fertigteil aus einem Elektronikshop. War ein Intel Celeron 333 mit 64MB RAM und Onboardgrafik. War natürlich Müll. Aber sowas passiert, wenn man keine Ahnung hat :biggrin:
Danach folgte noch ein Fertig-PC mit irgendeiner ATI Karte :rolleyes:
Die folg aber sofort raus und stattdessen kam die Voodoo Banshee rein.
Die darauf folgenden Rechner habe ich dann aber selber zusammengestellt und gebaut.

Im Laufe der Zeit kamen dann folgende Grafikkarten zum Einsatz:

Voodoo Banshee
TNT2 (lief nicht, weil inkompatibel zum Board)
Voodoo 3 3000
GeForce 2 GTS
GeForce 4 4400
GeForce 5900XT
GeForce 6800 (per BIOS auf fast GT getrimmt ;D)
GeForce 7800 (später SLI)
GeForce 8800GTS 640

Am meisten von den Karten hat mich die GF4 beeindruckt. Die war auch bis jetzt am längsten im Einsatz (ca. 2 Jahre). Die 8800 ist aber auch Hammer :wink:
Aber die Gurke in diesem Feld war eindeutig die FX.
Meine Fresse, was war die Karte lahm. Wenn ich an FarCry mit der Karte denke :mad:
Die ist auch kurze Zeit später direkt nach Erscheinen der 6800 ausgetauscht worden.

Tigerchen
2007-07-27, 08:22:02
Die normale FX 5200 ist aber auch schon sehr schlimm. Die FX 5200en, die ich getestet habe, hatten ein 128 Bit SI.

Laut aths ein technologischer Meilenstein.

Intel i740 und Riva128 waren auch ganz schöne Gurken. Obwohl ich damals mit der Riva 128 schon Hexen 2 und Tombraider3 in echtem 3D spielen konnte.

Mr.Magic
2007-07-27, 09:24:36
Meine einzigen Gurken waren bisher von ATi.
Erst eine Rage Pro, die einfach nicht stabil laufen wollte (Zweitrechner bekam dann eine V3 verpasst. Die lief und lief und...)
Später noch eine Radeon 8500. Meine GF3 gab eine Woche vor Erscheinen der GF4 den Geist auf. Wir hatten keine 3er mehr auf Lager, also dachte ich mir ich könnte mal die probieren. Man war die schlecht. Kein vernünftiges AA, kein AF... Nichtmal die Rage flog so schnell wieder raus.

Gast
2007-07-27, 15:32:41
Laut aths ein technologischer Meilenstein.

Wohl eher ein viral marketingpolitischer! Das schlägt auch die Wii!

seba86
2007-08-01, 10:04:06
Mmh. muss gerade die FX5200 insofern verteidigen, da es meine erste GraKa ist, mit der sich die Desktopschärfe einstellen lässt. Seitdem ist das Bild auf dem CRT endlich wieder makellos! Sone Funktion bot nicht mal die Gef2MX/FX5700/V3/RagePro usw.

Gast
2007-08-01, 11:14:07
Desktopschärfe -> Ein SW-Trick, um HW-Insuffizienz auszugleichen. Sehr tolles Feature

Ati-Karten sind einfach scharf in 2d, die brauchen den Schrott nicht. Meine gf52-64 bringt nur Schärfe bis 1024x768!, und ihr sagt, das wäre ja NUR eine Office-Graka. Aber auch solche Karten haben Anforderungen, die hier ja wohl kaum eingehalten werden.

seba86
2007-08-01, 12:21:32
...wobei die Unschärfe in diesem Fall aber vom CRT ausging, weil der schon über 10 Jahre alt ist. Afaik doch sinnvoll. Gamma&Co ist auch vorhanden.

Blinx123
2007-08-01, 12:53:31
Ich liebe alle meine Grafikkarten. Ob 2D oder 3D. Sind alles keine Gurken für mich.

BTW: Warum nennen hier eigentlich einige die G70/G71 Karten? Die sind doch gut. Was ist daran nur annähernd schlecht? Und welcher G70 Bug? Verwechselt ihr das nicht mit dem G80 Bug?

arnoldo
2007-08-01, 15:30:54
Hier nochmal die Preisentwicklung der 9800pro -> hatte am Anfang tatsächlich fast 500 Steine gekostet!
http://666kb.com/i/aqk6qdp2bdvgm7on1.png

seba86
2007-08-04, 23:56:50
Igittigitt; nochmal was neues gefunden --> Ein Intel810i onboard-Chipsatz: Frisst per default 32MB RAM weg, kann aber selbst auf 640x480 maximal 85Hz darstellen und unterstützt keine 32bit Farbtiefe. Wie war das nochmal mit "Rage sind sauschlecht"? Die konnten mit 4MB das locker übertrumpfen bei besseren Treibern!

Gast
2007-08-06, 11:22:24
Laut aths ein technologischer Meilenstein.

Intel i740 und Riva128 waren auch ganz schöne Gurken. Obwohl ich damals mit der Riva 128 schon Hexen 2 und Tombraider3 in echtem 3D spielen konnte.

Was?! Hatte Hexen 2 von Haus nicht nur eine Glide Ünterstützung eingebaut? Oder kam da mal wie bei Unreal n Patch?

Fritte
2007-08-06, 13:20:46
Was?! Hatte Hexen 2 von Haus nicht nur eine Glide Ünterstützung eingebaut? Oder kam da mal wie bei Unreal n Patch?

Tja, das war ja genau das problem damals, alles war auf 3dfx ausgerichtet und daher konnte die Riva 128 ihre Vorteile kaum ausspielen...

Gast
2007-08-06, 13:37:32
Tja, das war ja genau das problem damals, alles war auf 3dfx ausgerichtet und daher konnte die Riva 128 ihre Vorteile kaum ausspielen...
Wem sagst du das - als ehemaliger Riva 128 (und Hexen 2 Besitzer) kann ich da ein Lied von singen... Vor allem die Kombination "kein I-Net und kaum Ahnung" (war mein erster PC) haben mich damals zur Verzweiflung getrieben wenn es darum ging, mal nicht im Softwaremodus zu zocken. Ob ich die Karte aber deshalb als Gurke bezeichnen würde weiß ich nicht - hab mich nie damit beschäftigt und die mangelhaft Unterstützung kann man ja kaum der Graka vorwerfen.

Raff
2007-08-06, 14:04:11
Tja, das war ja genau das problem damals, alles war auf 3dfx ausgerichtet und daher konnte die Riva 128 ihre Vorteile kaum ausspielen...

Welche Vorteile? Dass das Teil eine 2D/3D-Kombikarte ist, war der einzige Vorteil ... wenn man nicht schon eine 2D-Karte hatte.

MfG,
Raff

Salvee
2007-08-06, 14:50:25
Welche Vorteile? Dass das Teil eine 2D/3D-Kombikarte ist, war der einzige Vorteil ... wenn man nicht schon eine 2D-Karte hatte.

MfG,
Raff

Nuja, sie war mit entsprechender CPU Power schneller als ne V1 unter D3D (und hässlicher^^)

CEO
2007-08-06, 14:50:49
Laut aths ein technologischer Meilenstein.

Intel i740 und Riva128 waren auch ganz schöne Gurken. Obwohl ich damals mit der Riva 128 schon Hexen 2 und Tombraider3 in echtem 3D spielen konnte.


WTF!? Welche Low-End karte hatte den damals PS 2.0+ und VS 2.0+ und stand featuremäßig keine High-End karte nach? Damit hat man das volle "featureset" für unter 100ocken. Was juckt nen Coder eine Highend karte wenn er das gesamtpacket auch für weniger haben kann? Hier scheint bei einigen die Vernunft zu limitieren.

Schwarzmetaller
2007-08-06, 15:29:46
Moep..nix gesagt

Gast
2007-08-06, 16:24:48
Ich glaube du bist um einige Grafikgenerationen verrutscht....Riva128 hatte noch nix mit PixelShader o.ä...die war von 1998!Er meint doch die FX5200...

Marodeur
2007-08-06, 16:52:51
Ich fand meine Voodoo Banshee nicht crappy. Konnte damit auch ohne SLI das meiste in 1024x768 zocken. Mit einer Voodoo 2 hätte ich mit 800x600 vorlieb nehmen müssen. Und mit einer RivaTNT hätte ich nicht den damals noch wichtigen Glide-Support gehabt (v.a. für Unreal, später UT, aber auch für NFS 3). Außerdem war meine damalige CPU (AMD K6 266) zu schwach für die TNT, die Voodoo Banshee nuckelte mit ihren Treibern nicht so sehr an der CPU.

Ich fand die Banshee auch eher crap. ;)

Grund war hauptsächlich das ich meine Glidespiele nur noch mit Grafikfehlern zocken konnte. Allen voran Schleichfahrt. Hab mich tierisch geärgert. Im nachhinein weis ich aber nicht mehr genau obs an der Banshee oder den Treibern lag war da damals noch ned so drin in der Materie. Daher lass ich den mal aussen vor. Ausserdem muss ich ihm zugute halten das er auf dem damaliegen K6-2-Board wenigstens problemlos lief im gegensatz zur späteren TNT2. ;)

Meine "Favoriten" für die Liste sind ATI Rage IIc sowie der S3 ViRGE.

An irgendein PowerVR-Teil kann ich mich auch noch dunkel erinnern (war vor der Kyro) aber ich glaub die Erinnerung hab ich verdrängt und war auch nur ganz kurz im Einsatz. Hat sich bei dubiosen Basteleien in einen Rechner verirrt.

Gast
2007-08-06, 17:03:13
Naja, die S3 Trio 64 fand ich richtig gut. :uup:

Seraf
2007-08-06, 17:05:48
Was?! Hatte Hexen 2 von Haus nicht nur eine Glide Ünterstützung eingebaut? Oder kam da mal wie bei Unreal n Patch?

Hexen II hatte von Haus aus OpenGL Unterstützung.

seba86
2007-08-17, 22:06:58
*Thread ausgrab*

Die Permedia II 8MB AGP ist auch sonen Kandidat. Laufen kaum ne handvoll Spiele auf den 98er Chip und wenn dann ruckeln sie selbst auf einen PIII 650 fröhlich vor sich hin, selbst NFSIII ruckelt. Nichtmal Videobeschleunigung fähig oder Refreshraten über 100Hz *bäh*

Gast
2007-08-18, 10:53:39
Rage Pro 8mb onboard...was für ein lahmes teil :/