PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Umfrage: die größten Grafikkarten-Gurken aller Zeiten


Seiten : [1] 2

Raff
2007-07-14, 14:55:22
Im einen Thread faszinieren sie, in diesem wollen wir mal die gurkigsten Grafikkarten aller Zeiten küren. Ich fange mal chronologisch an:


S3 Virge: Der "Decelerator" suchte seine Daseinsberechtigung ohne Erfolg
Nvidia NV1: Nett gemeint, wenig praxistauglich
3dfx Voodoo Rush: Matschbild und langsamer als eine Voodoo Graphics
Ati-Chips < R100: Krankten meist nicht nur an miesen Treibern
Nvidia FX-5800: Heiß und schneckig bei SM2.0
Ati Radeon HD 2900 XT: Offenbar schwer bugverseucht, weist daher Parallelen zum NV30 auf


Für Letzteres bekomme ich garantiert von Einigen was zu hören. ;)

MfG,
Raff

Grey
2007-07-14, 14:59:31
GF4 MX Serie.

_DrillSarge]I[
2007-07-14, 14:59:41
rage 128 (pro) totaler müll, nichts läuft und wenn, dann in slomo
tnt2 m64 hab die mal in nem komplettrechner gehabt und dachte geil ne tnt2 und wunderte mich warum alles über 800x600 ruckelte
fx-5800 "staubsauger mit 5 watt"
geforce 4ti 4600 -> wozu??? wenns ne 4200 mit oc für lau gibt. ich hatte ne 9700.
geforce 3 tolle features mehr oder weniger miese performance

€: voodoo banshee -> crap
genauso der s3 savage 4 (pro)

Spasstiger
2007-07-14, 15:07:35
GeForce FX 5200, v.a. die mit 64 Bit. Ich verstehe gar nicht, warum sich so viele Leute von der Karte haben blenden lassen. Sogar eine GeForce 4 Ti haben manche gegen die FX 5200 getauscht, nur um DX9 zu haben.
Ich hab bisher zwei FX 5200 in Aktion gesehen und es war unglaublich bescheiden. Farcry in 640x480 bei mittleren Details gerade so steuerbar, Doom 3 in 1024x768 schon im Menü derbe am Ruckeln (nahezu unbedienbar).
Und beide Kartenbesitzer sind davon ausgegangen, eine ganz passable Grafikkarte zu besitzen. Der eine dachte, die Karte sei schneller als die GeForce 4 Ti 4200 vom Bekannten, der andere meinte, er hätte eine Radeon 9800 Pro drin. ;D
Die GeForce FX 5600 war auch nicht viel besser, kann man noch an einen erinnern, der mit dieser Karte auf einer LAN rumprollen wollte vor einem Bekannten, der sich gerade frisch eine 9800 XT aus den USA hat mitbringen lassen (direkt zum Release). Omg, war das peinlich. Der Typ mit der FX 5600 bezeichnete sich selbst auch als Pro-Gamer.

I[;5669358']voodoo banshee -> crap
Ich fand meine Voodoo Banshee nicht crappy. Konnte damit auch ohne SLI das meiste in 1024x768 zocken. Mit einer Voodoo 2 hätte ich mit 800x600 vorlieb nehmen müssen. Und mit einer RivaTNT hätte ich nicht den damals noch wichtigen Glide-Support gehabt (v.a. für Unreal, später UT, aber auch für NFS 3). Außerdem war meine damalige CPU (AMD K6 266) zu schwach für die TNT, die Voodoo Banshee nuckelte mit ihren Treibern nicht so sehr an der CPU.

Deckel
2007-07-14, 15:09:18
Ok, meine Obergurke war die Leadtek WinFast A400 GT TDH mit GT 6800 Chip. Die hielt ohne Übertaktung nur ca. ein dreiviertel Jahr, ich hatte drei Ersatzkarten, die sogar schon nach 9 Stunden Oblivion den Geist aufgaben. Über neun Monate waren sie in Reparatur. Entweder habe ich immer Montagsmodelle erhalten oder was auch immer. Da lebt sogar meine Radeon 9800 Pro trotz Übertaktung seit ca. drei Jahren, obwohl die bei anderen ja öfters hinüber gegangen sein soll.

jasihasi
2007-07-14, 15:10:31
Ja 5200@64 ist schlecht, aber 9250@64 ebenso.
Überhaupt alles @64...

Gast
2007-07-14, 15:10:43
Voodoo & Voodoo 2 Karten - verwandelten jedes gute 2D Signal in ein Matschbild.

_DrillSarge]I[
2007-07-14, 15:15:57
mir fällt noch eine ein savage 2000. die hatte sogar TnL, welches jedoch aufgrung von hw bugs nicht funktionierte (!). dieser chip hat s3 getötet.

Deckel
2007-07-14, 15:16:00
Wie hieß nochmal die Nvidia FX, die so laut war, daß man damit Einbrecher verjagen konnte? Die außerdem einen so starken Abgasstrahl hatte, daß man damit Laub zusammenfegen konnte und die einem davonflog, wenn man sie nicht fest in den Händen hielt? Die wird wohl die absolute Gurke gewesen sein (mal von der eventuellen Grafikleistung abgesehen..)

_DrillSarge]I[
2007-07-14, 15:17:39
Wie hieß nochmal die Nvidia FX, die so laut war, daß man damit Einbrecher verjagen konnte? Die außerdem einen so starken Abgasstrahl hatte, daß man damit Laub zusammenfegen konnte und die einem davonflog, wenn man sie nicht fest in den Händen hielt? Die wird wohl die absolute Gurke gewesen sein (mal von der eventuellen Grafikleistung abgesehen..)

fx5800 ULTRA

Spasstiger
2007-07-14, 15:18:53
Ja 5200@64 ist schlecht
Die normale FX 5200 ist aber auch schon sehr schlimm. Die FX 5200en, die ich getestet habe, hatten ein 128 Bit SI.

_DrillSarge]I[
2007-07-14, 15:21:55
Ich fand meine Voodoo Banshee nicht crappy. Konnte damit auch ohne SLI das meiste in 1024x768 zocken. Mit einer Voodoo 2 hätte ich mit 800x600 vorlieb nehmen müssen. Und mit einer RivaTNT hätte ich nicht den damals noch wichtigen Glide-Support gehabt (v.a. für Unreal, später UT, aber auch für NFS 3). Außerdem war meine damalige CPU (AMD K6 266) zu schwach für die TNT, die Voodoo Banshee nuckelte mit ihren Treibern nicht so sehr an der CPU.

der voodoo banshee fehlte eine 2. textureinheit und war somit langsamer als ne voodoo 2. war ne typische oem karte

Raff
2007-07-14, 15:24:17
Dafür hatte sie mehr Takt und konnte so zumindest in Single-Texture-Spielen eine V2 überholen. Hinzu kam, dass sie auch 1600x1200 beherrschte, was nicht einmal V2 SLI zu sehen kriegt.

MfG,
Raff

Deckel
2007-07-14, 15:24:29
I[;5669422']fx5800 ULTRA

Und die hatte tatsächlich nur ein Speicherinterface von 128 Bit?

Raff
2007-07-14, 15:26:48
Und die hatte tatsächlich nur ein Speicherinterface von 128 Bit?

Ja, mit 500 MHz GDDR2, also 16 GB/s. Die 9700 Pro mit 256 Bit (310 MHz) kam auf 19,8 GB/s.

MfG,
Raff

_DrillSarge]I[
2007-07-14, 15:28:52
zumindest hatte der banshee den vorteil, dass er keine reine 3d karte war.
aber in der praxis ist die geringfügig höhere singlepass leistung (v2: 90 mhz; banshee: 100) nie wirklich zum tragen gekommen und der banshee ist ja nichts anderes als ne v2 als 2d/3d kombikarte mit nur einer textureeinheit.

nggalai
2007-07-14, 15:34:42
Also, ich mochte meine FX 5800. Allerdings non-ultra, die Ultra war wohl wirklich ein Griff ins Klo (Staubsauger ahoi).

Auch die Banshee hatte ich, und „meine“ Spiele liefen damit mehr als anständig. Als ich mir dann eine Voodoo3 reinsteckte, merkte ich erst, wie schwach die Karte auf der Brust war … aber hat sich für den Zeitraum gelohnt.

Gurkige Karten … da würde ich auch die GF4MX reinnehmen. Und die 5200er, sowohl 64bit als auch 128bit. Die GF2 Ultra wäre auch noch ein Kandidat … sauteuer, und lief in Serious Sam langsamer als meine Kyro II … Publicity-Karte. :D

Deckel
2007-07-14, 15:36:09
Ja, mit 500 MHz GDDR2, also 16 GB/s. Die 9700 Pro mit 256 Bit (310 MHz) kam auf 19,8 GB/s.

MfG,
Raff


Weißt Du auch noch die damaligen Neupreise?
Irgendwo hatte ich im Internet ein Video gesehen, wo sich sogar die Mitarbeiter von Nvidia über ihre Monsterkarte lustig gemacht hatten :-)

_DrillSarge]I[
2007-07-14, 15:38:22
Weißt Du auch noch die damaligen Neupreise?
Irgendwo hatte ich im Internet ein Video gesehen, wo sich sogar die Mitarbeiter von Nvidia über ihre Monsterkarte lustig gemacht hatten :-)
um die 650€

€: was auch geil war, dass nv den hersteller sogar die kühler geliefert bzw. vorgeschrieben hat. so auch das layout. aus angst vor hitzeproblemen

NiCoSt
2007-07-14, 15:47:19
Kyro2 würd ich hier nennen

wobei ich den sinn des topices nicht verstehe....jede karte ist irgendwann mal langsam und zum kaufzeitpunkt sollte man die karte für seine bedürfnisse auswählen

Gast
2007-07-14, 15:48:06
Für Letzteres bekomme ich garantiert von Einigen was zu hören. ;)Nur dafür? ;) Der Rage war eine SEHR lange Zeit der meistverbaute Grakachip auf Serverboards. Daher nehme ich auch an, daß seine Treiber - wohlbekanntlich Kerneltreiber - mit die stabilsten und ausgereiftesten waren die es so gab. Dazu lief das Teil fast kalt. Beides extrem wichtig für einen Server. Irgendwelche Unzulänglichkeiten im 2D-Betrieb kenne ich ebenfalls nicht.

Du hast Nvidias ersten DX9-Versuch vergeßen ;)

no_surrender
2007-07-14, 15:49:25
G70 und G71 :biggrin:

Gast
2007-07-14, 15:50:25
Jein. Der "G71-Bug" ist jedenfalls der Hammer :mad:

Exxtreme
2007-07-14, 15:52:28
Ati Radeon HD 2900 XT: Offenbar schwer bugverseucht, weist daher Parallelen zum NV30 auf

Würde nicht sagen, daß das ein Rohrkrepierer ist. :D Immer noch ein recht gutes Produkt für den Preis.

Ich hätte da aber noch was:

Nvidia Riva 128 Pro. :D

Das Teil hatte ich in einem Rechner onboard. Miese Treiber, miese Bildqualität dafür sogar halbwegs schnell. Einen Monat später eine Voodoo2 gekauft und die Sache war gegessen.

_DrillSarge]I[
2007-07-14, 15:52:51
Du hast Nvidias ersten DX9-Versuch vergeßen ;)

das ist der nv30 gewesen (5800). ey man der hatte sogar 64bit farbtiefe ( welcher monitor soll das darstellen) und man nutzte stalker als vorzeigespiel (flüssig!!!).

Deckel
2007-07-14, 16:01:21
Jein. Der "G71-Bug" ist jedenfalls der Hammer :mad:

Hilf mir mal auf die Sprünge. Welcher G71-Bug meinst Du?

ColdColt
2007-07-14, 16:14:22
Frag ich mich auch, denn ich habe einen G71.

AnarchX
2007-07-14, 16:21:18
[x] XGI Volari V8 (http://www.3dcenter.org/artikel/deltachrome_volari/)(Duo): langsam, verbugt, BQ-Features (Blur-AA)

Ansonsten halt NVs FX-Reihe, die eben halt auch sehr darunter litt, dass bei ATi alles richtig lief.

Savay
2007-07-14, 16:25:33
XGI Volari...alle miteinander der absolute knüller!

Matrox Parhelia..recht interessante ideen bezüglich des AA...aber nichtmal nen unterteiltes speicherinterface und das bei 256bit :|

_DrillSarge]I[
2007-07-14, 16:27:59
parhelia ist eigentlich keine karte zum zocken. bietet jedoch superbe signalqualität (super 2d karte) und ist sogar heute noch relativ teuer.

AnarchX
2007-07-14, 16:30:33
I[;5669600']parhelia ist eigentlich keine karte zum zocken.

Wurde aber so anfangs vemarktet.
Naja, da merkte man schon, dass es Matrox einfach fehlte mit den beiden großen IHVs noch mitzuhalten.
Von Matrox-DX9-Vista-Lösung hört man leider auch nichts mehr...

_DrillSarge]I[
2007-07-14, 16:38:14
Matrox ist ja auch eher auf business lösungen spezialisiert.
Was für ne DX9-Vista Lösung?
die parhelia unterstütz doch (glaube teilweise) dx9.

AnarchX
2007-07-14, 16:43:57
I[;5669635']
Was für ne DX9-Vista Lösung?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=325845&highlight=Matrox

I[;5669635']
die parhelia unterstütz doch (glaube teilweise) dx9.
Ja, VS2.0 in HW. Der ist aber grade für Vista sinnlos, da man hier den PS2.0 in HW brauch.

Aquaschaf
2007-07-14, 16:49:08
Auf die Volari ist wohl zunächst keiner gekommen weil das Ding einfach zu absurd schlecht ist ;)

Spasstiger
2007-07-14, 16:49:30
Und die hatte tatsächlich nur ein Speicherinterface von 128 Bit?
Jo, 128 Bit SI und 4 Pixelshaderpipelines statt 256 Bit SI und 8 Pixelshaderpipelines wie bei ATI. Die FX 5800 Ultra lief allerdings mit höheren Taktraten und sie hatte 2 Textureinheiten pro Pipeline, weshalb sie bei DX8-Spielen zur 9700 Pro aufschließen konnte.

P.S.: An der Uni hab ich in den letzten Wochen auch mit einer recht gurkigen Grafikkarte gearbeitet, die kann allerdings nur 2D und wurde von Studenten entwickelt für ein Projektpraktikum (an dem ich jetzt eben teilgenommen habe). Wir steuern die Grafikkarte über unseren mit VHDL selbst implementierten 16-Bit-Prozessor an. Die Grafikkarte maximal 64 Farben gleichzeitig aus einer 24-Bit-Palette darstellen und taktet mit ca. 107 MHz. Die einzige unterstützte Auflösung ist 1280x1024 über einen DVI-Ausgang.
Wir haben dafür einen "Gorilla"-Verschnitt programmiert (vielleicht kennt ja noch jemand das QBasic-Spiel "Gorilla") mit Simpsons-Figuren anstatt Gorillas und alles schön in den typischen Simpsons-Farben.
Alles in Assembler programmiert.

_DrillSarge]I[
2007-07-14, 16:51:20
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5669580&postcount=28

gibts die firma eigentlich noch? hab mal nen interview mit einem von xgi gesehen und der mensch meinte, dass die volari sogar der nächsten generation der konkurrenz die stirn bieten könne.

aevil
2007-07-14, 16:51:47
Dafür hatte sie mehr Takt und konnte so zumindest in Single-Texture-Spielen eine V2 überholen.
MfG,
Raff
Ich kann mich kaum an Spiele erinnern die damals Nutzen aus einer zweiten Textureinheit ziehen konnten...Quake 2 konnte es aber eindrucksvoll :smile:

Zum Thema: Matrox M3D, würg
Riva 128 ging so, lief nicht jedes Spiel mit jedem Treiber richtig gut, aber von der Geschwindigkeit her ging es. Trotzdem war die Voodoo wohl besser wenn die AUflösung einem reichte.

_DrillSarge]I[
2007-07-14, 16:53:27
alles von nv vor dem tnt war crap, ich sag bloß vanta

AnarchX
2007-07-14, 16:54:13
I[;5669676']http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5669580&postcount=28

gibts die firma eigentlich noch? hab mal nen interview mit einem von xgi gesehen und der mensch meinte, dass die volari sogar der nächsten generation der konkurrenz die stirn bieten könne.

Die Entwicklerteams wurden von ATi übernommen (http://de.wikipedia.org/wiki/XGI#Niedergang). Vielleicht arbeiten sie ja an ATis zukünftigen Dualkarten. :D

_DrillSarge]I[
2007-07-14, 16:55:36
Die Entwicklerteams wurden von ATi übernommen (http://de.wikipedia.org/wiki/XGI#Niedergang), vielleicht arbeiten sie ja an ATis zukünftigen Dualkarten. :D

bitte nicht!!! ati radeon v8 duo hd 5000xtx-pe volari edition ;D

Savay
2007-07-14, 17:15:04
naja warum nicht...wenn damit denn dann wenigstens nen 4 karten dualchip CF funktionieren würde... :tongue: (UND sich die architektur nicht wie nen XGI chip verhält ;) )

Raff
2007-07-14, 17:59:47
Voodoo & Voodoo 2 Karten - verwandelten jedes gute 2D Signal in ein Matschbild.

Hrhr, da hast du durchaus Recht. Kommt aber aufs Kabel an und bei der V2 war's idR weniger schlimm. Beim Zocken fiel das nicht auf.

I[;5669506']das ist der nv30 gewesen (5800). ey man der hatte sogar 64bit farbtiefe ( welcher monitor soll das darstellen) und man nutzte stalker als vorzeigespiel (flüssig!!!).

64 Bit Farbtiefe doch nur intern. FP16-HDR-Rendering (16 Bit pro Kanal) ist ja AFAIK nichts anderes.

MfG,
Raff

deekey777
2007-07-14, 18:00:36
Im einen Thread faszinieren sie, in diesem wollen wir mal die gurkigsten Grafikkarten aller Zeiten küren. Ich fange mal chronologisch an:


S3 Virge: Der "Decelerator" suchte seine Daseinsberechtigung ohne Erfolg
Nvidia NV1: Nett gemeint, wenig praxistauglich
3dfx Voodoo Rush: Matschbild und langsamer als eine Voodoo Graphics
Ati-Chips < R100: Krankten meist nicht nur an miesen Treibern
Nvidia FX-5800: Heiß und schneckig bei SM2.0
Ati Radeon HD 2900 XT: Offenbar schwer bugverseucht, weist daher Parallelen zum NV30 auf


Für Letzteres bekomme ich garantiert von Einigen was zu hören. ;)

MfG,
Raff
Ich sehe da eher Parallelen zum R200 und nicht zum NV30.

_DrillSarge]I[
2007-07-14, 18:02:16
der xabre von sis war auch ein produkt der kategorie "sinnlos"
€: der r200 war doch n guter wurf. featuremäßig der gf3 voraus und performance vergleichbar.
nur das miese af und das langsame ssaa waren nervig

Raff
2007-07-14, 18:06:54
Ich sehe da eher Parallelen zum R200 und nicht zum NV30.

Intern sicher zum R200 (bugverseucht, daher praktisch ein anderer Chip als er geplant war), äußerlich aber NV30 (heiß, laut, trotz werkseitiger "Übertaktung" leistungstechnisch der Konkurrenz unterlegen).

____

Wundert mich, dass noch niemand Voodoo3 und 5 genannt hat. Erstere war ja technisch hoffnungslos veraltet, eine V1 auf Speed sozusagen. Und die V4/5-Serie verfügt nicht über das unglaublich wichtige T&L, sondern nur blödes FSAA, das eh keiner braucht. ;)

I[;5669837']nur das miese af und das langsame ssaa waren nervig

Da musste ich schmunzeln. :D Was passiert denn heute, wenn ein Chip schrottiges AF und lahmes AA anbietet? Er wird wegen Ermangelung dieser Kernfeatures gnadenlos niedergemacht.

MfG,
Raff

_DrillSarge]I[
2007-07-14, 18:10:31
die hd2900xt ist doch eh nur son übergangschip, damit man auch dx10 im angebot hat. bedeutet aber nicht, dass er chip schlecht ist.
€: was geil am r200 war: truform. das feature in aktion zu erleben war (für mich) damals genial.

seahawk
2007-07-14, 18:17:54
Also für mich :

ATI Rage pro, die war in einem Komplettrechner von Vobis und versprach eine neue Spielerfahrung, was stimmte da es ruckelte und ein großer Teil der Spiele nicht ohen Fehler lief.

Volaris - in jeder Form und Farbe

NV1 - das war nix
NV30 - eigentlich die gesamte Familie schlecht
NV40 - leicht verbesserter NV30, dauerhaft der Konkurrenz unterlegen
G70 - siehe NV40

Crazy_Chris
2007-07-14, 18:18:51
Eindeutig die S3 Virge Reihe sowie alles von Trident. :redface:

_DrillSarge]I[
2007-07-14, 18:23:00
hehe, blade 3d. kann man auch software-rendering benutzen
€: hab grad durch rumgooglen herausgefunden, dass die grafikabteilung von trident zu xgi gegangen ist. naja, gleich und gleich gesellt sich gern. und die sind jetzt (hoffentlich nicht alle) bei ati.

Undertaker
2007-07-14, 18:28:11
Also für mich :

ATI Rage pro, die war in einem Komplettrechner von Vobis und versprach eine neue Spielerfahrung, was stimmte da es ruckelte und ein großer Teil der Spiele nicht ohen Fehler lief.

Volaris - in jeder Form und Farbe

NV1 - das war nix
NV30 - eigentlich die gesamte Familie schlecht
NV40 - leicht verbesserter NV30, dauerhaft der Konkurrenz unterlegen
G70 - siehe NV40

zu ihren lebzeiten waren nv40 wie g70/71 1a karten, wie die performance sich danach entwickelt hat ist für den high-end käufer doch eh uninteressant ;) generell machts eigentlich (fast) immer sinn, bei jedem generationswechsel umzusteigen, preisklassenunabhängig - mehr leistung pro watt, aktuellste features, bester treibersupport

_DrillSarge]I[
2007-07-14, 18:30:48
eine karte hab ich noch: geforce 256. war zwar schnell, aber die bq war so abartig...bäh. und teuer und daruaf kam gleich die gf2-serie mit der berühmten gf2mx.

Crazy_Chris
2007-07-14, 18:36:50
Die Geforce 2MX war zu ihrer Zeit eine gute Karte. Preis/Leistung hat gestimmt und solange man alles in 16bit Farbtiefe gespielt hat war sie ordentlich schnell. :smile:

Noch ne Gurke war TNT2 M64 die um 2000 in praktisch jedem Aldirechner zu finden war. :biggrin:

sth
2007-07-14, 18:59:30
My All Time Favourite: ATI Rage IIc

Von ATI als 3D-Chip verkauft und hauptsächlich in OEM-Rechnern verbaut. Die Realität war die, dass selbst einfachste Direct3d-Spiele selbst auf 320x240 unspielbar (<10fps) langsam waren. OpenGL-Treiber gab es überhaupt keine. Im 2D-Bereich bestach die Karte durch ein matschiges Bild (d.h. in Kombination mit einer Voodoo hatte man dann Doppel-Matsch) und ein komplett unbrauchbares VESA-BIOS (damals noch relativ wichtig für die ganzen DOS-Spiele). Aufgrund dieser Karten war folgender Satz lange in der ReadMe eines Linux-Treibers zu finden: "[...] you may or may not have problems, depending on how horribly broken the card is."
Besonders gut darstellen konnte der Windows-Treiber übrigens blaue Bilder mit der Aufschrift "Schwerer Ausnahmefehler in atirage.dll".

Die Rage Pro und Rage 128-Karten mögen langsam und buggy gewesen sein, aber zumindest waren die meisten Spiele irgendwie spielbar.


Das eine Voodoo nicht die beste Bildqualität hatte war damals eigentlich nicht so tragisch (meistens hatte man eh nur billige alte 15" oder wenn's hoch kam 17" CRTs). Die Karte hat ihren Platz in der Geschichte dadurch, dass es die erste Karte war, die brauchbare 3d-Leistung in den Massenmarkt gebracht hat und dadurch die ganze 3d-Welle erst richtig in Fahrt gebracht hat.

Gast
2007-07-14, 19:48:55
Auch wenn ich für die Kartenwahl und die Begründung wahrscheinlich gleich gesteinigt werde:

Die Voodoos
Und zwar weil sie durch ihre Dominanz eine, wenn nicht gar zwei nicht offene Grafikschnittstellen durchsetzten. Bei Glide merkt mans heute nicht mehr so stark, weil dank des Ablebens von 3dfx die Autoren von Wrappern keine rechtlichen Folgen zu befürchten haben. Naja, hat ja damals fast jeder versucht, seine eigene Schnittstelle durchzusetzen, geschafft habens aber nur 3dfx. Zusätzlich waren die Treiber für D3D zu gut im Vergleich zu jenen für OpenGL.
Hätten die IHVs sich durchgesetzt, die ihre Anstrengungen mehr auf OpenGL konzentriert haben, sähe heute vieles besser aus:
Mehr Wettbewerb zwischen den Betriebssystemen.
Größere Portabilität von Spielen bei geringerem Aufwand.
Wahrscheinlich mehr überlebende IHVs, auch dadurch mehr Wettbewerb.
Ausgereiftere Treiber durch Konzentration auf eine Schnittstelle.
Vollständigere Nutzung der Fähigkeiten von GPUs durch die erweiterbare Natur von OpenGL.

Gut, miese OpenGL-Treiber sind eigentlich eher anderen Kandidaten anzulasten. Was ich 3dfx ankreide sind ja eigentlich auch nicht schlechte Treiber, sondern zu gute für M$ Konkurrenzschnittstelle in einer Zeit, in der sie (3dfx - nicht D3D :usweet:) führend waren. Was Voodoos für mich zur Gurke macht, sind ihre Qualitäten in den falschen Bereichen und die bis heute spürbaren Auswirkungen. Und Glide werde ich ihnen nie verzeihen - nicht weil sie es (wie damals fast alle) versucht haben, sondern weil es einige Zeit geklappt hat (im Gegensatz zu fast allen anderen).

So...
Jetzt dürft ihr mich steinigen. Oder herzlich lachen, ist trotzdem ernst gemeint.

Lightning
2007-07-14, 20:04:03
Hrhr, da hast du durchaus Recht. Kommt aber aufs Kabel an und bei der V2 war's idR weniger schlimm. Beim Zocken fiel das nicht auf.

Sorry Raff, aber wenn ich das so lese, finde ich das schon ein bisschen seltsam. Auf der einen Seite propagierst du immer (3dfxs) SSAA für seine unerreichte Bildqualität, auf der anderen Seite nimmst du aber das Gegenteil leichtfertig in Kauf.


Zu den miesesten Gurken würde ich noch die Xabres und Volaris zählen. Wundert mich, dass die noch nicht so oft genannt wurden.

Raff
2007-07-14, 20:07:27
Der Grund wurde schon genannt: Damalige Monitore waren idR nicht so toll.

MfG,
Raff

Lightning
2007-07-14, 20:18:26
Der Grund wurde schon genannt: Damalige Monitore waren idR nicht so toll.

MfG,
Raff

Gut, ich mag das nicht beurteilen, da ich damals weder eine Voodoo oder Voodoo 2 und vor allem noch viel weniger Ahnung als heute hatte. Aber warum weiß man dann, dass diese Karten eine ziemlich schlechte Signalqualität hatten? Nur von den wenigen, guten Monitoren?

Gast
2007-07-14, 20:21:13
Meine größte Grafikkarten-Gurke war eine FX5200/64Bit. Ich hatte eine FX5200/128Bit, und war mit der, bis auf die Lautstärke unter Linux, da dort die Lüftersteuerung nicht wie unter W2K funktionierte, zufrieden. Die Hobbytronic stand an, und so kam ich auf den Gedanken, eine passive 5200/128Bit günstig zu erstehen. Wir fuhren zur "Messe", und mir war klar, worauf ich zu achten hatte: Die Speicherriegel auf der Karte müssen in L-Form angeordnet sein, dann ists ne 128"Bittige". Also hab' ich mich auf der Messe umgeschaut, und eine 5200erer mit L-förmiger Speicheranordnung zu einem günstigen Preis gefunden. Prima. :) Zuhause angekommen, habe ich mir die L-förmig angeordneten Speicherbausteine nochmal angeschaut, und festgestellt:
Scheisse, die Hälfte davon ist aufgemalt und physikalisch ansonsten nicht wirklich vorhanden.
Die läuft seitdem im Server. X-D

WEGA
2007-07-14, 20:27:34
I[;5669358']rage 128 (pro) totaler müll, nichts läuft und wenn, dann in slomo
tnt2 m64 hab die mal in nem komplettrechner gehabt und dachte geil ne tnt2 und wunderte mich warum alles über 800x600 ruckelte
fx-5800 "staubsauger mit 5 watt"
geforce 4ti 4600 -> wozu??? wenns ne 4200 mit oc für lau gibt. ich hatte ne 9700.
geforce 3 tolle features mehr oder weniger miese performance

€: voodoo banshee -> crap
genauso der s3 savage 4 (pro)

gf3 und voodoo bashee waren super karten. beide gehabt, die gf3 als ti500.

Undertaker
2007-07-14, 21:10:16
er meint bestimmt den fortschritt vom vorgänger aus... in extremfällen lag die gf3 anfangs sogar hinter der gf2 ultra (da niedriger getaktet), dafür war es aber langfristig eine der "haltbarsten" grafikkaren überhaupt

Gast
2007-07-14, 21:44:35
Bezgl. der "schwachen" Leistung der VoodooRush war es zumindest bei 3dfx glide unterstützenden Spielen net weiter schlimm.

Gast
2007-07-14, 23:14:54
Tss... das is echt zu einfach. Gf5200-128mb-64bit mit ner 2D-Bildqualität scharf bis 1024 im lowest profile Bauform. Ich schätze, bei DX7 versagt sie noch jämmerlich gegen ne gf2mx-200, gegen ne kyro1 sowieso

Junalesca
2007-07-14, 23:26:05
And zeh Winner is....
PS2 Graphics Synthesizer. Voodoo1 Features bis ins Jahr 2007. Flimmergrafik, 100 not-Features, Perspektivenkorrektur, 128² 8bit Texturen, unkomprimierte Texturen, wg. 4MB VRam k. Mipmapping möglich

VivaLaHarry
2007-07-14, 23:34:39
And zeh Winner is....
PS2 Graphics Synthesizer. Voodoo1 Features bis ins Jahr 2007. Flimmergrafik, 100 not-Features, Perspektivenkorrektur, 128² 8bit Texturen, unkomprimierte Texturen, wg. 4MB VRam k. Mipmapping möglich

moin zusammen,
aha ... größte Grafikkarten-Gurke? ... na ok, wenn'de dir die in deinen Pentium3 damals gesteckt hast ist es auch kein Wunder, dass da keine Performance aufkommt :biggrin:

Also von mir kommen wieder die üblichen verdächtigen:

- GeForce FX5200@64Bit
- Radeon 9200SE@64Bit (obwohl bei HL2 unter DX8.1 verblüffend brauchbar)
- XGI Volaris (alle beisammen ... die Features sind ja mal richtig schön umgesetzt ... besonders AA & AF)

MfG,
VivaLaHarry

Lyka
2007-07-14, 23:36:25
And zeh Winner is....
PS2 Graphics Synthesizer. Voodoo1 Features bis ins Jahr 2007. Flimmergrafik, 100 not-Features, Perspektivenkorrektur, 128² 8bit Texturen, unkomprimierte Texturen, wg. 4MB VRam k. Mipmapping möglich

amen :D

ich hatte am PC seitdem ich einen habe (1997) nicht solch bescheidenen Grafikleistungen (okok, sagen wir, seit meiner TI4200 von 2003)^^

Gast
2007-07-14, 23:58:54
ATI Rage 2

Damit konnt ich kein 3D-Spiel richtig zocken.

goldenarrowde
2007-07-15, 00:28:45
Nun ja,

eine der größten Grafikkarten-Gurken, die es jemals gab und (leider) immer noch gibt, ist wohl die ATI Radeon X7000 - Reihe.

Gruß goldenarrowde

Sonyfreak
2007-07-15, 01:21:46
I[;5669358']geforce 4ti 4600 -> wozu??? wenns ne 4200 mit oc für lau gibt.Dafür konnte man die Ti4600 halt noch höher takten, und man hatte von Anfang an 128MB Speicher.
I[;5669358']geforce 3 tolle features mehr oder weniger miese performanceMeiner Meinung nach war die Geforce 3 eine wirklich tolle Karte, die sowohl von den Features, als auch von der Performance her lange Zeit zu überzeugen wusste.

Wundert mich, dass noch niemand Voodoo3 und 5 genannt hat. Erstere war ja technisch hoffnungslos veraltet, eine V1 auf Speed sozusagen. Und die V4/5-Serie verfügt nicht über das unglaublich wichtige T&L, sondern nur blödes FSAA, das eh keiner braucht. ;)Alle halbwegs interessierten Forumsmitglieder haben durch dich und Mr.Lolman eine ziemlich wirkungsvolle Gehirnwäsche erhalten. ;( :D

Richtig mies waren meiner Meinung nach:

Volari Karten <= fabelhafte BQ und märchenhafte Performance (Adjektive wörtlich nehmen ;D)
Geforce MX-4000 mit 32bit Speicherinterface <= muss man glaub ich nicht kommentieren
Geforce 5200 mit 64bit Interface <= so eine Traumkarte haben wir sogar hier im Haus :(
ATI Rage Pro <= 3D Beschleunigung wo bist du?

mfg.

Sonyfreak

hmx
2007-07-15, 01:45:49
er meint bestimmt den fortschritt vom vorgänger aus... in extremfällen lag die gf3 anfangs sogar hinter der gf2 ultra (da niedriger getaktet), dafür war es aber langfristig eine der "haltbarsten" grafikkaren überhaupt

Dafür bot die GF3 vernünftiges AF, für damals sehr gute Performance bei AA durch MSAA und bei 2x sogar ein gedrehtes Raster. Und ganz wichtig: Sie hatte zwar weder mehr Rohleistung oder Speicherbandbreite aber dafür eben Maßnahmen zur Erhöhung der Effizienz und der Bandbreitenschonung. Dadurch brach sie in 32bit nicht mehr ein. Unverständlich diese Karte als Gurke zu bezeichnen. Es gab einige Fälle wie sie schneller war als eine GF2U insbesondere unter 32 bit.

=Floi=
2007-07-15, 02:18:19
ganz klar soetwas in der heutigen zeit
http://geizhals.at/deutschland/a265747.html
es gab auch eine 7300GS mit 32bit ;D
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2006/januar/nvidia_geforce_7300_gs/

ich werde es schon alleine deshalb nicht verstehen weil man sich doch damit selbst den namen kaputt macht mit so schlechten karten denn nach dieser karte wird der laie sicherlich eine ATI karte kaufen....
und die max 5€ mehr für ein 128bit interface wären schon noch drinnen gewesen :rolleyes:

Smoke Screen
2007-07-15, 02:23:55
Die einzige Karte die ich besessen und als "Gurke" einstufen würde war
die Kyro-2. Obwohl sie von der Hardware her zu ihrer Zeit durchaus
ansprechende Leistung für den Preis bot. Leider mangelte es wohl an den
Treibern und wohl auch am Support durch die Spielehersteller.
Hab sie dann gegen eine GF3Ti200 getauscht. Deren Bildqualität war zwar
schlechter aber damit liefen meine Spiele dann ohne ewiges tweaken und
Treiberwechsel.

Rebell
2007-07-15, 02:47:41
NV40 Reihe: Black Bug (ka wie wurde der nochmal genannt, jedenfalls hatte ich ihn)
G71: auch hier gabs/gibts einen Bug.

Nvidia hat sich so einige Fehler erlaubt, die nicht selten auftraten, so etwas habe ich von ATI Karten noch nicht gehört.

Eigtl. die ganze Nvidia FX Palette bzgl. der Shader 2 Performance.

Cubitus
2007-07-15, 02:55:00
X550 die Verpackung allein sagt eigentlich schon alles,
oder sieht das Alien etwa glücklich aus ?
es kreuzt sogar die Finger ;D

http://www.hwupgrade.it/immagini/sapphire_x550.jpg

=Floi=
2007-07-15, 03:08:24
das foto ist ja der hammer ;D ;D

J0ph33
2007-07-15, 03:41:55
X550 die Verpackung allein sagt eigentlich schon alles,
oder sieht das Alien etwa glücklich aus ?
es kreuzt sogar die Finger ;D

http://www.hwupgrade.it/immagini/sapphire_x550.jpg
;D;D;D

omg...da haben sich die designer bei sapphire mal einen spaß erlaubt..."Jungs, macht mal nen Uber-Karton für ne lowend-karte..."

tombman
2007-07-15, 03:50:10
Voodoo & Voodoo 2 Karten - verwandelten jedes gute 2D Signal in ein Matschbild.
Deswegen ließ man als freak damals das 2D Signal auch nicht durchschleifen sondern hatte einen Monitor mit zwei Eingängen- Umschalten und fertig ;)

Btw, ich tippe auch auf Volari, größere Frechheit hat im Graka-business noch niemand besessen ;)

Liszca
2007-07-15, 04:12:08
Ganz ehrlich?

alles ab voodoo2 war absoluter müll, der gedanken einer add on karte hat/hatte einfach zu viel vorteile.

Liszca
2007-07-15, 04:15:35
Die einzige Karte die ich besessen und als "Gurke" einstufen würde war
die Kyro-2. Obwohl sie von der Hardware her zu ihrer Zeit durchaus
ansprechende Leistung für den Preis bot. Leider mangelte es wohl an den
Treibern und wohl auch am Support durch die Spielehersteller.
Hab sie dann gegen eine GF3Ti200 getauscht. Deren Bildqualität war zwar
schlechter aber damit liefen meine Spiele dann ohne ewiges tweaken und
Treiberwechsel.

das liess sich gut über die profile regeln, wobei mir gefallen hatte das sie passiv kühlbar war.

Savay
2007-07-15, 09:41:11
Ganz ehrlich?

alles ab voodoo2 war absoluter müll, der gedanken einer add on karte hat/hatte einfach zu viel vorteile.


das wäre? aus ökonomischer und ökologischer hinsicht sind addon karten ineffizient und unsinnig. aus technologischer sicht gibt es auch zuviele probleme.

die heutigen GPUs sind dabei doch streng genommen eigentlich nur 3d beschleuniger die halt nebenher auch nen bissl 2d funktionen drauf haben. :tongue: der großteil der chipfläche wird doch mittlerweile für die 3d und rendertauglichkeit verbraten! :wink:

The_Invisible
2007-07-15, 10:08:15
ganz klar soetwas in der heutigen zeit
http://geizhals.at/deutschland/a265747.html
es gab auch eine 7300GS mit 32bit ;D
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2006/januar/nvidia_geforce_7300_gs/

ich werde es schon alleine deshalb nicht verstehen weil man sich doch damit selbst den namen kaputt macht mit so schlechten karten denn nach dieser karte wird der laie sicherlich eine ATI karte kaufen....
und die max 5€ mehr für ein 128bit interface wären schon noch drinnen gewesen :rolleyes:

nur wenn es eine bessere karte für besseren preis bei der konkurrenz gibt

mfg

Undertaker
2007-07-15, 10:15:02
das wäre? aus ökonomischer und ökologischer hinsicht sind addon karten ineffizient und unsinnig.

ganz genau andersherum. eine energiesparende basis-grafikkarte für windows und videobeschleunigung und ein schneller 3d-beschleuniger für games - das würde effizienz bedeuten, und genau dahin gehen aktuelle entwicklungen teilweise auch wieder

][immy
2007-07-15, 10:30:02
ganz genau andersherum. eine energiesparende basis-grafikkarte für windows und videobeschleunigung und ein schneller 3d-beschleuniger für games - das würde effizienz bedeuten, und genau dahin gehen aktuelle entwicklungen teilweise auch wieder

eben. am besten wäre heutzutage wohl, ein onboardchip für 2D (bzw in vista schon wieder 3d), der die daten über den PCIe zu richtigen grafikkarte für die ausgabe weitergibt (oder halt anders herum), und ein 3d-beschleuniger zusätzlich der solange dann wirklich ruhen kann. dahin sollte ansich die entwicklung gehen (besonders da der laptop-markt immer weiter wächst).


zu der größten 3d gurke. die steckt in meinem arbeitslaptop und nennt sich "Trident CyberBlade". einen schlimmeren chip habe ich bisher echt noch nicht gesehen. 3d kann man absolut vergessen und selbst 2d läuft extrem lahm. dieser chip beschleunigt echt gar nichts. Selbst johnny Castaway (bildschirmschoner den wohl noch einige kennen sollten) ruckelt (als auch andere bildschirmschoner) trotzdem in dem ding ein P3 mit 1 Ghz steckt. kommt mir vor als wenn in dem grafikchip nur ein codec drin steckt der alle befehle an die cpu weiterleitet.

Seraf
2007-07-15, 10:34:18
S3 Virge
ATi Rage/Rage II
Nvidia TNT2 M64

robbitop
2007-07-15, 10:51:09
Gurkige Karten … da würde ich auch die GF4MX reinnehmen.
Wuzz? :|
Die GF4MX war beim Erscheinen sehr billig und sau schnell. Zumal damals eh kaum Gebrauch von Pixelshading gemacht worden ist.

Kyro2 würd ich hier nennen



:| ...siehe oben

robbitop
2007-07-15, 10:57:49
NV40 - leicht verbesserter NV30, dauerhaft der Konkurrenz unterlegen
G70 - siehe NV40
Willst du trollen oder meinst du das ernst? :|

Savay
2007-07-15, 11:03:57
ganz genau andersherum. eine energiesparende basis-grafikkarte für windows und videobeschleunigung und ein schneller 3d-beschleuniger für games - das würde effizienz bedeuten, und genau dahin gehen aktuelle entwicklungen teilweise auch wieder

ohja...die energieersparniss durch den niedrigeren stromverbrauch ballert man in nen extra PCB und die entwicklungs, produktions und material kosten für ne separate 2d karte. ganz toll damit hat man...rein garnichts gewonnen. zusätzlich belastet man unnötig die bussysteme und erhöht den verwaltungsaufwand und die komplexität des systems und damit die fehleranfälligkeit. nebenher auch ne ausgeschaltete hardware verbraucht strom, von der umweltbelastung bei der produktion der extrakarte will ich da mal ganz absehen.

wichtiger und effektiver wären da IMO effiziente stromsparmechanismen in den GPUs selber! die CPU hersteller machens ja vor...und ich hoffe dadurch das AMD jetzt ATI übernommen hat fließt davon auch mal einiges in die grafikwelt ein.

partiell und dynamisch teile der GPU herunterzutakten und zu deaktivieren sollte dank der parallelisierbarkeit theoretisch auch einfacher zu bewerkstelligen sein...es hat (bis auf wenige ansätze) nur bisher noch keiner getan weil bei den GPUs defakto eben immernoch das reine brute force prinzip regiert und im highend bedarf eben keine sau interesse an sowas hat. da zählt doch nur leistung...das addon karten prinzip ist imo nicht wirklich ne alternative...das ist meiner ansicht nach immer nur ne "notlösung" weil man so am schnellsten und einfachsten entsprechende ergebnisse erreicht

wer nen ökonomischen rechner zusammenstellt nimmt eh nen IGP oder ne möglichst günstige und einfach strukturierte grafikkarte

Pirx
2007-07-15, 11:20:21
Also die Vrge war immerhin ne ziemlich gute 2D-Karte und die Rages auch. Die Rage 128Pro war auch akzeptabel in 3D, also die würde ich aus der Liste streichen.

Crap sind imho die frühen SIS-Chips und die V8-Duo.

Seraf
2007-07-15, 11:26:39
Also die Vrge war immerhin ne ziemlich gute 2D-Karte und die Rages auch. Die Rage 128Pro war auch akzeptabel in 3D, also die würde ich aus der Liste streichen.

Crap sind imho die frühen SIS-Chips und die V8-Duo.

Für die gebotene 3D-Leistung waren die beiden Karten einfach nur Schrott.
Hab damals noch 400DM für eine RageII+ bezahlt. Da aber selbst das mitgelieferte Mechwarrior 2 unspielbar langsam lief habe ich mir dann doch noch eine Voodoo1 besorgen müssen.

In 2D waren die beiden Karten astrein. Die beworbene 3D Funktionalität war zwar vorhanden aber nicht benutzbar.

Undertaker
2007-07-15, 11:54:54
ohja...die energieersparniss durch den niedrigeren stromverbrauch ballert man in nen extra PCB und die entwicklungs, produktions und material kosten für ne separate 2d karte. ganz toll damit hat man...rein garnichts gewonnen. zusätzlich belastet man unnötig die bussysteme und erhöht den verwaltungsaufwand und die komplexität des systems und damit die fehleranfälligkeit. nebenher auch ne ausgeschaltete hardware verbraucht strom, von der umweltbelastung bei der produktion der extrakarte will ich da mal ganz absehen.

so ein quark... das was man dort evntl an entwicklungskosten investiert, kann man sich bei der 3d-gpu sparen, die braucht ja dann gar keine erweiterten stromsparfunktionen mehr ;) ein igp mit max. 50-100mio transistoren könnte videos + vista beschleunigen und würde sich auf auf 5w verbrauch drosseln lassen - einen 700mio chip wie g80 und konsorten wirst du nicht unter 30w bekommen... aber wie gesagt, schau dir an wo die entwicklung hingeht, das zeigt das du falsch liegst ;)

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=369095&highlight=sli+igp

Haarmann
2007-07-15, 12:00:58
NV 7800GTX

54 Grad im Treiber und Finger verbrannt beim Anfassen ... die Karte war nicht defekt und läuft inzwischen wassergekühlt weiter.

ESAD
2007-07-15, 12:08:18
Also ich finde die NV 7800GTX eine tolle karte... leiste, singleslotkühlung und auch jetzt noch massig leistung

Sir Integral Wingate Hellsing
2007-07-15, 12:16:19
Rage Mobility M1 4MB SDR AGP2x

Das Ding konnte kein OpenGL, war lahm, 3D-Grafiken/Texturen waren meist buggy oder nicht vorhanden unter D3D - dazu allgemein unter 3D matschige BQ (natürlich kein AA/AF und nur ganz miese bilineare Filterung mit übelstem Dithering - ne Voodoo1 war gegen diesen Chip in Sachen 3D um Längen voraus) - HL 1 war nur im Software-Modus zu ertragen.
Das Teil war echt nur für 2D zu gebrauchen, da allerdings auch damals schon mit "DVD-Beschleunigung"

Crazy_Chris
2007-07-15, 12:16:26
Die Meinungen gehen ja sehr weit auseinander was eine Grafikkartengurke ist und was nicht. :biggrin:

Für mich sind alle Karten Gurken die sehr miese Treiber + schwache Grafikleistung verbinden. Dazu zählt z.B. S3 Virge und Savage oder generell die Tridentkarten aber ganz sicher nicht Karten vom Schlage einer Geforce 7800GTX. :ucrazy2:

Corny
2007-07-15, 12:27:33
Interessant finde ich die Geforce 7500LE die ich zurzeit im System habe. Der Name ist noch halbwegs vielversprechend, aber die Karte hat 64MB Speicher mit 32bit (!) Interface! Bei 324 Mhz (DDR) macht das ganze 2,6GB/s Speicherdurchsatz. Eine Geforce 2MX hatte damals schon 2,7GB/s.

Im 2D Betrieb mit zwei Bildschirmen (1280) merke ich keinen Unterschied zu meiner X800. In 3D aber schon ;D

Gast
2007-07-15, 12:38:59
Inzwischen müsste eigentlich jede Karte mindestens einmal genannt worden sein ;D

der_roadrunner
2007-07-15, 12:44:22
Was habt ihr alle gegen die S3 Virge? Das ist doch eine super Office Graka mit guter 2D Qualität.

der roadrunner

Smoke Screen
2007-07-15, 12:45:01
das liess sich gut über die profile regeln, wobei mir gefallen hatte das sie passiv kühlbar war.

Mmh,kann ich nicht sagen. Zu der Zeit da ich die Karte besaß war es z.B. nicht
möglich Red Faction und UT mit dem gleichen Treiber einwandfrei laufen zu lassen. Kann
sein das sich das später geändert hat,aber da hatte das Teil nicht mehr.
Wie gesagt fand ich die Leistung und die Bildqualität gut,nur halt das ewige rumfummeln
ging mir tierisch auf den Sack.

ColdColt
2007-07-15, 12:48:01
Mmh,kann ich nicht sagen. Zu der Zeit da ich die Karte besaß war es z.B. nicht
möglich Red Faction und UT mit dem gleichen Treiber einwandfrei laufen zu lassen. Kann
sein das sich das später geändert hat,aber da hatte das Teil nicht mehr.
Wie gesagt fand ich die Leistung und die Bildqualität gut,nur halt das ewige rumfummeln
ging mir tierisch auf den Sack.

Und ob das möglich war.

Savay
2007-07-15, 12:51:36
so ein quark... das was man dort evntl an entwicklungskosten investiert, kann man sich bei der 3d-gpu sparen, die braucht ja dann gar keine erweiterten stromsparfunktionen mehr ;) ein igp mit max. 50-100mio transistoren könnte videos + vista beschleunigen und würde sich auf auf 5w verbrauch drosseln lassen - einen 700mio chip wie g80 und konsorten wirst du nicht unter 30w bekommen... aber wie gesagt, schau dir an wo die entwicklung hingeht, das zeigt das du falsch liegst ;)

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=369095&highlight=sli+igp

klar alles quark jojo...erst gabs 3d karten als addon...dann wurden sie integriert!
erst gabs FPUs als separate einheiten dann wurde es integriert!
aber klar alles quark und ich liege vollkommen falsch weil der "trend" was anderes sagt.

es frisst mehr ressourcen nen chip + pcb layout + componenten + treiber + passende system umgebung zu entwerfen UND herzustellen als das was vorhanden ist auszunutzen. nochdazu erhöht es unnötig die komplexität des systems...je komplexer desto fehleranfälliger! tolle neue hardware welt :rolleyes:

das was hier nur passiert ist das die vohandene hardwarebasis (passable und vista taugliches IGPs gibt es ja) für nen workaround genutzt wird um kurzfristig ne lösung zu schaffen die zwar funktioniert aber letztlich immernoch nen kompromiss ist :|

da könnte man auch argumentieren das man die einzelnen komponenten einer CPU auch wieder auslagert weil man damit potenziell mehr strom sparen kann. die FPU/SIMD einheiten braucht man auch nicht ständig.

technisch eleganter wäre es aufjedenfall würde man die GPUs aufs stromsparen ausrichten statt diesen umweg da inkauf zu nehmen...das spart kurzfristig schlicht entwicklungskosten auf seiten des entwicklers...ist aber sicher nicht der sinnvollere weg weil es nur andere probleme erzeugt um das eine zu lösen! witzig und interessant ist der trend allemal...der setzt aber darauf das es allerorten nur noch chipsätze mit IGPs geben wird womit dort wieder die komplexität steigt.

mir persönlich ist es letztlich egal wie es geschieht solange die BQ nicht drunter leidet und die erhöhte komplexität eines solchen konstrukts sich nicht negativ auf die stabilität und fehleranfälligkeit auswirkt.

der witz an der ganzen geschichte ist doch das mit vista EXTRA die trennung von 2D und 3D funktionen aufgehoben wurde und defakto der 3D teil für die 2D darstellung zuständig ist...nun aber auf hardware ebene eine technische trennung stattfindet wo nen extra 3D(!) chip für die 2D darstellung herrangezogen wird ;D ich finde das absurd...sry

Gerhard
2007-07-15, 12:56:12
Zur S3Virge möchte ich sagen, die war meiner Meinung nach seinerzeit vom Fokus ganz klar auf 2D und Video ausgerichtet (auch wenn es von manchen Grafikkartenherstellern anders beworben wurde). Und das erledigte sie für die damalige Zeit recht gut, auch die Treiber waren für 2D ausgereift.
Das 3D-Geschwindigkeit nicht im Fokus war zeigte sich auch daran, das ich meine mit einem Tool um 100% übertakten konnte, das ganze ohne Kühlkörper. Ungenutzte reserven waren damit durchaus da.
(Die Framerate in Descent stieg damit von 15-20fps auf brachbare 30-40fps bei 512x383). Zu der Zeit wollte aber noch jeder Hersteller seine eigene 3D-Schnittstelle für Windows anpreisen, mit D3D harmonierte die Karte nicht wirklich.

Coda
2007-07-15, 13:03:55
Doom 3 in 1024x768 schon im Menü derbe am Ruckeln (nahezu unbedienbar).
Da hat dann aber mit Sicherheit was anderes nicht gepasst.

Der Gewinner ist eindeutig die Volari. LOD-Bias-AF, Blur-AA und unglaublich miserable Treiber verbunden mit unterirdischer Performance. Diskussion beendet ;)

Demirug
2007-07-15, 13:12:17
Matrox Pharelia. Der verzweifelte Versuch mit fixed function Technik eine Shader Karte zu bauen.

Undertaker
2007-07-15, 13:12:58
klar alles quark jojo...erst gabs 3d karten als addon...dann wurden sie integriert!
erst gabs FPUs als separate einheiten dann wurde es integriert!
aber klar alles quark und ich liege vollkommen falsch weil der "trend" was anderes sagt.

ganz genau, weil erst jetzt der steigende stromverbrauch ein umdenken nötig macht

es frisst mehr ressourcen nen chip + pcb layout + componenten + treiber + passende system umgebung zu entwerfen UND herzustellen als das was vorhanden ist auszunutzen. nochdazu erhöht es unnötig die komplexität des systems...je komplexer desto fehleranfälliger! tolle neue hardware welt :rolleyes:

das was hier nur passiert ist das die vohandene hardwarebasis (passable und vista taugliches IGPs gibt es ja) für nen workaround genutzt wird um kurzfristig ne lösung zu schaffen die zwar funktioniert aber letztlich immernoch nen kompromiss ist :|

da könnte man auch argumentieren das man die einzelnen komponenten einer CPU auch wieder auslagert weil man damit potenziell mehr strom sparen kann. die FPU/SIMD einheiten braucht man auch nicht ständig.

technisch eleganter wäre es aufjedenfall würde man die GPUs aufs stromsparen ausrichten statt diesen umweg da inkauf zu nehmen...das spart kurzfristig schlicht entwicklungskosten auf seiten des entwicklers...ist aber sicher nicht der sinnvollere weg weil es nur andere probleme erzeugt um das eine zu lösen! witzig und interessant ist der trend allemal...der setzt aber darauf das es allerorten nur noch chipsätze mit IGPs geben wird womit dort wieder die komplexität steigt.

mir persönlich ist es letztlich egal wie es geschieht solange die BQ nicht drunter leidet und die erhöhte komplexität eines solchen konstrukts sich nicht negativ auf die stabilität und fehleranfälligkeit auswirkt.

der witz an der ganzen geschichte ist doch das mit vista EXTRA die trennung von 2D und 3D funktionen aufgehoben wurde und defakto der 3D teil für die 2D darstellung zuständig ist...nun aber auf hardware ebene eine technische trennung stattfindet wo nen extra 3D(!) chip für die 2D darstellung herrangezogen wird ;D ich finde das absurd...sry

wie man das findet ist jedem selbst überlassen, aber ein heer von ingenieuren und technikern hat da gewiss weit länger dran getüftelt als wir und die werden das oben erwähnte "hybrid sli" nicht zum spaß entwickeln ;) wie gesagt: die verbrauchseinsparungen sind erheblich, der transistorenaufwand gering, die gewiss durchaus anspruchsvolle entwicklungsphase nur einmal zu bewältigen - und sag nur du hättest etwas dagegen, wenn dein mainboard über einen simpeln grafikchip verfügen würde (der keine 5€ aufpreis kosten würde), der automatisch im 2d-betrieb einspringt und die hauptkarte abschaltet, natürlich vollautomatisch und ohne monitor umgestöpsel ;)

Coda
2007-07-15, 13:13:28
Matrox Pharelia. Der verzweifelte Versuch mit fixed function Technik eine Shader Karte zu bauen.
Wie meinst du das? War doch bei der GeForce 3 auch so (wenn auch wohl nicht verzweifelt ;) )

Kira
2007-07-15, 13:24:42
meine Meinung nach die:

Geforce 2 Mx 200

Joolz
2007-07-15, 13:26:47
Inzwischen müsste eigentlich jede Karte mindestens einmal genannt worden sein ;D
Und manche sogar 10x. nVidia ist echt der Gurkenkönig, . Als ob 64bit nicht schon genug wären, nein, sie setzen noch 32bit drauf. Sowas würde ich höchstens als 5€ Mobo-Feature eines Billigboardherstellers hinnehmen, aber die machen sogar ne ganze Karte draus. Hier hab ich nen 1,3Ghz Duron mit Gf52-64bit und ich kriege bei Splinter Cell 1 ca. 7fps in 640. Ich habe sie getauscht gegen meine Gf2mx classic und sie war tatsächlich langsamer. Da würde mich mal so ne neue 32bitTurbocache interessieren.

Savay
2007-07-15, 13:27:33
ganz genau, weil erst jetzt der steigende stromverbrauch ein umdenken nötig macht



wie man das findet ist jedem selbst überlassen, aber ein heer von ingenieuren und technikern hat da gewiss weit länger dran getüftelt als wir und die werden das oben erwähnte "hybrid sli" nicht zum spaß entwickeln ;) wie gesagt: die verbrauchseinsparungen sind erheblich, der transistorenaufwand gering, die gewiss durchaus anspruchsvolle entwicklungsphase nur einmal zu bewältigen - und sag nur du hättest etwas dagegen, wenn dein mainboard über einen simpeln grafikchip verfügen würde (der keine 5€ aufpreis kosten würde), der automatisch im 2d-betrieb einspringt und die hauptkarte abschaltet, natürlich vollautomatisch und ohne monitor umgestöpsel ;)

wie gesagt mir ist es egal wie es umgesetzt wird...nur weil es so geschieht ist es aber trotzdem nicht die elegantere methode.

ich finds nur komisch das man nicht dynamisch und on the fly den chip runtertakten und einfach pipes und recheneinheiten auschalten kann statt nen hochkomplexes und fehleranfälliges treiberkonstrukt zu entwerfen das dazu führt das die bussysteme unnötig belastet werden, der verwaltungsaufwand steigt und allgemein die generelle systemlast irgendwie erhöhen muss.

for free gibts so nen gimmick nie im leben das wäre blauäugig das anzunehmen

wenns über den selben DVI laufen soll (nach dem motto der IGP rechnet die SLI kombo spuckt es aus) MÜSSEN die daten ja irgendwie in den framebuffer und durch die "3d" karte durchgeschleust werden was dazu führt das die IRGENDWIE ja immernoch "an" sein muss. vorallem ist mein ein rätzel wie man dann komplexe 3d anwendungen die in einem fenster laufen beschleunigen will...ich sehe da einfach nur mehr probleme als nutzen. (rechnet der IGP das GUI und die GPU das 3D Frame? rechnet der IGP alles oder die GPU dann alles...wie verhält sich das system beim umschalten vom vollbild in den fenstermodus...etc. pp)

und wenn es so abläuft wie beschrieben dann könnte man auch einfach "den IGP" aufs selbe Die wie von der 3d karte klatschen...sozusagen 2 grafikkarten auf einem Die und den rest abschalten OHNE das man unnötig den systembus belastet womit wir dann auch defakto den "IGP" auf dem Die sparen könnten wenn wir dynamisch chipteile abschalten und runtertakten würden :rolleyes: ;D noch dazu wird das layout des MBs nicht unnötig kompliziert

ich hab schlicht den eindruck das es ne übergangslösung ist! naja aber lassen wir das wir wollen den thread ja nicht dermaßen mit nem OT zumüllen :tongue:

Undertaker
2007-07-15, 13:32:31
andersrum wirds wohl laufen: die ausgabe kommt immer über den igp, der dauerhaft läuft und so in 3d-anwendungen sogar noch ein paar nebenaufgaben übernehmen kann - das die benötigte bandbreite nicht sehr groß ist hatten wir schon in dem anderen thread, nötig sind nur ein paar hundert mb von den 4gb/s von pcie 16x

Savay
2007-07-15, 13:44:39
das ist ja noch schlimmer wenns immer über den IGP läuft...der framebuffer liegt immer im Arbeitsspeicher? :eek:

und wie soll der bitte bei den heute üblichen SLI/CF modi irgendwo sinnvoll "mitrechnen" die heute üblichen render verfahren sind ja nun nicht grad SMP artig auslager und erweiterbar ohne die kapazitäten des systembusses nicht wirklich zu sprengen! :| wie verhält sich das latenz mäßig...

vertrauenserweckend klingt das für mich nicht aber wir werden sehen wie es sich entwickelt...PhysX ist in der theorie ja auch arg toll :rolleyes:

nggalai
2007-07-15, 13:47:05
Wuzz? :|
Die GF4MX war beim Erscheinen sehr billig und sau schnell. Zumal damals eh kaum Gebrauch von Pixelshading gemacht worden ist.
Ich hab die reingenommen wegen des Marketings –*GF4 eben. Da sind auch nicht wenige Leute in meinem Umfeld auf die Schnauze gefallen mit. :D

Modulor
2007-07-15, 13:49:09
Die einzige Karte die ich besessen und als "Gurke" einstufen würde war die Kyro-2.
...
Leider mangelte es wohl an den Treibern und wohl auch am Support durch die Spielehersteller.

Ich denke in diesem thread geht es um fehlerhaftes/mangelhaftes Hardwaredesign und "Versäumisse" bei dieser und nicht um Nachteile die durch mangelhaften Support seitens der Spieleprogrammierer entstehen. Deswegen kann man PowerVR keinerlei Schlamperei beim Design des KYRO vorwerfen. Gut jedoch daß es nie eine "KYRO 4800" gegeben hat - denn die wäre mit Sicherheit ein Kandidat für die Liste gewesen :D

Coda
2007-07-15, 13:49:51
Und manche sogar 10x. nVidia ist echt der Gurkenkönig, . Als ob 64bit nicht schon genug wären, nein, sie setzen noch 32bit drauf. Sowas würde ich höchstens als 5€ Mobo-Feature eines Billigboardherstellers hinnehmen, aber die machen sogar ne ganze Karte draus. Hier hab ich nen 1,3Ghz Duron mit Gf52-64bit und ich kriege bei Splinter Cell 1 ca. 7fps in 640. Ich habe sie getauscht gegen meine Gf2mx classic und sie war tatsächlich langsamer. Da würde mich mal so ne neue 32bitTurbocache interessieren.
Es gibt auch von ATI 32-Bit-Karten.

_DrillSarge]I[
2007-07-15, 13:50:19
ne gf4mx war nun wahrlich nicht als schnell zu bezeichnen. das ding bricht in höheren auflösungen so extrem ein, da war ich mit meiner r100 karte viel besser drann.

Raff
2007-07-15, 14:00:37
I[;5671422']ne gf4mx war nun wahrlich nicht als schnell zu bezeichnen. das ding bricht in höheren auflösungen so extrem ein, da war ich mit meiner r100 karte viel besser drann.

Die MX-460 hat (bei gleichen Details) idR eine GeForce3 überholt. Die MX-440 konnte IIRC noch gut mit einer GF3 Ti-200 mithalten. Nur die MX-420 ist Kot, da nur mit - Überraschung - einem 64-Bit-Speicherinterface.

MfG,
Raff

_DrillSarge]I[
2007-07-15, 14:03:41
Die MX-460 hat (bei gleichen Details) idR eine GeForce3 überholt. Die MX-440 konnte IIRC noch gut mit einer GF3 Ti-200 mithalten. Nur die MX-420 ist Kot, da nur mit - Überraschung - einem 64-Bit-Speicherinterface.

MfG,
Raff

wenn man 800x600 spielt vielleicht. habe soldier of fortune 2 auf einer mx440 "genießen" dürfen.

Raff
2007-07-15, 14:11:21
I[;5671467']wenn man 800x600 spielt vielleicht. habe soldier of fortune 2 auf einer mx440 "genießen" dürfen.

Na komm, so schlimm kann's nicht gewesen sein. ;) Schau mal ab hier: http://3dcenter.de/artikel/voodoo5-6000/index9.php

In den Tests ohne CPU-Limit ist die MX-440 im Schnitt 10-15% langsamer als eine Ti-200. Die MX-460 hat satte 38% mehr RAM-Takt.

MfG,
Raff

_DrillSarge]I[
2007-07-15, 14:17:12
die mx440/460 war meiner erfahrung (vielleicht sagt die theorie was anderes) eine unperformante mistkarte. schneller (was die mx natürlich nicht war) als ne gf3 zu sein war auch nicht so schwer, selbst ne normale gf2 gts war zum Teil schneller. von den mx-en der gf-serie war eigentlich nur die gf2mx zu gebrauchen (preis/leistung).

€: noch ne gurke: der ati rv100. während der r100 für mich eine der besten grafikkarten ist/war, war die abgespeckte variante totale schrott: kein TnL, kein HyperZ und der berüchtigte 64bit Bus. PFUI

Undertaker
2007-07-15, 14:37:06
das ist ja noch schlimmer wenns immer über den IGP läuft...der framebuffer liegt immer im Arbeitsspeicher? :eek:

und wie soll der bitte bei den heute üblichen SLI/CF modi irgendwo sinnvoll "mitrechnen" die heute üblichen render verfahren sind ja nun nicht grad SMP artig auslager und erweiterbar ohne die kapazitäten des systembusses nicht wirklich zu sprengen! :| wie verhält sich das latenz mäßig...

vertrauenserweckend klingt das für mich nicht aber wir werden sehen wie es sich entwickelt...PhysX ist in der theorie ja auch arg toll :rolleyes:

ähm, was stören dich 6,6mb framebuffer bei 1920x1200? bzgl latenz und bandbreite verhält sich das ganze nicht anders als ein normales sli, da kommt das bild auch nur aus einer karte ;) das klappt auch ohne sli bridge, und selber wenn der igp nur 5% des bildes berechnet ist das doch kein nachteil - jedes % ist ein geschenkter gewinn ;) mit dem beispiel physx hat das gar nix zu tun, dass ist normales, bewährtes sli nur mit 2 verschiedenen chips und abschaltfunktion der hauptkarte

der_roadrunner
2007-07-15, 14:54:34
Also ich hab' selber noch 'ne Geforce 4 MX440, die mittlerweile im Rechner meiner Mutter arbeitet und ich war immer recht zufrieden mit dem Teil. Natürlich darf man keine Wunder erwarten (meine Ti zieht die gnadenlos ab) aber so für etwas ältere Titel ist die schon zu gebrauchen.

der roadrunner

seahawk
2007-07-15, 15:34:04
Willst du trollen oder meinst du das ernst? :|

Ok, leicht verbessert trifft beim NV40 gegenüber dem NV30 nicht, im Rückblich sind die Karte naber doch ziemlich Luftnummern gewesen, die nur zum Erscheien gute Leistungen lieferten. Man versuche mal heute ein SM3.0 Spiel auf einem NV40 zu spielen. ;D

_DrillSarge]I[
2007-07-15, 15:38:41
oder half-life 2 auf nv30 ;D

Coda
2007-07-15, 15:48:48
HL2 läuft auf NV30 im DX8.1-Pfad und das ziemlich gut.

aths
2007-07-15, 15:48:49
GeForce FX 5200, v.a. die mit 64 Bit. Ich verstehe gar nicht, warum sich so viele Leute von der Karte haben blenden lassen. Sogar eine GeForce 4 Ti haben manche gegen die FX 5200 getauscht, nur um DX9 zu haben.
Ich hab bisher zwei FX 5200 in Aktion gesehen und es war unglaublich bescheiden. Farcry in 640x480 bei mittleren Details gerade so steuerbar, Doom 3 in 1024x768 schon im Menü derbe am Ruckeln (nahezu unbedienbar).Ein Kumpel von mir hat Doom 3 auf einer FX 5200 (mit 64-Bit-SI) durchgespielt ... unter Linux.

Die FX 5200 war aber eh nicht als Zockerkarte gedacht.

Ich fand meine Voodoo Banshee nicht crappy. Konnte damit auch ohne SLI das meiste in 1024x768 zocken. Mit einer Voodoo 2 hätte ich mit 800x600 vorlieb nehmen müssen. Sofern allerdings Multitexturing unterstützt wurde, hat jede Voodoo 2 die Banshee übelst abgerult.

aths
2007-07-15, 15:52:34
Tss... das is echt zu einfach. Gf5200-128mb-64bit mit ner 2D-Bildqualität scharf bis 1024 im lowest profile Bauform. Ich schätze, bei DX7 versagt sie noch jämmerlich gegen ne gf2mx-200, gegen ne kyro1 sowiesoGegen Kyro 1 müsste man sie mal antreten lassen. Von einer MX-200 wird die 5200 natürlich nicht abgezogen. Die 5200 hat auch immerhin schon Early-Z.


And zeh Winner is....
PS2 Graphics Synthesizer. Voodoo1 Features bis ins Jahr 2007. Flimmergrafik, 100 not-Features, Perspektivenkorrektur, 128² 8bit Texturen, unkomprimierte Texturen, wg. 4MB VRam k. Mipmapping möglichOMG. MIP-Mapping ist möglich. Texturen streamt man auf der PS2 auch gerne aus dem RAM. http://www.dudv.de/blog/?p=65 Ich habe mindestens ein Spiel für die PS2, welches trilinear filtert (was MIP-Mapping ja inkludiert.)

_DrillSarge]I[
2007-07-15, 15:52:58
HL2 läuft auf NV30 im DX8.1-Pfad und das ziemlich gut.

unter dx9 gabs (anfangs) kein wasser, hehe

_DrillSarge]I[
2007-07-15, 15:53:55
Gegen Kyro 1 müsste man sie mal antreten lassen. Von einer MX-200 wird die 5200 natürlich nicht abgezogen. Die 5200 hat auch immerhin schon Early-Z.

von einer 8500 (auf jeden fall) oder sogar 9200 (nicht se) allerdings schon

aber die 5200 wurde auf jeden fall als zockerkarte vermarktet.

Savay
2007-07-15, 15:56:33
ähm, was stören dich 6,6mb framebuffer bei 1920x1200? bzgl latenz und bandbreite verhält sich das ganze nicht anders als ein normales sli, da kommt das bild auch nur aus einer karte ;) das klappt auch ohne sli bridge, und selber wenn der igp nur 5% des bildes berechnet ist das doch kein nachteil - jedes % ist ein geschenkter gewinn ;) mit dem beispiel physx hat das gar nix zu tun, dass ist normales, bewährtes sli nur mit 2 verschiedenen chips und abschaltfunktion der hauptkarte

bezüglich "mitrechnen":
asynchrones SLI wo wir schon bei synchronem stellenweise solche
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=371844
phänomene erkennen können?! na hf...überspitzt formuliert dann für 5% mehr tatsächlichen fps ca 50% weniger "gefühlte" fps :|

den framebuffer in den ram zu verlagern hat schon einige nachteile...wie gesagt 3d anwendungen die im fenster laufen lassen sich da schwer bis unmöglich realisieren, der treiber und verwaltungs aufwand steigt unnötig...und latenzen spielen immer ne rolle. dazu kommt DVI ausgang ist nicht immer DVI ausgang etc. pp also legt man bei nem guten mobo sicher mehr als 5€ drauf...zumal sich das eher auf den reinen mehrpreis des chipsatzes beziehen dürfte

mal ganz im ernst...du findest diese SLi lösung ernsthaft eleganter und technisch sinnvoller als ne GPU die im 2D betrieb nicht benötigte rechenwerke stilllegt und massiv heruntertaktet und CnQ like die Spannung reduziert? wenn ja warum? welchen vorteil hat das ausser die schnellere realisierbarkeit? für mich sieht das alles mehr nach nem marketing schachzug denn einer ernsthaften problembewältigung aus...

aths
2007-07-15, 16:01:04
Voodoo & Voodoo 2 Karten - verwandelten jedes gute 2D Signal in ein Matschbild.Wegen dem 2D-Signal musste nach dem Kauf eines neuen Monitors, der ENDLICH 1024x768 erlaubte (und das locker in 85 Hz!!) eine Banshee kaufen. Für PCI noch, da ich noch kein AGP-System hatte. Also zahlte ich den PCI-Aufschlag (die Karten waren kaum noch zu kriegen) – und stellte wenige Monate später auf AGP um, grrr. (IIRC, vom P200 MMX @225 MHz auf K6-2 400.)

aths
2007-07-15, 16:02:28
I[;5671744']aber die 5200 wurde auf jeden fall als zockerkarte vermarktet.Von wem denn? Von Nvidia nicht.

Die normale FX 5200 ist aber auch schon sehr schlimm. Die FX 5200en, die ich getestet habe, hatten ein 128 Bit SI.Mit 128-Bit-SI sind die doch gar nicht schlecht. Rulen jede GeForce 2 MX weg, die (als Zockerkarte!) durchaus noch verbreitet waren. Für das Geld boten die 5200-er einiges, darunter MSAA und sehr gutes AF – beides konnte man in damals älteren oder anspruchsloseren Spielen durchaus nutzen.

Wer lästert jetzt über die AMD-64-Bit-Karten (D3D10) oder die NV-64-Bit-Karten (D3D10), dass das Gurken seien – weil man auf denen ja kaum spielen kann? Die Unterstützung einer hohen D3D-Version sagt doch nichts über die Zocktauglichkeit aus.

aths
2007-07-15, 16:05:33
Also, ich mochte meine FX 5800. Allerdings non-ultra, die Ultra war wohl wirklich ein Griff ins Klo (Staubsauger ahoi).Ich mochte meine Ti 4600 und meine FX 5900. Was die FX 5800 bringt kann ich mir also ungefähr ausmalen. Als es die 5800-er im Ausverkauf gab, machte iirc der eine oder andere noch ein Schnäppchen.

Auch die Banshee hatte ich, und „meine“ Spiele liefen damit mehr als anständig. Als ich mir dann eine Voodoo3 reinsteckte, merkte ich erst, wie schwach die Karte auf der Brust war … aber hat sich für den Zeitraum gelohnt.Ja. Ich zockte auf der Banshee am Ende gnadenlos alles in 640x480, um die 60 Frames zu haben. UT konnte ich dann auf der Voodoo4 4500 in 1024x768 zocken – und hatte auch noch ca. 75 fps.

Quake 3 allerdings zockte ich auch auf der Voodoo4 dann wieder in 640x480 – damit ich mir 32 Bit erlauben konnte.

Max Payne zockte ich in 576x768 in 16 Bit – damit ich mir Antialiasing erlauben konnte.

_DrillSarge]I[
2007-07-15, 16:08:11
Von wem denn? Von Nvidia nicht.

Mit 128-Bit-SI sind die doch gar nicht schlecht. Rulen jede GeForce 2 MX weg, die (als Zockerkarte!) durchaus noch verbreitet waren.
von den ganzen boardherstellern (ich erinnere mich an ne msi-karte, finde gerade kein bild vom karton)

aths
2007-07-15, 16:09:17
Ok, leicht verbessert trifft beim NV40 gegenüber dem NV30 nicht, im Rückblich sind die Karte naber doch ziemlich Luftnummern gewesen, die nur zum Erscheien gute Leistungen lieferten. Man versuche mal heute ein SM3.0 Spiel auf einem NV40 zu spielen. ;DMan versuche heute mal, auf einer Radeon 9700 im Shader 16 Texturen und 64 arithmetische Befehle zu nutzen. ;D

Savay
2007-07-15, 16:10:09
(...)

Wer lästert jetzt über die AMD-64-Bit-Karten (D3D10) oder die NV-64-Bit-Karten (D3D10), dass das Gurken seien – weil man auf denen ja kaum spielen kann? Die Unterstützung einer hohen D3D-Version sagt doch nichts über die Zocktauglichkeit aus.

die neuen 128bit karten sind alle schon gurkig genug da braucht man schon nicht mehr über den 64bit schrott zu lästern sondern breite erstmal ne weile ein mäntelchen des schweigens aus...momentan ist das nämlich eher zum heulen als zum lachen was die sich im sub 300€ markt für DX10 erlauben. :rolleyes:

vielleicht wenn sich die emotionen etwas gelegt haben diesbezüglich :tongue:

Savay
2007-07-15, 16:11:22
Man versuche heute mal, auf einer Radeon 9700 im Shader 16 Texturen und 64 arithmetische Befehle zu nutzen. ;D

nun aufm r300 sind aber immerhin noch einige SM2 titel ganz passabel spielbar ;)

Sonyfreak
2007-07-15, 16:12:03
Man versuche mal heute ein SM3.0 Spiel auf einem NV40 zu spielen. ;DMan versuche mal auf der vergleichbaren ATI Karte ein SM 3.0 Spiel zu starten.... :|

mfg.

Sonyfreak

_DrillSarge]I[
2007-07-15, 16:12:07
solange immer direct3d10, HD, 256MB draufsteht wirds gekauft, auch für 50€

_DrillSarge]I[
2007-07-15, 16:14:41
Man versuche heute mal, auf einer Radeon 9700 im Shader 16 Texturen und 64 arithmetische Befehle zu nutzen. ;D

:crazy2: wer macht sowas??? auch heute auf aktueller hw

64 pro textur?

Savay
2007-07-15, 16:16:12
Man versuche mal auf der vergleichbaren ATI Karte ein SM 3.0 Spiel zu starten.... :|

mfg.

Sonyfreak

die "vergleichbaren" haben kein SM3 :| wenn du natürlich grade darauf anspielst...nen schuster der bei seinen leisten bleibt ist mir persönlich sympathischer als nen luftikus ;D

ansonsten kannst ja auf ner x1800/1900 den versuch starten... dabei prophezeihe ich dir recht befriedigende ergebnisse :rolleyes:

BAGZZlash
2007-07-15, 16:23:51
Max Payne zockte ich in 576x768 in 16 Bit – damit ich mir Antialiasing erlauben konnte.


Mein Gott, bist Du schmerzfrei! :smile: Respekt! (y)

Coda
2007-07-15, 16:25:46
Man versuche heute mal, auf einer Radeon 9700 im Shader 16 Texturen und 64 arithmetische Befehle zu nutzen. ;D
Man könnte sogar 32x Texturen samplen.

I[;5671795']:crazy2: wer macht sowas??? auch heute auf aktueller hw

64 pro textur?
Nein 64 insgesamt. Und 64 ALU-Ops sind nichts ungewöhnliches mehr.

StefanV
2007-07-15, 16:26:00
Sofern allerdings Multitexturing unterstützt wurde, hat jede Voodoo 2 die Banshee übelst abgerult.
...aber nur in 800x600 oder 1024x768 im SLI Verbund, ab 1280x1024 hat die Banshee die 2er so dermaßen geplättet, das gibts nicht :ugly:

_DrillSarge]I[
2007-07-15, 16:27:37
...aber nur in 800x600 oder 1024x768 im SLI Verbund, ab 1280x1024 hat die Banshee die 2er so dermaßen geplättet, das gibts nicht :ugly:
nix 1280x1024 auf v2

Savay
2007-07-15, 16:29:00
I[;5671824']nix 1280x1024 auf v2

ich glaube das wollte er damit ausdrücken :wink: btw ich hätte bei dem geschwätz fast lust meine 8MB V² rauszukramen und ne runde U1 zu zocken. apropros 8MB V²...wofür genau gabs die unnötig teure 12MB version noch gleich :|

...tada neuer gurken award kandidat:

12MB VooDoo2 :tongue:

geldfressendes scheißding :rolleyes:

_DrillSarge]I[
2007-07-15, 16:30:09
ich glaube das wollte er damit ausdrücken :wink:
ich glaub isch'atte zuwenig kaffee heute

Undertaker
2007-07-15, 16:46:51
bezüglich "mitrechnen":
asynchrones SLI wo wir schon bei synchronem stellenweise solche
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=371844
phänomene erkennen können?! na hf...überspitzt formuliert dann für 5% mehr tatsächlichen fps ca 50% weniger "gefühlte" fps :|

beachten: im ungünstigsten fall war sli dort so langsam wie eine einzelkarte - mehr kann also in unserem beispiel auch nicht passieren; ich habs schon gesagt: jedes %, was evntl herauskommt, ist geschenkt, und wie sagt man so schön ;)

den framebuffer in den ram zu verlagern hat schon einige nachteile...wie gesagt 3d anwendungen die im fenster laufen lassen sich da schwer bis unmöglich realisieren, der treiber und verwaltungs aufwand steigt unnötig...und latenzen spielen immer ne rolle. dazu kommt DVI ausgang ist nicht immer DVI ausgang etc. pp also legt man bei nem guten mobo sicher mehr als 5€ drauf...zumal sich das eher auf den reinen mehrpreis des chipsatzes beziehen dürfte

du verstehst die problematik nicht: im schlimmsten fall hat man keinen performancegewinn, aber ein nachteil entsteht dadurch nicht... und wer sagt eigentlich, das im 3d-modus der framebuffer nicht auch auf der "großen" karte liegen kann? sollte gehen, und das dvi signal einmal durch den pcie bus zu schleifen kostet kaum nennenswert bandbreite geschweige denn latenzen. wenn sich das durchsetzt werden wir keine nennenswerten aufpreise sehen, ein chipsatz mit igp hat halt auch nicht so schrecklich viele transistoren mehr (schau mal bei geizhals die billigsten am2 boards an, die haben alle integrierte grafik! da merkst du, das kostet letztlich gar nix)

mal ganz im ernst...du findest diese SLi lösung ernsthaft eleganter und technisch sinnvoller als ne GPU die im 2D betrieb nicht benötigte rechenwerke stilllegt und massiv heruntertaktet und CnQ like die Spannung reduziert? wenn ja warum? welchen vorteil hat das ausser die schnellere realisierbarkeit? für mich sieht das alles mehr nach nem marketing schachzug denn einer ernsthaften problembewältigung aus...

eleganter? nein, keinesfalls. aber es ist die lösung mit dem meisten einsparpotenzial, einen g80/r600 wirst du nicht unter 30w bekommen

Savay
2007-07-15, 17:08:10
eleganter? nein, keinesfalls. aber es ist die lösung mit dem meisten einsparpotenzial, einen g80/r600 wirst du nicht unter 30w bekommen

und du unterschätzt die probleme die mit so ner lösung einhergehen...SLi erzeugt z.B. auch nen verwaltungsaufwand...wenn dir ne asynchrone SLI bestückung 5% mehr performance bietet heißt das mit nichten das du immer das minimum der schnellsten karte siehst. es passiert dir auch sehr schnell das es dann langsamer als ohne SLi läuft :|

die leistungsaufnahme steigt exponentiell mit der angelegten spannung...
senke den Vcore um 25% den takt um 66% und schalte alle Quadpipes bis auf eine ab...dann schauen wir mal was die so verbrauchen...was verschlingt nen RV610 den du mit weniger spannung und nur noch mit ~250-300MHz taktest. unter volllast zieht das ding ca 25watt bei 700Mhz und vollem VCore...und das wenn ne 3d anwendung läuft. soviel zum einspaarpotenzial.

es umgeht aber die ganze verwaltungs und treiberscheiße und geht perse auch ohne mainboard mit IGP. diese tolle SLi lösung ist nur JETZT billiger für den entwickler...und beschert ihnen irgendwann nen marketing argument weil es schon mit momentan verfügbarer hardware laufen würde...getreu nach dem motto "the worlds first energy efficient 3D accelerator!"

ich kann das getöse darum jetzt schon sehen...und schwupps irgendwann wirds doch wieder aufm selben silizium integriert weils DOCH billiger zu produzieren ist und weil die peripherie und die treiberumgebung einfacher zu handhaben ist und weniger probleme erzeugt. :rolleyes:

Sonyfreak
2007-07-15, 17:19:18
ansonsten kannst ja auf ner x1800/1900 den versuch starten... dabei prophezeihe ich dir recht befriedigende ergebnisse :rolleyes:Das heißt, dass eine Grafikkarte, die ein- bzw. eineinhalb Generationen auf den Markt kam, tatsächlich besser für SM 3.0 ausgelegt war als NV40? Damit hätte ich nun wirklich nicht gerechnet.

Die 6800er Serie war damals als sie erschien sowohl leistungsstark, als auch featuremäßig top.

mfg.

Sonyfreak

Savay
2007-07-15, 17:25:54
ja ich fand meine NV40 auch top bis sie abgeraucht ist...ABER NV karten der "neuen generation" haben (merke: die refreshchips unterliegen anderen maßstäben) generell folgende eigenschaften:

- sie sind super benchmark GPUs
- sie haben tolle ub0r features
- ihnen geht verdammt schnell die puste aus

wer groß damit rumprahlt SM3 (!!!1elf) taugliche rechenwerke in ihre geile neue architetktur einzubauen der muss sich auch in der retrospektive daran messen lassen ob die karte hält was sie verspricht! und das ist...TADA surpise...wie SM3 spiele und anwendungen darauf laufen

man kann natürlich argumentieren es diene dem technischen fortschritt mit features zu werben die in der lebzeit des produkts niemals sinnvoll zum einsatz kommen werden! :rolleyes:
oh nicht falsch verstehen da ist bestimmt was dran...marktdurchdringung spielt sicher ne rolle. hätte es anno 2004 den NV40 nicht gegeben würde es 2008 sicher nicht die flut der SM3 spiele geben die uns da erwartet ;D

Undertaker
2007-07-15, 17:30:01
und du unterschätzt die probleme die mit so ner lösung einhergehen...SLi erzeugt z.B. auch nen verwaltungsaufwand...wenn dir ne asynchrone SLI bestückung 5% mehr performance bietet heißt das mit nichten das du immer das minimum der schnellsten karte siehst. es passiert dir auch sehr schnell das es dann langsamer als ohne SLi läuft :|

quelle? wenn so etwas passiert liegt das nicht am verwaltungsaufwand sondern wohl eher an treiberproblemen und selbst wenn diese auftreten, dann kann man es immernoch nur auf der hauptkarte rendern lassen - du siehst also, man wird zumindest keinesfalls langsamer werden ;)

die leistungsaufnahme steigt exponentiell mit der angelegten spannung...
senke den Vcore um 25% den takt um 66% und schalte alle Quadpipes bis auf eine ab...dann schauen wir mal was die so verbrauchen...was verschlingt nen RV610 den du mit weniger spannung und nur noch mit ~250-300MHz taktest. unter volllast zieht das ding ca 25watt bei 700Mhz und vollem VCore...und das wenn ne 3d anwendung läuft. soviel zum einspaarpotenzial.

ähm, also erstmal reden wir von high-end chips, zu denen zählt ein rv610 gewiss nicht; desweiteren ist deine rechnung auch nicht ganz richtig, du hast eine menge "grundumsatz", dh. selbst bei nur einem "quad" (so kann man das glaube ich bei r600/g80 nicht mehr nennen) und 10mhz takt hast du noch zweistellige wattzahlen, das ganze pcb, im niedriglastbereich ineffiziente spannungswandler usw fressen den großteil der leistung im idle - auch jetzt schon

es umgeht aber die ganze verwaltungs und treiberscheiße und geht perse auch ohne mainboard mit IGP. diese tolle SLi lösung ist nur JETZT billiger für den entwickler...und beschert ihnen irgendwann nen marketing argument weil es schon mit momentan verfügbarer hardware laufen würde...getreu nach dem motto "the worlds first energy efficient 3D accelerator!"

ich kann das getöse darum jetzt schon sehen...und schwupps irgendwann wirds doch wieder aufm selben silizium integriert weils DOCH billiger zu produzieren ist und weil die peripherie und die treiberumgebung einfacher zu handhaben ist und weniger probleme erzeugt. :rolleyes:

nein. es ist einfach nicht möglich einen chip für alles zu bauen. wenn du einen 500ps sportwagen entwickelst kannst du an dem auch soviel optimieren und zylinder abschalten wie du willst, auf den stadtverbrauch eines 3l lupo kommst du so nie. und deswegen nimmt man auch den, wie bereits erwähnt geringen, transistoren-mehrbedarf in kauf. was sind 50mio eines igp gegen 700mio eines g80?

Gast
2007-07-15, 17:38:10
ja ich fand meine NV40 auch top bis sie abgeraucht ist...ABER NV karten der "neuen generation" haben (merke die refreshchips unterliegen anderen maßstäben) generell folgende eigenschaften:

- sie sind super benchmark GPUs
- sie haben tolle ub0r features
- ihnen geht verdammt schnell die puste aus

Ach, das ist bei ATi nicht so?

wer groß damit rumprahlt SM3 (!!!1elf) taugliche rechenwerke in ihre geile neue architetktur einzubauen der muss sich auch in der retrospektive daran messen lassen ob die karte hält was sie verspricht! und das ist...TADA surpise...wie SM3 spiele und anwendungen darauf laufen

Sie laufen doch, oder? Und die ersten Spiele liefen sehr gut.


man kann natürlich argumentieren es diene dem technischen fortschritt mit features zu werben die in der lebzeit des produkts niemals sinnvoll zum einsatz kommen wird! :rolleyes: oh nicht falsch verstehen da ist bestimmt was dran...marktdurchdringung spielt sicher ne rolle. hätte es anno 2004 den NV40 nicht gegeben würde es 2008 sicher nicht die flut der SM3 spiele geben die uns da erwartet ;D

Du bist mir einer. Ohne dem NV40 gäbe es kein Farcry mit HDR-L. Kein SeSam 2 mit FP16 Genauigkeit und FP Filterung. Kein Splinter Cell 3 mit dem SM3.0 Pfad. Kein Age of Empire mit FP16 Genauigkeit. Es ist nVidia zu verdanken, dass es Spiele beim Erscheinen von ATi's erster SM3.0 Hardware gab.
Und unter SM2.x ist der NV40 keine schlechtere Karte als der r420 gewesen.
Aber da sist eben das Problem von einigen: Statt das ganze zu sehen, wird nur immer ein Teil betrachtet.

die "vergleichbaren" haben kein SM3 :| wenn du natürlich grade darauf anspielst...nen schuster der bei seinen leisten bleibt ist mir persönlich sympathischer als nen luftikus ;D
ansonsten kannst ja auf ner x1800/1900 den versuch starten... dabei prophezeihe ich dir recht befriedigende ergebnisse :rolleyes:

Es ist wohl sehr lächerlich den NV40 mit den r520/r580 in Verbindung zubringen. Zwischen den Karten liegen ca. 1 1/2 mit 1 3/4 Jahre. Und er hat recht: SM3.0 Spiele laufen den r420 Karten nicht. Daher ist auch die Aussage von seahawk nach hinten losgegangen.

Savay
2007-07-15, 17:58:48
quelle? wenn so etwas passiert liegt das nicht am verwaltungsaufwand sondern wohl eher an treiberproblemen und selbst wenn diese auftreten, dann kann man es immernoch nur auf der hauptkarte rendern lassen - du siehst also, man wird zumindest keinesfalls langsamer werden ;)

mal ganz im ernst...wie soll AFR mit ner asynchronen bestückung funktionieren? SFR? bwahahaha :rolleyes:

ach du hast keinen verwaltungsaufwand? na deswegen ist ja auch alles doppelt so schnell mit ner 2. karte...der blödsinn muss auch irgendwie gesteuert und synchronisiert werden :|



ähm, also erstmal reden wir von high-end chips, zu denen zählt ein rv610 gewiss nicht; desweiteren ist deine rechnung auch nicht ganz richtig, du hast eine menge "grundumsatz", dh. selbst bei nur einem "quad" (so kann man das glaube ich bei r600/g80 nicht mehr nennen) und 10mhz takt hast du noch zweistellige wattzahlen, das ganze pcb, im niedriglastbereich ineffiziente spannungswandler usw fressen den großteil der leistung im idle - auch jetzt schon

ach und wie willst du das umgehen? spannung am pci-e kappen... du musst auch im suspend mode die karte mit spannung versorgen...ergo das pcb steht unter spannung...die gpu steht unter spannung...der ram...und jedes einzelne bauteil.

der "grundumsatz" kommt daher das alle einheiten in den aktuellen gpus immer mit vollem takt betrieben werden. da wird momentan NICHTS abgeschaltet oder runtergetaktet oder sonstwas. es gibt da nichtmal im ansatz etwas das den aktuellen stromspar mechanismen bei den CPUs ähnlich ist

der 6800LE verbraucht deutlich weniger als nen 6800...oder nen 6800GT oder Ultra...und die unterscheiden sich in der AGP version NUR dadurch das Pipes deaktiviert sind...die sich so nebenbei per SOFTWARE aktivieren lassen

die PCI-E variante des 6800..der NV41 (mit nativen 12 shadereinheiten 3Quads) verbraucht MINIMAL weniger als der NV40...der volle 16 shader einheiten aufweist...auch wenn nur 12 davon aktiv sind


nein. es ist einfach nicht möglich einen chip für alles zu bauen. wenn du einen 500ps sportwagen entwickelst kannst du an dem auch soviel optimieren und zylinder abschalten wie du willst, auf den stadtverbrauch eines 3l lupo kommst du so nie. und deswegen nimmt man auch den, wie bereits erwähnt geringen, transistoren-mehrbedarf in kauf. was sind 50mio eines igp gegen 700mio eines g80?

äpfel und birnen...dir ist schon klar das der vergleich hier hinten und vorne hinkt.
ne GPU mit stromsparmechanismen kommt eher nem hybridauto gleich...da ist es aber egal ob da nen 500PS motor anspringt wenn du schneller als 70 fährst oder ob es nen 100PS motor ist.
bei GPUs gibt es in der beziehung eh nur "trödeln" oder "vollgas". alles dazwischen ließe sich übrigends auch über nen dynamisches lastsystem realisieren. (hat CnQ ebenfalls)

klar du packst 50mio transistoren in nen chipsatz und nimmst erhöhte produktionskosten und komplizierteres PCB layout + komplizierte und problematische treiberumgebung inkauf wo doch ein teil der 700 mio transistoren der eigentlichen GPU die arbeit ebenfalls machen könnten aber gleichzeitig alle diese nachteile umgeht

wenn dir das lieber ist...bittesehr.

Savay
2007-07-15, 18:00:13
Ach, das ist bei ATi nicht so?



Sie laufen doch, oder? Und die ersten Spiele liefen sehr gut.



Du bist mir einer. Ohne dem NV40 gäbe es kein Farcry mit HDR-L. Kein SeSam 2 mit FP16 Genauigkeit und FP Filterung. Kein Splinter Cell 3 mit dem SM3.0 Pfad. Kein Age of Empire mit FP16 Genauigkeit. Es ist nVidia zu verdanken, dass es Spiele beim Erscheinen von ATi's erster SM3.0 Hardware gab.
Und unter SM2.x ist der NV40 keine schlechtere Karte als der r420 gewesen.
Aber da sist eben das Problem von einigen: Statt das ganze zu sehen, wird nur immer ein Teil betrachtet.



Es ist wohl sehr lächerlich den NV40 mit den r520/r580 in Verbindung zubringen. Zwischen den Karten liegen ca. 1 1/2 mit 1 3/4 Jahre. Und er hat recht: SM3.0 Spiele laufen den r420 Karten nicht. Daher ist auch die Aussage von seahawk nach hinten losgegangen.

mimimi hab ich dir etwa deine NV super karte madig gemacht? sry tut mir leid...du bist aber ja jemand der das "große ganze erkennt" na dann sollte ich dich besser anbeten was? :rolleyes:

Gast
2007-07-15, 18:03:04
mimimi hab ich dir etwa deine NV super karte madig gemacht? sry tut mir leid... :rolleyes:

Entweder du hast was zu sagen, oder lass es.

Savay
2007-07-15, 18:09:14
Entweder du hast was zu sagen, oder lass es.

rofl wer sich gleich angemacht fühlt nur weil mein text etwas nv kritischer herkommt der hat ehrlich gesagt nichts anderes verdient...dieses neurotische "ich muss zwanghaft meinen lieblingsvendor verteidigen" geflenne das sich stellenweise in den foren hier ausbreitet ist total affig.

oopps da hat einer meine nvidia karte schlecht gemacht...mimimi

habe ich irgendwo in dem text zu verstehen gegeben das es bei ATi deutlich besser ausschaut? ich würde JETZT noch nen NV40 haben wäre mir die nicht abgeraucht und wäre damit sehr glücklich. die liegt noch auf dem schreibtisch falls dich diese info glücklich macht...noch besser sie funktioniert sogar noch auch wenn sie leider leider für richtig ekelige abstürze sorgt. :(

was aber noch viel viel wichtiger ist: zu deinem geliebtem "großen ganzen" zählt auch das von mir angesprochene also pluster dich nicht so auf...kkthxbye

Coda
2007-07-15, 18:14:57
rofl wer sich gleich angemacht fühlt nur weil mein text etwas nv kritischer herkommt der hat ehrlich gesagt nichts anderes verdient...dieses neurotische "ich muss zwanghaft meinen lieblingsvendor verteidigen" geflenne das sich stellenweise in den foren hier ausbreitet ist total affig.
Ich glaube nicht, dass das "Lieblingsvendorverteidigen" ist, sondern einfach deine undifferenzierte Betrachtung etwas in ein anderes Licht rücken sollte.

Savay
2007-07-15, 18:21:15
ja nun die intention mag ok sein nur die form passte mir nicht...wer den text dann mit bissigen spitzen aussschmückt muss damit rechnen das zurückgebissen wird. das tue ich schließlich auch ;D

man könnte sich auch über die BQ von ATi lustig machen die seit jahren versuchen ihr AF in den griff zu bekommen...aber mal ehrlich bis auf das sie manchmal etwas lahm sind was features angeht bieten deren produkte in der retrospektive weniger angriffsfläche als die von NV...die sorgen immer gleich bei release für schlechte presse (r300 -> genauigkeit beim rendern, AF etc. pp. der r600 als jüngstes beispiel)

bei NV sind alle generationswechsel gute ziele
NV10, NV20, NV30, NV40, G70, sogar der G71...alles potenzielle rohrkrepierer aber als sie aktuell waren "in den himmel gelobt" (ok ausser NV30) :P

robbitop
2007-07-15, 18:29:27
I[;5671510']die mx440/460 war meiner erfahrung (vielleicht sagt die theorie was anderes) eine unperformante mistkarte. schneller (was die mx natürlich nicht war) als ne gf3 zu sein war auch nicht so schwer, selbst ne normale gf2 gts war zum Teil schneller. von den mx-en der gf-serie war eigentlich nur die gf2mx zu gebrauchen (preis/leistung).

€: noch ne gurke: der ati rv100. während der r100 für mich eine der besten grafikkarten ist/war, war die abgespeckte variante totale schrott: kein TnL, kein HyperZ und der berüchtigte 64bit Bus. PFUI
Dann truegt deine Erfahrung. P/L war verdammt gut. 1/4 Preis der High End Karte Fruehling 2002 und Performance von High End 2001. Das gab es so nur (wenn ueberhaupt) verdammt selten wieder.

robbitop
2007-07-15, 18:30:13
Ok, leicht verbessert trifft beim NV40 gegenüber dem NV30 nicht, im Rückblich sind die Karte naber doch ziemlich Luftnummern gewesen, die nur zum Erscheien gute Leistungen lieferten. Man versuche mal heute ein SM3.0 Spiel auf einem NV40 zu spielen. ;D
...du willst also wirklich nur trollen. Aber die Diskussion gab es eh schon tausendmal. EoD.

Coda
2007-07-15, 18:32:09
NV10, NV20, NV30, NV40, G70, sogar der G71...alles potenzielle rohrkrepierer aber als sie aktuell waren "in den himmel gelobt" (ok ausser NV30) :P
Wo waren denn NV1x und NV2x "potentielle Rohrkrepierer". Bei den anderen kann ich das ja noch irgendwie nachvollziehen.

_DrillSarge]I[
2007-07-15, 18:36:00
noch ne gpu die die welt nicht braucht:
rendition Vérité V2x00
hatten die nicht pci und agp gleichzeitig?

Coda
2007-07-15, 18:37:32
Fast jeder AGP-Chip konnte damals auch am PCI-Bus betrieben werden. Und soweit ich weiß waren die Renditions gar nicht so schlecht - das viel größere Problem damals war die Marktdominanz von 3Dfx durch Glide.

Savay
2007-07-15, 18:37:40
Wo waren denn NV1x und NV2x "potentielle Rohrkrepierer". Bei den anderen kann ich das ja noch irgendwie nachvollziehen.

Nv10..ich hab den ursprünglich mal in form der GF1 DDR gekauft. noch schön marketing hörig nach dem motto T&L "boahr"...wieviel ich vom T&L beim NV10 gesehen hab...naja da decken wir das wohlbekannte mäntelchen drüber. UT konnt ich damit aber super zocken :rolleyes: sogar die UT2003 leaked alpha (juhu TnL xD) lief noch drauf (hab da auch erste tests mitm AA & AF angestellt...die ergebnisse kann sich jeder ausmalen ;D) wobei EF1 und Q3 hab ich damit auch gezockt...aber relativ lahmarschig...dazu kommt: die GF2 MX die ganz flott exakt die selbe leistung wie die GF1 gebracht hat

der NV20 war technisch super keine frage wobei er teilweise langsamer als nen NV15 war streckenweise aber auch schneller da effizienter...viele tolle neue features die man aber selten wirklich nutzen konnte...wobei es technisch einer der wichtigsten NV chips war wie ich finde! welch schicksal...meilenstein und "rohrkrepierer" in personalunion
summa sumarum der NV25 war der bessere NV20 weil er einfach mehr rohleistung hatte...und zwar soviel das man auch was von der neuen technik hatte (meine Ti4400 war mit verlaub verdammt GEIL!)
um ehrlich zu sein habe ich den NV20 auch nur in die liste gepackt weil es besser aussah :P

bei Nvidia habe ich immer das gefühl die könnten besser gleich die refreshchips veröffentlichen. :wink:

_DrillSarge]I[
2007-07-15, 18:40:03
Fast jeder AGP-Chip konnte damals auch am PCI-Bus betrieben werden. Und soweit ich weiß waren die Renditions gar nicht so schlecht.
nun die v1x00 chips brauchten mehr als 1 taktzyklus für nen pixel

robbitop
2007-07-15, 18:42:32
Nv10..ich hab den ursprünglich mal in form der GF1 DDR gekauft. noch schön marketing hörig nach dem motto T&L "boahr"...wieviel ich vom T&L beim NV10 gesehen hab...naja da decken wir das wohlbekannte mäntelchen drüber :rolleyes:
NV10 war damals die schnellste Karte auf dem Markt. Und zwar mit Abstand. TnL gabs quasi obendrauf. Unter OGL wurde es sogar per default genutzt. Dass die D3D Spiele es nicht nutzten war die Schuld der Entwickler. D3D7 stellte diese Funktion zur Verfuegung und sie ist AFAIK so schwer nicht zu implementieren und entlastet die CPU gehoerig. Ein aelteres System mit NV10 kann im Gegensatz zu TnL losen Karten UT2003 und 2004 noch einigermassen zum Laufen bringen wegen TnL.

der NV20 war technisch super keine frage wobei er teilweise langsamer als nen NV15 war
Ja in niedrigen Aufloesung und 16 Bit, wo eh genug Power da war.



summa sumarum der NV25 war der bessere NV20 weil er einfach mehr rohleistung hatte (meine Ti4400 war mit verlaub GEIL!)

bei Nvidia habe ich immer das gefühl die könnten besser gleich die refreshchips veröffentlichen. :wink:

Nachfolgechips haben immer mehr power (egal welcher Vendor). Eine Evolution braucht eben seine Zeit.

_DrillSarge]I[
2007-07-15, 18:44:47
ne gf2 ultra war auf jeden fall schneller als ne gf3

Coda
2007-07-15, 18:45:12
bei Nvidia habe ich immer das gefühl die könnten besser gleich die refreshchips veröffentlichen. :wink:
Weil ATI zu der Zeit keine Refreshchips gebracht hat?

Und bei R520->R580 hatte man ja wohl viel deutlicher das Gefühl, dass sie sich R520 sparen hätten können.

Gast
2007-07-15, 18:48:21
habe ich irgendwo in dem text zu verstehen gegeben das es bei ATi deutlich besser ausschaut? ich würde JETZT noch nen NV40 haben wäre mir die nicht abgeraucht und wäre damit sehr glücklich. die liegt noch auf dem schreibtisch falls dich diese info glücklich macht...noch besser sie funktioniert sogar noch auch wenn sie leider leider für richtig ekelige abstürze sorgt. :(

Du kritisiert den NV40 wegen dem SM3.0. Man kann die Karte deswegen nicht kritisieren, da es das Konkurrenzprodukt nicht anbot. Und dank dem NV40 gab es beim Erscheinen des r520 Spiele, die eben das SM3.0 unterstützten (neben HDR-L mit FP16 Genauigkeit und Filterung).


bei NV sind alle generationswechsel gute ziele
NV10, NV20, NV30, NV40, G70, sogar der G71...alles potenzielle rohrkrepierer aber als sie aktuell waren "in den himmel gelobt" (ok ausser NV30)

So ein Quatsch. Dann können wir auch jede Technologiekarte von ATI als "potenzielle rohrkrepierer" betrachten.
Und werfe mir keine "Vendorverteidigung" vor, wenn du anscheinend nicht objektiv nVidia verdienst bewerten kannst.

robbitop
2007-07-15, 18:50:29
I[;5672091']ne gf2 ultra war auf jeden fall schneller als ne gf3
In 16 Bit vieleicht.
Und wenn mind 4 Texturlagen hinzukamen lag die GF3 nochmal mehr vorn, weil die GF2 dann Multipass machen musste.

Raff
2007-07-15, 18:50:56
I[;5672091']ne gf2 ultra war auf jeden fall schneller als ne gf3

Nochmals: http://3dcenter.de/artikel/voodoo5-6000/index8.php

Eine GeForce2 Ultra ist nur schneller als eine GeForce3, wenn zwei Dinge erfüllt werden:

- Das Spiel ist hochgradig füllratengeil und schert sich nicht um Speicherbandbreite
- 16 Bit

Sobald man eine GF2 in den 32-Bit-Modus versetzt, bricht sie übelst ein, die GF3 nicht mehr.

MfG,
Raff

robbitop
2007-07-15, 18:56:41
Nochmals: http://3dcenter.de/artikel/voodoo5-6000/index8.php

Eine GeForce2 Ultra ist nur schneller als eine GeForce3, wenn zwei Dinge erfüllt werden:

- Das Spiel ist hochgradig füllratengeil und schert sich nicht um Speicherbandbreite
- 16 Bit

Sobald man eine GF2 in den 32-Bit-Modus versetzt, bricht sie übelst ein, die GF3 nicht mehr.

MfG,
Raff
du hast vergessen, dass das Spiel dann auch eine lahme CPU braucht und nur 2x Texturlagen nutzen soll. ;-)
Ergo Spiele, die eh schnell genug liefen.

Savay
2007-07-15, 18:58:25
Und bei R520->R580 hatte man ja wohl viel deutlicher das Gefühl, dass sie sich R520 sparen hätten können.

da kann ich dir nur zustimmen :)

NV10 war damals die schnellste Karte auf dem Markt. Und zwar mit Abstand. TnL gabs quasi obendrauf. Unter OGL wurde es sogar per default genutzt. Dass die D3D Spiele es nicht nutzten war die Schuld der Entwickler. D3D7 stellte diese Funktion zur Verfuegung und sie ist AFAIK so schwer nicht zu implementieren und entlastet die CPU gehoerig. Ein aelteres System mit NV10 kann im Gegensatz zu TnL losen Karten UT2003 und 2004 noch einigermassen zum Laufen bringen wegen TnL.

ja nun gesehen habe ich mit der karte aber wie gesagt nicht viel davon. EF1 und Q3 mal aussen vor. zumal wie gesagt relativ schnell die GF2 MX daher kam und ca. gleiche leistungen gebracht hat :|

UT2003 lief dann eh auf der nagelneuen Ti4400. es sah besser aus, war schneller und 2x FSAA war durchgängig angeschaltet. :cool: mal ehrlich Ut2003 läuft zwar auf nem NV10..aber richtig richtig schlecht egal wieviel schneller es durchs TnL auch läuft... :rolleyes:


Nachfolgechips haben immer mehr power (egal welcher Vendor). Eine Evolution braucht eben seine Zeit.

wenn es nach mir ginge wären die generationswechsel überflüssig. besser gleich die refreshs bringen und diese ausgereifter auf den markt loslassen

ich fänds schöner wenn die nur halbsoviele neue gpus veröffentlichen und stattdessen mehr fokus auf die qualität legen würden.

das täte IMO dem markt und vorallem den spielen besser als diese schnitzeljagd

Gast
2007-07-15, 18:59:19
die unangefochtene Mega-Grafik-Gurke war in meinen Augen die OAK-Tech OTI-SVGA512k, es gab zu keiner Zeit eine Karte, die die vorgesehene Aufgabe schlechter versah als dieses "Ding", das analoge Signal war eine Katastrophe, die Hardware und das VesaBios verbuggt ohne Ende, eine Tsenglabs ET4000 war knapp 30x schneller.
Seit diesen vergangenen Zeiten hat kein Hersteller so richtige unbrauchbare Karten mehr abgeliefert, auch wenn S3 lange Zeit "stets bemüht" war, die verlogene PowerVR-Bande nie brauchbare Treiber zurechtzimmern konnte und nvidia mal mit der FX-Serie etwas daneben lag..

Undertaker
2007-07-15, 19:00:10
mal ganz im ernst...wie soll AFR mit ner asynchronen bestückung funktionieren? SFR? bwahahaha :rolleyes:

ach du hast keinen verwaltungsaufwand? na deswegen ist ja auch alles doppelt so schnell mit ner 2. karte...der blödsinn muss auch irgendwie gesteuert und synchronisiert werden :|

wo siehst du bei sfr probleme? das beide chips nicht gleichviel rendern sollen ist ja wohl logisch :rolleyes: das es keinen verwaltungsaufwand gibt habe ich nicht gesagt. aber der frisst nicht die komplette leistung des kleineren chips... und nochmal: jegliche perfomancesteigerungen sind bonus; wenn man ein % bekommt freut man sich, wenn nicht stört das auch nicht weiter, der hauptgrund ist stromsparen -> also lass uns dabei bleiben

ach und wie willst du das umgehen? spannung am pci-e kappen... du musst auch im suspend mode die karte mit spannung versorgen...ergo das pcb steht unter spannung...die gpu steht unter spannung...der ram...und jedes einzelne bauteil.

das dies mit aktuellen grafikkarten nicht perfekt klappen wird ist möglich, aber nichts ist leichter zu implementieren als eine schaltung auf der graka, die es ermöglicht die karte auf befehl an und auszuschalten

der "grundumsatz" kommt daher das alle einheiten in den aktuellen gpus immer mit vollem takt betrieben werden. da wird momentan NICHTS abgeschaltet oder runtergetaktet oder sonstwas. es gibt da nichtmal im ansatz etwas das den aktuellen stromspar mechanismen bei den CPUs ähnlich ist

falsch... schön das du das beispiel mit cpus bringst: hier kann man wunderbar sehen, dass ab einem gewissen grad jegliches heruntertakten kaum noch einfluss auf den verbrauch hat... ich glaube dargo hat das mal gemessen (kann auch jemand anderes gewesen sein) - das was noch übrig bleibt und sich nicht weiter reduzieren lässt wirst du auch bei einer graka finden, dort nur zigfach stärker, da du ein riesen pcb hast was zum großen teil zum betrieb der karte einfach nötig ist und nicht abgeschaltet werden kann, zum anderen den chip mit vielfach mehr logikbauteilen als eine cpu

der 6800LE verbraucht deutlich weniger als nen 6800...oder nen 6800GT oder Ultra...und die unterscheiden sich in der AGP version NUR dadurch das Pipes deaktiviert sind...die sich so nebenbei per SOFTWARE aktivieren lassen

die PCI-E variante des 6800..der NV41 (mit nativen 12 shadereinheiten 3Quads) verbraucht MINIMAL weniger als der NV40...der volle 16 shader einheiten aufweist...auch wenn nur 12 davon aktiv sind

das ganze ging nicht ohne neustart, soetwas "onthefly" zu realisieren erfordert ebenfalls entwicklungsarbeit am chip, das brauchst du also nicht immer nur bei dem sli vorschlag anzukreiden; desweiteren sind die dimensionen bei aktuellen karten und wohl auch nachfolgenden insgesammt deutlich höher, siehe oben den erwähnten grundumsatz

äpfel und birnen...dir ist schon klar das der vergleich hier hinten und vorne hinkt.
ne GPU mit stromsparmechanismen kommt eher nem hybridauto gleich...da ist es aber egal ob da nen 500PS motor anspringt wenn du schneller als 70 fährst oder ob es nen 100PS motor ist.
bei GPUs gibt es in der beziehung eh nur "trödeln" oder "vollgas". alles dazwischen ließe sich übrigends auch über nen dynamisches lastsystem realisieren. (hat CnQ ebenfalls)

nein, das war absichtlich gewählt und passt absolut perfekt, wenn nein sag mir doch warum

das hybrid auto passt perfekt auf den sli vorschlag: du hast 2 motoren (2 chips), die unter volllast zusammen arbeiten, bei geringer last arbeitet nur der elektromotor (igp). du willst zylinder (quads) abschalten und das gemisch verdünnen (takt senken), trotzdem säuft dein 5l v12 immernoch weitaus mehr.

klar du packst 50mio transistoren in nen chipsatz und nimmst erhöhte produktionskosten und komplizierteres PCB layout + komplizierte und problematische treiberumgebung inkauf wo doch ein teil der 700 mio transistoren der eigentlichen GPU die arbeit ebenfalls machen könnten aber gleichzeitig alle diese nachteile umgeht

wenn dir das lieber ist...bittesehr.

da du meine argumente entweder nicht kontern kannst oder sie nur übersiehst, hier nocheinmal:

http://geizhals.at/deutschland/?cat=mbam2&sort=p

die billigsten boards haben alle grafik, ergo -> mehrpreis kein argument

du erwähnst komplizierteres layout des boards... was denkst du was du auf der graka machen musst um ram, chipteile etc einzeln teilweise abschalten zu können?? treiber müssen ebenfalls in beiden fällen entwickelt werden. du hast einen fast kostenlosen (siehe boardpreise) mehraufwand, sparst aber tag für tag merklich strom - ergo, kein nachteil und ein erheblicher vorteil

Savay
2007-07-15, 19:00:33
nVidia verdienst

nvidias "verdienst" ist höchstens intelligentes und streckenweise perfides marketing :biggrin:

Gast
2007-07-15, 19:07:13
nvidias "verdienst" ist höchstens intelligentes und streckenweise perfides marketing :biggrin:

Schonmal Farcry mit HDR-L, Age of Empires 3 mit dem SM3.0, Splinter Cell 3 mit dem Sm3.0 oder SeSam2 mit HDR-L gespielt? Ich hoffe nicht. Denn das sind Spiele, die nur durch nVidia "intelligentes und streckenweise perfides marketing" mit diesen Features auf dem Markt gekommen sind.
Aber wie ich schon sagte: Der Geist kann eben nicht alles überblicken, also sucht er sich einen Teil aus, den er als "falsch" bezeichnen kann.


wenn es nach mir ginge wären die generationswechsel überflüssig. besser gleich die refreshs bringen und diese ausgereifter auf den markt loslassen

"Besser gleich [...] bringen"? Die "Refreshes" kämen ein 3/4 bis ein Jahr später. Die neue Technologie wäre erst wesentlich später zur Verfügung.
Anscheinend denkst du, dass Spiele auf Bäumen wachsen und die Herstellere sie nur pflücken müssen...
Und die Generationswechsel bringen in aktuellen Spielen immer einen deutlichen Geschwindigkeitssprung und/oder neue Qualitätsfeatures.
So war der NV40 deutlich schneller als der r350, so war der G70 deutlich schneller als der r420 unter dem SM2.x und deutlich schneller als der NV40 unter dem SM3.0 (bzw. auch mit HDR-L).

robbitop
2007-07-15, 19:10:49
Aehm...es ging um Gurkenkarten in diesem Thread. NV10, NV20, NV40, G70 und G80 sind definitiv keine Gurken. NV3x wuerde ich halbwegs gelten lassen. Im Vergleich zu richtigen Gurken (Savage2000, Rage Pro, S3 Virge, Volari) bei denen Spiele oftmals nicht mal liefen oder nur ruckelten, ist selbst das keine Gurke sondern hoechstens eine Banane... :D



ja nun gesehen habe ich mit der karte aber wie gesagt nicht viel davon. EF1 und Q3 mal aussen vor. zumal wie gesagt relativ schnell die GF2 MX daher kam und ca. gleiche leistungen gebracht hat :|
Es gab ne Menge Spiele mit OGL/Q3 Engine.
Was kann ein IHV dafuer, dass du dir staendig neue GPUs kaufst? ;)
Haettest du diese behalten muessen, haette man im Vergleich zur gleichen Generation vom NV10 enorme Vorteile erlebt. Eine Karte, die fuer immer jung bleibt, gibts nicht.

Und jetzt kommt mir bitte niemand mit R3xx. Die blieb sehr lange jung, ja. Aber auch nur, weil die Entwickler mit den NV3x vorsichtig umgehen mussten, damit der Kaeuferkreis nicht eingeengt wurde.

Die GF1DDR war uebrigens doch deutlich fixer als die GF2MX. Die SDR hingegen ca Gleichstand. Aber so ist das nunmal im Halbleiterbereich.

UT2003 lief dann eh auf der nagelneuen Ti4400. es sah besser aus, war schneller und 2x FSAA war durchgängig angeschaltet. :cool:
Jaha, weil du die Karte eben staendig ausgetauscht hast. Den von mir genannten Vorteil hat die Karte trotzdem.
Ich frage mich immernoch wo die NV10 eine Gurke gewesen sein soll...


mal ehrlich Ut2003 läuft zwar auf nem NV10..aber richtig richtig schlecht egal wieviel schneller es durchs TnL auch läuft... :rolleyes:
Was ist "schlecht"? Ein Spiel, dass 2 Jahre nach dem NV10 kam und in 1024 fluessig lief? Welches Konkurrenzprodukt vom NV10 hat es besser gemacht?

Haettest (wie mehrfach angedeutet) den kompletten PC behalten muessen, waerest du dankbar fuer TnL gewesen. Die Erfahrung habe ich auf LANs machen koennen, bei denen ja viele Leute nicht die allerneusten Systeme haben, aber dennoch mitspielen wollen. (was mit Kompromissen oft erstaunlich gut laeuft)



wenn es nach mir ginge wären die generationswechsel überflüssig. besser gleich die refreshs bringen und diese ausgereifter auf den markt loslassen
Wenn es nach dir ginge, waere derjenige IHV jetzt wohl pleite ;)

ich fänds schöner wenn die nur halbsoviele neue gpus veröffentlichen und stattdessen mehr fokus auf die qualität legen würden.
Ja dann haette man in der Tat etwas laenger Freude an seiner Grafikkarte. Aber wo siehst du ernste Qualitaetsmaengel?

das täte IMO dem markt und vorallem den spielen besser als diese schnitzeljagd
Der PC ist sowieso eine denkbar schlechte Spieleplattform. Viel zu viele HW Kombinationen. Da kann vieles nicht richtig aus-optimiert werden. Ich sehe auf aktuellen und unaktuellen Konsolen immer wieder, was mit gutem Kontent und gleicher Hardware moeglich ist. (naemlich sau viel wenn man sich die Konsolen HW dazu ansieht)

Mich stoerts allerdings auch, dass aktuelle Spiele offenbar fuer Ultra High End Systeme programmiert werden und oftmals nicht fluessig laufen.

Savay
2007-07-15, 19:31:42
wo siehst du bei sfr probleme? das beide chips nicht gleichviel rendern sollen ist ja wohl logisch :rolleyes: das es keinen verwaltungsaufwand gibt habe ich nicht gesagt. aber der frisst nicht die komplette leistung des kleineren chips... und nochmal: jegliche perfomancesteigerungen sind bonus; wenn man ein % bekommt freut man sich, wenn nicht stört das auch nicht weiter, der hauptgrund ist stromsparen -> also lass uns dabei bleiben

SFR...im shaderzeitalter... wieviele spiele funktionieren mit SFR ohne verrenkungen? und dann noch mit dem umweg über den systembus...bei SFR kommst du mit deinen paar hundert MB für das bisschen framebuffer NICHT mehr hin


das dies mit aktuellen grafikkarten nicht perfekt klappen wird ist möglich, aber nichts ist leichter zu implementieren als eine schaltung auf der graka, die es ermöglicht die karte auf befehl an und auszuschalten

über relais die ganze karte kappen? naja dank hotplug für PCIe könnts sogar klappen. ganz koscher finde ich das aber nicht...schon garnicht bei ner grafikkarte die über 100Watt aus dem netzteil saugen kann. bin ich der einzige der da EMV probleme sieht?

aber ja es dürfte so durchaus gehen. ändert nur nichts an den problemen der methode :smile:


falsch... schön das du das beispiel mit cpus bringst: hier kann man wunderbar sehen, dass ab einem gewissen grad jegliches heruntertakten kaum noch einfluss auf den verbrauch hat... ich glaube dargo hat das mal gemessen (kann auch jemand anderes gewesen sein) - das was noch übrig bleibt und sich nicht weiter reduzieren lässt wirst du auch bei einer graka finden, dort nur zigfach stärker, da du ein riesen pcb hast was zum großen teil zum betrieb der karte einfach nötig ist und nicht abgeschaltet werden kann, zum anderen den chip mit vielfach mehr logikbauteilen als eine cpu

heruntertakten geht immer mit ner spannungsabsenkung hand in hand. wo habe ich anderes behauptet... :rolleyes:
wie gesagt die spannung geht quadratisch in die leistungsaufnahme ein. bei CnQ wird die spannung auch gesenkt...wie bei EIST etc. pp. bestimmte notebook grafikkarten machen das doch auch heute schon.


das ganze ging nicht ohne neustart, soetwas "onthefly" zu realisieren erfordert ebenfalls entwicklungsarbeit am chip, das brauchst du also nicht immer nur bei dem sli vorschlag anzukreiden; desweiteren sind die dimensionen bei aktuellen karten und wohl auch nachfolgenden insgesammt deutlich höher, siehe oben den erwähnten grundumsatz

ich habe nirgends dem SLi verfahren seine entwicklungskosten angekreidet.
klar das ist für den IHV die günstigste und schnellste lösung weil man sich nen angepasstes GPU design spart.

es bringt aber eben auch probleme mit sich die man nicht einfach ignorieren und herunterspielen sollte.


nein, das war absichtlich gewählt und passt absolut perfekt, wenn nein sag mir doch warum

das hybrid auto passt perfekt auf den sli vorschlag: du hast 2 motoren (2 chips), die unter volllast zusammen arbeiten, bei geringer last arbeitet nur der elektromotor (igp). du willst zylinder (quads) abschalten und das gemisch verdünnen (takt senken), trotzdem säuft dein 5l v12 immernoch weitaus mehr.

weil das verhalten von motoren und µC nur wenige parallelen aufweist :rolleyes:

nehm dir nen NV40, schalte quads ab, takte ihn runter und senke die spannung...
dann vergleiche bitte wie die leistungsaufnahme ist obwohl physisch alle transistoren vorhanden sind.

aber das wirst du dir wohl auch wieder zurecht drehen...naja ist wenigstens ne schöne überleitung auf den nächsten quote :smile:


da du meine argumente entweder nicht kontern kannst oder sie nur übersiehst, hier nocheinmal:

:| ahso so ist das also! :rolleyes: gut dann brauchen wir ja nicht weiter zu diskutieren. :)

du sagst es spart mehr strom...
ich sage es spart insgesamt betrachtet nicht mehr als ne anständige implementierung in der GPU selber die aber weniger problematisch ist...

der witz ist ich streite doch garnicht ab das es strom spart...noch streite ich ab das es machbar ist...

ich glaube schlicht wir kommen so eh zu keinem ergebniss! dann lassen wir das besser gleich ganz :rolleyes:


du erwähnst komplizierteres layout des boards... was denkst du was du auf der graka machen musst um ram, chipteile etc einzeln teilweise abschalten zu können?? treiber müssen ebenfalls in beiden fällen entwickelt werden. du hast einen fast kostenlosen (siehe boardpreise) mehraufwand, sparst aber tag für tag merklich strom - ergo, kein nachteil und ein erheblicher vorteil

öhm beim A64 hängt der ram direkt an der CPU der taktet auch runter wenn CnQ greift...fehlt leider nur noch das er auch die spannung senkt :biggrin:

viel mehr als die GPU, der Ram und die spannungsversorgung ist auf ner grafikkarte nicht.
die verluste die du in der spannungsversorgung hast ist vernachläßigbar und da der memorycontroller direkt in der GPU sitzt sind grade die 2 komponenten voll verzahnt.

Savay
2007-07-15, 19:45:04
Es gab ne Menge Spiele mit OGL/Q3 Engine.
Was kann ein IHV dafuer, dass du dir staendig neue GPUs kaufst? ;)


zwischen der GF1 und der GF4 liegen 2 chipgenerationen und fast 3 jahre...wo ist das "ständig" :rolleyes: vom Ti4400 zur GF6 warens ebenfalls 2,5 jahre

so oft tausche ich meine grafikkarten wahrlich nicht aus :wink:


Was ist "schlecht"? Ein Spiel, dass 2 Jahre nach dem NV10 kam und in 1024 fluessig lief? Welches Konkurrenzprodukt vom NV10 hat es besser gemacht?

schlecht waren die chips nicht...nur rohrkrepierer! wenn ich die schlecht gefunden hätte würde ich sie ja nicht in meiner hall-of-fame behalten oder hätte sie gekauft

nur das marketing geblubber von NV halten die dinger aber genausowenig und der leistungsverfall mit neuen spielen ist bei denen immer recht groß
...gut dem marketing gewäsch muss man ja nicht glauben und man kann es mit humor nehmen

was manche zeitgenossen in ihrem kreuzzug dann übrigends gerne als "nicht erkennen der ultimativen wahrheit" bezeichnen ;D


Ja dann haette man in der Tat etwas laenger Freude an seiner Grafikkarte. Aber wo siehst du ernste Qualitaetsmaengel?

ausgereifte produkte mit funktionierenden treibern zum release, ohne unnötige kompromisse bei der BQ :|

ansonsten habe ich bei ATi und NV nicht viel zu meckern. ein paar bugs vielleicht die nicht sein müssten...und bei NV etwas langlebigere produkte evtl. und etwas weniger getrommel was "must have" zeug angeht :tongue:

Coda
2007-07-15, 19:50:39
ich fänds schöner wenn die nur halbsoviele neue gpus veröffentlichen und stattdessen mehr fokus auf die qualität legen würden.
Jetzt wird's ja lächerlich. Zu NV1x-NV2x-Zeiten waren die nVIDIA-Treiber sicher besser als diejenigen von ATi, und ich behaupte auch dass das heute noch so ist, aus Sicht eines Entwicklers.

wenn es nach mir ginge wären die generationswechsel überflüssig. besser gleich die refreshs bringen und diese ausgereifter auf den markt loslassen
Aus kapitalistischer Sicht ist das aber Blödsinn.

ansonsten habe ich bei ATi und NV nicht viel zu meckern. ein paar bugs vielleicht die nicht sein müssten...und bei NV etwas langlebigere produkte evtl. und etwas weniger getrommel was "must have" zeug angeht :tongue:
Da wir mit den zukünftigen DirectX-Versionen immer gleiche stabile Featuresets haben werden werden die Diskussionen zum Glück mal endlich aufhören.

Gast
2007-07-15, 19:56:25
ansonsten habe ich bei ATi und NV nicht viel zu meckern. ein paar bugs vielleicht die nicht sein müssten...und bei NV etwas langlebigere produkte evtl. und etwas weniger getrommel was "must have" zeug angeht :tongue:

Ach und ATIchen hat immer nur langlebige Produkte?
Der r420 ist genauso schnell oder langsam unbrauchbar gewurden wie der NV40. Der r520 ist bei vielen wahrscheinlich kürzer im Rechner geblieben als bei anderen der G70. Und der r600 scheint auch nicht gerade das Durchhaltevermögen eines G80s (egal ob GTX oder GTS) zu haben.
Ein bisschen mehr Objektivität wäre in diesen Punkten angebracht.

Savay
2007-07-15, 20:02:52
Jetzt wird's ja lächerlich. Zu NV1x-NV2x-Zeiten waren die nVIDIA-Treiber sicher besser als diejenigen von ATi, und ich behaupte auch dass das heute noch so ist, aus Sicht eines Entwicklers.

du verwirrst mich...was hat das speziell mit NVs treibern zu tun? lass dich bitte nicht von dem kreuzzügler im gastaccount anstecken ich meinte mit "die" beide IHVs. zu dem spielchen gehören ja immernoch 2 :cool:

Edit: als anwender gefallen mir die ATi treiber aber etwas besser...auch wenn das CCC unnötiger schrott ist ;D


Aus kapitalistischer Sicht ist das aber Blödsinn.

mag sein...kaufenkaufenkaufen...möglichst sofort und so schnell wie möglich wieder neu ködern...NV hat das perfektioniert mit ihrem marketing.

(zumindest da) sind die genial die jungs keine frage :biggrin:


Da wir mit den zukünftigen DirectX-Versionen immer gleiche stabile Featuresets haben werden werden die Diskussionen zum Glück mal endlich aufhören.

hoffen wir es aber irgend ne HyperZUltraClearMemoryHDRSuperShading III architektur wird denen aber bestimmt schon einfallen :rolleyes:

Coda
2007-07-15, 20:08:45
hoffen wir es aber irgend ne HyperZUltraClearMemoryHDRSuperShading III architektur wird denen aber bestimmt schon einfallen :rolleyes:
Als ob ATI ihre Technologie nicht in den Himmel loben würde. Siehe dynamic branching und den Ringbus-Speichercontroller bei R5xx oder jetzt den Tesselator bei R6xx (der wahrscheinlich totale Vaporware ist).

Auch toll ist jetzt die Radeon X2300 auf R5xx-Basis. GeForce 4 MX Teil 2 - wenn auch in abgeschwächter Form, weil es nur Low-End ist.

Savay
2007-07-15, 20:10:07
mit denen meinte ich an sich wieder beide IHVs :rolleyes: du lässt dich ja doch vom gast anstecken ODER ich drücke mich zu unpräzise aus :tongue:

Hübie
2007-07-15, 20:15:49
Eindeutig die S3 Virge DX/VX Chips. Das sind richtige Graupen. Aber Hauptsache ein bilinieares Filterverfahren wurde implementiert--> Resultat waren Grafikfehler in den meisten Spielen.


bye Hübie

Undertaker
2007-07-15, 20:28:51
SFR...im shaderzeitalter... wieviele spiele funktionieren mit SFR ohne verrenkungen? und dann noch mit dem umweg über den systembus...bei SFR kommst du mit deinen paar hundert MB für das bisschen framebuffer NICHT mehr hin

nochmal: alles was evntl rausspringt ist bonus ;)


heruntertakten geht immer mit ner spannungsabsenkung hand in hand. wo habe ich anderes behauptet... :rolleyes:
wie gesagt die spannung geht quadratisch in die leistungsaufnahme ein. bei CnQ wird die spannung auch gesenkt...wie bei EIST etc. pp. bestimmte notebook grafikkarten machen das doch auch heute schon.

das war in meiner argumentation ebenfalls in betracht, auf den bedarf von pcb usw hast du weder mit spannung noch mit takt groß einfluss


ich habe nirgends dem SLi verfahren seine entwicklungskosten angekreidet.
klar das ist für den IHV die günstigste und schnellste lösung weil man sich nen angepasstes GPU design spart.

es bringt aber eben auch probleme mit sich die man nicht einfach ignorieren und herunterspielen sollte.

nicht mehr als dein vorschlag, aber die vorteile sind halt größer


weil das verhalten von motoren und µC nur wenige parallelen aufweist :rolleyes:

nehm dir nen NV40, schalte quads ab, takte ihn runter und senke die spannung...
dann vergleiche bitte wie die leistungsaufnahme ist obwohl physisch alle transistoren vorhanden sind.

aber das wirst du dir wohl auch wieder zurecht drehen...naja ist wenigstens ne schöne überleitung auf den nächsten quote :smile:

ich drehe gar nix zurecht, also bleib doch ebenfalls sachlich... wenn du den nv40 mal spekulativ heruntertaktest, abschaltetest usw. kommst du evntl noch auf 10-15w - ok das klingt erträglich. machst du das bei einem g80/r600 schaffst du evntl noch 30w - und das ist nuneinmal immernoch viel zu viel, hiervon könnte man mit den hybrid sli plänen durchaus weitere 25w einsparen. das ist der vorteil. und das ist auch machbar, siehe nochmals den anderen thread dazu, dass wird bereits fleißig richtung serienreife gebracht. warum sollte man dies deiner meinung nach tun, wenn es mit abschalten/takten usw genauso ginge? nur aus marketinggründen? das ist naiv



:| ahso so ist das also! :rolleyes: gut dann brauchen wir ja nicht weiter zu diskutieren. :)

du sagst es spart mehr strom...
ich sage es spart insgesamt betrachtet nicht mehr als ne anständige implementierung in der GPU selber die aber weniger problematisch ist...

der witz ist ich streite doch garnicht ab das es strom spart...noch streite ich ab das es machbar ist...

ich glaube schlicht wir kommen so eh zu keinem ergebniss! dann lassen wir das besser gleich ganz :rolleyes:

warum siehst du nicht ein, dass du das pcb und die bauelemente darauf als einen der größten verbraucher im idle-betrieb weder durch heruntertakten noch durch spannungssenkungen merklich stromsparender machen kannst? wo müssen wir bei diesem punkt diskutieren/streiten/sonstetwas?? das ist der punkt, und an dem kann man halt nicht viel ändern

öhm beim A64 hängt der ram direkt an der CPU der taktet auch runter wenn CnQ greift...fehlt leider nur noch das er auch die spannung senkt :biggrin:

viel mehr als die GPU, der Ram und die spannungsversorgung ist auf ner grafikkarte nicht.
die verluste die du in der spannungsversorgung hast ist vernachläßigbar und da der memorycontroller direkt in der GPU sitzt sind grade die 2 komponenten voll verzahnt.

ähm, da sitzt noch einiges mehr :D und die spannungsversorgung wird in diesem niedriglastbetrieb wohl nicht über 70% effizienz kommen. wenn überhaupt.

eh wir uns jetzt über einzelne punkte streiten, lass uns doch mal zusammenfassen:

1. das ganze wäre nicht merklich teurer - siehe aktuelle boards mit igp
2. der idle stromverbrauch lässt sich ganz erheblich senken, da man kein großes pcb und einen 700mio transistoren chip mehr versorgen muss (der auch bei teilabschaltungen noch viel zieht)
3. dank der nähe zu normalem sli muss man das rad nicht erst komplett neuerfinden

und dann ist ja da noch die tatsache, dass zur zeit eben genau in diese richtung entwickelt wird. und das nicht zum spaß. die haben sich darüber mit sicherheit mehr gedanken und berechnungen gemacht als wir

Savay
2007-07-15, 20:48:59
nochmal: alles was evntl rausspringt ist bonus ;)


nicht mehr als dein vorschlag, aber die vorteile sind halt größer

du wirst keinen bonus sehen ausser den treiberaufwand und erhöhte systemlast und das sind ernsthaft vorteile? :|



ich drehe gar nix zurecht, also bleib doch ebenfalls sachlich... wenn du den nv40 mal spekulativ heruntertaktest, abschaltetest usw. kommst du evntl noch auf 10-15w - ok das klingt erträglich. machst du das bei einem g80/r600 schaffst du evntl noch 30w - und das ist nuneinmal immernoch viel zu viel, hiervon könnte man mit den hybrid sli plänen durchaus weitere 25w einsparen. das ist der vorteil. und das ist auch machbar, siehe nochmals den anderen thread dazu, dass wird bereits fleißig richtung serienreife gebracht. warum sollte man dies deiner meinung nach tun, wenn es mit abschalten/takten usw genauso ginge? nur aus marketinggründen? das ist naiv

ich bin sachlich! wer stampft hier denn mitm fuss auf und reagiert langsam beleidig weil er nicht recht bekommt...das ist nun kein paradebeispiel

wenn nen rv610 ohne undervolting und bei 700MHz schon unter 25 watt verbraucht (merke die karte als GESAMTEINHEIT braucht soviel)...dann bekommst du theoretisch JEDEN r600 z.b. ebenfalls weit unter diese marke...faktisch bräuchtest du für die 2d funktonen auch weit weniger als die 8 SIMD einheiten die bei dem rv610 noch aktiv sind.
mit undervolting und runtertakten kommt man erst recht NOCH weiter runter!

GPUs sind ja vom design stärker parallelisiert als CPUs...ne GPU ist doch quasi nen konstrukt von vielen parallelen Streaming einheiten...salopp gesagt als konstrukt an sich eher mit ner xFach MehrkernCPU zu vergleichen als mit einer einzelnen CPU.
genau wie bei den stromsparmechanismen der kommenden Quadcores von AMD kann man die doch "ganz einfach" separat abschalten insofern ist das einsparungspotenzial bei ner GPU grundsätzlich deutlich größer als bei jeder CPU! genau wie die skalierung von GPUs einfacher durchzuführen ist dürfte es auch leichter sein ihnen das sparen beizubringen. selbst wenn man zunächst nur pipeline blöcke (und diese gibt es auch bei dem G80 und dem r600 noch) abschaltet und den chip insgesamt runtertaktet und mit weniger spannung versorgt.


warum siehst du nicht ein, dass du das pcb und die bauelemente darauf als einen der größten verbraucher im idle-betrieb weder durch heruntertakten noch durch spannungssenkungen merklich stromsparender machen kannst? wo müssen wir bei diesem punkt diskutieren/streiten/sonstetwas?? das ist der punkt, und an dem kann man halt nicht viel ändern

;D klar das "pcb" und die paar kondensatoren und spulen sind schuld das die grafikkarte soviel leistung frisst :rolleyes: öhm nun das verwirrt mich ein wenig...klär mich auf :)

das PCB an sich ist mit allen leiterbahnen nichts weiter als ne große Spule und kondensator in ner mischschaltung...ne spule "verbraucht" keinen strom, nen kondensator ebensowenig! da fließt nicht mal nen größer wirkstrom! die PCBs als stromfresser... :| glaub mir die verlustleistung durch die PCBs ist mehr als nur verschwindend gering neben dem was die µC "rausblasen" ausserdem werden die PCBs extra(!) optimiert das möglichst wenig blindströme fließen weil die nämlich die signalqualität und die stabilität negativ beeinflussen!

und wie das beispiel an den NV40 derivaten zeigt verbrauchen zwar auch inaktive quads strom...jedoch ist das im vernachlässigbaren bereich. gut ich würde dir gern nen paar messungen mit ner NV40 im vollausbau @380 vs NV40 mit einem Quad, niedriger spannung und takt präsentieren aber ich habe leider kein leistungsmessgereät im haus...vielleicht kann ja wer aushelfen ;)

aber mal im ernst...du glaubst doch wohl nicht das du bei dieser SLi lösung es ernsthaft damit zu tun bekommst das du den PCIe 16x slot "komplett" abgeschaltet bekommst!? :confused:

Edit: Preisfrage...wieviel leistung verbrät eigentlich nen A64 im C1?

nun denn wie dem auch sei hauptsache in der richtung wird überhaupt einmal etwas unternommen!

Undertaker
2007-07-15, 21:48:11
du wirst keinen bonus sehen ausser den treiberaufwand und erhöhte systemlast und das sind ernsthaft vorteile? :| das kannst du weder belegen noch begründen, der verwaltungsaufwand ist wohl eher ein prozentualer statt absoluter anteil - damit wären keine negativen ergebnisse möglich - desweiteren kann man auch einfach das dvi-signal ohne sli durchschleifen, ergo ist leistungsmäßig nur 100%+ möglich


ich bin sachlich! wer stampft hier denn mitm fuss auf und reagiert langsam beleidig weil er nicht recht bekommt...das ist nun kein paradebeispiel

sry, aber warum kehrst du nicht wieder zur argumentation zurück? auf dieser ebene persönlicher angriffe darfst du gerne selbst bleiben, dass war mein letzter kommentar dazu

wenn nen rv610 ohne undervolting und bei 700MHz schon unter 25 watt verbraucht (merke die karte als GESAMTEINHEIT braucht soviel)...dann bekommst du theoretisch JEDEN r600 z.b. ebenfalls weit unter diese marke...faktisch bräuchtest du für die 2d funktonen auch weit weniger als die 8 SIMD einheiten die bei dem rv610 noch aktiv sind.
mit undervolting und runtertakten kommt man erst recht NOCH weiter runter!

zeig mir doch mal einen rv610 auf einem r600 board... tipp: den wirst du nicht finden

GPUs sind ja vom design stärker parallelisiert als CPUs...ne GPU ist doch quasi nen konstrukt von vielen parallelen Streaming einheiten...salopp gesagt als konstrukt an sich eher mit ner xFach MehrkernCPU zu vergleichen als mit einer einzelnen CPU.
genau wie bei den stromsparmechanismen der kommenden Quadcores von AMD kann man die doch "ganz einfach" separat abschalten insofern ist das einsparungspotenzial bei ner GPU grundsätzlich deutlich größer als bei jeder CPU! genau wie die skalierung von GPUs einfacher durchzuführen ist dürfte es auch leichter sein ihnen das sparen beizubringen. selbst wenn man zunächst nur pipeline blöcke (und diese gibt es auch bei dem G80 und dem r600 noch) abschaltet und den chip insgesamt runtertaktet und mit weniger spannung versorgt.

das abschalten von cores einer cpu, welche ein vollkommen eigenständiges glied darstellen, mit dem abschalten von quads in gpus, welche mehr oder weniger salopp nur "ein stück mitten drin" sind, zu vergleichen, ist einfach nur falsch

;D klar das "pcb" und die paar kondensatoren und spulen sind schuld das die grafikkarte soviel leistung frisst :rolleyes: öhm rein intressehalber wieviel elektrotechnische grundbildung bringst du mit?

eine einjährige arbeit am fraunhofer institut für integrierte schaltungen und ein angefangenes elektrotechnikstudium (3. semester ab herbst), und bei dir? zu dem was das pcb frisst:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5586574&postcount=14

taktratensenkung von 60/75% (ich rechne mit 60/60%, den hauptanteil macht wohl der chip aus) bringt 14w ersparnis, hinter dem netzteil gemessen (also davor evntl 12w)... so, nun gehen wir von einer linearen abhängigkeit des verbrauches vom takt aus und ~50w idle (dargo schätzte 43w, xbit hat 57w gemessen) der gts aus... fällt dir etwas auf? jetzt darfst du dir gerne die gleichung aufstellen und ermitteln, was all das auf der karte ohne gpu und ram so zieht, die gleichung ist eindeutig lösbar ;) ich komme ziemlich genau auf 30w für das pcb :D na was sagst du? wo ist mein rechenfehler?

das PCB an sich ist mit allen leiterbahnen nichts weiter als ne große Spule und kondensator in ner mischschaltung...ne spule "verbraucht" keinen strom, nen kondensator ebensowenig! da fließt nicht mal nen größer wirkstrom! die PCBs als stromfresser... :| glaub mir die verlustleistung durch die PCBs ist mehr als nur verschwindend gering neben dem was die µC "rausblasen" ausserdem werden die PCBs extra(!) optimiert das möglichst wenig blindströme fließen weil die nämlich die signalqualität und die stabilität negativ beeinflussen!

und wie das beispiel an den NV40 derivaten zeigt verbrauchen zwar auch inaktive quads strom...jedoch ist das im vernachlässigbaren bereich. gut ich würde dir gern nen paar messungen mit ner NV40 im vollausbau @380 vs NV40 mit einem Quad, niedriger spannung und takt präsentieren aber ich habe leider kein leistungsmessgereät im haus...vielleicht kann ja wer aushelfen ;)

aber mal im ernst...du glaubst doch wohl nicht das du bei dieser SLi lösung es ernsthaft damit zu tun bekommst das du den PCIe 16x slot "komplett" abgeschaltet bekommst!? :confused:

Edit: Preisfrage...wieviel leistung verbrät nen A64 im C1?

da der kommentar drüber eigentlich schon alles erklärt hier nur noch in kurzform:

- man muss den pcie slot nicht "abschalten", sondern nur vor den spannungswandlern der karte simpel gesagt einen "an-aus" schalter anbringen - das sollte meiner meinung nach keine unüberwindbare hürde darstellen
- was ein a64 mit einer grafikkarte sammt pcb zu tun hat ist mir jetzt schleierhaft... aber naja, konzentrieren wir uns auf die obige rechnung, was sagst du dazu? die werte sind nicht von mir, hab also nix "zurechtgebogen" ;)


edit: zum nachvollziehen doch noch mal kurz die rechnung:

12w/x = 60%/100% -> x = 20w -> 50w - 20w = 30w

Coda
2007-07-15, 22:09:29
Ist doch altbekannt, dass Spannungswandler die für eine höhere Last ausgelegt sind auch bei geringer Last noch einiges ziehen.

Mich wundert allerdings dass R600 unter Idle so viel zieht, weil der ja eigentlich schon diese moderneren Spannungswandler drauf hat.

Undertaker
2007-07-15, 22:16:15
wunder können die halt auch nicht leisten, und auf dem r600 muss die lieferbare maximalleistung ja nocheinmal deutlich höher liegen als bei einer 8800gtx -> noch ineffizienter im idle

Rainman2k
2007-07-15, 22:33:47
bad chips:
Voodoo Rush, da ellenlahmarschig in d3d

TNT 2 M64 oh man, no comment
Geforce MX serie
Alle ATI vergleichsprodukte waren in vielen lagend eutlich besser was das spielbare anging.

Radeon 9200 SE
kein kommentar, die karte erinnerte an uralte Rage 2 C Treiberprobleme

Mit lezterem seit ihr etwas ahrt umgegangen.
Der Rage 2C welchen ich noch als PCI karte hier liegen habe funzt in sämtlichen "billigst spielen" mit xp treibenr absolut problemlos, und als Primärkarte für meinen 2t pc ist sie einfach super, und der GF 1 DDR deutlich bildmässig überlegen.
Weshalb sie wohl letzendlich eine mainstream karte für office wurde.

Der Rage 128 war ein absolut geil taktbarer Chip, HL1 lief damals übelst geil damit.

Matrix316
2007-07-15, 23:22:30
-Geforce FX5600 mit 256 MB eine lahme Krücke und langsamer als eine TI4200 mit 64 MB.

Zwar noch keine gehabt aber von den Benchmarks:
-Geforce 8600GTS: 200 € DX10 Karte mit der Leistung einer 130 € DX9 Karte...

Savay
2007-07-15, 23:30:31
(...)

sry, aber warum kehrst du nicht wieder zur argumentation zurück? auf dieser ebene persönlicher angriffe darfst du gerne selbst bleiben, dass war mein letzter kommentar dazu

(...)


schön wir reden sowieso nur noch aneinander vorbei. du kannst nebenher auch gern mal nen paar beiträge zurückgehen und schauen wer mit persönlichen "angriffen" angefangen hat...wobei ich angriffe als einen etwas harschen ausdruck für das geplänkel hier empfinde ;)

es ist btw sehr nett das du mir die ineffizienz des schaltnetzteils auf der GTX dargelegt hast...wobei mir das persönlich mit ~28/29W etwas hoch erscheint. hinkommen kann es aber durchaus
um ehrlich zu sein: ich bin nicht drauf gekommen das du während du vom PCB sprichst eigentlich das schaltnetzteil bzw die festspannungsregler meinst. :rolleyes:
nun gut sei`s drum. ich sehe selbst angesichts dessen immernoch nicht das problem und das große hinderniss!
(in centrino notebooks werden beim runtertakten auch einzelne phasen abgeschaltet) deiner anregung folgend werde ich das aber gern mal ausrechnen(überschlagen?!) und überschlafen...oder umgekehrt

naja ums festzuhalten. deine methode braucht angesichts dessen trotzdem nen angepasste PCB..."meine" bräuchte nen etwas komplizierteres layout beim PCB der grafikkarte und angepasste chips...dafür würde es sich dynamisch der last anpassen würde komplexität beim mainboard sparen.
deinetwillen lasse ich extra mal meine anderen "argumente" weg...weil das sind ja keine denn nur du hast argumente aber die erkenne ich ja nicht an...noch schlimmer ich nehme sie nichtmal wahr! :rolleyes:

das mit dem A64 war ein wenig OT...ich wollte nur wissen wieviel leistung ein IC dieser komplexität unter den umständen noch zieht. entschuldige wenn du das als verwirrung empfunden hast...

ich werde jetzt jedenfalls ins bett gehen und ich denke damit beenden wir die ganze sache...es führt zu nichts zumal ich schuft deine argumente ja böswilligerweise nicht anerkennen will und selber penetranterweise keine habe. apropros hilft es dir sehr wenn ich dir bescheinige das du absolut recht hast? gut! :umassa:

isgrimm
2007-07-15, 23:46:38
Im einen Thread faszinieren sie, in diesem wollen wir mal die gurkigsten Grafikkarten aller Zeiten küren. Ich fange mal chronologisch an:


S3 Virge: Der "Decelerator" suchte seine Daseinsberechtigung ohne Erfolg
Nvidia NV1: Nett gemeint, wenig praxistauglich
3dfx Voodoo Rush: Matschbild und langsamer als eine Voodoo Graphics
Ati-Chips < R100: Krankten meist nicht nur an miesen Treibern
Nvidia FX-5800: Heiß und schneckig bei SM2.0
Ati Radeon HD 2900 XT: Offenbar schwer bugverseucht, weist daher Parallelen zum NV30 auf


Für Letzteres bekomme ich garantiert von Einigen was zu hören. ;)

MfG,
Raff

Also ich hatte eine Voodoo Rush und muss sagen ich war absolut zufrieden weil sie damals einen extrem gutes Preislesitungsverhältnis hatte.

Ich hatte eine Ati Mach 64 1MB (Teil eines Escomsystems Ich war 14 und mein Vater guckte mich nur seltsam an als ich vorschlug mit meinem Konfusgeld doch zum Schrauber um die Ecke zu gehen und anstattdessen lieber was zusammenzustellen und womöglich auch noch selbst zusammenzubauen)
deshalb brauchte ich ohnehin damals noch nette 2Dkarte wegen Vesa 2.0 und besserer Perfomance/VRAM.

Eine Voodoo hätte damals noch 400DM gekostet dazu hätte es ne ET-6000er(damals recht beliebte 2D-Karte da sie günstig und schnell war und die BQ war in gerinegn Auflösungen auch i.O.) Karte mit 2MB gegeben die nochmals 200-250DM gekostet hätte.

Als Vergleich meine Voodoo Rush kostete mit 2 statt 3 Spielen und ohne tolle Verpackung am Erscheinungstag 454DM und dafür hatte ich gegenüber ner Voodoo Graphics 1 ca. 10% weniger Leistung dafür allerdings konnte ich 800*600 fahren und gegenüber ner Et-6000 ebenfalls 10% weniger Leistung allerdings nie wieder Probleme wegen Vesa 2.0 support.

Mich hat die damalige Voodoo Rush Karte sehr glücklich gemacht hinzu kommt das die meisten Sachen zu der Zeit eh liefen sobald Glide direkt unterstützt wurde.

Zum NV1 muss ich sagen der war zwar be.... allerdings hat der im Gegensatz zum Virge, wenn die Spiele ne entsprechende Optimierung hatten(das waren wenige) wenigstens was beschleunigt und er war viel früher da


Danach habe ich eigentlich nie wieder Krücken gekauft eigentlich immer Ex-Highend für richtig wenig Geld
Gf3 Ti/500 zum Preis einer fx5200/64 50€
9700Tx 50€ statt einer 9600Pro für 80€
bei Ebay die Gf3 ist abgeraucht undie 9700er werkelt heute noch bei nem Kollegen (22€ für mich)

Undertaker
2007-07-15, 23:49:21
...

wie du meinst... man wird sehen was in der zukunft umgesetzt wird, dann sehen wir was die wohl bessere lösung war ;)

btw: die rechnung oben war sogar nur eine 8800gts, keine gtx

Savay
2007-07-15, 23:54:48
die für dem IHV billigste lösung wird umgesetzt was wohl sonst...daran bestand doch nie nen zweifel :|

Undertaker
2007-07-16, 00:01:02
wenn es danach ginge würde man wohl gar nix machen oder einfach nur den takt und die spannung weiter senken (wie beim r580, nur halt noch weiter)

energieeffizienz ist heute ein durchaus marketingrelevanter punkt, darauf wird man schon den größten wert legen (aber klar muss es auch noch ökonomisch machbar sein)

Spasstiger
2007-07-16, 00:30:07
Ein Kumpel von mir hat Doom 3 auf einer FX 5200 (mit 64-Bit-SI) durchgespielt ... unter Linux.
Möglich, 640x480 low hab ich nicht getestet, war bloß kurz geschockt als mir gesagt wurde "Radeon 9800 Pro" und schon im Menü ruckelt es sich übelst einen ab (hatte das Spiel mit der ini-Datei von meinem Rechner laufen, deshalb die höhere Auflösung und die hohe Detailstufe). Naja, ein Blick in den Gerätemanager hat dann aber schnell für Aufklärung gesorgt.

Mit 128-Bit-SI sind die doch gar nicht schlecht. Rulen jede GeForce 2 MX weg, die (als Zockerkarte!) durchaus noch verbreitet waren. Für das Geld boten die 5200-er einiges, darunter MSAA und sehr gutes AF – beides konnte man in damals älteren oder anspruchsloseren Spielen durchaus nutzen.
Die Leute, die ich mit diesen Karten kennengelernt habe, hatten halt die Erwartung auch so Spiele wie Doom 3 oder Farcry spielen zu können, auch weil die Karte DX9 beherrschte. Aber das war dann nur bei Minimalstoptik möglich.

Coda
2007-07-16, 00:44:49
Möglich, 640x480 low hab ich nicht getestet, war bloß kurz geschockt als mir gesagt wurde "Radeon 9800 Pro" und schon im Menü ruckelt es sich übelst einen ab (hatte das Spiel mit der ini-Datei von meinem Rechner laufen, deshalb die höhere Auflösung und die hohe Detailstufe). Naja, ein Blick in den Gerätemanager hat dann aber schnell für Aufklärung gesorgt.
Ich sag's nochmal: Da muss was anderes im Argen gewesen sein. Eine FX 5200 reicht auch in der höchsten Auflösung für's Doom-3-Menü.

James Ryan
2007-07-16, 08:55:57
Also irgendwie haben viele den Thread nicht richtig verstanden, oder warum ist bspw. eine Voodoo 2 12 MB eine Graka-Gurke? :|
Meiner Meinung nach gab es bisher nur eine richtige Gurke, und das war die Gf FX 5800 Ultra.
Halb-Gurken verdächtig ist auch die HD 2900 XT.

MfG :cool:

robbitop
2007-07-16, 10:01:07
Ist doch altbekannt, dass Spannungswandler die für eine höhere Last ausgelegt sind auch bei geringer Last noch einiges ziehen.

Mich wundert allerdings dass R600 unter Idle so viel zieht, weil der ja eigentlich schon diese moderneren Spannungswandler drauf hat.
Der 80HS Prozess von TSMC ist halt eine leaky biatch :D

Gast
2007-07-16, 11:06:20
Möglich, 640x480 low hab ich nicht getestet, war bloß kurz geschockt als mir gesagt wurde "Radeon 9800 Pro" und schon im Menü ruckelt es sich übelst einen ab (hatte das Spiel mit der ini-Datei von meinem Rechner laufen, deshalb die höhere Auflösung und die hohe Detailstufe). Naja, ein Blick in den Gerätemanager hat dann aber schnell für Aufklärung gesorgt.

Solange wie D3 in der Pipeline war, hätte das ja auch noch mit ner gf2mx laufen müssen, womit wurde das erstmals vorgestellt? Riddick kriegt man ja auch bis auf NV11 runter. Aber ich hab auch FarCry mit nem 512MB 1.4Ghz'er durchgespielt, d.h. nicht das es vernünftig lief. Dauernd swappen. Bottlenecks. Unter Deck im Schiff liefs besser.

Cyphermaster
2007-07-16, 11:21:21
Sorry 4 delay, aber das kann ich so nicht stehenlassen:

Kyro2 würd ich hier nennenNAYN!!! :wink:

Die Kyro2 hatte ich auch. Für das Keller-Preissegment, in dem sie angeboten wurde, war sie überraschend gut! Sie war klar schneller als die Konkurrenz (GF2MX; teils sogar GF2Ti, vor allem in 32Bit), hatte ein schöneres Bild (super Signalqualität auf Moni und TV, auch auf 16Bit besser als die Konkurrenz, da intern immer 32Bit) und unterstützte auch EMBM. Dazu war sie auch noch leicht passiv kühlbar, und konnte 2x/4xSSAA mit relativ geringen Einbußen darstellen (Hab teils mit 2xSSAA gespielt!!).
Einzig die HW-TnL-Einheit fehlte - und ein leistungsstärkerer Nachfolger :(

Joolz
2007-07-16, 11:24:28
Wie gesagt, wenn man ne gf2mx durch ne 5200-250core/166ram-64bit-DDR tauschte, konnte man eine Verschlechterung erleben!?! Bei ner 4 Jahre neuren Karte, die sich aktuelles Äquivalent der legendären Gf4200 schimpft.

Aber die 5200 gabs ja auch in 100 Takten und SI's selbst noch bis in die Gf7er Gen, kein Wunder, das es zig Meinungen gibt. Clou oder besser Frechheit, eine 64bit unter dem selben Namen wie ne 128bit zu verkaufen, denn Tests gehen auf solchen Fliegenschiß gar nicht ein im Ggs. zu Geizhals. Die hätte den Namen Gf5mx-200 verdient oder gf5000TE (Trash Edition). Aber die gf2mx war ja auch schon eine mittlere Gurke, sicher NICHT das beste damals im economy-bereich. Taugte nur für 16bit/bi-filter da sdr. Nolf oder ST Elite Force quälten sie schon arg. die kyro oder die erste radeon wäre besser gewesen und hatte auch mehr features wie embm, 8texturen

Crazy_Chris
2007-07-16, 12:18:05
Wie gesagt, wenn man ne gf2mx durch ne 5200-250core/166ram-64bit-DDR tauschte, konnte man eine Verschlechterung erleben!?! Bei ner 4 Jahre neuren Karte, die sich aktuelles Äquivalent der legendären Gf4200 schimpft.

Geforce4-MX war ja nur marketingtechn. Blödsinn. Die Karte hätte eher Geforce2-MX Ultra heißen dürfen. Sowas macht ja ATi z.B. mit der Radeon 9000/9200 oder der X1050 auch ganz gerne. :mad:

Die Kyro 2 war wirklich klasse. In einigen Spielen war sie der Geforce 2 GTS fast ebenbürtig. Und das für einen Preis von ~120DM. :)

ColdColt
2007-07-16, 13:08:40
Hmm...die Kyro II war damals meines Erachtens nach deutlich teurer, denn ich habe für meine Hercules 3D Prophet 4500 289DM hingelatzt (war der 06.06.2001).

nagus
2007-07-16, 13:15:56
Im einen Thread faszinieren sie, in diesem wollen wir mal die gurkigsten Grafikkarten aller Zeiten küren. Ich fange mal chronologisch an:


S3 Virge: Der "Decelerator" suchte seine Daseinsberechtigung ohne Erfolg
Nvidia NV1: Nett gemeint, wenig praxistauglich
3dfx Voodoo Rush: Matschbild und langsamer als eine Voodoo Graphics
Ati-Chips < R100: Krankten meist nicht nur an miesen Treibern
Nvidia FX-5800: Heiß und schneckig bei SM2.0
Ati Radeon HD 2900 XT: Offenbar schwer bugverseucht, weist daher Parallelen zum NV30 auf


Für Letzteres bekomme ich garantiert von Einigen was zu hören. ;)

MfG,
Raff


"Ati Radeon HD 2900 XT: Offenbar schwer bugverseucht, weist daher Parallelen zum NV30 auf"

sonst gehts schon noch gut oder? "schwer bug verseucht" ... wenn man sich nicht auskennt sollte man lieber die goschn halten. :|

Coda
2007-07-16, 13:18:57
Naja, für den Transistorcount und die Bandbreite ist das Ding nun wirklich nicht gerade Fix. Und ich habe auch meine Quellen die Sagen, dass das finale Silizium noch einige Problemchen hat, ATI das Ding aber endlich auf dem Markt haben wollte.

aths
2007-07-16, 21:11:18
-Geforce FX5600 mit 256 MB eine lahme Krücke und langsamer als eine TI4200 mit 64 MB.Seit wann sagt der Speicherausbau viel aus? Es gab auch 32-MiB-Karten von ATI die (deutlich) langsamer waren als eine 8-MiB-Karte von STB (das war eine Art Voodoo 3 mit 8 MiB.)

Zwar noch keine gehabt aber von den Benchmarks:
-Geforce 8600GTS: 200 € DX10 Karte mit der Leistung einer 130 € DX9 Karte...Ist aber komisch, dass sich die GF trotzdem verkauft ... sind das alles Dummköpfe?



Möglich, 640x480 low hab ich nicht getestet, war bloß kurz geschockt als mir gesagt wurde "Radeon 9800 Pro" und schon im Menü ruckelt es sich übelst einen ab (hatte das Spiel mit der ini-Datei von meinem Rechner laufen, deshalb die höhere Auflösung und die hohe Detailstufe). Naja, ein Blick in den Gerätemanager hat dann aber schnell für Aufklärung gesorgt.Ich habe Doom 3 kurz auf der 64-Bit-FX-5200 gesehen: Spielbar. Nichts für verwöhnte wie mich, aber immerhin. Und ja, in 640x480.

Die Leute, die ich mit diesen Karten kennengelernt habe, hatten halt die Erwartung auch so Spiele wie Doom 3 oder Farcry spielen zu können, auch weil die Karte DX9 beherrschte. Aber das war dann nur bei Minimalstoptik möglich.Wer die Erwartung hat mit einer Karte die nachher 60 - 80 € kostet (was sie anfangs kostete weiß ich nicht mehr) die Leistung zu erhalten für die man sonst mindestens 150 - 200 € auf den Tisch legen muss ... der hat sich vorher nicht genug informiert.

Raff
2007-07-16, 22:26:11
Ist aber komisch, dass sich die GF trotzdem verkauft ... sind das alles Dummköpfe?

Wenn sie für den Aufpreis mehr Leistung erwarten (was nur logisch ist), dann ja. :naughty: Aktuell bringt einem DX10 einen Scheiß. Und wer glaubt, mit einer 150€-Karte von jetzt fein Crysis & Co. spielen zu können, ist zu sehr Optimist für die IT-Welt. Eine X1950 Pro mit 256 MiB gibt's aktuell ab 115 €uro, eine 8600 GTS/256 ab 145. Die kleine Schwester GT schon ab 95 €, was gar nicht übel ist. Die lässt sich nämlich zumindest in Sachen GPU-Dampf auf GTS-Niveau übertakten. Die GTS ist einfach ~30€ zu teuer.

MfG,
Raff

Gast
2007-07-16, 22:35:08
Die GTS ist einfach ~30€ zu teuer.
Der Markt bestimmt den Preis. Hätte AMD mit der X2600 was vernünftiges abgeliefert, wäre die Preisschlacht in vollem Gange.

C.D.B.
2007-07-17, 07:39:52
Im einen Thread faszinieren sie, in diesem wollen wir mal die gurkigsten Grafikkarten aller Zeiten küren.


Unglaublich! Ich habe den ganzen Thread verfolgt ... und die Gurke schlechthin wurde noch nicht ein einziges mal erwähnt: Matrox Millenium II

http://sektor101.se.funpic.de/MilleniumII_m.jpg (http://sektor101.se.funpic.de/MilleniumII.jpg)

Unfassbar, wie das Teil mich abgenervt hat! Zeitweise war ich einem Nervenzusammenbruch nahe!!! Nicht ein einziges Game, das ohne Bildfehler lief. Wenn nicht ein Freeze, BSoD oder Auto-ReBoot dazwischenkam. Was SEHR häufig passierte ... http://forum.egosoft.com/images/smiles/icon_evil.gif

Die 2D-Quality war über jeden Zweifel erhaben ... aber das Ding hier http://sektor101.se.funpic.de/MGA2164.jpg ging deutlich unter die Gürtellinie!

Aber man sollte ja auch das Positive an solch einer üblen Sache nicht übersehen. Um endlich mal Games genießen zu können, habe ich mir daraufhin die hier gekauft:

http://sektor101.se.funpic.de/V5500_m.jpg (http://sektor101.se.funpic.de/V5500.jpg)

... und dank 1024x768 mit 2xSGFSAA wurde alles gut! http://forum.egosoft.com/images/smiles/icon_smile.gif http://forum.egosoft.com/images/smiles/icon_smile.gif http://forum.egosoft.com/images/smiles/icon_smile.gif http://forum.egosoft.com/images/smiles/icon_smile.gif http://forum.egosoft.com/images/smiles/icon_smile.gif
(Auch wenn es die Version mit dem besch...eidenen 166MHz Hynix (http://www.digchip.com/datasheets/parts/datasheet/202/HY57V653220B-5.php) RAM war ist. :()


man liest sich, bye

br
2007-07-17, 09:18:05
..

C.D.B.
2007-07-17, 09:38:00
Hmmm ... das Ding lief auf einem SNI D981 (i440LX) ... daran kann es eigenlich nicht gelegen haben. Hatte damals sogar noch ECC-RAM drin!

Shink
2007-07-17, 11:42:45
Hmm... alles mit Chips von Number 9 (Ticket to Ride etc.): Unglaublich langsam in 2D; in 3D nie wirklich brauchbar.

Die erste PowerVR-Karte (Kyro-Vorgänger): Keine bilineare Filterung; in Direct3D kaum schneller als ne S3 Virge und das bei einer Add-On-Karte.
Also quasi der PhysX der 3D-Welt.

Shink
2007-07-17, 11:56:17
Eindeutig die S3 Virge DX/VX Chips. Das sind richtige Graupen. Aber Hauptsache ein bilinieares Filterverfahren wurde implementiert--> Resultat waren Grafikfehler in den meisten Spielen.


bye Hübie
Da das gar so oft vorkommt: Man darf nicht vergessen, zu welcher Zeit die rauskamen (S3 Virge AFAIK noch vor der Voodoo). Da wars mit Direct 3D noch so ne Sache; OpenGL-Spiele gabs noch nicht und was auf S3s proprietäre Schnittstelle aufsetzte, funktionierte einwandfrei und performant (z.B. Terminal Velocity von 3DRealms)

Und da die Virge-Karten als einzige genauso teuer waren wie 2D-Karten und die 2D-Fähigkeiten sehr konkurrenzfähig waren, lohnten sich diese Karten sehr wohl.

Wenn schon S3 dann: S3 Trio 3D; der letzte Chip vor dem ersten Savage 3D. Kam Jahre nach der Virge raus und erbte Performance und Treiber von letzterem.

Der Sandmann
2007-07-17, 14:19:41
Matrox Mystique 2 & 4MB

Zwar in allen Benchmarks immer richtig weit oben aber nur weil einige 3D Features gar nicht erst unterstützt wurden.

Mußte damals noch schnell eine Diamond Monster 3D dazu kaufen.

Matrix316
2007-07-17, 22:46:53
Seit wann sagt der Speicherausbau viel aus? Es gab auch 32-MiB-Karten von ATI die (deutlich) langsamer waren als eine 8-MiB-Karte von STB (das war eine Art Voodoo 3 mit 8 MiB.)


Ja aber die 128 MB Version war sogar schneller als die 256 MB Version, weil da der Speicher wesentlich niedriger getaktet war. Also doppelte ver******.

Ist aber komisch, dass sich die GF trotzdem verkauft ... sind das alles Dummköpfe?


Tjaaaaa... najaaaaa... irgendwie... Raff hats ja schon gesagt, mit DX10 Games wird man mit der 8600er Klasse wohl nicht sehr viel anfangen können. Und wenn eine 1950 Pro für viel weniger schon gleichzieht und man dann mal eine X1950XT vergleicht, die in etwa das gleiche kostet, dann sieht die 8600 kein Land mehr.

laser114
2007-07-17, 22:55:28
Ja aber die 128 MB Version war sogar schneller als die 256 MB Version, weil da der Speicher wesentlich niedriger getaktet war. Also doppelte ver******.

Solche Modelle gibts doch heute auch noch:
8600 GT 512 DDR2 (http://geizhals.at/deutschland/a266828.html) @ 500 MHz statt 700 MHz-Referenz

Ist halt billiger für den OEM-Markt und die brauchen auch nur hohe Zahlen bei der RAM-Menge eventuell mit noch gutem Namen dazu.

Gast
2007-07-17, 23:36:51
Matrox Mystique 2 & 4MB

Zwar in allen Benchmarks immer richtig weit oben aber nur weil einige 3D Features gar nicht erst unterstützt wurden.

Mußte damals noch schnell eine Diamond Monster 3D dazu kaufen.Zur Verteidigung ist aber zu sagen, dass die Dinger unter DOS echte Bestien sind, erstklassige VGA-Signale absondern und verdammt billig (im Sinne von preiswert) waren. Quasi S3 Würg in gut, weil eben keine 3D-Decelerator. Und im Gegensatz zur Voodoo konnte man in XGA zocken :D, IMO (damals!) wertvoller als der bilineare Texturfilter.

aths
2007-07-17, 23:55:28
Ja aber die 128 MB Version war sogar schneller als die 256 MB Version, weil da der Speicher wesentlich niedriger getaktet war. Also doppelte ver******.Wieso Verarsche? Der Kunde, der viel Speicher haben und wenig dafür zahlen will, nimmt dann halt die langsamer getaktete 256-MiB-Version. Der Kunde, der 3D-Performance sucht, informiert sich vorher und entscheidet dann.

Interessanterweise aktuell auch schon mal für eine der 8600-er Versionen.

Tjaaaaa... najaaaaa... irgendwie... Raff hats ja schon gesagt, mit DX10 Games wird man mit der 8600er Klasse wohl nicht sehr viel anfangen können. Und wenn eine 1950 Pro für viel weniger schon gleichzieht und man dann mal eine X1950XT vergleicht, die in etwa das gleiche kostet, dann sieht die 8600 kein Land mehr.Es gibt aber mehr als Spiele. Und wenn man auch Effekte die mit D3D10 dargestellt werden auf der 8600 wahrscheinlich runterregeln muss besteht immerhin die Möglichkeit (vielleicht im Tausch gegen eine niedrigere Auflösung) sie zu rendern. Die X1950 bietet das nicht. Das kann doch jeder individuell für sich bewerten und gewichten.

sth
2007-07-18, 00:02:29
Matrox Mystique 2 & 4MB
Die hieß doch eigentlich "Matrox Mistding" ;)

Wie so viele Karten damals von heftigen Treiberproblemen geplagt. Matrox hat das erst mit der G400 nach diversen Treiber-Updates so richtig in den Griff bekommen.

Gast
2007-07-18, 00:16:41
Wie so viele Karten damals von heftigen Treiberproblemen geplagt.Das andere will ich mal überhört haben, doch zumindest das Zitierte stimmt.
Z.B. Jedi Knight:
640x480 einwandfrei, 800x600 fehlten etliche Texturen...
...die in 1024x768 wieder da waren :ulol:

Silverbuster
2007-07-18, 00:31:16
Hätte da noch den Savage 2000, welcher gegen die Geforce256 konkurrieren sollte, da hier auch eine T&L Einheit verbaut war, leider hat diese nicht einmal funktioniert :rolleyes:

ATI Rage Fury Maxx
Technisch gesehen ein Meisterwerk (2GPUs auf einem PCB), auch die theoretischen Leistungsdaten waren hervorragend, jedoch gibt es bis heute keinen vernünftigen Treiber.

=Floi=
2007-07-18, 12:06:32
aber die USA der 8600er serie würde ich nicht unterschätzen
auch kann man damit zumindest die spiele problemlos starten
auf lange sicht fährt man mit einer 8600er sicherlich besser wie mit einer X1950pro



einen kritikpunkt der voodoo agp karten hätte ich noch
nämlich die probleme mit den neueren agp versionen und deren folgen

Shink
2007-07-18, 12:36:50
Hätte da noch den Savage 2000, welcher gegen die Geforce256 konkurrieren sollte, da hier auch eine T&L Einheit verbaut war, leider hat diese nicht einmal funktioniert :rolleyes:

ATI Rage Fury Maxx
Technisch gesehen ein Meisterwerk (2GPUs auf einem PCB), auch die theoretischen Leistungsdaten waren hervorragend, jedoch gibt es bis heute keinen vernünftigen Treiber.
Mit den beiden hab ich mal stark sympathisiert... an der Maxx störten mich die fehlenden NT-Treiber (da ja bald XP kam), also nahm ich die S2K. Diese funktionierte unter Windows 2000 und XP zwar noch schlechter, aber das wusste damals ja niemand.

Zur S2K: die T&L-Einheit funktionierte tatsächlich, allerdings war die Treiberunterstützung dafür nicht sehr kompatibel: Meines Wissens funktionierten nur die NVidia-T&L-Demos und 3DMark 2000. Und für die beiden musste man schon einen Celeron 300 oder langsamer besitzen, um durch HW-T&L einen Performanceschub zu bekommen.
Beim single-pass Multitexturing hat wohl auch irgend etwas nicht ganz so funktioniert wie erwartet.

Ansonsten sehr lustige, interessante Karte, sparsame und gut übertaktbare (fast 50%) Karte, bei der man mit Treiber- Registry- und Umbenenn-Hacks noch ziemlich lange auskam (naja, unter Win98/ME zumindest...) und die z.B. unter Unreal Tournament lange Zeit unerreichbar war. Für Quake 3 gabs eine coole HiRes-Texture-Version von S3 zur Demonstration von S3TC.
Wenn ich so zurückdenke, eigentlich meine Lieblingsgrafikkarte ever.

Hucke
2007-07-18, 13:03:37
Größte Gurken für mich:
PowerVR Chips. Fing damals mit der Matrox m3D an, die zwar oft brauchbare Leistung brachte aber immer wieder übelst eingebrochen ist. Tolles Beispiel war damals GLQuake mit den AddOns. Zwischen 160 und 4 Frames war alles drin. Bäh.
Und gleiches Problem mit der KyroII. An sich gute Performance, aber teilweise üble Einbrüche. Und die Treiberqualität war auch recht mies. Overlay mit mehr als 800x600 ging nicht. Dann bin ich frustriert wieder zur GeForce 1 DDR zurück, die war zwar in 32Bit selten so flott wie die Kyro, dafür bot die Karte aber durchgängig solide Performance.

Matrox Millenium G200. Damals gekauft um endlich 3D Performance zu haben. Dummerweise hatte Matrox nur auf dem Karton OpenGL Support und lieferte Monat für Monat neue OpenGL Wrapper, die fast durchgehen ne miese Performance boten. Notbehelf damals, Voodoo II kaufen.

DerRob
2007-07-18, 13:15:52
so eine richtige grafikkarten-gurke hatte ich eigentlich nie (zumindest kam es mir nie so vor). allerdings war ich von meinem kurzen abstecher zu ati doch ein wenig enttäuscht. hatte vorher eine gf 6600gt, die auch ganz vernünftig lief. sobald ich jedoch ein wenig aa/af dazu geschaltet hab, ist die karte gleich ganz ordentlich eingebrochen, was ich auf das 128bit speicherinterface geschoben hatte. also bin ich auf die x800gt gewechselt. 256bit speicherinterface, und ati sollte ja auch die bessere bildqualität haben...
naja, aa war dann häufiger möglich, allerdings nur noch msaa bis max 6x, ssaa für ältere spiele konnte ich dann ncht mehr nutzen. die profileinstellungen für verschiedene spiele gabs auch nicht mehr im treiber, sondern musste "umständlich" durch zusatztools nachgebaut werden, was irgendwie auch nicht immer klappte, und mit der multi-monitor-unterstützung bin ich auch nicht so recht klar gekommen. ;(
naja, nach nem halben jahr ist die x800 dann wieder rausgeflogen, und wieder eine nvidia-karte im rechner gelandet :)

Gast
2007-07-18, 17:10:35
hab hier noch ne Matrox G100 rumliegen...3D war der größte bockmist ever damit es gab nen cooles dithering statt nem bilinearem filter xD...und die 2D funktionen auch nicht besonders performant.

ABER die 2D bildquali war ganz passabel...einziges problem: sie werkelte zusammen mit ner 8MB Diamond Monster V² wodurch durch den dreckigen dongle die 2D quali eh fürn arsch war. und nen monitor mit 2 eingängen war leider nicht im budget :|

Raff
2007-07-18, 18:06:58
Zur S2K: die T&L-Einheit funktionierte tatsächlich, allerdings war die Treiberunterstützung dafür nicht sehr kompatibel: Meines Wissens funktionierten nur die NVidia-T&L-Demos und 3DMark 2000.

In F.A.K.K. 2 habe ich das vor einem halben Jahr mal probiert. Also HW-T&L per Tweak-Tool aktiviert. Sehr lustige Vorstellung: Polygonverzerrungen an jeder Ecke und ein Fps-Einbruch unter GeForce-256-Niveau.

Ansonsten sehr lustige, interessante Karte, sparsame und gut übertaktbare (fast 50%) Karte, bei der man mit Treiber- Registry- und Umbenenn-Hacks noch ziemlich lange auskam (naja, unter Win98/ME zumindest...) und die z.B. unter Unreal Tournament lange Zeit unerreichbar war.

Naja, nur optisch. Die MeTal-Treiber für XP sind jedenfalls unter aller Sau. Viele stellen z. B. die Detail-Texturen auf jede Entfernung dar ... das flimmert.

Für Quake 3 gabs eine coole HiRes-Texture-Version von S3 zur Demonstration von S3TC.

:eek:
Kann man das irgendwo herunterladen?

MfG,
Raff

Gast
2007-07-18, 18:13:19
denke leider nirgends...mit so promo versionen sind die ja meistens immer sehr geizig.
von Unreal gabs auch mal ne version von Creative (für deren TNT karten) mit Stencil schatten!!!1elf ich hab auch geheult das es das nie als patch gab :|

naja wenigstens konnte/kann man UT und über nen mod ja auch U1 mit den S3TC texturen über D3D zocken...was ja letztendlich wenigstens dem MeTaL techdemo von U1 gleichkam das ja stellenweise die gleichen texturen verwendet hat ;)

Gast
2007-07-18, 18:25:23
http://www.heise.de/ct/98/25/034/bild2.gif

wenns den zugehörigen OGL renderer nur irgendwo gäbe und der auch die S3TC pack von UT supporten würde wäre ich glatt nochmal versucht Unreal installieren ;)

Shink
2007-07-19, 08:25:38
In F.A.K.K. 2 habe ich das vor einem halben Jahr mal probiert. Also HW-T&L per Tweak-Tool aktiviert. Sehr lustige Vorstellung: Polygonverzerrungen an jeder Ecke und ein Fps-Einbruch unter GeForce-256-Niveau.
Naja, zumindest wunderts mich schonmal das es überhaupt funktionierte.


Naja, nur optisch. Die MeTal-Treiber für XP sind jedenfalls unter aller Sau. Viele stellen z. B. die Detail-Texturen auf jede Entfernung dar ... das flimmert.

Es gab MeTal-Treiber für XP? Tatsächlich?

:eek:
Kann man das irgendwo herunterladen?

Wohl kaum. Früher fand mans auf S3s öffentlichen FTP-Server, aber damals fehlte mir die Bandbreite das runterzuladen. Die Demoversion von s3q3 hab ich aber noch irgendwo rumliegen. Funktioniert aber natürlich nur auf Savage-Grafikkarten und nur unter Windows 98/ME

Gast
2007-07-19, 08:47:48
Wohl kaum. Früher fand mans auf S3s öffentlichen FTP-Server, aber damals fehlte mir die Bandbreite das runterzuladen. Die Demoversion von s3q3 hab ich aber noch irgendwo rumliegen. Funktioniert aber natürlich nur auf Savage-Grafikkarten und nur unter Windows 98/ME
Sicher dass das Q3 und nicht Q2 war? Zu Q3-Zeiten gabs S3TC bereits in fast allen aktuellen Karten, bei Q2 war es noch etwas, womit man angeben konnte.

Die eine Q2-Map mit den coolen Textures habe ich auch noch.

Shink
2007-07-19, 10:01:57
Sicher dass das Q3 und nicht Q2 war? Zu Q3-Zeiten gabs S3TC bereits in fast allen aktuellen Karten, bei Q2 war es noch etwas, womit man angeben konnte.

Die eine Q2-Map mit den coolen Textures habe ich auch noch.
Ja, ganz sicher. Hab das Bild noch vor Augen:biggrin:

Gast
2007-07-19, 10:17:58
Cool!! Falls du die Assets wiederfindest - teile die doch mit uns ;-)

robbitop
2007-07-19, 14:46:59
:eek:
Kann man das irgendwo herunterladen?

MfG,
Raff
Wie waere es, wenn du mir stattdessen, endlich meine Savage 2000 zurueckschicken wuerdest? ;)

Raff
2007-07-19, 14:48:48
Lustig. Statt mir das mal zu passender Zeit im ICQ zu sagen, schreibst du das einfach mal ins Forum, während ich sowas von gar nicht zur Post gehen kann. ;)

MfG,
Raff

robbitop
2007-07-19, 14:53:00
Lustig. Statt mir das mal zu passender Zeit im ICQ zu sagen, schreibst du das einfach mal ins Forum, während ich sowas von gar nicht zur Post gehen kann. ;)

MfG,
Raff
Habe ich schon mehrfach du Dieb ^^

sry4spam

No.3
2007-07-19, 17:57:06
Habe ich schon mehrfach du Dieb ^^

*gollumstimme* meiiin schaaaaatz


sry4spam

dito ;(

Gast
2007-07-19, 18:48:36
Der Schrecken #1: ATI Rage *kotz*
Der Schrecken #2: NVIDIA GeFurze 6700 XL *kotz*

Hübie
2007-07-20, 07:36:44
Also ich hab hier die US-Version von Unreal Tournament und da ist auf der zweiten CD die Setup-Routine für die S3TC-Version (Original muss bereits installiert sein).

Ich würde den content ja online stellen nur weiß ich A) nicht obs legal ist und B) wo ichs hochladen soll. Sind immerhin 656MB :D


bye Hübie

Edit :Sorry for OT!

Murhagh
2007-07-20, 08:05:32
...Ich fand meine Voodoo Banshee nicht crappy. Konnte damit auch ohne SLI das meiste in 1024x768 zocken. Mit einer Voodoo 2 hätte ich mit 800x600 vorlieb nehmen müssen. Und mit einer RivaTNT hätte ich nicht den damals noch wichtigen Glide-Support gehabt (v.a. für Unreal, später UT, aber auch für NFS 3). Außerdem war meine damalige CPU (AMD K6 266) zu schwach für die TNT, die Voodoo Banshee nuckelte mit ihren Treibern nicht so sehr an der CPU.
...Auch die Banshee hatte ich, und „meine“ Spiele liefen damit mehr als anständig. Als ich mir dann eine Voodoo3 reinsteckte, merkte ich erst, wie schwach die Karte auf der Brust war … aber hat sich für den Zeitraum gelohnt.


Zum Thema Voodoo Banshee:
Ich hatte der Voodoo 2 auch eine Banshee vorgezogen. Die Kiste hatte damals einen K6-2 400MHz + 64 oder 128 MB RAM. Ich empfand nicht die Leistung der Karte als mangelhaft, sondern eher die Treiber. Es war für mich jedes Mal ein Glücksspiel mit welchem Banshee-Treiber welches Spiel lief.
Leistungsmäßig konnte ich die Banshee jedoch nie vergleichen, da ich mir im Anschluß eine GeForce 256 geholt habe. Ich hatte nie eine Voodoo 2, sondern habe vorher nur die gute alte Diamond Monster besessen.


...Die GF2 Ultra wäre auch noch ein Kandidat … sauteuer, und lief in Serious Sam langsamer als meine Kyro II … Publicity-Karte. :D


Hmm, ich habe noch eine GF2 Pro. Das Ding läuft immer noch in meinem Zweitrechner. Eigentlich ne ordentliche Karte. Allerdings erinnere ich mich auch nicht mehr daran, was ich bezahlt habe. Allerdings fehlt mir auch hier die Vergleichsmöglichkeit zu einer Kyro II.

Winter[Raven]
2007-07-20, 09:56:53
Hmm ...

ATI RAGE, Geforce 5800 Ultra, und die ATI 2900XT...

Radeonator
2007-07-20, 10:44:04
Vieles ist wohl eher Subjektiv hier ...

Richtig Schlecht :
SiS315/128MB -> Sollte ne Überbrückung zur nächsten Graka werden. Saulangsam, beschissenes Matschbild uva
VoodooRush -> Langsam, groß,Matchbild (2d extrem besch... )
S3Virge -> Geldverschwendung
TNT -> Matschbild
Xabre -> Matschbild, inkompatibel, langsam

p.s.: Meine RageFury und RageFury MAXX liefen absolut gut, die Probleme von einigen waren mir immer ein Rätsel...naja, wer suchet der findet ;)

Endorphine
2007-07-20, 13:59:45
Radeon 9700: an sich von der Hardware her eine absolut fantastische Karte. Einziger Nachteil: schlechte Treiber. Ungefähr bis Mitte 2003 grenzwertig, teilweise durch den erst sehr spät behobenen Stutterbug geradezu unbrauchbar. Auch die Treiber für alternative Betriebssysteme sind nicht gerade das Gelbe vom Ei.

Aber irgendwie lässt sich an jeder Grafikkarte ein Makel finden. Nahe der Perfektion war eigentlich nur meine Leadtek Geforce 2/Ti. Die war schnell, leise und günstig, lief für ihre Leistung zu der Zeit unglaublich kühl und die Treiber waren auch sehr gut. Einziger klitzekleiner Makel war, dass zu der Zeit noch keine Passivkühler Mode waren, so dass die Karte einen Placebo-Lüfter hatte, der aber nichts zur Kühlung beitrug. ;) Auch abgeklemmt und übertaktet war der Kühler nur Hand-warm. Zudem war die Karte auch sehr gut zu übertakten.

Danach hatte ich eine GeForce 3/Ti500. Die war von der Performance natürlich deutlich besser, aber eine Heizkachel sonder gleichen. Nix mit Lüfter abklemmen, übertakten bis zum Abwinken bei handwarmem Kühler....

Leadtek GF2Ti:

http://img225.imageshack.us/img225/5626/gf2tiug4.jpg (http://imageshack.us)

Edit:

Die Liste an schlechten Karten, die ich nicht besessen habe, aber bei anderen begutachten konnte ist geradezu endlos :D Mal ein paar Beispiele:
Rendition Vérité
S3 Trio 3D, ViRGE und wie sie alle hießen
Matrox Productiva G100: sie hieß schon extra "Productiva", trotzdem wurde sie von vielen Spielern gekauft, da billig. und viele hofften, eine kleinere G200 zu bekommen. Pustekuchen.
ATI Rage: definiert zu Lebzeiten das Maximum an schlechter Treiberqualität neu
3dfx Voodoo Banshee: ein Witz im Vergleich zur Riva TNT, nur brauchbar wegen GLIDE
Voodoo 3,4,5: heiß, veraltet, lebte nur noch durch die vielen GLIDE-Spiele
Radeon 8500: nach dem Ableben von 3dfx wechselten die ganzen 3dfx-Fanboys natürlich in's ATI-Lager. die R8500 brachte dann wunderbare Pixelshader 1.4-Flames hervor. ;D

Shink
2007-07-20, 14:43:34
Edit:

Die Liste an schlechten Karten, die ich nicht besessen habe, aber bei anderen begutachten konnte ist geradezu endlos :D Mal ein paar Beispiele:
Rendition Vérité
ATI Rage: definiert zu Lebzeiten das Maximum an schlechter Treiberqualität neu

Rendition Verite: War ja die Karte, von der John Carmack behauptete, es sei die einzige mit ordentlichen OpenGL-Treibern.
Die Treiber waren ja in Ordnung, der Preis sogar sehr aber die Performance war gerade etwas zu schlecht.
Rage: Nun ja, damals galten noch andere Maßstäbe. Brauchbar war das Zeug für 3D nie, aber dafür war man wenigstens einer der ersten...

aths
2007-07-21, 14:29:25
;5684397']Hmm ...

ATI RAGE, Geforce 5800 Ultra, und die ATI 2900XT...Hää? Die 2900 XT ist doch keine Gurke.

_DrillSarge]I[
2007-07-21, 14:36:16
Hää? Die 2900 XT ist doch keine Gurke.
hat jedoch anscheinend mit problemen im Treiber/ HW zu kämpfen
z.B. http://www.forum-3dcenter.org/vbulletin/showthread.php?t=372716
abwarten

aths
2007-07-21, 14:39:23
I[;5687160']hat jedoch anscheinend mit problemen im Treiber/ HW zu kämpfen
z.B. http://www.forum-3dcenter.org/vbulletin/showthread.php?t=372716
abwartenDas macht die Karte noch lange nicht zur Gurke.

_DrillSarge]I[
2007-07-21, 14:39:53
hab ich auch nicht behauptet (besitze selber 2) ;)