PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Radeon 9700 Pro Vs Geforce 8800GTX


seba86
2008-11-12, 23:47:09
Hi,

die Radeon 9700 Pro ist ja August 2002 erschienen,
die 8800 GTX November 2006.
Beide haben Maßstäbe gesetzt (neues Leistungssprektrum, neues DirectX), doch welche schätzt ihr als "höher" ein. Mich würde also interessieren, welche der beiden Karten verglichen zu den anderen damaligen Karten eine höhere Perfomance-Sprung aufwies und wie der Abstand nach 2 Jahren war - Also ob der Abstand zwischen der Ati 9700Pro und X800XT PE bzw. 6800 Ultra oder zwischen der 8800GTX und der GTX280 größer ist. Wer ist der König unter den Adleräugigen?

(+44)
2008-11-12, 23:58:11
X800XT-PE war deutlich mehr als doppelt so schnell, die 280 GTX ist vllt 2/3 schneller als die 8800GTX.

Aquaschaf
2008-11-13, 00:05:13
In Retrospektive die 8800.

Tybalt
2008-11-13, 00:06:33
Ein freund von mir Spielt noch immer mit einer 9700pro. Und zwar gerade noch mit mir zusammen Left4Dead. Und er sagt, daß es (für ihn) spielbar ist.
Ich denke das spricht für die Qualität der Karte. Ansonsten spielen wir CoH zusammen.

Coda
2008-11-13, 00:09:13
Die 8800GTX war ähnlich schnell für ihre Zeit und machte dafür nicht eimal Kompromisse bei den Features.

Deshalb votiere ich auch für G80, auch wenn es mir wirklich schwer fällt da einen eindeutigen Sieger zu krönen.

Gast
2008-11-13, 00:11:36
Um welchen Maßstab solls denn gehen?
Einfach nur FPS? Dann dürfte R300 der größere Wurf gewesen sein.
Oder erreichbare Bildqualität? Da muss sich G80 höchstens mit dem VSA100 messen, R300 ist auf dieser Skala relativ bedeutungslos.

Gast
2008-11-13, 00:12:03
Da die 8800 GTX neben der Performance und D3D10 noch deutlich bessere BQ bietet:

[x] 8800 GTX

Coda
2008-11-13, 00:13:32
R300 ist auf dieser Skala relativ bedeutungslos.
Nicht ganz. Beim Anti-Aliasing hat ATI schon neue Maßstäbe gesetzt (sparsed grid, Gammaanpassung, 6xAA)

Übrigens kann R300 laut Datenblatt sogar 3xAA. Wurde nur nirgends jemals eingesetzt ;)

Gast
2008-11-13, 00:16:47
Das lustige ist nur, dass auf den R300er-Karten die Spiele oft deutlich weniger geflimmert haben als selbst mit heutigen Grafikkarten.
Meine 9600GT flimmert trotz Highquality im Treiber bei zB. CSS Compound deutlich mehr als meine ATI Radeon 9700Pro.

Coda
2008-11-13, 00:17:54
Der anisotrope Filter von R300 unterfiltert soweit ich weiß auch nicht und kann nichtmal brilinear. Er hat nur leichte Probleme mit der LOD-Genauigkeit, was man praktisch nicht sieht sowie eben die leidige Winkelabhängigkeit.

Meine 9600GT flimmert trotz Highquality im Treiber bei zB. CSS Compound deutlich mehr als meine ATI Radeon 9700Pro.
Darüber wäre ich aber wirklich erstaunt.

Sorkalm
2008-11-13, 00:18:17
Man muss die Anforderungen ja auch auf die damalige Zeit beziehen. Das Verhältnis zu den - ich nenn sie mal "Qualitätseinstellungen" wurde durch den R300 eigentlich noch mal neu definiert.

Ein Vergleich mit GPUs die zwei Jahre später erschienen ist übrigens auch unglücklich, weil das ja auch mit den entsprechenden GPUs zusammenhängt. ;)

Auf jeden Fall waren beide besondere Karten, durchaus interessant, dass dies im Zusammenhang mit der Umstellung auf DX9 bzw. DX10 führte. Macht das Erscheinen von DX11-Karten gleich besonders spannend. ;)

deekey777
2008-11-13, 00:26:23
Hi,

die Radeon 9700 Pro ist ja August 2002 erschienen,
die 8800 GTX November 2006.
Beide haben Maßstäbe gesetzt (neues Leistungssprektrum, neues DirectX), doch welche schätzt ihr als "höher" ein. Mich würde also interessieren, welche der beiden Karten verglichen zu den anderen damaligen Karten eine höhere Perfomance-Sprung aufwies und wie der Abstand nach 2 Jahren war - Also ob der Abstand zwischen der Ati 9700Pro und X800XT PE bzw. 6800 Ultra oder zwischen der 8800GTX und der GTX280 größer ist. Wer ist der König unter den Adleräugigen?

Die 9700Pro war die erste Grafikkarte, mit der man zu damaligen Zeiten mit 4xMSAA bei annehmbaren Auflösungen spielen konnte. Ihre DX9-Fähigkeit war eher Nebensache (wenn es um Spiele geht, denn bis auf TR: AoD war einfach nix da). Im Vergleich zur 8500 war sie der Überflieger, was eher am R200 lag. Der Sprung von der 9700Pro zur X800XT(PE) war je nach Spiel wirklich extrem.
Im Vergleich zur 7900GTX ist die 8800GTX deutlich mehr als 9700Pro vs. 8500, da es zu dieser Zeit Spiele gab, die eine 7900GTX sehr überfordern konnten (zB R6:V).

Der Performance-Sprung von der 9700Pro -> X800XT PE ist relativ deutlich höher als von der 8800GTX -> 280GTX.
Welcher Grafikchip revolutionärer war? Wenn schon der R300 Evolution des R200 war, kann man sich denken, welcher von den beiden revolutionärer war. So oder so: Beide haben eine Revolution ausgelöst, nicht bloß ein Update.

LovesuckZ
2008-11-13, 00:31:15
8800GTX.
Da weder AMD noch nVidia 2 Jahre nach dem Erscheinen keinen würdigen Nachfolger auf den Markt gebracht haben, spricht Bände über diesen Überflieger.

Spasstiger
2008-11-13, 00:32:13
Der R300 war der erste Grafikchip, wo man fast ausnahmslos 4xMSAA und 16:1 AF als default-Setting bei damals üblichen Auflösungen (1024x768, 1280x960, 1280x1024) wählen konnte.
In der Gesamtentwicklung sind aber einige Parallelen erkennbar. Der G80 hatte rund ein halbes Jahr von 11/2006 bis 05/2007 keinerlei Konkurrenz, ähnlich war es auch beim R300 von 09/2002 bis 02/2003. Dann war die Konkurrenz in weiten Teilen unterlegen und hatte mit Lautstärke- und Abwärmeproblemen zu kämpfen (GeForce FX 5800 Ultra, Radeon HD 2900 XT). Dann kam einige Monate später der Refresh der Konkurrenz, welcher zwar einige Missstände behob, aber dennoch nicht ganz an den Rivalen rankam (GeForce FX 5900 Ultra, Radeon HD 3870).
Und als dann endlich der scheinbar rundum gelungen Nachfolgerchip der unterlegenen Partei kam, waren schon über 1,5 Jahre vergangen und der bislang dominierende Rivale hatte direkt wieder die passende Antwort parat (R420 vs. NV40 gegenüber GT200 vs. RV770).

Mit dem R300 konnte man über 2 Jahre lang bei überwiegend maximalen Details und in 1024x768 mit AA+AF problemlos zocken, die ganzen Blockbuster von 2004 (Far Cry, Doom 3, Half-Life 2) meisterte er problemlos. Ähnlich sieht es mit dem G80 aus, welcher aktuell - 2 Jahre nach dem Release - immer noch mit zu den stärksten Grafikchips zählt und auch fast nirgendwo Probleme mit maximalen Details + AA und AF hat.

Alles in allem fand ich den R300 bedeutender, weil er nach über 2 Jahren des NV-Monopols wieder für Konkurrenz und sinkende Preise sorgte. Man muss aber sagen, dass ich als ehemaliger R300-Besitzer auch nicht ganz neutral in diesem Punkt bin. Ich konnte mir noch 1 Jahr später Benchmarks anschauen und sah meine Grafikkarte mit AA + AF immer noch über dem Besten, was die Konkurrenz zu bieten hatte. Als Oblivion 3 Jahre später kam, konnte ich mit meinem R300 immer noch mit Parallax Mapping und vollen Texturdetails in 1024x768 bei über 30 fps zocken, während mit der GeForce FX 5900 Ultra gar nix mehr zu reißen war (einstellige Frameraten). Solche Erlebnisse wird ein G80-Besitzer wohl nie haben, weil der RV670 mit neueren Spielen eher aufholt als weiter an Boden zu verlieren. Ok, wenn der größere VRAM der 8800 GTX zum Tragen kommt, sieht die HD 3870 auch kein Land mehr.

Coda
2008-11-13, 00:47:12
Solche Erlebnisse wird ein G80-Besitzer wohl nie haben, weil der RV670 mit neueren Spielen eher aufholt als weiter an Boden zu verlieren.
Wieso sollte er?

Gast
2008-11-13, 00:47:59
Das Bedeutenste am R300 ist, das er der erste bekannte ATi Chip geworden ist.

Seine 16xAF Performance kannst du ins Klo spülen, bei der Qualität kein Wunder.


Da machts G80 besser:
16xAF immer nutzbar + Qualiät ist auch 2 Jahre später unnerreicht.
8k x 8k Pixel Rendertarget
revolutionäres schnelles CSAA
Physikbeschleunigung
GPGPU Fähigkeiten

Ja, zum Teil gabs die Features erst später, aber was gabs beim R300 später? Neue "Optimierungen", sonst noch?

Spasstiger
2008-11-13, 00:51:05
Wieso sollte er?
Die Shaderleistung des RV670 ist höher. Es wird auf jeden Fall nie die Situation eintreten, dass man mit dem G80 noch etwas in Mainstream-Settings mit Eye-Candy flüssig zocken kann wo der RV670 nur noch eine Diashow abliefert. Ganz anders als beim R300 vs. NV35.

/EDIT: Die Geometrie-Leistung des RV670 ist auch höher als beim G80. Spielt natürlich keine große Rolle, das Hauptproblem ist die Texelfüllrate.

Btw.: Mit dem R300 kann man heute noch das eine oder andere aktuelle Spiel wagen, solange kein SM3 vorausgesetzt wird. Es ist erstaunlich, was der alte Chip noch auf den Bildschirm bringt, selbst World in Conflict ist bei niedrigen bis mittleren Details möglich (habs selbst getestet) und sieht gar nicht übel aus. Das Problem ist in meinem Zweitrechner mit der Radeon 9700 eher noch die CPU, die mit aktuellen Spielen leider maßlos überfordert ist (P4 2,53 GHz). Black & White 2 spielt sich z.B. irgendwann nur noch im einstelligen fps-Bereich ab, obwohl man von Grafikkartenseite aus einiges an Eye-Candy reinhauen kann.

deekey777
2008-11-13, 00:51:13
Das Bedeutenste am R300 ist, das er der erste bekannte ATi Chip geworden ist.

Seine 16xAF Performance kannst du ins Klo spülen, bei der Qualität kein Wunder.


Da machts G80 besser:
16xAF immer nutzbar + Qualiät ist auch 2 Jahre später unnerreicht.
8k x 8k Pixel Rendertarget
revolutionäres schnelles CSAA
Physikbeschleunigung
GPGPU Fähigkeiten

Ja, zum Teil gabs die Features erst später, aber was gabs beim R300 später? Neue "Optimierungen", sonst noch?

Es gab beim R300 keine "Optimierungen", im Gegenteil: 2004 wurde die TS-Optimierung ganz abgeschafft.
Bevor man irgendwas so "Schlaues" schreibt, sollte man wenigstens Postings anderer lesen.

Die Shaderleistung des RV670 ist höher. Es wird auf jeden Fall nie die Situation eintreten, dass man mit dem G80 noch etwas in Mainstream-Settings mit Eye-Candy flüssig zocken kann wo der RV670 nur noch eine Diashow abliefert. Ganz anders als beim R300 vs. NV35.
Ich glaube kaum, dass die höhere Shader-Leistung des RV670 je ausschlaggebend sein wird.

Gast
2008-11-13, 00:56:30
Es gab beim R300 keine "Optimierungen", im Gegenteil: 2004 wurde die TS-Optimierung ganz abgeschafft.
Bevor man irgendwas so "Schlaues" schreibt, sollte man wenigstens Postings anderer lesen.
Achso, R300 hat natürlcih vollkommen regelkonform gefiltert.
Deshalb die kreisrunde AF-Blume. :rolleyes:

deekey777
2008-11-13, 00:57:43
Achso, R300 hat natürlcih vollkommen regelkonform gefiltert.
Deshalb die kreisrunde AF-Blume. :rolleyes:
Sag mal, hast du überhaupt verstanden, worum es in diesem Thread geht?

Gast
2008-11-13, 01:05:11
Natürlich, du brauchst mir nicht erzählen, das R300 in allen Belangen so toll war.

deekey777
2008-11-13, 01:10:53
Natürlich, du brauchst mir nicht erzählen, das R300 in allen Belangen so toll war.
Dann mache ich mal bei deinem Spielchen mit:
Der R300 lieferte im Vergleich zu seinem Hauptkonkurrenten - dem NV25 - schlechtere anisotrope Filterung, da er nur bei bestimmten Winkeln die volle Filterung aufweisen konnte. Der NV25 beherrschte max. 4xAF? Und das bestimmt sehr schnell... Der NV25 beherrschte auf Papier noch MSAA.
Wow, der R300 war somit nicht das, als ich ihn beschrieb, weil er mit 16xAF nicht alle Winkel gleich behandelte. Nur konnte ich mit dem Abkömmling des R300, dem R350 alias 9800Pro, bis März 2007 alles Spielen, was ich wollte. Ging das mit dem NV25?

Blaire
2008-11-13, 01:13:29
Der WOW Effekt war in etwa gleich auf die jeweilige Zeit bezogen, nur die Voodoo 1 konnte das noch toppen.

derguru
2008-11-13, 01:16:09
Mit dem R300 konnte man über 2 Jahre lang bei überwiegend maximalen Details und in 1024x768 mit AA+AF problemlos zocken, die ganzen Blockbuster von 2004 (Far Cry, Doom 3, Half-Life 2) meisterte er problemlos. Ähnlich sieht es mit dem G80 aus, welcher aktuell - 2 Jahre nach dem Release - immer noch mit zu den stärksten Grafikchips zählt und auch fast nirgendwo Probleme mit maximalen Details + AA und AF hat.


ja aber für damalige verhältnisse waren die blockbuster auch blockbuster(in grafischer hinsicht),da hat es die 8800gtx einwenig einfacher gehabt bei konsolenports.vom verhältniss her ist crysis der blockbuster von heute und da kam die 8800gtx nicht weit.
mir fällt nicht mal ein titel ein zur zeit der 8800gtx.edit:(doch oblivion auch konsolenport und da gabs auch extreme einbrüche in 1280*1024 mit 4aa)
der r300 war zu seiner zeit einfach ein anderes kaliber.
hier mal zur erinnerung was die mit der konkurrenz gemacht hatte;D
http://www.abload.de/img/checkerzsb9.gif

Sonyfreak
2008-11-13, 01:16:11
Ich denke mal, dass beide Karten zu ihrer Zeit einen ähnlichen Aha-Faktor gehabt haben. Die Frage ist, ob sowas noch einmal gelingen kann.

mfg.

Sonyfreak

Raff
2008-11-13, 01:23:50
Die Frage ist, ob sowas noch einmal gelingen kann.

Natürlich. Wer dachte nach dem R300 daran, dass jemals wieder etwas so knallen könnte? 4 Jahre später kam der G80.

Ich stimme auch knapp für Letzteren, und damit für die GeForce 8800 GTX. Diese Grafikkarte hat mich schon ziemlich beeindruckt. Brachial schnell und selbst heute noch im oberen Mittelfeld dabei. Eine R300-Karte hatte ich nie, jedoch eine 9800 Pro (R350). Das Teil schaffte eine ähnliche Meisterleistung, denn damals lief alles mit 6x MSAA/"16:1" AF flüssig. Der G80 vereint Checklisten-Überlegenheit und hohe Rechenleistung jedoch mit den besten AA/AF-Modi überhaupt – daher Platz 1. Die Karte war/ist einfach übelst nah an der Perfektion, da sich noch immer kein ernsthafter Flaschenhals für Spieler herauskristallisierte (mal von 8x MSAA abgesehen).

Dass die GTX 280 "unwürdig" ist, finde ich indes nicht. Sie kann sich in gängigen Auflösungen oft nicht deutlich absetzen. Keult man beide Karten aber mal richtig – SSAA ahoi –, dann ist die GTX 280 über jeden Zweifel erhaben und deklassiert jede G80- und erst recht G92-Karte.

MfG,
Raff

deekey777
2008-11-13, 01:26:45
Ich denke mal, dass beide Karten zu ihrer Zeit einen ähnlichen Aha-Faktor gehabt haben. Die Frage ist, ob sowas noch einmal gelingen kann.

mfg.

Sonyfreak
Larrabee macht alle nass. :biggrin:

Wenn man zurückblickt, so gab es in den letzten zehn Jahren immerwieder kleiner und größere Wows.
Der NV10 hatte seine T&L-Einheit und bot gute Spielleistung. Der R100 war technologisch überlegen (und die Leistung war einwandfrei). Der NV20 brachte programmierbare Einheiten (und AF+MSAA), der R200 brachte programmierbarere Einheiten und war nicht weit von DX9 entfernt. Der R300 schlug wie eine Bombe ein: richtig programmierbare Einheiten, geniales MSAA, nutzbare anisotrope Filterung. Der NV30 war technologisch gesehen ein weiterer Schritt. Der NV40 war eine Wucht: SM3, echte "HDRR-Pipeline" und vieles mehr. Der R520 zeigte das, was die DX10-Chips bringen ("Pixel-Threads", SIMTs, GPGPU). Der G80 hat soviel Neues mitgebracht (DX10, programmierbar wie Sau).


Was die Kantenglättung angeht, kann man ATi loben. Es war schon eine interessante Sache, als ein Grafikchip ano 2002 per Treiberupdate mal einfach Transparenz-AA beherrschte. Und ohne Zweifel könnte das Teil auch MSAA in UE3-Spielen, solange der Techlevel bei SM 2 ist.

noch ein Gast
2008-11-13, 01:29:06
Sag mal, hast du überhaupt verstanden, worum es in diesem Thread geht?Hat das irgendjemand? Bei dem Threadstart war klar, dass jeder seine eigenen Maßstäbe ansetzt. Weshalb ich zuerst fragte, um welche Maßstäbe es eigentlich überhaupt gehen soll. Tja, und dann kam das Übliche, jeder setzt nur die eigenen Maßstäbe an und alle reden aneinander vorbei, aber das mit Leidenschaft. Auch die anderen Gäste. Und wenn das Thema eh schon so schwammig ist, warum nicht gleich die alten Hasslieben herauskramen und sich einfach so gegenseitig an die Kehle hüpfen, ohne dem vermuteten Threadthema überhaupt Beachtung zu schenken?

Same shit, different day

PS:
R300 litt nicht an "Optimierungen", tatsächlich bekam er mit AAA sehr spät noch ein zusätzliches Feature. Nur mal so als Argument für diejenigen, die unser Forum noch nicht mit einer Dailysoap verwechseln. Ach ja, NV2X konnte 8xAF. Und 8xS. Beides durchaus nutzbar. Zwar nicht direkt Threadthema, aber was solls...

Raff
2008-11-13, 01:32:57
Es war schon eine interessante Sache, als ein Grafikchip ano 2002 per Treiberupdate mal einfach Transparenz-AA beherrschte.

Ich frag' mich spontan, wo denn das Feature auf dem NV40 hin ist. Das ging doch mal, oder? Inoffiziell? Hab' das nie selbst getestet, aber neulich, beim Quälen einer 6800 Ultra, war im CP nichts zu sehen.

MfG,
Raff

PS: EATM/ATMS auf R300? :naughty:

deekey777
2008-11-13, 01:51:35
...
hier mal zur erinnerung was die mit der konkurrenz gemacht hatte;D
http://www.abload.de/img/ati-radeon-9700-3d2y46u.gif
Zur Erinnerung: 4xS und 6xMSAA sind zwei verschiedene paar Schuhe.
Aber das interessiert dich ja nicht.

derguru
2008-11-13, 02:15:22
Zur Erinnerung: 4xS und 6xMSAA sind zwei verschiedene paar Schuhe.
Aber das interessiert dich ja nicht.

ja stimmt 2 verschiedene schuhe mit fast dem selben ergebniss.:eek:
muss ich gleich mal editieren,ändern tut sich eh sogut wie nichts.aber zur belohnung bekommste ein eis.;)

Banshee18
2008-11-13, 03:18:00
Nicht ganz. Beim Anti-Aliasing hat ATI schon neue Maßstäbe gesetzt (sparsed grid, Gammaanpassung, 6xAA)
sparse
Dass ich dich mal korrigieren darf, hätte ich nicht gedacht. :biggrin: ;)
ja stimmt 2 verschiedene schuhe mit fast dem selben ergebniss.:eek:
Du weißt, dass 4xS einen Supersamplinganteil hat? Du weißt, dass 4xS eine EER von 2x4 hat und deshalb Polygonkanten deutlich schlechter als 6xAA, was eine EER von 6x6 hat, glättet? Anscheinend nicht.

Coda
2008-11-13, 03:25:26
Die Shaderleistung des RV670 ist höher.
Ist sie effektiv eben nicht.

ja stimmt 2 verschiedene schuhe mit fast dem selben ergebniss.:eek:
Das Ergebnis ist ganz sicher nicht fast das gleiche. Supersampling glättet auch Texturen und das ganze Bild wird ruhiger. Der Vergleich ist einfach nur blöd.

seba86
2008-11-13, 03:40:29
Wow - soviel Resonanz... Das ist ja richtig viel Ehre für die beiden Blechstücke *gg*
So, habe eben eine Umfrage hinzugefügt :D

derguru
2008-11-13, 04:10:04
sparse
Dass ich dich mal korrigieren darf, hätte ich nicht gedacht. :biggrin: ;)

Du weißt, dass 4xS einen Supersamplinganteil hat? Du weißt, dass 4xS eine EER von 2x4 hat und deshalb Polygonkanten deutlich schlechter als 6xAA, was eine EER von 6x6 hat, glättet? Anscheinend nicht.
Ist sie effektiv eben nicht.


Das Ergebnis ist ganz sicher nicht fast das gleiche. Supersampling glättet auch Texturen und das ganze Bild wird ruhiger. Der Vergleich ist einfach nur blöd.

ohmann,das war ein versehen mit dem vorigen 4xS tabelle,lol.
mit dem ergebnis ist der msaa vergleich der 2.tabelle gemeint aber macht ja nichts.was hier einen unterstellt wird ich lach mich weg.
Zur Erinnerung: 4xS und 6xMSAA sind zwei verschiedene paar Schuhe.
Aber das interessiert dich ja nicht.
kein wunder bei so provokanten äußerungen.

reunion
2008-11-13, 08:16:52
Im Vergleich ganz klar 9700pro. Sie war der Konkurrenz weiter voraus als eine 8800GTX. Wobei das natürlich hauptsächlich damit zusammen hing, dass NV SM2 vollkommen versaut hatte. Die 9700pro hätte ich fast vier Jahre im Rechner, während ein Freund mit einer 5800 schnell einsehen musste, das die Karte bei jedem Shader >1.1 nur noch eine Diashow produzierte und diese bald austauschen musste. Die 9700pro war sehr kühl und ließ sich mit einem Miniquirl kühler, während die Konkurrenz mit einem denkwürdigen "FX-Flow" antanzen musste. Die Karte bot damals konkurrenzloses AA, einziger Kritikpunkt war das winkelabhängige AF, was aber bei damaligen Kontent und dank sonst optimierungsfreien Filter kaum auffiel. Die Leistung war natürlich über jeden Zweifel erhaben, die 9700pro war die erste Karte welche bei damaligen Top-Titeln hohe AA/AF-Sufen erlaubte. Einen solchen Qualitätssprung vermochte die 8800GTX nicht für sich zu verbuchen.

/Edit: Voodoo1 kann ich nicht beurteilen.

Ist sie effektiv eben nicht.


Zumindest ist der Unterschied in punkto Shaderleistung geringer als bei anderen Dingen, der Chip wird also tendenziell sicher nicht weiter abbauen.

robbitop@work
2008-11-13, 08:37:11
Keult man beide Karten aber mal richtig – SSAA ahoi –, dann ist die GTX 280 über jeden Zweifel erhaben und deklassiert jede G80- und erst recht G92-Karte.

MfG,
Raff
Bei deinen SSAA (16xS + hohe Auflsöung?) Test spielte VRAM des G92 und G80 sicher auch eine Rolle. ;)

Raff
2008-11-13, 08:39:27
Kaufst du nur die GPU oder die ganze Karte? ;)

MfG,
Raff

V2.0
2008-11-13, 08:45:20
Abgseehn von grundsätzlich jeder 3dfx karte war die 9700pro ein Meilenstein. 8800GTX war nix besonders.

=Floi=
2008-11-13, 08:49:26
eigentlich war doch die v1 der größte technologische schritt ( ;);D )
3dfx hat doch hier einfach den besten anfang gemacht.

aufgrund der heutige anforderungen ist eben der g80 in so vielen sachen so bahnbrechend gewesen. Die USA ist wohl der größte schritt der letzten jahre und schlicht auch der wichtigste. durch diesen schritt ist es erst möglich geworden programme ohne hacks und viel programmiererei auf der gpu auszuführen. Die usa selbst ist auch sehr flexibel und anpassungsfähig. Ja selbst die ganze architektur ist absolut skalierbar vom chipsatz bis zur highend karte.

Lightning
2008-11-13, 09:00:43
Rein von der Leistungsstabilität würde ich die 8800 GTX leicht vorne sehen (was allerdings auch daran liegt, dass es seit Crysis kaum richtige Leistungsfresser gab). Das Featureset ist ebenso klasse: Neue AA-Modi (inkl. SSAA), annähernd winkelunabhängiges AF, SM 4.0.
Trotzdem, der Überraschungsfaktor, mit dem ATi mit der 9700 Pro die Konkurrenz alt aussehen ließ, sucht irgendwo schon seines gleichen. Ein richtiger Befreiungsschlag, den damals kaum einer vermutet hätte.

AnarchX
2008-11-13, 09:22:14
9700 Pro:
- schnelles und hochqualitatives MSAA, was die Konkurrenz erst 2006 übertraf von der Qualität her(Hybride mal aussen vor)
- schnelles 16:1 AF, was den meisten von der Qualität ausreichte
- gute Architektur, aber wenige Überraschungen, wenn man von R200 ausgeht
- mit 128MiB eher grenzwertiger Speicherausbau für eine High-End-Karte, was in späteren Titeln durchaus ein Nachteil wurde
- deklassierte Konkurrenz, bis zur nächsten Generation und einigen Punkten darüber hinaus (BQ-Features)
- erste DX9-GPU, wenn auch hier nur das Nötigste implementiert wurde

8800 GTX:
- amtierender* Bildqualitätskönig: bis 8xMSAA, SSAA, Hybride, CSAA, praktisch winkelunabhängiges AF
- völlig überraschende Architektur: USA, skalare ALUs, Shaderdomain mit >1GHz
- angemessener Speicherausbau mit 768MiB, mit der man selbst dem VRAM-Bug trotzen kann
- deklassierte Konkurrenz, bis zur "nächsten" Generation und einigen Punkten darüber hinaus (BQ-Features)
- erste DX10-GPU, mit Ansätzen in Richtung DX10.1
- C-Programmierbarkeit durch CUDA

*bezieht sich natürlich auf alles >=GF8

Durchaus keine einfach Entscheidung, jedoch ist imo aus Enthusiastensicht G80 doch als der größere Wurf sehen, wenn auch er sich in einigen Punkten die erfolgreiche Strategie des R300 fortführt, aber auch einiges besser machte.

Argo Zero
2008-11-13, 09:54:32
Die GeForce kann das, was jede Mainstream Grafikkarte auch kann. Heutzutage gibt es einfach keine riesen Sprünge mehr und es dreht sich um diverse Filter.
Ergo dreht sich bei mir das Rennen um die Radeon 9700 und der Voodoo.
Wenn ich zurückdenke an Outlaws und anderen tollen Spielen, dann muss ich mich knapp für die Voodoo entscheiden. Das war für mich damals einach eine Wundertüte. Heute weiß man schon vorher, wie ein Spiel aussehen wird bzw. was man zu erwarten hat.

Christi
2008-11-13, 09:57:28
hatte meine 9700er pro 5 jahre im pc und da habe ich noch so einiges gezockt.

das muss die 8800 erst mal annähernd schaffen. eins ist aber fakt, ihre zeit weit voraus waren beide

Gast
2008-11-13, 10:40:27
hab noch immer ne 9700pro im pc für CS und einige alte games... rennt noch immer ganz anständig. n v2 SLI hab ich auch noch und ne x850 hatte ich als 3870 ersatz drin (die war hops). alle dieser karten sind richtig geil, die 5750 die ich noch habe ist müll, die 7900 die ich hatte war nichtmal so schnell wie die x850, naja, am ende zeigt sich einfach dass ati karten länger halten.

mein liebling ist aber noch immer der vsa100, der ging ab. kein spiel war so schön wie mit ner voodoo - und seis nur meine auffassung.

Gast
2008-11-13, 10:49:22
hier mal zur erinnerung was die mit der konkurrenz gemacht hatte;D
http://www.abload.de/img/checkerzsb9.gif
Toller Vergleich mit 4xS.

Na gucken wir mal auf Launchdatum:
Ti 4600: 02/2002
9700 Pro: 08/2002
5800 Ultra: 01/2003

Hm, FX und Radeon 9 sind zeitlich näher, aber logisch das du lieber ATi gut stellen willst.

In der geschichte gibts übrigens genug Fälle, wo Nvidia deutlich vor ATi dran war, da würdest du diese Vergleiche unfair nennen.
Zb: 7800 GTX vs X850 XT PE; 8800 GTX vs 8800 GTX vs X1950 XTX ....

Bei deinen SSAA (16xS + hohe Auflsöung?) Test spielte VRAM des G92 und G80 sicher auch eine Rolle. ;)
Manch ein G92 hat mehr VRAM als ein G80.

Pirx
2008-11-13, 12:28:42
Die 5800Ultra war doch der Fön, oder?:D

Ich würd' sagen R300, der über einen laangen Zeitraum immer wieder positiv überzeugen konnte.

Gast
2008-11-13, 12:39:25
Ja, dessen Nachfolger die 4870 X2 ist. ;)
Aber darum gehts nicht, es geht darum das der ach so neutrale "derguru" absichtlich einen sehr ATi seitigen Post verfasst hat.

Gast
2008-11-13, 12:40:03
4870 X2
oder HD 2900 XT

Mr. Lolman
2008-11-13, 13:16:30
Ja klar. Weil ja beide 12 Sone erreichen :rolleyes:

Gast
2008-11-13, 13:24:02
Die 4870 X2 ist fähig 12,5 sone rauszuhauen, aber das ist OT.

Mr. Lolman
2008-11-13, 13:34:05
Stimmt, wenn mans mit 100% Lüftergeschwindigkeit laufen lässt...

Gast
2008-11-13, 13:42:02
Klar 8800GTX, die Architektur kann man noch heute als Genial Bezeichnen und hat sogar schon zum teil DX10.1 drin. Die ganzen Erweiterungen die danach noch kamen (Cuda, PhysX) macht die Karte einfach Super Besonders.

Die 9700 hatte im Vergleich eingentlich rein gar nichts zu bieten, ausser einfach die hohe Leistung.

Mr. Lolman
2008-11-13, 13:45:26
Die 9700 hatte im Vergleich eingentlich rein gar nichts zu bieten, ausser einfach die hohe Leistung.

Und gute BQ. Bis ein 4x4EER ohne SSAA (und entsprechendem Leistungsverlust) bei NV möglich war, mussten noch 2 Jahre verstreichen...

Gast
2008-11-13, 13:52:24
Und gute BQ.
Wenn du den Texturfilter weglässt.

derguru
2008-11-13, 13:54:29
Toller Vergleich mit 4xS
Na gucken wir mal auf Launchdatum:
Ti 4600: 02/2002
9700 Pro: 08/2002
5800 Ultra: 01/2003

Hm, FX und Radeon 9 sind zeitlich näher, aber logisch das du lieber ATi gut stellen willst.

dann guck du mal auf den launchdatum,
9800 pro 02/2003
und bevor jetzt noch kommt das die für die 5900 ultra vorgesehen war meinetwegen bitte, die hat sie auch noch in die tasche gesteckt.

zum 1000 mal das mit dem 4xS war versehentlich,aber wenn ein mod wie deekey noch sozusagen absicht unterstellt kein wunder das dann solche gast posts kommen.

Ja, dessen Nachfolger die 4870 X2 ist. ;)
Aber darum gehts nicht, es geht darum das der ach so neutrale "derguru" absichtlich einen sehr ATi seitigen Post verfasst hat.

ich hab nichts verfälscht es war so damals da braucht man nichts zu verfälschen,wenn du damit probleme hast den geh zum psychologen und lass dir gleich auch eier verpflanzen.

genauso das mit dem fön vergleich von Pirx,rofl dann kommen die gast posts aller die 4870x2 wäre auch so laut wenn man die voll aufdreht,wie lächerlich kein wunder das du,die anonym bleiben.(war ja sooo bösartig gemeint)

LovesuckZ
2008-11-13, 14:08:23
Und gute BQ. Bis ein 4x4EER ohne SSAA (und entsprechendem Leistungsverlust) bei NV möglich war, mussten noch 2 Jahre verstreichen...

Und bis man annährend gleiche Filterqualität hatte, musste man auf AMD Seite noch 4 Jahre warten.
Hat eben alles zwei Seiten. ;)

Gast
2008-11-13, 14:19:40
dann guck du mal auf den launchdatum,
9800 pro 03/2003
"-" steht für einen Monat:

8500 -- Ti 500 ---- Ti 4600 ------ 9700 Pro ----- 5800 Ultra -- 9800 Pro -- 5900 Ultra -----5950Ultra -- 9800 XT


Der Abstand T 4600 -> 9700 Pro ist in dem Bereich der Längste.

Mr. Lolman
2008-11-13, 14:21:22
Und bis man annährend gleiche Filterqualität hatte, musste man auf AMD Seite noch 4 Jahre warten.
Hat eben alles zwei Seiten. ;)
Vergiss nicht, dass Nvidia noch zu NV30-Zeiten die Filteroptimierungen eingeführt hat. Tatsächlich war die Default-AF-BQ bei NV nur bis inkl. ein paar Monate nachdem Erscheinen des R300 besser...

EDIT: OK, relativ winkelunabhängig blieb das NV30-AF dennoch ;)

reunion
2008-11-13, 14:22:06
Und bis man annährend gleiche Filterqualität hatte, musste man auf AMD Seite noch 4 Jahre warten.


Das war aber bei nV mitnichtern besser, da musste man AFAIK sogar noch länger warten um wieder die gleiche Filterqualität zu erreichen. :)

LovesuckZ
2008-11-13, 14:24:37
3 1/2 Jahre gegenüber 4 Jahre.

Vergiss nicht, dass Nvidia noch zu NV30-Zeiten die Filteroptimierungen eingeführt hat. Tatsächlich war die Default-AF-BQ bei NV nur bis inkl. ein paar Monate nachdem Erscheinen des R300 besser...

EDIT: OK, relativ winkelunabhängig blieb das NV30-AF dennoch ;)

Wir reden hier vom Erscheinen des r300 und nicht vom NV30. ;)

Gast
2008-11-13, 18:39:47
Was gibet da zu mäkeln, die FX-Reihe war zur Zeiten der 9700PRo uchstäblicher Schrott. Hatte zwar einige interessante Technikansätze
aber war den ATI-Karten leistungstechnisch deutlich unterlegen.

Pirx
2008-11-13, 18:52:01
Was gibet da zu mäkeln, die FX-Reihe war zur Zeiten der 9700PRo uchstäblicher Schrott. Hatte zwar einige interessante Technikansätze
aber war den ATI-Karten leistungstechnisch deutlich unterlegen.
Am Anfang schien es ja noch brauchbar auszusehen, mit Benchmark-Gewinnen für die FX.:ulol: Ihr Rückstand wurde aber mit der Zeit und neuen Spielen immer eklatanter, was bis zum völligen "absaufen" der FX mit ihrer tollen CineFX-Engine ging.:D

Raff
2008-11-13, 19:16:14
Was gibet da zu mäkeln, die FX-Reihe war zur Zeiten der 9700PRo uchstäblicher Schrott. Hatte zwar einige interessante Technikansätze
aber war den ATI-Karten leistungstechnisch deutlich unterlegen.

Gerade beim Release des NV30 (5800/Ultra) war das Ding noch konkurrenzfähig, da die meisten Spiele noch DX7/8 nutzten. Da geht das Teil dank überlegener Füllrate hübsch ab. Doch DX9 war im Kommen ... und die FX-Leistung damit am Gehen. ;) Heutzutage rennt ein R300 selbst einem NV38 davon. Ähnliches wiederholt sich übrigens im Duell G71 gegen R580.

MfG,
Raff

Eggcake
2008-11-13, 19:18:56
Mh naja...9700 Pro hat mich damals schon mächtig umgehauen. War auch etwa 5 Jahre lang in meinem HauptPC, wobei die 8800 GTS nach 3/4 Jahre bei mir schonwieder rausflog.

Hat sicherlich auch damit zu tun, dass ich 5 Jahre lang mehr oder weniger weg vom Grakamarkt war und jetzt etwas "aktiver" bin bzw. auch öfters am PC rumbastle.

Gast
2008-11-13, 19:24:50
Gerade beim Release des NV30 (5800/Ultra) war das Ding noch konkurrenzfähig
Du untertreibst, er hat die Konkurrenz überholt. ;)

Wäre die FX etwas früher gekommen, na ich denke mal dann wärs nie so schlimm für die FX geworden.

Spasstiger
2008-11-13, 21:40:52
Du untertreibst, er hat die Konkurrenz überholt. ;)

Wäre die FX etwas früher gekommen, na ich denke mal dann wärs nie so schlimm für die FX geworden.
Statt der GeForce 4 Ti hätte man eigentlich die FX bringen sollen.

Wenn man bedenkt, dass die GeForce 4 Ti im Kern immer noch das 4x2-Design der GeForce 2 verwendete, hat sich Nvidia ganz schön Zeit gelassen. Selbst die GeForce FX war noch ein 4x2-Design. Hätte 2002 ganz gut gepasst, 2003 zahlte sich aber das 8x1-Design des R300 mehr aus.

Exxtreme
2008-11-13, 22:28:20
Beide GPUs waren auf ihre Art und Weise interessant. Der R300 war verdammt schnell was MSAA angeht. Er hat nämlich ein recht brauchbares Feature namens Color Compression eingebaut bekommen. Das brachte zum Teil extreme Geschwindigkeitsvorteile (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=43385&highlight=color+compression) mit sich. Desweiteren ein 256 Bit-Speicherinterface und war Direct3D 9-fähig. Der direkte Konkurrent der NV 25 und seine Nachfolger NV3x waren in weiten Teilen völlig chancenlos. Gegen dieses Füllraten-, Bandbreiten- und Effzienzmonster kamen sie nicht an und je neuer das Spiel war desto weiter vergrösserte sich der Abstand. Nur in alten Spielen waren sie konkurrenzfähig dank höherer Taktfrequenz. Der R300 war insgesamt wirklich sehr langlebig und eine der zukunftssichersten Grafikchips ever. Und per Treiberupdate gab es einen experimentellen Transparenz-AA-Modus. Es hielten auch nicht wenige Leute für völlig unmöglich, daß ein 150 µm-107-Mio.-Transistoren-Chip mit über 300 MHz laufen konnte.

Der G80 war aber IMHO mindestens so ebenbürtig. Verdammt flott, kaum Kompromisse mit irgendwelchen Filtertricks, sehr flexible Unified Shader Achitecture, Direct3D 10 und sehr viele Checklistenfeatures bei extrem hohen Speed. Keine richtigen Flaschenhälse wo die Leistung überraschenderweise einbrach etc. Das Teil spielt immer noch recht oben mit nach 2 Jahren.


Aber ihre Nachteie hatten die beiden Kontrahenten auch. Beim R300 war's die Texturfilterung. AF-Blume und niedrige Präzision waren nervig. Beim G80 ist's der VRAM-Bug.

aber irgendwas ist ja immer. :D

Gast
2008-11-13, 22:31:40
Kann mich noch gut daran erinnern wie die NV-Kiddies fleißig ihre FX 5200er Karten gakauft haben. Dagegen war auch eine 4200TI noch deutlich flotter (allerdings prinzipbedingt nur in DX7/8) und ne ATI-Karte kommt ja nicht in Frage (steht ja nicht NV drauf und hat immer scheiß Treiber).

Die Wahrheit war, das ich derart ordentliche Treiber wie sie seit dem R300 entwickelt wurden vorher noch nicht hatte. Ich hatte dammals noch eine Geforce 2 TI. Gerade bei der Stabilität waren die BEI MIR einwandfrei da
hat die Nvidia-Karte öfter rumgezickt und ich musste nicht für jedes Spiel einen speziellen Treiber installieren (siehe BF2).

Die 8800GTX ist sicher ein Hingucker aber irgendwie sehe ich die Radeon 9700 Pro nach der Voodoo1 immer noch vorne.

rookz
2008-11-13, 22:40:24
Es sind alles Meilensteine aber ohne die Voodoos wären wir heute ganz wo anders...

Brimborium
2008-11-13, 23:20:26
Etwas OT, aber imho trotzdem interessant: offenbar werden nach all den Jahren immer noch R300-Restbestände auf Billigkarten (http://cgi.ebay.de/ATI-RADEON-9700-PRO-256MB-AGP-4x-8x-9700pro_W0QQitemZ170268018165QQcmdZViewItemQQptZDE_Elektronik_Computer_Computer_ Graphikkarten?hash=item170268018165&_trksid=p3286.c0.m14&_trkparms=72%3A1239|66%3A2|65%3A12|39%3A1|240%3A1308) verlötet. :eek:

Spasstiger
2008-11-13, 23:36:49
Es sind alles Meilensteine aber ohne die Voodoos wären wir heute ganz wo anders...
Naja, wenn die Voodoo nicht erschienen wäre, hätte halt der NV3 deren Rang eingenommen. Die Konsolen (Playstation, N64) haben die Marschrichtung schon vorgegeben, 3D war die Zukunft und dazu reichten die damaligen CPUs alleine nicht aus. 3D-Bechleuniger waren also die logische Konsequenz.

Chris2CB
2008-11-13, 23:45:25
Naja, wenn die Voodoo nicht erschienen wäre, hätte halt der NV3 deren Rang eingenommen. Die Konsolen (Playstation, N64) haben die Marschrichtung schon vorgegeben, 3D war die Zukunft und dazu reichten die damaligen CPUs alleine nicht aus. 3D-Bechleuniger waren also die logische Konsequenz.


Naja, man sieht doch in anderen Bereichen das gewisse Produkte einen großen Einfluss haben können, auf einen ganzen Industrie Zweig.

Gast
2008-11-14, 09:48:58
Selbst hier können die Fanboys das Flammen nicht lassen. Wie bemitleidenswert.

[x]9700pro. Bahnbrechend und auch langlebig. In meinem alten Zweit-PC aus dem Jahre 2003 werkelt sie nunmehr 5 Jahren. Das muss die 8800 erst noch beweisen.

Raff
2008-11-14, 09:52:52
Statt der GeForce 4 Ti hätte man eigentlich die FX bringen sollen.

Wenn man bedenkt, dass die GeForce 4 Ti im Kern immer noch das 4x2-Design der GeForce 2 verwendete, hat sich Nvidia ganz schön Zeit gelassen. Selbst die GeForce FX war noch ein 4x2-Design. Hätte 2002 ganz gut gepasst, 2003 zahlte sich aber das 8x1-Design des R300 mehr aus.

Warum hätte man etwas FX-artiges bringen sollen, wo die Konkurrenz zu der Zeit R200 hieß und schon mit der Ti-500 Probleme hatte? Das dachte auch Nvidia, ohne zu ahnen, dass bald die R300-Bombe platzt. Für sich genommen war Ti-500 => Ti-4600 IMO aber ein kleinerer Sprung als G80 => GT200.

MfG,
Raff

Eggcake
2008-11-14, 10:12:56
[x]9700pro. Bahnbrechend und auch langlebig. In meinem alten Zweit-PC aus dem Jahre 2003 werkelt sie nunmehr 5 Jahren. Das muss die 8800 erst noch beweisen.

Ich denke deshalb ist diese Umfrage auch noch zu früh. Imo hängts auch massgeblich davon ab wie lange eine Grafikkarte "haltbar" ist...da ist noch zu wenig Zeit vergangen.

Odal
2008-11-14, 10:50:38
eindeutig [x] 9700pro

ich hatte keine aber muss zugeben im nachhinein gern eine gehabt zu haben bzw. deren ableger....
nun muss ich mich immer noch mit so einem FX krüppel im notebook herumschlagen wo ich doch zu gleichem Preis eine 9600er hätte haben können damals
das recht für viele spielchen für zwischen durch nicht mehr :(

G80 ist ohne frage solide und seine ableger (g92) sind auch solide aber die konkurenz steht genauso gut da (RV670) was eben beim R300 nicht der fall war

Gast
2008-11-14, 11:22:16
Es muss sich noch zeigen, ob g80 und seine Derivate sich ähnlich lange in den Rechnern halten können wird wie R300 und Co es bis heute taten.
Bedenken muss man dabei aber auch, dass damals Grafikkarten noch nicht als billige Wegwerfware angesehen wurden. Da hat man abseits einiger weniger "Freaks" die Karte generell für mindestens die nächstens 2-3 Jahre gekauft.
Die Frage wäre, ob das heute überhaupt noch möglich ist, wenn selbst neugekaufte midrange Karten aktuelle Spiele angeblich nicht mit max details wiedergeben können.
Heutzutage entscheidet nur noch das feature set über den Wert einer Karte. Die Rohleistung/Performance ordnet sich bei einem Produkt, welches ähnlich schnell im Wert verfällt wie eine benutzte Rolle Klopapier, dem feature set völlig unter.

Ein Forum, welches von überwiegend technikverliebten Bastlern und wohlstandsverwöhnten Wegwerfmentalisten bevölkert wird, erscheint mir eh als der falsche Austragungsort einer solchen Umfrage;)
Generell sehe ich aber kaum eine Vergleichbarkeit. Es waren damals ganz andere Zeiten.
Meine R9800Pro geb ich trotzdem nicht her (im Hauptrechner)...lol

V2.0
2008-11-14, 11:40:47
R300 war dadurch besser, dass NV bis G80 seine nAchkommen nie einholen konnte. G80 und seine Abkömmlinge hingegen wurde spätestens mit RV770 in den meisten Segmenten übertroffen.

Aquaschaf
2008-11-14, 11:49:27
R300 war dadurch besser, dass NV bis G80 seine nAchkommen nie einholen konnte.

Ich denke es geht hier um die Radeon 9700 Pro selbst, nicht um die Karten dieser Architektur allgemein. Und da ist es mit der Langlebigkeit doch relativ eindeutig. Man konnte die 9700 Pro auch sehr lange gebrauchen, aber in Hinsicht auf Performance wurde sie durch die nachfolgenden Karten schneller deklassiert als die 8800GTX.

deekey777
2008-11-14, 12:01:41
Statt der GeForce 4 Ti hätte man eigentlich die FX bringen sollen.

Wenn man bedenkt, dass die GeForce 4 Ti im Kern immer noch das 4x2-Design der GeForce 2 verwendete, hat sich Nvidia ganz schön Zeit gelassen. Selbst die GeForce FX war noch ein 4x2-Design. Hätte 2002 ganz gut gepasst, 2003 zahlte sich aber das 8x1-Design des R300 mehr aus.
Der NV30 war in seiner Form das, was für ATi der R420 war: eine Notlösung.
NV wollte etwas gaaaanz Anderes als Antwort auf den R300 bringen, nur ging dieses Projekt nachhinten los. Im Unterschied zum R400-Desaster hatte NV wohl deutlich weniger Zeit einen vernünftigen Grafikchip zu entwerfen, und so kam es zum NV30, wie wir ihn kennenlernen durften. Unter vorgehaltener Hand heißt es, dass der NV40 das war, was der NV30 hätte werden sollen (aber bestimmt mit weniger Einheiten).

Mr. Lolman
2008-11-14, 12:04:03
aber in Hinsicht auf Performance wurde sie durch die nachfolgenden Karten schneller deklassiert als die 8800GTX.

Naja, die 9700Pro@400/350MHz hat meiner 6800GT in UT2004-Primeval schon ganz schön zu schaffen gemacht...

Raff
2008-11-14, 12:06:10
Sicher nicht, wenn die 6800 mit Quality lief ... :ulol:
Aber: Durfte der NV40 auch mit 25 Prozent mehr Takt arbeiten? Der Vergleich ist unfair.

MfG,
Raff

Gast
2008-11-14, 12:28:16
Der NV30 war in seiner Form das, was für ATi der R420 war: eine Notlösung.
NV wollte etwas gaaaanz Anderes als Antwort auf den R300 bringen, nur ging dieses Projekt nachhinten los.

NV wollte garkeine antwort auf R300 bringen, sie wollten vorlegen und zwar mit NV30.

wäre der NV30 früher gekommen, wären die eklatanten SM2x-schwächen auch wesentlich weniger aufgefallen, die spiele wären weiter mit SM1x erschienen.

blöd für NV30 war eben, dass mit dem R300 schon eine schnelle SM2-gpu am markt war.

vom zeitplan her hast du recht, damals war NV noch der meinung alle 6monate einen refresh und alle 12 monate eine neue architektur bringen zu wollen. geplant war NV30 tatsächlich mal irgendwo um den zeitpunkt des NV25 und NV40 hätte ursprünglich eigentlich knapp nach der veröffentlichung von NV30 erscheinen sollen (vermutlich wohl mit weniger einheiten).

die NV30-verzögerungen haben den zeitplan allerdings weit nach hinten geschoben, bis heute noch.

Mr. Lolman
2008-11-14, 12:29:12
Sicher nicht, wenn die 6800 mit Quality lief ... :ulol:
Aber: Durfte der NV40 auch mit 25 Prozent mehr Takt arbeiten? Der Vergleich ist unfair.

MfG,
Raff

Knapp: 6800GT, HQ@425/575, 1280x1024 4xAA/16xAF 30,2fps
9700pro, 400/350 1280x1024 4xAA/8xAF: 28 fps

(mit einem Prä-Catalyst 4.10 und Performance-AF. Mit dem 4.11b hatte ich mit Quality sogar minimal mehr fps als mit Performance bei älteren Catalysts: 1024x768, 4xAA, 8x Performance AF: 42fps, mit 4.11Beta und Q-AF warens 43.5fps; Zur Erinnerung: Ein NV40 filterte in UT2004 selbst mit HQ bloß brilinear)

Christi
2008-11-14, 13:01:40
meinen persönlichen adelschlag bekam die 9700er erst mit dem release von farcry. vorher hatte man sich einfach an die leistung gewöhnt, die auch immer reichlich zur verfügung stand.

März 2004, die 9700pro war schon 1,5jahre auf dem markt, erschien Farcry und zeigt was für shader 2.0 krücken die 5800/5900 gefrösche waren.
mein bruder hatte damals eine 5900xt und konnte mit dx9 effekte nicht flüssig spielen. patch und treiber regelten das dann mit lediglich dx8 effekten.

der witz war damals, dat mein bruder dachte, es läuft flüssig durch neue treiber etc. bis ich ihn aufmerksam machte, dat die ganzen effekte fehlen (glänzende stahlrohre, hitzeflimmern, wasser etc.) hach das war ein spaß seine doofe fresse zu sehen.
bei mir lief das game in 1024er auflösung mit high details wunderbar flüssig- wohlgemerkt mit der älteren karte und dx9:)

spielte dann noch einige spiele weiter ( prey,doom3,quake4,dark messiah of mm., half life2 etc.pp) alles konnte man noch super spielen.

sowas prägt halt. habe übrigens derzeit auch einen g80 gefrosch im rechner und das wird noch eine weile so bleiben. ist wie im richtigen leben, einmal was ordentliches gekauft und man hat fürs erste ruhe.

Lu-Tze
2008-11-14, 13:24:25
Ich denke, die Radeon 9700 war der größere Sprung. Zwar war die Karte damals garnicht mal wesentlich schneller gewesen als die Geforce 4, aber die ganzen anderen Dinge haben den Unterschied gemacht:
- Gutes und schnelles Antialiasing
- Eine anisotropischer Filter der einigermaßen gut aussieht, aber gleichzeitig kaum Performance kostet
- DirectX 9 Unterstützung. Bioshock is eigentlich das erste Spiel, dass man mit einer Radeon 9700 nicht mehr vernünftig spielen kann. Bei allen vorhergehenden konnte man mit niedriger Auflösung und Detailstufe immernoch akzeptable Ergebnisse erhalten.


Die Geforce 8800 hat zwar das anisotropische Filtern gegenüber dem Area-AF der Radeon-Karten nochmal ein bisschen verbessert, und außerdem kann sie 16xAA, aber das sind eigentlich eher kleine Unterschiede, die wohl nur auffallen, wenn man wirklich darauf achtet. DirectX 10 ist nicht wirklich sichtbar besser als DirectX 9 (im Gegensatz zu DirectX 8!), und die sehr gute Performance alleine halte ich für weniger wichtig als die ganzen Neuheiten der Radeon 9700. Die Geforce 8800 hat aber auch erhebliche Schwächen... viele "ältere" Spiele, wie z.B. UT2k4 funktionieren nicht richtig, und dann gibt es auch viele Kleinigkeiten, die bei ATI einfach besser funktionieren, z.B. der TV-Out, der Overlay-Mode, das Abfangen von Crashes...

Beide Karten sind sehr gut ausbalanciert, und eine Geforce 8800 (zumindest eine mit viel VRAM...) wird wie eine Radeon 9700 sehr lange nutzbar sein, aber ich halte die Radeon 9700 für den größeren und wichtigeren Sprung.

Pirx
2008-11-14, 13:36:21
Genau, es könnte der :|VRAM-Bug:| die Legendenbildung des G80 behindern, da er mit neuen Spielen immer mehr relevant werden könnte, hätte, wäre, wenn.

Spasstiger
2008-11-14, 14:05:15
Warum hätte man etwas FX-artiges bringen sollen, wo die Konkurrenz zu der Zeit R200 hieß und schon mit der Ti-500 Probleme hatte? Das dachte auch Nvidia, ohne zu ahnen, dass bald die R300-Bombe platzt. Für sich genommen war Ti-500 => Ti-4600 IMO aber ein kleinerer Sprung als G80 => GT200.
War es auch. Der einzige Unterschied waren zwei statt einem Vertex-Shader und ein minimal erweitertes Featureset.
Das hatte schon Refreshcharakter, wurde aber als neue Generation gefeiert.

Nvidia bekam Ende 2002 und 2003 die Quittung dafür, dass sie 2 Jahre lang als Marktführer nur das nötigste getan haben. Der R300 lieferte dagegen die Performance, die man Ende 2002 und 2003 erwarten konnte.
Man schaue sich mal die Entwicklung bei NV an: GeForce 256 (Q3 1999) -> 4x1 Design, GeForce 4 Ti (Q2 2002) -> 4x2-Design + Shader, GeForce FX (Q1 2003) -> 4x2-Design + Shader, GeForce 6 (Q2 2004) -> 16x1-Design
Wenn die Entwicklung bei Nvidia seit 2003 immer noch so schleppend vorangegangen wäre wie zwischen dem Q3 1999 und dem Q1 2003, dann hätte heute eine GeForce 9500 GT die Performancekrone bei Nvidia. ;)

Neocroth
2008-11-14, 14:42:22
schwierig...

habe für die 9700er gestimmt, da ich selber eine hatte und sie bis vor 4 Monate brav ihren Dienst tat und nun in ihrem verdienten Ruhestand ist.

Meine Für und Wider:

Ich habe die Voodoo 1 nicht aktiv erlebt. Meine erste Erfahrung war erst die Voodoo 2. Die hat mich damals schon ziemlich umgehauen, verglichen mit einer beschissenen Diamond Karte mit 4mb. Ich kann mich noch erinnern, das ich damals das erste Unreal Tournament auf einer solchen Karte im Glide Mode gesehen habe und das war im Nachinein für mich ein prägendes Erlebnis, PC-Spiele betreffend.

An die Zeit um die 9700er herum kann ich mich gut erinnern. Ich hatte 2002 schon vor, eine neue Kiste anzuschaffen und meinen Katmai mit 533mhz und die Rage128GL in Rente zu schicken. Ich habe zuerst mit der Ti4200er geliebäugelt, ein Kumpel meinte aber, ich solle auf die 9000er Serie von ATi warten. Gesagt - getan: Anfang 2003 hab ich mir also einen Northwood 2,8Ghz und die 9700er gegönnt und ich wurde nicht enttäuscht. UT2003 lief genial in 1600x1200 mit AA/AF auf meinem 17'' CRT, mein Kumpel hatte damals einen Thunderbird 1,2ghz und eine Geforce 2 GTS. Der direkte Vergleich zwischen den beiden war schon krass ;)
Die 9700er hat viele Games und viele Overclocking-Versuche mitgemacht. Mit dem Stockkühler hab ich sie auf 385Mhz gebracht. Mehrleistung war natürlich nicht wirklich spürbar, aber ich hab mich gefreut wie ein Schneekönig :D Im Nachhinein betrachtet hat sie sehr lange durchgehalten - begonnen mit UT2003 über SplinterCell, HL2, FarCry bis zu WoW, TF2 und Portal =)

Zur 8800GTX: Meine Freundin hat die Karte momentan im Rechner (in erster Linie zum Sacred 2 zocken ;) ). Eine solide Karte, da kann man nicht meckern. Mir gefiel die Karte beim Launch sehr gut, war mir aber immer zu teuer. Nachdem es bei mir mittlerweile fast schon Tradition ist, bei jeder neuen Unreal-Engine einen neuen PC zu kaufen, habe ich lange überlegt, ob ich nicht zuschlage. Ein Kumpel von mir hat sich daraufhin nen Q6600 für damals 390 Euro und eine 8800er gekauft und ich konnte bei ihm probezocken. Es war schon fantastisch, das WOW-Gefühl der Voodoo und der 9700er aber blieb aus. Inzwischen traue ich mir sagen, dass die Karte ihr Geld damals definitiv wert war - solange hat noch keine Karte in der oberen Liga mitgespielt.

Letztlich ist das ganze natürlich sehr subjektiv, aber bei mir hat die 9700er schlicht und ergreifend mehr "wow" und "boah" verursacht wie die 8800GTX. Die Voodoo muss sich nur knapp geschlagen geben, was sie dem unglücklichen Umstand verdankt, das ich damals noch keine PC Games gezockt habe und auf der Konsole zuhause war. Ansonsten hätte ich mir vermutlich einen PC inklusive einer Voodoo zugelegt, aber im Nachhinein kann ich das nicht wirklich sagen.

Gast
2008-11-14, 14:49:23
also die voodoos waren damals entscheidend, und zwar wegen der API, nicht der leistungsfähigkeit an und für sich. trotzdem war sämtliche konkurrenz zu der zeit lächerlich (rendition, s3, matrox, ati, permedia). NV3 war lächerlich, wenn dann wäre NV5 notwendig gewesen. dieser brachte erstmals eine genügende leistung mit d3d und in ogl. jedoch war eine v2 noch immer angenehmer zum spielen, weniger anpassungsarbeit, genug power für die gängigen auflösungen und das passende spielelineup. savage2000 oder savage4 hätten die power später auch gehabt, wenn sie nicht gehandycapt gewesen wären.

der Erfolg von NV war meiner meinung eine glückliche fügung, da die damalige hardware zwar feature-technisch sinnvoll war, aber leistungstechnisch bis zur geforce DDR nicht konkurrenzfähig war.

Gast
2008-11-14, 15:34:36
Wenn die Entwicklung bei Nvidia seit 2003 immer noch so schleppend vorangegangen wäre wie zwischen dem Q3 1999 und dem Q1 2003, dann hätte heute eine GeForce 9500 GT die Performancekrone bei Nvidia. ;)


man kann nicht wirklich sagen, dass die entwicklung damals schleppend vorangegangen war, die entwicklungszyklen waren wesentlich kürzer.

der nächste punkt ist, dass man damals verhältnismäßig viel mehr in neue features investieren musste und wesentlich weniger für geschwindigkeitssteigerungen übrig blieb.

Christi
2008-11-14, 17:53:03
zur voodoo muss ich sagen, dat die mich damals 96 auch sehr beeindruckt hat. und zwar mehr als die 9700pro was grafik angeht. der unterschied von software zu hardware beschleunigung war der hammer. nur hatte ich damals nicht das geld für sowas.
mein kumpel hatte sich die diamond monster gekauft (damals ca. 400dm- ein haufen geld) und ich konnte bei ihm immer staunen.
ein bleifuss mit 3d karte war der hammer:)

konnte mit erst später eine leisten wo das ganze billiger war- zumindestens die preiswerteren karten . die voodoo2 hat mich net mehr vom hocker gehauen (800er auflösung gegen 640er ober sonst)

habe mir auch zu half life 98 eine voodoo3 ti2000 gekauft (259€ pc spezialist) die war dann aber auch net lange mehr im rechner (16bit etc.)

mfg

Sonyfreak
2008-11-14, 18:19:34
Weil hier alle beim G80 von dem VRam-Bug reden. Von dem hab ich bisher auch nur gehört, aber nie was mitbekommen. Ich glaub der tritt wenn dann nur bei Karten mit ner kleinen Speicherausstattung aus. ;)

mfg.

Sonyfreak

Popeljoe
2008-11-14, 19:41:57
Also ich habe erstmals 3D Grafiken in Spielen auf ner Voodoo II gesehen und nach den pseudo 3D Spielen a la Wing Commander 1 und 2 (haben wir auf nem 286DX16 gezockt!) war das schon ein echter Hammer!
Trotzdem sehe ich die 9700 Pro immer noch ein wenig vorne, einfach weil die Karte eine so unglaublich lange Lebenszeit hatte.
Ich habe nur auf ne X1800XT aufgerüstet wegen Gothic3, selbst für Oblivion war die 9700pro noch wirklich gut zu gebrauchen. Meine habe ich dann Blackarchon für einen Benchparcour vertickt, aber nur um mir wieder eine kurze Zeit später eine andere auf dem MP zu kaufen.
Die werkelt jetzt im Rechner meiner Schwester, fiel mir wirklich schwer sie herzugeben! ;)
Die 8800er Serie steht ähnlich gut da, allerdings stand bei der 9700pro ein kleinerer und weniger schlagkräftiger GPU Hersteller dahinter. Es ist immer noch der "David gegen Goliath" Mythos der die 9700 Pro umwabert. ;)

Pirx
2008-11-14, 21:29:01
beim 286 gabs gar keinen SX:D
Hab glaube auch Wing Commander II als mein erstes 3D-Spiel auf nem 286-16 mit 1MB RAm mit EMS gespielt.;)

MartinRiggs
2008-11-14, 22:04:09
9700 Pro, nix anderes!

Popeljoe
2008-11-14, 22:06:56
beim 286 gabs gar keinen SX:D
Stimmt!
Mein Kumpel hatte anschließend einen 386DX40 und das war echt ein Knaller! :D

HarryHirsch
2008-11-14, 22:30:55
ich hatte ne 9500 pro mit pipeline mod + oc, die ging wie schmitz katz :D

edit:
hab für die 88er gtx gestimmt

Der HeinZ
2008-11-14, 22:52:32
Hmm, 9700 vs. 8800...
Beide Karten haben die Unterstützung für ein neues Featureset gebracht:
9700: DirectX 9.0 Shader 2.0.
8800: DirectX 10.0 Shader 4.0
Zu dieser Zeit gab es aber kein Spiel für das entsprechende Directx bzw. war die DirectX Version noch garnicht vollendet.

Beide Karten haben eine höhere Speicheranbindung mit sich gebracht:
9700: 256 Bit (nicht wie im Vorfeld erwähnt 128 Bit)
8800: 768 384 Bit

Beide Karten haben neue möglichkeiten für AA mit sich gebracht:
die Details weiß ich aber nicht :rolleyes:

Beide Karten haben einen erheblichen Sprung in Sachen Performance mit sich gebracht:
9700 hat die damalige Geforce 4 Fraktion verprügelt, mit der ich aber immernoch sympatisiere (ich hasse einfach diesen Geforce5 Kram)
8800GTX hat die 1950er Fration verprügelt.
(wobei ich hier allerdings sagen muss das mich ein eine 1950 XTX mit aktuellen Prozessoren gepaart immernoch umhaut und diese Karte mit jedem Treiber Release (wie alle 5xx chips) immer mächtiger wurde. Wo steht die heute eigentlich?)
Also ich sehe sie als ABSOLUT gleichwertig an. Sie waren beide für elend lange Zeit nicht zu schlagen und es dauerte immes lange bis die Konkurrenz etwas ähnliches oder besseres zu bieten hatte.

Edit: Die 9700er hat zusätzlich den letzten AGP-Schritt gemacht: 8X! (Die Hybrid AGP16X auf PCI-E zähle ich hier NICHT mit) Okay damals war der nutzen sehr eingeschränkt, bestes Beispiel Geforce 4 bei gleichen Taktraten und Speicheraustattung Differenz 0,00000000000!!

Aber Leute, der Sieger ist einfach der VOODOO-CHIP! Als NFS2... nein Quake 2.... bestes Beispiel... habt ihr das mal auf nem Pentium 200 (oder 233.. ui) MMX damals gespielt, bzw. auf nem K6-300? Boar dachte ich als alter Doom Spieler, welcher Windows hasste (wer zockt denn schon unter Windows, frisst doch nur Leistung haha), das sieht ja toll aus. Bis mein Kollege, den ich hier jetzt mal schön Grüße, gesagt hat, tu das "Dingen" hier mal rein und verkabel das mit deiner Grafikarte, sonst hat er nichts gesagt. Ich hab die Treiber noch installiert und dann... BOAR EY: Wo sind die Klötze hin und wieso bewegen sich da jetzt auf einmal "menschenähnliche" Gestalten über dem Bildschirm und wieso ist das Blut nicht mehr viereckig?????? und vorallem FLÜSSIG (die Framerate nicht das Blut).. auf nem P166... + Voodoo Karte. BILINEAR, mein damaliges Lieblingswort. Tut mir leid Leute, das war beeindruckender zu sehen als jeder noch so toll angepasste und programmierte Pixelshader und Vertexshader,das war das erste mal, wo ich in etwas anderem als dem Prozessor Leistung wiederfinde konnte... Das was für viele gläubige Jesus ist, war für Gamer (am PC) die VOODOO Karte.
Und nein: So alt das ich Jesus mitgemacht hab bin ich auch wieder nicht!

X Voodoo Karte

Christi
2008-11-14, 23:02:16
Beide Karten haben eine höhere Speicheranbindung mit sich gebracht:
9700: 256 Bit (nicht wie im Vorfeld erwähnt 128 Bit)
8800: 768 Bit


X Voodoo Karte


du meist mit 768 den ram der 8800gtx

g80
8800gts (640/320MB) = 320bit
8800gtx ( 768MB) = 384bit

mfg

Der HeinZ
2008-11-14, 23:04:14
du meist mit 768 den ram der 8800gtx

g80
8800gts (640/320MB) = 320bit
8800gtx ( 768MB) = 384bit

mfg

ups ich hab mich bei den Zahlen vertan korrigiert.
Danke!

Lu-Tze
2008-11-15, 00:49:20
Also, ich finde das mit der Speicheranbindung ziemlich irrelevant... bestes Beispiel ist wohl die Radeon 2900 XT mit 512bit Speicheranbindung. Der Nachfolger, Radeon 3870, hatte nur 256bit, war aber kaum langsamer, eher sogar schneller. Und jetzt gibt es die Radeon 4670, die eigentlich wieder dasselbe ist, aber mit NOCHMAL halbiertem Speicherinterface auf 128bit, und ist trotzdem kaum langsamer! Ich verstehe zwar nicht ganz, warum das eigentlich so ist, aber es ist weder designtechnisch noch featuretechnisch irgendwie interessant, und die Performance scheint in manchen Fällen auch weitgehend unabhängig davon zu sein.

Schrotti
2008-11-15, 01:17:23
Ganz klar die 9700PRO.

Hatte damals selbst die Hercules 9700 PRO und eine 5900 Ultra. Die Nvidia war einfach Müll.

Far Cry lief in 1280x1024 ohne AA/AF extrem flüssig (die 5900 Ultra schaffte das nicht).

seba86
2008-11-15, 01:23:21
Hmm,
ich hab jetzt alle Comments durch; aber welche verflixten 3 haben den "andere" angekreuzt und keine Alternativ-Kandidaten gepostet :rolleyes:

Als Umfrageersteller halte ich mal mein Kreuzchen zurück, wohl wissend dass eine Wahl schwer fällt :redface:

Christi
2008-11-15, 01:39:53
finde die umfrage bzw. den fred klasse. da bkommt die gute 9700pro mal die ehre die ihr gebührt:) ca. 50% sprechen eine deutliche sprache

Der HeinZ
2008-11-15, 10:35:42
hier kann man sich "in etwa" ein Bild machen. da ist leider nur die 9600 XT und die 9800 Pro. Aber die 9700 müßte irgendwo zwischen den beiden liegen, natürlich näher an der 9800, weil sich ja eigentlich nur die Taktraten unterscheiden. Immer wieder lustig auf 5950 zu gucken.=)

http://www.3dcenter.org/artikel/die-leistungsf%C3%A4higkeit-alter-grafikkartengenerationen/company-heroes

Gast
2008-11-15, 10:48:41
Mal abgesehen von der AMD lastigkeit des Artikels:

Beiendruckend, wie die 9800 Pro eine 2400 fertig macht.

Gast
2008-11-15, 11:17:24
hier kann man sich "in etwa" ein Bild machen. da ist leider nur die 9600 XT und die 9800 Pro. Aber die 9700 müßte irgendwo zwischen den beiden liegen, natürlich näher an der 9800, weil sich ja eigentlich nur die Taktraten unterscheiden. Immer wieder lustig auf 5950 zu gucken.=)

http://www.3dcenter.org/artikel/die-leistungsf%C3%A4higkeit-alter-grafikkartengenerationen/company-heroes

wobei man dazusagen muss, dass SM3-karten hier deutlich benachteiligt sind, da sie deutlich mehr zu rechnen haben, der vergleich über die generationen stimmt also überhaupt nicht.

R300
2008-11-15, 11:40:08
[x] Radeon 9700 Pro

Hatte die Hercules Radeon 9700Pro ende 2002 gekauft und konnte sie bis zum erscheinen der Geforce 8800 behalten.
Die Lebensdauer war echt enorm...die ersten Jahre habe ich fast alle Spiele auf Max Details und mit 4xAA & 16AF gespielt.

Mit der Geforce 8800 ging das von Anfang an nicht mit vergleichbaren Settings...FEAR z.B. lief bei mir recht zäh und teilweise ruckelig auf der GTS mit 4xAA und 16AF und bei Crysis bin ich froh das High Detail ohne AA noch halbwegs spielbar ist.

(Gut die GTS ist nicht die GTX aber meine ist recht stark übertaktet und unterscheided sich nicht so stark von der GTX, habs mit einem Kumpel verglichen.)

Der HeinZ
2008-11-15, 12:19:54
wobei man dazusagen muss, dass SM3-karten hier deutlich benachteiligt sind, da sie deutlich mehr zu rechnen haben, der vergleich über die generationen stimmt also überhaupt nicht.

Ja, Nein... Ich glaub Fear z.B.hat keinen SM3 Modus (bitte korrigieren falls falsch) und manche Spiele tricksen ja bei der X850 z.B. mit dem SM2.0b wo man "manches" ähnlich gut darstellen konnte. Nicht destotrotz rechnet die SM3 Karte dann natürlich mehr, aber als Gamer interessiert mich ja eigentlich die Framerate mehr. Wozu super optik wenn ich nicht spielen kann weil Leistung fehlt?

Vielmehr denke ich da grad an Crysis... Ist das nicht SM3 only, aber funktioniert doch noch ganz hübsch auf den älteren Karten?

Der HeinZ
2008-11-15, 12:32:08
Also, ich finde das mit der Speicheranbindung ziemlich irrelevant... bestes Beispiel ist wohl die Radeon 2900 XT mit 512bit Speicheranbindung. Der Nachfolger, Radeon 3870, hatte nur 256bit, war aber kaum langsamer, eher sogar schneller. Und jetzt gibt es die Radeon 4670, die eigentlich wieder dasselbe ist, aber mit NOCHMAL halbiertem Speicherinterface auf 128bit, und ist trotzdem kaum langsamer! Ich verstehe zwar nicht ganz, warum das eigentlich so ist, aber es ist weder designtechnisch noch featuretechnisch irgendwie interessant, und die Performance scheint in manchen Fällen auch weitgehend unabhängig davon zu sein.

Hmmm gutes Argument, ich kann mich aber auch an einen umgedrehten Fall errinnern. Geforce 5 5900 ohne 50 gegen 5800. Obwohl beide Karten nicht super waren, sieht man hier das 256 Bit Anbindung trotz niedriger Rohleistung auf jedenfall erheblich flotter ist. hätte auch noch der Geforce 4 reihe gut getan, zumindest wenn man den Technologie Rückstand mal außer acht lässt.

Da fällt mir noch was ein: Geht eigentlich Geforce5 Sli auf PCI-E (intern)? hihi! ;D Dürfte ja eigentlich nicht wegen dem AGP Brigde chip

Gast
2008-11-15, 12:53:06
Ja, Nein... Ich glaub Fear z.B.hat keinen SM3 Modus (bitte korrigieren falls falsch)

fear soweit ich weiß nicht, aber das verlinkte company of heroes stellt auf jeden fall deutlich mehr mit SM3 dar. sieht man auch schön, dass die X800 sogar mit der X1800 mithalten kann.


Nicht destotrotz rechnet die SM3 Karte dann natürlich mehr, aber als Gamer interessiert mich ja eigentlich die Framerate mehr.

ansichtssache, , ich spiele wenn es notwendig ist auch mit 20fps, bevor ich auf optik verzichte.

knallebumm
2008-11-15, 13:07:00
Ja, Nein... Ich glaub Fear z.B.hat keinen SM3 Modus (bitte korrigieren falls falsch) und manche Spiele tricksen ja bei der X850 z.B. mit dem SM2.0b wo man "manches" ähnlich gut darstellen konnte. Nicht destotrotz rechnet die SM3 Karte dann natürlich mehr, aber als Gamer interessiert mich ja eigentlich die Framerate mehr. Wozu super optik wenn ich nicht spielen kann weil Leistung fehlt?

Vielmehr denke ich da grad an Crysis... Ist das nicht SM3 only, aber funktioniert doch noch ganz hübsch auf den älteren Karten?

Crysis ist ab medium Settings zwischen einer X800XT und einer 6800gt nicht mehr vergleichbar. Selbst auf high sehen Wasser und Vegetation auf der Ati schlechter aus als auf der 6800gt auf medium. (Die ATI ist bei der Wasserdarstellung näher an Turok3d als an der 6800gt) (alles imho)

Ich habe beide Karten hier.

x800xt alles high 1024*768
http://www.abload.de/thumb/x800xthighqmk1.jpg (http://www.abload.de/image.php?img=x800xthighqmk1.jpg)

6800gt alles medium 1024*768
http://www.abload.de/thumb/6800gtmedium2pc6.jpg (http://www.abload.de/image.php?img=6800gtmedium2pc6.jpg)

Und so groß ist der Frameunterschied zwischen 6800gt med und x800xt high nicht, wie man anhand der screens sehen kann.

Unyu
2008-11-15, 13:12:30
JNicht destotrotz rechnet die SM3 Karte dann natürlich mehr, aber als Gamer interessiert mich ja eigentlich die Framerate mehr.
Dann gibts ja keinen Grund von der X850 XT PE auf eine HD3850 oder [...] umzusteigen.

_DrillSarge]I[
2008-11-15, 13:18:14
Dann gibts ja keinen Grund von der X850 XT PE auf eine HD3850 oder [...] umzusteigen.
lol. egal von welcher, ob x800 oder gf6800, ich würde davon auf jede aktuelle karte (abgesehen von den lowlowlow-cost dingern) von nv oder ati umsteigen.

[x] 9700pro
- erste karte, bei der man aa in der praxis verwenden konnte. hat mit der konkurrenz dan boden aufgewischt. sogar die nachfolger von nv konnten mit dem r300 oder auch spätere modelle mit dem r350/360 nicht wirklich mithalten/vorbeiziehen.
die 8800gtx ist eigentlich auch ganz interessant. hatte mit eine radeon 2900xt gekauft und war dann doch enttäuscht von der karte, gerade im vergleich zur (älteren) g80-geforce reihe.

Raff
2008-11-15, 13:39:31
Also eigentlich konnte man schon mit einer V5 5500 hübsches SSAA praktisch nutzen ... Die 9700 Pro brachte nur – endlich – die Kombination aus schnellem und hübschem MSAA, wo GF3 und 4 versagten. Wobei gerade eine GeForce4 genug Dampf für 2x AA (4x war OG und damit sinnlos) hatte.

MfG,
Raff

_DrillSarge]I[
2008-11-15, 13:44:38
Also eigentlich konnte man schon mit einer V5 5500 hübsches SSAA praktisch nutzen ... Die 9700 Pro brachte nur – endlich – die Kombination aus schnellem und hübschem MSAA, wo GF3 und 4 versagten. Wobei gerade eine GeForce4 genug Dampf für 2x AA (4x war OG und damit sinnlos) hatte.

MfG,
Raff
jaaaaaaaaaa....:tongue:....vuuhhhduhhh :biggrin:
nur war das 3 generationen vorher. der vsa-100 konnte, bei aller nostalgie, nirgends mit einem r300 oder selbst nv30 mithalten.
afaik brach eine geforce4 bei 4xAA sehr derbe ein. da konnte man mit einer 9700 viel entspannter den slider verstellen. zudem war auch die reine rohperformance deutlich höher. zudem war die gf4 ja nicht als gegner für den r300 gedacht, sondern erst die hype-fx.

Gast
2008-11-15, 14:27:17
I[;6913688']
- erste karte, bei der man aa in der praxis verwenden konnte.

kann man so nicht sagen, AA war ab der Geforce3 praktisch gut nutzbar, zwar nur 2x, aber das war schon deutlich besser als garkein AA.

die GF4 hatte anfangs sogar für 4xS genug power und 2x konnte man noch sehr lange nutzen.

R300 war allerdings die erste karte die mehr als 2xAA mit guter geschwindigkeit (und dabei auch noch mit guter qualität) anbot.

Christi
2008-11-15, 14:38:02
also meine ti 4400 schafte zum bleistift ein unreal2 mit aa und 1024er auflösung nicht wirklich.

hatte eine 4200er und eine 4400 (bissl übertaket) und da war aa und af nie so ein thema, die leckereien und das waren die bei 1024er auflösung konnte ich erst mit der 9700er richtig nutzen- und zwar spielbar durch das ganze spiel.

gothic2 auf der 9700er war ein traum, da konnte man sogar af reinknallen und es lief. bei sichtweite anschlag und vollen details versteht sich:)


mfg

Gast
2008-11-15, 15:32:08
ganz klar 9700er!!
Das war damals sowas wie eine Legende.
Ich erinnere mich noch zu gut wie ich damals mit meiner krüppeligen Ti4200 vor mich hinsiechte und dann bei nem Kollegen die 9700er im Einsatz sah... Schatten Shader Rohleistung.. Supergenial!

aths
2008-11-15, 15:35:32
Der NV30 war in seiner Form das, was für ATi der R420 war: eine Notlösung.
NV wollte etwas gaaaanz Anderes als Antwort auf den R300 bringen, nur ging dieses Projekt nachhinten los. Im Unterschied zum R400-Desaster hatte NV wohl deutlich weniger Zeit einen vernünftigen Grafikchip zu entwerfen, und so kam es zum NV30, wie wir ihn kennenlernen durften. Unter vorgehaltener Hand heißt es, dass der NV40 das war, was der NV30 hätte werden sollen (aber bestimmt mit weniger Einheiten).Der NV30 war nicht als R300-Antwort entwickelt. Es war der NV20-Nachfolger.

_DrillSarge]I[
2008-11-15, 15:38:09
Der NV30 war nicht als R300-Antwort entwickelt. Es war der NV20-Nachfolger.
man war einfach überrascht vom r300. also hat man dann das nv30 design auf möglichst hohen takt geprügelt -> föhn.
der r300 war auch nur der nachfolger vom r200 ;).

Spasstiger
2008-11-15, 15:38:41
also meine ti 4400 schafte zum bleistift ein unreal2 mit aa und 1024er auflösung nicht wirklich.
Und ich habs in 1280x960 mit 4xAA und 16:1 AF auf einer Radeon 9700 Non-Pro mit durchgehend über 30 fps gezockt. Allerdings erst mit Patch, ohne Patch liefs doch teils um einiges schlechter (in einem Level nur 10 fps bei besagten Settings).

Dafür, dass sich die Ti 4400 und die Radeon 9700 Non-Pro bei Release preislich nix gegeben haben, war die 9700er schon ein Spitzendeal. Aber Nvidia hat geschickt die Preislage um die 200€ mit der Ti 4200 besetzt, welche ja auch zum Verkaufsschlager wurde - zumindest bis die Radeon 9500 Non-Pro 256 Bit und der Pipelinemod kam. ;)

Btw.: Ich hätte mir damals fast die TI 4400 geholt, weil die PCGH im 9700-Pro-Review das Fazit zog, dass die 9700 Pro nicht schneller sei als die Ti 4600 und nur Qualitätsfanatiker einen Vorteil hätten. Und da wurde noch behauptet, dass man AA bei hoher Auflösung nicht braucht und dass DX9 auch nicht so wichtig sei. Und gegenüber den Treibern bei ATI war man auch skeptisch.

aths
2008-11-15, 16:17:29
März 2004, die 9700pro war schon 1,5jahre auf dem markt, erschien Farcry und zeigt was für shader 2.0 krücken die 5800/5900 gefrösche waren.Ich hab nicht schlecht gestaunt als meine Radeon 9600 (ohne Pro, passiv gekühlt) in Farcry nicht nur schneller als meine 5900 XT war (256-Bit-Speicherinterace, deutlich höherer Takt) sondern auch noch das bessere Bild bot.

Raff
2008-11-15, 16:25:58
Hier wird immer wieder vergessen, dass die Ati-Treiber damals alles andere als gut waren. Das besserte sich aber.

MfG,
Raff

Spasstiger
2008-11-15, 16:33:45
Hier wird immer wieder vergessen, dass die Ati-Treiber damals alles andere als gut waren. Das besserte sich aber.

MfG,
Raff
Ich konnte mich schon anno 2002 nicht beschweren, hatte mit dem Dezember-Treiber keinerlei Probleme in den Spielen, die ich gezockt habe. Ok, mit dem mitgelieferten Treibern gabs Grafikfehler in UT2003, aber das war ja durch ein Treiberupdate direkt behoben.

Aquaschaf
2008-11-15, 17:00:49
Hier wird immer wieder vergessen, dass die Ati-Treiber damals alles andere als gut waren. Das besserte sich aber.

Meiner eigenen Erfahrung nach war das ab der Radeon 9700 Pro kein Problem mehr.

Ronny G.
2008-11-15, 17:01:45
Ich finde aber auch das hier irgendwie die Geforce 4 TI Serie fehlt.

Ich kann mich noch erinnern das sie damals eine sehr beliebte Karte war

Spasstiger
2008-11-15, 17:06:24
Ich finde aber auch das hier irgendwie die Geforce 4 TI Serie fehlt.

Ich kann mich noch erinnern das sie damals eine sehr beliebte Karte war
Es war im Q2 und im Q3 die einzige Alternative und die Ti 4200 war im Q3 und im Q4 im Mainstream die einzige Alternative. Deshalb die Beliebtheit. Von der Leistung her war die 9700 Pro aber um Welten überlegen, wenn man es drauf angelegt hat.
Rein vom Chip her war die GeForce 4 Ti im Vergleich zur GeForce 3 keine große Überraschung. Immer noch 4 Pipelines mit je 2 TMUs, nur die Zahl der Vertexshader wurde verdoppelt. Selbst die GeForce 2 GTS/Pro/Ultra hatte schon 4 Pipelines mit je 2 TMUs. Die höheren Taktraten und ein paar Detailverbesserungen brachten trotzdem ein anständiges Leistungsplus gegenüber der GeForce 3 von bis zu 60%.

thacrazze
2008-11-15, 17:29:44
[x] Ati Radeon 9700 Pro, eindeutig

Gast
2008-11-15, 18:49:23
Crysis ist ab medium Settings zwischen einer X800XT und einer 6800gt nicht mehr vergleichbar. Selbst auf high sehen Wasser und Vegetation auf der Ati schlechter aus als auf der 6800gt auf medium. (Die ATI ist bei der Wasserdarstellung näher an Turok3d als an der 6800gt) (alles imho)

Ich habe beide Karten hier.

x800xt alles high 1024*768
http://www.abload.de/thumb/x800xthighqmk1.jpg (http://www.abload.de/image.php?img=x800xthighqmk1.jpg)

6800gt alles medium 1024*768
http://www.abload.de/thumb/6800gtmedium2pc6.jpg (http://www.abload.de/image.php?img=6800gtmedium2pc6.jpg)

Und so groß ist der Frameunterschied zwischen 6800gt med und x800xt high nicht, wie man anhand der screens sehen kann.

Tolle Wurst. Das Wasser sieht bei der 6800GT zwar besser aus, aber sonst ist fast jedes Setting billiger - Bloom, LOD (!!!), Texturauflösung,.. . Wenn schon, dann mit gleichen Settings vergleichen - also SM2.0 für 6800GT.

BTW: Dass SM2.0 Wasser auch schön aussehen kann, zeigt u.a. 'The Project'.

Gast
2008-11-15, 18:54:41
Und gegenüber den Treibern bei ATI war man auch skeptisch.

Ist man immernoch. Als deren Testsystem so total vermurkst war, dass ATi Karten keine ordentliche Performance liefern konnten und alle Leser deswegen schon Kopf standen - schob man die schlechten Ergebnisse auch auf den Treiber. Und anstatt, dass man sich überlegt ob der Fehler nicht auf der eigenen Seite zu suchen ist, schreibt man noch Kolumnen, wo in denen man sich über ein paar Leser aufregt, die mit ihrer Kritik etwas über die Stränge geschlagen haben...

:uhammer:

Raff
2008-11-15, 19:08:18
In allen Foren dieser Welt gibt es nur ganz wenige Leute, die wissen, welch unfassbarer Krampf eine neue Grafikkartengeneration zum Launch sein kann. Das sind die, die selbst Tests schreiben. Diesen Krampf kriegt man als Endnutzer idealerweise auch nicht mit, weil dann schon bessere Treiber verfügbar sind bzw. sein sollten. Die Moral dieser Geschichten ist, dass die Tester für unfähig gehalten werden.

MfG,
Raff

Mr. Lolman
2008-11-15, 19:20:34
In allen Foren dieser Welt gibt es nur ganz wenige Leute, die wissen, welch unfassbarer Krampf eine neue Grafikkartengeneration zum Launch sein kann. Das sind die, die selbst Tests schreiben. Diesen Krampf kriegt man als Endnutzer idealerweise auch nicht mit, weil dann schon bessere Treiber verfügbar sind bzw. sein sollten. Die Moral dieser Geschichten ist, dass die Tester für unfähig gehalten werden.

MfG,
Raff

Für unfähig werden sie imo (!) bloß gehalten, solang sie ernsthaft der Meinung sind, dass eine 9600GT vor einer 4870 zu reihen ist - und dann auf Nachfrage dem fiesen Excel die Schuld geben :rolleyes:

Naja, lassen wir das...

Black-Scorpion
2008-11-15, 19:37:10
Naja wer sich als Magazin solche Böcke erlaubt und dann auch noch wie ein beleidigtes Kind einem Programm (Excel) die Schuld gibt, braucht sich nicht zu beschweren wenn die Tester als unfähig bezeichnet werden.

Raff
2008-11-15, 19:40:30
Viel schlimmer als immer wieder gemachte Fehler – wir sind alle nur Menschen, auch wenn sich viele, gerade "anonyme" Gast-Trolle, als erhaben ansehen – sind IMO die, die sich dauernd an sowas aufhängen. Aber Lolli hat schon erkannt, dass das offtopic ist. ;)

MfG,
Raff

Black-Scorpion
2008-11-15, 20:08:50
ich hatte ne 9500 pro mit pipeline mod + oc, die ging wie schmitz katz :D

edit:
hab für die 88er gtx gestimmt
Es gab und wird keine 9500pro mit Mod geben.
Wie auch bei einer Karte die 8 Pipes und ein eigenes Layout (PCB) hat.

PCGH_Carsten
2008-11-15, 23:52:14
BTW: Dass SM2.0 Wasser auch schön aussehen kann, zeigt u.a. 'The Project'.
Far Cry realisiert Wasser über 1.x-Shader.

Ringwald
2008-11-16, 00:45:58
Gab es mit der Radeon nicht anfangs probleme bei FarCry mit den Felsen.
Die waren irgendwie Lila oder so und alle hatten geschrien das ATI schlechte Treiber hat. Ich meine da war sowas gewesen.

Coda
2008-11-16, 02:06:19
Far Cry realisiert Wasser über 1.x-Shader.
1.4. Man braucht den dependend-tex-fetch. Half-Life² kann das auch.

Popeljoe
2008-11-16, 10:19:00
Gab es mit der Radeon nicht anfangs probleme bei FarCry mit den Felsen.
Bei wieviel nagelneuen Spielen gibt es keine Treiberprobs? ;)

Übrigens Raff/Lolli: Excel hat mir auch bereits einige Grafiken versaut, weil das Prog meint, dass es selber bestimmen kann, was sinnvoll ist (z.B. bei der Achsenbeschriftung).
Für 0815 Benchgrafiken mag das ja noch funzen, aber für ernsthafte Statistiken nimmt man SPSS oder besser noch Statistica! :up:

=Floi=
2008-11-16, 11:08:10
http://www.pcgameshardware.de/aid,663215/Test/Benchmark/3DMark03_Leistungsvergleich_von_Geforce_2_MX_bis_Radeon_4870_X2/
so lange solche tests gemacht werden...
da gibt es ein paar sachen zu kritisieren :rolleyes: (8800GTS640 vor der 8800GTX ;D )

aths
2008-11-16, 13:05:04
In allen Foren dieser Welt gibt es nur ganz wenige Leute, die wissen, welch unfassbarer Krampf eine neue Grafikkartengeneration zum Launch sein kann. Das sind die, die selbst Tests schreiben. Diesen Krampf kriegt man als Endnutzer idealerweise auch nicht mit, weil dann schon bessere Treiber verfügbar sind bzw. sein sollten. Die Moral dieser Geschichten ist, dass die Tester für unfähig gehalten werden. Ich sehe das Problem, dass die Leserschaft schon zum Launchtag den endgültigen Artikel haben will. Obwohl man objektiv nicht viel mehr als einen ersten Überblick geben kann.

Sonyfreak
2008-11-16, 13:16:44
da gibt es ein paar sachen zu kritisieren :rolleyes: (8800GTS640 vor der 8800GTX ;D )Ich nehme mal an, dass die 8800GTS 512MB gemeint ist.

Was mir aufgefallen ist:

6800GT ca. 9800 Punkte, 6800 Ultra ca. 15.100 Punkte <= das kann nicht wirklich möglich sein ;)

mfg.

Sonyfreak

Mr. Lolman
2008-11-16, 15:48:19
Far Cry realisiert Wasser über 1.x-Shader.

Für "The Project" wurden die Wassershader aber neu geschrieben. Iirc waren das schon 2.0-Shader...

Liszca
2008-11-16, 16:14:35
[X] 3Dfx Voodoo Graphics

Was den sonst:D

Becks
2008-11-19, 11:21:13
[x] 9700 Pro

Ein Meilenstein !

Exxtreme
2008-11-19, 11:27:34
Ich sehe das Problem, dass die Leserschaft schon zum Launchtag den endgültigen Artikel haben will. Obwohl man objektiv nicht viel mehr als einen ersten Überblick geben kann.
Aber auch nur weil man so tut als ob man den Durchblick hätte. Wären die Tester ehrlich dann gäbe es keine fertigen Artikel zum Launch.

V2.0
2008-11-19, 12:10:31
Aber ohne den "fertigen" Artikel zum Launch gibt es keine Views, keine Verkäufe (Printmedien) und somit keine Einnahmen. Auf Dauer dann auch keine Testsamples von den Herstellern mehr.

beos
2008-11-19, 12:38:43
[X] 3Dfx Voodoo Graphics

Was den sonst:D

Seh ich auch so :smile:

Die User, die für die anderen beiden Karten gestimmt haben sind wohl noch zu jung um sich an "Klötzen - ungefiltert - ohne Texturen" Dos Spiele zu errinnern - die mit der Voodoo Karte ein Ende hatten :wink:

V2.0
2008-11-19, 15:03:31
Das hatte bei mir mit deiner Power VR ein Ende :D

Christi
2008-11-19, 15:24:36
Seh ich auch so :smile:

Die User, die für die anderen beiden Karten gestimmt haben sind wohl noch zu jung um sich an "Klötzen - ungefiltert - ohne Texturen" Dos Spiele zu errinnern - die mit der Voodoo Karte ein Ende hatten :wink:


wenn man sich es leisten konnte. übrigens war 1996 super vga (640er auflösung) schon nix neues mehr:)

die voodoo 1 machte halt bei der auflösung die games spielbar bei guter optik. nur war schnell der deckel zu. lange hatte kaum einer eine voodoo1 im pc und genau da liegt die faszination am r300. die manche ( wie ich auch) ewig im pc hatten und sogar noch haben.

Mr. Lolman
2008-11-19, 15:27:53
wenn man sich es leisten konnte. übrigens war 1996 super vga (640er auflösung) schon nix neues mehr:)

die voodoo 1 machte halt bei der auflösung die games spielbar bei guter optik. nur war schnell der deckel zu. lange hatte kaum einer eine voodoo1 im pc und genau da liegt die faszination am r300. die manche ( wie ich auch) ewig im pc hatten und sogar noch haben.

Naja 2 Jahre konnte man die Voodoo1 locker drinnen lassen. War aber mit der Zeit deswegen uninteressant, weil eine einzelne Voodoo2 bei Multitexturing-Spielen schon knapp 4x schneller war...


EDIT: Außerdem war damals kaum was mit SVGA wirklich spielbar. NFS1 mit nem nagelneuen superteurem Pentium 100 ging. Aber Bleifuss zB schon überhaupt nichtmehr. Und Quake ruckelte sich selbst auf nem P133 mit 512x483 übel ab.

Christi
2008-11-19, 15:36:19
jo das meine ich ja. die karte war für das geld gesehen net lange up to date.

mein kumpel hattte 1996 um die 400dm bezahlt. damals ein batzen geld nur fürs spielen.
eine grafikkarte brauchte man ja noch extra für 2d.

hatte auch eine voodoo 1, voodoo 2 und ja, ich war einer der verrückten 3dfx jünger die noch 1999 eine voodoo 3 2000 für 259DM gekauft haben. da waren meine kumpels schon ins nvidia lager gewechselt (tnt).
3dfx war schon gut, doch nachhaltig war die 9700pro schon absolute extraklasse. vielleicht liegts aber auch daran, dass die erinnerungen an die 9700pro noch so frisch sind.

edit:
eine 1998 sehr aktuelle voodoo 2 hatte schon arge probleme ein half life , welches ende 98 erschien, in 800x600 16bit flüssig darzustellen.

Mr. Lolman
2008-11-19, 15:57:45
jo das meine ich ja. die karte war für das geld gesehen net lange up to date.

mein kumpel hattte 1996 um die 400dm bezahlt. damals ein batzen geld nur fürs spielen.
eine grafikkarte brauchte man ja noch extra für 2d.

Naja. 2 Jahre uptodate waren ja ganz guter Durchschnitt. Im Nachhinein betrachtet war die Voodoo2 einfach zu stark (überhaupt mit SLI)

hatte auch eine voodoo 1, voodoo 2 und ja, ich war einer der verrückten 3dfx jünger die noch 1999 eine voodoo 3 2000 für 259DM gekauft haben. da waren meine kumpels schon ins nvidia lager gewechselt (tnt).


Voodoo3 hatte ich ausgelassen. Bin von ner Banshee auf die Voodoo5 gewechselt. Aber selbst mit ner Voodoo3 2000 war man eigentlich gut bedient. Locker um 30% übertaktbar und beste 16(22)bit BQ. Nur das Texturgrößenlimit wurde dann innerhalb der nächsten 2 Jahre zum Problem. Aber aufs 32bit-Rendering hab ich selbst bei der Voodoo5 freiwillig verzichtet. 22bit mit 2xSGSSAA war viel geiler...

Und meine Kumpels haben gelacht und gelästert, wie ich ihnen die Vorteile von feinem AA gezeigt hab und gemeint, dass mein UT viel zu ausgewaschen aussieht, weil sie in ihren Control Panels brav die Kontrastwerte hochgezogen hatten. Selbst als ich mir die 9700pro zugelegt hab, haben alle noch fleissig Ti4x00-Karten gekauft und von AA nix wissen wollen. Das hat sich erst geändert, als sie plötzlich selbst HW im Rechner hatten, die AA ausreichend schnell anzeigen konnte.Und jetzt knallen sie alle massig AA in ihre Highendkarten rein und tun dabei so, als hätten sie nie was anderes gemacht :biggrin:


eine 1998 sehr aktuelle voodoo 2 hatte schon arge probleme ein half life , welches ende 98 erschien, in 800x600 16bit flüssig darzustellen.

Aber wirklich nicht. HL1 kann man selbst mit einer Voodoo1 noch halbwegs ordentlich zocken. Mit ner Banshee sowieso. Und ne Voodoo2 mit Multitexturing sollte das generell locker wegstecken. Selbst bei QuakeII erreichte eine einzelne Voodoo2 noch ~60 fps, mit 800x600 und Standard-OpenGLtreiber (mit WickedGL sowieso noch deutlich mehr).

Imo war bei deinem System gründlich was verbockt, wenn die Voodoo2 schon bei der (erweiterten) Q1 Engine solche Probleme hatte...

Der HeinZ
2008-11-19, 16:00:09
edit:
eine 1998 sehr aktuelle voodoo 2 hatte schon arge probleme ein half life in 800x600 16bit flüssig darzustellen.

Uuuu, ne da gabs doch den Wiki-Treiber (oder so hieß der), und der machte sogar aus meinem geliebten Quake 3 eine sehr sehr spielbare Geschichte.
Damals war mein Steckenpferd noch ein K6-III+ 600 Mhz mit 3dnow+. Was genau machte diesen Treiber eigentlich so flott, ich errinnere mich das meine Voodoo2 arge Probleme bei Quake 3 mit der maximalen Texturgröße hatte (Glide). Mit diesem Treiber lief das auf einmal erheblich flüssiger und der trilineare filter funktionierte erheblich besser. Ich würde gerne mal ne Voodoo 2 mit meinem aktuellen Rechner testen, haha. 3dmark01 oder so mal gucken wie sehr die Karte den Prozzi ausbremst, aber dann auch fairer weise auf SLI bei 1024 x 768. Man das Ding war damals echt schnell und konnte der Riva 2 in meinem Pentium 2 Rechner echt die schau stehlen. Geile Zeiten...

Mr. Lolman
2008-11-19, 16:06:09
ich errinnere mich das meine Voodoo2 arge Probleme bei Quake 3 mit der maximalen Texturgröße hatte (Glide).

1. waren das nur ein paar Texturen die wirklich größer als 256x256 waren (vielleicht 5, aber imo keine 10 Texturen)

2. gabs von Creative einen Treiber der in Q3a mit Voodookarten von Banshee bis Voodoo3 Textures bis zu einer Auflösung von 512x512 Pixel erlaubte...

Christi
2008-11-19, 16:10:29
system war 1a. zumal die voodoo 3 das spiel meisterte. h1 war auch ein grund mir die v3 zu kaufen.

versteht mich net falsch- es lief, aber richtig flüssig nicht.

konnte auch gut vergleichen beim bruder, der hatte nämlich schon eine riva tnt und da lief es wirklich bombe.

Mr. Lolman
2008-11-19, 17:21:08
system war 1a. zumal die voodoo 3 das spiel meisterte. h1 war auch ein grund mir die v3 zu kaufen.

versteht mich net falsch- es lief, aber richtig flüssig nicht.

konnte auch gut vergleichen beim bruder, der hatte nämlich schon eine riva tnt und da lief es wirklich bombe.

Trotzdem stimmte imo irgendwas nicht. Denn - wie gesagt - selbst mit den schwachen 3dfx OpenGL-ICD hatte man mit einer Voodoo2 in 800x600 bei QuakeII ~60 fps:
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=34006&d=1227110794

EDIT: Hab sogar ein paar alte Halflife Benchmarks finden können: http://arstechnica.com/reviews/1q99/mx300-2.html
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=34007&stc=1&d=1227111767

Gast
2008-12-23, 03:31:33
Ich spiele gerade Prey (August 2006) in der Version 1.4 mit einer 9700Pro in 1024*786 in den höchst möglichen Einstellung.
(Wenn ich auf 800*600 reduziert habe, oder Effkete herrunter geschaltet habe, dann lief es eher stockender im Durchschnitt...)

Der AMD XP 2400 + die nur 512MB scheinen das Problem zu sein, warum es ab und zu zum Nachladen + zu Einbüchen kommt...

(Hat hier noch einer Tips weche Einstellungen ich vornehmen kann, um Hauptspeicher + CPU zu entlasten?)

=> 9700Pro ist ein Meilenstein

der_roadrunner
2008-12-23, 05:06:58
Ich spiele gerade Prey (August 2006) in der Version 1.4 mit einer 9700Pro in 1024*786 in den höchst möglichen Einstellung.
(Wenn ich auf 800*600 reduziert habe, oder Effkete herrunter geschaltet habe, dann lief es eher stockender im Durchschnitt...)

Der AMD XP 2400 + die nur 512MB scheinen das Problem zu sein, warum es ab und zu zum Nachladen + zu Einbüchen kommt...

(Hat hier noch einer Tips weche Einstellungen ich vornehmen kann, um Hauptspeicher + CPU zu entlasten?)

=> 9700Pro ist ein Meilenstein

Jupp, 512MB bremsen da enorm aus. Hol dir am besten noch einen 512er Riegel. Da haste mehr von, als irgentwas in irgentwelchen .ini's zu tweaken. ;)

der roadrunner

Gast
2008-12-23, 12:39:24
Jupp, 512MB bremsen da enorm aus. Hol dir am besten noch einen 512er Riegel. Da haste mehr von, als irgentwas in irgentwelchen .ini's zu tweaken. ;)

der roadrunner
Problem:
nur 2 Speicherbänke und beide mit je 256MB + DDR1 266MHz bereits belegt...

Ich hatte mal von Arbeitskollegen eine 1GB Riegel drin, es wurden vom Motherboard aber nur die Hälfte erkannt...=> Da war ich wieder bei 512MB...
Wenn ich zusätzlich einen 256MB Reigel dazugetan habe...da weiß ich jetzt nicht mehr was ds Ergebnis war...aber ich denke 786MB...

Wobei Win2k sonst mit 512MB auskommt... :-)

Das Asrock K7VM2 Motherboard ist für heutige Verhältnisse einfach schecht...
und ich will keine Risiko eigehen und naderen Speicher bestellen, der dann auch nicht funktioniert.....

Ernsthaft Aufrüsten ist somit sinnlos...außerdem spiele ich eigentlich auf diesen Rechner sonst nur Adventures...wen überhaupt.
Und wenn gar nichts mehr geht, dann Neukauf!