PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : X1950XTX manchmal schneller als 8800 GTS?


Matthias1981
2006-11-16, 12:11:58
Ja aber bei vielen Spielen is doch die X1950XTX sogar besser als ne 8800GTX. Woran liegt das dann??

deekey777
2006-11-16, 12:12:46
Ja aber bei vielen Spielen is doch die X1950XTX sogar besser als ne 8800GTX. Woran liegt das dann??
Welche Spiele und mit welchen Einstellungen?

dildo4u
2006-11-16, 12:12:50
Ja aber bei vielen Spielen is doch die X1950XTX sogar besser als ne 8800GTX. Woran liegt das dann??In welchen bitte oder meinst du die GTS?

Matthias1981
2006-11-16, 12:13:23
http://img295.imageshack.us/img295/9113/8800gtxinbodengerammtxdfx8.jpg (http://imageshack.us)

dildo4u
2006-11-16, 12:14:26
Kein AA und AF? die Einstellung ist einfach zu niedrig.Mit AA und AF oder in der 2500 Auflösung ist die GTX schneller.

Sternenkind
2006-11-16, 12:18:30
2500er Auflösung? Wer hat das bitte? 1600er ist schon für die meisten das höchste der Gefühle und dann gleich nach 2500er greifen? Na ich weiß ja nicht.

Gouvernator
2006-11-16, 12:19:05
Kein AA und AF?
Das ist fair. So hat jeder gleiche Chancen.

DrumDub
2006-11-16, 12:20:56
Kein AA und AF? die Einstellung ist einfach zu niedrig. jupp, mit aa/af ist die 8800gtx immer vorne: http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/15/#abschnitt_call_of_duty_2

abgesehen davon bestätigen ausnahmen die regel... ;)

Das ist fair. So hat jeder gleiche Chancen. aber nicht realistisch... oder zockst du ohne aa und af?

dildo4u
2006-11-16, 12:21:07
Das ist fair. So hat jeder gleiche Chancen.So ein Quark das HQ AF der ATI liegt in etwa gleichauf mit dem normalen AF des G80 also ist ein Vergleich mher als zulässig und wer zockt mit einer 600€ Karte ohne AA und AF?

Gouvernator
2006-11-16, 12:23:35
2500er Auflösung? Wer hat das bitte? 1600er ist schon für die meisten das höchste der Gefühle und dann gleich nach 2500er greifen? Na ich weiß ja nicht.
ein 22" CRT kann das. Sobald du so ein Ding besitzt musst du ihn einfach "ausfahren" :wink: Mit PowerStrip hast du in NullKommanix diese Auflösung eingestellt.

dildo4u
2006-11-16, 12:24:50
http://www.firingsquad.com/hardware/nvidia_geforce_8800_preview/images/cod21600.gif

http://www.firingsquad.com/hardware/nvidia_geforce_8800_preview/page20.asp

Ronny145
2006-11-16, 12:25:22
Ein paar mehr Beispiele müsste man schon bringen, wenn es so viele gibt. Ausnahmen gibt es immer. Du hast dir auch schon extra den Bench ohne AA & AF aussuchen müssen und trotzdem ist das die einzigste Ausnahme bei CB.

Gast
2006-11-16, 12:26:54
http://img295.imageshack.us/img295/9113/8800gtxinbodengerammtxdfx8.jpg (http://imageshack.us)


Du sprachst von Spielen und nennst dann ein einziges Spiel mit geradezu lächerlichen Einstellungen? Sonst geht's dir aber gut?

Gouvernator
2006-11-16, 12:29:17
http://www.firingsquad.com/hardware/nvidia_geforce_8800_preview/images/cod21600.gif

http://www.firingsquad.com/hardware/nvidia_geforce_8800_preview/page20.asp
Na super, da siehts man. Was ich vorhin gesagt habe NV kann erst in nachfolge Generation mit einer Einzelkarte von ATI mithalten. Was Leute mit nV GX2 gehabt haben kommt erst jetzt in Form einer einzelnen GTS und ATI hatte das am 24 Januar 2006 mit der XTX@overclocked =)

dildo4u
2006-11-16, 12:33:17
Na super, da siehts man. Was ich vorhin gesagt habe NV kann erst in nachfolge Generation mit einer Einzelkarte von ATI mithalten. Was Leute mit nV GX2 gehabt haben kommt erst jetzt in Form einer einzelnen GTS und ATI hatte das am 24 Januar 2006 mit der XTX@overclocked =)
Wenn man Games vergleicht die wirklich Moderne Shader nutzen wie Oblivion ist selbst die GTS einer 1950XTX eine Generation vorraus.

http://www.firingsquad.com/hardware/nvidia_geforce_8800_preview/images/aamts1280.gif

Wie gesagt das wird sich noch verschieben es wird 2007 viel mher Games geben die eher auf Shaderpower setzen als auf reine Multitexturing Leistung.

Gouvernator
2006-11-16, 12:35:23
Wenn man Games vergleicht die wirklich Moderen Shader nutzen wie Oblivion ist die selbst GTS einer 1950XTX eine Genration vorraus.

http://www.firingsquad.com/hardware/nvidia_geforce_8800_preview/images/aamts1280.gif
Oblivion hab ich nie gespielt und werde auch nicht, COD2 aber schon, das war eigentlich auch der Grund warum ich mir die 1900XTX am Launchtag geholt hab.

robbitop@work
2006-11-16, 12:38:34
Na super, da siehts man. Was ich vorhin gesagt habe NV kann erst in nachfolge Generation mit einer Einzelkarte von ATI mithalten. Was Leute mit nV GX2 gehabt haben kommt erst jetzt in Form einer einzelnen GTS und ATI hatte das am 24 Januar 2006 mit der XTX@overclocked =)

In den meisten Fällen liegt R580 bei Auslieferungstakt nicht deutlich vor G71.
Die GX2 erleidet natürlich den üblichen SLI Effizienzabzug und den geringeren Takt. Wenn du deine Karte dann noch ordentlich übertaktest ist ein Gleichstand kein Wunder (ich liebe Äpfel-Birnen Vergleiche in diesem Forum soo).

Für die Leute, die hohe Auflösungsbenches verachten und sich nur die 1280er Ergebnisse anschauen und der Meinung sind, dass dort Kart X nur so schnell ist wie Kart Y: ihr liegt falsch. Die Leistung einer Karte ist Konstant (Achtung: FPS != Leistung -> Leistung ist Arbeit pro Zeiteinheit).
Bei niedrigen Settings limitiert die Test-CPU.

Möglichst hohe Settings miteinander zu vergleichen, soll versuchen die CPU Limitierung so weit es geht herauszunehmen um so weit wie möglich zu zeigen, wie viel stärker Karte X als Karty Y ist.

Wichtig ist die Leistung für die MinFPS (sowas bencht leider kaum jemand, ist aber entscheidend fürs Spielgefühl) und die Leistung ist wichtig für neuere Spiele. Leistung kann man nie genug haben (je weniger, desto eher muss man wieder neukaufen).

Für CPU Tests vice versa.

dildo4u
2006-11-16, 12:39:30
Oblivion hab ich nie gespielt und werde auch nicht, COD2 aber schon, das war eigentlich auch der Grund warum ich mir die 1900XTX am Launchtag geholt hab.Schick für dich aber fakt ist nunmal das Oblivion die mit Abstand komplexesten Shader hat die es in einem PC Game überhaupt gibt wird whol nur von einigen X-Box 360 Games überboten.Es zeigt halt wie die Perfomance in zukünftigen Games aussehen wird Oblivion hat ja auch echtes HDRR was erst mit einer 8800GTS/8800GTX in hohen Auflösungen wirklich sinnvoll nutzbar ist.

Ronin2k
2006-11-16, 12:40:20
wie einige plötzlich verbissen ihre achso tollen und schnellen x1900xt/x und 1950xt/x loben und verteidigen seit die 8800er von nvidia raus sind...ich spare mir mal meinen sarkasmus^^

ps. hab ne x1800xt 512mb net das hier irgendwat falsches gedacht wird :)

MartinRiggs
2006-11-16, 12:46:27
man brauch es nicht verteidigen, die x19xx sind ja auch schnell.
Das sie gegen ne 8800er nicht anstinken war eigentlich klar.
Ich bin auch noch zufrieden mit meiner x1900xt, aber ich muss auch sagen das mich zum ersten mal seit Geforce 4 wieder mal ne NV reizt. Dazu muss ich zwar mit der Blechschere mein Gehäuse bearbeiten aber irgendwas ist ja immer:biggrin:
Zumal ich ja noch gut Geld für meine x1900xt bekomme, bzw. schon nen Käufer habe.

robbitop@work
2006-11-16, 12:50:00
R580 ist auch zweifellos eine gute GPU. Für ihre Generation ist sie komplett und hat eine nette aritmetische Leistung.
Nur ist G80 je nach Situation bei Auslieferungstakt ca. 2x so schnell, sofern die CPU nicht limitiert. Daran ist nichts zu rütteln.
Man darf auch nicht vergessen, dasss R5xx mittlerweile sehr ausgereifte Treiber hat und G8x die Treiber noch am Anfang stehen. Da sind noch gute ~30% oder mehr drin (reduzierung der Treiberblasen, Optimierung des Shadercompilers usw)

Gast
2006-11-16, 12:52:28
Wie gesagt das wird sich noch verschieben es wird 2007 viel mher Games geben die eher auf Shaderpower setzen als auf reine Multitexturing Leistung.

zufälligerweise ist die 8800er reihe gerade in der multitexturingleistung haushoch überlegen und von der arithmetischen power theoretisch garnicht so viel schneller als die aktuellen ati-karten (wobei sich skalare ALUs natürlich besser auslasten lassen und damit die G80-reihe in der realität auch wenn arithmetische power gefragt ist vorteile gegenüber der alten generation haben wird)

martma
2006-11-16, 12:53:33
So ein Quark das HQ AF der ATI liegt in etwa gleichauf mit dem normalen AF des G80 also ist ein Vergleich mher als zulässig und wer zockt mit einer 600€ Karte ohne AA und AF?

Selber Quark, das HQAF von ATI liegt in etwa gleichauf mit dem HQAF der NV, nicht wie das normale AF.

Gouvernator
2006-11-16, 12:54:42
Eine 1900xtx so wie ich die habe kann locker mit der 8800GTS mithalten. Wenn man die Leute sieht die jetzt schreien oh wie geil doch NV ist, mit einer Einzelkarte solche Ergebnisse zu erziehlen !!! Hätten die blos eine schöne Wakü gekauft und eine XTX dann hätten sie die Leistung schon vor knappen Jahr. ich würde mich feuen auf ein Battle GTS vs XTX beide overclocked :) Und das ab 16/12 aufwärts...

robbitop@work
2006-11-16, 13:01:36
Eine 1900xtx so wie ich die habe kann locker mit der 8800GTS mithalten. Wenn man die Leute sieht die jetzt schreien oh wie geil doch NV ist, mit einer Einzelkarte solche Ergebnisse zu erziehlen !!! Hätten die blos eine schöne Wakü gekauft und eine XTX dann hätten sie die Leistung schon vor knappen Jahr. ich würde mich feuen auf ein Battle GTS vs XTX beide overclocked :) Und das ab 16/12 aufwärts...

Mehr Äpfel-Birnen ahoi...
Sobald die CPU nicht mehr limitiert, ist die GTS vorn (bei Auslieferungszustand). OC ist ein unsinniger Vergleich. Die GTS kann man auch übertakten.

robbitop@work
2006-11-16, 13:05:13
zufälligerweise ist die 8800er reihe gerade in der multitexturingleistung haushoch überlegen und von der arithmetischen power theoretisch garnicht so viel schneller als die aktuellen ati-karten (wobei sich skalare ALUs natürlich besser auslasten lassen und damit die G80-reihe in der realität auch wenn arithmetische power gefragt ist vorteile gegenüber der alten generation haben wird)
Mit aktuellen Treibern bringt G80 2-2,5x soviel Pixelshaderleistung auf die Straße wie ein R580 (Shadermark). Zwar ist die reine Aritmetische Rohleistung so viel höher nicht, doch die Granularität haut unheimlich viel Effizienz heraus. Dazu kommt, dass die G80 Treiber noch nicht so ausgereift sind, wie die R580 Treiber.
Ist doch egal auf welche Art die Endleistung entsteht, so lange sie da ist. NV hat das diesmal durch Erhöhung der Effizienz gemacht. Die Rohleistung wird im Refresh gesteigert (IMO).

Insgesamt scheint G80 ziemlich gut ausbalanciert zu sein. Weder Bandbreite noch Füllrate noch Shaderleistung limitieren irgendwo arg. Es scheint immer ein Gemisch aus allem zu sein (AA/AF sind relativ billig).

Gouvernator
2006-11-16, 13:06:14
Die GTS kann man auch übertakten.
Habe ich was anderes gesagt ?
beide overclocked
Und wir testen ab 16/12 am liebsten wäre mir 2560x1920@4xAA

Gast
2006-11-16, 13:07:17
Zuviel Zeit oder? ;)

geforce
2006-11-16, 13:09:52
Eine 1900xtx so wie ich die habe kann locker mit der 8800GTS mithalten. Wenn man die Leute sieht die jetzt schreien oh wie geil doch NV ist, mit einer Einzelkarte solche Ergebnisse zu erziehlen !!! Hätten die blos eine schöne Wakü gekauft und eine XTX dann hätten sie die Leistung schon vor knappen Jahr. ich würde mich feuen auf ein Battle GTS vs XTX beide overclocked :) Und das ab 16/12 aufwärts...

Also völlig Unbeteiligter, sei das nun Diskussion oder Besitzer, muss ich sagen das es schon ein bisschen Fanboy-mäßig klingt. Ich will mich auf keine Seite schlagen aber ich verfolge sämtliche Threads und hab mir schon einige Reviews zu Gemüte geführt, von daher erlaube ich mir einfach mal dir das zu unterstellen.

MfG Richard ;)

Gouvernator
2006-11-16, 13:10:09
Zuviel Zeit oder? ;)
jep

Gouvernator
2006-11-16, 13:11:21
Also völlig Unbeteiligter, sei das nun Diskussion oder Besitzer, muss ich sagen das es schon ein bisschen Fanboy-mäßig klingt. Ich will mich auf keine Seite schlagen aber ich verfolge sämtliche Threads und hab mir schon einige Reviews zu Gemüte geführt, von daher erlaube ich mir einfach mal dir das zu unterstellen.

MfG Richard ;)

geforce
normal :biggrin:

geforce
2006-11-16, 13:16:50
geforce
normal :biggrin:

Ähm ja, du kannst dir natürlich auch selbst ins Bein schießen :(
Als kleiner Denkanstoß: Meine letzten 3 Grafikkarten waren von ATi, die letzte gute Grafikkarte von nVIDIA, in meinen Augen, war die Geforce 3. Und immernoch: Du klingt wie ein typischer Fanboy ... Symptome sind klar und deutlich vorhanden und ich rate dringend zu einer Behandlung ;(

MfG Richard ;)

PS: Ach und auch die nächste Grafikkarte wird von ATi sein, indirekt ist Sie ja schon meine ... die X1600 im MacBook Pro =)

Gouvernator
2006-11-16, 13:24:04
Ach kommt, ich bleibe auch fair :D Ich lasse sie mit Taktraten laufen die ohne hard-mod möglich sind... 770mhz GPU ;D

dildo4u
2006-11-16, 13:31:31
Firingsquad hat ihre GTS immerhin auf 642/942 OC können und kommt fast an die GTX ran.

http://www.firingsquad.com/hardware/nvidia_geforce_8800_gtx_gts_overclocking/images/mts1280.gif

http://www.firingsquad.com/hardware/nvidia_geforce_8800_gtx_gts_overclocking/images/fc1280.gif

http://www.firingsquad.com/hardware/nvidia_geforce_8800_gtx_gts_overclocking/images/coh1600.gif

http://www.firingsquad.com/hardware/nvidia_geforce_8800_gtx_gts_overclocking/images/fear2048.gif

http://www.firingsquad.com/hardware/nvidia_geforce_8800_gtx_gts_overclocking/

Ich würde sagen für 450€ bekommt man mit der GTS eine extrem Potente Karte die OC mäßig sher gut geht.

geforce
2006-11-16, 13:32:54
Ach kommt, ich bleibe auch fair :D Ich lasse sie mit Taktraten laufen die ohne hard-mod möglich sind... 770mhz GPU ;D

Warum nicht beide Karten im Originalzustand? Sorry, aber eben darum gehts hier. Und ich gebe auch gerne zu das eine 8800GTX manchmal langsamer ist als Konkurrenz, aber Leute, denkt mal bitte darüber nach das die Karte erst seit ein paar Tagen am Markt ist und die X1950XTX schon sämtliche Treiberoptimierungen hinter sich hat. Das sind alles Faktoren die eine solche Diskussion, wie sie hier eben gerade stattfindet, total nichtig macht. Sorry, aber das ist einfach eine Tatsache. Im Moment kann man noch nichts Anderes außer Äpfel mit Birnen vergleichen ...

MfG Richard ;)

edit_1: Rächtschreibüng ;(

Gast
2006-11-16, 13:41:40
Selber Quark, das HQAF von ATI liegt in etwa gleichauf mit dem HQAF der NV, nicht wie das normale AF.Nein, Dildo hat schon Recht. Bei G80 ist auch das Standard-AF winkelunabhängig und mindestens auf einem Niveau mit R580-HQ-AF @AI-low, eher noch besser.. Im HQ-Modus sind bei G80 keinerlei böse Optimierungen mehr aktiv, die AF-Qualität ist besser als ATIs HQAF, das bei AI-low noch einige sehr fiese "Optimierungen" drin hat.

Gouvernator
2006-11-16, 13:42:29
Wenn die 8800 alle Optimierungen erfahren hat muss sie später gegen r600 antreten...
Deine Meinung zu Highend entsprich Aldi-Pc Käufern das man sie ja blos im Original Zustand vergleichen soll. Ich sehe das anders herum. Für mich ist Übertaktbarkeit ein wichtiger Kaufgrund. Ein Beispiel, wenn 8800 etwas schneller ist aber schlecht zu übertakten ist aber r600 sich gut übertakten lässt und so den G80 im Regen stehen lässt dann kaufe ich natürlich r600.
ps: anders herum hätte es auch gegangen... ich hätte den g80 gekauft *lach*

Der anstacheler
2006-11-16, 13:44:15
Dildochen du suchst dir wohl immer das beste Review aus wo Nvidia Karten besser darstehen.:rolleyes: :rolleyes: :rolleyes: :rolleyes: :rolleyes:

SKYNET
2006-11-16, 13:45:58
Selber Quark, das HQAF von ATI liegt in etwa gleichauf mit dem HQAF der NV, nicht wie das normale AF.

falach, hast schon die AF tests angesehn, oder? :|

Gast
2006-11-16, 13:51:46
Wieso sollte die X1900 XTX nicht auch mal schneller sein? Dafür kann es viele Gründe geben. Ein Spiel mit hoher Vertex- und Pixellast wäre zum Beispiel auf einem R580+ ein guter Kandidat dafür. Oder etwas sehr ADD-lastiges. :)


Q

Gast
2006-11-16, 13:53:32
Selber Quark, das HQAF von ATI liegt in etwa gleichauf mit dem HQAF der NV, nicht wie das normale AF.

Das "normale" AF des G80 ist bereits das winkelunabhängige, gute.


Q

deekey777
2006-11-16, 13:55:15
Wieso sollte die X1900 XTX nicht auch mal schneller sein? Dafür kann es viele Gründe geben. Ein Spiel mit hoher Vertex- und Pixellast wäre zum Beispiel auf einem R580+ ein guter Kandidat dafür. Oder etwas sehr ADD-lastiges. :)


Q
TR: Legends mit Next-Gen? Ich finde nur den Test bei CB, aber der zeigt deutlich, wo es lang geht.

DrumDub
2006-11-16, 13:59:22
TR: Legends mit Next-Gen? Ich finde nur den Test bei CB, aber der zeigt deutlich, wo es lang geht. hmm? da ist doch sogar die 7900gtx schneller als die x1950xtx?

deekey777
2006-11-16, 14:18:01
hmm? da ist doch sogar die 7900gtx schneller als die x1950xtx?
Auf diesem Bild sind über drei Millionen Dreiecke:
http://img134.imageshack.us/img134/7150/trlopt1yi7.th.jpg (http://img134.imageshack.us/my.php?image=trlopt1yi7.jpg)
Wo? Da:
http://img167.imageshack.us/img167/5400/trlopt2uz3.th.jpg (http://img167.imageshack.us/my.php?image=trlopt2uz3.jpg)

Auch hat die 7900GTX den Geometry-Clock von 700 MHz.

Mr. Lolman
2006-11-16, 14:26:21
Auf diesem Bild sind über drei Millionen Dreiecke:


Das ist ja mal wirklich übel. ;(

hmm? da ist doch sogar die 7900gtx schneller als die x1950xtx?

Vll. auch durch die unterschiedliche BQ bedingt.

http://www.computerbase.de/bild/article/614/169/
http://www.computerbase.de/bild/article/614/170/

Gaestle
2006-11-16, 14:29:26
http://img295.imageshack.us/img295/9113/8800gtxinbodengerammtxdfx8.jpg (http://imageshack.us)

Interessanterweise zeigt sich hier ein anderes Bild:

Call of Duty 2 v.1.3 ohne AA / AF

bei clubic.com
http://www.clubic.com/article-61974-11-nvidia-g80-geforce-8800-gts-gtx.html
http://img.clubic.com/photo/00396674.jpg

bei Digit-life
http://www.digit-life.com/articles2/video/g80-part3.html
http://www.ixbt.com/video2/images/g80/cd-pr.png
Absolute Werte: http://www.ixbt.com/video2/g80-part3-d.shtml#p33

Auch interessant:
http://www.technic3d.com/?site=article&action=article&a=379&p=6
Eine X1800XT im CF-Verbund überflügelt eine einzelne 8800GTX unter 4xAA / 2xAF um knapp 30%

guru3D.com meint dazu:
"I have stated it before, there is a a driver abnormality here as the scores are a little off in some cases. "
http://www.guru3d.com/article/Videocards/391/21/

deekey777
2006-11-16, 14:32:22
Das ist ja mal wirklich übel. ;(



Vll. auch durch die unterschiedliche BQ bedingt.

http://www.computerbase.de/bild/article/614/169/
http://www.computerbase.de/bild/article/614/170/

Ui, was'n das?
Besser gesagt: Wie kann so was passieren?

DrumDub
2006-11-16, 14:41:43
Auf diesem Bild sind über drei Millionen Dreiecke:
http://img134.imageshack.us/img134/7150/trlopt1yi7.th.jpg
Wo? Da:
http://img167.imageshack.us/img167/5400/trlopt2uz3.th.jpg

Auch hat die 7900GTX den Geometry-Clock von 700 MHz. nix hsr? ;(

Vll. auch durch die unterschiedliche BQ bedingt.

http://www.computerbase.de/bild/article/614/169/
http://www.computerbase.de/bild/article/614/170/ das ist ja auch klasse...

Spasstiger
2006-11-16, 14:47:47
http://img295.imageshack.us/img295/9113/8800gtxinbodengerammtxdfx8.jpg (http://imageshack.us)
CPU-Limit + höhere CPU-Last des NV-Treibers. Im Fall einer CPU-Limitierung sind die neuen Nvidias den ATI-Karten fast immer unterlegen.

deekey777
2006-11-16, 14:48:06
http://www.hardware.fr/articles/644-15/nvidia-geforce-8800-gtx-8800-gts.html
Die Ergebnisse sind in etwa gleich, trotzdem stellt sich noch die Frage mit der Bildqualität.

Gast
2006-11-16, 14:48:40
TR: Legends mit Next-Gen? Ich finde nur den Test bei CB, aber der zeigt deutlich, wo es lang geht.

Keine Ahnung, ich meinte eigentlich keinen konkreten Fall, sondern ein allgemeines Szenario.


Q

Gast
2006-11-16, 14:52:31
Ui, was'n das?
Besser gesagt: Wie kann so was passieren?

Ich sehe da keine unterschiede!Was meint ihr genau?

Gast
2006-11-16, 14:55:52
Vll. auch durch die unterschiedliche BQ bedingt.

http://www.computerbase.de/bild/article/614/169/
http://www.computerbase.de/bild/article/614/170/
Schade, dass Computerbase sich nicht zu den Shots äußert - so weiß man nicht, welches Bild falsch und welches richtig ist. Auf dem Shot erkenne ich jedenfalls nichts, was da Schatten aus Richtung Wasserfall auf die Landschaft werfen sollte - es sei denn, das Wasser strahlt selbst Licht aus.

Vielleicht spart sich auch die Radeon das Berechnen einer Lichtquelle?


Q

Gast
2006-11-16, 14:56:42
Auf diesem Bild sind über drei Millionen Dreiecke:
http://img134.imageshack.us/img134/7150/trlopt1yi7.th.jpg (http://img134.imageshack.us/my.php?image=trlopt1yi7.jpg)
Wo? Da:
http://img167.imageshack.us/img167/5400/trlopt2uz3.th.jpg (http://img167.imageshack.us/my.php?image=trlopt2uz3.jpg)

Auch hat die 7900GTX den Geometry-Clock von 700 MHz.

Das ist m.W. im Wireframe-Modus normal bzw. in Spielen üblich, dass man alle Dreiecke sieht.


Q

joe kongo
2006-11-16, 14:59:41
Die GTX ist schneller, länger und leiser als die XTX.
Ich weis nicht was es daran zu zweifeln oder diskutieren gibt ?
:tongue:

Gast
2006-11-16, 15:03:46
Die GTX ist schneller, länger und leiser als die XTX.
Ich weis nicht was es daran zu zweifeln oder diskutieren gibt ?
:tongue:
Sie ist nicht überall schneller - und darum geht's in diesem Thread. Wenn du diesen Fakt ignorieren willst, geh doch bitte in andere Threads.


Q

Mr. Lolman
2006-11-16, 15:06:58
Das ist m.W. im Wireframe-Modus normal bzw. in Spielen üblich, dass man alle Dreiecke sieht.


Q

Imo werden nur die Dreiecke dargestellt, die sonst auch berechnet werden (ist zumindest bei Gothic3 so)

Schade, dass Computerbase sich nicht zu den Shots äußert - so weiß man nicht, welches Bild falsch und welches richtig ist. Auf dem Shot erkenne ich jedenfalls nichts, was da Schatten aus Richtung Wasserfall auf die Landschaft werfen sollte - es sei denn, das Wasser strahlt selbst Licht aus.

Vielleicht spart sich auch die Radeon das Berechnen einer Lichtquelle?


Q

Vll. spart sich die NV-GraKa die Schattenberechnung) ;)
Das Licht kommt wohl von der Sonne, und wenn die Richtung Fluchtpunkt, schräg hinter den Felsen steht, stimmen auch die Schatten am ATi Shot .

Aber du hast recht, alleine mit Mutmassungen kommen wir da nicht weiter...

Gouvernator
2006-11-16, 15:08:34
Die GTX ist schneller, länger und leiser als die XTX.
Ich weis nicht was es daran zu zweifeln oder diskutieren gibt ?
:tongue:
Wir (ich) vergleiche mit GTS. GTX ist ohne Zweifel schneller und 60% teuerer.

deekey777
2006-11-16, 15:11:21
Das ist m.W. im Wireframe-Modus normal bzw. in Spielen üblich, dass man alle Dreiecke sieht.


Q
Es ist aber unüblich, dass, wenn ich eine Wand anstarre (Bild 1), Dreiecke berechnet werden, die hinter der Wand sind (vergleiche Tris/Frame der beiden Bilder).
€: Ok, TRL liegt jetzt auf dem Eis, bis es keinen aussagekräftigen Bildvergleich gibt. An sich wäre das ein tolles Beispiel: VS-lastig und PS-lastig.
Wie wär's mit Far Cry inkl. AMD64-Upgrade und ECU? Das Pier-Level wurde extrem erweitert: deutlich höhere Sichtweite, mehr Bäume/Vegetation, Unzulänglichkeiten des DX9.0...

robbitop@work
2006-11-16, 15:37:49
Es ist aber unüblich, dass, wenn ich eine Wand anstarre (Bild 1), Dreiecke berechnet werden, die hinter der Wand sind (vergleiche Tris/Frame der beiden Bilder).

Kommt absolut auf die Nutzung vom Engine-HSR (Portale/Antiportale) an.

Bei einigen Spielen scheint's beim G8x noch etwas zu hakeln. Aber wie gesagt: die Treiber sind noch im Anfangsstadium.

Gast
2006-11-16, 16:06:13
Das ist m.W. im Wireframe-Modus normal bzw. in Spielen üblich, dass man alle Dreiecke sieht.




dreiecke die erst garnicht zur graka kommen können von dieser auch nicht im wireframe gezeichnet werden ;)

Der anstacheler
2006-11-16, 16:11:38
Bei denn CB Bilder sehe ich kein unterschied!

Klärt mich bidde auf.

Gast
2006-11-16, 16:14:54
Vll. spart sich die NV-GraKa die Schattenberechnung) ;)
Das Licht kommt wohl von der Sonne, und wenn die Richtung Fluchtpunkt, schräg hinter den Felsen steht, stimmen auch die Schatten am ATi Shot .

Aber du hast recht, alleine mit Mutmassungen kommen wir da nicht weiter...
Dann stimmen aber die Schatten der Farne (z.B. vorne links) nicht mehr. Aber wie du schon sagtest: Mit Mutmaßungen kommen wir nicht weiter.


Q

Gaestle
2006-11-16, 16:17:25
Sie ist nicht überall schneller - und darum geht's in diesem Thread. Wenn du diesen Fakt ignorieren willst, geh doch bitte in andere Threads.


Q

Schade, dass mich alle ignorieren... *schnüff* :cool:

Ich zweifle jedenfalls (kraft meiner Wassersuppe) die CB-Benches an. Auch deswegen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4993967#post4993967

Gast
2006-11-16, 16:18:01
Es ist aber unüblich, dass, wenn ich eine Wand anstarre (Bild 1), Dreiecke berechnet werden, die hinter der Wand sind (vergleiche Tris/Frame der beiden Bilder).
€: Ok, TRL liegt jetzt auf dem Eis, bis es keinen aussagekräftigen Bildvergleich gibt. An sich wäre das ein tolles Beispiel: VS-lastig und PS-lastig.
Wie wär's mit Far Cry inkl. AMD64-Upgrade und ECU? Das Pier-Level wurde extrem erweitert: deutlich höhere Sichtweite, mehr Bäume/Vegetation, Unzulänglichkeiten des DX9.0...
Ist halt die Frage, was genau NV PerfHUD da misst: Wenn das Game (welches auch immer) kein Portalling oder Visibility-Trees nutzt (@gast-zitat unten), dann kommen diese Dreiecke erstmal alle zur Graka. Und da wäre NV PerfHUD, was ja ein Diagnose-Tool ist, ziemlich dumm, wenn es die Dreiecke messen würde, die nach der Sichtbarkeitsprüfung übrig blieben, weil man so ja nie eine Vertex-Überlast messen würde.

dreiecke die erst garnicht zur graka kommen können von dieser
auch nicht im wireframe gezeichnet werden ;)
s.o., gelle? Early-Z und Konsorten arbeiten komplett auf der Grafikkarte.


Q

Gaestle
2006-11-16, 16:18:34
Wir (ich) vergleiche mit GTS. GTX ist ohne Zweifel schneller und 60% teuerer.

Hast Du den Thread-Titel gelesen?

Gast
2006-11-16, 16:29:13
Schade, dass mich alle ignorieren... *schnüff* :cool:

Ich zweifle jedenfalls (kraft meiner Wassersuppe) die CB-Benches an. Auch deswegen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4993967#post4993967
In deinem Posting steht leider soviel, dass sich mir der Zusammenhang der vielen Benchmarks zum gesagten nicht ganz erschließt: Was meinst du denn eigentlich?


Q

deekey777
2006-11-16, 17:00:54
Ist halt die Frage, was genau NV PerfHUD da misst: Wenn das Game (welches auch immer) kein Portalling oder Visibility-Trees nutzt (@gast-zitat unten), dann kommen diese Dreiecke erstmal alle zur Graka. Und da wäre NV PerfHUD, was ja ein Diagnose-Tool ist, ziemlich dumm, wenn es die Dreiecke messen würde, die nach der Sichtbarkeitsprüfung übrig blieben, weil man so ja nie eine Vertex-Überlast messen würde.


s.o., gelle? Early-Z und Konsorten arbeiten komplett auf der Grafikkarte.


Q
Mir ist gerade aufgefallen, dass bei der Aktivierung des Wireframe-Modus die FPS fast halbiert werden. Egal: TRL hat beim Thema Geometrie einen Geometrieschaden (http://www.ixbt.com/video2/tech_trl.shtml). Die Anzahl der Polygone liegt im Next-Gen-Modus von "kennen-wir-schon-aus-Far-Cry" bis "Haben-die-einen-Knall?" (bis zu vier Mio, auch sichtbar).

Gast
2006-11-16, 17:14:11
Mir ist gerade aufgefallen, dass bei der Aktivierung des Wireframe-Modus die FPS fast halbiert werden. Egal: TRL hat beim Thema Geometrie einen Geometrieschaden (http://www.ixbt.com/video2/tech_trl.shtml). Die Anzahl der Polygone liegt im Next-Gen-Modus von "kennen-wir-schon-aus-Far-Cry" bis "Haben-die-einen-Knall?" (bis zu vier Mio, auch sichtbar).
Ja, weil nichts mehr geculled werden kann bsw....

Gast
2006-11-16, 17:16:16
DK777,

Sorry, aber mehr als das hier kann ich bei ixbt nicht lesen:

Счетчик Default FSAA 4x AF off Post FX off Nextgen off Shadows off
gpu_idle, % 26.9 16.6 31.3 29.2 50.6 28.6
vertex_shader_busy, % 6.9 6.5 7.0 6.9 1.5 5.6
pixel_shader_busy, % 39.8 39.4 40.0 39.1 16.1 40.2
triangle count, polys 381736 385143 377411 341270 39998 234972
D3D vidmem/agpmem, Mb 114/7 138/7 99/7 111/5 47/6 111/6
shader_waits_for_texture, % 6.9 11.0 2.6 6.2 10.9 8.2
shader_waits_for_rop, % 2.5 12.9 2.6 1.7 7.1 1.8

deekey777
2006-11-16, 17:51:36
Die Tabelle ist die Zusammenfassung einer zweiminütigen Sequenz des ersten Levels "Bolivia". Im dazu gehörigen Thread steht, dass die Schuld nicht allein beim Triangle Setup liegt, sondern auch in der hohen CPU-Last. Im Text selbst steht, dass mit jedem DrawPrimitive 150-500 Dreiecke gezeichnet werden, Instancing (gemeint ist wohl Geometry Instancing) wird nicht verwendet. Je nach Szene erreichen die Aufrufe von DrawPrimitive 3000-4000 und mehr. Das zwingt so jedes System in die Knie.

Was vergessen: TRL nutzt wie fast jedes Spiel pp16.

The_Invisible
2006-11-16, 18:07:16
Na super, da siehts man. Was ich vorhin gesagt habe NV kann erst in nachfolge Generation mit einer Einzelkarte von ATI mithalten. Was Leute mit nV GX2 gehabt haben kommt erst jetzt in Form einer einzelnen GTS und ATI hatte das am 24 Januar 2006 mit der XTX@overclocked =)

lol, so nen schwachsinn habe ich schon lange nicht mehr gelesen, und dann noch ne 2500er auflösung auf 22", jetzt verstehe ich warum du kein aa brauchst da die maske eh voll überfahren wird...

b2t
es ist klar das es fast immer eine situation geben wird wo die vorgängergeneration an die neue gen. rankommt, man braucht ja nurmal cpu lastige spiele nehmen. außerdem sind die derzeitigen treiber alles andere als rosig, bin mal auf den x10 treiber gespannt

mfg

Gouvernator
2006-11-16, 18:13:03
lol, so nen schwachsinn habe ich schon lange nicht mehr gelesen
Da du selbst keine Ahnung hast ist dein Post so gut wie wertlos. Ich frag mich schon lange wie können Leute sowas beurteilen und auch als Schwachsinn beschimpfen ohne selbst jemals 2048x1536 gesehen zu haben. Villeicht hat einer von euch der ständig behauptet man kann solche Auflösungen nicht fahren selbst mal vor 5 Jahren 1600x1200 auf einem Aldi 19" CRT und GF2mx gesehen und behauptet jetzt- es sei sooo scheisse.

MechWOLLIer
2006-11-16, 18:15:13
Ich zweifle jedenfalls (kraft meiner Wassersuppe) die CB-Benches an. Auch deswegen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4993967#post4993967

Dann werfe ich mal in die Runde -->Timedemo
Andere Timedemo, selbes Spiel, anderes Ergebnis - leider.

Die Ergebnisse auf CB stimmen mit den Karten/Treibern auf jeden Fall, dass habe ich nochmal nachgestellt.

Gast
2006-11-16, 18:47:30
Dann werfe ich mal in die Runde -->Timedemo
Andere Timedemo, selbes Spiel, anderes Ergebnis - leider.

Die Ergebnisse auf CB stimmen mit den Karten/Treibern auf jeden Fall, dass habe ich nochmal nachgestellt.

Und welche Karte stellt das Spiel nun korrekt da? Und vor allem: Wieso keine Screenshots mit der GF8?

Ehrlich, Mechwollier, solche Shots helfen niemandem, wenn du sie nicht auch kommentierst.


Q

The_Invisible
2006-11-16, 18:55:18
Da du selbst keine Ahnung hast ist dein Post so gut wie wertlos. Ich frag mich schon lange wie können Leute sowas beurteilen und auch als Schwachsinn beschimpfen ohne selbst jemals 2048x1536 gesehen zu haben. Villeicht hat einer von euch der ständig behauptet man kann solche Auflösungen nicht fahren selbst mal vor 5 Jahren 1600x1200 auf einem Aldi 19" CRT und GF2mx gesehen und behauptet jetzt- es sei sooo scheisse.

sag mir einfach deine auflösung der loch/streifen/schlitzmaske sowie monitorgröße und ich kann dir schnell ausrechnen ob damit deine 2500er auflösung nicht überfahren wird

da ich selber mal nen 130khz 19" iiyama hatte habe ich doch ein bisschen ahnung

mfg

Gouvernator
2006-11-16, 19:08:08
Darauf kann ich verzichten...

Der anstacheler
2006-11-16, 19:23:26
Jetzt gehts los jetzt gehts los.

Einer der grössten Ati Fanboys kriegt sich jetzt mit einen der grössten Nvidia Fanboys in die Haare.:up:

Gouvernator-Invisible schlagt euch.;D

Gouvernator
2006-11-16, 19:34:19
da ich selber mal nen 130khz 19" iiyama hatte habe ich doch ein bisschen ahnung
Ein bisschen reicht bei langem nicht... Hast du schon mal Powerstrip in diese Richtung benuzt? Und welche waren deine Ergebnisse ;) es wäre doch nicht schlecht zu wissen wie sich so eine 8800 in 2560x1920 schlägt, besonders unter 16xAA in Battlefield...

deekey777
2006-11-16, 19:39:23
Gouvernator und The_Invisible: Tragt eure Differenzen per PN aus.
Der anstacheler: Noch so eine Bemerkung und du bist gleich am ersten Tag deiner Mitgliedschaft hier raus.

Gaestle
2006-11-17, 11:01:16
In deinem Posting steht leider soviel, dass sich mir der Zusammenhang der vielen Benchmarks zum gesagten nicht ganz erschließt: Was meinst du denn eigentlich?
Q

Der Threadstarter bezieht sich auf den CoD2-Bench der CB und meint, dass es Stellen gäbe, bei denen eine X1900XTX eine 8800GTX schlägt. Bezogen auf den CoD2-Bench der CB scheint das auch zu stimmen. Interessanterweise zeigen aber die beiden anderen Tests von CoD2 in 1600x1200 ohne AF/AA genau das Gegenteil. Zusätzlich schreibt Guru3D, dass es Probleme im Treiber gibt.
Mechwollier hat nachgemessen und meint, dass die CB-Benches stimmen. Bleiben also die von Guru3D bezeichneten "komischen Sachen" im G80-Treiber.

MaW: Ich habe noch keinen (anderen) Bench gesehen, in der eine 8800GTX von einer einzelnen X1900XTX geschlagen wird (ich habe mir aber auch nicht alle angesehen). Ich glaube auch nicht, dass ich einen (bezogen auf irgendein Spiel in einer Auflösung >= 1024) sehen werde. Ich frage mich nun ein wenig, warum die IMHO offensichtlichen Treiberprobleme hier nicht Gegenstand der Argumentation sind, sondern der Threadstarter in dem Glauben gelassen wird, er könnte mit seiner Aussage (die sich sehr wahrscheinlich auf Spiele bezieht) Recht haben.

Dass es synthetische Tests gibt, die eine X1900XTX für sich entscheiden kann, glaube ich gern. Aber Spiele? :|
Wenn ich damit falsch liege, lasse ich mich gern vom Gegenteil überzeugen.

Undertaker
2006-11-17, 11:20:44
Eine 1900xtx so wie ich die habe kann locker mit der 8800GTS mithalten. Wenn man die Leute sieht die jetzt schreien oh wie geil doch NV ist, mit einer Einzelkarte solche Ergebnisse zu erziehlen !!! Hätten die blos eine schöne Wakü gekauft und eine XTX dann hätten sie die Leistung schon vor knappen Jahr. ich würde mich feuen auf ein Battle GTS vs XTX beide overclocked :) Und das ab 16/12 aufwärts...

das würde die xtx verlieren, aber haushoch... ein durchschnittlicher r580 geht mit normaler kühlung etwa 700mhz (~750mhz wakü), die gts mit defaultkühler auf 600-625mhz und mit wakü wohl noch deutlich weiter (hier fehlen noch breitere erfahrungswerte)...

nun ist die gts, sofern mit ordentlichen treibern getestet, in KEINEM spiel langsamer als die xtx (was auch nur an cpu limitierung, noch unoptimierten treibern oder völlig miesen engines (nfs) liegt), in einigen aber um den faktor 2 schneller - dazu lässt sie sich noch besser übertakten, dann sieht die xtx kein land mehr... dazu bessere bildquali, weniger verbrauch, leiser, shader model 4.0 usw... die xtx könnte höchstens noch beim preis punkten, was sie aber aufgrund der schlechten lieferbarkeit auch nicht wirklich tut...

deekey777
2006-11-17, 12:02:08
Vll. auch durch die unterschiedliche BQ bedingt.

http://www.computerbase.de/bild/article/614/169/
http://www.computerbase.de/bild/article/614/170/

Ich hab da eine Theorie.
TRL 1.0 hat eine miserable Performance, mit dem Patch 1.1 wurde diese besser, aber die Bildqualität wurde im Next-Gen deutlich verschlechtert, was auch die Schuld der Treiber sein könnte. Der Patch 1.2 brachte zwar die Bildqualität des 1.0 zurück, nahm einiges an der Performance weg.
CB nahm TRL mit deren 91.27-Artikel ins Programm (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/bericht_nvidia_forceware_9127/8/#abschnitt_benchmarks_part_3) auf. Wie man sieht, gibt es auch hier Vergleichsbilder der R580 und G71 mit unterschiedlicher Bildqualität.
Vermutung Nr. 1: Die Bilder wurden mit unterschiedlichen Versionen des Spiels gemacht.
Vermutung Nr. 2: Es lag am verwendeten Treiber, http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4358637#post4358637
Vermutung Nr. 3: Die Vermutungen Nr. 1 und 2 treffen beide zu. Erst mit späteren Treibern und mind. Patch 1.2 kann man den gesamten Next-Gen-Content sehen.
Diese Ergebnisse (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/27/#abschnitt_tomb_raider_legend) haben möglicherweise wenig Aussagekraft, da für die 7900GTX ein älterer Treiber benutzt wurde.
Hier (http://www.behardware.com/articles/644-15/nvidia-geforce-8800-gtx-8800-gts.html) dagegen wurden die damals neuesten Treiber benutzt.

Zocker_28
2006-11-17, 12:14:59
[QUOTE=Undertaker]das würde die xtx verlieren, aber haushoch... [QUOTE]

;D ;D ;D

sicher, ich schlage mit ner 1 x1950 Cf @XTX Takt ne GTS in fast jedem Spiel;)
Das einzige wo sie gut Punkten kann ist im 3D Mark 06 worauf man sehr gut verzichten kann.
Ich sag nicht das die GTS ne schlechte Karte ist, aber vom Preis und Leistung her ist sie völlig unatraktiv.
Jetzt kommt nicht mit mit DX10 und son Mist, eh man das richtig ausnutzen kann ist die Karte Lowend und kann man sich an die Kniescheibe Nageln;D

Grestorn
2006-11-17, 12:40:11
sicher, ich schlage mit ner 1 x1950 Cf @XTX Takt ne GTS in fast jedem Spiel;)

Wie machst Du diesen Vergleich? Hast Du sowohl eine x1950 als auch eine GTS in Deinem Rechner eingebaut? Oder baust Du die Karten abwechselnd ein und aus?

Oder willst Du nur trollen?

Zocker_28
2006-11-17, 13:02:15
Wie machst Du diesen Vergleich? Hast Du sowohl eine x1950 als auch eine GTS in Deinem Rechner eingebaut? Oder baust Du die Karten abwechselnd ein und aus?

Oder willst Du nur trollen?

:|

Ne ich hab das mit Misterh getestet, er hat das gleiche Board wie ich nen
E6400@3500 MHz ,2 GB RAM (fast die gleichen wie ich) und ne Palit 8800GTS, kannst ja mal im Benchmark Thread gucken;) da er nur 1280x1024 Max. kann haben wir alles MAX gestellt und wie schon gesagt kann er mich nur schlagen im 3D Mark 06.
Aber ich hab ihn schon gefragt ob wir mal nen richtigen vergleich machen wer wo schneller ist und was jene karte Leistet, damit das entlich mal nen Ende hat hier:mad:
Und ich seh auch ein wenn sie schneller sein sollte, ich will ja nur den Leuten klar machen das es sich net lohnt sich ne GTS zu kaufen wenn man ne XTX drin hat, würden sie gleich zur GTX greifen dann würde ich nix sagen dann lohnt es sich (meiner Meinung nach).

Grestorn
2006-11-17, 13:15:52
:|

Ne ich hab das mit Misterh getestet, er hat das gleiche Board wie ich nen
E6400@3500 MHz ,2 GB RAM (fast die gleichen wie ich) und ne Palit 8800GTS, kannst ja mal im Benchmark Thread gucken;) da er nur 1280x1024 Max. kann haben wir alles MAX gestellt und wie schon gesagt kann er mich nur schlagen im 3D Mark 06.
Aber ich hab ihn schon gefragt ob wir mal nen richtigen vergleich machen wer wo schneller ist und was jene karte Leistet, damit das entlich mal nen Ende hat hier:mad:
Und ich seh auch ein wenn sie schneller sein sollte, ich will ja nur den Leuten klar machen das es sich net lohnt sich ne GTS zu kaufen wenn man ne XTX drin hat, würden sie gleich zur GTX greifen dann würde ich nix sagen dann lohnt es sich (meiner Meinung nach).

Testen sollte immer nur ein und die selbe Person an ein und dem selben Rechner. Die Person sollte auch in der Lage sein, alleine anhand des Bildes sofort zu erkennen, welche Modi (AA/AF/VSync) aktiv sind. Noch besser, aber selten machbar, ist natürlich zwei bis auf die GraKa identische Rechner parallel laufen zu lassen, damit man Unterschiede sofort sieht.

Außerdem sollten solche Vergleiche grundsätzlich nur bei Einstellungen vorgenommen werden, bei denen die GPU und nicht die CPU limitiert. Sonst sehe ich nur, welcher Treiber einige Prozent effektiver ist, aber nicht welche Grafikkarte schneller ist.

Da Dein Ergebnis allen Reviews im Netz widerspricht, muss eine dieser Voraussetzungen verletzt worden sein.

Skinny12
2006-11-17, 13:29:29
http://img295.imageshack.us/img295/9113/8800gtxinbodengerammtxdfx8.jpg (http://imageshack.us)

Du haste eine PN bzgl. der Kühlersuche ;)

Gruss Nils

Gast
2006-11-17, 15:37:51
Der Threadstarter bezieht sich auf den CoD2-Bench der CB und meint, dass es Stellen gäbe, bei denen eine X1900XTX eine 8800GTX schlägt. Bezogen auf den CoD2-Bench der CB scheint das auch zu stimmen. Interessanterweise zeigen aber die beiden anderen Tests von CoD2 in 1600x1200 ohne AF/AA genau das Gegenteil. Zusätzlich schreibt Guru3D, dass es Probleme im Treiber gibt.
Mechwollier hat nachgemessen und meint, dass die CB-Benches stimmen. Bleiben also die von Guru3D bezeichneten "komischen Sachen" im G80-Treiber.

MaW: Ich habe noch keinen (anderen) Bench gesehen, in der eine 8800GTX von einer einzelnen X1900XTX geschlagen wird (ich habe mir aber auch nicht alle angesehen). Ich glaube auch nicht, dass ich einen (bezogen auf irgendein Spiel in einer Auflösung >= 1024) sehen werde. Ich frage mich nun ein wenig, warum die IMHO offensichtlichen Treiberprobleme hier nicht Gegenstand der Argumentation sind, sondern der Threadstarter in dem Glauben gelassen wird, er könnte mit seiner Aussage (die sich sehr wahrscheinlich auf Spiele bezieht) Recht haben.

Dass es synthetische Tests gibt, die eine X1900XTX für sich entscheiden kann, glaube ich gern. Aber Spiele? :|
Wenn ich damit falsch liege, lasse ich mich gern vom Gegenteil überzeugen.

Ah, jetzt - ja! eine Insel...
Da stimme ich dir völlig zu. Aber andererseits kann es ja zufällig sein, dass die CB-Timedemo da völlig anders reagiert, als die Demos anderer Webseiten und Magazine.


Q

Gast
2006-11-17, 15:39:12
Ah, jetzt - ja! eine Insel...
Da stimme ich dir völlig zu. Aber andererseits kann es ja zufällig sein, dass die CB-Timedemo da völlig anders reagiert, als die Demos anderer Webseiten und Magazine.


Q

€dit:
An der Grafikleistung liegt's jedenfalls nicht, wie man bei der CB-Demo bei steigender Anforderung erkennen kann.


Q

Gouvernator
2006-11-17, 15:43:42
Testen sollte immer nur ein und die selbe Person an ein und dem selben Rechner.
Was sich die Leute alles ausdenken nur um von richtigen unabhängigen Benchmarks normalo User abzuhalten =) Meiner Meinung nach kann die XTX schlimmstenfalls etwas verlieren aber nur ganz bisschen nix dramatisches, damit kann ich noch leben... aber es kommt wie es kommen muss, das eine GTS gegen eine sehr stark übertaktete XTX kein Land mehr sieht :wink: das spüren NV Fans ganz unbewusst ;D deshalb die Panik...

Gaestle
2006-11-17, 15:46:17
Aber andererseits kann es ja zufällig sein ...

€dit:
An der Grafikleistung liegt's jedenfalls nicht, wie man bei der CB-Demo bei steigender Anforderung erkennen kann.
Q

Ja vielleicht ist es Zufall (und ungeklärt scheint die Sache zu sein). Was ich daraus folgend also kritisiere, ist dass CB nur eine Szene gebencht hat und offenbar beim Erstellen des Berichtes an dieser Stelle nicht mitgedacht wurde. Denn eine solche Abweichung MUSS m.M.n. doch ZWANGSLÄUFIG auffallen und zum nachtesten anregen.

Gaestle
2006-11-17, 15:53:07
aber es kommt wie es kommen muss, das eine GTS gegen eine sehr stark übertaktete XTX kein Land mehr sieht :wink: das spüren NV Fans ganz unbewusst ;D deshalb die Panik...

Tschuldigung, aber Du nervst gerade ganz extrem.

Könntest Du endlich mal den Threadtitel lesen und vielleicht auch was zum eigentlichen Thema beitragen? Wäre super.

Ego geiler
2006-11-17, 15:53:32
Was sich die Leute alles ausdenken nur um von richtigen unabhängigen Benchmarks normalo User abzuhalten =) Meiner Meinung nach kann die XTX schlimmstenfalls etwas verlieren aber nur ganz bisschen nix dramatisches, damit kann ich noch leben... aber es kommt wie es kommen muss, das eine GTS gegen eine sehr stark übertaktete XTX kein Land mehr sieht :wink: das spüren NV Fans ganz unbewusst ;D deshalb die Panik...

Kein Land sieht ist ein wenig übertrieben.

deekey777
2006-11-17, 16:00:39
Was sich die Leute alles ausdenken nur um von richtigen unabhängigen Benchmarks normalo User abzuhalten =) Meiner Meinung nach kann die XTX schlimmstenfalls etwas verlieren aber nur ganz bisschen nix dramatisches, damit kann ich noch leben... aber es kommt wie es kommen muss, das eine GTS gegen eine sehr stark übertaktete XTX kein Land mehr sieht :wink: das spüren NV Fans ganz unbewusst ;D deshalb die Panik...
Und jetzt zurück zum Thema mit sinnvollen Beiträgen.

Gast
2006-11-17, 16:09:32
Warum soll die GTS z.B. in einigen wenigen Abschnitten nicht langsamer sein als eine XTX? Die theoretische Rohleistung ist, soll man hier einigen Beiträgen glauben schenken, bei der XTX höher als bei der GTS. Im Normalfall spielt das keine Rolle, weil die GTS effizienter ist und deswegen gewinnt. Aber in ganz speziellen Grafiksequenzen, welche genau auf die Architektur der XTX passen, könnte die höhere Rohleistung zum tragen kommen. Im Durchschnitt aller Anwendungen uninteressant, aber immerhin teilweise eventuell zutreffend.

Gouvernator
2006-11-17, 16:13:20
Es findet sich kein mutiger GTS Besitzer der mir zurecht mein freches Maul stopft? Naja, wir warten es ab bis langsam in der Benchmarkabteilung ein paar GTS Benches eintrudeln, dann komme ich...Ach so, was ich sagen wollte, im Bezug auf Grestorns Bemerkung wie man bencht, ich habe meine Objektivität lange bevor ich hier aufgetaucht bin unter Beweis gestellt, meine Benches sind korrekt. Sonst hätten sie mich bei overclockers.ru forum nicht als Kurator für ATI-Benchabteilung eingeteilt...http://forums.overclockers.ru/viewtopic.php?t=145916&start=40

Grestorn
2006-11-17, 16:13:24
Warum soll die GTS z.B. in einigen wenigen Abschnitten nicht langsamer sein als eine XTX? Die theoretische Rohleistung ist, soll man hier einigen Beiträgen glauben schenken, bei der XTX höher als bei der GTS. Im Normalfall spielt das keine Rolle, weil die GTS effizienter ist und deswegen gewinnt. Aber in ganz speziellen Grafiksequenzen, welche genau auf die Architektur der XTX passen, könnte die höhere Rohleistung zum tragen kommen. Im Durchschnitt aller Anwendungen uninteressant, aber immerhin teilweise eventuell zutreffend.

Dagegen spricht gar nichts. Die offensichtlich falsche und von mir deswegen auch kritisierte Aussage war aber, dass die GTS gegen eine übetraktete XTX immer verliert, außer in 3DMark.

Grestorn
2006-11-17, 16:30:22
Es findet sich kein mutiger GTS Besitzer der mir zurecht mein freches Maul stopft? Naja, wir warten es ab bis langsam in der Benchmarkabteilung ein paar GTS Benches eintrudeln, dann komme ich...Ach so, was ich sagen wollte, im Bezug auf Grestorns Bemerkung wie man bencht, ich habe meine Objektivität lange bevor ich hier aufgetaucht bin unter Beweis gestellt, meine Benches sind korrekt. Sonst hätten sie mich bei overclockers.ru forum nicht als Kurator für ATI-Benchabteilung eingeteilt...http://forums.overclockers.ru/viewtopic.php?t=145916&start=40

Und weil Du ein so genialer Benchmarker bist, kannst Du sogar übers Internet prüfen, ob andere mit denen Du vergleichst, einwandfrei und mit 100% identischen Bedingungen wie Du benchen. Ich bin beeindruckt.

DrumDub
2006-11-17, 16:38:42
Es findet sich kein mutiger GTS Besitzer der mir zurecht mein freches Maul stopft? Naja, wir warten es ab bis langsam in der Benchmarkabteilung ein paar GTS Benches eintrudeln, dann komme ich...http://forums.overclockers.ru/viewtopic.php?t=145916&start=40

hier (http://www.behardware.com/articles/644-1/nvidia-geforce-8800-gtx-8800-gts.html) gibts nen test mit der 8800gts. und es gibt szenarien (hauptsächlich ohne fsaa) in denen die x1950xtx schneller oder gleichschnell ist.

grundsätzlich lässt sich sagen, dass es sich für aktuelle spiele (bis auf oblivion udn tr:l) nicht lohnt von einer x1950xtx auf eine 8800gts aufzurüsten.

Gast
2006-11-17, 16:47:12
Hier sieht's auch nicht überall rosig für die XTX aus: http://www.pcgameshardware.de/?article_id=522902

Gouvernator
2006-11-17, 16:53:08
Und weil Du ein so genialer Benchmarker bist, kannst Du sogar übers Internet prüfen, ob andere mit denen Du vergleichst, einwandfrei und mit 100% identischen Bedingungen wie Du benchen. Ich bin beeindruckt.
Und wenn ... Man sieht halt den Trend , auf paar FPS kommts nicht an. Meistens benchen mehrere Leute zusammen es wird verglichen... und manchmal kannst du gar nicht soviel Leistung ercheaten weils absolut nicht vorhanden- ich errinere mich dabei gern wie GF6800 in FarCry durch X800 absolut und vollständig demontiert wurde...;D es hätte nicht mal kleinere Auflösung geholfen.

DrumDub
2006-11-17, 17:01:57
Und wenn ... Man sieht halt den Trend , auf paar FPS kommts nicht an. Meistens benchen mehrere Leute zusammen es wird verglichen... und manchmal kannst du gar nicht soviel Leistung ercheaten weils absolut nicht vorhanden- ich errinere mich dabei gern wie GF6800 in FarCry durch X800 absolut und vollständig demontiert wurde...;D es hätte nicht mal kleinere Auflösung geholfen. und jetzt frag dich mal, warum die x800 und die gf6800 damals in far cry nicht wirklich vergleichbar waren und warum sich das mit später geändert hat... tipp: farcry v1.1 vs. 1.3 und treiber...

Gouvernator
2006-11-17, 17:10:50
Das hat immer noch nix geholfen ich hatte unter 20/15+AA mehr fps als 6800 unter 1600x1200 ohneAA. Edit: No, das war CSS und auch mit 4xAA. Aber in Far Cry 1.31 immernoch bei 16x12+4xAA Gf6800=47fps, X800=61 fps

SentinelBorg
2006-11-17, 17:16:54
Der Artikel von behardware ist ja mal richtig nice. Wer den durchgelesen und verstanden hat, dürfte eigentlich nicht mehr so einen Scheiss hier schreiben, wie es einige tun.
Klar, dass die XTX in einigen seltenen Fällen, wo sie ihre Rechenleistung mal fast komplett ausnutzen kann, an der GTS mit momentanem Treiber vorbeiziehen kann. Doch, umso komplexer die Shader werden und umso höher das Filtering und AA, umso stärker zieht die GTS davon.

Sentinel

MechWOLLIer
2006-11-17, 17:22:29
Und welche Karte stellt das Spiel nun korrekt da? Und vor allem: Wieso keine Screenshots mit der GF8?
Ehrlich, Mechwollier, solche Shots helfen niemandem, wenn du sie nicht auch kommentierst.
Q
Es gibt keine Screenshots vom G80, da wir entweder die Wahl hatten, die Screenshots zu machen und dann einen anderen Part geringer oder gar wegfallen lassen zu müssen oder andersherum - ich denke, andere Infos sind da wichtiger. Im nächsten Artikel werden diese Bilder auch mit dem G80 drin sein.

Und warum helfen die Shots nicht, wenn man sie nicht kommentiert? Ich denke, die Bilder angucken kann jeder. Ebenso ein eigenes Urteil fällen, welcher Grafikchip welche Differenzen zeigt und was besser/richtiger aussieht. Ein paar Gedanken (und vor allem eigene Gedanken, was manchmal wichtiger ist, als dem Leser alles vorzukauen) kann sicher jeder machen und Urteilen.

Vermutung Nr. 1: Die Bilder wurden mit unterschiedlichen Versionen des Spiels gemacht.
Nein, es ist immer dieselbe version
Vermutung Nr. 2: Es lag am verwendeten Treiber, http://www.forum-3dcenter.org/vbulle...37#post4358637
Kann man wohl nicht ausschließen
Vermutung Nr. 3: Die Vermutungen Nr. 1 und 2 treffen beide zu. Erst mit späteren Treibern und mind. Patch 1.2 kann man den gesamten Next-Gen-Content sehen.
Siehe Antwort 1


Die Treiber haben in TRL übrigens nicht viel bzg. Performance ausgemacht, daran liegts schonmal nicht. Sprich, der 84.43 performt quasi identishc mit dem 93.71.


Da stimme ich dir völlig zu. Aber andererseits kann es ja zufällig sein, dass die CB-Timedemo da völlig anders reagiert, als die Demos anderer Webseiten und Magazine.
Die Timedemo ist übrigens in 1280x1024 mehr CPU-limitiert, als ich zuerst gedacht habe. Ein X6800 bringt durchaus gut mehr Performance. Das kann man auch noch als Möglichkeit nehmen.

Ja vielleicht ist es Zufall (und ungeklärt scheint die Sache zu sein). Was ich daraus folgend also kritisiere, ist dass CB nur eine Szene gebencht hat und offenbar beim Erstellen des Berichtes an dieser Stelle nicht mitgedacht wurde. Denn eine solche Abweichung MUSS m.M.n. doch ZWANGSLÄUFIG auffallen und zum nachtesten anregen.
Ja, es wurde nur eine Timedemo genutzt, anders geht da einem einfach die Zeit aus. Es war so schon verdammt viel Arbeit das Launch-Review fertig zu stellen und dann auch noch (am besten bei jedem Spiel) zwei Timedemos - das wäre (pünktlich) nichts geworden. Das ist übrigens bei einem Launch-Review auch das K.O.-Kriterium für Savegames, außer, man nimmt nur einige wenige.
Die Abweichung ist auch durchaus während des Testens aufgefallen, allerdings habe ich mir da nicht groß Gedanken drum gemacht, da a) in 1600x1200 wieder "alles in butter" war und b) es bei anderen Spielen mit anderen Karten es sowas schonmal gegeben hat.

Undertaker
2006-11-17, 17:50:42
[QUOTE=Undertaker]das würde die xtx verlieren, aber haushoch... [QUOTE]

;D ;D ;D

sicher, ich schlage mit ner 1 x1950 Cf @XTX Takt ne GTS in fast jedem Spiel;)
Das einzige wo sie gut Punkten kann ist im 3D Mark 06 worauf man sehr gut verzichten kann.
Ich sag nicht das die GTS ne schlechte Karte ist, aber vom Preis und Leistung her ist sie völlig unatraktiv.
Jetzt kommt nicht mit mit DX10 und son Mist, eh man das richtig ausnutzen kann ist die Karte Lowend und kann man sich an die Kniescheibe Nageln;D

bitte nenne doch die jeweiligen games samt den fps auf der gts und der xtx, natürlich mit den aktuellsten treibern für den g80 - wetten das du das jetzt mit irgendeiner ausweichenden antwort nicht machst? :D es ist nunmal fakt, dass die gts eine x1950xtx mit passenden treibern spielend schlägt, in allen reviews wo das nicht so war wurden zu alte forcewares genutzt...

Exer
2006-11-17, 18:18:50
Ich verstehe den Sinn solcher Diskussionen nicht ganz. Eine Geforce2 Ultra war in den ersten Benchmarks manchmal auch noch schneller als eine Geforce3. Es braucht einfach die richtigen Spiele und Treiber bis sich die Hardware voll entfalten kann.

Zocker_28
2006-11-17, 18:40:53
das würde die xtx verlieren, aber haushoch...

bitte nenne doch die jeweiligen games samt den fps auf der gts und der xtx, natürlich mit den aktuellsten treibern für den g80 - wetten das du das jetzt mit irgendeiner ausweichenden antwort nicht machst? :D es ist nunmal fakt, dass die gts eine x1950xtx mit passenden treibern spielend schlägt, in allen reviews wo das nicht so war wurden zu alte forcewares genutzt...

;D ;D ;D

FEAR

1280x1024 alles MAX. 1280x1024 4xAA 16xAF+Softshadows

8800 GTS =42 FPS min.
x1950XTX= 52 FPS min.

Splinter Cell DA

8800 GTS
1280x1024 4xMSAA 16xHQ-AF
Avg: 65.587 - Min: 41 - Max: 101

x1950 XTX
1280x1024= 4xAA 16xAF/HQ/AAA

Min: 51 FPS
MAX: 103 FPS
AVG: 74 FPS

Aquamark 3 ist gleichstand +/- 5 FPS

3D Mark 01 HQ (1280x1024 4xAA 16xAF +AAA/TSAA

8800 GTS
35xxx Punkte

x1950XTX
39xxx Punkte

3D Mark 03 (Standard)

8800GTS
29000

x1950XTX
28xxx

3D Mark 05 (Standard)

8800GTS
17300 Punkte

x1950XTX
16100 Punkte

reicht erst mal, man sieht das sie fast gleich sind, man darf aber net vergessen das er 3500 MHz hat und ich 3200, die GTS hat er 630/870 OC ich meine 700/1100.
Montag hab ich neues Board dann werd ich ihn locker schlagen in jedem Benchmark:biggrin:

Gouvernator
2006-11-17, 19:14:27
Wow. So hätte ich das auch nicht erwartet, wie werden wohl andere reagieren die vorher behaupteten das eine übertaktete GTS, GTX Niveau erreicht ;D

c0re
2006-11-17, 19:32:05
Ich verstehe den Sinn solcher Diskussionen nicht ganz. Eine Geforce2 Ultra war in den ersten Benchmarks manchmal auch noch schneller als eine Geforce3. Es braucht einfach die richtigen Spiele und Treiber bis sich die Hardware voll entfalten kann.

Wohl war.
Weiterhin kommt hinzu, was aber auch schon mehrfach hier gesagt wurde, dass es auch auf die Settings ankommt und mit AA und AF ist die neue GeForce schneller als die X1950 XTX. Denn, wie auch schon gesagt wurde, wer benutzt kein AA und AF bei so teuren "Performance Boliden"!?

Außerdem, wie auch schon hier gesagt wurde, gibt es immer Ausnahmen und die wird es auch weiterhin geben. Was hat man davon, wenn 5-10% aller Anwendungen auf der X1950XTX, in bestimmte Settings, mit ausgereifteren Treibern, schneller laufen???

---> Selbst wenn es mehr Anwendungen wären als 5-10%, solange mehr als 50% aller Anwendungen in den gängingen Settings auf der GeForce 8800 GTX schneller laufen, kann man sagen: DIE KARTE IST SCHNELLER! Wie man sieht, eigentlich wurde hier schon alles gesagt. Daher versteh ich den Thread auch nich so recht...entweder wirkliche Verwunderung warum dem so ist, oder aber...ein Flamethread eines Fanboys.

PS: Damit das klar ist: Ich kenn den Thread-Starter nicht und unterstelle ihm gar nichts! Dazu bin ich zu selten hier unterwegs und kenne ihn bzw. seine Threads nicht!!!

Zocker_28
2006-11-17, 19:34:12
Wie gesagt ich sag net das die schlecht ist, ne GTX drückt ganz gut (bis der R600 kommt;D ) aber ne GTS lohnt sich net schon weil sie 500 € Kostet, wenn sie 350 € Kosten würde dann wäre das was anderes.

Wohl war.
Weiterhin kommt hinzu, was aber auch schon mehrfach hier gesagt wurde, dass es auch auf die Settings ankommt und mit AA und AF ist die neue GeForce schneller als die X1950 XTX. Denn, wie auch schon gesagt wurde, wer benutzt kein AA und AF bei so teuren "Performance Boliden"!?

Außerdem, wie auch schon hier gesagt wurde, gibt es immer Ausnahmen und die wird es auch weiterhin geben. Was hat man davon, wenn 5-10% aller Anwendungen auf der X1950XTX, in bestimmte Settings, mit ausgereifteren Treibern, schneller laufen???

---> Selbst wenn es mehr Anwendungen wären als 5-10%, solange mehr als 50% aller Anwendungen in den gängingen Settings auf der GeForce 8800 GTX schneller laufen, kann man sagen: DIE KARTE IST SCHNELLER! Wie man sieht, eigentlich wurde hier schon alles gesagt. Daher versteh ich den Thread auch nich so recht...entweder wirkliche Verwunderung warum dem so ist, oder aber...ein Flamethread eines Fanboys.

PS: Damit das klar ist: Ich kenn den Thread-Starter nicht und unterstelle ihm gar nichts! Dazu bin ich zu selten hier unterwegs und kenne ihn bzw. seine Threads nicht!!!
Bitte richtig lesen xD
Bei den Benches von uns haben wir alles MAX gehabt also 4xAA 16xAF HQ, bei manchen sogar TSAA/AAA

c0re
2006-11-17, 19:40:24
Wie gesagt ich sag net das die schlecht ist, ne GTX drückt ganz gut (bis der R600 kommt;D ) aber ne GTS lohnt sich net schon weil sie 500 € Kostet, wenn sie 350 € Kosten würde dann wäre das was anderes.

Das sollte der R600 auch, oder zumindest ~ gleichauf. Sonst kriegt ATI ein großes Problem, es sei denn das Preis/Leistungs-Verhältnis wäre der absolute Kracher.

Zocker_28
2006-11-17, 19:42:59
Werden wir sehen, ich denk zwar nicht das sie billig wird, aber sie wird mit Sicherheit den G80 ganz schön in die Eier tretten:biggrin:

Gouvernator
2006-11-17, 19:44:44
Bitte richtig lesen xD
Das wollte ich auch gerade sagen...

Nochmal für alle im klartext
2 Spiele=2 Niederlagen für die 8800 GTS

c0re
2006-11-17, 19:44:47
Wie gesagt ich sag net das die schlecht ist, ne GTX drückt ganz gut (bis der R600 kommt;D ) aber ne GTS lohnt sich net schon weil sie 500 € Kostet, wenn sie 350 € Kosten würde dann wäre das was anderes.


Bitte richtig lesen xD
Bei den Benches von uns haben wir alles MAX gehabt also 4xAA 16xAF HQ, bei manchen sogar TSAA/AAA

Oh, ja... hab nur die ersten Seiten gecheckt.

Dann gibts wohl doch n paar mehr Fälle. Bleibt dann abzuwarten, ob das mit neuerem Treibern von nV so bleibt.

Aber 3DM01....ich weiß nich ob das noch was taugt für solche Karten.

Zocker_28
2006-11-17, 19:47:05
Das wollte ich auch gerade sagen...

Nochmal für alle im klartext
2 Spiele=2 Niederlagen für die 8800 GTS

Ich seh dein Grinsen bis hier her :biggrin:

The_Invisible
2006-11-17, 19:52:14
hier (http://www.behardware.com/articles/644-1/nvidia-geforce-8800-gtx-8800-gts.html) gibts nen test mit der 8800gts. und es gibt szenarien (hauptsächlich ohne fsaa) in denen die x1950xtx schneller oder gleichschnell ist.

grundsätzlich lässt sich sagen, dass es sich für aktuelle spiele (bis auf oblivion udn tr:l) nicht lohnt von einer x1950xtx auf eine 8800gts aufzurüsten.

der test sagt eher aus das ne xtx bei fordernden games/settings nix zu sagen hat (gegen ne 8800gts), in oblivion sogar schneller wie xtx cf ( :ugly: ), ansonsten eigentlich immer mehr min fps als die xtx avg fps hat

aber ich will den xtx besitzern jetzt ja nicht die freude nehmen :D

mfg

Zocker_28
2006-11-17, 19:55:25
der test sagt eher aus das ne xtx bei fordernden games/settings nix zu sagen hat (gegen ne 8800gts), in oblivion sogar schneller wie xtx cf ( :ugly: ), ansonsten eigentlich immer mehr min fps als die xtx avg fps hat

aber ich will den xtx besitzern jetzt ja nicht die freude nehmen :D

mfg

Die hauen da richtig doll auf die Kacke;D

Undertaker
2006-11-17, 21:51:23
;D ;D ;D

FEAR

1280x1024 alles MAX. 1280x1024 4xAA 16xAF+Softshadows

8800 GTS =42 FPS min.
x1950XTX= 52 FPS min.

Splinter Cell DA

8800 GTS
1280x1024 4xMSAA 16xHQ-AF
Avg: 65.587 - Min: 41 - Max: 101

x1950 XTX
1280x1024= 4xAA 16xAF/HQ/AAA

Min: 51 FPS
MAX: 103 FPS
AVG: 74 FPS

Aquamark 3 ist gleichstand +/- 5 FPS

3D Mark 01 HQ (1280x1024 4xAA 16xAF +AAA/TSAA

8800 GTS
35xxx Punkte

x1950XTX
39xxx Punkte

3D Mark 03 (Standard)

8800GTS
29000

x1950XTX
28xxx

3D Mark 05 (Standard)

8800GTS
17300 Punkte

x1950XTX
16100 Punkte

reicht erst mal, man sieht das sie fast gleich sind, man darf aber net vergessen das er 3500 MHz hat und ich 3200, die GTS hat er 630/870 OC ich meine 700/1100.
Montag hab ich neues Board dann werd ich ihn locker schlagen in jedem Benchmark:biggrin:

den 01er kannst du schon mal rauslassen, da ist ein 3,2ghz e6600 schneller als ein 3,5ghz e6400; ansonsten is wohl eine meiner voraussetzungen nicht gegeben, nämlich der passende treiber auf der 8800gts - dann schauts nämlich so aus:

fear:

http://enthusiast.hardocp.com/article.html?art=MTIxOCwxNCwsaGVudGh1c2lhc3Q=
http://www.tweaktown.com/articles/977/9/page_9_benchmarks_f_e_a_r/index.html

und der rest sieht dann etwa so aus:

http://www.tweaktown.com/articles/977/10/page_10_benchmarks_quake_4/index.html
http://enthusiast.hardocp.com/article.html?art=MTIxOCwxMCwsaGVudGh1c2lhc3Q=
http://enthusiast.hardocp.com/article.html?art=MTIxOCwxMywsaGVudGh1c2lhc3Q=
http://enthusiast.hardocp.com/article.html?art=MTIxOCwxMiwsaGVudGh1c2lhc3Q=
http://enthusiast.hardocp.com/article.html?art=MTIxOCwxMSwsaGVudGh1c2lhc3Q=

ergo, was sehen wir? ownitsch :D in tests mit aktuellen treibern ist die gts NIE langsamer, aber bis zu 100% schneller bei den oben bereits genannten, weiteren vorteilen :)

Zocker_28
2006-11-17, 21:56:45
Pass auf Junge, deine Benchmarks kannst dir an die Backe Kleben, ich weiss das er den neusten Treiber drauf hat und bestimmt kein noob ist in sachen Einstellungen.
Und was redest du überhaupt mit du hast nen G71 der von der GTS und der XTX weit weg ist:wink:
Aber ich würd als Fanboy auch alles hin die höhe heben;D
Ich hab die leistung gesehen und weiss das es nicht so ist wie deine Links da oben:rolleyes:

deekey777
2006-11-17, 22:14:53
Pass auf Junge, deine Benchmarks kannst dir an die Backe Kleben, ich weiss das er den neusten Treiber drauf hat und bestimmt kein noob ist in sachen Einstellungen.
Und was redest du überhaupt mit du hast nen G71 der von der GTS und der XTX weit weg ist:wink:
Aber ich würd als Fanboy auch alles hin die höhe heben;D
Ich hab die leistung gesehen und weiss das es nicht so ist wie deine Links da oben:rolleyes:
Wenn du so weitermachst, wirst du hier für ein paar Tage nicht diskutieren dürfe.

Undertaker
2006-11-17, 22:17:52
Pass auf Junge, deine Benchmarks kannst dir an die Backe Kleben, ich weiss das er den neusten Treiber drauf hat und bestimmt kein noob ist in sachen Einstellungen.
Und was redest du überhaupt mit du hast nen G71 der von der GTS und der XTX weit weg ist:wink:
Aber ich würd als Fanboy auch alles hin die höhe heben;D
Ich hab die leistung gesehen und weiss das es nicht so ist wie deine Links da oben:rolleyes:

ach ja, echt gigantisch der vorsprung der xtx vor der gtx :D

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/28/#abschnitt_performancerating

ein fanboy bin ich außerdem gewiss nicht, nur mal meine letzten 5 grakas: 9700, x800, x1800xt, x1900xt, 7900gtx... wenn dann bin ich, nicht zuletzt aufgrund meiner heimatstadt ein fan von amd und ati, wenn aber die konkurrenz das bessere produkt hat (intel den c2d und nvidia den g71/g80), dann greift man eben zu diesem...

und um nur mal kurz zusammenzufassen:

quellen die für dich sprechen: zahlen die ohne prüfbare quelle von dir gepostet wurden, dazu noch auf unterschiedlichen pcs :D

quellen die für mich sprechen: der rest des inets, also jedes g80 review mit aktuellen treibern :D

aber was will man machen, wenn seine fast 400€ karte auf grund eines kaum teureren konkurrenzproduktes auf einmal nur noch halb so schnell ist wie diese - ärgert mich jedesmal genauso, aber so etwas sollte man nach ein paar jahren auf dem markt wissen und nicht mehr versuchen sich alle schönzureden ;)


--> damit haben wir auch die antwort auf das eigentliche thema des threads: da, wo die xtx schneller als eine gtx, liegt dies wie man an anderen reviews nachprüfen kann, nur an den treibern und ist so mittlerweile kein argument mehr

The_Invisible
2006-11-17, 22:21:35
Pass auf Junge, deine Benchmarks kannst dir an die Backe Kleben, ich weiss das er den neusten Treiber drauf hat und bestimmt kein noob ist in sachen Einstellungen.
Und was redest du überhaupt mit du hast nen G71 der von der GTS und der XTX weit weg ist:wink:
Aber ich würd als Fanboy auch alles hin die höhe heben;D
Ich hab die leistung gesehen und weiss das es nicht so ist wie deine Links da oben:rolleyes:

nein, G71 UND R580 sind vom G80 weit weg

es ist eigentlich ne beleidigung für den G80 zu behaupten das ne sie nur so schnell ist wie die vorgängergeneration. dann sucht man sich nämlich benchmarks aus wo es sehr knapp zugeht und ignoriert die anderen wo ne g80 gnadenlos davonzieht. das hätte man früher auch bei NV25 vs R300 so machen können.

mfg

Gouvernator
2006-11-17, 22:23:57
damit haben wir auch die antwort auf das eigentliche thema des threads
Angefangen hats als ich gesagt habe das jede neuste Nv Generation sich auf Niveau letzen Ati Generation hebt (Single GPU), es ist nun so das die neue GTS sich etwa wie XTX anfühlt, für nV ist das neues Gefühl mit einer Karte soviel Leistung zu haben was wir schon längst haben.

The_Invisible
2006-11-17, 22:30:53
Angefangen hats als ich gesagt habe das jede neuste Nv Generation sich auf Niveau letzen Ati Generation hebt (Single GPU), es ist nun so das die neue GTS sich etwa wie XTX anfühlt, für nV ist das neues Gefühl mit einer Karte soviel Leistung zu haben was wir schon längst haben.

wo ist eigentlich dein ati avatar oder ist es ein suchbild?

also ist ein r300 so schnell wie ein nv40 und ein r480 so schnell wie ein g70. wovon träumst du nachst eigentlich? aja, das der r580 so schnell ist wie ein g80 ;D

mfg

Gast
2006-11-17, 22:35:10
Das wollte ich auch gerade sagen...

Nochmal für alle im klartext
2 Spiele=2 Niederlagen für die 8800 GTS

XXX Reviews im Web, XXX-2 Niederlagen für die X1950. Bei sowas traue ich Leuten, die sich damit auskennen, doch eher über den Weg als Leuten, die bei F.E.A.R. Softshadows und AA zum Benchen anschalten.... ;)

Gouvernator
2006-11-17, 22:35:44
So wie sich heraustellt ist R580 genaso schnell wie G80 -8800 GTS. r420 War fast doppelt so schnell wie NV40 und etwa so schnell wie G70 ala 7800GT so einfach ist die Wahrheit... benchwahrheit ;)

Undertaker
2006-11-17, 22:39:47
So wie sich heraustellt ist R580 genaso schnell wie G80 -8800 GTS. r420 War fast doppelt so schnell wie NV40 und etwa so schnell wie G70 ala 7800GT so einfach ist die Wahrheit... benchwahrheit ;)

beleg deine wahrheit doch bitte mit nachvollziehbaren quellen... und versuch mal antworten auf die fakten zu finden, das die gts in einigen neuen spielen ein x1950xtx crossfire schlägt...

Gast
2006-11-17, 22:45:13
So wie sich heraustellt ist R580 genaso schnell wie G80 -8800 GTS. r420 War fast doppelt so schnell wie NV40 und etwa so schnell wie G70 ala 7800GT so einfach ist die Wahrheit... benchwahrheit ;)

Was laberst du fürn mist?

50% is gts schneller
40% sinds vieleicht gleich fix
10% kann "deine" vorstellung mal jewinnen

p.s. so einfach ist die Wahrheit... benchwahrheit!

Undertaker
2006-11-17, 22:47:30
Was laberst du fürn mist?

50% is gts schneller
40% sinds vieleicht gleich fix
10% kann "deine" vorstellung mal jewinnen

p.s. so einfach ist die Wahrheit... benchwahrheit!

unter ausschluss der cpu limitierung und mit passenden treibern würde ich sogar sagen

10% gleich
70% vorsprung der gts zwischen 15-50%
20% vorsprung von 50-100% und mehr (vorallem aktuelle games)

imho kann man die situation etwa vergleichen mit 5800ultra vs. 9700 - wobei die 5800 der r580 ist und die 9700 die gts

in älteren spielen hält die 5800(r580) mit, doch je mehr die (shader)last steigt und je aktueller die spiele sind, desto weiter setzt sich die 9700(gts) ab - bis sie teils ein vielfaches der leistung bringt

Gast
2006-11-17, 23:02:11
s.o., gelle? Early-Z und Konsorten arbeiten komplett auf der Grafikkarte.


der z-test, ob vorgezogen oder nicht, sollte aber immer erst die letzte maßnahme gegen unsichtbare pixel sein, unsichtbare dreiecke die zur graka gesendet werden kosten ja immer performance, auch wenn sie vor dem pixel-shading aussortiert werden.

deshalb ist die engine doch ziemlich blöd, wenn sie eindeutig nicht sichtbare polygone überhaupt zeichnen will.

Frank1974
2006-11-17, 23:02:38
Oh man, immer das selbe hier, wenn man das als neutraler Beobachter so sieht :down:, ich habe im Moment eine 1900XT, bin auch ganz zufrieden damit, werde aber Ende nächsten Monat auf eine 8800GTX umsteigen, meine 1900XT behalte ich erstmal, weil ich das fast immer so mache, um genaue Vergleichs Benches auf dem selben System zumachen, so kann man am besten beurteilen, ich werde die 1900XT dann auch so nah wie möglich an XTX Takt herranbringen, den schafft sie beim Speicher leider nicht, aber mit knapp 765MHz Speicher-Takt komme ich ja fast ran.
Ich habe so ziemlich alle Games hier wo auch die meisten Benchseiten haben, außerdem Benche ich auch, echte Savegames und Reale Spielszenen, und nicht nur selbstablaufende Timedemos, oder 3DMarks die eh nicht viel aussagen, dann habe ich ein klares Bild wie es wirklich ist, ich glaube nur meinem eigenem System und meinen immer sehr Hoch eingestelltem Treibermenü, ohne Cheats und Tweaks nur um ein paar Punkte mehr zu bekommen, nicht irgendwelchen Tests im Internet, noch Fanboys(ich hasse das Wort, aber es muss hier echt mal gesagt werden) von ATI oder NV.
Und mir könnt ihr dann wirklich glauben, weil mir egal ist was für ne Karte ich im System habe, solange die Bildqualität und die Geschwindigkeit stimmt, ich hatte von beiden Firmen schon Karten, von NV zwar mehr, dafür hatte ich die 9700 pro von ATI am längsten.
Und jetzt kommt wieder runter, es sind nur Grafikkarten, ist es das Wert das man dafür hier im Forum gesperrt wird, wenn man sich nicht unter Kontrolle hat :|.

mfg
Frank

Gamer68
2006-11-17, 23:06:11
:tongue: wer hat denn nun den längsten:P

Gast
2006-11-17, 23:11:07
Es ist schon erstaunlich, dass die nVidia Freaks hier als Meßlatte die R580 heranziehen. Ich verrate euch mal was, euch steht da ein ziemlich dicker Hund demnächst gegenüber, so in etwa 2 1/2 Monaten ;)

Coda
2006-11-17, 23:12:16
Es ist schon erstaunlich, dass die nVidia Freaks hier als Meßlatte die R580 heranziehen.

Ist es nicht eher andersrum? Und G80 GTX ist auch ein "dicker Hund", wenn man mal von Realitätsverdrehungen absieht.

Zocker_28
2006-11-17, 23:22:48
Oh man, immer das selbe hier, wenn man das als neutraler Beobachter so sieht :down:, ich habe im Moment eine 1900XT, bin auch ganz zufrieden damit, werde aber Ende nächsten Monat auf eine 8800GTX umsteigen, meine 1900XT behalte ich erstmal, weil ich das fast immer so mache, um genaue Vergleichs Benches auf dem selben System zumachen, so kann man am besten beurteilen, ich werde die 1900XT dann auch so nah wie möglich an XTX Takt herranbringen, den schafft sie beim Speicher leider nicht, aber mit knapp 765MHz Speicher-Takt komme ich ja fast ran.
Ich habe so ziemlich alle Games hier wo auch die meisten Benchseiten haben, außerdem Benche ich auch, echte Savegames und Reale Spielszenen, und nicht nur selbstablaufende Timedemos, oder 3DMarks die eh nicht viel aussagen, dann habe ich ein klares Bild wie es wirklich ist, ich glaube nur meinem eigenem System und meinen immer sehr Hoch eingestelltem Treibermenü, ohne Cheats und Tweaks nur um ein paar Punkte mehr zu bekommen, nicht irgendwelchen Tests im Internet, noch Fanboys(ich hasse das Wort, aber es muss hier echt mal gesagt werden) von ATI oder NV.
Und mir könnt ihr dann wirklich glauben, weil mir egal ist was für ne Karte ich im System habe, solange die Bildqualität und die Geschwindigkeit stimmt, ich hatte von beiden Firmen schon Karten, von NV zwar mehr, dafür hatte ich die 9700 pro von ATI am längsten.
Und jetzt kommt wieder runter, es sind nur Grafikkarten, ist es das Wert das man dafür hier im Forum gesperrt wird, wenn man sich nicht unter Kontrolle hat :|.

mfg
Frank

sehr gut, so seh ich das auch:wink:
Ich sag auch nix mehr dazu, ich weiss was ich sehe in Realen Rechnern und da stimmen die Werte die hier gepostet wurden ganz und garnicht überein, manche schon aber das meiste ist Abfall.

Ist es nicht eher andersrum? Und G80 GTX ist auch ein "dicker Hund", wenn man mal von Realitätsverdrehungen absieht.
Klar ist sie das, da sagt ja auch keiner was, hier gings um GTS vs x1950XTX, das die GTX die ATI wegknallt ist klar.

Es ist schon erstaunlich, dass die nVidia Freaks hier als Meßlatte die R580 heranziehen. Ich verrate euch mal was, euch steht da ein ziemlich dicker Hund demnächst gegenüber, so in etwa 2 1/2 Monaten ;)
So sehe ich das auch, dann labbern alle wieder um die ATI, ach ich kanns eigentlich net mehr hören ich werd mir ne PSP kaufen xD

Undertaker
2006-11-17, 23:56:46
Es ist schon erstaunlich, dass die nVidia Freaks hier als Meßlatte die R580 heranziehen. Ich verrate euch mal was, euch steht da ein ziemlich dicker Hund demnächst gegenüber, so in etwa 2 1/2 Monaten ;)

ist das nicht eher das argument der ati-anhänger? die xtx sieht gegen die gts und somit natürlich auch gegen die gtx kein land, was aber für eine karte der vorgängergeneration nicht schlimm oder unerwartet ist... erst mit dem r600 werden die karten neu gemischt, ob ati wieder gleichziehen kann (was für den wettbewerb ja zu hoffen wäre), im moment können sie wie amd auf dem prozessormarkt nur bzgl preis punkten - dafür muss die x1950xtx aber deutlich unter die 350€, wo die gts doch so langsam bis auf 430€ (angeblich in wenigen tagen lieferbar) gefallen ist und wohl noch dieses jahr an den 400€ kratzt...

sulak
2006-11-18, 00:00:49
Euch fehlen echt ein paar Tassen im Schrank, erst gings darum on eine XTX eine GTX schlägt, hat man nicht hinbekommen ohne Flames. Dann nimmt man sich die GTS zur Brust, gegen die man in bestimmen Scenarien ne Chance zu meinen hat, und am ende wird den Mitdiskutatoren vorgeworfen sie vergleichen den R580 mit dem G80. GEHTS NOCH?

Anstelle mal selbst Benchmark laufen zu lassen damit ein Resultat rumkommt, werden immer Zahlen von Seiten zitiert die mal hier mal da das "rechte" Licht erscheinen lassen. Hier gehts nur ums flamen und seine Lieblingsfirma zu verteidigen, aber nicht um das Topic zu besprechen ^^

Gast
2006-11-18, 00:08:12
Benchmark:
http://www.behardware.com/medias/photos_news/00/18/IMG0018496.gif

Ja, richtig - jetzt picke ich mir auch mal Rosinen. ;)

c0re
2006-11-18, 00:12:38
Wohl war.
Weiterhin kommt hinzu, was aber auch schon mehrfach hier gesagt wurde, dass es auch auf die Settings ankommt und mit AA und AF ist die neue GeForce schneller als die X1950 XTX. Denn, wie auch schon gesagt wurde, wer benutzt kein AA und AF bei so teuren "Performance Boliden"!?

Außerdem, wie auch schon hier gesagt wurde, gibt es immer Ausnahmen und die wird es auch weiterhin geben. Was hat man davon, wenn 5-10% aller Anwendungen auf der X1950XTX, in bestimmte Settings, mit ausgereifteren Treibern, schneller laufen???

---> Selbst wenn es mehr Anwendungen wären als 5-10%, solange mehr als 50% aller Anwendungen in den gängingen Settings auf der GeForce 8800 GTX schneller laufen, kann man sagen: DIE KARTE IST SCHNELLER! Wie man sieht, eigentlich wurde hier schon alles gesagt. Daher versteh ich den Thread auch nich so recht...entweder wirkliche Verwunderung warum dem so ist, oder aber...ein Flamethread eines Fanboys.

PS: Damit das klar ist: Ich kenn den Thread-Starter nicht und unterstelle ihm gar nichts! Dazu bin ich zu selten hier unterwegs und kenne ihn bzw. seine Threads nicht!!!

Was ich hierzu noch hinzufügen möchte: Ok, in euren Tests war die ATI flotter, aber andere Tests (welche in weitaus großer Überzahl und Vielfalt vorhanden sind) sagen anderes (gerade gegoogelt). Ergo gilt das Prozent-Geschwafel von mir doch. Im übrigen wohl auch das Treiber-Geschwafel...

Aber, wenn ich mir so das Gerede von manch einem (FanATIker) anhöre...typisches Fanboy-gesülze. Es zählt in diesem High-End Segment Qualität und Leistung und da muss sich die ATI mindestens in einem Punkt geschlagen geben (Leistung) und bei der Qualität sind wohl beide sehr ähnlich.

Was ist daran ungewöhnlich? Neue Grafikkarten im Highend-Segment der beiden großen Hersteller MÜSSEN immer besser sein, als die alte Generation beider Hersteller. Wenn nicht dampft die Kacke...

Zocker_28
2006-11-18, 00:13:17
Anstelle mal selbst Benchmark laufen zu lassen damit ein Resultat rumkommt, werden immer Zahlen von Seiten zitiert die mal hier mal da das "rechte" Licht erscheinen lassen. Hier gehts nur ums flamen und seine Lieblingsfirma zu verteidigen, aber nicht um das Topic zu besprechen ^^

Ich hab mir Extra die mühe (Seite 6)gemacht, da oben von mir Benches zu bringen, alles die neusten Treiber und gleiche Einstellungen aber das wird hier voll untermauert und irgendwelche n... Posten hier Links wo nätürlich sogar nen Crossfire gespann gegen die GTS verlieren tut :| ;D
Aber ist mir egal jetzt die GTS ist genauso schnell wie ne x1950XTX (im Real life) Basta, ich hab kein Bock mehr auf den Kindergarten hier:P

Gast
2006-11-18, 02:17:16
Ich hab mir Extra die mühe (Seite 6)gemacht, da oben von mir Benches zu bringen, alles die neusten Treiber und gleiche Einstellungen aber das wird hier voll untermauert und irgendwelche n... Posten hier Links wo nätürlich sogar nen Crossfire gespann gegen die GTS verlieren tut :| ;D
Aber ist mir egal jetzt die GTS ist genauso schnell wie ne x1950XTX (im Real life) Basta, ich hab kein Bock mehr auf den Kindergarten hier:P

Du meinst die Fake tests von euch? Oder is das in CF getestet :D dann könnt das natürlich stimmen. Schon komisch das mehrere seiten was anders zeigen. Die gts is ganz klar die schnellere, und noch dazu die bessere BQ.

Zocker_28
2006-11-18, 02:51:43
Fake Test:confused:
Oh man, du hast noch nichtmal den Mut dich Anzumelden.
Aber naja was will man von Kiddis erwarten;D

Du hast ein IQ von 10, ein Toastbrot hat 15 :rolleyes:

Gast
2006-11-18, 03:28:59
Wenn ich mir das Posting ueber mir anschaue, dann frage ich mich wozu es Moderatoren gibt.

deekey777
2006-11-18, 10:27:03
Fake Test:confused:
Oh man, du hast noch nichtmal den Mut dich Anzumelden.
Aber naja was will man von Kiddis erwarten;D

Du hast ein IQ von 10, ein Toastbrot hat 15 :rolleyes:
Wer den Modtext nicht ernst nimmt, trägt dafür Konsequenzen. Dafür gibt es drei Tage. Für das Posten als Gast gibt es gleich sieben Tage.
Wenn ich mir das Posting ueber mir anschaue, dann frage ich mich wozu es Moderatoren gibt.
Sie braucht Schlaf.

Gast
2006-11-18, 10:33:09
Gibt es eigentlich nur Extreme? Kann man das nicht neutral betrachten? Komisch komisch... Ist doch nur ne Grafikkarte. Gibt wirklich wichtigeres im Leben.

Coda
2006-11-18, 12:28:23
Gibt es eigentlich nur Extreme?

Nein. Aber diese führen die Diskussion immer in solche Bahnen.

Hakim
2006-11-18, 12:48:12
ja es ist doch eigentlich immer das selbe, man kauft sich teuer gute Hardware und nach einigen wochen/monaten kommt etwas neues auf dem Markt was etwa genau soviel kostet aber normalerweise türlich etwas schneller ist. Ich meine ich würde mich ja auch ärgern wenn ich mir vor einem Monat eine 1950xtx kaufe und jetzt die 88GTS etwa genau soviel kostet und nebenbei auch etwas schneller ist (ich hab mir etliche benchs angesehen und bis auf sehr wenige ausnahmen ist es so). Aber einige haben mit der wahrheit echt Probleme und glauben auch ernsthaft das es nicht so ist. Bestes beispiel ist ein freund der nicht auf mich gehört hat und 1 monat vor dem conroe launch sich teuer ein am2 x2 3800+ geholt hat. Der behauptet auch das es keinen unterschied gäbe und man keinen conroe bräuchte. Ka ob es das ego ist oder Neid aber hier gibts auch sehr viele die so drauf sind.

Riipa
2006-11-21, 14:24:19
Nein. Aber diese führen die Diskussion immer in solche Bahnen.

Das ist einer der Gründe, warum viele Altmitglieder hier kaum noch aktiv sind. Die gleichen Leute posten die gleichen Dinge. Über Jahre. Lolman kramt wie immer in der Bildqualitätskiste um den Allmachtsanspruch von ATI zu rechtfertigen, die gelbe Ente planscht quietschvergnügt (Achtung Wortwitz!) in ihrer ganz privaten Nvidia-Suppe und zwischendrin wird geflamed und Nonsens gepostet (siehe Gouvernator), nur um den ganz eigenen Heilsbringer besser dastehen zu lassen. Es ist ermüdend.

Gouvernator
2006-11-21, 14:54:12
nur um den ganz eigenen Heilsbringer besser dastehen zu lassen
Ähm, das sehe ich anders.

Das Forum ist sowas von NV Veseucht das sogar eigene Benchmarks die NV im Regen stehen lassen komplett ignoriert werden bzw. der Poster dafür ständig angegriffen wird und schliesslich gebanned.

4711
2006-11-21, 15:09:24
Das meinst Du doch nicht im Ernst oder?
Oder das man eine Uralt Karte :tongue: mit einem G80 vergleicht?
Weil man (n) nicht wahrhaben will das die Dinger eben das bringen was man sich seid Ewigkeiten erwartet hat.
Schneller.......als ne GTX..ich lach mich TOT echt.....mehr sollte man dazu garnicht mehr schreiben.
Wartet doch auf den R600 dann habt ihr eventuell einen Grund wieder zusagen "ätsch meine ist aber schneller" und dann kommt die nächste NV....kommt mir irgendwie bekannt vor.

Gouvernator
2006-11-21, 15:15:33
Die Mods haben ein Fehler gemacht stattdessen hätten sie schreiben sollen G80 und eine GTS gehört auch dazu. Was sie kann im Vergleich zu XTX kann man in Zockers28 Benchmarks ansatzweise sehen.

deekey777
2006-11-21, 15:26:37
Die Mods? Du bist in dieses Thema von Anfang an involviert und weißt nicht mehr, wie es zu diesem Thread kam? Schaue mal in das erste Posting rein.

Gouvernator
2006-11-21, 15:32:29
Ja ich war involiviert und ich habe gesagt das NV erst mit der Nachfolgegeneration mit ATi gleichzieht und daraus gleich ein Topic zu machen XTX beats 8800 GTX war höchst unklüg. Ich weiss wo die Grenzen liegen und habe nie behauptet das eine XTX die GTX schlägt nur GTS.

The_Invisible
2006-11-21, 18:33:17
... schlägt nur GTS.

ja, in 0,1% der spiele, damit du mal zufriedengestellt wirst...

mfg

Ailuros
2006-11-21, 18:46:18
Ja ich war involiviert und ich habe gesagt das NV erst mit der Nachfolgegeneration mit ATi gleichzieht und daraus gleich ein Topic zu machen XTX beats 8800 GTX war höchst unklüg. Ich weiss wo die Grenzen liegen und habe nie behauptet das eine XTX die GTX schlägt nur GTS.

Immer die gleiche Tragoedie mit GPUs der neuen Generation; eine D3D10 GPU braucht eben shader-lastige Spiele als die Mehrzahl der heutigen und dabei ist Oblivion nur eine konservative Andeutung fuer die Zukunft; obwohl Du wohl absichtlich nichts von dem Spiel haelst.

Und ja das ist ausschliesslich auf die GTS bezogen. Und ja dass die XTX die GTS schlaegt ist ebenso eine Uebertreibung, obwohl Du froehlich versucht hast jeglichen Gegenpunkt zu disqualifieren. Ein heutiger XTX Besitzer wird sich heute wohl noch nicht nach einer GTS umdrehen. Fuer ihn ist sowieso eine wahre Aufruestung eher im GTX oder R600/ultra high end Bereich.

Gast
2006-11-21, 20:14:29
So problematisch finde ich das gar nicht, shaderlastig Spiele nur begrenzt heranzuziehen. Sie sind aktuell einfach in der Minderheit. Die Zukunft wird natürlich anders aussehen. Aber wer, es sei denn er ist ein Freak oder ein wenig realitätsfremd, kauft sich jetzt eine Karte für die Zukunft? Bis die Mehrheit der Spiele so aussehen, dass die zukünftige Kartengeneration hier deutlich davonzieht, sind die selbigen deutlich billiger und auch schon veraltet. Eine Karte kauft man, wenn man sie braucht und nicht in freudiger Erwartung der Zukunft. Das gibt nur Magenschmerzen wegen mangelnder echten Leistung (für die dann real benötigte Leistung), als auch wegen dem verschwendeten Geld.
Aber hier gehts meist nicht um Vernunft, gelle :D?

Gast
2006-11-22, 09:31:10
Aber wer, es sei denn er ist ein Freak oder ein wenig realitätsfremd, kauft sich jetzt eine Karte für die Zukunft?

Realitätsfremd sind wohl eher die, die sich jetzt noch veraltete DX9 Hardware kaufen.

4711
2006-11-22, 09:56:01
sehe ich nicht so...eher sollte man Vista einfach links liegen lassen...aber wer sich vorschreiben lassen möchte was er mit seiner Hardware machen darf bitte schön..ich werde auf jedenfall nicht zb.auf EAX verzichten usw.usw.
Warten wir es ab..das erste SP ist ja schon angekündigt.....zum Glück ist es ja Weltweit und in anderen Ländern sind die Kunden eben "härter" zum Glück.

Ailuros
2006-11-22, 09:58:54
So problematisch finde ich das gar nicht, shaderlastig Spiele nur begrenzt heranzuziehen. Sie sind aktuell einfach in der Minderheit. Die Zukunft wird natürlich anders aussehen. Aber wer, es sei denn er ist ein Freak oder ein wenig realitätsfremd, kauft sich jetzt eine Karte für die Zukunft?

Fuer einen NV4x/R4x0 User ist die 8800GTS nach Deiner Logik dann wohl keine Aufruestung oder?

Bis die Mehrheit der Spiele so aussehen, dass die zukünftige Kartengeneration hier deutlich davonzieht, sind die selbigen deutlich billiger und auch schon veraltet. Eine Karte kauft man, wenn man sie braucht und nicht in freudiger Erwartung der Zukunft.

Nur sind dann bei dem Zeitpunkt jegliche DX9.0 GPUs noch "aelter" am Ende. Die billigste X1950XTX die ich momentan hier finden kann liegt bei 419 euro, waehrend die billigste 8800GTS bei 463 euro liegt. Schon die 128MB mehr Speicher sind die 40 euro wert.

Was jeder braucht sollte jeder selber wissen und entscheiden. Eine GTS braucht man momentan absolut natuerlich nicht, aber bei dem Preisunterschied wuerde ich es mir persoenlich zweimal ueberdenken, wenn ich in diesem Preisbereich aufruesten wuerde. Und das ist auch nicht direkt mit der 8800 verbunden; absolut gleiches wuerde auch gelten wenn ATI ihre mittleren high end D3D10 GPUs schon veroeffentlicht haette.

Und nein viel besseres werden diese auch nicht leisten.


Das gibt nur Magenschmerzen wegen mangelnder echten Leistung (für die dann real benötigte Leistung), als auch wegen dem verschwendeten Geld.
Aber hier gehts meist nicht um Vernunft, gelle :D?

Wo mangelt es einer 8800GTS an Leistung?

Gast
2006-11-22, 10:10:36
Nur sind dann bei dem Zeitpunkt jegliche DX9.0 GPUs noch "aelter" am Ende. Die billigste X1950XTX die ich momentan hier finden kann liegt bei 419 euro, waehrend die billigste 8800GTS bei 463 euro liegt. Schon die 128MB mehr Speicher sind die 40 euro wert.

Billigste 1950XTX -> http://geizhals.at/deutschland/a216243.html

Billigste 8800GTS -> http://geizhals.at/deutschland/a225935.html

Und die 1950Crossfire gibts auch schon für 385€

Aber ich gebe dir Recht. ich würde auch zu einer 8800GTS greifen, sie rechtfertigt den Aufpreis schon, und wenn sie erst mal um die 400€ oder drunter liegt erst Recht.

Ailuros
2006-11-22, 10:34:48
Der Preisunterschied liegt ebenso bei etwa 40 euro. Was besonderes aendert das nicht.

Wie waere es mit dem Vergleich dann hier?

http://geizhals.at/deutschland/a203690.html

:|

Gast
2006-11-22, 10:41:18
Der Preisunterschied liegt ebenso bei etwa 40 euro. Was besonderes aendert das nicht.

Wie waere es mit dem Vergleich dann hier?

http://geizhals.at/deutschland/a203690.html

:|

Der Unterschied sind 77 Euro, oder, aber egal ich aber dir doch trotzdem Recht gegeben.

Und zur 7950GX2 -> hier 399€ http://geizhals.at/deutschland/a203698.html

Ailuros
2006-11-22, 11:12:19
Ich hab es schon bemerkt dass Du mir Recht gegeben hast. Ein bisschen mehr Haarspalterei wirst Du mir aber noch erlauben. Deine beiden Links zeigen mir fuer die billigsten GPUs:

GF 8800GTS = 421.05
R X1950XTX = 379.90
---------------------
41.15

deekey777
2006-11-22, 11:16:00
Der Preisunterschied liegt ebenso bei etwa 40 euro. Was besonderes aendert das nicht.


:|
Und jetzt addiere zu diesen 40 Euro das Denken in DM. Und man bei der Umrechnung Euro -> DM nie so streng war, multipliziere 40 mit 2: Das wäre 80 DM Unterschied, was ein sehr wichtiger psychologischer Aspekt ist, der bei der Entscheidungsfindung vieler noch gegeben ist.:smile:

Ailuros
2006-11-22, 11:34:40
Und jetzt addiere zu diesen 40 Euro das Denken in DM. Und man bei der Umrechnung Euro -> DM nie so streng war, multipliziere 40 mit 2: Das wäre 80 DM Unterschied, was ein sehr wichtiger psychologischer Aspekt ist, der bei der Entscheidungsfindung vieler noch gegeben ist.:smile:

Dem entgegen setzt man einfach den psychologischen Aspekt von zusaetzlichen 128MB onboard Speicher; es gibt immer noch ziemlich performante mainstream GPUs wie die 7600-er die mit "nur" 128MB Speicher auskommen.

Es mag zwar als oede Begruendung klingen, aber mit den verfuegbaren AA-modi auf G80, kann man die Speichermenge auch gut gebrauchen. Von da ab ist es dann eher Geschmacksache und was ein jeder genau braucht.

Tjell
2006-11-22, 18:51:20
Ich gewinne den Eindruck, dass einige Leute die G80-Reviews und -Benchmarks durchgegangen sind und nur die wenigen Situationen im Gedächtnis behalten haben, wo die GTS und die XTX nahezu gleichauf sind.

Daraus wird flugs ein "XTX ist schneller als GTS" gebastelt, nochmals mit eigenen Benchmarks "untermauert" und man lehnt sich gemütlich zurück in dem beruhigenden Trugschluss, die X1950 XTX würde es "noch bringen". Man, Euch geht es noch gut, ja?

Die X1950er sind hervorragende Produkte, keine Frage, aber konkurrenzfähig zum G80 sind sie in keinster Weise - rein objektiv betrachet.

Wie man das persönlich beurteilt sei dahingestellt, aber zumindest die Preissituation spricht zusammen mit der erbrachten Spieleleistung eine deutliche Sprache: die X1950 sind (nun) überwiegend zu teuer.

Für ca. 300 Euro wäre wieder ein angemessenes Preis-/Leistungsniveau erreicht.

Gouvernator
2006-11-22, 20:05:11
Man, Euch geht es noch gut, ja?
nochmals mit eigenen dümmlichen Benchmarks untermauert
Damit machst du dich selbst zum nicht ernstzunehmendem Gesprächspartner und pro-NV Fanboy. Wir wollen nicht pauschalisieren und konkret wissen wo was noch aus der XTX hearauszuholen ist.

Ailuros
2006-11-22, 20:19:39
Damit machst du dich selbst zum nicht ernstzunehmendem Gesprächspartner und pro-NV Fanboy. Wir wollen nicht pauschalisieren und konkret wissen wo was noch aus der XTX hearauszuholen ist.

Wobei Du gerade von Objektivitaet nur so strahlst oder wie?

Was genau soll ATI noch aus R5x0 herausholen koennen? Man konzentriert sich momentan mit voller Pulle auf R600 und was aus R5x0 rauszuholen war ist schon seit einem Jahr passiert.

Gast
2006-11-22, 20:41:41
Damit machst du dich selbst zum nicht ernstzunehmendem Gesprächspartner und pro-NV Fanboy. Wir wollen nicht pauschalisieren und konkret wissen wo was noch aus der XTX hearauszuholen ist.

Du meinst also wir sollen "dir" glauben und mehrere seiten (G80-Reviews)
spinnen sich nur etwas zusammen? Für mich sind hier die aufgeführten Benchmarks Fakes.

Das fakes kannst du gleich stellen mit: Ein user bencht was wovon er NULL Ahnung hat.

Aber naja Zu DDR zeiten, war auch schon vieles ROT.

Tjell
2006-11-22, 20:52:33
Damit machst du dich selbst zum nicht ernstzunehmendem Gesprächspartner und pro-NV Fanboy. Wir wollen nicht pauschalisieren und konkret wissen wo was noch aus der XTX hearauszuholen ist.

Ich glaube schon, dass ich einen ernstzunehmenden Standpunkt eingebracht habe, indem ich eine Einschätzung des (Neu)Preises im Vergleich zur erbrachten Leistung vertrete.

Die X1950er sind nicht von heute auf morgen "schlecht", sie sind aber ebensowenig - alles in allem - konkurrenzfähig.

Einzelne Situationen, wo sie es sind und sein können sind unstrittig, nur ist hier der Anspruch erhoben worden, dass die XTX der GTS ebenbürtig oder überlegen sei und dies ist nicht der Fall.

Ob Du ernstzunehmen bist, sehe ich als fraglich an.

Gouvernator
2006-11-22, 21:02:31
Mich wundert nur grundlose und völlig abwertende Haltung gegenüber Userbenchmarks. Es besteht eurerseits aber auch keinerlei eigenes Interesse die Benches von Zocker28 zu wiederlegen. Einfache FRAPS Shots reichen mir. Jemand mit SC: DA und GTS hier ?

Gast
2006-11-22, 21:05:32
Wo bitte gibt es eine GTS verfügbar für 420€?

Superheld
2006-11-22, 21:17:37
für 457€ nur

http://geizhals.at/deutschland/a225935.html

A.Wesker
2006-11-22, 21:20:21
;D ;D ;D

FEAR

1280x1024 alles MAX. 1280x1024 4xAA 16xAF+Softshadows

8800 GTS =42 FPS min.
x1950XTX= 52 FPS min.


8800 GTX

min 73 FPS (ohne SS)
min 48 FPS (mit SS)


Damit haste deine X19er mal kurz schneller gemacht als eine 8800 GTX @ 750/1075 :D. Und wie kommst du auf einmal auf 52 FPS min @ SS? Im FEAR Thread hast du noch 56 FPS ohne SS und soviel macht der Mehrtakt von 500 MHz bei gerade bei FEAR nicht aus!


---> ganz klar fakebench oder SS nicht aktiviert, weil die 52 FPS passen eher auf kein SS

Undertaker
2006-11-22, 21:32:29
8800 GTX

min 73 FPS (ohne SS)
min 48 FPS (mit SS)


Damit haste deine X19er mal kurz schneller gemacht als eine 8800 GTX @ 750/1075 :D. Und wie kommst du auf einmal auf 52 FPS min @ SS? Im FEAR Thread hast du noch 56 FPS ohne SS und soviel macht der Mehrtakt von 500 MHz bei gerade bei FEAR nicht aus!

da werden die zahlen eben etwas großzügig nachbearbeitet, kann ja eh keiner nachprüfen ;)

was soll es, wer die reviews kennt, weis was er von solchen zahlen und der aktuellen marktsituation halten soll, wer nicht damit leben kann das seine alte high-end karte eben nicht mehr konkurrenzfähig ist (was ja mich mit der 7900gtx ebenso betrifft, aber ich mach mir da nix vor) kann sich ja einreden was er will und benchwerte*schuhgröße zu neuen rekorden^^ multiplizieren :D

Gast
2006-11-22, 23:55:36
@Ailuros
Für mich ist jemand, der 400€ und mehr in eine Grafikkarte investiert ein Freak. Alle anderen stehen wohl kaum vor der Entscheidung XTX oder GTS, oder? Die sollen, so sie denn wollen, das Beste kaufen. Gönn ich denen ja auch. Dann wirds wohl auch ne 8800er. Alles anderen haben mindesten eine kleinere Version für weniger Geld drinn stecken und sind auch so zufrieden. Andere warten auf die Konkurenz, denn die belebt bekanntlich das Geschäft ;) und den Preisverfall.

Bezüglich der Leistung allerdings, werden zukünftige, extreme Spiele auf wohl auf keiner der Karten super flüssig laufen. Das sah man bisher doch bei jeder Grafikkartengeneration, welche eine Vorreiterrolle eines beliebigen Features einnahm. Bis die Spielehersteller reagieren, brauch es einer gewissen Zeit. So ne Engine will ja auch erst mal geschrieben werden. Vorher müssen die Specs stehen, etc. Dauert alles ewig. Bis dahin ist schon wieder die Nachfolgergenertion in den Läden. Aber echte Freaks wird das nie aufhalten. Aber die brauchen wir ja alle, sonst gäbs keine neuen Produkte. Irgendwer muss ja die Entwicklung bezahlen und die Vorreiterrolle übernehmen, damit es überhaupt Fortschritt gibt. Der Durchschnittsuser ist dies wohl kaum.

Tjell
2006-11-23, 01:40:17
Die Entwicklung bezahlen im Wesentlichen die Mainstream-Konsumenten.

Da übrigens SM4 im Prinzip lediglich die Effekte darstellt, die auch schon mit SM3 möglich waren, nur eben effektiver/ressourcenschonender, wird es mit der Leistungsfähigkeit der ersten DX10-Karten nicht so schlecht bestellt sein, wie bei den vorangegangenen Generationen.

Ich erwarte, dass G80 und R600 von Anfang an leistungsstark genug für einen verbreiteten Einsatz von Effekten sein werden, also DX9-Effekte in Form von DX10 in weit höherer Anzahl, als wir es bis jetzt kennen.

Ailuros
2006-11-23, 05:04:45
@Ailuros
Für mich ist jemand, der 400€ und mehr in eine Grafikkarte investiert ein Freak.

Dann sind alle Verbraucher Freaks, denn es gibt zahllose Faelle wo Produkte ausserhalb vom PC Markt =/>400 euro kosten und die Investition fraglich sein koennte. Dabei muesste man jemand wie Dich unter die Lupe nehmen um zu sehen wo und bis zu welchem Grad Du auch ein Freak bist in analogen Faellen. Ein einfaches Beispiel waeren Handies; ich hatte erst vor ein paar Tagen einen Fall wo jemand genau das gleiche behauptete dass eine 8800GTX Verschwendung waere, wobei er in anderen Subforen dann ueber sein N93 plaudert fuer das er mehr auf den Ladentisch hingelegt hatte.

Ergo Vorsicht wohin Du Deine Finger deutest, denn es gibt zahllose Faelle wo wir Verbraucher fragliche Investitionen machen. Ich definiere Lebensstandard so: man kauft Zeug dass man nicht wirklich braucht, mit Geld dass man nicht unbedingt hat um Leuten zu imponieren die man gar nicht ausstehen kann....zwischen dieser kleinen Uebertreibung finde jetzt Deine eigenen Steine und wir werden ja sehen wer genau "Suendenfrei" ist ;)

Alle anderen stehen wohl kaum vor der Entscheidung XTX oder GTS, oder? Die sollen, so sie denn wollen, das Beste kaufen. Gönn ich denen ja auch. Dann wirds wohl auch ne 8800er. Alles anderen haben mindesten eine kleinere Version für weniger Geld drinn stecken und sind auch so zufrieden. Andere warten auf die Konkurenz, denn die belebt bekanntlich das Geschäft ;) und den Preisverfall.

Kein Einwand. Es aendert aber kein bisschen was daran dass heutzutage bei einer Aufruestung in dieser Preiskategorie man nicht benachteiligt wird wenn man eine GTS gegen eine XTX waehlt. Um das alleine ging es mir und nichts anderes.

Bezüglich der Leistung allerdings, werden zukünftige, extreme Spiele auf wohl auf keiner der Karten super flüssig laufen. Das sah man bisher doch bei jeder Grafikkartengeneration, welche eine Vorreiterrolle eines beliebigen Features einnahm. Bis die Spielehersteller reagieren, brauch es einer gewissen Zeit. So ne Engine will ja auch erst mal geschrieben werden. Vorher müssen die Specs stehen, etc. Dauert alles ewig.

Ein AAA Titel liegt heutzutage nicht weniger als 3-4 Jahre Minimum unter Entwicklung. Dabei liegen die Spiele die bald erscheinen werden schon etliche Jahre unter Entwicklung und die entscheidenden Einzelheiten wurden schon seit geraumer Zeit definiert. Ich hab mich ja sowieso nur auf eigentliche D3D9.0 Spiele der Zukunft bezogen, u.a. Spiele wie Crysis. Bis wir D3D10 Spiele sehen wird es tatsaechlich hoechstwarscheinlich schon D3D10+2 GPUs geben.

Kommende D3D9.0 Spiele haben noch hoehere Ansprueche als Oblivion, das heisst aber fuer den Normalverbraucher gar nichts denn er kann locker erstmal auf die Veroeffentlichung dieser warten. ABER ein normaler Verbraucher sollte aufruesten wenn er es braucht; fuer die Verbraucher die heute aufruesten wollen mit ca. 400 euro und die ihre Entscheidungen nicht nach laecherlichen politischen Kriterien treffen, werden es schon bedenken wieso A oder B eine bessere Investition momentan ist.

Bis dahin ist schon wieder die Nachfolgergenertion in den Läden. Aber echte Freaks wird das nie aufhalten. Aber die brauchen wir ja alle, sonst gäbs keine neuen Produkte. Irgendwer muss ja die Entwicklung bezahlen und die Vorreiterrolle übernehmen, damit es überhaupt Fortschritt gibt. Der Durchschnittsuser ist dies wohl kaum.

Wie gesagt wir haben die Tueren des Glashauses schon geschlossen und Du kannst schon mal froehlich anfangen Steine zu werfen.

Ailuros
2006-11-23, 05:14:39
Die Entwicklung bezahlen im Wesentlichen die Mainstream-Konsumenten.

Da übrigens SM4 im Prinzip lediglich die Effekte darstellt, die auch schon mit SM3 möglich waren, nur eben effektiver/ressourcenschonender, wird es mit der Leistungsfähigkeit der ersten DX10-Karten nicht so schlecht bestellt sein, wie bei den vorangegangenen Generationen.

Ich erwarte, dass G80 und R600 von Anfang an leistungsstark genug für einen verbreiteten Einsatz von Effekten sein werden, also DX9-Effekte in Form von DX10 in weit höherer Anzahl, als wir es bis jetzt kennen.

Ich schaetze eher dass es etwas laenger diesmal dauern wird mit jeglichem D3D10. Crysis ist ein reines DX9.0 Spiel egal womit dann nach der Veroeffentlichung geworben wird. Wir hatten ja bis jetzt keine "reine" DX9.0 Spiele; eher quasi DX7/8 Spiele mit ein paar verstreuten DX9.0 Effekten.

IMHO werden wir zuerst von D3D10 Leistungssteigerungen sehen, eher in der Richtung von SM3.0 bisher.

Gast
2006-11-23, 10:35:42
Wir hatten ja bis jetzt keine "reine" DX9.0 Spiele; eher quasi DX7/8 Spiele mit ein paar verstreuten DX9.0 Effekten.



ich denke schon dass man beispielsweise splinter cell double-agent als "reines" DX9-spiel bezeichnen kann, auch wenn es ursprünglich auf der unreal-engine basiert ;)

Gast
2006-11-23, 14:54:52
@Ailuros
Warum soll eine nicht komplett vernünftige Entscheidung was schlechtes sein? Warum kann man nicht in irgendeinem Bereich ein "Freak" sein? Das ist nichts schlimmes und hilft dem Fortschritt. Nur es ist eben nicht der Durchschnitt. Nimm nicht alles so negativ auf, alles hat sein positives.

Gaestle
2006-11-23, 15:06:06
@Ailuros
Warum soll eine nicht komplett vernünftige Entscheidung was schlechtes sein? Warum kann man nicht in irgendeinem Bereich ein "Freak" sein? Das ist nichts schlimmes und hilft dem Fortschritt. Nur es ist eben nicht der Durchschnitt. Nimm nicht alles so negativ auf, alles hat sein positives.

Vernuft liegt sowieso im Auge des Betrachters. So sind zum Beispiel individuelle vernüftige Entscheidungen (Einkauf im Supermarkt - weil billig) manchmal insgesamt unvernüftig (Arbeitsplatzabbau durch extremen Kostendruck).

The_Invisible
2006-11-23, 17:55:46
Damit machst du dich selbst zum nicht ernstzunehmendem Gesprächspartner und pro-NV Fanboy. Wir wollen nicht pauschalisieren und konkret wissen wo was noch aus der XTX hearauszuholen ist.

du meinst wohl genau umgekehrt, was aus dem g80 noch herauszuholen ist, wird wohl kaum weniger werden wie jetzt. außerdem antwortest du hier anscheinend nur auf fragen die dir passen...

mfg

Ailuros
2006-11-23, 18:09:54
@Ailuros
Warum soll eine nicht komplett vernünftige Entscheidung was schlechtes sein? Warum kann man nicht in irgendeinem Bereich ein "Freak" sein? Das ist nichts schlimmes und hilft dem Fortschritt. Nur es ist eben nicht der Durchschnitt. Nimm nicht alles so negativ auf, alles hat sein positives.

Ich hab mich eigentlich gegen den Begriff "Freak" gewehrt, nur klang das Resultat etwas merkwuerdig. Dass ich mit Absicht uebertrieben habe kann man ja sehen.

Ich hab stets eine eher merkwuerdige Art meine Meinung mitzuteilen und ich hab das Gefuehl dass Du genau das Gegenteil verstanden hast ;)

Coda
2006-11-23, 18:46:11
Ich schaetze eher dass es etwas laenger diesmal dauern wird mit jeglichem D3D10. Crysis ist ein reines DX9.0 Spiel egal womit dann nach der Veroeffentlichung geworben wird. Wir hatten ja bis jetzt keine "reine" DX9.0 Spiele; eher quasi DX7/8 Spiele mit ein paar verstreuten DX9.0 Effekten.

Das stimmt einfach nicht. HL², Far Cry, Oblivion usw. sind schon "richtige" DX9-Spiele.

Die haben zwar alle einen Fallback, aber den must halt machen...

Odal
2006-11-23, 19:05:08
Das stimmt einfach nicht. HL², Far Cry, Oblivion usw. sind schon "richtige" DX9-Spiele.

Die haben zwar alle einen Fallback, aber den must halt machen...

ich denke mal er meinte das zwar DX9 genutzt wurde aber nicht dessen kompletter Umfang bzw. SM3 bisher eher stiefmütterlich zum Einsatz kam. Er wollte sicher drauf hinaus das dort über SM3 noch soviel Optimierungspotential schlummert was es erstmal gilt jetzt nach und nach ausgeschöpft zu werden.
Natürlich stürzen sich die Entwickler auch gleich ins SM4 getümmel aber bis dann was brauchbares erscheint dauert halt noch etwas da ein heutiges Spiel ein paar Jahre vorlauf bei der Entwicklung braucht damit ein neues Hardwarefeature als vollkommen ausgeschöpft ansehbar ist.

Ailuros
2006-11-24, 06:11:54
Das stimmt einfach nicht. HL², Far Cry, Oblivion usw. sind schon "richtige" DX9-Spiele.

Die haben zwar alle einen Fallback, aber den must halt machen...

Oblivion, Fear und dergleichen wohl eher ja, aber HL2 und Far Cry?

http://www.beyond3d.com/interviews/sweeneyue3/

Klar vermarktet Sweeney sein eigenes Zeug, aber wenn Far Cry ein "richtiges" DX9.0 Spiel waere, wundere ich mich eben dann wie ich das kommende Crysis bezeichnen sollte. "Ueber-DX9.0" oder was? :biggrin:

Sind die Fallbacks in Deinen Beispielen ein Nachgedanke oder man entwickelte von Grund auf fuer eine bestimmte Basis und skalierte dann zusaetzliche Features je nach Komplianz?

Probier mal die Fallbacks in jeglichem Deiner eigenen Beispiele aus und sag mir dann wie die Leistung mit DX7/8 GPUs genau aussieht in jedem einzelnen Fall und warum.

Ailuros
2006-11-24, 06:15:45
ich denke mal er meinte das zwar DX9 genutzt wurde aber nicht dessen kompletter Umfang bzw. SM3 bisher eher stiefmütterlich zum Einsatz kam. Er wollte sicher drauf hinaus das dort über SM3 noch soviel Optimierungspotential schlummert was es erstmal gilt jetzt nach und nach ausgeschöpft zu werden.
Natürlich stürzen sich die Entwickler auch gleich ins SM4 getümmel aber bis dann was brauchbares erscheint dauert halt noch etwas da ein heutiges Spiel ein paar Jahre vorlauf bei der Entwicklung braucht damit ein neues Hardwarefeature als vollkommen ausgeschöpft ansehbar ist.

Um das geht es mir gar nicht; nimm eine aeltere GPU und probier Call of Duty 2 und Oblivion mit Fallback jeweils aus.

Undertaker
2006-11-24, 11:16:50
da hier immer wieder kommt crysis sei nicht d3d10: ich dachte man wird dort shader 4.0 nutzen?

Gast
2006-11-24, 13:21:48
da hier immer wieder kommt crysis sei nicht d3d10: ich dachte man wird dort shader 4.0 nutzen?

wird per patch nachgereicht, dient aber lediglich zur beschleunigung, ähnlich wie SM2x/3 bei farcry.

Matthias1981
2006-11-29, 17:21:27
Um nochmals eins Klar zu stellen. Der Threadtitel sollte ja GTS sein und net GTX. Und wenn noch paar Leute lesen lernen, dann sehen sie ein ? am schluss des titels. Also wollte ich damit fragen ob es sein kann, dass es an den Treibern liegt oder ob die GTS bei den Aktuellen spielen einfach net mehr bringt an Leistung.
Man Man Man.

Gast
2006-11-29, 17:31:50
Was? man man man...
..sind wir jetzt für deine Dämlichkeit verantwortlich oder was? Du hättest einen Moderator fragen können, ob er den thread umaendert in GTS.
Des weiteren hast DU ein benchmark gebracht OHNE Qualitätseinstellungen.

Also spar dir das manman. pffffffft

Matthias1981
2006-11-30, 15:15:18
Was? man man man...
..sind wir jetzt für deine Dämlichkeit verantwortlich oder was?

Immer 2 mal mehr ;D

Lol. Ja kann das mal ein Mod machen.
Ich hatte diesen Screenshot und mehr net. also wollte ich wissen ob die G80 wirklich schlechter is. und wenn so trollige wie du und Fanboys rumpushen kann doch ich nix dafür.
Lol

Gaestle
2006-11-30, 15:54:42
Immer 2 mal mehr ;D

Lol. Ja kann das mal ein Mod machen.
Ich hatte diesen Screenshot und mehr net. also wollte ich wissen ob die G80 wirklich schlechter is. und wenn so trollige wie du und Fanboys rumpushen kann doch ich nix dafür.
Lol

Es wäre günstig, wenn Du Dich ein wenig entspannst.

Nachdem Du im Thread-Titel GTX geschrieben hast, hast Du später auf Nachfrage noch einen Screenshot nachgeschoben, bei dem eine 1950XTX wirklich vor einer 8800GTX zu sehen war. In dem von Dir gezeigten Balkendiagramm ist jedoch weit und breit keine GTS zu sehen.

Außerdem lautet der von Dir vergebene Dateiname " ...8800gtxinbodengerammt... "


http://img295.imageshack.us/img295/9113/8800gtxinbodengerammtxdfx8.jpg


Also bitte, bleibe bei der Wahrheit, greif Dir an die eigene Nase und fang nicht an, andere Leute völlig sinnfrei
vollzupöbeln. Der Gast hat's schon ganz gut getroffen.

Matthias1981
2006-11-30, 16:16:18
Es wäre günstig, wenn Du Dich ein wenig entspannst.

Nachdem Du im Thread-Titel GTX geschrieben hast, hast Du später auf Nachfrage noch einen Screenshot nachgeschoben, bei dem eine 1950XTX wirklich vor einer 8800GTX zu sehen war. In dem von Dir gezeigten Balkendiagramm ist jedoch weit und breit keine GTS zu sehen.

Außerdem lautet der von Dir vergebene Dateiname " ...8800gtxinbodengerammt... "





Also bitte, bleibe bei der Wahrheit, greif Dir an die eigene Nase und fang nicht an, andere Leute völlig sinnfrei
vollzupöbeln. Der Gast hat's schon ganz gut getroffen.

ich habe den Titel net geschrieben. Des Thema wurde von nem Thread rauskopiert. und das auf den Screens nur ne GTX is lässt doch folgern dass ne GTS schlechter abschneiden würde. denk mal darüber nach. Und ich habe die datei auch nur erhalten du pappnase
Sorry aber sowas nervt wirklich.

Gaestle
2006-11-30, 16:24:25
Bist du bescheuert oder so? Kann das sein? Geh zum Arzt. Hab ich dir überhaupt erlaubt hier rein zu schreiben? Ne. also lass das.
So zum Thema zurück, ich habe den Titel net geschrieben. Des Thema wurde von nem Thread rauskopiert. und das auf den Screens nur ne GTX is lässt doch folgern dass ne GTS schlechter abschneiden würde. denk mal darüber nach aber bitte schreib net wieder hier rein.

Sorry aber sowas nervt wirklich.

:biggrin:
Schon gelesen?
http://www.forum-3dcenter.org/vbulletin/faq.php?faq=forum_faq#faq_forum_faq_rules

Ich entschuldige mich hiermit öffentlich, dass ich nicht in der Lage bin, Gedanken zu lesen, obwohl es einigen Usern offenbar nicht immer möglich ist, ihre Ideen in sinnäquivalente sprachliche Formen zu bringen.

Crushinator
2006-11-30, 16:38:38
ich habe den Titel net geschrieben. Des Thema wurde von nem Thread rauskopiert. und das auf den Screens nur ne GTX is lässt doch folgern dass ne GTS schlechter abschneiden würde. denk mal darüber nach. Und ich habe die datei auch nur erhalten du pappnase
Sorry aber sowas nervt wirklich.

Überdenke Deine Ausdrucksweise bitte in Zukunft, dafür hast Du ja nun einen ganzen Tag Zeit.

Diskussionen über Verwarnungen sind bei Bedarf in einem ggf. zu erstellenden Thread im "Diskussionen zu moderativen Entscheidungen - Forum" zu führen bzw. per PN mit dem jeweiligen Moderator, denn hier wären sie OT. Siehe dazu auch: Regeln und Richtlinien für die Moderation

Gast
2006-11-30, 17:54:26
@Crushinator, da du ja ein vorbildlicher Moderator zu sein scheinst, kannst du gleich noch den Thread-Titel ändern. Oder muß der Ersteller das beantragen?

Crushinator
2006-11-30, 18:39:42
Ich hoffe, der Fredtitel ist nun so wie gewünscht. :usweet: