PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Mal wieder: 8800gts vs. X1950XTX


Fetza
2007-01-04, 13:53:43
Edit: Die 8800GTS kann sich ja nichtmal immer vor der X1950xtx behaupten, wie sollen das dann noch weiter abgespeckte modelle schaffen????

öhm, welche benchmarks hast du gesehen? In shaderlastigen spielen sieht die x1950 kein land gegen die gts... nimm mal oblivion zb.

greetz

Fetza

Superheld
2007-01-04, 13:58:37
die Ati X1900XT hat auch mehr Shader als die X1800 XT und ist nicht schneller bei Oblivion

guckst du computerbase

Gast
2007-01-04, 14:21:26
öhm, welche benchmarks hast du gesehen? In shaderlastigen spielen sieht die x1950 kein land gegen die gts... nimm mal oblivion zb.

greetz

Fetza
Bei Oblivion mag das zutreffen. Allerdings ist der Unterschied 8800 GTS verglichen mit einer X1950 XTX bei den meisten Games nicht so groß. Oft ist sogar der Unterschied 8800 GTS zu 8800 GTX größer.

Odal
2007-01-04, 14:28:10
die Ati X1900XT hat auch mehr Shader als die X1800 XT und ist nicht schneller bei Oblivion

guckst du computerbase

liegt wohl eher daran das Oblivion in den aussenarealen weniger pixelshader lastig ist sondern (spekulier) vertexshader lastig und dank unified shader (spekulier) kann dort ein G80 auftrumpfen?

LovesuckZ
2007-01-04, 14:48:26
Allerdings ist der Unterschied 8800 GTS verglichen mit einer X1950 XTX bei den meisten Games nicht so groß. Oft ist sogar der Unterschied 8800 GTS zu 8800 GTX größer.

Bei gleicher Bildqualität ist die GTS deutlich vor der X1950XTX.
http://www.hardtecs4u.com/reviews/2007/nvidia_g80_roundup/

The_Invisible
2007-01-04, 15:04:38
kannst du das irgendwie belegen oder schreibst du(wie eigentlich immer) nur NV Fanboy-gülle???
Zumal man ja für Vista unbedingt ne DX10-Karte braucht, für die zahlreichen verfügbaren Direct3D10-Spiele:rolleyes:

Edit: Die 8800GTS kann sich ja nichtmal immer vor der X1950xtx behaupten, wie sollen das dann noch weiter abgespeckte modelle schaffen????

man nehme ne halbe 8800gtx (wie bei der 7900er serie die 7600gt) und ist dabei noch immer gleich schnell/schneller als ne derzeitige 1950xtx mit >= bildqualität als diese (siehe hardtecs4u test)

das andere ist marketing, nvidia könnte schreiben "weltweit einziger hersteller von dx10 karten", wie wirbt dann ati für ihre karten?

was das ganze jetzt aber mit "nv fanboy" zu tun haben soll kann ich nicht ganz nachvollziehen, wenn ist es eher spekulation wo ich hier aber eh (fast) richtig bin

mfg

w0mbat
2007-01-04, 15:26:41
man nehme ne halbe 8800gtx (wie bei der 7900er serie die 7600gt) und ist dabei noch immer gleich schnell/schneller als ne derzeitige 1950xtx mit >= bildqualität als diese (siehe hardtecs4u test)
[...]

Die GTS ist aber mehr als eine halbe GTX und kann sich nicht von der X1950 XTX absetzen. Außerdem kommt AMDs DX schon noch, es gibt schon Treibereinträge für DX10 GPUs aka X2100.

LovesuckZ
2007-01-04, 15:40:46
Die GTS ist aber mehr als eine halbe GTX und kann sich nicht von der X1950 XTX absetzen.


Die GTX ist eine 2/3 GTX und kann sich deutich von der X1950XTX absetzen. Schau dir einfach nur diesen (http://www.hardtecs4u.com/reviews/2007/nvidia_g80_roundup/) Test dazu an.

Deathcrush
2007-01-04, 15:58:09
Jop eine 8800GTS ist gerade in höheren Auflösungen mit AA und AF schneller als die X1950er Reihe. Und darum gehts ja. Wer sich eine so teure Karte hohlt, will auch in hohen Auflösung noch AA und AF hinzuschalten können.

Odal
2007-01-04, 16:04:13
Jop eine 8800GTS ist gerade in höheren Auflösungen mit AA und AF schneller als die X1950er Reihe. Und darum gehts ja. Wer sich eine so teure Karte hohlt, will auch in hohen Auflösung noch AA und AF hinzuschalten können.

liegt aber eher an der hohen speicherbandbreite...

ein mainstreamprodukt wird sicherlich keine 384 bit memoryinterface haben sondern höchstens 256Bit wenn nicht gar nur 128Bit damit es preiswert herzustellen bleibt

Gast
2007-01-04, 16:05:30
Die GTX ist eine 2/3 GTX und kann sich deutich von der X1950XTX absetzen. Schau dir einfach nur diesen (http://www.hardtecs4u.com/reviews/2007/nvidia_g80_roundup/) Test dazu an.

Toll bei eine test siehts vielleicht so aus.Bei 30 anderen aber nicht!Ich glaube lieber denn anderen 30 test....

Coda
2007-01-04, 16:11:28
liegt aber eher an der hohen speicherbandbreite...

Die 8800 GTS und die X1950 XTX haben exakt gleich viel Speicherbandbreite...

LovesuckZ
2007-01-04, 16:17:32
Toll bei eine test siehts vielleicht so aus.Bei 30 anderen aber nicht!Ich glaube lieber denn anderen 30 test....

Andere verwenden auch keine gleichen Einstellungen.

Deathcrush
2007-01-04, 16:20:19
Jop, beide habn 64gb Bandbreite, also GTS und XTX

http://www.hardwareluxx.de/cms/artikel.php?action=show&id=487&seite=13

Nur in COD2 kommt die X1950XTX an eine GTS heran, aber da weiss ja jeder das COD2 auf ATI hin optimiert ist. Sonnst sieht es düster aus. Und noch sind die Treiber Bullshit der 8800er, da kommt sicher noch was ;)

Mr. Lolman
2007-01-04, 17:13:29
Jop, beide habn 64gb Bandbreite, also GTS und XTX

http://www.hardwareluxx.de/cms/artikel.php?action=show&id=487&seite=13

Nur in COD2 kommt die X1950XTX an eine GTS heran, aber da weiss ja jeder das COD2 auf ATI hin optimiert ist

Genau. Wenn ein Spiel auf den Atis schneller rennt, dann ist es auf ATi optimiert. Wenn NV ne höhere Performance erreicht, dann liegt das an der tollen Hardware.

Dementsprechend ists auch kein Beschiss am Kunden, dass alte NV Karten absichtlich gebremst werden, sondern eine notwendige Befreiung von Altlasten im Treiber (man will ja nicht so crappige Teile veröffentlichen - wie das immer bei der Konkurrenz der Fall ist ;))

BTW: ...ist das nicht das erste mal, dass ich mich wundere wie HWLuxx ihre Ergebnisse erbenchen (auch wenn zugegebenermaßen, die noAA/AF Werte etwas von den BQ-Settings ablenken): http://www.xbitlabs.com/articles/video/display/gf8800-games_12.html

Hvoralek
2007-01-04, 17:19:19
Genau. Wenn ein Spiel auf den Atis schneller rennt, dann ist es auf ATi optimiert. Wenn NV ne höhere Performance erreicht, dann liegt das an der tollen Hardware.Hat das jemand behauptet? Das kommt natürlich immer auf den Einzelfall an. Dass eine 8800 GTX meist deutlich vor jeder imM erhältlichen ATI- Karte liegt, kann man aber wohl beruhigt auf die Hardware schieben :wink:

Dementsprechend ists auch kein Beschiss am Kunden, dass alte NV Karten absichtlich gebremst werden, sondern eine notwendige Befreiung von Altlasten im Treiber (man will ja nicht so crappige Teile veröffentlichen - wie das immer bei der Konkurrenz der Fall ist ;))Dafür würde ich gerne mal einen Beweis sehen. Der letzte umfangreichere Artikel (http://www.3dcenter.org/artikel/geforce4_treibervergleich/) zu dem Thema, der mir aufgefallen ist, sagt eher das genaue Gegenteil.

Gast
2007-01-04, 17:21:27
Es ist doch schon bekannt, dass Hardwareluxx ziemlich viel mist bei den Benches baut.

Deathcrush
2007-01-04, 17:23:51
Genau. Wenn ein Spiel auf den Atis schneller rennt, dann ist es auf ATi optimiert. Wenn NV ne höhere Performance erreicht, dann liegt das an der tollen Hardware.

Dementsprechend ists auch kein Beschiss am Kunden, dass alte NV Karten absichtlich gebremst werden, sondern eine notwendige Befreiung von Altlasten im Treiber (man will ja nicht so crappige Teile veröffentlichen - wie das immer bei der Konkurrenz der Fall ist ;))

BTW: ...ist das nicht das erste mal, dass ich mich wundere wie HWLuxx ihre Ergebnisse erbenchen (auch wenn zugegebenermaßen, die noAA/AF Werte etwas von den BQ-Settings ablenken): http://www.xbitlabs.com/articles/video/display/gf8800-games_12.html

Von nix ne Ahnung aber gross rum tönen. HL2 ist auch auch ATI hin optimiert und da ist die NV 8800gts mit AA und AF vieeeeeeel schneller. 139 FPS gegen 114 FPS bei 1600x1200 4AA 16AF. Und was sagst du jetzt :P Und ich bin gewiss kein Fanboy, hatte vor der 8800er 3 andere ATI Karten ;)

w0mbat
2007-01-04, 17:36:25
Jaja, alle Spiele sind ATi optimiert^^

Coda
2007-01-04, 17:42:04
HL2 ist auch auch ATI hin optimiert

Also wenn man sich die Papers ansieht. Nö. Es schmeckt den ATIs einfach besser.

Gast
2007-01-04, 18:04:34
Also wenn man sich die Papers ansieht. Nö. Es schmeckt den ATIs einfach besser.Tut es das? Die 7900GTX liegt bei HL2: Lost Coast auf einem Niveau mit der x1950xtx. (Quelle: Computerbase, also HQ vs AI-low). Dass HL2 auf ATIs besser läuft, war zu NV40/R420-Zeiten der Fall.

Gast
2007-01-04, 18:06:09
http://666kb.com/i/akogablt9zqc1zeyv.png

=Floi=
2007-01-04, 18:15:11
1. welches spiel ist das? ;D
2. warum werden bilder von computerbase gespeichert und dann auf einer anderen seite gehostet?
3. seit wann sind flame threads erlaubt? NV vs ATI/AMD

Gast
2007-01-04, 18:16:51
1. welches spiel ist das? ;D Wenn du vielleicht auch noch das Posting darüber lesen würdest, müsstest du dir diese Frage nicht stellen. Es ist natürlich HL2: Lost Coast.

Fallacy
2007-01-04, 18:27:52
Toll bei eine test siehts vielleicht so aus.Bei 30 anderen aber nicht!Ich glaube lieber denn anderen 30 test....

Da frag ich mich manchmal wirklich, wieso wir eigentlich beide Modi benchen... Dass zugehörige Texte nicht gelesen werden, daran habe ich mich ja mittlerweile gewöhnt. Aber anscheinend wird jetzt sogar die Beschriftung der Balkendiagramme gekonnt ignoriert.

Beim nächsten Test machen wir´s uns einfacher: Es gibt ohne irgendwelche Erklärungen lediglich einen ultimativen Perfomance-Rating-Balken in Grün und einen in Rot. Der Grüne wird dabei natürlich doppelt so lang sein wie der Rote - weil wir ja sowieso von NV gekauft sind :|.

Grüße,
Leander - HT4U

deekey777
2007-01-04, 18:47:52
1. welches spiel ist das? ;D
2. warum werden bilder von computerbase gespeichert und dann auf einer anderen seite gehostet?
3. seit wann sind flame threads erlaubt? NV vs ATI/AMD
Zu zwei: Weil es eine Scheißeinstellung ist, Traffic anderer Seiten zu klauen.

Gast
2007-01-04, 18:50:07
Das reicht doch aus...
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/25/#abschnitt_performancerating_qualitaet

um zusehen das die GTS schon "vieel" schneller ist

in 1600er 23%
und bei den nicht altäglichen (2560x1600) auflössungen immer noch 12%

und sicher wird es hier und da mal die x1950 an die leistung einer GTS kommen oder gar darüber.

und ich könnt mir schon vorstellen, das Nv neue Mid Range karten so im bereich
X1900XTX / X1950XTX liegt für 280 oiro :D

Odal
2007-01-04, 19:01:36
Die 8800 GTS und die X1950 XTX haben exakt gleich viel Speicherbandbreite...

Das mag sein, ist aber nicht der Punkt den ich ansprach. Die Frage war ob das Mainstream G80 Produkt in hohen Auflösungen und mit AA so schnell wie eine X1950XTX sein wird. Und dies vermute ich mal nicht da das Mainstream G80 Produkt eine deutlich geringere Speicherbandbreite wie die 8800GTS haben wird und somit auch deutlich weniger als die X1950XTX und somit deutlich weniger für hohe Auflösungen und AA Modi zuzusetzen hat.

Odal
2007-01-04, 19:05:14
Jop, beide habn 64gb Bandbreite, also GTS und XTX

http://www.hardwareluxx.de/cms/artikel.php?action=show&id=487&seite=13

Nur in COD2 kommt die X1950XTX an eine GTS heran, aber da weiss ja jeder das COD2 auf ATI hin optimiert ist. Sonnst sieht es düster aus. Und noch sind die Treiber Bullshit der 8800er, da kommt sicher noch was ;)

Spiel mal COD2 auf einer ATI Graka <R520 ;) und dann sprich nochmal von "Auf ATI optimiert" ;)

MartinRiggs
2007-01-04, 19:05:16
gibt schon einige benches wo ne 8800gts kaum oder gleich mit der x1950xtx ist, daher kann mir keiner erzählen die g80-mainstream hängen die x1900er-Serie ab, das halte ich für mumpitz.

Blutmaul
2007-01-04, 19:07:08
Ich meine:
Vergesst das mal, das die NV-Midrangekarten an die 1950xtx rankommen.
Höchstens, sobald die 8800gts Midrange wird...

deekey777
2007-01-04, 19:10:00
Von nix ne Ahnung aber gross rum tönen. ...;)
Nanana, es geht auch freundlicher.

=Floi=
2007-01-04, 19:17:21
also man sollte die karten eher mit der X1900XT vergleichen und nicht mit der X1950XTX, welche ja nochmal aufgebohrt wurde
um mal bei NV zu bleiben sehe ich die 8600GT auf niveau ei einer 7950GT welche sich bei shaderlastigen games absetzen kann

reunion
2007-01-04, 19:23:54
Das reicht doch aus...
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/25/#abschnitt_performancerating_qualitaet

um zusehen das die GTS schon "vieel" schneller ist

in 1600er 23%
und bei den nicht altäglichen (2560x1600) auflössungen immer noch 12%


Seltsam, dass die ATi-Karte bei höherer Auflösung den Abstand verringert.

Odal
2007-01-04, 19:32:36
also man sollte die karten eher mit der X1900XT vergleichen und nicht mit der X1950XTX, welche ja nochmal aufgebohrt wurde
um mal bei NV zu bleiben sehe ich die 8600GT auf niveau ei einer 7950GT welche sich bei shaderlastigen games absetzen kann

Was aber bedeutet das sich der G80 Mainstream deutlich hinter einer X1950XTX und auch X1900XT einordnen muss. (siehe dazu auch die neuen 3DCenter Artikel).

Ich sehe den G80 Mainstream bis 1280x1024 eher auf oder vielleicht etwas über 7900GT niveau

Dr.Dirt
2007-01-04, 19:41:05
Seltsam, dass die ATi-Karte bei höherer Auflösung den Abstand verringert.

Das ist aber logisch, da mit steigenderer Auflösung in den "unspielbaren" Bereich abgedriftet wird, z.B. CoD2 in 2560x1600 mit AA/AF:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/11/#abschnitt_call_of_duty_2

AnarchX
2007-01-04, 20:08:03
Was aber bedeutet das sich der G80 Mainstream deutlich hinter einer X1950XTX und auch X1900XT einordnen muss. (siehe dazu auch die neuen 3DCenter Artikel).

Ich sehe den G80 Mainstream bis 1280x1024 eher auf oder vielleicht etwas über 7900GT niveau

Erstmal abwarten wie die Midrange-Karten genau ausschauen und wie sich die Treiber in den kommenden Monaten noch entwickeln.
Wie schon oft erwähnt, tritt G80 momentan mit sehr frühen Treibern an(noch nicht aktive MUL; Frickel-UDA, die für G80 bald Geschichte sein soll), während die von R580 wohl sehr nah am Optimum schon sind.

Gast
2007-01-04, 20:15:55
Seltsam, dass die ATi-Karte bei höherer Auflösung den Abstand verringert.

Sinnfrei?

Lesen und verstehen.

Rente
2007-01-04, 20:18:05
Seltsam, dass die ATi-Karte bei höherer Auflösung den Abstand verringert.
War es nicht so das ATi-Karten bei 2560x1600 nur 2xAA applizieren, oder wurde das inzwischen gefixt?

AnarchX
2007-01-04, 20:21:06
War es nicht so das ATi-Karten bei 2560x1600 nur 2xAA applizieren, oder wurde das inzwischen gefixt?

AFAIK nicht, aber wird in den OpenGL-Tests, wo es auftritt, von CB mit einer Abwertung versehen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/19/#abschnitt_quake_4

reunion
2007-01-04, 20:51:15
Das ist aber logisch, da mit steigenderer Auflösung in den "unspielbaren" Bereich abgedriftet wird, z.B. CoD2 in 2560x1600 mit AA/AF:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/11/#abschnitt_call_of_duty_2

Was ist daran logisch?
Nur weil die absolute Framerate sinkt, bedeutet das nicht, dass auch die prozentuale Differenz abnimmt. Normalerweise sollte der schnellere Chip mit zunehmer Last den prozentuellen Abstand vergrößern können.

Sinnfrei?

Lesen und verstehen.

Schade, dass du dazu nicht in der Lage bist.

Banshee18
2007-01-04, 20:52:16
Nur in COD2 kommt die X1950XTX an eine GTS heran,..
In Timedemos vielleicht.
Irgend jemand hier meinte, dass die GTS beim Spielen sehr deutlich schneller sei. Keine Ahnung, ob das stimmt, ich kanns schlecht nachprüfen. Vorstellen könnte ich es mir aber.

Wishnu
2007-01-04, 20:55:25
Das ist aber logisch, da mit steigenderer Auflösung in den "unspielbaren" Bereich abgedriftet wird, z.B. CoD2 in 2560x1600 mit AA/AF:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/11/#abschnitt_call_of_duty_2

Imo nicht logisch, da die Kombination aus 2-stelligem Wert + 1 Dezimalstelle hier immer noch hinreichend genau ist und nicht eine so große Abweichung erklären kann (sofern die Rechnung überhaupt stimmt...bin jetzt zu faul zum Nachrechnen). :)

The_Invisible
2007-01-04, 21:22:51
Das mag sein, ist aber nicht der Punkt den ich ansprach. Die Frage war ob das Mainstream G80 Produkt in hohen Auflösungen und mit AA so schnell wie eine X1950XTX sein wird. Und dies vermute ich mal nicht da das Mainstream G80 Produkt eine deutlich geringere Speicherbandbreite wie die 8800GTS haben wird und somit auch deutlich weniger als die X1950XTX und somit deutlich weniger für hohe Auflösungen und AA Modi zuzusetzen hat.

7600gt ist auch schneller als ne 6800ultra bei ~2/3 bandbreite dessen

mfg

Odal
2007-01-04, 22:01:43
7600gt ist auch schneller als ne 6800ultra bei ~2/3 bandbreite dessen

mfg

ja und? hat jemand was anderes behauptet?

eine 7800GT vergrössert ihren abstand zur 7600GT aber mit steigender auflösung und aktiviertem AA

der 7600GT geht die bandbreite aus....darum wird ein mainstream G80 produkt (z.b. 8600GT) mit steigender Auflösung und aktiviertem AA immer weiter hinter der 8800GS sein eben weil die bandbreite ausgeht

und die behauptung war das sich die 8600GT erst richtig in sehr hohen auflösungen und AA modi von bisherigen highend karten wird absetzen können.

Gouvernator
2007-01-04, 22:08:56
War es nicht so das ATi-Karten bei 2560x1600 nur 2xAA applizieren, oder wurde das inzwischen gefixt?
mit 512mb Speicher gehts. Ich kann noch problemlos 5megapixel und 6xAA fahren sprich 2560x1920+6xAA+QAAA+ASBT.

Angiesan
2007-01-04, 22:12:52
Also ich könnte mir vorstellen, dass die ATi mehr an der Speicherbandbreite hängt wie die GTS.
Mal ein paar Erfahrungen.

Bei meiner alten x1900XTX wurde das übertakten des Speichers mit deutlich mehr FPS belohnt ein übertakten der GPU zeigte in den meisten Games aber nur eine sehr geringe Steigerung, kann aber auch sein, dass hier schon meine X2 @ 2600Hz limitierte.
Bei der 7900GTO limitierte auch ganz klar die Bandbreite was aber mit Übertakten auf GTX Werte kein Problem meht war.
Was aber sehr auffällig ist, ist das die GTO ab 774 Mhz Speichertakt mit dem skalieren praktisch aufgehört hat. Der Geschwindigkeitszuwachs war, ist minimal.Bei sehr hohen Auflösungen dürfte ja normalerwiese auch die Bandbreite limitieren, aber es werden auch gerade bei den neuen Games sehr hohe Anforderungen an Shader und Vetrexeinheiten gestellt und ich glaube, dass die Rohleistung der R580 schon gewaltig ist und diese Vorteile bei sehr hohen Auflösungen auch stärker zum Tragen kommen.Das könnte auch ein Grund sein ,dass die ATI Karten mit zunehmenden Alter eben nicht so stark abfallen wie die NV Karten. ATI hat in der Vergangenheit ja mehrmals gezeigt, dass auch aus älteren Karten noch der ein oder andere Geschwindigkeitsbust heraus gekitzelt werden kann.Und wenn man den Aussagen von ATi trauen darf, hat dies immer was mit dem Speichermanagement zutun gehabt und dies dürfte auch stark mit der benötigten Bandbreite zusammenhängen.
Auch sollte man nicht Ai unterschätzen die "Optimierungen" sind schon zu sehen die IQ der 8800GTX und wohl dann auch der GTS ist besser in dem ein oder anderen Game. Und nein ich spreche hier nicht von dem AF sondern von der Art wie die Texturen wiedergegeben werden.Für einen Vergleich Ai on Ai off empfehle ich den HT4U Test.
Bei der GTS sind sicherlich wie hier schon beschrieben die noch bei weitem nicht ausgereiften Treiber der Hauptgrund, dass die Karte sich nicht allzuweit von der ATi absetzen kann.
Und ja da spreche ich aus Erfahrung habe selbst eine 8800GTX und die Treiber sind wirklich noch Sch.... hoffe sehr, dass NV durch den Druck des nahenden R600 hier mal Gas gibt;D

Grüße

Gast
2007-01-04, 22:27:11
Schade, dass du dazu nicht in der Lage bist.

Hehe das sagt der Richtige.

Was steht hier?

UND BEI DEN NICHT ALTÄGLICHEN (2560x1600) AUFLÖSSUNGEN IMMER NOCH 12%

Ich hab das Extra mal alles gross geschrieben für dich. Und wie du siehst sind die höheren aufloessungen mit berücksichtigt.

Also für besseres lesen hab ich gesorgt(Großschreibung). Aber was den verstand angeht, das kann ich dann wohl nicht beeinflussen.

Gouvernator
2007-01-04, 22:31:49
AI On und 2560x1600 darf niemals zusammensein! Ich ebenfalls habe bemerkt das der Vorteil solcher Auflösung darin besteht jegliche "Optimierer" abzustellen und ALLE Bildverbesserer einzuschalten. Das Bild hat schon mit 4xAA genug Kantenglättung was da sofort auffällt sind Texturen die flimmern. meiner Meinung nach sind alle Benchmarks in 2560x1600 für die Katz. Denn wenn man solche Auflösung fährt hat man recht wenig von den Tests in 2560x1600 mit AI On ohne Tri, weil mit ihnen die Performance nochmal halbiert wird. Man hat gar nix vom AA und 2560x1600 mit Scheissflimmertexturen ohne trilinear-filterung...

Gast
2007-01-04, 23:07:27
AI On und 2560x1600 darf niemals zusammensein! Ich ebenfalls habe bemerkt das der Vorteil solcher Auflösung darin besteht jegliche "Optimierer" abzustellen und ALLE Bildverbesserer einzuschalten. Das Bild hat schon mit 4xAA genug Kantenglättung was da sofort auffällt sind Texturen die flimmern. meiner Meinung nach sind alle Benchmarks in 2560x1600 für die Katz. Denn wenn man solche Auflösung fährt hat man recht wenig von den Tests in 2560x1600 mit AI On ohne Tri, weil mit ihnen die Performance nochmal halbiert wird. Man hat gar nix vom AA und 2560x1600 mit Scheissflimmertexturen ohne trilinear-filterung...

wie bitte? nochmal für sprachlich unbegabte erklären...

Gouvernator
2007-01-05, 14:01:12
Aja die sollen mal gefälligst wenn sie schon 2560x1600 testen, auch richtig mal die Einstellungen aufdrehen. Ich zocke in dieser Auflösung in maximal möglicher Bildqualität was die Einstellungen betrifft. So und deshalb nutzen mir die Vergleiche ohne Area AF und auch noch mit AI on herzlich wenig um die maximal mögliche Performance unter maximal möglichen HighQ Einstellungen zu beurteilen. Unter 26x16 wäre der neue AA Modus und bei ATi 6xAA Modus viel lieber.

Ist aber schon beachtlich wie die x1950xtx unter 2560x1600 nur 4fps hinter GTX liegt ;D

desert
2007-01-05, 14:29:39
Ich finde es eher erschreckend wieviel die x1950 XTX verliert wenn a.i. off ist. Verliert ja teilweise 40 %. Und ich kann mir schwer vorstellen das die ati von 1280 x 1024 auf 1600 x 1200 nur 1 frame verlieren soll bei oblivion von 17.8 auf 16,8. Bei a.i. off, sackt sie von 13,.. auf 10,8 fps. Aber auch in anderen spielen wo sie mit ai standard 60 und ohne 45 hat.

Die Frage ist doch mit was bescheisst ati hier, wenn a.i. auf standard ist, und warum kann man die optimierungen nicht abschalten?

Kann doch nicht alles shaderreplacement sein, und nein gouvernator das liegt nicht daran, das ati die geilsten und tollsten sind;)

Fallacy
2007-01-05, 15:34:50
Es wird in einigen Fällen nicht mehr vollends trilinear gefiltert, wenn A.I. auf Standard steht - was häufig als "brilinearer" (Mischung aus Tri- und Bi-) Filter bezeichnet wird.

Edit: Mit Shaderreplacement hat das i.d.R. recht wenig zu tun - falls du dich auf die Werte von HT4U beziehst, dort haben wir deswegen neben den Timedemos auch Fraps-Messungen gemacht, wodurch die Thematik um die Shaderreplacements hinfällig sein dürfte. Bzw. müssten diese dann, das ganze Spiel betreffen (und nicht nur die Timedemos) ohne die Bildqualit merkbar zu beinflussen.

Grüße,
Leander - HT4U

The_Invisible
2007-01-05, 15:48:10
@Gouvernator

bei deinem bildschirm siehst du von 2000x auf 2560x keinen weiteren vorteil. ich weiß nicht wie man so sturköpfig sein kann und dies immer ignorieren kann. oder hast du seit neuem einen 30" tft mit nativ 2560x1600?

mfg

Gouvernator
2007-01-05, 16:22:01
@Gouvernator

bei deinem bildschirm siehst du von 2000x auf 2560x keinen weiteren vorteil. ich weiß nicht wie man so sturköpfig sein kann und dies immer ignorieren kann. oder hast du seit neuem einen 30" tft mit nativ 2560x1600?

mfg
Bildinhalt wird aber real in 2560x gerendert das kann man glaub ich auch nicht ignorieren. Das was du auf dem 30" siehst ist genau das gleiche auf dem CRT in 2560x1600 nur einbisschen "kleiner" und nicht so TFT "klar". Das bisschen Unschärfe ist dabei nicht entscheidend, die ist vor allem auf die hohen khz zu führen und nicht auf wahnwitzige Auflösung. Ich gebe ja zu das so ein teuerer TFT seine stärken hat. Du musst aber rechnen 150€ für einen 22" CRT unscharf und klein oder 2000€ ...;D Ich hab im leben noch nie so ein Ding live gesehen =) du vermutlich auch nicht, und so bleibt uns nur der CRT. Wenns darum geht den Inhalt in ultraHD sprich 3840x2400 zu sehen kommt man nur über ein IBM 22" TFT oder ein gutes 142khz CRT =) dahin, alles nur noch Treibersache. Also sag mir nix schlechtes über mein CRT :D

Dr.Dirt
2007-01-05, 16:40:00
Was ist daran logisch?

Natürlich ist das logisch, bei steigenden Auflösungen sinkt die Framerate, beim theoretischen Extremfall (Auflösung gegen unendlich) haben alle Karten identische FPS (gegen 0). :biggrin:

reunion
2007-01-05, 22:46:53
Natürlich ist das logisch, bei steigenden Auflösungen sinkt die Framerate, beim theoretischen Extremfall (Auflösung gegen unendlich) haben alle Karten identische FPS (gegen 0). :biggrin:

Nur geht die prozentuelle Differenz zwischen der schnelleren und der langsameren Karte bis zu diesem Zeitpunkt gegen Unendlich. Denn irgendwann wird es heißen Karte X 0 fps, und Karte Y 0.0000001 fps. Dann ist Karte Y unendliche Prozent schneller als Karte X. :D

Scherz beiseite, solange man sich an reelle Gegebenheiten orientiert, sollte die schnellere Karte mit zunehmender Last den prozentuellen Abstand vergrößern können, sofern nichts anderes limitiert.

Deathcrush
2007-01-06, 13:43:59
http://www.anandtech.com/video/showdoc.aspx?i=2895&p=4

Eine 8800gts ist 38% schneller als eine X1950XTX bei 1280x960, sagt doch alles oder. Bei 1600x1200 sind es sogar 50%.

Coda
2007-01-06, 14:42:56
War da überhaupt AI aus?

Sterems
2007-01-06, 15:53:09
http://www.anandtech.com/video/showdoc.aspx?i=2895&p=4

Eine 8800gts ist 38% schneller als eine X1950XTX bei 1280x960, sagt doch alles oder. Bei 1600x1200 sind es sogar 50%.

Ein Spiel wurde da getestet hmm......

Und dann noch ein Spiel was nicht gut aussieht,ich weis das du das anders siehst deathcrush.....

Deathcrush
2007-01-06, 19:06:49
Schneller ist nun mal schneller. Ob das Spiel in deinen Augen nun gut oder schlecht aussieht ist doch vollkommen egal und steht überhaupt nicht zur debatte, sondern das die 8800gts nun mal die schnellere Karte ist.

Sterems
2007-01-06, 19:19:19
Schneller ist nun mal schneller. Ob das Spiel in deinen Augen nun gut oder schlecht aussieht ist doch vollkommen egal und steht überhaupt nicht zur debatte, sondern das die 8800gts nun mal die schnellere Karte ist.

Ja die 8800 GTS ist bei Rs 6 Vegas die schnellere karte,da hast du recht....:up:

Deathcrush
2007-01-06, 19:23:47
Nicht nur bei R6, aber das wollen ja unsere ATI Fanboys nicht wissen :P

Sterems
2007-01-06, 19:32:21
Nicht nur bei R6, aber das wollen ja unsere ATI Fanboys nicht wissen :P

Noob dann verlinke auch andere Benchmarks von Spielen!Du hast behauptet das eine 8800 GTS schneller als eine X1950 XT ist,hast aber nur ein Test verlinkt wo nur ein Spiel getestet wurde.

Wenn du sowas behauptest poste das nächste mall auch ein test wo mehrere Spiele getestet wurden.

:smile:

Deathcrush
2007-01-06, 19:38:27
Hab ich doch schon längst du Nase. Dann schau mal ein paar Seiten vorher :P

Extra für dich

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5129128&postcount=14

Doomi
2007-01-06, 19:41:11
hier streiten sich Leute über Dinge die schon lange klar sind .. sowas aber auch..

Sterems
2007-01-06, 20:16:10
Hab ich doch schon längst du Nase. Dann schau mal ein paar Seiten vorher :P

Extra für dich

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5129128&postcount=14

Auch wenn ich mich jetzt vielleicht bei paar leuten unbeliebt mache,die hardwareluxx tests kannst in die tonne tretten!!!!!!!!:P

Ich glaub dir doch...

Hvoralek
2007-01-06, 22:10:41
Dass eine 8800 GTS insgesamt schneller ist (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/25/#abschnitt_performancerating) als eine X1950XTX, kann man mMn nicht mehr ernsthaft bezweifeln (Ausnahmen in Einzelfällen mag es geben). Die Frage ist ist doch eigentlich höchstens noch, wie groß der Abstand ist :confused:

Deathcrush
2007-01-06, 22:56:53
Kommt darauf an was zum Einsatz kommt. Wenn das Spiel stark Shaderlastig ist, dann bis zu 50& in hohen Auflösungen. Siehe R6 Vegas. Alle anderen Spiele denke ich mal so 15-20%. Ich hab z.B von einer stark übertakteten X1800XT auf eine 8800gts gewechselt und ich habe an vielen stellen in Gothic 3 doppelte FPS. Meine X1800XT (735/850) lief laut FEAR schneller als eine X1900XT