Archiv verlassen und diese Seite im Standarddesign anzeigen : The Elder Scrolls IV Oblivion wer wird vorne sein
Oblivion Graka Test
2006-03-07, 14:03:09
Da ja bald das game rauskommt wollt ich mit euch schonmall Spekulieren wer bei denn Spiel besser abschneiden wird Ati oder Nvidia.Nach denn Screenshotts zu urteilen scheint das game ja wirklich ein next gen Spiel zu sein.Das game schreit ja förmlich nach einer X1900 7900.
Technologie:Was wird bei Oblivion mässig gebraucht Pixel Shader Performance,Ps 3.0 Performance oder ?
Was schätzen die grafikkarten Spezialisten ein auf welcher Hardware das game besser laufen wird (wenn man das überhaupt vorhersehen kann^^).
Ati:48 Alus
NV:24 PP
was bringt bei denn game mehr?
reunion
2006-03-07, 14:10:02
Im Elder-Scrolls-Forum gibts ein nettes, offizielles FAQ über die Hardwareanforderungen:
Radeon X1900XTX, PCI-e with 512MB video RAM - This is unquestionably the most powerful card in existance, and will remain so until the next generation of cards arrives, which will be after the release of Oblivion. It handles pixel shaders far better than any GeForce card, and can handily defeat a GeForce 7800GTX SLi setup in F.E.A.R.. Oblivion is a shader-intensive game as well, so you should expect close to the same thing.
http://www.elderscrolls.com/forums/index.php?showtopic=250534
Oblivion Graka Test
2006-03-07, 14:13:04
Im offiziellen Elder-Scrolls-Forum gibts ein nettes FAQ über die Hardwareanforderungen:
http://www.elderscrolls.com/forums/index.php?showtopic=250534
Intressant das hört sich schonmall gut an für Ati besitzer.Aber mall gucken vielleciht hat NVidia noch nicht richtig *auf Oblivion optimiert(gg)*.
Im Elder-Scrolls-Forum gibts ein nettes, offizielles FAQ über die Hardwareanforderungen:
http://www.elderscrolls.com/forums/index.php?showtopic=250534
Keine Ahnung, wie glaubwürdig das ist.
Es ist, wie so oft, nur ein Teil der Wahrheit. :) So für sich genommen und ohne weitere Angaben ist diese Behauptung korrekt. Nicht korrekt ist es, sie unkommentiert stehen zu lassen und den unbedarften User davon ausgehen zu lassen, dass dieser Fall allgemein gültig ist.
Q
immer diese hypothetischen freds. heroes of pacific läuft auf xbox und 2ghz pc, was wird wohl vorne sein?
Das kommt ganz drauf an. Der Außenbereich sieht sehr nach vorberechnetem Zeug und Füllratelimitierung aus, da könnte nVIDIA gar nicht mal so schlecht dastehen. Mit AA sieht die Sache natürlich schon wieder anders aus, weil ATI ein bessere SI hat.
Aber allg. gehe ich davon aus, dass das Spiel generell gar nicht mal so schlecht laufen wird.
dittohead
2006-03-07, 17:02:55
laut pcgames läuft es auf nem fx60 (imaginär, sie haben nen fx55 auf 2,61 laufen lassen), 7900gt und nem gig ram wunderbar flüssig. bei dieser config begrenzt einzig immernoch der prozessor, da einstellung für sichtweiten von baum, gras personen nur mittig standen. also wird mal wieder der prozessor wichtiger sein als die graka.
reunion
2006-03-07, 17:08:16
laut pcgames läuft es auf nem fx60 (imaginär, sie haben nen fx55 auf 2,61 laufen lassen)
Ein übertakteter FX55 entspricht mitnichtern einem FX60.
7900gt und nem gig ram wunderbar flüssig. bei dieser config begrenzt einzig immernoch der prozessor, da einstellung für sichtweiten von baum, gras personen nur mittig standen. also wird mal wieder der prozessor wichtiger sein als die graka.
AA/AF?
Im übrigen ist das ein High-End-System, wenn es damit nicht flüssig laufen würde...
Spasstiger
2006-03-07, 17:33:47
Wahrscheinlich wird es auf einer X1900 XTX schneller laufen als auf einer 7800 GTX 512 MB wie es in den meisten Spielen ist. Aber wie es nach dem Erscheinen der 7900 GTX aussieht, kann noch niemand genau sagen.
Ich vermute übrigens, dass man mit einer X1900 XTX noch in 1600x1200 mit 4xAA und 16:1 AF auf vollen Details flüssig spielen kann.
reunion
2006-03-07, 17:38:43
Wahrscheinlich wird es auf einer X1900 XTX schneller laufen als auf einer 7800 GTX 512 MB wie es in den meisten Spielen ist. Aber wie es nach dem Erscheinen der 7900 GTX aussieht, kann noch niemand genau sagen.
"Wichtige Leute" wie Entwickler haben längst einen G71. Und wenn die hier eine 7900GTX hinter der X1800XT PE einordnen, dann kommt das sicher nicht von ungefähr.
Im Elder-Scrolls-Forum gibts ein nettes, offizielles FAQ über die Hardwareanforderungen:
http://www.elderscrolls.com/forums/index.php?showtopic=250534
von FEAR auf oblivion zu schließen halte ich für verdammt gewagt. meines wissens benutzt oblivion keine stenci-shadows, welche bei fear ein großteil des rechenaufwandes ausmachen.
Jo vor allem halte ich es für verdammt unwahrscheinlich dass eine 7900GTX irgendwo hinter einer X1800XT liegen sollte.
Spasstiger
2006-03-07, 18:08:03
Bei den Grafikkartenempfehlungen beißt sich noch mehr:
$582US: Radeon X1900XTX, PCI-e with 512MB video RAM - This is unquestionably the most powerful card in existance, and will remain so until the next generation of cards arrives, which will be after the release of Oblivion. It handles pixel shaders far better than any GeForce card, and can handily defeat a GeForce 7800GTX SLi setup in F.E.A.R.. Oblivion is a shader-intensive game as well, so you should expect close to the same thing.
Ok, soll wohl sehr shaderlastig werden, auch wenn ich das nicht ganz glaube. Der Vergleich mit 7800 GTX SLI hinkt etwas, weil die minimalen Frameraten in Fear mit SLI nachweislich höher sind als mit einer X1900 XT/X.
$120US: Radeon 9800pro, AGP with 128MB video RAM - This card is a little outdated now, but in performance, it can hold its own against the GeForce 6600GT. However, it has no SM 3.0 support.
Nanu? Eine 6600 GT hat doch einiges mehr an Shaderpower als die 9800 Pro.
$149US: Radeon X1600pro, AGP with 256MB video RAM - Although notably more pricy than the 6600GT, it does offer better SM 3.0 support, as well as having 256MB video RAM.
Inwiefern bietet die X1600 Pro besseren SM3.0-Support als die 6600 GT? :|
$119US: GeForce 6600GT, PCI-e with 128MB video RAM -[...] (the X1600pro or X800 would be a much better choice by now in this range)
Wieso sollte eine X1600 Pro die weit bessere Wahl darstellen als die 6600 GT?
Das sind mit Sicherheit keine offiziellen Angaben.
Wieso sollte eine X1600 Pro die weit bessere Wahl darstellen als die 6600 GT?
Das sind mit Sicherheit keine offiziellen Angaben.
Wegen ihrer besserer Architektur?;)Anscheinend läuft es auf Ati Karten besser was ich begrüsse weil ich mir nämlich bald ne X1900 XT kaufen will.:cool:
Jo vor allem halte ich es für verdammt unwahrscheinlich dass eine 7900GTX irgendwo hinter einer X1800XT liegen sollte.
Wieso nicht ?In manchen games ist eine X1800 XT gleichauf mit einer 7800 512 MB GTX und die 7900 wird kaum schneller sein.;)
Spasstiger
2006-03-07, 18:15:01
Wegen ihrer besserer Architektur?;)Anscheinend läuft es auf Ati Karten besser was ich begrüsse weil ich mir nämlich bald ne X1900 XT kaufen will.:cool:
Selbst in Ausnahmefällen ist die X1600 Pro nur minimal schneller als die 6600 GT. Von einer weit besseren Wahl kann keine Rede sein. Meistens ist die X1600 Pro ein Stück langsamer als die 6600 GT.
Selbst wenn Oblivion das Über-ATI-Spiel werden sollte, kann eine X1600 Pro nicht weit besser sein als eine 6600 GT.
Und eine 9800 Pro kann wirklich nur in absoluten Ausnahmefällen mit der 6600 GT mithalten, sogar mit aktiviertem AA+AF.
Selbst in Ausnahmefällen ist die X1600 Pro nur minimal schneller als die 6600 GT. Von einer weit besseren Wahl kann keine Rede sein. Meistens ist die X1600 Pro ein Stück langsamer als die 6600 GT.
Kann schon sein aber bei Shaderintensiven Spielen oder besser gesagt bei neueren Spielen performt eine X1600 PRO besser.^^
Spasstiger
2006-03-07, 18:19:28
Kann schon sein aber bei Shaderintensiven Spielen oder besser gesagt bei neueren Spielen performt eine X1600 PRO besser.^^
Das wird stark überbewertet. Der X1600 Pro mangelt es gewaltig an Pixel- und Texelfüllrate gegenüber der 6600 GT und Füllrate ist nun mal nach wie vor das A und O.
Die Shaderleistung der X1600 Pro ist dabei nicht arg viel höher als die der 6600 GT. Nur in absoluten Ausnahmefällen gewinnt die Shaderleistung soviel an Gewicht gegenüber der Füllrate, dass die X1600 Pro als Sieger dasteht.
Das wird stark überbewertet. Der X1600 Pro mangelt es gewaltig an Pixel- und Texelfüllrate gegenüber der 6600 GT und Füllrate ist nun mal nach wie vor das A und O.
Die Shaderleistung der X1600 Pro ist dabei nicht arg viel höher als die der 6600 GT. Nur in absoluten Ausnahmefällen gewinnt die Shaderleistung soviel an Gewicht gegenüber der Füllrate, dass die X1600 Pro als Sieger dasteht.
Ja mit ihren 4 Pixelpipelines ist die X1600 Pro nicht wirklich ein Monstrum.^^Aber egal das game wird auf einer X1900 XT bestimmt ziemlich rocken wenn die entwickler schon sagen das die X1900 die beste Wahl für das Spiel ist.^^
Inwiefern bietet die X1600 Pro besseren SM3.0-Support als die 6600 GT? :|
Wieso sollte eine X1600 Pro die weit bessere Wahl darstellen als die 6600 GT?
Das sind mit Sicherheit keine offiziellen Angaben.
Vielleicht bessere HDR Performance?
Spasstiger
2006-03-07, 18:26:46
Ja mit ihren 4 Pixelpipelines ist die X1600 Pro nicht wirklich ein Monstrum.^^Aber egal das game wird auf einer X1900 XT bestimmt ziemlich rocken wenn die entwickler schon sagen das die X1900 die beste Wahl für das Spiel ist.^^
Dass es mit der X1900 XT super laufen wird, bezweifle ich auch nicht. Nur ich bezweifle, dass die Angaben in diesem Forum wirklich von Entwicklerseite kommen und wenn dann sind das nur grobe Schätzungen, die irgendein Mitarbeiter anhand der Specs vorgenommen hat. Mir erscheinen die Angaben in diesem Forum sogar ein wenig wie ATI-Gehype, aber das will ich dem Entwickler mal nicht unterstellen.
Quad-SLI wird übrigens am meisten rocken, denn dann sollte sogar ein vierfacher SSAA-Anteil drin sein. ;)
Beast-Man
2006-03-07, 18:29:07
verstehe ich das richtig und das spiel soll selbst mit ner 9800 pro noch ganz gut laufen wenn der rest stimmt?
Dass es mit der X1900 XT super laufen wird, bezweifle ich auch nicht. Nur ich bezweifle, dass die Angaben in diesem Forum wirklich von Entwicklerseite kommen und wenn dann sind das nur grobe Schätzungen, die irgendein Mitarbeiter anhand der Specs vorgenommen hat. Mir erscheinen die Angaben in diesem Forum sogar ein wenig wie ATI-Gehype, aber das will ich dem Entwickler mal nicht unterstellen.
Quad-SLI wird übrigens am meisten rocken, denn dann sollte sogar ein vierfacher SSAA-Anteil drin sein. ;)
QUAD SLI :love:aber zu teuer für mich.^^Ist das game eigentlich ein Nvidia get in the game oder Ati the way is meant to be played(da hab ich wohl was vertauscht gg)=?
sklave_gottes
2006-03-07, 18:30:58
Der X1600 Pro mangelt es gewaltig an Pixel- und Texelfüllrate gegenüber der 6600 GT und Füllrate ist nun mal nach wie vor das A und O.
Pixelfillrate haben beide gleich hoch.
500mhz x 4 ROPs (gilt fü die 6600gt und die x1600pro)
Bei der Texelfillrate hast du natürlich recht. 2000 MTexel/sec für die pro das doppelte für die gt.
Die Shaderleistung der X1600 Pro ist dabei nicht arg viel höher als die der 6600 GT. Nur in absoluten Ausnahmefällen gewinnt die Shaderleistung soviel an Gewicht gegenüber der Füllrate, dass die X1600 Pro als Sieger dasteht.
bei FEAR hat die 1600pro gut 25% mehr min FPS als die 6600gt.
Ausserdem gibt es noch eine 1600pro von pailt für 95€ mit 575mhz gpu und 500mhz(DDR 1000) ram takt.
Diese sollte praktisch fast so schnell sein wie eine 6600gt
SKYNET
2006-03-07, 18:32:59
Ein übertakteter FX55 entspricht mitnichtern einem FX60.
AA/AF?
Im übrigen ist das ein High-End-System, wenn es damit nicht flüssig laufen würde...
multi hoch, und schon entspricht er ihn...
J0ph33
2006-03-07, 18:36:18
ein FX60 ist DualCore...
Ronny145
2006-03-07, 18:37:47
multi hoch, und schon entspricht er ihn...
Aha, ich dachte der FX 60 wäre ein DualCore.
edit: zu spät
Spasstiger
2006-03-07, 18:40:03
Pixelfillrate haben beide gleich hoch.
500mhz x 4 ROPs (gilt fü die 6600gt und die x1600pro)
Oh, stimmt, hab ich grad ganz vergessen, die 6600 GT hat ja nur 4 ROPs.
Trotzdem ist es Unfug zu behaupten, dass die X1600 Pro in irgeneinem Spiel weit besser wäre als die 6600 GT.
Fear gehört da schon zu den Ausnahmespielen.
Pitman
2006-03-07, 18:44:38
Ich warte auch auf detaillierte Angaben zur Hardwareausstattung. Stehe noch vor der Entscheidung meine Ati x800xl gegen eine x1800XT oder 1900XT auszutauschen, möchte aber eigentlich nicht 450 Euro für eine Karte ausgeben. Hoffe daher, dass es auch mit einer X1800XT auf max. Einstellung vernünftig läuft.
Grüße
Pitman
TheGoD
2006-03-07, 18:46:47
€: Sorry, Doppelpost.
TheGoD
2006-03-07, 18:47:07
Vielleicht bessere HDR Performance?
Könnte sein das die neuen ATI's durch den besseren Speichercontroller bei HDR-Rendering in Kombination mit massiven Shadereinsatz vorbeiziehen. Wobei ich bezweifle das Oblivion im HDR-Modus auf ner 1600Pro oder 6600GT wirklich Spaß macht.
Apropos:
On High-Dynamic Range (HDR) and Anti-Aliasing (AA)
HDR will apparently work with all SM2.0 and later cards; (See the quote here, on a SM 2.0 implementation of HDR) but it also appears that a SM 2.0 card may even be REQUIRED to play the game. (see the bottom of this post) Also, as noted in the Beyond3D Interview the game uses a shadow-mapping method instead of stencil shadows like Doom3 and F.E.A.R.; this performs far better, allows for easy, true soft shadowing, and if you have a SM 2.0 extended or SM 3.0 card, can be handled very, very fast.
And yes, FP16 HDR, as used in Oblivion can be done with a SM 2.0 card. This is what's used in RTHDRIBL, one of the best HDR demos to date. And yes, it can be done with multi-sample anti-aliasing. No worries here.
dittohead
2006-03-07, 19:02:31
Ein übertakteter FX55 entspricht mitnichtern einem FX60.
AA/AF?
Im übrigen ist das ein High-End-System, wenn es damit nicht flüssig laufen würde...
ja, daran hatte ich jetzt nicht gedacht, meinte natürlich nur einen einzelnen core mit 2,6ghz. ich wollte auch nur deutlich machen das der prozessor, ab einer bestimmten klasse einer graka, was sicher unter einer 7800gt liegt, wichtiger ist und man schon einen richtig dicken prozz braucht um alles details auf max fahren zu können.
Da es immer noch manche nicht war haben wollen:
Gegenpart zu nvidia 6600gt ist Ati 1300pro und nicht Ati 1600Pro.
http://www.xbitlabs.com/articles/video/display/games-2005_20.html
reunion
2006-03-07, 19:30:59
Nanu? Eine 6600 GT hat doch einiges mehr an Shaderpower als die 9800 Pro.
Aber die 9800pro kann nur SM2, steht doch da. Ergo weniger Rechenaufwand.
Wieso sollte eine X1600 Pro die weit bessere Wahl darstellen als die 6600 GT?
Weil sie bei Oblivion schneller als eine 6600GT ist. Und vorallem ist sie dabei auch noch billiger, hierbei handelt es sich nämlich um einen Kaufempfehlung, aber das hast du ja sicher gelesen.
Selbst in Ausnahmefällen ist die X1600 Pro nur minimal schneller als die 6600 GT. Von einer weit besseren Wahl kann keine Rede sein. Meistens ist die X1600 Pro ein Stück langsamer als die 6600 GT.
Es geht um Oblivion, und um nichts anderes.
Selbst wenn Oblivion das Über-ATI-Spiel werden sollte, kann eine X1600 Pro nicht weit besser sein als eine 6600 GT.
Es steht doch da, "slightly beating out the GeForce 6600GT".
LordDeath
2006-03-07, 19:35:48
also wenn die quotes hier wirklich offiziel sein sollten, würde mich ein ati logo beim starten des spiels nicht wundern *g*
mal gucken, ob diese grafik wirklich die rollenspieltypische cpu limitation wegmachen...
RaumKraehe
2006-03-07, 19:38:27
Ich würde behaupten CPU-Power wird sehr wichtig sein.
Zumindest bring es das bei Morrowind.
reunion
2006-03-07, 19:38:48
Nur ich bezweifle, dass die Angaben in diesem Forum wirklich von Entwicklerseite kommen und wenn dann sind das nur grobe Schätzungen, die irgendein Mitarbeiter anhand der Specs vorgenommen hat.
Es handelt sich hierbei um das offizielle Elder-Scrolls-Forum, der Beitrag wurde von einem Moderator gepostet, und er schreibt, dass es sich hierbei um die offiziellen Specs handelt. Offizieller gehts nicht.
Trotzdem ist es Unfug zu behaupten, dass die X1600 Pro in irgeneinem Spiel weit besser wäre als die 6600 GT.
Fear gehört da schon zu den Ausnahmespielen.
Und Oblivion wird eine weitere Ausnahme, niemad spricht von "irgeneinem Spiel".
Da es immer noch manche nicht war haben wollen:
Gegenpart zu nvidia 6600gt ist Ati 1300pro und nicht Ati 1600Pro.
http://www.xbitlabs.com/articles/video/display/games-2005_20.html
blöd nur dass die 6600GT fast doppelt so schnell ist ;)
Spasstiger
2006-03-07, 19:53:16
Wir werden ja noch früh genug sehen, wer recht hat. Preislich unterscheiden sich X1600 Pro und 6600 GT kaum und ich behaupte, dass auch leistungsmäßig praktisch kein Unterschied zwischen den beiden Karten herrschen wird.
Weiters behaupte ich, dass eine 9800 Pro ganz klar hinter der 6600 GT liegen wird, wenn man gleiche Details fährt (ansonsten wäre so ein Vergleich ja hinrissig), zumal einige Effekte mit SM3 schneller abgearbeitet werden können als mit SM2.
Weiter glaube ich nicht, dass eine Radeon X1900 XT zwei 7800 GTX 512 im SLI schlagen kann in Oblivion, wenn man grafiklimitierte Settings fährt.
Und dass eine Radeon X1800 XT eine GeForce 7900 GTX schlagen wird, glaube ich ebenso wenig.
In diesem FAQ sind noch weitere Dinge unstimmig, z.b. die Prozessor-Performanceabschätzung:
Once you have that information, and have read the Official system specs, you may be a little confused if your processor is not a Pentium 4; they only list "Pentium 4 2.0/3.0 GHz or equivalent." To attempt to alleviate confusion, here is a little guide. Just take out your calculator, and multiply either your AMD processor's "plus" rating, or the speed of your Intel processor in MHz, by the following numbers. The result would be what you should compare to the official system specs.
* Celeron - 0.50
* Celeron D - 0.80
* Sempron - 0.85
* Pentium 4 (no hyper-threading) - 0.90
* AthlonXP - 0.95
* Pentium 4 (with hyper-threading) - 1.00
* Pentium 4 Extreme Edition - 1.10
* Athlon64 - 1.15
* Celerom M - 1.75
* Pentium M - 1.85
* Intel Core Solo - 1.85
* Athlon64 FX - 1.85 (clock speed, see below for exact numbers)
FX-51: ~4.0GHz (equal to an AMD 3700+, actually runs at 2.2GHz like the 3700+ San Diego)
FX-53: ~4.4GHz (equal to an AMD 4000+, actually runs at 2.4GHz like the San Diego 4000+)
FX-55: ~4.8GHz (equal to an AMD 4200+, actually runs at 2.6GHz)
FX-57: ~5.2GHz (equal to an AMD 4500+, actually runs at 2.8GHz)
FX-60: Varies (equal to a pair of FX-55s together)
* Pentium D - Special, as much as ~1.80
* AthlonX2 - Special, as much as ~1.80
* Intel Core Duo - Special, as much as ~3.35
Wieso sollte ein Athlon 64 FX soviel effizienter sein als ein normaler Athlon 64 (Faktor 1,85 gegenüber Faktor 1,15). Und wieso sollte der FX sogar effizienter sein als ein X2? Der Faktor beim Core-Duo erscheint mir sowieso völlig überzogen. Genauso wie beim Celeron sehr pauschalisiert wird. Ein Celeron auf P3 Basis ist sicherlich effizienter als ein P4.
Ich könnte diesen offiziellen Angaben ja gerne trauen, ich tue es nicht.
EDIT: Jetzt verstehe ich, wie die auf diese komischen Faktoren kommen. Die verwenden bei den FXen die reale Taktfrequenz, bei den normalen A64 und den X2 aber das Rating. Damit sind meine Anschuldigungen natürlich entkräftet. :)
Aber wird das Spiel wirklich derart massiv von Dual-Core profitieren, dass ein Faktor 1,8 gegenüber 1,15 gerechtfertigt ist, wo die A64 X2 doch schon ein höheres Rating aufweisen?
Das hieße ja, dass ein Athlon 64 X2 3800+ um 86% schneller wäre als sein Single-Core-Kollege Athlon 64 3200+.
reunion
2006-03-07, 20:04:39
Preislich unterscheiden sich X1600 Pro und 6600 GT kaum und ich behaupte, dass auch leistungsmäßig praktisch kein Unterschied zwischen den beiden Karten herrschen wird.
Genau so steht es auch drin, die X1600pro soll slightly (=minimalst) schneller sein. Wo ist das Problem?
Weiters behaupte ich, dass eine 9800 Pro ganz klar hinter der 6600 GT liegen wird, wenn man gleiche Details fährt (ansonsten wäre so ein Vergleich ja hinrissig), zumal einige Effekte mit SM3 schneller abgearbeitet werden können als mit SM2.
Vielleicht werden einige Effekte mit einer SM2-Karte gar nicht dargestellt?
Er spricht nur von schneller, betont allerdings, dass die Karte kein SM3 kann.
Weiter glaube ich nicht, dass eine Radeon X1900 XT zwei 7800 GTX 512 im SLI schlagen kann in Oblivion, wenn man grafiklimitierte Settings fährt.
Es spricht von der XTX und der GTX256, außerdem bezieht sich das auf FEAR. Du reimst dir hier nur offensichtlich bewusst Dinge zusammen, um das ganze ins lächerlich zu ziehen.
Und dass eine Radeon X1800 XT eine GeForce 7900 GTX schlagen wird, glaube ich ebenso wenig.
Er schreibt ausdrücklich X1800XT PE, die "normale" X1800XT reiht sich hinter der 7900GTX ein. Aber das hast du ja sicherlich auch selber gesehen.
Aber die 9800pro kann nur SM2, steht doch da. Ergo weniger Rechenaufwand.
so ein blödsinn, der gleiche shader unter SM3 bedeutet nicht mehr aufwand, im gegenteil er kann sogar mit weniger realisierbar sein.
Spasstiger
2006-03-07, 20:26:52
Genau so steht es auch drin, die X1600pro soll slightly (=minimalst) schneller sein. Wo ist das Problem?
$119US: GeForce 6600GT, PCI-e with 128MB video RAM -[...] (the X1600pro or X800 would be a much better choice by now in this range)
"Would be a much better choice" klingt für mich anders als "slightly". Bei der X800 stimme ich ja zu, aber die Radeon X1600 Pro sehe ich einfach nicht auf einer Stufe mit der X800. Zumal ja offenbar die SM3-Effekte sogar anspruchsvoller sein sollen.
Vielleicht werden einige Effekte mit einer SM2-Karte gar nicht dargestellt?
Er spricht nur von schneller, betont allerdings, dass die Karte kein SM3 kann.
Muss man wohl so interpretieren.
Es spricht von der XTX und der GTX256, außerdem bezieht sich das auf FEAR. Du reimst dir hier nur offensichtlich bewusst Dinge zusammen, um das ganze ins lächerlich zu ziehen.
$582US: Radeon X1900XTX, PCI-e with 512MB video RAM - This is unquestionably the most powerful card in existance, and will remain so until the next generation of cards arrives, which will be after the release of Oblivion. It handles pixel shaders far better than any GeForce card, and can handily defeat a GeForce 7800GTX SLi setup in F.E.A.R.. Oblivion is a shader-intensive game as well, so you should expect close to the same thing.
Ok, man kann vermuten, dass sie nur zwei 7800 GTX 256 MB im SLI meinen, weil dort nirgendwo die Rede von der 512 MB Version ist. Und du hast natürlich auch recht, dass sie sich auf Fear beziehen. Aber er schreibt auch "you should expect close to the same thing". D.h. man sollte erwarten, dass auch in Oblivion eine Radeon X1900 XTX zwei GeForce 7800 GTX schlagen werden. Sofern er mit 7800 GTX die 256 MB Version meint, halte ich das sogar für glaubhaft.
Er schreibt ausdrücklich X1800XT PE, die "normale" X1800XT reiht sich hinter der 7900GTX ein. Aber das hast du ja sicherlich auch selber gesehen.
Ok, da hast du recht. Wobei es offiziell eigentlich gar keine Radeon X1800 XT PE gibt. Allerdings ist die eigentliche XT im Ranking ja auch mit aufgeführt. Somit bleibt nur die Frage, was sie mit dem PE meinen, also welche Takterhöhungen gegenüber der normalen Version.
Dass Dual-Core-Prozessoren in Oblivion derart viel schneller sein sollen (86%), macht dieses FAQ für mich trotzdem unglaubwürdig.
Es war aber nicht meine Absicht, dieses FAQ ins Lächerliche zu ziehen, ich wollte nur einige Behauptungen, die in meinen Augen nicht stimmig sind, zurecht rücken.
reunion
2006-03-07, 22:27:35
so ein blödsinn, der gleiche shader unter SM3 bedeutet nicht mehr aufwand, im gegenteil er kann sogar mit weniger realisierbar sein.
Das weiß ich auch, nur wer sagt, dass der SM2-Shader die gleiche BQ liefert? Für mich hört sich das jedenfalls nicht so an.
"Would be a much better choice" klingt für mich anders als "slightly". Bei der X800 stimme ich ja zu, aber die Radeon X1600 Pro sehe ich einfach nicht auf einer Stufe mit der X800. Zumal ja offenbar die SM3-Effekte sogar anspruchsvoller sein sollen.
Achso, du schaust bei AGP, ich habe mich auf PCIe bezogen:
$117US: Radeon X1600pro, PCI-e with 256MB video RAM - This card arguably fits into the high-end, slightly beating out the GeForce 6600GT, offering better features, and 256MB of video RAM.
Vielleicht limitiert bei der 6600GT auch der VRAM, wer weiß. Jedenfalls betont er diesen fast überall.
Ok, da hast du recht. Wobei es offiziell eigentlich gar keine Radeon X1800 XT PE gibt. Allerdings ist die eigentliche XT im Ranking ja auch mit aufgeführt. Somit bleibt nur die Frage, was sie mit dem PE meinen, also welche Takterhöhungen gegenüber der normalen Version.
Die "offizielle" PE taktet mit 700/800.
Und Oblivion wird eine weitere Ausnahme, niemad spricht von "irgeneinem Spiel".Ich weiß nicht die Screenshots sehen irgendwie nicht danach aus imho.
Evtl. gibts noch spherical harmonic lighting für Tag/Nachtwechsel - das sieht man auf Screenshots nicht. Aber das sind auch nur paar DOT3 mehr pro Pixel. Dynamisches Licht ist das auf keinen Fall und was soll sonst viel Shaderleistung ziehen bei dem Gestrüpp? Das sieht einfach verdammt nach Füllrate aus...
Das ist meine Einschätzung völlig unabhängig davon was ich präferiere o.ä.
Evtl. schlägt ja sogar bei dem Spiel sogar mal die Vertexshader-Leistung durch bei den Polygonmengen? Wer weiß...
sklave_gottes
2006-03-07, 22:33:26
Gegenpart zu nvidia 6600gt ist Ati 1300pro und nicht Ati 1600Pro.
Was wo gegenpart ist wird denke ich am preis festgemacht woran denn sonnst ?
Und die x1600pro gibt es ab 95€,die 6600gt ab 100€
somit ist der gegenpart von der 6600gt die x1600pro sowie die x800 die auch ab 95€ lieferbar ist!
Was wo gegenpart ist wird denke ich am preis festgemacht woran denn sonnst ?!So sehe ich das auch.
00ich
2006-03-07, 23:33:58
Dass Dual-Core-Prozessoren in Oblivion derart viel schneller sein sollen (86%), macht dieses FAQ für mich trotzdem unglaubwürdig.
Warum? Wenn es auf der Xbox360 ordentlich laufen soll muss es doch massiv parallel angelegt sein.
$120US: Radeon 9800pro, AGP with 128MB video RAM - This card is a little outdated now, but in performance, it can hold its own against the GeForce 6600GT. However, it has no SM 3.0 support.
Na da werden die Lästermäuler "Mit deiner X800 kannste nix mehr anfangen wenn Oblivion rauskommt" wohl verstummen ;)
Die Bemerkung mit SM3 könnte vielleicht darauf deuten das ein paar Schatten (z.b.) etwas weniger detailiert sind ähnlich AoE3.
HDR will apparently work with all SM2.0 and later cards; (See the quote here, on a SM 2.0 implementation of HDR) but it also appears that a SM 2.0 card may even be REQUIRED to play the game. (see the bottom of this post) Also, as noted in the Beyond3D Interview the game uses a shadow-mapping method instead of stencil shadows like Doom3 and F.E.A.R.; this performs far better, allows for easy, true soft shadowing, and if you have a SM 2.0 extended or SM 3.0 card, can be handled very, very fast.
And yes, FP16 HDR, as used in Oblivion can be done with a SM 2.0 card. This is what's used in RTHDRIBL, one of the best HDR demos to date. And yes, it can be done with multi-sample anti-aliasing. No worries here.
Na also, auch HDR kann man mit einer X800 geniessen... und da das eine SM2.0 extendet Karte ist sogar sehr sehr schnell. Übrigens ein eindeutiger Fingerzeig das Oblivion einen SM2.x "pfad" bzw. Profil anbietet.
Ich bin guter Dinge das es darauf optisch anspruchsvoll und vorallem sehr schnell laufen wird. X850XT vermutlich schneller als ne 7800GT ^^ (meine Prognose anhand der Zitate). Wenn die 9800Pro mit einer 6600GT mithalten kann zieht die X850XT vermutlich ne 7800GT ab.
Spasstiger
2006-03-08, 00:15:01
Warum? Wenn es auf der Xbox360 ordentlich laufen soll muss es doch massiv parallel angelegt sein.
Hm, ok, das ist ein Argument. Bin mal gespannt, ob Dual-Core wirklich so viel bringt. Wenn ja, dann wäre Oblivion das erste Spiel, was Dual-Cores in Spielerechnern rechtfertigt bzw. sogar Preis-Leistungstechnisch die bessere Wahl werden lässt.
Die Bemerkung mit SM3 könnte vielleicht darauf deuten das ein paar Schatten (z.b.) etwas weniger detailiert sind ähnlich AoE3.
Der kluge Odal wieder - "ein paar Schatten ... weniger detailliert" bedeutet für Leute ohne ATI-Tattoo : "gar keine Schatten auf dem Wasser" in AoE3 mit allen Radeon-Karten. Bitte korrigieren falls aktuelle Beta-Catalysts / Patches daran was geändert haben.
Aber in Fable war und ist es ja auch so, dass volle Schattendetails nur mit SM3-Karten funktionieren, dass könnte hier auch der Fall sein.
Aber vor nicht allzu langer Zeit gab es doch ein In-Game-Video mit einer X1900XTX (dass ohne AA/AF auch nicht richtig flüssig lief), was darauf hinweist, dass ATI wohl Bethesda's Liebling sein könnte und ATI-Karten generell etwas besser performen als ihre nVidia-Pendants. Wobei ich mir sehr sicher bin, dass das Game auch mit GeForce6/7-Karten ordentlich laufen wird.
Was mir dagegen richtig Sorgen bereitet, ist die angebliche Überlegenheit von Dualcore-CPUs. Ein FX-60 = 2xFX-55 ??? OMG !!!
svenw
2006-03-08, 09:05:59
Ich könnte mir vorstellen, das ne Menge leute eine böse Überraschung erleben werden. Nach den Werten von Spasstiger läßt sich selbst bei der Grafikpracht auch eine starke CPU Komponente vermuten. Das die Dual Prozessoren so gut abschneiden, läßt ein vernünftiges Multithreadkonzept vermuten. Ich vermute das Oblivion eine ausgewogenes System braucht mit hoher CPU und GPU Leistung. Ist nur eines von beiden hoch, könnte man Probleme bekommen, die andere Komponente voll auszunutzen (wobei man bei einer High End Graka natürlich x Filteroptionen zuschalten kann)
Mr.Magic
2006-03-08, 09:41:12
...läßt sich selbst bei der Grafikpracht auch eine starke CPU Komponente vermuten...
KI+Physik+Scripts
Marc-
2006-03-08, 09:53:03
multi hoch, und schon entspricht er ihn...
ja? ein single core prozzi entspricht durch erhöhung des multis einem dual core prozzi? Die bios einstellung der multis zeigst mir aber nochmal bitte mit der du bei einer single core cpu den offensichtlich dann ja versteckten zweiten core freischaltest... aua...
Thanatos
2006-03-08, 10:21:32
ja? ein single core prozzi entspricht durch erhöhung des multis einem dual core prozzi? Die bios einstellung der multis zeigst mir aber nochmal bitte mit der du bei einer single core cpu den offensichtlich dann ja versteckten zweiten core freischaltest... aua...
:ulol:
bei aller Grafikpracht erhoffe ich mir aber mal, dass sie im vergleich zu Morrowind mal etwas mehr abwechslung reinbringen. Die Bücher zu Lesen war ja echt klasse, aber mich hat es sehr gestört, dass die ganzen Charaktere im Spiel eigentlich immer das gleiche zu einem Thema gesagt haben, da könnte man schon deutlich nachbessern..........
Aber das mit den Dualcore CPUs sieht aber schon echt übelst aus........:O
Und ich hab mir natürlich erst nen 3700+ SD gekauft :usad:
:ulol:
bei aller Grafikpracht erhoffe ich mir aber mal, dass sie im vergleich zu Morrowind mal etwas mehr abwechslung reinbringen. Die Bücher zu Lesen war ja echt klasse, aber mich hat es sehr gestört, dass die ganzen Charaktere im Spiel eigentlich immer das gleiche zu einem Thema gesagt haben, da könnte man schon deutlich nachbessern..........
Aber das mit den Dualcore CPUs sieht aber schon echt übelst aus........:O
Und ich hab mir natürlich erst nen 3700+ SD gekauft :usad:
... erstmal abwarten. Einen Leistungszuwachs von 85% bei Dual-Core ggü. Single-Core gibt es praktisch nicht einmal im Idealfall. Außerdem wird ja ein schlapper P4 3GHz Single-Core für volle Details empfohlen, also take it easy!
(del676)
2006-03-08, 10:28:37
herrlich dass gerade cpu limitierte games endlich von dualcore profitieren
bei gtr/gtl wärs auch von vorteil
statt 20fps dann ~38 wären doch was feines
Der kluge Odal wieder - "ein paar Schatten ... weniger detailliert" bedeutet für Leute ohne ATI-Tattoo : "gar keine Schatten auf dem Wasser" in AoE3 mit allen Radeon-Karten.
Meinst du diese garkein Schatten?
http://666kb.com/i/119bspccdv401.jpg
Aber in Fable war und ist es ja auch so, dass volle Schattendetails nur mit SM3-Karten funktionieren, dass könnte hier auch der Fall sein.
Ganz genau, in Fable sah ich aber keinen Unterschied :rolleyes:
Wobei ich mir sehr sicher bin, dass das Game auch mit GeForce6/7-Karten ordentlich laufen wird.
Zumindest mit GF7 muss es flüssig laufen sonst haben die Mist gebaut. Bei GF6 muss man vielleicht auf etwas AA oder ein paar Details verzichten.
Was mir dagegen richtig Sorgen bereitet, ist die angebliche Überlegenheit von Dualcore-CPUs. Ein FX-60 = 2xFX-55 ??? OMG !!!
Naja Morrowind war ja auch ziemlich CPU geil da kann ich mir schon vorstellen das das Ding ein CPU Fresser wird. Ich hoffe mein Winni reicht dafür noch.
Jup. Die Schatten sind auf SM3-Radeons nicht zu sehen. Ist aber egal.
Wenn man dem "offiziellen" Thread im elderscrolls-Forum glauben darf, so ist eine 6800GT/Ultra ebenso eine gute Wahl für Oblivion wie eine X800/850 Pro/XT/XL. Und womöglich wird Oblivion das erste Spiel, in dem ein Dual-Core-Prozzi wirklich Sinn macht. Was aber noch zu beweisen wäre ...
Meinst du diese garkein Schatten?
http://666kb.com/i/119b4emm0qsch.jpg
Nein, keine Geländeschatten auf dem SM3-Wasser. Mit SM2 geht's hingegen.
(Bin aber nicht der Gast von oben)
Q
achso, naja ne SM3 Karte hab ich ja nicht da kann ich das nicht nachprüfen. Bei mir werfen die Bäume jedenfalls Schatten aufs wasser. Habe leider keinen Spielstand mit Schiffen, und jetzt keine Lust das kack Game solange zu spielen (da spiel ich lieber Civ4 ^^), sonst würde ich das dort auch nochmal zeigen.
HDR will apparently work with all SM2.0 and later cards; (See the quote here, on a SM 2.0 implementation of HDR) but it also appears that a SM 2.0 card may even be REQUIRED to play the game. (see the bottom of this post) Also, as noted in the Beyond3D Interview the game uses a shadow-mapping method instead of stencil shadows like Doom3 and F.E.A.R.; this performs far better, allows for easy, true soft shadowing, and if you have a SM 2.0 extended or SM 3.0 card, can be handled very, very fast.
And yes, FP16 HDR, as used in Oblivion can be done with a SM 2.0 card. This is what's used in RTHDRIBL, one of the best HDR demos to date. And yes, it can be done with multi-sample anti-aliasing. No worries here.RTHDRIBL funktioniert aber nicht mit Multisampling auf ner X800 wenn mich nicht alles täuscht.
reunion
2006-03-08, 11:32:57
Auf meiner 9700pro geht das jedenfalls. :)
00ich
2006-03-08, 11:41:18
herrlich dass gerade cpu limitierte games endlich von dualcore profitieren
bei gtr/gtl wärs auch von vorteil
statt 20fps dann ~38 wären doch was feines
Na dann kannst du ja mal auf eine Xbox360 oder PS3 Version hoffen :)
Auf meiner 9700pro geht das jedenfalls. :)
RTHDRIBL macht von sich aus aber kein herkömmliches MSAA, soweit ich weiß.
Q
robbitop
2006-03-08, 11:49:39
RTHDRIBL macht von sich aus aber kein herkömmliches MSAA, soweit ich weiß.
Q
Und außerdem ist das auch kein "echtes" FP16 HDR iirc.
deekey777
2006-03-08, 11:59:10
Und außerdem ist das auch kein "echtes" FP16 HDR iirc.
Was ist echtes FP16-HDRR? :)
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2501669#post2501669
Wenn FP-Rendertargets verwendet werden kann kein MSAA funktionieren.
robbitop
2006-03-08, 13:12:49
Was ist echtes FP16-HDRR? :)
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2501669#post2501669
Wenn FP Rendertargets verwendet werden.
Wenn FP Rendertargets verwendet werden.
Kann es sein dass in dem Spiel dynamisches Branching im Shader verwendet wird? Dann wäre ja klar dass ATI vorn ist.
Kann es sein dass in dem Spiel dynamisches Branching im Shader verwendet wird? Dann wäre ja klar dass ATI vorn ist.
Hoffentlich wird das nicht wieder so eine Nummer wie bei HL2, wo bewusst die Schwächen der GeForce FX genutzt wurden, um ATI-Karten besser aussehen zu lassen. Das die sowas überhaupt nötig haben ... bei neutralen Games sieht ATI doch auch nur sehr selten schlecht gegen die grünen aus. Es lebe der Hype!
robbitop
2006-03-08, 15:37:59
Kann es sein dass in dem Spiel dynamisches Branching im Shader verwendet wird? Dann wäre ja klar dass ATI vorn ist.
Glaube ich nicht. Müßte man jedoch untersuchen.
Die aktuelle ATI Generation hat durchaus noch andere Dinge, die ihnen zu Geschwindigkeitsvorteilen gereichen:
- 96 Vec4 Units (also die 48x MADDs und die 48x miniALUs mit ADD4), welche entkoppelt von den TMUs laufen
-die Texturkoordinaten werden außerhalb der ALUs gefetcht
-ein bessere Granularität im Speichercontroller
-eine höhere Assoziativität im Cachesubsystem
Jo vor allem halte ich es für verdammt unwahrscheinlich dass eine 7900GTX irgendwo hinter einer X1800XT liegen sollte.
Warum nicht? Meinst du, sie haben das dynamische Branching um, sagen wir, Faktor 10 beschleunigt?
@robbitop:
Die letzten beiden Punkte halte ich für allgemein überbewertet. Ein toller Speichercontroller ist zwar gut und wichtig, ob das Ringbus-Dings da nun so der Reißer ist, wage ich zu bezweifeln.
Q
Hoffentlich wird das nicht wieder so eine Nummer wie bei HL2, wo bewusst die Schwächen der GeForce FX genutzt wurden, um ATI-Karten besser aussehen zu lassen. Das die sowas überhaupt nötig haben ... bei neutralen Games sieht ATI doch auch nur sehr selten schlecht gegen die grünen aus. Es lebe der Hype!
Das Marketing arbeitet halt lieber mit doppelt so langen x-farbenen Balken, als welchen, die nur 5% länger sind. Dafür muss man dann wieder die Skala des Benchmarks verändern und das verursacht noch mehr Arbeit. Gerade jetzt zur hektischen CeBIT-Zeit.
Q
robbitop
2006-03-08, 17:01:05
Die letzten beiden Punkte halte ich für allgemein überbewertet. Ein toller Speichercontroller ist zwar gut und wichtig, ob das Ringbus-Dings da nun so der Reißer ist, wage ich zu bezweifeln.
Q
Ich habe sie ja extra in ihrer Gewichtung nicht bewertet. ;)
Aber ein wenig Speed bringen sie dennoch.
dilated
2006-03-08, 18:20:42
Hoffentlich wird das nicht wieder so eine Nummer wie bei HL2, wo bewusst die Schwächen der GeForce FX genutzt wurden, um ATI-Karten besser aussehen zu lassen. Das die sowas überhaupt nötig haben ... bei neutralen Games sieht ATI doch auch nur sehr selten schlecht gegen die grünen aus. Es lebe der Hype!
naja die fx war ist und bleibt schwach (bei shaderlastigen sachen....also fast alles nach hl2)
Spasstiger
2006-03-08, 19:08:46
Hoffentlich wird das nicht wieder so eine Nummer wie bei HL2, wo bewusst die Schwächen der GeForce FX genutzt wurden, um ATI-Karten besser aussehen zu lassen.
Genau, man hat die GeForce FX nur in den DX8.1-Modus gezwungen, um ATI besser dastehen zu lassen .... Hirn einschalten, Junge!
TheCounter
2006-03-08, 19:09:43
And yes, FP16 HDR, as used in Oblivion can be done with a SM 2.0 card. This is what's used in RTHDRIBL, one of the best HDR demos to date. And yes, it can be done with multi-sample anti-aliasing. No worries here.
Kommt das von Bethesda selbst? Wohl eher nicht ;)
On PC, HDR and AA are not supported simultaneously at all, on any video chipset, because of the way we do HDR. If you absolutely need antialiasing (and the HDR effect looks great without it, frankly), you can switch to the bloom effect.
http://www.elderscrolls.com/forums/index.php?showtopic=255119&st=100#
deekey777
2006-03-09, 00:36:36
Das wollte ich gerade auch posten.
Radeonator
2006-03-09, 06:40:44
www.biased&paidByAti.de
Sry, das ist genau das, was offensichtlich ist. Da wird ATi durchweg durch den Klee gelobt und nVidia schlecht darstehen gelassen. Ich weiss nicht wieviel dieser Developer für die gequirlte Fanboy kacke bekommen hat, hoffe aber, das wenigsten die anderen sich aufs Programmieren in bezug auf API Optimierung und nicht HW vs HW proggen. :rolleyes:
!!!BITTE INS SPEKULATIONSFORUM VERSCHIEBEN!!!!
www.biased&paidByAti.de
Sry, das ist genau das, was offensichtlich ist. Da wird ATi durchweg durch den Klee gelobt und nVidia schlecht darstehen gelassen. Ich weiss nicht wieviel dieser Developer für die gequirlte Fanboy kacke bekommen hat, hoffe aber, das wenigsten die anderen sich aufs Programmieren in bezug auf API Optimierung und nicht HW vs HW proggen. :rolleyes:
!!!BITTE INS SPEKULATIONSFORUM VERSCHIEBEN!!!!
Was machst du denn hier für ein Wind.Es heisst doch immer das die X1900 Serie ihr wahres potenzial bei Spiele @2006 erst wirklich zeigen kann.Die entwickler hatten bestimmt schon eine 7800 512 MB GTX und ne X1900 XTX,die Ati scheint wohl besser zu laufen sollte man deswegen jetzt die Karte auch nicht als toll abstempeln?
Mr.Magic
2006-03-09, 10:10:13
Das irgendeine Karte bei Oblivion tatsächlich bersser läuft glaube ich kaum. Das Spiel ist dermaßen CPU-limitiert...
Ausserdem kann ATi doch immer noch keine echtes HDRR, oder? Bevor wieder die blöde Frage kommt, gemeint ist HDR nach dem etablierten Industriestandard OpenEXR.
Undertaker
2006-03-09, 10:16:22
Das irgendeine Karte bei Oblivion tatsächlich bersser läuft glaube ich kaum. Das Spiel ist dermaßen CPU-limitiert...
woher hast du diese information?
Ausserdem kann ATi doch immer noch keine echtes HDRR, oder? Bevor wieder die blöde Frage kommt, gemeint ist HDR nach dem etablierten Industriestandard OpenEXR.
Dann müsstest du aber in einem Atemzug erwähnen das NV immer noch kein echtes AA hat, bzw. sogar garkein AA :D
svenw
2006-03-09, 10:26:28
da wird ATi durchweg durch den Klee gelobt und nVidia schlecht darstehen gelassen. Ich weiss nicht wieviel dieser Developer für die gequirlte Fanboy kacke bekommen hat, hoffe aber, das wenigsten die anderen sich aufs Programmieren in bezug auf API Optimierung und nicht HW vs HW proggen. :rolleyes:
Wie steht es mit Doom/Quake? DA gehen die ATI Karten gnadenlos unter. Jemandem der hauptsächlich Doom und Quake spielt zu einer ATI zu raten wäre eine Frechheit. Manche Spiele liegen den Karten eines Herstellers andere denen eines anderen. ATI hat momentan alles richtig gemacht und erntet nun die Früchte.
Ausserdem kann ATi doch immer noch keine echtes HDRR, oder? Bevor wieder die blöde Frage kommt, gemeint ist HDR nach dem etablierten Industriestandard OpenEXR.
as brauchte IMHO nicht über umwege bei rthdribl realisiert werden, da der "finale" Rendervorgang ja in einen ganz normalen RGBA8888-Framebuffer lief.
AFAIR kann man bei rthdribl auch MSAA per CP forcen.
Ich schätze das der r580/r520 Bethesda einfach zu spät zur Verfügung stand um noch HDR+MSAA zu implementieren.
Vielleicht wirds ja mal per Patch nachgeliefert, da es IMHO keine zu großen umstände machen dürfte, dies für r5x0-Karte aktivierbar zu machen.
(Vielleicht liefert ja auch ATI in irgendeinem Treiber dafür die Möglichkeit nach...das man es also von aussen Forcen kann.)
^^
(del676)
2006-03-09, 10:32:22
Wie steht es mit Doom/Quake? DA gehen die ATI Karten gnadenlos unter. Jemandem der hauptsächlich Doom und Quake spielt zu einer ATI zu raten wäre eine Frechheit. Manche Spiele liegen den Karten eines Herstellers andere denen eines anderen. ATI hat momentan alles richtig gemacht und erntet nun die Früchte.
ja, wirklich ... die gehen da gnadenlos unter
http://www.hardspell.com/pic/2006/1/24/ca927b29-f273-44dd-8720-9f3139d861e9.gif
http://img5.pcpop.com/ArticleImages/0x0/0/231/000231693.jpg
:rolleyes:
Crushinator
2006-03-09, 10:32:45
Spekuliere, Spekuliere. Trinke dabei viele Biere. (y)
*Ins Spekuforum verschiebt*
Wie steht es mit Doom/Quake? DA gehen die ATI Karten gnadenlos unter. Jemandem der hauptsächlich Doom und Quake spielt zu einer ATI zu raten wäre eine Frechheit. Manche Spiele liegen den Karten eines Herstellers andere denen eines anderen. ATI hat momentan alles richtig gemacht und erntet nun die Früchte.
Das würde ich sooo aber nicht unterstreichen. Quake4 (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7300_gs/17/#abschnitt_quake_4) und Doom3 (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7300_gs/12/#abschnitt_doom_3).
derMeister
2006-03-09, 10:38:16
ja Supi, in zwei von 10Games liegt nV mit 5 Frames vorn, bei den anderen schafft nicht mal ein Ultra SLI-Gespann eine x1900xtx :crazy:
svenw
2006-03-09, 10:41:02
Wenn man den sonstigen Abstand von der 7800er zur 1900 betrachtet, sieht man, das diese Spiele ganz klar Nvidia liegen. ATI hat sich inzwischen in akzeptable Regionen gerettet, aber mit fast allen Karten außer der 1900er liefen diese Spiele wesentlich schlechter als auf Nvidia Karten. Das man mit der 1900er alles was draußen ist mit vernünftigen Auflösungen spielen kann, steht dabei nicht zur Debatte.
@ Meister: das geht nicht gegen oder für ATI (ich hab selber eine ATI) sondern sollte nur zeigen, das bestimmte Spiele bestimmten KArten liegen. Nach den Aussagen der Entwickler dürfte Oblivion ganz klar der 1900er liegen. ATI hat ob seiner Performance unter den genannten Spielen schon reichlich herbe Kritik einstecken müssen.
Mr.Magic
2006-03-09, 10:48:00
@Odal
ATi-Grafikkarten können bei FP16TF auch kein AA. :P
Offtopic-Rant:
Ich bin froh, wenn Vista endlich da ist und die ganzen Featuretricksereien vorerst ein Ende haben. Mich langweilen zwar beide Seiten, aber bisher hat sich nVidia wenigstens an Standards gehalten oder sie übertroffen (meines Erachtens gibt es nur einen Grund einen Standard nicht einzuhalten, und das ist wenn er ungenügend ist). "Unser HDRR ist auch echtes HDRR und kann sogar AA" und der Quatsch mit dem "besseren AF" sind einfach nur zum Kotzen. Das erste mal in der ATi's Firmengeschichte wird vernünftiges AF angeboten und alle tun so als wäre es eine Revolution. Dabei waren es die Tester, die mit ihrem "ATi-AF ist schneller" (Anno 2003) nVidia dazu gezwungen haben die ATi-Methode zu übernehmen, auch wenn es grottig aussieht. nVidia ist zwar ebenfalls aggressiv, aber wie ATi flip-floppt und sich alles hinbiegt ist einfach nicht mehr schön. Sie sollten endlich mal in die Gänge kommen und das gute, aber veraltete R300-Design zu Grabe tragen. Hat nicht mal einer ein paar Milliarden übrig um eine Firma zu gründen deren Grafikkarte alle Standards erfüllt UND perfekte Bildqualität/viele Einstellmöglichkeiten (sparsed Grid MSAA, SSAA und Mixmodi | AF mit ein/ausschaltbarer Winkelunabhängigkeit | perfekte Stereo-3D-Treiber | Triple-Head | Möglichkeit für Multi-GPU) performant bietet? Dann wäre sogar die übertriebene Aggressivität beim Marketing unnötig.
@Undertaker
Das sagt mir meine jahrelange Erfahrung und der gesunde Menschenverstand, nennen wir es eine gebildete Schätzung. Es muss eine ganze Menge im Hintergrund berechnet werden, damit läuft das Spiel mit niedrigen Grafikdetails sicherlich unwesentlich schneller.
ShadowXX
2006-03-09, 11:04:28
@Odal
ATi-Grafikkarten können bei FP16TF auch kein AA. :P
Die x1X00xt-Karten können bei FP16 MSAA durchführen, das können die ROPs des G70/71 nicht.
Dafür können die ATI-TMUs keine FP16-Filtering.
FP16-Blending können beide und die passenden Framebuffer und Texturformate haben auch beide.
Also ATI: HDR+AA möglich, aber kein FP16-Filtering (das muss dann im Shader oder gar nicht gemacht werden).
nV: HDR mit FP16-Filtering aber kein AA (ausser SSAA) möglich.
Aber:
Es sieht momentan so aus, als wenn ATIs HDR+AA nicht ganz so einfach zu implementieren ist, wie wohl anfanngs gedacht...es reicht scheinbar nicht aus einfach einen Schalter umzulegen.
Und da Bethesda es für die ATIs nicht implementiert hat, haben Sie wohl einfach einen allgemeingültigen HDR-Pfad geschrieben, der sogar auf SM2.0-Karten läuft (anders gesagt: keine spezielle HW des G70/71 bzw. der r5x0-Reihe benutzt), aber als Nachteil hat, das kein MSAA appliziert werden kann (warum auch immer, den Valve hat bewiesen, das es geht).
-> Vielleicht werden irgenwann noch mal Patches mit speziellen Pfaden für ATI/nV mit der jeweiligen Ausnutzung der HW nachgereicht.
aber mit fast allen Karten außer der 1900er liefen diese Spiele wesentlich schlechter als auf Nvidia Karten. Das man mit der 1900er alles was draußen ist mit vernünftigen Auflösungen spielen kann, steht dabei nicht zur Debatte.
Naja eine X850XT(PE) ist Augenscheinlich schneller wie eine 6800Ultra. Also von wesentlich schlechter laufen kann da nicht die Rede sein. Auch eine X1800XT steht gut da.
Das "Problem" an Doom3 / Q4 ist das die Spiele wenig Shaderlastig sind und daher die X1900XT nicht so weit vor einer X1800XT liegt.
Mr.Magic
2006-03-09, 11:14:13
Oben steht FP16TF. TF steht für Texture Filtering. Das nächste mal komplett lesen.
€:. statt ,
PS: Ich versteh sowieso nicht was immer für ein Radau wegen ein paar FPS gemacht wird, 10% hin oder her spielen keine echte Rolle. Und ob man Oblivion nun mit der X1950Platinum Anniversary oder der 7900Ultra Wanker spielt dürfte vollkommen egal sein.
@Odal
ATi-Grafikkarten können bei FP16TF auch kein AA. :P
hab ich auch nicht behauptet :P aber sie können FP16 Blending AA
ShadowXX
2006-03-09, 11:28:50
Oben steht FP16TF. TF steht für Texture Filtering. Das nächste mal komplett lesen.
ATIs können ja gar kein FP16-TF....das hat aber überhaupt nix mit der Fähigkeit zu tun, das ATIs ROPs FP16-AA können.
Wenn du das TextureFiltering in den Shadern machst, kannst du durchaus trotzdem AA applizieren.
(Genau das machen Sie AFAIR bei FarCry)
Warum Bethesda darauf verzichtet hat, steht auf einem anderen Blatt...speziell wenn Sie sowieso "homebrew" HDR benutzen, das eigentlich auf allen Karten (ab SM2.0) HDR+AA erlauben sollte.
@Odal
ATi-Grafikkarten können bei FP16TF auch kein AA. :P
was hat die texturfilterung mit FSAA zu tun?
Wenn du das TextureFiltering in den Shadern machst, kannst du durchaus trotzdem AA applizieren.
Andersrum wird aber auch ein Stiefel draus: Wenn du AA "im Shader" machst, können das auch die NV-Chips. Siehe AoE3.
Q
ja Supi, in zwei von 10Games liegt nV mit 5 Frames vorn, bei den anderen schafft nicht mal ein Ultra SLI-Gespann eine x1900xtx :crazy:Die Anderen = Fear? Sorry, aber die Betrachtung ist ja mehr als daneben. Alles was primär Füllrate-limitiert ist läuft ziemlich gut auf SLI.
Warum nicht? Meinst du, sie haben das dynamische Branching um, sagen wir, Faktor 10 beschleunigt?In der Praxis.
In der Praxis.
D.h. genau? Ein "irgendwo", noch dazu in Italics, fand ich schon sehr sehr eindeutig.
Praxis könnte NfS: Most Wanted (das brancht für die Schatten) sein und wer weiß, vielleicht auch Obilivion.
Q
ShadowXX
2006-03-09, 13:47:23
Andersrum wird aber auch ein Stiefel draus: Wenn du AA "im Shader" machst, können das auch die NV-Chips. Siehe AoE3.
Q
Das habe ich ja nicht verneint.
Interessant wäre ein Gegenüberstellung, was mehr Performance kostet....
Das habe ich ja nicht verneint.
Interessant wäre ein Gegenüberstellung, was mehr Performance kostet....
kommt darauf an wieviel du filtern musst ;)
beim FSAA bleibt dir ja nichts anderes über als das bild in höherer auflösung zu rendern.
wenn du die filterung nur für die ermittlung der helligkeit brauchst wird es nicht so schlimm sein. wenn du allerdings viele FP16-texturen in der szene hast wird es übel. bilinear dürfte noch gehen, trilinear wird schon recht aufwändig und wenn du AF im shader haben willst, dann wird es richtig übel ;)
deekey777
2006-03-09, 14:14:45
[...]
nV: HDR mit FP16-Filtering aber kein AA (ausser SSAA) möglich.
Wenn auf das FP16-Blending verzichtet, schon, aber dieser Fall ist sinnlos.
Aber:
Es sieht momentan so aus, als wenn ATIs HDR+AA nicht ganz so einfach zu implementieren ist, wie wohl anfanngs gedacht...es reicht scheinbar nicht aus einfach einen Schalter umzulegen.
Wird gleich editiert.
€: Ach Mist, ich finde das Posting von Demirug (?) nicht, aber ich glaube, da ging's darum, daß die Verwendung von MSAA&HDR von Anfang an mitimplementiert wird. Vielleicht stellt die fehlende FP-Filterung, die bisherigen HDR-Implementierungen voraussetzen, ein größeres Hindernis dar, als man dachte.
ShadowXX
2006-03-09, 15:17:11
Wird gleich editiert.
€: Ach Mist, ich finde das Posting von Demirug (?) nicht, aber ich glaube, da ging's darum, daß die Verwendung von MSAA&HDR von Anfang an mitimplementiert wird. Vielleicht stellt die fehlende FP-Filterung, die bisherigen HDR-Implementierungen voraussetzen, ein größeres Hindernis dar, als man dachte.
Davon bin ich von Anfang an ausgegangen, das das ganze nicht so einfach werden wird, wie sich das manche hier vorstellten...
Ich wurde dann allerdings immer in die Richtung nV-Fanboy (ich habe eine x1900xt, allerdings wegen des AF und nicht wegen HDR+MSAA) bzw. extremer Pessimist abgeschoben.
Irgendwo müsste noch ein Posting von mir sein, wo ich schrieb das durch das fehlende FP-TF von ATI HDR im sinne von HW-Assistet-HDR quasi tot ist.
Ich hoffe, das die nächste Gen das ganze behebt/besser macht.
BTW....die XBox360-Version hat (jetzt plötzlich ebenfalls) auch kein HDR+AA.
Demirug
2006-03-09, 15:22:58
Ja man braucht zwei leicht unterschiedliche Codepfade dafür:
Ohne AA:
Tex = CreateTexture (...)
Target = Tex.GetSurface (...)
...
SetTarget (Target)
...
SetTexture (Tex)
SetTarget (BackBuffer)
Postfilter (...)
Mit AA:
Tex = CreateTexture (...)
TexSurface = Tex.GetSurface (...)
Target = CreateTarget (...) // Mit AA
...
SetTarget (Target)
...
Downsample (Target, TexSurface)
SetTexture (Tex)
SetTarget (BackBuffer)
Postfilter (...)
Man kann das natürlich auch in einen bauen und entsprechenden Verzweigungen Vorsehen:
Tex = CreateTexture (...)
TexSurface = Tex.GetSurface (...)
Wenn (AA)
Target = CreateTarget (...) // Mit AA
Sonst
Target = TexSurface
...
SetTarget (Target)
...
Wenn (AA)
Downsample (Target, TexSurface)
SetTexture (Tex)
SetTarget (BackBuffer)
Postfilter (...)
Ist also eigentlich nicht sonderlich schwer aber man muss es einbauen.
ShadowXX
2006-03-09, 15:28:39
Ja man braucht zwei leicht unterschiedliche Codepfade dafür:
Ohne AA:
Tex = CreateTexture (...)
Target = Tex.GetSurface (...)
...
SetTarget (Target)
...
SetTexture (Tex)
SetTarget (BackBuffer)
Postfilter (...)
Mit AA:
Tex = CreateTexture (...)
TexSurface = Tex.GetSurface (...)
Target = CreateTarget (...) // Mit AA
...
SetTarget (Target)
...
Downsample (Target, TexSurface)
SetTexture (Tex)
SetTarget (BackBuffer)
Postfilter (...)
Man kann das natürlich auch in einen bauen und entsprechenden Verzweigungen Vorsehen:
Tex = CreateTexture (...)
TexSurface = Tex.GetSurface (...)
Wenn (AA)
Target = CreateTarget (...) // Mit AA
Sonst
Target = TexSurface
...
SetTarget (Target)
...
Wenn (AA)
Downsample (Target, TexSurface)
SetTexture (Tex)
SetTarget (BackBuffer)
Postfilter (...)
Ist also eigentlich nicht sonderlich schwer aber man muss es einbauen.
Wenn es so "einfach" ist, wundere ich mich allerdings darüber, das es nicht genutzt wird?
Das sollte doch auch nachträglich noch relativ einfach in den Renderpfad eingebaut werden können...
Deshalb gibt's ja für das ein oder andere Spiel auch Patches, die das ermöglichen. Far Cry, SAM2, und ein bisher nicht angekündigter Patch für ein Spiel.
Q
Demirug
2006-03-09, 15:44:38
Wenn es so "einfach" ist, wundere ich mich allerdings darüber, das es nicht genutzt wird?
Das sollte doch auch nachträglich noch relativ einfach in den Renderpfad eingebaut werden können...
Wenn sie Ping Pong für ihr HDR spielen wird das aber sehr langsam.
http://img425.imageshack.us/img425/6246/12ez.jpg
Spasstiger
2006-03-09, 16:20:34
http://img425.imageshack.us/img425/6246/12ez.jpg
Quelle? Und warum so miese Komprimierung? Gibt doch PNG für solche Bilder.
Quelle? Und warum so miese Komprimierung? Gibt doch PNG für solche Bilder.
Am 20.
http://img409.imageshack.us/img409/6931/o7bt.png
Spasstiger
2006-03-09, 16:50:46
Warum fehlt auf deinem zweiten "Screenshot" der oberste Strich auf der vertikalen Skala?
Weil davor Benchmarks ohne AA und mit echtem HDR zu finden sind.
Hehe: HDR zum abgewöhnen oder was :tongue:
http://www.elderscrolls.com/downloads/media_movies.htm
TheGoD
2006-03-09, 17:18:02
Weil davor Benchmarks ohne AA und mit echtem HDR zu finden sind.
Bin ich blind :| ? Gib doch mal die Quelle an.
Spasstiger
2006-03-09, 17:31:44
Weil davor Benchmarks ohne AA und mit echtem HDR zu finden sind.
Poste doch mal. Außerdem meine ich den Strich auf der Skala. ;)
Nein die sind ja falsch und müssen noch überarbeitet werden da nicht bei allen Karten AA aktiv bzw. inaktiv war.
Spasstiger
2006-03-09, 17:42:20
Nein die sind ja falsch und müssen noch überarbeitet werden da nicht bei allen Karten AA aktiv bzw. inaktiv war.
HDR+AA geht in Oblivion bei keiner Karte. :|
Es lief eine Karte nicht mit echtem HDR.
1 Wort:
Fake
und n schlechter noch dazu :>
misterh
2006-03-09, 18:46:19
HDR+AA geht in Oblivion bei keiner Karte. :|
aus emails von Gamestar
Elder Scrolls 4: Oblivion
HDR und AA nicht gleichzeitig
Die Programmierer von Oblivion haben ihre ganz eigenen Vorstellungen, wie
man Grafik in Spiele implementiert: Wie man einem Foren-Post eines Bethesda-
Mitarbeiters entnehmen kann, wird es nicht möglich sein, Anti-Aliasing und
High Dynamic Range Rendering gleichzeitig zu aktivieren. Dies läge an der
Art und Weise, wie HDR im Rollenspiel implementiert sei. Bei Spielen wie
Far Cry und Serious Sam 2, die Fließkomma-Arthmetik für die Texturen
benutzen, werden nur Nvidia-Karten ausgesperrt. Bei Oblivion ist die
Kombination beider Methoden generell nicht möglich, und zwar unabhängig von
der verwendeten Grafikkarte. Als Alternative bietet Bethesda nur den Bloom-
Effekt als Ersatz für HDR an, wenn Anti-Aliasing unbedingt aktiviert
werden soll.(Quelle: Oblivionworld.de)
http://www.gamestar.de/news/pc-spiele/rollenspiele/32027/
Spasstiger
2006-03-09, 18:50:45
aus emails von Gamestar [...]
Weiß ich doch. Deshalb auch mein Para-Smilie.
Demirug hat auch schon weiter oben versucht, zu erklären, wie man das Problem programmiertechnisch in den Griff bekommen könnte.
misterh
2006-03-09, 18:51:34
Weiß ich doch. Deshalb auch mein Para-Smilie.
Demirug hat auch schon weiter oben versucht, zu erklären, wie man das Problem programmiertechnisch in den Griff bekommen könnte.
ach so. nicht aufgepasst.
es wird wohl die X850XT gewesen sein die kein HDR an hatte
sunshine
2006-03-12, 20:31:52
Wie meinen? Wird das Spiel wenigstens richtig auf DC optimiert?
aus emails von Gamestar
Elder Scrolls 4: Oblivion
HDR und AA nicht gleichzeitig
Die Programmierer von Oblivion haben ihre ganz eigenen Vorstellungen, wie
man Grafik in Spiele implementiert: Wie man einem Foren-Post eines Bethesda-
Mitarbeiters entnehmen kann, wird es nicht möglich sein, Anti-Aliasing und
High Dynamic Range Rendering gleichzeitig zu aktivieren. Dies läge an der
Art und Weise, wie HDR im Rollenspiel implementiert sei. Bei Spielen wie
Far Cry und Serious Sam 2, die Fließkomma-Arthmetik für die Texturen
benutzen, werden nur Nvidia-Karten ausgesperrt. Bei Oblivion ist die
Kombination beider Methoden generell nicht möglich, und zwar unabhängig von
der verwendeten Grafikkarte. Als Alternative bietet Bethesda nur den Bloom-
Effekt als Ersatz für HDR an, wenn Anti-Aliasing unbedingt aktiviert
werden soll.(Quelle: Oblivionworld.de)
http://www.gamestar.de/news/pc-spiele/rollenspiele/32027/
Wuz? Seit wann haben Nvidia-Karten Probleme mit FP-Texturen und müssten daher ausgesperrt werden? Hallo? Gamestar?
Q
deekey777
2006-03-12, 20:53:53
Wuz? Seit wann haben Nvidia-Karten Probleme mit FP-Texturen und müssten daher ausgesperrt werden? Hallo? Gamestar?
Q
Gamestar, was sonst? Ist nicht das erste Mal. Aber irgendjemand beider PCGH meinte, die X1900er hätte 48 ROPs... :biggrin:
AnarchX
2006-03-12, 20:54:43
Wie meinen? Wird das Spiel wenigstens richtig auf DC optimiert?
Wenn man dem hier glauben schenken kann, wird wohl das Game auf DC optimiert sein. Das macht ja auch bei einem CPU-lastigen RPG Sinn.
Once you have that information, and have read the Official system specs, you may be a little confused if your processor is not a Pentium 4; they only list "Pentium 4 2.0/3.0 GHz or equivalent." To attempt to alleviate confusion, here is a little guide. Just take out your calculator, and multiply either your AMD processor's "plus" rating, or the speed of your Intel processor in MHz, by the following numbers. The result would be what you should compare to the official system specs.
* Celeron - 0.50
* Celeron D - 0.80
* Sempron - 0.85
* Pentium 4 (no hyper-threading) - 0.90
* AthlonXP - 0.95
* Pentium 4 (with hyper-threading) - 1.00
* Pentium 4 Extreme Edition - 1.10
* Athlon64 - 1.15
* Celerom M - 1.75
* Pentium M - 1.85
* Intel Core Solo - 1.85
* Athlon64 FX - 1.85 (clock speed, see below for exact numbers)
FX-51: ~4.0GHz (equal to an AMD 3700+, actually runs at 2.2GHz like the 3700+ San Diego)
FX-53: ~4.4GHz (equal to an AMD 4000+, actually runs at 2.4GHz like the San Diego 4000+)
FX-55: ~4.8GHz (equal to an AMD 4200+, actually runs at 2.6GHz)
FX-57: ~5.2GHz (equal to an AMD 4500+, actually runs at 2.8GHz)
FX-60: Varies (equal to a pair of FX-55s together)
* Pentium D - Special, as much as ~1.80
* AthlonX2 - Special, as much as ~1.80
* Intel Core Duo - Special, as much as ~3.35
Wenn man dem hier glauben schenken kann, wird wohl das Game auf DC optimiert sein. Das macht ja auch bei einem CPU-lastigen RPG Sinn.
Kann zwar gut Englisch, aber kann mir dieses Diagramm mal einer genau mit allen Specs erklären?
Spasstiger
2006-03-12, 21:10:53
Wenn man dem hier glauben schenken kann, wird wohl das Game auf DC optimiert sein. Das macht ja auch bei einem CPU-lastigen RPG Sinn.
Um die Werte mal auf real existierende CPUs anzuwenden und auf eine sinnvolle Basis zu bringen:
Pentium 4 2,53 GHz FSB533 - 76%
Athlon XP 2500+ - 79%
Celeron D 3,06 GHz FSB533 - 82%
Pentium M 730 (1,6 GHz) - 99%
Pentium 4 3,0 GHz FSB800 HT - 100% (empfohlene Anforderung)
Athlon XP 3200+ - 101%
Athlon 64 3200+ - 123%
Pentium 4 EE 3,73 GHz HT - 137%
Pentium M 780 (2,26 GHz) - 139%
Pentium D 2,8 GHz - 168%
Athlon 64 FX-57 - 173%
Core Duo 1,66 GHz - 185%
Pentium D 3,4 GHz - 204%
Athlon 64 X2 3800+ - 228%
Core Duo 2,13 GHz - 238%
Athlon 64 X2 4800+ - 288%
Athlon 64 FX-60 - ~300% (wenn berechnet wie zwei FX-55: 321%)
AnarchX
2006-03-12, 21:11:13
Kann zwar gut Englisch, aber kann mir dieses Diagramm mal einer genau mit allen Specs erklären?
Hier wird eine Art Leistungsindex angegeben, der sich aus Taktrate(Intel) oder Rating(AMD) mal dem angegeben Faktor für die jeweillige CPU.
Die Dualcores haben eben einen höheren Faktor, sprich einen höheren Leistungsindex.
Super Grobi
2006-03-12, 21:18:06
FX-55 = X2 4200+ ???
Na dann kann die DC Optimierung ja nicht so doll sein.
SG
janky
2006-03-12, 21:19:04
Um die Werte mal auf real existierende CPUs anzuwenden und auf eine sinnvolle Basis zu bringen:
Pentium 4 2,53 GHz FSB533 - 76%
Celeron D 3,06 GHz FSB533 - 82%
Pentium 4 3,0 GHz FSB800 HT - 100%
Athlon 64 3200+ - 123%
Pentium 4 EE 3,73 GHz HT - 137%
Pentium D 2,8 GHz - 168%
Athlon 64 FX-57 - 173%
Core Duo 1,66 GHz - 185%
Pentium D 3,4 GHz - 204%
Athlon 64 X2 3800+ - 228%
Core Duo 2,16 GHz - 241%
Athlon 64 X2 4800+ - 288%
Athlon 64 FX-60 - 289%/321% (je nach Interpretation)
Wie wäre dann ungefähr mein PENTIUM M 730 einzuordnen???
Spasstiger
2006-03-12, 21:22:13
Wie wäre dann ungefähr mein PENTIUM M 730 einzuordnen???
Nach deren Rechnung bei 99%, also ungefähr gleichauf mit einem Pentium 4 3 GHz mit HT oder mit einem Athlon XP 3200+.
Hab mal deine CPU mit in die Tabelle aufgenommen.
FX-55 = X2 4200+ ???
Na dann kann die DC Optimierung ja nicht so doll sein.
SG
Die meinen einen Single-Core-A64 @ 4200+.
janky
2006-03-12, 21:35:22
Nach deren Rechnung bei 99%, also ungefähr gleichauf mit einem Pentium 4 3 GHz mit HT oder mit einem Athlon XP 3200+.
Hab mal deine CPU mit in die Tabelle aufgenommen.
Meine Schwester hat nen Pentium M 740 mit 1,73 GHz. Die würde also auf 3,2 GHz kommen. Lohnt es sich, meinen 730er auf das Niveau des 740er oder 750er zu übertakten ? Müsste das Notebook mitmachen, da wir das selbe haben.
Oder macht das bei meiner GraKa sowieso keinen Sinn???
Spasstiger
2006-03-12, 21:37:25
Oder macht das bei meiner GraKa sowieso keinen Sinn???
Die Mobility X700 wird sich sicherlich als Engpass erweisen, aber du kannst ja dennoch mal versuchen zu übertakten. Auf niedrigen Details bringts sicherlich noch ein paar fps mehr.
Super Grobi
2006-03-12, 21:38:43
Meine Schwester hat nen Pentium M 740 mit 1,73 GHz. Die würde also auf 3,2 GHz kommen. Lohnt es sich, meinen 730er auf das Niveau des 740er oder 750er zu übertakten ? Müsste das Notebook mitmachen, da wir das selbe haben.
Oder macht das bei meiner GraKa sowieso keinen Sinn???
Wenn das Spiel @730 scheisse läuft, wird es das auch noch @740 oder 750.
Lass dich doch nicht Banane machen, nur weil die so eine komische Liste raus bringen. Das ist doch eh alles Quark.
SG
janky
2006-03-12, 21:42:48
Die Mobility X700 wird sich sicherlich als Engpass erweisen, aber du kannst ja dennoch mal versuchen zu übertakten. Auf niedrigen Details bringts sicherlich noch ein paar fps mehr.
Ist die GraKa denn in dem Spiel so schlecht (ungefähr so schnell wie 9800pro); die Grafik macht auf mich jetzt nit den HAMMER-Eindruck...........
Spasstiger
2006-03-12, 21:55:40
Ist die GraKa denn in dem Spiel so schlecht (ungefähr so schnell wie 9800pro); die Grafik macht auf mich jetzt nit den HAMMER-Eindruck...........
Nach ersten inoffiziellen Benchmarks erreicht eine Radeon X1900 XTX in 1600x1200 mit 4xAA 35 fps, eine 6800 GT nur 11 fps, das deutet imo auf eine starke Grafikkarten-Abhängigkeit hin. Und die Grafik auf den Screens und in den Videos ist mit Abstand das Beste, was ich bisher in einem RPG gesehen hab.
Super Grobi
2006-03-12, 21:59:15
Nach ersten inoffiziellen Benchmarks erreicht eine Radeon X1900 XTX in 1600x1200 mit 4xAA 35 fps, eine 6800 GT nur 11 fps, das deutet imo auf eine starke Grafikkarten-Abhängigkeit hin. Und die Grafik auf den Screens ist mit Abstand das Beste, was ich bisher in einem RPG gesehen hab.
Wo gabs die Benchis? Will wissen was mit 2x7800GT 256MB @ 1280x1024 und 2xAA 4xAF aussieht...
Gruss
SG
CharlizeTheron
2006-03-12, 22:05:01
Nach ersten inoffiziellen Benchmarks erreicht eine Radeon X1900 XTX in 1600x1200 mit 4xAA 35 fps, eine 6800 GT nur 11 fps, das deutet imo auf eine starke Grafikkarten-Abhängigkeit hin. Und die Grafik auf den Screens und in den Videos ist mit Abstand das Beste, was ich bisher in einem RPG gesehen hab.
Technisch gesehn is die Grafik sicher Hammer. Aber ich find irgendwie diesen Weichzeichnereffekt ätzend. Ist das das vielgepriesene HDR? oder Ham die auf den Shots halt nur bissel zuviel mit Photoshop rumgepfuscht? Bin in diesen Dingen nicht sehr bewandert.
Spasstiger
2006-03-12, 22:09:53
Technisch gesehn is die Grafik sicher Hammer. Aber ich find irgendwie diesen Weichzeichnereffekt ätzend. Ist das das vielgepriesene HDR? oder Ham die auf den Shots halt nur bissel zuviel mit Photoshop rumgepfuscht? Bin in diesen Dingen nicht sehr bewandert.
Es gibt einen Bloom-Filter und alternativ HDR-Rendering. Ich denke mal, dass auf den meisten bisherigen Screens der Bloom-Filter an war.
Wo gabs die Benchis? Will wissen was mit 2x7800GT 256MB @ 1280x1024 und 2xAA 4xAF aussieht...
Gruss
SG
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4062642&postcount=112
Neomi
2006-03-12, 22:10:26
Aber ich find irgendwie diesen Weichzeichnereffekt ätzend. Ist das das vielgepriesene HDR?
HDR ist kein Effekt, sondern "nur" ein viel besseres Datenformat (höhere Präzision, Werte kleiner 0 und größer 1 möglich). Was dann mit den Daten in einem Postfilter gemacht wird (also die tatsächlichen Effekte), ist eine andere Sache.
CharlizeTheron
2006-03-12, 22:15:33
Es gibt einen Bloom-Filter und alternativ HDR-Rendering. Ich denke mal, dass auf den meisten bisherigen Screens der Bloom-Filter an war.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4062642&postcount=112
Na hoffentlich kann man den Rotz im Spiel abschalten. Sieht ja grauenhaft aus. Dieser Effekt
LordDeath
2006-03-12, 22:17:23
HDR ist kein Effekt, sondern "nur" ein viel besseres Datenformat (höhere Präzision, Werte kleiner 0 und größer 1 möglich). Was dann mit den Daten in einem Postfilter gemacht wird (also die tatsächlichen Effekte), ist eine andere Sache.
können wir eigentlich weitere bessere effekte durch dieses datenformat erwarten? bisher resultiert das ja nur mit diesem blendeffekt von starken lichtquellen...
Spasstiger
2006-03-12, 22:24:06
Ich finde solche Bilder aber eigentlich sehr stimmig: http://elderscrolls.com/images/art/ob_pc/obliv32B.jpg.
Super Grobi
2006-03-12, 22:27:20
Ich finde solche Bilder aber eigentlich sehr stimmig: http://elderscrolls.com/images/art/ob_pc/obliv32B.jpg.
Vergiss bitte irgentwelche Bilder! Ich sag nur DTM Race Driver 3 ;D
Warten wir ab, was wirklich zu sehen ist.
SG
Spasstiger
2006-03-12, 22:36:23
Vergiss bitte irgentwelche Bilder! Ich sag nur DTM Race Driver 3 ;D
Warten wir ab, was wirklich zu sehen ist.
SG
Stimmt, in Wirklichkeit sieht Oblivion so aus:
http://img337.imageshack.us/img337/2227/115pi.jpg
:rolleyes:
können wir eigentlich weitere bessere effekte durch dieses datenformat erwarten? bisher resultiert das ja nur mit diesem blendeffekt von starken lichtquellen...
vor allem ist mit HDRR ein realistischer blendeffekt möglich.
die blendeffekte funktionieren ja auch ohne HDRR, allerdings passen sich diese nicht, oder nur sehr wenig an die umgebungsbedingungen an.
z.b. in NFSMW wird der blendeffekt zwar stärker wenn man im tunnel fährt, simuliert also ein wenig die verengende pupille. da das ganze aber nicht von der wirklichen helligkeit des bildes abhängt führt es teilweise zu komischen effekten. bei "normalen" tunnels funktioniert das zwar ganz gut, wenn man aber in szenen kommt wo licht und schatten wechseln wird man entweder zu viel (z.b. in den kanälen die teilweise "oben offen" sind) oder zu wenig (fahrt durch die alee) geblendet.
mit HDRR könnte man die stärke des blendens aufgrund der tatsächlich vorherrschenden lichtstärke im bild einstellen, und man hätte ein deutlich realistischeres ergebnis, nicht nur in den oben angesprochenen extremszenarien sondern auch allgemein, da die stärke der blendung auch auf kleinere schwankungen der helligkeit reagieren würde und nicht nur in den extremszenarien wenn man in einen tunnel hinein bzw. herausfährt.
je nach umsetzung der blendeffekte wird dadurch auch starkes color-banding im dunklen bereich erzeugt (siehe HL2)
mit HDRR könnte man weiters auch die blauverschiebung des auges bei geringen helligkeiten simulieren und auch die entsättigung, da wir in der dunkelheit nurmehr schwarz-weiß sehen können.
Siegfried
2006-03-12, 22:58:02
Stimmt, in Wirklichkeit sieht Oblivion so aus:
http://img337.imageshack.us/img337/2227/115pi.jpg
:rolleyes:
welches spiel is das denn?
sieht interessant aus
Na hoffentlich kann man den Rotz im Spiel abschalten. Sieht ja grauenhaft aus. Dieser Effekt
ja ich finde das gloom zeug auch scheisse
wenn es nicht abschaltbar ist bezahle ich nicht fuer das spiel
Spasstiger
2006-03-12, 23:07:38
welches spiel is das denn?
sieht interessant aus
Oblivion in einem frühen Entwicklungsstatus.
Neomi
2006-03-12, 23:11:21
mit HDRR könnte man weiters auch die blauverschiebung des auges bei geringen helligkeiten simulieren und auch die entsättigung, da wir in der dunkelheit nurmehr schwarz-weiß sehen können.
Jep. Oder kurz: Tonemapping allgemein wird sinnvoll einsetzbar.
Aber auch ganz ohne jegliches Postprocessing ist HDRR schon sinnvoll, sogar abseits des dann fehlenden Colorbanding. Überhelle Lichtquellen (z.B. Scheinwerfer oder Nebelschlußleuchten) sind im starken Nebel schon auf eine Entfernung zu sehen, wo sonst nur eine graue Suppe wäre. 50% Transparenz läßt helle Lichtquellen nicht mehr vergrauen, sondern weiter strahlen. Und wenn sich ein helles Licht in einem Material spiegelt (per Cubemap), dann kann dieses ruhig die Reflektion abdunkeln, der Vergrauungseffekt tritt nicht ein.
r3ptil3
2006-03-12, 23:18:30
Ich finde solche Bilder aber eigentlich sehr stimmig: http://elderscrolls.com/images/art/ob_pc/obliv32B.jpg.
Wow!
Sieht übergeil aus!
CharlizeTheron
2006-03-12, 23:22:33
Ich bin der Meinung das derartige Effekte nix zur Atmosphäre beitragen können. Reine Spielereien um HArdware zu verkaufen. Bis heute hats kein noch so tolles Grafikspiel geschafft, an die Atmosphäre von SystemShock2 ranzukommen.
Da brauchte man keine tollen Echtzeitschatten und Lichteffekte, Und ob nen erschossener Gegner "physikalisch" korrekt umfällt interessiert den geneigten Zocker im Normalfall auch nen Dreck. Da kann man vielleicht mal seinen Kumpels zeigen: Hey guck mal wie realistisch die das gemacht haben. Geil was?
Kumpel: Ja aber echt.
Und die ganz kritischen Kumpels fragen dann: Ach und für son Mist haste dir neue HArdware für 1000 Euro gekauft?
JA HAB ICH! :biggrin: Das ist vielleicht etwas Provokativ ausgedrückt aber bissel was wahres is da dran.
r3ptil3
2006-03-12, 23:24:24
Und die ganz kritischen Kumpels fragen dann: Ach und für son Mist haste dir neue HArdware für 1000 Euro gekauft?
JA HAB ICH! :biggrin: Das ist vielleicht etwas Provokativ ausgedrückt aber bissel was wahres is da dran.
Also worauf willst du hinaus?
Das es dich endlos ankackt, das du keine Highend-Ware hast?
Spasstiger
2006-03-12, 23:33:03
Ich bin der Meinung das derartige Effekte nix zur Atmosphäre beitragen können. Reine Spielereien um HArdware zu verkaufen.
Wenn dir der Bloom-Effekt nicht gefällt, dann lass ihn einfach aus. Allerdings sollte jede Grafikkarte, die von Oblivion unterstützt wird, den Bloom-Filter mit Leichtigkeit berechnen können, schließlich liegt die Mindestanforderungen bei DirectX-9-Hardware.
HDRR ist sowieso als optional zu sehen für Besitzer von High-End-Grafikkarten. Ob es zur Atmosphäre beiträgt oder nicht, muss jeder selbst entscheiden, Fakt ist, dass HDRR mathematisch korrekter ist.
Irgendwann hast du 200.000 Eckpunkte je Spielfigur und Texturen in 4096x4096-Auflösung und die Beleuchtung soll dann immer noch nach dem altmodischen 32-Bit-Konzept erfolgen? Es ist wichtig, dass auch das Beleuchtungsmodell Fortschritte macht.
Vielleicht werden sogar HDR-Monitore in Mode kommen.
AnarchX
2006-03-12, 23:39:47
Imho sollte man das HDR nicht von den bisher gesehen Bildern bewerten, da dies den eigentlichen Effekt nicht ausmacht.
Ich kann mir gut vorstellen, dass zum Teil sehr passend wirkt:
Nach einem langen Kampf gegen bluttrünstige Untote in einer Gruft, wird man erstmal von der Mittagsonne geblendet beim verlassen...
Es gibt einen Bloom-Filter und alternativ HDR-Rendering. Ich denke mal, dass auf den meisten bisherigen Screens der Bloom-Filter an war.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4062642&postcount=112
Ich denke eher umgekehrt. Auf den bisherigen Screens war das "echte" HDR zu sehen. Da synchron ja kein AA unterstüzt werden soll liegt eben ein Weichzeichner drüber um das etwas zu kaschieren. Zumindest bei kleinen Objekten in der Distanz.
r3ptil3
2006-03-12, 23:48:02
Wenn dir der Bloom-Effekt nicht gefällt, dann lass ihn einfach aus. Allerdings sollte jede Grafikkarte, die von Oblivion unterstützt wird, den Bloom-Filter mit Leichtigkeit berechnen können, schließlich liegt die Mindestanforderungen bei DirectX-9-Hardware.
HDRR ist sowieso als optional zu sehen für Besitzer von High-End-Grafikkarten. Ob es zur Atmosphäre beiträgt oder nicht, muss jeder selbst entscheiden, Fakt ist, dass HDRR mathematisch korrekter ist.
Irgendwann hast du 200.000 Eckpunkte je Spielfigur und Texturen in 4096x4096-Auflösung und die Beleuchtung soll dann immer noch nach dem altmodischen 32-Bit-Konzept erfolgen? Es ist wichtig, dass auch das Beleuchtungsmodell Fortschritte macht.
Vielleicht werden sogar HDR-Monitore in Mode kommen.
Spasstiger wolltest du mit diesem Post zeigen, wie klug du darauf antworten kannst?
Ohne wie ich offen drauf angewortet habe! :|
In diesem Fall halte ich eben nicht viel davon, schliesslich hat er (deltaxxx) damit gemeint wie sinnlos es ist neu Hardware zu kaufen in einem Grafikkarten-Benchmarking forum.
CharlizeTheron
2006-03-12, 23:55:11
Also worauf willst du hinaus?
Das es dich endlos ankackt, das du keine Highend-Ware hast?
Ne ich will darauf hinaus das mich die Highendhardware zuviel Geld kostet. Das ist der Punkt mein Sohn.
CharlizeTheron
2006-03-12, 23:58:35
Spasstiger wolltest du mit diesem Post zeigen, wie klug du darauf antworten kannst?
Ohne wie ich offen drauf angewortet habe! :|
In diesem Fall halte ich eben nicht viel davon, schliesslich hat er (deltaxxx) damit gemeint wie sinnlos es ist neu Hardware zu kaufen in einem Grafikkarten-Benchmarking forum.
a: bin ich eine SIE und b: zeig mir den Satz wo ich gesagt habe das Highendhardware sinnlos ist. Kannste nich? ah wahrscheinlich weil ichs nie geschrieben habe. Du interpretierst zuviel in die Aussagen anderer Leute.
LordDeath
2006-03-13, 00:02:07
a: bin ich eine SIE und b: zeig mir den Satz wo ich gesagt habe das Highendhardware sinnlos ist. Kannste nich? ah wahrscheinlich weil ichs nie geschrieben habe. Du interpretierst zuviel in die Aussagen anderer Leute.
demnach ist er auch eine sie X-D
r3ptil3
2006-03-13, 00:09:25
Ne ich will darauf hinaus das mich die Highendhardware zuviel Geld kostet. Das ist der Punkt mein Sohn.
Wem interessiert hier ob dir Highendhardware zu viel kostet?
Super Grobi
2006-03-13, 00:09:43
demnach ist er auch eine sie X-D
Ruhig Blut Leute!
Nicht das der Thread hier so scheisse wird wie der XBox360 Thread.
Gruss
SG
ShadowXX
2006-03-13, 13:20:35
Ne ich will darauf hinaus das mich die Highendhardware zuviel Geld kostet. Das ist der Punkt mein Sohn.
Keiner zwingt dich diese zu kaufen......ausserdem gibt es inzwsichen sogar im Mid-Class-Bereich sehr sehr ordentlich Grafikkarten, die dazu oftmals sogar den besseren "Bang for the Buck" haben.
Die die High-High-End-HW kaufen, tun dies meisten auch nur, um gleichzeitig noch AA/(hohes)AF nutzen zu können.....
Thanatos
2006-03-13, 13:32:13
Keiner zwingt dich diese zu kaufen......ausserdem gibt es inzwsichen sogar im Mid-Class-Bereich sehr sehr ordentlich Grafikkarten, die dazu oftmals sogar den besseren "Bang for the Buck" haben.
Die die High-High-End-HW kaufen, tun dies meisten auch nur, um gleichzeitig noch AA/(hohes)AF nutzen zu können.....
Und wozu gibt es denn noch die Qualitätseinstellungen im Spiel selbst? :)
Aber ich muss schon sagen, dass ich AA udn AF nicht wirklich missen möchte :)
Spasstiger
2006-03-13, 15:33:42
Keiner zwingt dich diese zu kaufen......ausserdem gibt es inzwsichen sogar im Mid-Class-Bereich sehr sehr ordentlich Grafikkarten, die dazu oftmals sogar den besseren "Bang for the Buck" haben.
Allerdings bilden sich manche Leute mit ihren Preis-/Leistungsmäßig angeblich so tollen Mittelklassegrafikkarten ein, über die Grafik eines Spiels urteilen zu können, obwohl sie ohne AA und AF spielen. Und das nur, weil AA+AF als High-End-Feature abgestempelt wird, "was ja eh nicht wichtig ist".
Zumindest fehlendes AF ist Vergewaltigung einer jeden guten Spielgrafik. Gut finde ich da den Weg, den ID Software eingeschlagen ist, 4:1 bzw. 8:1 AF by default auf hohen Details in Doom 3 und Quake 4.
Bang for the Buck ist imo derzeit am ehesten in der 300-350 Euro Klasse gegeben dank GeForce 7900 GT und Radeon X1800 XT.
CharlizeTheron
2006-03-13, 15:39:11
Wem interessiert hier ob dir Highendhardware zu viel kostet?
Wenn dich das nicht interessiert, wieso fragst du dann vorher worauf ich hinaus will du geistiger Tiefflieger? :biggrin: Viel Hirn haste nich abbekommen als das verteilt wurde.
Beleidigungen sind aber (milde gesprochen) unschön, auch in Foren. *klick*
Allerdings bilden sich manche Leute mit ihren Preis-/Leistungsmäßig angeblich so tollen Mittelklassegrafikkarten ein, über die Grafik eines Spiels urteilen zu können, obwohl sie ohne AA und AF spielen. Und das nur, weil AA+AF als High-End-Feature abgestempelt wird, "was ja eh nicht wichtig ist".
Zumindest fehlendes AF ist Vergewaltigung einer jeden guten Spielgrafik. Gut finde ich da den Weg, den ID Software eingeschlagen ist, 4:1 bzw. 8:1 AF by default auf hohen Details in Doom 3 und Quake 4.
Also mit wirklichen Midrange Karten kann man eigentlich immer AA und AF nutzen. Allerdings halte ich AA für mindestens genauso wichtig...."schwimmende Kanten" grausig.....
Spasstiger
2006-03-13, 15:49:21
Also mit wirklichen Midrange Karten kann man eigentlich immer AA und AF nutzen.
Kommt drauf an, ab wo man Midrange-Karten ansetzt, aber bei Karten wie der Radeon X800 XT stimme ich dir natürlich voll zu. Aber es gibt halt auch Leute, die sich eine 6600 GT holen, weil diese ja so der Preis-Leistungsknüller ist, und lassen dann AA und AF von vornherein aus, weil man das ja nicht mit der Karte benutzen "darf". Und dann beschweren sie sich noch über miese Texturen in aktuellen Spielen.
ShadowXX
2006-03-13, 15:51:01
Bang for the Buck ist imo derzeit am ehesten in der 300-350 Euro Klasse gegeben dank GeForce 7900 GT und Radeon X1800 XT.
Das meinte ich mit (ordentlichen) Mittelklasse-Karte (aus Spielersicht wohlgemerkt).....
IMHO muss man diesen Preis eben hinlegen, wenn man ordentlich Spielen will.
Alles darüber ist dann Luxus bzw. für Qualitäts-Fans.
Aber auch ich kann das "gestöne" über schlechte Performance nicht mehr höhren...speziell wenn die Leute dann ne 5600FX oder ähnliches drinnehaben und sich Wundern, das FEAR mit allem auf Max + Softshadows in 1600*1200 nicht mit 60++FPS läuft.
Spielen (speziell spielen mit hoher Bildqualität + max. Settings) auf dem PC war schon immer etwas teurer....(ich erinnere mal an WingCommander & Co., als die PCs, um das ganze wirklich flüssig zu spielen, bezahlbar wurden, war das Game wohl dann schon knapp 2 Jahre alt).
Aber es gibt halt auch Leute, die sich eine 6600 GT holen, weil diese ja so der Preis-Leistungsknüller ist, und lassen dann AA und AF von vornherein aus, weil man das ja nicht mit der Karte benutzen "darf". Und dann beschweren sie sich noch über miese Texturen in aktuellen Spielen.
Naja selbst mit einer 6600GT lässt sich noch 2xAA und 4xAF auf 1024x768 auf allen (ausnahme FEAR) Spielen nutzen. Bei allem darunter wirds natürlich schwer.
r3ptil3
2006-03-13, 15:56:42
Wenn dich das nicht interessiert, wieso fragst du dann vorher worauf ich hinaus will du geistiger Tiefflieger? :biggrin: Viel Hirn haste nich abbekommen als das verteilt wurde.
lol, hättest mal den zweiten Abschnitt diese Posts lesen sollen.
Die Frage war grundsätzlich eher ironisch gemeint! :rolleyes:
back @ topic
Spasstiger
2006-03-13, 16:02:50
Naja selbst mit einer 6600GT lässt sich noch 2xAA und 4xAF auf 1024x768
Du hast meinen Sarkasmus übersehen. ;) Natürlich kann man auch mit einer 6600 GT noch AA und AF aktivieren, nur wird eben oft vermittelt, dass AA und AF High-End-Features sind, und so kommt es, und ein unbedarfter User deshalb von vornherein kein Interesse an diesen Features zeigt.
Du hast meinen Sarkasmus übersehen. ;) Natürlich kann man auch mit einer 6600 GT noch AA und AF aktivieren, nur wird eben oft vermittelt, dass AA und AF High-End-Features sind, und so kommt es, und ein unbedarfter User deshalb von vornherein kein Interesse an diesen Features zeigt.
Das wird sich sowieso ändern IMO. Vor 5 Jahren war zB. 12x10 absolutes Limit nach oben hin(wenn ich mich noch recht erinnere *hust*). Heutzutage packen die High-End Grafikkarten schon 16x12 4xAA/16xAF in vielen Spielen. Auch das obere Mainstreamsegment kann schon oft AA+AF in moderaten Auflösungen nutzen. Mit der Zeit wird auch der Midrange Käufer diese Features immer öfter nutzen(können).
Gouvernator
2006-03-15, 00:28:44
Das wird sich sowieso ändern IMO. Vor 5 Jahren war zB. 12x10 absolutes Limit nach oben hin(wenn ich mich noch recht erinnere *hust*). Heutzutage packen die High-End Grafikkarten schon 16x12 4xAA/16xAF in vielen Spielen. Auch das obere Mainstreamsegment kann schon oft AA+AF in moderaten Auflösungen nutzen. Mit der Zeit wird auch der Midrange Käufer diese Features immer öfter nutzen(können).
Heutige HighEnd Grafikkarten packen weit mehr als nur 1600x1200 4xAA. Wenn man auf sehr "üble" einstellungen verzichtet dann kann man auch Fear ohne Schatten in 2048x1536+6xAA genießen (wegen Splattereffekten und so... :D )
Ich bin schon gespannt wie ich Oblivion spielen werde - Mit allen Effekten und ohne AA+hohe Auflösung, oder wenige Effekte und 2288x1712+6xAA =)
hochstwahrscheinlich seeehr hohe Auflösung ohne AA mit allen Effekten.
Gouvernator, deine hohe Auflösung bringt dir nur leider gar nichts, wenn du dabei die Maske überfährst. ;)
Gouvernator
2006-03-15, 00:55:29
Gouvernator, deine hohe Auflösung bringt dir nur leider gar nichts, wenn du dabei die Maske überfährst. ;)
ich kann nicht mehr... wie anspruchslos seid ihr, das sogar anderen nicht gegönnt wird in anderen Auflösungen zu spielen ? immer 08/15 Standart megascheiss. Da du wahrscheinlich NIE eine hohe Auflösung sehen wirst kann ich dir verraten wie das Bild so aussieht. Es ist KLAR und sieht wie RICHTIGES 3d aus ohne Kanten und ähnlichen Bildstörungen.
Spasstiger&ShadowXX,
Mit "Bang 4 the Buck" meint ihr "Ein guter Fick fuer das Geld" ?
ShadowXX
2006-03-15, 12:44:38
Spasstiger&ShadowXX,
Mit "Bang 4 the Buck" meint ihr "Ein guter Fick fuer das Geld" ?
Prinzipiell ja.....aber natürlich auf GraKas bezogen ;)
"Bang 4 the Buck" soll eigentlich heissen: "Bestes Preis/Leistungsverhältnis" unter dem Gesichtspunkt am meisten BQ+Speed in relation für den jeweiligen Preis.
Prinzipiell ja.....aber natürlich auf GraKas bezogen ;)
"Bang 4 the Buck" soll eigentlich heissen: "Bestes Preis/Leistungsverhältnis" unter dem Gesichtspunkt am meisten BQ+Speed in relation für den jeweiligen Preis.
J,ich weiss,ich wollte nur ein bisschen spamen. :tongue:
ich kann nicht mehr... wie anspruchslos seid ihr, das sogar anderen nicht gegönnt wird in anderen Auflösungen zu spielen ? immer 08/15 Standart megascheiss. Da du wahrscheinlich NIE eine hohe Auflösung sehen wirst kann ich dir verraten wie das Bild so aussieht. Es ist KLAR und sieht wie RICHTIGES 3d aus ohne Kanten und ähnlichen Bildstörungen.Langsam hab ich das Gefühl du bist ein Dau...
Gouvernator
2006-03-15, 15:54:50
Ich würd dir raten dein Neid zurückzustellen und mal versuchen laaangsam mit Powerstrip ein paar Auflösungen zu basteln. Aber ehrlich gesagt du bist mental dazu nicht in der Lage, weil auf dem Zettel mit Überschrift "Bedingungsanleitung" max. Auflösung 1024x768 steht ;D
(del676)
2006-03-15, 15:55:57
ich kann nicht mehr... wie anspruchslos seid ihr,
hmm, zuerst ein 7800gtx sli, nu ne x1900, das ganze auf nem 22" CRT, nu auf nem 24" Widescreen TFT - ja ich bin absolut anspruchslos X-D
das sogar anderen nicht gegönnt wird in anderen Auflösungen zu spielen ?
och das sei dir gegönnt, nur wenn du die maske deines crt so hoffnungslos überfährst machst du dich höchstens lächerlich - wie ein prolet mit seinem optisch vollsupergetunten gti ... mit 75ps diesel X-D
immer 08/15 Standart megascheiss.
nö definitiv ned X-D
Da du wahrscheinlich NIE eine hohe Auflösung sehen wirst
tja lieber freund, DU aber auch nicht, bei dir werden keine 2300x1800 dargestellt, rechne es mal aus mit dem Lochabstand und der sichtbaren Bildschirmfläche ;)
kann ich dir verraten wie das Bild so aussieht.
nö kannst du nicht - siehe oben
Es ist KLAR und sieht wie RICHTIGES 3d aus ohne Kanten und ähnlichen Bildstörungen.
hey so sieht mein NATIVES 1920x1200 mit 6xAA und wuAF aus X-D
Gouvernator
2006-03-15, 16:04:02
Bis jetzt hast du nicht gasagt ob du jemals ne andere Auflösung ausprobiert hast als die des aktuellen Bildschirms. Ich will dir nichts unterstellen aber du behauptest nur aufgrund theoretischen Daten nie selbst die Hand angelegt zu haben. Hiermit gehörst du für mich in die Kategorie "ALDI-PC Käufer".
Langsam wird die Diskussion aber lächerlich und OnTopic ist davon auch nichts.
(del676)
2006-03-15, 16:09:34
Bis jetzt hast du nicht gasagt ob du jemals ne andere Auflösung ausprobiert hast als die des aktuellen Bildschirms. Ich will dir nichts unterstellen aber du behauptest nur aufgrund theoretischen Daten nie selbst die Hand angelegt zu haben. Hiermit gehörst du für mich in die Kategorie "ALDI-PC Käufer".
niedlich X-D
2048x1536 auf dem 22" crt haben die maske auch überfahren -> mies.
btw: ich hab auch mal den selben mist wie du geglaubt, aber mit dem alter kommt erfahrung ;)
naja, bei Gouvernator wohl eher nicht.
Lies einfach mal seine Postings seit seiner Registrierung.
Aber eins ist war, seine Ergüsse sind immer (unfreiwillig) komisch, und sehr belustigend beim lesen.
Weiter so, Gouvernator
XxTheBestionxX
2006-03-15, 17:46:30
Ich freue mich auch schon aufs game und denke das ich es flüssig in 1280x1024 4aa/16af zocken kann ...würde als erstes schatten detaisl was runterschrauebn das iss mir net so wichtig.
Spasstiger
2006-03-15, 17:51:35
Ich freue mich auch schon aufs game und denke das ich es flüssig in 1280x1024 4aa/16af zocken kann ...würde als erstes schatten detaisl was runterschrauebn das iss mir net so wichtig.
Ich schalte auch immer zuerst die Schatten aus, wenns nicht gescheit läuft, außer in Doom 3/Quake 4 (dort sind es spieltragende Elemente). In Fable hat das Ausschalten der Schatten bei mir sicherlich 50% mehr Geschwindigkeit gebracht in kritischen Szenen, in NFS:MW 20-30% und in Battlefield 2 auch so um den Dreh rum. Das tolle ist, dass ich dadurch alle diese Spiele auch mit 4xAA recht ordentlich spielen kann (bei BF2 habe ich zusätzlich noch die Sichtweite reduziert und Texturdetails auf mittel gestellt, bei NFS:MW hab ich Visual Treatments und Motion Blur deaktiviert). AF schalte ich immer an, mindestens 4:1. Darauf will ich bei keinem Spiel verzichten.
Urghs, Schatten abschalten nur wegen einer höheren AA-Stufe? Naja, jeder wie er will. ;)
(del676)
2006-03-15, 18:51:21
naja, die schatten bei BF2 z.b. sind ja nicht gerade das Gelbe vom Ei
kommt auf spiel drauf an
wer bei doom3 oder vor allem fear die schatten aus macht ist selbst schuld(oder hat noch ne gf4)
aber bei diversen anderen sind schatten nciht so wichtig
die schattendetails sind als erstes runter
Godmode
2006-03-15, 19:24:35
Ich habe vorgestern wieder mal FarCry installiert, und hab ein wenig mit HDR rumgespielt. Am Anfang wars noch ungewöhnlich, aber jetzt will ich gar nicht mehr ausschalten, weil es verdammt gut aussieht. Mit normaler Beleuchtung ist alles irgendwie eintönig. Ich möchte allso auch in Zukunft meine Spiele mit HDR spielen, wenn möglich. Ich sehe in HDR eines der wichtigsten Features für zukünftige Spiele.
Man muss halt abwägen, was einem wichtig ist. Hier auf dem alten Rechner(6800GT@U) ist es halt mit HDR nicht wirklich angenehm zu spielen, da die Framerate doch ziemlich stark einbricht.
Urghs, Schatten abschalten nur wegen einer höheren AA-Stufe? Naja, jeder wie er will. ;)
Also 2xAA muss mindestens drin sein, darunter ist ein Spiel für mich unspielbar und wird nicht gespielt. Da schalte ich lieber die Schatten aus wenns hilft das es für 2xAA reicht...ansonsten Schatten runter und 4xAA anmachen. 6xAA brauch ich normalerweise nicht. 256MB sind dafür meist auch zuwenig.
Spasstiger
2006-03-15, 19:55:51
naja, die schatten bei BF2 z.b. sind ja nicht gerade das Gelbe vom Ei
Die gleichen murksigen Schatten hat man auch in NFS:MW und Fable. Deshalb wars mir dort sogar ganz recht, dass ich die Schatten ausgeschalten hab.
Bei Farcry hadere ich immer mit mir, wenn ich die Schatten ausschalte, da sie dort auf jeden Fall zur Atmosphäre beitragen, andererseits aber auch viel Performance kosten (bei mir zumindest).
(del676)
2006-03-15, 20:03:06
Also 2xAA muss mindestens drin sein, darunter ist ein Spiel für mich unspielbar und wird nicht gespielt. Da schalte ich lieber die Schatten aus wenns hilft das es für 2xAA reicht...ansonsten Schatten runter und 4xAA anmachen. 6xAA brauch ich normalerweise nicht. 256MB sind dafür meist auch zuwenig.
komisch
mir reicht(e) schon immer 2xAA - schon zu R9700Pro Zeiten
4xAA schalte ich nur zu wenn ich sonst schon alles @max habe
viel wichtiger finde ich da ein sauberes AF
Ich schalte auch immer zuerst die Schatten aus, wenns nicht gescheit läuft, außer in Doom 3/Quake 4 (dort sind es spieltragende Elemente). In Fable hat das Ausschalten der Schatten bei mir sicherlich 50% mehr Geschwindigkeit gebracht in kritischen Szenen, in NFS:MW 20-30% und in Battlefield 2 auch so um den Dreh rum. Das tolle ist, dass ich dadurch alle diese Spiele auch mit 4xAA recht ordentlich spielen kann (bei BF2 habe ich zusätzlich noch die Sichtweite reduziert und Texturdetails auf mittel gestellt, bei NFS:MW hab ich Visual Treatments und Motion Blur deaktiviert). AF schalte ich immer an, mindestens 4:1. Darauf will ich bei keinem Spiel verzichten.
argh, keine schatten, da wirken immer alle objekte als würden sie schweben.
Spasstiger
2006-03-15, 22:42:26
argh, keine schatten, da wirken immer alle objekte als würden sie schweben.
Blobshadows hat man ja meistens trotzdem.
collapse
2006-03-15, 23:20:53
Asus X1900 XTX @ 770/1800 mhz @1.60V
Opteron144@2700 mhz , 1.50V @WaKü
3x512 MB;1xKingston HyperX DDR2700; 2x KingMax DDR4000 @225 Mhz 2.5-3-3-6-3-3
MSI K8n Neo4
GPRS Eplus
Ich sag nur mehr doppel lol ich bezweifel mal sehr stark, dass du 2700er Ram auf 4000er Takt laufen lassen kanst. Ich werd dem Gast zustimmen und zu dir Dau sagen bzw. Dau mit Kohle :D : P
hf gl @ flame
Ich sag nur mehr doppel lol ich bezweifel mal sehr stark, dass du 2700er Ram auf 4000er Takt laufen lassen kanst. Ich werd dem Gast zustimmen und zu dir Dau sagen bzw. Dau mit Kohle :D : P
hf gl @ flame
Da er in der Lage war an seiner X800XT-PE diverse Hardwaremods durchzuführen denke ich schon das er bei seinem Speicher weiss was er macht.
Wenn von deinen 113 Beiträgen in 1,5 Jahren alle von dieser ähh "Qualität" waren na dann gute Nacht.
Gouvernator
2006-03-17, 01:37:13
Ich sag nur mehr doppel lol ich bezweifel mal sehr stark, dass du 2700er Ram auf 4000er Takt laufen lassen kanst. Ich werd dem Gast zustimmen und zu dir Dau sagen bzw. Dau mit Kohle :D : P
hf gl @ flame
Ich habe 2x512 kingmax ddr500 riegel zusammen mit einem kingston ddr333 riegel @ 225mhz 2T laufen, also 1,5gig.
Du kennst bestimmt nicht alte ddr266 256mb riegel die mit bh-6 chips die 300mhz bei 2-2-2-5 schaffen ;)
Entwarnung für die x800 :wink:
Could you tell us what Shader Model range you're aiming for? In a recent interview you mentioned that you make use of SM 3.0; is this shader model used for a performance increase only or do you make use of SM 3.0-specific features like texture fetches in the vertex shader?
Shader model 2.0 to 3.0 is the targeted range. For shader model 3.0 effects, we do take advantage of some looping and branching, but mostly we use it for performance increases. In 3.0 we are able to do all lighting in a single pass, as well as full lighting on blended objects.
Related to the above, how would you describe your experience in having to write the same effect across different Shader Model versions?
For the most part, our shaders were initially written with the 2.0 spec in mind. So rewriting them for shader model 3.0 was more fun than a chore, since we were able to speed things up and combine passes. Going the opposite direction would have been more of a pain, but luckily we were able to avoid that in most cases.
http://www.beyond3d.com/interviews/oblivion/
is doch alt...auf einer X850XT soll das Spiel sowieso besser performen wie auf einer 6800GT
übrigends nutzen sie wahrscheinlich SM2.x können somit auch auf NV30 und R420/480 einige Sachen Singlepass machen die aufgrund der geringen Instruktionsmenge von SM2 Multipass wären.
is doch alt...auf einer X850XT soll das Spiel sowieso besser performen wie auf einer 6800GTIst das schon sicher? Wenn SM3 wirklich mehr Pass-Combining erlaubt, dann kann das auch anders ausgehen.
eine 9800 pro schlägt (trotz 64 Instruktionslimit und somit erhöhte multipasswahrscheinlichkeit) anscheinend eine 6600GT (bzw. liefert ähnliche Geschwindigkeit ab) welche fast immer schneller als eine 9800XT ist. Wen wunderts wenn doch die normalen Entwicklerrechner dort 9800pros drin hatten ^^
In irgendwelchen Texten wurde auch explizit SM2.x erwähnt. Da denk ich mal die Effizienz dürfte dann auf dem R420/480 noch höher ausfallen. Da eine X850XT praktisch fast immer deutlich schneller als die 6800GT ist kann man bei Oblivion auch davon ausgehen....
ok ist Spekulation aber wir sind hier ja auch im Spekulationsteil....
wenn die Infos aus dem Oblivion Forum stimmen kann man jedenfalls davon ausgehen.
Ich leg dafür natürlich nicht meine Hand ins Feuer sondern stütze mich lediglich auf Infos die ich kombiniere ^^
Es kann natürlich auch ganz anders sein, dann stimmen die Infos aus dem Oblivion Forum aber nicht. Ich hab das Spiel (leider) auch noch nicht und kann daher auch nichts mit Bestimmtheit sagen...alles Informationsgestüzte Spekulation.
Ailuros
2006-03-17, 19:03:09
Ich verfolge den Thread hier schon seit einiger Zeit, aber...
Es kann natürlich auch ganz anders sein, dann stimmen die Infos aus dem Oblivion Forum aber nicht. Ich hab das Spiel (leider) auch noch nicht und kann daher auch nichts mit Bestimmtheit sagen...alles Informationsgestüzte Spekulation.
Es gibt so viele Widersprueche in diesem Thread von verschiedenen Quellen/Seiten, dass es wohl gesunder fuer mich persoenlich ist wenn ich auf die Resultate vom finalen Spiel warte ;)
Eben. Ich verlass mich da auf noch gar nichts. Und ich bin nach wie vor der Ansicht, dass das Spiel bei der Optik gar nicht shaderlimitiert sein kann.
das denk ich auch mal, denn die tollen glänzenden oberflächen ala Farcry Fliesen oder so tolle Glaseffekte sah ich bisher noch nicht auf den Screenshots. Wo sicherlich viel Shaderleistung bei drauf geht ist beim Wasser. Ich kann mich noch an Morrowind auf meiner GF4 Ti 4200 erinnern...sobald ich aufs wasser schaute (trotz PS1.3 und nichtmal 1.4) knickten die FPS auf 15-16 ein ^^.
Könnte es sein das das ding gar Geometrielimitiert ist? Bei den vielen Ästchen und Blättern im Wald ^^.... oder doch eher die Bandbreite
Ach das bischen Wasser macht doch keine Shaderlimitierung.
Könnte es sein das das ding gar Geometrielimitiert ist?Das hab ich mir auch schon überlegt, wäre aber wirklich ungewöhnlich. Würde die Überlegenheit der Radeons falls sie wirklich da ist aber erklären.
Ach das bischen Wasser macht doch keine Shaderlimitierung.
naja wenn von den bäumen jedes ästchen und blättchen sich im wasser spiegelt und dies gar noch mit dem wellengang verzerrt könnte ich mir vorstellen das das dafür an den stellen gut shaderleistung braucht.
Morrowind war ja mit seinem PS1.4 Wasser auch so eine Art vorreiter bei "realistischer" Wasserdarstellung,
naja wenn von den bäumen jedes ästchen und blättchen sich im wasser spiegelt und dies gar noch mit dem wellengang verzerrt könnte ich mir vorstellen das das dafür an den stellen gut shaderleistung braucht.Dafür braucht man primär erstmal viel Füllrate um das Bild nochmal in eine Textur zu rendern (genauer gesagt sogar 2x. Einmal unter und einmal über Wasser). Der Wasser-Shader ist danach sehr billig.
Wechselbalg
2006-03-18, 00:11:00
Das hab ich mir auch schon überlegt, wäre aber wirklich ungewöhnlich. Würde die Überlegenheit der Radeons falls sie wirklich da ist aber erklären.
Aber eigentlich nur der alten Serien oder? Die 7900 GTX dürfte ja wenn da zusätzlich noch das Geometrie-Delta berücksichtigt wird eigentlich recht gut mit den aktuellen Radeons in der Vertexleistung mithalten dürfen.
Das Geometrie-Delta beeinflusst die Vertexshader nicht sondern (vermutlich) nur das Triangle-Setup.
Wechselbalg
2006-03-18, 00:37:47
Gut. Man lernt nie aus ^^
Aber davon abgesehen dürfte die Vertexleistung ja dennoch sehr nahe beieinander liegen.
svenw
2006-03-18, 07:07:51
Wenn das Spiel nicht sowohl unter der 7900er als auch der 1900er super läuft, wäre was faul. Das ind beide High End Karten und wenn es damit nicht läuft. Unabhängig ob nun ide ien oder andere 2 Frames mehr oder weniger macht.
Wesentlich interessanter ist die Performance unter etwas älteren oder kleineren Karten, denn nicht jeder kann sich alle 3 Monate ne neue High End karte leisten.
naja laut denen soll es ja sogar mit 9800pro recht gut spielbar sein...ob sie das nur sagten damit alle mal blind vorbestellen weiss man nicht...
aber ich baue mal darauf und bin guter hoffnung ^^
AnarchX
2006-03-18, 10:13:26
Was meint ihr?
Könnte man vielleicht die Performance von Oblivion von Far Cry ableiten, natürlich etwa niedriger wegen der fortschrittlicheren Optik und zusätzlich muss man noch etwas abziehen für das Streaming der Spielwelt.
Aber imho würde ich sagen, dass man von Umgebung und KI nicht soweit auseinander ist...
nein. wenn oblivion wie coda meint wirklich kaum shader hat....zumindest im vergleich zu farcry oder fear....
dann könnte es hier wirklich auf füllrate oder bandbreite oder gar geometrieleistung ankommen.
könnte durchaus sein das eine X1900XT kaum schneller wie eine x1800XT ist....oder eine 7800GT nur etwas schneller wie die 6800Ultra (eben gemäss taktunterschied und 4 mehrpipelines) trotz der 2 shaderalus pro pipeline.
AnarchX
2006-03-18, 10:26:52
nein. wenn oblivion wie coda meint wirklich kaum shader hat....zumindest im vergleich zu farcry oder fear....
dann könnte es hier wirklich auf füllrate oder bandbreite oder gar geometrieleistung ankommen.
könnte durchaus sein das eine X1900XT kaum schneller wie eine x1800XT ist....oder eine 7800GT nur etwas schneller wie die 6800Ultra (eben gemäss taktunterschied und 4 mehrpipelines) trotz der 2 shaderalus pro pipeline.
So sieht es mir aber aus wenn ich in Farcry die beiden Karten vergleiche: ;)
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/19/#abschnitt_far_cry
technische Daten:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/2/#abschnitt_technische_daten
Das Oblivion weniger Shader als ein Far Cry verwendet kann ich mir beim besten Willen nicht vorstellen, denn soviel gabs da ja auch nicht.
Ich würde vom gleichen Maß ausgehen von dem Material was man bisher gesehen hat(Höhlen, Wasser, Figuren,...)
FEAR ist da natürlich wieder eine ganz andere Dimension, aber im entferntesten auch nicht wegen der Spielumgebung mit den beiden Spielen vergleichbar.
Ich bleib bei meiner Meinung, das Far Cry uns einen Blick auf die Performanceverhältnisse eines Oblivion gewährt.
So sieht es mir aber aus wenn ich in Farcry die beiden Karten vergleiche:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/19/#abschnitt_far_cry
technische Daten:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/2/#abschnitt_technische_daten
Das Oblivion weniger Shader als ein Far Cry verwendet kann ich mir beim besten Willen nicht vorstellen, denn soviel gabs da ja auch nicht.
Ich würde vom gleichen Maß ausgehen von dem Material was man bisher gesehen hat(Höhlen, Wasser, Figuren,...)
Farcry ist auf halbwegs HighEnd Karten absolut CPU Limitiert...daher liegen die dort alle gleich auf..... um da bei einer X1900XTX oder gar CF noch Grafiklimitierung hinzubekommen müsste man perverse Auflösungen fahren (so alles ab 2600x....) nur dann läuft man gefahr das das ding nicht GPU sondern Speicher und Bandbreitenlimitiert wird.
Wofür soll Oblivion soviel Shader brauchen? für ein bisschen Bumpmapping an Felsen? Das meiste was das darstellen muss sind doch Bäume Äste Blätter und Gräser.
Das Geometrie-Delta beeinflusst die Vertexshader nicht sondern (vermutlich) nur das Triangle-Setup.
afiak gibt nvidia allerdings einen vertexdurchsatz an, der eigentlich nur stimmen kann, wenn die vertexprozessoren auch diesen delta-takt abbekommen.
AnarchX
2006-03-18, 10:49:54
Farcry ist auf halbwegs HighEnd Karten absolut CPU Limitiert...daher liegen die dort alle gleich auf..... um da bei einer X1900XTX oder gar CF noch Grafiklimitierung hinzubekommen müsste man perverse Auflösungen fahren (so alles ab 2600x....) nur dann läuft man gefahr das das ding nicht GPU sondern Speicher und Bandbreitenlimitiert wird.
Oblivion wird wohl etwa nicht CPU-limitiert sein? ;)
Wofür soll Oblivion soviel Shader brauchen? für ein bisschen Bumpmapping an Felsen? Das meiste was das darstellen muss sind doch Bäume Äste Blätter und Gräser.
Die Frage ist wo soll Far Cry mehr Shader haben?
Charactere: bei beiden mit Normal Maps...
Aussenwelt: imho sehr ähnlich, wobei bei Oblivion etwas detaillierter, bei beiden Shaderwasser...
Innenwelt: bei beiden viele Shader und Schatteneffekte
HDR wird auch bei beiden geboten.
Oblivion wird wohl etwa nicht CPU-limitiert sein? ;)
Bestimmt nicht in der Weise das eine X1800XL ähnlich performant ist wie ein X1900XT CrossFire System ^^ ist
Kommt immer auf die Einstellungen drauf an. Auf 640x480 ohne AA und ohne AF min Details bekomme ich jedes Spiel CPU limitiert bei mir.
Die Frage ist wo soll Far Cry mehr Shader haben?
Charactere: bei beiden mit Normal Maps...
Aussenwelt: imho sehr ähnlich, wobei bei Oblivion etwas detaillierter, bei beiden Shaderwasser...
Innenwelt: bei beiden viele Shader und Schatteneffekte
HDR wird auch bei beiden geboten.
Bei Aussenlevel hat Farcry nicht viele Shader das stimmt....aber die Innenlevel imho schon...und das sind nicht wenige wo man in irgendwelchen gebäuden ist. Wenn man sich mal die masse an Files anguckt die Farcry als Shadercache anlegt. AFIAK haben die da über so ziemlich jede Oberfläche einen Shader laufen. War halt neu und da wollte man damit mal nicht geizen. In einer Mittelalterlichen Welt wird es aber nicht soviele Spiegelnde Oberflächen geben mit einer von Menschenhand geschaffenen gleichmässigen Struktur (z.b. Riffelblech usw.) ausserdem läuft man in Morrowind und so vermutlich auch in Oblivion meistens durch den Wald. Klar kommen hier und da Festungen und Häuser mit Shadern vor aber ich glaube nicht das es soviele wie in Fear oder farcry werden wo fast jede Oberfläche einen verpasst bekommt.
TobiWahnKenobi
2006-03-18, 11:29:32
was dann ja heissen müsste, dass man mit SLi noch deutlich was reissen kann..
(..)
mfg
tobi
Wechselbalg
2006-03-18, 12:07:09
Also ich könnte mir sehr gut vorstellen, dass Oblivion CPU limitiert ist, denn das ist ja auch schon bei Morrowind, Gothic oder so ziemlich jeden anderem Rollenspiel mit großen Landschaften zu beobachten. Zwar wird es sich mehr in Richtung Grafikkarte verschieben, aber ich denke es wird weitaus CPU abhängiger als die meisten anderen aktuellen Spiele.
TobiWahnKenobi
2006-03-18, 12:27:22
wobei es bei solchen spielen auch nicht auf 60+ fps ankommt. afair war gothic(2) selbst mit knapp über 20fps schon astrein spielbar.
sollte oblivion nicht anständig laufen, hole ich mir das dingen für die xbox.
(..)
mfg
tobi
Ailuros
2006-03-18, 12:30:53
Das hab ich mir auch schon überlegt, wäre aber wirklich ungewöhnlich. Würde die Überlegenheit der Radeons falls sie wirklich da ist aber erklären.
Nicht unbedingt.
7900GTX = 8 VS * 700MHz
X1900XTX = 8 VS * 650MHz
http://www.techreport.com/reviews/2006q1/geforce-7600-7900/index.x?pg=12
Mit Fragezeichen aber bitte, denn ich sehe keine Logik dafuer.
Ailuros
2006-03-18, 12:40:04
Das einzige was ich bis jetzt glauben kann ist dass hoechstwahrscheinlich dual-core CPUs moeglicherweise in Oblivion profitieren werden und das deutet mir auf ersten Blick erstmal nicht auf eine absolute GPU-Limitierung und es kommt natuerlich auch hier auf die benutzen Spiele-settings an.
Dieser geleakte Graph hilft mir ueberhaupt nicht auf irgendwelche Schlussvolgerungen zu kommen, wenn ich nicht weiss was fuer settings benutzt wurden im Spiel, wie sich das Ding in verschiedenen Aufloesungen und auch ohne AA verhaelt usw. usw.
robbitop
2006-03-18, 12:42:01
Nicht unbedingt.
7900GTX = 8 VS * 700MHz
X1900XTX = 8 VS * 650MHz
Das kommt bei dieser sturen (und stupiden) Rechnerei heraus. Es fehlt das Differenzieren beider Einheiten. Die Radeons haben im Skalaren Kanal ein komplettes MAD während die GFs es nicht haben. Das bringt bis zu ~20% Leistung pro VS. Außerdem basieren beide Konkurenz VS auf verschiedenen Funktionsweisen (SIMD/MIMD). Das gleiche gilt IMO auch für das stupide Berechnen der MADs beim PS (weil auch hier die Einheiten zu unterschiedlich sind).
Ailuros
2006-03-18, 12:55:10
Das kommt bei dieser sturen (und stupiden) Rechnerei heraus. Es fehlt das Differenzieren beider Einheiten. Die Radeons haben im Skalaren Kanal ein komplettes MAD während die GFs es nicht haben. Das bringt bis zu ~20% Leistung pro VS. Außerdem basieren beide Konkurenz VS auf verschiedenen Funktionsweisen (SIMD/MIMD). Das gleiche gilt IMO auch für das stupide Berechnen der MADs beim PS (weil auch hier die Einheiten zu unterschiedlich sind).
Erstens gab es einen synthetischen Benchmark im Post den Du aber nicht mitgequotet hast und zweitens lassen Radeons mit db im VS zu wuenschen uebrig.
Waere Frequenz fuer VS sooo nebenwichtig wuerde ich sie gar nicht erwaehnen; es gibt guten Grund fuer den +50MHz clock domain auf den 7900GTX VS MIMDs.
Neomi
2006-03-18, 12:58:15
Wofür soll Oblivion soviel Shader brauchen? für ein bisschen Bumpmapping an Felsen? Das meiste was das darstellen muss sind doch Bäume Äste Blätter und Gräser.
Irgendwie habe ich das Gefühl, daß du nicht wirklich weißt, was ein Shader ist. Ein Shader ist kein Effekt, er ermöglicht nur Effekte. Und wenn es nur eine simple Singlelayer-Textur mit Gouraud-Shading ist, benutzt man dafür in halbwegs aktuellen Engines einen Shader. Du wirst in Oblivion nicht einen einzigen Pixel sehen, der durch die Fixed Function Pipeline gewandert ist.
Coda sagte nicht, daß es wenige Shader geben wird. Er sagte nur, daß es nicht shaderlimitiert sein wird, und da stimme ich zu.
Ich weiss was ein Shader ist.
*edit* korrekt muss es ja Shaderprogramm heissen bzw. Instruktionsabfolge.
Neomi
2006-03-18, 13:02:00
Ich weiss was ein Shader ist.
*edit* korrekt muss es ja Shaderprogramm heissen bzw. Instruktionsabfolge.
Dann ist ja gut, aber deine Postings weiter oben klangen nicht danach. Shader und Effekt wird leider viel zu häufig verwechselt.
Von mir nicht. Ich habe beruflich schon asm code für embedded chips geschrieben da sind hier so einige noch mit der trommel um den baum gelaufen ^^
afiak gibt nvidia allerdings einen vertexdurchsatz an, der eigentlich nur stimmen kann, wenn die vertexprozessoren auch diesen delta-takt abbekommen.Klar. Mit dem Post-Vertex-Cache funktioniert das mit beschleunigtem Tri-Setup ja auch dann. Realistisch ist es allerdings trotzdem nicht ;)
Kann allerdings auch sein, dass nVIDIA beim G71 wirklich auch die Vertexshader schneller laufen lässt.
Gouvernator
2006-03-18, 13:12:29
Nicht unbedingt.
7900GTX = 8 VS * 700MHz
X1900XTX = 8 VS * 650MHz
http://www.techreport.com/reviews/2006q1/geforce-7600-7900/index.x?pg=12
Mit Fragezeichen aber bitte, denn ich sehe keine Logik dafuer.
Mit 1900XTX siehe profil erreiche ich
332 fps in pixelshader 3dmark2006
221.9 vertex shader simple
75.7 vertex shader complex
fillrate 1 single - 5844.333
fillrate 2 multi - 12680.161
Na wenigstens in "Vertex Shader simple" bin ich mit einer einzelner Karte deutlich schneller als alles andere :biggrin:
Wer weiss wo ich Vergleiche auch von Fillrate finde ?
Ailuros
2006-03-18, 14:15:49
Mit 1900XTX siehe profil erreiche ich
332 fps in pixelshader 3dmark2006
221.9 vertex shader simple
75.7 vertex shader complex
fillrate 1 single - 5844.333
fillrate 2 multi - 12680.161
Na wenigstens in "Vertex Shader simple" bin ich mit einer einzelner Karte deutlich schneller als alles andere :biggrin:
Wer weiss wo ich Vergleiche auch von Fillrate finde ?
Οbwohl die Resultate Deiner ubertakteten X1900 interessant sind, hab ich nicht auf den Link hingewiesen fuer irgendwelche Vergleiche.
Gouvernator
2006-03-18, 14:33:45
Ich habe in einem anderen thread über Oblivion gesagt ob eine gut übertaktete XTX mit SLI CF mithalten bzw. schneller sein kann.
Ailuros
2006-03-19, 01:10:27
Ich habe in einem anderen thread über Oblivion gesagt ob eine gut übertaktete XTX mit SLI CF mithalten bzw. schneller sein kann.
Angenommen man uebertaktet eine XTX um 20%, kommt unter idealen Bedingungen auch in etwa 20% mehr Leistung raus. Stimmen jetzt die angeblich geleakten Resultate sind das im besten Fall ~40 fps. Skaliert das Spiel gut mit SLi ist der theoretische Idealfall irgendwo um die 50 fps.
Im uebrigen braucht man mit dem genre logischerweise auch nicht so viel Leistung wie in einem FPS.
http://www.justgamers.de/kmx/modul_cms/uploads/article/new/pc/Vergleich-2.jpg
ist da mit AF noch was zu retten?
bild wurde mit ati9800 gemacht.
http://www.justgamers.de/kmx/modul_cms/uploads/article/new/pc/Vergleich-2.jpg
ist da mit AF noch was zu retten?
bild wurde mit ati9800 gemacht.Das soll Oblivion sein? Sieht ja grausig aus...
AnarchX
2006-03-19, 16:56:31
http://www.justgamers.de/kmx/modul_cms/uploads/article/new/pc/Vergleich-2.jpg
ist da mit AF noch was zu retten?
bild wurde mit ati9800 gemacht.
Das hat nix mit AF zu tun, das ist einfach nur ein grausiges LoD-System :eek:
r3ptil3
2006-03-20, 11:20:45
Elder Scrolls 4: Oblivion
Nvidia programmiert angepassten Treiber
http://www.gamestar.de/news/pc-spiele/rollenspiele/32269/
Nvidia ist vielleicht langsamer als ATI und darum kommt jetzt so ein "optimierter" Treiber. :D
Aber könnte auch sein, dass sie einfach einen guten Treiber für Oblivion veröffentlichen wollen.
Elder Scrolls 4: Oblivion
Nvidia programmiert angepassten Treiber
http://www.gamestar.de/news/pc-spiele/rollenspiele/32269/
Nvidia ist vielleicht langsamer als ATI und darum kommt jetzt so ein "optimierter" Treiber. :D
Aber könnte auch sein, dass sie einfach einen guten Treiber für Oblivion veröffentlichen wollen.
Mir kommen da wieder Erinnerung an geforce FX und FarCry hoch ... aber mal abwarten!
svenw
2006-03-20, 11:29:01
Finde ich nichts verwerfliches dran: Jeder Hersteller hat ein ureigenstes Interesse daran das sein Spiel optimal auf jeder Hardwareläuft und HArdwarehersteller das jedes megaspiel (und Oblivion wird so eins werden) optimal auf seiner Hardware läuft. Nach den Aussagen aus dem Oblivion Forum dürfte das Spiel Nvidia KArten nicht so sonderlich liegen. Ohne meine hellseherischen Fähigkeiten überzustrapazieren würde ich sagen, das ATI das gleiche bei der Doom Engine gemacht hat. ATI hat für die Doom Performance schon reichlich Prügel bezogen und Nvidia ist einfach schlauer indem sie von anfang an so gut es geht optimieren.
Aber könnte auch sein, dass sie einfach einen guten Treiber für Oblivion veröffentlichen wollen.
Sehr Unwahrscheinlich. Solang sie in etwa gleich schnell oder leicht schneller wie die Konkurenz sind werden sie keine Menpower oder Geld in sowas investieren da keine Notwendigkeit besteht. Man kann dann immer sagen es liegt an der Engine :rolleyes:
Ohne Dringlichkeit auch kein neuer Treiber :tongue:
Sehr Unwahrscheinlich. Solang sie in etwa gleich schnell oder leicht schneller wie die Konkurenz sind werden sie keine Menpower oder Geld in sowas investieren da keine Notwendigkeit besteht. Man kann dann immer sagen es liegt an der Engine :rolleyes:
Ohne Dringlichkeit auch kein neuer Treiber :tongue:
Genau so ist das. Außerdem ist Oblivion ja schon seit langer Zeit in der Entwicklung und wurde zuletzt von Weihnachten auf bald verschoben. Damals gab es die GeForce 7 längst und technologisch hat sich bei nVidia seither nichts geändert. Daher riecht so ein eiliger Treiber-Release schon ein wenig nach Panikattacke. Von neuen ATI-Treiber für Obilivion habe ich noch nix gehört.
Jeder Hersteller hat ein ureigenstes Interesse daran das sein Spiel optimal auf jeder Hardware läuft
stimmt
und HArdwarehersteller das jedes megaspiel (und Oblivion wird so eins werden) optimal auf seiner Hardware läuft.
Nö. Solange man etwa gleich gut (schlecht) wie die Konkurenz ist nicht. Da ist eher das Gegenteil der Fall. Man gräbt sich ja die willigen Aufrüster ab wenn das Spiel zu gut läuft. Es würden für Oblivion sicherlich so einige ihre 6800GT auf 7900GT aufrüsten wenns auf ersterer ruckelt. Wie gesagt solang die Konkurenz nicht besser ist kann man sich eher freuen wenn die Spiele nicht so toll laufen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.